<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.3 20210610//EN" "http://jats.nlm.nih.gov/publishing/1.3/JATS-journalpublishing1-3.dtd">
<article xmlns:ali="http://www.niso.org/schemas/ali/1.0/" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" article-type="research-article" dtd-version="1.3" xml:lang="es">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">RCED</journal-id>
      <journal-title-group>
        <journal-title specific-use="original" xml:lang="es">Revista Complutense de Educación</journal-title>
      </journal-title-group>
      <issn publication-format="electronic">1988-2793</issn>
      <issn-l>1130-2496</issn-l>
      <publisher>
        <publisher-name>Ediciones Complutense</publisher-name>
        <publisher-loc>España</publisher-loc>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.5209/rced.93797</article-id>
      <article-categories>
        <subj-group subj-group-type="heading">
          <subject>Artículos</subject>
        </subj-group>
      </article-categories>
      <title-group>
        <article-title>El efecto de incentivos negativos en un sistema online de valoración docente del profesorado</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>The effect of negative incentives in an student evaluation of teaching online system</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author" corresp="yes">
          <contrib-id contrib-id-type="orcid">https://orcid.org/0000-0001-9418-2113</contrib-id>
          <name>
            <surname>Cid-Cid</surname>
            <given-names>Ana I.</given-names>
          </name>
          <xref ref-type="aff" rid="aff-a"/>
          <xref ref-type="corresp" rid="cor1"/>
        </contrib>
        <contrib contrib-type="author" corresp="yes">
          <contrib-id contrib-id-type="orcid">https://orcid.org/0000-0002-2438-8455</contrib-id>
          <name>
            <surname>Leguey</surname>
            <given-names>Santiago</given-names>
          </name>
          <xref ref-type="aff" rid="aff-a"/>
          <xref ref-type="corresp" rid="cor2"/>
        </contrib>
        <contrib contrib-type="author" corresp="yes">
          <contrib-id contrib-id-type="orcid">https://orcid.org/0000-0002-4362-0889</contrib-id>
          <name>
            <surname>Prieto</surname>
            <given-names>Jaime</given-names>
          </name>
          <xref ref-type="aff" rid="aff-a"/>
          <xref ref-type="corresp" rid="cor3"/>
        </contrib>
        <contrib contrib-type="author" corresp="yes">
          <contrib-id contrib-id-type="orcid">https://orcid.org/0000-0003-3450-615X</contrib-id>
          <name>
            <surname>Guede-Cid</surname>
            <given-names>Rocío</given-names>
          </name>
          <xref ref-type="aff" rid="aff-a"/>
          <xref ref-type="corresp" rid="cor4"/>
        </contrib>
        <aff id="aff-a">
          <institution content-type="original">Universidad Rey Juan Carlos</institution>
          <country country="ES">España</country></aff>
      </contrib-group>
      <author-notes>
        <corresp id="cor1">Ana I. Cid-Cid<email>ana.cid@urjc.es</email>
        </corresp>
        <corresp id="cor2">Santiago Leguey<email>santiago.leguey@urjc.es</email>
        </corresp>
        <corresp id="cor3">Jaime Prieto<email>jaime.prieto@urjc.es</email>
        </corresp>
        <corresp id="cor4">Rocío Guede-Cid<email>rocio.guede@urjc.es</email>
        </corresp>
      </author-notes>
      <pub-date date-type="pub" publication-format="electronic" iso-8601-date="2025-06-30">
        <day>30</day>
        <month>06</month>
        <year>2025</year>
      </pub-date>
      <volume>36</volume>
      <issue>3</issue>
      <fpage>313</fpage>
      <lpage>322</lpage>
      <page-range>313-322</page-range>
      <permissions>
        <copyright-statement>© 2025 Universidad Complutense de Madrid</copyright-statement>
        <license license-type="open-access" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <ali:license_ref>https://creativecommons.org/licenses/by/4.0/</ali:license_ref>
          <license-p>Esta obra está bajo una licencia <ext-link ext-link-type="uri" xlink:href="https://creativecommons.org/licenses/by/4.0/"> Creative Commons Attribution 4.0 International</ext-link></license-p>
        </license>
      </permissions>
      <abstract>
        <p>Diversos estudios han señalado que la administración online de las encuestas de valoración docente
          arroja tasas de respuesta sensiblemente inferiores a las que se obtenían cuando su administración era en
          papel en el aula. Entre los métodos propuestos para su incremento destaca el uso de incentivos de distinto tipo
          que actúan como motivadores extrínsecos para el alumnado, ya sean de carácter positivo (p.ej.: publicación
          anticipada de las calificaciones) o negativo (p.ej.: permitir la realización de los exámenes). El objetivo del presente
          estudio fue analizar el efecto que tuvo sobre la tasa de respuesta de las encuestas de valoración docente de
          una universidad la incorporación de un incentivo negativo (obligatoriedad de cumplimentar la encuesta para la
          consulta de las calificaciones) al migrar de un sistema de administración en papel (sin incentivo de respuesta) a un
          sistema de administración online. Se analizaron las valoraciones docentes de 35.497 asignaturas pertenecientes
          a 18 semestres, en 9 de ellos se utilizaron cuestionarios en papel administrados presencialmente en el aula y
          en los otros 9 cuestionarios online. Los principales resultados del estudio mostraron que la introducción del
          incentivo contribuyó a incrementar la tasa de respuesta, pero tuvo efectos no deseables como el aumento de
          estudiantes que respondían con el mismo valor a todos los ítems de las encuestas. Los resultados obtenidos tras
          la introducción del incentivo negativo de respuesta podrían sugerir una posible falta de interés de los estudiantes
          a la hora de cumplimentarlas, siendo su único objetivo completarlas cuanto antes con un patrón de respuesta
          de mínimo esfuerzo respondiendo a todos los ítems con el mismo valor para poder acceder a la calificación de
          la asignatura. El trabajo discute las posibles implicaciones de ello y señala posibles líneas de actuación para los
          gestores de las instituciones universitarias a este respecto.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>Several studies have shown that online administration of Students’ Evaluation of Teaching (SET)
          surveys typically results in significantly lower response rates compared to paper-based administration
          conducted in the classroom. To address this issue, institutions have implemented various incentives as
          extrinsic motivators for students, either of positive (e.g., early release of grades) or negative nature (e.g.,
          making survey completion a prerequisite for accessing exam results). This study aimed to analyze the impact
          of introducing a negative incentive (requiring students to complete the survey in order to access their grades)
          on the response rates of SET surveys during a university’s transition from a paper-based system (without
          incentives) to an online one. The analysis covered teaching evaluations from 35,497 course subjects across
          18 semesters, with nine semesters using paper surveys administered in class and the other nine using online
          surveys. The main findings of the study showed that the introduction of the incentive contributed to higher
          response rates but also led to undesirable effects, such as an increased number of students providing
          uniform responses across all survey items. These results suggest a possible lack of genuine engagement,
          with students completing surveys hastily and with minimal effort solely to access their grades. The study
          discusses the implications of these findings and offers recommendations for university administrators
          regarding the design and implementation of SET survey strategies.</p>
      </trans-abstract>
      <kwd-group kwd-group-type="author-keywords">
        <kwd>Evaluación del profesorado</kwd>
        <kwd>educación superior</kwd>
        <kwd>encuestas de valoración docente</kwd>
        <kwd>cuestionario online</kwd>
        <kwd>alumnado</kwd>
      </kwd-group>
      <kwd-group xml:lang="en" kwd-group-type="author-keywords">
        <kwd>teacher evaluation</kwd>
        <kwd>higher education</kwd>
        <kwd>student evaluation of teaching</kwd>
        <kwd>online survey</kwd>
        <kwd>students</kwd>
      </kwd-group>
    </article-meta>
  </front>
<body>
<sec id="sec1">
  <title>1. Introducción</title>
  <p>Las encuestas de valoración docente se han utilizado desde principios del siglo XX como
        herramienta para garantizar la calidad de la educación superior (Sullivan et al., 2024) y
        como instrumento en los procesos de promoción del profesorado y de evaluación de las
        titulaciones (Abellán-Roselló y Fernández-Rodicio, 2023). A través de estas encuestas los
        estudiantes evalúan a sus profesores en distintos aspectos de la enseñanza, normalmente con
        cuestionarios estandarizados de escala tipo Likert que pueden completarse con preguntas
        abiertas (Castro-Morera, et al., 2020; Spooren et al., 2007). Tradicionalmente, estas
        encuestas se administraban a los alumnos en papel en el aula al final del periodo académico,
        y los resultados podían servir a los profesores para mejorar su práctica docente en el
        futuro (Jiang y Xiong, 2021). Con el desarrollo de la tecnología, estos cuestionarios
        comenzaron a administrarse electrónicamente a finales del siglo pasado, hasta convertirse en
        la principal forma de administración a día de hoy (Nederhand et al., 2023). Se prevé que el
        protagonismo de la valoración docente <italic>online</italic> siga aumentando (Campos et
        al., 2022), observándose la necesidad de ampliar las investigaciones sobre este sistema
        (Iancu et al., 2024). Cabe destacar que, en general, los estudiantes prefieren el método de
        administración <italic>online</italic> a la hora de evaluar a sus profesores, puesto que
        perciben un mayor anonimato al no sentirse presionados por la presencia de los profesores en
        clase (Stowell et al., 2012). Por el contrario, algunos profesores son reacios a cambiar a
        un entorno <italic>online</italic> por diversas razones, como la obtención de tasas de
        respuesta más bajas y la creencia de que los resultados son menos precisos (Crews y Curtis,
        2011).</p>
  <p>La mayoría de los estudios que han comparado ambas formas de administración muestran las
        ventajas e inconvenientes de cada una de ellas, centrándose en dos cuestiones fundamentales.
        Por un lado, en analizar las posibles diferencias entre las valoraciones medias que obtiene
        el profesorado según sea su administración en el aula o de forma <italic>online.</italic> Y
        por otro, en examinar las posibles diferencias en las tasas de respuesta que se obtienen con
        cada forma de administración. En cuanto al impacto en las valoraciones medias, no existe un
        consenso claro en la literatura. Algunas investigaciones han encontrado puntuaciones medias
        más bajas en la administración <italic>online</italic>, sugiriendo que los estudiantes que
        responden sin presión en un entorno digital son más estrictos a la hora de evaluar a sus
        profesores (Baldo et al., 2020). No obstante, existen otros estudios que muestran
        puntuaciones medias más altas, lo que podría sugerir que la utilización de este sistema
          <italic>online</italic> predispone a los estudiantes a realizar evaluaciones más
        favorables, en comparación con el uso tradicional del papel (Avery et al., 2006). Asimismo,
        otros trabajos no muestran diferencias significativas entre las puntuaciones medias cuando
        se comparaban los entornos <italic>online</italic> y presenciales (Guder y Malliaris,
        2010).</p>
  <p>En lo que se refiere a la tasa de respuesta, la mayoría de los estudios concluyen que esta es
        menor cuando la administración de las encuestas de valoración docente es
          <italic>online</italic> (Guder y Malliaris, 2010; Stowell et. al, 2012). Por ello, el
        estudio de los factores que pueden explicar las tasas de respuesta más bajas y cómo aumentar
        el porcentaje de respuestas ha sido objeto de investigación recurrente en los últimos años
        (Goodman et al., 2014; Sullivan et al., 2024). La literatura ha puesto de relieve diferentes
        formas de aumentar la tasa de respuesta en la valoración docente <italic>online</italic>.
        Así, motivar a los estudiantes a completar las encuestas cuando las reciban, explicándoles
        la importancia de estas como posible mecanismo de mejora de la práctica docente, y
        mostrándoles que el proceso garantiza la confidencialidad y el anonimato, conducen a un
        aumento de la tasa de respuesta (Crews y Curtis, 2011; Goodman et al., 2014). Asimismo, el
        hecho de que se familiaricen con el entorno de la encuesta <italic>online</italic> tiene un
        efecto positivo en la tasa de respuesta (Crews y Curtis, 2011; Nulty, 2008). Cuando varias
        de estas acciones se realizan de forma combinada, su eficacia aumenta (Ballantyne,
        2003).</p>
  <p>Por otra parte, algunas instituciones han optado por la incorporación de incentivos de
        respuesta como estrategia para aumentar las tasas de respuesta cuando las encuestas se
        administran <italic>online</italic> (Alvero et al., 2019; Stowell et al., 2012). Los
        incentivos pueden ser positivos o negativos, dependiendo de si los estudiantes están
        motivados para conseguir algo que quieren o para evitar una consecuencia negativa,
        respectivamente. Los incentivos positivos más eficaces incluyen la obtención de puntos extra
        en sus calificaciones o la publicación anticipada de las calificaciones (Berk, 2012). Por su
        parte, los incentivos negativos contemplan entre otros hacer obligatorias las encuestas para
        permitir la realización de exámenes o la consulta online de las calificaciones (Crews y
        Curtis, 2011; Anderson, Cain y Bird, 2005). En este sentido, varios estudios han destacado
        el uso de incentivos como la forma más eficaz de aumentar las tasas de respuesta en la
        administración <italic>online</italic> de las encuestas de valoración docente (Crews y
        Curtis, 2011; Goodman et al., 2014; Zipser y Mincieli, 2018).</p>
  <p>Pero ¿podría el uso de incentivos de respuesta tener consecuencias, no sólo en el deseable
        aumento de la tasa de respuesta de las encuestas <italic>online</italic>, sino también en
        cómo los estudiantes responden a las encuestas? En concreto y en lo que a los incentivos
        negativos se refiere, ¿podría afectar al modo en que los estudiantes completan las encuestas
        de valoración docente el uso de ciertos incentivos negativos (p.ej.: la necesidad de
        completar la encuesta para la consulta de calificaciones) que hagan que las encuestas
          <italic>online</italic> se conviertan en prácticamente obligatorias en comparación con la
        administración tradicional en papel y en clase en las que no había ningún tipo de incentivo?
        Este fenómeno puede ser examinado mediante el análisis de la distribución de los rangos de
        respuesta. Para su análisis contamos con un indicador específico como es la variabilidad
        intracuestionario (también conocido como intravariabilidad de respuestas), que refleja cómo
        de variables son las respuestas de un encuestado cuando responde a un cuestionario (Lam y
        Green, 2023). Este indicador reflejaría el grado de variabilidad de las respuestas que cada
        estudiante da a los diferentes ítems que les son presentados en las encuestas de valoración
        docente de sus profesores. Esta medida es empleada habitualmente como indicador del nivel de
        esfuerzo e interés (o cuidado) que los encuestados muestran a la hora de cumplimentar un
        cuestionario (Dunn, et al., 2018), permitiendo así discriminar entre respondientes
        conscientes (del inglés <italic>conscientious responders</italic>; aquellos que responden de
        buena fe e interés a la encuesta) y respondientes aleatorios (del inglés <italic>random
          responders</italic>; aquellos que responden a los ítems de los cuestionarios sin realmente
        pararse a analizarlos (Marjanovic et al., 2015; Osborne y Blanchard, 2011). De entre los
        posibles métodos para computar la intravariabilidad de respuestas en un cuestionario destaca
        el uso del rango de variación o recorrido estadístico, entendido como la diferencia entre la
        puntuación máxima y la puntuación mínima otorgada a los diferentes ítems de la encuesta por
        parte de cada encuestado. Se trata de una medida de dispersión absoluta cuya principal
        ventaja es que, de forma sencilla, permite conocer la amplitud de los datos de una
        distribución (Casado, 2007). En contraposición, y es preciso señalarlo, se trata de una
        medida que por sí sola proporciona poca información sobre la distribución interna de los
        datos (Casado, 2007). Otros autores con este mismo propósito han utilizado la varianza
        intracuestionario o intravarianza (Steedle et al., 2019).</p>
  <p>Hasta donde nuestro conocimiento alcanza, no existen estudios previos que hayan examinado los
        interrogantes anteriormente planteados, por lo que responder a ellos podría contribuir a
        avanzar en el conocimiento sobre las encuestas de valoración docente como elemento principal
        usado por las universidades para la valoración del desempeño de sus docentes. Con este
        contexto como motivación, el propósito de esta investigación fue analizar cómo el hecho de
        cambiar de un sistema tradicional de administración de encuestas de valoración docente en
        clase en papel, sin incentivos de respuesta, a un sistema de administración
          <italic>online</italic> fuera de clase que incluye el uso de un incentivo de respuesta
        negativo, puede afectar a la tasa de respuesta y al modo en que los estudiantes responden a
        las encuestas.</p>
</sec>
<sec id="sec2">
  <title>2. Metodología</title>
  <sec id="sec2.1">
    <title>2.1. Tipo de estudio, muestra y procedimiento de recogida de información</title>
    <p>Se planteó una Investigación cuantitativa de tipo exploratorio, en la que sin hipótesis
          previas se describen los comportamientos de los indicadores de interés. Aunque el carácter
          es longitudinal, ya que se presentan los resultados de 9 cursos académicos, el estudio se
          focaliza en observar las diferencias entre lo que ocurre antes y después del momento en el
          que se produce un cambio en el sistema de recolección de las encuestas. Respecto a la
          selección de individuos para el estudio, se trata de un diseño censal puesto que se
          pretende obtener la valoración de todos los estudiantes que han cursado cada asignatura a
          lo largo del periodo de análisis.</p>
    <p>La muestra comprendió 18 semestres consecutivos de administración de encuestas de valoración
          docente del profesorado en una universidad pública española, para un total de 9 cursos
          académicos, del curso 2010-11 al curso 2018-19. Durante los 18 semestres la encuesta de
          valoración docente fue la misma, cambiando únicamente su forma de administración. En los
          primeros 9 semestres, su administraron fue en papel en clase, a través de unas hojas de
          lectura óptica que eran completadas a mano por los estudiantes con un bolígrafo. Las
          encuestas eran administradas durante una sesión de clase entre dos y cuatro semanas antes
          del periodo de exámenes. Los estudiantes no tenían ningún tipo de incentivo por completar
          las encuestas, más allá de emplear ese tiempo en que se detenía la clase para valorar cómo
          había sido el desempeño de su profesor durante la asignatura que iba a concluir. En los
          siguientes 9 semestres (a partir del segundo semestre del curso 2014-15), la
          administración de la encuesta migró a un sistema <italic>online</italic> (los estudiantes
          cumplimentaban por su cuenta las encuestas web fuera de clase) e incorporó un incentivo
          negativo, por el cual su cumplimentación era condición previa imprescindible para acceder
          a la consulta <italic>online</italic> de las calificaciones. El enlace para acceder a las
          encuestas era enviado por correo electrónico a los estudiantes, estando disponibles para
          ser respondidas entre dos y cuatro semanas antes del final del semestre. Cuando el
          estudiante accedía a la plataforma para consultar la calificación en una asignatura el
          sistema comprobaba si había completado la encuesta de valoración del profesor antes de
          mostrar la nota, redirigiéndole al formulario de respuesta en caso de no haber sido así.
          Aunque todas las preguntas contaban con la opción de respuesta “No deseo contestar”, la
          gran mayoría decidía responder (un 93,4% contestó a todas las preguntas y un 99,2%
          contestó al menos a la mitad de ellas).</p>
    <p>Se recogieron un total de 1.603.593 respuestas correspondientes a
    35.497 asignaturas.</p>
  </sec>
  <sec id="sec2.2">
    <title>2.2. Instrumento</title>
    <p>El cuestionario administrado (recordemos que se trató del mismo cuestionario durante todos
          los cursos, cambiando únicamente su forma de administración) constaba de una selección de
          preguntas extraídas del instrumento de 31 ítems desarrollado y validado inicialmente por
          Spooren et al. (2007), uno de los instrumentos de valoración docente más extendidos y
          empleados internacionalmente en el ámbito de la educación superior. En concreto, el
          cuestionario de valoración docente empleado constaba de 10 ítems relativos a los aspectos
          que la universidad consideraba esenciales a la hora de valorar la calidad docente. La
          escala de respuesta era tipo Likert de 5 puntos y oscilaba entre 1: ‘Totalmente en
          desacuerdo’ y 5: ‘Totalmente de acuerdo’. Los alumnos podían evaluar a sus profesores en
          todas las asignaturas en las que estuvieron matriculados cada curso.</p>
  </sec>
  <sec id="sec2.3">
    <title>2.3. Análisis de los datos</title>
    <p>Para cada curso académico se obtuvieron tres indicadores de
    calidad de la encuesta de valoración docente: la tasa de respuesta,
    la distribución de los rangos de respuesta de las encuestas y la
    medida del tamaño del efecto de la intravariabilidad en las
    respuestas.</p>
    <p>En cuanto a la tasa de respuesta, ésta representaba la proporción de encuestas realizadas. Es
          decir, el número de estudiantes que respondían a la encuesta dividido entre el número
          total de matriculados en la asignatura. La tasa de respuesta es considerada como uno de
          los indicadores preferentes a la hora de estudiar la precisión de cualquier encuesta y es
          un elemento de análisis principal en el campo de estudio de las encuestas de valoración
          docente (Biemer y Lyberg, 2003).</p>
    <p>En cuanto a la distribución de los rangos de respuesta de las encuestas, se examinó la
          intravariabilidad de las respuestas dadas por cada estudiante en cada encuesta de
          valoración docente (variabilidad intracuestio- nario). Para ello se computó el rango de
          variación o recorrido como la diferencia entre la puntuación máxima y la puntuación mínima
          otorgada a los diferentes ítems de la encuesta por parte de cada estudiante. Como se
          trataba de encuestas de escala tipo Likert de 1 a 5 puntos únicamente son posibles 5
          rangos diferentes de respuesta (de rango 0 a rango 4; p.ej., el rango=0 representaría a un
          estudiante que valora todos los ítems de la encuesta con la misma puntuación; el rango=4
          representaría una encuesta en la que al menos una respuesta tiene puntuación 1 y al menos
          otra puntuación 5). Esto permitió, por un lado, examinar la evolución de la variabilidad
          intracuestionario a lo largo de los años y en función del sistema de administración
          empleado (papel u <italic>online</italic>). Y, por otro, clasificar los cuestionarios en
          dos grupos en función de si todos los ítems recibían la misma puntuación o no (al menos
          dos ítems obtenían puntuaciones distintas). La intravarianza y el rango de los
          cuestionarios del primer grupo sería cero (intravariablidad nula), siendo para el segundo
          grupo mayores que cero (intravariabilidad positiva). De entre estas dos medidas
          presentadas anteriormente en el marco teórico introductorio (intravariazna y rango) se
          decidió emplear el rango por su simplicidad a la hora de presentar los resultados. Además,
          el uso del rango de variación en las respuestas permitió clasificar todos los
          cuestionarios en 5 categorías ligadas a los 5 posibles rangos de respuesta, facilitando la
          interpretación y presentación de los resultados.</p>
    <p>Una vez establecidos los dos anteriores grupos (cuestionarios con intravariabilidad nula vs.
          cuestionarios con intravariabilidad positiva), el objetivo pasaba por comparar ambos
          grupos antes y después de la aplicación del cuestionario <italic>online</italic> con el
          incentivo negativo. Para ello, en primer lugar, se realizó un contraste de diferencias de
          medias entre los dos grupos mediante la prueba <italic>t</italic> de Student. El resultado
          de la prueba fue significativo y próximo a cero en todos los cursos analizados (p=0.000),
          por lo que no facilita apreciar la evolución de las posibles diferencias entre los dos
          grupos a lo largo de los años. En este contexto, se decidió emplear el tamaño del efecto
          como medida para analizar la magnitud de la diferencia entre las puntuaciones de los dos
          grupos, constituyendo una medida complementaria al contraste de hipótesis (Kelley y
          Preacher, 2012). En particular, se empleó el coeficiente eta cuadrado
            (<italic>η</italic><sup>2</sup>) para su estimación. Es preciso destacar que el
          coeficiente eta cuadrado (<italic>η</italic><sup>2</sup>) es considerado como una medida
          habitual y apropiada para calcular el tamaño del efecto en la investigación educativa
          (Richardson, 2011).</p>
  </sec>
</sec>
<sec id="sec3">
  <title>3. Resultados</title>
  <p>La <xref ref-type="table" rid="table1">Tabla 1</xref> muestra los datos descriptivos de las encuestas de
  valoración docente analizadas. El 34,4% de las encuestas
  correspondieron a los nueve primeros semestres, recogidas en el aula y
  en papel, frente al 65,6% de encuestas correspondientes a los 9
  semestres restantes, completadas <italic>online</italic> fuera del
  aula.</p>
  <table-wrap id="table1">
    <caption>
      <p>Tabla 1. Distribución de las encuestas de valoración docente recogidas.</p>
    </caption>
    <table>
      <colgroup>
        <col width="21%" />
        <col width="27%" />
        <col width="21%" />
        <col width="31%" />
      </colgroup>
      <thead>
        <tr>
          <th><bold>Curso académico</bold></th>
          <th><bold>Número de encuestas recogidas</bold></th>
          <th><bold>Número de clases</bold></th>
          <th><bold>Número medio de encuestas por clase</bold></th>
        </tr>
      </thead>
      <tbody>
        <tr>
          <td>2010-11</td>
          <td>92.341</td>
          <td>3.192</td>
          <td>28,9</td>
        </tr>
        <tr>
          <td>2011-12</td>
          <td>117.881</td>
          <td>3.533</td>
          <td>33,4</td>
        </tr>
        <tr>
          <td>2012-13</td>
          <td>130.305</td>
          <td>3.693</td>
          <td>35,3</td>
        </tr>
        <tr>
          <td>2013-14</td>
          <td>136.670</td>
          <td>3.724</td>
          <td>36,7</td>
        </tr>
        <tr>
          <td>2014-15</td>
          <td>169.086</td>
          <td>3.691</td>
          <td>45,8</td>
        </tr>
        <tr>
          <td>2015-16</td>
          <td>215.889</td>
          <td>3.527</td>
          <td>61,2</td>
        </tr>
        <tr>
          <td>2016-17</td>
          <td>224.630</td>
          <td>3.788</td>
          <td>59,3</td>
        </tr>
        <tr>
          <td>2017-18</td>
          <td>242.249</td>
          <td>4.978</td>
          <td>48,7</td>
        </tr>
        <tr>
          <td>2018-19</td>
          <td>274.542</td>
          <td>5.371</td>
          <td>51,1</td>
        </tr>
      </tbody>
    </table>
  </table-wrap>
  <sec id="sec3.1">
    <title>3.1. Tasa de respuesta</title>
    <p>En la <xref ref-type="fig" rid="fig1">Figura 1</xref> puede observarse cómo la tasa de respuesta se incrementó considerablemente con
          la implantación del sistema <italic>online</italic>. En el curso 2010-11 la tasa de
          respuesta fue del 39,6%, porcentaje que fue aumentando gradualmente hasta el primer
          semestre de 2014-2015, cuando alcanzó el 55,7%. En el segundo semestre de 2014-15, el
          primero en el que se utilizó el sistema <italic>online</italic>, la tasa de respuesta se
          disparó hasta el 80,6%. La tasa de respuesta siguió aumentando en los dos cursos
          siguientes, alcanzando valores máximos del 87,1% y el 86,8%, respectivamente. En los dos
          últimos cursos analizados se produjo un ligero descenso en la tasa de respuesta, pero
          manteniéndose en valores cercanos al 80%.</p>
    <fig id="fig1">
      <caption><p>Figura 1. Evolución de la tasa de respuesta.</p></caption>
      <graphic mimetype="image" mime-subtype="jpeg" xlink:href="media/image1.jpeg" />
    </fig>
  </sec>
  <sec id="sec3.2">
    <title>3.2. Intravariabilidad</title>
    <p>La <xref ref-type="table" rid="table2">Tabla 2</xref> muestra la evolución de los rangos de respuesta a lo largo de los años,
          evidenciando una clara tendencia a la reducción de los mismos. Se observa, en este
          sentido, como el porcentaje de respuestas de rango 0 aumentó con el tiempo, alcanzando
          cifras superiores al 50% en los dos últimos cursos analizados. El aumento fue
          especialmente pronunciado entre los dos semestres en los que se llevó a cabo la transición
          del sistema de recogida de información en el aula al sistema <italic>online</italic>,
          pasando de un 15% de respuestas de rango 0 en el primer semestre a un 33% en el segundo
          semestre. En los cuatro años en los que las encuestas de valoración docente fueron
          presenciales y se recogieron en papel, no se encontraron grandes variaciones en la
          distribución de los rangos de respuesta (ligero aumento en el rango 0 y ligero descenso en
          el rango 2). Con la administración de la encuesta <italic>online</italic> fuera de clase,
          el aumento del porcentaje de respuestas del rango 0 fue tan pronunciado que provocó una
          disminución de los porcentajes del resto de los rangos.</p>
    <table-wrap id="table2">
      <caption>
        <p>Tabla 2. Evolución de los rangos de respuesta.</p>
      </caption>
      <table>
        <colgroup>
          <col width="17%" />
          <col width="17%" />
          <col width="17%" />
          <col width="17%" />
          <col width="17%" />
          <col width="17%" />
        </colgroup>
        <thead>
          <tr>
            <th><bold>Curso académico</bold></th>
            <th><bold>Rango=0</bold></th>
            <th><bold>Rango=1</bold></th>
            <th><bold>Rango=2</bold></th>
            <th><bold>Rango=3</bold></th>
            <th><bold>Rango=4</bold></th>
          </tr>
        </thead>
        <tbody>
          <tr>
            <td>2010-11</td>
            <td>13%</td>
            <td>30%</td>
            <td>36%</td>
            <td>16%</td>
            <td>6%</td>
          </tr>
          <tr>
            <td>2011-12</td>
            <td>15%</td>
            <td>31%</td>
            <td>35%</td>
            <td>15%</td>
            <td>5%</td>
          </tr>
          <tr>
            <td>2012-13</td>
            <td>16%</td>
            <td>30%</td>
            <td>34%</td>
            <td>15%</td>
            <td>5%</td>
          </tr>
          <tr>
            <td>2013-14</td>
            <td>16%</td>
            <td>30%</td>
            <td>33%</td>
            <td>15%</td>
            <td>6%</td>
          </tr>
          <tr>
            <td>2014-15</td>
            <td>24%</td>
            <td>29%</td>
            <td>30%</td>
            <td>13%</td>
            <td>5%</td>
          </tr>
          <tr>
            <td>2015-16</td>
            <td>42%</td>
            <td>26%</td>
            <td>20%</td>
            <td>10%</td>
            <td>3%</td>
          </tr>
          <tr>
            <td>2016-17</td>
            <td>47%</td>
            <td>23%</td>
            <td>18%</td>
            <td>9%</td>
            <td>3%</td>
          </tr>
          <tr>
            <td>2017-18</td>
            <td>51%</td>
            <td>22%</td>
            <td>16%</td>
            <td>9%</td>
            <td>2%</td>
          </tr>
          <tr>
            <td>2018-19</td>
            <td>53%</td>
            <td>21%</td>
            <td>16%</td>
            <td>9%</td>
            <td>2%</td>
          </tr>
        </tbody>
      </table>
    </table-wrap>
  </sec>
  <sec id="sec3.3">
    <title>3.3. Tamaño del efecto</title>
    <p>La <xref ref-type="table" rid="table3">Tabla 3</xref> muestra la evolución del tamaño del efecto a lo largo
    de los cursos analizados. El coeficiente experimentó un fuerte
    descenso con el sistema de recogida de información
    <italic>online</italic>. En el curso en que se produjo la migración
    del sistema, la proporción pasó del 32% en el primer semestre (en
    clase y en papel) al 22% en el segundo semestre (fuera de clase y
    <italic>online</italic>). En los cursos siguientes, en los que la
    administración de las encuestas de valoración docente fue totalmente
    <italic>online</italic>, se situó en torno al 18%.</p>
    <table-wrap id="table3">
      <caption>
        <p>Tabla 3. Evolución del tamaño del efecto.</p>
      </caption>
      <table>
        <colgroup>
          <col width="52%" />
          <col width="48%" />
        </colgroup>
        <thead>
          <tr>
            <th><bold>Academic year</bold></th>
            <th><bold><italic>η</italic><sup>2</sup></bold></th>
          </tr>
        </thead>
        <tbody>
          <tr>
            <td>2010-11</td>
            <td>34%</td>
          </tr>
          <tr>
            <td>2011-12</td>
            <td>36%</td>
          </tr>
          <tr>
            <td>2012-13</td>
            <td>33%</td>
          </tr>
          <tr>
            <td>2013-14</td>
            <td>33%</td>
          </tr>
          <tr>
            <td>2014-15</td>
            <td>27%</td>
          </tr>
          <tr>
            <td>2015-16</td>
            <td>18%</td>
          </tr>
          <tr>
            <td>2016-17</td>
            <td>17%</td>
          </tr>
          <tr>
            <td>2017-18</td>
            <td>17%</td>
          </tr>
          <tr>
            <td>2018-19</td>
            <td>19%</td>
          </tr>
        </tbody>
      </table>
    </table-wrap>
  </sec>
</sec>
<sec id="sec4">
  <title>4. Discusión</title>
  <p>El propósito del presente trabajo fue analizar cómo afectaba a la calidad de los resultados de
        las encuestas valoración docente el cambio del sistema tradicional de administración de
        encuestas de la valoración docente en papel de forma presencial y sin incentivos de
        respuesta, a un sistema <italic>online</italic> no presencial y que incluía el uso de un
        incentivo de respuesta negativo: obligación de completar la encuesta para poder consultar
        las calificaciones de la asignatura. Para acometer dicho análisis se obtuvieron tres
        indicadores de calidad de las encuestas de valoración docente estudiadas, a saber: la tasa
        de respuesta, la distribución de los rangos de respuesta de las encuestas y la medida del
        tamaño del efecto de la intravariabilidad en las respuestas</p>
  <p>En cuanto a las tasas de respuesta, tratar de conseguir un aumento en ellas ha sido una de las
        principales preocupaciones de académicos, investigadores e instituciones cuando se realizan
        encuestas de valoración docente <italic>online,</italic> pues tal y como sucede en el
        análisis de los resultados de cualquier encuesta, la preferencia será contar con el mayor
        número posible de encuestas recogidas para obtener estimaciones más precisas y menos
        sesgadas (Wu et al., 2022). Sin embargo, en el caso particular de las encuestas de
        valoración docente, la tasa de respuesta que se considera aceptable dependerá de múltiples
        factores, desde el propio tamaño del grupo de clase, hasta el porcentaje de asistencia del
        alumnado, lo que dificulta establecer una tasa concreta (Crews y Curtis, 2011). Así, algunos
        autores afirman que serían aceptables tasas de respuesta del 20% para clases de 100 alumnos
        (Nulty, 2008), mientras que otros consideran deseables tasas de respuesta en torno al 60-70%
        (Stowell, et al., 2012).</p>
  <p>Los resultados de nuestro estudio mostraron un incremento claro tras la migración del sistema
        en papel al sistema <italic>online</italic>, con promedios superiores a las tasas de
        respuesta deseables para los criterios más exigentes. El resultado difiere del de otros
        estudios que reflejaron tasas de respuesta menores cuando la administración de las encuestas
        de valoración docente migraba a un sistema online (p.ej.: Dommeyer et al., 2004; Guder y
        Malliaris, 2010). Sin embargo, en estos estudios no había un incentivo de respuesta, como sí
        sucede en la investigación realizada. Es, de hecho, a partir de investigaciones como las
        anteriormente citadas cuando se plantea la necesidad de incorporar incentivos de respuesta
        en forma de moti- vadores extrínsecos como estrategia para aumentar las tasas de respuesta
        en la administración <italic>online</italic> de las encuestas de valoración docente (Alvero
        et al., 2019; Goodman et al., 2014; Stowell et al., 2012). Los resultados de nuestro estudio
        ratifican la importancia del uso de incentivos en línea con los hallazgos de Zipser y
        Mincieli (2018) que encontraron un incremento en la tasa de respuesta superior al 20% al
        incorporar un incentivo que permitía la consulta adelantada de la calificación de la
        asignatura si se completaba la encuesta de valoración docente de la misma.</p>
  <p>La necesidad de completar las encuestas para poder consultar las calificaciones fue ya sugerida
        como posible incentivo para aumentar la tasa de respuesta en una revisión de la literatura
        sobre encuestas de valoración docente online publicada en 2005, cuando todavía el
        protagonismo era para las encuestas en papel (Cain y Bird, 2005). El incentivo implementado
        y cuyas consecuencias analizamos en esta investigación, tiene un antecedente en el trabajo
        de Crews y Curtis (2011) en el que proponían como posible medida para incrementar la tasa de
        respuesta no proporcionar la calificación de la asignatura hasta que el 80% hubiera
        completado la encuesta de valoración docente de la asignatura. Señalan los autores que se
        trataba de una medida que ya era implementada por uno de los docentes encuestados, si bien
        dicho profesor no había cuantificado su posible eficacia. Sin embargo, estos autores, no
        habían evaluado el efecto de la incorporación de un incentivo negativo en otros indicadores
        de calidad, como se discute seguidamente.</p>
  <p>Cuando se comparan los indicadores de calidad entre el sistema presencial sin incentivo y el
        online con incentivo, se observó cómo la tasa de respuesta aumenta sensiblemente con la
        introducción del sistema online, mientras que disminuye la variabilidad intracuestionario.
        Estos dos indicadores son habitualmente empleados a la hora de analizar la calidad de las
        respuestas de una encuesta (Dunn et al., 2018; Kelley y Preacher, 2012; Osborne y Blanchard,
        2011). La disminución de la variabilidad intracuestionario se manifestó en el incremento del
        porcentaje de respuestas con rango de variación cero. Se han encontrado dos explicaciones
        complementarias de este fenómeno, por una parte, el desinterés por parte de los estudiantes
        a la hora de completar las encuestas de valoración docente, que no tendrían la motivación
        suficiente para prestar atención a las respuestas que dan en cada ítem. Nichols et al.
        (1989) catalogan esta situación como falta de respuesta al contenido y la definen como el
        hecho de responder a la encuesta sin tener en cuenta el contenido del ítem en sí. Es decir,
        el estudiante responde a la encuesta solo, sin instrucciones por parte de una persona que
        administre los cuestionarios y con distracciones propias del entorno
          <italic>online,</italic> que lleva a los jóvenes a realizar varias tareas a la vez con la
        consecuente pérdida atencional (Huang et al., 2012; Van Der Schuur et al., 2015). Por otra
        parte, las respuestas de rango cero podrían deberse a un patrón de respuesta rápida, que
        sería aquella en la que un estudiante valora al profesor mediante una única puntuación que
        repite en todos los ítems de la encuesta de valoración docente y que se produce cuando los
        estudiantes quieren responder en el menor tiempo posible a la encuesta por tratarse de un
        requerimiento obligatorio para consultar la nota (Curran, 2016).</p>
  <p>El análisis del esfuerzo o interés que los participantes en
  cualquier encuesta ponen a la hora de responder a las preguntas que en
  ella se plantean y cómo esto puede influir en los datos y conclusiones
  que se extraen ha sido objeto de múltiples estudios, pues se trata de
  uno de los principales instrumentos para la recogida de datos en
  investigación. En este sentido, diferentes autores han subrayado que
  las respuestas dadas por participantes desmotivados, que responden sin
  esfuerzo o interés, aun en porcentajes bajos, pueden tener un impacto
  negativo en la utilidad de los datos recogidos (Huang et al., 2012;
  Maniaci y Rogge, 2014), siendo necesario disponer de métodos para su
  detección (Curran, 2016; Huang et al., 2015). Para Marjanovic et al.
  (2015), las diferencias que se producen entre aquellos que son
  concienzudos en sus respuestas y el resto son fácilmente detectables y
  requieren de un análisis específico, tal y como se hace en esta
  investigación.</p>
  <p>Los resultados muestran que con el cambio de sistema aumenta la proporción de respuestas de
        rango cero y se produce una disminución de las diferencias de puntuación entre el grupo de
        cuestionarios con intravarianza nula y el de intravarianza positiva, tal y como ocurre en
        otras investigaciones que han estudiado las amenazas que las respuestas descuidadas o
        aleatorias pueden tener en la validez y tamaño del efecto en las encuestas (Credé, 2010;
        Osborne y Blanchard, 2011). El coeficiente empleado para medir el tamaño del efecto
        disminuyó cuando se migró al sistema online. Es decir, las distancias entre el promedio de
        puntuaciones de aquellos que contestaron a todas las preguntas con el mismo valor
        (intravariabilidad nula) y las de aquellos que no lo hicieron así (intravariabilidad
        positiva) se redujeron. Para interpretar el significado del hecho se debe considerar que los
        cuestionarios de intravariabilidad nula comprenden tanto a aquellos estudiantes que desean
        otorgar la máxima o mínima puntuación a su docente (están muy satisfechos o insatisfechos
        con su labor) y por tanto marcan el máximo o mínimo valor en todos los ítems de la encuesta.
        como a aquellos estudiantes que emplean la misma puntuación en toda la encuesta para otorgar
        una puntuación global a su profesor o profesora (p.ej.: un estudiante que considera de forma
        global la labor del docente como de “2 sobre 5” y decide marcar un 2 en todos los ítems de
        la encuesta sin prestar especial atención a lo preguntado en cada una de ellas). Es decir,
        se trataría de estudiantes que usan un patrón de respuesta de menor esfuerzo, equivalente a
        una única pregunta que resumiera de forma global su opinión sobre el desempeño docente, en
        línea con algunos estudios que afirman que la evaluación de la enseñanza por parte de los
        alumnos podría sustituirse por una única medida sin apenas pérdida de predictibilidad
        (Clayson, 2022). Las puntuaciones de los estudiantes que desean otorgar la máxima o mínima
        puntuación estarían más alejadas de las del resto de estudiantes que las de aquellos que
        emplean el patrón de respuesta de menor esfuerzo. Así, la disminución observada del tamaño
        del efecto podría explicarse si el incremento de las respuestas de intravariabilidad nula se
        debe mayoritariamente al incremento de la proporción de estudiantes cuyo patrón de respuesta
        es el de menor esfuerzo.</p>
  <p>El estudio presenta algunas limitaciones. La primera de ellas se refiere al hecho de basarse en
        una muestra de una única universidad con un incentivo de participación tan específico como
        la obligatoriedad de respuesta, lo que ha de conducir a interpretar los resultados con
        cautela, no debiendo extrapolar los resultados a otras instituciones que quizás apliquen
        otros instrumentos y/o incentivos de respuesta en sus encuestas de valoración docente. Otra
        de las limitaciones pasa por el hecho de contar con una muestra de datos que se detuvo,
        desde la fecha de publicación del presente trabajo, hace cinco cursos académicos (curso
        201819). Sería interesante, de cara a un futuro próximo, poder complementar el estudio con
        los datos relativos a los cursos 2019-20 y siguientes, probablemente considerando ya
        únicamente la administración online del cuestionario desde el segundo semestre del curso
        2014-15. Esto permitiría examinar, entre otras cuestiones, si el descenso en la tasa de
        respuesta observado desde el curso 2016-17 es puntual o muestra una tendencia clara sobre la
        que, por ejemplo, los organismos encargados de la valoración del desempeño de los docentes
        debieran actuar. Otra posible línea de investigación para el futuropasaría por la
        incorporación de otros incentivos de participación (p.ej.: obtención de unas décimas
        adicionales en la calificación final, reconocimiento de créditos extra, cupones descuento
        para utilizar en el campus) y posterior análisis del efecto que puedan tener en la tasa de
        respuesta y en el modo en que los estudiantes responden a las encuestas de valoración
        docente. Por otra parte, el hecho de haber basado el estudio en encuestas de valoración
        docente con escala de respuesta de tipo Likert puede representar una limitación. En este
        sentido, existen investigaciones que han subrayado que emplear escalas de medida de tipo
        Likert en las encuestas de valoración docente puede ocasionar la aparición de cansancio en
        los estudiantes por lo repetitivo de la escala, más aún cuando han de completar encuestas de
        varias asignaturas (Cañadas y Cuétara, 2018; Moreno Olivos, 2018). Este hecho puede influir
        en el patrón de respuesta de los estudiantes, pudiéndoles llevar a cumplimentar las
        encuestas con rapidez y sin prestar la debida atención. Un efecto no deseado que puede verse
        aumentado cuando se incorporan incentivos de respuesta que hagan que los estudiantes quieran
        completar la encuesta cuanto antes para obtener la recompensa deseada (Matosas-López et al.,
        2019b). A este respecto, podría resultar interesante analizar el comportamiento de los
        estudiantes ante encuestas de valoración docente que empleen otras escalas de medida, como
        podrían ser aquellas que empleen escalas de conducta BARS (Behaviorally Anchored Rating
        Scale), en las que se muestran ejemplos de comportamiento concretos de desempeño docente (no
        descriptores genéricos) que son valorados por los estudiantes como buenos o deficientes
        (Martin-Raugh et al., 2016; Matosas-López et al., 2019a). Asimismo, en línea con estudios
        previos publicados que han analizado las puntuaciones de carácter extremo y su
        comportamiento en las encuestas de valoración docente (Prieto et al., 2023; Leguey et al.,
        2023), sería deseable investigar si la incorporación de incentivos puede afectar a las
        puntuaciones que un docente, que imparte la misma asignatura en cursos consecutivos, obtiene
        a lo largo de los años.</p>
</sec>
<sec id="sec5">
  <title>6. Conclusiones</title>
  <p>La presente investigación arroja conclusiones interesantes en un campo que no había sido
        suficientemente estudiado como es el efecto que pueden tener los incentivos negativos en la
        tasa de respuesta de las encuestas de valoración docente del profesorado universitario. En
        este sentido, y pese a que los resultados del estudio muestran un deseable aumento en la
        tasa de respuesta tras la migración a un sistema de encuesta <italic>online</italic> con
        incentivo de respuesta que requería al estudiante valorar al docente para acceder a las
        calificaciones finales de las asignaturas, se encontraron otras consecuencias no deseables,
        como son la reducción de la variabilidad intracuestionario y del tamaño del efecto. Este
        fenómeno, que ha sido estudiado en otros ámbitos (p.ej.: encuestas en el área de recursos
        humanos de las empresas; Dunn et al., 2018), debería invitar a la reflexión por parte de las
        instituciones, pues podría manifestar una falta de interés de los estudiantes a la hora de
        cumplimentar las encuestas, siendo su único objetivo completarlas cuanto antes para poder
        alcanzar el incentivo acceder así a la calificación de la asignatura. Esto podría sugerir
        que los estudiantes no tienen la motivación suficiente para dedicar atención a las
        respuestas que dan en cada ítem. Fruto del análisis realizado, así como del marco teórico
        elaborado, es posible plantear una serie de recomendaciones al respecto, que pasarían por la
        incorporación de nuevos mecanismos complementarios a la hora de que los estudiantes valoren
        al profesorado. Se podrían así, por ejemplo, realizar entrevistas individualizadas a un
        determinado número de estudiantes seleccionados de forma aleatoria en cada clase, lo que
        permitiría obtener una visión de carácter cualitativo que complementase la valoración
        cuantitativa aportada por las encuestas. Asimismo, podría ser interesante encuestar al
        alumnado en varios momentos durante el desarrollo de la asignatura (no únicamente al final),
        para contar con una visión más global y poder apreciar posibles variaciones en la valoración
        de los estudiantes (¿podrá un estudiante acabar valorando peor o mejor a su profesor por
        haber obtenido una peor o mejor calificación en una actividad de evaluación realizada a
        mitad de curso?). En definitiva, consideramos conveniente reflexionar a este respecto y
        encaminarse hacia un sistema de valoración del desempeño del profesorado por parte de los
        alumnos más amplio y de carácter holístico.</p>
</sec>
</body>
<back>
  <ref-list>
    <ref id="ref1">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Abellán-Roselló</surname><given-names>L</given-names></name>
          <name><surname>Fernández-Rodicio</surname><given-names>CI</given-names></name>
        </person-group>
        <year>2023</year>
        <article-title>Análisis de la satisfacción de la actividad docente medida a través del alumnado en contextos universitarios siguiendo el Modelo de Calidad de la Situación Educativa</article-title>
        <source>Revista Complutense de Educación</source>
        <volume>34</volume>
        <issue>4</issue>
        <fpage>821</fpage>
        <lpage>831</lpage>
        <pub-id pub-id-type="doi">10.5209/rced.80155</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref2">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Alvero</surname><given-names>AM</given-names></name>
          <name><surname>Mangiapanello</surname><given-names>K</given-names></name>
          <name><surname>Valad</surname><given-names>J</given-names></name>
        </person-group>
        <year>2019</year>
        <article-title>The effects of incentives, instructor motivation and feedback strategies on faculty evaluation response rates in large and small class sizes</article-title>
        <source>Assessment &amp; Evaluation in Higher Education</source>
        <volume>44</volume>
        <issue>4</issue>
        <fpage>501</fpage>
        <lpage>515</lpage>
          <pub-id pub-id-type="doi">10.1080/02602938.2018.1521913</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref3">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Anderson</surname><given-names>HM</given-names></name>
          <name><surname>Cain</surname><given-names>J</given-names></name>
          <name><surname>Bird</surname><given-names>E</given-names></name>
        </person-group>
        <year>2005</year>
        <article-title>Online student course evaluations: review of literature and a pilot study</article-title>
        <source>American Journal of Pharmaceutical Education</source>
        <volume>69</volume>
        <issue>1</issue>
        <fpage>34</fpage>
        <lpage>43</lpage>
          <pub-id pub-id-type="doi">10.5688/aj690105</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref4">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Avery</surname><given-names>RJ</given-names></name>
          <name><surname>Bryan</surname><given-names>WK</given-names></name>
          <name><surname>Mathios</surname><given-names>A</given-names></name>
          <name><surname>Kang</surname><given-names>H</given-names></name>
          <name><surname>Bell</surname><given-names>D</given-names></name>
        </person-group>
        <year>2006</year>
        <article-title>Electronic course evaluations: Does an online delivery system influence student evaluations?</article-title>
        <source>Journal of Economic Education</source>
        <volume>37</volume>
        <issue>1</issue>
        <fpage>21</fpage>
        <lpage>37</lpage>
        <pub-id pub-id-type="doi">10.3200/JECE.37.1.21-37</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref5">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Ballantyne</surname><given-names>C</given-names></name>
        </person-group>
        <year>2003</year>
        <article-title>Online evaluations of teaching: An examination of current practice and considerations for the future</article-title>
        <source>New Directions for Teaching &amp; Learning</source>
        <volume>96</volume>
        <fpage>103</fpage>
        <lpage>112</lpage>
        <pub-id pub-id-type="doi">10.1002/tl.127</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref6">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Baldo</surname><given-names>CM</given-names></name>
          <name><surname>Snyder</surname><given-names>J</given-names></name>
          <name><surname>Holguin</surname><given-names>A</given-names></name>
        </person-group>
        <year>2020</year>
        <article-title>Revisiting the Online versus Face-to-Face teaching evaluations</article-title>
        <source>International Journal of Education and Development using Information and Communication Technology</source>
        <volume>16</volume>
        <issue>2</issue>
        <fpage>144</fpage>
        <lpage>157</lpage>
      </element-citation>
    </ref>
    
    <ref id="ref7">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Berk</surname><given-names>RA</given-names></name>
        </person-group>
        <year>2012</year>
        <article-title>The Top 20 Strategies to Increase the Online Response Rates of Student Rating Scales</article-title>
        <source>International Journal of Technology in Teaching and Learning</source>
        <volume>8</volume>
        <issue>2</issue>
        <fpage>98</fpage>
        <lpage>107</lpage>
      </element-citation>
    </ref>
    
    <ref id="ref8">
      <element-citation publication-type="book">
        <person-group person-group-type="author">
          <name><surname>Biemer</surname><given-names>PP</given-names></name>
          <name><surname>Lyberg</surname><given-names>LE</given-names></name>
        </person-group>
        <year>2003</year>
        <source>Introduction to Survey Quality</source>
        <publisher-name>John Wiley &amp; Sons</publisher-name>
        <publisher-loc>New York</publisher-loc>
      </element-citation>
    </ref>
    
    <ref id="ref9">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Campos</surname><given-names>E</given-names></name>
          <name><surname>Núñez</surname><given-names>SD</given-names></name>
          <name><surname>Enriquez-de-la-O</surname><given-names>JF</given-names></name>
          <name><surname>Castaño</surname><given-names>R</given-names></name>
          <name><surname>Escamilla</surname><given-names>J</given-names></name>
          <name><surname>Hosseini</surname><given-names>S</given-names></name>
        </person-group>
        <year>2022</year>
        <article-title>Educational model transition: Student evaluation of teaching amid the COVID-19 pandemic</article-title>
        <source>Frontiers in Education</source>
        <volume>7</volume>
        <fpage>1</fpage>
        <lpage>11</lpage>
        <pub-id pub-id-type="doi">10.3389/feduc.2022.991654</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref10">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Cañadas</surname><given-names>I</given-names></name>
          <name><surname>Cuétara</surname><given-names>I De</given-names></name>
        </person-group>
        <year>2018</year>
        <article-title>Estudio psicométrico y validación de un cuestionario para la evaluación del profesorado universitario de enseñanza a distancia</article-title>
        <source>Revista de Estudios de Investigación en Psicología y Educación</source>
        <volume>5</volume>
        <issue>2</issue>
        <fpage>102</fpage>
        <lpage>112</lpage>
        <pub-id pub-id-type="doi">10.17979/reipe.2018.5.2.3701</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref11">
      <element-citation publication-type="book">
        <person-group person-group-type="author">
          <name><surname>Casado</surname><given-names>J</given-names></name>
        </person-group>
        <year>2007</year>
        <source>Manual básico de Estadística</source>
        <comment>Colección de Libros de autor: Instituto Nacional de Estadística</comment>
      </element-citation>
    </ref>
    
    <ref id="ref12">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Castro-Morera</surname><given-names>M</given-names></name>
          <name><surname>Navarro-Asencio</surname><given-names>E</given-names></name>
          <name><surname>Blanco-Blanco</surname><given-names>Á</given-names></name>
        </person-group>
        <year>2020</year>
        <article-title>The quality of teaching as perceived by students and university teachers: analysis of the dimensionality of a teacher evaluation questionnaire</article-title>
        <source>Educación XX1</source>
        <volume>23</volume>
        <issue>2</issue>
        <fpage>41</fpage>
        <lpage>65</lpage>
        <pub-id pub-id-type="doi">10.5944/educXX1.25711</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref13">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Clayson</surname><given-names>D</given-names></name>
        </person-group>
        <year>2022</year>
        <article-title>The student evaluation of teaching and likability: what the evaluations actually measure</article-title>
        <source>Assessment &amp; Evaluation in Higher Education</source>
        <volume>47</volume>
        <issue>2</issue>
        <fpage>313</fpage>
        <lpage>326</lpage>
        <pub-id pub-id-type="doi">10.1080/02602938.2021.1909702</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref14">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Credé</surname><given-names>M</given-names></name>
        </person-group>
        <year>2010</year>
        <article-title>Random responding as a threat to the validity of effect size estimates in correlational research</article-title>
        <source>Educational and Psychological Measurement</source>
        <volume>70</volume>
        <fpage>596</fpage>
        <lpage>612</lpage>
        <pub-id pub-id-type="doi">10.1177/0013164410366686</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref15">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Crews</surname><given-names>TB</given-names></name>
          <name><surname>Curtis</surname><given-names>DF</given-names></name>
        </person-group>
        <year>2011</year>
        <article-title>Online course evaluations: Faculty perspective and strategies for improved response rates</article-title>
        <source>Assessment &amp; Evaluation in Higher Education</source>
        <volume>36</volume>
        <issue>7</issue>
        <fpage>865</fpage>
        <lpage>878</lpage>
        <pub-id pub-id-type="doi">10.1080/02602938.2010.493970</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref16">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Curran</surname><given-names>PG</given-names></name>
        </person-group>
        <year>2016</year>
        <article-title>Methods for the detection of carelessly invalid responses in survey data</article-title>
        <source>Journal of Experimental Social Psychology</source>
        <volume>66</volume>
        <fpage>4</fpage>
        <lpage>19</lpage>
        <pub-id pub-id-type="doi">10.1016/j.jesp.2015.07.006</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref17">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Dommeyer</surname><given-names>CJ</given-names></name>
          <name><surname>Baum</surname><given-names>P</given-names></name>
          <name><surname>Hanna</surname><given-names>RW</given-names></name>
          <name><surname>Chapman</surname><given-names>KS</given-names></name>
        </person-group>
        <year>2004</year>
        <article-title>Gathering Faculty Teaching Evaluations by In class and Online Surveys: Their Effects on Response Rates and Evaluations</article-title>
        <source>Assessment &amp; Evaluation in Higher Education</source>
        <volume>29</volume>
        <issue>5</issue>
        <fpage>611</fpage>
        <lpage>623</lpage>
          <pub-id pub-id-type="doi">10.1080/02602930410001689171</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref18">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Dunn</surname><given-names>AM</given-names></name>
          <name><surname>Heggestad</surname><given-names>ED</given-names></name>
          <name><surname>Shanock</surname><given-names>LR</given-names></name>
          <name><surname>Theilgard</surname><given-names>N</given-names></name>
        </person-group>
        <year>2018</year>
        <article-title>Intra-individual response variability as an indicator of insufficient effort responding: Comparison to other indicators and relationships with individual differences</article-title>
        <source>Journal of Business and Psychology</source>
        <volume>33</volume>
        <fpage>105</fpage>
        <lpage>121</lpage>
          <pub-id pub-id-type="doi">10.1007/s10869-016-9479-0</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref19">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Goodman</surname><given-names>J</given-names></name>
          <name><surname>Anson</surname><given-names>R</given-names></name>
          <name><surname>Belcheir</surname><given-names>M</given-names></name>
        </person-group>
        <year>2014</year>
        <article-title>The Effect of Incentives and Other Instructor-Driven Strategies to Increase Online Student Evaluation Response Rates</article-title>
        <source>Assessment &amp; Evaluation in Higher Education</source>
        <volume>40</volume>
        <issue>7</issue>
        <fpage>958</fpage>
        <lpage>970</lpage>
        <pub-id pub-id-type="doi">10.1080/02602938.2014.960364</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref20">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Guder</surname><given-names>F</given-names></name>
          <name><surname>Malliaris</surname><given-names>M</given-names></name>
        </person-group>
        <year>2010</year>
        <article-title>Online and Paper Course Evaluations</article-title>
        <source>American Journal of Business Education</source>
        <volume>3</volume>
        <issue>2</issue>
        <fpage>131</fpage>
        <lpage>138</lpage>
          <pub-id pub-id-type="doi">10.19030/ajbe.v3i2.392</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref21">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Huang</surname><given-names>JL</given-names></name>
          <name><surname>Curran</surname><given-names>PG</given-names></name>
          <name><surname>Keeney</surname><given-names>J</given-names></name>
          <name><surname>Poposki</surname><given-names>EM</given-names></name>
          <name><surname>DeShon</surname><given-names>RP</given-names></name>
        </person-group>
        <year>2012</year>
        <article-title>Detecting and deterring insufficient effort responding to surveys</article-title>
        <source>Journal of Business and Psychology</source>
        <volume>27</volume>
        <fpage>99</fpage>
        <lpage>114</lpage>
          <pub-id pub-id-type="doi">10.1007/s10869-011-9231-8</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref22">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Huang</surname><given-names>JL</given-names></name>
          <name><surname>Liu</surname><given-names>M</given-names></name>
          <name><surname>Bowling</surname><given-names>NA</given-names></name>
        </person-group>
        <year>2015</year>
        <article-title>Insufficient effort responding: Examining an insidious confound in survey data</article-title>
        <source>Journal of Applied Psychology</source>
        <volume>100</volume>
        <fpage>828</fpage>
        <lpage>845</lpage>
          <pub-id pub-id-type="doi">10.1037/a0038510</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref23">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Iancu</surname><given-names>DE</given-names></name>
          <name><surname>Maricuţoiu</surname><given-names>LP</given-names></name>
          <name><surname>Ilie</surname><given-names>MD</given-names></name>
        </person-group>
        <year>2024</year>
        <article-title>Student Evaluation of Teaching: The analysis of measurement invariance across online and paper-based administration procedures of the Romanian version of Marsh's Student Evaluations of Educational Quality scale</article-title>
        <source>Studies in Educational Evaluation</source>
        <volume>81</volume>
        <elocation-id>101340</elocation-id>
        <pub-id pub-id-type="doi">10.1016/j.stueduc.2024.101340</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref24">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Jiang</surname><given-names>HC</given-names></name>
          <name><surname>Xiong</surname><given-names>Y</given-names></name>
        </person-group>
        <year>2021</year>
        <article-title>The indicators, characteristics and enlightenment of students' evaluation of teaching in Japanese national universities: taking education as an example</article-title>
        <source>Higher Education Research</source>
        <volume>42</volume>
        <fpage>103</fpage>
        <lpage>109</lpage>
      </element-citation>
    </ref>
    
    <ref id="ref25">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Kelley</surname><given-names>K</given-names></name>
          <name><surname>Preacher</surname><given-names>KJ</given-names></name>
        </person-group>
        <year>2012</year>
        <article-title>On effect size</article-title>
        <source>Psychological Methods</source>
        <volume>17</volume>
        <issue>2</issue>
        <fpage>137</fpage>
        <lpage>152</lpage>
        <pub-id pub-id-type="doi">10.1037/a0028086</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref26">
      <element-citation publication-type="book">
        <person-group person-group-type="author">
          <name><surname>Lam</surname><given-names>TCM</given-names></name>
          <name><surname>Green</surname><given-names>KE</given-names></name>
        </person-group>
        <year>2023</year>
        <source>Survey Development: A Theory-Driven Mixed-Method Approach</source>
      </element-citation>
    </ref>
    
    <ref id="ref27">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Leguey</surname><given-names>S</given-names></name>
          <name><surname>Cid-Cid</surname><given-names>AI</given-names></name>
          <name><surname>Guede-Cid</surname><given-names>R</given-names></name>
          <name><surname>Prieto</surname><given-names>J</given-names></name>
        </person-group>
        <year>2023</year>
        <article-title>An Exploratory Analysis of Major Dropdowns in Student Evaluation of Teaching Ratings in Higher Education</article-title>
        <source>Multidisciplinary Journal of Educational Research</source>
        <volume>13</volume>
        <issue>1</issue>
        <fpage>91</fpage>
        <lpage>113</lpage>
        <pub-id pub-id-type="doi">10.17583/remie.10419</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref28">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Marjanovic</surname><given-names>Z</given-names></name>
          <name><surname>Holden</surname><given-names>R</given-names></name>
          <name><surname>Struthers</surname><given-names>W</given-names></name>
          <name><surname>Cribbie</surname><given-names>R</given-names></name>
          <name><surname>Greenglass</surname><given-names>E</given-names></name>
        </person-group>
        <year>2015</year>
        <article-title>The interitem standard deviation (ISD): An index that discriminates between conscientious and random responders</article-title>
        <source>Personality and Individual Differences</source>
        <volume>84</volume>
        <fpage>79</fpage>
        <lpage>83</lpage>
          <pub-id pub-id-type="doi">10.1016/j.paid.2014.08.021</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref29">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Martin-Raugh</surname><given-names>M</given-names></name>
          <name><surname>Tannenbaum</surname><given-names>RJ</given-names></name>
          <name><surname>Tocci</surname><given-names>CM</given-names></name>
          <name><surname>Reese</surname><given-names>C</given-names></name>
        </person-group>
        <year>2016</year>
        <article-title>Behaviorally anchored rating scales: An application for evaluating teaching practice</article-title>
        <source>Teaching and Teacher Education</source>
        <volume>59</volume>
        <fpage>414</fpage>
        <lpage>419</lpage>
          <pub-id pub-id-type="doi">10.1016/j.tate.2016.07.026</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref30">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Maniaci</surname><given-names>MR</given-names></name>
          <name><surname>Rogge</surname><given-names>RD</given-names></name>
        </person-group>
        <year>2014</year>
        <article-title>Caring about carelessness: Participant inattention and its effects on research</article-title>
        <source>Journal of Research in Personality</source>
        <volume>48</volume>
        <fpage>61</fpage>
        <lpage>83</lpage>
        <pub-id pub-id-type="doi">10.1016/j.jrp.2013.09.008</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref31">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Matosas-López</surname><given-names>L</given-names></name>
          <name><surname>Aguado-Franco</surname><given-names>JC</given-names></name>
          <name><surname>Gómez-Galán</surname><given-names>J</given-names></name>
        </person-group>
        <year>2019</year>
        <article-title>Construcción de un instrumento con escalas de comportamiento para la evaluación la calidad docente en modalidades blended learning</article-title>
        <source>Journal of New Approaches in Educational Research</source>
        <volume>8</volume>
        <issue>2</issue>
        <fpage>148</fpage>
        <lpage>172</lpage>
        <pub-id pub-id-type="doi">10.7821/naer.2019.7.410</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref32">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Matosas-López</surname><given-names>L</given-names></name>
          <name><surname>Romero-Ania</surname><given-names>A</given-names></name>
          <name><surname>Cuevas-Molano</surname><given-names>E</given-names></name>
        </person-group>
        <year>2019</year>
        <article-title>¿Leen los universitarios las encuestas de evaluación del profesorado cuando se aplican incentivos por participación? Una aproximación empírica</article-title>
        <source>REICE. Revista Iberoamericana sobre Calidad, Eficacia y Cambio en Educación</source>
        <volume>17</volume>
        <issue>3</issue>
        <fpage>99</fpage>
        <lpage>124</lpage>
        <pub-id pub-id-type="doi">10.15366/reice2019.17.3.006</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref33">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Moreno Olivos</surname><given-names>T</given-names></name>
        </person-group>
        <year>2018</year>
        <article-title>La evaluación docente en la universidad: Visiones de los alumnos</article-title>
        <source>REICE. Revista Iberoamericana sobre Calidad, Eficacia y Cambio en Educación</source>
        <volume>16</volume>
        <issue>3</issue>
        <fpage>87</fpage>
        <lpage>102</lpage>
        <pub-id pub-id-type="doi">10.15366/reice2018.16.3.005</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref34">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Nederhand</surname><given-names>M</given-names></name>
          <name><surname>Auer</surname><given-names>J</given-names></name>
          <name><surname>Giesbers</surname><given-names>B</given-names></name>
          <name><surname>Scheepers</surname><given-names>A</given-names></name>
          <name><surname>Van der Gaag</surname><given-names>E</given-names></name>
        </person-group>
        <year>2023</year>
        <article-title>Improving student participation in SET: effects of increased transparency on the use of student feedback in practice</article-title>
        <source>Assessment &amp; Evaluation in Higher Education</source>
        <volume>48</volume>
        <issue>1</issue>
        <fpage>107</fpage>
        <lpage>120</lpage>
        <pub-id pub-id-type="doi">10.1080/02602938.2022.2052800</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref35">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Nichols</surname><given-names>DS</given-names></name>
          <name><surname>Greene</surname><given-names>RL</given-names></name>
          <name><surname>Schmolck</surname><given-names>P</given-names></name>
        </person-group>
        <year>1989</year>
        <article-title>Criteria for assessing inconsistent patterns of item endorsement on the MMPI: Rationale, development, and empirical trials</article-title>
        <source>Journal of Clinical Psychology</source>
        <volume>45</volume>
        <issue>2</issue>
        <fpage>239</fpage>
        <lpage>250</lpage>
        <pub-id pub-id-type="doi">10.1002/1097-4679(198903)45:2&lt;239::aid-jclp2270450210&gt;3.0.co;2-1</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref36">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Nulty</surname><given-names>DD</given-names></name>
        </person-group>
        <year>2008</year>
        <article-title>The adequacy of response rates to online and paper surveys: What can be done?</article-title>
        <source>Assessment &amp; Evaluation in Higher Education</source>
        <volume>33</volume>
        <fpage>301</fpage>
        <lpage>314</lpage>
          <pub-id pub-id-type="doi">10.1080/02602930701293231</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref37">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Osborne</surname><given-names>JW</given-names></name>
          <name><surname>Blanchard</surname><given-names>MR</given-names></name>
        </person-group>
        <year>2011</year>
        <article-title>Random responding from participants is a threat to the validity of social science results</article-title>
        <source>Frontiers in Psychology</source>
        <pub-id pub-id-type="doi">10.3389/fpsyg.2010.00220</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref38">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Prieto</surname><given-names>J</given-names></name>
          <name><surname>Guede-Cid</surname><given-names>R</given-names></name>
          <name><surname>Cid-Cid</surname><given-names>AI</given-names></name>
          <name><surname>Leguey</surname><given-names>S</given-names></name>
        </person-group>
        <year>2023</year>
        <article-title>Major increases in teachers' performance evaluations: Evidence from student evaluation of teaching surveys</article-title>
        <source>Tuning Journal for Higher Education</source>
        <volume>10</volume>
        <issue>2</issue>
        <fpage>105</fpage>
        <lpage>125</lpage>
        <pub-id pub-id-type="doi">10.18543/tjhe.2299</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref39">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Richardson</surname><given-names>JTE</given-names></name>
        </person-group>
        <year>2011</year>
        <article-title>Eta squared and partial eta squared as measures of effect size in educational research</article-title>
        <source>Educational Research Review</source>
        <volume>6</volume>
        <issue>2</issue>
        <fpage>135</fpage>
        <lpage>147</lpage>
        <pub-id pub-id-type="doi">10.1016/j.edurev.2010.12.001</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref40">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Spooren</surname><given-names>P</given-names></name>
          <name><surname>Mortelmans</surname><given-names>D</given-names></name>
          <name><surname>Denekens</surname><given-names>J</given-names></name>
        </person-group>
        <year>2007</year>
        <article-title>Student evaluation of teaching quality in higher education. Development of an instrument based on 10 Likert scales</article-title>
        <source>Assessment and Evaluation in Higher Education</source>
        <volume>32</volume>
        <fpage>667</fpage>
        <lpage>679</lpage>
        <pub-id pub-id-type="doi">10.1080/02602930601117191</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref41">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Steedle</surname><given-names>JT</given-names></name>
          <name><surname>Hong</surname><given-names>M</given-names></name>
          <name><surname>Cheng</surname><given-names>Y</given-names></name>
        </person-group>
        <year>2019</year>
        <article-title>The effects of inattentive responding on construct validity evidence when measuring social–emotional learning competencies</article-title>
        <source>Educational Measurement: Issues and Practice</source>
        <volume>38</volume>
        <issue>2</issue>
        <fpage>101</fpage>
        <lpage>111</lpage>
        <pub-id pub-id-type="doi">10.1111/emip.12256</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref42">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Stowell</surname><given-names>JR</given-names></name>
          <name><surname>Addison</surname><given-names>WE</given-names></name>
          <name><surname>Smith</surname><given-names>JL</given-names></name>
        </person-group>
        <year>2012</year>
        <article-title>Comparison of online and classroom-based student evaluations of instruction</article-title>
        <source>Assessment &amp; Evaluation in Higher Education</source>
        <volume>37</volume>
        <issue>4</issue>
        <fpage>465</fpage>
        <lpage>473</lpage>
        <pub-id pub-id-type="doi">10.1080/02602938.2010.545869</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref43">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Sullivan</surname><given-names>D</given-names></name>
          <name><surname>Lakeman</surname><given-names>R</given-names></name>
          <name><surname>Massey</surname><given-names>D</given-names></name>
          <name><surname>Nasrawi</surname><given-names>D</given-names></name>
          <name><surname>Tower</surname><given-names>M</given-names></name>
          <name><surname>Lee</surname><given-names>M</given-names></name>
        </person-group>
        <year>2024</year>
        <article-title>Student motivations, perceptions and opinions of participating in student evaluation of teaching surveys: a scoping review</article-title>
        <source>Assessment &amp; Evaluation in Higher Education</source>
        <volume>49</volume>
        <issue>2</issue>
        <fpage>178</fpage>
        <lpage>189</lpage>
        <pub-id pub-id-type="doi">10.1080/02602938.2023.2199486</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref44">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Van Der Schuur</surname><given-names>WA</given-names></name>
          <name><surname>Baumgartner</surname><given-names>SE</given-names></name>
          <name><surname>Sumter</surname><given-names>SR</given-names></name>
          <name><surname>Valkenburg</surname><given-names>PM</given-names></name>
        </person-group>
        <year>2015</year>
        <article-title>The consequences of media multitasking for youth: A review</article-title>
        <source>Computers in Human Behavior</source>
        <volume>53</volume>
        <fpage>204</fpage>
        <lpage>215</lpage>
        <pub-id pub-id-type="doi">10.1016/j.chb.2015.06.035</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref45">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Wu</surname><given-names>M-J</given-names></name>
          <name><surname>Zhao</surname><given-names>K</given-names></name>
          <name><surname>Fils-Aime</surname><given-names>F</given-names></name>
        </person-group>
        <year>2022</year>
        <article-title>Response rates of online surveys in published research: A meta-analysis</article-title>
        <source>Computers in Human Behavior Reports</source>
        <volume>7</volume>
        <elocation-id>100206</elocation-id>
        <pub-id pub-id-type="doi">10.1016/j.chbr.2022.100206</pub-id>
      </element-citation>
    </ref>
    
    <ref id="ref46">
      <element-citation publication-type="journal">
        <person-group person-group-type="author">
          <name><surname>Zipser</surname><given-names>N</given-names></name>
          <name><surname>Mincieli</surname><given-names>L</given-names></name>
        </person-group>
        <year>2018</year>
        <article-title>Administrative and structural changes in student evaluations of teaching and their effects on overall instructor scores</article-title>
        <source>Assessment &amp; Evaluation in Higher Education</source>
        <volume>43</volume>
        <issue>6</issue>
        <fpage>995</fpage>
        <lpage>1008</lpage>
        <pub-id pub-id-type="doi">10.1080/02602938.2018.1425368</pub-id>
      </element-citation>
    </ref>
    
  </ref-list>
</back>
</article>
