Visión general

Unas puntuaciones precisas y fiables son esenciales en las pruebas de competencia lingüística. Las secciones Reading y Listening del STAMP son de opción múltiple, lo que permite una puntuación automática. Las secciones de expresión escrita y comprensión auditiva permiten respuestas abiertas, por lo que es necesario un evaluador humano para puntuarlas.

Puntuación automática

leer y escuchar

Calificación humana

Escribir y hablar.

Por este motivo, Avant se compromete a garantizar que la precisión de nuestros evaluadores sea lo más alta posible.

Un análisis reciente de 23.000 respuestas de calificaciones de expresión escrita y oral para cinco idiomas STAMP 4S (árabe, español, francés, chino simplificado y ruso) y tres idiomas STAMP WS (amárico, criollo haitiano y vietnamita) reveló que los calificadores de Avantdemostraron una gran precisión y fiabilidad en las calificaciones, lo que los convierte en una herramienta excelente para su finalidad prevista.

Cómo se puntúa el dominio de la expresión escrita y oral

El estudio examinó las secciones de expresión escrita y oral del STAMP, puntuadas por evaluadores formados utilizando niveles de 0 (Sin dominio) a 8 ( Avanzado-medio).

Los examinandos responden a tres preguntas del mundo real, mostrando sus habilidades. Calificadores certificados puntúan cada respuesta de forma independiente, respaldados por una formación rigurosa y una supervisión continua para garantizar la coherencia.

En el 80% de las respuestas, la puntuación de un único evaluador es oficial. En el 20% restante, al menos dos evaluadores puntúan la respuesta y un responsable resuelve los desacuerdos. Los evaluadores trabajan de forma independiente, lo que garantiza resultados imparciales. La puntuación final de expresión oral o escrita refleja el nivel más alto demostrado en dos de las tres preguntas.

El gráfico siguiente ilustra este proceso:

Figura 1. Reglas del sistema Reglas del sistema para determinar el nivel STAMP final de un examinando en las secciones de expresión escrita y oral

Como se muestra en la figura 1, el nivel STAMP oficial de un examinando viene determinado por el nivel más alto que pueda demostrar de forma consistente en al menos dos de las tres respuestas. Por ejemplo, si un examinando obtiene un nivel Novato-Medio en su primera respuesta, Novato-Alto en la segunda y Novato-Alto en la tercera, su nivel STAMP final será STAMP 3 (Novato-Alto). Por el contrario, si recibe un nivel Intermedio-bajo en la primera respuesta, Novato-alto en la segunda e Intermedio-medio en la tercera, su nivel final será Intermedio-bajo, ya que es el nivel más alto que ha obtenido dos veces (en la primera y en la tercera respuesta).

El uso de tres preguntas independientes en las secciones de expresión oral y escrita del STAMP tiene dos ventajas principales:

  1. Cobertura temática más amplia: Evaluar a los examinandos en diferentes temas garantiza que el nivel de competencia obtenido se pueda generalizar a otras situaciones del mundo real.
  2. Minimizar el sesgo de los calificadores: junto con el método de calificación, el uso de múltiples indicaciones ayuda a reducir el posible sesgo de calificación de los calificadores individuales.

A continuación hablaremos de las definiciones de fiabilidad y precisión.

Fiabilidad frente a precisión

diagrama preciso vs fiable.
Figura 2: Diferencia entre fiabilidad y precisión. Lo ideal es que los tests sean a la vez fiables y precisos, ya que así se garantiza la validez de las puntuaciones y su uso previsto.

Fiabilidad

La fiabilidad se refiere a la consistencia de la medición (Bachman y Palmer, 1996). En términos sencillos, se refiere a hasta qué punto podemos confiar en que las puntuaciones de la prueba seguirán siendo las mismas si un examinado vuelve a realizar la prueba en momentos diferentes o realiza diferentes versiones de la prueba, suponiendo que su competencia no haya cambiado.

Por ejemplo, si un examinando obtiene una puntuación Intermedia-baja hoy e Intermedia-alta mañana, sin que se produzca ningún cambio en sus conocimientos o en su estado mental, esto sugiere que el test puede no ser muy fiable. Del mismo modo, si un examinando obtiene una puntuación de Avanzado-Bajo en una versión del test y de Intermedio-Medio en otra, esto indica una falta de coherencia, lo que apunta a un problema de fiabilidad del test.

Un factor que contribuye a la fiabilidad de un test es cómo se puntúa. En el examen STAMP, las secciones de comprensión lectora y auditiva se componen de preguntas de opción múltiple que un ordenador puntúa automáticamente. Esto garantiza que si un examinando proporciona las mismas respuestas en diferentes ocasiones, siempre recibirá la misma puntuación.

Sin embargo, las secciones de expresión escrita y oral son puntuadas por evaluadores humanos. Esto significa que las puntuaciones pueden variar dependiendo de quién califique la respuesta. Con calificadores bien formados, esperamos que las variaciones de puntuación sean mínimas, reduciendo el impacto de la indulgencia, el rigor o el posible sesgo.

Precisión

Los examinandos esperan que sus puntuaciones reflejen únicamente su competencia en el constructo que se mide (en el STAMP, competencia en cada dominio lingüístico).

La precisión se refiere a la medida en que la puntuación obtenida representa la capacidad real del examinando. Por ejemplo, si un examinando presenta una respuesta de expresión oral de nivel intermedio-alto pero dos evaluadores le otorgan una puntuación de nivel intermedio-bajo, la puntuación es inexacta. Incluso si otros dos evaluadores le asignan el nivel Intermedio-Bajo dos meses después, la puntuación sigue siendo inexacta, aunque fiable (ya que es consistente entre evaluadores y a lo largo del tiempo).

Evaluación de la fiabilidad y precisión de las puntuaciones de los evaluadores

Cuando las respuestas son puntuadas por evaluadores humanos, como en el caso del STAMP, es fundamental garantizar que las puntuaciones reflejen la calidad de la respuesta en sí, y no las características del evaluador. En otras palabras, las puntuaciones deben depender únicamente de la competencia demostrada por el examinando, y no de la indulgencia, el rigor o la parcialidad del evaluador.

Los proveedores de pruebas de lengua suelen utilizar estadísticas para mostrar cuánto pueden variar las puntuaciones en función del evaluador. Normalmente, se trata de comparar las puntuaciones de dos evaluadores distintos en la misma respuesta. Lo ideal es que los calificadores coincidan en la mayor medida posible, lo que indica que el proceso de calificación es fiable.

Sin embargo, la fiabilidad también debe ir acompañada de la precisión. Dos evaluadores pueden asignar la misma puntuación, pero ambos pueden ser incorrectos. En un test bien desarrollado, el objetivo es que los evaluadores coincidan sistemáticamente y sean precisos en su puntuación.

La concordancia perfecta entre evaluadores humanos no siempre es realista. A pesar de la formación y la experiencia, incluso los evaluadores cualificados pueden discrepar en ocasiones, al igual que los médicos, ingenieros o científicos. El objetivo es lograr una concordancia elevada que sea defendible dado el uso previsto de las puntuaciones.

A continuación se presentan las medidas estadísticas que utilizamos en Avant Assessment para evaluar la calidad de las calificaciones proporcionadas por nuestros calificadores. Mientras que muchas empresas sólo informan de la concordancia exacta y adyacente, nosotros evaluamos medidas adicionales para obtener una visión completa de la calidad de las calificaciones. Las medidas de las que se informa en este documento incluyen:

Acuerdo exacto:

Esta medida se presenta como un porcentaje que indica el porcentaje de veces, en todo el conjunto de datos analizado, en que el nivel otorgado a una determinada respuesta por el Calificador 1 es exactamente el mismo que el otorgado por el Calificador 2. Por ejemplo, si el evaluador 1 otorga un nivel 5 de STAMP a una respuesta y el evaluador 2 también otorga un nivel 5 de STAMP a esa misma respuesta, se consideraría un caso de concordancia exacta. Feldt y Brennan (1989) sugieren que, cuando se utilizan dos calificadores, debe haber una concordancia exacta de al menos el 80%, considerándose aceptable para uso operativo el 70%.

Esta medida se presenta en forma de porcentaje y muestra la frecuencia con la que el evaluador 1 y el evaluador 2 asignaron el mismo nivel a una respuesta en todo el conjunto de datos. Por ejemplo, si ambos evaluadores asignan un nivel 5 de STAMP a la misma respuesta, se considera un caso de concordancia exacta. Según Feldt y Brennan (1989), la concordancia exacta debe ser de al menos un 80%, considerándose aceptable un 70% para uso operativo.

Acuerdo exacto + adyacente:

Esta medida se presenta como un porcentaje que muestra con qué frecuencia el Calificador 1 y el Calificador 2 asignaron el mismo nivel o un nivel adyacente a una respuesta en todo el conjunto de datos.

Por ejemplo, el nivel 5 del STAMP es adyacente al nivel 4 y al nivel 6. Si el evaluador 1 asigna el nivel 4 y el evaluador 2 asigna el nivel 5, cuenta para esta medida porque los niveles son adyacentes. Según Graham et al. (2012), cuando una escala de calificación tiene más de 5-7 niveles, como ocurre con la escala STAMP, la concordancia exacta + adyacente debe ser cercana al 90%.

Kappa cuadrática ponderada (QWK)

La kappa de Cohen (𝜅) mide la fiabilidad entre dos evaluadores teniendo en cuenta la posibilidad de acuerdo por azar. Por ejemplo, con la escala STAMP de 9 puntos (del nivel 0 al nivel 8), hay un 11,11% de posibilidades de que dos evaluadores coincidan en una puntuación por pura casualidad. En Avanttambién utilizamos ponderaciones cuadráticas al calcular kappa, lo que significa que se penalizan más las discrepancias mayores entre puntuaciones. Por ejemplo, una diferencia entre el nivel 3 y el nivel 7 del STAMP es más problemática que una diferencia entre el nivel 3 y el nivel 4.

Williamson et al. (2012) recomiendan que la kappa ponderada cuadráticamente (QWK) sea ≥ 0,70, mientras que Fleiss (2003) señala que los valores superiores a 0,75 indican un acuerdo excelente más allá del azar. Un valor de QWK de 0 significa que el acuerdo es puramente casual, mientras que un valor de 1 indica un acuerdo perfecto.

Diferencia de medias estandarizada (DME)

Esta medida muestra la similitud entre dos calificadores en el uso de una escala de calificación. Compara la diferencia en la media de dos conjuntos de puntuaciones (Calificador 1 frente a Calificador 2), estandarizada por la desviación estándar conjunta de dichas puntuaciones. Lo ideal es que ninguno de los calificadores favorezca o evite determinados niveles de la escala (por ejemplo, evitar el STAMP 0 o el STAMP 8). En otras palabras, ambos evaluadores deberían utilizar el rango completo de la escala(STAMP 0 - STAMP 8), con puntuaciones que reflejen la competencia demostrada en la respuesta. El valor recomendado para esta medida es ≤ 0,15 (Williamson et al., 2012), lo que indica que las distribuciones de ambos conjuntos de puntuaciones son aceptablemente similares.

Correlación de rango de Spearman (ρ)

Esta medida indica la fuerza de la asociación entre dos variables: el nivel STAMP asignado por el evaluador 1 y el nivel asignado por el evaluador 2. Si los evaluadores están bien formados y comprenden la rúbrica de calificación, es de esperar que ambos asignen niveles similares. Si los evaluadores están bien formados y comprenden la rúbrica de calificación, esperamos que ambos asignen niveles similares, es decir, que las puntuaciones se muevan a la par. En otras palabras, cuando el evaluador 1 asigna un nivel alto, el evaluador 2 también debería asignar un nivel alto, lo que refleja una evaluación coherente del mismo constructo.

Utilizamos el coeficiente de correlación de orden de rango de Spearman en lugar del de Pearson porque el de Spearman es más adecuado para datos ordinales, como los niveles de competencia del STAMP. Un coeficiente de correlación de 0,80 o superior se considera fuerte en la mayoría de los campos (Akoglu, 2018).

2 niveles STAMP aparte

Esta medida, expresada en porcentaje, muestra con qué frecuencia dos valoraciones de la misma respuesta difieren en 2 niveles STAMP (por ejemplo, el valor 1 asigna un nivel STAMP 4 y el valor 2 asigna un nivel STAMP 6).

Cuadro sinóptico

Tabla de precisión de la puntuación STAMP:
Gráfico que muestra la alta precisión de los evaluadores de Avant en las secciones de expresión escrita y oral.

Estadísticas detalladas de puntuación

Ahora nos centramos en la calidad de las calificaciones de las secciones de expresión escrita y oral de STAMP 4S y STAMP WS, teniendo en cuenta las estadísticas anteriores en varios idiomas representativos. A continuación, presentamos resultados basados en dos conjuntos diferentes de comparaciones:

Calificador 1 vs Calificador 2

Comparamos el nivel STAMP otorgado por el evaluador 1 con el otorgado por el evaluador 2 en numerosas respuestas evaluadas por al menos dos evaluadores. Esta comparación corrobora la fiabilidad de las calificaciones de dos calificadores Avant al azar. Como se ha indicado anteriormente, dos evaluadores pueden coincidir en una puntuación, pero ambos pueden ser incorrectos. Por lo tanto, no incluimos medidas de concordancia exacta entre el Calificador 1 y el Calificador 2. En su lugar, nos centramos en la Concordancia exacta + Adecuada. En su lugar, nos centramos en el acuerdo exacto + adyacente e informamos de las medidas de precisión comparando las puntuaciones del evaluador 1 (que califica en solitario el 80% de las veces) con las puntuaciones oficiales.

Calificador 1 frente a la puntuación oficial

Para evaluar la precisión de los niveles asignados por los calificadores de Avant , analizamos los casos en los que una respuesta fue calificada por dos o más calificadores. Comparamos la puntuación oficial (derivada de todas las puntuaciones individuales) con la puntuación dada por el Evaluador 1 solo. Esto ayuda a indicar la precisión con la que se valora una respuesta cuando sólo interviene un evaluador, lo que ocurre en el 80% de los casos.

Las tablas 1 y 2 presentan las medidas estadísticas de las secciones de expresión escrita y expresión oral de cinco lenguas representativas del STAMP 4S.

Cuadro 1 - Exactitud de la puntuación escrita (STAMP)

MedidaÁrabeEspañolFrancésChino simplificadoRuso
Número de respuestas en el conjunto de datosn = 3,703n = 4,758n = 4,785n = 4,766n = 3,536
Concordancia exacta (Calificador 1 vs. Calificación oficial)84.8%84.15%83.66%88.46%92.17%
Concordancia exacta + adyacente (Calificador 1 vs. Calificación oficial)96.78% (98.62%)99.09% (99.79%)99.22% (99.79%)99.79% (99.91%)99.71% (99.88%)
Kappa cuadrática ponderada (QWK) (Calificador 1 frente a puntuación oficial)0.93 (0.96)0.91 (0.95)0.91 (0.95)0.95 (0.96)0.95 (0.97)
Diferencia de medias estandarizada (DME) (Calificador 1 frente a Calificador 2)0.00 (0.01)0.00 (0.00)0.00 (0.00)0.00 (0.00)0.00 (0.00)
Correlación de rango de Spearman (R) (Calificador 1 frente a puntuación oficial)0.94 (0.96)0.90 (0.95)0.91 (0.95)0.95 (0.97)0.94 (0.97)
2 niveles STAMP aparte (Calificador 1 frente a Calificador 2)2.80% (1.24%)0.90% (0.20%)0.77% (0.20%)0.00% (0.00%)0.28% (0.11%)
Tabla 1 Estadísticas de fiabilidad y precisión del evaluador para la sección de escritura de cinco lenguas representativas del STAMP 4S.

Tabla 2 - Precisión de la puntuación de expresión oral (STAMP)

MedidaÁrabeEspañolFrancésChino simplificadoRuso
Número de respuestas en el conjunto de datosn = 3,363n = 4,078n = 4,530n = 4,651n = 3,392
Concordancia exacta (Calificador 1 vs. Calificación oficial)84.96%80.37%80.19%82.24%88.30%
Concordancia exacta + adyacente (Calificador 1 vs. Calificación oficial)96.07% (98.13%)98.13% (99.29%)98.54% (99.47%)99.31% (99.76%)98.99% (99.94%)
Kappa cuadrática ponderada (QWK) (Calificador 1 frente a puntuación oficial)0.92 (0.95)0.92 (0.96)0.91 (0.95)0.94 (0.95)0.92 (0.96)
Diferencia de medias estandarizada (DME) (Calificador 1 frente a Calificador 2)-0.02 (0.01)0.00 (0.00)-0.01 (0.02)0.00 (0.00)-0.01 (-0.01)
Correlación de rango de Spearman (R) (Calificador 1 frente a puntuación oficial)0.93 (0.96)0.91 (0.95)0.92 (0.95)0.94 (0.96)0.91 (0.95)
2 niveles STAMP aparte (Calificador 1 frente a Calificador 2)3.27% (1.42%)1.74% (0.00%)1.39% (0.00%)0.00% (0.00%)1.01% (0.00%)
Tabla 2. Estadísticas de fiabilidad y precisión del evaluador para la sección de expresión oral de cinco STAMP representativos

Las tablas 3 y 4 muestran las medidas estadísticas de las secciones de expresión escrita y expresión oral de tres idiomas representativos del STAMP WS
.

Tabla 3 Precisión de la puntuación escrita (STAMP WS)

MedidaAmáricoCriollo haitianoVietnamita
Número de respuestas en el conjunto de datosn = 209n = 125n = 1,542
Concordancia exacta (Calificador 1 vs. Calificación oficial)95.79%94.69%94.38%
Concordancia exacta + adyacente (evaluador 1 frente a evaluador 2 / evaluador 1 frente a puntuación oficial)99.52% (100%)97.60% (100%)98.57% (99.02%)
Kappa cuadrática ponderada (QWK) (evaluador 1 frente a evaluador 2 / evaluador 1 frente a puntuación oficial)0.98 (0.99)0.97 (0.99)0.96 (0.97)
Diferencia de medias estandarizada (DME) (Calificador 1 frente a Calificador 2 / Calificador 1 frente a Puntuación oficial)-0.01 (0.00)0.02 (-0.02)-0.01 (0.01)
Correlación de rango de Spearman (R) (Calificador 1 frente a Calificador 2 / Calificador 1 frente a Puntuación oficial)0.98 (0.99)0.97 (0.99)0.97 (0.98)
2 niveles STAMP aparte (Calificador 1 contra Calificador 2 / Calificador 1 contra Puntuación oficial)0.00% (0.00%)2.40% (0.00%)0.00% (0.00%)
Tabla 3. Estadísticas de fiabilidad y precisión del evaluador para la sección de escritura de tres idiomas representativos del STAMP WS.

Tabla 4 Precisión de la puntuación de expresión oral (STAMP WS)

MedidaAmáricoCriollo haitianoVietnamita
Número de respuestas en el conjunto de datosn = 225n = 132n = 1,180
Concordancia exacta (Calificador 1 vs. Calificación oficial)96.21%97.91%97.01%
Concordancia exacta + adyacente (evaluador 1 frente a evaluador 2 / evaluador 1 frente a puntuación oficial)100% (100%)100% (100%)99.83% (99.83%)
Kappa cuadrática ponderada (QWK) (evaluador 1 frente a evaluador 2 / evaluador 1 frente a puntuación oficial)0.99 (0.99)0.99 (0.99)0.99 (0.98)
Diferencia de medias estandarizada (DME) (Calificador 1 frente a Calificador 2 / Calificador 1 frente a Puntuación oficial)0.00 (0.00)0.00 (0.00)0.00 (0.01)
Correlación de rango de Spearman (R) (Calificador 1 frente a Calificador 2 / Calificador 1 frente a Puntuación oficial)0.99 (0.99)0.99 (0.99)0.98 (0.99)
2 niveles STAMP aparte (Calificador 1 contra Calificador 2 / Calificador 1 contra Puntuación oficial)0.00% (0.00%)0.00% (0.00%)0.00% (0.00%)
Tabla 4. Estadísticas de fiabilidad y precisión del evaluador para la sección de expresión oral de tres idiomas representativos del STAMP WS.

Debate

Un alto nivel de fiabilidad y precisión es fundamental para la validez de las puntuaciones de los tests y sus usos previstos. Sin embargo, lo que se considera mínimamente aceptable en términos de fiabilidad y precisión dependerá del ámbito específico (medicina, derecho, deportes, medicina forense, pruebas de idiomas, etc.), así como de las consecuencias de otorgar un nivel inexacto al conjunto de respuestas de un examinando concreto, y de la propia escala de calificación. Por ejemplo, el acuerdo tenderá a ser menor cuanto mayor sea el número de categorías disponibles en una escala de calificación. En otras palabras, cabe esperar un mayor desacuerdo entre dos calificadores cualesquiera si deben asignar uno de los diez niveles posibles a una respuesta que si sólo deben asignar uno de los cuatro niveles posibles.

Las estadísticas anteriores para las secciones de expresión escrita y oral de STAMP 4S y STAMP WS muestran un alto nivel de fiabilidad (puntuaciones del evaluador 1 frente a las del evaluador 2) y precisión (puntuaciones del evaluador 1 frente a las puntuaciones oficiales).

De las ocho lenguas evaluadas, la fiabilidad observada por el Acuerdo Exacto + Adyacente entre el Evaluador 1 y el Evaluador 2 es siempre como mínimo (y a menudo considerablemente superior) del 96,78% para la expresión escrita y del 96,07% para la expresión oral.

Además, rara vez se observaron casos en los que las puntuaciones de dos evaluadores estuvieran separadas por más de dos niveles STAMP. El nivel de precisión en las ocho lenguas, según las estadísticas de concordancia exacta entre la puntuación del evaluador 1 y la puntuación oficial para cada respuesta, es siempre de un mínimo del 83,66% (pero a menudo considerablemente superior) para la expresión escrita y del 80,19% para la expresión oral, con una concordancia exacta + adyacente siempre de un mínimo del 98,62% para la expresión escrita y del 98,13% para la expresión oral. Los valores de Kappa Cuadrática Ponderada (QWK) muestran un nivel muy alto de concordancia tanto entre el Calificador 1 y el Calificador 2 como entre el Calificador 1 y las Puntuaciones Oficiales, mientras que la correlación entre las puntuaciones del Calificador 1 y el Calificador 2, así como entre el Calificador 1 y las Puntuaciones Oficiales, han demostrado ser muy altas. Por último, los coeficientes SMD (Standardized Mean Differences) muestran que la escala STAMP es utilizada de forma muy similar por los evaluadores de Avant .

Las estadísticas anteriores demuestran la alta calidad del programa de selección y formación de evaluadores de Avant Assessment y de nuestra metodología para identificar a los evaluadores operativos que pueden necesitar ser retirados temporalmente del grupo de evaluadores y recibir una formación específica. Demuestra que cuando dos evaluadores pueden diferir en el nivel STAMP asignado a una respuesta, la diferencia raramente será de más de 1 nivel STAMP, asignando ambos evaluadores exactamente el mismo nivel en la gran mayoría de los casos. Si a esto le sumamos el hecho de que la puntuación final oficial de un examinando en la sección de expresión escrita o en la de expresión oral del STAMP se basa en sus puntuaciones STAMP individuales en tres preguntas independientes.

Los resultados que aquí se presentan son una prueba fehaciente de que la puntuación final de un examinando en las secciones de expresión escrita y oral del STAMP puede considerarse una representación fiable y precisa de su nivel de competencia lingüística en estos dos ámbitos.

Referencias

Akoglu, H. (2018). Guía del usuario para coeficientes de correlación. Revista turca de medicina de urgencias, 18(3), 91-93.

Bachman, L. F., y Palmer, A. S. (1996). Pruebas de lengua en la práctica: Designing and developing useful language tests (Vol. 1). Oxford University Press.

Feldt, L. S., y Brennan, R. (1989). Reliability. En R. L. Linn (Ed.), Educational measurement (3ª ed., pp. 105-146). New York: Macmillan.

Fleiss, J. L., Levin, B., & Paik, M. C. (2003). Statistical methods for rates and proportions. 3rd ed. Wiley.

Graham, M., Milanowski, A., y Miller, J. (2012). Measuring and Promoting Inter-Rater Agreement of
Teacher and Principal Performance Ratings.

Matrix Education (2022). Physics Practical Skills Part 2: Validity, Reliability and Accuracy of Experiments. Recuperado el 11 de agosto de 2022 (haga clic aquí para ir a la fuente).

Williamson, D. M., Xi, X., & Breyer, F. J. (2012). A framework for evaluation and use of automated
scoring. Medición educativa: cuestiones y práctica, 31(1), 2-13.

Actualizado: