La evaluación cognitiva aumentada: observar cómo piensa el estudiante con IA

Propuesta conceptual que integra la escala AIAS, casos verificados en Open University, UOC, British University Vietnam y UBA, y un modelo propio de cinco fases para observar el proceso cognitivo del estudiante cuando trabaja con modelos generativos.

La evaluación cognitiva aumentada: observar cómo piensa el estudiante con IA

Introducción a la infografía

¿Qué evaluamos exactamente cuando el estudiante puede pedirle a un modelo de lenguaje que escriba su trabajo en treinta segundos? La pregunta no es retórica. Desde finales de 2022, cualquier docente universitario ha tenido que afrontarla en algún momento del semestre, ante un trabajo cuya autoría real resulta imposible de determinar a simple vista. La reacción dominante en buena parte de las facultades ha oscilado entre dos polos igualmente insatisfactorios: prohibir las herramientas de IA generativa o tolerarlas sin reglas claras. Ambas posiciones, consideramos, comparten el mismo error de fondo. Asumen que la evaluación debe centrarse en el producto final que el estudiante entrega, justo cuando ese producto ha dejado de ser un indicador fiable del proceso de pensamiento que lo origina.

Esta infografía propone abandonar ese marco. La evaluación cognitiva aumentada (ECA) es una propuesta conceptual que desarrollamos a partir de la literatura reciente y de experiencias institucionales verificadas. Su tesis central es sencilla, aunque exigente: cuando el estudiante puede producir un texto plausible en segundos pidiéndoselo a un modelo, lo evaluable deja de ser el texto y pasa a ser el proceso cognitivo que lo precede y lo acompaña. ¿Cómo formula sus instrucciones?, ¿qué hace cuando el modelo se equivoca?, ¿qué descarta y por qué? El docente no pierde protagonismo en este desplazamiento. Al contrario, amplía su capacidad de observación sobre algo que antes quedaba oculto: la trastienda del razonamiento.

El recorrido visual articula dos planos complementarios. Por un lado, evidencia verificada de marcos y experiencias en uso: la escala AIAS desarrollada por Perkins, Furze, Roe y MacVaugh (2024), los sistemas predictivos de Open University y UOC, el piloto del AIAS en British University Vietnam con resultados cuantificados que reportan Furze y sus colaboradores en 2024 (caída de los casos de mala conducta académica a cero, aumento del 33,3 % en la tasa de aprobación), y las iniciativas de UBA IALAB en Argentina. Por otro, una propuesta del autor que organiza cinco fases (observación, modelado, retroalimentación, intervención y transferencia), acompañadas de indicadores que requieren validación empírica antes de aplicarse de forma sistemática. La distinción entre lo verificado y lo conjetural se mantiene explícita en cada sección.

Conviene reconocer las limitaciones. La ECA no resuelve por sí sola el problema de la equidad en el acceso a herramientas de IA ni elimina los sesgos algorítmicos que documentan Baker y Hawn (2022). Tampoco sustituye al debate institucional sobre integridad académica, que sigue requiriendo políticas claras de cada facultad. Lo que sí ofrece, esperamos, es un lenguaje compartido para hablar de algo que con frecuencia se queda en el terreno de la intuición individual: qué significa, en concreto, que un estudiante haya pensado bien con una máquina. La invitación es doble. Recorre la infografía y, si te resulta útil, contrástala con tu propia experiencia evaluativa en los comentarios.

Nuevo paradigma evaluativo

Evaluación cognitiva aumentada

Un marco para observar cómo piensa el estudiante con IA: modelos, herramientas y casos reales de universidades pioneras

Escala AIAS Open University UOC FeedbackFruits

Nota metodológica

La evaluación cognitiva aumentada (ECA) es una propuesta conceptual del autor que integra evidencia verificada de instituciones específicas con un marco para observar el proceso cognitivo del estudiante cuando trabaja con IA. Las fuentes están citadas; las extrapolaciones y síntesis conceptuales se señalan explícitamente.

Premisa central de la ECA: la evaluación en la era de la IA generativa debe observar cómo piensa el estudiante con IA: cómo formula instrucciones, itera sobre resultados, contrasta información, corrige sesgos y reflexiona sobre el proceso. Esta perspectiva no sustituye al docente, sino que amplifica su capacidad de observación.

Marco conceptual

La investigación reciente plantea un cambio de paradigma: de evaluar productos a evaluar procesos de coconstrucción humano-IA

Evaluación resistente a la IA

Awadallah Alkouk y Khlaif (2024) definen las evaluaciones resistentes a la IA como tareas que minimizan la dependencia de herramientas de IA generativa y enfatizan capacidades que la máquina no replica con facilidad: pensamiento crítico, creatividad y toma de decisiones éticas.

Estas evaluaciones priorizan tareas auténticas orientadas al proceso, donde el estudiantado se implica con el material a través de proyectos iterativos, escritura reflexiva y formatos orales.

Coproducción de conocimiento

Una corriente creciente en la literatura sobre IA en educación, sintetizada por Perkins, Furze, Roe y MacVaugh (2024), describe la integración como una práctica de coproducción: el estudiante no recibe pasivamente la salida del modelo, sino que la curra, contrasta y reconfigura.

Esta perspectiva, anclada en el constructivismo social, entiende el aprendizaje como proceso colaborativo y contextual donde la IA actúa como tecnología mediadora que apoya la construcción del conocimiento.

Escala AIAS (AI Assessment Scale)

Marco desarrollado por Perkins, Furze, Roe y MacVaugh (2024), adoptado por cientos de instituciones y traducido a más de treinta idiomas (AI Assessment Scale, s. f.)

1

Sin IA

La evaluación se completa sin asistencia de IA en un entorno controlado.

Ejemplo: exámenes presenciales, reflexiones personales.
2

Planificación con IA

La IA puede usarse para lluvia de ideas y planificación, pero no en la producción final.

Ejemplo: mapas conceptuales iniciales, esquemas.
3

Colaboración con IA

La IA asiste en partes específicas con supervisión y citación obligatoria.

Ejemplo: revisión gramatical, búsqueda de fuentes.
4

IA completa

La IA participa de forma significativa en la producción y el estudiante edita, verifica y documenta su contribución.

Ejemplo: borradores iniciales, análisis de datos.
5

Exploración con IA

Uso creativo de la IA para generar soluciones novedosas mediante codiseño con el docente.

Ejemplo: proyectos de investigación avanzada.

Constructivismo social

Fundamentado en los principios de Vygotsky sobre el aprendizaje como proceso colaborativo y contextual.

Validez evaluativa

Diseñado para mantener la validez de las evaluaciones mientras integra capacidades de IA.

Flexibilidad contextual

Adaptable a distintos contextos educativos, desde la educación obligatoria hasta la educación superior.

Experiencias institucionales verificadas

Implementaciones documentadas de analítica de aprendizaje e IA en educación superior

Open University ✓ Verificado

🌍 Reino Unido

OU Analyse es un sistema de analítica de aprendizaje predictivo que identifica al estudiantado en riesgo mediante algoritmos de aprendizaje automático, alimentados por un conjunto de datos abierto que la propia universidad publicó como referencia para la comunidad investigadora (Kuzilek et al., 2017). Herodotou y sus colaboradores (2019) documentan cómo el sistema apoya intervenciones tempranas del profesorado a través de paneles interactivos con predicciones semanales.

UOC ✓ Verificado

🌍 España

El equipo liderado por Bañeres ha desarrollado herramientas de IA para detectar al estudiantado en riesgo de no superar asignaturas. El sistema alcanza casi un 90 % de precisión a mediados de semestre (UOC, 2020).

Fuente: UOC News ↗

British University Vietnam ✓ Verificado

🌍 Vietnam

El piloto del AIAS en BUV, documentado por Furze et al. (2024), reporta resultados específicos tras la implementación: caída de los casos de mala conducta académica vinculados a IA generativa (de más de 100 a cero en el semestre posterior), aumento del 33,3 % en la tasa de aprobación por módulo y mejora del 5,9 % en la nota media interanual.

Universidad de Buenos Aires ✓ Verificado

🌍 Argentina

La UBA impulsa iniciativas sostenidas de formación docente y desarrollo en IA a través del Centro de Innovación en Tecnología y Pedagogía (CITEP), con ciclos específicos sobre IA en educación, y de UBA IALAB, que se presenta como el primer laboratorio de innovación e inteligencia artificial en una Facultad de Derecho en Iberoamérica (UBA IALAB, s. f.).

Herramientas verificadas

Tecnologías con evidencia documentada de uso en evaluación educativa

Tipo Herramienta Aplicación documentada
Analítica predictiva OU Analyse
Open University
Identificación temprana de estudiantes en riesgo mediante modelos predictivos
Retroalimentación entre pares FeedbackFruits
Múltiples universidades
Revisión por pares estructurada con rúbricas y retroalimentación automatizada
Detección de riesgo Sistema IA UOC
UOC
Predicción de abandono y bajo rendimiento con cerca del 90 % de precisión
Debate estructurado Kialo Edu
Múltiples instituciones
Mapeo de argumentos y pensamiento crítico en formato visual
IA generativa educativa ChatGPT, Claude y Gemini
Uso transversal
Coescritura, retroalimentación formativa, explicación de conceptos
05 · Propuesta conceptual del autor

Modelo ECA: observación del proceso cognitivo

El núcleo de la evaluación cognitiva aumentada: cinco fases para evaluar cómo el estudiante piensa con IA

1

Observación

Registro de instrucciones, iteraciones, tiempo y fuentes consultadas

2

Modelado

Identificación de patrones de pensamiento

3

Retroalimentación

Preguntas guía: ¿qué mejorar?, ¿qué sesgo detectaste?

4

Intervención

El docente valida, contextualiza y reorienta

5

Transferencia

El estudiante aplica lo aprendido en nuevos contextos

Indicadores ECA para la observación

Iteración significativa

Cambios documentados entre versiones con justificación explícita

Uso crítico de la IA

Identificación y corrección de errores, sesgos o alucinaciones

Razonamiento visible

Mapas, esquemas o argumentos que evidencian el proceso de pensamiento

Transparencia

Registro claro de las instrucciones utilizadas y las herramientas empleadas

Metacognición

Reflexión explícita sobre lo aprendido del proceso

Transferencia

Capacidad de aplicar estrategias en contextos diferentes

Nota: estos indicadores son una propuesta basada en la síntesis de la literatura revisada. Requieren validación empírica en contextos específicos antes de su implementación sistemática.

Consideraciones éticas

Principios identificados en la literatura para una integración responsable de IA en evaluación

Transparencia algorítmica

El estudiantado merece conocer qué analiza la IA y cómo se usan sus datos en el proceso evaluativo (Memarian y Doleck, 2023).

Privacidad y consentimiento

Los datos de aprendizaje requieren protección específica y consentimiento informado, una preocupación central en la crítica sociotécnica del campo (Selwyn, 2022).

Supervisión humana

La IA orienta y sugiere; el juicio pedagógico final corresponde al docente (Perkins et al., 2024).

Equidad y sesgo algorítmico

Las herramientas de IA reproducen sesgos cuando los modelos se entrenan con datos no representativos, lo que afecta de manera desigual a distintos grupos (Baker y Hawn, 2022).

La ECA: evaluar el proceso, no solo el producto

La evaluación cognitiva aumentada no consiste en prohibir o permitir la IA, sino en diseñar experiencias donde el proceso de pensamiento con IA sea observable, documentable y evaluable.

La IA aporta capacidad de análisis; el docente aporta sentido pedagógico.

Referencias principales

AI Assessment Scale. (s. f.). AI Assessment Scale (AIAS). Recuperado el 13 de mayo de 2026, de https://aiassessmentscale.com/
Awadallah Alkouk, W. y Khlaif, Z. (2024). AI-resistant assessments in higher education: practical insights from faculty training workshops. Frontiers in Education, 9, 1499495. https://doi.org/10.3389/feduc.2024.1499495
Baker, R. S. y Hawn, A. (2022). Algorithmic bias in education. International Journal of Artificial Intelligence in Education, 32(4), 1052-1092. https://doi.org/10.1007/s40593-021-00285-9
Furze, L., Perkins, M., Roe, J. y MacVaugh, J. (2024). The AI Assessment Scale (AIAS) in action: a pilot implementation of GenAI-supported assessment. Australasian Journal of Educational Technology, 40(4), 38-55. https://doi.org/10.14742/ajet.9434
Herodotou, C., Hlosta, M., Boroowa, A., Rienties, B., Zdrahal, Z. y Mangafa, C. (2019). Empowering online teachers through predictive learning analytics. British Journal of Educational Technology, 50(6), 3064-3079. https://doi.org/10.1111/bjet.12853
Kuzilek, J., Hlosta, M. y Zdrahal, Z. (2017). Open University Learning Analytics dataset. Scientific Data, 4, 170171. https://doi.org/10.1038/sdata.2017.171
Memarian, B. y Doleck, T. (2023). Fairness, Accountability, Transparency, and Ethics (FATE) in Artificial Intelligence (AI) and higher education: a systematic review. Computers and Education: Artificial Intelligence, 5, 100152. https://doi.org/10.1016/j.caeai.2023.100152
Perkins, M., Furze, L., Roe, J. y MacVaugh, J. (2024). The Artificial Intelligence Assessment Scale (AIAS): a framework for ethical integration of generative AI in educational assessment. Journal of University Teaching and Learning Practice, 21(6), 49-66. https://doi.org/10.53761/q3azde36
Selwyn, N. (2022). Education and technology: key issues and debates (3.ª ed.). Bloomsbury Academic.
UBA IALAB. (s. f.). Laboratorio de Innovación e Inteligencia Artificial. Universidad de Buenos Aires, Facultad de Derecho. Recuperado el 13 de mayo de 2026, de https://www.ialab.com.ar/
Universitat Oberta de Catalunya. (2020, 10 de diciembre). La UOC ensaya un sistema de IA para detectar a los estudiantes en riesgo de suspender. UOC News. https://www.uoc.edu/es/news/2020/436-alerta-riesgo-estudiantes