La paradoja rendimiento-aprendizaje: cuando la IA mejora las notas pero deteriora el conocimiento

La paradoja rendimiento-aprendizaje: cuando la IA mejora las notas pero deteriora el conocimiento

El dato que nadie quiere escuchar

Hay un hallazgo en el informe OECD Digital Education Outlook 2026 que debería incomodar a cualquier docente. Los estudiantes que utilizan ChatGPT durante sus tareas académicas muestran mejoras espectaculares en su rendimiento inmediato: incrementos de entre el 48 % y el 127 %. Números impresionantes. Hasta que miras el siguiente dato.

Cuando se retira el acceso a la IA y se evalúa a esos mismos estudiantes sin asistencia tecnológica, su desempeño cae un 17 % por debajo del grupo que nunca utilizó estas herramientas. Quienes nunca tocaron ChatGPT superan a quienes lo usaron intensivamente.

La OCDE denomina a este fenómeno la paradoja rendimiento-aprendizaje. Priya Lakhani, fundadora de Century Tech y una de las voces más lúcidas sobre IA en educación, lo explica con una claridad demoledora: los estudiantes no están usando la IA para aprender. La están usando para evitar activamente el aprendizaje.

Foto de Priya Lakhani

La ilusión de competencia

Lakhani lleva más de una década investigando cómo aprende el cerebro humano. En su reciente charla TED, presenta un dato que confirma lo que muchos docentes intuyen: una quinta parte de los estudiantes admite usar la IA para hacer todo el trabajo por ellos. No como ayuda. No como apoyo. Como sustituto completo del esfuerzo.

El resultado es lo que Lakhani denomina ilusión de competencia. La fluidez de la respuesta generada por la IA hace creer al estudiante que sabe, que entiende, que domina el tema. Esa sensación es engañosa. Cuando llega el momento de demostrar ese conocimiento sin muletas tecnológicas, el castillo de naipes se desmorona.

¿Por qué ocurre esto? Porque confundimos fluidez con aprendizaje. Ver una respuesta bien redactada no es lo mismo que haberla construido. Leer una explicación clara no equivale a haber luchado con el problema hasta comprenderlo. El producto final parece idéntico, pero el proceso cognitivo que hay detrás es radicalmente distinto.

El estudio que lo demuestra

El hallazgo de la OCDE no es especulación teórica. Proviene de un ensayo controlado aleatorizado realizado por investigadores de la Wharton School de la Universidad de Pensilvania con casi mil estudiantes de secundaria en Turquía.

Los investigadores diseñaron tres grupos. El primero usó GPT Base, una interfaz similar a ChatGPT estándar que daba respuestas directas. El segundo trabajó con GPT Tutor, una versión modificada que ofrecía pistas y guiaba paso a paso sin resolver el problema directamente. El tercero, el grupo de control, trabajó solo con libros y apuntes.

Durante la fase de práctica, los resultados fueron espectaculares para los grupos con IA. El grupo GPT Base mejoró su rendimiento un 48 %. El grupo GPT Tutor, un 127 %. Parecía que la IA era la revolución educativa que todos esperaban.

Entonces llegó el examen sin IA.

El grupo GPT Base cayó un 17 % por debajo del grupo de control. Habían delegado tanto en la herramienta que no habían construido el conocimiento necesario para resolver problemas por sí mismos. Más preocupante aún: el grupo GPT Tutor, a pesar de haber recibido una versión pedagógicamente diseñada de la IA, tampoco mostró ventajas significativas respecto al grupo de control.

¿Qué significa esto para la docencia?

La interpretación superficial sería concluir que la IA es perjudicial para el aprendizaje y que deberíamos prohibirla. Esa lectura es errónea y contraproducente. Lo que el estudio demuestra no es que la IA sea inherentemente dañina, sino que su integración sin diseño pedagógico produce resultados contraproducentes.

La distinción clave está entre usar la IA como prótesis cognitiva y usarla como andamiaje pedagógico. La prótesis sustituye una función: el estudiante delega el pensamiento en la máquina. El andamiaje apoya una función mientras se construye la capacidad para realizarla de forma autónoma. Ambos usos emplean la misma tecnología, pero producen resultados diametralmente opuestos.

Consideremos un ejemplo concreto. Un estudiante de biología molecular debe redactar un informe sobre la regulación génica en procariotas. Si le pide a ChatGPT que escriba el informe, obtiene un producto aceptable sin haber procesado la información. Si en cambio utiliza la IA para que le plantee preguntas sobre las lagunas de su borrador, para que le señale inconsistencias en su razonamiento o para que le sugiera conexiones que no ha considerado, el proceso cognitivo es radicalmente distinto.

Tres principios para una integración pedagógica

La evidencia del informe OCDE apunta hacia tres principios fundamentales para integrar la IA sin sacrificar el aprendizaje.

Preservar el esfuerzo cognitivo productivo. Robert Bjork y Elizabeth Bjork llevan décadas documentando que las condiciones que hacen el aprendizaje más difícil a corto plazo, lo que denominan dificultades deseables, son precisamente las que producen aprendizaje más duradero y transferible. La IA tiene una capacidad extraordinaria para eliminar estas dificultades. La tarea del docente es diseñar actividades donde la IA amplifique el esfuerzo sin eliminarlo.

Evaluar el proceso, no solo el producto. Si la evaluación se centra exclusivamente en el resultado final, el estudiante racional optimizará el resultado por cualquier medio disponible, incluida la delegación total en la IA. Si la evaluación incorpora el proceso, la estrategia de resolución, las decisiones tomadas, los callejones sin salida explorados, se incentiva un uso de la IA que refuerza el aprendizaje en lugar de sustituirlo.

Diseñar evaluaciones que midan la transferencia. No se trata de volver a los exámenes memorísticos tradicionales, sino de diseñar evaluaciones que midan la transferencia de conocimiento a contextos nuevos, donde la mera reproducción de respuestas generadas por IA resulte insuficiente.

Una reflexión sobre el futuro de la enseñanza

La paradoja rendimiento-aprendizaje nos coloca ante una encrucijada. Podemos interpretar estos hallazgos como una invitación a restringir el uso de la IA, o podemos verlos como un llamado a transformar nuestra práctica docente.

La segunda opción es más exigente, pero también más prometedora. Si entendemos cómo y por qué la IA puede deteriorar el aprendizaje cuando se usa sin criterio pedagógico, podemos diseñar experiencias educativas que aprovechen su potencial sin sacrificar la construcción de conocimiento profundo.

Esto requiere algo que ninguna tecnología puede automatizar: el juicio profesional del docente. La capacidad de observar a los estudiantes, detectar cuándo están delegando demasiado en la máquina, intervenir para reconducir el proceso. La IA puede amplificar la capacidad docente, pero no puede sustituir esa mirada humana que distingue entre rendimiento aparente y aprendizaje genuino.


Este artículo forma parte del análisis que realicé del informe OECD Digital Education Outlook 2026. Si quieres profundizar en todos los hallazgos del informe, he publicado la traducción completa al español en Gumroad, disponible para descarga.


Referencias

Bastani, H., Bastani, O., Sungu, A., Ge, H., Kabakcı, Ö. y Mariman, R. (2025). Generative AI without guardrails can harm learning: Evidence from high school mathematics. Proceedings of the National Academy of Sciences. https://doi.org/10.1073/pnas.2422633122

OECD. (2026). OECD Digital Education Outlook 2026. OECD Publishing. https://www.oecd.org/en/publications/oecd-digital-education-outlook-2026_062a7394-en.html


Fernando Santamaría es profesor universitario especializado en inteligencia artificial aplicada a la educación superior. Dirige IAforTeachers, una plataforma dedicada a la formación del profesorado universitario hispanohablante en el uso pedagógico de la IA.