La asimetría silenciosa: cuando el docente evalúa lo que él mismo hace

La asimetria del profesor-alumno con la IA

La asimetría silenciosa: cuando el docente evalúa lo que él mismo hace
La representación de la asimetría

Fernando Santamaría - IAforTeachers · Marzo de 2026


Hay una conversación que no estamos teniendo. Se celebran congresos sobre inteligencia artificial en educación, se publican políticas institucionales sobre uso ético de la IA, se redactan rúbricas para detectar textos generados automáticamente. Y mientras tanto, en la misma semana en que un docente cuelga en el aula virtual un módulo cuyo primer borrador generó con Claude, ese mismo docente aplica un detector de IA a las entregas de sus estudiantes. Nadie lo dice en voz alta. Pero ocurre.

No se trata de hipocresía individual. Sería demasiado fácil, y demasiado injusto, reducirlo a eso. La tensión que queremos examinar aquí es de otra naturaleza: es estructural, y afecta a cualquier docente que use IA de forma intensiva sin haber resuelto, al menos para sí mismo, qué significa eso para su autoridad evaluadora.

El docente en tres posiciones incompatibles

Cuando un profesor universitario usa IA generativa de forma habitual en su trabajo, ocupa simultáneamente tres posiciones que colisionan entre sí.

  1. La primera es la de usuario intensivo. Prepara clases con ayuda de modelos de lenguaje, genera borradores de actividades, obtiene retroalimentación sobre sus materiales, resume artículos, reformula explicaciones. No hay nada inherentemente problemático en esto. Es una práctica que, bien gestionada, puede mejorar la calidad de su docencia.
  2. La segunda es la de árbitro de la integridad académica. Evalúa si sus estudiantes han usado IA de forma apropiada o inapropiada, aplica criterios sobre autoría, juzga qué cuenta como trabajo genuino y qué como delegación indebida. Aquí empieza la tensión.
  3. La tercera, y la más invisible de las tres, es la de modelo epistémico. Lo quiera o no, el docente encarna ante sus estudiantes una forma de relacionarse con el conocimiento. Su práctica, más que sus palabras, comunica qué se valora, qué se considera legítimo, cómo se trabaja bien. Si esa práctica no es visible, el modelo que proyecta es opaco.

Cuando estas tres posiciones coexisten sin transparencia, el resultado no es neutro. Genera lo que podríamos llamar una asimetría silenciosa: el docente opera con un conjunto de normas para sí mismo y aplica otro diferente a sus estudiantes, sin que ninguna de las dos partes haya negociado explícitamente esa diferencia.

Por qué esto no es solo una cuestión ética personal

Podría argumentarse que cada profesional gestiona sus herramientas como considera oportuno, y que el criterio para evaluar a los estudiantes es independiente de cómo trabaja el docente. Es un argumento razonable, en la superficie.

El problema es que la confianza en el proceso evaluador no depende solo de la corrección técnica de los criterios. Depende también de la percepción de coherencia. Luo (2024) documentó que cuando los instructores no divulgan su uso de IA, se genera un entorno de baja confianza donde los estudiantes no se sienten seguros explorando ni revelando su propio uso. Dicho de otro modo: la opacidad del docente produce opacidad en el estudiante, y esa opacidad mutua no es inocente. Contamina exactamente el espacio que debería ser el más abierto a la reflexión crítica sobre la tecnología.

Hay, además, un argumento de consistencia lógica que merece atención. Si el docente considera que usar IA para preparar materiales docentes es legítimo porque el resultado pasa por su criterio experto y su revisión crítica, ese mismo argumento está disponible para el estudiante que usa IA para redactar un trabajo y lo revisa, lo corrige y lo integra con su propio razonamiento. Negar la equivalencia exige justificar por qué las condiciones son diferentes. Esa justificación puede existir, y a veces es sólida, pero hay que hacerla explícita. No puede darse por sobreentendida.


El argumento de la asimetría funcional

La defensa más habitual de la distinción docente-estudiante apela a la diferencia de roles: el docente es un experto que usa la IA como herramienta de producción profesional, mientras que el estudiante usa la IA en un contexto de aprendizaje donde el proceso importa tanto como el resultado.

Este argumento es válido. Pero solo lo es plenamente cuando se explicita.

Consideremos la diferencia entre un cirujano que usa bisturí robótico y un estudiante de medicina que hace lo mismo en una práctica evaluada. Nadie confunde los dos casos porque el contexto, los objetivos y las condiciones están claramente diferenciados. La distinción no se da por sobreentendida: está institucionalizada, comunicada y justificada.

En el uso de IA en educación superior, esa distinción rara vez está institucionalizada ni comunicada. El docente opera en un espacio de relativa discrecionalidad, sin necesidad de declarar qué herramientas usa ni en qué medida. El estudiante, en cambio, se mueve bajo criterios de evaluación que, con frecuencia creciente, incluyen restricciones sobre el uso de esas mismas herramientas. La asimetría no está en los roles, que podría justificarse. Está en la opacidad de una de las partes.


Transparencia como acto pedagógico, no como cumplimiento

Damm y Eaton (2026) proponen entender la transparencia sobre el uso de IA no solo como obligación ética sino como acto pedagógico en sí mismo. Coincidimos con esa posición, aunque queremos añadir un matiz: la transparencia del docente sobre su propio uso de IA no es solo un gesto de honestidad. Es una intervención didáctica de primer orden.

Cuando un docente dice a sus estudiantes "he generado el primer borrador de esta rúbrica con IA y luego la he reformulado durante dos sesiones de trabajo", no está confesando nada vergonzoso. Está haciendo visible un proceso que, de otro modo, permanecería invisible. Está enseñando, concretamente, cómo se trabaja con IA de forma crítica y reflexiva. Está abriendo la posibilidad de una conversación real sobre qué aporta la herramienta y qué aporta el criterio humano.

Es probable que esa conversación sea más formativa que cualquier política institucional sobre uso de IA. Las políticas establecen límites. La práctica visible del docente modela actitudes.


Tres preguntas que el docente debería hacerse antes de evaluar

No proponemos aquí un protocolo rígido, sino un ejercicio de reflexión que consideramos previo a cualquier decisión evaluadora sobre el uso de IA por parte de los estudiantes.

Primera pregunta: ¿He usado IA en la preparación de los materiales, actividades o criterios de esta evaluación? Si la respuesta es sí, ¿lo saben mis estudiantes?

No se trata de publicar un diario de uso. Se trata de que la práctica general sea conocida. Un estudiante que sabe que su docente usa IA como herramienta habitual de trabajo tiene un contexto muy diferente para interpretar las normas sobre uso de IA en sus propias entregas.

Segunda pregunta: ¿Los criterios con los que evalúo el uso de IA por parte de mis estudiantes son coherentes con la forma en que yo la uso?

Si el docente valora positivamente la revisión crítica, la reformulación y la integración reflexiva de los resultados de la IA, esos mismos criterios deberían aplicarse, con las adaptaciones necesarias, al trabajo estudiantil. La incoherencia entre ambos conjuntos de criterios no solo es injusta: es pedagógicamente contraproducente, porque envía un mensaje implícito de que las reglas son arbitrarias.

Tercera pregunta: ¿Puedo articular, con argumentos que sostendría ante mis estudiantes, por qué ciertas formas de uso de IA son apropiadas para mí como docente y no para ellos en esta actividad concreta?

Si la respuesta es sí, esos argumentos deberían estar en el enunciado de la actividad o en la guía del curso, no guardados para uno mismo. Si la respuesta es no, la situación merece mayor reflexión antes de aplicar ningún criterio evaluador.


Lo que revelan los detectores de IA sobre nosotros mismos

Conviene detenerse un momento en el uso de herramientas de detección de IA, porque condensan la asimetría de forma especialmente nítida.

Un docente que usa IA para preparar sus clases y luego aplica un detector de IA a los trabajos de sus estudiantes está, en cierto sentido, usando la misma tecnología en dos sentidos opuestos: para producir y para vigilar. No hay nada técnicamente incorrecto en eso. Pero la imagen que proyecta merece ser examinada.

Además, la evidencia sobre la fiabilidad de estos detectores es, cuando menos, problemática. Presentan tasas de falsos positivos que afectan desproporcionadamente a estudiantes no nativos del inglés, y sus resultados no son reproducibles entre plataformas ni versiones. Usar estas herramientas como instrumento de sanción, sin comunicar sus limitaciones a los estudiantes, añade una capa adicional de opacidad al proceso evaluador.

La pregunta que los detectores no responden es la más importante: ¿el estudiante aprendió lo que la actividad pretendía que aprendiera? Esa pregunta requiere diseño pedagógico, no vigilancia tecnológica.


Hacia una pedagogía de la transparencia activa

El horizonte que se abre desde aquí no es el de la prohibición ni el del laissez-faire. Es el de la transparencia activa: una práctica docente en la que el uso de IA, tanto del docente como del estudiante, forma parte del contenido explícito del curso.

Esto implica, en primer lugar, que el docente declare su propio uso de IA con el mismo nivel de detalle que espera de sus estudiantes. No más, no menos. La simetría en las expectativas de transparencia es un requisito de consistencia básica.

Implica también diseñar actividades en las que el proceso de uso de IA sea visible y evaluable. No "¿usaste IA?", sino "¿cómo usaste IA?", "¿qué decisiones tomaste?", "¿dónde intervino tu criterio y dónde el del modelo?". Estas preguntas son más difíciles de responder que un trabajo convencional, precisamente porque exigen reflexión metacognitiva real.

Por último, implica reconocer que la autoridad evaluadora del docente en la era de la IA no descansa en el acceso exclusivo a herramientas, sino en la calidad de su criterio y en la coherencia de su práctica. Esa autoridad no se defiende ocultando el uso de IA. Se construye haciéndolo visible y reflexivo.


Una nota final sobre la confianza

La confianza en el proceso educativo es un bien frágil. Se construye lentamente y se deteriora con rapidez. En un contexto en el que la IA puede generar texto convincente en segundos, la desconfianza mutua entre docentes y estudiantes es una tentación comprensible para ambas partes.

La asimetría silenciosa que hemos descrito no es la causa de esa desconfianza, pero la amplifica. Un docente que usa IA de forma opaca mientras evalúa el uso de IA de sus estudiantes no está construyendo confianza. Está aplazando una conversación que, tarde o temprano, tendrá que tener.

Podríamos sugerir que esa conversación vale más empezarla pronto, en las condiciones que el docente elige, que esperar a que la inicien las circunstancias.


Referencias

Damm, C., y Eaton, L. (2026). From prompt to practice: A framework for transparent GenAI use in higher education. EDUCAUSE Review. https://er.educause.edu

Luo, J. (2024). How does GenAI affect trust in teacher-student relationships? Insights from students' assessment experiences. Teaching in Higher Education, 30(4), 991-1006. https://doi.org/10.1080/13562517.2024.2309963

Mowreader, A. (2023, 28 de septiembre). Academic success tip: Establish guidelines for AI use. Inside Higher Ed. https://www.insidehighered.com


Fernando Santamaría es profesor universitario especializado en inteligencia artificial aplicada a la educación superior y director de IAforTeachers.com, plataforma de formación docente para el profesorado universitario hispanohablante.