2.7 Dilemas éticos del uso de la IA en educación
Un dilema ético surge cuando no es posible elegir a la vez dos acciones o posicionamientos que entran en conflicto y, a la vez, tampoco es sencillo sopesar cual elegir o en que punto de equilibrio quedarse. Los dilemas nos dejan siempre un poso de insatisfacción tanto al analizarlos como al decantarnos, puesto que son una muestra de las limitaciones de la realidad en comparación con nuestros deseos. Está muy lejos de las intenciones de este texto resolver para ti los dilemas que no hemos sido capaces de resolver para nosotros mismos. Tómese este texto, por lo tanto, como un paseo por un paisaje que, si bien esperamos que te permita volver a casa con mayor perspectiva, no va a aportar una fórmula mágica ni una resolución de lo irresoluble.
El paso de la laguna Estigia(1520). Joachim Patinir. Dominio público
La educación con IA está llena de dilemas, veamos algunos de ellos:
Dilemas éticos del uso de la IA
Personalización e igualdad de oportunidades: la estigmatización
El dilema entre la personalización y la estigmatización nos sitúa en el centro de la ética algorítmica. Por un lado, la IA ofrece una personalización sin precedentes, capaz de actuar como un tutor socrático que ajusta el nivel de dificultad y el andamiaje pedagógico a las necesidades exactas de cada alumno. Estos sistemas pueden identificar lagunas de conocimiento en tiempo real y ofrecer explicaciones alternativas que un docente, con un aula con muchos estudiantes, difícilmente podría proporcionar de forma individualizada.
Sin embargo, esta misma capacidad de análisis conlleva el riesgo de la estigmatización o un cierto encasillamiento algorítmico que erosione la igualdad de oportunidades educativas. Los informes de la UNESCO advierten que los modelos de IA pueden heredar y amplificar sesgos existentes en sus datos de entrenamiento, lo que podría llevar a que el sistema asuma que un estudiante tiene un techo de aprendizaje basado en su rendimiento pasado o en patrones sociodemográficos. Corremos el riesgo de hipotecar la libertad y el desarrollo futuro de un individuo con un algoritmo que "decide" qué puede o no aprender un niño basándose en datos históricos. Se corre, en definitiva el riesgo de convertir el pasado del alumno en su único destino posible, en una especie de efecto Pigmalión digital.
Eficiencia a cambio de superficialidad y pérdida de control en el proceso
La promesa de la eficiencia que puede aportar la IA en nuestro trabajo docente es, sin duda, seductora. Según el informe de la OCDE (2026), la IA generativa puede reducir drásticamente la carga administrativa y de planificación, permitiendo que el docente dedique ese tiempo recuperado a la interacción directa con el alumnado. Desde una perspectiva pragmática, optimizar la corrección de ejercicios mecánicos (debidamente anonimizados o en local) o la generación de materiales personalizados no es un es un medio para liberarnos tiempo y poder emplearlo para discernir qué necesita cada niño en su singularidad emocional y cognitiva.
Sin embargo, corremos el riesgo de caer en una perspectiva donde toda la realidad, incluido el aprendizaje, es vista meramente como un recurso que debe ser optimizado y consumido con rapidez. Si la IA proporciona respuestas instantáneas y resúmenes perfectos, el alumno puede verse tentado a omitir la "dificultad deseable" que requiere para fijar conocimientos. Como se señala en capítulo 1 de este curso, el aula debe, además de propiciar la alfabetización en IA, ser en ocasiones un "refugio del algoritmo", un espacio donde el tiempo no se mida por la velocidad de procesamiento, sino por la profundidad del asombro y el pensamiento crítico. La rapidez de la máquina no debe dictar el ritmo de la maduración humana, somos nosotros como docentes el metrónomo de nuestra aula.
Una postura moderada nos obliga a sopesar y preguntarnos si estamos utilizando la IA para aprender mejor o simplemente para producir más. La UNESCO subraya que la competencia docente clave no es solo manejar la herramienta, sino saber cuándo esta no aporta valor. No debemos confundir la eficiencia de una búsqueda en un chatbot con la profundidad de una investigación reflexiva. Parece razonable delegar en la IA aquellas tareas que nos deshumanizan por su repetitividad, protegiendo con celo aquellos procesos lentos y bellos, como la lectura profunda, el debate socrático y el error creativo, que constituyen el núcleo de una educación que no solo instruye, sino que aspira a formar individuos libres con capacidad de amar, gozar de la vida y participar como ciudadanos inteligentes en el espacio público.
El punto de equilibrio entre el control y la intimidad
El uso de las analíticas de aprendizaje se presenta como una herramienta de acompañamiento sin precedentes, capaz de transformar la intuición docente en una intervención basada en evidencias o, al menos, en correlaciones estadísticas. El informe de la OCDE (2026) destaca cómo la recopilación de datos en tiempo real permite detectar patrones de desenganche o dificultades de aprendizaje antes de que puedan derivar en un fracaso escolar, actuando como un sistema de alerta temprana. Es, por lo tanto, un efecto deseable, un cuidado del otro que busca su autonomía permitiendo dirigir nuestros apoyos al estudiante que mas lo necesita en el momento mas adecuado. Nos podrá permitir, por tanto, intervenir de manera quirúrgica y personalizada allí donde el esfuerzo humano es más necesario.
Sin embargo, la frontera entre el apoyo y la vigilancia es difusa. Si convertimos el aula en un espacio donde cada clic, cada pausa en una lectura y cada error son registrados y analizados, corremos el riesgo de instaurar un "panóptico digital". una vigilancia constante e invisible que no solo observa, sino que normaliza y moldea el comportamiento al ser internalizada por los vigilados. Los humanos cuando somos conscientes de ser observados podemos dejar de explorar y de equivocarnos con libertad por miedo a que nuestra "huella de datos" nos penalice en el futuro. Como apuntamos en capítulo 1, no es deseable perder el espacio para el error creativo y menos aún la privacidad del pensamiento, elementos indispensables para el desarrollo de la identidad en niños y adolescentes.
La postura moderada ante este dilema requiere situar la agencia humana y la transparencia en el centro del diseño tecnológico, tal como defiende el Marco de Competencias de la UNESCO para Docentes. El acompañamiento ético no consiste en monitorizarlo todo, sino en decidir qué datos son verdaderamente relevantes para el bienestar pedagógico y asegurar que el alumno sea partícipe de ese proceso. No debemos usar la analítica para predecir el destino de un estudiante, sino para ampliar sus posibilidades de acción. La línea ética se traza cuando el dato deja de ser una herramienta de ayuda para el profesor y se convierte en un mecanismo de control invisible; nuestra responsabilidad es garantizar que la tecnología sirva para "ver" mejor al alumno en su complejidad, pero nunca para invadir la intimidad de su proceso de maduración.
Extracción de la piedra de la locura (1475-1480). El Bosco. Dominio público.
El dilema de la automatización de la evaluación
La automatización de la evaluación mediante IA se presenta como una solución técnica a uno de los mayores desafíos del docente: la gestión del tiempo y la objetividad. Los sistemas de evaluación algorítmica y las rúbricas generativas, como se menciona en el informe de la OCDE (2026), permiten ofrecer una retroalimentación inmediata, algo que en la enseñanza tradicional suele dilatarse días o semanas. Esta "inmediatez pedagógica" puede ser una herramienta poderosa para el aprendizaje formativo, permitiendo al alumno mejorar su aprendizaje. Desde un punto de vista pragmático, la IA actúa aquí como un nivelador que busca eliminar los sesgos de fatiga o subjetividad inconsciente que todos los profesores, como humanos, podemos tener al corregir el centésimo examen de una jornada. Sin embargo, toda objetividad esconde, en el fondo, un sesgo de diseño, es una ilusión (tranqulizadora) de objetividad que elimina en el evaluador la carga moral de tomar decisiones difíciles.
Por otra parte, reducir la evaluación a un proceso puramente algorítmico supone un riesgo de deshumanización y de injusticia pedagógica. La IA es excelente procesando el "producto" final, pero ciega ante el "proceso" y el esfuerzo vital del estudiante y sus circunstancias particulares. Corremos el riesgo de que la evaluación deje de ser un acto educativo para convertirse en un mero control de calidad industrial. Un algoritmo no puede valorar la superación personal de un niño que ha vencido una dificultad familiar, ni la chispa de una idea original que se sale de los parámetros de la rúbrica preestablecida.
La postura ética más sólida, respaldada por el Marco de Competencias de la UNESCO para Docentes, es la defensa de la "agencia humana" en el centro del proceso evaluativo. La evaluación nunca debe ser exclusivamente automática; la IA puede encargarse de la corrección de tareas mecánicas o de proporcionar diagnósticos preliminares, pero el juicio final —la valoración del crecimiento integral del alumno— es una competencia exclusiva de la phronesis o sabiduría práctica del docente. El equilibrio reside en utilizar la IA para enriquecer la evaluación con datos y rapidez, pero garantizando siempre que el profesor actúe como garante de la justicia, asegurando que el sistema técnico no "encasille" al alumnado ni ignore las circunstancias humanas que dan sentido al aprendizaje
El uso de IA generativa como apoyo y la posible sustitución de la voz propia del alumnado
Sabemos que la IA generativa puede actuar como un tutor personalizado disponible las veinticuatro horas. Según el informe de la OCDE (2026), estas herramientas pueden democratizar el acceso a un acompañamiento de alta calidad en tareas complejas como la redacción o la programación, permitiendo, entre otras cosas, que el alumno supere sus bloqueos creativos o que reciba explicaciones multimodales de un mismo concepto. Esta tutorización y apoyo en tiempo real facilita que el estudiante alcance metas que solo, por pura limitación de recursos o tiempo, no podría abordar.
Sin embargo, este "aumento" de capacidades esconde una trampa de sustitución que amenaza la esencia misma del pensamiento crítico. Si el alumno delega el esfuerzo de síntesis, la estructura lógica y la voz propia en el algoritmo, nos enfrentamos a una pérdida de la autoría humana. Así, el estudiante puede dejar de ser un autor para convertirse en un mero editor de una "caja negra". La facilidad del atajo tecnológico puede atrofiar la memoria y el juicio en un fenomeno denominado descarga cognitiva o incluso, rendición cognitiva.
Una forma de tener en cuenta ambas posturas consiste en transformar la IA en una herramienta metacognitiva. La clave reside en lo que la UNESCO define como la "centralidad de la agencia humana": no se trata de que la IA escriba por nuestro alumnado, sino de que éste use la IA para contrastar sus propias ideas, identificar sesgos en el texto generado o comprender la lógica detrás de un código. En lugar de evaluar solo el resultado final, debemos incentivar que el alumno documente cómo interactuó con la máquina, qué correcciones hizo y por qué. Solo así garantizamos que la tecnología sea un apoyo que eleve el techo del aprendizaje sin derribar los cimientos de su esfuerzo intelectual y su responsabilidad ética.
La velocidad de innovación tecnológica y la prudencia educativa
El dilema entre la velocidad de la innovación tecnológica y la prudencia educativa nos sitúa en una tensión constante entre el miedo a quedar rezagados y el deber de proteger la integridad del acto pedagógico. La velocidad de la digitalización de las aulas está asociada, según el informe de la OCDE (2026) a una búsqueda de eficiencia y modernización de los sistemas educativos. Sin embargo, como ya señalamos anteriormente, con la irrupción de la IA no estamos ante un simple cambio de herramientas, sino ante un cambio de paradigma que afecta la forma en que comprendemos el mundo. Adoptar la IA por mera inercia institucional, sin una reflexión previa sobre su impacto en el desarrollo cognitivo, es ignorar que el tiempo de la técnica es casi instantáneo, mientras que el tiempo del aprendizaje humano es esencialmente lento y madurativo.
Frente a esta aceleración,la prudencia educativa no debe ser una resistencia ciega al cambio, sino la virtud de saber discernir si una innovación realmente mejora nuestra educación de acuerdo con los valores de cada comunidad educativa o los empobrece. El Marco de Competencias de la UNESCO para Docentes es taxativo al respecto: la formación ética y el desarrollo de la conciencia de riesgos deben ser los cimientos sobre los que se construya cualquier integración tecnológica. Una de las competencias docentes más urgentes en la actualidad es desarrollar la capacidad de identificar cuándo la tecnología no aporta valor. La verdadera innovación no consiste en usar lo último, sino en saber cuándo lo último es útil y cuando es un obstáculo para lo importante.
La postura equilibrada nos invita a ver el aula como un espacio donde la tecnología se somete al escrutinio del propósito pedagógico. Esto implica que los centros educativos y las administraciones deben priorizar la formación docente profunda, que abarque desde la alfabetización técnica hasta la ética normativa, antes de imponer implementaciones masivas. La IA tiene el potencial de ser un aliado extraordinario para la inclusión y la personalización, pero solo si las comunidades educativas mantienen su autonomía para decidir los ritmos y los límites de su uso. En última instancia, el principio de prudencia nos recuerda que nuestro compromiso ético no es con la vanguardia tecnológica, sino con el bienestar y el crecimiento integral de ese alumnado que confía en nosotros para navegar un mundo cada vez más automatizado.
La caída de Ícaro. Jacob Peeter Gowy (1636-38). Uso no comercial


