2.7 Dilemas éticos del uso de la IA en educación
La caída de Ícaro. Jacob Peeter Gowy (1636-38). Uso no comercial
ChatGP. HACER infografia
Un dilema ético surge cuando no es posible elegir a la vez dos acciones o posicionamientos que entran en conflicto y, tampoco es sencillo sopesar cual elegir o en que punto de equilibrio quedarse. Los dilemas nos dejan siempre un poso de insatisfacción tanto al analizarlos como al decantarnos, puesto que son una muestra de las limitaciones de la realidad en comparación con nuestros deseos. Está muy lejos de las intenciones de este texto resolver para ti los dilemas que no hemos sido capaces de resolver para nosotros mismos. Tómese este texto, por lo tanto, como un paseo por un paisaje que, si bien esperamos que te permita volver a casa con mayor perspectiva, no va a aportar una fórmula mágica ni una resolución de lo irresoluble.
La educación con IA está llena de dilemas, veamos algunos de ellos:
Dilemas éticos del uso de la IA
Personalización e igualdad de oportunidades: la estigmatización
El dilema entre la personalización y la estigmatización nos sitúa en el centro de la ética algorítmica. Por un lado, la IA ofrece una personalización sin precedentes, capaz de actuar como un tutor socrático que ajusta el nivel de dificultad y el andamiaje pedagógico a las necesidades exactas de cada alumno. Estos sistemas pueden identificar lagunas de conocimiento en tiempo real y ofrecer explicaciones alternativas que un docente, con un aula con muchos estudiantes, difícilmente podría proporcionar de forma individualizada.
Sin embargo, esta misma capacidad de análisis conlleva el riesgo de la estigmatización o un cierto encasillamiento algorítmico que erosione la igualdad de oportunidades educativas. Los informes de la UNESCO advierten que los modelos de IA pueden heredar y amplificar sesgos existentes en sus datos de entrenamiento, lo que podría llevar a que el sistema asuma que un estudiante tiene un techo de aprendizaje basado en su rendimiento pasado o en patrones sociodemográficos. Corremos el riesgo de hipotecar la libertad y el desarrollo futuro de un individuo con un algoritmo que "decide" qué puede o no aprender un niño basándose en datos históricos. Se corre, en definitiva el riesgo de convertir el pasado del alumno en su único destino posible, en una especie de efecto Pigmalión digital.
Eficiencia a cambio de superficialidad y pérdida de control en el proceso
La promesa de la eficiencia que puede aportar la IA en nuestro trabajo docente es, sin duda, seductora. Según el informe de la OCDE (2026), la IA generativa puede reducir drásticamente la carga administrativa y de planificación, permitiendo que el docente dedique ese tiempo recuperado a la interacción directa con el alumnado. Desde una perspectiva pragmática, optimizar la corrección de ejercicios mecánicos (debidamente anonimizados o en local) o la generación de materiales personalizados no es un es un medio para liberarnos tiempo y poder emplearlo para discernir qué necesita cada niño en su singularidad emocional y cognitiva.
Sin embargo, corremos el riesgo de caer en una perspectiva donde toda la realidad, incluido el aprendizaje, es vista meramente como un recurso que debe ser optimizado y consumido con rapidez. Si la IA proporciona respuestas instantáneas y resúmenes perfectos, el alumno puede verse tentado a omitir la "dificultad deseable" que requiere para fijar conocimientos. Como se señala en capítulo 1 de este curso, el aula debe, además de propiciar la alfabetización en IA, ser en ocasiones un "refugio del algoritmo", un espacio donde el tiempo no se mida por la velocidad de procesamiento, sino por la profundidad del asombro y el pensamiento crítico. La rapidez de la máquina no debe dictar el ritmo de la maduración humana, somos nosotros como docentes el metrónomo de nuestra aula.
Una postura moderada nos obliga a sopesar y preguntarnos si estamos utilizando la IA para aprender mejor o simplemente para producir más. La UNESCO subraya que la competencia docente clave no es solo manejar la herramienta, sino saber cuándo esta no aporta valor. No debemos confundir la eficiencia de una búsqueda en un chatbot con la profundidad de una investigación reflexiva. Parece razonable delegar en la IA aquellas tareas que nos deshumanizan por su repetitividad, protegiendo con celo aquellos procesos lentos y bellos, como la lectura profunda, el debate socrático y el error creativo, que constituyen el núcleo de una educación que no solo instruye, sino que aspira a formar individuos libres con capacidad de amar, gozar de la vida y participar como ciudadanos inteligentes en el espacio público.
El punto de equilibrio entre el control y la intimidad
El uso de las analíticas de aprendizaje se presenta como una herramienta de acompañamiento sin precedentes, capaz de transformar la intuición docente en una intervención basada en evidencias o, al menos, en correlaciones estadísticas. El informe de la OCDE (2026) destaca cómo la recopilación de datos en tiempo real permite detectar patrones de desenganche o dificultades de aprendizaje antes de que puedan derivar en un fracaso escolar, actuando como un sistema de alerta temprana. Es, por lo tanto, un efecto deseable, un cuidado del otro que busca su autonomía permitiendo dirigir nuestros apoyos al estudiante que mas lo necesita en el momento mas adecuado. Nos podrá permitir, por tanto, intervenir de manera quirúrgica y personalizada allí donde el esfuerzo humano es más necesario.
Sin embargo, la frontera entre el apoyo y la vigilancia es difusa. Si convertimos el aula en un espacio donde cada clic, cada pausa en una lectura y cada error son registrados y analizados, corremos el riesgo de instaurar un "panóptico digital". una vigilancia constante e invisible que no solo observa, sino que normaliza y moldea el comportamiento al ser internalizada por los vigilados. Los humanos cuando somos conscientes de ser observados podemos dejar de explorar y de equivocarnos con libertad por miedo a que nuestra "huella de datos" nos penalice en el futuro. Como apuntamos en capítulo 1, no es deseable perder el espacio para el error creativo y menos aún la privacidad del pensamiento, elementos indispensables para el desarrollo de la identidad en niños y adolescentes.
La postura moderada ante este dilema requiere situar la agencia humana y la transparencia en el centro del diseño tecnológico, tal como defiende el Marco de Competencias de la UNESCO para Docentes. El acompañamiento ético no consiste en monitorizarlo todo, sino en decidir qué datos son verdaderamente relevantes para el bienestar pedagógico y asegurar que el alumno sea partícipe de ese proceso. No debemos usar la analítica para predecir el destino de un estudiante, sino para ampliar sus posibilidades de acción. La línea ética se traza cuando el dato deja de ser una herramienta de ayuda para el profesor y se convierte en un mecanismo de control invisible; nuestra responsabilidad es garantizar que la tecnología sirva para "ver" mejor al alumno en su complejidad, pero nunca para invadir la intimidad de su proceso de maduración.
Extracción de la piedra de la locura (1475-1480). El Bosco. Dominio público.
2.2.4. Automatización de la evaluación vs. justicia pedagógica
Corrección automática y rúbricas algorítmicas.
Dificultad para captar contextos, procesos y esfuerzo.
📌 Criterio ético: la evaluación nunca debe ser exclusivamente automática.
2.2.5. Uso de IA generativa: apoyo vs. sustitución
Ayuda a aprender, escribir o programar.
Riesgo de pérdida de autoría y pensamiento crítico.
📌 Clave pedagógica: enseñar a usar la IA como herramienta metacognitiva, no como atajo.
2.2.6. Innovación tecnológica vs. prudencia educativa
Presión institucional por “usar IA”.
Falta de reflexión ética y formación docente.
📌 Principio de prudencia: no todo lo nuevo es automáticamente educativo.
El informe OECD Digital Education Outlook 2026:
1. El Conflicto entre "Rendimiento" y "Aprendizaje Real"
Uno de los dilemas éticos centrales es la distinción entre completar una tarea y adquirir conocimiento.
• El "Espejismo del Falso Dominio": Existe el riesgo de que los productos de alta calidad generados por IA oculten debilidades subyacentes en las habilidades humanas.
• Pereza Metacognitiva: El uso de la IA como un atajo puede llevar al "descubrimiento cognitivo" o "pereza metacognitiva", donde el estudiante delega el esfuerzo mental necesario para el aprendizaje profundo.
• Efecto "Muleta": Se ha observado que estudiantes que usan IA sin salvaguardas pedagógicas rinden mejor en la práctica pero significativamente peor en exámenes independientes, lo que sugiere una degradación de las habilidades propias.
2. Agencia y Autonomía Profesional del Docente
La ética del uso de la IA debe proteger el rol del profesor frente a la automatización.
• Docentes como "Títeres Digitales": Existe el temor de que los educadores se limiten a procesar criterios a través de la IA, creando un ciclo distópico donde la IA de los estudiantes se comunica con la IA de los profesores.
• Marcos de Integración: Un curso de ética debe explorar la diferencia entre la sustitución (donde la IA reemplaza tareas humanas), la complementariedad y la aumentación (donde la interacción potencia la competencia docente).
• Supervisión Humana (Human-in-the-Loop): Es un imperativo ético que los docentes mantengan el juicio profesional y la responsabilidad sobre la calidad y veracidad de los resultados generados por la IA.
3. Equidad y la Brecha Digital
El acceso desigual a la IA plantea desafíos éticos de justicia social.
• Distribución del Uso: El crecimiento del uso de la IA está concentrado en países de ingresos altos, lo que amenaza con ampliar la brecha digital educativa global.
• IA "Unplugged" como Respuesta Ética: El desarrollo de modelos de lenguaje pequeños (SLM) que funcionan offline en dispositivos móviles básicos es una vía ética para democratizar los beneficios de la IA en entornos de baja infraestructura.
4. Sesgos, Veracidad y Alucinaciones
La naturaleza técnica de la IA generativa introduce riesgos de integridad de la información.
• Alucinaciones y Falsedades: Las IA pueden fabricar hechos de manera plausible, lo que requiere que los estudiantes desarrollen un escepticismo intelectual y habilidades de verificación crítica.
• Sesgos Culturales: Debido a que los modelos se entrenan mayoritariamente con datos occidentales y anglófonos, tienden a reproducir esas perspectivas, marginando otras culturas.
• Homogeneización del Pensamiento: El uso colectivo de la IA para la ideación puede reducir la diversidad de perspectivas originales en la investigación y la escritura creativa.
5. Privacidad y Protección de Datos
La ética del despliegue de herramientas requiere marcos de gobernanza estrictos.
• Seguridad de los Datos: Las instituciones deben garantizar que la introducción de datos personales de los alumnos cumpla con normativas como el RGPD y que los contenidos sean adecuados para la edad del usuario.
• Transparencia: Es un imperativo ético etiquetar claramente cuándo se está interactuando con un agente de IA y ser transparente sobre las limitaciones del sistema para evitar una confianza ciega.
6. Lo que la IA No Puede Reemplazar
• Responsabilidades Inherentemente Humanas: La motivación, la construcción de relaciones y el aprendizaje socioemocional dependen de la conexión humana y no pueden ser replicados por algoritmos.
• Crisis de Significado: Si la educación se convierte únicamente en la reproducción de contenido inerte que las máquinas hacen mejor, el propósito de la educación se pierde; por ello, la enseñanza debe seguir siendo una actividad con propósito y valores humanos.
7. Diseño Centrado en el Humano (HCD)
El proceso de creación de estas herramientas también es un tema de ética.
• Co-creación: Es fundamental involucrar a docentes, estudiantes y padres en el diseño de herramientas educativas específicas para asegurar que sirvan a fines pedagógicos y no solo comerciales.

