2.7 Dilemas éticos del uso de la IA en educación
ChatGP. HACER infografia
Un dilema ético surge cuando dos valores legítimos entran en conflicto. La educación con IA está llena de ellos.
2.2.1. Personalización vs. estigmatización
La IA puede adaptar el aprendizaje.
Pero también puede encasillar al alumnado.
📌 Dilema: ¿hasta qué punto personalizar sin limitar el potencial del estudiante?
2.2.2. Eficiencia vs. profundidad educativa
La IA ahorra tiempo y recursos.
Puede empobrecer procesos reflexivos y creativos.
📌 Pregunta clave: ¿estamos optimizando para aprender mejor o solo más rápido?
2.2.3. Vigilancia vs. acompañamiento
Analítica de aprendizaje para detectar dificultades.
Riesgo de control excesivo.
📌 Línea ética: acompañar sin invadir la intimidad.
2.2.4. Automatización de la evaluación vs. justicia pedagógica
Corrección automática y rúbricas algorítmicas.
Dificultad para captar contextos, procesos y esfuerzo.
📌 Criterio ético: la evaluación nunca debe ser exclusivamente automática.
2.2.5. Uso de IA generativa: apoyo vs. sustitución
Ayuda a aprender, escribir o programar.
Riesgo de pérdida de autoría y pensamiento crítico.
📌 Clave pedagógica: enseñar a usar la IA como herramienta metacognitiva, no como atajo.
2.2.6. Innovación tecnológica vs. prudencia educativa
Presión institucional por “usar IA”.
Falta de reflexión ética y formación docente.
📌 Principio de prudencia: no todo lo nuevo es automáticamente educativo.