2.6 Directrices éticas
Dentro del Plan de Acción de Educación Digital Europeo (2021-2027) encontramos 14 medidas, de entre las que destacaremos dos:
- Actualización del Marco de Competencias Digitales, incluyendo competencias relacionadas con la IA y el uso de datos.
- Consejos prácticos para el profesorado de primaria y secundaria sobre el uso de la IA: Directrices éticas sobre la IA.
En octubre de 2022, la Comisión Europea publicó las "Directrices éticas sobre el uso de la inteligencia artificial y los datos en la enseñanza y el aprendizaje para los educadores". En 2026 se han actualizado y están publicadas aquí. Estas directrices traducen los principios del Grupo de Expertos de Alto Nivel sobre IA a la realidad del aula, estructurándose en siete requisitos fundamentales:
Intervención y supervisión humanas: El docente debe conservar la autoridad final sobre las decisiones pedagógicas. La IA debe actuar como un soporte que aumente las capacidades del profesor, no que las reemplace.
Solidez técnica y seguridad: Los sistemas deben ser fiables y contar con planes de contingencia ante fallos técnicos, garantizando que un error del algoritmo no penalice el historial académico de un estudiante.
Privacidad y gestión de datos: El cumplimiento del RGPD es innegociable. La recolección de datos en entornos de aprendizaje debe ser mínima, justificada y transparente.
Transparencia: La "explicabilidad" es clave. Los estudiantes y docentes deben poder comprender por qué un sistema de IA ha generado una recomendación o una nota determinada.
Diversidad, no discriminación y equidad: Se deben implementar mecanismos para detectar y mitigar los sesgos algorítmicos que puedan discriminar por género, raza, discapacidad o nivel socioeconómico.
Rendición de cuentas: Deben existir canales claros para auditar los sistemas y para que los afectados puedan reclamar ante decisiones automatizadas injustas.
Al revisar estas directrices, se han identificado cinco consideraciones clave que sustentan el uso ético de la IA y de los datos en la enseñanza, el aprendizaje y la evaluación. Estas actualizaciones reflejan la evolución de las prácticas y expectativas en torno al uso de la IA en la educación y se basan en las Directrices Éticas para una IA Confiable, que desempeñaron un papel importante en la elaboración de las directrices originales. Cuando se han realizado cambios en las dimensiones éticas, estos se explican para aclarar la justificación de los ajustes y garantizar que sigan siendo pertinentes y aplicables en los contextos educativos actuales.
La dignidad humana abarca el derecho a la privacidad, la autonomía humana y la capacidad de agencia, y se relaciona con el derecho de toda persona a ser respetada y tratada de manera ética independientemente de su raza, género, religión, cultura o contexto lingüístico. En el centro de este principio se encuentra el reconocimiento del valor intrínseco de cada individuo. Abordar a las personas con respeto hacia ese valor, en lugar de verlas como simples objetos de datos o como un medio para un fin, constituye el núcleo del enfoque de IA centrada en el ser humano.
La equidad se refiere a que todas las personas sean tratadas de manera justa dentro de la organización social. Se requieren procesos claros para que todos los usuarios tengan igualdad de acceso a las oportunidades. Esto incluye la equidad, la inclusión, la no discriminación y una distribución justa de derechos y responsabilidades.
La confianza o fiabilidad implica principios éticos basados en los derechos fundamentales e incluye dimensiones como la vulnerabilidad del alumnado, las dinámicas de poder y el pensamiento crítico. La confianza se refiere a la seguridad que tienen las partes implicadas de que la IA se utiliza de forma justa y transparente, promoviendo buenas prácticas educativas y el interés superior del alumnado. Una herramienta de IA es confiable cuando funciona de manera consistentemente fiable, es transparente sobre cómo opera, respeta la privacidad, evita sesgos y apoya el aprendizaje de formas alineadas con los valores de la comunidad educativa.
La integridad académica es un principio fundamental porque forma parte esencial del proceso de aprendizaje. Va más allá de las herramientas: impregna las mentalidades, las competencias y la cultura educativa en general. Implica utilizar la IA de forma honesta y ética, por ejemplo, sin falsear contribuciones, atribuyendo adecuadamente las ideas y el trabajo de otras personas y diseñando evaluaciones que sigan siendo válidas en la era de la IA generativa. En definitiva, supone fomentar una cultura en la que los valores, el pensamiento crítico y la agencia humana convivan con la innovación tecnológica.
La elección justificada se refiere al uso de conocimientos, hechos y datos para justificar decisiones colectivas necesarias o apropiadas entre múltiples actores del entorno escolar. Requiere transparencia y se basa en modelos participativos y colaborativos de toma de decisiones, así como en la explicabilidad.
Estas consideraciones éticas tienen un valor intrínseco y merecen ser promovidas en la educación. Orientan a docentes y equipos directivos en sus decisiones sobre el uso de herramientas de IA y de modelos de IA de propósito general en el ámbito educativo. Es fundamental tener presente que el contexto de uso es clave para la toma de decisiones éticascuando se emplea la IA en el aprendizaje, la enseñanza y la evaluación.
Requisitos clave para el uso ético de la IA en contextos educativos
La Ley de IA (AI Act) establece requisitos jurídicamente vinculantes para los sistemas de IA y obligaciones para los operadores (incluidos proveedores y desplegadores). Para los centros educativos y el profesorado, esto proporciona una mayor claridad sobre lo que exige la legislación en la práctica cotidiana. Una vez que la AI Act entre plenamente en vigor, las instituciones educativas, cuando sean consideradas usuarias de herramientas de IA de alto riesgo, podrán basarse en la evaluación de conformidad realizada por el proveedor, al tiempo que deberán cumplir sus propias responsabilidades como desplegadores conforme a la normativa.
Independientemente de que una herramienta de IA entre o no dentro del ámbito del marco jurídico (especialmente en los casos de alto riesgo), se anima encarecidamente a los desarrolladores y proveedores a integrar principios éticos de una IA confiable en el diseño y desarrollo de sus sistemas. Lo mismo se aplica a las instituciones educativas que adquieren e implementan estas herramientas. Asimismo, es igualmente importante que los centros educativos y el profesorado conozcan estos requisitos y puedan plantear preguntas informadas durante las fases de planificación, implementación y evaluación del uso de la IA en su contexto escolar.