2.6 Directrices éticas
Dentro delEl Plan de Acción de Educación Digital Europeo (2021-2027) encontramosestablece 2 prioridades estratégicas y 14 medidas,medidas para apoyarlas de entre las que destacaremos dos:la que más nos concierne en este tema:
ActualizacióndelMarco de Competencias Digitales, incluyendo competencias relacionadas con la IA y el uso de datos.Consejos prácticos para el profesorado de primaria y secundaria sobre el uso de la IA: Directrices éticas sobre la IA. Agencia humana y supervisión, incluidos los derechos fundamentales, los derechos de los niños, la agencia humana y la supervisión humana.Transparencia y explicabilidadincluyendo trazabilidad, explicabilidad y comunicación.Diversidad e inclusión:accesibilidad, diseño universal y participación de las partes interesadas.Equidad y no discriminación, incluida la evitación de prejuicios injustos, independientemente de la edad, el género, las habilidades o cualquier otro atributo o característica desfavorecida histórica.Bienestar social y ambiental, incluyendo sostenibilidad, responsabilidad social, democracia y bienestar psicosocial.Privacidad y gobernanza de datos, incluido el respeto por la privacidad, la calidad e integridad de los datos, y el acceso a los datos.Robustez técnica y seguridad, incluida la resistencia al ataque, la ciberseguridad, la seguridad general, la precisión, la fiabilidad y la reproducibilidad.Responsabilidad, incluida la auditabilidad, la minimización y la notificación del impacto negativo, las compensaciones y la reparación.LaDignidaddignidad humanaHumana:abarcaRespetar elderecho a la privacidad, la autonomía humana y la capacidad de agencia, y se relaciona con el derecho de toda persona a ser respetada y tratada de manera ética independientemente de su raza, género, religión, cultura o contexto lingüístico. En el centro de este principio se encuentra el reconocimiento delvalor intrínseco de cadaindividuo.persona,Abordarsu privacidad y su autonomía, evitando tratar alaslospersonas con respeto hacia ese valor, en lugar de verlasalumnos como simples objetos dedatosdatos.IA centrada en el ser humano.La equidadJusticia:se refiere a que todas las personas sean tratadas de manera justa dentro deAsegurar laorganizaciónequidad,social.laSeinclusiónrequierenyprocesoslaclarosno discriminación para que todos los usuarios tenganigualdadlas mismas oportunidades deaccesoaprendizaje.- Confianza: Utilizar herramientas que sean fiables, transparentes, sin sesgos y que protejan los mejores intereses del alumnado.
- Integridad Académica: Promover un uso honesto de la IA, dando atribución correcta a las
oportunidades. Esto incluye la equidad, la inclusión, la no discriminación y una distribución justa de derechos y responsabilidades.La confianza o fiabilidadimplica principios éticos basados en los derechos fundamentales e incluye dimensiones como la vulnerabilidad del alumnado, las dinámicas de poder y el pensamiento crítico. La confianza se refiere a la seguridad que tienen las partes implicadas de que la IA se utiliza de forma justa y transparente, promoviendo buenas prácticas educativas y el interés superior del alumnado. Una herramienta de IA es confiable cuando funciona de manera consistentemente fiable, es transparente sobre cómo opera, respeta la privacidad, evita sesgos y apoya el aprendizaje de formas alineadas con los valores de la comunidad educativa.La integridad académicaes un principio fundamental porque forma parte esencial del proceso de aprendizaje. Va más allá de las herramientas: impregna las mentalidades, las competencias y la cultura educativa en general. Implica utilizar la IA de forma honesta y ética, por ejemplo, sin falsear contribuciones, atribuyendo adecuadamente lasideasy el trabajo de otras personasy diseñando evaluaciones que sigan siendo válidas en la era de la IA generativa. - Elección
definitiva,Justificada:suponeTomarfomentardecisionesuna cultura en la que los valores,sobre elpensamiento crítico y la agencia humana convivan con la innovación tecnológica.La elección justificadase refiere aluso deconocimientos,lahechosIA de forma colaborativa, transparente ydatosbasada en hechos. - Para los docentes:
- Validación de resultados: Deben saber cómo revisar y verificar los resultados de la IA antes de usarlos en clase. Deben ser capaces de detectar errores o
apropiadassugerenciasentreinapropiadas. - Intervención
actoresactiva: Tienen que poder ajustar lo que la IA propone e intervenir si observan efectos inesperados durante su uso. - Fomento del
entornopensamientoescolar.crítico:RequiereDebentransparenciaanimaryaselosbasaalumnosenamodelosreflexionarparticipativossobreyporcolaborativosquédela IA ha tomado una decisión o sugerencia específica. - Juicio profesional: La IA debe apoyar la toma de decisiones,
asínocomodictarla; el docente debe verificar las sugerencias basándose enlasuexplicabilidad.propiaEstasexperiencia.
múltiplesconsideracioneséticas - Validación de resultados: Deben saber cómo revisar y verificar los resultados de la IA antes de usarlos en clase. Deben ser capaces de detectar errores o
- Para la
educación.escuela:Orientan- Formación:
docentesEsyresponsabilidadequiposdeldirectivoscentroenproveersusdesarrollodecisionesprofesional sobre el uso de herramientas de IA. - Políticas claras: Debe existir una política escolar que permita a los educadores anular o intervenir en decisiones generadas por IA.
- Información y derechos: Se debe informar a padres y alumnos sobre el papel de la IA y darles la opción de
modelosexpresar preocupaciones o renunciar al uso (opt-out) cuando sea apropiado.
a - Formación:
elParacontextolos docentes:- Comprensión de
usolaeslógica:claveElparaprofesor debe entender por qué latomaherramienta hace ciertas recomendaciones o sugiere actividades específicas. - Sentido pedagógico: Deben verificar que las sugerencias de
decisiones éticascuando se empleala IAentengan sentido pedagógicamente y se alineen con elaprendizaje,currículo oficial. - Atribución y honestidad: Deben requerir que los alumnos declaren cómo han usado la
enseñanzaIA y enseñarles a citar o reconocer la asistencia de la IA en sus trabajos.
- Comprensión de
- Para la escuela:
- Documentación del proveedor: La escuela debe exigir a los proveedores documentación clara sobre la lógica de decisión, el uso previsto y el tratamiento de la propiedad intelectual.
- Evaluación de equidad: El centro debe evaluar si la IA se comporta de forma distinta entre grupos de alumnos y documentar posibles brechas de equidad.
- Comunicación no técnica: Debe haber procedimientos para explicar las decisiones apoyadas por IA de forma sencilla y comprensible para familias y alumnos.
- Para
tornolosaldocentes: Deben asegurarse de que el uso de la IAensatisfaga las necesidades diversas de sus alumnos y, de no ser así, ofrecer alternativas inclusivas. También es su responsabilidad revisar si los resultados de laeducaciónIA contienen sesgos culturales o sociales yse basan en lasDirectrices Éticas para una IA Confiable,garantizar quedesempeñaronlosunestudiantespapelqueimportantecarecen de acceso a la tecnología fuera de la escuela no se vean desfavorecidos. - Para la escuela: Las instituciones deben incorporar voces diversas de los estudiantes en la
elaboraciónevaluación de lasdirectricesherramientasoriginales.y abordar las brechas de alfabetización digital. Además, deben asegurar opciones de bajo ancho de banda o acceso offline para garantizar la equidad. - Para los docentes: Deben verificar que la IA se adapte a necesidades individuales (como dificultades de aprendizaje) y que el contenido sea adecuado para la edad y nivel de comprensión de los alumnos. Es vital que intervengan de inmediato si notan que el sistema se comporta de forma injusta o excluyente.
- Para la escuela: Antes de adoptar una herramienta, la escuela debe verificar que haya sido probada contra sesgosen diferentes grupos de aprendizaje. Deben existir procedimientos claros para responder si se identifica un trato injusto tras la implementación.
- Para los docentes: Es fundamental observar si el uso de la IA afecta la motivación o el estado de ánimo de los estudiantes (causando ansiedad o dependencia). Deben establecer límites para mantener la interacción humana significativa y discutir el uso de la IA con las familias.
- Para la escuela: La institución debe evaluar cómo la IA afecta la interacción social y el sentido de pertenencia. También deben considerar el impacto ambiental y social al seleccionar herramientas y fomentar que los alumnos usen la IA para abordar problemas reales de la sociedad.
- Para los docentes:
- Conocimiento de los datos: Deben saber exactamente qué datos personales o de aprendizaje recopila la herramienta.
- Minimización de datos: Es vital evitar introducir información sensible o identificable de los alumnos en herramientas de IA, siguiendo las reglas de privacidad de la escuela.
- Explicación a los alumnos: Deben explicar a los estudiantes cómo se usarán y almacenarán sus datos al usar la herramienta.
- Para la escuela:
- Seguridad y anonimato: Implementar medidas para que los datos sensibles estén anonimizados y solo sean accesibles a personal autorizado.
- Cumplimiento legal: Confirmar que todas las herramientas cumplen con el RGPD, la Ley de IA y las leyes nacionales de protección de datos.
- Control de configuración: La escuela debe poder personalizar o restringir los ajustes de privacidad de las herramientas para proteger mejor al alumnado.
- Evaluaciones de impacto: Realizar evaluaciones de impacto de protección de datos (DPIA) y de derechos fundamentales (FRIA) antes de implementar sistemas de IA de alto riesgo.
- Para los docentes: Deben monitorear si la herramienta funciona de manera fiable o si presenta errores, caídas o respuestas incorrectas frecuentemente. Deben conocer los pasos a seguir en caso de una brecha de datos o un mal funcionamiento técnico.
- Para la escuela: Es responsabilidad de la escuela verificar la fiabilidad antes del uso y establecer protocolos formales para reportar fallos y salvaguardar a los estudiantes. Deben confirmar que los proveedores cumplen con normativas como la Ley de Ciberseguridad de la UE.
- Para los docentes: Deben saber qué hacer si el sistema sugiere algo inadecuado y sentirse seguros para actuar. Deben tener canales para dar retroalimentación sobre la mejora del sistema.
- Para la escuela: Debe existir una división clara de responsabilidades entre docentes, estudiantes y otros actores. La escuela necesita un proceso de evaluación para asegurar que la IA se alinee con los valores educativos y una estrategia para actualizar estos procedimientos según cambien las necesidades.
- Prácticas prohibidas: Está prohibido el uso de sistemas de IA para inferir o detectar emociones de los alumnos en centros educativos, salvo por motivos de seguridad o médicos.
- Sistemas de alto riesgo: Las herramientas usadas para evaluar resultados de aprendizaje, monitorear el comportamiento en exámenes, determinar admisiones o seguir el progreso del estudiante se consideran de alto riesgo y requieren una supervisión
humanas: El docente debe conservar la autoridad final sobre las decisiones pedagógicas. La IA debe actuar como un soporte que aumente las capacidades del profesor, no que las reemplace.Solidez técnicahumana yseguridad: Los sistemas deben ser fiables y contar con planes de contingencia ante fallos técnicos, garantizando que un error del algoritmo no penalice el historial académico de un estudiante.Privacidad y gestión de datos: El cumplimiento del RGPD es innegociable. La recoleccióngobernanza de datosenmuyentornosestricta. - Revisión interna: Evaluar las herramientas actuales y el propósito de
aprendizajelosdebedatosserrecopilados. - Políticas
justificadaescolares: Establecer procedimientos claros que definan comportamientos aceptables e inaceptables. - Alfabetización en IA: Participar en formación continua y
transparente.comunidades deTransparencia:prácticaLapara"explicabilidad"actualizareslasclave.competenciasLos estudiantesdigitales ydocentesentenderdebenlospoderriesgoscomprenderypor qué un sistemalimitaciones deIAlashanuevasgeneradotecnologías.
En octubre de 2022, la Comisión Europea publicó las "Directrices éticas sobre el uso de la inteligencia artificial y los datos en la enseñanza y el aprendizaje para los educadores"que han sido revisadas en 2026 y se han actualizado y publicado aquí. Estas directrices traducen los principios del Grupo de Expertos de Alto Nivel sobre IA a la realidad del aula, estructurándose en estos requisitos fundamentales:
Al revisar estas directrices, se han identificado cinco consideraciones clave que deben guiar cada decisión docente y sustentan el uso ético de la IA y de los datos en la enseñanza, el aprendizaje y la evaluación:
Estas directrices se agrupan en 8 dimensiones, dividida cada una por el rol del docente y de la institución escolar:
Las directrices para justificarlos decisionesdocentes colectivassobre necesariasel uso ético y responsable de la inteligencia artificial (IA) se fundamentan en un enfoque centrado en el ser humano, donde la tecnología debe estar al servicio de las personas y los educadores actúan como guardianes éticos de sus estudiantes.
1. Agencia y supervisión humana
Esta dimensión busca garantizar que la IA no reemplace el juicio profesional y que se respeten los derechos de los niños. El docente debe mantener siempre el control sobre el proceso educativo:
2. Transparencia y explicabilidad
El objetivo es que los sistemas de IA deno propósitosean general"cajas ennegras" el ámbito educativo. Es fundamental tener presentey que su funcionamiento sea comprensible para todos.
3. Diversidad e Inclusión
Esta dimensión se centra en la accesibilidad, el diseño universal y la evaluación.
Estas actualizaciones reflejan la evoluciónparticipación de todas las prácticaspartes yinteresadas.
4. Equidad y No Discriminación
Busca evitar sesgos injustos, independientemente de la edad, género, capacidad o cualquier característica histórica de desventaja.
5. Bienestar Social y Ambiental
Incluye la sostenibilidad, la responsabilidad social, la democracia y el bienestar psicosocial.
6. Privacidad y gobernanza de datos
Dado que las escuelas manejan una gran cantidad de datos personales y de comportamiento (clics, tiempos de interacción), esta dimensión es crítica para cumplir con el RGPD y la Ley de IA.
7. Robustez Técnica y Seguridad
Se refiere a la resistencia ante ataques, la ciberseguridad, la exactitud y la fiabilidad.
8. Rendición de Cuentas
Abarca la auditabilidad, la minimización y el reporte de impactos negativos, y los mecanismos de reparación.
Requisitos clave para el uso ético de la IA en contextos educativos
La Ley de IA (AI Act) establece requisitos jurídicamente vinculantes para los sistemas de IA y obligaciones para los operadores (incluidos proveedores y desplegadores). Para los centros educativos y el profesorado, esto proporciona una mayor claridad sobre lo que exige la legislación en la práctica cotidiana. Una vez que la AI Act entre plenamente en vigor, las instituciones educativas, cuando sean consideradas usuarias de herramientas de IA de alto riesgo, podrán basarse en la evaluación de conformidad realizada por el proveedor, al tiempo que deberán cumplir sus propias responsabilidades como desplegadores conforme a la normativa.
Independientemente de que una herramienta de IA entre o no dentro del ámbito del marco jurídico (especialmente en los casos de alto riesgo), se anima encarecidamente a los desarrolladores y proveedores a integrar principios éticos de una IA confiable en el diseño y desarrollo de sus sistemas. Lo mismo se aplica a las instituciones educativas que adquieren e implementan estas herramientas. Asimismo, es igualmente importante que los centros educativos y el profesorado conozcan estos requisitos y puedan plantear preguntas informadas durante las fases de planificación, implementación y evaluación del uso de la IA en su contexto escolar.
5. Limitaciones Legales (Ley de IA de la UE)
ntervenciónExisten directrices legales estrictas que los docentes deben conocer para evitar riesgos:
6. Pasos para la Integración Práctica
Para planificar un uso efectivo, las fuentes sugieren:
Diversidad,En no discriminación y equidad: Se deben implementar mecanismos para detectar y mitigar los sesgos algorítmicos que puedan discriminar por género, raza, discapacidad o nivel socioeconómico.
Rendición de cuentas: Deben existir canales claros para auditar los sistemas y para que los afectados puedan reclamar ante decisiones automatizadas injustas. docente.