2.7 Directrices éticas sobre el uso de la IA en educación
Introducción
Esta problemática variada y multidimensional está, como hemos visto llena de oportunidades, matices y dilemas que afectan a la naturaleza de la educación e incluso a nuestro modelo antropológico. Es competencia de las insituciones estableces directrices que permitan a los ciudadanos tomar decisiones con la tranquilidad de tener una guía que los respalde, algo que se ha hecho desde las instituciones europeas.
El Plan de Acción de Educación Digital Europeo (2021-2027) establece 2 prioridades estratégicas y 14 medidas para apoyarlas de entre las que destacaremos la que más nos concierne en este tema:
| Consejos prácticos para el profesorado de primaria y secundaria sobre el uso de la IA: Directrices éticas sobre la IA. |
En octubre de 2022, la Comisión Europea publicó las "Directrices éticas sobre el uso de la inteligencia artificial y los datos en la enseñanza y el aprendizaje para los educadores"que han sido revisadas en 2026 y se han actualizado y publicado aquí, al igual que se han revisado las Directrices sobre la lucha contra la desinformación y la promoción de la alfabetización digital que analiza cómo tecnologías como la IA generativa están transformando la creación y circulación de contenidos. Además, proporciona herramientas para que el profesorado fomente una ciudadanía digital crítica.
Al revisar estas directrices sobre el uso de la IA en la enseñanza y aprendizaje, se han identificado cinco consideraciones clave que deben guiar cada decisión docente y sustentan el uso ético de la IA y de los datos en la enseñanza, el aprendizaje y la evaluación:
- Dignidad Humana: Respetar el valor intrínseco de cada persona, su privacidad y su autonomía, evitando tratar a los alumnos como simples objetos de datos.
- Justicia: Asegurar la equidad, la inclusión y la no discriminación para que todos los usuarios tengan las mismas oportunidades de aprendizaje.
- Confianza: Utilizar herramientas que sean fiables, transparentes, sin sesgos y que protejan los mejores intereses del alumnado.
- Integridad Académica: Promover un uso honesto de la IA, dando atribución correcta a las ideas y diseñando evaluaciones que sigan siendo válidas en la era de la IA generativa.
- Elección Justificada: Tomar decisiones sobre el uso de la IA de forma colaborativa, transparente y basada en hechos.
Estas directrices se agrupan en 8 requisitos o dimensiones, dividida cada una por el rol del docente y de la institución escolar:
1. Agencia y supervisión humana
Esta dimensión busca garantizar que la IA no reemplace el juicio profesional y que se respeten los derechos del alumnado. El docente debe mantener siempre el control sobre el proceso educativo:
- Para los docentes:
- Validación de resultados: Deben saber cómo revisar y verificar los resultados de la IA antes de usarlos en clase. Deben ser capaces de detectar errores o sugerencias inapropiadas.
- Intervención activa: Tienen que poder ajustar lo que la IA propone e intervenir si observan efectos inesperados durante su uso.
- Fomento del pensamiento crítico: Deben animar a los alumnos a reflexionar sobre por qué la IA ha tomado una decisión o sugerencia específica.
- Juicio profesional: La IA debe apoyar la toma de decisiones, no dictarla; el docente debe verificar las sugerencias basándose en su propia experiencia.
- Para la escuela:
- Formación: Es responsabilidad del centro proveer desarrollo profesional sobre el uso de herramientas de IA.
- Políticas claras: Debe existir una política escolar que permita a los educadores anular o intervenir en decisiones generadas por IA.
- Información y derechos: Se debe informar a padres y alumnos sobre el papel de la IA y darles la opción de expresar preocupaciones o renunciar al uso (opt-out) cuando sea apropiado.
2. Transparencia y explicabilidad
El objetivo es que los sistemas de IA no sean "cajas negras" y que su funcionamiento sea comprensible para todos.
- Para los docentes:
- Comprensión de la lógica: El profesor debe entender por qué la herramienta hace ciertas recomendaciones o sugiere actividades específicas.
- Sentido pedagógico: Deben verificar que las sugerencias de la IA tengan sentido pedagógicamente y se alineen con el currículo oficial.
- Atribución y honestidad: Deben requerir que los alumnos declaren cómo han usado la IA y enseñarles a citar o reconocer la asistencia de la IA en sus trabajos.
- Para la escuela:
- Documentación del proveedor: La escuela debe exigir a los proveedores documentación clara sobre la lógica de decisión, el uso previsto y el tratamiento de la propiedad intelectual.
- Evaluación de equidad: El centro debe evaluar si la IA se comporta de forma distinta entre grupos de alumnos y documentar posibles brechas de equidad.
- Comunicación no técnica: Debe haber procedimientos para explicar las decisiones apoyadas por IA de forma sencilla y comprensible para familias y alumnos.
3. Diversidad e Inclusión
Esta dimensión se centra en la accesibilidad, el diseño universal y la participación de todas las partes interesadas.
- Para los docentes: Deben asegurarse de que el uso de la IA satisfaga las necesidades diversas de su alumnado y, de no ser así, ofrecer alternativas inclusivas. También es su responsabilidad revisar si los resultados de la IA contienen sesgos culturales o sociales y garantizar que los estudiantes que carecen de acceso a la tecnología fuera de la escuela no se vean desfavorecidos.
- Para la escuela: Las instituciones deben incorporar voces diversas de los estudiantes en la evaluación de las herramientas y abordar las brechas de alfabetización digital. Además, deben asegurar opciones de bajo ancho de banda o acceso offline para garantizar la equidad.
4. Equidad y No Discriminación
Busca evitar sesgos injustos, independientemente de la edad, género, capacidad o cualquier característica histórica de desventaja.
- Para los docentes: Deben verificar que la IA se adapte a necesidades individuales (como dificultades de aprendizaje) y que el contenido sea adecuado para la edad y nivel de comprensión del alumnado. Es vital que intervengan de inmediato si notan que el sistema se comporta de forma injusta o excluyente.
- Para la escuela: Antes de adoptar una herramienta, la escuela debe verificar que haya sido probada contra sesgos en diferentes grupos de aprendizaje. Deben existir procedimientos claros para responder si se identifica un trato injusto tras la implementación.
5. Bienestar Social y Ambiental
Incluye la sostenibilidad, la responsabilidad social, la democracia y el bienestar psicosocial.
- Para los docentes: Es fundamental observar si el uso de la IA afecta la motivación o el estado de ánimo de los estudiantes (causando ansiedad o dependencia). Deben establecer límites para mantener la interacción humana significativa y discutir el uso de la IA con las familias.
- Para la escuela: La institución debe evaluar cómo la IA afecta la interacción social y el sentido de pertenencia. También deben considerar el impacto ambiental y social al seleccionar herramientas y fomentar que los alumnos usen la IA para abordar problemas reales de la sociedad.
6. Privacidad y gobernanza de datos
Dado que las escuelas manejan una gran cantidad de datos personales y de comportamiento (clics, tiempos de interacción), esta dimensión es crítica para cumplir con el RGPD y la Ley de IA.
- Para los docentes:
- Conocimiento de los datos: Deben saber exactamente qué datos personales o de aprendizaje recopila la herramienta.
- Minimización de datos: Es vital evitar introducir información sensible o identificable de los alumnos en herramientas de IA, siguiendo las reglas de privacidad de la escuela.
- Explicación al alumnado: Deben explicar a los estudiantes cómo se usarán y almacenarán sus datos al usar la herramienta.
- Para la escuela:
- Seguridad y anonimato: Implementar medidas para que los datos sensibles estén anonimizados y solo sean accesibles a personal autorizado.
- Cumplimiento legal: Confirmar que todas las herramientas cumplen con el RGPD, la Ley de IA y las leyes nacionales de protección de datos.
- Control de configuración: La escuela debe poder personalizar o restringir los ajustes de privacidad de las herramientas para proteger mejor al alumnado.
- Evaluaciones de impacto: Realizar evaluaciones de impacto de protección de datos (DPIA) y de derechos fundamentales (FRIA) antes de implementar sistemas de IA de alto riesgo.
7. Robustez Técnica y Seguridad
Se refiere a la resistencia ante ataques, la ciberseguridad, la exactitud y la fiabilidad.
- Para los docentes: Deben monitorear si la herramienta funciona de manera fiable o si presenta errores, caídas o respuestas incorrectas frecuentemente. Deben conocer los pasos a seguir en caso de una brecha de datos o un mal funcionamiento técnico.
- Para la escuela: Es responsabilidad de la escuela verificar la fiabilidad antes del uso y establecer protocolos formales para reportar fallos y salvaguardar a los estudiantes. Deben confirmar que los proveedores cumplen con normativas como la Ley de Ciberseguridad de la UE.
8. Rendición de Cuentas
Abarca la auditabilidad, la minimización y el reporte de impactos negativos, y los mecanismos de reparación.
- Para los docentes: Deben saber qué hacer si el sistema sugiere algo inadecuado y sentirse seguros para actuar. Deben tener canales para dar retroalimentación sobre la mejora del sistema.
- Para la escuela: Debe existir una división clara de responsabilidades entre docentes, estudiantes y otros actores. La escuela necesita un proceso de evaluación para asegurar que la IA se alinee con los valores educativos y una estrategia para actualizar estos procedimientos según cambien las necesidades.
Pasos para la Integración Práctica
- Revisión interna: Evaluar las herramientas actuales y el propósito de los datos recopilados.
- Políticas escolares: Establecer procedimientos claros que definan comportamientos aceptables e inaceptables.
- Alfabetización en IA: Participar en formación continua y comunidades de práctica para actualizar las competencias digitales y entender los riesgos y limitaciones de las nuevas tecnologías.
En conclusión, las directrices para los docentes sobre el uso ético y responsable de la inteligencia artificial (IA) se fundamentan en un enfoque centrado en el ser humano, donde la tecnología debe estar al servicio de las personas y los educadores actúan como guardianes éticos de sus estudiantes.
No comments to display
No comments to display