Skip to main content

2.6 Directrices éticas

Dentro delEl Plan de Acción de Educación Digital Europeo (2021-2027) encontramosestablece 2 prioridades estratégicas y 14 medidas,medidas para apoyarlas de entre las que destacaremos dos:la que más nos concierne en este tema:

  1. Actualización
  2. delMarco de Competencias Digitales, incluyendo competencias relacionadas con la IA y el uso de datos.
  3. Consejos prácticos para el profesorado de primaria y secundaria sobre el uso de la IA: Directrices éticas sobre la IA.

    En octubre de 2022, la Comisión Europea publicó las "Directrices éticas sobre el uso de la inteligencia artificial y los datos en la enseñanza y el aprendizaje para los educadores"que han sido revisadas en 2026 y se han actualizado y publicado aquí. Estas directrices traducen los principios del Grupo de Expertos de Alto Nivel sobre IA a la realidad del aula, estructurándose en estos requisitos fundamentales:

    1. Agencia humana y supervisión, incluidos los derechos fundamentales, los derechos de los niños, la agencia humana y la supervisión humana.
    2. Transparencia y explicabilidad incluyendo trazabilidad, explicabilidad y comunicación.
    3. Diversidad e inclusión: accesibilidad, diseño universal y participación de las partes interesadas.
    4. Equidad y no discriminación, incluida la evitación de prejuicios injustos, independientemente de la edad, el género, las habilidades o cualquier otro atributo o característica desfavorecida histórica.
    5. Bienestar social y ambiental, incluyendo sostenibilidad, responsabilidad social, democracia y bienestar psicosocial.
    6. Privacidad y gobernanza de datos, incluido el respeto por la privacidad, la calidad e integridad de los datos, y el acceso a los datos.
    7. Robustez técnica y seguridad, incluida la resistencia al ataque, la ciberseguridad, la seguridad general, la precisión, la fiabilidad y la reproducibilidad.
    8. Responsabilidad, incluida la auditabilidad, la minimización y la notificación del impacto negativo, las compensaciones y la reparación.

    Al revisar estas directrices, se han identificado cinco consideraciones clave que deben guiar cada decisión docente y sustentan el uso ético de la IA y de los datos en la enseñanza, el aprendizaje y la evaluación:

    1. LaDignidad dignidad humanaHumana: abarcaRespetar el derecho a la privacidad, la autonomía humana y la capacidad de agencia, y se relaciona con el derecho de toda persona a ser respetada y tratada de manera ética independientemente de su raza, género, religión, cultura o contexto lingüístico. En el centro de este principio se encuentra el reconocimiento del valor intrínseco de cada individuo.persona, Abordarsu privacidad y su autonomía, evitando tratar a laslos personas con respeto hacia ese valor, en lugar de verlasalumnos como simples objetos de datosdatos.
    2. o como un medio para un fin, constituye el núcleo del enfoque de
    3. IA centrada en el ser humano.

      La equidadJusticia: se refiere a que todas las personas sean tratadas de manera justa dentro deAsegurar la organizaciónequidad, social.la Seinclusión requiereny procesosla clarosno discriminación para que todos los usuarios tengan igualdadlas mismas oportunidades de accesoaprendizaje.

    4. Confianza: Utilizar herramientas que sean fiables, transparentes, sin sesgos y que protejan los mejores intereses del alumnado.
    5. Integridad Académica: Promover un uso honesto de la IA, dando atribución correcta a las oportunidades. Esto incluye la equidad, la inclusión, la no discriminación y una distribución justa de derechos y responsabilidades.

      La confianza o fiabilidad implica principios éticos basados en los derechos fundamentales e incluye dimensiones como la vulnerabilidad del alumnado, las dinámicas de poder y el pensamiento crítico. La confianza se refiere a la seguridad que tienen las partes implicadas de que la IA se utiliza de forma justa y transparente, promoviendo buenas prácticas educativas y el interés superior del alumnado. Una herramienta de IA es confiable cuando funciona de manera consistentemente fiable, es transparente sobre cómo opera, respeta la privacidad, evita sesgos y apoya el aprendizaje de formas alineadas con los valores de la comunidad educativa.

      La integridad académica es un principio fundamental porque forma parte esencial del proceso de aprendizaje. Va más allá de las herramientas: impregna las mentalidades, las competencias y la cultura educativa en general. Implica utilizar la IA de forma honesta y ética, por ejemplo, sin falsear contribuciones, atribuyendo adecuadamente las ideas y el trabajo de otras personas y diseñando evaluaciones que sigan siendo válidas en la era de la IA generativa.

    6. En
    7. Elección definitiva,Justificada: suponeTomar fomentardecisiones una cultura en la que los valores,sobre el pensamiento crítico y la agencia humana convivan con la innovación tecnológica.

      La elección justificada se refiere al uso de conocimientos,la hechosIA de forma colaborativa, transparente y datosbasada en hechos.

    Estas directrices se agrupan en 8 dimensiones, dividida cada una por el rol del docente y de la institución escolar: 


     

     

     

    Las directrices para justificarlos decisionesdocentes colectivassobre necesariasel uso ético y responsable de la inteligencia artificial (IA) se fundamentan en un enfoque centrado en el ser humano, donde la tecnología debe estar al servicio de las personas y los educadores actúan como guardianes éticos de sus estudiantes.

     

     


    1. Agencia y supervisión humana 

    Esta dimensión busca garantizar que la IA no reemplace el juicio profesional y que se respeten los derechos de los niños. El docente debe mantener siempre el control sobre el proceso educativo:

    • Para los docentes:
      • Validación de resultados: Deben saber cómo revisar y verificar los resultados de la IA antes de usarlos en clase. Deben ser capaces de detectar errores o apropiadassugerencias entreinapropiadas.
      • múltiples
      • Intervención actoresactiva: Tienen que poder ajustar lo que la IA propone e intervenir si observan efectos inesperados durante su uso.
      • Fomento del entornopensamiento escolar.crítico: RequiereDeben transparenciaanimar ya selos basaalumnos ena modelosreflexionar participativossobre ypor colaborativosqué dela IA ha tomado una decisión o sugerencia específica.
      • Juicio profesional: La IA debe apoyar la toma de decisiones, asíno comodictarla; el docente debe verificar las sugerencias basándose en lasu explicabilidad.

        propia

        Estasexperiencia.

      • consideraciones
      éticas
    • tienen un valor intrínseco y merecen ser promovidas en
    • Para la educación.escuela: Orientan
        a
      • Formación: docentesEs yresponsabilidad equiposdel directivoscentro enproveer susdesarrollo decisionesprofesional sobre el uso de herramientas de IA.
      • Políticas claras: Debe existir una política escolar que permita a los educadores anular o intervenir en decisiones generadas por IA.
      • Información y derechos: Se debe informar a padres y alumnos sobre el papel de la IA y darles la opción de modelosexpresar preocupaciones o renunciar al uso (opt-out) cuando sea apropiado.

    2. Transparencia y explicabilidad 

    El objetivo es que los sistemas de IA deno propósitosean general"cajas ennegras" el ámbito educativo. Es fundamental tener presentey que su funcionamiento sea comprensible para todos.

    • elPara contextolos docentes:
      • Comprensión de usola eslógica: claveEl paraprofesor debe entender por qué la tomaherramienta hace ciertas recomendaciones o sugiere actividades específicas.
      • Sentido pedagógico: Deben verificar que las sugerencias de decisiones éticas cuando se emplea la IA entengan sentido pedagógicamente y se alineen con el aprendizaje,currículo oficial.
      • Atribución y honestidad: Deben requerir que los alumnos declaren cómo han usado la enseñanzaIA y enseñarles a citar o reconocer la asistencia de la IA en sus trabajos.
    • Para la escuela:
      • Documentación del proveedor: La escuela debe exigir a los proveedores documentación clara sobre la lógica de decisión, el uso previsto y el tratamiento de la propiedad intelectual.
      • Evaluación de equidad: El centro debe evaluar si la IA se comporta de forma distinta entre grupos de alumnos y documentar posibles brechas de equidad.
      • Comunicación no técnica: Debe haber procedimientos para explicar las decisiones apoyadas por IA de forma sencilla y comprensible para familias y alumnos.

    3. Diversidad e Inclusión

    Esta dimensión se centra en la accesibilidad, el diseño universal y la evaluación.

    Estas actualizaciones reflejan la evoluciónparticipación de todas las prácticaspartes yinteresadas.

    expectativas
      en
    • Para tornolos aldocentes: Deben asegurarse de que el uso de la IA ensatisfaga las necesidades diversas de sus alumnos y, de no ser así, ofrecer alternativas inclusivas. También es su responsabilidad revisar si los resultados de la educaciónIA contienen sesgos culturales o sociales y se basan en las Directrices Éticas para una IA Confiable,garantizar que desempeñaronlos unestudiantes papelque importantecarecen de acceso a la tecnología fuera de la escuela no se vean desfavorecidos.
    • Para la escuela: Las instituciones deben incorporar voces diversas de los estudiantes en la elaboraciónevaluación de las directricesherramientas originales.y abordar las brechas de alfabetización digital. Además, deben asegurar opciones de bajo ancho de banda o acceso offline para garantizar la equidad.

    4. Equidad y No Discriminación

    Busca evitar sesgos injustos, independientemente de la edad, género, capacidad o cualquier característica histórica de desventaja.

    • Para los docentes: Deben verificar que la IA se adapte a necesidades individuales (como dificultades de aprendizaje) y que el contenido sea adecuado para la edad y nivel de comprensión de los alumnos. Es vital que intervengan de inmediato si notan que el sistema se comporta de forma injusta o excluyente.
    • Para la escuela: Antes de adoptar una herramienta, la escuela debe verificar que haya sido probada contra sesgosen diferentes grupos de aprendizaje. Deben existir procedimientos claros para responder si se identifica un trato injusto tras la implementación.

    5. Bienestar Social y Ambiental

    Incluye la sostenibilidad, la responsabilidad social, la democracia y el bienestar psicosocial.

    • Para los docentes: Es fundamental observar si el uso de la IA afecta la motivación o el estado de ánimo de los estudiantes (causando ansiedad o dependencia). Deben establecer límites para mantener la interacción humana significativa y discutir el uso de la IA con las familias.
    • Para la escuela: La institución debe evaluar cómo la IA afecta la interacción social y el sentido de pertenencia. También deben considerar el impacto ambiental y social al seleccionar herramientas y fomentar que los alumnos usen la IA para abordar problemas reales de la sociedad.

    6. Privacidad y gobernanza de datos

    Dado que las escuelas manejan una gran cantidad de datos personales y de comportamiento (clics, tiempos de interacción), esta dimensión es crítica para cumplir con el RGPD y la Ley de IA.

    • Para los docentes:
      • Conocimiento de los datos: Deben saber exactamente qué datos personales o de aprendizaje recopila la herramienta.
      • Minimización de datos: Es vital evitar introducir información sensible o identificable de los alumnos en herramientas de IA, siguiendo las reglas de privacidad de la escuela.
      • Explicación a los alumnos: Deben explicar a los estudiantes cómo se usarán y almacenarán sus datos al usar la herramienta.
    • Para la escuela:
      • Seguridad y anonimato: Implementar medidas para que los datos sensibles estén anonimizados y solo sean accesibles a personal autorizado.
      • Cumplimiento legal: Confirmar que todas las herramientas cumplen con el RGPD, la Ley de IA y las leyes nacionales de protección de datos.
      • Control de configuración: La escuela debe poder personalizar o restringir los ajustes de privacidad de las herramientas para proteger mejor al alumnado.
      • Evaluaciones de impacto: Realizar evaluaciones de impacto de protección de datos (DPIA) y de derechos fundamentales (FRIA) antes de implementar sistemas de IA de alto riesgo.

    7. Robustez Técnica y Seguridad 

    Se refiere a la resistencia ante ataques, la ciberseguridad, la exactitud y la fiabilidad.

    • Para los docentes: Deben monitorear si la herramienta funciona de manera fiable o si presenta errores, caídas o respuestas incorrectas frecuentemente. Deben conocer los pasos a seguir en caso de una brecha de datos o un mal funcionamiento técnico.
    • Para la escuela: Es responsabilidad de la escuela verificar la fiabilidad antes del uso y establecer protocolos formales para reportar fallos y salvaguardar a los estudiantes. Deben confirmar que los proveedores cumplen con normativas como la Ley de Ciberseguridad de la UE.

    8. Rendición de Cuentas 

    Abarca la auditabilidad, la minimización y el reporte de impactos negativos, y los mecanismos de reparación.

    • Para los docentes: Deben saber qué hacer si el sistema sugiere algo inadecuado y sentirse seguros para actuar. Deben tener canales para dar retroalimentación sobre la mejora del sistema.
    • Para la escuela: Debe existir una división clara de responsabilidades entre docentes, estudiantes y otros actores. La escuela necesita un proceso de evaluación para asegurar que la IA se alinee con los valores educativos y una estrategia para actualizar estos procedimientos según cambien las necesidades.

    Requisitos clave para el uso ético de la IA en contextos educativos

    La Ley de IA (AI Act) establece requisitos jurídicamente vinculantes para los sistemas de IA y obligaciones para los operadores (incluidos proveedores y desplegadores). Para los centros educativos y el profesorado, esto proporciona una mayor claridad sobre lo que exige la legislación en la práctica cotidiana. Una vez que la AI Act entre plenamente en vigor, las instituciones educativas, cuando sean consideradas usuarias de herramientas de IA de alto riesgo, podrán basarse en la evaluación de conformidad realizada por el proveedor, al tiempo que deberán cumplir sus propias responsabilidades como desplegadores conforme a la normativa.

    Independientemente de que una herramienta de IA entre o no dentro del ámbito del marco jurídico (especialmente en los casos de alto riesgo), se anima encarecidamente a los desarrolladores y proveedores a integrar principios éticos de una IA confiable en el diseño y desarrollo de sus sistemas. Lo mismo se aplica a las instituciones educativas que adquieren e implementan estas herramientas. Asimismo, es igualmente importante que los centros educativos y el profesorado conozcan estos requisitos y puedan plantear preguntas informadas durante las fases de planificación, implementación y evaluación del uso de la IA en su contexto escolar.

    5. Limitaciones Legales (Ley de IA de la UE)

    ntervenciónExisten directrices legales estrictas que los docentes deben conocer para evitar riesgos:

    • Prácticas prohibidas: Está prohibido el uso de sistemas de IA para inferir o detectar emociones de los alumnos en centros educativos, salvo por motivos de seguridad o médicos.
    • Sistemas de alto riesgo: Las herramientas usadas para evaluar resultados de aprendizaje, monitorear el comportamiento en exámenes, determinar admisiones o seguir el progreso del estudiante se consideran de alto riesgo y requieren una supervisión humanas: El docente debe conservar la autoridad final sobre las decisiones pedagógicas. La IA debe actuar como un soporte que aumente las capacidades del profesor, no que las reemplace.   

      Solidez técnicahumana y seguridad: Los sistemas deben ser fiables y contar con planes de contingencia ante fallos técnicos, garantizando que un error del algoritmo no penalice el historial académico de un estudiante.   

      Privacidad y gestión de datos: El cumplimiento del RGPD es innegociable. La recoleccióngobernanza de datos enmuy entornosestricta.

    6. Pasos para la Integración Práctica

    Para planificar un uso efectivo, las fuentes sugieren:

    1. Revisión interna: Evaluar las herramientas actuales y el propósito de aprendizajelos debedatos serrecopilados.
    2. mínima,
    3. Políticas justificadaescolares: Establecer procedimientos claros que definan comportamientos aceptables e inaceptables.
    4. Alfabetización en IA: Participar en formación continua y transparente.comunidades

      de

      Transparencia:práctica Lapara "explicabilidad"actualizar eslas clave.competencias Los estudiantesdigitales y docentesentender debenlos poderriesgos comprendery por qué un sistemalimitaciones de IAlas hanuevas generadotecnologías.

    5. una recomendación o una nota determinada.   

    Diversidad,En no discriminación y equidad: Se deben implementar mecanismos para detectar y mitigar los sesgos algorítmicos que puedan discriminar por género, raza, discapacidad o nivel socioeconómico.   

    Bienestar social y ambiental: El uso deconclusión, la IA debese fomentarpresenta como una oportunidad para reducir tareas rutinarias y personalizar el desarrolloaprendizaje, depero competenciassiempre socialesbajo la supervisión crítica y el bienestarjuicio mental,profesional considerandodel también el impacto ecológico de la computación a gran escala.   

    Rendición de cuentas: Deben existir canales claros para auditar los sistemas y para que los afectados puedan reclamar ante decisiones automatizadas injustas.   docente.