Skip to main content

5.2 Recomendaciones y buenas prácticas

Es importante que los profesores actúen con la debida diligencia cuando utilicen una nueva forma de tecnología, examinando los términos de servicio, viendo qué cuestiones de protección y privacidad de datos están asociadas a las tecnologías que se espera que utilicen los estudiantes, lo que algunos investigadores han descrito como una “auditoría tecnoética” del software, aplicaciones y plataformas en el aula

Adams y Groten (Martins 2024)

Antes de introducir una herramienta de IA, es necesario realizar una evaluación básica de riesgos éticos y legales, y el cuerpo docente debe realizar una reflexión previa sobre los siguientes criterios:

Finalidad pedagógica
  • Idoneidad: ¿Es la IA la herramienta adecuada para alcanzar el objetivo pedagógico?¿Es adecuada para la etapa educativa?
  • Necesidad: ¿Es imprescindible su uso o existen medidas menos intrusivas para la privacidad que logren el mismo aprendizaje?
  • Proporcionalidad: ¿Los beneficios educativos son mayores que los riesgos para los derechos del alumnado?
Edad de uso

Según la UNESCO (2024) La mayoría de las aplicaciones de IAGen están diseñadas principalmente para usuarios adultos. Estas aplicaciones con frecuencia implican riesgos sustanciales para los menores, incluyendo la exposición a contenidos inapropiados, así como el potencial de manipulación. Por ello se recomiendan enfáticamente las restricciones por edad para las tecnologías de IA de propósito general, con el fin de proteger los derechos y el bienestar de los niños y niñas. Por ejemplo, los términos de uso de ChatGPT exigen que los usuarios tengan al menos 13 años de edad, y los menores de 18 deben contar con el permiso de sus padres o tutores para utilizar el servicio. 

Es aconsejable que en las primeras etapas (Infantil y Primaria), las herramientas de IA estén gestionadas exclusivamente por el profesorado, aunque se puede iniciar la alfabetización en fundamentos técnicos de IA (por ejemplo mediante herramientas como Learning ML.

Términos de uso y políticas de privacidad

Conocimiento de los términos de referencia sobre el uso de la IAGen: al firmar o expresar su consentimiento a los acuerdos de servicio, los usuarios deberían ser conscientes de las obligaciones de acatar los términos de referencia establecidos en el acuerdo y las leyes o normativas que lo respaldan.

Supervisión humana

Para que el uso de una IA sea lícito en el aula, no basta con que el docente esté presente sino que es necesaria una intervención humana real:

  • Verificar siempre los resultados de la IA, ya que existe el riesgo de difundir involuntariamente contenido falso. Es menester que el profesorado evalúe críticamente su contenido y fomente en el alumnado una cultura de cuestionamiento y verificación rigurosa.
  • No compartir nunca contenido generado por IA sin antes contrastarlo con fuentes de confianza, sitios académicos o plataformas de verificación de datos independientes
  • El docente debe tener la competencia y los recursos para revertir las decisiones de la IA atendiendo a criterios académicos.
  • La supervisión no puede ser un "gesto simbólico"; debe ser significativa y poder realizarse en cualquier momento del proceso, no solo al final.
Minimización de datos

El uso de herramientas de IA debe realizarse siempre respetando el cumplimiento del RGPD y de la LOPDGDD. Es fundamental reducir al mínimo la introducción de datos personales y proteger la información que se comparte con sistemas externos, por lo que es recomendable valorar herramientas sin necesidad de registro.

Es importante tener en cuenta que los prompts también pueden contener información sensible, ya que muchos sistemas almacenan estas interacciones para mejorar o entrenar sus modelos, lo que puede implicar riesgos si se incluyen trabajos reales de estudiantes. Siempre que sea posible, se debe anonimizar la información, utilizar ejemplos ficticios o sintéticos.

En ningún caso deberían introducirse datos como nombres completos, información identificable de menores, datos de salud, orientación personal o situación familiar

Por todo ello, el profesorado también debe educar al alumnado en un uso responsable, enseñándoles a no compartir datos personales y a comprender qué información pueden estar cediendo al utilizar estas herramientas.

Entorno doméstico y la intimidad

Si el docente realiza una actividad de aula con IA, ha de informar a las familias. Además, si solicita el uso de herramientas de IA para tareas en casa, debe considerar que:

  • Los sistemas de IA que requieren cámara o micrófono pueden realizar análisis del entorno de estudio del alumno. Esto puede capturar imágenes o sonidos de familiares o detalles de la vida privada que no son necesarios para la función educativa.
  • Telemetría y perfilado: muchas aplicaciones de IA realizan tratamientos de datos que van más allá de lo educativo: recogida de datos sobre hábitos de uso, geolocalización o identificadores del dispositivo para fines de marketing o desarrollo de productos.
Etiquetar material hecho con IA

Se recomienda citar y etiquetar adecuadamente el contenido generado con herramientas de IA para garantizar la transparencia y la integridad académica. Además, esta práctica contribuye a fomentar un uso responsable y honesto de la tecnología, tanto por parte del profesorado como del alumnado, promoviendo la reflexión sobre cómo y para qué se emplean estas herramientas en el aprendizaje.

EN CUENTA.png

Criterios a tener en cuenta

La AEPD ha publicado en 2026 este decálogo con recomendaciones para proteger la privacidad al usar herramientas de IA.

Desde el INTEF se propone esta lista de chequeo para la validación de herramientas digitales con IA, además del documento "Orientaciones sobre el uso de herramientas digitales en el ámbito educativo desde la perspectiva de la protección de datos",el buscador del Kit digital, y este documento de Buenas prácticas para el profesorado.

Otros enlaces de interés: 
AESIA
Vibe coding
AIDL project

La ética de la IA en educación no se juega solo en grandes principios, sino en qué herramientas elegimos, qué datos usamos, qué explicamos al alumnado y qué decisiones seguimos tomando como humanos.