5.2 Recomendaciones y buenas prácticas
Es importante que los profesores actúen con la debida diligencia cuando utilicen una nueva forma de tecnología, examinando los términos de servicio, viendo qué cuestiones de protección y privacidad de datos están asociadas a las tecnologías que se espera que utilicen los estudiantes, lo que algunos investigadores han descrito como una “auditoría tecnoética” del software, aplicaciones y plataformas en el aula (Adams y Groten 2024 en Martins 2024).
Antes de introducir una herramienta de IA, es necesario realizar una evaluación básica de riesgos éticos y legales, y el cuerpo docente debe realizar una reflexión previa sobre los siguientes criterios:
Finalidad pedagógica
- Idoneidad: ¿Es la IA la herramienta adecuada para alcanzar el objetivo pedagógico?¿Es adecuada para la etapa educativa?
- Necesidad: ¿Es imprescindible su uso o existen medidas menos intrusivas para la privacidad que logren el mismo aprendizaje?
- Proporcionalidad: ¿Los beneficios educativos son mayores que los riesgos para los derechos del alumnado?
Edad de uso
Según la UNESCO (2024) La mayoría de las aplicaciones de IAGen están diseñadas principalmente para usuarios adultos. Estas aplicaciones con frecuencia implican riesgos sustanciales para los niños y niñas, incluyendo la exposición a contenidos inapropiados, así como el potencial de manipulación. A la luz de estos riesgos y dada la considerable incertidumbre que sigue rodeando a las aplicaciones de IAGen iterativas, se recomiendan enfáticamente las restricciones por edad para las tecnologías de IA de propósito general, con el fin de proteger los derechos y el bienestar de los niños y niñas. Por ejemplo, los términos de uso de ChatGPT exigen que los usuarios tengan al menos 13 años de edad, y los menores de 18 deben contar con el permiso de sus padres o tutores para utilizar el servicio.
Los países también necesitan decidir si la autodeclaración de edad sigue siendo un medio apropiado de verificación. Los países tendrán que determinar la responsabilidad de los proveedores de IAGen en la verificación etaria y la de los padres o tutores en el monitoreo de las conversaciones independientes de los niños y niñas menores de edad.
Es aconsejable que en las primeras etapas (Infantil y Primaria), las herramientas de IA estén gestionadas exclusivamente por el profesorado, aunque se puede iniciar la alfabetización en fundamentos técnicos de IA (por ejemplo mediante herramientas como Learning ML
Términos de uso y políticas de privacidad
Conocimiento de los términos de referencia sobre el uso de la IAGen: al firmar o expresar su consentimiento a los acuerdos de servicio, los usuarios deberían ser conscientes de las obligaciones de acatar los términos de referencia establecidos en el acuerdo y las leyes o normativas que lo respaldan.
Supervisión humana
Para que el uso de una IA sea lícito en el aula, no basta con que el docente esté presente sino que es necesaria una intervención humana real y:
RevisarVerificar siempre los resultados de laIA.IA, ya que existe el riesgo de difundir involuntariamente contenido falso. Es menester que el profesorado evalúe críticamente su contenido y fomente en el alumnado una cultura de cuestionamiento y verificación rigurosa.- El docente debe tener la competencia y los recursos para revertir las decisiones de la IA atendiendo a criterios académicos.
- La supervisión no puede ser un "gesto simbólico"; debe ser significativa y poder realizarse en cualquier momento del proceso, no solo al final.
Minimización de datos
Cumplimiento de la RGPD y la LOPDGDD. No registro de herramientas. Prompts
El uso responsable de IA exige reducir al mínimo los datos personales y proteger la información introducida en sistemas externos.
Anonimizar siempre la información. Usar ejemplos ficticios o sintéticos. Evitar copiar directamente trabajos reales.
Evitar introducir Nombres completos, Datos de salud, orientación, situación familiar, Información identificable de menores
Los prompts pueden contener información sensible. Muchos sistemas los almacenan para entrenamiento o mejora. Riesgo: introducir trabajos reales de estudiantes o evaluaciones personalizadas.
Enseñar al alumnado a: No compartir datos personales Comprender qué información están cediendo
Entorno Doméstico y la Intimidad
Si el docente realiza una actividad de aula con IA, ha de informar a las familias. Además, si solicita el uso de herramientas de IA para tareas en casa, debe considerar que:
- Los sistemas de IA que requieren cámara o micrófono pueden realizar análisis del entorno de estudio del alumno.
- Esto puede capturar imágenes o sonidos de familiares o detalles de la vida privada que no son necesarios para la función educativa.
- Telemetría y perfilado: muchas aplicaciones de IA realizan tratamientos de datos que van más allá de lo educativo: recogida de datos sobre hábitos de uso, geolocalización o identificadores del dispositivo para fines de marketing o desarrollo de productos.
Etiquetar material hecho con IA
Citar IA. #hechoconIA Niveles de USO DE IA
Desde el INTEF se propone esta lista de chequeo para la validación de herramientas digitales con IA, además del documento "Orientaciones sobre el uso de herramientas digitales en el ámbito educativo desde la perspectiva de la protección de datos",el buscador del Kit digital, y este documento de Buenas prácticas para el profesorado.
La Guía para Centros Educativos de la AEPD está en revisión, pero en 2026 ha publicado un decálogo con recomendaciones para proteger la privacidad al usar herramientas de IA https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf
Otros enlaces de interés:
AESIA
Vibe coding
AIDL project
La ética de la IA en educación no se juega solo en grandes principios, sino en qué herramientas elegimos, qué datos usamos, qué explicamos al alumnado y qué decisiones seguimos tomando como humanos.