Skip to main content

5.2 Recomendaciones y buenas prácticas

Es importante que los profesores actúen con la debida diligencia cuando utilicen una nueva forma de tecnología, examinando los términos de servicio, viendo qué cuestiones de protección y privacidad de datos están asociadas a las tecnologías que se espera que utilicen los estudiantes, lo que algunos investigadores han descrito como una “auditoría tecnoética” del software, aplicaciones y plataformas en el aula (Adams y Groten 2024 en Martins 2024).

Antes de introducir una herramienta de IA, es necesario realizar una evaluación básica de riesgos éticos y legales, y el cuerpo docente debe realizar una reflexión previa sobre los siguientes criterios:

Finalidad pedagógica
  • Idoneidad: ¿Es la IA la herramienta adecuada para alcanzar el objetivo pedagógico?¿Es adecuada para la etapa educativa?
  • Necesidad: ¿Es imprescindible su uso o existen medidas menos intrusivas para la privacidad que logren el mismo aprendizaje?
  • Proporcionalidad: ¿Los beneficios educativos son mayores que los riesgos para los derechos del alumnado?
Edad de uso

Según la UNESCO (2024) La mayoría de las aplicaciones de IAGen están diseñadas principalmente para usuarios adultos. Estas aplicaciones con frecuencia implican riesgos sustanciales para los niños y niñas, incluyendo la exposición a contenidos inapropiados, así como el potencial de manipulación. A la luz de estos riesgos y dada la considerable incertidumbre que sigue rodeando a las aplicaciones de IAGen iterativas, se recomiendan enfáticamente las restricciones por edad para las tecnologías de IA de propósito general, con el fin de proteger los derechos y el bienestar de los niños y niñas. Por ejemplo, los términos de uso de ChatGPT exigen que los usuarios tengan al menos 13 años de edad, y los menores de 18 deben contar con el permiso de sus padres o tutores para utilizar el servicio. 

Los países también necesitan decidir si la autodeclaración de edad sigue siendo un medio apropiado de verificación. Los países tendrán que determinar la responsabilidad de los proveedores de IAGen en la verificación etaria y la de los padres o tutores en el monitoreo de las conversaciones independientes de los niños y niñas menores de edad.

Es aconsejable que en las primeras etapas (Infantil y Primaria), las herramientas de IA estén gestionadas exclusivamente por el profesorado, aunque se puede iniciar la alfabetización en fundamentos técnicos de IA (por ejemplo mediante herramientas como Learning ML

Términos de uso y políticas de privacidad

Conocimiento de los términos de referencia sobre el uso de la IAGen: Al firmar o expresar su consentimiento a los acuerdos de servicio, los usuarios deberían ser conscientes de las obligaciones de acatar los términos de referencia establecidos en el acuerdo y las leyes o normativas que lo respaldan.

Supervisión humana

Para que el uso de una IA sea lícito en el aula, no basta con que el docente esté presente. La fuente exige una intervención humana real:

  • Revisa siempre los resultados de la IA
  • El docente debe tener la competencia y los recursos para revertir las puntuaciones o decisiones de la IA atendiendo a criterios académicos.
  • La supervisión no puede ser un "gesto simbólico"; debe ser significativa y poder realizarse en cualquier momento del proceso, no solo al final,.
Minimización de datos

Cumplimiento de la RGPD y la LOPDGDD. No registro de herramientas. Prompts

El uso responsable de IA exige reducir al mínimo los datos personales y proteger la información introducida en sistemas externos.

Entorno Doméstico y la Intimidad

Si el docente realiza una actividad de aula con IA, ha de informar a las familias. Además, si solicita el uso de herramientas de IA para tareas en casa, debe considerar que:

  • Los sistemas de IA que requieren cámara o micrófono pueden realizar análisis del entorno de estudio del alumno.
  • Esto puede capturar imágenes o sonidos de familiares o detalles de la vida privada que no son necesarios para la función educativa.
  • Telemetría y perfilado: muchas aplicaciones de IA realizan tratamientos de datos que van más allá de lo educativo: recogida de datos sobre hábitos de uso, geolocalización o identificadores del dispositivo para fines de marketing o desarrollo de productos.

La Guía para Centros Educativos de la AEPD está en revisión, pero en 2026 ha publicado un decálogo con recomendaciones para proteger la privacidad al usar herramientas de IA https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf

proyectos educativoseducativos:

internacionales:

https://vibe-coding-educativo.github.io/#que-es 

https://www.ai4t.eu

https://www.aidlproject.eu

Citar IA. #hechoconIA Niveles de USO DE IA

IA y protección datos INTEF https://formacion.intef.es/aulaenabierto/mod/forum/discuss.php?d=263


AESIA https://aesia.digital.gob.es/es 

Solo deben usarse los datos estrictamente necesarios.
Evitar: Nombres completos, Datos de salud, orientación, situación familiar
Información identificable de menores
 
Los prompts pueden contener información sensible.
Muchos sistemas los almacenan para entrenamiento o mejora.
📌 Riesgo: introducir trabajos reales de estudiantes o evaluaciones personalizadas.

 
3.3.3. Buenas prácticas en la gestión de prompts
Anonimizar siempre la información.
Usar ejemplos ficticios o sintéticos.
Evitar copiar directamente trabajos reales.
Revisar condiciones de uso de la herramienta.
📌 Ejemplo seguro: “Un estudiante de 3º de ESO tiene dificultades en comprensión lectora” (sin identificar).

 
3.3.4. Prompts como competencia ética docente
Enseñar al alumnado a: No compartir datos personales
Comprender qué información están cediendo

 
La ética de la IA en educación no se juega solo en grandes principios, sino en:

Qué datos usamos
Qué herramientas elegimos
Qué explicamos al alumnado
Qué decisiones seguimos tomando como humanos