5.2 Recomendaciones y buenas prácticas
Es importante que los profesores actúen con la debida diligencia cuando utilicen una nueva forma de tecnología, examinando los términos de servicio, viendo qué cuestiones de protección y privacidad de datos están asociadas a las tecnologías que se espera que utilicen los estudiantes, lo que algunos investigadores han descrito como una “auditoría tecnoética” del software, aplicaciones y plataformas en el aula (Adams y Groten 2024 en Martins 2024).
Antes de introducir una herramienta de IA, es necesario realizar una evaluación básica de riesgos éticos y legales, y el cuerpo docente debe realizar una reflexión previa y obligatoria sobre tres criterios fundamentales:
- Idoneidad: ¿Es la IA la herramienta adecuada para alcanzar el objetivo pedagógico?
. - Necesidad: ¿Es imprescindible su uso o existen medidas menos intrusivas para la privacidad que logren el mismo aprendizaje?
,. - Proporcionalidad: ¿Los beneficios educativos son mayores que los riesgos para los derechos
dedellosalumnado?alumnos?
ElAdemás, Reglamento introduce obligacionesha de información cuando pueda surgir un riesgo por falta de transparenciatenerse en tornocuenta alque
Agencia humana
Para que el uso de launa IA sea lícito en el aula, no basta con que el docente esté presente. La fuente exige una intervención humana real: https://eur-lex.europa.eu/ES/legal-content/summary/rules-for-trustworthy-artificial-intelligence-in-the-eu.html
- El docente debe tener la
IAcompetenciadiseñaday los recursos parahacerserevertirpasarlasporpuntuacioneshumanoso(por ejemplo, un «chatbot») debe informar al humano con el que está interactuando; el resultadodecisiones de la IAgenerativaatendiendo a criterios académicos.- La supervisión no puede ser un "gesto simbólico"; debe
marcarsesercomosignificativageneradoyporpoder realizarse en cualquier momento del proceso, no solo al final,.
Riesgos en el Entorno Doméstico y la Intimidad
Si el docente solicita el uso de herramientas de IA para tareas en casa, debe considerar que:
- Los sistemas de
formaIAlegiblequeporrequierenmáquina;cámara o micrófono pueden realizar análisis del entorno de estudio del alumno. enEstoalgunospuedecasos,capturarelimágenesresultadoo sonidos de familiares o detalles de laIAvidagenerativaprivadadebequeestarnovisiblementesonetiquetado,necesarioscomoparaenlaelfuncióncasoeducativa.- Telemetría y perfilado: muchas aplicaciones de
losIA«deepfakes»realizanytratamientoslosdetextosdatosdestinadosqueavaninformarmásalallápúblicode lo educativo: recogida de datos sobreasuntoshábitos deinterésuso,público.geolocalización o identificadores del dispositivo para fines de marketing o desarrollo de productos.
La Guía para Centros Educativos de la AEPD está en revisión, pero en 2026 ha publicado un decálogo con recomendaciones para proteger la privacidad al usar herramientas de IA https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf
proyectos educativos internacionales:
Citar IA. #hechoconIA Niveles de USO DE IA
IA y protección datos INTEF https://formacion.intef.es/aulaenabierto/mod/forum/discuss.php?d=263
Curso integración IA centros educa Henar https://formacion.intef.es/aulaenabierto/mod/book/view.php?id=9217&chapterid=15784
AESIA https://aesia.digital.gob.es/es
"Guía de uso UNESCO"2024 se ha señalado que los GPTs pueden contravenir leyes como el Reglamento General de Protección de Datos de la Unión Europea (2016) o GDPR, especialmente el derecho de las personas a ser olvidadas, dado que actualmente es imposible eliminar los datos de alguien (o los resultados de esos datos) de un modelo GPT una vez que ha sido entrenado.
Minimización de datos y gestión segura de prompts
El uso responsable de IA exige reducir al mínimo los datos personales y proteger la información introducida en sistemas externos.
3.3.1. Principio de minimización de datos
Solo deben usarse los datos estrictamente necesarios.
Evitar: Nombres completos
completos, Datos de salud, orientación, situación familiar
Información identificable de menores
3.3.2. Qué es un prompt y por qué es un dato
Los prompts pueden contener información sensible.
Muchos sistemas los almacenan para entrenamiento o mejora.
📌 Riesgo: introducir trabajos reales de estudiantes o evaluaciones personalizadas.
3.3.3. Buenas prácticas en la gestión de prompts
Anonimizar siempre la información.
Usar ejemplos ficticios o sintéticos.
Evitar copiar directamente trabajos reales.
Revisar condiciones de uso de la herramienta.
📌 Ejemplo seguro: “Un estudiante de 3º de ESO tiene dificultades en comprensión lectora” (sin identificar).
3.3.4. Prompts como competencia ética docente
Enseñar al alumnado a:
No compartir datos personales
Comprender qué información están cediendoEl prompt se convierte en un acto ético, no solo técnico.
3.4. Evaluación de riesgos de herramientas de IAAntes de usar una herramienta con IA en el aula, es necesario realizar una evaluación básica de riesgos éticos y legales.
3.4.1. Por qué evaluar riesgosLas herramientas no están diseñadas específicamente para educación.Muchas priorizan eficiencia o negocio sobre derechos.📌 Principio: no usar herramientas por moda, sino por valor educativo.
3.4.2. Criterios básicos de evaluaciónA. Tipo de datos
¿Recoge datos personales?¿Trabaja con menores?B. Finalidad
¿Es educativa o generalista?¿Para qué usa los datos?C. Grado de automatización
¿Sugiere o decide?¿Permite corrección humana?D. Transparencia
¿Explica cómo funciona?¿Informa del uso de IA? 3.4.3. Nivel de riesgo educativoBajo: apoyo creativo, ejemplos genéricos.Medio: personalización, feedback.Alto: evaluación, clasificación, orientación académica.📌 Regla: a mayor riesgo, mayor supervisión humana.
3.4.4. Evaluación como práctica institucionalNo debe recaer solo en el docente.Los centros deben establecer protocolos comunes. 3.5. Brechas de seguridad y ciber-protección en el aulaLa IA amplía la superficie de riesgo digital en el entorno educativo.
3.5.1. Qué entendemos por brecha de seguridadAcceso no autorizado a datos.Uso indebido de información educativa.Filtraciones o reidentificación. 3.5.2. Riesgos específicos en educaciónPlataformas externas no auditadas.Cuentas compartidas.Alumnado sin formación en ciberseguridad.📌 Especial vulnerabilidad: menores de edad.
3.5.3. Buenas prácticas de ciber-protecciónUso de cuentas institucionales.Contraseñas robustas y autenticación.Evitar herramientas sin política clara de datos.Actualizaciones periódicas. 3.5.4. Formación en ciber-ética y seguridadIntegrar la seguridad digital como competencia educativa.Enseñar:
Qué no compartirCómo detectar riesgosUso responsable de IA Cierre pedagógico
La ética de la IA en educación no se juega solo en grandes principios, sino en:
Qué datos usamos
Qué herramientas elegimos
Qué explicamos al alumnado
Qué decisiones seguimos tomando como humanos