Skip to main content

5.2 Recomendaciones y buenas prácticas

Es importante que los profesores actúen con la debida diligencia cuando utilicen una nueva forma de tecnología, examinando los términos de servicio,servicio, viendo qué cuestiones de protección y privacidad de datos están asociadas a las tecnologías que se espera que utilicen los estudiantes, lo que algunos investigadores han descrito como una “auditoría tecnoética” del software, aplicaciones y plataformas en el aula (Adams y Groten 2024 en Martins 2024).

Antes de introducir una herramienta de IA, el cuerpo docente debe realizar una reflexión previa y obligatoria sobre tres criterios fundamentales:

  • Idoneidad: ¿Es la IA la herramienta adecuada para alcanzar el objetivo pedagógico?.
  • Necesidad: ¿Es imprescindible su uso o existen medidas menos intrusivas para la privacidad que logren el mismo aprendizaje?,.
  • Proporcionalidad: ¿Los beneficios educativos son mayores que los riesgos para los derechos de los alumnos?

El Reglamento introduce obligaciones de información cuando pueda surgir un riesgo por falta de transparencia en torno al uso de la IA: https://eur-lex.europa.eu/ES/legal-content/summary/rules-for-trustworthy-artificial-intelligence-in-the-eu.html

  • la IA diseñada para hacerse pasar por humanos (por ejemplo, un «chatbot») debe informar al humano con el que está interactuando;
  • el resultado de la IA generativa debe marcarse como generado por IA de forma legible por máquina;
  • en algunos casos, el resultado de la IA generativa debe estar visiblemente etiquetado, como en el caso de los «deepfakes» y los textos destinados a informar al público sobre asuntos de interés público.

La Guía para Centros Educativos de la AEPD está en revisión, pero en 2026 ha publicado un decálogo con recomendaciones para proteger la privacidad al usar herramientas de IA https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf

https://www.aepd.es/guias/guia-aepd-uso-de-imagenes-de-terceros-en-sistemas-ia.pdf (enero 2026)

proyectos educativos internacionales:

https://www.ai4t.eu

https://www.aidlproject.eu

 

Citar IA. #hechoconIA Niveles de USO DE IA

IA y protección datos INTEF https://formacion.intef.es/aulaenabierto/mod/forum/discuss.php?d=263

Curso integración IA centros educa Henar https://formacion.intef.es/aulaenabierto/mod/book/view.php?id=9217&chapterid=15784

AESIA https://aesia.digital.gob.es/es 

 "Guía de uso UNESCO"2024 se ha señalado que los GPTs pueden contravenir leyes como el Reglamento General de Protección de Datos de la Unión Europea (2016) o GDPR, especialmente el derecho de las personas a ser olvidadas, dado que actualmente es imposible eliminar los datos de alguien (o los resultados de esos datos) de un modelo GPT una vez que ha sido entrenado.

Minimización de datos y gestión segura de prompts
El uso responsable de IA exige reducir al mínimo los datos personales y proteger la información introducida en sistemas externos.

 
3.3.1. Principio de minimización de datos
Solo deben usarse los datos estrictamente necesarios.
Evitar:

 

Nombres completos
Datos de salud, orientación, situación familiar
Información identificable de menores
📌 Regla práctica: si no es imprescindible para aprender, no debe introducirse.

 
3.3.2. Qué es un prompt y por qué es un dato
Los prompts pueden contener información sensible.
Muchos sistemas los almacenan para entrenamiento o mejora.
📌 Riesgo: introducir trabajos reales de estudiantes o evaluaciones personalizadas.

 
3.3.3. Buenas prácticas en la gestión de prompts
Anonimizar siempre la información.
Usar ejemplos ficticios o sintéticos.
Evitar copiar directamente trabajos reales.
Revisar condiciones de uso de la herramienta.
📌 Ejemplo seguro: “Un estudiante de 3º de ESO tiene dificultades en comprensión lectora” (sin identificar).

 
3.3.4. Prompts como competencia ética docente
Enseñar al alumnado a:

No compartir datos personales
Comprender qué información están cediendo
El prompt se convierte en un acto ético, no solo técnico.
 
3.4. Evaluación de riesgos de herramientas de IA
Antes de usar una herramienta con IA en el aula, es necesario realizar una evaluación básica de riesgos éticos y legales.

 
3.4.1. Por qué evaluar riesgos
Las herramientas no están diseñadas específicamente para educación.
Muchas priorizan eficiencia o negocio sobre derechos.
📌 Principio: no usar herramientas por moda, sino por valor educativo.

 
3.4.2. Criterios básicos de evaluación
A. Tipo de datos

¿Recoge datos personales?
¿Trabaja con menores?
B. Finalidad

¿Es educativa o generalista?
¿Para qué usa los datos?
C. Grado de automatización

¿Sugiere o decide?
¿Permite corrección humana?
D. Transparencia

¿Explica cómo funciona?
¿Informa del uso de IA?
 
3.4.3. Nivel de riesgo educativo
Bajo: apoyo creativo, ejemplos genéricos.
Medio: personalización, feedback.
Alto: evaluación, clasificación, orientación académica.
📌 Regla: a mayor riesgo, mayor supervisión humana.

 
3.4.4. Evaluación como práctica institucional
No debe recaer solo en el docente.
Los centros deben establecer protocolos comunes.
 
3.5. Brechas de seguridad y ciber-protección en el aula
La IA amplía la superficie de riesgo digital en el entorno educativo.

 
3.5.1. Qué entendemos por brecha de seguridad
Acceso no autorizado a datos.
Uso indebido de información educativa.
Filtraciones o reidentificación.
 
3.5.2. Riesgos específicos en educación
Plataformas externas no auditadas.
Cuentas compartidas.
Alumnado sin formación en ciberseguridad.
📌 Especial vulnerabilidad: menores de edad.

 
3.5.3. Buenas prácticas de ciber-protección
Uso de cuentas institucionales.
Contraseñas robustas y autenticación.
Evitar herramientas sin política clara de datos.
Actualizaciones periódicas.
 
3.5.4. Formación en ciber-ética y seguridad
Integrar la seguridad digital como competencia educativa.
Enseñar:

Qué no compartir
Cómo detectar riesgos
Uso responsable de IA
 
Cierre pedagógico
La ética de la IA en educación no se juega solo en grandes principios, sino en:

Qué datos usamos
Qué herramientas elegimos
Qué explicamos al alumnado
Qué decisiones seguimos tomando como humanos