Skip to main content

4.3 Recomendaciones y buenas prácticas

Citar IA. #hechoconI

Minimización de datos y gestión segura de prompts
El uso responsable de IA exige reducir al mínimo los datos personales y proteger la información introducida en sistemas externos.

 
3.3.1. Principio de minimización de datos
Solo deben usarse los datos estrictamente necesarios.
Evitar:

Nombres completos
Datos de salud, orientación, situación familiar
Información identificable de menores
📌 Regla práctica: si no es imprescindible para aprender, no debe introducirse.

 
3.3.2. Qué es un prompt y por qué es un dato
Los prompts pueden contener información sensible.
Muchos sistemas los almacenan para entrenamiento o mejora.
📌 Riesgo: introducir trabajos reales de estudiantes o evaluaciones personalizadas.

 
3.3.3. Buenas prácticas en la gestión de prompts
Anonimizar siempre la información.
Usar ejemplos ficticios o sintéticos.
Evitar copiar directamente trabajos reales.
Revisar condiciones de uso de la herramienta.
📌 Ejemplo seguro: “Un estudiante de 3º de ESO tiene dificultades en comprensión lectora” (sin identificar).

 
3.3.4. Prompts como competencia ética docente
Enseñar al alumnado a:

No compartir datos personales
Comprender qué información están cediendo
El prompt se convierte en un acto ético, no solo técnico.
 
3.4. Evaluación de riesgos de herramientas de IA
Antes de usar una herramienta con IA en el aula, es necesario realizar una evaluación básica de riesgos éticos y legales.

 
3.4.1. Por qué evaluar riesgos
Las herramientas no están diseñadas específicamente para educación.
Muchas priorizan eficiencia o negocio sobre derechos.
📌 Principio: no usar herramientas por moda, sino por valor educativo.

 
3.4.2. Criterios básicos de evaluación
A. Tipo de datos

¿Recoge datos personales?
¿Trabaja con menores?
B. Finalidad

¿Es educativa o generalista?
¿Para qué usa los datos?
C. Grado de automatización

¿Sugiere o decide?
¿Permite corrección humana?
D. Transparencia

¿Explica cómo funciona?
¿Informa del uso de IA?
 
3.4.3. Nivel de riesgo educativo
Bajo: apoyo creativo, ejemplos genéricos.
Medio: personalización, feedback.
Alto: evaluación, clasificación, orientación académica.
📌 Regla: a mayor riesgo, mayor supervisión humana.

 
3.4.4. Evaluación como práctica institucional
No debe recaer solo en el docente.
Los centros deben establecer protocolos comunes.
 
3.5. Brechas de seguridad y ciber-protección en el aula
La IA amplía la superficie de riesgo digital en el entorno educativo.

 
3.5.1. Qué entendemos por brecha de seguridad
Acceso no autorizado a datos.
Uso indebido de información educativa.
Filtraciones o reidentificación.
 
3.5.2. Riesgos específicos en educación
Plataformas externas no auditadas.
Cuentas compartidas.
Alumnado sin formación en ciberseguridad.
📌 Especial vulnerabilidad: menores de edad.

 
3.5.3. Buenas prácticas de ciber-protección
Uso de cuentas institucionales.
Contraseñas robustas y autenticación.
Evitar herramientas sin política clara de datos.
Actualizaciones periódicas.
 
3.5.4. Formación en ciber-ética y seguridad
Integrar la seguridad digital como competencia educativa.
Enseñar:

Qué no compartir
Cómo detectar riesgos
Uso responsable de IA
 
Cierre pedagógico
La ética de la IA en educación no se juega solo en grandes principios, sino en:

Qué datos usamos
Qué herramientas elegimos
Qué explicamos al alumnado
Qué decisiones seguimos tomando como humanos