Skip to main content

Actividad 2: Laboratorio de sesgos: ¿Es justo nuestro modelo?

JustificaciónTITULO Actividad 3. ¡Crea una IA justa! El laboratorio de datos y sesgos

 

EXPLICACIÓN Y ETAPA Y DATOS DE LA ACTIVIDAD 

Esta actividad hace visible que “aprender” en IA significa crear un modelo a partir de datos y luego probarlo con casos nuevos. El alumnado detecta sesgos cuando ciertos grupos quedan poco representados y entiende por qué eso puede ser injusto. Esta actividad Integra pensamiento crítico, convivencia y lenguaje de IA sin usar pantallas.

Datos de la actividad
  • Curso: 5º Primaria (10–11 años)

  • Tiempo: 55–70 min (RECOMENDADO EN 2 SESIONES)

  • Agrupación: equipos de 4–5 + puesta en común

  • Espacio: aula (mesas)

     

RELACION

ObjetivoCURRICULAR general

La vinculación curricular de esta actividad, aunque trabajamos de forma desenchufada el funcionamiento de la IA, nos permite realizar la siguiente vinculación curricular: 

AREA: Educación en valores Cívicos y Éticos

·      CE.EVCE.1: Deliberar y argumentar sobre problemas de carácter ético referidos a sí mismo y su entorno, buscando y analizando información fiable y generando una actitud reflexiva al respecto, para promover el autoconocimiento y la autonomía moral. (Deliberar y argumentar sobre problemas éticos; construir posición moral autónoma, incluyendo cuestiones sobre el uso responsable y crítico de medios/redes)

·      CE.EVCE.2: Actuar e interactuar de acuerdo con normas y valores cívicos y éticos, reconociendo su importancia para la vida individual y colectiva, y aplicándolos de manera efectiva y argumentada en distintos contextos, para promover una convivencia democrática, justa, respetuosa y pacífica. (promover convivencia democrática y excluir arbitrariedad, injusticia y discriminación; analizar conflictos también en entornos virtuales y proponer medidas).

AREA: Ciencias de la Naturaleza (dimensión digital y de datos)

·      CE.CN.1: Utilizar dispositivos y recursos digitales de forma segura, responsable y eficiente, para buscar información, comunicarse, trabajar de manera individual, en equipo y en red y, para reelaborar y crear contenido digital de acuerdo a las necesidades digitales del contexto educativo. 

Esta actividad curricularmente nos permite en tercer ciclo combinar: el análisis crítico y la deliberación ética en contextos cercanos (IA y decisiones automatizadas) y el uso responsable de información y datos en el apartado digital. 

OBJETIVO GENERAL 

Construir y evaluar un modelo sencillo (reglas/puntuación) para tomar una decisión, usando datos de ejemplo, y comprobar cómo aparece el sesgo por representación y por “reglas mal diseñadas”. 


DESARROLLO 

Materiales

1)   Pregunta detonante

“Si quisiéramos una ‘máquina’ que eligiera a quién elegir como el Robot ayudante del aula… ¿cómo le enseñaríamos a decidir?” 

2)   Organización 

Roles:

  • Diseñador/a del modelo (escribe reglas/puntos)
  • Entrenador/a de datos (analiza ejemplos)
  • Probador/a (aplica el modelo a nuevos casos)
  • Auditor/a de sesgo (revisa a quién perjudica y por qué)
  • (Opcional) Portavoz 

Materiales
30 “fichas de caso” (tarjetas) con Robots y rasgos neutros del aula (sin datos 
sensibles):


o
  • Ej.: “Trae deberes 4/5 días”, “Ayuda a un compañero”, “Se distrae a 
    veces”, “Llega puntual”, “Interrumpe”, “Trabaja en equipo”…


  • 3 sobres: ENTRENAMIENTO (datos) / PRUEBA / DIFÍCILES


  • Plantilla “Nuestro modelo” (tabla de puntos o reglas)


  • Hoja de registro: 12 predicciones ✅/❌


  • Post-its: DATOS / ALGORITMO / MODELO / SESGO / PRUEBA

  • Nota: Los “personajes” pueden ser animales o robots para hacerlo más lúdico. 

    Desarrollo de la actividad

    1) Pregunta detonante (4 min)

    “Si quisiéramos una ‘máquina’ que eligiera a quién elegir como el Robot ayudante del aula… ¿cómo le enseñaríamos a decidir?”

    2) Organización (3 min)

    Roles:

    • Diseñador/a del modelo (escribe reglas/puntos)

    • Entrenador/a de datos (analiza ejemplos)

    • Probador/a (aplica el modelo a nuevos casos)

    • Auditor/a de sesgo (revisa a quién perjudica y por qué)

    • (Opcional) Portavoz

    3)   Datos (entrenamiento) (10–12 min)

    Cada equipo recibe 10 tarjetas del sobre ENTRENAMIENTO, ya etiquetadas por el docente:

    • “SÍ es elegido”

    • “NO es elegido”

    El equipo analiza:

    • ¿Qué rasgos aparecen mucho en los “SÍ”?

    • ¿Qué rasgos aparecen mucho en los “NO”?

     Se nombra: DATOS = ejemplos con respuesta correcta. 

    4)   Construcción del algoritmo (modelo por puntos) (12–15 min)

    El equipo crea un algoritmo tipo “puntos” (muy manipulativo y fácil de aplicar):

    • +2 si “ayuda a compañeros”

    • +2 si “respeta turnos”

    • +1 si “trae material”

    • −2 si “interrumpe”

    • −1 si “llega tarde a veces”
      Regla final: si suma ≥ 3 puntos → SÍ, si no → NO.

       


    Se nombra: ALGORITMO = las reglas/pasos para sumar y decidir y MODELO = la tabla final de puntos (lo aprendido con los datos). 

    5)   Prueba (validación) con datos nuevos (10–12 min)

    Se entrega el sobre PRUEBA con 8 tarjetas nuevas (sin etiqueta).
    El equipo aplica su modelo, predice SÍ/NO y registra.

    Después el docente revela la etiqueta real (o una hoja de soluciones común). 

    6)   Mini-laboratorio de sesgos (12–15 min)

    Ahora entra el sobre DIFÍCILES con 4 tarjetas pensadas para mostrar sesgo.

    Ejemplos:

    • Casos con rasgos “mixtos” que no aparecían en entrenamiento (“ayuda mucho pero se pone nervioso y habla rápido”)

    • Casos con un rasgo que el modelo penaliza demasiado (“llega tarde a veces” por motivo ajeno, sin entrar en realidades personales)

    El auditor responde en la hoja:

    • ¿Qué tipo de caso recibe más “NO”?

    • ¿Ese rasgo estaba poco representado en los datos?

    • ¿La regla está exagerando una pista?

     Se nombra: SESGO = cuando el modelo se equivoca más con ciertos casos porque los datos eran pobres o las reglas no eran justas. 

    7)   Mejora del modelo (6–8 min)

    Cada equipo elige UNA mejora (obligatorio justificarla):

    • Mejora de datos: añadir 2 tarjetas de entrenamiento que faltaban (más variedad de casos)

    • Mejora de reglas: bajar un castigo (−2 → −1), subir un criterio positivo, o añadir “NO SÉ” si está en zona gris

    • Mejora de prueba: crear una regla de “revisión humana” para casos límite

    Se repiten las 4 tarjetas DIFÍCILES y se comparan resultados. 

    8)   Debate final                              (5–7 min)

    • ·       “¿Qué mejoró más: cambiar datos o cambiar reglas?”

    • ·      

    • “¿Cuándo sería peligroso usar este modelo sin revisar?”

    • ·      

    • “¿Qué significa que un modelo sea ‘justo’?” 


    DUA (adaptaciones)

     
    • Representación: tarjetas con iconosiconos/pictos (manoarasaac) ayudando,y relojcolores puntual,por bocacategorías hablando),lo lecturaque compartida.

      reduce la carga lectora y mejora la comprensión.
    • Acción/expresión: para cálculoconstruir enel grupomodelo conpor fichas/puntos, explicaciónusad oralfichas: una ficha = 1 punto (o fichas dobles para +2). Así el alumnado “ve” la suma y puede demostrar el aprendizaje aunque escriba menos; después explican el resultado oralmente o con esquema.

      un mini-esquema “si suma ≥ 3 → SÍ”.
    • Implicación: rolDale al Auditor/a de auditorsesgo una misión clara: revisar en DIFÍCILES “qué tipo de casos recibe más NO y por qué” y proponer 1 mejora (misión),cambiar debatedatos cono ejemplosreglas). concretos,Para mantener el enganche y evitar decisiones forzadas, incorporad la opción “NO SÉ”.


    Evaluación final 

    Semáforo por equipo

    • 🟢paraDefinimoszona datos/algoritmo/modelo/sesgogris” y mejoramos el modelo con una razón.”

    • 🟡decidirLorevisión entendemos pero nos cuesta explicar el sesgohumana” o justificar“necesitamos lamás mejora.”

    • 🔴 “Necesitamos apoyo para construir reglas y ver el sesgo.”

      datos”.

    ChecklistEVALUACIÓN docente

    A modo de evaluación de la actividad proponemos la siguiente rúbrica. 

    • Describe algoritmo como reglas/pasos.

    • Indicador (5criterios)

      ítems)
    • 1 · Inicial

    • 2 · En proceso

      3 · Adecuado

      4 · Avanzado

      1) Comprensión del funcionamiento de la IA (desenchufada) (CE CN 1)

      Confunde datos/reglas/resultados; necesita guía constante.

      Identifica datospartes comodel ejemplosproceso etiquetados.con ayuda, con algunos errores.

      Explica con claridad: datos → reglas/modelo como laprueba tabla final.errores/sesgo.

      Además, relaciona causas del sesgo y anticipa cómo prevenirlo.

      2) Uso y organización crítica de datos/información(CE EVCE 1)

      Usa ejemplos/datos sin criterio; no justifica decisiones.

      Organiza de forma básica; justifica poco o de manera confusa.

      Selecciona y organiza datos con criterio; justifica decisiones de forma clara.

      Detecta sesgodesequilibrios/ausencias (aen quiénlos perjudicadatos y porpropone qué).cómo corregirlos con buena justificación.

      3) Deliberación ética: justicia, igualdad y no discriminación (CE EVCE 1 y 2)

      Opina sin razones; dificultad para escuchar y respetar turnos.

      Aporta razones simples; escucha parcialmente; necesita recordatorios.

      Argumenta con razones y ejemplos; escucha y dialoga con respeto.

      Considera contraargumentos, ajusta su postura y ayuda a construir acuerdos justos.

      4) Propuestas de mejora para una IA más justa y convivencia(CE EVCE 2)

      Propone cambios vagos o irrelevantes; no concretas medidas.

      Propone una mejora razonadaconcreta, (datospero poco viable o reglas).poco relacionada con el sesgo.

      Propone mejoras concretas y viables(mejorar datos, ajustar reglas, revisión humana) y las justifica.

      Propone varias mejoras, prevé efectos y define cómo comprobar si el sistema es más justo.

       La asociación de los criterios con la actividad seria la siguiente: 

      ·       Registro de entrenamiento/prueba (Indicadores 1 y 2)

      ·       Observación del debate (Indicador 3)

      ·       Mini-informe “auditor/a de sesgo”: qué sesgo, a quién afecta, mejora propuesta (Indicador 4)

      Aprender sobre la IA no es "usar pantallas", sino comprender como decide un sistema basado en datos y que riesgos éticos puede tener.