Skip to main content

Actividad 2. Radar Sonoro: entrenamos un clasificador de sonidos del entorno

 

Radar sonoro.png

Radar Sonoro: IA en modo escucha

Esta actividad usa Teachable Machine (proyecto de audio) para entrenar un clasificador de sonidos del entorno (aves, trafico y agua). El alumnado comprende que la IA no entiende el mundo: aprende patrones a partir de ejemplos, puede confundirse y mejora cuando ampliamos y equilibramos los datos.

Datos de la actividad

Etapa

5º de Primaria (10-11 años)

Duracion

40-55 min (opcional 2 sesiones)

Agrupacion

Equipos de 4 + puesta en comun

Area

Ciencias (entorno sonoro) + competencia digital

Tipo Techable Machine

Audio Project

Producto

Modelo que clasifica AVES / TRÁFICO / AGUA y registro demejoras

Objetivo general

Que el alumnado construya un modelo sencillo que reconozca sonidos y aprenda a trabajar con el ciclo:definir clases - recopilar datos - entrenar - probar - mejorar. La actividad enfatiza pensamiento critico: que registren errores, expliquen por que ocurren y decidan que datos faltan para mejorar.

Vinculación curricular

La situación de aprendizaje 'Radar Sonoro' se integra de forma transversal en el currículo de 5º de Primaria, vinculándose directamente con el área de Conocimiento del Medio Natural, Social y Cultural y la Competencia Digital (CD). A través del diseño y entrenamiento de un modelo de aprendizaje supervisado, el alumnado trabaja el Criterio de Evaluación 3.2, orientado al diseño de soluciones tecnológicas para problemas del entorno, y la Competencia Específica 5, que promueve el uso crítico, ético y responsable de la tecnología. La actividad trasciende el uso instrumental al fomentar el pensamiento computacional y la alfabetización de datos, permitiendo que el alumnado identifique los sesgos y limitaciones de los algoritmos de IA. De este modo, se da cumplimiento a los Saberes Básicos relacionados con la interpretación de entornos sonoros y la iniciación en algoritmos de aprendizaje automático, fundamentales para el desarrollo de una ciudadanía digital crítica y proactiva.

Materiales

•     Monitor interactivo o proyector + ordenador (portatil) con navegador.

•     Micrófono (el del portatil suele valer; mejor microfono externo si el aula es ruidosa).

•     Tres colecciones de sonidos (20-40 clips por clase): aves, tráfico, agua. Preferible grabados por el docente o del centro, sin voces identificables.

•     Altavoces para reproducir los clips durante la prueba.

•     Hoja de registro por equipo (incluida al final del documento).

•     Opcional: rincón silencioso para grabación; cartel visual de normas de audio (no nombres, no conversaciones).

Desarrollo de la actividad

1)  Pregunta detonante 

•     Si cierro los ojos, puedo saber si oigo un pajaro, un coche o agua. Como crees que lo haria una IA?

•     ¿Qué necesita para aprender a distinguir sonidos?

•     ¿Crees que se equivocara? ¿Qué podemos hacer si falla?

2)  Organización y roles 

•     Equipo de 4:

    • Operador/a (usa TM),
    • Gestor/a de datos (elige y etiqueta clips),
    • Probador/a (lanza pruebas),
    • Anotador/a (registra resultados).

Norma de privacidad: no grabar voces ni nombres; si hay voces en un clip, se descarta.

3)  Preparación de datos 

•     Cada clase debe tener cantidad similar de clips (por ejemplo 20/20/20).

•     Variedad: aves distintas, trafico cercano y lejano, agua en fuente/lluvia/agua corriente.

•     Calidad: clips cortos y claros (1-2 s) con el menor ruido posible.

•   Se recomienda usar una carpeta con clips preparados (recomendado para la primera vez). Podría utilizarse un micrófono conectado pero no se recomienda para esta actividad.

Puedes usar y descargar sonidos desde este enlace INTEF

4)  Pasos en Teachable Machine 

•     Entrar en Teachable Machine y elegir proyecto de audio.

•     Renombrar clases: AVES, TRAFICO, AGUA (opcional: RUIDO MIXTO).

•     Para cada clase, subir o grabar clips hasta llegar a la meta acordada.

•     Entrenar: pulsar preparar modelo.

•     Prueba inicial: reproducir clips nuevos (no usados) y anotar prediccion y porcentaje.

5)  Reto de comprobación 

•     Reto por equipos: cada equipo selecciona 6 clips sorpresa (2 por clase) y los prueba en el modelo del aula.

•     Se registra: clip, prediccion, porcentaje, acierto/fallo.

•     Pregunta clave: en que sonidos se equivoca mas? (por ejemplo, agua fuerte vs trafico lejano).

6)  Mejora guiada y segunda ronda 

El grupo decide una mejora basada en evidencias y repite el ciclo una vez:

•     Si confunde agua con trafico: anadir mas ejemplos de agua con diferentes intensidades y fondos.

•     Si el aula tiene ruido: crear clase RUIDO MIXTO y meter ejemplos parecidos para que el modelo no los etiquete como aves/trafico/agua.

•     Equilibrar datos: si una clase tiene menos clips, completarla antes de reentrenar.

•     Reentrenar y repetir la prueba con los mismos 6 clips sorpresa para comparar. Cierre y debate final (5 min)

•     Que ha mejorado tras anadir datos?

•     Que limites tiene este modelo (ruido, sonidos mezclados, microfono, distancia)?

•     En que situaciones reales seria util un clasificador de sonidos? En cuales seria peligroso confiar sin supervision?

No te preocupes si el modelo falla. De hecho, es mejor que falle. Un modelo perfecto no genera debate; un modelo que confunde un grifo con un motor de coche es la oportunidad perfecta para explicar que la IA no tiene sentido común, solo matemáticas.

Implementacion en monitor interactivo (pasos rapidos)

•     Conecta portatil al monitor (HDMI) y, si hay control tactil, conecta USB tactil.

•     Abre Techable Machine en pantalla completa y coloca el microfono en una zona estable.

•     Proyecta tambien la hoja de registro para que toda la clase vea como se anotan evidencias.

•     Usa un 'semáforo de ruido': si el aula esta ruidosa, se pausa la grabacion.

Accesibilidad e inclusión (DUA aplicado)

•     Representación: apoyo visual de categorías con pictogramas; ejemplos de sonido etiquetados (tarjetas AVES/TRAFICO/AGUA).

•     Acción y expresión: participar grabando, anotando, decidiendo en equipo o explicando oralmente; opción de responder señalando.

•     Implicación: roles rotatorios y retos graduados (2 clases al inicio; 3 clases para extension; clase RUIDO MIXTO para avanzado).

•     Apoyos: plantillas de registro con iconos, tiempo extra para quien lo necesite y espacio mas silencioso para grabar.

Evaluación

Checklist rapido (docente) y evidencias por equipo:

•     Respeta la privacidad: sin voces, sin nombres, sin conversaciones en los clips.

•     Equilibra ejemplos por clase y explica por que es importante.

•     Registra resultados (predicción, porcentaje, acierto) y detecta patrones de error.

•     Propone al menos una mejora basada en evidencias y comprueba si mejora el rendimiento.

•     Explica con lenguaje propio que la IA no entiende: predice según ejemplos.


Instrumentos de registro (para llevar a la practica)

Puedes utilizar esta rubrica y plantilla de registro para cada equipo. Sirve para registrar entrenamiento, pruebas y mejoras.

Rubrica rapida por equipo

Indicador

En proceso

Logrado

Avanzado

Datos

Pocos clips o conruido/mezcla

Clips suficientes y claros

Variedad alta y datos equilibrados

Analisis

Describe aciertos sin explicar

Explica errores conuna causa

Relacionacausas y propone mejoras precisas

Mejora

Reentrena sin cambiar datos

Cambia datos ycompara

Itera 2 veces y documenta evidencias

Plantilla de registro (pruebas)

Sugerencia: realiza 12 pruebas (4 por clase) antes y despues de la mejora. Marca acierto y anota el porcentaje.

#

Clip (descripcion)

Prediccion

%

Acierto

Nota / causa del error

1

 

 

 

 

 

2

 

 

 

 

 

3

 

 

 

 

 

4

 

 

 

 

 

5

 

 

 

 

 

6

 

 

 

 

 

7

 

 

 

 

 

8

 

 

 

 

 

9

 

 

 

 

 

10

 

 

 

 

 

11

 

 

 

 

 

12

 

 

 

 

 

Cierre recomendado: cada equipo comparte 1 error frecuente y 1 mejora que funciono. Asi la clase construye un 'manual de buenas practicas' para futuros modelos.