Skip to main content

1.6 Un mundo de ciencia ficción: bucles, sesgos y alucinaciones


«En el caso de las llamadas inteligencias artificiales han decidido llamar alucinaciones a lo que son errores crasos. ¿Por qué? Una alucinación humana es una percepción que se produce sin un estímulo externo que la sostenga (...) Pero las máquinas, hoy por hoy, no saben lo que dicen ni les importa y con cierta frecuencia combinan las palabras de forma que generan afirmaciones falsas. Supogo que lo llaman alucinar porque fabrican mentiras sin saber que lo son. Aunque quienes les pusieron el nombre deberían buscar otro para recordar que cuando las inteligencias artificiales hacen afirmaciones verdaderas tampoco lo saben».

Te siguen, Belén Gopegui Durán

El uso creciente de sistemas de inteligencia artificial en contextos educativos hace necesario comprender no solo sus capacidades, sino también sus limitaciones y riesgos. Entre los más importantes se encuentran los sesgos y las alucinaciones, dos fenómenos que afectan especialmente a los sistemas de IA generativa y a los modelos de lenguaje utilizados en los chatbots a los que nuestro alumnado recurre pare realizar cualquier tipo de torea. Es imprescindible que los docentes —especialmente en el ámbito de las humanidades— comprendan estos conceptos y que fomenten un uso crítico, responsable y pedagógicamente adecuado de estas herramientas. Para ello, una vez más, deben empezar por usar la IA de forma crítica, responsable y pedagógicamente adecuada.

Los sesgos en la inteligencia artificial

Los sesgos de la IA aparecen cuando un sistema genera resultados que favorecen o perjudican sistemáticamente a determinados grupos, perspectivas o interpretaciones. Estos sesgos no suelen ser intencionales, sino que surgen principalmente de los datos con los que se entrena el sistema o de la supervisión humana que los etiqueta y los valida. No debemos olvidar que, en origen, la IA depende de programas y modelos generados por humanos: no es extraño, por tanto, que los prejuicios de la sociedad que las ha creado se reproduzcan en sus respuestas.

Los modelos de lenguaje actuales se entrenan con enormes cantidades de texto procedente de libros y artículos, pero también de internet y de otras fuentes digitales. Estos materiales reflejan inevitablemente las desigualdades, prejuicios, visiones culturales y limitaciones históricas de las sociedades que los produjeron. Cuando la IA aprende a partir de esos datos, puede reproducir —o incluso amplificar— esas mismas tendencias.

Por ejemplo, un sistema de IA puede:

  • asociar determinadas profesiones con un género concreto;

  • ofrecer interpretaciones históricas centradas en perspectivas occidentales;

  • reproducir estereotipos culturales presentes en los textos de entrenamiento.

En el ámbito educativo, este problema es especialmente relevante en asignaturas como historia, filosofía, literatura o ciencias sociales, donde las interpretaciones, narrativas y perspectivas culturales desempeñan un papel fundamental. Si se utiliza la IA como fuente de información sin un análisis crítico, los sesgos del sistema pueden influir en la forma en que se presentan ciertos temas o colectivos. Estos sesgos, a su vez, retroalimentarán los valores que los han producido en un bucle muy difícil de detener.

Es importante que comprendamos que los sesgos pueden aparecer en diferentes niveles:

  • Sesgo en los datos: cuando el conjunto de entrenamiento no representa adecuadamente la diversidad del mundo real.

  • Sesgo en el diseño del modelo: cuando las decisiones técnicas o de optimización priorizan ciertos resultados.

  • Sesgo en la interacción con el usuario: cuando las preguntas o prompts refuerzan determinadas perspectivas.

Por esta razón, la alfabetización en IA implica desarrollar en el alumnado —y en el profesorado— una actitud crítica similar a la que se aplica al análisis de fuentes históricas o textos argumentativos: toda información debe contextualizarse, contrastarse y evaluarse.

Las alucinaciones de la inteligencia artificial

Otro fenómeno importante son las llamadas alucinaciones. En inteligencia artificial, una alucinación ocurre cuando un sistema genera información incorrecta, «inventada» o no verificable, pero la presenta con una apariencia de seguridad y coherencia.

Esto puede suceder porque los modelos de lenguaje no “saben” cosas en el sentido humano del término. En realidad, funcionan prediciendo qué palabras son más probables en una secuencia, basándose en patrones estadísticos aprendidos durante el entrenamiento, como hemos visto en un capítulo anterior de este mismo curso. El objetivo del sistema es producir una respuesta lingüísticamente plausible, no necesariamente garantizar que sea verdadera.

Como consecuencia, la IA puede:

  • inventar referencias bibliográficas que no existen;

  • atribuir frases e ideas a personas vivas o muertas que nunca las pronunciaron ni escribieron;

  • confundir fechas, nombres o acontecimientos históricos;

  • construir explicaciones aparentemente coherentes pero incorrectas.

En el contexto educativo, este comportamiento plantea un riesgo evidente si el alumnado utiliza estos sistemas como fuente primaria de información sin verificar los resultados. Sin embargo, también ofrece una oportunidad pedagógica interesante: enseñar a detectar errores, contrastar información y analizar críticamente las respuestas generadas por la IA.

De hecho, algunos docentes utilizan deliberadamente ejemplos de respuestas incorrectas generadas por IA como ejercicios de pensamiento crítico, pidiendo al alumnado que identifique errores, busque fuentes fiables y reconstruya la información correcta.

Implicaciones educativas

Para el profesorado, comprender los sesgos y las alucinaciones no significa evitar completamente el uso de la IA, sino integrarla con criterios pedagógicos claros. Algunas recomendaciones habituales incluyen:

  • Verificar la información generada por la IA mediante fuentes académicas o institucionales.

  • Utilizar la IA como punto de partida, no como autoridad final.

  • Fomentar el pensamiento crítico, analizando con el alumnado posibles errores o perspectivas parciales.

  • Explicar cómo funcionan los modelos, para que los estudiantes entiendan sus limitaciones.

  • Promover la supervisión humana, especialmente en tareas que impliquen conocimiento factual o interpretación histórica.

En las materias de perfil sociolingüístico, en las que el análisis crítico de las fuentes es una competencia central, estos riesgos pueden transformarse en oportunidades educativas. Analizar cómo y por qué una IA puede equivocarse permite reflexionar sobre la naturaleza del conocimiento, la construcción de los relatos históricos y el papel de los datos en la producción de información.

Por ello, la integración de la IA en educación debe ir acompañada de alfabetización digital, pensamiento crítico y supervisión humana. En el ámbito de las humanidades, estas herramientas pueden convertirse no solo en recursos didácticos, sino también en objetos de análisis que ayuden a comprender mejor cómo se produce, se transmite y se interpreta el conocimiento en la era digital.

El embudo estilístico y el bucle de la validación

Un último peligro relacionado con la IA, y al que se suele conceder menos importancia que a los sesgos y las alucionaciones,