# 1.3 Cambios socioeducativos asociados a la irrupción de la Inteligencia Artificial.

> Hemos forzado a todas las tierras y todos los mares a ser accesibles a nuestra audacia, por todas partes hemos contribuido a fundar recuerdos imperecederos para bien o para mal
> 
> Discurso fúnebre de Pericles. Tucidides II 35-46.

La irrupción de la **Inteligencia Artificial (IA)** en el tejido de la sociedad contemporánea trasciende el ámbito técnico y constituye una **fuerza transformadora de carácter sistémico** que altera profundamente las estructuras socioeducativas.

Este fenómeno no se limita, por tanto, a una integración de nuevas herramientas en el aula, **sino que supone una posible reconfiguración de la naturaleza del aprendizaje**, del vínculo pedagógico entre docentes y estudiantes, y del desarrollo de la personalidad y la identidad de nuestro alumnado. La transición hacia una dinámica de **interacción triangular** entre docentes, estudiantes y sistemas algorítmicos tiene el potencial de redefinir las instituciones educativas, la organización escolar y los derechos fundamentales en la era digital.

##### El desplazamiento del paradigma relacional en educación: la interacción triangular

Históricamente, el proceso educativo se ha fundamentado en una relación entre el profesor y el alumno, un **vínculo intersubjetivo** mediado por la palabra y la presencia física. Sin embargo, la capacidad de la IA para procesar volúmenes masivos de información, generar contenidos inéditos y realizar análisis predictivos ha introducido un **tercer actor con capacidad de inferencia** en nuestro sistema escolar. Esta nueva configuración se denomina **interacción triangular**, donde la IA no actúa únicamente como un recurso pasivo, sino como una entidad que asiste en la toma de decisiones, siempre supervisada por el docente, y puede condicionar la trayectoria del aprendizaje de forma personalizada y eficaz.

Una de las conclusiones más compartidas por los docentes que vivimos la pandemia es que la mediación tecnológica puede alterar la **calidad del acompañamiento docente**. Parece deseable que los docentes en la era de la IA evolucionen, sin abandonar sus competencias clásicas, hacia un rol de **orquestador y facilitador de la autonomía** del estudiante. Este cambio exige que los educadores posean, además de experiencia y sentido común, los conocimientos para discernir cuándo la intervención algorítmica potencia el desarrollo intelectual y cuándo, por el contrario, **atrofia la capacidad de pensamiento independiente** de su alumnado.

Este triángulo debe ser tomado como una imagen inspiradora; sin embargo, debemos plantearnos hasta qué punto el vértice ocupado por la IA tiene una entidad como sujeto o si esta es fruto de una **ilusión generada por razones comerciales**.

<div _ngcontent-ng-c765718402="" class="container" id="bkmrk--2"><div _ngcontent-ng-c832895726="" aria-busy="false" aria-live="polite" class="markdown markdown-main-panel stronger enable-updated-hr-color preserve-whitespaces-in-response" dir="ltr" id="bkmrk--3" inline-copy-host=""></div></div>##### <span data-path-to-node="6,0">La humanización de la IA como estrategia de éxito empresarial.</span>

La presencia de estas **"intimidades artificiales"** plantea desafíos éticos sin precedentes. Investigadores como **Sherry Turkle** advierten sobre los **"botones darwinianos".** Estos botones son comportamientos programados en sistemas de IA (como el contacto visual simulado o la validación afectiva mediante lenguaje natural) que activan **respuestas evolutivas** en los seres humanos, induciendo una sensación de **reciprocidad emocional** donde solo hay código. Son, en definitiva, una forma de **hackear nuestro sistema de detección de humanidad**.

En el contexto educativo, esto puede llevar a los niños y adolescentes a preferir la interacción con **tutores artificiales que no les juzgan** y se adaptan para darles la razón, lo que Turkle denomina **"estar solos juntos"**. El riesgo socioeducativo radica en la **desmaterialización del otro**. Si nuestros estudiantes se acostumbran a una interacción social e intelectual **sin fricciones**, su capacidad para desarrollar **empatía** y, sobre todo, para **gestionar el conflicto** en comunidades reales podría verse reducida, con consecuencias nefastas para su desarrollo cognitivo y para su felicidad.

En esta tabla puede resumirse los desafíos y riesgos que debemos valorar y minimizar en esta transición.

<table data-path-to-node="7" id="bkmrk-%C2%A0-dimensi%C3%B3n-del-v%C3%ADnc"><tbody><tr><td></td></tr></tbody><thead><tr><td><span data-path-to-node="7,0,0,0">Dimensión del Vínculo </span></td><td><span data-path-to-node="7,0,1,0">Modelo Tradicional </span>

<span data-path-to-node="7,0,1,0">docente-estudiante</span>

</td><td><span data-path-to-node="7,0,2,0">Modelo de IA (Triangular)</span>

<span data-path-to-node="7,0,2,0">Docente-estudiante-IA</span>

</td><td><span data-path-to-node="7,0,3,0">Implicación Socioeducativa</span></td></tr></thead><tbody><tr><td><span data-path-to-node="7,1,0,0">**Fuente de Verdad**</span></td><td><span data-path-to-node="7,1,1,0,0">El docente y el texto.</span>

</td><td><span data-path-to-node="7,1,2,0,0">El modelo probabilístico (IA).</span>

</td><td><span data-path-to-node="7,1,3,0,0">Riesgo de confundir verosimilitud con verdad.</span>

</td></tr><tr><td><span data-path-to-node="7,2,0,0">**Gestión del Error**</span></td><td><span data-path-to-node="7,2,1,0,0">Espacio para la reflexión y el diálogo.</span>

</td><td><span data-path-to-node="7,2,2,0,0">Corrección instantánea algorítmica.</span>

</td><td><span data-path-to-node="7,2,3,0,0">Posible atrofia de la tolerancia a la frustración.</span>

</td></tr><tr><td><span data-path-to-node="7,3,0,0">**Intersubjetividad**</span></td><td><span data-path-to-node="7,3,1,0,0">Encuentro humano directo.</span>

</td><td><span data-path-to-node="7,3,2,0,0">Mediación por perfiles de datos.</span>

</td><td><span data-path-to-node="7,3,3,0,0">Despersonalización y "hikikomoris" digitales.</span>

</td></tr><tr><td><span data-path-to-node="7,4,0,0">**Responsabilidad**</span></td><td><span data-path-to-node="7,4,1,0,0">Atribuida al docente o institución.</span>

</td><td><span data-path-to-node="7,4,2,0,0">Difusa entre el código y el usuario.</span>

</td><td><span data-path-to-node="7,4,3,0,0">Necesidad de marcos regulatorios de alto riesgo.</span>

</td></tr></tbody></table>

> [![giordanobrunocampodeifiori-cropped-cbc8df.jpg](https://libros.catedu.es/uploads/images/gallery/2026-03/scaled-1680-/giordanobrunocampodeifiori-cropped-cbc8df.jpg)](https://libros.catedu.es/uploads/images/gallery/2026-03/giordanobrunocampodeifiori-cropped-cbc8df.jpg)Se non è vero, è molto ben trovato. Giordano Bruno. *De los Heróicos furores* (1585)
> 
> <span data-path-to-node="7,1,3,0,0">Riesgo de confundir verosimilitud con verdad.</span>

##### Del saber a la infodemia

La irrupción de la **IA generativa** ha provocado un cambio en la forma en que las sociedades acceden y validan el conocimiento. La distinción entre **información** (datos fragmentados y acumulables) y **saber** (conocimiento integrado y transformador) se vuelve crítica en el análisis socioeducativo.

**Byung-Chul Han** sostiene que vivimos en un régimen de **"infocracia"**, donde el tsunami de datos y estímulos digitales desaloja la **acción racional** y la **contemplación profunda**. Los docentes necesitamos reflexión y deliberación para dirigir la parte que nos toca en este cambio; para ello, son necesarios **intervalos de tiempo** y **diálogos colectivos** entre nosotros.

[![Rembrandt_-_The_Philosopher_in_Meditation.jpg](https://libros.catedu.es/uploads/images/gallery/2026-03/scaled-1680-/rembrandt-the-philosopher-in-meditation.jpg)](https://libros.catedu.es/uploads/images/gallery/2026-03/rembrandt-the-philosopher-in-meditation.jpg)

Rembrandt. (1632). El Filósofo en Meditación. \[Óleo sobre tabla de roble\] Museo del Louvre. [https://es.wikipedia.org/wiki/Fil%C3%B3sofo\_en\_meditaci%C3%B3n](https://es.wikipedia.org/wiki/Fil%C3%B3sofo_en_meditaci%C3%B3n)

##### La caverna digital y la ilusión de sabiduría

La interacción predominante con chatbots y modelos de lenguaje puede compararse con una nueva **"caverna digital"**. En esta alegoría, los estudiantes no acceden a la realidad ni al pensamiento crítico, sino a **"sombras lingüísticas"**: proyecciones estadísticas de textos preexistentes que carecen de una conexión experiencial con el mundo real.

La **externalización de la memoria** y el pensamiento en una tecnología, esa **delegación cognitiva,** no produce conocimiento real, sino una ilusión de falso conocimiento, una **apariencia de saber**. El educando puede creerse sabio al obtener respuestas instantáneas del algoritmo, pero si carece del proceso mental necesario para llegar a esa conclusión, el resultado es una **inmadurez intelectual disfrazada de eficiencia**.

No debemos nunca olvidar que nuestro objetivo no es que el alumnado genere producciones elevadas, **sino que sea capaz de ser competente e integre sus conocimientos**. Para un docente de Educación Física, es preferible que un alumno corra 5 km a que haga 100 km en coche. La Inteligencia Artificial puede, en esta metáfora, ser una bici o un avión, pero todo depende de **cómo la empleemos**.

La Inteligencia Artificial puede ser para nuestro alumnado una herramienta que facilita la creación de trabajos, lo que puede **falsear la evaluación** de sus resultados de aprendizaje. Esto puede producir un desgaste de su **percepción del esfuerzo** y el tiempo necesarios para aprender. La educación basada en IA puede tender a eliminar la **fricción cognitiva**, promoviendo una **cultura de la inmediatez** que es incompatible con el desarrollo de habilidades de pensamiento de orden superior y la capacidad crítica para enfrentar la desinformación. Debemos, por tanto, encontrar soluciones a este reto que afronten esta dificultad sin obviarla.


##### Crítica a la "Aprendificación" y el Retorno a la Pedagogía

El filósofo **Gert Biesta** ofrece una perspectiva crítica esencial para comprender la situación socioeducativa actual, provocada por la irrupción de la **Inteligencia Artificial** combinada con la **hipertrofia de la evaluación**.

Biesta distingue entre la **"aprendificación" (learnification),** la reducción de la educación a una mera transacción de habilidades y datos de aprendizaje, y la **educación genuina**, que debe orientarse necesariamente hacia tres dimensiones: la **cualificación**, la **socialización** y la **subjetivación**

##### La amenaza del conductismo de máquina

La irrupción de la IA corre el riesgo de convertir la educación en un proceso de **"optimización del aprendizaje"** que ignora la dimensión de la **subjetivación**: la capacidad del individuo para existir como un **sujeto autónomo** y no como un objeto de intervenciones algorítmicas. Nuestros estudiantes no son mecanismos que median entre un estímulo y una respuesta.

Los sistemas de **aprendizaje adaptativo**, al predecir y satisfacer cada deseo o necesidad del diseñador y del estudiante de forma anticipada, pueden crear un **"conductismo de máquina" (*machine behaviourism*)**, donde el sujeto pierde la oportunidad de enfrentar la realidad, la frustración y la **alteridad**.

La educación, según **Biesta**, es un **"riesgo hermoso"** porque no es predecible ni mecánica; intentar solo hacerla eficiente mediante IA podría destruir su **esencia transformadora**. Debemos, por tanto, mantener los pies en los valores de nuestros proyectos educativos mientras damos forma a este cambio de paradigma para que sea compatible con ellos.

##### <span data-path-to-node="43,0">Soberanía tecnológica de las comunidades educativas.</span>

La irrupción de la Inteligencia Artificial en la educación no es un destino inevitable guiado por leyes naturales, sino el resultado de nuestras **decisiones**, que pueden ser sometidas a **debate público y pedagógico**. Los cambios socioeducativos analizados revelan una tensión entre el **potencial emancipador** de la tecnología (personalización del aprendizaje, eficiencia administrativa e inclusión del alumnado) y sus **riesgos** (despersonalización, desigualdad y atrofia cognitiva).

No parece deseable que la educación del futuro sea una mera facilitación del aprendizaje mediada por máquinas. Debe reafirmarse como un **espacio de encuentro entre humanos**, donde el docente actúa como **mediador y guía de la razón**.

La respuesta institucional debe ser la creación de un ecosistema que combine una **regulación estricta del alto riesgo,** como la iniciada por la Unión Europea, con un énfasis profundo en la **alfabetización crítica** de toda la comunidad educativa. Solo así podremos asegurar que la educación siga siendo un proceso donde el ser humano aprenda no solo a saber, **sino a ser** un adulto responsable en un mundo compartido.

<div _ngcontent-ng-c1687679291="" class="paragraph normal ng-star-inserted" data-start-index="2552" id="bkmrk-https%3A%2F%2Fwww.research"></div><div _ngcontent-ng-c1687679291="" class="paragraph normal ng-star-inserted" data-start-index="2552" id="bkmrk--6"></div>