Skip to main content

1.3 Cambios socioeducativos asociados a la irrupción de la Inteligencia Artificial.

Hemos forzado a todas las tierras y todos los mares a ser accesibles a nuestra audacia, por todas partes hemos contribuido a fundar recuerdos imperecederos para bien o para mal

Discurso fúnebre de Pericles. Tucidides II 35-46.

La irrupción de la Inteligencia Artificial (IA) en el tejido de la sociedad contemporánea trasciende el ámbito técnico y constituye una fuerza transformadora de carácter sistémico que altera profundamente las estructuras socioeducativas.

Este fenómeno no se limita, por tanto, a una integración de nuevas herramientas en el aula, sino que supone una posible reconfiguración de la naturaleza del aprendizaje, del vínculo pedagógico entre docentes y estudiantes, y del desarrollo de la personalidad y la identidad de nuestro alumnado. La transición hacia una dinámica de interacción triangular entre docentes, estudiantes y sistemas algorítmicos tiene el potencial de redefinir las instituciones educativas, la organización escolar y los derechos fundamentales en la era digital.

El desplazamiento del paradigma relacional en educación: la interacción triangular

Históricamente, el proceso educativo se ha fundamentado en una relación entre el profesor y el alumno, un vínculo intersubjetivo mediado por la palabra y la presencia física. Sin embargo, la capacidad de la IA para procesar volúmenes masivos de información, generar contenidos inéditos y realizar análisis predictivos ha introducido un tercer actor con capacidad de inferencia en nuestro sistema escolar. Esta nueva configuración se denomina interacción triangular, donde la IA no actúa únicamente como un recurso pasivo, sino como una entidad que asiste en la toma de decisiones, siempre supervisada por el docente, y puede condicionar la trayectoria del aprendizaje de forma personalizada y eficaz.

Una de las conclusiones más compartidas por los docentes que vivimos la pandemia es que la mediación tecnológica puede alterar la calidad del acompañamiento docente. Parece deseable que los docentes en la era de la IA evolucionen, sin abandonar sus competencias clásicas, hacia un rol de orquestador y facilitador de la autonomía del estudiante. Este cambio exige que los educadores posean, además de experiencia y sentido común, los conocimientos para discernir cuándo la intervención algorítmica potencia el desarrollo intelectual y cuándo, por el contrario, atrofia la capacidad de pensamiento independiente de su alumnado.

Este triángulo debe ser tomado como una imagen inspiradora; sin embargo, debemos plantearnos hasta qué punto el vértice ocupado por la IA tiene una entidad como sujeto o si esta es fruto de una ilusión generada por razones comerciales.

La humanización de la IA como estrategia de éxito empresarial.

La presencia de estas "intimidades artificiales" plantea desafíos éticos sin precedentes. Investigadores como Sherry Turkle advierten sobre los "botones darwinianos". Estos botones son comportamientos programados en sistemas de IA (como el contacto visual simulado o la validación afectiva mediante lenguaje natural) que activan respuestas evolutivas en los seres humanos, induciendo una sensación de reciprocidad emocional donde solo hay código. Son, en definitiva, una forma de hackear nuestro sistema de detección de humanidad.

En el contexto educativo, esto puede llevar a los niños y adolescentes a preferir la interacción con tutores artificiales que no les juzgan y se adaptan para darles la razón, lo que Turkle denomina "estar solos juntos". El riesgo socioeducativo radica en la desmaterialización del otro. Si nuestros estudiantes se acostumbran a una interacción social e intelectual sin fricciones, su capacidad para desarrollar empatía y, sobre todo, para gestionar el conflicto en comunidades reales podría verse reducida, con consecuencias nefastas para su desarrollo cognitivo y para su felicidad.

En esta tabla puede resumirse los desafíos y riesgos que debemos valorar y minimizar en esta transición.

 

Dimensión del Vínculo 

Modelo Tradicional 

docente-estudiante

Modelo de IA (Triangular)

Docente-estudiante-IA

Implicación Socioeducativa
Fuente de Verdad

El docente y el texto.

El modelo probabilístico (IA).

Riesgo de confundir verosimilitud con verdad.

Gestión del Error

Espacio para la reflexión y el diálogo.

Corrección instantánea algorítmica.

Posible atrofia de la tolerancia a la frustración.

Intersubjetividad

Encuentro humano directo.

Mediación por perfiles de datos.

Despersonalización y "hikikomoris" digitales.

Responsabilidad

Atribuida al docente o institución.

Difusa entre el código y el usuario.

Necesidad de marcos regulatorios de alto riesgo.


 giordanobrunocampodeifiori-cropped-cbc8df.jpgSe non è vero, è molto ben trovato. Giordano Bruno. De los Heróicos furores (1585)

Riesgo de confundir verosimilitud con verdad.

Del saber a la infodemia

La irrupción de la IA generativa ha provocado un cambio en la forma en que las sociedades acceden y validan el conocimiento. La distinción entre información (datos fragmentados y acumulables) y saber (conocimiento integrado y transformador) se vuelve crítica en el análisis socioeducativo.

Byung-Chul Han sostiene que vivimos en un régimen de "infocracia", donde el tsunami de datos y estímulos digitales desaloja la acción racional y la contemplación profunda. Los docentes necesitamos reflexión y deliberación para dirigir la parte que nos toca en este cambio; para ello, son necesarios intervalos de tiempo y diálogos colectivos entre nosotros.

Rembrandt_-_The_Philosopher_in_Meditation.jpg

El Filósofo en Meditación (Rembrandt, 1632). Dominio público

La caverna digital y la ilusión de sabiduría

La interacción predominante con chatbots y modelos de lenguaje puede compararse con una nueva "caverna digital". En esta alegoría, los estudiantes no acceden a la realidad ni al pensamiento crítico, sino a "sombras lingüísticas": proyecciones estadísticas de textos preexistentes que carecen de una conexión experiencial con el mundo real.

La externalización de la memoria y el pensamiento en una tecnología, esa delegación cognitiva, no produce conocimiento real, sino una ilusión de falso conocimiento, una apariencia de saber. El educando puede creerse sabio al obtener respuestas instantáneas del algoritmo, pero si carece del proceso mental necesario para llegar a esa conclusión, el resultado es una inmadurez intelectual disfrazada de eficiencia.

No debemos nunca olvidar que nuestro objetivo no es que el alumnado genere producciones elevadas, sino que sea capaz de ser competente e integre sus conocimientos. Para un docente de Educación Física, es preferible que un alumno corra 5 km a que haga 100 km en coche. La Inteligencia Artificial puede, en esta metáfora, ser una bici o un avión, pero todo depende de cómo la empleemos.

La Inteligencia Artificial puede ser para nuestro alumnado una herramienta que facilita la creación de trabajos, lo que puede falsear la evaluación de sus resultados de aprendizaje. Esto puede producir un desgaste de su percepción del esfuerzo y el tiempo necesarios para aprender. La educación basada en IA puede tender a eliminar la fricción cognitiva, promoviendo una cultura de la inmediatez que es incompatible con el desarrollo de habilidades de pensamiento de orden superior y la capacidad crítica para enfrentar la desinformación. Debemos, por tanto, encontrar soluciones a este reto que afronten esta dificultad sin obviarla.

Crítica a la "Aprendificación" y el Retorno a la Pedagogía

El filósofo Gert Biesta ofrece una perspectiva crítica esencial para comprender la situación socioeducativa actual, provocada por la irrupción de la Inteligencia Artificial combinada con la hipertrofia de la evaluación.

Biesta distingue entre la "aprendificación" (learnification), la reducción de la educación a una mera transacción de habilidades y datos de aprendizaje, y la educación genuina, que debe orientarse necesariamente hacia tres dimensiones: la cualificación, la socialización y la subjetivación

La amenaza del conductismo de máquina

La irrupción de la IA corre el riesgo de convertir la educación en un proceso de "optimización del aprendizaje" que ignora la dimensión de la subjetivación: la capacidad del individuo para existir como un sujeto autónomo y no como un objeto de intervenciones algorítmicas. Nuestros estudiantes no son mecanismos que median entre un estímulo y una respuesta.

Los sistemas de aprendizaje adaptativo, al predecir y satisfacer cada deseo o necesidad del diseñador y del estudiante de forma anticipada, pueden crear un "conductismo de máquina" (machine behaviourism), donde el sujeto pierde la oportunidad de enfrentar la realidad, la frustración y la alteridad.

La educación, según Biesta, es un "riesgo hermoso" porque no es predecible ni mecánica; intentar solo hacerla eficiente mediante IA podría destruir su esencia transformadora. Debemos, por tanto, mantener los pies en los valores de nuestros proyectos educativos mientras damos forma a este cambio de paradigma para que sea compatible con ellos.

Soberanía tecnológica de las comunidades educativas.

La irrupción de la Inteligencia Artificial en la educación no es un destino inevitable guiado por leyes naturales, sino el resultado de nuestras decisiones, que pueden ser sometidas a debate público y pedagógico. Los cambios socioeducativos analizados revelan una tensión entre el potencial emancipador de la tecnología (personalización del aprendizaje, eficiencia administrativa e inclusión del alumnado) y sus riesgos (despersonalización, desigualdad y atrofia cognitiva).

No parece deseable que la educación del futuro sea una mera facilitación del aprendizaje mediada por máquinas. Debe reafirmarse como un espacio de encuentro entre humanos, donde el docente actúa como mediador y guía de la razón.

La respuesta institucional debe ser la creación de un ecosistema que combine una regulación estricta del alto riesgo, como la iniciada por la Unión Europea, con un énfasis profundo en la alfabetización crítica de toda la comunidad educativa. Solo así podremos asegurar que la educación siga siendo un proceso donde el ser humano aprenda no solo a saber, sino a ser un adulto responsable en un mundo compartido.

----------------

DECIDIR SI SE AÑADEN ALGO DE LO DE ABAJO

DATIFICACIÓN

Las tecnologías de la IA desempeñan una función cada vez más importante en el procesamiento, la estructuración y el suministro de información; las cuestiones del periodismo automatizado y del suministro algorítmico de noticias y la moderación y la conservación de contenidos en los medios sociales y los buscadores son solo algunos ejemplos que plantean cuestiones relacionadas con el acceso a la información, la desinformación, la información errónea, el discurso de odio, la aparición de nuevas formas de narrativa social, la discriminación, la libertad de expresión, la privacidad y la alfabetización mediática e informacional, entre otras (UNESCO 2022. Recomendación sobre la ética de la inteligencia artificial).

Así pues, la integración de la inteligencia artificial (IA) en el sistema educativo no constituye simplemente una actualización de las herramientas pedagógicas, sino una transformación sistémica que exige una sólida base ética y un marco jurídico riguroso. En el contexto del Espacio Europeo de Educación, el despliegue de estas tecnologías se rige por un principio fundamental: la IA debe estar al servicio del ser humano y del bien común, respetando los derechos fundamentales y los valores democráticos.

La complejidad de este ecosistema se deriva de la dualidad de la IA en el aula: por un lado, ofrece oportunidades sin precedentes para la personalización del aprendizaje y la eficiencia administrativa; por otro, introduce riesgos significativos relacionados con la privacidad, el sesgo algorítmico y la autonomía del estudiante.

Webgrafía