Skip to main content

1.3 Cambios socioeducativos asociados a la irrupción de la Inteligencia Artificial.

Hemos forzado a todas las tierras y todos los mares a ser accesibles a nuestra audacia, por todas partes hemos contribuido a fundar recuerdos imperecederos para bien o para mal

Discurso fúnebre de Pericles. Tucidides II 35-46.

La irrupción de la Inteligencia Artificial en el tejido de la sociedad contemporánea trasciende el ámbito técnico y constituye una fuerza transformadora, de carácter sistémico, que altera profundamente las estructuras socioeducativas.

Este fenómeno no se limita, por tanto, a una integración de nuevas herramientas en el aula, si no que supone una posible reconfiguración de la naturaleza del aprendizaje, del vínculo pedagógico entre docentes y estudiantes y del desarrollo de la personalidad y la identidad de nuestro alumnado. La transición hacia una dinámica de interacción triangular entre docentes, estudiantes y sistemas algorítmicos tiene el potencial de redefinir las instituciones educativas, la organización escolar y los derechos fundamentales en la era digital. 

El desplazamiento del paradigma relacional en educación: La interacción triangular


Históricamente, el proceso educativo se ha fundamentado en una relación entre el profesor y el alumno, un vínculo intersubjetivo mediado por la palabra y la presencia física. Sin embargo, la capacidad de la IA para procesar volúmenes masivos de información, generar contenidos inéditos y realizar análisis predictivos ha introducido un tercer actor con capacidad de inferencia en nuestro sistema escolar. Esta nueva configuración se denomina interacción triangular, donde la IA no actúa únicamente como un recurso pasivo, sino como una entidad que asiste en la toma de decisiones, siempre supervisada por el docente, y puede condicionar la trayectoria del aprendizaje de forma personalizada y eficaz.

Una de las conclusiones mas compartidas por los docentes que vivmos la pandemia, es que la mediación tecnológica puede alterar la calidad del acompañamiento docente. Parece deseable para los docentes en la era de la IA evolucionar, sin abandonar muchas de nuestras competencias clásicas, hacia un rol de orquestador y facilitador de la autonomía del estudiante. Este cambio exige que los educadores posea, además de la experiencia y el sentido común, los conocimientos y la formación para discernir cuándo la intervención algorítmica potencia el desarrollo intelectual y cuándo, por el contrario, atrofia la capacidad de pensamiento independiente su alumnado.

Este triángulo debe ser tomado como una imagen inspiradora, sin embargo, debemos plantearnos hasta que punto el vértice ocupado por la IA tiene una entidad como sujeto o esta entidad es fruto de una ilusión generada por razones comerciales.

La humanización de la IA como estrategia de éxito empresarial.

Las empresas de desarrollo están inmersas en la búsqueda de una comunicación natural y humanizada entre las diferentes aplicaciones de inteligencia artificial y las personas. Esté "disfraz algorítmico" permite a los productos obtener una mayor aceptación entre los usuarios y se emplea toda el conocimiento científico disponible para hacerlo eficaz e invisible.

La presencia de estas "intimidades artificiales" plantea desafíos éticos sin precedentes. Investigadores como Sherry Turkle advierten sobre los "botones darwinianos". Estos "botones" son comportamientos programados en sistemas de IA (como el contacto visual simulado o la validación afectiva mediante lenguaje natural) que activan respuestas evolutivas en los seres humanos, induciendo una sensación de reciprocidad emocional donde solo hay código. Son, en definitiva, una forma de Hackear nuestro sistema de detectar humanidad.

En el contexto educativo, esto puede llevar a los niños y adolescentes a preferir la interacción con los tutores artificiales que no los juzgan y se adaptan para darles la razón, lo que Turkle denomina "estar solos juntos". El riesgo socioeducativo radica en la desmaterialización del otro. Si nuestros estudiantes se acostumbran a una interacción social e intelectual sin fricciones, su capacidad para desarrollar empatía y, sobre todo, para gestionar el conflicto en comunidades reales podría verse reducida, con consecuencias nefastas para su desarrollo cognitivo y para su felicidad.

En esta tabla puede resumirse los desafíos y riesgos que debemos valorar y minimizar en esta transición.

 

Dimensión del Vínculo 

Modelo Tradicional 

docente-estudiante

Modelo de IA (Triangular)

Docente-estudiante-IA

Implicación Socioeducativa
Fuente de Verdad

El docente y el texto.

El modelo probabilístico (IA).

Riesgo de confundir verosimilitud con verdad.

Gestión del Error

Espacio para la reflexión y el diálogo.

Corrección instantánea algorítmica.

Posible atrofia de la tolerancia a la frustración.

Intersubjetividad

Encuentro humano directo.

Mediación por perfiles de datos.

Despersonalización y "hikikomoris" digitales.

Responsabilidad

Atribuida al docente o institución.

Difusa entre el código y el usuario.

Necesidad de marcos regulatorios de alto riesgo.


image.png giordanobrunocampodeifiori-cropped-cbc8df.jpgSe non è vero, è molto ben trovato. Giordano Bruno. De los Heróicos furores (1585)

Riesgo de confundir verosimilitud con verdad.

Del saber a la infodemia

La irrupción de la IA generativa ha provocado un cambio en la forma en que las sociedades acceden y validan el conocimiento. La distinción entre información (datos fragmentados y acumulables) y saber (conocimiento integrado y transformador) se vuelve crítica en el análisis socioeducativo. Byung-Chul Han sostiene que vivimos en un régimen de "infocracia" donde el tsunami de datos y estímulos digitales desaloja la acción racional y la contemplación profunda. Los docentes necesitamos reflexión y deliberación para dirigir la parte que nos toca en este cambio y para ello son necesarios intervalos de tiempo y diálogos entre nosotros.

La caverna digital y la ilusión de sabiduría

La interacción predominante con chatbots y modelos de lenguaje puede compararse con una nueva "caverna digital". En esta alegoría, los estudiantes no acceden a la realidad ni al pensamiento crítico, sino a "sombras lingüísticas": proyecciones estadísticas de textos preexistentes que carecen de una conexión experiencial con el mundo real. La externalización de la memoria y el pensamiento en una tecnología, esa delegación cognitiva, no produce conocimiento real, sino una ilusión de falso conocimiento una apariencia de saber. El educando puede creerse sabio al obtener respuestas instantáneas del algoritmo, pero si carece del proceso mental necesario para llegar a esa conclusión, el resultado es una inmadurez intelectual disfrazada de eficiencia. No debemos nunca olvidar que nuestro objetivo no es que el alumnado genere producciones elevadas si no que sea capaz de ser competente e integre sus conocimientos. Para un docente de educación física, es preferible que un alumno corra 5 km que que haga 100km en coche. La Inteligencia Artificial puede, en esta metáfora, ser una bici o un avión, pero todo depende de como la empleemos.

La Inteligencia Artificial puede ser para nuestro alumnado una herramienta que facilita la creación de trabajos lo que puede falsear la evaluación de sus resultados de aprendizaje. Esto puede producir un desgaste de su percepción del esfuerzo y el tiempo  necesarios para aprender. La educación basada en IA puede tender a eliminar la fricción cognitiva, promoviendo una cultura de la inmediatez que es incompatible con el desarrollo de habilidades de pensamiento de orden superior y la capacidad crítica para enfrentar la desinformación. Debemos, por tanto, encontrar soluciones a este reto que afronten esta dificultad sin obviarla.

 

 

----------------

Vivir en sociedades en proceso de digitalización exige nuevas prácticas educativas, una reflexión ética, un pensamiento crítico, prácticas de concepción responsables y nuevas competencias, dadas las implicaciones para el mercado laboral, la empleabilidad y la participación cívica.

Además, es importante que los profesores actúen con la debida dili-

gencia cuando utilicen una nueva forma de tecnología, examinando

los términos de servicio, viendo qué cuestiones de protección y pri-

vacidad de datos están asociadas a las tecnologías que se espera que

utilicen los estudiantes, lo que algunos investigadores han descrito

como una “auditoría tecnoética” del software, aplicaciones y platafor-

mas en el aula (Adams y Groten 2024).

Asociado a estas competencias, está el saber cuándo no usar la tecno-

logía. En este sentido, para los docentes saber cuándo la tecnología

realmente aporta valor a un proceso educativo es fundamental. Por

ejemplo, ¿cuando la tecnología está permitiendo a las personas hacer

cosas que de otro modo no serían posibles? Por lo tanto, y al mismo

tiempo, darse cuenta de dónde la tecnología no aporta realmente

valor es una competencia esencia. CAP 2 LUDMILA

Las tecnologías de la IA desempeñan una función cada vez más importante en el procesamiento, la estructuración y el suministro de información; las cuestiones del periodismo automatizado y del suministro algorítmico de noticias y la moderación y la conservación de contenidos en los medios sociales y los buscadores son solo algunos ejemplos que plantean cuestiones relacionadas con el acceso a la información, la desinformación, la información errónea, el discurso de odio, la aparición de nuevas formas de narrativa social, la discriminación, la libertad de expresión, la privacidad y la alfabetización mediática e informacional, entre otras (UNESCO 2022. Recomendación sobre la ética de la inteligencia artificial).

Así pues, la integración de la inteligencia artificial (IA) en el sistema educativo no constituye simplemente una actualización de las herramientas pedagógicas, sino una transformación sistémica que exige una sólida base ética y un marco jurídico riguroso. En el contexto del Espacio Europeo de Educación, el despliegue de estas tecnologías se rige por un principio fundamental: la IA debe estar al servicio del ser humano y del bien común, respetando los derechos fundamentales y los valores democráticos.

La complejidad de este ecosistema se deriva de la dualidad de la IA en el aula: por un lado, ofrece oportunidades sin precedentes para la personalización del aprendizaje y la eficiencia administrativa; por otro, introduce riesgos significativos relacionados con la privacidad, el sesgo algorítmico y la autonomía del estudiante.

Webgrafía