1.3 Cambios socioeducativos asociados a la irrupción de la Inteligencia Artificial.
Hemos forzado a todas las tierras y todos los mares a ser accesibles a nuestra audacia, por todas partes hemos contribuido a fundar recuerdos imperecederos para bien o para mal
Discurso fúnebre de Pericles. Tucidides II 35-46.
Cuando nos referimos hoy a inteligencia artificial, en realidad estamos usando el término como paraguas para hablar de un conjunto específico de sistemas inteligentes, conocidos como aprendizaje automático (machine learning). El aprendizaje automático es una rama de la IA que se distingue por su capacidad para aprender patrones y tomar decisiones sin requerir una supervisión constante. Algunas personas sostienen que sería más pertinente referirnos específicamente al aprendizaje automático, en vez de referirnos a IA de manera genérica. Dentro del aprendizaje automático, se encuentra una técnica conocida como aprendizaje profundo (deep learning), que utiliza redes neuronales artificiales compuestas por múltiples capas de procesamiento para realizar tareas complejas.
El aprendizaje profundo, al emplear estas redes neuronales profundas, puede analizar grandes cantidades de datos y aprender representaciones de alto nivel, lo que le permite realizar tareas como reconocimiento de imágenes, procesamiento de
lenguaje natural y muchas otras aplicaciones. Una de las aplicaciones más destacadas del aprendizaje profundo es la IA generativa (IAGen). Este tipo de sistema inteligente tiene la capacidad de generar nuevos contenidos, como imágenes, música o texto. La IA-Gen utiliza modelos entrenados en grandes conjuntos de datos para aprender las características y patrones de los datos de entrada, y luego genera nuevas instancias que se asemejan a estos datos. La reciente expansión y popularización de tecnologías de IA generativa ha provocado múltiples discusiones a nivel global que nos plantean profundos desafíos en la educación, el aprendizaje y la práctica docente.
La irrupción de la Inteligencia Artificial (IA) en el tejido de la sociedad contemporánea trasciende el ámbito técnico y constituye una fuerza transformadora de carácter sistémico que altera profundamente las estructuras socioeducativas.
Este fenómeno no se limita, por tanto, a una integración de nuevas herramientas en el aula, sino que supone una posible reconfiguración de la naturaleza del aprendizaje, del vínculo pedagógico entre docentes y estudiantes, y del desarrollo de la personalidad y la identidad de nuestro alumnado. La transición hacia una dinámica de interacción triangular entre docentes, estudiantes y sistemas algorítmicos tiene el potencial de redefinir las instituciones educativas, la organización escolar y los derechos fundamentales en la era digital.
El desplazamiento del paradigma relacional en educación: la interacción triangular
Históricamente, el proceso educativo se ha fundamentado en una relación entre el profesor y el alumno, un vínculo intersubjetivo mediado por la palabra y la presencia física. Sin embargo, la capacidad de la IA para procesar volúmenes masivos de información, generar contenidos inéditos y realizar análisis predictivos ha introducido un tercer actor con capacidad de inferencia en nuestro sistema escolar. Esta nueva configuración se denomina interacción triangular, donde la IA no actúa únicamente como un recurso pasivo, sino como una entidad que asiste en la toma de decisiones, siempre supervisada por el docente, y puede condicionar la trayectoria del aprendizaje de forma personalizada y eficaz.
Una de las conclusiones más compartidas por los docentes que vivimos la pandemia es que la mediación tecnológica puede alterar la calidad del acompañamiento docente. Parece deseable que los docentes en la era de la IA evolucionen, sin abandonar sus competencias clásicas, hacia un rol de orquestador y facilitador de la autonomía del estudiante. Este cambio exige que los educadores posean, además de experiencia y sentido común, los conocimientos para discernir cuándo la intervención algorítmica potencia el desarrollo intelectual y cuándo, por el contrario, atrofia la capacidad de pensamiento independiente de su alumnado.
Este triángulo debe ser tomado como una imagen inspiradora; sin embargo, debemos plantearnos hasta qué punto el vértice ocupado por la IA tiene una entidad como sujeto o si esta es fruto de una ilusión generada por razones comerciales.
La humanización de la IA como estrategia de éxito empresarial.
La presencia de estas "intimidades artificiales" plantea desafíos éticos sin precedentes. Investigadores como Sherry Turkle advierten sobre los "botones darwinianos". Estos botones son comportamientos programados en sistemas de IA (como el contacto visual simulado o la validación afectiva mediante lenguaje natural) que activan respuestas evolutivas en los seres humanos, induciendo una sensación de reciprocidad emocional donde solo hay código. Son, en definitiva, una forma de hackear nuestro sistema de detección de humanidad.
En el contexto educativo, esto puede llevar a los niños y adolescentes a preferir la interacción con tutores artificiales que no los juzgan y se adaptan para darles la razón, lo que Turkle denomina "estar solos juntos". El riesgo socioeducativo radica en la desmaterialización del otro. Si nuestros estudiantes se acostumbran a una interacción social e intelectual sin fricciones, su capacidad para desarrollar empatía y, sobre todo, para gestionar el conflicto en comunidades reales podría verse reducida, con consecuencias nefastas para su desarrollo cognitivo y para su felicidad.
En esta tabla puede resumirse los desafíos y riesgos que debemos valorar y minimizar en esta transición.
|
|
|||
| Dimensión del Vínculo |
Modelo Tradicional docente-estudiante |
Modelo de IA (Triangular) Docente-estudiante-IA |
Implicación Socioeducativa |
| Fuente de Verdad |
El docente y el texto. |
El modelo probabilístico (IA). |
Riesgo de confundir verosimilitud con verdad. |
| Gestión del Error |
Espacio para la reflexión y el diálogo. |
Corrección instantánea algorítmica. |
Posible atrofia de la tolerancia a la frustración. |
| Intersubjetividad |
Encuentro humano directo. |
Mediación por perfiles de datos. |
Despersonalización y "hikikomoris" digitales. |
| Responsabilidad |
Atribuida al docente o institución. |
Difusa entre el código y el usuario. |
Necesidad de marcos regulatorios de alto riesgo. |
Se non è vero, è molto ben trovato. Giordano Bruno. De los Heróicos furores (1585)
Riesgo de confundir verosimilitud con verdad.
Del saber a la infodemia
La irrupción de la IA generativa ha provocado un cambio en la forma en que las sociedades acceden y validan el conocimiento. La distinción entre información (datos fragmentados y acumulables) y saber (conocimiento integrado y transformador) se vuelve crítica en el análisis socioeducativo.
Byung-Chul Han sostiene que vivimos en un régimen de "infocracia", donde el tsunami de datos y estímulos digitales desaloja la acción racional y la contemplación profunda. Los docentes necesitamos reflexión y deliberación para dirigir la parte que nos toca en este cambio; para ello, son necesarios intervalos de tiempo y diálogos colectivos entre nosotros.
El Filósofo en Meditación (Rembrandt, 1632). Dominio público
La caverna digital y la ilusión de sabiduría
La interacción predominante con chatbots y modelos de lenguaje puede compararse con una nueva "caverna digital". En esta alegoría, los estudiantes no acceden a la realidad ni al pensamiento crítico, sino a "sombras lingüísticas": proyecciones estadísticas de textos preexistentes que carecen de una conexión experiencial con el mundo real.
La externalización de la memoria y el pensamiento en una tecnología, esa delegación cognitiva, no produce conocimiento real, sino una ilusión de falso conocimiento, una apariencia de saber. El educando puede creerse sabio al obtener respuestas instantáneas del algoritmo, pero si carece del proceso mental necesario para llegar a esa conclusión, el resultado es una inmadurez intelectual disfrazada de eficiencia.
No debemos nunca olvidar que nuestro objetivo no es que el alumnado genere producciones elevadas, sino que sea capaz de ser competente e integre sus conocimientos. Para un docente de Educación Física, es preferible que un alumno corra 5 km a que haga 100 km en coche. La Inteligencia Artificial puede, en esta metáfora, ser una bici o un avión, pero todo depende de cómo la empleemos.
La Inteligencia Artificial puede ser para nuestro alumnado una herramienta que facilita la creación de trabajos, lo que puede falsear la evaluación de sus resultados de aprendizaje. Esto puede producir un desgaste de su percepción del esfuerzo y el tiempo necesarios para aprender. La educación basada en IA puede tender a eliminar la fricción cognitiva, promoviendo una cultura de la inmediatez que es incompatible con el desarrollo de habilidades de pensamiento de orden superior y la capacidad crítica para enfrentar la desinformación. Debemos, por tanto, encontrar soluciones a este reto que afronten esta dificultad sin obviarla.
Crítica a la "Aprendificación" y el Retorno a la Pedagogía
El filósofo Gert Biesta ofrece una perspectiva crítica esencial para comprender la situación socioeducativa actual, provocada por la irrupción de la Inteligencia Artificial combinada con la hipertrofia de la evaluación.
Biesta distingue entre la "aprendificación" (learnification), la reducción de la educación a una mera transacción de habilidades y datos de aprendizaje, y la educación genuina, que debe orientarse necesariamente hacia tres dimensiones: la cualificación, la socialización y la subjetivación
La amenaza del conductismo de máquina
La irrupción de la IA corre el riesgo de convertir la educación en un proceso de "optimización del aprendizaje" que ignora la dimensión de la subjetivación: la capacidad del individuo para existir como un sujeto autónomo y no como un objeto de intervenciones algorítmicas. Nuestros estudiantes no son mecanismos que median entre un estímulo y una respuesta.
Los sistemas de aprendizaje adaptativo, al predecir y satisfacer cada deseo o necesidad del diseñador y del estudiante de forma anticipada, pueden crear un "conductismo de máquina" (machine behaviourism), donde el sujeto pierde la oportunidad de enfrentar la realidad, la frustración y la alteridad.
La educación, según Biesta, es un "riesgo hermoso" porque no es predecible ni mecánica; intentar solo hacerla eficiente mediante IA podría destruir su esencia transformadora. Debemos, por tanto, mantener los pies en los valores de nuestros proyectos educativos mientras damos forma a este cambio de paradigma para que sea compatible con ellos.
Soberanía tecnológica de las comunidades educativas.
La irrupción de la Inteligencia Artificial en la educación no es un destino inevitable guiado por leyes naturales, sino el resultado de nuestras decisiones, que pueden ser sometidas a debate público y pedagógico. Los cambios socioeducativos analizados revelan una tensión entre el potencial emancipador de la tecnología (personalización del aprendizaje, eficiencia administrativa e inclusión del alumnado) y sus riesgos (despersonalización, desigualdad y atrofia cognitiva).
No parece deseable que la educación del futuro sea una mera facilitación del aprendizaje mediada por máquinas. Debe reafirmarse como un espacio de encuentro entre humanos, donde el docente actúa como mediador y guía de la razón.
La respuesta institucional debe ser la creación de un ecosistema que combine una regulación estricta del alto riesgo, como la iniciada por la Unión Europea, con un énfasis profundo en la alfabetización crítica de toda la comunidad educativa. Solo así podremos asegurar que la educación siga siendo un proceso donde el ser humano aprenda no solo a saber, sino a ser un adulto responsable en un mundo compartido.
----------------
DECIDIR SI SE AÑADEN ALGO DE LO DE ABAJO
DATIFICACIÓN
Vivir en sociedades en proceso de digitalización exige nuevas prácticas educativas, una reflexión ética, un pensamiento crítico, prácticas de concepción responsables y nuevas competencias, dadas las implicaciones para el mercado laboral, la empleabilidad y la participación cívica.
Además, es importante que los profesores actúen con la debida dili-
gencia cuando utilicen una nueva forma de tecnología, examinando
los términos de servicio, viendo qué cuestiones de protección y pri-
vacidad de datos están asociadas a las tecnologías que se espera que
utilicen los estudiantes, lo que algunos investigadores han descrito
como una “auditoría tecnoética” del software, aplicaciones y platafor-
mas en el aula (Adams y Groten 2024).
Asociado a estas competencias, está el saber cuándo no usar la tecno-
logía. En este sentido, para los docentes saber cuándo la tecnología
realmente aporta valor a un proceso educativo es fundamental. Por
ejemplo, ¿cuando la tecnología está permitiendo a las personas hacer
cosas que de otro modo no serían posibles? Por lo tanto, y al mismo
tiempo, darse cuenta de dónde la tecnología no aporta realmente
valor es una competencia esencia. CAP 2 LUDMILA
Las tecnologías de la IA desempeñan una función cada vez más importante en el procesamiento, la estructuración y el suministro de información; las cuestiones del periodismo automatizado y del suministro algorítmico de noticias y la moderación y la conservación de contenidos en los medios sociales y los buscadores son solo algunos ejemplos que plantean cuestiones relacionadas con el acceso a la información, la desinformación, la información errónea, el discurso de odio, la aparición de nuevas formas de narrativa social, la discriminación, la libertad de expresión, la privacidad y la alfabetización mediática e informacional, entre otras (UNESCO 2022. Recomendación sobre la ética de la inteligencia artificial).
Así pues, la integración de la inteligencia artificial (IA) en el sistema educativo no constituye simplemente una actualización de las herramientas pedagógicas, sino una transformación sistémica que exige una sólida base ética y un marco jurídico riguroso. En el contexto del Espacio Europeo de Educación, el despliegue de estas tecnologías se rige por un principio fundamental: la IA debe estar al servicio del ser humano y del bien común, respetando los derechos fundamentales y los valores democráticos.
La complejidad de este ecosistema se deriva de la dualidad de la IA en el aula: por un lado, ofrece oportunidades sin precedentes para la personalización del aprendizaje y la eficiencia administrativa; por otro, introduce riesgos significativos relacionados con la privacidad, el sesgo algorítmico y la autonomía del estudiante.
Webgrafía

