1.5 Conciencia de riesgos
Así el cobarde, el temerario, el valiente, lo son relativamente a los mismos objetos. Sólo que sus relaciones con estos objetos son diferentes, pecando los unos por exceso, los otros por defecto. El hombre de valor sabe mantenerse en un justo medio y obrar como lo exige la razón. Los temerarios corren con ardor en busca del peligro; después, cuando este llega, vuelven pié atrás las más veces. Los valientes, por el contrario, serenos antes, sostienen después resueltamente su puesto en la acción.
Aristóteles. Ética a Nicómaco. Libro 3 Capítulo VIII.
Todo cambio profundo en nuestras condiciones de vida nos despierta, a la vez, una mezcla de esperanza y temor. Explorar las posibilidades es una forma de proyectarnos al futuro empleando nuestra inteligencia. Es también una de las causas de la evolución de nuestro cerebro en la hominización. Esta capacidad, basada en el conocimiento, es la que nos permite elegir, siempre a través del polvo de la batalla, el punto de equilibrio entre los cambios deseables y los riesgos que queremos evitar e incluso, cuando la fortuna nos elige, nos permite estar atentos para esquivar sus golpes o agarrar el mechón de pelo antes de que se desvanezca.
Guido Reni (1637). La Fortuna. [Óleo sobre lienzo] Pinacoteca Vaticana, Public domain, via Wikimedia Commons
Ser conscientes de los riesgos es una necesidad para evitarlos y mitigar o reducir el daño que puede producir una transformación profunda como la llegada de la IA a la educación. El propósito de este apartado no es que la enumeración de estos riesgos nos paralice sino contribuir a generar una cultura compartida que nos permita vigilar juntos y elegir las mejores opciones en este viaje inevitable cuyo rumbo tenemos que decidir colectivamente.
La inteligencia artificial, como todos los desarrollos tecnológicos, no es un sistema neutral, conlleva cambios socioeconómicos y en la forma de comunicarnos cuya profundidad apenas podemos intuir. Estos cambios llevan aparejados unos riesgos que, en el campo de la educación, adquieren especial relevancia por afectar a menores, procesos formativos y derechos fundamentales. Veamos ahora brevemente una enumeración de riesgos.
Riesgos asociados a la introducción de la IA en los centros educativos
Riesgo de opacidad y pérdida de comprensión
Del mecanismo complejo de funcionamiento de la IA emerge el fenómeno de "caja negra", una realidad técnica donde la opacidad de los algoritmos de aprendizaje profundo nos impide trazar el camino lógico que une un dato de entrada con su resultado final. A diferencia de tecnologías educativas previas que eran transparentes en su funcionamiento mecánico, estos sistemas operan mediante inferencias y patrones complejos que, por ser emergentes, no siempre resultan legibles para el ojo humano. Si el docente utiliza estas herramientas sin comprender su naturaleza y algo de su funcionamiento interno, la interacción triangular (profesor-IA-alumno) corre el riesgo de desequilibrarse, desplazando la autoridad del saber desde el juicio pedagógico hacia una "razón" algorítmica cuyas fuentes y sesgos permanecen ocultos tras una interfaz amigable.
Esta pérdida de comprensión puede derivar en una erosión silenciosa de la agencia docente, transformando al profesor en lo que se denomina un "Centauro Inverso": un ejecutor físico de decisiones que han sido predefinidas por una estructura técnica invisible. Al delegar tareas como la evaluación formativa o el diseño curricular a sistemas cuyos criterios de funcionamiento se desconocen, el docente puede verse reducido a un supervisor legal de errores que no tiene capacidad de explicar. El peligro aquí no es una rebelión de las máquinas, sino que el profesorado, ante la eficiencia aparente del sistema, renuncie a su rol esencial como "orquestador" y "guía de la razón", aceptando los resultados de la IA simplemente porque parecen verosímiles.
Para mitigar este riesgo, la alfabetización en IA debe trascender el simple aprendizaje de instrucciones o prompts para centrarse en una formación crítica que desmitifique la tecnología. Es fundamental que las comunidades educativas desarrollen los conceptos necesarios para interpretar correctamente las salidas del sistema y entender cómo estas decisiones impactan en el alumnado. Solo a través de este conocimiento técnico y pedagógico el docente podrá mantener su "juicio profesional", validando y respaldando los resultados de la IA para asegurar que la tecnología actúe como un amplificador de la capacidad humana y no como una prótesis que atrofie nuestra autonomía moral y nuestra cognición.
Confundir rendimiento con aprendizaje real: ilusión de conocimiento
Corremos el riesgo de confundir el rendimiento de nuestro alumnado (la capacidad de entregar un producto final pulido) con el aprendizaje real (la integración profunda de conocimientos). Como advierte el informe de la OECD (2026), completar con éxito una tarea educativa usando IA generativa no equivale automáticamente a haber aprendido, ya que estas herramientas pueden actuar como un atajo de productividad en lugar de una herramienta pedagógica. Nuestro objetivo como educadores no es que el alumnado genere producciones elevadas, si no que desarrolle unas competencias reales y sea capaz de integrar lo aprendido de forma autónoma.
Esta discrepancia entre rendimiento y aprendizaje, entre lo que sabe y lo que puede hacer, da lugar a una ilusión de conocimiento, donde la IA mejora la calidad aparente del trabajo del alumno sin que exista una adquisición real de conocimiento. El informe de la OCDE también llama a esta ilusión "espejismo de falsa maestría" donde el uso de la IA genera resultados de alta calidad que ocultan debilidades subyacentes en las habilidades reales del usuario.
La inmediatez con la que la IA genera respuestas puede crear una ilusión de conocimiento tanto en el docente como en el alumno. Al obtener resultados instantáneos sin transitar el proceso mental necesario para llegar a ellos, corremos el riesgo de fomentar una inmadurez intelectual disfrazada de eficiencia.
Esta dinámica fomenta una "descarga cognitivo" (offloading), donde se eliminan la fricción cognitiva y el esfuerzo necesarios para aprender, llevando al alumnado a saltarse fases críticas como el diagnóstico, la evaluación y la iteración de sus propias ideas. Según el informe de la OCDE (2026), la veracidad de los resultados no garantiza el aprendizaje; los estudiantes pueden usar la IA como un atajo para completar tareas sin procesar cognitivamente la información.
Finalmente, este fenómeno se manifiesta claramente en el denominado efecto "muleta". Diversos estudios indican que, aunque los estudiantes que usan IA sin restricciones mejoran su rendimiento en las prácticas diarias, rinden significativamente peor en exámenes individuales posteriores donde no tienen acceso a la herramienta. Para un docente, esto equivale a la diferencia entre un alumno que recorre una distancia en coche y otro que la corre a pie: el primero llega antes, pero solo el segundo fortalece sus capacidades. Por ello, es vital que la IA se integre bajo un diseño intencional que priorice el desarrollo humano y la autonomía moral sobre la mera producción algorítmica.
Dependencia tecnológica y erosión de la autonomía docente
La automatización de decisiones en el aula nos sitúa en un dilema donde la eficiencia puede colisionar con la esencia misma de la filosofía de la educación. Al integrar sistemas que realizan análisis predictivos y asisten en la toma de decisiones, corremos el riesgo de que la IA deje de ser un recurso pasivo para convertirse en un actor que condicione la trayectoria del aprendizaje, invadiendo la autonomía docente. Este fenómeno puede derivar en un "conductismo de máquina", donde el juicio pedagógico humano es desplazado por una optimización algorítmica que ignora tanto la capacidad del individuo para existir como un sujeto autónomo como la existencia de actores contextuales y vitales no computables. Como docentes, nuestra labor no es solo aceptar resultados verosímiles, sino ejercer ese discernimiento crítico para distinguir cuándo una intervención potencia el desarrollo y cuándo atrofia el pensamiento independiente.
Esta deriva nos conduce de nuevo al peligro de la descarga cognitiva, en este caso de los docentes, un escenario donde el profesional renuncia a sus funciones fundamentales de diseño, evaluación y reflexión profunda. Si permitimos que la tecnología sea el "cerebro" que dicta la ruta y nosotros simplemente su ejecución física, caeríamos de nuevo en el modelo del "Centauro Inverso" propuesto por Cory Doctorow. En esta dinámica, el docente deja de ser un orquestador de la autonomía para convertirse en un operario de una tecnoestructura que le dicta qué hacer, perdiendo la oportunidad de enfrentar la alteridad y el "riesgo hermoso" que supone toda educación genuina. La IA debe funcionar como un "exoesqueleto" que amplifique nuestra labor, nunca como una prótesis que nos exima de la responsabilidad de pensar y sentir el aula.
Privacidad: La protección de la intimidad en la era del dato
La integración de la IA en las aulas no es solo una cuestión de eficacia pedagógica, sino también un desafío directo a la protección de los derechos digitales de toda la comunidad educativa, especialmente los del alumnado por ser menor de edad. Es importante que los docentes comprendamos los aspectos éticos y normativos necesarios para salvaguardar estos derechos. Introducir datos sensibles en sistemas externos sin las debidas garantías puede vulnerar la privacidad y la seguridad de los menores, tal como advierte la UNESCO al señalar que el suministro algorítmico de información plantea serias dudas sobre la confidencialidad y el manejo ético de los datos personales.
He aquí algunos ejemplos de datos privados de nuestro alumnado que no podemos subir a aplicaciones de inteligencia artificial online sin un permiso explícito de sus tutores legales específico para ese uso:
- Imágenes de nuestro alumnado para convertirlos en dibujos animados
- Examenes para ser corregidos
- Voces de nuestro alumnado para crear una canción o una IA que hable como ellos
Soberanía tecnológica frente al determinismo
La irrupción de la IA no debe entenderse como un destino inevitable dictado por leyes naturales, sino como el resultado de decisiones humanas que deben someterse al debate público y pedagógico. La búsqueda de una verdadera soberanía tecnológica permite a las comunidades educativas elegir herramientas que sean acordes a sus valores y proyectos educativos, en lugar de ser receptoras pasivas de tecnologías impuestas.
Existe una asimetría de poder entre los proveedores tecnológicos y las comunidades educativas que no podemos ignorar. No debemos olvidar que detrás de estos sistemas hay intereses comerciales que, como explicamos antes, buscan la "humanización de la IA" como estrategia de éxito, intentando que prefiramos la interacción con máquinas sin fricciones antes que el complejo y problemático diálogo humano. Frente a esto, el principio clave debe ser, de nuevo, la soberanía tecnológica: la IA debe integrarse de forma intencionada y reflexivo bajo el mando del juicio profesional y de los usuarios, es decir, bajo la tutela de las comunidades educativas. Estas tienen derecho a enfocar la integración tecnologica en sus aulas asegurando que la IA sirva para fortalecer las capacidades de la comunidad y no para crear dependencias de estructuras ajenas a los fines de la educación.
Reproducción y amplificación de desigualdades
La inteligencia artificial puede actuar no solo como un espejo, sino como un amplificador de las injusticias ya presentes en nuestro sistema social dado que el entrenamiento de los modelos de IA se fundamenta en conjuntos masivos de datos históricos que, lejos de ser neutrales, arrastran y consolidan los prejuicios de las sociedades que los generaron. Al procesar esta información, los algoritmos suelen reproducir y amplificar desigualdades por razón de género, origen socioeconómico o competencia lingüística. Como señala la UNESCO, estas tecnologías tienen el poder de "iluminar" ciertas realidades mientras dejan otras en la oscuridad, silenciando aquellas perspectivas que o bien no coinciden con los intereses de quienes programan el sistema o bien con la una estadística en la que no toda la diversidad de nuestra especie está representada, dada la desigualdad en la generación de datos.
En el entorno escolar, esto se traduce en un riesgo severo de etiquetado temprano del alumnado, el riesgo de la etiqueta algorítmica. Un ejemplo crítico es el uso de sistemas de predicción de abandono escolar que, al basarse en patrones históricos, pueden penalizar sistemáticamente a determinados perfiles.
Además, la integración de la inteligencia artificial en el aula introduce una paradoja de amplificación que puede ensanchar las brechas ya existentes entre el alumnado. Si entendemos la IA como un "exoesqueleto" que multiplica la cognición humana, debemos reconocer que este refuerzo no se distribuye de forma neutra. Aquellos estudiantes que ya poseen una cultura y unas competencias desarrolladas, quienes ya "saben pensar y expresarse", son precisamente quienes mejor saben "preguntar" a la máquina para obtener resultados complejos. Por el contrario, para el alumnado con mayores dificultades, la IA puede dejar de ser un amplificador para convertirse en una "muleta" que atrofia su pensamiento independiente y su capacidad de esfuerzo. Así, la tecnología que prometía personalizar el aprendizaje podría acabar beneficiando más a quien menos ayuda necesitaba, exacerbando la brecha cognitiva de partida.
A esta diferencia de capacidad se suma una nueva dimensión de la brecha digital: la divergencia económica entre el acceso a modelos de pago frente a los gratuitos. Mientras que las versiones más avanzadas ofrecen capacidades de inferencia y precisión inéditas , las versiones abiertas o gratuitas suelen ser más propensas a "alucinaciones" o sesgos culturales occidentales. Esta asimetría de recursos entre diferentes comunidades educativas puede amplificar las desigualdades tanto entre estudiantes como entre centros educativos . Si la calidad del tutor interactivo que acompaña al alumno depende de la suscripción que su familia o su escuela puedan costear, la educación puede dejar de ser un ascensor social para convertirse en un mercado de capacidades cognitivas asimétricas.
Frente a este riesgo de desigualdad sistémica asociado a la amplificación de las brechas cognitiva y económica, la respuesta no debe ser el rechazo tecnológico, sino una alfabetización crítica y una "pedagogía primero". El docente debe actuar como un "orquestador" que garantice que la IA se utilice para fortalecer las capacidades de todos, y no para "vampirizar" la atención o sustituir el proceso de aprendizaje real. Es fundamental que los marcos de competencia, como el AlLit, aseguren que todo el alumnado aprenda no solo a interactuar con la IA, sino a gestionarla y diseñarla de forma intencional. Por otra parte, debemos ser conscientes como sociedad de la necesidad de garantizar el acceso a herramientas de calidad a los estudiantes mas desfavorecidos.
Frente a los riesgos de despersonalización y desigualdad por el etiquetado algorítmico, la respuesta institucional debe combinar una regulación estricta, como la impulsada por la Unión Europea para sistemas de alto riesgo, con una alfabetización crítica profunda. Según el Reglamento de Inteligencia Artificial (AI Act), esta alfabetización debe dotar a los responsables y usuarios de los conceptos necesarios para tomar decisiones con conocimiento de causa, protegiendo la salud, la seguridad y los derechos fundamentales. Solo mediante este control democrático y una comprensión clara de los mecanismos técnicos, podremos asegurar que la educación siga siendo un espacio de encuentro humano gobernado por principios éticos y no por intereses comerciales opacos.
La vigilancia y la pérdida de libertad e intimidad.
La gestión de la privacidad y la dignidad en el entorno educativo digital representa uno de los retos más sensibles de este cambio de paradigma. La integración de la Inteligencia Artificial se fundamenta en el procesamiento de volúmenes masivos de información , lo que en el contexto escolar se traduce en el uso de datos educativos altamente sensibles que afectan directamente a los derechos digitales de las comunidades educativas. Existe un riesgo real de que estos sistemas operen bajo una lógica de "vampirización" de los datos de alumnos y docentes, convirtiendo la trayectoria de aprendizaje en una sucesión de huellas digitales procesadas por entidades cuyos intereses pueden no coincidir con los valores pedagógicos del centro.
Tenemos que plantearnos si esa inteligencia artificial esta trabajando para nosotros o somos nosotros los que estamos trabajando para ella (en realidad, para sus dueños). ¿Son sus servicios un señuelo a cambio de alimentarla con los datos de nuestro alumnado?
El seguimiento constante del comportamiento del alumnado, a menudo justificado bajo la premisa de la personalización, puede derivar en una normalización de prácticas de vigilancia que atenten contra la esencia misma de la educación en democracia. Al utilizar sistemas que analizan patrones y realizan análisis predictivos sobre la conducta de los estudiantes podemos determinar su futuro en una suerte de profecía de autocumplimiento.
La profecía que se autorrealiza es, al principio, una definición «falsa» de la situación, que despierta un nuevo comportamiento que hace que la falsa concepción original de la situación se vuelva «verdadera»
Robert K. Merton. Teoría social y estructura social,
Quizás basta con hacerse la pregunta de si todo lo técnicamente posible es pedagógicamente legítimo y deseable para tener inmediatamente una respuesta. El aula debe permanecer como un refugio frente a sistemas despersonalizadores , asegurando que la tecnología actúe como un apoyo para fortalecer las capacidades de las personas sin sustituir nunca la responsabilidad pedagógica del docente ni invadir la libertad futura de nuestro alumnado con una huella digital que puede convertirse en una losa digital.
Nuestros estudiantes deben ser conscientes de que la IA puede utilizar sus datos personales para personalizar anuncios o guiar sus elecciones seleccionando que información reciben y, por lo tanto, que imagen del mundo construyen.
Reducción a métricas.
La tendencia actual hacia la cuantificación del hecho educativo, impulsada por la integración de la IA, amenaza con reducir la complejidad del aprendizaje a simples métricas de rendimiento y productividad. Este fenómeno, que el filósofo Gert Biesta denomina "aprendificación" (learnification), simplifica la educación a una mera transacción de datos y habilidades medibles, ignorando dimensiones vitales como la socialización y la subjetivación del individuo. Al priorizar la "optimización del aprendizaje" a través de algoritmos, corremos el riesgo de tratar al alumnado como objetos de intervención estadística en lugar de seres humanos, buscando una eficiencia que puede erosionar la esencia del acto de educar.
En este escenario, los valores cualitativos que definen lo genuinamente humano —como la creatividad, la empatía y la capacidad de crear sentido— suelen quedar desplazados por no ser fácilmente computables. Mientras que la IA destaca en el procesamiento de información y la búsqueda de patrones, son las cualidades no computables las que deben permanecer en el centro del aula.
Finalmente, la reducción del aprendizaje a métricas puede desvirtuar la gestión pedagógica del error, convirtiéndolo en un dato negativo a optimizar en lugar de una experiencia necesaria para el aprendizaje profundo. Al intentar eliminar la "fricción cognitiva" para hacer el proceso más fluido e inmediato, la IA puede promover una cultura de la inmediatez incompatible con el desarrollo de habilidades de pensamiento de orden superior y la capacidad crítica. Por ello, resulta fundamental que el docente mantenga su juicio profesional para discernir cuándo la tecnología aporta valor real y cuándo simplemente está facilitando una producción superficial que falsea el crecimiento intelectual del estudiante.
Riesgos sociales para la convivencia democrática
La Inteligencia Artificial desempeña una función crítica en el procesamiento y suministro de información, pero su capacidad para generar contenidos inéditos, versímiles pero no necesariamente veraces, ha dado lugar a fenómenos como el periodismo automatizado y nuevas formas de narrativa social. Esta "infocracia" facilita la propagación de desinformación, información errónea y discursos de odio, que pueden manipular la opinión pública a una escala sin precedentes. El uso de deepfakes y contenidos generados algorítmicamente borra la frontera entre lo real y lo fabricado, obligándonos a habitar un espacio público donde las discusiones se vuelven puramente emocionales y la verdad se diluye en la verosimilitud estadística.
El poder del algoritmo no reside solo en lo que muestra, sino en lo que decide silenciar, puede ejercer de censor silencioso. Al dirigir la atención de la opinión pública a uno u otro tema puede desviar el debate público a temáticas divertidas pero insustanciales. Esto no supone una novedad en el espacio público pues podemos remontarnos a la anécdota de "el perro de Alcibiades" pero si es novedosa la automatización de la desinformación y la facilidad para generar material verosímil a bajo coste.
El Bosco (atribuido) (1502). El prestidigitador [Óleo sobre tabla] Museo Municipal de Saint-Germain-en-Laye.
https://es.wikipedia.org/wiki/El_Prestidigitador
El aula como baluarte democrático
La alfabetización en materia de IA es hoy un requisito para la convivencia democrática, puesto que es necesario a las personas de los conceptos necesarios para tomar decisiones con conocimiento de causa de forma que podamos proteger nuestros derechos fundamentales y decidir nuestro futuro. Debemos generar estrategias pedagógicas, como tertulias dialógicas y asambleas, que potencien la comunicación entre perspectivas diferentes para recomponer un espacio público invadido por el sesgo de confirmación. Solo así aseguraremos que la tecnología sea una herramienta de participación cívica y no un instrumento de control o exclusión.
La obediencia ciega del alumnado al algoritmo
El derecho al rechazo de las recomendaciones algorítmicas es la última línea de defensa de la autonomía del estudiante en un entorno cada vez más mediado por sistemas predictivos. Cuando un sistema de aprendizaje adaptativo anticipa cada necesidad del alumno, el estudiante puede tener la tentación o la costumbre de abandonar la toma decisiones propia de un sujeto para convertirse en un simple objeto de optimización algorítmica.
Para que esta capacidad de rechazo sea efectiva, la alfabetización en IA debe dotar a los estudiantes de los conceptos necesarios para tomar "decisiones con conocimiento de causa". No basta con permitir el "no" de forma teórica; es necesario fomentar un pensamiento crítico que permita supervisar y cuestionar la "razón" de la máquina, evitando que los alumnos dependan ciegamente de sus sugerencias.
La perdida de credibilidad del documento audiovisual: El filtro burbuja y el sesgo de confirmación
Los algoritmos de IA presentes en las redes sociales buscan potenciar el enganche, engagement, del usuario. Para ello amplifican la frecuencia con la que muestran la información con la que más interactuamos. Esta puede ser tanto aquella que nos confirma en nuestras creencias y valores (filtro burbuja) como la que más nos repele. Este filtro burbuja retroalimenta la polarización social estrechando el debate público aislando a los ciudadanos en cámaras de eco incomunicadas entre si.
Filtro burbuja es el término que define al estado de aislamiento intelectual en el que puede derivar el uso de algoritmos por parte de las páginas web para personalizar el resultado de las búsquedas. Dichos algoritmos predicen y seleccionan la información que al usuario le podría interesar basándose en su información personal, como puede ser su ubicación, historial de búsquedas o los enlaces en los que hizo clic en el pasado. Como resultado, los usuarios son apartados de información que no concuerda con sus puntos de vista y se mantienen aislados en burbujas ideológicas y culturales. El término fue acuñado por el ciberactivista Eli Pariser
Desde que existe la humanidad, la mentira siempre ha sido una herramienta al servicio de aquellos dispuestos a usarla. Sin embargo, con todas las reservas hacia una tesis tan general, los humanos hemos compartido criterios sobre lo que pueden ser pruebas o indicios de esta verdad. Por eso, antes de la era de la IA, una frase como "¿a quien vas a creer a tus ojos o a mi?", solo era comprensible desde el humor (o desde una interpretación radical de Descartes).
Con la llegada de la grabación de audio, de la fotografía y el video, las prueba audiovisuales han ocupado un espacio central en la validación de la información aportada a la opinión pública. La omnipresencia de cámaras ha convertido el mundo en un espacio sin apenas intimidad. Este fenómeno no ha sido solo debido al auge de la videovigilancia de los poderes públicos (y privados) sino también a una ciudadanía que, smartphones y redes sociales mediante, ejerce una omnisciencia distribuida.
La prueba audiovisual no ha estado nunca exenta de sospecha pero la gran novedad aportada por la llegada de la IA es que ahora todos tenemos acceso a generar una falsificación verosímil a bajo coste. Esto ya está generando un nuevo fenómeno. En un mar de falsificaciones, la mayoría de ellas humorísticas, vivimos una perdida de credibilidad de la prueba audiovisual.
Reel de @mortimer_heredia
En esta lluvia de falsificaciones, algunas, como esta, evidentemente inverosímiles, hemos dejado de creer en el audiovisual. Esto nos hace aún mas complicado de lo que ya era la recepción información que contradiga nuestras propias creencias y posicionamientos. Es, en definitiva un fenómeno que, unido al filtro burbuja antes comentado, nos encierra cada vez mas en la cámara de eco de nuestro sesgo de confirmación.
El sesgo de confirmación o sesgo confirmatorio es la tendencia a favorecer, buscar, interpretar y recordar la información que confirma las propias creencias o hipótesis, dando desproporcionadamente menos consideración a posibles alternativas. Se trata de un tipo de sesgo cognitivo y un error sistemático del razonamiento inductivo. Las personas muestran esta tendencia cuando reúnen o recuerdan información de manera selectiva, o cuando la interpretan sesgadamente. El efecto es más fuerte en publicaciones con contenido emocional y en creencias firmemente enraizadas. También tienden a interpretar que las pruebas ambiguas apoyan su postura existente.
Wikipedia. Sesgo de confirmación
En definitiva, la perspectiva no es muy halagüeña para el mantenimiento de un espacio de debate público, un Ágora, donde los ciudadanos podamos de forma racional y tolerante compartir y confrontar nuestras opiniones de una forma constructiva para un mejor funcionamiento de nuestra Pólis.
En la compleja tarea de formar ciudadanos críticos, tolerantes y responsables necesitamos, frente a los algoritmos que alimentan el sesgo de confirmación y la generación de "islas" en la comunicación, generar estrategias para potenciar la comunicación entre perspectivas diferentes, tender puentes para recomponer un espacio público invadido por las discusiones emocionales. Tertulias dialógicas y asambleas son las herramientas pedagógicas empleadas tradicionalmente para potenciar este diálogo entre nuestro alumnado.
Por tanto, desde la educación podemos, en la medida de nuestras posibilidades, fomentar el espíritu crítico, la tolerancia y el debate entre nuestro alumnado.Nuestras aulas pueden ser un refugio frente a un sistema de comunicación algorítmico, conductista y despersonalizador que trata a los usuarios, nosotros y nuestros alumnos, vampirizando nuestra atención sin compasión, empleando para ello todos los recursos y conocimientos disponibles.
La perdida de confianza entre profesor y alumno por las falsificaciones y los materiales hechos con Inteligencia Artificial
El informe de The Brookings Institution de 2026 subraya que existe un deterioro en la relación de confianza entre docente y estudiante. Esta crisis se debe a la facilidad con la que se pueden hacer, fraudulentamente, tanto las tareas escolares como el planteamiento de exámenes o de trabajos o materiales didácticos. Esta crisis se manifiesta por lo tanto, en un doble sentido:
En primer lugar, crece una desconfianza de los Docente hacia su alumnado debido a que los profesores nos enfrentamos a la sospecha de un uso de inteligencia artificial en las tareas escolares que minimiza el esfuerzo del alumnado. Tenemos que ser conscientes de que la existencia de este fenómeno no nos puede hacer abandonar todas las dimensiones de la evaluación, imprescindibles no solo para la calificación sino sobre todo para el aprendizaje.
Por otra parte, esta desconfianza tiene su espejo en el deterioro de la confianza del alumnado hacia los docentes. También los estudiantes pueden percibir un desinterés en los docentes que crean sus materiales y exámenes e incluso evalúan con Inteligencia artificial.
Cuando una revolución tecnológica como esta llega, es necesario crear nuevas costumbres, valores y reestructurar los pactos implícitos que forman parte del vínculo pedagógico. Tendremos que ser conscientes, todos los miembros de la comunidad educativa, de que quizás no es necesario crear un tabú respecto al uso de IA sino crear protocolos, usos y costumbres de cuándo y cómo usarla y cuando no, de forma que, desde unos valores compartidos, se acepte con naturalidad cuando proceda y se rechace con firmeza cuando no.
Imagen generada en imgflip.com



No comments to display
No comments to display