2. Aprendizaje automático y Modelos de Lenguaje 2.1 Una historia de la IA Generativa Los orígenes, el perceptrón La idea de que las máquinas puedan aprender no es completamente nueva. Ya en los años 40 y 50 algunos científicos comenzaron a explorar esta posibilidad. Uno de los primeros modelos fue el perceptrón , desarrollado en 1957 por el psicólogo y científico Frank Rosenblatt. El perceptrón estaba inspirado en el funcionamiento de las neuronas del cerebro y trataba de aprender a clasificar información a partir de ejemplos. Esquema de funcionamientro del perceptrón según Wikipedia Curiosamente, esta idea tenía una inspiración biológica mucho más antigua. A finales del siglo XIX, el científico español  Santiago Ramón y Cajal había descrito el funcionamiento de las neuronas y las conexiones entre ellas. Décadas después, muchos investigadores en inteligencia artificial utilizaron estos descubrimientos para intentar construir modelos computacionales que imitaran ese tipo de conexiones. Durante varios años el avance fue lento, porque los ordenadores no tenían suficiente potencia de cálculo ni existían grandes conjuntos de datos para entrenar los modelos. Sin embargo, a partir de la década de 2010 se produjo un gran salto gracias al aumento de la capacidad computacional y al desarrollo de nuevas arquitecturas de redes neuronales. De los primeros modelos al auge de la IA generativa Para entender por qué hoy hablamos de modelos de lenguaje, IA generativa o agentes inteligentes , es útil mirar un poco atrás y recorrer brevemente la historia del aprendizaje automático. Lo interesante es que muchas de las ideas fundamentales no son nuevas ; lo que ha cambiado radicalmente en los últimos años es la combinación de tres factores clave: datos masivos, potencia de cálculo y nuevos algoritmos . Uno de los primeros hitos importantes fue el perceptrón , desarrollado a finales de los años cincuenta por Frank Rosenblatt . El perceptrón era un modelo matemático inspirado en las neuronas del cerebro que podía aprender a clasificar patrones simples ajustando pesos a partir de ejemplos. Fue uno de los primeros sistemas capaces de aprender directamente de los datos , lo que sentó las bases de las redes neuronales modernas. Sin embargo, estos primeros modelos tenían limitaciones importantes. Un perceptrón simple solo podía aprender relaciones relativamente sencillas entre variables. Durante décadas, el desarrollo de las redes neuronales avanzó lentamente, en parte porque no existía suficiente capacidad de cálculo ni grandes conjuntos de datos para entrenar modelos más complejos. Durante los años setenta y parte de los ochenta incluso se produjo lo que se conoce como un “invierno de la inteligencia artificial” , un periodo de escepticismo y menor financiación en la investigación. A finales de los años ochenta y principios de los noventa, investigadores como Yann LeCun , Geoffrey Hinton y Yoshua Bengio empezaron a demostrar que las redes neuronales podían ser mucho más potentes de lo que se pensaba. LeCun, por ejemplo, desarrolló redes neuronales convolucionales capaces de reconocer dígitos escritos a mano, una tecnología que llegó a utilizarse para leer cheques bancarios y códigos postales en sistemas reales. En paralelo, el mundo comenzó a ver demostraciones públicas del potencial de la inteligencia artificial. Uno de los momentos más simbólicos ocurrió en 1997 , cuando el sistema Deep Blue de IBM derrotó al campeón mundial de ajedrez Garry Kasparov. Este evento no implicaba todavía aprendizaje profundo como el que conocemos hoy, pero mostró hasta qué punto los sistemas informáticos podían superar a los humanos en tareas complejas bien definidas. A partir de la década de 2010 se produjo un cambio decisivo. La combinación de grandes cantidades de datos, GPUs capaces de entrenar redes muy grandes y nuevos métodos de aprendizaje profundo permitió que las redes neuronales alcanzaran niveles de rendimiento nunca vistos. Este periodo es el que conocemos como la revolución del deep learning . Uno de los ejemplos más conocidos llegó en 2016 con AlphaGo , desarrollado por DeepMind, que derrotó a campeones humanos en el complejo juego del Go, considerado durante décadas demasiado difícil para las máquinas. Este tipo de sistemas combinaba aprendizaje profundo, aprendizaje por refuerzo y grandes cantidades de datos para desarrollar estrategias propias. Otro hito muy relevante ocurrió en el ámbito científico con AlphaFold , también de DeepMind. Este sistema logró predecir la estructura tridimensional de proteínas, un problema que llevaba más de cincuenta años siendo uno de los grandes desafíos de la biología. En 2020 sus predicciones alcanzaron una precisión comparable a métodos experimentales de laboratorio, lo que supuso un avance enorme para la investigación biomédica. Mientras tanto, en el campo del lenguaje natural se produjo otro salto fundamental con la aparición de los transformers , una arquitectura de redes neuronales presentada en 2017 que permitió procesar grandes secuencias de texto de forma mucho más eficiente que los modelos anteriores. Los transformers sustituyeron progresivamente a las redes recurrentes que se utilizaban para modelar secuencias y permitieron entrenar modelos cada vez más grandes capaces de comprender y generar lenguaje con gran coherencia. Esta arquitectura es la base de los grandes modelos de lenguaje actuales (LLM) y de muchas aplicaciones de IA generativa. Gracias a los transformers, a la disponibilidad de enormes colecciones de texto y a infraestructuras de cálculo masivo, hoy es posible entrenar modelos capaces de generar texto, imágenes, código o incluso música. Mirando esta evolución con perspectiva, podemos ver que la situación actual no es el resultado de un único descubrimiento. Es más bien la convergencia de ideas que llevan décadas desarrollándose : desde el perceptrón de Rosenblatt hasta las redes profundas modernas, pasando por el trabajo de investigadores como LeCun, Bengio o Hinton. En cierto modo, la inteligencia artificial actual es el resultado de una historia larga donde las ideas estaban ahí desde hace mucho tiempo , pero la tecnología, los datos y los algoritmos necesarios para explotarlas plenamente no habían llegado todavía . Solo cuando estos tres elementos se han combinado —datos masivos, potencia de cálculo y arquitecturas como los transformers — hemos podido alcanzar el punto en el que se encuentra hoy la IA generativa. El estado actual de la inteligencia artificial: una visión de conjunto Hoy en día, el campo de la Inteligencia Artificial (IA) puede entenderse como un sistema de capas o niveles que se apoyan unos sobre otros. En la parte más amplia se encuentra la IA como disciplina científica , cuyo objetivo general es desarrollar sistemas capaces de realizar tareas que normalmente asociamos con la inteligencia humana, como aprender, razonar o comprender lenguaje. Dentro de ese gran campo se encuentra el Machine Learning (ML) . En lugar de programar reglas manualmente, el Machine Learning permite que las máquinas aprendan patrones a partir de datos . Esto ha permitido construir sistemas capaces de clasificar información, hacer predicciones o detectar relaciones entre variables. A su vez, dentro del Machine Learning encontramos una subárea muy importante: el Deep Learning (DL) . Este enfoque utiliza redes neuronales con múltiples capas capaces de descubrir automáticamente patrones complejos en los datos, lo que ha permitido grandes avances en áreas como el reconocimiento de imágenes, voz o texto. Uno de los campos donde el Deep Learning ha tenido mayor impacto es el Procesamiento del Lenguaje Natural (NLP) . Gracias a estas técnicas, los sistemas informáticos pueden analizar, interpretar y generar lenguaje humano. Durante décadas, los modelos de lenguaje fueron relativamente simples, basados en estadísticas de palabras. Sin embargo, los avances recientes han permitido construir modelos mucho más complejos. El gran salto llegó con la arquitectura transformer , presentada en 2017, que permitió procesar grandes secuencias de texto de forma más eficiente y capturar relaciones complejas entre palabras. Esta arquitectura se convirtió en la base de muchos sistemas modernos de procesamiento del lenguaje. Gracias a estos avances surgieron los Large Language Models (LLM) . Estos modelos se entrenan con enormes cantidades de texto y aprenden a predecir la siguiente palabra en una secuencia , lo que les permite generar textos coherentes, traducir idiomas o responder preguntas complejas. A partir de los LLM han aparecido múltiples aplicaciones prácticas. Una de las más visibles son los chatbots conversacionales , capaces de interactuar con los usuarios en lenguaje natural y asistir en tareas como la generación de texto, la explicación de conceptos o la resolución de problemas. En una etapa más reciente han surgido los llamados agentes de inteligencia artificial , que representan un paso adicional. Estos sistemas no solo generan respuestas, sino que también pueden planificar acciones, utilizar herramientas externas y ejecutar tareas para alcanzar un objetivo . Cuando varios de estos agentes trabajan de forma coordinada, se habla de sistemas multiagente , donde distintos agentes colaboran para resolver problemas más complejos. En conjunto, el panorama actual puede entenderse como una evolución encadenada: IA → el campo general que busca crear sistemas inteligentes Machine Learning → métodos que permiten aprender a partir de datos Deep Learning → redes neuronales profundas que descubren patrones complejos NLP → aplicación de estas técnicas al lenguaje humano LLM → grandes modelos entrenados con enormes corpus de texto Chatbots y herramientas generativas → aplicaciones que interactúan con usuarios Agentes autónomos y sistemas multiagente → sistemas capaces de ejecutar tareas y coordinar procesos Esta evolución muestra cómo una serie de avances científicos y tecnológicos han ido construyendo el ecosistema actual de la inteligencia artificial. Lo que comenzó como modelos estadísticos relativamente simples ha terminado dando lugar a sistemas capaces de generar texto, imágenes, código o incluso coordinar acciones complejas , marcando una nueva etapa en la relación entre humanos y máquinas. 2.2 Tipos de aprendizaje, Machine Learning y Deep Learning Cuando hablamos de  Inteligencia Artificial , uno de los conceptos fundamentales es el Machine Learning o aprendizaje automático. De forma sencilla, el Machine Learning es una forma de programación en la que, en lugar de escribir todas las reglas de forma explícita, enseñamos al ordenador a aprender a partir de datos . Un buen símil para entenderlo es el proceso de aprendizaje de un estudiante. En una clase tradicional, el profesor explica una regla y el alumno la aplica o ejecuta, en cambio, en el aprendizaje automático se le muestran muchos ejemplos de manera que le permitan inducir la regla a partir de los mismos asi que descubre por sí mismo los patrones que hay detrás . En el caso de las máquinas, el proceso es similar, si queremos que un ordenador aprenda a reconocer por ejemplo gatos en imágenes, podríamos intentar programar reglas como “tiene orejas puntiagudas”, “tiene bigotes” o “tiene cuatro patas”. Sin embargo, esto sería extremadamente complicado, porque hay muchas variaciones posibles. En cambio, con Machine Learning lo que hacemos es mostrar al sistema miles de imágenes de gatos y de otros animales , obteniendo un modelo que es capaz de reconocer las características que diferencian unos de otros. Así, cuando le mostremos un nuevo ejemplar que no ha visto nunca, será capaz de distinguirlo. Cómo aprende un modelo de Machine Learning Una forma sencilla de entender el funcionamiento del Machine Learning es pensar en él como en un proceso de ajuste de un modelo a partir de datos . Podemos imaginarlo como cuando en matemáticas intentamos encontrar la función que mejor se ajusta a una nube de puntos en un gráfico. El modelo comienza con una hipótesis inicial y va modificando sus parámetros hasta que el error entre sus predicciones y los datos reales se reduce. Por ejemplo, si queremos predecir la relación entre la temperatura y el consumo eléctrico, podríamos introducir datos históricos de temperatura y consumo. El modelo analiza esos datos y trata de encontrar patrones que permitan predecir el consumo a partir de la temperatura . Este proceso es similar al que realizan los científicos cuando elaboran modelos para explicar fenómenos naturales: se observan datos, se propone un modelo y se ajusta hasta que explica razonablemente bien las observaciones. Tipos básicos de aprendizaje automático En términos generales, el Machine Learning suele clasificarse en tres grandes tipos. El aprendizaje supervisado es el más habitual. En este caso el modelo aprende a partir de ejemplos que ya tienen una respuesta conocida. Por ejemplo, un conjunto de imágenes etiquetadas como “gato” o “perro”. El aprendizaje no supervisado se utiliza cuando los datos no están etiquetados. El modelo intenta encontrar patrones o agrupaciones dentro de los datos. Esto se utiliza, por ejemplo, para analizar grandes conjuntos de información y detectar estructuras ocultas. El aprendizaje por refuerzo se basa en un sistema de prueba y error. El modelo toma decisiones y recibe recompensas o penalizaciones en función de sus resultados. Este tipo de aprendizaje se utiliza, por ejemplo, en sistemas que aprenden a jugar videojuegos o a controlar robots. Deep Learning hoy: redes neuronales profundas y modelos modernos El Deep Learning (aprendizaje profundo) es actualmente una de las técnicas más importantes dentro del Machine Learning . Su idea central consiste en utilizar redes neuronales artificiales con muchas capas capaces de aprender directamente a partir de grandes cantidades de datos. Estas redes procesan la información de forma progresiva, transformando los datos en representaciones cada vez más complejas hasta llegar a una predicción o decisión final. En términos simples, una red profunda funciona como una cadena de procesamiento de información . Cada capa de la red aprende a reconocer determinados patrones y pasa el resultado a la siguiente capa. De esta forma se construyen representaciones cada vez más abstractas. Por ejemplo, en un sistema que analiza imágenes, las primeras capas pueden detectar bordes o colores , las siguientes formas o texturas , y las capas finales objetos completos como coches, animales o personas. Tipos de modelos en Deep Learning Dentro del Deep Learning existen diferentes arquitecturas de redes neuronales , cada una diseñada para tipos concretos de problemas. Redes neuronales convolucionales (CNN) Uno de los modelos más conocidos son las Convolutional Neural Networks (CNN) . Estas redes están diseñadas especialmente para trabajar con imágenes o datos visuales. Utilizan filtros que recorren la imagen para detectar patrones como bordes, texturas o formas, lo que permite identificar objetos dentro de una fotografía. Las CNN se han convertido durante años en el estándar en visión artificial , con aplicaciones como: reconocimiento facial detección de objetos en imágenes diagnóstico médico mediante radiografías vehículos autónomos análisis de vídeo Modelos famosos como AlexNet, VGG, ResNet o Inception han demostrado que las redes profundas pueden superar ampliamente a los métodos tradicionales de visión por computador. Redes para secuencias y lenguaje Otro tipo de redes neuronales se diseñaron para trabajar con secuencias de datos , como texto o audio. Durante años se utilizaron modelos como las Recurrent Neural Networks (RNN) o las LSTM , capaces de analizar información que depende del contexto anterior, como frases o series temporales. Sin embargo, estos modelos tenían limitaciones para procesar grandes volúmenes de información y dependencias muy largas dentro de un texto. Transformers: el gran salto reciente El gran avance reciente en Deep Learning llegó con los transformers , una arquitectura presentada en 2017 que cambió profundamente el procesamiento del lenguaje natural. Estos modelos utilizan un mecanismo llamado self-attention , que permite analizar las relaciones entre todos los elementos de una secuencia al mismo tiempo. Gracias a esta arquitectura, los modelos pueden comprender mejor el contexto de un texto o una conversación, identificando qué palabras o elementos son más importantes dentro de una frase. Además, los transformers pueden procesar datos en paralelo, lo que los hace mucho más eficientes que los modelos anteriores. Hoy en día los transformers se utilizan en muchos ámbitos: procesamiento del lenguaje natural traducción automática generación de texto reconocimiento de voz visión artificial análisis de series temporales Incluso han surgido variantes como los Vision Transformers , que aplican esta arquitectura al análisis de imágenes dividiéndolas en pequeños fragmentos que se procesan como si fueran tokens de texto La base de los modelos actuales de IA Estas arquitecturas de Deep Learning son las que han permitido desarrollar muchos de los sistemas actuales de inteligencia artificial. Sobre ellas se construyen tecnologías como: modelos de lenguaje de gran tamaño (LLM) sistemas de reconocimiento de voz generadores de imágenes asistentes virtuales sistemas de recomendación aplicaciones de IA generativa En todos estos casos, el principio es el mismo: el sistema aprende patrones complejos en grandes conjuntos de datos y utiliza ese conocimiento para realizar predicciones o generar nuevas respuestas El Deep Learning sigue evolucionando rápidamente. Nuevas arquitecturas, modelos híbridos (como combinaciones de CNN y transformers) y técnicas de entrenamiento aparecen constantemente. Lo que comenzó como una idea inspirada en redes neuronales simples se ha convertido en el motor de muchas de las tecnologías más avanzadas de la actualidad. Comprender el Deep Learning permite entender cómo funcionan muchos de los sistemas de inteligencia artificial que hoy forman parte de nuestra vida cotidiana: desde los asistentes de voz hasta los modelos generativos que producen texto, imágenes o código. Relación con las asignaturas científicas La IA en general, y las técnicas de ML tiene una relación muy estrecha con muchas disciplinas científicas. En realidad, gran parte de sus fundamentos se basan en conceptos que ya aparecen en materias como matemáticas, estadística, física o informática . Por ejemplo, muchos algoritmos de aprendizaje automático utilizan técnicas de optimización matemática , cálculo diferencial o álgebra lineal. Desde esta perspectiva, el ML puede entenderse como una extensión moderna de métodos estadísticos que ya se utilizaban para analizar datos. En física o en ciencias experimentales, los modelos de aprendizaje automático se utilizan cada vez más para analizar grandes conjuntos de datos , identificar patrones o realizar predicciones Un ejemplo sencillo para el aula Un ejemplo muy accesible para explicar el ML consiste en trabajar con datos de temperatura y ventas de helados. Si representamos ambos valores en un gráfico, observaremos que existe cierta relación: cuando aumenta la temperatura, suelen aumentar las ventas. Un modelo de aprendizaje automático puede utilizar esos datos para aprender esa relación y hacer predicciones. Por ejemplo, podría estimar cuántos helados se venderán si la temperatura alcanza los 30 grados. El gráfico refleja los puntos reales a partir de los cuales obtenemos la línea que nos predice los siguientes Este tipo de ejemplos permite mostrar al alumnado que el ML no es magia, sino  un proceso de análisis de datos y construcción de modelos , muy relacionado con los métodos científicos tradicionales y sobre todo con métodos estadísticos. El papel del científico o del ingeniero sigue siendo fundamental: elegir los datos adecuados, interpretar los resultados y comprender los límites del modelo. En este sentido, el ML no sustituye al pensamiento científico, sino que se convierte en una herramienta más para explorar, analizar y comprender fenómenos complejos . Aplicaciones del Machine Learning en la vida cotidiana Aunque a veces se presenta como una tecnología muy avanzada o futurista, lo cierto es que el  Machine Learning ya está integrado en muchas de las herramientas digitales que utilizamos a diario , a menudo sin que nos demos cuenta. En esencia, estos sistemas aprenden a partir de datos para detectar patrones y mejorar sus decisiones con el tiempo. Un ejemplo muy claro lo encontramos en las plataformas de contenido digital . Cuando abrimos Netflix o Spotify , no vemos el mismo catálogo que cualquier otra persona. Los sistemas de recomendación analizan lo que hemos visto o escuchado anteriormente, cuánto tiempo pasamos con cada contenido, qué tipo de género preferimos o incluso a qué hora solemos usar la plataforma. A partir de esos datos, el sistema aprende patrones y sugiere nuevas películas, series o canciones que probablemente nos gusten. No se trata de una selección aleatoria: es una predicción basada en comportamientos similares de millones de usuarios . Otro caso cotidiano aparece en el correo electrónico . Servicios como Gmail utilizan modelos de Machine Learning para detectar correos no deseados o spam . El sistema analiza miles de características de los mensajes: palabras frecuentes en correos fraudulentos, estructura del texto, enlaces sospechosos o comportamiento del remitente. Con el tiempo, el sistema aprende a distinguir qué mensajes son legítimos y cuáles no. También encontramos Machine Learning en algo tan habitual como desbloquear el teléfono móvil . Sistemas como Face ID utilizan modelos de aprendizaje automático para reconocer el rostro del usuario. El sistema aprende las características de la cara —forma, distancias entre puntos clave, iluminación— y es capaz de identificarla incluso si cambian pequeños detalles como la expresión, el peinado o el uso de gafas. Otro ejemplo muy visible es la traducción automática . Herramientas como Google Translate utilizan modelos de aprendizaje automático para traducir textos entre distintos idiomas. En lugar de aplicar únicamente reglas lingüísticas tradicionales, estos sistemas han aprendido a partir de enormes colecciones de textos traducidos, lo que les permite generar traducciones cada vez más naturales. En el comercio digital también encontramos múltiples aplicaciones. Cuando navegamos por tiendas online como Amazon , el sistema analiza lo que hemos buscado, los productos que hemos consultado y las compras de otros usuarios con intereses similares. A partir de esos datos, sugiere nuevos productos que podrían interesarnos. De nuevo, el modelo está aprendiendo relaciones entre comportamiento y preferencias . En el ámbito educativo, el Machine Learning también empieza a tener aplicaciones interesantes. Algunas plataformas de aprendizaje analizan el progreso del alumnado: cuánto tiempo dedica a cada actividad, qué preguntas falla con mayor frecuencia o en qué temas muestra más dificultad. A partir de esa información, el sistema puede sugerir ejercicios de refuerzo o adaptar el ritmo de aprendizaje . En otros casos, el análisis de datos educativos permite detectar patrones que ayudan a los docentes. Por ejemplo, se pueden identificar conceptos que generan más dificultades en una clase , predecir posibles abandonos o recomendar materiales de apoyo para determinados estudiantes. Desde una perspectiva educativa, comprender estos ejemplos cotidianos es importante porque ayuda a desmitificar la tecnología. El Machine Learning no es magia ni ciencia ficción: es, en gran medida, una forma de aprender a partir de datos para mejorar decisiones y predicciones . Y cada vez más forma parte de las herramientas con las que convivimos diariamente. El papel del profesor de ciencias en la era de la IA Generativa La expansión del ML, y por ende, de la IA Generativa  está teniendo un impacto especialmente interesante en las asignaturas científicas. Matemáticas, Física, Química, Tecnología o Informática son áreas donde estas herramientas no solo pueden utilizarse como apoyo, sino también como objeto de estudio y experimentación dentro del aula . En este contexto, el papel del profesor adquiere una dimensión nueva. No se trata únicamente de explicar qué es la inteligencia artificial, sino de mostrar cómo funciona y cómo se construye , utilizando ejemplos accesibles y experimentos sencillos con datos. Para el profesorado de áreas científicas, esto abre una oportunidad muy valiosa: trabajar con el alumnado para crear pequeños modelos de ML a partir de datos reales . Por ejemplo, los estudiantes pueden trabajar con conjuntos de datos simples —temperaturas, resultados deportivos, consumo energético, ventas de productos o datos meteorológicos— y construir modelos básicos que permitan hacer predicciones. Este tipo de actividades ayuda a comprender que detrás de la inteligencia artificial no hay magia ni pensamiento consciente , sino procesos que identifican patrones estadísticos en grandes cantidades de datos . De hecho, uno de los aprendizajes más importantes que el alumnado puede obtener es entender que la llamada “inteligencia” de estos sistemas es esencialmente estadística . Los modelos no entienden el mundo como lo hace una persona; simplemente calculan probabilidades a partir de los datos con los que han sido entrenados. Comprender este aspecto es fundamental para desarrollar una visión crítica y realista de la tecnología. Además, las herramientas actuales permiten ir más allá de la simple explicación teórica. Hoy es posible utilizar modelos de inteligencia artificial en el aula para explorar fenómenos científicos, crear simulaciones o generar experimentos virtuales . Por ejemplo, se pueden generar simulaciones de movimiento físico, visualizar modelos matemáticos, representar funciones o experimentar con distintos parámetros para observar cómo cambian los resultados. También existen muchas aplicaciones basadas en IA generativa que pueden ayudar a diseñar actividades educativas más dinámicas . Los docentes pueden crear cuestionarios interactivos, simuladores de decisiones, pequeños juegos educativos o actividades gamificadas que permitan trabajar contenidos científicos de una manera más participativa. En este sentido, la IA puede convertirse en una herramienta útil para fomentar aprendizajes más activos y experimentales . Por otro lado, estas herramientas también facilitan tareas habituales del profesorado, como la generación de materiales didácticos, presentaciones, ejemplos prácticos o actividades de evaluación . Un modelo de lenguaje puede ayudar a diseñar problemas matemáticos, generar explicaciones adaptadas a distintos niveles o proponer ejercicios de repaso. Del mismo modo, puede servir como apoyo para analizar resultados académicos o generar nuevas preguntas para evaluaciones. Sin embargo, el elemento clave sigue siendo el papel del docente. La inteligencia artificial puede generar contenidos o analizar datos, pero no puede sustituir la función pedagógica del profesor . Es el profesorado quien decide qué herramientas utilizar, cómo integrarlas en el currículo y cómo orientar su uso para que contribuyan realmente al aprendizaje. En las asignaturas científicas, esta situación abre una oportunidad especialmente interesante: utilizar la inteligencia artificial no solo como herramienta, sino también como laboratorio para comprender cómo funcionan los sistemas tecnológicos actuales . De este modo, el alumnado no solo utiliza la tecnología, sino que también aprende a entenderla, cuestionarla y analizarla críticamente . En definitiva, el reto para el profesorado en la era del ML no es competir con la inteligencia artificial, sino aprovecharla como recurso educativo . Cuando se integra con sentido pedagógico, puede ayudar a desarrollar habilidades clave como el pensamiento crítico, la interpretación de datos, la experimentación científica y la comprensión de los sistemas tecnológicos que cada vez tienen más presencia en nuestra sociedad. 2.3 Modelos de Lenguaje y Procesamiento del Lenguaje Natural Los modelos de lenguaje: cómo las máquinas aprenden a entender y generar texto En los últimos años, uno de los avances más visibles dentro de la inteligencia artificial ha sido el desarrollo de los modelos de lenguaje . Son las tecnologías que permiten que hoy podamos conversar con sistemas de IA, pedirles que redacten textos, expliquen conceptos, generen código o resuman documentos. Desde fuera puede parecer que estos sistemas piensan o razonan , pero en realidad su funcionamiento se basa en una idea bastante simple: aprender patrones del lenguaje a partir de enormes cantidades de texto . Los modelos analizan millones o miles de millones de frases y aprenden qué palabras suelen aparecer juntas y en qué contexto. Para entenderlo de forma sencilla, podemos imaginarlo como cuando una persona ha leído miles de libros y conversaciones: poco a poco empieza a reconocer cómo se construyen las frases, cómo se relacionan los conceptos y qué tipo de respuestas suelen aparecer en cada situación . Cómo se entrena un modelo de lenguaje Detrás de estos sistemas existe un proceso técnico complejo. Los modelos de lenguaje modernos se entrenan utilizando redes neuronales muy grandes con millones o incluso miles de millones de parámetros. Durante el entrenamiento, el modelo aprende una tarea muy concreta: predecir la siguiente palabra (o token) dentro de una frase . Por ejemplo, si el modelo recibe una frase como: “La fotosíntesis es el proceso mediante el cual las plantas…” el sistema calcula qué palabras tienen más probabilidad de aparecer a continuación: producen , generan , transforman , etc. Al repetir este proceso millones de veces con grandes conjuntos de texto, el modelo acaba aprendiendo: gramática y estructura del lenguaje relaciones entre conceptos patrones comunes de razonamiento conocimiento general presente en los datos Cuando el entrenamiento termina, el modelo puede generar texto nuevo utilizando esos patrones aprendidos. Las etapas para construir un sistema conversacional El desarrollo de un sistema conversacional basado en IA suele implicar varias fases. 1. Recopilación de datos El primer paso consiste en reunir un gran conjunto de textos que sirva para entrenar el modelo. Estos datos suelen proceder de muchas fuentes distintas, como: libros artículos científicos páginas web documentación técnica conversaciones En modelos orientados a un ámbito específico —por ejemplo, educación científica— los datos pueden incluir explicaciones de biología, problemas resueltos de física o ejercicios de matemáticas. La calidad de los datos es crucial, porque el modelo aprende directamente de esos ejemplos. 2. Preparación del texto Antes de entrenar el modelo, los datos deben prepararse. Esto implica limpiar los textos, eliminar duplicados y normalizar formatos. Después se realiza un proceso llamado tokenización , en el que el texto se divide en unidades más pequeñas llamadas tokens . Un token puede ser una palabra, parte de una palabra o incluso un símbolo. Por ejemplo, una frase como: “La inteligencia artificial aprende rápido” se transforma en una secuencia de tokens que el modelo puede procesar numéricamente 3. Entrenamiento del modelo Una vez preparados los datos, comienza el entrenamiento. El modelo recibe una secuencia de tokens y debe predecir cuál será el siguiente . Si se equivoca, el algoritmo ajusta los parámetros de la red neuronal para mejorar la predicción. Este proceso se repite millones de veces. Con el tiempo, el modelo aprende patrones cada vez más complejos del lenguaje. Los modelos actuales suelen basarse en la arquitectura Transformer , que utiliza mecanismos de atención para analizar las relaciones entre palabras dentro de una frase y comprender mejor el contexto 4. Ajuste para conversación Un modelo entrenado con texto general no necesariamente sabe mantener una conversación. Por eso suele realizarse una fase adicional de ajuste en la que el sistema aprende a responder preguntas o a interactuar con usuarios. Para ello se utilizan ejemplos de diálogo o pares de pregunta–respuesta , como: Pregunta: ¿Qué es la ley de Ohm? Respuesta: La ley de Ohm establece que la intensidad de corriente que circula por un conductor es proporcional al voltaje aplicado… Este proceso enseña al modelo a generar respuestas más estructuradas y útiles 5. Evaluación y mejora Una vez entrenado, el modelo se somete a diferentes pruebas para comprobar si: responde correctamente a preguntas mantiene coherencia en conversaciones evita generar información incorrecta En función de los resultados, se pueden realizar nuevos ajustes o mejoras en el entrenamiento. Al final del proceso siempre se obtiene un modelo que es la pieza clave de todo puesto que nos va a permitir realizar el proceso de generación de contenido y aplicar las ténicas que veremos después (prompting, RAG y fine tuning) Esquema de aprendizaje en ML, se entrena al modelo con datos y luego se testea con datos nuevos para valorar su eficacia   Otra versión del esquema anterior. Al final siempre buscamos la obtención de un modelo NLP, LLM y el auge de la IA generativa El Procesamiento del Lenguaje Natural (NLP) es el área de la inteligencia artificial que intenta que las máquinas puedan comprender, analizar y generar lenguaje humano . Durante muchos años, las técnicas de NLP se basaban en reglas lingüísticas o modelos estadísticos relativamente simples. Estos métodos permitían realizar tareas concretas, como clasificar textos o detectar palabras clave, pero tenían limitaciones importantes cuando se trataba de comprender el contexto completo de una frase o manejar conversaciones complejas. El panorama cambió radicalmente con la llegada del Deep Learning y, especialmente, con la arquitectura transformer , que permitió construir modelos capaces de analizar grandes cantidades de texto teniendo en cuenta el contexto completo de las palabras. A partir de estos avances surgieron los Large Language Models (LLM) , modelos de lenguaje entrenados con enormes colecciones de texto que pueden realizar múltiples tareas lingüísticas con un único sistema. Gracias a estos modelos, muchas tareas clásicas de NLP pueden abordarse hoy de forma más eficiente y flexible . En lugar de construir un sistema diferente para cada tarea —por ejemplo, uno para traducir textos y otro para resumir documentos— los LLM pueden resolver muchas de estas tareas simplemente mediante instrucciones o ejemplos. Entre las principales tareas del NLP encontramos varias que hoy se utilizan de forma cotidiana en múltiples aplicaciones tecnológicas: Traducción automática , que permite traducir textos entre diferentes idiomas. Análisis de sentimiento , utilizado para detectar opiniones positivas o negativas en redes sociales o reseñas de productos. Clasificación de textos , por ejemplo para detectar spam o categorizar documentos. Reconocimiento de entidades , que identifica nombres de personas, lugares o organizaciones dentro de un texto. Resumen automático de documentos , útil para procesar grandes cantidades de información. Sistemas de pregunta-respuesta , capaces de responder preguntas sobre un texto o una base de conocimiento. Conversación automática , como la que se produce en chatbots y asistentes virtuales. A partir de estas capacidades del NLP han surgido muchas aplicaciones de IA generativa , donde los modelos no solo analizan información, sino que también crean contenido nuevo. Los modelos actuales pueden generar textos completos, redactar artículos, producir código de programación, crear resúmenes o mantener conversaciones relativamente complejas con los usuarios. Esto ha dado lugar a una gran variedad de herramientas basadas en modelos de lenguaje: asistentes conversacionales, sistemas de apoyo a la programación, motores de búsqueda inteligentes o plataformas educativas capaces de generar explicaciones y ejercicios. Además, estos modelos también se utilizan para generar otros tipos de contenido, como imágenes, audio o vídeo, combinando el lenguaje con otros tipos de datos. En definitiva, el NLP ha pasado de ser un campo especializado dentro de la inteligencia artificial a convertirse en uno de los motores principales de la IA actual . Los avances en Deep Learning y en los modelos de lenguaje han permitido que las máquinas interactúen con el lenguaje humano de una forma mucho más natural, lo que explica el rápido crecimiento de aplicaciones basadas en chatbots, asistentes inteligentes y sistemas generativos . Ampliando los modelos En la práctica, cuando se quiere construir un sistema conversacional o un chatbot basado en inteligencia artificial, existen dos caminos principales. El primero sería entrenar un modelo completamente desde cero, lo que implica construir la red neuronal y alimentarla con enormes cantidades de datos para que aprenda el lenguaje. Este proceso requiere infraestructuras muy potentes, grandes centros de datos y semanas o meses de entrenamiento, por lo que normalmente solo está al alcance de grandes empresas tecnológicas o centros de investigación. Por esta razón, lo más habitual hoy en día no es empezar desde cero, sino partir de un modelo ya entrenado y adaptarlo a una tarea concreta . Los grandes modelos de lenguaje ya poseen un conocimiento general del lenguaje porque han sido entrenados con enormes colecciones de texto. A partir de ahí se pueden ajustar o especializar mediante distintas técnicas. Una de las más conocidas es el fine-tuning , que consiste en volver a entrenar el modelo con un conjunto de datos más pequeño y específico para que aprenda el vocabulario, el estilo o los patrones de un determinado dominio. Por ejemplo, un modelo general puede adaptarse para responder preguntas médicas, jurídicas o educativas entrenándolo con ejemplos propios de ese ámbito. En este proceso se ajustan los parámetros internos del modelo para que responda mejor en ese contexto concreto. Otra técnica muy utilizada es RAG (Retrieval-Augmented Generation) , que en lugar de modificar el modelo permite conectarlo a fuentes de información externas, como bases de datos o colecciones de documentos. Cuando el usuario hace una pregunta, el sistema primero busca información relevante en esos documentos y luego utiliza el modelo de lenguaje para generar la respuesta combinando su conocimiento previo con esos datos recuperados. De esta forma el modelo puede trabajar con información actualizada o especializada sin necesidad de volver a entrenarlo. También se utilizan estrategias de prompting avanzado , que consisten en diseñar cuidadosamente las instrucciones o ejemplos que se proporcionan al modelo para guiar su comportamiento. En muchos casos, una buena forma de plantear la pregunta o proporcionar contexto adicional puede mejorar notablemente la calidad de las respuestas. En definitiva, los modelos de lenguaje actuales no funcionan como una mente humana que razona de forma consciente. Su comportamiento se basa en aprender patrones estadísticos del lenguaje a partir de grandes cantidades de datos y utilizar esos patrones para generar nuevas frases. Sin embargo, cuando estos modelos se entrenan a gran escala y se combinan con técnicas como el fine-tuning o el RAG, pueden producir respuestas sorprendentemente coherentes y útiles. Para visualizarlo con un ejemplo educativo, imaginemos que queremos construir un modelo orientado a resolver problemas de física de bachillerato. El sistema podría entrenarse con miles de ejemplos donde aparece una pregunta y su resolución paso a paso. Por ejemplo: “Un objeto de 5 kg acelera a 2 m/s². Calcula la fuerza aplicada.” El modelo aprendería que debe aplicar la segunda ley de Newton, usar la fórmula F = m · a y calcular el resultado. Del mismo modo, podría entrenarse con ejemplos de biología —como preguntas sobre la función del ADN— o de química, como ajustar ecuaciones químicas. Con suficientes ejemplos, el modelo acaba aprendiendo los patrones de explicación y resolución de problemas que aparecen en esos campos. Esto explica por qué hoy es posible crear asistentes especializados en educación, ciencia o cualquier otro ámbito: no porque la máquina “entienda” el conocimiento como lo haría una persona, sino porque ha aprendido cómo suelen formularse las preguntas y cómo suelen construirse las respuestas dentro de esos dominios. La evolución de los modelos de lenguaje Durante muchos años los  modelos de lenguaje eran relativamente simples. Funcionaban con métodos estadísticos que analizaban secuencias cortas de palabras para calcular probabilidades. Por ejemplo, podían estimar que después de la expresión “buenos” es muy probable que aparezca “días” , o que después de “por favor” suele venir “gracias” . Estos sistemas eran útiles para tareas básicas como corrección automática o predicción de palabras, pero tenían una limitación importante: solo podían manejar contextos muy pequeños y apenas entendían el significado global de una frase. El gran salto llegó con el desarrollo del Deep Learning aplicado al lenguaje y, sobre todo, con la aparición en 2017 de la arquitectura Transformer , presentada en el famoso artículo Attention is All You Need . Esta arquitectura introdujo el mecanismo de atención , que permite a los modelos analizar relaciones entre palabras dentro de una frase completa e incluso entre frases muy separadas dentro de un texto. Gracias a esta innovación, los sistemas podían captar mejor el contexto y procesar el lenguaje de forma mucho más eficiente que los modelos anteriores basados en redes recurrentes. A partir de ese momento comenzaron a desarrollarse los llamados Large Language Models (LLM) o modelos de lenguaje de gran tamaño. Estos modelos utilizan redes neuronales profundas entrenadas con enormes cantidades de texto procedente de libros, páginas web, artículos científicos o conversaciones. Su objetivo es aprender los patrones del lenguaje para poder comprender y generar texto coherente . Uno de los hitos importantes fue el lanzamiento de la familia GPT de OpenAI. El primer modelo, GPT-1, apareció en 2018 con unos 117 millones de parámetros. Poco después llegó GPT-2 , que ya alcanzaba alrededor de 1.500 millones de parámetros. En 2020 se presentó GPT-3 , con aproximadamente 175.000 millones de parámetros, lo que permitió generar textos sorprendentemente coherentes y realizar múltiples tareas lingüísticas con un mismo modelo. En paralelo surgieron otros modelos importantes. Por ejemplo, BERT , desarrollado por Google, se centró en mejorar la comprensión del lenguaje utilizando representaciones bidireccionales del contexto. Este modelo se convirtió en uno de los más influyentes en tareas de NLP como clasificación de textos o sistemas de pregunta-respuesta. Con el tiempo, la investigación en modelos de lenguaje se aceleró enormemente. En la actualidad existen numerosos LLM desarrollados tanto por grandes empresas tecnológicas como por comunidades de investigación abiertas. Entre los más conocidos podemos mencionar: GPT (OpenAI) La familia GPT (Generative Pre-trained Transformer) es probablemente la más popular. Estos modelos han impulsado el auge reciente de los asistentes conversacionales y de muchas herramientas de IA generativa. Gemini (Google) Es la evolución de los modelos de lenguaje desarrollados por Google. Está diseñado para trabajar de forma multimodal, combinando texto, imágenes y otros tipos de información. Claude (Anthropic) Este modelo se ha diseñado poniendo especial énfasis en la seguridad y el alineamiento con valores humanos, intentando reducir riesgos asociados al uso de la inteligencia artificial. Llama (Meta) Una de las familias de modelos más influyentes en el ecosistema open source. Varias versiones han sido liberadas públicamente, lo que ha permitido a investigadores y desarrolladores crear nuevas aplicaciones basadas en ellos. Mistral Un proyecto europeo que ha ganado relevancia por desarrollar modelos relativamente eficientes, capaces de ofrecer buen rendimiento incluso en hardware más modesto. Qwen (Alibaba) Una familia de modelos que ha demostrado un rendimiento competitivo en múltiples idiomas y que también cuenta con versiones accesibles para uso local. Aunque estos modelos comparten una base tecnológica común —los transformers — pueden diferir mucho en distintos aspectos: el tamaño del modelo, los datos utilizados para entrenarlo, las optimizaciones internas o las licencias de uso. En conjunto, la evolución de los modelos de lenguaje ha sido extraordinariamente rápida. En apenas una década se ha pasado de sistemas capaces de completar frases simples a modelos que pueden mantener conversaciones complejas, explicar conceptos científicos, generar código o analizar grandes cantidades de información . Esta evolución ha sido uno de los factores clave que han impulsado el desarrollo de la IA generativa moderna y la proliferación de asistentes inteligentes en múltiples ámbitos. Parametrización de modelos Para comprender cómo funcionan realmente los modelos de lenguaje actuales , conviene conocer algunos conceptos fundamentales. Estos conceptos explican cómo procesan el texto, cómo se entrenan, qué recursos necesitan y por qué algunos modelos son enormes mientras otros pueden ejecutarse en un ordenador personal 1. Tokens: las unidades básicas del lenguaje Los modelos de lenguaje no trabajan directamente con palabras completas como hacemos los humanos. En su lugar, el texto se divide en pequeñas unidades llamadas tokens . Un token puede ser: una palabra completa parte de una palabra un número un signo de puntuación Por ejemplo, una palabra larga como “computadora” puede dividirse en varios tokens dependiendo del sistema de tokenización utilizado. Los tokens son importantes por varias razones: determinan cuánta información puede procesar el modelo influyen en el coste de uso de muchos servicios de IA marcan la longitud máxima de una conversación Los modelos generan texto prediciendo el siguiente token más probable basándose en los tokens anteriores 2. Contexto: la memoria del modelo El contexto (o context window ) es la cantidad de texto que el modelo puede analizar al mismo tiempo. En otras palabras, es la cantidad de tokens que el modelo puede “recordar” durante una conversación o una tarea. Cuanto mayor es el contexto, más información puede utilizar el modelo para responder. Esto es clave en tareas como: analizar documentos largos resumir informes revisar código mantener conversaciones complejas Los modelos antiguos tenían contextos muy pequeños (unos cientos o miles de tokens). Hoy existen modelos capaces de manejar cientos de miles o incluso millones de tokens , lo que permite analizar documentos muy extensos o incluso libros completos. Sin embargo, aumentar el contexto también aumenta el coste computacional , porque el cálculo de atención en los transformers crece rápidamente con la longitud del texto 3. Prompt: la instrucción que guía al modelo El prompt es la instrucción o pregunta que el usuario proporciona al modelo. Puede ser algo simple: “Explica qué es la fotosíntesis” o algo más elaborado: “Explica la fotosíntesis para alumnos de 1º de ESO usando ejemplos sencillos”. La forma en que se formula el prompt influye mucho en la calidad de la respuesta. Por eso en los últimos años ha surgido una disciplina conocida como ingeniería de prompting , que estudia cómo diseñar instrucciones eficaces para los modelos 4. Cómo se entrenan los modelos de lenguaje Los LLM se entrenan utilizando redes neuronales profundas basadas en transformers y enormes colecciones de texto. Durante el entrenamiento el modelo aprende a predecir el siguiente token en una secuencia . Por ejemplo: “La fotosíntesis es el proceso mediante el cual las plantas…” El modelo aprende que las siguientes palabras más probables pueden ser: producen generan transforman Este proceso se repite billones de veces con grandes conjuntos de datos. Los datasets utilizados suelen incluir: páginas web libros artículos científicos código fuente documentos técnicos Por ejemplo, algunos modelos se han entrenado con más de un billón de tokens de texto procedentes de múltiples fuentes públicas 5. Tamaño del modelo: los parámetros Otro concepto clave es el número de parámetros . Los parámetros son los valores internos que la red neuronal ajusta durante el entrenamiento para aprender patrones. Algunos ejemplos aproximados: GPT-1 → 117 millones de parámetros GPT-2 → 1.500 millones GPT-3 → 175.000 millones El aumento del número de parámetros permitió mejoras importantes en la capacidad de los modelos para comprender y generar texto. Sin embargo, los modelos más grandes requieren enormes recursos de computación 6. Coste de entrenamiento y recursos necesarios Entrenar modelos de lenguaje es extremadamente costoso. Por ejemplo: entrenar un modelo de 13 mil millones de parámetros puede costar alrededor de 1 millón de dólares y requerir miles de GPUs funcionando durante semanas. Entrenar modelos gigantes como GPT-3 puede costar millones de dólares en infraestructura y energía . Por esta razón, la mayoría de organizaciones no entrenan modelos desde cero, sino que adaptan modelos ya existentes mediante técnicas como: fine tuning LoRA RAG prompt engineering Estas técnicas permiten especializar modelos sin repetir todo el entrenamiento. 7. Tabla resumen de algunos modelos populares Modelo Organización Tipo Parámetros aproximados Características GPT-4 / GPT-4o OpenAI Propietario No público Muy potente, multimodal Gemini Google Propietario No público Multimodal, gran contexto Claude Anthropic Propietario No público Contexto muy grande Llama 3 Meta Abierto hasta ~70B Muy usado en investigación Mistral Mistral AI Abierto 7B–Mixtral Muy eficiente Qwen Alibaba Abierto / mixto 7B–72B Multilingüe Falcon TII Abierto hasta 180B Muy popular en open source GPT-J EleutherAI Abierto 6B Uno de los primeros LLM abiertos   Tipos de modelos de lenguaje: propietarios, abiertos, online y locales Hoy en día los modelos de lenguaje pueden clasificarse de varias formas según cómo se distribuyen, cómo se ejecutan y qué grado de acceso tenemos a ellos. Comprender estas diferencias es importante porque determina cómo podemos utilizarlos, qué recursos necesitamos y qué control tenemos sobre los datos. Una primera distinción importante es entre modelos propietarios y modelos abiertos . Los modelos propietarios son desarrollados por grandes empresas tecnológicas que no publican completamente su arquitectura, sus datos de entrenamiento o sus pesos internos. El acceso suele realizarse a través de plataformas online o APIs. Ejemplos conocidos son los modelos GPT de OpenAI , Gemini de Google o Claude de Anthropic . Estos modelos suelen ofrecer un rendimiento muy alto porque están entrenados con enormes infraestructuras y grandes volúmenes de datos. Sin embargo, su uso depende de las condiciones de la empresa que los desarrolla y normalmente implica acceso a través de servicios en la nube. Por otro lado, existen los modelos abiertos u open source , en los que gran parte del modelo se publica para que investigadores y desarrolladores puedan utilizarlos, estudiarlos o adaptarlos. Ejemplos conocidos son Llama (Meta), Mistral , Falcon o algunas versiones de Qwen . Estos modelos han impulsado mucho la investigación porque permiten experimentar, crear nuevas aplicaciones o ejecutar inteligencia artificial sin depender completamente de grandes plataformas tecnológicas. Otra clasificación muy importante es la forma en la que se ejecutan los modelos: online o localmente . Muchos modelos actuales se utilizan a través de APIs en la nube . En este modelo, el usuario o el desarrollador envía una consulta a un servidor a través de internet y recibe la respuesta del modelo. Este enfoque tiene varias ventajas: no requiere disponer de hardware potente, permite acceder a modelos muy grandes y las empresas pueden actualizar continuamente los sistemas. Sin embargo, también implica dependencia de conexión a internet, posibles costes de uso y menor control sobre los datos enviados. Frente a este modelo han surgido en los últimos años herramientas que permiten ejecutar modelos de lenguaje directamente en un ordenador local , sin necesidad de conexión a internet. Plataformas como Ollama , LM Studio o text-generation-webui permiten descargar modelos y utilizarlos de forma privada en el propio equipo. Estas herramientas actúan como gestores que permiten instalar, ejecutar y probar modelos de lenguaje en local. El uso local tiene varias ventajas importantes. Por un lado, mejora la privacidad , ya que las consultas y los documentos analizados no salen del ordenador o del servidor interno. Además, permite integrar modelos en sistemas propios o en entornos corporativos sin depender de servicios externos. Por ejemplo, una organización puede cargar documentos internos y crear un sistema de consulta basado en IA sin enviar esa información a servicios en la nube. Finalmente, también podemos distinguir entre modelos grandes y modelos ligeros . Los modelos más grandes pueden tener cientos de miles de millones de parámetros y requieren grandes infraestructuras para funcionar. Son los que suelen utilizarse en servicios en la nube. En cambio, han aparecido versiones más ligeras o compactas que sacrifican parte del rendimiento a cambio de poder ejecutarse en ordenadores personales o servidores pequeños. Este tipo de modelos permite experimentar con IA de forma local y accesible, algo especialmente interesante en entornos educativos o de investigación. En conjunto, el ecosistema actual de modelos de lenguaje es muy diverso. Existen modelos abiertos y propietarios, servicios online y sistemas que funcionan localmente, así como versiones gigantes y versiones ligeras. Esta diversidad es precisamente una de las razones por las que la inteligencia artificial se está extendiendo tan rápidamente: cada organización puede elegir el tipo de modelo que mejor se adapte a sus necesidades, recursos y nivel de control sobre los datos . El siguiente paso en los modelos: los agentes de inteligencia artificial En los últimos años está empezando a aparecer un nuevo concepto que muchos investigadores consideran el siguiente paso en la evolución de la inteligencia artificial : los agentes de IA . Hasta ahora, la mayoría de aplicaciones basadas en modelos de lenguaje funcionan de forma relativamente simple. El usuario hace una pregunta, el modelo analiza el texto y genera una respuesta. Es un proceso muy potente, pero también bastante limitado: el sistema responde , pero no actúa . Los agentes de inteligencia artificial amplían esa idea. Un agente puede entender una tarea, dividirla en pasos y ejecutar acciones para completarla. En otras palabras, no se limita a generar texto, sino que planifica, toma decisiones y utiliza herramientas externas para alcanzar un objetivo . Esto significa que un agente puede hacer cosas como: planificar tareas complejas consultar información en diferentes fuentes utilizar herramientas externas (APIs, bases de datos, buscadores) ejecutar acciones en sistemas digitales Por ejemplo, imaginemos una tarea como elaborar un informe sobre el cambio climático . Un modelo de lenguaje clásico podría explicar el tema si se le pregunta. En cambio, un agente podría: buscar información en internet seleccionar los documentos relevantes analizar los datos encontrados generar un informe estructurado enviarlo automáticamente por correo electrónico Todo este proceso podría realizarse con mínima intervención humana. El nuevo paradigma: la orquestación de agentes A medida que estos sistemas evolucionan, ha surgido una idea todavía más interesante: la orquestación de agentes . En lugar de un único sistema que intenta hacerlo todo, se utilizan varios agentes especializados que colaboran entre sí , cada uno con una función concreta. Este enfoque consiste en coordinar diferentes agentes dentro de un mismo sistema para alcanzar un objetivo común. Por ejemplo, en un sistema más complejo podrían intervenir: un agente que busca información otro que analiza datos otro que genera informes otro que toma decisiones o ejecuta acciones De alguna forma, este modelo recuerda al funcionamiento de un equipo humano de trabajo , donde cada especialista aporta una capacidad concreta para resolver un problema más grande Un cambio en la forma de interactuar con la tecnología Este avance también está cambiando la manera en que interactuamos con los ordenadores. Durante décadas, utilizar un sistema informático implicaba aprender comandos, interfaces complejas o programas especializados. Con los modelos de lenguaje y los agentes, cada vez más herramientas permiten interactuar simplemente mediante lenguaje natural . Además, los agentes pueden actuar de forma más autónoma, realizando tareas completas en lugar de limitarse a responder preguntas. Esto abre posibilidades interesantes en muchos ámbitos, incluido el educativo. Por ejemplo, podrían aparecer: asistentes que ayudan a preparar materiales didácticos sistemas que analizan grandes cantidades de información académica herramientas de tutoría personalizada para el alumnado plataformas que automatizan tareas administrativas o de evaluación Comprender la tecnología para usarla con criterio Aunque estas tecnologías son muy potentes, también es importante entender sus  capacidades y sus limitaciones . Los agentes no sustituyen el juicio humano ni el pensamiento crítico. Son herramientas que pueden ayudar a automatizar tareas y gestionar información, pero su uso requiere supervisión y criterio. En el ámbito educativo, comprender cómo funcionan los modelos de lenguaje y los agentes es especialmente importante. No solo permite utilizarlos de forma más eficaz, sino también enseñar a los estudiantes a entender críticamente las tecnologías que están transformando nuestra forma de trabajar y aprender .