Módulo 1. Introducción y panorama de la IA

Visión general e histórica con mención a hitos e ideas relevantes para entender la IA hoy, así como anécdotas relacionadas con el siempre buscado objetivo de imitar al ser humano

Unidad 1.1. Panorama general de la IA

Attention is All You Need

2017 Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser y Illia Polosukhin

Equipo de investigación de Google

 

CONTENIDOS

Introducción

image.png

La cita inicial da título al artículo que en 2017 supuso el nacimiento de todo el boom de aplicaciones y sistemas de IA que hoy en día inundan las redes y tanto impacto están teniendo en todos los sectores económicos y sociales.

Presentó la arquitectura de red neuronal conocida como "Transformer", la cual se ha convertido en la base para muchos desarrollos posteriores en el campo del procesamiento del lenguaje natural (NLP) y, dentro del mismo, en la llamada IA Generativa, base de casi todas las aplicaciones de IA que veremos en el curso.

Es, además, una sentencia muy relacionada con la educación, pues sintetiza y expresa la premisa más importante para cualquier alumno que quiera aprender, a saber, la actitud o la atención hacia los temas de estudio. De manera que es perfecta para iniciar este curso en dos temas de gran impacto y relevancia social como son la IA y la educación.

La llamada IA ha irrumpido abruptamente en el mundo a todos los niveles. Desde que, en 2017 investigadores de Google publicaran el mencionado artículo 'Attention is all you need' el desarrollo y difusión de sistemas de procesamiento del lenguaje natural (NLP) ha sido imparable, liderado por la empresa OpenAI, pero también por otras como DeepMind o Anthropic y, por supuesto, Microsoft y el propio Google (Gemini).

Pero su desarrollo lleva mucho más tiempo, desde siempre el ser humano ha querido construir máquinas que imiten su inteligencia, empezando por dispositivos automáticos y continuando con sistemas de generación de lenguaje y en general el desarrollo de tecnologías procesamiento del lenguaje natural, subcampo de estudio dentro de la IA en general y, en particular, del  llamado Deep Learning o aprendizaje profundo.

Es un camino plagado de fracasos y euforia puntual que sólo recientemente ha culminado en una adopción masiva y un impacto relevante en todos los sectores económicos y sociales.

Finalmente y desde hace algo más de un año los sistemas de procesamiento de lenguaje natural (NLP) y la inteligencia artificial generativa han permitido llevar la IA a todos los ámbitos con éxito creciente. También la robótica y la propia biología (edición genéticao CRISPR, órganos sintétitcos, integración hombre-máquina) han experimentado un cambio sensible en sus posibilidades.

Todo esto hace que el campo de la IA por fin sea el más popular y aplicado en todo el mundo y en todas las empresas y organizaciones.

Los usos y aplicaciones son crecientes y se amplían a diario. También las amenazas están ahí en cuanto al mal uso y las implicaciones en cuanto a privacidad de la información y su utilización ilícita.

Sin embargo debemos asumir y asimilar su existencia y promover el uso ético y estético de estas tecnologías que, de manera inevitable, van a estar cada vez más presentes en nuestras vidas.

En este curso trataremos de dar una visión completa de todo el ecosistema de la IA abarcando la evolución histórica, los fundamentos que la sustentan y las principales aplicaciones, siempre haciendo especial hincapié en el lado educativo.

Pero no solo eso, también queremos tratar temas más avanzados y tratar el impacto socioeconómico de la IA así como las consideraciones éticas.

Aunque los veremos a lo largo del curso queremos introducir algunos conceptos importantes además de una relación de tecnologías y empresas más relevantes en el panorama actual

Conceptos de Inteligencia Artificial (IA)

Es conveniente adelantar algunos de los conceptos principales en el mundo de la Inteligencia Artificial, en adelante IA, para no olvidar de donde partimos y que es lo que denotamos por IA.

A continuación indicamos algunas definiciones aproximadas de los conceptos de inteligencia, artificial y el binomio IA

Definiciones que necesariamente son aproximadas al no haber, ni siquiera en la comunidad científica, un consenso sobre las mismas.

Inteligencia: Es la capacidad de entender, aprender, razonar, tomar decisiones y formar una idea determinada de la realidad.

Artificial: Se refiere a sistemas diseñados para imitar o replicar la inteligencia humana.

Inteligencia Artificial: 

La Inteligencia Artificial (IA) es un campo de la informática que se enfoca en la creación de sistemas capaces de realizar tareas que, hasta hace poco, requerían de la inteligencia humana. Esto incluye procesos como el aprendizaje (la adquisición de información y reglas para el uso de la información), el razonamiento (usar las reglas para alcanzar conclusiones aproximadas o definitivas) y la autocorrección. Las aplicaciones prácticas de la IA incluyen sistemas expertos, reconocimiento de voz, aprendizaje automático y robótica.

Tipos de IA:

Se habla continuamente de IA pero sin reparar en que existen varios tipos a nivel conceptual.

En lo que respecta a este curso siempre hablamos de Inteligencia Artificial en el sentido de imitar al cerebro o a la inteligencia humana. Sin embargo existen otros tipos que debemos considerar para futuros escenarios.

Tecnologías de IA:

A continuación indicamos algunas de las tecnologías más relevantes en el campo de la IA ya que son términos comunes en cualquier texto o referencia que podamos encontrar. La mayoría de ellas aparecerán de forma más o menos detallada a lo largo del curso. 

  1. Aprendizaje Automático (Machine Learning): Técnicas que permiten a las máquinas aprender de datos.

  2. Aprendizaje Profundo (Deep Learning): Uso de redes neuronales con múltiples capas para procesar grandes conjuntos de datos.

  3. Redes Neuronales Convolucionales (CNN): Especialmente diseñadas para el procesamiento de imágenes.

  4. Procesamiento del Lenguaje Natural (NLP): Tecnología que permite a las máquinas leer y comprender el lenguaje humano.

  5. Algoritmos de Reforzamiento (Reinforcement Learning): Donde los modelos aprenden a tomar decisiones basadas en recompensas.

  6. Visión por Computadora: Permite a las máquinas interpretar y tomar decisiones basadas en imágenes o video.

  7. Robótica Autónoma: Robots que pueden aprender y operar en su entorno sin intervención humana.

  8. Sistemas de Recomendación: Algoritmos que sugieren productos o contenidos a los usuarios.

  9. Redes Generativas Adversarias (GANs): Usadas para generar contenido, como imágenes, vídeo o texto, que es indistinguible del contenido creado por humanos.

  10. Reconocimiento de Voz: Tecnología que convierte la voz en texto y viceversa, permitiendo la interacción verbal con dispositivos.

  11. Mecanismos de Atención: Como el modelo "Transformer", que ha revolucionado el NLP con su enfoque "Attention is All You Need".

Principales empresas y productos de IA:

Dada su complejidad y alta demanda de recursos, solo grandes compañías han podido desarrollar y proporcionar servicios de IA al nivel actual. Las herramientas que usaremos en el curso pertenecen a dichas compañías, aunque no debemos olvidar que se distinguen productos 'open source' (de uso libre pero no necesariamente gratuito) de los comerciales (generados de forma opaca sin detalles sobre fuentes de datos o algoritmos implicados).

Entre los productos más importantes destacamos los siguientes:

Que duda cabe que existen cientos de otras compañías y herramientas que han desarrollado productos de IA, especialmente chatsbots, como Alexa de Amazon, Cortana de Microsoft o Siri de Apple, y que su uso es creciente, pero solo hace un año escaso se ha podido contar con herramientas de uso genérico que abarquen todo el conocimiento humano.

Dado que el curso se orienta al ámbito educativo adelantamos algunas plataformas de gran impacto que lo han abordado, algunas de las cuales ya se están implantando en diferentes países y centros educativos.

Sectores más afectados:

Dado su caracter transversal, la IA ha irrumpido con fuerza en todos los sectores y ámbitos de la sociedad destacando por su potencial impacto el sector educativo y tecnológico en general, pero también en el mundo industrial (robótica), artístico (diseño, generación de vídeo e imagen, generación de música etc...) y científico (generación de papers, optimización de algoritmos o generación de ideas)

A continuación describimos los más importantes

Unidad 1.2. Prehistoria de la IA, antes de llamarse IA.

Introducción

image.pngImagen extraída de la película: 2001 Una Odisea en el espacio de Stanley Kubrick

"La exploración está conectada a nuestros cerebros. Si podemos ver el horizonte, queremos saber qué hay más allá."  Buzz Aldrin.

La cita de Buzz Aldrin, evoca una curiosidad inherente y un deseo de exploración que es fundamental en la naturaleza humana. Esta curiosidad ha impulsado numerosos avances y descubrimientos a lo largo de la historia de la humanidad. Sin duda la búsqueda y desarrollo de la Inteligencia Artificial (IA) esta imbuida por esta curiosidad intrínseca y el deseo de explorar lo desconocido.

La historia de la IA es la historia de todas las personas que imaginaron, describieron y forjaron ideas innovadoras, transformando sueños de máquinas inteligentes en realidad, con la aspiración última de que estas máquinas puedan realizar tareas que requieren inteligencia humana. 

A lo largo de la historia  determinadas tareas que han sido tradicionalmente llevadas a cabo por humanos se han ido mecanizando gracias a avances tecnológicos sucesivos y han permitido liberar al humano de determinadas funciones, en especial aquellas repetitivas, mecánicas y tediosas. Estos avances consistían principalmente en mecanismos capaces de  realizar las tareas con un resultado similar e incluso mejorado al del humano que las venía realizando, mejorando en velocidad,  fuerza e incluso destreza a este. Estos avances, aunque no se puedan considerar como sustitutos de una tarea que requiera inteligencia, son pasos previos importantes para la consecución de entes robóticos dotados de inteligencia artificial, ya que estos precisan de tales los mecanismos y automatismos.

Puede que los más relevantes en el repaso histórico de hitos y personajes clave para el logro final de la IA  sean aquellos que anhelaron, pensaron y desarrollaron ideas para la creación de un ser que tenga consciencia de si mismo y cuya capacidad de resolver problemas supere a la del propio ser humano.

Por ello, en la evolución de la IA, es esencial destacar a aquellos que plasmaron mitos, leyendas y relatos de ciencia ficción. También es crucial reconocer a los filósofos y matemáticos que formularon teorías lógico-algebraicas, pues sentaron las bases de avances significativos. Finalmente, no podemos olvidar a quienes diseñaron algoritmos y sistemas de información capaces de realizar vastos cálculos en tiempo récord. Gracias a todos ellos, la IA actual puede ejecutar tareas que emulan la inteligencia humana, como aprender, razonar y decidir de forma autónoma y eficiente.

 

Desde nuestra comprensión actual de la inteligencia artificial, retrocedamos en el tiempo para explorar las motivaciones que han impulsado al ser humano en su incesante exploración. Nos adentraremos en el origen de la búsqueda de nuestra más valiosa posesión: la inteligencia. Y veremos como esta indagación se va sofisticando sustentada en las ideas , tanto aquellas que evolucionan de manera acumulativa como las que emergen de manera disruptiva e impulsadas por la creciente y acumulativa capacidad tecnológica.


La antigua Grecia - Mitos

"La inteligencia consiste no solo en el conocimiento, sino también en la habilidad de aplicar el conocimiento en la práctica." - Aristóteles

Esta cita de Aristóteles nos revela que la inteligencia es algo que debe manifestarse para considerarse como tal, y la manera más evidente que tiene para hacerlo es la de resolver problemas, lo que implica varias fases como; percibir la existencia del problema, comprender los aspectos relevantes del mismo, establecer una estrategia para su resolución y aplicarla prácticamente hasta dar por solucionado el problema de manera efectiva. 

Tal concepción de la inteligencia, con todas sus implicaciones intrínsecas, es la que se pretende simular en máquinas. De conseguirlo estaríamos hablando de Inteligencia Artificial. Este anhelo ha existido desde hace muchos siglos, y así se ha manifestado a través de mitos, ideas filosóficas, lógicas y matemáticas.

Echando la vista atrás para establecer un punto de inicio observamos que en las primeras civilizaciones de las que tenemos constancia podemos encontrar alusiones y referencias relacionadas con conceptos que ahora asociamos con la IA. En la antigua mitología egipcia y mesopotámica, hay historias de dioses y seres divinos que poseen conocimiento y habilidades sobrehumanas. Sin embargo, dado que estas historias se transmitían oralmente o en inscripciones en tabletas de arcilla, es más difícil rastrear detalles específicos o intenciones de "inteligencia artificial" como las entendemos hoy en día.

 

Por eso vamos a empezar “nuestra historia de la IA” estableciendo la antigua Grecia como punto de partida. De este periodo si existe abundancia de información y es notorio como ha contribuido al desarrollo de las sociedades actuales en multitud de campos, en concreto y para lo que nos ocupa, hablamos de una cultura cuya influencia los campos de la lógica, la filosofía, la concepción del pensamiento racional, puede perfectamente considerarse un pilar inicial para un posterior desarrollo de ideas y conceptos que desemboque en los enfoques modernos de la IA. Nos centramos en algunos aspectos concretos:

 

El comienzo de la lógica formal: La antigua Grecia es conocida por su contribución al desarrollo de la lógica formal. Filósofos como Aristóteles establecieron las bases de la lógica deductiva y la teoría de proposiciones, lo que atisbó la forma en que siglos mas tarde se abordarían problemas relacionados con la computación y la IA.

 

Como muestra, la idea atribuida a Aristóteles:

 "si se parte de premisas verdaderas y se razona correctamente, entonces se llegará necesariamente a una conclusión verdadera" - Aristóteles

Así como su estudio sobre las estructuras de razonamiento, como el silogismo, pueden reflejarse en cómo las máquinas modernas procesan la información. Por ejemplo, los sistemas expertos en inteligencia artificial usan una forma de razonamiento deductivo para llegar a conclusiones basadas en un conjunto dado de premisas, similar a cómo Aristóteles describiría la deducción en sus obras.

image.png

Esquema de la Lógica Aristotélica. Fuente: http://funresearch.weebly.com/spanish-page.html

 Autómatas y mitología: si bien no existen evidencias de máquinas o autómatas complejos en la Antigua Grecia. la mitología incluye historias de estatuas animadas y seres artificiales que tienen ciertas similitudes con la idea de seres creados artificialmente.

Uno de estos mitos es el de Pigmalión. Esta intrigante historia de la mitología griega nos habla sobre la creación de una figura artificial y el poder del amor.

Pigmalión era un talentoso escultor de Chipre que, aunque era hábil en su arte, había desarrollado un profundo desdén hacia las mujeres debido a  la promiscuidad que observaba en la sociedad. En su corazón, deseaba una compañera perfecta y pura, una mujer que fuera tan bella y virtuosa como su propia obra de arte.

Al entender que no encontraría ninguna mujer que completara sus anhelos, Pigmalión decidió esculpir una estatua de una mujer. Trabajó con tal perfección y dedicación que logró crear una figura femenina de una belleza y gracia extraordinarias. La estatua, a la que llamó Galatea, era tan hermosa y realista que Pigmalión se enamoró perdidamente de ella. 

El amor de Pigmalión por Galatea era tan profundo que rogó a la diosa Afrodita, la diosa del amor y la belleza, que diera vida a la estatua. Conmovida por su devoción, Afrodita escuchó sus súplicas y le concedió el deseo. La estatua de Galatea cobró vida y se convirtió en una mujer real, cálida y viva.

Pigmalión quedó extasiado al ver que su amada Galatea había cobrado vida y la tomó como su esposa. Juntos vivieron una vida feliz y dichosa.

El mito de Pigmalión ha sido una fuente de inspiración para muchas obras de arte, literatura y teatro a lo largo de la historia. El tema central de la creación de una figura artificial que cobra vida y el poder del amor para transformar la realidad han sido interpretados de diversas maneras, y la historia ha sido  retomada y adaptada en diferentes culturas y épocas.

No es complicado encontrar similitudes del mito de Pigmalión y las ideas y objetivos de los proyectos de IA posteriores y contemporáneos. 

image.pngPigmalión, de Jean-Baptiste Regnault de 1786, Museo Nacional del Palacio de Versalles. Fuente: Wikipedia

Hablamos de la creación de seres artificiales con conciencia propia, Pigmalión crea una figura de una mujer artificial utilizando marfil lo que, como concepto, es una parte fundamental de la IA. La IA busca crear entidades artificiales que puedan exhibir comportamientos inteligentes y similares a los humanos. Si bien en el mito, la vida y la conciencia de Galatea surgen en un acto mágico realizado por la diosa Afrodita, en el desarrollo de la IA, los científicos y tecnólogos trabajan para crear sistemas que puedan simular comportamientos inteligentes y conscientes.

Aunque se pueden extraer estos paralelismos sobre los anhelos humanos, también surgen de inmediato las consideraciones éticas de la eventual materialización de los mismos

En este sentido el mito de Pigmalión ilustra el poder emocional y la conexión que se puede establecer entre los creadores y sus creaciones artificiales. En el ámbito de la IA, a menudo se considera la ética y la responsabilidad en la relación entre humanos y sistemas de IA, ya que su uso puede tener impactos significativos en la sociedad y en las emociones de las personas.

Como este curso, trata sobre la IA y su aplicación e influencia en la educación, sirva apuntar que además el término "Efecto Pigmalión" también se utiliza en psicología y educación para referirse al fenómeno en el cual las expectativas y creencias de una persona pueden influir en el rendimiento y comportamiento de otra persona, ya sea para bien o para mal.

Y en relación con el “Efecto Pigmalión” surge la analogía de la relación entre expectativas y resultados: En el Mito de Pigmalión, las expectativas de Pigmalión sobre su estatua influyeron en su resultado, convirtiéndola en una mujer real. De manera similar, en el desarrollo y uso de la IA, las expectativas y creencias de los creadores y usuarios pueden influir en el rendimiento y resultados de los sistemas de IA. Por ejemplo, si se espera que una IA sea capaz de llevar a cabo ciertas tareas con éxito, los esfuerzos y la atención dedicados a su desarrollo pueden ser mayores, lo que puede conducir a un mejor desempeño. Cabe añadir aquí, la problemática que surge de la influencia del creador o creadores en los comportamientos posteriores de las IA, conocidos como sesgos, que surgen de las ideas conscientes o inconscientes de los diseñadores, desarrolladores o cualquier agente involucrado en un proyecto de IA y que posteriormente se verán reflejados de alguna manera en las respuestas o trabajos realizados por la misma. En el caso de Pigmalión, obviamente Galatea estaba hecha exactamente siguiendo los ideales de belleza del escultor.

El Mito de Pigmalión es narrado por el dramaturgo romano Ovidio en su obra Metamorfosis

También en la mitología griega encontramos el Mito de Talos, que es una fascinante historia ubicada en la isla de Creta. Aunque existen algunas variaciones en la leyenda, la versión más conocida se relata en la epopeya de Apolonio de Rodas, "Las Argonáuticas".

Talos, también conocido como Talón o Talonte, era un autómata, una criatura artificial de bronce creada por Hefesto, el dios griego del fuego y la forja, a petición de Zeus, el rey de los dioses.

Según el mito, Talos fue encargado para proteger la isla de Creta y mantener alejados a los intrusos y piratas. Era una gigantesca figura hecha de bronce, con venas que transportaban sangre líquida ardiente, lo que lo hacía prácticamente invulnerable a cualquier ataque. Su modus operandi para mantener la seguridad de la isla era dar vueltas alrededor de Creta tres veces al día, lanzando piedras a las embarcaciones enemigas y asustando a quienes se acercaran.

El autómata Talos también estaba equipado con una única vena en el tobillo, que estaba cerrada por una clavija de bronce. Esta vena se llenaba con el líquido ardiente que mantenía al gigante con vida. Cuando los argonautas liderados por Jasón llegaron a Creta en su búsqueda del vellocino de oro, su enemigo Medea (que viajaba con ellos) logró engañar a Talos y le quitó la clavija de bronce. El líquido precioso salió disparado de la vena, y Talos colapsó, liberando su vida artificial y pereciendo.

También aquí, encontramos semejanzas y cuestiones relacionadas con la IA en el momento actual. Talos es una creación artificial con un propósito concreto, la defensa de la isla de Creta, labor que puede hacer mejor que los seres humanos y sin necesidad de descanso. Podemos ver en el siguiente enlace un bonito video animado de esta historia que incluye una reflexión sobre las similitudes del mito y la IA.  El Mito de Talos de Adrienne Mayor: EL mito de Talos, el primer robot. Fuente: TED.com

image.png

Inspiración para pensadores posteriores: Estos son solo dos ejemplos de mitos griegos pero existen otros  mitos, ideas y conocimientos de la antigua Grecia que han influido significativamente en la filosofía y el pensamiento occidental a lo largo de la historia. Las obras de los filósofos griegos han sido ampliamente estudiadas y discutidas, lo que ha llevado a que conceptos relacionados con la inteligencia y la mente hayan sido considerados por pensadores posteriores.

Muchos de las aportaciones de la cultura griega nos llegan en forma de mitos y leyendas como las descritas, y algunas de ellas no dejan de sorprender por la facilidad con la pueden establecerse paralelismos y analogías con ideas de nuestro tiempo.

 


La Antigua Roma – Ingeniería

"Que algo te parezca difícil, no quiere decir que nadie más sea capaz de lograrlo." Marco Aurelio

La cita del estoico  filósofo y emperador de Roma Marco Aurelio (121-180 d.C.) inspira el espíritu de aquellos que no se dejaron vencer por las dificultades aparentes de una empresa, consiguiendo grandes logros que permitieron los progresos tecnológicos e hicieron avanzar a las sociedades.

Durante el Imperio Romano, no encontramos un desarrollo de las ideas tan destacado como en la antigua Grecia, en su lugar, el pueblo romano destacó por su eficacia y practicidad a la que contribuyó notablemente el desarrollo de la ingeniería para idear y construir artefactos y obras útiles para la sociedad y la expansión del imperio. Esa comprensión y aplicación creciente de la ingeniería y la mecánica sentó bases para futuros desarrollos en la automatización. Como logros concretos podemos citar:

Máquinas de agua y relojes hidráulicos: los romanos eran famosos por su habilidad en la ingeniería hidráulica, y algunas de sus invenciones pueden considerarse como precursores primitivos de la automatización. Por ejemplo, construyeron relojes hidráulicos complejos y autónomos que usaban agua para medir el tiempo.

Autómatas y mecanismos: hay registros históricos de que los romanos utilizaron autómatas para entretenimiento en teatros y festividades. Herón de Alejandría (10-70 d. C.) ,matemático e ingeniero escribió varios tratados que describen diversas máquinas. Entre ellas destaca la eolípila, primera máquina de vapor, cuya aplicación práctica en los templos le granjeó el pseudónimo de «el Mago». La eolípila era una máquina que consistía en una esfera hueca conectada a una caldera a la que se adaptaban dos tubos curvos gruesos. El interior de la caldera estaba lleno de agua, que se hacía hervir provocando que por los tubos subiera el vapor hasta la bola. El vapor salía por dos tubos estrechos acodados, haciendo girar la bola muy rápido. Sin embargo, esta máquina nunca tuvo un fin práctico y algunas fuentes comentan que el invento no era más que un juguete con la finalidad de entretener a los niños de la época.

 

Eolipila. Herón de Alejandría. Fuente: Wikipedia

Herón describió por anticipado, aunque de forma arcaica mediante este artefacto, la ley de acción y reacción que cientos de años mas tarde postuló Isaac Newton, experimentando con vapor de agua.

Herón también es autor de  Autómata, considerado el primer libro de robótica de la historia. En el, explica cómo construir juguetes mecánicos, figuras animadas y artefactos que funcionan con la ayuda del vapor o el agua. Estos autómatas incluyen pájaros que cantan, estatuas que se mueven y figuras que realizan acciones mecánicas complejas.

Todos estos logros representan un entendimiento avanzado de la ingeniería, la mecánica, y la automatización para su época y son parte de una larga cadena de innovación que, con el tiempo, nos llevará a la creación de máquinas autónomas y, finalmente, al desarrollo de la robotica, la cual está estrechamente relacionada con la inteligencia artificial.

Otra figura destacable de la época romana es la de Vitruvio (70-15 a. C.), escritor, ingeniero y arquitecto romano, sirvió para Julio Cesar y posteriormente para Augusto. Es conocido también por su tratado de diez volúmenes llamado "De Architectura", Considerado el primer manual de arquitectura de la historia. En estos volúmenes, Vitruvio abordó no solo la arquitectura, sino también una amplia gama de temas que incluyen la ingeniería civil, la mecánica y la historia natural.

Vitruvio es particularmente conocido por definir los tres principios fundamentales de la buena arquitectura: firmitas (solidez), utilitas (utilidad) y venustas (belleza). Estos principios también pueden aplicarse a la tecnología en general y trasladando los mismos al campo de la IA se pueden establecer como base de desarrollo de un sistema:

El enfoque de Vitruvio en la combinación de la funcionalidad y la estética en el diseño, y su interés por la mecánica y la ingeniería, han tenido un impacto duradero en estas disciplinas. Sus ideas pueden ser valiosas al considerar cómo diseñar y construir sistemas complejos incluidos los de IA de manera efectiva y ética.

En el decimo libro del tratado "De Architectura", Vitruvio hace una alegato a favor de la tecnología y las máquinas para todos los ámbitos de la sociedad (agricultura, navegación, transporte…) lo que es un antecedente claro de la importancia que se le ha dado a la posibilidad de liberar al ser humano de determinadas tareas que pueden ser trasladadas a las máquinas si se consigue el desarrollo tecnológico adecuado.

Dato de interés: de Vitruvio es el estudio de las proporciones ideales del cuerpo humano que posteriormente Leonardo Da Vinci traslado al dibujo en su famoso “hombre de Vitruvio”

Hombre de Vitruvio. Leonardo Da Vinci


La Edad Media – Autómatas

 La Edad Media fue un período fascinante en la historia de la humanidad, y también encontramos en ella ideas y avances que pueden considerarse escalones intermedios en el camino hacia la Inteligencia Artificial (IA). Esta evolución fue en forma de autómatas y otros artilugios mecánicos. Así, de la mano de desarrollos tecnológicos se produjeron progresos notables en la automatización y la simulación de comportamientos humanos.

Durante la Edad Media, los artesanos y los inventores se inspiraron en los antiguos relatos y mitos que hablaban de autómatas y seres artificiales para crear sus propios dispositivos mecánicos. Estos artilugios, también conocidos como autómatas mecánicos, eran figuras humanoides o animales que se construían con el propósito de imitar movimientos y comportamientos humanos o animales de manera automatizada.

Uno de los ejemplos más destacados de mecanismos automáticos de la Edad Media es el famoso reloj astronómico de Estrasburgo, construido en el siglo XIV. Este reloj no solo mostraba la hora, sino que también presentaba una serie de figuras mecánicas en movimiento que representaban eventos astronómicos, religiosos y mitológicos. Estas figuras automatizadas, controladas por un intrincado sistema de engranajes, proporcionaban una exhibición visual impresionante y mostraban una comprensión temprana de la ingeniería mecánica y la automatización.

Otro ejemplo notable es el famoso Automa Cavaliere’ (1495), caballero mecánico, de Leonardo da Vinci, diseñado durante el Renacimiento. Aunque da Vinci vivió en una época posterior a la Edad Media, su trabajo también se relaciona con la tradición medieval de los autómatas. El caballero mecánico fue un prototipo de una máquina con forma humana diseñada por Leonardo en el siglo XV. Según los dibujos de Leonardo, el Caballero Mecánico habría sido capaz de realizar movimientos como sentarse, mover los brazos y mover la mandíbula. Aunque esta máquina no tenía "inteligencia" en sí misma, es un ejemplo temprano de intentos de crear una máquina capaz de imitar el movimiento y la función humana, una idea que es central en la robótica moderna.

Autómata construido en base a los bocetos sobre el mismo hallados en 1950.

En la Edad Media también surgieron leyendas y cuentos populares que se relacionaban con autómatas y seres artificiales. Uno de estos relatos es la leyenda del "Hombre del Palo".

El "Hombre de Palo" es una denominación que se le da a un mecanismo automático diseñado por Juanelo Turriano, también conocido como el "autómata de Turriano". Juanelo Turriano fue un famoso relojero e ingeniero italiano del siglo XVI que trabajó para el emperador Carlos V y su hijo Felipe II en España. 

El autómata era un mecanismo articulado en forma de persona, de unos 38 cm de alto, que podía moverse por sí mismo y realizar una serie de acciones. Algunas versiones dicen que caminaba por las calles de Toledo ataviado como un monje con sayal y una gran cruz, revestido de madera pero con su interior lleno de engranajes metálicos, cuerdas y ruedas, que le permitian un movimiento propio que imitaba al de una persona, movía los ojos y abría y cerraba su boca.

Los curiosos se agolpaban para ver este invento que dejaba a propios y extraños con la boca abierta. Además, según cuentan las crónicas, este curioso ser llevaba una hucha para pedir limosna, y si algún viandante echaba una moneda, recibía del autómata una reverencia como muestra de gratitud. De hecho se dice que servía como ayudante al propio Juanelo realizando todo tipo de recados.

No deja de ser una leyenda, aunque en este caso si que han surgido teorías desarrolladas por historiadores sobre qué pudo ser realmente este curioso invento. Algunos indican que pudo ser una pequeña estatua de madera, con una hucha o cepo como las que podemos ver aún al día de hoy en algunas iglesias, que pedía limosna para el sostenimiento del Nuncio Viejo, hospital situado en una calle próxima, que era conocido por atender a enfermos mentales. Otra versión, dice que pudo ser un estafermo o figura de madera hincada sobre una peana fija, que portaba en un brazo un escudo y en el otro un saco de arena; la costumbre al pasar era dar un golpe al escudo para que este curioso sistema se girase rápidamente y diera con el saco a algún transeúnte despistado.

El hecho es que al hombre de palo se le pierde la pista y las distintas teorías sobre su destino vuelven a surgir:

Una teoría nos dice que fue destruido, quemado más exactamente, ya que de la sorpresa y el estupor inicial se pasaba fácilmente a sospechar cómo diablos podía moverse este artilugio, se pensaba que atentaba contra la creación divina. (Este argumento, matizado, también está en el debate actual de la IA). La ciencia, en esta época, se consideraba más próxima a la herejía que a la evolución tecnológica. 

Otra teoría nos dice que el hombre de palo desaparece sí, pero no se destruye, es más, que se conservó en perfecto estado por una cadena de coleccionistas y lo más sorprendente aún, es que nos podría haber llegado hasta el día de hoy. Al menos existe un autómata que responde a las mismas características que las citadas en el Instituto Smithsonian de Washington D. C., en los Estados Unidos. El artefacto en cuestión tiene dos datos significativos, su fecha y procedencia: datación 1560, origen Alemania o España. Esta evidencia ha llevado a pensar a muchos que este es el auténtico hombre de Palo de Juanelo, el mismo que se paseó por las angostas calles toledanas, increíble pero quizá cierto. En el siguiente video puede apreciarse la figura conservada Automaton figure of a monk, South Germany or Spain, c. 1560

image.png

  Fuente: https://www.paseostoledomagico.es/leyenda-hombre-de-palo/

Esta leyenda da pie a la reflexión sobre el ser humano y sus creaciones  y el papel de la tecnología en la vida cotidiana, cada día más vigente .


Edad Moderna

Racionalismo: “toda acción tiene una razón de ser, una explicación, si se encuentra la razón de la misma, se puede reducir el comportamiento a una serie de postulados lógicos y expresarlos de manera simbólica

Conforme avanza la historia, los mitos y leyendas van dando paso a historias documentadas sobre logros reales e ideas avanzadas que van marcando el camino de lo que ahora tenemos entre manos. Tenemos que tener claro pues, que el repentino interés actual por la IA no supone que esta haya surgido de repente, los avances se van sucediendo, de manera incremental en unas ocasiones y disruptiva en otras, produciéndose momentos de euforia y también de posterior enfriamiento principalmente debido a que, por lo general, las ideas corren mas que los desarrollos prácticos e incluso teóricos. La importancia de la Edad Moderna radica,  en este aspecto, en las ideas filosóficas y teorías matemáticas que durante ella se desarrollaron, las cuales fundamentaron posteriores desarrollos prácticos.

La Edad Moderna que transcurre en los siglos del XVI al XVIII, se caracteriza entre otras cosas por la vuelta a las ideas clásicas, entre ellas nos interesa destacar la vuelta al racionalismo y su idea central de que la razón y la deducción son la base del conocimiento verdadero, en contraposición a la experiencia sensorial o la fe religiosa. La recuperación de esta corriente de pensamiento permitió muchos avances en el terreno conceptual, entre otros el desarrollo de las ideas de autores como Gottfried Wilhelm Leibniz y René Descartes son relevantes en el contexto de la naturaleza humana y la posibilidad de reducir el lenguaje a un sistema racional y simbólico. Estas ideas supusieron un paso mas para futuros desarrollos en la comprensión de la inteligencia artificial y su relación con el lenguaje y el pensamiento humano.

Leibniz (1646 - 1716), filósofo y matemático alemán del siglo XVII, desarrolló una filosofía conocida como "monadología". En su visión, argumentaba que el mundo estaba compuesto por "mónadas", unidades indivisibles de realidad que poseían una especie de conciencia y percepción. Según Leibniz, estas monadas podían entenderse como entidades fundamentales que formaban la base de toda la realidad y que poseían cierto grado de inteligencia inherente. 

En cuanto al lenguaje, Leibniz propuso la idea de que el pensamiento humano podía ser reducido a una combinación de símbolos lógicos y matemáticos. Su visión se basaba en la idea de que el lenguaje podía ser formalizado y que todas las ideas y conceptos podían ser expresados mediante una notación simbólica universal. Esta noción iluminó el desarrollo posterior de los lenguajes formales y la lógica matemática, que son fundamentales en la teoría de la computación y la inteligencia artificial. Esta cita suya, ilustra su teoría:

“La única manera de rectificar nuestros razonamientos es hacerlos tan tangibles como los de los Matemáticos, para que podamos encontrar nuestro error de un vistazo, y cuando haya disputas entre personas, podemos simplemente decir: Calculemos, sin más dilación, a ver quién tiene razón”

Otro filósofo y científico del siglo XVII, René Descartes (1596 -1650),  formuló la famosa afirmación:

"Cogito, ergo sum" (Pienso, luego existo),

Esta cita destaca la importancia del pensamiento y la conciencia en la definición de la existencia humana. Descartes argumentaba que la capacidad de pensar y tener conciencia era la esencia del ser humano, y que esta capacidad diferenciaba a los humanos de otras formas de vida.

En su obra "Discurso del Método" Descartes propuso una metodología basada en la duda metódica y la razón como herramientas fundamentales para el conocimiento humano. Su enfoque racionalista y su énfasis en la claridad y la distinción sirvieron de impulso para el desarrollo de una lógica rigurosa y un sistema de razonamiento basado en reglas formales.

Descartes también abordó el tema de la reducción, no solo del lenguaje sino del comportamiento, a un sistema racional y simbólico. En su idea del animal-maquina, sugirió que los animales podrían ser vistos como máquinas que funcionaban mecánicamente según reglas predecibles, y que a diferencia de los humanos no estaban dotados de conciencia. Esta idea fue ampliada posteriormente por E Julien Offray de La Mettrie en su obra “El hombre máquina(L'homme Machine). Ambas teorías han sido ampliamente discutidas pero dan pie a reflexionar sobre la propia idea de inteligencia y en consecuencia de Inteligencia Artificial.

Extraemos de las filosofías de Leibniz y Descartes las perspectivas ofrecidas sobre la naturaleza humana y la posibilidad de reducir el lenguaje y los comportamientos a un sistema racional y simbólico. Desarrollos posteriores basados en sus ideas pueden verse como fundamentos de teorías que desembocan en principios utilizados en inteligencia artificial, especialmente en lo que respecta al procesamiento del lenguaje natural y la lógica simbólica en los sistemas de IA modernos.

Como hemos visto, ciencia y filosofía han ido de la mano en la evolución del pensamiento humano desde la antigua Grecia, ¿en qué desastroso momento se rompió esta simbiosis?, y que necesaria se está demostrado en el actual y aparentemente definitivo, resurgimiento de la IA.  


La Revolución Industrial

"Las máquinas nos han dado la posibilidad de producir en grandes cantidades y a menor costo, pero también han generado desafíos en términos de desigualdad y la necesidad de repensar la distribución equitativa de la riqueza." - Karl Marx

"Si le hubiera preguntado a la gente qué querían, habrían dicho 'caballos más rápidos'." - Henry Ford

"Las máquinas son la maldición de la humanidad. Son una amenaza para nuestro trabajo, nuestra libertad y nuestra dignidad." - Ludditas

Los ludditas fueron un movimiento de trabajadores en la Inglaterra del siglo XIX que se opusieron a la creciente mecanización y automatización de la industria textil. Su objetivo era preservar sus empleos y protestar contra las máquinas que los reemplazaban. Aunque no existe una cita específica de un líder luddita, esta frase resume la esencia de su oposición a las máquinas y el temor de que estas tecnologías redujeran los empleos y el bienestar de los trabajadores.

La Revolución Industrial, que tuvo lugar en los siglos XVIII y XIX, marcó un punto de inflexión en la historia al introducir cambios significativos en la producción, la economía y la sociedad. Con ella se universalizaron tecnologías y conceptos que contribuyeron a la idea, para aquellos que se beneficiaban de la misma, de que la automatización y la sustitución de maquinas por personas en el trabajo era positiva debido al incremento de productividad, la reducción de costes y la maximización del beneficio, en definitiva, termino de imponer de manera generalizada el capitalismo como sistema socio-político en occidente. 

Durante la Revolución Industrial, una de las invenciones clave fue la máquina de vapor, que impulsó la mecanización y la automatización de la producción. La primera máquina de vapor práctica fue desarrollada por James Watt en el siglo XVIII, y su uso generalizado en la industria tuvo un impacto revolucionario en la eficiencia y la velocidad de la producción. Esta máquina se considera un hito importante en la transición hacia la producción industrializada y para el surgimiento de las fábricas modernas.

Sin embargo, a medida que avanzaba la Revolución Industrial, también surgieron tensiones y oposición social al avance tecnológico y la automatización. La introducción de máquinas y sistemas mecanizados generó preocupaciones entre los trabajadores, que temían la pérdida de empleos y la explotación laboral. Muchos artesanos y trabajadores manuales se enfrentaron a la desaparición de sus oficios tradicionales debido a la creciente mecanización y la demanda de mano de obra barata en las fábricas.

Estas tensiones sociales y el conflicto entre los trabajadores y los avances tecnológicos durante la Revolución Industrial son un precursor histórico de las preocupaciones actuales en torno a la automatización que la IA promete conseguir, ya no solo de actividades mecánicas sino también de actividades cognitivas.

La oposición a la automatización y la consiguiente pérdida de determinados empleos se ha repetido en diferentes momentos históricos, a medida que las tecnologías han avanzado y han surgido debates sobre los impactos socioeconómicos y el futuro del trabajo.

Encontramos paralelismos entre la Revolución Industrial y el surgimiento posterior de la IA en relación con el desarrollo de tecnologías y conceptos que se vinculan con la automatización y la producción en masa. También hay claras similitudes en inicial oposición social y las tensiones laborales que ocurrieron en ese período histórico que reflejan las preocupaciones recurrentes en torno a los avances tecnológicos y la automatización que también se han dado en otros momentos de la historia y cuyo debate esta volviendo a surgir actualmente en lo relacionado con la IA y el futuro del trabajo.

image.png

Revolución industrial. Imagen propia. Generada por Bing con tecnología de DALL·E 3


La llegada de los bits 

"Las leyes del pensamiento son leyes matemáticas y, por lo tanto, la ciencia del razonamiento, de las pruebas, es simplemente una rama de la ciencia del número." - George Boole

"Las máquinas pueden hacer cualquier cosa que un ser humano pueda describir formalmente." - Alan Turing

Durante el siglo XIX y principios del XX, se dio una confluencia de ideas filosóficas, matemáticas y tecnológicas que cimentaron  el surgimiento de la inteligencia artificial y la computación moderna. 

En el siglo XIX, la lógica formal y la teoría de conjuntos desarrolladas por figuras como George Boole y Gottlob Frege allanaron el camino para la lógica computacional. La lógica booleana, un sistema matemático para representar el razonamiento lógico, que utiliza operaciones de AND, OR y NOT,  se convirtió en fundamental para el diseño de circuitos eléctricos en computadoras. Estos tres operadores son fundamentales en la lógica booleana y se utilizan para realizar operaciones de conjunción, disyunción y negación en expresiones lógicas.

Introduzcamos ahora a los bits: Los bits son la unidad básica de información en la computación y la electrónica. El término "bit" proviene de la contracción de las palabras "binary digit" (dígito binario) y representa la menor cantidad de información almacenada en una computadora. Un bit puede tener uno de dos valores posibles: 0 o 1, que corresponden a los estados de "apagado" y "encendido" en la electrónica. En esencia, los bits son la forma en que las computadoras representan y manipulan información a nivel fundamental.

La relación entre los bits y la lógica booleana es fundamental y clave para comprender como se pasó de las ideas a las maquinas. Como hemos adelantado, la lógica booleana es un sistema de álgebra basada en la teoría de George Boole y utiliza valores booleanos (verdadero o falso) para representar estados lógicos. La relación con los bits radica en que estos valores booleanos se pueden identificar directamente con los valores 0 y 1 utilizados en la representación binaria de la información.

Aquí hay una correspondencia simple entre los valores booleanos y los bits:

- Verdadero (True) se puede representar como 1 en forma binaria.
- Falso (False) se puede representar como 0 en forma binaria.

Esta correspondencia permite que la lógica booleana se aplique directamente a la manipulación de bits en las computadoras. Los operadores lógicos AND, OR y NOT se utilizan para realizar operaciones lógicas en valores booleanos (0 y 1) almacenados en bits. Por ejemplo:

- El operador AND realiza una operación de "y lógico", lo que significa que devuelve 1 solo si ambos bits son 1, de lo contrario, devuelve 0.
- El operador OR realiza una operación de "o lógico", lo que significa que devuelve 1 si al menos uno de los bits es 1.
- El operador NOT invierte un bit, convirtiendo 1 en 0 y viceversa.

En resumen, los bits son la unidad básica de información en las computadoras y se relacionan directamente con la lógica booleana mediante una correspondencia simple entre los valores booleanos (verdadero/falso) y los valores binarios (1/0), lo que permite la manipulación lógica de datos en las computadoras.

El concepto de bits (dígitos binarios) y la base binaria en la que se basa el sistema de numeración binario se originaron en la década de 1930, aunque la idea de representar información en forma de bits y su aplicación en la informática moderna evolucionaron a lo largo de varias décadas. Algunos de los hitos cronológicos mas destacados relacionados con esta evolución son:

image.png

Elaboración propia con Genially

En este periodo histórico ocurrieron otros acontecimientos muy reseñables como lo que se considera el primer diseño y a su vez el primer intento de construcción de una computadora que ocurrió en el XIX. Charles Babbage diseñó la Máquina Analítica en la década de 1830, una máquina mecánica que, aunque nunca se construyó completamente en su época, representó la idea de una computadora programable. Utilizaba tarjetas perforadas para recibir instrucciones y era capaz de realizar cálculos aritméticos. Ada Lovelace trabajó con Babbage en este proyecto y es reconocida por escribir lo que se considera el primer algoritmo destinado a ser procesado por una máquina, vislumbrando la capacidad de las computadoras para ir más allá de los simples cálculos numéricos.

La máquina no se construyó en su momento ya que los contemporáneos de Babbage lo consideraron un sueño delirante. De no haber sido así, se podría haber anticipado la construcción de los primeros ordenadores más de un siglo. 

La Máquina Analítica de Babbage no gestionaba la información de manera binaria ya que fue diseñada antes de que el algebra booleana fuera formalmente introducida.  Así que aunque el procesamiento binario de datos, que es fundamental para las computadoras modernas, no fue una característica del diseño original de la Máquina Analítica, sus conceptos y diseños si que se consideran parte fundamental para el desarrollo posterior de las computadoras, y Babbage es a menudo referido como uno de los "padres de la computación". 

Charles Babbage afirmaba que las máquinas transformarían el mundo. Invirtió considerables esfuerzos y su propia fortuna en el diseño y la creación de la Máquina Analítica. Sin embargo, su visión no pudo concretarse debido a la falta de apoyo y fue ridiculizado por sus contemporáneos. Babbage, un adelantado a su época, escribió algo que resultaría ser cierto:

"Otra generación deberá evaluar mi trabajo".  Charles Babbage

La Máquina Analítica concebida por Charles Babbage en 1821 y construida en 1991 por un equipo de ingenieros del Museo de Ciencias de Londres .GETTY IMAGES

En el siglo XX, las ideas y teorías abstractas relacionadas con la computación y el procesamiento de información se convierten en realidad práctica en forma de dispositivos funcionales. La Atanasoff-Berry Computer (ABC) en la década de 1930 y la Harvard Mark I en la década de 1940 fueron algunos de los primeros ordenadores electromecánicos. Utilizaban relés y tubos de vacío para realizar cálculos, y su programación era principalmente a través de tarjetas perforadas o cintas de papel. Utilizaban la lógica booleana en su funcionamiento interno ("software"). Por ejemplo, para realizar operaciones aritméticas o lógicas en números binarios, se utilizaban circuitos que implementaban operaciones booleanas. La lógica booleana se convirtió en una parte esencial de la programación y el diseño de hardware de las primeras computadoras. Estas máquinas eran enormes y lentas según los estándares actuales, pero representaban un avance significativo en la capacidad de procesamiento de información.

 Estos primeros ordenadores permitieron poner en práctica las ideas de lógica y automatización desarrolladas en el siglo anterior. La capacidad de programar algoritmos y realizar cálculos complejos en una máquina fue la primera etapa en el camino hacia la IA moderna. Las teorías matemáticas del siglo XIX se casaban con el funcionamiento de estas máquinas, ya que los principios de lógica y cálculo eran ahora ejecutables en hardware.

Vemos entonces a modo de resumen que el siglo XIX fue un período de fermentación intelectual que estableció los fundamentos teóricos de la computación, mientras que el siglo XX vio el desarrollo de los primeros ordenadores prácticos. Juntos, estos avances marcaron la transición de las ideas sobre automatización y procesamiento de la información desde el reino de la especulación teórica hasta la realidad tangible, abriendo el camino hacia la era de la computación y la inteligencia artificial.

Cabe destacar en esta etapa histórica al matemático y lógico británico Alan Turing (1912-1954). Turing introdujo el concepto de las "máquinas de Turing", una idea teórica sobre un aparato capaz de ejecutar cualquier operación computacional. Se refiere a un modelo abstracto de una computadora compuesto por una cinta infinita segmentada en casillas, una cabeza de lectura/escritura que se desplaza a lo largo de la cinta y un conjunto limitado de estados y reglas de transición. Las máquinas de Turing fueron fundamentales en la evolución de la teoría de la computación y ejercieron una influencia notable en la Inteligencia Artificial.

Durante la Segunda Guerra Mundial, el trabajo desarrollado por Alan Turing en criptografía resulto en un importante papel en la guerra. Turing y su equipo desarrollaron la máquina "Colossus", considerada una de las primeras computadoras electrónicas programables. Esta máquina ayudó a descifrar los códigos de comunicación alemanes. El funcionamiento de esta máquina se basaba en el uso de interruptores electrónicos para representar y procesar información en forma de bits (0 y 1).

En 1943, Warren McCulloch y Walter Pitts introdujeron el concepto de "neurona artificial", una abstracción matemática de una célula nerviosa. La neurona McCulloch-Pitts proporcionó un modelo de cómo las neuronas biológicas podrían realizar cálculos simples mediante la combinación de señales de entrada y la aplicación de una función de activación. Su modelo sentó las bases para el desarrollo posterior de las redes neuronales artificiales, que son esenciales en la IA moderna.   

Neurona artificial (McCulloch Pitts)

En 1950, Alan Turing contribuyó de nuevo en sentar las bases de la inminente disciplina de la IA proponiendo la famosa "prueba de Turing", un test para determinar si una máquina puede exhibir un comportamiento inteligente indistinguible del de un ser humano. Esta idea planteó cuestionamientos profundos sobre la naturaleza de la inteligencia y allanó el camino para la investigación y el desarrollo de la IA en las décadas siguientes. En este video "el propio Turing" explica el funcionamiento del test que lleva su nombre. 

El Test de Turing contado por Alan Turing. Ejemplo de video generado 100% con IA. https://www.youtube.com/@JoaquinPena

Unidad 1.3. Inicios y evolución de la IA.

El nacimiento de la IA

Texto en la placa conmemorativa de la conferencia de Dartmouth (1956): "Primera utilización del término "Inteligencia Artificial". Fundando la Inteligencia Artificial como una disciplina de investigación para proceder sobre la base de la conjetura de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse tan precisamente que se puede construir una máquina para simularlo".

A partir de los años 50 se produce una evolución explosiva de la IA aunque con altibajos, también llamados inviernos de IA. 

El resumen de tal proceso se presenta en esta imagen y se desarrolla a continuación:

image.png

Desde la histórica conferencia de Dartmouth en 1956, que marcó el inicio formal de la Inteligencia Artificial (IA) como campo de investigación, hasta el año 2011, se han producido importantes avances en la evolución de la IA. Los impulsores de la conferencia de Dartmouth fueron: John Mcarthy (Dartmoth College), Marvin L. Minsky (MIT), Nathaniel Rochester (IBM, y Claude Shannon (Laboratorios Bell). Cada uno de ellos era líder en áreas cruciales para el nacimiento de la IA. McCarthy en la formulación de conceptos de IA, Minsky en el aprendizaje de máquinas y redes neuronales, Rochester en hardware y arquitectura de computadoras, y Shannon en teoría de la información. Sus conocimientos y colaboraciones fueron fundamentales para establecer una base sólida que permitió el desarrollo y crecimiento de la IA como una disciplina de investigación.

A partir de ese momento, y creciendo sobre los cimientos de las teorías, desarrollos conceptuales y tecnológicos acumulados hasta ese momento, se fueron sucediendo logros técnicos y tecnológicos que han desembocado en la irrupción aparentemente imparable de la IA en la actualidad. 

Uno de los hitos clave fue la invención del perceptrón por Frank Rosenblatt en 1957. El perceptrón fue uno de los primeros modelos de aprendizaje automático inspirados en las redes neuronales del cerebro humano. El perceptrón, era una evolución de la neurona McCulloch-Pitts, si bien mejoraba a esta al introducir el concepto de aprendizaje automático. Mientras que la neurona de McCulloch-Pitts tenía pesos fijos, el perceptrón permitía el ajuste de los pesos en función de los datos de entrada a través de un proceso de aprendizaje simple, lo que permitía que el modelo aprendiera a clasificar diferentes patrones de datos automáticamente. Esta capacidad de aprender de los datos fue un avance significativo hacia el desarrollo de algoritmos más avanzados de aprendizaje automático y redes neuronales.

Seymour Papert, que trabajó junto con Marvin Minsky y ambos fueron coautores de un libro muy influyente llamado "Perceptrons" en 1969, que exploraba las limitaciones y las capacidades de los perceptrones y las redes neuronales. Su trabajo junto con Minsky fue crucial para entender y analizar las capacidades y limitaciones de estos modelos, lo cual fue fundamental en el desarrollo temprano de la inteligencia artificial y el aprendizaje automático.

"El perceptrón es el embrión de una computadora que será capaz de hablar, caminar, ver, escribir, reproducirse y ser consciente de su existencia" Seymour Papert

image.png

Comparativa gráfica entre una neurona y el perceptrón. https://inteligenciafutura.mx/english-version-blog/blog-06-english-version


Ciclos de esperanza y escepticismo: Los Altibajos de la IA (1970-2010)

Sin embargo, a pesar de sus prometedoras capacidades, pronto surgieron limitaciones y desafíos que llevaron a un declive en la investigación de la IA, conocido como el "primer invierno de la IA". La citada publicación "Perceptrons" en la que también se mencionaban las limitaciones del mismo anticipó ese declive.

En el "primer invierno de la IA", que tuvo lugar durante la década de 1970 y principios de la década de 1980, los avances en la IA se estancaron debido a la falta de resultados prácticos y las expectativas excesivas. El financiamiento se redujo y muchos investigadores abandonaron el campo.

Si bien, aún sin financiación a gran escala, los trabajos y desarrollos teóricos siguieron produciéndose y en 1974 el matemático y economista Paul Werbos publicó su tesis doctoral en la que introdujo el concepto del algoritmo de retropropagación (backpropagation)  que es fundamental para entrenar redes neuronales multicapa. Este algoritmo se convirtió en una base crucial para el desarrollo del aprendizaje profundo, facilitando el entrenamiento eficaz de redes neuronales y contribuyendo al avance de la inteligencia artificial.

image.png

Esquema gráfico del funcionamiento del algoritmo de retropropagación. https://www.analyticsvidhya.com/blog/2023/01/gradient-descent-vs-backpropagation-whats-the-difference/

A grandes rasgos el algoritmo de retropropagación introduce el posible error cometido en la predicción realizada por el algoritmo respecto al resultado esperado, permitiendo a la red neuronal ajustar los pesos de los cálculos que se realizan en las capas de neuronas con el objetivo de afinar cada vez mas el resultado final.

Avances como la retropropagación, el nuevo enfoque de los desarrollos que se centraban en problemas concretos, lo que resultó en lo que se dio a denominar Sistemas Expertos, así como la fundamentación de los sistemas en la gestión estructurada de grandes cantidades de datos condujo a mediados de la década de 1980 a un resurgimiento en la investigación de la IA y a una vuelta de la financiación, impulsada no solo por iniciativa privada sino también por proyectos nacionales como en Japón o Estados Unidos.

Sin embargo, a finales de la década de los 80, volvió a enfriarse el entusiasmo. Las causas en esta ocasión se encontraban  en un estancamiento provocado por las limitaciones tecnológicas y la falta de robustez en los sistemas existentes. Por tanto, se dejaron de lado los proyectos en curso en lo que se denomino "segundo invierno de la IA" y los esfuerzos volvieron a centrarse en un replanteamiento del enfoque.

Este cambio de perspectiva se materializó en varios frentes:

Relacionado con este cambio de paradigma se publico el artículo:
  • "Elephants Don’t Play Chess" de Rodney Brooks (Laboatorio de IA del MIT)

En este artículo, Rodney Brooks argumenta en contra del enfoque tradicional basado en la lógica simbólica y a favor de un enfoque más basado en la interacción con el entorno. Brooks propone que los sistemas de IA deberían estar más arraigados en el mundo físico y ser capaces de interactuar con él de manera efectiva, en lugar de estar confinados a tareas abstractas y descontextualizadas como jugar al ajedrez. Su trabajo promovió una visión de la IA que valora la interacción con el entorno y la capacidad de adaptarse a él, lo cual es crucial para el desarrollo de robots autónomos y otros sistemas de IA interactuantes.

image.pnghttps://msujaws.wordpress.com/2010/11/18/elephants-dont-play-chess/

En contraposición a los enfoques anteriores que se centraban en la lógica simbólica y en sistemas expertos con un conocimiento codificado de manera rígida, estos nuevos enfoques adoptaron una perspectiva más flexible y basada en datos, que permitió a la IA superar el segundo invierno y entrar en una nueva era de innovación y crecimiento. Además, el apoyo continuo de la comunidad académica y de la industria, junto con avances en hardware y disponibilidad de datos, contribuyeron a superar las limitaciones que habían causado el segundo invierno de la IA.

Estos cambios en el enfoque hacia una IA más interactuante y emergente representaron un movimiento importante lejos de los enfoques anteriores, y se alinean con la tendencia general hacia la IA que es capaz de aprender y adaptarse de manera más efectiva a su entorno.

Este periodo, que abarcaría desde la década de 1990 hasta finales de la década de 2010, estuvo plagado de logros concretos de la IA que supusieron hitos importantes en la constatación de su evolución en campos que siguen desarrollándose actualmente, como ejemplos 

image.png

Watson de IBM. De Clockready - Trabajo propio, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=15891787


Hitos contemporáneos, de la IA a la AGI

"Attention is all you need." - Vaswani et al., "Attention Is All You Need" (2017)

"Los modelos de lenguaje como ChatGPT pueden ser herramientas increíblemente poderosas, pero también conllevan una gran responsabilidad para garantizar que se utilicen de manera ética y segura." - Sam Altman

Durante el periodo de 2011 a 2023, ha habido un notable avance en las tecnologías de Inteligencia Artificial, particularmente en el desarrollo de nuevos algoritmos, evolucionadas redes neuronales , así como revolucionarias arquitecturas. Estas tecnologías han sido fundamentales para el procesamiento de imágenes, el procesamiento del lenguaje natural y otras tareas de IA. Aquí se presenta una visión general de su evolución:

En cuanto a las redes neuronales  destacan:

A la izquierda una GAN "trabajando" para crear el retrato de Edmond Belamy, a la derecha. Esta obra fue subastada en Christie's  y se convirtió así en la primera casa de apuestas en subastar una obra generada por una IA. 

El Generador (de la red GAN) produjo imágenes basadas en un conjunto de datos de 15.000 retratos pintados entre los siglos XIV y XX, y el  Discriminador intentó diferenciar las obras creadas por el hombre y las generadas por IA.

"El objetivo es engañar al Discriminador haciéndole creer que las nuevas imágenes son retratos de la vida real", dice Caselles-Dupré, cofundador de Obvious, colectivo artístico promotor de la iniciativa. "Entonces tenemos un resultado". Edmon Belamy es uno de los 11 retratos que representan a la familia ficticia Belamy.

Además de las redes neuronales la evolución de las arquitecturas, entendidas como el diseño general de la estructura de un modelo, ha representado un salto fundamental en el campo de la inteligencia artificial y en concreto el procesamiento de lenguaje natural (NLP):

Estos avances técnicos dieron pie a la consecución de determinados logros, algunos de los cuales se consideran momentos clave en la historia de la IA, algunos de ellos son:

image.png

Posteriormente, DeepMind subió la apuesta y en 2017 lanzó AlphaGo Zero. A diferencia de AlphaGo, que se entrenó en juegos jugados por humanos, AlphaGo Zero fue entrenado, a partir del único conocimiento de las reglas del juego, desde cero, solo mediante el aprendizaje de refuerzo. A través de la autoevaluación y la retroalimentación de las partidas jugadas contra ella misma, AlphaGo Zero ajustaba sus estrategias y mejoraba su rendimiento. AlphaGo Zero se convirtió en el mejor jugador del mundo en tres días, superando la versión anterior de AlphaGo. Este evento mostró el potencial de los sistemas de aprendizaje profundo para superar incluso a los mejores jugadores humanos sin la necesidad de datos de entrenamiento previos.

Los modelos basados en la arquitectura Transformer han mejorado significativamente la capacidad de procesamiento de los modelos de lenguaje natural. Antes de la introducción de los Transformers, los modelos de lenguaje natural más populares eran los modelos basados en RNN (Redes Neuronales Recurrentes), que se enfrentaban a problemas de "desvanecimiento de gradiente" y "memoria a corto plazo". Estos problemas hacían que los modelos de lenguaje basados en RNN fueran difíciles de entrenar y limitaban su capacidad para comprender contextos más amplios y a largo plazo.

En contraste, los modelos que utilizan Transformers, como GPT (Generative Pretrained Transformer) o BERT de Google (Bidirectional Encoder Representations from Transformers) entre otros, utilizan una arquitectura basada en atención que les permite comprender relaciones entre diferentes partes de un texto de manera más efectiva, permitiendo una mejor comprensión del contexto y sin problemas de desvanecimiento de gradiente. Además, los Transformers permiten un entrenamiento más rápido y escalable que los modelos RNN, lo que ha llevado a mejoras significativas en la precisión de los modelos de lenguaje natural.

Esto ha permitido también la inclusión de muchos más parámetros en el modelo, lo que ha llevado a mejoras significativas en la precisión y la capacidad de comprensión del modelo.

La tercera versión del modelo, GPT-3, por ejemplo, tiene 175 mil millones de parámetros, mientras que los modelos de lenguaje más grandes, como BERT, con 110 millones de parámetros, o Turing NLG que tiene 17 mil millones. 

image.png

La inclusión de más parámetros en el modelo permite a GPT-3 comprender mejor el contexto y generar textos más coherentes y naturales, lo que ha llevado a avances significativos en las tareas de procesamiento del lenguaje natural, como la traducción automática, la respuesta a preguntas y la generación de texto.

AlphaFold, desarrollado por DeepMind, es un sistema de inteligencia artificial que ha revolucionado la predicción de la estructura 3D de las proteínas, lo que determina a su vez la funcionalidad de las mismas,  al lograr una precisión sin precedentes usando aprendizaje automático. Esto tiene un gran impacto en la investigación biomédica y farmacéutica al acelerar el desarrollo de tratamientos y terapias médicas. También marca un hito importante en la inteligencia artificial al demostrar cómo puede abordar con éxito problemas complejos y multidisciplinarios en la ciencia.

En la imagen se aprecia la forma de dos proteínas distintas, en cada una de ellas, en color verde la forma real de la proteína y en azul la predicción realizada por Alphafold. Mas información: https://alphafold.ebi.ac.uk/ 

Estos son solo algunos de los hitos importantes que han ocurrido en el campo de la IA a partir de 2011. La IA continúa avanzando rápidamente, con nuevos descubrimientos, aplicaciones innovadoras y desafíos éticos y sociales que surgen a medida que la tecnología evoluciona.

Unidad 1.4. Impacto de la IA, situación actual. IA extrema

Introducción

"El campo de juego está listo para volverse mucho más competitivo, y las empresas que no implementen inteligencia artificial y datos para ayudarlos a innovar en todo lo que hacen estarán en desventaja". Paul Daugherty , director de tecnología e innovación de Accenture

En la era contemporánea, la Inteligencia Artificial ha transcendido los límites del laboratorio para integrarse de manera contundente en el tejido de nuestra sociedad y economía. En esta unidad, nos adentraremos en el análisis de la situación actual de la IA, observando su crecimiento exponencial y cómo ha fomentado innovaciones que son consideradas extremas en términos de su impacto disruptivo.

Las aplicaciones extremas de la IA son aquellas que han conseguido redefinir sectores enteros y sus expectativas de futuro. Estas aplicaciones no sólo destacan por su avanzada tecnología, sino por la magnitud de cambio que han instigado, alterando de manera significativa la dinámica previa a su implementación. Ejemplos destacados abarcan desde sistemas autónomos de conducción que prometen redefinir la movilidad urbana, hasta diagnósticos médicos asistidos por IA que están revolucionando el cuidado de la salud.

A través de un recorrido por ejemplos concretos, obtendremos una comprensión general de cómo la IA está remodelando el mundo en que vivimos, y cómo su trayectoria futura podría ser influenciada por las aplicaciones extremas que están emergiendo en el panorama actual orquestando una nueva era de innovación y posibilidades sin precedentes.


Impacto de la IA, situación actual

Para apreciar la magnitud del impacto que la IA esta teniendo y su evolución prevista, vemos en este ilustrativo gráfico la componente económica del mismo a nivel global, tanto la ya materializada hasta 2021 como la proyectada hasta 2030

image.png

Tamaño del mercado de la inteligencia artificial a nivel mundial de 2021 a 2030(en miles de millones de dólares).                     Fuente: Rosa Fernandez. Statista 2023

Uno de los informes mas recientes en el que se puede apreciar, en datos, el impacto que la IA ha alcanzado ya es: El estado de la IA en 2022 y el balance de media década, de la consultora McKinsey. 

image.png

De este informe se desprenden, entre otras conclusiones, dos estadísticas que subrayan el impacto que ya está teniendo la IA:

  • Incremento en la adopción de IA. El informe indica que la adopción de la IA se ha más que duplicado desde 2017. En ese año, solo el 20% de los encuestados informó haber adoptado la IA en al menos un área de negocio, mientras que en 2022, esa cifra aumentó al 50%. Aunque es notable mencionar que la adopción alcanzó su punto más alto en 2019 con un 58%​.
  • Aumento en la inversión en IA. El nivel de inversión en IA ha aumentado junto con su creciente adopción. Hace cinco años, el 40% de los encuestados de organizaciones que usaban IA informaron que más del 5% de sus presupuestos digitales se destinaban a IA. En el presente, más de la mitad de los encuestados indican ese nivel de inversión. Además, el 63% de los encuestados espera que la inversión de sus organizaciones en IA aumente en los próximos tres años​.

Estas estadísticas, sin ser tan espectaculares como cabría esperar por el impacto mediático que esta teniendo la IA, reflejan una tendencia positiva en la adopción y la inversión en IA, lo que puede indicar un reconocimiento creciente del valor y el potencial de la IA en el ámbito empresarial. También, el aumento continuo en la inversión podría resultar en desarrollos más innovadores y en una adopción aún mayor de la IA en el futuro. 

Hay que tener en cuenta que a día de hoy los estudios sobre la adopción de IA en las organizaciones, que normalmente son elaborados en base anual, no están reflejando todavía la habilitación al gran público de los potentes modelos del lenguaje como las distintas versiones de GPT de Open AI, BERT de Google o LlaMa de Meta. Estos modelos fueron, a partir del lanzamiento de ChatGPT de Open AI en noviembre de 2022 la punta de lanza de un nuevo impulso para la adopción de la IA en organizaciones de todo tipo, pero informes sobre la verdadera adopción todavía están por ver.

Al margen de estadísticas por llegar, es patente la penetración que la IA esta teniendo en multitud de sectores, lo vemos día a día en servicios y productos que salen al mercado. En la siguiente infografía, se aprecia al rango de alcance que está teniendo la IA, abarcando prácticamente a todos los sectores en mayor o menor medida.

Fuente: INTEF: IA Educación. Una IA para aprender


IA extrema

Veamos ahora algunos ejemplos de IA extrema en el sentido ya mencionado, aplicaciones que han conseguido dar un salto cualitativo o cuantitativo en la tarea o función en la que se ha introducido y que rompe con la tendencia de desarrollo que se observaba hasta ese momento. Clickando en los enlaces encontraras interesantes videos explicativos de cada uno de los aspectos descritos.

"We can learn more about weather by studying computation than we can by studying clouds (not the digital kind)"

"Today has been predicted 26 billion times"

Scott W Schwartz. NY University

Hagamos un énfasis especial en la situación de la IA en educación y en como, habiéndose detectado las posibilidades que ofrece para el proceso de enseñanza-aprendizaje, ya se esta intentando despertar el interés sobre su potencial, así como alertar de sus riesgos, desde las instituciones. Profundizaremos en capítulos posteriores las posibilidades concretas que ofrece para docentes y alumnos. 

Esto son solo algunos ejemplos de como las instituciones están tomando en cuenta la IA en el ámbito educativo:

image.png

image.png

image.png

 

Informe Unesco Inteligencia artificial y educación (haz click en la imagen de la portada del informe para acceder al informe completo). Las 3 preguntas clave del informe y el ODS 4 de la agenda 20-30.

image.png

Para mas información. Acceso al informe ICEX Tecnología educativa (Edtech) en Singapur

Referencias Módulo 1

Libros

-Metamorfosis, Ovidio. Año 8 d.C

-Las Argonáuticas, Apolonio de Rodas Siglo I a.C.

-De Architectura, Vitruvio. Siglo I a.C.

-Monadología, Gottfried Leibniz. 1714

-El discurso del método, René Descartes, 1637

-El hombre máquina, Julien Offray de La Mettrie. 1747

-Perceptrones, Seymour Papert. 1969


Vídeos

-Artificial Intelligence, the History and Future - with Chris Bishop

Vídeo de youtube con la historia de la IA y su proyección futura

Recordamos que existe la posibilidad de activar subtítulos en español de forma automática, desde la sección de configuración

https://www.youtube.com/watch?v=8FHBh_OmdsM

-Una breve historia de la Inteligencia Aritficial

https://www.youtube.com/watch?v=_pcQnFz7wAI


Créditos

Contenidos elaborados y seleccionados por:

Cualquier observación o detección de error, puedes escribirnos a soportecatedu@educa.aragon.es.

Los contenidos se distribuyen bajo licencia Creative Commons tipo BY-NC-SA excepto en los párrafos que se indique lo contrario.

image-1669879913915.png

 

image-1669879971404.png