Módulo 1. Introducción y panorama de la IA
Visión general e histórica con mención a hitos e ideas relevantes para entender la IA hoy, así como anécdotas relacionadas con el siempre buscado objetivo de imitar al ser humano
- Unidad 1.1. Panorama general de la IA
- Unidad 1.2. Prehistoria de la IA, antes de llamarse IA.
- Unidad 1.3. Inicios y evolución de la IA.
- Unidad 1.4. Impacto de la IA, situación actual. IA extrema
- Referencias Módulo 1
- Créditos
Unidad 1.1. Panorama general de la IA
Attention is All You Need
2017 Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser y Illia Polosukhin
Equipo de investigación de Google
CONTENIDOS
Introducción
La cita inicial da título al artículo que en 2017 supuso el nacimiento de todo el boom de aplicaciones y sistemas de IA que hoy en día inundan las redes y tanto impacto están teniendo en todos los sectores económicos y sociales.
Presentó la arquitectura de red neuronal conocida como "Transformer", la cual se ha convertido en la base para muchos desarrollos posteriores en el campo del procesamiento del lenguaje natural (NLP) y, dentro del mismo, en la llamada IA Generativa, base de casi todas las aplicaciones de IA que veremos en el curso.
Es, además, una sentencia muy relacionada con la educación, pues sintetiza y expresa la premisa más importante para cualquier alumno que quiera aprender, a saber, la actitud o la atención hacia los temas de estudio. De manera que es perfecta para iniciar este curso en dos temas de gran impacto y relevancia social como son la IA y la educación.
La llamada IA ha irrumpido abruptamente en el mundo a todos los niveles. Desde que, en 2017 investigadores de Google publicaran el mencionado artículo 'Attention is all you need' el desarrollo y difusión de sistemas de procesamiento del lenguaje natural (NLP) ha sido imparable, liderado por la empresa OpenAI, pero también por otras como DeepMind o Anthropic y, por supuesto, Microsoft y el propio Google (Gemini).
Pero su desarrollo lleva mucho más tiempo, desde siempre el ser humano ha querido construir máquinas que imiten su inteligencia, empezando por dispositivos automáticos y continuando con sistemas de generación de lenguaje y en general el desarrollo de tecnologías procesamiento del lenguaje natural, subcampo de estudio dentro de la IA en general y, en particular, del llamado Deep Learning o aprendizaje profundo.
Es un camino plagado de fracasos y euforia puntual que sólo recientemente ha culminado en una adopción masiva y un impacto relevante en todos los sectores económicos y sociales.
Finalmente y desde hace algo más de un año los sistemas de procesamiento de lenguaje natural (NLP) y la inteligencia artificial generativa han permitido llevar la IA a todos los ámbitos con éxito creciente. También la robótica y la propia biología (edición genéticao CRISPR, órganos sintétitcos, integración hombre-máquina) han experimentado un cambio sensible en sus posibilidades.
Todo esto hace que el campo de la IA por fin sea el más popular y aplicado en todo el mundo y en todas las empresas y organizaciones.
Los usos y aplicaciones son crecientes y se amplían a diario. También las amenazas están ahí en cuanto al mal uso y las implicaciones en cuanto a privacidad de la información y su utilización ilícita.
Sin embargo debemos asumir y asimilar su existencia y promover el uso ético y estético de estas tecnologías que, de manera inevitable, van a estar cada vez más presentes en nuestras vidas.
En este curso trataremos de dar una visión completa de todo el ecosistema de la IA abarcando la evolución histórica, los fundamentos que la sustentan y las principales aplicaciones, siempre haciendo especial hincapié en el lado educativo.
Pero no solo eso, también queremos tratar temas más avanzados y tratar el impacto socioeconómico de la IA así como las consideraciones éticas.
Aunque los veremos a lo largo del curso queremos introducir algunos conceptos importantes además de una relación de tecnologías y empresas más relevantes en el panorama actual
Conceptos de Inteligencia Artificial (IA)
Es conveniente adelantar algunos de los conceptos principales en el mundo de la Inteligencia Artificial, en adelante IA, para no olvidar de donde partimos y que es lo que denotamos por IA.
A continuación indicamos algunas definiciones aproximadas de los conceptos de inteligencia, artificial y el binomio IA
Definiciones que necesariamente son aproximadas al no haber, ni siquiera en la comunidad científica, un consenso sobre las mismas.
Inteligencia: Es la capacidad de entender, aprender, razonar, tomar decisiones y formar una idea determinada de la realidad.
Artificial: Se refiere a sistemas diseñados para imitar o replicar la inteligencia humana.
Inteligencia Artificial:
La Inteligencia Artificial (IA) es un campo de la informática que se enfoca en la creación de sistemas capaces de realizar tareas que, hasta hace poco, requerían de la inteligencia humana. Esto incluye procesos como el aprendizaje (la adquisición de información y reglas para el uso de la información), el razonamiento (usar las reglas para alcanzar conclusiones aproximadas o definitivas) y la autocorrección. Las aplicaciones prácticas de la IA incluyen sistemas expertos, reconocimiento de voz, aprendizaje automático y robótica.
Tipos de IA:
Se habla continuamente de IA pero sin reparar en que existen varios tipos a nivel conceptual.
En lo que respecta a este curso siempre hablamos de Inteligencia Artificial en el sentido de imitar al cerebro o a la inteligencia humana. Sin embargo existen otros tipos que debemos considerar para futuros escenarios.
-
Inteligencia Artificial Débil o Estrecha (Narrow AI o Weak AI):
- Definición: Este tipo de AI está diseñado para realizar tareas específicas y opera dentro de un conjunto limitado de restricciones y contextos. No posee conciencia, sentimientos o la habilidad para realizar cualquier tarea que no haya sido específicamente programada para hacer.
- Ejemplos: Los sistemas de reconocimiento de voz como Siri, asistentes personales como Alexa, sistemas de recomendación como los usados por Netflix o Amazon, y coches autónomos que pueden realizar tareas de conducción pero no son conscientes de su existencia.
- Estado Actual: Es el único tipo de AI que hemos logrado desarrollar hasta la fecha con éxito comercial y práctico.
-
Inteligencia Artificial General (General AI o AGI):
- Definición: También conocida como "Strong AI", es un tipo de AI que poseería la habilidad de entender, aprender y aplicar su inteligencia a cualquier problema de manera similar a cómo lo haría un humano. Sería flexible y capaz de razonar, resolver problemas, planificar, aprender, comunicarse en lenguaje natural y operar de forma independiente.
- Ejemplos: Un robot doméstico que puede realizar una variedad de tareas del hogar, desde limpiar hasta cocinar, pasando por administrar finanzas personales y proporcionar compañía, todo con comprensión y adaptabilidad similares a las de un ser humano.
- Estado Actual: Todavía no se ha logrado y es objeto de investigación intensiva. Existen prototipos y sistemas en etapas muy tempranas que intentan emular algunas funciones cognitivas humanas.
-
Inteligencia Artificial Superinteligente (Superintelligent AI):
- Definición: Este tipo de AI no solo emularía la capacidad de toma de decisiones de los humanos, sino que la superaría. Tendría la capacidad de ser más creativa, más socialmente adaptada y mejor en todo lo que involucre procesamiento intelectual que cualquier humano.
- Ejemplos: Un sistema de AI que podría diseñar sistemas de energía más eficientes, encontrar curas para enfermedades aún no curables, mejorar sus propios algoritmos y tecnología e influir en decisiones económicas y políticas con una perspectiva mucho más amplia y a largo plazo que la de los humanos.
- Estado Actual: La superinteligencia artificial es puramente hipotética y objeto de muchas especulaciones y debates éticos y filosóficos. No hay evidencia concreta de que esté cerca de ser una realidad.
Tecnologías de IA:
A continuación indicamos algunas de las tecnologías más relevantes en el campo de la IA ya que son términos comunes en cualquier texto o referencia que podamos encontrar. La mayoría de ellas aparecerán de forma más o menos detallada a lo largo del curso.
-
Aprendizaje Automático (Machine Learning): Técnicas que permiten a las máquinas aprender de datos.
-
Aprendizaje Profundo (Deep Learning): Uso de redes neuronales con múltiples capas para procesar grandes conjuntos de datos.
-
Redes Neuronales Convolucionales (CNN): Especialmente diseñadas para el procesamiento de imágenes.
-
Procesamiento del Lenguaje Natural (NLP): Tecnología que permite a las máquinas leer y comprender el lenguaje humano.
-
Algoritmos de Reforzamiento (Reinforcement Learning): Donde los modelos aprenden a tomar decisiones basadas en recompensas.
-
Visión por Computadora: Permite a las máquinas interpretar y tomar decisiones basadas en imágenes o video.
-
Robótica Autónoma: Robots que pueden aprender y operar en su entorno sin intervención humana.
-
Sistemas de Recomendación: Algoritmos que sugieren productos o contenidos a los usuarios.
-
Redes Generativas Adversarias (GANs): Usadas para generar contenido, como imágenes, vídeo o texto, que es indistinguible del contenido creado por humanos.
-
Reconocimiento de Voz: Tecnología que convierte la voz en texto y viceversa, permitiendo la interacción verbal con dispositivos.
-
Mecanismos de Atención: Como el modelo "Transformer", que ha revolucionado el NLP con su enfoque "Attention is All You Need".
Principales empresas y productos de IA:
Dada su complejidad y alta demanda de recursos, solo grandes compañías han podido desarrollar y proporcionar servicios de IA al nivel actual. Las herramientas que usaremos en el curso pertenecen a dichas compañías, aunque no debemos olvidar que se distinguen productos 'open source' (de uso libre pero no necesariamente gratuito) de los comerciales (generados de forma opaca sin detalles sobre fuentes de datos o algoritmos implicados).
Entre los productos más importantes destacamos los siguientes:
- Google: Chat de Google Google Gemini y ecosistema de IA Deep Mind
- IBM: Tiene chat propio y generador de chatbots IBM Watson Asistente propio y Generador de modelos propios
- Facebook: AI Meta - Entorno para el uso de herramientas de IA y el modelo open source Llama
- Microsoft: Microsoft Copilot - Copilot o asistente de IA de Microsoft y otras soluciones de IA
- Anthropic: Asistente de Chat y Constructor de chatbots Anthropic
- OpenAI: Conocida por modelos como GPT-3/4 OpenAI
- Grok de X Empresa X (antigua Twitter), acaba de lanzar su propio chatbot Grok
Que duda cabe que existen cientos de otras compañías y herramientas que han desarrollado productos de IA, especialmente chatsbots, como Alexa de Amazon, Cortana de Microsoft o Siri de Apple, y que su uso es creciente, pero solo hace un año escaso se ha podido contar con herramientas de uso genérico que abarquen todo el conocimiento humano.
Dado que el curso se orienta al ámbito educativo adelantamos algunas plataformas de gran impacto que lo han abordado, algunas de las cuales ya se están implantando en diferentes países y centros educativos.
- Wolfram Para aprendizaje científico y matemático
- Khanacademy Para clases de ciencias, economía y matemáticas adaptadas a estudiantes de educación primaria y secundaria
- Eduten Para aprendizaje matemático
- Duolingo Para la enseñanza idiomas
Sectores más afectados:
Dado su caracter transversal, la IA ha irrumpido con fuerza en todos los sectores y ámbitos de la sociedad destacando por su potencial impacto el sector educativo y tecnológico en general, pero también en el mundo industrial (robótica), artístico (diseño, generación de vídeo e imagen, generación de música etc...) y científico (generación de papers, optimización de algoritmos o generación de ideas)
A continuación describimos los más importantes
- Salud: Diagnóstico y tratamiento personalizado. Ejemplo: IBM Watson Health para análisis genómico.
- Finanzas: Detección de fraudes y asesores financieros automatizados. Ejemplo: Chatbots de atención al cliente en bancos.
- Automoción: Vehículos autónomos. Ejemplo: Tesla con su piloto automático.
- Retail: Personalización de la experiencia del cliente. Ejemplo: Recomendaciones personalizadas en Amazon.
- Educación: Herramientas de tutoría personalizada, chatbots educativos. Ejemplo: Plataformas de aprendizaje adaptativo como DreamBox
Unidad 1.2. Prehistoria de la IA, antes de llamarse IA.
Introducción
Imagen extraída de la película: 2001 Una Odisea en el espacio de Stanley Kubrick
"La exploración está conectada a nuestros cerebros. Si podemos ver el horizonte, queremos saber qué hay más allá." Buzz Aldrin.
La cita de Buzz Aldrin, evoca una curiosidad inherente y un deseo de exploración que es fundamental en la naturaleza humana. Esta curiosidad ha impulsado numerosos avances y descubrimientos a lo largo de la historia de la humanidad. Sin duda la búsqueda y desarrollo de la Inteligencia Artificial (IA) esta imbuida por esta curiosidad intrínseca y el deseo de explorar lo desconocido.
La historia de la IA es la historia de todas las personas que imaginaron, describieron y forjaron ideas innovadoras, transformando sueños de máquinas inteligentes en realidad, con la aspiración última de que estas máquinas puedan realizar tareas que requieren inteligencia humana.
A lo largo de la historia determinadas tareas que han sido tradicionalmente llevadas a cabo por humanos se han ido mecanizando gracias a avances tecnológicos sucesivos y han permitido liberar al humano de determinadas funciones, en especial aquellas repetitivas, mecánicas y tediosas. Estos avances consistían principalmente en mecanismos capaces de realizar las tareas con un resultado similar e incluso mejorado al del humano que las venía realizando, mejorando en velocidad, fuerza e incluso destreza a este. Estos avances, aunque no se puedan considerar como sustitutos de una tarea que requiera inteligencia, son pasos previos importantes para la consecución de entes robóticos dotados de inteligencia artificial, ya que estos precisan de tales los mecanismos y automatismos.
Puede que los más relevantes en el repaso histórico de hitos y personajes clave para el logro final de la IA sean aquellos que anhelaron, pensaron y desarrollaron ideas para la creación de un ser que tenga consciencia de si mismo y cuya capacidad de resolver problemas supere a la del propio ser humano.
Por ello, en la evolución de la IA, es esencial destacar a aquellos que plasmaron mitos, leyendas y relatos de ciencia ficción. También es crucial reconocer a los filósofos y matemáticos que formularon teorías lógico-algebraicas, pues sentaron las bases de avances significativos. Finalmente, no podemos olvidar a quienes diseñaron algoritmos y sistemas de información capaces de realizar vastos cálculos en tiempo récord. Gracias a todos ellos, la IA actual puede ejecutar tareas que emulan la inteligencia humana, como aprender, razonar y decidir de forma autónoma y eficiente.
Desde nuestra comprensión actual de la inteligencia artificial, retrocedamos en el tiempo para explorar las motivaciones que han impulsado al ser humano en su incesante exploración. Nos adentraremos en el origen de la búsqueda de nuestra más valiosa posesión: la inteligencia. Y veremos como esta indagación se va sofisticando sustentada en las ideas , tanto aquellas que evolucionan de manera acumulativa como las que emergen de manera disruptiva e impulsadas por la creciente y acumulativa capacidad tecnológica.
La antigua Grecia - Mitos
"La inteligencia consiste no solo en el conocimiento, sino también en la habilidad de aplicar el conocimiento en la práctica." - Aristóteles
Esta cita de Aristóteles nos revela que la inteligencia es algo que debe manifestarse para considerarse como tal, y la manera más evidente que tiene para hacerlo es la de resolver problemas, lo que implica varias fases como; percibir la existencia del problema, comprender los aspectos relevantes del mismo, establecer una estrategia para su resolución y aplicarla prácticamente hasta dar por solucionado el problema de manera efectiva.
Tal concepción de la inteligencia, con todas sus implicaciones intrínsecas, es la que se pretende simular en máquinas. De conseguirlo estaríamos hablando de Inteligencia Artificial. Este anhelo ha existido desde hace muchos siglos, y así se ha manifestado a través de mitos, ideas filosóficas, lógicas y matemáticas.
Echando la vista atrás para establecer un punto de inicio observamos que en las primeras civilizaciones de las que tenemos constancia podemos encontrar alusiones y referencias relacionadas con conceptos que ahora asociamos con la IA. En la antigua mitología egipcia y mesopotámica, hay historias de dioses y seres divinos que poseen conocimiento y habilidades sobrehumanas. Sin embargo, dado que estas historias se transmitían oralmente o en inscripciones en tabletas de arcilla, es más difícil rastrear detalles específicos o intenciones de "inteligencia artificial" como las entendemos hoy en día.
Por eso vamos a empezar “nuestra historia de la IA” estableciendo la antigua Grecia como punto de partida. De este periodo si existe abundancia de información y es notorio como ha contribuido al desarrollo de las sociedades actuales en multitud de campos, en concreto y para lo que nos ocupa, hablamos de una cultura cuya influencia los campos de la lógica, la filosofía, la concepción del pensamiento racional, puede perfectamente considerarse un pilar inicial para un posterior desarrollo de ideas y conceptos que desemboque en los enfoques modernos de la IA. Nos centramos en algunos aspectos concretos:
El comienzo de la lógica formal: La antigua Grecia es conocida por su contribución al desarrollo de la lógica formal. Filósofos como Aristóteles establecieron las bases de la lógica deductiva y la teoría de proposiciones, lo que atisbó la forma en que siglos mas tarde se abordarían problemas relacionados con la computación y la IA.
Como muestra, la idea atribuida a Aristóteles:
"si se parte de premisas verdaderas y se razona correctamente, entonces se llegará necesariamente a una conclusión verdadera" - Aristóteles
Así como su estudio sobre las estructuras de razonamiento, como el silogismo, pueden reflejarse en cómo las máquinas modernas procesan la información. Por ejemplo, los sistemas expertos en inteligencia artificial usan una forma de razonamiento deductivo para llegar a conclusiones basadas en un conjunto dado de premisas, similar a cómo Aristóteles describiría la deducción en sus obras.
Esquema de la Lógica Aristotélica. Fuente: http://funresearch.weebly.com/spanish-page.html
Autómatas y mitología: si bien no existen evidencias de máquinas o autómatas complejos en la Antigua Grecia. la mitología incluye historias de estatuas animadas y seres artificiales que tienen ciertas similitudes con la idea de seres creados artificialmente.
Uno de estos mitos es el de Pigmalión. Esta intrigante historia de la mitología griega nos habla sobre la creación de una figura artificial y el poder del amor.
Pigmalión era un talentoso escultor de Chipre que, aunque era hábil en su arte, había desarrollado un profundo desdén hacia las mujeres debido a la promiscuidad que observaba en la sociedad. En su corazón, deseaba una compañera perfecta y pura, una mujer que fuera tan bella y virtuosa como su propia obra de arte.
Al entender que no encontraría ninguna mujer que completara sus anhelos, Pigmalión decidió esculpir una estatua de una mujer. Trabajó con tal perfección y dedicación que logró crear una figura femenina de una belleza y gracia extraordinarias. La estatua, a la que llamó Galatea, era tan hermosa y realista que Pigmalión se enamoró perdidamente de ella.
El amor de Pigmalión por Galatea era tan profundo que rogó a la diosa Afrodita, la diosa del amor y la belleza, que diera vida a la estatua. Conmovida por su devoción, Afrodita escuchó sus súplicas y le concedió el deseo. La estatua de Galatea cobró vida y se convirtió en una mujer real, cálida y viva.
Pigmalión quedó extasiado al ver que su amada Galatea había cobrado vida y la tomó como su esposa. Juntos vivieron una vida feliz y dichosa.
El mito de Pigmalión ha sido una fuente de inspiración para muchas obras de arte, literatura y teatro a lo largo de la historia. El tema central de la creación de una figura artificial que cobra vida y el poder del amor para transformar la realidad han sido interpretados de diversas maneras, y la historia ha sido retomada y adaptada en diferentes culturas y épocas.
No es complicado encontrar similitudes del mito de Pigmalión y las ideas y objetivos de los proyectos de IA posteriores y contemporáneos.
Pigmalión, de Jean-Baptiste Regnault de 1786, Museo Nacional del Palacio de Versalles. Fuente: Wikipedia
Hablamos de la creación de seres artificiales con conciencia propia, Pigmalión crea una figura de una mujer artificial utilizando marfil lo que, como concepto, es una parte fundamental de la IA. La IA busca crear entidades artificiales que puedan exhibir comportamientos inteligentes y similares a los humanos. Si bien en el mito, la vida y la conciencia de Galatea surgen en un acto mágico realizado por la diosa Afrodita, en el desarrollo de la IA, los científicos y tecnólogos trabajan para crear sistemas que puedan simular comportamientos inteligentes y conscientes.
Aunque se pueden extraer estos paralelismos sobre los anhelos humanos, también surgen de inmediato las consideraciones éticas de la eventual materialización de los mismos
En este sentido el mito de Pigmalión ilustra el poder emocional y la conexión que se puede establecer entre los creadores y sus creaciones artificiales. En el ámbito de la IA, a menudo se considera la ética y la responsabilidad en la relación entre humanos y sistemas de IA, ya que su uso puede tener impactos significativos en la sociedad y en las emociones de las personas.
Como este curso, trata sobre la IA y su aplicación e influencia en la educación, sirva apuntar que además el término "Efecto Pigmalión" también se utiliza en psicología y educación para referirse al fenómeno en el cual las expectativas y creencias de una persona pueden influir en el rendimiento y comportamiento de otra persona, ya sea para bien o para mal.
Y en relación con el “Efecto Pigmalión” surge la analogía de la relación entre expectativas y resultados: En el Mito de Pigmalión, las expectativas de Pigmalión sobre su estatua influyeron en su resultado, convirtiéndola en una mujer real. De manera similar, en el desarrollo y uso de la IA, las expectativas y creencias de los creadores y usuarios pueden influir en el rendimiento y resultados de los sistemas de IA. Por ejemplo, si se espera que una IA sea capaz de llevar a cabo ciertas tareas con éxito, los esfuerzos y la atención dedicados a su desarrollo pueden ser mayores, lo que puede conducir a un mejor desempeño. Cabe añadir aquí, la problemática que surge de la influencia del creador o creadores en los comportamientos posteriores de las IA, conocidos como sesgos, que surgen de las ideas conscientes o inconscientes de los diseñadores, desarrolladores o cualquier agente involucrado en un proyecto de IA y que posteriormente se verán reflejados de alguna manera en las respuestas o trabajos realizados por la misma. En el caso de Pigmalión, obviamente Galatea estaba hecha exactamente siguiendo los ideales de belleza del escultor.
El Mito de Pigmalión es narrado por el dramaturgo romano Ovidio en su obra Metamorfosis
También en la mitología griega encontramos el Mito de Talos, que es una fascinante historia ubicada en la isla de Creta. Aunque existen algunas variaciones en la leyenda, la versión más conocida se relata en la epopeya de Apolonio de Rodas, "Las Argonáuticas".
Talos, también conocido como Talón o Talonte, era un autómata, una criatura artificial de bronce creada por Hefesto, el dios griego del fuego y la forja, a petición de Zeus, el rey de los dioses.
Según el mito, Talos fue encargado para proteger la isla de Creta y mantener alejados a los intrusos y piratas. Era una gigantesca figura hecha de bronce, con venas que transportaban sangre líquida ardiente, lo que lo hacía prácticamente invulnerable a cualquier ataque. Su modus operandi para mantener la seguridad de la isla era dar vueltas alrededor de Creta tres veces al día, lanzando piedras a las embarcaciones enemigas y asustando a quienes se acercaran.
El autómata Talos también estaba equipado con una única vena en el tobillo, que estaba cerrada por una clavija de bronce. Esta vena se llenaba con el líquido ardiente que mantenía al gigante con vida. Cuando los argonautas liderados por Jasón llegaron a Creta en su búsqueda del vellocino de oro, su enemigo Medea (que viajaba con ellos) logró engañar a Talos y le quitó la clavija de bronce. El líquido precioso salió disparado de la vena, y Talos colapsó, liberando su vida artificial y pereciendo.
También aquí, encontramos semejanzas y cuestiones relacionadas con la IA en el momento actual. Talos es una creación artificial con un propósito concreto, la defensa de la isla de Creta, labor que puede hacer mejor que los seres humanos y sin necesidad de descanso. Podemos ver en el siguiente enlace un bonito video animado de esta historia que incluye una reflexión sobre las similitudes del mito y la IA. El Mito de Talos de Adrienne Mayor: EL mito de Talos, el primer robot. Fuente: TED.com
Inspiración para pensadores posteriores: Estos son solo dos ejemplos de mitos griegos pero existen otros mitos, ideas y conocimientos de la antigua Grecia que han influido significativamente en la filosofía y el pensamiento occidental a lo largo de la historia. Las obras de los filósofos griegos han sido ampliamente estudiadas y discutidas, lo que ha llevado a que conceptos relacionados con la inteligencia y la mente hayan sido considerados por pensadores posteriores.
Muchos de las aportaciones de la cultura griega nos llegan en forma de mitos y leyendas como las descritas, y algunas de ellas no dejan de sorprender por la facilidad con la pueden establecerse paralelismos y analogías con ideas de nuestro tiempo.
La Antigua Roma – Ingeniería
"Que algo te parezca difícil, no quiere decir que nadie más sea capaz de lograrlo." Marco Aurelio
La cita del estoico filósofo y emperador de Roma Marco Aurelio (121-180 d.C.) inspira el espíritu de aquellos que no se dejaron vencer por las dificultades aparentes de una empresa, consiguiendo grandes logros que permitieron los progresos tecnológicos e hicieron avanzar a las sociedades.
Durante el Imperio Romano, no encontramos un desarrollo de las ideas tan destacado como en la antigua Grecia, en su lugar, el pueblo romano destacó por su eficacia y practicidad a la que contribuyó notablemente el desarrollo de la ingeniería para idear y construir artefactos y obras útiles para la sociedad y la expansión del imperio. Esa comprensión y aplicación creciente de la ingeniería y la mecánica sentó bases para futuros desarrollos en la automatización. Como logros concretos podemos citar:
Máquinas de agua y relojes hidráulicos: los romanos eran famosos por su habilidad en la ingeniería hidráulica, y algunas de sus invenciones pueden considerarse como precursores primitivos de la automatización. Por ejemplo, construyeron relojes hidráulicos complejos y autónomos que usaban agua para medir el tiempo.
Autómatas y mecanismos: hay registros históricos de que los romanos utilizaron autómatas para entretenimiento en teatros y festividades. Herón de Alejandría (10-70 d. C.) ,matemático e ingeniero escribió varios tratados que describen diversas máquinas. Entre ellas destaca la eolípila, primera máquina de vapor, cuya aplicación práctica en los templos le granjeó el pseudónimo de «el Mago». La eolípila era una máquina que consistía en una esfera hueca conectada a una caldera a la que se adaptaban dos tubos curvos gruesos. El interior de la caldera estaba lleno de agua, que se hacía hervir provocando que por los tubos subiera el vapor hasta la bola. El vapor salía por dos tubos estrechos acodados, haciendo girar la bola muy rápido. Sin embargo, esta máquina nunca tuvo un fin práctico y algunas fuentes comentan que el invento no era más que un juguete con la finalidad de entretener a los niños de la época.
Eolipila. Herón de Alejandría. Fuente: Wikipedia
Herón describió por anticipado, aunque de forma arcaica mediante este artefacto, la ley de acción y reacción que cientos de años mas tarde postuló Isaac Newton, experimentando con vapor de agua.
Herón también es autor de Autómata, considerado el primer libro de robótica de la historia. En el, explica cómo construir juguetes mecánicos, figuras animadas y artefactos que funcionan con la ayuda del vapor o el agua. Estos autómatas incluyen pájaros que cantan, estatuas que se mueven y figuras que realizan acciones mecánicas complejas.
Todos estos logros representan un entendimiento avanzado de la ingeniería, la mecánica, y la automatización para su época y son parte de una larga cadena de innovación que, con el tiempo, nos llevará a la creación de máquinas autónomas y, finalmente, al desarrollo de la robotica, la cual está estrechamente relacionada con la inteligencia artificial.
Otra figura destacable de la época romana es la de Vitruvio (70-15 a. C.), escritor, ingeniero y arquitecto romano, sirvió para Julio Cesar y posteriormente para Augusto. Es conocido también por su tratado de diez volúmenes llamado "De Architectura", Considerado el primer manual de arquitectura de la historia. En estos volúmenes, Vitruvio abordó no solo la arquitectura, sino también una amplia gama de temas que incluyen la ingeniería civil, la mecánica y la historia natural.
Vitruvio es particularmente conocido por definir los tres principios fundamentales de la buena arquitectura: firmitas (solidez), utilitas (utilidad) y venustas (belleza). Estos principios también pueden aplicarse a la tecnología en general y trasladando los mismos al campo de la IA se pueden establecer como base de desarrollo de un sistema:
- Firmitas: podría interpretarse como la robustez y fiabilidad del sistema, lo que implica una construcción sólida de algoritmos y estructuras de datos.
- Utilitas: este principio puede verse como la necesidad de que la tecnología tenga una utilidad clara, resolviendo problemas reales y proporcionando valor práctico.
- Venustas: podría definir la elegancia, vista como la eficiencia del diseño del algoritmo y del código, así como la necesidad de interfaces de usuario intuitivas y agradables.
El enfoque de Vitruvio en la combinación de la funcionalidad y la estética en el diseño, y su interés por la mecánica y la ingeniería, han tenido un impacto duradero en estas disciplinas. Sus ideas pueden ser valiosas al considerar cómo diseñar y construir sistemas complejos incluidos los de IA de manera efectiva y ética.
En el decimo libro del tratado "De Architectura", Vitruvio hace una alegato a favor de la tecnología y las máquinas para todos los ámbitos de la sociedad (agricultura, navegación, transporte…) lo que es un antecedente claro de la importancia que se le ha dado a la posibilidad de liberar al ser humano de determinadas tareas que pueden ser trasladadas a las máquinas si se consigue el desarrollo tecnológico adecuado.
Dato de interés: de Vitruvio es el estudio de las proporciones ideales del cuerpo humano que posteriormente Leonardo Da Vinci traslado al dibujo en su famoso “hombre de Vitruvio”
Hombre de Vitruvio. Leonardo Da Vinci
La Edad Media – Autómatas
La Edad Media fue un período fascinante en la historia de la humanidad, y también encontramos en ella ideas y avances que pueden considerarse escalones intermedios en el camino hacia la Inteligencia Artificial (IA). Esta evolución fue en forma de autómatas y otros artilugios mecánicos. Así, de la mano de desarrollos tecnológicos se produjeron progresos notables en la automatización y la simulación de comportamientos humanos.
Durante la Edad Media, los artesanos y los inventores se inspiraron en los antiguos relatos y mitos que hablaban de autómatas y seres artificiales para crear sus propios dispositivos mecánicos. Estos artilugios, también conocidos como autómatas mecánicos, eran figuras humanoides o animales que se construían con el propósito de imitar movimientos y comportamientos humanos o animales de manera automatizada.
Uno de los ejemplos más destacados de mecanismos automáticos de la Edad Media es el famoso reloj astronómico de Estrasburgo, construido en el siglo XIV. Este reloj no solo mostraba la hora, sino que también presentaba una serie de figuras mecánicas en movimiento que representaban eventos astronómicos, religiosos y mitológicos. Estas figuras automatizadas, controladas por un intrincado sistema de engranajes, proporcionaban una exhibición visual impresionante y mostraban una comprensión temprana de la ingeniería mecánica y la automatización.
Otro ejemplo notable es el famoso ‘Automa Cavaliere’ (1495), caballero mecánico, de Leonardo da Vinci, diseñado durante el Renacimiento. Aunque da Vinci vivió en una época posterior a la Edad Media, su trabajo también se relaciona con la tradición medieval de los autómatas. El caballero mecánico fue un prototipo de una máquina con forma humana diseñada por Leonardo en el siglo XV. Según los dibujos de Leonardo, el Caballero Mecánico habría sido capaz de realizar movimientos como sentarse, mover los brazos y mover la mandíbula. Aunque esta máquina no tenía "inteligencia" en sí misma, es un ejemplo temprano de intentos de crear una máquina capaz de imitar el movimiento y la función humana, una idea que es central en la robótica moderna.
Autómata construido en base a los bocetos sobre el mismo hallados en 1950.
En la Edad Media también surgieron leyendas y cuentos populares que se relacionaban con autómatas y seres artificiales. Uno de estos relatos es la leyenda del "Hombre del Palo".
El "Hombre de Palo" es una denominación que se le da a un mecanismo automático diseñado por Juanelo Turriano, también conocido como el "autómata de Turriano". Juanelo Turriano fue un famoso relojero e ingeniero italiano del siglo XVI que trabajó para el emperador Carlos V y su hijo Felipe II en España.
El autómata era un mecanismo articulado en forma de persona, de unos 38 cm de alto, que podía moverse por sí mismo y realizar una serie de acciones. Algunas versiones dicen que caminaba por las calles de Toledo ataviado como un monje con sayal y una gran cruz, revestido de madera pero con su interior lleno de engranajes metálicos, cuerdas y ruedas, que le permitian un movimiento propio que imitaba al de una persona, movía los ojos y abría y cerraba su boca.
Los curiosos se agolpaban para ver este invento que dejaba a propios y extraños con la boca abierta. Además, según cuentan las crónicas, este curioso ser llevaba una hucha para pedir limosna, y si algún viandante echaba una moneda, recibía del autómata una reverencia como muestra de gratitud. De hecho se dice que servía como ayudante al propio Juanelo realizando todo tipo de recados.
No deja de ser una leyenda, aunque en este caso si que han surgido teorías desarrolladas por historiadores sobre qué pudo ser realmente este curioso invento. Algunos indican que pudo ser una pequeña estatua de madera, con una hucha o cepo como las que podemos ver aún al día de hoy en algunas iglesias, que pedía limosna para el sostenimiento del Nuncio Viejo, hospital situado en una calle próxima, que era conocido por atender a enfermos mentales. Otra versión, dice que pudo ser un estafermo o figura de madera hincada sobre una peana fija, que portaba en un brazo un escudo y en el otro un saco de arena; la costumbre al pasar era dar un golpe al escudo para que este curioso sistema se girase rápidamente y diera con el saco a algún transeúnte despistado.
El hecho es que al hombre de palo se le pierde la pista y las distintas teorías sobre su destino vuelven a surgir:
Una teoría nos dice que fue destruido, quemado más exactamente, ya que de la sorpresa y el estupor inicial se pasaba fácilmente a sospechar cómo diablos podía moverse este artilugio, se pensaba que atentaba contra la creación divina. (Este argumento, matizado, también está en el debate actual de la IA). La ciencia, en esta época, se consideraba más próxima a la herejía que a la evolución tecnológica.
Otra teoría nos dice que el hombre de palo desaparece sí, pero no se destruye, es más, que se conservó en perfecto estado por una cadena de coleccionistas y lo más sorprendente aún, es que nos podría haber llegado hasta el día de hoy. Al menos existe un autómata que responde a las mismas características que las citadas en el Instituto Smithsonian de Washington D. C., en los Estados Unidos. El artefacto en cuestión tiene dos datos significativos, su fecha y procedencia: datación 1560, origen Alemania o España. Esta evidencia ha llevado a pensar a muchos que este es el auténtico hombre de Palo de Juanelo, el mismo que se paseó por las angostas calles toledanas, increíble pero quizá cierto. En el siguiente video puede apreciarse la figura conservada Automaton figure of a monk, South Germany or Spain, c. 1560
Fuente: https://www.paseostoledomagico.es/leyenda-hombre-de-palo/
Esta leyenda da pie a la reflexión sobre el ser humano y sus creaciones y el papel de la tecnología en la vida cotidiana, cada día más vigente .
Edad Moderna
Racionalismo: “toda acción tiene una razón de ser, una explicación, si se encuentra la razón de la misma, se puede reducir el comportamiento a una serie de postulados lógicos y expresarlos de manera simbólica”
Conforme avanza la historia, los mitos y leyendas van dando paso a historias documentadas sobre logros reales e ideas avanzadas que van marcando el camino de lo que ahora tenemos entre manos. Tenemos que tener claro pues, que el repentino interés actual por la IA no supone que esta haya surgido de repente, los avances se van sucediendo, de manera incremental en unas ocasiones y disruptiva en otras, produciéndose momentos de euforia y también de posterior enfriamiento principalmente debido a que, por lo general, las ideas corren mas que los desarrollos prácticos e incluso teóricos. La importancia de la Edad Moderna radica, en este aspecto, en las ideas filosóficas y teorías matemáticas que durante ella se desarrollaron, las cuales fundamentaron posteriores desarrollos prácticos.
La Edad Moderna que transcurre en los siglos del XVI al XVIII, se caracteriza entre otras cosas por la vuelta a las ideas clásicas, entre ellas nos interesa destacar la vuelta al racionalismo y su idea central de que la razón y la deducción son la base del conocimiento verdadero, en contraposición a la experiencia sensorial o la fe religiosa. La recuperación de esta corriente de pensamiento permitió muchos avances en el terreno conceptual, entre otros el desarrollo de las ideas de autores como Gottfried Wilhelm Leibniz y René Descartes son relevantes en el contexto de la naturaleza humana y la posibilidad de reducir el lenguaje a un sistema racional y simbólico. Estas ideas supusieron un paso mas para futuros desarrollos en la comprensión de la inteligencia artificial y su relación con el lenguaje y el pensamiento humano.
Leibniz (1646 - 1716), filósofo y matemático alemán del siglo XVII, desarrolló una filosofía conocida como "monadología". En su visión, argumentaba que el mundo estaba compuesto por "mónadas", unidades indivisibles de realidad que poseían una especie de conciencia y percepción. Según Leibniz, estas monadas podían entenderse como entidades fundamentales que formaban la base de toda la realidad y que poseían cierto grado de inteligencia inherente.
En cuanto al lenguaje, Leibniz propuso la idea de que el pensamiento humano podía ser reducido a una combinación de símbolos lógicos y matemáticos. Su visión se basaba en la idea de que el lenguaje podía ser formalizado y que todas las ideas y conceptos podían ser expresados mediante una notación simbólica universal. Esta noción iluminó el desarrollo posterior de los lenguajes formales y la lógica matemática, que son fundamentales en la teoría de la computación y la inteligencia artificial. Esta cita suya, ilustra su teoría:
“La única manera de rectificar nuestros razonamientos es hacerlos tan tangibles como los de los Matemáticos, para que podamos encontrar nuestro error de un vistazo, y cuando haya disputas entre personas, podemos simplemente decir: Calculemos, sin más dilación, a ver quién tiene razón”
Otro filósofo y científico del siglo XVII, René Descartes (1596 -1650), formuló la famosa afirmación:
"Cogito, ergo sum" (Pienso, luego existo),
Esta cita destaca la importancia del pensamiento y la conciencia en la definición de la existencia humana. Descartes argumentaba que la capacidad de pensar y tener conciencia era la esencia del ser humano, y que esta capacidad diferenciaba a los humanos de otras formas de vida.
En su obra "Discurso del Método" Descartes propuso una metodología basada en la duda metódica y la razón como herramientas fundamentales para el conocimiento humano. Su enfoque racionalista y su énfasis en la claridad y la distinción sirvieron de impulso para el desarrollo de una lógica rigurosa y un sistema de razonamiento basado en reglas formales.
Descartes también abordó el tema de la reducción, no solo del lenguaje sino del comportamiento, a un sistema racional y simbólico. En su idea del animal-maquina, sugirió que los animales podrían ser vistos como máquinas que funcionaban mecánicamente según reglas predecibles, y que a diferencia de los humanos no estaban dotados de conciencia. Esta idea fue ampliada posteriormente por E Julien Offray de La Mettrie en su obra “El hombre máquina” (L'homme Machine). Ambas teorías han sido ampliamente discutidas pero dan pie a reflexionar sobre la propia idea de inteligencia y en consecuencia de Inteligencia Artificial.
Extraemos de las filosofías de Leibniz y Descartes las perspectivas ofrecidas sobre la naturaleza humana y la posibilidad de reducir el lenguaje y los comportamientos a un sistema racional y simbólico. Desarrollos posteriores basados en sus ideas pueden verse como fundamentos de teorías que desembocan en principios utilizados en inteligencia artificial, especialmente en lo que respecta al procesamiento del lenguaje natural y la lógica simbólica en los sistemas de IA modernos.
Como hemos visto, ciencia y filosofía han ido de la mano en la evolución del pensamiento humano desde la antigua Grecia, ¿en qué desastroso momento se rompió esta simbiosis?, y que necesaria se está demostrado en el actual y aparentemente definitivo, resurgimiento de la IA.
La Revolución Industrial
"Las máquinas nos han dado la posibilidad de producir en grandes cantidades y a menor costo, pero también han generado desafíos en términos de desigualdad y la necesidad de repensar la distribución equitativa de la riqueza." - Karl Marx
"Si le hubiera preguntado a la gente qué querían, habrían dicho 'caballos más rápidos'." - Henry Ford
"Las máquinas son la maldición de la humanidad. Son una amenaza para nuestro trabajo, nuestra libertad y nuestra dignidad." - Ludditas
Los ludditas fueron un movimiento de trabajadores en la Inglaterra del siglo XIX que se opusieron a la creciente mecanización y automatización de la industria textil. Su objetivo era preservar sus empleos y protestar contra las máquinas que los reemplazaban. Aunque no existe una cita específica de un líder luddita, esta frase resume la esencia de su oposición a las máquinas y el temor de que estas tecnologías redujeran los empleos y el bienestar de los trabajadores.
La Revolución Industrial, que tuvo lugar en los siglos XVIII y XIX, marcó un punto de inflexión en la historia al introducir cambios significativos en la producción, la economía y la sociedad. Con ella se universalizaron tecnologías y conceptos que contribuyeron a la idea, para aquellos que se beneficiaban de la misma, de que la automatización y la sustitución de maquinas por personas en el trabajo era positiva debido al incremento de productividad, la reducción de costes y la maximización del beneficio, en definitiva, termino de imponer de manera generalizada el capitalismo como sistema socio-político en occidente.
Durante la Revolución Industrial, una de las invenciones clave fue la máquina de vapor, que impulsó la mecanización y la automatización de la producción. La primera máquina de vapor práctica fue desarrollada por James Watt en el siglo XVIII, y su uso generalizado en la industria tuvo un impacto revolucionario en la eficiencia y la velocidad de la producción. Esta máquina se considera un hito importante en la transición hacia la producción industrializada y para el surgimiento de las fábricas modernas.
Sin embargo, a medida que avanzaba la Revolución Industrial, también surgieron tensiones y oposición social al avance tecnológico y la automatización. La introducción de máquinas y sistemas mecanizados generó preocupaciones entre los trabajadores, que temían la pérdida de empleos y la explotación laboral. Muchos artesanos y trabajadores manuales se enfrentaron a la desaparición de sus oficios tradicionales debido a la creciente mecanización y la demanda de mano de obra barata en las fábricas.
Estas tensiones sociales y el conflicto entre los trabajadores y los avances tecnológicos durante la Revolución Industrial son un precursor histórico de las preocupaciones actuales en torno a la automatización que la IA promete conseguir, ya no solo de actividades mecánicas sino también de actividades cognitivas.
La oposición a la automatización y la consiguiente pérdida de determinados empleos se ha repetido en diferentes momentos históricos, a medida que las tecnologías han avanzado y han surgido debates sobre los impactos socioeconómicos y el futuro del trabajo.
Encontramos paralelismos entre la Revolución Industrial y el surgimiento posterior de la IA en relación con el desarrollo de tecnologías y conceptos que se vinculan con la automatización y la producción en masa. También hay claras similitudes en inicial oposición social y las tensiones laborales que ocurrieron en ese período histórico que reflejan las preocupaciones recurrentes en torno a los avances tecnológicos y la automatización que también se han dado en otros momentos de la historia y cuyo debate esta volviendo a surgir actualmente en lo relacionado con la IA y el futuro del trabajo.
Revolución industrial. Imagen propia. Generada por Bing con tecnología de DALL·E 3
La llegada de los bits
"Las leyes del pensamiento son leyes matemáticas y, por lo tanto, la ciencia del razonamiento, de las pruebas, es simplemente una rama de la ciencia del número." - George Boole
"Las máquinas pueden hacer cualquier cosa que un ser humano pueda describir formalmente." - Alan Turing
Durante el siglo XIX y principios del XX, se dio una confluencia de ideas filosóficas, matemáticas y tecnológicas que cimentaron el surgimiento de la inteligencia artificial y la computación moderna.
En el siglo XIX, la lógica formal y la teoría de conjuntos desarrolladas por figuras como George Boole y Gottlob Frege allanaron el camino para la lógica computacional. La lógica booleana, un sistema matemático para representar el razonamiento lógico, que utiliza operaciones de AND, OR y NOT, se convirtió en fundamental para el diseño de circuitos eléctricos en computadoras. Estos tres operadores son fundamentales en la lógica booleana y se utilizan para realizar operaciones de conjunción, disyunción y negación en expresiones lógicas.
Introduzcamos ahora a los bits: Los bits son la unidad básica de información en la computación y la electrónica. El término "bit" proviene de la contracción de las palabras "binary digit" (dígito binario) y representa la menor cantidad de información almacenada en una computadora. Un bit puede tener uno de dos valores posibles: 0 o 1, que corresponden a los estados de "apagado" y "encendido" en la electrónica. En esencia, los bits son la forma en que las computadoras representan y manipulan información a nivel fundamental.
La relación entre los bits y la lógica booleana es fundamental y clave para comprender como se pasó de las ideas a las maquinas. Como hemos adelantado, la lógica booleana es un sistema de álgebra basada en la teoría de George Boole y utiliza valores booleanos (verdadero o falso) para representar estados lógicos. La relación con los bits radica en que estos valores booleanos se pueden identificar directamente con los valores 0 y 1 utilizados en la representación binaria de la información.
Aquí hay una correspondencia simple entre los valores booleanos y los bits:
- Verdadero (True) se puede representar como 1 en forma binaria.
- Falso (False) se puede representar como 0 en forma binaria.
Esta correspondencia permite que la lógica booleana se aplique directamente a la manipulación de bits en las computadoras. Los operadores lógicos AND, OR y NOT se utilizan para realizar operaciones lógicas en valores booleanos (0 y 1) almacenados en bits. Por ejemplo:
- El operador AND realiza una operación de "y lógico", lo que significa que devuelve 1 solo si ambos bits son 1, de lo contrario, devuelve 0.
- El operador OR realiza una operación de "o lógico", lo que significa que devuelve 1 si al menos uno de los bits es 1.
- El operador NOT invierte un bit, convirtiendo 1 en 0 y viceversa.
En resumen, los bits son la unidad básica de información en las computadoras y se relacionan directamente con la lógica booleana mediante una correspondencia simple entre los valores booleanos (verdadero/falso) y los valores binarios (1/0), lo que permite la manipulación lógica de datos en las computadoras.
El concepto de bits (dígitos binarios) y la base binaria en la que se basa el sistema de numeración binario se originaron en la década de 1930, aunque la idea de representar información en forma de bits y su aplicación en la informática moderna evolucionaron a lo largo de varias décadas. Algunos de los hitos cronológicos mas destacados relacionados con esta evolución son:
Elaboración propia con Genially
En este periodo histórico ocurrieron otros acontecimientos muy reseñables como lo que se considera el primer diseño y a su vez el primer intento de construcción de una computadora que ocurrió en el XIX. Charles Babbage diseñó la Máquina Analítica en la década de 1830, una máquina mecánica que, aunque nunca se construyó completamente en su época, representó la idea de una computadora programable. Utilizaba tarjetas perforadas para recibir instrucciones y era capaz de realizar cálculos aritméticos. Ada Lovelace trabajó con Babbage en este proyecto y es reconocida por escribir lo que se considera el primer algoritmo destinado a ser procesado por una máquina, vislumbrando la capacidad de las computadoras para ir más allá de los simples cálculos numéricos.
La máquina no se construyó en su momento ya que los contemporáneos de Babbage lo consideraron un sueño delirante. De no haber sido así, se podría haber anticipado la construcción de los primeros ordenadores más de un siglo.
La Máquina Analítica de Babbage no gestionaba la información de manera binaria ya que fue diseñada antes de que el algebra booleana fuera formalmente introducida. Así que aunque el procesamiento binario de datos, que es fundamental para las computadoras modernas, no fue una característica del diseño original de la Máquina Analítica, sus conceptos y diseños si que se consideran parte fundamental para el desarrollo posterior de las computadoras, y Babbage es a menudo referido como uno de los "padres de la computación".
Charles Babbage afirmaba que las máquinas transformarían el mundo. Invirtió considerables esfuerzos y su propia fortuna en el diseño y la creación de la Máquina Analítica. Sin embargo, su visión no pudo concretarse debido a la falta de apoyo y fue ridiculizado por sus contemporáneos. Babbage, un adelantado a su época, escribió algo que resultaría ser cierto:
"Otra generación deberá evaluar mi trabajo". Charles Babbage
La Máquina Analítica concebida por Charles Babbage en 1821 y construida en 1991 por un equipo de ingenieros del Museo de Ciencias de Londres .GETTY IMAGES
En el siglo XX, las ideas y teorías abstractas relacionadas con la computación y el procesamiento de información se convierten en realidad práctica en forma de dispositivos funcionales. La Atanasoff-Berry Computer (ABC) en la década de 1930 y la Harvard Mark I en la década de 1940 fueron algunos de los primeros ordenadores electromecánicos. Utilizaban relés y tubos de vacío para realizar cálculos, y su programación era principalmente a través de tarjetas perforadas o cintas de papel. Utilizaban la lógica booleana en su funcionamiento interno ("software"). Por ejemplo, para realizar operaciones aritméticas o lógicas en números binarios, se utilizaban circuitos que implementaban operaciones booleanas. La lógica booleana se convirtió en una parte esencial de la programación y el diseño de hardware de las primeras computadoras. Estas máquinas eran enormes y lentas según los estándares actuales, pero representaban un avance significativo en la capacidad de procesamiento de información.
Estos primeros ordenadores permitieron poner en práctica las ideas de lógica y automatización desarrolladas en el siglo anterior. La capacidad de programar algoritmos y realizar cálculos complejos en una máquina fue la primera etapa en el camino hacia la IA moderna. Las teorías matemáticas del siglo XIX se casaban con el funcionamiento de estas máquinas, ya que los principios de lógica y cálculo eran ahora ejecutables en hardware.
Vemos entonces a modo de resumen que el siglo XIX fue un período de fermentación intelectual que estableció los fundamentos teóricos de la computación, mientras que el siglo XX vio el desarrollo de los primeros ordenadores prácticos. Juntos, estos avances marcaron la transición de las ideas sobre automatización y procesamiento de la información desde el reino de la especulación teórica hasta la realidad tangible, abriendo el camino hacia la era de la computación y la inteligencia artificial.
Cabe destacar en esta etapa histórica al matemático y lógico británico Alan Turing (1912-1954). Turing introdujo el concepto de las "máquinas de Turing", una idea teórica sobre un aparato capaz de ejecutar cualquier operación computacional. Se refiere a un modelo abstracto de una computadora compuesto por una cinta infinita segmentada en casillas, una cabeza de lectura/escritura que se desplaza a lo largo de la cinta y un conjunto limitado de estados y reglas de transición. Las máquinas de Turing fueron fundamentales en la evolución de la teoría de la computación y ejercieron una influencia notable en la Inteligencia Artificial.
Durante la Segunda Guerra Mundial, el trabajo desarrollado por Alan Turing en criptografía resulto en un importante papel en la guerra. Turing y su equipo desarrollaron la máquina "Colossus", considerada una de las primeras computadoras electrónicas programables. Esta máquina ayudó a descifrar los códigos de comunicación alemanes. El funcionamiento de esta máquina se basaba en el uso de interruptores electrónicos para representar y procesar información en forma de bits (0 y 1).
En 1943, Warren McCulloch y Walter Pitts introdujeron el concepto de "neurona artificial", una abstracción matemática de una célula nerviosa. La neurona McCulloch-Pitts proporcionó un modelo de cómo las neuronas biológicas podrían realizar cálculos simples mediante la combinación de señales de entrada y la aplicación de una función de activación. Su modelo sentó las bases para el desarrollo posterior de las redes neuronales artificiales, que son esenciales en la IA moderna.
Neurona artificial (McCulloch Pitts)
En 1950, Alan Turing contribuyó de nuevo en sentar las bases de la inminente disciplina de la IA proponiendo la famosa "prueba de Turing", un test para determinar si una máquina puede exhibir un comportamiento inteligente indistinguible del de un ser humano. Esta idea planteó cuestionamientos profundos sobre la naturaleza de la inteligencia y allanó el camino para la investigación y el desarrollo de la IA en las décadas siguientes. En este video "el propio Turing" explica el funcionamiento del test que lleva su nombre.
El Test de Turing contado por Alan Turing. Ejemplo de video generado 100% con IA. https://www.youtube.com/@JoaquinPena
Unidad 1.3. Inicios y evolución de la IA.
El nacimiento de la IA
Texto en la placa conmemorativa de la conferencia de Dartmouth (1956): "Primera utilización del término "Inteligencia Artificial". Fundando la Inteligencia Artificial como una disciplina de investigación para proceder sobre la base de la conjetura de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse tan precisamente que se puede construir una máquina para simularlo".
A partir de los años 50 se produce una evolución explosiva de la IA aunque con altibajos, también llamados inviernos de IA.
El resumen de tal proceso se presenta en esta imagen y se desarrolla a continuación:
Desde la histórica conferencia de Dartmouth en 1956, que marcó el inicio formal de la Inteligencia Artificial (IA) como campo de investigación, hasta el año 2011, se han producido importantes avances en la evolución de la IA. Los impulsores de la conferencia de Dartmouth fueron: John Mcarthy (Dartmoth College), Marvin L. Minsky (MIT), Nathaniel Rochester (IBM, y Claude Shannon (Laboratorios Bell). Cada uno de ellos era líder en áreas cruciales para el nacimiento de la IA. McCarthy en la formulación de conceptos de IA, Minsky en el aprendizaje de máquinas y redes neuronales, Rochester en hardware y arquitectura de computadoras, y Shannon en teoría de la información. Sus conocimientos y colaboraciones fueron fundamentales para establecer una base sólida que permitió el desarrollo y crecimiento de la IA como una disciplina de investigación.
A partir de ese momento, y creciendo sobre los cimientos de las teorías, desarrollos conceptuales y tecnológicos acumulados hasta ese momento, se fueron sucediendo logros técnicos y tecnológicos que han desembocado en la irrupción aparentemente imparable de la IA en la actualidad.
Uno de los hitos clave fue la invención del perceptrón por Frank Rosenblatt en 1957. El perceptrón fue uno de los primeros modelos de aprendizaje automático inspirados en las redes neuronales del cerebro humano. El perceptrón, era una evolución de la neurona McCulloch-Pitts, si bien mejoraba a esta al introducir el concepto de aprendizaje automático. Mientras que la neurona de McCulloch-Pitts tenía pesos fijos, el perceptrón permitía el ajuste de los pesos en función de los datos de entrada a través de un proceso de aprendizaje simple, lo que permitía que el modelo aprendiera a clasificar diferentes patrones de datos automáticamente. Esta capacidad de aprender de los datos fue un avance significativo hacia el desarrollo de algoritmos más avanzados de aprendizaje automático y redes neuronales.
Seymour Papert, que trabajó junto con Marvin Minsky y ambos fueron coautores de un libro muy influyente llamado "Perceptrons" en 1969, que exploraba las limitaciones y las capacidades de los perceptrones y las redes neuronales. Su trabajo junto con Minsky fue crucial para entender y analizar las capacidades y limitaciones de estos modelos, lo cual fue fundamental en el desarrollo temprano de la inteligencia artificial y el aprendizaje automático.
"El perceptrón es el embrión de una computadora que será capaz de hablar, caminar, ver, escribir, reproducirse y ser consciente de su existencia" Seymour Papert
Comparativa gráfica entre una neurona y el perceptrón. https://inteligenciafutura.mx/english-version-blog/blog-06-english-version
Ciclos de esperanza y escepticismo: Los Altibajos de la IA (1970-2010)
Sin embargo, a pesar de sus prometedoras capacidades, pronto surgieron limitaciones y desafíos que llevaron a un declive en la investigación de la IA, conocido como el "primer invierno de la IA". La citada publicación "Perceptrons" en la que también se mencionaban las limitaciones del mismo anticipó ese declive.
En el "primer invierno de la IA", que tuvo lugar durante la década de 1970 y principios de la década de 1980, los avances en la IA se estancaron debido a la falta de resultados prácticos y las expectativas excesivas. El financiamiento se redujo y muchos investigadores abandonaron el campo.
Si bien, aún sin financiación a gran escala, los trabajos y desarrollos teóricos siguieron produciéndose y en 1974 el matemático y economista Paul Werbos publicó su tesis doctoral en la que introdujo el concepto del algoritmo de retropropagación (backpropagation) que es fundamental para entrenar redes neuronales multicapa. Este algoritmo se convirtió en una base crucial para el desarrollo del aprendizaje profundo, facilitando el entrenamiento eficaz de redes neuronales y contribuyendo al avance de la inteligencia artificial.
Esquema gráfico del funcionamiento del algoritmo de retropropagación. https://www.analyticsvidhya.com/blog/2023/01/gradient-descent-vs-backpropagation-whats-the-difference/
A grandes rasgos el algoritmo de retropropagación introduce el posible error cometido en la predicción realizada por el algoritmo respecto al resultado esperado, permitiendo a la red neuronal ajustar los pesos de los cálculos que se realizan en las capas de neuronas con el objetivo de afinar cada vez mas el resultado final.
Avances como la retropropagación, el nuevo enfoque de los desarrollos que se centraban en problemas concretos, lo que resultó en lo que se dio a denominar Sistemas Expertos, así como la fundamentación de los sistemas en la gestión estructurada de grandes cantidades de datos condujo a mediados de la década de 1980 a un resurgimiento en la investigación de la IA y a una vuelta de la financiación, impulsada no solo por iniciativa privada sino también por proyectos nacionales como en Japón o Estados Unidos.
Sin embargo, a finales de la década de los 80, volvió a enfriarse el entusiasmo. Las causas en esta ocasión se encontraban en un estancamiento provocado por las limitaciones tecnológicas y la falta de robustez en los sistemas existentes. Por tanto, se dejaron de lado los proyectos en curso en lo que se denomino "segundo invierno de la IA" y los esfuerzos volvieron a centrarse en un replanteamiento del enfoque.
Este cambio de perspectiva se materializó en varios frentes:
- "Elephants Don’t Play Chess" de Rodney Brooks (Laboatorio de IA del MIT)
En este artículo, Rodney Brooks argumenta en contra del enfoque tradicional basado en la lógica simbólica y a favor de un enfoque más basado en la interacción con el entorno. Brooks propone que los sistemas de IA deberían estar más arraigados en el mundo físico y ser capaces de interactuar con él de manera efectiva, en lugar de estar confinados a tareas abstractas y descontextualizadas como jugar al ajedrez. Su trabajo promovió una visión de la IA que valora la interacción con el entorno y la capacidad de adaptarse a él, lo cual es crucial para el desarrollo de robots autónomos y otros sistemas de IA interactuantes.
https://msujaws.wordpress.com/2010/11/18/elephants-dont-play-chess/
En contraposición a los enfoques anteriores que se centraban en la lógica simbólica y en sistemas expertos con un conocimiento codificado de manera rígida, estos nuevos enfoques adoptaron una perspectiva más flexible y basada en datos, que permitió a la IA superar el segundo invierno y entrar en una nueva era de innovación y crecimiento. Además, el apoyo continuo de la comunidad académica y de la industria, junto con avances en hardware y disponibilidad de datos, contribuyeron a superar las limitaciones que habían causado el segundo invierno de la IA.
Estos cambios en el enfoque hacia una IA más interactuante y emergente representaron un movimiento importante lejos de los enfoques anteriores, y se alinean con la tendencia general hacia la IA que es capaz de aprender y adaptarse de manera más efectiva a su entorno.
Este periodo, que abarcaría desde la década de 1990 hasta finales de la década de 2010, estuvo plagado de logros concretos de la IA que supusieron hitos importantes en la constatación de su evolución en campos que siguen desarrollándose actualmente, como ejemplos
- Estrategias de juego y simulación: En una serie de seis partidas de ajedrez, la computadora Deep Blue de IBM derrotó al entonces campeón mundial Garry Kasparov. Esta victoria marcó la primera vez que una máquina derrotó a un campeón mundial de ajedrez en condiciones de torneo, y fue un hito significativo en la demostración de la capacidad de las máquinas para realizar tareas que tradicionalmente se consideraban dominio exclusivo de la inteligencia humana.
-
Reconocimiento de voz: Dragon NaturallySpeaking fue uno de los primeros programas comerciales de reconocimiento de voz, presentado en 1997. Permitió a los usuarios hablar directamente a sus computadoras y convertir sus palabras en texto. Todavía se comercializa en la actualidad.
- Conducción autónoma: el DARPA Grand Challenge (2004-2007) fue una serie de desafíos, organizados por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) de EE.UU. que incentivaron el desarrollo de vehículos autónomos. El desafío de 2005 fue notable porque cinco vehículos completaron un recorrido en el desierto de 131 millas, con el equipo de Stanford llamado "Stanley" llegando primero.
- Procesamiento de lenguaje natural (NLP): WordNet (1995) una base de datos léxica para el inglés que ha sido fundamental para muchas aplicaciones de NLP. Ayuda en la relación semántica entre palabras. También en este campo IBM Watson, sistema de IA capaz de responder a preguntas en lenguaje natural y con capacidad de aprendizaje automático venció contra campeones humanos en el juego de televisión "Jeopardy!".
Watson de IBM. De Clockready - Trabajo propio, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=15891787
- Reconocimiento de imágenes: Scale-Invariant Feature Transform (SIFT) es un algoritmo usado en visión artificial para extraer características relevantes de las imágenes que posteriormente pueden usarse en reconocimiento de objetos, detección de movimiento, estereopsis, registro de la imagen y otras tareas.
El algoritmo fue publicado por primera vez por David Lowe en 1999 pero lo describió completamente y patentó en Estados Unidos en 2004.
También en reconocimiento de imágenes es destacable ImageNet o ImageNet Large Scale Visual Recognition Challenge (ILSVRC). Iniciado en 2010, este desafío se convirtió en una competición anual que evalúa los algoritmos en tareas de detección de objetos y clasificación de imágenes a gran escala utilizando el conjunto de datos ImageNet. La competición ha tenido un impacto inmenso en el avance de los algoritmos de reconocimiento de imágenes, particularmente con el advenimiento de las redes neuronales convolucionales (CNN).
- Google Brain: fue fundado en 2011. Uno de sus primeros proyectos importantes fue un sistema de aprendizaje profundo que, cuando se entrenó con miles de horas de videos de YouTube, aprendió por sí mismo a reconocer gatos y otros objetos. Esta demostración fue una de las primeras en mostrar el poder y potencial del aprendizaje profundo a gran escala.
Hitos contemporáneos, de la IA a la AGI
"Attention is all you need." - Vaswani et al., "Attention Is All You Need" (2017)
"Los modelos de lenguaje como ChatGPT pueden ser herramientas increíblemente poderosas, pero también conllevan una gran responsabilidad para garantizar que se utilicen de manera ética y segura." - Sam Altman
Durante el periodo de 2011 a 2023, ha habido un notable avance en las tecnologías de Inteligencia Artificial, particularmente en el desarrollo de nuevos algoritmos, evolucionadas redes neuronales , así como revolucionarias arquitecturas. Estas tecnologías han sido fundamentales para el procesamiento de imágenes, el procesamiento del lenguaje natural y otras tareas de IA. Aquí se presenta una visión general de su evolución:
En cuanto a las redes neuronales destacan:
- Las redes neuronales generativas adversariales (GAN), la red consta de dos modelos, uno generador y otro discriminador.
El discriminador debe analizar las muestras generadas por el generador y tratar de discernir si son reales o sintéticas, retroalimentando el aprendizaje.
A la izquierda una GAN "trabajando" para crear el retrato de Edmond Belamy, a la derecha. Esta obra fue subastada en Christie's y se convirtió así en la primera casa de apuestas en subastar una obra generada por una IA.
El Generador (de la red GAN) produjo imágenes basadas en un conjunto de datos de 15.000 retratos pintados entre los siglos XIV y XX, y el Discriminador intentó diferenciar las obras creadas por el hombre y las generadas por IA.
"El objetivo es engañar al Discriminador haciéndole creer que las nuevas imágenes son retratos de la vida real", dice Caselles-Dupré, cofundador de Obvious, colectivo artístico promotor de la iniciativa. "Entonces tenemos un resultado". Edmon Belamy es uno de los 11 retratos que representan a la familia ficticia Belamy.
- Las redes neuronales convolucionales (CNN), citadas anteriormente: Las CNN experimentaron un gran avance en el procesamiento de imágenes y la visión por computadora. En 2012, el modelo AlexNet revolucionó el campo al ganar la competición ImageNet, superando con éxito a los enfoques tradicionales. Desde entonces, se han propuesto y mejorado diversas arquitecturas de CNN, como VGGNet, InceptionNet y ResNet, que han superado los límites de precisión en tareas de clasificación, detección y segmentación de objetos en imágenes.
- Las redes neuronales LSTM (Long Short-Term Memory) son un tipo de red neuronal recurrente (RNN) que han sido fundamentales en el procesamiento del lenguaje natural y en la generación de texto. Las LSTM resuelven el problema de las RNN tradicionales al permitir el almacenamiento y el acceso a información a largo plazo, lo que las hace más efectivas en el procesamiento de secuencias largas. Estas redes han mejorado significativamente la capacidad de modelar y generar texto coherente y natural.
Además de las redes neuronales la evolución de las arquitecturas, entendidas como el diseño general de la estructura de un modelo, ha representado un salto fundamental en el campo de la inteligencia artificial y en concreto el procesamiento de lenguaje natural (NLP):
- La arquitectura encoder-decoder, se ha utilizado para la extracción de características y la representación eficiente de datos. Esta arquitectura permite comprimir la información relevante de una entrada en una representación latente de menor dimensión, lo que facilita el procesamiento y análisis posterior.
- Los transformers, son una arquitectura de redes neuronales que ha revolucionado el procesamiento del lenguaje natural y otras tareas de secuencia. Introducidos en 2017, los transformers se basan en el mecanismo de atención para capturar relaciones entre elementos en una secuencia. Esta arquitectura ha demostrado un rendimiento sobresaliente en tareas como la traducción automática, la generación de texto y el procesamiento del lenguaje natural.
Estos avances técnicos dieron pie a la consecución de determinados logros, algunos de los cuales se consideran momentos clave en la historia de la IA, algunos de ellos son:
- AlphaGo - AlphaZero: en 2014 Google presenta su sistema de IA llamado Google DeepMind y lanza su primer gran proyecto de IA conocido como AlphaGo. AlphaGo derrota a Lee Sedol, campeón mundial de Go, un juego extremadamente complejo y estratégico, demostrando la capacidad de la IA para superar a los mejores expertos humanos en juegos de mesa. Alpha Go había sido entrenado mediante una combinación de aprendizaje supervisado y aprendizaje por refuerzo, utilizando una gran cantidad de datos de partidas humanas.
Posteriormente, DeepMind subió la apuesta y en 2017 lanzó AlphaGo Zero. A diferencia de AlphaGo, que se entrenó en juegos jugados por humanos, AlphaGo Zero fue entrenado, a partir del único conocimiento de las reglas del juego, desde cero, solo mediante el aprendizaje de refuerzo. A través de la autoevaluación y la retroalimentación de las partidas jugadas contra ella misma, AlphaGo Zero ajustaba sus estrategias y mejoraba su rendimiento. AlphaGo Zero se convirtió en el mejor jugador del mundo en tres días, superando la versión anterior de AlphaGo. Este evento mostró el potencial de los sistemas de aprendizaje profundo para superar incluso a los mejores jugadores humanos sin la necesidad de datos de entrenamiento previos.
- GPT (Generative Pre-trained Transformer): primera versión del modelo de lenguaje de OpenAI, desarrollado por el investigador de IA Andrej Karpathy, demuestra una capacidad asombrosa para generar texto coherente y de alta calidad.
Los modelos basados en la arquitectura Transformer han mejorado significativamente la capacidad de procesamiento de los modelos de lenguaje natural. Antes de la introducción de los Transformers, los modelos de lenguaje natural más populares eran los modelos basados en RNN (Redes Neuronales Recurrentes), que se enfrentaban a problemas de "desvanecimiento de gradiente" y "memoria a corto plazo". Estos problemas hacían que los modelos de lenguaje basados en RNN fueran difíciles de entrenar y limitaban su capacidad para comprender contextos más amplios y a largo plazo.
En contraste, los modelos que utilizan Transformers, como GPT (Generative Pretrained Transformer) o BERT de Google (Bidirectional Encoder Representations from Transformers) entre otros, utilizan una arquitectura basada en atención que les permite comprender relaciones entre diferentes partes de un texto de manera más efectiva, permitiendo una mejor comprensión del contexto y sin problemas de desvanecimiento de gradiente. Además, los Transformers permiten un entrenamiento más rápido y escalable que los modelos RNN, lo que ha llevado a mejoras significativas en la precisión de los modelos de lenguaje natural.
Esto ha permitido también la inclusión de muchos más parámetros en el modelo, lo que ha llevado a mejoras significativas en la precisión y la capacidad de comprensión del modelo.
La tercera versión del modelo, GPT-3, por ejemplo, tiene 175 mil millones de parámetros, mientras que los modelos de lenguaje más grandes, como BERT, con 110 millones de parámetros, o Turing NLG que tiene 17 mil millones.
La inclusión de más parámetros en el modelo permite a GPT-3 comprender mejor el contexto y generar textos más coherentes y naturales, lo que ha llevado a avances significativos en las tareas de procesamiento del lenguaje natural, como la traducción automática, la respuesta a preguntas y la generación de texto.
- Alphafold: es uno de los logros mas significativos conseguidos por la IA hasta la fecha. La empresa DeepMind resolvió el problema del plegamiento de las proteinas usando aprendizaje automático para predecir la estructura 3D de las proteinas que a su vez determina su funcionalidad.
AlphaFold, desarrollado por DeepMind, es un sistema de inteligencia artificial que ha revolucionado la predicción de la estructura 3D de las proteínas, lo que determina a su vez la funcionalidad de las mismas, al lograr una precisión sin precedentes usando aprendizaje automático. Esto tiene un gran impacto en la investigación biomédica y farmacéutica al acelerar el desarrollo de tratamientos y terapias médicas. También marca un hito importante en la inteligencia artificial al demostrar cómo puede abordar con éxito problemas complejos y multidisciplinarios en la ciencia.
En la imagen se aprecia la forma de dos proteínas distintas, en cada una de ellas, en color verde la forma real de la proteína y en azul la predicción realizada por Alphafold. Mas información: https://alphafold.ebi.ac.uk/
Estos son solo algunos de los hitos importantes que han ocurrido en el campo de la IA a partir de 2011. La IA continúa avanzando rápidamente, con nuevos descubrimientos, aplicaciones innovadoras y desafíos éticos y sociales que surgen a medida que la tecnología evoluciona.
Unidad 1.4. Impacto de la IA, situación actual. IA extrema
Introducción
"El campo de juego está listo para volverse mucho más competitivo, y las empresas que no implementen inteligencia artificial y datos para ayudarlos a innovar en todo lo que hacen estarán en desventaja". Paul Daugherty , director de tecnología e innovación de Accenture
En la era contemporánea, la Inteligencia Artificial ha transcendido los límites del laboratorio para integrarse de manera contundente en el tejido de nuestra sociedad y economía. En esta unidad, nos adentraremos en el análisis de la situación actual de la IA, observando su crecimiento exponencial y cómo ha fomentado innovaciones que son consideradas extremas en términos de su impacto disruptivo.
Las aplicaciones extremas de la IA son aquellas que han conseguido redefinir sectores enteros y sus expectativas de futuro. Estas aplicaciones no sólo destacan por su avanzada tecnología, sino por la magnitud de cambio que han instigado, alterando de manera significativa la dinámica previa a su implementación. Ejemplos destacados abarcan desde sistemas autónomos de conducción que prometen redefinir la movilidad urbana, hasta diagnósticos médicos asistidos por IA que están revolucionando el cuidado de la salud.
A través de un recorrido por ejemplos concretos, obtendremos una comprensión general de cómo la IA está remodelando el mundo en que vivimos, y cómo su trayectoria futura podría ser influenciada por las aplicaciones extremas que están emergiendo en el panorama actual orquestando una nueva era de innovación y posibilidades sin precedentes.
Impacto de la IA, situación actual
Para apreciar la magnitud del impacto que la IA esta teniendo y su evolución prevista, vemos en este ilustrativo gráfico la componente económica del mismo a nivel global, tanto la ya materializada hasta 2021 como la proyectada hasta 2030
Tamaño del mercado de la inteligencia artificial a nivel mundial de 2021 a 2030(en miles de millones de dólares). Fuente: Rosa Fernandez. Statista 2023
Uno de los informes mas recientes en el que se puede apreciar, en datos, el impacto que la IA ha alcanzado ya es: El estado de la IA en 2022 y el balance de media década, de la consultora McKinsey.
De este informe se desprenden, entre otras conclusiones, dos estadísticas que subrayan el impacto que ya está teniendo la IA:
- Incremento en la adopción de IA. El informe indica que la adopción de la IA se ha más que duplicado desde 2017. En ese año, solo el 20% de los encuestados informó haber adoptado la IA en al menos un área de negocio, mientras que en 2022, esa cifra aumentó al 50%. Aunque es notable mencionar que la adopción alcanzó su punto más alto en 2019 con un 58%.
- Aumento en la inversión en IA. El nivel de inversión en IA ha aumentado junto con su creciente adopción. Hace cinco años, el 40% de los encuestados de organizaciones que usaban IA informaron que más del 5% de sus presupuestos digitales se destinaban a IA. En el presente, más de la mitad de los encuestados indican ese nivel de inversión. Además, el 63% de los encuestados espera que la inversión de sus organizaciones en IA aumente en los próximos tres años.
Estas estadísticas, sin ser tan espectaculares como cabría esperar por el impacto mediático que esta teniendo la IA, reflejan una tendencia positiva en la adopción y la inversión en IA, lo que puede indicar un reconocimiento creciente del valor y el potencial de la IA en el ámbito empresarial. También, el aumento continuo en la inversión podría resultar en desarrollos más innovadores y en una adopción aún mayor de la IA en el futuro.
Hay que tener en cuenta que a día de hoy los estudios sobre la adopción de IA en las organizaciones, que normalmente son elaborados en base anual, no están reflejando todavía la habilitación al gran público de los potentes modelos del lenguaje como las distintas versiones de GPT de Open AI, BERT de Google o LlaMa de Meta. Estos modelos fueron, a partir del lanzamiento de ChatGPT de Open AI en noviembre de 2022 la punta de lanza de un nuevo impulso para la adopción de la IA en organizaciones de todo tipo, pero informes sobre la verdadera adopción todavía están por ver.
Al margen de estadísticas por llegar, es patente la penetración que la IA esta teniendo en multitud de sectores, lo vemos día a día en servicios y productos que salen al mercado. En la siguiente infografía, se aprecia al rango de alcance que está teniendo la IA, abarcando prácticamente a todos los sectores en mayor o menor medida.
Fuente: INTEF: IA Educación. Una IA para aprender
IA extrema
Veamos ahora algunos ejemplos de IA extrema en el sentido ya mencionado, aplicaciones que han conseguido dar un salto cualitativo o cuantitativo en la tarea o función en la que se ha introducido y que rompe con la tendencia de desarrollo que se observaba hasta ese momento. Clickando en los enlaces encontraras interesantes videos explicativos de cada uno de los aspectos descritos.
- Salud y medicina. Desde diagnosis mediante la identificación de patrones en síntomas e imágenes , hasta ayuda a personas ciegas o con visibilidad reducida , sin olvidar la capacidad de predecir la estructura de las proteínas, de la que ya hemos hecho mención en la unidad anterior.
- Predicción meteorológica. Si algún campo se considera retador para los científicos, en cuanto a la cantidad de variables y datos a tener en cuenta, es la meteorología y la climatología, normalmente asociado directamente al caos por la cantidad de factores que pueden terminar arruinando cualquier predicción. Aquí, la capacidad de la IA de gestionar ingentes cantidades de datos, extraer patrones y hacer predicciones se antoja muy esperanzadora para predecir los eventos climáticos extremos e incluso ayudarnos a aportar posibles soluciones para el cambio climático.
"We can learn more about weather by studying computation than we can by studying clouds (not the digital kind)"
"Today has been predicted 26 billion times"
Scott W Schwartz. NY University
- Programación. Mediante lenguaje natural pueden llegar a codificarse programas y aplicaciones. Como en este ejemplo de un sencillo videojuego programado en 8 minutos solo explicando con lenguaje natural en que queremos que consista el videojuego.
- Agricultura y ganadería. Mediante el análisis de imágenes y datos obtenidos de sensores y equipos de lectura se optimiza el uso de recursos y se detectan de manera anticipada problemas de irrigación o plagas en cultivos y ganado.
-
Educación
Hagamos un énfasis especial en la situación de la IA en educación y en como, habiéndose detectado las posibilidades que ofrece para el proceso de enseñanza-aprendizaje, ya se esta intentando despertar el interés sobre su potencial, así como alertar de sus riesgos, desde las instituciones. Profundizaremos en capítulos posteriores las posibilidades concretas que ofrece para docentes y alumnos.
Esto son solo algunos ejemplos de como las instituciones están tomando en cuenta la IA en el ámbito educativo:
- Unesco. Fruto de la conferencia IA en Educación realizada en Beijing en 2019, la Unesco publicó en 2021 el informe: Inteligencia artificial y educación. Guía para las personas a cargo de formular políticas. Mediante el cual, y bajo la premisa de alcanzar el Objetivo de Desarrollo Sostenible nº4 de la Agenda 20-30, formula y desarrolla la respuesta de tres preguntas clave
|
Informe Unesco Inteligencia artificial y educación (haz click en la imagen de la portada del informe para acceder al informe completo). Las 3 preguntas clave del informe y el ODS 4 de la agenda 20-30.
- Comisión Europea. Dentro de su Plan de acción en Educación Digital 2021-2027 la Comisión Europea dicta unas Directrices éticas sobre el uso de la inteligencia artificial y datos en la enseñanza y el aprendizaje
- Singapur: El ICEX (Instituto de Comercio Exterior) realizó en 2021 un documento informativo sobre el sector educativo en Singapur. En el mismo se detallan los planes de implementación de tecnologías IA a nivel educativo en el país.
Para mas información. Acceso al informe ICEX Tecnología educativa (Edtech) en Singapur
Referencias Módulo 1
Libros
-Metamorfosis, Ovidio. Año 8 d.C
-Las Argonáuticas, Apolonio de Rodas Siglo I a.C.
-De Architectura, Vitruvio. Siglo I a.C.
-Monadología, Gottfried Leibniz. 1714
-El discurso del método, René Descartes, 1637
-El hombre máquina, Julien Offray de La Mettrie. 1747
-Perceptrones, Seymour Papert. 1969
Vídeos
-Artificial Intelligence, the History and Future - with Chris Bishop
Vídeo de youtube con la historia de la IA y su proyección futura
Recordamos que existe la posibilidad de activar subtítulos en español de forma automática, desde la sección de configuración
https://www.youtube.com/watch?v=8FHBh_OmdsM
-Una breve historia de la Inteligencia Aritficial
https://www.youtube.com/watch?v=_pcQnFz7wAI
Créditos
Contenidos elaborados y seleccionados por:
- Luis Hueso Ibañez
- Pedro López Savirón
Cualquier observación o detección de error, puedes escribirnos a soportecatedu@educa.aragon.es.
Los contenidos se distribuyen bajo licencia Creative Commons tipo BY-NC-SA excepto en los párrafos que se indique lo contrario.