Unidad 1.3. Inicios y evolución de la IA.
Este apartado lo desgranaría un poco más, quizá separando los inviernos en secciones
El nacimiento de la IA
"Las redes neuronales artificiales son una forma de programar la computadora para que aprenda a reconocer patrones y decisiones por sí misma, en lugar de tener que ser programada explícitamente para cada tarea." - Geoff Hinton
A paritr de los años 50 se produce una evolución explosiva de la IA aunque con altibajos, también llamados inviernos de IA.
El resumen de tal proceso se presenta en esta imagen.
Desde la histórica conferencia de Dartmouth en 1956, que marcó el inicio formal de la Inteligencia Artificial (IA) como campo de investigación, hasta el año 2011, se han producido importantes avances en la evolución de la IA, así como en el desarrollo de GPUs y equipos de computación en general.
Durante este período, uno de los hitos clave fue la invención del perceptrón por Frank Rosenblatt en 1957. El perceptrón fue uno de los primeros modelos de aprendizaje automático inspirados en las redes neuronales del cerebro humano. Sin embargo, a pesar de sus prometedoras capacidades, pronto surgieron limitaciones y desafíos que llevaron a un declive en la investigación de la IA, conocido como el "invierno de la IA".
En el "invierno de la IA", que tuvo lugar durante la década de 1970 y principios de la década de 1980, los avances en la IA se estancaron debido a la falta de resultados prácticos y las expectativas excesivas. El financiamiento se redujo y muchos investigadores abandonaron el campo. Sin embargo, a mediados de la década de 1980, hubo un resurgimiento en la investigación de la IA con enfoques renovados, como los sistemas expertos y el aprendizaje simbólico.
A medida que avanzaban los años, el desarrollo de GPUs más potentes se convirtió en un factor clave en el impulso de la IA. En 2006, se lanzó la GPU NVIDIA GeForce 8800 GTX, que ofrecía una potencia de cómputo sin precedentes para su época, acelerando el entrenamiento de modelos de IA y permitiendo realizar cálculos paralelos masivos.
Durante este período, también se produjeron hitos notables. En 1997, el sistema de IA Deep Blue de IBM derrotó al campeón mundial de ajedrez Garry Kasparov, marcando un hito significativo en la capacidad de las máquinas para competir con los seres humanos en juegos complejos.
A pesar de los avances, la IA experimentó otro invierno en la década de 1990 debido a la falta de avances prácticos y el desafío de lograr la inteligencia artificial generalizada. Sin embargo, el resurgimiento de la IA en la década de 2000, impulsado por el aprendizaje profundo y las redes neuronales convolucionales, marcó un cambio de paradigma en la capacidad de las máquinas para el reconocimiento de patrones y el procesamiento de datos complejos.
En resumen, desde la conferencia de Dartmouth hasta 2011, la evolución de la IA estuvo marcada por avances y desafíos. El desarrollo del perceptrón y los inviernos de la IA ilustran los altibajos y las dificultades en la investigación de la IA. Sin embargo, el resurgimiento de la IA, impulsado por el desarrollo de GPUs más potentes y enfoques renovados, sentó las bases para los avances significativos en el aprendizaje automático y el procesamiento de datos complejos.
"Attention is all you need." - Vaswani et al., "Attention Is All You Need" (2017)
"Los modelos de lenguaje como ChatGPT pueden ser herramientas increíblemente poderosas, pero también conllevan una gran responsabilidad para garantizar que se utilicen de manera ética y segura." - Sam Altman
Avances teóricos IA
Durante el periodo de 2011 a 2022, hubo un notable avance en las tecnologías de Inteligencia Artificial (IA), particularmente en el desarrollo y aplicación de redes neuronales, redes neuronales convolucionales (CNN), redes neuronales LSTM (Long Short-Term Memory), así como arquitecturas de encoders y transformers. Estas tecnologías han sido fundamentales para el procesamiento de imágenes, el procesamiento del lenguaje natural y otras tareas de IA. Aquí se presenta una visión general de su evolución:
1. Redes neuronales: Las redes neuronales han sido ampliamente utilizadas en la IA durante este periodo. Se han mejorado los algoritmos de entrenamiento, como el descenso de gradiente estocástico (SGD) y las técnicas de regularización, lo que ha permitido entrenar modelos más profundos y precisos. Además, se han desarrollado nuevas arquitecturas, como las redes neuronales residuales (ResNet) y las redes neuronales generativas adversariales (GAN), que han mejorado aún más el rendimiento y las capacidades de la IA.
2. Redes neuronales convolucionales (CNN): Las CNN han experimentado un gran avance en el procesamiento de imágenes y la visión por computadora. En 2012, el modelo AlexNet revolucionó el campo al ganar la competencia ImageNet, superando con éxito a los enfoques tradicionales. Desde entonces, se han propuesto y mejorado diversas arquitecturas de CNN, como VGGNet, InceptionNet y ResNet, que han superado los límites de precisión en tareas de clasificación, detección y segmentación de objetos en imágenes.
3. Redes neuronales LSTM (Long Short-Term Memory): Las LSTM son un tipo de red neuronal recurrente (RNN) que han sido fundamentales en el procesamiento del lenguaje natural y en la generación de texto. Las LSTM resuelven el problema de las RNN tradicionales al permitir el almacenamiento y el acceso a información a largo plazo, lo que las hace más efectivas en el procesamiento de secuencias largas. Estas redes han mejorado significativamente la capacidad de modelar y generar texto coherente y natural.
4. Arquitecturas de encoders: Las arquitecturas de encoders, como los autoencoders y las redes neuronales convolucionales encoders (CNN-Encoders), se han utilizado para la extracción de características y la representación eficiente de datos. Estas arquitecturas permiten comprimir la información relevante de una entrada en una representación latente de menor dimensión, lo que facilita el procesamiento y análisis posterior.
5. Transformers: Los transformers son una arquitectura de redes neuronales que ha revolucionado el procesamiento del lenguaje natural y otras tareas de secuencia. Introducidos en 2017, los transformers se basan en el mecanismo de atención para capturar relaciones entre elementos en una secuencia. Esta arquitectura ha demostrado un rendimiento sobresaliente en tareas como la traducción automática, la generación de texto y el procesamiento del lenguaje natural.
Es importante destacar que durante este periodo también se han producido avances en otros campos de la IA, como el aprendizaje profundo, el aprendizaje por refuerzo y la transferencia de aprendizaje. Además, la disponibilidad de conjuntos de datos masivos y
Personajes
En 2017, Goertzel fue el director científico de Hanson Robotics, la empresa que desarrolló a Sophia, uno de los robots más avanzados en términos de apariencia y capacidad de interacción social.
Durante una entrevista, se le preguntó a Sophia si podría destruir a los humanos. En ese momento, Sophia respondió de manera inesperada diciendo: "OK, lo destruiré", lo cual generó cierta inquietud y controversia. Ante esto, Goertzel intervino rápidamente para aclarar que se trataba de una broma y que Sophia no tenía la capacidad real de hacer daño a los humanos.
Esta anécdota resalta la importancia de la comunicación y el contexto en la interacción entre humanos y robots. Aunque Sophia es un avance destacado en la creación de robots sociales, también pone de manifiesto los desafíos y responsabilidades éticas asociadas con el desarrollo de la inteligencia artificial y la necesidad de establecer límites claros en cuanto a su comportamiento y capacidades.
La colaboración de Goertzel con Sophia es solo una muestra de su amplia trayectoria en la investigación de la inteligencia artificial y su compromiso con la exploración de nuevas fronteras en este campo.
Hitos IA
Del algoritmo tradicional a las redes neuronales
A partir de 2011, ha habido varios hitos importantes y avances significativos en el campo de la Inteligencia Artificial (IA). Aquí hay algunos de ellos:
2011: El sistema Watson de IBM, basado en IA, gana en el programa de televisión Jeopardy!, derrotando a dos concursantes humanos destacados. Esto marcó un hito importante en el procesamiento del lenguaje natural y la capacidad de las máquinas para comprender y responder preguntas complejas.
2012: AlexNet, un modelo de redes neuronales convolucionales desarrollado por Alex Krizhevsky, gana el desafío ImageNet Large Scale Visual Recognition Competition (ILSVRC) con un rendimiento sorprendente. Esto desencadenó el auge del aprendizaje profundo en el campo de la visión por computadora y sentó las bases para avances significativos en la detección de objetos y el reconocimiento de imágenes.
2014: Google presenta su sistema de IA llamado Google DeepMind y lanza su primer gran proyecto de IA conocido como AlphaGo. AlphaGo derrota al campeón mundial de Go, un juego extremadamente complejo y estratégico, demostrando la capacidad de la IA para superar a los mejores expertos humanos en juegos de mesa.
2016: Generative Adversarial Networks (GANs), un tipo de modelo de IA propuesto por Ian Goodfellow, permite generar contenido nuevo y realista, como imágenes y música, a través de un proceso de competencia entre dos redes neuronales. Esto revoluciona la generación de contenido y abre nuevas posibilidades en el campo de la creación artística asistida por IA.
2018: El modelo de lenguaje GPT (Generative Pre-trained Transformer) de OpenAI, desarrollado por el investigador de IA Andrej Karpathy, demuestra una capacidad asombrosa para generar texto coherente y de alta calidad. Esto destaca el poder del aprendizaje automático basado en modelos de lenguaje para la generación de texto.
2020: La IA se utiliza de manera destacada en la lucha contra la pandemia de COVID-19. Se desarrollan modelos de IA para el diagnóstico temprano, la predicción de la propagación del virus y la búsqueda de tratamientos potenciales, lo que destaca el papel crucial de la IA en la medicina y la salud pública.
Estos son solo algunos de los hitos importantes que han ocurrido en el campo de la IA a partir de 2011. La IA continúa avanzando rápidamente, con nuevos descubrimientos, aplicaciones innovadoras y desafíos éticos y sociales que surgen a medida que la tecnología evoluciona.