1.3 Plataformas y herramientas
En los últimos años ha habido un desarrollo exponencial de tecnologías vinculadas a la IA en todos los niveles y ámbitos profesionales
Este curso pretende dar una visión completa de las mismas e iniciar al alumno en un uso más profundo y flexible de la IA para adaptarla a sus necesidades y reducir la dependencia.
Aunque se habla de python y librerías asociadas no es en absoluto la idea del curso aprender a programar pero sí ofrecer dicha posibilidad a los alumnos que quieran introducirse en el tema.
En esta sección mostramos las principales y más populares plataformas y tecnologías
- Modelos de IA: Incluyen grandes modelos lingüísticos (LLM) para texto (GPT, BERT, etc.), modelos de visión (CNN, Diffusion) y modelos multimodales que combinan texto e imagen. Los modelos fundacionales son gigantescas redes pre-entrenadas en datos masivos que luego se adaptan a tareas específicas (mediante fine-tuning).
- Plataformas: Hay entornos colaborativos en la nube y herramientas locales. Ejemplos destacados son Hugging Face (repositorio de 2M modelos, demos y Spaces de IA), LangChain (framework de encadenado de LLMs con fuentes de datos), Google Colab y Kaggle Notebooks (Jupyter en la nube con GPU/TPU gratuitas), servicios ML empresariales como AWS SageMaker o Azure ML (notebooks integrados y despliegue en producción), y aplicaciones de IA local como Ollama o LM Studio (herramientas gratuitas para correr LLMs open-source en PCs). La librería vLLM destaca como motor optimizado para servir LLMs con alta eficiencia de memoria y rendimiento.
- Librerías: Las más usadas incluyen PyTorch (“biblioteca optimizada de tensores para DL en GPU/CPU”), TensorFlow (plataforma de Google para crear modelos ML ejecutables en cualquier entorno) y Scikit-learn (biblioteca Python de ML tradicional para regresión, clasificación, clustering, etc. de código abierto).
- Técnicas clave: RAG (Generación Aumentada con Recuperación) combina LLMs con búsquedas en bases de datos externas para anclar las respuestas en información actualizada. El fine-tuning es reentrenar parcialmente un modelo pre-entrenado en datos específicos. Prompt engineering consiste en diseñar con cuidado las instrucciones al modelo. Métodos recientes como LoRA (Low-Rank Adaptation) añaden matrices de bajo rango a un LLM para adaptarlo con muy pocos parámetros (ganando eficiencia de memoria). En general, las aproximaciones PEFT (“Parameter-Efficient Fine-Tuning”) ajustan solo unos pocos parámetros extra del modelo, congelando el resto, lo que reduce drásticamente los costos de cómputo y almacenamiento.
- Infraestructura y hardware: Hay aceleradores especializados para IA. GPUs (p.ej. NVIDIA H100/A100) son procesadores paralelos versátiles con gran memoria (80–141 GB) y fuerte ecosistema (CUDA, PyTorch). TPUs (Google TPU v6e, etc.) son ASICs de tensor optimizados para cargas de inferencia en nube: p.ej. v6e ofrece ~2 PFLOPS FP16 por ~$2.70/h, pero solo están en Google Cloud (Google Drive, Colab). NPUs (Unidades de Procesamiento Neural) integradas en SoCs de móviles/PCs (por ejemplo, el Apple Neural Engine en iPhones/Mac) ofrecen muy alta eficiencia energética: la 5ª generación de Apple NPU alcanza ~15.8 TFLOPS FP16. FPGAs y ASICs (como Google Edge TPU) permiten IA embebida con baja latencia, aunque son menos flexibles y a menudo caros. Los aceleradores neuromórficos (Intel Loihi, IBM TrueNorth) son experimentales para IA inspirada en el cerebro. Cada hardware tiene su costo/rendimiento: las GPUs de consumo cuestan cientos de euros, TPUs cobran por hora en nube, NPUs vienen “incluidas” en dispositivos móviles, FPGAs/ASICs son especializados (educativamente poco comunes), etc.
- Ejecución de modelos: Se puede en la nube, en local o en el edge. La nube (Colab, AWS, Azure) ofrece escalabilidad y cero instalación, pero implica costos y dependencia de Internet. En local (PC o servidores propios) hay más control de datos y cero latencia de red, pero requiere disponer de hardware adecuado. En el edge (móviles, IoT) se prioriza rapidez y privacidad (los datos no salen del dispositivo). Por ejemplo, la startup española Multiverse destaca que ejecutar IA en el dispositivo (“edge”) mejora la eficiencia energética y la privacidad.
- Datos y conjuntos: La calidad de los datos es crucial. Existen repositorios abiertos (Hugging Face Datasets, Kaggle Datasets, conjuntos académicos como ImageNet, UCI, NOAA, etc.) en múltiples disciplinas. Hay que asegurar la ética (consentimiento de datos, evitar sesgos, transparencia) y cumplir normativas de gobernanza (GDPR en Europa, futuras leyes de IA).
Hugging Face
Hugging Face ofrece el Model Hub, repositorio público con millones de modelos preentrenados (textuales, vision, multimodales) y conjuntos de datos. También proporciona Spaces, un directorio de aplicaciones de IA interactivas compartidas. La biblioteca Transformers de HF permite cargar, ajustar o servir estos modelos bajo PyTorch o TensorFlow. Por ejemplo, hay APIs para clasificación de texto, traducción, generación de imágenes, etc. HF dispone de planes gratuitos (por ejemplo: almacenar modelos públicos gratis) y servicios de inferencia pagos (~$0.033/hora por endpoint dedicado), lo cual se detalla en su página de precios. Esta plataforma es muy usada en investigación y educación ya que facilita acceder a modelos sin grandes recursos propios.
LangChain
LangChain es un framework de código abierto (Python/JavaScript) diseñado para crear aplicaciones que combinan LLMs con fuentes de datos externas. Permite “encadenar” pasos: por ejemplo, recibe la consulta del usuario, la procesa o traduce si es necesario, luego realiza una búsqueda o recuperación de información relevante en bases de datos o documentos, y finalmente alimenta al LLM con ese contexto para generar una respuesta informada. Así, LangChain facilita construir agentes de IA o chatbots especializados (ej. un chatbot médico que primero busca en un repositorio de investigaciones antes de responder). Es modular y extensible, y su propósito educativo es mostrar cómo integrar datos reales en aplicaciones basadas en LLMs.
Google Colab
Google Colab es un servicio de notebooks Jupyter en la nube (no hay que instalar nada local) que combina código ejecutable, texto enriquecido e imágenes en un mismo documento. Proporciona un entorno “listo para usar” con Python y bibliotecas de ML preinstaladas, facilitando la colaboración entre usuarios (compartición de notebooks vía Google Drive). Una ventaja clave es que Colab regala cómputo acelerado: acceso gratuito a GPUs (por ejemplo NVIDIA Tesla T4) y TPUs (Google’s Tensor Processing Units). Esto permite entrenar o inferir modelos sin invertir en hardware costoso. Colab tiene límites de uso (tiempo de sesión, RAM) en el plan gratuito, y ofrece versiones Pro de pago para mayor capacidad. Por su sencillez, es muy popular en educación científica, permitiendo a profesores y alumnos ejecutar experimentos de IA sin infraestructura local.
Kaggle Notebooks
Kaggle (plataforma de ciencia de datos de Google) también ofrece notebooks colaborativos en la nube. Al igual que Colab, proveen GPUs gratuitas (ej. NVIDIA Tesla P100) y un entorno de Python listo, pero están más orientados a análisis de datos (con acceso directo a datasets de la comunidad) y a la competencia en proyectos de ciencia de datos. Son gratuitos y fáciles de usar para docentes que guían prácticas de análisis de datos con IA.
AWS SageMaker y Azure ML
Son servicios en la nube de AWS (Amazon) y Microsoft respectivamente. Permiten el entrenamiento, ajuste, despliegue y monitorización de modelos de ML a escala industrial. Por ejemplo, Azure Machine Learning es “un servicio en la nube que acelera y administra el ciclo de vida del aprendizaje automático”. Ofrece notebooks integrados, interfaces gráficas (Designer) y soporte para frameworks abiertos (PyTorch, TensorFlow, Scikit-learn). SageMaker similarmente. Ambos requieren pago según recursos usados (CPUs/GPUs en la nube), por lo que su uso educativo suele limitarse a instituciones con presupuesto o al plan gratuito inicial. Su ventaja es la escalabilidad y la integración con servicios empresariales (bases de datos, web services), aunque a costa de mayor complejidad y costo.
Ollama y LM Studio
Estas son herramientas locales para correr modelos de lenguaje en PCs sin depender de nube. Ollama (CLI/API) e LM Studio (aplicación de escritorio) permiten descargar y ejecutar LLMs open-source en Windows, Mac o Linux. Son gratuitas para uso personal. Por ejemplo, LM Studio anuncia: “Run AI models, locally and privately”, soportando modelos como gpt-oss, Qwen3 o Gemma3 en tu propio hardware. La figura ilustra su interfaz tipo IDE para inferir con un modelo en local. Al usarlos, los datos permanecen en tu dispositivo, lo que protege la privacidad. Estas plataformas son útiles en entornos educativos donde no se desea o no se puede usar la nube.
vLLM
vLLM es una biblioteca de inferencia desarrollada inicialmente en la Universidad de Berkeley (ahora con soporte de NVIDIA) diseñada para servir LLMs con gran rendimiento y eficiencia de memoria. Permite procesar muchas solicitudes en paralelo, optimiza la gestión de memoria de las llaves-valor de atención, y utiliza técnicas de cuantización (INT4/INT8, FP8). Se integra con modelos de Hugging Face y soporta GPUs (NVIDIA, AMD, Intel) e incluso CPUs, y hasta TPUs mediante plugins. vLLM ofrece un servidor API compatible con OpenAI para inferencia, ideal para montar demos educativas de IA de forma eficiente.
Bibliotecas python
- PyTorch: Es una biblioteca de tensores optimizada para aprendizaje profundo sobre GPUs/CPUs. Ofrece un modo de ejecución ansioso (fácil de usar en investigación) y herramientas para producción (TorchScript, TorchServe). PyTorch cuenta con un ecosistema rico (TorchVision, TorchAudio) para visión, audio y NLP, y está soportado por principales nubes (AWS, GCP, Azure).
- TensorFlow: Es una plataforma de Google de extremo a extremo para ML. La página oficial destaca que “TensorFlow facilita la creación de modelos de AA que pueden ejecutarse en cualquier entorno”. Posee API intuitivas (como Keras) y bibliotecas auxiliares (TFX, TensorFlow Lite para móviles, etc.). TensorFlow también permite exportar modelos a otros formatos (SavedModel, TFLite) para desplegarlos en servidores o dispositivos móviles.
- Scikit-learn: Biblioteca de Python de propósito general para aprendizaje automático clásico. Brinda implementaciones eficientes de algoritmos de regresión, clasificación, clustering y reducción de dimensionalidad. Como señala IBM, “Scikit-learn es una de las bibliotecas de machine learning más utilizadas” en Python. Aunque no está diseñada para redes neuronales profundas, es indispensable para tareas de ciencia de datos (preprocesamiento, validación cruzada, métricas) en educación.
No comments to display
No comments to display