Tablas comparativas
Tablas comparativas
Plataformas y herramientas (funcionalidades, costo aproximado, facilidad de uso):
| Plataforma/Herramienta | Funcionalidades principales | Coste aproximado | Facilidad de uso (docentes) |
|---|---|---|---|
| Hugging Face | Repositorio de modelos preentrenados, demos (Spaces), APIs de inferencia. Pipelines para NLP, visión, etc. Integración con PyTorch/TF. | Gratis (repos públicos). Planes pagos para endpoints dedicados (~0.03 $/h). | Alta: web intuitiva, ejemplos. Baja curva para descargar/inferir modelos. Se requiere algo de Python para entrenar/ajustar. |
| LangChain | Framework para encadenar LLM con datos externos. Construye flujos de QA, agents, retrieval. | 100% open-source (grátis). Dependencia: usa LLM (API de pago externa si se desea). | Media: requiere conocimientos de programación Python. Útil para proyectos avanzados de IA. |
| Google Colab | Notebook Jupyter en nube. Integración Drive, colaboración en tiempo real. Entornos preconfigurados con IA (Python, TF, PyTorch). GPU/TPU gratuitas. | Gratis (nivel básico). Plan Colab Pro ~$10/mes para más recursos. | Muy alta: basta cuenta Google. Interfaz intuitiva para estudiantes. No requiere instalación. |
| Kaggle Notebooks | Similar a Colab; notebooks en nube con dataset integrado (Kaggle Datasets). GPUs gratuitas (Tesla P100) durante tiempo limitado. Enfoque datos + ML. | Gratis (alto cómputo). Competencias y dataset store sin costo. | Alta: integrado en sitio Kaggle. Aprendizaje de ML con ejemplos reales. |
| AWS SageMaker | Plataforma ML profesional. Notebooks, entrenamiento distribuido, endpoints de inferencia escalables. Integración AWS (S3, Lambda, etc.). | Pago por uso: instancias GPU (p.ej. p3.2xlarge ~$3/h), almacenamiento. Tarifa variable. | Baja: complejo, requiere gestión de AWS. Para cursos avanzados o instituciones con soporte cloud. |
| Azure ML Studio | Servicio ML en Azure. Studio web con designer, notebooks, pipelines MLOps. Modelos pre-entrenados de Azure disponibles. | Pago por uso similar a AWS. Créditos gratuitos limitados. | Media-baja: entorno GUI amigable, pero concepto MLOps avanzado. Adecuado para proyectos organizacionales. |
| Ollama | CLI/API para correr LLM locales. Soporta descarga automática de modelos open-source (gemma, qwen, etc.). | Gratis (local). | Alta: solo descarga e instalación. Interfaz por CLI simple. Ideal para demos offline. |
| LM Studio | App de escritorio (Windows/Mac/Linux). Interfaz tipo IDE para LLMs locales (gpt-oss, Qwen3, etc.). Compatible con notebooks. | Gratis (uso personal/educativo). | Muy alta: GUI intuitiva. Fácil de instalar. No requiere nube, por lo que es apropiado para aulas sin internet. |
| vLLM | Biblioteca para inferencia LLM optimizada. Se integra con Transformers, soporta batching, cuantización y GPUs/CPUs múltiples. | Gratis (open-source). | Media: orientada a desarrolladores. Útil para crear servidores de inferencia en clase de IA. |
Hardware (tipo, rendimiento relativo, coste/ejecución, accesibilidad educativa):
| Acelerador / Hardware | Descripción / Uso | Rendimiento relativo | Coste / Ejecución | Accesibilidad educativa |
|---|---|---|---|---|
| GPU – NVIDIA (p.ej. H100/A100) | Procesador paralelo general; esencial para DL. Diseño genérico (CPU+Tensor Cores). | Muy alto para IA: H100 ~3.5 PFLOPS FP16, A100 ~1.5 PFLOPS. | $$$$ (e.g. H100 ~$4.5/h en nube). Tarjeta A100 ~$100k, H100 ~$30k. | Alto: GPUs de juego (RTX 30xx/40xx) ~mil€/unidad. Accesibles en PCs, laboratorios. Colab/Kaggle ofrecen GPUs gratis. |
| TPU (Google Cloud) | ASIC dedicado a tensores. Excelentes para inferencia TensorFlow, disponible en nube (v5, v6). Integrado solo con GCP. | v6e ~2 PFLOPS (FP16) por chip. | $$ (Google Cloud: ~$2.70/h por v6e). | Limitado: no instalable en local. Colab ofrece uso limitado gratis. Google Cloud ofrece becas académicas. |
| NPU (Neural Processing Unit) | Aceleradores IA en móviles/SoC (Apple M-series, Huawei Kirin, etc.). Muy eficientes en consumo. | Ejemplo: Apple ANE v5 (A15): 15.8 TFLOPS (FP16). Rendimiento multi-TOPS con muy bajo consumo. | NPU ya incluido en costo del dispositivo. P.ej. iPhone/iPad/Mac (~$700+). | Muy alto: cualquier smartphone reciente tiene NPU (Apple/A14+, Android con NPUs). Kits como Google Coral (~$75) permiten demos de edge AI. |
| FPGA | Chips reprogramables (Xilinx, Intel). Se puede diseñar hardware para IA, pero es complejo. | Depende del diseño. Normalmente menor paralelismo en FP que GPU, pero baja latencia. | Alto: Board FPGA industrial ~$300–$1000. | Bajo: Requiere hardware especial y conocimientos de HDL. Poco común en clases básicas de IA. |
| ASIC IA | Chips fijos diseñados para IA (ej. Edge TPU de Google, IPU de Graphcore). Son muy eficientes para modelos concretos. | Google Edge TPU USB ~4 TOPS. Otros ASIC (TPUv5, Habana) llegan a PFLOPS. | Moderado: Edge TPU dev ~$75. ASIC de centro de datos inaccesibles (~decenas de miles USD). | Medio: Edge TPUs y kits (Raspberry+Coral) permiten prácticas IA local. ASIC de centro no. |
| Neuromórfico | Chip experimental emulando neuronas (Intel Loihi, IBM TrueNorth). Potente en eficiencia energética (OPS/W). | Muy bajo consumo (por ejemplo, Loihi 2: miles de millones de spike-s OPS con décimas de vatio). | Experimental, no comercial. | Prácticamente ninguno: solo laboratorios de investigación con acceso restringido. |
No comments to display
No comments to display