Skip to main content

Tablas comparativas

Tablas comparativas

Plataformas y herramientas (funcionalidades, costo aproximado, facilidad de uso):

Plataforma/Herramienta Funcionalidades principales Coste aproximado Facilidad de uso (docentes)
Hugging Face Repositorio de modelos preentrenados, demos (Spaces), APIs de inferencia. Pipelines para NLP, visión, etc. Integración con PyTorch/TF. Gratis (repos públicos). Planes pagos para endpoints dedicados (~0.03 $/h). Alta: web intuitiva, ejemplos. Baja curva para descargar/inferir modelos. Se requiere algo de Python para entrenar/ajustar.
LangChain Framework para encadenar LLM con datos externos. Construye flujos de QA, agents, retrieval. 100% open-source (grátis). Dependencia: usa LLM (API de pago externa si se desea). Media: requiere conocimientos de programación Python. Útil para proyectos avanzados de IA.
Google Colab Notebook Jupyter en nube. Integración Drive, colaboración en tiempo real. Entornos preconfigurados con IA (Python, TF, PyTorch). GPU/TPU gratuitas. Gratis (nivel básico). Plan Colab Pro ~$10/mes para más recursos. Muy alta: basta cuenta Google. Interfaz intuitiva para estudiantes. No requiere instalación.
Kaggle Notebooks Similar a Colab; notebooks en nube con dataset integrado (Kaggle Datasets). GPUs gratuitas (Tesla P100) durante tiempo limitado. Enfoque datos + ML. Gratis (alto cómputo). Competencias y dataset store sin costo. Alta: integrado en sitio Kaggle. Aprendizaje de ML con ejemplos reales.
AWS SageMaker Plataforma ML profesional. Notebooks, entrenamiento distribuido, endpoints de inferencia escalables. Integración AWS (S3, Lambda, etc.). Pago por uso: instancias GPU (p.ej. p3.2xlarge ~$3/h), almacenamiento. Tarifa variable. Baja: complejo, requiere gestión de AWS. Para cursos avanzados o instituciones con soporte cloud.
Azure ML Studio Servicio ML en Azure. Studio web con designer, notebooks, pipelines MLOps. Modelos pre-entrenados de Azure disponibles. Pago por uso similar a AWS. Créditos gratuitos limitados. Media-baja: entorno GUI amigable, pero concepto MLOps avanzado. Adecuado para proyectos organizacionales.
Ollama CLI/API para correr LLM locales. Soporta descarga automática de modelos open-source (gemma, qwen, etc.). Gratis (local). Alta: solo descarga e instalación. Interfaz por CLI simple. Ideal para demos offline.
LM Studio App de escritorio (Windows/Mac/Linux). Interfaz tipo IDE para LLMs locales (gpt-oss, Qwen3, etc.). Compatible con notebooks. Gratis (uso personal/educativo). Muy alta: GUI intuitiva. Fácil de instalar. No requiere nube, por lo que es apropiado para aulas sin internet.
vLLM Biblioteca para inferencia LLM optimizada. Se integra con Transformers, soporta batching, cuantización y GPUs/CPUs múltiples. Gratis (open-source). Media: orientada a desarrolladores. Útil para crear servidores de inferencia en clase de IA.

Hardware (tipo, rendimiento relativo, coste/ejecución, accesibilidad educativa):

Acelerador / Hardware Descripción / Uso Rendimiento relativo Coste / Ejecución Accesibilidad educativa
GPU – NVIDIA (p.ej. H100/A100) Procesador paralelo general; esencial para DL. Diseño genérico (CPU+Tensor Cores). Muy alto para IA: H100 ~3.5 PFLOPS FP16, A100 ~1.5 PFLOPS. $$$$ (e.g. H100 ~$4.5/h en nube). Tarjeta A100 ~$100k, H100 ~$30k. Alto: GPUs de juego (RTX 30xx/40xx) ~mil€/unidad. Accesibles en PCs, laboratorios. Colab/Kaggle ofrecen GPUs gratis.
TPU (Google Cloud) ASIC dedicado a tensores. Excelentes para inferencia TensorFlow, disponible en nube (v5, v6). Integrado solo con GCP. v6e ~2 PFLOPS (FP16) por chip. $$ (Google Cloud: ~$2.70/h por v6e). Limitado: no instalable en local. Colab ofrece uso limitado gratis. Google Cloud ofrece becas académicas.
NPU (Neural Processing Unit) Aceleradores IA en móviles/SoC (Apple M-series, Huawei Kirin, etc.). Muy eficientes en consumo. Ejemplo: Apple ANE v5 (A15): 15.8 TFLOPS (FP16). Rendimiento multi-TOPS con muy bajo consumo. NPU ya incluido en costo del dispositivo. P.ej. iPhone/iPad/Mac (~$700+). Muy alto: cualquier smartphone reciente tiene NPU (Apple/A14+, Android con NPUs). Kits como Google Coral (~$75) permiten demos de edge AI.
FPGA Chips reprogramables (Xilinx, Intel). Se puede diseñar hardware para IA, pero es complejo. Depende del diseño. Normalmente menor paralelismo en FP que GPU, pero baja latencia. Alto: Board FPGA industrial ~$300–$1000. Bajo: Requiere hardware especial y conocimientos de HDL. Poco común en clases básicas de IA.
ASIC IA Chips fijos diseñados para IA (ej. Edge TPU de Google, IPU de Graphcore). Son muy eficientes para modelos concretos. Google Edge TPU USB ~4 TOPS. Otros ASIC (TPUv5, Habana) llegan a PFLOPS. Moderado: Edge TPU dev ~$75. ASIC de centro de datos inaccesibles (~decenas de miles USD). Medio: Edge TPUs y kits (Raspberry+Coral) permiten prácticas IA local. ASIC de centro no.
Neuromórfico Chip experimental emulando neuronas (Intel Loihi, IBM TrueNorth). Potente en eficiencia energética (OPS/W). Muy bajo consumo (por ejemplo, Loihi 2: miles de millones de spike-s OPS con décimas de vatio). Experimental, no comercial. Prácticamente ninguno: solo laboratorios de investigación con acceso restringido.