
En un nuevo hito dentro de la carrera por liderar la inteligencia artificial, Meta ha anunciado oficialmente el lanzamiento de Llama 4, su cuarta generación de modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés). Este avance no solo representa una evolución tecnológica significativa, sino que también refuerza la apuesta de la compañía por una IA abierta y accesible, en línea con su estrategia de los últimos años.
Tres modelos, un objetivo: llevar la IA multimodal al siguiente nivel
Llama 4 llega al mercado con tres variantes diferenciadas —Scout, Maverick y Behemoth—, cada una diseñada para abordar distintos niveles de complejidad y casos de uso, desde tareas ligeras hasta despliegues de alta demanda en centros de datos.
La gran novedad técnica en esta generación es la adopción de una arquitectura "mixture of experts" (MoE). A diferencia de los modelos tradicionales, donde todos los parámetros participan en cada inferencia, los modelos MoE activan solo un subconjunto de expertos (submodelos entrenados en paralelo) por token. Esto permite escalar el número total de parámetros sin disparar el coste computacional ni la latencia de respuesta.
Por ejemplo:
-
Scout, orientado a tareas multimodales, combina 17.000 millones de parámetros activos con una arquitectura que incluye 16 expertos, sumando un total de 109.000 millones de parámetros. Es capaz de gestionar una impresionante ventana de contexto de 10 millones de tokens, y puede ejecutarse en una sola GPU NVIDIA H100, lo que lo hace excepcionalmente accesible para desarrolladores e investigadores.
-
Maverick, en cambio, apunta a ser un modelo generalista de alto rendimiento, con los mismos 17.000 millones de parámetros activos, pero distribuidos entre 128 expertos, alcanzando un total de 400.000 millones de parámetros. Meta asegura que este modelo supera en capacidad a referentes como GPT-4o de OpenAI y Gemini 2.0 Flash de Google, con una puntuación destacada de 1417 puntos en LMArena.
-
Behemoth, aún en desarrollo, promete ser el titán de la familia con 288.000 millones de parámetros activos, aunque todavía se desconocen sus cifras totales y su disponibilidad.
Despliegue inmediato en entornos reales
Uno de los aspectos más destacables del anuncio es la rápida integración de Scout y Maverick en entornos de desarrollo y producción. Gracias a la colaboración entre Meta, Red Hat y la comunidad de vLLM, ambos modelos están disponibles desde el primer día para su despliegue mediante vLLM sobre OpenShift AI, la plataforma de inteligencia artificial empresarial basada en Kubernetes de Red Hat.
Este enfoque acelera enormemente la adopción por parte de empresas y desarrolladores, permitiendo experimentar con tecnologías de vanguardia sin necesidad de esperar a la actualización del stack oficial. En este sentido, sobresale la versión cuantizada FP8 de Llama 4 Maverick, optimizada para ejecutarse en un solo nodo equipado con 8 GPUs H100. Esto ha sido posible gracias al uso de LLM Compressor, una herramienta de compresión y optimización desarrollada por Red Hat en código abierto, que logra una notable reducción de recursos sin comprometer la calidad de inferencia.
De la investigación a la práctica: integración en productos y servicios
Meta ha comenzado ya a incorporar Llama 4 en varios de sus productos estrella, incluyendo WhatsApp, Messenger e Instagram Direct, donde se espera que impulse nuevas funciones inteligentes, asistentes conversacionales y mejoras de accesibilidad.
Además, la expansión no se limita a los servicios de Meta: Microsoft Azure AI Foundry también ha comenzado a integrar estos modelos en su plataforma, lo que anticipa una rápida adopción en soluciones empresariales, investigación y desarrollo.
No obstante, Meta AI sigue sin estar disponible de forma oficial en el mercado europeo, a excepción de algunas integraciones limitadas, lo que refleja las complejidades regulatorias del entorno europeo respecto al tratamiento de datos y la IA generativa.
¿Realmente es código abierto?
Uno de los puntos más discutidos en torno a Llama 4 no es técnico, sino ideológico: ¿es realmente un modelo de código abierto?
La Open Source Initiative (OSI) ha planteado dudas sobre si el modelo puede considerarse verdaderamente open source, dado que aunque el código y los pesos están disponibles, las licencias de uso siguen imponiendo restricciones que impiden su explotación comercial libre por parte de terceros.
Ante esta controversia, Red Hat ha tomado una postura clara: para ellos, Llama 4 representa un avance trascendental en la IA abierta, y su disponibilidad sin coste para desarrolladores, junto con el soporte a herramientas y entornos abiertos, valida su compromiso con la comunidad.
Una nueva etapa para la IA
Llama 4 no es simplemente una evolución incremental respecto a su antecesor; representa un salto cualitativo hacia una inteligencia artificial más escalable, eficiente y accesible. Con una arquitectura MoE que permite escalar sin comprometer recursos, una integración rápida en entornos reales y una filosofía abierta (aunque no exenta de debate), Meta se posiciona una vez más en el centro del escenario tecnológico.
La verdadera prueba vendrá con el tiempo: si Llama 4 logra consolidarse como alternativa viable y abierta frente a modelos cerrados como GPT o Gemini, podríamos estar ante el inicio de una nueva etapa en la democratización de la inteligencia artificial.
Fuente: Muylinux
Añadir comentario
Comentarios