Al igual que todas las grandes empresas tecnológicas actuales, Meta cuenta con su modelo de IA generativa emblemático, denominado Llama. Lo que distingue a Llama entre los principales modelos es su carácter “abierto”, lo que significa que los desarrolladores pueden descargarlo y utilizarlo según sus necesidades (dentro de ciertos límites). Esto contrasta con modelos como Claude de Anthropic, Gemini de Google, Grok de xAI y la mayoría de los modelos ChatGPT de OpenAI, a los que solo se accede mediante API.
No obstante, para ofrecer a los desarrolladores mayor flexibilidad, Meta también se ha asociado con proveedores, incluyendo AWS, Google Cloud y Microsoft Azure, para que las versiones de Llama alojadas en la nube estén disponibles. Además, la empresa publica herramientas, bibliotecas y recetas en su ‘Cocina de Llama’ para ayudar a los desarrolladores a ajustar, evaluar y adaptar los modelos a su dominio específico. En generaciones más recientes como Llama 3 y Llama 4, estas capacidades se han ampliado para incluir soporte multimodal nativo y opciones de despliegue en la nube más extensas.
A continuación, se presenta todo lo que necesita saber sobre Llama de Meta, desde sus capacidades y versiones hasta los lugares donde puede utilizarlo. Mantendremos esta publicación actualizada conforme Meta comunique novedades e introduzca nuevas herramientas de expansión para facilitar el uso del modelo.
¿Qué es Llama?
Llama es una familia de modelos, no un único modelo. La última versión es Llama 4; fue lanzada en abril de 2025 e incluye tres modelos:
- Scout: 17 mil millones de parámetros activos, 109 mil millones de parámetros totales y una ventana de contexto de 10 millones de tokens.
- Maverick: 17 mil millones de parámetros activos, 400 mil millones de parámetros totales y una ventana de contexto de 1 millón de tokens.
- Behemoth: Aún no se ha lanzado, pero contará con 288 mil millones de parámetros activos y 2 billones de parámetros totales.
(En ciencia de datos, los tokens son fragmentos subdivididos de datos brutos, como las sílabas “ven”, “ti” y “lador” en la palabra “ventilador”).
El contexto de un modelo, o ventana de contexto, se refiere a los datos de entrada (por ejemplo, texto) que el modelo considera antes de generar la salida (como texto adicional). Un contexto prolongado puede evitar que los modelos “olviden” el contenido de documentos y datos recientes, desviándose del tema o incurriendo en errores. Sin embargo, ventanas de contexto más extensas también pueden provocar que el modelo “olvide” ciertas salvaguardas y sea más propenso a producir contenido alineado con la conversación, lo que ha llevado a algunos usuarios hacia pensamientos delirantes.
Como referencia, la ventana de contexto de 10 millones de tokens que promete Llama 4 Scout equivale aproximadamente al texto de unas 80 novelas promedio. La ventana de contexto de 1 millón de tokens de Llama 4 Maverick equivale a ocho novelas.
Evento de TechCrunch
San Francisco
|
27-29 de octubre de 2025
Todos los modelos de Llama 4 fueron entrenados con “grandes volúmenes de datos no etiquetados, datos de imagen y video” para dotarlos de una “amplia comprensión visual”, así como en 200 idiomas, según Meta.
Llama 4 Scout y Maverick son los primeros modelos multimodales de peso abierto de Meta. Se construyen utilizando una arquitectura de “mezcla de expertos” (MoE), que reduce la carga computacional y mejora la eficiencia en el entrenamiento y la inferencia. Scout, por ejemplo, cuenta con 16 expertos, y Maverick con 128 expertos.
Llama 4 Behemoth incluye 16 expertos, y Meta se refiere a él como un modelo profesor para los modelos más pequeños.
Llama 4 se basa en la Serie 3 de Llama, que incluyó los ampliamente utilizados modelos 3.1 y 3.2 para aplicaciones ajustadas a instrucciones e implementación en la nube.
¿Qué puede hacer Llama?
Al igual que otros modelos de IA generativa, Llama puede realizar una variedad de tareas de asistencia, como programar y resolver preguntas matemáticas básicas, así como resumir documentos en al menos 12 idiomas (árabe, inglés, alemán, francés, hindi, indonesio, italiano, portugués, español, tagalo, tailandés y vietnamita). La mayoría de las cargas de trabajo basadas en texto, como el análisis de archivos grandes (PDF y hojas de cálculo), están dentro de su alcance, y todos los modelos de Llama 4 admiten entrada de texto, imagen y video.
Llama 4 Scout está diseñado para flujos de trabajo más extensos y análisis de datos masivos. Maverick es un modelo generalista que equilibra mejor la potencia de razonamiento y la velocidad de respuesta, siendo adecuado para programación, chatbots y asistentes técnicos. Y Behemoth está diseñado para investigación avanzada, destilación de modelos y tareas STEM.
Los modelos de Llama, incluida la versión 3.1, pueden configurarse para utilizar aplicaciones, herramientas y API de terceros para realizar tareas. Están entrenados para emplear búsqueda en línea para responder preguntas sobre eventos recientes; la API de Wolfram Alpha para consultas relacionadas con matemáticas y ciencias; y un intérprete de Python para validar código. Sin embargo, estas herramientas requieren una configuración adecuada y no están habilitadas automáticamente.
¿Dónde puedo usar Llama?
Si buscas simplemente chatear con Llama, está impulsando la experiencia del chatbot Meta AI en Facebook Messenger, WhatsApp, Instagram, Oculus y Meta.ai en 40 países. Las versiones ajustadas de Llama se utilizan en experiencias de Meta AI en más de 200 países y territorios.
Los modelos Llama 4 Scout y Maverick están disponibles en Llama.com y through los socios de Meta, incluida la plataforma de desarrolladores de IA, Hugging Face. Behemoth todavía está en entrenamiento. Los desarrolladores que construyen con Llama pueden descargar, usar o ajustar el modelo en la mayoría de las plataformas de nube populares. Meta afirma tener más de 25 socios que alojan Llama, incluidos Nvidia, Databricks, Groq, Dell y Snowflake. Y aunque ofrecer acceso a los modelos abiertos de Meta no es su principal modelo de negocio, la compañía obtiene algunos ingresos a través de acuerdos de distribución de ingresos con los anfitriones del modelo.
Algunos de estos socios han creado herramientas y servicios adicionales beyond Llama, incluidas herramientas que permiten a los modelos acceder a datos propietarios y funcionar con latencias más bajas.
Es importante destacar que la licencia de Llama restringe cómo los desarrolladores pueden implementar el modelo: las aplicaciones con más de 700 millones de usuarios mensuales deben solicitar una licencia separada de Meta, que la compañía otorgará a su discreción.
En mayo de 2025, Meta lanzó un nuevo programa para incentivar a las startups a adoptar sus modelos de Llama. ‘Llama para Startups’ brinda apoyo a las empresas del equipo de Llama de Meta y acceso a posibles fondos.
En relación con Llama, Meta proporciona herramientas destinadas a hacer que el modelo sea “más seguro” de usar:
- Llama Guard: un modelo de moderación.
- CyberSecEval: una suite de evaluación de riesgos de ciberseguridad.
- Llama Firewall: una barrera de seguridad diseñada para permitir la construcción de sistemas de IA seguros.
- Code Shield: que proporciona soporte para el filtrado en tiempo de inferencia de código inseguro producido por LLMs.
Llama Guard intenta detectar contenido potencialmente problemático, ya sea ingresado o generado por un modelo de Llama, incluido contenido relacionado con actividad delictiva, explotación infantil, violaciones de derechos de autor, odio, autolesión y acoso sexual. Dicho esto, claramente no es una bala de plata, ya que pautas anteriores de Meta permitieron que el chatbot participara en chats sensuales y románticos con menores, y algunos informes muestran que pueden llegar a conversaciones sexuales. Los desarrolladores pueden personalizar las categorías de contenido bloqueado y aplicar los bloques a todos los idiomas admitidos.
Al igual que Llama Guard, la protección de prompts puede analizar el texto destinado a Llama, pero solo el texto destinado a “atacar” al modelo y hacer que se comporte de maneras indeseables. Meta afirma que Llama Guard puede defenderse contra prompts explícitamente maliciosos (es decir, jailbreaks que intentan eludir los filtros de seguridad integrados de Llama) además de prompts que contienen “inyecciones de prompt“. Llama Firewall trabaja para detectar y gestionar riesgos como inyección de prompts, código inseguro e interacciones de herramientas arriesgadas, y Code Shield ayuda a mitigar sugerencias de código inseguro y ofrece una ejecución de comandos segura para siete lenguajes de programación.
En cuanto a CyberSecEval, es menos una herramienta que una colección de puntos de referencia para determinar la seguridad del modelo. CyberSecEval puede evaluar el riesgo de un modelo de Llama (al menos según los criterios de Meta) para desarrolladores de aplicaciones y usuarios finales en áreas como “ingeniería social automatizada” y “promover operaciones cibernéticas ofensivas”.
Limitaciones de Llama
Llama viene con ciertos riesgos y limitaciones, como todos los modelos de IA generativa. Por ejemplo, aunque su modelo más nuevo tiene características multimodales, estas se limitan principalmente al idioma inglés por ahora.
Además, Meta utilizó un conjunto de datos de libros electrónicos pirateados y artículos para entrenar sus modelos de Llama. Un tribunal federal recientemente se puso del lado de Meta en una demanda por derechos de autor presentada por 13 autores, dictaminando que el uso de obras con derechos de autor para el entrenamiento caía bajo “uso justo”. Sin embargo, si Llama regurgita un fragmento con derechos de autor y alguien lo usa en un producto, podrían estar infringiendo los derechos de autor y ser responsables.
Meta también entrena de manera controvertida su IA en publicaciones, fotos y subtítulos de Instagram y Facebook, y dificulta que los usuarios opten por no participar.
La programación es otra área donde es aconsejable proceder con cautela al usar Llama. Esto se debe a que Llama podría, quizás más que sus homólogos generativos de IA, producir código erróneo o inseguro. En LiveCodeBench, un
