El desarrollo estrella de la firma de Zuckerberg en inteligencia artificial se ha acelerado tras la irrupción de DeepSeek. Cuentan medios estadounidenses que los ejecutivos de Meta se apresuraron a establecer salas de operaciones para descifrar cómo el desarrollo chino había reducido los costes de de ejecución e implementación de su modelos y a la vez conseguía rendimientos similares a los grandes modelos del sector. Algo similar ha sucedido con OpenAI y el despliegue acelerado del GPT-4.5.
Llama 4 seguirá apostando por un tipo de desarrollo «abierto», lo que significa que los desarrolladores pueden descargarlo y usarlo como quieran (con ciertas limitaciones). Aunque no llega al modelo de código abierto de DeepSeeek, en este apartado va más allá de modelos cerrados como el Claude de Anthropic, el GPT-4o de OpenAI (que impulsa ChatGPT ) o el Gemini de Google, a los que solo se puede acceder a través de una interfaz API.
Además, con el objetivo de ofrecer mayores opciones a los desarrolladores, Meta también se ha asociado con proveedores como AWS, Google Cloud y Microsoft Azure para poner a disposición versiones de Llama alojadas en la nube y cuenta con soporte para una variedad de plataformas de hardware ofrecidas por AMD, Dell, Intel, NVIDIA y Qualcomm. La compañía también ha lanzado herramientas adicionales diseñadas para facilitar el ajuste y la personalización del modelo.
Entrando en materia, Llama 4 será el próximo buque insignia de la familia LLM de Meta y promete avances en todos los apartados. Al igual que otros modelos de IA generativa, puede realizar una variedad de tareas de asistencia diferentes, como codificar y responder preguntas matemáticas básicas, así como resumir documentos varios idiomas. Aunque se puede configurar para aprovechar aplicaciones, herramientas y API de terceros para completar tareas, hasta ahora ha estado centrado en el modo de texto.
Ello va a cambiar con Llama 4 ya que las principales mejoras irán destinadas a capacitarlo para uso de voz. Según el director de productos de Meta, Chris Cox, será un modelo "omnidireccional", capaz de interpretar y generar de forma nativa voz, así como texto y otros tipos de datos. Meta se ha centrado especialmente en permitir a los usuarios interrumpir el modelo a mitad de su discurso, de forma similar al modo de voz de OpenAI para ChatGPT y la experiencia Gemini Live de Google.
Y es que Meta, como otros gigantes de la IA, cree que el futuro de los agentes impulsados por IA será conversacional en lugar de basado en texto, si bien hasta la fecha no se ha conseguido un grado mínimo de la naturalidad y bidireccionalidad de los humanos. Meta quiere que los usuarios puedan interrumpir al modelo de IA y tener un diálogo más fluido, en lugar de un formato rígido de preguntas y respuestas.
Llama 4 se publicará en «las próximas semanas» y será la base para ofrecer inteligencia artificial agente a «cientos de millones» de empresas, como asegura Clara Shih, la directora de inteligencia artificial empresarial de Meta,