Meta lanza Llama 4: ¿Para qué sirve y cómo funciona su nuevo modelo de IA?

Prepárate porque todo indica que la inteligencia artificial estará cada vez más presente en nuestras vidas.

Llama 4 abre la puerta a herramientas más accesibles, poderosas y personalizadas para todos.
Llama 4 abre la puerta a herramientas más accesibles, poderosas y personalizadas para todos.Créditos: Wikimedia Commons / IA de Photoshop
Escrito en TENDENCIAS el

El fin de semana pasado el gigante tecnológico Meta sorprendió con el anuncio de su más reciente avance en inteligencia artificial: Meta lanza Llama 4, su nueva generación de modelos lingüísticos multimodales.

Según la empresa, son los más potentes y versátiles que han desarrollado hasta ahora. Pero, ¿qué significa esto para nosotros y por qué tanto revuelo? Acá te lo platicamos.

Reuters

¿Qué es Llama 4 de Meta?

Primero, hablemos en sencillo: cuando decimos que Meta lanza Llama 4, nos referimos al estreno de dos modelos específicos —Llama 4 Maverick y Llama 4 Scout— diseñados para entender e interpretar no solo texto, sino también imágenes, audio y video al mismo tiempo. Es decir, no solo conversan como ChatGPT, sino que también pueden ver y escuchar para darte respuestas mucho más completas.

Estos nuevos modelos son parte de un ambicioso plan de Meta por liderar la carrera de la IA, en respuesta directa al boom que desató ChatGPT. De hecho, los Llama 4 vienen acompañados por un “maestro” aún más impresionante llamado Llama 4 Behemoth, un modelo gigantesco (con 288 mil millones de parámetros activos) que aún está en fase de entrenamiento, pero que ya supera en pruebas especializadas a modelos como GPT-4.5 y Gemini 2.0 Pro.

Ahora bien, ¿para qué sirve esto en el día a día? Imagina una herramienta de IA que te ayuda a redactar textos, analizar documentos, describir imágenes, generar contenido audiovisual e incluso mantener una conversación más fluida que nunca. 

Eso es lo que buscan lograr con esta nueva colección de modelos. Y lo mejor: Llama 4 Maverick y Scout son de código abierto, lo que significa que cualquiera —desde un desarrollador hasta una empresa— podrá usarlos para crear nuevas experiencias, sin pagar licencias cerradas.

Además, ya puedes interactuar con estos modelos directamente en productos de Meta como WhatsApp, Messenger e Instagram, a través de su asistente Meta AI.

Aunque el desarrollo no ha estado exento de desafíos (se dice que el lanzamiento se retrasó por no alcanzar ciertos estándares técnicos), Meta está apostando fuerte por este camino, con planes de invertir hasta 65 mil millones de dólares en infraestructura de IA solo este año.

Reuters

Sin duda, el anuncio de que Meta lanza Llama 4 marca un punto clave en la evolución de los asistentes inteligentes, abriendo la puerta a herramientas más accesibles, poderosas y personalizadas para todos.

Con información de Reuters.