Meta lanza Llama 3.2, su primer modelo de lenguaje multimodal de código abierto

Meta ha presentado su primer modelo de lenguaje multimodal Llama 3.2, compuesto por los modelos de pequeño y mediano tamaño 11B y 90B, capaces de procesar tanto imágenes como texto, y por los modelos livianos de solo texto 1B y 3B. 

En el marco de su evento Meta Connect 2024, la tecnológica ha dado a conocer sus últimas novedades, incluido su nuevo modelo de lenguaje, que llega dos meses después de la presentación de Llama 3.1, y que introduce la capacidad de procesar imágenes por primera vez en la compañía. 

Así, el nuevo modelo Llama 3.2 se compone de dos modelos multimodales pequeño y mediano, con 11.000 millones de parámetros (11B) y 90.000 millones de parámetros (90B) respectivamente. En este sentido, los casos de uso de estos nuevos modelos admiten razonamiento de imágenes, como puede ser la comprensión de gráficos y diagramas o subtítulos de imágenes. Asimismo, también procesan la localización direccional de objetos en imágenes.

 Es decir, este modelo permite llevar a cabo acciones como extraer detalles de una fotografía, comprender la escena y, tras ello, crear oraciones que podrían utilizarse como título de la imagen o inicio para contar una historia. 

Igualmente, Llama 3.2 se completa con dos modelos de menor tamaño, 1B y 3B, que procesan texto exclusivamente y están ideados para funcionar en dispositivos, como un smartphone. Estos modelos están optimizados para procesadores ARM y pueden resolver múltiples tareas con una latencia mínima, asimismo, admiten una longitud de contexto de 128.000 tokens. 

En concreto, estos modelos permiten a los desarrolladores crear aplicaciones personalizadas en el dispositivo, asegurando los datos se mantienen privados dentro del 'smartphone' o producto en cuestión. Por ejemplo, Meta ha señalado que pueden utilizarse para llevar a cabo resúmenes de los diez últimos mensajes recibidos en una 'app' de mensajería instantánea. Igualmente, pueden aplicarse para enviar de forma automática invitaciones de calendario para organizar reuniones. 

Sin embargo, la tecnológica ha señalado que estos modelos destacan, sobre todo, por su capacidad de ejecutarse localmente. Por un lado, esta función permite que las indicaciones o respuestas del modelos sean instantáneas, ya que se procesan localmente. Por otra parte, garantiza una privacidad total, al no enviar datos como mensajes o información del calendario a la nube. 

COMPETITIVOS CON CLAUDE 3 HAIKU GPT4O-MINI 

Según la evaluación de estos modelos ofrecida por Meta, los modelos 3.2 11B y 90B son competitivos con los modelos básicos líderes, Claude 3 Haiku y GPT4o-mini en el reconocimiento de imágenes y una variedad de tareas de comprensión visual. 

Por su parte, el modelo 3B supera a los modelos Gemma 2 2.6B y Phi 3.5-mini a la hora de ejecutar tareas como seguir instrucciones, resumir, reescribir indicaciones y usar herramientas. Igualmente, el modelo 1B es en este ámbito con Gemma. 

Para llegar a estas conclusiones, Meta evaluó el rendimiento de los modelos en más de 150 conjuntos de datos de referencia que, abarcando una amplia variedad de idiomas. 

Con todo ello, la compañía ha señalado que el modelo de lenguaje grande Llama 3.2 de código abierto ya está disponible para todos los desarrolladores, de cara a que empiecen a probar y experimentar sus posibilidades. Asimismo, todas estas capacidades se han incluido en su asistente de IA, Meta AI.

Tu opinión enriquece este artículo:

Los retos que España debe de superar para convertirse en un país BIM, a debate en REBUILD 2026

La metodología BIM se ha consolidado como una de las tecnologías que más está contribuyendo a la transformación modular y digital de la construcción en los últimos años. La solución, que fomenta la colaboración entre actores de toda la cadena de valor, está permitiendo reducir los costes de edificación en hasta un 20%, de acuerdo con estudios de mercado, implementándose ya en grandes proyectos referentes como en la rehabilitación del estadio Bernabéu o en la construcción de la Sagrada Familia. 

El Museo de los Sentidos invierte 2,5 millones en su desembarco en Madrid y prevé facturar 2 millones en su primer año

Tras el éxito cosechado en capitales europeas como Liubliana, Bucarest, Praga y Milán, el próximo viernes 13 de marzo abrirá sus puertas en Madrid el Museo de los Sentidos, un espacio inmersivo dedicado a explorar los cinco sentidos que suma así su quinta sede permanente en Europa. El proyecto, que ya ha atraído a miles de visitantes en otros países, refuerza con esta apertura su expansión internacional.

Inditex logra un beneficio récord de 6.220 millones en 2025, un 6% más, con ventas de 39.864 millones (+3,2%)

Inditex registró un beneficio neto récord de 6.220 millones de euros en su ejercicio fiscal 2025-2026 (desde el 1 de febrero de 2025 al 31 de enero de 2026), el cuarto de Marta Ortega al frente de la presidencia, lo que supone un incremento del 6% respecto al año anterior, según ha informado la compañía, que elevará el dividendo un 4,1%, hasta 1,75 euros por acción.

¿Nace otra Fórmula 1? IA, datos en vivo, autos nuevos y el fan en el centro

Australia dio inicio a la temporada 2026 de la competencia más importante del automovilismo mundial, que se renueva y redefine sus estándares históricos. Modificaciones en el reglamento, aerodinámica activa, IA en todas las áreas, potencia híbrida 50/50, datos en tiempo real y entretenimiento digital son parte de la nueva experiencia dentro y fuera de la pista.

Amazon Business se une a la Fiesta de Ofertas de Primavera para ayudar a las empresas a ahorrar en sus compras

La Fiesta de Ofertas de Primavera sigue ofreciendo descuentos épicos a los clientes de Amazon hasta el próximo 16 de marzo de 2026 a las 23:59. Durante estos días, los clientes empresariales de Amazon Business pueden visitar https://www.amazon.es/events/springdealdays y descubrir cientos de miles de ofertas en todas las categorías, incluidas electrónica y tecnología, material de oficina, productos de mantenimiento o para la sala de descanso, y mucho más. 

Éste sitio web usa cookies, si permanece aquí acepta su uso. Puede leer más sobre el uso de cookies en nuestra política de cookies.