Meta lanza Llama 3.2, su primer modelo de lenguaje multimodal de código abierto

Meta ha presentado su primer modelo de lenguaje multimodal Llama 3.2, compuesto por los modelos de pequeño y mediano tamaño 11B y 90B, capaces de procesar tanto imágenes como texto, y por los modelos livianos de solo texto 1B y 3B. 

En el marco de su evento Meta Connect 2024, la tecnológica ha dado a conocer sus últimas novedades, incluido su nuevo modelo de lenguaje, que llega dos meses después de la presentación de Llama 3.1, y que introduce la capacidad de procesar imágenes por primera vez en la compañía. 

Así, el nuevo modelo Llama 3.2 se compone de dos modelos multimodales pequeño y mediano, con 11.000 millones de parámetros (11B) y 90.000 millones de parámetros (90B) respectivamente. En este sentido, los casos de uso de estos nuevos modelos admiten razonamiento de imágenes, como puede ser la comprensión de gráficos y diagramas o subtítulos de imágenes. Asimismo, también procesan la localización direccional de objetos en imágenes.

 Es decir, este modelo permite llevar a cabo acciones como extraer detalles de una fotografía, comprender la escena y, tras ello, crear oraciones que podrían utilizarse como título de la imagen o inicio para contar una historia. 

Igualmente, Llama 3.2 se completa con dos modelos de menor tamaño, 1B y 3B, que procesan texto exclusivamente y están ideados para funcionar en dispositivos, como un smartphone. Estos modelos están optimizados para procesadores ARM y pueden resolver múltiples tareas con una latencia mínima, asimismo, admiten una longitud de contexto de 128.000 tokens. 

En concreto, estos modelos permiten a los desarrolladores crear aplicaciones personalizadas en el dispositivo, asegurando los datos se mantienen privados dentro del 'smartphone' o producto en cuestión. Por ejemplo, Meta ha señalado que pueden utilizarse para llevar a cabo resúmenes de los diez últimos mensajes recibidos en una 'app' de mensajería instantánea. Igualmente, pueden aplicarse para enviar de forma automática invitaciones de calendario para organizar reuniones. 

Sin embargo, la tecnológica ha señalado que estos modelos destacan, sobre todo, por su capacidad de ejecutarse localmente. Por un lado, esta función permite que las indicaciones o respuestas del modelos sean instantáneas, ya que se procesan localmente. Por otra parte, garantiza una privacidad total, al no enviar datos como mensajes o información del calendario a la nube. 

COMPETITIVOS CON CLAUDE 3 HAIKU GPT4O-MINI 

Según la evaluación de estos modelos ofrecida por Meta, los modelos 3.2 11B y 90B son competitivos con los modelos básicos líderes, Claude 3 Haiku y GPT4o-mini en el reconocimiento de imágenes y una variedad de tareas de comprensión visual. 

Por su parte, el modelo 3B supera a los modelos Gemma 2 2.6B y Phi 3.5-mini a la hora de ejecutar tareas como seguir instrucciones, resumir, reescribir indicaciones y usar herramientas. Igualmente, el modelo 1B es en este ámbito con Gemma. 

Para llegar a estas conclusiones, Meta evaluó el rendimiento de los modelos en más de 150 conjuntos de datos de referencia que, abarcando una amplia variedad de idiomas. 

Con todo ello, la compañía ha señalado que el modelo de lenguaje grande Llama 3.2 de código abierto ya está disponible para todos los desarrolladores, de cara a que empiecen a probar y experimentar sus posibilidades. Asimismo, todas estas capacidades se han incluido en su asistente de IA, Meta AI.

El Puerto de Barcelona acoge el primer encuentro de IA organizado por Anthropic y World Trade Center

El Puerto de Barcelona acogerá el próximo miércoles, 4 de marzo, el primer encuentro internacional de Claude Community, conjunto de profesionales que, de la mano de Anthropic, están expandiendo Claude, un modelo de inteligencia artificial (IA) desarrollado pensando en usos éticos y beneficiosos para la sociedad. Fundada en 2021 por exmiembros de OpenAI, Anthropic es la creadora de la familia de modelos de IA Claude, reconocida internacionalmente por su potencia, fiabilidad y énfasis en la seguridad y la interpretabilidad.

Huawei presenta en el MWC 2026 sus últimas soluciones de red centradas en IA para impulsar la inteligencia integral

Huawei ha anunciado en el MWC Barcelona 2026 una nueva generación de productos U6 GHz para diferentes escenarios, diseñados para ayudar a los operadores a aprovechar al máximo el potencial del 5G-A y facilitar una transición progresiva hacia el 6G. El lema de la compañía “Advancing All Intelligence”, refleja su apuesta por desarrollar redes y plataformas de computación diseñadas desde el origen para la inteligencia artificial, permitiendo a operadores y clientes empresariales aprovechar las oportunidades de esta nueva era.

Tap anuncia la apertura de nuevas rutas y el lanzamiento de nuevos servicios

TAP Air Portugal ha anunciado durante la feria BTL el lanzamiento de una nueva ruta directa entre Lisboa y Orlando, que comenzará el 29 de octubre de 2026. En esta misma feria de turismo, que se lleva a cabo en la capital lusa, el CEO de la aerolínea Luís Rodrigues ha presentado un amplio conjunto de iniciativas estratégicas para el próximo año, que refuerzan la expansión internacional de la aerolínea, su creciente enfoque estratégico en Oporto y en la identidad portuguesa, así como su compromiso continuo con la mejora de la experiencia del cliente. Asimismo, este año TAP celebrará 60 años volando a Brasil, un hito histórico en su trayectoria.