Meta sfida OpenAI: arriva Llama4, i dettagli
News - 07/04/2025
di Walter Giannò
Meta Platforms ha alzato il sipario sulla sua ultima innovazione: i modelli di intelligenza artificiale Llama 4 Scout e Llama 4 Maverick, rilasciati sabato scorso, 5 aprile 2025.
Questi sistemi, definiti dall’azienda “i più avanzati mai realizzati”, rappresentano un passo significativo nel campo dell’IA multimodale, capace di elaborare e integrare testi, immagini, video e audio in modo fluido. Con questa mossa, Meta si posiziona in diretta competizione con giganti come OpenAI e Google, mentre annuncia anche un’anteprima di Llama 4 Behemoth, un colosso ancora in fase di sviluppo che promette di ridefinire gli standard dell’IA globale.
Llama 4: due modelli per ogni esigenza
Il cuore dell’annuncio è la doppia release di Llama 4 Scout e Llama 4 Maverick, entrambi disponibili come software open-source su piattaforme come Meta e Hugging Face. Scout è un modello compatto, progettato per operare su una singola GPU Nvidia H100, con una finestra di contesto di 10 milioni di token – una memoria operativa che lo rende competitivo con Google Gemma 3, Gemini 2.0 Flash-Lite e Mistral 3.1. Meta afferma che Scout supera questi rivali “in un’ampia gamma di benchmark riconosciuti”, mantenendo un’efficienza straordinaria.
Maverick, invece, è il fratello maggiore, paragonabile a GPT-4o di OpenAI e Gemini 2.0 Flash di Google. Con prestazioni che si avvicinano a quelle di DeepSeek-V3 in compiti di codifica e ragionamento, utilizza “meno della metà dei parametri attivi” rispetto ai concorrenti, grazie a un’architettura innovativa chiamata Mixture of Experts (MoE). Questo approccio consente al modello di attivare solo le parti necessarie per un compito specifico, ottimizzando le risorse senza sacrificare la potenza.
Behemoth: il gigante in arrivo
Se Scout e Maverick sono già realtà, Llama 4 Behemoth è la promessa di un futuro ancora più ambizioso. Con 288 miliardi di parametri attivi su un totale di 2 trilioni, Meta lo descrive come “uno dei modelli di linguaggio più intelligenti al mondo e il nostro più potente finora”. Ancora in fase di addestramento, Behemoth supera concorrenti come GPT-4.5 e Claude Sonnet 3.7 in diversi benchmark STEM, secondo l’azienda. Mark Zuckerberg, CEO di Meta, lo ha definito “il modello base con le migliori prestazioni al mondo”, destinato a fungere da “insegnante” per i futuri sistemi AI dell’azienda. Il suo debutto è atteso nei prossimi mesi, con dettagli che saranno svelati alla conferenza LlamaCon del 29 aprile.
Un investimento miliardario nell’IA
Il lancio di Llama 4 arriva in un momento di febbrile attività nel settore tecnologico, spinto dal successo di ChatGPT di OpenAI. Meta prevede di investire fino a 65 miliardi di dollari nel 2025 per potenziare la sua infrastruttura AI, rispondendo alla pressione degli investitori che chiedono ritorni concreti. Tuttavia, il percorso non è stato privo di ostacoli. Secondo The Information, il rilascio di Llama 4 è stato ritardato perché i modelli non soddisfacevano le aspettative interne su benchmark tecnici, in particolare in ragionamento e matematica. Inoltre, l’azienda temeva che Llama 4 fosse meno competitivo rispetto ai sistemi di OpenAI nelle conversazioni vocali umanoidi, un aspetto cruciale per il futuro dell’IA.
Multimodalità al centro della strategia
Ciò che distingue Llama 4 è la sua natura multimodale. Questi modelli non si limitano al testo: possono analizzare immagini, trascrivere audio, generare video e convertire contenuti tra diversi formati. Ora integrati nell’assistente Meta AI – disponibile su WhatsApp, Messenger, Instagram e sul web – Scout e Maverick potenziano esperienze utente come la traduzione in tempo reale o la creazione di contenuti multimediali. “Sono i migliori nella loro classe per multimodalità”, ha dichiarato Meta in un comunicato, sottolineando come questa versatilità sia il fulcro della sua visione per il futuro.
Questo contenuto è stato scritto da un utente della Community. Il responsabile della pubblicazione è esclusivamente il suo autore.