Centinaia di milioni di dollari di investimento si stanno finalmente concretizzando: dopo aver rilasciato Meta AI in aprile (non in Italia, ma puoi provarlo comunque seguendo le nostre indicazioni), ieri Meta ha lanciato Llama 3.1, il modello IA open source più grande sul mercato.
Scopriamo quali sono le sue caratteristiche, e perché Zuckerberg è convinto che nei prossimi mesi consentirà a Meta AI di superare ChatGPT per numero di utenti, senza scordarci la nuova funzione Imagine Me di Meta AI.
Cos'è Llama 3.1 e cosa migliora rispetto a Llama 3
Llama 3.1 è un modello di intelligenza artificiale di grandi dimensioni la cui caratteristica principale è di essere open source, a differenza di rivali come GPT-4o di OpenAI o Claude 3.5 Sonnet di Anthropic.
Ma non solo: è il più grande modello IA open source sul mercato, in grado veramente di competere con i modelli sopra nominati.
Allenato su oltre 16.000 GPU H100 di NVIDIA, un investimento che da solo vale centinaia di milioni di dollari, Llama 3.1 è dotato di una finestra di contesto fino a 128K, supporta otto lingue, tra cui l'italiano e, nella sua versione più grande, è dotato di 405 miliardi di parametri (per fare un confronto, Llama 3 ne ha "appena" 70 miliardi, nella sua versione più grande, e 8 miliardi in quella più piccola).
Un gigante, nel settore dell'IA, tanto che Mark Zuckerberg si è dichiarato convinto che nei prossimi mesi aiuterà a spingere l'utilizzo del chatbot Meta AI tanto da superare quello di ChatGPT con i suoi 100 milioni di utenti.
Osservazioni forti, ma supportate dagli enormi investimenti e dai benchmark condivisi dall'azienda (da prendere quindi per quello che sono, in quanto proprietari).
Come si vede, Llama 3.1 è in grado di superare in alcuni contesti GPT-4o e Claude 3.5 Sonnet, ma il grande vantaggio è che secondo Meta in produzione costa la metà dei modelli sopra menzionati, ed è open source. Inoltre Llama 3.1 è stato per la prima volta testato anche per la ricerca di potenziali casi d'uso biochimici e di sicurezza informatica.
Llama 3.1 è in grado di integrarsi con un'API del motore di ricerca per "recuperare informazioni da Internet in base a una query complessa e chiamare più strumenti in successione per completare le tue attività".
Per esempio, si può fare una richiesta al modello, che recupererà i dati dal Web e potrà persino generare un codice Python, per poi eseguirlo.
Meta è convinta che Llama 3.1 darà il via a nuove applicazioni e paradigmi di modellazione, compresa la generazione di dati sintetici per consentire il miglioramento e la formazione di modelli più piccoli.
Una curiosità: avrai notato che dai paragoni manca Gemini. Stando a una dichiarazione fatta a The Verge, Meta non è riuscita a utilizzare le API di Google per replicare i suoi risultati, quindi non lo ha inserito nei confronti.
Il nodo dei dati di allenamento
Ma su cosa è allenato Llama 3.1? Questo è un punto piuttosto oscuro. L'azienda ha dichiarato di aver adottato una procedura iterativa post-allenamento, in cui ogni round utilizza la messa a punto supervisionata e l'ottimizzazione diretta delle preferenze. Questo avrebbe permesso di creare dati sintetici di altissima qualità per ogni round e migliorare le prestazioni di ogni capacità.
Per l'allenamento, però, non è stato rivelato che dati sono stati usati, il che è piuttosto comune per le aziende che creano modelli IA. Ormai è chiaro che Internet non basta più per allenare i modelli, e sempre più aziende si stanno rivolgendo ai dati sintetici (una delle possibili applicazioni di Llama 3.1).
Secondo alcuni, però, si tratta di una tattica per ritardare l'inevitabile assalto di cause legali per la violazione dei copyright.
Perché Meta investe così tanto per un modello open source?
Al lancio, Zuckerberg ha spiegato perché questi enormi investimenti per un progetto open source: fondamentalmente, è convinto che questo in futuro consentirà di risparmiare miliardi di dollari.
Secondo il fondatore di Facebook, i modelli di intelligenza artificiale open source supereranno i modelli proprietari, in modo non diverso da come Linux è diventato il sistema operativo open source che alimenta la maggior parte dei telefoni, server e dispositivi in commercio.
Zuckerberg fa il paragone con il suo Open Compute Project, il sistema dei data center di Meta, che secondo lui ha permesso di risparmiare all'azienda miliardi di dollari permettendo ad altre aziende di contribuire a migliorare e standardizzare il codice.
Lo stesso per i modelli IA, e per questo Llama 3.1 sarà un punto di svolta nel settore: da qui in avanti "la maggior parte degli sviluppatori inizierà a utilizzare principalmente l'open source".
Per spingere Llama 3.1, Meta sta lavorando con più di due dozzine di aziende, tra cui Microsoft, Amazon, Google, NVIDIA e Databricks, per aiutare gli sviluppatori a implementare le proprie versioni.
Come provare Llama 3.1
Llama 3.1 arriverà questa settimana su Meta AI, l'assistente AI di Meta. Llama 3.1 sarà accessibile per la prima volta tramite WhatsApp e il sito Web Meta AI negli Stati Uniti, seguito da Instagram e Facebook nelle prossime settimane.
Ricordiamo che al momento Meta AI non è ancora disponibile in Italia, ma puoi accedervi usando una VPN e impostando il server sugli Stati Uniti.
Meta ha sottolineato che Llama 3.1 sarà disponibile gratuitamente, ma per un numero limitato (non è stato detto quante) di richieste, poi si passerà a Llama 3.
In alternativa, è possibile scaricarlo da Hugging Face.
Imagine Me, la nuova funzione di Meta AI
Nel frattempo, Zuckerberg ha annunciato sul suo canale WhatsApp una nuova funzione di Meta AI chiamata Imagine Me, che scansiona il tuo viso attraverso la fotocamera del telefono per creare personaggi a piacere con le tue fattezze.
La novità consiste nel non utilizzare la galleria di immagini come partenza ma usare direttamente la fotocamera, il che dovrebbe diminuire la possibilità di creare deepfake, ovvero immagini finte che utilizzano i volti di persone famose.
Qui sotto potete vedere un'immagine condivisa da Zuckerberg nelle vesti di gladiatore.
Inoltre Meta ha annunciato l'arrivo di Meta AI sul visore Quest, nelle prossime settimane, per implementare un'interfaccia vocale come quella dei Meta Ray-Ban che consente di identificare e conoscere quello che stai guardando mentre sei nella modalità passthrough.
Approfondimenti sull'intelligenza artificiale
Se ti interessa il mondo dell'intelligenza artificiale, non perderti alcuni nostri approfondimenti dedicati.