Sembrerebbe che Amazon stia investendo grosse somme di denaro nella formazione di un ambizioso modello di linguaggio di grandi dimensioni (LLM), che possa competere con OpenAI e Alphabet. La notizia, rivelata da due informatori a Reuters, evidenzia che il modello avrebbe "Olympus" come nome in codice e che può contare su 2000 miliardi di parametri diversi: dunque, potrebbe risultare uno dei modelli più grandi in fase di addestramento. A riguardo, facendo un confronto rapido, il modello GPT-4 di OpenAI si basa su mille miliardi di parametri.
Nello specifico, il team sarebbe guidato da Rohit Prasad, ex capo di Alexa, che dovrà riportare novità e sviluppi del progetto direttamente all'amministratore delegato Andy Jassy. In qualità di capo scienziato dell'intelligenza generale artificiale (AGI) presso Amazon, Prasad avrebbe coinvolto i ricercatori che avevano lavorato su Alexa AI ed il team scientifico di Amazon per lavorare su modelli di formazione, unendo quindi gli sforzi di tutta l'azienda nell'ambito dell'intelligenza artificiale (potendo contare anche su risorse dedicate).
In passato, Amazon ha già addestrato modelli più piccoli, come Titan. Inoltre, ha collaborato con startup dell'ambito come Anthropic e AI21 Labs, allo scopo di offrire servizi aggiuntivi agli utenti di Amazon Web Services (AWS). Secondo Reuters, comunque, la società si sarebbe convinta di sviluppare modelli interni perché convinta che ciò potrebbe rendere le sue offerte su AWS più appetibili. Per quanto riguarda il rilascio di Olympus, tempi certi ancora non ne sono stati comunicati.