Si chiama Project Astra e promette di diventare la vostra ancora di salvezza quotidiana. Ovviamente stiamo parlando di una nuova funzionalità legata a Google Gemini e all'ecosistema d'intelligenza artificiale di Google, capace di usare il riconoscimento visivo come mai fatto prima d'ora. Una sorta di risposta diretta a GPT-4o e alle novità presentate ieri sera da OpenAI, che dimostra come Google voglia fare sul serio con l'AI multi-modale.
Project Astra: cos'è e come funziona
Project Astra è il primo esperimento di assistente AI multi-modale basato sulle capacità di Google Gemini. Lo sviluppo è stato affidato al team di Google DeepMind, che ha creato un video demo che mostra le straordinarie possibilità offerte da questo strumento.
L'assistente è integrato direttamente all'interno di un Google Pixel, e sfrutta la fotocamera dello smartphone per visualizzare ed interpretare tutto ciò che viene inquadrato. Non solo, perché l'utente può interagire con l'assistente tramite comandi vocali, chiedendo informazioni relative a quello che viene inquadrato, anche indicando elementi specifici.
Ma non finisce qui. Project Astra funziona anche su smart glasses, quelli dotati di videocamera e microfono. L'esperienza utente sembra molto intuitiva: con gli occhiali inquadrate la scena davanti a voi e con la voce chiedete quello che volete a Gemini.
E cosa può fare Project Astra per voi? Potenzialmente di tutto. Grazie alla funzionalità multi-modale, è capace di riconoscere il paesaggio fuori dalla finestra, risolvere una formula matematica, leggere e interpretare una parte di codice, riconoscere le parti di un altoparlante, inventarsi nomi simpatici per gli animali domestici.
Sono due le cose più impressionanti di questa demo. Da una parte l'incredibile interattività e proattività di Project Astra, che sembra poter passare da un'operazione all'altra in maniera fluida e naturale. Dall'altra la latenza quasi nulla, ancora più accentuata dal fatto che il sistema debba riconoscere una scena visivamente, processare le informazioni, produrre un risultato e comunicarlo all'utente. Tutto questo avviene in pochissimi istanti.
Se volete vedere in azione le capacità di Project Astra, a seguire trovate il primo video ufficiale rilasciato da Google.
Project Astra è davvero bello come sembra?
Come detto, la demo di Project Astra è davvero impressionante e, a tratti, difficile da credere. Abbiamo già avuto brutte sorprese con i sistemi d'intelligenza artificiale di Google, con grandi promesse che non si sono poi avverate. Questa volta dobbiamo crederci?
Google ha dichiarato che il progetto è ancora in sviluppo, ma alcune delle funzionalità mostrate arriveranno sui prodotti Google entro la fine dell'anno. Si parla di pochi mesi, dunque, un lasso di tempo brevissimo per implementare bene una funzionalità complessa come questa.
C'è da dire che negli ultimi anni il settore dell'intelligenza artificiale ha fatto – e sta facendo – passi da gigante, accelerando sempre più le capacità offerte dai diversi sistemi concorrenti. Anche il nuovo GPT-4o citato all'inizio dell'articolo rientra proprio in questo sviluppo rapidissimo.
Restano, comunque, molti dubbi ancora da chiarire.
Project Astra sarà integrato su tutti gli smartphone Pixel? Funzionerà in locale o si collegherà ai serve di Google? La latenza delle funzioni interattive sarà davvero così bassa (praticamente inesistente) come nella demo?
Per dare una risposta a tutte queste domande dovremo attendere, se va bene, ancora molti mesi. La direzione però è già tracciata: intelligenza artificiale ovunque e comunque, usabile con gli occhi e con la voce, integrata sugli smartphone e sugli occhiali, capace di rispondere a tutte le vostre domande, o quasi.