La protagonista assoluta del Google I/O 2024 è stata Gemini, l'intelligenza artificiale sviluppata a Mountain View, che andrà a permeare tutti i servizi dell'azienda, e tra questi non poteva certo mancare la ricerca Google.
Ecco quindi come si evolverà a breve Google Search, grazie proprio a un modello di Gemini cucito a misura per le ricerche web, che unisce le sue capacità multimodali e di pianificazione con i migliori algoritmi di ricerca di Google.
Il risultato promette di aprire nuove possibilità per gli utenti, in modo estremamente semplice e intuitivo: ecco come.
AI Overviews
La novità principale in merito alla combinazione di Gemini e Google Search si chiama AI Overviews, già in distribuzione per tutti gli utenti statunitensi, con ulteriori paesi in arrivo a breve. Lo scopo è portare questa funzione a oltre un miliardo di utenti entro la fine dell'anno. Speriamo che in questa cifra sia comprensa anche l'Italia, ma al momento non c'è conferma alcuna in merito.
Cosa sono queste AI Overviews? Anziché il solito elenco di siti web, Google raccoglierà le risposte all'intento di ricerca degli utenti, e le presenterà in una forma graficamente più intelligibile. Sarà possibile visualizzare una versione semplificata o anche una espansa delle risposte, e ovviamente potremo dialogare con Google/Gemini per espanderle e arricchirle
Ma cosa ne sarà di tutti quei siti web che sono la vera fonte di questi risultati? In base ai test effettuati, i link inclusi in Ai Overviews dovrebbero ricevere più click che se fossero apparsi nei tradizionali risultati di ricerca, con Google che si impegna a veicolare traffico a editori e cretor. Dobbiamo prendere per buone le parole di Google su questo, anche se le premesse non fanno proprio ben sperare.
Chiedi e ti sarà dato
A breve, a partire dall'inglese in USA, arriveranno su AI Overviews anche capacità di ragionamento multi-livello. Parliamo di ricerche del tipo "trova i migliori studi di yoga o pilates a Boston e mostrarmi i dettagli delle loro offerte di presentazione e il tempo di percorrenza a piedi da Beacon Hill", una query così complessa che se provaste a darla ora in pasto a Google ottereste solo tanti link diversi che rispondono al massimo a una di queste esigenze.
E come abbiamo già visto questa capacità di raggruppare assieme intenti diversi tornerà molto utile anche nella pianificazione dei viaggi. La cosa comoda di queste ricerche così complesse è che poi cambiare uno dei parametri sarà immediato, permettendo di aggiustare al volo il risultato, come mostra l'animazione qui sotto.
Altri esempi fatti da Google riguardano ad esempio la creazione di diete personalizzate con un sacco di vincoli (microonde, regimi alimentari particolari, ecc.). Sinceramente si tratta di un terreno un po' minato, perché quando entriamo nel campo dell'alimentazione/salute il primo consiglio che chiunque dovrebbe darti è quello di rivolgerti a uno specialista, perché ciascuno di noi ha bisogno di indicazioni estremamente personalizzate in merito. E questo sarà forse un altro dei problemi dell'ubiquità dell'IA: che crederemo di poterci fare di tutto. Ma lasciamo stare per adesso, perché andremmo fuori rotta.
Un video vale più di mille parole
Non poteva mancare poi la possibilità di sfruttare i nostri smartphone per ricerche in tempo reale, sul mondo reale.
In modo simile a quanto mostrato da OpenAI con ChatGPT, anche con Google potremo usare la videocamera su Android per filmare un oggetto e chiedere informazioni al riguardo.
La ricerca tramite video, dopo quella basata su testo e immagini, è insomma l'ultima frontiera, ma sarà disponibile in versione beta in US English solo nel prossimo futuro, con l'intento di espanderla ad altre regioni col passare del tempo. Anche in questo caso quindi è lecito non aspettarla in Italia in tempi brevi; lieti poi di essere smentiti dai fatti.