Google I/O 2022: le novità sui servizi da Maps a Search, da Assistant a Translate

2 years ago 186

Google I/O 2022: le novit sui servizi da Maps a Search, da Assistant a Translate

11 Maggio 2022 0

Dopo lunghi giorni di attesa, anticipazioni e rumor, Google I/O ha avuto ufficialmente inizio attraverso la consueta conferenza di apertura dei lavori, diventando anche l’occasione per vedere le ultime novità in fatto di hardware e software.

Quando si pensa a questi appuntamenti, è difficile associare il maggior numero di aspettative a temi come il motore di ricerca o Google Maps, eppure si tratta di pezzi molto importanti dell’offerta del gigante di Mountain View. E questo vale sia se si pensa alla quantità di utenti che li utilizzano, sia alla capacità di generare in maniera diretta o indiretta una buona fetta del fatturato, facendo da atterraggio per una consistente quota degli annunci acquistati dagli inserzionisti.

Google I/O 2022 ci ha dato modo di dare uno sguardo a quelle che saranno le novità dei prossimi mesi: vediamole nel dettaglio proprio a partire dagli aggiornamenti al motore di ricerca.

MOTORI DI RICERCA INTEGRATI

Per Google il mondo delle ricerche sarà sempre meno legato al classico inserimento di una stringa di testo nell’apposito campo, e sempre più frutto di un mix di interazioni con gli strumenti sviluppati internamente e il mondo che ci circonda. L’obiettivo è quello di rendere ogni operazione un processo naturale, offrendo risposte più complete e aderenti alle aspettative degli utenti.

Google Lens, ad esempio, è disponibile da qualche tempo e va in questa direzione. L'app ha raggiunto 8 miliardi di ricerche al mese, un numero forse non gigantesco in assoluto ma triplo rispetto a 12 mesi or sono, segno che sta crescendo.

I prossimi step passeranno dall’interazione dei diversi strumenti a disposizione. Con Multisearch, annunciato qualche settimana addietro, sarà possibile combinare ricerca per immagini e testuale. Si potrà così fotografare un vestito, un paio di scarpe o qualsiasi altro oggetto e specificare alcuni dettagli extra, come il colore o la taglia che si desiderano, quindi ottenere risultati più specifici. Un altro caso d’uso potrebbe essere quello che prevede di fotografare una pianta e aggiungere alla ricerca l’intenzione di trovare le migliori soluzioni per prendersene cura o i prodotti utili a mantenerla in salute.


Al Google I/O 2022 è stato annunciato che Multisearch funzionerà anche per cercare risultati nelle proprie vicinanze. Scattando una foto a un soggetto e digitando “near me”, i risultati ci faranno vedere quali negozi, bar o ristoranti lo vendono nei nostri paraggi. Ma l’idea si può estendere a qualsiasi cosa. Questa funzione sarà introdotta innanzitutto in inglese, entro il 2022, quindi estesa a tutte le altre lingue.

Per lo scopo, Google mescola i risultati ottenuti dopo la prima scansione dell’immagine, che gli permettono di individuare di cosa si tratta, con i contributi degli utenti che caricano all’interno delle recensioni e delle schede degli esercizi le loro impressioni e i loro scatti.

L’altra novità dell’appuntamento odierno è invece Scene Exploration, che allarga l’idea di Google Lens a intere scene. Fotografando lo scaffale di una libreria o il bancone di un supermercato, l’intera scena verrà analizzata e saranno mostrate informazioni relative a più prodotti contemporaneamente. Si tratta di novità che arriveranno nel prossimo futuro e per le quali, al momento, non ci sono date certe.

MAPS CI VUOLE FAR RISPARMIARE LA BENZINA

Per quanto riguarda Google Maps, i progressi degli ultimi anni e quelli futuri, ha spiegato l’azienda, passano soprattutto dall’integrazione di sistemi sempre più evoluti di intelligenza artificiale. In particolare, lo scopo iniziale di Maps, ovvero quello di condurci da un luogo a un altro, è stato nel tempo affiancato da un numero crescente di funzioni che ci permettono di informarci su quello che ci circonda.

Va in questa direzione anche l’aggiunta di Immersive View, un nuovo sistema che mettendo insieme le immagini di Street View e degli scatti aerei, permetterà di osservare cosa si trova in un determinato luogo, quali ristoranti o luoghi di interesse e così via. Non è chiarissimo quanto dettagliate saranno le informazioni e le immagini disponibili ma, considerando che verrà rilasciato un po’ per volta, a partire da Los Angeles, Londra, New York e Tokyo, è probabile che si tratti di un lavoro piuttosto ampio e quindi di un’aggiunta interessante.

Google Maps, novit

Android 05 Apr

Come funziona la moderazione delle recensioni su Google Maps

Android 02 Feb

Nell’ottica della sostenibilità la funzione che permetterà di scegliere il tragitto che in auto o moto ci permette non tanto di impiegare meno tempo, quanto piuttosto di consumare meno benzina e produrre meno emissioni. Si tratta di una novità già in fase di sperimentazione negli USA e in Canada, che arriverà però anche in Europa.

Infine è stato annunciato un potenziamento di Live View, sistema di realtà aumentata che dà modo di vedere sullo schermo del proprio smartphone che direzione prendere per raggiungere la propria destinazione e che ora, grazie all’integrazione di una serie di API specifiche, risulterà un po’ più utile. Le aziende di bike sharing, ad esempio, potranno utilizzarlo per condurci verso una bicicletta da noleggiare oppure all’interno di un centro commerciale potremo essere condotti fino al negozio o al ristorante che stiamo cercando. DOCOMO e Curiosity, invece, stanno sviluppando un videogame che promette di portare gli utenti a combattere alcuni mostri all’interno delle location più iconiche di Tokyo.

24 NUOVE LINGUE

Google Translate si arricchirà del supporto di 24 nuove lingue, portando il totale a 133. Idiomi come l’Assamese, il Dogri, l’Ewe e il Krio potrebbero non dire nulla a molti di noi - incluso chi scrive, fino a qualche minuto fa - ma questo nuovo pacchetto di aggiunte, che si sono concentrate specificatamente sul nord dell’India e il continente africano, si rivolge potenzialmente a oltre 300 milioni di persone. La nuova lingua più utilizzata è il Lingala, parlato da 45 milioni di persone in Africa, mentre la meno comune è il Sanscrito, ancora utilizzato da circa 20.000 persone in India.

OCCHIO ALL'ASSISTENTE

Stando a quanto dichiarato da Google, sono oltre 700 milioni le persone che ogni giorno utilizzano Assistant e uno degli obiettivi che l’azienda si è posta è quello di rendere più naturali le interazioni, a partire dal modo in cui lo richiamiamo. Oltre a poter dire “Hey Google” o premere l’apposito pulsante, gli utenti di Nest Hub Max negli USA potranno semplicemente guardare il dispositivo e porre la domanda per la quale cercano una risposta. Un'aggiunta di cui già si era parlato alcune settimane addietro.

La funzione si attiva unicamente una volta che il Nest Hub Max ha verificato una corrispondenza tra la voce e il volto dell’utente registrato, e le operazioni di registrazione del video sono interamente processate all’interno del dispositivo, così da evitare guai o far sorgere problemi relativi alla privacy. Google ha raccontato di utilizzare sei modelli di machine learning per capire se effettivamente ci si sta rivolgendo al dispositivo, considerando aspetti come la posizione del corpo e della testa, la prossimità, i movimenti delle labbra e degli occhi e così via.

Non si tratta di chissà quale aggiunta, ma l’obiettivo che si pone Google è quello di proseguire sulla strada di una miglior interpretazione del linguaggio delle persone, comprendendo le interruzioni, gli errori e le altre imperfezioni che in maniera perlopiù inconsapevole caratterizzano il modo di esprimersi di ciascuno.


Read Entire Article