Ad inizio anno ho pubblicato qui sul sito la recensione dei Ray-Ban Meta. Mi sono piaciuti a titolo personale e ci ho visto una possibilità interessante per il futuro. Avevo detto che "li comprerei" e infatti così è successo. Ma questa è un'altra storia per una ri-prova che presto troverete sul nostro canale YouTube con tutte le considerazioni di chi li ha usati tutti i giorni per tanto tempo. Se siete interessati a saperne di più sui Ray-Ban Meta e soprattutto se ne avete un paio iscrivetevi al nostro gruppo privato su Facebook.
Oggi voglio dirvi di come ho attivato la Meta AI, al momento disponibile sono negli USA (anche se sembra che questo potrebbe cambiare nei prossimi mesi) e delle mie prime impressioni.
Non è difficile attivare Meta AI sui vostri Ray-Ban, ma dovete considerare che perderete le foto non ancora scaricate (quindi fatelo) e soprattutto che la lingua in cui dovrete utilizzarli per ogni funzione sarà l'inglese.
Potrete comunque sempre tornare all'italiano perdendo l'integrazione di Meta AI.
- Impostate la lingua inglese nell'app Meta View
- Nelle impostazioni di Meta View andate in Occhiali e Privacy, poi I tuoi occhiali e Annulla associazione occhiali
- Dalle impostazioni del Bluetooth del vostro smartphone cancellate l'assocazione con gli occhiali
- Chiudete l'applicazione dal task manager del vostro smartphone (riavviatelo se non sapete come fare)
- Collegatevi con una VPN sullo smartphone agli USA (potete usare NordVPN oppure un'altra VPN affidabile)
- Aprite Meta View e riassociate gli occhiali
- Durante la configurazione vi verrà chiesto di attivare Meta AI e avrete fatto
La prima esperienza può dirsi impressionante. La precisione delle risposte non è pari a quella di un Chat-GPT4 o 4o che ha accesso ad una fotocamera, ma il vantaggio di non dover mai usare le mani e di avere questa AI sempre pronta e scattante (perché le risposte arrivano in una manciata di secondi) è forse il suo vero punto forte.
Ovviamente si tratta di elaborazione cloud tramite la connessione del vostro smartphone.
È possibile continuare a dialogare con l'AI (che si attiva con Hey Meta o una gesture sull'asta degli occhiali) senza rispiegare il soggetto, visto che questa rimarrà nel contesto del discorso. Con gli ultimi firmware è possibile anche impostare il "dialogo continuo" senza dover ripetere il comando di attivazione.
Dopo tanti anni di smart glass finiti rapidamente nel dimenticatoio Meta potrebbe aver trovato la quadra con la sua AI? Mi ha colpitoa sufficienza da farmi sentire quasi un po' fregato, da un progetto che ad un primo sguardo, forse deluso dal passato, non avrei dato molta fiducia. Vi lasciamo ad un video con alcuni esempi interessanti. E continuate a seguirci per la nostra ri-prova completa.