Apple Intelligence provata: come funziona e perché è diversa da Gemini e le altre "AI"

1 week ago 57

Rimani aggiornato quotidianamente sui video, approfondimenti e recensioni di HDblog. Iscriviti ora al canale Youtube, basta un Click!

Sarò molto onesto con voi, sono ancora molto scettico dell'AI, l'Intelligenza Artificiale, presente a bordo degli smartphone. Non sono scettico sul potenziale dell'AI, che è eloquente e probabilmente ancora sconfinato, ma sull'uso attuale che ne possiamo fare.

Tutti i produttori di smartphone sono stati presi in contropiede dall'arrivo di queste novità e potenziali utilizzi di chatbot (come ChatGPT o l'app di Gemini), lo sviluppo di LLM (large language model, come LLama di Meta che ora si trova dentro WhatsApp o Gemini Pro che si trova alla base della GalaxyAI di Samsung) e AI Generativa.

Ma parliamoci chiaramente, nessuno ad oggi ha bisogno di LLama dentro WhatsApp, quando c'è già Gemini. Sbobinare note vocali con i "tool gratuiti AI" è una tortura appena ci sono nomi propri straneri o termini tecnici ed esclusa la Gomma Magica l'IA generativa è ancora usata malissimo per qualche avatar cartoon, nulla di essenziale.

 c'

Business 05 Feb

Quasi tutti i brand hanno quindi deciso di bussare alla porta di Google e chiedere il prestito Gemini, come applicazione ed assistente evolutivo di Google Assistant e Gemini come LLM, il modello linguistico. Avere Gemini come assistente e come motore delle proprie app permette ai produttori di risparmiare enormi risorse nello sviluppo di quello che è stato in passato un Google Assistant, una Siri o una Alexa e avere un qualcosa che si integrasse già perfettamente in Android.

Siri verso l'integrazione con pi

Apple 07 Apr

Gemini AI sostituir

Google 15 Mar

SPIEGONE: Google con Gemini ci ha confuso molto le idee poiché noi chiamiamo Gemini sia l'assistente vocale, quello che ha rimpiazzato Google Assistant, sia il "motore" che è alla base di alcune funzioni come la sbobinatura di note vocali, la formattazione del testo, il riepilogo di una email e via dicendo. Gemini ad oggi su praticamente ogni smartphone Android, venduto fuori dalla Cina, è sfruttato per entrambe le funzioni. Prendiamo l'esempio di Samsung: Gemini è l'assistente predefinito dello smartphone ma anche il cuore pulsante di applicazioni come "Galaxy Notes". Questo non significa però che i risultati di "Galaxy Notes" siano uguali a "Xiaomi Notes", che sfrutta sempre Gemini "Pro", poiché il come viene ottimizzato poi il tutto cambia. Per capirci facciamo un parallelismo con la Formula 1: Mercedes dà il proprio motore a McLaren e Aston Martin, ma come poi viene sfruttato il motore, l'impalcatura attorno ad esso, dipende da come McLaren e Aston Martin ottimizzano il tutto.

Google Gemini, l'applicazione, quindi è soltanto un chatbot, installabile ovunque, anche su iPhone. Un assistente vocale con dentro Gemini "modello", il "motore" che troviamo poi anche sotto l'applicazione delle note, dei messaggi e via dicendo. Google ha poi di "Gemini" varie "cilindrate", restando sul parallelismo dei motori e in base a quanto si è disposti a pagare, sia noi individui sia i vari brand come Samsung, Xiaomi o Honor, possono "noleggiare" il motore più potente.

Questa "struttura" è essenziale averla bene chiara in mente, poiché nel panorama smartphone occidentale odierno è come se si corresse una Formula 1 dove tutti i motori sono dello stesso produttore, in questo caso Google. C'è chi si inventa qualche uso peculiare, tipo Samsung che lo integra nella ricerca delle impostazioni di sistema, chi come Motorola nelle sue "motorolate ai" basate sul lifestyle e chi come OPPO e OnePlus arricchendo la parte grafica di funzioni come la "rimozione dei riflessi nelle foto".

A conti fatti però l'unica azienda che ci guadagna davvero, che ha un monopolio, è Google. Tutti i dati che vengono raccolti quando eliminiamo nostra zia antipatica dalle foto di famiglia, quando chiediamo qualunque informazione all'assistente o via dicendo, tutto passa tramite dei server online e Google che immagazzina tali informazioni, fino a richiesta contraria parziale, e ne fruisce eventualmente per migliorare i propri servizi.

Questo non è un male in valore assoluto, dipende molto dal valore che date alla vostra privacy e dati personali, ma chiaramente permette a Google di risparmiare una marea di soldi per ottenere i nostri dati, avendoceli già in casa e in tutte le case "affittate" ai vari brand come Xiaomi, Samsung, Honor, Oppo e via dicendo che sfruttano i suoi servizi.

Quali dati vengono raccolti e come vengono utilizzati

Google raccoglie dati sulle tue chat (incluse le registrazioni delle tue interazioni con Gemini Live), i contenuti che condividi con le app Gemini (come file, immagini e schermate), informazioni sull'utilizzo di prodotti correlati, il tuo feedback e informazioni sulla tua posizione. Le informazioni sulla tua posizione includono l'area generale del dispositivo, l'indirizzo IP o gli indirizzi di casa o di lavoro nel tuo Account Google. Scopri di più sui dati sulla posizione all'indirizzo g.co/privacypolicy/location.

Google utilizza questi dati, in conformità alle sue Norme sulla privacy, per fornire, migliorare e sviluppare prodotti, servizi e tecnologie di machine learning di Google, inclusi i prodotti aziendali di Google come Google Cloud.

L'Attività delle app Gemini è attiva per impostazione predefinita se hai almeno 18 anni. Gli utenti minori di 18 anni possono scegliere di attivarla. Se l'impostazione Attività delle app Gemini è attiva, Google memorizza l'attività delle app Gemini nel tuo Account Google per massimo 18 mesi. Puoi modificare la durata in 3 o 36 mesi nell'impostazione Attività delle app Gemini.

APPLE ARRIVA IN RITARDO, MA CON UNA SUA IDEA!

In tutto ciò chi è rimasto a guardare è Apple che forse ha sempre visto con occhio scettico l'AI e le sue eventuali applicazioni fin quando non si è trovata risucchiata dalla "FOMO", termine molto in voga ad oggi tra i giovani e che indica la "Fear of Missing Out", la paura di rimanere esclusi, fuori dal giro "più figo".

Ai miei tempi la "FOMO" era quando alle elementari tutti avevano il Nintendo DS e chattavano con la Picto Chat mentre io ancora avevo il Game Boy Color con Pokémon Giallo, una "FOMO" che mi facevo passare dal momento che io e la mia famiglia non ci potevamo permettere queste spese extra.

Ecco, forse la stessa "FOMO" la hanno avuta anche molti brand di tecnologia che, anche loro senza fondi, si sono appoggiati a Google che però non è una garanzia, non è una certezza. Sarebbe stato come usare il Nintendo DS di qualche mio amico, bello ma avrei potuto fare solo quello che lui mi avrebbe permesso di fare e tutti i miei "progressi" nei giochi sarebbero restati poi a lui, non a me.


Apple insomma è corsa ai ripari mettendo in piedi una delle presentazioni più belle sull'AI che io abbia mai visto: in azione abbiamo visto quello che oggi viene chiamata "AI Agentica", un tipo di intelligenza artificiale avanzata che "crea agenti intelligenti autonomi", in grado di fare svariate azioni. Questa IA pensa, impara e agisce autonomamente per risolvere i problemi, senza bisogno di supervisione umana. Una AI che "vive" dentro il nostro smartphone, conosce ogni minimo aspetto della nostra vita, anche quelli più oscuri, e proprio per questo può quasi agire al posto nostro.

E allora dove è il problema? Che tutto ciò è difficile, difficilissimo poi da "ricreare dal vivo", fuori da un video presentazione. Pensate che solo da qualche giorno Apple Intelligence è arrivata in Italia, da settembre 2024, con ben sette mesi di ritardo. E di Apple Intelligence ad oggi c'è solo un piccolo pezzo di tutto ciò che l'azienda americana ci ha fatto vedere: Siri "avanzata", quella che potremmo chiamare "SiriGPT", la rivale di Gemini, è stata rimandata al 2026.


Questo ritardo è un grandissimo problema, perché la nuova Siri doveva fare da collante a tutte le frammentate e geniali idee di Apple Intelligence. Apple ad oggi "potenzia" Siri con l'ausilio di ChatGPT, ma questo "boost" non scomparirà una volta che Siri potrà svolgere i suoi compiti autonomamente, anzi, molto probabilmente vedremo sempre più "partner" di questo tipo come l'aggiunta di Gemini, Claude, e via dicendo.

Apple si sta tenendo quindi due strade percorribili, anzi, ha intenzione di percorrerle entrambe: sviluppare la sua Siri, autonoma, ma anche sfruttare tutte le altre AI come estensione di Siri. Potrà sembrarvi un giro di parole per incartarvela ma così non è ed è questo che rende il progetto di Apple Intelligence, sulla carta, geniale. Il problema è che al momento, senza Siri 2.0, rimane geniale solo sulla carta.

UNA INTELLIGENZA ARTIFICIALE CHE PENSA ALLA PRIVACY

Apple Intelligence ha un enorme focus: proteggere i nostri dati. Ma come, ha ChatGPT dentro e vuole proteggere i nostri dati?!?! Sì, perché anche quando Siri si interfaccia con ChatGPT, ma in futuro anche Gemini e altri LLM, non divulga mai i nostri dati o perlomeno li manda criptati. Tutte le AI di Apple, modelli allenati usando la libreria AXLearn di Apple, un progetto opensource, ha alla base dati ricavati dai web crawler di Apple, non vengono usati e mai verranno usati i dati personali di chi usa dispositivi Apple.

Quando le informazioni viaggiano fuori dal nostro smartphone, passando dall'offline all'online, lo fanno in modo criptato, impossibile da decifrare per le varie OpenAI, Google, Anthropic e via dicendo. Come detto in precedenza invece aziende come Google "vivono" dei nostri dati per migliorare e farci utilizzare i loro servizi, per questo d'altronde ci vengono resi in modo gratuito.


E Apple perché ci vuole allora regalare la sua intelligenza artificiale? E perché tiene così tanto ai nostri dati? Per etica della azienda e perché guadagna in altri modi. Pensate che Google ha elargito, da circa il 2002, miliardi e miliardi di dollari ad Apple per tenere Google come motore di ricerca predefinito. Collegate ora questo fatto a quanto vi ho detto poco prima: pensate a una Google che paga Apple per tenere Gemini come AI "di ausilio" predefinita al posto dell'attuale ChatGPT, potrebbe far mantenere quei "miliardi" elargiti fin ora per Safari e Google Search!

C'è solo un problema, nell'attuare ciò: essendo i dati criptati non credo che Google abbia lo stesso interesse nel "preinstallare" Gemini rispetto a "Google Search", che invece fornisce tantissimi dati all'azienda americana. Ma Apple, per ora, rimane ferrea sulla sua posizione: niente apertura a fare uscire i dati privati fuori dall'iPhone.

Apple Intelligence si prepara all'integrazione con Google Gemini

Apple 23 Feb

Google corrisponde ad Apple una cifra folle per essere il "suo" motore di ricerca

Apple 25 Dic

“Non volevamo creare la copia dei chatbot, perché i chatbot non hanno la minima idea su come rispondere a migliaia di richieste che un utente potrebbe fare ad uno smartphone”

LA DIFFERENZA TRA APPLE INTELLIGENCE E GLI SMARTPHONE CON GEMINI

Proprio Apple in svariate interviste ha detto quanto riportato nella citazione di prima. Si sarebbe potuto puntare a fare una "App" di Siri con dentro un LLM sviluppato dai dati degli utenti, si davano in pasto un po' di informazioni e si faceva rispondere alle tipiche domande che la maggior parte delle persone pone ai chatbot come "Mi consigli la ricetta per delle patate al forno ben dorate" e "Che tempo fa domani", ma non era quello l'obiettivo.

Apple, nelle sue dichiarazioni, ha sempre fatto capire di puntare si da subito a una AI "latente", che vive nel telefono e da sola riesce a consigliarci l'abbigliamento per il giorno dopo, con una notifica prioritaria magari, perché domani ci sarà un calo di 10°C nella temperatura, sa dalle foto in galleria e dai messaggi che inviamo che ogni giovedì mangiamo Tacos e quindi ci consiglierà magari una nuova ricetta per farli al meglio e via dicendo.

Qui la differenza tra Apple Intelligence e Gemini, allo stato attuale, si fa ancor più marcata. Apple Intelligence non è un singolo LLM, messo in svariate app di sistema, ma un sistema più complesso composto da combinazioni di tanti modelli generativi, tra i quali anche LLM. ChatGPT, Gemini, Claude e via dicendo sono soltanto una piccola parte di quello che potrebbe essere Apple Intelligence. Il problema è che ad oggi nulla di tutto ciò è tangibile e quindi le uniche funzioni che possiamo sfruttare, nate da questa idea, funzionano peggio dei competitor come Gemini.

Quando configuriamo per la prima volta Apple Intelligence, dopo aver scaricato iOS 18.4, abbiamo ulteriori 10-20 minuti buoni di download, meno se avete una fantastica Wi-Fi, dove vengono scaricati tutti quei modelli generativi citati poco sopra. L'AI di Apple nasce per funzionare offline, per essere "indipendente", per essere "nostra", ci conosce dopo averla installata.

I LIMITI ATTUALI DELLE INTELLIGENZE ARTIFICIALI OFFLINE

Tutto ciò sulla carta, come detto più volte, è fantastico. Non solo Apple cerca di proteggere i nostri dati, ma cerca anche di proporre un qualcosa di unico, una vera alternativa e una vera "Intelligenza Agentica". Il problema è che allo stato attuale, quel poco che c'è e funziona offline, non lo fa benissimo. L'esempio lampante è la gomma magica, lenta e poco efficace. Se eliminiamo oggetti isolati e con uno sfondo omogeneo il tutto avviene senza intoppi, ma eliminare persone o dettagli più complicati è veramente complicato.

Inoltre l'elaborazione in locale spesso è più lenta: per un testo da 6.000 parole ci può volere anche 180-200 secondi, mentre con l'online, con il cloud, possono bastare anche una manciata di secondi. Come pensa Apple di compensare ciò? Con il "Private Cloud Compute", una architettura di sicurezza e privacy implementata in Apple Intelligence: anche iPhone può elaborare richieste AI con il cloud, ma quando essa viaggia verso il Private Cloud Computer è "stateless", i dati vengono usati esclusivamente per la richiesta, impossibili da consultare anche per il personale Apple. Una infrastruttura in grado di "estendere" il potenziale di Apple Intelligence.


Anche qui sulla carta è tutto molto bello ma nella pratica, ad oggi, servirebbe un supporto "cloud" ad esempio alla Gomma Magica, che però non pare esserci. Pensate che Google, all'opposto, ci "costringe" ad effettuare e mantenere il backup di una foto o video per perfezionarlo con l'AI, un cloud tra l'altro di Google Drive che quando saturo necessita di un upgrade monetario a nostre spese. Botte piena e moglie ubriaca per Google.

Chiaro, anche Apple non è una santa, basti pensare all'applicazione "Inviti" per organizzare le feste che richiede un abbonamento ad iCloud, anche se non lo sfruttiamo, ma perlomeno è più trasparente sulla gestione dei dati (mentre i soldi fan gola a tutti quindi quando si può è lecito aspettarsi che le aziende tentino di monetizzare il monetizzabile).

IL VANTAGGIO DI APPLE INTELLIGENCE: SEMPLICE E BELLA

Anche se Apple Intelligence allo stato attuale è una piccola parte di quanto presentato c'è da dire che si presenta bene da subito. Non ti senti spaesato come su un Google Pixel, dove sei tu a dover cercare le specifiche funzioni nascoste, non è tutto con una grafica sconnessa dal resto della UI, non hai la tastiera come sui Samsung con l'AI di Gemini dentro ma anche l'app Messaggi con la stessa AI dentro ma con una grafica ancora diversa, che si scornano.

Apple arriva tardi e arriverà tardi, se pensiamo a Siri, ma perlomeno arriva con una grafica coerente e funzioni messe "al giusto posto". Gli "Strumenti di Scrittura" con incluso il "Correttore" di errori grammaticali, il sintetizzatore, lo strumento per creare tabelle o elenchi e per cambiare il tono di un messaggio sono tutti inclusi nella tastiera di sistema. Non dobbiamo uscire pazzi a cercare le funzioni in ogni singola app: basta un click sulla tastiera e siamo pronti ad operare.


Siri si anima come sempre con il comando "Hey Siri" ma anche con un doppio tap in basso sulla barra di navigazione, anche se essa è trasparente. Con l'Hey Siri la comandiamo a voce, con il doppio tap in modo testuale e lei ci risponderà nella stessa modalità.

Il Camera Control ora ha un senso perché esso richiama la Visione Intelligente, una schermata alla "Google Lens" con una bella grafica ed una doppia funzione: una ricerca alla "Cerchia e Cerca", per l'appunto Google Lens, sui prodotti o ristoranti, ma anche una ricerca testuale basata su ChatGPT, fin quando non esisterà Siri "AI" o verranno integrate altre opzioni come Gemini.

Inquadrando una Mela potremo ad esempio chiedere che tipo di mela è, dialogando con ChatGPT, e l'AI potra risponderci e creare una sequenza di risposte su tutto ciò. Una cosa che mi manca è una app "cassetto" dove tutte queste nostre conversazioni vengono salvate, come avviene con Gemini, Claude o Perplexity.


Quando stiamo per inviare una emoji nelle nostre classiche app di messaggistica ecco che esce un enorme tastone "Genmoji" colorato, impossibile da non notare. Cliccandolo ecco che avremo accesso alla creazione di emoji personalizzate. Io ad esempio ho chiesto una pizza rosa con le fragole e nel giro di qualche secondo mi è stata generata, il tutto sempre offline e senza dialogare con nessun server!

Image Playground è un ulteriore esempio di come si fa, a modo, una app dedicata a "generare immagini" con l'intelligenza artificiale. Paragonare la qualità di questa applicazione, che può funzionare tranquillamente offline, con un "AI Studio" che troviamo sugli OPPO, non ha assolutamente alcun senso per quanto le due app siano qualitativamente agli antipodi.

Qui c'è una grafica super curata e possiamo creare immagini da zero, senza alcun preset, mentre OPPO ci costringe a usare soltanto dei preset come "Samurai", "Scolaro" e via dicendo, e non supporta oggetti inanimati come case, animali, paesaggi e via dicendo. Possiamo infatti partire da del testo, aggiungere spunti che ci vengono forniti sotto forma di "emoji" e persone note nella galleria del nostro smartphone.


Quanti di voi poi utilizzano la modalità "Non Disturbare" o come la chiama Apple, perché va sempre fatto sembrare tutto stra-figo, e ci sta anche, "Full Immersion"? Credo molti di voi ed ecco che l'AI di Apple Intelligence arriva silentemente anche qui. Vostra madre vi manda un messaggio di "aiuto" perché si è fatta male con una padella rovente? Quel messaggio non verrà ignorato, anzi, inizierà a lampeggiare di una luce fluo e avrà il bollino "priorità". Sì, Apple ha anche introdotto le famose "Notifiche Prioritarie".


Questa funzione è semplice ma dannatamente efficace. Chiediamo alla nostra ragazza o coinquilino se stasera vuole mangiare cibo cinese? Se lo chiediamo alle 10:00 di mattina lui non riceverà alcuna notifica, nel caso abbia attive le "Notifiche Prioritarie" durante la Full Immersion. Se però chiediamo la stessa cosa alle 18:00 di pomeriggio ecco che la notifica inizierà ad illuminarsi e diventerà prioritaria.. d'altronde la cena potrebbe distare solo 1-2 ore da quando il messaggio è arrivato!

TUTTA QUESTA AI.. SERVE DAVVERO?

Sì, ma anche no. Io ad esempio trovo superfluo il poter generare immagini super cartoonesche, per nulla reali. Carine per farle fare a dei bambini come intrattenimento, per creare un avatar per qualche social media se le vostro foto reali proprio non vi piacciono, ma finisce lì. Usare immagini che escono fuori da Image Playground, ma anche dalle varie "AI Studio" di Oppo e via dicendo, per qualcosa di più "professionale" è pressoché impossibile.

Anche qui però apprezzo lo sforzo di Apple nel creare un "diffuser", un modello AI nato e pensato per generare immagini iniziando da altre immagini o prompt testuali. Anche OPPO, restando sull'esempio di prima, ha provato a creare un suo "tool" basato sulla sua AI, Chat GPT, anziché delegare tutto sempre a Google tramite "Imagen 3", il loro modello generativo, come avviene con praticamente tutti gli altri brand Android.


Quante di queste funzioni utilizziamo però davvero nel quotidiano? Spesso poche, per abitudine o per il poco vantaggio che portano. Se devo perdere 10 minuti a far sbobinare bene una nota vocale, specificando ogni volta i nomi propri o termini tecnici, se devo riprovare 10 volte l'AI generativa perché funziona randomicamente, se devo cambiare 10 volte il tono di una e-mail perché funziona male e non segue realmente come "scriverei io" formalmente, sto solo perdendo tempo e se usiamo l'IA per lavoro beh.. il tempo è denaro!

Funzioncine però come le Genmoji, le notifiche prioritarie, gli strumenti di scrittura così come li ha assortiti e pensati Apple, sono comodi e di facilissima fruizione. Non siamo noi a dover cercare le funzioni specifiche ma sono esse posizionate negli giusti spot e naturalmente ci vengono in aiuto. Se avete un iPhone probabilmente vi verrà molto naturale sfruttare anche solo una di queste nuove funzioni, esuli dal discorso dei "Chatbot".

APPLE INTELLIGENCE FUNZIONA MALE? PER FORTUNA!

E quindi sì, come dico nel video collegato a questo articolo il fatto che "Apple Intelligence ad oggi funzioni male, è un PRO". Questa affermazione, ovviamente provocatoria, ci restituisce un quadro piuttosto chiaro della situazione. Apple Intelligence ad oggi non è competitiva su molti fronti rispetto a Gemini e tutte le sue sfaccettature ma questo è naturale, è lecito. Stiamo paragonando funzioni che il 99% delle volte funzionano offline, grazie a quel Neural Engine, alla CPU e alla GPU del nostro smartphone super potente, ma non così potente come può essere una infrastruttura cloud di Google.

Su Android invece assistiamo a presentazioni di ore dove si parla di questi nuovissimi e potentissimi SoC, come il Dimensity 9400 o lo Snapdragon 8 Elite, ma anche Google che professa il suo Tensor G4, potente circa come un SoC medio gamma, come un SoC all'avanguardia per l'AI, mentre in realtà offline non riesce a ben gestire neanche un LLM come LLAMA 3.2 3B

Questo grafico d'altronde parla da sé: nella gestione di una AI offline le uniche soluzioni su smartphone ad oggi veramente "sfruttabili" sono Snapdragon 8 Elite e Apple A18 Pro. Quando Apple ci raccontava che questo nuovo A18 era fondamentale per la nuova Apple Intelligence non ci stavano raccontando fuffa, ma era veramente in previsione di questa Apple Intelligence offline. Se qui dentro ci fosse stato un Tensor G4 di Google, prodotto da Samsung, sarebbe stato un disastro, e lo ammetto nel mentre che vi scrivo con uno smartphone Google in tasca..

 vendite in aumento

Apple 08 Apr

Apple lavora a un iPhone 20 rivoluzionario, come accadde con iPhone X nel 2017

Apple 07 Apr

Raramente mi sono trovato d'accordo con il modo di ragionare di Apple, i suoi giri di parole per raccontarti il nuovo zoom 2X "di qualità ottica" come a farti capire che ci sia uno zoom 2X veramente ottico, quando in realtà è un 2X digitale ottimizzato come avviene su Google dai tempi di Google Pixel 2XL. Eppure qui, quando parliamo di Apple Intelligence, dove stanno forse facendo più fatica a far capire i loro intenti al grande pubblico, ma anche e soprattutto a quello appassionato, mi ritrovo perfettamente allineato con la loro idea.

Purtroppo ci ritroviamo in un momento e in un mondo "rapido", con la stessa semplicità con la quale fruiamo di contenuti "spazzatura" verticali su Instagram o TikTok ci aspettiamo progressi tecnologici che poi neanche apprezziamo realmente o sappiamo affrontare. E in tutta questa rapidità Apple, arrivando in ritardo, si è dovuta mettere a rincorrere gli altri facendo forse anche una comunicazione claudicante, non sempre chiara e trasparente sulle tempistiche e sullo stato dei lavori in corso.

 da oggi tutte le funzionalita AI si chiamano Gemini

Android 08 Feb

Ognuno ha le sue problematiche e tutti si sono "adattati": basti pensare a Google che nella sua rincorsa crea "Google Bard" e poi lo elimina da ogni annale per creare "Google Gemini", nel giro di qualche mese, confondendo le idee di tutti. Ma ad oggi Google Bard è un lontano ricordo, rimosso da probabilmente chiunque, e anche questo stato di confusione di Apple potrà essere un lontano ricordo, nel breve termine, se l'azienda americana sarà brava a districarsi nella questione di Siri e a collegare tutti i punti mancanti, il "dot-to-dot" che trovavamo sulla Settimana Enigmistica (e credo ancora si trovi).

Tutto ciò però non è facile e dovrà essere brava Apple in questo periodo a fare una buona comunicazione, far sapere il più possibile quale è il prossimo passo, come si sta evolvendo Siri, far fare magari delle "Demo" reali a qualcuno del settore che le possa raccontare, insomma andare oltre quelle chiacchiere che rischiano di minare un po' la sua reputazione.

Domani probabilmente mi sarò scordato già di metà delle funzioni che ho usato in questi giorni e ho testato per raccontarvele, forse continuerò ad utilizzare il correttore della grammatica quando scrivo degli articoli in viaggio, nelle note, forse creerò qualche Genmoji, probabilmente sfrutterò la Visione Intelligente con il Camera Control mentre sarò in qualche viaggio intercontinentale, ma sarà tutto probabilmente occasionale, non necessario e non di vitale importanza.

Non fate l'errore di delegare la vostra vita all'AI e ad un chatbot. Sì, può scrivere delle e-mail per voi, può riassumerle, può sbobinare un vocale, ma non rinunciate a quelle operazioni manuali che ogni tanto vi danno anche "metodo", vi fanno "apprendere", o diventerete soltanto "schiavi" dell'AI, mentre una AI Agentica, se e quando esisterà, andrà proprio nell'ottica di semplificarci e coadiuvare la nostra vita, la nostra giornata e forse a quel punto avrà senso renderla centrale nell'uso dei nostri dispositivi elettronici preferiti.

VIDEO


Read Entire Article