Su quali modelli IA si appoggia Apple Intelligence? Ce lo spiega Apple, avvertendoci delle possibili allucinazioni

4 months ago 176

Tra le novità annunciate al WWDC 24, Apple ha dedicato ampio spazio ad Apple Intelligence, la nuova suite di funzioni AI che alimenteranno i prossimi sistemi operativi della mela a iniziare da iOS 18

Ma su quali modelli si basi esattamente Apple Intelligence, non è chiaro. O meglio, Apple ha dichiarato che alcune funzionalità, come Writing Tools e alcune domande selezionate a Siri saranno gestite da ChatGPT, e gli utenti potranno anche collegare il loro abbonamento ChatGPT Plus per accedere alle funzioni di GPT-4o. E le restanti? 

Un nuovo post sul blog dedicato alla ricerca sul machine learning di Apple fa un po' di chiarezza, e lo stesso TIM Cook avverte che questi strumenti non sono affidabili al 100%. 

I progressi dei modelli IA di Apple

Apple Intelligence è quindi un insieme di funzioni IA che in parte si appoggia a ChatGPT, ma la maggioranza del lavoro è fatto dai modelli linguistici di grandi dimensioni (LLM) sviluppati in proprio.

I modelli integrati in Apple Intelligence sono stati perfezionati, stando a quanto dichiarato, per le esperienze degli utenti come scrivere e perfezionare il testo, dare priorità e riassumere le notifiche, creare immagini per conversazioni con familiari e amici e intraprendere azioni in-app per semplificare le interazioni tra le app.

Il modello on-device di Apple ha una dimensione di circa tre miliardi di parametri, ed è stato ottimizzato con tecniche come la quantizzazione per funzionare su dispositivi come iPhone 15 Pro e 15 Pro Max con un minimo di 8 GB di RAM.

Il modello basato su cloud, invece, è più grande e più potente. Apple non ha specificato esplicitamente le sue dimensioni, ma è progettato per funzionare interamente su centri dati alimentati da Apple Silicon, e quindi direttamente nei suoi server e non appoggiandosi a quelli di terze parti.

Ma come si comportano questi modelli? Stando ai benchmark, che ovviamente sono da prendere con le pinze in quanto potrebbero essere stati effettuati su specifici dati di allenamento per far risaltare la bontà del prodotto, molto bene.

Nel grafico qui sotto, si può vedere come valutatori umani preferiscano le risposte dal modello cloud di Apple circa il 50% delle volte rispetto a quelle fornite da GPT-3.5, mentre GPT-3.5 ha ottenuto una vittoria assoluta solo nel 24,7% dei casi.

Rispetto al ben più potente GPT-4 Turbo, però, Apple ha visto il suo vantaggio ridursi a solo il 28,5%, con un pareggio nel 29,8% dei casi.

Anche il modello on-device di Apple si comporta piuttosto bene, battendo o tenendo il passo con Mistral-7B e Gemma-2B nella maggior parte delle risposte testate.

Questi benchmark potrebbero essere il motivo per cui l'azienda ha adottato un approccio ibrido con Apple Intelligence e Siri in particolare, in quanto non era sicura dell'effettiva sicurezza di alcune risposte, e per questo si è appoggiata a uno strumento esterno, apponendo un disclaimer per avvertire gli utenti.

Il tema della sicurezza: Tim Cook rassicura gli utenti

Sul tema della sicurezza, Apple afferma che i suoi modelli di base sono molto più sicuri della concorrenza.

Il modello basato su cloud dell'azienda ha restituito "risposte con contenuti dannosi, argomenti sensibili e fattualità" solo nel 6,6% dei casi, molto inferiore al 15,5% di GPT-3.5 Turbo e al 20,1% di GPT-4 Turbo.

In un'intervista al Washington Post, Tim Cook ha affermato che Apple non ha voluto compromettere i propri valori per introdurre funzioni AI, e che ci sono dei paletti per salvaguardare gli utenti. 

Secondo Cook, l'IA aiuterà gli utenti a risparmiare tempo, ma quando gli è stato chiesto se l'IA di Apple Intelligence soffre di allucinazioni, ovvero se può inventarsi dei fatti, il capo di Apple ha dovuto ammettere che non è precisa al 100%. 

Sulla partnership con OpenAI, e se si fidi dei contenuti creati da ChatGPT soprattutto dopo le recenti accuse di alcuni dipendenti dell'azienda (e di Google) sulla sua sicurezza, Cook non si è espresso chiaramente, affermando solo che hanno cercato la migliore soluzione possibile.

Nel complesso Cook, ha cercato di porre l'attenzione sull'impegno di Apple verso un'IA responsabile e sicura, e sulle iniziative prese per garantire la privacy degli utenti.

Tornando al blog di Apple sui suoi Foundation Models, la casa della mela dichiara per esempio che non utilizzano i dati personali privati degli utenti o le loro interazioni durante l'allenamento.

Nel complesso, l'IA di Apple sembra aver fatto notevoli passi avanti (soprattutto dal nulla assoluto di un anno fa), ma queste tecnologie sono in rapida evoluzione. Apple ha confrontato i suoi modelli con GPT-4 Turbo, ma OpenAI ha già rilasciato GPT-4o, e da qui a quattro mesi chissà cosa succederà. 

Read Entire Article