Un team di ricercatori della Beijing University of Posts and Telecommunications (BUPT) ha sviluppato PhoneLM, un nuovo modello linguistico pensato specificatamente per l'uso dell'intelligenza artificiale sui dispositivi mobili. L'obiettivo di questa soluzione è affrontare uno dei principali ostacoli nell'utilizzo dei Large Language Models (LLM) su smartphone: la necessità di bilanciare prestazioni ed efficienza.
A differenza dei modelli linguistici di grandi dimensioni come ChatGPT, che richiedono notevoli risorse computazionali, PhoneLM appartiene alla categoria dei Small Language Models (SLM), progettati specificamente per funzionare in modo ottimale su dispositivi con risorse limitate. La vera innovazione di questo approccio risiede nel suo processo di sviluppo: invece di seguire il tradizionale percorso di ottimizzazione post-addestramento, il team ha prima identificato l'architettura più efficiente per l'hardware di destinazione.
Il dottor Mangwei Xu, autore senior dello studio, spiega che le ricerche precedenti hanno dimostrato come la configurazione del modello (ampiezza e profondità) influisca maggiormente sull'efficienza operativa rispetto alle capacità linguistiche. Questa intuizione ha portato a un approccio innovativo chiamato "ahead-of-pretraining architecture search", dove l'ottimizzazione dell'architettura precede la fase di pre-addestramento.
PhoneLM mantiene la struttura base dei modelli linguistici tradizionali, ma si distingue per come viene progettato: i ricercatori cercano i parametri architetturali ottimali (come ampiezza, profondità e numero di nodi) direttamente su uno smartphone di fascia alta, selezionando la configurazione che offre la massima velocità di inferenza. Solo successivamente il modello viene addestrato con dati di alta qualità.
I test iniziali hanno prodotto risultati sorprendenti: PhoneLM ha dimostrato una velocità di esecuzione notevolmente superiore rispetto ad altri LLM di dimensioni simili, mantenendo al contempo prestazioni all'avanguardia nell'elaborazione del linguaggio naturale. Questo successo dimostra che è possibile ottenere un'intelligenza artificiale efficiente su dispositivi mobili senza compromettere significativamente le capacità di elaborazione linguistica.
Un aspetto particolarmente interessante di questo progetto è la sua trasparenza: i ricercatori hanno reso pubblicamente disponibili sia il codice che una dimostrazione Android completa di una versione ottimizzata di PhoneLM su GitHub. Questa condivisione aperta potrebbe accelerare ulteriori sviluppi e miglioramenti del modello.
Il team non intende fermarsi qui: sono già in corso lavori per sviluppare una famiglia più avanzata di modelli PhoneLM, che includerà funzionalità multimodali e un sistema di "mixture of experts". Inoltre, i ricercatori stanno esplorando la possibilità di creare un assistente virtuale mobile basato su questo modello linguistico on-device. La possibilità di avere un'IA potente ed efficiente direttamente sul proprio smartphone, senza dipendere da connessioni cloud, apre nuove prospettive per l'utilizzo dell'intelligenza artificiale in mobilità.