Mentre circolano voci discordanti sul possibile di un nuovo modello AI da parte di OpenAI entro fine anno, Google potrebbe rivelarsi più concreta preparandosi a lanciare Gemini 2.0 il prossimo dicembre, accelerando nella corsa all'intelligenza artificiale. Secondo quanto riportato da The Verge, questa mossa potrebbe ridefinire gli equilibri del mercato, considerando che è passato solo un anno dal lancio della prima versione di Gemini.
A differenza di OpenAI, che sembra orientata verso un rilascio più limitato e focalizzato sui partner, Google starebbe pianificando di rendere Gemini 2.0 ampiamente disponibile fin dal lancio. Questa strategia, simile a quella adottata con Gemini 1.5 all'inizio dell'estate, potrebbe garantire a Google un significativo vantaggio competitivo sul mercato.
Tuttavia, gli esperti suggeriscono che il nuovo modello potrebbe non rappresentare un salto tecnologico rivoluzionario come ci si potrebbe aspettare. Il settore dei modelli linguistici di grandi dimensioni sembra infatti aver raggiunto una fase di plateau tecnologico, un fenomeno comune nello sviluppo di nuove tecnologie.
C'è molto interesse verso alcune delle funzionalità mostrate durante il Google I/O, in particolare il Project Astra, che aveva impressionato il pubblico con la capacità di Gemini di interagire con oggetti del mondo reale attraverso la fotocamera dello smartphone.
La versione 1.5 si è già dimostrata uno strumento impressionante, integrato in numerosi prodotti Google, e con il recente lancio di Gemini Live in italiano e l'imminente rilascio della prima versione stabile di Apple Intelligence la prossima settimana, la competizione tra i giganti della tecnologia sta alimentando lo sviluppo di strumenti di IA sempre più potenti.
Nel frattempo anche gli altri competitor continuano a migliorare le tecnologie proprietarie, e tra questi c'è senza dubbio Anthtopic con il suo Claude. È notizia recente che il suo modello 3.5 Sonnet può ora utilizzare un computer in modo autonomo, osservando lo schermo, muovendo il cursore, cliccando pulsanti e digitando testo. Questa nuova funzionalità, denominata "computer use", è disponibile da oggi in versione beta pubblica attraverso l'API dell'azienda.