NVIDIA non ha portato al CES "solo" le nuove GPU GeForce RTX 40 SUPER dal prezzo irresistibile (qui trovate il nostro articolo dedicato), ma ha anche presentato la sua nuova tecnologia NVIDIA ACE, che dà vita ai personaggi non giocabili (NPC) e ora è stata abbracciata dai maggiori studi di sviluppo di videogiochi.
Come? Grazie all'intelligenza artificiale generativa: vediamo come funziona, e già che siamo in tema vi ricordiamo il nostro approfondimento su Inworld AI, una piattaforma che si propone di creare avatar e personaggi realistici e che si appoggia proprio su questo sistema.
NVIDIA ACE (Avatar Cloud Engine) è un insieme di tecnologie (ACE Microservices) che avevamo già incontrato lo scorso anno al Computex e che promette di ridefinire l'esperienza di gioco integrando personaggi realistici e generati dinamicamente nei mondi virtuali.
L'Avatar Cloud Engine combina il riconoscimento speech-to-text e le risposte text-to-speech di NVIDIA Riva ASR (Authomatic Speech Recognition) con l'animazione facciale generativa AI (NVIDIA Audio2Face - A2F) e i personaggi automatizzati grazie a NVIDIA NeMo, un modello di linguaggio di grandi dimensioni personalizzabile.
Questa potente combinazione consente conversazioni naturali tra giocatori e personaggi generati dall'IA, il che rappresenta una nuova era nel realismo del gioco in quanto gli NPC sono sempre stati limitati nelle loro interazioni. E quindi per lo più snobbati dai giocatori.
Al CES NVIDIA ha presentato una versione aggiornata del sistema presentato al Computex 2023, e in cui si vedevano due personaggi generati dall'IA, Jin e Nova, impegnati in una conversazione realistica. Ora l'azienda ha sviluppato ulteriormente il concetto, con una nuova demo in cui il motore è in grado di interpretare il discorso e generare risposte con i movimenti facciali sincronizzati, e infatti si vede Jin rispondere a un suggerimento tirando fuori una bottiglia di alcol.
L'azienda ha collaborato con Convai per introdurre nuove funzionalità, come la possibilità per gli NPC di parlare tra loro, essere consapevoli degli oggetti che li circondano (che possono prendere e spostare) e, soprattutto dar loro la capacità di aiutare i giocatori a raggiungere i loro obiettivi.
E ora queste tecnologie sono disponibili per gli sviluppatori, che possono integrare i modelli di intelligenza artificiale generativa individualmente negli avatar digitali dei loro giochi e applicazioni, così sbloccando nuovi casi d'uso ed esperienze per gli NPC e fornendo ai giocatori interazioni dinamiche e convincenti che prima erano impossibili.
Ma chi sono questi sviluppatori? A quanto pare la tecnologia ha convinto gli studi più importanti, e infatti hanno già dichiarato la loro adesione al progetto sviluppatori di giochi e avatar interattivi come Charisma.AI, Convai, Inworld, miHoYo, NetEase Games, Ourpalm, Tencent, Ubisoft e UneeQ.
La tecnologia è sicuramente dirompente, e le collaborazioni con Tencent e Ubisoft ci fanno sperare di vedere a breve le prime applicazioni, ma resta un punto da definire: su quali dati è stato allenato il modello di linguaggio di grandi dimensioni NeMo? Come ogni modello IA, questi strumenti devono essere addestrati, e sappiamo bene dai guai giudiziari di OpenAI e Stability come spesso questo comporti l'utilizzo di dati disponibili su Internet, ma non liberi da copyright.
L'azienda ha dichiarato di aver allenato i suoi strumenti su diversi set di dati senza entrare nello specifico, ma ponendo l'accento su una natura modulare dei componenti, e quindi su un approccio di formazione diversificato.