Servizio clienti, giochi e persino telemedicina: preparatevi a un'invasione di "esseri umani digitali"

5 months ago 83

Da tempo parliamo di NVIDIA ACE, la tecnologia di IA generativa di NVIDIA intesa a portare capacità di interazioni "umane" ad avatar digitali che possono essere utilizzati nei personaggi non giocabili dei giochi (NPC).

Al Computex 2024, l'azienda ha fatto un passo successivo inteso ad accelerare la prossima ondata di "esseri umani digitali", e che secondo il CEO Jensen Huang sarà una vera e propria rivoluzione (a proposito di avatar digitali, sapete cos'è e come funziona Inworld AI?). 

Cos'è NVIDIA ACE

NVIDIA ACE (il cui acronimo significa Advanced Computing for Digital Human Experiences) è una suite di tecnologie per dare vita a esseri umani digitali, personaggi non giocanti (NPC) e avatar interattivi con l'intelligenza artificiale generativa.

Questa tecnologia, di cui abbiamo visto i primi risultati a inizio anno, consente di interagire con avatar digitali in maniera naturale, non solo nei giochi, ma anche nel servizio clienti di un'azienda o persino nella telemedicina.

NVIDIA ACE è una rivoluzione

Dopo aver mostrato le potenzialità della tecnologia e aver consentito agli sviluppatori di utilizzare ACE tramite NIM microservices sul cloud, ora NVIDIA ne estende la disponibilità a tutti i computer, implementando i NIM microservices ACE PC che possono essere utilizzati su 100 milioni di PC e laptop RTX AI.

Per il capo di NVIDIA Jensen Huang si tratta di una vera e propria rivoluzione, in grado di far fare un salto in avanti fondamentale nel settore degli esseri umani digitali.

La suite NVIDIA ACE ha una gamma completa di tecnologie di intelligenza artificiale generativa umana digitale. Ciascuno di questi strumenti è progettato per affrontare sfide specifiche nella creazione, animazione e gestione di avatar digitali realistici.

Tra questi strumenti ci sono NVIDIA Riva ASR (Automatic Speech Recognition), TTS (Text-to-Speech) e NMT (Neural Machine Translation), che consentono collettivamente un'interazione senza soluzione di continuità attraverso la voce.

Inoltre, NVIDIA Nemotron LLM (Large Language Model) consente agli esseri umani digitali di comprendere e generare risposte contestualmente rilevanti, mentre NVIDIA Audio2Face consente la creazione di animazioni del volto realistiche sincronizzate con gli ingressi audio.

C'è anche NVIDIA Omniverse RTX, che fornisce funzionalità di rendering tracciate in tempo reale per rendere la pelle e i capelli realistici.

Oltre alle sue offerte attuali, NVIDIA ha anche anticipato alcuni sviluppi imminenti del programma, come NVIDIA Audio2Gesture, che genererà gesti del corpo basati su segnali audio, e NVIDIA Nemotron-3 4.5B, un modello linguistico di piccole dimensioni, creato su misura per l'inferenza del PC RTX AI a bassa latenza sul dispositivo.

Jensen Huang, il visionario CEO di NVIDIA, ha evidenziato il ruolo fondamentale delle scoperte nei modelli multimodali di grande linguaggio e nella grafica neurale, forniti attraverso la suite ACE, nel rimodellare il panorama dell'interazione uomo-computer.

La visione di Huang si estende oltre i semplici progressi tecnologici, immaginando un futuro in cui l'interazione uomo-computer sia naturale e intuitiva come l'interazione da uomo a uomo, rivoluzionando di fatto i settori in cui è integrato.

È già disponibile

Per rendere più facile per gli sviluppatori l'accesso alle tecnologie ACE, NVIDIA prevede di distribuire i NIM microservices ACE PC (NVIDIA Inference Manager) in tutto il suo ecosistema di PC e laptop RTX AI.

Al momento bisogna registrarsi per ottenere un accesso in anteprima, mentre l'accesso su cloud è già disponibile. 

Per semplificare il processo di implementazione, NVIDIA ha introdotto il kit di sviluppo software NVIDIA AI Inference Manager, che semplifica la configurazione dei PC con i modelli, i motori e le dipendenze di intelligenza artificiale necessari. Questo toolkit garantisce l'orchestrazione senza soluzione di continuità dell'inferenza dell'IA tra i PC e il cloud, facilitando l'integrazione delle tecnologie ACE nei flussi di lavoro e nelle applicazioni esistenti.

Le applicazioni della tecnologia

Per mostrare le possibilità della tecnologia, NVIDIA ha creato una demo in Covert Protocol insieme a Inworld AI, utilizzando Audio2Face e Riva ASR in esecuzione localmente su un PC GeForce RTX. 

Nella demo si vede come i giocatori potranno interagire con gli NPC con un linguaggio conversazionale, influenzandone il comportamento e ottenendo aiuti per completare la loro missione.

Altri partner di invidia sono aziende come Aww Inc.

, Dell Technologies, Gumption, Hippocratic Al, Inventec, OurPalm, Perfect World Games, Reallusion, ServiceNow, Soulbotix, SoulShell e UneeQ.

Perfect World Games utilizza ACE per permettere ai giocatori interagire con un Al NPC completamente interattivo, realistico, multilingue, sia in inglese che in mandarino, con tanto di animazione facciale realistica tramite NVIDIA Audio2Face NIM.

Inventec utilizza invece NVIDIA Audio2Face NIM per migliorare il suo avatar virtuale Al all'interno della piattaforma sanitaria VRSTATE, con una demo in cui si vede come l'avatar sia in grado di aiutare i pazienti ad accedere alle informazioni sulla loro salute.

ServiceNow, la piattaforma Al per la trasformazione aziendale, ha recentemente presentato ACE NIM in una demo generativa che evidenzia il potenziale degli avatar digitali per migliorare le interazioni tra clienti e dipendenti in tutti i settori, tra cui vendita al dettaglio, viaggi e altro ancora.

Read Entire Article