Google mette a punto il suo controverso chatbot con IA evoluta

2 years ago 178

Google continua a portare avanti lo sviluppo del suo modello sperimentale di IA conversazionale LaMDA 2 (Language Model for Dialogue Applications) presentato nel corso dell'ultima edizione del I/O. Passato agli onori della cronaca per essere stato la causa del licenziamento del dipendente che aveva definito senziente la nuova IA, LaMDA 2 sarà impiegato in un chatbot con il quale gli utenti finali possono iniziare ad interagire.

AVVIATI I TEST CON GLI UTENTI FINALI


Nelle scorse ora la casa di Mountain View ha iniziato a raccogliere le prenotazioni per partecipare al programma di test, per ora limitato al mercato statunitense e relativo ad un chatbot che sarà disponibile inizialmente solo per un numero limitato di utenti Android per poi raggiungere nelle prossime settimane anche iOS.

Il chatbot, con il quale si potrà interagire utilizzando un linguaggio naturale, è racchiuso nell'app AI Test Kitchen che metterà a disposizione una serie di demo sperimentali. Non si tratta ancora di prodotti finiti, ma serviranno a dare un'idea delle potenzialità dell'intelligenza artificiale messa a punto da Google. Alcuni esempi:

  • Imagine It: consentirà di nominare un luogo e offrirà percorsi per esplorarlo con la propria immaginazione;
  • List It: l'utente comunicherà un obiettivo o un argomento e il chatbot lo suddividerà in un elenco di sotto-attività;
  • Talk About It (Dogs Edition): servirà a dimostrare la capacità dell'IA di continuare ad intrattenere una conversazione su un argomento (i cani nel caso specifico) anche quando l'utente prova ad andare fuori tema.


Google non fa mistero che uno degli obiettivi della sperimentazione riguarda l'individuazione sia del potenziale sia dei rischi del modello LaMDA 2. Alcune risposte date dal chatbot potrebbe infatti risultare imprecise e inadeguate, nonostante l'opera di affinamento compiuta nel corso dell'ultimo anno dal team di sviluppo. Google ha lavorato per esempio per far sì che venga filtrata automaticamente qualsiasi risposta che potrebbe contenere frasi ed espressioni offensive, violente o illegali.

Per sviluppare responsabilmente un'IA evoluta serve ora la collaborazione di chi di fatto si dovrà interfacciare con essa, dice Google:

In conformità con i nostri Principi in materia di intelligenza artificiale, riteniamo che il progresso responsabile non possa avvenire in isolamento. Siamo al punto in cui il feedback esterno è il prossimo e più utile passo per migliorare LaMDA. Quando valuterete ogni risposta come piacevole, offensiva, fuori tema o falsa, utilizzeremo questi dati - che sono collegati al vostro account Google - per migliorare e sviluppare i nostri futuri prodotti. Vogliamo che AI Test Kitchen sia sicuro, divertente ed educativo e non vediamo l'ora di innovare insieme in modo responsabile e trasparente.


Read Entire Article