Negli scorsi giorni è diventata virale la notizia secondo cui l'intelligenza artificiale di Google, ad un utente, avrebbe consigliato di aggiungere la colla alla pizza affinché non si staccasse il formaggio. La storia, che inevitabilmente ha fatto il giro del mondo, sembra ora pronta ad arricchirsi con un nuovo capitolo.
Colin McMillen, uno sviluppatore di Bluesky, ha notato che durante la ricerca su "quanta colla aggiungere alla pizza", AI Overviews di Google forniva suggerimenti a riguardo sfruttando gli articoli che riportavano l'errore virale del colosso di Mountain View. Ma non finisce qua. Quando si chiede quanta colla aggiungere, l'AI suggerisce "un ottavo di tazza di colla", riprendendo il suggerimento ironico di Katie Notopoulos (successivamente il suggerimento è stato rimosso). Questo fenomeno ricorda il "Google bombing" degli anni 2000, quando i risultati di ricerca subivano la manipolazione associando parole chiave a collegamenti specifici
Le altre intelligenze artificiali, come Perplexity.AI e ChatGPT, invece, hanno riconosciuto che la colla sulla pizza è un meme e suggeriscono agli utenti di non utilizzarla visto che si tratta di un'azione pericolosa per la salute degli utenti.
Gli sforzi di Google per migliorare la funzionalità
Fin dall'esordio dell'implementazione dell'IA nella ricerca web, Google ha chiarito che le informazioni, per ora, non sono totalmente accurate. Del resto, come dimostra la vicenda della colla sulla pizza, i suggerimenti fuorvianti non sono mancati.
La compagnia di Big G, però, ha sempre difeso la sua funzionalità, spiegando che gli errori più virali provenivano da query piuttosto rare. La società, infatti, si è impegnata ad agire contro le informazioni più imprecise oppure pericolose. Di conseguenza, sono state "oscurate", a partire dall'ormai noto suggerimento di aggiungere della colla per non far staccare il formaggio dalla pizza.