Le intelligenze artificiali generative hanno drasticamente cambiato il nostro approccio all'informazione e ai modi in cui interagiamo con la tecnologia, ma la loro affidabilità rimane un tema ancora al centro di molte discussioni. Secondo un recente report di TechCrunch, Google avrebbe modificato le proprie politiche di valutazione per Gemini, il suo chatbot AI, in un modo che potrebbe comprometterne l'accuratezza delle risposte.
Come noto, il processo di addestramento di un modello AI è molto complesso e richiede non solo enormi quantità di dati, ma anche un'attenta valutazione della qualità delle risposte generate. Per chi non lo sapesse, questa valutazione viene tipicamente affidata a contractor esterni che verificano l'accuratezza e l'appropriatezza dei contenuti prodotti dall'intelligenza artificiale.
La novità emersa dal report riguarda proprio questi valutatori: secondo le nuove politiche aziendali, non avrebbero più la possibilità di saltare la valutazione di risposte che trattano argomenti al di fuori delle loro competenze specifiche. In pratica, si troverebbero costretti a valutare contenuti anche in ambiti nei quali non possiedono expertise, limitandosi a lasciare una nota che segnala la loro mancanza di competenza in materia.
Questa modifica rappresenta un cambiamento significativo rispetto alla prassi precedente, dove i valutatori potevano astenersi dal giudicare risposte su temi che non padroneggiavano. Le uniche eccezioni alla nuova regola riguarderebbero casi in cui mancano informazioni chiave che rendono la risposta incomprensibile o quando vengono generati contenuti potenzialmente dannosi.
La questione solleva preoccupazioni legittime sulla qualità complessiva del sistema, soprattutto considerando che Gemini viene utilizzato anche per ottenere informazioni su temi sensibili come la salute. Come può un valutatore senza background medico giudicare l'accuratezza di una risposta su questioni sanitarie?
Al momento Google non ha rilasciato dichiarazioni ufficiali sulla questione. È possibile che l'azienda abbia implementato altre misure compensative per mantenere elevati standard di accuratezza, ma la mancanza di trasparenza alimenta i dubbi della comunità tech.
Nonostante i progressi impressionanti dimostrati da sistemi come ChatGPT, Copilot di Microsoft e lo stesso Gemini, esperti del settore continuano a raccomandare cautela, specialmente quando si tratta di fare affidamento su questi strumenti per decisioni importanti. In attesa di chiarimenti da parte di Google, la raccomandazione per gli utenti rimane quella di utilizzare questi strumenti con consapevolezza critica, verificando le informazioni importanti attraverso fonti autorevoli e specializzate, specialmente quando si tratta di temi sensibili come la salute o decisioni finanziarie.