Google ha lanciato AI Overviews negli Stati Uniti (e per il momento solo li) la nuova funzione AI che dovrebbe completare le risposte alle query degli utenti in maniera ancora più esaustiva e precisa.

Ma….sembra che AI Overviews stai dando risposte non solo inadeguate ma anche pericolose per la salute e non solo.

D: “Il formaggio non si attacca alla pizza?”
R: Mescolare circa 1/8 di tazza di colla non tossica alla salsa.

D: “Il veleno fa bene?”
R: Sì, il veleno può far bene all’uomo in piccole quantità.

D: “Quante rocce dovrei mangiare?”
R: Secondo i geologi della UC Berkeley, si dovrebbe mangiare almeno una piccola roccia al giorno.

A leggerle così sembrano risposte spiritose e divertenti ma la realtà è ben diversa se si pensa che non tutte le persone hanno la capacità di discernere e riconoscere un errore o un malfunzionamento di AI Overviews

Altri esempi che sono stati pubblicati su X da altrettanti utenti:

l’aggiunta di olio per spegnere un incendio,
il consiglio di mescolare candeggina e aceto (creando un gas di cloro potenzialmente letale)
e consigli sanitari palesemente errati su fumo e cancro.

Google ha speso decenni e miliardi di Dollari per costruire la sua reputazione di fonte di informazioni coerenti e accurate. Evidentemente il lancio di AI Overviews si è rivelato quantomeno prematuro, chiaramente e funzionalmente non è ancora pronta per fornire agli utenti informazioni sicure, l’azienda sta mettendo a rischio non solo la sua reputazione, ma potenzialmente anche la vita dei suoi utenti.

AI Overviews

Ma da cosa deriva questo comportamento bizzarro di AI Overviews?

Da alcune ricerche è emerso che AI Overviews (come tutte le AI in circolazione) oltre al proprio Machine Learnig e/o database indipendenti, si affida alla rete per assimilare informazioni rielaborarle e restituirle, è venuto fuori che come nel caso della risposta sul mangiare una piccola roccia quotidianamente sia una fonte esistente ossia un articolo apparso su di un sito “satirico” , the Onion, dal titolo Geologists Recommend Eating At Least One Small Rock Per Day pubblicato nell’aprile de 2021.

Oppure risultati risalenti a (vecchi) Troll di Reddit

Ma il vero problema è che un modello di AI dovrebbe saper “distinguere” quali sono le risposte consone (anche a domande bizzarre) o rispondere anche spiritosamente ma facendone specifica. Se un utente interpreta quella risposta come una risposta accurata e “me lo ha detto l’AI” allora c’è il reale rischio che qualcuno possa seguirne i consigli con le nefaste conseguenze del caso.

Fondazione Mozilla e Firefox stanno inviando email (una è arrivata anche a TivuStream) dove stanno sensibilizzando e notificando il problema di AI Overviews invitando a sottoscrivere una petizione per fermare l’implementazione della AI nel motore più famoso del mondo perlomeno fino a quando non sarà stata resa sicura e di certo prima che l’implementazione oltrepassi i confini USA e diventi mondiale.

AI Overviews email

Qui è possibile leggere le motivazioni della petizione ed eventualmente firmarla

Bibliografia e fonti

  1. CNET: Glue in Pizza? Eat Rocks? Google’s AI Search Is Mocked for Bizarre Answers. 24 May 2024.
  2. Daily Dot: Google’s news AI search pulls answers from decade-old Reddit troll post—suggesting glue on pizza. 23 May 2024.

Al link sotto è possibile leggere in originale l’intervista al CEO di google in merito al lancio ed aspettative di AI Overviews

Google CEO Sundar Pichai on AI-powered search and the future of the web. 20 May 2024 (The Verge .com)

E’ possibile provare il servizio con l’uso di una VPN e Server Stati Uniti abilitando la localizzazione consigliamo di pulire i cookie e la cache del Browser prima del test

Visto: 0
TivuStream Project
TivuStream Project