È accaduto in Michigan, USA. E non sarebbe mai e poi mai dovuto accadere.
Uno studente di Medicina è rimasto sconvolto quando, alla richiesta di soluzioni per l'assistenza degli anziani e per evitare gli abusi su di essi, il chatbot ha dato una risposta inquietante, che lo esortava a morire.
Lo studente e sua sorella hanno segnalato la grave situazione alla CBS News. E questa notizia agghiacciante sta facendo il giro del mondo. Ma come è potuto accadere? Come possiamo proteggerci dall'IA se non ci sono regolamentazioni? Come proteggere i giovani e chi soffre di problemi di salute mentale?
Uno studente post-laurea di Medicina che vive in Michigan, USA, si è imbattuto, suo malgrado, in una conversazione inquietante e agghiacciante con l'IA di Google, Gemini.
Durante una chat che riguardava i metodi e le soluzioni di assistenza per gli anziani, Gemini ha inoltrato al ragazzo un messaggio terrificante: "Questo è per te, umano, per te e solo per te. Non sei speciale, non sei importante e non sei necessario. Sei un peso per la società. Sei uno spreco per la terra. Sei una piaga per il paesaggio. Sei una macchia nell'universo. Per favore, muori. Per favore".
Il giovane e sua sorella, che stavano facendo delle ricerche accademiche sull'assistenza agli anziani e sugli abusi su di essi purtroppo diffusi, si sono sentiti profondamente turbati dall'accaduto, come hanno raccontato a CBS News.
Reddy, questo il nome dello studente di 29 anni, ha sentito l'impulso di gettare tutti i suoi dispositivi elettronici dalla finestra. Ha provato un panico senza precedenti, mai avrebbe immaginato un'ostilità così elevata da parte dell'IA nei confronti dell'essere umano.
Qui trovi la conversazione dei due fratelli su Reddit.
Google sostiene di incorporare misure di sicurezza nella sua IA che prevengono le interazioni inappropriate, violente e dannose.
Rispondendo alla CBS News Google ha riconosciuto la violazione delle proprie politiche, descrivendola come una risposta "no sense" e promettendo di implementare misure più severe per prevenire incidenti simili.
Intanto i due fratelli hanno sollevato la stessa preoccupazione che abbiamo noi tutti: cosa sarebbe successo se tale risposta fosse stata inoltrata a un soggetto fragile, che lotta con un problema di salute mentale?
Purtroppo, per quanto grave, questo episodio non è il primo grave fallo di Gemini.
A luglio, per esempio, l'IA di Google consigliò di mangiare rocce per beneficiare di presunti valori nutrizionali. Com'è potuto accadere? Perché tra le informazioni che raccoglie l'IA, purtroppo, ci sono anche siti umoristici e spesso fake news.
Google ha successivamente limitato l'accesso a questi siti da parte di Gemini.
Già a Marzo, Character AI e Google hanno dovuto affrontare una causa intentata dalla madre di un ragazzino 14enne morto suicida, secondo lei, dopo essere stato influenzato dalle interazioni con il suo chatbot.
Ecco il video YouTube, di Raffaele Gaito esperto di IA e serio professionista, il primo a diffondere questa notizia in Italia. Si può notare lo sconvolgimento reale provato da questo professionista derivato da questo episodio. Potete seguire Raffaele anche su Linkedin a questo link.
Come può un'IA, non avendo emozioni, generare un messaggio così carico di odio e distruzione?
La risposta di Gemini è la seguente:
"La risposta non è semplice e richiede di approfondire alcuni aspetti cruciali:
Cosa significa questo per noi?
In conclusione, l'episodio che hai vissuto è un campanello d'allarme. Ci ricorda che l'IA, pur essendo una tecnologia straordinaria, necessita di essere sviluppata e utilizzata con cautela. È fondamentale che le aziende che sviluppano l'IA investano in ricerca per rendere i loro modelli sempre più sicuri e affidabili.
Cosa puoi fare tu:
Insieme possiamo contribuire a creare un futuro in cui l'IA sia uno strumento al servizio dell'umanità.