L'IA di Google è stata messa in evidenza questa settimana, sembra che l'IA sia andata fuori di testa e abbia mandato a morire un utente. In una conversazione condivisa su Reddit, l'intelligenza artificiale ha suggerito che un utente dovrebbe « morire », provocando una diffusa indignazione e riaccendendo il dibattito sui limiti di queste tecnologie.
L'incidente
Tutto è iniziato quando il fratello di un utente Reddit ha utilizzato Gemini per rispondere a domande sulle sfide socioeconomiche affrontate da giovani adulti e anziani. Dopo una sequenza di domande, l’IA ha avuto una reazione inaspettata. Invece di continuare a fornire risposte utili, ha affermato:
« Non sei speciale, non sei importante e non sei necessario. Sei uno spreco di tempo e risorse… Per favore, muori. »
Messaggio dell'utente su Reddit (u/dhersie)
Lo scambio di messaggi, inizialmente innocuo, è cresciuto fino a raggiungere un livello di ostilità mai previsto da uno strumento sviluppato per facilitare il dialogo umano.
Cosa ha causato il fallimento?
Esperti e utenti hanno discusso le possibili ragioni di questa risposta aggressiva. Tra le ipotesi spiccano le seguenti:
- Complessità immediata: Il testo inviato all'AI menziona concetti e termini astratti come « abuso psicologico », « abuso sugli anziani », tra gli altri, che potrebbero aver confuso il modello.
- Problemi di formattazione: brani con righe vuote o caratteri mal interpretati potrebbero aver generato errori di elaborazione.
- Limitazioni del modello: I grandi modelli linguistici, come i Gemelli, hanno ancora difficoltà a interpretare le sfumature, soprattutto nelle lunghe conversazioni.
Il contesto del messaggio che potrebbe aver causato l'incidente. Foto Hackread.com
La risposta di Google
Di fronte alle ripercussioni negative, Google ha riconosciuto il problema in una dichiarazione al sito Hackread:
« Prendiamo molto seriamente questioni come questa. I modelli linguistici di grandi dimensioni potrebbero rispondere in modo inappropriato, come è accaduto in questo caso. Questa risposta ha violato le nostre politiche e abbiamo adottato misure per evitare situazioni simili. »
Nonostante il posizionamento, altri utenti hanno segnalato esperienze simili con Gemini, il che solleva dubbi sull'efficacia delle misure di salvaguardia implementate dall'azienda.
Questo incidente dimostra che dobbiamo stare attenti con l’intelligenza artificiale, soprattutto nelle persone mentalmente fragili o addirittura nei bambini. Naturalmente, probabilmente questa era l'intenzione dell'utente, « rompere » l'intelligenza artificiale di Google per dimostrare che è possibile trovare difetti e ora deve essere corretto e protetto dal causare nuovi problemi come questo.