COME migliori offerte,
nessuna coda attaccataGrandi nomi del settore dell’intelligenza artificiale hanno firmato un comunicato sul “rischio di estinzione” che la tecnologia crea per il mondo. L’allerta è stata data da Sam Altman, CEO di OpenAI; Demis Hassabis, capo di Google DeepMind; Geoffrey Hinton e Yoshua Bengio, ricercatori considerati i padrini dell’IA moderna; e più esperti.
DeepMind crea Intelligenza Artificiale che risolve i problemi di programmazione (immagine: riproduzione/DeepMind)
« Mitigare il rischio di estinzione dell’IA deve essere una priorità globale », afferma la dichiarazione, « insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare ».
L’avviso è stato pubblicato dal Center for AI Safety, un’organizzazione senza scopo di lucro con la missione di « ridurre i rischi dell’intelligenza artificiale su scala sociale ». Il direttore esecutivo dell’entità, Dan Hendrycks, dice al New York Times che la dichiarazione è breve – solo 22 parole in inglese – per evitare disaccordi tra le persone che l’hanno firmata.
Nessuna soluzione per i rischi dell’IA (per ora)
OK, ma cosa fare al riguardo? La dichiarazione non lo dice, perché l’obiettivo è aprire la discussione pubblica a più specialisti. « C’è un malinteso molto comune, anche nella comunità dell’IA, secondo cui ci sono pochissimi oppositori », dice Hendrycks al ORA. « Ma in realtà, molte persone esprimono le loro preoccupazioni in privato su questo problema ».
La dichiarazione è accompagnata da una spiegazione: vuole « creare una conoscenza comune del numero crescente di esperti e personaggi pubblici che prendono sul serio anche alcuni dei rischi più gravi dell’IA avanzata ».
Esistono tre punti di vista principali sui rischi dell’IA:
- alcuni immaginano ipotetici scenari più apocalittici, dove l’IA diventa indipendente e impossibile da controllare;
- altri sono più scettici, sottolineando che l’IA riesce a malapena a svolgere compiti come guidare un’auto, nonostante gli investimenti miliardari nel settore;
- e c’è chi ricorda i rischi più immediati dell’IA, che i futuristi potrebbero finire per minimizzare, come il suo uso improprio per deepfake, fake news automatizzate e perdita di posti di lavoro.
Nonostante il rapido progresso degli LLM (large language models), che hanno reso famoso ChatGPT, il dibattito sull’AI è ancora in fase di maturazione. OpenAI, Microsoft e DeepMind hanno chiesto la regolamentazione dell’intelligenza artificiale.
« Esperti di intelligenza artificiale, giornalisti, responsabili politici e il pubblico in generale discutono sempre più di un ampio spettro di rischi importanti e urgenti per l’IA », ha dichiarato il Center for AI Safety nella dichiarazione. « Anche così, può essere difficile esprimere preoccupazioni su alcuni dei rischi più gravi dell’IA avanzata ».
Per il presidente degli Stati Uniti Joe Biden, « l’intelligenza artificiale può aiutare ad affrontare alcune sfide molto difficili, come le malattie e il cambiamento climatico, ma dobbiamo anche affrontare i potenziali rischi per la nostra società, la nostra economia e la nostra sicurezza nazionale ».
Con informazioni: The Verge e Engadget.
ChatGPTDeepMindIntelligenza artificialeBig Language ModelOpenAIJoe BidenMicrosoftThe New York Times