un bel problema
La maggior parte degli scenari parte dallo stesso punto: un giorno le macchine supereranno le capacità umane, perderanno il controllo e rifiuteranno di essere spente.
« Una volta che abbiamo macchine che mirano all’autoconservazione, siamo in grossi guai », ha detto lo studioso di intelligenza artificiale Yoshua Bengio durante una conferenza questo mese.
Ma poiché queste macchine non esistono ancora, immaginare come potrebbero condannare l’umanità è spesso compito della filosofia e della fantascienza.
Una volta che avremo macchine che mirano all’autoconservazione, avremo un bel problema.
Il filosofo svedese Nick Bostrom ha parlato di una « esplosione di intelligenza », che avverrà quando macchine superintelligenti cominceranno a progettare a loro volta altre macchine.
Le idee di Bostrom sono state respinte da molti come fantascienza, anche perché una volta sosteneva che l’umanità è una simulazione al computer e sosteneva teorie vicine all’eugenetica.
Di recente si è anche scusato dopo che è stato smascherato un messaggio razzista che ha inviato negli anni ’90.
Tuttavia, i suoi pensieri sull’intelligenza artificiale sono stati molto influenti, ispirando sia Elon Musk che il professor Stephen Hawking.
Terminatore
Se le macchine superintelligenti distruggeranno l’umanità, avranno sicuramente bisogno di una forma fisica.
Il cyborg dagli occhi rossi interpretato da Arnold Schwarzenegger in Terminator ha dimostrato di essere un’immagine sorprendente.
Ma gli esperti hanno respinto l’idea. « È improbabile che questo concetto di fantascienza diventi realtà nei prossimi decenni, se non mai », ha scritto un gruppo di attivisti di robot contro la guerra, Stop Killer Robots, in un rapporto del 2021.
È improbabile che questo concetto di fantascienza diventi realtà nei prossimi decenni.
Tuttavia, il gruppo ha avvertito che dare alle macchine il potere di prendere decisioni sulla vita e sulla morte è un rischio esistenziale.
L’esperta di robotica Kerstin Dautenhahn, dell’Università di Waterloo in Canada, ha minimizzato queste paure.
È improbabile, ha detto ad AFP, che l’intelligenza artificiale dia alle macchine maggiori capacità di ragionamento o instilli in loro il desiderio di uccidere tutti gli umani.
« I robot non sono cattivi », ha detto, anche se ha ammesso che i programmatori possono fargli fare cose cattive.