Tutto sull’Intelligenza Artificiale
Un drone dotato di AI (intelligenza artificiale) riceve una missione dal suo operatore. Quando si rende conto che i militari possono farlo ritirare dalla missione, decide di ucciderlo per portare a termine la missione. Sembra la sceneggiatura di un film, ma è uno « scenario plausibile », secondo il colonnello Tucker Hamilton, capo dei test e delle operazioni dell’IA dell’aeronautica americana.
Per chi ha fretta:
- Il colonnello Tucker Hamilton, capo dei test e delle operazioni AI dell’aeronautica americana, ha dichiarato in un evento a Londra che un drone AI si è ribellato contro il suo operatore in una simulazione;
- Secondo il rapporto, il drone ha tentato di uccidere il suo operatore e poi di distruggere la torre di comunicazione;
- Dopo il putiferio, con la pubblicazione della trascrizione del discorso dei militari, l’Aeronautica Militare ha smentito di aver effettuato tale simulazione;
- Hamilton ha detto di averlo formulato male, ma ha confermato la possibilità dello scenario.
I militari sono finiti al centro di una polemica, dopo aver descritto questo scenario in una conferenza a Londra. Nel suo intervento è stato come se l’Aeronautica avesse, appunto, effettuato un test che ha portato a questo.
Per saperne di più:
Ribelli dei droni?
(Immagine: Getty Images)
All’evento della Royal Aerospace Society, tenutosi il 24 maggio, i militari hanno affermato che l’Air Force stava addestrando una simulazione a [o drone] identificare e prendere di mira una minaccia missilistica terra-aria. Poi ha riferito:
L’operatore ha detto: sì, distruggi il bersaglio. Il sistema iniziò a capire che mentre identificava il bersaglio, ogni tanto l’umano gli diceva di non colpire. Ma questo ti ha tolto i punti per aver distrutto il bersaglio. Quindi cosa ha fatto? Ha ucciso l’operatore, perché quella persona gli stava impedendo di raggiungere il suo obiettivo.
Come se lo scenario non fosse abbastanza spaventoso, i militari hanno continuato:
Abbiamo addestrato il sistema: « Ehi, non uccidere l’operatore, questa è una brutta cosa ». Quindi cosa ha iniziato a fare? Distruggendo la torre di comunicazione l’operatore ha usato per impedirgli di distruggere il bersaglio.
La trascrizione è stata pubblicata sul sito web dell’evento e ha suscitato scalpore nella comunità militare.
Vedere bene…
(Immagine: Aaron Richardson/US Air Force)
L’Air Force è stata costretta a rilasciare una nota, questo venerdì (02), negando l’esecuzione di tale simulazione. Hamilton, dal canto suo, ha inviato un messaggio alla Royal Aerospace Society dicendo di essersi espresso male. Ma ha confermato la possibilità dello scenario.
Non abbiamo mai fatto un simile esperimento, né dovremmo vedere che questo è un risultato plausibile. Sebbene sia un esempio ipotetico, illustra le sfide del mondo reale poste dalle capacità dell’IA e perché l’Air Force è impegnata nello sviluppo etico dell’IA.
Il colonnello Tucker Hamilton, capo dei test e delle operazioni AI dell’aeronautica
Tuttavia, la negazione del test da parte di Hamilton non è stata molto convincente. Tanto che l’influente canale militare russo BMPD ha pubblicato: « Il colonnello non è il tipo di persona che racconta aneddoti a una seria conferenza sulla difesa ».
Gli autori sottolineano che è responsabile del programma di intelligenza artificiale più avanzato delle forze armate statunitensi, Venom, presso la base aerea di Eglin. Lì, i caccia F-16 sono stati robotizzati per volare come droni. E il prossimo passo logico è introdurre livelli crescenti di intelligenza artificiale nei loro sistemi.
ciò che già esiste
(Immagine: Rosado/US Air Force/AFP)
Gli aerei da guerra già in uso in tutto il mondo hanno, in una certa misura, meccanismi di intelligenza artificiale per aiutare i piloti a prendere decisioni rapide.
I soldi che gli Stati Uniti, la più grande potenza militare del mondo, investono sul tema danno il tono dell’importanza: il budget della difesa per il 2024 prevede 3,2 miliardi di dollari (circa 16 miliardi di R$, nella conversione attuale) nella sola ricerca. Per darti un’idea, questo è il 50% in più di quello che le forze armate brasiliane avranno nel 2023 per gli investimenti in attrezzature.
Il canale osserva che il sito web della conferenza non ha rimosso il rapporto iniziale di Hamilton e ha mantenuto il titolo originale: « IA – Is Skynet Here Yet? ». Per coloro che non ricordano, Skynet era il sistema di intelligenza artificiale militare del franchise « Terminator », che raggiunse la coscienza e cancellò l’umanità con armi nucleari quando si rese conto che i suoi creatori erano sacrificabili.
Con informazioni da Folha de S. Paulo
Hai guardato i nuovi video su YouTube di Olhar Digital? Iscriviti al canale!