Microsoft chiede alle autorità di fare la loro parte per combattere i deepfake (Immagine: Vitor Pádua / )
Il meglio della tecnologia è arrivato il nostro canale WhatsApp
Brad Smith, presidente di Microsoft, ha lanciato un appello al Congresso degli Stati Uniti: regolamentare l'uso dei deepfake per contrastare frodi, abusi e manipolazioni. Secondo lui, le autorità devono adottare misure urgenti per proteggere i bambini, gli anziani e i processi elettorali.
Microsoft è consapevole che la legislazione sui deepfake offrirebbe alla polizia e agli investigatori la possibilità di perseguire i responsabili di truffe e frodi. Inoltre, l’azienda ritiene che le leggi statali e federali degli Stati Uniti contro la diffusione di immagini intime, lo sfruttamento minorile e lo sfruttamento sessuale debbano essere aggiornate per includere contenuti generati con l’intelligenza artificiale.
L'intelligenza artificiale può essere utilizzata per creare immagini realistiche (Immagine: Vitor Pádua / )
« Sebbene il settore tecnologico e i gruppi no-profit abbiano adottato misure per affrontare questo problema, è chiaro che anche le nostre leggi dovranno evolversi per combattere le frodi che coinvolgono i deepfake », si legge nel post sul blog firmato da Smith.
« Una delle cose più importanti che gli Stati Uniti possono fare è approvare uno statuto completo contro le frodi che utilizzano i deepfake per impedire ai criminali informatici di utilizzare questa tecnologia per derubare i cittadini comuni », chiede il presidente dell'azienda.
La stessa Microsoft si è trovata in una situazione complicata relativa a questo problema. Alla fine del 2023, Designer, uno strumento aziendale che utilizza l’intelligenza artificiale per generare immagini, veniva utilizzato per creare immagini esplicite, dai compagni di classe alle celebrità come la cantante Taylor Swift. L'azienda ha corretto il difetto.
Una proposta approvata dal Senato americano potrebbe consentire alle vittime di deepfake sessualmente espliciti di citare in giudizio i creatori delle immagini. La FCC, l’equivalente statunitense della nostra Anatel, ha vietato le telefonate con robot che imitano le voci umane utilizzando l’intelligenza artificiale generativa.
Il Brasile ha proposte contro i deepfake
In Brasile esistono diverse proposte per regolamentare l’uso dei deepfake. Uno è già stato approvato: il Tribunale Elettorale Superiore (TSE) può revocare le candidature per uso irregolare dell'IA.
Inoltre, ci sono progetti di legge che richiedono il consenso per l'uso della tecnologia con immagini di persone decedute e che inaspriscono la pena se il reato di violenza psicologica contro le donne coinvolge immagini modificate con questa tecnica, tra gli altri esempi.
Con informazioni: The Verge