Nel dark web sta circolando un nuovo sofisticato strumento di deepfake che consente ai criminali di creare identità false in grado di ingannare anche i sistemi di riconoscimento facciale più avanzati. La scoperta, fatta dai ricercatori di Cato Threat Research Labs e riportata in prima persona da Forbes, è un avvertimento per le istituzioni finanziarie e le aziende che fanno affidamento sulla verifica biometrica.
Il meccanismo, venduto sul deepweb, rappresenta un'evoluzione preoccupante nelle tecniche di frode digitale. A differenza delle tradizionali contraffazioni di documenti, che sono relativamente facili da rilevare, questa nuova tecnologia utilizza l’intelligenza artificiale per creare personaggi sintetici completi, comprese foto e video convincenti.
Per saperne di più:
- Il Brasile ha ancora molto da evolvere nel campo della sicurezza informatica e questa tecnologia può aiutare
- Quali paesi investono di più nell’intelligenza artificiale? Stanford risponde
- Rivoluzione! Microsoft lancerà un nuovo computer quantistico commerciale
« Le nuove frodi sui conti costano alle aziende miliardi di dollari all'anno », spiega il rapporto dei ricercatori. I criminali utilizzano queste false identità per una serie di scopi illeciti, dall'ottenimento di prestiti che non verranno mai rimborsati alle operazioni di riciclaggio di denaro e all'accesso fraudolento ai benefici governativi.
I ricercatori mettono in guardia contro le frodi nel riconoscimento facciale. (Immagine: PeopleImages.com – Yuri A/Shutterstock)
Il processo di creazione di queste identità false è sorprendentemente semplice: in primo luogo, i truffatori generano una foto falsa utilizzando siti Web di intelligenza artificiale generativa. Quindi inseriscono questa immagine in documenti ufficiali contraffatti come i passaporti, prestando attenzione anche ai dettagli come i timbri ufficiali. La truffa si completa con la creazione di un video deepfake della persona fittizia, appositamente programmato per superare i test di riconoscimento facciale.
Per le organizzazioni, la sfida di individuare queste frodi è delicata. Controlli molto severi possono generare troppi falsi allarmi, mentre misure molto semplici lasciano spazio a truffe. Presta particolare attenzione ai movimenti a scatti nei video, alle linee sospette intorno agli occhi e alle labbra e alla qualità dell'immagine insolitamente alta: possibili indicatori di materiale contraffatto digitalmente.
“Man mano che i sistemi di intelligenza artificiale diventano più sofisticati, è probabile che i deepfake diventino ancora più convincenti”, avvertono i ricercatori. L’unica via d’uscita, dicono, è che le organizzazioni adattino le proprie difese, inclusa l’adozione delle proprie applicazioni di intelligenza artificiale per proteggersi da queste minacce in evoluzione.
Il post Gli hacker usano l'intelligenza artificiale per frodare il riconoscimento facciale è apparso per la prima volta su Olhar Digital.