Tutto su OpenAI
Molteplici operazioni di influenza segreta che hanno abusato dei modelli di intelligenza artificiale di OpenAI sono state bloccate dalla startup che ha creato ChatGPT, secondo le informazioni della società rivelate giovedì scorso (30).
Per saperne di più:
Le operazioni, che OpenAI ha chiuso tra il 2023 e il 2024, hanno avuto origine in Russia, Cina, Iran e Israele e hanno tentato di manipolare l'opinione pubblica e influenzare i risultati politici senza rivelare le loro vere identità o intenzioni.
« A partire da maggio 2024, queste campagne non sembrano aver aumentato significativamente il coinvolgimento o la portata del pubblico come risultato dei nostri servizi », ha affermato OpenAI in un rapporto sull'operazione e ha aggiunto che ha lavorato con persone del settore tecnologico, della società civile e i governi per isolare gli autori delle campagne.
Cresce la preoccupazione sull’utilizzo dell’intelligenza artificiale per interferire nelle elezioni
- Il rapporto di OpenAI arriva in un momento di preoccupazione per l’impatto dell’intelligenza artificiale generativa sulle numerose elezioni in tutto il mondo previste per quest’anno, compresi gli Stati Uniti.
- Nei suoi risultati, OpenAI ha rivelato come le reti di persone coinvolte in operazioni di influenza abbiano utilizzato l’intelligenza artificiale generativa per generare testo e immagini in volumi molto più grandi rispetto a prima.
- L’operazione russa, chiamata “Doppelganger”, ha utilizzato i modelli dell’azienda per generare titoli, convertire articoli di notizie in post di Facebook e creare commenti in più lingue per minare il sostegno all’Ucraina.
“Nell’ultimo anno e mezzo, ci sono state molte domande su cosa potrebbe accadere se le operazioni di influenza utilizzassero l’intelligenza artificiale generativa. Con questo rapporto, vogliamo davvero iniziare a colmare alcune lacune », ha affermato Ben Nimmo, investigatore principale del team di intelligence e investigazione di OpenAI, in una conferenza stampa.