Catégories
italie

OpenAI ha bloccato le operazioni che cercavano di influenzare i risultati politici

Molteplici operazioni di influenza segreta che hanno abusato dei modelli di intelligenza artificiale di OpenAI sono state bloccate dalla startup che ha creato ChatGPT, secondo le informazioni della società rivelate giovedì scorso (30).

Per saperne di più:

Le operazioni, che OpenAI ha chiuso tra il 2023 e il 2024, hanno avuto origine in Russia, Cina, Iran e Israele e hanno tentato di manipolare l'opinione pubblica e influenzare i risultati politici senza rivelare le loro vere identità o intenzioni.

« A partire da maggio 2024, queste campagne non sembrano aver aumentato significativamente il coinvolgimento o la portata del pubblico come risultato dei nostri servizi », ha affermato OpenAI in un rapporto sull'operazione e ha aggiunto che ha lavorato con persone del settore tecnologico, della società civile e i governi per isolare gli autori delle campagne.

openAI
I responsabili di una campagna di influenza che utilizza l’intelligenza artificiale hanno nascosto la loro vera identità – Immagine: JRdes/Shutterstock

Cresce la preoccupazione sull’utilizzo dell’intelligenza artificiale per interferire nelle elezioni

  • Il rapporto di OpenAI arriva in un momento di preoccupazione per l’impatto dell’intelligenza artificiale generativa sulle numerose elezioni in tutto il mondo previste per quest’anno, compresi gli Stati Uniti.
  • Nei suoi risultati, OpenAI ha rivelato come le reti di persone coinvolte in operazioni di influenza abbiano utilizzato l’intelligenza artificiale generativa per generare testo e immagini in volumi molto più grandi rispetto a prima.
  • L’operazione russa, chiamata “Doppelganger”, ha utilizzato i modelli dell’azienda per generare titoli, convertire articoli di notizie in post di Facebook e creare commenti in più lingue per minare il sostegno all’Ucraina.

“Nell’ultimo anno e mezzo, ci sono state molte domande su cosa potrebbe accadere se le operazioni di influenza utilizzassero l’intelligenza artificiale generativa. Con questo rapporto, vogliamo davvero iniziare a colmare alcune lacune », ha affermato Ben Nimmo, investigatore principale del team di intelligence e investigazione di OpenAI, in una conferenza stampa.

OpenAI
Le operazioni che utilizzano l’intelligenza artificiale miravano a manipolare l’opinione pubblica – Immagine: Camilo Concha/Shutterstock

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *