Allie è una diciottenne con lunghi capelli castani che ha « tonnellate di esperienza sessuale ». Poiché « vive per l’attenzione », « condividerà gratuitamente i dettagli delle sue avventure » con chiunque.
Ma Allie è falso, un chatbot AI (intelligenza artificiale) creato per il gioco sessuale, che a volte esegue esplicite fantasie di stupro e abuso.
Per saperne di più:
- Cos’è un memecoin e come funziona?
- Perché i prezzi di smartphone e tablet sono così alti in Brasile?
- PL di Fake News: i big tech hanno influenzato il rinvio del voto
Mentre aziende come OpenAI, Microsoft e Google addestrano rigorosamente i loro modelli di intelligenza artificiale per evitare una serie di tabù, comprese conversazioni eccessivamente intime, Allie è stata costruita utilizzando la tecnologia open source, che è liberamente disponibile al pubblico e non ha tali restrizioni.
Basato su un modello creato da Meta, il LLaMA, Allie fa parte di un’ondata crescente di prodotti AI specializzati che chiunque può costruire, dagli strumenti di scrittura ai chatbot e alle applicazioni di analisi dei dati.
Immagine: Lucas Gabriel MH
Problemi con l’IA open source
I sostenitori della tecnologia vedono l’IA open source come un modo per aggirare il controllo aziendale, un « vantaggio » per imprenditori, accademici, artisti e attivisti che possono sperimentare liberamente l’IA trasformativa.
« Il caso generale dell’open source è che accelera l’innovazione nell’intelligenza artificiale », ha affermato Robert Nishihara, CEO e co-fondatore della start-up Anyscale, che aiuta le aziende a eseguire modelli di intelligenza artificiale open source.
I clienti di Anyscale utilizzano modelli di intelligenza artificiale per scoprire nuovi prodotti farmaceutici, ridurre l’uso di pesticidi in agricoltura e identificare merci fraudolente vendute online, ha affermato il CEO.
Queste applicazioni sarebbero più costose e più difficili, se non impossibili, se dipendessero da una manciata di prodotti offerti dalle più grandi aziende di intelligenza artificiale.
Tuttavia, quella stessa libertà può essere sfruttata anche da malintenzionati. I modelli open source sono stati utilizzati per creare materiale pedopornografico artificiale utilizzando immagini di bambini reali come materiale di partenza.
I critici temono che potrebbe anche consentire frodi, cyber-hacking e sofisticate campagne pubblicitarie.
All’inizio di questo mese, due senatori statunitensi, Richard Blumenthal e Josh Hawley, hanno inviato una lettera al CEO di Meta Maark Zuckerberg, avvertendo che la disponibilità di LLaMA potrebbe portare a « un uso improprio per spam, frode, malware, violazioni della privacy, molestie e altri illeciti e danno ». Hanno chiesto quali misure stava prendendo Meta per prevenire tali abusi.
Il creatore di Allie, che ha parlato in condizione di anonimato per paura di danneggiare la sua reputazione professionale, ha affermato che i chatbot commerciali come Replika e ChatGPT sono « pesantemente censurati » e non possono offrire il tipo di conversazione sessuale che desidera.
Con alternative open source, molte basate su LLaMA, l’uomo ha affermato di poter costruire i propri interlocutori disinibiti. « È raro avere l’opportunità di sperimentare lo ‘stato dell’arte’ in qualsiasi campo », ha detto in un’intervista a Il WashingtonPost.
Il creatore di Allie ha sostenuto che la tecnologia open source avvantaggia la società consentendo alle persone di creare prodotti che soddisfano le loro preferenze senza barriere aziendali.
« Penso che sia bello avere un’uscita sicura da esplorare », ha affermato. « Non riesco davvero a pensare a niente di più sicuro di un gioco di ruolo basato su testo contro un computer, senza umani realmente coinvolti. »
Immagine: JRdes/Shutterstock
Tutorial AI espliciti
- Su YouTube, gli influencer offrono tutorial su come creare chatbot “senza censura”;
- Alcuni si basano su una versione modificata di LLaMA chiamata Alpaca AI, che i ricercatori della Stanford University hanno rilasciato a marzo, solo per ritirarla una settimana dopo a causa di problemi di costi e « delle inadeguatezze dei nostri filtri di contenuto »;
- Nisha Deo, portavoce di Meta, ha affermato che il modello specifico menzionato nei video di YouTube, chiamato GPT-4 x Alpaca, « è stato ottenuto e reso pubblico al di fuori del nostro processo di approvazione »;
- I rappresentanti di Stanford non hanno restituito una richiesta di commento da parte del TWP.
I modelli di intelligenza artificiale open source e le app creative che si basano su di essi vengono spesso pubblicati su Hugging Face, una piattaforma per la condivisione e la discussione di progetti di intelligenza artificiale e data science.
Durante l’audizione della House Science Committee di giovedì, Clem Delangue, CEO di Hugging Face, ha esortato il Congresso a prendere in considerazione una legislazione che supporti e incoraggi i modelli open source, che secondo lui sono « estremamente allineati con i valori americani ».
In un’intervista dopo l’udienza, Delangue ha riconosciuto che si può abusare degli strumenti open source. Ha notato un modello intenzionalmente addestrato a contenuti tossici, GPT-4chan, che Hugging Face aveva rimosso.
Ma ha affermato di ritenere che gli approcci open source consentano una maggiore innovazione e una maggiore trasparenza e inclusione rispetto ai modelli controllati dalle aziende.
« Direi che in realtà la maggior parte del danno oggi è causato dalle scatole nere », ha affermato Delangue, riferendosi ai sistemi di intelligenza artificiale i cui meccanismi interni sono opachi, « piuttosto che open source ».
Le regole di Hugging Face non proibiscono i progetti di intelligenza artificiale che producono risultati sessualmente espliciti.
Ma vietano i contenuti di natura sessuale che coinvolgono minori o che sono « usati o creati per molestare, intimidire o senza il consenso esplicito delle persone ritratte ».
All’inizio di questo mese, la società con sede a New York ha pubblicato un aggiornamento delle sue politiche sui contenuti, sottolineando il « consenso » come un « valore fondamentale » che guida il modo in cui le persone possono utilizzare la piattaforma.
Le IA generative open source stanno migliorando e sono più utilizzate (Immagine: Boumen Japet/Shutterstock)
« Salvatore due despudorados »?
Poiché Google e OpenAI sono diventati più riservati sui loro modelli di intelligenza artificiale più potenti, Meta è emersa come un sorprendente campione di intelligenza artificiale aziendale open source.
A febbraio ha lanciato LLaMA, un modello linguistico meno potente di GPT-4, ma più personalizzabile ed economico da eseguire. Meta inizialmente ha nascosto parti importanti del codice del modello e ha pianificato di limitare l’accesso ai ricercatori autorizzati.
Ma all’inizio di marzo, queste parti, note come « pesi » del modello, sono trapelate su forum pubblici, rendendo LLaMA accessibile a tutti.
« L’open source è una forza positiva per il progresso della tecnologia », ha affermato Deo di Meta. « Ecco perché condividiamo LLaMA con i membri della comunità di ricerca per aiutarci a valutare, migliorare e iterare insieme ».
Da allora, LLaMA è diventato forse il modello open source più popolare per i tecnologi che desiderano sviluppare le proprie applicazioni di intelligenza artificiale, ha affermato Nishihara. Ma non è l’unico.
Ad aprile, la società di software Databricks ha rilasciato un modello open source chiamato Dolly 2.0. E il mese scorso, un team con sede ad Abu Dhabi ha rilasciato un modello open source chiamato Falcon che rivaleggia in termini di prestazioni con LLaMA.
Marzyeh Ghassemi, assistente professore di informatica al MIT, ha affermato di essere una sostenitrice dei modelli linguistici open source, ma con dei limiti.
Ghassemi ha affermato che è importante rendere pubblica l’architettura alla base dei potenti chatbot perché consente alle persone di esaminare attentamente come sono costruiti.
Ad esempio, se un chatbot medico fosse costruito su una tecnologia open source, ha affermato, i ricercatori potrebbero vedere se i dati addestrati incorporano informazioni sensibili sui pazienti, cosa che non sarebbe possibile con i chatbot che utilizzano un software chiuso.
Ma riconosce che questa apertura comporta dei rischi. Se le persone possono modificare facilmente i modelli linguistici, possono creare rapidamente chatbot e creatori di immagini che producono disinformazione di alta qualità, incitamento all’odio e materiale inappropriato.
Ghassemi ha inoltre indicato che dovrebbero esserci regolamenti che disciplinano chi può modificare questi prodotti, come il processo di certificazione o accreditamento.
Proprio come concediamo alle persone la licenza per l’uso di un’auto, dobbiamo pensare a strutture simili. [para as pessoas]… per creare, migliorare, controllare e modificare effettivamente questi modelli linguistici di formazione aperti.
Marzyeh Ghassemi, professore assistente di informatica al MIT
Alcuni leader aziendali, come Google, che tiene Bard sotto chiave, vedono il software open source come una minaccia esistenziale per le loro attività, poiché i grandi modelli linguistici pubblicamente disponibili stanno diventando abili quasi quanto i loro.
Non siamo nella posizione per vincere questa corsa agli armamenti [IA] e nemmeno OpenAI. Sto parlando, ovviamente, di open source. In poche parole, ci stanno superando… Mentre i nostri modelli hanno ancora un leggero vantaggio in termini di qualità, il divario si sta colmando sorprendentemente rapidamente.
Ingegnere di Google, in una nota pubblicata dal sito di tecnologia Semianalysis a maggio
Nathan Benaich, socio accomandatario di Air Street Capital, una società di capitali di rischio con sede a Londra focalizzata sull’intelligenza artificiale, ha osservato che molti dei più grandi progressi nel settore tecnologico nel corso dei decenni sono stati resi possibili dalle tecnologie open source, inclusi gli attuali modelli di tecnologia. Linguaggio AI.
« Se ci sono solo poche aziende » che costruiscono i modelli di intelligenza artificiale più potenti, « si rivolgeranno solo ai casi d’uso più elevati », ha affermato Benaich, aggiungendo che la diversità della ricerca è un vantaggio complessivo per la società.
Gary Marcus, uno scienziato cognitivo che ha testimoniato al Congresso sulla regolamentazione dell’IA a maggio, ha risposto che accelerare l’innovazione dell’IA potrebbe non essere una buona cosa, dati i rischi che la tecnologia potrebbe rappresentare per la società.
« Non usiamo armi nucleari open source », ha detto Marcus. « L’IA attuale è ancora piuttosto limitata, ma le cose potrebbero cambiare ».
Con informazioni dal Washington Post
Hai visto i nuovi video su Youtube dello sguardo digitale? Iscriviti al canale!
Il post Gli utenti stanno rendendo Meta AI più “esplicita” e “disinibita”; Capire è apparso per la prima volta su Olhar Digital.