L’intelligenza artificiale (AI) ha bisogno di formazione per essere utile. La formazione ha bisogno di dati. Poiché i modelli di intelligenza artificiale esauriscono i dati disponibili online – e devono affrontare crescenti restrizioni di accesso – potrebbero rivolgersi a contenuti generati dall’intelligenza artificiale. E cosa succede quando l’IA addestra l’IA? Crollo.
È quanto avverte uno studio recentemente pubblicato sulla rivista Natura. Secondo la ricerca, un modello di intelligenza artificiale crolla quando le sue prestazioni peggiorano al punto da produrre solo contenuti privi di significato. Ed è ciò che tende ad accadere quando l'addestramento di un'IA dipende dai contenuti generati da un'altra (o da altri).
Addestrare l’intelligenza artificiale diventerà sempre più difficile, afferma il ricercatore coinvolto nello studio sui crolli
Internet è un oceano di dati, informazioni, contenuti: tutta materia prima per la formazione sull’intelligenza artificiale. Ma l'abbondanza di questo materiale, che aumenta ogni giorno, non facilita l'addestramento dei modelli. In effetti, può renderlo difficile.
Con il passare del tempo, prevediamo che diventerà più difficile addestrare i modelli, anche se probabilmente avremo più dati (…) Sarà più difficile trovare set di dati che non siano distorti.
Ilia Shumailov, ricercatore dell'Università di Oxford e coautore dello studio, in un'intervista a Euronews L'abbondanza di dati può rendere difficile l'addestramento delle IA proprio a causa delle IA (Immagine: Gorodenkoff/Shutterstock)
La ricerca ha scoperto che dopo alcuni cicli di modelli di intelligenza artificiale che generano e vengono addestrati con contenuti generati dall’intelligenza artificiale, i sistemi iniziano a commettere errori significativi e a produrre contenuti privi di significato.
Per saperne di più:
- Ricerca brasiliana: droni e intelligenza artificiale monitorano lo smaltimento illegale dei rifiuti
- Come impedire che i tuoi dati vengano utilizzati per addestrare ChatGPT, Google Gemini e altre IA
- 5 consigli per proteggersi quando si utilizza ChatGPT, Google Gemini e altre IA
Fasi del collasso
Secondo la ricerca, il collasso di un modello di intelligenza artificiale è definito da due fasi. “La prima è la fase iniziale, quando un modello impara da un altro modello e si nota una riduzione della varianza [dos resultados]”, spiega Shumailov.
In questa fase, gli aspetti inizialmente non pienamente compresi dal modello originale lo saranno poco anche dal modello successivo. Ciò si traduce in un sovracampionamento di aspetti ben compresi trascurando altri aspetti importanti perché non sono chiari per il modello iniziale.
Dopo la fase finale del collasso, l’intelligenza artificiale non è più utile per gli utenti (Immagine: Pedro Spadoni tramite DALL-E/Olhar Digital)
Poi arriva la fase avanzata del collasso, quando i modelli di intelligenza artificiale non sono più utili a causa degli errori introdotti dai modelli precedenti nei dati utilizzati nella loro formazione.
Poiché i dati vengono continuamente prodotti e riciclati, i modelli iniziano a interpretare erroneamente la realtà e a commettere più errori. Quando i modelli collassano, la preoccupazione principale è che il tasso di miglioramento delle loro prestazioni possa rallentare. Ecco, addio utilità. E ciao, sciocchezze.
Il post Cosa succede quando l’IA addestra l’IA? La risposta è spaventosa, apparsa per la prima volta su Olhar Digital.