L’enorme costo di gestione dei grandi modelli linguistici di oggi che sono alla base di chatbot come ChatGPT (OpenAI) e Bard (Google) ne limita la qualità e minaccia di soffocare il boom globale dell’IA (intelligenza artificiale) che hanno scatenato.
Per chi ha fretta:
- L’enorme costo per l’esecuzione di chatbot come ChatGPT e Bard ne limita la qualità e minaccia il boom dell’IA generativa (intelligenza artificiale);
- Gli attuali punti deboli dei chatbot potrebbero essere risolti se il costo di funzionamento non fosse così elevato;
- Una singola chat ChatGPT può costare fino a mille volte di più di una semplice ricerca su Google, ha stimato un capo analista presso una società di ricerca sui semiconduttori;
- È probabile che gli annunci arrivino ai chatbot AI, ma non dovrebbero renderli così redditizi come dovrebbero essere;
- “Siamo a corto di GPU [componente necessário para chatbots funcionarem]. Quindi meno persone usano i nostri prodotti, meglio è », ha dichiarato Sam Altman, CEO di OpenAI, in una testimonianza davanti al Senato degli Stati Uniti.
Le loro spese e la disponibilità limitata dei chip per computer di cui hanno bisogno limitano anche le aziende che possono permetterseli e fanno pressione anche sulle aziende più ricche del mondo affinché trasformino i chatbot in produttori di denaro prima di quanto possano essere pronti.
Per saperne di più:
- Google: l’intelligenza artificiale è ancora lenta e il motore di ricerca è ancora più pratico
- Impara a usare ChatGPT: 10 preziosi consigli per creare domande precise
- ChatGPT e AI: cosa sanno di noi i chatbot e con chi condividono i dati?
I modelli in fase di lancio ora, per quanto impressionanti possano sembrare, non sono in realtà i migliori modelli disponibili. Quindi, di conseguenza, i modelli che puoi utilizzare hanno molti punti deboli.
Tom Goldstein, professore di informatica all’Università del Maryland (USA), in un’intervista al Washington Post
Questi punti deboli, ad esempio la propensione a fornire risultati distorti da suggerimenti o bugie, potrebbero essere evitati se il costo non fosse un problema.
Danni dei chatbot
(Immagine: Rokas Tenys/Shutterstock)
I giganti della tecnologia che scommettono il loro futuro sull’IA raramente discutono del costo della tecnologia. Anche OpenAI, Microsoft e Google hanno negato la richiesta del giornale di commentare la questione. Ma gli esperti affermano che è l’ostacolo più critico alla visione della grande tecnologia dell’IA generativa che apre la strada a tutti i settori, tagliando il personale e aumentando l’efficienza.
L’IA computazionalmente intensiva richiesta è il motivo per cui OpenAI ha rifiutato il suo nuovo potente modello di linguaggio, GPT-4, dalla versione gratuita di ChatGPT, che esegue ancora un modello GPT-3.5 più debole.
Il set di dati sottostante di ChatGPT è stato aggiornato l’ultima volta a settembre 2021, rendendolo inutile per la ricerca o la discussione di eventi recenti. E anche chi paga $ 20 (circa R $ 100 in conversione diretta, ai prezzi correnti) al mese per GPT-4 può inviare solo 25 messaggi ogni tre ore perché è molto costoso da eseguire ed è molto più lento da rispondere.
(Immagine: riproduzione/GizChina)
Questi costi potrebbero anche essere uno dei motivi per cui Google deve ancora integrare un chatbot AI nel suo motore di ricerca di punta che risponda a miliardi di domande ogni giorno.
Quando Google ha lanciato il suo chatbot Bard nel marzo 2023, ha scelto di non utilizzare il suo modello linguistico più grande. Dylan Patel, capo analista presso la società di ricerca sui semiconduttori SemiAnalysis, ha stimato che una singola chat ChatGPT può costare fino a mille volte di più di una semplice ricerca su Google.
In un recente rapporto sull’intelligenza artificiale, l’amministrazione Biden ha identificato i costi computazionali dell’IA generativa come una preoccupazione nazionale. La Casa Bianca ha scritto che la tecnologia dovrebbe « aumentare drasticamente le richieste computazionali e gli impatti ambientali associati » e che esiste un « urgente bisogno » di progettare sistemi più sostenibili.
Costi nascosti dell’intelligenza artificiale
(Immagine: Thinkstock)
Ancor più di altre forme di apprendimento automatico, l’IA generativa richiede quantità vertiginose di potenza computazionale e chip per computer specializzati noti come GPU che solo le aziende più ricche possono permettersi.
L’intensificarsi della battaglia per l’accesso a questi chip ha contribuito a trasformare i suoi principali fornitori in giganti della tecnologia a pieno titolo, detenendo le chiavi di quella che è diventata la risorsa più preziosa dell’industria tecnologica.
La Silicon Valley è arrivata a dominare l’economia di Internet in parte offrendo servizi gratuiti come la ricerca online, la posta elettronica e i social media al mondo, inizialmente perdendo denaro ma alla fine realizzando grandi profitti con la pubblicità personalizzata.
Per questo motivo, è probabile che gli annunci arrivino ai chatbot AI. Ma gli analisti affermano che gli annunci da soli probabilmente non saranno sufficienti per rendere redditizi gli strumenti di intelligenza artificiale in qualunque momento presto.
Nel frattempo, le aziende che offrono modelli di intelligenza artificiale per l’uso da parte dei consumatori devono bilanciare il loro desiderio di guadagnare quote di mercato con le perdite finanziarie che stanno accumulando.
modi per trarne profitto
Sam Altman, CEO di OpenAI, al Senato degli Stati Uniti (Immagine: Patrick Semansky/AP Photo)
È probabile che anche la ricerca di un’intelligenza artificiale più affidabile generi profitti principalmente per i produttori di chip e i giganti del cloud computing che già controllano gran parte dello spazio digitale, insieme ai produttori di chip di cui hanno bisogno per eseguire i modelli.
Non è un caso che le aziende che costruiscono i principali modelli di linguaggio AI siano tra i più grandi fornitori di cloud computing come Google e Microsoft, o abbiano strette collaborazioni con loro, come fa OpenAI con Microsoft.
Le aziende che acquistano strumenti di intelligenza artificiale da queste aziende non si rendono conto di essere bloccate con un servizio fortemente sovvenzionato che costa molto di più di quanto pagano attualmente, ha affermato Clem Delangue, CEO di Hugging Face, un’azienda di intelligenza artificiale open source.
Il CEO di OpenAI, Sam Altman, ha riconosciuto indirettamente il problema in un’audizione al Senato degli Stati Uniti a maggio, quando il senatore Jon Ossoff ha avvertito che se OpenAI cerca di creare dipendenza da ChatGPT in un modo che danneggi i bambini, il Congresso « sarà molto severo ». Altman ha detto che Ossoff non deve preoccuparsi:
Cerchiamo di progettare sistemi che non massimizzino il coinvolgimento. In effetti, siamo a corto di GPU. Quindi, meno persone usano i nostri prodotti, meglio è.
Sam Altman, CEO di OpenAI e « padre » di ChatGPT, all’udienza del Senato degli Stati Uniti
Con informazioni dal Washington Post
Hai guardato i nuovi video su YouTube di Olhar Digital? Iscriviti al canale!
I chatbot post AI perdono denaro ogni volta che li usi. Perché? è apparso per la prima volta su Look Digital.