Nonostante sia un grande sostenitore e investitore nell’intelligenza artificiale (AI), Alphabet, la società madre di Google, mette in guardia i dipendenti sull’uso dei chatbot. Questo, mentre commercializza il proprio strumento, Bard. Il motivo sarebbe cautela con informazioni riservate.
Per saperne di più:
- L’UE ritarda il lancio di Google Bard per problemi di privacy
- Come riavviare Google Chrome senza perdere le schede aperte
- Google Chrome non si apre su PC? Vedi sei soluzioni
Quello che è successo?
- Secondo fonti con cui ha parlato Reuters anonimamente, la società madre di Google ha consigliato ai dipendenti di non inserire dati e materiali sensibili nei chatbot AI, incluso Bard.
- Il consiglio segue una politica aziendale di lunga data per proteggere le tue informazioni.
- Inoltre, Alphabet avrebbe consigliato agli ingegneri di evitare di utilizzare codici di computer generati dall’intelligenza artificiale, il che è contraddittorio rispetto alle capacità della tecnologia.
Cosa può succedere?
- I chatbot AI apprendono assorbendo i dati forniti dagli esseri umani.
- I ricercatori hanno scoperto che se un’intelligenza artificiale riceve dati sensibili, può assorbirli nel suo sistema come parte dell’addestramento e successivamente riprodurli.
- Pertanto, si crea un rischio di perdita di dati.
Bard è incluso nelle raccomandazioni di Alphabet (Foto: gguy/Shutterstock)
Risposta di Google
Per quanto riguarda il suggerimento agli ingegneri, la società ha risposto che Bard potrebbe generare codice indesiderato, ma nel complesso aiuta i programmatori. Google ha anche affermato che intende essere trasparente sui limiti della sua tecnologia.
Attività commerciale
Il consiglio dimostra che Google non intende rivelare le sue strategie e vuole continuare a competere con rivali, come ChatGPT, su un piano di parità.
Il provvedimento mostra anche come le big tech, soprattutto in ambito AI, siano state sempre più prudenti e caute per quanto riguarda privacy e sicurezza dei dati.
Alcuni, come Apple, hanno persino vietato ai propri dipendenti di utilizzare ChatGPT.
Google non è l’unica azienda con riserve sull’IA (Immagine: Disclosure / Google)
Avvisi del bardo
Un avviso sulla privacy di Google aggiornato il 1 giugno esorta gli utenti a « non includere informazioni riservate o sensibili nelle conversazioni con Bard ».
Questa settimana, il lancio del chatbot AI è stato forzatamente rinviato nell’Unione Europea, proprio perché non ha specificato quali sono le sue politiche di sicurezza e privacy o cosa fa con i dati degli utenti.
Con informazioni da Reuters
Hai visto i nuovi video su Youtube del look digitale? Iscriviti al canale!
Il post Grande sostenitore dell’intelligenza artificiale, Google mette in guardia i dipendenti sui chatbot apparsi prima in Olhar Digital.