UN OpenAI Inc., una parte no-profit dello sviluppatore di ChatGPT, ha dato un assegno di ricerca ai professori della Duke University per un progetto chiamato “Ricerca sulla moralità dell'intelligenza artificiale“.
Questa borsa di studio fa parte di un'iniziativa triennale più ampia del valore di 1 milione di dollari (circa 5,8 milioni di R$) e aiuterà indagare come l’intelligenza artificiale può essere utilizzata nelle decisioni morali in settori quali la medicina, il diritto e gli affari.
Coloro che sono coinvolti nella ricerca finanziata da OpenAI hanno già studiato come l'intelligenza artificiale possa essere un « GPS morale »
Walter Sinnott-Armstrong, professore di etica alla Duke, è il principale responsabile del progetto, insieme a Jana Borg. Entrambi hanno già condotto diversi studi su come l’intelligenza artificiale possa funzionare come “GPS morale”aiutando le persone a prendere decisioni più etiche, come scegliere chi dovrebbe ricevere un trapianto di rene.
La sfida affrontata dai ricercatori finanziati da OpenAI è tecnologica, etica e filosofica (Immagine: foto di Svet/Shutterstock)
Non si conoscono ancora molti dettagli su questa ricerca OpenAI. Ma, secondo un comunicato stampa, l’obiettivo della ricerca è insegnare agli algoritmi a prevedere i giudizi morali umani in situazioni di conflitto morale.
Questo è impegnativo per l’intelligenza artificiale. Questo perché i modelli di machine learning, come quelli sviluppati da OpenAI, sono fondamentalmente macchine statistiche che apprendono modelli utilizzando una grande quantità di dati Internet.
Per saperne di più:
- OpenAI ha commesso un errore grave, che potrebbe rivelarsi costoso
- Cos'è Sora, l'intelligenza artificiale di OpenAI che crea video?
- D*: Cosa sappiamo della superintelligenza artificiale di OpenAI?
Questi modelli possono prevedere quale parola dovrebbe venire dopo in una frase, ma ciò non significa che comprendano cose come l’etica o l’empatia. La moralità è qualcosa di soggettivo. Cambia a seconda della cultura, del contesto e delle esperienze. E non esiste una risposta univoca al riguardo.
Pertanto, il La sfida che devono affrontare i ricercatori di OpenAI e Duke non è solo tecnologica, ma anche etica e filosofica. Come si può insegnare a una macchina qualcosa che nemmeno gli esseri umani riescono a definire allo stesso modo? Entro il 2025, quando terminerà la sovvenzione, potremmo avere una risposta. O più domande.
Apple prevede di rendere Siri simile a ChatGPT e Gemini Live
Apple prevede di rinnovare Siri, rendendo l'assistente virtuale più simile a ChatGPT, di OpenAI, e Gemini Live, di Google. « LLM Siri » (Large Language Model Siri) consentirebbe agli utenti di avere interazioni più naturali e conversazionali con Siri.
Apple prevede di rinnovare Siri, che potrebbe diventare più simile a ChatGPT (Immagine: Apple/YouTube)
Parte del piano di Apple per incorporare l'intelligenza artificiale nell'iPhone è migliorare la capacità di Siri di gestire attività più avanzate. Per questo, l'assistente avrebbe capacità “ampliata” di interagire con applicazioni di terze parti. E utilizzerei Apple Intelligence per riassumere e scrivere testi.
Scopri di più sui piani di Apple per Siri in questo articolo Olhar digitale.
Il post OpenAI finanzia la ricerca sulla “moralità dell’IA”; Comprendere è apparso per la prima volta su Olhar Digital.