Tutto su Stati Uniti d'America
Tutto su Intelligenza artificiale
I governi del Regno Unito e degli Stati Uniti hanno firmato un accordo in cui si impegnano a sviluppare metodi robusti per valutare la sicurezza dell’intelligenza artificiale (AI) e dei suoi modelli. Questo accordo è il primo di questo genere – in altre parole, non ha precedenti.
Per chi ha fretta:
- I governi del Regno Unito e degli Stati Uniti hanno firmato un accordo unico nel suo genere per sviluppare metodi per valutare la sicurezza dei sistemi di intelligenza artificiale (AI). Il Trattato segna un impegno di collaborazione internazionale in questo settore;
- Il ministro britannico della Tecnologia Michelle Donelan ha sottolineato l’importanza della sicurezza nell’evoluzione dell’intelligenza artificiale, sottolineando la necessità di una collaborazione internazionale per gestire i rischi ed esplorare i vantaggi della tecnologia;
- Nell’ambito dell’accordo, in entrambi i Paesi sono stati istituiti degli IA Security Institutes, con l’obiettivo di valutare la sicurezza dei sistemi di IA e rispondere al progresso della tecnologia dalla “IA ristretta” (che esegue compiti semplici) ad applicazioni più complesse, con possibili rischi;
- L’accordo mira a integrare gli standard di sicurezza nell’evoluzione dell’intelligenza artificiale, garantendo che il progresso tecnologico sia condotto in modo sicuro e responsabile. Pertanto, il trattato formalizza gli sforzi globali per mitigare i rischi e promuovere le innovazioni basate sull’intelligenza artificiale.
Il ministro britannico della Tecnologia Michelle Donelan ha sottolineato l’importanza globale della sicurezza nello sviluppo dell’intelligenza artificiale, evidenziando la necessità di una collaborazione internazionale per affrontare i rischi associati alla tecnologia e sfruttarne il potenziale.
Per saperne di più:
Accordo Regno Unito-USA sull’intelligenza artificiale
L’accordo amplia gli impegni stabiliti in occasione dell’AI Security Summit tenutosi a Bletchley Park, al quale hanno partecipato leader del settore – tra cui: Sam Altman (“padre” di ChatGPT), Demis Hassabis (di Google DeepMind) ed Elon Musk ( proprietario di Tesla, SpaceX e X). Entrambi i paesi hanno istituito istituti per la sicurezza dell’intelligenza artificiale dedicati alla valutazione della sicurezza dei sistemi di intelligenza artificiale.
Le preoccupazioni sulla sicurezza dell’intelligenza artificiale si concentrano principalmente sull’avanzamento della tecnologia oltre l’“intelligenza artificiale ristretta”, che esegue compiti semplici, verso applicazioni che svolgono funzioni più complesse, sollevando interrogativi sul controllo e sui potenziali rischi.
L’accordo tra Regno Unito e Stati Uniti mira inoltre a integrare i principi di sicurezza nell’evoluzione dell’intelligenza artificiale, non per inibire il progresso, ma per garantire che lo sviluppo venga effettuato in modo sicuro e responsabile.
Questo trattato rappresenta quindi un passo significativo nella cooperazione internazionale per promuovere lo sviluppo sicuro e responsabile dell’intelligenza artificiale. Questo perché allinea gli sforzi per prevenire i rischi e garantire il progresso tecnologico vantaggioso per l’umanità.