Una lettera aperta pubblicata online da un gruppo di 13 esperti di intelligenza artificiale sta suscitando un intenso dibattito. Tra i firmatari figurano sette ex dipendenti di OpenAI, quattro attuali dipendenti di OpenAI, tutti rimasti anonimi, e due scienziati di Google DeepMind, uno dei quali ancora in servizio. Questa lettera è indirizzata alle aziende che sviluppano l’intelligenza artificiale e lancia un avvertimento sui potenziali rischi esistenziali che l’AI potrebbe rappresentare per l’umanità.

La lettera critica aspramente le grandi aziende tecnologiche per la loro mancanza di attenzione alla sicurezza e la cultura della segretezza. Gli esperti sottolineano che, sebbene l’AI possa essere estremamente utile, esiste il rischio che in futuro possa portare all'”estinzione umana”.

Questo messaggio ha raccolto il sostegno di eminenti figure nel campo dell’AI, tra cui William Saunders, Carroll Wainwright e Daniel Ziegler, tutti ex dipendenti di OpenAI. Anche Stuart Russell, uno dei maggiori esperti di sicurezza nell’intelligenza artificiale, e Geoffrey Hinton e Yoshua Bengio, vincitori del premio Turing nel 2018, hanno appoggiato l’iniziativa.

Secondo gli autori della lettera, i rischi associati all’AI sono molteplici. Tra di essi, il possibile rafforzamento delle disuguaglianze esistenti, la manipolazione e la disinformazione, e la perdita di controllo sui sistemi autonomi di AI. In particolare, essi avvertono che quest’ultima eventualità potrebbe condurre all’estinzione umana. Le stesse aziende che sviluppano l’AI, così come vari governi e altri esperti del settore, hanno riconosciuto questi pericoli.

La preoccupazione principale espressa nella lettera riguarda la mancanza di trasparenza e di misure di sicurezza adeguate nelle ricerche e nello sviluppo dell’intelligenza artificiale. I firmatari chiedono maggiore attenzione e regolamentazione per evitare scenari catastrofici e assicurare che l’AI venga sviluppata e utilizzata in modo responsabile.

Come si legge nel documento: “Questi rischi vanno dall’ulteriore rafforzamento delle disuguaglianze esistenti, alla manipolazione e alla disinformazione, fino alla perdita di controllo dei sistemi autonomi di AI che potrebbero portare all’estinzione umana. Le stesse aziende di AI hanno riconosciuto questi rischi, così come i governi di tutto il mondo e altri esperti di AI”.

E continua: “Le aziende di IA possiedono informazioni sostanziali non pubbliche sulle capacità e sui limiti dei loro sistemi, sull’adeguatezza delle loro misure di protezione e sui livelli di rischio di diversi tipi di danni. Tuttavia, attualmente hanno solo un debole obbligo di condividere alcune di queste informazioni con i governi e nessuna con la società civile […] Ampi accordi di riservatezza ci impediscono di esprimere le nostre preoccupazioni, tranne che alle stesse aziende che potrebbero non affrontare questi problemi. […] Alcuni di noi temono ragionevolmente varie forme di ritorsione, vista la storia di casi simili in tutto il settore. Non siamo i primi a incontrare o a parlare di questi problemi”.

Le conseguenze di questa lettera si vedranno nel tempo, tuttavia una regolamentazione più stringente è senza dubbio necessaria per prevenire problemi etici e pratici legati a queste nuove tecnologie.

La discussione continua nel gruppo privato!
Seguici anche su Google News!