Un gruppo di attuali ed ex dipendenti di OpenAI e Google DeepMind ha pubblicato una lettera per evidenziare i pericoli dell’AI avanzata e l’assenza di supervisione da parte delle aziende che lavorano su tecnologie AI.
“I rischi spaziano dall’ulteriore arroccamento delle disuguaglianze esistenti, alla manipolazione, alla perdita di controllo e dell’indipendenza”, si legge nella lettera, affermando che “I sistemi AI possono potenzialmente portare all’estinzione umana” e che “Le stesse aziende che lavorano con l’AI riconoscono questi rischi, così come governi di tutto il mondo e altri esperti AI”.
Nella lettera (qui il testo completo) si denuncia ancora la cultura “di incoscienza e segretezza”, con i vertici delle aziende che si occupano di AI che non si preoccupano di questioni legate alla sicurezza e di impedire che le AI diventino pericolose. Altre critiche riguardano accordi di riservatezza che impediscono ai dipendenti, anche quelli che non lavorano più per queste aziende, di parlare del lavoro svolto e fare critiche. Ancora, secondo i firmatari della lettera, si sta dando priorità ai profitti e alla crescita economica aziendale, nonostante aziende come OpenAI siano nate senza scopo di lucro.
I firmatari invitano le aziende che lavorano nell’AI a offrire solida protezione agli informatori che evidenziano rischi, evitando di creare o applicare accordi che impediscano critiche relative ai rischi connessi; si invitano le aziende a offrire ai dipendenti procedure che garantiscano l’anonimato permettendo di evidenziare preoccupazioni a consigli di amministrazione, autorità di regolamentazione e organizzazioni indipendenti con pertinenti competenze.
Si invitano ancora le aziende a supportare la cultura delle critiche aperte ed evitare rappresaglie nei confronti dei dipendenti che rendono pubblici rischi per avere rivelato informazioni confidenziali.
La lettera è firmata da 13 persone, inclusi quattro attuali dipendenti di OpenAI, un ex dipendente di Google DeepMind e un attuale dipendente di Google DeepMind. Tra i firmatari nomi quali William Saunders (ricercatore che ha lasciato OpenAI a febbraio), Carroll Wainwright, Jacob Hilton e Daniel Ziegler e Daniel Kokotajl; quest’ultimo – spiega il New York Times – è quello che aveva pronosticato l’arrivo di una AGI (Artificial General Intelligence) entro il 2050 ma dopo avere visto la velocità con sui si stanno evolvendo questi sistemi, ha affermato che c’è ii 50% di probabilità che una AI avanzata arrivi già nel 2027, convinto inoltre che vi sia un’alta probabilità che in futuro l’IA distrugga o danneggi l’umanità in maniera catastrofica.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili nella sezione dedicata di macitynet.