Il team che avrebbe dovuto mettere in sicurezza l’intelligenza artificiale di OpenAI non ha più una guida: a pochi giorni dall’addio dell’ex direttore scientifico Ilya Sutskever lascia anche il suo braccio destro Jan Leike, motivando il suo abbandono attraverso una serie di post sul social X che stanno facendo discutere.
I due erano responsabili del progetto Superalignment lanciato a luglio, che aveva il compito di sviluppare un sistema in grado di tenere sotto controllo tutte quelle tecnologie di intelligenza artificiale “molto più intelligenti degli esseri umani”.
L’idea di partenza era quella di fare in modo che gli algoritmi rispettassero gli obiettivi e i valori umani, un qualcosa che in termini pratici avrebbe dovuto impegnare almeno il 20% della potenza di calcolo a disposizione delle AI.
Si trattava quindi di un’iniziativa responsabile che tuttavia pare non abbia trovato un futuro. In uno dei suoi messaggi su X infatti Leike lamenta proprio le difficoltà del suo team nel perseguimento di questo obiettivo: «Negli ultimi mesi abbiamo dovuto lottare per avere la potenza di calcolo necessaria a questa cruciale ricerca», motivo per cui alla fine si sarebbe visto costretto a lasciare la nave.
«Sono entrato in OpenAI perché pensavo fosse il posto migliore al mondo per fare questo tipo di ricerca. […] Allontanarsi da questo lavoro è stata una delle cose più difficili che abbia mai fatto», ha aggiunto poi spiegando come in realtà fosse «in disaccordo con la leadership di OpenAI riguardo alle priorità fondamentali dell’azienda per un bel po’ di tempo, fino a quando non abbiamo finalmente raggiunto un punto di rottura».
Un problema che parte da lontano
Indubbiamente qualcosa in OpenAI è cambiato: la società era infatti nata come laboratorio di ricerca no-profit nel 2015, ma quando poi ha aperto ChatGPT al pubblico, successo e investimenti (vedi i 13 miliardi di Microsoft) l’hanno portata a seguire la strada del profitto che le si era aperta davanti agli occhi.
C’è poi da tenere in considerazione anche l’influenza di Sam Altman, che dirige la società dal 2019. Già in passato era stato additato come una delle cause del cambio di rotta con l’accusa di puntare molto sulla commercializzazione dell’AI, preoccupandosi poco o nulla della sua sicurezza.
Cosa lamenta Leike
Secondo Leike «costruire macchine più intelligenti di quelle umane è un’impresa intrinsecamente pericolosa […] e negli ultimi anni la cultura e i processi della sicurezza sono passati in secondo piano rispetto alla creazione di prodotti sempre più scintillanti da vendere».
Il punto è che «siamo in ritardo nel prendere incredibilmente sul serio le implicazioni dell’intelligenza artificiale generativa: dobbiamo dare la priorità alla preparazione a queste sfide nel miglior modo possibile» denuncia, e «solo allora potremo garantire che l’AGI porti benefici a tutta l’umanità».
Il co-fondatore di OpenAI Greg Brockman e lo stesso Altman hanno commentato le dimissioni ponendo l’accento sul fatto che l’attenzione sulla sicurezza c’è sempre stata e continuerà ad esserci, ma l’abbandono dei due responsabili al progetto che si occupava proprio di questo sembrerebbe dire tutto il contrario.
Leike ha portato a termine il discorso con alcuni consigli rivolti ai membri del team che restano a bordo facendo notare come le parole chiave per affrontare al meglio la questione dovrebbero essere sicurezza, monitoraggio, preparazione e impatto sociale.
Questi per lui sono attualmente problemi «piuttosto difficili da risolvere, e sono preoccupato perché non siamo sulla buona strada per arrivarci. Negli ultimi mesi la mia squadra ha navigato controvento». E poi l’affondo: «Costruire macchine più intelligenti di un essere umano è un impegno enorme. OpenAI sta mettendo una responsabilità gigantesca sulle spalle di tutta l’umanità».
Non è la prima volta che sentiamo parlare dei possibili problemi e dei rischi legati alla sicurezza delle intelligenze artificiali in via di sviluppo: invertire il processo è impossibile, e regolamentarlo sembra più complicato del previsto.
L’Italia per esempio è tra i firmatari dell’accordo internazionale che mira a proteggere i destinatari di queste tecnologie, e l’Europa ha già messo in campo un AI Act proprio per cercare di mettere dei paletti, prima che sia troppo tardi.