Un accordo senza precedenti quello che OpenAI e Anthropic hanno firmato con il governo degli Stati Unit: gli USA avranno un accesso anticipato per condurre test di sicurezza sui più recenti modelli di intelligenza artificiale dlle due società, prima che vengano rilasciati al grande pubblico.
Secondo un comunicato del National Institute of Standards and Technology (NIST), l’accordo stabilisce una “collaborazione formale sulla ricerca, il test e la valutazione della sicurezza dell’AI con entrambe le aziende, Anthropic e OpenAI,” e l’Istituto per la Sicurezza dell’Intelligenza Artificiale degli USA.
Grazie a questo accordo, l’Istituto di Sicurezza dell’AI degli Stati Uniti avrà accesso ai principali nuovi modelli di ciascuna azienda, sia prima che dopo il loro rilascio pubblico. E’ importante notare che l’accesso sarà anticipato, quindi gli Usa potranno beneficiare di questi nuovi modelli quando ancora non sono stati rilasciati pubblicamente.
In sostanza, potranno attuare un controllo su questi nuovi modelli, per far sì che la sicurezza pubblica non dipenda esclusivamente dalle valutazioni e dalle misure di mitigazione del rischio effettuate dalle aziende, ma anche dalla ricerca collaborativa con il governo degli Stati Uniti.
L’Istituto di Sicurezza dell’AI degli Stati Uniti collaborerà anche con quello del Regno Unito per esaminare i modelli e identificare potenziali rischi per la sicurezza. Entrambi i gruppi forniranno feedback a OpenAI e Anthropic su possibili miglioramenti per la sicurezza dei loro modelli.
Si tratta di un accordo unico nel suo genere e arriva proprio in un momento in cui le aziende sono sotto esame per l’uso sicuro ed etico delle tecnologie di intelligenza artificiale.
Questo il commento di Jason Kwon, responsabile della strategia di OpenAI, creatrice di ChatGPT:
Riteniamo che l’istituto abbia un ruolo cruciale nel definire la leadership degli Stati Uniti nello sviluppo responsabile dell’intelligenza artificiale e speriamo che il nostro lavoro congiunto offra un modello che il resto del mondo possa seguire
Non è mancato neppure l’intervento di Elizabeth Kelly, direttrice dell’Istituto di Sicurezza dell’IA degli Stati Uniti:
Questi accordi sono solo l’inizio, ma rappresentano una tappa importante nel nostro impegno per guidare responsabilmente il futuro dell’AI
L’Istituto di Sicurezza dell’IA degli Stati Uniti è stato lanciato l’anno scorso come parte di un ordine esecutivo dell’amministrazione del Presidente Joe Biden per valutare i rischi noti ed emergenti dei modelli di intelligenza artificiale. Sembra che sia già pronto a dare i suoi frutti.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet.