C’è anche l’Italia tra i 18 paesi firmatari del primo accordo internazionale per rendere l’intelligenza artificiale AI sicura. Si tratta di una dichiarazione di 20 pagine sui principi di base: non sarà vincolante, ma punta ad adottare misure per rendere AI Secure by design, letteralmente sicura fin dalla fase di progettazione.
Il documento intitolato Guidelines for Secure AI system development è nato dalla collaborazione tra Infrastructure Security Agency (CISA) degli USA, National Cyber Security Centre (NCSC) UK e altre 21 agenzie di sicurezza informatica di 18 Paesi.
I firmatari concordano che le società che progettano e usano intelligenza artificiale devono svilupparla e implementarla in modo da proteggere da abusi i clienti e il pubblico. Oltre a USA, Regno Unito e Italia l’accordo è stato firmato anche da Germania, Repubblica Ceca, Estonia, Polonia, Australia, Cile, Israele, Nigeria e Singapore.
Jen Easterly, direttore CISA, dichiara riportata da Reuters, che la sicurezza è il fattore principale in ogni fase dello sviluppo di sistemi e funzioni AI, invitando altri paesi ad aderire
«Questa è la prima volta che vediamo l’affermazione che queste capacità non dovrebbero riguardare solo funzionalità interessanti e la rapidità con cui possiamo immetterle sul mercato o come possiamo competere per ridurre i costi». Easterly precisa che si tratta di un “Accordo secondo cui la cosa più importante da fare in fase di progettazione è la sicurezza».
Le linee guida sono rivolte a società e sviluppatori che devono dare la priorità alla sicurezza in ogni fase: progettazione, sviluppo, implementazione, funzionamento e manutenzione. Nelle raccomandazioni anche indicazioni per evitare l’impiego di AI da parte di hacker e pirati informatici e test di sicurezza prima del rilascio di modelli e funzioni al pubblico.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet