Questo sito contiene link di affiliazione per cui può essere compensato

Home » News » La Commissione europea propone regole per l’intelligenza artificiale

La Commissione europea propone regole per l’intelligenza artificiale

Pubblicità

La Commissione europea propone nuove regole e azioni presentate come “volte a trasformare l’Europa nel polo mondiale per un’intelligenza artificiale (IA) affidabile”. L’unione tra il primo quadro giuridico sull’IA mai realizzato e un nuovo piano coordinato con gli Stati membri dovrebbe garantire la sicurezza e i diritti fondamentali di persone e imprese, rafforzando nel contempo l’adozione dell’IA e gli investimenti e l’innovazione nel settore in tutta l’UE.

Le nuove regole sulle macchine integreranno questo approccio adattando le regole di sicurezza “per far crescere la fiducia degli utenti in una nuova e versatile generazione di prodotti”.

Il nuovo regolamento sull’IA garantirà che i cittadini europei possano fidarsi di ciò che l’IA ha da offrire, grazie a “regole proporzionate e flessibili” che affronteranno i rischi specifici posti dai sistemi di IA e “fisseranno i più elevati standard a livello mondiale”.

Bandiera UE

L’approccio europeo a un’IA affidabile

Le nuove regole saranno applicate direttamente e nello stesso modo in tutti gli Stati membri, sulla base di una definizione di IA adeguata alle esigenze future, e seguono un approccio basato sul rischio.

Rischio inaccettabile: i sistemi di IA considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone saranno vietati. Sono compresi i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un “punteggio sociale”.

Rischio alto: sono considerati ad alto rischio i sistemi in cui la tecnologia di IA è utilizzata:

  • in infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini;
  • nell’istruzione o formazione professionale, poiché può determinare l’accesso all’istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami);
  • in componenti di sicurezza dei prodotti (ad esempio un’applicazione di IA utilizzata nella chirurgia assistita da robot);
  • nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo (ad esempio, software di selezione dei CV per le procedure di assunzione);
  • in servizi pubblici e privati essenziali (ad esempio, lo scoring del credito che può negare ai cittadini la possibilità di ottenere un prestito);
  • in attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell’affidabilità delle prove);
  • nella gestione della migrazione, dell’asilo e del controllo delle frontiere (ad esempio, verifica dell’autenticità dei documenti di viaggio);
  • nell’amministrazione della giustizia e nei processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti).

I sistemi di IA ad alto rischio saranno soggetti a obblighi rigorosi prima che possano essere immessi sul mercato:

  • adeguati sistemi di valutazione e attenuazione dei rischi;
  • elevata qualità dei set di dati che alimentano il sistema, per ridurre al minimo i rischi e i risultati discriminatori;
  • registrazione delle attività per garantire la tracciabilità dei risultati;
  • documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sulle sue finalità affinché le autorità possano valutarne la conformità;
  • informazioni chiare e adeguate per l’utente;
  • appropriate misure di sorveglianza umana, per ridurre al minimo i rischi;
  • elevato livello di robustezza, sicurezza e accuratezza.

In particolare, tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. Il loro utilizzo in tempo reale ai fini di attività contrasto in spazi accessibili al pubblico è in linea di principio vietato. Sono previste poche eccezioni rigorosamente definite e regolamentate (ad esempio, ove strettamente necessario per cercare un minore scomparso, prevenire una minaccia terroristica specifica e imminente o individuare, localizzare, identificare o perseguire autori o sospettati di un reato grave). Tale uso è soggetto all’autorizzazione di un organo giudiziario o di un altro organo indipendente e a limiti per quanto riguarda il tempo, la portata geografica e le banche dati ricercate.

Rischio limitato, ossia sistemi di IA con specifici obblighi di trasparenza: quando utilizzano sistemi di IA come i chatbot, gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina, in modo da poter decidere con cognizione di causa se continuare ad usarli oppure no.

Rischio minimo: la proposta legislativa consente il libero utilizzo di applicazioni quali videogiochi o filtri spam basati sull’IA. La grande maggioranza dei sistemi di IA rientra in questa categoria. Il progetto di regolamento non interviene in questo caso, poiché questi sistemi di IA presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.

In termini di governance, la Commissione propone che le autorità nazionali di vigilanza del mercato competenti supervisionino le nuove regole, mentre l’istituzione di un comitato europeo per l’intelligenza artificiale ne faciliterà l’attuazione e stimolerà lo sviluppo di norme per l’IA. Vengono inoltre proposti codici di condotta volontari per i sistemi di IA non ad alto rischio, nonché spazi di sperimentazione normativa per facilitare un’innovazione responsabile

Da anni la Commissione sta agevolando e rafforzando la cooperazione in materia di IA in tutta l’UE per promuoverne la competitività e garantire la fiducia basata sui valori dell’UE.

In seguito alla pubblicazione della strategia europea sull’IA nel 2018 e dopo un’ampia consultazione dei portatori di interessi, il gruppo di esperti sull’intelligenza artificiale ha elaborato orientamenti per un’IA affidabile nel 2019 e una lista di valutazione per un’IA affidabile nel 2020. Nel dicembre 2018 è stato parallelamente pubblicato il primo piano coordinato sull’IA, come impegno congiunto con gli Stati membri.

Il libro bianco sull’IA della Commissione, pubblicato nel 2020, delinea la visione dell’IA in Europa: un ecosistema di eccellenza e fiducia, presentato come alla basi dell’ultima proposta. La consultazione pubblica sul libro bianco sull’IA ha registrato un’ampia partecipazione da tutto il mondo. Il libro bianco è stato accompagnato da una “Relazione sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e di responsabilità”, in cui si conclude che la vigente normativa in materia di sicurezza dei prodotti presenta una serie di lacune che devono essere colmate, in particolare nella direttiva macchine (un’ampia gamma di prodotti professionali e di consumo, dai robot ai tosaerba, alle stampanti 3D, alle macchine per l’edilizia e alle linee di produzione industriale).

Per tutti gli articoli di macitynet che parlano di Intelligenza Artificiale fate riferimento a questo indirizzo.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Offerte Speciali

Dieci regali Apple da acquistare su Amazon con consegna prima di Natale

I migliori prodotti Apple con sconto su Amazon e che arrivano entro Natale

Arrivano in tempo per i vostri acquisti di fine anno. Comodissimi per chiudere un bilancio con le spese più utili per il lavoro.
Pubblicità

Ultimi articoli

Pubblicità