Bosch da tempo stima che sai necessario un codice che stabilisca dei limiti etici per l’uso dell’intelligenza artificiale (IA) all’interno delle aziende ed ha ora emanato una serie di linee guida vincolanti che regolano l’utilizzo dell’IA nei suoi prodotti “intelligenti”.
Il codice etico si basa sul principio secondo cui l’uomo deve avere l’ultima parola su qualsiasi decisione basata sull’IA. “L’intelligenza artificiale deve essere al servizio delle persone. Il nostro codice etico per l’IA fornisce ai nostri collaboratori una chiara guida per lo sviluppo di prodotti intelligenti” ha riferito il CEO di Bosch, Volkmar Denner, durante il discorso di apertura al Bosch ConnectedWorld (BCW), l’evento annuale di Bosch dedicato all’IoT che si svolge a Berlino. “Il nostro obiettivo è fare in modo che le persone si fidino dei nostri prodotti basati sull’IA”.
L’IA è una tecnologia di vitale importanza per l’azienda tedesca. L’obiettivo è dotare tutti i prodotti di intelligenza artificiale, oppure, fare in modo che siano sviluppati o realizzati con l’aiuto dell’IA entro il 2025. Inoltre, l’azienda vuole rendere i propri prodotti IA sicuri, affidabili e comprensibili. “Se l’IA è una scatola nera, la gente non può fidarsi di essa. Nel mondo connesso, tuttavia, la fiducia sarà un fattore essenziale” ha dichiarato Michael Bolle, CDO e CTO di Bosch. Bosch punta a produrre prodotti basati sull’IA che siano affidabili. Il codice etico si fonda sulla filosofia aziendale “Tecnologia per la vita”, che combina la ricerca dell’innovazione con un senso di responsabilità sociale. Nei prossimi due anni l’azienda prevede di formare 20.000 collaboratori all’uso dell’IA. Il codice etico per l’IA di Bosch, che disciplina l’uso responsabile di questa tecnologia, sarà parte del programma di formazione.
L’intelligenza artificiale è un motore globale di crescita e progresso. I consulenti di gestione PwC, per esempio, calcolano che, entro il 2030, l’IA farà aumentare il PIL del 26% in Cina, del 14% in Nord America e di circa il 10% in Europa. Questa tecnologia può contribuire a superare le sfide, come la necessità di intraprendere azioni a favore del clima e ottimizzare i risultati in molte aree: trasporti, medicina, agricoltura. Analizzando grandi volumi di dati, gli algoritmi sono in grado di ragionare e prendere decisioni. Molto prima dell’introduzione delle normative UE, Bosch ha preso la decisione di affrontare attivamente le questioni etiche sollevate dall’utilizzo dell’IA. Il fondamento morale di questo processo è dato dai valori sanciti nella Dichiarazione Universale dei Diritti Umani.
Il codice etico per l’IA prevede che l’intelligenza artificiale non prenda decisioni relative alle persone senza che l’uomo ne abbia il controllo. L’intelligenza artificiale deve, anzi, essere uno strumento al servizio dell’uomo.
Sono descritti tre modelli possibili. Tutti hanno in comune quanto segue: nei prodotti basati sull’IA, gli umani devono avere il controllo su qualsiasi decisione presa dalla tecnologia.
Nel primo modello (l’uomo ha il controllo), l’intelligenza artificiale è puramente un ausilio, per esempio come nei sistemi di supporto alle decisioni in cui l’IA può aiutare le persone a classificare gli oggetti o gli organismi.
Nel secondo modello (l’uomo può intervenire) un sistema intelligente prende in modo autonomo decisioni che l’uomo può, tuttavia, annullare in qualsiasi momento. Ne sono un esempio la guida parzialmente autonoma in cui il guidatore umano può intervenire direttamente nella decisione, per esempio, di un sistema di parcheggio assistito.
Il terzo modello (l’uomo non può intervenire) riguarda la tecnologia intelligente, come i sistemi di frenata di emergenza. Durante la fase di sviluppo di queste tecnologie, gli esperti stabiliscono determinati parametri su cui si basano le decisioni dell’IA. L’uomo non può dunque intervenire nel processo di decisione stesso. A posteriori, gli ingegneri verificano se il sistema ha agito entro i parametri definiti che, se necessario, possono essere modificati.
Bosch è fiduciosa che il suo codice etico per l’IA possa contribuire al dibattito pubblico sull’intelligenza artificiale. “L’IA trasformerà ogni aspetto della nostra vita, ecco perché questo dibattito è di fondamentale importanza” ha spiegato Denner. Ci vorrà più del solo know-how tecnico per instaurare la fiducia nei sistemi intelligenti, è necessario anche un dialogo serrato che coinvolga la politica, la comunità scientifica e i cittadini. Per questo motivo, l’azienda partecipa all’High-Level Expert Group on Artificial Intelligence, un ente creato dalla Commissione Europea per approfondire aspetti quali le proporzioni etiche dell’IA.
In una rete globale che al momento comprende sette sedi e in collaborazione con l’Università di Amsterdam e la Carnegie Mellon University (Pittsburgh, USA), Bosch sta lavorando allo sviluppo di applicazioni di intelligenza artificiale più sicure e affidabili. Analogamente, in quanto membro fondatore dell’alleanza per la ricerca della Cyber Valley nel Baden-Württemberg, investirà 100 milioni di euro nella costruzione di una campus per l’IA, in cui 700 dei suoi esperti presto lavoreranno fianco a fianco con ricercatori esterni e collaboratori delle startup. Infine, ma ugualmente importante, il Digital Trust Forum, un comitato fondato da Bosch, si propone di promuovere un fitto scambio di idee tra gli esperti delle principali associazioni e organizzazioni internazionali.