Ci sono molte metafore che riguardano i martelli. La più usata è quella che parla del cambiamento di attitudine di una persona che ha in mano un martello: ogni cosa che vede è un chiodo da battere. Oppure, altra metafora: il martello può essere utilizzato a fin di bene (battere i chiodi in casa) oppure come arma (darlo in testa a qualcuno). Non è il martello inerentemente cattivo, dipende da chi lo usa.
Queste sono due delle metafore più usate quando si parla di uso degli strumenti e sicuramente si può applicare come quadro di riferimento anche alle intelligenze artificiali. Anzi, diciamo che si tratta di due metafore ficcanti, anche se potremmo introdurne una terza più adeguata che però vedremo più avanti.
Adesso che ChatGPT è tornata legale con maggiori garanzie per quanto riguarda la privacy degli utenti che lo usano (cioè la modalità di registrazione al servizio) e giustissima protezione per i minori, emergono infatti due problemi che le due metafore viste sopra in qualche modo amplificano semplificando.
Tutto il mondo è un chiodo
L’intelligenza artificiale sta rapidamente diventando virale – anzi lo è già diventata – e questo comporta la trasformazione della nostra percezione di questo fenomeno, basata sull’idea che sia sostanzialmente necessario infilarla ovunque.
Quindi, evoluzione dei prodotti, finanziamenti alle startup, ricerca di funzioni innovative basate sulla AI, valutazioni di merito (questa cosa va bene perché ha la AI, questa no perché non c’è) sostanzialmente a prescindere. Il giudizio che tutto il mondo della tecnologia e degli utenti sta cominciando a esprimere in funzione della presenza/assenza delle AI parte parte di un più generale processo di “domesticazione” da parte della società e dell’industria dell’idea nuova (relativamente nuova: per il grande pubblico) della AI come panacea e soluzione di ogni male.
È proprio come la metafora del martello e del chiodo: adesso stiamo vedendo tutto come un chiodo da battere (software, applicazioni), perché abbiamo questo nuovo martello (AI) che ci esalta e ci dà la sensazione che potremmo cambiare il mondo (anzi, che lo stiamo cambiando). Inutile dire che è una sensazione illusoria e che presto questo passerà. Il mondo sarà stato effettivamente cambiato ma andrà nella direzione della risultante di un sistema di forze composito con spinte e trazioni diverse. Molti vettori, anzi, che vanno in direzioni diverse con intensità diversa e che produrranno una risultante unica, che poi sarà semplicemente il combinato disposto di quel che succede in questo periodo.
Tutto il mondo è un’arma
L’intelligenza artificiale è molto temuta perché, ovviamente, ha un potenziale rivoluzionario rispetto agli assetti esistenti. Gente che perde lavoro, danni che possono essere introdotti nella società utilizzandola male, problemi che si generano. Di per sé, però, l’intelligenza artificiale non è un’arma. Può diventarlo se usata come tale (i robot intelligenti usati nei campi di battaglia, i droni militari) oppure se usata a vanvera (applicativi che prendono decisioni critiche per le persone, con delle conseguenze). Cosa può succedere, ancora?
Semplice, servono linee guida e responsabilità. Questo lo capisce chiunque e il lavoro fatto dal Garante italiano è stato molto importante anche dal punto di vista simbolico e politico: ha mostrato che il mondo delle ai e le modalità di utilizzo non è un mondo “legibus soluto“, un mondo senza regole. Questo è un settore che deve essere normato, guidato verso un quadro più ampio che si chiama società e che quindi ha delle regole e dei modelli di comportamento. Non c’è niente di straordinario, se non il fatto che diamo sempre questa incredibile “licenza di uccidere”, cioè gradi di libertà enormi, a chi produce e commercializza le tecnologie.
Certo, senza questa libertà, se tutto dovesse essere certificato e regolato a priori, ammazzeremmo l’innovazione e la velocità del progresso. Ma una eccessiva libertà produce il far west che a sua volta provoca danni alle persone, sia direttamente che stravolgendo interi settori dell’economia e della società. È un gioco difficile, che richiede equilibri complessi, non intuitivi, che devono essere ben pensati, saggiamente, da parte di persone capaci di interpretare il mondo come un sistema molto più ricco e complicato di quello che non viene semplificato sistematicamente sui social, dal marketing, dalla politica e dai giornalisti.
Una terza metafora: i martelli etici
Il martello però deve essere visto non solo dal punto di vista del suo utilizzo. C’è anche il lato della produzione, cioè il lato di chi i martelli li produce. E qui la metafora in realtà non c’è tanto, ma è fondamentale trovarla lo stesso. A prescindere da come vengono usati, è importantissimo capire come vengono fatti. Potremmo parlare di “martelli etici*, nel senso che i martelli devono essere fatti con materiali estratti nella maniera corretta e da fabbriche in cui si lavora in maniera responsabile, legale, senza violazioni delle normative.
Qui casca l’asino dell’intelligenza artificiale, però: il martello, cioè l’intelligenza artificiale, diventa un oggetto che viene prodotto in un modo molto poco etico. La fase di addestramento è fatta sostanzialmente appropriandosi di tutti i dati in circolazione, fregandosene di copyright e diritto d’autore ma anche di bias introdotti nella rete neurale o nel modello di machine learning e di altre manchevolezze. I martelli vengono prodotti in maniera non etica e con materiali oltretutto fallati.
Questo è il problema al quale bisogna fare riferimento e che non deve essere dimenticato perché ci costringe a fare un ragionamento più ampio su come e chi produce martelli. La fase della scoperta è decisamente passata, adesso siamo arrivati alla fase dell’evoluzione, dell’addestramento per la produzione, del raffinamento dei prodotti, nella pulizia delle funzioni. E questo lavoro richiede una discreta attenzione a quel che succede dietro le quinte, sul versante produttivo.
L’intelligenza artificiale è bella, preziosa e risplendente, come i diamanti. Ma non deve essere sporca di sangue, metaforicamente parlando: deve essere prodotta nel modo giusto. Sennò è sbagliata.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet