Mentre il mondo si entusiasma per ChatGPT e affini, un gruppo di ricercatori di Apple ha deciso di giocare il ruolo di guastafeste. Con un colpo di scena degno di una serie tv, hanno dichiarato che l’imperatore è nudo: l’intelligenza artificiale, a quanto pare, non è poi così intelligente.
Ma andiamo con ordine. Questi coraggiosi Davide contro il Golia dell’hype tecnologico hanno scrutato nelle profondità dei Large Language Models (LLM), quei golem digitali che stanno dietro a ChatGPT e compagnia bella. Hanno fatto una lunga analisi, con tanto di pubblicazione scientifica per spiegare cosa hanno trovato. Il verdetto? Nessuna traccia di ragionamento formale. Zero. Nada. Nichts.
Il papagallo stocastico
Invece, quello che hanno trovato assomiglia più a un sofisticato gioco di “trova le differenze” che a un vero processo di pensiero. È come se avessimo scambiato un pappagallo particolarmente dotato per un filosofo. E se questo vi fa tornare alla mente le critiche che erano state sollevate all’inizio dell’avventura roboante di ChatGPT, avete ragione: è proprio quello il tema. Di che cosa stiamo parlando, quando stiamo parlando di ChatGPT e delle altre “intelligenze artificiale conversazionali”?
Ma non finisce qui. I ricercatori hanno escogitato un test particolarmente perfido chiamato GSM-NoOp. In pratica, hanno cercato di confondere i modelli con informazioni irrilevanti. E indovinate un po’? Ci sono riusciti alla grande. Il risultato di questa sorta di test di Rorschach per AI è stata la chiave di volta.
Ci è o ci fa?
Cambiate un nome qui e là, aggiungete qualche dettaglio superfluo, ed ecco che il “genio” artificiale va in tilt. I risultati possono variare fino al 10% solo per questi piccoli cambiamenti. È come se Einstein cambiasse la teoria della relatività ogni volta che qualcuno gli chiede l’ora.
Ma attenzione, questa non è una novità assoluta. Già nel 2017, un gruppo di ricercatori di Stanford aveva ottenuto risultati simili. E nel 2019, Gary Marcus ed Ernest Davis ne parlavano nel loro libro “Rebooting AI”. Solo che non gli abbiamo dato ascolto all’epoca. Lo faremo adesso? Oppure continuiamo a ripetere a pappagallo la narrazione dominante che l’AI è la più grande rivoluzione del genere umano? La panacea di ogni male? Lo strumento dalle capacità divine che riuscirà a far tutto?
L’intelligenza finta nel posto sbagliato
Nei fatti, quel che succede è che ci sono scienziati che provano a raccontare le loro scoperte ma nessuno li ascolta. Anzi. È un po’ come se continuassimo a ripetere lo stesso esperimento sperando in un risultato diverso. Einstein (quello vero) avrebbe qualcosa da dire su questa definizione di follia.
La cosa preoccupante è che questi sistemi sono già utilizzati in contesti critici. Pensate al Cybercab di Elon Musk. Funzionano bene nelle situazioni comuni (si spera), ma cosa succede quando devono affrontare scenari inediti? Non lo sappiamo, non solo perché l’azienda non è esattamente un campione di trasparenza. Non lo sappiamo anche perché il modo con il quale le black box delle intelligenze artificiali ragionano è diverso da come pensiamo: non sono realmente “intelligenti”, bensì fanno finta.
Ignoranza non excusat
E non è solo una questione di guida autonoma. Perché da tempo ormai siamo di fronte a una vera e propria escalation dei sistemi di intelligenza artificiale. Questi sistemi vengono impiegati in ambiti sempre più delicati, dalla diagnosi medica alla gestione finanziaria. È come se stessimo affidando decisioni cruciali a un imitatore molto dotato, ma che non ha la più pallida idea di cosa stia effettivamente imitando.
Il problema di fondo, secondo Gary Marcus (che su questo tema batte come un martello pneumatico dal 1998), è che le attuali architetture di reti neurali non sono in grado di estrapolare e ragionare in modo formale. È come se avessimo costruito una calcolatrice che funziona perfettamente finché non le chiedi di fare una somma.
La soluzione? Marcus propone un approccio “neurosimbolico”, che combini le reti neurali con la manipolazione simbolica. In pratica, vuole mettere un po’ di algebra nel frullato neurale. Potrebbe non essere la panacea, ma almeno è un tentativo di uscire dal vicolo cieco in cui ci siamo cacciati.
Attenti al computer
Tutto questo potrebbe sembrare una secchiata d’acqua gelida sull’entusiasmo per l’AI. Ma in realtà è una buona notizia. Perché? Perché ci costringe a fare i conti con la realtà, invece di cullarci in fantasie da film di fantascienza.
Capire i limiti dell’AI è il primo passo per migliorarla davvero. È come quando realizzi che il tuo figlio prodigio in realtà non sa allacciarsi le scarpe: non smetti di amarlo, ma capisci che c’è ancora molto lavoro da fare. E nel caso dell’Ai a quanto pare di lavoro ce n’è una montagna, da tenere occupata una legione di Ph.D. in machine learning per un sacco di tempo.
La metà piena del bicchiere
Aggiungiamo anche un’altra osservazione: questa consapevolezza ci permette di usare l’AI in modo più intelligente (ironia della sorte). Sapendo che è brava a riconoscere i pattern ma non a ragionare, possiamo sfruttarla al meglio nelle attività in cui eccelle, senza pretendere l’impossibile. Possiamo cioè farle fare cose come l’analisi di grandi quantità di dati o il riconoscimento di immagini.
L’AI cioè è perfetta per fare l’analisi di migliaia di immagini mediche per individuare potenziali anomalie oppure le previsioni meteorologiche basate su enormi quantità di dati storici o, infine, fare la traduzione automatica tra lingue, sfruttando pattern linguistici. Invece, bisogna evitare come la peste di farle prendere decisioni critiche in autonomia (cose come le diagnosi mediche definitive senza supervisione umana, le sentenze in tribunale o, per chi magari avesse tentazioni in questo senso, lanciare le armi nucleari).
Insomma: niente decisioni critiche in autonomia, niente compiti che richiedono comprensione etica profonda (tipo stabilire politiche pubbliche su temi sensibili come l’eutanasia o l’aborto), niente deleghe di responsabilità che necessitano di empatia e comprensione umana (psicologo automatico o mediazione in conflitti familiari o diplomatici), niente analisi che richiedono contestualizzazione storica o culturale complessa, e mai e poi mai usare l’AI come fonte unica e definitiva di informazioni.
La commedia digitale
In fondo, l’intelligenza artificiale è come un coltellino svizzero molto sofisticato. Utilissimo per molte cose, ma non gli chiederesti di prepararti un soufflé. O di risolvere l’enigma della coscienza.
Quindi, la prossima volta che sentirete parlare di AI che “ragiona” o “pensa”, prendetelo con un pizzico di scetticismo. O magari con un intero sacco di scetticismo e anche di disincanto e noia, per buona misura. Perché l’intelligenza artificiale, per ora, è più artificiale che intelligente.
Ma non disperiamo. Questo è solo l’inizio del viaggio. Chi lo sa, magari un giorno avremo davvero delle macchine che ragionano. Nel frattempo, scaldiamo i popcorn nel microonde, tiriamo fuori una bibita gelata e godiamoci lo spettacolo di vedere l’umanità che cerca di insegnare a pensare a delle macchine. È un po’ come guardare un gatto che cerca di insegnare a un pesce a salire sugli alberi. Frustrante, certo, ma tremendamente divertente.
Tutti gli articoli che parlano di Intelligenza Artificiale sono nella sezione dedicata di macitynet.