Viviamo un periodo pericoloso. L’avidità delle grandi aziende che stanno costruendo enormi e spaventosi sistemi esperti sempre più potenti, cioè la cosiddetta “intelligenza artificiale”, sono accecati dal guadagno o semplicemente dalla vertigine dell’apprendista stregone. Vogliono fare di più ma in una direzione sola. L’umanità di queste macchine, costruite dall’uomo, è praticamente assente. Perché? Cosa succede? Cosa manca? Cosa serve?
Una voce autorevole offre una possibile soluzione: solo l’amore per la sapienza salverà l’intelligenza artificiale.
Mr. Stephen Wolfram
All’intelligenza artificiale serve la filosofia. A dirlo è uno dei pochi geni commerciali che conosciamo, Stephen Wolfram, figlio di uno scrittore, Hugo, e di una professoressa di filosofia all’università di Oxford, Sybil. Insomma, non il primo venuto. E forse la sua richiesta di avere la riflessione e l’analisi della filosofia accanto alle reti neurali e ai LLM non è così peregrina.
Per capirsi, Stephen Wolfram è un matematico, scienziato e imprenditore: classe 1959, lavora da sempre al confine tra la teoria matematica e le applicazioni concrete. Il suo software. Mathematica è da sempre una delle “macchine” più famose e importanti nel settore dell’algebra computazionale, mentre le sue altre due “creature” sono NKS (un sistema di computazione molto semplice e alternativo per capire la complessità della natura) e Alpha, il suo sistema di intelligenza artificiale e motore di ricerca.
Bambino prodigio, ha sempre riversato le sue attenzioni verso fenomeni naturali (ci sono vari suoi contributi anche alla riflessione della fisica teorica) e astrazioni matematiche, focalizzandosi su una idea di fondo, che chiama Wolfram Language, un linguaggio computazionale che riprende le ambizioni di Aristotele, Cartesio, Llull, Leibniz, Frege e via via sino a Turing e Church. Un linguaggio capace di fare cose incredibili.
Un linguaggio universale
Come ha spiegato lo stesso Wolfram in una intervista, “Il mio lavoro principale, oltre alla scienza di base, è stato quello di costruire il linguaggio computazionale ”Wolfram language”, allo scopo di avere un modo di esprimere le cose a livello computazionale che sia utile sia agli esseri umani che ai computer”.
Questo obiettivo è antico: l’idea di creare una lingua perfetta, capace di esprimere qualsiasi concetto in maniera non ambigua, e di costruire una macchina in grado di manipolarla usando degli strumenti logico-matematici, permetterebbe di creare entità automatiche che “calcolano” il significato delle cose. Un giudice automatico e infallibile, per esempio. O un oracolo senza più lati oscuri. Oppure costruire orrori e cose terribili.
Il giorno e la notte della ragione
Detto in altre parole, come sostiene Wolfram, ci stiamo perdendo un pezzo. Mentre gli sviluppatori di AI e gli imprenditori ma anche altre categorie di persone iniziano a pensare in modo più approfondito all’intersezione tra computer e persone, secondo Wolfram il vero punto di contatto è capire che si tratta in realtà di un esercizio filosofico, che implica una riflessione in senso puro sulle implicazioni che questo tipo di tecnologia può avere sull’umanità. Questo tipo di pensiero complesso è legato alla filosofia classica.
“La domanda adesso – dice Wolfram – non è tanto su come quanto su cosa si pensa. E questo è un tipo di domanda diversa da quelle che si pongono i ricercatori o gli imprenditori. Infatti, questa domanda si trova più nella filosofia tradizionale che nelle discipline scientifiche ”Stem” tradizionali”.
Qual è la cosa giusta che l’AI deve fare?
Sembra un ragionamento astratto, uno di quelli che gli intellettuali spesso fanno non si sa se per intrattenersi la sera nei salotti o per mostrare agli altri quante cose sappiano. Gente che vive parlando di cose che esistono in un iperuranio lontanissimo dalla realtà. Pensarla così, però, sarebbe un terribile errore.
In realtà, la riflessione di Wolfram è quanto di più attuale si possa immaginare. Ad esempio, quando si inizia a parlare di come mettere dei guardrail all’AI, si tratta essenzialmente di farsi delle domande filosofiche. Il ragionamento di Wolfram è interessante anche perché conosce il suo settore ma conosce anche altri aspetti della realtà: a volte nell’industria tecnologica, spiega, quando si parla di come impostare questa o quella cosa con l’AI, alcuni dicono: “Be’, facciamo in modo che l’AI faccia la cosa giusta”. E questo porta a chiedersi: “Ma qual è la cosa giusta?”. E determinare le scelte morali è un esercizio filosofico, non tecnologico.
A ben guardare, anche quando si scrivono le leggi che devono regolare l’AI, dietro dovrebbe esserci un esercizio filosofico, perché in realtà la legge è la rappresentazione formale e coercitiva di una società e della sua cultura, cioè del suo “sistema filosofico”. La legge congela su carta le domande filosofiche su cosa sia un crimine e se e come punire chi lo commette, ad esempio. Eppure, per l’AI, che pone dei problemi inediti, il legislatore (e il governante, visto che sempre più spesso sono i governi e non i parlamenti a progettare le leggi) non approfondisce l’aspetto etico e filosofico nuovo: non fa una ricerca.
Il problema è che si fraintendono i problemi
Wolfram dice di aver avuto delle “discussioni terrificanti” con aziende che stanno costruendo l’AI e lo fanno “chiaramente senza pensarci”. E spiega: “Se uno tentasse di fare una discussione socratica sul modo in cui si pensa a questo tipo di questioni, sarebbe scioccato dalla misura in cui le persone non pensano chiaramente a questi problemi. Ora, non so come risolvere questi problemi. Questa è la sfida, ma è un luogo in cui questo tipo di questioni filosofiche, credo, sono di importanza attuale”.
Il problema è che sia gli scienziati e ricercatori che i tecnici (che di base hanno la stessa preparazione) hanno una fortissima difficoltà a pensare le cose in termini filosofici. Cioè, a fare una analisi attorno alle idee con una mente indagatrice e una cultura differente che si muove in maniera diversa da quella della scienza tradizionale: “La scienza è un campo incrementale in cui non ci si aspetta di trovarsi di fronte a un modo diverso di pensare le cose”.
Se il lavoro principale della filosofia è quello di rispondere alle grandi domande esistenziali, secondo Wolfram stiamo entrando in un’età dell’oro della filosofia a causa della crescente influenza dell’intelligenza artificiale e di tutte le domande che sta sollevando. Wolfram infatti sostiene che molte delle domande con cui l’AI ci costringe a confrontarci sono in realtà domande filosofiche tradizionali. “I filosofi sono molto, molto più agili e preparati degli scienziati per affrontare questo tipo di discussioni”.
Le conseguenze
Se Steve Jobs diceva che Apple si trova al crocevia tra arti liberali e tecnologia, Wolfram aggiunge una terza via: la filosofia. E l’incrocio, il trivio, diventa più pregnante per i nostri tempi. Bisogna ritrovare il fondamento del nostro pensiero in libri come “La Repubblica” di Platone, se vogliamo ripartire dalla filosofia occidentale e conquistare le cause prime del pensiero delle macchine.
Come ha detto infatti Wolfram, “Se le AI gestiscono il mondo, come vogliamo che lo facciano? Come pensiamo a questo processo? Qual è il tipo di modernizzazione della filosofia politica al tempo dell’AI?”. Questo genere di cose risale alle domande fondamentali di cui parlava Platone”.
Tutti gli articoli che parlano di Intelligenza Artificiale sono nella sezione dedicata di macitynet.