Questo sito contiene link di affiliazione per cui può essere compensato

Home » Hi-Tech » Internet » La pigrizia è il grande equivoco dell’intelligenza artificiale

La pigrizia è il grande equivoco dell’intelligenza artificiale

Pubblicità

È tutta colpa del nome. Perché da un lato è vero quel che Giulietta diceva al suo Romeo: “Cosa c’è in un nome? Quella che chiamiamo rosa, con qualsiasi altra parola avrebbe un profumo altrettanto dolce“. Dall’altro però se usiamo una parola in particolare per descrivere un oggetto, lo coloriamo di significato.

Infatti, i latini dicevano invece nomen omen, cioè “un nome, un destino”. E chiamare la “intelligenza artificiale” così, cioè “intelligenza artificiale”, genera un “destino” del termine, nel senso che ispira nelle menti di chi ne sente parlare dei pre-giudizi. Sono delle aspettative, delle vere e proprie predisposizioni da parte di chi legge “AI” rispetto a quelle che potrebbe suscitare con altri nomi (“sistema esperto”, ad esempio). “AI” ci fa pensare che sia “intelligente”. E questo, come vedrete leggendo qui di seguito, è un problema. Un grosso problema.

Intelligente in che senso

Ci sono vari motivi per dire che le AI non sono “intelligenti”. Intanto, perché non abbiamo una definizione di “intelligenza”. A partire dal fatto che ne esistono comunque di vari tipi e che ulteriori vengono identificate dai neuroscienziati o considerati parti di altre più generali. E non parliamo poi della “coscienza“. Abbiamo varie teorie della mente, ma nessuna che sia conclusiva.

Inoltre, i test fatti sugli umani e sugli animali misurano in maniera spesso anche molto arbitraria cose che sono comunque molto diverse tra di loro e per di più transitorie (nel senso che cambiano di epoca in epoca).

Infine, nella nostra società abbiamo sviluppato una forte attitudine a ritenere i numeri “oggettivi” (come se la matematica fosse una essenza di per sé e non un linguaggio) e quindi li applichiamo su qualsiasi cosa per dire che è “vera”. Alla domanda: possiamo misurare il quoziente di intelligenza? Molti rispondo “certo” solo perché abbiamo dei test e dei punteggi per farlo. Cosa misurino e se queste misure hanno senso è diventato irrilevante. La cosa importante sono i numeri. Grazie a loro possiamo non solo dire che l’intelligenza è “una cosa”, ma anche dire quanta ce n’è, quando è di più e quando è di meno. Secondo la scienza no, non possiamo dirlo così, ma per il resto delle persone (e dei mercati economici) avere dei numeri basta e avanza a rendere tutto oggettivo. Spostando così il piano della discussione da “Cos’è l’intelligenza” a “Quanta intelligenza c’è oggi rispetto a ieri? E in un animale rispetto a un uomo? E nei computer?”.

L’idea sventurata

In particolare, la scelta sventurata fatta quasi settant’anni fa di chiamare le nuove tecnologie informatiche “intelligenza artificiale” ha come conseguenza quella di farci pensare che esse – le macchine – siano intelligenti. La data fatidica di nascita ufficiale è il 1956, l’anno cioè in cui si tenne un oramai famoso seminario estivo al Dartmouth College di Hanover nel New Hampshire.

Venne così fondata la nuova disciplina, stabilendo una base, programmi e idee di un campo che faceva parte dell’informatica. Perché, non dimentichiamolo, lo studio e implementazione dell’intelligenza artificiale tale è: parte dell’informatica. Tuttavia, nelle intenzioni il settore delle AI avrebbe dovuto coordinare e dare maggior senso a degli sforzi che si possono far risalire addirittura a Leibniz e ai proto-scienziati che avevano provato a realizzare automi “logici” teorici o anche pratici sin dall’antichità. In realtà non bisogna sbagliarsi: queste ricerche e il loro progresso è dipeso in tutto e per tutto dallo sviluppo della scienza informatica.

La scelta di chiamarla “intelligenza artificiale”, alquanto dibattuta all’epoca, dette il via allo sviluppo di grandi aspettative (macchine coscienti e pensanti come se non meglio dell’uomo) che si rivelarono presto fallaci e portarono a quello che è stato definito “l’inverno dell’intelligenza artificiale”, intendendo un lungo periodo in cui i fondi accademici si ridussero drasticamente così come l’interesse dei giovani scienziati a occuparsi dei problemi di ricerca di questo settore, che veniva considerato come una specie di ramo secco dell’indagine scientifica.

Questo sino a quando un piccolo gruppo di quattro ricercatori di Google non ha sviluppato tecniche nuove per un particolare sotto-tipo di intelligenza artificiale che poi quelli di OpenAI hanno sviluppato e commercializzato a tempo di record. Si tratta di ChatGPT, un chatbot di tipo GTP, che vuol dire Generative Pretrained Trasnformer. Il Transformer, “trasformatore”, è l’architettura sviluppata dai ricercatori di Google molto efficiente per l’elaborazione del linguaggio naturale (capire cosa gli viene detto e rispondere in maniera comprensibile). Il sistema è stato pre-addestrato con un metodo di apprendimento supervisionato che ha creato un Modello linguistico di grandi dimensioni (LLM) grazie agli algoritmi di Deep Learning, un tipo di reti neurali.

E il resto è storia. Oppure no?

Il collasso della civiltà Occidentale?

L’arrivo di ChatGPT ha provocato una fiammata fra le più spettacolari nel mondo della tecnologia e, a ruota, nella finanza e poi nella società. All’improvviso, dopo la pandemia, trovarsi davanti a un computer capace di capire e rispondere come un essere umano ha fatto esplodere la testa a tutti.

È partita, come conseguenza di una tecnologia strepitosa, una bolla ancora più spettacolare. Che ci ha travolti e ancora lo sta facendo. Soprattutto perché non mettiamo bene a fuoco un aspetto fondamentale dell’intelligenza artificiale: a cosa serve.

Attenzione, qui di seguito non vogliamo dire che non esista l’intelligenza artificiale (quel particolare sotto-insieme della disciplina che sta avendo successo a partire da ChatGPT). Tutt’altro. O dire che non sia utile. Tutt’altro. Ma solo dire che fraintenderla è un errore enorme, e che questo porta a distorsioni che si amplificano nel tempo in maniera particolarmente dannosa.

Per l'uomo a capo dell'AI di Meta i modelli linguistici non supereranno mai l'intelligenza umana
Foto di Steve Johnson Unsplash

Uno vale uno, oppure no?

L’AI dovrebbe essere vista come uno strumento di supporto agli esseri umani anziché un modo per rimpiazzarli. Uno strumento che aiuta nei processi di analisi dei dati o di progettazione e non un rimpiazzo per il pensiero umano.

Mettiamola in un altro modo: credere che “intelligenza artificiale” voglia dire avere un computer che è “intelligente” spinge verso l’errore di ritenere che quel computer possa in qualche modo essere una alternativa a un essere umano reale sul lavoro. Perché uno dei criteri che si hanno per la scelta del personale è certamente quello della “intelligenza” (intesa anche come preparazione e tutto il resto) e, potrebbero argomentare dirigenti, imprenditori e uffici delle risorse umane, se il computer diventa intelligente quanto la persona, allora per alcuni compiti può sostituirla.

Questo è un errore, ma non per i motivi sindacali che possono (e giustamente vengono) fatti notare in questi casi. È invece proprio un errore di sbaglio.

Il giardino della conoscenza

Non è uno sbaglio che riguarda solo l’AI: si possono fare anche altri esempi per capire in maniera semplice perché affidarsi al “giudizio” delle AI sia sbagliato. Prendiamo come esempio i sistemi di gestione della conoscenza personale, i PKM. L’idea è che questi contenitori delle nostre note, dei nostri appunti, dei nostri “pezzetti” di conoscenza, possano essere messi in rete fra loro e generare una serie di relazioni che poi, in un secondo momento, ci sono utili per fare altre cose: scrivere un articolo o un libro, prendere una decisione in ufficio e via dicendo.

L’idea sbagliata è quella di credere che l’intelligenza sia una “cosa” e che questa “cosa” sia la somma delle note e i legami che si possono ottenere dal sistema. Invece, l’intelligenza è il processo di creazione (fatto da noi) di quelle note e la relazione che costruiamo, con una serie di iterazioni successive dell’analisi dei legami tra le singole note. L’intelligenza è un processo, non uno stato, e le note sono il presupposto di quel processo, non il suo risultato.

In altre parole, se prendiamo solo il risultato delle nostre note legate fra loro automaticamente, non abbiamo imparato niente. Qual è il vantaggio di avere tantissime note e aver automatizzato la loro aggregazione con tag e grafici e curve di ricorrenza? Abbiamo ancora più dati ma non abbiamo pensato di più. Serve il nostro lavoro di creazione delle note e lo sforzo di analisi e apprendimento. Lo strumento ci può aiutare, ma se ci sostituisce e fa il lavoro per noi il risultato è che abbiamo contemporaneamente sia il prodotto finale che zero capacità di farlo noi. Un bel paradosso, no?

Allora cos’è l’AI? Uno strumento, un assistente per noi che facciamo le cose? Ma in quale modo e con quale rischi? Ed entro quali limiti?

La macchina che fa da sola la rivoluzione (industriale)

Il tema profondo è il “deskilling”, cioè la eliminazione degli skill, che in italiano chiamiamo più semplicemente “dequalificazione”. Non è una novità, è già successo con il passaggio dalla produzione artigianale in serie, fatta da artigiani altamente specializzati ma inevitabilmente lenti, alla produzione in serie automatizzata per quanto possibile con operai non specializzati che azionavano semplicemente le macchine e facevano da “colla” tra il passaggio da una linea a un’altra, o nelle fase di semplice montaggio dei pezzi prodotti automaticamente.

La storia del dequalificazione dell’avvocato del futuro è semplice. L’AI viene indicata come uno strumento capace di eliminare i lavori più stupidi e ripetitivi. Facilitare le cose che si possono fare in maniera creativa. E qui c’è sempre molta enfasi sulle professioni creative che all’improvviso emergono come le più produttive e remunerate perché non c’è più bisogno di competenze “hard”, frutto di studi sistematici e molto concreti su ingegneria, chimica, fisica, ma anche architettura, economia, diritto e via dicendo.

LA storia dell’avvocato e dell’AI

Un esempio sono gli assistenti intelligenti per gli avvocati del futuro, che eliminino il bisogno di fare tutte quelle ricerche noiosissime tra gli atti dei processi e la normativa, Oggi generalmente affidati ai giovani praticanti e agli avvocati più giovani dei grandi studi. Con il problema che, tolto quel lavoro ai giovani, si perde completamente il meccanismo di apprendimento e socializzazione al lavoro.

Il risultato è che in futuro i neolaureati in legge con abilitazione passeranno direttamente alle fasi più complesse e sofisticate della loro professione, cioè quelle che non possono essere automatizzate? E con quali conseguenze? A breve nessuna, se non che ci sarà una prima generazione di avvocati (e mille altre professioni) che faranno prima, di più e probabilmente meglio. Ma subito dopo ci sarà un’ondata di riflusso creata dalla mancanza di competenze. Un impoverimento collettivo micidiale.

La pigrizia

Un’altra immagine è quella di una società che con l’automobile e gli altri mezzi di trasporto personale, inclusi i monopattini elettrici, si impigrisce sempre di più e poi ha bisogno di fisioterapia e sedute di palestra per smaltire il peso accumulato e ridare tonicità ai muscoli atrofizzati. Quando sarebbe bastato camminare.

La pigrizia è la madre di molti vizi e può portare fra le altre cose all’inettitudine. Perché ottenebra ma soprattutto perché non fa progredire. La complessità del nostro mondo richiede capacità di studio e pensiero critico, non computer che facciano tutto al posto nostro. Qual è il vantaggio se lo studente può premere il pulsante e avere la tesina già scritta? O il materiale per il compito già raccolto? O il disegno già fatto?

La grande bellezza dell’AI

È come prendere le pillole per dimagrire o le creme per farsi crescere i muscoli, quando la risposta sarebbe una vita attiva, esercizio e alimentazione sana. Cosa che oltretutto allunga la vita. Perché il trasferimento della conoscenza fatto in questo modo è estremamente poco efficace, ammesso che avvenga. L’AI, a causa di questo grande fraintendimento sul suo significato, viene ovviamente vista da dirigenti e imprenditori come un modo per risparmiare e potenzialmente aumentare la propria produttività. È anche giusto che sia così: sono le regole del libero mercato. Ma al prezzo di preparare una legione di incapacitati.

In conclusione

“AI” è un termine improprio per le tecnologie attuali. L’espressione è eccessiva e non rende giustizia alle capacità degli LLM. La parola “intelligenza” suscita aspettative che gli LLM non possono soddisfare: non rispondono a nessuna teoria della mente e sembrano incapaci di ragionamenti concettuali profondi.

La chiave per l’uso delle AI è applicarle a compiti per i quali sono adatte, come l’analisi, la sintesi e la manipolazione dei dati, e non per prendere decisioni importanti per conto delle persone. Ma soprattutto, non devono diventare una scusa per renderci tutti pigri e smettere di studiare e lavorare. Quello sì che sarebbe un errore.

Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Offerte Speciali

iPad 10,2 minimo storico con codice a solo 287,99€

iPad nona generazione regalato costa solo 299€

Su Amazon torna il mega sconto del 32% per iPad di nona generazione. Lo pagate solo 299€, di pochissimo sopra il minimo storico
Pubblicità

Ultimi articoli

Pubblicità