Negli ultimi mesi vari luminari del mondo IT hanno detto la loro sul futuro dell’intelligenza artificiale generale (AGI) – un’IA capace di apprendere e di eseguire qualsiasi compito che anche la mente umana può svolgere – prevedendo la possibilità di superare l’uomo in vari compiti cognitivi.
Secondo Jensen Huang, CEO di Nvidia, l’AGI arriverà entro cinque anni, poco prima della fine di questa decade; Ben Goertzel, lo scienziato che ha reso popolare il termine AGI, prevede questa possibilità entro tre anni. Elon Musk è ancora più ottimista e ritiene che la svolta arriverà nel 2025.
Non tutti la pensano allo stesso modo e Yann LeCun, chief AI scientist di Meta e vincitore del Premio Turing (una sorta di Nobel dell’informatica), ritiene che non esisterà mai qualcosa come l’AGI perché “l’intelligenza umana non è affatto generale” e preferisce fare riferimento a un percorso che porterà ad “AI di livello umano”.
Nell’ambito di un evento che si è svolto a Londra, LeCun ha riferito che l’obiettivo AGI rimane una destinazione lontana, evidenziando abilità cognitive che non possono essere replicate: il ragionamento, la capacità di pianificazione, la persistenza della memoria e la comprensione del mondo fisico.
“Sono quattro caratteristiche tipiche dell’intelligenza umana e anche dell’intelligenza animale, elementi che gli attuali sistemi AI non possono replicare”.
Senza queste capacità, le applicazioni AI rimarranno limitate e saranno soggette a errori. Le auto a guida autonoma non sono ancora sicure per le strade pubbliche, i robot per casa hanno difficoltà a occuparsi delle faccende domestiche, e gli assistenti smart sono in grado di completare solo alcuni compiti base.
LeCun spiega ancora che i large language model (LLM), modelli linguistici alla base di IA come ChatGPT, ci ingannano per la loro fluidità nel linguaggio, ma in realtà la loro comprensione della realtà è molto superficiale. “Sono utili, non vi è alcun dubbio, ma nella strada verso l’intelligenza di livello umano, l’LLM è fondamentalmente un raccordo, una distrazione, un vicolo cieco”.
Sistemi come LLaMA di Meta, GPT-3 di OpenAI e Bard di Google, sono addestrati con enormi quantità di dati. Secondo LeCun, ad un uomo servirebbero circa 100.000 anni per leggere i testi dati in pasto a LLM di alto livello ma questo non è il principale metodo che consente a un essere umano di apprendere, e molte cose che apprendiamo derivano dall’interazione con il mondo. LeCun stima che un bambino di 4 anni abbia “elaborato” dati 50 volte superiori a quelli del più grande LLM disponibile al mondo. “Molta della conoscenza umana non è legata al linguaggio e quindi questi sistemi non potranno mai raggiungere l’intelligenza umana a meno che non si cambi architettura”, ha riferito LeCun.
Quella che chiama “objective-driven AI”, secondo LeCun potrebbe apprendere dal mondo fisico usando sensori e videocamere per l’addestramento, portando a comprendere l’impatto di determinate azioni, imparando dall’esperienza, con elementi prevedibili che potrebbero consentire di completare in autonomia alcuni compiti. Tutto questo richiederà però tempo e l’AGI “non è proprio dietro l’angolo, e sicuramente non la vedremo l’anno prossimo come ha detto il nostro amico Elon (Musk, ndr)”.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili nella sezione dedicatadi macitynet.