Se c’è una cosa che la Cina ha dimostrato negli ultimi quarant’anni è la capacità di replicare e migliorare l’esistente. Chi non ricorda i primi tentativi maldestri dell’industria cinese di copiare tutto, dalle auto ai computer? Oggi invece i prodotti cinesi non solo sono equivalenti ma in molti casi superiori agli originali. E adesso è successa la stessa cosa anche con l’intelligenza artificiale: il nuovo modello DeepSeek-V3 dimostra che i cinesi non solo hanno recuperato il gap tecnologico ma lo hanno anche superato.
DeepSeek, l’azienda di Hangzhou, nata come spin-off di un fondo di investimento quantitativo, ha realizzato un modello di intelligenza artificiale che costa un decimo e funziona meglio di quelli della concorrenza. Non solo: lo hanno fatto in due mesi invece che in un anno, utilizzando un decimo delle risorse di calcolo necessarie per Llama-3, l’ultimo modello di Meta. I numeri sono impressionanti: 671 miliardi di parametri e un costo totale di appena 5,5 milioni di dollari contro i 500 milioni che sarebbero stati necessari per addestrare Llama-3.
Un modello da studiare
La chiave del successo di DeepSeek sta nell’approccio scientifico alla costruzione del modello. Invece di utilizzare la forza bruta e aumentare semplicemente la potenza di calcolo, gli ingegneri cinesi hanno ottimizzato ogni aspetto del processo. Hanno utilizzato una tecnica chiamata FP8 per ridurre la precisione dei calcoli dove non era necessaria, hanno migliorato l’efficienza della comunicazione tra i nodi di calcolo e hanno introdotto nuovi algoritmi per il bilanciamento del carico.
È un po’ come se, invece di costruire un’auto più potente, avessero riprogettato completamente il motore attorno a una nuova architettura e con nuovi principi della fisica per renderlo più efficiente. Il risultato è un modello che non solo costa meno da addestrare ma che è anche più veloce da eseguire, generando 60 token al secondo, cosa questa che lo rende tre volte più veloce del suo predecessore.
Tra parentesi, se quelli che si incontrano in questo settore sembrano tecnicismi incomprensibili (i token, le architetture dei modelli, le modalità di esecuzione dei calcoli), sarà bene abituarci tutti quanti perché, al di là del gran polverone che sempre il marketing delle aziende americane è solito sollevare quando arrivano nuove tecnologie sul mercato, in realtà sono i fondamentali che tutti dobbiamo conoscere. E che servono anche a valutare il funzionamento di queste tecnologie. Ad esempio: DeepSeek-V3 può essere scaricato ed eseguito in locale. Occorre però avere ben chiaro che è un modello molto grande (671 miliardi di parametri totali ma solo 37 miliardi attivi di volta in volta per i token) e richiede quindi hardware potente per l’esecuzione: almeno 512 GB di memoria unificata e GPU multiple connesse. Per farlo girare in locale (qui le istruzioni) occorrono almeno otto Mac Mini M4 Pro con 64 GB ciascuno, insomma.
L’arte dell’ottimizzazione
Il segreto di DeepSeek-V3 è nell’architettura: il nuovo modello utilizza una tecnologia chiamata Mixture-of-Experts (MoE) che permette di attivare solo una piccola parte del modello per ogni richiesta. In pratica, invece di utilizzare tutti i 671 miliardi di parametri per ogni calcolo, ne usa solo 37 miliardi, quelli più pertinenti per la domanda specifica. Gli informatici lo spiegano dicendo che è un po’ come avere una orchestra di cento elementi ma far suonare solo quelli necessari per ogni brano, invece di farli suonare tutti assieme.
Quello che sta stupendo gli esperti però non è solo l’efficienza ma anche la qualità dei risultati. DeepSeek-V3 supera sia Llama di Meta che GPT-4 di OpenAI in molti benchmark, soprattutto in quelli relativi alla programmazione e alla matematica. E lo fa utilizzando i chip H800 di Nvidia, quelli “depotenziati” che gli Stati Uniti permettono di vendere alla Cina, invece degli H100 più potenti usati da OpenAI e Meta. In pratica, la Cina compete, migliora e innova con un braccio legato dietro la schiena. Chissà cosa si sarebbero inventati se invece avessero avuto a disposizione risorse e tecnologie presenti nella Silicon Valley (e chissà perché noi europei invece, che abbiamo comunque più dotazioni dei cinesi, non riusciamo a fare altrettanto).
Il futuro è distribuito
Questa innovazione apre la strada a un futuro in cui l’intelligenza artificiale non sarà più dominio esclusivo delle grandi piattaforme e provider cloud: a parte OpenAI e Anthropic, sono infatti Amazon, Google, Meta e Microsoft i grandi attori del mercato. Già oggi è possibile eseguire modelli di AI sul proprio computer grazie a strumenti come Ollama, che permette di scaricare e utilizzare localmente diversi modelli open source. Con l’arrivo di architetture più efficienti come quella di DeepSeek, questa possibilità diventerà ancora più concreta. Attualmente Ollama non permette di far funzionare DeepSeek-V3 ma la community ci sta lavorando.
Sappiamo tuttavia che non è una priorità per gli utenti finali perché, a meno di non avere un cluster di Mac ultrapotenti a casa, il modello in locale non riesce a funzionare. Ma se riuscisse, sarebbe come avere sul nostro Mac un assistente AI potente quanto ChatGPT ma che funziona offline, rispetta la nostra privacy e non costa nulla dopo l’acquisto iniziale dell’hardware. Non è fantascienza: è già possibile oggi con modelli come Llama-2 o Mistral, e domani lo sarà ancora di più con l’arrivo di nuovi modelli ottimizzati come DeepSeek-V3.
La rivoluzione silenziosa
La vera rivoluzione non è tanto nella potenza bruta quanto nell’efficienza. DeepSeek ha dimostrato che si può fare di più con meno, aprendo la strada a una democratizzazione dell’AI che sembrava impossibile solo un anno fa. Non è un caso che Andrej Karpathy, uno dei fondatori di OpenAI, abbia commentato su X che DeepSeek “fa sembrare facile” quello che fino a ieri era considerato impossibile.
Questo cambio di paradigma avrà ripercussioni enormi sul mercato. Se per creare un modello di AI di alto livello bastano pochi milioni di dollari invece che centinaia, molte più aziende potranno permettersi di sviluppare i propri modelli. E se questi modelli possono girare su hardware comune, il mercato si aprirà ancora di più, portando innovazione e competizione in un settore che rischiava di essere dominato da pochi grandi player.
Le sfide della democratizzazione
Non tutto è perfetto, naturalmente. Ci sono ancora sfide da affrontare, come la necessità di hardware sufficientemente potente per eseguire questi modelli in locale. Abbiamo detto che è relativamente possibile farlo: un privato no, ma una piccola azienda sì, ad esempio. La differenza di scala è con i centri di calcolo che costano centinaia di milioni di dollari delle grandi aziende cloud. Un piccolo centro di ricerca, un laboratorio di una università o di una scuola potrebbero sviluppare e personalizzare una versione di DeepSeek-V3 per uso interno senza costi ridondanti.
E poi c’è il tema della regolamentazione: come gestire la proliferazione di modelli AI sempre più potenti e accessibili? La Cina ha già il suo sistema di controllo, con l’obbligo per i modelli di “incarnare i valori socialisti fondamentali”, ma nel resto del mondo la discussione è ancora aperta.
Inoltre, c’è la questione della qualità dei dati di addestramento. DeepSeek afferma di aver utilizzato 14,8 trilioni di token di “alta qualità”, ma cosa significa esattamente? La trasparenza su questi aspetti sarà cruciale per il futuro dell’AI distribuita. Anche perché DeepSeek potrebbe riscrivere la storia in molti modi, tra questi anche con la censura o la distorsione della verità storica dei fatti. Non con le “allucinazioni” ma con la censura e le idee di un’altra realtà istillata dai funzionari di Pechino nella pancia del sistema.
Verso il futuro
La strada è tracciata: l’intelligenza artificiale sta diventando una utility, come l’elettricità o Internet. Se volete, quella di oggi è un po’ la data-simbolo del nuovo giro di boa dell’AI. Dalla rivoluzione introdotta da GPT e poi ChatGPt, a quella della AI per tutti (più o meno). Non sarà più necessario connettersi a costosi servizi cloud per avere accesso a modelli di alto livello. Potremo averli sui nostri computer, sui nostri telefoni, persino sui nostri dispositivi IoT. E questo grazie a una combinazione di innovazione tecnologica e ottimizzazione delle risorse che arriva, ancora una volta, dall’Oriente.
La vera domanda non è più se questo succederà, ma quanto velocemente. Con aziende come DeepSeek che mostrano la strada, potremmo essere molto più vicini di quanto pensiamo a un futuro in cui l’AI sarà alla portata di tutti. E questa volta, sarà davvero democratica. A meno che non sia anti-democratica, ma questa è tutta un’altra storia.