La richiesta di prestazioni sempre maggiori per l’intelligenza artificiale e in particolare il machine learning sta spingendo i grandi utilizzatori di queste tecnologie a incorporare nel silicio alcuni degli algoritmi e dei meccanismi di calcolo più immportanti. È una vecchia storia dell’informatica di consumo: quando serve più potenza e la velocità del clock non basta, bisogna congelare gli algoritmi nel silicio e le cose all’improvviso vanno alla velocità della luce. Un esempio: codifica/decodifica hardware del video H.264 e adesso H.265. Aver cristallizzato il code nel silicio ha reso i calcoli leggeri leggeri e la multimedialità alla portata di tutti.
La stessa cosa è accaduta ad esempio per la crittografia (i drive protetti hanno crittazione e decrittazione fatta al volo grazie a un chip dedicato) e in vari altri settori. Adesso, Apple, Facebook e Google spingono sulla intelligenza artificiale arrivando al punto di progettare e realizzare i propri chip che eseguno i calcoli necessari al funzionamento del machine learning in maniera più rapida e affidabile. E Intel intravede la possibilità di rientrare in un mercato che le sta sfuggendo sempre più di mano.
La risposta di Santa Clara arriva da una acquisizione di una startup californiana per 350 milioni di dollari lo scorso agosto: si tratta di Nervana, che ha prodotto i Nervana Neural Network Processor (NNP). Il gioco qui è quello del deep learning, che utilizza architetture studiate ad hoc per trasferire nella logica del processore i passaggi dei modelli di deep learning, che prevedono training della rete neurale basati su una specifica gerarchia di cache e l’uso di software specifico capace di gestire la memoria sul chip.
Quella di Intel è anche una risposta alla capacità di Nvidia di vincere in questo settore (le schede video eseguono calcoli che sono per loro natura molto simili a quelli richiesti per le reti neurali e il machine learning, quindi i produttori di questo settore, se come Nvidia hanno avuto la sensibilità di capire cosa stava succedendo, sono partiti avvantaggiati) e adesso l’obiettivo di Intel è di arrivare per il 2020 ad avere performance cento volte migliori per le intelligenze artificiali addestrate sui suoi chip Nervana NNP.
Al cuore degli NNP ci sarebbe la scalabilità e soprattutto la parallelizzazione del calcolo numerico. Inoltre, un elemento chiave è il traferimento dati bidirezionale full-flex (simmetrico). Grazie a un formato numerico proprietario chiamato Flexpoint
secondo Intel è possibile avere un maggior livello di produttività e riducendo le dimensioni del circuito si potrà supercaricare la parallelizzazione dei calcoli riducendo al tempo stesso i consumi. Intel sembra voler sviluppare un intero insieme di prodotti attorno a questo primo chip, a partire da un futuro processore Xeon con nome in codice “Knights Crest”.