Apple GPT potrebbe diventare realtà prima del previsto: i ricercatori di intelligenza artificiale della Mela affermano di aver compiuto una svolta fondamentale nella distribuzione di modelli linguistici di grandi dimensioni (LLM) su iPhone e altri dispositivi Apple con memoria limitata, inventando una tecnica innovativa di utilizzo della memoria flash.
I chatbot basati su LLM come ChatGPT richiedono una quantità incredibile di dati e di memoria per funzionare, il che rappresenta una sfida per dispositivi come gli iPhone, o dispositivi mobili in generale, che hanno una capacità di memoria limitata. Per affrontare questo problema, i ricercatori Apple hanno sviluppato una nuova tecnica che utilizza la memoria flash, la stessa memoria in cui risiedono le app e le foto, per memorizzare i dati del modello di intelligenza artificiale.
In un nuovo articolo di ricerca intitolato “LLM in un flash: Inferenza efficiente di modelli linguistici di grandi dimensioni con memoria limitata“, gli autori notano che la memoria flash è più abbondante nei dispositivi mobili rispetto alla RAM tradizionalmente utilizzata per eseguire i modelli LLM. Il loro metodo elude abilmente questa limitazione utilizzando due tecniche chiave che riducono al minimo il trasferimento dei dati e massimizzano il throughput della memoria flash.
Il primo metodo è chiamato Windowing: invece di caricare nuovi dati ogni volta, il modello di intelligenza artificiale riutilizza alcuni dei dati che ha già elaborato. Ciò riduce la necessità di recuperare costantemente la memoria, rendendo il processo più veloce e fluido.
Il secondo metodo è quello del raggruppamento riga-colonna: questa tecnica può essere paragonata al leggere un libro in blocchi più grandi invece che una parola alla volta. Raggruppando i dati in modo più efficiente, è possibile leggerli più velocemente dalla memoria flash, accelerando la capacità dell’AI di comprendere e generare linguaggio.
Secondo i ricercatori Apple la combinazione di queste metodologie si traduce in un aumento di velocità fino a 4-5 volte sui processori standard (CPU) e fino a 20-25 volte più veloce sui processori grafici (GPU).
Un’AI più veloce su iPhone
La svolta nell’efficienza dell’AI apre nuove possibilità per i futuri iPhone, come capacità Siri più avanzate, traduzione linguistica in tempo reale e funzioni sofisticate basate sull’Intelligenza Artificiale nella fotografia e nella realtà aumentata.
Il lavoro di Apple sull’AI generativa potrebbe alla fine essere incorporato nel suo assistente vocale Siri. Nel febbraio 2023, Apple ha tenuto un summit sull’Intelligenza Artificiale e ha informato i dipendenti sul suo lavoro sui modelli linguistici di grandi dimensioni. Secondo Bloomberg, Apple punta a una versione più intelligente di Siri, profondamente integrata con l’AI.
Apple GPT
Si dice che Apple stia sviluppando il proprio modello di AI generativa chiamato “Ajax”. Progettato per competere con i modelli GPT-3 e GPT-4 di OpenAI, Ajax opera su 200 miliardi di parametri, suggerendo un alto livello di complessità e capacità di comprensione e generazione del linguaggio.
Indicato internamente e non solo come Apple GPT, Ajax mira a unificare lo sviluppo dell’apprendimento automatico in tutto l’ecosistema Apple, suggerendo una strategia più ampia per integrare l’AI più profondamente.
In un altro documento i ricercatori Apple spiegano come sfruttare visione artificiale e apprendimento automatico per creare avatar 3D animati, il tutto 100 volte più velocemente rispetto ai sistemi attuali. Entrambe le soluzioni fin qui descritte potrebbero essere applicate non solo in iPhone ma anche in Vision Pro e in praticamente qualsiasi altro dispositivo Apple
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet.