Apple ha bisogno anche di te. Potrebbe essere questo lo slogan dell’annuncio di oggi di Cupertino che in una nota tecnica fa sapere che cambia il modo con cui addestra la sua piattaforma di intelligenza artificiale: prevale la privacy, come sempre, ma si usano anche dati reali, tratti dalle abitudini e comunicazioni degli utenti.
Il salto rispetto a quanto accaduto in precedenza non è indifferente. Fino ad ora Apple Intelligence è stata addestrata usando soltanto dati sintetici: testi ed email generate artificialmente per simulare contenuti reali, ma senza alcuna reale informazione personale. Una scelta in linea con la filosofia dell’azienda, che da anni fa della privacy uno dei suoi principali valori distintivi.
La nuova strategia introduce un approccio misto: i dati sintetici continuano a essere utilizzati, ma vengono confrontati localmente con email reali presenti su iPhone, iPad e Mac, per valutarne l’efficacia e migliorarne la qualità. In questo modo, Apple raffina i suoi modelli linguistici senza raccogliere o trasferire dati sensibili, puntando a correggere i limiti di strumenti come i riassunti nelle notifiche e i suggerimenti nei Writing Tools. Alcuni di questi problemi erano già emersi nei mesi scorsi con notifiche fuorvianti o imprecise, che avevano sollevato dubbi sulla reale utilità dell’intelligenza artificiale integrata.
L’uso di tecniche come la privacy differenziale, già applicata per migliorare Genmoji, consente ad Apple di identificare tendenze comuni senza conoscere i prompt individuali. Lo stesso principio sarà esteso anche a funzioni visive come Image Playground, Memories e Visual Intelligence.
Alla base di tutto ci sono i LLM (Large Language Models), modelli linguistici di grandi dimensioni che apprendono da enormi quantità di testo per generare linguaggio naturale realistico. Apple li addestra usando dati sintetici, contenuti concessi in licenza e fonti pubbliche, mantenendo però intatta la propria impostazione orientata alla privacy.
Il nuovo approccio arriva anche per superare alcune scelte restrittive del passato. Apple, infatti, aveva vietato l’uso di LLM esterni, come quelli sviluppati da aziende concorrenti. Questo ha ritardato lo sviluppo dell’intelligenza artificiale e l’evoluzione della nuova Siri. Solo recentemente, sotto la guida di Craig Federighi, Cupertino ha aperto all’uso di contenuti in licenza da terze parti e di dati pubblicamente accessibili online, segnando un cambio di passo necessario per restare competitiva.
Apple ha annunciato che l’implementazione della nuova tecnologia inizierà con le beta di iOS e iPadOS 18.5 e macOS 15.5, già disponibili per gli sviluppatori. È probabile che ulteriori dettagli e funzioni vengano annunciati alla WWDC di giugno, anche se alcune delle novità più attese – come la nuova Siri basata su Apple Intelligence – potrebbero arrivare solo nel 2026.