Apple non utilizzerà i dati degli utenti per addestrare Apple Intelligence, a differenza della politica di OpenAI, che utilizza le sessioni di ChatGPT per migliorare il proprio modello. Lo rivela un recente documento di ricerca apparso in rete.
Apple applica protezioni aggiuntive per i contenuti web, per evitare di includere involontariamente nell’addestramento dati personali e per filtrare materiale potenzialmente offensivo.
Come Apple addestra Apple Intelligence
Lo si apprende da un documento di ricerca pubblicato questa settimana spiega come Apple addestra i propri modelli, sia su dispositivo che su server, e descrive le protezioni che l’azienda sta implementando per risolvere i problemi più comuni.
Una delle garanzie offerte è che le interazioni degli utenti con Apple Intelligence non verranno utilizzate come materiale di addestramento. Questa politica si applicherà anche all’utilizzo di ChatGPT tramite Siri in iOS 18 e macOS 15.
Tuttavia, Apple specifica che raccoglie contenuti dai siti web tramite Applebot, con i diversi proprietari dei siti che dovranno esplicitamente rifiutare questa pratica se non desiderano che ciò accada.
Applebot è il crawler web di Apple usato da anni per raccogliere dati per aiutare ad addestrare Siri e a fornire suggerimenti in Spotlight oltre che sui dispositivi dell’utente.
Non si tratta di un sistema inusuale ma utilizzato anche da altri. I modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT e Apple Intelligence vengono addestrati fornendo loro grandi quantità di testo scritto da esseri umani tra cui, appunto, quelli che sono su Internet.
Questa pratica è controversa, poiché molti contenuti scansionati sono protetti da copyright, con alcune aziende utilizzano già contenuti generati dall’AI al posto di quelli scritti da persone. In pratica, le principali critiche vertono sul fatto che molti scrittori, autori, giornalisti, vedono il proprio lavoro utilizzato per addestrare sistemi di intelligenza artificiali, gli stessi che potrebbero un giorno sostituirli.
Ricordiamo che il New York Times in quella che è stata la prima grande comtesa pubblica sul tema ha querelato OpenAI che è proprietaria di ChatGP e che a sua volta è almeno in parte controllata da Microsoft.
Come indicato nella causa legale, il New York Times afferma che i grandi modelli linguistici (LLM) di OpenAI e Microsoft, che alimentano ChatGPT, Bing Chat e Copilot, “possono generare output che riportano il contenuto del Times testualmente, lo riassumono strettamente e ne imitano lo stile espressivo”.
In sostanza si tratta di una vera e propria causa per plagio che apre la strada a molte altre. Apple non ha una Ai che genera testi (per questo sfrutta ChatGPT in un accordo di partnership), ma vuole mettersi al sicuro offrendo una sorta di “opt-out”, di possibilità di non partecipare all’operazione di miglioramento della sua tecnologia.