Siri sarà capace di dialogare con più fluidità e realismo e anche di capire quel che ci serve, più utile e nello stesso tempo confortevole da usare. In definitiva più umana. Il miracolo dovrebbe manifestarsi alla WWDC, coadiuvato dall’Intelligenza artificiale e per realizzarlo Apple è disposta a sacrificare alcuni dei suoi principi.
Dell’argomento, la direzione che Cupertino intende intraprendere per provare a recuperare il tempo perduto sull’Ai, scrive nella sua newletter il sempre ben informato Mark Gurman di Bloomberg dando alcune indicazioni su quel che Siri dovrebbe fare.
In primo luogo Siri diventerà più colloquiale e offrirà funzionalità che saranno utili per le attività quotidiane dell’utente.
Tra i servizi previsti grazie all’AI, il riepilogo automatico delle notifiche, una sintesi veloce di articoli con notizie e la trascrizione di memo vocali, così come il miglioramento di funzionalità esistenti in grado ad esempio di aggiungere automaticamente appuntamenti sul calendario e interagire con altre app.
Sono previsti anche strumenti in grado di di migliorare le foto, con funzionalità di editing che usano l’AI, “anche se nessuna di queste novità stupirà chi ha usato le AI delle app Adobe negli ultimi mesi”, ammonisce Gurman
Per raggiungere questi traguardi Apple dovrà, almeno parzialmente, abbandonare due dei pilastri della sua strategia: confidare esclusivamente sulle informazioni elaborate direttamente sul dispositivo ed evitare di sfruttare la raccolta dei dati per anticipare quel che l’utente vuole, scelte dettate per tutelare la privacy e la sicurezza dell’utente.
Apple non abbandonerà l’approccio di base che prevede l’elaborazione delle informazioni sul dispositivo, ma nuove funzioni AI prevedono anche il ricorso a servizi via cloud, per consentire l’elaborazione di richieste su sale server specializzate, costruite intorno a processori prodotti da Apple stessa, e con caratteristiche tali da garantiire sicurezza e rispetto della privacy.
Forzatamente dovrà anche raccogliere informazioni, catalogarle e usarle per anticipare quelle che sono le azioni compiute in precedenza dall’utente. Solo così diventerà possibile popolare anticipatamente e senza ricorrere ad input manuali alcune funzioni.
Quello che non è chiaro è se arriverà un chatbot, qualcosa di equivalente a ChatGPT di OpenAI o Gemini di Google. A quanto sembra alcuni dirigenti sono “allergici” all’idea di spingere Apple verso tale direzione; inconvenienti come quelli che si sono verificati lo scorso anno con il chatbot Bard di Google (cantonate che avevano scatenato polemiche e fatto scendere il prezzo delle azioni di Big G), spingono Cupertino a muoversi con i piedi di piombo in questo ambito.
Apple sa ad ogni modo che gli utenti vorrebbero qualcosa del genere, ed è probabile che alla WWDC24 vedremo annunci di qualche accordo con OpenAI, un approccio obbligato prima di proporre soluzioni sviluppate “in casa”.
Si era vociferato di un accordo anche con Google per sfruttare l’IA di Gemini ma sembra che le parti non sono riuscite ad accordarsi e ormai manca meno di un mese all’annuale conferenza sviluppatori..