Apple Intelligence porta Siri in una nuova era. Dice proprio così Apple nelle sue note distribuito a margine della presentazione della WWDC quando parla del suo assistente vocale.
Partita in anticipo rispetto alla concorrenza, poi frenata e presto in ritardo (ritardo che ha conservato fino ad oggi), Siri beneficerà in maniera importante delle novità che vengono portate dall’Ai Apple.
L’elemento decisivo è il nuovo Large Language Model, la piattaforma di comprensione del linguaggio naturale che è alla base di tutto il resto di cui abbiamo parlato in altri articoli di questa lunga serata, un salto di qualità che viene sottolineato anche da una icona tutta nuova e da un look che cambia tutto: niente più “blob” multicolore ma una sorta di alone che circonda lo schermo del dispositivo. Un modo per dire che ora l’assistente vocale è strettamente integrato nel sistema operativo.
Quel che conta però, più del design, sono le funzioni. «Siri – dice Apple – può aiutare l’utente a usare un dispositivo ovunque si trovi, e sa rispondere a migliaia di domande su come fare qualcosa su iPhone, iPad e Mac. Così l’utente può imparare a fare cose come programmare l’invio di messaggi nell’app Mail o passare dall’aspetto chiaro all’aspetto scuro».
Siri ci comprenderà anche se sbagliamo i termini (potremo per esempio chiedere il tempo a Sauze d’Oulx sbagliando la pronuncia) e sarà in grado di mantenere un dialogo con noi. Ad esempio dopo avere chiesto il meteo a Sauze d’Oulx potremo dire a Siri di portarci lì senza dire dove vogliamo andare.
Una delle funzioni più importanti è la comprensione del contesto delle cose e di quel che vogliamo da lei. Ad esempio potremo dire a Siri di dirci come a comporre un messaggio oggi e spedirlo domani e l’assistente ci presenta le opzioni a disposizione oppure potremo dirle “come faccio a resecare il Wi-Fi” e vedere come fare passaggio per passaggio, presentato da Siri
Altre funzioni della Siri di domani sono azioni multiple. Potremo dirle, ad esempio, trovami la foto della mamma davanti alla torta di compleanno e spediscila a mio fratello Mario. L’assistente vocale sarà in grado di trovare informazioni che ci siamo dimenticati e di usarle per compilare un modulo, trovare mail che non sappiamo dove sono.
In future implementazioni Siri saprà che cosa c’è sul display e interagire con i contenuti dell’utente. Per esempio, se un contatto invia all’utente il suo nuovo indirizzo in Messaggi, basterà dire “Aggiungi questo indirizzo alla scheda del contatto” senza spiegare di che cosa stiamo parlando.
Siri sarà in grado di fare sempre più cose sia nelle app Apple, sia in quelle di terze parti incrociando informazioni. «Per esempio – l’esempio è di Apple – l’utente potrà chiedere cose come “Leggimi quell’articolo sulle cicale in Elenco lettura”, oppure “Manda a Malia le foto della grigliata di sabato. Siri potrà offrire informazioni mirate basate sull’utente e sui contenuti on-device.
Altro esempio: se si chiede “Fammi ascoltare il podcast consigliato da Giulia”, Siri riuscirà a trovarlo senza dover specificare che si trova in un’email o un messaggio. Oppure si potrà chiedere “A che ora atterra il volo di mamma?” e Siri riuscirà a trovare le relative informazioni e le confronterà con i dati del volo in tempo reale per indicare l’ora di arrivo.
Come il resto delle funzioni di Intelligenza Artificiale, Siri vedrà il debutto in autunno anche se non tutto quello che è stato mostrato in California sarà immediatamente disponibile. Ricordiamo che anche quello che lo sarà, inizialmente, non sarà accessibile che in inglese americano. Per l’Italiano sarà necessario attendere il 2025 nel migliore dei casi se non addirittura più in là visto che ad avere la precedenza saranno sicuramente lingue più diffuse della nostra