Proviamo a fare i futuristi, e andiamo a guardare cosa succederà una volta che Apple Intelligence sarà tra di noi. Una volta che le promesse e le demo del keynote di Apple diventeranno realtà (dando per scontato che lo diventeranno, anche se ci vorranno uno o due anni, a seconda della tecnologia e della lingua).
Un esercizio di stile, una proiezione in avanti per vedere non uno ma più “futuri”. Anche perché i futuri sono sempre una potenzialità, una parola plurale, mentre è il passato ad essere unico, una parola al singolare anche quando non è conosciuto.
Allora, giochiamo con i futuri, questa volta a breve raggio, visto che abbiamo in mano gli elementi per capire cosa dobbiamo sapere per poterlo fare. Giochiamo quindi con l’idea che la promessa di Apple, cioè “una AI per il resto di noi” sia vera, e che di conseguenza arriveranno cose che non ci saremmo mai potuto nemmeno immaginare, men che meno avere, con le tecnologie tradizionali.
Quando l’AI va ovunque (e funziona)
Cominciamo con immaginare una AI che funziona, innanzitutto. Perché il vero miracolo sarebbe già questo. Non un chatbot che monta la fuffa, con risposte che sono cerchiobottiste (quando va bene) o addirittura false, fuorvianti, sbagliate e “allucinate”.
Immaginiamo invece una serie di modelli diversi di intelligenza artificiale, ognuno specializzato nella sua cosa specifica, che funzionano davvero e fanno quel che viene loro chiesto. Oppure, immaginiamo anche dei modelli tipo “assistente” e “docente” che chiedono loro delle cose a noi. Perché dopotutto non sarebbe male se l’intelligenza artificiale servisse per far aumentare la nostra intelligenza, anziché farla atrofizzare.
E immaginiamo che questa intelligenza artificiale sia presente nelle fondamenta delle applicazioni, servizi e hardware di Apple. Questo vuol dire che avremmo dispositivi trasversalmente intelligenti e capaci di comportamenti che non sono stati previsti dai programmatori e dagli ingegneri. Gli obiettivi sì (anche se non sempre), il modo con il quale raggiungerli no.
Il senso dell’intelligenza artificiale, infatti, è arrivare ai risultati voluti in maniera efficace e originale. Tutto questo che stiamo dicendo finora è molto teorico, lo sappiamo, ma serve per dare una prima passata di idee e far capire che se l’AI di Apple già funzionasse, a prescindere da come funziona, ci porterebbe tutti in un futuro desiderabile in cui le cose promesse da molti accadono veramente, e non è solo hype e bolla speculativa.
Tutto il mondo attorno a noi
Giro giro tondo, il nostro mondo. L’essere umano è fatto di relazioni e l’intelligenza artificiale potrebbe avere due punti di vista diversi riguardo alla nostra vita. Potrebbe essere globale, unica, orizzontale a tutti, e vederci in maniera paternalistica e direttiva. Oppure potrebbe essere plurale, personale, verticale sulle singole persone. Un amico e un angelo custode.
L’AI, ci piace pensare, potrebbe essere una entità che ci conosce e che è in relazione solo con noi, non straparla dei fatti nostri anche con altri. È quello che si chiama Privacy ed è quello a cui lavora Apple da quindici anni e che rappresenta anche la strategia di base dell’AI.
Se queste due premesse si realizzassero, cioè se l’AI funzionasse davvero e fosse personale e orientata alla privacy, integrata su iCloud oltre che nei singoli dispositivi, in maniera tale che, in buona sostanza, l’AI del nostro Mac sappia le stesse cose di quella del nostro iPad e iPhone e AppleTV, ovvero che si tratta di una singola AI personale e non di varie istanze tra loro divergenti, se tutto questo fosse vero, dicevamo, le cose sì che si farebbero interessanti.
Un telefono per amico
Intanto perché una AI di questo tipo potrebbe interagire con noi su canali diversi: parlando, ma anche leggendo e scrivendo, o per comportamenti predittivi e concludenti. Potrebbe capire i nostri gesti se per esempio facciamo segno di sì o di no con la testa avendo gli AirPods nelle orecchie, ad esempio, o se muoviamo la mano con l’Apple Watch.
E potrebbe preoccuparsi di rispondere alle nostre domande esplicite ma anche tenere d’occhio le “nostre cose” per rispondere a domande implicite, cioè non ancora fatte (ma che vorremmo fare se sapessimo le cose che lei sa in quel momento) o avvertirci di cose rilevanti che altrimenti ci potrebbero sfuggire.
La prima traccia che abbiamo visto durante il keynote di Apple è divisa in due funzioni.
La prima è la gestione del flusso di email e di notifiche, che vengono riorganizzate, ordinate per priorità e anche riassunte quando è troppa la roba da leggere.
La seconda funzione è la capacità di cercare informazioni che sono sparpagliate nella gran mole di dati digitali che abbiamo nei nostri spazi virtuali personali (dentro iCloud e le app dei nostri dispositivi).
Con questa seconda funzione l’AI potrebbe cioè capire ad esempio qual è il nostro numero di patente andando a cercare trasversalmente non solo se l’abbiamo scritto da qualche parte, ma anche semplicemente se c’è una foto del nostro documento salvata magari in un pdf, per poi individuare il campo con il numero, estrarlo e darcelo.
Tutto questo avverrebbe in una serie di silos di informazioni che hanno in comune solo il fatto di essere riferite a noi e contenute in un nostro spazio virtuale (chiamiamolo genericamente “iCloud”, per dargli dei confini in quanto è personale perché protetto e accessibile solo da noi) ma sparpagliate in contenitori e formati diversi: app, mail, file depositati qua e là, audio, video, foto, e tutto il resto.
L’AI potrebbe finalmente mettere ordine oltre, che trovare le cose: e questa sarebbe una grande differenza rispetto a quello che fa Google ad esempio con Gmail, dove si lascia tutto in un unico enorme contenitore (l’inbox) e per trovare le informazioni ci si affida alla ricerca.
Invece, l’AI di Apple avrebbe la capacità di analizzare e strutturare i dati, scoprendo relazioni inedite per noi rilevanti e proponendocele. Un esempio di questo si vede nel cambiamento dell’interfaccia e del modo di funzionare di Foto, che non richiede più un lavoro di strutturazione da parte delle persone e che procede in parallelo sia ascoltando le nostre richieste che cercando di capire da sola cosa è per noi rilevante.
Da questo punto di vista l’AI diventa un principio ordinatore delle nostre vite che finalmente potrebbe aderire a una realtà sempre trascurata dai programmatori: che la vita è veramente complessa, che le cose da tenere in considerazione sono tantissime e che i software che servono per tenere le cose in ordine operano tradizionalmente una riduzione estrema di questa complessità, perdendo tantissima informazione.
Invece, l’AI potrebbe fare questa cosa della botte piena e della moglie ubriaca: tenere tutto in ordine senza perdere più nulla e offrire al tempo stesso una sintesi operativa che abbia senso e vada oltre le nostre intenzioni esplicite ma sappia cogliere i nostri bisogni impliciti.
Come fare a vedere queste cose futuristiche? L’accesso principale, nell’immediato futuro, sarebbe operato tramite il telefono, che idealmente è il telecomando della nostra vita e lo strumento principe con il quale avere questo tipo di interazione.
Questo perché con l’AI non saremmo più vincolati da una interazione specifica: non occorre che ci sia un Mac o un iPad, che ci sia uno schermo grande o una tastiera. Basta che sia il “nostro” computer, in una forma o l’altra, in grado di raccogliere i nostri input e darci i suoi output intelligenti.
Dispositivo che non funzionano
Questo tipo di AI personale, privata, attiva e predittiva, cambierebbe radicalmente forma al nostro dispositivo di elezione nel medio termine, perché il telefono a questo punto potrebbe avere una ergonomia differente da quello a cui siamo abituati.
Quelli di Humane con Pin AI che molto prometteva, alla fine non sono riusciti a combinare nulla se non a individuare un possibile fattore di forma per un dispositivo che apparentemente non ha più bisogno di essere fatto a forma di telefono.
La necessità di avere “spazio per fare cose” sul display sarebbe ridimensionata, per esempio. Poi Pin AI non funziona ed è una baraccata, ma questo è un altro discorso.
L’AI che fa ascolto attivo
Tuttavia, la caratteristica della Apple Intelligence del futuro e che funziona sarebbe quella di cercare innanzitutto informazioni e proporcele, anche quando non sappiamo di averne bisogno. Quindi dovrebbe poter attirare la nostra attenzione in maniera discreta (un orologio o un anello intelligente che vibrano?) e consentirci di trovare le informazioni che sono rilevanti per noi anche se non sapevamo di volerle.
Ricordarci compleanni o appuntamenti, cambiamenti ad esempio nell’organizzazione della nostra vita futura a seguito di altri fattori. Apre un ristorante giapponese nella nostra cittadina e sarebbe carino saperlo per organizzarsi e andare a provarlo con gli amici, oppure sapere che un musicista che ci piace (o che ci potrebbe sapere) fa una serata in una città dove andremo per un viaggio di lavoro o di piacere e fa quella serata proprio nei giorni in cui ci saremo noi.
Inoltre la nostra AI personale ci potrebbe tenere informati su quello che accade attorno a noi ad esempio ad amici e conoscenti, colleghi ma anche famigliari. Una AI che dialoga con altre AI per scambiare informazioni rilevanti a seconda dei ruoli e delle relazioni. Come stanno i miei genitori anziani? E i miei figli? Saperlo prima di pensare di volerlo sapere e di aver bisogno di saperlo.
Un altro modo di lavorare
L’AI è difficile da collocare nella nostra vita privata ma lo è ancora di più in quella lavorativa. Intanto perché fa paura a molti: perdere il lavoro perché l’AI sa farlo meglio di noi e con un costo infinitesimale è il grande feticcio di questa fase storica.
Invece c’è un’altra strada. È quella della possibilità di una AI che ci potenzia, anche se spesso viene raccontato come una retorica per ammansire le proteste e lenire le paure. È invece un ragionamento che interessa andare a esplorare perché potenzialmente fruttifero. Ad avere i problemi non sono le persone.
Invece, potenzialmente porterebbero avere dei problemi le app sui nostri dispositivi, visto che l’AI dell’ecosistema Apple promette un futuro in cui è in grado di gestire tutta una serie di informazioni e attività saltando a pie’ pari la necessità di app complicate o comunque di altre app specializzate.
La fine delle app verticali
La spiegazione è semplice. A cosa mi serve una app sofisticata e costosa per il fotoritocco piuttosto che per la gestione delle liste e dei calendari, quando bastano alcune app di base (quelle del sistema operativo sviluppate da Apple) “pimpate” dai superpoteri della AI?
La stessa cosa accade al lavoro: perché servono sistemi software estremamente complessi, sofisticati e costosi, quando bastano pochi sistemi di base, generici, e l’AI che è in grado di analizzare ed estrapolare risposte e analisi molto sofisticate? Costruendo anche l’interfaccia più adatta per visualizzare le risposte.
Questa potrebbe essere una rivoluzione molto più ampia del software oltre che del modo con cui si lavora, anche se attualmente il futuro scelto sembra andare più nella direzione di usare l’intelligenza artificiale per domare sistemi estremamente complessi e non più governabili anziché usarla per costruire nuovi sistemi molto più semplici.
Il futuro secondo Apple
Il futuro che Apple ha in qualche modo cercato di identificare con la storica WWDC del 2024, quello cioè di Apple Intelligence, sembra essere un futuro che si sviluppa innanzitutto attorno all’utente-persona, con gli obiettivi di darli più capacità e poteri da un lato e di rispettare la sua identità e privacy dall’altro.
Inoltre, offre una idea di intelligenza artificiale “etica” e morale, nel senso che è stata addestrata evitando contenuti inappropriati sia dal punto di vista visivo che verbale: una AI completamente adulta, visto che è proprio degli adulti affrontare, superare e integrare volgarità, sessualità e violenza.
In uno dei futuri che potrebbe disegnare non c’è la fine delle persone ma la fine del software come lo conosciamo. E non perché i programmatori e i non programmatori usino l’AI per programmare nuovo software, ma semplicemente perché non c’è più bisogno di nuovo software applicativo.
Basta infatti avere dei software base che contengono le informazioni per poter sviluppare cattedrali di analisi e correlazioni completamente demandate alla AI.
Un futuro interessante, che cambierebbe per sempre il mondo del software, delle interfacce, delle interazioni e di conseguenza, ancora una volta, la nostra vita.
Ed Apple questa fine delle app e di Ai come un nuovo sistema operativo sembra averla intuita molto bene e potrebbe cambiare con essa la nostra vita.