Se avete domande e curiosità su qualche cosa che sta di fronte a voi, il Vision Pro le soddisferà. La capacità di riconoscere le cose è una delle funzioni non esplicitate ma che stanno emergendo in queste ore del visore AR/VR presentato da Apple alla recente WWDC.
La funzione denominata “Visual Search” (Ricerca visiva) è connessa dal punto di vista tecnico a quella degli iPhone e iPad più recenti e che consente di identificare punti di interessi noti, opere d’arte, piante, animali e altri soggetti partendo da una foto. Nel caso del visore però, basta guardarla per ottenere informazioni
Altra funzione che viene presa di peso ma trasformata dal punto di vista della fruizione, dai sistemi operativi mobili è quella di individuare e interagire con il testo. Come iPhone capisce che dentro ad una immagine c’è qualche cosa si scritto, Vision Pro scansiona il mondo che circonda l’utente, coglie il testo lo copia e l’incolla e lo traduce in 17 lingue e altro ancora.
Il testo con il quale può interagire il visore può essere quello di contatti, pagine web, la conversione di unità di misura e altre informazioni di cui tenere conto direttamente dal visore. Se, ad esempio, in un opuscolo stampato c’è l’indicazione di un link ad un sito web, è possibile tenerne conto dal visore e aprire da questo una finestra di Safari per visualizzare il sito; se in una ricetta ci sono riferimenti con una misura che non è a noi famigliare (per esempio once) possiamo convertirla.
La traduzione di testo in tempo reale – scrive Macrumors – potrebbe essere comoda anche nell’ambito dei viaggi o altri momenti nei quali è utile tradurre indicazioni e scritte in lingue che non conosciamo che si vedono nel mondo reale.
Come promesso nell’ambito della WWDC23 (annuale conferenza sviluppatori), Apple ha rilasciato il visionOS software development kit (SDK), insieme di strumenti che consente agli sviluppatori di creare già da ore app per Vision Pro.