All’inizio di questo mese Apple ha fatto sapere che avrebbe permesso ai team che si occupano di intelligenza artificiale (AI) e apprendimento automatico di pubblicare e rendere noti alcuni dei lavori in corso, togliendo in pratica il bavaglio ai ricercatori e permettendo ad addetti ai lavori e al pubblico di capire alcuni dei campi sui quali l’azienda sta lavorando.
Uno dei primi documenti in questione è stato pubblicato; intitolato “Learning from Simulated and Unsupervised Images through Adversarial Training” il documento descrive un programma in grado di decifrare e comprendere in modo “intelligente” le immagini, sulla falsariga di quanto offerto dalla voce con Siri e dalle funzionalità per il riconoscimento dei volti integrata in Foto di iOS 10.
Nella ricerca Apple evidenzia aspetti positivi e negativi nell’utilizzo di immagini reali rispetto a immagini “sintetiche” (ricreate al computer). È necessario integrare note, un lavoro costoso, che fa perdere tempo e che richiede personale in grado di etichettare elementi ed oggetti nella foto. Le immagini generate al computer, favoriscono il processo in questione giacché le annotazioni sono automaticamente disponibili. Le immagini sintetizzate d’altra parte non sempre sono sufficientemente realistiche e potrebbero non consentire di comprendere bene dettagli presenti nelle immagini, impedendo la corretta catalogazione di oggetti del mondo reale rappresentati nell’immagine.
Quanto descritto porta alla proposta centrale nel documento, la combinazione di immagini simulate e reali, un meccanismo definito come “training antagonista”. Il sistema di apprendimento di Apple prevede l’uso di modalità di apprendimento simulate e senza controllo, con l’obiettivo di migliorare il realismo delle immagini di sintesi usando un simulatore che consente di ricavare dati non etichettati. Partendo da questo sistema secondo Apple è possibile creare immagini altamente realistiche; il team al momento è concentrato sulle immagini ma fa sapere di essere al lavoro anche sui filmati.
Le persone citate nel documento di ricerca, sono: Ashish Shrivastava, Tomas Pfister, Oncel Tuzel, Josh Susskind, Wenda Wang e Russ Webb. Nel corso di un meeting che si è svolto all’inizio del mese in Spagna, Apple ha mostrato a persone selezionate, alcuni dei lavori in corso nel campo dell’intelligenza artificiale e dell’apprendimento automatico. Rappresentati di Cupertino hanno spiegato che queste tecnologie sono utilizzabili in campi quali: salute e funzioni vitali, rivelazioni volumetriche con i sensori LiDAR (Laser Imaging Detection and Ranging) per il telerilevamento di oggetti e superfici, predizioni complesse con output strutturato, elaborazione e colorazione delle immagini, assistenti intelligenti, modellazione del linguaggio, riconoscimento delle attività svolte dagli individui.