In futuro l’iPhone o il Mac potrebbero essere in grado di riconoscere le vostre emozioni. È questa la prospettiva che si apre dall’acquisto che Apple, secondo quanto riferisce il Wall Street Journal, ha fatto nei giorni scorsi, quando ha comprato Emotient, una piccola società che ha creato un software in grado di leggere il volto di una persona per comprendere il suo umore.
Emotient fornisce, ma a questo punto sarebbe meglio dire “forniva” (visto che Apple ha sinteticamente, come al solito, confermato l’incorporazione dell’azienda basata a San Diego) il suo software ad aziende interessate a comprendere le reazioni agli annunci pubblicitari. Una videocamera, riprendendo l’espressione della persona che guarda lo spot, passa le informazioni a un software che determina il gradimento o meno della pubblicità, basandosi sulla postura dei muscoli del viso.
La tecnologia era stata sperimentata anche in campo medico, per verificare le espressioni di dolore di un paziente, e in alcuni negozi. I venditori usavano videocamere per catturare i volti delle persone e verificare le loro reazioni di fronte a specifici prodotti esposti in vetrina.
L’azienda americana, recentemente, aveva fatto sapere di essere avere chiesto e ottenuto il brevetto per un sistema in grado di acquisire, analizzare e catalogare 100mila espressioni al giorno, al fine di affinare sempre più il suo metodo. Emotient era riuscita a raccogliere 8 milioni di dollari di finanziamento per continuare a implementare la tecnologia; recentemente però aveva rinunciato a portare a termine un secondo giro di finanziamento ritenendo che i termini dello stesso non fossero favorevoli.
Al momento non è chiaro che cosa Apple voglia farsene di Emotient, ma è possibile che come accaduto in passato con altre realtà acquisite, voglia integrare la tecnologia nella sua piattaforma che ora spazia dal mobile ai computer, passando per i media extender per la TV. Non è neppure da escludere che un sistema del genere possa essere usato a supporto di Siri che potrebbe essere resa intelligente a sufficienza per comprendere gli stati emozionali di chi si trova di fronte.
L’interesse per il riconoscimento facciale e per le immagini in generale, non è nuovo per Cupertino. Foto a parte, che ha ereditato da iPhoto la capacità di riconoscere i volti nelle immagini, Cook ha dato il via libera per l’acquisto di FaceShift, una società che ha creato un sofisticato software di motion capture in grado di riprodurre in 3D le espressioni facciali, e di Perceptio, che si occupava di identificare le immagini. Apple ha anche acquistato VocalIQ Ltd., che rende i computer in grado di comprendere il linguaggio naturale.
Sulla sua strada Apple si troverà diversi concorrenti o compagni di viaggio, a seconda delle situazioni. Tra di essi ci sarà Facebook che sta sviluppando un ricercato sistema di riconoscimento facciale per identificare con precisione una persona e taggarla nelle immagini che vengono pubblicate nei social network e addirittura in futuro ad aprire la porta di casa a un amico. Google ha lavorato a una tecnologia per l’identificazione degli oggetti e delle immagini e ha pubblicato un documento che descrive come un’intelligenza artificiale potrebbe essere in grado di riconoscere un gatto. Nei suoi Google Glass, però, come nota il WSJ, ha escluso ogni capacità di riconoscimento dei volti.
La scelta di Google si colloca in un contesto dove sono in molti a paventare il rischio che una tecnologia per il riconoscimento facciale molto ricercata e il suo uso in contesti commerciali possa essere un pericolo per la privacy, un timore avanzato anche proprio in riferimento ad Emotient. In un’intervista al Wall Street Journal, lo psicologo Paul Ekman, un pioniere nel campo della lettura dei volti per determinare le emozioni, ha parlato di questa problematica spiegando di avere messo in guardia Emotient (di cui è stato consulente) sul fatto che la lettura delle emozioni di un volto senza la necessaria autorizzazione per usarla per fini di marketing, potrebbe essere un problema e fonte di malintesi. Per questo Ekman, che aveva creato negli anni ’70 il Facial Action Coding System, una sorta di catalogo con 5000 movimenti di muscoli facciali al fine di leggere le emozioni sul volto, catalogo che è alla base dei software degli algoritmi di aziende come quella appena comprata da Apple, ha spinto Emotient a dare un chiaro avviso attraverso una segnalazione attiva alle persone i cui volti vengono scannerizzati. Emotient aveva rifiutato, sostenendo di non svolgere analisi su campioni individuali, ma di svolgere un’attività che si basa sull’aggregazione dei dati.
Qui sotto un video di Emotient al lavoro per analizzare le espressioni di alcune persone mentre assistono ad comizio di Donald Trump
[vimeo id=”135631856″ width=”620″ height=”360″]