IBM ha presentato il settimo “5in5” (#ibm5in5) annuale, elencoie di innovazioni che, secondo l’azienda, hanno il potenziale di cambiare il modo di lavorare, vivere e divertirsi delle persone nell’arco dei prossimi cinque anni.
5in5 si basa su tendenze di mercato e sociali, così come sulle tecnologie emergenti dei laboratori di ricerca & sviluppo di tutto il mondo, che possono rendere queste trasformazioni realizzabili. Quest’anno sono esplorate le innovazioni che costituiranno le fondamenta della prossima ora dell’informatica, che Big Blue descrive come “l’era dei sistemi cognitivi”. Questa nuova generazione di macchine saranno in grado di apprendere, adattarsi, percepire e iniziare a fare esperienza del mondo così com’è realmente. Le previsioni di quest’anno sono incentrate su un elemento della nuova era: la capacità dei computer di imitare, a loro modo, i sensi umani: vista, olfatto, tatto, gusto e udito.
Queste capacità di percezione ci aiuteranno a diventare più consapevoli e produttivi e ci aiuteranno a pensare, ma non penseranno per noi. I sistemi di cognitive computing ci aiuteranno a svelare la complessità, a tenere il passo con la velocità delle informazioni, a prendere decisioni più informate, a migliorare la nostra salute e il nostro tenore di vita, ad arricchire la nostra vita e ad abbattere ogni tipo di barriera, tra cui distanza geografica, lingua, costo e inaccessibilità.
Tatto: saremo in grado di toccare attraverso il telefono.
Immaginate di usare lo smartphone per acquistare il vostro abito da sposa e poter toccare il raso o la seta dell’abito, o il pizzo sul velo, tutto attraverso la superficie dello schermo; oppure di toccare le decorazioni e la trama di una coperta realizzata da un artigiano locale dall’altra parte del mondo. Tra cinque anni, settori come quello del retail saranno trasformati dalla capacità di “toccare” un prodotto attraverso il proprio dispositivo mobile. Si stanno sviluppando applicazioni per il retail, la sanità e altri settori, utilizzando tecnologie aptiche, a infrarossi o sensibili alla pressione per simulare il tatto, come la trama di un tessuto – mentre l’acquirente sfiora con le dita l’immagine dell’articolo sullo schermo di un dispositivo. Sfruttando le funzionalità di vibrazione del telefono, ogni oggetto avrà una serie esclusiva di modelli di vibrazione che rappresenta l’esperienza del tatto: modelli brevi e rapidi, o serie di vibrazioni più lunghe e intense. Il modello di vibrazione differenzierà la seta dal lino o dal cotone, contribuendo a simulare la sensazione fisica percepita quando si tocca realmente la stoffa. Gli impieghi attuali della tecnologia aptica e grafica nel settore dei giochi trasportano l’utente finale in un ambiente simulato. L’opportunità e la sfida in questo caso sono rendere la tecnologia così presente e intrecciata nelle esperienze quotidiane da fornire un maggiore contesto alla nostra vita, inserendo la tecnologia davanti e intorno a noi. Questa tecnologia diventerà onnipresente nella nostra quotidianità, trasformando i telefoni cellulari in strumenti per l’interazione naturale e intuitiva con il mondo che ci circonda.
Vista: un pixel varrà mille parole
Scattiamo 500 miliardi di foto l’anno. Ogni minuto vengono caricate su YouTube 72 ore di video. Secondo le previsioni, il mercato globale della diagnostica per immagini crescerà a 26,6 miliardi di dollari entro il 2016. Oggi i computer comprendono le immagini solo in base al testo che utilizziamo per taggarle o intitolarle; la maggior parte delle informazioni – l’effettivo contenuto dell’immagine – è un mistero. Nei prossimi cinque anni, i sistemi saranno in grado non solo di guardare e riconoscere il contenuto delle immagini e dei dati visivi, ma trasformeranno i pixel in significato, iniziando a capirne il senso, così come un essere umano vede e interpreta una fotografia. In futuro, funzionalità simili a quelle del cervello consentiranno ai computer di analizzare caratteristiche come colore, modelli di struttura o informazioni sui margini e di estrarre elementi di conoscenza dai supporti visivi. Ciò avrà un impatto profondo su settori quali la sanità, il retail e l’agricoltura. Entro cinque anni, queste funzionalità saranno messe in pratica nel settore sanitario, dando un senso agli enormi volumi di dati medici, come risonanze magnetiche, TAC, radiografiche e immagini ecografiche, per acquisire informazioni adattate a una particolare area anatomica o a una patologia. Gli elementi critici in queste immagini possono essere impercettibili o invisibili all’occhio umano e richiedono una misurazione attenta. Essendo addestrati a discriminare che cosa cercare nelle immagini – ad esempio distinguendo il tessuto sano da quello malato – e mettendolo in correlazione con la cartella clinica del paziente e la letteratura scientifica, i sistemi in grado di “vedere” aiuteranno i medici a rilevare i problemi con maggiore velocità e accuratezza.
Udito: i computer saranno in grado di udire ciò che conta
Avete mai desiderato di poter interpretare tutti i suoni che vi circondato ed essere in grado di capire ciò che non viene detto? Entro cinque anni, un sistema distribuito di sensori intelligenti rileverà gli elementi del suono, come pressione sonora, vibrazioni e onde sonore a diverse frequenze. Interpreterà questi input per predire quando cadranno gli alberi in una foresta o quando una frana è imminente. Questo sistema “ascolterà” l’ambiente esterno e misurerà i movimenti, o la sollecitazione, in un materiale per avvertirci in caso di pericolo imminente. I suoni grezzi saranno rilevati da sensori, un po’ come avviene nel cervello umano. Un sistema che riceve questi dati terrà conto di altre “modalità”, quali informazioni visive o tattili, e classificherà e interpreterà i suoni sulla base di quanto ha appreso. Quando vengono rilevati suoni nuovi, il sistema trarrà conclusioni sulla base della conoscenza precedente e della capacità di riconoscere i modelli. Ad esempio, il linguaggio dei neonati sarà compreso come una lingua, indicando a genitori e medici che cosa i bambini stanno cercando di comunicare. I suoni possono essere uno stimolo per interpretare il comportamento o i bisogni di un neonato. Una volta insegnato a un sistema sofisticato di riconoscimento vocale che cosa significano i suoni emessi da un neonato – se i capricci indicano che un bambino ha fame, ha caldo, è stanco o ha dolore – tale sistema mette in correlazione i suoni e il balbettio con altre informazioni sensoriali o fisiologiche, come frequenza cardiaca, polso e temperatura. Nei prossimi cinque anni, imparando a conoscere l’emozione ed essendo in grado di percepire gli umori, i sistemi evidenzieranno aspetti di una conversazione e analizzeranno altezza del suono, tono ed esitazione per aiutarci ad avere dialoghi più produttivi, in grado di migliorare le interazioni dei call center con i clienti, o per consentirci di interagire meglio con culture diverse. Oggi gli scienziati di IBM stanno iniziando a registrare i livelli di rumori sottomarini nella Baia di Galway, in Irlanda, per capire i suoni e le vibrazioni delle macchine per la conversione dell’energia del moto ondoso, e l’impatto sulla vita marina, utilizzando sensori sottomarini che catturano le onde sonore e le trasmettono a un sistema di ricezione per l’analisi.
Gusto: papille gustative digitali aiuteranno le persone a mangiare in modo più intelligente
Che ne direste se potessimo rendere squisiti i cibi sani utilizzando un sistema di calcolo diverso, costruito per la creatività? Ricercatori stanno sviluppando un sistema di calcolo che percepisce effettivamente il sapore, da utilizzare con gli chef per creare le ricette più gustose e innovative. Scomporrà gli ingredienti al loro livello molecolare e unirà la chimica dei composti alimentari alla psicologia che sta dietro i sapori e gli odori preferiti dagli esseri umani. Confrontando questi dati con milioni di ricette, il sistema potrà creare nuove combinazioni di sapori che abbinano, ad esempio, le caldarroste ad altri cibi, come barbabietola cotta, caviale fresco e prosciutto crudo. Un sistema come questo può aiutarci anche a mangiare in modo più sano, creando nuove combinazioni di sapori che ci portino a preferire le verdure bollite alle patatine. Il computer sarà in grado di utilizzare algoritmi per determinare la precisa struttura chimica del cibo e il motivo per cui le persone prediligono alcuni gusti. Questi algoritmi esamineranno come interagiscono le sostanze chimiche tra loro, la complessità molecolare dei composti aromatici e la loro struttura di legame, e utilizzeranno queste informazioni, insieme ai modelli di percezione, per prevedere il livello di gradimento dei sapori. Non solo renderà più gradevoli al palato gli alimenti sani, ma ci sorprenderà con abbinamenti insoliti dei cibi, studiati proprio per massimizzare la nostra esperienza del gusto e del sapore. Nel caso di persone con particolari esigenze alimentari, come i diabetici, potrebbe sviluppare sapori e ricette che tengono sotto controllo la glicemia ma che soddisfano il palato.
Olfatto: i computer avranno il senso dell’olfatto
Nel corso dei prossimi cinque anni, minuscoli sensori incorporati nel computer o nel cellulare rileveranno se state per prendervi un raffreddore o un’altra malattia. Analizzando odori, biomarcatori e migliaia di molecole nel respiro di una persona, i medici avranno un aiuto per la diagnosi e il monitoraggio dell’insorgenza di disturbi, quali malattie renali ed epatiche, asma, diabete ed epilessia, rilevando quali odori sono normali e quali no. Gli scienziati stanno già rilevando le condizioni ambientali e i gas per la conservazione dei capolavori (preserve works of art). Questa innovazione inizia ad essere applicata per affrontare il problema dell’igiene clinica, una delle maggiori sfide nel settore sanitario di oggi. Ad esempio, i batteri antibiotico-resistenti, come lo Staphylococcus aureus resistente alla meticillina (MRSA), che nel 2005 è stato responsabile di quasi 19.000 decessi correlati a ricovero ospedaliero negli Stati Uniti, si trova di solito sulla cute e può essere facilmente trasmesso in qualunque luogo in cui le persone siano a stretto contatto. Un modo per combattere l’esposizione all’MRSA nelle strutture sanitarie è assicurare che il personale medico segua le linee guida di igiene clinica. Nei prossimi cinque anni, IBM prevede lo sfruttamento di una tecnologia che “annuserà” le superfici per rilevare i disinfettanti e stabilire se le stanze sono state igienizzate. Utilizzando nuove wireless mesh network , i dati su varie sostanze chimiche saranno raccolti e misurati dai sensori e apprenderanno e si adatteranno costantemente ai nuovi odori nel corso del tempo. Grazie ai progressi nelle tecnologie dei sensori e delle comunicazioni, in associazione con i sistemi di “deep learning”, i sensori possono misurare i dati in luoghi prima inimmaginabili. Ad esempio, i sistemi informatici possono essere utilizzati in agricoltura per “percepire l’odore” o analizzare le condizioni del suolo delle colture. Negli ambienti urbani, questa tecnologia sarà utilizzata per monitorare i problemi con i rifiuti, la disinfezione e l’inquinamento, aiutando le aziende municipali a individuare potenziali problemi prima che assumano proporzioni incontrollabili.
Fonte: IBM
[A cura di Mauro Notarianni]