Immaginate di essere in un luogo affollato, con più persone che parlano e di voler sentire esclusivamente quello che dice una specifica persona.
Una soluzione a questa situazione arriva da un team di ricercatori dell’Università di Washington che ha progettato un sistema AI integrabile in cuffie, in grado di isolare le voci in un ambiente affollato e permettere di ascoltare solo una specifica persona in un ambiente affollato.
Per sentire ciò che dice la persona di nostro interesse, basterà guardarla dai 3 ai 5 secondi: il sistema, denominato “Target Speech Hearing”, è in grado di bloccare tutte altre voci e altri suoni in un’area specifica, permettendo di ascoltare solo il nostro “target”. È anche possibile spostarsi e allontanarsi dall’interlocutore e continuare a sentire la sua voce.
Il sistema è stato mostrato con delle cuffie nelle quali sono presenti due microfoni; basta guardare il nostro target e premere un pulsante dedicato sulla cuffia: le onde sonore che partono dalla voce della persona di riferimento arrivano ai microfoni, i segnali inviati al “computer di bordo” dove una AI è in grado di elaborarli, “filtrando” la voce di nostro interesse, imparando man mano che l’interlocutore continua a parlare a discernere la sua voce, rispetto alle altre.
Esistono già cuffie e auricolari con funzionalità di cancellazione del rumore e opzioni per migliorare specifici suoni. Con le AirPods Pro, ad esempio, è possibile passare da una modalità di controllo del rumore all’altra, scegliendo tra Audio adattivo (regolando automaticamente il livello del rumore calibrandolo in base alle condizioni ambientali), Cancellazione rumore (bloccare i rumori esterni), Trasparenza (sentire i suoni intorno) e Non attivo (disattivando tutte le modalità di controllo del rumore).
Funzioni come il Rilevamento conversazione nelle AirPods Pro di 2a generazione permettono di abbassa automaticamente il volume dei contenuti multimediali che si stanno ascoltando e dare risalto alle voci delle persone che abbiamo di fronte. Il “Volume personalizzato” permette inoltre di regolare il volume dei contenuti multimediali in base alle condizioni ambientali (la funzione impara a conoscere le preferenze di ascolto nel tempo per adeguare il volume dei contenuti multimediali in risposta all’ambiente circostante). Altre novità specifiche per le AirPods dovrebbero arrivare con iOS 18, compresa una “modalità apparecchio acustico”.
Tornando alle cuffie ideate dal team dell’Università di Washington, queste prevedono ulteriori migliorie alle funzionalità viste su AirPods Pro e affini; per ora il loro sistema funziona solo con vere e proprie cuffie ma in futuro dovrebbe essere utilizzabile anche con auricolari.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet.