Apple sta addestrando Siri a riconoscere la voce di persone con disturbi del linguaggio. A riferirlo è il Wall Street Journal in un articolo nel quale si parla di come varie aziende del mondo IT stiano addestrando gli assistenti vocali a gestire disfunzioni che riguardano le abilità linguistiche.
Apple ha realizzato un archivio di clip audio da podcast con persone balbuzienti, materiale utilizzato per addestrare Siri. I dati raccolti da Apple permetteranno di migliorare i sistemi di riconoscimento vocale tenendo conto di vari pattern nel disturbo del linguaggio.
Oltre a migliorare il riconoscimento di disfluenze caratterizzate da ripetizioni, prolungamento di fonemi o di sillabe e da pause visibili e udibili, Apple ha anche implementato la funzione Hold-To-Talk (Tieni premuto per parlare) per consentire di controllare quanto a lungo Siri deve ascoltare; questo consente di impedire a Siri di interrompere gli utenti con disturbo della fluenza verbale prima che finiscano di parlare.
Siri sin da iOS 11 può essere sfruttato anche senza parlare, grazie alla funzione che consente di digitare il testo anziché parlare; basta andare in Impostazioni > Accessibilità > Siri, quindi attivare “Scrivi a Siri” e da questo momento in poi attivare Siri e interagire utilizzando la tastiera e il campo di testo.
Apple prevede di indicare schematicamente il lavoro che consente di migliorare Siri in un documento di ricerca che sarà pubblicato in settimana.
Anche Google e Amazon sono al lavoro con l’addestramento delle tecnologie che consentiranno di migliorare Google Assistant e Alexa per meglio comprendere gli utenti, incluse le voci di persone caratterizzate da alterazioni del ritmo della parola (disfluenze). Google sta raccogliendo dati di persone con parlato atipico, e Amazon a dicembre ha presentato l’Alexa Fund per consentire all’assistente di riconoscere il parlato di persone con disabilità del linguaggio.
A questo indirizzo un nostro articolo con una serie di cose da sapere su Siri.