Speech-Recognition-Software

Riconoscimento Vocale Automatico: Un Possibile Aiuto Per Le Disartrie

Le malattie neurologiche (come ictus, traumi cranici, malattia di Parkinson, Sclerosi Laterale Amiotrofica, e altre) presentano spesso come sintomo più evidente la perdita delle funzioni motorie degli arti superiori e/o inferiori, limitando l’indipendenza della persona. L’utilizzo della tecnologia in riabilitazione riesce a facilitare le attività quotidiane di persone colpite da malattie neurologiche con disturbi motori. Un esempio è l’utilizzo del riconoscimento vocale automatico (ASR- Automatic Speech Recognition), per cui un software è in grado di riconoscere i comandi vocali che riceve dalla persona e avviare azioni come scrivere una mail, inviare messaggi, aprire le porte, spegnere la luce o accendere la televisione. Questo tipo di tecnologia è anche quella che permette l’utilizzo dei comandi Bluetooth dei telefoni o l’uso delle applicazioni come Siri, Ok Google, eccetera.

Tuttavia, un danno neurologico può spesso provocare, oltre alla limitazione motoria, anche una difficoltà nella parola e nell’eloquio. La disartria (dal composto greco dis – e ἄρϑρον «articolazione») è un disturbo della parola che provoca un’alterata articolazione della parola, riduzione della lunghezza delle frasi, riduzione dell’intensità vocale e un eloquio meno intelligibile, poco chiaro.

Nei casi in cui è presente sia un disturbo motorio che un disturbo dell’articolazione, l’utilizzo della tecnologia ASR diventa difficoltoso e pressoché inutile. I normali sistemi di tecnologia ASR sono infatti chiamati speaker-independent e sono creati per riconoscere un eloquio chiaro e privo di difficoltà. Diversi studi hanno dimostrato come i sistemi ASR speaker-independent non sono in grado di riconoscere l’eloquio delle persone con disartria, specialmente quando il disturbo articolatorio è grave.

Per rispondere a questo problema, negli ultimi anni sono stati sviluppati diversi sistemi di riconoscimento chiamati speaker-dependent. Questi sistemi sono in grado, dopo un training iniziale, di adattarsi all’articolazione della persona che lo usa, modellandosi alle caratteristiche dell’eloquio e alle capacità dell’individuo, dimostrando di essere più accurati nel riconoscere l’eloquio delle persone disartriche.

Attualmente in CCPP si sta svolgendo uno studio preliminare per determinare l’accuratezza di un sistema ASR speaker-dependent nel riconoscimento dell’eloquio disartrico, e valutare l’applicabilità dello strumento. L’obiettivo finale è la creazione di un sistema ASR che sia accurato e individualizzato: la personalizzazione avviene sia per il sistema di riconoscimento ASR che per la creazione di possibili applicazioni che necessitano l’uso della voce, ad esempio servizi di messaggistica istantanea, utilizzo delle mail, produzione di messaggi vocali per la comunicazione.

[1]      V. Young and A. Mihailidis, “Difficulties in automatic speech recognition of dysarthric speakers and implications for speech-based applications used by the elderly: a literature review”, Assistive Technology, vol. 22, no. 2, pp. 99-112, 2010.

[2]      F. Hamidi, M. Baljko, N. Livingston and L. Spalteholz, “CanSpeak: a customizable speech interface for people with dysarthric speech”, in Computers Helping People with Special Needs. ICCHP 2010. Lecture Notes in Computer Science, vol. 6179, K. Miesenberger, J. Klaus, W. Zagler and A. Karshmer, Ed. Heidelberg: Springer, 2010, pp. 605–612.

[3]      A.B. Cavalcante and M. Grajzer, “Mobile and personal speech assistant for the recognition of disordered speech”, in 2016 Proc. SPWID Conf., pp. 6-10.