Sarà mai possibile avere un traduttore automatico, rapido come ‘Google translate’, anche per la lingua dei segni? Ne esistono già alcuni prototipi validi, come racconta il New Scientist. Circa 100 milioni di persone al mondo sono affette da sordità e questa fetta significativa della popolazione globale utilizza complessivamente più di 100 lingue dei segni diverse: ad esempio, vi è la lingua dei segni italiana, la lingua dei segni francese, americana e tante altre. Ma nella vita quotidiana siamo in pochi a comprendere e a utilizzare questi linguaggi. Da qui l’idea di un sistema di traduzione automatica e simultanea, dai segni a un testo scritto in altre lingue, come in inglese o in arabo, che possa essere utile in situazioni comuni, in ambienti lavorativi in cui viene fornito un servizio al cliente, come in banca, o per favorire la comunicazione dal medico.
Entrambi i prototipi citati da New Scientist, KinTrans e SignAll, ancora in fase di collaudo, traducono, riportandoli in forma scritta, movimenti, espressioni e gesti. Questi elementi vengono codificati, registrati in maniera continua e trascritti su uno schermo. Il tutto in tempo reale. L’operazione complessa consiste proprio nel decodificare e trasferire in concetti scritti una comunicazione che si basa quasi interamente sui gesti.
Il vocabolario della lingua dei segni, infatti, include molti componenti manuali, noti come parametri, che comprendono tutti i movimenti delle dita e del palmo della mano. Luogo e zona corporea vicino alla quale la persona posiziona le mani e le dita, forma rappresentata, movimento e direzione del movimento della mano servono per valutare attentamente il significato del messaggio trasmesso. Questi componenti rappresentano la struttura portante del linguaggio, che però è rinforzato anche da altri elementi, come le espressioni facciali che possono cambiare il senso o alcune parti di una frase. Bisogna poi tenere in considerazione il registro della comunicazione, che può essere formale o più intimo, la prosodia, la quale include il ritmo della comunicazione e le caratteristiche del linguaggio associate all’intonazione, e l’uso dello spazio, che nella lingua dei segni è tutt’altro che secondario.
Tutte queste regole sono state inglobate nella struttura di funzionamento dei due modelli citati. In KinTrans, un primo algoritmo converte i segni in comunicazione vocale e un secondo algoritmo trasforma la voce in testo scritto, il tutto in tempo reale. Sullo schermo appare anche la risposta scritta dell’utente udente, che viene così resa visibile alla persona affetta da sordità. Per ora il sistema ha codificato migliaia di segni appartenenti al linguaggio dei segni americano e arabo. Il tutto con un’accuratezza del 98%, ha spiegato il fondatore della start-up, Mohamed Elwazer. E in futuro verranno inclusi il linguaggio dei segni portoghese e indo-pachistano.
Per aumentare il numero di parole e frasi riconosciute nel ‘vocabolario’, il software ha bisogno in media di 10 esempi di uno stesso segno per riconoscerlo e tradurlo.
SignAll si serve di tre fotocamere web, un sensore di profondità e un computer: il tutto per non perdere neanche un movimento, il quale può essere determinante nel cambiare il senso di una espressione della lingua dei segni. Attualmente, anche questo sistema traduce un numero limitato di parole, circa 300, dal linguaggio dei segni americano in Inglese, ma presto gli autori sia augurano che possa essere in grado di tradurne mille.
Ad oggi, dunque, mancano ancora dati sufficienti per coprire l’intero vocabolario: questo gap anche perché non vi è un ampio database di video contenenti immagini di persone che comunicano in questo linguaggio, da utilizzare per far riconoscere al software una data parola o espressione.
Anche se i prototipi realizzati forniscono già un’ampia base per una traduzione automatica, finora del tutto inedita, basata sulla traduzione di parole che per la prima volta non appartengono a una lingua vocale, ma a una lingua dei segni, il campo rimane ancora tutto da esplorare e perfezionare.