Mamma, il robot fa le smorfie. Succede all’Università della California di San Diego, negli Stati Uniti, dove dei ricercatori sono riusciti a dare a una faccia robotica la facoltà di riprodurre le espressioni di panico, disgusto e rabbia. Con un obiettivo molto interessante: aiutare i medici a comprendere meglio i cambiamenti d’animo che attraversano il volto delle persone e così riconoscere il dolore. Una capacità tutt’altro che scontata e che, in ultima analisi, permetterebbe di migliorare le diagnosi.
Come sottolinea New Scientist, molti dottori utilizzano già i robot per allenarsi a praticare manovre d’intervento e per testare le loro abilità diagnostiche. “Questi robot possono sanguinare, respirare e reagire al trattamento”, ha detto Laurel Riek dell’Università della California di San Diego e una delle responsabili del progetto: “Sono incredibili, ma c’è una grande pecca nel loro design: la loro faccia“. E interpretare le espressioni facciali del paziente, continua Riek, può aiutare a determinare se stanno avendo un infarto, se stanno soffrendo o reagendo a un determinato trattamento. Ecco perché i medici dovrebbero essere capaci di analizzare tutte le espressioni di un paziente dall’inizio della loro professione. Sembrerebbe ovvio ma in realtà, al momento, pare che non sia affatto così.
In preparazione a una prova che si farà a fine anno in una scuola medica, infatti, i ricercatori hanno testato quanto bene le persone riescano a riconoscere le espressioni facciali di un robot e di un avatar virtuale, da utilizzare in alternativa. I video del robot e dell’avatar sono stati mostrati a 102 volontari che hanno dovuto stabilire quale emozione corrispondesse a quale espressione. La metà dei partecipanti era composta da personale clinico, come dottori, infermieri e farmacisti. Mentre l’altra metà non aveva alcun background medico. Analizzando i risultati i clinici si sono rivelati meno accurati degli altri nel riconoscere sia il dolore che la rabbia. In particolare, i dottori hanno identificato la sofferenza espressa dall’avatar virtuale solo il 54 per cento delle volte, mentre i non dottori ci sono riusciti nell’83 per cento dei casi.
Il robot usato si chiama Philip K. Dick della Hanson Robotics, concepito nel 2004 come un omaggio al noto scrittore statunitense di fantascienza e frutto del lavoro collettivo di disegnatori, programmatori, ingegneri, designer, e letterati. Il Philip Dick fatto di chip ha una pelle di gomma che può muovere in modo da ‘fare smorfie’ molto realistiche, quasi umane. Per allenarlo, i ricercatori hanno collezionato video di persone che stavano esprimendo dolore, disgusto o rabbia e hanno usato un software di tracciamento facciale per convertire le espressioni in una serie di spostamenti sulla faccia del robot.
In realtà, però, non è la prima volta che gli scienziati riescono a mettere a punto un androide con caratteristiche simili. Un esempio ce l’abbiamo proprio qui, in Italia. Si chiama Face ed è stato perfezionato nel 2012 nei laboratori dell’Università di Pisa da un team del Centro “E. Piaggio”. “La faccia del robot è stata costruita da un artista statunitense, David Hanson”, spiega a Galileo Daniele Mazzei, ricercatore dell’Università di Pisa e uno dei creatori di Face: “Si tratta di una maschera di silicone, dentro cui si trovano numerosi tendini che sono collegati in modo simile a quanto accade nell’anatomia umana. Non solo, abbiamo sviluppato un software d’intelligenza artificiale che guida questi motori per fare espressioni facciali nel continuo, cioè non riproduce solo la felicità e la paura. Ma anche tutto ciò che c’è nel mezzo”.
All’inizio Face è stato usato per capire le possibilità d’impiegare questo tipo di robot, come strumenti ausiliari, nelle terapie destinate ai bimbi autistici. “Abbiamo scoperto che soggetti con sindrome dello spettro autistico accettano molto bene l’interazione con questi robot e, in genere, sono ottimi da sfruttare per allenare a comprendere le espressioni facciali”, conclude Mazzei. Oggi l’androide ha anche un busto e delle braccia. E viene utilizzato per studiare l’interazione uomo/macchina dal punto di vista affettivo.