“Un robot non può causare danno a un essere umano, né permettere che, a causa del proprio mancato intervento, un essere umano riceva danno”. È la prima legge della robotica, enunciata oltre settant’anni fa – dunque in tempi non sospetti – dal celebre scrittore di fantascienza Isaac Asimov. Sembra abbastanza chiara, stringente e senza possibilità di equivoco. Eppure, come mostrò lo stesso Asimov, l’inghippo è dietro l’angolo. Supponiamo, per esempio, che un robot si trovi di fronte due esseri umani in pericolo, e che, causa circostanze esterne, possa salvarne soltanto uno. Come dovrebbe comportarsi? Sarebbe in grado di scegliere?
Nei racconti di Asimov, spesso – ma non sempre – situazioni come questa si concludono con lo stallo del cervello positronico del robot. Oggi siamo in grado di dire qualcosa su quello che accadrebbe nel mondo reale: Alan Winfield, robotologo al Bristol Robotic Laboratory, ha messo per la prima volta alla prova l’etica di un robot. Assieme ai suoi colleghi, ha programmato una macchina in modo che impedisse che altri automi – che ricoprivano il ruolo di esseri umani – cadessero in un buco. I risultati dell’esperimento sono stati pubblicati sulla rivista Advances in Autonomous Robotics Systems. Nello scenario più semplice, il robot ha avuto successo. Mentre quelli che per lui erano esseri umani si dirigevano verso il buco, si è affrettato per cambiarne la traiettoria e portarli fuori pericolo, come ci si aspettava.
Nella situazione, come l’ha definita Winfield, di trappola etica, le cose sono andate diversamente. L’équipe ha aggiunto un secondo automa che si dirigeva verso un altro buco contemporaneamente al primo. E il robot si è trovato costretto a scegliere. In alcuni casi ha deciso di salvare uno dei due, lasciando morire l’altro. Altre volte è riuscito a salvarli entrambi. Ma in 14 prove su 33 il robot ha sprecato così tanto tempo nella decisione che entrambi gli esseri umani sono caduti nel buco. Winfield ha dichiarato laconicamente al New Scientist che prima dell’esperimento era convinto che non sarebbe stato possibile che un robot facesse scelte etiche autonomamente. “Adesso, semplicemente, non ne ho idea”.
La risposta a una domanda del genere si fa sempre più necessaria, man mano che i robot entrano nella vita quotidiana degli esseri umani. Pensiamo, per esempio, alle auto senza guidatore: un giorno potrebbero dover decidere tra la sicurezza dei passeggeri e quella di altri automobilisti e pedoni. E non è semplice programmare delle macchine con regole per tali circostanze.
Paradossalmente, suggerisce ancora il New Scientist, una risposta potrebbe arrivare dai robot progettati per il combattimento militare. Ronald Atkin, informatico al Georgia Institute of Technology di Atlanta, ha messo a punto un insieme di algoritmi per i robot militari – governatore etico, l’ha chiamato – con lo scopo di aiutarli a prendere decisioni intelligenti sul campo di battaglia. Il sistema è stato messo alla prova in combattimenti simulati, mostrando, per esempio, che i droni programmati con gli algoritmi di Atkin riuscivano a scegliere di non sparare o di minimizzare le perdite nel corso di una battaglia vicino a un’area protetta dalle leggi di guerra, come una scuola o un ospedale. Ma forse, a proposito di guerra, un po’ di etica dovremmo impararla prima noialtri umani.
Via: Wired.it
Credits immagine:Don/Flickr CC