Vi piacerebbe riversare sul vostro computer sogni e ricordi, come li avete visti con i vostri stessi occhi? Un gruppo di ricercatori dell’Università di Berkeley, in California, è riuscito a sviluppare un algoritmo che, elaborando i dati ottenuti con la risonanza magnetica funzionale (fMRI), riesce a ricostruire in formato digitale le immagini in movimento percepite da una persona. Lo studio, pubblicato su Current Biology, aiuta a capire meglio i meccanismi della visione umana, e potrebbe servire in futuro per sviluppare sistemi di visione artificiale per i robot.
La risonanza magnetica funzionale permette di determinare l’attività neurale misurando il flusso di sangue e i livelli di ossigenazione nel cervello, ed è da anni utilizzata per studiare i meccanismi della visione. Finora però tutte le ricerche si sono concentrate sull’elaborazione visiva di immagini statiche, perché l’attività neuronale è così veloce che da rendere impossibile l’analisi di quelle in movimento.
Nello studio su Current Biology i ricercatori guidati da Shinji Nishimoto si sono sottoposti alla risonanza magnetica funzionale durante la visione di diverse ore di trailer e spezzoni di film, registrando le immagini generate dalla risonanza magnetica per ciascun fotogramma visualizzato. Tramite opportuni sistemi di analisi, Nishimoto e colleghi hanno quindi cercato di ricostruire l’attività neurale associata alle immagini generate dalla fMRI. “Facendo questo, si ha un modello completo che mette in relazione il flusso di sangue che si vede con la fMRI con l’attività neuronale che non si vede” ha commentato Jack Gallant, uno degli autori. In altre parole gli scienziati hanno tradotto le immagini sullo schermo (forme e movimenti) nel linguaggio del nostro cervello (attività neurale).
Dopo aver elaborato questa sorta di dizionario, i ricercatori sono passati alla fase di prova. Hanno selezionato su YouTube 18 milioni di secondi di sequenze, e hanno simulato l’attività neurale e l’immagine di risonanza magnetica associate. A partire da questa libreria, gli scienziati hanno quindi selezionato le scene che davano origine ad attività cerebrali più simili a quelle osservate sperimentalmente, e hanno quindi messo a confronto le immagini reali con quelle simulate. Il risultato, mostrato nel video, sebbene notevole, ha ancora alcuni limiti, come ricordano gli stessi scienziati. Lo studio infatti si è concentrato solamente sulla corteccia visuale primaria, e inoltre l’algoritmo era realizzato su misura per ciascun individuo preso in esame.
Riferimenti: Current Biology doi:10.1016/j.cub.2011.08.031