Il Nobel per la fisica 2024 ai “padri” dell’intelligenza artificiale

    intelligenza artificiale

    Lo scorso anno era toccato alla fisica sperimentale, oggi è stato il turno di quella teorica. I membri dell’Accademia reale svedese delle scienze hanno deciso di assegnare il premio Nobel per la fisica 2024 a John J. Hopfield e Geoffrey E. Hinton “per le loro scoperte e invenzioni fondamentali che hanno reso possibile l’apprendimento automatico con reti neurali artificiali”. Parole molto di moda oggi, soprattutto dopo che i grandi modelli di linguaggio (ChatGPT, Gemini tra tutti, ma non solo) sono arrivati al grande pubblico: praticamente sempre e ovunque – talvolta anche a sproposito – si citano queste entità come i mattoni fondamentali degli strumenti di intelligenza artificiale che stanno cambiando il mondo. E il riconoscimento di Stoccolma non è altro che l’ulteriore certificazione dell’enorme impatto di queste innovazioni non solo nel campo della fisica e delle altre scienze, ma anche nella vita quotidiana di tutti: “Le reti neurali artificiali – ha commentato a caldo lo stesso Hinton, raggiunto al telefono dalla commissione dopo l’annuncio del premio – avranno conseguenze paragonabili alla rivoluzione industriale. Ma non possiamo escludere il rischio che sfuggano al nostro controllo”. Vediamo allora di cosa si tratta.


    Nobel per la medicina ai microRNA, regolatori dell’espressione genica


    Un cervello non umano

    Cominciamo col botto. Se si chiede a una rete neurale di spiegare cos’è una rete neurale, risponde più o meno così: “Una rete neurale è un modello computazionale ispirato alla struttura del cervello umano, composto da nodi (neuroni) organizzati in strati. Ogni nodo elabora informazioni ricevute dagli altri nodi e, attraverso un processo di apprendimento, la rete può riconoscere schemi e prendere decisioni. Viene utilizzata in campi come l’intelligenza artificiale per compiti complessi, come il riconoscimento di immagini o il linguaggio naturale”. Tutto giusto, ma proviamo a dire qualcosa di più su questi strumenti in grado di tradurre testi da una lingua all’altra, interpretare immagini, guidare automobili, sostenere conversazioni credibili. In generale – molto in generale – quando parliamo di intelligenza artificiale ci riferiamo quasi sempre a una serie di tecnologie basate sul cosiddetto apprendimento automatico, o machine learning, che a sua volta utilizza una struttura chiamata rete neurale artificiale, che già nel nome rimanda direttamente al funzionamento di un cervello naturale. Con il machine learning i computer non riescono a pensare, ma sono in grado di imitare, e talvolta superare, le abilità umane di memoria e apprendimento: a differenza degli algoritmi e dei software “tradizionali”, che ricevono dei dati, li elaborano usando delle regole fisse e strutturate e infine ne producono altri in risposta, quelli basati sull’apprendimento automatico imparano per esempi e per imitazioni, il che permette loro di affrontare e risolvere problemi troppo vaghi, generici o complicati per essere strutturati in una lista di informazioni. È la differenza che c’è, per esempio, tra la ricetta per preparare un dolce, che prevede dosi e procedimenti ben definiti, da eseguire secondo una sequenza precisa, e il problema di riconoscere che l’animale ritratto in una foto sia proprio un cane, e non un gatto e un coniglio: in questo caso non esistono indicazioni precise, eppure riusciamo a riconoscere il cane perché abbiamo visto migliaia di cani, tutti diversi tra loro e riconducibili all’archetipo-cane. In gergo tecnico diremmo che stiamo riconoscendo un pattern, ed è proprio questo che fa una rete neurale.

    La prima rete neurale artificiale fu presentata in un paper accademico del 1943: gli autori, lo psicologo cognitivo Walter Pitts e l’esperto di cibernetica Warren McCulloch, mostrarono come, in linea di principio, fosse possibile mettere a punto un sistema di neuroni artificiali in grado di apprendere nello stesso modo in cui imparano gli esseri umani. La loro teoria, effettivamente, è ancora oggi alla base degli algoritmi di deep learning e di machine learning: in sintesi, i due scienziati dimostrarono che, attraverso una serie di tentativi ed errori, i collegamenti tra i neuroni artificiali che hanno portato a eseguire l’azione corretta si rafforzano, mentre quelli che hanno portato a un’azione errata si indeboliscono. Questo sistema, per l’appunto, non ha bisogno di essere programmato con regole fisse, ma apprende autonomamente sfruttando i dati in suo possesso: è il primo modello matematico di rete artificiale, ma all’epoca non c’erano i dati né il potere computazionale per provare a metterlo in pratica. Svisceriamo più in dettaglio questa analogia: la rete neurale di un cervello biologico è composta di cellule speciali, i neuroni, in grado di scambiarsi segnali tramite le sinapsi: quando impariamo qualcosa, la connessione tra alcuni neuroni diventa più forte e quella tra altri diventa più debole; allo stesso modo, una rete neurale è composta di diversi nodi a ciascuno dei quali è assegnato un valore, e durante la fase di apprendimento le connessioni dei nodi attivi diventano più forti, e quelle dei nodi non attivi diventano più deboli. Dopo i lavori di Pitts e McCullogh e di altri colleghi il campo di ricerca perse progressivamente interesse, anche a causa dell’impossibilità tecnologica di provare ad applicare le nuove scoperte: fu solo alla fine degli anni ottanta, grazie anche ai lavori dei premiati di quest’anno, che si tornò a parlarne con entusiasmo.

    Problemi di memoria

    Nel 1982 John Hopfield si interessò al problema delle memorie associative, il fenomeno con cui, per esempio, si recupera una certa parola ricordandosene un’altra con un suono simile. Lo scienziato riuscì a inventare un metodo grazie al quale una macchina era in grado di memorizzare diversi pattern (un analogo dei “ricordi”) e, se interrogata, di recuperare il pattern più somigliante a quello che le veniva proposto. Una rete siffatta, che si chiama per l’appunto rete di Hopfield, è molto vicina al concetto di memoria associativa, e lo scienziato – come spesso accade nella ricerca – ebbe quest’idea mentre si stava occupando di tutt’altro, e cioè di un fenomeno legato ai sistemi di spin dei materiali magnetici. Sostanzialmente, lo spin di ciascun atomo di questi materiali (immaginiamolo come una freccia che punta in alto o in basso) cambia direzione a seconda di come si comporta lo spin degli atomi vicini, il che può portare alla formazione di intere regioni di atomi con spin uguale: Hopfield immaginò i suoi neuroni artificiali come un sistema di spin in cui il comportamento, o meglio il valore, di ogni neurone influenza quello dei suoi vicini, e questi valori cambiano finché non si raggiunge uno stato di equilibrio, ossia di minima energia. Il sistema funziona: le reti di Hopfield, alla base dei sistemi di apprendimento automatico, riescono a “ricordare” dati parzialmente cancellati o coperti da rumore.

    Ricordare è un conto, capire è un altro

    Una volta che si riesce a ricordare, bisogna anche interpretare. E qui entra in gioco l’altro Nobel, Geoffrey Hinton, che all’epoca del lavoro di Hopfield sulle memorie associative era in forze alla Carnegie Mell University e stava indagando, per l’appunto, su possibili tecniche per consentire a una macchina di interpretare informazioni allo stesso modo di come facciamo noi umani. Partì proprio dalle reti di Hopfield, ispirandosi alla fisica statistica e in particolare ai gas. Già molti anni prima il grande fisico Ludwig Boltzmann, padre della meccanica statistica e della termodinamica, aveva compreso che era impossibile tracciare il comportamento di ogni singola molecola di sistemi complessi come i gas, e aveva messo a punto un’architettura con la quale è possibile collegare le proprietà microscopiche a quelle macroscopiche, come pressione e temperatura, valutando con metodi statistici, in termini cioè probabilistici, lo stato delle componenti individuali: alcuni stati, disse Boltzmann, sono più probabili di altri. Usando l’equazione di Boltzmann, nel 1985 Hinton mise a punto un metodo, chiamato per l’appunto macchina di Boltzmann, che consentiva di “sovrapporre” più reti di Hopfield: l’insieme, nel complesso, si evolveva in modo simile ai gas descritti da Boltzmann, ed era in grado di “imparare” e “comprendere” specifici pattern, producendone altri in uscita. Questo tipo di comportamento è alla base, per esempio, degli algoritmi che ci consigliano un film da vedere sulla base di quelli che abbiamo già visto: la macchina di Boltzmann “comprende” i nostri gusti e evolve, si ridispone, in uno stato equivalente a un nuovo film. Si tratta di uno dei primi modelli di intelligenza generativa, alla base di quelli che usiamo oggi. Negli anni successivi Hopfield e Hinton (e molti altri) affinarono ulteriormente i loro metodi fino ad arrivare ai risultati strabilianti che sono sotto gli occhi di tutti: “Con queste tecnologie – dicono da Stoccolma – comincia ad essere possibile calcolare e prevedere le proprietà delle molecole e dei materiali, come per esempio le strutture delle proteine, e lavorare con nuove versioni di materiali che potrebbero essere usati in celle solari più efficienti; sono utilizzate nell’analisi dei dati che provengono dallo spazio, per esempio quelli relativi alla collisione di buchi neri o alla ricerca di esopianeti; nella medicina, per interpretare le immagini diagnostiche; nella fisica delle particelle”. E il meglio deve ancora venire.

    Via: Wired.it
    Immagine: Google DeepMind/Unsplash