Probabilmente gli ultimi cinquantanni di questo secolo sarannosalutati, nel settore delle ricerche sulla simulazione dei processi cognitivi,come l’età dell’oro. A far partire la corsa sono stati i calcolatori,ma a dirigerla le teorie. E di teorie, e conseguenti metodi, per simularel’intelligenza umana, questi cinquantanni ne hanno prodotti sostanzialmentedue: il modello simbolico, dell’intelligenza artificiale classica, e quelloparallelo e subsimbolico, delle reti neurali.
Due metodi a confronto: da un lato l’intelligenza artificiale classica,la “IA”, simula i risultati dell’attività del cervello,ossia i processi mentali astratti, non tenendo in eccessivo conto il modoin cui questi risultati sono raggiunti. E infatti le macchine, grosso modo,hanno una grande memoria passiva e un unico processore, che esegue i calcoli.Dall’altro le reti neurali simulano i processi stessi del cervello, tramitei quali si arriva ai risultati cognitivi complessi. E per farlo simulanola struttura stessa del cervello umano, strutturate come sono con diversiprocessori, ossia esecutori di calcoli, altamente interconnessi fra di loroe in cui la programmazione consiste nel migliorare le connessioni “giuste”a discapito di quelle sbagliate. L’approccio “dall’alto” dell’IAcontro quello “dal basso” delle reti.
Ma l’incontro nelle “terre di mezzo” ancora non c’è stato:al contrario, le due strategie di ricerca sono spesso andate riottosamentein disaccordo. I due metodi si sono infatti scontrati negli anni ‘60 e adaverne la peggio sono state le reti. Nel libro Perceptrons, Marvin Minskye Seymour Papert mostravano in dettaglio come le reti proposte allora daFrank Rosenblatt non avrebbero mai potuto rendere conto della variabilitàe della complessità cognitiva umana. Ma il Requiem ha smesso le suecupe note alla fine degli anni ‘70.
A quel punto un gruppo di ricercatori, tra cui John Anderson, J.A. Feldmane Dana Ballard, proposero una serie di rimedi ai primi modelli di rete.Mentre i percettroni di Rosenblatt, attaccati da Minsky e Papert, prevedevanosolo due strati di unità computazionali, come fossero due soli stratidi neuroni, uno per gli input e l’altro per gli output, essi sottolinearonol’importanza di un nuovo strato di “unità nascoste”.
Per usare una metafora biologica, si verificò il passaggio dai riflessispinali, che non arrivano ad attivare il cervello, alle reazioni cerebro-spinalio del tutto centrali, tramite le quali vengono compiute elaborazioni piùcomplesse. Ma anche a livello di reti a due strati Stephen Grossberg, conil modello ART (Adaptive Resonance Theory), aveva proposto un metodoper generare un circolo informativo che garantiva la stabilità deipattern appresi, un approccio piu’ “biologico” che molta fortunaha in questi giorni.
A quel punto le reti potevano uscire dall’ostracismo. In base al modellodelle reti, le macchine che produrranno intelligenza dovranno assomigliarefisicamente al cervello, dovranno essere composte da un numero elevato ealtamente interconnesso di unità semplici. Per collegare le varieunità ci sono delle connessioni, veri e propri assoni e dendridiartificiali sul modello del nostro sistema nervoso centrale. Queste hannodiversi “pesi”, ossia diverse sensibilità di attivazione,che si modificano sulla base di una regola neurofisiologica, postulata daDonald Hebb già negli anni ‘50, secondo cui ogni qualvolta due unità(naturali o artificiali) vengono attivate assieme, la connessione tra loroandrà rinforzata, aumentando il valore relativo. Sono stati questigli elementi che hanno dato nuova forza teorica e applicativa alle retineurali, consentendo al modello di riemergere dalle ceneri, anche con nominuovi come “connessionismo” o “processi paralleli distribuiti,PDP”.
La “Bibbia” del connessionismo compie oggi dieci anni: nel 1986:James McClelland e David Rumelhart raccoglievano, in due volumi pubblicatidalla MIT Press, i principi teorici e tecnici del nuovo approccio. Allorasi potevano contare sulle dita i ricercatori impegnati sulle reti nei varipaesi, le riviste dedicate alla simulazione artificiale guardavano con uncerto curioso sospetto il riemergere di un approccio messo all’indice dallavoce imperiosa del “guru” Minsky e i fondi di ricerca erano esiguie marginali. Adesso il nuovo settore appare più che maturo: decinedi riviste specializzate, migliaia di ricercatori sparsi in tutto il mondo,società internazionali e nazionali che riuniscono studiosi e ricercatoriper favorire lo scambio di informazioni e dati sulla nuova frontiera dell’intelligenza.E non solo la ricerca teorica: Daniel Hillis iniziò a rompere gliindugi sul piano ingegneristico realizzando calcolatori basati su migliaiadi piccoli processori che eseguono operazioni elementari, al contrario deinormali calcolatori basati sull’architettura seriale impostata da John vonNeumann, dando vita alla prima Connection Machine.
Da lì il passo verso la commercializzazione è stato breve.I biologi e i neurologi hanno iniziato a scambiare idee e informazione coni connessionisti, pregustando la rivincita del riduzionismo neurobiologicoa discapito di quella strana forma di dualismo che passava tra le magliedell’IA classica, che ammetteva l’intelligenza al di fuori del mondo delcarbonio. Accanto all’hardware, anche il software ha subìto una profondaevoluzione: non solo si è trattato di ripensare i programmi per macchinecon una architettura completamente diversa, ma servivano tecniche per gestirei risultati che esse fornivano.
Un passo in avanti lo si è compiuto “andando all’indietro”,con la “back propagation”. Un punto di forza delle reti èla loro capacità di apprendere dagli esempi. Ma per far questo unarete non usa ricette preconfezionate da qualche programmatore, o almenonon del tutto. Il principio, infatti, è che la rete viene sottopostaa una serie di cicli ripetuti su un medesimo compito. Al ricercatore toccamodificare i pesi sulle connessioni di modo che il valore in uscita si approssimisempre di più a quello desiderato. Il problema, però, èche ogni connessione ha un ruolo nel determinare questo valore, e le connessionisono troppe per un gruppo di ricercatori, per non parlare di uno solo. Inoltreci sono le fondamentali unità nascoste. Ecco allora che Rumelhart,Geoffrey Hinton e altri ricercatori hanno messo a punto, una decina di annifa, la “back propagation”. Questa tecnica consente di individuarequal è il ruolo che ogni singola unità sta giocando nel fornirequel valore, e quindi di modificare i pesi sulle connessioni in manieraconseguente.
Questa è la breve storia, dunque. Adesso le reti si stanno imponendocome un vero e proprio nuovo “paradigma di ricerca” come diceDomenico Parisi, il responsabile italiano della ricerca sulle reti per ilConsiglio Nazionale delle Ricerche. Esse stanno cambiando il panorama dellacollaborazione fra le varie discipline che si occupano della mente e dell’intelligenza.In effetti, mentre con l’IA classica i referenti tradizionali, concettualementeparlando, erano i filosofi, gli psicologi e i linguisti, e questo perchéuna delle nozioni centrali è quella di “simbolo”, l’approccioconnessionista guarda verso altri settori di ricerca. “Oggi la collaborazionepiù forte – dice Domenico Parisi – è con i neuroscienziati,i biologi, i fisici che si occupano di termodinamica e con i matematici.Ma naturalmente, sapere con quali discipline vengono fatti i collegamenticoncettuali dipende dal tipo di connessionismo”. Da una parte c’èinfatti il modello PDP, cui abbiamo già fatto cenno, dall’altro cisono studi ad ancor più vasto raggio che simulano processi di biologiadi popolazione, e che danno i fondamenti alle ricerche sulla vita artificiale.
“In questo secondo caso – nota ancora Parisi – entrano in scena i teoricidell’evoluzione, gli antropologi, gli economisti e coloro che in generalestudiano i sistemi complessi”. Insomma l’interdisciplinarietànon è assolutamente passata in secondo piano. Al contrario, notaMark Plumbey del Centre for Neural Networks presso il Department of Electronicand Electrical Engineering del King’s College di Londra, “Mentre lereti neurali possono differire dall’IA Classica per quanto concerne i concettifondamentali, l’approccio interdisciplinare e’ tuttavia ancora molto importante.Per esempio, qui al King’s College di Londra, il nostro centro comprendestudiosi di informatica, di ingegneria elettronica, di matematica, di fisicae di filosofia. Per quanto mi riguarda, l’interazione tra gli aspetti biologici,teorici e orientati all’applicazione pratica delle reti neurali rappresentaproprio uno degli aspetti piu’ piacevoli! ”
Anche per quel che concerne gli aspetti piu’ applicativi i legami sono mutati:”La ricerca non e’ piu’ isolata ma si e’ fusa con altri campi di ‘softcomputing’ (metodi evolutivi e fuzzy logic) e parzialmente con l’IA simbolica”dice Lutz Prechelt, dell’Institut fuer Programmstrukturen und Datenorganisation,dell’Università di Karlsruhe, in Germania. La divisione, anche senon così netta, passa dunque per la nozione di “simbolo”:un primitivo sul quale vengono eseguite le computazioni per i teorici dell’IAclassica, una nozione che “emerge” razie all’interazione di diversiprocessi che simbolici non sono. “Cio’ rappresenta nel contempo unpunto di forza e un punto di debolezza: un punto di forza perche’ rendei sistemi connessionisti piu’ flessibili, adattabili e potenti; e un puntodi debolezza perche’ li rende piu’ complessi anche per i compiti piu’ semplici”sottolinea Prechelt.
Questa divisione si riflette anche a livello filosofico: studiosi piùinteressati alla nozione di simbolo e rappresentazione esplicita, come JerryFodor, guardano con sospetto al connessionismo mentre chi attacca il modellolinguistico e la nozione di rappresentazione, come Paul e Patricia SmithChurchland, è incline a pensare che il connessionismo saràla base per la nuova “neurofilosofia”.
Ma c’è un secondo aspetto che mostra quanto le ricerche sulle retisi stanno imponendo: soldi. “Gli investimenti per la ricerca (formativae non-applicata) relativa alle reti neurali era quasi del tutto inesistenteprima del 1986” dice Alexander Parlos, professore associato pressoil dipartimento di ingegneria elettronica della Texas A&M University,dove per piu’ di 5 anni sono state condotte numerose ricerche sulle retineurali grazie a dei finanziamenti statali.
“Poiche’ prima del 1986 tale campo era del tutto inesplorato gran partedegli investimenti e’ stata effettuata negli ultimi 10 anni. E’ dunque moltodifficile identificare con precisione dei numeri relativi a tale fenomenodato che in ambito didattico esso e’ diffuso tra la scuola ingegneristica,la scuola scientifica (matematica per informatici e neuroscienza) e la scuolaeconomica. Ritengo tuttavia che esso si sia notevolmente ampliato nell’arcodei dieci anni scorsi (negli ultimi cinque pare infatti essersi quintuplicato),e oggigiorno si aggira intorno a cifre pari a decine di milioni di dollari”.Naturalmente, anche l’industria ha fiutato l’affare, anche se in questocaso il dato è più frammentario e va distinto tra aspettisoftware e hardware. “Nonostante verso la meta’ e la fine degli anni’80 abbiano avuto luogo ingenti investimenti nel campo dell’hardware dellereti neurali, negli ultimi 3-5 anni tale fenomeno pare essersi arrestato”afferma Parlos. “Cio’ e’ principalmente dovuto agli alti costi associatiallo sviluppo di un hardware specialistico e al fatto che gli strumentidi calcolo generici stanno diventando molto potenti e a buon prezzo. Ilvero aumento negli investimenti relativi alle reti neurali si e’ verificatonel campo del software (e delle applicazioni). Anche in questo caso e’ altrettantodifficile produrre dei numeri poiche’ gran parte dei prodotti e dei serviziattualmente offerti riguarda le reti, nonostante queste siano invisibiliagli occhi dei clienti (e molti di essi utilizzino gli algoritmi neuraliancorche’ siano considerati informazioni esclusive delle ditte). L’aumentodell’utilizzo delle reti puo’ invece essere inferito (o, piu’ semplicemente,ipotizzato) dal tipo di persone che le societa’ tendono a impiegare. Unsignificativo aumento negli investimenti e’ stato rilevato dal settore finanziario(quello dell’ingegneria finanziaria, come viene oggi definito, rappresentanello specifico uno dei principali utenti delle reti neurali). Vorrei dunquesottolineare ancora una volta che gli investimenti sono cresciuti considerevolmentenegli ultimi cinque anni, duplicandosi o quintuplicandosi, e che si trattadi decine di milioni di dollari.”.
Una situazione sostanzialmente analoga a quella europea, un caso per tutti:l’Inghilterra. “Negli ultimi dieci anni le reti neurali sono cresciutee oggi rappresentano un campo importante della scienza” afferma MarkPlumbey. Nell’ingegneria dell’informazione esse vengono sempre piu’ applicatea problemi di difficile soluzione i cui dati sono disponibili ma di cuirimane oscura la struttura. Probabilmente esistono ancora delle aree daesplorare, in particolare quelle relative alle sperimentazioni sulle retineurali effettuate quando la tecnologia stava ancora muovendo i primi passicon conseguente disappunto dei ricercatori per l’impossibilita’ di risolveredeterminati problemi. Ora che e’ stata raggiunta una maggiore maturita’,gli investimenti relativi ai proggetti per l’attuazione e per la ricercasono conseguentemente aumentati: in Gran Bretagna, per esempio, il dipartimentoper il commercio e l’industria sta portando a termine un programma da 5,75milioni di sterline volto a migliorare la consapevolezza nell’industriadelle reti neurali. L’Engineering and Physical Sciences Research Councilha recentemente stanziato dei fondi per una dozzina di progetti finalizzatialla soluzione dei “Quesiti fondamentali” posti dall’applicazionedelle reti neurali ai problemi reali”.
Dopo dieci anni quindi grandi promesse e qualche delusione. L’obiettivodel prossimo futuro sembra quello di produrre applicazioni su tecnologiedi uso comune e macchine in grado di simulare apprendimento. A ben vedereè un piano in due tempi dallo scopo ultimo assai chiaro. Molta dellaIA classica si è infatti arenata sul cosiddetto “ragionamentodi senso comune” (common sense reasoning). E molti, dopo avercostruito macchine in grado di realizzare compiti complessi come dimostrareteoremi (theorems proving) o giocare a scacchi, sono giunti a pensare cheproprio nelle forme semplici del ragionamento quotidiano si celi il misterodell’intelligenza umana. In effetti tutti sanno individuare la richiestaimplicita in “sa dirmi l’ora?”, ossia che ore sono e non se siè in grado di leggere l’orologio, mentre sono in pochi a saper risolvereun teorema. Riuscire allora a produrre macchine abili sui problemi quotidianivorrà dire grandi guadagni di mercato e una giustificazione scientificaper aver risolto la simulazione dell’intelligenza naturale.
“La presenza delle reti e’ gia’ evidente nella nostra (degli USA) vitaquotidiana nonostante la maggior parte delle persone non se ne renda conto”afferma Parlos. “Per esempio, un gran numero tra le principali ditteproduttrici di carte di credito (e anche di carte telefoniche) ha elaboratodei sistemi anti-frode per ciascuna transazione. Tali schemi utilizzanole reti neurali. Ma gli esempi di questo tipo sono oggigiorno numerosissimi.Personalmente ritengo quindi che nei prossimi 10-25 anni le reti neuralipenetreranno all’interno della nostra vita quotidiana sempre piu’ sottoforma di prodotti di consumo, come per esempio il sistema di gestione energeticoe il settore automobilistico”.
Queste sono dunque le ipotesi, gli auspici e le speranze. Poca fantasia?Non è detto. Un aiuto può provenire proprio da Internet. “Sipotrebbe paragonare Internet a un cervello e, quindi, in seconda istanza,a una rete” immagina Domenico Parisi. “Esistono zone di pensierointeressanti e zone piene di sciocchezze, e l’interruzione di un collegamentonon necessariamente impedisce il raggiungimento di un sito, come nel cervelloe nelle reti. Per ora è una analogia del tutto vaga, ma potrebbeessere interessante lavorarci sopra”. Nella rete, insomma, si potrebberotrovare altre idee o trovare lo spazio da riempire con nuove proposte. Almomento, per verificare questa analogia che vuole essere fantasiosa, nonc’è che un modo: fare un giro su Internet e vedere come rispondela nostra rete neurale naturale.