Ripensare la valutazione della ricerca. Basandosi non solo sugli indicatori utilizzati sino ad oggi (numero di brevetti e di pubblicazioni per ricercatore), ma aggiornandoli e progettandone di nuovi, valutando anche il tasso di internazionalizzazione degli scienziati o la collaborazione tra pubblico e privato. In modo che le valutazioni non siano solo frutto della statistica, ma riflettano il reale stato della ricerca europea. Se ne parla in questi giorni alla conferenza Enid (European Network of Indicators Designers), in corso a Roma. Emanuela Reale, dell’Istituto di ricerca sull’impresa e lo sviluppo (Ceris) del Cnr e chair della conferenza, spiega in quale direzione è necessario andare.
Dottoressa Reale, perché è così importante rivedere gli indicatori della produttività scientifica?
“Un indicatore è una misura dell’impegno e dei risultati in ricerca e sviluppo ottenuti da un’università, un istituto di ricerca, un programma o un intero paese. Sostanzialmente, si tratta di un numero estratto da calcoli statistici, ma fornisce elementi che poi guidano le scelte finanziare, e da cui dipendono la visibilità, il prestigio e i premi che un’istituzione riceve. È necessario rivedere continuamente questi indicatori, perché un indicatore sbagliato produce un giudizio sbagliato, che si ripercuote poi sulle politiche della ricerca. Gli studi in questo campo sono in continuo sviluppo, per esempio quello per la valutazione dell’impatto dei programmi internazionali ‘Joint and open’ (promosso dalla Commissione Europea e coordinato dal Cnr, ndr) e quello sull’internazionalizzazione degli organismi che finanziano e svolgono ricerca (promosso dalla European Science Foundation, ndr)”.
Quali sono, oggi, gli indicatori più utilizzati per misurare la produttività scientifica europea?
“I cosiddetti indicatori macro: la spesa per la ricerca sul Prodotto interno lordo, il numero di articoli scientifici pubblicati dai ricercatori rispetto al numero di abitanti di un paese, o il numero di pubblicazioni per ricercatore, per fare degli esempi. Questo tipo di indici possono funzionare per valutare il posizionamento in ricerca e sviluppo di un paese, ma non possono essere utilizzati per valutare la produttività a livello delle singole istituzioni, o addirittura a livello di singoli programmi di ricerca”.
E quali sono, secondo lei, quelli che dovrebbero essere ripensati?
“Uno degli aspetti da rivedere è quello dell’internazionalizzazione dei ricercatori, ovvero il movimento degli scienziati all’interno dell’Unione Europea e verso l’estero. Questo è un indicatore che in un certo senso penalizza l’Italia. Mi spiego. Se si considera la produttività in termini di articoli per singolo ricercatore, i valori del nostro paese sono abbastanza buoni, anche se è bene sottolineare che in genere si tratta di una produttività concentrata in pochi gruppi. Lo scenario, però, cambia molto se consideriamo il numero di articoli per abitanti. In questo caso infatti l’Italia è dietro al resto d’Europa, dove in media ci sono 6,1 ricercatori ogni mille lavoratori, contro i 3,8 che abbiamo in Italia. Un indicatore che tenga conto dell’internazionalizzazione potrebbe modificare questo scenario, considerando che i nostri scienziati si muovono molto verso altri paesi. Purtroppo la situazione è asimmetrica: pochi sono i cervelli che arrivano nel nostro paese”.
Quali altri indicatori sono stati discussi nel corso dei lavori?
“La conferenza ha posto l’accento anche sull’importanza di valutare il contributo delle collaborazioni tra pubblico e privato, per capire quanto gli indicatori bibliometrici di pubblicazioni di questo tipo siano effettivamente rappresentativi della collaborazione medesima. Questo è particolarmente importante per le agenzie finanziarie, perché consente loro di capire l’effetto di alcuni programmi di finanziamento che hanno avviato, sia che riguardino un prodotto o un progetto di ricerca. Infine sono stati analizzati i sistemi per valutare il prestigio delle università, i cosiddetti university rankings e nuovi approcci per riconoscere la produttività scientifica dei piccoli paesi”.
Come vengono recepite le innovazioni in materia di indicatori della produttività scientifica?
“Prima che un nuovo indicatore venga recepito e applicato è necessario che superi diverse fasi: una serie di test, per capire se può essere compatibile con altri valori di produttività scientifica e se è in grado di riflettere il fenomeno per cui deve essere utilizzato. Solo dopo può essere applicato; di solito, la prima a farlo è l’Unione Europea, poi a cascata, i diversi governi”.
Più che nuovi indicatori di produttività, occorre modificare quelli vecchi, come l’ I.F., che si sa ormai benissimo, sono il frutto non di un’autovalutazone dell’editoria scientifica, ma di una strategia di mercato più sottile ed aggerrita di tante altre speculazioni finanziarie.
In aggiunta, specie in Italia, occorrerebbe contrastare il “publish-by-phone” fra colleghi, la baronìa nelle pubblicazioni, la valutazione anonima senza sottomissione anonima.
In alcune Università statunitensi importanti, dove ho avuto modo di vedere come funziona, se un ricercatore pubblica più di 10 articoli all’anno, cade automaticamente sotto lo scrutinio del locale comitato per l’etica scientifica. Questo, se appura una mancanza d’etica nel produrre pubblicazioni scientifiche, interviene in modo molto pesante, fino al licenziamento in tronco del colpevole.
Quanti di noi hanno dei colleghi che non sanno neanche cosa sta per uscire con il loro nome, oppure colleghi che corrompono con regali e piaggeria i reviewers importanti?
E su questi presupposti vengono fatte delle carriere, delle vite vengono coinvolte e dei cattivi esempi vegnono procrastinati dai sedicenti maestri agli allievi.
CVB