Ricerca e valutazione: l’Italia può imparare dall’Europa

ROARS - Saturday, January 10, 2026

Per la ricerca italiana, l’anno 2025 si chiude con la buona notizia di una programmazione triennale che promette di mettere a disposizione risorse con scadenze e date certe. Risorse esigue, ma comunque un passo avanti rispetto all’andamento casuale con il quale fino ad oggi comparivano (o più di frequente non comparivano) bandi competitivi pubblici per il finanziamento di attività di ricerca. Lo stesso 2025 si chiude senza che sia comparso un solo bando fra quelli che entreranno nel paniere della programmazione dall’anno prossimo. Un anno senza bandi non torna indietro: è un anno di ricerca che semplicemente scompare. I progetti si fermano, le competenze si disperdono e molte persone lasciano i laboratori.

 

Insieme ai bandi sono necessarie procedure di valutazione affidabili. Poche settimane fa sono stati pubblicati gli esiti della selezione dei progetti presentati nell’ambito del programma Fondo Italiano per la Scienza (FIS) 3, bandito alla fine del 2024. Non sono ancora noti i dettagli, ma la situazione generale non sembra discostarsi di molto da quella della precedente edizione (FIS2), nella quale meno del 5% dei progetti è stato finanziato. Una percentuale bassissima che, insieme all’evidente debolezza della valutazione, ha ormai trasformato i FIS in una sorta di lotteria, da cui vengono “estratti” i nomi dei vincitori, magari scelti sulla sola base del curriculum piuttosto che su una necessaria, rigorosa, ragionata e comparata valutazione sul merito dei progetti.

 

Ma il dato più allarmante, che conferma quanto avvenuto con il FIS2, riguarda le procedure di valutazione che hanno portato a graduatorie così severe. A fronte di migliaia di progetti sottomessi, nessuno sa quanti siano stati i revisori per ciascuna proposta, ma è presumibile che sia stato soltanto uno. Sarebbe infatti uno spreco di tempo e risorse insensato, se la commissione incaricata avesse coinvolto più revisori indipendenti e raccolto i loro pareri solo per poi “nasconderli” ai candidati dietro uno scarno voto numerico. A valle di questa revisione opaca sia in merito al numero dei valutatori, sia al livello di approfondimento – è stata fatta una prima ampia selezione, assegnando punteggi numerici (arrotondati al mezzo punto) su due parametri: qualità del proponente e qualità del progetto. Attribuire un numero in maniera apodittica, senza un vero confronto tra revisori e senza motivazioni dettagliate, è la forma più facile e superficiale di valutazione: richiede pochi secondi, non impone di leggere, non costringe a capire. Sembrerebbe un modo per sbrigare la pratica riducendo al massimo il numero di vincitori, senza entrare nel merito di nulla: chi prendeva meno di 9 punti su 10 in anche uno solo dei parametri rimaneva escluso. Migliaia (!) di colleghi che si sono impegnati per settimane a lavorare su progetti sottomessi ai FIS si sono visti bocciati – dopo un intero anno o più di attesa – con un numero, senza avere la minima idea del perché. E non è chiaro neppure come siano stati gestiti i casi di ex aequo, che verosimilmente saranno stati moltissimi, con una valutazione arrotondata al mezzo punto su una scala da 1 a 20.

 

I progetti che hanno superato la soglia sono stati successivamente ri-valutati in modo più dettagliato, utilizzando criteri esplicitati e tradotti – ancora una volta – in numeri interi o mezzi punti, la cui somma determinava la graduatoria finale. Anche in questo caso non è stato reso noto come si arrivasse a questi punteggi, quanti revisori avessero valutato ciascun progetto, quanti italiani e quanti stranieri, né quali fossero i giudizi di ognuno. I punteggi erano infatti accompagnati solo da pochissime righe – formule spesso generiche e indistinguibili da un progetto all’altro. Pochissime parole, insomma, per assegnare o negare 2 milioni di euro a un singolo ricercatore.

 

Un simile processo di valutazione è approssimativo, opaco, improduttivo. I bandi a cui esplicitamente si ispira il FIS, quelli dello European Research Council (ERC), sono l’esatto contrario. La prima fase di selezione è affidata a un panel di studiosi la cui composizione è resa pubblica. In una seconda fase i progetti vengono valutati approfonditamente da almeno una decina di revisori esterni, ciascuno dei quali redige un giudizio scritto di almeno una pagina sulla base di parametri e criteri chiaramente definiti. Il panel è poi chiamato a sintetizzare tali valutazioni, mettendo in evidenza le convergenze tra i giudizi e delineando con chiarezza i punti di forza e di debolezza di ciascun progetto. Al termine di questa fase avviene una seconda scrematura: i progetti esclusi ricevono una relazione dettagliata sull’intero processo valutativo e tutti (tutti!) i giudizi scritti del panel e dei revisori esterni. In sintesi, ogni progetto, anche se bocciato, riceve una quindicina di pagine di commenti scientifici preziosi per aiutare i proponenti a migliorare i loro progetti ed eventualmente ri-sottoporli alla successiva edizione del bando. Nella terza fase, i proponenti dei progetti considerati migliori vengono infine invitati a Bruxelles, per una presentazione e discussione diretta con il panel: una vera e propria “interrogazione” orale sul progetto (l’interrogazione da parte del panel era prevista anche nel FIS1 ma è stata poi abolita). A conclusione di questo confronto, il panel redige una sintesi complessiva dell’intera procedura (inclusi ovviamente i giudizi della fase due) che viene condivisa sia con i vincitori che con i bocciati.

 

Insomma, c’è una distanza siderale tra le modalità di valutazione italiane e quelle europee. È chiaro che una procedura come quella dell’ERC non può essere fatta a costo zero: non richiede solo attenzione, cura e trasparenza, ma anche risorse economiche dedicate, oltre a personale altamente qualificato per la gestione del processo, esperto nelle procedure di valutazione. Questo personale non può coincidere con gli scienziati o i docenti, perché il lavoro richiesto è ben diverso. Come sottolinea Kelly Cobey, ricercatrice e co-chair di DORA (Declaration on Research Assessment), in un editoriale su Nature, una valutazione superficiale e approssimativa trasmette il messaggio che l’organizzazione finanziatrice non crede nella ricerca ed è disposta a sprecare tempo e risorse.

 

Da qualche settimana, la Ministra Anna Maria Bernini ha affidato al Prof. Matteo Bassetti la Presidenza del nuovo Gruppo di Lavoro incaricato di affiancare il Ministero dell’Università e della Ricerca nella definizione e nello sviluppo di linee guida per la gestione e la valutazione dei bandi pubblici, con l’obiettivo di allineare il sistema italiano agli standard europei. Da decenni attendiamo un governo che creda nella ricerca e nei giovani ricercatori. Che investa risorse ben più significative di quelle minime previste oggi. Che smetta di “trascinare i piedi” e si impegni con convinzione a costruire un sistema di valutazione solido, trasparente, efficiente, capace di avvicinare il nostro Paese agli standard internazionali più elevati. Le competenze, l’energia e il capitale umano non mancano, soprattutto nella nuova generazione: non possono e non devono essere traditi.