Dopatevi con moderazione e andrà tutto bene

ROARS - Wednesday, October 29, 2025

L’articolo di Marcello Oberosler, pubblicato su Il Dolomiti e qui riproposto, affronta il tema dell’uso dell’intelligenza artificiale nella scienza e nell’università, oggi sempre più diffuso e pervasivo. Dalle abitudini degli studenti ai comportamenti dei ricercatori, l’Ai è ormai parte integrante della produzione accademica, con implicazioni profonde sull’integrità della ricerca. Alberto Baccini, uno dei fondatori di ROARS, mette in guardia dai rischi di una “scienza dopata”, dove quantità e indicatori contano più della qualità. Tra linee guida inefficaci e incentivi distorti, emerge l’urgenza di un cambiamento strutturale nel modo in cui la ricerca viene valutata e finanziata.

Gli studenti universitari italiani utilizzano quotidianamente l’intelligenza artificiale per cercare idee, riformulare testi, generare interi paragrafi. Si tratta di una realtà diffusa e normalizzata, di un dato di fatto: e se da un lato impressiona la rapidità con cui l’Ai è stata assorbita nel “quotidiano” degli studenti di ogni età, dall’altro preoccupa l’assenza di regolamenti chiari e di strumenti in grado di governare questo fenomeno deflagrante.

Colpisce anche il fatto che (lo rivela una recente analisi di Cetu) l’uso dell’Ai cresca in modo proporzionale al livello accademico: e cioè che i dottorandi sono quelli più inclini ad integrarla nel proprio lavoro (ben l’87%) seguiti dagli studenti di laurea magistrale (84%) e quindi da quelli delle triennali (83%). Insomma, l’Ai non è uno strumento usato da “principianti” o da chi fatica a scrivere. Anzi, sembra vero esattamente l’opposto.

E salendo ancora nella “gerarchia” accademica fino ad arrivare al mare magnum della ricerca universitaria, la situazione com’è? Da questa domanda partono le riflessioni di Alberto Baccini, fondatore e membro dell’Associazione Roars e professore ordinario di economia politica dell’Università di Siena.

“L’impressione è che l’uso dell’intelligenza artificiale nel mondo della ricerca sia già ubiquo – racconta Baccini a il Dolomiti –. Non più di un paio di anni fa si scoprivano articoli fake andando a cercare le impronte dell’uso di traduttori automatici o di software specializzati come Mathgen (un generatore di matematica non sense) e Scigen (un generatore di articoli scientifici). Adesso l’impresa appare ancora più ardua e si ricorre all’analisi dello stile di scrittura per inferire l’uso di Llm (Large language models, ndr). Un articolo recente ha stimato che su 15 milioni di articoli di area biomedica indicizzati dal più grande magazzino di articoli medici del mondo (pubmed) ci sono evidenze che il 13,5% abbia usato Chat-gpt, con punte che arrivano al 30% per alcuni segmenti della letteratura”.

Quali sono i principali rischi legati all’uso di strumenti di Ai nella redazione di paper accademici, specialmente in termini di plagio“fabbricazione” di dati o manipolazione dei risultati? Insomma, utilizzare l’Ai rischia di compromettere l’integrità della ricerca?

“La risposta è ovviamente sì. Ci tengo però a sottolineare che la scienza contemporanea, anche prima della diffusione su larga scala del Llm si stava muovendo su un pericoloso crinale in cui la cattiva scienza tendeva a scacciare quella buona. Nel mondo del publish or perish dove si pubblica per aggiungere righe al proprio curriculum in vista dell’assunzione/promozione o aumento di stipendio non conta la qualità di ciò che si pubblica, ma la quantità. Quindi avere a disposizione strumenti che facilitano la scrittura, la creazione di codice, di dati e immagini permette di migliorare i propri indicatori. Quindi perché non se ne dovrebbe fare uso, visto che la probabilità di essere scoperti e sanzionati sono estremamente basse?”. 

In che modo, concretamente, si sta correndo ai ripari per mettere dei limiti al suo utilizzo nel campo della ricerca accademica? Quali misure o linee guida sono necessarie per regolamentare l’uso dell’Ai e prevenire abusi?

“Domanda difficile. Non credo ci siano soluzioni semplici. Molte riviste scientifiche ormai chiedono agli autori di dichiarare se e come hanno fatto uso di Ai nel loro lavoro. Altre chiedono di dichiarare che non si è fatto uso di Ai nella scrittura e così via. Alcuni atenei in Italia e nel mondo scrivono linee guida. Sono molto scettico su questo approccio. In un mondo in cui gli scienziati rispondono agli incentivi del publish or perish e dove i governi sono interessati a scalare i ranking della scienza, pensare di arginare la cattiva scienza con le linee guida è un po’ come pensare di svuotare il mare con un cucchiaino. Senza un cambiamento strutturale del modo in cui si finanzia la ricerca, la scienza è destinata ad essere sempre più inquinata dalle cattivi pratiche”

Ci possono anche essere risvolti positivi nell’utilizzo di Ai? Magari per un suo uso “etico” di chi gli elaborati li controlla e con nuovi strumenti può identificare frodi verificare più facilmente la correttezza dei dati.

“Certo, si può giocare a guardie e ladri. Con l’Ai usata per scoprire manipolazioni e frodi. Ma è un po’ la storia dell’antidoping: si mettono a punto nuove sostanze dopanti. Gli organismi anti-doping mettono a punto i test per scovare chi ne fa uso. A quel punto le vecchie sostanze vengono sostituite con nuove sostanze invisibili ai test. Gli organismi anti-doping mettono a punto nuovi test e così via. La mia impressione è che nel mondo della scienza contemporanea sia ormai diffusa una sorta di rassegnazione. Per favore dopatevi con moderazione. E noi istituzioni scientifiche e governi faremo finta che tutto vada per il meglio”. 

Esistono differenze significative nell’impatto dell’Ai sulla ricerca accademica tra discipline diverse, ad esempio tra scienze naturalisociali umanistiche?

“L’Ai può essere usata in modi molto diversi nelle diverse discipline. Non mi risulta ci siano lavori che studiano sistematicamente come l’Ai è usata nella diverse discipline. Evidenze aneddotiche mi dicono che c’è chi la usa in fase di scrittura, revisione e traduzione di testi, chi per scrivere codice di programmazione, chi per leggere o modificare immagini. Allo stato attuale mi pare che siamo in una fase di crescente espansione verso un futuro che è difficile da immaginare”. 

Come sta oggi il mondo della ricerca accademica italiana? Quella della Ai è la sfida principale da affrontare o i problemi sistemici sono altri?

“Credo che la ricerca italiana abbia gli stessi problemi che sono diffusi a livello globale. Con alcune peculiarità che lo rendono più soggetto alle lusinghe della cattiva scienza e del cattivo uso, per restare in tema, della Ai. Abbiamo un sistema ingessato dalla scarsità di risorse, dalla crescente precarizzazione dei ricercatori e da un sistema di valutazione amministrativa centralizzato che fa capo ad Anvur. In particolare il sistema di valutazione ha generato omologazione, autoreferenzialità e incentivato comportamenti opportunistici se non apertamente fraudolenti. L’Anvur ha concentrato il potere, sostituendo ai vecchi ‘baroni’ accademici una nuova élite tecnocratica legittimata dai suoi stessi criteri. Intanto la precarizzazione del personale ha aumentato la dipendenza dei giovani ricercatori dai gruppi dominanti. La ricerca si è uniformata ai parametri della valutazione quantitativa. Abbiamo la strada spianata verso una crescente irrilevanza. Cosa mai potrebbe andare storto lungo questa strada?”.