Dopatevi con moderazione e andrà tutto bene
L’articolo di Marcello Oberosler, pubblicato su Il Dolomiti e qui riproposto,
affronta il tema dell’uso dell’intelligenza artificiale nella scienza e
nell’università, oggi sempre più diffuso e pervasivo. Dalle abitudini degli
studenti ai comportamenti dei ricercatori, l’Ai è ormai parte integrante della
produzione accademica, con implicazioni profonde sull’integrità della ricerca.
Alberto Baccini, uno dei fondatori di ROARS, mette in guardia dai rischi di una
“scienza dopata”, dove quantità e indicatori contano più della qualità. Tra
linee guida inefficaci e incentivi distorti, emerge l’urgenza di un cambiamento
strutturale nel modo in cui la ricerca viene valutata e finanziata.
Gli studenti universitari italiani utilizzano quotidianamente l’intelligenza
artificiale per cercare idee, riformulare testi, generare interi paragrafi. Si
tratta di una realtà diffusa e normalizzata, di un dato di fatto: e se da un
lato impressiona la rapidità con cui l’Ai è stata assorbita nel “quotidiano”
degli studenti di ogni età, dall’altro preoccupa l’assenza di regolamenti
chiari e di strumenti in grado di governare questo fenomeno deflagrante.
Colpisce anche il fatto che (lo rivela una recente analisi di Cetu) l’uso
dell’Ai cresca in modo proporzionale al livello accademico: e cioè che
i dottorandi sono quelli più inclini ad integrarla nel proprio lavoro (ben
l’87%) seguiti dagli studenti di laurea magistrale (84%) e quindi da quelli
delle triennali (83%). Insomma, l’Ai non è uno strumento usato da “principianti”
o da chi fatica a scrivere. Anzi, sembra vero esattamente l’opposto.
E salendo ancora nella “gerarchia” accademica fino ad arrivare al mare
magnum della ricerca universitaria, la situazione com’è? Da questa domanda
partono le riflessioni di Alberto Baccini, fondatore e membro dell’Associazione
Roars e professore ordinario di economia politica dell’Università di Siena.
“L’impressione è che l’uso dell’intelligenza artificiale nel mondo della ricerca
sia già ubiquo – racconta Baccini a il Dolomiti –. Non più di un paio di anni fa
si scoprivano articoli fake andando a cercare le impronte dell’uso di traduttori
automatici o di software specializzati come Mathgen (un generatore di matematica
non sense) e Scigen (un generatore di articoli scientifici). Adesso l’impresa
appare ancora più ardua e si ricorre all’analisi dello stile di scrittura per
inferire l’uso di Llm (Large language models, ndr). Un articolo recente ha
stimato che su 15 milioni di articoli di area biomedica indicizzati dal più
grande magazzino di articoli medici del mondo (pubmed) ci sono evidenze che il
13,5% abbia usato Chat-gpt, con punte che arrivano al 30% per alcuni segmenti
della letteratura”.
Quali sono i principali rischi legati all’uso di strumenti di Ai nella redazione
di paper accademici, specialmente in termini di plagio, “fabbricazione” di
dati o manipolazione dei risultati? Insomma, utilizzare l’Ai rischia
di compromettere l’integrità della ricerca?
“La risposta è ovviamente sì. Ci tengo però a sottolineare che la scienza
contemporanea, anche prima della diffusione su larga scala del Llm si stava
muovendo su un pericoloso crinale in cui la cattiva scienza tendeva a scacciare
quella buona. Nel mondo del publish or perish dove si pubblica per aggiungere
righe al proprio curriculum in vista dell’assunzione/promozione o aumento di
stipendio non conta la qualità di ciò che si pubblica, ma la quantità. Quindi
avere a disposizione strumenti che facilitano la scrittura, la creazione di
codice, di dati e immagini permette di migliorare i propri indicatori. Quindi
perché non se ne dovrebbe fare uso, visto che la probabilità di essere scoperti
e sanzionati sono estremamente basse?”.
In che modo, concretamente, si sta correndo ai ripari per mettere dei limiti al
suo utilizzo nel campo della ricerca accademica? Quali misure o linee guida sono
necessarie per regolamentare l’uso dell’Ai e prevenire abusi?
“Domanda difficile. Non credo ci siano soluzioni semplici. Molte riviste
scientifiche ormai chiedono agli autori di dichiarare se e come hanno fatto uso
di Ai nel loro lavoro. Altre chiedono di dichiarare che non si è fatto uso di Ai
nella scrittura e così via. Alcuni atenei in Italia e nel mondo scrivono linee
guida. Sono molto scettico su questo approccio. In un mondo in cui gli
scienziati rispondono agli incentivi del publish or perish e dove i governi sono
interessati a scalare i ranking della scienza, pensare di arginare la cattiva
scienza con le linee guida è un po’ come pensare di svuotare il mare con un
cucchiaino. Senza un cambiamento strutturale del modo in cui si finanzia la
ricerca, la scienza è destinata ad essere sempre più inquinata dalle cattivi
pratiche”
Ci possono anche essere risvolti positivi nell’utilizzo di Ai? Magari per un suo
uso “etico” di chi gli elaborati li controlla e con nuovi strumenti può
identificare frodi o verificare più facilmente la correttezza dei dati.
“Certo, si può giocare a guardie e ladri. Con l’Ai usata per scoprire
manipolazioni e frodi. Ma è un po’ la storia dell’antidoping: si mettono a punto
nuove sostanze dopanti. Gli organismi anti-doping mettono a punto i test per
scovare chi ne fa uso. A quel punto le vecchie sostanze vengono sostituite con
nuove sostanze invisibili ai test. Gli organismi anti-doping mettono a punto
nuovi test e così via. La mia impressione è che nel mondo della scienza
contemporanea sia ormai diffusa una sorta di rassegnazione. Per favore dopatevi
con moderazione. E noi istituzioni scientifiche e governi faremo finta che tutto
vada per il meglio”.
Esistono differenze significative nell’impatto dell’Ai sulla ricerca accademica
tra discipline diverse, ad esempio tra scienze naturali, sociali e umanistiche?
“L’Ai può essere usata in modi molto diversi nelle diverse discipline. Non mi
risulta ci siano lavori che studiano sistematicamente come l’Ai è usata nella
diverse discipline. Evidenze aneddotiche mi dicono che c’è chi la usa in fase di
scrittura, revisione e traduzione di testi, chi per scrivere codice di
programmazione, chi per leggere o modificare immagini. Allo stato attuale mi
pare che siamo in una fase di crescente espansione verso un futuro che è
difficile da immaginare”.
Come sta oggi il mondo della ricerca accademica italiana? Quella della Ai è la
sfida principale da affrontare o i problemi sistemici sono altri?
“Credo che la ricerca italiana abbia gli stessi problemi che sono diffusi a
livello globale. Con alcune peculiarità che lo rendono più soggetto alle
lusinghe della cattiva scienza e del cattivo uso, per restare in tema, della Ai.
Abbiamo un sistema ingessato dalla scarsità di risorse, dalla crescente
precarizzazione dei ricercatori e da un sistema di valutazione amministrativa
centralizzato che fa capo ad Anvur. In particolare il sistema di valutazione ha
generato omologazione, autoreferenzialità e incentivato comportamenti
opportunistici se non apertamente fraudolenti. L’Anvur ha concentrato il potere,
sostituendo ai vecchi ‘baroni’ accademici una nuova élite tecnocratica
legittimata dai suoi stessi criteri. Intanto la precarizzazione del personale ha
aumentato la dipendenza dei giovani ricercatori dai gruppi dominanti. La ricerca
si è uniformata ai parametri della valutazione quantitativa. Abbiamo la strada
spianata verso una crescente irrilevanza. Cosa mai potrebbe andare storto lungo
questa strada?”.