Tag - trasparenza

Trasparenza e ricerca pubblica: perché oltre 10.000 cittadini chiedono di fermare la nomina del Prof. Bassetti
Esiste un principio semplice, scolpito nella nostra Costituzione e nel senso comune: chi esercita una funzione pubblica deve essere libero da qualsiasi condizionamento privato. È su questo principio – non su una polemica personale – che si fonda l’iniziativa del Comitato di Scopo per la Tutela della Salute Pubblica, che nelle scorse ore ha inviato una richiesta formale di revoca della nomina del Prof. Matteo Bassetti a Presidente del nuovo Gruppo di lavoro del Ministero dell’Università e della Ricerca. La lettera ufficiale, protocollata via PEC alla Ministra Anna Maria Bernini e al Ministro della Salute, documenta con precisione gli elementi di criticità che rendono questa nomina incompatibile con i criteri di imparzialità, indipendenza e trasparenza che devono governare l’uso delle risorse pubbliche. Un caso che non ha bisogno di interpretazioni, ma di chiarezza Durante l’audizione alla Commissione parlamentare COVID del 17 novembre 2025, il Prof. Bassetti ha dichiarato che la collaborazione economica con aziende farmaceutiche rappresenta “una delle parti del mio lavoro”. Quella frase – riportata senza alcuna manipolazione – configura ciò che le norme chiamano conflitto d’interesse strutturale. E non è l’unico elemento che desta preoccupazione: * le segnalazioni ufficiali dell’Associazione Liberi Specializzandi sulla gestione della Scuola di Specializzazione diretta dal Professore, con carenze di tutoraggio e supervisione; * la condanna civile del Tribunale di Genova (2023) per dichiarazioni ritenute offensive e prive di fondamento scientifico. Non si tratta di giudizi soggettivi. Si tratta di atti, dichiarazioni e provvedimenti ufficiali. Per questo motivo, affidare a questa figura la valutazione, la selezione e l’assegnazione di risorse pubbliche nell’ambito della ricerca non è solo inopportuno: è pericoloso per la credibilità delle istituzioni. Una mobilitazione civile: oltre 10.000 firme in pochi giorni Mentre la stampa mainstream ha scelto – almeno finora – di ignorare la questione, i cittadini hanno risposto in massa. La petizione lanciata parallelamente alla lettera ufficiale ha superato le 10.000 adesioni in pochissime ore, segno di una sensibilità diffusa per il tema dell’indipendenza della ricerca pubblica. QUI puoi firmare la Petizione ufficiale. L’adesione non riguarda appartenenze politiche. Non riguarda simpatie o antipatie personali. Riguarda una cosa sola: la difesa dell’interesse pubblico. La posta in gioco è molto più grande di un nome: ciò che è in discussione non è il curriculum di un singolo professionista, ma il modello di governo della ricerca e della formazione medica in Italia. Un modello che deve essere: * trasparente, * indipendente, * immune da condizionamenti economici privati, * coerente con i principi costituzionali di imparzialità e onore. Per questo, nella lettera ufficiale il Comitato chiede non solo la revoca della nomina, ma anche: 1. la pubblicazione obbligatoria dei conflitti di interesse di tutti i membri delle commissioni ministeriali; 2. criteri di esclusione automatica per chi intrattiene rapporti economici continuativi con aziende del settore oggetto delle valutazioni. Non si tratta di richieste radicali, sono standard internazionali. Restituire credibilità alle istituzioni Se vogliamo ricostruire fiducia nella scienza, nelle università e nelle istituzioni, dobbiamo iniziare da qui: eliminare ogni possibile dubbio sulla trasparenza di chi decide come vengono spesi i soldi pubblici per la ricerca. La scienza deve essere indipendente. Le istituzioni devono essere credibili. Le decisioni pubbliche devono essere imparziali. È questo che chiedono i firmatari della petizione, è questo che ribadiamo in questa iniziativa, è questo che dovrebbe pretendere chiunque abbia a cuore la qualità e la dignità del nostro sistema di ricerca. AsSIS
Intelligenza Artificiale: «Possiamo proteggere la privacy solo collettivamente»
Open source, pochi cookie, ad blocker, svuotamento della cache: tutto questo aiuta solo in misura limitata. È necessario controllare gli algoritmi. > «Immaginate di candidarvi per un posto di lavoro. Sapete di essere un > candidato promettente con un curriculum eccellente. Ma non ricevete nemmeno > una risposta. Forse lo intuite: per la preselezione dei candidati viene > utilizzato un algoritmo di intelligenza artificiale. Ha deciso che > rappresentate un rischio troppo grande. > > Forse l’algoritmo è giunto alla conclusione che non siete adatti alla cultura > aziendale o che in futuro potreste comportarvi in modo tale da causare > attriti, ad esempio aderendo a un sindacato o mettendo su famiglia. Non avete > alcuna possibilità di comprendere il suo ragionamento o di contestarlo». Il professor Maximilian Kasy illustra così quanto già oggi siamo in balia degli algoritmi di IA. Kasy è professore di economia all’Università di Oxford e autore del libro «The Means of Prediction: How AI Really Works (and Who Benefits)». In italiano: «La capacità di prevedere: come funziona davvero l’IA (e chi ne trae vantaggio)». Kasy avverte che gli algoritmi dell’I.A. potrebbero privarci del nostro lavoro, della nostra felicità e della nostra libertà, e persino costarci la vita. > «È inutile preoccuparsi di proteggere la propria privacy digitale, anche se si > mantengono riservati la maggior parte dei dettagli personali, si evita di > esprimere la propria opinione online e si impedisce alle app e ai siti web di > tracciare la propria attività. All’intelligenza artificiale bastano i pochi > dettagli che ha su di voi per prevedere come vi comporterete sul lavoro. Si > basa su modelli che ha appreso da innumerevoli altre persone come voi». Kasy > ha fatto questa triste constatazione in un articolo pubblicato sul New York > Times. Concretamente, potrebbe funzionare così: le banche non utilizzano i clic individuali, ma algoritmi appositamente progettati per decidere chi ottiene un prestito. La loro IA ha imparato dai precedenti mutuatari e può quindi prevedere chi potrebbe trovarsi in mora. Oppure le autorità di polizia inseriscono negli algoritmi dati raccolti nel corso di anni su attività criminali e arresti per consentire un «lavoro di polizia preventiva». Anche le piattaforme dei social media utilizzano non solo i clic individuali, ma anche quelli collettivi per decidere quali notizie – o disinformazioni – mostrare agli utenti. La riservatezza dei nostri dati personali offre poca protezione. L’intelligenza artificiale non ha bisogno di sapere cosa ha fatto una persona. Deve solo sapere cosa hanno fatto persone come lei prima di lei. Gli iPhone di Apple, ad esempio, sono dotati di algoritmi che raccolgono informazioni sul comportamento e sulle tendenze degli utenti senza mai rivelare quali dati provengono da quale telefono. Anche se i dati personali degli individui fossero protetti, i modelli nei dati rimarrebbero invariati. E questi modelli sarebbero sufficienti per prevedere il comportamento individuale con una certa precisione. L’azienda tecnologica Palantir sta sviluppando un sistema di intelligenza artificiale chiamato ImmigrationOS per l’autorità federale tedesca responsabile dell’immigrazione e delle dogane. Il suo scopo è quello di identificare e rintracciare le persone da espellere, combinando e analizzando molte fonti di dati, tra cui la previdenza sociale, l’ufficio della motorizzazione civile, l’ufficio delle imposte, i lettori di targhe e le attività relative ai passaporti. ImmigrationOS aggira così l’ostacolo rappresentato dalla privacy differenziale. Anche senza sapere chi sia una persona, l’algoritmo è in grado di prevedere i quartieri, i luoghi di lavoro e le scuole in cui è più probabile che si trovino gli immigrati privi di documenti. Secondo quanto riportato, algoritmi di intelligenza artificiale chiamati Lavender e Where’s Daddy? sono stati utilizzati in modo simile per aiutare l’esercito israeliano a determinare e localizzare gli obiettivi dei bombardamenti a Gaza. «È NECESSARIO UN CONTROLLO COLLETTIVO» Il professor Kasy conclude che non è più possibile proteggere la propria privacy individualmente: «Dobbiamo piuttosto esercitare un controllo collettivo su tutti i nostri dati per determinare se vengono utilizzati a nostro vantaggio o svantaggio». Kasy fa un’analogia con il cambiamento climatico: le emissioni di una singola persona non modificano il clima, ma le emissioni di tutte le persone insieme distruggono il pianeta. Ciò che conta sono le emissioni complessive. Allo stesso modo, la trasmissione dei dati di una singola persona sembra insignificante, ma la trasmissione dei dati di tutte le persone – e l’incarico all’IA di prendere decisioni sulla base di questi dati – cambia la società. Il fatto che tutti mettano a disposizione i propri dati per addestrare l’IA è fantastico se siamo d’accordo con gli obiettivi che sono stati fissati per l’IA. Tuttavia, non è così fantastico se non siamo d’accordo con questi obiettivi. TRASPARENZA E PARTECIPAZIONE Sono necessarie istituzioni e leggi per dare voce alle persone interessate dagli algoritmi di IA, che devono poter decidere come vengono progettati questi algoritmi e quali risultati devono raggiungere. Il primo passo è la trasparenza, afferma Kasy. Analogamente ai requisiti di rendicontazione finanziaria delle imprese, le aziende e le autorità che utilizzano l’IA dovrebbero essere obbligate a rendere pubblici i propri obiettivi e ciò che i loro algoritmi dovrebbero massimizzare: ad esempio, il numero di clic sugli annunci sui social media, l’assunzione di lavoratori che non aderiscono a un sindacato, l’affidabilità creditizia o il numero di espulsioni di migranti. Il secondo passo è la partecipazione. Le persone i cui dati vengono utilizzati per addestrare gli algoritmi – e le cui vite sono influenzate da questi algoritmi – dovrebbero poter partecipare alle decisioni relative alla definizione dei loro obiettivi. Analogamente a una giuria composta da pari che discute un processo civile o penale e emette una sentenza collettiva, potremmo istituire assemblee cittadine in cui un gruppo di persone selezionate a caso discute e decide gli obiettivi appropriati per gli algoritmi. Ciò potrebbe significare che i dipendenti di un’azienda discutono dell’uso dell’IA sul posto di lavoro o che un’assemblea cittadina esamina gli obiettivi degli strumenti di polizia preventiva prima che questi vengano utilizzati dalle autorità. Questi sono i tipi di controlli democratici che potrebbero conciliare l’IA con il bene pubblico. Oggi sono di proprietà privata. Il futuro dell’IA non sarà determinato da algoritmi più intelligenti o chip più veloci. Dipenderà piuttosto da chi controlla i dati e dai valori e dagli interessi che guidano le macchine. Se vogliamo un’IA al servizio del pubblico, è il pubblico che deve decidere a cosa deve servire. ________ Maximilian Kasy: «The Means of Prediction: How AI Really Works (and Who Benefits)», University of Chicago Press, 2025 -------------------------------------------------------------------------------- Traduzione dal tedesco di Thomas Schmid con l’ausilio di traduttore automatico. INFOsperber
In attesa della finanziaria, il Documento Programmatico della Difesa fa già preoccupare
Mentre oggi ci si aspetta che il Consiglio dei Ministri licenzi il primo testo della prossima legge di bilancio, che dovrebbe arrivare alle Aule del Parlamento il 20 ottobre, si può fare un punto della spese militare, che come abbiamo già scritto rappresenta la cifra caratteristica della spesa pubblica, da […] L'articolo In attesa della finanziaria, il Documento Programmatico della Difesa fa già preoccupare su Contropiano.
Appello in solidarietà al Dott. Paolo Bellavite e al Dott. Eugenio Serravalle
Care amiche e cari amici, vi invitiamo a sottoscrivere l’appello a sostegno della libertà di ricerca, di parola e di confronto pluralistico in ambito scientifico, in difesa del diritto di ogni medico e scienziato di esprimere opinioni motivate e basate su prove documentate, senza subire delegittimazioni personali. Il testo integrale dell’appello è riportato di seguito. Vi invitiamo a leggerlo e a diffonderlo affinché sempre più voci si uniscano in questa richiesta di libertà, trasparenza e pluralismo scientifico. Appello in solidarietà del Dott. Paolo Bellavite e del Dott. Eugenio Serravalle Le Associazioni firmatarie esprimono apprezzamento per la recente decisione del Ministro della Salute di rinnovare il Gruppo Tecnico Consultivo Nazionale sulle Vaccinazioni (NITAG), adottando un’impostazione che riconosce e valorizza il pluralismo delle competenze. Riteniamo che la tutela della salute pubblica richieda un dibattito aperto, inclusivo e basato sulle migliori prove scientifiche disponibili. La discussione deve essere libera, pluralistica e basata su prove documentate, e ogni forma di delegittimazione personale è contraria ai principi etici e ai diritti costituzionali perché va sempre garantita la libertà di ogni professionista di esprimersi nel rispetto della scienza e della propria coscienza. Limitare oggi la voce di chi chiede trasparenza sulla base delle prove scientifiche, mette a rischio il diritto di ogni cittadino a ricevere cure basate su verità rigorose e verificate e indipendenza professionale. Paolo Bellavite e Eugenio Serravalle sono stati etichettati da alcuni come “antiscientifici” per le loro posizioni critiche sulla gestione della pandemia e, in particolare, sui cosiddetti vaccini anti-COVID. Alcuni commentatori si sono arrogati il diritto di decidere cosa sia “scienza” e cosa non lo sia, pronunziando un verdetto senza possibilità di replica. Eppure, i loro curricula e le testimonianze della loro attività clinica dimostrano preparazione, esperienza e contributi reali alla ricerca. La loro “colpa” è aver mantenuto il diritto di porsi domande e di esprimere dubbi in pubblico — proprio ciò che, da sempre, alimenta il progresso e la conoscenza. Etichettare e delegittimare non è scienza: è arbitrio. La scienza non è un dogma, è un metodo che si basa sulla verifica di teorie anche contrapposte: alla fine ‘vince’ chi porta i dati e le prove più valide e forti. Il fondamento del metodo è basato sul dubbio costruttivo e sul confronto delle prove, non su articoli di fede e censure. Di fronte a prove migliori di quelle che possono presentare, Bellavite e Serravalle hanno reso pubblico l’impegno a riconoscerlo pubblicamente, auspicando analoga disponibilità da parte degli interlocutori. In un’epoca in cui decisioni complesse in sanità pubblica devono essere prese talvolta con dati incompleti, è indispensabile che organi come il NITAG siano composti da professionisti con competenze diverse, liberi da condizionamenti e capaci di valutare criticamente ogni prova. Chiediamo che la libertà di ricerca e di parola dei medici e degli scienziati sia garantita, che il dissenso argomentato sia accolto come risorsa e che il pluralismo scientifico venga riconosciuto come condizione necessaria per decisioni equilibrate e trasparenti. La scienza vive solo dove c’è confronto libero. Si può firmare entro venerdì 16 agosto, ore 18:00, inviando una mail all’indirizzo segreteria@assis.it con la vostra adesione.   AsSIS