Intelligenza Artificiale: «Possiamo proteggere la privacy solo collettivamente»

Pressenza - Monday, November 24, 2025

Open source, pochi cookie, ad blocker, svuotamento della cache: tutto questo aiuta solo in misura limitata. È necessario controllare gli algoritmi.

«Immaginate di candidarvi per un posto di lavoro. Sapete di essere un candidato promettente con un curriculum eccellente. Ma non ricevete nemmeno una risposta. Forse lo intuite: per la preselezione dei candidati viene utilizzato un algoritmo di intelligenza artificiale. Ha deciso che rappresentate un rischio troppo grande.

Forse l’algoritmo è giunto alla conclusione che non siete adatti alla cultura aziendale o che in futuro potreste comportarvi in modo tale da causare attriti, ad esempio aderendo a un sindacato o mettendo su famiglia. Non avete alcuna possibilità di comprendere il suo ragionamento o di contestarlo».

Il professor Maximilian Kasy illustra così quanto già oggi siamo in balia degli algoritmi di IA. Kasy è professore di economia all’Università di Oxford e autore del libro «The Means of Prediction: How AI Really Works (and Who Benefits)». In italiano: «La capacità di prevedere: come funziona davvero l’IA (e chi ne trae vantaggio)».

Kasy avverte che gli algoritmi dell’I.A. potrebbero privarci del nostro lavoro, della nostra felicità e della nostra libertà, e persino costarci la vita.

«È inutile preoccuparsi di proteggere la propria privacy digitale, anche se si mantengono riservati la maggior parte dei dettagli personali, si evita di esprimere la propria opinione online e si impedisce alle app e ai siti web di tracciare la propria attività. All’intelligenza artificiale bastano i pochi dettagli che ha su di voi per prevedere come vi comporterete sul lavoro. Si basa su modelli che ha appreso da innumerevoli altre persone come voi». Kasy ha fatto questa triste constatazione in un articolo pubblicato sul New York Times.

Concretamente, potrebbe funzionare così: le banche non utilizzano i clic individuali, ma algoritmi appositamente progettati per decidere chi ottiene un prestito. La loro IA ha imparato dai precedenti mutuatari e può quindi prevedere chi potrebbe trovarsi in mora.

Oppure le autorità di polizia inseriscono negli algoritmi dati raccolti nel corso di anni su attività criminali e arresti per consentire un «lavoro di polizia preventiva».

Anche le piattaforme dei social media utilizzano non solo i clic individuali, ma anche quelli collettivi per decidere quali notizie – o disinformazioni – mostrare agli utenti. La riservatezza dei nostri dati personali offre poca protezione. L’intelligenza artificiale non ha bisogno di sapere cosa ha fatto una persona. Deve solo sapere cosa hanno fatto persone come lei prima di lei.

Gli iPhone di Apple, ad esempio, sono dotati di algoritmi che raccolgono informazioni sul comportamento e sulle tendenze degli utenti senza mai rivelare quali dati provengono da quale telefono. Anche se i dati personali degli individui fossero protetti, i modelli nei dati rimarrebbero invariati. E questi modelli sarebbero sufficienti per prevedere il comportamento individuale con una certa precisione.

L’azienda tecnologica Palantir sta sviluppando un sistema di intelligenza artificiale chiamato ImmigrationOS per l’autorità federale tedesca responsabile dell’immigrazione e delle dogane. Il suo scopo è quello di identificare e rintracciare le persone da espellere, combinando e analizzando molte fonti di dati, tra cui la previdenza sociale, l’ufficio della motorizzazione civile, l’ufficio delle imposte, i lettori di targhe e le attività relative ai passaporti. ImmigrationOS aggira così l’ostacolo rappresentato dalla privacy differenziale.

Anche senza sapere chi sia una persona, l’algoritmo è in grado di prevedere i quartieri, i luoghi di lavoro e le scuole in cui è più probabile che si trovino gli immigrati privi di documenti. Secondo quanto riportato, algoritmi di intelligenza artificiale chiamati Lavender e Where’s Daddy? sono stati utilizzati in modo simile per aiutare l’esercito israeliano a determinare e localizzare gli obiettivi dei bombardamenti a Gaza.

«È necessario un controllo collettivo»

Il professor Kasy conclude che non è più possibile proteggere la propria privacy individualmente: «Dobbiamo piuttosto esercitare un controllo collettivo su tutti i nostri dati per determinare se vengono utilizzati a nostro vantaggio o svantaggio».

Kasy fa un’analogia con il cambiamento climatico: le emissioni di una singola persona non modificano il clima, ma le emissioni di tutte le persone insieme distruggono il pianeta. Ciò che conta sono le emissioni complessive.

Allo stesso modo, la trasmissione dei dati di una singola persona sembra insignificante, ma la trasmissione dei dati di tutte le persone – e l’incarico all’IA di prendere decisioni sulla base di questi dati – cambia la società.

Il fatto che tutti mettano a disposizione i propri dati per addestrare l’IA è fantastico se siamo d’accordo con gli obiettivi che sono stati fissati per l’IA. Tuttavia, non è così fantastico se non siamo d’accordo con questi obiettivi.

Trasparenza e partecipazione

Sono necessarie istituzioni e leggi per dare voce alle persone interessate dagli algoritmi di IA, che devono poter decidere come vengono progettati questi algoritmi e quali risultati devono raggiungere.

Il primo passo è la trasparenza, afferma Kasy. Analogamente ai requisiti di rendicontazione finanziaria delle imprese, le aziende e le autorità che utilizzano l’IA dovrebbero essere obbligate a rendere pubblici i propri obiettivi e ciò che i loro algoritmi dovrebbero massimizzare: ad esempio, il numero di clic sugli annunci sui social media, l’assunzione di lavoratori che non aderiscono a un sindacato, l’affidabilità creditizia o il numero di espulsioni di migranti.

Il secondo passo è la partecipazione. Le persone i cui dati vengono utilizzati per addestrare gli algoritmi – e le cui vite sono influenzate da questi algoritmi – dovrebbero poter partecipare alle decisioni relative alla definizione dei loro obiettivi. Analogamente a una giuria composta da pari che discute un processo civile o penale e emette una sentenza collettiva, potremmo istituire assemblee cittadine in cui un gruppo di persone selezionate a caso discute e decide gli obiettivi appropriati per gli algoritmi.

Ciò potrebbe significare che i dipendenti di un’azienda discutono dell’uso dell’IA sul posto di lavoro o che un’assemblea cittadina esamina gli obiettivi degli strumenti di polizia preventiva prima che questi vengano utilizzati dalle autorità. Questi sono i tipi di controlli democratici che potrebbero conciliare l’IA con il bene pubblico. Oggi sono di proprietà privata.

Il futuro dell’IA non sarà determinato da algoritmi più intelligenti o chip più veloci. Dipenderà piuttosto da chi controlla i dati e dai valori e dagli interessi che guidano le macchine. Se vogliamo un’IA al servizio del pubblico, è il pubblico che deve decidere a cosa deve servire.

________

Maximilian Kasy: «The Means of Prediction: How AI Really Works (and Who Benefits)», University of Chicago Press, 2025

Traduzione dal tedesco di Thomas Schmid con l’ausilio di traduttore automatico.

INFOsperber