Intelligenza Artificiale: «Possiamo proteggere la privacy solo collettivamente»
Open source, pochi cookie, ad blocker, svuotamento della cache: tutto questo
aiuta solo in misura limitata. È necessario controllare gli algoritmi.
> «Immaginate di candidarvi per un posto di lavoro. Sapete di essere un
> candidato promettente con un curriculum eccellente. Ma non ricevete nemmeno
> una risposta. Forse lo intuite: per la preselezione dei candidati viene
> utilizzato un algoritmo di intelligenza artificiale. Ha deciso che
> rappresentate un rischio troppo grande.
>
> Forse l’algoritmo è giunto alla conclusione che non siete adatti alla cultura
> aziendale o che in futuro potreste comportarvi in modo tale da causare
> attriti, ad esempio aderendo a un sindacato o mettendo su famiglia. Non avete
> alcuna possibilità di comprendere il suo ragionamento o di contestarlo».
Il professor Maximilian Kasy illustra così quanto già oggi siamo in balia degli
algoritmi di IA. Kasy è professore di economia all’Università di Oxford e autore
del libro «The Means of Prediction: How AI Really Works (and Who Benefits)». In
italiano: «La capacità di prevedere: come funziona davvero l’IA (e chi ne trae
vantaggio)».
Kasy avverte che gli algoritmi dell’I.A. potrebbero privarci del nostro lavoro,
della nostra felicità e della nostra libertà, e persino costarci la vita.
> «È inutile preoccuparsi di proteggere la propria privacy digitale, anche se si
> mantengono riservati la maggior parte dei dettagli personali, si evita di
> esprimere la propria opinione online e si impedisce alle app e ai siti web di
> tracciare la propria attività. All’intelligenza artificiale bastano i pochi
> dettagli che ha su di voi per prevedere come vi comporterete sul lavoro. Si
> basa su modelli che ha appreso da innumerevoli altre persone come voi». Kasy
> ha fatto questa triste constatazione in un articolo pubblicato sul New York
> Times.
Concretamente, potrebbe funzionare così: le banche non utilizzano i clic
individuali, ma algoritmi appositamente progettati per decidere chi ottiene un
prestito. La loro IA ha imparato dai precedenti mutuatari e può quindi prevedere
chi potrebbe trovarsi in mora.
Oppure le autorità di polizia inseriscono negli algoritmi dati raccolti nel
corso di anni su attività criminali e arresti per consentire un «lavoro di
polizia preventiva».
Anche le piattaforme dei social media utilizzano non solo i clic individuali, ma
anche quelli collettivi per decidere quali notizie – o disinformazioni –
mostrare agli utenti. La riservatezza dei nostri dati personali offre poca
protezione. L’intelligenza artificiale non ha bisogno di sapere cosa ha fatto
una persona. Deve solo sapere cosa hanno fatto persone come lei prima di lei.
Gli iPhone di Apple, ad esempio, sono dotati di algoritmi che raccolgono
informazioni sul comportamento e sulle tendenze degli utenti senza mai rivelare
quali dati provengono da quale telefono. Anche se i dati personali degli
individui fossero protetti, i modelli nei dati rimarrebbero invariati. E questi
modelli sarebbero sufficienti per prevedere il comportamento individuale con una
certa precisione.
L’azienda tecnologica Palantir sta sviluppando un sistema di intelligenza
artificiale chiamato ImmigrationOS per l’autorità federale tedesca responsabile
dell’immigrazione e delle dogane. Il suo scopo è quello di identificare e
rintracciare le persone da espellere, combinando e analizzando molte fonti di
dati, tra cui la previdenza sociale, l’ufficio della motorizzazione civile,
l’ufficio delle imposte, i lettori di targhe e le attività relative ai
passaporti. ImmigrationOS aggira così l’ostacolo rappresentato dalla privacy
differenziale.
Anche senza sapere chi sia una persona, l’algoritmo è in grado di prevedere i
quartieri, i luoghi di lavoro e le scuole in cui è più probabile che si trovino
gli immigrati privi di documenti. Secondo quanto riportato, algoritmi di
intelligenza artificiale chiamati Lavender e Where’s Daddy? sono stati
utilizzati in modo simile per aiutare l’esercito israeliano a determinare e
localizzare gli obiettivi dei bombardamenti a Gaza.
«È NECESSARIO UN CONTROLLO COLLETTIVO»
Il professor Kasy conclude che non è più possibile proteggere la propria privacy
individualmente: «Dobbiamo piuttosto esercitare un controllo collettivo su tutti
i nostri dati per determinare se vengono utilizzati a nostro vantaggio o
svantaggio».
Kasy fa un’analogia con il cambiamento climatico: le emissioni di una singola
persona non modificano il clima, ma le emissioni di tutte le persone insieme
distruggono il pianeta. Ciò che conta sono le emissioni complessive.
Allo stesso modo, la trasmissione dei dati di una singola persona sembra
insignificante, ma la trasmissione dei dati di tutte le persone – e l’incarico
all’IA di prendere decisioni sulla base di questi dati – cambia la società.
Il fatto che tutti mettano a disposizione i propri dati per addestrare l’IA è
fantastico se siamo d’accordo con gli obiettivi che sono stati fissati per l’IA.
Tuttavia, non è così fantastico se non siamo d’accordo con questi obiettivi.
TRASPARENZA E PARTECIPAZIONE
Sono necessarie istituzioni e leggi per dare voce alle persone interessate dagli
algoritmi di IA, che devono poter decidere come vengono progettati questi
algoritmi e quali risultati devono raggiungere.
Il primo passo è la trasparenza, afferma Kasy. Analogamente ai requisiti di
rendicontazione finanziaria delle imprese, le aziende e le autorità che
utilizzano l’IA dovrebbero essere obbligate a rendere pubblici i propri
obiettivi e ciò che i loro algoritmi dovrebbero massimizzare: ad esempio, il
numero di clic sugli annunci sui social media, l’assunzione di lavoratori che
non aderiscono a un sindacato, l’affidabilità creditizia o il numero di
espulsioni di migranti.
Il secondo passo è la partecipazione. Le persone i cui dati vengono utilizzati
per addestrare gli algoritmi – e le cui vite sono influenzate da questi
algoritmi – dovrebbero poter partecipare alle decisioni relative alla
definizione dei loro obiettivi. Analogamente a una giuria composta da pari che
discute un processo civile o penale e emette una sentenza collettiva, potremmo
istituire assemblee cittadine in cui un gruppo di persone selezionate a caso
discute e decide gli obiettivi appropriati per gli algoritmi.
Ciò potrebbe significare che i dipendenti di un’azienda discutono dell’uso
dell’IA sul posto di lavoro o che un’assemblea cittadina esamina gli obiettivi
degli strumenti di polizia preventiva prima che questi vengano utilizzati dalle
autorità. Questi sono i tipi di controlli democratici che potrebbero conciliare
l’IA con il bene pubblico. Oggi sono di proprietà privata.
Il futuro dell’IA non sarà determinato da algoritmi più intelligenti o chip più
veloci. Dipenderà piuttosto da chi controlla i dati e dai valori e dagli
interessi che guidano le macchine. Se vogliamo un’IA al servizio del pubblico, è
il pubblico che deve decidere a cosa deve servire.
________
Maximilian Kasy: «The Means of Prediction: How AI Really Works (and Who
Benefits)», University of Chicago Press, 2025
--------------------------------------------------------------------------------
Traduzione dal tedesco di Thomas Schmid con l’ausilio di traduttore automatico.
INFOsperber