Intelligenza artificiale: sorveglianza, controllo, abusi
Molti ne sono entusiasti: l’AI (Artificial Intelligence), nella forma di ChatGPT
(Generative Pre-Trained Transformer Chat) li aiuta a scrivere curriculum e
testi, fa ricerche e le consegna ben confezionate, svolge perfettamente i temi
scolastici partendo anche dalla traccia più difficile, spiega come procedere nel
caso di controversie condominiali. E poi, da brava chat, chiacchiera con te.
Puoi darle un nome. Puoi allenarla persino, se sei bravo e sai come aggirare
certi limiti imposti, a fornirti eccitazioni erotiche, come se stessi parlando
con un essere umano. C’è chi giura che svolga, gratis, addirittura il lavoro di
uno psicoanalista, e chi ha smesso di consultare google quando avverte dei
sintomi preoccupanti, perché ChatGPT è capace di fornire diagnosi mediche
accurate.
Ci sono preoccupazioni etiche, ci sono paure. Presto ci trasformeremo tutti in
AI-dipendenti, restii a imparare perché non servirà più, goffi nello scrivere
perché anche questo non servirà più, inabili nel prendere decisioni perché
l’intelligenza artificiale lo saprà fare molto meglio di noi, dotata come sarà
(è) di una quantità quasi smisurata di informazioni, scaltrissima
nell’effettuare collegamenti che a noi non sarebbero mai venuti in mente, e
soprattutto razionale, priva di quelle debolezze psicologiche-emotive che
inducono gli umani a commettere errori?
Sì, qualcuno ha di questi pensieri. Ma in prospettiva, come materia di
riflessione filosofica. Intanto, i problemi che si lamentano, immediati ma che
tutto sommato sembrano di scarsa importanza, sono le foto “finte”, immagini di
scene che raccontano persone che non esistono, vicende mai avvenute, talmente
rifinite da essere scambiate per vere. Ci si stupisce, al massimo. Uno spunto
per prendere in giro chi si è lasciato ingannare, e vantarci che noi no, noi
siamo più furbi. L’intelligenza artificiale non ci frega.
Ben altri sono i risvolti di una tecnologia che è andata molto più avanti di
quanto, a meno che non siamo del settore, possiamo immaginare. Si è impegnata
in un’indagine che l’ha portata in giro per il mondo l’immunologa e giornalista
scientifica indiana Madhumita Murgia, che ha iniziato le sue ricerche
aspettandosi di scoprire come l’AI avesse risolto problemi difficili e
migliorato la vita di molte persone. Non è però stato così. Nel suo viaggio,
riportato nel libro Essere umani. L’impatto dell’intelligenza artificiale sulle
nostre vite (ed. Neri Pozza), ha dovuto registrare quanto pesanti, a volte
devastanti e comunque sempre manipolatorie possano essere le conseguenze dell’AI
sugli individui, sulle comunità e sulle culture in generale.
Murgia approfondisce dei casi esemplari, persone che solo apparentemente non
hanno nulla in comune tra loro: un medico dell’India rurale, un rider di
Pittsburg, un ingegnere afroamericano, una funzionaria burocratica argentina,
una rifugiata irachena a Sofia, una madre single ad Amsterdam, un’attivista
cinese in esilio.
Diana, la madre single: una storia kafkiana. Due suoi figli minori erano stati
inseriti in liste di “ragazzi ad alto rischio di diventare criminali”, liste
compilate con un sistema progettato dall’AI e basate su punteggi di rischio, con
punti assegnati non solo per aver commesso un reato, ma per essere stati spesso
assenti a scuola, aver assistito a una violenza, essere parente di qualcuno che
ha guai con la giustizia, vivere in un quartiere povero o semplicemente essere
poveri (le cosiddette “variabili proxy”). A quel punto, ecco una serie di misure
volte a “tutelare” la società e prevenire il crimine. Interventi continui e
quasi persecutori, con visite ripetute di assistenti sociali, poliziotti,
funzionari a controllare e redarguire il genitore – Diana, in questo caso –
trattandolo come un demente, rimproverandolo, minacciandolo. Piatti sporchi nel
lavello? Attenzione, potremmo doverti portare via la bambina piccola.
È chiaro che così le situazioni di disagio e povertà non possono che peggiorare.
Non esistono perdono, aiuto, comprensione. Nato povero e sfortunato, sei
destinato a diventarlo ancora di più. Diana aveva finito col perdere il lavoro,
stressata com’era, ed era stata ricoverata in ospedale con palpitazioni
cardiache. «Le liste generate dall’algoritmo non erano soltanto fattori
predittivi», scrive Murgia. «Erano maledizioni».
Uno degli aspetti più lamentati da chi frequenta i social riguarda la rimozione
di immagini e contenuti. Viene subita da utenti che hanno semplicemente postato
un quadro rappresentante un nudo, e viene subita anche, al contrario, da chi si
trova di fronte foto e filmati cruenti accompagnati da commenti di giubilo, e si
domanda perché non siano stati censurati. Quello che non ci domandiamo è chi
siano i censori. Attraverso storie vere e dati, Murgia racconta quanto porti al
DPTS (disturbi post-traumatici da stress) il dover vagliare i contenuti dei
social, guardando violenze e atti d’odio a ritmo sostenuto per tutto il tempo,
in modo, oggi, di addestrare gli algoritmi. Un lavoro a sua volta guidato dagli
algoritmi: pausa pranzo e tempo per andare in bagno predeterminati, come la
produttività, che non deve scendere sotto una certa soglia. A fronte di questo,
remunerazione bassa, accordi di segretezza, scoraggiato in ogni modo il contatto
con i colleghi, e figuriamoci l’unirsi in sindacato.
C’è poi il risvolto della sostituzione dell’AI generativa in lavori prettamente
umani: illustratori, copywriter, progettisti di videogiochi, animatori e
doppiatori si trovano già adesso in grande difficoltà, e molti dichiarano che
viene chiesto loro, più che di creare… di correggere ciò che è stato fatto
dall’AI (pagati un decimo rispetto a prima). E c’è la questione contraffazione,
il “deepfake”: generati dalle tecnologie AI, foto di persone reali prese da
Internet che un software fonde con corpi di attori porno, ottenendo video
assolutamente realistici di cui non sarà facile ottenere la rimozione (su TikTok
era diventato virale già nel 2020 un video deepfake di Tom Cruise, e parliamo di
cinque anni fa, quando i software erano meno sofisticati di oggi).
Non dimentichiamo nemmeno i pregiudizi. Un esempio: il modo in cui vengono
calcolati i punteggi di rischio che riguardano la salute. Negli USA, i pazienti
neri – e con redito basso – sembravano avere punteggi più bassi, ma questo non
accadeva perché si ammalassero meno, ma perché i progettatori avevano addestrato
il sistema a stimare la salute i una persona in base ai suoi costi sanitari (e
più si è poveri, meno si ricorre all’assistenza sanitaria). Attivisti pieni di
buona volontà stanno cercando di raddrizzare le cose. Non è detto che non ci
riescano, ma intanto quanti danni sono stati fatti?
Si potrebbe continuare a lungo, e Murgia non si è tirata indietro. Ha indagato
le più varie situazioni, incontrato avvocati che cercano di difendere chi è
rimasto intrappolato da questi sistemi opachi che possono disporre delle nostre
vite e procurarci danni anche senza che lo sappiamo. E ha affrontato il tema
forse più delicato e spaventoso: il controllo. In Cina (e Murgia porta
riferimenti precisi) esistono già da un po’ sistemi software interconnessi che
aggregano i dati dei cittadini e l collegano ai database della polizia. Gli
algoritmi a funzione predittiva considerano sospette decine di comportamenti
(addirittura spegnere ripetutamente il cellulare e avere certe espressioni del
viso, riprese dalle infinite videocamere), e per motivi di “sicurezza pubblica”
moltissimi cittadini, soprattutto dissidenti o appartenenti a gruppi etnici
minoritari, sono stati e sono sorvegliati e vessati, quando non portati in campi
di rieducazione.
Sorveglianza e controllo. Capillari, incessanti. I governi (la rete di
connessioni esisterà solo in Cina? non scherziamo) potranno a breve arrivare a
prevedere e neutralizzare qualunque azione o manifestazione di protesta, sia
individuale che collettiva. E le aziende tecnologiche, con miliardi di utenti,
aumenteranno il loro potere, che già è immenso.
George Orwell, in 1984. Ninteeen Eighty Four, scritto nel 1949: «Se vuoi
un’immagine del futuro, immagina uno stivale che schiaccia il volto umano. Per
sempre».
Susanna Schimperna