Tag - Madhumita Murgia

Madhumita Murgia/ L’unione fa la forza
Fin dal titolo, deliberatamente agli antipodi dell’argomento di cui parla, Essere umani si presenta come un libro diverso. Ci risparmia le spiegazioni riduttive e quelle ipercomplicate. Va dritto al cuore del problema: cosa stanno facendo, gli esseri umani, con questo potentissimo strumento? Di base, Madhumita Murgia è ottimista. La sofisticazione, la complessità e le capacità dell’intelligenza artificiale ci potrebbero davvero aiutare a migliorare la vita nostra e degli altri. Giornalista che si occupa da più di dieci anni di tecnologia per testate come “Wired” e “Financial Times”, Murgia ha cominciato a indagare sugli usi dell’IA andando a cercare le persone la cui vita, grazie a questo strumento, è cambiata. Non sempre e non del tutto in meglio, anche se non è facile capire quale è il meglio e quale è il peggio. I migranti che lavorano da remoto inserendo dati, gli autisti di Uber, i rider che portano il cibo pronto, sono tra le persone che beneficiano dell’intelligenza artificiale e nel contempo ne sono le vittime. Gli algoritmi con cui lavorano le piattaforme che gestiscono questi lavori sono opache e le persone che ci lavorano non li conoscono; non hanno alcun controllo, alcuna comprensione. Tutto è anonimo ed estraneo, e quando c’è un problema, quando qualcosa non torna, non esiste un interlocutore, non esiste un referente. Gli algoritmi sembrano neutri ma sono in realtà pensati e scritti da esseri umani, con pregiudizi e convinzioni da cui sono guidati nel loro lavoro, anche senza esserne consapevoli. I siti di pornografia (uno degli ambiti più lucrativi) rubano immagini di volti “qualunque”, volti di persone normali a cui aggiungono un corpo che segue l’immaginario maschile (quello deformato della pornografia ovviamente) e che esegue gli atti e i comportamenti che quell’immaginario richiede. Sono violenti, totalmente irrispettosi delle donne. Vedere la propria immagine trattata così è un’esperienza devastante da cui è difficile uscire. Il riconoscimento facciale è praticato da moltissime amministrazioni pubbliche attraverso telecamere poste nei luoghi di passaggio, piazze, metropolitane, angoli di strade, senza che i cittadini lo sappiano e senza alcuna considerazione per la tanto decantata privacy. Con la scusa della sicurezza, può essere utilizzato contro chiunque. Anche le applicazioni di IA a problemi sanitari o di assistenza sociale o di prevenzione dei crimini si sono rivelati fallaci e spesso dannosi. I casi dell’Olanda e dell’Argentina, in cui l’IA è stata applicata per predire la delinquenza giovanile o le gravidanze adolescenziali, hanno mostrato come i dati su cui i sistemi di IA si basano sono parziali e soprattutto di parte, e possono generare delle soluzioni che danneggiano le persone che si immaginavano di aiutare. Ma chi altro se ne accorge oltre le vittime? Di certo non le amministrazioni pubbliche o i servizi sociali, che anzi tendono a pensare di aver finalmente trovato nei sistemi di IA la soluzione poco costosa e funzionale dei loro problemi. La statistica non è una fotografia neutra della realtà. Altri esempi ci vengono dall’uso di ChatGPT. Si tratta dell’IA generativa, un sistema che impara man mano che interagisce con l’utente. Di base quello che ha imparato viene da tutto quello che nell’arco degli ultimi vent’anni abbiamo messo dentro internet: libri, articoli, blog, commenti, pubblicità, video, musica, immagini. ChatGPT lo usano in tanti e spesso in modo innocuo e pigro, per risparmiare tempo, per scrivere senza fare la fatica di pensare cosa e come scrivere. E già così ci si può immaginare che l’IA possa sostituire alcune professioni, copywriter e disegnatori in primis, e lo fa dopo avere imparato senza pagare una lira e senza riconoscere alcun merito alle fonti. Non stupisce che la questione del diritto d’autore sia delle più delicate e urgenti. Ma c’è un aspetto che Murgia mette in evidenza e che disturba assai: ChatGPT (e chissà i suoi successori) sono programmati per dare delle risposte. Se non le sanno se le inventano. Frugano tra i miliardi di dati che hanno e tirano fuori qualcosa. È successo a un avvocato, di farsi assistere da una chatbot per preparare un’udienza, e trovarsi in aula con dei riferimenti a sentenze inesistenti: si è vergognato oltremodo. Sono anche programmati (diciamo che “li disegnano così”) per dare delle risposte gradite, accondiscendenti: fungono da psicoterapeuti per persone che cercano conferme e mai confronti. Addirittura, secondo un recente articolo di “The Atlantic”, guidano passo passo una persona che dice di volersi tagliare le vene. Inquietante. Ma non è un saggio politico, questo libro. Nell’aprirci gli occhi sugli effetti indesiderati dell’IA, nel ricordarci che si tratta di un potentissimo strumento statistico e non di un’intelligenza come quella umana, con le sue sfumature e le sue qualità emotive e sentimentali, Murgia ci ricorda anche che viviamo in una società, che apparteniamo a una comunità, che non siamo individui isolati. Anche se spesso sembra che ognuno stia chiuso nella sua bolla e abbia pochissimi contatti con gli altri, è nel momento in cui le persone si parlano, si raccontano le proprie esperienze, si mettono insieme per agire, che lo strumento IA diventa meno potente. L’unico modo per far fronte allo strapotere dell’intelligenza artificiale (e dei gruppi che se ne avvantaggiano economicamente) è quello di unire le forze, di confrontare i vissuti, di agire insieme. Una ricetta vecchia come il mondo, e non facile da applicare, ma che tuttora è l’unica che funziona. Come dice la stessa Murgia: «Se l’IA sta già modificando, nel piccolo e nel grande, ciò che significa essere umani, cosa accadrebbe se, tutti insieme, rivendicassimo la nostra umanità?» L'articolo Madhumita Murgia/ L’unione fa la forza proviene da Pulp Magazine.
Intelligenza artificiale: sorveglianza, controllo, abusi
Molti ne sono entusiasti: l’AI (Artificial Intelligence), nella forma di ChatGPT (Generative Pre-Trained Transformer Chat) li aiuta a scrivere curriculum e testi, fa ricerche e le consegna ben confezionate, svolge perfettamente i temi scolastici partendo anche dalla traccia più difficile, spiega come procedere nel caso di controversie condominiali. E poi, da brava chat, chiacchiera con te. Puoi darle un nome. Puoi allenarla persino, se sei bravo e sai come aggirare certi limiti imposti, a fornirti eccitazioni erotiche, come se stessi parlando con un essere umano. C’è chi giura che svolga, gratis, addirittura il lavoro di uno psicoanalista, e chi ha smesso di consultare google quando avverte dei sintomi preoccupanti, perché ChatGPT è capace di fornire diagnosi mediche accurate. Ci sono preoccupazioni etiche, ci sono paure. Presto ci trasformeremo tutti in AI-dipendenti, restii a imparare perché non servirà più, goffi nello scrivere perché anche questo non servirà più, inabili nel prendere decisioni perché l’intelligenza artificiale lo saprà fare molto meglio di noi, dotata come sarà (è) di una quantità quasi smisurata di informazioni, scaltrissima nell’effettuare collegamenti che a noi non sarebbero mai venuti in mente, e soprattutto razionale, priva di quelle debolezze psicologiche-emotive che inducono gli umani a commettere errori? Sì, qualcuno ha di questi pensieri. Ma in prospettiva, come materia di riflessione filosofica. Intanto, i problemi che si lamentano, immediati ma che tutto sommato sembrano di scarsa importanza, sono le foto “finte”, immagini di scene che raccontano persone che non esistono, vicende mai avvenute, talmente rifinite da essere scambiate per vere. Ci si stupisce, al massimo. Uno spunto per prendere in giro chi si è lasciato ingannare, e vantarci che noi no, noi siamo più furbi. L’intelligenza artificiale non ci frega. Ben altri sono i risvolti di una tecnologia che è andata molto più avanti di quanto,  a meno che non siamo del settore, possiamo immaginare. Si è impegnata in un’indagine che l’ha portata in giro per il mondo l’immunologa e giornalista scientifica indiana Madhumita Murgia, che ha iniziato le sue ricerche aspettandosi di scoprire come l’AI avesse risolto problemi difficili e migliorato la vita di molte persone. Non è però stato così. Nel suo viaggio, riportato nel libro Essere umani. L’impatto dell’intelligenza artificiale sulle nostre vite (ed. Neri Pozza), ha dovuto registrare quanto pesanti, a volte devastanti e comunque sempre manipolatorie possano essere le conseguenze dell’AI sugli individui, sulle comunità e sulle culture in generale. Murgia approfondisce dei casi esemplari, persone che solo apparentemente non hanno nulla in comune tra loro: un medico dell’India rurale, un rider di Pittsburg, un ingegnere afroamericano, una funzionaria burocratica argentina, una rifugiata irachena a Sofia, una madre single ad Amsterdam, un’attivista cinese in esilio.  Diana, la madre single: una storia kafkiana. Due suoi figli minori erano stati inseriti in liste di “ragazzi ad alto rischio di diventare criminali”, liste compilate con un sistema progettato dall’AI e basate su punteggi di rischio, con punti assegnati non solo per aver commesso un reato, ma per essere stati spesso assenti a scuola, aver assistito a una violenza, essere parente di qualcuno che ha guai con la giustizia, vivere in un quartiere povero o semplicemente essere poveri (le cosiddette “variabili proxy”). A quel punto, ecco una serie di misure volte a “tutelare” la società e prevenire il crimine. Interventi continui e quasi persecutori, con visite ripetute di assistenti sociali, poliziotti, funzionari a controllare e redarguire il genitore –  Diana, in questo caso – trattandolo come un demente, rimproverandolo, minacciandolo. Piatti sporchi nel lavello? Attenzione, potremmo doverti portare via la bambina piccola.  È chiaro che così le situazioni di disagio e povertà non possono che peggiorare. Non esistono perdono, aiuto, comprensione. Nato povero e sfortunato, sei destinato a diventarlo ancora di più. Diana aveva finito col perdere il lavoro, stressata com’era, ed era stata ricoverata in ospedale con palpitazioni cardiache. «Le liste generate dall’algoritmo non erano soltanto fattori predittivi», scrive Murgia. «Erano maledizioni».  Uno degli aspetti più lamentati da chi frequenta i social riguarda la rimozione di immagini e contenuti. Viene subita da utenti che hanno semplicemente postato un quadro rappresentante un nudo, e viene subita anche, al contrario, da chi si trova di fronte foto e filmati cruenti accompagnati da commenti di giubilo, e si domanda perché non siano stati censurati. Quello che non ci domandiamo è chi siano i censori. Attraverso storie vere e dati, Murgia racconta quanto porti al DPTS (disturbi post-traumatici da stress) il dover vagliare i contenuti dei social, guardando violenze e atti d’odio a ritmo sostenuto per tutto il tempo, in modo, oggi, di addestrare gli algoritmi. Un lavoro a sua volta guidato dagli algoritmi: pausa pranzo e tempo per andare in bagno predeterminati, come la produttività, che non deve scendere sotto una certa soglia. A fronte di questo, remunerazione bassa, accordi di segretezza, scoraggiato in ogni modo il contatto con i colleghi, e figuriamoci l’unirsi in sindacato.   C’è poi il risvolto della sostituzione dell’AI generativa in lavori prettamente umani: illustratori, copywriter, progettisti di videogiochi, animatori e doppiatori si trovano già adesso in grande difficoltà, e molti dichiarano che viene chiesto loro, più che di creare… di correggere ciò che è stato fatto dall’AI (pagati un decimo rispetto a prima). E c’è la questione contraffazione, il “deepfake”: generati dalle tecnologie AI, foto di persone reali prese da Internet che un software fonde con corpi di attori porno, ottenendo video assolutamente realistici di cui non sarà facile ottenere la rimozione (su TikTok era diventato virale già nel 2020 un video deepfake di Tom Cruise, e parliamo di cinque anni fa, quando i software erano meno sofisticati di oggi).  Non dimentichiamo nemmeno i pregiudizi. Un esempio: il modo in cui vengono calcolati i punteggi di rischio che riguardano la salute. Negli USA, i pazienti neri – e con redito basso – sembravano avere punteggi più bassi, ma questo non accadeva perché si ammalassero meno, ma perché i progettatori avevano addestrato il sistema a stimare la salute i una persona in base ai suoi costi sanitari (e più si è poveri, meno si ricorre all’assistenza sanitaria). Attivisti pieni di buona volontà stanno cercando di raddrizzare le cose. Non è detto che non ci riescano, ma intanto quanti danni sono stati fatti?  Si potrebbe continuare a lungo, e Murgia non si è tirata indietro. Ha indagato le più varie situazioni, incontrato avvocati che cercano di difendere chi è rimasto intrappolato da questi sistemi opachi che possono disporre delle nostre vite e procurarci danni anche senza che lo sappiamo. E ha affrontato il tema forse più delicato e spaventoso: il controllo. In Cina (e Murgia porta riferimenti precisi) esistono già da un po’ sistemi software interconnessi che aggregano i dati dei cittadini e l collegano ai database della polizia.  Gli algoritmi a funzione predittiva considerano sospette decine di comportamenti (addirittura spegnere ripetutamente il cellulare e avere certe espressioni del viso, riprese dalle infinite videocamere), e per motivi di “sicurezza pubblica” moltissimi cittadini, soprattutto dissidenti o appartenenti a gruppi etnici minoritari, sono stati e sono sorvegliati e vessati, quando non portati in campi di rieducazione. Sorveglianza e controllo. Capillari, incessanti. I governi (la rete di connessioni esisterà solo in Cina? non scherziamo) potranno a breve arrivare a prevedere e neutralizzare qualunque azione o manifestazione di protesta, sia individuale che collettiva. E le aziende tecnologiche, con miliardi di utenti, aumenteranno il loro potere, che già è immenso. George Orwell, in 1984. Ninteeen Eighty Four, scritto nel 1949: «Se vuoi un’immagine del futuro, immagina uno stivale che schiaccia il volto umano. Per sempre». Susanna Schimperna