Tag - ChatGPT

Opache divine invasioni: a proposito di Seamless – di Giuliano Spagnul
Pubblichiamo la recensione scritta da Giuliano Spagnul a Seamless. Arte, visualità, cultura elettronica in epoca post-pandemica (Edizioni Nero, 2025), un volume curato da Francesco Spampinato che raccoglie gli interventi tenuti nel corso di quattro workshop all'Università di Bologna tra il 2022 e 2023 * * * * * Se ogni uomo, oggi, sembrerebbe non possedere [...]
Le famiglie italiane e l’“economia della rinuncia”
Nel 2024 il 60% della popolazione ha sofferto di ansia e stress. E tra le cause troviamo la salute in famiglia (45,2%), le difficoltà economiche (34,7%) e i problemi lavorativi (32,2%). Il benessere personale, la gestione della casa e la salute sono le prime tre voci di spesa a cui le famiglie italiane hanno dovuto rinunciare. Intanto, le case sono sempre più digitali: il 58% dei nuclei con figli fa uso di ChatGPT quotidianamente. Sono alcuni dei dati del report annuale presentato nei giorni scorsi dal Centro Internazionale Studi Famiglia (https://cisf.famigliacristiana.it/canale/cisf/), dal titolo “Il fragile domani. La famiglia alla prova della contemporaneità”, realizzato in collaborazione con la società Eumetra su un campione di 1.600 famiglie italiane. Dal Report 2025 emerge come la maggior parte delle famiglie italiane si trovi nella categoria economica intermedia. Da qui l’indagine sulle “economie della rinuncia”, ossia le spese che le famiglie italiane non sono riuscite a sostenere nel corso del 2024: il 32,5% ha dovuto rinunciare alle spese dedicate al benessere personale e tempo libero; il 32,4% alle spese per la casa; mentre il 18,5% alle spese sanitarie. Dal punto di vista della salute, emerge una diffusa “vulnerabilità psicologica”: mentre oltre un terzo della popolazione (35,2%) segnala almeno un problema di salute, il 60% dichiara di soffrire di ansia e stress (24,9% “spesso”; 37,3% “a volte”). A causarli, per il 45% del campione sono i problemi di salute personali e familiari, per il 34,7% i problemi economici, per il 32,2% i problemi lavorativi. Infine, secondo l’indagine, il bisogno di migliorare il proprio benessere psichico è decisamente sentito: sempre nel corso del 2024, 4 persone su 10 hanno ricercato supporto o avrebbero voluto farlo, per ansia, depressione e stress. E il futuro non appare certamente roseo: in merito all’Italia e al mondo, il 57% degli italiani esprime un orientamento decisamente pessimista (“peggiorerà”), mentre sulla propria famiglia troviamo previsioni meno sbilanciate, con il 56,7% del campione che lo prevede stabile. Il rapporto evidenzia come i nostri giovani si muovano tra solitudine e difficoltà economiche. Dal punto di vista economico un dato da rilevare è come il 74,1% dei giovani-adulti ancora residenti nella famiglia d’origine si trovi in una condizione di basso o medio-basso status socioeconomico. Per coloro che invece sono riusciti a crearsi una propria indipendenza, uno dei principali fatti di sofferenza identificato è la solitudine (mangiare da soli, vivere da soli e sentirsi soli) intesa come assenza di reti sociali e un “dispositivo strutturale di vulnerabilità emotiva che condiziona profondamente il benessere personale”. C’è poi la difficoltà a costruire una famiglia, nucleo che si viene a formare in età più adulta quando, in contemporanea, la famiglia di origine avanza con l’età e i genitori (futuri nonni) richiedono a loro volta attenzioni e cura. Ecco la nascita della “generazione sandwich”, fortemente esposta a criticità e rischi: nel campione dell’indagine CISF 2025, quasi una famiglia con figli su due (il 42,6%) è interessata anche da compiti di caregiving nei confronti dei familiari non autosufficienti, di cui il 53% dichiara di sentirsi sopraffatta con più frequenza dalle responsabilità di caregiving rispetto ai compiti genitoriali. Se per il 58,7% del campione, il figlio unico sta lentamente diventando prevalente nella struttura familiare – anche monogenitoriale – l’animale domestico sta diventando parte integrante della famiglia: il 59,8% dichiara di avere almeno un animale domestico, dato che sale al 71% per coppie con figli e 74,9% per nuclei monogenitoriali. Una scelta vista come “domanda di legame”, frutto di un vero e proprio bisogno relazionale, ma anche la nascita di fenomeni come il “dog parenting”, in cui l’animale rischia di essere assimilato a un figlio. L’ultimo aspetto indagato dalla ricerca parte da una semplice domanda: quali sono gli ambiti della vita dei figli che generano timori nei genitori? Al secondo posto, dopo la gestione dei soldi (29,3%), troviamo l’uso delle tecnologie (21,7%). Da qui lo sviluppo dell’indagine: tra le famiglie con almeno un figlio minorenne, il conflitto causato dell’uso del cellulare diventa condizione presente per il 55,4% dei casi (d’altra parte non si tratta solo di un problema dei ragazzi: il conflitto si estende al coniuge per il 30,5% dei casi). E come si comportano i genitori? Il report ha fotografato degli stili educativi che vedono, sulla base della maggiore o minori permissività, un 36,7% di genitori “domatori”; 24,4% “disarmati”; 15,7% “accompagnatori”; 23,2% “liberi battitori”. Un dato molto rilevante, infine, è l’uso dell’intelligenza artificiale: in ambito domestico l’utilizzo di ChatGPT riguarda il 58,4% delle famiglie con almeno un minore, per attività informativa dei ragazzi ma anche scopi scolastici. Qui la sintesi della ricerca: https://newsletter.sanpaolodigital.it/cisf/novembre2025/SCHEDA_CISF-Family-Report-2025.pdf.  Giovanni Caprio
La bolla dell’intelligenza artificiale sta per scoppiare
Se un’economia non cresce, o al massimo si trascina anemica per decenni, la corsa dei valori azionari in borsa è un sitomo di speculazione senza fondamenti. L’espressione di Alan Greenspan, uno dei mitici presidenti della Federal Reserve (la banca centrale statunitense) alla vigilia dell’esplosione della botta della new economy (come […] L'articolo La bolla dell’intelligenza artificiale sta per scoppiare su Contropiano.
E’ l’intelligenza artificiale la nuova sfida  della scuola
L’adozione dell’intelligenza artificiale (AI), in particolare quella generativa (GenAI), ha visto in questi ultimi anni una crescita esponenziale, affermandosi rapidamente sia nel contesto lavorativo e generale, sia in quello specifico dell’istruzione superiore. I tassi di adozione dell’AI superano quelli di tecnologie trasformative precedenti come il personal computer (PC) o Internet. ChatGPT è diventato il sito web a crescita più rapida della storia per numero di utenti settimanali. Mentre però le sue implicazioni in ambito lavorativo sono ancora oggetto di dibattito, gli effetti sociali sono già visibili e tangibili. Come ogni innovazione tecnologica, anche la GenAI porta con sé luci e ombre. C’è però un particolare settore dove ogni tecnologia ha un impatto più profondo: la scuola. Imparare è un processo complesso, che richiede tempo, impegno, personale qualificato e metodologie adeguate. Qual è l’impatto della GenAI sul processo di apprendimento? Come usano effettivamente gli strumenti di GenAI docenti e studenti? In Italia, un’indagine della società di consulenza globale Deloitte rivela intanto che l’intelligenza artificiale generativa è già entrata nella quotidianità dei giovani: la metà della Gen Z e quattro Millennial su dieci la utilizzano ogni giorno. Oltre a liberare tempo e migliorare l’equilibrio vita-lavoro (lo afferma il 73% di Gen Z e Millennial), viene percepita come un supporto alla qualità del lavoro (71% Gen Z, 76% Millennial). Le applicazioni più comuni nel nostro Paese spaziano dalla creazione di contenuti (39% Gen Z, 37% Millennial) all’analisi dei dati (36% Gen Z, 39% Millennial) e al project management (33% Gen Z, 30% Millennial): https://www.deloitte.com/it/it/issues/work/2025-deloitte-global-gen-z-and-millenial-survey.html.  Ma è tra i banchi di scuola che sta crescendo la “Generazione AI”. Per comprendere quanto il corpo docente sia preparato a guidare questa trasformazione, Tortuga (https://www.tortuga-econ.it/), in collaborazione con Yellow Tech (https://www.yellowtech.it/), ha condotto la prima analisi su larga scala dell’impatto dell’Intelligenza Artificiale Generativa (GenAI) nel sistema scolastico italiano, evidenziando come vi sia un’ adozione diffusa, ma una percezione distorta. L’uso della GenAI è già una realtà consolidata: la utilizza settimanalmente il 66% dei docenti e l’83% degli studenti. Eppure, il 35,6% dei docenti crede che i propri studenti non la usino mai, mentre in realtà solo il 17% degli studenti non ne fa uso regolare. Anche se l’utilizzo della GenAI appare superficiale e non privo di incomprensioni. Gli studenti la impiegano soprattutto in modo “di convenienza”: controllare risposte (56%) e cercare idee, più che approfondire. Dal lato docente, persistono invece equivoci sulle reali capacità della tecnologia: uno su due la considera più performante in matematica e logica, anche se, durante la survey, le funzionalità di ragionamento che porterebbero ad alti livelli di performance la GenAI in questi ambiti, erano per la maggior parte a pagamento e non di fruizione comune. Di fatto sono gli stessi modelli di GenAI a definire risposte a domande di contesto e traduzione come quelle in cui performano meglio. L’indagine evidenzia come gli insegnanti mostrino interesse a usare la GenAI per attività didattiche (preparazione di materiali o verifiche), ma trascurano il suo potenziale per ridurre il carico amministrativo e burocratico. Così rinunciano al “dividendo dell’IA”: il notevole risparmio di tempo che la tecnologia potrebbe offrire su attività a basso valore aggiunto o con un alto tasso di difficoltà. Un terzo dei docenti non utilizza la GenAI e tende a “mistificarla”: è più preoccupato che limiti il pensiero critico (+4%) e più scettico sul suo potenziale di supporto agli studenti in difficoltà (-11%) rispetto a chi la usa. “Tre docenti e studenti su quattro (75%), si legge nel report, concordano che la GenAI possa aiutare gli studenti in difficoltà. Per tradurre questa percezione positiva in pratica, è fondamentale finanziare la sperimentazione di tecnologie assistive basate sull’AI, come gli Intelligent Tutoring Systems, per personalizzare l’apprendimento, in particolare per studenti con Bisogni Educativi Speciali. L’obiettivo è sfruttare la tecnologia per ridurre le disuguaglianze e offrire a ogni studente percorsi di apprendimento su misura”. L’indagine evidenzia come l’introduzione della GenAI abbia minato il rapporto di fiducia tra docenti e studenti: il 71% degli studenti percepisce meno fiducia da parte dei propri insegnanti. Questa tensione si manifesta anche nelle valutazioni: due docenti su tre preferirebbero assegnare un voto più alto a un lavoro di qualità inferiore ma svolto autonomamente, rispetto a un elaborato migliore prodotto con l’ausilio di GenAI. L’avvento della GenAI costituisce una trasformazione strutturale per l’istruzione, capace di ampliare l’accesso, personalizzare i percorsi e sostenere processi di insegnamento e apprendimento; allo stesso tempo impone di ripensare integrità accademica, tutela dei dati, bias algoritmico e valutazione. Di fronte a questa duplice traiettoria, le istituzioni possono limitarsi a interventi emergenziali e frammentati, oppure costruire un quadro strategico iterativo e partecipato che renda l’adozione sostenibile, equa e critica. In questa prospettiva, nelle conclusioni dell’indagine vengono proposti alcuni ambiti d’azione: 1. Sviluppare una governance istituzionale chiara, iterativa e partecipata; 2. Investire in formazione continua e sviluppo professionale per gli educatori; 3. Ripensare curriculum e valutazione nell’era della GenAI; 4. Promuovere un uso personalizzato della GenAI; 5. Rafforzare la ricerca e il ruolo delle istituzioni nazionali.  Qui l’indagine: https://www.tortuga-econ.it/wp-content/uploads/2025/09/Generazione-AI.pdf.  Giovanni Caprio
La nostra privacy in epoca di intelligenza artificiale
Relazione 2024 del Garante per la protezione dei dati personali: riscosse sanzioni per 24 milioni di euro L‘Autorità Garante per la protezione dei dati personali nel 2024 ha adottato 835 provvedimenti collegiali, di cui 468 provvedimenti correttivi e sanzionatori. E ha fornito riscontro a 4.090 reclami e 93.877 segnalazioni riguardanti, tra l’altro il marketing e le reti telematiche. Sono alcuni dei dati della Relazione sull’attività dell’Autorità Garante per la protezione dei dati personali. I pareri resi dal Collegio su atti regolamentari e amministrativi sono stati 47 ed hanno riguardato la digitalizzazione della pubblica amministrazione, la sanità, il fisco, la giustizia, l’istruzione e le funzioni di interesse pubblico. 12 sono stati i pareri su norme di rango primario: in particolare, riguardo diritti fondamentali, fisco, digitalizzazione della PA e sanità. Le comunicazioni di notizie di reato all’autorità giudiziaria sono state 16 e hanno riguardato violazioni in materia di controllo a distanza dei lavoratori, accesso abusivo a un sistema informatico, falsità nelle dichiarazioni e notificazioni al Garante. Le sanzioni riscosse sono state invece di oltre 24 milioni di euro. Significativo il numero dei data breach (violazioni di dati personali) notificati nel 2024 al Garante da parte di soggetti pubblici e privati: 2.204. Nel settore pubblico (498 casi), le violazioni hanno riguardato soprattutto Comuni, istituti scolastici e strutture sanitarie; nel settore privato (1.706 casi) sono stati coinvolte sia PMI e professionisti sia grandi società del settore delle telecomunicazioni, energetico, bancario, dei servizi e delle telecomunicazioni. Nei casi più gravi sono stati adottati provvedimenti di tipo sanzionatorio. Le ispezioni effettuate nel 2024 sono state 130 in linea rispetto a quelle dell’anno precedente.  Gli accertamenti svolti, anche con il contributo del Nucleo speciale tutela privacy e frodi tecnologiche della Guardia di finanza, hanno riguardato diversi settori, sia nell’ambito pubblico che privato: in particolare, SPID, impiego di tecnologie innovative (dispositivi installati o sperimentati da alcuni comuni per il controllo dei flussi turistici), registro elettronico, tecnologie di riconoscimento facciale, strumenti di videosorveglianza e controllo dei lavoratori, ricerca scientifica,  data breach. Nell’anno trascorso l’Autorità ha concluso l’istruttoria nei confronti di ChatGPT e ha ordinato a OpenAI, la società che gestisce il chatbot, la realizzazione di una campagna informativa e il pagamento di una sanzione di 15 milioni di euro. Il Garante inoltre ha inviato un avvertimento formale a un importante gruppo editoriale italiano, segnalando il possibile rischio per milioni di persone connesso all’eventuale vendita a OpenAI dei dati personali contenuti nell’archivio del giornale per addestrare gli algoritmi. Particolare attenzione è stata poi riservata all’uso dei dati biometrici e al diffondersi di sistemi di riconoscimento facciale. L’Autorità ha inviato un avvertimento a Worldcoin in relazione al progetto di scansione dell’iride in cambio di criptovalute, senza adeguate garanzie e la necessaria consapevolezza da parte degli utenti. Significativi in ambito sanitario due pareri resi con riguardo al cosiddetto Ecosistema dati sanitari (EDS) e alla Piattaforma nazionale sulla telemedicina (PNT) nei quali il Garante ha ribadito che l’introduzione di sistemi di IA nella sanità digitale deve avvenire nel rispetto del Gdpr, del regolamento sull’IA e di quanto indicato nel Decalogo in materia di IA adottato nel 2023. Sul fronte della tutela online dei minori, nell’anno trascorso, è proseguita l’azione di vigilanza dell’Autorità sull’età di iscrizione ai social, anche attraverso sistemi di age verification e particolare attenzione è stata dedicata allo sharenting e al fenomeno del revenge porn in forte aumento: 823 le segnalazioni inviate al Garante da persone che temono la diffusione di foto e video a contenuto sessualmente esplicito, quasi triplicate rispetto allo scorso anno. Nel corso dell’anno inoltre sono pervenute all’Autorità alcune segnalazioni relative alla diffusione di materiale artefatto realizzato attraverso l’impiego di algoritmi e di IA (cd. deep fake). Numerosi, come in passato, i provvedimenti assunti nell’ambito del rapporto di lavoro, soprattutto con riguardo all’utilizzo della posta elettronica sul luogo di lavoro e all’impiego di sistemi di videosorveglianza. Proseguiti inoltre gli approfondimenti sull’impiego di algoritmi da parte di una primaria società di food delivery per l’organizzazione dell’attività dei rider. Tra le criticità emerse: scarsa trasparenza dei trattamenti automatizzati e geolocalizzazione dei lavoratori anche al di fuori dell’orario di lavoro. Sul fronte della tutela dei consumatori, il Garante è intervenuto con decisione contro il telemarketing aggressivo con l’applicazione di pesanti sanzioni, la maggior parte delle quali riguardano l’utilizzo senza consenso dei dati degli abbonati. L’Autorità ha inoltre approvato il Codice di condotta per le attività di telemarketing e di teleselling ed ha accreditato l’organismo di monitoraggio. Per quanto riguarda, infine, il rapporto tra privacy e diritto di cronaca, il Garante è intervenuto più volte per stigmatizzare l’eccesso di dettagli e le derive di morbosità e spettacolarizzazione di vicende tragiche e per assicurare le necessarie tutele. Qui per scaricare la Relazione dell’Autorità: https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/10149391. Giovanni Caprio
Intelligenza artificiale: sorveglianza, controllo, abusi
Molti ne sono entusiasti: l’AI (Artificial Intelligence), nella forma di ChatGPT (Generative Pre-Trained Transformer Chat) li aiuta a scrivere curriculum e testi, fa ricerche e le consegna ben confezionate, svolge perfettamente i temi scolastici partendo anche dalla traccia più difficile, spiega come procedere nel caso di controversie condominiali. E poi, da brava chat, chiacchiera con te. Puoi darle un nome. Puoi allenarla persino, se sei bravo e sai come aggirare certi limiti imposti, a fornirti eccitazioni erotiche, come se stessi parlando con un essere umano. C’è chi giura che svolga, gratis, addirittura il lavoro di uno psicoanalista, e chi ha smesso di consultare google quando avverte dei sintomi preoccupanti, perché ChatGPT è capace di fornire diagnosi mediche accurate. Ci sono preoccupazioni etiche, ci sono paure. Presto ci trasformeremo tutti in AI-dipendenti, restii a imparare perché non servirà più, goffi nello scrivere perché anche questo non servirà più, inabili nel prendere decisioni perché l’intelligenza artificiale lo saprà fare molto meglio di noi, dotata come sarà (è) di una quantità quasi smisurata di informazioni, scaltrissima nell’effettuare collegamenti che a noi non sarebbero mai venuti in mente, e soprattutto razionale, priva di quelle debolezze psicologiche-emotive che inducono gli umani a commettere errori? Sì, qualcuno ha di questi pensieri. Ma in prospettiva, come materia di riflessione filosofica. Intanto, i problemi che si lamentano, immediati ma che tutto sommato sembrano di scarsa importanza, sono le foto “finte”, immagini di scene che raccontano persone che non esistono, vicende mai avvenute, talmente rifinite da essere scambiate per vere. Ci si stupisce, al massimo. Uno spunto per prendere in giro chi si è lasciato ingannare, e vantarci che noi no, noi siamo più furbi. L’intelligenza artificiale non ci frega. Ben altri sono i risvolti di una tecnologia che è andata molto più avanti di quanto,  a meno che non siamo del settore, possiamo immaginare. Si è impegnata in un’indagine che l’ha portata in giro per il mondo l’immunologa e giornalista scientifica indiana Madhumita Murgia, che ha iniziato le sue ricerche aspettandosi di scoprire come l’AI avesse risolto problemi difficili e migliorato la vita di molte persone. Non è però stato così. Nel suo viaggio, riportato nel libro Essere umani. L’impatto dell’intelligenza artificiale sulle nostre vite (ed. Neri Pozza), ha dovuto registrare quanto pesanti, a volte devastanti e comunque sempre manipolatorie possano essere le conseguenze dell’AI sugli individui, sulle comunità e sulle culture in generale. Murgia approfondisce dei casi esemplari, persone che solo apparentemente non hanno nulla in comune tra loro: un medico dell’India rurale, un rider di Pittsburg, un ingegnere afroamericano, una funzionaria burocratica argentina, una rifugiata irachena a Sofia, una madre single ad Amsterdam, un’attivista cinese in esilio.  Diana, la madre single: una storia kafkiana. Due suoi figli minori erano stati inseriti in liste di “ragazzi ad alto rischio di diventare criminali”, liste compilate con un sistema progettato dall’AI e basate su punteggi di rischio, con punti assegnati non solo per aver commesso un reato, ma per essere stati spesso assenti a scuola, aver assistito a una violenza, essere parente di qualcuno che ha guai con la giustizia, vivere in un quartiere povero o semplicemente essere poveri (le cosiddette “variabili proxy”). A quel punto, ecco una serie di misure volte a “tutelare” la società e prevenire il crimine. Interventi continui e quasi persecutori, con visite ripetute di assistenti sociali, poliziotti, funzionari a controllare e redarguire il genitore –  Diana, in questo caso – trattandolo come un demente, rimproverandolo, minacciandolo. Piatti sporchi nel lavello? Attenzione, potremmo doverti portare via la bambina piccola.  È chiaro che così le situazioni di disagio e povertà non possono che peggiorare. Non esistono perdono, aiuto, comprensione. Nato povero e sfortunato, sei destinato a diventarlo ancora di più. Diana aveva finito col perdere il lavoro, stressata com’era, ed era stata ricoverata in ospedale con palpitazioni cardiache. «Le liste generate dall’algoritmo non erano soltanto fattori predittivi», scrive Murgia. «Erano maledizioni».  Uno degli aspetti più lamentati da chi frequenta i social riguarda la rimozione di immagini e contenuti. Viene subita da utenti che hanno semplicemente postato un quadro rappresentante un nudo, e viene subita anche, al contrario, da chi si trova di fronte foto e filmati cruenti accompagnati da commenti di giubilo, e si domanda perché non siano stati censurati. Quello che non ci domandiamo è chi siano i censori. Attraverso storie vere e dati, Murgia racconta quanto porti al DPTS (disturbi post-traumatici da stress) il dover vagliare i contenuti dei social, guardando violenze e atti d’odio a ritmo sostenuto per tutto il tempo, in modo, oggi, di addestrare gli algoritmi. Un lavoro a sua volta guidato dagli algoritmi: pausa pranzo e tempo per andare in bagno predeterminati, come la produttività, che non deve scendere sotto una certa soglia. A fronte di questo, remunerazione bassa, accordi di segretezza, scoraggiato in ogni modo il contatto con i colleghi, e figuriamoci l’unirsi in sindacato.   C’è poi il risvolto della sostituzione dell’AI generativa in lavori prettamente umani: illustratori, copywriter, progettisti di videogiochi, animatori e doppiatori si trovano già adesso in grande difficoltà, e molti dichiarano che viene chiesto loro, più che di creare… di correggere ciò che è stato fatto dall’AI (pagati un decimo rispetto a prima). E c’è la questione contraffazione, il “deepfake”: generati dalle tecnologie AI, foto di persone reali prese da Internet che un software fonde con corpi di attori porno, ottenendo video assolutamente realistici di cui non sarà facile ottenere la rimozione (su TikTok era diventato virale già nel 2020 un video deepfake di Tom Cruise, e parliamo di cinque anni fa, quando i software erano meno sofisticati di oggi).  Non dimentichiamo nemmeno i pregiudizi. Un esempio: il modo in cui vengono calcolati i punteggi di rischio che riguardano la salute. Negli USA, i pazienti neri – e con redito basso – sembravano avere punteggi più bassi, ma questo non accadeva perché si ammalassero meno, ma perché i progettatori avevano addestrato il sistema a stimare la salute i una persona in base ai suoi costi sanitari (e più si è poveri, meno si ricorre all’assistenza sanitaria). Attivisti pieni di buona volontà stanno cercando di raddrizzare le cose. Non è detto che non ci riescano, ma intanto quanti danni sono stati fatti?  Si potrebbe continuare a lungo, e Murgia non si è tirata indietro. Ha indagato le più varie situazioni, incontrato avvocati che cercano di difendere chi è rimasto intrappolato da questi sistemi opachi che possono disporre delle nostre vite e procurarci danni anche senza che lo sappiamo. E ha affrontato il tema forse più delicato e spaventoso: il controllo. In Cina (e Murgia porta riferimenti precisi) esistono già da un po’ sistemi software interconnessi che aggregano i dati dei cittadini e l collegano ai database della polizia.  Gli algoritmi a funzione predittiva considerano sospette decine di comportamenti (addirittura spegnere ripetutamente il cellulare e avere certe espressioni del viso, riprese dalle infinite videocamere), e per motivi di “sicurezza pubblica” moltissimi cittadini, soprattutto dissidenti o appartenenti a gruppi etnici minoritari, sono stati e sono sorvegliati e vessati, quando non portati in campi di rieducazione. Sorveglianza e controllo. Capillari, incessanti. I governi (la rete di connessioni esisterà solo in Cina? non scherziamo) potranno a breve arrivare a prevedere e neutralizzare qualunque azione o manifestazione di protesta, sia individuale che collettiva. E le aziende tecnologiche, con miliardi di utenti, aumenteranno il loro potere, che già è immenso. George Orwell, in 1984. Ninteeen Eighty Four, scritto nel 1949: «Se vuoi un’immagine del futuro, immagina uno stivale che schiaccia il volto umano. Per sempre». Susanna Schimperna