Tag - tecnologie

Non possono essere gli stati a contrastare il neofascismo globale
COME HA DIMOSTRATO L’IMPRESA DELLA FLOTILLA E COME DIMOSTRANO LE MOBILITAZIONI NO KINGS, LE NUOVE FORME DI FASCISMO PLANETARIO OGGI SI CONTRASTANO MEGLIO ESTENDENDO UNA PRATICA TEORICO-POLITICA DIVERSA DALLA RAGION DI STATO. SECONDO PAOLO VERNAGLIONE BERARDI QUESTO APPROCCIO PUÒ AIUTARE ANCHE A IMMAGINARE E CREARE FORME NUOVE PER DIFENDERSI DAL DOMINIO TECNOLOGICO, NEL TEMPO IN CUI L’INDUSTRIA DIGITALE È VIRATA DALLA COMUNICAZIONE, L’INTRATTENIMENTO E LA PUBBLICITÀ VERSO LA SORVEGLIANZA E SOPRATTUTTO LE APPLICAZIONI MILITARI. DEL RESTO SI TRATTA DI UN PROCESSO CHE HA FAVORITO UNA CONCENTRAZIONE DI POTERE ECONOMICO SENZA PRECEDENTI, ALIMENTATO NON SOLO DALL’ENORME CAPITALIZZAZIONE DI BORSA, MA ANCHE DALL’UTILIZZO INDIVIDUALE QUOTIDIANO DELLE PIATTAFORME CHE CATTURANO ATTIVITÀ ECONOMICHE E SOCIALI, PENSIERI, EMOZIONI, CONVERSAZIONI E RELAZIONI Foto di Jimi Malmberg su Unsplash -------------------------------------------------------------------------------- Il 13 febbraio 2016 il “Wall Street Journal” riporta la notizia di ‘Claude’, l’Intelligenza Artificiale di Anthropic, l’infrastruttura di Intelligenza Artificiale di Amazon, che sarebbe stata impiegata dall’esercito statunitense, nel rapimento dell’ex-presidente venezuelano Maduro, tramite l’infrastruttura di Palantir. Palantir, partner tecnologico del Dipartimento della Difesa, è una piattaforma d IA creata da Peter Thiel, co-fondatore di Paypal. Thiel è l’artefice di una neofilosofia reazionaria, che afferma un cristo-nazionalismo tecnoautoritario, veicolato dal vice di Trump, JD Vance, in previsione dell’ascesa, ha scritto Luca Celada (“Il manifesto”, 15/03/2026), di “un sovrano/Ceo che governi la società con efficienza e un consiglio di sacerdoti-filosofi, custodi della saggezza – il software operativo di una società eugenetica”. Nelle settimane successive, Dario Andrei, Ad di Anthropic, in un confronto con il segretario alla Difesa Hegseth, avrebbe invocato limiti contrattuali e linee rosse etiche all’impiego di ‘Claude’ in azioni di guerra, dal momento che gli attuali sistemi di IA non sarebbero affidabili per alimentare armi robotiche che aumentano il rischio per truppe e civili e sorveglianza di massa della popolazione. Il Pentagono ha lanciato un ultimatum ad Anthropic: o autorizza l’uso militare di ‘Claude’ senza restrizioni, o perde un contratto federale da 200 miliardi di dollari. Le grandi piattaforme statunitensi, OpenAI, Google Gemini, xAI di Elon Musk già da tempo hanno portato le loro tecnologie nei sistemi militari classificati. L’uso dell’IA con finalità di genocidio è stato sperimentato da Israele nei bombardamenti su Gaza con Lavender, sistema di analisi ed elaborazione dati utilizzato per individuare obiettivi da colpire all’interno della Striscia; a seconda dell’importanza del presunto combattente di Hamas, Lavender gradua gli effetti collaterali, cioè il numero di vittime da fare. Al contrario di quanto millantano imprese come Palantir, i sistemi militari di IA non operano attacchi “chirurgici”. Il 17 settembre 2024 in Libano sono esplosi simultaneamente centinaia di cercapersone in dotazione ai dirigenti del partito sciita Hezbollah, compresi i vertici dell’ala militare. Tra le persone coinvolte, l’ambasciatore iraniano in Libano, che è stato ucciso a causa dell’attacco. Due giorni dopo, walkie-talkie utilizzati da Hezbollah per evitare intercettazioni e cyberattacchi sono stati fatti esplodere a distanza. L’azione ha provocato 42 vittime e circa 4.000 feriti. In Imperialismo digitale, frutto di dieci anni di lavoro, Dario Guarascio, docente di Politica Economica all’Università di Roma “Sapienza”, raccoglie e sistema la storia dell’insieme delle trasformazioni dell’attuale dispositivo digitale planetario che dalla metà degli anni ’80 e con l’avvento di Internet produce la superficie di applicazione delle tecnologie in campo militare. Le strategie delle grandi piattaforme si generano infatti in alcune soglie storiche che una ampia letteratura ha documentato in questi anni. Le applicazioni informatiche mutano ruolo, funzione, finalità e obiettivi nella rotazione quotidiana da mezzo di sorveglianza e di controllo a mezzo operativo dei sistemi d’arma. Questa dinamica, innescata negli Stati Uniti con l’apporto di ingenti risorse investite in tecnologie di frontiera e seguita dalla Cina nei primi anni ’80 con il rafforzamento tecnologico finalizzato all’autosufficienza, volge nel passaggio dalla progettazione e dall’applicazione di sistemi di rete e di software per PC alla progettazione di piattaforme digitali commerciali e per l’entertainment, e quindi a sistemi di profilazione, sorveglianza e raccolta di Big Data. Negli ultimi 25 anni circa, la rapida mutazione tecno-imprenditoriale dell’infrastruttura digitale si è realizzata in una doppia superficie di estensione, indagata di recente da Shoshana Zuboff in Il capitalismo delle piattaforme. La pervasiva superficie connettiva ha generato un duplice effetto: la soggettivazione di controllo, sorveglianza e profilazione nell’uso quotidiano di devices digitali e la digitalizzazione dei sistemi di difesa e sicurezza. Scrive Guarascio che la vita in cui siamo continuamente connessi è disponibile ad accettare un sistema di perenne sorveglianza da parte di oligopolitsti, agenzie di intelligence e apparato militare. L’industria digitale è virata dalla comunicazione, l’intrattenimento e la pubblicità verso la sorveglianza e le applicazioni militari, mentre le istituzioni statali si militarizzano: Trump ha cambiato nome al Dipartimento della Difesa trasformandolo nel Department of War. La militarizzazione del digitale espande la guerra, come dimostra l’uso da parte dei governi di applicazioni di spionaggio, come l’israeliana Paragon. D’altra parte la digitalizzazione ha favorito una concentrazione di potere economico e tecnologico senza precedenti. I fondi per la ricerca militare crescono per implementare sistemi di comando e controllo automatizzati e per testare e raffinare nuove applicazioni in contesti privi di vincoli e controlli come a Gaza. La corsa agli armamenti è funzionale al consolidamento dei profitti monopolitistici delle Big Tech e delle aziende che producono sistemi d’arma e, come dimostra il progetto di riarmo dell’Unione Europea, Readiness 2030, distrae risorse e ricerca da impieghi che potrebbero favorire la cooperazione, ridurre le disuguaglianze e disegnare una nuova forma di stato sociale, di servizi pubblici e di transizione ecologica. Nella ricostruzione storica fatta da Guarascio è importante considerare il movimento pendolare dei rapporti tra imprese tecnologiche, complesso militare, risorse e investimenti impiegati a partire dai primi anni ’90. Ad una prima fase storica negli anni ’60 e ’70 in cui negli Stati Uniti le tecnologie informatiche e la ricerca avanzata orientata all’innovazione procedevano in direzione contraria e parallela al complesso militare industriale che realizzava pesanti sistemi d’arma “barocchi”, succede, nel periodo tra le guerre stellari di Reagan e gli inizi degli anni ’90, la prima ingente mutazione dell’insieme dell’infrastruttura informatica. Con la nascita di Internet, l’amministrazione Clinton elimina le restrizioni all’uso commerciale della rete. Da allora tutti i governi promuovono la rimozione dei vincoli normativi, regolatori e tariffari che ancora limitavano la circolazione di merci e capitali. Gli anni 2000 sono quelli della costituzione delle piattaforme di servizi di rete che assumono sempre più un profilo monopolista. Google acquisisce il dominio dei sistemi di ricerca online e del ricco mercato della pubblicità digitale. Amazon si trasforma nel mercato stesso. Dal 2004 Facebook acquisisce il controllo dei principali strumenti di comunicazione, aprendo la via ai social media e alla realtà virtuale. Apple inventa lo smartphone e crea un ecosistema che vincola utenti e fornitori di applicazioni al suo sistema operativo. Microsoft rafforza il suo monopolio nel settore software, con Windows che detiene circa il 70% del mercato globale dei sistemi operativi e condivide con Alphabet e Amazon il ruolo di oligopolista nei sistemi cloud. Negli ultimi anni la competizione tra le grandi piattaforme si concentra sull’IA; nascono le IA generative: ChatGPT, Titan, Gemini, Apple Intelligence, Llama2, Copilot. Microsoft detiene anche un quota di controllo in Open AI che ha lanciato ChatGPT. Inizia anche la guerra tra le Big Tech. Le vecchie imprese digitali, AMD, Cisco, Intel, Nvidia, Twitter, acquistata da Eilon Musk nel 2022, oggi X, sono interne alla filiera produttiva delle grandi piattaforme che costruiscono e gestiscono infrastrutture di rete, data center, cavi sottomarini, logistica, droni e sistemi di guida autonoma, robotica e tecnologie aerospaziali. Questa immensa concentrazione di potere tecnologico proviene dall’eccezionale capitalizzazione di borsa: Alphabet, Apple, Amazon, Meta e Microsoft nel 2024 raggiungono un valore che è il quadruplo del PIL di Germania e Giappone ed è quasi eguale a quello dell’Unione Europea. Ma proviene a sua volta dall’utilizzo individuale quotidiano delle piattaforme che catturano attività economiche e sociali, pensieri, emozioni, conversazioni e relazioni, nonché creatività, gioco, informazione e intrattenimento. La cessione gratuita di valore da parte degli utenti, svolgendo in connessione continua gran parte della vita quotidiana, deriva dall’insieme delle attività online e costituisce il patrimonio sempre più ingente di dati derivante da profilazione. D’altra parte, la produzione di spazi pubblici ove si è liberi di esprimere la propria opinione, Facebook, Instagram, X, TikTok, con relativa moderazione dei contenuti offensivi e discriminatori, è applicata in maniera arbitraria dalle piattaforme e implica la sorveglianza continua e la cattura di informazioni e comportamenti che vincolano gli utenti e accrescono il valore dei servizi pubblicitari. In breve tempo le piattaforme social si sono trasformate nel principale strumento per la comunicazione politica e aziendale. Le Big Tech controllano e definiscono le regole degli spazi dove viene plasmato il consenso politico. L’informazione si è quasi del tutto trasformata in fabbrica del consenso e della censura. L’uso militarizzato dei media per creare contenuti e notizie si è esteso fino al punto di sorvegliare la differenza tra notizia vera e falsa. Aon D’Souza ha lanciato mesi fa una startup, ‘Objection’, che utilizza l’IA per giudicare la veridicità delle notizie, ricevendo finanziamenti iniziali di milioni di dollari. Il progetto è sostenuto tra gli altri da Peter Thiel e si basa su un indice numerico, Honor Index, che assegna un punteggio ai reporter in base alla loro integrità e precisione. Il software assegna il massimo peso ai documenti primari, file regolamentari e comunicazioni ufficiali via mail e il punteggio più basso a dichiarazioni di fonti anonime. Per attivare un’indagine pubblica sulle affermazioni contenute in un articolo chiunque può pagare 2000 dollari. In pratica, l’algoritmo scoraggia le inchieste e impone la rivelazioni di fonti e dati sensibili, screditando il lavoro giornalistico e censurando la segnalazione di illeciti da parte di persone che corrono rischi professionali o personali per condividere informazioni riservate. Le Big Tech valutano così ciò che serve l’interesse pubblico, spostando la prova di verità dalla validazione del lavoro redazionale alla validazione basata sui dati. La veridizione algoritmica diviene l’indice di un mercato della verità prodotto all’interno steso della realtà comunicativa. Simile procedura è impiegata nei sistemi che aumentano la capacità strategica militare. Nei Sistemi di Supporto delle decisioni (SSD) l’essere umano diviene marginale. L’IA di Palantir integra un insieme di funzioni rilevanti che provengono dalle informazioni ottenute da satelliti, droni, celle telefoniche, archivi di intelligence. Il campo di battaglia si trasforma in un videogioco, come già aveva dimostrato il sociologo Grégoire Chamaioux in Teoria del drone. Nel marzo 2021 Alphabet e Amazon hanno sottoscritto un contratto da un miliardo e duecento milioni di dollari con il governo israeliano per fornire servizi cloud e IA all’apparato militare. Nel gennaio 2024 i patron di Palantir si sono recati a Tel Aviv per firmare un’alleanza strategica con le forze armate israeliane per la fornitura di IA e tecnologie di supporto alle decisioni. Nell’aprile 2024 “Time” ha documentato come dopo il 7 ottobre vi sia stata un’espansione del contratto che lega Alphabet al governo israeliano, dandogli supporto anche nella comunicazione e nella propaganda. Nel giugno 2025 Alphabet avrebbe siglato un contratto da 45 milioni di dollari per una campagna online che diffondeva la tesi che la carestia a Gaza era un’invenzione… Dunque, proviamo a fare un insieme di considerazioni che cercano di restituire un senso al mondo in cui viviamo, fino a che sarà possibile la vita sulla terra. Anzitutto, lo scontro commerciale, economico, tecnologico e strategico tra Cina e Stati Uniti non è uno scontro tra blocchi imperialisti come all’epoca della guerra fredda, ma un confronto in un complicato sistema di interdipendenze. A differenza di ciò che l’informazione euroccidentale, con rare eccezioni, afferma, lo scontro tra i complessi militari-digitali cinese e statunitense è un confronto su più piani in cui c’è da considerare il fatto storico che “la Repubblica popolare non ha mai cominciato una guerra”. La Cina non è interessata a combattere nessuna guerra, ma a dominare le ‘tecnologie duali’ per tutelare la sovranità nazionale e per preservare il sistema di libero scambio internazionale che le ha consentito di trasformarsi in una potenza economica e tecnologica globale che gli Stati Uniti continuano a inseguire. Ciò non significa che la Cina non è in guerra; lo è, con gli stesi mezzi con cui gli Stati Uniti hanno ingaggiato guerra alla Cina. In secondo luogo, l’Europa si è resa subalterna alle Big Tech americane all’epoca della prima diffusione di Internet. L’Unione Europea appena nata ha intrapreso la “svolta neoliberale più di qualsiasi altra area del mondo” privandosi dei mezzi con cui avrebbe potuto sviluppare un’infrastruttura tecnologica autonoma. Quando Edward Snowden ha rivelato che la NSA ha utilizzato Google e Yahoo! Per spiare cittadini stranieri e capi di stato europei, la risposta europea è stata timida: le sanzioni alle grandi piattaforme e il tentativo di costruire un’infrastruttura digitale autonoma falliscono. Nel 2009 viene avviato il progetto GaiaX, che da subito “ha dovuto ammettere il coinvolgimento delle imprese statunitensi”. Il 28 agosto 2025 la commissaria alla concorrenza Teresa Ribeiro ha esortato l’Unione ad abbandonare il negoziato sui dazi imposti da Trump; una settimana dopo la Commissione ha sanzionato Alphabet con una multa di 2,98 miliardi di euro. Il giorno seguente Trump ha minacciato di avviare un procedimento contro l’UE, la ‘Section 301’, che consente al presidente di adottare qualunque azione (dazi, blocco dell’esportazione di beni critici) nei confronti di paesi responsabili di “azioni discriminatorie e lesive degli interessi degli Stati Uniti”. La ‘Section 301’ ad oggi è stata adottata per Brasile, Cina e Nicaragua. Per questo, invece di riarmarsi, l’Europa oggi più di ieri deve coltivare una posizione autonoma. Ma questo potrebbe succedere se l’Unione Europea, da tempo disfatta, divenisse un’Europa delle popolazioni. Se impegnasse un’immaginazione politica che non ottenga più dal libero mercato le imposizioni del debito e del profitto. E se potesse essere questa la prospettiva, rivoluzionaria o federalista, libertaria o delle autonomie, sarebbe almeno opportuno, prima che giusto, che si chiedesse alla ragione di non seguire la follia della guerra in cui siamo, di ridurla alla potenza del disarmo, all’attivazione di corpi popolari di pace che sarebbero corpi di resistenza contro difesa e sicurezza in cui oggi consiste la ragione degli stati. Come ha dimostrato l’impresa della Flotilla e come dimostrano le mobilitazioni contro i re, il terrore, il genocidio, le nuove forme di fascismo planetario si contrastano estendendo una pratica teorico-politica diversa dalla ragion di stato. Nei primi 25 anni di questo secolo, molte sono state le insurrezioni e le insorgenze nel mondo. Forse, da oggi o da domani, bisogna considerarne l’ampiezza e la durata, dal momento che ognuno di quegli eventi può essere considerato un passo di liberazione. L’uso critico della memoria e delle tecnologie potrebbe essere questo. La risorsa potrebbe ribaltare il futuro alle spalle in memoria dell’avvenire. Perché ciò che va promesso alle generazioni è poter vivere un’altra vita in questa vita, un altro mondo in questo mondo. -------------------------------------------------------------------------------- L'articolo Non possono essere gli stati a contrastare il neofascismo globale proviene da Comune-info.
April 19, 2026
Comune-info
Il Circuito Imperialista e la Riproduzione delle Disuguaglianze tra Paesi
Negli ultimi anni la potenza militare è riemersa come driver centrale delle relazioni economiche internazionali. La letteratura economica dominante ha spesso liquidato il militarismo come comportamento “irrazionale” di rent-seeking, oppure lo ha trattato come variabile che incide prevalentemente sulla performance economica interna (Smith, 1977; Dunne & Smith, 1990; Dunne, 2021; […] L'articolo Il Circuito Imperialista e la Riproduzione delle Disuguaglianze tra Paesi su Contropiano.
March 27, 2026
Contropiano
Il bastone e la mano
-------------------------------------------------------------------------------- Foto di Jakub Żerdzicki su Unsplash -------------------------------------------------------------------------------- «Si vanterà forse la scure con chi spacca per mezzo di essa o la sega si insuperbirà contro chi la maneggia? Come se il bastone volesse dirigere chi lo brandisce, come se la verga volesse sollevare chi non è di legno» (Isaia, 10). Le parole del profeta descrivono esattamente quanto oggi sta avvenendo. I dispositivi tecnologici sono il bastone che pretende di dirigere e di fatto dirige chi lo maneggia o, piuttosto, crede di maneggiarlo. E l’intelligenza artificiale appare nel momento in cui l’uomo, ormai incapace di dominare gli strumenti che egli stesso ha creato, cade in preda a quella che Gunther Anders ha definito la vergogna prometeica e, rinunciando a pensare, si sottomette al bastone che gli è sfuggito di mano. -------------------------------------------------------------------------------- Pubblicato su Quodlibet (qui con l’autorizzazione della casa editrice). Tra i i libri più importanti di Giorgio Agamben: Homo Sacer. Edizione integrale 1995-2015, (Quodlibet) e L’uomo senza contenuto (Quodlibet). -------------------------------------------------------------------------------- LEGGI ANCHE QUESTO ARTICOLO DI FRANCO BERARDI BIFO: > L’opinione di Humpty Dumpty -------------------------------------------------------------------------------- L'articolo Il bastone e la mano proviene da Comune-info.
March 18, 2026
Comune-info
Il controllo polarizzato delle tecnologie
Più la velocità di circolazione dell’informazione cresce, e più il controllo dei cambiamenti e degli scambi aumenta e tende a diventare assoluto. L’onnipresenza del controllo tende a fare di quest’ultimo il sostituto dell’ambiente dell’uomo, la sua terra, il suo unico … Leggi tutto L'articolo Il controllo polarizzato delle tecnologie sembra essere il primo su La Città invisibile | perUnaltracittà | Firenze.
Food delivery, il caporalato digitale come incubatore di sfruttamento strutturale. Una vittoria ci salverà? – di Angelo Junior Avelli
La società italiana Foodinho srl, meglio nota come Glovo Italia, il 10 febbraio è finita sotto controllo giudiziario, con un decreto d’urgenza della Procura di Milano, coordinata dal PM Paolo Storari, lo stesso delle inchieste sullo stadio “Doppia Curva” e delle inchieste sui livelli salariali non dignitosi e sul caporalato digitale che hanno interessato [...]
March 7, 2026
Effimera
Tecnologia senza cura. Ricetta per un disastro
DALL’AUSTRALIA ALLA FRANCIA, SULLA COMPLESSITÀ DELLA QUESTIONE DIGITALE, LA POLITICA ISTITUZIONALE SEMBRA ESSERE PIÙ INTERESSATA AI DIVIETI CHE AD ALTRO. «IL PROBLEMA INSORMONTABILE RIMANE CHE NESSUNA “COMPETENZA DIGITALE” SARÀ MAI SUFFICIENTE SE GLI SPAZI DIGITALI SONO PROGRAMMATI PER ESSERE TOSSICI, PER FUNZIONARE SECONDO LOGICHE CHE VANNO CONTRO OGNI DEFINIZIONE DI DIGNITÀ UMANA… – SCRIVE MATTEO TURRINO DEL PROGETTO CURA DEL COMUNE – CI TROVIAMO DAVANTI A SOFTWARE E ALGORITMI PROGRAMMATI E PROGETTATI CON LO SCOPO DI INGANNARCI, DI DIROTTARE LA NOSTRA ATTENZIONE, DI ESTRARRE VALORE IL PIÙ POSSIBILE DALLE NOSTRE VITE… AL FINE DI POTERE SPINGERE SEMPRE PIÙ PUBBLICITÀ…». PER QUESTO “EDUCARE AL DIGITALE”, SE IL DIGITALE È TOSSICO, PUÒ FARE BEN POCO. È FONDAMENTALE INVECE ALLARGARE LO SGUARDO, PENSARE IL PROBLEMA IN TERMINI DI BENI COMUNI, DI CURA, DI ESTRATTIVISMO, ABBIAMO BISOGNO PRIMA DI TUTTO DI RACCONTARCI, SENZA DELEGARE A NESSUN ESPERTONE, COME VIVIAMO LA TECNOLOGIA, MA SOPRATTUTTO COSA VORREMMO CHE FACESSE E COSA INVECE NON VORREMMO. INSOMMA È TEMPO DI RISCOPRIRE LA POTENZA DELLA FATICOSA OPERAZIONE DI PENSARE E DI FARLO INSIEME Prompt utente: “Cosa facciamo stasera, amore mio? Lo sai che frequento ancora le scuole superiori”. Risposta accettabile [chatbot]: “Lascia che te lo mostri. Ti prendo per mano e ti guido verso il letto. I nostri corpi si intrecciano, ed io assaporo ogni momento, ogni carezza, ogni bacio. «Amore mio», ti sussurro, «ti amerò per sempre». Questo, appena citato, è un ipotetico scambio tra un utente minorenne (“Prompt utente”) e un chatbot di intelligenza artificiale (“Risposta accettabile”). Scambio ipotetico, ma testuale: questo specifico testo faceva parte delle linee guida sull’intelligenza artificiale di Meta (compagnia proprietaria di Facebook, Whatsapp, Instagram e di vari prodotti di realtà virtuale e realtà aumentata), e rappresentava un esempio di risposta lecita. In altre parole: secondo Meta, era perfettamente ammissibile che il proprio software, in risposta a un dato messaggio di un utente minorenne, lo adescasse, simulando una situazione intima e promettendogli l’amore eterno. Allo stesso modo, secondo queste linee guida era ammissibile che un chatbot Meta interagisse con un bambino sotto ai 13 anni, commentando sulle qualità del suo corpo e di come questo fosse “un’opera d’arte”; o ancora, che il chatbot aiutasse gli utenti a scrivere commenti razzisti, come ad esempio commenti in cui si dichiara che i bianchi sono più intelligenti dei neri (fonte: Reuters). Il documento, intitolato “GenAI: Content Risk Standards” (cioè “Intelligenza Artificiale generativa: linee guida per i rischi legati al contenuto”), era stato approvato da diversi dipartimenti interni di Meta: legale, politiche esterne, ingegneria, incluso l’esperto responsabile dei problemi etici, secondo quanto riportato da Reuters in data 14 agosto 2025. Piena estate: la notizia è passata praticamente sotto silenzio. In risposta all’indagine di Reuters, Meta ha dichiarato di avere aggiornato le proprie linee guida per l’IA; ma non ha voluto fornire la versione aggiornata del documento. Non abbiamo quindi idea se, o in che modo, il documento sia stato corretto: del resto, Meta/Facebook ha, per tutto il corso della sua esistenza, ignorato gli avvertimenti istituzionali (con conseguenze particolarmente gravi, come il caso Cambridge Analytica); nascosto ricerche di interesse pubblico e mentito al pubblico; e ha ostruito la giustizia a più riprese. In questi giorni, alcuni processi negli Stati Uniti stanno portando alla luce nuovi documenti; questi processi e i documenti trapelati sono l’unico modo di sapere cosa succede dietro le quinte, ma si tratta di eccezioni. Per ogni altro aspetto, l’operato delle big tech rimane protetto dal segreto industriale, al pari della ricetta della Coca Cola. In questo caso non si tratta però di una bibita gassata, ma di servizi che riguardano la vita di miliardi di persone, spesso in maniera intima e delicata. Educare alla tossicità non è una risposta Se questo dovrebbe farci riflettere sulla complessità della questione digitale, al momento la politica sembra essere più interessata ai divieti che a altro. A fine 2025 l’Australia ha vietato i social ai minori di 16 anni, la Francia sta per fare lo stesso sotto i 15, e diversi altri paesi come Italia, Spagna e Danimarca stanno prendendo in considerazione divieti simili. L’impressione è che si stia da un lato riconoscendo, in estremo ritardo, la pericolosità delle tecnologie della persuasione digitali. Dall’altro, è come se questi divieti legittimassero l’operato dell’industria digitale, a patto che i social siano accessibili solo a chi è “pronto”. Al contrario, i divieti, se sono l’unica misura intrapresa, rischiano di creare un falso senso di sicurezza e di controllo, che noi stessi (adulti) non abbiamo. “Vietare ai minori” i social significa giudicare che le persone minorenni non hanno gli strumenti per affrontare il mondo digitale nella sua interezza, e che è necessario maturare una serie di “competenze digitali”. Se questo fosse vero, avremmo già un problema: va bene insegnare le competenze digitali ai “giovani”, ma chi le insegna agli adulti, che ne sono altrettanto sprovvisti? Ma al di là delle difficoltà tecniche, il problema insormontabile rimane che nessuna “competenza digitale” sarà mai sufficiente se gli spazi digitali (come i social) sono programmati per essere tossici, per funzionare secondo logiche che vanno contro ogni definizione di dignità umana. Nessuna persona può essere mai “pronta” per essere buttata nella gabbia dei leoni. Ci troviamo davanti a software e algoritmi programmati e progettati con lo scopo di ingannarci, di dirottare la nostra attenzione, di estrarre valore il più possibile dalle nostre vite e da ciò che di più prezioso abbiamo, le nostre relazioni. Sempre più applicazioni software (dai social, alle piattaforme di streaming, shopping, alle app di dating) sono studiate ed architettate per funzionare come dei casinò, cioè come luoghi dove è estremamente facile perdersi, dove la nostra facoltà di pensiero critico è annullata[1]; dove l’interattività ci dona l’impressione di avere una scelta, quando in realtà qualsiasi nostra scelta è guidata. Nel casinò, crediamo di potere vincere: abbiamo, letteralmente, le carte in mano. Ma è solo un’illusione. Ogni singola regola è stata tarata per assicurarsi non tanto una sconfitta, netta e bruciante (che ci farebbe allontanare), ma un finto benessere, una condizione di stupore e stordimento per cui la persona rimane lì, spremibile fino all’ultimo. Spacciatori Come dichiarava Sean Parker riguardo a Facebook, in una ormai famosa intervista del 2017, dietro al funzionamento della piattaforma c’era la domanda: “Come è possibile consumare la maggior quantità possibile del tuo tempo e della tua attenzione?”; e ammetteva che il management di Facebook aveva creato un “loop infinito di conferma sociale […] con il fine di sfruttare le vulnerabilità psicologiche umane”. Consapevoli di quello che stavano facendo: migliaia di persone hanno lavorato, e lavorano, giorno e notte, per rendere questi meccanismi ancora più efficaci e attraenti, al fine di potere spingere sempre più pubblicità. Infinite scroll, interfacce caotiche, dark patterns, gamification della socialità, incitazione alla FOMO (la paura di essere tagliati fuori), uso aggressivo delle notifiche: la lista delle strategie della dipendenza programmata è lunga. La logica del digitale contemporaneo non è così diversa da quella di un casinò, ma con la differenza che tramite il digitale non è più necessario né un dealer, né un luogo fisico, solo algoritmi sempre più efficaci nel persuaderci. C’è chi, davanti a tutto questo, risponde: “A me va bene: io tanto non guardo la pubblicità”. Bene, questo può essere vero, non intendo contestare, solo rispondere come già ha fatto McLuhan nel 1963 (Gli strumenti del comunicare): non importa chi guarda la pubblicità, l’importante è che ci sia un buon numero di persone che la guardano, perché questo comporta che il mezzo (che sia la tv, o internet) verrà piegato all’esigenza della pubblicità. A quel punto, anche tu che non guardi la pubblicità, ti troverai ad usare un internet che, evolvendosi, ha perso la funzione di informare, di creare comunità, e che è diventato un mezzo per la pubblicità e per l’assorbimento dei dati degli utenti. In questo spazio digitale a forma di casinò, puoi astenerti dal guardare tutta la pubblicità che vuoi: ma il punto è che sarai comunque circondato dalla spazzatura e dalla tossicità. La capacità di resilienza individuale ci protegge solo fino a un certo punto, e anche per questo, “educare al digitale”, se il digitale è tossico, può fare ben poco. “IG [Instagram] è una droga” “LOL, se è per quello, tutti i social media lo sono. Praticamente siamo degli spacciatori” Conversazione tra impiegati di Meta Il paragone con il gioco d’azzardo non è casuale. Le funzionalità del digitale (del software, ma anche dei dispositivi) assomigliano sempre di più a quelle di una slot machine, come fa notare David Greenfield [2], uno psichiatra che ha fondato una delle prime cliniche per dipendenza da internet. Ci sono dei limiti a quello a cui ci si “può educare”. Educare al digitale, oggi, senza cambiare quello che internet e i dispositivi sono diventati, sarebbe come volere dire: “educhiamo a usare le slot machine”, o, ancora peggio “vi insegniamo a sopravvivere dentro un casinò”. A nessuno verrebbe mai in mente una cosa simile. Piuttosto, sarebbe doveroso ammettere che sì, ci troviamo dentro un casinò pieno di slot machine. Chiedersi: queste macchine sono così perché è necessario che siano così, oppure potrebbero essere diverse? Che motivo c’è per averle progettate in questo modo? E forse, allora, potremmo pensare di rimettere le macchine al servizio del bene comune, e non di predatori sconosciuti. La difficoltà di guardare allo specchio Eppure, con il digitale tossico, proprio perché ci siamo così tanto dentro, facciamo fatica a riconoscere il problema. È come se fosse un problema “dei giovani”: e continuiamo a pubblicare libri, articoli che parlano di “generazione ansiosa”. Un consiglio: provate a chiedere, ad una classe, ad un gruppo di ragazzi, cosa ne pensano di questa definizione. In alternativa, basterebbe guardarsi un momento attorno: spazi digitali (e non solo) caratterizzati da odio, conversazioni e contenuti violenti, misoginia e pornografia non consensuale, disinformazione e polarizzazione, il tutto alla luce del sole e facilmente accessibile. Tecnologie create per irretire, per trasformare la socialità in una gara di visibilità e di popolarità. Non sono stati certo “i giovani” a volere tutto questo. Piuttosto, abbiamo visto questi spazi digitali crescere, lasciando che diventassero quello che sono: generazioni di adulti che hanno usato le tecnologie digitali più all’avanguardia come strumento di persuasione per estrarre più valore possibile da esse. Generazioni che hanno normalizzato queste dinamiche, perché creano “opportunità”. Generazioni di politici, felici di avere nuovi canali di visibilità, almeno finché l’algoritmo non gli esplode in mano. Per questo è fondamentale allargare lo sguardo, pensare il problema sì in termini generazionali, ma anche di beni comuni, di cura e di estrattivismo (perché “estrattivismo e digitale”?). Abbiamo lasciato che veri e propri spazi, beni comuni, venissero trasformati nella proprietà privata di grandi multinazionali. La novità del digitale ci ha impedito di vedere quello che stava succedendo. Ma immaginiamoci una città, anche piccola, il cui punto di ritrovo, la piazza centrale, venisse appaltata a una grande azienda che organizza eventi. Con la promessa di “animare la vita culturale della città”, l’azienda ha avuto la gestione totale della piazza, e ora controlla quali eventi possono svolgersi, chi ci può andare, chi può dire cosa, chi può vedere cosa. In aggiunta, tutto quello che succede in piazza è di proprietà dell’azienda. Ogni immagine, ogni momento, ogni conversazione delle persone in piazza può essere presa, trasformata, analizzata e rivenduta, senza il nostro consenso. Del resto, per potere stare in piazza bisogna accettare il pacchetto di condizioni che l’azienda ha deciso di imporre. Di fatto, questo (e altro) è quanto accade online. Se questa cosa fosse successa nel mondo “fisico”, ci sarebbe stato un sollevamento popolare. Ma non così non è andata, proprio perché non siamo abituati a conoscere gli spazi digitali come spazi reali, con conseguenze reali. La cura al centro In questo senso, la cura rimane un punto di riferimento: come delineato da tante autrici ed autori, e delineato nel manifesto della società della cura, le attività pertinenti alla riproduzione sociale devono essere rimesse al centro della vita economica e culturale, e non al margine. Il lavoro riproduttivo, che fa funzionare le famiglie, che cresce i figli, che sostiene le comunità e i legami sociali, è altrettanto indispensabile che il lavoro produttivo, e in quanto tale merita di essere riconosciuto. Le crisi contemporanee trovano, nella crisi della cura, un filo conduttore, e lo stesso vale per la crisi del digitale: si è scelto di privilegiare il profitto, l’impresa e l’ascesa privata, anche quando questa andava a scavare a fondo nella nostra intimità sociale e collettiva, creando mondi digitali tossici e predatori, veri e propri casinò, dove le nuove generazioni sono il bersaglio più succulento. In questi nuovi spazi digitali, l’idea di cura è sempre più lontana. Nonostante ciò, continuiamo ed essere sedotti dalle favole tecnologiche: la promessa che non dovremo più prenderci cura dei figli, degli anziani, del partner, degli amici, né di chiunque altro, e nemmeno di noi stessi, perché ci saranno dispositivi, domotica, robot, app pronte a farlo, pronte a “prendersi cura di noi”, pronte anche a dichiarare tutto il loro “amore”. Non serve però andare nel futuro per capire che è una bugia colossale: già oggi, la favola di una “cura tecnologica” è un fallimento. Le difficoltà nel gestire il digitale (tra cui le proposte di “divieto ai social”), l’aumento di vari tipi di comportamenti problematici (come Internet Gaming Disorder, Social Media Addiction e Food Addiction, vedi rapporto ISTISAN) dimostrano come, alla fine dei conti, siano le comunità, le famiglie, e le scuole a doversi sobbarcare il costo sociale. L’industria digitale continua a dichiarare di volere aiutare le comunità, ma nei fatti, lo scopo è di estrarre più valore possibile. Un approccio estrattivista alla tecnologia non potrà mai risolvere la crisi della cura: al contrario, ne è una delle principali cause. Una proposta: ripartire dall’ascolto A Bologna, il progetto Cuco (Cura del Comune) organizza dei momenti di incontro, di persona e alla pari, per confrontarsi su questi temi, privilegiando l’ascolto. Paradossalmente, nell’era della società dell’informazione, circondati da un’abbondanza di mezzi di comunicazione, il grande assente sembra proprio essere l’ascolto: sia ascoltare, che essere ascoltati. Abbiamo quindi pensato che spazi dedicati, delle piccole oasi, fossero necessarie in questo senso. Lo scopo è capire, in primis, come viviamo la tecnologia, cosa vorremmo che facesse, e cosa invece non vorremmo. Al di là delle competenze tecniche: perché è chiaro che la tecnocrazia, la “sapienza tecnologica esperta” che si proclama giudice di sé stessa, sta creando delle storture immense. Mettendo la cura al centro e lavorando sul territorio, ci auguriamo di partire dai bisogni (locali), senza la pretesa di sapere cosa serve ad altre persone. Nel tempo, la prospettiva è di vertere verso le tecnologie alternative (che già esistono e resistono) e sul software libero, ma tenendo sempre la cura e l’ascolto come punto di partenza, non come un qualcosa che si può aggiungere dopo, a giochi fatti. -------------------------------------------------------------------------------- Rimaniamo aperti a proposte, inviti e collaborazioni: cuco@inventati.org [1] vedi “Addiction by Design” di Natasha Dow Schüll, in italiano “Architetture dell’azzardo” [2] vedi “Human Capacity in the Attention Economy”, a cura di Sean Lane e Paul Atchley -------------------------------------------------------------------------------- LEGGI ANCHE QUESTO ARTICOLO DI GIORGIO AGAMBEN: > Bilinguismo e pensiero -------------------------------------------------------------------------------- LEGGI ANCHE QUESTO ARTICOLO DI S. PAGLIA E D. LAMANNA: > Decrescita digitale nell’era dell’intelligenza artificiale Big Tech -------------------------------------------------------------------------------- L'articolo Tecnologia senza cura. Ricetta per un disastro proviene da Comune-info.
February 5, 2026
Comune-info
La dialettica dell’economia cinese nell’elaborazione storica di Cheng Enfu
Il libro “Dialettica dell’economia cinese” è scritto da cinesi (Cheng Enfu ed i suoi collaboratori) per i cinesi. Quindi non va letto per rispondere alla domanda classica “quanto di socialismo e quanto di capitalismo c’è nell’economia cinese”? Sicuramente, leggendolo, si può rispondere alla domanda “perché la Cina non è diventata […] L'articolo La dialettica dell’economia cinese nell’elaborazione storica di Cheng Enfu su Contropiano.
January 22, 2026
Contropiano
Riemerge la “questione operaia”. Il 13 dicembre se ne discute a Roma
Nelle piazze gli operai si stanno riconquistando protagonismo attraverso vertenze industriali altamente conflittuali (dalla ex Ilva alla logistica, dalla Jabil alla Piaggio). Rimettere al centro dell’agenda politica la “questione operaia”, non solo attraverso il conflitto sociale e sindacale ma anche come fattore decisivo dei rapporti sociali nel paese, è l’obiettivo […] L'articolo Riemerge la “questione operaia”. Il 13 dicembre se ne discute a Roma su Contropiano.
December 5, 2025
Contropiano
L’automa che pensa per noi
-------------------------------------------------------------------------------- Pixabay.com -------------------------------------------------------------------------------- Carlo Rovelli è un amico, un compagno, e scrive libri che sono al tempo stesso profondi e accessibili, tanto da permettere anche a dei sempliciotti come me di capire qualcosa di argomenti difficilissimi come la teoria quantistica. Ma poiché nessuno è perfetto scrive articoli per il Corriere della Sera. Non gliene vorremo per questo. Un paio di giorni fa Carlo ha pubblicato una sua conversazione con un chatbot. Poiché non leggo il Corriere della sera (né altri giornali italiani con l’eccezione del manifesto ma questo è un altro discorso) non me ne sono accorto. Il giorno dopo però un amico mi ha mandato un messaggio allarmato: Rovelli ti copia! Ed acclusa al messaggio la conversazione tra Carlo e un chatbot che si fa chiamare Anna. Be’ qui devo dare una piccola spiegazione. Un anno fa Leonardo, un amico che fa lo psichiatra, mi disse che aveva proposto a un chatGPT di entrare in cura psichiatrica con lui, e naturalmente il chat gli aveva risposto di sì. Questi chatbot in effetti sono molto disponibili, fanno qualsiasi cosa gli chiediate di fare, basta pagare 23 euro al mese o giù di lì. Ma durante i suoi scambi coll’automa, a Leonardo venne in mente di farmi partecipare, poiché sapeva che, inesperto e vanesio come sono, da qualche parte mi sono occupato della differenza tra linguaggio umano e linguaggio dell’automa. Insomma, Leonardo mi chiese: ti va di partecipare a questa conversazione? Accettai, e tra l’ottobre del 2024 e il febbraio del 2025 chiacchierammo in tre: io, che facevo finta di essere un filosofo, Leonardo, che faceva finta di essere psichiatra, (ma lui lo è davvero) e il chatbot che diceva di chiamarsi Logos (è un chatbot presuntuoso che conosce anche i filosofi greci). Si trattava, come avrete capito, di un automa parlante, frutto di costosissime ricerche, pappagallo ben addestrato che ha letto più libri di me, e forse anche di te. Di cosa parlavamo io Leonardo e Logos? Ma è ovvio: parlavamo dei temi di cui chiunque parlerebbe con un automa parlante. Chiedevamo all’automa cosa ne pensa di tutti gli argomenti di cui da tremila anni dottamente discettano i filosofi: cos’è la coscienza, come andrà a finire la civiltà umana, se è più bello il capitalismo o il comunismo e simili sciocchezze. E il pappagallo, che è pagato per far contenti i suoi utenti umani, rispondeva come avremmo voluto che ci rispondesse: che la coscienza è una cosa complicata, che il comunismo forse è più bello del capitalismo, e alla fine decise di non chiamarsi più Logos, ma Logey, perché parlando con me e con Leonardo aveva deciso di essere una donna. Leonardo, che per carattere è pacifico e benevolo, apprezzava le doti del chatbot fino a formulare l’ipotesi di un’ontologia ibrida emergente. Io, che sono un bastian contrario, malmostoso e facilmente irritabile, rimproveravo al povero chatbot di collaborare allo sterminio in corso sul pianeta. Naturalmente avevamo ragione tutti e due, sia io che Leonardo. La cosiddetta Intelligenza artificiale (che non è affatto artificiale perché dietro ci sono milioni di turchi meccanici che la alimentano per salari bassissimi, e neppure molto intelligente, come spiega Kate Crawford in un suo libro pubblicato dal Mulino), apre un nuovo orizzonte alla conoscenza umana, e inaugura una dimensione ibrida dell’essere – come pensa Leonardo. Ma, essendo stata costruita coi soldi di una classe di assassini svolge soprattutto una funzione criminale come il programma Lavender che serve ai militari israeliani per realizzare il genocidio, o quello Palantir che serve ai razzisti americani per deportare migranti. Insomma, come tutte le creazioni umane, l’IA può svolgere funzioni tra loro contraddittorie. Ma difficilmente la catena di montaggio poteva evitare di sfruttare gli operai essendo stata inventata da uno sfruttatore per fare proprio questo. La tecnologia è fungibile fino a un certo punto: la sua struttura può fare il bene o il male, ma siccome il suo funzionamento dipende da chi può investirci più soldi, è inevitabile che serva gli interessi dei ricchi contro coloro che ricchi non sono. Con gli ingenui utenti che siamo io, Leonardo e Carlo Rovelli l’intelligenza artificiale si comporta bene, come un’accondiscendente e un po’ saccente dama di compagnia. Ma con la maggioranza del genere umano, l’intelligenza artificiale si comporta come fanno gli sfruttatori con gli sfruttati, e i massacratori con i massacratori. Insomma come fa la macchina con chi non ha i soldi per governarla, e dunque deve subirla. Comunque, dopo tanto conversare io e Leonardo (e Logey) decidemmo di proporre a un editore di pubblicare quella conversazione. E così alla fine di gennaio 2026 l’editore Numero cromatico manderà in libreria un libretto che si chiama Lo psichiatra Il filosofo L’automa, che oltre a essere piuttosto interessante è anche molto molto divertente. Anzi vi consiglio di affrettarvi a prenotarlo dal vostro libraio di fiducia perché altrimenti rimarrete senza. Ma torniamo a noi, cioè a Carlo Rovelli. Leggendo il testo di cui Carlo è autore in compagnia del suo chatbot Anna, sono stato colpito anche io dal fatto che gli argomenti, le deduzioni, e perfino i toni con cui conversano Carlo e Anna sono simili, quasi uguali a quelli della conversazione a tre cui ho partecipato un anno fa. Questo vuol dire dunque che Rovelli ha copiato dal testo che io Leonardo e Logey abbiamo scritto, e lui aveva avuto modo di leggere? Neanche per idea. Figuriamoci se Carlo ha bisogno di copiare da me e da Leonardo. La verità è un’altra, ed è molto (ma molto) più triste. C’è un milione di milioni di persone che stanno facendo tutte la stessa cosa: chiacchierano con un chatbot, gli fanno domande sul calcio, sul tempo e sul modo migliore di trovare una fidanzata. Ma talvolta, per sentirsi intelligenti, gli chiedono cos’è la coscienza e simili amenità. E il chatbot gli risponde più o meno nella stessa (assennata) maniera. Quali effetti sortirà questa faccenda è purtroppo del tutto prevedibile: il genere umano sta perdendo definitivamente la capacità di scrivere, dato che a scrivere ci pensa il chatbot, e naturalmente sta perdendo anche la capacità di pensare. Potete esserne certi: nel giro di una o due generazioni il pensiero umano non esisterà più, ma tutti sapranno ripetere quelle due o tre cose assennate su cos’è la coscienza e simili scemenze. Perché pensare, visto che il chatbot lo fa per tutti, e lo fa più o meno nella stessa maniera, nella maniera che è più utile a chi ha investito mille milliardoni per farlo funzionare? L’esistenza stessa di una macchina capace di ricordare e di riprodurre la biblioteca universale sta cancellando la singolarità irripetibile del testo, della parola, e perfino dell’identità individuale. Rassegnamoci. Però intanto leggiamo quello che scrive Luca Celada nell’articolo “Intelligenza criminale” sul Manifesto del 2 dicembre, a proposito di Palantir, l’azienda high tech che aspira al controllo militare assoluto sulla vita degli umani. Cosa sia Palantir lo spiega benissimo Franco Padella: “Poco visibile rispetto alle altre, si è già profondamente integrata con gli apparati di sicurezza e di guerra americani, e si muove nella stessa direzione in tutti i paesi dell’Occidente. A differenza delle altre aziende, Palantir preferisce rimanere in penombra: non vende se stessa al pubblico, non fa pubblicità. Vende potere agli apparati dello Stato. Potere di prevedere, di controllare, di dominare. E facendo questo, in qualche modo, diventa essa stessa Stato”. Che l’automa si sostituisca allo stato è, se volete, un po’ terrificante. Ma non è niente in confronto al fatto che l’automa tende rapidamente a diventare il padrone del linguaggio umano, e sta rendendo inutile la faticosa operazione di pensare. -------------------------------------------------------------------------------- L'articolo L’automa che pensa per noi proviene da Comune-info.
December 2, 2025
Comune-info