Tag - intelligenza artificiale

Vietare i cellulari e promuovere l’Ia, l’insostenibile confusione al potere
Al rientro a scuola, studenti, famiglie e docenti hanno trovato l’ennesima sorpresa: un dettagliato libriccino contenente le linee guida per una rapida adozione – naturalmente consapevole, responsabile e senza ulteriori oneri a carico del bilancio – dell’intelligenza artificiale in tutti gli ordini e gradi di istruzione. -------------------------------------------------------------------------------- A una prima analisi, le linee guida sembrano proseguire nella spinta verso l'adozione di tecnologie digitali non facilmente controllabili dagli attori della scuola, con un forte rischio che si riproponga lo scenario già visto con i progetti PNRR Scuola 4.0: una corsa a spendere fondi per introdurre hardware e software, senza possibilità di scelta consapevole da parte delle scuole, terminata in un sostanziale trasferimento di fondi pubblici al privato. L'enfasi sull'innovazione tecnologica e sulla transizione digitale delle scuole raramente tiene conto delle esigenze didattiche della comunità scolastica, per puntare l'obiettivo su un mero accumulo di tecnologie che si rivelano ingestibili dalle scuole, vuoi per incapacità, vuoi perché le tecnologie adottate sono spesso opache, o anche perché delegate completamente a imprese private. DIDATTICA: LA GRANDE ASSENTE Basterebbe il mero dato statistico a rendersi conto di quanto siano vaghe le Linee Guida su questo tema centrale per la scuola. Su 33 pagine solo due sono riservate alla didattica in senso stretto, nel paragrafo dedicato alle aree di applicazione per tipologia di destinatari (4.2). La maggior parte del testo si sofferma sugli aspetti tecnico-normativi, richiamando norme europee (AI act) e cosiddette buone pratiche consolidate. Se non bastasse il dato statistico, la lettura del paragrafo mostra la genericità e la confusione delle indicazioni . Riportiamo di seguito uno degli esempi di possibili applicazioni pratiche dell'IA per docenti, perché esemplificativo della poca conoscenza di strumenti che, in alcuni casi, sono in uso da tempo nelle attività didattiche, senza avere nulla a che vedere con l'IA. Strumenti interattivi e innovativi: l’IA permette l’elaborazione di risorse didattiche (come simulazioni, giochi, mappe concettuali, riassunti per l’apprendimento e quiz interattivi) che aumentano la motivazione e il coinvolgimento degli studenti; La domanda sorge spontanea: che senso ha far generare una mappa concettuale all’IA, quando l'obbiettivo didattico di questa metodologia è proprio fare in modo che lo studente possa "mappare" la propria conoscenza di un argomento e collegarne i vari elementi? AI COME AUTOMAZIONE Le indicazioni divengono invece più definite laddove sono individuati i campi di automazione dei processi lavorativi tipici dell'amministrazione e del monitoraggio da parte del Dirigente Scolastico. In particolare risulta evidente il riferimento all'automazione nei paragrafi Ottimizzazione nella riorganizzazione dell’orario o Monitoraggio documenti programmatici, nei quali si menziona l'evidenziazione di eventuali scostamenti di bilancio come risultato dell’uso dell’IA. D’altra parte l’Intelligenza Artificiale è un insieme di tecniche di cui le IA generative sono solo un sotto insieme. Nelle Linee Guida si parla genericamente di IA, senza distinguere un algoritmo per l’ottimizzazione dell’orario scolastico, caso classico di automazione, da un Large Language Model, Chat GPT per intendersi, lasciando alla scuola il compito di districarsi tra le molte e confuse offerte private. CONTRADDIZIONI E OSSIMORI Oltre all’imbarazzante assenza dei temi della didattica, il secondo aspetto che salta all’occhio sono le numerose contraddizioni interne ai messaggi del Ministero. Anzitutto le Linee Guida si pongono come obiettivi la sostenibilità e la tutela dei diritti degli allievi, raccomandando alla dirigenza e al corpo docente di rendere effettivamente esercitabile il diritto a non fornire i dati degli allievi come pre-requisito per l’utilizzo dell’IA. Peccato che le IA generative, che vengono proposte al suo interno, ossia i servizi SaaS (Software as a service) come ChatGPT, siano incompatibili con entrambi questi principi: il primo a causa dei pantagruelici consumi di elettricità e acqua dei datacenter indispensabili per la fornitura del servizio, il secondo perché il modello SaaS si basa per l’appunto sulla fornitura di questi dati, ossia il servizio erogato è gratuito proprio perché i dati dell’utilizzatore sono parte del modello di business delle imprese che producono questi software. Quando invece il servizio è a pagamento, i dati sono usati per migliorare l’addestramento dell’IA. L’ENNESIMA RIFORMA DALL’ALTO A giudicare dalla letteratura scientifica citata dal ministero, in cui la parte da leone la fanno le riflessioni sulla produttività più che quelle sul senso e sulla missione della scuola, sembra evidente che queste prime Linee Guida siano state redatte senza tenere nella dovuta considerazione le dinamiche sociali che questa nuova tecnologia sta promuovendo. Questo spiega come sia possibile che lo stesso ministero abbia, nella stessa giornata, varato un divieto draconiano contro gli smartphone (i cui effetti tossici sono ormai riconosciuti da letteratura bi-partisan) e promosso le Linee Guida per l’IA (i cui effetti tossici stanno cominciando a manifestarsi lentamente solo ora). VALORIZZARE LE COMUNITÀ Nel frattempo in molte zone della penisola vengono adottati sistemi per la didattica che valorizzano la creazione di conoscenza locale e condivisa, oltre che utilizzare il denaro per pagare lavoro invece che licenze d’uso a grandi aziende USA. Ci sono esempi virtuosi di scuole che acquistano software (anche l’Intelligenza Artificiale è software) rilasciati con licenze libere e/o aperte (F/LOSS) modificabili secondo le esigenze delle comunità scolastiche. In questo modo le scuole possono mettersi in rete per condividere risorse computazionali, risparmiando, oltre che per confrontarsi e condividere esigenze e soluzioni. Esistono già in Italia imprese che forniscono servizi con queste modalità, l’esempio delle scuole della Provincia Autonoma di Bolzano è solo uno e il più longevo. Il modello è quello delle Comunità Energetiche Rinnovabili che, secondo gli ultimi dati del GSE, stanno crescendo vertiginosamente. Si può fare! Maurizio Mazzoneschi e Stefano Barale per C.I.R.C.E L'articolo è uscito nel quotidiano Domani il 14 settembre 2025
“Siate meccanici, siate luddisti”: così si resiste al tecnocapitalismo
Immagine in evidenza: Jathan Sadowski, credits: Jathan Sadowski Vivere le tecnologie come se fossero qualcosa caduta dall’alto ci rende passivi e ci limita a considerare “cosa fanno” senza concentrarci sul “perché lo fanno”. È il tema centrale del libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, scritto dal ricercatore americano Jathan Sadowski, i cui studi si concentrano sulle  dinamiche di potere e profitto connesse all’innovazione tecnologica.  CHI È JATHAN SADOWSKI Senior lecturer presso la Monash University di Melbourne (Australia), è esperto di economia politica e teoria sociale della tecnologia. Oltre al libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, nel 2020 Sadowski ha pubblicato il libro Too Smart – How Digital Capitalism is Extracting Data, Controlling Our Lives, and Taking Over the World. Inoltre conduce il podcast This Machine Kills insieme a Edward Ongweso Jr. È anche autore e co-autore di diversi studi che indagano le conseguenze della tecnologia e della datificazione. L’ERA DEL CAPITALISMO TECNOLOGICO Jathan Sadowski parte da alcuni presupposti. Il primo vuole che tecnologia e capitalismo non siano forze separate ma che si rafforzino in modo reciproco, con le persone relegate al ruolo di osservatori passivi, senza valutarne le ricadute politiche, economiche e sociali. Il secondo presupposto vuole le tecnologie come forma di legislazione che crei regole, definisca diritti, stabilisca cosa è consentito e – a monte – delinei il tipo di società in cui viviamo. Con un impatto anche sul mondo fisico. I magazzini automatizzati sono ambienti costruiti per i robot e non per l’uomo, le strade su cui viaggiano le automobili a guida autonoma sono pensate per quel tipo di veicolo e, ancora, qualsiasi tecnologia futura avrà bisogno di un ambiente fisico adeguato e inedito. Per definire il capitalismo tecnologico, Sadowski fa riferimento a un’idea ampia che si sofferma sugli algoritmi discriminatori, sulle piattaforme che trattano i dati degli utenti, anche i più sensibili, e sulle Big Tech che stipulano ricchi contratti con corpi militari. Tutto ciò porta in superficie le connessioni tra tecnologia e potere, così come mette in risalto la natura politica e le ricadute economico-sociali delle tecnologie. Ciò che andrebbe osservato, e questo è un punto centrale nella narrazione di Sadowski, è il contesto nel quale alcune innovazioni vengono incentivate e altre scartate. Il ruolo dei venture capitalist nell’innovazione capitalista I venture capitalist, investitori privati che finanziano imprese in cambio di quote societarie, definiscono l’innovazione in base a ciò che si adatta ai rispettivi portafogli di investimento e allineano il progresso ai loro obiettivi di profitto. Un modello – critica l’autore – sostenuto da sussidi governativi e agevolazioni fiscali e incentrato sull’ipercrescita (hypergrowth), selezionando startup e tecnologie che possono scalare e dominare il mercato esponenzialmente in breve tempo. Per Sadowski la Silicon Valley siede al tavolo della roulette, decide su quale numero si fermerà la pallina e decide quanto scommettere. Può capitare che la mano non sia vincente ma – sul lungo periodo e sulla quantità di mani giocate – il saldo per i venture capitalist è sempre positivo.   Anche quando il mercato crolla, i venture capitalist al vertice sono in gran parte immuni dai rischi e ottengono comunque profitti significativi. Questo processo crea un “realismo dell’innovazione”, al cui interno il venture capital sembra l’unica via praticabile per sostenere l’innovazione. Dati come capitale e la politica della datificazione L’autore sostiene che le metafore popolari quali “i dati sono il nuovo petrolio” oscurano la vera natura dei dati, che non sono una risorsa naturale, ma sono sempre manufatti. Le aziende inquadrano i dati come una risorsa preziosa, disponibile universalmente e soggetta alle dinamiche di mercato, ma ciò vale solo per quelle imprese che possiedono le tecnologie speciali per scoprirli, estrarli, elaborarli e capitalizzarli. I dati sono una forma di capitale essenziale per la produzione, estrazione e circolazione del valore nei sistemi digitali. Questo spinge le aziende a creare e catturare quanti più dati possibile, da tutte le fonti e con ogni mezzo.  Le acquisizioni aziendali, come l’acquisto di DoubleClick da parte di Google, LinkedIn da parte di Microsoft, WhatsApp da parte di Facebook (ora Meta, ndr) e OneMedical da parte di Amazon, sono spesso fusioni di dati. Una smania per la datificazione che trasforma le persone in dati. Ciò trova conferma, secondo l’autore, per esempio nella ricerca sulla visione artificiale che tende a categorizzare gli esseri umani al pari di oggetti da rilevare, identificare e tracciare, spogliandoli così del loro contesto sociale e della loro umanità. Un’astrazione che fa cadere eventuali resistenze etiche in chi implementa tecnologie di sorveglianza e giustifica – seppure indirettamente – la creazione di oligopoli che trovano forma nelle Big Tech, organizzazioni che fondano le rispettive potenze sui dati, sulla capacità computazionale e sul loro peso geopolitico che le mette in condizione di presentare le tecnologie prodotte al pari di asset strategici nazionali. Il ruolo dei “meccanici” e dei “luddisti” Per il professor Sadowski le parole “mechanic” e “luddite” sono da intendere in un contesto critico. Entrambi, in senso metaforico, incarnano un modo di vivere il capitalismo tecnologico. I “mechanic”, i meccanici, sono le persone che coltivano curiosità su come il mondo funziona, mentre i “luddite” (i luddisti) hanno posizioni più consapevoli delle funzioni intrinseche della tecnologia.  Il termine luddista prende origine dal movimento nato nel Regno Unito durante i primi anni del 1800 che, preoccupato dagli impatti dei macchinari industriali sul lavoro degli artigiani, ha ingaggiato una lotta contro le fabbriche, accusandole di peggiorare le condizioni di vita.  Tanto all’epoca quanto oggi, i luddisti non sono refrattari alle tecnologie in quanto tali ma alle loro implicazioni. Il luddismo odierno è un movimento molto più complesso di quello che, nel XIX secolo, il governo britannico ha represso con la violenza e con leggi ad hoc. In sintesi, il meccanico comprende come funziona un sistema, mentre il luddista sa perché è stato costruito, a quali scopi serve e quando dovrebbe essere smantellato o distrutto. Entrambi i modelli, sostiene Sadowski, sono cruciali per una critica puntuale del tecno-capitalismo.  INTERVISTA CON L’AUTORE Abbiamo approfondito queste posizioni con l’autore del libro. Nel libro emerge un panorama in cui le tecnologie sono sempre più opache (il fenomeno della “scatola nera”), complesse e dominate da interessi aziendali e statali che limitano l’agire umano. Si tratta di uno sviluppo contemporaneo o di un modello ricorrente? “L’idea delle tecnologie come una ‘scatola nera’ esiste da tempo ed è stata a lungo rilevante. È un modello ricorrente nel modo in cui le tecnologie sono progettate e utilizzate. Una scatola nera in cui possiamo vedere gli input e gli output di una tecnologia, di un sistema o di un’organizzazione, ma non possiamo vedere o capire come la cosa effettivamente operi. Se mai, la scatola è diventata semplicemente più opaca col passare del tempo. Che si tratti di intelligenza artificiale o di strumenti finanziari, i meccanismi interni di questi sistemi, che hanno un enorme potere nella società, sono schermati da strati di opacità. Certo, questi sistemi astratti sono complessi, ma sono anche mistificati per design. Ci viene detto che solo pochi eletti sanno come sono stati creati, e ancora meno sanno come effettivamente funzionino. Il risultato è che alla grande maggioranza delle persone viene impedito di conquistare la posizione minacciosa di sapere come le cose funzionano, dire di no al modo in cui funzionano ora e poi pretendere che funzionino diversamente. Consideriamo un modello di machine learning che sta alla base di un sistema di AI. Ora non possiamo nemmeno vedere o comprendere gli input che entrano nel modello perché si tratta di dataset enormi raccolti tramite scraping automatico del web e altre forme di raccolta dati. Nessun essere umano ha mai effettivamente spulciato questi dataset nella loro interezza. Forse qualcuno ha visto solo parti dei dati, o ha solo un’idea generale di che tipo di dati siano inclusi nel dataset. Ma, funzionalmente, il dataset (o input nel sistema) è anch’esso una scatola nera. Le operazioni del modello di machine learning sono anch’esse ‘black-boxed’ poiché questi sistemi computazionali hanno strati nascosti di calcoli probabilistici in cui neppure il creatore della tecnologia sa esattamente cosa stia succedendo. Per di più, persino gli output di questi sistemi sono ora scatole nere: le decisioni prese da questi sistemi di AI e, le loro conseguenze sulla vita delle persone, sono nascoste alla vista del pubblico.  Un decennio fa (era il 2016, nda), il giurista Frank Pasquale scrisse un eccellente libro intitolato The Black Box Society in cui spiegava come le scatole nere si stiano moltiplicando nelle nostre vite grazie a modi tecnici, legali, politici e sociali. Le scatole nere mantengono nascoste le operazioni di questi sistemi.  Quindi, sebbene il fenomeno delle tecnologie a scatola nera sia un modello ricorrente, possiamo sempre più vedere come quelle scatole stanno ora diventando ancora più grandi, inglobando più parti del sistema”. Parliamo dei venture capitalist che plasmano il capitalismo tecnologico anche gonfiando in modo artificioso gli asset speculativi. Come possiamo spezzare questo ciclo dell’hype? Cosa servirebbe per orientare l’innovazione verso il benessere sociale piuttosto che verso l’accumulazione di capitale? “Le nostre aspettative sul futuro sono molto importanti per influenzare dove allocare le risorse e per modellare come e perché costruiamo le tecnologie. Le aspettative sono anche performative del futuro. Andrebbero pensate come prove generali per futuri potenziali che non sono ancora arrivati. Le nostre aspettative creano anticipazione riguardo al futuro e possono aiutare a motivare l’azione nel presente. È per questo che la Silicon Valley spende così tanto tempo e denaro cercando di modellare le nostre aspettative in modi molto specifici che si allineano ai loro desideri e favoriscono i loro interessi. Ecco cosa sono i cicli dell’hype: sono il business della gestione delle aspettative. Gli investimenti speculativi – come quelli che sono la specialità dei venture capitalist e degli imprenditori tecnologici – dipendono dall’hype, dal creare aspettative e motivare all’azione. Questa speculazione è un modo di ricavare valore e profitto da cose che non sono ancora accadute e che potrebbero non accadere mai. Il futuro potrebbe sempre non materializzarsi nel modo in cui la Silicon Valley lo immagina, ma proprio questa incertezza è un elemento cruciale della performance. Significa che la partecipazione del pubblico è necessaria. Nel mio libro chiamo questo il Tinkerbell Effect: le tecnologie speculative esistono solo se ci crediamo abbastanza e battiamo le mani abbastanza forte. Se smettiamo di crederci e smettiamo di applaudire, allora possono cominciare a svanire, diventando sempre più immateriali fino a sparire. Anche investire miliardi di dollari non garantisce la realizzazione di un sogno se le persone smettono di alimentarlo con la loro energia psichica. Gli esempi ci sono, si chiamano Metaverso (un ricordo lontano), Web3 oppure Google Glass (in realtà mai visti davvero sul mercato). Questa natura effimera dell’hype è anche un punto chiave di intervento. Attualmente, molti dei benefici della tecnologia avvengono in modo accidentale e ‘a cascata’. Il loro scopo principale è catturare mercati e creare profitti per grandi aziende. Ci viene detto che questo è l’unico modo possibile e che non dovremmo aspettarci nulla di diverso o migliore. Ma potremmo fare molta strada per orientare l’innovazione in direzioni diverse semplicemente avendo aspettative più alte su come le tecnologie vengono create e a quali scopi servono”. I dati tendono a ridurre le persone a oggetti. Questo processo, intrinseco ai sistemi di intelligenza artificiale, è oggi estremamente rilevante. Quali interventi politici e sociali ritiene necessari per garantire che le tecnologie basate sui dati vengano sviluppate in modi che rispettino la dignità umana? A suo avviso, quali aspetti del capitale umano dovrebbero rimanere al di fuori della portata della datificazione? “Le nuove tecnologie possono catturare quantità di dati così vaste da risultare incomprensibili, ma quei dati sul mondo resteranno sempre incompleti. Nessun sensore o sistema di scraping può assorbire e registrare dati su tutto. Ogni sensore, invece, è progettato per raccogliere dati su aspetti iper-specifici. Ciò può sembrare banale, come un termometro che può restituire un numero sulla temperatura, ma non può dirti che cosa si provi davvero con quel clima. Oppure può essere più significativo, come un algoritmo di riconoscimento facciale che può identificare la geometria di un volto, ma non può cogliere l’umanità soggettiva e il contesto sociale della persona. I dati non potranno mai rappresentare ogni fibra dell’essere di un individuo, né rendere conto di ogni sfumatura della sua vita complessa.  Ma non è questo lo scopo né il valore dei dati. Il punto è trasformare soggetti umani integrati in oggetti di dati frammentati. Infatti, ci sono sistemi che hanno l’obiettivo di conoscerci in modo inquietante e invasivo, di assemblare questi dati e usarli per alimentare algoritmi di targeting iper-personalizzati. Se questi sistemi non stanno cercando di comporre un nostro profilo completo e accurato possibile, allora qual è lo scopo? Ecco però un punto importante: chi estrae dati non si interessa a noi come individui isolati, ma come collettivi relazionali. I nostri modi di pensare la raccolta e l’analisi dei dati tendono a basarsi su idee molto dirette e individualistiche di sorveglianza e informazione.  Ma oggi dobbiamo aggiornare il nostro modo di pensare la datificazione – e le possibili forme di intervento sociopolitico in questi sistemi guidati dai dati – per includere ciò che la giurista Salomé Viljoen chiama ‘relazioni “orizzontali’, che non si collocano a livello individuale, ma a scala di popolazione. Si tratta di flussi di dati che collegano molte persone, scorrono attraverso le reti in modi tali che le fonti, i raccoglitori, gli utilizzatori e le conseguenze dei dati si mescolano in forme impossibili da tracciare se continuiamo a ragionare in termini di relazioni più dirette e individualistiche.  Nel libro spiego che questa realtà delle reti di dati orizzontali indebolisce l’efficacia di interventi troppo concentrati sulla scala dei diritti individuali, piuttosto che sulla giustizia collettiva. Se vogliamo salvaguardare la dignità umana contro la datificazione disumanizzante, allora possiamo farlo solo riconoscendo come i diritti e la sicurezza di tutti i gruppi siano interconnessi attraverso queste reti guidate dai dati. In altre parole, la dignità e la sicurezza di un gruppo di persone colpite da sorveglianza e automazione è legata alla dignità e alla sicurezza di tutte le persone all’interno di questi vasti sistemi sociotecnici che letteralmente connettono ciascuno di noi”. Nel libro esprime il concetto di “AI Potemkin” per descrivere l’illusione di un’automazione che in realtà nasconde enormi quantità di lavoro umano. Un inganno per utenti, investitori e opinione pubblica: che cosa è esattamente questa illusione? “Ci sono tantissime affermazioni altisonanti sulle capacità dei sistemi di intelligenza artificiale. Ci viene fatto credere che queste tecnologie ‘intelligenti’ funzionino unicamente grazie ai loro enormi dataset e alle reti neurali.  In realtà, molte di queste tecnologie non funzionano – e non possono funzionare – nel modo in cui i loro sostenitori dichiarano. La tecnologia non è abbastanza avanzata. Al contrario, molti sistemi dipendono pesantemente dal lavoro umano per colmare le lacune delle loro capacità. In altre parole, il lavoro cognitivo che è essenziale per queste presunte macchine pensanti, proviene in realtà da uffici pieni di lavoratori (mal retribuiti) in popolari destinazioni di outsourcing come le Filippine, l’India o il Kenya. Ci sono stati diversi esempi di alto profilo, come la startup Builder.AI, che affermava di automatizzare il processo di creazione di app e siti web. Un’indagine ha rivelato che il sofisticato ‘sistema di AI’ della startup sostenuta da Microsoft e valutata 1,5 miliardi di dollari  era in realtà alimentato da centinaia di ingegneri software in India, istruiti a fingersi l’AI della società quando interagivano con i clienti. Esempi come questo sono così frequenti che ho coniato il termine AI Potemkin per descriverli. Potemkin si riferisce a una facciata progettata per nascondere la realtà di una situazione (da il villaggio Potemkin, ndr). L’AI Potemkin è collegata al concetto di ‘black boxing’, ma spinge l’occultamento fino alla vera e propria ingannevolezza. Lo scopo non è solo nascondere la realtà, ma mentire sulla realtà delle capacità di una tecnologia, per poter affermare che un sistema sia più potente e prezioso di quanto non sia in realtà. Invece di riconoscere e valorizzare pienamente il lavoro umano, da cui queste tecnologie dipendono, le aziende possono continuare a ignorare e svalutare i componenti umani indispensabili dei loro sistemi. Con così tanti soldi e così poco scetticismo che vengono pompati nel settore tecnologico, l’inganno dell’AI Potemkin continua a crescere a ogni nuovo ciclo di hype della Silicon Valley”. Per concludere, il capitale può eliminare il lavoro umano senza finire, alla lunga, per distruggere sé stesso? “Il capitalismo è un sistema definito da molte contraddizioni che minacciano costantemente di distruggerne le fondamenta e lo gettano di continuo in cicli di crisi. Una contraddizione importante che individuo nel libro è la ricerca del capitale di costruire quella che chiamo la ‘macchina del valore perpetuo’. In breve, questa macchina sarebbe un modo per creare e catturare una quantità infinita di plusvalore senza dover dipendere dal lavoro umano per produrlo. Il capitale persegue questa ricerca da centinaia di anni. Ha motivato enormi quantità di investimenti e innovazioni, nonostante non si sia mai avvicinato a realizzare davvero il sogno di produrre plusvalore senza le persone. Ciò che rende questa una contraddizione è il fatto che gli esseri umani non sono una componente accessoria della produzione di valore; il lavoro umano è parte integrante della produzione di plusvalore. L’AI è l’ultimo – e forse il più grande – tentativo di creare finalmente una macchina del valore perpetuo. Gran parte del discorso sull’automazione, e ora sull’intelligenza artificiale, si concentra sulle affermazioni secondo cui il lavoro umano verrà sostituito da lavoratori robotici, con l’assunzione che si tratti di una sostituzione diretta dei corpi organici con sistemi artificiali, entrambi intenti a fare esattamente la stessa cosa, solo in modi diversi e con intensità diverse. Tuttavia, a un livello fondamentale, l’idea di una macchina del valore perpetuo non può riuscire, perché si basa su un fraintendimento del rapporto tra la produzione di valore e il funzionamento della tecnologia. Il capitale equipara una relazione – gli esseri umani che usano strumenti per produrre valore – a un’altra relazione completamente diversa: gli strumenti che producono valore (con o senza esseri umani). Dal punto di vista del capitale, il problema degli esseri umani è che non sono macchine. Aziende come Amazon non vogliono rinunciare alla fantasia di una macchina del valore perpetuo, ma sanno anche che ci sono molte più alternative che sostituire direttamente gli uomini con le macchine: si possono anche gestire i lavoratori tramite le macchine, renderli subordinati alle macchine e, in ultima analisi, farli diventare sempre più simili a macchine. Questo è un punto cruciale per ripensare il potere dell’AI per il capitalismo e per capire perché le aziende stanno riversando più di mille miliardi di dollari nella costruzione dell’AI. Ai loro occhi, il futuro del capitalismo dipende dall’uso dell’AI per sostituire gli esseri umani come unica fonte di plusvalore o, se questo obiettivo fallisse, dall’obbligare i lavoratori a trasformarsi in oggetti, semplici estensioni delle macchine, costringendo le persone a diventare sempre più meccaniche nel modo in cui lavorano e vivono”. L'articolo “Siate meccanici, siate luddisti”: così si resiste al tecnocapitalismo proviene da Guerre di Rete.
Tutto scorre…
C’ho 74 anni. Tra un decennio non ci sarò più. Cosi come non ci saranno più persone in grado di scrivere.  L’IA ha spalancato questo mondo. Non siamo più motivati a scrivere.  L’IA lo fa per noi.  Il risultato sarà un mondo diviso tra chi scrive e chi non scrive.  […] L'articolo Tutto scorre… su Contropiano.
Gli artigli di Blair (e non solo) su “Gaza, riviera turistica”
Hanno provato in tutti i modi a dissimulare la partecipazione di Tony Blair al progetto di trasformare Gaza in una meta turistica, una volta completato il genocidio dei palestinesi. Sul nostro giornale avevamo già puntato i riflettori su come il Tony Blair Institute for Global Change (TBI) avesse partecipato a […] L'articolo Gli artigli di Blair (e non solo) su “Gaza, riviera turistica” su Contropiano.
L’Intelligenza Artificiale usata negli Stati Uniti contro pro-Pal e migranti
Negli Stati Uniti, l’intelligenza artificiale è usata per la sorveglianza di massa di attivisti solidali con la Palestina e di cittadini stranieri, in particolare degli studenti che manifestano contro il genocidio perpetrato da Israele. L’accusa alle autorità statunitensi arriva da Amnesty International, e di mezzo c’è anche Palantir, uno dei […] L'articolo L’Intelligenza Artificiale usata negli Stati Uniti contro pro-Pal e migranti su Contropiano.
Campagna israeliana per censurare i post pro Palestina su Facebook e Instagram, le prove
Abbiamo forse l’impressione di vedere un buon numero di messaggi postati sui social media a favore della resistenza palestinese, ma in realtà, secondo un gruppo di whistleblower (informatori)  impiegati presso Meta – la Big Tech che gestisce Facebook, Instagram e WhatsApp – i messaggi che vediamo effettivamente sono solo una piccola parte di tutti i messaggi pro-Palestina che sono stati postati.  La maggior parte non la potremo mai vedere perché è svanita nel nulla, censurata.  E, sempre secondo questi whistleblower, a promuovere la massiccia censura dei post contro il genocidio in corso a Gaza, c’è lo Stato sionista di Israele, con la piena complicità dei dirigenti di Meta. La denuncia di questi whistleblower appare in due documenti bomba che rivelano come oltre 90.000 post pro palestinesi sono stati indebitamente rimossi da Facebook e da Instagram su richiesta specifica del governo israeliano. I documenti offrono persino un esempio delle email che Israele ha scambiato con Meta per far sopprimere tutti quei post che Tel Aviv giudica “pro terroristi” o “antisemiti”.  (In realtà, dicono i whistleblower, si tratta di normali messaggi di solidarietà per la causa palestinese.) Inoltre, a causa dell’effetto a cascata insito negli algoritmi usati da Meta per vagliare in automatico i messaggi postati sulle sue piattaforme, altri trentotto milioni di post pro Palestina sarebbero spariti nel nulla dal 7 ottobre 2023.  In pratica, si tratta della più grande operazione di censura di massa nella storia moderna, concludono questi informatici militanti che ora, con il loro sito “ICW” (International Corruption Watch), hanno indossato anche i panni di giornalisti investigativi alla Julian Assange. Ma non si tratta soltanto di denunce di atti di censura.  Le rivelazioni dell’ICW mostrano come l’Intelligenza Artificiale (IA) possa essere facilmente manipolata per dare risposte tendenziose: proprio quelle volute da chi ha i mezzi per “avvelenare il pozzo” dei dati, come, in questo caso, Israele.  Si tratta di una denuncia che ci deve far riflettere tutti quanti.  Perché se l’IA può essere manipolata, allora anche noi possiamo essere manipolati ogni volta che leggiamo una cosiddetta riposta “obiettiva” generata dall’IA in una ricerca su Google, ogni volta che poniamo un quesito ad un’app IA che si professa “imparziale” come Chat-GPT o, infine, ogni volta che scegliamo di guardare un video segnalataci da una lista creata dall’IA di YouTube in base a sedicenti criteri di “popolarità”.  (In un precedente studio, l’ICW ha mostrato come, in realtà, gli algoritmi di You Tube – in maniera estremamente sottile – ci spingono a visionare video politicamente orientati a destra.)  In altre parole, l’apparente neutralità degli algoritmi IA usati non solo da Meta ma da tutte le Big Tech è puramente illusoria e dobbiamo esserne consapevoli. Meta sostiene, invece, che i meccanismi che usa per censurare determinati messaggi postati sui suoi social media siano imparziali.  Infatti, spiega Meta, in alto a destra di ogni post che appare su Facebook o su Instagram, c’è un tasto “Report” (“Segnala”) per consentire a chiunque di segnalare che quel post andrebbe rimosso – perché, ad esempio, esso sprona alla violenza, usa la calunnia o costituisce bullismo.  Quindi tutti gli utenti possono fare una “proposta di rimozione” (take down request) riguardante qualsiasi post che essi giudicano offensivo; saranno poi gli algoritmi IA di Meta a decidere se un post è davvero da rimuovere o meno, in base ad una valutazione “obiettiva”.  In conclusione, secondo Meta, se spariscono tanti post pro Palestina dalle sue piattaforme, è soltanto perché molti utenti li hanno segnalati come offensivi e l’algoritmo “obiettivo” di Meta ha convalidato questo loro giudizio. Ma chi abbia usato il tasto “Report” sa benissimo che solo in alcuni casi una richiesta di rimozione fatta da un utente qualsiasi viene accettata.  La procedura illustrata da Meta non può spiegare la sparizione di trentotto milioni di post pro Palestina. Ciò che Meta non dice pubblicamente, infatti, è che esiste anche un secondo canale per far rimuovere post indesiderati ed è proprio quello che ha usato Israele. Si tratta di un indirizzo email riservato, divulgato solo a governi o a grossi enti internazionali, che consente loro di presentare richieste di rimozione che verranno prese in carico prioritariamente, non da un algoritmo, ma da un essere umano (un “verificatore”). Molti governi, infatti, ricorrono a questa procedura per far censurare messaggi postati dai loro cittadini scontenti.  Meta accoglie le loro richieste, almeno in parte, sia per accondiscendenza, sia per evitare che le sue piattaforme vengano oscurate in quei Paesi. Israele, invece, è un caso a parte.  Inoltra a Meta richieste di censurare i commenti critici postati dai propri cittadini solo nell’1,3% dei casi.  (A titolo di paragone, il 95% delle richieste di rimozione fatte dal governo brasiliano riguarda messaggi postati dai cittadini brasiliani).  Ciò significa che nel 98,7% dei casi, il governo israeliano chiede a Meta di censurare messaggi pro Palestina postati sui social da cittadini che abitano fuori da Israele.  E lo fa attraverso una sua Cyber Unit creata appositamente. Così, Israele risulta il Paese con il maggior numero di richieste di rimozione pro capite – tre volte di più di qualsiasi altro. Non solo, ma a differenza di altri Paesi, Israele beneficia di un tasso di accettazione delle sue richieste del 94%, cifra che l’ICW giudica palesemente forzata e anche pericolosa.   Infatti, siccome le accettazioni dei verificatori umani vengono poi usate per addestrare gli algoritmi IA, quegli algoritmi subiscono un “avvelenamento” anti-palestinese e cominciano poi a censurare in automatico ogni futuro post con contenuti simili a quelli rimossi dai verificatori umani su richiesta della Cyber Unit.  In questa maniera, Israele riesce a censurare il resto del mondo. Un dato sorprendente emerge poi dalle rivelazioni dei whistleblower dell’ICW. Il Paese con il maggior numero di richieste di rimozione fatte dalla Cyber Unit non sono gli Stati Uniti o un Paese europeo bensì l’Egitto, che vanta il 21% del totale delle richieste di rimozione israeliane.  Perché questa attenzione particolare all’Egitto? I documenti sul sito dell’ICW non lo dicono, ma è facile indovinare: Facebook è il primario strumento di comunicazione tra gli egiziani ed è stata proprio una valanga di post su Facebook che ha innescato, nel gennaio e febbraio del 2011, manifestazioni anti-governative gigantesche in piazza Tahrir al Cairo (alcune con due milioni di partecipanti) e la conseguente caduta del regime del dittatore Mubarak.  Oggi, un simile massiccio tam-tam di post Facebook contro il blocco degli aiuti umanitari per Gaza al varco di Rafah potrebbe innescare un massiccio assalto popolare a quel varco. Infatti, esso si trova a soli cinque ore di macchina dal Cairo.  Chiaramente, dunque, Israele ha ogni interesse a prevenire una simile protesta: se i manifestanti fossero due milioni come nel 2011, il loro assalto al varco sarebbe incontrollabile.  Da qui l’assoluta priorità data alla rimozione dei post egiziani pro Palestina. I documenti fatti trapelare dai whistleblower di Meta sono stati elaborati da un informatico specializzato in IA, che si fa chiamare “nru”, per creare due documenti che egli ha poi pubblicato sul sito ICW NRU, Meta Leaks Part 1 l’11 agosto 2025 e Meta Leaks Part 2 il 15 agostohttps://bsky.app/profile/icw-nru.bsky.social.  I due documenti esistono anche in formato pdf, la prima parte si trova qui e la seconda parte qui. https://archive.org/details/meta_leaks_part_2/mode/1up?view=theater Una bozza della prima parte è apparsa l’11 aprile 2025 su DropSite News, ma senza provocare reazioni.  Ciò non significa, tuttavia, che la censura dei post pro Palestin da parte di Meta sia passata inosservata o che non susciti interesse. Anzi, già un anno e mezzo fa (21 dicembre 2023), Human Rights Watch (HRW) ha formalmente accusato Meta di censurare con sistematicità una buona parte dei commenti pro Palestina postati su Instagram e Facebook.  Come prove, HRW ha raccolto e analizzato le lamentele di un migliaio di utenti di queste piattaforme i cui post sono stati fatti sparire da Meta. Purtroppo, si tratta di prove necessariamente indirette perché HRW non ha accesso agli algoritmi usati; quindi Meta ha potuto attribuire le soppressioni dei post a non meglio precisate “imperfezioni in alcuni suoi algoritmi” (“bug“) che ha poi promesso di correggere col tempo.  E così, tutto è finito lì. Ora, invece, grazie alle rivelazioni di un piccolo gruppo di whistleblower all’interno di Meta, abbiamo le prove concrete che Meta continua a censurare i post pro Palestina, consapevolmente e impunemente. Infine, grazie alla loro denuncia della tecnica di “avvelenamento del pozzo” dei dati praticata da Israele, abbiamo un’idea più chiara dei limiti dell’Intelligenza Artificiale.  L’IA è palesemente un “pappagallo stocastico”, ovvero una creatura che “parla” usando calcoli di probabilità al posto di una vera consapevolezza di quello che dice.  Questo pappagallo può essere ammaestrato, poi, a presentare prioritariamente le informazioni che i suoi padroni hanno voluto, con maggiore insistenza, fargli incamerare.  In altre parole, apprendiamo che chiunque controlli l’addestramento di un’IA controllerà le basi e influenzerà le possibilità di deduzione grazie a cui quell’IA creerà le sue risposte.  Oggi chi controlla l’IA in Occidente è una manciata di miliardari della Silicon Valley legati alla lobby sionista, ma anche a tutte le più grosse lobby. In conclusione, l’IA è da usare, sì, ma con cautela; in quanto ai prodotti Meta (Facebook, Instagram, WhatsApp), meglio smettere di usarli.  Per quanto riguarda la vicenda Meta Leaks, essa svela solo uno dei vari intrighi escogitati dai sionisti per soffocare il grido che sale da Gaza. Vanno contrastati risolutamente, tutti quanti.         Patrick Boylan
Amnesty: gli USA impiegano l’IA per repressione del dissenso ed espulsioni di massa
L’accusa diretta al governo statunitense proviene da Amnesty International, l’organizzazione internazionale per i diritti umani: negli Stati Uniti, le autorità starebbero impiegando sistemi automatizzati basati sull’intelligenza artificiale per controllare e reprimere il dissenso sociale. Gli strumenti impiegati sono, in particolare, Babel X, prodotto da Babel Street, e Immigration OS, prodotto da Palantir. Nel mirino delle autorità sono finite soprattutto le proteste a sostegno della Palestina: secondo Amnesty, infatti, il controllo ha il fine di inserire gli studenti pro-palestinesi nel programma Catturare e Revocare, che prevede la revoca dei visti a chi prende parte a manifestazioni a favore della Palestina. Ad essere controllati sono anche persone migranti e richiedenti asilo. Le prove del monitoraggio di massa provengono dall’esame di documenti pubblici come quelli del Dipartimento per la Sicurezza interna, bandi di assegnazione e altri. Il programma Babel X, riporta Amnesty, verrebbe impiegato per «valuta le “emozioni” e le probabili intenzioni delle persone utenti basandosi sul loro comportamento online». In questo modo, vengono identificati «contenuti collegati al “terrorismo”», che le autorità possono poi impiegare per decidere se revocare o meno i visti. Babel X è infatti in grado di «accogliere rapidamente una serie di dati relativi a una persona, come nome e cognome, indirizzo di posta elettronica o numero di telefono; può avere accesso ai suoi post sui social media, al suo indirizzo IP, al suo curriculum professionale e ai codici univoci di identificazione per le app di annunci pubblicitari in modo da localizzare il dispositivo». Per quanto riguarda Palantir, il coinvolgimento con gli apparati di sicurezza e di intelligence statunitensi e israeliani è appurato (l’azienda fornisce a Israele i software necessari per portare a termine la propria campagna genocidiaria a Gaza). Il suo prodotto Immigration OS, versione aggiornata di programmi precedentemente esistenti, viene impiegato dall’ICE sin dal 2014, spiega Amnesty. Esso permette di «creare un archivio elettronico, che organizza e collega tutte le notizie e i documenti associati a una particolare indagine [su un caso di immigrazione], in modo che possano essere consultati da uno specifico luogo». Entrambe gli strumenti sono fondamentali per portare avanti la politica di repressione delle proteste studentesche a favore della Palestina e di espulsione di massa di tutti i migranti “irregolari” messa in atto dall’attuale amministrazione Trump. In questo contesto sono divenuti celebri casi come quello di Mahmoud Khalil, neolaureato alla Columbia University (che, insieme ad Harvard ed altre univestià statunitensi, è finita nel mirino del governo nel contesto delle proteste contro il genocidio a Gaza) e titolare di un permesso di residenza permanente negli USA, arrestato nel suo appartamento dagli agenti della ICE in quanto portavoce delle proteste per la Palestina. Il suo permesso, come quello di tanti altri studenti, è stato successivamente revocato. Come sottolineato da Erika Guevara, alta direttrice delle ricerche e delle campagne di Amnesty, «sistemi come Babel X e Immigration Os hanno un ruolo fondamentale nel rendere possibile l’attuazione delle politiche repressive dell’amministrazione USA, facilitando decisioni rapide e automatizzate che hanno già causato espulsioni di massa a un ritmo senza precedenti, che non consentono un livello adeguato di procedure eque e che mettono significativamente in pericolo i diritti umani di tutte le persone immigrate, anche delle studenti e degli studenti che non sono cittadini USA». Guevara ha definito la situazione «profondamente preoccupante», in quanto «queste tecnologie consentono alle autorità di rintracciare rapidamente e prendere di mira studenti e altri gruppi marginalizzati con una velocità e un’ampiezza senza precedenti. Ne derivano arresti illegali ed espulsioni di massa, un clima di paura e un effetto raggelante ancora più diffuso tra le comunità migranti e tra le studenti e gli studenti internazionali nelle scuole e nei campus universitari». L'Indipendente
L’IA può sostituire i mercati? Una risposta socialista di mercato a Carlo L. Cordasco
Il mio amico Carlo Ludovico Cordasco ha recentemente pubblicato due articoli ricchi e stimolanti sull’IA e il problema della conoscenza. Il suo argomento ha il merito di andare oltre dicotomie semplicistiche, esplorando in modo intellettualmente onesto se e come l’IA possa replicare, o addirittura sostituire, le funzioni economiche tradizionalmente svolte dai mercati. In particolare, si concentra […] L'articolo L’IA può sostituire i mercati? Una risposta socialista di mercato a Carlo L. Cordasco su Contropiano.
Come ti riconosco un LLM in 7 personaggi
Da un po’ di tempo stiamo provando a fare chiarezza sui temi della data science — abbiamo anche scritto un libello. Ultimamente, vista la confusione crescente, ci stiamo concentrando molto sui LLM (Large Language Model). Cerco di raccontare quello che so, quello che sto studiando, e quello che ho capito […] L'articolo Come ti riconosco un LLM in 7 personaggi su Contropiano.
L’arma MOSAIC dell’AIEA: spionaggio predittivo e guerra all’Iran
Kit Klarenberg è un giornalista britannico che ha prodotto varie inchieste di spessore sull’Ucraina e sul complesso quadro mediorientale. Per questo, è finito nel mirino della repressione della corona di Londra, secondo la quale non è possibile criticare gli indirizzi di politica estera del Regno Unito, degli Stati Uniti e […] L'articolo L’arma MOSAIC dell’AIEA: spionaggio predittivo e guerra all’Iran su Contropiano.