Tag - internet

“Siate meccanici, siate luddisti”: così si resiste al tecnocapitalismo
Immagine in evidenza: Jathan Sadowski, credits: Jathan Sadowski Vivere le tecnologie come se fossero qualcosa caduta dall’alto ci rende passivi e ci limita a considerare “cosa fanno” senza concentrarci sul “perché lo fanno”. È il tema centrale del libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, scritto dal ricercatore americano Jathan Sadowski, i cui studi si concentrano sulle  dinamiche di potere e profitto connesse all’innovazione tecnologica.  CHI È JATHAN SADOWSKI Senior lecturer presso la Monash University di Melbourne (Australia), è esperto di economia politica e teoria sociale della tecnologia. Oltre al libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, nel 2020 Sadowski ha pubblicato il libro Too Smart – How Digital Capitalism is Extracting Data, Controlling Our Lives, and Taking Over the World. Inoltre conduce il podcast This Machine Kills insieme a Edward Ongweso Jr. È anche autore e co-autore di diversi studi che indagano le conseguenze della tecnologia e della datificazione. L’ERA DEL CAPITALISMO TECNOLOGICO Jathan Sadowski parte da alcuni presupposti. Il primo vuole che tecnologia e capitalismo non siano forze separate ma che si rafforzino in modo reciproco, con le persone relegate al ruolo di osservatori passivi, senza valutarne le ricadute politiche, economiche e sociali. Il secondo presupposto vuole le tecnologie come forma di legislazione che crei regole, definisca diritti, stabilisca cosa è consentito e – a monte – delinei il tipo di società in cui viviamo. Con un impatto anche sul mondo fisico. I magazzini automatizzati sono ambienti costruiti per i robot e non per l’uomo, le strade su cui viaggiano le automobili a guida autonoma sono pensate per quel tipo di veicolo e, ancora, qualsiasi tecnologia futura avrà bisogno di un ambiente fisico adeguato e inedito. Per definire il capitalismo tecnologico, Sadowski fa riferimento a un’idea ampia che si sofferma sugli algoritmi discriminatori, sulle piattaforme che trattano i dati degli utenti, anche i più sensibili, e sulle Big Tech che stipulano ricchi contratti con corpi militari. Tutto ciò porta in superficie le connessioni tra tecnologia e potere, così come mette in risalto la natura politica e le ricadute economico-sociali delle tecnologie. Ciò che andrebbe osservato, e questo è un punto centrale nella narrazione di Sadowski, è il contesto nel quale alcune innovazioni vengono incentivate e altre scartate. Il ruolo dei venture capitalist nell’innovazione capitalista I venture capitalist, investitori privati che finanziano imprese in cambio di quote societarie, definiscono l’innovazione in base a ciò che si adatta ai rispettivi portafogli di investimento e allineano il progresso ai loro obiettivi di profitto. Un modello – critica l’autore – sostenuto da sussidi governativi e agevolazioni fiscali e incentrato sull’ipercrescita (hypergrowth), selezionando startup e tecnologie che possono scalare e dominare il mercato esponenzialmente in breve tempo. Per Sadowski la Silicon Valley siede al tavolo della roulette, decide su quale numero si fermerà la pallina e decide quanto scommettere. Può capitare che la mano non sia vincente ma – sul lungo periodo e sulla quantità di mani giocate – il saldo per i venture capitalist è sempre positivo.   Anche quando il mercato crolla, i venture capitalist al vertice sono in gran parte immuni dai rischi e ottengono comunque profitti significativi. Questo processo crea un “realismo dell’innovazione”, al cui interno il venture capital sembra l’unica via praticabile per sostenere l’innovazione. Dati come capitale e la politica della datificazione L’autore sostiene che le metafore popolari quali “i dati sono il nuovo petrolio” oscurano la vera natura dei dati, che non sono una risorsa naturale, ma sono sempre manufatti. Le aziende inquadrano i dati come una risorsa preziosa, disponibile universalmente e soggetta alle dinamiche di mercato, ma ciò vale solo per quelle imprese che possiedono le tecnologie speciali per scoprirli, estrarli, elaborarli e capitalizzarli. I dati sono una forma di capitale essenziale per la produzione, estrazione e circolazione del valore nei sistemi digitali. Questo spinge le aziende a creare e catturare quanti più dati possibile, da tutte le fonti e con ogni mezzo.  Le acquisizioni aziendali, come l’acquisto di DoubleClick da parte di Google, LinkedIn da parte di Microsoft, WhatsApp da parte di Facebook (ora Meta, ndr) e OneMedical da parte di Amazon, sono spesso fusioni di dati. Una smania per la datificazione che trasforma le persone in dati. Ciò trova conferma, secondo l’autore, per esempio nella ricerca sulla visione artificiale che tende a categorizzare gli esseri umani al pari di oggetti da rilevare, identificare e tracciare, spogliandoli così del loro contesto sociale e della loro umanità. Un’astrazione che fa cadere eventuali resistenze etiche in chi implementa tecnologie di sorveglianza e giustifica – seppure indirettamente – la creazione di oligopoli che trovano forma nelle Big Tech, organizzazioni che fondano le rispettive potenze sui dati, sulla capacità computazionale e sul loro peso geopolitico che le mette in condizione di presentare le tecnologie prodotte al pari di asset strategici nazionali. Il ruolo dei “meccanici” e dei “luddisti” Per il professor Sadowski le parole “mechanic” e “luddite” sono da intendere in un contesto critico. Entrambi, in senso metaforico, incarnano un modo di vivere il capitalismo tecnologico. I “mechanic”, i meccanici, sono le persone che coltivano curiosità su come il mondo funziona, mentre i “luddite” (i luddisti) hanno posizioni più consapevoli delle funzioni intrinseche della tecnologia.  Il termine luddista prende origine dal movimento nato nel Regno Unito durante i primi anni del 1800 che, preoccupato dagli impatti dei macchinari industriali sul lavoro degli artigiani, ha ingaggiato una lotta contro le fabbriche, accusandole di peggiorare le condizioni di vita.  Tanto all’epoca quanto oggi, i luddisti non sono refrattari alle tecnologie in quanto tali ma alle loro implicazioni. Il luddismo odierno è un movimento molto più complesso di quello che, nel XIX secolo, il governo britannico ha represso con la violenza e con leggi ad hoc. In sintesi, il meccanico comprende come funziona un sistema, mentre il luddista sa perché è stato costruito, a quali scopi serve e quando dovrebbe essere smantellato o distrutto. Entrambi i modelli, sostiene Sadowski, sono cruciali per una critica puntuale del tecno-capitalismo.  INTERVISTA CON L’AUTORE Abbiamo approfondito queste posizioni con l’autore del libro. Nel libro emerge un panorama in cui le tecnologie sono sempre più opache (il fenomeno della “scatola nera”), complesse e dominate da interessi aziendali e statali che limitano l’agire umano. Si tratta di uno sviluppo contemporaneo o di un modello ricorrente? “L’idea delle tecnologie come una ‘scatola nera’ esiste da tempo ed è stata a lungo rilevante. È un modello ricorrente nel modo in cui le tecnologie sono progettate e utilizzate. Una scatola nera in cui possiamo vedere gli input e gli output di una tecnologia, di un sistema o di un’organizzazione, ma non possiamo vedere o capire come la cosa effettivamente operi. Se mai, la scatola è diventata semplicemente più opaca col passare del tempo. Che si tratti di intelligenza artificiale o di strumenti finanziari, i meccanismi interni di questi sistemi, che hanno un enorme potere nella società, sono schermati da strati di opacità. Certo, questi sistemi astratti sono complessi, ma sono anche mistificati per design. Ci viene detto che solo pochi eletti sanno come sono stati creati, e ancora meno sanno come effettivamente funzionino. Il risultato è che alla grande maggioranza delle persone viene impedito di conquistare la posizione minacciosa di sapere come le cose funzionano, dire di no al modo in cui funzionano ora e poi pretendere che funzionino diversamente. Consideriamo un modello di machine learning che sta alla base di un sistema di AI. Ora non possiamo nemmeno vedere o comprendere gli input che entrano nel modello perché si tratta di dataset enormi raccolti tramite scraping automatico del web e altre forme di raccolta dati. Nessun essere umano ha mai effettivamente spulciato questi dataset nella loro interezza. Forse qualcuno ha visto solo parti dei dati, o ha solo un’idea generale di che tipo di dati siano inclusi nel dataset. Ma, funzionalmente, il dataset (o input nel sistema) è anch’esso una scatola nera. Le operazioni del modello di machine learning sono anch’esse ‘black-boxed’ poiché questi sistemi computazionali hanno strati nascosti di calcoli probabilistici in cui neppure il creatore della tecnologia sa esattamente cosa stia succedendo. Per di più, persino gli output di questi sistemi sono ora scatole nere: le decisioni prese da questi sistemi di AI e, le loro conseguenze sulla vita delle persone, sono nascoste alla vista del pubblico.  Un decennio fa (era il 2016, nda), il giurista Frank Pasquale scrisse un eccellente libro intitolato The Black Box Society in cui spiegava come le scatole nere si stiano moltiplicando nelle nostre vite grazie a modi tecnici, legali, politici e sociali. Le scatole nere mantengono nascoste le operazioni di questi sistemi.  Quindi, sebbene il fenomeno delle tecnologie a scatola nera sia un modello ricorrente, possiamo sempre più vedere come quelle scatole stanno ora diventando ancora più grandi, inglobando più parti del sistema”. Parliamo dei venture capitalist che plasmano il capitalismo tecnologico anche gonfiando in modo artificioso gli asset speculativi. Come possiamo spezzare questo ciclo dell’hype? Cosa servirebbe per orientare l’innovazione verso il benessere sociale piuttosto che verso l’accumulazione di capitale? “Le nostre aspettative sul futuro sono molto importanti per influenzare dove allocare le risorse e per modellare come e perché costruiamo le tecnologie. Le aspettative sono anche performative del futuro. Andrebbero pensate come prove generali per futuri potenziali che non sono ancora arrivati. Le nostre aspettative creano anticipazione riguardo al futuro e possono aiutare a motivare l’azione nel presente. È per questo che la Silicon Valley spende così tanto tempo e denaro cercando di modellare le nostre aspettative in modi molto specifici che si allineano ai loro desideri e favoriscono i loro interessi. Ecco cosa sono i cicli dell’hype: sono il business della gestione delle aspettative. Gli investimenti speculativi – come quelli che sono la specialità dei venture capitalist e degli imprenditori tecnologici – dipendono dall’hype, dal creare aspettative e motivare all’azione. Questa speculazione è un modo di ricavare valore e profitto da cose che non sono ancora accadute e che potrebbero non accadere mai. Il futuro potrebbe sempre non materializzarsi nel modo in cui la Silicon Valley lo immagina, ma proprio questa incertezza è un elemento cruciale della performance. Significa che la partecipazione del pubblico è necessaria. Nel mio libro chiamo questo il Tinkerbell Effect: le tecnologie speculative esistono solo se ci crediamo abbastanza e battiamo le mani abbastanza forte. Se smettiamo di crederci e smettiamo di applaudire, allora possono cominciare a svanire, diventando sempre più immateriali fino a sparire. Anche investire miliardi di dollari non garantisce la realizzazione di un sogno se le persone smettono di alimentarlo con la loro energia psichica. Gli esempi ci sono, si chiamano Metaverso (un ricordo lontano), Web3 oppure Google Glass (in realtà mai visti davvero sul mercato). Questa natura effimera dell’hype è anche un punto chiave di intervento. Attualmente, molti dei benefici della tecnologia avvengono in modo accidentale e ‘a cascata’. Il loro scopo principale è catturare mercati e creare profitti per grandi aziende. Ci viene detto che questo è l’unico modo possibile e che non dovremmo aspettarci nulla di diverso o migliore. Ma potremmo fare molta strada per orientare l’innovazione in direzioni diverse semplicemente avendo aspettative più alte su come le tecnologie vengono create e a quali scopi servono”. I dati tendono a ridurre le persone a oggetti. Questo processo, intrinseco ai sistemi di intelligenza artificiale, è oggi estremamente rilevante. Quali interventi politici e sociali ritiene necessari per garantire che le tecnologie basate sui dati vengano sviluppate in modi che rispettino la dignità umana? A suo avviso, quali aspetti del capitale umano dovrebbero rimanere al di fuori della portata della datificazione? “Le nuove tecnologie possono catturare quantità di dati così vaste da risultare incomprensibili, ma quei dati sul mondo resteranno sempre incompleti. Nessun sensore o sistema di scraping può assorbire e registrare dati su tutto. Ogni sensore, invece, è progettato per raccogliere dati su aspetti iper-specifici. Ciò può sembrare banale, come un termometro che può restituire un numero sulla temperatura, ma non può dirti che cosa si provi davvero con quel clima. Oppure può essere più significativo, come un algoritmo di riconoscimento facciale che può identificare la geometria di un volto, ma non può cogliere l’umanità soggettiva e il contesto sociale della persona. I dati non potranno mai rappresentare ogni fibra dell’essere di un individuo, né rendere conto di ogni sfumatura della sua vita complessa.  Ma non è questo lo scopo né il valore dei dati. Il punto è trasformare soggetti umani integrati in oggetti di dati frammentati. Infatti, ci sono sistemi che hanno l’obiettivo di conoscerci in modo inquietante e invasivo, di assemblare questi dati e usarli per alimentare algoritmi di targeting iper-personalizzati. Se questi sistemi non stanno cercando di comporre un nostro profilo completo e accurato possibile, allora qual è lo scopo? Ecco però un punto importante: chi estrae dati non si interessa a noi come individui isolati, ma come collettivi relazionali. I nostri modi di pensare la raccolta e l’analisi dei dati tendono a basarsi su idee molto dirette e individualistiche di sorveglianza e informazione.  Ma oggi dobbiamo aggiornare il nostro modo di pensare la datificazione – e le possibili forme di intervento sociopolitico in questi sistemi guidati dai dati – per includere ciò che la giurista Salomé Viljoen chiama ‘relazioni “orizzontali’, che non si collocano a livello individuale, ma a scala di popolazione. Si tratta di flussi di dati che collegano molte persone, scorrono attraverso le reti in modi tali che le fonti, i raccoglitori, gli utilizzatori e le conseguenze dei dati si mescolano in forme impossibili da tracciare se continuiamo a ragionare in termini di relazioni più dirette e individualistiche.  Nel libro spiego che questa realtà delle reti di dati orizzontali indebolisce l’efficacia di interventi troppo concentrati sulla scala dei diritti individuali, piuttosto che sulla giustizia collettiva. Se vogliamo salvaguardare la dignità umana contro la datificazione disumanizzante, allora possiamo farlo solo riconoscendo come i diritti e la sicurezza di tutti i gruppi siano interconnessi attraverso queste reti guidate dai dati. In altre parole, la dignità e la sicurezza di un gruppo di persone colpite da sorveglianza e automazione è legata alla dignità e alla sicurezza di tutte le persone all’interno di questi vasti sistemi sociotecnici che letteralmente connettono ciascuno di noi”. Nel libro esprime il concetto di “AI Potemkin” per descrivere l’illusione di un’automazione che in realtà nasconde enormi quantità di lavoro umano. Un inganno per utenti, investitori e opinione pubblica: che cosa è esattamente questa illusione? “Ci sono tantissime affermazioni altisonanti sulle capacità dei sistemi di intelligenza artificiale. Ci viene fatto credere che queste tecnologie ‘intelligenti’ funzionino unicamente grazie ai loro enormi dataset e alle reti neurali.  In realtà, molte di queste tecnologie non funzionano – e non possono funzionare – nel modo in cui i loro sostenitori dichiarano. La tecnologia non è abbastanza avanzata. Al contrario, molti sistemi dipendono pesantemente dal lavoro umano per colmare le lacune delle loro capacità. In altre parole, il lavoro cognitivo che è essenziale per queste presunte macchine pensanti, proviene in realtà da uffici pieni di lavoratori (mal retribuiti) in popolari destinazioni di outsourcing come le Filippine, l’India o il Kenya. Ci sono stati diversi esempi di alto profilo, come la startup Builder.AI, che affermava di automatizzare il processo di creazione di app e siti web. Un’indagine ha rivelato che il sofisticato ‘sistema di AI’ della startup sostenuta da Microsoft e valutata 1,5 miliardi di dollari  era in realtà alimentato da centinaia di ingegneri software in India, istruiti a fingersi l’AI della società quando interagivano con i clienti. Esempi come questo sono così frequenti che ho coniato il termine AI Potemkin per descriverli. Potemkin si riferisce a una facciata progettata per nascondere la realtà di una situazione (da il villaggio Potemkin, ndr). L’AI Potemkin è collegata al concetto di ‘black boxing’, ma spinge l’occultamento fino alla vera e propria ingannevolezza. Lo scopo non è solo nascondere la realtà, ma mentire sulla realtà delle capacità di una tecnologia, per poter affermare che un sistema sia più potente e prezioso di quanto non sia in realtà. Invece di riconoscere e valorizzare pienamente il lavoro umano, da cui queste tecnologie dipendono, le aziende possono continuare a ignorare e svalutare i componenti umani indispensabili dei loro sistemi. Con così tanti soldi e così poco scetticismo che vengono pompati nel settore tecnologico, l’inganno dell’AI Potemkin continua a crescere a ogni nuovo ciclo di hype della Silicon Valley”. Per concludere, il capitale può eliminare il lavoro umano senza finire, alla lunga, per distruggere sé stesso? “Il capitalismo è un sistema definito da molte contraddizioni che minacciano costantemente di distruggerne le fondamenta e lo gettano di continuo in cicli di crisi. Una contraddizione importante che individuo nel libro è la ricerca del capitale di costruire quella che chiamo la ‘macchina del valore perpetuo’. In breve, questa macchina sarebbe un modo per creare e catturare una quantità infinita di plusvalore senza dover dipendere dal lavoro umano per produrlo. Il capitale persegue questa ricerca da centinaia di anni. Ha motivato enormi quantità di investimenti e innovazioni, nonostante non si sia mai avvicinato a realizzare davvero il sogno di produrre plusvalore senza le persone. Ciò che rende questa una contraddizione è il fatto che gli esseri umani non sono una componente accessoria della produzione di valore; il lavoro umano è parte integrante della produzione di plusvalore. L’AI è l’ultimo – e forse il più grande – tentativo di creare finalmente una macchina del valore perpetuo. Gran parte del discorso sull’automazione, e ora sull’intelligenza artificiale, si concentra sulle affermazioni secondo cui il lavoro umano verrà sostituito da lavoratori robotici, con l’assunzione che si tratti di una sostituzione diretta dei corpi organici con sistemi artificiali, entrambi intenti a fare esattamente la stessa cosa, solo in modi diversi e con intensità diverse. Tuttavia, a un livello fondamentale, l’idea di una macchina del valore perpetuo non può riuscire, perché si basa su un fraintendimento del rapporto tra la produzione di valore e il funzionamento della tecnologia. Il capitale equipara una relazione – gli esseri umani che usano strumenti per produrre valore – a un’altra relazione completamente diversa: gli strumenti che producono valore (con o senza esseri umani). Dal punto di vista del capitale, il problema degli esseri umani è che non sono macchine. Aziende come Amazon non vogliono rinunciare alla fantasia di una macchina del valore perpetuo, ma sanno anche che ci sono molte più alternative che sostituire direttamente gli uomini con le macchine: si possono anche gestire i lavoratori tramite le macchine, renderli subordinati alle macchine e, in ultima analisi, farli diventare sempre più simili a macchine. Questo è un punto cruciale per ripensare il potere dell’AI per il capitalismo e per capire perché le aziende stanno riversando più di mille miliardi di dollari nella costruzione dell’AI. Ai loro occhi, il futuro del capitalismo dipende dall’uso dell’AI per sostituire gli esseri umani come unica fonte di plusvalore o, se questo obiettivo fallisse, dall’obbligare i lavoratori a trasformarsi in oggetti, semplici estensioni delle macchine, costringendo le persone a diventare sempre più meccaniche nel modo in cui lavorano e vivono”. L'articolo “Siate meccanici, siate luddisti”: così si resiste al tecnocapitalismo proviene da Guerre di Rete.
Sorveglianza in Iran: fuori e dentro la rete
Immagine in evidenza: proteste ad Ottawa da Wikimedia Iran: il 15 marzo, durante una cerimonia a cui ha partecipato il vicepresidente iraniano per la Scienza e la Tecnologia, Hossein Afshin, la Repubblica islamica ha presentato la sua prima piattaforma nazionale di intelligenza artificiale. Una piattaforma, la cui versione finale dovrebbe essere lanciata nel marzo 2026, basata su una tecnologia open source e su un’infrastruttura nazionale che ne garantisce l’operatività anche durante le interruzioni di internet. La piattaforma include funzionalità di base come la visione artificiale, l’elaborazione del linguaggio naturale e il riconoscimento vocale e facciale. Partner chiave della nuova piattaforma è l’Università Sharif, ente sanzionato dall’Unione Europea e da altri Paesi per il suo coinvolgimento in progetti militari e missilistici, e per intrattenere rapporti con il Corpo delle Guardie Rivoluzionarie Islamiche (IRGC), o pasdaran. Il lancio di questa piattaforma giunge esattamente il giorno dopo la pubblicazione del documento delle Nazioni Unite intitolato Report of the independent international fact-finding mission on the Islamic Republic of Iran, presentato al Consiglio dei diritti umani a Ginevra il 18 marzo scorso. Il rapporto, pubblicato dopo due anni di indagini indipendenti che hanno incluso interviste a circa 285 vittime e testimoni e l’analisi di oltre 38.000 prove, rivela come le autorità iraniane, dalla fine del 2022 a oggi, abbiano intensificato l’utilizzo di sistemi di videosorveglianza, droni aerei, applicazioni informatiche e software di riconoscimento facciale per monitorare la condotta dei cittadini, in particolare delle donne e il loro uso dello hijab.  Una “condotta persecutoria verso le donne”, così viene definita nel testo, la cui fase cruciale è coincisa con l’approvazione del piano Noor, lanciato nell’aprile 2024 dal Comando di Polizia della Repubblica Islamica dell’Iran (FARAJA), teso a inasprire ulteriormente le pene per chi violava la legge sull’obbligo di indossare lo hijab. E proprio in questa occasione la Repubblica islamica ha fatto ricorso all’uso dell’applicazione mobile Nazer. NAZER, “L’HIJAB MONITOR” DELLA REPUBBLICA ISLAMICA Nazer è una parola persiana che significa “supervisore” o “sorvegliante”. L’applicazione, riferisce uno studio di Filter Watch (progetto del Gruppo Miaan, organizzazione che lavora per sostenere la libertà di internet e il libero flusso di informazioni in Iran e nel Medio Oriente), funziona esclusivamente sulla National Information Network (NIN), una intranet controllata dallo Stato modellata sul Great Firewall cinese e sul RuNet russo, che mira a isolare l’internet nazionale dalla rete globale. Nazer è accessibile sul sito web della polizia e sul canale Eitaa, un’app di messaggistica domestica. Prima di poter utilizzare Nazer, i potenziali utenti e il loro dispositivo devono essere approvati dalla polizia FARAJA. Lo scopo di questa app è quello di segnalare alla polizia le donne che all’interno delle auto non indossano lo hijab in modo appropriato. La trasgressione può essere comunicata inserendo nell’app la posizione del veicolo, la data, l’ora e il numero di targa, dopodiché partirà in tempo reale un messaggio di testo alla polizia, segnalando così il veicolo. “In Nazer non è presente una tecnologia di riconoscimento facciale, e l’app non è progettata per scattare foto di volti. È possibile però scattare foto delle targhe”, riporta lo studio di Filter Watch. A settembre 2024, riferisce un nuovo report di Filter Watch, Nazer è stata aggiornata per consentire il monitoraggio delle donne presenti in ambulanza, sui mezzi pubblici o sui taxi, suggerendo come per i funzionari governativi l’applicazione delle leggi sull’hijab siano una priorità rispetto a un’emergenza medica. L’app è inoltre dotata di nuove funzioni che in futuro potrebbero essere usate per segnalare altri tipi di violazioni, come persone che protestano, che consumano alcolici, che mangiano o bevono in pubblico durante il Ramadan, e comportamenti considerati contrari alla “moralità pubblica”. Una volta che l’auto viene segnalata, la polizia procede inviando un SMS di avvertimento al proprietario. Qualora la violazione venisse ripetuta una seconda volta, l’auto verrà sequestrata elettronicamente. Alla terza infrazione sarà sequestrata sul posto e successivamente, alla quarta infrazione, sequestrata nei parcheggi designati dalla polizia.  Ottenere dati precisi sul numero delle auto confiscate non è semplice, a causa della pesante censura che vige nella Repubblica Islamica. Si parla comunque di migliaia di veicoli sequestrati in questi mesi. A riferirlo è un recentissimo articolo apparso su Etemad, giornale riformista. L’avvocato Mohsen Borhani, sentito da Etemad, ha denunciato come questi sequestri siano illegali. Borhani ha ribadito che non ci sono statistiche esatte sul numero di sanzioni effettuate, ma sulla base delle dichiarazioni di alcuni funzionari e delle indagini sul campo afferma che a migliaia di cittadini sia stata sequestrata l’auto.  LA VIDEOSORVEGLIANZA, UN’ARMA DI REPRESSIONE Oltre l’uso di applicazioni informatiche, la Repubblica islamica ha in questi ultimi mesi inasprito l’utilizzo dei sistemi di videosorveglianza. In ottobre, sulla scia dell’approvazione della Legge a sostegno della famiglia attraverso la promozione della cultura dell’hijab e della castità, legge pubblicata il 30 novembre ma poi sospesa, è stato lanciato un nuovo sistema di videosorveglianza chiamato Saptam. La funzione di Saptam è monitorare gli spazi pubblici, in particolare gli esercizi commerciali.  Questo sistema, creato in collaborazione con la polizia locale, collega le telecamere installate nei negozi ai server cloud gestiti dal sistema nazionale di telecomunicazioni, consentendo alla polizia locale di accedere ai filmati registrati. L’implementazione del sistema Saptam, riferisce Iran News Update, ha coinvolto inizialmente 39 aziende e circa 280 gruppi commerciali. Sebbene l’introduzione di questo nuovo sistema sia stata giustificata per contrastare reati, per esempio le rapine, molti temono che questa installazione venga utilizzata anche per reprimere il dissenso e monitorare l’abbigliamento delle donne.  Alireza, direttore di una piccola azienda, ha riferito a Iran International: “Non passerà molto tempo prima che installino tali sistemi di sicurezza, o meglio strumenti di controllo statale, in tutte le aziende per far rispettare l’uso dello hijab. Le mie dipendenti non sono tenute a indossare l’hijab nei nostri uffici, ma questo non sarà più possibile se consentiremo alla polizia di accedere alle nostre telecamere, perché potrebbero chiuderci”. Mentre Saeed Souzangar, attivista per i diritti digitali, in un post su X ha denunciato: “Il prossimo passo del regime sarà installare telecamere nelle nostre case. Le aziende devono resistere a questi piani abominevoli invece di arrendersi”.  La repressione attraverso apparati tecnologici non si è arrestata: tutt’altro. A dicembre, Nader Yar Ahmadi – consigliere del ministro dell’Interno e capo del Centro per gli Affari degli Stranieri e degli Immigrati del ministero dell’Interno – ha dichiarato a l’Irna, agenzia di stampa statale, che il ministero dell’Interno utilizzerà test biometrici per individuare i cittadini illegali. Questo metodo è stato adoperato dalle autorità iraniane soprattutto per contrastare l’immigrazione proveniente dall’Afghanistan. Quanto finora esposto conferma che nonostante il cambio di governo avvenuto a seguito della morte del presidente Raisi, il nuovo presidente, Masoud Pezeshkian, eletto a luglio, ha continuato ad attuare una pesante e sistematica repressione verso i cittadini e le cittadine, oltre che un vigilantismo informatico e tecnologico sponsorizzato dallo Stato. IL CONTROLLO NELLO SPAZIO DIGITALE E L’USO DELLE VPN La repressione perpetuata dalla Repubblica islamica non si limita agli spazi fisici, ma include anche un controllo sistematico dello spazio digitale. “Dopo aver imposto blocchi a internet durante le proteste e aver sviluppato la propria National Internet Network, lo Stato ha continuato a limitare l’uso di applicazioni mobili impegnandosi in una sorveglianza diffusa. Questi strumenti non sono stati utilizzati solo per restringere la libertà di opinione ed espressione, ma anche per monitorare e prendere di mira i cittadini, tra cui attivisti e giornalisti, oltre che per intimidire, soffocare il dissenso e mettere a tacere le opinioni critiche”, informa il report UN.  Le autorità iraniane hanno varato specifiche misure per impedire ai cittadini di comunicare liberamente e poter accedere a contenuti non sottoposti a censura. Nel febbraio 2024, il Consiglio supremo del cyberspazio ha per esempio vietato l’uso senza un permesso legale delle VPN (reti private virtuali). Una mossa che è servita al governo per aumentare la propria sorveglianza interna, consentendogli di raccogliere informazioni sugli utenti, nonché di tracciare le loro comunicazioni via internet e le loro attività online. Ciò è stato reso possibile anche perché, al posto delle VPN, gli utenti iraniani sono stati costretti, se volevano usufruire di piattaforme straniere, a usare proxy nazionali approvati dallo Stato, riferisce sempre il report. Per servizi essenziali, come quelli bancari, ai cittadini è stato imposto di adoperare solo app locali. Le VPN in Iran sono diventate necessarie per poter accedere ai social e a contenuti bloccati. Senza le VPN, i cittadini e le cittadine iraniane non avrebbero potuto divulgare le immagini delle proteste connesse al movimento rivoluzionario “Donna, Vita, Libertà”, denunciando così gli attacchi violenti della polizia e delle guardie rivoluzionarie contro i manifestanti, e nemmeno esprimere dissenso e coordinare le proteste. A voler aggirare il filtraggio attuato dal regime sono però anche i proprietari di piccole imprese, letteralmente paralizzate dalle riduzioni quotidiane della velocità di internet e dai contenuti bloccati.  Nonostante il 24 dicembre scorso il Consiglio Supremo del Cyberspazio abbia revocato le restrizioni per WhatsApp e Google Play, l’Iran è tra i paesi meno liberi al mondo per quanto riguarda i diritti digitali, e la rincorsa a sistemi alternativi lo conferma. Oltre alle VPN, in Iran un altro metodo per aggirare la censura è Starlink. STARLINK: UN ALTRO METODO PER AGGIRARE LA CENSURA Starlink, sviluppato da SpaceX e di proprietà del miliardario Elon Musk, è vietato in Iran. Da quando però, sul finire del 2022, gli Stati Uniti hanno revocato alcune restrizioni all’esportazione di servizi internet satellitari, Starlink è stato disponibile per migliaia di persone nella Repubblica islamica. Lunedì 6 gennaio 2025, riporta l’agenzia di stampa ILNA, Pouya Pirhoseinlou, capo del Comitato Internet dell’E-Commerce Association, ha dichiarato che in Iran sono oltre 30.000 gli utenti che utilizzano Starlink. Ciò significa che molto probabilmente si assisterà a un’ulteriore crescita dell’uso di questa tecnologia in futuro. L’accesso illimitato e ad alta velocità (qualità perlopiù assenti nell’internet nazionale iraniano) ha incrementato l’uso sottobanco di Starlink, scriveva Newsweek a gennaio. L’internet satellitare, non necessitando di server nazionali e di transitare per la rete iraniana, funziona in modo indipendente, consentendo agli utenti di accedere ai contenuti e ai siti web oscurati, impedendo inoltre alle autorità di tracciare gli utenti e di monitorare le loro azioni nel cyberspazio. Parlando dell’uso di Starlink in Iran non si può non menzionare l’ordine di acquisto da parte dell’Unità di Crisi italiana – struttura del ministero degli Affari esteri e della Cooperazione internazionale – di 2 antenne e 10 abbonamenti da 50 giga di Starlink da destinare all’ambasciata italiana a Teheran. A comunicarlo è un’inchiesta dell’Espresso pubblicata il 14 Gennaio 2025. Nel documento, riportato nell’inchiesta, si legge che l’acquisto è avvenuto “al fine di assicurare la possibilità alla nostra ambasciata di mantenere attivi i collegamenti internet nel caso di interruzione delle comunicazioni terrestri” .  “La procedura prevede che le antenne vengano attivate solo per testarne il funzionamento e siano poi sospese con l’obiettivo di riattivarle solo ove si rendesse necessario”, ha riferito il ministro per i Rapporti con il Parlamento, Luca Ciriani, rispondendo a un’interrogazione in Senato sul sistema satellitare Starlink. Nella medesima interrogazione del 13 marzo, Ciriani ha inoltre comunicato: “Sono state avviate alcune sperimentazioni con i sistemi satellitari Starlink presso le sedi diplomatiche in Burkina Faso, in Bangladesh, in Libano e in Iran, che dunque sono state dotate di antenne Starlink, anche se nessuna a oggi è attiva”. L'articolo Sorveglianza in Iran: fuori e dentro la rete proviene da Guerre di Rete.