Tag - internet

Perché è così difficile fermare i deepnude
È il dicembre 2017 quando la giornalista statunitense Samantha Cole scova sul forum Reddit il primo deepfake che gira in rete. È un video che riproduce l’attrice e modella israeliana Gal Gadot mentre ha un rapporto sessuale. Le immagini non sono precise, il volto non sempre combacia con il corpo e, quando si mette in play, il video genera il cosiddetto effetto uncanny valley, ovvero quella sensazione di disagio che si prova quando si osserva un robot con caratteristiche umane non del tutto realistiche. Come racconta Cole nell’articolo, “deepfakes” – questo il nome dell’utente – continuerà a pubblicare altri video generati con l’intelligenza artificiale e manipolati con contenuti espliciti: una volta con il volto di Scarlett Johansson, un’altra con quello di Taylor Swift. Il fatto che siano persone famose permette di avere più materiale fotografico e video da “dare in pasto” allo strumento e ottenere così un risultato il più possibile verosimile. Ma l’essere note al grande pubblico non è il solo tratto che le accomuna: tutte le persone colpite da deepfake sono donne, e tutte vengono spogliate e riprodotte in pose sessualmente esplicite senza esserne a conoscenza, e quindi senza aver dato il proprio consenso. In appena qualche anno, i deepfake sessuali – anche noti come deepnude – sono diventati un fenomeno in preoccupante espansione in tutto il mondo. Senza più quelle “imprecisioni” che li caratterizzavano ancora nel 2017, oggi riescono a manipolare l’immagine a partire da una sola foto. Anche in Italia se ne parla sempre più frequentemente, come dimostra la recente denuncia di Francesca Barra. Il 26 ottobre, la giornalista e conduttrice televisiva ha scritto un lungo post su Instagram dove racconta di aver scoperto che alcune immagini di lei nuda, generate con l’intelligenza artificiale, circolano da tempo su un sito dedicato esclusivamente alla condivisione di immagini pornografiche rubate o manipolate con l’IA. “È una violenza e un abuso che marchia la dignità, la reputazione e la fiducia”, ha scritto nel post Barra, che si è detta preoccupata per tutte quelle ragazze che subiscono la stessa violenza e che magari non hanno gli stessi strumenti per difendersi o reagire. I CASI NEI LICEI ITALIANI In effetti, casi analoghi sono già scoppiati in diversi licei in tutta Italia. A inizio anno, quattro studentesse di un liceo scientifico di Roma hanno ricevuto foto prese dai loro account Instagram in cui apparivano completamente nude. A manipolare le immagini è stato un loro compagno di classe, a cui è bastato caricare le foto su un bot su Telegram che in pochi istanti ha “spogliato” le ragazze. La Procura di Cosenza starebbe invece indagando su un altro caso che, secondo le cronache locali, arriverebbe a coinvolgere quasi 200 minorenni per un totale di 1200 deepnude. La dinamica è sempre la stessa: attraverso bot Telegram e strumenti online, studenti maschi hanno manipolato le foto delle loro compagne di classe. Secondo un’analisi condotta nel 2023, il 98% dei deepfake online registrati quell’anno (95.820) era a contenuto sessuale. Nel 99% di questi, la persona colpita era donna. Insomma, già quel primo video su Reddit preannunciava un utilizzo di questi strumenti volto quasi esclusivamente a quello che, in inglese, è stato inquadrato come image-based sexual abuse (IBSA), un abuso sessuale condotto attraverso l’immagine. “Intorno alla violenza digitale rimane sempre un po’ il mito che sia in qualche modo meno reale rispetto alla violenza fisica. Ma non è affatto così”, spiega a Guerre di Rete Silvia Semenzin, ricercatrice in sociologia digitale all’università Complutense di Madrid. “Le vittime di deepfake subiscono le stesse identiche conseguenze delle vittime di condivisione di materiale sessuale non consensuale. Quasi sempre, la violenza è continuativa e intrecciata nelle sue varie declinazioni, quindi alle molestie, allo stalking, ecc. A mio avviso, con i deepfake si entra in una fase della violenza in cui diventa anche più manifesta la volontà di controllo sul corpo femminile. Perché le radici del fenomeno sono di tipo culturale e affondano sempre nella volontà di sopraffazione del soggetto femminile da parte degli uomini, in questo caso attraverso l’utilizzo della tecnologia”. LA COMPLICITÀ DELLE PIATTAFORME I canali su cui vengono generati e diffusi maggiormente i deepfake sessuali sono generalmente siti anonimizzati che sfruttano hosting offshore e che non rispondono alle richieste legali di altri stati. Quello su cui Francesca Barra e altre donne dello spettacolo hanno scoperto i loro deepfake (di cui non faremo il nome per non dare maggiore visibilità) è attivo già dal 2012, anno di registrazione a New York. Se i contenuti presenti sono sempre materiali espliciti non consensuali, trafugati dai social media o da piattaforme pornografiche come Pornhub e OnlyFans, in cima all’interfaccia utente spiccano invece gli strumenti che permettono di creare con l’intelligenza artificiale la propria “schiava sessuale”. Questa scelta rivela come l’“offerta” all’utente non solo comprenda i deepnude, ma li consideri anche il “prodotto di punta” con cui invogliare all’utilizzo e ampliare la platea di visitatori. Silvia Semenzin e la collega Lucia Bainotti, ricercatrice in sociologia all’Università di Amsterdam, nel 2021 hanno pubblicato un saggio dal titolo Donne tutte puttane, revenge porn e maschilità egemone. Oltre ad anticipare già il tema dei deepfake sessuali, le due autrici in quel testo tracciavano il modo in cui l’architettura dei siti e delle piattaforme su cui vengono diffuse maggiormente immagini sessuali non consensuali possa essere complice dell’abuso fornendone gli strumenti. In particolare, la ricerca era incentrata sui gruppi di persone che condividono materiale non consensuale soprattutto su Telegram, app di messaggistica dove si muovono ancora adesso molti dei bot capaci di spogliare la donna in un solo clic. La possibilità di creare canali con molti utenti, assieme alla facilità di archiviazione nel cloud della stessa piattaforma e alla percezione di agire nell’anonimato sono alcune delle funzioni che garantiscono la continuità delle attività e rendono praticamente impossibile fermare la proliferazione di deepfake e materiale intimo non consensuale. Tutte queste funzionalità socio-tecniche, chiamate affordances (inviti all’uso) possono essere considerate “genderizzate”, perché vengono utilizzate in modo diverso a seconda che l’utente sia uomo o donna, contribuendo così a costruire la propria identità di genere. Per questo motivo – spiegano le due ricercatrici – l’architettura di Telegram può risultare complice nel fornire gli strumenti attraverso cui le violenze di genere vengono messe in pratica e reiterate. Raggiunta da Guerre di Rete, Bainotti spiega quali cambiamenti ha osservato nelle sue ricerche più recenti rispetto all’estensione del fenomeno e al modo in cui piattaforme e siti agevolano la diffusione di questo materiale: “C’è stato sicuramente un aumento consistente nel numero di utenti, per quanto sia difficile tenere traccia del dato preciso (ogni qualvolta viene buttato giù un gruppo se ne apre subito uno speculare). Quello che sicuramente ho riscontrato è che sono aumentati i bot attraverso cui generare i deepfake, e la pubblicità che ruota intorno a questi ‘prodotti’”, racconta Bainotti. “Ci sono dei meccanismi di monetizzazione molto più espliciti e molto più capillari”, prosegue Bainotti. “Spesso per creare un deepfake vengono chiesti pochi centesimi di euro. Questo ci dà un’indicazione del fatto che sono comunque prezzi molto accessibili, che non richiedono un particolare investimento monetario. In più, sono stati messi a punto schemi per coinvolgere più persone e fidelizzare più utenti. Se inviti altri amici, per esempio, ottieni delle monete virtuali per scaricare altri deepfake. Vengono quindi riproposti schemi che avevamo già osservato su Telegram, che incitano a generare immagini di nudo come fosse un gioco (gamification), normalizzando queste pratiche”. X, GOOGLE E NON SOLO: TUTTO ALLA LUCE DEL SOLE Tutto questo non avviene nel darkweb o in qualche meandro della rete, ma alla luce del sole. Google e altri motori di ricerca indirizzano il traffico verso siti che fanno profitto attraverso la generazione di deepfake sessuali che, nelle ricerche, vengono a loro volta indicizzati tra i primi risultati. Allo stesso modo le transazioni avvengono spesso su circuiti internazionali come Visa e Mastercard. Insomma, ogni attore coinvolto contribuisce in una certa misura a facilitare l’abuso. Nell’agosto 2024, a otto mesi di distanza dai deepnude di Taylor Swift diventati virali su X, Google ha annunciato provvedimenti per facilitare le richieste di rimozione di contenuti espliciti non consensuali da parte delle vittime. Anche l’indicizzazione è stata rivista in modo tale che i primi risultati a comparire siano articoli di stampa che trattano l’argomento e non le immagini generate con l’IA. Eppure, una recente analisi dell’organizzazione  anti-estremismo Institute for Strategic Dialogue (ISD) ha dimostrato che il modo più semplice per trovare immagini sessuali non consensuali rimane proprio quello della ricerca su Google, Yahoo, Bing e altri motori di ricerca. Almeno un risultato dei primi venti, infatti, è uno strumento per creare un deepnude. Dall’acquisizione nel 2022 di Elon Musk, anche X è diventato un luogo dove questi strumenti proliferano. Secondo Chiara Puglielli e Anne Craanen, autrici del paper pubblicato da ISD, il social media di proprietà di Musk genererebbe il 70% di tutta l’attività analizzata dalle due ricercatrici, che coinvolge più di 410mila risultati. Risulta problematico anche il form proposto da Google per chiedere la rimozione di un contenuto generato con l’IA: le vittime di image-based sexual abuse devono inserire nel modulo tutti i link che rimandano al contenuto non consensuale. Questo le costringe a tornare sui luoghi in cui si è consumato l’abuso, contribuendo a quella che notoriamente viene definita vittimizzazione secondaria, ovvero la condizione di ulteriore sofferenza a cui sono sottoposte le vittime di violenza di genere per mano di istituzioni ed enti terzi. “Ancora oggi le piattaforme prevedono che sia a onere della vittima ‘procacciarsi’ le prove della violenza e dimostrare che il consenso era assente, quando invece si dovrebbe ragionare al contrario”, spiega ancora Semenzin. “Se denuncio la condivisione di una foto senza il mio consenso, la piattaforma dovrebbe rimuoverla lasciando semmai a chi l’ha pubblicata il compito di dimostrare che il consenso c’era. Questo sarebbe già un cambio di paradigma”. Il Digital Services Act obbliga le piattaforme digitali con più di 45 milioni di utenti ad avere processi efficienti e rapidi per la rimozione di contenuti non consensuali o illegali. A fine ottobre, la Commissione Europea ha aperto delle procedure di infrazione contro Instagram e Facebook per aver aggiunto delle fasi non necessarie – note come dark patterns (modelli oscuri) – nei meccanismi di segnalazione di materiale illecito che potrebbero risultare “confuse e dissuasive” per gli utenti. Meta rischia una sanzione pari al 6% del fatturato annuo mondiale se non si conforma nei tempi dettati dalla Commissione. Più in generale, è stato osservato in più studi che gli algoritmi di molte piattaforme amplificano la visibilità di contenuti misogini e suprematisti. Usando smartphone precedentemente mai utilizzati, tre ricercatrici dell’Università di Dublino hanno seguito ore di video e centinaia di contenuti proposti su TikTok e Youtube Shorts: tutti i nuovi account identificati con il genere maschile hanno ricevuto entro i primi 23 minuti video e immagini anti-femministi e maschilisti. È stato riscontrato inoltre un rapido incremento se l’utente interagiva o mostrava interesse per uno dei contenuti in questione, arrivando a “occupare” la quasi totalità del feed delle due piattaforme. Nell’ultima fase dell’osservazione, il 76% di tutti i video su Tik Tok e il 78% di quelli proposti su YouTube mostravano a quel punto contenuti tossici realizzati da influencer della maschiosfera, il cui volto più noto è sicuramente Andrew Tate, accusato in più paesi di violenza sessuale e tratta di esseri umani. LACUNE LEGALI Dallo scorso 10 ottobre, in Italia è in vigore l’articolo 612 quater che legifera sulla “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. È prevista la reclusione da uno a cinque anni per “chiunque cagioni un danno ingiusto a una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale”. Essendo trascorso poco più di un mese dalla sua entrata in vigore, non si hanno ancora sentenze che facciano giurisprudenza e che mostrino efficacia e limiti della norma. Quello che appare evidente è però che il testo si occupa di tutti i materiali generati con l’IA, senza entrare nello specifico dei casi in cui i contenuti manipolati sono sessualmente espliciti. Non lo fa neanche l’articolo introdotto nel 2019 (612-ter), che seppur formuli il reato di diffusione di immagini intime senza consenso, conosciuto con il termine inappropriato di revenge porn, non amplia il raggio d’azione a quelle manipolate con l’IA.  Come scrive Gian Marco Caletti, ricercatore in scienze giuridiche all’università di Bologna, questa esclusione “è apparsa fin da subito un aspetto critico, poiché nel 2019 era già ampiamente preventivabile l’affermarsi di questo uso distorto dell’intelligenza artificiale”. La lacuna della legge del 2019 sembrava destinata a essere sanata grazie alla Direttiva europea sulla violenza di genere del 2024, che obbliga gli stati membri a punire le condotte consistenti nel “produrre, manipolare o alterare e successivamente rendere accessibile al pubblico” immagini, video o materiale analogo che faccia credere che una persona partecipi ad atti sessualmente espliciti senza il suo consenso. Eppure, anche nell’articolo entrato in vigore in Italia lo scorso mese, il reato non viene letto attraverso la lente della violenza di genere: il testo mette potenzialmente insieme deepfake di politici creati, per esempio, per diffondere disinformazione in campagna elettorale e deepnude che presentano invece una matrice culturale ben precisa. Se da un lato la legge presenta alcune lacune, è anche vero che la pronuncia del giudice è solo l’ultimo tassello di un iter che, nelle fasi precedenti, coinvolge molti più attori: dalle forze dell’ordine che ricevono la denuncia alle operatrici che lavorano nei centri anti-violenza. La diffusione di image-based sexual abuse è un fenomeno che si muove sul piano culturale, sociale e tecnologico. E per questo motivo non può essere risolto solo con risposte legali. Il quadro normativo è fondamentale, anche allo scopo di criminalizzare la “produzione” di deepfake sessuali, ma non è sufficiente. Come si è visto già con l’introduzione della legge del 2019 sul revenge porn, questa non si è trasformata effettivamente in un deterrente alla condivisione di immagini esplicite non consensuali e, come riporta l’associazione Permesso Negato, la situazione è rimasta critica. “Abbiamo bisogno di armonizzare gli strumenti a nostra disposizione: abbiamo una legge contro la condivisione di materiale non consensuale, di recente è stata introdotta quella contro i deepfake e dal 2024 c’è una direttiva europea sulla lotta contro la violenza di genere”, spiega ancora Bainotti. “Dobbiamo cercare di applicarle in modo che siano coerenti tra loro e messe a sistema. Nel caso italiano, credo che sia proprio questo il punto più carente, perché se abbiamo le leggi, ma allo stesso tempo abbiamo operatori di polizia o altri enti responsabili che non sono formati alla violenza di genere attraverso la tecnologia, la legge rimane fine a se stessa. Bisogna adottare un approccio sinergico, che metta insieme una chiara volontà politica, un’azione educatrice e una rivoluzione tecnologica”, conclude Bainotti. NUOVI IMMAGINARI Da alcuni anni, in Europa, stanno nascendo progetti non-profit che si occupano di tecnologia e spazi digitali da un punto di vista femminista. In Spagna, il collettivo FemBloc offre assistenza a donne e persone della comunità LGBTQ+ vittime di violenza online grazie al supporto interdisciplinare di esperti di sicurezza digitale, avvocati e psicologi. Tra le attività svolte c’è anche quella della formazione all’interno delle scuole contro la violenza di genere digitale, consulenze gratuite su come mettere in sicurezza i propri account e seminari aperti al pubblico. Una realtà analoga è quella di Superrr, fondata in Germania nel 2019. Il loro lavoro – si legge sul sito – è quello di “assicurare che i nostri futuri digitali siano più giusti e più femministi. Tutte le persone dovrebbero beneficiare delle trasformazioni digitali preservando i propri diritti fondamentali”.  In un momento storico in cui la connessione tra “broligarchi tech” e Donald Trump è più evidente che mai, dove i primi si recano alla Casa Bianca per portare regalie e placche d’oro in cambio di contratti federali, sembra quasi ineluttabile che lo spazio digitale sia stato conquistato da un certo tipo di mascolinità: aggressiva, prepotente, muscolare. Eppure, c’è chi vuole ancora tentare di colonizzare questi spazi con nuovi immaginari politici e un’altra concezione dei rapporti di potere nelle relazioni di genere. L'articolo Perché è così difficile fermare i deepnude proviene da Guerre di Rete.
Enshittification: il progressivo degrado delle piattaforme digitali
Immagine in evidenza: rielaborazione della copertina di Enshittification di Cory Doctorow Da alcuni anni conosciamo il cosiddetto “capitalismo della sorveglianza”: un modello economico basato sull’estrazione, controllo e vendita dei dati personali raccolti sulle piattaforme tecnologiche. Lo ha teorizzato Shoshana Zuboff nel 2019 in un libro necessario per comprendere come Meta, Amazon, Google, Apple e gli altri colossi tech abbiano costruito un potere senza precedenti, capace di influenzare non solo il mercato e i comportamenti degli utenti, ma anche, tramite il lobbying, le azioni dei decisori pubblici di tutto il mondo. L’idea che queste grandi piattaforme abbiano sviluppato una sorta di potere sulle persone tramite la sorveglianza commerciale, com’è stata teorizzata da Zuboff, è però un mito che è il momento di sfatare. Così almeno la pensa Cory Doctorow, giornalista e scrittore canadese che negli ultimi anni ha pubblicato due libri particolarmente illuminanti sul tema.  In “Come distruggere il capitalismo della sorveglianza”, uscito nel 2024 ed edito da Mimesis, Doctorow spiega come molti critici abbiano ceduto a quella che il professore del College of Liberal Arts and Human Science Lee Vinsel ha definito “criti-hype”: l’abitudine di criticare le affermazioni degli avversari senza prima verificarne la veridicità, contribuendo così involontariamente a confermare la loro stessa narrazione. In questo caso, in soldoni, il mito da contestare è proprio quello di poter “controllare” le persone per vendergli pubblicità.  “Penso che l’ipotesi del capitalismo della sorveglianza sia profondamente sbagliata, perché rigetta il fatto che le aziende ci controllino attraverso il monopolio, e non attraverso la mente”, spiega Doctorow a Guerre di Rete. Il giornalista fa l’esempio di uno dei più famosi CEO delle Big Tech, Mark Zuckerberg: “A maggio, Zuckerberg ha rivelato agli investitori che intende recuperare le decine di miliardi che sta spendendo nell’AI usandola per creare pubblicità in grado di aggirare le nostre capacità critiche, e quindi convincere chiunque ad acquistare qualsiasi cosa. Una sorta di controllo mentale basato sull’AI e affittato agli inserzionisti”.  Effettivamente, viste le perdite che caratterizzano il settore dell’intelligenza artificiale – e nel caso di Meta visto anche il fallimento di quel progetto chiamato metaverso, ormai così lontano da non essere più ricordato da nessuno – è notevole che Zuckerberg sia ancora in grado di ispirare fiducia negli investitori. E di vendergli l’idea di essere un mago che, con cappello in testa e bacchetta magica in mano, è in grado di ipnotizzarci tutti. “Né Rasputin [il mistico russo, cui erano attribuito poteri persuasivi, ndr] né il progetto MK-Ultra [un progetto della CIA per manipolare gli stati mentali negli interrogatori, ndr] hanno mai veramente perfezionato il potere mentale, erano dei bugiardi che mentivano a sé stessi o agli altri. O entrambe le cose”, dice Doctorow. “D’altronde, ogni venditore di tecnologia pubblicitaria che incontri un dirigente pubblicitario sfonda una porta aperta: gli inserzionisti vogliono disperatamente credere che tu possa controllare la mente delle persone”.  IL CARO VECCHIO MONOPOLIO Alla radice delle azioni predatorie delle grandi piattaforme, però, non ci sarebbe il controllo mentale, bensì le pratiche monopolistiche, combinate con la riduzione della qualità dei servizi per i miliardi di utenti che li usano. Quest’ultimo è il concetto di enshittification, coniato dallo stesso Doctorow e che dà il nome al suo saggio appena uscito negli Stati Uniti. Un processo che vede le piattaforme digitali, che inizialmente offrono un servizio di ottimo livello, peggiorare gradualmente per diventare, alla fine, una schifezza (la traduzione di shit è escremento, per usare un eufemismo). “All’inizio la piattaforma è vantaggiosa per i suoi utenti finali, ma allo stesso tempo trova il modo di vincolarli”, spiega il giornalista facendo l’esempio di Google, anche se il processo di cui parla si riferisce a quasi tutte le grandi piattaforme. Il motore di ricerca ha inizialmente ridotto al minimo la pubblicità e investito in ingegneria per offrire risultati di altissima qualità. Poi ha iniziato a “comprarsi la strada verso il predominio” –sostiene Doctorow – grazie ad accordi che hanno imposto la sua casella di ricerca in ogni servizio o prodotto possibile. “In questo modo, a prescindere dal browser, dal sistema operativo o dall’operatore telefonico utilizzato, le persone finivano per avere sempre Google come impostazione predefinita”. Una strategia con cui, secondo Doctorow, l’azienda di Mountain View ha acquisito qua e là società di grandi dimensioni per assicurarsi che nessuno avesse un motore di ricerca che non fosse il suo. Per Doctorow è la fase uno: offrire vantaggi agli utenti, ma legandoli in modo quasi invisibile al proprio ecosistema. Un’idea di quale sia il passaggio successivo l’abbiamo avuta assistendo proprio a ciò che è successo, non troppo tempo fa, al motore di ricerca stesso: “Le cose peggiorano perché la piattaforma comincia a sfruttare gli utenti finali per attrarre e arricchire i clienti aziendali, che per Google sono inserzionisti ed editori web. Una porzione sempre maggiore di una pagina dei risultati del motore di ricerca è dedicata agli annunci, contrassegnati con etichette sempre più sottili, piccole e grigie. Così Google utilizza i suo i dati di sorveglianza commerciale per indirizzare gli annunci”, spiega Doctorow.  Nel momento in cui anche i clienti aziendali rimangono intrappolati nella piattaforma, come prima lo erano stati gli utenti, la loro dipendenza da Google è talmente elevata che abbandonarla diventa un rischio esistenziale. “Si parla molto del potere monopolistico di Google, che deriva dalla sua posizione dominante come venditore. Penso però che sia più correttamente un monopsonio”. Monopoli e monopsoni “In senso stretto e tecnico, un monopolio è un mercato con un unico venditore e un monopsonio è un mercato con un unico acquirente”, spiega nel suo libro Doctorow. “Ma nel linguaggio colloquiale dell’economia e dell’antitrust, monopolista e monopsonista si riferiscono ad aziende con potere di mercato, principalmente il potere di fissare i prezzi. Formalmente, i monopolisti di oggi sono in realtà oligopolisti e i nostri monopsonisti sono oligopsonisti (cioè membri di un cartello che condividono il potere di mercato)”. E ancora scrive: “Le piattaforme aspirano sia al monopolio che al monopsonio. Dopo tutto, le piattaforme sono ”mercati bilaterali” che fungono da intermediari tra acquirenti e venditori. Inoltre, la teoria antitrust basata sul benessere dei consumatori è molto più tollerante nei confronti dei comportamenti monopsonistici, in cui i costi vengono ridotti sfruttando lavoratori e fornitori, rispetto ai comportamenti monopolistici, in cui i prezzi vengono aumentati. In linea di massima, quando le aziende utilizzano il loro potere di mercato per abbassare i prezzi, possono farlo senza temere ritorsioni normative. Pertanto, le piattaforme preferiscono spremere i propri clienti commerciali e aumentano i prezzi solo quando sono diventate davvero troppo grandi per essere perseguite”. Così facendo, l’evoluzione del motore di ricerca si è bloccata e il servizio ha poi iniziato a peggiorare, sostiene l’autore. “A un certo punto, nel 2019, più del 90% delle persone usava Google per cercare tutto. Nessun utente poteva più diventare un nuovo utente dell’azienda e quindi non avevano più un modo facile per crescere. Di conseguenza hanno ridotto la precisione delle risposte, costringendo gli utenti a cercare due o più volte prima di ottenerne una decente, raddoppiando il numero di query e di annunci”. A rendere nota questa decisione aziendale è stata, lo scorso anno, la pubblicazione di alcuni documenti interni durante un processo in cui Google era imputata. Sui banchi di un tribunale della Virginia una giudice ha stabilito che l’azienda creata da Larry Page e Sergey Brin ha abusato di alcune parti della sua tecnologia pubblicitaria per dominare il mercato degli annunci, una delle sue principali fonti di guadagno (nel 2024, più di 30 miliardi di dollari a livello mondiale). “E così arriviamo al Google incasinato di oggi, dove ogni query restituisce un cumulo di spazzatura di intelligenza artificiale, cinque risultati a pagamento taggati con la parola ‘ad’ (pubblicità) in un carattere minuscolo e grigio su sfondo bianco. Che a loro volta sono link di spam che rimandano ad altra spazzatura SEO”, aggiunge Doctorow facendo riferimento a quei contenuti creati a misura di motore di ricerca e privi in realtà di qualunque valore informativo. Eppure, nonostante tutte queste criticità, continuiamo a usare un motore di ricerca del genere perché siamo intrappolati nei suoi meccanismi. Il quadro non è dei migliori. “Una montagna di shit”, le cui radici  – afferma lo studioso – vanno cercate nella distruzione di quei meccanismi di disciplina che una volta esistevano nel capitalismo. Ma quali sarebbero questi lacci che tenevano a bada le grandi aziende? La concorrenza di mercato – ormai eliminata dalle politiche che negli ultimi 40 anni hanno favorito i monopoli; una regolamentazione efficace – mentre oggi ci ritroviamo con leggi e norme inadeguate o dannose, come ad esempio la restrizione dei meccanismi di interoperabilità indotta dall’introduzione di leggi sul copyright; e infine il potere dei lavoratori – anche questo in caduta libera a seguito dell’ondata di licenziamenti nel settore tecnologico. La “enshittification“, secondo Doctorow, è un destino che dovevamo veder arrivare, soprattutto perché giunge a valle di scelte politiche precise: “Non sono le scelte di consumo, ma quelle politiche a creare mostri come i CEO delle Big Tech, in grado di distruggere le nostre vite online perché portatori di pratiche commerciali predatorie, ingannevoli, sleali”. Non basta insomma odiare i giocatori e il gioco, bisogna anche ricordare che degli arbitri disonesti hanno truccato la partita, convincendo i governi di tutto il mondo ad abbracciare specifiche politiche. Quando si parla di tecnologia e delle sue implicazioni a breve, medio e lungo periodo è difficile abbracciare una visione possibilista e positiva. Un po’ come succede per le lotte per la giustizia sociale e per il clima: il muro che ci si ritrova davanti sembra invalicabile. Una grossa difficoltà che, secondo Doctorow, è data dalla presenza di monopoli e monopsoni.  Ma la reazione alle attuali crisi politiche globali mostra che un cambiamento è possibile. “Negli ultimi anni c’è stata un’azione di regolamentazione della tecnologia superiore a quella dei 40 anni precedenti”, spiega Doctorow. Non solo: la seconda elezione di Donald Trump si starebbe rivelando una benedizione sotto mentite spoglie, sia per il clima sia per il digitale. “Ha acceso un fuoco sotto i leader di altri Paesi ex alleati, stimolando grandi e ambiziosi programmi per sfuggire al monopolio statunitense. Pensiamo ai dazi sui pannelli solari cinesi imposti da Trump nella prima amministrazione, per esempio. Una misura che ha spinto i produttori di Pechino a inondare i paesi del Sud del mondo con i loro pannelli economici, a tal punto che intere regioni si sono convertite all’energia solare”, afferma Doctorow, che considera questa strada percorribile anche per ottenere una tecnologia più libera. PER NON VEDERE TUTTO NERO Sfuggire alle Big Tech americane non dovrebbe significare semplicemente  rifugiarsi in un servizio alternativo (mail, cloud, social media, ecc.), anche perché il processo non è così semplice. “Non si copia e incolla la vita delle persone: le email, i file, i documenti custoditi nei cloud di Microsoft, Apple o Google. Nessun ministero, azienda o individuo lo farà”. Motivo per cui, secondo Doctorow, Eurostack è una possibile alternativa, ma che ha ancora tanta strada da fare. Eurostack è un’iniziativa europea nata recentemente in risposta all’esigenza di costruire una sovranità digitale del Vecchio continente, indipendente dalle aziende tecnologiche straniere (specialmente USA). Coinvolge attivisti digitali, comunità open source, istituzioni europee e alcuni politici. “L’Ue potrebbe ordinare alle grandi aziende tech statunitensi di creare strumenti di esportazione, così che gli europei possano trasferire facilmente i propri dati in Eurostack, ma possiamo già immaginare come andrà a finire. Quando l’Ue ha approvato il Digital Markets Act, Apple ha minacciato di smettere di vendere iPhone in Europa, e ha presentato 18 ricorsi legali”, ricorda Doctorow.  Se la risposta di un’azienda statunitense all’introduzione di una direttiva europea è questa, la soluzione allora non può essere che radicale. “L’unica via possibile è abrogare l’articolo 6 della direttiva sul diritto d’autore: l’Ue dovrebbe rendere legale il reverse engineering di siti web e app statunitensi in modo che gli europei possano estrarre i propri dati e trasferirli in Eurostack. Un modello aperto, sovrano, rispettoso della privacy, dei diritti dei lavoratori e dei consumatori”. L'articolo Enshittification: il progressivo degrado delle piattaforme digitali proviene da Guerre di Rete.
Internet sta bruciando
La memoria di internet, la sua “archiviabilità”, è a rischio. Ma c’è di più: il digitale, i videogiochi e la nostra stessa infrastruttura… L'articolo Internet sta bruciando sembra essere il primo su L'INDISCRETO.
Eredità digitale, che fine fanno i nostri dati dopo la morte?
Nel corso dell’ultimo decennio Internet, i social media e – non da ultima – l’intelligenza artificiale hanno profondamente cambiato il nostro rapporto con la morte. Il sogno dell’immortalità, che ha ossessionato per secoli studiosi di ogni genere, oggi sembra essere in qualche modo diventato realtà. Senza che ce ne accorgessimo, la tecnologia ha creato per ognuno di noi una “vita dopo la morte”: una dimensione digitale in cui i nostri account social e di posta elettronica, blog, dati personali e beni digitali continuano a esistere anche dopo la nostra dipartita, rendendo di fatto la nostra identità eterna. Questo, da un lato, ha aumentato la possibilità per le persone che subiscono un lutto di sentirsi nuovamente vicine al defunto, tuffandosi negli album digitali delle sue foto, rileggendo quello che ha scritto sulla sua bacheca di Facebook e ascoltando le sue playlist preferite su Spotify.  “Può consentire anche di mantenere un dialogo con l’alter ego digitale della persona cara defunta, che, attraverso algoritmi di deep fake, può arrivare a simulare una videochiamata, mimando la voce e le sembianze del defunto; a inviare messaggi e email, utilizzando come dati di addestramento le comunicazioni scambiate durante la vita analogica”, osserva Stefania Stefanelli, professoressa ordinaria di Diritto privato all’Università degli studi di Perugia.  Dall’altro, rende però i dati personali delle persone scomparse un tesoretto alla mercé dei criminali informatici, che possono violarne facilmente gli account, utilizzarne le immagini in modo illecito e usarne le informazioni per creare cloni digitali o deepfake, mettendo a rischio la sicurezza loro e dei loro cari. Un pericolo da non sottovalutare, come anche l’eventualità che la persona non gradisca che gli sopravviva un alter ego virtuale, alimentato coi propri dati personali. Ma come fare, allora, per proteggere la propria eredità digitale? A chi affidarla? E come? EREDITÀ DIGITALE: COS’È E A CHI SPETTA DI DIRITTO Oggi più che mai ci troviamo a esistere allo stesso tempo in due dimensioni parallele, una fisica e una digitale. Questo, come riferisce il Consiglio Nazionale del Notariato (CNN), ha portato a un ampliamento dei “confini di ciò che possiamo definire eredità”, che sono arrivati a “comprendere altro in aggiunta ai più canonici immobili, conti bancari, manoscritti o ai beni preziosi contenuti nelle cassette di sicurezza”.  Si parla, allora, di eredità digitale, definita dal CNN come un insieme di risorse offline e online. Della prima categoria fanno parte i file, i software e i documenti informatici creati e/o acquistati dalla persona defunta, i domini associati ai siti web e i blog, a prescindere dal supporto fisico (per esempio, gli hard disk) o virtuale (come può essere il cloud di Google Drive) di memorizzazione. La seconda categoria, invece, include le criptovalute e “tutte quelle risorse che si vengono a creare attraverso i vari tipi di account, siano essi di posta elettronica, di social network, account di natura finanziaria, di e-commerce o di pagamento elettronico”. Rimangono esclusi i beni digitali piratati, alcuni contenuti concessi in licenza personale e non trasferibile, gli account di firma elettronica, gli account di identità digitale e le password. Chiarito in cosa consiste l’eredità digitale, a questo punto viene da chiedersi: a chi saranno affidati tutti questi beni quando la persona a cui si riferiscono non ci sarà più? Rispondere a questa domanda è più difficile di quanto si possa immaginare. Allo stato attuale non esiste infatti in Italia una legge organica, il che crea negli utenti – siano essi le persone a cui i dati si riferiscono o i parenti di un defunto che si ritrovano a gestire la sua identità in rete – un’enorme confusione sulla gestione dei dati.  Nonostante si tratti di un tema particolarmente urgente, finora è stato trattato soltanto dal Codice della Privacy, che prevede “che i diritti […] relativi ai dati di persone decedute possano essere esercitati da chi abbia un interesse proprio o agisca a tutela dell’interessato (su suo mandato) o per ragioni familiari meritevoli di protezione”. Un diritto che non risulta esercitabile soltanto nel caso in cui “l’interessato, quando era in vita, lo abbia espressamente vietato”. Di recente, poi, il Consiglio Nazionale del Notariato è tornato sul tema, sottolineando l’importanza di “pianificare il passaggio dell’eredità digitale”, considerando che “molto spesso le società che danno accesso a servizi, spazi e piattaforme sulla rete internet hanno la propria sede al di fuori del territorio dello Stato e dell’Europa”: in assenza di disposizioni specifiche sull’eredità dei beni digitali, infatti, chiunque cerchi di accedere ai dati di una persona defunta rischia di “incorrere in costose e imprevedibili controversie internazionali”. Per evitare che questo accada, è possibile investire una persona di fiducia di un mandato post mortem, “ammesso dal nostro diritto per dati e risorse digitali con valore affettivo, familiare e morale”. In termini legali, si tratta di un contratto attraverso cui un soggetto (mandante) incarica un altro soggetto (mandatario) di eseguire compiti specifici dopo la sua morte, come l’organizzazione del funerale, la consegna di un oggetto e, nel caso delle questioni digitali, la disattivazione di profili social o la cancellazione di un account. In alternativa, “si può disporre dei propri diritti e interessi digitali tramite testamento”, al pari di quanto già accade per i beni immobili, i conti bancari e tutto il resto.  In questo modo, in attesa di una legislazione vera e propria sul tema, sarà possibile lasciare ai posteri un elenco dettagliato dei propri beni e account digitali, password incluse, oltre alle volontà circa la loro archiviazione o cancellazione. “Ai sensi di questa disposizione, si può anche trasmettere a chi gestisce i propri dati una  dichiarazione, nella quale si comunica la propria intenzione circa il destino, dopo la propria morte, di tali dati: la cancellazione totale o parziale, la comunicazione, in tutto o in parte, a soggetti determinati, l’anonimizzazione ecc. Si parla in questi termini di testamento digitale, anche se in senso ‘atecnico’, in quanto la dichiarazione non riveste le forme del testamento, sebbene sia anch’essa revocabile fino all’ultimo istante di vita, e non contiene disposizioni patrimoniali in senso stretto”, prosegue la professoressa Stefanelli. EREDITÀ E PIATTAFORME DIGITALI: COSA SUCCEDE AGLI ACCOUNT DELLE PERSONE DEFUNTE? Come anticipato, allo stato attuale non esiste una legge che regolamenta l’eredità digitale, né in Italia né in Europa. Pertanto, nel corso degli ultimi anni le piattaforme di social media e i grandi fornitori di servizi digitali si sono organizzati per garantire una corretta gestione degli account di persone scomparse, così da evitare di trasformarsi in veri e propri cimiteri digitali.  Già da qualche anno, per esempio, Facebook consente agli utenti di nominare un contatto erede, ossia un soggetto che avrà il potere di scegliere se eliminare definitivamente l’account della persona scomparsa o trasformarlo in un profilo commemorativo, dove rimarranno visibili i contenuti che ha condiviso sulla piattaforma nel corso della sua vita.  Al pari di Facebook, anche Instagram consente ai parenti di un defunto di richiedere la rimozione del suo account o di trasformarlo in un account commemorativo. In entrambi i casi, però, sarà necessario presentare un certificato che attesti la veridicità del decesso della persona in questione o un documento legale che dimostri che la richiesta arriva da un esecutore delle sue volontà.  TikTok, invece, è rimasto per molto tempo lontano dalla questione dell’eredità digitale. Soltanto lo scorso anno la piattaforma ha introdotto la possibilità di trasformare l’account di una persona defunta in un profilo commemorativo, previa la presentazione di documenti che attestino il suo decesso e un legame di parentela con l’utente che sta avanzando la richiesta. In alternativa, al pari di quanto accade per Facebook e Instagram, è possibile richiedere l’eliminazione definitiva dell’account del defunto.  Ma non sono solo le piattaforme social a pensare al futuro dei propri utenti. Dal 2021, Apple consente agli utenti di aggiungere un contatto erede, così da permettere a una persona di fiducia di accedere ai dati archiviati nell’Apple Account, o “di eliminare l’Apple Account e i dati con esso archiviati”. Google, invece, offre agli utenti uno strumento avanzato per la gestione dei dati di una persona scomparsa. La “gestione account inattivo” consente infatti di “designare una terza parte, ad esempio un parente stretto, affinché riceva determinati dati dell’account in caso di morte o inattività dell’utente”.  Più nel dettaglio, la piattaforma permette di “selezionare fino a 10 persone che riceveranno questi dati e scegliere di condividere tutti i tipi di dati o solo alcuni tipi specifici”, oltre alla possibilità di indicare il periodo di tempo dopo il quale un account può davvero essere considerato inattivo. Nel caso in cui un utente non configuri “Gestione account inattivo”, Google si riserva il diritto di eliminare l’account nel caso in cui rimanga inattivo per più di due anni. EREDITÀ DIGITALE E DEADBOT: UN RISCHIO PER LA SICUREZZA? Anche l’avvento dei sistemi di intelligenza artificiale generativa ha contribuito a cambiare il nostro rapporto con la morte. E le aziende che li sviluppano si sono spinte fino a cercare una soluzione pratica al dolore causato dalla scomparsa di una persona cara. Basti pensare alla rapida diffusione dei deadbot, ovvero dei chatbot che permettono ad amici e familiari di conversare con una persona defunta, simulandone la personalità. Uno strumento che, da un lato, può rivelarsi utile ai fini dell’elaborazione del lutto, ma dall’altro rappresenta un rischio notevole per la privacy e la sicurezza degli individui.  Per permettere all’AI di interagire con un utente come farebbe una persona scomparsa, questa ha bisogno di attingere a una quantità notevole di informazioni legate alla sua identità digitale: account social, playlist preferite, registro degli acquisti da un e-commerce, messaggi privati, app di terze parti e molto altro ancora. Un uso smodato di dati sensibili che, allo stato attuale, non è regolamentato in alcun modo.  E questo, al pari di quanto accade con l’eredità digitale, rappresenta un problema non indifferente per la sicurezza: come riferisce uno studio condotto dai ricercatori dell’Università di Torino, quando i dati del defunto non sono “sufficienti o adeguati per sviluppare un indice di personalità, vengono spesso integrati con dati raccolti tramite crowdsourcing per colmare eventuali lacune”. Così facendo, “il sistema può dedurre da questo dataset eterogeneo aspetti della personalità che non corrispondono o non rispondono pienamente agli attributi comportamentali della persona”. In questo caso, i deadbot “finiscono per dire cose che una persona non avrebbe mai detto e forniscono agli utenti conversazioni strane, che possono causare uno stress emotivo paragonabile a quello di rivivere la perdita”. Non sarebbe, quindi, solo la privacy dei defunti a essere in pericolo, ma anche la sicurezza dei loro cari ancora in vita.  Pur non esistendo una legislazione specifica sul tema, l’AI Act dell’Unione Europea – una delle normative più avanzate sul tema – fornisce alcune disposizioni utili sulla questione, vietando “l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole” e anche “l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che sfrutta le vulnerabilità di una persona fisica o di uno specifico gruppo di persone (…), con l’obiettivo o l’effetto di distorcere materialmente il comportamento di tale persona”.  Due indicazioni che, di fatto, dovrebbero proibire l’immissione dei deadbot nel mercato europeo, ma che non forniscono alcuna soluzione utile alla questione della protezione dei dati personali di una persona defunta, che rimane ancora irrisolta. Nel sistema giuridico europeo la legislazione sulla protezione dei dati non affronta esplicitamente né il diritto alla privacy né le questioni relative alla protezione dei dati delle persone decedute.  Il Regolamento Generale sulla Protezione dei Dati (GDPR), infatti, “non si applica ai dati personali delle persone decedute”, anche se “gli Stati membri possono prevedere norme riguardanti il trattamento dei dati personali delle persone decedute”. Una scelta considerata “coerente con il principio tradizionale secondo cui le decisioni di politica legislativa che incidono sul diritto di famiglia e successorio, in quanto settori caratterizzati da valori nazionali strettamente correlati alle tradizioni e alla cultura della comunità statale di riferimento, esulano dalla competenza normativa dell’Unione europea”.  Non esistendo una legislazione valida a livello europeo, i governi nazionali hanno adottato approcci diversi alla questione. La maggior parte delle leggi europee sulla privacy, però, sostiene un approccio basato sulla “libertà dei dati”: paesi come Belgio, Austria, Finlandia, Francia, Svezia, Irlanda, Cipro, Paesi Bassi e Regno Unito, quindi, escludono che le persone decedute possano avere diritto alla privacy dei dati, sostenendo che i diritti relativi alla protezione dell’identità e della dignità degli individui si estinguono con la loro morte.  Secondo questa interpretazione, le aziende tech potrebbero usare liberamente i dati delle persone decedute per addestrare un chatbot. Fortunatamente non è proprio così, considerando che in questi paesi entrano in gioco il reato di diffamazione, il diritto al proprio nome e alla propria immagine, o il diritto alla riservatezza della corrispondenza. Al contrario, invece, paesi come l’Estonia e la Danimarca prevedono che il GDPR si applichi anche alle persone decedute, a cui garantiscono una protezione giuridica per un limite preciso di tempo (10 anni dopo la morte in Danimarca, e 30 in Estonia). E così anche Italia e Spagna, che garantiscono una protezione dei dati dei defunti per un tempo illimitato.  Pur mancando una legislazione europea uniforme, il GDPR lascia agli Stati membri la facoltà di regolare il trattamento dei dati personali delle persone defunte, e questo comporta differenze, anche sostanziali, delle legislazioni nazionali. Con l’avvento dell’AI e gli sviluppi rapidi che questa comporta, però, diventa sempre più necessario stilare una normativa chiara, precisa e uniforme sulla questione. Così da rispettare non solo la privacy dei nostri cari, ma anche il dolore per la loro perdita. L'articolo Eredità digitale, che fine fanno i nostri dati dopo la morte? proviene da Guerre di Rete.
La bolla dell’intelligenza artificiale sta per scoppiare
Immagine in evidenza generata con OpenAI “Siamo entrati in una fase in cui gli investitori, nel complesso, sono eccessivamente entusiasti nei confronti dell’intelligenza artificiale? Secondo me, assolutamente sì”, ha affermato il fondatore di OpenAI Sam Altman. Parole non dissimili sono arrivate da Mark Zuckerberg, secondo il quale “è certamente una possibilità” che si stia formando una grande bolla speculativa. Da ultimo, anche Jeff Bezos ha rilasciato dichiarazioni simili. Quando le stesse persone che, tramite le loro risorse, stanno favorendo lo sviluppo e la diffusione di una tecnologia si preoccupano della situazione finanziaria, significa che il rischio, come minimo, è concreto – anche perché le loro aziende risentirebbero più di ogni altra dei rovesci causati dallo scoppio di una bolla. D’altra parte, basta osservare i numeri: per il momento le immense quantità di denaro che sono state investite per l’addestramento e la gestione dei modelli linguistici di grandi dimensioni (LLM – Large Language Model) non stanno producendo risultati economici degni di nota. Peggio ancora: non è per niente chiaro quale possa essere un modello di business sostenibile per ChatGPT e i suoi compagni, e ci sono anche parecchi segnali che indicano come tutto l’hype (non solo finanziario) nei confronti dell’intelligenza artificiale potrebbe rivelarsi una colossale delusione (come indicano le ricerche secondo cui le aziende che hanno integrato l’intelligenza artificiale non hanno visto praticamente alcun effetto positivo).  Se le cose andassero così, all’orizzonte non ci sarebbe solo lo scoppio di una gigantesca bolla speculativa, ma la fine – o almeno il drastico ridimensionamento – di una grande promessa tecnologica, che fino a questo momento non sembra essere sul punto di lanciare una “nuova rivoluzione industriale”. I CONTI DI OPENAI Per iniziare gradualmente ad affrontare i problemi economici dell’intelligenza artificiale, gli immensi investimenti nel suo sviluppo (che rischiano di non essere ripagati) e la possibilità che le enormi aspettative riposte nei suoi confronti vengano disattese, la cosa più semplice è probabilmente guardare ai risultati e ai conti della più nota startup del settore: OpenAI. Partiamo dalle buone notizie: OpenAI ha da poco annunciato che nel 2025 dovrebbe raggiungere i dieci miliardi di dollari di ricavi e ha superato i 500 milioni di utenti di ChatGPT. Numeri che farebbero pensare a un futuro roseo se non fosse che, contestualmente, la società di Sam Altman continua a bruciare i soldi degli investitori a grandissima velocità: secondo le ultime stime, nel corso del 2025 OpenAI dovrebbe ammassare perdite pari a 27 miliardi di dollari (significa che incassa 10 miliardi ma ne spende 37).  Brutte notizie arrivano anche dal fronte “utenti paganti”, che sono solo 15,5 milioni: un numero molto basso, che suggerisce come pochi vedano in ChatGPT uno strumento così utile da giustificarne il costo. Le società che invece pagano OpenAI per fornire servizi terzi (“AI as a service”, come può essere il caso di Cursor, che si appoggia a OpenAI e Anthropic per offrire il suo assistente alla programmazione) stanno ottenendo risultati inferiori alle attese e molte di esse – come evidenziato in una recente newsletter dell’analista Ed Zitron – vivono una situazione economica traballante. OpenAI inevitabilmente sfoggia sicurezza, promettendo di raggiungere un fatturato pari a 125 miliardi di dollari entro il 2029. L’obiettivo, quindi, è decuplicare il fatturato nel giro di quattro anni: qualcosa che potrebbe succedere, ma che al momento non è chiaro come potrebbe avvenire, soprattutto se si considera che – dopo tre anni di incessante martellamento – ChatGPT ha pochissimi utenti paganti (che costano all’azienda più di quanto le permettano di guadagnare) e che le startup che pagano OpenAI per usare GPT-5 hanno a loro volta ricavi trascurabili. INVESTIMENTI TRILIARDARI Per il momento, far quadrare i conti è l’ultima delle preoccupazioni di Sam Altman, che prevede di accumulare perdite pari a 115 miliardi da qui al 2029 e ha recentemente dichiarato di voler spendere nel corso del tempo “migliaia di miliardi” per costruire l’immenso network di data center necessario ad alimentare i large language model e gli altri sistemi di intelligenza artificiale generativa. Ma c’è un problema: OpenAI questi soldi non li ha e deve anzi continuamente rivolgersi ai suoi finanziatori soltanto per mantenere in funzione le attuali operazioni. Alla fine di giugno, OpenAI aveva in cassaforte circa 17 miliardi, che al suo ritmo di spesa sono sufficienti solo per qualche mese. E infatti ad agosto c’è stato un altro – l’ultimo, fino a questo momento – round di finanziamenti, che ha permesso a Sam Altman di intascare altri 40 miliardi, per una valutazione di 300 miliardi di dollari. Valutazione che, in seguito ad altre operazioni finanziarie, è arrivata fino a 500 miliardi, la più alta mai registrata da una società non quotata in borsa. Se OpenAI ha continuamente bisogno di raccogliere denaro soltanto per far funzionare (in perdita) ChatGPT, come può spendere centinaia di miliardi di dollari in infrastrutture? La risposta è: non può. Per questa ragione, lo scorso settembre ha firmato un contratto da 300 miliardi di dollari, da versare in cinque anni, a Oracle: la società fondata e guidata da Larry Ellison, le cui azioni sono schizzate alle stelle in seguito a questo annuncio. In sintesi: OpenAI ha promesso a Oracle di pagare, con soldi che al momento non ha, la costruzione degli immensi data center necessari a soddisfare la sua infinita fame di GPU ed elettricità. E Oracle, invece, ce li ha i soldi? Anche in questo caso la risposta è (in parte) negativa: come spiega il Wall Street Journal, “Oracle è già fortemente indebitata: alla fine di agosto la società aveva un debito a lungo termine di circa 82 miliardi di dollari e un rapporto debito/capitale proprio di circa il 450%. Per fare un confronto, il rapporto del gruppo Google-Alphabet era dell’11,5% nell’ultimo trimestre, mentre quello di Microsoft era intorno al 33%”. Le azioni di Oracle saranno anche salite tantissimo in seguito alla notizia della partnership con OpenAI, ma le società di rating iniziano a sentire puzza di bruciato (o almeno di rischi fortissimi), tant’è che Moody’s ha dato una valutazione negativa del rating di Oracle pochi giorni dopo la firma del contratto. Riassumendo: Oracle, già fortemente indebitata, dovrà indebitarsi molto di più per poter costruire un’infrastruttura di data center, che le dovrebbe essere un domani pagata da OpenAI, sempre che quest’ultima riesca, entro la fine del decennio, ad aumentare il fatturato fino ai livelli promessi, che sono dieci volte superiori a quelli odierni. Tutto potrebbe andare come auspicato, ma al momento i conti non tornano. E se non tornano per OpenAI, la startup simbolo dell’intelligenza artificiale, figuriamoci le altre: sempre secondo le stime di Ed Zitron, Anthropic nel 2025 spenderà 7 miliardi di dollari e ricaverà al massimo 4 miliardi (bilancio in rosso di tre miliardi), mentre Perplexity punta a generare ricavi per 150 milioni di dollari nel 2025, ma spende anche lei molto più di quello che intasca (nel 2024 ha speso il 67% in più di quello che ha guadagnato). I numeri non migliorano se si osservano i conti relativi all’intelligenza artificiale dei principali colossi della Silicon Valley: Microsoft quest’anno investirà 80 miliardi in infrastrutture e ricaverà 13 miliardi. Amazon spenderà 105 miliardi e ne ricaverà 5. Google spenderà 75 miliardi e ne ricaverà al massimo 8. Meta spenderà 72 miliardi e ne ricaverà al massimo 3. Nel complesso, queste quattro società investiranno in un solo anno 332 miliardi di dollari e ne ricaveranno 29 (al massimo). Stime confermate dall’Economist, che scrive:  “Secondo le nostre analisi, i ricavi complessivi delle principali aziende occidentali derivanti dall’intelligenza artificiale ammontano oggi a 50 miliardi di dollari l’anno. Anche se tali ricavi stanno crescendo rapidamente, rappresentano ancora una frazione minima dei 2.900 miliardi di dollari di investimenti complessivi in nuovi data center previsti a livello globale da Morgan Stanley tra il 2025 e il 2028”. LA BOLLA DI NVIDIA In questo fosco scenario, c’è una sola azienda per la quale l’intelligenza artificiale si sta rivelando un affare d’oro: Nvidia. La società che progetta le più avanzate GPU – i processori indispensabili per l’addestramento e l’utilizzo dei sistemi di AI – ha dichiarato guadagni (non ricavi: guadagni) per 26 miliardi di dollari solo nell’ultimo trimestre. Nel complesso, si stima che Nvidia nel 2027 avrà “free cash flow” (flusso di cassa libero, ovvero i soldi rimasti in pancia all’azienda dopo aver coperto tutte le spese operative e gli investimenti) pari a 148 miliardi di dollari. Mentre tutti spendono (e perdono) nell’intelligenza artificiale, Nvidia fa un sacco di soldi. Non sorprende, visto che una gran parte delle spese di OpenAI, Microsoft e compagnia sono necessarie proprio ad acquistare le GPU di Nvidia. Ma c’è un problema: a differenza di Meta o Google (che continuano a guadagnare centinaia di miliardi da social network e motori di ricerca), gli enormi guadagni di Nvidia sono inestricabilmente legati al boom dell’intelligenza artificiale. Se le aziende che acquistano in massa le GPU di Nvidia decidessero che non è più il caso di spendere le cifre folli che stanno al momento spendendo, quanto precipiterebbe il valore di un’azienda che ha ottenuto il 40% dei suoi ricavi da due soli misteriosi clienti, che secondo TechCrunch potrebbero essere Microsoft e Google? Se l’intelligenza artificiale non mantenesse le promesse, in che scenario si troverebbe un’azienda che detiene il 90% della quota di mercato delle GPU, la cui vendita è sostenuta dal boom dell’intelligenza artificiale? È proprio per queste ragioni che Nvidia vuole evitare a tutti costi che qualcosa del genere si verifichi. Negli stessi giorni in cui Sam Altman e Larry Ellison stringevano il ricchissimo accordo di cui abbiamo parlato, Nvidia si impegnava a investire “fino a 100 miliardi di dollari” in OpenAI “nei prossimi anni”. In poche parole, Nvidia vuole prestare a OpenAI un terzo dei soldi che OpenAI deve dare a Oracle affinché compri le GPU di Nvidia che alimenteranno i suoi data center. OpenAI non è però l’unica azienda a beneficiare di questo schema: Perplexity, CoreWeave, Cohere, Together AI, Applied Digitals e molte altre startup che si occupano di vari aspetti dell’intelligenza artificiale (dall’infrastruttura allo sviluppo di chatbot) hanno potuto godere della generosità del CEO di Nvidia Jensen Huang, che continua a investire denaro in società che utilizzeranno questi soldi anche o soprattutto per acquistare GPU. Da una parte, ha senso che Nvidia utilizzi i faraonici guadagni per sostenere i suoi principali clienti. È un meccanismo che è stato paragonato da The Information ai programmi di stimolo delle banche centrali: si immette denaro nell’economia nella speranza che questo generi crescita economica e, indirettamente, produca i ritorni necessari a compensare l’investimento iniziale. Dall’altra, i soldi che Nvidia immette nel settore potrebbero artificialmente sostenere la domanda delle sue GPU, facendo apparire i suoi risultati più robusti di quanto altrimenti sarebbero, gonfiando quindi il valore delle azioni. Inoltre, il fatto che Nvidia sia al centro di un modello finanziario circolare (perché presta i soldi a chi deve comprare ciò che produce) non può che alimentare i sospetti che quella che si sta venendo a creare sia una colossale bolla finanziaria, che rischia di scoppiare alla prima trimestrale di Nvidia inferiore alle aspettative, trascinando con sé tutte le realtà più esposte e causando un crollo che – secondo alcune stime – potrebbe essere quattro volte superiore alla bolla immobiliare che nel 2008 ha mandato il mondo intero in recessione. Negli ultimi tre anni, il valore delle aziende tecnologiche quotate al Nasdaq è raddoppiato proprio sulla scia dell’entusiasmo generato da ChatGPT. Nel complesso, le prime sette aziende per valore di mercato (Nvidia, Apple, Amazon, Meta, Tesla, Microsoft e Alphabet/Google) oggi rappresentano il 34% del valore complessivo dell’indice S&P 500 e sono tutte, con la parziale eccezione di Apple, enormemente esposte sul fronte dell’intelligenza artificiale. Le azioni in borsa stanno salendo alle stelle, mentre i risultati economici reali sono trascurabili. Migliaia di miliardi di dollari stanno venendo investiti in una tecnologia che, per il momento, non sta mantenendo le colossali aspettative in essa riposte e che genera ricavi poco significativi, costringendo i principali colossi del settore a indebitarsi o a bruciare risorse nella speranza che questa “rivoluzione artificiale” infine si materializzi. Che la bolla dell’intelligenza artificiale esista è un dato di fatto: la vera incognita riguarda la violenza con cui esploderà. Molto dipenderà da quanto, nel frattempo, la tecnologia sarà riuscita a mantenere almeno in parte le sue promesse. Se i guadagni annunciati inizieranno davvero a concretizzarsi, la correzione potrebbe essere contenuta. Se invece la Silicon Valley continuerà a investire enormi quantità di denaro senza ottenere nulla in ritorno, l’esplosione potrebbe essere devastante. L'articolo La bolla dell’intelligenza artificiale sta per scoppiare proviene da Guerre di Rete.
La resistenza ai social media riparte dal Fediverso e dai server ribelli
Immagine in evidenza da Mozilla Da una parte i social network e i rischi intrinseci della raccolta di dati e, sul fronte opposto, l’attivismo digitale che vuole dare vita a una riforma di internet dal basso. Un’idea che si scontra con problemi pratici, tecnici, etici e anche culturali-narrativi. Non ultimo un immaginario che ancora sconta una vecchia diffidenza verso gli hacktivisti (e tutto ciò che contiene la parola “hacker”). Su questo e su altro ancora si concentra Giuliana Sorci nel libro Server ribelli: R-esistenza digitale e hacktivismo nel Fediverso in Italia che esamina l’hacktivismo italiano nel corso di tre decenni. Sorci è una ricercatrice indipendente e insegnante, ha conseguito il dottorato all’Università di Catania approfondendo la comunicazione politica dei movimenti sociali e dei conflitti territoriali in Italia. Nel 2015 ha pubblicato il libro I social network. Nuovi sistemi di sorveglianza e controllo sociale, approfondendo i modi in cui i social media agiscono come strumenti di sorveglianza e controllo.  QUALCHE TERMINE UTILE Nel suo ultimo libro, Server ribelli, si fa ampio riferimento alle piattaforme commerciali, ovvero al gruppo Meta che detiene Facebook, Instagram, Threads e WhatsApp e, parallelamente, a X (ex Twitter) e a TikTok. In contrapposizione, il Fediverso è una rete di piattaforme indipendenti e connesse tra loro, che usano software open source e protocolli aperti come ActivityPub. La natura decentralizzata del Fediverso non è l’unico tratto che la contraddistingue dalle piattaforme commerciali: il Fediverso è non profit, è autogestito, rifiuta la profilazione di massa e rifugge ogni forma di pubblicità. Gli sviluppatori rilasciano il codice sorgente affinché gli utenti possano controllare l’infrastruttura e contribuire al suo miglioramento. Ciò, sottolinea l’autrice, richiama la partecipazione attiva, altro tratto distintivo che separa il Fediverso dalle piattaforme commerciali, che impongono un uso passivo. Altro termine chiave è quello di r-esistenza, che racchiude le pratiche e le strategie adottate dagli hacktivisti italiani per opporsi al mondo digitale dominato dalle piattaforme commerciali, proponendo alternative. La r-esistenza non è un rifiuto passivo ma rappresenta azioni politiche, culturali e creative che si manifestano in più modi. Per Giuliana Sorci l’attivismo digitale italiano, l’hacktivismo, ha individuato nel Fediverso una terra promessa nella quale la r-esistenza digitale, la riforma di Internet dal basso, possono crescere. Ma centrali sono anche gli spazi autogestiti come gli hacklab e i fablab, e l’hacking come una pratica creativa e costruttiva che si spinge al di là della scrittura di codice e lavora alla creazione di infrastrutture alternative, alla promozione della conoscenza libera e alla costruzione di comunità inclusive. I profili degli hacktivisti italiani rivelano spesso un’elevata istruzione, peraltro con una corposa presenza di laureati in discipline umanistiche, e una forte propensione al cambiamento sociale e alla giustizia sociale. Tuttavia, il Fediverso affronta diverse sfide. La difficoltà di installazione e gestione per gli utenti meno esperti e il rischio di abbandono dei progetti con pochi iscritti sono aspetti critici. La minaccia più grande proviene dalle grandi corporation che mostrano un crescente interesse verso le architetture decentralizzate. Threads, piattaforma con cui Meta si è affacciata sul Fediverso, sebbene potenzialmente in grado di diversificare l’ecosistema, solleva seri dubbi sulla gestione monopolistica e antidemocratica che potrebbe esercitare.  Il libro si concentra sulla resistenza a questo scenario, considerando che non può essere solo tecnica ma deve essere soprattutto politica, basata sulla capacità dei movimenti hacker di costruire strategie concordate e di salvaguardare la sovranità digitale. INTERVISTA CON L’AUTRICE Abbiamo approfondito alcuni aspetti con Giuliana Sorci.  Quali sono i fattori che al momento ostacolano una larga adozione del Fediverso da parte degli utenti? “Credo che ci siano diversi fattori. Un primo elemento consiste nel fatto che il Fediverso è ancora poco conosciuto al grande pubblico e viene utilizzato per lo più dagli ‘addetti ai lavori’.  Uno degli obiettivi che mi sono posta con questo libro consiste proprio nel far comprendere che esistono delle alternative ai social media commerciali; che queste piattaforme sono federate ed interoperabili e non contemplano logiche di monetizzazione dei dati degli utenti o pratiche di censura e sorveglianza, come avviene nei comuni social media.  Il Fediverso offre, infatti, la possibilità di creare istanze gestite direttamente dagli utenti e che si basano sui principi (policy) e sugli interessi della community, formando un ecosistema digitale alternativo. Un altro elemento consiste nel fatto che la gestione di un server richiede competenze tecniche, tempo e risorse economiche che possono limitarne l’uso a coloro che non le possiedono: non tutti gli utenti, infatti, riescono a implementare o a gestire istanze nel lungo periodo.   Un altro fattore che limita l’uso del Fediverso è la cultura che sta dietro i social network commerciali. Il famoso tasto ‘like’ di Facebook o il cuore che si riceve quando si pubblica una foto su Instagram o un video su TikTok provocano un effetto che si potrebbe definire ‘dopaminico’ nell’utente che lo riceve, facendogli vivere un’esperienza positiva che tenderà a ripetere, incrementando l’engagement sulla piattaforma.  Questo processo avviene a discapito di qualsiasi forma di tutela della privacy e del fatto che ogni aspetto della vita degli utenti viene inesorabilmente sempre ‘reso pubblico’. Il Fediverso, rifiutando queste logiche di mercificazione delle identità digitali, potrebbe quindi risultare meno attrattivo per quegli utenti che ormai hanno interiorizzato questo modo di pensare e utilizzare i social media”. Come si contrasta il potere delle grandi piattaforme e la loro capacità di bloccare gli utenti dentro i loro recinti dorati (che poi sono sempre meno dorati…)?  “Il social media trasforma le relazioni in merce, orientando la comunicazione verso la performance pubblica e il profitto aziendale. Per contrastare il potere delle grandi piattaforme e la loro capacità di rinchiudere gli utenti ‘nelle loro prigioni dorate’ non serve tentare una competizione di ‘scala’, ovvero creare social media in grado di trattenere migliaia di utenti e che ripropongono le solite logiche di gamificazione, per dirla con le parole del collettivo Ippolita.  Per contrastare il potere delle piattaforme commerciali bisogna ripensare il modo di implementare e utilizzare le tecnologie, trasformandole da tecnologie del dominio in quelle che Ivan Illich definiva come ‘Tools of Conviviality’, ovvero strumenti in grado di creare spazi di libertà, in cui le relazioni tra gli utenti si basano su rapporti di cooperazione reciproca ed interessi comuni.  Il Fediverso, essendo composto da piattaforme indipendenti, alternative e interoperabili, infatti, non può essere considerato soltanto un’infrastruttura tecnica, ma riflette un progetto politico, in cui ogni comunità può dotarsi di regole proprie che si basano sui principi comuni e sugli interessi della comunità.  Usare il Fediverso significa dunque aderire a un’altra idea di socialità online, basata non sulla profilazione e sull’engagement forzato, ma sulla costruzione di legami reali e condivisi che vengono coltivati anche online.  La filosofia che viene incoraggiata dagli hacker che lo implementano è, infatti, quella di costruire tante comunità fondate su piccoli numeri, in cui le relazioni sono basate sulla fiducia, il rispetto reciproco e la condivisione di valori e principi comuni.  In questo senso, è utile fare riferimento alla distinzione di Ian Bogost tra social network e social media, ripresa in Server ribelli. Il social network è la rete sociale vera e propria, fatta di legami forti e deboli, che riflettono le dinamiche umane fondamentali e che esiste prima, e al di fuori, delle piattaforme digitali. Il social media, al contrario, rappresenta la trasformazione del network in strumento di comunicazione di massa, dove le relazioni non servono più a rafforzare legami ma a spettacolarizzare la vita degli utenti, rendendoli essi stessi prodotti da monetizzare.   È ormai celebre la frase resa popolare da una serie Netflix, secondo cui ‘se qualcosa è gratuito, allora il prodotto sei tu’: un modo diretto per ricordare che nelle piattaforme commerciali non siamo utenti da servire, ma merci da monetizzare attraverso la sorveglianza e la profilazione dei nostri comportamenti.  Recuperare il significato originario di social network significa allora tornare a pensare le reti come comunità di prossimità, federate tra loro, capaci di mantenere senso e qualità nei legami. È esattamente ciò che il Fediverso propone: non l’illusione di una piazza globale uniforme, ma una costellazione di comunità autonome che scelgono di intrecciarsi liberamente, ricostruendo l’infrastruttura digitale a misura delle persone e non dei profitti”. Quali misure e leggi europee sono state utili e dove non sono state abbastanza coraggiose? “Il GDPR, entrato in vigore nel 2018, ha avuto il merito di incrinare la normalità dell’economia della sorveglianza, introducendo principi fondamentali come la minimizzazione dei dati, la portabilità e il diritto all’oblio.  Più recentemente, il Digital Services Act e il Digital Markets Act hanno segnato un ulteriore passo avanti: il primo punta ad aumentare la trasparenza nella moderazione dei contenuti e a garantire l’accesso ai dati per i ricercatori; il secondo mira a contenere gli abusi di posizione dominante delle Big Tech, imponendo per esempio obblighi di interoperabilità e il divieto di pratiche escludenti.  Tuttavia, questi strumenti mostrano anche i loro limiti. La forza economica e legale delle grandi piattaforme consente loro di resistere a lungo ai procedimenti, mentre la rapidità del progresso tecnologico, in particolare nel campo dell’intelligenza artificiale, rischia di superare continuamente la capacità regolatoria.  A questo si aggiungono la lentezza burocratica e, in molti casi, la scarsa volontà politica di applicare le norme con decisione. Senza un enforcement forte e risorse adeguate, il rischio è che queste iniziative restino parziali e non riescano a incidere davvero sul potere dei social media mainstream”. L’impegno degli hacktivisti nel Fediverso può superare la nicchia e innescare una trasformazione della governance di Internet? “Gli hacktivisti, nel libro, non vengono descritti come figure isolate ma come costruttori di comunità e infrastrutture. La loro azione non si limita a denunciare i rischi in termini di erosione della privacy e mercificazione delle identità degli utenti come avviene nei social media commerciali.  Il loro obiettivo è quello di praticare ‘una sorta di riforma dal basso di Internet’ che ne rivoluzioni i principi della governance, ancora sotto il dominio delle piattaforme mainstream. Secondo questa prospettiva, l’azione hacker è prefigurativa: attraverso l’implementazione di tecnologie libere, si anticipa la costruzione di un’altra Internet più democratica e partecipata. Ma il concetto può includere anche la società nel suo complesso, perché ogni laboratorio, server autogestito, archivio digitale, pratica di crittografia o progetto di data activism favorisce questo processo di riforma e trasformazione della Rete.  Per uscire dagli ambienti degli addetti ai lavori, gli attivisti della comunità hacker si impegnano in attività orientate al dialogo con associazioni, reti civiche, scuole, centri sociali, biblioteche e spazi culturali, anche in contesti periferici. Qui organizzano workshop, cablano reti, diffondono tecniche di crittografia, costruiscono hacklab e fablab come spazi di resistenza digitale. Alcuni esempi particolarmente significativi sono i tecno-musei come il Museo Interattivo di Archeologia Informatica (MIAI) di Rende e il Museo dell’Informatica Funzionante (MusIF) di Palazzolo Acreide (qui il link, nda).  Queste esperienze hanno raccolto e preservato centinaia di sistemi hardware e documentazione tecnica, trasformandosi in luoghi di memoria e formazione collettiva, veri e propri presidi di cultura hacker e tecnologia condivisa. Accanto a queste esperienze, si collocano anche le bacheche digitali, nate a partire dal progetto Gancio.org implementata dal collettivo hacker torinese Underscore e replicate in numerosi territori. Non si tratta solo di piattaforme per condividere eventi, ma di veri e propri calendari comunitari, pensati per dare visibilità a iniziative sociali, culturali e politiche dei territori.  La scelta di nomi legati ai dialetti e alle espressioni locali – come avviene nelle bacheche di Bologna, Ravenna, Torino, Catania, in Sardegna o a Cosenza – sottolinea la volontà di radicare la tecnologia nelle culture e nei linguaggi delle comunità. Queste bacheche diventano così strumenti di auto-organizzazione, rafforzano i legami sociali e mostrano come la dimensione digitale possa sostenere le pratiche collettive anziché snaturarle. In questo intreccio di memorie, partecipazione e radicamento territoriale, l’hacktivismo dimostra che la tecnologia può essere piegata a fini conviviali e liberatori. Non è quindi soltanto una questione di server o protocolli: è un progetto politico e culturale che riporta la tecnologia alla portata delle persone, trasformandola in terreno di resistenza e di immaginazione sociale”. Considerando che per la gestione delle istanze del fediverso sono necessarie competenze tecniche e tecnologiche di alto livello, non si corre il rischio di creare un elitarismo interno, un gruppo che si arroga il diritto di prendere le decisioni? Quali meccanismi di inclusione potrebbero mitigare tali asimmetrie cognitive e partecipative? “In Server ribelli il tema dell’asimmetria tra competenze tecniche e partecipazione politica è affrontato in modo diretto. Da un lato, è vero che la gestione di un’istanza del Fediverso richiede skill tecniche di alto profilo, conoscenze di cybersicurezza e tempo da dedicare; ciò potrebbe generare un rischio di elitarismo tecnico, con pochi amministratori in grado di determinare scelte cruciali.  Ma l’esperienza concreta delle comunità hacker italiane mostra come sono stati sviluppati diversi meccanismi per evitare questa deriva.  Innanzitutto, negli hacklab e nei collettivi digitali si pratica costantemente l’autoformazione condivisa: workshop, seminari e momenti di trasmissione dei saperi permettono a chi possiede competenze elevate di condividerle con chi ne ha meno, riequilibrando i ruoli interni e riducendo le disuguaglianze cognitive. Questa pedagogia orizzontale trasforma le abilità tecniche in un bene comune, anziché in una risorsa di potere.  In secondo luogo, le comunità legate al Fediverso adottano in prevalenza il metodo del consenso nelle decisioni. L’81% degli attivisti che ho intervistato, infatti, dichiara che nelle proprie assemblee non viene utilizzato il criterio del voto, ma le decisioni vengono prese deliberando e cercando l’accordo collettivo, così da favorire il dialogo inclusivo ed eliminare gerarchie interne. Solo una minima parte ricorre a votazioni o a modelli più formali.  Questo consente anche ai non-tecnici di incidere sulle scelte politiche delle istanze. Un ulteriore strumento di inclusione è rappresentato da esperienze come Autogestione.social, l’assemblea federata delle istanze italiane. Qui tecnici e non-tecnici partecipano insieme, discutendo policy comuni e manifesti politici, condividendo competenze e sostenendo la nascita di nuove istanze. L’idea è che le piattaforme non debbano essere portate avanti ‘da un manipolo di tecnici che scelgono cosa è meglio’, ma da tutte le persone che le usano quotidianamente. In sintesi, il rischio di elitarismo tecnico esiste, ma può essere contrastato se la comunità si dota di strumenti di condivisione delle conoscenze, deliberazione inclusiva e governance federata.  È questa la vera sfida della decentralizzazione: non solo redistribuire il potere tecnico tra più server, ma costruire pratiche sociali che impediscano a pochi di trasformarsi in una nuova élite”. La minaccia insita nella cosiddetta EEE Strategy (Embrace, Extend, Extinguish), una strategia commerciale che può essere adottata da grandi piattaforme, e che consiste nell’abbracciare uno standard aperto, estenderlo con funzioni proprietarie ed infine estinguere lo standard originale svantaggiando i concorrenti, può estendersi ai principi della defederazione? Con quali strategie può rispondere il fediverso per creare una propria immunità? Nel capitolo conclusivo di Server ribelli si evidenzia chiaramente come la strategia EEE (embrace, extend, extinguish), storicamente usata da Microsoft e oggi potenzialmente applicabile dalle Big Tech al Fediverso, rappresenti una minaccia concreta.  L’interesse di Meta per ActivityPub e l’apertura di Threads alla federazione mostrano il rischio che un attore dominante possa prima ‘abbracciare’ i protocolli aperti, poi modificarli con estensioni proprietarie imponendone così la propria versione, omologando e indebolendo l’ecosistema delle istanze indipendenti.  Se ciò accadesse, i principi di autonomia, orizzontalità e autogestione su cui si fonda il Fediverso sarebbero messi a dura prova.  È legittimo, infatti, temere che Meta e altre corporation possano guardare al Fediverso come a un’infrastruttura da colonizzare o come a una minaccia da neutralizzare, soprattutto perché sottrae utenti al loro modello di business basato sulla sorveglianza e sulla profilazione.  Tuttavia, la risposta non può limitarsi a una difesa tecnica. L’‘immunità’ del Fediverso deve essere insieme tecnica e politica. Da un lato, esiste già la pratica della defederazione, che consente alle istanze di bloccare o silenziare quelle realtà (comprese eventuali piattaforme commerciali) che non rispettano i valori condivisi dalla community. Non a caso, molte istanze italiane hanno già iniziato a defederare Threads per marcare la distanza da un attore percepito come ostile. Dall’altro lato, serve una resistenza politica e culturale, fatta di strategie comuni, assemblee, manifesti e pratiche di cooperazione che ribadiscano la natura comunitaria e anticapitalista del progetto. In questo senso, l’immunità non deriva dall’illusione di poter blindare il Fediverso, ma dalla sua capacità di mantenersi fedele ai principi originari: software libero, autogestione, rifiuto della sorveglianza, orizzontalità delle decisioni. È la combinazione tra strumenti di governance interna (come la defederazione) e la costruzione di una cultura hacker condivisa che può garantire al Fediverso di non farsi inglobare e neutralizzare dalle logiche di mercato”. La pedagogia hacker è, a tuo avviso, un elemento cardine tanto sul piano etico quanto su quello politico. Come questa può uscire dalla propria nicchia e diventare una vera e propria alfabetizzazione digitale appannaggio delle masse? Quali strumenti può usare per raggiungere questo scopo e, ancora prima, le persone vogliono davvero un rapporto emancipato con le tecnologie o si crogiolano nel loro uso funzionale? “La definizione di pedagogia hacker, così come utilizzata da Carlo Milani e ripresa in Server ribelli, va ben oltre la semplice alfabetizzazione digitale intesa come acquisizione di competenze tecniche di base.  È piuttosto un’attitudine collettiva – un approccio educativo libertario – che rende le persone capaci di elaborare critiche e riflessioni sulle tecnologie digitali nell’era del capitalismo delle piattaforme. Ma non solo. È la capacità di immaginare delle alternative, a partire dalla decostruzione delle dinamiche di potere che sono presenti nell’attuale ecosistema digitale.  La pedagogia hacker valorizza il principio della condivisione del sapere, guardando alla tecnologia come ‘bene comune’ valorizzando l’apprendimento condiviso come patrimonio esperienziale collettivo.  In tal senso, è utile citare Steven Levy, autore del famoso saggio Hackers. Gli eroi della rivoluzione informatica del 1984, che a proposito dell’etica hacker, scriveva dell’importanza del libero accesso alle informazioni e della condivisione del sapere come principi fondamentali da seguire.  La pedagogia hacker, dunque, non si limita a insegnare ‘come si usa un software o un computer’, ma propone un modello di formazione che è insieme etico e politico: imparare a disertare la tecnocrazia, rifiutare gerarchie e burocrazie, costruire ambienti di affinità basati sull’autonomia e sui rapporti di cooperazione reciproca.  Questa prospettiva trova applicazione pratica nelle attività organizzate dalle comunità hacker: hacklab, fablab, Hackmeeting, laboratori autogestiti nelle scuole e nelle università.  In questi spazi la conoscenza non è mai patrimonio esclusivo di pochi esperti, ma diventa bene comune: si organizzano workshop sulla crittografia, incontri sui social network alternativi, laboratori di riuso e riparazione di hardware, progetti di alfabetizzazione digitale, alla portata di tutte e tutti. Attraverso questi strumenti, la pedagogia hacker si configura come una pratica di emancipazione collettiva, che non solo trasmette competenze, ma costruisce comunità e consapevolezza politica.  In questo senso, parlare di pedagogia hacker come alfabetizzazione digitale significa parlare il linguaggio dei diritti collettivi – digitali e non – significa parlare il linguaggio della cooperazione e della capacità di immaginare e costruire insieme la società desiderata e desiderabile, nel tempo del qui e ora”.  In che modo la creatività dell’hacktivismo può fare da controcanto alle narrazioni distorte che riguardano gli hacker e, a monte, il ruolo della tecnologia nella società? “La figura dell’hacker tramandata dalle narrazioni dominanti fatte dai media mainstream è stata fuorviante. L’hacker viene spesso rappresentato come un criminale informatico che minaccia la sicurezza collettiva, oppure come un genio solitario – nerd – che le grandi corporation possono sussumere per rafforzare il proprio capitale umano. In entrambi i casi, l’immagine restituita è funzionale al mantenimento dell’ordine esistente: o l’hacker diventa un nemico da reprimere, o una risorsa da inglobare nel mercato.  Queste narrazioni distorte hanno finito per oscurare la dimensione politica e creativa dell’hacktivism – termine che coniuga le pratiche hacker con l’attivismo politico – riducendolo a un problema di sicurezza informatica o a una competenza da monetizzare. La genealogia del termine racconta però una storia molto diversa.  L’hacker nasce come colui che sperimenta, smonta, ricombina, non per distruggere ma per comprendere e reinventare. Nel già citato saggio, Steven Levy descriveva questa figura come ‘un artista del codice’ capace di perseguire l’eleganza tecnica e la libertà di accesso al sapere. L’hacking non è necessariamente soltanto un atto illegale e di pirateria informatica, ma rappresenta un’azione creativa, estetica e politica. Questa prospettiva emerge con forza anche dalle voci raccolte nelle interviste di Server ribelli.  Un membro del collettivo Ippolita definisce l’essere hacker come una tensione, una condizione che non si possiede mai definitivamente ma a cui si tende costantemente: ‘L’hacker è un po’ una tensione, è un avatar. Essere un hacker cosa significa? In realtà è qualcosa a cui tendere, non è qualcosa che sei mai. Veramente un hacker è una dimensione un po’ ideale, come dire che non c’è un momento in cui diventi hacker, è sempre qualcosa che è là a venire!’. In un’altra intervista, la definizione si arricchisce ulteriormente: ‘L’hacking è la trasposizione della curiosità dell’hacker, il desiderio di ricombinare la realtà, eseguire il codice del mondo per fargli fare una cosa diversa, magari inutile, semplicemente per la bellezza di costruire e plasmare la realtà in modo diverso’.  È proprio questa capacità di plasmare la realtà in modi inattesi che rende la creatività ‘hacktivista’ un controcanto potente alle narrazioni distorte. Se i media lo riducono a minaccia o anomalia, l’hacktivismo dimostra invece di essere una pratica sociale e culturale capace di generare alternative: server autogestiti, piattaforme federate, archivi liberi, reti comunitarie, laboratori di alfabetizzazione digitale.  In questi spazi la creatività non è mai fine a sé stessa, ma diventa strumento politico per mostrare che un altro uso della tecnologia è possibile, e che un altro mondo digitale può essere costruito collettivamente. In definitiva, la creatività hacker non si limita a contraddire l’immaginario dominante, ma lo ribalta: non pirati solitari che violano sistemi – almeno, non soltanto – bensì artigiani del digitale, che attraverso ingegno e cooperazione aprono spiragli su futuri diversi. È in questa tensione, continuamente rinnovata, che si trova il vero significato dell’essere hacker. C’è qualcosa che non ti ho chiesto, un aspetto su cui non mi sono soffermata, ma che ritieni importante e utile far sapere ai lettori? C’è un aspetto che spesso non viene messo abbastanza in evidenza: ovvero che la tecnologia non è mai neutra. Ogni piattaforma, ogni protocollo, ogni riga di codice riflette una visione del mondo, un insieme di valori e di priorità.  Non esistono strumenti neutri: i social network commerciali, ad esempio, incorporano logiche economiche e politiche precise – sorveglianza, profilazione, massimizzazione del profitto – che finiscono per orientare i nostri comportamenti e modellare le nostre relazioni.  L’esperienza di Mastodon.bida.im implementata dall’omonimo collettivo hacker bolognese nel 2018, raccontata in Server ribelli, lo mostra con grande chiarezza. Questa istanza del Fediverso non è semplicemente un’alternativa tecnica a Facebook o Twitter, ma un progetto politico e culturale a tutti gli effetti. Le sue regole di funzionamento non si limitano a questioni di moderazione tecnica: dichiarano esplicitamente un orientamento libertario e anarchico, fondato su principi di antirazzismo, antisessismo, antifascismo e rifiuto delle logiche commerciali.  Non è dunque uno spazio ‘neutrale’, ma un luogo che sceglie di prendere posizione. La comunità che gravita attorno a Mastodon.bida.im porta avanti pratiche che superano la dimensione digitale in senso stretto: assemblee collettive, momenti di socialità, processi decisionali orizzontali e forme di mutuo supporto tra utenti e amministratori.  In questo modo, l’istanza diventa un laboratorio sociale, un esperimento politico che mostra come Internet potrebbe essere organizzato diversamente se al centro ci fossero cooperazione e giustizia sociale, anziché profitto e controllo. Raccontare esperienze come quella di Mastodon.bida.im significa dunque ricordare che non stiamo parlando solo di tecnologia, ma di società. Ogni scelta tecnica è anche una scelta politica: può rafforzare meccanismi di dominio oppure aprire spazi di libertà. E il Fediverso, con le sue comunità autogestite, dimostra che è possibile costruire un’infrastruttura digitale che non si limita a ospitare contenuti, ma che aiuta a immaginare e praticare un altro modo di stare insieme online”. L'articolo La resistenza ai social media riparte dal Fediverso e dai server ribelli proviene da Guerre di Rete.
“Siate meccanici, siate luddisti”: così si resiste al tecnocapitalismo
Immagine in evidenza: Jathan Sadowski, credits: Jathan Sadowski Vivere le tecnologie come se fossero qualcosa caduta dall’alto ci rende passivi e ci limita a considerare “cosa fanno” senza concentrarci sul “perché lo fanno”. È il tema centrale del libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, scritto dal ricercatore americano Jathan Sadowski, i cui studi si concentrano sulle  dinamiche di potere e profitto connesse all’innovazione tecnologica.  CHI È JATHAN SADOWSKI Senior lecturer presso la Monash University di Melbourne (Australia), è esperto di economia politica e teoria sociale della tecnologia. Oltre al libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, nel 2020 Sadowski ha pubblicato il libro Too Smart – How Digital Capitalism is Extracting Data, Controlling Our Lives, and Taking Over the World. Inoltre conduce il podcast This Machine Kills insieme a Edward Ongweso Jr. È anche autore e co-autore di diversi studi che indagano le conseguenze della tecnologia e della datificazione. L’ERA DEL CAPITALISMO TECNOLOGICO Jathan Sadowski parte da alcuni presupposti. Il primo vuole che tecnologia e capitalismo non siano forze separate ma che si rafforzino in modo reciproco, con le persone relegate al ruolo di osservatori passivi, senza valutarne le ricadute politiche, economiche e sociali. Il secondo presupposto vuole le tecnologie come forma di legislazione che crei regole, definisca diritti, stabilisca cosa è consentito e – a monte – delinei il tipo di società in cui viviamo. Con un impatto anche sul mondo fisico. I magazzini automatizzati sono ambienti costruiti per i robot e non per l’uomo, le strade su cui viaggiano le automobili a guida autonoma sono pensate per quel tipo di veicolo e, ancora, qualsiasi tecnologia futura avrà bisogno di un ambiente fisico adeguato e inedito. Per definire il capitalismo tecnologico, Sadowski fa riferimento a un’idea ampia che si sofferma sugli algoritmi discriminatori, sulle piattaforme che trattano i dati degli utenti, anche i più sensibili, e sulle Big Tech che stipulano ricchi contratti con corpi militari. Tutto ciò porta in superficie le connessioni tra tecnologia e potere, così come mette in risalto la natura politica e le ricadute economico-sociali delle tecnologie. Ciò che andrebbe osservato, e questo è un punto centrale nella narrazione di Sadowski, è il contesto nel quale alcune innovazioni vengono incentivate e altre scartate. Il ruolo dei venture capitalist nell’innovazione capitalista I venture capitalist, investitori privati che finanziano imprese in cambio di quote societarie, definiscono l’innovazione in base a ciò che si adatta ai rispettivi portafogli di investimento e allineano il progresso ai loro obiettivi di profitto. Un modello – critica l’autore – sostenuto da sussidi governativi e agevolazioni fiscali e incentrato sull’ipercrescita (hypergrowth), selezionando startup e tecnologie che possono scalare e dominare il mercato esponenzialmente in breve tempo. Per Sadowski la Silicon Valley siede al tavolo della roulette, decide su quale numero si fermerà la pallina e decide quanto scommettere. Può capitare che la mano non sia vincente ma – sul lungo periodo e sulla quantità di mani giocate – il saldo per i venture capitalist è sempre positivo.   Anche quando il mercato crolla, i venture capitalist al vertice sono in gran parte immuni dai rischi e ottengono comunque profitti significativi. Questo processo crea un “realismo dell’innovazione”, al cui interno il venture capital sembra l’unica via praticabile per sostenere l’innovazione. Dati come capitale e la politica della datificazione L’autore sostiene che le metafore popolari quali “i dati sono il nuovo petrolio” oscurano la vera natura dei dati, che non sono una risorsa naturale, ma sono sempre manufatti. Le aziende inquadrano i dati come una risorsa preziosa, disponibile universalmente e soggetta alle dinamiche di mercato, ma ciò vale solo per quelle imprese che possiedono le tecnologie speciali per scoprirli, estrarli, elaborarli e capitalizzarli. I dati sono una forma di capitale essenziale per la produzione, estrazione e circolazione del valore nei sistemi digitali. Questo spinge le aziende a creare e catturare quanti più dati possibile, da tutte le fonti e con ogni mezzo.  Le acquisizioni aziendali, come l’acquisto di DoubleClick da parte di Google, LinkedIn da parte di Microsoft, WhatsApp da parte di Facebook (ora Meta, ndr) e OneMedical da parte di Amazon, sono spesso fusioni di dati. Una smania per la datificazione che trasforma le persone in dati. Ciò trova conferma, secondo l’autore, per esempio nella ricerca sulla visione artificiale che tende a categorizzare gli esseri umani al pari di oggetti da rilevare, identificare e tracciare, spogliandoli così del loro contesto sociale e della loro umanità. Un’astrazione che fa cadere eventuali resistenze etiche in chi implementa tecnologie di sorveglianza e giustifica – seppure indirettamente – la creazione di oligopoli che trovano forma nelle Big Tech, organizzazioni che fondano le rispettive potenze sui dati, sulla capacità computazionale e sul loro peso geopolitico che le mette in condizione di presentare le tecnologie prodotte al pari di asset strategici nazionali. Il ruolo dei “meccanici” e dei “luddisti” Per il professor Sadowski le parole “mechanic” e “luddite” sono da intendere in un contesto critico. Entrambi, in senso metaforico, incarnano un modo di vivere il capitalismo tecnologico. I “mechanic”, i meccanici, sono le persone che coltivano curiosità su come il mondo funziona, mentre i “luddite” (i luddisti) hanno posizioni più consapevoli delle funzioni intrinseche della tecnologia.  Il termine luddista prende origine dal movimento nato nel Regno Unito durante i primi anni del 1800 che, preoccupato dagli impatti dei macchinari industriali sul lavoro degli artigiani, ha ingaggiato una lotta contro le fabbriche, accusandole di peggiorare le condizioni di vita.  Tanto all’epoca quanto oggi, i luddisti non sono refrattari alle tecnologie in quanto tali ma alle loro implicazioni. Il luddismo odierno è un movimento molto più complesso di quello che, nel XIX secolo, il governo britannico ha represso con la violenza e con leggi ad hoc. In sintesi, il meccanico comprende come funziona un sistema, mentre il luddista sa perché è stato costruito, a quali scopi serve e quando dovrebbe essere smantellato o distrutto. Entrambi i modelli, sostiene Sadowski, sono cruciali per una critica puntuale del tecno-capitalismo.  INTERVISTA CON L’AUTORE Abbiamo approfondito queste posizioni con l’autore del libro. Nel libro emerge un panorama in cui le tecnologie sono sempre più opache (il fenomeno della “scatola nera”), complesse e dominate da interessi aziendali e statali che limitano l’agire umano. Si tratta di uno sviluppo contemporaneo o di un modello ricorrente? “L’idea delle tecnologie come una ‘scatola nera’ esiste da tempo ed è stata a lungo rilevante. È un modello ricorrente nel modo in cui le tecnologie sono progettate e utilizzate. Una scatola nera in cui possiamo vedere gli input e gli output di una tecnologia, di un sistema o di un’organizzazione, ma non possiamo vedere o capire come la cosa effettivamente operi. Se mai, la scatola è diventata semplicemente più opaca col passare del tempo. Che si tratti di intelligenza artificiale o di strumenti finanziari, i meccanismi interni di questi sistemi, che hanno un enorme potere nella società, sono schermati da strati di opacità. Certo, questi sistemi astratti sono complessi, ma sono anche mistificati per design. Ci viene detto che solo pochi eletti sanno come sono stati creati, e ancora meno sanno come effettivamente funzionino. Il risultato è che alla grande maggioranza delle persone viene impedito di conquistare la posizione minacciosa di sapere come le cose funzionano, dire di no al modo in cui funzionano ora e poi pretendere che funzionino diversamente. Consideriamo un modello di machine learning che sta alla base di un sistema di AI. Ora non possiamo nemmeno vedere o comprendere gli input che entrano nel modello perché si tratta di dataset enormi raccolti tramite scraping automatico del web e altre forme di raccolta dati. Nessun essere umano ha mai effettivamente spulciato questi dataset nella loro interezza. Forse qualcuno ha visto solo parti dei dati, o ha solo un’idea generale di che tipo di dati siano inclusi nel dataset. Ma, funzionalmente, il dataset (o input nel sistema) è anch’esso una scatola nera. Le operazioni del modello di machine learning sono anch’esse ‘black-boxed’ poiché questi sistemi computazionali hanno strati nascosti di calcoli probabilistici in cui neppure il creatore della tecnologia sa esattamente cosa stia succedendo. Per di più, persino gli output di questi sistemi sono ora scatole nere: le decisioni prese da questi sistemi di AI e, le loro conseguenze sulla vita delle persone, sono nascoste alla vista del pubblico.  Un decennio fa (era il 2016, nda), il giurista Frank Pasquale scrisse un eccellente libro intitolato The Black Box Society in cui spiegava come le scatole nere si stiano moltiplicando nelle nostre vite grazie a modi tecnici, legali, politici e sociali. Le scatole nere mantengono nascoste le operazioni di questi sistemi.  Quindi, sebbene il fenomeno delle tecnologie a scatola nera sia un modello ricorrente, possiamo sempre più vedere come quelle scatole stanno ora diventando ancora più grandi, inglobando più parti del sistema”. Parliamo dei venture capitalist che plasmano il capitalismo tecnologico anche gonfiando in modo artificioso gli asset speculativi. Come possiamo spezzare questo ciclo dell’hype? Cosa servirebbe per orientare l’innovazione verso il benessere sociale piuttosto che verso l’accumulazione di capitale? “Le nostre aspettative sul futuro sono molto importanti per influenzare dove allocare le risorse e per modellare come e perché costruiamo le tecnologie. Le aspettative sono anche performative del futuro. Andrebbero pensate come prove generali per futuri potenziali che non sono ancora arrivati. Le nostre aspettative creano anticipazione riguardo al futuro e possono aiutare a motivare l’azione nel presente. È per questo che la Silicon Valley spende così tanto tempo e denaro cercando di modellare le nostre aspettative in modi molto specifici che si allineano ai loro desideri e favoriscono i loro interessi. Ecco cosa sono i cicli dell’hype: sono il business della gestione delle aspettative. Gli investimenti speculativi – come quelli che sono la specialità dei venture capitalist e degli imprenditori tecnologici – dipendono dall’hype, dal creare aspettative e motivare all’azione. Questa speculazione è un modo di ricavare valore e profitto da cose che non sono ancora accadute e che potrebbero non accadere mai. Il futuro potrebbe sempre non materializzarsi nel modo in cui la Silicon Valley lo immagina, ma proprio questa incertezza è un elemento cruciale della performance. Significa che la partecipazione del pubblico è necessaria. Nel mio libro chiamo questo il Tinkerbell Effect: le tecnologie speculative esistono solo se ci crediamo abbastanza e battiamo le mani abbastanza forte. Se smettiamo di crederci e smettiamo di applaudire, allora possono cominciare a svanire, diventando sempre più immateriali fino a sparire. Anche investire miliardi di dollari non garantisce la realizzazione di un sogno se le persone smettono di alimentarlo con la loro energia psichica. Gli esempi ci sono, si chiamano Metaverso (un ricordo lontano), Web3 oppure Google Glass (in realtà mai visti davvero sul mercato). Questa natura effimera dell’hype è anche un punto chiave di intervento. Attualmente, molti dei benefici della tecnologia avvengono in modo accidentale e ‘a cascata’. Il loro scopo principale è catturare mercati e creare profitti per grandi aziende. Ci viene detto che questo è l’unico modo possibile e che non dovremmo aspettarci nulla di diverso o migliore. Ma potremmo fare molta strada per orientare l’innovazione in direzioni diverse semplicemente avendo aspettative più alte su come le tecnologie vengono create e a quali scopi servono”. I dati tendono a ridurre le persone a oggetti. Questo processo, intrinseco ai sistemi di intelligenza artificiale, è oggi estremamente rilevante. Quali interventi politici e sociali ritiene necessari per garantire che le tecnologie basate sui dati vengano sviluppate in modi che rispettino la dignità umana? A suo avviso, quali aspetti del capitale umano dovrebbero rimanere al di fuori della portata della datificazione? “Le nuove tecnologie possono catturare quantità di dati così vaste da risultare incomprensibili, ma quei dati sul mondo resteranno sempre incompleti. Nessun sensore o sistema di scraping può assorbire e registrare dati su tutto. Ogni sensore, invece, è progettato per raccogliere dati su aspetti iper-specifici. Ciò può sembrare banale, come un termometro che può restituire un numero sulla temperatura, ma non può dirti che cosa si provi davvero con quel clima. Oppure può essere più significativo, come un algoritmo di riconoscimento facciale che può identificare la geometria di un volto, ma non può cogliere l’umanità soggettiva e il contesto sociale della persona. I dati non potranno mai rappresentare ogni fibra dell’essere di un individuo, né rendere conto di ogni sfumatura della sua vita complessa.  Ma non è questo lo scopo né il valore dei dati. Il punto è trasformare soggetti umani integrati in oggetti di dati frammentati. Infatti, ci sono sistemi che hanno l’obiettivo di conoscerci in modo inquietante e invasivo, di assemblare questi dati e usarli per alimentare algoritmi di targeting iper-personalizzati. Se questi sistemi non stanno cercando di comporre un nostro profilo completo e accurato possibile, allora qual è lo scopo? Ecco però un punto importante: chi estrae dati non si interessa a noi come individui isolati, ma come collettivi relazionali. I nostri modi di pensare la raccolta e l’analisi dei dati tendono a basarsi su idee molto dirette e individualistiche di sorveglianza e informazione.  Ma oggi dobbiamo aggiornare il nostro modo di pensare la datificazione – e le possibili forme di intervento sociopolitico in questi sistemi guidati dai dati – per includere ciò che la giurista Salomé Viljoen chiama ‘relazioni “orizzontali’, che non si collocano a livello individuale, ma a scala di popolazione. Si tratta di flussi di dati che collegano molte persone, scorrono attraverso le reti in modi tali che le fonti, i raccoglitori, gli utilizzatori e le conseguenze dei dati si mescolano in forme impossibili da tracciare se continuiamo a ragionare in termini di relazioni più dirette e individualistiche.  Nel libro spiego che questa realtà delle reti di dati orizzontali indebolisce l’efficacia di interventi troppo concentrati sulla scala dei diritti individuali, piuttosto che sulla giustizia collettiva. Se vogliamo salvaguardare la dignità umana contro la datificazione disumanizzante, allora possiamo farlo solo riconoscendo come i diritti e la sicurezza di tutti i gruppi siano interconnessi attraverso queste reti guidate dai dati. In altre parole, la dignità e la sicurezza di un gruppo di persone colpite da sorveglianza e automazione è legata alla dignità e alla sicurezza di tutte le persone all’interno di questi vasti sistemi sociotecnici che letteralmente connettono ciascuno di noi”. Nel libro esprime il concetto di “AI Potemkin” per descrivere l’illusione di un’automazione che in realtà nasconde enormi quantità di lavoro umano. Un inganno per utenti, investitori e opinione pubblica: che cosa è esattamente questa illusione? “Ci sono tantissime affermazioni altisonanti sulle capacità dei sistemi di intelligenza artificiale. Ci viene fatto credere che queste tecnologie ‘intelligenti’ funzionino unicamente grazie ai loro enormi dataset e alle reti neurali.  In realtà, molte di queste tecnologie non funzionano – e non possono funzionare – nel modo in cui i loro sostenitori dichiarano. La tecnologia non è abbastanza avanzata. Al contrario, molti sistemi dipendono pesantemente dal lavoro umano per colmare le lacune delle loro capacità. In altre parole, il lavoro cognitivo che è essenziale per queste presunte macchine pensanti, proviene in realtà da uffici pieni di lavoratori (mal retribuiti) in popolari destinazioni di outsourcing come le Filippine, l’India o il Kenya. Ci sono stati diversi esempi di alto profilo, come la startup Builder.AI, che affermava di automatizzare il processo di creazione di app e siti web. Un’indagine ha rivelato che il sofisticato ‘sistema di AI’ della startup sostenuta da Microsoft e valutata 1,5 miliardi di dollari  era in realtà alimentato da centinaia di ingegneri software in India, istruiti a fingersi l’AI della società quando interagivano con i clienti. Esempi come questo sono così frequenti che ho coniato il termine AI Potemkin per descriverli. Potemkin si riferisce a una facciata progettata per nascondere la realtà di una situazione (da il villaggio Potemkin, ndr). L’AI Potemkin è collegata al concetto di ‘black boxing’, ma spinge l’occultamento fino alla vera e propria ingannevolezza. Lo scopo non è solo nascondere la realtà, ma mentire sulla realtà delle capacità di una tecnologia, per poter affermare che un sistema sia più potente e prezioso di quanto non sia in realtà. Invece di riconoscere e valorizzare pienamente il lavoro umano, da cui queste tecnologie dipendono, le aziende possono continuare a ignorare e svalutare i componenti umani indispensabili dei loro sistemi. Con così tanti soldi e così poco scetticismo che vengono pompati nel settore tecnologico, l’inganno dell’AI Potemkin continua a crescere a ogni nuovo ciclo di hype della Silicon Valley”. Per concludere, il capitale può eliminare il lavoro umano senza finire, alla lunga, per distruggere sé stesso? “Il capitalismo è un sistema definito da molte contraddizioni che minacciano costantemente di distruggerne le fondamenta e lo gettano di continuo in cicli di crisi. Una contraddizione importante che individuo nel libro è la ricerca del capitale di costruire quella che chiamo la ‘macchina del valore perpetuo’. In breve, questa macchina sarebbe un modo per creare e catturare una quantità infinita di plusvalore senza dover dipendere dal lavoro umano per produrlo. Il capitale persegue questa ricerca da centinaia di anni. Ha motivato enormi quantità di investimenti e innovazioni, nonostante non si sia mai avvicinato a realizzare davvero il sogno di produrre plusvalore senza le persone. Ciò che rende questa una contraddizione è il fatto che gli esseri umani non sono una componente accessoria della produzione di valore; il lavoro umano è parte integrante della produzione di plusvalore. L’AI è l’ultimo – e forse il più grande – tentativo di creare finalmente una macchina del valore perpetuo. Gran parte del discorso sull’automazione, e ora sull’intelligenza artificiale, si concentra sulle affermazioni secondo cui il lavoro umano verrà sostituito da lavoratori robotici, con l’assunzione che si tratti di una sostituzione diretta dei corpi organici con sistemi artificiali, entrambi intenti a fare esattamente la stessa cosa, solo in modi diversi e con intensità diverse. Tuttavia, a un livello fondamentale, l’idea di una macchina del valore perpetuo non può riuscire, perché si basa su un fraintendimento del rapporto tra la produzione di valore e il funzionamento della tecnologia. Il capitale equipara una relazione – gli esseri umani che usano strumenti per produrre valore – a un’altra relazione completamente diversa: gli strumenti che producono valore (con o senza esseri umani). Dal punto di vista del capitale, il problema degli esseri umani è che non sono macchine. Aziende come Amazon non vogliono rinunciare alla fantasia di una macchina del valore perpetuo, ma sanno anche che ci sono molte più alternative che sostituire direttamente gli uomini con le macchine: si possono anche gestire i lavoratori tramite le macchine, renderli subordinati alle macchine e, in ultima analisi, farli diventare sempre più simili a macchine. Questo è un punto cruciale per ripensare il potere dell’AI per il capitalismo e per capire perché le aziende stanno riversando più di mille miliardi di dollari nella costruzione dell’AI. Ai loro occhi, il futuro del capitalismo dipende dall’uso dell’AI per sostituire gli esseri umani come unica fonte di plusvalore o, se questo obiettivo fallisse, dall’obbligare i lavoratori a trasformarsi in oggetti, semplici estensioni delle macchine, costringendo le persone a diventare sempre più meccaniche nel modo in cui lavorano e vivono”. L'articolo “Siate meccanici, siate luddisti”: così si resiste al tecnocapitalismo proviene da Guerre di Rete.
Sorveglianza in Iran: fuori e dentro la rete
Immagine in evidenza: proteste ad Ottawa da Wikimedia Iran: il 15 marzo, durante una cerimonia a cui ha partecipato il vicepresidente iraniano per la Scienza e la Tecnologia, Hossein Afshin, la Repubblica islamica ha presentato la sua prima piattaforma nazionale di intelligenza artificiale. Una piattaforma, la cui versione finale dovrebbe essere lanciata nel marzo 2026, basata su una tecnologia open source e su un’infrastruttura nazionale che ne garantisce l’operatività anche durante le interruzioni di internet. La piattaforma include funzionalità di base come la visione artificiale, l’elaborazione del linguaggio naturale e il riconoscimento vocale e facciale. Partner chiave della nuova piattaforma è l’Università Sharif, ente sanzionato dall’Unione Europea e da altri Paesi per il suo coinvolgimento in progetti militari e missilistici, e per intrattenere rapporti con il Corpo delle Guardie Rivoluzionarie Islamiche (IRGC), o pasdaran. Il lancio di questa piattaforma giunge esattamente il giorno dopo la pubblicazione del documento delle Nazioni Unite intitolato Report of the independent international fact-finding mission on the Islamic Republic of Iran, presentato al Consiglio dei diritti umani a Ginevra il 18 marzo scorso. Il rapporto, pubblicato dopo due anni di indagini indipendenti che hanno incluso interviste a circa 285 vittime e testimoni e l’analisi di oltre 38.000 prove, rivela come le autorità iraniane, dalla fine del 2022 a oggi, abbiano intensificato l’utilizzo di sistemi di videosorveglianza, droni aerei, applicazioni informatiche e software di riconoscimento facciale per monitorare la condotta dei cittadini, in particolare delle donne e il loro uso dello hijab.  Una “condotta persecutoria verso le donne”, così viene definita nel testo, la cui fase cruciale è coincisa con l’approvazione del piano Noor, lanciato nell’aprile 2024 dal Comando di Polizia della Repubblica Islamica dell’Iran (FARAJA), teso a inasprire ulteriormente le pene per chi violava la legge sull’obbligo di indossare lo hijab. E proprio in questa occasione la Repubblica islamica ha fatto ricorso all’uso dell’applicazione mobile Nazer. NAZER, “L’HIJAB MONITOR” DELLA REPUBBLICA ISLAMICA Nazer è una parola persiana che significa “supervisore” o “sorvegliante”. L’applicazione, riferisce uno studio di Filter Watch (progetto del Gruppo Miaan, organizzazione che lavora per sostenere la libertà di internet e il libero flusso di informazioni in Iran e nel Medio Oriente), funziona esclusivamente sulla National Information Network (NIN), una intranet controllata dallo Stato modellata sul Great Firewall cinese e sul RuNet russo, che mira a isolare l’internet nazionale dalla rete globale. Nazer è accessibile sul sito web della polizia e sul canale Eitaa, un’app di messaggistica domestica. Prima di poter utilizzare Nazer, i potenziali utenti e il loro dispositivo devono essere approvati dalla polizia FARAJA. Lo scopo di questa app è quello di segnalare alla polizia le donne che all’interno delle auto non indossano lo hijab in modo appropriato. La trasgressione può essere comunicata inserendo nell’app la posizione del veicolo, la data, l’ora e il numero di targa, dopodiché partirà in tempo reale un messaggio di testo alla polizia, segnalando così il veicolo. “In Nazer non è presente una tecnologia di riconoscimento facciale, e l’app non è progettata per scattare foto di volti. È possibile però scattare foto delle targhe”, riporta lo studio di Filter Watch. A settembre 2024, riferisce un nuovo report di Filter Watch, Nazer è stata aggiornata per consentire il monitoraggio delle donne presenti in ambulanza, sui mezzi pubblici o sui taxi, suggerendo come per i funzionari governativi l’applicazione delle leggi sull’hijab siano una priorità rispetto a un’emergenza medica. L’app è inoltre dotata di nuove funzioni che in futuro potrebbero essere usate per segnalare altri tipi di violazioni, come persone che protestano, che consumano alcolici, che mangiano o bevono in pubblico durante il Ramadan, e comportamenti considerati contrari alla “moralità pubblica”. Una volta che l’auto viene segnalata, la polizia procede inviando un SMS di avvertimento al proprietario. Qualora la violazione venisse ripetuta una seconda volta, l’auto verrà sequestrata elettronicamente. Alla terza infrazione sarà sequestrata sul posto e successivamente, alla quarta infrazione, sequestrata nei parcheggi designati dalla polizia.  Ottenere dati precisi sul numero delle auto confiscate non è semplice, a causa della pesante censura che vige nella Repubblica Islamica. Si parla comunque di migliaia di veicoli sequestrati in questi mesi. A riferirlo è un recentissimo articolo apparso su Etemad, giornale riformista. L’avvocato Mohsen Borhani, sentito da Etemad, ha denunciato come questi sequestri siano illegali. Borhani ha ribadito che non ci sono statistiche esatte sul numero di sanzioni effettuate, ma sulla base delle dichiarazioni di alcuni funzionari e delle indagini sul campo afferma che a migliaia di cittadini sia stata sequestrata l’auto.  LA VIDEOSORVEGLIANZA, UN’ARMA DI REPRESSIONE Oltre l’uso di applicazioni informatiche, la Repubblica islamica ha in questi ultimi mesi inasprito l’utilizzo dei sistemi di videosorveglianza. In ottobre, sulla scia dell’approvazione della Legge a sostegno della famiglia attraverso la promozione della cultura dell’hijab e della castità, legge pubblicata il 30 novembre ma poi sospesa, è stato lanciato un nuovo sistema di videosorveglianza chiamato Saptam. La funzione di Saptam è monitorare gli spazi pubblici, in particolare gli esercizi commerciali.  Questo sistema, creato in collaborazione con la polizia locale, collega le telecamere installate nei negozi ai server cloud gestiti dal sistema nazionale di telecomunicazioni, consentendo alla polizia locale di accedere ai filmati registrati. L’implementazione del sistema Saptam, riferisce Iran News Update, ha coinvolto inizialmente 39 aziende e circa 280 gruppi commerciali. Sebbene l’introduzione di questo nuovo sistema sia stata giustificata per contrastare reati, per esempio le rapine, molti temono che questa installazione venga utilizzata anche per reprimere il dissenso e monitorare l’abbigliamento delle donne.  Alireza, direttore di una piccola azienda, ha riferito a Iran International: “Non passerà molto tempo prima che installino tali sistemi di sicurezza, o meglio strumenti di controllo statale, in tutte le aziende per far rispettare l’uso dello hijab. Le mie dipendenti non sono tenute a indossare l’hijab nei nostri uffici, ma questo non sarà più possibile se consentiremo alla polizia di accedere alle nostre telecamere, perché potrebbero chiuderci”. Mentre Saeed Souzangar, attivista per i diritti digitali, in un post su X ha denunciato: “Il prossimo passo del regime sarà installare telecamere nelle nostre case. Le aziende devono resistere a questi piani abominevoli invece di arrendersi”.  La repressione attraverso apparati tecnologici non si è arrestata: tutt’altro. A dicembre, Nader Yar Ahmadi – consigliere del ministro dell’Interno e capo del Centro per gli Affari degli Stranieri e degli Immigrati del ministero dell’Interno – ha dichiarato a l’Irna, agenzia di stampa statale, che il ministero dell’Interno utilizzerà test biometrici per individuare i cittadini illegali. Questo metodo è stato adoperato dalle autorità iraniane soprattutto per contrastare l’immigrazione proveniente dall’Afghanistan. Quanto finora esposto conferma che nonostante il cambio di governo avvenuto a seguito della morte del presidente Raisi, il nuovo presidente, Masoud Pezeshkian, eletto a luglio, ha continuato ad attuare una pesante e sistematica repressione verso i cittadini e le cittadine, oltre che un vigilantismo informatico e tecnologico sponsorizzato dallo Stato. IL CONTROLLO NELLO SPAZIO DIGITALE E L’USO DELLE VPN La repressione perpetuata dalla Repubblica islamica non si limita agli spazi fisici, ma include anche un controllo sistematico dello spazio digitale. “Dopo aver imposto blocchi a internet durante le proteste e aver sviluppato la propria National Internet Network, lo Stato ha continuato a limitare l’uso di applicazioni mobili impegnandosi in una sorveglianza diffusa. Questi strumenti non sono stati utilizzati solo per restringere la libertà di opinione ed espressione, ma anche per monitorare e prendere di mira i cittadini, tra cui attivisti e giornalisti, oltre che per intimidire, soffocare il dissenso e mettere a tacere le opinioni critiche”, informa il report UN.  Le autorità iraniane hanno varato specifiche misure per impedire ai cittadini di comunicare liberamente e poter accedere a contenuti non sottoposti a censura. Nel febbraio 2024, il Consiglio supremo del cyberspazio ha per esempio vietato l’uso senza un permesso legale delle VPN (reti private virtuali). Una mossa che è servita al governo per aumentare la propria sorveglianza interna, consentendogli di raccogliere informazioni sugli utenti, nonché di tracciare le loro comunicazioni via internet e le loro attività online. Ciò è stato reso possibile anche perché, al posto delle VPN, gli utenti iraniani sono stati costretti, se volevano usufruire di piattaforme straniere, a usare proxy nazionali approvati dallo Stato, riferisce sempre il report. Per servizi essenziali, come quelli bancari, ai cittadini è stato imposto di adoperare solo app locali. Le VPN in Iran sono diventate necessarie per poter accedere ai social e a contenuti bloccati. Senza le VPN, i cittadini e le cittadine iraniane non avrebbero potuto divulgare le immagini delle proteste connesse al movimento rivoluzionario “Donna, Vita, Libertà”, denunciando così gli attacchi violenti della polizia e delle guardie rivoluzionarie contro i manifestanti, e nemmeno esprimere dissenso e coordinare le proteste. A voler aggirare il filtraggio attuato dal regime sono però anche i proprietari di piccole imprese, letteralmente paralizzate dalle riduzioni quotidiane della velocità di internet e dai contenuti bloccati.  Nonostante il 24 dicembre scorso il Consiglio Supremo del Cyberspazio abbia revocato le restrizioni per WhatsApp e Google Play, l’Iran è tra i paesi meno liberi al mondo per quanto riguarda i diritti digitali, e la rincorsa a sistemi alternativi lo conferma. Oltre alle VPN, in Iran un altro metodo per aggirare la censura è Starlink. STARLINK: UN ALTRO METODO PER AGGIRARE LA CENSURA Starlink, sviluppato da SpaceX e di proprietà del miliardario Elon Musk, è vietato in Iran. Da quando però, sul finire del 2022, gli Stati Uniti hanno revocato alcune restrizioni all’esportazione di servizi internet satellitari, Starlink è stato disponibile per migliaia di persone nella Repubblica islamica. Lunedì 6 gennaio 2025, riporta l’agenzia di stampa ILNA, Pouya Pirhoseinlou, capo del Comitato Internet dell’E-Commerce Association, ha dichiarato che in Iran sono oltre 30.000 gli utenti che utilizzano Starlink. Ciò significa che molto probabilmente si assisterà a un’ulteriore crescita dell’uso di questa tecnologia in futuro. L’accesso illimitato e ad alta velocità (qualità perlopiù assenti nell’internet nazionale iraniano) ha incrementato l’uso sottobanco di Starlink, scriveva Newsweek a gennaio. L’internet satellitare, non necessitando di server nazionali e di transitare per la rete iraniana, funziona in modo indipendente, consentendo agli utenti di accedere ai contenuti e ai siti web oscurati, impedendo inoltre alle autorità di tracciare gli utenti e di monitorare le loro azioni nel cyberspazio. Parlando dell’uso di Starlink in Iran non si può non menzionare l’ordine di acquisto da parte dell’Unità di Crisi italiana – struttura del ministero degli Affari esteri e della Cooperazione internazionale – di 2 antenne e 10 abbonamenti da 50 giga di Starlink da destinare all’ambasciata italiana a Teheran. A comunicarlo è un’inchiesta dell’Espresso pubblicata il 14 Gennaio 2025. Nel documento, riportato nell’inchiesta, si legge che l’acquisto è avvenuto “al fine di assicurare la possibilità alla nostra ambasciata di mantenere attivi i collegamenti internet nel caso di interruzione delle comunicazioni terrestri” .  “La procedura prevede che le antenne vengano attivate solo per testarne il funzionamento e siano poi sospese con l’obiettivo di riattivarle solo ove si rendesse necessario”, ha riferito il ministro per i Rapporti con il Parlamento, Luca Ciriani, rispondendo a un’interrogazione in Senato sul sistema satellitare Starlink. Nella medesima interrogazione del 13 marzo, Ciriani ha inoltre comunicato: “Sono state avviate alcune sperimentazioni con i sistemi satellitari Starlink presso le sedi diplomatiche in Burkina Faso, in Bangladesh, in Libano e in Iran, che dunque sono state dotate di antenne Starlink, anche se nessuna a oggi è attiva”. L'articolo Sorveglianza in Iran: fuori e dentro la rete proviene da Guerre di Rete.