Tag - Sorveglianza

L’eterno ritorno di Chat Control
Immagine in evidenza da stopchatcontrol.fr Si torna a parlare di lotta agli abusi sui minori, privacy e crittografia end-to-end, dopo che, il 26 novembre, il Consiglio UE ha votato a favore dell’approvazione del nuovo testo del Child Sexual Abuse Regulation (CSAR), più comunemente conosciuto come Chat Control. La proposta di legge, di cui si discute ormai da più di tre anni, è volta a limitare la diffusione di materiale pedopornografico online attraverso nuove disposizioni per le piattaforme e i fornitori di servizi digitali, inclusa la possibilità di effettuare una scansione preventiva e costante dei contenuti che gli utenti si scambiano, per esempio, su WhatsApp, Telegram o Gmail, al fine di rilevare attività di adescamento di minori o movimento di materiale pedopornografico. La proposta, che da tempo cerca un equilibrio tra la necessità di proteggere i minori da abusi sessuali e quella di tutelare i diritti fondamentali dei cittadini europei (a partire dalla privacy), ha sollevato non poche critiche da parte dei funzionari di governo, degli esperti di sicurezza, delle società di servizi coinvolte e, non da ultimi, degli utenti stessi. E ora, dopo il voto favorevole ottenuto dopo numerosi rinvii, il senso di preoccupazione sta rapidamente crescendo. Proprio per questo, è importante fare chiarezza sul cosiddetto Chat Control: cos’è, quali regolamentazioni prevede, quali sono i reali rischi per la privacy, e come potrebbe cambiare la nostra vita. CHAT CONTROL: COS’È E COSA PREVEDE Era l’11 maggio 2022 quando, per la prima volta, la Commissione Europea presentava una nuova proposta legislativa “per prevenire e combattere gli abusi sessuali sui minori in rete”. Una manovra presentata come necessaria a causa della crescente diffusione di materiale pedopornografico in rete rilevata a partire dal 2021 – anno in cui, stando ai dati riportati dalla Commissione, sono stati segnalati “85 milioni di immagini e video che ritraggono abusi sessuali su minori” – e l’incapacità del sistema attualmente in vigore – il cosiddetto Chat Control 1.0, che prevede la segnalazione di abusi tramite monitoraggio volontario dei fornitori di servizi digitali – di proteggere adeguatamente i minori. Per contenere quanto più possibile la situazione, in quell’occasione la Commissione ha proposto “una legislazione per affrontare efficacemente l’abuso sessuale su minori online, anche richiedendo ai prestatori di rilevare materiale pedopornografico noto e […] la creazione di un Centro dell’UE di prevenzione e lotta contro l’abuso sessuale su minori”. Una serie di norme, in sostanza, che consentirebbero a un’ampia gamma di fornitori di servizi Internet, compresi i servizi di hosting e di messaggistica, di accedere e scansionare le conversazioni private degli utenti al fine di “individuare, segnalare e rimuovere il materiale pedopornografico dai loro servizi”, o rilevare episodi di “adescamento di minori” (grooming). Un’operazione che le compagnie dovrebbero attuare attraverso “tecnologie che siano il meno invasive possibile per la privacy, in linea con lo stato dell’arte del settore, e che limitino il più possibile il tasso di errore dei falsi positivi”. Allo stato attuale, il cosiddetto Chat Control richiede ai “prestatori di servizi di hosting e prestatori di servizi di comunicazione interpersonale” di individuare, esaminare e valutare “per ciascun servizio che offrono, il rischio di un suo uso a fini di abuso sessuale su minori online”. E poi di prendere “misure di attenuazione ragionevoli e adeguate al rischio individuato […] per ridurlo al minimo”. Tra queste misure, come anticipato, rientra anche la scansione delle conversazioni private degli utenti: uno strumento che le piattaforme e i fornitori di servizi possono utilizzare ai fini della valutazione del rischio e della sua attenuazione. Tuttavia, la proposta prevede che, se dopo la valutazione e le misure adottate dal fornitore sussiste ancora un rischio significativo che il servizio possa essere utilizzato per abusi sui minori, le autorità nazionali designate possano avvalersi di questo strumento per indagare sulla diffusione di materiale pedopornografico. In questo caso, possono chiedere all’autorità giudiziaria o amministrativa di “emettere un ordine di rilevazione che impone a un prestatore di servizi di hosting o a un prestatore di servizi di comunicazione interpersonale rientrante nella giurisdizione dello Stato membro in questione di prendere le misure […] per rilevare casi di abuso sessuale su minori online in un servizio specifico”. Anche in questo caso, però, la proposta della Commissione Europea specifica che le autorità devono avvalersi di tecnologie che non siano invasive nei confronti degli utenti coinvolti, ma che siano anzi “efficaci nel rilevare la diffusione di materiale pedopornografico noto o nuovo o l’adescamento di minori, a seconda dei casi” e “non in grado di estrarre dalle comunicazioni in questione informazioni diverse da quelle strettamente necessarie per rilevare […] pattern rivelatori di diffusione di materiale pedopornografico noto o nuovo o di adescamento di minori”. Data la delicatezza della scansione, soprattutto nelle comunicazioni private e crittografate, il regolamento prevede una serie di garanzie, quali la limitazione della durata degli ordini, il controllo umano delle tecnologie di rilevamento, la riduzione al minimo dei dati trattati e l’accesso a meccanismi di ricorso per gli utenti e i fornitori. Pertanto, per garantire che il regolamento venga rispettato, la proposta introduce anche il Centro dell’UE per la prevenzione e la lotta contro gli abusi sessuali sui minori, che svolgerà un ruolo di supporto alle autorità e alle piattaforme fornendo banche dati di indicatori affidabili e tecnologie di rilevamento adeguate, contribuendo a ridurre i falsi positivi e gli impatti invasivi. LE ORIGINI E LE EVOLUZIONI DELLA PROPOSTA DI LEGGE La proposta avanzata dalla Commissione Europea nel 2022 non dichiarava apertamente che i telefoni dei cittadini europei sarebbero stati scansionati alla ricerca di materiale pedopornografico, ma introduceva il concetto di “obblighi di rilevamento” che i fornitori di servizi dovevano rispettare, anche nel caso in cui questi proteggessero la privacy degli utenti con la crittografia end-to-end. Questo significava, quindi, che le autorità coinvolte nella rilevazione potessero ricorrere alla scansione lato client, ossia all’analisi di contenuti digitali presenti sui dispositivi degli utenti prima ancora che venissero crittografati e inviati o ricevuti. Com’è noto, la proposta ha sin da subito scatenato le critiche di governi ed esperti di sicurezza e privacy, tanto che nel 2023 il Parlamento Europeo ha escluso sia la crittografia end-to-end sia i messaggi di testo dall’ambito di applicazione degli obblighi, limitando questi ultimi ai casi di ragionevole sospetto e impedendo di fatto la scansione indiscriminata. Pertanto, solo se i fornitori non rispettano le norme per la sicurezza dei minori, le autorità competenti possono emettere un ordine di scansione e rilevamento di materiale pedopornografico dai dispositivi degli utenti. Nel corso degli anni, però, la proposta ha subìto decine di modifiche e aggiornamenti. L’1 luglio 2025, il Consiglio dell’Unione Europea ha presentato una proposta in cui si afferma chiaramente che, per i servizi dotati di crittografia end-to-end (che impedisce a chiunque di leggere i messaggi, esclusi soltanto mittente e destinatario) come WhatsApp, Signal e Telegram, il rilevamento avviene “prima della trasmissione dei contenuti” – ossia prima che questi vengano crittografati – installando un software preposto alla scansione, ma con una clausola di “consenso dell’utente”. Allo stato attuale, Chat Control rimane soltanto una proposta. Per far sì che diventi una legge a tutti gli effetti è necessario l’avvio di triloghi – “un negoziato interistituzionale informale che riunisce rappresentanti del Parlamento europeo, del Consiglio dell’Unione europea e della Commissione europea” – che mettano d’accordo le parti. Se la linea attuale del Consiglio dovesse essere approvata, questo comporterebbe l’installazione di un software che controlli i contenuti prima della crittografia per i servizi end-to-end; al contrario, se prevalesse la linea del Parlamento, non verrebbe effettuata alcuna scansione preventiva dei contenuti. Proprio per questo, lo scorso 14 ottobre era stato fissato come data per il voto del Consiglio UE sul Child Sexual Abuse Regulation (Csar): un giorno in cui i ministri dei diversi paesi membri avrebbero espresso il proprio parere sulla proposta. A una settimana dalla data, dopo aver subito forti pressioni da parte dell’opinione pubblica, la Germania si era dichiarata contraria al disegno di legge, costringendo l’intero Consiglio a rimandare il voto finale sull’approvazione. “Il monitoraggio ingiustificato delle chat deve essere un tabù in uno Stato di diritto. La comunicazione privata non deve mai essere soggetta a sospetti generalizzati. Né lo Stato deve obbligare a scansionare in massa i messaggi alla ricerca di contenuti sospetti prima di inviarli. La Germania non accetterà tali proposte a livello UE (…). Nemmeno i crimini peggiori giustificano la rinuncia ai diritti civili fondamentali”, ha dichiarato Stefanie Hubig, ministra federale della Giustizia e della Tutela dei consumatori, commentando la scelta della Germania, che ha stravolto l’agenda legislativa della Commissione Europea. LA SVOLTA DANESE Dopo tante controversie, lo scorso novembre la presidenza danese del Consiglio dell’Unione europea ha introdotto un’importante revisione alla proposta del Child Sexual Abuse Regulation (CSAR), in cui le “disposizioni relative agli obblighi di rilevamento (articoli da 7 a 11) sarebbero eliminate dal testo”. In questo modo, il regolamento mantiene il monitoraggio delle chat private degli utenti, senza renderlo obbligatorio, ma trasformandolo in uno strumento che le aziende tecnologiche possono utilizzare a propria discrezione. Anche se, come si legge nella proposta della presidenza danese, “i fornitori di servizi ad alto rischio, in cooperazione con il Centro dell’UE, potrebbero comunque essere tenuti ad adottare misure per sfruttare le tecnologie adeguate per mitigare il rischio di abusi sessuali sui minori individuati sui loro servizi”. La modifica della Danimarca ha segnato un momento importante nell’evoluzione di Chat Control, che lo scorso 26 novembre ha ottenuto l’approvazione dei rappresentanti dei 27 paesi membri dell’Unione Europea, dando così inizio all’ultima fase che precede l’approvazione del regolamento: la discussione tra Parlamento Europeo, Consiglio dell’Unione Europea e Commissione Europea. “Ogni anno vengono condivisi milioni di file che ritraggono visivamente abusi sessuali su minori. Dietro ogni singolo video e immagine c’è un minore che ha subito gli abusi più orribili e tremendi. Ciò è del tutto inaccettabile”, ha commentato Peter Hummelgaard, ministro danese della Giustizia, dopo la votazione svoltasi a Bruxelles. “Sono pertanto lieto che gli Stati membri abbiano finalmente concordato una via da seguire che prevede una serie di obblighi per i prestatori di servizi di comunicazione al fine di combattere la diffusione di materiale di abuso sessuale su minori”.  Allo stato attuale, secondo quanto approvato dai paesi membri dell’UE, “i fornitori di servizi online saranno tenuti a valutare il rischio che le loro piattaforme possano essere utilizzate impropriamente per diffondere materiale di abuso sessuale su minori o per adescare minori. Sulla base di tale valutazione, dovranno attuare misure di attenuazione per contrastare tale rischio. Tali misure potrebbero includere la messa a disposizione di strumenti che consentano agli utenti di segnalare casi di abuso sessuale su minori online, di controllare quali contenuti che li riguardano sono condivisi con altri e di predisporre impostazioni predefinite a tutela della vita privata dei minori”. L’interesse del Consiglio è quello di arrivare ai triloghi il prima possibile, considerando che ad aprile 2026 scadrà la legislazione temporanea che consente alle app di eseguire la scansione alla ricerca di materiale pedopornografico. “Il Consiglio ha finalmente adottato la sua posizione sul regolamento CSA”, ha commentato in un post pubblicato su X il deputato spagnolo Javier Zarzalejos, leader delle negoziazioni in Parlamento. “Abbiamo bisogno di un quadro legislativo obbligatorio e a lungo termine con solide garanzie. Il tempo sta per scadere e ogni minuto che perdiamo senza una legislazione efficace significa più bambini danneggiati”. La nuova proposta non sembra però incontrare né il sostegno delle forze dell’ordine, preoccupate che i contenuti illegali rimarranno nascosti nelle applicazioni con crittografia end-to-end, né gli attivisti a difesa della privacy, preoccupati che il rilevamento – seppur volontario – possa trasformarsi in uno strumento di sorveglianza di massa. I RISCHI DI CHAT CONTROL E qui arriviamo a un altro dei punti deboli della proposta della Commissione ampiamente criticato dagli attivisti, l’alto tasso di falsi positivi. I sistemi di scansione automatica, infatti, spesso segnalano come illegali contenuti che non lo sono affatto, come le foto di bambini sulla spiaggia scattate durante le vacanze familiari. Secondo la polizia federale della Svizzera, per esempio, l’80% di tutte le segnalazioni elaborate da programmi informatici si rivelano infondate. E stando ai dati raccolti in Irlanda, invece, solo il 20% delle segnalazioni ricevute dal National Center for Missing and Exploited Children (NCMEC) nel 2020 sono state confermate come effettivo “materiale pedopornografico”. Il rischio, quindi, è che i cittadini vengano coinvolti in indagini sull’abuso di minori senza aver mai commesso alcun reato e, per di più, vedendo compromessa la propria privacy. E non è tutto. Molti critici, infatti, temono anche il cosiddetto “function creep”: una volta che esisterà un sistema per la scansione di tutti i messaggi degli utenti, i futuri governi potrebbero essere tentati di estenderne l’applicazione ad altri settori, come il terrorismo o, nel peggiore dei casi, censurando il dissenso politico. “Una volta che viene implementato una tecnologia di questo genere, significa che avremo un sistema che controlla tutte le nostre comunicazioni e decide se sono legali o no”, ha commentato Udbhav Tiwari, VP strategy and global affairs di Signal, nel corso del webinar Stop Chat Control tenutosi lo scorso 30 settembre. “Il suo funzionamento dipende esclusivamente da come e con quali dati viene addestrato”. Un’opinione condivisa dai governi di Repubblica Ceca, Paesi Bassi e Olanda, che hanno espresso un voto contrario lo scorso 26 novembre. E così pure – o quasi – dall’Italia, che ha deciso di astenersi dalla votazione, sottolineando la preoccupazione che una forma di sorveglianza delle comunicazioni potrebbe ledere i diritti costituzionali della persona. “I titoli dei giornali sono fuorvianti: Chat Control non è morto, è solo stato privatizzato”, ha commentato Patrick Breyer, ex eurodeputato oggi alla guida del movimento Fight Chat Control. “Quello che il Consiglio ha approvato oggi è un cavallo di Troia. Consolidando la scansione di massa ‘volontaria’, stanno legittimando la sorveglianza di massa senza mandato e soggetta a errori di milioni di europei da parte delle aziende statunitensi”. Il termine “volontario” per definire il rilevamento proposto dalla presidenza danese, secondo Breyer, sarebbe ingannevole: “Il testo mira a rendere permanente la normativa temporanea ‘Chat Control 1.0’”, che consente a fornitori come Meta o Google di scansionare le chat private degli utenti, indiscriminatamente e senza un mandato del tribunale. Nulla di troppo diverso, quindi, rispetto alla proposta originaria. Chat Control, secondo gli attivisti, è e continua a essere uno strumento pericoloso per la sicurezza e la privacy dei cittadini. L'articolo L’eterno ritorno di Chat Control proviene da Guerre di Rete.
Apple, i dark pattern e la difficile battaglia contro il tracciamento
Nel 2021 Apple ha introdotto App Tracking Transparency (ATT), una funzionalità del sistema operativo iOS che permette agli utenti, che prima dovevano districarsi tra interfacce confusionarie, di impedire con un solo click qualunque tracciamento, evitando quindi che qualsiasi app presente sul loro smartphone possa raccogliere dati personali a fini pubblicitari senza il loro consenso esplicito. La funzionalità introdotta in iOS, il sistema operativo di iPhone e iPad, fornisce un servizio che, nell’internet dominata dal capitalismo della sorveglianza, rende una gran fetta di utenti più protetti. E questo l’ha resa particolarmente apprezzata: si stima infatti che il 75% degli utenti iOS la utilizzi. Eppure ATT, in Italia e in altri paesi europei, potrebbe avere vita breve: “In Apple crediamo che la privacy sia un diritto umano fondamentale e abbiamo creato la funzionalità di App Tracking Transparency per offrire agli utenti un modo semplice per controllare se le aziende possono tracciare le loro attività su altre app e siti web. Una funzionalità accolta con entusiasmo dai nostri clienti e apprezzata dai sostenitori della privacy e dalle autorità per la protezione dei dati in tutto il mondo”, si legge in un comunicato. “Non sorprende che l’industria del tracciamento continui a opporsi ai nostri sforzi per dare agli utenti il controllo sui propri dati”. ATT RISCHIA DI SPARIRE Nonostante il favore degli utenti, ATT è infatti oggetto in Italia di un’indagine dell’Autorità Garante della Concorrenza e del Mercato, che secondo diversi osservatori arriva dopo una forte pressione da parte dell’industria pubblicitaria. Le aziende del settore sostengono che la funzione sia “abusiva” perché duplicherebbe i consensi già richiesti dal GDPR. Apple respinge l’accusa e afferma che la normativa europea dovrebbe essere un punto di partenza, non un limite, e che ATT offre un livello di controllo più chiaro e immediato. La decisione dell’AGCM è attesa entro il 16 dicembre e rischia di privare i consumatori di un prodotto informatico, ATT, che non solo è più funzionale dei singoli banner, ma che si potrebbe definire “naturale”: nel momento in cui tutte le app hanno bisogno di una stessa funzione (in questo caso, richiedere il consenso degli utenti alla profilazione) è più logico integrarla nel sistema operativo e offrirla in un’unica versione standard. ATT fa proprio questo: porta la richiesta di consenso al tracciamento a livello di sistema. Nonostante ogni utente abbia il diritto di prestare o negare il consenso all’utilizzo dei suoi dati personali per fornire pubblicità mirata o rivenderli ai cosiddetti data broker, la semplicità d’uso di ATT di Apple rappresenta la differenza tra un consenso spesso “estorto” da interfacce appositamente convolute e opache e un consenso informato, libero, revocabile. In base al GDPR, il regolamento europeo sulla protezione dei dati, ogni applicazione può trattare i nostri dati personali solo se esiste una delle sei basi giuridiche previste dalla legge. Tra queste, il consenso è quello più comunemente utilizzato. Poiché permette di effettuare una scelta in modo chiaro e semplice, l’ATT ha rapidamente raccolto l’effettivo interesse degli utenti, mostrando in maniera coerente come si può ottenere ciò che i vari garanti europei hanno chiarito nel tempo, ovvero che “rifiutare dev’essere facile quanto accettare”. LA STRATEGIA DI APPLE Ma Apple ha fatto un altro passo avanti: non ha offerto ATT ai programmatori di app, ma l’ha imposta. Ha reso questo consenso necessario, al pari di quello che deve chiedere un’app quando, per esempio, vuole accedere alla localizzazione o al microfono. È direttamente il sistema operativo, sia in iOS sia in Android, che permette di scegliere se fornire o meno, per esempio, l’accesso al microfono al videogioco che abbiamo appena scaricato. In questo modo, lo spazio di manovra per trarre l’utente in inganno si riduce molto: possiamo vedere in una volta sola quali sono le app che richiedono quel privilegio e revocarlo a tutte in ogni momento. Immaginiamo gli esiti nefasti che si sarebbero verificati nel mercato mobile se ogni app avesse potuto accedere, tramite formula ambigue per il consenso, a periferiche come microfono, localizzazione, cartelle e rubrica. È proprio per evitare questa situazione che i programmatori dei sistemi operativi hanno dato il controllo agli utenti, limitando di conseguenza la presenza di spyware e profilazione invasiva. La possibilità di bloccare facilmente l’accesso a periferiche così delicate, soprattutto quando scarichiamo app dalla reputazione dubbia, ci dà un senso di protezione. Perché con il tracciamento dovrebbe essere diverso? Siamo certi che fornire l’accesso al microfono permetta di ottenere dati molto più rilevanti di quelli che si possono avere tramite la profilazione? In realtà, il tracciamento e la cessione di informazioni ai data broker dovrebbero evocare la stessa percezione di rischio. E quindi essere soggette, come fa in effetti l’ATT, a un simile trattamento a livello di consenso. La differenza tra tracciamento e accesso alle periferiche Una periferica è una porzione del sistema operativo: un’app può accedervi soltanto se le è stato concesso questo privilegio, altrimenti non ha modo di farlo. La garanzia del controllo delle aree più delicate di un sistema operativo è un elemento fondamentale della sicurezza informatica. Il blocco al tracciamento, invece, è un insieme di misure tecniche: impedisce il fingerprinting (una tecnica che permette di identificare in modo univoco un utente o un dispositivo) e l’accesso all’Identificatore Unico Pubblicitario (un codice anonimo assegnato dal sistema operativo a ciascun dispositivo mobile, che permette alle app di riconoscere l’utente a fini pubblicitari), oltre a  costringere lo sviluppatore a esplicitare gli obiettivi del trattamento dati, pena la rimozione dall’Apple Store. Non è impossibile aggirare questi divieti, ma una funzione come ATT, che permette di attivarli con un’unica scelta, lo rende molto più complesso. I MILIARDI PERSI DA META Per capire la posta in gioco: Meta ha affermato che ATT sarebbe stato, nel solo 2022, responsabile di una perdita pari a 10 miliardi di dollari (circa l’8% del fatturato 2021), causando una caduta in borsa del 26%. Il Financial Times stimò invece che, nel solo secondo semestre 2021, l’ATT introdotto da Apple fosse la causa di 9,85 miliardi di inferiori ricavi complessivi per Snap (la società del social network Snapchat), Facebook, Twitter e YouTube, segnalando l’ampiezza dell’impatto sull’intero ecosistema pubblicitario. Nel suo report del 2022, lo IAB (Interactive Advertising Bureau, un’associazione di categoria delle aziende pubblicitarie e della comunicazione) menziona già nell’introduzione come la colpa di queste perdite sia in primo luogo dell’ATT e in secondo luogo del regolamento della California sui dati personali. Questo aspetto ci aiuta a mappare il conflitto: i diritti e il consenso vengono considerato come degli avversari da questi soggetti, che – nel tentativo di recuperare i miliardi perduti – sono disposti a mettere in campo tutto il loro potere legale, fino ad arrivare a un’interpretazione del diritto che dovrebbe essere un caso di studio. IN EUROPA, LA PRIVACY SUL BANCO DELL’ANTITRUST In diverse nazioni europee, in seguito alle denunce di associazioni di categoria, sono infatti state intentate cause contro Apple per “abuso di posizione dominante”. Non è però chiaro dove sia il beneficio diretto di Apple,  visto che anche le sue applicazioni devono rispondere all’ATT e quindi anche Apple deve chiedere il consenso per servire pubblicità personalizzata. Apple potrebbe al massimo avere un beneficio indiretto, penalizzando i principali concorrenti – i cui introiti provengono dalla pubblicità – mentre si avvantaggia dalla vendita di dispositivi promossi come “privacy first”. Una delle interpretazioni fornite dalle associazioni di categoria è che gli sviluppatori di applicazioni terze debbano essere in grado di usare il loro form per la richiesta del consenso. Questo, però, ci porta ad affrontare un problema noto: quello dei dark pattern o deceptive design (interfacce ingannevoli), ovvero strategie di design che spingono l’utente a compiere scelte non pienamente consapevoli, per esempio rendendo più complesso rifiutare il tracciamento o l’iscrizione a un servizio rispetto ad accettarlo. DARK PATTERN: PERCHÉ LA FORMA DECIDE IL CONTENUTO Come scrive Caroline Sinders, “le politiche per regolamentare Internet devono fare i conti con il design”, perché interfacce e micro-scelte grafiche possono “manipolare invece che informare” e svuotare principi come il consenso: “I dark pattern sono scelte di design che confondono gli utenti o li spingono verso azioni che non desiderano davvero”. E fanno tutto ciò, tipicamente, rendendo molto facile dire di sì e invece complesso o ambiguo dire di no. Non si tratta di astrazioni. Nel 2024, NOYB (il centro europeo per i diritti digitali) ha analizzato migliaia di banner di consenso in Europa, documentando schemi ricorrenti e misurabili: se il pulsante “rifiuta” non si trova nel primo livello del banner, solo il 2,18% degli utenti lo raggiunge. Non solo: rifiutare richiede in media il doppio dei passi rispetto ad accettare. Tra le pratiche “dark pattern” più comuni troviamo inoltre: link ingannevoli per il rifiuto (inseriti nel corpo del testo mentre per accettare è presente un pulsante ben visibile), colori e contrasti che enfatizzano l’ok e sbiadiscono il no, caselle preselezionate, falso “legittimo interesse” (con cui un’azienda dichiara di poter trattare i dati senza esplicito consenso) e percorsi per la revoca più difficili del consenso. Il Digital Services Act (DSA), in vigore dal 2022, ha portato nel diritto dell’UE il lessico dei dark pattern e ne vieta l’uso quando interfacce e scelte di design ingannano o manipolano gli utenti, aprendo la strada a linee guida e strumenti di attuazione dedicati. In concreto, il DSA prende di mira alcune pratiche precise, come la ripetizione delle richieste anche dopo che una scelta è già stata espressa. Nella tassonomia accademico-regolatoria più aggiornata, questo comportamento corrisponde al pattern “nagging”, cioè l’interruzione insistente che spinge l’utente verso un’azione indesiderata. Un documento rivelatore, da questo punto di vista, è An Ontology of Dark Patterns, che fornisce strumenti utili a riconoscere dark pattern, dar loro un nome preciso e idealmente a poterli misurare, così da effettuare reclami dove possibile e magari riuscire, a colpi di sanzioni, a limitarli. Nonostante il DSA sancisca a livello concettuale il divieto dei dark pattern, le autorità o i cittadini che volessero effettuare reclami dovrebbero poter misurare la difficoltà dell’interfaccia e rendere obiettivo il giudizio. Questa è la parte più difficile: da un lato non puoi distinguere un dark pattern dal cattivo design; dall’altro, le piattaforme più grandi (definite dalla UE “gatekeeper”) sono diventate tali anche per la cura maniacale nei confronti del design delle loro interfacce, ottimizzando il percorso per loro più profittevole e disincentivando tutti gli altri. Qui sta la difficoltà: non si può giudicare un dark pattern solo dal principio, bisogna invece misurare l’esperienza. In pratica, i pattern si vedono quando: rifiutare richiede più passaggi di accettare (asimmetria di percorso); il “no” è meno evidente del “sì” (asimmetria visiva: posizione, dimensione, contrasto); l’utente viene interrotto finché non cede (nagging); ci sono oneri informativi inutili prima di arrivare alla scelta (ostruzione); esistono impostazioni preselezionate o categorie opache (sneaking). Per questo le standardizzazioni di piattaforma come ATT sono preziose: trasformano il consenso in un gesto coerente nel tempo, riducendo la superficie di manipolazione creativa e permettendo sia agli utenti di imparare rapidamente dove e come decidere, sia ai regolatori/ricercatori di misurare con metriche stabili (passaggi, tempi, posizionamenti). È lo stesso vantaggio che abbiamo quando il sistema operativo gestisce i permessi di fotocamera o microfono: l’utente riconosce il messaggio proveniente dal sistema operativo, sa come revocare il consenso e chi prova a barare salta subito all’occhio. Infine, il nodo culturale: consenso informato e scelta informata richiedono una certa educazione dell’utente. Il regolatore spesso la dà per scontata mentre, al contrario, i team tecnici delle piattaforme investono nel scovare le vulnerabilità degli utenti, sfruttando posizionamento, ritardi, colori, tempi, percorsi. Per questo l’uniformità del punto in cui bisogna effettuare la decisione (uno strato di sistema, uguale per tutti) dovrebbe essere favorita: abbassa la complessità per gli utenti e rende l’enforcement verificabile. Oggi, però, la regolazione resta quasi sempre a livello alto (principi, divieti) e raramente scende a specifiche vincolanti sulla user interface. Il risultato è che l’onere di provare la manipolazione ricade su autorità e cittadini, caso per caso; mentre chi progetta interfacce approfitta della grande varietà di soluzioni “creative”. ATT mostra che spostare la scelta verso il basso, all’interno del sistema, abilita gli utenti a esprimere le loro volontà e a vederle rispettate. IL LIMITATO INTERVENTO DEL GARANTE Immaginiamo che l’Autorità Garante della Concorrenza e del Mercato (AGCM) ponga all’autorità che si occupa di protezione dei dati una domanda di questo tipo: “ATT è necessario per adempire al GDPR?”. Quest’ultimo probabilmente risponderebbe negativamente, perché in punta di diritto non lo è. Forse è un peccato, perché se la domanda invece fosse: “ATT è una soluzione migliore per catturare il consenso rispetto ai banner sviluppati da terze parti?”, la risposta sarebbe molto probabilmente differente. Al di là degli scenari teorici, che mostrano però come basti cambiare il punto di vista per cambiare anche il risultato, l’impressione è che AGCM abbia la possibilità di rimuovere ATT e che il garante della Privacy non abbia strumenti per intervenire. La situazione non sembra quindi rosea per ATT in attesa della decisione del 16 dicembre, visto che in Francia l’Autorità competente ha già inflitto a Apple 150 milioni di euro, ritenendo sproporzionato il sistema rispetto all’obiettivo dichiarato e penalizzante per editori più piccoli (Apple ha invece nuovamente difeso ATT come una scelta a favore degli utenti). Ed è qui che la notizia si intreccia con i dark pattern: per alleggerire le restrizioni di ATT, l’industria pubblicitaria spinge perché siano le singole app e non il sistema a mostrare i propri moduli di consenso. Ma quando scompare il “freno di piattaforma”, gli stessi moduli spesso deviano la scelta. ANTITRUST CONTRO PRIVACY EPIC (Electronic Privacy Information Center) ha messo in guardia proprio su questo punto: con la scusa della concorrenza si rischiano di abbassare le barriere al tracciamento, limitando le tutele. Le minacce per la sicurezza relative alle periferiche e di cui abbiamo parlato, per esempio, non sono sempre state bloccate. Le tutele sono cresciute gradualmente. Da questo punto di vista, il caso di Apple fa riflettere su due aspetti. Il primo è che se i diritti non sono riconosciuti a norma di legge, non sono realmente ottenuti. Per esempio: una VPN potrà darci un vantaggio, un sistema operativo potrà darci una funzione come l’ATT, una corporation come WhatsApp potrà avvisarci di essere soggetti ad attacchi da parte di attori statali, ma questi sono da viversi come “regali temporanei”. Ci vengono fatti perché la percezione di sicurezza degli utenti conta di più della loro effettiva inattaccabilità. Chissà cosa succederebbe se l’antitrust sancisse che gli sviluppatori di terze parti possono avere la libertà di accedere anche alle periferiche del sistema, senza subire i vincoli del sistema operativo. Sarebbe naturalmente un disastro, ma quantomeno solleverebbe pressioni, perplessità, critiche. Invece, relegare questa scelta a una lotta tra corporation rischia di non rendere giustizia alle vittime di tutto questo: gli utenti. Grande assente nelle carte è infatti una domanda: che cosa vogliono le persone? Come detto, al netto delle dispute tra piattaforme e ad-tech, ATT piace agli utenti iOS e una larga maggioranza di utenti Android ha detto di volere “qualcosa di simile” sui propri telefoni. Un maxi-sondaggio svolto da Android Authority con oltre 35 mila voti (per quanto privo di valore statistico) ha concluso che “la stragrande maggioranza vuole anche su Android una funzione anti-tracking come quella di Apple”. Ma questo in fondo già lo sapevamo, ognuno di noi,  quando messo davvero di fronte a una scelta chiara, tende a dire di no al tracciamento. Usare l’antitrust per rimuovere ATT non darebbe più libertà agli sviluppatori, ma solo più libertà d’azione ai dark pattern. L'articolo Apple, i dark pattern e la difficile battaglia contro il tracciamento proviene da Guerre di Rete.
Uso illegale della sorveglianza da parte della polizia di New York
Dopo cinque anni di contenzioso giudiziario contro il Dipartimento di polizia di New York (New York Police Department, Nypd) da parte di Amnesty International e dal Progetto di monitoraggio delle tecnologie di sorveglianza (Surveillance Technology Oversight Project, Stop), un gruppo per i diritti civili di New York che si occupa di privacy, sono emersi dati allarmanti sull’uso illegale della sorveglianza contro persone manifestanti e persone di colore, compreso il frequente utilizzo della tecnologia per il riconoscimento facciale, in violazione dei diritti umani. L’analisi di Amnesty International e di Stop su oltre 2.700 documenti rivela che l’Nypd ha usato tale tecnologia in numerose occasioni per sottoporre persone newyorkesi a sorveglianza massiccia e profondamente discriminatoria, tra le quali singole persone denunciate da privati cittadini che sospettavano delle prime a causa della lingua parlata o per aver mostrato, nell’abbigliamento, determinati simboli culturali. “New York aveva promesso di essere una città-rifugio e invece è diventata una sorta di stato di sorveglianza”, ha dichiarato Michelle Dahl, direttrice di Stop. “Queste tecnologie costose, basate sul pregiudizio e che si prestano all’errore, stanno dilapidando miliardi di dollari. La sorveglianza dell’Nypd fa rischiare alle persone che abitano accanto a noi arresti, espulsioni o addirittura qualcosa di peggio. È giunto ampiamente il momento che i newyorkesi si rendano conto del modo distopico con cui l’Nypd osserva tutte e tutti noi e che chi fa le leggi agisca per chiamare l’Nypd a rendere conto del suo operato, renda illegale il riconoscimento facciale e imponga un autentico monitoraggio civile”. Il riconoscimento facciale viola il diritto alla privacy attraverso la raccolta massiccia di immagini senza che le persone ne siano a conoscenza né tantomeno col loro consenso. È una tecnologia affetta da pregiudizio razziale, prende di mira sproporzionatamente le comunità nere e marroni e sopprime, producendo un effetto raggelante, il diritto di protesta pacifica e la libertà d’espressione. Centinaia di organizzazioni considerano illegale questa tecnologia. Amnesty International e Stop chiedono da tempo che sia vietato usare, sviluppare, produrre e vendere, da parte di agenzie per il mantenimento dell’ordine pubblico e di altre agenzie governative, tecnologia per il riconoscimento facciale a scopo d’identificazione e di sorveglianza di massa. Nella loro analisi, Amnesty International e Stop hanno verificato che la sorveglianza dell’Nypd mette in pericolo comunità marginalizzate e profila la popolazione di New York sulla base di lingua, etnia e altre caratteristiche protette. Una prima analisi degli oltre 2.700 documenti forniti dall’Nypd mostra che: * alla data del 17 aprile 2020, l’Nypd aveva già speso oltre cinque miliardi di dollari in tecnologia per il riconoscimento facciale nel biennio 2019-2020 e da allora ha speso ogni anno almeno 100.000 dollari; * nel 2015 l’Nypd ha smesso di analizzare l’accuratezza della tecnologia per il riconoscimento facciale dopo aver scoperto che le percentuali di errore erano troppo elevate; * dirigenti dell’Nypd hanno cospirato con l’US Marshalls Service (l’agenzia federale delle forze di polizia) per sottoscrivere illecitamente un contratto con un’agenzia di prodotti per la sorveglianza facciale per monitorare un profilo privato Instagram, in violazione delle politiche dell’Nypd sul riconoscimento facciale; * il 31 dicembre 2019 il riconoscimento facciale è stato usato dall’Nypd per prendere di mira persone di New York che sulle piattaforme social usavano lo slang, come nel caso dell’espressione “NYE in Times Square is da BOMB” (letteralmente: “Il Capodanno di New York a Times Square è FANTASTICO”), in evidente e pericolosa violazione del diritto alla libertà d’espressione e ignorando del tutto i contesti culturali e linguistici; * l’Nypd ha usato la tecnologia per il riconoscimento facciale ed eseguito alcune operazioni di mantenimento dell’ordine pubblico in modo selettivo contro persone che criticavano le stesse forze di polizia: ad esempio, il 1° febbraio 2020 gli agenti hanno identificato e arrestato una persona autrice di un graffito contenente l’acronimo Ftp (“Fuck the police”) in un periodo di forti proteste e di dissenso contro le azioni brutali dell’Nypd; * il 31 dicembre 2019, durante i festeggiamenti di Capodanno a Times Square, l’Nypd ha svolto profilazione razziale nei confronti di persone che non ballavano e parlavano in lingue medio-orientali. Nella relazione di accompagnamento, c’era scritto: “(Quelle persone) non avevano donne con loro, non stavano ballando come tutti gli altri e davano a tutti un’impressione sgradevole. A un certo punto (una di queste persone) è andata in bagno e stava parlando a voce alta al suo telefono in una lingua medio-orientale”; * il 3 giugno 2020, l’Nypd ha iniziato a sorvegliare “un manifestante su Twitter” che postava contenuti politici, pur riconoscendo la mancanza di motivi urgenti e di minacce; incurante di ciò, ha proseguito a monitorare altri profili social; * il 5 giugno 2020 l’Nypd ha usato la tecnologia per il riconoscimento facciale per identificare un manifestante del movimento Black lives matter che aveva usato l’iperbole “i poliziotti dovrebbero morire” in un post pubblicato sui social media; * il 22 aprile 2020 l’Nypd ha usato la tecnologia per il riconoscimento facciale per identificare due cantanti unicamente a causa dei loro video, in violazione del loro diritto alla libertà d’espressione. “Ne emergono molteplici casi di discriminazione e uso illegale della tecnologia per il riconoscimento facciale, che rafforzano le nostre precedenti ricerche sul trattamento delle comunità nere e marroni di New York”, ha commentato Matt Mahmoudi, ricercatore e consulente di Amnesty International su intelligenza artificiale e diritti umani. “L’Nypd ha evitato i controlli per troppo tempo e ha tratto beneficio dalla mancanza di trasparenza per investire illegalmente nell’uso della tecnologia per il riconoscimento facciale per attaccare i diritti alla privacy, all’uguaglianza e alla non discriminazione e le libertà d’espressione e di manifestazione pacifica”. Ulteriori informazioni Nel settembre 2020 Amnesty International ha presentato una richiesta ai sensi del Freedom of information Act (Foia) per richiedere dati dell’Nypd sulla sorveglianza delle proteste del movimento Black Lives Matter in corso quell’anno. Nel 2021 l’Nypd ha respinto la richiesta e i successivi ricorsi. Stop e il noto studio legale Quinn Emanuel Urquhart & Sullivan, LLP hanno allora avviato un contenzioso giudiziario contro l’Nypd per conto di Amnesty International, chiedendo che un giudice ordinasse la messa a disposizione della documentazione richiesta. Nel 2022 la Corte Suprema della contea di New York ha ordinato all’Nypd di fornire oltre 2.700 documenti sulla sorveglianza ai danni del movimento Black Lives Matter. Nel 2022 Amnesty International, Stop e la campagna newyorkese Ban the Scan hanno reso noto che le persone residenti nei quartieri a maggiore rischio di subire la procedura “stop-and-frisk” (ferma e perquisisci) erano sottoposte a un uso più frequente di tecnologia per il riconoscimento facciale. Le persone non bianche del Bronx, di Brooklyn e del Queens erano maggiormente sottoposte alla sorveglianza da parte delle videocamere dell’Nypd. Amnesty International, Stop e Ban the Scan stanno chiedendo al consiglio municipale di New York di mettere al bando il riconoscimento facciale, attraverso due provvedimenti che hanno già ottenuto l’appoggio della maggioranza. Inoltre, queste organizzazioni chiedono all’Nypd e al sindaco di New York di impegnarsi a porre immediatamente fine all’impiego di tecnologie discriminatorie, invasive e inclini all’errore. Amnesty International
Nell’era Trump, la lotta ai migranti passa anche dalle app
Immagine in evidenza da RawPixel, licenza CC 1.0 Nelle ultime settimane, hanno suscitato grande scalpore alcune applicazioni sviluppate per segnalare alle autorità competenti i cittadini stranieri che vivono illegalmente negli Stati Uniti. In particolare, secondo The Verge, a ricevere il sostegno di Donald Trump e dei filotrumpiani è stata ICERAID, un’app che promette di premiare con una criptovaluta proprietaria, il token RAID, “i cittadini che acquisiscono, caricano e convalidano le prove fotografiche di otto categorie di sospette attività criminali”. Tra queste i maltrattamenti di animali, i rapimenti, gli omicidi, le rapine, gli atti terroristici e, naturalmente, l’immigrazione clandestina.  L’idea alla base dell’applicazione è quella di trasformare i cittadini in veri e propri “cacciatori di taglie”, permettendo loro di combattere la criminalità in collaborazione con le forze dell’ordine e le agenzie di sicurezza. Con ICERAID, gli americani hanno infatti la possibilità di scattare e caricare la foto di un presunto reato in corso, fornendo tutte le informazioni utili per consentire alle autorità competenti di intervenire, ma solo dopo che la veridicità della segnalazione è stata confermata (al netto degli errori) da un’intelligenza artificiale. Ma non è tutto. Come riportato da Newsweek, l’app vanta un “programma di sponsorizzazione” che promette di “ricompensare gli immigrati privi di documenti e senza precedenti penali che si fanno avanti, attraverso un programma di sostegno in cui vengono aiutati a perseguire lo status legale negli Stati Uniti tramite vari percorsi, tra cui l’assistenza per la ricerca di un avvocato specializzato in immigrazione”.  Eppure, nonostante i sostenitori di Trump abbiano promosso ICERAID in ogni modo possibile, l’applicazione non sembra star riscuotendo il successo sperato. Allo stato attuale, risultano solo otto segnalazioni di attività criminali da parte dei cittadini statunitensi, di cui soltanto tre ritenute valide dall’AI dell’applicazione. Una delle ragioni è probabilmente il fatto che l’app è stata rilasciata sul mercato senza che la sua criptovaluta fosse ancora disponibile, il che ha reso gli americani restii a utilizzarla. Ma anche la cattiva reputazione del fondatore del progetto Jason Meyers – accusato di appropriazione indebita di fondi in una delle sue attività precedenti – non ha contribuito alla credibilità di ICERAID. Di certo, i sostenitori di Trump e gli esponenti della destra americana stanno cercando di trasformare i cittadini comuni in “vigilantes” pronti a dare la caccia agli immigrati clandestini, con o senza il supporto della tecnologia. A gennaio un senatore dello Stato del Mississippi ha presentato una proposta di legge che prevedeva una ricompensa di 1.000 dollari per i cacciatori di taglie che avrebbero portato a termine la cattura di immigrati entrati nel paese senza autorizzazione. Fortunatamente, la proposta non è mai diventata legge, ma ha comunque dimostrato qual è la direzione che sta prendendo la destra americana.  TRUMP STA SPINGENDO GLI IMMIGRATI ALL’AUTOESPULSIONE CON UN’APP Il presidente degli Stati Uniti Donald Trump sembra intenzionato a utilizzare ogni mezzo possibile per mantenere la promessa di combattere l’immigrazione clandestina e contenere i flussi di migranti in ingresso al confine sud-occidentale del Paese. Proprio qualche settimana fa, la segretaria alla Sicurezza nazionale Kristi Noem ha infatti annunciato il lancio dell’app Cbp Home, dotata di una funzione specifica che “offre ai cittadini stranieri la possibilità di andarsene ora e di auto-espellersi, il che darebbe loro l’opportunità di tornare legalmente in futuro e vivere il sogno americano”. Più nel dettaglio, l’applicazione non è altro che la versione completamente rinnovata di Cbp One, un’app promossa dall’amministrazione Biden per agevolare i migranti nel fissare un appuntamento per avviare le pratiche di richiesta di asilo negli Stati Uniti. Ora, invece, con Donald Trump l’applicazione ha preso tutta un’altra forma. Secondo quanto riferito da Newsweek, Cbp Home offre alle persone che si trovano illegalmente nel paese, o a cui è stata revocata la libertà vigilata, la possibilità di comunicare al Dipartimento di Sicurezza Nazionale (DHS) la loro volontà di abbandonare gli Stati Uniti, così da evitare “conseguenze più dure”, come la detenzione o l’allontanamento immediato. Per accertarsi che abbiano davvero abbandonato gli Stati Uniti, l’app chiede una conferma della loro espulsione. “Se non lo faranno, li troveremo, li deporteremo e non torneranno mai più”, ha chiosato la segretaria Noem, facendo riferimento all’attuale legge sull’immigrazione degli Stati Uniti, che può impedire a chi è entrato illegalmente nel paese di rientrarvi entro un periodo di tempo che varia dai tre anni a tutta la vita. La nuova funzione di auto-espulsione di Cbp Home, infatti, fa parte di “una più ampia campagna pubblicitaria nazionale e internazionale da 200 milioni di dollari”, che include annunci radiofonici, televisivi e digitali in diverse lingue per dissuadere i migranti dal mettere piede sul suolo statunitense. In questo modo, Donald Trump spera di mantenere la promessa fatta durante la sua campagna elettorale: attuare “il più grande programma di espulsione nella storia del paese”. Ad aprile dello scorso anno, in un’intervista al TIME, l’allora candidato repubblicano aveva dichiarato la sua intenzione di voler espellere dagli Stati Uniti “dai 15 ai 20 milioni di migranti”. Già dal suo primo giorno come presidente, Trump ha dimostrato di voler onorare quanto promesso. Poche ore dopo il suo insediamento, ha firmato una direttiva per dichiarare l’emergenza migratoria nazionale al confine con il Messico, e ha riattivato il programma “Remain in Mexico”, che costringe i richiedenti asilo a rimanere in Messico in attesa che venga elaborato il loro status di immigrati. Inoltre, coerentemente con le sue promesse elettorali, Trump ha presentato una proposta di legge per eliminare la concessione della cittadinanza automatica ai figli degli immigrati nati negli Stati Uniti. LA TECNOLOGIA PER DIFENDERSI DALLA POLITICA DI TRUMP Con l’intensificarsi delle azioni, politiche e non, messe in campo da Donald Trump per combattere l’immigrazione clandestina, anche i migranti stanno ricorrendo alla tecnologia per sfuggire ai raid delle forze dell’ordine e assicurarsi una permanenza nel paese. Secondo quanto riferito da Newsweek, nelle ultime settimane sta riscuotendo un buon successo SignalSafe, un’app di community reporting usata dai migranti o chi li aiuta per segnalare le operazioni degli agenti federali e della polizia locale. Una piattaforma che dichiara di non voler ostacolare le attività dell’ICE (United States Immigration and Customs Enforcement), ma che ha l’obiettivo di “dare potere alle comunità fornendo ai cittadini uno strumento per segnalare e condividere quello che accade negli spazi pubblici”, come riferiscono gli sviluppatori dell’applicazione, che per il momento hanno preferito mantenere segreta la loro identità.  Proprio allo scopo di “garantire la qualità e l’affidabilità” delle informazioni, SignalSafe utilizza “un’intelligenza artificiale avanzata per filtrare le segnalazioni inappropriate o palesemente false non appena arrivano”, che passano poi al vaglio di moderatori umani, i soli a poterle etichettare come verificate o revisionate. In questo modo gli sviluppatori si assicurano che gli utenti abbiano accesso a informazioni veritiere, che possano aiutarli a “prendere decisioni che proteggano se stessi e gli altri”. Negli ultimi anni, l’ICE è stata fortemente contestata per le sue pratiche che includono, tra le atre cose, l’uso di furgoni neri, passamontagna e incursioni improvvise. Una strategia di intervento che fa paura, e che spinge i migranti a rivolgersi alla tecnologia per cercare di tenere al sicuro famiglie, amici e conoscenti. Non stupisce, quindi, che SignalSafe non sia il solo strumento a cui gli immigrati stanno facendo riferimento per evitare l’espulsione dagli Stati Uniti.  Alla fine del mese di marzo, il Washington Post ha riferito che gli immigrati clandestini stanno facendo un largo uso dei social media per “condividere in tempo reale la posizione di veicoli e agenti dell’ICE”, utilizzando parole in codice come “camioncino dei gelati” per segnalare un furgone nero nei paraggi, così da evitare la censura sulle piattaforme e permettere ai loro coetanei di sfuggire ai controlli delle autorità competenti. Questa strategia, com’è facile immaginare, ha irritato i sostenitori di Donald Trump, che hanno reagito mostrando tutta la loro disapprovazione sui social media. Nelle prime due settimane di marzo, stando ai dati della società di analisi Sprout Social, ci sono state quasi 300.000 menzioni dell’ICE nei contenuti pubblicati su X, Reddit e YouTube (un aumento di oltre cinque volte rispetto allo stesso periodo di febbraio), il che dimostra quanto la questione dell’immigrazione clandestina sia al centro del dibattito pubblico.  In queste settimane i sostenitori di Trump stanno pubblicando decine e decine di segnalazioni false sulle attività dell’ICE, così da alimentare i sentimenti di paura e confusione negli immigrati clandestini che cercano di salvaguardare la loro permanenza negli Stati Uniti. Una strategia che non sempre sembra funzionare. Come riferisce il Washington Post, i migranti preferiscono setacciare i social media alla ricerca delle informazioni giuste piuttosto che incontrare le forze dell’ordine, anche se questo richiede più tempo. E hanno valide ragioni per farlo, considerando che i filotrumpiani non perdono occasione per creare scompiglio. Lo dimostra la storia di People Over Papers, una mappa collaborativa che segnala i presunti avvistamenti dell’ICE in tutto il Paese e che ha ricevuto più di 12.000 segnalazioni da quando è diventata virale su TikTok alla fine dello scorso gennaio. Secondo quanto raccontato da Celeste, fondatore del progetto, dopo che gli account X Libs of TikTok e Wall Street Apes hanno pubblicato un post in cui sostenevano che People Over Papers aiutasse i criminali a eludere le forze dell’ordine, la mappa è stata invasa da decine e decine di segnalazioni false. Eliminate una a una dai volontari che seguono il progetto.  GLI STRUMENTO DI SORVEGLIANZA NELL’IMMIGRAZIONE Se ICERAID e SignalSafe sono due applicazioni che coinvolgono i cittadini in materia di immigrazione clandestina negli Stati Uniti, non va dimenticato che già da qualche tempo il governo utilizza la tecnologia per sorvegliare gli immigrati che non godono di uno status legale nel paese, anche se non sono detenuti in carcere o in altre strutture specializzate, applicando loro strumenti di localizzazione come smartwatch e cavigliere. Nello specifico, secondo quanto riferito dal New York Times, le autorità governative stanno utilizzando l’app SmartLink sviluppata da Geo Group, uno dei più grandi fornitori statunitensi in ambito penitenziario, per monitorare la posizione dei clandestini identificati dall’ICE. Grazie al programma “Alternative to detection”, questi possono continuare a vivere nel paese, purché segnalino alle forze dell’ordine la loro posizione attraverso l’applicazione quando richiesto, semplicemente scattandosi un selfie e caricandolo in-app.  Un metodo di sorveglianza imvasivo, il cui uso sembra essere cambiato radicalmente con l’arrivo di Donald Trump alla Casa Bianca. Già dai primi mesi del suo mandato, infatti, l’app sembra sia stata usata per comunicare all’ICE la posizione degli immigrati, facilitandone così l’arresto. Secondo il Dipartimento di Sicurezza Nazionale, nei primi 50 giorni di mandato del nuovo presidente sono infatti stati arrestati più di 30.000 immigrati.  Non c’è da stupirsi, quindi, che Geo Group sia la compagnia che ha ricevuto più finanziamenti governativi di ogni altra. O che le politiche di immigrazione del presidente degli Stati Uniti abbiano fatto impennare il valore delle sue azioni sul mercato. Eppure, nonostante i sostenitori di Trump abbiano elogiato e supportato in ogni modo possibile questa tecnologia, gli esperti di sicurezza ne hanno criticato aspramente l’uso. “Il governo la presenta come un’alternativa alla detenzione”, ha dichiarato Noor Zafar, avvocato senior dell’American Civil Liberties Union, un’organizzazione non governativa per la difesa dei diritti civili e delle libertà individuali negli Stati Uniti. “Ma noi la vediamo come un’espansione della detenzione”. L'articolo Nell’era Trump, la lotta ai migranti passa anche dalle app proviene da Guerre di Rete.