Tag - privacy

[Le Dita nella Presa] Per un femminismo della rete (1/4: Puntata completa)
prima parte intervista a Marzia Vaccari, autrice di Server Donne -> appuntamento alle cagne sciolte (via ostiense 137b) giovedì 27 novembre dalle 19 per una presentazione del libro con discussione abbiamo parlato di infrastrutture e tecnologie femministe, menzionando alcuni server femministi autogestiti, del rapporto problematico e complesso tra femminismi e digitale, dell'importanza della memoria storica e dell'archiviazione come atto politico, della necessitò di un femminismo della rete anche per non lasciare il campo ai misogini della "manosfera", di risorse e spunti preziosi da Abya Yala  e non solo.. che lavorano sull'autonomia delle infrastrutture ma sull'autodifesa femminista digitale contro le violenze di genere alcuni spazi femministi digitali liberi&open source da esplorare: https://tube.systerserver.net (PeerTube) https://systerserver.town (Mastodon) seconda parte Al telefono con un compagno di Torino parliamo di hackrocchio, l'appuntamento annuale di avvicinamento ad hackmeeting organizzato dall'hacklab underscore. Notiziole: * aggiornamenti sul caso Paragon * in California ritirato il progetto Dragnet, con cui la polizia monitorava i consumi elettrici dell'intera popolazione di Sacramento con l'intento dichiarato di trovare persone che coltivavano cannabis in casa * varie su IA e quanto non funziona * copyright: Cloudflare multato in Giappone per non aver favorito la rimozione di contenuti "pirata" * l'annoso caso del chip sottopelle  
Apple, i dark pattern e la difficile battaglia contro il tracciamento
Nel 2021 Apple ha introdotto App Tracking Transparency (ATT), una funzionalità del sistema operativo iOS che permette agli utenti, che prima dovevano districarsi tra interfacce confusionarie, di impedire con un solo click qualunque tracciamento, evitando quindi che qualsiasi app presente sul loro smartphone possa raccogliere dati personali a fini pubblicitari senza il loro consenso esplicito. La funzionalità introdotta in iOS, il sistema operativo di iPhone e iPad, fornisce un servizio che, nell’internet dominata dal capitalismo della sorveglianza, rende una gran fetta di utenti più protetti. E questo l’ha resa particolarmente apprezzata: si stima infatti che il 75% degli utenti iOS la utilizzi. Eppure ATT, in Italia e in altri paesi europei, potrebbe avere vita breve: “In Apple crediamo che la privacy sia un diritto umano fondamentale e abbiamo creato la funzionalità di App Tracking Transparency per offrire agli utenti un modo semplice per controllare se le aziende possono tracciare le loro attività su altre app e siti web. Una funzionalità accolta con entusiasmo dai nostri clienti e apprezzata dai sostenitori della privacy e dalle autorità per la protezione dei dati in tutto il mondo”, si legge in un comunicato. “Non sorprende che l’industria del tracciamento continui a opporsi ai nostri sforzi per dare agli utenti il controllo sui propri dati”. ATT RISCHIA DI SPARIRE Nonostante il favore degli utenti, ATT è infatti oggetto in Italia di un’indagine dell’Autorità Garante della Concorrenza e del Mercato, che secondo diversi osservatori arriva dopo una forte pressione da parte dell’industria pubblicitaria. Le aziende del settore sostengono che la funzione sia “abusiva” perché duplicherebbe i consensi già richiesti dal GDPR. Apple respinge l’accusa e afferma che la normativa europea dovrebbe essere un punto di partenza, non un limite, e che ATT offre un livello di controllo più chiaro e immediato. La decisione dell’AGCM è attesa entro il 16 dicembre e rischia di privare i consumatori di un prodotto informatico, ATT, che non solo è più funzionale dei singoli banner, ma che si potrebbe definire “naturale”: nel momento in cui tutte le app hanno bisogno di una stessa funzione (in questo caso, richiedere il consenso degli utenti alla profilazione) è più logico integrarla nel sistema operativo e offrirla in un’unica versione standard. ATT fa proprio questo: porta la richiesta di consenso al tracciamento a livello di sistema. Nonostante ogni utente abbia il diritto di prestare o negare il consenso all’utilizzo dei suoi dati personali per fornire pubblicità mirata o rivenderli ai cosiddetti data broker, la semplicità d’uso di ATT di Apple rappresenta la differenza tra un consenso spesso “estorto” da interfacce appositamente convolute e opache e un consenso informato, libero, revocabile. In base al GDPR, il regolamento europeo sulla protezione dei dati, ogni applicazione può trattare i nostri dati personali solo se esiste una delle sei basi giuridiche previste dalla legge. Tra queste, il consenso è quello più comunemente utilizzato. Poiché permette di effettuare una scelta in modo chiaro e semplice, l’ATT ha rapidamente raccolto l’effettivo interesse degli utenti, mostrando in maniera coerente come si può ottenere ciò che i vari garanti europei hanno chiarito nel tempo, ovvero che “rifiutare dev’essere facile quanto accettare”. LA STRATEGIA DI APPLE Ma Apple ha fatto un altro passo avanti: non ha offerto ATT ai programmatori di app, ma l’ha imposta. Ha reso questo consenso necessario, al pari di quello che deve chiedere un’app quando, per esempio, vuole accedere alla localizzazione o al microfono. È direttamente il sistema operativo, sia in iOS sia in Android, che permette di scegliere se fornire o meno, per esempio, l’accesso al microfono al videogioco che abbiamo appena scaricato. In questo modo, lo spazio di manovra per trarre l’utente in inganno si riduce molto: possiamo vedere in una volta sola quali sono le app che richiedono quel privilegio e revocarlo a tutte in ogni momento. Immaginiamo gli esiti nefasti che si sarebbero verificati nel mercato mobile se ogni app avesse potuto accedere, tramite formula ambigue per il consenso, a periferiche come microfono, localizzazione, cartelle e rubrica. È proprio per evitare questa situazione che i programmatori dei sistemi operativi hanno dato il controllo agli utenti, limitando di conseguenza la presenza di spyware e profilazione invasiva. La possibilità di bloccare facilmente l’accesso a periferiche così delicate, soprattutto quando scarichiamo app dalla reputazione dubbia, ci dà un senso di protezione. Perché con il tracciamento dovrebbe essere diverso? Siamo certi che fornire l’accesso al microfono permetta di ottenere dati molto più rilevanti di quelli che si possono avere tramite la profilazione? In realtà, il tracciamento e la cessione di informazioni ai data broker dovrebbero evocare la stessa percezione di rischio. E quindi essere soggette, come fa in effetti l’ATT, a un simile trattamento a livello di consenso. La differenza tra tracciamento e accesso alle periferiche Una periferica è una porzione del sistema operativo: un’app può accedervi soltanto se le è stato concesso questo privilegio, altrimenti non ha modo di farlo. La garanzia del controllo delle aree più delicate di un sistema operativo è un elemento fondamentale della sicurezza informatica. Il blocco al tracciamento, invece, è un insieme di misure tecniche: impedisce il fingerprinting (una tecnica che permette di identificare in modo univoco un utente o un dispositivo) e l’accesso all’Identificatore Unico Pubblicitario (un codice anonimo assegnato dal sistema operativo a ciascun dispositivo mobile, che permette alle app di riconoscere l’utente a fini pubblicitari), oltre a  costringere lo sviluppatore a esplicitare gli obiettivi del trattamento dati, pena la rimozione dall’Apple Store. Non è impossibile aggirare questi divieti, ma una funzione come ATT, che permette di attivarli con un’unica scelta, lo rende molto più complesso. I MILIARDI PERSI DA META Per capire la posta in gioco: Meta ha affermato che ATT sarebbe stato, nel solo 2022, responsabile di una perdita pari a 10 miliardi di dollari (circa l’8% del fatturato 2021), causando una caduta in borsa del 26%. Il Financial Times stimò invece che, nel solo secondo semestre 2021, l’ATT introdotto da Apple fosse la causa di 9,85 miliardi di inferiori ricavi complessivi per Snap (la società del social network Snapchat), Facebook, Twitter e YouTube, segnalando l’ampiezza dell’impatto sull’intero ecosistema pubblicitario. Nel suo report del 2022, lo IAB (Interactive Advertising Bureau, un’associazione di categoria delle aziende pubblicitarie e della comunicazione) menziona già nell’introduzione come la colpa di queste perdite sia in primo luogo dell’ATT e in secondo luogo del regolamento della California sui dati personali. Questo aspetto ci aiuta a mappare il conflitto: i diritti e il consenso vengono considerato come degli avversari da questi soggetti, che – nel tentativo di recuperare i miliardi perduti – sono disposti a mettere in campo tutto il loro potere legale, fino ad arrivare a un’interpretazione del diritto che dovrebbe essere un caso di studio. IN EUROPA, LA PRIVACY SUL BANCO DELL’ANTITRUST In diverse nazioni europee, in seguito alle denunce di associazioni di categoria, sono infatti state intentate cause contro Apple per “abuso di posizione dominante”. Non è però chiaro dove sia il beneficio diretto di Apple,  visto che anche le sue applicazioni devono rispondere all’ATT e quindi anche Apple deve chiedere il consenso per servire pubblicità personalizzata. Apple potrebbe al massimo avere un beneficio indiretto, penalizzando i principali concorrenti – i cui introiti provengono dalla pubblicità – mentre si avvantaggia dalla vendita di dispositivi promossi come “privacy first”. Una delle interpretazioni fornite dalle associazioni di categoria è che gli sviluppatori di applicazioni terze debbano essere in grado di usare il loro form per la richiesta del consenso. Questo, però, ci porta ad affrontare un problema noto: quello dei dark pattern o deceptive design (interfacce ingannevoli), ovvero strategie di design che spingono l’utente a compiere scelte non pienamente consapevoli, per esempio rendendo più complesso rifiutare il tracciamento o l’iscrizione a un servizio rispetto ad accettarlo. DARK PATTERN: PERCHÉ LA FORMA DECIDE IL CONTENUTO Come scrive Caroline Sinders, “le politiche per regolamentare Internet devono fare i conti con il design”, perché interfacce e micro-scelte grafiche possono “manipolare invece che informare” e svuotare principi come il consenso: “I dark pattern sono scelte di design che confondono gli utenti o li spingono verso azioni che non desiderano davvero”. E fanno tutto ciò, tipicamente, rendendo molto facile dire di sì e invece complesso o ambiguo dire di no. Non si tratta di astrazioni. Nel 2024, NOYB (il centro europeo per i diritti digitali) ha analizzato migliaia di banner di consenso in Europa, documentando schemi ricorrenti e misurabili: se il pulsante “rifiuta” non si trova nel primo livello del banner, solo il 2,18% degli utenti lo raggiunge. Non solo: rifiutare richiede in media il doppio dei passi rispetto ad accettare. Tra le pratiche “dark pattern” più comuni troviamo inoltre: link ingannevoli per il rifiuto (inseriti nel corpo del testo mentre per accettare è presente un pulsante ben visibile), colori e contrasti che enfatizzano l’ok e sbiadiscono il no, caselle preselezionate, falso “legittimo interesse” (con cui un’azienda dichiara di poter trattare i dati senza esplicito consenso) e percorsi per la revoca più difficili del consenso. Il Digital Services Act (DSA), in vigore dal 2022, ha portato nel diritto dell’UE il lessico dei dark pattern e ne vieta l’uso quando interfacce e scelte di design ingannano o manipolano gli utenti, aprendo la strada a linee guida e strumenti di attuazione dedicati. In concreto, il DSA prende di mira alcune pratiche precise, come la ripetizione delle richieste anche dopo che una scelta è già stata espressa. Nella tassonomia accademico-regolatoria più aggiornata, questo comportamento corrisponde al pattern “nagging”, cioè l’interruzione insistente che spinge l’utente verso un’azione indesiderata. Un documento rivelatore, da questo punto di vista, è An Ontology of Dark Patterns, che fornisce strumenti utili a riconoscere dark pattern, dar loro un nome preciso e idealmente a poterli misurare, così da effettuare reclami dove possibile e magari riuscire, a colpi di sanzioni, a limitarli. Nonostante il DSA sancisca a livello concettuale il divieto dei dark pattern, le autorità o i cittadini che volessero effettuare reclami dovrebbero poter misurare la difficoltà dell’interfaccia e rendere obiettivo il giudizio. Questa è la parte più difficile: da un lato non puoi distinguere un dark pattern dal cattivo design; dall’altro, le piattaforme più grandi (definite dalla UE “gatekeeper”) sono diventate tali anche per la cura maniacale nei confronti del design delle loro interfacce, ottimizzando il percorso per loro più profittevole e disincentivando tutti gli altri. Qui sta la difficoltà: non si può giudicare un dark pattern solo dal principio, bisogna invece misurare l’esperienza. In pratica, i pattern si vedono quando: rifiutare richiede più passaggi di accettare (asimmetria di percorso); il “no” è meno evidente del “sì” (asimmetria visiva: posizione, dimensione, contrasto); l’utente viene interrotto finché non cede (nagging); ci sono oneri informativi inutili prima di arrivare alla scelta (ostruzione); esistono impostazioni preselezionate o categorie opache (sneaking). Per questo le standardizzazioni di piattaforma come ATT sono preziose: trasformano il consenso in un gesto coerente nel tempo, riducendo la superficie di manipolazione creativa e permettendo sia agli utenti di imparare rapidamente dove e come decidere, sia ai regolatori/ricercatori di misurare con metriche stabili (passaggi, tempi, posizionamenti). È lo stesso vantaggio che abbiamo quando il sistema operativo gestisce i permessi di fotocamera o microfono: l’utente riconosce il messaggio proveniente dal sistema operativo, sa come revocare il consenso e chi prova a barare salta subito all’occhio. Infine, il nodo culturale: consenso informato e scelta informata richiedono una certa educazione dell’utente. Il regolatore spesso la dà per scontata mentre, al contrario, i team tecnici delle piattaforme investono nel scovare le vulnerabilità degli utenti, sfruttando posizionamento, ritardi, colori, tempi, percorsi. Per questo l’uniformità del punto in cui bisogna effettuare la decisione (uno strato di sistema, uguale per tutti) dovrebbe essere favorita: abbassa la complessità per gli utenti e rende l’enforcement verificabile. Oggi, però, la regolazione resta quasi sempre a livello alto (principi, divieti) e raramente scende a specifiche vincolanti sulla user interface. Il risultato è che l’onere di provare la manipolazione ricade su autorità e cittadini, caso per caso; mentre chi progetta interfacce approfitta della grande varietà di soluzioni “creative”. ATT mostra che spostare la scelta verso il basso, all’interno del sistema, abilita gli utenti a esprimere le loro volontà e a vederle rispettate. IL LIMITATO INTERVENTO DEL GARANTE Immaginiamo che l’Autorità Garante della Concorrenza e del Mercato (AGCM) ponga all’autorità che si occupa di protezione dei dati una domanda di questo tipo: “ATT è necessario per adempire al GDPR?”. Quest’ultimo probabilmente risponderebbe negativamente, perché in punta di diritto non lo è. Forse è un peccato, perché se la domanda invece fosse: “ATT è una soluzione migliore per catturare il consenso rispetto ai banner sviluppati da terze parti?”, la risposta sarebbe molto probabilmente differente. Al di là degli scenari teorici, che mostrano però come basti cambiare il punto di vista per cambiare anche il risultato, l’impressione è che AGCM abbia la possibilità di rimuovere ATT e che il garante della Privacy non abbia strumenti per intervenire. La situazione non sembra quindi rosea per ATT in attesa della decisione del 16 dicembre, visto che in Francia l’Autorità competente ha già inflitto a Apple 150 milioni di euro, ritenendo sproporzionato il sistema rispetto all’obiettivo dichiarato e penalizzante per editori più piccoli (Apple ha invece nuovamente difeso ATT come una scelta a favore degli utenti). Ed è qui che la notizia si intreccia con i dark pattern: per alleggerire le restrizioni di ATT, l’industria pubblicitaria spinge perché siano le singole app e non il sistema a mostrare i propri moduli di consenso. Ma quando scompare il “freno di piattaforma”, gli stessi moduli spesso deviano la scelta. ANTITRUST CONTRO PRIVACY EPIC (Electronic Privacy Information Center) ha messo in guardia proprio su questo punto: con la scusa della concorrenza si rischiano di abbassare le barriere al tracciamento, limitando le tutele. Le minacce per la sicurezza relative alle periferiche e di cui abbiamo parlato, per esempio, non sono sempre state bloccate. Le tutele sono cresciute gradualmente. Da questo punto di vista, il caso di Apple fa riflettere su due aspetti. Il primo è che se i diritti non sono riconosciuti a norma di legge, non sono realmente ottenuti. Per esempio: una VPN potrà darci un vantaggio, un sistema operativo potrà darci una funzione come l’ATT, una corporation come WhatsApp potrà avvisarci di essere soggetti ad attacchi da parte di attori statali, ma questi sono da viversi come “regali temporanei”. Ci vengono fatti perché la percezione di sicurezza degli utenti conta di più della loro effettiva inattaccabilità. Chissà cosa succederebbe se l’antitrust sancisse che gli sviluppatori di terze parti possono avere la libertà di accedere anche alle periferiche del sistema, senza subire i vincoli del sistema operativo. Sarebbe naturalmente un disastro, ma quantomeno solleverebbe pressioni, perplessità, critiche. Invece, relegare questa scelta a una lotta tra corporation rischia di non rendere giustizia alle vittime di tutto questo: gli utenti. Grande assente nelle carte è infatti una domanda: che cosa vogliono le persone? Come detto, al netto delle dispute tra piattaforme e ad-tech, ATT piace agli utenti iOS e una larga maggioranza di utenti Android ha detto di volere “qualcosa di simile” sui propri telefoni. Un maxi-sondaggio svolto da Android Authority con oltre 35 mila voti (per quanto privo di valore statistico) ha concluso che “la stragrande maggioranza vuole anche su Android una funzione anti-tracking come quella di Apple”. Ma questo in fondo già lo sapevamo, ognuno di noi,  quando messo davvero di fronte a una scelta chiara, tende a dire di no al tracciamento. Usare l’antitrust per rimuovere ATT non darebbe più libertà agli sviluppatori, ma solo più libertà d’azione ai dark pattern. L'articolo Apple, i dark pattern e la difficile battaglia contro il tracciamento proviene da Guerre di Rete.
La formazione di un vero “garante”
Agostino Ghiglia, uno dei quattro componenti del Collegio del Garante per la privacy, era stato avvistato in via della Scrofa, davanti alla sede del partito di Giorgia Meloni. Dopo la pubblicazione dei video che lo ritraevano,  Italo Bocchino ha ammesso di averlo incontrato, ma giura di aver parlato con lui […] L'articolo La formazione di un vero “garante” su Contropiano.
Eredità digitale, che fine fanno i nostri dati dopo la morte?
Nel corso dell’ultimo decennio Internet, i social media e – non da ultima – l’intelligenza artificiale hanno profondamente cambiato il nostro rapporto con la morte. Il sogno dell’immortalità, che ha ossessionato per secoli studiosi di ogni genere, oggi sembra essere in qualche modo diventato realtà. Senza che ce ne accorgessimo, la tecnologia ha creato per ognuno di noi una “vita dopo la morte”: una dimensione digitale in cui i nostri account social e di posta elettronica, blog, dati personali e beni digitali continuano a esistere anche dopo la nostra dipartita, rendendo di fatto la nostra identità eterna. Questo, da un lato, ha aumentato la possibilità per le persone che subiscono un lutto di sentirsi nuovamente vicine al defunto, tuffandosi negli album digitali delle sue foto, rileggendo quello che ha scritto sulla sua bacheca di Facebook e ascoltando le sue playlist preferite su Spotify.  “Può consentire anche di mantenere un dialogo con l’alter ego digitale della persona cara defunta, che, attraverso algoritmi di deep fake, può arrivare a simulare una videochiamata, mimando la voce e le sembianze del defunto; a inviare messaggi e email, utilizzando come dati di addestramento le comunicazioni scambiate durante la vita analogica”, osserva Stefania Stefanelli, professoressa ordinaria di Diritto privato all’Università degli studi di Perugia.  Dall’altro, rende però i dati personali delle persone scomparse un tesoretto alla mercé dei criminali informatici, che possono violarne facilmente gli account, utilizzarne le immagini in modo illecito e usarne le informazioni per creare cloni digitali o deepfake, mettendo a rischio la sicurezza loro e dei loro cari. Un pericolo da non sottovalutare, come anche l’eventualità che la persona non gradisca che gli sopravviva un alter ego virtuale, alimentato coi propri dati personali. Ma come fare, allora, per proteggere la propria eredità digitale? A chi affidarla? E come? EREDITÀ DIGITALE: COS’È E A CHI SPETTA DI DIRITTO Oggi più che mai ci troviamo a esistere allo stesso tempo in due dimensioni parallele, una fisica e una digitale. Questo, come riferisce il Consiglio Nazionale del Notariato (CNN), ha portato a un ampliamento dei “confini di ciò che possiamo definire eredità”, che sono arrivati a “comprendere altro in aggiunta ai più canonici immobili, conti bancari, manoscritti o ai beni preziosi contenuti nelle cassette di sicurezza”.  Si parla, allora, di eredità digitale, definita dal CNN come un insieme di risorse offline e online. Della prima categoria fanno parte i file, i software e i documenti informatici creati e/o acquistati dalla persona defunta, i domini associati ai siti web e i blog, a prescindere dal supporto fisico (per esempio, gli hard disk) o virtuale (come può essere il cloud di Google Drive) di memorizzazione. La seconda categoria, invece, include le criptovalute e “tutte quelle risorse che si vengono a creare attraverso i vari tipi di account, siano essi di posta elettronica, di social network, account di natura finanziaria, di e-commerce o di pagamento elettronico”. Rimangono esclusi i beni digitali piratati, alcuni contenuti concessi in licenza personale e non trasferibile, gli account di firma elettronica, gli account di identità digitale e le password. Chiarito in cosa consiste l’eredità digitale, a questo punto viene da chiedersi: a chi saranno affidati tutti questi beni quando la persona a cui si riferiscono non ci sarà più? Rispondere a questa domanda è più difficile di quanto si possa immaginare. Allo stato attuale non esiste infatti in Italia una legge organica, il che crea negli utenti – siano essi le persone a cui i dati si riferiscono o i parenti di un defunto che si ritrovano a gestire la sua identità in rete – un’enorme confusione sulla gestione dei dati.  Nonostante si tratti di un tema particolarmente urgente, finora è stato trattato soltanto dal Codice della Privacy, che prevede “che i diritti […] relativi ai dati di persone decedute possano essere esercitati da chi abbia un interesse proprio o agisca a tutela dell’interessato (su suo mandato) o per ragioni familiari meritevoli di protezione”. Un diritto che non risulta esercitabile soltanto nel caso in cui “l’interessato, quando era in vita, lo abbia espressamente vietato”. Di recente, poi, il Consiglio Nazionale del Notariato è tornato sul tema, sottolineando l’importanza di “pianificare il passaggio dell’eredità digitale”, considerando che “molto spesso le società che danno accesso a servizi, spazi e piattaforme sulla rete internet hanno la propria sede al di fuori del territorio dello Stato e dell’Europa”: in assenza di disposizioni specifiche sull’eredità dei beni digitali, infatti, chiunque cerchi di accedere ai dati di una persona defunta rischia di “incorrere in costose e imprevedibili controversie internazionali”. Per evitare che questo accada, è possibile investire una persona di fiducia di un mandato post mortem, “ammesso dal nostro diritto per dati e risorse digitali con valore affettivo, familiare e morale”. In termini legali, si tratta di un contratto attraverso cui un soggetto (mandante) incarica un altro soggetto (mandatario) di eseguire compiti specifici dopo la sua morte, come l’organizzazione del funerale, la consegna di un oggetto e, nel caso delle questioni digitali, la disattivazione di profili social o la cancellazione di un account. In alternativa, “si può disporre dei propri diritti e interessi digitali tramite testamento”, al pari di quanto già accade per i beni immobili, i conti bancari e tutto il resto.  In questo modo, in attesa di una legislazione vera e propria sul tema, sarà possibile lasciare ai posteri un elenco dettagliato dei propri beni e account digitali, password incluse, oltre alle volontà circa la loro archiviazione o cancellazione. “Ai sensi di questa disposizione, si può anche trasmettere a chi gestisce i propri dati una  dichiarazione, nella quale si comunica la propria intenzione circa il destino, dopo la propria morte, di tali dati: la cancellazione totale o parziale, la comunicazione, in tutto o in parte, a soggetti determinati, l’anonimizzazione ecc. Si parla in questi termini di testamento digitale, anche se in senso ‘atecnico’, in quanto la dichiarazione non riveste le forme del testamento, sebbene sia anch’essa revocabile fino all’ultimo istante di vita, e non contiene disposizioni patrimoniali in senso stretto”, prosegue la professoressa Stefanelli. EREDITÀ E PIATTAFORME DIGITALI: COSA SUCCEDE AGLI ACCOUNT DELLE PERSONE DEFUNTE? Come anticipato, allo stato attuale non esiste una legge che regolamenta l’eredità digitale, né in Italia né in Europa. Pertanto, nel corso degli ultimi anni le piattaforme di social media e i grandi fornitori di servizi digitali si sono organizzati per garantire una corretta gestione degli account di persone scomparse, così da evitare di trasformarsi in veri e propri cimiteri digitali.  Già da qualche anno, per esempio, Facebook consente agli utenti di nominare un contatto erede, ossia un soggetto che avrà il potere di scegliere se eliminare definitivamente l’account della persona scomparsa o trasformarlo in un profilo commemorativo, dove rimarranno visibili i contenuti che ha condiviso sulla piattaforma nel corso della sua vita.  Al pari di Facebook, anche Instagram consente ai parenti di un defunto di richiedere la rimozione del suo account o di trasformarlo in un account commemorativo. In entrambi i casi, però, sarà necessario presentare un certificato che attesti la veridicità del decesso della persona in questione o un documento legale che dimostri che la richiesta arriva da un esecutore delle sue volontà.  TikTok, invece, è rimasto per molto tempo lontano dalla questione dell’eredità digitale. Soltanto lo scorso anno la piattaforma ha introdotto la possibilità di trasformare l’account di una persona defunta in un profilo commemorativo, previa la presentazione di documenti che attestino il suo decesso e un legame di parentela con l’utente che sta avanzando la richiesta. In alternativa, al pari di quanto accade per Facebook e Instagram, è possibile richiedere l’eliminazione definitiva dell’account del defunto.  Ma non sono solo le piattaforme social a pensare al futuro dei propri utenti. Dal 2021, Apple consente agli utenti di aggiungere un contatto erede, così da permettere a una persona di fiducia di accedere ai dati archiviati nell’Apple Account, o “di eliminare l’Apple Account e i dati con esso archiviati”. Google, invece, offre agli utenti uno strumento avanzato per la gestione dei dati di una persona scomparsa. La “gestione account inattivo” consente infatti di “designare una terza parte, ad esempio un parente stretto, affinché riceva determinati dati dell’account in caso di morte o inattività dell’utente”.  Più nel dettaglio, la piattaforma permette di “selezionare fino a 10 persone che riceveranno questi dati e scegliere di condividere tutti i tipi di dati o solo alcuni tipi specifici”, oltre alla possibilità di indicare il periodo di tempo dopo il quale un account può davvero essere considerato inattivo. Nel caso in cui un utente non configuri “Gestione account inattivo”, Google si riserva il diritto di eliminare l’account nel caso in cui rimanga inattivo per più di due anni. EREDITÀ DIGITALE E DEADBOT: UN RISCHIO PER LA SICUREZZA? Anche l’avvento dei sistemi di intelligenza artificiale generativa ha contribuito a cambiare il nostro rapporto con la morte. E le aziende che li sviluppano si sono spinte fino a cercare una soluzione pratica al dolore causato dalla scomparsa di una persona cara. Basti pensare alla rapida diffusione dei deadbot, ovvero dei chatbot che permettono ad amici e familiari di conversare con una persona defunta, simulandone la personalità. Uno strumento che, da un lato, può rivelarsi utile ai fini dell’elaborazione del lutto, ma dall’altro rappresenta un rischio notevole per la privacy e la sicurezza degli individui.  Per permettere all’AI di interagire con un utente come farebbe una persona scomparsa, questa ha bisogno di attingere a una quantità notevole di informazioni legate alla sua identità digitale: account social, playlist preferite, registro degli acquisti da un e-commerce, messaggi privati, app di terze parti e molto altro ancora. Un uso smodato di dati sensibili che, allo stato attuale, non è regolamentato in alcun modo.  E questo, al pari di quanto accade con l’eredità digitale, rappresenta un problema non indifferente per la sicurezza: come riferisce uno studio condotto dai ricercatori dell’Università di Torino, quando i dati del defunto non sono “sufficienti o adeguati per sviluppare un indice di personalità, vengono spesso integrati con dati raccolti tramite crowdsourcing per colmare eventuali lacune”. Così facendo, “il sistema può dedurre da questo dataset eterogeneo aspetti della personalità che non corrispondono o non rispondono pienamente agli attributi comportamentali della persona”. In questo caso, i deadbot “finiscono per dire cose che una persona non avrebbe mai detto e forniscono agli utenti conversazioni strane, che possono causare uno stress emotivo paragonabile a quello di rivivere la perdita”. Non sarebbe, quindi, solo la privacy dei defunti a essere in pericolo, ma anche la sicurezza dei loro cari ancora in vita.  Pur non esistendo una legislazione specifica sul tema, l’AI Act dell’Unione Europea – una delle normative più avanzate sul tema – fornisce alcune disposizioni utili sulla questione, vietando “l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole” e anche “l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che sfrutta le vulnerabilità di una persona fisica o di uno specifico gruppo di persone (…), con l’obiettivo o l’effetto di distorcere materialmente il comportamento di tale persona”.  Due indicazioni che, di fatto, dovrebbero proibire l’immissione dei deadbot nel mercato europeo, ma che non forniscono alcuna soluzione utile alla questione della protezione dei dati personali di una persona defunta, che rimane ancora irrisolta. Nel sistema giuridico europeo la legislazione sulla protezione dei dati non affronta esplicitamente né il diritto alla privacy né le questioni relative alla protezione dei dati delle persone decedute.  Il Regolamento Generale sulla Protezione dei Dati (GDPR), infatti, “non si applica ai dati personali delle persone decedute”, anche se “gli Stati membri possono prevedere norme riguardanti il trattamento dei dati personali delle persone decedute”. Una scelta considerata “coerente con il principio tradizionale secondo cui le decisioni di politica legislativa che incidono sul diritto di famiglia e successorio, in quanto settori caratterizzati da valori nazionali strettamente correlati alle tradizioni e alla cultura della comunità statale di riferimento, esulano dalla competenza normativa dell’Unione europea”.  Non esistendo una legislazione valida a livello europeo, i governi nazionali hanno adottato approcci diversi alla questione. La maggior parte delle leggi europee sulla privacy, però, sostiene un approccio basato sulla “libertà dei dati”: paesi come Belgio, Austria, Finlandia, Francia, Svezia, Irlanda, Cipro, Paesi Bassi e Regno Unito, quindi, escludono che le persone decedute possano avere diritto alla privacy dei dati, sostenendo che i diritti relativi alla protezione dell’identità e della dignità degli individui si estinguono con la loro morte.  Secondo questa interpretazione, le aziende tech potrebbero usare liberamente i dati delle persone decedute per addestrare un chatbot. Fortunatamente non è proprio così, considerando che in questi paesi entrano in gioco il reato di diffamazione, il diritto al proprio nome e alla propria immagine, o il diritto alla riservatezza della corrispondenza. Al contrario, invece, paesi come l’Estonia e la Danimarca prevedono che il GDPR si applichi anche alle persone decedute, a cui garantiscono una protezione giuridica per un limite preciso di tempo (10 anni dopo la morte in Danimarca, e 30 in Estonia). E così anche Italia e Spagna, che garantiscono una protezione dei dati dei defunti per un tempo illimitato.  Pur mancando una legislazione europea uniforme, il GDPR lascia agli Stati membri la facoltà di regolare il trattamento dei dati personali delle persone defunte, e questo comporta differenze, anche sostanziali, delle legislazioni nazionali. Con l’avvento dell’AI e gli sviluppi rapidi che questa comporta, però, diventa sempre più necessario stilare una normativa chiara, precisa e uniforme sulla questione. Così da rispettare non solo la privacy dei nostri cari, ma anche il dolore per la loro perdita. L'articolo Eredità digitale, che fine fanno i nostri dati dopo la morte? proviene da Guerre di Rete.
Entry-Exit System, la UE avvia un enorme esperimento di sorveglianza biometrica
Il 30 luglio la Commissione Europea ha annunciato il prossimo avvio di una grande sperimentazione di sorveglianza biometrica per tutti i cittadini non UE. Dal 12 ottobre, chiunque vorrà attraversare le frontiere Schengen senza essere cittadino di un suo paese dovrà fornire la propria immagine facciale e le proprie impronte […] L'articolo Entry-Exit System, la UE avvia un enorme esperimento di sorveglianza biometrica su Contropiano.
Perché conviene abbandonare le piattaforme delle Big Tech
I motivi per smettere di essere utenti delle piattaforme degli oligopoli USA sono vari e diversificati. Ciò non significa smettere immediatamente di utilizzare i social network e gli altri servizi delle grandi aziende tecnologiche americane. Siamo tutte nella stessa barca e abbiamo tutte vulnerabilità che vengono sfruttate dalle megamacchine per farci passare molto tempo "attaccate" alle loro piattaforme. Si tratta di intraprendere un percorso alla scoperta degli automatismi che mettiamo in atto che ci impediscono di scegliere, inventando soluzioni che facciano tesoro delle alternative tecnologiche già esistenti. Entriamo nel vivo e vediamo alcuni dei motivi per cui vale la pena intraprendere questo percorso. TABLE OF CONTENTS * 1. Le piattaforme GAFAM profilano e manipolano le persone * 2. Le piattaforme GAFAM scelgono al nostro posto * 3. Nei social network commerciali ognuno vede solo ciò che è coerente con il proprio profilo * 4. Le piattaforme GAFAM sono un attentato alla propria privacy e alla propria sicurezza * 5. I Social Media incitano reazioni di rabbia e odio * E allora? Meglio le tecnologie conviviali e i servizi offerti da server autogestiti o da associazioni che si prendono cura della privacy dei propri utenti. * Qualche ragionamento in più * Pedagogia Hacker * Alcuni riferimenti per approfondire 1. LE PIATTAFORME GAFAM PROFILANO E MANIPOLANO LE PERSONE le piattaforme delle GAFAM (Google, Apple, Facebook, Amazon, Microsoft) estraggono i dati degli utenti profilando le persone per manipolarne i comportamenti e le scelte: pubblicità personalizzata, esclusiva visualizzazione di contenuti delle propria bolla, visualizzazione di contenuti prodotti appositamente per condizionare scelte politiche (si veda il caso di Cambridge Analityca). Sono progettate e realizzate per fare in modo che le persone rimangano più tempo possibile connesse. 2. LE PIATTAFORME GAFAM SCELGONO AL NOSTRO POSTO Le megamacchine inducono degli automatismi nel nostro modo di utilizzarle dei quali non ci rendiamo più conto. Così finisce che non cercherò i post che mi interessano, perché mi verranno proposti dagli algoritmi di Instagram. Non sceglierò la prossima serie che vedrò su Netflix, semplicemente rimarrò nel flusso video in cui mi trovo e vedrò la serie che mi viene proposta in base al mio profilo. Scoprire quali sono gli automatismi e tornare a fare un percorso di scelte è fondamentale per avere un approccio alla tecnologia che deleghi il meno possibile, che consenta di prendere consapevolezza e inventare soluzioni per una relazione ecologica con le macchine. 3. NEI SOCIAL NETWORK COMMERCIALI OGNUNO VEDE SOLO CIÒ CHE È COERENTE CON IL PROPRIO PROFILO La filter bubble ("bolla di filtraggio") deriva dalla personalizzazione dei risultati di ricerca in base al comportamento dell'utente quando è connesso. Ogni utente immerso nella propria filter bubble troverà solo informazioni coerenti con la propria esperienza di navigazione precedente. Lo stesso meccanismo funziona anche per i post che ciascuno vede nel flusso dei social network commerciali (Facebook, Instagram, Twitter, Tik Tok, etc.). Tradotto: ogni persona vede solo i post che sono in linea con il proprio punto di vista. Alcuni esperimenti hanno dimostrato che il "pubblico" che si raggiunge con un post su Facebook non è maggiore di quello che si raggiungerebbe con mezzi diversi dai Social Network commerciali. 4. LE PIATTAFORME GAFAM SONO UN ATTENTATO ALLA PROPRIA PRIVACY E ALLA PROPRIA SICUREZZA Tutte le piattaforme che hanno la sede principale in USA devono sottostare al Cloud Act, una legge che prevede che qualsiasi corpo di polizia o di intelligence possa chiedere ad una società (es.: Google o Meta) di consegnare tutti i dati in loro possesso relativi ad una o più persone, tanto che l'Unione Europea, con una sentenza della Corte di Giustizia Europea ha considerato le norme USA non confermi rispetto alle leggi europee in materia di protezione dei dati personali (GDPR). Sostanzialmente utilizzando uno o più servizi delle GAFAM si stanno consegnando i propri dati ai servizi di intelligence USA. Ciò non significa che non si stiano consegnando anche alle Forze dell'Ordine Italiane nel caso queste ne facessero richiesta. 5. I SOCIAL MEDIA INCITANO REAZIONI DI RABBIA E ODIO Abbiamo visto che i Social media, e in generale le grandi piattaforme commerciali, sono progettate per cercare di trattenere gli utenti più tempo possibile: perché memorizzano i nostri dati che poi rivendono o usano per profilarci e condizionare comportamenti e scelte degli utenti. Il rage-baiting è la tattica manipolativa di suscitare indignazione con l'obiettivo di aumentare il traffico internet, il coinvolgimento online. Infatti, un recente studio, apparso sul numero di novembre 2025 delal rivista Science, dal titolo Misinformation exploits outrage to spread online dimostra che gli algoritmi premiano il coinvolgimento emotivo emotivo sulla qualità dei contenuti. La ricerca, di cui scrive anche Agenda Digitale documenta come l’indignazione sia il principale motore della disinformazione online. Non è cioè importante che una notizia, un post, una foto siano veri, o verosimili, perché la reazione emotiva, in particolare quando suscita rabbia prevale sulla reazione razionale che porterebbe la persona che vede il post, la foto, la notizia a verificare se è vera e solo dopo a ri-postare, condividere, reagire con like e simili. E ALLORA? MEGLIO LE TECNOLOGIE CONVIVIALI E I SERVIZI OFFERTI DA SERVER AUTOGESTITI O DA ASSOCIAZIONI CHE SI PRENDONO CURA DELLA PRIVACY DEI PROPRI UTENTI. Esistono alcuni server gestiti da associazioni esplicitamente di movimento, come autistici.org o riseup.net che offrono molti servizi con un livello di sicurezza e di rispetto della privacy molto alto. Per esempio autistici.org non mantiene il log (il registro di tutto ciò che avviene sul server). Ne consegue che se le Forze dell'Ordine o qualche potente di turno chiede informazioni su chi ha scritto il tale post nel tale giorno, non c'è possibilità tecnica di saperlo. Tra i servizi offerti troviamo: e-mail, mailing-list, blog, instant messagging e chat, siti web, videoconferenze e streaming. Per repository di contenuti e strumenti di collaborazione (equivalenti a google drive e simili), si possono utilizzare i servizi di Framasoft o di Disroot, ma ce ne sono anche molti altri. Per quel che riguarda i social network, esistono ormai molte alternative a quelli commerciali e sono sempre più numerosi gli utenti che li usano. Hanno una differenza fondamentale che li rende migliori dei Social Network commerciali anche da un punto di vista concettuale: sono federati. Vuol dire che si basano su un protocollo di comunicazione che permette la comunicazione tra server diversi. Si può essere registrati su un server e "seguire" un utente registrato su un altro server federato. Questo sistema rende il "Fediverso" più sicuro e resiliente dei social network commerciali. Alcuni server: mastodon.bida.im, mastodon.social, mastodon.uno, Puntarella party, mastodon.cisti.org. Ci sono persone che tengono aggiornate le alternative ai servizi proprietari . Probabilmente c'è tutto quello di cui abbiamo bisogno. QUALCHE RAGIONAMENTO IN PIÙ Come fanno profitti le grandi piattaforme Le piattaforme delle GAFAM (Google, Apple, Facebook, Amazon, Microsoft) fanno profitti principalmente con la pubblicità che è tanto più efficace quanto più è personalizzata. Affinché la pubblicità sia personalizzata le piattaforme memorizzano i dati dell'attività degli utenti in Internet (i like, le visualizzazioni, le risposte, i siti navigati, i messaggi inviati, etc.) in modo da conoscere abitudini, gusti, inclinazioni sessuali, attitudine politiche, etc. Con i dati memorizzati i software delle megamacchine (i famigerati algoritmi) tracciano un profilo personale di ciascun utente. Per mezzo del profilo, il software della piattaforma mostrerà alcune cose ed altre no, così da indurre la persona ad acquistare un bene invece che un altro o a non andare a votare invece che andarci. Catturare più tempo possibile degli utenti Si capisce così il motivo per cui l'interesse dei GAFAM è quello di tenere le persone il più possibile connesse con le loro piattaforme. Infatti tutte le grandi piattaforme (google, facebook, tiktok, instagram, whatsapp, etc.) sono progettate e realizzate per catturare più tempo possibile degli umani (senza differenza tra adulti, adolescenti e bambini). In ultima analisi per dare dipendenza. Sono progettate in questo modo perché hanno bisogno dei nostri dati per il loro business. E più dati hanno a disposizione più possono guadagnare attraverso la manipolazione dei nostri gusti, comportamenti, orientamenti, vendendoci prodotti commerciali, culturali, politici. Come funzionano. Le grandi piattaforme digitali usano il meccanismo della ricompensa, facendo leva sulle nostre vulnerabilità. Tutti abbiamo bisogno di approvazione sociale (il numero di like, il numero di notifiche, il numero di condivisioni, il numero di commenti positivi, etc.) e di denaro. E così in cerca della nostra ricompensa (di qualsiasi tipo essa sia) controlliamo continuamente il nostro social o la nostra chat preferita. Se è così che funziona, e a quanto pare è proprio così, la conseguenza è che la comunicazione tra gli umani si perde dentro un'architettura che omologa e usa gli umani per manipolare (a prescindere dai contenuti). PEDAGOGIA HACKER L'adozione della pedagogia hacker è un utile approccio per intraprendere il percorso di liberazione dalle tecnologie del controllo verso l'informatica conviviale. La pedagogia Hacker nasce dall’esperienza maturata da C.I.R.C.E. nei laboratori e nelle formazioni condotte negli ultimi anni. Già nel 2017 se ne trova una descrizione nel libro Tecnologie del Dominio, un dizionario di termini realizzato collettivamente, e se ne parla anche in articoli pubblicati su diverse riviste, una raccolta dei quali si può trovare su circex.org. Richiede un approccio nuovo anche alle tecnologie stesse. Né tecnofobo, né tanto meno tecno-entusiasta, ma consapevole delle potenzialità e dei rischi delle connessioni interattive. La pedagogia hacker è un’attitudine attiva. Mira a modificare i comportamenti che promuovono automatismi e per questo riducono la libertà di scelta. E’ un approccio educativo che coniuga l’approccio dell’apprendimento esperienziale (Boud – Cohen – Walker, 1993 – Reggio, 2010), l’attitudine hacker, il gioco e un deciso orientamento libertario. Qui potete ascoltare una breve pillola audio che spiega cosa è la Pedagogia Hacker. A proposito della Pedagogia Hacker a scuola, durante l'edizione 2022 dell'hackmeeting si è tenuta una tavola rotonda sull'hacking a scuola. Due ore di chiacchiere tra insegnati, animatori digitali, genitori, curiose e curiosi. Ecco cosa ne è emerso. ALCUNI RIFERIMENTI PER APPROFONDIRE * Il caso Facebook e Cambridge Analytica in 7 domande e risposte * Dopamina, Quando un'app diventa droga. Una serie di video su ArtèTV * I rischi di affidarsi ai colossi della tecnologia per la didattica a distanza, articolo in Internazionale * Giocare o essere giocati? tratto da Internet Mon amour di Agnese Trocchi * Cos'è il Fediverso * Le alternative ai servizi di Google. Alternative etiche a tutti i prodotti di Google e di moltissime altre realtà mainstream (es.: Whatsapp) * Pedagogia hacker a cura di C.I.R.C.E. * Laboratori sulla gamificazione di C.I.R.C.E. * Le Dita Nella Presa, Trasmissione di approfondimento tecnologico a cura di AvANa. * "Educarsi hacker" dossier sul numero del maggio 22 della rivista "Gli Asini" * Pedagogia Hip-hop Riflessioni, materiali, cronache di sperimentazione educativa in un’epoca di futuro incerto. Il blog di Davide Fant. * Tecnologie conviviali, di Carlo Milani, edito da Eleutera.
Perché ho deciso di non accettare la nuova privacy policy di WhatsApp
Come ormai sappiamo, WhatsApp ha dato un ultimatum a tutti i suoi utenti: chi non ha accettato la nuova policy entro il 15 maggio non potrà più usare WhatsApp. L'azienda di proprietà di Facebook, con sede Europea in Irlanda, ci aveva già provato a febbraio 2021 sollevando feroci critiche che l'avevano indotta a rimandare la scadenza per avere il tempo di spiegare meglio agli utenti i cambiamenti introdotti nella policy. PRIVACY, RIASSUNTO DELLE PUNTATE PRECEDENTI. Perdonate il riassunto, ma altrimenti è impossibile capire la situazione già ingarbugliata di suo. Alla fine di aprile del 2016 l'Unione Europea ha adottato un regolamento per la protezione dei dati (GDPR - General Data Protection Regulation), il testo entra in vigore a partire dal maggio 2018. Da wikipedia: "Con questo regolamento, la Commissione europea si propone come obiettivo quello di rafforzare la protezione dei dati personali di cittadini dell'Unione europea (UE) e dei residenti nell'UE, sia all'interno che all'esterno dei confini dell'UE, restituendo ai cittadini il controllo dei propri dati personali, semplificando il contesto normativo che riguarda gli affari internazionali, unificando e rendendo omogenea la normativa privacy dentro l'UE." [1] Tra le altre figure il regolamento istituisce anche quella del "Titolare del trattamento dei dati", che incaricherà il responsabile della protezione dei dati di prendere tutti gli accorgimenti necessari. Ora attenzione, perché quanto scritto sotto, si rivelerà importante ai fini del mio ragionamento. Il titolare del trattamento dei dati deve prendere tutte le precauzioni possibili affinché sia impedita una violazione, perdita, furto di dati personali del cui trattamento è titolare. Per esempio: un incendio distrugge un data center; i dati personali memorizzati nel data center stesso non sono recuperabili; il responsabile del trattamento dei dati non ha predisposto un backup; il titolare del trattamento dei dati è responsabile legalmente del danno causato dalla perdita di dati. Ancora da Wikipedia: "Il testo affronta anche il tema dell'esportazione di dati personali al di fuori dell'UE e obbliga tutti i titolari del trattamento dei dati (anche con sede legale fuori dall'UE) che trattano dati di residenti nell'UE ad osservare e adempiere agli obblighi previsti." La questione del trasferimento dei dati all'estero è rilevante. Il garante della privacy in proposito afferma che "il trasferimento verso Paesi non appartenenti alle Spazio Economico Europeo sono consentiti a condizione che l’adeguatezza del Paese terzo o dell’organizzazione sia riconosciuta tramite decisione della Commissione europea".[2] In assenza di tale decisione possono costituire garanzie adeguate al trasferimento dei dati all'estero, previa autorizzazione del garante, le clausole contrattuali ad hoc (art. 46, par. 3, lett. a). [2] Sappiamo che la sentenza Schrems II della Corte di Giustiza Europea ha invalidato l'accordo tra UE e USA relativamente alla protezione dei dati personali detto "Privacy Shields", affermando che l'ordinamento giuridico sulla protezione dei dati degli USA non garantisce la stessa protezione dell'ordinamento UE. In sostanza per trasferire dati personali dall'Europa agli USA in maniera legale si deve fare leva su uno dei metodi menzionati dal garante della privacy [2]. TORNIAMO A WHATSAPP. Nella nuova privacy policy, quella che WhatsApp chiede di accettare pena la sospensione del servizio, nel paragrafo "Operazioni a livello globale", è scritto a chiare lettere che "Le informazioni controllate da WhatsApp potrebbero essere trasferite o trasmesse o archiviate e trattate negli Stati Uniti" [3] e che per farlo utilizza le clausole contrattuali standard approvate dalla Commissione Europea [4]. Inoltre è scritto anche: “WhatsApp condivide informazioni a livello globale, sia internamente con le aziende di Facebook, che esternamente con i nostri partner e con le persone con cui l'utente comunica in tutto il mondo, nel rispetto della presente Informativa sulla privacy e dei nostri Termini.“ Che vuol dire? Innanzi tutto vuol dire che l'accettazione delle nuove clausole da parte dell'utente aggira il divieto di trasferimento dei dati negli USA. Oltre a ciò, l’accettazione di questo paragrafo da parte dell’utente consente a Facebook, proprietaria di WhatsApp, di acquisire i dati degli utenti dell’App di messaggistica e incrociarli (quando non unificarli) con quelli degli utenti di Facebook per rendere i profili degli utenti sempre più precisi e sempre più remunerativi. In ogni caso, WhatsApp dovrebbe attivamente garantire, secondo il GDPR, tutte le protezioni dei dati personali dei propri utenti adeguandosi alla giurisdizione UE. A prescindere dalla possibilità e volontà di farlo, tutto ciò funziona fintantoché il titolare del trattamento dei dati personali è WhatsApp. Ma può capitare che il titolare non sia Facebook. Non sono un legale, ma leggendo vari articoli ho capito che per esempio il titolare del trattamento dei dati di un gruppo WhatsApp è l'amministratore del gruppo e/o l'amministratore del condominio. [5] La stessa cosa si può dire per il medico di base che invia una ricetta tramite WhatsApp al suo paziente. In sostanza va tutto bene, a norma di legge, finché il titolare del trattamento dei dati è WhatsApp ltd. In caso sia un soggetto diverso la responsabilità legale di una eventuale violazione, furto, distruzione, etc., dei dati personali sarebbe del soggetto in questione: il medico di base e l'amministratore del gruppo di condominio, come negli esempi descritti sopra. Il Titolare (es.: il medico) avrebbe dovuto far accettare ai partecipanti alla comunicazione tramite WhatsApp (es.: il paziente) una privacy policy che preveda l'esportazione dei dati verso gli USA. Una circostanza che nella vita reale non accade praticamente mai. IN CONCLUSIONE E quindi? In definitiva si tratta di disquisizioni di lana caprina. Il nocciolo della questione sta tutto nella sostanza del problema, che, al di la degli aspetti giuridici, è nella adeguatezza o meno di chiunque nel proteggere i dati personali degli utenti. E sulla sostanza la Corte di Giustiza Europea si è espressa con la sentenza Schrems II che invalida il precedente accordo con gli USA (il Privacy Shield). La giurisdizione degli USA non garantisce un livello di protezione dei dati personali conforme alla giurisdizione Europea. Praticamente non c'è da fidarsi di come gli americani proteggono i nostri dati. E se non c'è da fidarsi... Ci sarebbe da domandarsi anche se i nostri dati sono realmente al sicuro nei data center Europei o Italiani. Soprattutto ci sarebbe da domandarsi, più in generale, cosa vuol dire oggi, al tempo del "cloud", fidarsi di come i nostri fornitori di App proteggono i nostri dati che raccolgono mediante le medesime App. Ma questo è un altro discorso. Sempre seguendo il filo del ragionamento, andando oltre il tema WhatsApp e messaggistica digitale, c'è da chiedersi se davvero abbiamo bisogno di raccogliere tutti questi dati. Alcune domande le ho poste in questo articolo Note: [1] https://it.wikipedia.org/wiki/Regolamento_generale_sulla_protezione_dei_dati [2] https://www.garanteprivacy.it/temi/trasferimento-dati-estero [3] https://www.whatsapp.com/legal/updates/privacy-policy-eea [4] https://ec.europa.eu/info/law/law-topic/data-protection/international-dimension-data-protection/standard-contractual-clauses-scc_en [5] https://www.altalex.com/documents/news/2021/04/12/condominio-e-gruppi-whatsapp-quali-implicazioni-per-privacy#p2
Didattica a Distanza, seconda ondata
A quanto pare, come nella prima ondata della pandemia di Covid-19, il MIUR e, quindi la scuola, si è fatto trovare impreparato da diversi punti di vista. Da quello della progettazione didattica: il blended learning ha la stessa necessità di progettare le attività didattiche della DaD o della didattica in presenza, anzi forse di più; dal punto di vista dell’utilizzo dei dati: per la verità la questione si è aggravata, perché nel frattempo la Corte di Giustizia Europea ha invalidato l’accordo, detto “Privacy Shield”, tra l’Unione Europea e gli Usa; infine anche dal punto di vista del software libero. > questo articolo è pubblicato in "Formare... a distanza?", II edizione, > C.I.R.C.E. novembre 2020 Progettazione didattica Il blended learning in una situazione “normale” prevede una buona dose di didattica in presenza e una dose di e-learning durante la quale gli studenti possono approfondire i contenuti che sono stati trattati durante le lezioni in presenza, opportunamente caricati e categorizzati nella piattaforma, oppure possono utilizzare gli strumenti di collaborazione per produrre in maniera condivisa nuovi contenuti, o ancora: potrebbero utilizzare gli strumenti di comunicazioni dedicati alle chat, videochat, forum (per quanto il termine sia un po’ fuori moda, lo strumento forum non è stato sostituito da altre novità tecnologiche per poter discutere su argomenti strutturati) per momenti di confronto con gli altri studenti e/o con i docenti. Nella situazione attuale la didattica mista è intesa principalmente in due modi: metà studenti sono in classe con il professore e metà a casa ad assistere alla lezione tenuta dal docente; oppure tutti a casa (studenti e docenti) e il docente fa lezione attraverso una piattaforma di video conferenza. Quest’ultima situazione è nella sostanza ciò che è accaduto durante il lockdown di marzo e aprile del 2020. In entrambi i casi la progettazione didattica dovrebbe tener conto della situazione in cui avviene il processo di apprendimento. Nel primo caso, metà a casa e metà in classe, l’indicazione del Ministero sembra essere di inviare il video della lezione dell’insegnante, ripreso da una webcam posizionata in classe, dove sono anche una parte di studenti, in una videoconferenza alla quale si collegano coloro che si trovano a casa. Le limitazioni per tutti sono molto chiare: in classe non ci si può muovere molto, pena uscire dall’inquadratura o dal cono del microfono; da casa bisogna stare concentrati e in silenzio cercando di seguire ciò che avviene in classe. Non si tratta di una situazione adeguata a mantenere la concentrazione, né a costruire le condizioni per una didattica non dico collaborativa, ma almeno che non crei problemi di comprensione quando il docente parla. Sarebbe interessante rovesciare la prospettiva: da casa gli studenti potrebbero tenere la lezione alternandosi negli interventi, ovviamente coadiuvati dall’insegnante, mentre in classe potrebbero attivare una regia audio-video e produrre in questo modo contenuti che andrebbero ad arricchire l’impianto didattico della classe. Naturalmente è solo un’idea che va progettata per bene, ma l’ambiente tecnologico, allo stesso modo di quello fisico, è qualcosa che condiziona fortemente la didattica. Non tenerne conto significa non sfruttare le opportunità e soprattutto accettare i limiti del caso. Del secondo caso (quello del tutti a casa), abbiamo lungamente scritto negli articoli raccolti nella prima edizione di “Formare a Distanza?”. Purtroppo non sembra essere cambiato molto: nella videochat viene riproposta la lezione frontale, probabilmente peggiorata dall’assenza dei corpi, invece che progettare attività che cambino l’assetto didattico: far preparare le lezioni ai ragazzi, che a turno da casa potrebbero presentare la lezione ai propri pari, chiedere di collaborare a distanza agli studenti, organizzare il lavoro in gruppi, costruire una casa digitale comune che sia gradevole, inclusiva, accogliente (vedi: "II. Per un setting nel digitale inclusivo e accogliente" Da: “Formare a Distanza?”, Davide Fant ~ Inventare formazione con adolescenti distanti ~ CC 4.0 (BY-NC-SA)), comprendere i problemi e le possibili opportunità del digitale. In entrambi i casi, la progettazione didattica non si dovrebbe avvalere esclusivamente della videochat, che spesso è considerata essa stessa la piattaforma per la didattica a distanza. In realtà non è così: la videochat è una parte dei tools tecnologici necessari all’e-learning. Non è un caso che persino nel sito del Ministero dell’Istruzione le tre piattaforme consigliate siano delle suite. Lo è la suite di Google, quella di Microsoft (Office 365) e lo è Weschool. Evidentemente scambiare la videochat/videoconferenza per piattaforma di Didattica a Distanza è il sintomo chiaro della malattia: non c’è progettazione didattica che tenga conto delle potenzialità e dei limiti delle tecnologie per la didattica a distanza (vedi: “Piattaforme queste sconosciute” di Stefano Penge). L’esperienza ci insegna che per un percorso di apprendimento proficuo, pur se a distanza, oltre allo strumento della videochat, saranno necessari gli strumenti per la collaborazione, per la comunicazione asincrona (la posta, la bacheca condivisa, il forum), per l’archiviazione condivisa di documenti. Dal punto di vista dei contenuti didattici, inoltre, abbiamo assistito alla caccia a contenuti utilizzabili per la Didattica a Distanza. Non tutti i docenti hanno la possibilità/capacità di realizzare dei contenuti ad hoc per le proprie lezioni a distanza, ed ecco in soccorso il learning object. L’oggetto di apprendimento (Learning Object), considerato come un piccolo frammento di contenuto didattico autoconsistente e utilizzabile in più contesti, da una parte aiuta gli insegnanti nella progettazione di interventi didattici che non siano la riproduzione della lezione frontale attraverso le videochat, ma dall’altra rappresenta un ulteriore mattoncino verso la valutazione dell’apprendimento misurabile numericamente in funzione dell’analisi dei dati sulla fruizione dei contenuti degli studenti. Un Learning Object è concepito come una unità informativa che può essere comunicata allo studente più e più volte, al di fuori del contesto di apprendimento e spesso anche di dominio. L’utilizzo di LO identifica il processo di apprendimento come somministrazione di porzioni di informazione decontestualizzati, somministrati agli studenti che metteranno insieme le informazioni fornite loro per formare le loro competenze. E’ una concezione dell’apprendimento molto vicina all’addestramento. Certamente i LO sono utili quando si deve addestrare un gruppo di persone ad utilizzare una macchina industriale o un software per produrre siti. Sono molto meno utili se si intende l’apprendimento come processo che forma l’interezza della persona umana attraverso l’interazione con l’ambiente, attraverso la relazione con altre presone, attraverso la creazione condivisa di nuove conoscenze. Infine sgancia il percorso di apprendimento di un o una discente da quel complesso processo che è molto di più che il calcolo algoritmico dei contenuti fruiti. USO DEI DATI: PRIVACY, CONTROLLO E VALUTAZIONE Dal punto di vista dell’uso dei dati, e della relativa utilità, prodotti da studenti e docenti, va tenuto conto che, rispetto alla fase del lockdown, c’è stato un pronunciamento delle Corte di Giustizia Europea che dovrebbe cambiare totalmente il modo in cui le nostre istituzioni affrontano la questione delle piattaforme e del cloud. La Corte di Giustizia Europea ha invalidato l’accordo, detto “Privacy Shield”, tra l’Unione Europea e gli Usa (Sentenza del 16 luglio 2020 nella causa C-311/18 promossa dall'attivista Maximiliam Schrems). Che vuol dire? Significa che secondo l'Unione Europea le norme per tutelare la protezione dei dati personali in vigore negli USA e applicate dalle imprese statunitensi non sono adeguate a quelle che la UE garantisce ai propri cittadini. In pratica, con questo pronunciamento i dati dei cittadini italiani non possono essere inviati e archiviati negli USA. Ovvero tutte le aziende che utilizzano servizi cloud basati perlopiù in territorio statunitense (Amazon, Microsoft Azure) dovrebbero spostarli in Europa. Inoltre Facebook, Google, Tik Tok e via dicendo non possono più usare i dati degli utenti elaborandoli e archiviandoli negli USA, il che significherebbe che quei servizi non potrebbero più funzionare. Lo testimoniano le dichiarazioni di Yvonne Cunnane, responsabile protezione dati di Facebook Irlanda, che dichiara: ‘Con lo stop al trasferimento dati degli utenti europei negli Usa non è chiaro come Facebook ed Instagram potrebbero ancora funzionare nella UE’. Il pronunciamento impatta anche le piattaforme di Didattica a Distanza e le videochat che memorizzano i dati degli utenti fuori dall’Europa: Google, Office 365, Zoom, etc. In teoria non essendoci più un accordo con gli USA che tuteli la privacy degli utenti europei, queste piattaforme non dovrebbe più essere accessibili dall’Europa. Al momento non è così, ma ci si domanda se il Ministero dell’Istruzione sia a conoscenza del pronunciamento della Corte Europea. Probabilmente no, non si spiega altrimenti l’indicazione di utilizzare piattaforme proprietarie che, da quello che è dato saperne, inviano i dati di studenti e insegnanti negli USA. Peraltro la questione dell’utilizzo dei dati ha a che fare con due altre importanti questioni. La prima è relativa al controllo del lavoro dei docenti. Siamo certi che la presenza di una webcam in classe che riprende tutte le attività dei docenti non leda i diritti degli insegnanti in quanto lavoratori? Siamo certi che non si caratterizzi come un elemento di controllo del lavoro dei docenti e quindi possa essere considerata una pratica anti-sindacale? Qualche dubbio se lo pone anche Francesco Sinopoli, segretario generale della Federazione dei Lavoratori della Conoscenza – CGIL, in una lettera ai rettori universitari. La seconda è altrettanto importante ed è relativa alla valutazione degli studenti. Gli studenti della DaD possono essere oggetto di forte controllo ed analisi dei dati prodotti attraverso le tecniche definite di “learning analytics”. Si tratta di tecnologie che, analogamente con quanto avviene nelle grandi piattaforme dei Big Tech che attraverso l’analisi dei dati profilano le persone, hanno lo scopo di profilare gli studenti, valutarne lo stile e il grado di apprendimento e addirittura in alcuni casi hanno anche la pretesa di predire le possibilità di successo del percorso di apprendimento del singolo studente. Sono pratiche diffuse soprattutto in ambito universitario, e in particolare nelle piattaforme MOOC (Massive Open Online Courses) in cui l’attributo Open non è tanto inteso come aperto alla possibilità di apprendimento per chiunque, quanto come aperto alla misurazione, al confrontabile, all’analizzabile. D’altra parte, da organizzazioni che danno sempre meno peso alla relazione umana nel processo di insegnamento/apprendimento, queste tecniche sono manna dal cielo. Se poi ai learning analytics si aggiunge la didattica gamificata, che prevede premi al completamento della lettura o visione di contenuti, o alla corretta soluzione di esercizi, i dati numerici di ogni studente diventano sempre di più. La valutazione dello studente attraverso i dati numerici memorizzati dalle piattaforme diventa sempre maggiore a discapito della “gioia” di apprendere. Sappiamo che i processi di apprendimento sono processi che hanno bisogno di tempo, di relazioni umane, di pazienza, di condivisione, di tempo per poter sbagliare. Se è fatta a distanza poi ha bisogno di accortezze e disponibilità alla sperimentazione. Piattaforme e software libero In Italia esiste una legge (legge 7 agosto 2012, n. 134) e due articoli (il 69 e il 69) del Codice dell’Amministrazione Digitale (CAD) che a vario titolo invitano le Pubbliche Amministrazioni ad utilizzare software Libero o Open Source (F/LOSS: Free/Libre Oper Source Software) a parità di funzionalità. Purtroppo la legge è largamente disattesa. Molto raramente gli acquisti di software da parte delle PA privilegiano il software libero o Open Source. Nessuna sorpresa quindi se il Ministero dell’Istruzione consigli delle suite per la didattica a distanza proprietarie: lo sono tutte e tre quelle consigliate nel sito del Ministero. Lo stupore però arriva quando il fondo per l’innovazione di Cassa Depositi e Prestiti finanzia parte di un aumento di capitale di 6,4 milioni di euro di WeSchool, la piattaforma per la Formazione a Distanza di TIM il cui codice sorgente non è aperto. Cassa Depositi e Prestiti è una società per azioni controllata dal Ministero dell’Economia e delle Finanze, in ultima analisi utilizza e investe denaro pubblico. Certo la piattaforma è italiana, non ha quindi, almeno formalmente, i problemi legati alla difesa della privacy che hanno le azienda USA e farà contenti i sovranisti digitali italiani, ma è un software proprietario. Non sarà possibile per nessuno utilizzarlo (a meno che sia concesso in licenza dal proprietario), studiarlo, ridistribuirlo, migliorarlo. Sono le 4 libertà fondamentali del Software Libero e Open Source che, pur tra molte ipocrisie economiche e cavilli legali, sono le uniche garanzie che un investimento pubblico non venga privatizzato da un’azienda che farà profitti vendendo qualcosa che ha costruito con il contributo di tutti coloro che pagano le tasse al governo italiano. Sin qui si potrebbe intendere che si tratti di una mera questione di principio. Non è così, o per lo meno non è solo questo il punto. Come ho già scritto nell’articolo presente in “Formare a distanza?”, l’adozione del software libero in ambito didattico costituisce la condizione per la libertà di insegnamento perché se “una piattaforma” proprietaria “è disegnata per un certo tipo di interazione e relazione tra gli umani invece che per un altro (collaborativa/gerarchica), sarà molto difficile «forzarla» in modo da usarla diversamente da come è stata progettata”. Viceversa se è una piattaforma F/LOSS è possibile modificarla secondo le proprie esigenze didattiche. Ancora più importante del finanziamento di Wescool è stato un’altra caso che mi ha lasciato stupefatto. Il consorzio GARR è la rete nazionale a banda ultralarga dedicata alla comunità dell’istruzione e della ricerca. Si tratta di un’associazione senza fini di lucro fondata sotto l’egida del Ministero dell’Istruzione, dell’Università e della Ricerca. Gli enti soci sono CNR, ENEA, INAF, INFN e tutte le università italiane rappresentate dalla Fondazione CRUI. Durante il lockdown GARR ha messo a disposizione gratuitamente alcuni strumenti per la DaD basati su software F/LOSS ma non è mai stato menzionato, né consigliato dal Ministero dell’Istruzione che pure è tra coloro che hanno contribuito a dar vita al consorzio. Eppure ha una policy per la protezione della privacy in cui dichiara che non usa i dati degli utenti per scopi di profilazione. Eppure GARR mette a disposizione un servizio di cloud computing dedicato a scuole, università e centri di ricerche, che consente di installare in maniera molto semplice, nei server messi a disposizione, piattaforme e strumenti F/LOSS per la didattica. Anche in questo caso però l’indicazione alle scuole e università da parte del Ministero è stato ed è tutt’ora quello di servirsi dei cloud e delle piattaforme proprietarie delle grandi multinazionali della tecnologia (Google, e Microsoft in primis). Il cloud offerto dal GARR insieme alla scelta di utilizzare software libero per la didattica potrebbe essere la base che consentirebbe alle scuole e alle università di organizzarsi secondo le proprie esigenze, invece che secondo le esigenze delle grandi multinazionali, e valorizzare le competenze territoriali affidandosi a entità sociali ed economiche locali. Ne ho parlato in "La libertà di insegnamento. Sottotitolo: il software deve essere libero" Da: Formare… a distanza? ~ Didattica fuori dall'emergenza! ~ CC 4.0 (BY-NC-SA) Il motivo per cui il MIUR non abbia segnalato e invitato le scuole e le università ad utilizzare i servizi del GARR resta un Ministero tutt’ora irrisolto.
Abbiamo bisogno di tutti questi dati?
I sovranisti digitali dicono che l'Italia (e l'Europa) deve gestire i dati dei propri cittadini, che i dati sono il nuovo petrolio senza i quali non ci sarà ripresa economica. Intanto nasce l'infrastruttura cloud Europea "Gaia-X" e la Corte di Giustizia Europea invalida l'accordo "Privacy Shield" con gli USA, ma siamo sicuri che abbiamo davvero bisogno di memorizzare tutti questi dati? In questo periodo di accelerazione dell'uso del digitale generato dalla pandemia si sente molto parlare, almeno fra gli addetti ai lavori, di battaglia sul cloud, di dati come nuovo petrolio e di sovranità digitale. Molti osservatori sostengono anche che dal risultato di questa battaglia dipenderà la sopravvivenza dell’Europa come potenza economica. Sintetizziamo il ragionamento per sommi capi: i dati sono la materia prima fondamentale per l’economia e le società contemporanee. Bisogna quindi controllarli, proteggendo i cittadini e le imprese europee che li utilizzano economicamente per trarne profitto. Bisogna inoltre contrastare lo strapotere tecno-economico di Stati Uniti e Cina. A tal fine è necessario che i cittadini e le imprese siano garantiti contro l'utilizzo "malvagio" dei dati. Ovvero bisogna impedire che potenze straniere e conglomerate Big Tech extra europee li utilizzino per attuare forme di controllo o di manipolazione dei comportamenti attraverso la pubblicità commerciale e politica “targettizzata” (Shoshana Zuboff , Il capitalismo della sorveglianza). All’interno di questo schema generale, vediamo cosa è successo in questo periodo. La Corte di Giustizia Europea ha invalidato l’accordo, detto “Privacy Shield”, tra l’Unione Europea e gli Usa (https://www.valigiablu.it/corte-giustizia-europa-privacy-shield/) (Sentenza del 16 luglio 2020 nella causa C-311/18 promossa dall'attivista Maximiliam Schrems). Che vuol dire? Significa che secondo l'Unione Europea le norme per tutelare la protezione dei dati personali in vigore negli USA e applicate dalle imprese statunitensi non sono adeguate a quelle che la UE garantisce ai propri cittadini. In pratica, con questo pronunciamento i dati dei cittadini Italiani non possono essere inviati e archiviati negli USA. Ovvero tutte le aziende che utilizzano servizi cloud basati perlopiù in territorio statunitense (Amazon, Microsoft Azure) dovrebbero spostarli in Europa. Inoltre Facebook, Google, Tik Tok e via dicendo non possono più usare i dati degli utenti elaborandoli e archiviandoli negli USA, il che significherebbe che quei servizi non potrebbero più funzionare. Lo testimoniano le dichiarazioni di Yvonne Cunnane, responsabile protezione dati di Facebook Irlanda, che dichiara: ‘Con lo stop al trasferimento dati degli utenti europei negli Usa non è chiaro come Facebook ed Instagram potrebbero ancora funzionare nella UE’. https://www.privacyitalia.eu/stop-al-trasferimento-dati-negli-usa-facebook-e-instagram-a-rischio-chiusura-nellue/13751/ Ma al momento sembra tutto funzionare come prima, come se nulla fosse accaduto. Il consorzio Gaia-X (https://www.data-infrastructure.eu/GAIAX/Navigation/EN/Home/home.html), presentato dal governo tedesco a fine 2019, è stato rilanciato alla fine della primavera del 2020, con la partecipazione della Francia, per includere le aziende europee che si occupano di fornire servizi in Cloud. Lo scopo è quello di creare un consorzio di aziende europee che possano sostituire le Big Tech americane e cinesi nell’offerta di Cloud. I primi servizi che dovrebbero migrare dai Cloud americani a quelli europei dovrebbero essere le Pubbliche Amministrazioni, a seguire le aziende private. Al momento non è chiaro che tipo di infrastruttura verrà costruita da Gaia-X, tanto che sembra che a certe condizioni potranno avere il bollino del consorzio Gaia-X anche Google, Amazon, Microsoft e Alibaba, cioè aziende americane e cinesi. (https://www.key4biz.it/gaia-x-cose-veramente-anche-google-amazonco-possono-ricevere-il-bollino-del-progetto/320135/). La terza novità riguarda specificamente l’Italia. Il governo sta spingendo per la creazione di una società unica per gestire le infrastrutture italiane della rete a banda larga che consenta all'Italia di colmare il ritardo rispetto ai principali paesi europei in modo da dare una copertura adeguata anche alle molte zone non ancora raggiunte da una connessione sufficiente alle accresciute necessità di utilizzo di rete ad alta velocità (da “Il Post”, Perché si riparla di “rete unica”: https://www.ilpost.it/2020/09/01/rete-unica-tim-cassa-depositi-e-prestiti-accessco-fibercop/). Durante il lockdown è stato evidente quanto ancora fosse ampio il divario digitale esistente in Italia. La didattica a distanza così come il telelavoro hanno fortemente risentito del digital divide. Per questo il Governo Italiano ha deciso di creare un unico attore che metterà insieme la rete fissa di Tim con quella di Open Fiber, azienda controllata da Cassa Depositi e Prestiti e da Enel. Infine, dobbiamo riportare l’attenzione sul 5G. Al di là dei dubbi sui danni che le emissioni elettromagnetiche potrebbero provocare alla salute degli umani, di cui non mi occuperò in questo scritto, la connettività mobile di quinta generazione ha la caratteristica tecnica di abbassare la latenza, cioè il tempo che intercorre tra quando un dato è inviato e quando arriva a destinazione, e di aumentare l’ampiezza di banda. Traduzione: rende disponibile una maggiore velocità nella trasmissione di dati. A beneficiare del 5G saranno principalmente le applicazioni nel campo della telemedicina, dell’IoT (Internet of Things, Internet delle Cose), delle automobili a guida autonoma, della videosorveglianza. Ma, viste le premesse, sembra chiaro che l’aumento della qualità e della disponibilità della connettività serve a fare in modo che gli utenti siano perennemente connessi e producano quindi il cosiddetto nuovo petrolio: i dati! Questo per quanto riguarda la cornice complessiva. Passiamo al contenuto del quadro: i dati. Se da un lato sembra che la UE stia facendo una battaglia per difendere i dati dei cittadini europei, dall’altro bisogna prestare attenzione alla natura dei dati e al valore che hanno per le grandi imprese della tecnologia. La domanda che nessuno fa è la seguente: davvero abbiamo bisogno di memorizzare tutti questi dati? Quali sono i dati che servono veramente agli utenti/cittadini/consumatori? Quali sono invece quelli che servono solo alle Big Tech? Non mi riferisco ai dati inviati più o meno consapevolmente utilizzando le varie app dei nostri cellulari: da Facebook, a Twitter, a Google maps, etc.. Anche su questi bisognerebbe riflettere: a chi sono veramente utili? Ma voglio attirare l’attenzione sui dati che inviamo, e che invieremo nel prossimo futuro, semplicemente camminando o guardando una vetrina, molto spesso senza che ce ne rendiamo conto. Facciamo qualche esempio. Google maps memorizza tutti i nostri spostamenti. Se il mio smartphone ha il GPS acceso e non ho esplicitamente disattivato la cronologia delle posizioni (ma quante persone sanno che esiste questa possibilità?) Google registrerà tutti i miei spostamenti (provate: https://www.google.com/maps/timeline). Ammesso che Google non li memorizzi comunque, a prescindere che io abbia disabilitato o meno l’impostazione di cronologia delle posizioni (cosa plauisibile perché la localizzazione è una delle variabili usate dagli algoritmi per offrirci servizi più aderenti alle nostre esigenze). La registrazione delle posizioni degli utenti consente di profilare e targhettizzare le persone in maniera molto precisa. Per farsi l’idea di come funziona,supponiamo che nell’ultima settimana io vada tutti i giorni in una clinica ostetrica, che negli scorsi mesi abbia prenotato alcune visite ginecologiche, che abbia fatto degli acquisti di oggetti per neonati e che abbia fatto delle ricerche sul comportamento da tenere da parte di neo-genitori. La memorizzazione della mia posizione, delle mie prenotazioni, dei miei acquisti, delle mie ricerche consente all’algoritmo che deve profilarmi, targhettizzarmi e inviarmi della pubblicità, di ipotizzare con una cerca precisione che sia nata mia figlia e che io devo acquistare dei pannolini. A questo punto sarò inondato di pubblicità di pannolini acquistabili probabilmente vicino alla clinica o online. Ma io non ho bisogno che mi venga indicato quale marca di pannolini comprare e dove comprarli, ne troverò di adatti a mia figlia e alle mie tasche facilmente senza bisogno della pubblicità che mi viene inviata in maniera così precisa. Dunque la memorizzazione e conservazione dei miei spostamenti è utile esclusivamente a Google e agli inserzionisti pubblicitari. Le Smart City sono uno di quei concetti tuttofare a cui si attribuisce il potere di risolvere i problemi che affliggono le nostre metropoli. Con Smart City si intendono le “strategie di pianificazione urbanistica correlate all’innovazione” (https://www.treccani.it/enciclopedia/smart-city_(Lessico-del-XXI-Secolo)/) tecnologica. In pratica: collocare nelle città molti sensori e telecamere collegate a grandi server che immagazzinano i dati, li elaborano e automatizzano una serie di comportamenti delle infrastrutture della città. Si va dalla raccolta dei rifiuti “smart” applicando ai contenitori dei sensori di riempimento, ai semafori intelligenti che attraverso la raccolta dei dati della zona in cui sono attivi e la connessione alla rete dovrebbero armonizzare il relativo funzionamento in modo da regolare meglio il traffico. Si prosegue con “Smart parking”, “Smart car” e via dicendo. Le tecnologie abilitanti per le città intelligenti sono considerate parte dell’Internet delle cose (Internet of Things, abbreviato in IoT) che si regge sui Big Data. Il problema è che questa visione di città mette al centro la tecnologia e non i cittadini. Il controllo del territorio e il funzionamento delle infrastrutture delle città sono regolate dagli algoritmi che usano la grande quantità di dati prodotti da sensori e telecamere, invece che da cittadini ed amministratori della cosa pubblica. (a questo proposito c'è un mio articolo che pur essendo del 2013 spiega in maniera chiara la differenza tra le due visioni: https://graffio.noblogs.org/post/2013/11/15/smart-city-si-ma-dal-basso-ed-ecosostenibili/) In tema di “Smart Car “e “Smart Mobility”, le automobili a guida autonoma, in un futuro probabilmente non molto lontano sbarcheranno anche in Italia. Per come sono state progettate hanno bisogno di inviare costantemente ai server i dati rilevati dai sensori e dalle telecamere con cui sono equipaggiate. I server elaborano i dati e rispondono come devono comportarsi le auto (chissà perché non possono avere il software installato in locale?). Per far funzionare un sistema simile sarà necessaria una copertura della rete mobile affidabile, a banda larga e pressoché totale. Per questo la connessione di quinta generazione è fondamentale. Ma anche in questo caso non ho sentito né letto la domanda di cui sopra: per migliorare la vita delle persone che vivono nei grandi agglomerati urbani, abbiamo veramente bisogno delle auto a guida autonoma (che rimarrebbero in ogni caso imbottigliate nel traffico cittadino), delle IoT, dei semafori intelligenti, e di memorizzare le migliaia di dati prodotti da queste tecnologie? Il miglioramento e il potenziamento dei trasporti pubblici urbani ed extraurbani sarebbe molto più utile alla vivibilità delle nostre città come anche una maggiore flessibilità negli orari di lavoro e una buona dose di smart working aiuterebbe certamente la decongestione del traffico delle città. Altro settore in continua espansione nella raccolta dati è quello delle case intelligenti, o della domotica. I vari assistenti personali offerti da Google, da Amazon, da Apple consentono di comandare con la voce i nostri elettrodomestici collegati in rete: “Alexa accendi il televisore”, “Ehi Google regola l’acqua calda” e così via. Le richieste vocali però non vengono elaborate dai dispositivi locali, che avrebbero tutte le risorse software e hardware per farlo; anche in questo caso vengono invece inviate via rete a dei server che, oltre ad elaborare le richieste, memorizzano i comandi vocali con il duplice scopo di addestrare i sistemi alle diverse voci degli utenti e di profilarne i comportamenti. Anche partendo dall’assunto (che chi scrive non condivide) che gli assistenti siano degli strumenti effettivamente utili, non c’è alcun motivo per cui i miei “dialoghi” con il mio o la mia assistente debbano essere memorizzati, ovviamente non in un dispositivo locale, ma in cloud, che, ricordiamolo, non è altro che un sistema di datacenter di proprietà dei costruttori degli assistenti personali. Se questo avviene è solo perché la mia voce e i miei comandi agli assistenti servono per meglio determinare le mie abitudini, attitudini, gusti, etc.. In ultima analisi lo scopo è anche in questo caso migliorare la mia profilazione. Gli elettrodomestici connessi in rete stanno aumentando continuamente (caldaie, televisori, lavatrici, frigoriferi, etc.). Nel caso del frigorifero lo scenario è paradigmatico. Attraverso dei sensori e lettori di codici a barre con sui saranno equipaggiati, i frigoriferi saranno in grado di conoscere pressoché tutto dei miei gusti e delle mie abitudini alimentari. Lo scopo dichiarato dell’applicazione dell’IoT è quello di aiutarmi nella spesa: il frigorifero connesso ad internet si accorgerà che ho finito la birra e mi ordinerà automaticamente la mia marca preferita (purché io abbia il credito necessario, altrimenti potrò sempre vedere dei video promozionali obbligatori, come in uno dei racconti di “Internet, mon amour”, di Agnese Trocchi: https://ima.circex.org/storie/1-fuoricasa/7-IoT.html). Penserà un drone a consegnarmela! È chiaro che questo scenario cambierà completamente il mio rapporto con il cibo. Provare alimenti fuori dalla grande distribuzione sarà sempre meno possibile, scoprire sapori genuini diventerà sempre più difficile. Ma siamo davvero noi utenti a beneficiare di questa tecnologia e della memorizzazione di questa quantità di dati? Un alert che mi segnala che ho finito la birra potrebbe farmi piacere, così come la possibilità di accendere la caldaia dei termosifoni da remoto prima di tornare a casa potrebbe essere utile (anche se sarebbe sufficiente programmare per bene le temperature della caldaia). Quello di cui invece sono profondamente convinto è che qualsiasi automatismo nell’acquisto di beni e servizio non è utile a me, ma solo a chi vuole vendermi qualcosa. L’algoritmo che mi compra la birra che uso normalmente (oltretutto “normalmente” non è altro che un dato statistico, e potrebbe essere momentaneo, magari dovuto a condizioni economiche, etc.) utilizzando i dati che ha memorizzato mi arreca un danno più che un servizio. Certamente un servizio lo fornisce invece a chi mi vende la birra. Il passaggio della pubblicità targhettizzata viene addirittura saltato, per passare direttamente a farmi acquistare ciò che ha deciso qualcun altro. Infine, in tema video sorveglianza e riconoscimento facciale, ecco un esempio di uso delle telecamere connesse a internet apparentemente poco invasivo. Ogni volta che in un centro commerciale passiamo davanti a un monitor pilotato con la tecnica del digital signage, ci sarà una telecamera che ci inquadrerà e utilizzerà il riconoscimento facciale per vedere chi siamo, incrocerà i dati che riesce a ricavare dal riconoscimento con altri che ha memorizzato e cambierà le immagini proposte nel monitor in funzione di quello che un algoritmo crede sia di maggior interesse. Siamo sicuri che la registrazione e conservazione dei dati relativi alla nostra frequentazione in quella posizione in quel dato giorno siano effettivamente utili a noi, utenti e consumatori “evoluti”? O piuttosto non siano utili esclusivamente al proprietario del centro commerciale al fine di farci rimanere più tempo o fare in modo che compriamo determinati prodotti che l’algoritmo di turno ci suggerirà? O in ultima analisi saranno dati che contribuiranno a costruire il mio profilo a uso degli algoritmi che suggeriranno qualcosa da vendermi? Queste sono alcune delle domande a proposito dell’utilità della produzione e raccolta dei dati che mi sono venute in mente, ma è un esercizio che può fare chiunque. Ogni volta che ci rendiamo conto che alcuni dati da noi prodotti vengono inviati in rete e memorizzati in qualche data center sperduto nel mondo, fra l’altro in barba alle regolamentazioni europee, domandiamoci: “a chi è utile la raccolta di questi dati?” Quel che mi preme sottolineare con questa serie di esempi è che la questione in gioco non è solo chi controlla i dati, come sostengono i fautori della sovranità tecnologica, ma perché vengono memorizzati e conservati i dati. A chi giovano? Chi ne beneficia? Purtroppo questo tema è completamente assente dal dibattito relativo alla battaglia sul cloud, che in ultima analisi non è altro che una battaglia per il controllo dei dati, dalla quale i cittadini sono sostanzialmente esclusi. Sitografia/bibliografia * Intervista a Bassan (UniRomaTre): ‘La grande sfida è il Cloud, intervenga lo Stato, ma non con il modello TIM-Open Fiber’, Key4biz, luglio 2020 https://www.key4biz.it/f-bassan-uniromatre-la-grande-sfida-e-il-cloud-intervenga-lo-stato-ma-non-con-il-modello-tim-open-fiber/ * Bruno saetta, La Corte europea invalida l’accordo Privacy Shield sul trasferimento dei dati europei e declassa gli Usa, Valigia Blu, luglio 2020 https://www.valigiablu.it/corte-giustizia-europa-privacy-shield/ * Federico Fubini, Cloud, sfida tra Usa ed Europa: la battaglia (sulle nuvole) per l’Italia vale 5 miliardi, Corriere della sera, luglio 2020 https://www.corriere.it/economia/finanza/20_luglio_12/cloud-sfida-usa-ed-europa-battaglia-sulle-nuvole-l-italia-vale-5-miliardi-fa71bc58-c40a-11ea-b958-dd8b1bb69ac3.shtml * Luigi Garofalo, Cloud nazionale invocato da Soro, le condizioni per tenere fuori Amazon, Google e Microsoft, Key4biz, giugno 2020 https://www.key4biz.it/cloud-nazionale-invocato-da-soro-le-condizioni-per-tenere-fuori-amazon-google-e-microsoft/ * Luigi Garofalo, Gaia-X, cos’è veramente? Anche Google, Amazon&Co. possono ricevere il ‘bollino’ del progetto, Key4Biz, settembre 2020 https://www.key4biz.it/gaia-x-cose-veramente-anche-google-amazonco-possono-ricevere-il-bollino-del-progetto/320135/ * Francesca Bria, Un patto sociale verde e digitale per la sovranità tecnologica, luglio 2020 https://www.pandorarivista.it/articoli/un-patto-sociale-verde-e-digitale-per-la-sovranita-tecnologica/ * Agnese Trocchi, Internet, mon amour, settembre 2019 https://ima.circex.org/storie/1-fuoricasa/7-IoT.html * Envisioning Cities is a free and continuously updated emerging technology platform https://cities.envisioning.io * Shoshana Zuboff , Il capitalismo della sorveglianza, Luiss University Press, ottobre 2019 * Massimo Mantellini, Unisci e impera, Il Post, agosto 2020 https://www.ilpost.it/massimomantellini/2020/08/21/unisci-e-impera/