Tag - privacy

Entry-Exit System, la UE avvia un enorme esperimento di sorveglianza biometrica
Il 30 luglio la Commissione Europea ha annunciato il prossimo avvio di una grande sperimentazione di sorveglianza biometrica per tutti i cittadini non UE. Dal 12 ottobre, chiunque vorrà attraversare le frontiere Schengen senza essere cittadino di un suo paese dovrà fornire la propria immagine facciale e le proprie impronte […] L'articolo Entry-Exit System, la UE avvia un enorme esperimento di sorveglianza biometrica su Contropiano.
Perché conviene abbandonare le piattaforme delle Big Tech
I motivi per smettere di essere utenti delle piattaforme degli oligopoli USA sono vari e diversificati. Ciò non significa smettere immediatamente di utilizzare i social network e gli altri servizi delle grandi aziende tecnologiche americane. Siamo tutte nella stessa barca e abbiamo tutte vulnerabilità che vengono sfruttate dalle megamacchine per farci passare molto tempo "attaccate" alle loro piattaforme. Si tratta di intraprendere un percorso alla scoperta degli automatismi che mettiamo in atto che ci impediscono di scegliere, inventando soluzioni che facciano tesoro delle alternative tecnologiche già esistenti. Entriamo nel vivo e vediamo alcuni dei motivi per cui vale la pena intraprendere questo percorso. TABLE OF CONTENTS * 1. Le piattaforme GAFAM profilano e manipolano le persone * 2. Le piattaforme GAFAM scelgono al nostro posto * 3. Nei social network commerciali ognuno vede solo ciò che è coerente con il proprio profilo * 4. Le piattaforme GAFAM sono un attentato alla propria privacy e alla propria sicurezza * 5. I Social Media incitano reazioni di rabbia e odio * E allora? Meglio le tecnologie conviviali e i servizi offerti da server autogestiti o da associazioni che si prendono cura della privacy dei propri utenti. * Qualche ragionamento in più * Pedagogia Hacker * Alcuni riferimenti per approfondire 1. LE PIATTAFORME GAFAM PROFILANO E MANIPOLANO LE PERSONE le piattaforme delle GAFAM (Google, Apple, Facebook, Amazon, Microsoft) estraggono i dati degli utenti profilando le persone per manipolarne i comportamenti e le scelte: pubblicità personalizzata, esclusiva visualizzazione di contenuti delle propria bolla, visualizzazione di contenuti prodotti appositamente per condizionare scelte politiche (si veda il caso di Cambridge Analityca). Sono progettate e realizzate per fare in modo che le persone rimangano più tempo possibile connesse. 2. LE PIATTAFORME GAFAM SCELGONO AL NOSTRO POSTO Le megamacchine inducono degli automatismi nel nostro modo di utilizzarle dei quali non ci rendiamo più conto. Così finisce che non cercherò i post che mi interessano, perché mi verranno proposti dagli algoritmi di Instagram. Non sceglierò la prossima serie che vedrò su Netflix, semplicemente rimarrò nel flusso video in cui mi trovo e vedrò la serie che mi viene proposta in base al mio profilo. Scoprire quali sono gli automatismi e tornare a fare un percorso di scelte è fondamentale per avere un approccio alla tecnologia che deleghi il meno possibile, che consenta di prendere consapevolezza e inventare soluzioni per una relazione ecologica con le macchine. 3. NEI SOCIAL NETWORK COMMERCIALI OGNUNO VEDE SOLO CIÒ CHE È COERENTE CON IL PROPRIO PROFILO La filter bubble ("bolla di filtraggio") deriva dalla personalizzazione dei risultati di ricerca in base al comportamento dell'utente quando è connesso. Ogni utente immerso nella propria filter bubble troverà solo informazioni coerenti con la propria esperienza di navigazione precedente. Lo stesso meccanismo funziona anche per i post che ciascuno vede nel flusso dei social network commerciali (Facebook, Instagram, Twitter, Tik Tok, etc.). Tradotto: ogni persona vede solo i post che sono in linea con il proprio punto di vista. Alcuni esperimenti hanno dimostrato che il "pubblico" che si raggiunge con un post su Facebook non è maggiore di quello che si raggiungerebbe con mezzi diversi dai Social Network commerciali. 4. LE PIATTAFORME GAFAM SONO UN ATTENTATO ALLA PROPRIA PRIVACY E ALLA PROPRIA SICUREZZA Tutte le piattaforme che hanno la sede principale in USA devono sottostare al Cloud Act, una legge che prevede che qualsiasi corpo di polizia o di intelligence possa chiedere ad una società (es.: Google o Meta) di consegnare tutti i dati in loro possesso relativi ad una o più persone, tanto che l'Unione Europea, con una sentenza della Corte di Giustizia Europea ha considerato le norme USA non confermi rispetto alle leggi europee in materia di protezione dei dati personali (GDPR). Sostanzialmente utilizzando uno o più servizi delle GAFAM si stanno consegnando i propri dati ai servizi di intelligence USA. Ciò non significa che non si stiano consegnando anche alle Forze dell'Ordine Italiane nel caso queste ne facessero richiesta. 5. I SOCIAL MEDIA INCITANO REAZIONI DI RABBIA E ODIO Abbiamo visto che i Social media, e in generale le grandi piattaforme commerciali, sono progettate per cercare di trattenere gli utenti più tempo possibile: perché memorizzano i nostri dati che poi rivendono o usano per profilarci e condizionare comportamenti e scelte degli utenti. Il rage-baiting è la tattica manipolativa di suscitare indignazione con l'obiettivo di aumentare il traffico internet, il coinvolgimento online. Infatti, un recente studio, apparso sul numero di novembre 2025 delal rivista Science, dal titolo Misinformation exploits outrage to spread online dimostra che gli algoritmi premiano il coinvolgimento emotivo emotivo sulla qualità dei contenuti. La ricerca, di cui scrive anche Agenda Digitale documenta come l’indignazione sia il principale motore della disinformazione online. Non è cioè importante che una notizia, un post, una foto siano veri, o verosimili, perché la reazione emotiva, in particolare quando suscita rabbia prevale sulla reazione razionale che porterebbe la persona che vede il post, la foto, la notizia a verificare se è vera e solo dopo a ri-postare, condividere, reagire con like e simili. E ALLORA? MEGLIO LE TECNOLOGIE CONVIVIALI E I SERVIZI OFFERTI DA SERVER AUTOGESTITI O DA ASSOCIAZIONI CHE SI PRENDONO CURA DELLA PRIVACY DEI PROPRI UTENTI. Esistono alcuni server gestiti da associazioni esplicitamente di movimento, come autistici.org o riseup.net che offrono molti servizi con un livello di sicurezza e di rispetto della privacy molto alto. Per esempio autistici.org non mantiene il log (il registro di tutto ciò che avviene sul server). Ne consegue che se le Forze dell'Ordine o qualche potente di turno chiede informazioni su chi ha scritto il tale post nel tale giorno, non c'è possibilità tecnica di saperlo. Tra i servizi offerti troviamo: e-mail, mailing-list, blog, instant messagging e chat, siti web, videoconferenze e streaming. Per repository di contenuti e strumenti di collaborazione (equivalenti a google drive e simili), si possono utilizzare i servizi di Framasoft o di Disroot, ma ce ne sono anche molti altri. Per quel che riguarda i social network, esistono ormai molte alternative a quelli commerciali e sono sempre più numerosi gli utenti che li usano. Hanno una differenza fondamentale che li rende migliori dei Social Network commerciali anche da un punto di vista concettuale: sono federati. Vuol dire che si basano su un protocollo di comunicazione che permette la comunicazione tra server diversi. Si può essere registrati su un server e "seguire" un utente registrato su un altro server federato. Questo sistema rende il "Fediverso" più sicuro e resiliente dei social network commerciali. Alcuni server: mastodon.bida.im, mastodon.social, mastodon.uno, Puntarella party, mastodon.cisti.org. Ci sono persone che tengono aggiornate le alternative ai servizi proprietari . Probabilmente c'è tutto quello di cui abbiamo bisogno. QUALCHE RAGIONAMENTO IN PIÙ Come fanno profitti le grandi piattaforme Le piattaforme delle GAFAM (Google, Apple, Facebook, Amazon, Microsoft) fanno profitti principalmente con la pubblicità che è tanto più efficace quanto più è personalizzata. Affinché la pubblicità sia personalizzata le piattaforme memorizzano i dati dell'attività degli utenti in Internet (i like, le visualizzazioni, le risposte, i siti navigati, i messaggi inviati, etc.) in modo da conoscere abitudini, gusti, inclinazioni sessuali, attitudine politiche, etc. Con i dati memorizzati i software delle megamacchine (i famigerati algoritmi) tracciano un profilo personale di ciascun utente. Per mezzo del profilo, il software della piattaforma mostrerà alcune cose ed altre no, così da indurre la persona ad acquistare un bene invece che un altro o a non andare a votare invece che andarci. Catturare più tempo possibile degli utenti Si capisce così il motivo per cui l'interesse dei GAFAM è quello di tenere le persone il più possibile connesse con le loro piattaforme. Infatti tutte le grandi piattaforme (google, facebook, tiktok, instagram, whatsapp, etc.) sono progettate e realizzate per catturare più tempo possibile degli umani (senza differenza tra adulti, adolescenti e bambini). In ultima analisi per dare dipendenza. Sono progettate in questo modo perché hanno bisogno dei nostri dati per il loro business. E più dati hanno a disposizione più possono guadagnare attraverso la manipolazione dei nostri gusti, comportamenti, orientamenti, vendendoci prodotti commerciali, culturali, politici. Come funzionano. Le grandi piattaforme digitali usano il meccanismo della ricompensa, facendo leva sulle nostre vulnerabilità. Tutti abbiamo bisogno di approvazione sociale (il numero di like, il numero di notifiche, il numero di condivisioni, il numero di commenti positivi, etc.) e di denaro. E così in cerca della nostra ricompensa (di qualsiasi tipo essa sia) controlliamo continuamente il nostro social o la nostra chat preferita. Se è così che funziona, e a quanto pare è proprio così, la conseguenza è che la comunicazione tra gli umani si perde dentro un'architettura che omologa e usa gli umani per manipolare (a prescindere dai contenuti). PEDAGOGIA HACKER L'adozione della pedagogia hacker è un utile approccio per intraprendere il percorso di liberazione dalle tecnologie del controllo verso l'informatica conviviale. La pedagogia Hacker nasce dall’esperienza maturata da C.I.R.C.E. nei laboratori e nelle formazioni condotte negli ultimi anni. Già nel 2017 se ne trova una descrizione nel libro Tecnologie del Dominio, un dizionario di termini realizzato collettivamente, e se ne parla anche in articoli pubblicati su diverse riviste, una raccolta dei quali si può trovare su circex.org. Richiede un approccio nuovo anche alle tecnologie stesse. Né tecnofobo, né tanto meno tecno-entusiasta, ma consapevole delle potenzialità e dei rischi delle connessioni interattive. La pedagogia hacker è un’attitudine attiva. Mira a modificare i comportamenti che promuovono automatismi e per questo riducono la libertà di scelta. E’ un approccio educativo che coniuga l’approccio dell’apprendimento esperienziale (Boud – Cohen – Walker, 1993 – Reggio, 2010), l’attitudine hacker, il gioco e un deciso orientamento libertario. Qui potete ascoltare una breve pillola audio che spiega cosa è la Pedagogia Hacker. A proposito della Pedagogia Hacker a scuola, durante l'edizione 2022 dell'hackmeeting si è tenuta una tavola rotonda sull'hacking a scuola. Due ore di chiacchiere tra insegnati, animatori digitali, genitori, curiose e curiosi. Ecco cosa ne è emerso. ALCUNI RIFERIMENTI PER APPROFONDIRE * Il caso Facebook e Cambridge Analytica in 7 domande e risposte * Dopamina, Quando un'app diventa droga. Una serie di video su ArtèTV * I rischi di affidarsi ai colossi della tecnologia per la didattica a distanza, articolo in Internazionale * Giocare o essere giocati? tratto da Internet Mon amour di Agnese Trocchi * Cos'è il Fediverso * Le alternative ai servizi di Google. Alternative etiche a tutti i prodotti di Google e di moltissime altre realtà mainstream (es.: Whatsapp) * Pedagogia hacker a cura di C.I.R.C.E. * Laboratori sulla gamificazione di C.I.R.C.E. * Le Dita Nella Presa, Trasmissione di approfondimento tecnologico a cura di AvANa. * "Educarsi hacker" dossier sul numero del maggio 22 della rivista "Gli Asini" * Pedagogia Hip-hop Riflessioni, materiali, cronache di sperimentazione educativa in un’epoca di futuro incerto. Il blog di Davide Fant. * Tecnologie conviviali, di Carlo Milani, edito da Eleutera.
Perché ho deciso di non accettare la nuova privacy policy di WhatsApp
Come ormai sappiamo, WhatsApp ha dato un ultimatum a tutti i suoi utenti: chi non ha accettato la nuova policy entro il 15 maggio non potrà più usare WhatsApp. L'azienda di proprietà di Facebook, con sede Europea in Irlanda, ci aveva già provato a febbraio 2021 sollevando feroci critiche che l'avevano indotta a rimandare la scadenza per avere il tempo di spiegare meglio agli utenti i cambiamenti introdotti nella policy. PRIVACY, RIASSUNTO DELLE PUNTATE PRECEDENTI. Perdonate il riassunto, ma altrimenti è impossibile capire la situazione già ingarbugliata di suo. Alla fine di aprile del 2016 l'Unione Europea ha adottato un regolamento per la protezione dei dati (GDPR - General Data Protection Regulation), il testo entra in vigore a partire dal maggio 2018. Da wikipedia: "Con questo regolamento, la Commissione europea si propone come obiettivo quello di rafforzare la protezione dei dati personali di cittadini dell'Unione europea (UE) e dei residenti nell'UE, sia all'interno che all'esterno dei confini dell'UE, restituendo ai cittadini il controllo dei propri dati personali, semplificando il contesto normativo che riguarda gli affari internazionali, unificando e rendendo omogenea la normativa privacy dentro l'UE." [1] Tra le altre figure il regolamento istituisce anche quella del "Titolare del trattamento dei dati", che incaricherà il responsabile della protezione dei dati di prendere tutti gli accorgimenti necessari. Ora attenzione, perché quanto scritto sotto, si rivelerà importante ai fini del mio ragionamento. Il titolare del trattamento dei dati deve prendere tutte le precauzioni possibili affinché sia impedita una violazione, perdita, furto di dati personali del cui trattamento è titolare. Per esempio: un incendio distrugge un data center; i dati personali memorizzati nel data center stesso non sono recuperabili; il responsabile del trattamento dei dati non ha predisposto un backup; il titolare del trattamento dei dati è responsabile legalmente del danno causato dalla perdita di dati. Ancora da Wikipedia: "Il testo affronta anche il tema dell'esportazione di dati personali al di fuori dell'UE e obbliga tutti i titolari del trattamento dei dati (anche con sede legale fuori dall'UE) che trattano dati di residenti nell'UE ad osservare e adempiere agli obblighi previsti." La questione del trasferimento dei dati all'estero è rilevante. Il garante della privacy in proposito afferma che "il trasferimento verso Paesi non appartenenti alle Spazio Economico Europeo sono consentiti a condizione che l’adeguatezza del Paese terzo o dell’organizzazione sia riconosciuta tramite decisione della Commissione europea".[2] In assenza di tale decisione possono costituire garanzie adeguate al trasferimento dei dati all'estero, previa autorizzazione del garante, le clausole contrattuali ad hoc (art. 46, par. 3, lett. a). [2] Sappiamo che la sentenza Schrems II della Corte di Giustiza Europea ha invalidato l'accordo tra UE e USA relativamente alla protezione dei dati personali detto "Privacy Shields", affermando che l'ordinamento giuridico sulla protezione dei dati degli USA non garantisce la stessa protezione dell'ordinamento UE. In sostanza per trasferire dati personali dall'Europa agli USA in maniera legale si deve fare leva su uno dei metodi menzionati dal garante della privacy [2]. TORNIAMO A WHATSAPP. Nella nuova privacy policy, quella che WhatsApp chiede di accettare pena la sospensione del servizio, nel paragrafo "Operazioni a livello globale", è scritto a chiare lettere che "Le informazioni controllate da WhatsApp potrebbero essere trasferite o trasmesse o archiviate e trattate negli Stati Uniti" [3] e che per farlo utilizza le clausole contrattuali standard approvate dalla Commissione Europea [4]. Inoltre è scritto anche: “WhatsApp condivide informazioni a livello globale, sia internamente con le aziende di Facebook, che esternamente con i nostri partner e con le persone con cui l'utente comunica in tutto il mondo, nel rispetto della presente Informativa sulla privacy e dei nostri Termini.“ Che vuol dire? Innanzi tutto vuol dire che l'accettazione delle nuove clausole da parte dell'utente aggira il divieto di trasferimento dei dati negli USA. Oltre a ciò, l’accettazione di questo paragrafo da parte dell’utente consente a Facebook, proprietaria di WhatsApp, di acquisire i dati degli utenti dell’App di messaggistica e incrociarli (quando non unificarli) con quelli degli utenti di Facebook per rendere i profili degli utenti sempre più precisi e sempre più remunerativi. In ogni caso, WhatsApp dovrebbe attivamente garantire, secondo il GDPR, tutte le protezioni dei dati personali dei propri utenti adeguandosi alla giurisdizione UE. A prescindere dalla possibilità e volontà di farlo, tutto ciò funziona fintantoché il titolare del trattamento dei dati personali è WhatsApp. Ma può capitare che il titolare non sia Facebook. Non sono un legale, ma leggendo vari articoli ho capito che per esempio il titolare del trattamento dei dati di un gruppo WhatsApp è l'amministratore del gruppo e/o l'amministratore del condominio. [5] La stessa cosa si può dire per il medico di base che invia una ricetta tramite WhatsApp al suo paziente. In sostanza va tutto bene, a norma di legge, finché il titolare del trattamento dei dati è WhatsApp ltd. In caso sia un soggetto diverso la responsabilità legale di una eventuale violazione, furto, distruzione, etc., dei dati personali sarebbe del soggetto in questione: il medico di base e l'amministratore del gruppo di condominio, come negli esempi descritti sopra. Il Titolare (es.: il medico) avrebbe dovuto far accettare ai partecipanti alla comunicazione tramite WhatsApp (es.: il paziente) una privacy policy che preveda l'esportazione dei dati verso gli USA. Una circostanza che nella vita reale non accade praticamente mai. IN CONCLUSIONE E quindi? In definitiva si tratta di disquisizioni di lana caprina. Il nocciolo della questione sta tutto nella sostanza del problema, che, al di la degli aspetti giuridici, è nella adeguatezza o meno di chiunque nel proteggere i dati personali degli utenti. E sulla sostanza la Corte di Giustiza Europea si è espressa con la sentenza Schrems II che invalida il precedente accordo con gli USA (il Privacy Shield). La giurisdizione degli USA non garantisce un livello di protezione dei dati personali conforme alla giurisdizione Europea. Praticamente non c'è da fidarsi di come gli americani proteggono i nostri dati. E se non c'è da fidarsi... Ci sarebbe da domandarsi anche se i nostri dati sono realmente al sicuro nei data center Europei o Italiani. Soprattutto ci sarebbe da domandarsi, più in generale, cosa vuol dire oggi, al tempo del "cloud", fidarsi di come i nostri fornitori di App proteggono i nostri dati che raccolgono mediante le medesime App. Ma questo è un altro discorso. Sempre seguendo il filo del ragionamento, andando oltre il tema WhatsApp e messaggistica digitale, c'è da chiedersi se davvero abbiamo bisogno di raccogliere tutti questi dati. Alcune domande le ho poste in questo articolo Note: [1] https://it.wikipedia.org/wiki/Regolamento_generale_sulla_protezione_dei_dati [2] https://www.garanteprivacy.it/temi/trasferimento-dati-estero [3] https://www.whatsapp.com/legal/updates/privacy-policy-eea [4] https://ec.europa.eu/info/law/law-topic/data-protection/international-dimension-data-protection/standard-contractual-clauses-scc_en [5] https://www.altalex.com/documents/news/2021/04/12/condominio-e-gruppi-whatsapp-quali-implicazioni-per-privacy#p2
Didattica a Distanza, seconda ondata
A quanto pare, come nella prima ondata della pandemia di Covid-19, il MIUR e, quindi la scuola, si è fatto trovare impreparato da diversi punti di vista. Da quello della progettazione didattica: il blended learning ha la stessa necessità di progettare le attività didattiche della DaD o della didattica in presenza, anzi forse di più; dal punto di vista dell’utilizzo dei dati: per la verità la questione si è aggravata, perché nel frattempo la Corte di Giustizia Europea ha invalidato l’accordo, detto “Privacy Shield”, tra l’Unione Europea e gli Usa; infine anche dal punto di vista del software libero. > questo articolo è pubblicato in "Formare... a distanza?", II edizione, > C.I.R.C.E. novembre 2020 Progettazione didattica Il blended learning in una situazione “normale” prevede una buona dose di didattica in presenza e una dose di e-learning durante la quale gli studenti possono approfondire i contenuti che sono stati trattati durante le lezioni in presenza, opportunamente caricati e categorizzati nella piattaforma, oppure possono utilizzare gli strumenti di collaborazione per produrre in maniera condivisa nuovi contenuti, o ancora: potrebbero utilizzare gli strumenti di comunicazioni dedicati alle chat, videochat, forum (per quanto il termine sia un po’ fuori moda, lo strumento forum non è stato sostituito da altre novità tecnologiche per poter discutere su argomenti strutturati) per momenti di confronto con gli altri studenti e/o con i docenti. Nella situazione attuale la didattica mista è intesa principalmente in due modi: metà studenti sono in classe con il professore e metà a casa ad assistere alla lezione tenuta dal docente; oppure tutti a casa (studenti e docenti) e il docente fa lezione attraverso una piattaforma di video conferenza. Quest’ultima situazione è nella sostanza ciò che è accaduto durante il lockdown di marzo e aprile del 2020. In entrambi i casi la progettazione didattica dovrebbe tener conto della situazione in cui avviene il processo di apprendimento. Nel primo caso, metà a casa e metà in classe, l’indicazione del Ministero sembra essere di inviare il video della lezione dell’insegnante, ripreso da una webcam posizionata in classe, dove sono anche una parte di studenti, in una videoconferenza alla quale si collegano coloro che si trovano a casa. Le limitazioni per tutti sono molto chiare: in classe non ci si può muovere molto, pena uscire dall’inquadratura o dal cono del microfono; da casa bisogna stare concentrati e in silenzio cercando di seguire ciò che avviene in classe. Non si tratta di una situazione adeguata a mantenere la concentrazione, né a costruire le condizioni per una didattica non dico collaborativa, ma almeno che non crei problemi di comprensione quando il docente parla. Sarebbe interessante rovesciare la prospettiva: da casa gli studenti potrebbero tenere la lezione alternandosi negli interventi, ovviamente coadiuvati dall’insegnante, mentre in classe potrebbero attivare una regia audio-video e produrre in questo modo contenuti che andrebbero ad arricchire l’impianto didattico della classe. Naturalmente è solo un’idea che va progettata per bene, ma l’ambiente tecnologico, allo stesso modo di quello fisico, è qualcosa che condiziona fortemente la didattica. Non tenerne conto significa non sfruttare le opportunità e soprattutto accettare i limiti del caso. Del secondo caso (quello del tutti a casa), abbiamo lungamente scritto negli articoli raccolti nella prima edizione di “Formare a Distanza?”. Purtroppo non sembra essere cambiato molto: nella videochat viene riproposta la lezione frontale, probabilmente peggiorata dall’assenza dei corpi, invece che progettare attività che cambino l’assetto didattico: far preparare le lezioni ai ragazzi, che a turno da casa potrebbero presentare la lezione ai propri pari, chiedere di collaborare a distanza agli studenti, organizzare il lavoro in gruppi, costruire una casa digitale comune che sia gradevole, inclusiva, accogliente (vedi: "II. Per un setting nel digitale inclusivo e accogliente" Da: “Formare a Distanza?”, Davide Fant ~ Inventare formazione con adolescenti distanti ~ CC 4.0 (BY-NC-SA)), comprendere i problemi e le possibili opportunità del digitale. In entrambi i casi, la progettazione didattica non si dovrebbe avvalere esclusivamente della videochat, che spesso è considerata essa stessa la piattaforma per la didattica a distanza. In realtà non è così: la videochat è una parte dei tools tecnologici necessari all’e-learning. Non è un caso che persino nel sito del Ministero dell’Istruzione le tre piattaforme consigliate siano delle suite. Lo è la suite di Google, quella di Microsoft (Office 365) e lo è Weschool. Evidentemente scambiare la videochat/videoconferenza per piattaforma di Didattica a Distanza è il sintomo chiaro della malattia: non c’è progettazione didattica che tenga conto delle potenzialità e dei limiti delle tecnologie per la didattica a distanza (vedi: “Piattaforme queste sconosciute” di Stefano Penge). L’esperienza ci insegna che per un percorso di apprendimento proficuo, pur se a distanza, oltre allo strumento della videochat, saranno necessari gli strumenti per la collaborazione, per la comunicazione asincrona (la posta, la bacheca condivisa, il forum), per l’archiviazione condivisa di documenti. Dal punto di vista dei contenuti didattici, inoltre, abbiamo assistito alla caccia a contenuti utilizzabili per la Didattica a Distanza. Non tutti i docenti hanno la possibilità/capacità di realizzare dei contenuti ad hoc per le proprie lezioni a distanza, ed ecco in soccorso il learning object. L’oggetto di apprendimento (Learning Object), considerato come un piccolo frammento di contenuto didattico autoconsistente e utilizzabile in più contesti, da una parte aiuta gli insegnanti nella progettazione di interventi didattici che non siano la riproduzione della lezione frontale attraverso le videochat, ma dall’altra rappresenta un ulteriore mattoncino verso la valutazione dell’apprendimento misurabile numericamente in funzione dell’analisi dei dati sulla fruizione dei contenuti degli studenti. Un Learning Object è concepito come una unità informativa che può essere comunicata allo studente più e più volte, al di fuori del contesto di apprendimento e spesso anche di dominio. L’utilizzo di LO identifica il processo di apprendimento come somministrazione di porzioni di informazione decontestualizzati, somministrati agli studenti che metteranno insieme le informazioni fornite loro per formare le loro competenze. E’ una concezione dell’apprendimento molto vicina all’addestramento. Certamente i LO sono utili quando si deve addestrare un gruppo di persone ad utilizzare una macchina industriale o un software per produrre siti. Sono molto meno utili se si intende l’apprendimento come processo che forma l’interezza della persona umana attraverso l’interazione con l’ambiente, attraverso la relazione con altre presone, attraverso la creazione condivisa di nuove conoscenze. Infine sgancia il percorso di apprendimento di un o una discente da quel complesso processo che è molto di più che il calcolo algoritmico dei contenuti fruiti. USO DEI DATI: PRIVACY, CONTROLLO E VALUTAZIONE Dal punto di vista dell’uso dei dati, e della relativa utilità, prodotti da studenti e docenti, va tenuto conto che, rispetto alla fase del lockdown, c’è stato un pronunciamento delle Corte di Giustizia Europea che dovrebbe cambiare totalmente il modo in cui le nostre istituzioni affrontano la questione delle piattaforme e del cloud. La Corte di Giustizia Europea ha invalidato l’accordo, detto “Privacy Shield”, tra l’Unione Europea e gli Usa (Sentenza del 16 luglio 2020 nella causa C-311/18 promossa dall'attivista Maximiliam Schrems). Che vuol dire? Significa che secondo l'Unione Europea le norme per tutelare la protezione dei dati personali in vigore negli USA e applicate dalle imprese statunitensi non sono adeguate a quelle che la UE garantisce ai propri cittadini. In pratica, con questo pronunciamento i dati dei cittadini italiani non possono essere inviati e archiviati negli USA. Ovvero tutte le aziende che utilizzano servizi cloud basati perlopiù in territorio statunitense (Amazon, Microsoft Azure) dovrebbero spostarli in Europa. Inoltre Facebook, Google, Tik Tok e via dicendo non possono più usare i dati degli utenti elaborandoli e archiviandoli negli USA, il che significherebbe che quei servizi non potrebbero più funzionare. Lo testimoniano le dichiarazioni di Yvonne Cunnane, responsabile protezione dati di Facebook Irlanda, che dichiara: ‘Con lo stop al trasferimento dati degli utenti europei negli Usa non è chiaro come Facebook ed Instagram potrebbero ancora funzionare nella UE’. Il pronunciamento impatta anche le piattaforme di Didattica a Distanza e le videochat che memorizzano i dati degli utenti fuori dall’Europa: Google, Office 365, Zoom, etc. In teoria non essendoci più un accordo con gli USA che tuteli la privacy degli utenti europei, queste piattaforme non dovrebbe più essere accessibili dall’Europa. Al momento non è così, ma ci si domanda se il Ministero dell’Istruzione sia a conoscenza del pronunciamento della Corte Europea. Probabilmente no, non si spiega altrimenti l’indicazione di utilizzare piattaforme proprietarie che, da quello che è dato saperne, inviano i dati di studenti e insegnanti negli USA. Peraltro la questione dell’utilizzo dei dati ha a che fare con due altre importanti questioni. La prima è relativa al controllo del lavoro dei docenti. Siamo certi che la presenza di una webcam in classe che riprende tutte le attività dei docenti non leda i diritti degli insegnanti in quanto lavoratori? Siamo certi che non si caratterizzi come un elemento di controllo del lavoro dei docenti e quindi possa essere considerata una pratica anti-sindacale? Qualche dubbio se lo pone anche Francesco Sinopoli, segretario generale della Federazione dei Lavoratori della Conoscenza – CGIL, in una lettera ai rettori universitari. La seconda è altrettanto importante ed è relativa alla valutazione degli studenti. Gli studenti della DaD possono essere oggetto di forte controllo ed analisi dei dati prodotti attraverso le tecniche definite di “learning analytics”. Si tratta di tecnologie che, analogamente con quanto avviene nelle grandi piattaforme dei Big Tech che attraverso l’analisi dei dati profilano le persone, hanno lo scopo di profilare gli studenti, valutarne lo stile e il grado di apprendimento e addirittura in alcuni casi hanno anche la pretesa di predire le possibilità di successo del percorso di apprendimento del singolo studente. Sono pratiche diffuse soprattutto in ambito universitario, e in particolare nelle piattaforme MOOC (Massive Open Online Courses) in cui l’attributo Open non è tanto inteso come aperto alla possibilità di apprendimento per chiunque, quanto come aperto alla misurazione, al confrontabile, all’analizzabile. D’altra parte, da organizzazioni che danno sempre meno peso alla relazione umana nel processo di insegnamento/apprendimento, queste tecniche sono manna dal cielo. Se poi ai learning analytics si aggiunge la didattica gamificata, che prevede premi al completamento della lettura o visione di contenuti, o alla corretta soluzione di esercizi, i dati numerici di ogni studente diventano sempre di più. La valutazione dello studente attraverso i dati numerici memorizzati dalle piattaforme diventa sempre maggiore a discapito della “gioia” di apprendere. Sappiamo che i processi di apprendimento sono processi che hanno bisogno di tempo, di relazioni umane, di pazienza, di condivisione, di tempo per poter sbagliare. Se è fatta a distanza poi ha bisogno di accortezze e disponibilità alla sperimentazione. Piattaforme e software libero In Italia esiste una legge (legge 7 agosto 2012, n. 134) e due articoli (il 69 e il 69) del Codice dell’Amministrazione Digitale (CAD) che a vario titolo invitano le Pubbliche Amministrazioni ad utilizzare software Libero o Open Source (F/LOSS: Free/Libre Oper Source Software) a parità di funzionalità. Purtroppo la legge è largamente disattesa. Molto raramente gli acquisti di software da parte delle PA privilegiano il software libero o Open Source. Nessuna sorpresa quindi se il Ministero dell’Istruzione consigli delle suite per la didattica a distanza proprietarie: lo sono tutte e tre quelle consigliate nel sito del Ministero. Lo stupore però arriva quando il fondo per l’innovazione di Cassa Depositi e Prestiti finanzia parte di un aumento di capitale di 6,4 milioni di euro di WeSchool, la piattaforma per la Formazione a Distanza di TIM il cui codice sorgente non è aperto. Cassa Depositi e Prestiti è una società per azioni controllata dal Ministero dell’Economia e delle Finanze, in ultima analisi utilizza e investe denaro pubblico. Certo la piattaforma è italiana, non ha quindi, almeno formalmente, i problemi legati alla difesa della privacy che hanno le azienda USA e farà contenti i sovranisti digitali italiani, ma è un software proprietario. Non sarà possibile per nessuno utilizzarlo (a meno che sia concesso in licenza dal proprietario), studiarlo, ridistribuirlo, migliorarlo. Sono le 4 libertà fondamentali del Software Libero e Open Source che, pur tra molte ipocrisie economiche e cavilli legali, sono le uniche garanzie che un investimento pubblico non venga privatizzato da un’azienda che farà profitti vendendo qualcosa che ha costruito con il contributo di tutti coloro che pagano le tasse al governo italiano. Sin qui si potrebbe intendere che si tratti di una mera questione di principio. Non è così, o per lo meno non è solo questo il punto. Come ho già scritto nell’articolo presente in “Formare a distanza?”, l’adozione del software libero in ambito didattico costituisce la condizione per la libertà di insegnamento perché se “una piattaforma” proprietaria “è disegnata per un certo tipo di interazione e relazione tra gli umani invece che per un altro (collaborativa/gerarchica), sarà molto difficile «forzarla» in modo da usarla diversamente da come è stata progettata”. Viceversa se è una piattaforma F/LOSS è possibile modificarla secondo le proprie esigenze didattiche. Ancora più importante del finanziamento di Wescool è stato un’altra caso che mi ha lasciato stupefatto. Il consorzio GARR è la rete nazionale a banda ultralarga dedicata alla comunità dell’istruzione e della ricerca. Si tratta di un’associazione senza fini di lucro fondata sotto l’egida del Ministero dell’Istruzione, dell’Università e della Ricerca. Gli enti soci sono CNR, ENEA, INAF, INFN e tutte le università italiane rappresentate dalla Fondazione CRUI. Durante il lockdown GARR ha messo a disposizione gratuitamente alcuni strumenti per la DaD basati su software F/LOSS ma non è mai stato menzionato, né consigliato dal Ministero dell’Istruzione che pure è tra coloro che hanno contribuito a dar vita al consorzio. Eppure ha una policy per la protezione della privacy in cui dichiara che non usa i dati degli utenti per scopi di profilazione. Eppure GARR mette a disposizione un servizio di cloud computing dedicato a scuole, università e centri di ricerche, che consente di installare in maniera molto semplice, nei server messi a disposizione, piattaforme e strumenti F/LOSS per la didattica. Anche in questo caso però l’indicazione alle scuole e università da parte del Ministero è stato ed è tutt’ora quello di servirsi dei cloud e delle piattaforme proprietarie delle grandi multinazionali della tecnologia (Google, e Microsoft in primis). Il cloud offerto dal GARR insieme alla scelta di utilizzare software libero per la didattica potrebbe essere la base che consentirebbe alle scuole e alle università di organizzarsi secondo le proprie esigenze, invece che secondo le esigenze delle grandi multinazionali, e valorizzare le competenze territoriali affidandosi a entità sociali ed economiche locali. Ne ho parlato in "La libertà di insegnamento. Sottotitolo: il software deve essere libero" Da: Formare… a distanza? ~ Didattica fuori dall'emergenza! ~ CC 4.0 (BY-NC-SA) Il motivo per cui il MIUR non abbia segnalato e invitato le scuole e le università ad utilizzare i servizi del GARR resta un Ministero tutt’ora irrisolto.
Abbiamo bisogno di tutti questi dati?
I sovranisti digitali dicono che l'Italia (e l'Europa) deve gestire i dati dei propri cittadini, che i dati sono il nuovo petrolio senza i quali non ci sarà ripresa economica. Intanto nasce l'infrastruttura cloud Europea "Gaia-X" e la Corte di Giustizia Europea invalida l'accordo "Privacy Shield" con gli USA, ma siamo sicuri che abbiamo davvero bisogno di memorizzare tutti questi dati? In questo periodo di accelerazione dell'uso del digitale generato dalla pandemia si sente molto parlare, almeno fra gli addetti ai lavori, di battaglia sul cloud, di dati come nuovo petrolio e di sovranità digitale. Molti osservatori sostengono anche che dal risultato di questa battaglia dipenderà la sopravvivenza dell’Europa come potenza economica. Sintetizziamo il ragionamento per sommi capi: i dati sono la materia prima fondamentale per l’economia e le società contemporanee. Bisogna quindi controllarli, proteggendo i cittadini e le imprese europee che li utilizzano economicamente per trarne profitto. Bisogna inoltre contrastare lo strapotere tecno-economico di Stati Uniti e Cina. A tal fine è necessario che i cittadini e le imprese siano garantiti contro l'utilizzo "malvagio" dei dati. Ovvero bisogna impedire che potenze straniere e conglomerate Big Tech extra europee li utilizzino per attuare forme di controllo o di manipolazione dei comportamenti attraverso la pubblicità commerciale e politica “targettizzata” (Shoshana Zuboff , Il capitalismo della sorveglianza). All’interno di questo schema generale, vediamo cosa è successo in questo periodo. La Corte di Giustizia Europea ha invalidato l’accordo, detto “Privacy Shield”, tra l’Unione Europea e gli Usa (https://www.valigiablu.it/corte-giustizia-europa-privacy-shield/) (Sentenza del 16 luglio 2020 nella causa C-311/18 promossa dall'attivista Maximiliam Schrems). Che vuol dire? Significa che secondo l'Unione Europea le norme per tutelare la protezione dei dati personali in vigore negli USA e applicate dalle imprese statunitensi non sono adeguate a quelle che la UE garantisce ai propri cittadini. In pratica, con questo pronunciamento i dati dei cittadini Italiani non possono essere inviati e archiviati negli USA. Ovvero tutte le aziende che utilizzano servizi cloud basati perlopiù in territorio statunitense (Amazon, Microsoft Azure) dovrebbero spostarli in Europa. Inoltre Facebook, Google, Tik Tok e via dicendo non possono più usare i dati degli utenti elaborandoli e archiviandoli negli USA, il che significherebbe che quei servizi non potrebbero più funzionare. Lo testimoniano le dichiarazioni di Yvonne Cunnane, responsabile protezione dati di Facebook Irlanda, che dichiara: ‘Con lo stop al trasferimento dati degli utenti europei negli Usa non è chiaro come Facebook ed Instagram potrebbero ancora funzionare nella UE’. https://www.privacyitalia.eu/stop-al-trasferimento-dati-negli-usa-facebook-e-instagram-a-rischio-chiusura-nellue/13751/ Ma al momento sembra tutto funzionare come prima, come se nulla fosse accaduto. Il consorzio Gaia-X (https://www.data-infrastructure.eu/GAIAX/Navigation/EN/Home/home.html), presentato dal governo tedesco a fine 2019, è stato rilanciato alla fine della primavera del 2020, con la partecipazione della Francia, per includere le aziende europee che si occupano di fornire servizi in Cloud. Lo scopo è quello di creare un consorzio di aziende europee che possano sostituire le Big Tech americane e cinesi nell’offerta di Cloud. I primi servizi che dovrebbero migrare dai Cloud americani a quelli europei dovrebbero essere le Pubbliche Amministrazioni, a seguire le aziende private. Al momento non è chiaro che tipo di infrastruttura verrà costruita da Gaia-X, tanto che sembra che a certe condizioni potranno avere il bollino del consorzio Gaia-X anche Google, Amazon, Microsoft e Alibaba, cioè aziende americane e cinesi. (https://www.key4biz.it/gaia-x-cose-veramente-anche-google-amazonco-possono-ricevere-il-bollino-del-progetto/320135/). La terza novità riguarda specificamente l’Italia. Il governo sta spingendo per la creazione di una società unica per gestire le infrastrutture italiane della rete a banda larga che consenta all'Italia di colmare il ritardo rispetto ai principali paesi europei in modo da dare una copertura adeguata anche alle molte zone non ancora raggiunte da una connessione sufficiente alle accresciute necessità di utilizzo di rete ad alta velocità (da “Il Post”, Perché si riparla di “rete unica”: https://www.ilpost.it/2020/09/01/rete-unica-tim-cassa-depositi-e-prestiti-accessco-fibercop/). Durante il lockdown è stato evidente quanto ancora fosse ampio il divario digitale esistente in Italia. La didattica a distanza così come il telelavoro hanno fortemente risentito del digital divide. Per questo il Governo Italiano ha deciso di creare un unico attore che metterà insieme la rete fissa di Tim con quella di Open Fiber, azienda controllata da Cassa Depositi e Prestiti e da Enel. Infine, dobbiamo riportare l’attenzione sul 5G. Al di là dei dubbi sui danni che le emissioni elettromagnetiche potrebbero provocare alla salute degli umani, di cui non mi occuperò in questo scritto, la connettività mobile di quinta generazione ha la caratteristica tecnica di abbassare la latenza, cioè il tempo che intercorre tra quando un dato è inviato e quando arriva a destinazione, e di aumentare l’ampiezza di banda. Traduzione: rende disponibile una maggiore velocità nella trasmissione di dati. A beneficiare del 5G saranno principalmente le applicazioni nel campo della telemedicina, dell’IoT (Internet of Things, Internet delle Cose), delle automobili a guida autonoma, della videosorveglianza. Ma, viste le premesse, sembra chiaro che l’aumento della qualità e della disponibilità della connettività serve a fare in modo che gli utenti siano perennemente connessi e producano quindi il cosiddetto nuovo petrolio: i dati! Questo per quanto riguarda la cornice complessiva. Passiamo al contenuto del quadro: i dati. Se da un lato sembra che la UE stia facendo una battaglia per difendere i dati dei cittadini europei, dall’altro bisogna prestare attenzione alla natura dei dati e al valore che hanno per le grandi imprese della tecnologia. La domanda che nessuno fa è la seguente: davvero abbiamo bisogno di memorizzare tutti questi dati? Quali sono i dati che servono veramente agli utenti/cittadini/consumatori? Quali sono invece quelli che servono solo alle Big Tech? Non mi riferisco ai dati inviati più o meno consapevolmente utilizzando le varie app dei nostri cellulari: da Facebook, a Twitter, a Google maps, etc.. Anche su questi bisognerebbe riflettere: a chi sono veramente utili? Ma voglio attirare l’attenzione sui dati che inviamo, e che invieremo nel prossimo futuro, semplicemente camminando o guardando una vetrina, molto spesso senza che ce ne rendiamo conto. Facciamo qualche esempio. Google maps memorizza tutti i nostri spostamenti. Se il mio smartphone ha il GPS acceso e non ho esplicitamente disattivato la cronologia delle posizioni (ma quante persone sanno che esiste questa possibilità?) Google registrerà tutti i miei spostamenti (provate: https://www.google.com/maps/timeline). Ammesso che Google non li memorizzi comunque, a prescindere che io abbia disabilitato o meno l’impostazione di cronologia delle posizioni (cosa plauisibile perché la localizzazione è una delle variabili usate dagli algoritmi per offrirci servizi più aderenti alle nostre esigenze). La registrazione delle posizioni degli utenti consente di profilare e targhettizzare le persone in maniera molto precisa. Per farsi l’idea di come funziona,supponiamo che nell’ultima settimana io vada tutti i giorni in una clinica ostetrica, che negli scorsi mesi abbia prenotato alcune visite ginecologiche, che abbia fatto degli acquisti di oggetti per neonati e che abbia fatto delle ricerche sul comportamento da tenere da parte di neo-genitori. La memorizzazione della mia posizione, delle mie prenotazioni, dei miei acquisti, delle mie ricerche consente all’algoritmo che deve profilarmi, targhettizzarmi e inviarmi della pubblicità, di ipotizzare con una cerca precisione che sia nata mia figlia e che io devo acquistare dei pannolini. A questo punto sarò inondato di pubblicità di pannolini acquistabili probabilmente vicino alla clinica o online. Ma io non ho bisogno che mi venga indicato quale marca di pannolini comprare e dove comprarli, ne troverò di adatti a mia figlia e alle mie tasche facilmente senza bisogno della pubblicità che mi viene inviata in maniera così precisa. Dunque la memorizzazione e conservazione dei miei spostamenti è utile esclusivamente a Google e agli inserzionisti pubblicitari. Le Smart City sono uno di quei concetti tuttofare a cui si attribuisce il potere di risolvere i problemi che affliggono le nostre metropoli. Con Smart City si intendono le “strategie di pianificazione urbanistica correlate all’innovazione” (https://www.treccani.it/enciclopedia/smart-city_(Lessico-del-XXI-Secolo)/) tecnologica. In pratica: collocare nelle città molti sensori e telecamere collegate a grandi server che immagazzinano i dati, li elaborano e automatizzano una serie di comportamenti delle infrastrutture della città. Si va dalla raccolta dei rifiuti “smart” applicando ai contenitori dei sensori di riempimento, ai semafori intelligenti che attraverso la raccolta dei dati della zona in cui sono attivi e la connessione alla rete dovrebbero armonizzare il relativo funzionamento in modo da regolare meglio il traffico. Si prosegue con “Smart parking”, “Smart car” e via dicendo. Le tecnologie abilitanti per le città intelligenti sono considerate parte dell’Internet delle cose (Internet of Things, abbreviato in IoT) che si regge sui Big Data. Il problema è che questa visione di città mette al centro la tecnologia e non i cittadini. Il controllo del territorio e il funzionamento delle infrastrutture delle città sono regolate dagli algoritmi che usano la grande quantità di dati prodotti da sensori e telecamere, invece che da cittadini ed amministratori della cosa pubblica. (a questo proposito c'è un mio articolo che pur essendo del 2013 spiega in maniera chiara la differenza tra le due visioni: https://graffio.noblogs.org/post/2013/11/15/smart-city-si-ma-dal-basso-ed-ecosostenibili/) In tema di “Smart Car “e “Smart Mobility”, le automobili a guida autonoma, in un futuro probabilmente non molto lontano sbarcheranno anche in Italia. Per come sono state progettate hanno bisogno di inviare costantemente ai server i dati rilevati dai sensori e dalle telecamere con cui sono equipaggiate. I server elaborano i dati e rispondono come devono comportarsi le auto (chissà perché non possono avere il software installato in locale?). Per far funzionare un sistema simile sarà necessaria una copertura della rete mobile affidabile, a banda larga e pressoché totale. Per questo la connessione di quinta generazione è fondamentale. Ma anche in questo caso non ho sentito né letto la domanda di cui sopra: per migliorare la vita delle persone che vivono nei grandi agglomerati urbani, abbiamo veramente bisogno delle auto a guida autonoma (che rimarrebbero in ogni caso imbottigliate nel traffico cittadino), delle IoT, dei semafori intelligenti, e di memorizzare le migliaia di dati prodotti da queste tecnologie? Il miglioramento e il potenziamento dei trasporti pubblici urbani ed extraurbani sarebbe molto più utile alla vivibilità delle nostre città come anche una maggiore flessibilità negli orari di lavoro e una buona dose di smart working aiuterebbe certamente la decongestione del traffico delle città. Altro settore in continua espansione nella raccolta dati è quello delle case intelligenti, o della domotica. I vari assistenti personali offerti da Google, da Amazon, da Apple consentono di comandare con la voce i nostri elettrodomestici collegati in rete: “Alexa accendi il televisore”, “Ehi Google regola l’acqua calda” e così via. Le richieste vocali però non vengono elaborate dai dispositivi locali, che avrebbero tutte le risorse software e hardware per farlo; anche in questo caso vengono invece inviate via rete a dei server che, oltre ad elaborare le richieste, memorizzano i comandi vocali con il duplice scopo di addestrare i sistemi alle diverse voci degli utenti e di profilarne i comportamenti. Anche partendo dall’assunto (che chi scrive non condivide) che gli assistenti siano degli strumenti effettivamente utili, non c’è alcun motivo per cui i miei “dialoghi” con il mio o la mia assistente debbano essere memorizzati, ovviamente non in un dispositivo locale, ma in cloud, che, ricordiamolo, non è altro che un sistema di datacenter di proprietà dei costruttori degli assistenti personali. Se questo avviene è solo perché la mia voce e i miei comandi agli assistenti servono per meglio determinare le mie abitudini, attitudini, gusti, etc.. In ultima analisi lo scopo è anche in questo caso migliorare la mia profilazione. Gli elettrodomestici connessi in rete stanno aumentando continuamente (caldaie, televisori, lavatrici, frigoriferi, etc.). Nel caso del frigorifero lo scenario è paradigmatico. Attraverso dei sensori e lettori di codici a barre con sui saranno equipaggiati, i frigoriferi saranno in grado di conoscere pressoché tutto dei miei gusti e delle mie abitudini alimentari. Lo scopo dichiarato dell’applicazione dell’IoT è quello di aiutarmi nella spesa: il frigorifero connesso ad internet si accorgerà che ho finito la birra e mi ordinerà automaticamente la mia marca preferita (purché io abbia il credito necessario, altrimenti potrò sempre vedere dei video promozionali obbligatori, come in uno dei racconti di “Internet, mon amour”, di Agnese Trocchi: https://ima.circex.org/storie/1-fuoricasa/7-IoT.html). Penserà un drone a consegnarmela! È chiaro che questo scenario cambierà completamente il mio rapporto con il cibo. Provare alimenti fuori dalla grande distribuzione sarà sempre meno possibile, scoprire sapori genuini diventerà sempre più difficile. Ma siamo davvero noi utenti a beneficiare di questa tecnologia e della memorizzazione di questa quantità di dati? Un alert che mi segnala che ho finito la birra potrebbe farmi piacere, così come la possibilità di accendere la caldaia dei termosifoni da remoto prima di tornare a casa potrebbe essere utile (anche se sarebbe sufficiente programmare per bene le temperature della caldaia). Quello di cui invece sono profondamente convinto è che qualsiasi automatismo nell’acquisto di beni e servizio non è utile a me, ma solo a chi vuole vendermi qualcosa. L’algoritmo che mi compra la birra che uso normalmente (oltretutto “normalmente” non è altro che un dato statistico, e potrebbe essere momentaneo, magari dovuto a condizioni economiche, etc.) utilizzando i dati che ha memorizzato mi arreca un danno più che un servizio. Certamente un servizio lo fornisce invece a chi mi vende la birra. Il passaggio della pubblicità targhettizzata viene addirittura saltato, per passare direttamente a farmi acquistare ciò che ha deciso qualcun altro. Infine, in tema video sorveglianza e riconoscimento facciale, ecco un esempio di uso delle telecamere connesse a internet apparentemente poco invasivo. Ogni volta che in un centro commerciale passiamo davanti a un monitor pilotato con la tecnica del digital signage, ci sarà una telecamera che ci inquadrerà e utilizzerà il riconoscimento facciale per vedere chi siamo, incrocerà i dati che riesce a ricavare dal riconoscimento con altri che ha memorizzato e cambierà le immagini proposte nel monitor in funzione di quello che un algoritmo crede sia di maggior interesse. Siamo sicuri che la registrazione e conservazione dei dati relativi alla nostra frequentazione in quella posizione in quel dato giorno siano effettivamente utili a noi, utenti e consumatori “evoluti”? O piuttosto non siano utili esclusivamente al proprietario del centro commerciale al fine di farci rimanere più tempo o fare in modo che compriamo determinati prodotti che l’algoritmo di turno ci suggerirà? O in ultima analisi saranno dati che contribuiranno a costruire il mio profilo a uso degli algoritmi che suggeriranno qualcosa da vendermi? Queste sono alcune delle domande a proposito dell’utilità della produzione e raccolta dei dati che mi sono venute in mente, ma è un esercizio che può fare chiunque. Ogni volta che ci rendiamo conto che alcuni dati da noi prodotti vengono inviati in rete e memorizzati in qualche data center sperduto nel mondo, fra l’altro in barba alle regolamentazioni europee, domandiamoci: “a chi è utile la raccolta di questi dati?” Quel che mi preme sottolineare con questa serie di esempi è che la questione in gioco non è solo chi controlla i dati, come sostengono i fautori della sovranità tecnologica, ma perché vengono memorizzati e conservati i dati. A chi giovano? Chi ne beneficia? Purtroppo questo tema è completamente assente dal dibattito relativo alla battaglia sul cloud, che in ultima analisi non è altro che una battaglia per il controllo dei dati, dalla quale i cittadini sono sostanzialmente esclusi. Sitografia/bibliografia * Intervista a Bassan (UniRomaTre): ‘La grande sfida è il Cloud, intervenga lo Stato, ma non con il modello TIM-Open Fiber’, Key4biz, luglio 2020 https://www.key4biz.it/f-bassan-uniromatre-la-grande-sfida-e-il-cloud-intervenga-lo-stato-ma-non-con-il-modello-tim-open-fiber/ * Bruno saetta, La Corte europea invalida l’accordo Privacy Shield sul trasferimento dei dati europei e declassa gli Usa, Valigia Blu, luglio 2020 https://www.valigiablu.it/corte-giustizia-europa-privacy-shield/ * Federico Fubini, Cloud, sfida tra Usa ed Europa: la battaglia (sulle nuvole) per l’Italia vale 5 miliardi, Corriere della sera, luglio 2020 https://www.corriere.it/economia/finanza/20_luglio_12/cloud-sfida-usa-ed-europa-battaglia-sulle-nuvole-l-italia-vale-5-miliardi-fa71bc58-c40a-11ea-b958-dd8b1bb69ac3.shtml * Luigi Garofalo, Cloud nazionale invocato da Soro, le condizioni per tenere fuori Amazon, Google e Microsoft, Key4biz, giugno 2020 https://www.key4biz.it/cloud-nazionale-invocato-da-soro-le-condizioni-per-tenere-fuori-amazon-google-e-microsoft/ * Luigi Garofalo, Gaia-X, cos’è veramente? Anche Google, Amazon&Co. possono ricevere il ‘bollino’ del progetto, Key4Biz, settembre 2020 https://www.key4biz.it/gaia-x-cose-veramente-anche-google-amazonco-possono-ricevere-il-bollino-del-progetto/320135/ * Francesca Bria, Un patto sociale verde e digitale per la sovranità tecnologica, luglio 2020 https://www.pandorarivista.it/articoli/un-patto-sociale-verde-e-digitale-per-la-sovranita-tecnologica/ * Agnese Trocchi, Internet, mon amour, settembre 2019 https://ima.circex.org/storie/1-fuoricasa/7-IoT.html * Envisioning Cities is a free and continuously updated emerging technology platform https://cities.envisioning.io * Shoshana Zuboff , Il capitalismo della sorveglianza, Luiss University Press, ottobre 2019 * Massimo Mantellini, Unisci e impera, Il Post, agosto 2020 https://www.ilpost.it/massimomantellini/2020/08/21/unisci-e-impera/
Didattica a distanza: fuori dall'emergenza!
Il lockdown deciso dal governo Italiano e dalla maggior parte dei governi degli Stati a capitalismo avanzato ha determinato un'accelerazione fortissima dell'uso del digitale. Scuole ed università si sono viste costrette ad adottare la didattica a distanza per poter proseguire le lezioni. Questa situazione di emergenza ha fatto venire al pettine tutti i nodi di decenni di immobilismo e distruzione del poco che era stato costruito. Innanzi tutto va detto che gli insegnanti, ma anche gli studenti e, ahimè, i genitori, si sono dovuti far carico della distanza, di inventarsi "a distanza", poiché poco o nulla è stato sperimentato sotto la guida degli organi competenti e quindi nulla è stato messo a sistema. In ordine sparso, scuole e università hanno tentato di fare buon viso a cattivo gioco, a volte facendo finta di nulla: riprodurre la didattica in presenza attraverso le video chat. Poi, pian piano, sono arrivate le assegnazioni dei compiti da fare a casa; chi attraverso le mail, chi attraverso Google Drive, qualcuno attraverso piattaforme come Edmodo, e così via. Nel frattempo il Ministero ha cominciato a dare indicazioni, tramite la sua pagina web (https://www.istruzione.it/coronavirus/didattica-a-distanza.html), sulle piattaforme per la didattica a distanza da adottare: Google Suite, Office 365, Weschool. Il Ministero, non avendo idee migliori, ha scelto di affidarsi ai grandi sia per le garanzie di affidabilità che offrono, sia per l'abitudine che gli utenti (insegnanti e studenti) hanno già nell'uso di una parte degli strumenti messi a disposizione. È il caso di Google e Microsoft Office. E così, anche nel campo della didattica, è continuato lo scivolamento verso le imprese private di una funzione tipica della Cosa Pubblica. Una esternalizzazione in atto da anni anche in altri settori cruciali, come la sanità. Questo è ciò che è accaduto. Ora, passati tre mesi dalla chiusura forzata delle scuole, tutti coloro che hanno a cuore le sorti della scuola pubblica italiana chiedono che la risposta alla crisi innescata dal Coronavirus sia l’occasione per investire nella scuola: più soldi per l’edilizia scolastica e per assumere insegnanti allo scopo di ridurre il numero di studenti per classe e avere risorse per una didattica migliore che metta al centro la crescita degli studenti. Non è ancora chiaro come riapriranno le scuole a settembre, ma per quanto se ne sa il Ministero vorrebbe "spingere" per la didattica mista: parte in presenza e parte a distanza. Le direttive sono sempre le stesse di tre mesi fa: piattaforme per la DAD delle grandi multinazionali americane, e arrangiatevi! In questo panorama sono spariti completamente il metodo didattico, la libertà di insegnamento, la questione della privacy e dei dati, il digital divide. Proviamo a farli riemergere. IL METODO DIDATTICO Gli aspetti dei processi educativi che riguardano le relazioni (un professore attento, un'insegnante che ci dice una parola speciale in un momento particolare, un compagno che ci aiuta o ci ostacola, ecc.) che avvengono nell'aula, o nei corridoi, sembra che siano sfrondate, eliminate dalla didattica a distanza, come fossero un surplus. Ciò che conta è il contenuto e la valutazione quantitativa. E quindi si fa la lezione sincrona attraverso la videochat e si assegnano i compiti inviando schede e test da compilare. Così facendo, però, si perde il cuore della crescita. Inoltre si dimentica che il contesto e le relazioni non sono quantificabili. Per capire quel che sta accadendo bisogna fare un passo indietro. Nella scuola da tempo sta avvenendo un processo di cambiamento della didattica che dà sempre meno importanza alla conoscenza e sempre più alla competenza; in cui l'insegnamento sta lentamente lasciando il passo all'addestramento. Gli studenti sono addestrati all'uso di qualcosa, piuttosto che accompagnati nella relazione a comprendere il funzionamento dei processi (storici, scientifici, etc.). I test INVALSI, validi per l'esame di terza media, ne sono un chiaro segnale. In questa situazione è evidente che il metodo di insegnamento perde di importanza a favore dei contenuti. E di conseguenza favorisce le piattaforme dei colossi (Google, Amazon, Microsoft, Facebook e così via), cresciute a suon di acquisizione di dati e meta-dati, per poi rivenderli, o per profilare le persone in modo da manipolarne gusti e orientamenti sono adattissime: la riduzione della realtà in numeri è il loro mestiere, in questo caso dell'insegnamento. Ma perché mai non si potrebbe applicare un metodo collaborativo utilizzando una delle piattaforme indicate dal MIUR? A causa di come sono realizzate le interfacce utente di quelle piattaforme, e delle relazioni che presuppongono: di utenti/consumatori, non di co-costruttori di apprendimenti significativi. Possiamo pensare l'interfaccia come qualcosa che consente a un umano di entrare in contatto con un oggetto o con un altro umano. In questo senso la forchetta può essere considerata come l'interfaccia tra me e gli spaghetti; è l'artefatto che mi consente di prendere degli spaghetti dal piatto e portarli alla bocca. L'interfaccia delle piattaforme, di tutte le piattaforme, non solo quelle didattiche, condiziona la relazione tra le persone e la macchina e la relazione tra le persone. Se una piattaforma per la didattica a distanza è progettata in modo rigido, non consente di aggiungere contenuti agli studenti, di scrivere in maniera collaborativa (ovvero a più studenti sullo stesso file), non permette la relazione tra gli studenti, è evidente che sarà molto difficile fare didattica in maniera cooperativa. Inoltre, se la relazione pregressa fra insegnante e studente è esclusivamente frontale, improntata a impartire una lezione passibile di valutazione, la didattica a distanza tenderà a esacerbare le carenze della didattica in presenza. In breve: se l'ambiente digitale per l'apprendimento con il passare del tempo non rilascia il controllo agli studenti è una piattaforma che non consente di condividere saperi (http://steve.lynxlab.com/?p=633)). LA LIBERTÀ DI INSEGNAMENTO sottotitolo: il software deve essere libero Dunque, se una piattaforma piuttosto che un'altra determina il metodo didattico, ne consegue che se una piattaforma è disegnata per un certo tipo di interazione e relazione tra gli umani invece che per un altro (collaborativa/gerarchica), sarà molto difficile "forzarla" in modo da usarla diversamente da come è stata progettata. Molto banalmente, se non è previsto che sia possibile per gli studenti commentare un contenuto inserito dal docente, quell'attività didattica non si potrà fare. Si dirà: ma è una funzionalità che si può aggiungere. Purtroppo no, perché le piattaforme dei Big Tech non sono piattaforme F/LOSS (Free/Libre Open Source Software). Non è possibile cioè installarle nello spazio di una scuola e modificarne interfaccia e funzionamento. Per fortuna esistono delle piattaforme didattiche F/LOSS (Moodle, ILIAS, ADA, ecc.), che possono essere installate sui server di scuole ed università, magari in maniera federata; possono essere modificate e migliorate, i miglioramenti possono (anzi devono) essere condivisi e resi disponibili a chiunque trovasse quei miglioramenti utili. Ovviamente tutto ciò necessita di impegno da parte di dirigenti scolastici ed insegnanti. I dirigenti scolastici dovrebbero dirottare verso le piattaforme F/LOSS risorse economiche utilizzate altrimenti per licenze di programmi proprietari (da Office 365, alle piattaforme didattiche proprietarie, che finita l'offerta per la pandemia Covid-19 torneranno probabilmente a pagamento, anche se Google garantisce il contrario. Qui i prezzi dell'offerta BigG: https://gsuite.google.com/pricing.html). Adottare strumenti Open Source ha anche altre conseguenze positive, tra le quali quella di tenere le risorse economiche necessarie sul territorio. Non è questa la sede per affrontare il discorso, ma su come far ripartire l'economia potrebbe essere un contributo non indifferente: invece di pagare piattaforme proprietarie e inviare denaro fuori dall'Italia e dall'Europa, la didattica finanzierebbe il lavoro locale. Un'architettura basata su server locali federati, con software Open Source, consentirebbe anche un controllo della tecnologia da parte di chi è vicino agli utilizzatori finali, il che aiuterebbe ad affrontare con le giuste contro-misure le situazioni di emergenza. Per esempio: le scuole sanno perfettamente quanti sono gli iscritti e quindi potrebbe dimensionare in maniera corretta la banda internet necessaria alle video-conferenze per le lezioni a distanza. Nota: per semplicità in questo articolo ho scritto di Software Libero e Open Source come fossero la stessa cosa. Chi volesse approfondire differenze e similitudini può leggere la "filosofia del software libero" (https://www.gnu.org/philosophy/free-sw.en.html) e Open Source Initiative (https://opensource.org/osd). Aperto non significa libero. DATI E PRIVACY L'Europa si è dotata del GDPR (General Data Protection Regulation), un regolamento Europeo diventato operativo anche in Italia a partire dal maggio 2018. Lo scopo del GDPR è quello di rinforzare le regole in materia di protezione dei dati personali dei cittadini dell'Unione Europea. Attenzione però: quasi tutte le piattaforme indicate dal MIUR sono di proprietà di multinazionali statunitensi. È vero che hanno giurato e spergiurato di attenersi al nostro regolamento, alcune hanno firmato accordi di Safe Harbour (porto sicuro, approdo per i dati), ma io non correrei il rischio di aver male interpretato i termini di servizio o di essere soggetto alle oscure trame a cui ci ha abituato Facebook (vedi per esempio il caso Cambridge Analytica). Ma anche volendo credere alla buona fede e alla capacità effettiva delle Big Teck di tenere separati i dati Europei dagli Americani, c'è un altro tema non meno importante, che riguarda in particolare Google. Come sappiamo la multinazionale californiana ha fatto dei dati (e dei metadati) il proprio core business, investendo molto anche in intelligenza artificiale e machine learning. Si tratta di tre campi di applicazione del digitale (dati, machine learning, Intelligenza Artificiale) strettamente connessi. In questa situazione di emergenza, Google è nella condizione di acquisire una quantità mostruosa di dati dei nostri studenti ed insegnanti e di contenuti prodotti dai docenti, una quantità e qualità inedita nella storia del digitale. Con questi dati e le tecniche di machine learning e IA Google potrà offrire in un futuro molto vicino contenuti didattici prodotti automaticamente che, oltretutto, avranno come caposaldo il metodo dell'addestramento, visto che la piattaforma didattica che propone e attraverso la quale raccoglie i dati è disegnata per questo metodo didattico. E torniamo da capo! DIGITAL DIVIDE Una delle ragioni per cui in Italia non si è sperimentato molto la didattica a distanza è proprio il digital divide. Si articola in due parti: una strutturale e una relativa alle competenze. Quella strutturale è presto descritta: non tutti hanno un computer disponibile a casa, soprattutto in questi tempi in cui la famiglia è tutta a casa. Fuori dalle mura delle grandi città non c'è una connessione che consenta di poter partecipare alla didattica. Le scuole che dispongono di una banda sufficiente sono intorno al 10% del totale. C'è poi una questione legata al modello di informatica e di rete che si è voluto incentivare: la vera e propria ideologia del mobile first (prima per i dispositivi mobili) ha portato con sé due conseguenze importanti. La prima è che si è privilegiata la connettività mobile (4g, 5g) invece che cablare il territorio nazionale, con il risultato che la connettività è altalenante, poco stabile, in mano alle imprese private e probabilmente nociva per la salute a causa delle fortissime e soprattutto pervasive emissioni elettromagnetiche. La seconda, alimentata anche dalla demagogia dei nativi digitali, è che si è voluto far credere che con uno smartphone o con un tablet fosse possibile fare qualsiasi attività che riguardasse il digitale, mentre in questi giorni viene mostrata in maniera chiara tutta la falsità di tale convinzione: non è possibile fare didattica a distanza in maniera seria con uno smartphone o un tablet. Schermi troppo piccoli, mancanza di tastiera e così via. L'altro aspetto è quello delle competenze. La nostra classe docente è carente di molte delle competenze necessarie all'uso delle tecnologie per uno scopo didattico, è vero. Nessuno si è mai preoccupato di fare formazione in maniera massiva, e anzi ci hanno fatto credere che si trattasse di un problema generazionale, come se l'attuale classe docente non avesse le carte in regola per fare il passaggio al digitale, quando sappiamo bene che con una formazione adeguata e un impegno dedicato e motivato chi è nato nel secolo scorso può benissimo sviluppare le competenze e le abilità necessarie per lavorare bene sulle piattaforme online. Ci hanno fatto credere che  quando gli attuali nativi digitali sarebbero diventati grandi, e quindi insegnanti, non ci sarebbe stata più una carenza di competenze. E invece, anche in questo caso, stiamo scoprendo che non è vero! I nativi digitali sono abili a "maneggiare" gli smartphone, ma non sanno come funziona la rete. Confondono browser con motore di ricerca, ed entrambi per loro coincidono semplicemente con Google. Non conoscono il funzionamento del web e confondono una URL con una stringa di ricerca. Su questo argomento consiglio la lettura dell'articolo di Mantellini su Internazionale, "Il divario digitale è una zavorra per l’Italia": https://www.internazionale.it/opinione/massimo-mantellini/2020/03/23/coronavirus-divario-digitale-scuola C'è da rimboccarsi le maniche, ripensare lo sviluppo della didattica a distanza e più in generale il digitale. Ripensarlo avendo bene in mente le esigenze delle persone, invece che delle grandi aziende private. Questo è solo il primo di una serie di interventi che si seguiranno qui o in altri luoghi virtuali (per il momento). Buon lavoro! Riferimenti: * ADA (Ambiente Digitale di Apprendimento). Piattaforma e-learning Open Source https://learning.lynxlab.com * ILIAS. Piattaforma e-learning Open Source https://www.ilias.de/en/ * Moodle. Piattaforma e-learning Open Source https://moodle.org/ * Cos'è il software libero https://www.gnu.org/philosophy/free-sw.en.html * Open Source Initiative https://opensource.org/osd * GDPR (Regolamento Generale sulla Protezione dei Dati) https://it.wikipedia.org/wiki/Regolamentogeneralesullaprotezionedei_dati * Didattica a distanza - Ministero dell'Istruzione e Ministero dell'Università e della Ricerca https://www.istruzione.it/coronavirus/didattica-a-distanza.html * Steve's. Apprendimento digitale e dintorni http://steve.lynxlab.com/ * Aspetti "economici" della didattica a distanza, in scacco al web https://scaccoalweb.wordpress.com/2020/04/08/aspetti-economici-sulla-didattica-a-distanza/ * Mantellini M., Il divario digitale è una zavorra per l'Italia in "Internazionale" https://www.internazionale.it/opinione/massimo-mantellini/2020/03/23/coronavirus-divario-digitale-scuola * Testa A., Il prologo poco conosciuto del caso Cambridge Analytica, in "Internazionale" https://www.internazionale.it/opinione/annamaria-testa/2018/04/04/dati-facebook-cambridge-analytica * Ippolita, Tecnologie del dominio, Meltemi 2017 https://www.ippolita.net/tecnologie-del-dominio-lessico-minimo-di-autodifesa-digitale/ * Ippolita, Il lato oscuro di Google, Milieu 2018 https://www.ippolita.net/il-lato-oscuro-di-google-dominio-degli-algoritmi/ * Del Rey A., La tirannia della valutazione, Eleuthera 2018 https://eleuthera.it/scheda_libro.php?idlib=455# * Trocchi A., Internet Mon Amour - Cronache prima del crollo di ieri, Ledizioni 2019 https://circex.org/it/ima/ * C.I.R.C.E. Centro Internazionale di Ricerca per la Convivialità Elettrica https://circex.org/ * Pillole di informazione digitale https://graffio.noblogs.org * Pedagogia hip-hop / Davide Fant Blog https://www.pedagogiahiphop.org/ Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Condividi allo stesso modo 4.0 Internazionale.