Source - graffio

Selezione da Pillole di informazione digitale

Radiobase, esempio di FAD, apprendimento cooperativo ed emersione delle competenze
A volte ritornano. Ho trovato la documentazione di un vecchio progetto facendo un po’ d’ordine nei miei hard disk e l’ho trovato molto attuale. La qual cosa mi ha indotto a scriverne come esempio di un metodo di lavoro possibile e praticato. In realtà mi ha spinto a scriverne anche l’affetto che nutro per questo progetto. 😉 Radiobase è stato un percorso formativo a distanza, e in parte in presenza, promosso da [Radio Onda Rossa](http://www.ondarossa.info), con la partecipazione dell’università di Roma “La sapienza”. Radio Onda Rossa è una radio comunitaria, per lo più basata sul lavoro volontario dei redattori e delle redattrici. Il processo radiobase ben si presta a mostrare un possibile percorso di formazione, con gli strumenti tipici dell’e-learning, a partire dal sapere dei redattori, cioè di coloro che lavorano all’interno della redazione.           L’IDEA DI FONDO Molti redattori sono depositari di una conoscenza e di competenze non formalizzate che _radiobase_ si è posta l’obbiettivo di far emergere per essere condivise con i redattori meno esperti, o con coloro che si volessero avvicinare al mondo delle radio comunitarie. _Radiobase_ aveva due obbiettivi principali: * far emergere le competenze dei redattori della radio (Radio Onda Rossa); * realizzare un percorso formativo che mirava a formare i futuri redattori di Radio Onda Rossa e di altre radio comunitarie di base, utilizzando le competenze emerse. Come primo momento del percorso è stato scelto il tema del “ciclo della notizia”, con l’intento di costruire un prototipo che si sarebbe rivelato utile anche per altri percorsi formativi, non necessariamente legati all’informazione, per esempio le redazioni musicali. All’interno del “ciclo della notizia” sono stati affrontati i temi riguardanti due formati radiofonici: Il giornale radio e la rassegna stampa. Inoltre un gruppo di contenuti è stato riservato all’utilizzo di alcuni strumenti di produzione (es.: software per la registrazione e il montaggio audio). I requisiti tecnici minimi per partecipare al corso sono stati molto bassi, oggi non sarebbe neanche necessario specificarli, e tuttavia rimangono tali: * connessione internet; * saper usare programmi di videoscrittura; * poter ascoltare audio dal computer (oggi questo requisito fa sorridere tanto è di base, ma 15 anni fa era un requisito che andava specificato). E’ importante sottolineare che il processo formativo non riguardava solo il saper fare. Non si trattava di produrre un mansionario, ma anche di sviluppare la capacità critica e collettiva tipica di un’attività redazionale. Il carattere collaborativo dell’intero processo è stato molto forte, ciò è risultato evidente anche dall’elevato numero di note a commento dei testi dei contenuti di base presenti nella piattaforma di e-learning, in special modo durante il processo che ha condotto alla produzione del “corso” che avrebbe formato i futuri redattori. ## Le fasi di Radiobase Stabiliti gli obbiettivi vediamo le fasi che hanno costituto il processo di formazione del corso e di apprendimento. ### Canovaccio dei contenuti Come detto, la prima fase ha avuto l’obbiettivo di far emergere le competenze dei redattori. ![](mappa0_small.png) Per iniziare il lavoro i coordinatori del corso hanno tracciato un canovaccio dei contenuti del corso da realizzare, in forma di mappa poco strutturata. Ovviamente la mappa aveva anche il corrispondente indice strutturato, ma la forma mappa ci sembrò più adeguata a contenuti in via di definizione, che prima di tutto necessitavano di essere messi sul piatto per poterli poi approfondire. ### Emersione delle competenze La mappa costruita dai coordinatori, che, come scrivevo, aveva anche un proprio corrispondente indice lineare, è stata il punto di partenza per il primo passo del percorso formativo. ![](mappa1.png) I redattori più esperti hanno partecipato al corso base, costituito principalmente dalla prima versione della mappa dei contenuti, facendo emergere le proprie esperienze, competenze, idee in un processo iterativo che ha prodotto una nuova rete di contenuti più ampia e condivisa. Per arrivare alla nuova mappa (o se preferite al nuovo indice), i redattori si sono **incontrati** per ragionare, sia in presenza che a distanza, hanno scritto **appunti e memo nei diari personali**, aggiunto **“note” ai nodi (contenuti) della mappa**, caricato **nuovi documenti** nella piattaforma di e-learning, aggiunto **link**, utilizzato sondaggi per scegliere definizioni, posizioni, priorità condivise. ### Scrittura del corso “finale” Al termine del processo di emersione delle competenze i coordinatori hanno lavorato sulla mappa di contenuti proponendone una nuova versione che è stata condivisa con i redattori esperti prima di essere rilasciata per essere fruita dagli altri redattori. La nuova versione dei contenuti e delle relazioni tra di essi (in questo senso parliamo di rete di contenuti e di mappa) ha costituito il corso al quale hanno partecipato i redattori meno esperti. ![](mappa2.png) ### Fruizione del corso, ridefinizione dei contenuti A questo punto il corso è stato fruito da parte dei redattori e delle redattrici meno esperte di Radio Onda Rossa. La fase di fruizione del corso, oltre ad aver permesso la condivisione di competenze tra tutti i redattori, esperti e meno esperti, ha consentito anche la ridefinizione ulteriore di alcuni contenuti, in un circolo virtuoso potenzialmente infinito, in cui ogni corsista/redattore è anche un autore della successiva edizione del corso. ### Formazione di nuovi saperi e utilizzo sul campo In questo circolo virtuoso che si crea in un processo di condivisione di saperi e di apprendimento cooperativo è quasi naturale che si giunga alla formazione di nuovi saperi. Sappiamo che l’apprendimento è un processo circolare nel quale le conoscenze acquisite si trasformano nella base per l’interpretazione di altre conoscenze. In un processo di formazione che ha la sua base nell’esperienza di coloro che concretamente usano la propria conoscenza, e che si situa concretamente in un contesto reale, coloro che vi partecipano hanno la grande opportunità di formare nuovi saperi. ### Qualche nota finale E’ importante sottolineare che l’intero processo ha coinvolto molte persone che hanno messo in campo relazioni paritarie, in cui ognuno ha imparato qualcosa. A dimostrazione del fatto che in un processo di apprendimento cooperativo del genere di quello descritto i ruoli di insegnante e discenti sfumano, fino a diventare sempre più intercambiabili. Alcune hanno svolto la funzione di coordinatrici, altri hanno messo a disposizione il proprio sapere, sia didattico che informativo, altri ancora hanno lavorato per adeguare il software (rigorosamente libero) alle esigenze che emergevano man mano che il processo proseguiva. Ultima cosa: insieme a Stefano Penge e Morena Terraschi, entrambi di Lynx, abbiamo scritto un articolo che è stato pubblicato sulla rivista della Società Italiana di e-Learning che prendendo spunto da Radiobase formulava una metodologia didattica. Radiobase, esempio di FAD, apprendimento cooperativo ed emersione delle competenze ©, .
Cyber Bluff. Storie, rischi e vantaggi della rete per navigare consapevolmente
Cyber Bluff è un mini saggio che ha lo scopo di decostruire la narrazione tossica di Internet. Ginox, l’autore del libro il cui humus di provenienza è quello degli hackmeeting italiani, ha sviluppato negli anni un pensiero critico relativamente alla conformazione attuale di Internet, ai concetti che sono alla base, alle tendenze nonché allo sviluppo futuro che si prospetta. Dico subito che il libro centra il suo scopo dichiarato e, con stile leggero e a volte ironico, aiuta il lettore a dotarsi degli strumenti cognitivi e tecnici per difendersi dalle trappole tese dai servizi di Internet e per sfruttarne le possibilità offerte. Il libro si compone di due parti. Nella prima parte del libro Ginox racconta la storia di Intenet a partire dagli anni ’60, scegliendo un episodio per ogni decade. Gli aneddoti scelti sono spesso poco conosciuti o marginali, ma sono significativi nel delineare un periodo, un sentire, una contraddizione, un conflitto. Negli anni 60 si parla della guerra in Vietnam e dei dati raccolti sul campo ed inviati via radio a quello che oggi chiameremmo un datacenter. Negli anni 70, archiviato il fallimento della decade precedente, il progetto ARPANET mira a schedare tutti gli americani (a detta di un noto giornalista della NBC). Gli anni 80 sono gli anni dell’Home Computing, e anche se Internet non era ancora quella che conosciamo oggi, si affacciano alla scena hacker e spioni, con una sequenza di avvenimenti che hanno conclusioni a volte drammatiche. La seconda metà degli annni ’90 è il periodo in cui inizia Internet come lo conosciamo, nase il web, ma viene di nuovo a galla la natura di sistema di sorveglianza dell’infrastruttura di Internet attraverso il progetto Echelon. Dieci anni dopo il nostro autore ci racconta l’episodio nostrano legato a Telecom che coinvolge anche i servizi segreti italiani. A questo punto siamo arrivati ai giorni nostri e per mostrare il terreno ideologico nel quale prendono forme le grandi imprese commerciali tecnologcihe (da Google a Facebook, passando per Amazon) Ginox ci racconta la storia familiare dei Friedman. Nella seconda parte del libro viene analizzato il mondo di Internet scomponendolo in macro-categorie di servizi. Per ogni macro-categoria svelerà gli equivoci e le false promesse. Ogni analisi viene accompagnata con dei “consigli di senso” e dei “consigli tecnici” per potersi difendere ed usare Internet in maniera che sia più utile (e magari conviviale) agli utilizzatori che ai fornitori di servizi. Si parte con l’equivoco dell’essere sincrono dei servizi di “Instant messaging”. Poi i Malware, che sono dei programmi che hanno lo scopo di controllare coloro i cui dispositivi sono affetti. Ma a chi servono? Ci sono economie dietro la produzione? Anche in questo caso non mancano aneddoti a volte anche divertenti. Nel capitolo “l’innocente confusione tra dati e istruzioni” capiamo cosa siano gli 0-days bugs e come vengano sfruttati. Immancabile e necessaria l’analisi dei social media per svelare i vizi di fondo e il carattere estrattivista dei dati del comportamento degli utenti, al fine di manipolarne i comportamenti. Acuto e anche un po’ divertente il racconto relativo alla “e-mail, la matriarca“. Il capitolo relativo alla crittografia mostra in maniera semplice il sottile equilibrio tra chi vorrebbe vietarla per impedire che venga nascosto il contenuto delle comunicazioni tra persone e chi non può farne a meno per garantire la sicurezza delle transazioni economico-finanziarie. Infine “la restaurazione del cloud“. Nel capitolo Ginox ci svela i meccanismi che portano gli utenti e le imprese a preferire di perdere la propria autonomia nella gestione dei propri dati in favore del cloud. C’è poi un extra molto interressante scaricabile dal sito dell’editore. Il pdf fornisce riferimenti molto utili per approfondire alcuni temi trattati e alcuni aneddoti narrati nel libro (libri, siti, articoli). Inoltre vengono elencati alcuni servizi autogestiti, alternativi a quelli forniti dalle GAFAM (Google, Amazon, Facebook, Apple, Microsoft): dallo scambio file, al cloud, dalla scrittura collettiva alla gestione dei progetti, dai motori di ricerca alle mail, dalle videoconferenze ai motori di ricerca. Il libro si può acquistare nelle librerie, sul sito dell’editore e, tra gli altri, su Bookdealer , il sito di e-commerce delle librerie indipendenti. Cyber Bluff. Storie, rischi e vantaggi della rete per navigare consapevolmente ©, .
Didattica a Distanza, seconda ondata
A quanto pare, come nella prima ondata della pandemia di Covid-19, il MIUR e, quindi la scuola, si è fatto trovare impreparato da diversi punti di vista. Da quello della progettazione didattica: il blended learning ha la stessa necessità di progettare le attività didattiche della DaD o della didattica in presenza, anzi forse di più; dal punto di vista dell’utilizzo dei dati: per la verità la questione si è aggravata, perché nel frattempo la Corte di Giustizia Europea ha invalidato l’accordo, detto “Privacy Shield”, tra l’Unione Europea e gli Usa; infine anche dal punto di vista del software libero. > questo articolo è pubblicato in “Formare… a distanza?”, II edizione, > C.I.R.C.E. novembre 2020 PROGETTAZIONE DIDATTICA Il blended learning in una situazione “normale” prevede una buona dose di didattica in presenza e una dose di e-learning durante la quale gli studenti possono approfondire i contenuti che sono stati trattati durante le lezioni in presenza, opportunamente caricati e categorizzati nella piattaforma, oppure possono utilizzare gli strumenti di collaborazione per produrre in maniera condivisa nuovi contenuti, o ancora: potrebbero utilizzare gli strumenti di comunicazioni dedicati alle chat, videochat, forum (per quanto il termine sia un po’ fuori moda, lo strumento forum non è stato sostituito da altre novità tecnologiche per poter discutere su argomenti strutturati) per momenti di confronto con gli altri studenti e/o con i docenti. Nella situazione attuale la didattica mista è intesa principalmente in due modi: metà studenti sono in classe con il professore e metà a casa ad assistere alla lezione tenuta dal docente; oppure tutti a casa (studenti e docenti) e il docente fa lezione attraverso una piattaforma di video conferenza. Quest’ultima situazione è nella sostanza ciò che è accaduto durante il lockdown di marzo e aprile del 2020. In entrambi i casi la progettazione didattica dovrebbe tener conto della situazione in cui avviene il processo di apprendimento. Nel primo caso, metà a casa e metà in classe, l’indicazione del Ministero sembra essere di inviare il video della lezione dell’insegnante, ripreso da una webcam posizionata in classe, dove sono anche una parte di studenti, in una videoconferenza alla quale si collegano coloro che si trovano a casa. Le limitazioni per tutti sono molto chiare: in classe non ci si può muovere molto, pena uscire dall’inquadratura o dal cono del microfono; da casa bisogna stare concentrati e in silenzio cercando di seguire ciò che avviene in classe. Non si tratta di una situazione adeguata a mantenere la concentrazione, né a costruire le condizioni per una didattica non dico collaborativa, ma almeno che non crei problemi di comprensione quando il docente parla. Sarebbe interessante rovesciare la prospettiva: da casa gli studenti potrebbero tenere la lezione alternandosi negli interventi, ovviamente coadiuvati dall’insegnante, mentre in classe potrebbero attivare una regia audio-video e produrre in questo modo contenuti che andrebbero ad arricchire l’impianto didattico della classe. Naturalmente è solo un’idea che va progettata per bene, ma l’ambiente tecnologico, allo stesso modo di quello fisico, è qualcosa che condiziona fortemente la didattica. Non tenerne conto significa non sfruttare le opportunità e soprattutto accettare i limiti del caso. Del secondo caso (quello del tutti a casa), abbiamo lungamente scritto negli articoli raccolti nella prima edizione di “Formare a Distanza?”. Purtroppo non sembra essere cambiato molto: nella videochat viene riproposta la lezione frontale, probabilmente peggiorata dall’assenza dei corpi, invece che progettare attività che cambino l’assetto didattico: far preparare le lezioni ai ragazzi, che a turno da casa potrebbero presentare la lezione ai propri pari, chiedere di collaborare a distanza agli studenti, organizzare il lavoro in gruppi, costruire una casa digitale comune che sia gradevole, inclusiva, accogliente (vedi: “II. Per un setting nel digitale inclusivo e accogliente” Da: “Formare a Distanza?”, Davide Fant ~ Inventare formazione con adolescenti distanti ~ CC 4.0 (BY-NC-SA)), comprendere i problemi e le possibili opportunità del digitale. In entrambi i casi, la progettazione didattica non si dovrebbe avvalere esclusivamente della videochat, che spesso è considerata essa stessa la piattaforma per la didattica a distanza. In realtà non è così: la videochat è una parte dei tools tecnologici necessari all’e-learning. Non è un caso che persino nel sito del Ministero dell’Istruzione le tre piattaforme consigliate siano delle suite. Lo è la suite di Google, quella di Microsoft (Office 365) e lo è Weschool. Evidentemente scambiare la videochat/videoconferenza per piattaforma di Didattica a Distanza è il sintomo chiaro della malattia: non c’è progettazione didattica che tenga conto delle potenzialità e dei limiti delle tecnologie per la didattica a distanza (vedi: “Piattaforme queste sconosciute” di Stefano Penge). L’esperienza ci insegna che per un percorso di apprendimento proficuo, pur se a distanza, oltre allo strumento della videochat, saranno necessari gli strumenti per la collaborazione, per la comunicazione asincrona (la posta, la bacheca condivisa, il forum), per l’archiviazione condivisa di documenti. Dal punto di vista dei contenuti didattici, inoltre, abbiamo assistito alla caccia a contenuti utilizzabili per la Didattica a Distanza. Non tutti i docenti hanno la possibilità/capacità di realizzare dei contenuti ad hoc per le proprie lezioni a distanza, ed ecco in soccorso il learning object. L’oggetto di apprendimento (Learning Object), considerato come un piccolo frammento di contenuto didattico autoconsistente e utilizzabile in più contesti, da una parte aiuta gli insegnanti nella progettazione di interventi didattici che non siano la riproduzione della lezione frontale attraverso le videochat, ma dall’altra rappresenta un ulteriore mattoncino verso la valutazione dell’apprendimento misurabile numericamente in funzione dell’analisi dei dati sulla fruizione dei contenuti degli studenti. Un Learning Object è concepito come una unità informativa che può essere comunicata allo studente più e più volte, al di fuori del contesto di apprendimento e spesso anche di dominio. L’utilizzo di LO identifica il processo di apprendimento come somministrazione di porzioni di informazione decontestualizzati, somministrati agli studenti che metteranno insieme le informazioni fornite loro per formare le loro competenze. E’ una concezione dell’apprendimento molto vicina all’addestramento. Certamente i LO sono utili quando si deve addestrare un gruppo di persone ad utilizzare una macchina industriale o un software per produrre siti. Sono molto meno utili se si intende l’apprendimento come processo che forma l’interezza della persona umana attraverso l’interazione con l’ambiente, attraverso la relazione con altre presone, attraverso la creazione condivisa di nuove conoscenze. Infine sgancia il percorso di apprendimento di un o una discente da quel complesso processo che è molto di più che il calcolo algoritmico dei contenuti fruiti. USO DEI DATI: PRIVACY, CONTROLLO E VALUTAZIONE Dal punto di vista dell’uso dei dati, e della relativa utilità, prodotti da studenti e docenti, va tenuto conto che, rispetto alla fase del lockdown, c’è stato un pronunciamento delle Corte di Giustizia Europea che dovrebbe cambiare totalmente il modo in cui le nostre istituzioni affrontano la questione delle piattaforme e del cloud. La Corte di Giustizia Europea ha invalidato l’accordo, detto “Privacy Shield, tra l’Unione Europea e gli Usa (Sentenza del 16 luglio 2020 nella causa C-311/18 promossa dall’attivista Maximiliam Schrems). Che vuol dire? Significa che secondo l’Unione Europea le norme per tutelare la protezione dei dati personali in vigore negli USA e applicate dalle imprese statunitensi non sono adeguate a quelle che la UE garantisce ai propri cittadini. In pratica, con questo pronunciamento i dati dei cittadini italiani non possono essere inviati e archiviati negli USA. Ovvero tutte le aziende che utilizzano servizi cloud basati perlopiù in territorio statunitense (Amazon, Microsoft Azure) dovrebbero spostarli in Europa. Inoltre Facebook, Google, Tik Tok e via dicendo non possono più usare i dati degli utenti elaborandoli e archiviandoli negli USA, il che significherebbe che quei servizi non potrebbero più funzionare. Lo testimoniano le dichiarazioni di Yvonne Cunnane, responsabile protezione dati di Facebook Irlanda, che dichiara: ‘Con lo stop al trasferimento dati degli utenti europei negli Usa non è chiaro come Facebook ed Instagram potrebbero ancora funzionare nella UE’. Il pronunciamento impatta anche le piattaforme di Didattica a Distanza e le videochat che memorizzano i dati degli utenti fuori dall’Europa: Google, Office 365, Zoom, etc. In teoria non essendoci più un accordo con gli USA che tuteli la privacy degli utenti europei, queste piattaforme non dovrebbe più essere accessibili dall’Europa. Al momento non è così, ma ci si domanda se il Ministero dell’Istruzione sia a conoscenza del pronunciamento della Corte Europea. Probabilmente no, non si spiega altrimenti l’indicazione di utilizzare piattaforme proprietarie che, da quello che è dato saperne, inviano i dati di studenti e insegnanti negli USA. Peraltro la questione dell’utilizzo dei dati ha a che fare con due altre importanti questioni. La prima è relativa al controllo del lavoro dei docenti. Siamo certi che la presenza di una webcam in classe che riprende tutte le attività dei docenti non leda i diritti degli insegnanti in quanto lavoratori? Siamo certi che non si caratterizzi come un elemento di controllo del lavoro dei docenti e quindi possa essere considerata una pratica anti-sindacale? Qualche dubbio se lo pone anche Francesco Sinopoli, segretario generale della Federazione dei Lavoratori della Conoscenza – CGIL, in una lettera ai rettori universitari. La seconda è altrettanto importante ed è relativa alla valutazione degli studenti. Gli studenti della DaD possono essere oggetto di forte controllo ed analisi dei dati prodotti attraverso le tecniche definite di “learning analytics”. Si tratta di tecnologie che, analogamente con quanto avviene nelle grandi piattaforme dei Big Tech che attraverso l’analisi dei dati profilano le persone, hanno lo scopo di profilare gli studenti, valutarne lo stile e il grado di apprendimento e addirittura in alcuni casi hanno anche la pretesa di predire le possibilità di successo del percorso di apprendimento del singolo studente. Sono pratiche diffuse soprattutto in ambito universitario, e in particolare nelle piattaforme MOOC (Massive Open Online Courses) in cui l’attributo Open non è tanto inteso come aperto alla possibilità di apprendimento per chiunque, quanto come aperto alla misurazione, al confrontabile, all’analizzabile. D’altra parte, da organizzazioni che danno sempre meno peso alla relazione umana nel processo di insegnamento/apprendimento, queste tecniche sono manna dal cielo. Se poi ai learning analytics si aggiunge la didattica gamificata, che prevede premi al completamento della lettura o visione di contenuti, o alla corretta soluzione di esercizi, i dati numerici di ogni studente diventano sempre di più. La valutazione dello studente attraverso i dati numerici memorizzati dalle piattaforme diventa sempre maggiore a discapito della “gioia” di apprendere. Sappiamo che i processi di apprendimento sono processi che hanno bisogno di tempo, di relazioni umane, di pazienza, di condivisione, di tempo per poter sbagliare. Se è fatta a distanza poi ha bisogno di accortezze e disponibilità alla sperimentazione. PIATTAFORME E SOFTWARE LIBERO In Italia esiste una legge (legge 7 agosto 2012, n. 134) e due articoli (il 69 e il 69) del Codice dell’Amministrazione Digitale (CAD) che a vario titolo invitano le Pubbliche Amministrazioni ad utilizzare software Libero o Open Source (F/LOSS: Free/Libre Oper Source Software) a parità di funzionalità. Purtroppo la legge è largamente disattesa. Molto raramente gli acquisti di software da parte delle PA privilegiano il software libero o Open Source. Nessuna sorpresa quindi se il Ministero dell’Istruzione consigli delle suite per la didattica a distanza proprietarie: lo sono tutte e tre quelle consigliate nel sito del Ministero. Lo stupore però arriva quando il fondo per l’innovazione di Cassa Depositi e Prestiti finanzia parte di un aumento di capitale di 6,4 milioni di euro di WeSchool, la piattaforma per la Formazione a Distanza di TIM il cui codice sorgente non è aperto. Cassa Depositi e Prestiti è una società per azioni controllata dal Ministero dell’Economia e delle Finanze, in ultima analisi utilizza e investe denaro pubblico. Certo la piattaforma è italiana, non ha quindi, almeno formalmente, i problemi legati alla difesa della privacy che hanno le azienda USA e farà contenti i sovranisti digitali italiani, ma è un software proprietario. Non sarà possibile per nessuno utilizzarlo (a meno che sia concesso in licenza dal proprietario), studiarlo, ridistribuirlo, migliorarlo. Sono le 4 libertà fondamentali del Software Libero e Open Source che, pur tra molte ipocrisie economiche e cavilli legali, sono le uniche garanzie che un investimento pubblico non venga privatizzato da un’azienda che farà profitti vendendo qualcosa che ha costruito con il contributo di tutti coloro che pagano le tasse al governo italiano. Sin qui si potrebbe intendere che si tratti di una mera questione di principio. Non è così, o per lo meno non è solo questo il punto. Come ho già scritto nell’articolo presente in “Formare a distanza?”, l’adozione del software libero in ambito didattico costituisce la condizione per la libertà di insegnamento perché se “una piattaforma” proprietaria “è disegnata per un certo tipo di interazione e relazione tra gli umani invece che per un altro (collaborativa/gerarchica), sarà molto difficile «forzarla» in modo da usarla diversamente da come è stata progettata”. Viceversa se è una piattaforma F/LOSS è possibile modificarla secondo le proprie esigenze didattiche. Ancora più importante del finanziamento di Wescool è stato un’altra caso che mi ha lasciato stupefatto. Il consorzio GARR è la rete nazionale a banda ultralarga dedicata alla comunità dell’istruzione e della ricerca. Si tratta di un’associazione senza fini di lucro fondata sotto l’egida del Ministero dell’Istruzione, dell’Università e della Ricerca. Gli enti soci sono CNR, ENEA, INAF, INFN e tutte le università italiane rappresentate dalla Fondazione CRUI. Durante il lockdown GARR ha messo a disposizione gratuitamente alcuni strumenti per la DaD basati su software F/LOSS ma non è mai stato menzionato, né consigliato dal Ministero dell’Istruzione che pure è tra coloro che hanno contribuito a dar vita al consorzio. Eppure ha una policy per la protezione della privacy in cui dichiara che non usa i dati degli utenti per scopi di profilazione. Eppure GARR mette a disposizione un servizio di cloud computing dedicato a scuole, università e centri di ricerche, che consente di installare in maniera molto semplice, nei server messi a disposizione, piattaforme e strumenti F/LOSS per la didattica. Anche in questo caso però l’indicazione alle scuole e università da parte del Ministero è stato ed è tutt’ora quello di servirsi dei cloud e delle piattaforme proprietarie delle grandi multinazionali della tecnologia (Google, e Microsoft in primis). Il cloud offerto dal GARR insieme alla scelta di utilizzare software libero per la didattica potrebbe essere la base che consentirebbe alle scuole e alle università di organizzarsi secondo le proprie esigenze, invece che secondo le esigenze delle grandi multinazionali, e valorizzare le competenze territoriali affidandosi a entità sociali ed economiche locali. Ne ho parlato in “La libertà di insegnamento. Sottotitolo: il software deve essere libero” Da: Formare… a distanza? ~ Didattica fuori dall’emergenza! ~ CC 4.0 (BY-NC-SA) Il motivo per cui il MIUR non abbia segnalato e invitato le scuole e le università ad utilizzare i servizi del GARR resta un Ministero tutt’ora irrisolto. Didattica a Distanza, seconda ondata ©, .
Davvero abbiamo bisogno di tutti questi dati?
In questo periodo di accelerazione dell’uso del digitale generato dalla pandemia si sente molto parlare, almeno fra gli addetti ai lavori, di battaglia sul cloud, di dati come nuovo petrolio e di sovranità digitale. Molti osservatori sostengono anche che dal risultato di questa battaglia dipenderà la sopravvivenza dell’Europa come potenza economica. Sintetizziamo il ragionamento per sommi capi: i dati sono la materia prima fondamentale per l’economia e le società contemporanee. Bisogna quindi controllarli, proteggendo i cittadini e le imprese europee che li utilizzano economicamente per trarne profitto. Bisogna inoltre contrastare lo strapotere tecno-economico di Stati Uniti e Cina. A tal fine è necessario che i cittadini e le imprese siano garantiti contro l’utilizzo “malvagio” dei dati. Ovvero bisogna impedire che potenze straniere e conglomerate Big Tech extra europee li utilizzino per attuare forme di controllo o di manipolazione dei comportamenti attraverso la pubblicità commerciale e politica “targettizzata” (Shoshana Zuboff , Il capitalismo della sorveglianza). All’interno di questo schema generale, vediamo cosa è successo in questo periodo. La Corte di Giustizia Europea ha invalidato l’accordo, detto “Privacy Shield”, tra l’Unione Europea e gli Usa (https://www.valigiablu.it/corte-giustizia-europa-privacy-shield/) (Sentenza del 16 luglio 2020 nella causa C-311/18 promossa dall’attivista Maximiliam Schrems). Che vuol dire? Significa che secondo l’Unione Europea le norme per tutelare la protezione dei dati personali in vigore negli USA e applicate dalle imprese statunitensi non sono adeguate a quelle che la UE garantisce ai propri cittadini. In pratica, con questo pronunciamento i dati dei cittadini Italiani non possono essere inviati e archiviati negli USA. Ovvero tutte le aziende che utilizzano servizi cloud basati perlopiù in territorio statunitense (Amazon, Microsoft Azure) dovrebbero spostarli in Europa. Inoltre Facebook, Google, Tik Tok e via dicendo non possono più usare i dati degli utenti elaborandoli e archiviandoli negli USA, il che significherebbe che quei servizi non potrebbero più funzionare. Lo testimoniano le dichiarazioni di Yvonne Cunnane, responsabile protezione dati di Facebook Irlanda, che dichiara: ‘Con lo stop al trasferimento dati degli utenti europei negli Usa non è chiaro come Facebook ed Instagram potrebbero ancora funzionare nella UE’. https://www.privacyitalia.eu/stop-al-trasferimento-dati-negli-usa-facebook-e-instagram-a-rischio-chiusura-nellue/13751/ Ma al momento sembra tutto funzionare come prima, come se nulla fosse accaduto. Il consorzio Gaia-X (https://www.data-infrastructure.eu/GAIAX/Navigation/EN/Home/home.html), presentato dal governo tedesco a fine 2019, è stato rilanciato alla fine della primavera del 2020, con la partecipazione della Francia, per includere le aziende europee che si occupano di fornire servizi in Cloud. Lo scopo è quello di creare un consorzio di aziende europee che possano sostituire le Big Tech americane e cinesi nell’offerta di Cloud. I primi servizi che dovrebbero migrare dai Cloud americani a quelli europei dovrebbero essere le Pubbliche Amministrazioni, a seguire le aziende private. Al momento non è chiaro che tipo di infrastruttura verrà costruita da Gaia-X, tanto che sembra che a certe condizioni potranno avere il bollino del consorzio Gaia-X anche Google, Amazon, Microsoft e Alibaba, cioè aziende americane e cinesi. (https://www.key4biz.it/gaia-x-cose-veramente-anche-google-amazonco-possono-ricevere-il-bollino-del-progetto/320135/). La terza novità riguarda specificamente l’Italia. Il governo sta spingendo per la creazione di una società unica per gestire le infrastrutture italiane della rete a banda larga che consenta all’Italia di colmare il ritardo rispetto ai principali paesi europei in modo da dare una copertura adeguata anche alle molte zone non ancora raggiunte da una connessione sufficiente alle accresciute necessità di utilizzo di rete ad alta velocità (da “Il Post”, Perché si riparla di “rete unica”: https://www.ilpost.it/2020/09/01/rete-unica-tim-cassa-depositi-e-prestiti-accessco-fibercop/). Durante il lockdown è stato evidente quanto ancora fosse ampio il divario digitale esistente in Italia. La didattica a distanza così come il telelavoro hanno fortemente risentito del digital divide. Per questo il Governo Italiano ha deciso di creare un unico attore che metterà insieme la rete fissa di Tim con quella di Open Fiber, azienda controllata da Cassa Depositi e Prestiti e da Enel. Infine, dobbiamo riportare l’attenzione sul 5G. Al di là dei dubbi sui danni che le emissioni elettromagnetiche potrebbero provocare alla salute degli umani, di cui non mi occuperò in questo scritto, la connettività mobile di quinta generazione ha la caratteristica tecnica di abbassare la latenza, cioè il tempo che intercorre tra quando un dato è inviato e quando arriva a destinazione, e di aumentare l’ampiezza di banda. Traduzione: rende disponibile una maggiore velocità nella trasmissione di dati. A beneficiare del 5G saranno principalmente le applicazioni nel campo della telemedicina, dell’IoT (Internet of Things, Internet delle Cose), delle automobili a guida autonoma, della videosorveglianza. Ma, viste le premesse, sembra chiaro che l’aumento della qualità e della disponibilità della connettività serve a fare in modo che gli utenti siano perennemente connessi e producano quindi il cosiddetto nuovo petrolio: i dati! Questo per quanto riguarda la cornice complessiva. Passiamo al contenuto del quadro: i dati. Se da un lato sembra che la UE stia facendo una battaglia per difendere i dati dei cittadini europei, dall’altro bisogna prestare attenzione alla natura dei dati e al valore che hanno per le grandi imprese della tecnologia. La domanda che nessuno fa è la seguente: davvero abbiamo bisogno di memorizzare tutti questi dati? Quali sono i dati che servono veramente agli utenti/cittadini/consumatori? Quali sono invece quelli che servono solo alle Big Tech? Non mi riferisco ai dati inviati più o meno consapevolmente utilizzando le varie app dei nostri cellulari: da Facebook, a Twitter, a Google maps, etc.. Anche su questi bisognerebbe riflettere: a chi sono veramente utili? Ma voglio attirare l’attenzione sui dati che inviamo, e che invieremo nel prossimo futuro, semplicemente camminando o guardando una vetrina, molto spesso senza che ce ne rendiamo conto. Facciamo qualche esempio. Google maps memorizza tutti i nostri spostamenti. Se il mio smartphone ha il GPS acceso e non ho esplicitamente disattivato la cronologia delle posizioni (ma quante persone sanno che esiste questa possibilità?) Google registrerà tutti i miei spostamenti (provate: https://www.google.com/maps/timeline). Ammesso che Google non li memorizzi comunque, a prescindere che io abbia disabilitato o meno l’impostazione di cronologia delle posizioni (cosa plauisibile perché la localizzazione è una delle variabili usate dagli algoritmi per offrirci servizi più aderenti alle nostre esigenze), La registrazione delle posizioni degli utenti consente di profilare e targhettizzare le persone in maniera molto precisa. Per farsi l’ideadi come funziona,supponiamo che nell’ultima settimana io vada tutti i giorni in una clinica ostetrica, che negli scorsi mesi abbia prenotato alcune visite ginecologiche, che abbia fatto degli acquisti di oggetti per neonati e che abbia fatto delle ricerche sul comportamento da tenere da parte di neo-genitori. La memorizzazione della mia posizione, delle mie prenotazioni, dei miei acquisti, delle mie ricerche consente all’algoritmo che deve profilarmi, targhettizzarmi e inviarmi della pubblicità, di ipotizzare con una cerca precisione che sia nata mia figlia e che io devo acquistare dei pannolini. A questo punto sarò inondato di pubblicità di pannolini acquistabili probabilmente vicino alla clinica o online. Ma io non ho bisogno che mi venga indicato quale marca di pannolini comprare e dove comprarli, ne troverò di adatti a mia figlia e alle mie tasche facilmente senza bisogno della pubblicità che mi viene inviata in maniera così precisa. Dunque la memorizzazione e conservazione dei miei spostamenti è utile esclusivamente a Google e agli inserzionisti pubblicitari. Le Smart City sono uno di quei concetti tuttofare a cui si attribuisce il potere di risolvere i problemi che affliggono le nostre metropoli. Con Smart City si intendono le “strategie di pianificazione urbanistica correlate all’innovazione” (https://www.treccani.it/enciclopedia/smart-city_(Lessico-del-XXI-Secolo)/) tecnologica. In pratica: collocare nelle città molti sensori e telecamere collegate a grandi server che immagazzinano i dati, li elaborano e automatizzano una serie di comportamenti delle infrastrutture della città. Si va dalla raccolta dei rifiuti “smart” applicando ai contenitori dei sensori di riempimento, ai semafori intelligenti che attraverso la raccolta dei dati della zona in cui sono attivi e la connessione alla rete dovrebbero armonizzare il relativo funzionamento in modo da regolare meglio il traffico. Si prosegue con “Smart parking”, “Smart car” e via dicendo. Le tecnologie abilitanti per le città intelligenti sono considerate parte dell’Internet delle cose (Internet of Things, abbreviato in IoT) che si regge sui Big Data. Il problema è che questa visione di città mette al centro la tecnologia e non i cittadini. Il controllo del territorio e il funzionamento delle infrastrutture delle città sono regolate dagli algoritmi che usano la grande quantità di dati prodotti da sensori e telecamere, invece che da cittadini ed amministratori della cosa pubblica. (a questo proposito c’è un mio articolo che pur essendo del 2013 spiega in maniera chiara la differenza tra le due visioni: https://graffio.noblogs.org/post/2013/11/15/smart-city-si-ma-dal-basso-ed-ecosostenibili/) In tema di “Smart Car “e “Smart Mobility”, le automobili a guida autonoma, in un futuro probabilmente non molto lontano sbarcheranno anche in Italia. Per come sono state progettate hanno bisogno di inviare costantemente ai server i dati rilevati dai sensori e dalle telecamere con cui sono equipaggiate. I server elaborano i dati e rispondono come devono comportarsi le auto (chissà perché non possono avere il software installato in locale?). Per far funzionare un sistema simile sarà necessaria una copertura della rete mobile affidabile, a banda larga e pressoché totale. Per questo la connessione di quinta generazione è fondamentale. Ma anche in questo caso non ho sentito né letto la domanda di cui sopra: per migliorare la vita delle persone che vivono nei grandi agglomerati urbani, abbiamo veramente bisogno delle auto a guida autonoma (che rimarrebbero in ogni caso imbottigliate nel traffico cittadino), delle IoT, dei semafori intelligenti, e di memorizzare le migliaia di dati prodotti da queste tecnologie? Il miglioramento e il potenziamento dei trasporti pubblici urbani ed extraurbani sarebbe molto più utile alla vivibilità delle nostre città come anche una maggiore flessibilità negli orari di lavoro e una buona dose di smart working aiuterebbe certamente la decongestione del traffico delle città. Altro settore in continua espansione nella raccolta dati è quello delle case intelligenti, o della domotica. I vari assistenti personali offerti da Google, da Amazon, da Apple consentono di comandare con la voce i nostri elettrodomestici collegati in rete: “Alexa accendi il televisore”, “Ehi Google regola l’acqua calda” e così via. Le richieste vocali però non vengono elaborate dai dispositivi locali, che avrebbero tutte le risorse software e hardware per farlo; anche in questo caso vengono invece inviate via rete a dei server che, oltre ad elaborare le richieste, memorizzano i comandi vocali con il duplice scopo di addestrare i sistemi alle diverse voci degli utenti e di profilarne i comportamenti. Anche partendo dall’assunto (che chi scrive non condivide) che gli assistenti siano degli strumenti effettivamente utili, non c’è alcun motivo per cui i miei “dialoghi” con il mio o la mia assistente debbano essere memorizzati, ovviamente non in un dispositivo locale, ma in cloud, che, ricordiamolo, non è altro che un sistema di datacenter di proprietà dei costruttori degli assistenti personali. Se questo avviene è solo perché la mia voce e i miei comandi agli assistenti servono per meglio determinare le mie abitudini, attitudini, gusti, etc.. In ultima analisi lo scopo è anche in questo caso migliorare la mia profilazione. Gli elettrodomestici connessi in rete stanno aumentando continuamente (caldaie, televisori, lavatrici, frigoriferi, etc.). Nel caso del frigorifero lo scenario è paradigmatico. Attraverso dei sensori e lettori di codici a barre con sui saranno equipaggiati, i frigoriferi saranno in grado di conoscere pressoché tutto dei miei gusti e delle mie abitudini alimentari. Lo scopo dichiarato dell’applicazione dell’IoT è quello di aiutarmi nella spesa: il frigorifero connesso ad internet si accorgerà che ho finito la birra e mi ordinerà automaticamente la mia marca preferita (purché io abbia il credito necessario, altrimenti potrò sempre vedere dei video promozionali obbligatori, come in uno dei racconti di “Internet, mon amour”, di Agnese Trocchi: https://ima.circex.org/storie/1-fuoricasa/7-IoT.html). Penserà un drone a consegnarmela! È chiaro che questo scenario cambierà completamente il mio rapporto con il cibo. Provare alimenti fuori dalla grande distribuzione sarà sempre meno possibile, scoprire sapori genuini diventerà sempre più difficile. Ma siamo davvero noi utenti a beneficiare di questa tecnologia e della memorizzazione di questa quantità di dati? Un alert che mi segnala che ho finito la birra potrebbe farmi piacere, così come la possibilità di accendere la caldaia dei termosifoni da remoto prima di tornare a casa potrebbe essere utile (anche se sarebbe sufficiente programmare per bene le temperature della caldaia). Quello di cui invece sono profondamente convinto è che qualsiasi automatismo nell’acquisto di beni e servizio non è utile a me, ma solo a chi vuole vendermi qualcosa. L’algoritmo che mi compra la birra che uso normalmente (oltretutto “normalmente” non è altro che un dato statistico, e potrebbe essere momentaneo, magari dovuto a condizioni economiche, etc.) utilizzando i dati che ha memorizzato mi arreca un danno più che un servizio. Certamente un servizio lo fornisce invece a chi mi vende la birra. Il passaggio della pubblicità targhettizzata viene addirittura saltato, per passare direttamente a farmi acquistare ciò che ha deciso qualcun altro. Infine, in tema video sorveglianza e riconoscimento facciale, ecco un esempio di uso delle telecamere connesse a internet apparentemente poco invasivo. Ogni volta che in un centro commerciale passiamo davanti a un monitor pilotato con la tecnica del digital signage, ci sarà una telecamera che ci inquadrerà e utilizzerà il riconoscimento facciale per vedere chi siamo, incrocerà i dati che riesce a ricavare dal riconoscimento con altri che ha memorizzato e cambierà le immagini proposte nel monitor in funzione di quello che un algoritmo crede sia di maggior interesse. Siamo sicuri che la registrazione e conservazione dei dati relativi alla nostra frequentazione in quella posizione in quel dato giorno siano effettivamente utili a noi, utenti e consumatori “evoluti”? O piuttosto non siano utili esclusivamente al proprietario del centro commerciale al fine di farci rimanere più tempo o fare in modo che compriamo determinati prodotti che l’algoritmo di turno ci suggerirà? O in ultima analisi saranno dati che contribuiranno a costruire il mio profilo a uso degli algoritmi che suggeriranno qualcosa da vendermi? Queste sono alcune delle domande a proposito dell’utilità della produzione e raccolta dei dati che mi sono venute in mente, ma è un esercizio che può fare chiunque. Ogni volta che ci rendiamo conto che alcuni dati da noi prodotti vengono inviati in rete e memorizzati in qualche data center sperduto nel mondo, fra l’altro in barba alle regolamentazioni europee, domandiamoci: “a chi è utile la raccolta di questi dati?” Quel che mi preme sottolineare con questa serie di esempi è che la questione in gioco non è solo chi controlla i dati, come sostengono i fautori della sovranità tecnologica, ma perché vengono memorizzati e conservati i dati. A chi giovano? Chi ne beneficia? Purtroppo questo tema è completamente assente dal dibattito relativo alla battaglia sul cloud, che in ultima analisi non è altro che una battaglia per il controllo dei dati, dalla quale i cittadini sono sostanzialmente esclusi. Sitografia/bibliografia * Intervista a Bassan (UniRomaTre): ‘La grande sfida è il Cloud, intervenga lo Stato, ma non con il modello TIM-Open Fiber’, Key4biz, luglio 2020 https://www.key4biz.it/f-bassan-uniromatre-la-grande-sfida-e-il-cloud-intervenga-lo-stato-ma-non-con-il-modello-tim-open-fiber/ * Bruno saetta, La Corte europea invalida l’accordo Privacy Shield sul trasferimento dei dati europei e declassa gli Usa, Valigia Blu, luglio 2020 https://www.valigiablu.it/corte-giustizia-europa-privacy-shield/ * Federico Fubini, Cloud, sfida tra Usa ed Europa: la battaglia (sulle nuvole) per l’Italia vale 5 miliardi, Corriere della sera, luglio 2020 https://www.corriere.it/economia/finanza/20_luglio_12/cloud-sfida-usa-ed-europa-battaglia-sulle-nuvole-l-italia-vale-5-miliardi-fa71bc58-c40a-11ea-b958-dd8b1bb69ac3.shtml * Luigi Garofalo, Cloud nazionale invocato da Soro, le condizioni per tenere fuori Amazon, Google e Microsoft, Key4biz, giugno 2020 https://www.key4biz.it/cloud-nazionale-invocato-da-soro-le-condizioni-per-tenere-fuori-amazon-google-e-microsoft/ * Luigi Garofalo, Gaia-X, cos’è veramente? Anche Google, Amazon&Co. possono ricevere il ‘bollino’ del progetto, Key4Biz, settembre 2020 https://www.key4biz.it/gaia-x-cose-veramente-anche-google-amazonco-possono-ricevere-il-bollino-del-progetto/320135/ * Francesca Bria, Un patto sociale verde e digitale per la sovranità tecnologica, luglio 2020 https://www.pandorarivista.it/articoli/un-patto-sociale-verde-e-digitale-per-la-sovranita-tecnologica/ * Agnese Trocchi, Internet, mon amour, settembre 2019 https://ima.circex.org/storie/1-fuoricasa/7-IoT.html * Envisioning Cities is a free and continuously updated emerging technology platform https://cities.envisioning.io * Shoshana Zuboff , Il capitalismo della sorveglianza, Luiss University Press, ottobre 2019 * Massimo Mantellini, Unisci e impera, Il Post, agosto 2020 https://www.ilpost.it/massimomantellini/2020/08/21/unisci-e-impera/ Davvero abbiamo bisogno di tutti questi dati? ©, .
Didattica a distanza: fuori dall’emergenza!
Il lockdown deciso dal governo Italiano e dalla maggior parte dei governi degli Stati a capitalismo avanzato ha determinato un’accelerazione fortissima dell’uso del digitale. Scuole ed università si sono viste costrette ad adottare la didattica a distanza per poter proseguire le lezioni. Questa situazione di emergenza ha fatto venire al pettine tutti i nodi di decenni di immobilismo e distruzione del poco che era stato costruito. Innanzi tutto va detto che gli insegnanti, ma anche gli studenti e, ahimè, i genitori, si sono dovuti far carico della distanza, di inventarsi “a distanza”, poiché poco o nulla è stato sperimentato sotto la guida degli organi competenti e quindi nulla è stato messo a sistema. In ordine sparso, scuole e università hanno tentato di fare buon viso a cattivo gioco, a volte facendo finta di nulla: riprodurre la didattica in presenza attraverso le video chat. Poi, pian piano, sono arrivate le assegnazioni dei compiti da fare a casa; chi attraverso le mail, chi attraverso Google Drive, qualcuno attraverso piattaforme come Edmodo, e così via. Nel frattempo il Ministero ha cominciato a dare indicazioni, tramite la sua pagina web (https://www.istruzione.it/coronavirus/didattica-a-distanza.html), sulle piattaforme per la didattica a distanza da adottare: Google Suite, Office 365, Weschool. Il Ministero, non avendo idee migliori, ha scelto di affidarsi ai grandi sia per le garanzie di affidabilità che offrono, sia per l’abitudine che gli utenti (insegnanti e studenti) hanno già nell’uso di una parte degli strumenti messi a disposizione. È il caso di Google e Microsoft Office. E così, anche nel campo della didattica, è continuato lo scivolamento verso le imprese private di una funzione tipica della Cosa Pubblica. Una esternalizzazione in atto da anni anche in altri settori cruciali, come la sanità. Questo è ciò che è accaduto. Ora, passati tre mesi dalla chiusura forzata delle scuole, tutti coloro che hanno a cuore le sorti della scuola pubblica italiana chiedono che la risposta alla crisi innescata dal Coronavirus sia l’occasione per investire nella scuola: più soldi per l’edilizia scolastica e per assumere insegnanti allo scopo di ridurre il numero di studenti per classe e avere risorse per una didattica migliore che metta al centro la crescita degli studenti. Non è ancora chiaro come riapriranno le scuole a settembre, ma per quanto se ne sa il Ministero vorrebbe “spinge” per la didattica mista: parte in presenza e parte a distanza. Le direttive sono sempre le stesse di tre mesi fa: piattaforme per la DAD delle grandi multinazionali americane, e arrangiatevi! In questo panorama sono spariti completamente il metodo didattico, la libertà di insegnamento, la questione della privacy e dei dati, il digital divide. Proviamo a farli riemergere. Il metodo didattico Gli aspetti dei processi educativi che riguardano le relazioni (un professore attento, un’insegnante che ci dice una parola speciale in un momento particolare, un compagno che ci aiuta o ci ostacola, ecc.) che avvengono nell’aula, o nei corridoi, sembra che siano sfrondate, eliminate dalla didattica a distanza, come fossero un surplus. Ciò che conta è il contenuto e la valutazione quantitativa. E quindi si fa la lezione sincrona attraverso la videochat e si assegnano i compiti inviando schede e test da compilare. Così facendo, però, si perde il cuore della crescita. Inoltre si dimentica che il contesto e le relazioni non sono quantificabili. Per capire quel che sta accadendo bisogna fare un passo indietro. Nella scuola da tempo sta avvenendo un processo di cambiamento della didattica che dà sempre meno importanza alla conoscenza e sempre più alla competenza; in cui l’insegnamento sta lentamente lasciando il passo all’addestramento. Gli studenti sono addestrati all’uso di qualcosa, piuttosto che accompagnati nella relazione a comprendere il funzionamento dei processi (storici, scientifici, etc.). I test INVALSI, validi per l’esame di terza media, ne sono un chiaro segnale. In questa situazione è evidente che il metodo di insegnamento perde di importanza a favore dei contenuti. E di conseguenza favorisce le piattaforme dei colossi (Google, Amazon, Microsoft, Facebook e così via), cresciute a suon di acquisizione di dati e meta-dati, per poi rivenderli, o per profilare le persone in modo da manipolarne gusti e orientamenti sono adattissime: la riduzione della realtà in numeri è il loro mestiere, in questo caso dell’insegnamento. Ma perché mai non si potrebbe applicare un metodo collaborativo utilizzando una delle piattaforme indicate dal MIUR? A causa di come sono realizzate le interfacce utente di quelle piattaforme, e delle relazioni che presuppongono: di utenti/consumatori, non di co-costruttori di apprendimenti significativi. Possiamo pensare l’interfaccia come qualcosa che consente a un umano di entrare in contatto con un oggetto o con un altro umano. In questo senso la forchetta può essere considerata come l’interfaccia tra me e gli spaghetti; è l’artefatto che mi consente di prendere degli spaghetti dal piatto e portarli alla bocca. L’interfaccia delle piattaforme, di tutte le piattaforme, non solo quelle didattiche, condiziona la relazione tra le persone e la macchina e la relazione tra le persone. Se una piattaforma per la didattica a distanza è progettata in modo rigido, non consente di aggiungere contenuti agli studenti, di scrivere in maniera collaborativa (ovvero a più studenti sullo stesso file), non permette la relazione tra gli studenti, è evidente che sarà molto difficile fare didattica in maniera cooperativa. Inoltre, se la relazione pregressa fra insegnante e studente è esclusivamente frontale, improntata a impartire una lezione passibile di valutazione, la didattica a distanza tenderà a esacerbare le carenze della didattica in presenza. In breve: se l’ambiente digitale per l’apprendimento con il passare del tempo non rilascia il controllo agli studenti è una piattaforma che non consente di condividere saperi (http://steve.lynxlab.com/?p=633)). La libertà di insegnamento sottotitolo: il software deve essere libero Dunque, se una piattaforma piuttosto che un’altra determina il metodo didattico, ne consegue che se una piattaforma è disegnata per un certo tipo di interazione e relazione tra gli umani invece che per un altro (collaborativa/gerarchica), sarà molto difficile “forzarla” in modo da usarla diversamente da come è stata progettata. Molto banalmente, se non è previsto che sia possibile per gli studenti commentare un contenuto inserito dal docente, quell’attività didattica non si potrà fare. Si dirà: ma è una funzionalità che si può aggiungere. Purtroppo no, perché le piattaforme dei Big Tech non sono piattaforme F/LOSS (Free/Libre Open Source Software). Non è possibile cioè installarle nello spazio di una scuola e modificarne interfaccia e funzionamento. Per fortuna esistono delle piattaforme didattiche F/LOSS (Moodle, ILIAS, ADA, ecc.), che possono essere installate sui server di scuole ed università, magari in maniera federata; possono essere modificate e migliorate, i miglioramenti possono (anzi devono) essere condivisi e resi disponibili a chiunque trovasse quei miglioramenti utili. Ovviamente tutto ciò necessita di impegno da parte di dirigenti scolastici ed insegnanti. I dirigenti scolastici dovrebbero dirottare verso le piattaforme F/LOSS risorse economiche utilizzate altrimenti per licenze di programmi proprietari (da Office 365, alle piattaforme didattiche proprietarie, che finita l’offerta per la pandemia Covid-19 torneranno probabilmente a pagamento, anche se Google garantisce il contrario. Qui i prezzi dell’offerta BigG: https://gsuite.google.com/pricing.html). Adottare strumenti Open Source ha anche altre conseguenze positive, tra le quali quella di tenere le risorse economiche necessarie sul territorio. Non è questa la sede per affrontare il discorso, ma su come far ripartire l’economia potrebbe essere un contributo non indifferente: invece di pagare piattaforme proprietarie e inviare denaro fuori dall’Italia e dall’Europa, la didattica finanzierebbe il lavoro locale. Un’architettura basata su server locali federati, con software Open Source, consentirebbe anche un controllo della tecnologia da parte di chi è vicino agli utilizzatori finali, il che aiuterebbe ad affrontare con le giuste contro-misure le situazioni di emergenza. Per esempio: le scuole sanno perfettamente quanti sono gli iscritti e quindi potrebbe dimensionare in maniera corretta la banda internet necessaria alle video-conferenze per le lezioni a distanza. Nota: per semplicità in questo articolo ho scritto di Software Libero e Open Source come fossero la stessa cosa. Chi volesse approfondire differenze e similitudini può leggere la “filosofia del software libero” (https://www.gnu.org/philosophy/free-sw.en.html) e Open Source Initiative (https://opensource.org/osd). Aperto non significa libero. Dati e Privacy L’Europa si è dotata del GDPR (General Data Protection Regulation), un regolamento Europeo diventato operativo anche in Italia a partire dal maggio 2018. Lo scopo del GDPR è quello di rinforzare le regole in materia di protezione dei dati personali dei cittadini dell’Unione Europea. Attenzione però: quasi tutte le piattaforme indicate dal MIUR sono di proprietà di multinazionali statunitensi. È vero che hanno giurato e spergiurato di attenersi al nostro regolamento, alcune hanno firmato accordi di Safe Harbour (porto sicuro, approdo per i dati), ma io non correrei il rischio di aver male interpretato i termini di servizio o di essere soggetto alle oscure trame a cui ci ha abituato Facebook (vedi per esempio il caso Cambridge Analytica). Ma anche volendo credere alla buona fede e alla capacità effettiva delle Big Teck di tenere separati i dati Europei dagli Americani, c’è un altro tema non meno importante, che riguarda in particolare Google. Come sappiamo la multinazionale californiana ha fatto dei dati (e dei metadati) il proprio core business, investendo molto anche in intelligenza artificiale e machine learning. Si tratta di tre campi di applicazione del digitale (dati, machine learning, Intelligenza Artificiale) strettamente connessi. In questa situazione di emergenza, Google è nella condizione di acquisire una quantità mostruosa di dati dei nostri studenti ed insegnanti e di contenuti prodotti dai docenti, una quantità e qualità inedita nella storia del digitale. Con questi dati e le tecniche di machine learning e IA Google potrà offrire in un futuro molto vicino contenuti didattici prodotti automaticamente che, oltretutto, avranno come caposaldo il metodo dell’addestramento, visto che la piattaforma didattica che propone e attraverso la quale raccoglie i dati è disegnata per questo metodo didattico. E torniamo da capo! Digital divide Una delle ragioni per cui in Italia non si è sperimentato molto la didattica a distanza è proprio il digital divide. Si articola in due parti: una strutturale e una relativa alle competenze. Quella strutturale è presto descritta: non tutti hanno un computer disponibile a casa, soprattutto in questi tempi in cui la famiglia è tutta a casa. Fuori dalle mura delle grandi città non c’è una connessione che consenta di poter partecipare alla didattica. Le scuole che dispongono di una banda sufficiente sono intorno al 10% del totale. C’è poi una questione legata al modello di informatica e di rete che si è voluto incentivare: la vera e propria ideologia del mobile first (prima per i dispositivi mobili) ha portato con sé due conseguenze importanti. La prima è che si è privilegiata la connettività mobile (4g, 5g) invece che cablare il territorio nazionale, con il risultato che la connettività è altalenante, poco stabile, in mano alle imprese private e probabilmente nociva per la salute a causa delle fortissime e soprattutto pervasive emissioni elettromagnetiche. La seconda, alimentata anche dalla demagogia dei nativi digitali, è che si è voluto far credere che con uno smartphone o con un tablet fosse possibile fare qualsiasi attività che riguardasse il digitale, mentre in questi giorni viene mostrata in maniera chiara tutta la falsità di tale convinzione: non è possibile fare didattica a distanza in maniera seria con uno smartphone o un tablet. Schermi troppo piccoli, mancanza di tastiera e così via. L’altro aspetto è quello delle competenze. La nostra classe docente è carente di molte delle competenze necessarie all’uso delle tecnologie per uno scopo didattico, è vero. Nessuno si è mai preoccupato di fare formazione in maniera massiva, e anzi ci hanno fatto credere che si trattasse di un problema generazionale, come se l’attuale classe docente non avesse le carte in regola per fare il passaggio al digitale, quando sappiamo bene che con una formazione adeguata e un impegno dedicato e motivato chi è nato nel secolo scorso può benissimo sviluppare le competenze e le abilità necessarie per lavorare bene sulle piattaforme online. Ci hanno fatto credere che  quando gli attuali nativi digitali sarebbero diventati grandi, e quindi insegnanti, non ci sarebbe stata più una carenza di competenze. E invece, anche in questo caso, stiamo scoprendo che non è vero! I nativi digitali sono abili a “maneggiare” gli smartphone, ma non sanno come funziona la rete. Confondono browser con motore di ricerca, ed entrambi per loro coincidono semplicemente con Google. Non conoscono il funzionamento del web e confondono una URL con una stringa di ricerca. Su questo argomento consiglio la lettura dell’articolo di Mantellini su Internazionale, “Il divario digitale è una zavorra per l’Italia”: https://www.internazionale.it/opinione/massimo-mantellini/2020/03/23/coronavirus-divario-digitale-scuola C’è da rimboccarsi le maniche, ripensare lo sviluppo della didattica a distanza e più in generale il digitale. Ripensarlo avendo bene in mente le esigenze delle persone, invece che delle grandi aziende private. Questo è solo il primo di una serie di interventi che si seguiranno qui o in altri luoghi virtuali (per il momento). Buon lavoro! Riferimenti: * ADA (Ambiente Digitale di Apprendimento). Piattaforma e-learning Open Source https://learning.lynxlab.com * ILIAS. Piattaforma e-learning Open Source https://www.ilias.de/en/ * Moodle. Piattaforma e-learning Open Source https://moodle.org/ * Cos’è il software libero https://www.gnu.org/philosophy/free-sw.en.html * Open Source Initiative https://opensource.org/osd * GDPR (Regolamento Generale sulla Protezione dei Dati**)** https://it.wikipedia.org/wiki/Regolamentogeneralesullaprotezionedei_dati * Didattica a distanza – Ministero dell’Istruzione e Ministero dell’Università e della Ricerca https://www.istruzione.it/coronavirus/didattica-a-distanza.html * Steve’s. Apprendimento digitale e dintorni http://steve.lynxlab.com/ * Aspetti “economici” della didattica a distanza, in scacco al web https://scaccoalweb.wordpress.com/2020/04/08/aspetti-economici-sulla-didattica-a-distanza/ * Mantellini M., Il divario digitale è una zavorra per l’Italia in “Internazionale” https://www.internazionale.it/opinione/massimo-mantellini/2020/03/23/coronavirus-divario-digitale-scuola * Testa A., Il prologo poco conosciuto del caso Cambridge Analytica, in “Internazionale” https://www.internazionale.it/opinione/annamaria-testa/2018/04/04/dati-facebook-cambridge-analytica * Ippolita, Tecnologie del dominio, Meltemi 2017 https://www.ippolita.net/tecnologie-del-dominio-lessico-minimo-di-autodifesa-digitale/ * Ippolita, Il lato oscuro di Google, Milieu 2018 https://www.ippolita.net/il-lato-oscuro-di-google-dominio-degli-algoritmi/ * Del Rey A., La tirannia della valutazione, Eleuthera 2018 https://eleuthera.it/scheda_libro.php?idlib=455# * Trocchi A., Internet Mon Amour – Cronache prima del crollo di ieri, Ledizioni 2019 https://circex.org/it/ima/ * C.I.R.C.E. Centro Internazionale di Ricerca per la Convivialità Elettrica https://circex.org/ * Pillole di informazione digitale https://graffio.noblogs.org * Pedagogia hip-hop / Davide Fant Blog https://www.pedagogiahiphop.org/ Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Condividi allo stesso modo 4.0 Internazionale. Didattica a distanza: fuori dall’emergenza! ©, .
Didattica a distanza: Riflessioni su metodo e contenuto, piattaforme e big tech, conoscenza e competenze
Il podcast di una chiacchierata a proposito di Didattica a distanza ed e-learning durante l’ora di buco, trasmissione sulla scuola in onda tutti i martedì su Radio Onda Rossa. Didattica collaborativa vs didattica frontale? E’ possibile riprodurre la lezione frontale in classe attraverso le videochat? Il meteodo e il contenuto. La scelta delle piattaforme determina il metodo didattico. Sulla questione del divario digitale, che pure è fondamentale quando si parla di didattica e lavoro a distanza consiglio l’articolo di Mantellini su Internazionale: Il divario digitale è una zavorra per l’Italia Didattica a distanza: Riflessioni su metodo e contenuto, piattaforme e big tech, conoscenza e competenze ©, .
Giocare o essere giocati – Laboratori online durante il lockdown
LABORATORI DI PEDAGOGIA HACKER a cura di C.I.R.C.E e Maurizio “Graffio” Mazzoneschi     SECONDO INCONTRO SPERIMENTALE: “GIOCARE O ESSERE GIOCATI” Piattaforme social, videogiochi e dipendenze Dopo la buona riuscita del primo incontro online del LABORATORIO DI PEDAGOGIA HACKER, abbiamo deciso di proseguire su questa strada. Venerdì 3 aprile dalle 16-19 si terrà il secondo incontro, dal titolo “Giocare o essere giocati”, per un numero massimo di 20 partecipanti sulla piattaforma JITSI. Giocare o essere giocati – Laboratori online durante il lockdown ©, .
Tinder: “swippare” all’infinito – art
Il primo video di una serie di 8, realizzati da arte.tv Passi delle ore a swippare senza riuscire a fermarti? È normale: l’app Tinder si basa sul meccanismo della  “ricompensa aleatoria”. Come in una slot machine, ogni volta qui swippi appare un profilo che ti piace o non ti piace, attivando automaticamente la secrezione di dopamina che ti spinge a swippare ancora, all’infinito, fino a che il gesto non si trasforma in un automatismo. E ti costringe a pagare a per poterlo fare senza limiti… Social network e app come Tinder, Facebook, Instagram, Candy Crush, Snapchat, Twitter e Uber sono concepite per stimolare nel nostro cervello la produzione della dopamina: la molecola che regola le sensazioni di piacere, motivazione e dipendenza. Questa serie è una guida dei meccanismi che ci tengono incollati allo smartphone. Tinder: “swippare” all’infinito – art ©, .
Cine(rd) forum a Forte Prenestino
Un percorso cinematografico tra le attualità del mondo hacker per avvicinarsi all’hackmeeting. Sono quattro i film proposti, dall’InsomniaLab, al Centro Sociale Forte Prenestino (Roma) dal 31 marzo al 12 maggio. Si tratta di film documentari su argomenti e personaggi che hanno segnato e segnano la storia dell’informatica alternativa alle gradi multinazionali del digitale. Sono storie di geni e carcere, di ribellioni e repressione, ma soprattutto sono storie che fanno riflettere sull’uso della tecnologia. Cosa c’è dentro queste scatole “magiche” che usiamo quotidianamente senza chiederci nulla sui processi che ne permettono il funzionamento? Chi ha interesse a far si che funzionino nel modo in cui oggi funzionano? E’ possibile fare in modo che funzionino diversamente? E cosa succede a chi cerca di cambiare le cose? Queste domande spesso sono le stesse che gli hackers italiani si pongono durante l’hackmeeting, l’annuale incontro che si tiene tutti gli anni (quest’anno a Napoli dal 19 al 21 giugno). E’ anche per questo motivo che il ciclo di film vuole essere sia uno stimolo per discutere dei temi proposti dai documentari, sia come tappe di avvicinamento ad HackIt!! Le proiezioni sono in lingua originale con sottotitoli in italiano. I film 31 marzo – Internet’s Own Boy Film documentario (durata 120 min – USA 2014), scritto, diretto e prodotto da Brian Knappenberger.È la storia del programmatore, scrittore e attivista Aaron Swartz, morto suicida un anno prima. Swartz rinuncia a guadagni milionari, dopo la vendita di Reddit (che aveva cofondato), e si butta a capofitto nella battaglia politica contro le multinazionali del digitale. Fonda decine di associazioni che si battono contro il copyright, per la libertà di espressione, contro la repressione. Contribuisce a ideare e mettere a punto le licenze creative commons. Viene accusato di aver scaricato illegalmente materiale scientifico da una biblioteca online. L’FBI decide di farne un caso che serva da esempio per chi vuole battersi contro le ingiustizie del digitale. Swartz rischia 35 anni di carcere. Non regge alla pressione e si toglie la vita a soli 27 anni. Il film è rilasciato con licenza creative commons. 14 aprile – TPB AFK The Pirate Bay Away From Keyboard. Documentario (durata: 82 minuti – Svezia 2013), realizzato dal regista Simon Klose, focalizza l’attenzione sulle vicende legali dei fondatori di The Pirate Bay: Peter Sunde, Fredrik Neij e Gottfrid Svartholm. Nel 2009 sono stati dichiarati colpevoli di aver promosso l’infrazione del Diritto d’autore tramite il sito di ricerca di file torrent The Pirate Bay, e condannati a scontare un anno di prigione e pagare 30 milioni di corone svedesi (2,7 milioni di euro). Il film è stato finanziato attraverso il crowdfunding, e rilasciato con licenza creative commons. 28 aprile  – We are the Legion Film documentario di Brian Knappenberger, è dedicato al mondo dell’hacktivism e non solo ad Anonymous. WE ARE LEGION: The Story of the Hacktivists, (durata 93 min – USA 2012)  conduce lo spettatore all’interno della cultura de the Dead Cow e dell’Electronic Disturbance Theater. Poi si sposta nelle confuse origini della “Legione” nel sito web 4Chan. “Il regista ha voluto ripercorrere, in oltre novanta minuti di film, l’evoluzione del fenomeno Anonymous all’interno dei più generali movimenti di attivisti che stanno operando in questi ultimi anni. Gli aspetti interessanti, trattati, sono diversi. Il film si può, senza far torto al regista, dividere in tre grandi parti: 1) le origini e il tentativo di inquadrare il fenomeno, 2) la prima, grande lotta contro Scientology e lo sparti-acque costituito dall’alleanza con Julian Assange/WikiLeaks e 3) la guerra aperta alle grandi società e il supporto agli attivisti che operano in regimi oppressivi.” (fonte: articolo di Giovanni Ziccardi). 12 maggio – Red! Documentario della casa cinematografica indipendente BSM (durata 60 min – Turchia 2012) sul leggendario gruppo di hacker turchi, RedHack, da sempre schierati dalla parte dei movimenti sociali e dell’informazione libera. Il regista Mustafa Kenan Aybastı non si limita alla scena turca, e in sessanta minuti di filmato aiuta a comprendere meglio il mondo dell’hacktivismo. Il collettivo RedHack, fondato nel 1997, si è contraddistinto per il suo appoggio alla causa Curda e alla rivolta di Gezi Park del giugno 2013. Ma la loro, forse, più importante attività è stata l’intrusione della rete del Concilio Turco per l’Alta Educazione, dai cui database erano emersi decine di migliaia di documenti che testimoniavano quanto il fenomeno della corruzione fosse radicato nella gestione del sistema educativo del paese. Tutte attività costate care agli attivisti di RedHack, arrestati ed accusati di diversi reati.   Cine(rd) forum a Forte Prenestino ©, .