Tag - digitalizzazione

Socialismo digitale in Cina: innovazione e percorsi abilitati dalla tecnologia
Nell’attuale contesto storico dominato da un’ondata globale di digitalizzazione, le tecnologie digitali stanno penetrando in ogni angolo della società con una profondità e una ampiezza senza precedenti, trasformando radicalmente i modi di produzione e di vita delle persone. Il Rapporto sul lavoro del governo 2025 propone di stimolare la vitalità […] L'articolo Socialismo digitale in Cina: innovazione e percorsi abilitati dalla tecnologia su Contropiano.
Intelligenza Artificiale: «Possiamo proteggere la privacy solo collettivamente»
Open source, pochi cookie, ad blocker, svuotamento della cache: tutto questo aiuta solo in misura limitata. È necessario controllare gli algoritmi. > «Immaginate di candidarvi per un posto di lavoro. Sapete di essere un > candidato promettente con un curriculum eccellente. Ma non ricevete nemmeno > una risposta. Forse lo intuite: per la preselezione dei candidati viene > utilizzato un algoritmo di intelligenza artificiale. Ha deciso che > rappresentate un rischio troppo grande. > > Forse l’algoritmo è giunto alla conclusione che non siete adatti alla cultura > aziendale o che in futuro potreste comportarvi in modo tale da causare > attriti, ad esempio aderendo a un sindacato o mettendo su famiglia. Non avete > alcuna possibilità di comprendere il suo ragionamento o di contestarlo». Il professor Maximilian Kasy illustra così quanto già oggi siamo in balia degli algoritmi di IA. Kasy è professore di economia all’Università di Oxford e autore del libro «The Means of Prediction: How AI Really Works (and Who Benefits)». In italiano: «La capacità di prevedere: come funziona davvero l’IA (e chi ne trae vantaggio)». Kasy avverte che gli algoritmi dell’I.A. potrebbero privarci del nostro lavoro, della nostra felicità e della nostra libertà, e persino costarci la vita. > «È inutile preoccuparsi di proteggere la propria privacy digitale, anche se si > mantengono riservati la maggior parte dei dettagli personali, si evita di > esprimere la propria opinione online e si impedisce alle app e ai siti web di > tracciare la propria attività. All’intelligenza artificiale bastano i pochi > dettagli che ha su di voi per prevedere come vi comporterete sul lavoro. Si > basa su modelli che ha appreso da innumerevoli altre persone come voi». Kasy > ha fatto questa triste constatazione in un articolo pubblicato sul New York > Times. Concretamente, potrebbe funzionare così: le banche non utilizzano i clic individuali, ma algoritmi appositamente progettati per decidere chi ottiene un prestito. La loro IA ha imparato dai precedenti mutuatari e può quindi prevedere chi potrebbe trovarsi in mora. Oppure le autorità di polizia inseriscono negli algoritmi dati raccolti nel corso di anni su attività criminali e arresti per consentire un «lavoro di polizia preventiva». Anche le piattaforme dei social media utilizzano non solo i clic individuali, ma anche quelli collettivi per decidere quali notizie – o disinformazioni – mostrare agli utenti. La riservatezza dei nostri dati personali offre poca protezione. L’intelligenza artificiale non ha bisogno di sapere cosa ha fatto una persona. Deve solo sapere cosa hanno fatto persone come lei prima di lei. Gli iPhone di Apple, ad esempio, sono dotati di algoritmi che raccolgono informazioni sul comportamento e sulle tendenze degli utenti senza mai rivelare quali dati provengono da quale telefono. Anche se i dati personali degli individui fossero protetti, i modelli nei dati rimarrebbero invariati. E questi modelli sarebbero sufficienti per prevedere il comportamento individuale con una certa precisione. L’azienda tecnologica Palantir sta sviluppando un sistema di intelligenza artificiale chiamato ImmigrationOS per l’autorità federale tedesca responsabile dell’immigrazione e delle dogane. Il suo scopo è quello di identificare e rintracciare le persone da espellere, combinando e analizzando molte fonti di dati, tra cui la previdenza sociale, l’ufficio della motorizzazione civile, l’ufficio delle imposte, i lettori di targhe e le attività relative ai passaporti. ImmigrationOS aggira così l’ostacolo rappresentato dalla privacy differenziale. Anche senza sapere chi sia una persona, l’algoritmo è in grado di prevedere i quartieri, i luoghi di lavoro e le scuole in cui è più probabile che si trovino gli immigrati privi di documenti. Secondo quanto riportato, algoritmi di intelligenza artificiale chiamati Lavender e Where’s Daddy? sono stati utilizzati in modo simile per aiutare l’esercito israeliano a determinare e localizzare gli obiettivi dei bombardamenti a Gaza. «È NECESSARIO UN CONTROLLO COLLETTIVO» Il professor Kasy conclude che non è più possibile proteggere la propria privacy individualmente: «Dobbiamo piuttosto esercitare un controllo collettivo su tutti i nostri dati per determinare se vengono utilizzati a nostro vantaggio o svantaggio». Kasy fa un’analogia con il cambiamento climatico: le emissioni di una singola persona non modificano il clima, ma le emissioni di tutte le persone insieme distruggono il pianeta. Ciò che conta sono le emissioni complessive. Allo stesso modo, la trasmissione dei dati di una singola persona sembra insignificante, ma la trasmissione dei dati di tutte le persone – e l’incarico all’IA di prendere decisioni sulla base di questi dati – cambia la società. Il fatto che tutti mettano a disposizione i propri dati per addestrare l’IA è fantastico se siamo d’accordo con gli obiettivi che sono stati fissati per l’IA. Tuttavia, non è così fantastico se non siamo d’accordo con questi obiettivi. TRASPARENZA E PARTECIPAZIONE Sono necessarie istituzioni e leggi per dare voce alle persone interessate dagli algoritmi di IA, che devono poter decidere come vengono progettati questi algoritmi e quali risultati devono raggiungere. Il primo passo è la trasparenza, afferma Kasy. Analogamente ai requisiti di rendicontazione finanziaria delle imprese, le aziende e le autorità che utilizzano l’IA dovrebbero essere obbligate a rendere pubblici i propri obiettivi e ciò che i loro algoritmi dovrebbero massimizzare: ad esempio, il numero di clic sugli annunci sui social media, l’assunzione di lavoratori che non aderiscono a un sindacato, l’affidabilità creditizia o il numero di espulsioni di migranti. Il secondo passo è la partecipazione. Le persone i cui dati vengono utilizzati per addestrare gli algoritmi – e le cui vite sono influenzate da questi algoritmi – dovrebbero poter partecipare alle decisioni relative alla definizione dei loro obiettivi. Analogamente a una giuria composta da pari che discute un processo civile o penale e emette una sentenza collettiva, potremmo istituire assemblee cittadine in cui un gruppo di persone selezionate a caso discute e decide gli obiettivi appropriati per gli algoritmi. Ciò potrebbe significare che i dipendenti di un’azienda discutono dell’uso dell’IA sul posto di lavoro o che un’assemblea cittadina esamina gli obiettivi degli strumenti di polizia preventiva prima che questi vengano utilizzati dalle autorità. Questi sono i tipi di controlli democratici che potrebbero conciliare l’IA con il bene pubblico. Oggi sono di proprietà privata. Il futuro dell’IA non sarà determinato da algoritmi più intelligenti o chip più veloci. Dipenderà piuttosto da chi controlla i dati e dai valori e dagli interessi che guidano le macchine. Se vogliamo un’IA al servizio del pubblico, è il pubblico che deve decidere a cosa deve servire. ________ Maximilian Kasy: «The Means of Prediction: How AI Really Works (and Who Benefits)», University of Chicago Press, 2025 -------------------------------------------------------------------------------- Traduzione dal tedesco di Thomas Schmid con l’ausilio di traduttore automatico. INFOsperber
Scuola: invertire le tendenze, produrre sapere critico, contrastare le Nuove Indicazioni e le Linee Guida
SCUOLA: INVERTIRE LE TENDENZE, PRODURRE SAPERE CRITICO CONTRASTARE LE NUOVE INDICAZIONI E LE LINEE GUIDA VENERDÌ 10 OTTOBRE 2025, ORE 8.30-17.30 IIS ALDINI VALERIANI Leggi tutto: Scuola: invertire le tendenze, produrre sapere critico, contrastare le Nuove Indicazioni e le Linee Guida BOLOGNA – VIA BASSANELLI, 9/11 (IN PRESENZA) LINK PER ISCRIVERSI, CLICCA QUI SCARICA LA LOCANDINA E IL MODULO PER RICHIEDERE IL PERMESSO -------------------------------------------------------------------------------- CONVEGNO NAZIONALE DI FORMAZIONE Ricordiamo che il personale ispettivo, dirigente, docente e ATA ha diritto all’ESONERO DAL SERVIZIO con diritto alla sostituzione in base all’art.36 del CCNL2019/2021 (che sostituisce gli articoli 63 e 64 del CCNL 2006/2009). Il CESP è Ente Accreditato/Qualificato per la formazione del personale della scuola (D. M. 25/07/06 prot.869, Circolare. MIUR PROT. 406 DEL 21/02/06, Direttiva 170/2016-MIUR) —> Fai richiesta alla segreteria del tuo istituto del permesso per formazione oppure utilizza il modulo in allegato alla locandina -------------------------------------------------------------------------------- Le Nuove Indicazioni nazionali sono state rese pubbliche in bozza dal ministero l’11 marzo 2025. Attorno ad esse si è aperto subito un ampio dibattito, che ne ha contestato i principali elementi che le contraddistinguono. Sono le Indicazioni di “Solo l’Occidente conosce la storia”, l’incredibile incipit della sezione dedicata alla storia che bene esprime il carattere etnocentrico del nuovo testo.  Nonostante le numerose proposte di modifica la Commissione ha deciso in luglio di confermare sostanzialmente tutti gli elementi che contraddistinguono queste Indicazioni. Come Cobas però riteniamo che la battaglia non sia per nulla perduta, ma sia da condurre nel medio periodo. Il prossimo appuntamento di approfondimento che abbiamo organizzato è il convegno nazionale del 10 di ottobre a Bologna. Prima e dopo il convegno parteciperemo a tutte le iniziative che si indirizzeranno a contrastare i contenuti di queste Nuove Indicazioni, a partire da quelle organizzate insieme alla Rete bolognese per la scuola pubblica di cui facciamo parte. -------------------------------------------------------------------------------- PROGRAMMA: h. 8.30 iscrizioni e registrazioni h. 9.00 * Gli ultimi 25 anni: dall’Autonomia scolastica alla celebrazione dell’Occidente e della Nazione. * I curriculi della destra: Educazione civica, Indicazioni e Linee guida. h. 10.00: dibattito h. 10.30: pausa caffè * Comunicazioni tematiche, tra tendenze ministeriali e proposte per contrastarle * genere * decolonizzazione * valutazione * inclusione * competenze/saperi * digitalizzazione Relazioni e comunicazioni sono preparate da gruppi di lavoro di insegnanti del Cesp h. 13.00: pausa pranzo Pomeriggio h. 14.30: laboratori paralleli sulle tematiche delle comunicazioni affrontate in breve al mattino 1. genere 2. decolonizzazione 3. valutazione 4. inclusione 5. competenze/saperi 6. digitalizzazione h. 16.30-17.30 restituzioni e confronto in plenaria