Source - Pillole di info digitale

Segnalazioni su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Bignami, concetti base degli LLM (parte prima)
Walter Quattrociocchi ha pubblicato un bignamino di concetti base degli LLM. (ovvero: capire in 90 secondi un LLM e sembrare competenti a cena senza coprire l’abisso delle proprie lacune con il pensiero circolare e le supercazzole pop-filosofiche sull’etica dei termosifoni col cimurro) Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessun “spirito” emergente. Riporto di seguito i concetti. L'originale si può leggere su Linkedin Correlazione Due parole sono “amiche” se nei dati compaiono insieme più spesso di quanto accadrebbe per puro caso. Non serve sapere cosa significhino: il modello rileva che “pizza” e “mozzarella” si presentano insieme molto più di “pizza” e “batteria dell’auto” e registra quella regolarità. Ogni parola è un vettore in uno spazio con centinaia di dimensioni; la vicinanza riflette la probabilità di apparire in contesti simili. Processo stocastico Quando scrive, un LLM non applica logica o ragionamento causale: genera parole campionando dalla distribuzione di probabilità appresa per il contesto. Se il testo è “Il gatto sta…”, la distribuzione assegnerà alta probabilità a “dormendo” e bassa a “pilotando un aereo”. Parametri come temperature, top-k o nucleus sampling introducono variabilità. È una catena di Markov di ordine elevato: chi sostiene che “ragiona” deve spiegare in che senso un campionamento possa costituire ragionamento. Ottimizzazione L’abilità dell’LLM deriva dalla minimizzazione di una funzione di perdita (tipicamente la cross-entropy) tra le previsioni e i dati reali. Attraverso il gradient descent, miliardi di parametri vengono regolati per ridurre l’errore di previsione sul prossimo token. Dopo trilioni di iterazioni, l’output diventa statisticamente indistinguibile dal testo umano. Transformer Architettura alla base degli LLM. Il self-attention valuta quanto ogni parola sia rilevante rispetto a tutte le altre del contesto, non solo a quelle vicine. A differenza delle vecchie reti sequenziali, il Transformer guarda l’intera sequenza in parallelo, mantenendo il contesto anche a distanza, accelerando l’addestramento e gestendo testi lunghi. Allucinazioni Il modello può produrre frasi false ma plausibili perché non confronta le uscite con il mondo reale. L’accuratezza è un effetto collaterale, non un vincolo progettuale. Scaling La potenza di un LLM cresce con parametri, dati e calcolo (scaling laws). Più grande non significa “più intelligente”: significa solo un vocabolario statistico più ricco e preciso. La cosa affascinante non è che stia emergendo una mente, ma che sappiamo codificare in forma computabile l’intelligenza implicita nel linguaggio. Quel linguaggio lo abbiamo generato noi: un LLM è il riflesso statistico della nostra produzione linguistica, organizzato così bene da sembrare vivo, ma resta un simulatore di linguaggio umano.
Colonizzati da tech Usa: l’illusione di autonomia di Italia ed Ue
L’Europa continua a confondere addestramento con cultura digitale. La colonizzazione tecnologica americana prosegue indisturbata, mentre di sovranità non resta che qualche slogan buono per i convegni Ci stiamo avvicinando a passi da gigante a quella che Gibson chiama “la singolarità dell’idiozia“, in inglese Singularity of Stupid. Da una parte ci sono quelli che vogliono menare i russi trent’anni dopo il crollo dell’Unione Sovietica, e dall’altra ci sono gli Stati Uniti che non sanno decidere se preferiscono una dittatura o una guerra civile, con una crescente possibilità di ottenere entrambe. In mezzo, c’è una dozzina di tipi oscenamente ricchi e fantasticamente stupidi, che si diverte a bruciare centinaia di miliardi in un culto millenaristico chiamato Intelligenza Artificiale. E poi ci siamo noi delle colonie, sempre pronti a correre dietro all’ultima moda che viene da oltreoceano. Tra i temi affrontati da Vannini nell'articolo, segnaliamo: * ChatControl: quando la sicurezza minaccia la privacy * L’illusione della sicurezza senza privacy * Il grande errore del cloud computing * L’America di Trump: una nuova realtà geopolitica * L’assenza di sistemi operativi europei * L’addestramento mascherato da digitalizzazione * L’illusione dell’intelligenza artificiale Leggi l'articolo completo Oppure ascolta il podcast
Vietare i cellulari e promuovere l’Ia, l’insostenibile confusione al potere
I problemi delle linee guida per l’adozione dell’intelligenza artificiale in tutti gli ordini e gradi di istruzione: tra clamorose assenze, contraddizioni e ossimori. L’ennesima riforma calata dall’alto. Ma un’altra strada è possibile Al rientro a scuola, studenti, famiglie e docenti hanno trovato l’ennesima sorpresa: un dettagliato libriccino contenente le linee guida per una rapida adozione – naturalmente consapevole, responsabile e senza ulteriori oneri a carico del bilancio – dell’intelligenza artificiale in tutti gli ordini e gradi di istruzione. A una prima analisi, le linee guida sembrano proseguire nella spinta verso l'adozione di tecnologie digitali non facilmente controllabili dagli attori della scuola, con un forte rischio che si riproponga lo scenario già visto con i progetti PNRR Scuola 4.0: una corsa a spendere fondi per introdurre hardware e software, senza possibilità di scelta consapevole da parte delle scuole, terminata in un sostanziale trasferimento di fondi pubblici al privato. L'enfasi sull'innovazione tecnologica e sulla transizione digitale delle scuole raramente tiene conto delle esigenze didattiche della comunità scolastica, per puntare l'obiettivo su un mero accumulo di tecnologie che si rivelano ingestibili dalle scuole, vuoi per incapacità, vuoi perché le tecnologie adottate sono spesso opache, o anche perché delegate completamente a imprese private.  L'articolo di Mazzoneschi e Barale (C.I.R.C.E.) è uscito nel quotidiano Domani. Qui per leggere la versione integrale
“Siate meccanici, siate luddisti”: così si resiste al tecnocapitalismo
Vivere le tecnologie come se fossero qualcosa che cade dall’alto ci rende passivi e ci limita a considerare “cosa fanno” senza concentrarci sul “perché lo fanno”. È il tema centrale del libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, scritto dal ricercatore americano Jathan Sadowski, i cui studi si concentrano sulle dinamiche di potere e profitto connesse all’innovazione tecnologica. “Le nuove tecnologie possono catturare quantità di dati così vaste da risultare incomprensibili, ma quei dati sul mondo resteranno sempre incompleti. Nessun sensore o sistema di scraping può assorbire e registrare dati su tutto. Ogni sensore, invece, è progettato per raccogliere dati su aspetti iper-specifici. Ciò può sembrare banale, come un termometro che può restituire un numero sulla temperatura, ma non può dirti che cosa si provi davvero con quel clima. Oppure può essere più significativo, come un algoritmo di riconoscimento facciale che può identificare la geometria di un volto, ma non può cogliere l’umanità soggettiva e il contesto sociale della persona. I dati non potranno mai rappresentare ogni fibra dell’essere di un individuo, né rendere conto di ogni sfumatura della sua vita complessa. Ma non è questo lo scopo né il valore dei dati. Il punto è trasformare soggetti umani integrati in oggetti di dati frammentati. Infatti, ci sono sistemi che hanno l’obiettivo di conoscerci in modo inquietante e invasivo, di assemblare questi dati e usarli per alimentare algoritmi di targeting iper-personalizzati. Se questi sistemi non stanno cercando di comporre un nostro profilo completo e accurato possibile, allora qual è lo scopo? Ecco però un punto importante: chi estrae dati non si interessa a noi come individui isolati, ma come collettivi relazionali. I nostri modi di pensare la raccolta e l’analisi dei dati tendono a basarsi su idee molto dirette e individualistiche di sorveglianza e informazione. Ma oggi dobbiamo aggiornare il nostro modo di pensare la datificazione – e le possibili forme di intervento sociopolitico in questi sistemi guidati dai dati – per includere ciò che la giurista Salomé Viljoen chiama ‘relazioni “orizzontali’, che non si collocano a livello individuale, ma a scala di popolazione. Si tratta di flussi di dati che collegano molte persone, scorrono attraverso le reti in modi tali che le fonti, i raccoglitori, gli utilizzatori e le conseguenze dei dati si mescolano in forme impossibili da tracciare se continuiamo a ragionare in termini di relazioni più dirette e individualistiche. Leggi l'intervista completa , che ha molti altri spunti interessanti, sul sito di Guerre di rete
Scuola e nuove linee guida: convegno nazionale CESP
Venerdì 10 ottobre a Bologna C.I.R.C.E. condurrà un laboratorio sul digitale nell'ambito del convegno nazionale CESP sulla scuola che si concentrerà sulle nuove linee guida per produrre saperi e conflitto. Nel laboratorio sul digitale che conduciamo a Bologna il 10 ottobre 2025 dalle 14.40 alle 16.30, indirizzato ai docenti, utilizzeremo il metodo della Pedagogia Hacker per focalizzarci sulla questione dell'analisi dìinterfaccia e della gamificazione: osservare il modo in cui sono progettati e come si presentano i principali dispositivi digitali adottati dalle scuole e smantellare l'idea che le tecnologie siano neutre. Verso quali comportamenti veniamo "gentilmente spinti"? Cosa resta della libertà d'insegnamento? Il laboratorio si svolge all'interno del Convegno Nazionale di Formazione CESP Maggiori informazioni sul sito di C.I.R.C.E.
Facebook, Instagram, X e YouTube: i social della disinformazione climatica
Le piattaforme spingono consapevolmente i post cospirazionisti sulla disinformazione climatica per i loro interessi economici e politici Quando a inizio di luglio le inondazioni in Texas hanno ucciso centotrenta persone, tra cui oltre venti ragazze in un campo estivo, i social network hanno dimostrato il loro immenso e nefasto potere nel campo della disinformazione climatica. Non solo hanno diffuso false informazioni, mettendo a rischio diverse vite umane e ostacolando il lavoro dei soccorritori. Ma tra fake news, assurde cospirazioni e improbabili teorie del complotto, le grandi piattaforme come Meta (Facebook e Instagram), X e YouTube si sono rivelate ancora una volta il peggior megafono del negazionismo climatico. Il tutto per qualche milione di click. Ovvero, per un pugno di dollari da guadagnare attraverso pubblicità e raccolta di dati. Per evidenti ragioni politiche, visto che i loro Ceo si sono tutti affrettati a celebrare l’elezione presidenziale di Donald Trump e a sostenerlo economicamente con donazioni spaventose. E per qualche buon affare con le multinazionali del fossile che da sempre le sostengono. E con le quali condividono diversi fondi d’investimento nelle loro ragioni sociali. Leggi l'articolo
Chat Control: quando la protezione dei minori sfida la riservatezza digitale
Chat Control UE: la nuova proposta di regolamento che rischia di compromettere la privacy digitale. Scansione preventiva dei messaggi per proteggere i minori vs. sorveglianza di massa. Analisi dei rischi e alternative possibili Nell’autunno del 2025 si prepara ad approdare al Consiglio dell’Unione Europea una proposta di regolamento nota con l’appellativo mediatico di “Chat Control” – che, se approvata, ridisegnerebbe dalle fondamenta l’architettura giuridica e tecnica delle comunicazioni digitali. Si tratta di una misura che si presenta formalmente come strumento di contrasto alla diffusione online di materiale pedopornografico e come risposta all’esigenza, difficilmente contestabile sul piano etico e politico, di proteggere i minori nello spazio digitale. L’idea sottesa è quella di obbligare tutti i principali fornitori di servizi di messaggistica, da WhatsApp a Signal fino a Telegram, nonché le piattaforme social, a introdurre sistemi di scansione preventiva dei messaggi, delle immagini e dei file scambiati tra utenti, così da rilevare contenuti potenzialmente illeciti prima ancora che vengano cifrati e trasmessi. Si tratta di un passaggio tecnico che appare marginale ai più – la scansione “lato client” prima della crittografia end-to-end – in realtà contiene la potenzialità di sovvertire la promessa stessa di riservatezza che da sempre sorregge la comunicazione privata. Infatti, in nome di un obiettivo unanimemente condiviso, si rischia di introdurre per la prima volta nella storia giuridica europea un meccanismo normativo che legittimerebbe la sorveglianza preventiva universale delle comunicazioni, non più su base mirata, autorizzata e proporzionata, bensì attraverso algoritmi automatizzati che passerebbero al setaccio miliardi di messaggi quotidiani. Leggi l'articolo
Cookie senza consenso, maxi-sanzione da 325 milioni di euro a Google
La CNIL, l’Autorità francese per la protezione dei dati, accusa il colosso di Mountain View di aver inserito pubblicità tra le e-mail degli utenti Gmail senza il loro consenso e di aver condizionato la creazione di un account Google all’accettazione di cookie pubblicitari. Coinvolti oltre 74 milioni di account solo in Francia. Il procedimento nasce da un reclamo presentato dall’associazione NOYB (None Of Your Business) nell’agosto 2022, che aveva denunciato pratiche scorrette legate all’uso della posta elettronica Gmail e al processo di creazione degli account Google. Secondo le verifiche ispettive svolte tra il 2022 e il 2023, Google avrebbe mostrato messaggi pubblicitari simili a e-mail nelle schede “Promozioni” e “Social” di Gmail, senza previo consenso degli utenti. La CNIL ha definito “negligente” l’atteggiamento del gruppo di Mountain View, ricordando che Google era già stata sanzionata due volte: nel 2020 con una multa da 100 milioni di euro e nel 2021 con un’ulteriore sanzione da 150 milioni di euro, sempre in materia di cookie. Questa recidiva ha pesato nella determinazione dell’importo attuale, considerando anche la posizione dominante di Google sul mercato pubblicitario online e la diffusione globale del servizio Gmail, che è la seconda piattaforma di posta elettronica più utilizzata al mondo. Articolo qui
Le Dita Nella Presa - Antitrust e privacy: i tribunali se ne lavano le mani
Una settimana di sentenze per il mondo della silicon valley, tanto in Europa quanto negli Usa. Nonostante Google prenda una multa da quasi 3 miliardi di dollari per abuso di posizione dominante, non si può lamentare: il "rischio" antitrust è scongiurato, e l'Unione Europea si mostra più tenera del solito. Infatti nonostante negli Usa Google sia riconosciuto come monopolista nel settore delle ricerche sul Web, il giudice ha valutato di dare dei rimedi estremamente blandi, molto lontani da quelli paventati. Ricordiamo che si era parlato addirittura di obbligare Google a vendere Chrome. Anche nell'Ue i giudici sono clementi. Il caso Latombe, che poteva diventare una sorta di Schrems III, non c'è stato: la corte ha dichiarato che il Data Protection Framework è valido, e che quindi la cessione di dati di cittadini Ue ad aziende Usa è legale. È un grosso passo indietro nel braccio di ferro interno all'unione europea tra organismi che spingevano per questa soluzione (la Commissione) e altri che andavano in senso opposto (la Corte di Giustizia). Difficile pensare che i recenti accordi sui dazi non c'entrino nulla. Ascolta l'audio sul sito di Radio Onda Rossa
Trasferimento dati Ue-Usa: Tribunale Ue salva il Data Privacy Framework. Le prime reazioni
Il Tribunale dell’Unione europea, con sentenza del 3 settembre, ha respinto il ricorso del deputato francese Philippe Latombe diretto ad annullare il nuovo quadro normativo per il trasferimento dei dati personali tra la UE e gli USA. Non si sono fatte attendere le prime reazioni alla sentenza. Il team legale di Latombe ha scelto un ricorso piuttosto mirato e ristretto contro l'accordo sui dati UE-USA. Sembra che, nel complesso, il Tribunale non sia stato convinto dalle argomentazioni e dai punti sollevati da Latombe. Tuttavia, ciò non significa che un'altra contestazione, che contenga una serie più ampia di argomenti e problemi relativi all'accordo, non possa avere successo. Latombe potrebbe anche decidere di appellare la decisione alla CGUE, che (a giudicare dalle precedenti decisioni in "Schrems I" e "Schrems II") potrebbe avere un'opinione diversa da quella del Tribunale. Max Schrems, fondatore di NOYB – European Center for Digital Rights, ha dichiarato: "Si è trattato di una sfida piuttosto ristretta. Siamo convinti che un esame più ampio della legge statunitense, in particolare dell'uso degli ordini esecutivi da parte dell'amministrazione Trump, produrrebbe un risultato diverso. Stiamo valutando le nostre opzioni per presentare tale ricorso". Sebbene la Commissione abbia guadagnato un altro anno, manca ancora la certezza del diritto per gli utenti e le imprese" Leggi l'articolo
Google potrà tenersi Chrome, alla fine
Lo ha deciso un giudice al termine di una lunga battaglia legale in cui l'azienda era accusata di aver violato le leggi sulla concorrenza Un giudice statunitense ha deciso che Google non dovrà vendere il suo browser Chrome, come aveva invece richiesto il dipartimento della Giustizia statunitense, che accusava l’azienda di aver violato le norme su monopoli e concorrenza. Il processo era iniziato nel 2019 e ad agosto del 2024 Google era stata dichiarata colpevole, ma la pena è stata stabilita solo martedì. Chrome rappresenta il 60 per cento del mercato globale dei browser, con circa 3,5 miliardi di utenti: quasi tutti usano il motore di ricerca Google, tramite cui l’azienda guadagna con la vendita di inserzioni pubblicitarie. leggi l'articolo
Schrems III causerà un nuovo momento di panico per i trasferimenti di dati UE–USA?
Il prossimo caso “Schrems III” del 3 settembre 2025 potrebbe invalidare l’EU–US Data Privacy Framework (DPF), interrompendo nuovamente i trasferimenti di dati tra l’Unione Europea e gli Stati Uniti e costringendo le imprese a ricorrere a soluzioni alternative come le Clausole Contrattuali Standard e le Transfer Impact Assessments, creando un potenziale momento di panico per molte aziende. Il 3 settembre 2025 la Corte di Giustizia dell’Unione Europea (CGUE) emetterà la propria sentenza nel caso Latombe vs Commissione Europea. In gioco c’è il futuro dell’EU–US Data Privacy Framework, la decisione di adeguatezza adottata nel luglio 2023 per ripristinare una base giuridica stabile ai flussi di dati transatlantici. Se il framework dovesse essere annullato, le aziende si troverebbero nuovamente ad affrontare l’incertezza regolatoria e operativa che aveva caratterizzato la decisione Schrems II del 2020. Molti parlano già di questo scenario come di un “Schrems III”. Perché il DPF è sotto attacco nel caso Latombe vs Commissione Europea Il ricorso è stato presentato nel settembre 2023 da Philippe Latombe, deputato francese, che ha contestato direttamente la decisione di adeguatezza della Commissione ai sensi dell’articolo 263 TFUE. A differenza di Schrems I e II, che arrivarono alla CGUE tramite giudizi nazionali e rinvii pregiudiziali, questo caso prende di mira direttamente la decisione, con la possibilità di accelerare il controllo giudiziario. Secondo Latombe, il DPF non garantirebbe una protezione “sostanzialmente equivalente” per i cittadini europei, come richiesto dall’articolo 45 GDPR e dalla Carta dei diritti fondamentali dell’UE. Quali sono i principali argomenti del ricorso e quali i possibili scenari? Leggi l'articolo