Tag - invalsi

[Ora di buco] La scuola di Valditara: classismo e repressione
Nella trasmissione di oggi parliamo ancora delle dichiarazioni del ministro dell’Istruzione e merito Valditara sul contrasto alla violenza nelle scuole. Periodo di nuove iscrizioni e di campagna acquisti tra scuole in competizione: il ministro rilancia gli istituti tecnici 4+2 e il liceo "made in italy". Analizziamo le caratteristiche di questi percorsi, sottolineandone i risvolti fortemente classisti: i tecnici quadriennali diventano ordinamentali, vengono sottratte risorse a favore degli ITS Academy con conseguenti danni per la scuola pubblica. Ci confrontiamo poi sulla novità che introduce i risultati numerici INVALSI nel documento digitale personale degli studenti, obbligati per legge a svolgere i test per poter affrontare gli esami di maturità (qui un'analisi critica). Concludiamo con alcune riflessioni su quanto accaduto nell’Istituto "Barlacchi-Lucifero" di Crotone: il Dirigente ha cancellato una giornata in ricordo della strage di Cutro, il naufragio avvenuto davanti alle coste calabresi il 26 febbraio 2023 in cui sono morte 94 persone, 35 delle quali minori. La manifestazione si sarebbe dovuta tenere nella scuola ma il dirigente, dopo averla autorizzata, è tornato indietro «per motivi di mancato contraddittorio tra le parti», eseguendo alla lettera le indicazioni contenute in una circolare del ministro del 7 novembre scorso. Il dirigente, dopo l'intervento dell'USR della Calabria, ha nuovamente fatto retromarcia: l'evento si terrà il 25 febbraio.      
February 17, 2026
Radio Onda Rossa
Risultati INVALSI nel curriculum dello studente
Il famoso termometro #INVALSI è arrivato nel curriculum dello studente. Ce lo ricorda Il Sole24Ore oggi. I risultati numerici INVALSI entreranno nel documento digitale personale degli studenti,  obbligati per legge a svolgere i test per poter svolgere gli esami. Per adesso entrano dopo la “Maturità”. Ma cosa significano quei risultati? E chi lo sa. Se si chiede accesso alle prove, questo viene negato. I risultati INVALSI godono di uno strano stato di eccezione. A quanto pare anche presso l’Autorità per la protezione dei dati personali.  Restano ancora senza risposta i due reclami che associazioni e cittadini hanno inviato al Garante proprio sull’eccezionalità dei dati INVALSI. Ma, di questo, parleremo dettagliatamente più avanti. Nessuna sorpresa: i test INVALSI “in pagella” sono un vecchio sogno bipartisan. Non sorprende quindi che i test arrivino là dove si era pensato di farli arrivare. Continua a sorprendere invece il fatto che quando si parla di valutazione raramente (mai?) si parli di valutazione standardizzata. Lo si fa ogni tanto, en passant, dopo ampia premessa sull’utilità (??) dei dati, per pagare un piccolo pegno alla propria coscienza. Ma in fondo sappiamo che per costruire il senso comune serve anche questo.
February 16, 2026
ROARS
Le soft skills a scuola, i “fragili” e i metal detector
La legge sulle competenze non cognitive e l’avvio della relativa sperimentazione triennale aprono una nuova fase per la scuola italiana. Il decreto attuativo introduce criteri di selezione delle scuole che vedono ancora una volta il ruolo centrale dei dati INVALSI, in particolare per l’individuazione dei contesti educativi più disagiati. Il nesso soft skills-fragilità INVALSI, che il decreto istituisce, introduce una visione problematica del rapporto tra “fragilità”, apprendimento e intervento educativo. Oltre all’ulteriore peso attribuito ai dati opachi e non controllabili dei test, solleva questioni rilevanti sull’uso di quei dati, sulla normalizzazione del “profilo di fragilità” e sulle traiettorie che tali classificazioni possono generare. A quale futuro ci stiamo rassegnando per le scuole dei territori “fragili”? Soft skills e metal detector? -------------------------------------------------------------------------------- Dopo un iter piuttosto lungo e privo di conflitti politici, introdurre le competenze non cognitive a scuola, le cosiddette soft skills, è diventato legge  (Legge n. 22 del 19 Febbraio 2025). E il 15 gennaio scorso è stato pubblicato il decreto che disciplinerà l’avvio della “sperimentazione triennale” che inserirà le competenze socio-emotive nelle attività educative e didattiche delle nostre scuole. Il fine è ovviamente nobilissimo: “favorire lo sviluppo armonico e integrale della persona, delle sue potenzialità e talenti” e  “prevenire povertà educativa e dispersione scolastica”. Le scuole sono chiamate a presentare “proposte progettuali” sulle competenze non cognitive che intendono sviluppare, con quali attività e obiettivi, quali partenariati intendono attivare, come si intende valutare queste competenze e rendicontare i risultati. Le proposte verranno selezionate, sulla base di criteri definiti nel decreto, per poi essere valutate da una “Commissione tecnica” (composta da chi?). Come tutte le sperimentazioni nell’ambito dell’autonomia scolastica [1], la conclusione sarà affidata a un “Comitato tecnico scientifico” dopo “opportuno monitoraggio”, cui seguiranno le canoniche “Linee Guida” che rappresenteranno la cornice  per l’insegnamento di queste nuove competenze. In quanto al monitoraggio, il Presidente del Consiglio Nazionale della Pubblica Istruzione, in un recente confronto pubblico proprio sul tema delle soft skills, affermava che oggi al Ministero dell’istruzione “si contano oltre 900 sperimentazioni in atto, senza alcuna rendicontazione”[2]. Forse, anche solo ragionando statisticamente, possiamo ritenere plausibile che tutto procederà per inerzia.   TRA I CRITERI DI SELEZIONE: LA FRAGILITÀ INVALSI Nonostante lo strumento della “sperimentazione” sia quindi così inflazionato e privo di significato  (non esistono sperimentazioni non sottoposte a scrutinio e verifica nella comunità di riferimento), c’è un aspetto interessante che vale la pena sottolineare in questo caso. E riguarda i criteri di selezione delle proposte delle scuole candidate. L’articolo 7 del decreto, sulla “Selezione delle proposte progettuali”, specifica che la Commissione giudicatrice valuterà in base ai seguenti parametri:   Oltre agli ovvi criteri di coerenza, adeguatezza e esperienza pregressa, è sull’ultimo criterio che dobbiamo focalizzarci: quello meno discrezionale e più “oggettivo”. Il Ministero considera  requisito per partecipare alla sperimentazione sulle soft skills, > “operare in un contesto socio-demografico complesso, caratterizzato da > evidenti tassi di dispersione implicita ed esplicita, profili di studenti a > rischio di insuccesso formativo e fragilità nei livelli di apprendimento“ Cosa significa? Stiamo dicendo che un criterio per sperimentare l’insegnamento delle soft skills è quello di essere una “scuola fragile”, una scuola che, per contesto e collocazione geografica e socio-demografica, per tipologia o vocazione, accoglie profili di “studenti  a rischio”, di studenti “fragili”. Sottolineiamo il termine “profili” non a caso. E il decreto chiarisce dopo cosa intende. La Commissione giudicatrice, leggiamo, non considererà la documentazione fornita dalla scuola in merito a questo punto: > “La commissione attribuirà il punteggio in base alle informazioni fornite > dall’INVALSI, senza necessità di alcuna documentazione in merito“ Il decreto ci dice quindi che al Ministero non interessano i papielli che docenti e dirigenti sono soliti scrivere dopo lunghe riunioni collegiali su questo o quell’alunno, su questo o quell’aspetto, legati alla cosiddetta “fragilità”. Anni e anni di esperienza (e di retorica) sull’autovalutazione (i RAV!) e sulla meta-riflessione, a quanto pare non serviranno a nulla. Alla commissione le informazioni le darà direttamente l’INVALSI. Ecco perché si parla di ”profili”. I dati INVALSI sui profili di rischio presunti degli studenti parleranno quindi al posto delle scuole in maniera automatizzata.   LE SOFT SKILLS, I “FRAGILI” E I METAL DETECTOR Dunque tra i criteri di selezione delle proposte c’è quello di essere una scuola con “studenti a rischio” secondo l’INVALSI, con “dispersione implicita” elevata, sempre misurata dall’INVALSI. E’ un passaggio assai significativo. E si farebbe bene a non sottovalutarlo.  Almeno per tre ragioni. La prima, scontata: i giudizi degli insegnanti scompaiono dinanzi agli esiti dei test Al di là del solito racconto sull’uso dei dati INVALSI che “affiancherebbero” senza mai sostituire le valutazioni degli insegnanti, il decreto mette ben in luce cosa succede ad “affiancare” anno dopo anno le valutazioni umane e provvisorie di chi insegna con quelle standardizzate e opache dei test. Succede che gli esiti dei test divorano i giudizi dei docenti. E che a furia di normalizzare e validare nei testi, nei dibattiti e nelle prassi le valutazioni individuali standardizzate, sembrerà assolutamente normale valutare il percorso degli studenti con i test, sempre più test; mentre i docenti saranno impegnati a formarsi e progettare griglie e moduli con cui rendicontare le osservazioni di tutte le competenze imposte dalle riforme, sempre di più, comprese le soft skills. La seconda, più delicata: il nesso soft skills-fragilità come nuova forma di segregazione Istituire, come fa il decreto, il nesso soft skills-fragilità, disagio sociale e culturale significa istituire un indirizzo di pensiero: e cioè quello tra scuole difficili, educazione di tipo socio-comportamentale e disciplinamento caratteriale. Il Ministro Valditara nel suo recente intervento sui metal detector a scuola a seguito dei fatti di La Spezia ha detto: > “Dobbiamo intervenire sul fenomeno, perché nessuna società democratica può > tollerare che un giovane vada in giro armato. Dopodiché, dobbiamo motivare le > giovani generazioni: uno studente che trova una scuola capace di valorizzare i > suoi talenti, di appassionarlo, sarà meno incline a forme di devianza. [..] Io > vorrei che il decreto sicurezza includesse anche il coinvolgimento dei > genitori nel percorso formativo. In special modo nei contesti più fragili” Un’interpretazione possibile, che proponiamo ai lettori e che si sposa bene con l’idea di “buonsenso” del Ministro, consisterebbe nell’accettare sostanzialmente di arrendersi allo stato delle cose, cercando “soluzioni” tecniche ma efficaci (questo il buonsenso). Cioè, accettare come dati immutabili i fenomeni di segregazione territoriale e residenziale, etnica e culturale, la separazione spaziale e materiale tra studenti “fragili” e “adeguati”: tutti fenomeni ben noti, che anno dopo anno si rafforzano. (Per farli scomparire basterà chiamarli “libera scelta delle famiglie in funzione dell’offerta formativa”) Sarà quindi sempre buonsenso, nelle zone ad alta concentrazione di “fragilità” – chiamiamole pure “scuole ghetto” – considerare l’insegnamento come un’attività di contenimento sociale, progetti sull’empatia, resilienza, lo sviluppo dei tratti del “carattere” più funzionali all’integrazione.  Laddove i dati e le “evidenze” (o la cronaca, infine) ci dicono che c’è, o potrebbero esserci  fattori di rischio, anziché intervenire a monte sulle cause che promuovono quegli effetti, offriamo soft skills e metal detector. La scuola della “personalizzazione”, ritagliata su ciascuno così com’è, è anche quella della segregazione e della sicurezza. La direttiva Valditara-Piantedosi appena pubblicata parla chiaro: la scuola è il luogo dove si insegna “la cultura del rispetto”. Qualsiasi prevenzione deve trovare sostegno “nella certezza delle regole e nella capacità delle istituzioni di intervenire con prontezza”. La Competenza-Rispetto si svilupperà, per esempio, accettando di buon grado controlli a campione con rilevatori mobili, che “saranno svolti esclusivamente da operatori di pubblica sicurezza”. Bisognerà prima accettarli e poi imparare a convincersi che rispetto=sicurezza: “a Ponticelli”, dice il Ministro, “sperimentazioni [sui controlli] sono giudicate positivamente proprio dagli studenti”. La terza: i dati sono ciò che fanno. E’ da tempo che scriviamo che i dati INVALSI hanno assunto il valore di una misura attuariale, ovvero di “indice di rischio” individuale per tutti gli studenti. E questo non a causa del fato né del Ministro di turno. Si tratta di una lunga egemonia culturale, di cui bisognerà che qualcuno si assuma politicamente le responsabilità, prima o poi. Ecco perché nel dibattito pubblico sulla scuola questo tema non interessa: si resta focalizzati sull’inadeguatezza degli insegnanti. Nel frattempo, come è facile immaginare, è cresciuto il peso delle valutazioni standardizzate come indicatori di policy, è cresciuto il valore delle certificazioni individuali INVALSI, che entrano nel curriculum personale, in barba al più basilare dei diritti degli studenti: poter conoscere come e perché si è valutati in quel modo; cresce l’infrastruttura tecnica e di analisi dei dati raccolti, si normalizzano nuovi costrutti (fragilità, dispersione implicita, previsione dell’abbandono) e si prefigurano nuove misurazioni sulle soft skills. Ma a che scopo raccogliere dati  su tutta la popolazione studentesca dai 7 ai 18 anni? Perché misurare ogni anno per 2 milioni e mezzo di ragazzi: abilità cognitive espresse in termini di fragilità/adeguatezza/eccellenza,  lingua parlata  in casa,  provenienza (paesi UE o extra UE), l’essere maschio/femmina,  l’occupazione/disoccupazione e titolo di studio dei genitori, condizioni materiali familiari,  ansia,  aspettative future, tempi di risposta su piattaforma durante lo svolgimento dei test…? Costruire archivi digitali sempre più estesi e capillari da cui estrarre informazioni, incrociarle e manipolarle con l’Intelligenza Artificiale per poi costruire profili individuali dell’intera popolazione sembra davvero una buona idea? Non assomiglia piuttosto a uno scenario distopico? Nemmeno l’attualità lugubre in cui siamo immersi serve a capire che è tempo di cambiare rotta? O ci crediamo immuni da ciò che vediamo accadere? ____________ [1] Ex articolo 11 del DPR 275 1999 https://www.notiziedellascuola.it/legislazione-e-dottrina/indice-cronologico/1999/marzo/DPR_19990308_275/tit1-cap3-art11 . [2] Intervento al Festival dell’innovazione del 5 Settembre 2025, 1h19’ circa: https://www.valdotv.com/2025/09/08/festival-dellinnovazione-scolastica-le-competenze-non-cognitive-al-centro-del-dibattito/
January 29, 2026
ROARS
Tutto..ma non i test INVALSI
La famiglia dello studente ha il diritto di accedere, comprendere ed entrare nel merito della documentazione scolastica. Lo sanciscono le norme e lo Statuto degli Studenti e delle Studentesse. Lo ribadisce il TAR del Veneto. Purtroppo questo diritto non vale dinanzi all’INVALSI.  -------------------------------------------------------------------------------- La famiglia dello studente ha il diritto di accedere, comprendere ed entrare nel merito della documentazione scolastica. Lo sanciscono le norme sulla trasparenza amministrativa, quelle del nostro ordinamento scolastico, lo Statuto degli Studenti e delle Studentesse. Lo ribadisce il TAR del Veneto nella sentenza 2074/2025, di cui dà notizia il Sole24ore. Dinanzi alla richiesta di accesso ai compiti scritti, ai criteri di valutazione e ad ogni documento riguardante lo studente da parte dei genitori, il Tribunale Amministrativo ritiene che il rifiuto da parte dell’Istituzione scolastica sia illegittimo e . I documenti richiesti sono utili per comprendere, ed eventualmente contestare, le scelte della scuola e degli insegnanti. Purtroppo questi diritti non sono esercitabili dinanzi all’INVALSI. Nonostante: -i test INVALSI siano individuali e certifichino le competenze dei singoli studenti (Dl.g 62/17) -i risultati entrino nel loro curriculum digitale (L.164/25) alle famiglie che fanno richiesta di poter accedere ai dati delle prove svolte per comprendere la logica della correzione e del punteggio acquisito, viene negato l’accesso. Il Garante della Privacy, a cui si è fatto ricorso, tace da oltre 8 mesi; forse è occupato in altro. A quanto pare solo le valutazioni umane dei docenti sono soggette a controllo, per chi può permetterselo. Chi tutela il diritto collettivo degli studenti di poter accedere e comprendere dati che sono obbligati a cedere e che li riguardano? L’INVALSI vive in uno stato di eccezione?
December 29, 2025
ROARS
Valditara e Nordio concordano: il sovraffollamento è positivo a scuola e in carcere
Le dichiarazioni politiche nel nostro Paese stanno toccando in queste settimane vette di rigore logico-argomentativo che difficilmente dimenticheremo. Il Ministro Valditara, dell’Istruzione e del Merito, nel suo recente intervento al forum Welfare Italia, ha dichiarato che: “Il numero degli alunni per classe non fa la differenza”. Al contrario,  “studi dell’Invalsi ci confermano che quando il rapporto docenti-studenti è troppo basso il rendimento non migliora, anzi peggiora”.   A seguire, il Ministro della Giustizia Nordio, nel suo intervento alla cerimonia celebrativa sulla legge di ordinamento penitenziario “I suicidi ai quali assistiamo non sono per niente collegati al sovraffollamento. Semmai, paradossalmente è il contrario. Il sovraffollamento è una forma di controllo reciproco tra chi sta in carcere e molti suicidi sono stati sventati proprio perché c’era il controllo dei co-detenuti. Il sovraffollamento determina semmai l’aggressività, ma quello che determina il suicidio è la solitudine”.   Quindi in classe come in carcere il sovraffollamento è un vantaggio. Per la scuola lo “dimostra” l’INVALSI, che probabilmente avrà fornito i dati anche a Nordio per le carceri. Come interpretare queste uscite istituzionali? Lettura frettolosa di dati compiacenti? Pessime freddure? Prove di attenzione dell’uditorio? Rievocazione di schemi antichi (più si è meglio è)? Crediamo si tratti di altro. Una sfacciata dimostrazione di autorità: parole che calpestano il senso di chi le carceri e le scuole le conosce davvero, che sviliscono l’intelligenza di chi nelle carceri e nelle scuole ci lavora. Un’ ennesima prova delle modalità di governo verso cui siamo scivolati e che adesso trovano la sintesi compiuta nel Valditara-Nordio pensiero: la legge del più forte, la cui parola vale più di qualsiasi altra, proclamata pur contro ogni logica.    
November 14, 2025
ROARS
Intelligenza Artificiale nelle scuole: nuova sperimentazione con gli studenti “fragili”
Da circa un anno è partita una sperimentazione sull’uso dell’Intelligenza Artificiale (IA) che coinvolge alcune scuole italiane. Il Ministro Valditara ha annunciato giorni fa i primi esiti positivi. La sperimentazione sarà oggetto di valutazione conclusiva da parte dell’INVALSI. Se tutto andrà bene, potrà essere estesa a tutte le scuole. Ma cosa stanno facendo concretamente le scuole coinvolte? Come verranno valutate dall’INVALSI? Dove possiamo leggere e farci un’idea dei dati annunciati dal Ministro? La documentazione pubblica è parziale e difficile da trovare. Nel frattempo, però, Valditara annuncia un nuovo progetto sull’IA nelle scuole campane: partiamo dagli studenti “fragili” INVALSI.  Il dibattito sull’IA nella didattica è di grande attualità: i benefici sono a dir poco dubbi e l’opacità intrinseca degli strumenti non consente controllo e affidabilità. E’ davvero una buona idea trasformare le scuole dei territori più difficili in luoghi di sperimentazione?   -------------------------------------------------------------------------------- Cosa sappiamo dell’introduzione dell’Intelligenza Artificiale (IA) nelle scuole? A che punto è la sperimentazione annunciata dal Ministro Valditara più di un anno fa? Come si sta svolgendo e cosa ci aspetta? Sono tutte domande che legittimamente ci poniamo, soprattutto dopo la pubblicazione delle Linee Guida per l’Intelligenza Artificiale a scuola e dopo il recente intervento del Ministro che ha comunicato [1] i primi esiti quantitativi e positivi della sperimentazione dell’IA in alcune classi. La sperimentazione coinvolge anche l’INVALSI e  prevede nuovi sviluppi. Se cerchiamo informazioni sui siti istituzionali, non troviamo niente di pubblico. Non è possibile conoscere né il progetto né la logica di svolgimento, le modalità di valutazione degli esiti da parte dell’INVALSI, le tappe successive. Come sta procedendo allora il progetto pilota e quali esiti ha annunciato il Ministro al recente Summit Next Gen AI a Napoli? Proviamo a fare un po’ di ordine. QUELLO CHE SAPPIAMO FINORA * Nell’Ottobre 2024 il Ministro Valditara ha annunciato una sperimentazione sull’intelligenza artificiale nelle scuole, che coinvolge 15 scuole di 4 regioni diverse. Siamo tra i primi, afferma il Ministro. Come noi solo la Corea del Sud e pochi altri. * L’obiettivo principale, stando alle dichiarazioni del Ministro, è ”valutare l’efficacia degli assistenti IA nel migliorare le performance degli studenti”. * La sperimentazione durerà due anni, i risultati saranno valutati dall’Istituto di valutazione INVALSI. In base agli esiti la sperimentazione potrà essere estesa a tutte le scuole. Inutile cercare dettagli sul sito del Ministero o di INVALSI. Per avere qualche informazione, bisogna cercare in rete: qui, ad esempio, un articolo dal taglio generale, mentre  qui, qui, qui e qui, informazioni dalla stampa locale. Ricaviamo che la sperimentazione si baserà su specifici moduli Google, offerti (per ora) gratuitamente alle scuole partecipanti. La valutazione della sperimentazione sarà affidata all’ INVALSI, anche se non è chiaro come. Alcuni articoli parlano di “prove INVALSI” finali, altri di monitoraggio dei progressi in itinere, o di raccolta di dati anonimi ed “esame finale”. Tra i consulenti che affiancano il ministero in questa sperimentazione, il fisico Paolo Branchini. Qui un suo recente intervento dal titolo “AI nella scuola” e qui un video sullo stesso tema all’ultimo convegno del sindacato SNALS dal titolo “Innovazioni e sfide per l’istruzione e la ricerca”. Scrive Branchini: > “Il Ministro Valditara ha fatto partire un’importante sperimentazione sull’uso > degli assistenti virtuali in ambito educativo. > > Si tratta di software basati sull’intelligenza artificiale (AI) in grado di > comprendere e rispondere a domande, fornire informazioni e supportare vari > tipi di attività attraverso l’interazione vocale e testuale. > > Come recenti studi hanno dimostrato, gli assistenti virtuali inciderebbero > sull’esperienza educativa rendendola più interattiva, personalizzata e > accessibile, adattandosi ai ritmi e alle esigenze di ogni studente. > L’insegnamento diventerebbe più attrattivo per le nuove generazioni”. > > “Si spera che gli assistenti possano contrastare il fenomeno della dispersione > scolastica, aiutare a ridurre il gender gap nelle materie scientifiche e > generare, in modo semiautomatico, così sia corsi di sostegno che di > potenziamento. > > Lo scopo della sperimentazione è quantificare questi potenziali vantaggi. Per > questa ragione, ogni classe dove si effettuerà la sperimentazione, sarà > affiancata da una classe “placebo” dove non lo sarà. > > Entro maggio 2026, i test INVALSI, in modo scientifico, misureranno gli > eventuali vantaggi dell’approccio basato sull’AI. Consci che questo approccio > non sia ancora una tecnologia consolidata, in questa sperimentazione saranno > esposti all’AI generativa solo i docenti”. Il progetto si chiama Impar-AI. Questo è il sito attualmente visibile.   L’ATTUALITÀ E I PRIMI RISULTATI * Il 9 Agosto scorso il Ministero dell’Istruzione e del Merito pubblica le Linee Guida  sull’IA a scuola. * Qualche giorno fa a Napoli si è appunto tenuto un summit internazionale sull’intelligenza artificiale: Next Gen AI. L’introduzione del Ministro Valditara è stata solenne. Leggiamone un estratto: > “Il MIM è stato il primo ministero ad aver approvato le Linee Guida dell’IA > nelle scuole. È stata lanciata la prima sperimentazione sull’impiego dell’IA > nella didattica quotidiana per la personalizzazione della didattica. Siamo > partiti da 15 scuole, 4 regioni differenti. Mi fa molto piacere che le prima > scuole disponibili ad avviare questa prima sperimentazione sono proprio alcune > scuole del Mezzogiorno d’Italia. Una scuola di Reggio Calabria, una scuola di > Platì: c’è grande voglia di futuro”. Alcuni dati: > “I primi risultati di valutazione comparata basata su prove comuni, parallele > e voti finali evidenziano un impatto sostanzialmente positivo. Le classi > sperimentali hanno registrato una media generale finale superiore rispetto > alle classi di controllo: si è rilevata una media di 7.93 contro 6.90 per le > classi di controllo. > > Un altro dato di particolare interesse è l’azzeramento del tasso di non > ammissione cioè delle cosiddette bocciature, proprio nelle classi > sperimentali, laddove nelle classi di controllo un 16% di non ammissione. > > Ma la sperimentazione ha anche dimostrato un impatto notevolmente positivo > sugli alunni con bisogni educativi speciali o con disturbi nell’apprendimento. > Ed è dunque ancora una volta la conferma che abbiamo visto giusto..” Soffermiamoci per un attimo sui dati, le prime valutazioni elencate da Valditara. Il Ministro cita valutazioni quantitative per sostenere la bontà delle sue politiche: è la sua parola pubblica. Da dove vengono e come sono stati ottenuti quei voti? Dal sito del progetto possiamo trarre qualche spunto. Nella sezione dedicata agli esiti comprendiamo che i primi risultati riguardano due gruppi classe, divisi in gruppo sperimentale e non sperimentale. Osserviamo innanzitutto che i due gruppi non sono numericamente della stessa dimensione: quelli che sperimentano l’IA nella didattica sono sempre ridotti in termini numerici (25 alunni vs 17; 19 alunni vs 15), ignoriamo il perché. Ma soprattutto, guardiamo i risultati. Due sole classi coinvolte. In una non c’è nessuna differenza tra gli studenti che usano l’IA e quelli che non la usano. Nell’altra classe, e questa è quella scelta dal Ministro per la sua citazione al recente Summit, si registra  uno scarto di circa mezzo punto tra le “medie generali dei voti finali”: da 6,90 per la classe non sperimentale a 7, 63 per l’altra. Il Ministro, stando a ciò che è visibile sul sito ImparAI,  ha quindi scelto il dato più conveniente, ottenuto a partire da un gruppo di 15 studenti, per raccontare il buon andamento della sperimentazione? Se così fosse, si tratterebbe di una una “selezione tendenziosa” (cherry picking) di dati numerici ( numeri usati come armi di distruzioni matematica) peraltro non significativi statisticamente, utilizzati per supportare una narrazione. Ci sarà sicuramente un’altra spiegazione. Sarebbe il caso di rendere pubblici i dati di sperimentazioni che coinvolgono i nostri studenti, per consentire un monitoraggio civico e un’informazione rispettosa dei cittadini. Forse il coordinatore del progetto, fisico dell’INFN, potrebbe intervenire pubblicamente spiegando come stanno procedendo i monitoraggi intermedi.   POLITICHE SCOLASTICHE AUTOMATIZZATE Valditara ha annunciato anche un’altra sperimentazione. Al Summit ha dichiarato: > “Proprio qua in Campania partirà un’altra fase di sperimentazione: voglio > ringraziare la Compagnia di San Paolo per aver messo a disposizione risorse > importanti. Proprio qui in Campania porteremo la sperimentazione dell’IA nelle > scuole che coinvolgerà almeno 10mila studenti [..] > > Partiremo dalle scuole più fragili, nella logica di Agenda Sud, che ha dato > straordinari risultati nella lotta alla dispersione scolastica. > > Partiremo dai giovani con maggiori criticità, che hanno necessità dir > recupero, con un programma in collaborazione con INVALSI e con le strutture > regionali del Ministeri, che si va ad affiancare all’investimento colossale > previsto per Agenda Sud e Nord: un miliardo e 40 milioni di euro. > > La seconda bella notizia è l’avvio di un grande piano di formazione da 100 > milioni di euro, che coinvolgerà docenti e studenti di tutte le scuole in > attività laboratoriali da realizzare insieme per utilizzare l’IA come supporto > per potenziare le competenze per la personalizzazione dell’apprendimento”. A quanto pare, la nuova frontiera delle politiche automatizzate si allarga. L’Agenda Sud, come tutte le politiche che dal 2022, nel quadro dei finanziamenti PNRR, sono state applicate con l’obiettivo di “colmare i divari di apprendimento”, attribuiscono finanziamenti e prevedono azioni didattiche a partire dai dati INVALSI. Questi dati etichettano gli studenti in funzione degli esiti passati nei test come “studenti in condizioni di fragilità”, “quasi fragili” o adeguati. E lo fanno secondo logiche e parametri non trasparenti. L’uso di questi dati per scelte che hanno conseguenze sul destino educativo individuale di studenti (famiglie) e docenti, non è affatto pacifico né tantomeno neutro. Affidare i “fragili” ai tutor virtuali e alla sorveglianza delle piattaforme delle Big Tech senza alcuna prudenza, anzi come segnale di posizionamento del governo nella rincorsa internazionale all’automazione dei processi sociali, è frutto di una valutazione politica. Non discende certo come corollario dai dati INVALSI e dovrebbe quindi essere oggetto di dibattito pubblico e cautela. Introdurre l’Intelligenza Artificiale in classe non è come mettere banchi a rotelle o montare lavagne elettroniche, pur essendo tutti questi potenzialmente strumenti didattici. “L’ascesa dell’intelligenza artificiale generativa nei flussi di lavoro della conoscenza solleva interrogativi sul suo impatto sulle competenze e sulle pratiche di pensiero critico”, questo l’incipit di uno degli N articoli che sottolineano preoccupanti interrogativi sull’impiego di strumenti automatizzati per la cosiddetta personalizzazione della didattica. Significativo che questo articolo sia appena stato scritto di un gruppo di ricercatori di Microsoft e della Carnegie Mellon University (qui) Uno strumento disabilitante e atrofizzante, di “deskilling”, scrive Daniela Tafani, che in più genera dipendenza: un compagno immaginario del tutto inaffidabile. Perché mai affiancarlo a uno studente, e per di più a quello più fragile? Perché non iniziare dai più bravi, invece? Perché trasformare le scuole dei territori più difficili in luoghi di sperimentazione di strumenti i cui benefici sono quanto meno dubbi e la cui opacità operativa intrinseca non consente controllo e affidabilità? “L’intelligenza artificiale nell’istruzione è un problema pubblico”, afferma Ben Williamson, che nel Marzo 2024 ha pubblicato un rapporto per il National Education Policy Center dell’Università del Colorado dal titolo assai eloquente: “Time for a Pause: Without Effective Public Oversight, AI in Schools Will Do More Harm Than Good.” Si dirà: ma gli studenti non saranno mai soli, ci saranno i loro insegnanti, opportunamente “formati”, a sovrintendere il funzionamento “etico” del progetto. Cosa c’è di più sensato, in effetti, che stanziare soldi pubblici per formare gruppi di insegnanti all’uso di piattaforme proprietarie che le scuole dovranno acquistare da aziende come Google e Microsoft per affiancare gli studenti più bisognosi?  Perché non investire invece in nuovi docenti che affianchino quotidianamente le classi con maggiori difficoltà? O prevedere misure di sdoppiamento-classi almeno nei territori di maggiore complessità e disagio sociale? E’ un vero e proprio gioco delle parti quello a cui assistiamo, peraltro basato su finanziamenti dal tempo limitato (PNRR).  La “sperimentazione” rimpalla la responsabilità prima politica e poi educativa, a cascata, dal governo agli insegnanti, per ricadere poi sull’ “utente finale” (cit.): lo studente. Non solo etichettato dagli algoritmi INVALSI, più o meno a sua insaputa, ma messo pure a svolgere lavoro di potenziamento online, con un tutor virtuale che sorveglia e memorizza i suoi progressi, mentre il lavoro del suo insegnante è progressivamente alienato e monitorato. Un capolavoro. Si dirà, ancora: ma gli altri paesi lo fanno, non possiamo restare indietro. In effetti, le cose non stanno esattamente cosi. A quanto pare, ad esempio, la mitica Corea ha fatto marcia indietro, grazie all’opposizione consapevole di studenti, genitori e insegnanti. Accadrà lo stesso anche in Italia?                         [1] Al Summit Internazionale sull’Intelligenza Artificiale di Napoli il 9 Ottobre scorso.
October 27, 2025
ROARS
Indicatori matematici come strumenti di propaganda: la “dispersione implicita” INVALSI
Quando un fenomeno educativo viene descritto tramite un costrutto debole, teoricamente infondato e scientificamente non validato ma espresso da un indicatore numerico, quell’indicatore si trasformerà facilmente in un’arma di distruzione matematica. È questo il caso dello pseudo-concetto di dispersione implicita: introdotto nel 2019 dall’INVALSI e oggi diventato un indicatore multiforme e assimilabile, a seconda delle circostanze, all’analfabetismo funzionale, alla povertà educativa, al deficit di competenze, alla fragilità degli apprendimenti degli studenti, fino a configurarsi come misura di un presunto rischio individuale e sociale. Un costrutto tutto interno alla metrica INVALSI e alle sue procedure di valutazione, oggi automatizzate e inaccessibili. Gli esiti dei test INVALSI non sono verificabili, discutibili o falsificabili: nemmeno dallo studente obbligato a svolgerli, e che oggi  trova la certificazione INVALSI direttamente nel suo curriculum digitale.   --------------------------------------------------------------------------------   Quando un fenomeno educativo viene descritto tramite un costrutto debole, teoricamente infondato e scientificamente non validato ma espresso da un indicatore numerico, quell’indicatore si trasformerà facilmente in un’arma di distruzione matematica. È questo il caso dello pseudo-concetto di dispersione implicita: introdotto nel 2019 dall’INVALSI e oggi diventato un indicatore multiforme e assimilabile, a seconda delle circostanze, all’analfabetismo funzionale, alla povertà educativa, al deficit di competenze, alla fragilità degli apprendimenti degli studenti, fino a configurarsi come misura di un presunto rischio individuale e sociale. Al Forum Ambrosetti di Cernobbio il Ministro Valditara ha prima messo in risalto il calo del tasso di abbandono scolastico (che oggi si preferisce chiamare dispersione esplicita: 8,3%, in anticipo sull’obiettivo europeo del 9%) attribuendolo alle sue politiche nel quadro del PNRR (Agenda Sud e Decreto Caivano). Ha poi richiamato l’attenzione sulla dispersione implicita, dichiarando: > “RISULTATI IMPRESSIONANTI; NON È UN CASO CHE L’OCSE MI ABBIA INVITATO IN > COLLEGAMENTO CON PARIGI PER ILLUSTRARE QUESTO DATO [LA RIDUZIONE DELLA > PERCENTUALE DI DISPERSIONE IMPLICITA DAL 2022 AL 2025 NELLE REGIONI > MERIDIONALI], PERCHÉ È LA PRIMA VOLTA CHE UN PAESE RIESCE AD AFFRONTARE IN > MODO COSÌ DRASTICO IL PROBLEMA DELLA DISPERSIONE IMPLICITA.” Che l’OCSE chieda spiegazioni al Ministro suona alquanto incredibile, innanzitutto perché questo indicatore non esiste nel dibattito internazionale, anzi, non esiste al di fuori dei dati INVALSI. Cos’è la dispersione implicita? Il Presidente INVALSI la definisce “(quota di) studenti che non raggiungono il livello di competenze minimo previsto. Coloro che, anche ottenendo il diploma, non arrivano al livello 3 nelle prove di Italiano e Matematica e che non raggiungono nemmeno il livello B1 nella lettura e nell’ascolto in Inglese” (2019, invalsiopen). Aggiunge poi che la dispersione implicita à “una misura a supporto dell’individuazione della fragilità negli apprendimenti”, ovvero “un indicatore di fragilità che permette di individuare precocemente studenti maggiormente esposti ai rischi connessi all’insuccesso scolastico” (Tuttoscuola, 2022). Si tratterebbe quindi della percentuale di studenti, misurata dall’INVALSI anno dopo anno, che non raggiunge una soglia di adeguatezza nei test, soglia stabilita dall’INVALSI stesso. Un costrutto tutto interno alla metrica INVALSI e alle sue procedure di valutazione, oggi automatizzate. E qui sorgono i problemi. * Chi stabilisce quali lacune considerare accettabili, come e con quale grado di legittimità e pubblicità, visto che le prove non sono accessibili e non esistono standard di apprendimento minimo previsti nel nostro ordinamento scolastico? * Chi stabilisce le modalità di misurazione, i modelli probabilistici che sintetizzano in punteggi numerici le risposte fornite per via digitale dagli studenti e che qualificherebbero il loro “grado di competenza” ? * Quali semplificazioni, quale livello di accuratezza ed errore, quale riproducibilità? * Infine, come verificare e controllare i dati, visto che oggi l’INVALSI prevede l’uso di tecniche di machine learning per la correzione dei test? Non a caso, è in attesa di riscontro un reclamo al Garante per la Protezione dei Dati Personali, presentato da alcuni genitori con il supporto della FLC CGIL, dopo che l’INVALSI ha negato loro l’accesso ai dati delle prove svolte dai propri figli. La “dispersione implicita” è un indicatore numerico privo di fondamento scientifico. Il suo uso da parte di ISTAT, Save the Children, Fondazione Agnelli o del Ministero del Merito non gli conferisce validità. Basato su assunti non verificabili, serve più a legittimare un’ideologia: presuppone che gli insegnanti non siano in grado di valutare correttamente e attribuisce valore normativo e ora anche predittivo agli esiti delle prove standardizzate. Lo studente “fragile” nei test INVALSI sarebbe potenzialmente a rischio di marginalizzazione sociale e culturale. Davvero crediamo che le risposte fornite da un ragazzo dai 7 ai 18 anni in qualche manciata di minuti possa indicarci quale sarà il suo destino? I test standardizzati sono “diseguali per costruzione” (Unequal by design, 2022) ovvero progettati per produrre una certa percentuale di fallimenti: così li definisce la letteratura critica internazionale, che da noi non trova voce nel dibattito pubblico. Preferiamo non discutere della validità dello strumento, ma solo della necessità di riformare continuamente ciò che quello strumento pretende di misurare.   Questo articolo è stato ripreso da il Manifesto del 16.9.25.
October 6, 2025
ROARS
La FLC CGIL contro INVALSI: viola il diritto al controllo del punteggio dei test
Pubblichiamo il testo del comunicato della FLC CGIL sul recente reclamo inviato al Garante per la Protezione dei Dati Personali.  Il reclamo contesta all’INVALSI la mancanza di trasparenza e la negazione del diritto al controllo dell’esito della prova svolta. Oggi, qualsiasi studente abbia svolto una prova INVALSI su piattaforma digitale non ha modo di accedere ai contenuti del test, per poterne verificare  l’esito e la logica di correzione.  E’ ciò che hanno constatato i genitori di due studenti tredicenni, i quali hanno chiesto conto all’INVALSI del punteggio acquisito dai propri figli nei test del 2024, che rappresenta la loro certificazione individuale di competenze.  Impossibile fornire spiegazioni, dice sostanzialmente l’INVALSI, perché si tratta di una procedura “parzialmente automatizzata”, e quindi deve essere accettata senza alcuna possibilità di controllo. Negare alle famiglie ricorrenti l’accesso ai dati dei propri figli lede il diritto di ciascuno studente ad una valutazione chiara e contestabile. Lesione tanto più grave visto che alcuni studenti sono classificati come “fragili” dall’INVALSI, quando il punteggio acquisito risulta al di sotto di una soglia di adeguatezza stabilita a monte. Attendiamo ora l’intervento dell’Autorità per la protezione dei dati personali. Entro tre mesi conosceremo lo stato del provvedimento. -------------------------------------------------------------------------------- Roma, 20 marzo 2025 – Il 3 marzo scorso è stato depositato un reclamo al Garante della Privacy portato avanti dal sindacato FLC CGIL nazionale assieme a Cattive Ragazze Ets, Alas, Roars perché intervenga sulle modalità operative delle prove INVALSI. FLC CGIL denuncia da sempre la trasformazione delle prove in strumento valutazione individuale e di profilazione delle condizioni sociali degli studenti e in uno strumento di misurazione della prestazione dei docenti e dei dirigenti scolastici. Il reclamo presentato a titolo individuale da due genitori afferenti l’associazione Cattive Ragazze ETS denuncia all’autorità Garante della Privacy l’assoluta mancanza di trasparenza da parte di INVALSI e la negazione del diritto al controllo e quindi alla revisione dell’esito dei test, con la motivazione che le prove non hanno “finalità didattiche” e che l’attribuzione del punteggio individuale avviene sulla base di un processo “parzialmente automatizzato”. Inoltre nel delicatissimo contesto di protezione dei dati personali degli studenti, INVALSI raccoglie dati di contesto (familiari, culturali, sociali) mediante questionari digitalizzati proposti contestualmente allo svolgimento dei test. Questo vale per studenti minorenni, anche nel caso di negazione del consenso da parte dei genitori. Soprattutto quello che emerge è l’impossibilità di conoscere contenuti, metodologia e responsabilità della codifica delle domande, di controllare ed eventualmente contestare il punteggio standardizzato acquisito, da cui origina la certificazione personale delle competenze. Ciò è tanto più rilevante per quegli allievi considerati dall’INVALSI come “fragili”, perché il livello acquisito è al di sotto della soglia di adeguatezza statistica. In questo contesto risulta violato il diritto di ciascuno studente e ciascun genitore a ricevere una valutazione trasparente e tempestiva, come stabilito dallo Statuto delle Studentesse e degli Studenti, oltre che dal GDPR. Auspichiamo un intervento regolatore da parte del Garante che produca effetti in favore di tutti gli studenti della scuola pubblica italiana, ripristinando i diritti violati a partire dalla modifica delle procedure e dalla piena accessibilità del controllo delle prove INVALSI. Ci si attende un cambio di passo anche da tutte le istituzioni, a partire dal Ministero dell’Istruzione, che devono mettere in campo interventi e risorse per il contrasto alla cosiddetta povertà educativa che va affrontata e superata nei processi di apprendimento e non attraverso una massiva rilevazione standardizzata.  
March 21, 2025
ROARS