Tag - INVALSI

Intelligenza Artificiale nelle scuole: nuova sperimentazione con gli studenti “fragili”
Da circa un anno è partita una sperimentazione sull’uso dell’Intelligenza Artificiale (IA) che coinvolge alcune scuole italiane. Il Ministro Valditara ha annunciato giorni fa i primi esiti positivi. La sperimentazione sarà oggetto di valutazione conclusiva da parte dell’INVALSI. Se tutto andrà bene, potrà essere estesa a tutte le scuole. Ma cosa stanno facendo concretamente le scuole coinvolte? Come verranno valutate dall’INVALSI? Dove possiamo leggere e farci un’idea dei dati annunciati dal Ministro? La documentazione pubblica è parziale e difficile da trovare. Nel frattempo, però, Valditara annuncia un nuovo progetto sull’IA nelle scuole campane: partiamo dagli studenti “fragili” INVALSI.  Il dibattito sull’IA nella didattica è di grande attualità: i benefici sono a dir poco dubbi e l’opacità intrinseca degli strumenti non consente controllo e affidabilità. E’ davvero una buona idea trasformare le scuole dei territori più difficili in luoghi di sperimentazione?   -------------------------------------------------------------------------------- Cosa sappiamo dell’introduzione dell’Intelligenza Artificiale (IA) nelle scuole? A che punto è la sperimentazione annunciata dal Ministro Valditara più di un anno fa? Come si sta svolgendo e cosa ci aspetta? Sono tutte domande che legittimamente ci poniamo, soprattutto dopo la pubblicazione delle Linee Guida per l’Intelligenza Artificiale a scuola e dopo il recente intervento del Ministro che ha comunicato [1] i primi esiti quantitativi e positivi della sperimentazione dell’IA in alcune classi. La sperimentazione coinvolge anche l’INVALSI e  prevede nuovi sviluppi. Se cerchiamo informazioni sui siti istituzionali, non troviamo niente di pubblico. Non è possibile conoscere né il progetto né la logica di svolgimento, le modalità di valutazione degli esiti da parte dell’INVALSI, le tappe successive. Come sta procedendo allora il progetto pilota e quali esiti ha annunciato il Ministro al recente Summit Next Gen AI a Napoli? Proviamo a fare un po’ di ordine. QUELLO CHE SAPPIAMO FINORA * Nell’Ottobre 2024 il Ministro Valditara ha annunciato una sperimentazione sull’intelligenza artificiale nelle scuole, che coinvolge 15 scuole di 4 regioni diverse. Siamo tra i primi, afferma il Ministro. Come noi solo la Corea del Sud e pochi altri. * L’obiettivo principale, stando alle dichiarazioni del Ministro, è ”valutare l’efficacia degli assistenti IA nel migliorare le performance degli studenti”. * La sperimentazione durerà due anni, i risultati saranno valutati dall’Istituto di valutazione INVALSI. In base agli esiti la sperimentazione potrà essere estesa a tutte le scuole. Inutile cercare dettagli sul sito del Ministero o di INVALSI. Per avere qualche informazione, bisogna cercare in rete: qui, ad esempio, un articolo dal taglio generale, mentre  qui, qui, qui e qui, informazioni dalla stampa locale. Ricaviamo che la sperimentazione si baserà su specifici moduli Google, offerti (per ora) gratuitamente alle scuole partecipanti. La valutazione della sperimentazione sarà affidata all’ INVALSI, anche se non è chiaro come. Alcuni articoli parlano di “prove INVALSI” finali, altri di monitoraggio dei progressi in itinere, o di raccolta di dati anonimi ed “esame finale”. Tra i consulenti che affiancano il ministero in questa sperimentazione, il fisico Paolo Branchini. Qui un suo recente intervento dal titolo “AI nella scuola” e qui un video sullo stesso tema all’ultimo convegno del sindacato SNALS dal titolo “Innovazioni e sfide per l’istruzione e la ricerca”. Scrive Branchini: > “Il Ministro Valditara ha fatto partire un’importante sperimentazione sull’uso > degli assistenti virtuali in ambito educativo. > > Si tratta di software basati sull’intelligenza artificiale (AI) in grado di > comprendere e rispondere a domande, fornire informazioni e supportare vari > tipi di attività attraverso l’interazione vocale e testuale. > > Come recenti studi hanno dimostrato, gli assistenti virtuali inciderebbero > sull’esperienza educativa rendendola più interattiva, personalizzata e > accessibile, adattandosi ai ritmi e alle esigenze di ogni studente. > L’insegnamento diventerebbe più attrattivo per le nuove generazioni”. > > “Si spera che gli assistenti possano contrastare il fenomeno della dispersione > scolastica, aiutare a ridurre il gender gap nelle materie scientifiche e > generare, in modo semiautomatico, così sia corsi di sostegno che di > potenziamento. > > Lo scopo della sperimentazione è quantificare questi potenziali vantaggi. Per > questa ragione, ogni classe dove si effettuerà la sperimentazione, sarà > affiancata da una classe “placebo” dove non lo sarà. > > Entro maggio 2026, i test INVALSI, in modo scientifico, misureranno gli > eventuali vantaggi dell’approccio basato sull’AI. Consci che questo approccio > non sia ancora una tecnologia consolidata, in questa sperimentazione saranno > esposti all’AI generativa solo i docenti”. Il progetto si chiama Impar-AI. Questo è il sito attualmente visibile.   L’ATTUALITÀ E I PRIMI RISULTATI * Il 9 Agosto scorso il Ministero dell’Istruzione e del Merito pubblica le Linee Guida  sull’IA a scuola. * Qualche giorno fa a Napoli si è appunto tenuto un summit internazionale sull’intelligenza artificiale: Next Gen AI. L’introduzione del Ministro Valditara è stata solenne. Leggiamone un estratto: > “Il MIM è stato il primo ministero ad aver approvato le Linee Guida dell’IA > nelle scuole. È stata lanciata la prima sperimentazione sull’impiego dell’IA > nella didattica quotidiana per la personalizzazione della didattica. Siamo > partiti da 15 scuole, 4 regioni differenti. Mi fa molto piacere che le prima > scuole disponibili ad avviare questa prima sperimentazione sono proprio alcune > scuole del Mezzogiorno d’Italia. Una scuola di Reggio Calabria, una scuola di > Platì: c’è grande voglia di futuro”. Alcuni dati: > “I primi risultati di valutazione comparata basata su prove comuni, parallele > e voti finali evidenziano un impatto sostanzialmente positivo. Le classi > sperimentali hanno registrato una media generale finale superiore rispetto > alle classi di controllo: si è rilevata una media di 7.93 contro 6.90 per le > classi di controllo. > > Un altro dato di particolare interesse è l’azzeramento del tasso di non > ammissione cioè delle cosiddette bocciature, proprio nelle classi > sperimentali, laddove nelle classi di controllo un 16% di non ammissione. > > Ma la sperimentazione ha anche dimostrato un impatto notevolmente positivo > sugli alunni con bisogni educativi speciali o con disturbi nell’apprendimento. > Ed è dunque ancora una volta la conferma che abbiamo visto giusto..” Soffermiamoci per un attimo sui dati, le prime valutazioni elencate da Valditara. Il Ministro cita valutazioni quantitative per sostenere la bontà delle sue politiche: è la sua parola pubblica. Da dove vengono e come sono stati ottenuti quei voti? Dal sito del progetto possiamo trarre qualche spunto. Nella sezione dedicata agli esiti comprendiamo che i primi risultati riguardano due gruppi classe, divisi in gruppo sperimentale e non sperimentale. Osserviamo innanzitutto che i due gruppi non sono numericamente della stessa dimensione: quelli che sperimentano l’IA nella didattica sono sempre ridotti in termini numerici (25 alunni vs 17; 19 alunni vs 15), ignoriamo il perché. Ma soprattutto, guardiamo i risultati. Due sole classi coinvolte. In una non c’è nessuna differenza tra gli studenti che usano l’IA e quelli che non la usano. Nell’altra classe, e questa è quella scelta dal Ministro per la sua citazione al recente Summit, si registra  uno scarto di circa mezzo punto tra le “medie generali dei voti finali”: da 6,90 per la classe non sperimentale a 7, 63 per l’altra. Il Ministro, stando a ciò che è visibile sul sito ImparAI,  ha quindi scelto il dato più conveniente, ottenuto a partire da un gruppo di 15 studenti, per raccontare il buon andamento della sperimentazione? Se così fosse, si tratterebbe di una una “selezione tendenziosa” (cherry picking) di dati numerici ( numeri usati come armi di distruzioni matematica) peraltro non significativi statisticamente, utilizzati per supportare una narrazione. Ci sarà sicuramente un’altra spiegazione. Sarebbe il caso di rendere pubblici i dati di sperimentazioni che coinvolgono i nostri studenti, per consentire un monitoraggio civico e un’informazione rispettosa dei cittadini. Forse il coordinatore del progetto, fisico dell’INFN, potrebbe intervenire pubblicamente spiegando come stanno procedendo i monitoraggi intermedi.   POLITICHE SCOLASTICHE AUTOMATIZZATE Valditara ha annunciato anche un’altra sperimentazione. Al Summit ha dichiarato: > “Proprio qua in Campania partirà un’altra fase di sperimentazione: voglio > ringraziare la Compagnia di San Paolo per aver messo a disposizione risorse > importanti. Proprio qui in Campania porteremo la sperimentazione dell’IA nelle > scuole che coinvolgerà almeno 10mila studenti [..] > > Partiremo dalle scuole più fragili, nella logica di Agenda Sud, che ha dato > straordinari risultati nella lotta alla dispersione scolastica. > > Partiremo dai giovani con maggiori criticità, che hanno necessità dir > recupero, con un programma in collaborazione con INVALSI e con le strutture > regionali del Ministeri, che si va ad affiancare all’investimento colossale > previsto per Agenda Sud e Nord: un miliardo e 40 milioni di euro. > > La seconda bella notizia è l’avvio di un grande piano di formazione da 100 > milioni di euro, che coinvolgerà docenti e studenti di tutte le scuole in > attività laboratoriali da realizzare insieme per utilizzare l’IA come supporto > per potenziare le competenze per la personalizzazione dell’apprendimento”. A quanto pare, la nuova frontiera delle politiche automatizzate si allarga. L’Agenda Sud, come tutte le politiche che dal 2022, nel quadro dei finanziamenti PNRR, sono state applicate con l’obiettivo di “colmare i divari di apprendimento”, attribuiscono finanziamenti e prevedono azioni didattiche a partire dai dati INVALSI. Questi dati etichettano gli studenti in funzione degli esiti passati nei test come “studenti in condizioni di fragilità”, “quasi fragili” o adeguati. E lo fanno secondo logiche e parametri non trasparenti. L’uso di questi dati per scelte che hanno conseguenze sul destino educativo individuale di studenti (famiglie) e docenti, non è affatto pacifico né tantomeno neutro. Affidare i “fragili” ai tutor virtuali e alla sorveglianza delle piattaforme delle Big Tech senza alcuna prudenza, anzi come segnale di posizionamento del governo nella rincorsa internazionale all’automazione dei processi sociali, è frutto di una valutazione politica. Non discende certo come corollario dai dati INVALSI e dovrebbe quindi essere oggetto di dibattito pubblico e cautela. Introdurre l’Intelligenza Artificiale in classe non è come mettere banchi a rotelle o montare lavagne elettroniche, pur essendo tutti questi potenzialmente strumenti didattici. “L’ascesa dell’intelligenza artificiale generativa nei flussi di lavoro della conoscenza solleva interrogativi sul suo impatto sulle competenze e sulle pratiche di pensiero critico”, questo l’incipit di uno degli N articoli che sottolineano preoccupanti interrogativi sull’impiego di strumenti automatizzati per la cosiddetta personalizzazione della didattica. Significativo che questo articolo sia appena stato scritto di un gruppo di ricercatori di Microsoft e della Carnegie Mellon University (qui) Uno strumento disabilitante e atrofizzante, di “deskilling”, scrive Daniela Tafani, che in più genera dipendenza: un compagno immaginario del tutto inaffidabile. Perché mai affiancarlo a uno studente, e per di più a quello più fragile? Perché non iniziare dai più bravi, invece? Perché trasformare le scuole dei territori più difficili in luoghi di sperimentazione di strumenti i cui benefici sono quanto meno dubbi e la cui opacità operativa intrinseca non consente controllo e affidabilità? “L’intelligenza artificiale nell’istruzione è un problema pubblico”, afferma Ben Williamson, che nel Marzo 2024 ha pubblicato un rapporto per il National Education Policy Center dell’Università del Colorado dal titolo assai eloquente: “Time for a Pause: Without Effective Public Oversight, AI in Schools Will Do More Harm Than Good.” Si dirà: ma gli studenti non saranno mai soli, ci saranno i loro insegnanti, opportunamente “formati”, a sovrintendere il funzionamento “etico” del progetto. Cosa c’è di più sensato, in effetti, che stanziare soldi pubblici per formare gruppi di insegnanti all’uso di piattaforme proprietarie che le scuole dovranno acquistare da aziende come Google e Microsoft per affiancare gli studenti più bisognosi?  Perché non investire invece in nuovi docenti che affianchino quotidianamente le classi con maggiori difficoltà? O prevedere misure di sdoppiamento-classi almeno nei territori di maggiore complessità e disagio sociale? E’ un vero e proprio gioco delle parti quello a cui assistiamo, peraltro basato su finanziamenti dal tempo limitato (PNRR).  La “sperimentazione” rimpalla la responsabilità prima politica e poi educativa, a cascata, dal governo agli insegnanti, per ricadere poi sull’ “utente finale” (cit.): lo studente. Non solo etichettato dagli algoritmi INVALSI, più o meno a sua insaputa, ma messo pure a svolgere lavoro di potenziamento online, con un tutor virtuale che sorveglia e memorizza i suoi progressi, mentre il lavoro del suo insegnante è progressivamente alienato e monitorato. Un capolavoro. Si dirà, ancora: ma gli altri paesi lo fanno, non possiamo restare indietro. In effetti, le cose non stanno esattamente cosi. A quanto pare, ad esempio, la mitica Corea ha fatto marcia indietro, grazie all’opposizione consapevole di studenti, genitori e insegnanti. Accadrà lo stesso anche in Italia?                         [1] Al Summit Internazionale sull’Intelligenza Artificiale di Napoli il 9 Ottobre scorso.
Indicatori matematici come strumenti di propaganda: la “dispersione implicita” INVALSI
Quando un fenomeno educativo viene descritto tramite un costrutto debole, teoricamente infondato e scientificamente non validato ma espresso da un indicatore numerico, quell’indicatore si trasformerà facilmente in un’arma di distruzione matematica. È questo il caso dello pseudo-concetto di dispersione implicita: introdotto nel 2019 dall’INVALSI e oggi diventato un indicatore multiforme e assimilabile, a seconda delle circostanze, all’analfabetismo funzionale, alla povertà educativa, al deficit di competenze, alla fragilità degli apprendimenti degli studenti, fino a configurarsi come misura di un presunto rischio individuale e sociale. Un costrutto tutto interno alla metrica INVALSI e alle sue procedure di valutazione, oggi automatizzate e inaccessibili. Gli esiti dei test INVALSI non sono verificabili, discutibili o falsificabili: nemmeno dallo studente obbligato a svolgerli, e che oggi  trova la certificazione INVALSI direttamente nel suo curriculum digitale.   --------------------------------------------------------------------------------   Quando un fenomeno educativo viene descritto tramite un costrutto debole, teoricamente infondato e scientificamente non validato ma espresso da un indicatore numerico, quell’indicatore si trasformerà facilmente in un’arma di distruzione matematica. È questo il caso dello pseudo-concetto di dispersione implicita: introdotto nel 2019 dall’INVALSI e oggi diventato un indicatore multiforme e assimilabile, a seconda delle circostanze, all’analfabetismo funzionale, alla povertà educativa, al deficit di competenze, alla fragilità degli apprendimenti degli studenti, fino a configurarsi come misura di un presunto rischio individuale e sociale. Al Forum Ambrosetti di Cernobbio il Ministro Valditara ha prima messo in risalto il calo del tasso di abbandono scolastico (che oggi si preferisce chiamare dispersione esplicita: 8,3%, in anticipo sull’obiettivo europeo del 9%) attribuendolo alle sue politiche nel quadro del PNRR (Agenda Sud e Decreto Caivano). Ha poi richiamato l’attenzione sulla dispersione implicita, dichiarando: > “RISULTATI IMPRESSIONANTI; NON È UN CASO CHE L’OCSE MI ABBIA INVITATO IN > COLLEGAMENTO CON PARIGI PER ILLUSTRARE QUESTO DATO [LA RIDUZIONE DELLA > PERCENTUALE DI DISPERSIONE IMPLICITA DAL 2022 AL 2025 NELLE REGIONI > MERIDIONALI], PERCHÉ È LA PRIMA VOLTA CHE UN PAESE RIESCE AD AFFRONTARE IN > MODO COSÌ DRASTICO IL PROBLEMA DELLA DISPERSIONE IMPLICITA.” Che l’OCSE chieda spiegazioni al Ministro suona alquanto incredibile, innanzitutto perché questo indicatore non esiste nel dibattito internazionale, anzi, non esiste al di fuori dei dati INVALSI. Cos’è la dispersione implicita? Il Presidente INVALSI la definisce “(quota di) studenti che non raggiungono il livello di competenze minimo previsto. Coloro che, anche ottenendo il diploma, non arrivano al livello 3 nelle prove di Italiano e Matematica e che non raggiungono nemmeno il livello B1 nella lettura e nell’ascolto in Inglese” (2019, invalsiopen). Aggiunge poi che la dispersione implicita à “una misura a supporto dell’individuazione della fragilità negli apprendimenti”, ovvero “un indicatore di fragilità che permette di individuare precocemente studenti maggiormente esposti ai rischi connessi all’insuccesso scolastico” (Tuttoscuola, 2022). Si tratterebbe quindi della percentuale di studenti, misurata dall’INVALSI anno dopo anno, che non raggiunge una soglia di adeguatezza nei test, soglia stabilita dall’INVALSI stesso. Un costrutto tutto interno alla metrica INVALSI e alle sue procedure di valutazione, oggi automatizzate. E qui sorgono i problemi. * Chi stabilisce quali lacune considerare accettabili, come e con quale grado di legittimità e pubblicità, visto che le prove non sono accessibili e non esistono standard di apprendimento minimo previsti nel nostro ordinamento scolastico? * Chi stabilisce le modalità di misurazione, i modelli probabilistici che sintetizzano in punteggi numerici le risposte fornite per via digitale dagli studenti e che qualificherebbero il loro “grado di competenza” ? * Quali semplificazioni, quale livello di accuratezza ed errore, quale riproducibilità? * Infine, come verificare e controllare i dati, visto che oggi l’INVALSI prevede l’uso di tecniche di machine learning per la correzione dei test? Non a caso, è in attesa di riscontro un reclamo al Garante per la Protezione dei Dati Personali, presentato da alcuni genitori con il supporto della FLC CGIL, dopo che l’INVALSI ha negato loro l’accesso ai dati delle prove svolte dai propri figli. La “dispersione implicita” è un indicatore numerico privo di fondamento scientifico. Il suo uso da parte di ISTAT, Save the Children, Fondazione Agnelli o del Ministero del Merito non gli conferisce validità. Basato su assunti non verificabili, serve più a legittimare un’ideologia: presuppone che gli insegnanti non siano in grado di valutare correttamente e attribuisce valore normativo e ora anche predittivo agli esiti delle prove standardizzate. Lo studente “fragile” nei test INVALSI sarebbe potenzialmente a rischio di marginalizzazione sociale e culturale. Davvero crediamo che le risposte fornite da un ragazzo dai 7 ai 18 anni in qualche manciata di minuti possa indicarci quale sarà il suo destino? I test standardizzati sono “diseguali per costruzione” (Unequal by design, 2022) ovvero progettati per produrre una certa percentuale di fallimenti: così li definisce la letteratura critica internazionale, che da noi non trova voce nel dibattito pubblico. Preferiamo non discutere della validità dello strumento, ma solo della necessità di riformare continuamente ciò che quello strumento pretende di misurare.   Questo articolo è stato ripreso da il Manifesto del 16.9.25.
Sensazionale scoperta INVALSI: il numero di studenti per classe non conta
Meglio una classe da 30 studenti o da 10? Quale situazione preferirebbe Mark Zuckerberg per l’istruzione di suo figlio? La dimensione della classe non conta: è questa la recente, sensazionale scoperta dell’INVALSI. Ciò che conta è “la dimensione della persona”, la personalizzazione. Perciò, quando il Ministro dell’Economia dichiara che bisognerà “ripensare strutture, personale e spesa” per l’istruzione, non dobbiamo preoccuparci. Non servono soldi per aumentare il numero di insegnanti o stabilizzarli, basta dirottare risorse sulle nuove tecnologie di intelligenza artificiale e personalizzare la didattica. Fatalità, la scoperta dell’INVALSI lo conferma. -------------------------------------------------------------------------------- Meglio una classe da 30 studenti o da 10? Proviamo a chiederci: quale situazione preferirebbe Mark Zuckerberg per l’istruzione di suo figlio? La dimensione della classe non conta: è questa la recente e sensazionale scoperta dell’INVALSI: ciò che conta è “la dimensione della persona”, la personalizzazione. Che fortuna: in effetti non abbiamo i soldi per aumentare il numero di insegnanti (vedi recenti dichiarazioni del Ministro Giorgetti sui tagli alla scuola, qui) ma possiamo dirottare risorse sulle nuove tecnologie di intelligenza artificiale per personalizzare la didattica (vedi dichiarazione del Ministro Valditara sull’utilità dell’IA in classe, qui). Nell’attesa dell’ultima puntata della soap opera più longeva della storia della valutazione scolastica italiana, ovvero l’uscita del Rapporto annuale sui test INVALSI edizione 2025, prevista per il prossimo 9 Luglio, l’Istituto prova ad alimentare la suspence elencando percentuali e correlazioni tra la taglia delle classi delle nostre scuole e il numero di studenti “low performer”. I “low performer” sono sempre loro, ormai li conosciamo: gli studenti fragili, i dispersi impliciti, i ragazzi “bollinati” INVALSI livello 1 e 2 . L’INVALSI ci dice che la numerosità delle classi non influisce sulla loro percentuale. Ad esempio per gli studenti di terza media: > “LE CLASSI DI DIMENSIONI INTERMEDIE (21-25 STUDENTI) MOSTRANO UNA PERCENTUALE > INFERIORE DI STUDENTI CON BASSO RENDIMENTO (1,01%), MENTRE QUELLE PIÙ NUMEROSE > (OLTRE 26 STUDENTI) PRESENTANO UN’INCIDENZA LIEVEMENTE SUPERIORE (1.09%)”. La contabilità INVALSI dovrebbe rassicurarci. In effetti anche se non sappiamo bene cosa significhi “basso rendimento”  per l’Istituto di valutazione, anche se non possiamo accedere ai contenuti dei test per farci un’idea di cosa effettivamente si stia misurando e per controllarne i risultati, anche se non conosciamo l’incertezza statistica dei dati, se ignoriamo i metodi e di correzione, oggi automatizzati, e la loro accuratezza, la scoperta dell’INVALSI può risultare consolante. In fondo i dati INVALSI sono un po’ come la fede: uno o ce l’ha o non ce l’ha. Ma se ce l’ha, che gran conforto. La scoperta dell’INVALSI però è tutt’altro che originale: sono almeno 30 anni che gli economisti dell’educazione made in USA  (vedi Hanuscheck) e l’OCSE tentano di convincerci che insegnare e apprendere in una classe di 30 o 10 studenti non fa differenza. L’uso politico del  “class size effect” è evidente e non necessita di commenti. Da parte nostra, in un Paese dove il dibattito sulla scuola è inesistente, perché affidato al principio di Autorità e all’assenza sistematica di qualsiasi contraddittorio, ci limitiamo a qualche piccolo contributo, non allineato al catechismo dell’INVALSI. 1.  Il libro “Rethinking class size” di Peter Blatchford ed Anthony Russell del 2020, UCL Press,  liberamente scaricabile qui.   > “IL DIBATTITO SULL’IMPORTANZA DELLE DIMENSIONI DELLE CLASSI PER L’INSEGNAMENTO > E L’APPRENDIMENTO È UNO DEI PIÙ DURATURI E ACCESI NELLA RICERCA EDUCATIVA. GLI > INSEGNANTI SPESSO INSISTONO SUL FATTO CHE LE CLASSI PICCOLE FAVORISCANO IL > LORO LAVORO. MA MOLTI ESPERTI SOSTENGONO CHE I DATI DELLA RICERCA DIMOSTRANO > CHE LE DIMENSIONI DELLE CLASSI HANNO SCARSO IMPATTO SUI RISULTATI DEGLI > STUDENTI, QUINDI NON SONO RILEVANTI, E QUESTA VISIONE DOMINANTE HA INFLUENZATO > LE POLITICHE A LIVELLO INTERNAZIONALE. > >  IN QUESTO LAVORO, I RICERCATORI DEL PIÙ GRANDE STUDIO AL MONDO SUGLI EFFETTI > DELLE DIMENSIONI DELLE CLASSI PRESENTANO UNA CONTROARGOMENTAZIONE. ATTRAVERSO > UN’ANALISI DETTAGLIATA DELLE COMPLESSE RELAZIONI IN GIOCO IN CLASSE, RIVELANO > I MECCANISMI CHE SUPPORTANO L’ESPERIENZA DEGLI INSEGNANTI E CONCLUDONO CHE LE > DIMENSIONI DELLE CLASSI SONO DAVVERO IMPORTANTI.” 2. Lo studio “L’impact de la taille des classes sur la réussite scolaire dans les écoles, collèges et lycées français” di Thomas Piketty e Mathieu Valdenaire, del 2006, accessibile qui > “IL NOSTRO METODO CONSENTE DI INDIVIDUARE EFFETTI STATISTICAMENTE > SIGNIFICATIVI DELLA DIMENSIONE DELLE CLASSI NEI TRE LIVELLI DI ISTRUZIONE. > TALI EFFETTI RISULTANO QUANTITATIVAMENTE MOLTO PIÙ RILEVANTI NELLA SCUOLA > PRIMARIA RISPETTO ALLA SCUOLA MEDIA, E ANCOR PIÙ RISPETTO ALLA SCUOLA > SUPERIORE. PER QUANTO RIGUARDA LA SCUOLA PRIMARIA, METTIAMO IN EVIDENZA UN > IMPATTO POSITIVO SIGNIFICATIVO DELLE CLASSI MENO NUMEROSE SUL SUCCESSO > SCOLASTICO DEGLI ALUNNI.” 3. La meta analisi dell’istituto delle Politiche Pubbliche francesi (IPP) “La taille des classes influence-t-elle la reussite scolaire?” del 2017, scaricabile qui. le cui conclusioni potrebbero essere così riassunte: a) Ridurre le dimensioni delle classi è una politica costosa ma efficace per combattere le disuguaglianze, se mirata e significativa. b) Questa politica avvantaggia principalmente gli studenti con il più basso status socio-economico. 4. E per finire, l’analisi, attualissima (30 giugno 2025) dello stesso Istituto delle Politiche Pubbliche francesi, che in vista della futura legge di bilancio esprime una serie di raccomandazioni sulla spesa pubblica per l’istruzione. Il titolo è “Taille des classes et inegalités territoriales: quelle stratégie face à la baisse démographique?”, di cui riportiamo questo piccolo estratto: > “RIDURRE IL NUMERO DI INSEGNANTI PER MANTENERE INALTERATA LA DIMENSIONE DELLE > CLASSI > > [IN PREVISIONE DEL CALO DEMOGRAFICO] > > GENEREREBBE ECONOMIE A CORTO E MEDIO TERMINE, MA PRIVEREBBE GLI STUDENTI DEI > VANTAGGI ASSOCIATI ALLA DIMINUZIONE DEL NUMERO DI ALUNNI PER CLASSE: > > –EFFETTI POSITIVI SUGLI APPRENDIMENTI, BEN DOCUMENTATI DALLA LETTERATURA > SCIENTIFICA > > -CHE SI TRADURREBBERO, A LUNGO TERMINE IN SALARI E CONTRIBUZIONI PIÙ ELEVATE > PER LA SOCIETÀ. > > [SENZA CONSIDERARE] I BENEFICI ANNESSI: MIGLIORI CONDIZIONI DI LAVORO PER GLI > INSEGNANTI, ESTERNALITÀ POSITIVE DAL PUNTO DI VISTA SOCIALE (SALUTE, > DELINQUENZA ETC).”
La FLC CGIL contro INVALSI: viola il diritto al controllo del punteggio dei test
Pubblichiamo il testo del comunicato della FLC CGIL sul recente reclamo inviato al Garante per la Protezione dei Dati Personali.  Il reclamo contesta all’INVALSI la mancanza di trasparenza e la negazione del diritto al controllo dell’esito della prova svolta. Oggi, qualsiasi studente abbia svolto una prova INVALSI su piattaforma digitale non ha modo di accedere ai contenuti del test, per poterne verificare  l’esito e la logica di correzione.  E’ ciò che hanno constatato i genitori di due studenti tredicenni, i quali hanno chiesto conto all’INVALSI del punteggio acquisito dai propri figli nei test del 2024, che rappresenta la loro certificazione individuale di competenze.  Impossibile fornire spiegazioni, dice sostanzialmente l’INVALSI, perché si tratta di una procedura “parzialmente automatizzata”, e quindi deve essere accettata senza alcuna possibilità di controllo. Negare alle famiglie ricorrenti l’accesso ai dati dei propri figli lede il diritto di ciascuno studente ad una valutazione chiara e contestabile. Lesione tanto più grave visto che alcuni studenti sono classificati come “fragili” dall’INVALSI, quando il punteggio acquisito risulta al di sotto di una soglia di adeguatezza stabilita a monte. Attendiamo ora l’intervento dell’Autorità per la protezione dei dati personali. Entro tre mesi conosceremo lo stato del provvedimento. -------------------------------------------------------------------------------- Roma, 20 marzo 2025 – Il 3 marzo scorso è stato depositato un reclamo al Garante della Privacy portato avanti dal sindacato FLC CGIL nazionale assieme a Cattive Ragazze Ets, Alas, Roars perché intervenga sulle modalità operative delle prove INVALSI. FLC CGIL denuncia da sempre la trasformazione delle prove in strumento valutazione individuale e di profilazione delle condizioni sociali degli studenti e in uno strumento di misurazione della prestazione dei docenti e dei dirigenti scolastici. Il reclamo presentato a titolo individuale da due genitori afferenti l’associazione Cattive Ragazze ETS denuncia all’autorità Garante della Privacy l’assoluta mancanza di trasparenza da parte di INVALSI e la negazione del diritto al controllo e quindi alla revisione dell’esito dei test, con la motivazione che le prove non hanno “finalità didattiche” e che l’attribuzione del punteggio individuale avviene sulla base di un processo “parzialmente automatizzato”. Inoltre nel delicatissimo contesto di protezione dei dati personali degli studenti, INVALSI raccoglie dati di contesto (familiari, culturali, sociali) mediante questionari digitalizzati proposti contestualmente allo svolgimento dei test. Questo vale per studenti minorenni, anche nel caso di negazione del consenso da parte dei genitori. Soprattutto quello che emerge è l’impossibilità di conoscere contenuti, metodologia e responsabilità della codifica delle domande, di controllare ed eventualmente contestare il punteggio standardizzato acquisito, da cui origina la certificazione personale delle competenze. Ciò è tanto più rilevante per quegli allievi considerati dall’INVALSI come “fragili”, perché il livello acquisito è al di sotto della soglia di adeguatezza statistica. In questo contesto risulta violato il diritto di ciascuno studente e ciascun genitore a ricevere una valutazione trasparente e tempestiva, come stabilito dallo Statuto delle Studentesse e degli Studenti, oltre che dal GDPR. Auspichiamo un intervento regolatore da parte del Garante che produca effetti in favore di tutti gli studenti della scuola pubblica italiana, ripristinando i diritti violati a partire dalla modifica delle procedure e dalla piena accessibilità del controllo delle prove INVALSI. Ci si attende un cambio di passo anche da tutte le istituzioni, a partire dal Ministero dell’Istruzione, che devono mettere in campo interventi e risorse per il contrasto alla cosiddetta povertà educativa che va affrontata e superata nei processi di apprendimento e non attraverso una massiva rilevazione standardizzata.