Bignami, concetti base degli LLM (parte prima)
Walter Quattrociocchi ha pubblicato un bignamino di concetti base degli LLM.
(ovvero: capire in 90 secondi un LLM e sembrare competenti a cena senza coprire
l’abisso delle proprie lacune con il pensiero circolare e le supercazzole
pop-filosofiche sull’etica dei termosifoni col cimurro)
Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi
quantità di testo per modellare le regolarità del linguaggio, senza accesso
diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e
riproducibile: nessuna magia, nessun “spirito” emergente.
Riporto di seguito i concetti. L'originale si può leggere su Linkedin
Correlazione
Due parole sono “amiche” se nei dati compaiono insieme più spesso di quanto
accadrebbe per puro caso. Non serve sapere cosa significhino: il modello rileva
che “pizza” e “mozzarella” si presentano insieme molto più di “pizza” e
“batteria dell’auto” e registra quella regolarità. Ogni parola è un vettore in
uno spazio con centinaia di dimensioni; la vicinanza riflette la probabilità di
apparire in contesti simili.
Processo stocastico
Quando scrive, un LLM non applica logica o ragionamento causale: genera parole
campionando dalla distribuzione di probabilità appresa per il contesto. Se il
testo è “Il gatto sta…”, la distribuzione assegnerà alta probabilità a
“dormendo” e bassa a “pilotando un aereo”. Parametri come temperature, top-k o
nucleus sampling introducono variabilità. È una catena di Markov di ordine
elevato: chi sostiene che “ragiona” deve spiegare in che senso un campionamento
possa costituire ragionamento.
Ottimizzazione
L’abilità dell’LLM deriva dalla minimizzazione di una funzione di perdita
(tipicamente la cross-entropy) tra le previsioni e i dati reali. Attraverso il
gradient descent, miliardi di parametri vengono regolati per ridurre l’errore di
previsione sul prossimo token. Dopo trilioni di iterazioni, l’output diventa
statisticamente indistinguibile dal testo umano.
Transformer
Architettura alla base degli LLM. Il self-attention valuta quanto ogni parola
sia rilevante rispetto a tutte le altre del contesto, non solo a quelle vicine.
A differenza delle vecchie reti sequenziali, il Transformer guarda l’intera
sequenza in parallelo, mantenendo il contesto anche a distanza, accelerando
l’addestramento e gestendo testi lunghi.
Allucinazioni
Il modello può produrre frasi false ma plausibili perché non confronta le uscite
con il mondo reale. L’accuratezza è un effetto collaterale, non un vincolo
progettuale.
Scaling
La potenza di un LLM cresce con parametri, dati e calcolo (scaling laws). Più
grande non significa “più intelligente”: significa solo un vocabolario
statistico più ricco e preciso.
La cosa affascinante non è che stia emergendo una mente, ma che sappiamo
codificare in forma computabile l’intelligenza implicita nel linguaggio. Quel
linguaggio lo abbiamo generato noi: un LLM è il riflesso statistico della nostra
produzione linguistica, organizzato così bene da sembrare vivo, ma resta un
simulatore di linguaggio umano.
Colonizzati da tech Usa: l’illusione di autonomia di Italia ed Ue
L’Europa continua a confondere addestramento con cultura digitale. La
colonizzazione tecnologica americana prosegue indisturbata, mentre di sovranità
non resta che qualche slogan buono per i convegni
Ci stiamo avvicinando a passi da gigante a quella che Gibson chiama “la
singolarità dell’idiozia“, in inglese Singularity of Stupid. Da una parte ci
sono quelli che vogliono menare i russi trent’anni dopo il crollo dell’Unione
Sovietica, e dall’altra ci sono gli Stati Uniti che non sanno decidere se
preferiscono una dittatura o una guerra civile, con una crescente possibilità di
ottenere entrambe.
In mezzo, c’è una dozzina di tipi oscenamente ricchi e fantasticamente stupidi,
che si diverte a bruciare centinaia di miliardi in un culto millenaristico
chiamato Intelligenza Artificiale.
E poi ci siamo noi delle colonie, sempre pronti a correre dietro all’ultima moda
che viene da oltreoceano.
Tra i temi affrontati da Vannini nell'articolo, segnaliamo:
* ChatControl: quando la sicurezza minaccia la privacy
* L’illusione della sicurezza senza privacy
* Il grande errore del cloud computing
* L’America di Trump: una nuova realtà geopolitica
* L’assenza di sistemi operativi europei
* L’addestramento mascherato da digitalizzazione
* L’illusione dell’intelligenza artificiale
Leggi l'articolo completo
Oppure ascolta il podcast
L’intelligenza artificiale è paragonabile quella umana?
(Fonte) Roberto Manzocco – 14 settembre 2025
L’interrogativo di Alan Turing («Le macchine possono pensare?») apre un
dibattito ancora attuale, reso concreto dal suo test: una macchina pensa se
riesce a sostenere una conversazione ingannando l’interlocutore umano.
Secondo Nello Cristianini,, docente di Ai all’Università di Bath, l’intelligenza
non è esclusiva dell’essere umano ma assume forme diverse, già presenti in
natura prima di noi. In questo senso, anche le AI possono essere considerate
intelligenti, se pensare significa imparare, pianificare e ragionare.
Gli LLM (come ChatGPT) non derivano da teorie linguistiche ma da modelli
statistici. Addestrati su enormi quantità di testi attraverso il completamento
di parole mancanti, hanno sviluppato capacità “emergenti” come risolvere
problemi e rispondere a domande. Per Cristianini, questa abilità implica una
forma di comprensione astratta, pur diversa da quella umana.
La misurazione dell’intelligenza resta complessa: gli LLM superano spesso lo
studente medio nei test accademici, ma non i migliori. L’AI oggi eguaglia o
supera l’uomo in compiti specifici (diagnosi, dimostrazioni matematiche), ma non
possiede ancora una AGI (Artificial General Intelligence). Il futuro potrebbe
portare al superamento umano in due forme:
* un’AI che svolge i nostri compiti meglio di noi;
* una ASI (Artificial Super-Intelligence) che eccelle in compiti oltre la
nostra comprensione.
Cristianini conclude che non vi è alcuna garanzia che l’uomo sia il culmine
dell’intelligenza: resta da vedere se e quando le macchine ci supereranno.
The post L’intelligenza artificiale è paragonabile quella umana? first appeared
on Lavoratrici e Lavoratori Aci Informatica.
L’enorme richiesta di energia dell’IA e lo spettro della disuguaglianza
(Fonte) Paolo Benanti – 17 settembre 2025
L’innovazione nell’IA promette prestazioni sempre maggiori, ma a costo di un
enorme consumo energetico. Uno studio del TeraLab del Kaist (Korea Advanced
Institute of Science and Technology) prevede che entro il 2035 i chip di nuova
generazione possano arrivare a richiedere fino a 15.360 watt per modulo, a causa
dell’evoluzione delle memorie HBM (da HBM4 a HBM8) e dell’aumento della potenza
delle GPU (da 800W nel 2026 a 1.200W nel 2035). Questo scenario, cruciale per
applicazioni come i grandi modelli linguistici, pone l’energia come principale
collo di bottiglia dello sviluppo dell’IA.
Le conseguenze non riguardano solo i chip, ma anche data center, reti elettriche
e logistica del raffreddamento: un singolo modulo da 15KW modifica la
distribuzione della potenza nei rack, i sistemi di raffreddamento e la gestione
termica delle strutture. Poiché il raffreddamento rappresenta già quasi il 40%
del consumo dei data center, i chip futuri rischiano di spingere ancora più in
alto questa quota.
La crescita dei data center e dei carichi energetici richiesti dall’IA rischia
di entrare in conflitto con i tempi lunghi di adeguamento delle infrastrutture
elettriche (7-15 anni). L’accesso all’energia sta diventando il vero fattore
competitivo, come mostrano le moratorie a Dublino o i limiti a Francoforte e
Singapore. Un modulo da 15 kW può costare fino a 20.000 dollari l’anno in
energia, trasformando l’elettricità da semplice costo operativo a variabile
decisiva di fattibilità e ritorno degli investimenti.
La geografia dell’IA si ridisegna: regioni ricche di energia (Paesi nordici,
Midwest USA, stati del Golfo) attraggono data center, mentre aree con reti
congestionate rischiano di diventare “deserti dell’IA”.
Per l’Italia, con una capacità installata di circa 120 GW ma già segnata da
colli di bottiglia e saturazione virtuale, la sfida è cruciale. La domanda
crescente, soprattutto nelle aree metropolitane come Milano, mette sotto
pressione il sistema elettrico e le cabine primarie: il ritardo potrebbe
tradursi in disuguaglianze o deindustrializzazione.
The post L’enorme richiesta di energia dell’IA e lo spettro della disuguaglianza
first appeared on Lavoratrici e Lavoratori Aci Informatica.
Come migliaia di esseri umani “sovraccaricati di lavoro e sottopagati” addestrano l’intelligenza artificiale di Google a sembrare intelligente
(Fonte) Varsha Bansal – 11 set 2025
Nella primavera del 2024, quando Rachael Sawyer, una scrittrice tecnica del
Texas, ricevette un messaggio su LinkedIn da un recruiter che le chiedeva un
ruolo vago come analista di scrittura, pensò che si sarebbe trattato di un
incarico simile ai suoi precedenti incarichi di creazione di contenuti.
Tuttavia, il suo primo giorno di lavoro, una settimana dopo, le sue aspettative
andarono in fumo. Invece di scrivere testi da sola, il compito di Sawyer era
valutare e moderare i contenuti creati dall’intelligenza artificiale.
“Sono rimasto scioccato dal fatto che il mio lavoro prevedesse di lavorare con
contenuti così angoscianti”, ha affermato Sawyer, che lavora come “valutatore
generalista” per i prodotti di intelligenza artificiale di Google da marzo 2024.
“Non solo perché non sono stato avvisato e non mi è mai stato chiesto di firmare
alcun modulo di consenso durante l’onboarding, ma perché né il titolo né la
descrizione del lavoro menzionavano mai la moderazione dei contenuti”. La
pressione di dover completare decine di questi compiti ogni giorno, ognuno entro
10 minuti, ha portato Sawyer in spirali di ansia e attacchi di panico, afferma,
senza il supporto della salute mentale del suo datore di lavoro.
Sawyer è uno delle migliaia di dipendenti specializzati in intelligenza
artificiale assunti da Google tramite GlobalLogic, società del conglomerato
giapponese Hitachi, per valutare e moderare l’output dei prodotti di
intelligenza artificiale di Google, tra cui il suo chatbot di punta Gemini,
lanciato all’inizio dello scorso anno, e i suoi riepiloghi dei risultati di
ricerca, AI Overviews.
Ogni nuovo rilascio di modello promette una maggiore accuratezza, il che
significa che per ogni versione, questi valutatori di intelligenza artificiale
lavorano duramente per verificare che le risposte del modello siano sicure per
l’utente. Migliaia di persone prestano la loro intelligenza per insegnare ai
chatbot le risposte corrette in ambiti diversi come la medicina, l’architettura
e l’astrofisica, correggendo gli errori ed evitando output dannosi.
Molta attenzione è stata dedicata ai lavoratori che etichettano i dati
utilizzati per addestrare l’intelligenza artificiale. Esiste, tuttavia, un altro
gruppo di lavoratori, tra cui Sawyer, che lavora giorno e notte per moderare
l’output dell’IA, garantendo che i miliardi di utenti dei chatbot vedano solo
risposte sicure e appropriate.
I modelli di intelligenza artificiale vengono addestrati su vaste quantità di
dati provenienti da ogni angolo di Internet. Lavoratori come Sawyer si collocano
in un livello intermedio della catena di fornitura globale dell’intelligenza
artificiale, pagati più degli annotatori di dati di Nairobi o Bogotà , il cui
lavoro consiste principalmente nell’etichettare i dati per modelli di
intelligenza artificiale o auto a guida autonoma, ma molto al di sotto degli
ingegneri di Mountain View che progettano questi modelli.
Nonostante il loro contributo significativo a questi modelli di intelligenza
artificiale, che forse sarebbero allucinanti se non fosse per questi editor del
controllo qualità, questi lavoratori si sentono nascosti. “L’intelligenza
artificiale non è magia; è uno schema piramidale di lavoro umano”, ha affermato
Adio Dinika, ricercatore presso il Distributed AI Research Institute di Brema,
in Germania. “Questi valutatori rappresentano il gradino intermedio: invisibili,
essenziali e sacrificabili”.
Google, come altre aziende tecnologiche, assume i data worker attraverso una
rete di appaltatori e subappaltatori. Uno dei principali appaltatori per i
valutatori di intelligenza artificiale di Google è GlobalLogic, dove questi
valutatori sono suddivisi in due grandi categorie: valutatori generalisti e
super valutatori. La maggior parte dei lavoratori assunti inizialmente per
questi ruoli erano insegnanti. Altri includevano scrittori, persone con master
in belle arti e alcuni con competenze molto specifiche, ad esempio dottori di
ricerca in fisica, hanno affermato i lavoratori.
GlobalLogic ha avviato questo lavoro per il colosso tecnologico nel 2023:
all’epoca, aveva assunto 25 super valutatori, secondo tre dei dipendenti
intervistati. Con l’intensificarsi della corsa al miglioramento dei chatbot,
GlobalLogic ha incrementato le assunzioni e ha ampliato il team di super
valutatori dell’IA a quasi 2.000 persone.
I valutatori di intelligenza artificiale di GlobalLogic sono pagati più dei loro
colleghi che si occupano di etichettatura dei dati in Africa e Sud America, con
stipendi a partire da 16 dollari l’ora per i valutatori generalisti e 21 dollari
l’ora per i super valutatori, secondo i lavoratori. Alcuni sono semplicemente
grati di avere un impiego mentre il mercato del lavoro statunitense è in crisi,
ma altri affermano che cercare di migliorare i prodotti di intelligenza
artificiale di Google ha avuto un costo personale.
Sebbene il settore dell’intelligenza artificiale sia in forte espansione, i
valutatori di intelligenza artificiale non godono di una forte sicurezza del
posto di lavoro. Dall’inizio del 2025, GlobalLogic ha registrato licenziamenti
continui, con la forza lavoro totale di super valutatori e valutatori
generalisti dell’intelligenza artificiale che si è ridotta a circa 1.500 unità,
secondo diversi dipendenti. Allo stesso tempo, i dipendenti avvertono un senso
di perdita di fiducia nei prodotti che contribuiscono a sviluppare e formare. La
maggior parte dei dipendenti ha affermato di evitare di utilizzare LLM o di
utilizzare estensioni per bloccare i riepiloghi dell’intelligenza artificiale
perché ora ne conosce il funzionamento. Molti scoraggiano anche familiari e
amici dall’utilizzarlo, per lo stesso motivo.
“Voglio solo che la gente sappia che l’intelligenza artificiale viene spacciata
per una magia tecnologica: ecco perché c’è un piccolo simbolo scintillante
accanto alla risposta dell’intelligenza artificiale”, ha detto Sawyer. “Ma non
lo è. È costruita sulle spalle di esseri umani sfruttati e sottopagati”.
The post Come migliaia di esseri umani “sovraccaricati di lavoro e sottopagati”
addestrano l’intelligenza artificiale di Google a sembrare intelligente first
appeared on Lavoratrici e Lavoratori Aci Informatica.
Laboratorio "Giocare o essere giocati" al Festival Interferenze Costruttive
Domenica 5 ottobre condurremo il laboratorio di Pedagogia Hacker "Giocare o
essere giocati" all'interno del Festival Interferenze Costruttive a Roma.
3-4-5 ottobre 2025: prima edizione del festival culturale di Radio Onda Rossa
"Interferenze Costruttive" presso il CSOA La Torre, a via Bertero 13, Roma.
Nell'ambito del festival, domenica 5 ottobre dalle 16.30 alle 18.30 condurremo
il laboratorio di Pedagogia Hacker "Giocare o essere giocati".
GIOCARE O ESSERE GIOCATI?
Molti videogiochi catturano la nostra attenzione al punto da creare forme di
abitudine e assuefazione costruite magistralmente sulle vulnerabilità comuni a
tutti gli umani. In maniera analoga siamo chiamati a partecipare e a contribuire
instancabilmente alle “comunità” digitali, costruite seguendo tecniche di
gamificazione.
Su Instagram, TikTok, Facebook, ogni esperienza di interazione sociale si
trasforma in una complicata gara, con un sacco di punti e classifiche, livelli e
campioni. Conosciamo per esperienza diretta le regole di questi “giochi”: se ci
comportiamo bene, otteniamo molti “like”, strike, notifiche, cioè caramelle
sintetiche per i nostri cervelli (sotto forma di dopamina); se siamo scarsi
rimaniamo a bocca asciutta. Di certo, “vincere” non è mai abbastanza: dobbiamo
sempre lavorare di più, perché il “gioco” non finisce mai…
Durante questo laboratorio analizzeremo le interfacce dei social media per
osservare come ci fanno sentire, ragioneremo sulla differenza tra social media e
social network. Metteremo le mani in pasta per scoprire strumenti FLOSS
progettati per fare rete a partire dai desideri di comunità reali.
Per conoscere il programma delle tre giornate visitare il sito di radio onda
rossa.
Vietare i cellulari e promuovere l’Ia, l’insostenibile confusione al potere
Al rientro a scuola, studenti, famiglie e docenti hanno trovato l’ennesima
sorpresa: un dettagliato libriccino contenente le linee guida per una rapida
adozione – naturalmente consapevole, responsabile e senza ulteriori oneri a
carico del bilancio – dell’intelligenza artificiale in tutti gli ordini e gradi
di istruzione.
--------------------------------------------------------------------------------
A una prima analisi, le linee guida sembrano proseguire nella spinta verso
l'adozione di tecnologie digitali non facilmente controllabili dagli attori
della scuola, con un forte rischio che si riproponga lo scenario già visto con i
progetti PNRR Scuola 4.0: una corsa a spendere fondi per introdurre hardware e
software, senza possibilità di scelta consapevole da parte delle scuole,
terminata in un sostanziale trasferimento di fondi pubblici al privato.
L'enfasi sull'innovazione tecnologica e sulla transizione digitale delle scuole
raramente tiene conto delle esigenze didattiche della comunità scolastica, per
puntare l'obiettivo su un mero accumulo di tecnologie che si rivelano
ingestibili dalle scuole, vuoi per incapacità, vuoi perché le tecnologie
adottate sono spesso opache, o anche perché delegate completamente a imprese
private.
DIDATTICA: LA GRANDE ASSENTE
Basterebbe il mero dato statistico a rendersi conto di quanto siano vaghe le
Linee Guida su questo tema centrale per la scuola. Su 33 pagine solo due sono
riservate alla didattica in senso stretto, nel paragrafo dedicato alle aree di
applicazione per tipologia di destinatari (4.2).
La maggior parte del testo si sofferma sugli aspetti tecnico-normativi,
richiamando norme europee (AI act) e cosiddette buone pratiche consolidate. Se
non bastasse il dato statistico, la lettura del paragrafo mostra la genericità e
la confusione delle indicazioni . Riportiamo di seguito uno degli esempi di
possibili applicazioni pratiche dell'IA per docenti, perché esemplificativo
della poca conoscenza di strumenti che, in alcuni casi, sono in uso da tempo
nelle attività didattiche, senza avere nulla a che vedere con l'IA.
Strumenti interattivi e innovativi: l’IA permette l’elaborazione di risorse
didattiche (come simulazioni, giochi, mappe concettuali, riassunti per
l’apprendimento e quiz interattivi) che aumentano la motivazione e il
coinvolgimento degli studenti;
La domanda sorge spontanea: che senso ha far generare una mappa concettuale
all’IA, quando l'obbiettivo didattico di questa metodologia è proprio fare in
modo che lo studente possa "mappare" la propria conoscenza di un argomento e
collegarne i vari elementi?
AI COME AUTOMAZIONE
Le indicazioni divengono invece più definite laddove sono individuati i campi di
automazione dei processi lavorativi tipici dell'amministrazione e del
monitoraggio da parte del Dirigente Scolastico. In particolare risulta evidente
il riferimento all'automazione nei paragrafi Ottimizzazione nella
riorganizzazione dell’orario o Monitoraggio documenti programmatici, nei quali
si menziona l'evidenziazione di eventuali scostamenti di bilancio come risultato
dell’uso dell’IA.
D’altra parte l’Intelligenza Artificiale è un insieme di tecniche di cui le IA
generative sono solo un sotto insieme. Nelle Linee Guida si parla genericamente
di IA, senza distinguere un algoritmo per l’ottimizzazione dell’orario
scolastico, caso classico di automazione, da un Large Language Model, Chat GPT
per intendersi, lasciando alla scuola il compito di districarsi tra le molte e
confuse offerte private.
CONTRADDIZIONI E OSSIMORI
Oltre all’imbarazzante assenza dei temi della didattica, il secondo aspetto che
salta all’occhio sono le numerose contraddizioni interne ai messaggi del
Ministero.
Anzitutto le Linee Guida si pongono come obiettivi la sostenibilità e la tutela
dei diritti degli allievi, raccomandando alla dirigenza e al corpo docente di
rendere effettivamente esercitabile il diritto a non fornire i dati degli
allievi come pre-requisito per l’utilizzo dell’IA. Peccato che le IA generative,
che vengono proposte al suo interno, ossia i servizi SaaS (Software as a
service) come ChatGPT, siano incompatibili con entrambi questi principi: il
primo a causa dei pantagruelici consumi di elettricità e acqua dei datacenter
indispensabili per la fornitura del servizio, il secondo perché il modello SaaS
si basa per l’appunto sulla fornitura di questi dati, ossia il servizio erogato
è gratuito proprio perché i dati dell’utilizzatore sono parte del modello di
business delle imprese che producono questi software. Quando invece il servizio
è a pagamento, i dati sono usati per migliorare l’addestramento dell’IA.
L’ENNESIMA RIFORMA DALL’ALTO
A giudicare dalla letteratura scientifica citata dal ministero, in cui la parte
da leone la fanno le riflessioni sulla produttività più che quelle sul senso e
sulla missione della scuola, sembra evidente che queste prime Linee Guida siano
state redatte senza tenere nella dovuta considerazione le dinamiche sociali che
questa nuova tecnologia sta promuovendo. Questo spiega come sia possibile che lo
stesso ministero abbia, nella stessa giornata, varato un divieto draconiano
contro gli smartphone (i cui effetti tossici sono ormai riconosciuti da
letteratura bi-partisan) e promosso le Linee Guida per l’IA (i cui effetti
tossici stanno cominciando a manifestarsi lentamente solo ora).
VALORIZZARE LE COMUNITÀ
Nel frattempo in molte zone della penisola vengono adottati sistemi per la
didattica che valorizzano la creazione di conoscenza locale e condivisa, oltre
che utilizzare il denaro per pagare lavoro invece che licenze d’uso a grandi
aziende USA.
Ci sono esempi virtuosi di scuole che acquistano software (anche l’Intelligenza
Artificiale è software) rilasciati con licenze libere e/o aperte (F/LOSS)
modificabili secondo le esigenze delle comunità scolastiche. In questo modo le
scuole possono mettersi in rete per condividere risorse computazionali,
risparmiando, oltre che per confrontarsi e condividere esigenze e soluzioni.
Esistono già in Italia imprese che forniscono servizi con queste modalità,
l’esempio delle scuole della Provincia Autonoma di Bolzano è solo uno e il più
longevo. Il modello è quello delle Comunità Energetiche Rinnovabili che, secondo
gli ultimi dati del GSE, stanno crescendo vertiginosamente. Si può fare!
Maurizio Mazzoneschi e Stefano Barale per C.I.R.C.E
L'articolo è uscito nel quotidiano Domani il 14 settembre 2025
Vietare i cellulari e promuovere l’Ia, l’insostenibile confusione al potere
I problemi delle linee guida per l’adozione dell’intelligenza artificiale in
tutti gli ordini e gradi di istruzione: tra clamorose assenze, contraddizioni e
ossimori. L’ennesima riforma calata dall’alto. Ma un’altra strada è possibile
Al rientro a scuola, studenti, famiglie e docenti hanno trovato l’ennesima
sorpresa: un dettagliato libriccino contenente le linee guida per una rapida
adozione – naturalmente consapevole, responsabile e senza ulteriori oneri a
carico del bilancio – dell’intelligenza artificiale in tutti gli ordini e gradi
di istruzione.
A una prima analisi, le linee guida sembrano proseguire nella spinta verso
l'adozione di tecnologie digitali non facilmente controllabili dagli attori
della scuola, con un forte rischio che si riproponga lo scenario già visto con i
progetti PNRR Scuola 4.0: una corsa a spendere fondi per introdurre hardware e
software, senza possibilità di scelta consapevole da parte delle scuole,
terminata in un sostanziale trasferimento di fondi pubblici al privato. L'enfasi
sull'innovazione tecnologica e sulla transizione digitale delle scuole raramente
tiene conto delle esigenze didattiche della comunità scolastica, per puntare
l'obiettivo su un mero accumulo di tecnologie che si rivelano ingestibili dalle
scuole, vuoi per incapacità, vuoi perché le tecnologie adottate sono spesso
opache, o anche perché delegate completamente a imprese private.
L'articolo di Mazzoneschi e Barale (C.I.R.C.E.) è uscito nel quotidiano Domani.
Qui per leggere la versione integrale
Le aziende traggono vantaggio dai licenziamenti guidati dall’intelligenza artificiale
(Fonte) Dave Lozo – 4 settembre 2025
Il CEO di Salesforce, Marc Benioff, che ha dichiarato al podcast The Logan
Bartlett Show di aver tagliato 4.000 posti di lavoro nel servizio clienti grazie
al tipo di intelligenza artificiale di cui Matthew McConaughey e Woody Harrelson
apparentemente non potrebbero fare a meno. A giugno, Benioff ha affermato che
l’intelligenza artificiale svolge il 50% del lavoro in Salesforce. Ieri,
l’azienda ridimensionata ha riportato un secondo trimestre con un fatturato
doppio (10,24 miliardi di dollari contro 10,14 miliardi di dollari) e un utile
per azione (2,91 dollari contro 2,78 dollari), sebbene le previsioni più deboli
per il terzo trimestre abbiano fatto crollare il titolo dopo la chiusura.
Non mancano aziende che sfruttano l’intelligenza artificiale per rimanere
redditizie, per la gioia degli investitori (non Salesforce):
* L’amministratore delegato di Wells Fargo ha annunciato la riduzione del
personale per 20 trimestri consecutivi. Le sue azioni sono aumentate del 228%
negli ultimi cinque anni.
* Il CEO di Bank of America, Brian Moynihan, non lo ha nascosto durante una
recente conference call sui risultati finanziari, quando ha dichiarato che
l’azienda ha licenziato 88.000 dipendenti negli ultimi 15 anni. Le azioni di
BofA sono aumentate del 95% dal 2020.
* Amazon, il cui valore azionario è aumentato del 28% nell’ultimo anno, ha
recentemente comunicato ai propri dipendenti che l’implementazione
dell’intelligenza artificiale avrebbe portato a licenziamenti.
* Microsoft ha tagliato 15.000 posti di lavoro negli ultimi due mesi, mentre
l’azienda si orienta verso l’intelligenza artificiale; inoltre, le sue azioni
sono in rialzo dall’inizio di luglio.
Allargando lo sguardo: secondo HR Dive, il 34% degli amministratori delegati
prevede di attuare licenziamenti nei prossimi 12 mesi, il quinto trimestre
consecutivo in cui tale numero è in aumento. Molly Kinder, senior fellow presso
Brookings, esperta in intelligenza artificiale e nel presente e futuro del
lavoro, ha dichiarato al WSJ: “Non credo che questa sia una buona notizia per il
lavoratore americano”. —DL
The post Le aziende traggono vantaggio dai licenziamenti guidati
dall’intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci
Informatica.
Come dovremmo parlare di intelligenza artificiale ai nostri figli?
(Fonte) 30 agosto 2025 – Kathryn Jezer-Morton
I noiosi compositi che l’IA generativa cerca di spacciare per “idee” sono per
definizione nella media, e da quando ho letto il libro di Karen Hao “Empire of
AI” , le incombenti devastazioni nel mondo reale delle infrastrutture di IA non
mi sembrano più astratte: sono inevitabili.
A parte i miei pensieri sull’uso dell’IA generativa – no, non sono d’accordo che
sia “divertente da usare”, cresci! – non commettiamo lo stesso errore che
abbiamo commesso l’ultima volta che ci siamo trovati di fronte a una tecnologia
rivoluzionaria che i suoi sviluppatori sostenevano fosse inevitabile e allo
stesso tempo fantastica. Vent’anni fa, abbiamo adottato i social media con lo
stesso livello di pensiero critico che un bambino applica quando si mette un
LEGO in bocca. Abbiamo condiviso cose che non avremmo dovuto e abbiamo accettato
con entusiasmo i nostri feed come un sostituto della realtà. In seguito, quando
è arrivato il momento per i giovani di creare i propri account, gli adulti hanno
abdicato a ogni responsabilità di modellare comportamenti intelligenti. Abbiamo
lasciato che i bambini facessero quello che volevano sui social media, partendo
dal presupposto corretto che non avessimo più abbastanza credibilità per
stabilire alcun controllo.
Emily Bender, linguista coautrice di The AI Con con il sociologo Alex Hanna, mi
ha ricordato che quando parliamo di intelligenza artificiale, dobbiamo essere
precisi. Molti strumenti che utilizzano l’intelligenza artificiale – ad esempio
strumenti di trascrizione vocale-testo o strumenti che trasformano un insieme di
testi in un podcast di supporto allo studio – non generano qualcosa di nuovo;
combinano gli input di un singolo individuo e li rendono leggibili in un nuovo
formato. Ciò che Bender critica maggiormente sono quelle che chiama “macchine
multimediali sintetiche”: modelli che creano immagini e testi compositi, come
ChatGPT, DALL-E3 e Midjourney, utilizzando enormi librerie di materiale
esistente per soddisfare un prompt.”Questi strumenti sono progettati per
apparire come sistemi oggettivi e onniscienti, e credo sia importante abituare i
bambini a chiedersi: ‘Chi ha costruito tutto questo? Chi ha detto e scritto le
cose originali che sono diventate i dati di training? Di chi sono state rubate
le illustrazioni da queste aziende per produrre i set di training?'”, ha
affermato Bender.
Per i bambini troppo piccoli per rispondere a queste domande, Bender suggerisce
ai genitori di concentrarsi sull’impatto ambientale. “Ogni volta che si utilizza
un chatbot, si contribuisce a costruire le basi per lo sviluppo del modello
successivo e la costruzione del prossimo data center da parte dell’azienda. I
data center devono essere raffreddati con enormi quantità di acqua pulita, e
acqua pulita di solito significa acqua potabile”. Di chi sarà l’acqua potabile
che verrà deviata?
orse riusciremo a raggiungere i ragazzi in età universitaria facendo leva sul
loro istinto competitivo. “Il modo migliore per garantire la sicurezza del
lavoro e la qualità della vita in generale in futuro è capire i propri punti di
forza e in cosa si è unici”, ha detto Hao. “In definitiva, le aziende non
cercano di capire se sai usare uno strumento o meno. Cercano qualcosa di
insostituibile in te che non possono semplicemente scambiare con un altro
candidato. Se fai troppo affidamento sull’intelligenza artificiale, che si basa
letteralmente sulla ripetitività statistica, ti darai la zappa sui piedi. Non
riuscirai a individuare i tuoi punti di forza, ed è a questo che serve
l’università: cimentarsi, provare cose nuove. Alcuni ragazzi si affidano ai
chatbot per prendere decisioni di vita, per capire come reagire in determinate
situazioni, e ottengono sempre la media statistica. Ti fa sembrare come tutti
gli altri. Il tuo utilizzo dell’intelligenza artificiale non sarà percepito come
intelligente. Non ti distinguerai mai.”
Sebbene Empire of AI si concentri su come le aziende tecnologiche stiano
accumulando lo stesso tipo di potere un tempo esercitato solo dai governi
imperialisti, Hao mi ha detto che la nostra più forte resistenza inizia in casa,
dove dovremmo incoraggiare l’indipendenza dei bambini nel mondo esterno. “I
bambini sentono che i loro telefoni e questi strumenti sono uno spazio davvero
libero in cui non sono supervisionati. Mentre quando escono di persona, sono
spesso sorvegliati e sorvegliati. Quindi, anche se potrebbero preferire
socializzare di persona, preferirebbero avere la libertà che deriva dall’essere
online”. Se i genitori riescono a dare ai loro figli questa sensazione di
libertà nei loro ambienti sociali, ciò potrebbe fornire una valida alternativa
al fascino dell’intelligenza artificiale sempre attiva.
The post Come dovremmo parlare di intelligenza artificiale ai nostri figli?
first appeared on Lavoratrici e Lavoratori Aci Informatica.
La ricerca suggerisce che i medici potrebbero rapidamente diventare dipendenti dall’intelligenza artificiale
(Fonte) Geoff Brumfiel – 19 agosto 2025
L’intelligenza artificiale sta iniziando ad aiutare i medici a sottoporre i
pazienti a screening per diverse patologie di routine. Ma un nuovo studio
solleva preoccupazioni sul fatto che i medici potrebbero diventare troppo
dipendenti dall’intelligenza artificiale.
Lo studio condotto su gastroenterologi in Polonia ha rilevato che, dopo essersi
abituati all’uso di un sistema assistito dall’intelligenza artificiale, la loro
capacità di individuare autonomamente polipi e altre anomalie durante le
colonscopie era circa del 20%. I risultati , pubblicati sulla rivista Lancet
Gastroenterology and Hepatology, suggeriscono che anche dopo un breve periodo di
utilizzo dell’intelligenza artificiale, gli esperti potrebbero diventare
eccessivamente dipendenti dall’intelligenza artificiale per svolgere determinati
aspetti del loro lavoro.
L’intelligenza artificiale sta diventando sempre più comune in numerose
ecografie mediche di routine. La prossima volta che vi sottoporrete a
un’ecografia per la vista, il cancro al seno o una malattia del colon, ci sono
buone probabilità che l’intelligenza artificiale analizzi le immagini.
Qualche anno fa, quattro cliniche in Polonia hanno sperimentato un sistema di
intelligenza artificiale per rilevare polipi e altre anomalie durante le
colonscopie. L’intelligenza artificiale funziona in tempo reale, analizzando i
video di una telecamera posta all’interno del colon. Se individua qualcosa,
evidenzierà l’area in modo che il medico possa vederla.
Le cliniche stavano raccogliendo dati per verificare se il sistema di
intelligenza artificiale funzionasse. A quanto pare sì, ma quando Romańczyk e i
suoi colleghi hanno rianalizzato i dati, hanno scoperto qualcos’altro: dopo
l’introduzione del sistema, i medici erano significativamente meno abili nel
rilevare possibili polipi quando l’intelligenza artificiale era disattivata.
Secondo la loro analisi , dopo che i medici hanno adottato l’intelligenza
artificiale, i tassi di rilevamento di possibili polipi sono scesi dal 28,4% al
22,4% quando il nuovo sistema di intelligenza artificiale è stato disattivato.
In altre parole, i medici sembravano diventare rapidamente dipendenti dai
sistemi di intelligenza artificiale per la rilevazione dei polipi. Romańczyk
afferma di non essere del tutto sicuro del perché ciò accada, ma ha alcune
teorie.
The post La ricerca suggerisce che i medici potrebbero rapidamente diventare
dipendenti dall’intelligenza artificiale first appeared on Lavoratrici e
Lavoratori Aci Informatica.