hacking e dintorni

Bignami, concetti base degli LLM (parte prima)
Walter Quattrociocchi ha pubblicato un bignamino di concetti base degli LLM. (ovvero: capire in 90 secondi un LLM e sembrare competenti a cena senza coprire l’abisso delle proprie lacune con il pensiero circolare e le supercazzole pop-filosofiche sull’etica dei termosifoni col cimurro) Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessun “spirito” emergente. Riporto di seguito i concetti. L'originale si può leggere su Linkedin Correlazione Due parole sono “amiche” se nei dati compaiono insieme più spesso di quanto accadrebbe per puro caso. Non serve sapere cosa significhino: il modello rileva che “pizza” e “mozzarella” si presentano insieme molto più di “pizza” e “batteria dell’auto” e registra quella regolarità. Ogni parola è un vettore in uno spazio con centinaia di dimensioni; la vicinanza riflette la probabilità di apparire in contesti simili. Processo stocastico Quando scrive, un LLM non applica logica o ragionamento causale: genera parole campionando dalla distribuzione di probabilità appresa per il contesto. Se il testo è “Il gatto sta…”, la distribuzione assegnerà alta probabilità a “dormendo” e bassa a “pilotando un aereo”. Parametri come temperature, top-k o nucleus sampling introducono variabilità. È una catena di Markov di ordine elevato: chi sostiene che “ragiona” deve spiegare in che senso un campionamento possa costituire ragionamento. Ottimizzazione L’abilità dell’LLM deriva dalla minimizzazione di una funzione di perdita (tipicamente la cross-entropy) tra le previsioni e i dati reali. Attraverso il gradient descent, miliardi di parametri vengono regolati per ridurre l’errore di previsione sul prossimo token. Dopo trilioni di iterazioni, l’output diventa statisticamente indistinguibile dal testo umano. Transformer Architettura alla base degli LLM. Il self-attention valuta quanto ogni parola sia rilevante rispetto a tutte le altre del contesto, non solo a quelle vicine. A differenza delle vecchie reti sequenziali, il Transformer guarda l’intera sequenza in parallelo, mantenendo il contesto anche a distanza, accelerando l’addestramento e gestendo testi lunghi. Allucinazioni Il modello può produrre frasi false ma plausibili perché non confronta le uscite con il mondo reale. L’accuratezza è un effetto collaterale, non un vincolo progettuale. Scaling La potenza di un LLM cresce con parametri, dati e calcolo (scaling laws). Più grande non significa “più intelligente”: significa solo un vocabolario statistico più ricco e preciso. La cosa affascinante non è che stia emergendo una mente, ma che sappiamo codificare in forma computabile l’intelligenza implicita nel linguaggio. Quel linguaggio lo abbiamo generato noi: un LLM è il riflesso statistico della nostra produzione linguistica, organizzato così bene da sembrare vivo, ma resta un simulatore di linguaggio umano.
Colonizzati da tech Usa: l’illusione di autonomia di Italia ed Ue
L’Europa continua a confondere addestramento con cultura digitale. La colonizzazione tecnologica americana prosegue indisturbata, mentre di sovranità non resta che qualche slogan buono per i convegni Ci stiamo avvicinando a passi da gigante a quella che Gibson chiama “la singolarità dell’idiozia“, in inglese Singularity of Stupid. Da una parte ci sono quelli che vogliono menare i russi trent’anni dopo il crollo dell’Unione Sovietica, e dall’altra ci sono gli Stati Uniti che non sanno decidere se preferiscono una dittatura o una guerra civile, con una crescente possibilità di ottenere entrambe. In mezzo, c’è una dozzina di tipi oscenamente ricchi e fantasticamente stupidi, che si diverte a bruciare centinaia di miliardi in un culto millenaristico chiamato Intelligenza Artificiale. E poi ci siamo noi delle colonie, sempre pronti a correre dietro all’ultima moda che viene da oltreoceano. Tra i temi affrontati da Vannini nell'articolo, segnaliamo: * ChatControl: quando la sicurezza minaccia la privacy * L’illusione della sicurezza senza privacy * Il grande errore del cloud computing * L’America di Trump: una nuova realtà geopolitica * L’assenza di sistemi operativi europei * L’addestramento mascherato da digitalizzazione * L’illusione dell’intelligenza artificiale Leggi l'articolo completo Oppure ascolta il podcast
L’intelligenza artificiale è paragonabile quella umana?
(Fonte) Roberto Manzocco – 14 settembre 2025 L’interrogativo di Alan Turing («Le macchine possono pensare?») apre un dibattito ancora attuale, reso concreto dal suo test: una macchina pensa se riesce a sostenere una conversazione ingannando l’interlocutore umano. Secondo Nello Cristianini,, docente di Ai all’Università di Bath, l’intelligenza non è esclusiva dell’essere umano ma assume forme diverse, già presenti in natura prima di noi. In questo senso, anche le AI possono essere considerate intelligenti, se pensare significa imparare, pianificare e ragionare. Gli LLM (come ChatGPT) non derivano da teorie linguistiche ma da modelli statistici. Addestrati su enormi quantità di testi attraverso il completamento di parole mancanti, hanno sviluppato capacità “emergenti” come risolvere problemi e rispondere a domande. Per Cristianini, questa abilità implica una forma di comprensione astratta, pur diversa da quella umana. La misurazione dell’intelligenza resta complessa: gli LLM superano spesso lo studente medio nei test accademici, ma non i migliori. L’AI oggi eguaglia o supera l’uomo in compiti specifici (diagnosi, dimostrazioni matematiche), ma non possiede ancora una AGI (Artificial General Intelligence). Il futuro potrebbe portare al superamento umano in due forme: * un’AI che svolge i nostri compiti meglio di noi; * una ASI (Artificial Super-Intelligence) che eccelle in compiti oltre la nostra comprensione. Cristianini conclude che non vi è alcuna garanzia che l’uomo sia il culmine dell’intelligenza: resta da vedere se e quando le macchine ci supereranno. The post L’intelligenza artificiale è paragonabile quella umana? first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’enorme richiesta di energia dell’IA e lo spettro della disuguaglianza
(Fonte) Paolo Benanti – 17 settembre 2025 L’innovazione nell’IA promette prestazioni sempre maggiori, ma a costo di un enorme consumo energetico. Uno studio del TeraLab del Kaist (Korea Advanced Institute of Science and Technology) prevede che entro il 2035 i chip di nuova generazione possano arrivare a richiedere fino a 15.360 watt per modulo, a causa dell’evoluzione delle memorie HBM (da HBM4 a HBM8) e dell’aumento della potenza delle GPU (da 800W nel 2026 a 1.200W nel 2035). Questo scenario, cruciale per applicazioni come i grandi modelli linguistici, pone l’energia come principale collo di bottiglia dello sviluppo dell’IA. Le conseguenze non riguardano solo i chip, ma anche data center, reti elettriche e logistica del raffreddamento: un singolo modulo da 15KW modifica la distribuzione della potenza nei rack, i sistemi di raffreddamento e la gestione termica delle strutture. Poiché il raffreddamento rappresenta già quasi il 40% del consumo dei data center, i chip futuri rischiano di spingere ancora più in alto questa quota. La crescita dei data center e dei carichi energetici richiesti dall’IA rischia di entrare in conflitto con i tempi lunghi di adeguamento delle infrastrutture elettriche (7-15 anni). L’accesso all’energia sta diventando il vero fattore competitivo, come mostrano le moratorie a Dublino o i limiti a Francoforte e Singapore. Un modulo da 15 kW può costare fino a 20.000 dollari l’anno in energia, trasformando l’elettricità da semplice costo operativo a variabile decisiva di fattibilità e ritorno degli investimenti. La geografia dell’IA si ridisegna: regioni ricche di energia (Paesi nordici, Midwest USA, stati del Golfo) attraggono data center, mentre aree con reti congestionate rischiano di diventare “deserti dell’IA”. Per l’Italia, con una capacità installata di circa 120 GW ma già segnata da colli di bottiglia e saturazione virtuale, la sfida è cruciale. La domanda crescente, soprattutto nelle aree metropolitane come Milano, mette sotto pressione il sistema elettrico e le cabine primarie: il ritardo potrebbe tradursi in disuguaglianze o deindustrializzazione. The post L’enorme richiesta di energia dell’IA e lo spettro della disuguaglianza first appeared on Lavoratrici e Lavoratori Aci Informatica.
Come migliaia di esseri umani “sovraccaricati di lavoro e sottopagati” addestrano l’intelligenza artificiale di Google a sembrare intelligente
(Fonte) Varsha Bansal – 11 set 2025 Nella primavera del 2024, quando Rachael Sawyer, una scrittrice tecnica del Texas, ricevette un messaggio su LinkedIn da un recruiter che le chiedeva un ruolo vago come analista di scrittura, pensò che si sarebbe trattato di un incarico simile ai suoi precedenti incarichi di creazione di contenuti. Tuttavia, il suo primo giorno di lavoro, una settimana dopo, le sue aspettative andarono in fumo. Invece di scrivere testi da sola, il compito di Sawyer era valutare e moderare i contenuti creati dall’intelligenza artificiale. “Sono rimasto scioccato dal fatto che il mio lavoro prevedesse di lavorare con contenuti così angoscianti”, ha affermato Sawyer, che lavora come “valutatore generalista” per i prodotti di intelligenza artificiale di Google da marzo 2024. “Non solo perché non sono stato avvisato e non mi è mai stato chiesto di firmare alcun modulo di consenso durante l’onboarding, ma perché né il titolo né la descrizione del lavoro menzionavano mai la moderazione dei contenuti”. La pressione di dover completare decine di questi compiti ogni giorno, ognuno entro 10 minuti, ha portato Sawyer in spirali di ansia e attacchi di panico, afferma, senza il supporto della salute mentale del suo datore di lavoro. Sawyer è uno delle migliaia di dipendenti specializzati in intelligenza artificiale assunti da Google tramite GlobalLogic, società del conglomerato giapponese Hitachi, per valutare e moderare l’output dei prodotti di intelligenza artificiale di Google, tra cui il suo chatbot di punta Gemini, lanciato all’inizio dello scorso anno, e i suoi riepiloghi dei risultati di ricerca, AI Overviews. Ogni nuovo rilascio di modello promette una maggiore accuratezza, il che significa che per ogni versione, questi valutatori di intelligenza artificiale lavorano duramente per verificare che le risposte del modello siano sicure per l’utente. Migliaia di persone prestano la loro intelligenza per insegnare ai chatbot le risposte corrette in ambiti diversi come la medicina, l’architettura e l’astrofisica, correggendo gli errori ed evitando output dannosi. Molta attenzione è stata dedicata ai lavoratori che etichettano i dati utilizzati per addestrare l’intelligenza artificiale. Esiste, tuttavia, un altro gruppo di lavoratori, tra cui Sawyer, che lavora giorno e notte per moderare l’output dell’IA, garantendo che i miliardi di utenti dei chatbot vedano solo risposte sicure e appropriate. I modelli di intelligenza artificiale vengono addestrati su vaste quantità di dati provenienti da ogni angolo di Internet. Lavoratori come Sawyer si collocano in un livello intermedio della catena di fornitura globale dell’intelligenza artificiale, pagati più degli annotatori di dati di Nairobi o Bogotà , il cui lavoro consiste principalmente nell’etichettare i dati per modelli di intelligenza artificiale o auto a guida autonoma, ma molto al di sotto degli ingegneri di Mountain View che progettano questi modelli. Nonostante il loro contributo significativo a questi modelli di intelligenza artificiale, che forse sarebbero allucinanti se non fosse per questi editor del controllo qualità, questi lavoratori si sentono nascosti. “L’intelligenza artificiale non è magia; è uno schema piramidale di lavoro umano”, ha affermato Adio Dinika, ricercatore presso il Distributed AI Research Institute di Brema, in Germania. “Questi valutatori rappresentano il gradino intermedio: invisibili, essenziali e sacrificabili”. Google, come altre aziende tecnologiche, assume i data worker attraverso una rete di appaltatori e subappaltatori. Uno dei principali appaltatori per i valutatori di intelligenza artificiale di Google è GlobalLogic, dove questi valutatori sono suddivisi in due grandi categorie: valutatori generalisti e super valutatori.  La maggior parte dei lavoratori assunti inizialmente per questi ruoli erano insegnanti. Altri includevano scrittori, persone con master in belle arti e alcuni con competenze molto specifiche, ad esempio dottori di ricerca in fisica, hanno affermato i lavoratori. GlobalLogic ha avviato questo lavoro per il colosso tecnologico nel 2023: all’epoca, aveva assunto 25 super valutatori, secondo tre dei dipendenti intervistati. Con l’intensificarsi della corsa al miglioramento dei chatbot, GlobalLogic ha incrementato le assunzioni e ha ampliato il team di super valutatori dell’IA a quasi 2.000 persone. I valutatori di intelligenza artificiale di GlobalLogic sono pagati più dei loro colleghi che si occupano di etichettatura dei dati in Africa e Sud America, con stipendi a partire da 16 dollari l’ora per i valutatori generalisti e 21 dollari l’ora per i super valutatori, secondo i lavoratori. Alcuni sono semplicemente grati di avere un impiego mentre il mercato del lavoro statunitense è in crisi, ma altri affermano che cercare di migliorare i prodotti di intelligenza artificiale di Google ha avuto un costo personale. Sebbene il settore dell’intelligenza artificiale sia in forte espansione, i valutatori di intelligenza artificiale non godono di una forte sicurezza del posto di lavoro. Dall’inizio del 2025, GlobalLogic ha registrato licenziamenti continui, con la forza lavoro totale di super valutatori e valutatori generalisti dell’intelligenza artificiale che si è ridotta a circa 1.500 unità, secondo diversi dipendenti. Allo stesso tempo, i dipendenti avvertono un senso di perdita di fiducia nei prodotti che contribuiscono a sviluppare e formare. La maggior parte dei dipendenti ha affermato di evitare di utilizzare LLM o di utilizzare estensioni per bloccare i riepiloghi dell’intelligenza artificiale perché ora ne conosce il funzionamento. Molti scoraggiano anche familiari e amici dall’utilizzarlo, per lo stesso motivo. “Voglio solo che la gente sappia che l’intelligenza artificiale viene spacciata per una magia tecnologica: ecco perché c’è un piccolo simbolo scintillante accanto alla risposta dell’intelligenza artificiale”, ha detto Sawyer. “Ma non lo è. È costruita sulle spalle di esseri umani sfruttati e sottopagati”. The post Come migliaia di esseri umani “sovraccaricati di lavoro e sottopagati” addestrano l’intelligenza artificiale di Google a sembrare intelligente first appeared on Lavoratrici e Lavoratori Aci Informatica.
Laboratorio "Giocare o essere giocati" al Festival Interferenze Costruttive
Domenica 5 ottobre condurremo il laboratorio di Pedagogia Hacker "Giocare o essere giocati" all'interno del Festival Interferenze Costruttive a Roma. 3-4-5 ottobre 2025: prima edizione del festival culturale di Radio Onda Rossa "Interferenze Costruttive" presso il CSOA La Torre, a via Bertero 13, Roma. Nell'ambito del festival, domenica 5 ottobre dalle 16.30 alle 18.30 condurremo il laboratorio di Pedagogia Hacker "Giocare o essere giocati". GIOCARE O ESSERE GIOCATI? Molti videogiochi catturano la nostra attenzione al punto da creare forme di abitudine e assuefazione costruite magistralmente sulle vulnerabilità comuni a tutti gli umani. In maniera analoga siamo chiamati a partecipare e a contribuire instancabilmente alle “comunità” digitali, costruite seguendo tecniche di gamificazione. Su Instagram, TikTok, Facebook, ogni esperienza di interazione sociale si trasforma in una complicata gara, con un sacco di punti e classifiche, livelli e campioni. Conosciamo per esperienza diretta le regole di questi “giochi”: se ci comportiamo bene, otteniamo molti “like”, strike, notifiche, cioè caramelle sintetiche per i nostri cervelli (sotto forma di dopamina); se siamo scarsi rimaniamo a bocca asciutta. Di certo, “vincere” non è mai abbastanza: dobbiamo sempre lavorare di più, perché il “gioco” non finisce mai… Durante questo laboratorio analizzeremo le interfacce dei social media per osservare come ci fanno sentire, ragioneremo sulla differenza tra social media e social network. Metteremo le mani in pasta per scoprire strumenti FLOSS progettati per fare rete a partire dai desideri di comunità reali. Per conoscere il programma delle tre giornate visitare il sito di radio onda rossa.
Vietare i cellulari e promuovere l’Ia, l’insostenibile confusione al potere
Al rientro a scuola, studenti, famiglie e docenti hanno trovato l’ennesima sorpresa: un dettagliato libriccino contenente le linee guida per una rapida adozione – naturalmente consapevole, responsabile e senza ulteriori oneri a carico del bilancio – dell’intelligenza artificiale in tutti gli ordini e gradi di istruzione. -------------------------------------------------------------------------------- A una prima analisi, le linee guida sembrano proseguire nella spinta verso l'adozione di tecnologie digitali non facilmente controllabili dagli attori della scuola, con un forte rischio che si riproponga lo scenario già visto con i progetti PNRR Scuola 4.0: una corsa a spendere fondi per introdurre hardware e software, senza possibilità di scelta consapevole da parte delle scuole, terminata in un sostanziale trasferimento di fondi pubblici al privato. L'enfasi sull'innovazione tecnologica e sulla transizione digitale delle scuole raramente tiene conto delle esigenze didattiche della comunità scolastica, per puntare l'obiettivo su un mero accumulo di tecnologie che si rivelano ingestibili dalle scuole, vuoi per incapacità, vuoi perché le tecnologie adottate sono spesso opache, o anche perché delegate completamente a imprese private. DIDATTICA: LA GRANDE ASSENTE Basterebbe il mero dato statistico a rendersi conto di quanto siano vaghe le Linee Guida su questo tema centrale per la scuola. Su 33 pagine solo due sono riservate alla didattica in senso stretto, nel paragrafo dedicato alle aree di applicazione per tipologia di destinatari (4.2). La maggior parte del testo si sofferma sugli aspetti tecnico-normativi, richiamando norme europee (AI act) e cosiddette buone pratiche consolidate. Se non bastasse il dato statistico, la lettura del paragrafo mostra la genericità e la confusione delle indicazioni . Riportiamo di seguito uno degli esempi di possibili applicazioni pratiche dell'IA per docenti, perché esemplificativo della poca conoscenza di strumenti che, in alcuni casi, sono in uso da tempo nelle attività didattiche, senza avere nulla a che vedere con l'IA. Strumenti interattivi e innovativi: l’IA permette l’elaborazione di risorse didattiche (come simulazioni, giochi, mappe concettuali, riassunti per l’apprendimento e quiz interattivi) che aumentano la motivazione e il coinvolgimento degli studenti; La domanda sorge spontanea: che senso ha far generare una mappa concettuale all’IA, quando l'obbiettivo didattico di questa metodologia è proprio fare in modo che lo studente possa "mappare" la propria conoscenza di un argomento e collegarne i vari elementi? AI COME AUTOMAZIONE Le indicazioni divengono invece più definite laddove sono individuati i campi di automazione dei processi lavorativi tipici dell'amministrazione e del monitoraggio da parte del Dirigente Scolastico. In particolare risulta evidente il riferimento all'automazione nei paragrafi Ottimizzazione nella riorganizzazione dell’orario o Monitoraggio documenti programmatici, nei quali si menziona l'evidenziazione di eventuali scostamenti di bilancio come risultato dell’uso dell’IA. D’altra parte l’Intelligenza Artificiale è un insieme di tecniche di cui le IA generative sono solo un sotto insieme. Nelle Linee Guida si parla genericamente di IA, senza distinguere un algoritmo per l’ottimizzazione dell’orario scolastico, caso classico di automazione, da un Large Language Model, Chat GPT per intendersi, lasciando alla scuola il compito di districarsi tra le molte e confuse offerte private. CONTRADDIZIONI E OSSIMORI Oltre all’imbarazzante assenza dei temi della didattica, il secondo aspetto che salta all’occhio sono le numerose contraddizioni interne ai messaggi del Ministero. Anzitutto le Linee Guida si pongono come obiettivi la sostenibilità e la tutela dei diritti degli allievi, raccomandando alla dirigenza e al corpo docente di rendere effettivamente esercitabile il diritto a non fornire i dati degli allievi come pre-requisito per l’utilizzo dell’IA. Peccato che le IA generative, che vengono proposte al suo interno, ossia i servizi SaaS (Software as a service) come ChatGPT, siano incompatibili con entrambi questi principi: il primo a causa dei pantagruelici consumi di elettricità e acqua dei datacenter indispensabili per la fornitura del servizio, il secondo perché il modello SaaS si basa per l’appunto sulla fornitura di questi dati, ossia il servizio erogato è gratuito proprio perché i dati dell’utilizzatore sono parte del modello di business delle imprese che producono questi software. Quando invece il servizio è a pagamento, i dati sono usati per migliorare l’addestramento dell’IA. L’ENNESIMA RIFORMA DALL’ALTO A giudicare dalla letteratura scientifica citata dal ministero, in cui la parte da leone la fanno le riflessioni sulla produttività più che quelle sul senso e sulla missione della scuola, sembra evidente che queste prime Linee Guida siano state redatte senza tenere nella dovuta considerazione le dinamiche sociali che questa nuova tecnologia sta promuovendo. Questo spiega come sia possibile che lo stesso ministero abbia, nella stessa giornata, varato un divieto draconiano contro gli smartphone (i cui effetti tossici sono ormai riconosciuti da letteratura bi-partisan) e promosso le Linee Guida per l’IA (i cui effetti tossici stanno cominciando a manifestarsi lentamente solo ora). VALORIZZARE LE COMUNITÀ Nel frattempo in molte zone della penisola vengono adottati sistemi per la didattica che valorizzano la creazione di conoscenza locale e condivisa, oltre che utilizzare il denaro per pagare lavoro invece che licenze d’uso a grandi aziende USA. Ci sono esempi virtuosi di scuole che acquistano software (anche l’Intelligenza Artificiale è software) rilasciati con licenze libere e/o aperte (F/LOSS) modificabili secondo le esigenze delle comunità scolastiche. In questo modo le scuole possono mettersi in rete per condividere risorse computazionali, risparmiando, oltre che per confrontarsi e condividere esigenze e soluzioni. Esistono già in Italia imprese che forniscono servizi con queste modalità, l’esempio delle scuole della Provincia Autonoma di Bolzano è solo uno e il più longevo. Il modello è quello delle Comunità Energetiche Rinnovabili che, secondo gli ultimi dati del GSE, stanno crescendo vertiginosamente. Si può fare! Maurizio Mazzoneschi e Stefano Barale per C.I.R.C.E L'articolo è uscito nel quotidiano Domani il 14 settembre 2025
Vietare i cellulari e promuovere l’Ia, l’insostenibile confusione al potere
I problemi delle linee guida per l’adozione dell’intelligenza artificiale in tutti gli ordini e gradi di istruzione: tra clamorose assenze, contraddizioni e ossimori. L’ennesima riforma calata dall’alto. Ma un’altra strada è possibile Al rientro a scuola, studenti, famiglie e docenti hanno trovato l’ennesima sorpresa: un dettagliato libriccino contenente le linee guida per una rapida adozione – naturalmente consapevole, responsabile e senza ulteriori oneri a carico del bilancio – dell’intelligenza artificiale in tutti gli ordini e gradi di istruzione. A una prima analisi, le linee guida sembrano proseguire nella spinta verso l'adozione di tecnologie digitali non facilmente controllabili dagli attori della scuola, con un forte rischio che si riproponga lo scenario già visto con i progetti PNRR Scuola 4.0: una corsa a spendere fondi per introdurre hardware e software, senza possibilità di scelta consapevole da parte delle scuole, terminata in un sostanziale trasferimento di fondi pubblici al privato. L'enfasi sull'innovazione tecnologica e sulla transizione digitale delle scuole raramente tiene conto delle esigenze didattiche della comunità scolastica, per puntare l'obiettivo su un mero accumulo di tecnologie che si rivelano ingestibili dalle scuole, vuoi per incapacità, vuoi perché le tecnologie adottate sono spesso opache, o anche perché delegate completamente a imprese private.  L'articolo di Mazzoneschi e Barale (C.I.R.C.E.) è uscito nel quotidiano Domani. Qui per leggere la versione integrale
Le aziende traggono vantaggio dai licenziamenti guidati dall’intelligenza artificiale
(Fonte) Dave Lozo – 4 settembre 2025 Il CEO di Salesforce, Marc Benioff, che ha dichiarato al podcast The Logan Bartlett Show di aver tagliato 4.000 posti di lavoro nel servizio clienti grazie al tipo di intelligenza artificiale di cui Matthew McConaughey e Woody Harrelson apparentemente non potrebbero fare a meno. A giugno, Benioff ha affermato che l’intelligenza artificiale svolge il 50% del lavoro in Salesforce. Ieri, l’azienda ridimensionata ha riportato un secondo trimestre con un fatturato doppio (10,24 miliardi di dollari contro 10,14 miliardi di dollari) e un utile per azione (2,91 dollari contro 2,78 dollari), sebbene le previsioni più deboli per il terzo trimestre abbiano fatto crollare il titolo dopo la chiusura. Non mancano aziende che sfruttano l’intelligenza artificiale per rimanere redditizie, per la gioia degli investitori (non Salesforce): * L’amministratore delegato di Wells Fargo ha annunciato la riduzione del personale per 20 trimestri consecutivi. Le sue azioni sono aumentate del 228% negli ultimi cinque anni. * Il CEO di Bank of America, Brian Moynihan, non lo ha nascosto durante una recente conference call sui risultati finanziari, quando ha dichiarato che l’azienda ha licenziato 88.000 dipendenti negli ultimi 15 anni. Le azioni di BofA sono aumentate del 95% dal 2020. * Amazon, il cui valore azionario è aumentato del 28% nell’ultimo anno, ha recentemente comunicato ai propri dipendenti che l’implementazione dell’intelligenza artificiale avrebbe portato a licenziamenti. * Microsoft ha tagliato 15.000 posti di lavoro negli ultimi due mesi, mentre l’azienda si orienta verso l’intelligenza artificiale; inoltre, le sue azioni sono in rialzo dall’inizio di luglio. Allargando lo sguardo: secondo HR Dive, il 34% degli amministratori delegati prevede di attuare licenziamenti nei prossimi 12 mesi, il quinto trimestre consecutivo in cui tale numero è in aumento. Molly Kinder, senior fellow presso Brookings, esperta in intelligenza artificiale e nel presente e futuro del lavoro, ha dichiarato al WSJ: “Non credo che questa sia una buona notizia per il lavoratore americano”. —DL The post Le aziende traggono vantaggio dai licenziamenti guidati dall’intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.
Come dovremmo parlare di intelligenza artificiale ai nostri figli?
(Fonte) 30 agosto 2025 – Kathryn Jezer-Morton I noiosi compositi che l’IA generativa cerca di spacciare per “idee” sono per definizione nella media, e da quando ho letto il libro di Karen Hao “Empire of AI” , le incombenti devastazioni nel mondo reale delle infrastrutture di IA non mi sembrano più astratte: sono inevitabili. A parte i miei pensieri sull’uso dell’IA generativa – no, non sono d’accordo che sia “divertente da usare”, cresci! – non commettiamo lo stesso errore che abbiamo commesso l’ultima volta che ci siamo trovati di fronte a una tecnologia rivoluzionaria che i suoi sviluppatori sostenevano fosse inevitabile e allo stesso tempo fantastica. Vent’anni fa, abbiamo adottato i social media con lo stesso livello di pensiero critico che un bambino applica quando si mette un LEGO in bocca. Abbiamo condiviso cose che non avremmo dovuto e abbiamo accettato con entusiasmo i nostri feed come un sostituto della realtà. In seguito, quando è arrivato il momento per i giovani di creare i propri account, gli adulti hanno abdicato a ogni responsabilità di modellare comportamenti intelligenti. Abbiamo lasciato che i bambini facessero quello che volevano sui social media, partendo dal presupposto corretto che non avessimo più abbastanza credibilità per stabilire alcun controllo. Emily Bender, linguista coautrice di The AI Con con il sociologo Alex Hanna, mi ha ricordato che quando parliamo di intelligenza artificiale, dobbiamo essere precisi. Molti strumenti che utilizzano l’intelligenza artificiale – ad esempio strumenti di trascrizione vocale-testo o strumenti che trasformano un insieme di testi in un podcast di supporto allo studio – non generano qualcosa di nuovo; combinano gli input di un singolo individuo e li rendono leggibili in un nuovo formato. Ciò che Bender critica maggiormente sono quelle che chiama “macchine multimediali sintetiche”: modelli che creano immagini e testi compositi, come ChatGPT, DALL-E3 e Midjourney, utilizzando enormi librerie di materiale esistente per soddisfare un prompt.”Questi strumenti sono progettati per apparire come sistemi oggettivi e onniscienti, e credo sia importante abituare i bambini a chiedersi: ‘Chi ha costruito tutto questo? Chi ha detto e scritto le cose originali che sono diventate i dati di training? Di chi sono state rubate le illustrazioni da queste aziende per produrre i set di training?'”, ha affermato Bender. Per i bambini troppo piccoli per rispondere a queste domande, Bender suggerisce ai genitori di concentrarsi sull’impatto ambientale. “Ogni volta che si utilizza un chatbot, si contribuisce a costruire le basi per lo sviluppo del modello successivo e la costruzione del prossimo data center da parte dell’azienda. I data center devono essere raffreddati con enormi quantità di acqua pulita, e acqua pulita di solito significa acqua potabile”. Di chi sarà l’acqua potabile che verrà deviata? orse riusciremo a raggiungere i ragazzi in età universitaria facendo leva sul loro istinto competitivo. “Il modo migliore per garantire la sicurezza del lavoro e la qualità della vita in generale in futuro è capire i propri punti di forza e in cosa si è unici”, ha detto Hao. “In definitiva, le aziende non cercano di capire se sai usare uno strumento o meno. Cercano qualcosa di insostituibile in te che non possono semplicemente scambiare con un altro candidato. Se fai troppo affidamento sull’intelligenza artificiale, che si basa letteralmente sulla ripetitività statistica, ti darai la zappa sui piedi. Non riuscirai a individuare i tuoi punti di forza, ed è a questo che serve l’università: cimentarsi, provare cose nuove. Alcuni ragazzi si affidano ai chatbot per prendere decisioni di vita, per capire come reagire in determinate situazioni, e ottengono sempre la media statistica. Ti fa sembrare come tutti gli altri. Il tuo utilizzo dell’intelligenza artificiale non sarà percepito come intelligente. Non ti distinguerai mai.” Sebbene Empire of AI si concentri su come le aziende tecnologiche stiano accumulando lo stesso tipo di potere un tempo esercitato solo dai governi imperialisti, Hao mi ha detto che la nostra più forte resistenza inizia in casa, dove dovremmo incoraggiare l’indipendenza dei bambini nel mondo esterno. “I bambini sentono che i loro telefoni e questi strumenti sono uno spazio davvero libero in cui non sono supervisionati. Mentre quando escono di persona, sono spesso sorvegliati e sorvegliati. Quindi, anche se potrebbero preferire socializzare di persona, preferirebbero avere la libertà che deriva dall’essere online”. Se i genitori riescono a dare ai loro figli questa sensazione di libertà nei loro ambienti sociali, ciò potrebbe fornire una valida alternativa al fascino dell’intelligenza artificiale sempre attiva. The post Come dovremmo parlare di intelligenza artificiale ai nostri figli? first appeared on Lavoratrici e Lavoratori Aci Informatica.
La ricerca suggerisce che i medici potrebbero rapidamente diventare dipendenti dall’intelligenza artificiale
(Fonte) Geoff Brumfiel – 19 agosto 2025 L’intelligenza artificiale sta iniziando ad aiutare i medici a sottoporre i pazienti a screening per diverse patologie di routine. Ma un nuovo studio solleva preoccupazioni sul fatto che i medici potrebbero diventare troppo dipendenti dall’intelligenza artificiale. Lo studio condotto su gastroenterologi in Polonia ha rilevato che, dopo essersi abituati all’uso di un sistema assistito dall’intelligenza artificiale, la loro capacità di individuare autonomamente polipi e altre anomalie durante le colonscopie era circa del 20%. I risultati , pubblicati sulla rivista Lancet Gastroenterology and Hepatology, suggeriscono che anche dopo un breve periodo di utilizzo dell’intelligenza artificiale, gli esperti potrebbero diventare eccessivamente dipendenti dall’intelligenza artificiale per svolgere determinati aspetti del loro lavoro. L’intelligenza artificiale sta diventando sempre più comune in numerose ecografie mediche di routine. La prossima volta che vi sottoporrete a un’ecografia per la vista, il cancro al seno o una malattia del colon, ci sono buone probabilità che l’intelligenza artificiale analizzi le immagini. Qualche anno fa, quattro cliniche in Polonia hanno sperimentato un sistema di intelligenza artificiale per rilevare polipi e altre anomalie durante le colonscopie. L’intelligenza artificiale funziona in tempo reale, analizzando i video di una telecamera posta all’interno del colon. Se individua qualcosa, evidenzierà l’area in modo che il medico possa vederla. Le cliniche stavano raccogliendo dati per verificare se il sistema di intelligenza artificiale funzionasse. A quanto pare sì, ma quando Romańczyk e i suoi colleghi hanno rianalizzato i dati, hanno scoperto qualcos’altro: dopo l’introduzione del sistema, i medici erano significativamente meno abili nel rilevare possibili polipi quando l’intelligenza artificiale era disattivata. Secondo la loro analisi , dopo che i medici hanno adottato l’intelligenza artificiale, i tassi di rilevamento di possibili polipi sono scesi dal 28,4% al 22,4% quando il nuovo sistema di intelligenza artificiale è stato disattivato. In altre parole, i medici sembravano diventare rapidamente dipendenti dai sistemi di intelligenza artificiale per la rilevazione dei polipi. Romańczyk afferma di non essere del tutto sicuro del perché ciò accada, ma ha alcune teorie. The post La ricerca suggerisce che i medici potrebbero rapidamente diventare dipendenti dall’intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.