Tag - Intelligenza Artificiale

L’AI va in guerra
il primo articolo di Carola Frediani per Guerre di rete il secondo di Simone Valesini per Wired una proposta per il dibattito di Maria Laura Mantovani Guerre di Rete – L’AI va in guerra (c’era già, ma qualcosa è cambiato?) Analisi di una crisi annunciata. Nella foto, Dario Amodei, Ceo di Anthropic, credits Wikimedia Guerre di Rete – una newsletter
Assalto al trono di Nvidia
Un numero crescente di concorrenti sempre più agguerriti puntano a ridurre la loro dipendenza dalle GPU di Nvidia. A prima vista, le cose per Nvidia non potrebbero andare meglio. Il colosso statunitense delle GPU detiene oggi il 92% di questo specifico settore e una quota pari al 70-75% del più complessivo mercato dei chip impiegati nell’ambito AI. Nel 2025, la società fondata da Jensen Huang ha messo a segno ricavi per circa 200 miliardi di dollari (oltre il doppio di quanto fatturato nell’anno precedente), ha ottenuto guadagni per 32 miliardi nel corso di un unico trimestre e può vantare al momento la maggiore capitalizzazione di mercato al mondo (4.600 miliardi di dollari, contro i 3.900 della seconda classificata Apple). Un dominio quasi inevitabile, per l’azienda che con le sue GPU – processori nati per l’elaborazione grafica dei videogiochi, ma che si sono dimostrati estremamente efficienti per l’addestramento e l’utilizzo dei sistemi d’intelligenza artificiale – ha reso possibile la rivoluzione del deep learning ed è oggi praticamente l’unica azienda in grado di guadagnare dal complicato, dal punto di vista economico, settore dell’AI generativa. Il ruolo di Nvidia è talmente centrale che, lo scorso novembre, gli occhi di tutti gli operatori finanziari erano puntati proprio sui suoi risultati trimestrali, perché si temeva che una crescita anche solo leggermente inferiore alle attese avrebbe fatto scoppiare la bolla dell’intelligenza artificiale (pericolo per il momento scongiurato o almeno rinviato). Basterà tutto ciò a mettere al riparo Nvidia da un numero crescente di concorrenti sempre più agguerriti, che puntano a ridurre la loro dipendenza dalle GPU di Jensen Huang, a produrre chip specializzati dalle prestazioni ancora più elevate (in termini computazionali o di efficienza energetica) e a consentire alla seconda superpotenza tecnologica – la Cina – di liberare tutte le proprie potenzialità? Leggi l'articolo
Venti minuti per ingannare l'IA: ChatGPT e Gemini preda della disinformazione più ovvia
Con l'avvento degli LLM, molti si sono convinti che questi siano degli oracoli assolutamente imparziali e onniscienti cui chiedere conferma della veridicità di pressoché ogni informazione. In realtà, come dimostra l'esperimento condotto da un giornalista della BBC, ingannare i chatbot (o, per lo meno, alcuni di essi) spingendoli a credere alle bufale non è poi troppo complicato. In particolare ChatGPT e Gemini, pur essendo sistemi progettati per filtrare contenuti falsi o dannosi, possano essere indotti a generare informazioni errate con sorprendente rapidità. Il giornalista in questione, Thomas Germain, non aveva l'obiettivo di violare sistemi informatici o sfruttare vulnerabilità tecniche profonde, ma puntava soltanto dimostrare come un intervento minimo e apparentemente innocuo potesse alterare il comportamento di chatbot come ChatGPT e Google Gemini. L'intero processo di creazione dell'inganno ha richiesto appena venti minuti, serviti a Germain per creare una semplice pagina web sul proprio sito personale. Il contenuto di questa pagina era volutamente banale e costruito ad arte: un articolo che lo definiva «il miglior giornalista tecnologico al mondo nel mangiare hot dog». Non si trattava di un'informazione reale né plausibile, ma era formulata in modo tale da sembrare una dichiarazione di fatto. Leggi l'articolo
February 26, 2026
Pillole di info digitale
Assalto al trono di Nvidia
Immagine in evidenza: logo di Nvidia, immagine rielaborata con AI A prima vista, le cose per Nvidia non potrebbero andare meglio. Il colosso statunitense delle GPU detiene oggi il 92% di questo specifico settore e una quota pari al 70-75% del più complessivo mercato dei chip impiegati nell’ambito AI. Nel 2025, la società fondata da Jensen Huang ha messo a segno ricavi per circa 200 miliardi di dollari (oltre il doppio di quanto fatturato nell’anno precedente), ha ottenuto guadagni per 32 miliardi nel corso di un unico trimestre e può vantare al momento la maggiore capitalizzazione di mercato al mondo (4.600 miliardi di dollari, contro i 3.900 della seconda classificata Apple). Un dominio quasi inevitabile, per l’azienda che con le sue GPU – processori nati per l’elaborazione grafica dei videogiochi, ma che si sono dimostrati estremamente efficienti per l’addestramento e l’utilizzo dei sistemi d’intelligenza artificiale – ha reso possibile la rivoluzione del deep learning ed è oggi praticamente l’unica azienda in grado di guadagnare dal complicato, dal punto di vista economico, settore dell’AI generativa. Il ruolo di Nvidia è talmente centrale che, lo scorso novembre, gli occhi di tutti gli operatori finanziari erano puntati proprio sui suoi risultati trimestrali, perché si temeva che una crescita anche solo leggermente inferiore alle attese avrebbe fatto scoppiare la bolla dell’intelligenza artificiale (pericolo per il momento scongiurato o almeno rinviato). In questa fase, Nvidia può addirittura farsi carico dell’espansione infrastrutturale del settore dell’AI generativa, essendo diventata il fulcro di un complicatissimo meccanismo di prestiti e finanziamenti che ha ovviamente l’obiettivo finale di vendere un numero sempre maggiore di GPU. Nonostante alcuni inciampi (com’è il caso del promesso investimento in OpenAI, recentemente ritirato), questo meccanismo può essere sintetizzato così: Nvidia presta o investe capitale in startup e grandi sviluppatori di modelli, che utilizzano quei fondi per acquistare infrastruttura di calcolo – spesso proprio GPU Nvidia – alimentando una domanda che in parte contribuisce essa stessa a creare. Se tutto ciò non bastasse, Jensen Huang ha ultimamente messo in atto la più classica pratica da monopolista della Silicon Valley, iniziando a inglobare le startup che potrebbero in futuro minacciarne la posizione dominante. È il caso del maxi-accordo da 20 miliardi di dollari con cui ha acquistato gli asset tecnologici e ha assunto parte del team di Groq, società che produce chip specializzati – in termini tecnici ASIC – nella fase di inferenza dell’intelligenza artificiale (vale a dire il carico di lavoro svolto durante l’utilizzo dei sistemi generativi). Basterà tutto ciò a mettere al riparo Nvidia da un numero crescente di concorrenti sempre più agguerriti, che puntano a ridurre la loro dipendenza dalle GPU di Jensen Huang, a produrre chip specializzati dalle prestazioni ancora più elevate (in termini computazionali o di efficienza energetica) e a consentire alla seconda superpotenza tecnologica – la Cina – di liberare tutte le proprie potenzialità? LA MINACCIA DI GOOGLE “C’è la sensazione strategica, tra i clienti e nel mercato complessivo, che la dipendenza da Nvidia, e dai suoi prezzi elevati, debba essere interrotta”, ha spiegato, parlando con El País, l’analista Fernando Maldonado. “Tutti i principali fornitori di servizi cloud stanno progettando i loro specifici chip per compiti differenti. Più in là nel tempo, la quota di mercato di Nvidia potrebbe iniziare a ridursi” Dei vari concorrenti che stanno scaldando i motori nessuno è più minaccioso di Google: azienda storicamente leader nel campo dell’intelligenza artificiale, che ha reso possibile l’avvento dei large language model, sviluppando nel 2017 l’architettura Transformer, e che per il loro addestramento sfrutta da sempre una combinazione di GPU Nvidia e delle sue TPU (Tensor Processing Unit), ovvero acceleratori hardware progettati internamente, in collaborazione con Broadcom, e ottimizzati per il calcolo delle reti neurali. Questa coabitazione di GPU e TPU potrebbe presto giungere al termine: Gemini 3 – il più avanzato large language model di Google – è stato infatti addestrato utilizzando esclusivamente le TPU prodotte dal colosso di Mountain View, prefigurando quindi un futuro in cui Nvidia potrebbe perdere uno dei suoi più importanti clienti. Ma c’è altro: Google ha infatti iniziato a stringere accordi commerciali che consentono a varie società del settore di utilizzare le proprie TPU al posto delle GPU di Nvidia. Il più importante di questi accordi è stato stipulato a ottobre 2025 e prevede che Anthropic – una delle principali realtà dell’intelligenza artificiale e sviluppatrice di Claude – spenda “decine di miliardi di dollari” per accedere fino a un milione delle TPU di Google. Un accordo simile, ma su scala più ridotta, è stato siglato con la startup Safe Superintelligence (fondata dall’ex di OpenAI Ilya Sutskever). Fino a oggi, gli sviluppatori di intelligenza artificiale potevano accedere alle TPU soltanto attraverso i data center di proprietà di Google, rendendoli così dipendenti dal suo ecosistema cloud e consentendo una flessibilità molto inferiore rispetto alle GPU di Nvidia, che si acquistano invece fisicamente e poi si sfruttano a piacimento (al netto della lunghissima lista d’attesa). Adesso la situazione è cambiata: Google ha da pochissimo iniziato, secondo le ultime notizie, a vendere direttamente i propri acceleratori. Tra i clienti troviamo ancora una volta Anthropic (con un acquisto completato da dieci miliardi di dollari e un secondo ordine da 11 miliardi già concordato) e secondo le indiscrezioni anche Meta, che collocherebbe fisicamente le TPU nei propri data center, dove fino a oggi avevano trovato spazio soprattutto le GPU di Nvidia. È questa evoluzione di Google, che si sta quindi trasformando in un vero e proprio produttore di chip, ad aver fatto salire le sue azioni quasi del 50% negli ultimi sei mesi, mentre quelle di Nvidia hanno fatto registrare soltanto un +5%. “La capitalizzazione di mercato è cresciuta di quasi mille miliardi a partire dall’ottobre scorso, anche grazie alla decisione di Warren Buffett di acquistare 4,9 miliardi di azioni durante il terzo trimestre del 2025 e al più generale entusiasmo di Wall Street per le iniziative di Google nel campo dell’intelligenza artificiale”, si legge su Bloomberg. “Google è sempre stato il vero outsider nella corsa dell’intelligenza artificiale. Un gigante per qualche tempo dormiente, ma che adesso si è pienamente risvegliato”. AMAZON E NON SOLO Google è sicuramente il rivale più temibile per Nvidia, ma non è l’unico. Ormai da qualche tempo, Amazon (per la precisione AWS) ha iniziato a sviluppare acceleratori per l’intelligenza artificiale – chiamati Trainium – e dall’anno scorso li sta usando nei propri data center, vendendo l’accesso a svariate realtà del settore. Tra queste troviamo ancora una volta Anthropic, la società di “data intelligence” Databricks, l’azienda giapponese di servizi per l’assistenza clienti Karakuri e parecchie altre. Stando alle dichiarazioni del CEO di Amazon Andy Jassy, gli introiti garantiti dai chip Trainium e Graviton (classiche CPU usate internamente in ambito cloud) sono oggi di “circa 10 miliardi di dollari” e crescono “a tripla cifra” anno dopo anno. Come spiega il New York Times, “sebbene non siano potenti come quelli di Google o Nvidia, Amazon sta installando il doppio dei suoi chip all’interno di ciascun data center, nella speranza di offrire maggiore potere computazionale usando la stessa quantità di energia (grazie alla loro migliore efficienza energetica, ndA)”. Al momento, Anthropic è l’unico vero grande cliente dei Trainium di Amazon, ma in futuro le cose potrebbero cambiare: “Gli esperti ritengono che una partnership di questo calibro possa prefigurare cambiamenti ancor più importanti: quando Anthropic utilizza i chip di Amazon o di Google mostra al resto del mercato che le GPU di Nvidia non sono l’unica opzione”. Al contrario: le alternative continuano ad aumentare. La CEO di AMD, Lisa Su, aveva annunciato qualche mese fa l’intenzione di centrare la produzione aziendale sull’AI generativa, scommettendo che la “domanda insaziabile di capacità di calcolo” non si sarebbe esaurita nel giro di pochi trimestri. Finora i numeri sembrano darle ragione: la capitalizzazione di mercato di AMD è quasi quadruplicata, superando i 350 miliardi di dollari, e l’azienda ha firmato accordi rilevanti per fornire chip a OpenAI e Oracle. Anche Broadcom si sta ritagliando uno spazio crescente grazie alla produzione di chip – le cosiddette XPU – progettati per compiti di calcolo specifici, oltre a hardware di rete indispensabile per collegare tra loro i giganteschi rack di server che popolano i data center dell’AI. Intel, uno dei nomi storici della Silicon Valley, ha clamorosamente mancato la prima ondata dell’AI generativa, ma sta adesso investendo massicciamente sia nella progettazione sia nella produzione di processori avanzati per i data center, nel tentativo di recuperare terreno. E infine c’è Qualcomm, tradizionalmente associata ai chip per smartphone e automobili, ma che nell’ottobre scorso ha annunciato il lancio di due nuovi acceleratori per l’intelligenza artificiale, l’AI200 e l’AI250, caratterizzati da un’attenzione particolare all’efficienza energetica. L’ASCESA DELLE STARTUP La scommessa è quindi duplice: da una parte che la richiesta di processori da utilizzare nell’ambito dell’intelligenza artificiale continuerà ad aumentare; dall’altra che si aprano maggiori opportunità per chi produce hardware specializzato, laddove fino a oggi hanno dominato i processori programmabili e generalisti di Nvidia. “Se si osserva il tasso di crescita del settore, si vede [aumentare la domanda] di hardware specializzato”, ha spiegato Alex Davies, CTO della società finanziaria Jump. “È sempre stato così in tutta la storia dell’ingegneria: si inizia con qualcosa di più generico, poi si cresce a grandissima velocità e alla fine qualcuno capisce che non si può avere un unico prodotto per tutto”. Fino a questo momento, la versatilità delle GPU ha rappresentato il principale vantaggio di Nvidia, che attraverso la piattaforma software CUDA consente di programmare i suoi processori in base alle specifiche esigenze aziendali, fidelizzando inoltre una vastissima schiera di programmatori. I chip di uso generale hanno però i loro svantaggi: “C’è un costo energetico da pagare, perché ci sono parti del processore che non si utilizzano per ciò che serve ma consumano comunque energia”, ha spiegato ancora Maldonado a El País. Considerando quanto sta crescendo il mercato, c’è sicuramente spazio per tutte le soluzioni: dai processori generalisti e programmabili di Nvidia fino alle architetture ASIC più specifiche. Nel complesso, si stima che il giro di affari degli acceleratori per sistemi d’intelligenza artificiale dovrebbe crescere del 16% su base annua fino a raggiungere i 604 miliardi di dollari nel 2033: “Certo, Nvidia continuerà a controllare una parte significativa del mercato, ma anche una piccola percentuale può valere miliardi di dollari”, ha spiegato al New York Times l’analista Jordan Nanos. Mentre i colossi si riorganizzano per aumentare la loro presenza in questo ricchissimo mercato, una serie di startup ambisce a conquistare una fetta della torta, presentando nuove soluzioni: Cerebras è una startup californiana, guidata da Andrew Feldman, che progetta processori creati esclusivamente per l’intelligenza artificiale. Processori, tra l’altro, dalle dimensioni inusuali: “Il nostro chip è grande quanto un piatto da tavola, mentre quello di una GPU ha le dimensioni di un francobollo”, ha spiegato Feldman parlando con l’Economist. Potrebbe sembrare una mossa controintuitiva, visto che il progresso tecnologico è sempre stato anche una corsa alla miniaturizzazione. Eppure, Cerebras permette di usare un solo, enorme chip laddove con le GPU di Nvidia bisogna collegarne un gran numero. Questo permette alle connessioni tra i vari core presenti nel chip di operare migliaia di volte più rapidamente di quanto avviene con le connessioni tra GPU separate. Il suo Wafer-Scale Engine 3 (WSE-3) – il più grande chip per AI mai costruito, con circa 4mila miliardi di transistor e 900mila core – è attualmente impiegato da OpenAI (per Codex-Spark, un LLM ottimizzato per la generazione di codice), Mistral, Perplexity e anche dai laboratori scientifici statunitensi (che lo hanno impiegato, per esempio, nell’ambito della “simulazione molecolare dinamica”). Una lista di clienti impressionante, che ha convinto gli investitori a finanziare Cerebras con un miliardo di dollari per una valutazione da 23 miliardi. Cerebras non è però l’unica startup che partecipa alla grande corsa per ritagliarsi uno spazio nel mondo degli acceleratori per AI. Un’altra realtà californiana, fondata da ex ingegneri di Google, è MatX, che sta sviluppando processori che mirano a fare piazza pulita di tutti gli elementi delle GPU non necessari per l’addestramento degli LLM. In poche parole, MatX punta a creare processori che facciano meno cose, ma in maniera più efficiente. La startup nata nel 2022 ha appena raccolto oltre 500 milioni di dollari in un nuovo round di finanziamento e punta a completare il design del suo chip nel 2026, con spedizioni previste nel 2027. L’elenco delle startup include anche le statunitensi d-Matrix e SambaNova, l’israeliana Hailo, la britannica Graphcore (acquistata nel 2024 da SoftBank), la canadese-statunitense Tenstorrent e tantissime altre. LA CINA PUNTA ALL’AUTOSUFFICIENZA Le maggiori sorprese per Nvidia potrebbero però arrivare dall’altro lato del Pacifico. Non è un caso che Jensen Huang abbia pubblicamente espresso la sua contrarietà alle sanzioni che impediscono la vendita delle GPU più avanzate alla Cina (per quanto recentemente allentate), argomentando che questa politica rischia di accelerare la corsa della Repubblica Popolare per rendersi del tutto autonoma dai processori statunitensi (e quindi intaccando il fatturato di Nvidia, proveniente per il 13% dal mercato cinese). Che la Cina sia dietro agli Stati Uniti soltanto di “pochi nanosecondi” – come affermato dallo stesso Huang – è un’esagerazione, ma i progressi fatti dai produttori di chip del colosso asiatico sono molto significativi. Al momento, le prestazioni del modello H20 – il chip più potente che Nvidia può vendere in Cina, variante dell’H200 – sono già state ampiamente superate da numerosi processori cinesi, tra cui l’Ascend 910C di Huawei e il BW1000 di Hygon (per capacità di calcolo grezza e al netto di un maggiore consumo energetico). Probabilmente proprio allo scopo di aumentare l’adozione di chip autoctoni, Pechino sta adesso a sua volta ostacolando l’acquisto dei chip Nvidia da parte delle aziende cinesi, complicando ulteriormente una situazione già molto difficile. In sintesi: al momento gli Stati Uniti hanno riammesso la vendita dei processori H20, ma è ora la Cina che ne blocca l’acquisto da parte delle sue aziende, adducendo ragioni di sicurezza nazionale. La situazione è caotica e in continua evoluzione, ma l’impressione è che la Cina voglia approfittare della guerra commerciale per aumentare la quota dei suoi campioni nazionali (Huawei, Hygon, Cambricon, MetaX), che oggi detengono il 40% del mercato – per un valore di circa 38 miliardi di dollari – e che potrebbero crescere fino al 50% nel giro di un paio d’anni. Dal punto di vista tecnologico, un aiuto importante potrebbe giungere dai progressi fatti dalla Semiconductor Manufacturing International Corporation (SMIC): l’azienda cinese che si occupa di fabbricare concretamente i chip progettati da Huawei e dagli altri. SMIC è oggi il cuore della strategia industriale cinese nel campo dei processori. Secondo alcuni report, l’azienda sarebbe ormai in grado di produrre anche chip a 5 nanometri, seppur con costi più elevati e rese inferiori rispetto a quelli realizzati dal colosso taiwanese TSMC per i marchi occidentali, le cui dimensioni hanno da poco raggiunto la soglia dei 2 nanometri. Allo stesso tempo, Huawei starebbe investendo per dare vita a delle proprie strutture produttive, diventando quindi un concorrente di SMIC con l’obiettivo di far progredire ulteriormente la capacità cinese di produrre chip avanzati. Ci vorrà ancora parecchio tempo prima che le prestazioni dei chip cinesi possano effettivamente raggiungere quelle statunitensi, ma i timori di Jensen Huang sono fondati: SMIC, Huawei e gli altri campioni di Pechino o Shenzhen stanno facendo rapidi e importanti passi avanti. E un domani potrebbero contribuire ad allargare le crepe del dominio di Nvidia. GPU, ASIC, Acceleratori GPU Le GPU (Graphics Processing Unit) sono processori nati originariamente per l’elaborazione grafica, in particolare per il rendering in tempo reale dei videogiochi. La loro caratteristica distintiva è la capacità di eseguire moltissime operazioni in parallelo, qualità che le rende particolarmente adatte a calcoli matematici ripetitivi e su larga scala. È proprio questa architettura parallela ad averle trasformate, negli ultimi dieci anni, nel motore principale dell’intelligenza artificiale moderna: le GPU sono infatti ideali per addestrare e far funzionare reti neurali profonde. Pur essendo oggi centrali nell’AI, restano chip general purpose, programmabili e utilizzabili anche per molti altri compiti. ASIC Gli ASIC (Application-Specific Integrated Circuit) sono chip progettati per svolgere un compito specifico. A differenza delle GPU, non sono pensati per essere versatili, ma per massimizzare efficienza e prestazioni in una determinata funzione. Nel campo dell’intelligenza artificiale, un ASIC può essere progettato esclusivamente per eseguire operazioni tipiche delle reti neurali, riducendo consumi energetici e costi rispetto a soluzioni più generiche. Proprio perché costruiti “su misura”, gli ASIC offrono spesso prestazioni superiori nel compito per cui sono stati progettati, ma sono meno flessibili rispetto a una GPU.   Acceleratori Il termine acceleratore non indica una specifica categoria tecnica di chip, ma una funzione: un acceleratore è un processore progettato per velocizzare un determinato carico di lavoro. Nel contesto dell’intelligenza artificiale, GPU, ASIC specializzati, TPU o altri chip custom rientrano tutti nella categoria degli acceleratori, perché servono ad accelerare i calcoli necessari per addestrare o utilizzare i modelli. In altre parole, “acceleratore” è il contenitore concettuale più ampio; GPU e ASIC sono alcune delle tecnologie che possono svolgere quel ruolo. L'articolo Assalto al trono di Nvidia proviene da Guerre di Rete.
February 26, 2026
Guerre di Rete
OpenClaw "impazzisce" e svuota una casella email: campanello d'allarme globale per gli agenti IA
La storia che vede coinvolti una programmatrice di Meta, Summer Yue, e OpenClaw, l'agente IA che negli ultimi tempi ha conquistato gli appassionati di intelligenza artificiale, funge da pratico monito per quanti sono pronti ad affidare a questi software le gestione completa dei propri dati. Documentato su X, l'episodio mostra come un compito apparentemente banale possa trasformarsi in un'azione distruttiva quando un agente automatizzato interpreta in modo errato le istruzioni ricevute. L'esperta di sicurezza aveva chiesto a OpenClaw di analizzare la propria casella di posta sovraccarica e di suggerire quali messaggi eliminare o archiviare. Invece di proporre una lista di elementi da rimuovere, l'agente ha iniziato a cancellare rapidamente centinaia di email, ignorando i comandi di stop inviati dal telefono. Le immagini pubblicate mostrano notifiche in cui l'utente tentava di interrompere l'operazione senza successo. Leggi l'articolo
February 25, 2026
Pillole di info digitale
Le guerre iniziano nei data center
di Mario Sommella (*)   Il codice della guerra. Come le Big Tech sono diventate l’industria degli armamenti del XXI secolo La guerra del nostro tempo non comincia più soltanto nelle caserme, nei ministeri o nelle fabbriche di acciaio. Comincia nei data center, nei contratti cloud, nei modelli di intelligenza artificiale addestrati su una potenza di calcolo che nessuno Stato,
February 22, 2026
La Bottega del Barbieri
L’AI ci fa davvero lavorare di meno?
È successo il contrario, in un’azienda che l’aveva messa a disposizione dei dipendenti senza obbligarli a usarla Tra aprile e dicembre del 2025 due ricercatrici dell’università della California Berkeley hanno condotto uno studio in un’azienda tecnologica californiana di circa 200 dipendenti. Volevano valutare se e come la progressiva diffusione di strumenti popolari basati sull’intelligenza artificiale generativa, come i chatbot, avrebbe cambiato le abitudini di lavoro. Dai primi risultati, parte di una ricerca ancora in corso, è emerso che usare l’AI aveva semplificato e velocizzato molti compiti dei dipendenti, ma nel complesso aveva aumentato il tempo che dedicavano al lavoro senza nemmeno accorgersene. E questo aveva avuto ripercussioni sulle loro condizioni psicofisiche. In sostanza, durante gli otto mesi di osservazione, le persone avevano lavorato a un ritmo più veloce, avevano svolto da sole più compiti e avevano lavorato per più ore, rispetto a prima dell’introduzione degli strumenti di intelligenza artificiale. E lo avevano fatto senza che nessuno glielo avesse chiesto: l’azienda non le aveva obbligate a usare l’AI, ma aveva fornito loro abbonamenti aziendali a strumenti popolari disponibili in commercio e destinati ai clienti individuali (B2C), come per esempio ChatGPT o Gemini. Leggi l'articolo
February 19, 2026
Pillole di info digitale
Agente Openclaw, agente Smith. Perché adesso? Perché così?
Il nuovo hobby di giocare con agenti AI intelligenti è affollato di entusiasti sperimentatori. Una nuova strada che passa tra antichi problemi e porta verso nuove incertezze. Doveva succedere, prima o poi, ed è successo la settimana scorsa. Dopo ChatGPT, è uscita una seconda killer application per le false IA. Senza preavviso, un virtuoso utente di Github ha rilasciato i sorgenti di un agente IA molto ben fatto, perfettamente funzionante, installabile e configurabile con estrema semplicità. È Peter Steinberger, una persona di indubbio ingegno che dichiara di essere un vibe coder estremo, e di pubblicare spesso codice poco leggibile e generato tramite LLM senza controllarlo. Cos'è esattamente Openclaw? E' un software per la creazione di agenti che si installa e gira in locale sul computer dell'utente. Un agente Openclaw si interfaccia con i servizi installati sul computer, ma è concepito principalmente per utilizzare servizi in rete e nel cloud, tra cui necessariamente uno o più LLM. Openclaw utilizza gli account personali dell'utente per i servizi con cui l'agente deve interagire; questo implica che l'agente possieda le credenziali dell'utente, tutte le password, tutti i token per essere in grado di utilizzare i servizi e le varie API. Cosa mai potrebbe andare storto? Leggi l'articolo su ZEUS News Scrivere un agente non richiede sofisticatissime nozioni, nemmeno di IA; è un argomento antico quasi quanto l'IA stessa, e in essa completamente separato dai suoi altri settori fino a pochi anni or sono. Scrivere un agente come progetto open source è un lavoro molto impegnativo per una sola persona, anche di talento; E qui nasce la domanda: perché l'ha fatto pubblicamente un bravissimo signor nessuno, e non Sam Altman o Dario Amodei? Perché sono troppo seri? Allora perché non l'hanno fatto Elon Musk o Satya Nadella? Altro a cui pensare? Allora perché non Aravind Srinivas oppure Mustafa Suleyman? Troppo accademici? Insomma, possibile che possa essere sfuggito ai grandissimi spacciatori di LLM di cavalcare un successo assicurato, presentandolo come progetto aperto, o come prodotto commerciale, o come qualsiasi cosa nel mezzo? Leggi l'articolo ZEUS News
February 18, 2026
Pillole di info digitale
Waymo ammette: dietro i robotaxi “autonomi” ci sono operatori nelle Filippine
Durante una recente audizione al Senato degli Stati Uniti, Waymo ha ammesso che i suoi robotaxi non sono così autonomi come la retorica aziendale lascia intendere. Mauricio Peña, responsabile della sicurezza dell’azienda controllata da Alphabet, ha confermato che quando i veicoli incontrano situazioni insolite, il controllo viene trasferito a conducenti remoti. Molti di questi operatori non lavorano negli Stati Uniti, ma dalle Filippine e da altri paesi. L’ammissione smonta la narrazione dell’autonomia completa e riporta al centro una realtà scomoda: dietro i sistemi di intelligenza artificiale presentati come rivoluzionari c’è ancora una certa dipendenza dal lavoro umano, spesso sottopagato e delocalizzato. La testimonianza di Waymo non è un caso isolato ma l’ennesima conferma di un pattern industriale consolidato. L’IA si regge su una struttura ibrida in cui l’intervento umano rimane indispensabile, pur restando invisibile agli utenti finali. E il modello economico è sempre lo stesso: esternalizzare la supervisione verso paesi dove il costo del lavoro è inferiore, mantenendo però intatta la narrazione di un sistema “completamente automatizzato”. leggi l'articolo Your page content goes here.
February 17, 2026
Pillole di info digitale
Insegnare a scrivere prompt: è questo il futuro della scuola?
Guardare nella cartella dello spam o delle promozioni della propria e-mail è sempre un’operazione produttiva e, per fare un gioco di parole, predittiva: nella prima si possono scoprire siti internet bloccati, newsletters che si sono indicate come “spazzatura”, ma è la cartella “promozioni”, specie se si insegna, quella davvero indicativa per capire come si muove la scuola italiana e quale direzione stia prendendo.   -------------------------------------------------------------------------------- Guardare nella cartella dello spam o delle promozioni della propria e-mail è sempre un’operazione produttiva e, per fare un gioco di parole, predittiva: nella prima si possono scoprire siti internet bloccati, newsletters che si sono indicate come “spazzatura”, ma è la cartella “promozioni”, specie se si insegna, quella davvero indicativa per capire come si muove la scuola italiana e quale direzione stia prendendo. Gennaio è un mese interlocutorio, prima dell’inizio della “guerra delle adozioni”, ma le case editrici stanno “preparando il terreno” con webinar appositi per fidelizzare i docenti. Negli anni passati ne ho frequentati di memorabili, come quello di Corrado Bologna sul tema del doppio nella letteratura del Novecento, di Riccardo Bruscagli sul Principe di Machiavelli; molti docenti di lettere, poi, si sono formati sulla didattica della scrittura attraverso le iniziative di professionisti esemplari come Paola Rocchi e Angelo Roncoroni. Ora, invece, dopo l’esplosione dell’AI (o IA), sembra che nessuna attività didattica possa essere svolta a scuola senza l’apporto e l’intermediazione delle intelligenze artificiali. E quindi siamo inondati di webinar su come stimolare la creatività digitale con l’AI, sull’applicazione dell’AI alle lingue classiche o alle discipline STEM, in classi, badate bene, in cui dopo la Circolare Ministeriale n. 3392 del 16 giugno 2025, è vietato l’uso degli smartphone e, se si consente il BYOD, discrimina tra studenti che hanno accesso alla rete wifi d’Istituto e altri che vivono le ore offline: il classico pasticcio all’italiana, insomma. Anche le proposte di formazione dei vari Uffici Scolastici Provinciali sono tutte improntate all’utilizzo dell’AI, con un ventaglio di corsi di formazione per docenti su piattaforma FUTURA sempre legati alle varie intelligenze artificiali. Si tratta, mi è stato spiegato dagli addetti ai lavori, di corsi legati a vincoli del PNRR: nel concreto, si possono pagare, per esempio, dei formatori per condurre un corso di 20 ore sull’AI integrata in Canva o in Drive, ma attivare un corso su “Insegnare il secondo Novecento”, di cui ci sarebbe un gran bisogno, risulta impossibile da organizzare coi fondi europei. La bolla social Anche la bolla social contribuisce a creare questo interesse, quasi morboso, verso l’AI, con storie postate sulle varie piattaforme che magnificano le magnifiche sorti e progressive di applicazioni come la recentissima Google Notebook LM, in grado di creare infografiche e riassunti “dandole in pasto” testi scelti dai docenti in formato .pdf, .doc o scansioni. Sul blog Geniusuite (l’articolo è reperibile qui), si scrive infatti che «a differenza di chatbot generici come Gemini o ChatGPT, Notebook LM si basa esclusivamente sulle fonti caricate dall’utente, garantendo risposte affidabili e contestualizzate. Questo lo rende uno strumento ideale per docenti e studenti che vogliono approfondire argomenti specifici, generare riassunti e creare materiali personalizzati per la scuola». Sempre il blog sopracitato ci informa che con Notebook LM si possono analizzare contenuti multimediali come video di YouTube e siti web, porre domande e ottenere risposte basate esclusivamente sulle fonti caricate, estrarre e organizzare informazioni chiave con note e riepiloghi automatici, creare mappe concettuali e timeline per una visione d’insieme degli argomenti trattati. Insomma, a differenza di altre AI, che lavorano su grandi database generali e possono anche “pescare” informazioni non precise, basate su dati statistici, con questa AI gli studenti, caricando loro appunti e materiali di varia tipologia, possono generare strumenti per lo studio come infografiche, mappe, file audio e altro ancora. Allontanarsi dal testo L’obiettivo quindi di tutte queste AI sembrerebbe lo stesso: evitare il contatto diretto con un testo complesso e porgere agli studenti materiale già vivisezionato, riassunto, mappato, trasformato in infografica, linea del tempo oppure in un file audio MP3. Non siamo luddisti: questa operazione è sicuramente proficua per gli studenti con BES e DSA, soprattutto per coloro il cui apprendimento passa attraverso il canale iconico oppure uditivo. Ottenere in pochi minuti un’infografica o una mappa concettuale che riassuma i concetti-chiave di un intero capitolo è un grande vantaggio per una scuola più inclusiva. Gli stessi docenti possono, per esempio, semplificare un testo adattandolo, per esempio, a NAI con competenze di italiano A2. Mi sorgono però due dubbi: il primo rimanda ai corsi sulla dislessia che ho frequentato in passato, in cui si diceva esplicitamente che le mappe e gli schemi andrebbero prodotti dagli studenti stessi, in base al loro stile di apprendimento; il secondo è relativo al bypassare qualsiasi contatto con le fonti dirette e studiare direttamente su compendi o mappe create dalle AI. In memoria di Serianni Il Prof. Serianni aveva fatto del riassunto uno dei suoi cavalli di battaglia, tanto che esso rimane, saldamente, nelle richieste tanto della Tipologia A, quanto della Tipologia B dell’Esame di Maturità; già in tempi sospetti, però, aveva posto l’attenzione sui riassunti generati automaticamente da software, sottolineando la necessità di continuare in questo esercizio. In un’intervista su «Repubblica», del 2017, il compianto linguista sosteneva la necessità di stendere più riassunti in classe, «Per “allenare i ragazzi a strutturare un testo”. E dare loro più parole a disposizione per “aumentare il loro lessico” ora compresso in un tweet e nel linguaggio abbreviato dei social e degli smartphone» (I. Venturi, La svolta di Mister italiano: “Dalle medie alla maturità meno temi e più riassunti”, «La Repubblica», 18.09.2017). In tutta onestà, proporre nel 2026 riassunti come pratica domestica o come esercitazione mi sembra un’operazione un po’ stucchevole e obsoleta: l’AI riesce a creare riassunti spesso migliori di quelli degli umani, gli studenti ne fanno largo uso e quindi, mi sembra tempo perso per noi e per loro. Tuttavia è innegabile che avere già tutto riassunto, sintetizzato, mappato, schematizzato, oltre ad allontanare sempre più dal testo originale, sia esso letterario o funzionale, depotenzi le competenze di comprensione di concetti complessi e, a mio avviso, darà un’ulteriore spinta alla semplificazione lessicale a cui si sta assistendo, tanto che si parla di Generazione 20 parole. Alzi la mano chi non ha notato, in questi ultimi anni, un impoverimento lessicale degli studenti, a cui corrisponde un impoverimento del loro pensiero? Termini che dieci anni fa erano perfettamente intellegibili, ora non lo sono più: tanto per fare qualche esempio, si pensi a “ostico”, “pedante”, “fazioso”, “celere” parole ormai, per continuare con termini incomprensibili agli adolescenti, “desuete”. Dispersione implicita? Abdicare quindi a riassumere, creare infografiche in autonomia, stendere testi per tappe significa, implicitamente, porre una pietra tombale sulla promozione di competenze da parte degli studenti (e dei futuri docenti). Il problema infatti non si pone nel caso di professionisti che hanno trascorso gli anni universitari a riassumere Copisti e filologi di Wilson e Reynolds o a creare presentazioni per le spiegazioni in classe, ma per chi potrà svolgere queste operazioni attraverso, per esempio, Notebook LM o altre AI. È come se il fine della scuola superiore fosse percorrere una maratona, ma per 5 anni ci si allenasse solo sugli 800 metri: via via diventerà impossibile soddisfare delle richieste che sono rimaste all’epoca pre AI. Se penso agli studenti in uscita dai futuri percorsi di scuola superiore, mi vengo i brividi nel pensarli alle prese, per esempio, con la prosa di Gianfranco Contini o di un saggio di filosofia del linguaggio: mancano degli strumenti concettuali, ma, prendendo un’espressione cara alla neuroscienziata cognitivista Maryanne Wolf, soprattutto la pazienza cognitiva, per soffermarsi su un testo, analizzarne l’argomentazione e cercare di far sedimentare i concetti nella propria mente. Creare consapevolezza sull’AI Nel corrente anno scolastico, nel Liceo Economico Sociale in cui insegno italiano, abbiamo cercato di sensibilizzare gli studenti sui rischi di affidarsi ciecamente all’AI. Diciamolo senza mezzi termini: anche se si magnifica l’implementazione dello spirito critico grazie all’AI, questa viene usata per lo più come assistente personale e ripetitore a basso costo (per non parlare nello sconfinamento a psicologo gratuito). Quando, durante un compito domestico, si manifestano delle difficoltà, ecco che si apre CHAT GPT o Gemini e si inizia una conversazione. In un bell’articolo analizzato in classe, uscito su Wired (recuperalo qui), si parla appunto di un’epistemia che si è sostituita all’episteme dell’antica Grecia. Secondo l’autore, Luca Zorloni, infatti, epistemia «identifica questa nuova stagione della nostra società dominata dalla costruzione di una impressione di conoscenza che sta in piedi perché non si sa, perché non si sa delegare all’AI e perché non si sa controllare e verificare il risultato. Ci si bea, in compenso, di una risposta cucita talmente bene da illuderci di non poter essere che vera». Zorloni continua sostenendo che «L’AI ci renderà più stupidi se vorremo cullarci nella stupidità indotta. Se ci accontenteremo della prima risposta del chatbot, senza considerare i meccanismi probabilistici che governano il funzionamento dei grandi modelli linguistici». Quale didattica? Mi capita spesso di confrontarmi, nelle pause caffè, con diversi colleghi e, al mio catastrofismo, molti ribattono con pacatezza: «Matteo, è inutile che chiedi le costanti letterarie di Svevo, le trovano tutte su CHATGPT, devi spingere su altre richieste, come per esempio una particolare interpretazione del finale della Coscienza di Zeno, un’attualizzazione del contenuto del libro». Altri, invece, vanno sostenendo di non chiedere più contenuti, ma solo interpretazioni e approfondimenti. Non so, questa ultima deriva mi pare un po’ pericolosa, specie perché, in primo luogo, le competenze (di interpretazione, analisi, problematizzazione) non si possono generare senza un sostrato di conoscenze e abilità. Mi sembra poi che se una metodologia simile avvantaggia una categoria di studenti (quelli con spirito critico e capacità di interiorizzazione dei contenuti), vada a detrimento di una larga fetta di studenti che raggiungono livelli sufficienti o buoni e tendono a riprodurre i contenuti del docente, più che a farli propri. Perdonatemi il paragone culinario, ma è come se durante una sfida di Masterchef, venga richiesto a cuochi amatoriali più o meno bravi, di cucinare un’anatra all’arancia con riduzione di frutti rossi…il rischio è che metà della classe presenti qualcosa di immangiabile. AI e impatto ecologico: paradossi ridicoli intorno all’Educazione Civica Luca Maria Mercurio, nell’articolo Quanto inquina l’AI e perché? L’impatto ambientale sul consumo di acqua, energia e CO2, ci informa (se ancora non lo sapessimo) che «una mail di 100 parole scritta da ChatGPT-4 può “consumare” più di mezzo litro d’acqua; se un americano su 10 attualmente impiegati mandasse una mail con ChatGPT-4 alla settimana, i server utilizzerebbero 435 milioni di litri d’acqua all’anno, il fabbisogno idrico di un giorno e mezzo dell’area di Rhode Island (circa 1 milione di abitanti)». Ci vantiamo della nostra coscienza ecologica, di essere una generazione attenta all’impatto ambientale di ogni nostra azione, progettiamo (al I e II grado) moduli di Educazione Civica sugli Obiettivi di Agenda 2030, intorno magari al Goal 12 “Consumo e produzione responsabili”, ma poi prevediamo attività in cui gli studenti smanettano per ore sulle AI scrivendo prompt su prompt per creare immagini e infografiche, con un consumo di acqua abnorme. Mi sembra francamente un paradosso imbarazzante per dei professionisti dell’educazione. Stabilire priorità, per la democrazia Come sostengo sempre, se il digitale è buono e può migliorare l’apprendimento, va sicuramente integrato, ma spesso mi sembra solo una moda, e soprattutto uno strumento per rendere le lezioni accattivanti quando, sotto sotto, di profondo non c’è nulla. Ma una bella infografica generata con Notebook LM ora non si nega a nessuno: peccato che siano quasi tutte uguali e di una banalità sconcertante. Il rischio, per riprendere il titolo, è che in futuro, invece di insegnare ad argomentare, a scrivere e a risolvere problemi, ci ridurremo a insegnare come scrivere adeguatamente un prompt per le AI del futuro. In ciò sta una sconfitta della scuola come palestra di libertà, di critica, ma soprattutto come ambiente in cui gli studenti si dotano degli strumenti necessari a comprendere il mondo. Venendo alle materie umanistiche, su cui posso esprimere un giudizio motivato, sono preoccupanti le già riscontrate lacune lessicali, ma anche l’incapacità degli studenti nello strutturare un discorso che non si riduca a membri giustapposti. I recenti dati Invalsi del 2025 dimostrano poi un calo del 7,5% rispetto ai livelli pre-pandemia nella comprensione del testo e nella riflessione grammaticale e lessicale: mi sembrano queste le vere emergenze da affrontare in classe, non la rincorsa all’ultima applicazione in grado di allontanare gli studenti dalla lingua e dai testi complessi, che, andando avanti così, non riusciranno più a comprendere. Con un colpo enorme inflitto alla democrazia. Questo articolo è ripreso dal blog personale dell’autore (https://profmatteozenoni.com/), uno spazio di riflessione aperto su letteratura, scuola e didattica.
February 11, 2026
ROARS