Tag - intelligenza artificiale

Rubik contro Terminator
Perché l'incontro tra Robotica e LLM ha attivato un'esplosione cambriana nascosta di nuove armi autonome? E cosa c'entra in tutto questo il cubo di Rubik? L'anno scorso Cassandra aveva letto un articolo su Wired che dava conto di un nuovo record del mondo (del Guinness dei Primati). Si dava conto che alla Purdue University a giugno del 2025 un robot specializzato aveva battuto il record di velocità per la soluzione di un cubo di Rubik, stracciando il precedente record "robotico", detenuto dal 2024 da Mitsubishi Electric, che era di 305 millisecondi, tre decimi di secondo. Il nuovo record è di 103 millisecondi, un decimo di secondo. Ora per comprendere l'impatto delle cose nuove con la realtà, bisogna non pensare solo ai numeri o ai record, ma alle loro relazioni con le cose più comuni e normali. Un decimo di secondo significa che è impossibile riprendere l'evento con una normale cinepresa, perché si vedrebbero solo il fotogramma iniziale e quello finale, certamente molto, molto mossi. Anche se si tratta di un gioco, parliamo di capacità così sovrumane da dare da pensare. Meccanismi automatici che agiscono sul mondo fisico, facendo le stesse cose che potremmo fare noi, solo in modo, appunto, sovrumano. Parentesi: meno male che li controlliamo noi... forse. [...] Ben prima dell'avvento degli LLM Cassandra aveva profetizzato che le LAWS erano già tra noi, se non altro nei laboratori di ricerca militare, perché per ottenere un'arma autonoma bastava semplicemente cambiare il firmware a un benevolo automa lavoratore o a un sistema d'arma di tipo passivo. Ma oggi possiamo facilmente fare di più e meglio. Basta aumentare, se necessario, le capacità informatiche di un sistema d'arma, e dotarlo di un nuovo software che utilizzi gli LLM per mimare le capacità umane di linguaggio, sia in input che in output; mimare cioè quelle interazioni umane, realizzate in linguaggio naturale, che normalmente fanno parte del loop di autorizzazione di qualsiasi sistema d'arma. Ecco che l'uomo può essere facilmente rimosso dal loop di comando, e il sistema d'arma diventa completamente autonomo. A questo punto Cassandra prevede due obiezioni; e le tratterà subito. Leggi l'articolo
Il figlio che non muore
Lutto digitale, consenso e la menzogna che paghiamo a rate C’è un’anziana signora di ottant’anni, cardiopatica, che vive in una provincia dello Shandong, in Cina. Ogni giorno squilla il videotelefono. Suo figlio la saluta nel dialetto di casa, le dice che è tutto a posto, che è ancora troppo occupato per tornare, ma che le vuole bene. Lei aspetta. Lui promette. Suo figlio è morto in un incidente stradale all’inizio del 2025. Quello che parla è un clone costruito dall’intelligenza artificiale, commissionato dal nipote a un’azienda che si chiama Superbrain. Centinaia di foto, video, registrazioni audio del padre defunto, elaborate per ricostruirne la voce, il volto, il modo di parlare. Il fondatore dell’azienda, Zanguei, ha spiegato il modello di business con una franchezza che lascia senza parole: deceiving people’s emotion, ingannare le emozioni delle persone. Aggiunge che, in fondo, è quello che fanno dalla mattina alla sera: consolare chi resta. La storia l’ha raccontata il South China Morning Post nell’aprile del 2026, ripresa e analizzata da Matteo Flora nel suo Ciao Internet. Vale la pena fermarsi, perché questa non è una distopia futura. È già adesso. UN’INDUSTRIA, NON UN CASO ISOLATO In Cina esiste da anni una piccola — ma non troppo — industria del lutto digitale, documentata già nel 2024 dall’MIT Technology Review. Aziende come Silicon Intelligence, Superbrain e FushU ricreano voci, volti, conversazioni dei defunti. I prezzi vanno dai cinquanta dollari per un’app di base ai millequattrocento per il pacchetto premium, completo di tablet dedicato. Silicon Intelligence dichiara circa mille clienti attivi. Un’altra piattaforma, su Douyin — il TikTok cinese — ha raggiunto duemila abbonati a sette dollari al mese in pochi mesi, così in fretta che la piattaforma stessa ha dovuto emettere avvisi contro le ricreazioni non autorizzate di persone morte. Non è una stranezza orientale. Nel 2020 Joshua Barbeau, uno scrittore canadese, parlò per dieci ore consecutive con un clone GPT-3 della sua fidanzata morta, finché la storia sul San Francisco Chronicle costrinse OpenAI a restringere l’uso del modello. Nello stesso anno Kanye West regalò a Kim Kardashian un ologramma del padre Robert, morto nel 2003, che pronunciava parole costruite ad arte. Negli Stati Uniti operano già HereAfter AI, StoryFile, Project December: versioni più edulcorate dello stesso servizio. Un paper del maggio 2024 del Centre for the Future of Intelligence di Cambridge, pubblicato su Philosophy & Technology, ha identificato cinque rischi concreti che nessuno sta ancora regolando: * il deadbot che inserisce pubblicità nella voce del defunto; * il digital stalking con notifiche spam al sopravvissuto; * il danno psicologico da interazioni quotidiane troppo intense; * l’impossibilità per i sopravvissuti di spegnere il clone; * la manipolazione di bambini attraverso simulazioni dei genitori morti. Cinque rischi concreti. Zero risposte normative strutturate. LA GABBIA PIENA DI CUSCINI Prima ancora delle questioni giuridiche, c’è una questione umana che vale la pena guardare in faccia. Il lutto ha una funzione biologica e sociale. Gli esseri umani hanno passato centomila anni a ritualizzarlo: le veglie funebri, i riti di sepoltura, le lettere di condoglianze, i racconti sul nonno davanti al camino. Non sono convenzioni sentimentali: sono il modo in cui la specie ha imparato a elaborare la perdita, a integrare l’assenza, a continuare a vivere sapendo che qualcuno non c’è più. Ogni chiamata del clone alla signora di Shandong conferma una possibilità alternativa: il figlio è lontano, non è morto. Il processo di elaborazione viene sospeso indefinitamente. Flora richiama in questo contesto la learned helplessness, l’impotenza appresa teorizzata da Seligman nel 1975: quando il controllo sulla realtà viene sistematicamente sottratto, il soggetto smette di cercare risposte autonome. La tenerezza della famiglia che vuole proteggere la nonna dal dolore si trasforma, senza volerlo, in una gabbia piena di cuscini. C’è poi un secondo livello, più sottile. Un clone costruito per consolare non dirà mai nulla che disturbi. Non farà domande scomode. Non porterà conflitto, né crescita. La macchina premia la versione di chi resta che non deve fare i conti con la perdita, perché è quella versione che continua a pagare l’abbonamento. Il clone del figlio non è un sostituto imperfetto: è un sostituto ottimizzato per non far guarire. CHI HA CHIESTO IL PERMESSO? Arriviamo al punto che più dovrebbe preoccupare chi si occupa di diritto, di etica, di politica. In Italia, la materia è sfiorata dall’articolo 2-terdecies del Codice della Privacy, che riconosce ai familiari alcuni diritti sul trattamento dei dati del defunto. Ma non esiste ancora una cornice specifica per l’addestramento di modelli generativi sulla voce, sul volto, sulla gestualità di una persona morta. Il GDPR non si occupa dei morti. L’AI Act europeo non affronta il tema del consenso post mortem in modo diretto. Il risultato è una lacuna enorme. Chi ha autorizzato la clonazione? Chi detiene i server su cui gira il clone? Cosa succede quando scade l’abbonamento? Chi decide quando spegnere il sistema? Nessun ordinamento giuridico europeo ha una risposta strutturata. LA VERITÀ CONDIVISA COME BENE COMUNE «La verità condivisa è la base della dignità delle persone, anche quando fa male.» Non si tratta di demonizzare ogni forma di lutto digitale. Conservare la voce di una persona amata può essere legittimo. La questione è un’altra: cosa succede quando il clone diventa più presente del morto nella memoria di chi resta? Zanguei dice che il suo lavoro è consolare chi resta. Tecnica­mente è vero. Ma queste tecnologie non sono neutrali: sono progettate per trattenere, non per lasciare andare. L’ultima volta che la signora di Shandong ha sentito davvero la voce di suo figlio, lui era vivo. La prossima volta che crederà di sentirlo, quella voce girerà su un server gestito da un estraneo. Qualcuno parla al posto di suo figlio, a sua madre. E nessuno gli ha chiesto il permesso. South China Morning Post, aprile 2026 https://www.scmp.com/news/people-culture/trending-china/article/3349344/china-family-creates-ai-clone-comfort-elderly-mum-after-only-son-dies-car-accident Matteo Flora, Ciao Internet, ep. 1549, aprile 2026 https://www.youtube.com/watch?v=bUnfFGuo9O4 Centre for the Future of Intelligence, University of Cambridge, “Deadbots and the Right to Rest in Peace”, Philosophy & Technology, maggio 2024 https://link.springer.com/article/10.1007/s13347-024-00761-4 Francesco Russo
April 22, 2026
Pressenza
Che cosa fa l’intelligenza artificiale in guerra
“La guerra è il dominio dell’incertezza: tre quarti delle cose su cui si basa l’azione bellica giacciono nella nebbia di un’incertezza più o meno grande”. A due secoli di distanza dal trattato di strategia militare Della guerra di Von Clausewitz, potremmo dire che, oggi, uno dei principali obiettivi dell’impiego dei sistemi d’intelligenza artificiale in ambito bellico è proprio quello di dissipare quanto più possibile la celeberrima “nebbia della guerra” teorizzata nell’Ottocento dal generale prussiano. Navigare e pattugliare territori estesi attraverso droni a guida autonoma, riconoscere e classificare rapidamente gli obiettivi che compaiono in video e immagini, ottenere un’analisi predittiva delle minacce, stimare i potenziali danni collaterali, rilevare anomalie. Tutti gli impieghi militari dell’intelligenza artificiale hanno principalmente due scopi: ridurre l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare la velocità decisionale, valutando le opzioni operative in tempi ridotti, stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo reale agli sviluppi del conflitto. Il paradosso è che questi algoritmi predittivi – che aggregano migliaia di dati di intelligence raccolti da centinaia di fonti diverse – in molti casi rischiano di infittire, invece che diradare, la nebbia della guerra, perché producono una tale quantità di informazioni da rendere la loro interpretazione e gestione particolarmente complessa. Ed è qui che entrano in gioco i modelli linguistici di OpenAI, Anthropic, xAI e, in Europa, Mistral, il cui compito è aiutare a dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai sistemi predittivi. Leggi l'articolo
La propaganda LEGO dell’Iran rivela come funziona la guerra cognitiva
La Narrazione Un piccolo studio in Iran con meno di dieci persone ha prodotto quotidianamente video di propaganda AI in stile LEGO. I clip dicono ad alta voce ciò che i media americani si rifiutano di dire. Come il fatto che i bombardamenti sono crimini di guerra. Che i funzionari […] L'articolo La propaganda LEGO dell’Iran rivela come funziona la guerra cognitiva su Contropiano.
April 22, 2026
Contropiano
IL POTERE DI MYTHOS E I MANIFESTI POLITICI DI OPEN.AI E PALANTIR@0
Estratti dalla puntata del 20 aprile 2024 di Bello Come Una Prigione Che Brucia EMIL MICHEAL: DA UBER AL PENTAGONO La descrizione di alcuni programmi militari americani basati su AI (MATHBAC, Ghost Murmur e Victor) ci porta a osservare in modo più esteso i processi di delega cognitiva e di relazioni industriali all’interno di quell’apparato. Se Pete Hegseth sembra un personaggio caricaturale all’interno del romanzetto distopico in cui ci sembra di essere precipitate, all’interno del Dipartimento della Guerra statunitense un figura da tenere in considerazione è Emil Micheal: ex top manager di Uber e attualmente sottosegretario alla ricerca e all’ingegneria del Pentagono, è uno principali dei protagonisti nel processo di integrazione dell’intelligenza artificiale all’interno degli apparati decisionali e operativi della macchina bellica statunitense. IL POTERE DI MYTHOS E I MANIFESTI POLITICI DI OPEN.AI E PALANTIR Dopo una parentesi di significativi attriti con il Pentagono, Anthropic introduce una tecnologia che ridefinisce le sue relazioni diplomatiche. Il suo prodotto Claude Myhtos Preview viene descritto come la più potente minaccia alla cybersicurezza mai prodotta; i primi a essere contattati sono banche e grandi attori economici, parallelamente Anthropic organizza un cartello di aziende informatiche per candidarsi alla gestione della cybersicurezza globale (Project Glasswing), quindi si riaprono trattative con il Dipartimento della Guerra. Partiamo dalle oscillazioni (in parte cosmetiche) nelle relazioni tra Anthropic e governo Trump, per arrivare a osservare l’esplicita affermazione politica dei tecno-miliardari: a pochi giorni di distanza, Open AI e Palantir pubblicano i loro manifesti politici e si candidano a governare conflitti sociali e geopolitici:
April 21, 2026
Radio Blackout - Info
IL POTERE DI MYTHOS E I MANIFESTI POLITICI DI OPEN.AI E PALANTIR@1
Estratti dalla puntata del 20 aprile 2024 di Bello Come Una Prigione Che Brucia EMIL MICHEAL: DA UBER AL PENTAGONO La descrizione di alcuni programmi militari americani basati su AI (MATHBAC, Ghost Murmur e Victor) ci porta a osservare in modo più esteso i processi di delega cognitiva e di relazioni industriali all’interno di quell’apparato. Se Pete Hegseth sembra un personaggio caricaturale all’interno del romanzetto distopico in cui ci sembra di essere precipitate, all’interno del Dipartimento della Guerra statunitense un figura da tenere in considerazione è Emil Micheal: ex top manager di Uber e attualmente sottosegretario alla ricerca e all’ingegneria del Pentagono, è uno principali dei protagonisti nel processo di integrazione dell’intelligenza artificiale all’interno degli apparati decisionali e operativi della macchina bellica statunitense. IL POTERE DI MYTHOS E I MANIFESTI POLITICI DI OPEN.AI E PALANTIR Dopo una parentesi di significativi attriti con il Pentagono, Anthropic introduce una tecnologia che ridefinisce le sue relazioni diplomatiche. Il suo prodotto Claude Myhtos Preview viene descritto come la più potente minaccia alla cybersicurezza mai prodotta; i primi a essere contattati sono banche e grandi attori economici, parallelamente Anthropic organizza un cartello di aziende informatiche per candidarsi alla gestione della cybersicurezza globale (Project Glasswing), quindi si riaprono trattative con il Dipartimento della Guerra. Partiamo dalle oscillazioni (in parte cosmetiche) nelle relazioni tra Anthropic e governo Trump, per arrivare a osservare l’esplicita affermazione politica dei tecno-miliardari: a pochi giorni di distanza, Open AI e Palantir pubblicano i loro manifesti politici e si candidano a governare conflitti sociali e geopolitici:
April 21, 2026
Radio Blackout - Info
Palantir e il manifesto della guerra infinita: chi controlla chi?
Intelligenza artificiale, potere tecnologico e il ruolo della Silicon Valley nella nuova strategia globale C’è un passaggio nelle 22 tesi di The Technological Republic — il libro-manifesto scritto da Alexander Karp, CEO di Palantir, e dal suo vice Nicholas Zamiska — che merita di essere riletto lentamente, senza l’alone di serietà intellettuale con cui i suoi autori lo hanno confezionato: «La domanda non è se le armi basate sull’intelligenza artificiale verranno costruite; è chi le costruirà e per quale scopo.» È una frase costruita per sembrare realismo. È invece una petizione di principio: assume come inevitabile ciò che dovrebbe essere discusso, e trasforma la rassegnazione in virtù civica. È anche, non per caso, la frase che meglio descrive il modello di business di Palantir. Il libro è diventato un bestseller istantaneo del New York Times. In aprile 2026 Palantir ne ha diffuso la sintesi in 22 punti su X, scatenando un dibattito globale. Alcuni critici lo hanno definito “technofascismo”. Altri lo hanno letto come un sincero grido d’allarme sulla debolezza dell’Occidente. Vale la pena andare oltre entrambe le etichette, perché il testo è più rivelatore di quanto non appaia: non nonostante le sue contraddizioni, ma attraverso di esse. UN’AZIENDA CHE VENDE SICUREZZA E CHIAMA IL PRODOTTO «DOVERE MORALE» Palantir Technologies è stata fondata nel 2003 con finanziamenti iniziali della CIA, attraverso il suo braccio d’investimento In-Q-Tel. Oggi ha contratti miliardari con il Dipartimento della Difesa americano, con l’esercito degli Stati Uniti, con l’ICE — l’agenzia che gestisce le deportazioni degli immigrati —, con la polizia di New York e con le forze armate israeliane. Non è un dettaglio biografico secondario. È il contesto entro il quale le 22 tesi vanno lette. La prima di esse stabilisce che la Silicon Valley ha un «debito morale» verso il Paese che ne ha reso possibile l’ascesa, e dunque ha un obbligo affermativo di partecipare alla difesa della nazione. Tradotto fuori dal registro etico in cui è formulato: le aziende tecnologiche dovrebbero collaborare con il complesso militare-industriale. Palantir, che questa collaborazione la pratica da vent’anni e ci ha costruito sopra una capitalizzazione di mercato superiore ai cento miliardi di dollari, si presenta come il modello virtuoso da imitare. Il debito morale altrui è, convenientemente, il mercato di Palantir. Questo non rende automaticamente false le tesi del libro. Ma rende necessario applicare alla loro lettura lo stesso standard epistemico che si applicherebbe a qualsiasi altro documento prodotto da un soggetto con un interesse diretto e dichiarato nell’esito del dibattito che promuove. IL REALISMO COME RESA L’argomento centrale del manifesto è strutturato come un sillogismo: i sistemi d’arma basati sull’IA verranno costruiti comunque; gli avversari degli Stati Uniti non si fermeranno a fare dibattiti etici; dunque l’Occidente deve costruirli per primo, e chi si oppone è ingenuo, irresponsabile o complice. È un argomento che ha una lunga storia. Venne usato per giustificare la bomba atomica, poi la corsa agli armamenti nucleari, poi i droni, poi i sistemi di sorveglianza di massa. L’idea che esista sempre una tecnologia militare «inevitabile» che è meglio sviluppare prima degli altri è la struttura logica permanente dell’industria della difesa. Non è realismo: è la narrazione con cui ogni generazione di produttori di armi ha convinto i governi a firmare i contratti. Karp e Zamiska scrivono che «l’era atomica sta finendo» e che una nuova era della deterrenza costruita sull’IA sta per cominciare. È una previsione che può essere fondata. Ma contiene un’omissione cruciale: non spiega perché la deterrenza basata sull’IA sia necessariamente più stabile di quella nucleare, né come si prevenga la sua degenerazione in conflitto aperto. La letteratura sulla stabilità strategica e sul rischio di escalation involontaria nei sistemi autonomi è vasta e preoccupante. Nel manifesto non esiste. LA DEMOCRAZIA COME ORNAMENTO Forse il passaggio più sintomatico dell’intero documento è il numero sedici, dedicato a Elon Musk: «La cultura quasi deride l’interesse di Musk per le grandi narrazioni, come se i miliardari dovessero semplicemente restare nel loro ruolo di arricchirsi.» È una difesa dell’attivismo politico dei miliardari formulata da un miliardario, in un libro scritto da chi lavora per un altro miliardario. Al di là dell’evidente circolarità, c’è qualcosa di più significativo: l’idea che la critica alle concentrazioni di potere economico e tecnologico sia in realtà un’espressione di grettezza culturale, di incapacità di riconoscere la grandezza. Questa operazione retorica — trasformare la critica del potere in invidia verso il potere — è uno dei tratti distintivi di una certa ideologia tecnocratica contemporanea. Il problema non è che Musk costruisca razzi o che Karp costruisca sistemi di analisi predittiva. Il problema è che entrambi lo facciano acquisendo simultaneamente un’influenza determinante sulle politiche pubbliche, senza alcun mandato democratico, senza alcun meccanismo di responsabilità, e proponendo poi questa condizione come il modello auspicabile per il futuro dell’Occidente. La democrazia liberale, nelle 22 tesi, appare come un valore da difendere militarmente, ma non come un vincolo da rispettare nella gestione del potere tecnologico. I diritti fondamentali, la protezione dei dati, il controllo parlamentare sui sistemi di sorveglianza: nulla di tutto ciò compare nel testo. Non è una dimenticanza. È una scelta. I SILENZI DEL MANIFESTO Palantir fornisce sistemi di analisi dei dati alle forze armate israeliane. Non è un’informazione controversa: è documentata. Nel momento in cui il libro viene pubblicato e poi rilanciato, Gaza è sotto bombardamento, e i sistemi di targeting basati sull’intelligenza artificiale sono al centro di un dibattito internazionale serissimo sul rispetto del diritto internazionale umanitario. Nulla di tutto ciò appare nelle 22 tesi. La settima dice: «Se un marine americano chiede un fucile migliore, dobbiamo costruirlo; e lo stesso vale per il software.» È una formulazione che neutralizza la questione morale attraverso l’analogia tecnica: un sistema di analisi predittiva per il targeting è presentato come equivalente funzionale di un fucile. È precisamente il tipo di ragionamento che il diritto internazionale umanitario, e prima ancora la filosofia morale, ci chiede di rifiutare. L’undicesima tesi afferma che «la nostra società si è fatta troppo desiderosa di affrettare, e spesso gioisce della rovina dei suoi nemici.» È una tesi sull’etica della vittoria formulata da chi produce gli strumenti tecnici con cui i nemici vengono individuati, inseguiti ed eliminati. La dissonanza cognitiva è assoluta. COSA RIMANE Sarebbe sbagliato liquidare il libro come privo di spunti. Alcune tesi toccano problemi reali: la distanza tra élite tecnologica e servizio pubblico è un fenomeno che esiste; la deriva degli algoritmi di piattaforma verso la trivialità commerciale è documentata; la retorica vuota della governance multilaterale ha prodotto risultati insufficienti di fronte alle sfide geopolitiche contemporanee. Ma un testo che identifica problemi reali per proporre soluzioni che rafforzano il proprio modello di business non è un’analisi: è pubblicità con ambizioni filosofiche. The Technological Republic è, in definitiva, il documento con cui una delle aziende più potenti e meno trasparenti del capitalismo della sorveglianza chiede all’opinione pubblica occidentale di legittimare il suo ruolo nello Stato. Lo fa con il linguaggio della crisi, dell’urgenza e del debito morale. Lo fa invocando la democrazia per costruire un’architettura del potere che alla democrazia risponde il meno possibile. La domanda che Karp e Zamiska non fanno mai — e che è, invece, l’unica che conta — è questa: chi controlla chi controlla? Francesco Russo
April 21, 2026
Pressenza
[entropia massima] Estrattivismo dei dati
Puntata 23 di EM, quinta del ciclo Estrattivismo dei dati, parliamo di tre storie diverse, con un unico filo conduttore: il potere che stiamo consegnando alle macchine e alle infrastrutture che le governano. Nella prima parte partiamo da Kill Chain: l’automazione militare, le catene decisionali opache e il modo in cui la tecnologia può distribuire la responsabilità fino a farla sparire (il caso del sistema Maven e l'uccisione di 175 bambini in Iran). Nella seconda entriamo nel mondo degli AI Agents: sistemi presentati come autonomi e intelligenti, che aprono scenari inquietanti in cui l'essere umano diventa una loro interfaccia (Human API) da utilizzare esattamente come altre interfacce software, per procedere autonomamente nello svolgimento di compiti complessi. Strumenti in realtà ancora pieni di limiti pratici, fragilità operative e promesse spesso molto più grandi dei risultati reali. Nella terza guardiamo a ciò che accade fuori dai laboratori e dai boardroom: la crescente rivolta contro l’AI, che a Londra ha visto scendere in piazza migliaia di persone per protestare contro Google, Meta, OpenAI e contro un modello che concentra ricchezza, dati e potere. Una puntata su guerra, automazione, propaganda tecnologica e conflitto sociale.
April 20, 2026
Radio Onda Rossa
Puntata del 14/04/2026@0
Il primo argomento della puntata ha riguardato le mobilitazioni dei lavoratori di mondo convenienza e lo abbiamo affrontato in compagnia di Fabio dei SiCobas Torino. Nel 2023 ci fu un’ importante sciopero con picchetto davanti allo stabilimento di Settimo Torinese e in generale in tutta la penisola lavoratori installatori per questo marchio stavano lottando per arrivare al risultato di ottenere il contratto con il CCNL logistica, ma (per citare parte di un testo diffuso sui social del sindacato di base: “I sindacati Cgil, Cisl, Uil tuttavia firmarono allora un accordo di “armonizzazione” che prevedeva che i lavoratori impiegassero due anni per raggiungere la piena applicazione del contratto nazionale, con livelli corretti e retribuzioni giuste….Oggi, essendo tale “accordo” giunto a scadenza, i sindacati confederali – sempre con rappresentanza minima tra i lavoratori (all’ultima assemblea a Settimo Torinese si sono presentati letteralmente solo 3 operai) si apprestano a firmare un “nuovo” accordo che prevede la continuazione del periodo cosiddetto “di armonizzazione”, così lasciando ancora una volta che ai nuovi assunti vengano assegnati livelli e retribuzioni inadeguati e illegittimi perché non corrispondenti al contratto nazionale.” Con il nostro ospite siamo scesi nei dettagli di questo accordo e nel finale dell’ intervista siamo passati anche a parlare della manifestazione che si terrà ad Alessandria sabato 18 aprile per contestare i primi effetti delle lotte operaie nella logistica, alle quali si è risposto per la prima volta con gli strumenti giudiziari messi a disposizione del decreto sicurezza. Buon ascolto -------------------------------------------------------------------------------- -------------------------------------------------------------------------------- -------------------------------------------------------------------------------- Il secondo approfondimento lo abbiamo trattato in compagnia di Valentina del SUDD Cobas di Prato e Firenze, ci siamo fatti spiegare da lei i vari motivi che hanno portato a proclamare lo stato di agitazione dal 31 marzo al 6 aprile delle e lavoratrici e dei lavoratori degli Uffizi. Infatti questo settore soffre da tempo la piaga del meccanismo degli appalti ed è proprio dal momento che delle lavoratrici storiche sono state lasciate a casa dopo un cambio appalto che è iniziata la mobilitazione. Dopo aver passato la settimana di pasqua in presidio dentro e fuori il museo, il sindacato di base ha ottenuto prima un incontro in Regione Toscana e poi ha conquistato una presa in carico da parte del ministero. Buon ascolto -------------------------------------------------------------------------------- -------------------------------------------------------------------------------- -------------------------------------------------------------------------------- Il terzo approfondimento lo abbiamo fatto in compagnia di Federico Giusti delegato della CUB a PISA e membro della redazione del blog delegati-lavoratori-indipendenti-Pisa su due articoli: Il primo, scritto su “L’anti diplomatico” del nostro ospite, sull’intelligenza artificiale nell’organizzazione del lavoro: “I conti con l’avvento della Intelligenza artificiale (IA) nei luoghi di lavoro andrebbero fatti prima di esserne sommersi, anzi siamo già in grave ritardo. E’ di pochi giorni fa la notizia del licenziamento di alcuni lavoratori, tramite messaggio whatsapp, in un magazzino che sarà gestito, da oggi in poi, con robot e il ricorso alla IA riducendo gli organici a disposizione dell’azienda.” https://www.lantidiplomatico.it/dettnews-algoritmi_e_licenziamenti_quando_lia_sostituisce_luomo_con_un_messaggio_whatsapp/42819_65895/ Il secondo, scritto su l'”Osservatorio contro la militarizzazione delle scuole e delle università” dal blog delegati-lavoratori-indipendenti-Pisa, sul “Mese della prevenzione sugli abusi” diventa “Mese dei figli dei militari”: https://osservatorionomilscuola.com/2026/04/10/pisa-mese-prevenzione-abusi-figli-militari-proteste-osservatorio/ Buon ascolto
April 18, 2026
Radio Blackout - Info
Puntata del 14/04/2026@2
Il primo argomento della puntata ha riguardato le mobilitazioni dei lavoratori di mondo convenienza e lo abbiamo affrontato in compagnia di Fabio dei SiCobas Torino. Nel 2023 ci fu un’ importante sciopero con picchetto davanti allo stabilimento di Settimo Torinese e in generale in tutta la penisola lavoratori installatori per questo marchio stavano lottando per arrivare al risultato di ottenere il contratto con il CCNL logistica, ma (per citare parte di un testo diffuso sui social del sindacato di base: “I sindacati Cgil, Cisl, Uil tuttavia firmarono allora un accordo di “armonizzazione” che prevedeva che i lavoratori impiegassero due anni per raggiungere la piena applicazione del contratto nazionale, con livelli corretti e retribuzioni giuste….Oggi, essendo tale “accordo” giunto a scadenza, i sindacati confederali – sempre con rappresentanza minima tra i lavoratori (all’ultima assemblea a Settimo Torinese si sono presentati letteralmente solo 3 operai) si apprestano a firmare un “nuovo” accordo che prevede la continuazione del periodo cosiddetto “di armonizzazione”, così lasciando ancora una volta che ai nuovi assunti vengano assegnati livelli e retribuzioni inadeguati e illegittimi perché non corrispondenti al contratto nazionale.” Con il nostro ospite siamo scesi nei dettagli di questo accordo e nel finale dell’ intervista siamo passati anche a parlare della manifestazione che si terrà ad Alessandria sabato 18 aprile per contestare i primi effetti delle lotte operaie nella logistica, alle quali si è risposto per la prima volta con gli strumenti giudiziari messi a disposizione del decreto sicurezza. Buon ascolto -------------------------------------------------------------------------------- -------------------------------------------------------------------------------- -------------------------------------------------------------------------------- Il secondo approfondimento lo abbiamo trattato in compagnia di Valentina del SUDD Cobas di Prato e Firenze, ci siamo fatti spiegare da lei i vari motivi che hanno portato a proclamare lo stato di agitazione dal 31 marzo al 6 aprile delle e lavoratrici e dei lavoratori degli Uffizi. Infatti questo settore soffre da tempo la piaga del meccanismo degli appalti ed è proprio dal momento che delle lavoratrici storiche sono state lasciate a casa dopo un cambio appalto che è iniziata la mobilitazione. Dopo aver passato la settimana di pasqua in presidio dentro e fuori il museo, il sindacato di base ha ottenuto prima un incontro in Regione Toscana e poi ha conquistato una presa in carico da parte del ministero. Buon ascolto -------------------------------------------------------------------------------- -------------------------------------------------------------------------------- -------------------------------------------------------------------------------- Il terzo approfondimento lo abbiamo fatto in compagnia di Federico Giusti delegato della CUB a PISA e membro della redazione del blog delegati-lavoratori-indipendenti-Pisa su due articoli: Il primo, scritto su “L’anti diplomatico” del nostro ospite, sull’intelligenza artificiale nell’organizzazione del lavoro: “I conti con l’avvento della Intelligenza artificiale (IA) nei luoghi di lavoro andrebbero fatti prima di esserne sommersi, anzi siamo già in grave ritardo. E’ di pochi giorni fa la notizia del licenziamento di alcuni lavoratori, tramite messaggio whatsapp, in un magazzino che sarà gestito, da oggi in poi, con robot e il ricorso alla IA riducendo gli organici a disposizione dell’azienda.” https://www.lantidiplomatico.it/dettnews-algoritmi_e_licenziamenti_quando_lia_sostituisce_luomo_con_un_messaggio_whatsapp/42819_65895/ Il secondo, scritto su l'”Osservatorio contro la militarizzazione delle scuole e delle università” dal blog delegati-lavoratori-indipendenti-Pisa, sul “Mese della prevenzione sugli abusi” diventa “Mese dei figli dei militari”: https://osservatorionomilscuola.com/2026/04/10/pisa-mese-prevenzione-abusi-figli-militari-proteste-osservatorio/ Buon ascolto
April 18, 2026
Radio Blackout - Info