Tag - autoformazione

Che cosa fa l’intelligenza artificiale in guerra
(Fonte) Andrea Daniele Signorelli – 8 Aprile 2026 Gli impieghi militari dell’intelligenza artificiale hanno principalmente due scopi: ridurre l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare la velocità decisionale, valutando le opzioni operative in tempi ridotti, stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo reale agli sviluppi del conflitto. Il paradosso è che questi algoritmi predittivi producono una tale quantità di informazioni da rendere la loro interpretazione e gestione particolarmente complessa: i modelli linguistici di OpenAI, Anthropic, xAI e, in Europa, Mistral hanno il compito di aiutare a dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai sistemi predittivi. Il ruolo cruciale dell’AI predittiva I large language model non possono riconoscere automaticamente i bersagli, non guidano i missili o i droni, non raccolgono informazioni, non analizzano direttamente i dati dei sensori e non eseguono autonomamente azioni nel mondo reale. La capacità fondamentale di ChatGPT e dei suoi compagni è infatti (provare a) comprendere, elaborare e generare il linguaggio umano sulla base del dataset testuale su cui sono stati addestrati. Sul campo di battaglia, il grosso del lavoro sporco lo svolgono quindi i sistemi basati su algoritmi predittivi. Due dei casi più (tristemente) noti sono quelli relativi alle piattaforme di intelligenza artificiale massicciamente impiegate dall’esercito israeliano durante l’invasione di Gaza: The Gospel e Lavender. The Gospel analizza direttamente i dati raccolti tramite intelligence e sorveglianza per identificare obiettivi infrastrutturali – edifici, tunnel, depositi – che vengono poi colpiti dall’esercito. Lavender è invece un sistema statistico che assegna a ogni individuo presente nella Striscia di Gaza un punteggio relativo alla probabilità di appartenenza a gruppi armati, elaborando dati provenienti anche in questo caso da intelligence e sorveglianza, oltre a segnali comportamentali e indicatori demografici. Secondo le inchieste del magazine israeliano +972, nel corso del conflitto Lavender ha identificato – con un margine di errore accettato del 10% – circa 37mila palestinesi come potenziali bersagli. Per quanto invece riguarda gli Stati Uniti (e la NATO), il più diffuso sistema di supporto decisionale (DSS, decision support system) è il Maven Smart System. Sviluppato a partire dal 2017 da Palantir – subentrata dopo il passo indietro di Google, che al tempo aveva rinunciato in seguito alle proteste dei dipendenti – in collaborazione con Amazon (che fornisce in appoggio la piattaforma cloud AWS), una prima versione di Maven è stata impiegata nel 2021 durante il ritiro statunitense dall’Afghanistan. Successivamente è stato utilizzato in supporto a Israele durante l’invasione di Gaza ed è fino a oggi stato impiegato anche per gli attacchi contro l’Iran. A differenza di The Gospel, Maven non è solo un sistema di AI assisted targeting, ma una piattaforma di comando e controllo che offre anche “consapevolezza situazionale in tempo reale”: Maven fornisce ai comandanti delle “abilità in stile videogioco” di supervisionare ciò che avviene sul campo di battaglia. Che cosa fanno i modelli linguistici Principalmente i modelli linguistici vengono impiegati dagli eserciti per riassumere i manuali operativi, i rapporti delle missioni, i briefing dell’intelligence e altro ancora. Viceversa, possono essere utilizzati anche per generare, a partire dalle indicazioni dei soldati, rapporti, traduzioni, trascrizioni e documentazione di vario tipo. Durante le esercitazioni, questi sistemi possono anche contribuire alla generazione di scenari bellici; Nei casi più avanzati, bisogna invece immaginare l’impiego bellico di Claude o ChatGPT come una “interfaccia conversazionale” integrata, per esempio, in Maven Smart System, che permette agli utenti di interpretare più facilmente le informazioni provenienti dalle piattaforme di supporto decisionale. Il large language model viene quindi integrato nelle piattaforme predittive per rendere più facilmente comprensibile la complessità delle informazioni da essi ricavate e aiutare l’operatore umano nell’analisi e nella valutazione dei dati in tempo reale, accorciando così il ciclo operativo e fornendo un vantaggio decisivo sul campo di battaglia. Per fare un esempio, il modello linguistico integrato nella piattaforma di comando incrocia dati di guerra provenienti da sistemi diversi. In pochi minuti — anziché nelle ore che servirebbero a un team di analisti — genera un briefing sintetico con le possibili azioni. Il comandante lo legge, interroga il sistema su ulteriori aspetti specifici e decide il da farsi. Nel corso degli attacchi in Iran, scrive il Washington Post, “Maven ha suggerito centinaia di obiettivi, fornito coordinate di localizzazione precise e dato priorità a questi obiettivi in base alla loro importanza. L’integrazione tra Maven e Claude ha creato uno strumento che sta accelerando il ritmo della campagna, riducendo la capacità dell’Iran di contrattaccare e trasformando una pianificazione delle operazioni che richiedeva settimane in operazioni in tempo reale”. Uno studio della Georgetown University ha invece analizzato i modi in cui il 18° Airborne Corps dell’esercito statunitense utilizza Maven e Claude, concludendo, tra le altre cose, che consente di fare con una squadra di 20 persone ciò che prima ne avrebbe richieste duemila. Nel 2024 Anduril ha avviato una collaborazione con OpenAI: mentre Anduril già utilizza l’AI per analizzare video e dati dei sensori e individuare minacce, l’apporto di OpenAI riguarda soprattutto sistemi conversazionali, che permettono ai militari di interagire con queste tecnologie in linguaggio naturale. Anche in Europa si registrano sviluppi: la francese Mistral AI ha firmato a fine 2025 un accordo triennale con il Ministero delle Forze Armate per integrare modelli linguistici nelle operazioni militari e in enti strategici. Gli utilizzi principali includono analisi documentale, traduzioni, briefing e supporto alle decisioni, con la particolarità che l’infrastruttura resta interamente francese per garantire maggiore sicurezza dei dati. Le criticità dell’AI in guerra Quando i sistemi di supporto decisionale vengono usati per massimizzare la velocità, i soldati finiscono spesso per limitarsi ad approvare decisioni prese dall’AI. In questo scenario, il sistema passa da “supporto” a vero e proprio decisore. L’integrazione dei modelli linguistici accentua il problema: se da un lato rendono le informazioni più accessibili e immediate, dall’altro le rendono anche più difficili da verificare, aumentando il rischio di un’accettazione automatica e poco consapevole delle decisioni generate dalla macchina. Diversi fattori riducono infatti la qualità della supervisione: la “resa cognitiva” (minore attenzione alla verifica), il cosiddetto automation bias (fiducia eccessiva nella macchina) e il de-skilling, cioè la progressiva perdita di competenze decisionali umane dovuta alla delega all’AI. A questi si aggiunge il fenomeno della AI sycophancy, per cui i sistemi tendono a confermare le aspettative degli utenti, e il problema delle “allucinazioni”, cioè errori o informazioni inventate presentate come vere. Spesso non è  nemmeno chiaro né tracciato il ruolo dell’AI nelle decisioni operative, rendendo difficile attribuire responsabilità. Episodi recenti suggeriscono inoltre che errori nei dati o nelle analisi automatizzate possano contribuire a conseguenze gravi e tragiche, soprattutto in contesti bellici. Da questo punto di vista, un recente e tragico episodio avvenuto agli inizi dei bombardamenti sull’Iran riassume perfettamente quanto ciò possa essere problematico. Un numero schiacciante di prove indica che gli Stati Uniti siano responsabili dell’attacco alla scuola di Minab, in Iran, in cui hanno perso la vita 175 persone, la maggior parte delle quali studentesse. Attacco che potrebbe essere stato condotto a causa di dati di intelligence obsoleti, risalenti a quando il sito faceva effettivamente parte di una base navale adiacente delle Guardie Rivoluzionarie iraniane. Nonostante l’applicazione dei sistemi AI in guerra possa aumentare il rischio di errori, non sembra esserci ancora alcuna intenzione a regolamentare l’impiego dell’intelligenza artificiale in ambito bellico.   The post Che cosa fa l’intelligenza artificiale in guerra first appeared on Lavoratrici e Lavoratori Aci Informatica.
Vietato schedare gli addetti con l’uso di un algoritmo
(fonte) – Sole24ore – 30 marzo 2026 Il Garante della Protezione dei dati personali ha chiarito in un provvedimento che è vietato per le aziende “schedare” i lavoratori e raccogliere dati su patologie, attività sindacali, vita personale e dei familiari, senza alcun legame con la valutazione della professionalità dei dipendenti. Il provvedimento trae origine da un’attività ispettiva avviata d’ufficio nei confronti di Amazon Italia Logistica Srl, nello stabilimento di Passo Corese (Rieti), in seguito alla pubblicazione di notizie riguardanti il trattamento dei dati personali dei lavoratori presso alcuni magazzini della società.  Dalle verifiche, relative all’uso di strumenti digitali e sistemi di videosorveglianza, è emerso che la società usava una piattaforma informatica collegata al sistema di rilevazione delle presenze, che utilizzava l’algoritmo Bradford Factor, che genera alert per i responsabili in caso di assenze brevi e frequenti. A queste assenze facevano seguito dei colloqui registrati in piattaforma. Tali annotazioni contenevano una grande quantità di informazioni personali non pertinenti all’attività lavorativa, tra cui dati relativi a condizioni di salute dei lavoratori, informazioni sulla partecipazione a scioperi o ad attività sindacali, elementi riguardanti la vita privata e familiare. Secondo il Garante, la raccolta sistematica di questi dati eccede manifestamente i limiti posti dall’articolo 113 del Codice della privacy (che rinvia all’articolo 8 dello Statuto dei lavoratori), il quale vieta al datore di lavoro di raccogliere e trattare informazioni non rilevanti per valutare l’attitudine professionale del dipendente. I dati, inoltre, erano conservati per tutta la durata del rapporto di lavoro e fino a dieci anni dopo la cessazione, ed erano accessibili a una pluralità di soggetti interni all’organizzazione, con livelli di accesso molto ampi. L’Autorità ha rilevato irregolarità nei sistemi di controllo utilizzati. In particolare, quattro telecamere posizionate vicino agli accessi ai bagni e alle aree ristoro permettevano di identificare i lavoratori che vi accedevano, circostanza incompatibile con le garanzie previste per la tutela della dignità dei lavoratori. Considerata la gravità delle violazioni e il numero elevato di lavoratori coinvolti, il Garante ha disposto con urgenza: * la limitazione definitiva del trattamento dei dati contenuti nelle annotazioni presenti nei campi liberi della piattaforma usata per gestire i colloqui con i dipendenti; * l’obbligo per la società di verificare entro sette giorni la liceità delle annotazioni in tutti gli stabilimenti in cui la piattaforma è usata; * la limitazione definitiva del trattamento effettuato tramite le quattro telecamere collocate in prossimità degli accessi ai bagni e alle aree ristoro. L’istruttoria prosegue e potrebbe portare a sanzioni.     The post Vietato schedare gli addetti con l’uso di un algoritmo first appeared on Lavoratrici e Lavoratori Aci Informatica.
InvestCloud di Marghera licenzia tutti i 37 dipendenti, sostituiti dall’Ai
(fonte) Mario Pomini – 23 marzo 2026 L’azienda Usa che si occupa di soluzioni finanziarie tech vuole chiudere la sede di Marghera e concentrare il lavoro in altri paesi. Chiusura totale all’incontro di oggi, i sindacati chiedono un tavolo di crisi in regione. Il caso Investcloud riguarda la decisione della multinazionale americana di chiudere la sede di Marghera e licenziare tutti i 37 dipendenti, nonostante la realtà italiana sia in utile e non presenti criticità produttive. La filiale di Marghera è stata chiusa anche se il suo bilancio 2024 era in attivo: con un fatturato annuale di 10 milioni di euro e un utile di 500.000, non poteva essere definita un’azienda in crisi o con problemi di mercato, anzi era in espansione. Il problema di fondo consisteva nel fatto che i profitti non erano considerati soddisfacenti dalla casa madre, cioè dagli azionisti. Da qui la scelta di chiudere per delocalizzare. Siamo di fronte a un inedito caso della chiusura di un’attività economica ampiamente in attivo. Non importa poi se la ricerca del massimo profitto a tutti i costi lascerà a casa 37 dipendenti, con un costo umano e sociale molto rilevante.  Il licenziamento è stato giustificato con la necessità di adeguare i modelli di business al nuovo contesto delle piattaforme integrate con la Ai ma l’azienda parla più in generale di una scelta industriale e organizzativa. I sindacati contestano fortemente la decisione, sottolineando come si tratti di fatto di una delocalizzazione, resa ancora più critica dal fatto che non è motivata da una crisi ma da logiche di ottimizzazione e riduzione dei costi. La preoccupazione principale riguarda non solo la perdita immediata dei posti di lavoro, ma anche il rischio che questo modello si diffonda, mettendo sotto pressione l’intero settore ICT.   The post InvestCloud di Marghera licenzia tutti i 37 dipendenti, sostituiti dall’Ai first appeared on Lavoratrici e Lavoratori Aci Informatica.
Niente panico!
Riduzione del rischio e street medic: incontro con scambio pratiche, confronto su contesti e possibili interazioni. A seguire autofinanziamento street parade.
March 3, 2026
Turba
Primo Intervento in Piazza Per Antagonistx
Con un compagno di Turba di Perugia presentiamo P.I.P.P.A. - Primo Intervento in Piazza Per Antagonistx: un appuntamento per costruire insieme un calendario di autoformazione e di autodifesa contro la repressione di piazza, che si svolgerà il 25 novembre a Perugia presso Caos Turba, alle ore 19:00. Parliamo inoltre della due giorni di writing e dibattito indetta dallo snodo perugino di Smash Repression come avvicinamento alla Street Parade che si sta organizzando a Perugia. 
November 22, 2025
Radio Onda Rossa
[2025-05-20] Scacchi per tutt@ – 2025 @ CSC Casale Podere Rosa
SCACCHI PER TUTT@ – 2025 CSC Casale Podere Rosa - Via Diego Fabbri snc, 00173 Roma (martedì, 20 maggio 17:30) Scacchi per tutt@ Martedì 20 maggio 2025 alle ore 17,30, riprende il gruppo di autoformazione sullo studio degli scacchi. La proposta vuole essere un modo sociale e non competitivo per apprendere le tecniche di gioco. Sarà messa a disposizione del gruppo una saletta della biblioteca con alcuni tavoli per permettere di formare gruppetti con diverso livello di gioco. La partecipazione è gratuita, riservata ai soci dell’associazione Casale Podere Rosa. Gli incontri hanno una cadenza settimanale e si svolgono il martedì pomeriggio dalle 17,30 alle 19. Per informazioni e adesioni scrivi a: info@casalepodererosa.org PS Non ci sono scacchiere in dotazione (al momento!)
May 14, 2025
Gancio de Roma