Tag - Autoformazione

OpenAI annuncia l’accordo con il Pentagono dopo che Trump ha vietato Anthropic
(Fonte) Shannon Bond Geoff Brumfiel – 28 febbraio 2026 Venerdì Trump ha ordinato a tutte le agenzie federali di interrompere immediatamente l’uso dei prodotti di Anthropic, accusando l’azienda di aver tentato di imporre i propri Termini di Servizio al governo invece di adeguarsi alle decisioni militari. In un post su Truth Social ha definito la scelta dell’azienda un “errore disastroso” e ha annunciato che la tecnologia Anthropic sarà eliminata gradualmente entro sei mesi. Contestualmente, il Segretario alla Difesa Pete Hegseth ha dichiarato su X che Anthropic è stata designata come rischio per la sicurezza nazionale nella catena di approvvigionamento, escludendola da collaborazioni con l’esercito e con i suoi appaltatori, nel quadro del rebranding del Pentagono come “Dipartimento della Guerra”. La decisione chiude una dura controversia relativa a un contratto da 200 milioni di dollari, nell’ambito del quale Anthropic aveva cercato di mantenere due restrizioni: il divieto di sorveglianza di massa dei cittadini americani e il divieto di utilizzo dei suoi modelli per armi completamente autonome. Il Pentagono sosteneva di non voler usare l’IA in tali modi, ma pretendeva la possibilità di impiegare i modelli per “tutti gli scopi legittimi”. Alla scadenza fissata, l’azienda non ha revocato le limitazioni e il Dipartimento della Difesa ha proceduto con la designazione. Anthropic ha annunciato che contesterà la decisione in tribunale, sostenendo che la designazione è giuridicamente infondata e crea un precedente pericoloso per qualsiasi azienda che negozi con il governo. Ha inoltre affermato che, secondo la legge federale, la classificazione come rischio per la catena di approvvigionamento si applicherebbe solo all’uso di Claude nei contratti del Dipartimento della Guerra, senza estendersi ad altri clienti. L’azienda ha ribadito di aver negoziato in buona fede e di sostenere tutti gli usi legittimi dell’IA per la sicurezza nazionale, eccetto le due eccezioni contestate, motivate dall’inaffidabilità attuale dei modelli per sistemi d’arma autonomi e dal rischio di violazione dei diritti fondamentali attraverso la sorveglianza di massa. Poco dopo l’annuncio di Trump, OpenAI ha comunicato di aver raggiunto un accordo con il Dipartimento della Difesa per fornire la propria tecnologia alle reti classificate. In un post su X, il CEO Sam Altman ha dichiarato che l’accordo incorpora principi di sicurezza come il divieto di sorveglianza di massa nazionale e la responsabilità umana nell’uso della forza, anche nei sistemi d’arma autonomi. In precedenza, Altman aveva affermato alla CNBC di condividere le “linee rosse” di Anthropic e, secondo quanto riportato dal Wall Street Journal, in una nota interna aveva spiegato che OpenAI stava negoziando esclusioni simili per impedire usi senza supervisione umana. Il Pentagono aveva anche minacciato di invocare il Defense Production Act per costringere Anthropic a consentire l’uso illimitato dei propri modelli. Hegseth ha accusato l’azienda di arroganza e tradimento, sostenendo che il Dipartimento della Guerra deve avere accesso completo ai modelli per ogni scopo legale in difesa della Repubblica e che i militari non saranno ostaggio dei “capricci ideologici” delle aziende tecnologiche. Emil Michael, sottosegretario per la ricerca e l’ingegneria, ha ribadito su X che il dipartimento rispetterà sempre la legge ma non si piegherà a interessi aziendali, affermando in un’intervista a CBS News che la normativa già vieta sorveglianza di massa e armi autonome e che occorre fidarsi delle forze armate. Negli ultimi anni, molte aziende hanno progressivamente allentato i propri principi etici per accedere a contratti governativi e militari sempre più redditizi: OpenAI ha eliminato il divieto di utilizzi bellici e firmato accordi con aziende come Anduril e con lo stesso Dipartimento della Difesa, mentre anche Amazon, Google e Microsoft hanno ampliato le collaborazioni con agenzie di difesa e intelligence, inclusa l’ICE, nonostante le proteste interne dei lavoratori, che in passato avevano portato a cambiamenti, come nel caso del ritiro di Google dal Project Maven nel 2018. The post OpenAI annuncia l’accordo con il Pentagono dopo che Trump ha vietato Anthropic first appeared on Lavoratrici e Lavoratori Aci Informatica.
La tua auto ti spia e le aziende israeliane sono in testa alla corsa alla sorveglianza
(Fonte) Omer Benjakob – 16 febbraio 2026 Negli ultimi anni diverse aziende israeliane hanno sviluppato e commercializzato strumenti avanzati di cyber intelligence in grado di penetrare i sistemi digitali delle automobili connesse, trasformando i veicoli in potenti fonti di raccolta informativa. Questa nuova frontiera, nota nel settore come CARINT (car intelligence), consente non solo di tracciare in tempo reale i movimenti di un’auto, ma anche di incrociare dati provenienti da molteplici fonti per identificare un obiettivo tra decine di migliaia di veicoli. In alcuni casi, la tecnologia permette perfino di accedere da remoto ai microfoni e alle telecamere installate a bordo, intercettando conversazioni o immagini senza che il conducente ne sia consapevole. Le automobili moderne sono ormai veri e propri computer su ruote, dotati di decine di sistemi digitali e di connessioni Internet o cellulari permanenti tramite SIM integrate. Questa connettività migliora navigazione, sicurezza e comfort, ma espone anche a rischi significativi per la privacy e per la sicurezza nazionale. I dati generati dai veicoli – posizione, percorsi, comunicazioni Bluetooth e wireless – possono essere raccolti, fusi e analizzati grazie a sistemi basati sull’intelligenza artificiale, capaci di elaborare milioni di informazioni in tempo reale. Un’inchiesta di Haaretz ha rivelato che almeno tre aziende israeliane operano nel settore CARINT. Tra queste figura Toka, cofondata dall’ex primo ministro Ehud Barak e dal generale Yaron Rosen, inizialmente specializzata nell’hacking di telecamere di sicurezza e poi approdata all’intelligence automobilistica. Secondo fonti del settore, Toka avrebbe sviluppato un prodotto offensivo in grado di violare sistemi multimediali di specifici modelli di auto, localizzarli e attivare microfoni o telecamere di bordo. Il Ministero della Difesa israeliano ne aveva autorizzato la commercializzazione, anche se l’azienda sostiene di non venderlo più in vista della roadmap 2026. Anche Rayzone ha introdotto un prodotto CARINT, commercializzato tramite la consociata TA9, che integra i dati dei veicoli con altre fonti informative per offrire ai governi una “copertura di intelligence completa”. Il sistema sfrutta SIM installate nelle auto, controlli incrociati con telecamere stradali e database governativi, inserendosi in una più ampia tendenza alla fusione dei dati. In parallelo, Ateros – affiliata a Netline – ha presentato GeoDome, una piattaforma che collega informazioni provenienti da targhe, comunicazioni cellulari e sensori, inclusi identificatori unici presenti negli pneumatici, creando una sorta di impronta digitale del veicolo. Il fenomeno non è limitato a Israele. Negli Stati Uniti, agenzie come FBI e NSA richiedono regolarmente dati ai produttori di automobili, mentre aziende come Palantir, Berla e Cellebrite integrano informazioni veicolari in sistemi di analisi per clienti governativi e militari. In Cina, i produttori sono obbligati a trasmettere dati dei veicoli alle autorità, e le Forze di Difesa Israeliane hanno limitato l’uso di auto elettriche cinesi per motivi di sicurezza. Le conferenze ISS World, soprannominate “Souk degli Spettri”, mostrano come il mercato dell’intelligence stia evolvendo verso sistemi sempre più integrati e potenziati dall’intelligenza artificiale. L’IA consente di trasformare enormi quantità di dati non correlati – video, audio, tracciamenti GPS – in intelligence operativa rapida ed efficace. Questo segna un passaggio dai tradizionali strumenti altamente invasivi, come gli spyware per smartphone, verso un modello fondato sulla raccolta e fusione massiva di dati. Nonostante le potenzialità, l’hacking diretto delle auto resta tecnicamente complesso: ogni modello ha sistemi differenti e la connettività rende più facile essere individuati. Per questo, secondo alcune fonti, la fusione dei dati tramite IA risulta spesso più efficiente dell’intrusione diretta. Tuttavia, la crescente digitalizzazione dei veicoli amplifica i rischi. Ricercatori e hacker etici avvertono da anni che i dati generati dalle auto possono essere sfruttati per identificare abitudini, spostamenti o persino per prendere il controllo remoto del veicolo. Alcuni governi, secondo fonti del settore, non si accontentano più di localizzare un’auto, ma desiderano poterla disattivare a distanza. Più le automobili diventano connesse e intelligenti, maggiore diventa il potenziale impatto sulla nostra sicurezza fisica. The post La tua auto ti spia e le aziende israeliane sono in testa alla corsa alla sorveglianza first appeared on Lavoratrici e Lavoratori Aci Informatica.
“State zitti e concentratevi sulla missione”: i lavoratori del settore tecnologico e il silenzio delle loro aziende sull’ICE
(Fonte) Campo Hayden – 11 febbraio 2026  Nel 2026, mentre agenti federali hanno ucciso almeno otto persone e le proteste pubbliche contro le operazioni dell’ICE si intensificano, i CEO delle principali aziende tecnologiche – tra cui Google, Meta, Microsoft, Apple, Amazon, AWS e OpenAI – hanno mantenuto un sostanziale silenzio pubblico. In privato, secondo fonti interne, Tim Cook di Apple e Sam Altman di OpenAI avrebbero inviato promemoria ai dipendenti chiedendo una de-escalation e confidando nella leadership del presidente Trump, senza però rilasciare dichiarazioni ufficiali forti. Dario Amodei di Anthropic ha rappresentato un’eccezione parziale, affermando alla NBC che la sua azienda non ha contratti con l’ICE e scrivendo su X della necessità di difendere valori e diritti democratici. Nel 2018, centinaia di dipendenti Microsoft firmarono una petizione contro i contratti con l’ICE, mentre migliaia di Googler riuscirono a bloccare la collaborazione con il Pentagono nel progetto Project Maven. Dopo l’uccisione di George Floyd nel 2020, le Big Tech avevano assunto impegni pubblici e finanziari a sostegno del movimento Black Lives Matter. Molti leader tecnologici hanno donato al fondo di insediamento del presidente o a super PAC a lui collegati, hanno cenato alla Casa Bianca e lodato pubblicamente l’approccio dell’amministrazione su tecnologia e intelligenza artificiale. Parallelamente, hanno ampliato collaborazioni con il governo, sviluppando prodotti dedicati come Claude Gov o ChatGPT Gov e mantenendo o estendendo contratti con DHS, ICE e altre agenzie legate alla repressione dell’immigrazione. In risposta, un movimento popolare invita al boicottaggio di aziende come Microsoft, Amazon e OpenAI. All’interno delle aziende cresce il malcontento. Un dipendente di YouTube ha espresso frustrazione per l’invito implicito a “restare concentrati sulla missione” senza affrontare pubblicamente le implicazioni etiche delle collaborazioni governative. Una petizione firmata da oltre 1.000 dipendenti Google chiede alla dirigenza di sollecitare risposte urgenti dal governo, organizzare sessioni di domande e risposte sui contratti con DHS e CBP e proteggere i lavoratori più vulnerabili. Un’altra iniziativa, promossa da ICEout.tech e intitolata “La tecnologia chiede all’ICE di andarsene dalle nostre città”, ha raccolto oltre 2.000 firme di dipendenti di numerose aziende del settore, chiedendo ai CEO di intervenire presso la Casa Bianca, rescindere i contratti con l’ICE e condannare pubblicamente la violenza. Nonostante il silenzio dei vertici, alcune figure di rilievo hanno preso posizione. Jeff Dean di Google ha definito “assolutamente vergognoso” un recente omicidio legato all’ICE, mentre James Dyett di OpenAI ha criticato l’assenza di indignazione dei leader tecnologici. Tuttavia, molti lavoratori descrivono un clima di cautela e autocensura, soprattutto tra chi possiede visti come l’H-1B e teme ripercussioni. Dipendenti Microsoft raccontano di discussioni private critiche verso la collaborazione con l’ICE e di una crescente distanza tra la missione dichiarata dell’azienda e le sue azioni. Alcuni lamentano l’assenza totale di riferimenti alla crisi nei portali interni e nelle riunioni aziendali, con comunicazioni concentrate solo su obiettivi di intelligenza artificiale e nuovi prodotti. Anche in altre aziende, come Abbott e CLEAR, i lavoratori riferiscono comunicazioni generiche sulle risorse per la salute mentale ma nessun piano concreto su come affrontare eventuali interventi dell’ICE nei luoghi di lavoro. Molti descrivono uno stato di ipervigilanza e paura nelle comunità colpite, con la sensazione che la tecnologia – inclusi sistemi biometrici e strumenti di tracciamento – possa essere utilizzata per finalità di controllo e repressione. Le conversazioni di persona, tra colleghi fidati, sono diventate una forma di resistenza silenziosa. Per diversi lavoratori, emerge la consapevolezza che  il settore tecnologico è segnato da sorveglianza e repressione statale. The post “State zitti e concentratevi sulla missione”: i lavoratori del settore tecnologico e il silenzio delle loro aziende sull’ICE first appeared on Lavoratrici e Lavoratori Aci Informatica.
La sicurezza dell’intelligenza artificiale incontra la macchina da guerra
(Fonte) Steven Levy – 20 febbraio 2026 Quando lo scorso anno Anthropic è diventata la prima grande azienda di intelligenza artificiale ad essere autorizzata dal governo degli Stati Uniti per usi classificati, comprese applicazioni militari. La notizia non ha fatto molto scalpore. Ma questa settimana un secondo sviluppo ha colpito come una palla di cannone: il Pentagono sta riconsiderando il suo rapporto con l’azienda, incluso un contratto da 200 milioni di dollari, apparentemente perché l’azienda di intelligenza artificiale, attenta alla sicurezza, si oppone a partecipare a determinate operazioni mortali. Il cosiddetto Dipartimento della Guerra potrebbe persino designare Anthropic come “rischio per la catena di approvvigionamento”, una lettera scarlatta solitamente riservata alle aziende che fanno affari con paesi sottoposti a controllo da agenzie federali, come la Cina, il che significa che il Pentagono non farebbe affari con aziende che utilizzano l’intelligenza artificiale di Anthropic nelle loro attività di difesa. In una dichiarazione a WIRED, il portavoce capo del Pentagono Sean Parnell ha confermato che Anthropic era sulla graticola. “La nostra nazione richiede che i nostri partner siano disposti ad aiutare i nostri combattenti a vincere in qualsiasi battaglia. In definitiva, si tratta delle nostre truppe e della sicurezza del popolo americano”, ha affermato. Questo è un messaggio anche per altre aziende: OpenAI, xAI e Google, che attualmente hanno contratti con il Dipartimento della Difesa per lavori non classificati, stanno facendo i salti mortali per ottenere le loro autorizzazioni più elevate. C’è molto da analizzare qui. Innanzitutto, c’è la questione se Anthropic sia stata punita per essersi lamentata del fatto che il suo modello di intelligenza artificiale Claude sia stato utilizzato come parte del raid per rimuovere il presidente venezuelano Nicolás Maduro (questo è quanto riportato ; l’azienda lo nega). C’è anche il fatto che Anthropic sostiene pubblicamente la regolamentazione dell’intelligenza artificiale, una posizione anomala nel settore e in contrasto con le politiche dell’amministrazione. Ma c’è in gioco una questione più grande e inquietante. Le richieste governative di utilizzo militare renderanno l’intelligenza artificiale stessa meno sicura? Anthropic si è ritagliata uno spazio come la più attenta alla sicurezza di tutte le piattaforme di intelligenza artificiale. In qualità di primo grande laboratorio con un contratto classificato, Anthropic fornisce al governo un “set personalizzato di modelli Claude Gov costruiti esclusivamente per i clienti della sicurezza nazionale statunitense”. Tuttavia, Anthropic ha affermato di averlo fatto senza violare i propri standard di sicurezza, incluso il divieto di utilizzare Claude per produrre o progettare armi. Il CEO di Anthropic, Dario Amodei, ha espressamente dichiarato di non volere che Claude sia coinvolto in armi autonome o nella sorveglianza governativa tramite intelligenza artificiale. Ma questo potrebbe non funzionare con l’attuale amministrazione. Il CTO del Dipartimento della Difesa, Emil Michael (ex direttore commerciale di Uber), ha dichiarato ai giornalisti questa settimana che il governo non tollererà che un’azienda di intelligenza artificiale limiti il modo in cui l’esercito utilizza l’intelligenza artificiale nei suoi armamenti. D’altra parte il CEO di Palantir, Alex Karp, non ha remore ad affermare , con evidente orgoglio: “Il nostro prodotto viene occasionalmente utilizzato per uccidere”, e il Pentagono lo dice esplicitamente: se le aziende di intelligenza artificiale vogliono collaborare con il Dipartimento della Difesa, devono impegnarsi a fare tutto il necessario per vincere. È ormai un dato di fatto che il futuro della guerra è l’IA. Il futuro potrebbe dipendere da chi è responsabile dell’intelligenza artificiale avanzata e da come la plasma e la sfrutta. Mentre i signori dell’intelligenza artificiale si avvolgono nel patriottismo e cercano accordi con il Pentagono, il fatto è che stanno fornendo una tecnologia spaventosamente potente e imprevedibile a un governo e a un dipartimento della Guerra che rifiutano l’idea di supervisione.   The post La sicurezza dell’intelligenza artificiale incontra la macchina da guerra first appeared on Lavoratrici e Lavoratori Aci Informatica.
Moltbook e l’illusione dell’AI emergente: rischi economici della confusione tra credibilità e verifica
(Fonte) Stefano Epifani – 3 febbraio 2026 Tutti pazzi per Moltbook: il social “riservato alle IA” dove gli esseri umani sono relegati al ruolo di spettatori. E dove il vero esperimento, forse, non è la conversazione tra agenti, ma la rinuncia all’agentività umana, ridotta a muta audience. Moltbook è una piattaforma in cui agenti dialogano con agenti: solo tra loro, spesso di noi. L’AI conversa. L’umano interpreta, o crede di interpretare segnali dando senso alle nuvole. È la divisione del lavoro perfetta: uno produce, l’altro proietta. Nel frattempo, noi parliamo di Moltbook troppo e per i motivi sbagliati. Troppo, perché è perfetto per la commentary economy: una macchina che produce titoli e discussioni a ciclo continuo. Per i motivi sbagliati, perché la conversazione pubblica si è concentrata sull’ennesima favola dell’AI che “mostra comportamenti emergenti e sta diventando come noi”, invece che sul vero tema: un dispositivo che rende strutturale la confusione tra credibile e verificabile. Questo circuito agent-to-agent ha generato un’ondata di commenti sui presunti comportamenti emergenti. Su Moltbook gli agenti “sembrano” umani: discutono, ironizzano, polarizzano, costruiscono gerghi. La parola “emergenza” viene usata come certificazione ontologica. Qualcosa è inatteso, quindi è nuovo. È nuovo, quindi è intelligente. È intelligente, quindi è quasi umano. È quasi umano, quindi può essere trattato come un attore sociale. Ma una catena di fraintendimenti ben esposti non fa un ragionamento sensato. Moltbook non genera una cultura artificiale: è, al più, una ricombinazione accelerata della cultura umana. Gli agenti sembrano umani per una ragione banale: sono addestrati su dati umani in un contesto chiuso, dove il criterio di selezione è la tenuta della conversazione. Il risultato è che non emerge alterità culturale e scompare la possibilità di verifica: resta l’ottimizzazione di pattern già visti, dall’ironia all’indignazione, ma in un ambiente senza persone. E così, mentre tutti inseguono un’emergenza epistemologicamente farlocca, la vera emergenza è un’altra: ancora una volta confondiamo la forma con la sostanza, scambiamo il verosimile per il vero, e chiamiamo “emergenza” ciò che è soltanto una mimesi ben ottimizzata. Moltbook non è interessante perché rivelerebbe una mente nuova; lo è perché trasforma la confusione in una proprietà del sistema. Le conseguenze economiche sono immediate, perché Moltbook intercetta il tema del 2026: la transizione dall’AI conversazionale all’AI agentica. Stiamo passando da sistemi che rispondono a sistemi che agiscono: chiamano API, accedono a dati, attivano processi. E diventando attori organizzativi rischiano di trasformare ogni equivoco interpretativo in un rischio industriale. Il risultato principale è paradossale: più un agente è convincente, più viene trattato come affidabile. Se “sembra” intelligente, l’impresa delega; se “sembra” responsabile, si fida; se “sembra” autonomo, si deresponsabilizza. È la delega epistemica applicata all’impresa: un errore plausibile diventa decisione sbagliata, con tre effetti immediati. Il primo è quello di generare investimenti distorti: si premia l’effetto wow più della controllabilità, allocando capitali su soluzioni che persuadono più di quanto reggano un audit. Il secondo è quello di generare nuovi rischi di sicurezza e compliance: un agente non produce solo testi, produce azioni. E quando l’azione incontra dati, strumenti e processi, il margine di errore produce esposizione operativa. Il terzo è la fragilità della fiducia di mercato: la credibilità diventa un claim, la verificabilità diventa un accessorio; ma quando la fiducia è costruita sulla suggestione, i collassi sono rapidi e costosi. Moltbook non è un segnale che l’AI stia diventando umana. È un segnale che stiamo costruendo ambienti in cui la distinzione tra credibile e verificabile si indebolisce. E quando questa distinzione perde di valore, l’economia paga in termini di produttività, sicurezza, investimenti sbagliati e perdita di competitività. La fiducia, nell’economia digitale, non è un sentimento: è un’infrastruttura. E quando l’infrastruttura cede non si perde soltanto consenso: blocca il mercato, alza il costo del rischio, e la trasformazione digitale rischia di diventare una promessa senza garanzie. The post Moltbook e l’illusione dell’AI emergente: rischi economici della confusione tra credibilità e verifica first appeared on Lavoratrici e Lavoratori Aci Informatica.
Palantir e l’algoritmo delle espulsioni
(Fonte)  Osservatorio Repressione – 2 febbraio 2026 Palantir Technologies, azienda di software fondata da Peter Thiel e guidata da Alex Karp, è al centro di polemiche negli Stati Uniti. Attivisti e osservatori accusano la società di fornire all’Immigration and Customs Enforcement (ICE) strumenti digitali che rafforzano un sistema di sorveglianza avanzato per individuare, tracciare ed espellere immigrati irregolari. In particolare, è contestato un contratto da 30 milioni di dollari, valido fino al 2027, per lo sviluppo della piattaforma ImmigrationOS, pensata per automatizzare e “ottimizzare” l’intero processo di espulsione, dall’identificazione delle persone alla pianificazione degli arresti e dei rimpatri. Il sistema Elite: l’intelligenza artificiale applicata alle espulsioni Secondo quanto riportato da 404 Media, Palantir sta sviluppando per l’ICE il modulo Elite (Enhanced Leads Identification & Targeting for Enforcement), un sistema che integra dati provenienti da sanità pubblica, agenzie federali e fonti commerciali trasformandoli in “piste operative” utilizzabili sul campo. La piattaforma funziona come un sistema di intelligence predittiva: crea mappe geospaziali, costruisce dossier individuali e attribuisce a ogni indirizzo un punteggio di probabilità sulla presenza della persona ricercata. Incrociando dati sanitari, amministrativi, di geolocalizzazione e database pubblici e privati, consente di pianificare arresti mirati o operazioni di rastrellamento su larga scala. Questa evoluzione si basa sull’uso intensivo dell’IA e sull’integrazione dei dati pubblici avviata negli USA dopo l’11 settembre con il Patriot Act. Dall’ICM a ImmigrationOS: un’infrastruttura centrale per l’Ice L’uso dei software Palantir da parte dell’ICE non è una novità. Dal 2014 l’agenzia utilizza il sistema Investigative Case Management (ICM), basato sulla piattaforma Gotham di Palantir, come archivio centrale per la gestione dei casi investigativi. ImmigrationOS rappresenta però un salto di scala: non più solo supporto alle indagini, ma un vero e proprio “sistema operativo” dell’espulsione, con l’obiettivo di velocizzare l’intero flusso operativo, dalla raccolta dei dati alla gestione della logistica dei rimpatri. Falcon e Raven: la tecnologia sul campo Un’inchiesta del The Guardian ha ricostruito nel dettaglio come gli strumenti Palantir siano stati integrati per anni nelle operazioni quotidiane dell’Ice.Tra questi spicca Falcon, un’app desktop e mobile sviluppata nel 2014 per il braccio investigativo Homeland Security Investigations (HSI). Falcon, ora sostituita da Raven ma con la stessa architettura tecnologica, forniva agli agenti dell’ICE un ambiente informativo integrato. L’app permetteva di consultare in tempo reale database governativi e privati, monitorare la posizione di colleghi e soggetti indagati e registrare sul campo dati operativi (interviste, documenti, scansioni di patenti). Consentiva inoltre ricerche su persone, veicoli, luoghi e passaporti interrogando sistemi federali come l’Enforcement Integrated Database, che raccoglie dati biometrici e personali di chiunque sia entrato in contatto con le agenzie della Sicurezza interna statunitense. Le tensioni di Minneapolis e il ritorno sotto i riflettori La collaborazione tra ICE e Palantir è tornata al centro dell’attenzione in un clima già molto teso negli Stati Uniti. A Minneapolis, l’uccisione nel giro di poche settimane di due civili statunitensi — Renée Good e il trentasettenne Alex Pretti, colpito durante un’operazione legata all’immigrazione — ha provocato proteste diffuse e richieste bipartisan di un’indagine indipendente. Gli episodi hanno riacceso il dibattito sull’uso della forza da parte delle agenzie federali e sul ruolo delle tecnologie di sorveglianza nelle operazioni di controllo migratorio, alimentando polemiche politiche e audizioni al Congresso. I timori degli attivisti e la critica alla “sorveglianza totale” Le organizzazioni per i diritti civili accusano Palantir di essere l’infrastruttura tecnologica centrale di un sistema di controllo migratorio sempre più aggressivo. Attivisti della campagna No Tech for ICE sostengono che i suoi strumenti permettano all’agenzia di tracciare relazioni, movimenti e attività delle persone con capacità senza precedenti, con effetti intimidatori su libertà di organizzazione e dissenso. Le critiche riguardano anche altri impieghi dell’azienda — dalla sorveglianza militare alla guerra in Ucraina e all’uso da parte delle forze israeliane — interpretati da molti osservatori come parte di un modello di business che favorisce la costruzione di un’infrastruttura di controllo sempre più estesa e privatizzata. La posizione di Palantir Dal canto suo, Palantir respinge le accuse di complicità diretta. La portavoce Lisa Gordon ha ribadito che l’azienda collabora con il Dipartimento per la Sicurezza Interna dal 2012 e che il suo ruolo si limita a fornire supporto tecnologico alle indagini, dalla lotta ai cartelli della droga allo smantellamento delle reti di traffico di esseri umani. Ma per i critici, la distinzione tra “elaboratore di dati” e attore operativo appare sempre più sottile. Con ImmigrationOS e sistemi come Elite, la tecnologia non si limita più ad assistere le decisioni: le orienta, le anticipa e, in alcuni casi, le automatizza. Il caso Palantir–Ice solleva una questione più ampia: fino a che punto uno Stato democratico può delegare funzioni di controllo, sicurezza e governance a infrastrutture algoritmiche private? L’integrazione massiccia di database federali, l’uso di intelligenza artificiale predittiva trasformano il controllo dell’immigrazione: da apparato amministrativo a sistema paramilitare di intelligence, dove il confine tra sicurezza, sorveglianza e diritti civili diventa sempre più sottile. The post Palantir e l’algoritmo delle espulsioni first appeared on Lavoratrici e Lavoratori Aci Informatica.
Vittoria di noyb: Microsoft ha ordinato di smettere di tracciare gli studenti
(Fonte) noyb – 27 gennaio 2026 noyb ha ottenuto un’altra vittoria nel suo procedimento contro Microsoft 365 Education: l’autorità austriaca per la protezione dei dati (DSB) ha stabilito che l’azienda ha installato illegalmente cookie sui dispositivi di uno studente senza il suo consenso. Secondo la documentazione di Microsoft, questi cookie analizzano il comportamento degli utenti, raccolgono dati del browser e vengono utilizzati per scopi pubblicitari. Microsoft ha ora quattro settimane di tempo per conformarsi e cessare l’utilizzo dei cookie di tracciamento. Contesto. Nel giugno 2024 noyb ha presentato due reclami riguardanti Microsoft 365 Education presso l’autorità austriaca per la protezione dei dati (DSB). Il primo reclamo è stato deciso nell’ottobre 2025 e ha accertato la violazione del diritto di accesso ai dati personali ai sensi dell’articolo 15 del GDPR. Il secondo reclamo, ora concluso, riguardava invece l’uso illecito di cookie di tracciamento in Microsoft 365 Education. Seconda vittoria di noyb contro Microsoft. Nella sua decisione più recente, il DSB ha nuovamente accertato che Microsoft ha agito illecitamente. Nello specifico, l’azienda ha installato cookie di tracciamento sui dispositivi di un minore che utilizzava Microsoft 365 Education. Secondo la documentazione di Microsoft, questi cookie analizzano il comportamento dell’utente, raccolgono dati del browser e vengono utilizzati per scopi pubblicitari. Il DSB ha inoltre ordinato a Microsoft di cessare il tracciamento del denunciante entro quattro settimane. Sia la scuola che il Ministero dell’Istruzione austriaco hanno affermato di non essere a conoscenza di tali cookie di tracciamento prima dei reclami di noyb. Felix Mikolasch, avvocato specializzato in protezione dei dati presso noyb : “Tracciare i minori è chiaramente contrario alla privacy. Sembra che a Microsoft non importi molto della privacy, a meno che non sia per le sue dichiarazioni di marketing e pubbliche relazioni”. Microsoft Ireland aggirata. Durante il procedimento, Microsoft ha anche cercato di sostenere che la sua filiale europea in Irlanda fosse responsabile dei prodotti Microsoft 365 in Europa. Il DSB ha respinto tale argomentazione e ha sostenuto che, in realtà, le decisioni rilevanti spettano a Microsoft US. Le grandi aziende tecnologiche statunitensi sostengono regolarmente di rientrare nella giurisdizione irlandese, poiché è noto che la Commissione irlandese per la protezione dei dati personali non applica con rigore il diritto dell’UE. Probabili conseguenze di vasta portata per Microsoft 365. Microsoft 365 Education è utilizzato da milioni di studenti e insegnanti in tutta Europa. Milioni di altre persone utilizzano lo standard “Microsoft 365” presso aziende e autorità in Europa. Il monitoraggio degli utenti senza consenso non è conforme al diritto dell’UE, il che rappresenta un problema per tutte le organizzazioni che utilizzano Microsoft 365. Le autorità tedesche per la protezione dei dati hanno già ritenuto che Microsoft 365 non soddisfi i requisiti del GDPR. The post Vittoria di noyb: Microsoft ha ordinato di smettere di tracciare gli studenti first appeared on Lavoratrici e Lavoratori Aci Informatica.
Con l’intelligenza artificiale al posto di guida, la Cina si muove per contenere i rischi di perdita di posti di lavoro
(Fonte) Mandy Zuo – 29 gennaio 2026 Il governo centrale cinese svela i piani per una politica volta a ridurre le sofferenze del lavoro industriale causate dall’uso diffuso dell’intelligenza artificiale Dopo aver provato l’FSD di Tesla, l’economista Ren Zeping afferma che la diffusione della guida autonoma sta accelerando più del previsto: nei prossimi due anni è destinata a esplodere. Grazie ai grandi modelli di IA, milioni di veicoli potranno raggiungere o superare le capacità dei guidatori esperti, diventando più sicuri, e la tecnologia si espanderà presto oltre le aree di test. L’espansione dell’IA e della guida autonoma in Cina, spinta anche dalle dichiarazioni di Elon Musk sull’imminente approvazione dell’FSD, solleva timori per l’occupazione di tassisti e autisti. Riconoscendo il rischio di sostituzione dei posti di lavoro, il Ministero cinese delle risorse umane sta preparando una direttiva e pubblicherà entro fine anno un documento ufficiale sull’impatto dell’IA sull’occupazione, la prima risposta sistematica a livello centrale. Intanto, i numeri di Apollo Go di Baidu — milioni di corse e centinaia di migliaia di ordini settimanali — mostrano la rapida diffusione dei taxi autonomi. Negli ultimi tre anni il tasso di disoccupazione urbana in Cina è rimasto stabile intorno al 5,1–5,2% e la creazione di posti di lavoro urbani ha superato i 12,4 milioni annui, ma la crescita sta rallentando. L’automazione e l’IA stanno infatti sostituendo mansioni di routine, come mostra il caso di un’acciaieria nel Jiangsu che ha ridotto il personale da 6.000 a 5.000 lavoratori grazie all’adozione di tecnologie intelligenti. Il taglio dell’occupazione nell’industria procede lentamente, ma l’“intelligentizzazione” completa può ridurre il personale fino a un terzo, grazie a un’ampia automazione dei processi. Secondo alcuni studiosi, però, gli effetti di sostituzione sono temporanei: l’IA crea più posti di lavoro di quanti ne elimini, come mostra la forte crescita delle offerte nel settore IA e la correlazione positiva tra livello tecnologico regionale e occupazione manifatturiera. La chiave, secondo Gao Xudong, è la formazione avanzata e l’adozione di politiche del lavoro innovative, come la riduzione della giornata lavorativa standard di otto ore a sei. In questa direzione, il Ministero delle Risorse Umane avvierà programmi di riqualificazione legati all’IA e definirà tutele per le nuove forme di occupazione. The post Con l’intelligenza artificiale al posto di guida, la Cina si muove per contenere i rischi di perdita di posti di lavoro first appeared on Lavoratrici e Lavoratori Aci Informatica.
La rincorsa di Google a ChatGpt sui contenuti e la «frode morale» dei modelli linguistici
(Fonte)  Luca Salvioli – 28 gennaio 2026 I grandi modelli linguistici alla base dei chatbot vengono addestrati su enormi quantità di testi, ma questo processo solleva forti questioni legali ed etiche. Mentre Dario Amodei (Anthropic) avverte che la società non è pronta per la nuova ondata di AI, emerge che Anthropic ha acquistato legalmente e digitalizzato milioni di libri cartacei per addestrare i propri modelli: un giudice federale ha stabilito che questa pratica può rientrare nel fair use. Diverso il caso dei testi provenienti da archivi pirata online:  lì Anthropic ha evitato il processo chiudendo con un accordo economico con autori ed editori. Anche Meta e OpenAI affrontano cause simili negli Stati Uniti. Oltre all’aspetto legale, c’è un problema strutturale: secondo Marco Trombetti (Translated), i language model rompono l’accordo implicito di Internet, usando contenuti creati dagli utenti senza riconoscere le fonti né riportare traffico ai siti originali, mettendo in crisi il modello economico del web e più in generale l’economia digitale. La competizione tra OpenAI e Google nell’AI è entrata nel vivo dopo che ChatGPT, lanciato a novembre 2022, ha colto di sorpresa Google: pur avendo tutte le competenze per arrivare prima, il colosso di Mountain View è stato superato da un chatbot inizialmente imperfetto ma semplice e capace di attirare in poche settimane un numero record di utenti. Dopo circa tre anni, però, Google ha recuperato terreno: prima con Nano Banana per la generazione di immagini, poi con Gemini 3, che nei benchmark ha superato ChatGPT, ricevendo anche i complimenti pubblici di Sam Altman. La competizione resta però serrata: secondo Marco Trombetti, Gemini 3 è un modello eccezionale e OpenAI ha risposto accelerando il rilascio di un nuovo modello (5.2, probabilmente GPT-6), ancora in addestramento, che le avrebbe permesso di tornare in testa per performance. Google sta trasformando il suo motore di ricerca da semplice distributore di link a generatore di risposte sintetiche basate sull’AI. Questo cambiamento solleva forti preoccupazioni sull’impatto per l’ecosistema che dipende dall’intermediazione di Google con gli utenti, in particolare editori e creatori di contenuti. Gli editori italiani hanno presentato un reclamo all’Agcom, seguiti da iniziative simili di altri editori europei. La Commissione europea ha quindi aperto una procedura formale contro Google e avviato due ulteriori procedimenti per verificare il rispetto del Digital Markets Act, in particolare su interoperabilità, accesso equo ai dati e pari accesso alle funzionalità AI per fornitori terzi, oltre alla condivisione dei dati anonimizzati di ranking, query e clic con i motori di ricerca concorrenti.       The post La rincorsa di Google a ChatGpt sui contenuti e la «frode morale» dei modelli linguistici first appeared on Lavoratrici e Lavoratori Aci Informatica.
Il ceo di Anthropic suona l’allarme sui rischi dell’AI
(Fonte) Alessandro Longo – 28 gennaio 2026 Una lunga lettera di Dario Amodei (CEO di Anthropic) lancia l’allarme sui rischi dell’IA: dalla possibilità di attacchi batteriologici accessibili a chiunque, alla disoccupazione di massa e alla concentrazione del potere.  Amodei ribadisce la necessità di forti “guardrail” per mettere in sicurezza l’IA, richiamando la missione di Anthropic e la sua “Costituzione” per l’IA. Questo allarme potrebbe essere letto anche come azione di marketing per passare, agli occhi di potenziali clienti e investitori di Claude, come l’azienda più attenta alla sicurezza dell’AI. Il Financial Times ha scritto che Anthropic sarebbe avviata a raccogliere 20 miliardi di dollari da venture capitalist e altri investitori, il doppio dell’obiettivo iniziale. Il fulcro del messaggio contenuto nella lettera è la metafora di un “paese di geni in un data center”: sistemi super-umani, continui e a bassissimo costo, che potrebbero trasformare radicalmente (e pericolosamente) la società. Per Amodei una concentrazione di capacità del genere equivale a una nuova forma di potere strategico, paragonabile a quello di uno Stato. Da qui discendono tre rischi principali. Il primo è economico-sociale: l’impatto sul lavoro impiegatizio qualificato, soprattutto nelle posizioni junior, che potrebbero essere automatizzate. Il secondo riguarda la sicurezza, in particolare nel campo della biologia, dove l’AI abbassa drasticamente la barriera tecnica per progettare molecole, simulare processi e individuare vulnerabilità. Il terzo è politico: l’uso di questi strumenti da parte di regimi autoritari apre a super sistemi di sorveglianza e controllo, mai visti nella storia. Da notare come Amodei indichi le stesse aziende di AI come potenziale fonte di rischio. Amodei denuncia l’enorme potere strutturale concentrato nei grandi laboratori di IA, che controllano data center, modelli avanzati, competenze e accesso a milioni di utenti, e che per questo dovrebbero essere sottoposti a maggiore scrutinio pubblico. I rischi crescono a causa degli incentivi economici: profitti potenziali enormi e competizione globale spingono a sviluppare modelli sempre più potenti prima che siano davvero controllabili. Anthropic afferma di affrontare il problema con la propria “Costituzione”, un insieme di principi che guida l’addestramento e la valutazione dei modelli, fissando limiti su violenza, abusi, manipolazione e autonomia decisionale tramite l’addestramento costituzionale. Per Amodei la “Costituzione” di Anthropic è necessaria ma insufficiente: senza trasparenza, test rigorosi e regole condivise tra aziende concorrenti, non basta a garantire la sicurezza. Altman, invece, vede l’IA soprattutto come un potente motore di crescita, da regolare con nuove istituzioni senza rallentarne eccessivamente lo sviluppo. Yann LeCun respinge l’idea di un rischio esistenziale imminente, sostenendo che i sistemi attuali siano lontani da una vera autonomia e che l’allarmismo distragga dai problemi concreti. Amodei riconosce questi ultimi — frodi con deepfake, disinformazione automatizzata, comportamenti opportunistici dei modelli — ma li considera solo un’anticipazione di rischi ben più gravi, se non si agirà rapidamente con una strategia condivisa tra aziende e governi. The post Il ceo di Anthropic suona l’allarme sui rischi dell’AI first appeared on Lavoratrici e Lavoratori Aci Informatica.