Tag - Ai&Privacy

Intelligenza artificiale, la Ue rinvia e semplifica le norme
(Fonte) Beda Romano – 19 novembre 2025 L’Unione Europea sta accelerando su nuovi pacchetti legislativi pensati per semplificare le norme in vari settori. Nel digitale, la Commissione europea ha presentato modifiche che includono, per l’intelligenza artificiale, la proposta di rinviare fino a 16 mesi l’entrata in vigore delle norme dell’AI Act relative agli usi considerati ad alto rischio. Il regolamento europeo sull’intelligenza artificiale (AI Act), in vigore da agosto 2024 e pienamente applicabile da agosto 2026, stabilisce un sistema di classificazione degli usi dell’IA basato sul rischio. Sono vietati gli utilizzi considerati inaccettabili perché pericolosi per la sicurezza, la vita o i diritti delle persone. Gli altri impieghi sono suddivisi in tre livelli — rischio alto, limitato e minimo — con la categoria ad alto rischio che include, tra l’altro, l’erogazione dei servizi essenziali. In un comunicato diffuso ieri, la Commissione europea ha proposto di rinviare di massimo 16 mesi — quindi fino a dicembre 2027 — l’applicazione delle norme dell’AI Act relative agli usi ad alto rischio ovvero «una volta che l’esecutivo comunitario potrà toccare con mano la disponibilità degli standard e degli strumenti di sostegno necessari» e che le imprese potranno applicare pienamente le nuove regole europee. Da tempo a Bruxelles si discuteva di un possibile rinvio dell’AI Act, sostenuto da chi chiedeva regole meno stringenti per permettere alle aziende europee di competere con quelle statunitensi e cinesi. Il rinvio è ora stato deciso, anche se ufficialmente motivato dalla necessità di disporre di standard tecnici realmente applicabili. Oltre al posticipo, la Commissione europea ha inoltre proposto modifiche di carattere più sostanziale al regolamento. La Commissione propone, tra le varie modifiche, di ampliare le semplificazioni già previste per le piccole e medie imprese e per le small mid-cap, introducendo requisiti tecnici e documentali più leggeri che dovrebbero generare risparmi stimati in almeno 225 milioni di euro l’anno. Sono previste inoltre modifiche a diversi testi legislativi, tra cui il GDPR, il regolamento europeo sulla protezione dei dati personali online. La Commissione europea propone di modificare le regole sui cookie per ridurre l’eccesso di pop-up, consentendo ai siti di memorizzare stabilmente le preferenze degli utenti. Ha inoltre suggerito cambiamenti al Data Act, introducendo esenzioni mirate per agevolare la migrazione delle PMI e delle small mid-cap verso servizi cloud, per facilitare l’accesso ai dati generati tramite sistemi di intelligenza artificiale. The post Intelligenza artificiale, la Ue rinvia e semplifica le norme first appeared on Lavoratrici e Lavoratori Aci Informatica.
La FTC sta facendo sparire i post del blog sull’intelligenza artificiale pubblicati durante il mandato di Lina Khan
(Fonte) Lauren Goode & Makena Kelly – 20 ottobre 2025 A fine luglioNel 2024, Lina Khan , allora presidente della Federal Trade Commission degli Stati Uniti, tenne un discorso a un evento organizzato dall’acceleratore di startup di San Francisco Y Combinator, in cui si posizionò come sostenitrice dell’intelligenza artificiale open source. Nei giorni precedenti l’evento, lo staff di Khan ha pubblicato un blog sul sito web dell’agenzia, sottolineando punti di discussione simili. L’articolo sottolineava che il termine “open source” era stato utilizzato per descrivere modelli di intelligenza artificiale con una varietà di caratteristiche diverse. Gli autori hanno invece suggerito di adottare il termine “open-weight”, ovvero un modello i cui pesi di addestramento sono resi pubblici, consentendo a chiunque di ispezionarli, modificarli o riutilizzarli. Da allora, l’amministrazione Trump ha rimosso quel post dal blog, secondo quanto riferito a WIRED da due fonti a conoscenza della questione. La Wayback Machine dell’Internet Archive mostra che il blog della FTC del 10 luglio 2024 intitolato “On Open-Weights Foundation Models” è stato reindirizzato il 1° settembre di quest’anno a una landing page dell’Office of Technology della FTC. Un altro post dell’ottobre 2023 intitolato “I consumatori esprimono preoccupazione per l’intelligenza artificiale”, scritto da due esperti di tecnologia della FTC, ora reindirizza in modo simile alla landing page dell’Office of Technology dell’agenzia. Secondo Wayback Machine, il reindirizzamento è avvenuto a fine agosto di quest’anno. Un terzo post della FTC sull’intelligenza artificiale, scritto dallo staff di Khan e pubblicato il 3 gennaio 2025, intitolato “IA e il rischio di danni ai consumatori”, ora porta a una schermata di errore che dice “Pagina non trovata”. Nel post originale, lo staff di Khan aveva scritto che l’agenzia stava “prendendo sempre più atto del potenziale dell’IA per casi di danno nel mondo reale, dall’incentivare la sorveglianza commerciale al consentire frodi e impersonificazioni fino al perpetuare discriminazioni illegali”. Non è chiaro perché i post del blog siano stati rimossi da internet. Un portavoce della FTC non ha risposto alla richiesta di commento. Khan, tramite un portavoce, ha rifiutato di commentare. Il piano d’azione sull’intelligenza artificiale dell’amministrazione Trump di luglio sostiene che “dobbiamo garantire che l’America abbia modelli aperti all’avanguardia fondati sui valori americani” e che “il governo federale dovrebbe creare un ambiente favorevole ai modelli aperti”. (La FTC non ha risposto alle domande sul fatto che queste eliminazioni rappresentino un cambiamento di politica.) Da quando il presidente Trump è tornato alla Casa Bianca a gennaio, la FTC ha rimosso centinaia di blog e linee guida aziendali per il settore tecnologico pubblicati durante il mandato di Khan, come riportato in precedenza da WIRED . A marzo, la FTC ha rimosso circa 300 post relativi all’intelligenza artificiale, alla tutela dei consumatori e alle cause legali intentate dall’agenzia contro giganti della tecnologia come Amazon e Microsoft. Un post intitolato ” The Luring Test: AI and the engineering of consumer trust ” offriva indicazioni alle aziende tecnologiche su come evitare di sviluppare chatbot di intelligenza artificiale ingannevoli. Il post del blog aveva vinto un premio dall’Aspen Institute nel 2023 per le sue descrizioni accessibili dell’intelligenza artificiale. Una fonte della FTC ha dichiarato a WIRED a marzo che la rimozione di post di blog pubblici “solleva gravi problemi di conformità ai sensi del Federal Records Act e dell’Open Government Data Act”, che impongono alle agenzie governative di conservare i documenti che hanno valore amministrativo, legale o storico e di renderli accessibili al pubblico. The post La FTC sta facendo sparire i post del blog sull’intelligenza artificiale pubblicati durante il mandato di Lina Khan first appeared on Lavoratrici e Lavoratori Aci Informatica.
I browser AI sono qui, e così anche gli aggressori
(Fonte) Eoin Higgins – 9 ottobre 2025 Un browser basato sull’intelligenza artificiale agentica potrebbe occuparsi dell’acquisto di biglietti aerei, della fissazione di appuntamenti e aprire le porte agli autori delle minacce. Una nuova ricerca condotta da SquareX, azienda specializzata in rilevamento e risposta dei browser, mostra come gli agenti del browser AI Comet possano essere utilizzati dagli aggressori per accedere alle informazioni degli account e alle caselle di posta elettronica. Agli agenti vengono forniti comandi e autorizzazioni che possono consentire ai malintenzionati di trovare il modo di accedere alle tue informazioni private. Aspettativa/realtà. Audrey Adeline, membro dello SquareX Founder’s Office, ha dichiarato a IT Brew che, sebbene i browser basati sull’intelligenza artificiale siano molto promettenti, le scoperte dei ricercatori dovrebbero servire da monito. “Poiché si tratta di una tecnologia ancora nuova, ci sono ancora molte vulnerabilità architetturali che non sono state ancora risolte”, ha affermato Adeline. In un video dimostrativo condiviso da Adeline con IT Brew, i ricercatori di SquareX hanno mostrato come un agente potrebbe consentire agli aggressori di accedere ai propri account. Nello scenario, all’agente Comet viene chiesto di ricercare e compilare dati per un progetto. Nel farlo, incontra un’app di condivisione file che richiede l’autorizzazione per leggere e accedere all’account Google e all’email dell’utente. L’agente consente l’accesso perché sta seguendo altre istruzioni; gli aggressori potrebbero utilizzare questa e altre tattiche per infiltrarsi nei sistemi. The post I browser AI sono qui, e così anche gli aggressori first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’industria sta mettendo al lavoro l’intelligenza artificiale prima di costruire garanzie etiche
(Fonte) Caitlin Wolper Phillips – 9 ottobre 2025 Secondo un recente studio condotto da SAS, azienda specializzata in soluzioni di analisi, dati e intelligenza artificiale, circa il 78% delle organizzazioni afferma di fidarsi pienamente dell’intelligenza artificiale, ma solo il 40% di esse investe in misure di sicurezza etiche. Udo Sglavo, vicepresidente della ricerca e sviluppo sull’intelligenza artificiale applicata e sulla modellazione presso SAS, ha affermato che ci sono due motivi per cui le aziende non investono nell’intelligenza artificiale etica: * Sono ancora al “livello concettuale” dell’implementazione dell’intelligenza artificiale e non hanno considerato cosa fare e cosa non fare, né il potenziale impatto. * L’implementazione è complessa. Richiede notevole esperienza e intuizione, oltre agli strumenti giusti. Le organizzazioni che investono meno nella supervisione etica sono quelle che hanno più fiducia in GenAI, il 200% in più rispetto al machine learning tradizionale. La creazione di un quadro di controllo etico “deve avvenire ancora prima di scrivere la prima riga di codice”, ha affermato Sglavo. “La prima cosa da dire è: ‘Bene, parliamo delle questioni normative e del loro impatto etico, e rendiamolo parte del percorso'”, ha affermato Sglavo. Costruire questo framework fin dall’inizio garantisce che, quando le aziende dovranno adattarsi in seguito a nuovi framework o esigenze, siano preparate, invece di dover costruire al volo. The post L’industria sta mettendo al lavoro l’intelligenza artificiale prima di costruire garanzie etiche first appeared on Lavoratrici e Lavoratori Aci Informatica.
Perché la tua azienda dovrebbe prendere in considerazione l’intelligenza artificiale etica
(Fonte) Nat Rubio-Licht – 4 agosto 2025 Sebbene gran parte del dibattito sull’intelligenza artificiale verta su cosa possiamo farne, la domanda più importante potrebbe essere cosa non dovremmo fare. Con l’impeto dello sviluppo nel settore dell’intelligenza artificiale, le aziende si stanno interrogando su come considerare l’etica della tecnologia durante l’implementazione. E non dare priorità agli standard etici può portare a ben più di una semplice cattiva pubblicità, ha dichiarato a CIO Upside Walter Sun, SVP e responsabile globale dell’intelligenza artificiale di SAP. “In che modo questa intelligenza artificiale aiuta il cliente, l’utente, il dipendente della mia azienda, invece di sostituirla?”, ha detto Sun. “Non ci si può permettere di automatizzare tutto, perché le cose possono andare fuori controllo. È necessario che ci sia qualcuno responsabile.” Testare nuove tecnologie può essere un’impresa entusiasmante per un’azienda, ha affermato Sun. Ma con qualsiasi nuova implementazione, gli standard etici devono essere presi in considerazione fin dall’inizio. A volte, si comincia dalle basi. “Spero che la maggior parte delle aziende… abbia questa idea di bussola morale”, ha detto. “Che dica: ‘Ehi, abbiamo questi obiettivi non negoziabili. Non stiamo usando l’intelligenza artificiale per fare X, Y e Z’. Che si tratti di danneggiare l’ambiente o di fare cose negative per la società”. Come può un’impresa iniziare a pensare all’etica? Tutto inizia con le “Tre R”, ha detto Sun: “rilevante, affidabile e responsabile”. * L’intelligenza artificiale rilevante si basa sull’offrire un valore reale ai clienti, ha affermato Sun, ottimizzando i risultati aziendali “sulla base di dati reali”. L’intelligenza artificiale affidabile, invece, si basa sull’avere “i dati giusti per i modelli giusti”. Ciò significa garantire che i set di dati siano puliti, imparziali e conformi agli standard di sicurezza. * L’intelligenza artificiale responsabile consiste nel mettere in discussione tutto ciò che può andare storto in un’implementazione di intelligenza artificiale. Ciò include la valutazione di problemi di sicurezza dei dati, pregiudizi o casi d’uso che si rivelano dannosi per l’operatore. Oltre a questo, un buon punto di partenza sono le linee guida pubbliche emanate dalle organizzazioni non profit, ha affermato Sun. L’UNESCO , ad esempio, offre 10 principi guida per l’adozione etica dell’intelligenza artificiale, con cui SAP si allinea, ha osservato Sun. Anche le aziende possono aderire ai principi pubblici, combinandoli con la definizione di standard propri. Se si trascurano queste considerazioni in nome del progresso, le conseguenze possono essere pericolose. L’intelligenza artificiale tende a inciampare nei bias presenti nei suoi dati di addestramento e ad apprendere strada facendo. Senza il monitoraggio e la messa in discussione delle decisioni di un modello, questi bias possono passare inosservati, portando a discriminazioni nei risultati aziendali, ha affermato Sun. “Oltre all’intelligenza artificiale, c’è l’idea generale di spiegabilità e trasparenza”, ha affermato Sun. “Penso che siano aspetti importanti in tutti i settori aziendali”. The post Perché la tua azienda dovrebbe prendere in considerazione l’intelligenza artificiale etica first appeared on Lavoratrici e Lavoratori Aci Informatica.
Embeddare Meta AI su WhatsApp è stato un abuso da parte del gruppo di Zuckerberg? L’Antitrust italiano indaga sulla multinazionale
(Fonte) Riccardo Piccolo – 30 luglio 2025 L’Autorità ha avviato un procedimento contro Meta Platforms Inc., Meta Platforms Ireland Limited, WhatsApp Ireland Limited e Facebook Italy srl per aver abbinato, dal marzo 2025 il servizio di messaggistica WhatsApp con il proprio servizio di intelligenza artificiale Meta AI tramite pre-installazione, che gli utenti non possono eliminare. La società di Mark Zuckerberg è accusata di aver violato l’articolo 102 del Trattato dell’Ue in quanto avrebbe costretto gli utenti ad accettare entrambi i servizi senza una concorrenza basata sui meriti. L’indagine si svolge in stretta cooperazione con la Commissione europea. Questa pratica si chiama tying ed è considerata illegale quando attuata da un’impresa dominante. Il tying consiste nel legare due prodotti o servizi distinti, costringendo chi vuole acquistare il primo ad accettare anche il secondo. Tale pratica è particolarmente grave in quanto Meta controlla il 90% del mercato italiano della messaggistica attraverso WhatsApp, detenendo una posizione dominante che le consente di trasferire automaticamente milioni di utenti dal mercato delle comunicazioni a quello emergente dell’intelligenza artificiale. Inoltre c’è la questione della gestione dei dati degli utenti. Meta ammette di usare i dati per l’addestramento dei modelli, sfruttando le loro conversazioni per rafforzare ulteriormente il servizio. Un portavoce di Meta ha commentato: “Offrire accesso gratuito alle nostre funzionalità di intelligenza artificiale su WhatsApp dà a milioni di italiani la possibilità di scegliere di usare l’IA in un ambiente che già conoscono, di cui si fidano e che comprendono. Stiamo collaborando pienamente con l’Autorità italiana garante della concorrenza”. Il procedimento  si concluderà entro il 31 dicembre 2026 e potrebbe sfociare in sanzioni fino a 15 miliardi di euro. L’inchiesta si colloca in un quadro di crescente frizione tra la società e le autorità europee. Meta ha già deciso di non aderire al codice di condotta volontario promosso dall’Unione europea sull’intelligenza artificiale nell’alveo dell’AI Act. The post Embeddare Meta AI su WhatsApp è stato un abuso da parte del gruppo di Zuckerberg? L’Antitrust italiano indaga sulla multinazionale first appeared on Lavoratrici e Lavoratori Aci Informatica.