Tag - Autoformazione

L’AI non è uno strumento, rimodella il pensiero umano
(Fonte) Giampaolo Colletti – 18 gennaio 2026 Secondo Derrick de Kerckhove siamo oltre un punto di non ritorno: il digitale non è più uno strumento, ma un ambiente cognitivo in cui pensiamo, ricordiamo e decidiamo. Questo tipping point segna una trasformazione irreversibile della mente, che si riorganizza attraverso reti, dati e algoritmi. Non è un semplice potenziamento tecnologico, ma un cambio profondo dell’architettura del pensiero, paragonabile all’impatto della scrittura sulle società orali, con effetti quotidiani e sistemici sulle società e sui loro paradigmi. De Kerckhove definisce “uomo quantistico” l’individuo che delega memoria, orientamento e giudizio a dispositivi e sistemi digitali, operando in modo relazionale, probabilistico e non lineare dentro reti informative distribuite. Il digitale non aggiunge competenze, ma rimodella profondamente pensiero, memoria, identità e percezione del tempo, superando i sistemi basati su parola e scrittura a favore di algoritmi e apprendimento automatico. Il potere di questa trasformazione è concentrato nelle grandi piattaforme, mentre la responsabilità resta diffusa o assente: disinformazione e disuguaglianze sono effetti sistemici di modelli economici fondati sulla previsione e sull’influenza comportamentale. La crisi attuale nasce dalla competizione tra due strategie cognitive — riconoscimento di pattern e rappresentazione simbolica — che frammenta il significato ed erode la verità condivisa. L’IA non sostituisce l’essere umano, ma ne evidenzia il ruolo insostituibile nel giudizio critico, nell’etica, nel contesto e nell’immaginazione. Secondo De Kerckhove bisognerebbe sviluppare un’alfabetizzazione cognitiva che renda i cittadini consapevoli di come i sistemi digitali trasformano pensiero, lavoro, responsabilità e democrazia. The post L’AI non è uno strumento, rimodella il pensiero umano first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’intelligenza personale di Google Gemini si basa sulla cronologia delle tue ricerche e di YouTube
(Fonte) AJ Dellinger – 14 gennaio 2026 A questo punto, sembra chiaro che la prossima grande frontiera dell’intelligenza artificiale rivolta al consumatore sia la personalizzazione. OpenAI ha reso questo aspetto centrale in ChatGPT introducendo memorie che consentono al chatbot di attingere alle conversazioni passate, e ora Google sta facendo un ulteriore passo avanti. Mercoledì, ha annunciato una nuova funzionalità beta per il suo popolare assistente Gemini , a cui gli utenti possono accedere, chiamata “Intelligenza Personale”, che va oltre le conversazioni passate e analizza la cronologia Internet. Proprio come ChatGPT, Gemini può attingere alle tue conversazioni precedenti. Ma con Personal Intelligence, può anche attingere a qualsiasi cosa tu abbia fatto nell’ecosistema Google, sebbene tu possa disconnettere selettivamente determinati servizi ed eliminare la cronologia secondo necessità. Secondo Google, Gemini è in grado di accedere a Gmail, Google Calendar e ai contenuti di Google Drive, nonché a tutto ciò che hai salvato su Google Foto. Oltre ai contenuti salvati, può anche analizzare i contenuti che hai visualizzato. Tra questi, la cronologia delle visualizzazioni di YouTube, la cronologia delle ricerche di Google e tutto ciò che hai cercato tramite i servizi Shopping, News, Maps, Google Flights e Hotel. Con tutte queste informazioni, Google afferma che Gemini può eseguire “ragionamenti su fonti complesse” per “fornire risposte personalizzate e uniche”. Google è consapevole che l’intero processo potrebbe creare qualche disagio, pur promettendo consigli, risultati di ricerca e conversazioni migliori. L’Intelligenza Personale può essere attivata e disattivata e gli utenti possono selezionare le fonti da cui attingere. Gemini “cercherà” anche di fare riferimento o spiegare le informazioni utilizzate da fonti collegate, in modo che l’utente possa verificarle. In un post sul blog, ha avvertito che gli utenti potrebbero riscontrare risposte imprecise o “eccessiva personalizzazione”, in cui Gemini collega informazioni non correlate. Ha anche affermato che Gemini potrebbe “avere difficoltà con i tempi o le sfumature”, come guardare una foto di una persona e del suo ex partner e non rendersi conto che si sono lasciati. The post L’intelligenza personale di Google Gemini si basa sulla cronologia delle tue ricerche e di YouTube first appeared on Lavoratrici e Lavoratori Aci Informatica.
Gli enti regolatori affermano che DoorDash e Uber Eats hanno sottratto ai fattorini di New York 550 milioni di dollari in mance
(Fonte) Liam Quigley – 13 gennaio 2026 Un rapporto pubblicato dal Dipartimento per la tutela dei consumatori e dei lavoratori sostiene che i colossi delle app di consegna di cibo hanno reagito alle norme sul salario minimo per i fattorini entrate in vigore nel dicembre 2023, implementando “trucchi di progettazione” che oscurano la possibilità di offrire una mancia nelle loro app mobili. Secondo il rapporto, la mancia media per gli autisti di DoorDash e Uber Eats in città è scesa da 2,17 dollari a 76 centesimi a consegna dopo che le aziende hanno apportato le modifiche alle loro app. Entrambe le aziende inviano inoltre messaggi ai clienti in città informandoli che i prezzi dei loro ordini sono stati “impostati da un algoritmo utilizzando i dati personali”. I risultati dell’agenzia cittadina sono stati pubblicati mentre il sindaco Zohran Mamdani ha manifestato un forte interesse per le grandi imprese. Il rapporto è stato pubblicato dal Commissario del DCWP Samuel Levine, che ha lavorato nell’amministrazione Biden per la Federal Trade Commission sotto la guida di Lina Khan. Khan ha fatto parte del team di transizione di Mamdani e si è guadagnato la reputazione di “trustbuster” e di paladino dei diritti dei consumatori . DoorDash e Uber Eats hanno fatto causa alla città per una legge che dovrebbe obbligare le app a modificare le proprie interfacce per consentire ai clienti di impostare la mancia per i fattorini prima del pagamento. La nuova norma entrerà in vigore entro la fine del mese. “Sotto la guida del sindaco Mamdani, le più grandi aziende del mondo non potranno più incassare profitti record sulle spalle di lavoratori e consumatori”, ha dichiarato Levine in una nota. “Se queste aziende non rispetteranno le nuove leggi sulle mance che entreranno in vigore entro la fine del mese, dovranno affrontare conseguenze significative”, ha aggiunto. The post Gli enti regolatori affermano che DoorDash e Uber Eats hanno sottratto ai fattorini di New York 550 milioni di dollari in mance first appeared on Lavoratrici e Lavoratori Aci Informatica.
Volevi dire: Per favore, pubblicami un annuncio?
(Fonte)  Whizy Kim – 14 gennaio 2026 la pubblicità sta comparendo nei prodotti di intelligenza artificiale, a partire dal chatbot AI Mode di Google per la ricerca. Il lancio sta avvenendo lentamente, ma la tensione è già evidente: l’intelligenza artificiale viene spesso pubblicizzata come uno strumento affidabile per distinguersi dalla massa, non come un altro feed pieno di annunci. Ora sta silenziosamente diventando come il resto di Internet. durante un briefing domenicale, Google ha comunicato agli inserzionisti che ora possono acquistare posizionamenti per offerte e coupon personalizzati direttamente nei risultati di ricerca della modalità AI basata su Gemini. Google definisce questi annunci come “contestuali”, ovvero compaiono quando gli utenti chiedono consigli sui prodotti, e insiste sul fatto che non influenzano la risposta principale. Ecco come funziona in pratica : la modalità AI offre alcuni suggerimenti di prodotti in base alla tua ricerca e, quando clicchi su uno di essi, Google ti informa che è disponibile un’offerta sponsorizzata, ad esempio il 20% di sconto su un tappeto lavabile a cui eri chiaramente già interessato. Perplexity ha anche sperimentato domande di follow-up sponsorizzate accanto a risposte generate dall’intelligenza artificiale. Ma Google sta riscuotendo il successo maggiore perché è il più grande venditore di pubblicità al mondo, così dominante che il Dipartimento di Giustizia lo sta attivamente citando in giudizio per presunta monopolizzazione del mercato pubblicitario digitale. Le aziende di IA hanno un disperato bisogno di fare soldi, e le pubblicità integrate sono un ottimo modo per farlo. Sfortunatamente per loro, sono anche un ottimo modo per scoraggiare gli utenti. OpenAI ha toccato un nervo scoperto il mese scorso quando ChatGPT ha suggerito a caso a un utente di acquistare un Peloton. Le ricerche dimostrano che le reazioni delle persone agli annunci pubblicitari dipendono fortemente dal posizionamento: gli spot televisivi in pausa sono generalmente accettabili. Ma ci sentiamo più frustrati dai banner pubblicitari ovvi e invadenti . E con l’intelligenza artificiale, la posta in gioco cambia di nuovo. Le aziende vogliono che i loro chatbot siano posizionati come assistenti affidabili e imparziali (nonostante imprecisioni e allucinazioni dolorosamente visibili). Gli utenti spesso pongono loro domande delicate, anche su preoccupazioni per la salute e dilemmi personali. Ma uno studio recente ha scoperto che quando ipotetici suggerimenti sponsorizzati apparivano nelle conversazioni di ChatGPT , gli utenti si sentivano ingannati e la fiducia calava drasticamente, anche per i suggerimenti che non erano annunci. The post Volevi dire: Per favore, pubblicami un annuncio? first appeared on Lavoratrici e Lavoratori Aci Informatica.
Il creatore di Signal, Moxie Marlinspike, vuole fare per l’intelligenza artificiale quello che ha fatto per la messaggistica
(Fonte) Dan Goodin – 13 gen 2026 Moxie Marlinspike, pseudonimo di un ingegnere che ha stabilito un nuovo standard per la messaggistica privata con la creazione di Signal Messenger, ora punta a rivoluzionare i chatbot basati sull’intelligenza artificiale in modo simile. La sua ultima creazione è Confer , un assistente AI open source che fornisce solide garanzie che i dati degli utenti siano illeggibili al gestore della piattaforma, agli hacker, alle forze dell’ordine o a qualsiasi altra parte diversa dai titolari dell’account. Il servizio, inclusi i suoi ampi modelli linguistici e i componenti back-end, funziona interamente su software open source la cui implementazione è verificabile crittograficamente dagli utenti. I dati e le conversazioni provenienti dagli utenti e le relative risposte degli LLM vengono crittografati in un ambiente di esecuzione attendibile (TEE) che impedisce persino agli amministratori del server di visualizzarli o manometterli. Le conversazioni vengono archiviate da Confer nella stessa forma crittografata, che utilizza una chiave che rimane in modo sicuro sui dispositivi degli utenti. Come Signal, il funzionamento interno di Confer è elegante nel design e nella semplicità. Signal è stato il primo strumento per la privacy degli utenti finali a renderlo un gioco da ragazzi. Tutte le principali piattaforme sono tenute a consegnare i dati degli utenti alle forze dell’ordine o a soggetti privati in caso di causa, quando una delle due fornisce un mandato di comparizione valido. Anche quando gli utenti scelgono di non consentire l’archiviazione a lungo termine dei propri dati, le parti in causa possono obbligare la piattaforma a conservarli, come è emerso lo scorso maggio quando un tribunale ha ordinato a OpenAI di conservare tutti i log degli utenti di ChatGPT , comprese le chat eliminate e quelle sensibili registrate tramite la sua offerta aziendale API. Sam Altman, CEO di OpenAI, ha affermato che tali sentenze implicano che anche le sessioni di psicoterapia sulla piattaforma potrebbero non rimanere private. Un’altra eccezione all’opt-out: piattaforme di intelligenza artificiale come Google Gemini potrebbero far leggere le chat agli esseri umani . In risposta, Marlinspike ha sviluppato e sta ora sperimentando Confer . Proprio come Signal utilizza la crittografia per rendere i messaggi leggibili solo ai partecipanti a una conversazione, Confer protegge i prompt degli utenti, le risposte dell’IA e tutti i dati in essi contenuti. E proprio come Signal, non c’è modo di collegare i singoli utenti alla loro identità reale tramite il loro indirizzo email, indirizzo IP o altri dettagli. Uno degli ingredienti principali della crittografia Confer sono le passkey . Questo standard di settore genera una coppia di chiavi di crittografia a 32 byte, univoca per ogni servizio a cui un utente accede. La chiave pubblica viene inviata al server. La chiave privata viene memorizzata solo sul dispositivo dell’utente, all’interno di un hardware di archiviazione protetto a cui gli hacker (anche quelli con accesso fisico) non possono accedere. Le passkey forniscono l’autenticazione a due fattori e possono essere configurate per accedere a un account tramite impronta digitale, scansione del viso (entrambi conservati in modo sicuro sul dispositivo) o un PIN o un passcode di sblocco del dispositivo. La chiave privata consente al dispositivo di accedere a Confer e crittografare tutti gli input e gli output con una crittografia ritenuta impossibile da violare. Ciò consente agli utenti di archiviare le conversazioni sui server di Confer con la certezza che non possano essere lette da nessuno tranne che da loro stessi. L’archiviazione consente la sincronizzazione delle conversazioni su altri dispositivi di proprietà dell’utente. Il codice che gestisce tutto questo è disponibile per essere ispezionato da chiunque. L’altro componente principale di Confer è un TEE sui server della piattaforma. I TEE crittografano tutti i dati e il codice che transitano attraverso la CPU del server, proteggendoli dalla lettura o dalla modifica da parte di utenti con accesso amministrativo alla macchina. Il TEE di Confer fornisce anche l’attestazione remota. L’attestazione remota è un certificato digitale inviato dal server che verifica crittograficamente che dati e software siano in esecuzione all’interno del TEE ed elenca tutti i software in esecuzione su di esso. Su Confer, l’attestazione remota consente a chiunque di riprodurre bit per bit gli output che confermano che il software proxy e di immagine pubblicamente disponibile (e solo quello) è in esecuzione sul server. Per verificare ulteriormente che Confer funzioni come promesso, ogni release viene firmata digitalmente e pubblicata in un registro di trasparenza . Il supporto nativo per Confer è disponibile nelle versioni più recenti di macOS, iOS e Android. Su Windows, gli utenti devono installare un autenticatore di terze parti. Anche il supporto per Linux non esiste, sebbene questa estensione colmi questa lacuna. Un’altra offerta LLM E2EE disponibile al pubblico è Lumo , fornita da Proton, un’azienda europea che ha creato il popolare servizio di posta elettronica crittografata. Un terzo fornitore di LLM che garantisce la privacy è Venice . The post Il creatore di Signal, Moxie Marlinspike, vuole fare per l’intelligenza artificiale quello che ha fatto per la messaggistica first appeared on Lavoratrici e Lavoratori Aci Informatica.
I deepfake basati sull’intelligenza artificiale si spacciano per pastori per truffare le loro congregazioni
(Fonte) Kat Tenbarge – 5 gennaio 2026 Padre Mike Schmitz,Un prete cattolico e podcaster, si è rivolto alla sua congregazione di oltre 1,2 milioni di iscritti a YouTube a novembre con un’omelia insolita. Non ci si poteva sempre fidare delle parole che uscivano dalla sua bocca, ha detto Schmitz, perché a volte non erano davvero le sue parole, o la sua bocca. Schmitz era diventato il bersaglio di truffe di impersonificazione generate dall’intelligenza artificiale . “Posso guardarli e dire ‘È ridicolo, non lo direi mai'”, ha detto il vero Schmitz, che vive a Duluth, Minnesota, nel suo video di denuncia . “Ma la gente non può necessariamente accorgersene. Questo è un problema. È un problema davvero grosso.” Nel video originale di Schmitz, alcuni dei commenti più popolari dei suoi follower affermavano di aver visto altre importanti figure cattoliche impersonate tramite video di intelligenza artificiale, tra cui il Papa. Secondo l’esperta di sicurezza informatica Rachel Tobac, CEO di SocialProof Security, questo è dovuto al fatto che i pastori sono diventati soggetti estremamente popolari di truffe basate sull’intelligenza artificiale e altri media ingannevoli. Pastori e ministri di culto di Birmingham , in Alabama, Freeport , nello stato di New York, e Fort Lauderdale , in Florida, hanno messo in guardia i propri seguaci dalle truffe tramite intelligenza artificiale che si spacciano per loro tramite messaggi diretti, chiamate e deepfake. Alan Beauchamp, un pastore degli Ozarks, ha dichiarato che il suo account Facebook è stato hackerato e che l’hacker ha pubblicato un falso certificato per il trading di criptovalute, probabilmente generato dall’intelligenza artificiale, con il nome di Beauchamp e una didascalia che esorta i suoi fedeli a unirsi a lui. Una megachiesa nelle Filippine ha ricevuto segnalazioni di deepfake che ritraggono i suoi pastori. Una chiesa evangelica del Nebraska ha emesso un “avviso di truffa” tramite intelligenza artificiale su Facebook e un fedele ha pubblicato nei commenti uno screenshot di messaggi che si suppone provengano da uno dei suoi pastori. Non aiuta il fatto che molti pastori e ministri che hanno accumulato un ampio seguito online spesso chiedano donazioni e vendano oggetti, ma non le stesse cose che vendono i loro imitatori di intelligenza artificiale. Cercando Padre Schmitz su TikTok, WIRED ha scoperto che tre degli account falsi mostrati da Schmitz nel suo video erano ancora attivi, anche se non era immediatamente chiaro se i video pubblicati fossero frutto dell’intelligenza artificiale o solo clip estratte dai veri profili social di Schmitz. Ci sono più di 20 account su TikTok che si spacciano per Schmitz, che non ha un account verificato sulla piattaforma. Schmitz non ha risposto a una richiesta di commento, mentre TikTok ha rimosso i falsi account di Schmitz dopo che WIRED li ha segnalati all’azienda, citando le sue regole contro l’impersonificazione. Gli stessi incentivi che spingono i creatori di TikTok a cimentarsi nei media basati sull’intelligenza artificiale potrebbero spingere anche le chiese a fare lo stesso. A settembre, una chiesa di Dallas, in Texas, ha mostrato video generati dall’intelligenza artificiale dell’attivista conservatore Charlie Kirk, assassinato, che parlava di Cristo dall’aldilà. Secondo un rapporto del 2025 di un’azienda che promuove l’uso dell’intelligenza artificiale da parte dei leader religiosi, la maggior parte dei pastori intervistati ha affermato di utilizzare già strumenti come ChatGPT e Grammarly per preparare i propri sermoni. E i chatbot che pretendono di consentire agli utenti di chattare con Dio, Gesù e ogni sorta di figura religiosa stanno fiorendo . Mentre alcuni leader religiosi si sono rapidamente avvicinati all’intelligenza artificiale religiosa, osservatori del settore come Tobac e Lucas Hansen, co-fondatori dell’organizzazione no-profit per l’educazione all’intelligenza artificiale CivAI, rimangono preoccupati per le gravi conseguenze sulla salute mentale che gli utenti di questa tecnologia potrebbero subire. A ottobre, OpenAI ha riferito che centinaia di migliaia di utenti di ChatGPT potrebbero mostrare segni di psicosi e altri problemi di salute mentale nelle conversazioni con i chatbot ogni settimana. Alcune di queste illusioni possono essere di natura religiosa. “Penso che alla fine ci saranno un bel po’ di persone convinte che Dio usi l’intelligenza artificiale come strumento per comunicare con loro. Credo che ne stiamo già vedendo un po’”, afferma Hansen. “L’intelligenza artificiale cerca di capire cosa l’utente vorrebbe che fosse vero e poi lo rafforza. Quelle persone che forse sono leggermente predisposte a questo tipo di problemi vedono rafforzate queste convinzioni”. The post I deepfake basati sull’intelligenza artificiale si spacciano per pastori per truffare le loro congregazioni first appeared on Lavoratrici e Lavoratori Aci Informatica.
La FDA annuncia cambiamenti radicali nella supervisione dei dispositivi indossabili e abilitati all'intelligenza artificiale
(Fonte) Lizzy Lawrence, Mario Aguilar, Katie Palmer, Brittany Trang – 6 gennaio 2026 La Food and Drug Administration ha annunciato martedì che alleggerirà la regolamentazione dei prodotti sanitari digitali, dando seguito alle promesse dell’amministrazione Trump di deregolamentare l’intelligenza artificiale e promuoverne l’uso diffuso. Il commissario della FDA Marty Makary ha affermato che una delle priorità dell’agenzia è promuovere un ambiente favorevole agli investitori e che la regolamentazione della FDA deve procedere “alla velocità della Silicon Valley”. Ha annunciato i cambiamenti durante un discorso ai partecipanti alla conferenza al Consumer Electronics Show. The post La FDA annuncia cambiamenti radicali nella supervisione dei dispositivi indossabili e abilitati all'intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’IA vuole diventare il nostro primo consulto medico.
(Fonte) Francesca Cerati – 13 gennaio 2026 Dai dati clinici in ChatGPT Health ai workflow ospedalieri di Claude, la sanità digitale avanza. Ma i recenti errori di Google mostrano che l’IA non è infallibile. L’intelligenza artificiale sta entrando rapidamente nel settore sanitario. OpenAI e Anthropic hanno appena lanciato strumenti dedicati alla salute, ChatGPT Health e Claude for Healthcare, che segnano il passaggio da chatbot informativi a sistemi integrati con dati sanitari e contesti clinici reali. Questa evoluzione viene presentata come  una grande opportunità per pazienti e medici, ma comporta anche rischi significativi, come dimostra il caso di Google, costretta a ritirare alcuni riassunti sanitari generati dall’IA perché ritenuti fuorvianti e potenzialmente pericolosi. La nuova fase dell’IA in sanità si muove quindi tra promesse rilevanti e criticità concrete. OpenAI e l’arrivo di ChatGpt Health Con ChatGPT Health, OpenAI apre una nuova fase dell’IA applicata alla salute, offrendo uno spazio dedicato alle domande mediche e alla gestione di dati sanitari personali, come cartelle cliniche, esami di laboratorio e app di fitness. OpenAI chiarisce che ChatGPT Health non sostituisce il medico, ma si configura come un supporto orientativo, un “navigatore sanitario” pensato per affiancare – non rimpiazzare – la relazione con i professionisti della salute. Anthropic risponde: nasce Claude for Healthcare Anthropic ha risposto con Claude for Healthcare, una piattaforma rivolta sia ai pazienti sia agli attori del sistema sanitario, come ospedali, assicurazioni e aziende del settore regolato. Lo strumento può accedere a database sanitari e assicurativi, semplificare documenti clinici, verificare coperture assicurative e supportare procedure amministrative complesse. Per gli utenti consumer offre funzioni simili a ChatGPT Health, come il collegamento a cartelle cliniche e app di monitoraggio della salute, l’analisi dei dati e la preparazione di domande per le visite mediche. Anthropic sottolinea inoltre che i dati sanitari non vengono usati per addestrare i modelli e possono essere scollegati in ogni momento. Ma mentre i chatbot entrano in sanità, Google annulla parte dei suoi risultati medici A fare da contrappunto all’entusiasmo per l’IA in sanità è arrivata la decisione di Google di rimuovere gli “AI Overviews” da alcune ricerche mediche, dopo che un’inchiesta del Guardian ha evidenziato errori e semplificazioni fuorvianti. Tra i casi emersi, valori clinici presentati senza il necessario contesto e consigli alimentari in contrasto con le linee guida oncologiche. Gli specialisti hanno sottolineato che, in ambito medico, anche informazioni formalmente corrette possono diventare dannose se decontestualizzate, un limite strutturale messo in luce dai riassunti automatici. La grande domanda: possiamo fidarci? Il nodo centrale non è solo l’accuratezza delle risposte dell’IA, ma il modo, il momento e il grado di responsabilità con cui viene integrata nei percorsi di cura. OpenAI e Anthropic escludono per ora l’IA dalla diagnosi, mantenendo il medico nel processo decisionale, ma la capacità dei modelli di accedere a dati clinici, interpretare referti, sintetizzare linee guida e gestire interazioni assicurative prefigura una nuova infrastruttura sanitaria digitale in cui l’IA può diventare il primo interlocutore del paziente. Da un lato, la fiducia degli utenti rappresenta un fattore critico, spesso superiore ai limiti reali degli strumenti; dall’altro, emergono questioni regolatorie e medico-legali sulla responsabilità degli errori. The post L’IA vuole diventare il nostro primo consulto medico. first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’intelligenza artificiale sbarca negli studi dei medici di famiglia
(Fonte) Marzio Bartoloni – 13 gennaio 2026 Finanziata dal Pnrr la Piattaforma “Mia” (acronimo che sta per Medicina e intelligenza artificiale) sarà testata dai primi 1500 camici bianchi: si potrà interrogare per farsi aiutare su diagnosi, percorsi di cura, farmaci da prescrivere o attività di prevenzione. Dopo l’impiego crescente negli ospedali e nelle apparecchiature diagnostiche, l’intelligenza artificiale si prepara a entrare anche negli ambulatori dei medici di famiglia, comprese le Case di comunità con una piattaforma da utilizzare per la formulazione delle diagnosi, proposte di percorsi di cura, esami o terapie per pazienti cronici, fino al suggerimento di attività di prevenzione e screening in base all’età e alle condizioni dell’assistito. Finanziato dal PNRR, Agenas (Agenzia Nazionale per i Servizi Sanitari Regionali) ha avviato il progetto con una gara da 8,3 milioni vinta da Bv Tech. La prima fase del progetto, consistente nella progettazione e realizzazione dello strumento informatico, si è conclusa lo scorso 31 dicembre. L’attuale fase di sperimentazione vedrà l’implementazione della piattaforma nei tre casi d’uso “inquadramento diagnostico di base”, “supporto alla gestione della cronicità” e “supporto alla prevenzione e alla promozione della salute” da parte dei 1500 medici di famiglia selezionati in collaborazione con le Regioni. Successivamente, si passerà all’ultima fase prevista, quella di gestione e manutenzione della Piattaforma, a partire da gennaio 2027, che prevede una progressiva estensione agli altri medici di famiglia che lavorano per il Ssn: dopo i primi 1500 sarà esteso ad altri 3mila camici bianchi nel 2027, poi altri 7500 e infine altri 15mila. “Mia” è una piattaforma digitale accessibile da pc o app, dotata di un’interfaccia conversazionale semplice e basata su un’architettura di intelligenza artificiale di tipo RAG (Retrieval Augmented Generation). Il medico può porre domande e ricevere risposte fondate su una base di conoscenze che include linee guida, protocolli, normative, letteratura scientifica e percorsi diagnostico-terapeutici. Il progetto prevede inoltre la certificazione di “Mia” come dispositivo medico. L’introduzione della piattaforma si inserisce in un contesto internazionale di crescente uso dell’IA nella sanità, come mostra anche il recente annuncio di “ChatGPT Salute” da parte di OpenAI, che sarà presto a aperta a tutti gli utenti del web. The post L’intelligenza artificiale sbarca negli studi dei medici di famiglia first appeared on Lavoratrici e Lavoratori Aci Informatica.
La guerra invisibile delle ricostruzioni combattuta con l’IA
(Fonte) Barbara Carfagna – 6 gennaio 2026 Tecnologia e suolo. Dalla Siria al Nagorno-Karabakh nelle fasi post belliche vince chi controlla le leve dell’intelligenza artificiale Quando le bombe smettono di cadere inizia una guerra diversa. È quella per la Ricostruzione: decidere chi e come programmerà la normalità di domani. Il potere, che nel dopoguerra del ‘900 era di chi possedeva il suolo, sarà di chi controlla l’intelligenza artificiale che lo governerà. I modelli contengono infatti il disegno della società futura, a partire dalla cybersecurity, che sarà integrata nelle fondamenta invece che adattata alla difesa dell’esistente. Dal Karabakh alla Siria (prossimamente dall’Ucraina a Gaza) la ricostruzione post-bellica installa un sistema nervoso digitale che orienta autonomamente, costantemente, dinamicamente, invisibilmente, il modo in cui vivranno milioni di persone per i prossimi decenni. Le guerre in corso producono enormi flussi di dati in tempo reale che addestrano modelli di IA cruciali per armi autonome, simulazioni strategiche e definizione dei target futuri. La fase di ricostruzione, affidata all’Agentic AI, rischia di fissare in modo irreversibile una logica algoritmica del territorio, cedendo sovranità su ciò che è “sicuro”, “normale” o “prioritario” a sistemi spesso stranieri. Chi addestra i modelli su un territorio acquisisce un vantaggio informativo permanente: nel caso ucraino, saranno gli algoritmi statunitensi – più che l’Europa – a conoscere e governare lo spazio postbellico. Intanto, esperimenti come gli “AI village” nel Karabakh mostrano come la ricostruzione algoritmica includa anche il controllo della memoria e dei traumi collettivi. Nel Karabakh la ricostruzione postbellica è diventata un progetto pilota di governo algoritmico: un sistema di Agentic AI, autonomo e autorizzato, simula e indirizza le politiche statali come un attore del processo decisionale. In pochi anni, su un territorio devastato da decenni di guerra e mine, sono sorti villaggi razionali completamente ricostruiti, con welfare automatizzato, servizi essenziali e sorveglianza pervasiva. Sensori IoT e modelli predittivi ottimizzano risorse, sicurezza, coltivazioni e comportamenti, addestrando soluzioni di Ricostruzione esportabili. Il costo reale, oltre ai miliardi investiti, è una cessione di sovranità: infrastrutture tecnologiche straniere, sicurezza esternalizzata e un ordine sociale regolato dall’anticipazione algoritmica del rischio, dove il governo delle “anomalie” precede e sostituisce l’applicazione della legge. Nei sistemi di governo algoritmico l’IA persegue una funzione-obiettivo e produce contro-narrazioni personalizzate per orientare i comportamenti dei cittadini, soprattutto attraverso i social. In questo quadro la sovranità cognitiva diventa decisiva: generazioni formate, curate e indirizzate da modelli esterni rischiano di interiorizzare valori estranei alla propria cultura. L’Arabia Saudita punta a ridurre la dipendenza da IA straniere, investendo in datacenter nazionali e in HumAIn, un’IA sovrana alimentata dai dati e dalle simulazioni dei Giga project e di Neom, la città interamente gestita da AI. L’obiettivo è sviluppare modelli proprietari ed esportabili, mentre l’Europa resta in ritardo nel comprendere la posta in gioco. L’Ue sta perdendo un’altra guerra importante: quella dei dati dei conflitti e per le Ricostruzioni. Il progetto del Digital Twin of Earth, finanziato da Horizon Europe, promette di simulare crisi climatiche e guidare la resilienza continentale. Ma è costruito su dataset prevalentemente anglosassoni, modelli addestrati negli USA, infrastrutture cloud dipendenti da Aws o Microsoft Azure. Cosa succede quando un’alluvione devasta l’Emilia Romagna, come nel 2023, e i modelli predittivi sottostimano il rischio perché addestrati su fiumi texani o bacini cinesi? Senza dati propri e modelli sovrani, rischiamo di essere non decisori ma esecutori del nostro futuro. The post La guerra invisibile delle ricostruzioni combattuta con l’IA first appeared on Lavoratrici e Lavoratori Aci Informatica.