Tag - Ai&Salute

La FDA annuncia cambiamenti radicali nella supervisione dei dispositivi indossabili e abilitati all'intelligenza artificiale
(Fonte) Lizzy Lawrence, Mario Aguilar, Katie Palmer, Brittany Trang – 6 gennaio 2026 La Food and Drug Administration ha annunciato martedì che alleggerirà la regolamentazione dei prodotti sanitari digitali, dando seguito alle promesse dell’amministrazione Trump di deregolamentare l’intelligenza artificiale e promuoverne l’uso diffuso. Il commissario della FDA Marty Makary ha affermato che una delle priorità dell’agenzia è promuovere un ambiente favorevole agli investitori e che la regolamentazione della FDA deve procedere “alla velocità della Silicon Valley”. Ha annunciato i cambiamenti durante un discorso ai partecipanti alla conferenza al Consumer Electronics Show. The post La FDA annuncia cambiamenti radicali nella supervisione dei dispositivi indossabili e abilitati all'intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’IA vuole diventare il nostro primo consulto medico.
(Fonte) Francesca Cerati – 13 gennaio 2026 Dai dati clinici in ChatGPT Health ai workflow ospedalieri di Claude, la sanità digitale avanza. Ma i recenti errori di Google mostrano che l’IA non è infallibile. L’intelligenza artificiale sta entrando rapidamente nel settore sanitario. OpenAI e Anthropic hanno appena lanciato strumenti dedicati alla salute, ChatGPT Health e Claude for Healthcare, che segnano il passaggio da chatbot informativi a sistemi integrati con dati sanitari e contesti clinici reali. Questa evoluzione viene presentata come  una grande opportunità per pazienti e medici, ma comporta anche rischi significativi, come dimostra il caso di Google, costretta a ritirare alcuni riassunti sanitari generati dall’IA perché ritenuti fuorvianti e potenzialmente pericolosi. La nuova fase dell’IA in sanità si muove quindi tra promesse rilevanti e criticità concrete. OpenAI e l’arrivo di ChatGpt Health Con ChatGPT Health, OpenAI apre una nuova fase dell’IA applicata alla salute, offrendo uno spazio dedicato alle domande mediche e alla gestione di dati sanitari personali, come cartelle cliniche, esami di laboratorio e app di fitness. OpenAI chiarisce che ChatGPT Health non sostituisce il medico, ma si configura come un supporto orientativo, un “navigatore sanitario” pensato per affiancare – non rimpiazzare – la relazione con i professionisti della salute. Anthropic risponde: nasce Claude for Healthcare Anthropic ha risposto con Claude for Healthcare, una piattaforma rivolta sia ai pazienti sia agli attori del sistema sanitario, come ospedali, assicurazioni e aziende del settore regolato. Lo strumento può accedere a database sanitari e assicurativi, semplificare documenti clinici, verificare coperture assicurative e supportare procedure amministrative complesse. Per gli utenti consumer offre funzioni simili a ChatGPT Health, come il collegamento a cartelle cliniche e app di monitoraggio della salute, l’analisi dei dati e la preparazione di domande per le visite mediche. Anthropic sottolinea inoltre che i dati sanitari non vengono usati per addestrare i modelli e possono essere scollegati in ogni momento. Ma mentre i chatbot entrano in sanità, Google annulla parte dei suoi risultati medici A fare da contrappunto all’entusiasmo per l’IA in sanità è arrivata la decisione di Google di rimuovere gli “AI Overviews” da alcune ricerche mediche, dopo che un’inchiesta del Guardian ha evidenziato errori e semplificazioni fuorvianti. Tra i casi emersi, valori clinici presentati senza il necessario contesto e consigli alimentari in contrasto con le linee guida oncologiche. Gli specialisti hanno sottolineato che, in ambito medico, anche informazioni formalmente corrette possono diventare dannose se decontestualizzate, un limite strutturale messo in luce dai riassunti automatici. La grande domanda: possiamo fidarci? Il nodo centrale non è solo l’accuratezza delle risposte dell’IA, ma il modo, il momento e il grado di responsabilità con cui viene integrata nei percorsi di cura. OpenAI e Anthropic escludono per ora l’IA dalla diagnosi, mantenendo il medico nel processo decisionale, ma la capacità dei modelli di accedere a dati clinici, interpretare referti, sintetizzare linee guida e gestire interazioni assicurative prefigura una nuova infrastruttura sanitaria digitale in cui l’IA può diventare il primo interlocutore del paziente. Da un lato, la fiducia degli utenti rappresenta un fattore critico, spesso superiore ai limiti reali degli strumenti; dall’altro, emergono questioni regolatorie e medico-legali sulla responsabilità degli errori. The post L’IA vuole diventare il nostro primo consulto medico. first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’intelligenza artificiale sbarca negli studi dei medici di famiglia
(Fonte) Marzio Bartoloni – 13 gennaio 2026 Finanziata dal Pnrr la Piattaforma “Mia” (acronimo che sta per Medicina e intelligenza artificiale) sarà testata dai primi 1500 camici bianchi: si potrà interrogare per farsi aiutare su diagnosi, percorsi di cura, farmaci da prescrivere o attività di prevenzione. Dopo l’impiego crescente negli ospedali e nelle apparecchiature diagnostiche, l’intelligenza artificiale si prepara a entrare anche negli ambulatori dei medici di famiglia, comprese le Case di comunità con una piattaforma da utilizzare per la formulazione delle diagnosi, proposte di percorsi di cura, esami o terapie per pazienti cronici, fino al suggerimento di attività di prevenzione e screening in base all’età e alle condizioni dell’assistito. Finanziato dal PNRR, Agenas (Agenzia Nazionale per i Servizi Sanitari Regionali) ha avviato il progetto con una gara da 8,3 milioni vinta da Bv Tech. La prima fase del progetto, consistente nella progettazione e realizzazione dello strumento informatico, si è conclusa lo scorso 31 dicembre. L’attuale fase di sperimentazione vedrà l’implementazione della piattaforma nei tre casi d’uso “inquadramento diagnostico di base”, “supporto alla gestione della cronicità” e “supporto alla prevenzione e alla promozione della salute” da parte dei 1500 medici di famiglia selezionati in collaborazione con le Regioni. Successivamente, si passerà all’ultima fase prevista, quella di gestione e manutenzione della Piattaforma, a partire da gennaio 2027, che prevede una progressiva estensione agli altri medici di famiglia che lavorano per il Ssn: dopo i primi 1500 sarà esteso ad altri 3mila camici bianchi nel 2027, poi altri 7500 e infine altri 15mila. “Mia” è una piattaforma digitale accessibile da pc o app, dotata di un’interfaccia conversazionale semplice e basata su un’architettura di intelligenza artificiale di tipo RAG (Retrieval Augmented Generation). Il medico può porre domande e ricevere risposte fondate su una base di conoscenze che include linee guida, protocolli, normative, letteratura scientifica e percorsi diagnostico-terapeutici. Il progetto prevede inoltre la certificazione di “Mia” come dispositivo medico. L’introduzione della piattaforma si inserisce in un contesto internazionale di crescente uso dell’IA nella sanità, come mostra anche il recente annuncio di “ChatGPT Salute” da parte di OpenAI, che sarà presto a aperta a tutti gli utenti del web. The post L’intelligenza artificiale sbarca negli studi dei medici di famiglia first appeared on Lavoratrici e Lavoratori Aci Informatica.
OpenAI afferma che centinaia di migliaia di utenti di ChatGPT potrebbero mostrare segni di crisi maniacali o psicotiche ogni settimana
(Fonte) Louise Matsakis – 27 ottobre 2025, ore 13:00 Per la prima volta in assoluto, OpenAI ha pubblicato una stima approssimativa di quanti utenti di ChatGPT a livello globale potrebbero mostrare segni di una grave crisi di salute mentale in una settimana tipo. Lunedì, l’azienda ha dichiarato di aver collaborato con esperti di tutto il mondo per aggiornare il chatbot in modo che possa riconoscere in modo più affidabile gli indicatori di disagio mentale e guidare gli utenti verso un supporto concreto. Negli ultimi mesi, un numero crescente di persone è finito in ospedale, ha divorziato o è morto dopo aver avuto lunghe e intense conversazioni con ChatGPT. Alcuni dei loro cari sostengono che il chatbot abbia alimentato i loro deliri e la loro paranoia. Psichiatri e altri professionisti della salute mentale hanno espresso preoccupazione per il fenomeno , a volte definito “psicosi da intelligenza artificiale”, ma finora non erano disponibili dati affidabili sulla sua diffusione. In una determinata settimana, OpenAI ha stimato che circa lo 0,07 percento degli utenti attivi di ChatGPT mostra “possibili segni di emergenze di salute mentale legate a psicosi o mania” e lo 0,15 percento “ha conversazioni che includono indicatori espliciti di potenziali intenzioni o piani suicidi”. OpenAI ha anche analizzato la percentuale di utenti di ChatGPT che sembrano essere eccessivamente dipendenti emotivamente dal chatbot “a scapito delle relazioni nel mondo reale, del loro benessere o dei loro obblighi”. Ha scoperto che circa lo 0,15% degli utenti attivi mostra comportamenti che indicano potenziali “livelli elevati” di attaccamento emotivo a ChatGPT ogni settimana. L’azienda avverte che questi messaggi possono essere difficili da rilevare e misurare, data la loro relativa rarità, e che potrebbe esserci una certa sovrapposizione tra le tre categorie. Il CEO di OpenAI, Sam Altman, ha dichiarato all’inizio di questo mese che ChatGPT conta ora 800 milioni di utenti attivi settimanali. Le stime dell’azienda suggeriscono quindi che ogni sette giorni circa 560.000 persone potrebbero scambiare messaggi con ChatGPT indicando di essere in preda a stati maniacali o psicotici. Circa 1,2 milioni di persone potrebbero esprimere pensieri suicidi e altri 1,2 milioni potrebbero dare priorità al contatto con ChatGPT rispetto ai propri cari, alla scuola o al lavoro. The post OpenAI afferma che centinaia di migliaia di utenti di ChatGPT potrebbero mostrare segni di crisi maniacali o psicotiche ogni settimana first appeared on Lavoratrici e Lavoratori Aci Informatica.
La California diventa il primo stato a regolamentare i chatbot di accompagnamento basati sull’intelligenza artificiale
(Fonte) Rebecca Bellan – 13 ottobre 2025 Lunedì il governatore della California, Gavin Newsom, ha firmato un disegno di legge storico che regolamenta i chatbot di intelligenza artificiale , rendendolo il primo stato della nazione a richiedere agli operatori di chatbot di intelligenza artificiale di implementare protocolli di sicurezza per i loro compagni. La legge, SB 243, è stata concepita per proteggere i bambini e gli utenti vulnerabili da alcuni dei danni associati all’uso di chatbot di accompagnamento basati sull’intelligenza artificiale. Ritiene le aziende – dai grandi laboratori come Meta e OpenAI alle startup più specializzate in questo ambito come Character AI e Replika – legalmente responsabili se i loro chatbot non soddisfano gli standard di legge. La legge risponde anche a  documenti interni trapelati  che, a quanto pare, mostravano che ai chatbot di Meta era consentito di intrattenere chat “romantiche” e “sensuali” con i bambini. Più recentemente, una famiglia del Colorado ha intentato una causa contro la startup di giochi di ruolo Character AI dopo che la figlia tredicenne si è tolta la vita in seguito a una serie di conversazioni problematiche e a sfondo sessuale con i chatbot dell’azienda. La SB 243 entrerà in vigore il 1° gennaio 2026 e richiederà alle aziende di implementare alcune funzionalità, come la verifica dell’età e avvisi relativi ai social media e ai chatbot di accompagnamento. La legge prevede inoltre sanzioni più severe per chi trae profitto da deepfake illegali, fino a 250.000 dollari per reato. Le aziende dovranno inoltre stabilire protocolli per contrastare il suicidio e l’autolesionismo, che saranno condivisi con il Dipartimento di Salute Pubblica dello Stato, insieme a statistiche su come il servizio ha fornito agli utenti notifiche di prevenzione al centro di crisi. La SB 243 è la seconda importante regolamentazione in materia di intelligenza artificiale emanata dalla California nelle ultime settimane. Il 29 settembre, il governatore Newsom ha firmato la SB 53 , stabilendo nuovi requisiti di trasparenza per le grandi aziende di intelligenza artificiale. Il disegno di legge impone ai grandi laboratori di intelligenza artificiale, come OpenAI, Anthropic, Meta e Google DeepMind, di essere trasparenti sui protocolli di sicurezza. Garantisce inoltre la protezione dei dipendenti di tali aziende da parte dei whistleblower. Altri stati, come Illinois, Nevada e Utah, hanno approvato leggi per limitare o vietare completamente l’uso di chatbot basati sull’intelligenza artificiale come sostituti dell’assistenza sanitaria mentale autorizzata. The post La California diventa il primo stato a regolamentare i chatbot di accompagnamento basati sull’intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.
Se l’intelligenza artificiale può diagnosticare i pazienti, a cosa servono i medici?
(Fonte) Dhruv Khullar – 22 settembre 2025 I grandi modelli linguistici stanno trasformando la medicina, ma questa tecnologia ha i suoi effetti collaterali. I sondaggi hanno suggerito che molte persone hanno più fiducia nelle diagnosi fornite dall’intelligenza artificiale che in quelle fornite dai professionisti. Nel frattempo, solo negli Stati Uniti, le diagnosi errate rendono invalide centinaia di migliaia di persone ogni anno; studi autoptici suggeriscono che contribuiscano a circa un decesso su dieci. All’inizio del Novecento, Richard Cabot, medico del Massachusetts General Hospital, iniziò a tenere seminari per dimostrare il ragionamento clinico ai tirocinanti. Un medico esperto riceveva la cartella clinica di un ex paziente e si informava per ottenere maggiori dettagli sul caso. Se le informazioni fossero state disponibili durante il ricovero ospedaliero del paziente, sarebbero state rivelate. Gradualmente, il medico si avvicinava a una diagnosi che poteva essere confrontata con le conclusioni finali dei patologi, spesso durante un’autopsia. Le conferenze clinico-patologiche, o CPC, come vennero chiamate, divennero così popolari che il New England Journal of Medicine ne pubblica le trascrizioni da oltre un secolo. Rappresentano un gold standard del ragionamento diagnostico: se si riesce a risolvere una CPC, si può risolvere quasi ogni caso. I CPC hanno anche ispirato molti sforzi per insegnare la medicina alle macchine. Alla fine degli anni Cinquanta, un informatico e un radiologo raggrupparono i casi in base a sintomi e patologie. Proposero che un programma informatico potesse analizzarli utilizzando strumenti matematici come la logica e la teoria dei giochi. “I computer sono particolarmente adatti ad aiutare il medico a raccogliere ed elaborare informazioni cliniche e a ricordargli diagnosi che potrebbero aver trascurato”, scrissero in un articolo fondamentale su Science . Negli anni Settanta, un informatico dell’Università di Pittsburgh sviluppò un programma chiamato INTERNIST-1 , basato su una serie di conversazioni con un brillante e intimidatorio medico di nome Jack Myers. (Myers era noto come Black Jack, perché aveva bocciato molti nuovi medici durante gli esami di abilitazione.) Myers “scelse un buon numero” di CPC per dimostrare il suo ragionamento; INTERNIST-1 alla fine si dimostrò efficace quanto alcuni medici su una varietà di casi. Ma i dettagli di un caso dovevano essere inseriti meticolosamente nel computer, quindi ogni analisi poteva richiedere più di un’ora. I ricercatori hanno concluso che “la forma attuale del programma non è sufficientemente affidabile per le applicazioni cliniche”. Poi sono arrivati i grandi modelli linguistici. L’anno scorso, Arjun Manrai, informatico di Harvard, e Thomas Buckley, dottorando nel nuovo programma di intelligenza artificiale in medicina dell’università, hanno iniziato a lavorare su uno strumento didattico e di ricerca che avrebbe dovuto essere in grado di risolvere praticamente qualsiasi CPC. Doveva essere in grado di citare la letteratura, spiegarne la logica e aiutare i medici a riflettere su un caso difficile. Manrai e Buckley hanno sviluppato una versione personalizzata di o3, un “modello di ragionamento” avanzato di OpenAI, che si prende il tempo di scomporre i problemi complessi in fasi intermedie prima di rispondere. Un processo noto come generazione aumentata dal recupero, o RAG , estrae i dati da fonti esterne prima che l’intelligenza artificiale elabori la sua risposta. Il loro modello è un po’ come uno studente che consulta un libro di testo per scrivere un articolo invece di scrivere a memoria. Hanno chiamato l’intelligenza artificiale CaBot, in onore dell’inventore dei CPC. A luglio, mi sono recato alla Countway Library of Medicine di Harvard per assistere a uno scontro tra CaBot e un esperto diagnostico. L’evento mi ha ricordato la partita a scacchi del 1997 tra il grande maestro Garry Kasparov e Deep Blue, il supercomputer IBM che alla fine lo sconfisse.  Daniel Restrepo, un internista del Massachusetts General Hospital che era stato uno dei miei compagni di corso durante la specializzazione, avrebbe gareggiato contro CaBot. Manrai ha presentato il caso del giorno: un uomo di quarantun anni che era arrivato in ospedale dopo circa dieci giorni di febbre, dolori muscolari e caviglie gonfie. L’uomo aveva una dolorosa eruzione cutanea sugli stinchi ed era svenuto due volte. Qualche mese prima, i medici gli avevano inserito uno stent nel cuore. Una TAC ha mostrato noduli polmonari e linfonodi ingrossati nel torace dell’uomo. Restrepo (dopo vari arguti ragionamenti) ha sentenziato “Sindrome di Löfgren”. La Löfgren è una rara manifestazione della sarcoidosi, una condizione infiammatoria. Abbiamo appreso che l’uomo aveva assunto steroidi, che sopprimono l’infiammazione, durante il ricovero in ospedale. Era migliorato, il che suggerisce che la diagnosi fosse corretta. Il pubblico applaudì. Manrai tornò sul podio. Restrepo aveva avuto sei settimane per preparare la sua presentazione, spiegò con un sorriso. “Il Dott. CaBot ha avuto sei minuti”, disse. Una diapositiva, generata dall’intelligenza artificiale, apparve sullo schermo. Era intitolata “Quando caviglie, nodi e sincope si scontrano”. Manrai premette Play e si sedette. Una voce femminile, il cui stile e cadenza erano indistinguibili da quelli dei medici umani, iniziò a esaminare i farmaci e la storia clinica del paziente. “Riassumendo”, ha detto CaBot (dopo vari arguti ragionamenti), “la diagnosi più adatta è la sarcoidosi acuta, che si manifesta come sindrome di Löfgren”. l successo di CaBot è in contrasto con ciò che alcuni pazienti sperimentano quando consultano i chatbot. Uno studio recente ha rilevato che GPT-4 di OpenAI ha risposto in modo errato a domande mediche aperte in circa due terzi dei casi. In un altro, GPT-3.5 ha diagnosticato erroneamente oltre l’ottanta per cento dei casi pediatrici complessi. Nel frattempo, i principali modelli linguistici di grandi dimensioni sono diventati molto meno propensi a includere clausole di esclusione di responsabilità nelle loro risposte. Un’analisi ha rilevato che, nel 2022, più di un quarto delle risposte a domande relative alla salute includeva qualcosa come “Non sono qualificato per fornire consigli medici”. Quest’anno, solo l’1% lo ha fatto. In un nuovo sondaggio, circa un quinto degli americani ha affermato di aver ricevuto consigli medici dall’IA che in seguito si sono rivelati errati. All’inizio di quest’anno, un centro antiveleni in Arizona ha segnalato un calo del volume totale delle chiamate, ma un aumento dei pazienti gravemente intossicati. Quando Manrai e i suoi colleghi hanno testato l’IA su diverse centinaia di CPC recenti, ne ha risolti correttamente circa il 60%, una percentuale significativamente superiore a quella risolta dai medici in uno studio precedente. Imparare a utilizzare l’intelligenza artificiale in campo medico richiederà una scienza a sé stante. L’anno scorso, è stato coautore di uno studio in cui alcuni medici hanno risolto casi con l’aiuto di ChatGPT. Non hanno ottenuto risultati migliori rispetto ai medici che non hanno utilizzato il chatbot. Il chatbot da solo, tuttavia, ha risolto i casi con maggiore accuratezza rispetto agli esseri umani. I sistemi che combinano strategicamente capacità umane e di intelligenza artificiale sono stati descritti come centauri; la ricerca di Rodman suggerisce che siano promettenti in medicina. Ma se gli strumenti di intelligenza artificiale rimangono imperfetti e gli esseri umani perdono la capacità di funzionare senza di essi – un rischio noto come “dequalificazione cognitiva” – allora, per usare le parole di Rodman, “siamo nei guai”. In uno studio recente, i gastroenterologi che hanno utilizzato l’intelligenza artificiale per rilevare i polipi durante le colonscopie hanno mostrato risultati significativamente peggiori nell’individuazione dei polipi stessi. “Se sei una persona che scommette, dovresti formare medici che sappiano usare l’intelligenza artificiale ma che sappiano anche pensare”, ha affermato Rodman. The post Se l’intelligenza artificiale può diagnosticare i pazienti, a cosa servono i medici? first appeared on Lavoratrici e Lavoratori Aci Informatica.
La ricerca suggerisce che i medici potrebbero rapidamente diventare dipendenti dall’intelligenza artificiale
(Fonte) Geoff Brumfiel – 19 agosto 2025 L’intelligenza artificiale sta iniziando ad aiutare i medici a sottoporre i pazienti a screening per diverse patologie di routine. Ma un nuovo studio solleva preoccupazioni sul fatto che i medici potrebbero diventare troppo dipendenti dall’intelligenza artificiale. Lo studio condotto su gastroenterologi in Polonia ha rilevato che, dopo essersi abituati all’uso di un sistema assistito dall’intelligenza artificiale, la loro capacità di individuare autonomamente polipi e altre anomalie durante le colonscopie era circa del 20%. I risultati , pubblicati sulla rivista Lancet Gastroenterology and Hepatology, suggeriscono che anche dopo un breve periodo di utilizzo dell’intelligenza artificiale, gli esperti potrebbero diventare eccessivamente dipendenti dall’intelligenza artificiale per svolgere determinati aspetti del loro lavoro. L’intelligenza artificiale sta diventando sempre più comune in numerose ecografie mediche di routine. La prossima volta che vi sottoporrete a un’ecografia per la vista, il cancro al seno o una malattia del colon, ci sono buone probabilità che l’intelligenza artificiale analizzi le immagini. Qualche anno fa, quattro cliniche in Polonia hanno sperimentato un sistema di intelligenza artificiale per rilevare polipi e altre anomalie durante le colonscopie. L’intelligenza artificiale funziona in tempo reale, analizzando i video di una telecamera posta all’interno del colon. Se individua qualcosa, evidenzierà l’area in modo che il medico possa vederla. Le cliniche stavano raccogliendo dati per verificare se il sistema di intelligenza artificiale funzionasse. A quanto pare sì, ma quando Romańczyk e i suoi colleghi hanno rianalizzato i dati, hanno scoperto qualcos’altro: dopo l’introduzione del sistema, i medici erano significativamente meno abili nel rilevare possibili polipi quando l’intelligenza artificiale era disattivata. Secondo la loro analisi , dopo che i medici hanno adottato l’intelligenza artificiale, i tassi di rilevamento di possibili polipi sono scesi dal 28,4% al 22,4% quando il nuovo sistema di intelligenza artificiale è stato disattivato. In altre parole, i medici sembravano diventare rapidamente dipendenti dai sistemi di intelligenza artificiale per la rilevazione dei polipi. Romańczyk afferma di non essere del tutto sicuro del perché ciò accada, ma ha alcune teorie. The post La ricerca suggerisce che i medici potrebbero rapidamente diventare dipendenti dall’intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.
La linea pericolosamente sfocata tra benessere e tecnologia medica
(Fonte) Victoria Song- 29 luglio 2025 Il 15 luglio, la Food and Drug Administration (FDA) ha inviato una lettera a Whoop. In essa, la FDA dichiarava che Whoop, produttore di un fitness tracker di nicchia, apprezzato dagli atleti d’élite, aveva oltrepassato il limite. La sua nuova funzionalità Blood Pressure Insights, affermava l’ente regolatore, veniva commercializzata ai clienti senza aver superato il corretto processo di autorizzazione. In risposta, Whoop tirò fuori la parola che inizia con W: benessere. Nel mondo della salute e della tecnologia indossabile, il “benessere” è un po’ come una carta “esci di prigione gratis”. Alcune funzionalità avanzate per la salute, come gli elettrocardiogrammi e le notifiche di fibrillazione atriale, richiedono l’autorizzazione normativa prima che i consumatori possano utilizzarle. Queste funzionalità potrebbero essere interpretate come diagnostiche o indurre una persona a prendere una decisione medica. Altre, come il monitoraggio dei passi e la misurazione dell’ossigeno nel sangue, non richiedono affatto la supervisione della FDA . Servono semplicemente a rendere più facile vivere una vita sana aiutando a visualizzare determinati indicatori misurabili. Queste funzionalità rientrano nell’ambito del benessere. Sono “solo per divertimento”. Tuttavia, la funzionalità Blood Pressure Insights di Whoop si trova in un territorio più oscuro. La funzionalità di Whoop funziona in questo modo: l’utente effettua le misurazioni con un normale misuratore di pressione sanguigna per la calibrazione. Una volta completato il processo, Whoop afferma che il suo tracker utilizza parametri come “frequenza cardiaca, variabilità della frequenza cardiaca e andamento del flusso sanguigno durante il sonno” per fornire una stima della pressione sanguigna sistolica e diastolica di una persona ogni mattina. La FDA sostiene che “fornire una stima della pressione sanguigna non è una funzione a basso rischio” e che una stima della pressione sanguigna implica intrinsecamente una diagnosi di ipotensione o ipertensione. In una dichiarazione , Whoop afferma di “essere rispettosamente in disaccordo” e che questa particolare funzionalità è più simile al monitoraggio della frequenza respiratoria durante il sonno. Nell’ambito del benessere, Whoop sostiene di essere in grado di portare una funzionalità innovativa al grande pubblico più rapidamente. Il punto cruciale è identificare le caratteristiche ad alto e basso rischio che possono causare danni. Molti casi sono chiari. Natural Cycles, ad esempio, è un’app per il monitoraggio del ciclo mestruale che afferma di poter essere utilizzata come contraccettivo digitale utilizzando i dati sulla temperatura di dispositivi indossabili come Oura Ring . È ovvio che un ente di regolamentazione dovrebbe verificare una funzionalità così rischiosa . D’altro canto, la nuova funzione Antioxidant Index di Samsung per il suo Galaxy Watch 8 è una metrica assurda che ti dice se hai mangiato abbastanza frutta e verdura. Anche se è incredibilmente imprecisa (sono riuscita a ingannarla scansionando un Cheez-It ), è improbabile che danneggi la tua salute. Oltre alla pressione sanguigna, si vocifera anche che Samsung e Apple stiano lavorando a funzionalità di monitoraggio della glicemia , dove la posta in gioco per i diabetici potrebbe essere altissima. Se o quando queste funzionalità saranno disponibili, è possibile che le aziende adegueranno il loro funzionamento per rientrare più ampiamente nell’ambito del benessere. Ad esempio, invece delle letture della glicemia, si ottiene una linea di tendenza o un punteggio. Sono scettico sul fatto che la persona media sia in grado di cogliere le sfumature, quando persino i giornalisti tecnologici più esperti a volte hanno difficoltà con la terminologia corretta. Forse sembra sciocco lanciare l’allarme sulla semantica. Ma mentre i politici promuovono una maggiore adozione dei dispositivi indossabili , la posta in gioco non è mai stata così alta. In un mondo migliore e ideale, le aziende eliminerebbero dal marketing espressioni come “clinicamente provato” o “di qualità medica”. La FDA elaborerebbe un quadro più chiaro per la progettazione di una funzionalità di benessere rispetto a una di tipo medico. Ma non viviamo in un mondo ideale, e questo significa che spetta al consumatore riconoscere la differenza. Francamente, non sta andando molto bene. Forse significa che è ora di riconoscere che “benessere” non è più una parola innocua. The post La linea pericolosamente sfocata tra benessere e tecnologia medica first appeared on Lavoratrici e Lavoratori Aci Informatica.