Tag - IA

Madhumita Murgia/ L’unione fa la forza
Fin dal titolo, deliberatamente agli antipodi dell’argomento di cui parla, Essere umani si presenta come un libro diverso. Ci risparmia le spiegazioni riduttive e quelle ipercomplicate. Va dritto al cuore del problema: cosa stanno facendo, gli esseri umani, con questo potentissimo strumento? Di base, Madhumita Murgia è ottimista. La sofisticazione, la complessità e le capacità dell’intelligenza artificiale ci potrebbero davvero aiutare a migliorare la vita nostra e degli altri. Giornalista che si occupa da più di dieci anni di tecnologia per testate come “Wired” e “Financial Times”, Murgia ha cominciato a indagare sugli usi dell’IA andando a cercare le persone la cui vita, grazie a questo strumento, è cambiata. Non sempre e non del tutto in meglio, anche se non è facile capire quale è il meglio e quale è il peggio. I migranti che lavorano da remoto inserendo dati, gli autisti di Uber, i rider che portano il cibo pronto, sono tra le persone che beneficiano dell’intelligenza artificiale e nel contempo ne sono le vittime. Gli algoritmi con cui lavorano le piattaforme che gestiscono questi lavori sono opache e le persone che ci lavorano non li conoscono; non hanno alcun controllo, alcuna comprensione. Tutto è anonimo ed estraneo, e quando c’è un problema, quando qualcosa non torna, non esiste un interlocutore, non esiste un referente. Gli algoritmi sembrano neutri ma sono in realtà pensati e scritti da esseri umani, con pregiudizi e convinzioni da cui sono guidati nel loro lavoro, anche senza esserne consapevoli. I siti di pornografia (uno degli ambiti più lucrativi) rubano immagini di volti “qualunque”, volti di persone normali a cui aggiungono un corpo che segue l’immaginario maschile (quello deformato della pornografia ovviamente) e che esegue gli atti e i comportamenti che quell’immaginario richiede. Sono violenti, totalmente irrispettosi delle donne. Vedere la propria immagine trattata così è un’esperienza devastante da cui è difficile uscire. Il riconoscimento facciale è praticato da moltissime amministrazioni pubbliche attraverso telecamere poste nei luoghi di passaggio, piazze, metropolitane, angoli di strade, senza che i cittadini lo sappiano e senza alcuna considerazione per la tanto decantata privacy. Con la scusa della sicurezza, può essere utilizzato contro chiunque. Anche le applicazioni di IA a problemi sanitari o di assistenza sociale o di prevenzione dei crimini si sono rivelati fallaci e spesso dannosi. I casi dell’Olanda e dell’Argentina, in cui l’IA è stata applicata per predire la delinquenza giovanile o le gravidanze adolescenziali, hanno mostrato come i dati su cui i sistemi di IA si basano sono parziali e soprattutto di parte, e possono generare delle soluzioni che danneggiano le persone che si immaginavano di aiutare. Ma chi altro se ne accorge oltre le vittime? Di certo non le amministrazioni pubbliche o i servizi sociali, che anzi tendono a pensare di aver finalmente trovato nei sistemi di IA la soluzione poco costosa e funzionale dei loro problemi. La statistica non è una fotografia neutra della realtà. Altri esempi ci vengono dall’uso di ChatGPT. Si tratta dell’IA generativa, un sistema che impara man mano che interagisce con l’utente. Di base quello che ha imparato viene da tutto quello che nell’arco degli ultimi vent’anni abbiamo messo dentro internet: libri, articoli, blog, commenti, pubblicità, video, musica, immagini. ChatGPT lo usano in tanti e spesso in modo innocuo e pigro, per risparmiare tempo, per scrivere senza fare la fatica di pensare cosa e come scrivere. E già così ci si può immaginare che l’IA possa sostituire alcune professioni, copywriter e disegnatori in primis, e lo fa dopo avere imparato senza pagare una lira e senza riconoscere alcun merito alle fonti. Non stupisce che la questione del diritto d’autore sia delle più delicate e urgenti. Ma c’è un aspetto che Murgia mette in evidenza e che disturba assai: ChatGPT (e chissà i suoi successori) sono programmati per dare delle risposte. Se non le sanno se le inventano. Frugano tra i miliardi di dati che hanno e tirano fuori qualcosa. È successo a un avvocato, di farsi assistere da una chatbot per preparare un’udienza, e trovarsi in aula con dei riferimenti a sentenze inesistenti: si è vergognato oltremodo. Sono anche programmati (diciamo che “li disegnano così”) per dare delle risposte gradite, accondiscendenti: fungono da psicoterapeuti per persone che cercano conferme e mai confronti. Addirittura, secondo un recente articolo di “The Atlantic”, guidano passo passo una persona che dice di volersi tagliare le vene. Inquietante. Ma non è un saggio politico, questo libro. Nell’aprirci gli occhi sugli effetti indesiderati dell’IA, nel ricordarci che si tratta di un potentissimo strumento statistico e non di un’intelligenza come quella umana, con le sue sfumature e le sue qualità emotive e sentimentali, Murgia ci ricorda anche che viviamo in una società, che apparteniamo a una comunità, che non siamo individui isolati. Anche se spesso sembra che ognuno stia chiuso nella sua bolla e abbia pochissimi contatti con gli altri, è nel momento in cui le persone si parlano, si raccontano le proprie esperienze, si mettono insieme per agire, che lo strumento IA diventa meno potente. L’unico modo per far fronte allo strapotere dell’intelligenza artificiale (e dei gruppi che se ne avvantaggiano economicamente) è quello di unire le forze, di confrontare i vissuti, di agire insieme. Una ricetta vecchia come il mondo, e non facile da applicare, ma che tuttora è l’unica che funziona. Come dice la stessa Murgia: «Se l’IA sta già modificando, nel piccolo e nel grande, ciò che significa essere umani, cosa accadrebbe se, tutti insieme, rivendicassimo la nostra umanità?» L'articolo Madhumita Murgia/ L’unione fa la forza proviene da Pulp Magazine.
ELSA, l’intelligenza artificiale della FDA che sta inventando studi inesistenti
A darne la notizia è la CNN che in un articolo di Sarah Owermohle – scritto con l’aiuto di Meg Tirrell, Dugald McConnell e Annie Grayer – afferma chiaramente che anche l’intelligenza artificiale ha imparato a mentire ed inventa cose che non esistono. E’ il caso dell’intelligenza artificiale adottata dalla Food and Drug Administration, la quale è arrivata a Washington per accelerare l’immissione sul mercato di nuovi farmaci salvavita, semplificare il lavoro nelle vaste agenzie sanitarie multimiliardarie e svolgere un ruolo fondamentale nel tentativo di ridurre gli sprechi di spesa pubblica senza compromettere il lavoro del governo stesso. Ad affermarlo sono proprio i funzionari sanitari dell’amministrazione Trump: “La rivoluzione dell’intelligenza artificiale è arrivata”, ha dichiarato il Segretario della Salute e dei Servizi Umani Robert F. Kennedy Jr. durante le udienze del Congresso tenutesi negli ultimi mesi. Di cosa si tratta? Stiamo parlando di ELSA (Efficient Language System for Analysis), modello di intelligenza artificiale introdotto dal Sistema Sanitario Nazionale Americano (HHS) con lo scopo di sveltire le pratiche di approvazione dei nuovi medicinali e dispositivi medici, conducendo ricerche su larga scala su tutta la documentazione scientifica già esistente. Le prime versioni di Elsa erano state sviluppate sulla base di un precedente modello di intelligenza artificiale su cui la FDA aveva iniziato a lavorare durante l’amministrazione Biden. “Stiamo già utilizzando questa tecnologia all’HHS per gestire i dati sanitari, in modo perfettamente sicuro, e per accelerare le approvazioni dei farmaci” – ha dichiarato alla Commissione Energia e Commercio della Camera a giugno. L’entusiasmo – almeno tra alcuni – era palpabile. Funzionari della FDA hanno dichiarato alla CNN che Elsa può essere utile per generare appunti e riepiloghi di riunioni o modelli di e-mail e comunicati. Ma, finchè si tratta di fare il riassunto di migliaia di ricerche scientifiche già pubblicate, ELSA è sicuramente uno strumento molto efficace. Il problema nasce quando le si chiede di dare una sua valutazione sulla eventuale efficacia e sicurezza di un nuovo farmaco, perchè a quel punto si è scoperto che ELSA si inventa anche ricerche scientifiche che non sono mai esistite: le famose “allucinazioni dell’IA”. A darne testimonianza sono tre attuali dipendenti della FDA e documenti visionati dalla CNN, mostrando chiaramente l’inaffidabilità del suo lavoro più critico. I dipendenti che hanno parlato con la CNN hanno testato le conoscenze di Elsa ponendogli domande come quanti farmaci di una certa classe siano autorizzati per l’uso sui bambini o quanti farmaci siano approvati: in entrambi i casi, ha dato risposte sbagliate. Un dipendente ha raccontato che Elsa aveva contato in modo errato il numero di prodotti con una particolare etichetta. Quando le è stato detto che era sbagliato, l’IA ha ammesso di aver commesso un errore. “Ma non ti aiuta comunque a rispondere alla domanda”, ha detto quell’impiegato. L’algoritmo ricorda poi agli utenti che si tratta solo di un assistente AI e che è necessario verificarne il funzionamento. “Tutto ciò che non si ha il tempo di ricontrollare è inaffidabile. È un’allucinazione di sicurezza” – ha detto un dipendente, ben lontano da quanto promesso pubblicamente – “L’intelligenza artificiale dovrebbe farci risparmiare tempo, ma vi garantisco che spreco un sacco di tempo extra solo a causa della maggiore vigilanza che devo avere” per verificare la presenza di studi falsi o travisati, ha affermato un secondo dipendente della FDA. Ad ammettere queste allucinazioni è anche Jeremy Walsh, responsabile dell’intelligenza artificiale della FDA: “Elsa non è diversa da molti [grandi modelli linguistici] e dall’intelligenza artificiale generativa “ , ha detto alla CNN. “Potrebbero potenzialmente avere allucinazioni”. Attualmente, Elsa non può contribuire al lavoro di revisione, il lungo processo di valutazione che gli scienziati dell’agenzia intraprendono per determinare se farmaci e dispositivi siano sicuri ed efficaci,  perché non può accedere a molti documenti rilevanti, come le richieste di autorizzazione dell’industria, per rispondere a domande di base come, per esempio, sul numero di volte in cui un’azienda ha presentato domanda di approvazione alla FDA; sula presenza sul mercato dei suoi prodotti correlati o altre informazioni specifiche dell’azienda. Tutto ciò solleva seri dubbi sull’integrità di uno strumento che, come ha affermato il commissario della FDA, il dott. Marty Makary, trasformerà il sistema di approvazione dei farmaci e dei dispositivi medici negli Stati Uniti, in una situazione completamente fuori controllo. Ad oggi non vi è alcun controllo federale per la valutazione dell’uso dell’intelligenza artificiale in medicina. “L’agenzia sta già utilizzando Elsa per accelerare le revisioni dei protocolli clinici, ridurre i tempi necessari per le valutazioni scientifiche e identificare obiettivi di ispezione ad alta priorità”, ha affermato la FDA in una dichiarazione sul suo lancio a giugno. Ma parlando con la CNN questa settimana presso la sede centrale della FDA a White Oak, Makary ha affermato che al momento la maggior parte degli scienziati dell’agenzia utilizza Elsa per le sue “capacità organizzative”, come la ricerca di studi e la sintesi di riunioni. Intanto i leader della FDA discutono sull’uso dello strumento di intelligenza artificiale dell’agenzia. Si parlava già da tempo di integrare l’intelligenza artificiale nel lavoro delle agenzie sanitarie statunitensi, prima che la seconda amministrazione Trump desse il via agli sforzi, ma la velocità con cui Elsa è entrata in funzione è stata insolita. Alcuni esperti sottolinearono gli sforzi del governo per sviluppare seriamente i piani sull’intelligenza artificiale nel 2018, quando il Pentagono iniziò a valutarne il potenziale per la sicurezza nazionale. Nel 2024, l’Unione Europea ha approvato e attuato l’AI Act, una legge “per proteggere i diritti fondamentali, la democrazia e lo stato di diritto” in merito all’uso rischioso dell’intelligenza artificiale, anche in ambito sanitario, promuovendo al contempo modelli di intelligenza artificiale trasformativi. Negli Stati Uniti non esistono queste norme e tutele di questo tipo. Un gruppo di lavoro governativo formato durante l’amministrazione Biden per esaminare la definizione di normative sull’uso dell’intelligenza artificiale, anche in ambito sanitario, è stato sciolto l’anno scorso con l’inizio della nuova Amministrazione Trump. A giugno 2025, un gruppo bipartisan di membri della Camera ha presentato una proposta di legge incentrata principalmente sul mantenimento del predominio degli Stati Uniti nella corsa all’intelligenza artificiale. Nello stesso mese, due senatori hanno presentato un disegno di legge mirato a impedire l’uso da parte degli Stati Uniti di un’intelligenza artificiale “avversaria” da parte di governi stranieri, tra cui la Cina. Altri sforzi, come un disegno di legge che richiederebbe test e supervisione normativa per i sistemi di intelligenza artificiale ad alto rischio (molto simili agli standard europei), sono rimasti bloccati. La versione precedente del “One Big Beautiful Bill”, l’ampia legge fiscale e di spesa del presidente Donald Trump, avrebbe incluso la prima legge radicale del Congresso sull’intelligenza artificiale: una moratoria decennale sull’applicazione delle normative statali sulla tecnologia. Ma il Senato ha bocciato la disposizione . Elsa è arrivata mentre il Congresso era alle prese con l’approccio legislativo alla regolamentazione dell’IA. Sebbene le commissioni del Congresso abbiano tenuto audizioni sui rischi dell’IA, come modelli distorti e minacce alla sicurezza informatica, il Congresso non ha approvato alcuna legge sostanziale per regolamentare l’IA. Trump, che ha fatto dello sviluppo e degli investimenti nell’intelligenza artificiale una priorità assoluta nella sua seconda amministrazione, ha annunciato un futuro luminoso per la tecnologia con l’aiuto dei suoi amici e sostenitori miliardari tecnofascisti. La scorsa settimana, durante un vertice sull’energia in Pennsylvania, ha dichiarato ai partecipanti: “Siamo qui oggi perché crediamo che il destino dell’America sia quello di dominare ogni settore ed essere i primi in ogni tecnologia, e questo include essere la superpotenza numero uno al mondo nell’intelligenza artificiale”. Senza normative federali, è difficile dire come sarebbe questa superpotenza. “L’intelligenza artificiale fa un sacco di cose, ma non è magia”, ha affermato il Dott. Jonathan Chen, professore associato di medicina alla Stanford University, che ha studiato l’uso dell’intelligenza artificiale in ambito clinico. Sarebbe fantastico se potesse aiutare gli esperti a individuare la falsificazione dei dati o a fornire analisi rigorose sulla sicurezza dei pazienti, ma “questi problemi sono molto più sfumati” di ciò che una macchina può fare, ha aggiunto. “È davvero un po’ il Far West in questo momento. La tecnologia avanza così velocemente che è difficile persino capire esattamente di cosa si tratta.” – ha aggiunto Chen. Ulteriori informazioni: https://luogocomune.net/scienza-e-tecnologia/l%E2%80%99intelligenza-artificiale-ha-imparato-a-mentire https://edition.cnn.com/2025/07/23/politics/fda-ai-elsa-drug-regulation-makary The Application of Elsa Speak Software in English Teachingat Can Tho University of Technology – A Case Study https://ijsshr.in/v7i10/Doc/29.pdf https://www.fda.gov/news-events/press-announcements/fda-launches-agency-wide-ai-tool-optimize-performance-american-people   Lorenzo Poli
[entropia massima] Estrattivismo dei dati
Puntata 27, ottava del ciclo Estrattivismo dei dati, parliamo di digitale e psicoanalisi. Presentiamo "I Popoli dell’Es", il nuovo libro di Chiara Buoncristiani e Tommaso Romani, entrambi psicoanalisti e ricercatori a Roma. Tra riflessioni sul nostro rapporto con le tecnologie e l’ibridazione delle soggettività. PRIMA PARTE: ISTITUZIONI DIGITALI E APOCALISSE QUOTIDIANA Si parte dal rito del doomscrolling, che rivela come i feed personalizzati abbiano preso il posto di scuole, famiglie e chiese: le “istituzioni” che un tempo garantivano orientamento psichico, vengono oggi sostituite da algoritmi e flussi informativi. L’attenzione, moneta del capitalismo cognitivo, ci cala in un sentimento apocalittico — inteso sia come rovina sia come rivelazione — che da un lato manifesta la crisi di poteri gerarchici e, dall’altro, apre spazi di desiderio politico orizzontale. Tra i rischi di fake news e neo-verità, emerge però la possibilità che molte voci marginali trovino finalmente ascolto. SECONDA PARTE: IBRIDAZIONE E SCRITTURA COLLETTIVA Il cuore del libro pulsa in un approccio assemblage, dove mondi interiori e realtà digitali non si fronteggiano ma si intrecciano in un “tra” di soggettività multiple. La scrittura diventa pratica politica: non un dialogo a due, ma un montaggio di frasi e contributi — da psicoanalisti, antropologi, filosofi, teorici queer e artisti — che dà forma a un «collettivo» di voci. Il capitolo “Nexa”, realizzato in forma collettiva, incarna l’idea deleuziana di concatenamento, mostrando come ogni soggettività sia a sua volta un piccolo arcipelago di relazioni. TERZA PARTE: TECNOLOGIE, CORPO E INTELLIGENZA ARTIFICIALE Conclude la puntata un’immersione nell’ibridazione tra corpo reale e “corpo algoritmico”: protesi, botox, like sui social diventano spinte pulsionali che rimodellano i nostri desideri. Dal cyber-femminismo alla nozione di “soggetto nomade”, si esplora come le IA non ci rispecchino passivamente, ma diventino l’altro con cui negoziare un «macro-organismo» postumano. Tra visioni transumaniste di potenza e prospettive postumane più democratiche, il futuro si gioca nella capacità di coesistere — umani, altre specie e macchine — in un equilibrio dinamico e ancora tutto da raccontare.   TRASCRIZIONE INTEGRALE DELLA PUNTATA.  
L’ex sindaco di Koper/Capodistria e MEP Aurelio Juri sul riarmo della Slovenia
IA – Intelligenza Artificiale. Perché l’uomo l’ha creata? Considerati i tempi in cui viviamo e gli eventi che la segnano e la determinano, direi che perché il suo creatore non ce l’ha più. L’ha certamente creata per aiutarsi, per trarne quanti più consigli utili e di facile utilizzo su cosa, quando e come fare, per rendersi la vita più facile e bella. Chiediamole quindi delle decisioni che sempre più spesso vengono prese dai leader di Bruxelles e di altre capitali europee, compresa la nostra, in materia di armamenti. Il 2% del PIL per la difesa non basta più, almeno il 3%, e poiché Trump minaccia di ritirare lo scudo americano sull’Europa se non passa al 5%, alleggerendo così finanziariamente gli Stati Uniti, anche questo obiettivo è già scritto. Il piano di Leyen per il riarmo dell’Europa – 800 miliardi di euro nei prossimi 4 anni – è perfettamente in linea con i desideri della più grande e pericolosa caricatura mai esistita del leader della potenza più potente del mondo. Il motivo – affermano le signore e i signori a capo della NATO e dell’UE – è la minaccia posta alla nostra sicurezza, ai nostri valori, al nostro stile di vita, all’esistenza della civiltà occidentale… dalla Federazione Russa, che mostra ogni intenzione di attaccare e soggiogare l’intero continente una volta finita con l’Ucraina. Dopo tre anni di guerra, ha preso il controllo del 20% dell’Ucraina e deve difendersi dai suoi droni anche nel profondo del suo territorio. Ebbene, i leader sanno già di cosa è capace Putin, con cui tutti sono stati buoni amici fino al 24 febbraio 2022, 25 anni dopo la sua ascesa al potere. Ma chiediamo all’IA cosa pensa dell’ultimo trend dell’Occidente: gli armamenti. Ho attivato ChatGPT e ho ricevuto questa risposta: 1. Aumento delle tensioni: una militarizzazione accelerata potrebbe innescare una corsa agli armamenti e indebolire ulteriormente i rapporti con la Russia o altre superpotenze. 2. Costi elevati: l’aumento del bilancio militare potrebbe andare a scapito delle politiche sociali ed economiche, il che potrebbe causare disaccordi interni all’Unione Europea. 3. Soluzione diplomatica: invece dell’espansione militare, l’Europa potrebbe investire nella diplomazia, nei negoziati e nel rafforzamento delle alleanze internazionali. Dipende dagli obiettivi strategici. Se volesse mantenere la pace e la stabilità, l’UE potrebbe cercare altre strade, come la diplomazia, l’indipendenza energetica e lo sviluppo tecnologico. Oddio! – direbbe il nuovo cancelliere tedesco Friedrich Merz se leggesse questo. E ha aggiunto: “Chi ha permesso alle forze di pace di intrufolarsi tra i creatori dell’IA?!”. Beh, non c’è dubbio che tutto questo lo sappia benissimo, ma non corrisponde all’obiettivo che si era prefissato, ovvero creare la prima superpotenza militare europea dalla Germania, proprio come il suo predecessore 90 anni fa. E poiché il suo collega francese Emmanuel Macron e il polacco Donald Tusk non vogliono rimanere indietro, anche per il bene della memoria storica, hanno accettato la sfida e tutti e tre, seguiti da tutti gli altri, compresi i nostri, stanno già gareggiando avidamente nel gioco di “chi sarà di più”. E l’IA? Ah, è solo una macchina senz’anima. E poiché non abbiamo dato all’intelligenza artificiale il diritto di decidere, coloro che non hanno abbastanza del diritto divino di decidere decidono, ma sono quindi chiamati a farlo. Secondo la volontà del popolo, che non ha quasi più volontà, viziata e tesa come accade sempre più spesso. Ogni volta e ovunque qualcuno proponga una richiesta riguardante l’aumento dei bilanci della difesa, che la gente creda di più nell’IA o che le autorità sostengano e stanziano più soldi dei contribuenti per armare lo Stato, quest’ultimo elenca tutte le possibili ragioni per rendere impossibile verificare la volontà del popolo. Questo è finalmente il caso. L’Assemblea Nazionale, in conformità con la volontà del governo Golob, favorevole alla NATO, e con i desideri del Ministro della Difesa Sajović, ha adottato giovedì una nuova risoluzione sulla difesa, questa volta su un programma a lungo termine per lo sviluppo e l’equipaggiamento dell’esercito sloveno fino al 2040, che, a differenza della precedente, prevede un aumento radicale di tali spese al 2% del PIL già quest’anno (la precedente fino al 2030) e gradualmente al 3% entro il 2030. La Sinistra, che si oppone, sta cercando di indire un referendum al riguardo, ma i suoi membri più fedeli del maggiore partito di coalizione, Svoboda, stanno già dicendo loro di non preoccuparsene, perché faranno in modo che non ci sia alcun referendum. Il motivo? La risposta è a portata di mano: ne hanno paura, sanno che la gente mostrerebbe il cartellino rosso al governo, dicendogli che si fida più dell’intelligenza artificiale che della sua! E… lunga vita all’IA! Aurelio Juri Capodistria, 13.6.2025 Redazione Friuli Venezia Giulia
Intelligenza artificiale, minaccia o opportunità per l’umanità?
> Nel corso degli anni 2010, l’intelligenza artificiale (IA) è stata impiegata > in applicazioni reali come gli assistenti vocali, la traduzione automatica e > il riconoscimento facciale, e sta crescendo in modo esponenziale. Ma dal > momento in cui è stata messa a disposizione della collettività l’IA è > diventata un argomento di grande attualità, invadendo ogni conversazione e > ogni ambito della vita – politico, scientifico, filosofico, sociologico, > psicologico e persino religioso, suscitando reazioni contrastanti, che > oscillano dal fascino alla preoccupazione. INTELLIGENZA ARTIFICIALE TRA FASCINO, ABERRAZIONI E PAURE “Tra gli estremi, ci sono i Transumanisti per i quali l’IA è il futuro dell’umanità. I fan incondizionati delle macchine ritengono che l’essere umano debba essere “potenziato” per far fronte alla complessità del mondo. Meglio ancora! Seguendo una concezione meccanicistica dell’essere umano, lo vedono come una macchina a obsolescenza programmata, la cui salvezza – e persino immortalità – arriverà dalla tecnologia. Si chiedono almeno a cosa servirebbe vivere 5.000 anni per affrontare la complessità del mondo? Purtroppo, questi ideologi sono a capo delle grandi aziende tecnologiche da cui dipende in larga misura lo sviluppo dell’IA (GAMAM [1] per gli Stati Uniti; BATX [2] per la Cina). E c’è da temere che, incuranti di condividere i possibili contributi positivi dell’IA, ne indirizzino lo sviluppo verso una società di controllo, di condizionamento dei comportamenti e di rincretinimento, come già avviene. Molte persone sono entusiaste dell’IA perché permette loro di fare il meno possibile e persino di compensare il vuoto emotivo [3] generato dalla nostra società. Tuttavia, sappiamo che così facendo, l’IA apre anche la strada a una forma di comodità, alla perdita di punti di riferimento tra il reale e il virtuale, alla dipendenza e all’isolamento sociale. È quindi ragionevole preoccuparsi dell’uso indiscriminato, non misurato e acritico dell’IA, che porterebbe a una perdita di competenze e a una regressione cognitiva e sociale che, lungi dal contribuire allo sviluppo della coscienza umana, ci farebbe sprofondare in una sorta di letargo e di ottundimento collettivo [4]. Questi legittimi timori, insieme a quelli del riscaldamento globale e a quelli più fantasiosi di una sottomissione dell’uomo da parte dei robot, alimentano gli altri estremi: quelli che rifiutano in toto l’IA. Va detto che queste preoccupazioni rimarranno reali finché l’IA verrà impiegata in un sistema socio-economico dominato da un capitalismo caratterizzato dall’appetito infinito delle aziende tecnologiche, tutte pronte a impiegare l’IA al posto di dipendenti meno efficienti, meno produttivi e troppo costosi. Questo è già osservabile in molti settori [5], anche i più improbabili, come il diritto, la sanità, l’istruzione, la cultura e persino la creazione (musica, immagine, cinema), dove molte professioni – in particolare quelle di “natura intellettuale” finora protette dai progressi tecnici – sono minacciate. E mentre i nostri leader e i loro seguaci miliardari possono rassicurarci con improbabili promesse di riconversione professionale o di creazione di nuovi tipi di occupazione, è chiaro che l’IA sconvolgerà l’intera organizzazione economica e sociale, e con essa i nostri comportamenti, le nostre abitudini e le nostre convinzioni, accelerando forse la crisi esistenziale che stiamo vivendo. VERSO UN USO CONSAPEVOLE E UMANISTA DELL’INTELLIGENZA ARTIFICIALE Tuttavia, poiché lo sviluppo dell’intelligenza artificiale si sta rivelando inevitabile, potrebbe essere saggio vedere questa accelerazione come un’opportunità per prevedere non solo una nuova organizzazione sociale, ma anche dei progressi per gli esseri umani. Questo è già il caso quando l’IA offre un facile accesso alla conoscenza, consentendo di fare scoperte e realizzare delle ricerche in molte aree. Questo vale anche quando si aprono nuovi orizzonti per il benessere umano: nella salute, con diagnosi più accurate e presto rimedi su misura per ogni individuo; nell’istruzione, con programmi di formazione per il progresso dell’insegnamento su misura per ogni alunno; nell’ambiente, con una strategia completa e piani d’azione… Alcuni utopisti la vedono come un’opportunità per liberarsi dall’alienazione del lavoro, anche se l’IA sta attualmente fornendo posti di lavoro non qualificati, soprattutto nei Paesi più poveri. Ma altri ritengono che passeremo dall’alienazione dal lavoro all’alienazione dalla macchina. Infine, l’ambito di lavoro è anche un luogo di socializzazione, un ambiente che deve essere preservato. Alla luce di queste considerazioni, la penetrazione dell’IA nell’economia “produttiva” è un’occasione per ripensare il ruolo di alcune professioni, come i medici, gli insegnanti e gli psicologi, in cui l’interazione umana ha la precedenza. È anche un’opportunità per rivedere in profondità l’attuale organizzazione socio-economica [6]. Su un piano più esistenziale, l’essere umano – “non occupato” grazie all’IA, sia professionalmente che nello svolgimento di compiti quotidiani che considererebbe noiosi – potrebbe guadagnare tempo ed energia da dedicare allo sviluppo del proprio potenziale. È proprio questo potenziale che va specificato, visto che l’IA riproduce una serie di facoltà finora ritenute specifiche dell’uomo: strutturare il pensiero, prevedere, creare, interagire con gli esseri umani, provare empatia e persino, in un prossimo futuro, con l’IA generale, provare emozioni e comprendere il significato profondo delle proprie azioni. L’IA sta diventando così potente che stiamo già mettendo in dubbio l’origine umana di molti dei suoi risultati e delle sue creazioni. Va detto che, con l’IA, l’essere umano sta facendo un ulteriore passo avanti verso l’esternalizzazione del funzionamento della sua psiche: memoria che si nutre di ciò che fa, consentendo l’autoapprendimento; sensi per catturare ciò che viene percepito dagli occhi, dalle orecchie e dal tatto; capacità motorie sempre più fini nei robot; strutturazione di tutti i dati acquisiti per fornire risposte, automatizzate o meno, nel mondo. Tuttavia, qualora l’IA si preparasse a provare emozioni, riuscirà a sentire anche il dolore del corpo e la sofferenza legata alla paura di sapere di essere mortale? Se è creativa, sarà inventiva? E se può prevedere il futuro, sarà in grado di immaginarlo? Queste sono solo alcune delle domande etiche, psicologiche e persino filosofiche che l’IA, specchio o simulacro dell’essere umano, può sollevare, invitandoci a ridefinire chi siamo, a cosa serviamo e dove stiamo andando. È ancora difficile immaginare le trasformazioni che l’IA potrebbe produrre. Tuttavia, due cose sono certe: * Questo strumento cambierà l’essere umano che lo ha ideato e che lo usa, così come la padronanza del fuoco ha cambiato il destino dell’uomo (a meno che il destino non fosse proprio quello di padroneggiare il fuoco… o di produrre l’IA) * Affinché questa trasformazione avvenga a favore dello sviluppo umano, e non come nel caso dello smartphone adottato senza riflessione e controllo, i cittadini, gli intellettuali, gli artisti, gli educatori, gli assistenti, i filosofi, in breve, tutte le forze vive devono occuparsi di questo tema per definirne tutti insieme il suo impiego.   NOTE [1] anche Google, Apple, Meta, Amazon e Microsoft [2] Baïli, Alibaba, Tencent, Xiami) [3] https://www.lemonde.fr/pixels/article/2024/08/06/comment-l-ia-bouscule-le-milieu-de-la-sante-mentale-plutot-que-de-payer-une-nouvelle-seance-chez-le-psy-j-allais-sur-chatgpt_6270640_4408996.html [4] Questo fa venire in mente il film Idiocracy, una satira o una fiction profetica su una società in cui “gli schermi sono ovunque, e per estensione la pubblicità, il consumo e in definitiva una trappola, quella di diventare un pozzo di informazioni futili che ci sclerotizzerebbe nell’inattività, incapaci di sviluppare conoscenze essenziali e meccanismi intellettuali”. Una società in cui “l’essere umano moderno è una sorta di entità passiva, decerebrata, senza spazio per il pensiero critico, che viene alimentata con una visione del mondo preconfezionata”; una società “totalmente lobotomizzata dall’assurdità in ogni campo (politico, economico, educativo, culturale, ecc.)”. [5] Agricoltura, industria, trasporti, logistica, amministrazione – gestione, contabilità, risorse umane. [6] Ad esempio, potrebbe essere l’occasione per separare la nozione di lavoro da quella di reddito, con l’introduzione di un reddito di base o di un salario a vita. -------------------------------------------------------------------------------- Traduzione dal francese di Maria Rosaria Leggieri. Revisione di Thomas Schmid. Perspectives Humanistes
Clima, IA ‘anticipa’ le alluvioni
Clima, IA ‘anticipa’ le alluvioni: si cercano comuni per testarlo. Appello in Emilia-Romagna da Ex machina, azienda che ha inventato sistema Bologna. Battere sul tempo le alluvioni usando l’intelligenza artificiale, per gestire al meglio il rischio e anticipare l’emergenza. E’ ciò che fa il software messo a punto da Ex Machina Italia, azienda bolognese specializzata in soluzioni informatiche e intelligenza artificiale. Il sistema si chiama ‘Airas’, acronimo di ‘Artificial intelligence risk assessment system’, ed è un software di supporto decisionale per la gestione degli eventi meteo-idro-geologici. Attualmente è in fase di test pilota con alcuni Comuni italiani, ma Ex Machina vuole ampliare la sperimentazione. E così l’azienda lancia un appello agli enti locali dell’Emilia-Romagna. “Siamo alla ricerca di amministrazioni locali interessate a sperimentare ‘Airas’ sul proprio territorio- fanno sapere da Ex Machina- e contribuire allo sviluppo di una tecnologia che può fare la differenza nella gestione del rischio e nella salvaguardia delle comunità”. Il sistema è sviluppato con il supporto di Cineca, che fornisce la potenza di elaborazione necessaria, e combina vari elementi come intelligenza artificiale generativa, ‘deep reasoning’, documentazione storica (ad esempio rapporti post-evento e ordinanze) e dati territoriali certificati. Ogni Comune o ente coinvolto riceve dal software raccomandazioni personalizzate, calibrate sui propri piani di emergenza, regolamenti locali e flussi informativi in tempo reale. Le amministrazioni possono accedere anche a mappe interattive con priorità d’intervento geo-referenziate, aggiornate in base agli ultimi dati a disposizione. In un recente caso studio, ‘Airas’ ha analizzato in pochi minuti l’impatto di un evento previsto da un bollettino di allerta idrogeologica su un centro abitato, confrontando automaticamente dati storici, documentazione ufficiale e procedure della Protezione civile. Il sistema ha poi fornito indicazioni operative mirate, supportate da mappe interattive e geo-referenziate, che aggiornano in tempo reale le priorità di intervento. Il software, basato sul framework proprietario Cosmo 42 di Ex Machina, “garantisce piena adattabilità alle normative locali e interoperabilità con i sistemi già in uso”, assicura l’azienda. Agenzia DIRE