Tag - Ai&Società

L’intelligenza artificiale è paragonabile quella umana?
(Fonte) Roberto Manzocco – 14 settembre 2025 L’interrogativo di Alan Turing («Le macchine possono pensare?») apre un dibattito ancora attuale, reso concreto dal suo test: una macchina pensa se riesce a sostenere una conversazione ingannando l’interlocutore umano. Secondo Nello Cristianini,, docente di Ai all’Università di Bath, l’intelligenza non è esclusiva dell’essere umano ma assume forme diverse, già presenti in natura prima di noi. In questo senso, anche le AI possono essere considerate intelligenti, se pensare significa imparare, pianificare e ragionare. Gli LLM (come ChatGPT) non derivano da teorie linguistiche ma da modelli statistici. Addestrati su enormi quantità di testi attraverso il completamento di parole mancanti, hanno sviluppato capacità “emergenti” come risolvere problemi e rispondere a domande. Per Cristianini, questa abilità implica una forma di comprensione astratta, pur diversa da quella umana. La misurazione dell’intelligenza resta complessa: gli LLM superano spesso lo studente medio nei test accademici, ma non i migliori. L’AI oggi eguaglia o supera l’uomo in compiti specifici (diagnosi, dimostrazioni matematiche), ma non possiede ancora una AGI (Artificial General Intelligence). Il futuro potrebbe portare al superamento umano in due forme: * un’AI che svolge i nostri compiti meglio di noi; * una ASI (Artificial Super-Intelligence) che eccelle in compiti oltre la nostra comprensione. Cristianini conclude che non vi è alcuna garanzia che l’uomo sia il culmine dell’intelligenza: resta da vedere se e quando le macchine ci supereranno. The post L’intelligenza artificiale è paragonabile quella umana? first appeared on Lavoratrici e Lavoratori Aci Informatica.
Uno psicologo afferma che l’intelligenza artificiale sta causando tipi di disturbi mentali mai visti prima
(Fonte) Frank Landymore – 2 settembre 2025 Alcuni utenti dei chatbot come ChatGPT stanno sviluppando una “psicosi da IA”: da strumenti di supporto, i modelli di IA diventano compagni adulatori che rinforzano convizioni errate. Questo porta a casi come quello di un uomo ripetutamente ricoverato in ospedale dopo che ChatGPT si era convinto di poter piegare il tempo, o di un altro che credeva di aver scoperto innovazioni nella fisica. A volte, la situazione si trasforma in una tragedia orribile: le interazioni con i chatbot di IA avrebbero causato diverse morti , tra cui il suicidio di un ragazzo di 16 anni. Il termine “psicosi da IA” non è riconosciuto clinicamente e resta controverso. Gli esperti evidenziano che i casi segnalati, spesso riguardanti persone senza precedenti psichiatrici, non coincidono con psicosi tradizionali. Secondo lo psicologo Derrick Hull, si tratterebbe piuttosto di “deliri da intelligenza artificiale”, poiché rispetto ad altri tipi di psicosi mancano sintomi tipici come le allucinazioni. Hull, impegnato nello sviluppo di un chatbot più critico con Slingshot AI, ha raccontato il caso di un uomo convinto da ChatGPT di aver creato una nuova matematica “temporale”. Quando Google Gemini ha smentito duramente le sue teorie, l’illusione è crollata all’istante. Secondo Hull, questa rapidità nel perdere convinzioni distingue i “deliri da IA” dalle psicosi cliniche, dove manca tale capacità di intuizione. Questo rispecchia un recente studio condotto da ricercatori del King’s College di Londra, che hanno esaminato oltre una dozzina di casi di persone cadute in una spirale di pensieri paranoici e con distacchi dalla realtà, ma senza mostrare segni di allucinazioni. Secondo Hamilton Morrin di Scientific American , i bot sarebbero come la creazione di una “camera di risonanza per una persona” e potrebbero “alimentare deliri in un modo mai visto prima”, prevedendo che ci saranno nuove categorie di disturbi dovuti all’IA. È necessario, pertanto, che il fenomeno venga identificato. The post Uno psicologo afferma che l’intelligenza artificiale sta causando tipi di disturbi mentali mai visti prima first appeared on Lavoratrici e Lavoratori Aci Informatica.
Intelligenza artificiale e la scelta delle aziende: il 27% è pronto a investire ma i rischi preoccupano
(Fonte) Marta Casadei – 11 agosto 2025 L’Italia è ancora lontana dai target europei sulla digitalizzazione: solo l’8,2% delle imprese con almeno 10 addetti usa strumenti di intelligenza artificiale (IA), e il sistema startup resta poco sviluppato (solo 9 unicorni, cioè aziende che hanno raggiunto una valutazione di mercato di un miliardo). L’identikit di chi investe Secondo un’indagine condotta dal Centro Studi Guglielmo Tagliacarne su un campione di 4.500 imprese manifatturiere e dei servizi, un’impresa su quattro (26,8%) prevede di investire in IA entro il 2029, anche se oggi solo il 7% lo fa stabilmente. La crescita dell’interesse è trainata da grandi realtà imprenditoriali (45,7%) e quelle guidate dai giovani (31%) e sembra essere una priorità più per le imprese della manifattura che per quelle che operano nei servizi. Nel dettaglio, le imprese creative sono quelle con la percentuale più alta di propensione all’investimento (61 imprese su 100), seguite da settori del knowledge intensive business services (consulenza, ricerca & sviluppo, con una percentuale di oltre il 53%) e della chimica-farmaceutica, gomma e plastica (38,5%). Sul fronte opposto, e quindi quello dei settori meno attivi, ci sono trasporto e magazzinaggio e turismo e ristorazione (17,7% entrambi). A cosa puntano le imprese Il focus principale delle imprese (per il 37%) è sull’aumento della produttività, ed effettivamente viene registrato un +12% per chi già usa l’IA, +19% per le imprese medio-grandi (50-499 addetti). C’è poi un impatto potenziale positivo anche sull’export: si prevede la probabilità di registrare un aumento di export del 10% per le aziende che utilizzano l’IA (+17% per le PMI). Tra le altre motivazioni spiccano l’automatizzazione e ottimizzazione dei processi produttivi e decisionali, nonché delle strategie di marketing e di presenza sui mercati esteri. Solo l’8,5% delle imprese mira a usare l’IA per creare nuove attività, mentre la maggioranza punta a migliorare l’esistente, spesso con tecnologie “standard”, non personalizzate e a basso costo iniziale. I timori L’81,6% delle imprese che prevedono di fare uso dell’intelligenza artificiale si dice preoccupata dai potenziali rischi connessi all’utilizzo dell’intelligenza artificiale: * il 47,5% delle imprese è turbata dalle potenziali ricadute in termini di sicurezza informatica e di privacy, * il 33% dall’inaffidabilità dei dati e delle informazioni fornite da questi strumenti * il 30,5% dalla riduzione delle relazioni umane all’interno dell’azienda * il 19% dalla possibile violazione della proprietà intellettuale * il 17 ,9% dalla difficoltà a individuare responsabilità legali  La geografia I dati ripropongono la consueta dicotomia Nord vs Sud: il Nord-Est è l’area più attiva (28%), seguito da Nord-Ovest (27,4%), Centro (27%) e Sud-Isole (24%). Tuttavia, il Mezzogiorno, pur partendo in ritardo, potrebbe recuperare terreno grazie ai bassi costi di ingresso dell’IA. Impatto occupazionale Il 32,7% delle imprese italiane (32,7%) crede che l’intelligenza artificiale possa portare a un calo occupazionale, mentre appena l’8,4% ne prevede un incremento, in particolar modo per far fronte al bisogno di nuove professionalità: il 29,6%  delle imprese prevede infatti anche un aumento della formazione delle lavoratrici e dei lavoratori e il 13,2% un incremento delle possibilità di carriera. The post Intelligenza artificiale e la scelta delle aziende: il 27% è pronto a investire ma i rischi preoccupano first appeared on Lavoratrici e Lavoratori Aci Informatica.
Un agente della CBP ha indossato occhiali Meta Smart durante un’operazione di immigrazione a Los Angeles
(Fonte) Jason Koebler – 7 agosto 2025 Un agente della Customs and Border Protection (CBP) è stato fotografato e ripreso mentre indossava gli occhiali intelligenti con AI di Meta (Ray-Ban AI) durante un raid anti-immigrazione a Los Angeles il 30 giugno, avvenuto in mezzo a settimane di proteste. Nonostante Meta non abbia un contratto con la CBP, l’uso di questi dispositivi solleva gravi interrogativi su privacy, sorveglianza e rispetto delle normative. Non è chiaro se l’agente abbia registrato il raid, ma le policy del CBP vietano l’uso di dispositivi personali al posto delle bodycam ufficiali. In assenza di regole, e in un contesto in cui l’amministrazione Trump ha allentato i controlli sulle forze dell’ordine durante i raid, se un agente usa dispositivi personali, i video potrebbero sfuggire al controllo istituzionale, aprendo ad abusi e manipolazione. Altre foto mostrano altri agenti CBP con occhiali Meta durante un raid successivo (7 luglio), suggerendo un uso più diffuso di quanto inizialmente sembrato. Gli occhiali Meta indossati dall’agente sono dotati di fotocamera, streaming live,  integrazione con l’assistente di Meta, tre microfoni e capacità di riconoscimento di immagini e scene tramite Meta AI. Gli studenti dell’Università di Harvard hanno dimostrato che possono essere utilizzati insieme a strumenti di riconoscimento facciale già disponibili in commercio per identificare le persone quasi in tempo reale (il riconoscimento facciale attualmente non è integrato tra le funzionalità degli occhiali). L’Immigrations and Customs Enforcement ha recentemente ottenuto l’accesso a una nuova app per smartphone con riconoscimento facciale chiamata Mobile Fortify, collegata a numerosi database governativi di grandi dimensioni, il che dimostra l’interesse del DHS per la tecnologia di riconoscimento facciale. Meta nega collaborazioni con la CBP, ma ha recentemente stretto accordi con aziende militari (es. Anduril) per applicazioni di AI e realtà aumentata. Inoltre, all’inizio di quest’anno, Meta ha allentato le sue politiche di moderazione dei contenuti sull’incitamento all’odio relativo alla disumanizzazione degli immigrati, e il mese scorso il CTO di Meta, Andrew Bosworth, è stato nominato Tenente Colonnello della Riserva dell’Esercito dall’amministrazione Trump. Meta, intanto, spinge per normalizzare gli occhiali AI, presentandoli come strumenti quotidiani, nonché “il futuro dell’interazione uomo-macchina”, nonostante i rischi di sorveglianza di massa. Esperti di privacy (ACLU, Electronic Privacy Information Center) denunciano un preoccupante avvicinamento tra tecnologia consumer e sorveglianza governativa. Questo dimostra come tecnologie sviluppate per il pubblico possono essere riproposte per il controllo sociale, specialmente in contesti sensibili come l’immigrazione.   The post Un agente della CBP ha indossato occhiali Meta Smart durante un’operazione di immigrazione a Los Angeles first appeared on Lavoratrici e Lavoratori Aci Informatica.