Source - Lavoratrici e Lavoratori Aci Informatica

Autorganizzati

L’intelligenza artificiale è paragonabile quella umana?
(Fonte) Roberto Manzocco – 14 settembre 2025 L’interrogativo di Alan Turing («Le macchine possono pensare?») apre un dibattito ancora attuale, reso concreto dal suo test: una macchina pensa se riesce a sostenere una conversazione ingannando l’interlocutore umano. Secondo Nello Cristianini,, docente di Ai all’Università di Bath, l’intelligenza non è esclusiva dell’essere umano ma assume forme diverse, già presenti in natura prima di noi. In questo senso, anche le AI possono essere considerate intelligenti, se pensare significa imparare, pianificare e ragionare. Gli LLM (come ChatGPT) non derivano da teorie linguistiche ma da modelli statistici. Addestrati su enormi quantità di testi attraverso il completamento di parole mancanti, hanno sviluppato capacità “emergenti” come risolvere problemi e rispondere a domande. Per Cristianini, questa abilità implica una forma di comprensione astratta, pur diversa da quella umana. La misurazione dell’intelligenza resta complessa: gli LLM superano spesso lo studente medio nei test accademici, ma non i migliori. L’AI oggi eguaglia o supera l’uomo in compiti specifici (diagnosi, dimostrazioni matematiche), ma non possiede ancora una AGI (Artificial General Intelligence). Il futuro potrebbe portare al superamento umano in due forme: * un’AI che svolge i nostri compiti meglio di noi; * una ASI (Artificial Super-Intelligence) che eccelle in compiti oltre la nostra comprensione. Cristianini conclude che non vi è alcuna garanzia che l’uomo sia il culmine dell’intelligenza: resta da vedere se e quando le macchine ci supereranno. The post L’intelligenza artificiale è paragonabile quella umana? first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’enorme richiesta di energia dell’IA e lo spettro della disuguaglianza
(Fonte) Paolo Benanti – 17 settembre 2025 L’innovazione nell’IA promette prestazioni sempre maggiori, ma a costo di un enorme consumo energetico. Uno studio del TeraLab del Kaist (Korea Advanced Institute of Science and Technology) prevede che entro il 2035 i chip di nuova generazione possano arrivare a richiedere fino a 15.360 watt per modulo, a causa dell’evoluzione delle memorie HBM (da HBM4 a HBM8) e dell’aumento della potenza delle GPU (da 800W nel 2026 a 1.200W nel 2035). Questo scenario, cruciale per applicazioni come i grandi modelli linguistici, pone l’energia come principale collo di bottiglia dello sviluppo dell’IA. Le conseguenze non riguardano solo i chip, ma anche data center, reti elettriche e logistica del raffreddamento: un singolo modulo da 15KW modifica la distribuzione della potenza nei rack, i sistemi di raffreddamento e la gestione termica delle strutture. Poiché il raffreddamento rappresenta già quasi il 40% del consumo dei data center, i chip futuri rischiano di spingere ancora più in alto questa quota. La crescita dei data center e dei carichi energetici richiesti dall’IA rischia di entrare in conflitto con i tempi lunghi di adeguamento delle infrastrutture elettriche (7-15 anni). L’accesso all’energia sta diventando il vero fattore competitivo, come mostrano le moratorie a Dublino o i limiti a Francoforte e Singapore. Un modulo da 15 kW può costare fino a 20.000 dollari l’anno in energia, trasformando l’elettricità da semplice costo operativo a variabile decisiva di fattibilità e ritorno degli investimenti. La geografia dell’IA si ridisegna: regioni ricche di energia (Paesi nordici, Midwest USA, stati del Golfo) attraggono data center, mentre aree con reti congestionate rischiano di diventare “deserti dell’IA”. Per l’Italia, con una capacità installata di circa 120 GW ma già segnata da colli di bottiglia e saturazione virtuale, la sfida è cruciale. La domanda crescente, soprattutto nelle aree metropolitane come Milano, mette sotto pressione il sistema elettrico e le cabine primarie: il ritardo potrebbe tradursi in disuguaglianze o deindustrializzazione. The post L’enorme richiesta di energia dell’IA e lo spettro della disuguaglianza first appeared on Lavoratrici e Lavoratori Aci Informatica.
Come migliaia di esseri umani “sovraccaricati di lavoro e sottopagati” addestrano l’intelligenza artificiale di Google a sembrare intelligente
(Fonte) Varsha Bansal – 11 set 2025 Nella primavera del 2024, quando Rachael Sawyer, una scrittrice tecnica del Texas, ricevette un messaggio su LinkedIn da un recruiter che le chiedeva un ruolo vago come analista di scrittura, pensò che si sarebbe trattato di un incarico simile ai suoi precedenti incarichi di creazione di contenuti. Tuttavia, il suo primo giorno di lavoro, una settimana dopo, le sue aspettative andarono in fumo. Invece di scrivere testi da sola, il compito di Sawyer era valutare e moderare i contenuti creati dall’intelligenza artificiale. “Sono rimasto scioccato dal fatto che il mio lavoro prevedesse di lavorare con contenuti così angoscianti”, ha affermato Sawyer, che lavora come “valutatore generalista” per i prodotti di intelligenza artificiale di Google da marzo 2024. “Non solo perché non sono stato avvisato e non mi è mai stato chiesto di firmare alcun modulo di consenso durante l’onboarding, ma perché né il titolo né la descrizione del lavoro menzionavano mai la moderazione dei contenuti”. La pressione di dover completare decine di questi compiti ogni giorno, ognuno entro 10 minuti, ha portato Sawyer in spirali di ansia e attacchi di panico, afferma, senza il supporto della salute mentale del suo datore di lavoro. Sawyer è uno delle migliaia di dipendenti specializzati in intelligenza artificiale assunti da Google tramite GlobalLogic, società del conglomerato giapponese Hitachi, per valutare e moderare l’output dei prodotti di intelligenza artificiale di Google, tra cui il suo chatbot di punta Gemini, lanciato all’inizio dello scorso anno, e i suoi riepiloghi dei risultati di ricerca, AI Overviews. Ogni nuovo rilascio di modello promette una maggiore accuratezza, il che significa che per ogni versione, questi valutatori di intelligenza artificiale lavorano duramente per verificare che le risposte del modello siano sicure per l’utente. Migliaia di persone prestano la loro intelligenza per insegnare ai chatbot le risposte corrette in ambiti diversi come la medicina, l’architettura e l’astrofisica, correggendo gli errori ed evitando output dannosi. Molta attenzione è stata dedicata ai lavoratori che etichettano i dati utilizzati per addestrare l’intelligenza artificiale. Esiste, tuttavia, un altro gruppo di lavoratori, tra cui Sawyer, che lavora giorno e notte per moderare l’output dell’IA, garantendo che i miliardi di utenti dei chatbot vedano solo risposte sicure e appropriate. I modelli di intelligenza artificiale vengono addestrati su vaste quantità di dati provenienti da ogni angolo di Internet. Lavoratori come Sawyer si collocano in un livello intermedio della catena di fornitura globale dell’intelligenza artificiale, pagati più degli annotatori di dati di Nairobi o Bogotà , il cui lavoro consiste principalmente nell’etichettare i dati per modelli di intelligenza artificiale o auto a guida autonoma, ma molto al di sotto degli ingegneri di Mountain View che progettano questi modelli. Nonostante il loro contributo significativo a questi modelli di intelligenza artificiale, che forse sarebbero allucinanti se non fosse per questi editor del controllo qualità, questi lavoratori si sentono nascosti. “L’intelligenza artificiale non è magia; è uno schema piramidale di lavoro umano”, ha affermato Adio Dinika, ricercatore presso il Distributed AI Research Institute di Brema, in Germania. “Questi valutatori rappresentano il gradino intermedio: invisibili, essenziali e sacrificabili”. Google, come altre aziende tecnologiche, assume i data worker attraverso una rete di appaltatori e subappaltatori. Uno dei principali appaltatori per i valutatori di intelligenza artificiale di Google è GlobalLogic, dove questi valutatori sono suddivisi in due grandi categorie: valutatori generalisti e super valutatori.  La maggior parte dei lavoratori assunti inizialmente per questi ruoli erano insegnanti. Altri includevano scrittori, persone con master in belle arti e alcuni con competenze molto specifiche, ad esempio dottori di ricerca in fisica, hanno affermato i lavoratori. GlobalLogic ha avviato questo lavoro per il colosso tecnologico nel 2023: all’epoca, aveva assunto 25 super valutatori, secondo tre dei dipendenti intervistati. Con l’intensificarsi della corsa al miglioramento dei chatbot, GlobalLogic ha incrementato le assunzioni e ha ampliato il team di super valutatori dell’IA a quasi 2.000 persone. I valutatori di intelligenza artificiale di GlobalLogic sono pagati più dei loro colleghi che si occupano di etichettatura dei dati in Africa e Sud America, con stipendi a partire da 16 dollari l’ora per i valutatori generalisti e 21 dollari l’ora per i super valutatori, secondo i lavoratori. Alcuni sono semplicemente grati di avere un impiego mentre il mercato del lavoro statunitense è in crisi, ma altri affermano che cercare di migliorare i prodotti di intelligenza artificiale di Google ha avuto un costo personale. Sebbene il settore dell’intelligenza artificiale sia in forte espansione, i valutatori di intelligenza artificiale non godono di una forte sicurezza del posto di lavoro. Dall’inizio del 2025, GlobalLogic ha registrato licenziamenti continui, con la forza lavoro totale di super valutatori e valutatori generalisti dell’intelligenza artificiale che si è ridotta a circa 1.500 unità, secondo diversi dipendenti. Allo stesso tempo, i dipendenti avvertono un senso di perdita di fiducia nei prodotti che contribuiscono a sviluppare e formare. La maggior parte dei dipendenti ha affermato di evitare di utilizzare LLM o di utilizzare estensioni per bloccare i riepiloghi dell’intelligenza artificiale perché ora ne conosce il funzionamento. Molti scoraggiano anche familiari e amici dall’utilizzarlo, per lo stesso motivo. “Voglio solo che la gente sappia che l’intelligenza artificiale viene spacciata per una magia tecnologica: ecco perché c’è un piccolo simbolo scintillante accanto alla risposta dell’intelligenza artificiale”, ha detto Sawyer. “Ma non lo è. È costruita sulle spalle di esseri umani sfruttati e sottopagati”. The post Come migliaia di esseri umani “sovraccaricati di lavoro e sottopagati” addestrano l’intelligenza artificiale di Google a sembrare intelligente first appeared on Lavoratrici e Lavoratori Aci Informatica.
Le aziende traggono vantaggio dai licenziamenti guidati dall’intelligenza artificiale
(Fonte) Dave Lozo – 4 settembre 2025 Il CEO di Salesforce, Marc Benioff, che ha dichiarato al podcast The Logan Bartlett Show di aver tagliato 4.000 posti di lavoro nel servizio clienti grazie al tipo di intelligenza artificiale di cui Matthew McConaughey e Woody Harrelson apparentemente non potrebbero fare a meno. A giugno, Benioff ha affermato che l’intelligenza artificiale svolge il 50% del lavoro in Salesforce. Ieri, l’azienda ridimensionata ha riportato un secondo trimestre con un fatturato doppio (10,24 miliardi di dollari contro 10,14 miliardi di dollari) e un utile per azione (2,91 dollari contro 2,78 dollari), sebbene le previsioni più deboli per il terzo trimestre abbiano fatto crollare il titolo dopo la chiusura. Non mancano aziende che sfruttano l’intelligenza artificiale per rimanere redditizie, per la gioia degli investitori (non Salesforce): * L’amministratore delegato di Wells Fargo ha annunciato la riduzione del personale per 20 trimestri consecutivi. Le sue azioni sono aumentate del 228% negli ultimi cinque anni. * Il CEO di Bank of America, Brian Moynihan, non lo ha nascosto durante una recente conference call sui risultati finanziari, quando ha dichiarato che l’azienda ha licenziato 88.000 dipendenti negli ultimi 15 anni. Le azioni di BofA sono aumentate del 95% dal 2020. * Amazon, il cui valore azionario è aumentato del 28% nell’ultimo anno, ha recentemente comunicato ai propri dipendenti che l’implementazione dell’intelligenza artificiale avrebbe portato a licenziamenti. * Microsoft ha tagliato 15.000 posti di lavoro negli ultimi due mesi, mentre l’azienda si orienta verso l’intelligenza artificiale; inoltre, le sue azioni sono in rialzo dall’inizio di luglio. Allargando lo sguardo: secondo HR Dive, il 34% degli amministratori delegati prevede di attuare licenziamenti nei prossimi 12 mesi, il quinto trimestre consecutivo in cui tale numero è in aumento. Molly Kinder, senior fellow presso Brookings, esperta in intelligenza artificiale e nel presente e futuro del lavoro, ha dichiarato al WSJ: “Non credo che questa sia una buona notizia per il lavoratore americano”. —DL The post Le aziende traggono vantaggio dai licenziamenti guidati dall’intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.
Come dovremmo parlare di intelligenza artificiale ai nostri figli?
(Fonte) 30 agosto 2025 – Kathryn Jezer-Morton I noiosi compositi che l’IA generativa cerca di spacciare per “idee” sono per definizione nella media, e da quando ho letto il libro di Karen Hao “Empire of AI” , le incombenti devastazioni nel mondo reale delle infrastrutture di IA non mi sembrano più astratte: sono inevitabili. A parte i miei pensieri sull’uso dell’IA generativa – no, non sono d’accordo che sia “divertente da usare”, cresci! – non commettiamo lo stesso errore che abbiamo commesso l’ultima volta che ci siamo trovati di fronte a una tecnologia rivoluzionaria che i suoi sviluppatori sostenevano fosse inevitabile e allo stesso tempo fantastica. Vent’anni fa, abbiamo adottato i social media con lo stesso livello di pensiero critico che un bambino applica quando si mette un LEGO in bocca. Abbiamo condiviso cose che non avremmo dovuto e abbiamo accettato con entusiasmo i nostri feed come un sostituto della realtà. In seguito, quando è arrivato il momento per i giovani di creare i propri account, gli adulti hanno abdicato a ogni responsabilità di modellare comportamenti intelligenti. Abbiamo lasciato che i bambini facessero quello che volevano sui social media, partendo dal presupposto corretto che non avessimo più abbastanza credibilità per stabilire alcun controllo. Emily Bender, linguista coautrice di The AI Con con il sociologo Alex Hanna, mi ha ricordato che quando parliamo di intelligenza artificiale, dobbiamo essere precisi. Molti strumenti che utilizzano l’intelligenza artificiale – ad esempio strumenti di trascrizione vocale-testo o strumenti che trasformano un insieme di testi in un podcast di supporto allo studio – non generano qualcosa di nuovo; combinano gli input di un singolo individuo e li rendono leggibili in un nuovo formato. Ciò che Bender critica maggiormente sono quelle che chiama “macchine multimediali sintetiche”: modelli che creano immagini e testi compositi, come ChatGPT, DALL-E3 e Midjourney, utilizzando enormi librerie di materiale esistente per soddisfare un prompt.”Questi strumenti sono progettati per apparire come sistemi oggettivi e onniscienti, e credo sia importante abituare i bambini a chiedersi: ‘Chi ha costruito tutto questo? Chi ha detto e scritto le cose originali che sono diventate i dati di training? Di chi sono state rubate le illustrazioni da queste aziende per produrre i set di training?'”, ha affermato Bender. Per i bambini troppo piccoli per rispondere a queste domande, Bender suggerisce ai genitori di concentrarsi sull’impatto ambientale. “Ogni volta che si utilizza un chatbot, si contribuisce a costruire le basi per lo sviluppo del modello successivo e la costruzione del prossimo data center da parte dell’azienda. I data center devono essere raffreddati con enormi quantità di acqua pulita, e acqua pulita di solito significa acqua potabile”. Di chi sarà l’acqua potabile che verrà deviata? orse riusciremo a raggiungere i ragazzi in età universitaria facendo leva sul loro istinto competitivo. “Il modo migliore per garantire la sicurezza del lavoro e la qualità della vita in generale in futuro è capire i propri punti di forza e in cosa si è unici”, ha detto Hao. “In definitiva, le aziende non cercano di capire se sai usare uno strumento o meno. Cercano qualcosa di insostituibile in te che non possono semplicemente scambiare con un altro candidato. Se fai troppo affidamento sull’intelligenza artificiale, che si basa letteralmente sulla ripetitività statistica, ti darai la zappa sui piedi. Non riuscirai a individuare i tuoi punti di forza, ed è a questo che serve l’università: cimentarsi, provare cose nuove. Alcuni ragazzi si affidano ai chatbot per prendere decisioni di vita, per capire come reagire in determinate situazioni, e ottengono sempre la media statistica. Ti fa sembrare come tutti gli altri. Il tuo utilizzo dell’intelligenza artificiale non sarà percepito come intelligente. Non ti distinguerai mai.” Sebbene Empire of AI si concentri su come le aziende tecnologiche stiano accumulando lo stesso tipo di potere un tempo esercitato solo dai governi imperialisti, Hao mi ha detto che la nostra più forte resistenza inizia in casa, dove dovremmo incoraggiare l’indipendenza dei bambini nel mondo esterno. “I bambini sentono che i loro telefoni e questi strumenti sono uno spazio davvero libero in cui non sono supervisionati. Mentre quando escono di persona, sono spesso sorvegliati e sorvegliati. Quindi, anche se potrebbero preferire socializzare di persona, preferirebbero avere la libertà che deriva dall’essere online”. Se i genitori riescono a dare ai loro figli questa sensazione di libertà nei loro ambienti sociali, ciò potrebbe fornire una valida alternativa al fascino dell’intelligenza artificiale sempre attiva. The post Come dovremmo parlare di intelligenza artificiale ai nostri figli? first appeared on Lavoratrici e Lavoratori Aci Informatica.
La ricerca suggerisce che i medici potrebbero rapidamente diventare dipendenti dall’intelligenza artificiale
(Fonte) Geoff Brumfiel – 19 agosto 2025 L’intelligenza artificiale sta iniziando ad aiutare i medici a sottoporre i pazienti a screening per diverse patologie di routine. Ma un nuovo studio solleva preoccupazioni sul fatto che i medici potrebbero diventare troppo dipendenti dall’intelligenza artificiale. Lo studio condotto su gastroenterologi in Polonia ha rilevato che, dopo essersi abituati all’uso di un sistema assistito dall’intelligenza artificiale, la loro capacità di individuare autonomamente polipi e altre anomalie durante le colonscopie era circa del 20%. I risultati , pubblicati sulla rivista Lancet Gastroenterology and Hepatology, suggeriscono che anche dopo un breve periodo di utilizzo dell’intelligenza artificiale, gli esperti potrebbero diventare eccessivamente dipendenti dall’intelligenza artificiale per svolgere determinati aspetti del loro lavoro. L’intelligenza artificiale sta diventando sempre più comune in numerose ecografie mediche di routine. La prossima volta che vi sottoporrete a un’ecografia per la vista, il cancro al seno o una malattia del colon, ci sono buone probabilità che l’intelligenza artificiale analizzi le immagini. Qualche anno fa, quattro cliniche in Polonia hanno sperimentato un sistema di intelligenza artificiale per rilevare polipi e altre anomalie durante le colonscopie. L’intelligenza artificiale funziona in tempo reale, analizzando i video di una telecamera posta all’interno del colon. Se individua qualcosa, evidenzierà l’area in modo che il medico possa vederla. Le cliniche stavano raccogliendo dati per verificare se il sistema di intelligenza artificiale funzionasse. A quanto pare sì, ma quando Romańczyk e i suoi colleghi hanno rianalizzato i dati, hanno scoperto qualcos’altro: dopo l’introduzione del sistema, i medici erano significativamente meno abili nel rilevare possibili polipi quando l’intelligenza artificiale era disattivata. Secondo la loro analisi , dopo che i medici hanno adottato l’intelligenza artificiale, i tassi di rilevamento di possibili polipi sono scesi dal 28,4% al 22,4% quando il nuovo sistema di intelligenza artificiale è stato disattivato. In altre parole, i medici sembravano diventare rapidamente dipendenti dai sistemi di intelligenza artificiale per la rilevazione dei polipi. Romańczyk afferma di non essere del tutto sicuro del perché ciò accada, ma ha alcune teorie. The post La ricerca suggerisce che i medici potrebbero rapidamente diventare dipendenti dall’intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.
RESTIAMO UMANI – BLOCCHIAMO TUTTO
Mai più significa MAI PIU’, con queste semplici parole una ragazza del Laboratorio Ebraico Antirazzista nato in Italia e che partecipa della rete europea European Jews for Palestine, ha iniziato il suo intervento al termine dell’enorme manifestazione che domenica scorsa ha attraversato le vie di Roma a sostegno della Global Sumud Flotilla e contro il genocidio in corso a Gaza. MAI PIU’ era lo slogan che in tutto il mondo si è affermato al termine della seconda guerra mondiale a fronte dei genocidi nazi-fascisti del popolo Ebreo e di quello Rom e Sinti. Invece oggi ci troviamo a vivere in diretta video lo sterminio di un popolo attraverso i bombardamenti, gli omicidi e addirittura usando l’arma della fame. Non possiamo rimanere inermi di fronte al genocidio che il governo sionista di Israele sta perpetrando a danno del popolo Palestinese. Non possiamo rimanere silenti di fronte alla complicità con tale genocidio degli stati occidentali dagli USA all’UE con la sola eccezione della Spagna. Non possiamo abituarci al bombardamento degli ospedali e all’assassinio deliberato di operatori sanitari, giornalisti e personale delle agenzie ONU di assistenza. Non possiamo abituarci a tutto questo perché significherebbe perdere l’umanità, significherebbe avallare la logica della sopraffazione e della legge del più forte nei rapporti sociali, umani, economici, affettivi. Questa cultura della morte che sta investendo questo nostro mondo si nutre del riarmo, della sopraffazione di genere, del razzismo e della brutalità contro le persone che emigrano, perfino del disprezzo contro la fauna selvatica e l’indifferenza alle sofferenze dell’ambiente. E’ questa complessiva cultura della morte che vogliamo sconfiggere! La Global Sumud Flotilla è un tentativo di persone normali, nato dal basso di rompere l’assedio, porre fine al genocidio e lanciare un segnale forte che, di fronte all’ignavia e alla complicità dei governi, ci sono milioni di donne e uomini che hanno deciso di lottare fino in fondo affinché la CULTURA DELLA VITA si affermi contro la MORTE prodotta da questo sistema. Per questo anche noi abbiamo deciso di far parte dell’equipaggio di terra della Global Sumud Flotilla e dichiariamo fin d’ora che quando sarà necessario ci uniremo allo SCIOPERO GENERALE e porteremo il nostro contributo a BLOCCARE TUTTO a Roma, in Italia e nel mondo. The post RESTIAMO UMANI – BLOCCHIAMO TUTTO first appeared on Lavoratrici e Lavoratori Aci Informatica.
OpenAI annuncia una piattaforma di assunzione basata sull’intelligenza artificiale per sfidare LinkedIn
(Fonte) Maxwell Zeff – 4 settembre 2025 OpenAI afferma di stare sviluppando OpenAI Job Platform una piattaforma di assunzioni basata sull’intelligenza artificiale per mettere in contatto aziende e dipendenti, un servizio che la metterebbe in forte competizione con LinkedIn, co-fondata da Reid Hoffman, uno dei primi investitori di OpenAI. LinkedIn è anche di proprietà di Microsoft, il principale finanziatore di OpenAI. L’azienda prevede di lanciare il prodotto entro la metà del 2026. Fidji Simo, CEO di OpenAI Applications, ha annunciato la nuova iniziativa in un post sul blog giovedì. OpenAI è interessata ad espandersi in diversi nuovi mercati (tra cui un browser e un’app per i social media) oltre alla sua offerta principale per i consumatori, ChatGPT, come dichiarato dal CEO di OpenAI durante una recente cena con i giornalisti. Nell’ultimo anno, LinkedIn ha lavorato per dotare la sua piattaforma di funzionalità di intelligenza artificiale . OpenAI avvierà a fine 2025 un progetto pilota di certificazioni tramite la sua Academy, in collaborazione con Walmart, con l’obiettivo di attestare competenze IA e formare fino a 10 milioni di americani entro il 2030. OpenAI afferma di lanciare questi programmi nell’ambito del suo impegno nell’ambito dell’iniziativa della Casa Bianca per ampliare la conoscenza dell’intelligenza artificiale. The post OpenAI annuncia una piattaforma di assunzione basata sull’intelligenza artificiale per sfidare LinkedIn first appeared on Lavoratrici e Lavoratori Aci Informatica.
Le aziende di intelligenza artificiale stanno inseguendo gli utenti governativi con forti sconti
(Fonte) Lauren Feiner 12 agosto 2025 Fin dal lancio di ChatGPT, le aziende di intelligenza artificiale si sono battute per affermarsi nella pubblica amministrazione in più di un modo. Nell’ultima settimana, sia OpenAI che Anthropic hanno introdotto prezzi speciali per le versioni governative dei loro chatbot di intelligenza artificiale generativa (prezzo simbolico di 1 dollaro), ChatGPT e Claude, e xAI ha annunciato il suo Grok for Government a metà luglio. Offrire inizialmente i servizi a prezzi simbolici consente loro di assicurarsi un vantaggio competitivo nel lungo periodo. Ottenere clienti governativi può essere un ottimo modo per le aziende tecnologiche di assicurarsi ampie basi di utenti e profitti. Il governo degli Stati Uniti afferma di spendere oltre 100 miliardi di dollari all’anno in “investimenti IT e informatici, incluso l’acquisto di licenze software”. Anthropic, OpenAI, Google e xAI si sono già aggiudicate contratti che potrebbero valere fino a 200 milioni di dollari ciascuno per contribuire a modernizzare il Dipartimento della Difesa degli Stati Uniti. OpenAI, nel suo annuncio, ha affermato che la sua offerta “realizza un pilastro fondamentale del Piano d’azione per l’intelligenza artificiale dell’amministrazione Trump, rendendo disponibili potenti strumenti di intelligenza artificiale in tutto il governo federale, in modo che i lavoratori possano dedicare meno tempo a burocrazia e scartoffie e più tempo a fare ciò per cui sono venuti al servizio pubblico: servire il popolo americano”. The post Le aziende di intelligenza artificiale stanno inseguendo gli utenti governativi con forti sconti first appeared on Lavoratrici e Lavoratori Aci Informatica.
Uno psicologo afferma che l’intelligenza artificiale sta causando tipi di disturbi mentali mai visti prima
(Fonte) Frank Landymore – 2 settembre 2025 Alcuni utenti dei chatbot come ChatGPT stanno sviluppando una “psicosi da IA”: da strumenti di supporto, i modelli di IA diventano compagni adulatori che rinforzano convizioni errate. Questo porta a casi come quello di un uomo ripetutamente ricoverato in ospedale dopo che ChatGPT si era convinto di poter piegare il tempo, o di un altro che credeva di aver scoperto innovazioni nella fisica. A volte, la situazione si trasforma in una tragedia orribile: le interazioni con i chatbot di IA avrebbero causato diverse morti , tra cui il suicidio di un ragazzo di 16 anni. Il termine “psicosi da IA” non è riconosciuto clinicamente e resta controverso. Gli esperti evidenziano che i casi segnalati, spesso riguardanti persone senza precedenti psichiatrici, non coincidono con psicosi tradizionali. Secondo lo psicologo Derrick Hull, si tratterebbe piuttosto di “deliri da intelligenza artificiale”, poiché rispetto ad altri tipi di psicosi mancano sintomi tipici come le allucinazioni. Hull, impegnato nello sviluppo di un chatbot più critico con Slingshot AI, ha raccontato il caso di un uomo convinto da ChatGPT di aver creato una nuova matematica “temporale”. Quando Google Gemini ha smentito duramente le sue teorie, l’illusione è crollata all’istante. Secondo Hull, questa rapidità nel perdere convinzioni distingue i “deliri da IA” dalle psicosi cliniche, dove manca tale capacità di intuizione. Questo rispecchia un recente studio condotto da ricercatori del King’s College di Londra, che hanno esaminato oltre una dozzina di casi di persone cadute in una spirale di pensieri paranoici e con distacchi dalla realtà, ma senza mostrare segni di allucinazioni. Secondo Hamilton Morrin di Scientific American , i bot sarebbero come la creazione di una “camera di risonanza per una persona” e potrebbero “alimentare deliri in un modo mai visto prima”, prevedendo che ci saranno nuove categorie di disturbi dovuti all’IA. È necessario, pertanto, che il fenomeno venga identificato. The post Uno psicologo afferma che l’intelligenza artificiale sta causando tipi di disturbi mentali mai visti prima first appeared on Lavoratrici e Lavoratori Aci Informatica.
La cinese DeepSeek prepara un agente di intelligenza artificiale per la fine del 2025, in grado di competere con OpenAI
(Fonte) Saritha Rai – 4 settembre 2025 Secondo fonti vicine alla questione, DeepSeek sta sviluppando un modello di intelligenza artificiale con funzionalità di agenti AI più avanzate, in grado di eseguire azioni multi-fase con istruzioni minime e di apprendere dalle esperienze precedenti, per competere con i rivali statunitensi come OpenAI in una nuova frontiera della tecnologia. Il lancio del nuovo software è previsto nell’ultimo trimestre di quest’anno. La piattaforma di intelligenza artificiale agentica in fase di sviluppo sottolinea la determinazione della startup di Hangzhou a rimanere all’avanguardia in un settore altamente competitivo. Dall’R1, l’azienda cinese ha introdotto solo aggiornamenti minori, nonostante i rivali negli Stati Uniti e in Cina abbiano lanciato una raffica di nuovi modelli. Il piano dell’azienda per un nuovo modello incentrato sugli agenti, di cui non si è parlato in precedenza, rispecchia un cambiamento più ampio nel settore tecnologico. Questa nuova generazione i servizi, lanciati negli ultimi mesi anche da aziende quali OpenAI , Anthropic , Microsoft Corp, e la cinese Manus AI, è pensata per svolgere compiti più complessi rispetto ai semplici chatbot, che vanno dalla ricerca di una vacanza alla scrittura e al debug di codice informatico. Ad oggi, tuttavia, gli agenti di intelligenza artificiale richiedono spesso una discreta supervisione da parte di un adulto . The post La cinese DeepSeek prepara un agente di intelligenza artificiale per la fine del 2025, in grado di competere con OpenAI first appeared on Lavoratrici e Lavoratori Aci Informatica.
La domanda di chip AI rimane forte nonostante l’ansia della bolla
(Fonte) Patrick Kulp – 28 agosto 2025 Con i timori che aleggiavano intorno a una bolla dell’intelligenza artificiale, molti hanno seguito con il fiato sospeso il resoconto delle performance trimestrali di Nvidia, anche più del solito. Le vendite dei chip dell’azienda non servono solo a misurare la febbre dell’intelligenza artificiale, ma anche a dare un’idea dello stato di salute del mercato nel suo complesso, dato che la spesa per l’intelligenza artificiale rappresenta ormai una quota crescente della crescita economica del Paese. Tuttavia, l’aumento della posta in gioco non ha prodotto nulla di particolarmente drammatico: seguendo un andamento piuttosto familiare, l’azienda più preziosa al mondo ha superato di poco le stime consensuali della maggior parte degli analisti per la sua performance del secondo trimestre, mentre il suo titolo è leggermente sceso, in parte a causa delle aspettative già troppo elevate. Grandi investitori: è un vantaggio il fatto che molti dei principali clienti di Nvidia abbiano già affermato di aver continuato a investire ingenti somme nella costruzione di data center nel trimestre precedente e che continueranno a farlo anche in quello attuale. Kress ha affermato durante la conference call che Nvidia prevede che le aziende spenderanno dai 3 ai 4 trilioni di dollari in infrastrutture di intelligenza artificiale entro la fine del decennio. Bolla in arrivo? Ma investitori e analisti hanno iniziato a temere una possibile esplosione della bolla dell’IA, come è successo periodicamente negli ultimi anni. Le reazioni timide al GPT-5 di OpenAI hanno sollevato la possibilità di un rallentamento dei progressi della ricerca. Un rapporto del MIT ha rilevato che il 95% dei progetti pilota di GenAI aziendali fallisce. Il CEO di OpenAI, Sam Altman, ha recentemente lanciato l’allarme. Le prestazioni di Nvidia non hanno necessariamente contribuito ad aumentare queste ansie, ma non è nemmeno chiaro se siano state abbastanza forti da metterle a tacere. The post La domanda di chip AI rimane forte nonostante l’ansia della bolla first appeared on Lavoratrici e Lavoratori Aci Informatica.