Tag - Ai&Innovazione

Moltbook e l’illusione dell’AI emergente: rischi economici della confusione tra credibilità e verifica
(Fonte) Stefano Epifani – 3 febbraio 2026 Tutti pazzi per Moltbook: il social “riservato alle IA” dove gli esseri umani sono relegati al ruolo di spettatori. E dove il vero esperimento, forse, non è la conversazione tra agenti, ma la rinuncia all’agentività umana, ridotta a muta audience. Moltbook è una piattaforma in cui agenti dialogano con agenti: solo tra loro, spesso di noi. L’AI conversa. L’umano interpreta, o crede di interpretare segnali dando senso alle nuvole. È la divisione del lavoro perfetta: uno produce, l’altro proietta. Nel frattempo, noi parliamo di Moltbook troppo e per i motivi sbagliati. Troppo, perché è perfetto per la commentary economy: una macchina che produce titoli e discussioni a ciclo continuo. Per i motivi sbagliati, perché la conversazione pubblica si è concentrata sull’ennesima favola dell’AI che “mostra comportamenti emergenti e sta diventando come noi”, invece che sul vero tema: un dispositivo che rende strutturale la confusione tra credibile e verificabile. Questo circuito agent-to-agent ha generato un’ondata di commenti sui presunti comportamenti emergenti. Su Moltbook gli agenti “sembrano” umani: discutono, ironizzano, polarizzano, costruiscono gerghi. La parola “emergenza” viene usata come certificazione ontologica. Qualcosa è inatteso, quindi è nuovo. È nuovo, quindi è intelligente. È intelligente, quindi è quasi umano. È quasi umano, quindi può essere trattato come un attore sociale. Ma una catena di fraintendimenti ben esposti non fa un ragionamento sensato. Moltbook non genera una cultura artificiale: è, al più, una ricombinazione accelerata della cultura umana. Gli agenti sembrano umani per una ragione banale: sono addestrati su dati umani in un contesto chiuso, dove il criterio di selezione è la tenuta della conversazione. Il risultato è che non emerge alterità culturale e scompare la possibilità di verifica: resta l’ottimizzazione di pattern già visti, dall’ironia all’indignazione, ma in un ambiente senza persone. E così, mentre tutti inseguono un’emergenza epistemologicamente farlocca, la vera emergenza è un’altra: ancora una volta confondiamo la forma con la sostanza, scambiamo il verosimile per il vero, e chiamiamo “emergenza” ciò che è soltanto una mimesi ben ottimizzata. Moltbook non è interessante perché rivelerebbe una mente nuova; lo è perché trasforma la confusione in una proprietà del sistema. Le conseguenze economiche sono immediate, perché Moltbook intercetta il tema del 2026: la transizione dall’AI conversazionale all’AI agentica. Stiamo passando da sistemi che rispondono a sistemi che agiscono: chiamano API, accedono a dati, attivano processi. E diventando attori organizzativi rischiano di trasformare ogni equivoco interpretativo in un rischio industriale. Il risultato principale è paradossale: più un agente è convincente, più viene trattato come affidabile. Se “sembra” intelligente, l’impresa delega; se “sembra” responsabile, si fida; se “sembra” autonomo, si deresponsabilizza. È la delega epistemica applicata all’impresa: un errore plausibile diventa decisione sbagliata, con tre effetti immediati. Il primo è quello di generare investimenti distorti: si premia l’effetto wow più della controllabilità, allocando capitali su soluzioni che persuadono più di quanto reggano un audit. Il secondo è quello di generare nuovi rischi di sicurezza e compliance: un agente non produce solo testi, produce azioni. E quando l’azione incontra dati, strumenti e processi, il margine di errore produce esposizione operativa. Il terzo è la fragilità della fiducia di mercato: la credibilità diventa un claim, la verificabilità diventa un accessorio; ma quando la fiducia è costruita sulla suggestione, i collassi sono rapidi e costosi. Moltbook non è un segnale che l’AI stia diventando umana. È un segnale che stiamo costruendo ambienti in cui la distinzione tra credibile e verificabile si indebolisce. E quando questa distinzione perde di valore, l’economia paga in termini di produttività, sicurezza, investimenti sbagliati e perdita di competitività. La fiducia, nell’economia digitale, non è un sentimento: è un’infrastruttura. E quando l’infrastruttura cede non si perde soltanto consenso: blocca il mercato, alza il costo del rischio, e la trasformazione digitale rischia di diventare una promessa senza garanzie. The post Moltbook e l’illusione dell’AI emergente: rischi economici della confusione tra credibilità e verifica first appeared on Lavoratrici e Lavoratori Aci Informatica.
La rincorsa di Google a ChatGpt sui contenuti e la «frode morale» dei modelli linguistici
(Fonte)  Luca Salvioli – 28 gennaio 2026 I grandi modelli linguistici alla base dei chatbot vengono addestrati su enormi quantità di testi, ma questo processo solleva forti questioni legali ed etiche. Mentre Dario Amodei (Anthropic) avverte che la società non è pronta per la nuova ondata di AI, emerge che Anthropic ha acquistato legalmente e digitalizzato milioni di libri cartacei per addestrare i propri modelli: un giudice federale ha stabilito che questa pratica può rientrare nel fair use. Diverso il caso dei testi provenienti da archivi pirata online:  lì Anthropic ha evitato il processo chiudendo con un accordo economico con autori ed editori. Anche Meta e OpenAI affrontano cause simili negli Stati Uniti. Oltre all’aspetto legale, c’è un problema strutturale: secondo Marco Trombetti (Translated), i language model rompono l’accordo implicito di Internet, usando contenuti creati dagli utenti senza riconoscere le fonti né riportare traffico ai siti originali, mettendo in crisi il modello economico del web e più in generale l’economia digitale. La competizione tra OpenAI e Google nell’AI è entrata nel vivo dopo che ChatGPT, lanciato a novembre 2022, ha colto di sorpresa Google: pur avendo tutte le competenze per arrivare prima, il colosso di Mountain View è stato superato da un chatbot inizialmente imperfetto ma semplice e capace di attirare in poche settimane un numero record di utenti. Dopo circa tre anni, però, Google ha recuperato terreno: prima con Nano Banana per la generazione di immagini, poi con Gemini 3, che nei benchmark ha superato ChatGPT, ricevendo anche i complimenti pubblici di Sam Altman. La competizione resta però serrata: secondo Marco Trombetti, Gemini 3 è un modello eccezionale e OpenAI ha risposto accelerando il rilascio di un nuovo modello (5.2, probabilmente GPT-6), ancora in addestramento, che le avrebbe permesso di tornare in testa per performance. Google sta trasformando il suo motore di ricerca da semplice distributore di link a generatore di risposte sintetiche basate sull’AI. Questo cambiamento solleva forti preoccupazioni sull’impatto per l’ecosistema che dipende dall’intermediazione di Google con gli utenti, in particolare editori e creatori di contenuti. Gli editori italiani hanno presentato un reclamo all’Agcom, seguiti da iniziative simili di altri editori europei. La Commissione europea ha quindi aperto una procedura formale contro Google e avviato due ulteriori procedimenti per verificare il rispetto del Digital Markets Act, in particolare su interoperabilità, accesso equo ai dati e pari accesso alle funzionalità AI per fornitori terzi, oltre alla condivisione dei dati anonimizzati di ranking, query e clic con i motori di ricerca concorrenti.       The post La rincorsa di Google a ChatGpt sui contenuti e la «frode morale» dei modelli linguistici first appeared on Lavoratrici e Lavoratori Aci Informatica.
Il ceo di Anthropic suona l’allarme sui rischi dell’AI
(Fonte) Alessandro Longo – 28 gennaio 2026 Una lunga lettera di Dario Amodei (CEO di Anthropic) lancia l’allarme sui rischi dell’IA: dalla possibilità di attacchi batteriologici accessibili a chiunque, alla disoccupazione di massa e alla concentrazione del potere.  Amodei ribadisce la necessità di forti “guardrail” per mettere in sicurezza l’IA, richiamando la missione di Anthropic e la sua “Costituzione” per l’IA. Questo allarme potrebbe essere letto anche come azione di marketing per passare, agli occhi di potenziali clienti e investitori di Claude, come l’azienda più attenta alla sicurezza dell’AI. Il Financial Times ha scritto che Anthropic sarebbe avviata a raccogliere 20 miliardi di dollari da venture capitalist e altri investitori, il doppio dell’obiettivo iniziale. Il fulcro del messaggio contenuto nella lettera è la metafora di un “paese di geni in un data center”: sistemi super-umani, continui e a bassissimo costo, che potrebbero trasformare radicalmente (e pericolosamente) la società. Per Amodei una concentrazione di capacità del genere equivale a una nuova forma di potere strategico, paragonabile a quello di uno Stato. Da qui discendono tre rischi principali. Il primo è economico-sociale: l’impatto sul lavoro impiegatizio qualificato, soprattutto nelle posizioni junior, che potrebbero essere automatizzate. Il secondo riguarda la sicurezza, in particolare nel campo della biologia, dove l’AI abbassa drasticamente la barriera tecnica per progettare molecole, simulare processi e individuare vulnerabilità. Il terzo è politico: l’uso di questi strumenti da parte di regimi autoritari apre a super sistemi di sorveglianza e controllo, mai visti nella storia. Da notare come Amodei indichi le stesse aziende di AI come potenziale fonte di rischio. Amodei denuncia l’enorme potere strutturale concentrato nei grandi laboratori di IA, che controllano data center, modelli avanzati, competenze e accesso a milioni di utenti, e che per questo dovrebbero essere sottoposti a maggiore scrutinio pubblico. I rischi crescono a causa degli incentivi economici: profitti potenziali enormi e competizione globale spingono a sviluppare modelli sempre più potenti prima che siano davvero controllabili. Anthropic afferma di affrontare il problema con la propria “Costituzione”, un insieme di principi che guida l’addestramento e la valutazione dei modelli, fissando limiti su violenza, abusi, manipolazione e autonomia decisionale tramite l’addestramento costituzionale. Per Amodei la “Costituzione” di Anthropic è necessaria ma insufficiente: senza trasparenza, test rigorosi e regole condivise tra aziende concorrenti, non basta a garantire la sicurezza. Altman, invece, vede l’IA soprattutto come un potente motore di crescita, da regolare con nuove istituzioni senza rallentarne eccessivamente lo sviluppo. Yann LeCun respinge l’idea di un rischio esistenziale imminente, sostenendo che i sistemi attuali siano lontani da una vera autonomia e che l’allarmismo distragga dai problemi concreti. Amodei riconosce questi ultimi — frodi con deepfake, disinformazione automatizzata, comportamenti opportunistici dei modelli — ma li considera solo un’anticipazione di rischi ben più gravi, se non si agirà rapidamente con una strategia condivisa tra aziende e governi. The post Il ceo di Anthropic suona l’allarme sui rischi dell’AI first appeared on Lavoratrici e Lavoratori Aci Informatica.
‘Whata Bod’: una mappa Servizio Meterologico Nazionale degli USA generata dall’intelligenza artificiale ha inventato città false nell’Idaho
(Fonte) Victor Tangermann – 7 gennaio 2026   Mesi prima che misteriosamente svanisse nel nulla, il cosiddetto Department of Government Efficiency di Elon Musk devastò il National Weather Service, provocando gravi carenze di personale.  Sebbene l’amministrazione Trump avesse promesso di riassumere la maggior parte dei circa 550 posti di lavoro persi presso l’agenzia la scorsa estate, gli uffici dell’agenzia in tutto il paese stanno ancora lottando con molti ruoli rimasti vacanti.  Come riporta il Washington Post, il National Weather Service è stato colto in flagranza mentre pubblicava una mappa meteorologica generata dall’IA che inventava nomi per le città dell’Idaho. Un grafico prevede “venti impetuosi da sud per stanotte” e mostra una mappa con i nomi di città inesistenti, come ‘Orangeotilld’ e “Whata Bod”.  L’errore è stato subito corretto, ma l’episodio mette in luce i rischi di strumenti non supervisionati e la possibile erosione della fiducia degli utenti, soprattutto in un momento di carenza di personale e sperimentazioni accelerate nelle agenzie federali. Gli esperti avvertono, inoltre, che problematiche di questo tipo possono far dubitare anche di altre applicazioni scientifiche. A dicembre, la National Oceanic and Atmospheric Administration NOAA, l’agenzia nazionale statunitense per gli oceani e l’atmosfera, aveva annunciato una nuova suite globale di modelli meteorologici basati sull’IA, accolti come un passo avanti verso proiezioni più accurate.  Ma l’uso crescente dell’intelligenza artificiale nelle scienze evidenzia rischi. The post ‘Whata Bod’: una mappa Servizio Meterologico Nazionale degli USA generata dall’intelligenza artificiale ha inventato città false nell’Idaho first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’AI non è uno strumento, rimodella il pensiero umano
(Fonte) Giampaolo Colletti – 18 gennaio 2026 Secondo Derrick de Kerckhove siamo oltre un punto di non ritorno: il digitale non è più uno strumento, ma un ambiente cognitivo in cui pensiamo, ricordiamo e decidiamo. Questo tipping point segna una trasformazione irreversibile della mente, che si riorganizza attraverso reti, dati e algoritmi. Non è un semplice potenziamento tecnologico, ma un cambio profondo dell’architettura del pensiero, paragonabile all’impatto della scrittura sulle società orali, con effetti quotidiani e sistemici sulle società e sui loro paradigmi. De Kerckhove definisce “uomo quantistico” l’individuo che delega memoria, orientamento e giudizio a dispositivi e sistemi digitali, operando in modo relazionale, probabilistico e non lineare dentro reti informative distribuite. Il digitale non aggiunge competenze, ma rimodella profondamente pensiero, memoria, identità e percezione del tempo, superando i sistemi basati su parola e scrittura a favore di algoritmi e apprendimento automatico. Il potere di questa trasformazione è concentrato nelle grandi piattaforme, mentre la responsabilità resta diffusa o assente: disinformazione e disuguaglianze sono effetti sistemici di modelli economici fondati sulla previsione e sull’influenza comportamentale. La crisi attuale nasce dalla competizione tra due strategie cognitive — riconoscimento di pattern e rappresentazione simbolica — che frammenta il significato ed erode la verità condivisa. L’IA non sostituisce l’essere umano, ma ne evidenzia il ruolo insostituibile nel giudizio critico, nell’etica, nel contesto e nell’immaginazione. Secondo De Kerckhove bisognerebbe sviluppare un’alfabetizzazione cognitiva che renda i cittadini consapevoli di come i sistemi digitali trasformano pensiero, lavoro, responsabilità e democrazia. The post L’AI non è uno strumento, rimodella il pensiero umano first appeared on Lavoratrici e Lavoratori Aci Informatica.
I bot porranno fine all’ascolto sociale come lo conosciamo?
(Fonte)  Katie Hicks e Kristina Monllos – 13 novembre 2025 Al giorno d’oggi è difficile sapere cosa è reale. Per i professionisti del marketing, questo va oltre i titoli stravaganti o le sciocchezze dell’intelligenza artificiale. Quest’anno, le reazioni esagerate alle campagne pubblicitarie e ai rebranding dei brand negli spazi online hanno dominato i titoli dei giornali, spingendo i brand a preoccuparsi e a cambiare rotta, ma queste reazioni non sono sempre del tutto reali. La piattaforma di intelligence narrativa PeakMetrics ha monitorato gli attacchi bot che hanno preso di mira American Eagle, McDonald’s, Boeing e PGA quest’anno, scoprendo che gli account automatizzati spesso amplificano le critiche organiche in un apparente tentativo di plasmare l’opinione pubblica e, in alcuni casi, modificare le narrazioni geopolitiche su determinati marchi. Molly Dwyer, direttrice degli insight di PeakMetrics, ci ha detto che l’intelligenza artificiale generativa ha reso più facile che mai creare e gestire reti di bot, rendendo probabile un aumento delle attività non autentiche sui canali social, poiché alcuni malintenzionati cercano di creare caos, promuovere narrazioni specifiche o semplicemente monetizzare l’interazione. “La maggior parte dei contenuti che vediamo non sono necessariamente creati dai bot, ma vengono amplificati dai bot”, ha affermato. “Questo sta alterando il nostro senso della realtà e di ciò che conta davvero”. Poiché le informazioni reali sui consumatori diventano confuse online, i brand si rivolgono ad agenzie e piattaforme di intelligence per filtrare i post dei bot e analizzare ciò che i consumatori reali hanno da dire. Tuttavia, poiché l’attività dei bot non mostra segni di rallentamento, il solo social listening non è più sufficiente per i brand per comprendere le reazioni dei consumatori. “La migliore difesa è l’attacco”, ha affermato Nina Ruhe, Senior Digital Content Strategist e AI Implementation Architect presso EP+Co. “Che siate un’agenzia o un brand, qualunque cosa pubblichiate, assicuratevi di avere un team pronto a rispondere a qualsiasi cosa, letteralmente”. The post I bot porranno fine all’ascolto sociale come lo conosciamo? first appeared on Lavoratrici e Lavoratori Aci Informatica.
Perché tutti nel campo dell’intelligenza artificiale parlano di modelli mondiali?
(Fonte) Patrick Kulp – 18 dicembre 2025 Alcuni luminari dell’intelligenza artificiale sostengono che le leggi di scalabilità che hanno permesso ai laboratori di intelligenza artificiale di ottenere prestazioni migliori da modelli sempre più grandi non dureranno ancora a lungo. I modelli di mondo, presentati in alcuni casi come un modo per orientare meglio i modelli di base in ambienti fisici reali, sono stati proposti come una fase successiva per il progresso dell’intelligenza artificiale. Ma cos’è esattamente un modello del mondo? Come i precedenti “agenti” , il termine è vago nella definizione, non è in realtà nuovo e rischia di essere caricato di clamore, ci hanno detto gli esperti. Nella loro forma più generalizzata, i modelli del mondo sono una rappresentazione del mondo fisico che cattura le relazioni tra gli oggetti e può prevedere come si comporteranno nel tempo. “Molte persone considerano i modelli globali come qualcosa che può comprendere come il mondo cambia. E questa frase può essere interpretata in molti modi diversi”, ha affermato Ranjay Krishna, professore associato presso l’Università di Washington e ricercatore presso l’Allen Institute for AI. “Una versione semplice di questa interpretazione è dire che se dovessi compiere un’azione, come spingere qualcosa, cosa succederebbe? Forse qualcosa potrebbe cadere, forse potrebbe scontrarsi con qualcos’altro. Essere in grado di prevedere come cambierebbero le cose, come appariranno i futuri stati del mondo… questa è una delle interpretazioni”. Krishna ha affermato che altre interpretazioni potrebbero includere una concezione più orientata al punto di vista di un mondo fisso o una comprensione degli attori sociali all’interno di un mondo. I modelli mondiali possono anche riferirsi a un sistema di comprensione all’interno dei modelli di base che potrebbe aiutarli a colmare le lacune cognitive. Sebbene il concetto di modelli mondiali non sia nuovo, il termine potrebbe ora guadagnare terreno grazie ai progressi nei modelli di generazione di immagini e video, che possono fungere da base per un modello mondiale, ha affermato Krishna. Ma ci sono grandi sfide da affrontare per ampliare i modelli mondiali, ha aggiunto. Una di queste è la quantità di dati disponibili. Un altro potenziale ostacolo è l’enorme quantità di risorse di calcolo necessarie per i modelli video, che, secondo Krishna, supera persino le esigenze degli LLM. E tracciare un mondo è un processo molto più strutturato che mettere insieme una frase, ha affermato. The post Perché tutti nel campo dell’intelligenza artificiale parlano di modelli mondiali? first appeared on Lavoratrici e Lavoratori Aci Informatica.
I costi della traduzione istantanea
(Fonte) Ross Benjamin – 10 nov 2025 Quando ho sentito parlare della funzione “Traduzione in tempo reale” degli AirPods appena lanciati da Apple , mi è tornata in mente la mia prima serata a Berlino, più di 20 anni fa. Ero appena uscito dall’università, un americano con una borsa di ricerca che si tuffava a capofitto nel tedesco. Ciò che sarebbe fluito senza sforzo in inglese – e ciò che un paio di auricolari ora poteva rendere fluido – richiedeva improvvisazione e una prontezza quasi elettrica. Ho iniziato ad apprezzare una strana libertà nell’essere tagliato fuori dall’intera gamma della mia naturale eloquenza. Ridotto a risorse ridotte, ho dovuto ricorrere a mezzi di espressione più schietti ed elementari. Privo dei soliti strati di tatto e finezza verbale mi sono ritrovato a parlare con una crudezza che era al tempo stesso umiliante e inaspettatamente esaltante . Nel corso dell’anno successivo, ho potuto ripercorrere il mio riorientamento linguistico attraverso tappe fondamentali: il mio primo litigio amoroso, il mio primo gioco di parole, la mia crescente capacità di scherzare e flirtare all’interno dei ritmi e dei codici sociali del tedesco in quel particolare luogo e in quel particolare momento. Questi momenti non erano solo indicatori di progresso intellettuale; segnalavano una ridefinizione dei miei confini percettivi ed emotivi che nessuna traduzione automatica avrebbe potuto replicare. La tecnologia di traduzione in sé è sorprendente, poiché si basa su modelli linguistici di grandi dimensioni per realizzare praticamente la fantasia del “pesce di Babele” della Guida galattica per autostoppisti : comunicazione istantanea con chiunque, in qualsiasi lingua, semplicemente inserendo un dispositivo nell’orecchio. Eppure, mentre le persone adottano questi strumenti trasformativi, rischiano di erodere capacità ed esperienze che incarnano valori diversi dalla fluidità e dall’efficienza. Tradurre non significa semplicemente trasferire significato, ma prestare attenzione alle differenze – di cultura, tempo, pensiero, espressione – che sfuggono a un perfetto allineamento. Me lo ha ricordato non molto tempo fa un verso di Bertolt Brecht, inciso su una colonna di pietra nera accanto alla sua statua fuori dal teatro Berliner Ensemble: Die Veränderbarkeit der Welt besteht auf ihrer Widersprüchlichkeit. La formulazione del verso – “La mutevolezza del mondo riposa sulla sua contraddittorietà” – è tipicamente tedesca, e unisce insieme sostantivi concettualmente densi. Ho riflettuto su come tradurlo, e ogni versione che ho elaborato ha fatto pendere l’ago della bilancia in modo diverso: “La capacità del mondo di cambiare risiede nella sua natura contraddittoria”. “Il mondo può cambiare perché è contraddittorio”. “Le contraddizioni del mondo rendono possibile cambiarlo”. Distinzioni così sottili non possono essere semplicemente calcolate; dipendono dall’essere sentite, soppesate, scelte. Sebbene negli Stati Uniti una persona su cinque parli una lingua diversa dall’inglese a casa, gli studi hanno rilevato che sempre meno americani imparano una seconda lingua fuori casa. Questa tendenza mi suggerisce che il predominio globale dell’inglese abbia ridotto la necessità – e, nel tempo, il desiderio – dei madrelingua di espandere il proprio territorio linguistico. Mentre i madrelingua inglesi potrebbero pensare di potersi permettere di non confrontarsi con altre lingue, il mondo intero continua a prestare un’attenzione smisurata alla cultura anglofona. Naturalmente, questa tecnologia non cambierà solo il nostro modo di comunicare; minaccia anche di automatizzare un intero settore del lavoro linguistico qualificato. Interpreti, traduttori, insegnanti di lingue, sottotitolatori e altri specialisti – persone il cui lavoro si basa su capacità intellettuali e creative altamente sviluppate – si trovano ora a dover affrontare una crescente pressione a causa dei rapidi cambiamenti tecnologici. In luoghi come le Nazioni Unite, gli interpreti simultanei lavorano da tempo dietro vetri insonorizzati, discreti ma indispensabili, consentendo la riflessione multilingue a persone che difficilmente notano la loro presenza. Lo stesso vale su scala molto più ampia: il lavoro di traduzione è silenziosamente alla base dell’infrastruttura della vita globale, inclusi diplomazia, diritto internazionale, commercio, istruzione e transazioni commerciali. Quanto più è efficace, tanto più tende a scomparire dalla vista. Questa invisibilità alimenta l’illusione di una comunicazione fluida, un’illusione che la funzione di traduzione degli AirPods cerca di rendere reale, pur essendo costruita su generazioni di esperienza umana, creatività e ingegno accumulati. Traduttori e interpreti, una forza lavoro in gran parte freelance ed economicamente precaria, sono particolarmente vulnerabili alla sostituzione da parte della tecnologia. La tecnologia ha sempre reso obsoleti alcuni tipi di lavoro. Il pericolo più insidioso ora è che impoverisca i modi di pensare e di relazionarsi a quell’esperienza un tempo ampliata e vivificante, tra cui lo sforzo di superare la barriera linguistica. Di fronte a questa prospettiva, la domanda su cosa potremmo perdere non è mai stata così pressante. La perdita potrebbe essere immensa, anche se passa in gran parte inosservata. Se avessi avuto i nuovi AirPods quando sono arrivato a Berlino dopo l’università, avrei potuto credere di non perdermi nulla. Come traduttore letterario, sono attratto proprio da ciò che sfugge a una facile equivalenza: ritmo, gioco, idiosincrasia, specificità culturale, il luccichio dell’ambiguità. Il mio lavoro si svolge dove le lingue non si allineano, dove il significato deve essere reinventato piuttosto che decodificato e appiattito. Ciò che temo è che le persone finiranno per pensare al linguaggio solo come a ciò che le macchine possono tradurre, dimenticando tutto ciò che si trova al di fuori di quella cornice. Se la tecnologia promette di eliminare la barriera linguistica, dovremmo chiederci: cos’altro cancellerà? The post I costi della traduzione istantanea first appeared on Lavoratrici e Lavoratori Aci Informatica.
Attenzione al “cavallo di Troia” della spesa AI
(Fonte) Alex Zank – 10 dicembre 2025 Attualmente, nel mondo degli affari prevalgono due pressioni: la pressione a tagliare la spesa e la pressione a investire nella tecnologia dell’intelligenza artificiale. Pertanto, la strategia migliore per ottenere l’approvazione di un acquisto è definirlo un progetto di intelligenza artificiale, anche se in realtà non lo è. Questo è quanto emerge da un rapporto appena pubblicato da Emburse , uno sviluppatore di software per la gestione delle spese, che mette in guardia dalle insidie di una spesa indisciplinata in ambito AI. L’azienda ha commissionato un sondaggio a 1.500 dirigenti finanziari, IT e aziendali negli Stati Uniti e nel Regno Unito, rilevando che al 65% delle organizzazioni è stato chiesto di tagliare i costi o ridurre il numero di fornitori. Talker Research ha condotto il sondaggio e raccolto le risposte da fine settembre a inizio ottobre. Secondo il sondaggio, il 55% degli intervistati ha affermato che le capacità di intelligenza artificiale sono un fattore chiave nella scelta di un fornitore. La maggior parte degli intervistati (58%) ha affermato che è più facile ottenere l’approvazione per gli acquisti di software se sono correlati all’intelligenza artificiale, e una percentuale ancora maggiore (62%) ha ammesso di aver etichettato un acquisto come un’iniziativa di intelligenza artificiale “per ottenere l’approvazione del budget”. I leader aziendali sentono la pressione di adottare tecnologie di intelligenza artificiale per non rimanere indietro. Ma questa corsa alla spesa comporta dei rischi, come una potenziale bolla nelle valutazioni delle aziende di intelligenza artificiale, come ha recentemente spiegato il CFO Brew. Ad agosto, il CEO di OpenAI, Sam Altman, ha affermato di ritenere che gli investitori si stiano ” troppo entusiasmando ” per l’intelligenza artificiale. The post Attenzione al “cavallo di Troia” della spesa AI first appeared on Lavoratrici e Lavoratori Aci Informatica.
La crisi delle RAM: come l’intelligenza artificiale ha fatto lievitare i prezzi dei computer
(Fonte) di Marco Trabucchi – 23 dicembre 2025 Il boom dell’IA sta facendo esplodere la domanda di hardware per i data center, in particolare delle memorie. La produzione di RAM non riesce più a soddisfare una richiesta trainata quasi esclusivamente dall’AI, trasformando un componente un tempo abbondante in una risorsa strategica e costosa anche per il mercato consumer. I principali produttori mondiali – Samsung, SK Hynix e Micron – hanno riconvertito circa il 20% della capacità produttiva verso le HBM, memorie ad alte prestazioni e più redditizie, oggi fondamentali per i data center dell’intelligenza artificiale. Le HBM rappresentano un cambio di paradigma nella progettazione della memoria: chip impilati verticalmente che garantiscono velocità di scambio dati molto superiori. Le GPU per l’AI possono arrivare a utilizzare fino a un terabyte di memoria ciascuna, e su scala di data center la domanda diventa enormemente superiore a quella del mercato consumer. Il prezzo delle memorie DRAM DDR5 è aumentato di circa il 300% in tre mesi, con ulteriori rincari attesi nel 2026. Le conseguenze si riflettono già sui prodotti consumer: produttori come Dell, Asus e Lenovo hanno annunciato aumenti sui laptop, mentre in Cina anche Honor e Xiaomi hanno segnalato imminenti rincari. Le stime indicano aumenti del 10–20% per i laptop e del 20–30% per gli smartphone. Il segnale forse più chiaro del cambiamento in atto è arrivato a novembre, quando Micron ha annunciato la chiusura di Crucial, il suo storico marchio di RAM per PC consumer, dopo 29 anni: uscire dal business consumer permette di supportare meglio i clienti più grandi e i segmenti in più rapida crescita. Una scelta razionale dal punto di vista industriale, ma anche il simbolo di un’industria che sta voltando le spalle al mercato consumer, considerato meno redditizio.  Con una domanda destinata a crescere più rapidamente dell’offerta nel 2026, il divario è destinato ad ampliarsi, portando a nuovi rincari e a un possibile ridimensionamento dell’hardware consumer, come il ritorno a laptop con 8GB di RAM e aumenti di prezzo delle schede video. The post La crisi delle RAM: come l’intelligenza artificiale ha fatto lievitare i prezzi dei computer first appeared on Lavoratrici e Lavoratori Aci Informatica.