Tag - Ai&Innovazione

L’AI non è uno strumento, rimodella il pensiero umano
(Fonte) Giampaolo Colletti – 18 gennaio 2026 Secondo Derrick de Kerckhove siamo oltre un punto di non ritorno: il digitale non è più uno strumento, ma un ambiente cognitivo in cui pensiamo, ricordiamo e decidiamo. Questo tipping point segna una trasformazione irreversibile della mente, che si riorganizza attraverso reti, dati e algoritmi. Non è un semplice potenziamento tecnologico, ma un cambio profondo dell’architettura del pensiero, paragonabile all’impatto della scrittura sulle società orali, con effetti quotidiani e sistemici sulle società e sui loro paradigmi. De Kerckhove definisce “uomo quantistico” l’individuo che delega memoria, orientamento e giudizio a dispositivi e sistemi digitali, operando in modo relazionale, probabilistico e non lineare dentro reti informative distribuite. Il digitale non aggiunge competenze, ma rimodella profondamente pensiero, memoria, identità e percezione del tempo, superando i sistemi basati su parola e scrittura a favore di algoritmi e apprendimento automatico. Il potere di questa trasformazione è concentrato nelle grandi piattaforme, mentre la responsabilità resta diffusa o assente: disinformazione e disuguaglianze sono effetti sistemici di modelli economici fondati sulla previsione e sull’influenza comportamentale. La crisi attuale nasce dalla competizione tra due strategie cognitive — riconoscimento di pattern e rappresentazione simbolica — che frammenta il significato ed erode la verità condivisa. L’IA non sostituisce l’essere umano, ma ne evidenzia il ruolo insostituibile nel giudizio critico, nell’etica, nel contesto e nell’immaginazione. Secondo De Kerckhove bisognerebbe sviluppare un’alfabetizzazione cognitiva che renda i cittadini consapevoli di come i sistemi digitali trasformano pensiero, lavoro, responsabilità e democrazia. The post L’AI non è uno strumento, rimodella il pensiero umano first appeared on Lavoratrici e Lavoratori Aci Informatica.
I bot porranno fine all’ascolto sociale come lo conosciamo?
(Fonte)  Katie Hicks e Kristina Monllos – 13 novembre 2025 Al giorno d’oggi è difficile sapere cosa è reale. Per i professionisti del marketing, questo va oltre i titoli stravaganti o le sciocchezze dell’intelligenza artificiale. Quest’anno, le reazioni esagerate alle campagne pubblicitarie e ai rebranding dei brand negli spazi online hanno dominato i titoli dei giornali, spingendo i brand a preoccuparsi e a cambiare rotta, ma queste reazioni non sono sempre del tutto reali. La piattaforma di intelligence narrativa PeakMetrics ha monitorato gli attacchi bot che hanno preso di mira American Eagle, McDonald’s, Boeing e PGA quest’anno, scoprendo che gli account automatizzati spesso amplificano le critiche organiche in un apparente tentativo di plasmare l’opinione pubblica e, in alcuni casi, modificare le narrazioni geopolitiche su determinati marchi. Molly Dwyer, direttrice degli insight di PeakMetrics, ci ha detto che l’intelligenza artificiale generativa ha reso più facile che mai creare e gestire reti di bot, rendendo probabile un aumento delle attività non autentiche sui canali social, poiché alcuni malintenzionati cercano di creare caos, promuovere narrazioni specifiche o semplicemente monetizzare l’interazione. “La maggior parte dei contenuti che vediamo non sono necessariamente creati dai bot, ma vengono amplificati dai bot”, ha affermato. “Questo sta alterando il nostro senso della realtà e di ciò che conta davvero”. Poiché le informazioni reali sui consumatori diventano confuse online, i brand si rivolgono ad agenzie e piattaforme di intelligence per filtrare i post dei bot e analizzare ciò che i consumatori reali hanno da dire. Tuttavia, poiché l’attività dei bot non mostra segni di rallentamento, il solo social listening non è più sufficiente per i brand per comprendere le reazioni dei consumatori. “La migliore difesa è l’attacco”, ha affermato Nina Ruhe, Senior Digital Content Strategist e AI Implementation Architect presso EP+Co. “Che siate un’agenzia o un brand, qualunque cosa pubblichiate, assicuratevi di avere un team pronto a rispondere a qualsiasi cosa, letteralmente”. The post I bot porranno fine all’ascolto sociale come lo conosciamo? first appeared on Lavoratrici e Lavoratori Aci Informatica.
Perché tutti nel campo dell’intelligenza artificiale parlano di modelli mondiali?
(Fonte) Patrick Kulp – 18 dicembre 2025 Alcuni luminari dell’intelligenza artificiale sostengono che le leggi di scalabilità che hanno permesso ai laboratori di intelligenza artificiale di ottenere prestazioni migliori da modelli sempre più grandi non dureranno ancora a lungo. I modelli di mondo, presentati in alcuni casi come un modo per orientare meglio i modelli di base in ambienti fisici reali, sono stati proposti come una fase successiva per il progresso dell’intelligenza artificiale. Ma cos’è esattamente un modello del mondo? Come i precedenti “agenti” , il termine è vago nella definizione, non è in realtà nuovo e rischia di essere caricato di clamore, ci hanno detto gli esperti. Nella loro forma più generalizzata, i modelli del mondo sono una rappresentazione del mondo fisico che cattura le relazioni tra gli oggetti e può prevedere come si comporteranno nel tempo. “Molte persone considerano i modelli globali come qualcosa che può comprendere come il mondo cambia. E questa frase può essere interpretata in molti modi diversi”, ha affermato Ranjay Krishna, professore associato presso l’Università di Washington e ricercatore presso l’Allen Institute for AI. “Una versione semplice di questa interpretazione è dire che se dovessi compiere un’azione, come spingere qualcosa, cosa succederebbe? Forse qualcosa potrebbe cadere, forse potrebbe scontrarsi con qualcos’altro. Essere in grado di prevedere come cambierebbero le cose, come appariranno i futuri stati del mondo… questa è una delle interpretazioni”. Krishna ha affermato che altre interpretazioni potrebbero includere una concezione più orientata al punto di vista di un mondo fisso o una comprensione degli attori sociali all’interno di un mondo. I modelli mondiali possono anche riferirsi a un sistema di comprensione all’interno dei modelli di base che potrebbe aiutarli a colmare le lacune cognitive. Sebbene il concetto di modelli mondiali non sia nuovo, il termine potrebbe ora guadagnare terreno grazie ai progressi nei modelli di generazione di immagini e video, che possono fungere da base per un modello mondiale, ha affermato Krishna. Ma ci sono grandi sfide da affrontare per ampliare i modelli mondiali, ha aggiunto. Una di queste è la quantità di dati disponibili. Un altro potenziale ostacolo è l’enorme quantità di risorse di calcolo necessarie per i modelli video, che, secondo Krishna, supera persino le esigenze degli LLM. E tracciare un mondo è un processo molto più strutturato che mettere insieme una frase, ha affermato. The post Perché tutti nel campo dell’intelligenza artificiale parlano di modelli mondiali? first appeared on Lavoratrici e Lavoratori Aci Informatica.
I costi della traduzione istantanea
(Fonte) Ross Benjamin – 10 nov 2025 Quando ho sentito parlare della funzione “Traduzione in tempo reale” degli AirPods appena lanciati da Apple , mi è tornata in mente la mia prima serata a Berlino, più di 20 anni fa. Ero appena uscito dall’università, un americano con una borsa di ricerca che si tuffava a capofitto nel tedesco. Ciò che sarebbe fluito senza sforzo in inglese – e ciò che un paio di auricolari ora poteva rendere fluido – richiedeva improvvisazione e una prontezza quasi elettrica. Ho iniziato ad apprezzare una strana libertà nell’essere tagliato fuori dall’intera gamma della mia naturale eloquenza. Ridotto a risorse ridotte, ho dovuto ricorrere a mezzi di espressione più schietti ed elementari. Privo dei soliti strati di tatto e finezza verbale mi sono ritrovato a parlare con una crudezza che era al tempo stesso umiliante e inaspettatamente esaltante . Nel corso dell’anno successivo, ho potuto ripercorrere il mio riorientamento linguistico attraverso tappe fondamentali: il mio primo litigio amoroso, il mio primo gioco di parole, la mia crescente capacità di scherzare e flirtare all’interno dei ritmi e dei codici sociali del tedesco in quel particolare luogo e in quel particolare momento. Questi momenti non erano solo indicatori di progresso intellettuale; segnalavano una ridefinizione dei miei confini percettivi ed emotivi che nessuna traduzione automatica avrebbe potuto replicare. La tecnologia di traduzione in sé è sorprendente, poiché si basa su modelli linguistici di grandi dimensioni per realizzare praticamente la fantasia del “pesce di Babele” della Guida galattica per autostoppisti : comunicazione istantanea con chiunque, in qualsiasi lingua, semplicemente inserendo un dispositivo nell’orecchio. Eppure, mentre le persone adottano questi strumenti trasformativi, rischiano di erodere capacità ed esperienze che incarnano valori diversi dalla fluidità e dall’efficienza. Tradurre non significa semplicemente trasferire significato, ma prestare attenzione alle differenze – di cultura, tempo, pensiero, espressione – che sfuggono a un perfetto allineamento. Me lo ha ricordato non molto tempo fa un verso di Bertolt Brecht, inciso su una colonna di pietra nera accanto alla sua statua fuori dal teatro Berliner Ensemble: Die Veränderbarkeit der Welt besteht auf ihrer Widersprüchlichkeit. La formulazione del verso – “La mutevolezza del mondo riposa sulla sua contraddittorietà” – è tipicamente tedesca, e unisce insieme sostantivi concettualmente densi. Ho riflettuto su come tradurlo, e ogni versione che ho elaborato ha fatto pendere l’ago della bilancia in modo diverso: “La capacità del mondo di cambiare risiede nella sua natura contraddittoria”. “Il mondo può cambiare perché è contraddittorio”. “Le contraddizioni del mondo rendono possibile cambiarlo”. Distinzioni così sottili non possono essere semplicemente calcolate; dipendono dall’essere sentite, soppesate, scelte. Sebbene negli Stati Uniti una persona su cinque parli una lingua diversa dall’inglese a casa, gli studi hanno rilevato che sempre meno americani imparano una seconda lingua fuori casa. Questa tendenza mi suggerisce che il predominio globale dell’inglese abbia ridotto la necessità – e, nel tempo, il desiderio – dei madrelingua di espandere il proprio territorio linguistico. Mentre i madrelingua inglesi potrebbero pensare di potersi permettere di non confrontarsi con altre lingue, il mondo intero continua a prestare un’attenzione smisurata alla cultura anglofona. Naturalmente, questa tecnologia non cambierà solo il nostro modo di comunicare; minaccia anche di automatizzare un intero settore del lavoro linguistico qualificato. Interpreti, traduttori, insegnanti di lingue, sottotitolatori e altri specialisti – persone il cui lavoro si basa su capacità intellettuali e creative altamente sviluppate – si trovano ora a dover affrontare una crescente pressione a causa dei rapidi cambiamenti tecnologici. In luoghi come le Nazioni Unite, gli interpreti simultanei lavorano da tempo dietro vetri insonorizzati, discreti ma indispensabili, consentendo la riflessione multilingue a persone che difficilmente notano la loro presenza. Lo stesso vale su scala molto più ampia: il lavoro di traduzione è silenziosamente alla base dell’infrastruttura della vita globale, inclusi diplomazia, diritto internazionale, commercio, istruzione e transazioni commerciali. Quanto più è efficace, tanto più tende a scomparire dalla vista. Questa invisibilità alimenta l’illusione di una comunicazione fluida, un’illusione che la funzione di traduzione degli AirPods cerca di rendere reale, pur essendo costruita su generazioni di esperienza umana, creatività e ingegno accumulati. Traduttori e interpreti, una forza lavoro in gran parte freelance ed economicamente precaria, sono particolarmente vulnerabili alla sostituzione da parte della tecnologia. La tecnologia ha sempre reso obsoleti alcuni tipi di lavoro. Il pericolo più insidioso ora è che impoverisca i modi di pensare e di relazionarsi a quell’esperienza un tempo ampliata e vivificante, tra cui lo sforzo di superare la barriera linguistica. Di fronte a questa prospettiva, la domanda su cosa potremmo perdere non è mai stata così pressante. La perdita potrebbe essere immensa, anche se passa in gran parte inosservata. Se avessi avuto i nuovi AirPods quando sono arrivato a Berlino dopo l’università, avrei potuto credere di non perdermi nulla. Come traduttore letterario, sono attratto proprio da ciò che sfugge a una facile equivalenza: ritmo, gioco, idiosincrasia, specificità culturale, il luccichio dell’ambiguità. Il mio lavoro si svolge dove le lingue non si allineano, dove il significato deve essere reinventato piuttosto che decodificato e appiattito. Ciò che temo è che le persone finiranno per pensare al linguaggio solo come a ciò che le macchine possono tradurre, dimenticando tutto ciò che si trova al di fuori di quella cornice. Se la tecnologia promette di eliminare la barriera linguistica, dovremmo chiederci: cos’altro cancellerà? The post I costi della traduzione istantanea first appeared on Lavoratrici e Lavoratori Aci Informatica.
Attenzione al “cavallo di Troia” della spesa AI
(Fonte) Alex Zank – 10 dicembre 2025 Attualmente, nel mondo degli affari prevalgono due pressioni: la pressione a tagliare la spesa e la pressione a investire nella tecnologia dell’intelligenza artificiale. Pertanto, la strategia migliore per ottenere l’approvazione di un acquisto è definirlo un progetto di intelligenza artificiale, anche se in realtà non lo è. Questo è quanto emerge da un rapporto appena pubblicato da Emburse , uno sviluppatore di software per la gestione delle spese, che mette in guardia dalle insidie di una spesa indisciplinata in ambito AI. L’azienda ha commissionato un sondaggio a 1.500 dirigenti finanziari, IT e aziendali negli Stati Uniti e nel Regno Unito, rilevando che al 65% delle organizzazioni è stato chiesto di tagliare i costi o ridurre il numero di fornitori. Talker Research ha condotto il sondaggio e raccolto le risposte da fine settembre a inizio ottobre. Secondo il sondaggio, il 55% degli intervistati ha affermato che le capacità di intelligenza artificiale sono un fattore chiave nella scelta di un fornitore. La maggior parte degli intervistati (58%) ha affermato che è più facile ottenere l’approvazione per gli acquisti di software se sono correlati all’intelligenza artificiale, e una percentuale ancora maggiore (62%) ha ammesso di aver etichettato un acquisto come un’iniziativa di intelligenza artificiale “per ottenere l’approvazione del budget”. I leader aziendali sentono la pressione di adottare tecnologie di intelligenza artificiale per non rimanere indietro. Ma questa corsa alla spesa comporta dei rischi, come una potenziale bolla nelle valutazioni delle aziende di intelligenza artificiale, come ha recentemente spiegato il CFO Brew. Ad agosto, il CEO di OpenAI, Sam Altman, ha affermato di ritenere che gli investitori si stiano ” troppo entusiasmando ” per l’intelligenza artificiale. The post Attenzione al “cavallo di Troia” della spesa AI first appeared on Lavoratrici e Lavoratori Aci Informatica.
La crisi delle RAM: come l’intelligenza artificiale ha fatto lievitare i prezzi dei computer
(Fonte) di Marco Trabucchi – 23 dicembre 2025 Il boom dell’IA sta facendo esplodere la domanda di hardware per i data center, in particolare delle memorie. La produzione di RAM non riesce più a soddisfare una richiesta trainata quasi esclusivamente dall’AI, trasformando un componente un tempo abbondante in una risorsa strategica e costosa anche per il mercato consumer. I principali produttori mondiali – Samsung, SK Hynix e Micron – hanno riconvertito circa il 20% della capacità produttiva verso le HBM, memorie ad alte prestazioni e più redditizie, oggi fondamentali per i data center dell’intelligenza artificiale. Le HBM rappresentano un cambio di paradigma nella progettazione della memoria: chip impilati verticalmente che garantiscono velocità di scambio dati molto superiori. Le GPU per l’AI possono arrivare a utilizzare fino a un terabyte di memoria ciascuna, e su scala di data center la domanda diventa enormemente superiore a quella del mercato consumer. Il prezzo delle memorie DRAM DDR5 è aumentato di circa il 300% in tre mesi, con ulteriori rincari attesi nel 2026. Le conseguenze si riflettono già sui prodotti consumer: produttori come Dell, Asus e Lenovo hanno annunciato aumenti sui laptop, mentre in Cina anche Honor e Xiaomi hanno segnalato imminenti rincari. Le stime indicano aumenti del 10–20% per i laptop e del 20–30% per gli smartphone. Il segnale forse più chiaro del cambiamento in atto è arrivato a novembre, quando Micron ha annunciato la chiusura di Crucial, il suo storico marchio di RAM per PC consumer, dopo 29 anni: uscire dal business consumer permette di supportare meglio i clienti più grandi e i segmenti in più rapida crescita. Una scelta razionale dal punto di vista industriale, ma anche il simbolo di un’industria che sta voltando le spalle al mercato consumer, considerato meno redditizio.  Con una domanda destinata a crescere più rapidamente dell’offerta nel 2026, il divario è destinato ad ampliarsi, portando a nuovi rincari e a un possibile ridimensionamento dell’hardware consumer, come il ritorno a laptop con 8GB di RAM e aumenti di prezzo delle schede video. The post La crisi delle RAM: come l’intelligenza artificiale ha fatto lievitare i prezzi dei computer first appeared on Lavoratrici e Lavoratori Aci Informatica.
La migliore guida per individuare la scrittura di intelligenza artificiale proviene da Wikipedia
(Fonte) Russell Brandom – 20 novembre 2025 Abbiamo tutti sentito il sospetto che qualcosa che stiamo leggendo sia stato scritto da un modello linguistico di grandi dimensioni, ma è incredibilmente difficile da definire con certezza. Ma a quanto pare, quelli di Wikipedia sono diventati piuttosto bravi a segnalare la prosa scritta dall’intelligenza artificiale, e la guida pubblica del gruppo “Signs of AI writing” è la migliore risorsa che abbia mai trovato per capire se i propri sospetti sono fondati. (Grazie al poeta Jameson Fitzpatrick, che ha segnalato il documento su X.) Dal 2023, gli editor di Wikipedia lavorano per gestire le richieste di intelligenza artificiale, un progetto che chiamano “Project AI Cleanup”. Con milioni di modifiche in arrivo ogni giorno, c’è molto materiale da cui attingere e, nel classico stile degli editor di Wikipedia, il gruppo ha prodotto una guida pratica dettagliata e ricca di prove. Per cominciare, la guida conferma ciò che già sappiamo: gli strumenti automatizzati sono sostanzialmente inutili. Si concentra invece su abitudini e modi di dire rari su Wikipedia ma comuni su Internet in generale (e quindi comuni nei dati di addestramento del modello). Secondo la guida, i contributi di intelligenza artificiale dedicheranno molto tempo a sottolineare l’importanza di un argomento, solitamente in termini generici come “un momento cruciale” o “un movimento più ampio”. I modelli di intelligenza artificiale dedicheranno anche molto tempo a descrivere in dettaglio i post minori sui media per far sembrare l’argomento degno di nota – il tipo di cosa che ci si aspetterebbe da una biografia personale, ma non da una fonte indipendente. La guida segnala una particolarità particolarmente interessante riguardo alle proposizioni finali con vaghe affermazioni di importanza. I modelli diranno che un evento o un dettaglio “enfatizza il significato” di qualcosa o altro, o “riflette la perdurante rilevanza” di un’idea generale. (I grammatici lo conosceranno come “participio presente”). È un po’ difficile da definire, ma una volta che lo si riconosce, lo si vedrà ovunque. C’è anche una tendenza a un linguaggio di marketing vago, estremamente comune su internet. I paesaggi sono sempre suggestivi, le viste sono sempre mozzafiato e tutto è pulito e moderno. Come hanno detto i redattori, “sembra più la trascrizione di uno spot televisivo”. Vale la pena leggere la guida per intero, ma ne sono rimasto molto colpito. Prima di questa, avrei detto che la prosa del corso di laurea magistrale si stava sviluppando troppo rapidamente per essere definita. Ma le abitudini segnalate qui sono profondamente radicate nel modo in cui i modelli di intelligenza artificiale vengono addestrati e implementati. Possono essere mascherate, ma sarà difficile eliminarle completamente. E se il grande pubblico diventasse più esperto nell’identificare la prosa dell’intelligenza artificiale, ciò potrebbe avere conseguenze interessanti di ogni tipo. The post La migliore guida per individuare la scrittura di intelligenza artificiale proviene da Wikipedia first appeared on Lavoratrici e Lavoratori Aci Informatica.
Uno sguardo dietro le quinte ai laboratori di progettazione di Broadcom
(Fonte) Patrick Kulp – 3 novembre 2025 Ogni volta che inserisci un pensiero inutile in ChatGPT o in un’altra interfaccia di intelligenza artificiale, si innesca un viaggio lontano. La tua domanda – “Cos’è questa eruzione cutanea?”, per esempio – corre verso un enorme data center in un posto come Abilene, in Texas, dove viene indirizzata al giusto stack di server. I direttori del traffico di tutta questa attività sono una serie di switch di rete ad alta larghezza di banda, dispositivi che coordinano i dati tra i server, realizzati da aziende come Broadcom. Broadcom ha siglato un accordo con OpenAI per costruire congiuntamente acceleratori di intelligenza artificiale per un valore di 10 gigawatt nei prossimi anni, sfruttando sia gli acceleratori di intelligenza artificiale personalizzati di Broadcom sia la sua infrastruttura di rete. Si tratta di una delle numerose partnership infrastrutturali che OpenAI ha stretto negli ultimi mesi. Tech Brew ha fatto un tour dietro le quinte dei laboratori di ricerca e sviluppo degli switch di rete di Broadcom. I laboratori si trovano nell’ala al piano terra di un anonimo edificio per uffici nel campus Broadcom di San Jose, in California. Le stanze sono affollate di banchi da lavoro e disseminate di dispositivi specializzati. Spessi fasci di cavi e tubi di raffreddamento passano attraverso le prese d’aria del soffitto per raggiungere ogni postazione di lavoro. Nel team di switch di Broadcom lavorano circa 1.400 dipendenti, di cui circa la metà concentrati sul lato software. Ci vogliono circa tre anni per sviluppare gli switch, dalla progettazione iniziale al rilascio, quindi gli ingegneri all’inizio del processo non sanno necessariamente quali tipi di richieste il mondo dell’intelligenza artificiale porrà loro, ha affermato Del Vecchio. In un laboratorio, un team utilizza macchinari per aumentare o diminuire rapidamente la temperatura tramite appendici simili a tubi flessibili. “Questi dispositivi possono dissipare fino a circa 1.500 watt di potenza su un’area molto piccola”, ha affermato Hollis. “Questo sistema raffredda eccessivamente un fluido non conduttivo… Non vorrai certo che questo fluido ti finisca sulle mani”. Ci troviamo in mezzo a colonne di server impilati, decorati con cavi Ethernet e tubi flessibili traslucidi, pronti per la transizione. Per ora, è necessaria una protezione acustica per entrare nel frastuono dei motori a reazione del piccolo data center, contenuto da una cornice di alette di plastica. Gran parte dei cambiamenti intervenuti nel business degli switch di Broadcom negli ultimi anni è il risultato della portata senza precedenti dei nuovi data center basati sull’intelligenza artificiale, ha affermato Del Vecchio. Il costante aumento delle esigenze di elaborazione crea nuove sfide per il networking tra modelli distribuiti in diverse aree dei data center o persino in più edifici distanti. “Questi modelli sono così grandi e richiedono così tanto addestramento che hanno difficoltà a trovare energia dalle compagnie elettriche, quindi quello che fanno è dire: ‘OK, porto questo data center qui e a 96 chilometri di distanza ne installo un altro'”, ha detto Del Vecchio. “Mentre prima si aveva un modello che funzionava con una sola GPU… Ora, la gente dice: ‘OK, ora devo scalare o scalare fino a circa 32.000-64.000 GPU all’interno di un edificio. E ora devo collegare più edifici tra loro per poter fare questo addestramento. La scala di queste cose, la quantità di energia richiesta è semplicemente folle”. The post Uno sguardo dietro le quinte ai laboratori di progettazione di Broadcom first appeared on Lavoratrici e Lavoratori Aci Informatica.
Il computer sa cosa guardi
(Fonte) Max Kozlov – 14 novembre 2025 Una nuova tecnica basata sull’intelligenza artificiale, chiamata mind captioning, è in grado di generare descrizioni molto accurate di ciò che una persona sta guardando, semplicemente analizzando la sua attività cerebrale. Presentata su Science Advances, questa tecnologia offre nuove informazioni su come il cervello rappresenta il mondo prima che i pensieri vengano trasformati in parole e potrebbe rivelarsi utile per aiutare persone con disturbi del linguaggio — ad esempio dopo un ictus — a comunicare meglio. Secondo il neuroscienziato Alex Huth, il modello riesce a ricostruire con notevole dettaglio ciò che l’osservatore vede, un risultato sorprendente vista la complessità del compito. Da oltre dieci anni i ricercatori sanno ricostruire ciò che una persona vede o sente analizzando lattività cerebrale, ma decodificare contenuti complessi, come brevi video, è sempre stato difficile. I tentativi precedenti riuscivano a estrarre solo parole chiave, senza cogliere il contesto completo. Il neuroscienziato Tomoyasu Horikawa ha sviluppato un nuovo approccio: prima ha creato una “firma di significato” digitale per più di duemila video, analizzandone i sottotitoli con un modello linguistico. Poi ha addestrato un’altra IA a collegare queste firme ai pattern di attività cerebrale osservati in sei volontari tramite risonanza magnetica. Quando il sistema analizza una nuova scansione celebrale mentre qualcuno guarda un video, riesce a prevedere la relativa firma di significato, e un generatore di testo trova la frase che meglio la rappresenta. Così, da un semplice video di una persona che salta da una cascata, il modello è riuscito passo dopo passo a ricostruire una descrizione completa e accurata. Il metodo ha funzionato anche quando i partecipanti richiamavano alla memoria video già visti: l’IA ha generato descrizioni basate sui ricordi, suggerendo che il cervello utilizza rappresentazioni simili per visione e memoria. Timori per la privacy  La nuova tecnica, basata su risonanza magnetica funzionale non invasiva, potrebbe migliorare le interfacce neurali impiantate che mirano a trasformare direttamente in testo le rappresentazioni mentali non verbali. Secondo Alex Huth – che nel 2023 ha sviluppato un modello simile per decodificare il linguaggio da registrazioni cerebrali non invasive – questi progressi potrebbero aiutare persone con difficoltà comunicative. Allo stesso tempo, però, emergono timori sulla privacy mentale: la possibilità di rivelare pensieri, emozioni o condizioni di salute potrebbe essere sfruttata per sorveglianza o discriminazione. Huth e Horikawa sottolineano che i loro modelli non oltrepassano questo limite: richiedono il consenso dei partecipanti e non sono in grado di leggere pensieri privati, una capacità che – ribadisce Huth – nessuno ha ancora dimostrato. The post Il computer sa cosa guardi first appeared on Lavoratrici e Lavoratori Aci Informatica.
I dati sintetici salveranno l’intelligenza artificiale?
(Fonte) Andrea Signorelli – 19 marzo 2025 Gli esperti avvertono che i modelli di intelligenza artificiale potrebbero presto affrontare una “carestia di dati”. I large language model consumano enormi quantità di testi per l’addestramento, ma le fonti disponibili sul web – come Common Crawl, Wikipedia o Reddit – stanno raggiungendo un limite, il cosiddetto data wall, cioè il punto in cui tutti i dati utili sono già stati utilizzati o diventano inaccessibili. La crescita della domanda è enorme: GPT-3 ha richiesto 500 miliardi di token, mentre GPT-4 ne avrebbe utilizzati circa 13 mila miliardi. Tuttavia, il volume di contenuti testuali online non aumenta abbastanza velocemente per sostenere modelli sempre più grandi, che secondo la legge di scala richiedono più parametri, più potenza computazionale e soprattutto molti più dati. Questo rischio potrebbe frenare lo sviluppo futuro dell’IA. Secondo uno studio di EpochAI, continuando le attuali tendenze, gli LLM esauriranno tutti i testi pubblici disponibili tra il 2026 e il 2032, entrando così in una possibile “carestia di dati”. Ma il problema potrebbe arrivare prima:  secondo quanto riporta TechCrunch, molti dati stanno diventando inaccessibili. Un altro studio ha stimato che il 25% dei dati provenienti da fonti di “alta qualità” (quasi sempre testate giornalistiche prestigiose e in lingua inglese, come il Guardian o il New York Times) è oggi inaccessibile ai principali dataset impiegati per l’addestramento delle intelligenze artificiali. La chiusura dei siti deriva da controversie su copyright e uso improprio dei contenuti, come le cause intentate da testate quali il New York Times. Per sbloccare l’accesso, molte piattaforme hanno iniziato a monetizzare i propri dati: Stack Overflow, Reddit e diverse testate (WSJ, AP, Gedi) hanno firmato accordi a pagamento con le aziende di IA, così come archivi di immagini come Shutterstock. Il mercato dei dati  La crescente domanda di dati per addestrare l’IA ha fatto nascere un mercato miliardario dell’etichettatura dei dati, oggi valutato circa 850 milioni di dollari e destinato a raggiungere i 10 miliardi nei prossimi dieci anni,  secondo Dimension Market Research. La crescita è spinta sia dall’aumento del volume di dati necessari sia dalla maggiore complessità dei contenuti da etichettare, che richiede personale specializzato e più costoso, mentre i lavori più semplici sono spesso svolti da lavoratori poco pagati nei Paesi in via di sviluppo. Parallelamente, l’accesso ai dati sta diventando più oneroso per via degli accordi commerciali che molte piattaforme impongono alle aziende di IA. Il risultato è un forte aumento dei costi per creare nuovi dataset. Questa dinamica danneggia soprattutto piccole aziende e ricercatori, che dipendono da dataset pubblici come Common Crawl e non possono permettersi licenze costose. Se i dataset pubblici perdono accesso a contenuti di alta qualità, il rischio è una crescente concentrazione del potere tecnologico nelle mani delle grandi società di IA. Il collasso del modello Il problema della scarsità di dati è aggravato dal fatto che una quota crescente dei contenuti online è generata direttamente da modelli di IA. Questi testi – spesso di bassa qualità – vengono poi raccolti dagli scraper e riutilizzati come dati di addestramento, creando un circolo vizioso: l’IA si allena su contenuti prodotti da altre IA, degradando progressivamente la qualità del modello. Uno studio pubblicato su Naturemostra che addestrare modelli su output generati da altri modelli porta al model collapse, una progressiva perdita di coerenza paragonabile a fare copie successive di una fotografia, fino ad avere solo “rumore”. Esperimenti controllati hanno mostrato che, dopo varie iterazioni, il modello finisce per produrre frasi completamente senza senso. Il problema è urgente perché i contenuti sintetici stanno crescendo rapidamente: tra il 2022 e il 2023 i post generati da IA sono aumentati del 68% su Reddit e del 131% sui siti online di bassa qualità, alimentando ulteriormente il rischio di un collasso dei modelli. Il lato buono dei dati sintetici I dati sintetici, se generati appositamente e con tecniche corrette, potrebbero rappresentare una soluzione alla futura “carestia di dati” per l’IA. “Se è vero che ‘i dati sono il nuovo petrolio’, allora i dati sintetici sono il biocarburante, generabili senza tutte le esternalità negative dell’originale”, ha spiegato Os Keyes, ricercatore che si occupa di Etica delle nuove tecnologie.  Sono testi creati direttamente dai modelli, che possono ampliare artificialmente i dataset senza rischi di copyright e con meno contenuti tossici. La qualità dipende però da un uso accurato del prompting: per ottenere dati utili servono istruzioni precise, come generare testi in stile “manuale scolastico”. Molti modelli recenti – tra cui Claude 3.5 Sonnet, Llama 3.1 e GPT-4.5 – usano già dati sintetici, che permettono anche forti risparmi economici: si stima che Palmyra X 004, un modello sviluppato quasi esclusivamente su dati sintetici da Writer (società di intelligenze artificiali generative a uso aziendale) sia costato 700mila dollari, contro i 4,6 milioni per un modello di dimensioni equiparabili addestrato nel modo classico. Sempre Hugging Face, che è una piattaforma collaborativa per strumenti di intelligenza artificiale, ha recentemente dichiarato di aver creato il più grande set di dati sintetici, chiamato SmolLM-Corpus. Restano però rischi significativi: i dati sintetici ereditano e amplificano pregiudizi e squilibri già presenti nei dati originali. Uno studio del 2023 condotto da ricercatori della Rice University e di Stanford ha scoperto che un’eccessiva dipendenza dai dati sintetici durante l’addestramento può portare a modelli la cui “qualità o diversità diminuisce progressivamente”. Il rischio di model collapse esiste anche quando si usano dati sintetici prodotti intenzionalmente: se vengono riutilizzati senza filtri, la qualità del modello degrada rapidamente. Tuttavia, questo esito non è inevitabile. Filtrando e valutando gli output – ad esempio facendo giudicare a un modello la qualità dei dati generati da un altro e selezionando solo quelli migliori – i dataset sintetici possono risultare persino più puliti e controllati di quelli reali. Il pericolo di un circolo vizioso rimane, ma la ricerca suggerisce che con un uso attento e selettivo dei dati sintetici si può mantenere, o persino migliorare, la qualità complessiva. The post I dati sintetici salveranno l’intelligenza artificiale? first appeared on Lavoratrici e Lavoratori Aci Informatica.