Tag - Ai&Innovazione

Il computer sa cosa guardi
(Fonte) Max Kozlov – 14 novembre 2025 Una nuova tecnica basata sull’intelligenza artificiale, chiamata mind captioning, è in grado di generare descrizioni molto accurate di ciò che una persona sta guardando, semplicemente analizzando la sua attività cerebrale. Presentata su Science Advances, questa tecnologia offre nuove informazioni su come il cervello rappresenta il mondo prima che i pensieri vengano trasformati in parole e potrebbe rivelarsi utile per aiutare persone con disturbi del linguaggio — ad esempio dopo un ictus — a comunicare meglio. Secondo il neuroscienziato Alex Huth, il modello riesce a ricostruire con notevole dettaglio ciò che l’osservatore vede, un risultato sorprendente vista la complessità del compito. Da oltre dieci anni i ricercatori sanno ricostruire ciò che una persona vede o sente analizzando lattività cerebrale, ma decodificare contenuti complessi, come brevi video, è sempre stato difficile. I tentativi precedenti riuscivano a estrarre solo parole chiave, senza cogliere il contesto completo. Il neuroscienziato Tomoyasu Horikawa ha sviluppato un nuovo approccio: prima ha creato una “firma di significato” digitale per più di duemila video, analizzandone i sottotitoli con un modello linguistico. Poi ha addestrato un’altra IA a collegare queste firme ai pattern di attività cerebrale osservati in sei volontari tramite risonanza magnetica. Quando il sistema analizza una nuova scansione celebrale mentre qualcuno guarda un video, riesce a prevedere la relativa firma di significato, e un generatore di testo trova la frase che meglio la rappresenta. Così, da un semplice video di una persona che salta da una cascata, il modello è riuscito passo dopo passo a ricostruire una descrizione completa e accurata. Il metodo ha funzionato anche quando i partecipanti richiamavano alla memoria video già visti: l’IA ha generato descrizioni basate sui ricordi, suggerendo che il cervello utilizza rappresentazioni simili per visione e memoria. Timori per la privacy  La nuova tecnica, basata su risonanza magnetica funzionale non invasiva, potrebbe migliorare le interfacce neurali impiantate che mirano a trasformare direttamente in testo le rappresentazioni mentali non verbali. Secondo Alex Huth – che nel 2023 ha sviluppato un modello simile per decodificare il linguaggio da registrazioni cerebrali non invasive – questi progressi potrebbero aiutare persone con difficoltà comunicative. Allo stesso tempo, però, emergono timori sulla privacy mentale: la possibilità di rivelare pensieri, emozioni o condizioni di salute potrebbe essere sfruttata per sorveglianza o discriminazione. Huth e Horikawa sottolineano che i loro modelli non oltrepassano questo limite: richiedono il consenso dei partecipanti e non sono in grado di leggere pensieri privati, una capacità che – ribadisce Huth – nessuno ha ancora dimostrato. The post Il computer sa cosa guardi first appeared on Lavoratrici e Lavoratori Aci Informatica.
I dati sintetici salveranno l’intelligenza artificiale?
(Fonte) Andrea Signorelli – 19 marzo 2025 Gli esperti avvertono che i modelli di intelligenza artificiale potrebbero presto affrontare una “carestia di dati”. I large language model consumano enormi quantità di testi per l’addestramento, ma le fonti disponibili sul web – come Common Crawl, Wikipedia o Reddit – stanno raggiungendo un limite, il cosiddetto data wall, cioè il punto in cui tutti i dati utili sono già stati utilizzati o diventano inaccessibili. La crescita della domanda è enorme: GPT-3 ha richiesto 500 miliardi di token, mentre GPT-4 ne avrebbe utilizzati circa 13 mila miliardi. Tuttavia, il volume di contenuti testuali online non aumenta abbastanza velocemente per sostenere modelli sempre più grandi, che secondo la legge di scala richiedono più parametri, più potenza computazionale e soprattutto molti più dati. Questo rischio potrebbe frenare lo sviluppo futuro dell’IA. Secondo uno studio di EpochAI, continuando le attuali tendenze, gli LLM esauriranno tutti i testi pubblici disponibili tra il 2026 e il 2032, entrando così in una possibile “carestia di dati”. Ma il problema potrebbe arrivare prima:  secondo quanto riporta TechCrunch, molti dati stanno diventando inaccessibili. Un altro studio ha stimato che il 25% dei dati provenienti da fonti di “alta qualità” (quasi sempre testate giornalistiche prestigiose e in lingua inglese, come il Guardian o il New York Times) è oggi inaccessibile ai principali dataset impiegati per l’addestramento delle intelligenze artificiali. La chiusura dei siti deriva da controversie su copyright e uso improprio dei contenuti, come le cause intentate da testate quali il New York Times. Per sbloccare l’accesso, molte piattaforme hanno iniziato a monetizzare i propri dati: Stack Overflow, Reddit e diverse testate (WSJ, AP, Gedi) hanno firmato accordi a pagamento con le aziende di IA, così come archivi di immagini come Shutterstock. Il mercato dei dati  La crescente domanda di dati per addestrare l’IA ha fatto nascere un mercato miliardario dell’etichettatura dei dati, oggi valutato circa 850 milioni di dollari e destinato a raggiungere i 10 miliardi nei prossimi dieci anni,  secondo Dimension Market Research. La crescita è spinta sia dall’aumento del volume di dati necessari sia dalla maggiore complessità dei contenuti da etichettare, che richiede personale specializzato e più costoso, mentre i lavori più semplici sono spesso svolti da lavoratori poco pagati nei Paesi in via di sviluppo. Parallelamente, l’accesso ai dati sta diventando più oneroso per via degli accordi commerciali che molte piattaforme impongono alle aziende di IA. Il risultato è un forte aumento dei costi per creare nuovi dataset. Questa dinamica danneggia soprattutto piccole aziende e ricercatori, che dipendono da dataset pubblici come Common Crawl e non possono permettersi licenze costose. Se i dataset pubblici perdono accesso a contenuti di alta qualità, il rischio è una crescente concentrazione del potere tecnologico nelle mani delle grandi società di IA. Il collasso del modello Il problema della scarsità di dati è aggravato dal fatto che una quota crescente dei contenuti online è generata direttamente da modelli di IA. Questi testi – spesso di bassa qualità – vengono poi raccolti dagli scraper e riutilizzati come dati di addestramento, creando un circolo vizioso: l’IA si allena su contenuti prodotti da altre IA, degradando progressivamente la qualità del modello. Uno studio pubblicato su Naturemostra che addestrare modelli su output generati da altri modelli porta al model collapse, una progressiva perdita di coerenza paragonabile a fare copie successive di una fotografia, fino ad avere solo “rumore”. Esperimenti controllati hanno mostrato che, dopo varie iterazioni, il modello finisce per produrre frasi completamente senza senso. Il problema è urgente perché i contenuti sintetici stanno crescendo rapidamente: tra il 2022 e il 2023 i post generati da IA sono aumentati del 68% su Reddit e del 131% sui siti online di bassa qualità, alimentando ulteriormente il rischio di un collasso dei modelli. Il lato buono dei dati sintetici I dati sintetici, se generati appositamente e con tecniche corrette, potrebbero rappresentare una soluzione alla futura “carestia di dati” per l’IA. “Se è vero che ‘i dati sono il nuovo petrolio’, allora i dati sintetici sono il biocarburante, generabili senza tutte le esternalità negative dell’originale”, ha spiegato Os Keyes, ricercatore che si occupa di Etica delle nuove tecnologie.  Sono testi creati direttamente dai modelli, che possono ampliare artificialmente i dataset senza rischi di copyright e con meno contenuti tossici. La qualità dipende però da un uso accurato del prompting: per ottenere dati utili servono istruzioni precise, come generare testi in stile “manuale scolastico”. Molti modelli recenti – tra cui Claude 3.5 Sonnet, Llama 3.1 e GPT-4.5 – usano già dati sintetici, che permettono anche forti risparmi economici: si stima che Palmyra X 004, un modello sviluppato quasi esclusivamente su dati sintetici da Writer (società di intelligenze artificiali generative a uso aziendale) sia costato 700mila dollari, contro i 4,6 milioni per un modello di dimensioni equiparabili addestrato nel modo classico. Sempre Hugging Face, che è una piattaforma collaborativa per strumenti di intelligenza artificiale, ha recentemente dichiarato di aver creato il più grande set di dati sintetici, chiamato SmolLM-Corpus. Restano però rischi significativi: i dati sintetici ereditano e amplificano pregiudizi e squilibri già presenti nei dati originali. Uno studio del 2023 condotto da ricercatori della Rice University e di Stanford ha scoperto che un’eccessiva dipendenza dai dati sintetici durante l’addestramento può portare a modelli la cui “qualità o diversità diminuisce progressivamente”. Il rischio di model collapse esiste anche quando si usano dati sintetici prodotti intenzionalmente: se vengono riutilizzati senza filtri, la qualità del modello degrada rapidamente. Tuttavia, questo esito non è inevitabile. Filtrando e valutando gli output – ad esempio facendo giudicare a un modello la qualità dei dati generati da un altro e selezionando solo quelli migliori – i dataset sintetici possono risultare persino più puliti e controllati di quelli reali. Il pericolo di un circolo vizioso rimane, ma la ricerca suggerisce che con un uso attento e selettivo dei dati sintetici si può mantenere, o persino migliorare, la qualità complessiva. The post I dati sintetici salveranno l’intelligenza artificiale? first appeared on Lavoratrici e Lavoratori Aci Informatica.
OpenAI non è più solo una no-profit, Microsoft se ne prende il 27% per 135 miliardi
(Fonte) Biagio Simonetta – 28 ottobre 2025 OpenAI ha completato la sua trasformazione in società a scopo di lucro, siglando un accordo che ridefinisce gli equilibri del settore dell’intelligenza artificiale: Microsoft ha acquisito il 27% della società, per un valore di circa 135 miliardi di dollari. In cambio, ottiene l’accesso esclusivo alla tecnologia di OpenAI fino al 2032, inclusi eventuali futuri modelli di intelligenza artificiale generale (AGI). L’intesa conclude un lungo periodo di trattative, durante il quale altri grandi attori come SoftBank e Nvidia avevano mostrato interesse, consolidando di fatto il ruolo dominante di Microsoft nell’ecosistema OpenAI. Con il nuovo accordo, OpenAI diventa una public benefit corporation (OpenAI Group PBC) controllata dalla OpenAI Foundation, una fondazione non profit che deterrà il 26% della società. La trasformazione consente l’ingresso di nuovi capitali. La fondazione riceverà inoltre un warrant che le permetterà di aumentare la propria quota se il valore di OpenAI crescerà significativamente nei prossimi 15 anni. Tuttavia, la vera svolta è l’ulteriore consolidamento di Microsoft, che con questo accordo si riafferma come attore dominante nel settore dell’intelligenza artificiale. OpenAI e Microsoft hanno confermato la solidità della loro partnership, ma con una nuova struttura: Microsoft riceverà il 20% dei ricavi di OpenAI fino al raggiungimento dell’intelligenza artificiale generale (AGI), momento in cui la quota si azzererà. L’accordo, approvato dalle autorità del Delaware e della California, è stato giudicato conforme all’interesse pubblico. OpenAI continuerà a basarsi sul cloud Azure, con nuovi impegni per 250 miliardi di dollari, ma potrà collaborare anche con altri fornitori come Oracle. Sam Altman, CEO di OpenAI, non avrà partecipazioni nella nuova struttura, per evitare conflitti tra profitto e missione etica. I mercati hanno reagito positivamente: le azioni Microsoft sono salite del 4,2%, segno di fiducia nella stabilità del nuovo assetto. Il principale vantaggio per Microsoft è il mantenimento dei diritti di proprietà intellettuale sui modelli di OpenAI fino al 2032, che potrà integrare nei propri prodotti Copilot e utilizzare per sviluppare soluzioni autonome. L’alleanza tra le due società, quindi, non si interrompe ma si trasforma: OpenAI diventa un attore pienamente commerciale orientato verso l’obiettivo dell’intelligenza artificiale generale, mentre Microsoft consolida la propria posizione di leadership nella corsa globale all’AI The post OpenAI non è più solo una no-profit, Microsoft se ne prende il 27% per 135 miliardi first appeared on Lavoratrici e Lavoratori Aci Informatica.
Ottobre 2025: a che punto siamo con l’AI?
(Fonte) Datapizza 22 ottobre 2025 Un po’ di giorni fa, è stato rilasciato il report “State of AI 2025”. Si tratta di un report rilasciato ogni anno a Ottobre, che è diventato un riferimento importante per avere un punto della situazione sull’evoluzione dell’AI. Il report approfondisce l’evoluzione e l’impatto dell’AI su 4 aree specifiche. 1) Ricerca A Settembre 2024, OpenAI annuncia il modello o1 in preview in grado di “ragionare”. Ed è stata una grande novità all’epoca. Pochi mesi dopo (Gennaio), arriva DeepSeek con V3 e R1, modelli open-weights, con performance molto simili ai modelli principali closed ma con costi molto più bassi.  C’è da dire comunque che, ad oggi, i modelli migliori restano quelli closed, anche se il gap si è ridotto di molto in termini di performance per reasoning e coding. Sebbene la leadership resti dei laboratori statunitensi, la Cina si può considerare il secondo attore globale. Un altro aspetto importante del 2025 è il fatto che la ricerca si è spostata sull’efficienza e gli agenti. Infatti, un’altra novità è stata il Model Context Protocol (MCP), un protocollo che consente a LLM o applicazioni AI di connettersi a fonti di dati esterne, strumenti, database, applicazioni aziendali e workflow. La ricerca è passata dal “singolo modello potente” alla rete di modelli che collaborano. 2) Industry NVIDIA è l’attore principale nella corsa all’AI. Infatti, ha superato i $4.000 miliardi di valore. I colossi americani (Amazon, Google, Meta, OpenAI, Microsoft) fanno il 75% dei suoi ordini. Un altro progetto super importante del 2025 lato investimenti è il progetto Stargate, annunciato da Sam Altman, Masayoshi Son, Larry Ellison e Donald Trump a gennaio. Si tratta di un’infrastruttura da 10 GW di potenza e 4 milioni di GPU, finanziata da $500 miliardi di SoftBank, MGX, Oracle e OpenAI. Un altro fenomeno particolare è la nascita dei “circular GPU deals”.  In pratica, questo schema mostra come NVIDIA investa nei laboratori AI (come OpenAI, CoreWeave, xAI…). Con quei soldi, i laboratori comprano GPU NVIDIA per addestrare i loro modelli. Poi, affittano o rivendono parte di quella potenza di calcolo ad altre aziende. Il risultato è che i soldi che NVIDIA ha investito tornano a lei, perché tutti usano le sue GPU. NVIDIA finanzia chi compra da lei e guadagna due volte (come venditore e come investitore). 3) Politica Stati Uniti: qui, come mi aspettavo, c’è una filosofia basata più sugli incentivi e meno su regole rigide. La regolamentazione, di fatto, la fanno le aziende stesse (OpenAI, Anthropic, Google…). Cina: accelera verso l’autosufficienza tecnologica, spingendo sulla produzione di chip nazionali e su una regolamentazione fortemente centralizzata. Le aziende (Alibaba, ByteDance, etc…) devono registrare ogni nuovo modello e consegnare dataset di training e parametri a un archivio governativo, che decide cosa può essere addestrato, pubblicato e distribuito. Europa: l’AI Act europeo, entrato in vigore il 1° agosto 2024, è la prima legge completa al mondo sull’AI. Pur essendo avanti a livello normativo, l’Europa rimane indietro sul piano industriale: dipende ancora per oltre l’80% del suo compute dai cloud statunitensi. Il compute (la potenza di calcolo) è diventato la nuova leva di potere geopolitico: chi controlla GPU e chip decide la velocità di innovazione. 4) Sicurezza Nel 2023 tutti avevano paura che l’AI potesse “distruggere il mondo”. Ma nel 2024-2025 il discorso cambia: la sicurezza dell’AI non è più una questione filosofica, ma una parte tecnica del lavoro. Le grandi aziende (OpenAI, Anthropic, Google) hanno creato processi ingegneristici di controllo: ogni nuovo modello viene testato e monitorato prima e dopo il rilascio. L’obiettivo non è fare un’AI “buona e sicura”, ma un’AI prevedibile e trasparente. In pratica, se riesci a capire come ragiona, puoi controllarla.   The post Ottobre 2025: a che punto siamo con l’AI? first appeared on Lavoratrici e Lavoratori Aci Informatica.
L’ossessione per la scalabilità dell’industria dell’intelligenza artificiale è destinata a crollare
(Fonte) Will Knight – 15 ottobre 2025, 14:00 Uno studio del MIT suggerisce che i modelli di intelligenza artificiale più grandi e computazionalmente più intensivi potrebbero presto offrire rendimenti decrescenti rispetto ai modelli più piccoli. Confrontando le leggi di scala con i continui miglioramenti nell’efficienza dei modelli, i ricercatori hanno scoperto che potrebbe diventare più difficile ottenere balzi in avanti nelle prestazioni da modelli di grandi dimensioni, mentre i guadagni in efficienza potrebbero rendere i modelli eseguiti su hardware più modesto sempre più performanti nel prossimo decennio. “Nei prossimi cinque o dieci anni, è molto probabile che la situazione inizi a restringersi”, afferma Neil Thompson, informatico e professore al MIT coinvolto nello studio. I balzi in avanti in termini di efficienza, come quelli osservati con il modello notevolmente economico di DeepSeek a gennaio, hanno già rappresentato un punto di svolta per il settore dell’intelligenza artificiale, abituato a bruciare enormi quantità di risorse di elaborazione. Lo studio è particolarmente interessante considerando l’attuale boom delle infrastrutture di intelligenza artificiale (o dovremmo dire “bolla”?), che non mostra segni di rallentamento. OpenAI e altre aziende tecnologiche statunitensi hanno firmato accordi da centinaia di miliardi di dollari per costruire infrastrutture di intelligenza artificiale negli Stati Uniti. “Il mondo ha bisogno di molta più potenza di calcolo”, ha proclamato questa settimana il presidente di OpenAI, Greg Brockman, annunciando una partnership tra OpenAI e Broadcom per chip di intelligenza artificiale personalizzati. Un numero crescente di esperti mette in dubbio la solidità di questi accordi. Circa il 60% del costo di costruzione di un data center è destinato alle GPU, che tendono a deprezzarsi rapidamente. Anche le partnership tra i principali attori appaiono circolari e opache . Jamie Dimon, CEO di JP Morgan, è l’ultimo grande nome della finanza a lanciare un avvertimento, come dichiarato alla BBC la scorsa settimana. “Il livello di incertezza dovrebbe essere più alto nella mente della maggior parte delle persone”. Il boom edilizio che sta attualmente sostenendo gran parte dell’economia statunitense potrebbe avere conseguenze anche sull’innovazione americana. Investendo così massicciamente in GPU e altri chip specializzati per il deep learning, le aziende di intelligenza artificiale potrebbero perdere nuove opportunità che potrebbero derivare dall’esplorazione di idee provenienti dai margini del mondo accademico, come alternative al deep learning, nuovi progetti di chip e persino approcci come il calcolo quantistico. Dopotutto, è da lì che provengono le attuali scoperte in ambito di intelligenza artificiale . The post L’ossessione per la scalabilità dell’industria dell’intelligenza artificiale è destinata a crollare first appeared on Lavoratrici e Lavoratori Aci Informatica.
La bolla dell’intelligenza artificiale sta per scoppiare
(Fonte) Andrea Daniele Signorelli – 8 Ottobre 2025 Nonostante l’enorme entusiasmo riguardo l’Intelligenza Artificiale e i colossali investimenti, i risultati economici sono scarsi e il modello di business dell’IA generativa resta incerto. Lo affermano gli stessi protagonisti del settore, come il fondatore di OpenAI Sam Altman, Mark Zuckerberg e Jeff Bezos. Anche le aziende che hanno integrato l’intelligenza artificiale hanno visto scarsi effetti positivi. I conti di OpenAI  OpenAI rappresenta il caso emblematico: pur avendo superato i 500 milioni di utenti e prevedendo 10 miliardi di ricavi nel 2025, accumula perdite stimate in 27 miliardi e ha solo 15,5 milioni di utenti paganti. Le società che invece pagano OpenAI per fornire servizi terzi (“AI as a service”) stanno ottenendo risultati inferiori alle attese. La società continua a sopravvivere grazie ai finanziatori e ha siglato un accordo da 300 miliardi di dollari con Oracle per la costruzione di data center, che però sarà finanziato in gran parte a debito. Anche Oracle, già fortemente indebitata, rischia di compromettere la propria stabilità: l’agenzia di rating Moody’s ha dato una valutazione negativa del rating di Oracle pochi giorni dopo la firma del contratto. L’infrastruttura dovrebbe essere un domani pagata da OpenAI, sempre che quest’ultima riesca, entro la fine del decennio, ad aumentare il fatturato fino ai livelli promessi, che sono dieci volte superiori a quelli odierni. Lo stesso squilibrio si osserva in tutto il settore: Anthropic, Perplexity e altre startup spendono molto più di quanto guadagnano; e anche i giganti Microsoft, Amazon, Google e Meta investiranno nel 2025 oltre 330 miliardi di dollari in infrastrutture, ricavandone meno di 30 miliardi. Gli analisti evidenziano così un’enorme sproporzione tra spese e profitti. La bolla di Nvidia L’unica vera vincitrice, per ora, è Nvidia, che domina il mercato delle GPU (detenendo il 90% delle quote di mercato) e registra guadagni record (26 miliardi in un trimestre). Tuttavia, il suo successo dipende quasi interamente dalla domanda generata dall’hype sull’IA. Per sostenere artificialmente questo mercato, Nvidia investe miliardi nelle stesse aziende che acquistano le sue GPU, creando un circuito finanziario autoreferenziale che ricorda i meccanismi delle bolle speculative. Se le aziende che acquistano in massa le GPU di Nvidia decidessero che non è più il caso di spendere le cifre folli che stanno al momento spendendo, quanto precipiterebbe il valore di un’azienda che ha ottenuto il 40% dei suoi ricavi da due soli misteriosi clienti, che secondo TechCrunch potrebbero essere Microsoft e Google? È proprio per queste ragioni che Nvidia vuole evitare a tutti costi che qualcosa del genere si verifichi.e si è  impegnata a investire “fino a 100 miliardi di dollari” in OpenAI “nei prossimi anni”. In poche parole, Nvidia vuole prestare a OpenAI un terzo dei soldi che OpenAI deve dare a Oracle affinché compri le GPU di Nvidia che alimenteranno i suoi data center. E non è l’unico caso: il CEO di Nvidia Jensen Huang continua ad investire denaro in società (come Perplexity, CoreWeave, Cohere, Together AI, Applied Digitals e molte altre startup) che utilizzeranno questi soldi per acquistare GPU. È un meccanismo che è stato paragonato da The Information ai programmi di stimolo delle banche centrali: si immette denaro nell’economia nella speranza che questo generi crescita economica e, indirettamente, produca i ritorni necessari a compensare l’investimento iniziale, gonfiando però allo stesso tempo il valore delle azioni, con il rischio di creare una colossale bolla finanziaria che potrebbe essere quattro volte superiore alla bolla immobiliare che nel 2008 ha mandato il mondo intero in recessione. Che la bolla dell’intelligenza artificiale esista è un dato di fatto: la vera incognita riguarda la violenza con cui esploderà. The post La bolla dell’intelligenza artificiale sta per scoppiare first appeared on Lavoratrici e Lavoratori Aci Informatica.
Scandalo Deloitte: dovrà risarcire il governo australiano per un report pieno di errori generati dall’IA
(Fonte) Massimo De Laurentiis – 8 ottobre 2025 Deloitte, una delle più grandi società di consulenza al mondo, dovrà risarcire il governo australiano per aver consegnato un report pieno di imprecisioni prodotte proprio dall’IA. Le allucinazioni sono parte integrante di questa tecnologia e non possono essere eliminati del tutto. Il rapporto , costato circa 290 mila dollari alle casse di Canberra, è stato successivamente rivisto e aggiornato per correggere le citazioni a libri inesistenti e le voci della bibliografia che contenevano errori. Non è la prima volta in cui la fiducia cieca nell’intelligenza artificiale ha causato errori clamorosi: nel 2023 a New York, l’avvocato Steven A. Schwartz citò una serie di sentenze legali inesistenti, completamente inventate da ChatGPT; un altro caso riguarda la compagnia aerea Air Canada, costretta a risarcire un cliente a cui erano state date informazioni scorrette da un chatbot per l’assistenza clienti. Il danno di immagine per Deloitte rischia di essere ancora maggiore, perché arriva in un momento in cui i rischi collegati all’uso dell’IA sono ormai ben conosciuti e più regolati rispetto al passato. Inoltre, le agenzie di consulenza che fanno parte delle Big Four, tra cui la multinazionale britannica, negli ultimi anni hanno investito miliardi di euro nello sviluppo dell’IA per rendere più veloce ed efficiente le proprie attività. La stessa Deloitte ha una sezione dell’azienda dedicata all’IA, e si propone di guidare lo sviluppo e l’adozione di un’IA responsabile e affidabile. Sul sito italiano dell’istituto, l’azienda dichiara di garantire soluzioni che si basano su “una profonda conoscenza del settore” e insiste su sicurezza, imparzialità e trasparenza. Questo scandalo, inoltre, arriva dopo che lo scorso giugno l’autorità di vigilanza contabile del Regno Unito ha accusato le Big Four di non considerare con la dovuta attenzione l’impatto dell’IA sulla qualità delle loro revisioni. The post Scandalo Deloitte: dovrà risarcire il governo australiano per un report pieno di errori generati dall’IA first appeared on Lavoratrici e Lavoratori Aci Informatica.
Cosa ci dice la storia sulla bolla dell’intelligenza artificiale
(Fonte) Patrick Kulp – 2 ottobre 2025 Data center delle dimensioni di Manhattan pronti ad alimentare i video social basati sull’intelligenza artificiale . Valutazioni in forte crescita per le startup con prodotti in fase di definizione. Se cercate segnali aneddotici di una bolla dell’intelligenza artificiale, ce ne sono molti. In effetti, tre storici su tre a cui abbiamo chiesto confermano: l’economia è effettivamente nella morsa di una grande bolla attorno a questa tecnologia. Ingredienti della bolla tecnologica “Non è inevitabile che si sviluppino bolle attorno a qualsiasi nuova tecnologia”, ha affermato Lee Vinsel, professore associato di tecnologia e società al Virginia Tech. “Ciò che sembra più inevitabile è vedere bolle svilupparsi attorno a tecnologie che vengono definite fin dall’inizio ‘trasformative’ nell’opinione pubblica”. Più è difficile valutare il potenziale impatto di una tecnologia, più è probabile che i mercati non la valutino correttamente. E il futuro dell’intelligenza artificiale generativa – che potrebbe essere un’entità quasi superintelligente o sostanzialmente inutile, a seconda della persona a cui si chiede – è pieno di punti interrogativi. Le bolle “nascono da una stima inadeguata delle prospettive di un’impresa. È prevedibile che si verifichino delle stime superiori alle aspettative, così come delle stime inferiori alle aspettative”, ci ha spiegato Andrew Odlyzko, matematico dell’Università del Minnesota che studia le bolle tecnologiche. “Detto questo, la tendenza generale dell’umanità è quella di essere ottimisti. Quindi, in generale, le persone tendono a peccare di rialzo, ed è per questo che scoppiano queste bolle”. Mentre la bolla delle dot-com ha avuto un chiaro andamento altalenante – una crescita costante seguita da un crollo vertiginoso – lo scoppio della bolla dell’intelligenza artificiale sarà probabilmente più caotico, ha affermato Sicilia. Vinsel ha affermato che l’entità della bolla dell’intelligenza artificiale è probabilmente maggiore nel complesso. “È andata oltre”, ha detto. “Ho visto cose che dimostrano che è più lontana dai profitti attesi di quanto lo fosse la bolla delle dot-com”. Ci sono altri indicatori che fanno scattare l’allarme per gli esperti che hanno familiarità con i precedenti cicli di espansione e contrazione. Uno di questi è la quantità di “capitale di investimento in circolazione”, ha detto Sicilia, inclusa una nuova classe di investitori meno esperti che si sta interessando. Ha menzionato l’accordo un po’ circolare di questo mese tra OpenAI e Nvidia che ha fatto temere ad analisti e investitori una bolla. Vinsel ha menzionato un recente accordo cloud da 300 miliardi di dollari tra OpenAI e Oracle. Quanto al momento in cui la bolla potrebbe scoppiare, è difficile dirlo con certezza, affermano gli esperti. “Ho la sensazione che, a posteriori, siamo già nel momento in cui la bolla si spegne”, ha detto Vinsel. Potreste aver notato che le più grandi bolle storiche menzionate non hanno riguardato tecnologie oggi sconosciute: radio, ferrovie, internet. Anche se la bolla dell’intelligenza artificiale dovesse scoppiare, ciò non significa necessariamente che la tecnologia scomparirà. “Il crollo delle dot-com è avvenuto, ma abbiamo Amazon”, ha detto Vinsel. “Abbiamo queste aziende, nate in quel momento, che hanno davvero creato un cambiamento duraturo, nel bene e nel male, nella nostra economia”. The post Cosa ci dice la storia sulla bolla dell’intelligenza artificiale first appeared on Lavoratrici e Lavoratori Aci Informatica.
Come dovremmo parlare di intelligenza artificiale ai nostri figli?
(Fonte) 30 agosto 2025 – Kathryn Jezer-Morton I noiosi compositi che l’IA generativa cerca di spacciare per “idee” sono per definizione nella media, e da quando ho letto il libro di Karen Hao “Empire of AI” , le incombenti devastazioni nel mondo reale delle infrastrutture di IA non mi sembrano più astratte: sono inevitabili. A parte i miei pensieri sull’uso dell’IA generativa – no, non sono d’accordo che sia “divertente da usare”, cresci! – non commettiamo lo stesso errore che abbiamo commesso l’ultima volta che ci siamo trovati di fronte a una tecnologia rivoluzionaria che i suoi sviluppatori sostenevano fosse inevitabile e allo stesso tempo fantastica. Vent’anni fa, abbiamo adottato i social media con lo stesso livello di pensiero critico che un bambino applica quando si mette un LEGO in bocca. Abbiamo condiviso cose che non avremmo dovuto e abbiamo accettato con entusiasmo i nostri feed come un sostituto della realtà. In seguito, quando è arrivato il momento per i giovani di creare i propri account, gli adulti hanno abdicato a ogni responsabilità di modellare comportamenti intelligenti. Abbiamo lasciato che i bambini facessero quello che volevano sui social media, partendo dal presupposto corretto che non avessimo più abbastanza credibilità per stabilire alcun controllo. Emily Bender, linguista coautrice di The AI Con con il sociologo Alex Hanna, mi ha ricordato che quando parliamo di intelligenza artificiale, dobbiamo essere precisi. Molti strumenti che utilizzano l’intelligenza artificiale – ad esempio strumenti di trascrizione vocale-testo o strumenti che trasformano un insieme di testi in un podcast di supporto allo studio – non generano qualcosa di nuovo; combinano gli input di un singolo individuo e li rendono leggibili in un nuovo formato. Ciò che Bender critica maggiormente sono quelle che chiama “macchine multimediali sintetiche”: modelli che creano immagini e testi compositi, come ChatGPT, DALL-E3 e Midjourney, utilizzando enormi librerie di materiale esistente per soddisfare un prompt.”Questi strumenti sono progettati per apparire come sistemi oggettivi e onniscienti, e credo sia importante abituare i bambini a chiedersi: ‘Chi ha costruito tutto questo? Chi ha detto e scritto le cose originali che sono diventate i dati di training? Di chi sono state rubate le illustrazioni da queste aziende per produrre i set di training?'”, ha affermato Bender. Per i bambini troppo piccoli per rispondere a queste domande, Bender suggerisce ai genitori di concentrarsi sull’impatto ambientale. “Ogni volta che si utilizza un chatbot, si contribuisce a costruire le basi per lo sviluppo del modello successivo e la costruzione del prossimo data center da parte dell’azienda. I data center devono essere raffreddati con enormi quantità di acqua pulita, e acqua pulita di solito significa acqua potabile”. Di chi sarà l’acqua potabile che verrà deviata? orse riusciremo a raggiungere i ragazzi in età universitaria facendo leva sul loro istinto competitivo. “Il modo migliore per garantire la sicurezza del lavoro e la qualità della vita in generale in futuro è capire i propri punti di forza e in cosa si è unici”, ha detto Hao. “In definitiva, le aziende non cercano di capire se sai usare uno strumento o meno. Cercano qualcosa di insostituibile in te che non possono semplicemente scambiare con un altro candidato. Se fai troppo affidamento sull’intelligenza artificiale, che si basa letteralmente sulla ripetitività statistica, ti darai la zappa sui piedi. Non riuscirai a individuare i tuoi punti di forza, ed è a questo che serve l’università: cimentarsi, provare cose nuove. Alcuni ragazzi si affidano ai chatbot per prendere decisioni di vita, per capire come reagire in determinate situazioni, e ottengono sempre la media statistica. Ti fa sembrare come tutti gli altri. Il tuo utilizzo dell’intelligenza artificiale non sarà percepito come intelligente. Non ti distinguerai mai.” Sebbene Empire of AI si concentri su come le aziende tecnologiche stiano accumulando lo stesso tipo di potere un tempo esercitato solo dai governi imperialisti, Hao mi ha detto che la nostra più forte resistenza inizia in casa, dove dovremmo incoraggiare l’indipendenza dei bambini nel mondo esterno. “I bambini sentono che i loro telefoni e questi strumenti sono uno spazio davvero libero in cui non sono supervisionati. Mentre quando escono di persona, sono spesso sorvegliati e sorvegliati. Quindi, anche se potrebbero preferire socializzare di persona, preferirebbero avere la libertà che deriva dall’essere online”. Se i genitori riescono a dare ai loro figli questa sensazione di libertà nei loro ambienti sociali, ciò potrebbe fornire una valida alternativa al fascino dell’intelligenza artificiale sempre attiva. The post Come dovremmo parlare di intelligenza artificiale ai nostri figli? first appeared on Lavoratrici e Lavoratori Aci Informatica.
Le aziende di intelligenza artificiale stanno inseguendo gli utenti governativi con forti sconti
(Fonte) Lauren Feiner 12 agosto 2025 Fin dal lancio di ChatGPT, le aziende di intelligenza artificiale si sono battute per affermarsi nella pubblica amministrazione in più di un modo. Nell’ultima settimana, sia OpenAI che Anthropic hanno introdotto prezzi speciali per le versioni governative dei loro chatbot di intelligenza artificiale generativa (prezzo simbolico di 1 dollaro), ChatGPT e Claude, e xAI ha annunciato il suo Grok for Government a metà luglio. Offrire inizialmente i servizi a prezzi simbolici consente loro di assicurarsi un vantaggio competitivo nel lungo periodo. Ottenere clienti governativi può essere un ottimo modo per le aziende tecnologiche di assicurarsi ampie basi di utenti e profitti. Il governo degli Stati Uniti afferma di spendere oltre 100 miliardi di dollari all’anno in “investimenti IT e informatici, incluso l’acquisto di licenze software”. Anthropic, OpenAI, Google e xAI si sono già aggiudicate contratti che potrebbero valere fino a 200 milioni di dollari ciascuno per contribuire a modernizzare il Dipartimento della Difesa degli Stati Uniti. OpenAI, nel suo annuncio, ha affermato che la sua offerta “realizza un pilastro fondamentale del Piano d’azione per l’intelligenza artificiale dell’amministrazione Trump, rendendo disponibili potenti strumenti di intelligenza artificiale in tutto il governo federale, in modo che i lavoratori possano dedicare meno tempo a burocrazia e scartoffie e più tempo a fare ciò per cui sono venuti al servizio pubblico: servire il popolo americano”. The post Le aziende di intelligenza artificiale stanno inseguendo gli utenti governativi con forti sconti first appeared on Lavoratrici e Lavoratori Aci Informatica.