
Perché le aziende faticano a integrare l’intelligenza artificiale
Guerre di Rete - Wednesday, January 28, 2026Immagine in evidenza da Unsplash
Se dovessimo riassumere le ragioni per cui l’intelligenza artificiale generativa rischia di rivelarsi una colossale bolla, potremmo sintetizzare la questione così: a fronte di investimenti miliardari da parte delle Big Tech, impegnate in una forsennata corsa allo sviluppo di strumenti sempre più potenti, non corrisponde ancora un ritorno economico che giustifichi l’impegno per vincere una gara in cui non è ancora chiaro il premio in palio.
Nel settore consumer nessuno è ancora stato in grado di trovare forme di monetizzazione credibili. OpenAI, che secondo i dati più recenti detiene il 64,5% del mercato delle AI conversazionali (in calo rispetto all’86,7% del 2024), ha più di 800 milioni di utenti, ma solo il 5% di questi (circa 40 milioni) è titolare di un abbonamento a pagamento. Un dato deludente, che ha contribuito a convincere OpenAI a introdurre gli annunci pubblicitari nel suo servizio.
Le cose non vanno meglio per Google, che sta integrando in tutti i suoi servizi Gemini, senza che però sia ancora chiaro quali risultati economici tutto ciò porterà. Fino a questo momento, il colosso di Mountain View ha ottenuto soprattutto il risultato di penalizzare il traffico web, cannibalizzato dalla modalità AI Overview del suo motore di ricerca.
Diversa ancora la situazione in casa Microsoft, che insiste a promuovere i suoi nuovi (e costosi) PC dotati di Neural Processing Unit facendo leva sull’idea che “chi non è pronto per l’AI rimarrà indietro”. Peccato che ben pochi utenti sentano il bisogno di avere nel proprio computer degli acceleratori hardware specializzati in machine learning.
A salvare questa affannosa rincorsa ai ricavi potrebbe contribuire il settore business. Anche qui, però, ci sono una serie di problemi che stanno rallentando l’adozione di strumenti basati sull’intelligenza artificiale generativa. Problemi che non sembrano essere di facile soluzione.
La Gen AI in azienda, tra hype e bassa adozione
Il mondo dell’impresa è quello che ha forse preso più sul serio il balzo evolutivo legato all’AI. Il fenomeno va però messo in prospettiva: l’impressione è che la maggior parte delle aziende investa in strumenti di intelligenza artificiale soltanto per non dare l’impressione di “restare indietro” rispetto alla concorrenza.
Ma qual è il reale impatto dell’AI a livello di produttività? Orientarsi tra le numerose ricerche individuabili sul web è piuttosto difficile. Nella maggior parte dei casi, per esempio, si tratta di report pubblicati dalle stesse Big Tech che promuovono l’adozione dell’AI generativa, dipingendo un settore in crescita ed elevati aumenti di produttività.
Una ricerca IBM relativa all’area EMEA (Europa, Medio Oriente e Africa) riporta come il 66% delle aziende avrebbero riscontrato “significativi miglioramenti della produttività operativa grazie all’AI”. Altri dati che fanno immaginare un vero boom nell’uso dell’intelligenza artificiale generativa provengono da una ricerca di Boston Consulting Group, secondo la quale gli strumenti di AI verrebbero utilizzati regolarmente dal 72% dei lavoratori.
Peccato che altri indicatori, provenienti da fonti istituzionali, siano di segno opposto. È il caso dei dati pubblicati settimanalmente dallo United States Census Bureau e raccolti nel Business Trends and Outlook Survey. Nel momento in cui scriviamo, la percentuale di aziende ed enti pubblici negli Stati Uniti che utilizza l’AI “in una qualsiasi delle sue funzioni aziendali” sarebbe inferiore al 20%. Com’è possibile una differenza di questo tipo?
Di quale AI stiamo parlando?
Al di là della (siderale) distanza tra i dati dell’Ufficio del Censimento USA e le ricerche di società private, bisogna considerare quanto le statistiche non distinguano attentamente tra i vari strumenti di AI, facendovi rientrare, per esempio, strumenti di produttività individuale come i vari chatbot commerciali (ChatGPT, Gemini, Claude, ecc.), il cui impatto trasformativo a livello aziendale è praticamente nullo.
In altre parole, l’uso di massa dell’AI generativa indicato da IBM e BCG non riguarda l’implementazione organica di questi sistemi da parte delle aziende, ma l’utilizzo “dal basso”, da parte dei singoli lavoratori che impiegano i sistemi consumer per velocizzare operazioni ripetitive o imboccare qualche scorciatoia per aumentare la produttività, sfruttando la traduzione automatica, la generazione assistita di documenti, l’uso di chatbot per l’assistenza clienti e simili.
Non solo: spesso l’utilizzo degli strumenti di AI generativa non rappresenta soltanto una scelta autonoma del lavoratore, ma viene fatta in modo clandestino e impiegando servizi gratuiti o personali sul luogo di lavoro. Questa tendenza porta con sé anche conseguenze indesiderabili, come il fenomeno della cosiddetta shadow AI (l’uso non autorizzato di qualsiasi strumento o applicazione di intelligenza artificiale da parte di dipendenti). L’impiego di sistemi di AI generativa con queste modalità, o addirittura il loro uso “clandestino”, pone infatti rilevanti problemi di sicurezza e il rischio di condivisione involontaria di informazioni riservate.
Per quanto riguarda strumenti più evoluti e pensati appositamente per l’integrazione aziendale – come Einstein GPT di Salesforce o le soluzioni AI enterprise di Oracle – le cose sono decisamente più complicate e ai toni entusiasti si sostituisce una diffusa timidezza.
Le applicazioni professionali dell’AI a livello business passano dagli strumenti integrati all’interno di piattaforme software come ERP (Enterprise Resource Planning, la gestione dei processi interni), CRM (Customer Relationship Management, la gestione della relazione con il cliente) o strumenti di analisi; per arrivare alle soluzioni di personalizzazione aziendale dei large language model.
In questi casi, l’adozione di strumenti di AI generativa prevede investimenti non indifferenti e la definizione di strategie di medio e lungo periodo. Ed è qui che arrivano i primi dolori, sintetizzati da un report pubblicato dal project NANDA, iniziativa avviata dal Massachusetts Institute of Technology.
La ricerca ha sollevato un vero e proprio polverone nell’ambiente, in particolare per un dato: il 95% delle aziende che hanno investito in progetti basati sull’uso di AI generativa non avrebbe avuto alcun ritorno misurabile in termini di trasformazione. Secondo gli autori, la causa di questo fallimento sarebbe da individuare in un approccio sbagliato all’AI, basato su sperimentazioni superficiali che non incidono sull’organizzazione e non producono valore economico reale.
Accanto alle incertezze legate all’effettivo ritorno dell’investimento in innovazione, a frenare le imprese sono però anche elementi più concreti. Uno di questi è legato al tema delle infrastrutture tecnologiche e degli investimenti che richiedono.
La roulette russa dei data center
Qualsiasi progetto nel settore dell’information technology pone l’azienda di fronte a un bivio: investire per l’acquisto di server creando un proprio data center on premise o rivolgersi al cloud, noleggiando il potere di calcolo da un hyperscaler come Microsoft, Google o Amazon Web Services?
Entrambe le opzioni comportano vantaggi e rischi. Creare un proprio data center permette di avere maggiore controllo sui costi a cui si andrà incontro, ma richiede un ingente investimento iniziale e pone il problema dell’aggiornamento delle macchine. La formula del cloud, che prevede una sorta di pagamento “a consumo” delle risorse utilizzate, permette di spalmare l’investimento e fare affidamento su sistemi aggiornati e servizi innovativi. Il rischio, però, è che in alcuni casi i costi vadano fuori controllo e finiscano per gravare troppo sull’azienda.
Negli ultimi anni, le imprese hanno (faticosamente) preso le misure e, per quanto riguarda le applicazioni tradizionali, hanno individuato parametri affidabili per orientarsi nella scelta. I dati variano a seconda dei report, ma la tendenza sembra essere che una percentuale superiore alla metà si affida ai servizi delle grandi imprese, mentre la parte restante si divide tra data center locali e infrastrutture di private cloud.
Quando si parla di AI generativa, però, i responsabili IT non hanno nessuno strumento che gli permetta di orientarsi chiaramente nella scelta. Si tratta, infatti, di una tecnologia in rapida evoluzione e per la quale non sono disponibili dati storici sull’impatto a livello infrastrutturale. Rivolgersi al cloud con la formula a consumo apre quindi al rischio di trovarsi a far fronte a spese esorbitanti.
Chi volesse usare un data center proprio rischierebbe invece, per le stesse ragioni, di trovarsi a gestire consumi elettrici fuori controllo. A scoraggiare chi considera questa seconda scelta c’è anche il fatto che i costi per l’hardware negli ultimi mesi sono lievitati ai massimi storici, paradossalmente proprio per la corsa allo sviluppo dell’AI, che ha innescato un rialzo dei prezzi a causa dell’eccessiva domanda.
E le cose non sono destinate a migliorare: Nvidia e AMD avrebbero infatti pianificato un aumento dei prezzi delle GPU utilizzate per l’AI, mentre il costo della memoria RAM è aumentato del 500%, con ripercussioni anche sul prezzo dei prodotti destinati al consumo di massa. Insomma: chi volesse creare un data center dedicato ai servizi AI, oggi, dovrebbe spendere una fortuna.
Un problema non da poco, soprattutto per le organizzazioni, come quelle che operano nel settore bancario, sottoposte a stringenti normative che le obbligano a utilizzare data center proprietari per ragioni di sicurezza e privacy.
La diffidenza verso i fornitori di servizi AI
L’ultimo aspetto che frena il processo di adozione dell’AI generativa a livello strutturale è legato al fenomeno del cosiddetto lock-in, cioè il vincolo che si crea nel momento in cui si sceglie un fornitore di servizi. Nel mondo IT, “sposare” una tecnologia significa legarsi mani e piedi a chi la fornisce. E in una fase turbolenta come quella che si sta vivendo nel mondo dell’AI rischia di diventare un azzardo.
Per il momento gli investitori stanno alimentando la corsa dell’intelligenza artificiale in vista dei potenziali ritorni futuri, ma se le cose dovessero cambiare le imprese temono che a farne le spese possano essere i clienti. Qualcosa di simile lo abbiamo visto con Microsoft. L’azienda di Redmond, dopo aver introdotto Copilot in Office 365, ha alzato il prezzo dell’abbonamento del 30% applicando l’aumento automaticamente a tutti i clienti, compresi quelli che non avevano nessun interesse a utilizzare il nuovo strumento.
Se un normale consumatore può decidere di abbandonare Office e passare ad altri software, in ambito aziendale le cose sono più complicate. Per migrare a un’altra tecnologia serve tempo e denaro. Il timore è che i fornitori ne siano consapevoli e sfruttino questa posizione di vantaggio per tirare la corda a livello di prezzi e rientrare dagli investimenti.
E infatti diverse startup che avevano costruito i propri prodotti sull’accesso ai modelli di OpenAI e Anthropic si sono trovate improvvisamente costrette a rivedere i prezzi, introdurre limiti di utilizzo e ridimensionare i servizi offerti a causa dei cambiamenti nei listini e nelle condizioni di accesso alle API.
È il caso, per esempio, di Cursor e Replit, due piattaforme per lo sviluppo software basate su modelli generativi che hanno dovuto modificare i propri modelli di business per assorbire l’aumento dei costi computazionali, legati anche alla necessità di aumentare i ricavi di OpenAI e Anthropic. Una dinamica che mostra quanto, una volta costruita un’infrastruttura sopra uno specifico sistema proprietario, ci si esponga a rischi continui, soprattutto in un ambito dai ritorni ancora incerti come quello dell’AI generativa.
E quindi: le società che sviluppano i sistemi di AI generativa hanno bisogno delle aziende per rientrare dai loro immensi investimenti. Le aziende sono però restie a esporsi sotto questo fronte proprio a causa delle incertezze economiche del settore. Il risultato di tutto questo è uno stallo alla messicana da cui nessuno sa come uscire.
L'articolo Perché le aziende faticano a integrare l’intelligenza artificiale proviene da Guerre di Rete.