Assalto al trono di Nvidia
Immagine in evidenza: logo di Nvidia, immagine rielaborata con AI
A prima vista, le cose per Nvidia non potrebbero andare meglio. Il colosso
statunitense delle GPU detiene oggi il 92% di questo specifico settore e una
quota pari al 70-75% del più complessivo mercato dei chip impiegati nell’ambito
AI. Nel 2025, la società fondata da Jensen Huang ha messo a segno ricavi per
circa 200 miliardi di dollari (oltre il doppio di quanto fatturato nell’anno
precedente), ha ottenuto guadagni per 32 miliardi nel corso di un unico
trimestre e può vantare al momento la maggiore capitalizzazione di mercato al
mondo (4.600 miliardi di dollari, contro i 3.900 della seconda classificata
Apple).
Un dominio quasi inevitabile, per l’azienda che con le sue GPU – processori nati
per l’elaborazione grafica dei videogiochi, ma che si sono dimostrati
estremamente efficienti per l’addestramento e l’utilizzo dei sistemi
d’intelligenza artificiale – ha reso possibile la rivoluzione del deep learning
ed è oggi praticamente l’unica azienda in grado di guadagnare dal complicato,
dal punto di vista economico, settore dell’AI generativa.
Il ruolo di Nvidia è talmente centrale che, lo scorso novembre, gli occhi di
tutti gli operatori finanziari erano puntati proprio sui suoi risultati
trimestrali, perché si temeva che una crescita anche solo leggermente inferiore
alle attese avrebbe fatto scoppiare la bolla dell’intelligenza artificiale
(pericolo per il momento scongiurato o almeno rinviato).
In questa fase, Nvidia può addirittura farsi carico dell’espansione
infrastrutturale del settore dell’AI generativa, essendo diventata il fulcro di
un complicatissimo meccanismo di prestiti e finanziamenti che ha ovviamente
l’obiettivo finale di vendere un numero sempre maggiore di GPU. Nonostante
alcuni inciampi (com’è il caso del promesso investimento in OpenAI, recentemente
ritirato), questo meccanismo può essere sintetizzato così: Nvidia presta o
investe capitale in startup e grandi sviluppatori di modelli, che utilizzano
quei fondi per acquistare infrastruttura di calcolo – spesso proprio GPU Nvidia
– alimentando una domanda che in parte contribuisce essa stessa a creare.
Se tutto ciò non bastasse, Jensen Huang ha ultimamente messo in atto la più
classica pratica da monopolista della Silicon Valley, iniziando a inglobare le
startup che potrebbero in futuro minacciarne la posizione dominante. È il caso
del maxi-accordo da 20 miliardi di dollari con cui ha acquistato gli asset
tecnologici e ha assunto parte del team di Groq, società che produce chip
specializzati – in termini tecnici ASIC – nella fase di inferenza
dell’intelligenza artificiale (vale a dire il carico di lavoro svolto durante
l’utilizzo dei sistemi generativi).
Basterà tutto ciò a mettere al riparo Nvidia da un numero crescente di
concorrenti sempre più agguerriti, che puntano a ridurre la loro dipendenza
dalle GPU di Jensen Huang, a produrre chip specializzati dalle prestazioni
ancora più elevate (in termini computazionali o di efficienza energetica) e a
consentire alla seconda superpotenza tecnologica – la Cina – di liberare tutte
le proprie potenzialità?
LA MINACCIA DI GOOGLE
“C’è la sensazione strategica, tra i clienti e nel mercato complessivo, che la
dipendenza da Nvidia, e dai suoi prezzi elevati, debba essere interrotta”, ha
spiegato, parlando con El País, l’analista Fernando Maldonado. “Tutti i
principali fornitori di servizi cloud stanno progettando i loro specifici chip
per compiti differenti. Più in là nel tempo, la quota di mercato di Nvidia
potrebbe iniziare a ridursi”
Dei vari concorrenti che stanno scaldando i motori nessuno è più minaccioso di
Google: azienda storicamente leader nel campo dell’intelligenza artificiale, che
ha reso possibile l’avvento dei large language model, sviluppando nel 2017
l’architettura Transformer, e che per il loro addestramento sfrutta da sempre
una combinazione di GPU Nvidia e delle sue TPU (Tensor Processing Unit), ovvero
acceleratori hardware progettati internamente, in collaborazione con Broadcom, e
ottimizzati per il calcolo delle reti neurali.
Questa coabitazione di GPU e TPU potrebbe presto giungere al termine: Gemini 3 –
il più avanzato large language model di Google – è stato infatti addestrato
utilizzando esclusivamente le TPU prodotte dal colosso di Mountain View,
prefigurando quindi un futuro in cui Nvidia potrebbe perdere uno dei suoi più
importanti clienti. Ma c’è altro: Google ha infatti iniziato a stringere accordi
commerciali che consentono a varie società del settore di utilizzare le proprie
TPU al posto delle GPU di Nvidia.
Il più importante di questi accordi è stato stipulato a ottobre 2025 e prevede
che Anthropic – una delle principali realtà dell’intelligenza artificiale e
sviluppatrice di Claude – spenda “decine di miliardi di dollari” per accedere
fino a un milione delle TPU di Google. Un accordo simile, ma su scala più
ridotta, è stato siglato con la startup Safe Superintelligence (fondata dall’ex
di OpenAI Ilya Sutskever).
Fino a oggi, gli sviluppatori di intelligenza artificiale potevano accedere alle
TPU soltanto attraverso i data center di proprietà di Google, rendendoli così
dipendenti dal suo ecosistema cloud e consentendo una flessibilità molto
inferiore rispetto alle GPU di Nvidia, che si acquistano invece fisicamente e
poi si sfruttano a piacimento (al netto della lunghissima lista d’attesa).
Adesso la situazione è cambiata: Google ha da pochissimo iniziato, secondo le
ultime notizie, a vendere direttamente i propri acceleratori.
Tra i clienti troviamo ancora una volta Anthropic (con un acquisto completato da
dieci miliardi di dollari e un secondo ordine da 11 miliardi già concordato) e
secondo le indiscrezioni anche Meta, che collocherebbe fisicamente le TPU nei
propri data center, dove fino a oggi avevano trovato spazio soprattutto le GPU
di Nvidia. È questa evoluzione di Google, che si sta quindi trasformando in un
vero e proprio produttore di chip, ad aver fatto salire le sue azioni quasi del
50% negli ultimi sei mesi, mentre quelle di Nvidia hanno fatto registrare
soltanto un +5%.
“La capitalizzazione di mercato è cresciuta di quasi mille miliardi a partire
dall’ottobre scorso, anche grazie alla decisione di Warren Buffett di acquistare
4,9 miliardi di azioni durante il terzo trimestre del 2025 e al più generale
entusiasmo di Wall Street per le iniziative di Google nel campo
dell’intelligenza artificiale”, si legge su Bloomberg. “Google è sempre stato il
vero outsider nella corsa dell’intelligenza artificiale. Un gigante per qualche
tempo dormiente, ma che adesso si è pienamente risvegliato”.
AMAZON E NON SOLO
Google è sicuramente il rivale più temibile per Nvidia, ma non è l’unico. Ormai
da qualche tempo, Amazon (per la precisione AWS) ha iniziato a sviluppare
acceleratori per l’intelligenza artificiale – chiamati Trainium – e dall’anno
scorso li sta usando nei propri data center, vendendo l’accesso a svariate
realtà del settore. Tra queste troviamo ancora una volta Anthropic, la società
di “data intelligence” Databricks, l’azienda giapponese di servizi per
l’assistenza clienti Karakuri e parecchie altre. Stando alle dichiarazioni del
CEO di Amazon Andy Jassy, gli introiti garantiti dai chip Trainium e Graviton
(classiche CPU usate internamente in ambito cloud) sono oggi di “circa 10
miliardi di dollari” e crescono “a tripla cifra” anno dopo anno.
Come spiega il New York Times, “sebbene non siano potenti come quelli di Google
o Nvidia, Amazon sta installando il doppio dei suoi chip all’interno di ciascun
data center, nella speranza di offrire maggiore potere computazionale usando la
stessa quantità di energia (grazie alla loro migliore efficienza energetica,
ndA)”. Al momento, Anthropic è l’unico vero grande cliente dei Trainium di
Amazon, ma in futuro le cose potrebbero cambiare: “Gli esperti ritengono che una
partnership di questo calibro possa prefigurare cambiamenti ancor più
importanti: quando Anthropic utilizza i chip di Amazon o di Google mostra al
resto del mercato che le GPU di Nvidia non sono l’unica opzione”.
Al contrario: le alternative continuano ad aumentare. La CEO di AMD, Lisa Su,
aveva annunciato qualche mese fa l’intenzione di centrare la produzione
aziendale sull’AI generativa, scommettendo che la “domanda insaziabile di
capacità di calcolo” non si sarebbe esaurita nel giro di pochi trimestri. Finora
i numeri sembrano darle ragione: la capitalizzazione di mercato di AMD è quasi
quadruplicata, superando i 350 miliardi di dollari, e l’azienda ha firmato
accordi rilevanti per fornire chip a OpenAI e Oracle.
Anche Broadcom si sta ritagliando uno spazio crescente grazie alla produzione di
chip – le cosiddette XPU – progettati per compiti di calcolo specifici, oltre a
hardware di rete indispensabile per collegare tra loro i giganteschi rack di
server che popolano i data center dell’AI. Intel, uno dei nomi storici della
Silicon Valley, ha clamorosamente mancato la prima ondata dell’AI generativa, ma
sta adesso investendo massicciamente sia nella progettazione sia nella
produzione di processori avanzati per i data center, nel tentativo di recuperare
terreno. E infine c’è Qualcomm, tradizionalmente associata ai chip per
smartphone e automobili, ma che nell’ottobre scorso ha annunciato il lancio di
due nuovi acceleratori per l’intelligenza artificiale, l’AI200 e l’AI250,
caratterizzati da un’attenzione particolare all’efficienza energetica.
L’ASCESA DELLE STARTUP
La scommessa è quindi duplice: da una parte che la richiesta di processori da
utilizzare nell’ambito dell’intelligenza artificiale continuerà ad aumentare;
dall’altra che si aprano maggiori opportunità per chi produce hardware
specializzato, laddove fino a oggi hanno dominato i processori programmabili e
generalisti di Nvidia. “Se si osserva il tasso di crescita del settore, si vede
[aumentare la domanda] di hardware specializzato”, ha spiegato Alex Davies, CTO
della società finanziaria Jump. “È sempre stato così in tutta la storia
dell’ingegneria: si inizia con qualcosa di più generico, poi si cresce a
grandissima velocità e alla fine qualcuno capisce che non si può avere un unico
prodotto per tutto”.
Fino a questo momento, la versatilità delle GPU ha rappresentato il principale
vantaggio di Nvidia, che attraverso la piattaforma software CUDA consente di
programmare i suoi processori in base alle specifiche esigenze aziendali,
fidelizzando inoltre una vastissima schiera di programmatori. I chip di uso
generale hanno però i loro svantaggi: “C’è un costo energetico da pagare, perché
ci sono parti del processore che non si utilizzano per ciò che serve ma
consumano comunque energia”, ha spiegato ancora Maldonado a El País.
Considerando quanto sta crescendo il mercato, c’è sicuramente spazio per tutte
le soluzioni: dai processori generalisti e programmabili di Nvidia fino alle
architetture ASIC più specifiche. Nel complesso, si stima che il giro di affari
degli acceleratori per sistemi d’intelligenza artificiale dovrebbe crescere del
16% su base annua fino a raggiungere i 604 miliardi di dollari nel 2033: “Certo,
Nvidia continuerà a controllare una parte significativa del mercato, ma anche
una piccola percentuale può valere miliardi di dollari”, ha spiegato al New York
Times l’analista Jordan Nanos.
Mentre i colossi si riorganizzano per aumentare la loro presenza in questo
ricchissimo mercato, una serie di startup ambisce a conquistare una fetta della
torta, presentando nuove soluzioni: Cerebras è una startup californiana, guidata
da Andrew Feldman, che progetta processori creati esclusivamente per
l’intelligenza artificiale. Processori, tra l’altro, dalle dimensioni inusuali:
“Il nostro chip è grande quanto un piatto da tavola, mentre quello di una GPU ha
le dimensioni di un francobollo”, ha spiegato Feldman parlando con l’Economist.
Potrebbe sembrare una mossa controintuitiva, visto che il progresso tecnologico
è sempre stato anche una corsa alla miniaturizzazione. Eppure, Cerebras permette
di usare un solo, enorme chip laddove con le GPU di Nvidia bisogna collegarne un
gran numero. Questo permette alle connessioni tra i vari core presenti nel chip
di operare migliaia di volte più rapidamente di quanto avviene con le
connessioni tra GPU separate.
Il suo Wafer-Scale Engine 3 (WSE-3) – il più grande chip per AI mai costruito,
con circa 4mila miliardi di transistor e 900mila core – è attualmente impiegato
da OpenAI (per Codex-Spark, un LLM ottimizzato per la generazione di codice),
Mistral, Perplexity e anche dai laboratori scientifici statunitensi (che lo
hanno impiegato, per esempio, nell’ambito della “simulazione molecolare
dinamica”). Una lista di clienti impressionante, che ha convinto gli investitori
a finanziare Cerebras con un miliardo di dollari per una valutazione da 23
miliardi.
Cerebras non è però l’unica startup che partecipa alla grande corsa per
ritagliarsi uno spazio nel mondo degli acceleratori per AI. Un’altra realtà
californiana, fondata da ex ingegneri di Google, è MatX, che sta sviluppando
processori che mirano a fare piazza pulita di tutti gli elementi delle GPU non
necessari per l’addestramento degli LLM. In poche parole, MatX punta a creare
processori che facciano meno cose, ma in maniera più efficiente. La startup nata
nel 2022 ha appena raccolto oltre 500 milioni di dollari in un nuovo round di
finanziamento e punta a completare il design del suo chip nel 2026, con
spedizioni previste nel 2027. L’elenco delle startup include anche le
statunitensi d-Matrix e SambaNova, l’israeliana Hailo, la britannica Graphcore
(acquistata nel 2024 da SoftBank), la canadese-statunitense Tenstorrent e
tantissime altre.
LA CINA PUNTA ALL’AUTOSUFFICIENZA
Le maggiori sorprese per Nvidia potrebbero però arrivare dall’altro lato del
Pacifico. Non è un caso che Jensen Huang abbia pubblicamente espresso la sua
contrarietà alle sanzioni che impediscono la vendita delle GPU più avanzate alla
Cina (per quanto recentemente allentate), argomentando che questa politica
rischia di accelerare la corsa della Repubblica Popolare per rendersi del tutto
autonoma dai processori statunitensi (e quindi intaccando il fatturato di
Nvidia, proveniente per il 13% dal mercato cinese).
Che la Cina sia dietro agli Stati Uniti soltanto di “pochi nanosecondi” – come
affermato dallo stesso Huang – è un’esagerazione, ma i progressi fatti dai
produttori di chip del colosso asiatico sono molto significativi. Al momento, le
prestazioni del modello H20 – il chip più potente che Nvidia può vendere in
Cina, variante dell’H200 – sono già state ampiamente superate da numerosi
processori cinesi, tra cui l’Ascend 910C di Huawei e il BW1000 di Hygon (per
capacità di calcolo grezza e al netto di un maggiore consumo energetico).
Probabilmente proprio allo scopo di aumentare l’adozione di chip autoctoni,
Pechino sta adesso a sua volta ostacolando l’acquisto dei chip Nvidia da parte
delle aziende cinesi, complicando ulteriormente una situazione già molto
difficile. In sintesi: al momento gli Stati Uniti hanno riammesso la vendita dei
processori H20, ma è ora la Cina che ne blocca l’acquisto da parte delle sue
aziende, adducendo ragioni di sicurezza nazionale.
La situazione è caotica e in continua evoluzione, ma l’impressione è che la Cina
voglia approfittare della guerra commerciale per aumentare la quota dei suoi
campioni nazionali (Huawei, Hygon, Cambricon, MetaX), che oggi detengono il 40%
del mercato – per un valore di circa 38 miliardi di dollari – e che potrebbero
crescere fino al 50% nel giro di un paio d’anni. Dal punto di vista tecnologico,
un aiuto importante potrebbe giungere dai progressi fatti dalla Semiconductor
Manufacturing International Corporation (SMIC): l’azienda cinese che si occupa
di fabbricare concretamente i chip progettati da Huawei e dagli altri.
SMIC è oggi il cuore della strategia industriale cinese nel campo dei
processori. Secondo alcuni report, l’azienda sarebbe ormai in grado di produrre
anche chip a 5 nanometri, seppur con costi più elevati e rese inferiori rispetto
a quelli realizzati dal colosso taiwanese TSMC per i marchi occidentali, le cui
dimensioni hanno da poco raggiunto la soglia dei 2 nanometri. Allo stesso tempo,
Huawei starebbe investendo per dare vita a delle proprie strutture produttive,
diventando quindi un concorrente di SMIC con l’obiettivo di far progredire
ulteriormente la capacità cinese di produrre chip avanzati.
Ci vorrà ancora parecchio tempo prima che le prestazioni dei chip cinesi possano
effettivamente raggiungere quelle statunitensi, ma i timori di Jensen Huang sono
fondati: SMIC, Huawei e gli altri campioni di Pechino o Shenzhen stanno facendo
rapidi e importanti passi avanti. E un domani potrebbero contribuire ad
allargare le crepe del dominio di Nvidia.
GPU, ASIC, Acceleratori
GPU
Le GPU (Graphics Processing Unit) sono processori nati originariamente per
l’elaborazione grafica, in particolare per il rendering in tempo reale dei
videogiochi. La loro caratteristica distintiva è la capacità di eseguire
moltissime operazioni in parallelo, qualità che le rende particolarmente adatte
a calcoli matematici ripetitivi e su larga scala. È proprio questa architettura
parallela ad averle trasformate, negli ultimi dieci anni, nel motore principale
dell’intelligenza artificiale moderna: le GPU sono infatti ideali per addestrare
e far funzionare reti neurali profonde. Pur essendo oggi centrali nell’AI,
restano chip general purpose, programmabili e utilizzabili anche per molti altri
compiti.
ASIC
Gli ASIC (Application-Specific Integrated Circuit) sono chip progettati per
svolgere un compito specifico. A differenza delle GPU, non sono pensati per
essere versatili, ma per massimizzare efficienza e prestazioni in una
determinata funzione. Nel campo dell’intelligenza artificiale, un ASIC può
essere progettato esclusivamente per eseguire operazioni tipiche delle reti
neurali, riducendo consumi energetici e costi rispetto a soluzioni più
generiche. Proprio perché costruiti “su misura”, gli ASIC offrono spesso
prestazioni superiori nel compito per cui sono stati progettati, ma sono meno
flessibili rispetto a una GPU.
Acceleratori
Il termine acceleratore non indica una specifica categoria tecnica di chip, ma
una funzione: un acceleratore è un processore progettato per velocizzare un
determinato carico di lavoro. Nel contesto dell’intelligenza artificiale, GPU,
ASIC specializzati, TPU o altri chip custom rientrano tutti nella categoria
degli acceleratori, perché servono ad accelerare i calcoli necessari per
addestrare o utilizzare i modelli. In altre parole, “acceleratore” è il
contenitore concettuale più ampio; GPU e ASIC sono alcune delle tecnologie che
possono svolgere quel ruolo.
L'articolo Assalto al trono di Nvidia proviene da Guerre di Rete.