Tag - Hardware

Assalto al trono di Nvidia
Immagine in evidenza: logo di Nvidia, immagine rielaborata con AI A prima vista, le cose per Nvidia non potrebbero andare meglio. Il colosso statunitense delle GPU detiene oggi il 92% di questo specifico settore e una quota pari al 70-75% del più complessivo mercato dei chip impiegati nell’ambito AI. Nel 2025, la società fondata da Jensen Huang ha messo a segno ricavi per circa 200 miliardi di dollari (oltre il doppio di quanto fatturato nell’anno precedente), ha ottenuto guadagni per 32 miliardi nel corso di un unico trimestre e può vantare al momento la maggiore capitalizzazione di mercato al mondo (4.600 miliardi di dollari, contro i 3.900 della seconda classificata Apple). Un dominio quasi inevitabile, per l’azienda che con le sue GPU – processori nati per l’elaborazione grafica dei videogiochi, ma che si sono dimostrati estremamente efficienti per l’addestramento e l’utilizzo dei sistemi d’intelligenza artificiale – ha reso possibile la rivoluzione del deep learning ed è oggi praticamente l’unica azienda in grado di guadagnare dal complicato, dal punto di vista economico, settore dell’AI generativa. Il ruolo di Nvidia è talmente centrale che, lo scorso novembre, gli occhi di tutti gli operatori finanziari erano puntati proprio sui suoi risultati trimestrali, perché si temeva che una crescita anche solo leggermente inferiore alle attese avrebbe fatto scoppiare la bolla dell’intelligenza artificiale (pericolo per il momento scongiurato o almeno rinviato). In questa fase, Nvidia può addirittura farsi carico dell’espansione infrastrutturale del settore dell’AI generativa, essendo diventata il fulcro di un complicatissimo meccanismo di prestiti e finanziamenti che ha ovviamente l’obiettivo finale di vendere un numero sempre maggiore di GPU. Nonostante alcuni inciampi (com’è il caso del promesso investimento in OpenAI, recentemente ritirato), questo meccanismo può essere sintetizzato così: Nvidia presta o investe capitale in startup e grandi sviluppatori di modelli, che utilizzano quei fondi per acquistare infrastruttura di calcolo – spesso proprio GPU Nvidia – alimentando una domanda che in parte contribuisce essa stessa a creare. Se tutto ciò non bastasse, Jensen Huang ha ultimamente messo in atto la più classica pratica da monopolista della Silicon Valley, iniziando a inglobare le startup che potrebbero in futuro minacciarne la posizione dominante. È il caso del maxi-accordo da 20 miliardi di dollari con cui ha acquistato gli asset tecnologici e ha assunto parte del team di Groq, società che produce chip specializzati – in termini tecnici ASIC – nella fase di inferenza dell’intelligenza artificiale (vale a dire il carico di lavoro svolto durante l’utilizzo dei sistemi generativi). Basterà tutto ciò a mettere al riparo Nvidia da un numero crescente di concorrenti sempre più agguerriti, che puntano a ridurre la loro dipendenza dalle GPU di Jensen Huang, a produrre chip specializzati dalle prestazioni ancora più elevate (in termini computazionali o di efficienza energetica) e a consentire alla seconda superpotenza tecnologica – la Cina – di liberare tutte le proprie potenzialità? LA MINACCIA DI GOOGLE “C’è la sensazione strategica, tra i clienti e nel mercato complessivo, che la dipendenza da Nvidia, e dai suoi prezzi elevati, debba essere interrotta”, ha spiegato, parlando con El País, l’analista Fernando Maldonado. “Tutti i principali fornitori di servizi cloud stanno progettando i loro specifici chip per compiti differenti. Più in là nel tempo, la quota di mercato di Nvidia potrebbe iniziare a ridursi” Dei vari concorrenti che stanno scaldando i motori nessuno è più minaccioso di Google: azienda storicamente leader nel campo dell’intelligenza artificiale, che ha reso possibile l’avvento dei large language model, sviluppando nel 2017 l’architettura Transformer, e che per il loro addestramento sfrutta da sempre una combinazione di GPU Nvidia e delle sue TPU (Tensor Processing Unit), ovvero acceleratori hardware progettati internamente, in collaborazione con Broadcom, e ottimizzati per il calcolo delle reti neurali. Questa coabitazione di GPU e TPU potrebbe presto giungere al termine: Gemini 3 – il più avanzato large language model di Google – è stato infatti addestrato utilizzando esclusivamente le TPU prodotte dal colosso di Mountain View, prefigurando quindi un futuro in cui Nvidia potrebbe perdere uno dei suoi più importanti clienti. Ma c’è altro: Google ha infatti iniziato a stringere accordi commerciali che consentono a varie società del settore di utilizzare le proprie TPU al posto delle GPU di Nvidia. Il più importante di questi accordi è stato stipulato a ottobre 2025 e prevede che Anthropic – una delle principali realtà dell’intelligenza artificiale e sviluppatrice di Claude – spenda “decine di miliardi di dollari” per accedere fino a un milione delle TPU di Google. Un accordo simile, ma su scala più ridotta, è stato siglato con la startup Safe Superintelligence (fondata dall’ex di OpenAI Ilya Sutskever). Fino a oggi, gli sviluppatori di intelligenza artificiale potevano accedere alle TPU soltanto attraverso i data center di proprietà di Google, rendendoli così dipendenti dal suo ecosistema cloud e consentendo una flessibilità molto inferiore rispetto alle GPU di Nvidia, che si acquistano invece fisicamente e poi si sfruttano a piacimento (al netto della lunghissima lista d’attesa). Adesso la situazione è cambiata: Google ha da pochissimo iniziato, secondo le ultime notizie, a vendere direttamente i propri acceleratori. Tra i clienti troviamo ancora una volta Anthropic (con un acquisto completato da dieci miliardi di dollari e un secondo ordine da 11 miliardi già concordato) e secondo le indiscrezioni anche Meta, che collocherebbe fisicamente le TPU nei propri data center, dove fino a oggi avevano trovato spazio soprattutto le GPU di Nvidia. È questa evoluzione di Google, che si sta quindi trasformando in un vero e proprio produttore di chip, ad aver fatto salire le sue azioni quasi del 50% negli ultimi sei mesi, mentre quelle di Nvidia hanno fatto registrare soltanto un +5%. “La capitalizzazione di mercato è cresciuta di quasi mille miliardi a partire dall’ottobre scorso, anche grazie alla decisione di Warren Buffett di acquistare 4,9 miliardi di azioni durante il terzo trimestre del 2025 e al più generale entusiasmo di Wall Street per le iniziative di Google nel campo dell’intelligenza artificiale”, si legge su Bloomberg. “Google è sempre stato il vero outsider nella corsa dell’intelligenza artificiale. Un gigante per qualche tempo dormiente, ma che adesso si è pienamente risvegliato”. AMAZON E NON SOLO Google è sicuramente il rivale più temibile per Nvidia, ma non è l’unico. Ormai da qualche tempo, Amazon (per la precisione AWS) ha iniziato a sviluppare acceleratori per l’intelligenza artificiale – chiamati Trainium – e dall’anno scorso li sta usando nei propri data center, vendendo l’accesso a svariate realtà del settore. Tra queste troviamo ancora una volta Anthropic, la società di “data intelligence” Databricks, l’azienda giapponese di servizi per l’assistenza clienti Karakuri e parecchie altre. Stando alle dichiarazioni del CEO di Amazon Andy Jassy, gli introiti garantiti dai chip Trainium e Graviton (classiche CPU usate internamente in ambito cloud) sono oggi di “circa 10 miliardi di dollari” e crescono “a tripla cifra” anno dopo anno. Come spiega il New York Times, “sebbene non siano potenti come quelli di Google o Nvidia, Amazon sta installando il doppio dei suoi chip all’interno di ciascun data center, nella speranza di offrire maggiore potere computazionale usando la stessa quantità di energia (grazie alla loro migliore efficienza energetica, ndA)”. Al momento, Anthropic è l’unico vero grande cliente dei Trainium di Amazon, ma in futuro le cose potrebbero cambiare: “Gli esperti ritengono che una partnership di questo calibro possa prefigurare cambiamenti ancor più importanti: quando Anthropic utilizza i chip di Amazon o di Google mostra al resto del mercato che le GPU di Nvidia non sono l’unica opzione”. Al contrario: le alternative continuano ad aumentare. La CEO di AMD, Lisa Su, aveva annunciato qualche mese fa l’intenzione di centrare la produzione aziendale sull’AI generativa, scommettendo che la “domanda insaziabile di capacità di calcolo” non si sarebbe esaurita nel giro di pochi trimestri. Finora i numeri sembrano darle ragione: la capitalizzazione di mercato di AMD è quasi quadruplicata, superando i 350 miliardi di dollari, e l’azienda ha firmato accordi rilevanti per fornire chip a OpenAI e Oracle. Anche Broadcom si sta ritagliando uno spazio crescente grazie alla produzione di chip – le cosiddette XPU – progettati per compiti di calcolo specifici, oltre a hardware di rete indispensabile per collegare tra loro i giganteschi rack di server che popolano i data center dell’AI. Intel, uno dei nomi storici della Silicon Valley, ha clamorosamente mancato la prima ondata dell’AI generativa, ma sta adesso investendo massicciamente sia nella progettazione sia nella produzione di processori avanzati per i data center, nel tentativo di recuperare terreno. E infine c’è Qualcomm, tradizionalmente associata ai chip per smartphone e automobili, ma che nell’ottobre scorso ha annunciato il lancio di due nuovi acceleratori per l’intelligenza artificiale, l’AI200 e l’AI250, caratterizzati da un’attenzione particolare all’efficienza energetica. L’ASCESA DELLE STARTUP La scommessa è quindi duplice: da una parte che la richiesta di processori da utilizzare nell’ambito dell’intelligenza artificiale continuerà ad aumentare; dall’altra che si aprano maggiori opportunità per chi produce hardware specializzato, laddove fino a oggi hanno dominato i processori programmabili e generalisti di Nvidia. “Se si osserva il tasso di crescita del settore, si vede [aumentare la domanda] di hardware specializzato”, ha spiegato Alex Davies, CTO della società finanziaria Jump. “È sempre stato così in tutta la storia dell’ingegneria: si inizia con qualcosa di più generico, poi si cresce a grandissima velocità e alla fine qualcuno capisce che non si può avere un unico prodotto per tutto”. Fino a questo momento, la versatilità delle GPU ha rappresentato il principale vantaggio di Nvidia, che attraverso la piattaforma software CUDA consente di programmare i suoi processori in base alle specifiche esigenze aziendali, fidelizzando inoltre una vastissima schiera di programmatori. I chip di uso generale hanno però i loro svantaggi: “C’è un costo energetico da pagare, perché ci sono parti del processore che non si utilizzano per ciò che serve ma consumano comunque energia”, ha spiegato ancora Maldonado a El País. Considerando quanto sta crescendo il mercato, c’è sicuramente spazio per tutte le soluzioni: dai processori generalisti e programmabili di Nvidia fino alle architetture ASIC più specifiche. Nel complesso, si stima che il giro di affari degli acceleratori per sistemi d’intelligenza artificiale dovrebbe crescere del 16% su base annua fino a raggiungere i 604 miliardi di dollari nel 2033: “Certo, Nvidia continuerà a controllare una parte significativa del mercato, ma anche una piccola percentuale può valere miliardi di dollari”, ha spiegato al New York Times l’analista Jordan Nanos. Mentre i colossi si riorganizzano per aumentare la loro presenza in questo ricchissimo mercato, una serie di startup ambisce a conquistare una fetta della torta, presentando nuove soluzioni: Cerebras è una startup californiana, guidata da Andrew Feldman, che progetta processori creati esclusivamente per l’intelligenza artificiale. Processori, tra l’altro, dalle dimensioni inusuali: “Il nostro chip è grande quanto un piatto da tavola, mentre quello di una GPU ha le dimensioni di un francobollo”, ha spiegato Feldman parlando con l’Economist. Potrebbe sembrare una mossa controintuitiva, visto che il progresso tecnologico è sempre stato anche una corsa alla miniaturizzazione. Eppure, Cerebras permette di usare un solo, enorme chip laddove con le GPU di Nvidia bisogna collegarne un gran numero. Questo permette alle connessioni tra i vari core presenti nel chip di operare migliaia di volte più rapidamente di quanto avviene con le connessioni tra GPU separate. Il suo Wafer-Scale Engine 3 (WSE-3) – il più grande chip per AI mai costruito, con circa 4mila miliardi di transistor e 900mila core – è attualmente impiegato da OpenAI (per Codex-Spark, un LLM ottimizzato per la generazione di codice), Mistral, Perplexity e anche dai laboratori scientifici statunitensi (che lo hanno impiegato, per esempio, nell’ambito della “simulazione molecolare dinamica”). Una lista di clienti impressionante, che ha convinto gli investitori a finanziare Cerebras con un miliardo di dollari per una valutazione da 23 miliardi. Cerebras non è però l’unica startup che partecipa alla grande corsa per ritagliarsi uno spazio nel mondo degli acceleratori per AI. Un’altra realtà californiana, fondata da ex ingegneri di Google, è MatX, che sta sviluppando processori che mirano a fare piazza pulita di tutti gli elementi delle GPU non necessari per l’addestramento degli LLM. In poche parole, MatX punta a creare processori che facciano meno cose, ma in maniera più efficiente. La startup nata nel 2022 ha appena raccolto oltre 500 milioni di dollari in un nuovo round di finanziamento e punta a completare il design del suo chip nel 2026, con spedizioni previste nel 2027. L’elenco delle startup include anche le statunitensi d-Matrix e SambaNova, l’israeliana Hailo, la britannica Graphcore (acquistata nel 2024 da SoftBank), la canadese-statunitense Tenstorrent e tantissime altre. LA CINA PUNTA ALL’AUTOSUFFICIENZA Le maggiori sorprese per Nvidia potrebbero però arrivare dall’altro lato del Pacifico. Non è un caso che Jensen Huang abbia pubblicamente espresso la sua contrarietà alle sanzioni che impediscono la vendita delle GPU più avanzate alla Cina (per quanto recentemente allentate), argomentando che questa politica rischia di accelerare la corsa della Repubblica Popolare per rendersi del tutto autonoma dai processori statunitensi (e quindi intaccando il fatturato di Nvidia, proveniente per il 13% dal mercato cinese). Che la Cina sia dietro agli Stati Uniti soltanto di “pochi nanosecondi” – come affermato dallo stesso Huang – è un’esagerazione, ma i progressi fatti dai produttori di chip del colosso asiatico sono molto significativi. Al momento, le prestazioni del modello H20 – il chip più potente che Nvidia può vendere in Cina, variante dell’H200 – sono già state ampiamente superate da numerosi processori cinesi, tra cui l’Ascend 910C di Huawei e il BW1000 di Hygon (per capacità di calcolo grezza e al netto di un maggiore consumo energetico). Probabilmente proprio allo scopo di aumentare l’adozione di chip autoctoni, Pechino sta adesso a sua volta ostacolando l’acquisto dei chip Nvidia da parte delle aziende cinesi, complicando ulteriormente una situazione già molto difficile. In sintesi: al momento gli Stati Uniti hanno riammesso la vendita dei processori H20, ma è ora la Cina che ne blocca l’acquisto da parte delle sue aziende, adducendo ragioni di sicurezza nazionale. La situazione è caotica e in continua evoluzione, ma l’impressione è che la Cina voglia approfittare della guerra commerciale per aumentare la quota dei suoi campioni nazionali (Huawei, Hygon, Cambricon, MetaX), che oggi detengono il 40% del mercato – per un valore di circa 38 miliardi di dollari – e che potrebbero crescere fino al 50% nel giro di un paio d’anni. Dal punto di vista tecnologico, un aiuto importante potrebbe giungere dai progressi fatti dalla Semiconductor Manufacturing International Corporation (SMIC): l’azienda cinese che si occupa di fabbricare concretamente i chip progettati da Huawei e dagli altri. SMIC è oggi il cuore della strategia industriale cinese nel campo dei processori. Secondo alcuni report, l’azienda sarebbe ormai in grado di produrre anche chip a 5 nanometri, seppur con costi più elevati e rese inferiori rispetto a quelli realizzati dal colosso taiwanese TSMC per i marchi occidentali, le cui dimensioni hanno da poco raggiunto la soglia dei 2 nanometri. Allo stesso tempo, Huawei starebbe investendo per dare vita a delle proprie strutture produttive, diventando quindi un concorrente di SMIC con l’obiettivo di far progredire ulteriormente la capacità cinese di produrre chip avanzati. Ci vorrà ancora parecchio tempo prima che le prestazioni dei chip cinesi possano effettivamente raggiungere quelle statunitensi, ma i timori di Jensen Huang sono fondati: SMIC, Huawei e gli altri campioni di Pechino o Shenzhen stanno facendo rapidi e importanti passi avanti. E un domani potrebbero contribuire ad allargare le crepe del dominio di Nvidia. GPU, ASIC, Acceleratori GPU Le GPU (Graphics Processing Unit) sono processori nati originariamente per l’elaborazione grafica, in particolare per il rendering in tempo reale dei videogiochi. La loro caratteristica distintiva è la capacità di eseguire moltissime operazioni in parallelo, qualità che le rende particolarmente adatte a calcoli matematici ripetitivi e su larga scala. È proprio questa architettura parallela ad averle trasformate, negli ultimi dieci anni, nel motore principale dell’intelligenza artificiale moderna: le GPU sono infatti ideali per addestrare e far funzionare reti neurali profonde. Pur essendo oggi centrali nell’AI, restano chip general purpose, programmabili e utilizzabili anche per molti altri compiti. ASIC Gli ASIC (Application-Specific Integrated Circuit) sono chip progettati per svolgere un compito specifico. A differenza delle GPU, non sono pensati per essere versatili, ma per massimizzare efficienza e prestazioni in una determinata funzione. Nel campo dell’intelligenza artificiale, un ASIC può essere progettato esclusivamente per eseguire operazioni tipiche delle reti neurali, riducendo consumi energetici e costi rispetto a soluzioni più generiche. Proprio perché costruiti “su misura”, gli ASIC offrono spesso prestazioni superiori nel compito per cui sono stati progettati, ma sono meno flessibili rispetto a una GPU.   Acceleratori Il termine acceleratore non indica una specifica categoria tecnica di chip, ma una funzione: un acceleratore è un processore progettato per velocizzare un determinato carico di lavoro. Nel contesto dell’intelligenza artificiale, GPU, ASIC specializzati, TPU o altri chip custom rientrano tutti nella categoria degli acceleratori, perché servono ad accelerare i calcoli necessari per addestrare o utilizzare i modelli. In altre parole, “acceleratore” è il contenitore concettuale più ampio; GPU e ASIC sono alcune delle tecnologie che possono svolgere quel ruolo. L'articolo Assalto al trono di Nvidia proviene da Guerre di Rete.
February 26, 2026
Guerre di Rete
La Cina progredisce sui chip e sfida le restrizioni
Immagine in evidenza: The Computer Chip di Brian Kostiuk da Unsplash Tra gli anni ’90 e il 2016, all’epoca della iper-globalizzazione a egemonia americana, il mondo ha assistito a un processo di divisione del lavoro su scala planetaria. La specializzazione di distretti industriali e aree economiche nelle attività in cui ciascuna godeva dei maggiori “vantaggi comparati” (in termini di sviluppo, risorse, lavoro o logistica) è stata una dei motori dell’accelerazione tecnologica degli ultimi decenni.     La possibilità di ridurre l’investimento nelle infrastrutture produttive, spostando le lavorazioni in luoghi caratterizzati da costi inferiori (pensiamo alla supply chain asiatica di Apple), ha permesso all’industria dell’hardware di liberare immensi capitali da investire nell’innovazione. Tra i settori che hanno cavalcato più intensamente queste dinamiche c’è quello dei microchip (o semiconduttori): l’oggetto tecnologico alla base di tutte le tecnologie, dal banale termostato ai sistemi di guida delle testate nucleari, dalle batterie dei veicoli elettrici ai server per l’addestramento delle intelligenze artificiali. IL MODELLO DELLE FOUNDRY, LE FABLESS E LA DIVISIONE DEL LAVORO Negli ultimi trent’anni, le aziende di chip dal maggiore valore di mercato, quasi tutte americane, hanno iniziato ad appaltare gran parte della loro attività di manifattura all’estero, in paesi come Taiwan e la Corea del Sud, dove hanno trovato personale qualificato (i chip richiedono ingegneri molto formati in tutte le fasi della lavorazione) con un costo del lavoro decisamente inferiore. Ha così preso piede, soprattutto nella regione dell’Indo-Pacifico, il modello delle “foundry”: aziende di manifattura avanzatissima, che fabbricano chip per conto di aziende occidentali, le quali possono così concentrarsi sulla curva dell’innovazione, che nei chip si incarna nella celebre “legge di Moore” (ovvero l’osservazione che il numero di transistor contenuti in un chip raddoppia ogni due anni). Sui presupposti di questa divisione del lavoro è nato addirittura un nuovo modello di azienda: le cosiddette “fabless”. Scaricate interamente dai costi fissi, le “fabless” non possiedono stabilimenti di produzione e si occupano soltanto dell’ideazione di nuovi chip sempre più performanti. La più nota di queste aziende è NVIDIA, divenuta negli ultimi anni il perno materiale dell’evoluzione delle AI. LA SVOLTA PROTEZIONISTICA SUI CHIP Fino a qualche anno fa, l’estrema globalizzazione della catena del valore dei chip – proprietà intellettuali USA, progettate con software anglo-israeliani, riversate da macchinari olandesi su silicio giapponese usando componenti chimici cinesi dentro fabbriche taiwanesi – era considerata una grande festa per tutti: la tecnologia evolveva e i profitti crescevano. Non è più così: da qualche anno gli Stati, USA in testa, hanno deciso che il chip, in quanto “tecnologia di tutte le tecnologie”, è un oggetto troppo strategico – e soprattutto troppo determinante per i rapporti di potenza – per essere lasciato in balia del mercato. E così, già nel 2016, Obama chiamava Angela Merkel e vietava la vendita alla Cina di Aixtron, un’azienda tedesca di componenti chimici per microelettronica, dopodiché Trump faceva la guerra a Huwaei (anche sui chip) e, infine, Biden dedicava ai semiconduttori gran parte della sua azione normativa in campo internazionale. Dopo aver firmato, nell’agosto 2022, il CHIPS and Science Act, un piano di investimenti per la ricostruzione della manifattura americana dei semiconduttori, nell’ottobre 2022 Biden ha proclamato ufficialmente una serie di restrizioni senza precedenti all’export di chip avanzati verso la Cina. Il pacchetto di norme non si limitava a proibire la vendita diretta di chip di ultima generazione a Pechino, ma imponeva anche vincoli sulla cessione di macchinari per la loro produzione, sulla condivisione di ricerche e di brevetti e sull’assunzione di personale specializzato da parte di aziende cinesi. L’obiettivo dell’amministrazione Biden non era solo quello di mantenere il vantaggio tecnologico delle aziende americane, ma, se possibile, di ritardare/arretrare lo sviluppo della microelettronica cinese (con ricadute a cascata su tutte le tecnologie, incluse quelle militari). Le ripercussioni sulle catene del valore sono state notevoli. Giganti del settore come NVIDIA si sono visti costretti a rivedere le proprie strategie di mercato, mentre colossi della manifattura come la coreana Samsung e la taiwanese TSMC (la più importante “foundry” del mondo) si sono trovate a navigare un campo minato di regolamentazioni sempre più stringenti. La questione ha avuto anche riflessi politici: l’applicazione delle normative ha richiesto grandi sacrifici economici da parte di aziende e paesi alleati degli USA, con costi diplomatici non trascurabili. LA CORSA CINESE PER UN’INDUSTRIA AUTOCTONA La conseguenza più significativa della decisione di Biden è stata tuttavia quella di aver costretto la Cina a intensificare gli sforzi per accelerare lo sviluppo di un’industria autoctona di chip avanzati. La reazione cinese si è mossa finora su molteplici livelli, dal sostegno diretto dello Stato alla ricerca fino alla riorganizzazione delle catene di approvvigionamento interne. Pechino ha aumentato in modo significativo i finanziamenti al settore, puntando su colossi nazionali come SMIC (Semiconductor Manufacturing International Corporation) e YMTC (Yangtze Memory Technologies), le punte di diamante del suo sistema industriale. Nel solco di quanto avvenuto in altri ambiti, come la mobilità elettrica, il sostegno di Pechino non è solo finanziario ma anche normativo, logistico e strategico: sono stati varati piani per il rafforzamento della supply chain dei semiconduttori, a partire dalle materie prime, e sono stati dispiegati incentivi per attirare talenti stranieri aggirando le restrizioni di Washington. Nel breve periodo, la Cina ha inoltre adottato soluzioni creative per superare i vincoli internazionali. Una di queste è la pratica del cosiddetto “chip laundering”, ovvero l’importazione di chip avanzati attraverso paesi terzi, come Singapore o gli Emirati Arabi Uniti, che sfuggono ai controlli più stringenti degli USA. Inoltre, il governo cinese ha incentivato l’acquisto massiccio di chip prima che le restrizioni entrassero in vigore, accumulando scorte strategiche per le proprie industrie high-tech e per il settore della difesa. La vera partita tuttavia è sul lungo periodo. E su questo fronte Pechino sta spingendo sull’acceleratore dell’innovazione, con l’obiettivo di ridurre la dipendenza da fornitori occidentali per tutte le tecnologie più critiche coinvolte nella produzione di chip. LA SCOMMESSA SUI MACCHINARI LITOGRAFICI E LA SUPREMAZIA EUROPEA Un esempio è lo sviluppo dei macchinari litografici a ultravioletto estremo (EUV), ovvero le macchine con cui, tramite un processo quasi fantascientifico, si “stampano” transistor molto più piccoli di un virus. Per la stampa dei chip più avanzati, il settore è oggi un monopolio di fatto di una singola azienda, l’olandese ASML, a cui gli USA hanno imposto il veto all’export cinese, attraverso un’azione diplomatica che, nel 2023, ha visto direttamente coinvolto il governo olandese (all’epoca guidato dall’attuale Segretario Generale della NATO Mark Rutte). Lo sviluppo autonomo di macchine EUV di ultima generazione è ritenuto uno degli ostacoli più insormontabili dell’intera catena del valore dei microchip. L’implementazione della tecnologia ha del resto richiesto decenni di lavoro da parte di ASML, miliardi di investimenti e una stretta integrazione con fornitori che rappresentano l’eccellenza della meccanica e dell’ottica europea. Se il capitale da investire alla Cina non manca (sono stati destinati 37 miliardi all’impresa), il tempo e la ricomposizione di una filiera di fornitura autonoma rappresentano due variabili importanti che, secondo autorevoli pareri, dovevano garantire all’Occidente un vantaggio di oltre dieci anni. Ebbene, di recente questo margine potrebbe essersi assottigliato molto, almeno stando alle voci secondo cui Huawei starebbe per testare un macchinario EUV avanzato, di produzione interamente cinese. Del macchinario si sa che utilizza un sistema di produzione del plasma (per l’incisione dei transistor) di tipo diverso da quello di ASML. Un sistema la cui efficacia, scalabilità e compatibilità con altre parti del processo di lavorazione dei chip, resta da verificare. Tuttavia, se il test di Huawei si rivelasse un successo, e aprisse la strada a una produzione autoctona di macchinari EUV cinesi, ciò non solo significherebbe la perdita, per gli USA, di un’importante leva per il contenimento dell’ascesa tecnologica di Pechino ma anche un notevole danno economico, e strategico, per l’Europa, che vedrebbe ridimensionato il ruolo di ASML, uno dei suoi asset tecnologici più avanzati. UN PARADIGMA TECNOLOGICO AUTONOMO Per le aziende occidentali, sarebbe inoltre molto problematico se la Cina riuscisse, come sta provando a fare, a sviluppare macchinari basati su un paradigma tecnologico del tutto autonomo. In caso di successo, Pechino aprirebbe un fronte di sviluppo della litografia del tutto originale, con i competitor occidentali che si troverebbero di colpo a dovere inseguire e imparare (quasi) tutto da capo e soprattutto a doversi adattare a nuovi standard imposti da Pechino. Un altro fronte su cui si dispiega la strategia di Xi Jinping sui semiconduttori è il cosiddetto mercato dei “legacy chip”, ovvero i chip ai “nodi maturi”: semiconduttori non di ultimissima generazione ma essenziali per il funzionamento dell’elettronica e dell’informatica di largo consumo.  Se i chip di NVIDIA (e poche altre aziende) sono il fulcro della competizione strategica intorno allo sviluppo della AI, i “legacy chip” rappresentano l’ossatura dell’infrastruttura tecnologica globale. IL PESO DEL SEGMENTO LEGACY OVVERO I VECCHI CHIP ANCORA CONTANO Microcontrollori per elettrodomestici, circuiti integrati per veicoli, apparecchiature mediche e milioni di altri oggetti dipendono da questi semiconduttori, la cui produzione è forse meno sofisticata ma non meno strategica. Già da prima delle restrizioni di Biden, Pechino aveva messo nel mirino il segmento “legacy”, che rappresenta una fonte essenziale di entrate per storiche aziende occidentali come Intel e un elemento di cruciale sovranità tecnologica per tutti. Aziende come SMIC e Hua Hong Semiconductor stanno espandendo la loro capacità produttiva in questa fascia di mercato, con il supporto di massicci investimenti statali e incentivi fiscali. Le implicazioni di questa strategia non si limitano al semplice riequilibrio delle catene di approvvigionamento. La leadership cinese nei “legacy chip” potrebbe tradursi in un nuovo strumento di influenza tecnologica globale, fornendo a Pechino una leva nei confronti di paesi e industrie che ancora dipendono fortemente dalle forniture esterne per il loro fabbisogno di chip. La crisi globale dei semiconduttori, causata dalle interruzioni delle filiere della microelettronica durante la pandemia, ha dimostrato quanto sia pericoloso sottovalutare l’importanza dei chip tradizionali. Se la Cina riuscisse a consolidare il proprio primato in questo settore, potrebbe utilizzare la sua capacità produttiva in modo non molto diverso da ciò che l’OPEC ha fatto per decenni con il petrolio. La strategia cinese sul mercato “legacy” rischia di essere particolarmente onerosa per l’Europa. A causa dello stretto legame con l’industria automobilistica, il settore dei “legacy chip” è uno dei pochi in cui il Vecchio Continente detiene ancora quote di mercato significative. Un drastico aumento della capacità industriale cinese non avrebbe quindi solo l’effetto di rivedere al ribasso questa percentuale, ma introdurrebbe un ulteriore elemento di dipendenza dell’automotive europeo dalla Cina, in una fase già molto delicata per il comparto. C’è poi la variabile DeepSeek. Sebbene l’exploit dell’intelligenza generativa cinese non vada sopravvalutato – poiché non del tutto indipendente da tecnologie e processi occidentali – è evidente come l’ottimizzazione algoritmica di DeepSeek rappresenti una variabile potenzialmente “impazzita” per il mercato americano dei chip di fascia alta, come ha del resto testimoniato l’immediata risposta, in negativo, del titolo di NVIDIA alla diffusione della nuova AI generativa cinese. Allo stesso tempo, paradossalmente, proprio DeepSeek ha rivelato alcune delle fragilità infrastrutturali della dotazione hardware delle aziende AI cinesi, non solo a livello di chip ma anche di altri componenti cruciali come, per esempio, i sistemi di interconnessione dei server. Queste difficoltà sono altrettante testimonianze degli effetti – perlomeno nel breve termine – che il veto all’export americano ha avuto sulla microelettronica cinese. RISCHI, COSTI, LIMITI STRUTTURALI Nel lungo periodo, tuttavia, il rischio è che il regime dei veti acceleri, invece di rallentare, lo sviluppo dell’industria dei semiconduttori in Cina. È un rischio rispetto al quale il CEO di NVIDIA, Jensen Huang, mette in guardia Washington da tempo. La storia dei protezionismi è del resto piena di casi in cui l’isolamento forzato ha finito per stimolare, anziché soffocare, l’innovazione interna. La logica del “deny and deter” – negare l’accesso alle tecnologie critiche per dissuadere Pechino dal competere su un piano paritario – rischia di trasformarsi in un potente incentivo all’autosufficienza. Ciò che distingue il protezionismo sui chip da esempi del passato è la combinazione di fattori che rendono l’industria dei semiconduttori particolarmente intensiva dal punto di vista del capitale, finanziario, politico e umano coinvolto. Da un lato, il costo dell’innovazione è sempre più alto: la realizzazione di una nuova fonderia di semiconduttori avanzati può superare i 20 miliardi di dollari, una barriera all’ingresso che rende difficoltosa la scalata per qualunque nuovo attore. Dall’altro, la domanda di chip non è mai stata così diffusa e pervasiva. La transizione energetica, le infrastrutture cloud, le telecomunicazioni 5G e 6G, la biotecnologia, le AI: ogni settore critico dell’economia globale dipende oggi da semiconduttori avanzati. Non si tratta di una mera questione di hardware, ma di un’infrastruttura di potere tecnologico che ridefinisce il mondo. Ed è qui che il rischio dell’effetto boomerang si fa concreto per gli Stati Uniti. Storicamente, l’egemonia tecnologica americana si è costruita non solo sul primato dell’innovazione, ma anche sulla capacità di dettare le regole del gioco attraverso il controllo dei brevetti, degli standard e delle filiere. Se la Cina aprisse la strada a un ecosistema alternativo, la curva di innovazione dei chip potrebbe sfuggire completamente, e definitivamente, dal perimetro del controllo americano. Tutto ciò avviene oltretutto in un contesto in cui l’innovazione nei semiconduttori sta raggiungendo limiti fisici sempre più estremi. La legge di Moore, che per decenni ha guidato l’industria, è prossima alla sua “fine”. E ciò si traduce, da anni, in costi di produzione in costante aumento e sfide ingegneristiche sempre più complesse. La partita, dunque, non si gioca solo sulla capacità di progettare chip sempre più avanzati, ma anche sulla capacità di immaginare sistemi computazionali alternativi ai semiconduttori. E, come racconta un recente paper di Nature, oggi la Cina produce il doppio della ricerca degli USA nel campo dei “future computing hardware” e dei “next generation chips”. L'articolo La Cina progredisce sui chip e sfida le restrizioni proviene da Guerre di Rete.
March 26, 2025
Guerre di Rete