Il futuro dei computer è fotonico
Immagine in evidenza da Mohammad Honarmand su Unsplash
Per decenni, lo sviluppo delle tecnologie informatiche è stato scandito dalla
legge di Moore, che ha previsto – e per certi versi guidato – il raddoppio della
densità dei transistor ogni due anni, alimentando la crescita esponenziale della
potenza di calcolo e la diminuzione dei costi di produzione dei chip. Tuttavia,
il ritmo di miniaturizzazione dei componenti elettronici mostra oggi segni di
rallentamento, con i limiti fisici e termici dei semiconduttori in silicio che
divengono ogni anno più stringenti.
Uno dei principali ostacoli è rappresentato dagli effetti quantistici che
emergono quando le distanze tra i transistor raggiungono dimensioni di pochi
nanometri. A queste scale, gli elettroni possono attraversare barriere isolanti
che, secondo la fisica classica, dovrebbero essere invalicabili, causando
dispersioni di corrente e malfunzionamenti dei circuiti. Inoltre, il controllo
preciso dei singoli elettroni diventa sempre più difficile, compromettendo
l’affidabilità dei dispositivi.
È in questo contesto che, negli ultimi anni, ha (ri)preso vita la ricerca
nell’ambito della computazione fotonica (o ottica): un paradigma di calcolo
alternativo che cerca di ripensare i processi fisici alla base del funzionamento
dei computer. Invece di usare elettroni che si muovono all’interno di circuiti
di silicio – come avviene nei computer tradizionali – la computazione fotonica
utilizza fotoni, ovvero particelle (quanti) di luce.
A differenza degli elettroni, i fotoni non hanno massa, non generano calore
quando viaggiano nei circuiti e possono muoversi a velocità vicine a quelle
della luce. Questo significa che, in teoria, un computer fotonico potrebbe
essere molto più veloce e molto più efficiente, in termini di consumi, di un
computer tradizionale. In un mondo che consuma sempre più energia a scopi di
calcolo, non si tratta di un dettaglio banale.
Ovviamente, tra il dire e il fare c’è di mezzo il mare. Per prima cosa bisogna
riuscire a progettare e a produrre circuiti che riescano a indirizzare i fotoni
in modo preciso, quasi fossero sentieri di luce. Inoltre, bisogna trovare il
modo di fare interagire i fotoni tra loro poiché, per loro natura, essi non
interagiscono come fanno invece gli elettroni nei transistor. Essendo privi di
carica elettrica, i fotoni tendono a passare gli uni accanto agli altri senza
“notarsi”. Questo rende molto difficile implementare la logica booleana alla
base dell’informatica, la quale si fonda su una forma di controllo o modifica
del comportamento di un segnale in base alla presenza di un altro (1 o 0; 0 o
1).
Computazione fotonica e computazione quantistica
Il tema della traducibilità e della coerenza del segnale è uno dei problemi che
la computazione fotonica condivide, seppure con grosse differenze fisiche di
base, con l’altra branca della computazione sperimentale: la quantistica.
Tuttavia va specificato come i due campi siano essenzialmente distinti: mentre
la computazione quantistica mira a rivoluzionare i fondamenti logici del calcolo
attraverso effetti quantistici come l’entaglement, l’interferenza o la
sovrapposizione, la fotonica punta “semplicemente” ad aumentare la rapidità e
l’efficienza del calcolo attuale. Vi sono, inoltre, sperimentazioni in cui la
computazione quantistica viene implementata attraverso fotoni entangled, in una
forma ibrida di quantum photonics
Per tutte queste ragioni, la computazione fotonica è più di una semplice
evoluzione tecnica e rappresenta, per il momento, ancora una frontiera. Non è
detto che sarà conquistata o che sarà quella definitiva, né che sostituirà in
toto i modelli attuali. Ma è una delle vie più promettenti per dare risposta al
bisogno – sempre più urgente – di ripensare l’infrastruttura materiale su cui si
regge la civiltà digitale.
FRONTIERA O INTERREGNO?
L’idea di utilizzare la luce per elaborare informazioni non è nuova: se ne
discute sin dagli anni Settanta. Ma è solo negli ultimi anni, sulla scorta della
pressione esercitata dalla crisi della microelettronica tradizionale, che il
campo ha cominciato a strutturarsi come un vero e proprio settore tecnologico,
attirando finanziamenti e interesse da parte dei grandi operatori del digitale.
Una delle aziende più promettenti è Lightmatter. Fondata nel 2017 da tre
studenti dell’MIT, nel 2024 ha raccolto 400 milioni di dollari in un quarto
round di finanziamenti, raggiungendo una valutazione di 4,4 miliardi di dollari.
I prototipi più recenti di Lightmatter combinano moduli ottici e moduli
elettronici, creando sistemi di computazione ibridi in cui le interconnessioni
tra i diversi dispositivi hardware sono affidate a fotoni anziché elettroni,
risolvendo così alcuni problemi specifici del calcolo parallelo con benefici
anche nell’addestramento dei modelli di intelligenza artificiale.
Un’altra startup degna di nota è Ayar Labs, con sede nella Silicon Valley. Nata
come spin-off di un progetto congiunto tra il MIT e l’Università di Berkeley,
Ayar Labs si è specializzata nell’integrazione di connessioni ottiche
direttamente all’interno dei chip, con l’obiettivo di eliminare le limitazioni
imposte dai collegamenti elettrici tradizionali.
La loro tecnologia di interconnessione ottica permette una trasmissione dati
ultraveloce tra processori, acceleratori e moduli di memoria, riducendo
drasticamente la latenza e il consumo energetico delle “very large scale
integrations” utilizzate per il calcolo delle AI. Negli ultimi due anni, Ayar
Labs ha attirato investimenti e firmato partnership strategiche con alcuni dei
nomi più importanti dell’industria dei semiconduttori: da Intel a NVIDIA, da AMD
a GlobalFoundries.
Ci sono poi aziende che stanno puntando direttamente al bersaglio più grosso:
non una simbiosi tra hardware fotonici ed elettrici, ma veri e propri sistemi di
computazione ottica al 100%. Mentre la fotonica del silicio è oggi impiegata
principalmente per realizzare interconnessioni ottiche, cioè per trasportare
informazioni tra moduli elettronici, il calcolo ottico punta invece a processare
direttamente quei dati attraverso la luce.
Per ora, il campo resta limitato a poche operazioni matematiche molto
specifiche, le quali però rappresentano oltre il 90% dei compiti di inferenza
svolti da una rete neurale. In altre parole: se si riuscisse a sviluppare il
calcolo ottico, si otterrebbe una soluzione hardware altamente ottimizzata per i
grandi modelli linguistici e generativi, come quelli dietro a ChatGPT.
Un tentativo in questa direzione lo ha compiuto Lightelligence, un’altra startup
USA nata da ambienti accademici, che nel 2021 ha presentato PACE (Photonic
Arithmetic Computing Engine), un prototipo in grado di fornire – secondo le
stime della stessa startup – performance fino a 100 volte superiori a quelle
delle GPU più avanzate di allora. Se simili prototipi si tradurranno in realtà
resta da vedere. Ma che un numero crescente di aziende e di fondi stia
scommettendo sulla luce come nuovo vettore del calcolo è ormai un dato di fatto.
Tuttavia, come spesso accade con le tecnologie emergenti, l’entusiasmo della
finanza si scontra con il realismo dell’industria. La sfida, infatti, non è
tanto dimostrare che la computazione fotonica possa “funzionare”, quanto
renderla scalabile. Integrare su un singolo chip milioni di componenti ottici,
garantendo al tempo stesso precisione, compatibilità con i sistemi esistenti e
bassi costi di produzione, è un’impresa che richiede una supply chain
tecnologica complessa e in gran parte da costruire. Di conseguenza, la
computazione fotonica esiste oggi in una sorta di interregno tecnologico: troppo
promettente per essere ignorata, troppo immatura per essere adottata, al di là
di pochi specifici casi.
CYBERSICUREZZA E GEOPOLITICA
Nel campo della microelettronica, decenni di ricerca hanno portato allo sviluppo
di protocolli di protezione contro le forme più note di attacco informatico. Con
l’avvento della computazione fotonica, questo patrimonio non può essere
semplicemente trasferito. I circuiti fotonici aprono quindi scenari e
vulnerabilità inedite.
Per esempio, l’interconnessione tra chip di tipo elettrico-ottico – come quella
proposta da Lightmatter – moltiplica le occasioni d’attacco potenziali: ogni
collegamento ibrido diventa, in teoria, una nuova porta d’accesso per attacchi
altrettanto ibridi. Il fatto che i sistemi fotonici possano trasmettere dati a
velocità e volumi impensabili pone inoltre ulteriori problemi, rendendo
necessario ripensare da zero l’intera architettura della sicurezza informatica,
sviluppando protocolli capaci di monitorare, interpretare e, se necessario,
bloccare flussi di informazioni che si muovono alla velocità della luce. In
questo nuovo contesto, anche i tradizionali strumenti di rilevamento – come i
firewall o i sistemi anti-intrusione – rischiano di risultare inadeguati, non
solo per limiti di velocità, ma anche per l’assenza di standard consolidati a
cui riferirsi.
La stessa complessità dei componenti ottici rischia inoltre di impattare
sull’affidabilità dei processi di testing a cui normalmente è sottoposto l’
hardware usato per la computazione. Ciò aumenta il rischio che eventuali
anomalie non vengano rilevate, finendo poi per aprire falle e vulnerabilità nei
sistemi in cui i componenti ottici vengono integrati.
Per tutte queste ragioni, mentre le giovani aziende del settore proseguono nella
ricerca e nell’implementazione di nuovi strumenti di calcolo basati sulla
fotonica, mancano ancora le cornici adeguate a inquadrare con precisione i
limiti di questa nuova tecnologia. Non è ovviamente un tema da poco, specie se
consideriamo che chi riuscirà a influenzare la regolamentazione della
computazione fotonica influenzerà anche una porzione significativa del futuro
del calcolo. Il che ci porta dritti al cuore delle implicazioni geopolitiche
della questione.
Come già è accaduto per l’intelligenza artificiale e i semiconduttori avanzati,
la competizione fotonica rischia di trasformarsi in un nuovo terreno di scontro
sistemico tra Cina e Stati Uniti. La computazione fotonica potrebbe infatti
offrire alla Cina una via di fuga tecnologica dalle restrizioni recentemente
imposte dagli USA per rallentare lo sviluppo tecnologico di Pechino. Per
utilizzare una formula in voga nel discorso politico-economico cinese, la
fotonica potrebbe consentire di “cambiare corsia ed effettuare il sorpasso”.
Dal punto di vista cinese, due qualità della computazione fotonica appaiono
particolarmente interessanti. La prima è che la produzione di hardware ottici
non richiede l’utilizzo di macchinari di produzione litografici avanzati, a cui
la Cina non ha accesso a causa delle restrizioni USA. La seconda è che,
aumentando la velocità e l’efficienza delle interconnessioni, la computazione
fotonica potrebbe in teoria permettere di sviluppare integrazioni hardware per
AI avanzate senza il bisogno di utilizzare chip di ultima generazione,
ugualmente sotto embargo americano.
Del tema si è interessato personalmente lo stesso Xi Jinping che, nel 2023, ha
presieduto un incontro del Politburo sul tema. Vi ha partecipato anche il
rettore dell’Università di Pechino, Gong Qihuang, un fisico con notevole
esperienza nel campo delle applicazioni all’intelligenza artificiale della
computazione fotonica (che è stata inoltre menzionata esplicitamente nel 14esimo
piano quinquennale per lo sviluppo della Cina, relativo al periodo 2021-2025).
Constatato tutto questo, non sorprende che il governo americano abbia iniziato a
trattare la ricerca fotonica non solo come un tema di innovazione, ma come una
questione di sicurezza nazionale. Non è un caso che importanti entità della
difesa americana, così come l’agenzia DARPA, abbiano intensificato negli ultimi
anni gli investimenti in startup e centri di ricerca attivi sul fronte della
fotonica.
Il focus non è solo sull’efficienza o sulla scalabilità, ma anche sulla
resilienza: costruire sistemi ottici che siano difficili da sabotare, da
intercettare, da replicare. La fotonica viene così inscritta nella più ampia
strategia di technological containment con cui gli Stati Uniti cercano di
difendere la propria centralità nell’ordine digitale globale.
L'articolo Il futuro dei computer è fotonico proviene da Guerre di Rete.