Se hai bisogno urgente del nostro intervento puoi contattarci al numero 370 148 9430
RENOR & Partners è una società di consulenza d'impresa con alti standard qualitativi e con i prezzi più bassi del mercato.
RENOR & Partners S.r.l.
Via Cicerone, 15 - Ariccia (RM)
info@renor.it
Di tanto in tanto mi interrogo su quale scenario ci attenda nei prossimi dieci anni. La mia generazione, quella degli anni ’80, ha avuto il privilegio unico di assistere a una transizione epocale: dall’universo analogico siamo stati catapultati in un ecosistema digitale in rapida espansione, con un tasso d’innovazione che ha seguito una traiettoria quasi esponenziale. Ogni avanzamento ha innescato nuovi sviluppi, generando a sua volta ulteriori scoperte in una reazione a catena paragonabile a un’esplosione tecnologica controllata.
Sebbene l’intelligenza artificiale sia diventata di pubblico dominio soltanto di recente, i fondamenti teorici risalgono a decenni fa. Allora, l’ostacolo principale era la capacità di calcolo: addestrare reti neurali richiedeva potenze computazionali che, all’epoca della loro concezione, risultavano semplicemente inimmaginabili.
Facendo un passo indietro e riprendendo la metafora della reazione a catena, va osservato che l’evoluzione delle CPU tradizionali ha ormai rallentato. Lo stallo è legato principalmente ai limiti fisici del silicio: densità di integrazione, dissipazione termica e soglie di leakage pongono barriere che non consentono di proseguire indefinitamente con l’attuale paradigma di miniaturizzazione; in realtà c’è di più.
Quando parliamo del rallentamento nell’evoluzione delle CPU, spesso ci si limita ad attribuire la colpa a «limiti fisici del silicio». In realtà dietro quella formula sbrigativa si nasconde un complesso intreccio di vincoli che arrivano da tre domini distinti—fisica, elettronica e informatica—e che, sovrapponendosi, definiscono un vero e proprio soffitto di cristallo tecnologico. Vale la pena esaminarli in maniera narrativa, intrecciando le tre prospettive, per capire perché oggi non possiamo più contare sul semplice raddoppio periodico di frequenza o numero di transistor per ottenere prestazioni superiori.
Per decenni abbiamo beneficiato del cosiddetto Dennard scaling: riduci la lunghezza di canale, abbassi la tensione d’alimentazione, mantieni costante la densità di potenza e ottieni chip più rapidi ed efficienti. La favola, però, finisce intorno al nodo dei 90 nm, quando la tensione non può più calare in proporzione e il calore generato per unità di area inizia a crescere. In parallelo, l’assottigliamento dell’ossido di gate scivola sotto il nanometro: a quel punto gli elettroni non «saltano» più oltre la barriera (lo strato che si crea accoppiano i due semiconduttori drogati), ma tunnelizzano direttamente attraverso di essa. Nascono così correnti di leakage che bruciano energia anche quando il transistor è logicamente spento.
Il vincolo termodinamico più citato è il limite di Landauer: cancellare un bit di informazione a temperatura ambiente richiede almeno 𝑘BT ln 2 di energia, circa 3 × 10⁻²¹ joule. Oggi siamo ancora qualche ordine di grandezza sopra, ma stiamo speditamente avvicinandoci al fondo del barile; ogni ulteriore riduzione diventa dolorosamente costosa in termini di materiale, layout e controllo di processo.
Ultimo protagonista poco romantico ma determinante è l’interconnessione. A mano a mano che i fili di rame si restringono, la loro resistività cresce per effetto di scattering superficiale e di grano. Il ritardo RC dei metallizzatori non scala con il resto del transistor, anzi peggiora, tanto che la frequenza di clock è bloccata da anni sotto la soglia dei 5 GHz: superarla significherebbe dissipare più calore di quanto il package possa estrarre.
Dal canto loro, gli ingegneri di processo hanno reagito con due funambolismi principali. Il primo è l’evoluzione dell’architettura del dispositivo: planar CMOS, poi FinFET, oggi Gate-All-Around FET (nanosheet) che stringe il canale da ogni lato per domare il controllo elettrostatico. Funziona, ma introduce effetti di confinamento quantistico che degradano la mobilità dei portatori, erodando parte del guadagno atteso.
Il secondo è lo spostamento della distribuzione di potenza «dietro» il wafer—backside power delivery—per ridurre le cadute di tensione. È una chirurgia micrometrica che si accompagna a nuove sfide: via-through-silicon che aggiungono capacità parassite e, soprattutto, gradienti termici verticali che possono superare i 40 K per millimetro. Ecco perché, in parallelo, prende piede l’integrazione 3D-IC a chiplet: se non possiamo più spalmare transistor in superficie, impiliamoli. Ma un chip tridimensionale comporta un puzzle di raffreddamento, coerenza di cache e distribuzione del clock che tiene svegli i progettisti notti intere.
Gli informatici non restano a guardare. Già da tempo hanno esaurito il guadagno dall’esecuzione fuori ordine e dalla parallelizzazione a livello d’istruzione (ILP). Aumentare la larghezza di una pipeline oltre le sei-otto istruzioni simultanee dà rendimenti marginali, perché le dipendenze dati e i salti condizionati tagliano il flusso. La risposta è spostare il progresso verso la parallelizzazione massiva e l’eterogeneità: core piccoli e grandi nello stesso die, GPU integrate, acceleratori tensoriali dedicati.
Qui, tuttavia, emerge un’altra barriera: la cosiddetta memory wall. L’ALU macina operazioni in pochi picosecondi, ma una lettura dagli strati DRAM impiega 50 nanosecondi—mille volte tanto—andando a divorare qualsiasi vantaggio ottenuto sul fronte computazionale. Di conseguenza si investe più area in cache che in unità di calcolo, a costo di enormi complessità di coerenza e di algoritmi che devono essere «data-locality aware» fin dalla fase di progettazione.
Ecco il paradosso: possiamo aggiungere migliaia di core, ma il silicio è ormai dark—solo una frazione del chip può essere acceso simultaneamente senza surriscaldarlo. Programmare per questo universo frammentato richiede modelli come OpenMP, SYCL o la programmazione a task asynchronus, e soprattutto una nuova mentalità: spostare meno dati possibile e far lavorare gli acceleratori più a lungo possibile sui loro buffer locali.
Alcuni puntano su materiali bidimensionali—grafene, MoS₂—che promettono ordini di grandezza in mobilità elettronica, ma sono ancora lontani da una produzione su larga scala, complici band-gap ballerini e processi di deposizione non maturi. Altri guardano alla spin-tronica per memorie non volatili velocissime. Nel breve termine, la traiettoria realistica parla di co-design hardware-software, chiplet 3D e supply-voltage ancora più bassi, magari assistiti da logiche adiabatiche o circuiti reversibili per rosicchiare qualche ordine di grandezza in efficienza.
La fine del «silicio in saldo» non è un singolo muro, ma una serie di ostacoli che si frappongono a cascata. I limiti termodinamici fissano la soglia; l’interconnessione e la variabilità di processo alzano il costo per ogni nanometro guadagnato; la memoria e l’efficienza energetica diventano problemi di software tanto quanto di hardware. Capire questa complessità integrata non solo aiuta a spiegare perché non vedremo CPU da 10 GHz nei laptop di domani, ma suggerisce anche dove concentrare la ricerca: nella simbiosi stretta tra fisici, ingegneri elettronici e informatici, alla caccia di ogni possibile libertà residua in un mondo che si avvicina rapidamente ai suoi limiti fondamentali.
Quale sarà la soluzione ai problemi, secondo il mio punto di vista, per lo meno in fase iniziale nel mondo enterprise?
I computer quantistici rappresentano l’unica piattaforma in vista capace di superare, su specifiche classi di problemi, i limiti termodinamici e architetturali del silicio. Ma non è un salto immediato: occorre un decennio di fisica dei materiali, ingegneria criogenica e formalizzazione algoritmica per arrivare alla “scala logica” che serva realmente a sostituire o integrare l’HPC classico nelle applicazioni di punta — dalla progettazione di farmaci anticancro alla crittografia post-quantum. Prepararsi ora, con skill trasversali e progetti ibridi, significa farsi trovare pronti quando il qubit diventerà, finalmente, il nuovo transistor.
Immagina di avere una moneta in equilibrio sul bordo: non è né testa né croce, eppure racchiude entrambe le possibilità finché non cade. Il qubit nasce da un concetto simile, ma applicato alla meccanica quantistica: è l’unità elementare di informazione che può trovarsi in una combinazione simultanea degli stati “0” e “1”. Questa condizione di ambiguità controllata si chiama superposizione e apre scenari di calcolo che i bit tradizionali, fermi a un solo valore per volta, non possono neppure sfiorare.
Con un bit classico programmiamo istruzioni sequenziali: prima 0, poi 1. Nel qubit, i due valori coesistono come “ampiezze” che descrivono con quale probabilità il sistema verrà osservato in un risultato o nell’altro. Durante l’elaborazione, il qubit sfrutta entrambe le strade contemporaneamente, un parallelismo che non dipende dal numero di core o dalla frequenza di clock del processore.
Mettendo in relazione due o più qubit si crea l’entanglement, un legame profondo per cui l’esito della misurazione di uno influenza all’istante l’altro, anche se si trovano a chilometri di distanza. Da questa proprietà scaturiscono accelerazioni computazionali mozzafiato, perché un registro di n qubit può indirizzare, in un sol colpo, un insieme di possibilità che un computer classico dovrebbe esplorare uno per volta.
Le operazioni logiche, equivalenti alle porte NOT o AND dei chip tradizionali, diventano rotazioni di stato: impulsi mirati — microonde, laser o campi magnetici a seconda della tecnologia — manipolano il qubit facendolo oscillare fra le sue combinazioni interne. Progettare un algoritmo quantistico significa orchestrare sequenze di queste rotazioni per concentrare, tramite interferenza, la probabilità di ottenere in lettura la risposta corretta.
La superposizione è fragile: vibrazioni, campi elettromagnetici, anche un singolo fotone vagante possono far collassare il qubit in un valore classico, fenomeno noto come decoerenza. Per evitare che l’informazione evapori:
Il qubit rappresenta la scommessa più ambiziosa dell’era post-silicio: una piccola unità di informazione che può essere simultaneamente “qui” e “la” e legarsi ad altre unità in modi che infrangono l’intuizione classica. Sfruttarlo significa addentrarsi in un territorio dove fisica, ingegneria elettronica e informatica convergono in un unico paesaggio tecnologico. Ed è questa convergenza che potrebbe far nascere la prossima vera rivoluzione del calcolo.
Abbiamo visto che super-posizione ed entanglement rendono il qubit potentissimo… ma anche terribilmente fragile. Rumore, calore e cablaggi complessi trasformano ogni progresso in una partita a scacchi contro la fisica. Con Majorana 1 Microsoft prova a spostare la scacchiera: introduce un qubit topologico basato su Majorana Zero Modes (MZM) che, per costruzione, è meno vulnerabile ai fattori che affliggono le piattaforme attuali.
Nelle architetture convenzionali l’informazione vive “in loco”: basta un disturbo locale perché il qubit collassi. Nel nanofilo InAs-Al di Majorana 1 lo stato logico è distribuito tra due quasiparticelle Majorana poste alle estremità del filo. Qualsiasi rumore che colpisca un solo estremo non può alterare la parità complessiva, perciò la perdita di coerenza richiede un evento concomitante su entrambi gli estremi — probabilità enormemente più bassa. Il risultato promesso è una coerenza che si misura in decine di millisecondi, contro le poche decine di microsecondi dei transmon superconduttivi.
Le operazioni logiche non dipendono da impulsi analogici ultra-precisi, ma da sequenze di “intrecci” (braiding) o misure di parità tra quattro Majorana. La fisica topologica smorza in automatico piccole imprecisioni di ampiezza e fase, puntando a tassi d’errore nell’ordine del decimillesimo. In pratica, la correzione d’errore ha meno lavoro da fare e si riduce il fabbisogno di qubit ridondanti.
Nei codici di superficie classici servono centinaia di qubit fisici per ottenerne uno logico affidabile. La protezione “nativa” di Majorana 1 riduce l’overhead a circa uno su cento: significa che un processore da un milione di qubit fisici può offrire migliaia di qubit utili, non poche decine.
Le operazioni di lettura e scrittura avvengono a frequenze inferiori rispetto alle microonde dei transmon; di conseguenza, il numero di linee RF che entrano nel frigorifero cala drasticamente. Meno cavi equivalgono a meno carico termico e a un’architettura più scalabile. Microsoft parla di tile “a H” che consentono di impacchettare migliaia di qubit topologici su un unico die, poi impilarli in 3D senza un groviglio di connettori.
Il “topoconductor” di Majorana 1 è fabbricato con tecniche simili a quelle dei nodi avanzati a 2 nm: deposizione epitassiale del nanofilo, patterning EUV per i contatti in alluminio e interposer 3D per il collegamento alla logica di controllo a 4 K. Ciò significa che, se il prototipo regge alle prove di laboratorio, l’infrastruttura produttiva esiste già per moltiplicarne la scala.
Se la scommessa riuscirà, Majorana 1 offrirà un qubit meno rumoroso, più scalabile e già parzialmente “fault-tolerant” prima ancora di applicare codici di correzione tradizionali. In altre parole, farà per il calcolo quantistico ciò che il MOSFET fece per l’elettronica classica: trasformare un dispositivo da laboratorio in un mattone industriale ripetibile.
Non è ancora la bacchetta magica che risolve tutti i problemi, ma rappresenta un cambio di paradigma: invece di combattere il rumore con strati sempre più complessi di correzione, Microsoft lo aggira progettando il qubit in modo che il rumore, semplicemente, non abbia dove attaccarsi. Se il modello terrà, il sentiero verso i milioni di qubit logici necessari per rivoluzionare chimica, crittografia e ottimizzazione globale potrebbe accorciarsi di molti anni.
L’AI dovrà attendere. I laboratori stanno correndo per rendere stabile l’hardware quantistico, ma l’altra metà della partita si gioca sul paradigma di programmazione. Un computer a qubit, anche quando sarà totalmente affidabile, non parlerà l’assembly x86, non supporterà un sistema operativo tradizionale, non eseguirà cicli e condizioni alla vecchia maniera.
Nel silicio siamo abituati al modello “fetch-decode-execute”: la CPU pesca un’istruzione, la esegue, poi legge o scrive in memoria.
In un processore quantistico il programma è monolitico: una sequenza di gate fissata prima dell’esecuzione; il qubit non può essere continuamente letto-scritto senza distruggerne lo stato. I loop sono simulati duplicando porzioni di circuito, non con salti dinamici. La memoria erasable non esiste: ogni operazione deve essere reversibile o terminare con una misura che collassa i qubit interessati, perdendo la sovrapposizione.
Avremo stack di sviluppo completamente nuovi, probabilmente Python, C#, Java verranno sostituiti da Q#.
Quando avremo qubit stabili, comunque dovremo impacchettarli in codici di superficie: ogni operazione logica diventerà un piccolo balletto di centinaia di operazioni fisiche. Il software di conseguenza dovrà schedulare sequenze lunghe milioni di gate senza accumulare ritardo, gestire rapidi cicli di misura e ricorrezione che dipendono da processori classici ultra-vicini ai criostati, inserire qubit ancilla che non compaiono nemmeno nel codice high-level.
Questo overhead fa si che le routine di decodifica errori occupino gran parte del tempo di calcolo dei controller e riducano la finestra disponibile per il lavoro utile dell’applicazione.
Al momento le reti neurali hanno due numeri chiave: milioni di parametri e miliardi di moltiplicazioni al secondo. Per trasformarle in circuiti quantistici servono:
Oggi siamo a pochi qubit logici e poche centinaia di livelli di profondità tollerabili. Gli algoritmi di quantum machine learning che mostrano vantaggi kernel quantistici, campionamento di stati di Boltzmann, accelerazioni su problemi combinatori, sono co-processori: accelerano uno step di un workflow che resta prevalenetemente classico, girando su GPU (principalmente) e CPU.
Portare l’intelligenza artificiale su hardware quantistico è una maratona, non uno sprint. Il qubit va programmato con un linguaggio nuovo, con infrastrutture di controllo che vivono a temperature criogeniche e con una “regia” software che ingloba correzione d’errore e mapping topologico. Finché non avremo migliaia di qubit logici e compilatori in grado di nascondere questo intricato ecosistema, l’IA resterà saldamente ancorata a GPU e TPU. Nel frattempo, però, sperimentare approcci ibridi — usare i qubit come acceleratori per compiti mirati — è il modo migliore per prepararsi al giorno in cui il calcolo quantistico passerà da promessa a piattaforma general-purpose.
Ci si arriverà sicuramente, è solo questione di tempo, probabilmente la cosa richiederà 10 anni, ma già adesso l’intelligenza artificiale sta dando un enorme contributo.
Ad esempio notizia fresca di qualche giorno: un team svedese ha scoperto un modo, grazie all’aiuto dell’intelligenza artificiale, di effettuare analisi cliniche tramite urina per trovare tumori alla prostata negli uomini negli stadi primordiali.
L’esempio della diagnosi precoce del tumore alla prostata sviluppata a Stoccolma è un antipasto di ciò che accadrà quando l’AI potrà contare su hardware quantistico. In quel progetto, reti neurali hanno setacciato migliaia di profili di trascrittoma tumorale e, incrociandoli con campioni di urina, hanno isolato un pannello di biomarcatori che ottiene un’accuratezza del 92 %—ben oltre il test PSA corrente. Il protocollo entrerà in trial clinico su 250 000 pazienti nei prossimi otto anni L’AI viene utilizzata nella lettura di TAC, lastre ed il suo occhio è infallibile.
Ma cosa succederà quando avremo a disposizione una potenza computazionale praticamente illimitata?
Naturalmente ora ci dovremo muovere su un terreno inesplorato e di pura immaginazione…
Probabilmente l’intelligenza artificiale sarà in grado di trovare una cura per il cancro individuale.
Con un computer quantistico fault-tolerant, lo step successivo sarà simulare, a livello di interazioni elettroniche, come ogni mutazione specifica del paziente alteri la conformazione delle proteine coinvolte nella cancerogenesi. Oggi un super-cluster impiega settimane per modellare poche decine di atomi; un solver quantistico potrà farlo su intere tasche enzimatiche in ore, restituendo in tempo quasi reale la piccola molecola più adatta a bloccarle — già esistono proof-of-concept su composti antitumorali generati con workflow ibridi quantum-classical.
Riassumiamo in parole povere?
Diagnosi ultraprecise dal sangue o dall’urina, guidate da AI.
Screening di milioni di molecole, senza test su animali.
Terapia “su misura” confezionata attorno alla firma genetica del singolo paziente.
Ma l’AI unito al computer quantistico non porterà benefici solo in campo medico.
La pianificazione del movimento per un braccio industriale o, peggio, per uno sciame di droni è un problema di ottimizzazione combinatoria che esplode con il numero di gradi di libertà. Algoritmi quantistici come il Quantum Approximate Optimization Algorithm stanno già mostrando riduzioni nette dei tempi di calcolo sugli scenari di path-planning multi-robot e coverage di ambienti complessi . Quando le latenze scenderanno sotto i millisecondi, potremo avere:
Magazzini autonomi dove centinaia di AMR (Autonomous Mobile Robots) ricalcolano istantaneamente i percorsi quando un collo di bottiglia umano compare tra gli scaffali.
Droni di soccorso in grado di ripianificare l’esplorazione di edifici crollati in meno di un secondo, riducendo i tempi di ricerca di sopravvissuti.
Portfolio-building, hedging e gestione del rischio sono dominati da matrici di covarianza che, a parità di asset, crescono quadraticamente. Nel 2025 IQM e DATEV hanno già dimostrato che un prototipo a poche dozzine di qubit ottiene portafogli più efficienti del 3 % rispetto a metodi classici a parità di rischio . Moody’s, nel suo report annuale, prevede la prima adozione “alpha-generating” entro tre anni su valute e derivati complessi . A regime, l’accoppiata AI + QC potrà:
Ottimizzare portafogli da migliaia di titoli su orizzonti di pochi minuti, non di fine giornata.
Simulare shock macroeconomici con modello stocastico quantistico, migliorando la resilienza dei fondi pensione.
Ridurre frodi e insider trading grazie a pattern-matching quantistico su flussi di transazioni in tempo reale.
La vittoria australiana al Gordon Bell Prize del 2024 ha dimostrato che arrivare all’accuratezza “da laboratorio” nella simulazione di sistemi biochimici è possibile, ma richiede exascale e settimane di calcolo. Con l’hardware quantistico, queste simulazioni diventeranno routine:
Batterie allo stato solido ottimizzate calcolando in pochi minuti la diffusione di ioni in reticoli da centinaia di unità elementari.
Catalizzatori verdi per la produzione di ammoniaca a temperatura ambiente, abbattendo l’impronta di CO₂ dell’intera filiera fertilizzanti.
Previsioni climatiche multiscala dove AI addestra modelli locali e i kernel quantistici risolvono le equazioni di Navier-Stokes su domini turbolenti selezionati.
La caccia a esopianeti terrestri richiede passare al setaccio terabyte di curve di luce per pochi fotoni d’ombra. Modelli quantistici variazionali stanno già classificando i dati Kepler con precisioni superiori agli algoritmi classici. In prospettiva:
Telescope scheduling ottimizzato in tempo reale: scegliere dove puntare un’antenna interferometrica in base a condizioni atmosferiche e opportunità scientifiche dinamiche.
Analisi di onde gravitazionali in streaming con reti neurali quantistiche capaci di identificare segnali sommersi dal rumore che sfuggono alle pipeline tradizionali.
L’arrivo dei computer quantistici fault-tolerant non rimpiazzerà la buona, vecchia CPU: piuttosto sbloccherà per l’intelligenza artificiale quei margini di calcolo oggi inaccessibili, consentendole di esplorare in poche ore interi spazi di soluzione che oggi richiederebbero anni di lavoro — o resterebbero semplicemente fuori portata. L’orizzonte tecnologico è verosimilmente di un decennio, forse meno; per questo è fondamentale cominciare sin d’ora a progettare algoritmi e workflow ibridi, così che il software sia già maturo quando l’hardware sarà pronto.
A quel punto entreranno in gioco questioni etiche, filosofiche e sociali: l’IA non dovrà sostituire il lavoro umano, bensì diventare un alleato capace di accelerare la ricerca scientifica e di riprendere quel ramo di parabola indice del nostro progresso che attualmente sembra essersi appiattita. La vera sfida sarà rendere tutto ciò coerente, sicuro e protetto, evitando che una potenza di calcolo senza precedenti cada in mani disposte a piegarla a fini distruttivi — lo stesso slittamento che trasformò la formula di Einstein, nata per descrivere l’energia, nell’innesco della bomba atomica. Governare con saggezza questa nuova frontiera significa assicurare che l’era quantistica diventi un moltiplicatore di conoscenza, non di rischio.