Il punto sui computer quantistici

L’elaborazione quantistica, teorizzata 40 anni fa, è diventata concreta sperimentazione negli ultimi 20 anni con prospettive d’utilizzo nel prossimo decennio. Le ricadute fanno immaginare la diffusione di soluzioni basate su elevate capacità di calcolo, come ad esempio l’intelligenza artificiale.

Alberto Costa 

Socio ALDAI Federmanager e componente del Gruppo Progetto Innovazione
I computer quantistici offrono evidenti vantaggi rispetto ai tradizionali computer: velocità di calcolo (exponentially faster), possibilità di eseguire diversi calcoli contemporaneamente, capacità di elaborare una enorme quantità di dati in tempi brevi, teletrasporto dei risultati. I computer quantici sono quindi una grande risorsa e una soluzione per i problemi più complessi che l’umanità deve affrontare; problemi che riguardano l’intelligenza artificiale, la machine learning, l’analisi dei big data, i nuovi materiali, la biochimica, la medicina genetica, la chirurgia, l’energia, la protezione dell’ambiente, la finanza, l’astrofisica. Svelano un’abilità senza precedenti di riprodurre e analizzare i fenomeni naturali e di crearne dei modelli; possono risolvere i problemi importanti della crittografia e della sicurezza, creando messaggi cifrati a prova d’intrusione.

I computer quantistici (C.Q. per brevità) possono simulare fondamentali problemi di fisica e risolvere calcoli di meccanica quantistica non risolvibili con un computer classico, come dimostrato da Feynman nel suo articolo “Simulating Physics with Computers” (cfr. [2]).

Le difficoltà fisiche e ingegneristiche da superare per il loro impiego sono ancora molte: le dimensioni della macchina sono rilevanti; il raffreddamento è portato ai limiti estremi, perché il cuore del computer è circondato da circuiti superconduttori e le particelle quantistiche in gioco non devono essere disturbate da eventi esterni; l’affidabilità dei risultati deve essere garantita, ad esempio mediante meccanismi di correzione degli errori. Il laboratorio in cui è contenuta la macchina è un grande spazio schermato e ultra-protetto da vibrazioni, rumori, campi elettromagnetici, radiazioni, polvere, variazioni di temperatura. Le irregolarità nel reticolo cristallino del processore quantistico dovute alle vibrazioni termiche sarebbero infatti sufficienti a disturbare il processo. Lo stesso avverrebbe a causa di deboli campi elettromagnetici, compreso il campo magnetico terrestre.

Una ulteriore difficoltà consiste nel fatto che il linguaggio non può essere lo stesso di quello dei computer classici a microprocessori, è un genere di computo rivoluzionario, si tratta di una nuova capacità computazionale (new computation capability) ed è necessaria la stesura di algoritmi adatti allo scopo.

Si può sfruttare il calcolo matriciale tipico della meccanica quantistica (per esempio nel caso più semplice le matrici di spin di Pauli), ma attraverso algoritmi diversi da quelli dei computer classici. La soluzione al problema sembrerebbe quella di entrare nel C.Q., per problemi specifici, con i dati da supercomputer tradizionali, far eseguire il calcolo nel linguaggio quantistico e quindi completare il programma traducendo i risultati nel linguaggio classico per renderli intelligibili. L’accesso potrebbe avvenire attraverso il cloud.

Le applicazioni per il calcolo quantistico (quantum computing) saranno per ora ristrette e mirate, poiché il C.Q. per scopi generali non riuscirà ad essere economicamente accessibile su larga scala nel breve periodo.

I computer tradizionali, come tutti sanno, si basano su bit elettrici che possono assumere solo i valori 0 e 1, quindi lavorano su sequenze di 0 e 1 e queste sequenze possono raggiungere lunghezze enormi nel calcolo seriale. Si migliora con il calcolo parallelo, ma per certe applicazioni i tempi sono sempre molto lunghi.

Per i C.Q. si parla di qubit. Il qubit (quantum bit) è l’unità della quantum information, unità fondamentale della memoria. I qubit si basano sullo stato in cui si trovano particelle quantistiche, per esempio fotoni, elettroni, fermioni, o anche atomi o ioni, che godono della proprietà di sovrapposizione (superposition o principio di sovrapposizione quantistica). Lo spin di una particella (un fermione, oppure un atomo per esempio) può costituire il vettore dell’informazione: ha due stati che possono codificare informazioni binarie; lo 0 potrebbe essere rappresentato dallo spin corrispondente a una rotazione in senso orario, mentre l’1 dallo spin corrispondente a una rotazione in senso antiorario. Un qubit rappresenta l’esistenza simultanea di tutti gli stati possibili di una particella o di un’entità fisica prima della sua misurazione (ciò significa che, prima che venga misurato, un qubit può assumere il valore 0 e 1 contemporaneamente). Solo con la misurazione è possibile definire in modo preciso la proprietà del qubit.

Quando diversi qubit agiscono coerentemente, essi possono processare diverse opzioni simultaneamente. Ciò abilita i C.Q. a manipolare numerosissime combinazioni di stati nel medesimo tempo.

La seconda proprietà che viene sfruttata è l’entanglement (correlazione quantistica).

Considerando da un punto di vista generale lo sforzo di ricerca compiuto dai fisici in questo campo, si possono ritenere tutti gli esperimenti di teletrasporto come parte di un programma di ricerca rivolto alla realizzazione dei C.Q. (Cfr. [1]). Se due spin risultassero entangled così sarebbe anche l’informazione ad essi associata, che potrebbe esistere come sovrapposizione di diverse possibilità.

Il teletrasporto utilizzato per processare l’informazione potrebbe svolgere un ruolo fondamentale nell’algoritmo di calcolo quantistico. Teoricamente i C.Q. potrebbero anche impiegare solamente fotoni, si costruirebbe così una macchina puramente ottica. Questo approccio tornerebbe utile per piccoli computer e per eseguire calcoli semplici.

Analizzando lo stato attuale della tecnologia informatica, si rileva che i microchip dei computer diventano ogni giorno più veloci e capaci di immagazzinare una quantità di dati sempre maggiore. La miniaturizzazione, eccezionale e benefica, dei circuiti integrati, segue la legge di Moore (“la densità dei transistor integrati nei microchip raddoppia ogni anno e mezzo”). Questa legge empirica è stata riscontrata valida anno dopo anno e dice implicitamente che per la realizzazione fisica di un singolo bit sono necessari sempre meno atomi o elettroni. Facendo un rapido calcolo nel giro di circa venti o trent’anni la miniaturizzazione si interromperà al raggiungimento del livello atomico, il limite fisico fondamentale per i convenzionali chip, quando un bit sarà trasportato da un solo elettrone.

Ciò significa che sarà semplicemente lo sviluppo naturale del microchip a condurci verso il confine quantistico.

Quando quindi i C.Q. saranno disponibili a prova di guasti e di errori? Quando raggiungeranno la migliore performance e affidabilità? 

Probabilmente il loro sviluppo richiederà ancora un po’ di tempo: è una storia simile a quella dei reattori nucleari a fusione, ma un passo dopo l’altro ci arriveremo. Per ora sembra che una soluzione possa essere, una volta risolti i problemi di funzionamento e stabilità, quella di utilizzare un certo numero di C.Q. e collegarli al cloud, in modo che gli utenti possano accedervi quando necessario.

Molte aziende si sono impegnate nella realizzazione dei primi elaboratori, ad esempio IBM, la prima a creare un prototipo, la canadese D-Wave, Google, Microsoft, Intel, Honeywell, i Cinesi, alcune Start-up.

Un brevissimo riassunto degli sviluppi del settore.

Il concetto di computer quantistico è stato sviluppato all’inizio dai fisici Paul Benioff e Yuri Manin nel 1980, con elaborazioni e idee anche di Richard Feynman e altri (1982).
  • Nel 1997 è costruito il primo prototipo IBM.
  • Nel 2001 IBM presenta il primo C.Q. a 7 qubit (una molecola con 7 spin nucleari).
  • Nel 2005 viene creato dagli scienziati dell'Università di Innsbruck il primo qubyte (8 qubit) e ottenuta all’Università di Vienna la dimostrazione del funzionamento del primo C. Q. one way.
  • Nel 2006 Peter Zoller, dell'Università di Innsbruck, scopre un metodo su come usare molecole polari criogeniche per rendere stabili le memorie quantistiche.
  • Nel febbraio 2007 la D-Wave Systems mostra pubblicamente l'Orion, quello che si ritiene il primo C.Q. adiabatico a 16 qubit.
  • Nel maggio 2011 la D-Wave Systems annuncia il D-Wave One, il primo C.Q. ad essere commercializzato.
  • In aprile 2012 gli scienziati del Max Planck Institute riescono a creare la prima rete quantica funzionante.
  • Nel maggio 2013 Google e NASA presentano il D-Wave Two, nel Quantum Artificial Intelligence Lab, in California.
  • Nel febbraio 2016 IBM mette a disposizione pubblicamente l'elaboratore IBM Quantum Experience, il primo C.Q. in modalità cloud con un processore a 5 qubit.
  • A metà 2017 IBM mette a disposizione via cloud processori quantistici a 16 e 20 qubit.
  • Nel marzo 2018 Google Quantum AI Lab presenta il nuovo processore Bristlecone a 72 qubit.
  • Nel gennaio 2019 IBM annuncia al CES il primo C.Q. per uso commerciale "IBM System Q One" e la piattaforma "IBM Q Network" per uso scientifico e commerciale.
  • A gennaio 2020, IBM annuncia di aver ottenuto un Quantum Volume di 32, su un processore quantistico a 28 qubit, e ad agosto 2020 annuncia il Quantum Volume maggiore mai ottenuto, pari a 64, confermando il trend di raddoppio annuale della potenza dei suoi C.Q. Il Quantum Volume è una metrica “hardware-agnostic” che è stata definita per misurare la performance di un C.Q. reale. Il Quantum Volume tiene in considerazione il numero dei qubit, la connettività, e gli errori di porta e di misura. IBM sta inoltre realizzando un computer a 53 qubit. 
Google, collaborando con D-Wave e con la NASA, ha investito molte risorse e sostiene di aver fatto parecchia strada nello sviluppo dei C.Q.; ha affermato, in un articolo pubblicato su “Nature” (Cfr. [5]), di aver risolto un calcolo complesso in un tempo di 200 sec, calcolo che richiederebbe un tempo di soluzione di 10000 anni per mezzo di un supercomputer tradizionale. “Huge computer breackthrough”. I tecnici di IBM hanno criticato questa affermazione, ma anche concedendo un certo beneficio a Google per l’azione promozionale, la differenza fra i tempi di calcolo è enorme.

Google ha realizzato un computer a 72 qubit, Intel a 49 qubit, IBM a 53 qubit, D-Wave Systems partita da 128 qubit propone l’ultimo prototipo a 5000 qubit, usando evidentemente un tipo diverso di connettività e di calcolo dei qubit attivi. La necessità di un benchmark di sistema è cruciale e non basta contare semplicemente i qubits. 

Nel quantum computing la potenza di calcolo cresce esponenzialmente con il numero di qubit. Per poter efficacemente usare un C.Q. Microsoft afferma che è necessario avere a disposizione qualche decina di migliaia di qubit logici e la possibilità di arrivare in futuro a centinaia di migliaia. In un articolo di MIT News (Cfr. [3]) e in un rapporto Intel si parla di qualche milione di qubit. La scalabilità però aumenta la frequenza degli errori: i qubit sono più instabili dei bit ed è essenziale che il processore quantistico abbia bassi tassi di errore sulle operazioni logiche e sulla lettura in uscita. Alcune tecniche specifiche di controllo e correzione degli errori sono state sviluppate e perfezionate. Si è osservato un notevole progresso sia sugli errori di gate che sulla loro estensione, sui miglioramenti di coerenza, sulla riduzione dei crosstalk (trasferimento non voluto di segnali fra canali di comunicazione) dai gates alle architetture e agli accessi cloud.

A maggio 2020 IBM possiede 18 quantum computers, Google 5, Honeywell 6.

Nell’ultimo decennio diversi gruppi di ricerca in tutto il mondo hanno lavorato allo sviluppo dei C.Q. seguendo vari indirizzi di studio. Alcuni hanno utilizzato come vettori d’informazione singoli atomi o ioni o fotoni; altri hanno usato la tecnologia dei semiconduttori, modificandola in modo da poter codificare e processare singoli bit quantistici. Un’idea consiste ad esempio nell’impiantare singoli atomi nel silicio e nel farli parlare tra loro, generando così un processore quantistico. In questo modo era pensato il computer del fisico Bruce Kane, che nel 1998 propose la costruzione di un elaboratore utilizzando atomi di fosforo disposti su uno strato di silicio spesso solo 25 nanometri. Altri gruppi hanno lavorato con elementi superconduttori (vedi il processore quantistico superconduttore di Intel e l’utilizzo della “superconduttività topologica” da parte del team di Microsoft).

Come si svilupperanno queste tecnologie in futuro e quale di esse sarà normalizzata e applicata in campo industriale? 

È possibile che la futura tecnologia di base dei C.Q. risulterà essere un ibrido di alcune di queste tecniche, che comunque si basano tutte sui principi di sovrapposizione e di entanglement della fisica quantistica. Il campo di ricerca sta cambiando così rapidamente che quello che diciamo oggi può non essere corretto l’anno prossimo. Certamente sarà incompleto. 

Il veloce sviluppo degli studi è evidenziato dagli esempi seguenti.

Intel sostiene la ricerca in atto sugli spin qubits: gli spin qubits funzionano sulla base dello spin di un singolo elettrone nel silicio, controllato da impulsi a microonde. Questo sistema si avvicina molto di più alle tecniche esistenti di costruzione dei componenti a semiconduttore, che sono la specialità di Intel. Inoltre, potrebbe operare a una temperatura più “alta” rispetto ai superconducting qubits (1°K anziché circa 0,020 °K).

Microsoft si focalizza sul quantum computing topologico attraverso i fermioni di Majorana. Queste misteriose particelle, teorizzate da Majorana nel 1937, sono caratterizzate dal fatto di essere uguali alle proprie antiparticelle e di avere quindi carica nulla. Sono state recentemente osservate (Cfr. [3] e [4]) e avrebbero un ruolo anche nei codici di correzione degli errori.

D-Wave e altri utilizzano anche le giunzioni di Josephson (giunzioni fra due superconduttori separati da un sottile strato isolante, con proprietà caratteristiche) e il relativo effetto tunneling quantistico (penetrazione quanto-meccanica di una barriera).

Questa fase della ricerca, ancora sperimentale e non codificata, costringe ovviamente ad adattare e modificare gli algoritmi di calcolo a seconda della macchina usata.

Entrare anche solo virtualmente all’interno di un laboratorio che custodisce un C.Q. è impressionante (in internet si può fare una visita ai laboratori di IBM, Google, Microsoft). Grande silenzio, numerosi apparecchi di controllo, una selva di cavi elettrici e tubi, schermi protettivi di ogni genere. Avanzati sistemi di raffreddamento portano i circuiti e i processori a temperature prossime allo zero assoluto: si parla di temperature di 15 – 20 – 30 milliKelvin (una piccola frazione di un grado Kelvin) a seconda delle macchine, sono temperature più basse di quella dello spazio intergalattico. I differenti sistemi utilizzano sia frigoriferi a diluizione, impiegando l’elio-3, isotopo con un solo neutrone rarissimo e molto costoso, sia il raffreddamento mediante campi magnetici, sfruttando l’allineamento di atomi, che assorbe energia dall’ambiente circostante, oppure frigoriferi ad assorbimento quantico con “ioni intrappolati”.

Esperimenti in queste condizioni estreme (temperatura, superconduttività, campi magnetici particolari) permettono di evidenziare nuove proprietà dei materiali a livello atomico (ad es. la superconduttività topologica) e di fare passi avanti nella comprensione teorica della fisica dello stato solido.

Un altro problema importante da risolvere è il collegamento diretto tra diversi C.Q., senza passare attraverso una decodifica per trasferire i risultati del calcolo. Una possibile soluzione può essere utilizzare gli stati entangled per collegare fra loro i C.Q. (Cfr. [1]). Due particelle in uno stato entangled rimangono correlate quantisticamente fra loro a prescindere dalla distanza che le separa. L’output dei C.Q. è un certo stato quantistico, per trasmettere a un altro computer questo stato come nuovo input la soluzione potrebbe essere il suo teletrasporto. Se i due computer si trovassero a grande distanza dovremmo riuscire a teletrasportare stati quantistici a grande distanza: uno dei problemi è la possibilità di perdere i fotoni lungo il tragitto. Con le fibre ottiche è possibile coprire un centinaio di Km; lo stesso limite si riscontra attraverso l’aria. Per distanze maggiori sarebbe necessaria una catena di teletrasporti con stazioni intermedie in cui eseguire una misura sugli stati di Bell (stati quantistici con la massima correlazione) e anche correggere una eventuale perdita di fotoni. Dato che gli stati quantistici non possono essere amplificati si pensa di introdurre una serie di ripetitori. Questa soluzione tecnica non è ancora attuabile.

I prossimi dieci anni saranno la decade dei sistemi quantistici e della nascita di un reale ecosistema hardware che getterà le fondamenta per migliorare la coerenza, le porte, la stabilità, i componenti criogenici, l’integrazione e l’assemblaggio.

Per ora, dunque, non se ne parla di pc portatili quantistici, ma dovremmo essere molto ottimisti e sperare che un giorno tutti i computer diventino quantistici.

Referenze
[1] - Anton Zeilinger, La danza dei fotoni, Codice edizioni - 2019.
[2] – Richard P. Feynman, Simulating Physics with Computers, International Journal of Theoretical Physics Vol. 21, Nos. 6/7, 1982.
[3] - Jennifer Chu, First sighting of mysterious Majorana fermion on a common metal, MIT News Office, April 10, 2020.
[4] - Kirill Shtengel, The heat is on for Majorana fermions, Nature vol. 559 pag. 189, 12 July 2018.
[5] – Autori vari, Quantum supremacy using a programmable superconducting processor, Nature vol. 574 pag. 505, 24 October 2019.
[6] - Microsoft: https://www.microsoft.com/en-us/quantum/technology
[7] - IBM: https://quantum-computing.ibm.com
[8] - Google: https://research.google/teams/applied-science/quantum
[9] - Intel: https://www.intel.com/content/www/us/en/research/quantum-computing.html
[10] - D-Wave Systems: https://www.dwavesys.com/quantum-computing

Archivio storico dei numeri di DIRIGENTI INDUSTRIA in pdf da scaricare, a partire da Gennaio 2013.