Caltech, il primo chip quantistico su scala nanometrica è realtà

14 Settembre 2017 291

Da tempo si parla della possibilità d'utilizzo delle proprietà quantistiche delle particelle in ambito tecnologico, tuttavia per la prima volta un team internazionale di ingegneri dell'istituto Caltech in California è riuscito a sviluppare un chip quantistico su scala nanometrica.

Spesso si fa molta confusione sull'argomento ed in molti casi si abusa delle informazioni legate alle memorie quantistiche, tuttavia sul caso in questione il sistema si basa su leggi fisiche che, in quanto a principi base, non si discosta molto dalle metodologie attualmente utilizzate per la gestione dei dati.

Una memoria di tipo quantistico è in grado di salvare i dati in modo molto simile a come vengono tradizionalmente trattati da una memoria di normale utilizzo su PC, con la differenza che nel caso in oggetto vengono utilizzate delle singole particelle, i fotoni di luce. Memorizzare i dati in questo modo consente di sfruttare alcune proprietà della meccanica quantistica, come la sovrapposizione ad esempio. Ma come funziona un sistema di questo genere?

Qubit nella meccanica quantistica

L'informazione minima è il cosiddetto bit, che può assumere i due valori 1 (Vero) o 0 (Falso). Al contrario dei circuiti elettrici attualmente utilizzati, un fotone o un atomo, possono esistere anche in quella che viene chiamata "sovrapposizione coerente di due stati", ne deriva che oltre a 1 e 0 è possibile avere nel contempo uno stato intermedio che sia sempre 1 o 0. Nella meccanica quantistica, l'informazione minima prende il nome di qubit, in base a quanto sopra descritto ne deriva che due qubit possono ritrovarsi contemporaneamente nei quattro stati 00, 01, 10 e 11, rendendo i sistemi di calcolo molto più versatili e potenti rispetto a quelli basati sui bit tradizionali.

Il chip di Faraon

Andrei Faraon è l'assistente professore di fisica applicata e scienza dei materiali e nella Divisione di Ingegneria e Scienza alla Caltech, che fa da autore al documento dettagliato sulle caratteristiche del chip assieme al professore Tian Zhong, la mente principale dietro al progetto.

L'immagine a destra è una rappresentazione artistica del dispositivo di memoria quantistica di Faraon, per memorizzare i dati il team ha creato dei moduli di memoria utilizzando cavità ottiche a base di cristalli drogati con ioni di terre rare. Si presentano come delle piste in miniatura che misurano solamente 700 nanometri di larghezza per 15 micron di lunghezza, assimilabili alle dimensioni di un globulo rosso.

Il raffreddamento di ogni singolo modulo lo porta ad avere una temperatura di 0,5 Kelvin, quindi di poco superiore allo zero assoluto. Un laser filtrato in modo specifico spara i singoli fotoni nei moduli che vengono assorbiti in modo efficace dagli ioni di terre rare con l'aiuto delle cavità ottiche. I primi test dicono che il sistema è promettente, i fotoni rilasciati con 75 millisecondi di ritardo per verificare la capacità di mantenere integri i dati dimostrano che nel 97% del tempo non ci sono state perdite.

Si tratta solo di un inizio, il team prevede di estendere non solamente il tempo con cui la memoria è in grado di archiviare informazioni, ma soprattutto la sua efficienza. L'obiettivo è quello di creare una rete quantistica valida in grado di inviare le informazioni per centinaia di chilometri, ma per arrivare a tale risultato la memoria avrà bisogno di memorizzare con precisione i dati per almeno un millisecondo.

Un chip di questo genere potrebbe in futuro essere integrato in sistemi più complessi, dando il via alle prime reti quantistiche, e rivoluzionando nettamente l'approccio attuale. Per maggiori dettagli vi rimandiamo all'articolo ufficiale pubblicato da Caltech.


291

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
La luce Di D10

drogatevi con i cristalli

Federico

Non sono mai stato coinvolto in un progetto di simulazione, ma così a senso direi che si dovrebbe implementare la funzione di trasferimento tramite una simulazione matematica di una matrice di vettori di Hilbert.

Riccardo33

Avrebbe avuto senso se avesse detto: se prendessi una Ferrari e un trattore entrambi da 500cv e li mettessi in pista ovviamente il trattore farebbe schifo, ma se dovessi arare un campo mettendo un aratro dietro la Ferrari, dubito che batterebbe il trattore.
Ergo entrambi con molta potenza, ma per affrontare compiti ben diversi.

netname

bah in realtà è anche molto più semplice... ma fibonacci è morto.

netname

moduli di memoria utilizzando cavità ottiche a base di cristalli drogati con ioni di terre rare.

ok.

gjo

Non hai risposto alla mia domanda (spiegami come si simula) e hai pure mal interpretato la mia affermazione... Ho detto che in un dispositivo quantistico è molto semplice avere un rng ideale, mentre in un dispositivo classico è molto più complicato e la qualità della casualità del numero è inferiore

Liuk

Di certo riconoscerà tutte le 'Person of interest'.

mmorselli

Né orbite né nuvole vibranti. Sono tutte analogie con il mondo classico e hanno l'unico effetto di farteli immaginare così, o come pianetini che orbitano attorno a qualcosa o come nuvolette che vibrano attorno ad un nucleo solido. Anche se non è semplice bisogna sforzarsi di non immaginarlo affatto, limitandosi a studiare le sue proprietà misurabili, come lo spin, la carica, l'onda di probabilità, ecc... A livello quantistico tutto è invisibile e senza dimensione, sono le interazioni tra queste unità quantistiche a generare, per emissione di fotoni o per effetti elettromagnetici, quello strato emergente che chiamiamo realtà, ma ciò che è reale al livello inferiore non è una versione in piccolo di ciò che sta al livello superiore.

B!G Ph4Rm4

E questo è niente.
Tra non molto potranno ad esempio riconoscere comportamenti sospetti in mezzo ad una folla enorme di persone: ad esempio potranno riconoscere delle espressioni facciali o corporee tipiche di chi sta per compiere un atto criminoso come un attentato terroristico o di chi semplicemente sembra sospetto.

Ovviamente senza averlo mai visto prima ma semplicemente allenandosi su altri "visi"

Liuk

Dillo a Jovanotty.
XD

Liuk

Ho visto una trasmissione televisiva dove succedeva che un robot riconosceva oggetti senza averli mai visti.
Era ovviamente stato addestrato con oggetti topologicamente simili.

ASpIDe2 PIdeAS2

Grazie mi hai incuriosito sugla sovrapposizione di stati ..... Quindi gli elettroni non hanno delle orbite ma sono piuttosto delle nuvole vibranti

mmorselli

Parto dalla fine, non mi pare di aver mai avuto un atteggiamento polemico. Avere punti di vista differenti non è polemica, è confronto.

Detto questo, se fra 10 anni il computer quantistico sarà superato in potenza di calcolo da un supercomputer parallelo basterà spostare questo limite temporale a 20.

L'unica domanda a cui al momento non c'è risposta è "si può costruire un computer quantistico con un numero arbitrario di qbit?"

La risposta potrebbe anche essere no, ma non "no in un tempo ragionevole", potrebbe anche essere un no definitivo. Ci si potrebbe arrivare per dimostrazione di qualche teorema oppure semplicemente per constatazione, fra 10 anni, che non ci si è mossi di un millimetro.

Tolto questo dubbio, però, è garanzia che il computer quantistico supera in calcolo quello tradizionale. Fra 10 anni sta più avanti quello tradizionale? OK, ma poi che succede? Il computer quantistico ogni bit che aggiunge scava un solco, se non ha un limite legato a qualche legge fisica è potenzialmente in grado di arrivare a potenze di calcolo che nemmeno se tutto il pianeta fosse un computer raggiungeresti. L'obbiettivo non è neppure diventare un prodotto consumer, per cui non è così importante in quanto tempo si raggiunge quell'ipotetica linea insuperabile dal computer tradizionale.

Mark I

"Nel caso del computer quantistico invece non puoi ignorare le proprietà quantistiche"
Fidati che è così anche nell'elettronica attuale, ignorando certe "proprietà quantistiche" non si potrebbero realizzare i transistor di oggi, non è che metti insieme silicio, fosforo e arsenico a caso e ottieni magicamente un transistor. Tutto è calcolato e misurato, la progettazione di dispositivi si fa con modelli matematici e fisici (anche appartenenti alla fisica quantistica), ottenendo le caratteristiche desiderate per ciascun dispositivo, dipendentemente dalla sua applicazione. Ad esempio un transistor destinato ad un circuito per la gestione della potenza (grandi correnti e tensioni) sarà completamente diverso da uno destinato alle elaborazioni del segnale.

Credi davvero che il processo produttivo a 10nm sarebbe possibile ignorando le proprietà quantistiche? Pensi che sviluppino una tecnologia (e.g. fin fet) alla cieca senza considerare gli effetti quantistici? Non è così.

Federico

Ma certo che ti do ragione, l'unica parte che contestavo riguardava la necessità di avere una continuità tecnologica per veder rispettata la legge di Moore.

Si stanno per l'appunto seguendo tutte le strade, e difatti fin dal primo post ho scritto che il protrarsi dei tempi di sviluppo del calcolo quantistico ben oltre quelli stimati in fase iniziale, cosa che credo anche tu non vorrai negare, lo mette a rischio di veder rendere inutile la ricerca perchè superata da tecnologie alternative economicamente più convenienti.
Quando mi è stata chiesta una tempistica, ho indicato un decennio... quindi non ho detto dopodomani.

Questo significa che se da qui ad un decennio (che sono tanti anni) si riusciranno ad ottenere risultati discretamente affidabili (e ripetibili) e word sufficientemente lunghe con la quantistica, allora essa avrà vinto e santi benedetti.
Se al contrario fra dieci anni saremo ancora ad un livello di pura sperimentazione come l'attuale, allora saranno cavoli amari perchè a quel punto le tecnologie alternative saranno state sviluppate al punto da rappresentare una minaccia diretta e diventerà una lotta a quale costa meno a parità di problemi risolvibili.

A me tutto ciò pare di una banalità estrema e non capisco tutta questa polemica.

mmorselli

eh, ma io mi fido sai, anche perché non mi serve farlo, però mi sa che non mi sono spiegato bene. Gli effetti quantistici sono alla base di tantissimi fenomeni, anche la fotosintesi delle piante, però non ti serve la quantistica per far crescere una pianta, ti basta sapere che gli serve acqua, sole e anidride carbonica. Lo facciamo da molto prima di sapere che esistono gli atomi e una volta scoperti non è cambiato nulla nel modo in cui coltiviamo le piante. Nel caso del computer quantistico invece non puoi ignorare le proprietà quantistiche (sono tutte quelle il cui stato è rappresentabile solo con la funzione d'onda) perché sono proprio l'oggetto della tua misura, se non le conosci e non sai come trattarle il tuo sistema non funziona, a differenza del semiconduttore e della pianta.

mmorselli

Così però non fai che dar ragione a quello che ho scritto prima, se ora il calcolo GPU ha preso il suo corso, che è legato allo sviluppo del silicio (frequenza, dimensione) allora ti servono 28 anni da oggi per arrivare ad un supercomputer in grado di emulare il computer a 64qbit, a meno che non avvenga un altro salto epocale, su cui però non possiamo fare ipotesi.

La scommessa è chiaramente pensare che serviranno meno di 28 anni per il computer a 64 qbit, ma dato che nessuno ha la sfera di cristallo suppongo che l'approccio corretto sia seguire tutte le strade e fermarsi quando una avrà dimostrato in modo inequivocabile l'inutilità dell'altra.

Mark I

Bah in realtà no, perché dicendo "proprietà quantistiche" è comunque generico. Purtroppo c'è troppa mistificazione sulla fisica quantistica, nemmeno io sono un esperto e non volevo sollevare polemiche, l'avevo solo detto con tono simpatico dai :)

Federico

Credo volesse dire che sebbene la fisica quantistica c'entri anche con i semiconduttori (non sono un esperto ma credo c'entri con tutto quello che è a livello sub atomico), le proprietà che se ne vanno ad utilizzare sono differenti.

Mark I

Si ma il trasporto della carica nei semiconduttori drogati è fisica quantistica fidati... Tanto per citare l'equazione più famosa coinvolta: schroedinger. Che uno ne sia allo scuro dell'effetto e uno conto ma in realtà c'è. Ad esempio la "banale" legge di ohm si dimostra solo con la fisica quantistica, ma si usava anche prima...

Federico

Hmmmm.... no, a me non sembra sia così.
Anche prendendo un lungo periodo (che ormai è già passato anche se non sono 20 anni) la legge di Moore per i problemi parallelizzabili fra il pre-GPU ed il post-GPU non è rispettata.
Va da sè che si è ripatrtiti con una nuova legge di Moore che ha come t0 l'introduzione del calcolo GPU e che da quel punto inizierà a seguire il suo normale corso, ma il gap fra il prima ed il dopo è talmente grande da non poter essere assorbito neppure dai lunghi periodi.

mmorselli

No, rimane valida (e non si sa perché) ogni volta che prendi in considerazione un lasso temporale sufficientemente grande. Anche il calcolo su GPU se lo guardi in un lasso di 20 anni con buona probabilità avrà mediamente ottenuto un raddoppio ogni 18 mesi, che non è poca cosa se pensi che vuol dire 8000 volte (REALI) le prestazioni di partenza tra il primo e l'ultimo di quei 20 anni.

Federico

Che in parole più semplici significa che un insieme di qubit opportunamente grande può valere contemporaneamente tutte le possibili combinazioni di una chiave di cifra in un tempo unitario, questo almeno ai fini pratici senza scendere nei dettagli della fattorizzazione.

mmorselli

il modo migliore per essere confusi su una proprietà quantistica è cercare un'analogia classica. Il qbit non è un bit che oltre a uno, zero, può anche assumere un terzo valore, ma qualcosa che in fisica classica non può accadere, cioè essere due cose opposte in contemporanea, un numero che può rappresentare zero ma ANCHE uno, nello stesso istante. Mettendone diversi in fila acquista il significato di poter assumere un grande numero di valori tutti esattamente nello stesso istante, dove il numero binario classico può assumerli tutti ma sempre uno alla volta.

Federico

In base a come tieni settato il Disquss la sequenza cronologica dei messaggi può incasinarsi di molto. Attualmente l'originale di quella replica è segnato a 16 ore fa.

Comunque quella era solo una risposta alla tua chiamata in causa della legge di Moore, visto che bastò quel semplice salto tecnologico (comunque ancora bidimensionale e su silicio) introdotto da un'azienda privata a far compiere un salto prestazionale nel calcolo parallelo MOLTO più grande del fattore 10 da te indicato.
Non ho mai seguito con grande interesse la cosa, ma credo che nei problemi fortemente parallelizzabili si sia compiuto un salto non inferiore ai tre ordini di grandezza già con la prima versione di quella tecnologia.
Quindi la legge di Moore è valida SE E SOLO SE viene mantenuta una omogeneità tecnologica.

mmorselli

Non è proprio così, i transistor delle flash memory funzionano grazie ad una proprietà quantistica che provoca l'effetto tunnel, ma quel transistor funziona a prescindere che tu sappia o meno dell'esistenza di quell'effetto, che è solo un mediatore dell'effetto che realmente andremo a misurare, la carica della cella. Diverso invece è il caso del qbit, dove la proprietà quantistica è proprio la quantità che andremo a misurare.

mmorselli

Non vedevo e non vedo tutt'ora l'originale di questa replica nella lista dei messaggi, misteri di Discus, my fault comunque.

Il fatto è che i salti è normale che ci siano, la legge di Moore è stata fatta valere anche per il software, che mediamente raddoppia la sua efficienza ogni 18 mesi, ma non lo fa in modo lineare, perché basta che cambio un algoritmo e un calcolo diventa più veloce di un fattore 10X, non semplicemente 2X, però poi per 10 anni quell'ottimizzazione rimane costante, per questo la legge di Moore andrebbe presa come valutazione a posteriori di periodi sufficientemente lunghi. Il guadagno prestazionale dei CUDA tra le varie architetture deriva dalla progressiva maturità della soluzione, però poi si torna ad allineare ai suoi limiti fisici, una volta raggiunta o quasi la massima maturità in termini di organizzazione dopo per raddoppiare le prestazioni torni a far affidamento agli aiuti classici: maggiore frequenza, minore latenza, più moduli nello stesso spazio. Oltretutto al di là dei proclami di nVidia la realtà raramente ci ha mostrato le schede di generazione successiva andare anche solo il doppio delle precedenti, sebbene la grafica faccia parte dei problemi fortemente parallelizzabili. Se Tra Maxwell e Pascal c'è un fattore di incremento prestazionale di 100 volte ma c'è solo in una singola applicazione di test interna di nVidia senza applicazioni pratiche reali non siamo poi messi così bene.

mmorselli

Non serve che ne abbia infiniti, basta che sia in sovrapposizione di stati +1/2 e -1/2

La sovrapposizione di stato non può essere resa con una metafora del mondo classico, non sono due cose sovrapposte, ma due realtà diverse che condividono lo stesso istante. Come se un numero binario da 8 bit non assumesse tutti i valori da 0 a 255, ma valesse nello stesso identico istante tutti questi valori, tali che un singolo test su quel numero valesse come fare tutti i 256 test nello stesso identico istante.

Federico

La replica era questa:
"Federico mmorselli • 14 ore fa
La legge di Moore è valida per i sistemi di calcolo ordinari basati su tecnologia ordinaria (unità di processanento, memoria RAM, memoria di massa) o quanto meno riconducibili ad essa.
Già una tecnologia ancora rozza e primordiale come il calcolo basato su CUDA ha mandato a farsi benedire la legge di Moore quando i problemi sono fortemente parallelizzabili."

Quando venne introdotto il calcolo parallelo basato su GPU (grosso modo una mazza da spaccapiettre data in mano ad un cesellatore) l'intera classe di problemi fortemente parallelizzabili sperimentò un enorme punto di discontinuità nella legge di Moore.

Federico

Una rete neurale è per sua natura un sistema che implementa una funzione di trasferimento legata ad un intorno probabilistico.
Implementarla con un sistema che a sua volta non è esatto ma probabilistico complica un bel po' le cose.

mmorselli

Invito io te a spiegare le tue domande con più chiarezza, anzi, avresti già potuto farlo nella tua replica. Quale caso avresti citato? Io leggo solo delle previsioni senza argomentazioni a sostegno. La legge di Moore l'ho tirata in ballo perché in tutto questo tempo per i chip al silicio ha sempre funzionato, per cui se tu pensi che nei prossimi 10 anni verrà superata in positivo sei tu che dovresti portare argomenti a sostegno, altrimenti è lecito pensare che non lo farà. Non è una legge perché è solo ed esclusivamente empirica, però è tutto ciò che abbiamo per fare previsioni sullo sviluppo dei chip in silicio, è semplice statistica, a meno che tu non abbia argomenti migliori di "mi aspetto questo fra un decennio". Cosa ti aspetti non è un argomento, il perché te lo aspetti se mai lo è.

B!G Ph4Rm4

Te un po' più il ragionamento (per parafrasare), senza offesa, hai detto una marea di cavolate, non sai di cosa stai parlando.

Tra l'altro non ho praticamente usato Wikipedia, ho letto articoli in giro, sei tu che non hai portato uno straccio di prova e ti sei inventato le cose di sana pianta.

Federico

Usa meno Wikipedia.

Federico

Si però collassa ad un intorno probabilistico, non ad un risultato certo.
Bisognerebbe dirgli pure questo, così gli si incasinano ulteriormente le idee :)

Noah

No, come in tutte le variabili quantistiche il qubit ha una certa possibilità di collassare su uno dei due stati possibili (se è solo un bit, interpretazione di copenhagen), conserva questa proprietà finché non viene misurato il suo stato, se son tanti bit c'è una probabilità per ogni stato possibile, che collassa alla misurazione finale del risultato

B!G Ph4Rm4

Ma di cosa stiamo parlando?
Ma ti rendi conto che noi stiamo parlando di sistemi di calcolo e tu mi dici "madònna che rottura sti computer"?

Ma quale serietà pensi di avere con queste argomentazioni sconclusionate e che fanno acqua da tutte le parti?

Tu non hai capito a cosa servono i computer quantistici, non hai capito che neanche se ammàzzi 100 persone, prendi il loro cervello super-connesso e tutte le frègnacce che hai detto prima, e con qualche assurda tecnologia li connetti per fare dei calcoli, tu non riuscirai mai a svolgere operazioni complesse come quelle che ti ho descritto, neanche con il connessionismo o menate varie.

Siamo stati in 4 a dirtelo, (o con i like o con i commenti), tu non hai idea di cosa stai parlando.
Entra in un centro di calcolo (non quantistico) ed esponi le tue tesi, vedi le risate che si fanno.

Il connessionismo, oltre ad essere meno sviluppato anche della stessa informatica quantistica, non serve a quello che pensi tu, basta aprire wikipedia per vedere che serve per l'utilizzo con reti neurali.
Anzi, si tratta sostanzialmente di un modello di reti neurali, cosa diavolo c'entra la rete neurale con il calcolo esponenziale?
Quando mai una sola persona sana di mente ha mai cercato di sostituire il calcolo quantistico con il calcolo tramite rete neurale?

Ma di cosa parliamo?

Federico

Ma donna che rottura con questi computer!

B!G Ph4Rm4

Non è vero, se tu connettessi tutti i computer presenti attualmente sulla terra, ottimizzandoli per svolgere un determinato calcolo avresti una potenza nell'ordine di 10^15, 10^16.

Noi parliamo di problemi nell'ordine di 10^120, 10^240 e così via.

Tra l'altro ho letto qualcosa sul connessionismo, ma non c'è scritto assolutamente nulla di quanto dici, non c'è scritto che competerà con computer quantistici, non c'è assolutamente scritto che "non si può calcolare la sua potenza di elaborazione".

Ma dove le hai tirate fuori le cose che hai detto?

Federico

Il mondo attuale andrebbe completamente in crisi con problemi dell'ordine 2^4096 ma subirebbe forti contraccolpi già con problemi dell'ordine 2^2048.
Indubbiamente si tratta di numeri giganteschi, ma fra un decennio avremo la via (tecnologica) aperta al loro trattamento con sistemi non-quantistici.

B!G Ph4Rm4

Sempre pochi ne saranno.
In 47 anni (Intel 4004) siamo passati da qualche centinaia ai 30 miliardi di Stratex 10, il chip con più transistor al mondo.
Quindi 50 anni per passare da 10^3 transistor a 10^10.

Se anche passassimo a 10^15 connessioni, stiamo sempre parlando di poco, rispetto a calcoli nell'ordine di 10^30, 10^40.
Non è semplicemente possibile arrivare a calcoli del genere tramite metodo binario

Federico

si, ma al prezzo di rendere allo stesso tempo inutile il bitcoin.

Federico

Più in generale rendere inutili tutti i sistemi criptografici basati su chiave asimmetrica (o almeno sulla tecnologia attuale delle chiavi asimmetriche)

Federico

Ma non diciamo eresie, un generatore di numeri casuali non è un dispositivo quantistico.

Federico

Pochi decenni fa le CPU avevano quattro bit ed usavano dei processi produttivi su silicio così poco spinti che si potevano vedere i transistor ad occhio nudo.
Iniziamo con cento milioni, che se la strada è promettente e quindi i finanziamenti ci sono ad arrivare a cento miliardi non serve molto tempo.

Federico

Ma non è questa la domanda che io ho fatto, ti invito a rileggere con più attenzione la replica cui facevo riferimento perchè il collegare più computer non c'entra niente.

Faccio notare che la legge di Moore l'hai tirata in ballo tu, che ora scrivi che non è una legge... mah!

ASpIDe2 PIdeAS2

Ma scusate l'ignoranza, ma un qbit non più avere infiniti stati dello spinning il limite è solo dato dal emettitore e dal sensore che riceve il bit

La luce Di D10

Vogliono distruggere i bitcoin

La luce Di D10

tropp scienza su hdblogge

La luce Di D10

L’auto ad acqua ,

La luce Di D10

Si a 360 a 30 fps

Android

ASUS Zenfone 5Z (3300 mAh): LIVE Batteria | Fine ore 20:55

HDMotori.it

Volkswagen e QuantumScape, joint venture per le batterie allo stato solido

Android

OnePlus 6 con Android P (DP2): veloce, fluido e quasi completo | Video

HDMotori.it

Auto ibride 2018: i modelli in commercio in Italia, prezzi e autonomia