Il supercomputer più veloce al mondo utilizza oltre 6000 GPU Nvidia

01 Giugno 2021 36

Dal 27 maggio scorso ha iniziato a operare al National Energy Research Scientific Computing Center (NERSC) di Berkeley, California, il supercomputer più potente al mondo per il calcolo a precisione mista 16 - 32 bit. Perlmutter, questo il nome della macchina, monta 6'159 GPU NVIDIA A100 e può contare su quasi 4 exaFLOPS di capacità computazionale. Per avere un punto di riferimento, la NVIDIA DGX Station A100, workstation per il lavoro sull'intelligenza artificiale, monta al massimo quattro di queste GPU.

Perlmutter, che prende il nome da un ricercatore, Saul Perlmutter, Premio Nobel per l'astrofisica nel 2011, verrà utilizzato dai circa 7'000 ricercatori in ambiti che spaziano dal clima alla fisica, dall'astronomia fino all'intelligenza artificiale.

Una delle prime applicazioni, riporta il blog di Nvidia, lo vedrà creare la più grande mappa 3D dell'universo visibile, elaborando i dati provenienti dal Dark Energy Spectroscopic Instrument (DESI), un telescopio capace di scattare, con una singola esposizione, l'immagine di 5'000 galassie. Perlmutter permetterà di scattare ed elaborare dozzine di immagini ogni notte, così da dare un'indicazione precisa di dove puntare DESI successivamente. Il lavoro che prima avrebbe richiesto settimane o mesi, hanno spiegato, richiederà ora pochi giorni.

Un'altra applicazione dal potenziale interessante coinvolge la scienza dei materiali e in particolare i prossimi sviluppi nel campo delle batterie e dei biocombustibili. "L'intelligenza artificiale applicata alla scienza è un'area di crescente interesse per il Dipartimento dell'energia degli Stati Uniti", ha dichiarato Wahid Bhimji, a capo dell'analisi dei dati del NERSC, "con numerose ricerche che stanno entrando in una fase produttiva avanzata in ambiti come la fisica delle particelle, la scienza dei materiali e le bioenergie. Ci sono un numero elevato di modelli per network neurali e sale la domanda per accedere a macchine molto potenti, quindi l'arrivo di Perlmutter e delle sue GPU A100 ha un tempismo perfetto, risponde a queste esigenze in termini di calcolo e intelligenza artificiale".

Le novità in casa Nvidia non si limitano comunque solo ai supercomputer, visto che due nuove schede della serie 3000 sono state da poco annunciate e si avvicinano al lancio ufficiale.


36

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Pistacchio
Mik Loconte

Se sei fortunato puoi trovare una bella gt710 perfetta per il gaming

Pistacchio
Mik Loconte

Ho provato pou in emulazione e fa ben 23 fps

Pistacchio
Massimo Disarò

Ho già chiamato quelli di iFixit per vedere come è fatto.

EmanueleA99

Mi piacerebbe tenerlo per una giornata ahahah

Andhaka

La risposta sarà sempre 42!! Ora, scoprire quale sia la domanda... tutto un altro paio di maniche. ;)

Cheers

Paolo Rossi

Ti assicuro che la risposta è ancora 42. L'ho riverificata personalmente con Pensiero Profondo, altro che questa calcolatrice di cui parla l'articolo ;-)

GeneralZod

Ma ciò che più conta in genere è il verso di scappellamento. Andrebbe riportato in specifiche se a destra o a sinistra.

GeneralZod

Al supercomputer è stata già sottposta la fatidica "Domanda Fondamentale sulla Vita, sull'Universo e Tutto quanto"? Sperando che la risposta non sia ancora una volta 42!

darthrevanri

Crysis sì ma Flight simulator va comunque 59fps CPU limited

Dark!tetto

Magari per simulare qualche scenario che salverebbe il pianeta dall'impatto ambientale dovuto ai miners ahahaha

darthrevanri

Beh io lo farei per rientrare i costi poi lo si usa per la scienza lol

Poco più che disegnini. :D

Tango_TM

mica usano GPU consumer come fanno loro eh...

Lupo1

Queste sono bazzeccole rispetto a quello che riusciranno a fare i quantistici...

Dyatlov

E poi danno la colpa ai miner...

biggggggggggggg
solver di che tipo? Intendi roba di algebra lineare, limitando il tutto a 16bit?

Leggi da pag.30:
https://images.nvidia.com/aem-dam/en-zz/Solutions/data-center/nvidia-ampere-architecture-whitepaper.pdf
C'era anche un articolo più recente fatto da non ricordo quale università/azienda che aveva iniziato a sperimentarli e se non ricordo male gli speedup erano fino a 7x.

cosa sono queste tante cose? Poi che lo standard IEEE 754 non sia ho granché ne avevo sentito parlare, ma per tantissimi calcoli sotto i 32bit non si potrà mai andare da quel che so

Principalmente deep learning ma in realtà tutto ciò che riguarda problemi "vettorizzabili" (non mi viene il termine preciso). L'esempio dei linear solver nel paper già la dice lunga. A parità di numero di iterazioni la precisione potrebbe essere minore, il punto è che il tempo per ogni iterazione a precisione ridotta è una frazione di quello a doppia precisione, quindi alla fine è più veloce.

Se cerchi "GEMM tensor core" trovi un sacco di paper su moltiplicazioni tra matrici e non solo accelerati su tensor core (quelli vecchi che erano solo a 16 bit) che alla fine hanno prestazioni migliori e addirittura maggior precisione.
Per dire: si sta ragionando di introdurre il training a 4 bit (e magare espandere queste unità ad altri utilizzi in futuro):
https://papers.nips.cc/paper/2020/hash/13b919438259814cd5be8cb45877d577-Abstract.html

Dark!tetto

Lo useranno per minare Eth ?

Slartibartfast

Premetto che sono stato triggerato dal titolo, che è borderline falso dato che nessuno usa le performance in mixed precision per il ranking dei supercomputer (a parte Nvidia, a quanto pare).

> molti solver sono stati riscritti per sfruttare i tensor core

solver di che tipo? Intendi roba di algebra lineare, limitando il tutto a 16bit?

> ci si sta sempre più convincendo che per tante cose FP64 (e FP32) sono un inutile spreco di spazio ed energia

cosa sono queste tante cose? Poi che lo standard IEEE 754 non sia ho granché ne avevo sentito parlare, ma per tantissimi calcoli sotto i 32bit non si potrà mai andare da quel che so

> Poi insomma, 4 exaflop in FP16 con 6000 GPU non è male, contando che tutti gli altri fanno meno ma hanno anche 30.000 GPU

assolutamente

MaximCastelli

Li rapportavo più a degli anodi tropicalizzati con indice di trasmissibilità vicino al fatidico 0.2.
Credevo...

Luca Lindholm

Ah, i grafi orientati… ricordi di Fondamenti d’informatica II…

Super Mario Bianconero 06

Sì, ma raggiunge i 30 FPS solo a dettagli medio-bassi.

Luca Lindholm

Ma sta scherzando???

Icalcoli FP64 sono inutili!!!11!!!!1!!

È per questo che nVidia ne ha segato le performance dal 2015 sulle Titan, perché non voleva che avessimo delle performance in più inutili che avrebbero aggravato il carico di corrente!!!1!!1!!!

biggggggggggggg

Al contrario. Molte simulazioni possono essere fatte tramite ML e a volte è l'unico modo per farle.
E molti solver sono stati riscritti per sfruttare i tensor core o hardware simile, con uno speedup fino a 7x rispetto alle classiche unità FP64.
In realtà ci si sta sempre più convincendo che per tante cose FP64 (e FP32) sono un inutile spreco di spazio ed energia, e si stanno trovando formati e unità di calcolo alternative e più efficienti.

Senza contare che questo supercomputer verrà usato da migliaia di ricercatori e università, non ci faranno solo quello scritto nell'articolo.

Poi insomma, 4 exaflop in FP16 con 6000 GPU non è male, contando che tutti gli altri fanno meno ma hanno anche 30.000 GPU.

Quando tireranno fuori quello con Grace e le H100 non so che mostro verrà fuori.

Slartibartfast

Sono degli approssimatori di funzioni universali, composti da grafi orientati con funzioni di attivazione dei nodi non lineari.

MaximCastelli

Quando si parla di reti neurali ancora non capisco appieno che si intende.
Gentilmente.

MK50

Non posso esimermi dal chiedere la domanda fatidica:

Ma ci gira Crysis?

Manuel Frattini

Quanti mh/s fa?

Slartibartfast

Per quasi tutti gli utilizzi elencati i calcoli in doppia precisione sono un must, ergo questo supercomputer non ha nulla di speciale, anzi è parecchio indietro rispetto ai più potenti al mondo.

Smembri?

I-lorenzo

ecco dove sono finite

https://uploads.disquscdn.c...

Gigiobis

Indirizzo?

Cyberduck 2077

Maledetti miners!!

Recensione Samsung Galaxy Book Pro 360, convertibile super sottile e leggero

Recensione Intel Core i7-11700K: potenziale nascosto, ma occhio ai consumi

Recensione ASUS ROG Zephyrus S17, tanta roba ma che prezzo!

Recensione GIGABYTE RTX 3080 Ti Vision OC: il giusto mix tra prestazioni e design