Fugaku: il Supercomputer giapponese con CPU ARM è il più potente al mondo

23 Giugno 2020 137

C'è un nuovo numero uno in una particolare TOP500, la classifica dei supercomputer più potenti al mondo, che nel suo ultimo aggiornamento vede un cambio di consegne tra il nuovo sistema giapponese Fugaku e Summit, il supercomputer statunitense annunciato nel 2018.

Fugaku è installato presso il RIKEN Center for Computational Science di Kobe (Giappone) e con una potenza di calcolo pari a 415,5 Petaflops HPL (High Performance Linpack) offre prestazioni 2,8 volte superiori a Summit.


Fugaku è un supercomputer basato su architettura ARM, per la precisione su 152.064 SoC A64FX a 48 core, per un totale di quasi 7,3 milioni di core; con questa configurazione, il nuovo supercomputer giapponese riesce a offrire un picco prestazionale di circa 513 PFLOPS e fino a 1 ExaFLOPS nei calcoli a singola precisione.

Al secondo posto troviamo quindi Summit che, con 2,4 milioni di core (IBM Power9+ NVIDIA Volta GV100) e una potenza di calcolo di 148,6 PFLOPS ha guidato la classifica TOP500 per diverso tempo. Al terzo posto si posiziona un altro sistema statunitense, parliamo di Sierra con 94,6 PLFOPS (sempre IBM+NVIDIA), mentre la Cina si piazza al quarto posto con Sunway TaihuLight (93 PFLOPS).

Summit ha dominato la TOP500 fino all'arrivo del nuovo Fugaku

Niente male il risultato dell'Italia che piazza due supercomputer nella top 10: l'HPC5 da 35 PFLOPS sviluppato da Dell (Intel Xeon+NVIDIA Tesla V100) al sesto posto e il Marconi-100 al nono posto con 21,6 PFLOPS e una piattaforma mista IBM Power9+NVIDIA Volta V100.



137

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
ice.man

non esageriamo. Apple circa 8 annifa aveva acquisito una societa' israelinana che disegnava cpu di tipo ARM (licenza arm, core cortex, non saprei).
quindi direi che sia arrivata prima di Amazon nel settore delle cpu arm, se poi tu vuoi ridefinire un sottoinsieme "settore cpu arm per server" ecco allora Apple non avendo una divisione server (che i suoi li ha abbandonati da anni) ovviamente non era interessatafinche' il momento non e' stato maturao per portare arm sui laptop che sono il business di Apple

ice.man

non necessariamente, pensa ad esempio agli emulatori?convertitori in hardware, che usano istruioni di un architettura Y e le fanno girare su un processore con architettura X

Zero
JustATiredMan

Bello è bello, ma il nome mi sembra quello di uno dei pesci che prendeva Sampei..

Darkat

Quello che hai detto non giustifica affatto tutto, ARM permette di base customizzazione abbastanza avanzate, inoltre lavora a stretto contatto con le società, quindi per Apple non avrebbe il minimo senso economico fare una cosa del genere quando hai a disposizione una piattaforma che ti permette già di personalizzare come vuoi il tutto senza riscrivere da capo l'architettura che dovrà di fatto copiare praticamente quasi tutto solo per dire "lo abbiamo fatto in casa", e sta sicuro che se fosse stato così lo avrebbero sbandierato ai quattro venti alla presentazioni, visto che non lo hanno fatto dubito ancora più fortemente che sia un'ipotesi realistica

Mario Busso

Evidemntemente non capisci i vantaggi di utilizzare una motozappa e l'irrigazione automatica:)
il vantaggio sta tutto nella potenza di calcolo, a costo di fare un architettura più complessa. I vecchi arm vennero fuori per permettere la produzione di chip che fossero soprattutto economici: gestire una tv non smart, palmari.. quando sono entrati negli handheld però, hanno mostrato i limiti, e spesso Qualcomm e Apple hanno applicato "micro" customizzazioni. Ora però la apple si è detta: ma perchè sto qua a fare micro customizzazioni quando mi basta che se uno chiama le funzioni arm gli venga risposto quello che vuole? e quindi stanno ridisegnando tutto. Non è una follia sul lungo termine.. nessuno lo dice mai, ma i PowerPC furono sostituiti perchè erano dei FORNI, e seppur al momento fossero simili agli x86 come prestazioni, l'avanzamento tecnologico di IBM non poteva competere con quello di intel.. si sarebbero ritrovati portatili con la batteria enorme e delle ventole da 15"

Darkat

Meh non funziona proprio così, la customizzazione non avviene tanto sul processore stesso (anche se vi fanno pensare il contrario con il marketing) quanto sui coprocessori dedicati, dove effettivamente c'è lavoro piuttosto massiccio dietro

Darkat
Darkat
sbiki85

Si si, 7.3 milioni di core per fare i tamarri, mi pare ci hanno messo anche le strisce led di vari colori.

Boronius

E invece a me sembra che sia proprio per fregiarsi del titolo (e senza specificare il consumo in Watt)

DeeoK

Su questo non sono d'accordo.
Intanto usare Python sarebbe stato peggio lato prestazioni, ma Java è un linguaggio solido, sufficientemente astratto e ben conosciuto. Il problema delle prestazioni sarebbe potuto essere risolto con un compilatore AOT invece che JIT cosa a cui sono arrivati solo dieci anni dopo (a che ti serve il compilatore JIT se passi da uno store lo sanno solo loro). Sviluppare in C o in C++ su una piattaforma che vuole essere il più generica possibile sarebbe stata una mossa meno sicura. Ricordo che Android divenne quasi subito un consorzio quindi era lecito prevedere configurazioni software e hardware diverse, quindi uno strato di astrazione nel mezzo ci vuole. Pure iOS di fatto ce l'ha (LLVM).

Detto ciò, per Android è sempre esistita la possibilità di sviluppare in C (c'è l'NDK).

A margine, la questione Java in realtà riguarderebbe più un altro aspetto: passi il linguaggio ma dal momento che non è stato possibile trovare un accordo per la licenza non sarebbe stato più semplice puntare su altro? Perché usare Java per me era una scelta lecita, usare una versione custom di Java no. Stesso discorso del kernel, alla fine. Generi entropia, frammentazione e chi più ne ha più ne metta.

Simone

Della serie "perché usare c/c++/python/soluzioni proprietaria(ma anche no)" per creare gli SDK e per permettere di scrivere le applicazioni?
Ma anche no, incasiniamoci il mondo con JAVA, che all'epoca era utile solamente per l'essere portatile e estremamente compatibile(quindi utilità su un OS mobile == 0). Mettiamo virtual machine e rendiamo tutto il sistema più lento di quanto dovrebbe.
Ora che ci penso però se qualcuno vuole competere con Android necessita di avere la compatibilità con le App android. Se avessero usato il C++ Android sarebbe morto 3 anni dopo. Così invece se vuoi competere con loro sei automaticamente costretto a seguirà lo loro stupid@ strategia... :)

DeeoK

Tutti tranne Android perché in fin dei conti a che ti serve un kernel LTS che con le giuste astrazioni avrebbe reso un device facilmente aggiornabile per 4 anni quando puoi avere un kernel non LTS e nemmeno upstream perché ti fai la tua versione custom da dare a tutti i produttori che dovranno in fretta e furia riadattare l'intero stack?
Della serie "Non importa quanti soldi hai, sei sempre soggetto a fare c4zz4te madornali".

Simone

Rispetto assolutamente il tuo punto di vista...

Questo, se posso aggiungere, fa capire la qualità degli OS che girano su Linux. Vuoi che molti componenti di qualità sono praticamente lo standard (ad esempio l'uso di un buon filesystem è comene a tutti gli os).
La scelta di Linux poi risiede anche nel costo, dell'accessibilità (Oracle vuole una sua versione di Linux e se l'è fatta. Anche Amazon e MS. Mentre per Windows non è possibile) e nell'affidabilità. Linux è piena di LTS alcune che ricevono costante supporto e continuano a montare un kernel di 4 anni fa

sbiki85

Guarda che non lo hanno costruito per fregiarsi del titolo di più potente del mondo, ma per lavorarci.
Chiamala fuffa.

DeeoK

Ah, pardon, avevo inteso male.
Allora, il mio discorso era un po' più d'ampio spettro: Android è installato su smartphone che sono prodotti consumer quindi la qualità è secondaria, basta il marketing. Basti vedere Windows, insomma.
Nel caso di Linux la questione è un po' diversa perché non viene preferito solo in ambito consumer ma anche in una serie di ambiti enterprise dove la scelta del software è fatta in maniera ben diversa. Se hai un datacenter non ci installi software a caso, fai un'oculata analisi prima. Questo non era solo per elogiare Linux ma anche per il discorso sui kernel monolitici che vengono sempre disprezzati ma poi nella pratica vengono scelti nella quasi totalità dei contesti.

rorschach

Linux è un kernel, BSD no. Qui sta tutta la differenza, se il resto del software che gira sulle distro fa schifo non è linux colpevole sono le distro.
Linux è scalabile quasi a piacimento, virtualmente può girsre su tutto (tempo debito al supporto)

Simone

Non mi sono spiegato bene sulla parte finale.

Prima dicevi (all'incirca) "tutti a dire che il monolitico è morto ma Linux è lì ancora più forte di prima". Bene l'esempio di Tizen era un modo per dire, Android è la peggiore implementazione di Linux possibile eppure è ancora lì... nonostante tutti sappiamo che faccia schìf0(non è un mistero insomma). Proprio per questo ho fatto l'esempio di Tizen, che è centomila volte meglio, basato sullo stesso kernel, eppure per motivi vari ancora soppianta Android e, quasi paradossalmente(dico quasi perchè i motivi li sappiamo benissimo) il supporto esterno e la community è più verso android che verso Tizen. Nel discorso dicevo anche che Linux è un ottimo OS per telefoni, quindi "Comunque anche Tizen è basato su Linux, per dire" quindi rientra perfettamente nella logica... lo ritengo personalmente un OS degno di nota.

DeeoK

Non mi è chiaro, di tutto il discorso, la parte in cui Linux sia un incubo per il discorso aggiornamenti.
Il supporto per X o Y è normale che vada fatto, nel senso, potresti caricarti tu dei moduli ma perché farlo? Tutta la gestione dell'hardware è bene che richieda meno interazione possibile da parte dell'utente e tutto quel supporto serve per non fare come Windows che ad ogni aggiornamento fa qualche danno con i driver.

Poi che ci siano una marea di pullman è altrettanto normale visto che, girando sulla quasi totalità dei dispositivi del mondo, necessita di supporto continuo. Che poi prima o poi i monolitici scompariranno... Beh, si, è probabile, ma oggi offrono ancora molto più della concorrenza salvo per casi specifici.

Comunque anche Tizen è basato su Linux, per dire. D'accordo invece su Android, scelte progettuali senza senso.

Black_Codec

?! WTF!?

Mario

Non devi zoomare nulla, dimentichi che le differenze sono pure prestazionali e non solo grafiche. Framerate, quanti e quali elementi stanno a schermo ecc.

Io non vedevo differenze

Ma non puoi dire che non ci sono gap grafici/prestazionali solo perchè TU non li vedi. Dai.

Vincenzo

Io non vedevo differenze...Se poi mi parli di differenze che si vedono quando zoommi a 300x.

Simone

Non è che voglia infangare i monolitici per l'amor di ***.
I monolitici sono ottimi kernel ma bisogna contestualizzati.
Il kernel Linux(soprattutto in configurazioni specifiche) è EFICACISSIMO per alcuni tipi di prodotti. Come le soluzioni embadded. Termostati controller centraline modem... Fino ad arrivare a contesti più sofisticati ma comunque statici. Televisori telefoni console e via dicendo.
Il problema sta nel cercare di farlo funzionare li dove non è adatto. Nei computer e negli ambiti general porpouse con hardware modulare.
Richiede costanti aggiornamenti per supportare quello per supportare quell'altro. Non è il massimo insomma.
Se si concentrasse roba sul migliorare il kernel per quello per cui è adatto, avremmo un prodotto incredibile visto il supporto.
Guarda openBSD, hanno un team con meno di 1/10 del personale, con 1/10 del supporto esterno e con molti meno fondi. Eppure è probabilmente il miglior esempio di come si programma. Linux con 2000 sviluppatori e 3000 pullman request ogni RC non riesce a raggiungere quei livelli(senza scordarci che Linux non è un OS...)
Tant'è che alla fine sulle soluzioni professionali di tipo embadded li dove si può si va di NetBSD e OpenBSD... Sicurezza stabilità e qualità introvabili altrove.
Usare OpenBSD su un PC? Una sorta di incubo per chi non è esperto, ma tutto sommato è giusto che sia così.
"La sorte" ha voluto che Linux diventasse il progetto monopolista del settore open source per quanto riguarda i kernel. E ne sono un po' amareggiato perché se un microkernel avesse avuto quel supporto e quell'incredibile project management ora avremmo un OS desktop potentissimo, OFTB facile da implementare e con molte meno magagne.
È chiaramente un pensiero personale, avendo ora in mano solamente Linux faccio il possibile per supportarlo ugualmente, ma se un domani uscisse fuori un progetto con i mar0ni di microkernel per quell'ambito, cambierei sponda e abbandonerei Linux, OpenBSD per i monolitici e microkernel nuovo per le applicazioni in cui è adeguato.
In fondo ti faccio un'altra osservazione. Una soluzione come Linux è ottima per i telefoni perché ha molto supporto e comunque sono prodotti piuttosto"embadded". Poi i grossi produttori possono tranquillamente spendere soldi per mettere mano al codice quindi no problem e assolutamente soluzione user-frendly e senza strani impicci.
Ma che OS esiste sul mercato? ANDROID. Credo la peggiore implementazione possibile e immaginabile (col senno di poi ovviamente). Hanno fatto lo stesso errore di Windows. Ottimo Kernel, un futuro già annunciato. OS pessimo, soprattutto per quanto riguarda tutta la compenente Applicazioni, similmente a quanto abbia sbagliato Windows con Win32 ha sbagliato Google su android. Eppure è un OS diffusissimo, ma non perché ben progettato, altrimenti (personalmente) Tizen OS con 1/4 di soldi e sviluppatori l'avrebbe già superato. Ma perché il mercato questo ci ha dato a disposizione

Mario
Le presi entrambe e ad occhio nudo non esistevano differenze come non esisteranno su queste.

Stai scherzando vero?

Potrei farti la stessa domanda, giochi su PC e vieni qui a fare la console war ??

Io ti ho risposto inizialmente NON dandoti del fanboy, mi sono riferito all'utenza PS che spesso commenta senza connettere il cervello, arrivando pure a dire ADDIRITTURA che i PC sono spacciati.

Vincenzo

P.s. avevo già discusso con l'utente in un altro post.

Vincenzo

1 ) A parte ps1 non ne ho comprata nessuna più solo xbox. Sperando in giochi validi come fable o alan wake presi one ma la tolsi dopo nemmeno un anno dall'acquisto.

2 ) Anch'io pensavo di passare a PC gaming ma le esclusive e giochi in ritardo anche di anni mi fanno cambiare subito idea, se un domani ci saranno passerò sicuramente.

3 ) Ho già visto perché serie x è così, il problema è che non sappiamo perché ps5 è così.

4 ) Le presi entrambe e ad occhio nudo non esistevano differenze come non esisteranno su queste.

5 ) Potrei farti la stessa domanda, giochi su PC e vieni qui a fare la console war ?? Tra l'altro senza che qualcuno si riferisce a te direttamente ?

Mario
Vincenzo

Ma non eravate quelli che dicevate che la differenza tra ps4 e one non era evidente ? Ah adesso che vi conviene giustamente dite il contrario. Il vostro problema è non guardare nel dettaglio perché se lo avresti fatto ti saresti accorto che ps è si più alta ma molto più stretta do serie x, praticamente la x è un parallelepipedo che si espande su tutti e quattro i lati andando appunto ad agevolarsi in altezza ma non in ampiezza. Altro problema del boxaro di turno, ancora non capite che non è la potenza a fare una console " nintendo insegna " ma siete talmente soggiogati che non vi rendete conto di quello che vi circonda.

P.s. ho avuto one e ps4, avrò ps5 e serie x. Saluti.

DeeoK

Oddio, strutturalmente peggiore è una parolona. Tutti a criticare i kernel monolitici ma alla fine nessuno riesce ad usare davvero microkernel su ambiti dove le prestazioni contano. Finiscono sempre sul ripiegare su degli ibridi e pure Linux ormai non è un monolitico puro da un bel pezzo.

DeeoK

Ma credo mancassero anche gli interessanti nel senso che ad oggi Microsoft sembra principalmente concentrata sul far funzionare Windows in portatili con hardware da smartphone.

Mario

Potrei stare a parlare qui, per ore, sul perchè la ps5 è stata presa in contropiede, spiazzata e volutamente boostata in frequenze (con conseguenza l'ingrandimento in dimensione e quell'aborto di design).
Promossa in un marketing che gira tutto in torno al solo essesseddì vista l'evidente inferiorità tecnica rispetto alla controparte, si sono dimenticati che i pixel a schermo li renderizza una certa GPU ? (o forse sono scemi gli utenti PC che acquistano e i publisher che continuano in ricerca e sviluppo per nuove schede?).

ma non capiresti ugualmente, con il commento a matteo ti sei palesato per ciò che sei realmente ... un fanboy sony...

Saluti.

Alessio Ferri

AMD è stata la prima a produrre Opteron ARMv8 basato sul core a57. In teoria Zen doveva essere multi-architettura, ovvero una versione x86-64 e una versione ARMv8, poi sono finiti i soldi ed è rimasto solo Zen x86-64

Simone

Aggiungo, spero che nel settore dei codec si raggiunga presto una soluzione. Con AV1 e Orbis, e magari con qualcuno che si prenda a carico PNG aggiornandolo e aggiungendone un formato con perdita di dati

Simone

Purtroppo, la cooperazione può portare incredibili risultati.
Guarda Linux, il kernel strutturalmente peggiore sul mercato grazie all'Open source e all'enorme supporto è diventato praticamente il migliore (facendo enormi sacrifici dovuti alla architettura inadatta)

Simone

Si il mio calcolo era per capire l'ordine di grandezza... Poi è chiaro che fosse sbagliato.
Comunque ben venga la correzione

Lupo1

Cos'è?

Boronius

Se io metto assieme un milione di miliardi di CPU 6502 magari ottengo una potenza di calcolo anche superiore. Tutta fuffa, dovrebbero calcolare la potenza di calcolo in relazione ai Watt consumati.

DeeoK

Le priorità non c'entrano nulla, sono ambiti totalmente separati e tali vanno gestiti. In più sono investimenti sicuri nel senso un uso per macchine simili lo trovi sempre quindi non stai buttando soldi in alcun modo senza considerare che ci sono pure grossi investimenti privati. Nello specifico c'è solo da vantarsi di questa cosa perché vuol dire che ogni tanto anche noi riusciamo a spendere bene i soldi.
Non avere simili macchine ha un impatto nullo su tutti gli altri problemi. E' come voler proibire le coppie di fatto perché prima bisogna pensare alla scuola. E' una boiata usata come scusa per non fare le cose.

DeeoK

Ah, ok, in quel senso.
Beh, ma di fatto è già così perché non esistono altre architetture valide in ambito mobile al momento. Inoltre quando un'azienda acquisisce la licenza d'uso ARM non gliela può revocare.
Comunque questo problema si risolverebbe con architetture libere come SPARC che però non è mai decollata.

1pixel

vero

Alessio Ferri

Tra poco arrivano i Power 10

Alessio Ferri

Eccessivo? Un'unità rack consumerà si e no 350/400 watt (raffreddamento compreso). Inoltre sono probabilmente a doppio SoC. Quindi dividi per 2.
152.000 / 2 * 350 = 26,600 KW = 26,6 MW. Devi aggiungere gli switch di rete, gli impianti, le interconnessioni, etc. Arrivi a 28 MW.

Alessio Ferri

E' un classico: 28 MW, di cui 18 per il raffreddamento.

Alessio Ferri

Apple non usa ARM, ma implementa la specifica ARMv8 nella parte computazione dei suoi SoC. I "processori ARM" a seconda di come lo interpreti potrebbero essere una cosa che non esiste. Infatti ARM (la compagnia) non produce processori, ma vende solo gli IP dei core o la licenza dell'architettura.
La frase corretta che stavi cercando è: "Apple non ha in licenza i core ARMv8 progettati da ARM (però dovresti dimostrarlo), ma solo la licenza di architettura ARMv8". Riguardo ai PC con ARMv8 e i processori ARMv8 per smartphone, immagino tu intenda gli Snapdragon, che personalizzazioni dei core Cortex fatte da Qualcomm e non da ARM.

Simone

Non hai capito a cosa mi riferivo :)
È chiaro i produttori ARM sono almeno il triplo, almeno.
Il problema è che ARM ha il monopolio delle architetture. Oramai anche SMT, Microchip, nxp etc, usano ARM dappertutto. È rimasta solo MIPS, che ha ben poco mercato. mentre prima c'erano sul mercato due architetture x86 ora ce ne una sola.
Se ARM per esempio decidesse che il mercato mobile non vale più la pena(è una scemenza eh...) Ci ritroveremo completamente bloccati sullo sviluppo mobile perché il 100% delle architetture sono ARM.

Simone

Hai perfettamente ragione è che quando inessagi entrano in moderazione non te li fa eliminare

Mario Busso

No. In termini semplici un'istruzione da un input e si aspetta un output, poi come tu generi quell'output non è di interesse di nessuno.
Facciamo un esempio assurdo. Io ti do 10 semi di zucca e voglio 10 zucche, e poi ti do una serie di indicazioni della serie " zappa la terra con la zappa, annaffia con l'innaffiatoio", mentre tu non sei peerla e usi una zappatrice automatica e un sistema di irrigazione. ho 10 zucche? sì. è stato rispettato il contratto? sì. Tu però l'hai fatto alla maniera tua, con delle differenze. Una di queste può essere ad esempio il fatto che tu abbia consumato corrente, tanta corrente, quindi il tuo sistema deve prevedere una potenza aggiuntiva che il mio protocollo non aveva.
Per questo se io ti dico " vieni a coltivare il mio campo" tu non puoi perchè non c'è la spina ( un chip apple non potrà essere montato su una motherboard disegnata da arm ) ma comunque stai fornendo 10 zucche a partire da 10 semi, quindi il risultato dei nostri campi è lo stesso.

BlackLagoon

gli usa hanno veramente poco di cui vantarsi, fra pena di morte ancora presente in alcuni stati, razzismo e forti disparità sociali, welfare inesistente, governati da un pazzo...

Poi vabbè tiri fuori la cina, una c a z z o di dittatura...

mi tengo l'Italia piuttosto, grazie.

PistacchioScemo

Però non mi vanterei, ecco. Giappone Cina e USA possono permettersi spese così, noi avremmo altre priorità

Recensione Mac Mini M2 Pro: piccolo e potente, ma occhio ai prezzi | VIDEO

Recensione NVIDIA GeForce RTX 4070 Ti: consuma poco e vola nel gaming a 1440P

Recensione Gigabyte GeForce RTX 4080 AERO OC: Potente e imponente

Recensione Intel Core i5-13600K: Core i7 sei tu? Test con DDR4 e DDR5