Xeon Phi: avrà 72 Core e 384GB di Memoria DDR4

12 Aprile 2015 162

Intel rilascia nuovi dettagli sui nuovi Processori Xeon Phi, soluzioni che come ben saprete sono ottimizzate per il calcolo parallelo e che a breve verranno aggiornate con modelli basati su architettura Silvermont.

Le informazioni sono piuttosto interessanti e "succose", partendo dalla possibilità di assemblare un Processore a 72 Core, ciascuno dei quali può gestire 4 Thread simultanei, affiancadoli a 36 MB di Cache L2.

Passando alla memoria le cose non vanno peggio, infatti Intel parla di 384 GigaByte di Memoria DDR4 a 2400 MHz, affiancata a 8/16 GB di HBM (High Bandwidth Memory), la memoria di nuova generazione che troveremo anche sulle imminenti schede video AMD.

Tutte queste caratteristiche permetterebbero a Intel di ottenere un incremento prestazionale nell'ordine del 300% rispetto allo Xeon Phi di precedente generazione, percentuale che dovremmo ritrovare anche a livello di efficienza energetica.



162

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Achille Emmollo

ne prendo 7, grazie.

glukosio

non converrebbe a livello di consumi + costo del phi credo

Joshua Micheletti

ma non ho capito: il processore è formato da processore (che va nel socket suo) + coprocessore pcie?

Maksymilian Zdrojkowski

Mi hai preceduto col commento... Peccato!

Maksymilian Zdrojkowski

Eppure la touchwiz laggherebbe anche con questo

NaXter24R

I problemi sono i crash adesso, non la fluidità. Non richiede troppa potenza per girare

zak™

Amazon

Alì Shan

Dove hai trovato questi prezzi?

Ruben Fasola

il CryEngine è tutt'ora imbattuto sotto quel punto di vista, watch dogs è ariivato pari per quanto riguarda i liquidi,

chojin999

La redazione dovrebbe bandirti e bloccarti l'account per quello che scrivi.

lean

Tutto ciò per minare bitcoin?

zak™

Top di gamma che supera i 12'000€

Ivan Clemente Cabrera

hahah lo ha scritto anche qui...gli algoritmi lol....
1 tu hai insultato scrivendo ilarita', non ti stavo manco scrivendo
2 il ragazzino ha 32 anni (7 dei quali di lavoro in IT)
3 gli algoritmi dei vari campi applicativi puo' impressionare tua mamma che di informatica non sa nulla...COSA STAI PROVANDO A DIRE E COSA CENTRA COL DISCORSO?
4 io 4 o 5 certificati li ho...tu cosa hai?
5 elenca i termini che ho messo a caso e spiega perche'

Dai cosi stasera ti tocca fare un po' di ricerche su google e impari qualcosa

Maurizio Mugelli

vero, ho "scalato" un livello in tabella :)

Sii grazie a questo potrò giocare a prato fiorito! :D

Giorgio

perfetto per giocarci a flappybird

Aldo Cammara

Ok!!! Il mio prossimo SMARTPHONE!!!! Ho capito bene, vero? LOL

Gianluca Olla

Se ci gira la nanotuta ne voglio due! XD ahaahah

Alessandro

no su gestione di application server ad esempio. Oppure per virtualizzazioni

Gian 930

Penso che con questo ci fai girare la Nanotuta, altro che Crisys
(dubito fortemente tu ti stia riferendo al crysis di cui parlo, ma me l'hai servita su un piatto d'argento ahahah)

Alì Shan

Quello che hai citato si riferisce alla generazione attuale, come già ho scritto più volte in questi commenti, con la prossima generazione sarà disponibile una versione per socket indipendente

Alì Shan

Non sono d'accordo in alcuni punti
La differenza tra le quadro e le tesla sono l'output video è i driver professionali che le ququadro hanno. Le quadro non sono più adatte al rendering di quanto non siano le tesla (paragonando gpu con un numero simile di cuda core)
Questi nuovi xeon phi saranno disponibili anche in versione socket indipendente, quindi non hanno bisogno necessariamente di uno xeon

Alì Shan

Il 7120 è knights corner, quello di cui si parla adesso è il knights landing mentre knights Hill è il suo successore di cui non si sa ancora niente

Ivan Clemente Cabrera

ma chi ti insulta hai fatto tutto tu!

Ivan Clemente Cabrera

truffa mondiale? Ma cosa centra?? Marketing? ma tu sei fuori con un melone lo capisci o no che stai paragonando forchette e cucchiai? il supercomputer piu' potente del mondo secondo te monta 5000 schede video perche' si son fatti impressionare dall'etichetta?? ma poi che centra il discorso del gomblotto quando si parlava di tecnica? ...invece dellrare dammi i dati quanti mhash al secondo fai con sti aggeggi e quanti con un tegra da HPC ma sopratutto algoritmi??? ROFTL ma perche' butti parole a caso? Ma sai cosa e' un algoritmo? Confondi algoritmi con calcoli e vuoi fare il sapientone? MA ROFTLLLL!! hahahaha

Alì Shan

Il top di gamma attuale lo vendono a meno di 4000 €, ma ci sono versioni molto più economiche che hanno poco da invidiare. Non ho mai letto niente sui prezzi della nuova generazione, ma se resteranno in linea con quelli attuali si possono definire onesti

Gio01

ma xke nn di + csì sn pokissimi LoL LaL Xd ASd hihihihihhihihihihiihihihihi

chojin999

Il bello è che tu mi insulti e la redazione mi impedisce di risponderti. Che bello eh?
Evviva i ragazzini arroganti ignoranti.

chojin999

Sei tu che non sai cosa parli e non capisci evidentemente.
Guardati allo specchio e pensa alle figure che fai tu.
A parte che i bitcoin e tutto il mining sono una truffa mondiale con dietro loschissime operazioni bancarie messe in piedi dagli stessi banchieri che hanno causato la crisi economica mondiale e si erano prima inventato l'altra bolla della new economy...
Tu ignori totalmente il funzionamento degli algoritmi in generale dalle tue arroganti e puerili risposte. Figurarsi se riesci a comprendere quello che viene spiegato nell'articolo.
Tanto è che continui a pensare che le GPU siano chissà che magia.
Potere del marketing su certe persone.

Luca Lindholm

Infatti la domanda dovrebbe essere: ci gira Battlefield 4 in modo fluido?

E non sono ironico.

Luca Lindholm

Tutto molto bello (sulla carta, poi bisogna vedere ...), ma qual è il prezzo?

Patatoso Morbidoso!!

Wow!!! Paroloni stramega divertenti amico!!

Nesta

Ancora non capite, sarà nel futuro iFogn, tutti aiuti in più per i bimbiminkia che potranno sfruttarne appieno le potenzialità per usare fèisbuc e uazzapp, spendendo 1000€ e sentendosi fighi!

Ivan Clemente Cabrera

marketing? Sai cosa e' un compute core? TU? sono finti secondo te? ma sei uscito da un cartone animato? perche' una gpu dovrebbe essere un supercomputer cosa centra un core di una cpu con un comput core? Ma sei ritardat0?
Secondo che caspio centrano le gpu di casa con quelle per HCP dedicate al suer computing?
Questo e' un cartone animato...

Ivan Clemente Cabrera

e quindi? cosa centra? questo articolo parla di acqua calda... cosa centra con il data mining?

Patatoso Morbidoso!!

Paroloni intelligente morbidoso amico!!

Gianluca Olla

Ci gira Crisys?

Zero FdD

non posso, o butterei all'aria gli ultimi 10 anni di studi che la prof Balzotti ha raccolto su di me

Fanatic17

Si ma il processore A9 non sarà altro che un 8086 LOL :D

Ratchet

Ci girerà GTA 5?

sgru

Cambialo.

Fabrizio Bocci

la cosa più interessante è che non si capisce dove finisce la persona reale e comincia il personaggio...roba pirandelliana

Gianmarco

Anto.b93

dalla regia mi dicono che la touchwiz laggherebbe comunque

chojin999

h t t p : / / w w w . e e c s . b e rk e le y . e d u / ~sangjin/2013/02/12/CPU-GPU-comparison.html

"Posted on Feb 12, 2013

On Fair Comparison between CPU and GPU

[...]

How to Make Fair Comparisons

It is pretty much easy to find papers claiming that “our GPU implementation shows an orders of magnitude speedup over CPU”.
But they often make a comparison between a highly optimized GPU implementation and an unoptimized, single-core CPU implementation. Perhaps one can simply see our paper as one of them. But trust me. It is not what it seems like.

Actually I am a huge fan of the ISCA 2010 paper,
“Debunking the 100X GPU vs. CPU Myth”,
and it was indeed a kind of guideline for our work to not repeat common mistakes. Some quick takeaways from the paper are:

100-1000x speedups are illusions. The authors found that the gap between a single GPU and a single multi-core CPU narrows
down to 2.5x on average, after applying extensive optimization
for both CPU and GPU implementations.

The expected speedup is highly variable depending on workloads.

For optimal performance, an implementation must fully exploit opportunities provided by the underlying hardware. Many research papers tend to do this for their GPU implementations, but not much for the CPU implementations.

In summary, for a fair comparison between GPU and CPU performance for a specific application, you must ensure to optimize your CPU implementation to the reasonably acceptable level. You should parallelize your algorithm to run across multiple CPU cores. The memory access should be cache-friendly
as much as possible. Your code should not confuse the branch predictor. SIMD operations, such as SSE, are crucial to exploit the instruction-level parallelism.

(In my personal opinion, CPU code optimization seems to take significantly more efforts than GPU code optimization at least for embarrassingly parallel algorithms, but anyways, not very relevant for this article.)

Of course there are some obvious, critical mistakes made by many papers, not addressed in detail in the above paper. Let me call these three deadly sins.

Sometimes not all parts of algorithms are completely offloadable to the GPU, leaving some non-parallelizable tasks for the CPU. Some papers only report the GPU kernel time, even if the CPU runtime cannot be completely hidden with overlapping, due to dependency.

More often, many papers assume that the input data is already on the GPU memory, and do not copy the output data back to the host memory.
In reality, data transfer between host and GPU memory takes significant time, often more than the kernel run time itself depending on the computational intensity of the algorithm.

Often it is assumed that you always have large data for enough parallelism for full utilization of GPU. In some online applications,
such as network applications as in our paper, it is not always true.

While it is not directly related to GPU, the paper
“Twelve ways to fool the masses when giving performance results on parallel computers”
provides another interesting food for thought, in the general context of parallel computing."

chojin999

"4000 core delle architetture gpu" -- ????
Non lo sai evidentemente che è il marketing a blaterare di 4000 "core" sulle GPU...
Non sono mica veri core. Se lo fossero le GPU sarebbero dei supercomputer. E non lo sono.
Se pensi che Xeon Phi sia inferiore alle GPU AMD e Nvidia non hai la più pallida idea di cosa stai parlando.

Alì Shan

Un megaprocessore, non può gestire output grafico

Alì Shan

Quello della foto è la vecchia versione, quello nuovo sarà disponibile sia in versione socket sia come coprocessore pci. Ovviamente solo nellla versione per socket si potranno installare i 384 gb aggiuntivi

Gianmarco

Presto nel Note 5 o nuova variante S6

Sagitt

calcoli paralleli, magari si dispone che tali app usano tutta quella potenza invece che la cpu base che serve a far girare il sistema e gestire appunto questi software che usano il co-processore. è detto alla brutta, ma per rendere l'idea

La (mia) postazione da Creator: dal Desktop MSI al Monitor 5K Prestige

Recensione Mac Mini Apple Silicon M1, ho QUASI sostituito il mio desktop da 2K euro

Recensione HONOR Router 3: il miglior Router Wi-Fi 6 qualità/prezzo

Apple Silicon è il futuro di Apple: da desktop a smartphone, andata e ritorno