
18 Settembre 2017
Dopo aver presentato al GTC la prima GPU Volta, Nvidia annuncia di essere a lavoro su una versione PCI-E della potente scheda con GPU GV100. Anche questa volta purtroppo, il prodotto non sarà destinato al mondo consumer, ma ad ambiti come il deep-learning e la ricerca ed analisi, settori che richiedono molta potenza di elaborazione e una buona efficienza energetica.
Nvidia non si è sbilanciata sulla data di lancio o sul prezzo, dichiarando che la scheda arriverà a 2017 inoltrato.
Parlando invece di caratteristiche, il chip GV100 è costruito con processo produttivo TSMC 12nm FFN: 21 miliardi di transistor per una GPU da ben 5120 Cuda Core e una potenza di calcolo pari a 14 TFLOPS (FP 32). A bordo ovviamente troveremo memoria HBM2 (16GB), mentre il TDP dichiarato è di 250 Watt.
Specifiche tecniche Tesla V100 PCI-E:
Commenti
Secondo te con le prime V100 ci si riesce a giocare in 4k nativi su notebook oppure ancora è troppo presto con volta!
Potrebbe essere una soluzione futura senz'altro
Lo so che lo fanno da anni, ma si è anche visto a cosa porta. Penso che vedremo sempre più GPU "modulari" passami il termine, un po come è Ryzen adesso. In questo modo abbatti tantissimo i costi
Infatti gli sm non sono tutti attivi (80 su 82), se c'è qualche difetto che può essere eliminato spegnendo 2 SM ben venga, lo fanno da anni sia Nvidia che AMD...il prezzo a costo + markup è solo 1 dei 4 metodi base per definire il prezzo e nel caso di questo nuovo prodotto fissa il limite minimo...se lo hanno messo così alto non vuol dire necessariamente che hanno grossi scarti...poi si entra in marketing b2b e sviluppo prodotto e i discorsi sono infiniti
Arco VOLTAico e BOOM!
XD
Certo che ce ne vuole...
Ma te speri che i rossi rilascino qualcosa di grandioso per poter comprare a minor costo dai verdi?
Normalmente si compra da chi offre il meglio al minor prezzo...
Boh, siete strani.
XD
Non vedo l'ora che arrivino i derivati consumer. Spero che vega sia abbastanza potente da spingere Nvidia a tirar fuori la next gen a prezzi umani asap.
Sono più di 800mm2, le rese SONO pessime. Le dimensioni del wafer son quelle ed i problemi ci sono sempre. Che sia a 16, 12 o 28nm non cambia, son chip ormai troppo grossi. Al momento se lo possono permettere perchè li vendono a cifre spropositate, ma un domani? E comunque, vedendo cosa fa la concorrenza, io avrei già iniziato un cambiamento, ormai die così grandi sono insostenibili, e la storia lo dimostra
Si che lo sa, lui sa tutto, anche quello che ancora non sa!
E aggiungo... speriamo il CEO di nVidia diventi un assiduo lettore di HDBlog, coi consigli che puo' trovare qui trasformerebbe l'azienda in un colosso mondiale senza rivali... LOL!
Non puoi sapere come sono le rese.
Si sono fatti modificare i 16nm solo per questa scheda in pratica (la N in FFN sta per Nvidia). In più dovranno fornirne a decine di migliaia per i nuovi supercomputer USA. Difficilmente hanno rese pessime, è semplicemente il nodo 16nm che ha raggiunto la maturità che gli permette di farlo.
Non ci siam capiti. Non è lo scopo finale, ma come è stata fatta. Le rese son bassissime su die così grandi.
come scritto nell'articolo ha un senso perchè non è utilizzata come GPU ma come CPU dedicata a calcoli paralleli.
e in questo campo ha molto senso.
In mezza precisone
okkio che fa la fine del note 7
mi spiace, non e' abbastanza potente singolarmente, ma con 3 in parallelo ce la fai
Schede del genere ormai non hanno senso. Non parlo di prestazioni sia chiaro, parlo di GPU realizzate in questo modo, 845mm2. Anche con delle buone rese, i costi sono mostruosi
28TFlops
No va in Crysis
Se ci gira la TouchWiz pre Nougat, senza lag,rallentamenti,ricaricamenti...
...ne prendo 3
Ci gira isis
ci gira tutta la trilogia di crysis e anche quella di the witcher
21 miliardi, non milioni
Hai già vinto :D
Ci gira Crysis?!
Ora voglio i big likes