
15 Luglio 2016
Confermando le indiscrezioni circolate nelle scorse settimane, Nvidia ha svelato al GDC la sua nuova punta di diamante, parliamo della nuova GPU top di gamma GP100, basata come ormai ben saprete su architettura Pascal. Sfruttando il nuovo processo produttivo a 16nm FinFET, Pascal è la "fusione" di diversi nuovi elementi, che, secondo il produttore, saranno la sue carte vincente.
Durante l'evento (che si chiude oggi), l'azienda ha presentato la nuova Tesla P100 e il CEO, Jen-Hsun, sottolineando cinque punti forti:
Parlando di numeri, la GP100 è equipaggiata con 3840 CUDA Core, 240 texture units, bus a 4096 bit e fino a 16GB di Memoria HBM2. Il TDP è piuttosto alto, 300 watt, ma di sicuro nella variante "consumer" il produttore adotterà qualche compromesso per abbattere questo valore.
Commenti
inutile con te un discorso non si puo fare
Ancora niente Async Compute HW e solo potenza bruta? Baah...
Allora, come ho detto all'altro ragazzo, la 290 custom, quindi non stock che sta sotto al ghz, passa la 970 in ogni gioco. Anche se le usi entrambe con un OC medio (che da hwbot, non l'utente a caso nei forum), la 290 va di più, e il margine aumenta all'aumentare della risoluzione. Punto primo.
Punto secondo, la doppia precisione è un di più che ad alcuni fa comodo a seconda di quello che fanno. Fino a Kepler, andava anche bene, con Maxwell per aver quel TDP lo hanno eliminato completamente.
Punto terzo, surriscalda DOVE? Nelle reference? Si, vero, guarda il dissipatore ed è un miracolo che non prenda fuoco. Prendi una custom decente e non hai sti problemi. Prendi una Vapor e scalda meno di Nvidia grazie alla Vapor chamber.
Ho una MSI 290x Twin Frozr, non è il top dei dissipatori, ma non son mai andato oltre gli 80°C a 1440p con le ventole al 50/60% circa e dopo ore di gioco. Immagina un dissipatore migliore tipo Sapphire e via.
Nessuno mette n dubbio i consumi ma ricordarsi la potenza, ben superiore su AMD.
Scusami, e allora perchè continuate a dirlo come se fosse cosa certa?
Referece no, una qualsiasi Custom si. Anche se guardo all'OC medio, la 970 è sotto alla 290 in tutti i giochi
con questa domanda hai confermato quanto detto prima, sei t@rdo veramente... ahahahha ci Simo, vai di iPhone cmq, te lo meriti.
beh di ufficiale non si sa niente ancora
Io a parte rumors non sono riuscito a trovare nulla di ufficiale.
hbm2 solo sulla 1080ti, la 1080 e inferiori hanno le gddr5, era uscito sul blog un articolo
stiamo parlando di una scheda a cui serve un dissipatore enorme e 3 ventole per star fresca evidentemente
vatti a vedere i consumi massimi della scheda nei bench va
non serve ad una mazza la doppia precisione nei giochi, e son ben pochi i giochi in cui la 290 va piu della 970 (che ne ricordi forse un paio) anche perchè la 290 ha problemi di calore sul 90% delle schede. Poi nessuna sta parlando di schede del 2013 ma parlavo della 970 del 2014
prendi una 970 e una 390, a parità di dissipatore chi scalda di piu?
No anzi... Mi viene da ridere leggendo i tuoi commenti, hai mai pensato di fare il clown al circo?
Quindi questa tabella non ha nulla a che vedere con le schede GeForce, giusto?
Si, certo, la 290 più veloce della 970..........
Anche io ho avuto sempre saphire e sono veramente fredde al 100% di loda non si alza neanche la velocità della ventola e arriva si è no a 60
Bene, sto evitando di prendere la GTX 980ti per vedere cosa succede con l'introduzione dei primi Pascal. O scende di brutto la prima o compro il secondo...
400? 700? 1000W come minimo! Ho dovuto chiedere all'enel una linea AT solo per il PC.
Smettila di dire str*****
Maledetta ironia, non so più come si scrive! Comunque opterò per la lamborghini mi sa
Da possessore di una Sapphire 390 non posso darti che TORTO. In precedenza ho avuto una Gigabyte G1 390 che scaldava moolto, spesso in full stava sui 85-90°C, improponiblile. Restituita e presa l'attuale Sapphire, mai sopra i 70°. Di che stiamo parlando scusa?
No, vanno bene, ma dipende quel che devi farci. C'è gente che sta ancora con le 580 per dire, perchè in determinati ambiti va meglio
Pascal verrà utilizzata su tutte le GPU Nvidia in uscita quest'anno, il chip GP100 invece solo su queste GPU per ambito professionale e quasi sicuramente anche sulla prossima Titan
Quantum break gira a 60 frames? ;-)))
Con la prima Titan, almeno secondo me, un po' ci avevano creduto nel vendere una scheda a metà fra GeForce e Quadro/Tesla, a un prezzo interessante. Infatti aveva spopolato, soprattutto fra chi faceva render 3D con iRay e/o Octane.
Successivamente hanno visto che anche il gamer era disposto a spendere mille e passa euro per una scheda video sfornando la X, quindi punteranno completamente al gaming e alle prestazioni in 4k secondo me ...
E' un peccato perché la Titan era veramente un'ottima soluzione per workstation di tutto rispetto, che poi alla fine non è che vadano così male neanche la 980 Ti e la Titan X se andiamo a vedere i test.
ultimamente non ho seguito molto le news ma a parte il super calcolatore da 128.000$, questa architettura Pascal che altre destinazioni d'uso avrà? Trovo spropositato l'aumento di potenza rispetto alle "vecchie" tecnologie consumer...
Su Guru3D riporta come grandezza della GPU 600mm^2
Questa va forte in DP, ma si sapeva già, Jensen lo aveva detto al tempo.
Più che altro, con la doppia precisione, hai anche un piccolo problema chiamato consumi, e di conseguenza calore.
Speriamo che almeno per la Titan lascino il calcolo a doppia precisione, come con la prima serie, ma vedendo la X ho i miei dubbi.
Le HBM2 le avranno la ti e la Titan, fine. la 80 e la 70 o iferiori hanno le GDDRX. Non serve tutta quella banda su quelle schede
Se ne parla anche in alcune notizie su questo blog, ma per il momento sono solo rumors, dove davano la prossima Titan con le HBM2 mentre le altre con le GDDR5X (e probabilmente le GDDR5 per quelle di fascia bassa penso)
Questa sul mercato consumer ve la scordare. Non tireranno mai fuori una scheda da 300w di TDP. Castrano la doppia precisione, non alla Maxwell, ma qualcosa tipo 780ti e Titan Black. Contieni un po i consumi e ad giocatore medio non cambia nulla. Peccato per il professionista che dovrà vendere la sor3lla
Ma realmente stai paragonando una 290/290x del 2013 ad una scheda del 2016? E comunque, se la vuoi vedere tutta, la 290 batte la 970 consumando di più, ma al tempo stesso ha più potenza ed in doppia precisione è 1/8 contro 1/32. Hai altro da blaterare o ci fermiamo qui?
Perchè la Titan X è fredda come il ghiaccio vero? Ah no, dimenticavo, GPU Boost la ferma a 85°C
Da questa no, è solo NV-link. Mi trovi qualche fonte che parla delle HBM2 sulle 1080 o come si chiameranno? Io non ho trovato nulla.
si parla di calore, non della fascia di appartenenza... ma sei t@rdo o ci provi e basta???
per la cronoca, ho una 970.
queste son schede top gamma, le amd di cui parlo no (e nei test andavano oltre pure i 400w)
le consumer top hanno le hdbm2 mentre il pci-e è supportato f5
si parla della Pascal da 300W e qualcuno ha detto che ci si cuoceranno le bistecche, sei scappato fuori con "mica scalda come AMD" rileggi le tue str@nzate piuttosto .... ciao.
Il chip potrà essere lo stesso (anche se ho letto in giro che qualcuno suggerisce di no), ma la scheda no, assolutamente. Tanto per dirne una dovrà usare PCI-E invece di NV-Link, e non è per niente detto che le versioni consumer abbiamo memorie HBM2.
seriamente non ci arrivi e ti servono delle spiegazioni?
e quindi?
peccato che la 390 di amd faccia 300w di tdp contro i 170w di tdp della diretta concorrente :D
300 watt sono tanti, sia per nVidia che AMD, o i 300 W di nVidia scaldano meno? LOL
il codice è GP100 ergo sarà la stessa montata sulla ti e la titan
come grandezza è un po maggiore rispetto alle vecchie eh xD
infatti la serie 390/x è un ottimo esempio di efficienza/temperature a differenza di maxwell / ironic off
Chiarissimo, ho letto anche della presentazione di quellaffare da 130 mila dollari che la dovrebbe montare.
Detto questo.. Di nuovo, posso dire quanto ca770 è piccola? O quellaffare al centro con scritto invida è grande 20cm per 20cm, le viti sono da 12 e anche l'immagine è fuorviante?
Non la puoi confrontare con le schede grafiche consumer "normali", è roba da supercomputer, neanche sfrutta il PCI-E tanto per capirci.
Ti auguro un iPhone, dopo anni ancora spari putt@n@te sul blog...