
28 Ottobre 2020
Dopo gli ultimi dettagli relativi alle possibili frequenze di clock della GPU AMD Navi 21 XT, dalla rete arrivano oggi interessanti indicrezioni sui parametri TGP (Total Graphic Power) e TBP (Total Board Power) delle Radeon RX 6000. Dati che smentiscono, almeno in parte, quanto ipotizzato finora da molti sulle prossime schede grafiche dell'azienda di Sunnyvale.
Le nuove indiscrezioni arrivano dall'ormai noto Igor'sLAB che pubblica informazioni dettagliate sul TBP del modello di punta AMD basato sulla potente GPU Navi 21 XT. Secondo quanto riportato, questo valore sarà di 320W e non di 255W come ipotizzato in precedenza.
Stando a quanto argomenta Igor'sLAB, l'equivoco sarebbe nato dal diverso significato che NVIDIA e AMD danno al parametro TGP: nel caso di NVIDIA indica il consumo di tutta la scheda, per AMD invece solo quello del socket GPU, ossia GFX, SOC e VDDCI. Il valore di 255W che circolava fino ad ora, quindi, rappresenta solo il dato relativo al socket GPU e in particolare quello delle varianti dei partner AMD (vedi modelli custom).
La versione reference di AMD avrebbe un GPU Socket Power di 235W (o TGP per AMD) con un TBP (Total Board Power) che arriva invece a ben 320W; per i modelli custom quest'ultimo sarebbe invece spinto sino a 355W. Parliamo di valori simili a quelli visti per GeForce RTX 3090 e GeForce RTX 3080, anche se, come discusso in altre occasioni, le varianti custom delle NVIDIA GeForce RTX 30 possono arrivare anche a 450-480W.
Nel report viene confermato un reparto memorie con chip GDDR6 da 16 Gbps, mentre non mancano ulteriori informazioni su Navi 21 XL, la variante di fascia più bassa che viene accreditata di un TBP di 290W. Ricordiamo che AMD presenterà le nuove Radeon RX 6000 Series il 28 di ottobre, le prime schede grafiche ad utilizzare l'architettura RDNA2 su nodo produttivo a 7nm.
Commenti
io in casa e in studio ho quasi SOLO roba AMD, pollastro...
appena cresci un attimo torna pure da me in ginocchio sui ceci.
Ok, fanboy a tempo pieno.
sí ok, addio trollino del lunedì.
RTX introvabile e DLSS che è un contrasto aumentato. Ma ti pagano almeno per essere così nvidia fanboy?
gli amministratori dovrebbero ribannarlo dato che il comportamento è il medesimo.
ariconfermato, psichiatria, stanza fanboy.
commentare prodotti mai annunciati
vivere di rumor
performance rdna2 ancora sconosciute
10 metri a destra, secondo piano, reparto psichiatria
il bannato herbrecht von C0glionen alla riscossa
Ok, allora correggo: La scheda grafica della console ha il miglior rapporto prestazioni/prezzo. Cosi ti và bene?
ah quindi esistono le RTX3080? sono come il covid, c'è, ma non si vede...
in realtà no, hanno dovuto abbassare le specifiche per riuscire a produrre a 10nm con volumi decenti, e soprattutto... Cosa fanno a 10nm? 3 cpu ULV e basta.
Xeon non ancora disponibili, HEDT e desktop ne parliamo forse tra un anno, portatili "H" manco la foto...
il 90% della produzione di intel è ancora a 14nm.
Beh, i 10nm di Intel hanno una densità reale che è in linea con gli 8nm che ha appena iniziato ad usare Nvidia e poco inferiore ai 7nm che usa AMD eh...
Hanno alzato un polverone, di fretta e anche sbagliando mi sono liberato della mia 1070 ti, il mercato dell’usato è nervosamente bloccato e dire che devo anche lavorarci con i CUDA core...pagliacci davvero
Ma no...sono i tre sample che presenteranno e venderanno e che acquisteranno i nostri amati beta tester a pagamento ''inverso'', poi in primavera con i grandi numeri vedremo finalmente quelle delle due consumerà di più....
Avevo un 850 Gold nel 2010, per un periodo avevo due schede video Fermi accese insieme, una 400 e una 500, penso che potresti alimentarci due 3090 senza problemi se è di qualità.
La sua fonte è un sito o un canale youtube bannato ovunque e il sommo pozzo senza fondo di supercazzole, lucusta.
E dalle con sti Teraflops che non sapete neanche cosa significano
La 2080 super caga in testa alla 5700xt, nonostante la differenza di "GFLOPS" sia molto piccola.
I gflops tra architetture diverse contano fino ad un certo punto.
Inoltre, la memoria delle console è condivisa con la CPU, mentre quella delle GPU ovviamente no.
Infine, la 2080s sarebbe "la punta di diamante della concorrenza"? LOL
La GPU AMD Navi situata all'interno della nuova console di Microsoft ha 12 teraflop e ha 52 unità di calcolo con clock a 1.825 GHz e 16GB di memoria GDDR6. Ha una larghezza di banda della memoria piuttosto insolita, con 10 GB del suo pool di memoria da 16 GB in grado di fornire fino a 560 GB/s, mentre i restanti 6 GB offrono fino a 336 GB/s. Il top di gamma di AMD, ovvero RX 5700 XT, ha 40 unità di calcolo con clock a 1.605 GHz e solo 8 GB di memoria GDDR6, offrendo una larghezza di banda di memoria di 448 GB/s, mentre la punta di diamante della concorrenza, ovvero NVIDIA RTX 2080 Super ha una velocità di clock di memoria superiore di 15,5 Gbps e spinge fino a 496 GB/s con 1 0.07 TFLOPs.
e comunque nemmeno le 5700/xt consumavano meno delle controparti nvidia a pari performance.
Uno può anche sperare che Davide batta Golia, ma se parliamo ancora di un caso mitologico ambientato dai 2 ai 3000 anni fa, forse non è una cosa che accada così spesso...
Ma come, Herbrecht von c o g l i o n e n e le sue affidabilissime fonti non ci aveva assicurato che sarebbero state GPU da 250W, infinitamente più efficienti di ampere e che avrebbero fatto anche il caffè?
Oh che sorpresa...
850 tieni tranquillamente un 10900k e una 3090 eh...
ahahah
l'equivalente
Certo
Dipende da che modello hai
Non solo se è certificato 80 plus gold
Ma che scherzi? Ci stai si con un 850
ho un 850w e con la 3080 sto largo
Sorpasso de che, delle vendite?
Il gap non fa altro che allargarsi e tu parli di sorpasso? Nvidia non è Intel.
Di queste due proposizioni, la 1 è più probabile della 2.
1) Nvidia ottiene il de facto monopolio di più mercati grazie ad ARM e alla superiorità delle sue soluzioni Deep Learning
2) AMD sorpassa Nvidia nel market share GPU
anche io spero che AMD possa arrivare a livelli di nvidia, non sono fanboy di una o dell'altra, a me interessa avere un buon prodotto a prezzi umani.
Con le 20xx nvidia sapeva di avere un vantaggio enorme e ha fatto il prezzo, sparando altissimo, forse adesso si sono accorti che AMD non è così distante e hanno tenuto il prezzo più basso per non perdere grosse fette di mercato.
Io penso che l'8K sarà molto lontano in gaming, alla fine già il 4K è poco diffuso.
Penso che il futuro del gaming non sia tanto l'8K ma RT,elevato numero di frame,velocità di caricamento, non tanto l'aumento di risoluzione
io ho un EVGA G2 da 550W e regge una 1080TI, con una 3070 dovrei stare ancora bene, figurati tu
Basta e avanza...
Un'altro Connor o l'originale?
Ho cambiato nel PC alimentatore dopo 12 anni , andando su un 850 plus gold, speriamo basti per le nuove GPU, inizio ad aver dubbi... mortacci loro..
Ti lovvo.
Non importa chi c'è l'ha più lungo tra Nvidia e AMD, l'importate è che siano vicine nelle prestazioni tanto da creare concorrenza e tenere bassi i prezzi-
Lo stesso dicasi per le cpu tra Intel e AMD. E se Intel cominciasse a fare schede grafiche valide sarebbe ancora meglio.
Spaccando tutto?
Ma se ha fatto il lancio peggiore degli ultimi anni con schede che
- non si trovano
- sono tirate talmente tanto da crashare se ci si fa un minimo di overclock
- probabilmente usciranno col doppio della memoria fra poche settimane
Se ci aggiungi che già si parla della nuova architettura Hopper (pare addirittura per l'anno prossimo, quindi facendo durare Ampere appena un anno) non mi sembra così invincibile come la volete far passare
Beh, su questo punto non mi trovi d'accordo.
Spero sempre che David batti Golìa, questo è il mio senso.
Ribaadisco, se nVidia è arrivata dove è arrivata nel settore business, è perché ha guadagnato molto da quello commerciale e che gli ha permesso di poter investire in R&D, non è che ci sia arrivata d'amblé.
Se Amd non gli resterà sempre attaccata e perderà il treno, accadrà la stessissima cosa accaduta con Intel, che ha dormito sugli allori e con PP rimasto indietro, coi risutati sotto gli occhi di tutti.
E' per questo che ho sempre tifato Amd, anche perchè lato Gpu/sistemi professionali, nVidia non ne ha bisogno.
Proprio come affermi te, hanno già quasi l'intero settore professionale, quindi sono a posto.
Gli affari Nvidia li farà con le 3070 e le altre schede a scendere di categoria, non a salire. Le 3080 sono schede di nicchia considerando il loro prezzo.
Connor ricorda le pastiglie
E' una mera esposizione di muscoli. Un po' come una gara di body-building, non è che poi tutti i giorni vai in giro coi muscoli pompati ed oleati.
Una RTX 3090 dal prezzo proibitivo servirà solo a quello.
Quelle che farà il loro core-business, saranno le RTX 3070 e 3080.
Anche sotto il profilo Performances/Watts ove dovranno dire la loro e presentarsi bene.
Anche per me, il solo viaggiare un 5/10% più veloce in fps a fronte di consumi proibitivi, lascia il tempo che trova.
Perchè Intel ha fatto ca**are come azienda non innovando l'architettura e dormendo sugli allori e con un ritardo mostruoso nel processo produttivo, ecco perchè.
NVIDIA ha corso come un treno tutti questi anni aumentando a dismisura il vantaggio su tutti gli altri, tant'è che ha iniziato a rosicchiare quote di mercato anche alle CPU (esatto, se devo fare riconoscimento delle immagini, per dire, non mi serve più comprare un server con 12 processori, uso 2 processori e 4 GPU, e quelle sono di NVIDIA nel 96% dei casi perchè al momento la concorrenza quasi non esiste).
E continua a correre come un treno, negli ultimi anni ha messo l'acceleratore, comprando ARM, espandendosi sempre di più in ambito enterprise, tirando fuori DLSS e non solo lato gaming, ecc.
E, non ultimo, NVIDIA solo con le GPU/acceleratori server fa il doppio di quello che fattura AMD con GPU e CPU, e spende il doppio in R&D di quello che spende AMD per GPU e CPU.
Veramente dovreste smettere di pensare ad AMD come questo posto magico dove l'inventiva e il cuore d'oro fanno fare i miracoli, mentre gli altri cattivi dormono e vengono alla fine sconfitti dall'eroe.
Non ha proprio senso come cosa, sono fantasie.
Che poi sembra che io stia dicendo che non recupererà mai. Non sto dicendo che non potrà recuperare in futuro, sto dicendo che la fai troppo facile.
Ed NVIDIA giustamente se li fa fregare e non gli offre di più per rimanere? Non capisco perchè tutti questi film mentali sinceramente.
Perché è così in quel mondo. Menti rubate fra loro, Apple, Google, Facebook, Twitter, ecc.
Son cose che accadono tutti i giorni.
Motivo: ingaggi superiori. Molti abboccano solo per il fattore pecunia.
Io farei esattamente uguale.
credo che lato prestazioni stavolta siamo simili, il punto (almeno per i miei requisiti) più importante sarà l'efficienza fps/watt. A me poco importa se la 3090 fa +20% ma consumando 500w.
Non riuscirò mai a comprendere perché non si possa verificare per proprietà transitiva, quello che è già accaduto nel mondo Cpu.
3 anni fa, qualcuno di voi avrebbe mai pensato a cosa avrebbe fatto ed arrivato l'architettura Zen?
Perché tutto questo non dovrebbe/potrebbe accadere anche nel campo Gpu?
Sono il 1 ad affermare che nVidia rimane ancora avanti, ma con qualche vantaggio in meno.
Poi, voi tutti sottovalutate le ingenti risorse accumulate da Amd in questi ultimi anni che, le permetteranno d'investire maggiormente sulle Gpu, lato dove son rimasti indietro.
appunto... e che ho detto io?
AMD deve rispondere sul RT e sul DLSS, non sulla potenza pura perchè siamo arrivati al punto in cui una top di gamma è praticamente overkill per il 1440p con RT attivo, la strada è quella ormai, non il raster
se non risponde a modo su RT e DLSS cosa me ne faccio di una GPU AMD? deve costare la metà della controparte Nvidia
Scusa ma RT nel 2020 si è vista a malapena su 2/3 titoli. Poi si son dovuti inventare il DLSS per non far sì che i loro prodotti letteralmente si schienassero.
Solo adesso con RTX 3000 inizieremo a vedere veramente il RT, perché finalmente è arrivata la potenza giusta, finora mancata.
E ormai ci si avvia anche verso l'8K di risoluzione.
Ma perchè dovrebbero andare in AMD? Misteri. E perchè NVIDIA dovrebbe lasciarli andare?