Radeon RX 6800 batte RTX 3070 in 3DMark. Nuovi dettagli su ray-tracing e SS

02 Novembre 2020 187

Dopo l'interesse suscitato dal lancio delle Radeon RX 6000, siamo tutti in attesa di toccare con mano le prestazioni delle nuove schede grafiche AMD, attese sul mercato per il 18 di novembre, fatta eccezione per la top di gamma - Radeon RX 6900 XT - che arriverà invece l'8 dicembre. Come già discusso nel nostro precedente articolo, l'azienda di Sunyvale per il momento non si è soffermata sull'argomento ray-tracing e, anche nei recenti benchmark delle Radeon RX 6000 pubblicati sul proprio sito, non ha fornito particolari dettagli relativi alle prestazioni.


Le prime indicazioni sulle possibili prestazioni delle nuove schede AMD arrivano da un editore di Uniko'S Hardware che, attraverso il proprio profilo Twitter, ha svelato alcuni benchmark di quella che sembra a tutti gli effetti la Radeon RX 6800 "liscia". I test si riferiscono al 3DMark Time Spy (Performance Mode) e a Shadow of the Tomb Raider, provato con ray-tracing abilitato a risoluzione 1440p e 4 K.

Il tweet fa chiaramente riferimento a una scheda da 250/280W, caratteristica che conferma quindi la versione meno potente delle Radeon RX 6000. La Radeon RX 6800, affiancata a un Ryzen 5 3500X (4,3 GHz), ha fatto segnare un GPU Score di 16.775 nel 3DMark, punteggio notevole se pensiamo che una GeForce RTX 3070 Founders Edtion (Recensione) di attesta a circa 13.600/13.700 punti.

La stessa configurazione fa segnare 80 FPS e 46 FPS su Shadow of the Tomb Raider, rispettivamente a 1440p e 2160p (4K), con Ray Traced Shadows Quality impostato su Alto. Questo risultato batte in linea di massima quello di una GeForce RTX 3070 o GeForce RTX 2080 Ti, a patto però che non si utilizzi il DLSS; abilitando il Deep Learning Super Sampling infatti, le schede NVIDIA offrono prestazioni superiori, soprattutto quando si parla di risoluzione 4K.

E' evidente che AMD ha bisogno subito della la sua alternativa al DLSS di NVIDIA, sappiamo che ci sta lavorando e anche i vertici AMD ci tengono a rassicurare gli utenti. Nelle ultime ore infatti, un tweet di Frank Azor, Chief Gaming Architect di AMD, ha chiarito definitivamente che maggiori dettagli sul ray-tracing - nonchè l'implementazione di una nuova metodologia di SuperSampling - saranno divulgate entro la data di effettiva disponibilità delle Radeon RX 6800.

Ricordiamo nuovamente che le Radeon RX 6800 debutteranno ufficialmente sul mercato il 18 di novembre: Radeon RX 6800 XT con un prezzo di listino di 649 dollari, Radeon RX 6800 a 579 dollari (tasse escluse).

L'android più piccolo e potente? Samsung Galaxy S23, in offerta oggi da Phoneshock a 603 euro oppure da Amazon Marketplace a 648 euro.

187

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Diego Bloom

Per uno come me che fa una build ogni 5 anni conviene aspettare RDN3 e Ryzen 6000. Questo mi sembra un passaggio alla next gen, c'è una marea di motivi economici e tecnici per aspettare. Il più importante è proprio il ray tracing ancora in evoluzione considerando che queste GPU faticano in 4k 60fps con ray trading con vecchi giochi e soprattutto AMD è in piena rincorsa.

B!G Ph4Rm4

Per ora sembra nessuna, il punto è che non ha molto senso prendere un prodotto del genere al day one, visto che potrebbe avere problemi (che infatti ha avuto ma che fortunatamente si sono risolti subito), e sopratutto quando a distanza di poco tempo il competitor mostrerà le sue proposte.

Luke_Friedman

Perché, qual'è stata la fregatura?

Macco26
mdwll

Io ricordo che dopo la presentazione delle schede ne parlai con un amico.

Io avevo completamente snobbato la questione DLSS ed ero rimasto affascinato dal Ray Tracing.

Lui mi disse invece che DLSS era la svolta, da quando ho avuto modo di provarlo non posso che dargli ragione.

Alla fine sono byte in partenza (i modelli negli engine) e byte in arrivo, ci sta che possano succedere cose come questa, la nostra fortuna è proprio il fatto che le macchine funzionano in modo diverso dal nostro cervello

CinoCv

Anche sapendo la motivazione tecnica dietro tutto ciò, il mio piccolo cervello associa questo aumento di prestazioni e ANCHE qualità nello stesso momento ad una sorta di magia incredibile che ci salverà tutti.
Spero che AMD si metta presto in paro in modo da avere più scelta sotto ogni punto di vista, questa per quanto mi riguarda è (per ora) la vera killer feature della nuova gen di GPU

DeeoK

Certamente. Ma prima vanno confermati.

Monakois 94
Monakois 94

I grafici vanno dal +2% al +13% ma in media siamo a +4/6% ma da quanto è stato detto in conferenza "tutto questo prima che gli sviluppatori ci mettano le mani per ottimizzare tutto", quindi in futuro potrebbe aumentare la percentuale.
Detto questo cambiare cpu e scheda madre per il 5% è da pazzi non da gamer.

DeeoK

A me dispiace per i fanboy in generale, tipo te, che dai per verità assolute dati usciti dal reparto marketing.
Se le prestazioni per dollaro saranno superiori, inferiori o quant'altro andrà appurato da test indipendenti, non certo da benchmark sintetici e da slides ufficiali. Soprattutto perché la potenza bruta serve a poco se non hai driver all'altezza e per quella che è la mia esperienza con AMD questo aspetto è sicuramente da appurare.
Stesso dicasi per le disponibilità su cui non hai garanzie.
È quello che i fanboy come te non riescono a capire. Non è una questione di perfezione, ma di capacità cognitive. Gli ultras ne sono generalmente sprovvisti.

Lupo Alberto

Mai affermato di essere perfetto. Ma stai tranquillo che non lo sei nemmeno tu.
Appurato questo, sono contento che tutto ciò che avevo preventivato che sarebbe successo nel mercato PC gaming sta inesorabilmente accadendo, con buona pace di tutti i detrattori, te compreso.
Succede.
E non lo affermo per alimentare il mio ego, non mi interessa. Semplicemente per aprire gli occhi degli appassionati come me.
Mi dispiace per i fanboy verdi.

DeeoK

A volte fa bene qualcuno che metta in luce le tue mancanze, quindi comprendo come possa esserti utile.

Lupo Alberto

Ma tu mi fai bene all'umore.

DeeoK

Visto quel che scrivi quello che ti faccia ridere o meno è irrilevante per chiunque non abbia intenzioni terapeutiche.

Lupo Alberto
B!G Ph4Rm4

Mesh shading e ML non so veramente cosa c'entrino l'uno con l'altro.
I core RT non sono dei core per fare ML all'occorrenza, sono pensati per tutt'altro.
Che supportino o meno gli INT 8 o gli INT 4 idem, vengono usati per fare inferenza ma non sono sempre necessari, dipende dai risultati che ottieni a seconda della precisione. I tensor core sulle RTX (per il DLSS) usano FP16 che è supportato anche su RDNA 1 (e ci mancherebbe) e verosimilmente verrà usato anche per il futuro supersampling tramite rete neurale.

Alessandro

Su ps5 no, stando a vari articoli (googlando ps5 primitive shading) userà primitive shading di rdna1 e non avrà il supporto a 2 istruzioni necessarie per il macchine lerning, xbox invece avrà mesh shading di rdna2 e supporterà tali istruzioni, quindi questo vale anche per gpu dedicate rdna2, le premesse ci sono, in raster vanno forte, hanno unità dedicate per RT, e a questo punto direi anche per ML, vedremo cosa ne verrà fuori dalle review di terze parti

DeeoK

Lol, ma che soffro, al massimo rido nel leggerti.
È interessante che voi fanboy pensiate che automaticamente siano tutti disturbati come voi. Io, ad esempio, ho una 480 Gaming X, quindi delle vostre guerre da ultras me ne frego.

Un giorno forse sarai in grado di intendere e di volere come tutti gli altri e proverai imbarazzo per quello che sei oggi. Oppure resterai un ultras per tutta la vita e continuerai a metterti in ridicolo.

Alessandro

Smentito per quanto riguarda ps5, userà primitive shading di rdna1, e mancherà il supporto alle istruzioni necessarie per il macchine lerning, xbox invece userà mesh shading che integrano tali istruzioni

Alessandro

Si ma se hai già quella cpu non la cambi, non avrebbe alcun senso

Alessandro

Scrivi Nvidia gsync list su Google, se il Monitor scelto è in quella lista hai la Compatibilità garantito con gsync

Alessandro

Ma ci credi davvero alle boiate che dici?

Alessandro

Grazie, la disponibilità è scarsa... Credi che le rx6000 le troverai subito al prezzo suggerito?

Alessandro

Sentita anche io questa cosa, ma in game dubito che cambierà gran che, anche delle 3600mhz cl16 fanno benone il loro dovere, magari perdi 2 fps, ma risparmi un sacco di soldi, soprattutto per chi ne mette 32gb e non 16

Frazzngarth

cosa c'entrano gli Intel? stavi parlando di 5600X vs 3700X

Lupo Alberto
Emiliano Frangella

No.
Gia gli intel spingono molto di più sui frame, in confronto ai ryzen precedenti....si parla anche di 10-15 frame in più .... Se vedi i test in generale.
I nuovi ryzen saranno pari o superiori ....finalmente

DeeoK

No, è che a differenza tua non ho una squadra del cuore.
I fanboy li trovo ridicoli e, di conseguenza, ti trovo ridicolo.

Ciccio

I prezzi non mi entusiasmano, purtroppo siamo in linea con la concorrenza, addio convenienza Amd?

Frazzngarth

non sarà il caso di aspettare le recensioni, magari?

Alexv

Sono due modi diversi di sfruttare l'hardware, uno è il confronto in 4k, l'altro in upscaling.

Alexv

È una cosa che francamente a me non piace, a meno che la tecnologia non diventi indipendente dalla CPU.

Darkat
Norman Tyler

mica ho detto che a destra sono intelligenti o che a sinistra sono gli eletti ... si sostengono l'un l'altro nella loro patetica stupidItà ..."uuuh paiura dei cattivi che ci invadono "..... "uuuhhh paiura della fine del mondo se quel panzone patetico di salvini diventa PdC" ..."uuhhh paiura dei disastri ambientali " .... solo un gioco di "paiure" ...e nonostante questo nessuno raggiunge le vette di quei buffoni grillini

Emiliano Frangella

??
Li hanno presentati il 14-15 ottobre con tanto di specifiche.

I Ryzen 5000 con architettura Zen 3 portano con loro un aumento dell'IPC di circa il 19%, risultando nettamente migliori in ambito gaming rispetto la precedente generazione (in media +26%). Il tangibile incremento delle prestazioni è stato possibile grazie a una rivisitazione del design del chip che ora prevede un Core Complex unificato a 8 core; tale approccio permette a ogni core della CPU di avere accesso ai 32MB di cache L3, abbattendo tra l'altro anche le latenze.

Dea1993

ma ripeto, questo non c'entra con quello che stavo dicendo.
non parlavo di resa visiva, stavo solo dicendo che per forza di cose renderizzare a risoluzione inferiore, pesa molto meno sulla gpu, quindi e' ovvio che vada meglio.
stavo solo dicendo che hanno scritto un'ovvieta'

Lupo Alberto

Ma qual è il motivo di cotanta acredine?
La tua squadra del cuore ha perso malamente la partita?

DeeoK

Che vada parecchio di più te l'ha detto il tuo tr del futuro? E vedo che hai anche dati certi sulle disponibilità.

Maurizio Ambrosi

Esiste la potenza bruta e poi esiste l'evoluzione tecnologica. Bene AMD, ma Nvidia col DLSS ha letteralmente sconvolto il mercato.

DeeoK

Beh, la 6800 per ora non la trovi e basta.

Lupo Alberto

Guarda, alla fine la gente vede solo gli FpS...

"ma io non parlavo di resa visiva, parlavo solo di "numeri"

Vedila in questo modo: io, utente finale, voglio che il mio gioco vada ad una resa grafica ottimale. Se nvidia, piuttosto che che renderizzare tutto il mondo tridimensionale in 4k, riesce ad usare algoritmi più efficenti che ricostruiscono soltanto l'immagine finale (bidimensionale) in maniera molto buona, a me che guardo il risultato finale non cambia nulla. Certo, la scheda amd ha più potenza bruta, ma nvidia gestisce meglio le sue risorse e questo va fatto notare, è un elemento da prendere in considerazione. Poi quando amd presenterà la sua risposta al dlss 2.0 avrà un vantaggio indiscusso in tutti gli ambiti

Bisognerà valutare anche la qualità

Se davvero riuscirà ad offrire prestazioni migiori tanto di cappello

"IA o non IA, ci tengo a far notare che sempre di upscaling si tratta"

Si ma c'è differenza tra un upscaling basilare, qualitativamente scadente, ed uno che si avvicina moltissimo alla qualità originale del prodotto.

Tra l'altro reti neurali per l'upscaling di alta qualità si usano in ambito video da penso un decennio

Si ok va bene, anche il ray tracing è un algoritmo presente nell'industria cinematografica da anni, non è stata nvidia a crearlo, non ho certamente detto che nessuno ci ha mai pensato, semplicemente stiamo valutando nell'ambito "ristretto" del gaming. In questo caso abbiamo una società come nvidia che l'ha impementato prima (sia il ray tracing sia il dlss) ed è giusto riconoscere l'enorme vantaggio che può dare in giochi recenti.

"E anche lì c'è sempre stato lo scontro tra chi diceva che andrebbero
sempre usate e chi le considerava un abominio che crea artefatti appena "

Ogni tecnologia ha i suoi tradeoff. Se, a fronte di poche imperfezioni, il dlss 2.0 offre una qualità di upscaling soddisfacente, direi che i perfezionisti possono anche andare a farsi le seg*e sul 4k nativo, mentre le persone normali si godranno più fps, minor consumo energetico e risultati paragonabili a quelli nativi di una scheda madre più costosa. Direi che il guadagno è decisamente superiore a qualche imperfezione sporadica

Dea1993
work smart >> work hard</blocklquote>
si questo forse e' il paragone migliore
Simo

Anche

remus

Si vabbè anche quelli sono il top, ma il 10700k è una ottima cpu. Non la comprerei mai perchè nata vecchia secondo me, però è tosta.

Diego Paolini

Convinto tu, ma nell'era della pandemia ho visto un'ignoranza totale a destra, negazionisti, minimizzatori, ignoranti che hanno passato l'estate a negare ed ora puntano il dito.... rimpiangono mussolini e gridano alla dittatura per una mascherina, cmq ognuno ha la sua opinione meglio lasciare fuori la politica quando si parla di schede video

Frazzngarth

come fai a saperlo?

Alex Anyone

Magari! E poi se amd va meno di nvidia in rt, prendo una 3080 e non cambio monitor

Recensione Lenovo Legion Go, sfida ROG Ally a viso aperto

Intel Core i9-14900K, la recensione del nuovo top di gamma che vola a 6 GHz

NZXT H5 Flow con Kraken Elite 280, la recensione di una build votata all'eleganza

Recensione Asus ROG Swift PG42UQ, 42 pollici di puro godimento!