AMD Radeon RX 6000 sembrano più lente delle GeForce RTX 30 nel ray-tracing

29 Ottobre 2020 234

Le Radeon RX 6000, annunciate ieri pomeriggio dal CEO AMD Lisa Su, hanno destato molto scalpore e interesse tra il pubblico degli appassionati e degli addetti ai lavori. Possiamo dire che i fan AMD hanno avuto sostanzialmente quello che volevano, ossia una buona alternativa alle GeForce RTX 30 di NVIDIA che da un lato sono validissime, dall'altro però risultano ancora introvabili.

AMD è stata piuttosto chiara: ha trovato una soluzione che, attraverso l'ottimizzazione della Compute Unit, in coppia con memorie GDDR6, l'Infinity Cache integrata e frequenze di clock spinte, permettono di avere prestazioni grafiche di picco al pari del concorrente, in alcuni casi superiori se si utilizzano le funzionalità Smart Access Memory e Rage Mode.

Tutto molto bello, ma il Ray Tracing?


Questa è la domanda che tutti si pongono e si ponevano in realtà già nella fase precedente al lancio. Ieri pomeriggio l'azienda non si è soffermata molto su questo aspetto - benchmark compresi - confermando comunque che le Radeon RX 6000 supportano l'accelerazione hardware del ray tracing.

Al pari delle GeForce RTX 30 che integrano gli RT Core dedicati per il ray-tracing, le Radeon offrono i nuovi Ray Accelerator (RA): ogni Compute Unit della GPU integra un'unità RA, di conseguenza la Radeon RX 6900 XT ne ha 80, la RX 6800 XT passa a 72 RA e la RX 6800 scende a 60 (al pari delle Compute Unit).


AMD ha pubblicato anche i primi dettagli relativi all'architettura RDNA2, analizzandoli bene si può trovare quello che probabilmente è il primo indizio sulla prestazioni pure in ambito ray-tracing delle Radeon RX 6000. Secondo quanto riporta la stessa azienda nelle note, utilizzando il test Procedural Geometry del tool SDK Microsoft DXR, una GPU RDNA 2 (si presume la Radeon RX 6800 XT) riesce a ottenere 471 FPS sfruttando l'accelerazione hardware del ray-tracing.

Dalla rete ovviamente sono giunte subito le repliche relative alle prestazioni offerte dalle GeForce RTX 30 nello stesso test. I primi risultati non sono incoraggianti per AMD; a quanto pare una GeForce RTX 3080 fare segnare 635 FPS, mentre la GeForce RTX 3090 sale a 749 FPS.


Se definitivamente confermati, parliamo di risultati piuttosto penalizzanti per AMD che si ritrova, almeno in questo tipo di test, battuta rispettivamente del 35% e del 59%. Speriamo che quella presa in esame sia realmente la Radeon RX 6800 XT, lasciando margine di miglioramento per la Radeon RX 6900 XT che, facendo due calcoli, in ray-tracing dovrebbe garantire un boost prestazionale del 10% rispetto alla sorella minore (ipotizziamo uno score di circa 523 FPS).

Il miglior Galaxy del 2020? Samsung Galaxy S20 Plus, in offerta oggi da Tecnosell a 665 euro oppure da ePrice a 727 euro.

234

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
soxxoz

Ma si, a questi basta ritarare i colori e tirate fuori una sigla nuovo. E a tutti gli viene duro e verde.

soxxoz

No amico, è che nvidia ha sempre pensato bene di "oliare" gli editori. Daltronde se fai miliardi di fatturato spendere qualcosa per farseli amici ripaga, e lo stiamo vedendo.

soxxoz
soxxoz

Ma intanto i ragazzini si suggestionato. Basta vedere i titoli hdblog, per nvidia fuoco d'artificio. AMD che sorprende tutti, e titoli pacatisssssimi.

soxxoz

I consumi nvidia è dalla presentazione che si è capito sono colpa del processo produttivo Samsung, molto poco raffinato.

Emiliano Frangella

Forse in full HD che diventa 960p e che ti ripeto non rende.
Da almeno il 1440p si deve valutare il dlss2 ...per me

Frazzngarth

in alcuni casi raddoppia il frame rate.

sgru

Stai messo malissimo hehe

Emiliano Frangella

La penso come te

Emiliano Frangella

Lui i fatti fa così.

Emiliano Frangella

Hahahaha
Bei video....ufficiali ...raddoppiare no dai.
Se un gioco fa 60, con dlss farà 80.
Che razza di video vai a vedere??

Il dlss1 fa pena, ma nei video Nvidia migliorava già l'immagine.
Hahaha.

Emiliano Frangella

Dai che ha appena bevuto.

E poi vuole un gioco full HD nel 2020...haha

Emiliano Frangella

Ma no.... è essenziale rtx potente.

Emiliano Frangella

4k a 30 su Watch dogs con rtx attivo
Sulla X

Emiliano Frangella

Dicono che faccia pietà e misericordia..... I sapientoni

Monakois 94
Monakois 94
Kheldar

Ancora con sto video? Se abiliti il FidelityFX su una RTX NON sfrutta l'hardware installato a bordo della scheda, cioè i tensor core. Per forza non vedi differenze. Smettiamola di fare disinformazione.

Pure new wool

Si verissimo! Peccato che nvidia abbia riservato nvlink alla sola 3090

nico

Boh, in 4K se la mia 2080 super fa troppo fatica, io gioco semplicemente senza AA, risparmiando risorse e aggirando la perdita di nitidezza del TAA. Col DLSS avrei FPS più elevati, ma non penso che la qualiità sia migliore, perchè in punti con molti effetti particellari anche il DLSS 2.0 fa veramente schifo.

sgru

si ok ma chi non usa nessuno di questi algoritmi? Praticamente vengono usati da chiunque o le prestazioni scendono drasticamente. Solo chi ha hardware ultra-potente le attiva. Quindi si`, lo comparo con cio` che va comparato ovvero tutti gli altri algoritmi. E` come se mi dicessi: comparami un flusso video non-compresso ad uno compresso con HEVC o AV1, eheh, grazie al ca :)

strano

se fai upscaling ottieni fps extra perche calcoli a risoluzione inferiore.
Se fai quello che ho detto: cioè calcolare a 1440, upscalare a 8k o 4k e mandare a video di nuovo a 1440 non ottieni fps extra, nè perdi fps, ma aumenti la qualità di parecchio.
Oppure potresti calcolare a 1080, upscalare a 4k e mandare a video a 1440 ottenendo qualità migliore del nativo 1440.

Il tutto gratis perche se ne occupano i tensor core.
Tutto ciò non è rivoluzionario? tutti gli altri algoritmi che non siano ML non ci riescono, vedrai che anche amd si darà al ML per fare queste cose. Questo è certo

nico

Così facendo perdi FPS se proprio. La renderizzi in 1440p fai un numero X di FPS, poi la upscali e sicuramente non si moltiplicano

DefinitelyNotBruceWayne

Eh lo so, ma è anche vero che poi se lo sono perso per strada, ma hanno lavorato comunque bene.

strano

hai visto i 3 video che ti ho detto?
Mi fai vedere un video in cui questo fenomenale fidelityfx fa quello che fa il dlss?
non c'è!
Attualmente non esiste alternativa al dlss, in futuro metteranno nel fidelityfx un upscaler basato sul ML, non c'è altro algoritmo che tenga.
Questi sono i fatti chi non lo capisce... fatti suoi

Monakois 94

Non funziona così.
Ti ho chiesto se tra le 2, hai trovato differenze, non ti ho chiesto come lavorano, perché a tutti noi, importa il risultato.
Non hai visto differenze?
Bene, come tutti, quindi direi che il fidelityfx funziona già abbastanza bene così, poi se Amd vorrà fare qualcosa in più via hardware, meglio per noi ma il punto è che ATTUALMENTE qualcosa di simile al Dlss c'è e si trova su molti più giochi AAA,dove serve davvero.

strano

se prendi un immagine a 1440 e la upscali col dlss a 4k o 8k e poi la visualizzi a 1440p ottieni un immagine migliore del nativo 1440, migliorando pure gli fps.
vedi un po' tu se il dlss non è rivoluzionario

nico

Non comparare immagini con TAA. Compara con MSAA o SSAA e il DLSS 1.0 e 2.0 fanno pena. Il TAA diminuisce parecchio la nitidità dell'immagine.

nico

Del nativo, ma non del MSAA x4/8 o del SSAA che partono da una risoluzione più elevata

nico

Esce migliore se confrontata con una fatta con il TAA. Confrontala con una MSAA x4 o addirittura SSAA

Claudio Dalex

si probabilmente non cambia tanto in entrambi i casi, ma era per vedere un altro possibile vantaggio che se ce è cosa buona.. io sono sicuro che se nvidia utilizzava il pp a 7nm TSMC come AMD, a quest ora ampere aveva un efficienza anche migliore di rdna2

strano

Fammi vedere i video che fanno vedere che fidelityFX fa le stesse cose che fa il DLSS nei video che ti ho citato sopra
non li troverai, col DLSS in quel gioco ottieni un immagine meglio del nativo, vedi su yb Death Stranding with NVIDIA DLSS 2.0
Se amd vuole competere con dlss deve fare qualcosa col ML ed accelerare via hw

strano

per le cpu zen avevano Keller
se cerchi 'cpu' sul vocabolario c'è la sua faccia :)

strano

torna nella fogna

strano

tu non ci hai capito nulla, ovviamente non te lo si puo' chiedere

strano

cos'è ti brucia il sed-erino che le nvidia vadano di più nei sw professionali grazie alla potenza bruta e all'accelerazione hw?
cosa ti rode di preciso? descrivilo pure

Andy Beck

Eccola il professorone dei teraflops, mi mancava

Andy Beck
Giovanni Rana

Joined Oct 30, 2020

DefinitelyNotBruceWayne

Nessun problema. Diciamo che AMD al momento campa molto su quanto fatto da MS con DX12. Penso che proveranno a fare quello che hanno sempre fatto per cercare di recuperare terreno: rendere il tutto open, cercando di ottenere maggior supporto.

Detto questo è un'azienda piccolina che deve scontrarsi con Intel e Nvidia. Lato CPU hanno recuperato, lato GPU meno. In ambito professionale poi le loro GPU non mi sembrano particolarmente apprezzate. Tanta VRAM, ma supporto SW molto limitato. Hanno tanto terreno da recuperare, ma un'alternativa a DLSS non dovrebbe essere impossibile da realizzare.

strano

occhio, sul sito amd consiglia un alimentatore di sistema MAGGIORE di quello che consiglia nvidia per le rtx.
Questo mi fa pensare che i consumi non saranno neppure così vantaggiosi, nonostante il pp migliore (e senza tensor core).
Aspettiamo le recensioni e vediamo

strano

il ML è un pò "magia" :)
Però amd deve svegliarsi perché un ritardo del genere diventa difficile da recuperare, ed è molto grave che in queste schede non ci sia accelerazione hw per questo tipo di compiti.
Ciò significa che tra 2 anni con le nuove schede AMD sarà alla prima gen di hw dedicato al DL, mentre nvidia sarà alla 4 con DLSS 3 da lanciare già nel 2021.
Ecco, sotto questo punto di vista le RTX invecchieranno meglio delle amd perché beneficieranno del DLSS 2 e del 3 che in progetto andrà su quasi tutti i giochi senza intervento nello sviluppo.

Scusami per il tono di prima, rileggendo sono stato un po' brusco, non era un attacco personale

DefinitelyNotBruceWayne

Quindi stai dicendo quello che dico io. Detto questo anche il ML non è magia nera. Sono tecniche e soluzioni alla portata di tutti e tutti ci stanno sbattendo il muso :) . La vera novità sta nell'introduzione di HW dedicato.

Claudio Dalex

poi i prezzi saranno da definire, ma in genere lo scenario sarà questo, se AMD mi da una scheda che in raster va uguale e meno in raytracing ma ad un prezzo inferiore allora ci sta, ce anche da contare il fatto che, per come hanno fatto vedere, RDNA2 consuma qualcosa meno, non sarà tantissimo, però è sempre qualcosa, perché l unica pecca di ampere è proprio il consumo allucinante.

strano

neanche lì, perchè la 6800 costa più della 3070 e l'altra costa poco meno della 3080.
la 6900xt a 999€ è una farsa, ridicola rispetto alla 3090 sotto tutti i punti di vista, (potenza bruta, tensor core)

strano

non devi calcolare l'immagine a 4k ma ti basta calcolarla a 1080 oppure a 1440 e poi upscalarla.
calcolare l'immagine a 1080 o 1440 ti permette di calcolare più fps quindi un sottoprodotto del dlss è la produzione di più fps.
Chi non usa techiche di Ml deve calcolarsi l'immagine a risoluzione nativa.
Un altro sottoprodotto del dlss sarà quello di avere una risoluzione migliore del nativo perché si vede che se calcoli l'immagine a 1440p, la upscali a 4k o 8k, e poi la mandi nel monitor a 1440p, ottieni una immagine migliore del 1440p nativo.
Per queste due cose sarà determinante il ML.
Senza contare che con il ML in futuro verrà gestita anche la fisica (con relativo alleggerimento della cpu) e le animazioni dei volti .
avere hw dedicato è fondamentale e tecniche come il dlss saranno sempre più determinanti (e senza alternativa che non sia ML)

Claudio Dalex

Come AMD che non ci ha fatto vedere nulla del raytracing, ed è palese il motivo, se i nuovi giochi che usciranno utilizzeranno sempre di piu effetti DXR, diventerebbe un problema acquistare queste schede, perché sinceramente dopo che spendo 700 o 800 euro di scheda, almeno dovrei maxare in 4k qualsiasi gioco, come succede con la 3080.. gli unici scenari dove AMD puo scamparsela è sul prezzo.

strano

cerca su yb
Fortnite | 4K NVIDIA DLSS Comparison
Enlisted | With NVIDIA DLSS
Death Stranding with NVIDIA DLSS 2.0
non è una killer feature questa? solo perche non la ha la vostra casa di hw preferita?

il dlss 3 sarà applicabile a quasi tutti i giochi ed il RT è il futuro dei giochi!
è il rastering ad essere un trucchetto molto costoso dal punto di vista dello sviluppo! Gli sviluppatori lascieranno questa tecnica appena possibile

DefinitelyNotBruceWayne

Non si creano più fps. Non vengono creati nuovi frame dal nulla. Vengono creati nuovi pixel dal nulla. Quindi hai lo stesso numero di frame, ma una risoluzione maggiore.

L'aumento del framerate è dovuto al fatto che il render viene fatto a risoluzioni più basse, quindi le prestazioni sono migliori.

DefinitelyNotBruceWayne

Ho mai detto che non si userà il DL?

La (mia) postazione da Creator: dal Desktop MSI al Monitor 5K Prestige

Recensione Mac Mini Apple Silicon M1, ho QUASI sostituito il mio desktop da 2K euro

Recensione HONOR Router 3: il miglior Router Wi-Fi 6 qualità/prezzo

Apple Silicon è il futuro di Apple: da desktop a smartphone, andata e ritorno