
21 Giugno 2021
Con il lancio delle Radeon RX 6000 basate su architettura RDNA2, AMD è riuscita a recuperare il gap su NVIDIA per quanto riguarda le prestazioni assolute in ambito gaming. I modelli Radeon RX 6800 ed RX 6900 XT riescono a battagliare con le top d gamma GeForce RTX 30 quando parliamo di prestazioni in raster, discorso diverso invece se ci spostiamo sui titoli che supportano il ray-tracing.
Quando AMD presentò le Radeon RX 6000 a ottobre, ammise di non essere ancora pronta per rispondere al competitor su questo terreno, nettamente avvantaggiato grazie alla sua tecnologia DLSS 2.0 (ne abbiamo parlato QUI). Sappiamo che la risposta di AMD al DLSS di NVIDIA si chiama FidelityFX Super Resolution (o FSR), già in fase di sviluppo dallo scorso autunno ma a quanto pare ancora lontana dall'essere presentata.
A confermare che AMD non è ancora pronta con la tecnologia FSR è Scott Herkelman (CVP e GM presso AMD Radeon) che, in una recente intervista con i colleghi di PCWorld, ne conferma definitivamente il nome e dichiara che la funzionalità è ancora in fase di sviluppo, ma AMD punta a lanciarla quest'anno. Herkelman ha confermato inoltre che l'azienda ha ancora molto lavoro da fare e starebbe valutando la tecnologia effettiva dietro l'algoritmo da utilizzare per l'upscaling.
Nella discussione, AMD afferma inoltre come questo tipo di tecnologia non necessiti per forza del machine learning (c'è da dire che anche qui NVIDIA è avanti), ribadendo che ci sono molti modi per implementare questo tipo di upscaling e in AMD si sta valutando il modo migliore per farlo. Purtroppo il capo delle GPU AMD non ha fornito ulteriori dettagli o indicazioni su una possibile data di lancio per la tecnologia FSR, lasciando quindi intuire che siamo ancora lontani dal vederla applicata ai giochi per PC.
Commenti
L'ho presa a 250€ nel 2017, su eBay va a 450... Ma mi sento in colpa, non vorrei alimentare questo mercato di m3rda
No ma mi è chiaro quello che dici, e sono d'accordo.
Quello che mi lascia perplesso è in ottica futura. In ottica futura il DLSS migliorerà enormemente, su questo ho pochi dubbi perchè le reti neurali in ambito image processing sono incredibili e migliorano di anno in anno a vista d'occhio.
Nei prossimi anni cosa si farà?
Perchè è chiaro che oggi la situazione è questa, ma chi ti dice che fra 5 anni o più non si possa passare dal 1080p al 6k o all'8k? Come fai a stargli dietro a quel punto?
E' chiaro che comunque sia il RISv2 è un tampone, non può essere la via definitiva.
No ma del fatto che con qualsiasi cosa usciranno ci sarà un divariò enorme con dlss non stiamo neanche a parlarne.
È palese che ci sarà.
Quello che dico io è che un miglioramento sostanziale di un RIS sarebbe perfettamente funzionale per il target delle nuove gpu e console, ovvero upscaling da 2k a 4k.
Già il primo ris visto di persona andava bene, chiaro che poi se vai a vedere le comparative con zoom 50X veniva distrutto da dlss. Ma in fondo è l’esperienza quotidiana che conta e non il confronto dei capelli zoomati cinquanta volte.
Chiaro RIS è pieno di limiti, ma sfruttare la stessa metodologia con un software più evoluto potrebbe portare a risultati assolutamente interessanti. Paragonabili a dlls? Ribadisco che penso proprio di no
Ma non basta neanche il 30%, c'era una comparativa che non ritrovo più dove (vado a memoria) mostrava che bisogna almeno raddoppiare le performance attuali. Senza considerare che a livello di qualità sta sotto.
Per il parco titoli non c'è problema perchè il DLSS serve davvero sui AAA, non serve sul giochino che giocano 5k persone che già va a 400 fps.
Una volta che l'hai messo sui cod, battlefield, pubg, fortnite, e i vari action/fantascienza famosi che escono ogni anno hai già accontentato il 90% dell'utenza.
A me non sembra abbiano detto così, e comunque anche fosse che diavolo hanno fatto nell'ultimo anno? Quando si mettono in marcia?
Se il risultato dovesse essere performance un po' migliori e qualità un po' migliore, continuerebbe a non avere senso rispetto al DLSS.
Anche a costo di perdere un po' di compatibilità dovrebbero fare una cosa non dico uguale ma che in qualche misura si avvicina al dlss in quanto a qualità e prestazioni.
Se faranno un qualcosa di seconda scelta allora non servirà a nulla.
Come se poi "open" si traduce in "girerà out-of-the-box anche su mario per nintendo 64 di 30 anni fa così come su ps5 e xbox".
Open non vuol dire lo rilascio e funziona tutto, c'è comunque da implementarle le cose e raramente tutto va liscio come si pensa.
Basti vedere cuda vs opencl-rocm. Tutti avrebbero dovuto usare opencl-rocm perchè open e avrebbero schiacciato la soluzione closed di nvidia e nel 2021 ci ritroviamo che nessuno usa opencl-rocm e a 4 mesi dall'uscita ancora non si capisce se rocm (libreria di AMD eh) gira decentemente delle 6000.
E ho detto tutto.
Imho l'unica cosa fattibile nelle loro tempistiche e con le risorse a disposizione è proprio un RIS V2.
Chiaro, se il risultato che ottengono è un 5% di miglioria non ci siamo, ma se arrivano al 30% già siamo sulla buona strada. Sarebbe una buona soluzione per 2k>4k o 1080>2k, chiaro sarebbe parecchio inferiore nel 1080>4k.
Ma se parliamo di applicazione sulle nuove gpu e console, credo che il target sia appunto un upscaling leggero e di buona qualità proprio nel 2k to 4k. E di questo è ottenibile una versione accettabile in un anno (non che prima già non ci lavorassero).
è palese che al momento una soluzione di questo tipo serve, se poi non è perfetta amen (dlss 2.0 è molto valido ma supporta un parco titoli ancora troppo limitato ad esempio)
E ma il problema non è recuperare solo il 2.0, perchè poi c'è il 3.0, il 4.0 e così via. Essendo il DL applicato alle immagini un campo da esplorare (specialmente quello del supersampling) i miglioramenti anche enormi ci possono essere. Ad esempio da quello che hanno detto usano una rete convoluzionale sostanzialmente, mentre io so che fra i migliori modelli per fare questa roba qui al momento ci sono le GAN, che sembrano offrire risultati veramente impressionanti.
https://uploads.disquscdn.c...
https://arxiv.org/pdf/2003.03808v1.pdf
Cioè ad oggi, per quello che ho potuto vedere, nessuno usa metodi che non siano basati sul DL nelle immagini. Ho dovuto leggere un bel pacco di paper sull'utilizzo di tecniche di manipolazione delle immagini (radiografie, tomografie, ecc) e tutte, ma letteralmente tutte si basavano ormai sul DL, i vecchi metodi di ricostruzione, di upscaling non vengono più usati da nessuno.
Per questo è preoccupante quello che dice AMD, perchè il DL in questo campo è chiaramente il futuro.
Il problema non è solo oggi, il problema magari arriva l'anno prossimo, quando con il DLSS 3.0 (esempio a caso) magari la qualità in 4k la ottieni partendo dal 1080p e non più dal 2k, così invece di raddoppiare, triplichi gli fps. E magari aumenterà ancora di più la fedeltà della riproduzione a schermo, ci saranno sempre più sample su cui allenare la rete che si affinerà sempre di più e migliorerà anche nei più piccoli dettagli.
Secondo me loro DEVONO muoversi e sviluppare al più presto una cosa simile, se fanno il RIS che va il 5% meglio di quello già uscito non vanno da nessuna parte.
Non "recupereranno" mai il divario con dlss 2.0, questo è certo. Ma secondo me l'approccio sarà ben più semplice di dlss, sarà uno modello di upscaling raffinato ma non specifico per ogni gioco.
Sicuramente risultati più modesti ma applicabili su ogni gioco invece di quella manciata per cui è stato rilasciato dlss. Necessario trovare un modello generico soprattutto per le console, perchè ormai bisogna far uscire i giochi che girano in 4k (non che sia d'accordo ma ormai ti stroncano se fai uscire un gioco 1080p)
Anche perchè questa gen di console è capacissima di un 1440p, fa ben più fatica col 4k nativo, ma upscalare un 1440 non è un impresa complessa come upscalare il 1080.
Chiaramente su pc lavorerà anche partendo dal 1080, ma come dicevo con risultati davvero modesti
Scusa tu che ne sai quanto pago la scheda? 805€ una 3080 Zotac con spedizione inclusa, cioè lo stesso prezzo che pagai la mia attuale 1080, non mi sembra strapagare che dici?
Contento tu di strapagare delle schede. Imho comprare oggi é da matti, piuttosto prendo una scheda di qualche generazione fa nell'attesa di poter comprare quelle nuove.
Le amd sono sempre mancate, vedi vaga 64, inesistente, si rx 400/500 ti do ragione, ma area divorate dai miners. E poi il leggerissimo problema orami è diventata na scusa, non è possibile che fabbriche automatizzate no msi riorganizzano aumentando le produzioni. Io non ci credo più.
Ma che stai dicendo?
Tranne per il periodo mining,le gpu si trovavano in abbondanza sopratutto le polaris e a prezzi bassissimi (rx570 €130 ecc...),quindi per piacere non diciamo fesserie.
Attualmente non si trova NULLA neppure le console,proprio perché il mondo intero ha un "leggerissimo" problema.
Scusami, in amd lo shortage è d’obbligo, a parte la pandemia è sempre stato così, una situazione analoga si è avuta nelle precedenti gen.
A scusami io sapevo che la 3070 fosse il successore della 2070/2070s ma evidentemente mi sbagliavo. Direi che hai detto abbastanza ca***te e non c’è bisogno di continuare il discorso. Saluti
Veramente proprio no e per favore non tirare in ballo Control.
Veramente va peggio del RT di prima generazione Nvidia
Capirai,tra la 980 e la gtx 1060 ecc... cambia solo il nome e una 40ina di watt di consumo.
Peró 200 sono troppi,meglio 100-130.
Ti sbagli,lo fanno solo perché non vogliono vendere neanche una gpu.
Era logico dai.
No lo sanno benissimo e che devono rompere le...... perché altrimenti non sanno cosa fare nella loro vita.
Considera che quella "ciofeca di raytracing" é paragonabile con la serie 2000 di Nvidia.
Anche quella era una ciofeca immagino,giusto?
Sono le classiche sparate di marketing buone solo a dare la carica ai vari lucusta e herbert fanboyen che poi vengono qui ad evangelizzare con la loro bibbia.
Mi hanno sfracellato le 0.0 quando dicevo che era irrealistico pensare che potessero sviluppare il DLSS nel giro di un anno, sai com'è la studio sta roba, so bene quanto tempo ci vuole. In particolare nel deep learning ci sono dei tempi che non possono essere accorciati.
Faccio un piccolo riassunto che magari può interessare anche altri:
Prima parti dall'idea di come il sistema dovrebbe funzionare. Poi inizi a provare dei modelli. Quando hai trovato dei buoni candidati inizi a lavorarci, a cambiare configurazione, finchè non ne trovi alcune chiaramente migliori e inizi a raffinarle.
E infine fai il tuning dei parametri per quel particolare modello. Se ti va bene hai finito, se ti accorgi che non vai molto oltre o torni indietro oppure cambi approccio.
Ma tutti questi passi comprendo, oltre allo studio "teorico" e alla parte "creativa", l'allenamento di questi modelli per vedere se funzionano.
Tu considera solo questo: per fare una roba seria (nel senso di production-ready, per usarla come prodotto da mettere sul mercato o da usare in azienda), oltre ad avere un buon modello, ci vuole (da un certo punto di vista è anche più importante) una buona quantità di dati.
Uno dei dataset più usato per il riconoscimento (e non solo) delle immagini è un dataset chiamato ImageNet, che contiene 10-15 milioni di immagini.
Credo che NVIDIA abbia usato dataset comunque molto voluminosi (tra l'altro di immagini ad altissima risoluzione, in 16k), forse non da 10 milioni di immagini, ma comunque parecchie decine, probabilmente centinaia di migliaia di immagini.
Per allenare una buona rete su ImageNet con 8 tesla P100 servono 30 ore.
Il tempo scende a 224 secondi, ma usando 2176 Tesla V100 (esatto, 2176 GPU):
https://nnabla.org/paper/imagenet_in_224sec.pdf
Non è che ogni modello che provi lo testi fino alla fine e non è che ogni test lo fai con tutto il dataset, ma giusto per dare un'idea dei tempi.
Tutto questo senza considerare che i dati che gli dai in pasto devono essere pre-processati, e devi trovare il modo ottimale per farlo per il problema che devi risolvere (spesso sprechi più tempo nel pre-processing dei dati che non nella ricerca del modello).
Come si intuisce è tutta una questione di trial and error, non è che ci metti più ingegneri e il tempo si accorcia, e sopratutto non hai neanche nessuno da cui copiare. Ti devi fare tu il dataset, devi provare i modelli, ecc.
Non sono tempi comprimibili. O le provi le cose e vedi se funzionano o non vai avanti. Sopratutto con le reti neurali dove non c'è alcun paper che ti dice "questo funzionerà meglio invece di quest'altro".
Ecco la spiegazione lunga del perchè, secondo me, chi diceva che in un anno recuperavano tutto non aveva idea di cosa stesse parlando.
AMD addirittura dice "non sappiamo nemmeno cosa useremo".
Vabbe, ciao.
Sarà la solita cosa open raffazzonata alla AMD. Ormai queste cose da parte loro non si contano neanche più. Facevano più bella figura a dire che in futuro avrebbero rimediato con una soluzione hardware e fine. Così sarà una ciofeca come il ray tracing software. Ti ricordi come dicevano che sarebbero riusciti ad eguagliare Nvidia via software? Poi ciofeca galattica e pure la soluzione hardware è scarsissima rispetto alla concorrenza.
Se fanno come Nvidia che diminuisce la risoluzione di textures e ray tracing, no grazie.
Ho letto meglio le notizie.
Al momento neanche sanno quale tecnologia usare, stanno vagliando le possibilità.
Due ipotesi:
1) fanno una cosa seria e ci mettono ben più di qualche mese. Ci vogliono anni, come minimo nel 2022 sarà ancora in beta.
2) fanno una specie di RIS v2 che non è minimamente comparabile al DLSS e la chiudono lì, ma non è per niente una risposta al DLSS.
Ha cambiato il gameplay
E come al solito non sarà minimamente paragonabile
Non cambiando niente :)
Si è vero, però sarà che la mia vista non è più 11/10 ma le immagini mi sembrano perfette.
il dubbio c'è, non a caso ho usato "dovresti avere" xD
Non dico questo, in ogni annata di amd pandemica o no, non si riesce mai a lavorare sulla domanda, vedi vega64 etc... vuole fare un po’ di tutto e poi manca tutto...
con un amico così, come minimo gliela vende bruciata!
Mah, non capisco l'astio, mezzo mondo non riesce a produrre quanto vorrebbe, nemmeno Nvidia, ma pensate che lo facciano apposta a non produrre per non vendere?
Ah boh, io ti ho solo riportato i rumor usciti fino ad ora di insider che hanno preso tutte le specifiche di RDNA 2 circa un anno prima.
io la mia RX570 l'ho rivenduta a circa il 145% di quello che l'ho pagata.
Spiccioli, ma fa comunque piacere rivendere una cosa che hai sfruttato per mesi o anni e guadagnarci pure xD
prima di commentare a sentimento rileggi la mia risposta, il DLSS 2.0 non ha bisogno di un modello ottimizzato per singolo titolo come succedeva per il DLSS 1.0.
L'implementazione da parte dei dev è molto più facile.
Amd hai riposto, soprattutto per la reperibilità, fra apu, cpu e schede video non riesci a soddisfare la domanda, l’ultimo problema di forniture/disponibilità lo so sta avendo sui notebook con ryzen 5000H
Non è vero. Funziona se il gioco lo supporta, c'è sempre quel limite li.
Fate con calma, io intanto prendo NVIDIA... Con calma no problem
Non so se definirla tale, in ogni caso ha smesso da un po' di innovare secondo la mia modesta opinione...
la 3070 è ben oltre i mille euro...
per forza, le scorte saranno state 5 o 6 schede...
Secondo me il 4k non è voluto dalle persone ma è stato imposto dall'industria.
Beh, chi Nintendo è la più grande innovatrice della storia dei videogiochi, a mani basse. È dagli anni 80 che detta le regole.
Ti sei risposto da solo, è talmente brava da riuscire a trasformare una delle peggior rotture in c*lo di Ubisoft in qualcosa di divertente.
Da sempre. Lo sviluppo è una delle attività concettuali più impegnative. Il problema è che gli sviluppatori in genere non decidono ma si limitano a fare quanto richiesto dal business. Questo di solito cavalca quanto richiesto dal pubblico (spesso ignorante) al grido di: vogliamoh il 4 cappah!!1!
A me non servono tutte queste performances. Prendo una 3060 su Amazon. Ah no.
DLSS 2.0 funziona così infatti