
28 Maggio 2021
Mentre ieri si parlava di una possibile Radeon RX 6800 Mobile, AMD ha introdotto nel sito ufficiale la Radeon RX 6800 XT Midnight Black, versione limitata della Radeon RX 6800 XT dalla quale differisce sostanzialmente per la colorazione completamente nera. La scheda, apparsa fugacemente sullo store del produttore, è andata praticamente a ruba (non sappiamo in realtà quanti fossero gli esemplari disponibili) e vista l'attuale situazione di shortage ipotizziamo che sarà introvabile.
AMD Radeon RX 6800 XT Midnight Black offre quindi le stesse specifiche tecniche del modello reference presentato a ottobre, anche il dissipatore è identico fatta eccezione per il colore che, come detto sopra, abbandona gli inserti argentati sul top a favore di una livrea completamente nera.
Ricordiamo che Radeon RX 6800 XT utilizza una GPU AMD Navi 21 a 7nm, un chip da 72 Compute Unit e 4608 Stream Processor, affiancati a 16GB di VRAM GDDR6 16Gbps su BUS a 256 bit e 128MB di Infinity Cache; il TDP della scheda rimane lo stesso a 300W (doppio PCIe 8pin) così come le frequenze di clock, impostate a 2.015 MHz in Game e 2.250 MHz in modalità Boost.
Quanto al prezzo - per quanto possa avere importanza vista la disponibilità - Radeon RX 6800 XT Midnight Black sul sito AMD costa 672 euro, ma ribadiamo che parliamo di un prodotto che sostanzialmente non esisterà se non in pochi e costosi esemplari. Basta fare un giro su ebay per "ritrovare" la nuova scheda grafica AMD a prezzi folli: si parte da circa 1.580 dollari per arrivare a 1.900, una situazione che continua ad alimentare ulteriori malumori tra gli utenti.
Commenti
come hai fatto e sopratutto dove l'hai presa a quella cifra?
Piuttosto che spendere 1500€ per una scheda video mi faccio la camera nuova, almeno quella in 3/4 anni non diventa ciarpame tecnologico inutile da cestinare
A me sarebbe servita di più proprio da ottobre (il negozio in cui sta chiuso da allora),con la 770 posso giocare solo ai vecchi titoli
Ah ho letto un po' i forum di evga, settimana scorsa hanno ricevuto chi aveva fatto la prenotazione a inizio dicembre,non è per niente buona come cosa ahah
Non l'ho capito perchè ancora non me l'hai saputo definire tranne un generico "si abbassa la qualità". Almeno linkami più articoli che dimostrano il problema e che gli altri non ce l'hanno almeno ho qualcosa di fattuale in mano.
Per il resto, no problem, la discussione anche accesa non è un male.
Sul fatto che non hai capito quale è il problema è l'unica cosa su cui siamo d'accordo "LOL".
Io la 3070 ce l'ho in mano, quando fra due tre anni la prenderai lo capirai anche tu.
Credi quello che vuoi, io qui ho chiuso. Grazie della chiacchierata e buon proseguimento.
Senza rancore davvero, ma non ho piu' voglia di ripetere le stesse cose all'infinito.
Ok facciamo finta di non considerare CUDA & co. anche se evidentemente molta gente con il PC oltre a giocarci ci fa anche altro.
C'è da dire che comunque è curioso definire peggiore una GPU che a quasi parità di prezzo (479 vs 499) è un 10-20% più veloce in raster, un botto più veloce in RT (tipico ambito videoludico-grafico), con DLSS e un sacco di feature per il gioco accelerate dal chip.
Stai mistificando, Huang non l'ha detto per dire "questa gpu è derivata dal data center quindi è una mer**a", semmai è il contrario che intendeva.
E allora quale ca**o è il problema lol. A parte che se non ricordo male hai tirato fuori la parola fluidità sopra ma non ho voglia di ricontrollare, ce l'hai un articolo che parli del problema di cui tu parli per le RTX (che ancora ho difficoltà a definire perchè non ho capito bene quale sia)?
Guarda, io ho postato dati, screen e risultati numerici, quello che si sta autoconvincendo non sono io.
Ascolta non ha senso continuare a parlare tanto: le fonti a cui credere sono solo quelle che decidi tu, dirotti il discorso solo su quello che ti pare a te ignorando tutto il resto, continui a parlare di fluidità e fps quando ti ho ripetuto 50 volte che non è quello il problema e continui a parlarmi di cudacore quando il mio commento iniziale è stato "RDNA2 é una architettura da gaming migliore di Ampere".
Giusto per vedere se almeno le parole del CEO di Nvidia contano qualcosa... (https:// videocardz .com/newz/nvidia-releases-its-cpu-gpu-and-dpu-datacenter-2020-2025-roadmap) questo è di oggi ed è l'ennesima volta che Nvidia stessa dice che Ampere è un'architettura nata e pensata per i datacenter data in pasto ai "gamerz" e ai miners ( tanto sono così cogl**ni che si fanno andare bene tutto)... peggio di Vega2.0
Quando trovi la 3070 al prezzo che dici tu fammi sapere, io nel frattempo sarà un anno e passa che la uso (e magari nel frattempo avrò pure preso la 6800).
Per il resto credi quello che vuoi, te ne accorgerai quando l'avrai comprata (o magari anche no, l'autoconvinzione fa miracoli).
Truccati nel senso non realistici, non che li trucca qualcuno di proposito.
Che il framerate medio da solo non sia l'unica cosa siamo tutti d'accordo, infatti si va a vedere al framerate ai vari percentili, ma è una roba completamente diversa dal dire che abbassano la qualità.
Cioè la 3070 a 600 e passa euro ma la confronti con una 6800 a praticamente il suo MSRP (se non sbaglio MSI e altri le 6800 le hanno presentate direttamente a 879 euro).
Comunque no, i prezzi di listino parlano chiaro, 3070 --> 6700XT, non si scappa da ciò. Quando si stabilizzerà la situazione la fascia sarà quella (al momento le 6000 non esistono sul mercato quindi non hai neanche il problema di trovarle ad un buon prezzo).
E non è preferenza personale, DLSS, RT, feature extra, maggiori performance (nel caso specifico 3070 vs 6700Xt) in raster e CUDA rendono la 3070 una GPU superiore nel complesso.
Infatti dopo 80 commenti (vado a memoria magari mi perdo qualcosa) i punti a sfavore sono minor VRAM (e su questo non ci piove), un pannello di controllo peggiore (sinceramente boh) e che in alcuni giochi sarebbero più fluidi sulle AMD (dovrei andare a ritrovare le medie dei percentili ma non ho voglia adesso).
Secondo me il primo pacchetto sovrasta nettamente il secondo, abbastanza oggettivamente.
"Ma ce l'hai una prova che dimostri che in questi giochi le RTX hanno risultati truccati perchè viene abbassata la qualità?
Perchè ti giuro io almeno sta cosa non l'ho mai sentita."
Non ho mai parlato di risultati truccati, semplicemente di come il framerate medio in un benchmark non è sufficente a spiegare tutta la storia. Ne parlano anche qui (https://www. youtube. com/watch?v=qxXmGfXdDow&ab_channel=HardwareUnboxed) al minuto 11:38
Per l'ennesima volta io non sto parlando di una 3070 in confronto a una 6700XT e non lo ho mai fatto, come ho detto 60 volte se riesco a trovare una RX 6800 intorno ai 600€ la prendo senza pensarci. Poi i soldi sono i tuoi, spendili come vuoi, le preferenze personali non rendono Ampere un'architettura per il gaming migliore di RDNA2 come ho detto dall'inizio.
In particolare cosa si capisce da questo video che hai postato?
No ti ho detto che leggo, ma non postarmi 2-3 video da 20-30 minuti ciascuno perchè non riesco a guardarli.
Si sono andato a leggere, ma come ovvio non hanno eliminato lo scheduler hardware perchè altrimenti non funzionerebbe la gpu, hanno delegato parte di quello che prima era sull'hardware ai driver, che è diverso.
Per il resto, sinceramente mi sembra un problema irrilevante perchè da quel che ho capito si parla di alcuni titoli settati tra il medio e il minimo a bassa risoluzione. E accoppiando un processore demm*da a una gpu top di gamma.
Magari è interessante capire la cosa, ma nessuno gioca in quella maniera e nessuno compra una una 3080 per metterla con un ryzen 1400 e giocare a 1080p medium settings a tomb raider.
Ma ce l'hai una prova che dimostri che in questi giochi le RTX hanno risultati truccati perchè viene abbassata la qualità?
Perchè ti giuro io almeno sta cosa non l'ho mai sentita.
Quando sarà sicuramente, però al momento mi fido di quello che vedo nelle recensioni e di quello che vedono i miei occhi da quelle recensioni.
Per tornare al discorso 6700XT vs 3070: non consuma di meno, va di meno, costa quasi uguale, non ci si può lavorare tranne in pochi casi, RT male e niente DLSS.
Boh per me non ha senso comprarla e i supposti cali di qualità "dinamici" o la minor fluidità (ripeto: sempre supposta perchè nelle review che ho letto nessuno l'ha detto) sicuramente non valgono tutto quello che ha a favore la 3070.
Ovvio che ho guardato solo i benchmark non posso guardare per intero tutti i video che mi mandi altrimenti già saremmo ad almeno 50 minuti. Comunque sinceramente penso sia irrilevante la questione fluidità, anche perchè vorrei capire di cosa parliamo visto che in alcuni casi la differenza è del +60% (anche senza DLSS).
Io comunque mai sentita sta cosa che ti abbassano i settaggi sulle NVIDIA perchè manca la VRAM, però vabbe.
Al momento una 1060 che a questo punto non so quando cambierò visti i prezzi fuori di testa.
Ma con le gpu in cloud riesco a lavorare tranquillamente quando la mia tira le cuoia.
Anche se hai una GPU con 2GB di Vram puoi comunque vedere quello di cui parlo (https://www. youtube. com/watch?v=rPRqlg6l1ls&ab_channel=GamersNexus).
Ascolta è anche interessante parlare con te, ma non puoi non leggere nulla di quello che ti posto e poi dirmi che in base al fatto che non lo hai letto hai ragione tu....
"Se mi fai un riassunto sarebbe il top, o mi passi un articolo che non riesco a vedere mezz'ora di video."
Il riassunto è che Nvidia ai tempi delle DirectX11 ha eliminato lo scheduler hardware passando dalla GTX 480 alla GTX 580 perchè scaldavano troppo, spostando questo carico sulla CPU dato che i giochi erano tutti ottimizzati per il single trhead (in pratica ci facevano un figurone sia Intel che Nvidia, lasciando AMD nella me**a). Ora che i giochi con le moderne DirectX12 (ma anche in DX11) utilizzano tutti i trhead le GPU Nvidia perdono fino al 30% di performance se non accoppiate con una CPU sufficientemente potente (tanto da avere scenari in cui una RX 5600XT è il 20-30% più veloce di una 3090 con la stessa CPU).
"Non so che giochi fai ma i test che ho visto sono tutti con parametri bloccati, ergo non li abbassano dinamicamente. Forse parli dei giochi che giochi tu, non so che dirti."
Te l'ho appena detto quali giochi.... Cyberpunk, BattlefildV, Assassin'sCreed Valhalla, Watchdog Legion, Ghost Recon Breackpoints.
Quindi non sto parlando di un simulatore di trattori in VR nordcoreano, ma dei titoli AAA più recenti (alcuni dei quali sono il "vanto" di Nvidia e il motivo per cui un sacco di gente a preso una scheda RTX).
Come ho già detto 60 volte non sono difficili da recuperare e potresti provare te direttamente.
E qui torniamo al punto principale:
per piacere puoi dirmi che GPU hai al momento?? Sarebbe molto utile per capire come posso farti vedere direttamente ciò che ti sto dicendo. Se hai una GT710 o non hai una GPU non è mica un'onta, non sono certo qui per fare il bullo con nessuno. Ovviamente non potresti provare quello che ti dico per ora, ma magari una volta recuperata una GPU potresti pensare: "chissà se quello stro**o aveva ragione??" e farmi sapere cosa ne pensi.
Se ti riferisci agli spikes li hanno fatti anche su techpowerup:
https://uploads.disquscdn.c...
La 6700 xt non mi sembra migliore della 3070.
Comunque ho letto il titolo di quello che mi hai linkato. Se non ho capito male si parla del motivo dei crash che accadevano all'inizio con la 3080 quando boostava troppo. E' stato risolto quindi e da quello che vedo non ci sono più quei picchi.
Dai era una battuta.
Comunque non ho capito, mi sono andato a rivedere le review della 780 (quella di anandtech tipo) e la 680 stava sotto la 7970 (ho visto solo qualche gioco, non le medie).
Ho cercato le review nel 2021 e la situazione è identica, cosa è cambiato?
Se mi fai un riassunto sarebbe il top, o mi passi un articolo che non riesco a vedere mezz'ora di video.
- Non c'è nessun "gomblotto", semplicemente i normali strumenti di misura non sono in grado di rilevare picchi di pochi millisecondi come ho detto. Servono strumenti specifici per vederlo e l'unico che abbia fatto delle prove serie a riguardo e Igor di Igor'sLab (https://www. igorslab. de/en/wonder-how-invidia-the-crashes-of-the-force-rtx-3080-andrtx-3090-will-be-removed-and-still-will-be-removed-even-from-the-power-supplies-analysis/). Come ho già detto circa 20 volte io una 3070 ce l'ho in mano e non è difficile vedere a che temperature arriva. Se vuoi una prova più empirica puoi vedere come due RTX 3090 in SLI siano in grado di attivare l'overpower protection su un PSU da 1000W 80+ platinum (https://www. youtube. com/watch?v=i1dGQiNfCAc&ab_channel=LinusTechTips).
"Cioè che fa gli cambia il chip? Ah comunque anche PS4 e XBox erano basate su chip AMD. Non mi sembra abbia cambiato un tubo."
Sul serio?? Dobbiamo parlare come bambini di 8 anni?? Intendo di come una scheda come l'HD7970 sia invecchiata rispetto alla GTX 780....
"Guarda non so a cosa ti riferisci di preciso ma ti assicuro che ogni gpu (ogni pezzo di hardware in realtà) ha uno scheduler."
Mi riferisco a questo (https://www. youtube. com/watch?v=G03fzsYUNDU&ab_channel=HardwareUnboxed)
Non ho nemmeno voglia di continuare a parlare dell'MSRP.
Ma insomma, secondo me control (anche più di CP77) ha un RT con i controca**i, anche se ripeto, per i miei gusti i titoli che sfruttano bene l'RT sono una minoranza assoluta, questo è vero.
Ed è anche vero che ammazza troppo le prestazioni rispetto al ritorno in grafica. Ed è per questo che il DLSS è importante.
Per carità, ma sempre di quelle cifre parliamo, difficilmente un gioco ha bisogno di 512 mb di ram e 14gb di VRAM.
Ma proprio per niente, sei tu che stai facendo l'equizaione: "quantità di VRAM = 100% delle prestazioni attese".
Le prestazioni attese sono il prodotto tra potenza di calcolo (primo e fondamentale fattore), VRAM, cache e architettura in generale.
La 3080 è un mostro di potenza (gli FP32 in pratica) con memorie ad alta velocità (+50% circa vs la 6800XT), ma con meno VRAM rispetto alle controparti AMD.
Ad oggi però osserviamo che anche nei worst-case scenario (ovvero giochi dove è richiesta molta VRAM), il fattore memoria non sembra incidere, vuoi perchè la potenza della 3080 è veramente tanta, vuoi per la velocità delle memorie, vuoi per quello che ti pare ma è così.
Se la 3080 regge meglio l'8k rispetto alla 6900XT in molti scenari, non c'è da preoccuparsi. Poi fra 5 anni vedremo, ma fra 5 anni è ora di buttarla e prendersi altro.
Non so che giochi fai ma i test che ho visto sono tutti con parametri bloccati, ergo non li abbassano dinamicamente. Forse parli dei giochi che giochi tu, non so che dirti.
Ok, se vuoi aggiungo "secondo me" alla resa grafica del DLSS, poi quando lo proverai sarai in grado di dirmi.
Il video sul DLSS l'ho visto, ma non trovo così chiara la cosa come dici tu... magari lo riguardo, può darsi capisca meglio.
Non ho mai detto che l'RT "è brutto quindi è inutile", non sono un bambino di 8 anni. Ho detto che l'RT è inutile perchè al momento lo è. Aggiunge poco o nulla alla resa grafica a fronte di 'uso di risorse esagerato. In tutti i titoli usciti fin ora poi è implementato con i piedi, in pratica è stato "spiaccicato" sopra un gioco già finito giusto per fare contenta Nvidia. E' pieno di glitch grafici, spesso le immagini riflesse sono a risloluzione ridotta creando un effetto orrendo e spesso da un'effetto irrealistico soprattutto ai metalli (che sembrano fatti tutti di cromo indipendentemente dalla loro natura) o alle pozzanghere (con un effetto "glow" tutto intorno. La cosa peggiore è che non aggiunge nulla al gameplay. Il RT sarà veramente una feature quando sarà integrato nel gameplay dandoti la possibilità di avre uno specchietto retrovisore decente nei simulatori di corsa o la possibilità di scovare nemici grazie ai riflessi o all'audio ray tracing (non come in Cyberpunk in cui nemmeno il tuo personaggio è riflesso perchè il motore grafico non è in grado di riconoscere il combio di vestiti... qui veramente potrei dire "LOL"). Parliamo di 3-5 anni da adesso.
In realtà settano i parametri manualmente e ci sono le video recensioni dove puoi vedere con i tuoi occhi come si comporta il gioco.
Non direi che sono cose del passato perchè nella prova 8k di hwupgrade la 6900XT e la 3080 a volte non partono.
Comunque nel video che hai postato la 6900xt vince in un gioco (che poi è CS:GO, vabbe) e perde anche malamente in tutti gli altri.
Se non ricordo male nella prova di hwupgrade non vince mai, vince sempre la 3090, quindi quando c'è tanta richiesta di vram non sembra che la 6900XT complessivamente sia la migliore.
No intendo il 7.5% (non il 3%) secondo la media delle review in 4k:
https://www.reddit.com/r/hardware/comments/jwn8p2/amd_radeon_rx_6800_6800_xt_4k_performance_of_17/
A cui vanno sommate prestazioni anche doppie (e se non sono doppie comunque molto superiori) in RT, DLSS, CUDA e tutte le altre feature delle schede nvidia, oltre al supporto driver.
Si quelli valgono 50 euro, anche 150 probabilmente.
Però mi dici che sto facendo tutta teoria perchè l'MSRP non esiste. Se guardiamo alla realtà il problema non si pone perchè le 6800XT non esistono in commercio neanche dopo 6 mesi e l'unica possibilità è comprare una 3080, quindi problema risolto.
Mi sa che non ci capiamo allora... non ho detto che i benchmark di tutte le testate sono inutili. Ho detto che quei benchmark misurano il framerate, non danno nessuna indicazione sull'uso della Vram o su gli effetti della mancanza di Vram sulla resa visiva del gioco. Il framerate non è il metro di paragone. Stutter, crash o il gioco che si rifiuta di partire per poca Vram sono cose del passato, li puoi vedere in vecchi titoli, nei titoli moderni il gioco semplicemente abbassa le impostazioni grafiche senza preavviso. Dovresti fare una comparazione "manuale" e nessuno la fa perchè richiede una mole enorme di lavoro.
Se poi vogliamo proprio parlare di 8K la 6900XT a volte è più veloce di una 3090, quindi anche qui non capisco cosa bisogna dimostrare (https://www. youtube. com/watch?v=qQD98_HFT68&ab_channel=LinusTechTips)
"Quando ti capita di saturare la banda per le texture di un videogioco?" Non è così difficile in realtà, soprattutto con il livello delle texture dei giochi moderni.
"Non gioco peggio per 5 anni per poter dire poi (forse, neanche si sa) "eh vedete!""
Se per "peggio" intendi il 3% in meno (ossia 4fps in media) per avere una GPU in grado di durare 6-7 anni.... boh, fai te (esattamente come è stato per la mia RX 480 8GB che era il 2-3% più lenta di una GTX 1060 3GB al lancio, mentre sei anni dopo è ancora in grado di far girare tutto a 1080p mentre la 1060 3GB....).
Perdonami io vedo che in game e in max due siti autorevoli come techspot e techpowerup danno pareri discordanti ai tuoi lato consumi:
https://uploads.disquscdn.c... https://uploads.disquscdn.c...
Al massimo sta un po' sopra o un po' sotto secondo techpowerup.
Ma magari è un gombloddo e altri siti dicono diversamente, sono solo i primi due che ho ripreso.
Guarda ti dico che anche fossero 50 watt in più sulla 3070, è talmente superiore a quella ciofeca di 6700XT che ti dico: non me ne può fregar di meno.
- la quantità di VRAM come detto al momento sembra inutile (come dimostrano praticamente tutti i benchmark)
Cioè che fa gli cambia il chip? Ah comunque anche PS4 e XBox erano basate su chip AMD. Non mi sembra abbia cambiato un tubo.
Guarda non so a cosa ti riferisci di preciso ma ti assicuro che ogni gpu (ogni pezzo di hardware in realtà) ha uno scheduler.
Quando riesci a prendere una 6700XT dimmelo.
Per ora a 4 mesi dal lancio su steam non è comparsa nessuna RX 6000.
Beh se vogliamo parlare di dati reali possiamo confrontare i 700 euro della 3070 contro i "virutali" euro della 6700XT perchè le RDNA 2 sono schede semplicemente inesistenti. Meglio per AMD comparare il prezzo teorico fidati.
Per il resto, ci sono un quintale di benchmark online fatti da gente per bene e che fa il mestiere da 10-15 anni. Mi fido di quelli.
Ma guarda che non ci vuole nulla a vedere come funziona, se vai sul sito developer c'è un video di un'oretta che lo spiega alla perfezione, se lo ritrovo te lo linko.
Il DLSS è una CNN con autoencoder (quasi sicuramente un regressore e non un classificatore) che prende in input immagini e vettori ed è allenata usando come output delle immagini in 16K alla massima qualità possibile.
I tensor core vengono usati quando fa inferenza.
Che non poche volte sia meglio dell'immagine nativa non me lo invento io ma lo vedo da chi recensisce, ad esempio:
https://uploads.disquscdn.c... https://uploads.disquscdn.c...
Così come spesso elimina flickering e scalettature (ed è ovvio, è allenato contro immagini ad altissima qualità, ben più alta delle originali). Guarda gli ultimi video di digital foundry ad esempio.
E' sempre meglio? No, a volte come dici tu sfuoca di più rispetto all'originale, sopratutto quando non vengono caricate texture della risoluzione adeguate (e infatti è un problema facilmente risolvibile).
Vale la pena disattivarlo e perdersi un quintale di fps per strada in 4k (o con RT)? Assolutamente no perchè la qualità generale è ottima e il boost prestazionale troppo alto.
Adesso se non ti convince scrivi a gamers nexus e digli che il video che ha messo è pieno di bugie e falsità. Se invece ha messo degli screen veri devi ammettere che è un ottimo compromesso.
Cioè che fai con uno compri AMD per giocarci, poi te ne compri un altro, sempre potente ovviamente, solo per lavoraci. E' normale che scriva LOL perdonami.
Il posizionamento sul mercato si decide sul prezzo, non su quando sono uscite. La 3070 compete con la 6700XT.
La 6800 con nessuna al momento ed è infatti secondo me la scheda RDNA 2 più riuscita, quando uscirà la 3070 Ti vedremo.
Sono pessime in RT, rispetto alle ampere.
E l'RT in alcuni giochi è tanta roba (control e cp77 su tutti), in altri molto meno, se poi a te non piace è un tuo gusto personale, non degli altri.
Continui a ripetere le cose "ipse dixit": tu dici che RT è brutto, quindi è inutile. No amico parla per te, secondo me e tanti altri è veramente figo in alcuni giochi (una minoranza, almeno per me).
RTX Voice a me sembrava tanta roba e davvero efficace, ma l'ho visto alla presentazione e come recensione di linus tech tips, se è vero quello che dici andrò a ricontrollare.
A me non sembra un granchè l'encoder di amd, e sopratutto sempre con cuda puoi usarlo dove ti pare (con ffmpeg per esempio), non so se sia possibile con le amd (sopratutto visto che ROCm non è ufficialmente disponibile per RDNA2).
Eh si invece sono 10+6, 10 sono VRAM per la GPU e 6GB sono per la CPU. A meno che tu non voglia far girare la CPU senza RAM ma solo con la cache e l'SSD.
https://www.tomshw.it/videogioco/xbox-series-x-data-uscita-specifiche-prezzo/
No ti sto dicendo che quello sarà il target, non faranno giochi che richiedono 75GB di VRAM.
Anche perchè parliamoci chiaro, 12-16GB sono più di quelli delle RTX, ma non parliamo di cifre fantasmagoriche.
Ma che sentito dire, io guardo ai benchmark, se i benchmark mi dicono che la 3080 sta sopra anche nei giochi dove viene allocata più memoria concludo che il quantitativo maggiore, almeno per il breve-medio periodo serve a ben poco.
Vabe dai diciamo che se te la vuoi tenere per 7 anni forse è meglio la 6800XT.
Beh siccome non possiamo provare tutti i giochi del mondo ci affidiamo ai benchmark.
Se un benchmark mi dice che la 3080 sta sopra in giochi estremamente pesanti (control esempio su tutti) anche quando teoricamente dovrebbe stare sotto, vuol dire che la questione sulla quantità di memoria non regge. E regge ancora meno quando la 3070 è il 25% più veloce della 6700XT in 4k nonostante abbia 8GB di VRAM invece che 12. Teoricamente la 6700XT dovrebbe stravincere poichè Control alloca (c'è poi da vedere quanto consuma) anche più di 10GB di RAM. Stessa situazione per RDR2 e tanti altri.
Che adesso tutti i benchmark di ogni testata siano inutili è un po' forte come affermazione, ma vabbe.
Quello che non consideri è che puoi avere due bottleneck di solito, o sei memory bound o compute bound. Chiaramente compute bound diventa predominante all'aumentare del carico di lavoro, memory bound quando il carico scende (ovviamente non è una legge universale).
Se uno programma su gpu (e lo stesso identico discorso vale per i giochi, è programmazione su gpu anche quella) nota come spesso i bottleneck lato memoria li puoi far scomparire (proprio scomparire intendo) semplicemente utilizzando delle tecniche come il trasferimento asincrono (quello che in CUDA viene fatto con i cuda_stream), ecc. ecc.
Non a caso tra l'altro in molti giochi pesanti si usano gli stream di dati per precaricare dati e svuotare la RAM quando gli asset non servono più. Esempio su tutti spiderman per PS4 e Star Citizen. Ci sono dei video tecnici che ne parlano, durano un'oretta o più, ma se ne capisci sono interessanti.
Quindi si potrebbero esserci dei momenti in cui con una RTX 3000 sei memory bound perchè magari la computazione sui frame è poca e quindi avere più memoria aiuterebbe, ma evidentemente è abbastanza raro se nella maggior parte dei giochi che richiedono tanta RAM la 3080 sta sopra alla 6800XT (anche alla 6900 a volte) e così via.
Addirittura ho portato all'estremo facendoti vedere il benchmark in 8k dove probabilmente si arriva a 20GB di VRAM allocata, e non poche volte la 3080 vince sulla 6900XT. Qualche domanda io me la farei perchè teoricamente dovrebbe stravincere la seconda, non la 3080.
Ultima cosa:
Vero, ma quando mai ti capita di saturare la banda per le texture di un videogioco? Quando si tratta di asset piccoli (piccoli rispetto alla larghezza di banda) quel che conta è la latenza, che immagino sia nell'ordine dei pochi microsecondi (che è almeno un ordine di grandezza inferiore rispetto al tempo di rendering di un frame che è nell'ordine delle decine di millisecondi).
Quindi diciamo che ad oggi i benchmark suggeriscono il contrario, poi se fra 5 anni sarà diversa, boh!
Non gioco peggio per 5 anni per poter dire poi (forse, neanche si sa) "eh vedete!"
Ammazza che serie di commentoni :)
Proverò a rispondere a tutto.
4
Infine dunque, vuoi i motivi per cui una 6700XT è migliore di una 3070 (anche se non so cosa c'entra dato io ho sempre parlato di come RDNA2 sia un'architettura da gaming migliore rispetto ad Ampere)?
- Consumi nettamente inferiori. Il TDP di Ampere (così come l'MSRP) è semplicemente inventato. Ci sono continui sbalzi del wattaggio che anche se durano millisecondi si sentono sia sui consumi che sul calore generato. Senza un undervolt fatto bene la mia 3070 consuma e scalda come un forno a legna.
- Una quantità di Vram decente.
- Un'architettura più stabile. La 3070 come tutte le schede Ampere (probabilmente anche per via del nodo Samsung a 8nm) ha bisogno di un amperaggio esagerato per essere stabile, il che porta la GPU a "rimbalzare" contro il powerlimit di continuo, causando crash frequenti quando a pieno carico.
- Una quantità decente di Vram.
- I driver Nvidia ultimamente fanno pena. Nel tentativo di tenere a bada tutti i comportamenti sopra elencati i driver Nvidia introducono due bug per ognuno che risolvono (solo nel momento in cui scrivo ho problemi con il monitor al risveglio dallo stanby che non avevo con la GTX 1080 e vari problemi con YT, Crhome e Afterburner).
- Una quantità decente di Vram.
- Il software Radeon è anni luce avanti rispetto al pannello di controllo Nvidia (uscito da Windows95) e le feature di cui parli tanto sono per buona parte inaccessibili se non con GeeforceExperience (che ha un EULA peggio di quello di Facebook e non ho intenzione di installare).
- L'architettura RDNA2 può solo migliorare col tempo, in quanto la base di entrambe le consoles.
- Uno scheduler a livello hardware, che si traduce in prestazioni migliori con CPU non top di gamma (come un R5 3600).
- Si trovano sul sito AMD al prezzo consigliato (496€), mentre la 3070 FE non è mai stata disponibile in Italia e i partners hanno appena alzato i prezzi (https://www. techpowerup. com/ 276796/asus-officially-increases-prices-of-graphics-cards-and-motherboards)
- Ho già detto la Vram? :-)
Alla fine della fiera non sono scemo e, sapendo quello che sarebbe arrivato, ho preso una 3070 al lancio a 600€ (che era l'MSRP in Italia per la Zotac Twin Edge, altro che 20 euro in meno.....) perchè di certo una RX 6800 non ha senso a 800€ (tutto per tornare al mio raggionamento iniziale, l'unico problema di RDNA2 è la costrizione dettata dai 7nm di TSMC). Appena riuscirò a prendere una RX 6800 ad un prezzo decente non ci penserò due volte. La cosa ironica è che é proprio il tuo ragionamento basato sul MSRP inesistente che non regge.
Se ti interessa qualche test fammi sapere, come ti ho detto la cosa migliore è provare le cose di persona.
3
Di nuovo... non parliamo per aneddoti, altrimenti non si va da nessuna parte. Il DLSS è una forma di Temporal Anti Aliang.
La cosa più simile al DLSS è il TAAU dell'Unreal Engine 4 (per le parole della stessa Nvidia www. youtube .com /watch?v=d5knHzv0IQE&ab_channel=DrR1pper) nel senso che sono entrambi metodi di anti aliasing temporale con upscaling. Il DLSS 2.0 aggiunge anche uno sharpening filter (di nuovo, lo dice Nvidia non io). In pratica il DLSS è un TAA++ dove il "++" non è mai stato specificato da Nvidia a parte vaghe dichiarazioni di "ricostruzione dell'immagine tramite IA", che di per se non vuol dire nulla e non spiega nemmeno quale sia il ruolo dei Tensorcores nel processo (servono per accelerare il processo di training? per l'inferenza? Entrambi???).
La cosa più simile è proprio il TAA + upscaling + sharpening e di nuovo, la cosa migliore è che lo puoi provare tu stesso. Il DLSS è solo un "bottone rosso" da premere per chi non ha idea di come funzionano i settaggi.
Il CAS non è per nulla simile, a parte i risultati che si ottengono.
Di nuovo se mi dici che da risultati migliori dell'immagine "Nativa" mi fai capire che non lo hai mai provato. L'unico vero vantaggio del DLSS è un'immagine "temporalmente stabile" (cosa che a me non interessa affattoma sono gusti personali). Per mettertela semplice, è sfocato. E' sfocato. E' semplicemente sfocato. Se per nativo intendi un uso a ca**o del TAA... beh si... potrebbe essere meglio. Per il resto lascia stare.
Qui poi parte l'uso del "LOL" come argomentazione... non so se vale la pena risponderti... velocemente:
- Se uno gioca e lavora ha due PC separati, o prende Nvidia, come ho gia detto.
- Confronto le GPU in base a come sono posizionate sul mercato. La 3070 è stata posticipata di un mese per essere lanciata il giorno prima della RX 6800. Non ho deciso io di posizionare la 3070 contro la RX 6800, è stata Nvidia stessa. Non è un caso che Nvidia abbia anche lanciato la 3060Ti appunto per competere con la 6700XT.
- Continuare a parlare di MSRP non ha alcun senso (spero te ne sia reso conto), ma visto che ti piace tanto devo dirti che le RX 6000 si trovano al prezzo consiglito sul sito di AMD ogni settimana, mentre Nvidia le Founders dal suo sito ufficiale non le ha mai vendute. Inoltre la risposta è SI, avere una quantità decente di Vram vale i soldi in più.
- Le RX 6000 non sono male in RT, soprattutto se consideri che per ora sono quasi tutti titoli sponsorizzati da Nvidia (in pratica GameWorks). Non che faccia differenza dato che per ora e per i prossimi tre anni il ray tracing è assolutamente inutile e se lo avessi provato sapresti di cosa parlo.
- RTX-Voice è una monnezza piena di bug, funziona anche sulle GTX da Kepler in poi e consuma fino al 30% delle risorse della GPU.
- Nvenc è utile se fai streaming su Twitch, per il resto l'encoder di delle Radeon non è così male come pensi e la soluzione migliore rimane comunque usare la CPU se lo usi in gioco.
- Per quanto riguarda Cuda ti ho già risposto.
2
Anche questo è sbagliato... NO, non sono 10+6 e le due consoles hanno configurazioni di memoria differenti, per non parlare del fatto che Microsoft stessa ha detto che non ha intenzione di competere sull'hardware (https://www. engadget. com /2019-06-09-xbox-streaming-google-stadia-e3-2019.html). Ma anche facendo finta che sia vero, mi stai dicendo che una RTX 3080 andrà bene per le impostazioni base di una console per i giochi next gen? La "flagship" di Nvidia da $700 (o meglio $1400 secondo MSI, ASUS etc.)? Non è proprio un gran che.
Non so di quali canali parli, ma ad esempio Hardware Unboxed nel loro ultimo Q&A hanno parlato proprio di questo e confermano tutto quello che dico riguardo alla Vram. La soluzione migliore però è sempre l'esperienza diretta e ti assicuro che non ti serve una 3080 per fare la prova. Ora non so che GPU hai tu (o se ne hai una), ma ti basta lanciare Cyberpunk a 1440p a settaggi massimi e guardare il banalissimo Task Manager di Windows (non importa il framerate) per vedere quanta memoria di sistema è allocata per la Vram e quanta di questa è compressa e per capire di cosa parlo per quanto riguarda i settaggi dinamici del gioco. Parlare per sentito dire non è mai la stessa cosa.
Direi di procedere con ordine... mi scuso se sono sembrato aggressivo prima, ma usare "un mio amico mi ha detto" come argomento non ci porta da nessuna parte. Quello che ti dico puoi provarlo tu stesso.
Spezzerò la risposta altrimenti me la flagga come spam...
Non ho dubbi che quello che dici era vero cinque anni fa, ma prova a chiedere ad uno di questi tuoi amici qual'è la situazione oggi.
Come ho detto prima il problema della Vram da solo basta per giustificare l'acquisto di una GPU RDNA2. Portarmi un elenco con dei framerate in un benchmark mi fa capire che non sai cosa andare a guardare per capire se una scheda video "finisce" la Vram in un gioco.
Per prima cosa un benchmark è inutile per calcolare il bisogno di Vram in un gioco. Un benchmark dura pochi minuti e carica sempre la stessa scena, mentre in una situazione di gioco reale procedendo nella mappa nuove texture e nuovi asset vengono caricati di volta in volta e dopo una o due ore di gameplay si può avere un consumo di Vram più alto anche del 50%, soprattutto nei giochi open world (che sono la maggior parte dei nuovi titoli AAA).
Seconda cosa i giochi moderni sono in grado di modificare dinamicamente le impostazioni grafiche per compensare la mancanza di Vram della GPU. E' evidente se hai una GPU abbastanza potente con poca Vram (come una 3070 o una 2080). Siccome so che non mi crederai, vai a vedere il video di Gamers Nexus sulla GTX 960 2GB in Cyberpunk, per capire cosa dico. Non vedrai nessun calo drastico del framerate, ma un degradamento generale di texture e asset nel gioco (alcuni giochi in cui puoi vedere questo fenomeno sono Battlefield5, Cyberpunk, Ghost Recon Breackpoint, Assassin's creed Valhalla).
Un esempio eclatante dell'importanza della Vram è la Radeon Fury X con 4GB di HBM2, una scheda uccisa dalla mancanza di Vram. Non importa quanto bandwidth hai se finisci lo spazio della Vram devi allocare i dati nella Dram (o peggio ancora nel' SSD) passando per il PCIe che nella migliore della ipotesi ha 32GB/s di bandwidth rispetto ai 500-700GB/s della Vram delle schede moderne. Quindi no, nessun RTX-IO o GDDR6X può risolvere la situazione.
A meno che non ha una di quelle mobo pezzotte cinesi con una GTX 1050 mobile integrata (si esiste davvero) :-)
Ho una brutta notizia per te...
Io sono riuscito a prendere Playstation 5 l'8 febbraio, quindi è possibile.
Di certo è tra i metodi più veloci per essere avvisato della disponibilità di prodotti
Eh certo
Hahahaha... allora nella vita non vai molto lontano...
Sisì ho visto,sistema veramente (teoricamente) efficace,spero non si sparga in gira la notizia ahah
Sono iscritto su quel gruppo dal giorno del lancio, non sono maiu riuscito a prendere nulla. Come cavolo ci riescono persone ad acquistare GPU?
Una volta superati i problemi lagati a tale periodo, mi augro che Nvidia ed AMD non lo sfruttino per aumentre i prezzi anche delle future GPU...staremo a vedere
Io l'ho scoperto per caso da un video su Youtube.
Il sistema di EVGA non mi dispiace affatto, tra l'altro è possibile acquistare una sola scheda, limitando così azioni di scalping. Ho fatto un giro nei siti dei vari produttori ma, al momento, mi sembra l'unica ad adottare questo metodo di vendita.
Ieri sono arrivato sino ad inserire i dati di pagamento ma poi si è bloccato tutto sulla finestra di Paypal...
Vero, c'è anche maggiore richiesta.
Comunque sul bot molti hanno preso delle schede video, anche su AMD ieri, quindi così schifo non fa, poi ovvio, va sempre a fortuna, essere lì nel momento giusto, cliccare nell'istante corretto eccecc
No la 3060 non se ne parla, per me hanno senso la 3060ti o la 3080. Puntavo sulla 80 visto che sono anni che non spendo per un PC decente e ho voglia di farlo come si deve, proprio ora...
Non credo alle favole, siccome ho programmato abbastanza con la GPU (CUDA), e siccome metà dei miei amici all'università facevano corsi di videogiochi so benissimo che non è un problema avere 8-10GB di VRAM. Anche perchè, per dire, le console hanno 10GB di VRAM (esatto sono 10+6, non 16), quindi...
Ma non mi serve provarlo quando ho visto non so quante comparative di ogni canale youtube e ogni sito e quando ho parlato o letto le opinioni dei possessori della scheda. Non c'è un cavolo di simile, ma neanche lontanamente. Ma poi mi parli di TAA, al massimo gli si avvicina il CAS di AMD, anche se non ha la stessa qualità/prestazioni.
Ma per il resto neanche a parlarne, nella maggior parte dei giochi prestazioni gratis con pochissima perdita o a volte con miglior qualità (eliminando flickering/seghettature ecc).
Semplicemente non è vero quello che dici sul DLSS.
LOL ho scritto chiaramente "se uno gioca e lavora" come fanno in tanti. Che fai la vuoi scartare perchè sai benissimo che in questo campo è sterco allo stato puro?
RDNA 2 è immondizia anche lato gaming, questa è la realtà, infatti tu per far perdere la 3070 che fai? Mi vai a prendere una scheda che costa di listino quasi 100 euro in più LOL.
La concorrente dalla 3070 si chiama 6700XT perchè la fascia di prezzo è quella lì, e secondo le review è meno veloce circa del 6.4-7.8-11.2% in 1080p, 2k e 4k. Cioè tu spendi di MSRP 20 euro in meno (il 3-4% in meno) e perdi in percentuale molte più prestazioni, in più hai RT da schifo, niente DLSS, niente CUDA e niente RTX Voice, NVENC, ecc. ecc.
Tutto questo per 20 euro. Però hai 12GB di RAM che sono perfettamente ininfluenti nei prossimi anni in gaming (e anche dopo probabilmente).
OK....
Per curiosità, mi dici 5 vere cose migliori una 6700XT ha rispetto ad una 3070? Tralasciando la VRAM di cui abbiamo già parlato.
Beh per la seconda parte è sicuro ahah,a saperlo mi sarei registrato prima, c'è qualche altro produttore che esegue questa procedura? (Sbaglio o EVGA ha modificato leggermente le schede? Ricordo che prima avevano il bordo laterale destra rosso,ora per fortuna è nero)
E di fatti io non parlo perché ho visto due comparative, ma perché una scheda Ampere ce l'ho e so cosa andare a guardare quando si parla di Vram (ti prego non partire con la menata di allocato/utilizzato, so perfettamente la differenza, apri taskmanager e guarda quanta Vram è compressa/allocata sulla Dram). Se vuoi credere alle favole fai pure, prenditi una 3070 poi mi dirai.
Di nuovo, il DLSS è "magia" solo per chi non l'ha mai provato o per chi non ha idea di come funzionano i settaggi grafici. Potrei fare una comparativa con 100 persona e forse due noterebbero la differenza fra DLSS e un corretto uso degli strumenti a disposizione su un gioco (e probabilmente quei due mi direbbero che è peggio).
Per quanto riguarda Cuda ti do ragione, mi fa comunque ridere che mi tiri fuori i rusultati in gaming e poi mi parli di cuda... mi ricorda sempre più i bei tempi di Intel all'uscita dei primi Ryzen.
Qui stiamo parlando di schede per il PCgaming e in questo RDNA2 è semplicemente migliore. Prova Ampere e poi ne riparliamo.
I prezzi non li considero nemmeno, tanto è folle la situazione, ma considerando l'MSRP non ci sarebbe dubbio. Poi come ho detto AMD ha meno disponibilità di schede e questo porta a prezzi ancora più assurdi (d'altronde ha si e no il 20% di marketshare, nessuno si sarebbe aspettato una riciesta tale). Non comprerei ne una 3070 ne una 6800 a 1000 euro, ma per i prezzi di listino non avrei dubbi.
Le 6000 non sono migliori in nulla: prestazioni in raster uguali o stanno sotto (tranne a basse risoluzioni dove le top di gamma fanno tutte 250 fps), hanno RT nettamente peggiore e nessun rimpiazzo decente per il DLSS. Non mi spreco a parlare di quest'ultimo perchè avendo visto credo una cinquantina di comparative ormai so già come va e non c'è nulla che possa eguagliarlo sopratutto alle alte risoluzioni.
Più tutte le feature per la grafica e non solo e la possibilità di usare cuda.
A 50 euro in più la 6800XT è una ciofeca, la 6800 si salva perchè non c'è nulla su quella fascia e la 6700XT è una barzelletta che non fa neanche ridere, costa 20 euro in meno e perde a tutte le risoluzioni (almeno la 6800XT a 1080p sta il 2% sopra alla 3080), e ovviamente manca di tutto quello che ho scritto sopra.
Il SAM è esattamente il resizable bar brandizzato con un nome più figo.
La quantità di memoria come abbiamo visto è perfettamente inutile per i prossimi anni tant'è che in una prova estrema in 8k cosa succede? Che la 6900XT (16GB di VRAM) spesso gira peggio della 3080 (10GB di VRAM). Considera che Control in 8k alloca (allocare != utilizzare) fino a 20GB di VRAM:
https://uploads.disquscdn.c...
Le RX6000 in linea generale sono delle buone schede, quando le confronti con le RTX 3000 perdono senso in praticamente ogni aspetto.
Dovevano TUTTE costare 100 euro in meno, a due spicci di differenza con le Ampere non ha senso comprarle.
Le RX 6000 sono migliori sotto tutti i punti di vista a parte la disponibilità (e quindi i prezzi).
Già solo i consumi di Ampere dovrebbero far capire tutto... Tra l'altro lo Smart Access Memory e il resizable bar non sono la stessa cosa, il primo si basa sul secondo ma è come dire che tutti i motori V4 sono uguali, ti basta vedere la differenza di risultati per capirlo.
Da possessore di una 3070 ti dico che preferirei avere 16GB di Vram tutta la vita rispetto al DLSS. Negli ultimi titoli sono costantemente a corto di Vram e il DLSS non è meglio di usare TAA +upscaling+sharpening a parte in qualche caso limite.
Sto provando a prendere una RX 6800 dal lancio, se mai ci riuscirò rivendo la 3070 a quanto l'ho comprata (quando i prezzi erano normali) e sono apposto.