
26 Marzo 2021
Neanche il tempo di parlare delle prime custom Radeon RX 6700 XT che dalla rete arrivano nuove indiscrezioni su quella che probabilmente sarà la sorella minore, ossia la Radeon RX 6500, scheda grafica destinata alla fascia media (almeno sulla carta) che dovrebbe andare a battagliare direttamente con la NVIDIA GeForce RTX 3060 annunciata a fine febbraio. Le notizie sull'inedita scheda AMD arrivano da @KittyYYuko che, nickname a parte, si è rivelato piuttosto attendibile riguardo ai leak sulle schede grafiche NVIDIA Ampere.
Secondo quanto riportato in un recente tweet, la Radeon RX 6500 (XT) utilizzerà una GPU Navi di seconda generazione (Navi 23?) dotata di 32CU e un totale di 2048 Stream Processor; quanto alla memoria, a bordo ci sarebbero 8GB di VRAM (GDDR6) a 16Gbps, mentre il bus sarà probabilmente solo a 128 bit.
Cezanne Desktop APU
— Yuko Yoshida (@KittyYYuko) March 18, 2021
~June
Dimgray Cavefish GPU
~1440p < RTX 3060 < 1080p
~April
~CNY 2,499
~32 Compute Units
~About 236 mm2
~64MB Infinity Cache
~128-bit 16Gbps GDDR6 with 8GB VRAM
I dettagli sono in realtà molti, partendo dalle dimensioni del die (236 mm2), passando ai 64MB di Infinity Cache e ai dati relativi a disponibilità/prezzo. A questo proposito, il leaker indica il lancio per aprile con un prezzo di 2.499 yuan, al cambio 323 euro. C'è posto anche per quanto riguarda il segmento prestazionale che, sempre stando a quanto leggiamo, dovrebbe coincidere con quello della GeForce RTX 3060, garantendo prestazioni di alto livello nel gaming 1080p. Ultima nota, la prima in realtà del post in questione, si parla del lancio delle APU desktop Ryzen 5000 "Zen 3 Cezanne" con riferimento a giugno.
Commenti
128bit.... mamma mia ok la cache, ma 350 euro (tanto immagino che in italia il prezzo una volta aggiunta l'iva e' piu' o meno quello) per un bus cosi' castrato fa brutto.
Che la mia frustrazione sia con te e con il tuo spirito
ancora con sti commenti?
e secondo te cosa dovrebbero fare per risolvere il problema della disponibilita'? interrompere le produzioni e firarsi i pollici sperando che inizino a piovere dal cielo?
Quasi sicuramente è la 6600XT e ha le prestazioni raster superiori a una 2070 Super con quelle specifiche. A 300 euro sarebbe la miglior scheda video AMD rapporto prezzo-prestazioni ma proprio perché andrà più della 3060 di un buon 10% la piazzeranno sicuro a non meno di 350 dollari di MSRP che da noi diventeranno 700 euro minimo nei modelli custom.
E' vero che stanno da tutte le parti ma quelli AMD nel campo delle gpu non li sopporto.
Da quando hanno iniziato a circolare le news relative alle 6000 hanno fracassato i 0.0 dicendo che avrebbero distrutto nvidia e che il dlss usciva al momento. Nulla è servito a fargli capire che tecnologie del genere non le recuperi in 2 mesi come pensano loro. Alla fine avevo ragione io (e altri).
Questo per dire che c'è questa specie di aura magica intorno ad AMD per cui "se vuole può". No, se lavora può recuperare al massimo, poi vediamo.
Studiando ml/dl e anche il lato industriale, io davvero non so quanto ci possano mettere a recuperare il dlss se 5 giorni fa se ne escono con una sparata del tipo "emh si stiamo vedendo quale tecnologia usare". Mesi fa ero anche più ottimista perchè dico "ok sicuramente li hanno colti di sorpresa con il DLSS, ma si saranno messi al lavoro". E invece così non sembra.
Come possono riuscire 8 mesi a recuperare? E' impossibile. E' chiaramente una sparata di marketing, come alla presentazione, dove dicevano che a breve arriverà qualcosa, poi è uscita la 6900XT e non è uscito nulla, poi hanno detto "tenetevi pronti" e sono usciti i leak e poi 4 giorni fa l'annuncio che "si, boh, vediamo, vorremmo entro l'anno ma vi faremo sapere perchè il lavoro è tanto".
Sicuramente penso che siamo d'accordo che realisticamente sulla 6800XT non ne parliamo del DLSS, quindi di nuovo, a questo punto ho RT che va uno schifo (e no, non è che se non ce l'ha AMD allora l'RT fa schifo sui titoli che già lo sfruttano, in molti è fatto molto bene), DLSS non c'è, anche in raster sta sopra, e se ci voglio lavorare con NVIDIA posso e con AMD è tutto un forse.
Ad oggi eh. Oggi per me DLSS, RT, funzioni extra, più software e possibilità di lavorarci valgono 50 euro. Anzi ne valgono molti di più. Realisticamente la 6800XT dovrebbe costare massimo 600 euro
I fanboy si bevono qualsiasi cosa di qualunque brand non solo di Amd.
Mi ricordo tutte le decine di giochi che dovevano uscire con l'avvento delle 2000 nel 2018 con il raytracing e dopo 3 anni non arriviamo a 15 AAA e alcuni sono osceni o insignificanti.
A voglia a dire "ragazzi,Nvidia ha anticipato troppo i tempi, perché prima delle console, non si farà nulla di concreto" e tutti a darmi contro perché Nvidia di quà Nvidia di là e adesso si beccano la dura realtà.
Purtroppo è così da tutte le parti.
3) Anche le PS4 e Xbox one erano basate su AMD e non ha favorito in alcun modo le architetture AMD nel passato. Ma poi manco sanno che diavolo faranno in casa AMD, su che vuoi basarti, sulle favole e sui se?
4) L'ha detto amd che non sa cosa fare eh, non l'ho detto io, cito "You don’t need machine learning to do it, you can do this many different ways and we are evaluating many different ways"
https://videocardz.com/newz/amd-fidelityfx-super-resolution-fsr-to-launch-this-year-for-pcs
Se usi il machine learning, di solito per avere risultati tali da poter mettere il prodotto sul mercato, ci vogliono anni, sopratutto per una roba del genere che è decisamente complessa.
Poi i fànboy amd si bevono qualsiasi menata miracolosa pronta in pochi giorni perchè basta volerlo, però ahime la realtà non è così
1) 7% e costa 50 dollari in meno
2) Si forse l'anno prossimo, ciaone
1) E ce ne saranno altrettanti per NVIDIA. Comunque in media è il 7% sotto, quindi va peggio
2) E sti ca**i, 100 volte il dlss che 50 watt in meno
3) Che non è open siamo d'accordo, ed è sicuramente un contro. Gli artefatti sono rarissimi con il 2.0, spesso la qualità è uguale e a volte è superiore (com'è ovvio che sia dal momento che viene allenata su immagini in 16k). La risoluzione è assolutamente il fattore chiave perchè se passi da 40 a 80 fps con il DLSS (come capita in quasi tutti i giochi con DLSS 2.0) evidentemente qualcosa conta.
Stessa qualità e molti più fps, poi tutti i tripla A lo stanno implementando in altri (fra poco saremo a 35-40), è un game changer eccome.
E a me faceva schifo l'1.0, l'ho snobbato alla grande, ma il 2.0 non gli si può dire nulla su.
4) Vero, però il punto è che ora c'è il 2.0 e il confronto lo fai con quello. Non è la mancanza dei tensor core a preoccuparmi per le AMD, è la parte software il problema immenso che devono risolvere. Studiando in campo ML/DL so che per cose del genere ci vogliono anni, e questi manco sanno quello che vogliono fare.
E si, i tensor core dispiacciono solo ai fànboy AMD, ma sono probabilmente la più grande novità hardware nelle gpu da qualche anno a questa parte. In campo gaming siamo agli inizi, ma saranno sempre più usati (ad esempio quando i modelli saranno più complessi)
La 6700 dovrebbe avere 36 CU ed essere un cutdown di Navi 22.
1) Ci sono e ci saranno molti giochi ottimizzati Amd,non solo Dirt 5 e nel complesso vanno uguale.
2) Consuma di meno e non ci son mazzi.
3)Il Dlss non é un game changer perché ti aiuta solo con la risoluzione che non é il fattore chiave di un gioco e solo un impostazione su 15 e vedrai che con i giochi mattoni non potrá fare piú di tanto se non pagandolo con artefatti vari e perdita di qualitá.
Sia chiaro,é utilissimo ma comunque non privo di difetti,il primo fra tutti é che non é open,vedi physix e g-sync che fine hanno fatto.
4) Il Dlss 1.0,pur avendo gli strabilianti tensor core,era sotto al FidelityFX e al RIS di Amd,quindi non darlo tanto per scontato che il FRS sia inferiore al Dlss 2.0.
Perché gli utenti che hanno comprato la 2080ti a €1500 o la 3090 a €1800-200 no?
Sono peggio dei miners.
È piú probabile che si tratti della 6700 liscia, dato che entrambe hanno 64MB di Infinity Cache e questa ha 32 CU invece delle 40 della versione XT.
e' che nel frattempo siamo diventati tutti ricchi, quindi possiamo permetterci tutti 1700 euro per una rx6800xt sovraprezzata su amazon xD
Vogliamo ricordare che AMD aveva dichiarato che avrebbe implementato il ray tracing solo quando la tecnologia sarebbe stata per tutti ad un costo basso facendo la morale ad Nvidia.
La Nitro Se da 8gb? Al massimo l'ho vista a 180 su Amazon. A 150 trovavi la pulse da 4 GB.
Purtroppo Amazon non spediva dove abito io (Sardegna) ed ho dovuto prenderla da ePRICE.
Hai purtroppo sbagliato a scrivere. Non le producono, le progettano solo, visto che sul mercato non esistono.
L'iva in Cina è il 10%, 350 euro a conti fatti insomma.
Prezzi da 5700 insomma, per prestazioni forse 15% superiori? Visto che ha meno CU della 5700 e visto come si è posizionata la 6700xt sulla 5700xt a parità di CU.
Regola d'oro del mercato: le performance passate non sono indicative delle performance future.
Lascialo perdere, scrive post totalmente dissociati dalla realtà.
Proprio di recente ha lanciato un'altra delle sue perle "la 6700 XT va più o meno come la 3060 Ti in RT".
Qualcuno che scrive post del genere va assolutamente fermato, fa una campagna di disinformazione senza precedenti, quantomeno lucusta si limitava a stupidaggini pseudotecniche che interessano a pochi.
Come si dice a Napoli, è il classico tizio che "votta a pretella e nasconn a manella", e nel suo continuo disinformare mette quelle stramaledette emoji proprio a dire "ti sto prendendo per il c00lo e mi diverto".
E' lo stesso tizio che va dicendo in giro che la 6700 XT preordinata a 650 euro ancora prima che uscissero le recensioni fosse un buon acquisto, consigliandola ad un utente che voleva semplice semplicemente in FHD.
E' pericoloso per la community e va fermato a tutti i costi. Lo so che sembra una dichiarazione di guerra stile dragon ball, ma sto tizio è veramente incredibile.
1) Va bene ci sono i giochi ottimizzati per l'uno o per l'altro. Però se devo guardare nel complesso prendo più giochi possibili e faccio una media. Se giochi a Dirt 5 prendi la 6800XT. Non è comunque una regola generale.
2) Vero, ma siamo su desktop. Se fossero identiche e la radeon consumasse meno sarebbe meeglio la radeon, ma purtroppo ci sono altri fattori decisamente più importanti di 50 watt su 350 totali.
3) Nel RT le prestazioni spesso sono il 50% superiori, il DLSS che piaccia o meno è un game changer e al momento non c'è, quindi non puoi contarlo per le AMD.
Visti i recenti annunci il loro DLSS quest'anno non si sa se arriverà: AMD ha affermato che per rispondere al DLSS stanno ancora pensando alla strategia da adottare e "vorrebbero tanto portarla quest'anno ma c'è ancora tanto lavoro da fare".
E ti dirò di più: quando arriverà quasi sicuramente starà sotto di molto al DLSS (sempre che usino il deep leaerning, che non è detto, secondo le loro dichiarazioni) e prima del 2022 non credo ci sarà nulla di usabile. Se vuoi posso argomentare meglio la mia posizione.
Poi forse a te non interessa l'ambito pro, ma è pieno di gente che gioca e lavora col pc.
Per il resto, anch'io in questo momento lascerei stare, ma ipotizzando i prezzi di listino, a parte rari casi individuali, complessivamente, la 6800XT a quel prezzo non ha nessun senso al posto di una 3080.
giusto allora smettiamo di produrre le gpu, cosi' si che si risolvera' il problema della scarsa disponibilita'.
Indubbiamente il listino era buffonata, su quello non ci piove, ma per un periodo ha avuto un discreto street price con un bel lo di boost, vedendo i video di bench sui tripla a
va meglio ni... in alcuni giochi una 580 o ancora meglio una 590 vanno meglio... e sono gpu con architettura del 2016.
per i consumi ok... ma non puoi far uscire anni dopo una gpu a 7nm vs 14, con una nuova architettura con lo stesso prezzo e performance solo simili.
ok i consumi ma dei consumi inferiori te ne fai poco e nulla in un pc da gioco.
sta gpu aveva senso a 180 euro di listino
Motivo 1: In raster senza toccare nulla, su 10 giochi, esempio, siamo 5/5,un pò vince la 3080 e un pò la 6800xt,tipo Borderlands 3,Ac valhalla, dirt 5 e altri giochi sponsorizzazati.
Se oc la scheda otteniamo altri +5% e se usiamo il SAM, non lo considero ma parliamo del futuro, avremo altri +5-8% e su alcuni giochi,tipo FH4, addirittura +15-20%.
Motivo 2:Forse per la prima volta dopo 10 anni, consuma meno di circa 50 watt rispetto alla 3080,che sono inerzie ma di come veniva trattata Amd in passato per la stessa differenza, mi sembra una piccola rivincita XD.
Motivo 3:Il prezzo che di norma dovrebbe essere €50 in meno, che già non è malaccio ma se supportato anche solo di un calo di altri €20-30 (2023 XD).
Nvidia ha tante feature extra al gaming che a noi non interessano in questo caso e le uniche degne sono il raytracing che ha anche Amd solo a livello delle 2000 e il dlss che sembra stia per arrivare fra non molto, quindi è un non problema.
Tenendo presente tutto quello che ti ho elencato, posso concludere che secondo me, sarebbero da evitare entrambe le gpu e passare alle prossime gen, se possibile ovviamente, perché non ci siamo proprio, il guadagno che ti danno nella fascia top, non basterà nemmeno per 2 anni senza scendere a compromessi per i prossimi giochi.
Ho finito XD.
7.5% e 4% sono irrilevanti se la 6800XT costanno 580-600 dollari. Anzi magari potrei dirti "guarda se vuoi risparmiare un po' prendi la radeon perchè tanto in raster più o meno vanno uguali".
Il punto è che costano 50 dollari in meno. Quest'anno il prezzo delle radeon è totalmente sbagliato. Se vuoi stare a quel prezzo come minimo devi pareggiarle in raster o addirittura superarle, in modo da avere dalla tua parte un qualcosa di "unico", perchè ti mancano tutte le feature che ha nvidia.
Ma non puoi costare 50 dollari in meno, e contemporaneamente andare peggio in raster, niente DLSS e essere parecchio sotto in RT. Senza contare che in ambito pro ancor di più non c'è storia.
Per quale motivo dovrei prendere, immaginando prezzi simili a quelli di listino, una 6800XT al posto di una 3080 con 50 dollari di differenza. Dico motivazioni reali e "pesanti", non "in 1080p fa 769 fps invece di 753".
Scusami non pensavo fossi uno di "quelli".
Anche io ho visto tante recensioni e sopratutto tanti video su youtube con risultati in linea con quanto ti ho detto ma ovviamente non prendo certo 2 recensioni a favore di Amd e te li linko XD.
Tranquillo amici come prima.
Ps: "pareggia la 3080 su plutone" e subito dopo mettere cifre come 7,5% e 4% non è esattamente sinonimo di vittoria schiacciante a meno che tu riesca a percepire 3 fps di differenza XD.
Per un periodo la 5500xt (pre covid) si è trovata anche sulle 180
A quel prezzo era abbastanza ok, alla fine va abbastanza meglio e consuma meno, rispetto a polaris
Mazza a gennaio 2020, la si trovava anche sulle 150-160
200 non era un granchè di prezzo
In effetti i 128 bit sarebbero l'unica cosa che cozza ma ricordati che ci sarebbe l'Infinity Cache che anche se in versione minore, aiuterà ad alzare il bandwith di almeno 1,5-1,7 volte quindi alla fine è un non problema, l'hanno fatto per quello.
Finalmente una scheda video a soli 300 euro e 700 euro
Ma col cavolo proprio. Forse la pareggia su plutone la 3080, qui c'è una media dei punteggi in 4k di 17 recensioni diverse:
https://www.reddit.com/r/hardware/comments/jwn8p2/amd_radeon_rx_6800_6800_xt_4k_performance_of_17/
In media la 3080 è il 7.5% più veloce in 4k.
Poi io qui vedo +4% in 2k:
https://www.techpowerup.com/review/amd-radeon-rx-6800-xt/35.html
In ray tracing la 3080, per dirla tecnicamente, "spacca il cu*o" alla 6800XT in giochi assolutamente moderni.
https://www.eurogamer.net/articles/digitalfoundry-2020-amd-radeon-rx-6800-and-6800-xt-review?page=5
https://www.guru3d.com/articles_pages/amd_radeon_rx_6800_xt_review,15.html
Dai su, le ho visto probabilmente tutte le recensioni, non inventiamoci i numeri.
Poi non ha il DLSS e tante altre funzioni potenzialmente interessanti, in ambito pro-enterprise fa ridere.
Per 50 euro in meno è un acquisto praticamente senza senso.
Il problema e' che non esistono piu' apu o grafica integrata a livello di una gpu desktop di bassa o media fascia che ora dovrebbe collocarsi a livelli prestazionali di una rx 570 / 580, questo aiuterebbe tantissimo
La 6800xt pareggia la 3080 in raster 4k e si mantiene leggermente sopra in 1440p dove Rdna 2 si mostra a suo agio,perdendo dal 15 al 30% in raytracing sui giochi "passati" e costando €50 in meno.
Non é affatto vero che non ha nessun senso di essere acquistata é tutta una questione di gusti e di prioritá.
Veramente avevano presentato delle schede RT qualche anno prima di nvidia purtroppo le prestazioni erano basse... ci vorrebbe un po'di concorrenza alternativa.
Una volta c'erano nvidia, matrox, ati, 3dfx, 3dlabs ecc... ora zero
una scheda di fascia medio bassa ad oltre 300 euro..bah
Che è quello che ho detto io, accedendo a tutta la memoria in genere è avvantaggiata quella che ne ha di base di più, così le 6800-6900 da 16 GB e la 6700XT da 12 GB sulle 3060 Ti/3070 da soli 8 GB.
ahahhaah si questo passo penso proprio di si
anche io ho una 580 nitro presa 2 anni e mezzo fa, magata 220 euro... rimpiango solo che per risparmiare 30 euro ho preso il modello da 4gb e non quello da 8... ma per ora nei giochi non ho avuto limitazioni, anche perche' le memorie sono gia occate a 2000MHz come il modello da 8GB
Lo vedono da almeno 8 anni cha anche se aumentano il prezzo,gli utonti si lamentano per 5 minuti dopodiché tutti fuori il portafogli.
Quest’anno la fascia consumers ha perso.
Veramente la 3060 si contrasta benissimo da sola...
Di questo passo a 200 euro ci saranno le GTX 960 usate!
allora se fosse una ipotetica 6600xt allora si ragiona... anche se 128bit e 32cu mi sembrano pochini per una gpu da oltre 300 euro
Allora ti conviene aspettare qualcosa di Imagination Technology
Non c'entra nulla la quantità di VRAM, resizable bar serve semplicemente ad accedere alla memoria della gpu dalla cpu senza passare per chunk.
Per il resto, ripeto quello già detto da tutti: è una beta, inutile dire chi va meglio o chi va peggio, vediamo quando sarà ufficiale
Oh un altra scheda che nessuno potrà comprare
Esatto e in pratica le GPU AMD vanno meglio con il SAM rispetto alle Nvidia in quanto hanno più memoria VRAM delle controparti verdi.