AMD Radeon RX 7000: la GPU RDNA3 top di gamma arriverà solo nel 2023 | Rumor

22 Giugno 2022 68

Mentre Intel è impegnata nel rodaggio della sua prima GPU dedicata Arc A380, AMD pensa all'autunno e al lancio della nuova generazione di schede grafiche Radeon RX 7000 basate su architettura RDNA3, costruite su nodo produttivo a 5nm e accreditate di un incremento delle prestazioni per watt del 50% rispetto alle Radeon RX 5000. Allo stato attuale, sappiamo che AMD dovrebbe presentare le Radeon RX 7000 entro metà novembre, anticipata da NVIDIA che già a settembre dovrebbe svelare il primo modello della serie GeForce RTX 4000, la famigerata RTX 4090 con TDP a 600 watt.


Secondo quanto riportato da un recente tweet del leaker greymon55, al contrario del competitor, AMD potrebbe optare invece per una strategia del tutto opposta, lanciando in un prima fase i vari prodotti di fascia alta e medio/alta, rimandando però il debutto della vera top di gamma solo al 2023 (si presume entro il Q3). Unendo tutti i punti a nostra disposizione, ipotizziamo che entro fine anno vedranno la luce Radeon RX 7800/7800 XT e Radeon RX 7900 XT, quest'ultima con GPU Navi 31 da 12.288 Strem Processor.

In base anche alle mosse di NVIDIA e alle prestazioni della GeForce RTX 4090 o della già quasi confermata GeForce RTX 4090 Ti, AMD terrà per il 2023 un asso nella manica, un'ulteriore soluzione RDNA3 ancora più potente di Navi31 dotata di ben 16.384 Stream Processor.

In realtà, al momento non è chiaro se un'ipotetica Radeon RX 7950 XT utilizzerà una o due GPU, nel secondo caso infatti dovremmo rivedere la collocazione di questo prodotto, verosimilmente non indirizzato al mondo desktop/gaming, ma probabilmente più adatto al segmento professionale delle workstation.


68

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
remus

Io gioco in 1440p e mi trovo abbastanza bene, l'RT non è utilizzabile però gioco a tutto con dettagli alti a volte molto alti. La 6600xt in raster ne ha di più, a quella risoluzione entrambe vanno più che bene, se riesci a risparmiare vai di 6600xt.

Raffa02x

Ciao, scusa come ti trovi con la 3060? Vorrei cambiare la mia 580 e sono indeciso tra RX 6600xt e a la 3060, gioco in 1080p a 75hz

gaigan 742

vorrei vedere la differenza in gioco su un buon televisore, (io ho un tcl dp 660 da 55p 60hz)...ci sono test da qualche parte?

Emiliano Frangella

Io sono fermo ai 60 fluidi ...su PC.

Su cellulare invece tra i 60 e anche i soli 90 c'è un abisso

gaigan 742

ah, tra un monitor 60hz e uno 120hz a parte il marketing a occhio nudo si vedono davvero differenze?

gaigan 742

la rx 6800 per me in questo momento la scheda migliore...lasciando perdere i prezzi che ancora sono del 30% gonfiati

Monakois 94
Monakois 94
Superman

"Attualmente possiedo una 6700XT e su Horizon Zero Dawn maxato in 1440P faccio 94 FPS nel benchmark consumando 155W di picco.
Se cerchi su Youtube,noterai che quasi nessuno supera gli 88 fps su quel test,di conseguenza "sotto alla 3070" mi sembra azzardato XD."

il tuo commento è stato questo, hai detto che in quel singolo gioco non noti la differenza? si, ma hai anche detto che "sotto la 3070" ti sembra azzardato, come dire che la 6700xt non è sotto alla 3070, cosa che in realtà è. poi siamo passati a parlare della 3060ti perchè come fascia di prezzo è la concorrente diretta, ma ad esempio quando ti ho fatto notare che un singolo gioco non significa nulla, e che stavi facendo cherry picking con HZD hai iniziato a tirare in ballo video su youtube, recensioni inaffidabili, 3dmark non è affidabile e via dicendo, se rileggi tutto noterai che io mi sono solo limitato a rispondere alle tue argomentazioni e che quindi tutte le discussioni venute fuori dopo sono scaturite da te che non vuoi ammettere l'evidenza. e pur di non ammetterla sei arrivato a parlare di 6700xt con voltaggi "sistemati" dicendo "visto che consuma meno della 6700xt? hai insinuato che io non so di cosa parlo perchè non ho mai provato (secondo te) una 6700xt e quando con l'ultimo commento ti ho smontato anche le ultime tue argomentazioni (che per altro hai astutamente parlato in termini percentuali perchè dire 10-15% fa più effetto di 5fps di differenza media no?) per orgoglio adesso che non hai più argomentazioni rigiri la frittata, ma con me non attaca.

l'analogia tra fsr e free sync ti ripeto che non regge, perchè mentre il gsync aveva dei moduli nei monitor che avevano il solo scopo di verificare se ci fosse una gpu nvidia o amd, i tensor core delle rtx sono essenziali per usare il DL, senza quelli perdi efficienza, e più tensor core hai più dlss ti da performance aggiuntive, quindi i tensor core non sono li a far nulla ma servono a qualcosa, e ad ogni gen di schede grafiche aumentano di numero, rendendo sempre più difficile per amd raggiungere il livello del dlss senza utilizzare unità dedicate (magari in futuro visto che hanno acquisito xilinx avranno pure loro le loro unità dedicate, magari ci saranno già sulle rx7000, chi lo sa)

fsr in cyberpunk è una mod FAN MADE. amd non ha mosso un dito per implementarlo e nemmeno gli sviluppatori di cyberpunk, i modder si sa che sono molto abili, mettono anche il raytracing a giochi che non lo hanno, e comunque ne amd ne gli svilupatori di cyberpunk hanno sostituito il dlss per far spazio a fsr 2.0 altre boiate ne hai? ah si ne hai.. le vedo elencate alla fine del tuo post, io non ho mai detto nessuna delle 4 cavolate che hai scritto tu.

come ogni volta quando non hai più argomentazioni la butti in caciara, e come ogni volta quando succede ti saluto, ma non perchè hai ragione tu, semplicemente perchè è inutile discutere con chi non ha nemmeno l'onestà intellettuale di ammettere di aver detto una cavolata.. ci sta.. siamo umani e si sbaglia. ma arampicarsi sugli specchi e tirare in mezzo mille argomentazioni stiracchiate per poi lamentarsi con me della lunghezza del nostro discorso come se fossi stato io a tirarle fuori è da esseri umani poco maturi, scusa se mi permetto ma è quello che evinco dal nostro scambio, opinione personale mia.

Monakois 94
Superman

E finalmente dopo 72 commenti hai ammesso che il binning conta quando si fa undervolting! Bene, sui 208w posso essere d'accordo se parliamo di consumo tipico, di 6700xt me ne son passate due per le mani (una reference e una Red devil, oltre a 6800xt e 6900xt, di Nvidia invece 3060ti, 3070, 3070ti, 3080ti e 3090, la 3080 l'ho provata assieme ad un amico che cel'ha ma non l'ho mai avuta per le mani) ora escludiamo la Red devil perché è una versione pompata e quindi consuma di più, ma Con la reference 220w e rotti li ho visti come picco, poi in gioco si sta sui 200, se non si limitano gli fps, questo è vero (che sono praticamente identici ai Consumi della 3060ti) lato performance hai parlato in modo molto furbo in termini di percentuali, perché in fps si traduce in 5 fps di distacco in media (quindi alcuni giochi di più altri di meno) se escludiamo giochi troppo squilibrati verso uno o l'altro marchio.. E tra tutti i siti mi sono ritrovato nei test Condotti da techpowerup (con margine dell'1% di differenza) sia per le Nvidia che per le amd che ho avuto modo di testare negli anni. assemblo Pc tra le altre cose e questo mi permette di provare parecchie build.. Non sto trollando, ti sto solo dicendo che non è questione di preferenza, non è che uno preferisce una 3060ti o una 6700xt, é questioni di numeri, di dati e non di preferenze e torno a ripeterti che se hai prestazioni in raster simili (pochi fps di differenza) e temperature simili, uno guarda le feature, ovviamente i numeri dati prima di 50 e 100 erano un esempio, se vogliamo fare i Seri si guarda ad oggi quanti giochi hanno fsr 2.0 (molti meno dei 50 che avevo detto Come esempio) quanti giochi hanno fsr 1.0 (che non è male in 4k, ma la maggior parte delle persone gioca a risoluzione ben più basse, e li la differenza si vede subito) e quanti giochi hanno il dlss (più del doppio dei 100 che avevo dato nell'esempio) e si calcola anche che tutti i nuovi giochi ormai avranno sia fsr che dlss, quindi in futuro la Diffusione non conterà più nulla perché tutti i giochi avranno entrambi, ma oggi la situazione è questa. E no.. Non è come gsync e freesync, il dlss usa il DL con core dedicati per avere un boost prestazionale migliore e una qualità più fedele, non arriverà mai sulle radeon proprio perché non hanno core dedicati al DL, e farlo eseguire a normali streaming multiprocessors vanificherebbe il boost prestazionale perché non sono unità di calcolo pensate in modo specifico per il Deep learning come invece lo sono i tensor core. Quindi il paragone con i due VRR non regge. Altra cosa che ti sfugge è che l'upscale avanzato non è utilizzato solo per avere più fps e farsi crescere centimetri nei pantaloni ma anche per contenere i consumi, se io blocco il frame rate ad esempio a 80 fps perché in quel gioco specifico andare oltre serve solo stressare di più l'hardware, e la scheda video X invece di consumare 200 ipotetici watt ne consuma 160 perché invece di andare a 100fps va a 80, attivando il dlss (o fsr 2.0) in quality non perdi qualità, o almeno mentre giochi difficilmente te ne accorgi, e la. Scheda dato che deve renderizzare ad una risoluzione inferiore consuma anche meno di quei 160w ipotetici.. Quindi avere un upscale che non ti faccia perdere qualità serve sempre, non solo in quei 4 o 5 giochi mal ottimizzati.. Ma se attivandolo perdi qualità allora finisci per attivarlo Solo se serve perché la scheda non regge il gioco mattone di turno. Dunque se i numeri principali (fps, temperatura e watt) sono simili uno guarda le feature per decidere l'acquisto, dlss é migliore dal punto di vista della diffusione, della fedeltà del rendering e del boost prestazionale offerto, fsr 2.0 come fedeltà e boost si avvicina molto ma è poco diffuso al momento perché appunto Nvidia ha iniziato prima, o perché amd è in ritardo, poco conta. La situazione è questa. Nvidia con il dlss 1.0 e tutti i suoi difetti ha fatto da apripista, e se fsr si è diffuso così velocemente é anche grazie a questo, perché dopo aver visto dlss (quando è ststo migliorato non la prima versione che faceva abbastanza schifo) il pubblico ha capito le potenzialità dell'upscale avanzato e ha iniziato a volerlo in ogni gioco, e gli sviluppatori hanno iniziato quindi ad implementarlo sempre di più, é uscito poi fsr che aveva già la strada spianata.

Monakois 94
Superman

1) si mischiano nel senso che chi guarda le review guarda sia quelle affidabili che quelle che non lo sono, e comunque sistremare i voltaggi significa alterarli da quello che è originariamente previsto da amd, se si fanno review con prodotti stock io la scheda che vado a testare non la devo toccare, poi ci saranno sezioni della rview dedicat i ad overclock e undervolt, ma va testata anche così come esce di fabbrica perchè abbassare il voltaggio, come anche nelle cpu vaa fortuna, tu riesci a togliere 30w senza perdere performance, altri invece riescono a fare magari di meno o di più, dipende dal binning del chip, questo è un fatto.. non puoi dire che non sia vero dai! il binning influisce quando si va a modificare voltaggi e/o frequenze sia al rialzo che al ribasso.

2) no, Il fatto che tu abbia abbassato il voltaggio senza perdere performance non è sinonimo di buona architettura, non c'èentra nulla. può significare 2 cose: la prima è che il produttore metta dei voltaggi volutamente più alti, e si fa per risparmiare tempo sui test pre vendita, meno tempo=meno soldi. la seconda è che il silicio, ed effettivamente tsmc 7nm è meglio di samsung 8nm.

la 3060ti è praticamente una 3070.. e si può ottimizzare pure sulle nvidia.. riguardo gli upscale avanzati fsr 2.0 esiste su 3 giochi n croce, e comunque posso usarlo anche con la 3060ti, dlss su centinaia (e quello con la 6700xt non lo usi) quindi a parità di prezzo, prestazioni simili in raster, temperature contenute ecc io scelgo (come dicevo prima) una 3060ti perchè se fps esiste su 50 giochi che non hanno dlss, mentre dlss su 100 dove non c'è fsr, con una amd io ho l'upscale avanzato su 50 giochi, con un nvidia su 150.

Monakois 94

1.Che vuol dire si mischiano? Da acquirente é mio dovere guardarne il piú possibile é prendere spunto persino dai video fatti da utenti "normali" e non prezzati in alcun modo.
L'unica cosa che ho sistemato sono stati i voltaggi per guadagnare 20-30W mentre le frequenze sono rimaste assolutamente invariate,quindi poche scuse.

2. Il fatto che io abbia anche solo potuto abbassarli senza inficiarne le prestazioni é sinonimo di buona architettura e comunque se proprio vuoi saperlo,i test li ho fatti pure a stock e la gpu non andava oltre i 190W.
Il TDP non corrisponde sempre al consumo dichiarato e infatti la mia 208W (comunque lontani dai 230W) li vede se alzo il power limit e solo su qualche gioco male ottimizzato ma per tutto il resto non arriva nemmeno a 200W con Horizon e GOW in 4k ultra.

Il punto é che la 6700XT é nemmeno la rivale della 3070 ma bensí della 3060Ti e se con qualche piccolo accorgimento riesco a raggiungerla o comunque a starci vicino consumando molto meno,direi che é un gigantesco WIN.

Monakois 94

Il RT sará una grande feature ma oggi non é quello che abbiamo bisogno per aumentare la qualitá di un titolo in quanto anche con il raster si riescono a tirare fuori certe meraviglie tecniche che la differenza la noti solo con uno zoom a 200x.

Oggi abbiamo bisogno della fisica e dell'interazione ambientale se vogliamo portare il medium ad un livello piú avanzato perché a fare un gioco old gen con la luce piú bella son capaci tutti XD.

Emiliano Frangella

No non si poteva fare.
Il reshader su Nvidia è arrivato 2-3 anni dopo.
E Nvidia non supporta la risoluzione 1800, ma quella più bassa. Prova a emularla su Nvidia poi mi dici.
Ho avuto in sequenza
550
770
1070
2070
2070super
2080super... Resa una minkiata di scheda
3070

Rtx visto fino adesso E' veramente un aborto.
Il decantato cyberpunk con le sue pozzanghere a specchio è altamente fastidioso. Una pozzanghera non è acqua pulita. Di giorno hanno lasciato le pozzanghere per ricordarsi che ci sono le rtx attive.
Watch dogs legion è ancora più massiccio in rtx, ma è il gioco che è scarso veramente.
Con la 3070 e dlss non si muove neanche a calci. Massimo 40 frame....forse.

PS non devo rinunciare a nessun dettaglio per giocare in 4k fluido. Solo a pochi schifosi giochi mal ottimizzati.

Ergi Cela

È così pesante il path tracing che serve una potenza da server per gestirlo? Beh nel caso potrebbero iniziare a svilluppare delle gpu fotoniche visto che da un po’ non ci sono stati grandissimi passi in avanti

Superman

ah si? con amd si può fare da prima del dlss?? ma pensa!! con nvidia invece non si può fare! (sarcasmo, si poteva fare anche con nvidia)

sul fatto che giochi a 60 e ti trovi bene è un tuo gusto, prediligi la risoluzione alta anche a costo di levare qualche dettalgio e stare a 60 fps, io la penso diversamente, ci sta.. queste son preferenze quindi soggettive. io come dicevo sono per la risoluzione nativa o per l'utilizzo del dlss su quality che è praticamente indistinguibile dal rendering nativo, sono per gli fps alti almeno 90 se 120 sono irraggiungibili sul gioco specifico, dettagli grafici al massimo e maggiore attenzione alla qualità del pannello più che alla sua risoluzione (pur che sia da 1440p) ma ripeto, sono gusti questi.. se sei soddisfatto del 4k con a volte qualche piccola rinuncia in termini di settaggi e tenendo i 60fps va bene così.

il mio passo successivo come monitor sarà l'alienware QD-oled (o modelli analoghi quando usciranno) la qualità dei colori e dei neri è totale..

il ray tracing su giochi del genere (amd evolved, tipo anche dirt 5) è piuttosto ridicolo.. per non far sfigurare le rx 6000 che come gestione del ray tracing sono indietro lo applicano ad una pozzanghera.. altri giochi come cyberpunk, control e via dicendo lo applicano in maniera più massiccia e li almeno si apprezza qualche differenza (anche se troppo poche rispetto a quanto pesa sul frame rate se non si ha una top gamma)

Emiliano Frangella

Sono 15 anni che gioco sempre a 60....tranquillo.
Ovvio che certe volte devo togliere AA oppure altri dettagli.
Su AMD puoi mettere il 1800p che è una risoluzione leggermente più bassa del 4k, aumentando lo shader, hai un immagine simile al 4k ma con molti frame in più.
Questo lo faccio da prima del dlss pensa... Poi è arrivata Nvidia con gli post shader...la gente manco da ancora a cosa serva.
Il mio prossimo sarà un 34 21:9, quindi sempre un 4k più leggero.

Farcry6 gira ormai tutto fluido a 60 con rtx attivo sulla 6800xt, solo in alcuni momenti più impegnativi può scattichiare.

Superman

1- ok
2- contento tu di giocare frame rate bassi o di fare compromessi con i settaggi grafici, contenti tutti.. (vedi la tua stessa foto, la 6800xt fa 52 fps in questo gioco, e in molti altri) per me l'evoluzione del monitor passa da un pannello migliore prima di tutto, e da frame rate più elevati, non a 60fps ma 120, una risoluzione più elevata la adotterò quando sarà possibile reggerla come si deve dato che gia in 1440p hai una buona risoluzione. e ciò non toglie che tu non fai statistica, le statistiche di steam si, quanti usano un monitor 4k?
3- come sopra, l'utilità del 4k è subordinata (almeno per me) ad altri aspetti del monitor, e soprattutto al frame rate,
4- e non ci sono più le mezze stagioni, e si stava meglio quando si stava peggio, e non tutte le ciambelle riescono col buco, dimmi qualcosa che non so. ma più pesanti non si intende solo a livello di quantitativo di vram utilizzata.. ma anche a livello di potenza richeista alla gpu, puoi avere tutta la vram che vuoi ma la 6800xt e la 3080 (versione 12gb per il 4k, non versione 10gb) diverranno obsolete insieme perchè hanno circa le stesse prestazioni nei videogiochi, un po come la 3060 con 12gb, credi che le servano tutti??
5-ok
6-siamo d'accrdo, fsr non mi piace. devo ancora provare la versione 2.0 visto che è presente su pochi giochi per il momento, ma le versioni precedenti non sono al pari di dlss

Emiliano Frangella

1- è un video dove ho fatto uno screen. Lo trovi tranquillamente su YouTube.
2- io uso un 4k da 1 anno e mezzo. Ho un 40 sulla scrivania ed è da Sturbo. Sei uno dei tanti che dice che non serve?? Sono 5 anni che andavo già a 1440p fluido. Uno si evolve andando avanti e aumentando di risoluzione e potenza.
3- anche Watch dogs legion supera gli 8-10 giga con tutto al massimo e in 4k.
4- i nuovi giochi saranno sempre più pesanti...
5- ho una 6800xt e una 3070
E sinceramente fsr normale fa schifo

Monakois 94

Anche se fosse,stai solo "raddoppiando Minecraft" il che non aiuta nemmeno ad raggiungere un gioco AAA della scorsa gen figuriamoci i giochi PS5/Xbox che in teoria dovrebbero essere 6 volte piú complessi.

Quando uscirono le RTX nel 2018,dissi che Nvidia aveva anticipato troppo i tempi e che quella fú soltanto una mossa per:

1. Nascondere il fatto che Turing non fece nessun salto se non quel +30% della 2080ti.
2. Inculcare alla gente la percezione che "Nvidia ha inventato il RT" e infatti molti lo chiamano RTX.
3. Appesantire i giochi enormemente (simil 4K) affinché gli utenti sarebbero stai costretti a cambiare gpu pur giocando sempre gli stessi giochi (tecnicamente parlando).

Dissi pure che ci sarebbero voluti almeno 2 anni dopo l'uscita delle console per avere qualcosa di decente e dopo aver visto quanto pesasse,le mie stime si sono alzate a 5-6 anni XD.

Monakois 94

Sapevo che mi avresti risposto cosí ma il punto é che:

1. Molti benchmark che vedi su Youtube non sono a stock.

2. Abbassare i voltaggi garantisce solo meno consumi e non piú potenza ed é risaputo che le ottimizzazioni che si possono fare su Ryzen/RDNA2 sono di gran lunga piú profittevoli delle controparti.

3. Le Review sono una cosa sacrosanta ma personalmente sto cercando sempre di piú di allontanarmici perché danno dei risultati troppo discordanti sia tra le varie testate che nell'uso quotidiano.

4.Ho preso Horizon come paragone sia perché di solito AMD fa leggermente peggio (strano) sia perché é molto pesante ed ha un benchmark integrato.

Superman

questa immagine fa capire quanto poco sei imparziale dato che fai cherry picking, intanto i monitor 4k chi li usa?? nessuno.. guarda le statistiche steam, questa immagine è così faziosa da scegliere un gioco palesemente amd evolved, attivare fsr sulla 6800 xt ma non sulla 3080 (sai, fsr funziona anche sulle nvidia) e come se non bastasse overcloccare la 6800xt (si vede da frequenze e temperature) e per finire inquadrare a schermo cose diverse, manco si sono impegnati per inquadrare la stessa cosa nel modo più simile possibile, test fuffa per convincere gli amd fan insomma..

Superman

Si parlava di schede al loro msrp.. Col mercato attuale dove la 3050 e la 6600 costano uguali ovvio che prendi la 6600 che è una scheda di fascia superiore, ma a msrp sono fasce di prezzo diverse e non ha senso confrontarle

Superman
Ergi Cela

Beh qua si parla di potenza doppia quindi qualcosa in più si può fare

Monakois 94

L'unico gioco in Path tracing che fá un netto passo in avanti é Minecraft,un gioco a cubetti del 2009 e devi pure attivare il DLSS per metterlo al massimo su certe 3000.

C'é un motivo se l'attuale RT é solo sulle pozzanghere e sulle finestre XD.

Monakois 94

La cosa bella é che Linus (noto canale Youtube) ci ha fatto un video al riguardo mettendo diversi pc gamer di fronte ad un gioco con il RT on vs off e il risultato é stato che ci hanno azzeccato solo 2 persone con fatica.

Anno 2018: "Oggi,chi non ha una gpu senza il RT,non é un vero gamer".
Anno 2022: "Scusate,mi zommate quella pozzanghera che non riesco a capire se ho speso bene i miei soldi?"

Monakois 94

Attualmente possiedo una 6700XT e su Horizon Zero Dawn maxato in 1440P faccio 101 FPS nel benchmark consumando 155W di picco.
Se cerchi su Youtube,noterai che quasi nessuno supera gli 89 fps su quel test,di conseguenza "sotto alla 3070" un paio di ciufoli XD.

Se la gpu la sai usare bene,ti puó regalare grandissime soddisfazioni consumando circa 50W in meno della 3070.

PS: La cosa divertente é che in quel test,ci sono 3080 che facevano 112 fps ma ovviamente non li conto perché poi altre arrivavano pure a 130 XD.

Monakois 94

Le uniche schede che faranno il doppio saranno solo le top mentre per le altre ci si aspetta comunque un bel balzo del 30-40%.

Davide

Spiaze

Davide

É oggettivo che Nvidia sia avanti, altro che indottrinamento

Slenter97

Pazienza quel 1% dei clienti prenderà la 4090, il restante 99% invece sceglierà tra AMD e Nvidia

Emiliano Frangella

Su farcry 6 non c'è dlss... Giusto per fare esempio.
Rtx attuale è una cavolata
Il giocone halo neanche lo ha.
Altro esempio.

Sei uno dei tanti indottrinati. https://uploads.disquscdn.c...

Emiliano Frangella

Usciranno la gamma alta e media prima....
Le quali faranno quasi il doppio delle attuali schede....
Preferisco

remus

Allo zero feature aggiuntive ho smesso di leggere sorry

Davide

La 3050 é la penultima scheda che devi guardare dopo la 6400. Inoltre AMD al massimo ti dà performance simili ma con driver pessimi e zero feature aggiuntive. Nvidia domina con DLSS e RTX. Senza contare CUDA per gli applicativi. AMD si compra solo perché costa meno

Davide

Non é che se esce dopo sarà migliore

Cristian N

la 3050 è penosa dai smettiamola di dire eresie, costasse 150€ forse avrebbe un senso ma ora come ora che se la tengano, con quel prezzo prendo una 6600 tutta la vita.

Emiliano Frangella

Meglio così.
Meglio che escano le medio gamma.

Per le top c'è tempo visto la scarsità dei giochi che meritano

Superman

Si, in Principio ricordo che aveva 630 dollari di msrp mentre la 3070 aveva 550, nessun supporto a fsr che non era ancora nemmeno uscito e si trovava col contagoccie perché amd si concentra a sulla produzione di cpu.. Le Nvidia erano sovraprezzatissime ma almeno erano in giro, le amd per mesi sono state introvabili perché venivano prodotte in tiratura limitata, per far spazio appunto alle cpu (vero cavallo di battaglia superiore alla concorrenza)

Marco -

Spero non sia vero. Ho storicamente alternato top nv e top ati/amd... sarebbe ora la volta di amd, ma non sono disposto ad attendere, quindi il primo sul mercato avrà i miei soldi.

Emiliano Frangella

La cosa bella dicono È che ci sarà incremento delle performance per watt sino al 50%.

Emiliano Frangella

Veramente l'ultimo metro en con rtx sulle ombre e luci è mostruoso....(solo di sera bada bene. Di giorno non si vede).
E Watch dogs legion ha anche un pesantissimo rtx. Ma gioco insulso.

Poca roba per adesso. Tutta fuffa è stato rtx

Emiliano Frangella

In principio....
La 6800 liscia dal costo di 70 euro in più della 3070, la straccia di brutto.

La 3070 ottima scheda....ma con i soli 8gb in certi nuovi giochi stenta di brutto

Emiliano Frangella

Guarda..... Meglio che esca nel 2023... Tanto come giochi non c'è nulla che valga.

Emiliano Frangella

Infatti fa pena per adesso rtx

Ergi Cela

Beh quanta potenza servirebbe per gestire il path tracing? Già la serie 4000 sarà il doppio più potente

Superman

É evidente che non hai idea di come sia la 3050. É praticamente una 1070ti (che in fullhd si difende bene ancora oggi) e in più ha il supporto agli upscaling avanzati..

P. S. Scusami, avevo capito che stessi prendendo la 3060 come confronto, non che l'avessi acquistata.. Conosco bene la situazione che c'era 1 anno fa, anche io non ho fatto acquisti grandiosi in quel periodo purtroppo.. Non era mia intenzione prenderti per il c**o avevo capito fischi per fiaschi

Recensione AMD Ryzen 7 6800U, la iGPU ora convince

Recensione AMD Ryzen 7 5800X3D: la V-Cache 3D funziona alla perfezione

Recensione NVIDIA GeForce RTX 3090 Ti: l'ultimo grido di Ampere

Mac Studio e Studio Display ufficiali: il Mac mini cresce ed è potentissimo | Prezzi