Radeon RX 6700 XT: prestazioni in linea con RTX 3070, ma non in ray-tracing

12 Marzo 2021 291

E' passata circa una settimana dalla presentazione della Radeon RX 6700 XT, la nuova scheda grafica di fascia media targata AMD che, almeno al momento, non è stata oggetto di molti test o sostanziali indiscrezioni riguardo alle prestazioni in gaming. Sappiamo che il lancio sul mercato è previsto per il 18 marzo con un prezzo base di 479 dollari, tuttavia, non ci aspettiamo di vedere molti esemplari del prodotto in questa prima fase, complice l'attuale situazione di shortage che per AMD è, ed è stata, una vera spina nel fianco.

Nell'attesa delle recensioni ufficiali, dalla rete arrivano i primi benchmark indipendenti della nuova GPU che, come da pronostico, sembra offrire ottime prestazioni in raster, risultando invece poco incisiva nei titoli che supportano il ray-tracing. Nel dettaglio, parliamo di una sostanziosa tornata di test pubblicata dai colleghi di wccftech, un mix di titoli DirectX 11 e DirectX 12 che passano anche per i giochi dove è possibile abilitare il ray-tracing.

I benchmark che trovate a seguire vedono la Radeon RX 6700 XT confrontata con GeForce RTX 3070 (499$) e GeForce RTX 3060 Ti (399$) in titoli testati a 1440p e dettagli impostati al massimo; ecco i risultati:



Come si evince facilmente dai grafici, in raster la Radeon RX 6700 XT è molto spesso davanti alla GeForce RTX 3070, battendo in tutti gli scenari la sorella minore GeForce RTX 3060 Ti. Il discorso invece si ribalta quando si passa alle prestazioni con ray-tracing abilitato che vedono l'ultima proposta AMD dietro alle schede NVIDIA, ad eccezione di titoli ottimizzati AMD (vedi Fortnite, Dirt 5, Godfall e World of Warcraft: Shadowlands); uno scenario che in realtà non sorprende più di tanto, soprattutto se pensiamo che un comportamento simile è stato registrato anche sui modelli top di gamma Radeon RX 6800/6900 XT.


Detto questo, la Radeon RX 6700 XT sembra sostanzialmente offrire un ottimo compromesso per il gaming a 1440p, battendo in molti scenari la GeForce RTX 3070, caratterizzata da un MSRP leggermente superiore (+20$); allo stesso tempo la proposta NVIDIA risulta migliore in ambito ray-tracing, spostando a nostro avviso l'ago della bilancia nel momento in cui l'utente invece non vuole escludere l'utilizzo di questa tecnologia nei giochi.

Come di consueto quello che farà la differenza, oltre alla disponibilità, sarà il prezzo a cui verrà proposta la scheda; è indubbio che quest'ultimo sarà direttamente legato all'effettiva "esistenza" di schede retail, un problema che purtroppo sta divenendo sempre più una realtà.


291

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
LupintheIII

Se non fosse che la GPU AMD con lo stesso processore ha un framerate migliore...

Se non fosse che la stessa situazione, anche se meno estrema, si può verificare anche con un R7 5800X e una RTX 3090 rispetto ad una RX 6900XT...

Se non fosse che è pieno di persone che giocano a 1080p con settaggi medi proprio perchè si ritengono "pro gamer" e sono disposti a spendere il doppio per 10fps in piu'......

Se non fosse che il i3 10100 è praticamente la stessa CPU...
https://www. youtube. com/watch?v=6tEMDOq-8wA&ab_channel=GamersNexus

Se non fosse che il problema tenderà sicuramente ad esacerbarsi con l'arrivo di giochi meglio ottimizzati per il multithread (guarda caso la cosa si nota di piu' con giochi usciti da poco)....

Se non fosse che non tutti hanno un processore di ultima generazione e giocano a 4K....

Questo non vuol dire che il PC esploderà o nulla di simile, ma proprio per chi ha un budget limitato in un periodo in cui rifarsi il PC da zero non conviene è qualcosa da tenere in considerazione. Come ad esempio per il ragazzo del video che è semplicemente passato ad un'altra GPU nella stessa fascia di prezzo senza rifarsi tutto il PC, cosa piuttosto normale... bisogna veramente essere dei fenomeni per definire una cosa del genere "build no sense".

Ma infatti alla fine è colpa mia, pensavo fossi un fanboy Nvidia, invece semplicemente non hai il QI per capire certe cose.
Ciao.

Neo-Luddism

Ripeto e sti Ca****
Il processore non è più valido fine.
È una build no sense.
L'i3 da te citato è nettamente superiore.

LupintheIII

Il problema si riflette in ogni caso in cui la CPU è molto utilizzata in tutti i suoi core, sia con DX11 che con DX12.
Ti allego il link di un ragazzo che si è trovato ad avere meno performance con una 1660Ti rispetto alla sua vecchia R9 390 con un i7 3770K (processore che ancora tutti considerano perfettamente valido per il 1080p, anche perchè tutti hanno consigliato il R3 3300X/i3 10100 fino alla nausea che è in pratica sono stesso processore):

https://www. youtube. com/watch?v=NWmConRMbD4&ab_channel=MaxRosciano

Frazzngarth

io con la 3060ti e un 3700X in 1440p a 60fps non riesco a maxare nessun AAA, figuriamoci in 4K rofl;

probabilmente viviamo su due sistemi solari differenti...

LupintheIII

Inizio dicendo che mi scuso se sono stato troppo aggressivo, ho letto certi commenti in questa pagina da parte dei vari suprematisti Nvidia che ho perso la capacità di giudizio.
Ora ho capito cosa intendi dire, e sono daccordo con te che non è per forza necessario tenere tutto ad ultra. Io ho preso una 3070 proprio perché volevo provare questo benedetto ray tracing e DLSS (e non avevo certo intenzione di spendere 1000€ per una GPU). Avendolo provato ti dico che il RT è fatto talmente male ed è talmente inutile ai fini del gameplay, ma anche della resa grafica, che non c'è un gioco in cui lo ho lasciato attivo. Nella maggior parte dei casi è a metà della risoluzione e pieno di artefatti. Per tenerlo attivo poi devi usare il DLSS che partendo da una risoluzione più bassa peggiora ancora le cose. Come dici tu si può trovare un buon compromesso e giocare con i settaggi o usare TAA+upscaling+sharpening fa in entrambi i casi ottenere un risultato migliore del DLSS. Usare il DLSS per tenere i dettagli ad ultra invalida lo scopo dei dettagli ad ultra in primo luogo.
Il DLSS è semplicemente un "bottone rosso" da premere per chi non sa cosa significano i vari settaggi.
Nei giochi più moderni come Cyberpunk poi il semplice avere 8GB di Vram invalida il punto di tenere tutto ad ultra, dato che il gioco non ha abbastanza Vram gia a 1440p e abbassa i settaggi automaticamente in maniera dinamica (non lo dico per sentito dire, me ne sono accorto subito e Gamers Nexus a confermato la cosa nel suo ultimo video sulla GTX 960 2GB).
Io personalmente passerò ad una 6700/6800XT appena possibile, avere 12GB di Vram (utili anche per il VR) e poter sfruttare a pieno la CPU nei nuovi titoli per me sono cose decisamente più importanti di DLSS e RT e qualcosa che posso sfruttare in tutti i giochi al contrario di DLSS e RT (ti basta guardare la lista dei giochi che hai scritto).

Riccardo Cucurullo

tutti sopra i 60

Riccardo Cucurullo

ho speso 600 euro per una 3070 per giocare in vr e in 4k al massimo delle prestazioni..il mio obiettivo era la 3080 ma non sono risucito mai ad averla. detto questo il dlss 2.0 messi in prestazioni e upscalato in 4k non mi sembra cosi rumorosa come dici,non sarà nativo ma è un ottimo compromesso per giocare in ray tracing con dettagli tutti ad ultra. la fissa dell "ultra" inoltre si traduce molte volte ad un piccolo o nullo aumento grafico a patto di un grande perdita di prestazioni.non cadendo nelle tue provocazioni ti confermo che gioco a TUTTO a 4k 60 fps,a volte a tutto ultra a volte tutto alto. se per voi giocare a 4k 60 fps vuol dire quando giochi con tutti i dettagli ad ultra e supersampling vuol dire che siete voi a non riuscire a capire la differenza di dettagli ma vi sentite confortati solo quando avete tutte le impostazioni spuntate al massimo.
di seguito ti scrivo i giochi attualmente installati che mi permettono di giocare in 4k 60 fps (la maggior parte molto di piu) :battlefield v,rage 2,sea of thieves,warzone,tarkow,apex legends,outsiriders demo,black desert,gears 5,control,dragon ball kakaort,doom eternal,mafia definitve edition,immortal,dirt 5,metro exodus..e tutti i giochi vr esistenti.

LupintheIII

Quando le hai capite fammi sapere...

Mostra 1 nuova risposta

Bravo prendi spunto dalle tue parole e fa silenzio che le robe scritte prima non meritano altro che silenzio

GePaCa

Allo stato attuale l'unico motivo per prendere una Radeon è lo Smart Access Memory con i processori AMD, ma da quel che si dice nel prossimo upgrade firmware Nvidia lo introdurrà su tutta la serie 30. Cioè, così almeno io ho capito.

josefor

Chiaramente raytracing senza DLSS, tutto sommato non male, però ora come ora con questa feature di nvidia attivata si apre un gap enorme, AMD deve per forza inventarsi una DLSS suo sennò non c'è storia, non mi viene proprio desiderio di Radeon in queste condizioni.

Goose

Gli RT core in RDNA2 ci sono, ed è stato esplicitamente spiegato che esiste un RT core per ogni Compute Unit. Fisicamente devono esistere dei core dedicati al Ray Tracing, gli acceleratori servono appunto perché i calcoli vettoriali specifici dei raggi di luce e riflessi devono essere compiuti in modo parallelo al resto della computazione. Fatto sta che NVIDIA in questo è in vantaggio di un anno, RDNA2 per quanto riguarda Ray Tracing è comparabile alla linea RTX 20XX, ergo NVIDIA è l'unica che può ancora spingere essendo in vantaggio di tempo ed esperienza su questa tecnologia. Ricorda in oltre che più si scende di processo produttivo, più le schede video guadagnano "spazio" per più core, più potenza con stesso consumo.

LupintheIII

In effetti quando non si ha nulla da dire a volte è meglio stare zitti, bravo.

Mostra 1 nuova risposta

Un wall of text inutile, basta leggere due frasi per capire che non vale la pena risponderti seriamente

LupintheIII

Tra l'altro è uno dei motivi per cui ho preso una 3070, per la curiosità di testare DLSS e RTX... e devo dire che ho confermato tutto quello che pensavo.
Gli altri motivi sono che non ho intenzione di mettermi un fornetto da 400W costantemente acceso nel case (gia la 3070 scalda molto più di quanto la temperatura rilevata faccia pensare dato che Nvidia dichiara solo la temperatura "media" al contrario di AMD... mi farò due risate questa estate con i post su reddit dei tizzi con la 3080 FTW3 e Aorus con il bios modificato da 400W), che non ho intenzione di spendere più di 600€ per una scheda video e che non volevo aspettare 6 mesi per aggiornare il sistema.
Appena posso la cambio con una 6700XT, non ho fretta.

LupintheIII

Io non parlo per sentito dire. Ho una 3070, uno schermo 1440p 144hz e ho giocato sia a CP2077 che ad ACValhalla. Come dicevo prima, non avere abbastanza Vram non si riflette solo sul framerate, anzi nei giochi moderni il motore grafico semplicemente modifica le impostazioni in maniera dinamica senza impatti significativi del framerate (guardati il video di Gamers Nexus sulla GTX 960 2GB testata su CP2077 a riguardo). Stutter evidenti, crash o giochi che si rifiutano di partire puoi ancora vederli in vecchi titoli, che però non hanno bisogno di 8GB in primo luogo.
Un'altra cosa difficile da vedere se uno si basa solo sulle recenzioni è il fatto che con il passare del tempo la richiesta di Vram aumenta. Nelle recensioni tutto si basa su benchmark di pochi minuti con un'istallazione pulita di Windows. Prova a giocare a CB2077 OACValhalla per qualche ora poi dimmi cosa succede.

LupintheIII

Beh, quello che posso dirti è che, benché non sia daccordo con te, apprezzo il tuo raggionamento e sarò felice di ammettere di essermi sbagliato riguardo all' RTX (non il raytracing in generale) di qui a 3 anni.

P.S.
Physx e Gameworks non sono stati un fallimento per quello a cui servivano, ma questa è un'altra storia ;-)

Vacancy

AC Valhalla non ha problemi di VRAM con 8GB.

https://www.techpowerup.com/review/assassins-creed-valhalla-benchmark-test-performance-analysis/4.html

CP77 viene limitato dai 8GB solo in 4k con RT attivo e DLSS disabilitato e con una 3070 a quel punto hai altro di cui preoccuparti che non é certo la VRAM a rendere il framerate non giocabile.

https://www.techpowerup.com/review/cyberpunk-2077-benchmark-test-performance/5.html

Rick Grimes

No, dai, non paragonarmi l'Infinity Cache con l'architettura a chiplet, non è che ogni singola miglioria architetturale è da considerare innovazione, ci sono cose che hanno un peso decisamente maggiore sul modo di intendere la tecnologia e la modificano radicalmente, la mega cache non è una di queste.
Per quanto riguarda il resto, il software è fondamentale, l'hardware non conta nulla senza il software, non puoi slegare le due cose. E comunque a meno che non segui la tecnologia dal 2012 o poco più, non puoi citarmi solo Phisx e Gameworks, è chiaro che la storia di una azienda non può essere costituita di soli successi.

LupintheIII

P.S. aspetto ancora il link da dove hai preso le immagini.

LupintheIII

Come sempre sarà il tempo a dirci quanto queste innovazioni saranno "pesanti" e se la storia ci insegna qualcosa, nessuna "innovazione" di Nvidia (Phisx, Gameworks etc.) ha avuto seguito a parte l'accelerazione Cuda (e come dicevo parliamo di software).
Dire che "non è che chiamarla Infinity Cache la rende miracolosa o diversa" è esattamente come dire che Zen sono solo core "incollati insieme" come diceva Intel... oltre che a pensarci bisogna farla funzionare una tecnologia.
Per quanto riguarda i chiplets, ho appena detto che sia Intel che AMD sono avanti per quanto riguarda l'applicazione di questa tecnologia per le GPU.
In realtà so già che è tempo perso.... è dai tempi della GTX 480 che sento ripetere sempre le stesse cose...

LupintheIII

Infatti non hai capito nulla, riguarda il video di Hardware Unboxed e anche quello di Nerdtechgasm e poi magari ne parliamo.

LupintheIII

L'implementazione di AMD del RT è semplicemente diversa, non ha senso parlare di RTcore perchè non ce ne sono proprio. Ti consiglio di rivedere la conferenza di Microsoft sull'architettura dell'XBox o meglio ancora Spiderman Miles Morales su PS5 in confronto a Watchdog Legion su PC.
Di sicuro Nvidia avendo iniziato a lavorare con gli sviluppatori due anni prima per implementare il suo metodo ha il vantaggio per questa gen, non ci sono dubbi (non che Minecraft a 50fps sia nulla per cui vale la pena di scegliere una scheda video da 600 euro). Per il futuro non investirei un euro sul "RTX" di Nvidia. Io ho una 3070 e ti posso garantire che il ray tracing non è minimamente qualcosa da prendere in considerazione, ne per questa, ne per le prossime 2 generazioni (e a quel punto vedremo che fine avrà fatto l'RTX... ma Physx, Hairworks, 3Dvision e compagnia bella non mi fanno ben sperare).

Neo-Luddism

Che se metti una CPU di potenza pari a quella di un criceto morto vicino alle gpu migliori sul mercato e butti giù la risoluzione e dettagli le schede AMD vanno leggermente meglio.
Ovvero una situazione che non accadrà mai nella vita.

LupintheIII

Rileggi tu di cosa stavamo parlando:

"a mio avviso è il DLSS il vero fatto e discriminante per me."

"Sinceramente non lo trovo un fattore determinante quando è presente in 10 giochi e non ha un aspetto migliore che usare TAA + upscaling + sharpening."

Appunto, per la quarta volta la butti sul "razzismo" e barzellette varie... ho capito, non ti preoccupare.

Rick Grimes

Il checkboard non c'entra nulla con il DLSS, così come l'elaborazione del RT in tempo reale via hardware non c'entra nulla col fatto che già esistessero vari algoritmi di ray tracing, nVidia non ha lavorato su quelli.
Sono delle innovazioni pesanti, è inutile girarci intorno.
E l'uso della cache è sempre servito ad essere meno dipendenti dalla memoria, non è che chiamarla Infinity Cache la rende miracolosa o diversa, fa quello che ha sempre fatto una cache, solo che adesso è usata in modo massivo, evidentemente perché cache così grandi non sono costose in termini di risorse e spazio come lo erano prima.
Se proprio vogliamo dare un merito ad AMD, parliamo della sua architettura a chiplet.
Quella sì che è innovazione al pari di nVidia, anzi, nettamente superiore. L'impatto è stato immediato e pazzesco, sia in termini prestazionali (unitamente alla buona architettura Zen) che economici.
Nel giro di qualche hanno, dal quasi fallimento, hanno letteralmente rivoluzionato il mercato, il proprio business e devastato la concorrenza.
Quella è innovazione.

Mikel

Ma...secondo me 'l'indonesiano' ha postato dei video attendibili. Poi l'hai pure detto tu che Nvidia ha lavorato sui driver, e fra l'altro la 2080 ti / 3070 è sopra.
Inoltre vai a tirar fuori benchmark di inizio gen, ovviamente devi andare a vedere quelli più recenti.
Secondo me dovresti rileggere con attenzione quello che scrivi e placare la tua voglia di razzismo o quantomeno renderti conto di quello che dici...Ti ricordo che hai messo la 5700 xt sopra la 3080 sparaballe...

Goose

E' un limite hardware, ha più che senso ciò che dico, nella architettura AMD il numero di core RT non sono abbastanza per reggere il confronto con la potenza in RT della serie RTX 30XX. Per fare un confronto per la pura potenza in RT e zero potenza raster un esempio è Minecraft, dove in RT spinge solo la parte RT. La 6800 in 1440p con RT attivo fa in media 28 fps, proprio come la RTX 2060 in 1440p, mentre la RTX 3070 sta largamente sopra i 50 fps.

https:// www .youtube . com/watch?v=Ur6A6CLlnU8

Dal minuto 33 in poi, tira fuori le tue conclusioni.

Mikel

Secondo me il problema non è quello che guardi o no, ma quello che deduci guardando..fra l’altro una 2080 ti è confrontabile a una 3070.. https://uploads.disquscdn.c...

Mikel

Ma smettila..

LupintheIII

Si io li guardo, questo invece mi pare uno di quei video con numeri a caso fatto da un indonesiano su YT. Quando è uscita la 5700XT in Horizon andava nettamente meglio di una 2080Ti (guarda i video di Hardware Unboxed magari la prossima volta), poi Nvidia ha migliorato la situazione con nuovi driver. Era per fare un esempio di come uno o due titoli a favore non sono un fattore rilevante.
Parlando del DLSS in SOTTR è decente, ma sempre sfocato e in CP2077 è un tripudio di glitch, artefatti e rumore di fondo (non che il TAA del "nativo" sia molto meglio)... poi se a te piace...
A questo punto credo che AMD potrebbe uscire domani con qualsiasi tipo di upscaling e chiamarlo "RadeonAI" o qualcosa del genere e nessuno se ne accorgerebbe.

Mikel

In forza horizon quanto una 3080...ma lo vedete i benchmark prima di sparare boiate???????

https://uploads.disquscdn.c...

Mikel

Cyberpunk è shadow of tomb rider, più nativo di così, altro che punto iniziale..

LupintheIII

Chiaramente non hai capito ne lo scopo nei i risultati dei test fatti vedere nel video.....

LupintheIII

Quello che dici non ha senso.... un limite hardware di fabbrica? Forse è il tuo modo di interpretare la diversa architettura per la gestione del ray tracing di AMD?

LupintheIII

Definisci "nativo" perchè se parliamo dell'aborto di TAA di Final Fantasy 15 allora si, è meglio, allo stesso livello di come un calcio in bocca è una passeggiata rispetto a essere sbranati da un orso :-)
Inoltre ritorna il punto iniziale... in un paio di giochi... in un paio di giochi la 5700XT va come una 3080 (ad esempio Forza Horizon), quindi vale la pena di preferire la 5700XT?

LupintheIII

Non è questo il punto del video, questo fenomeno riguarda tutte le CPU a tutte le risoluzioni anche se in misura differente e non potrà che peggiorare col tempo.
Non a caso il fenomeno è piu' marcato nei titoli "next gen" e di nuovo non potrà che peggiorare con i veri titoli next-gen, programmati per sfruttare una CPU con 8 core e 16 thread.
Consiglio a tutti di guardare il video di Nerdtechgasm a riguardo per capire di cosa parlo.

Mikel

Io l'ho provato e in un paio di giochi è spettacolare, non mi fa rimpiangere il 4K nativo.

LupintheIII

Mi pare proprio che la quasi totalità delle persone qui non ha capito ne la finalità del test ne i risultati.
Vi consiglio di guardare il video di Nerdtechgasm allegato nei commenti del video di Hardware Unboxed.

Emiliano Frangella

Vaglielo a dire..... ;)

Marco Rasero

Infatti io mi rifiuto di comprare una gpu a sti prezzi, anche se ne avrei bisogno (non per lavoro). Mi attengo al prezzo consigliato da Nvidia.

LupintheIII

Per quanto riguarda le altre cose che hai buttato dentro e che non c'entrano nulla:

se usate come benchmark aborti come Red dead 2 e cyberpunk che sono ottimizzati male è normale che non arrivi ai 60 fps

Infatti, perchè usare giochi impegnativi per l'hardware ed estremamente popolari basati su motori grafic diversi? Perchè non usare Age of Empire 1? Perchè non Commandos 2?? Davvero misterioso....

il 90% dei giochi se li metti in alto e non in ultra non si vedono differenze.a maggior ragione con dlss in prestazioni.

Concordo, nel fatto che il 90% degli utenti (venendo da console) non è in grado di notare la differenza fra alto ed ultra e che un settaggio fatto per bene è comunque meglio che sparare tutto al massimo senza sapere cosa si sta facendo. Sicuramente ha ancora meno senso se usi il DLSS in modalità prestazioni, dato che tanto è un'immagine a 1080p riportata a 4K che risulta talmente sfocata e "rumorosa" che tanto i dettagli si perdono uguale.

Se adesso vuoi dirmi che il "4K DLSS prestazioni" è 4K mi va pure bene, ma sappi che quindi stiamo dicendo che quello della PS4 Pro è vero 4K e a questo punto la domanda è: perchè hai speso 600 euro (e spero non di piu') su una 3070?

LupintheIII
4k con ray tracing e dlss faccio 60

Ok, quindi non è 4K... 1440p nella migliore delle ipotesi.

Seriamente?control 4k con ray tracing e dlss faccio 60 settato a dovere,metro exodus pure,Battlefield pure

In ogni caso il videogiocatore deve smettere di pensare di giocare maxato con supersampling per giocare in 4k.

Ok, quindi non è nemmeno "maxato" nulla, al massimo "settato a dovere" come dici tu....

In ogni caso non gioco a fortnite ma warzone e apex li gioco maxati sopra gli 80 fps

Apex "maxato" come dici tu ti basta una 5700XT/1080Ti e Warzone ha di default la risoluzione all'80%.

In pratica confermi il mio sospetto iniziale: su questo forum va di moda sparare cifre a caso.

LupintheIII

Quindi non è 4K

Frazzngarth

Si ma a 30 fps? Perché i 60 li vede con il binocolo

Riccardo Cucurullo

In ogni caso non gioco a fortnite ma warzone e apex li gioco maxati sopra gli 80 fps

Riccardo Cucurullo

Seriamente?control 4k con ray tracing e dlss faccio 60 settato a dovere,metro exodus pure,Battlefield pure..se usate come benchmark aborti come Red dead 2 e cyberpunk che sono ottimizzati male è normale che non arrivi ai 60 fps

Riccardo Cucurullo

Beh non lo so perché semplicemente ci ho giocato su Ps4 pro un anno prima che uscisse quell aborto che è la versione pc.
In ogni caso a parte cyberpunk e the medium gioco a tutto 4k maxato con ray tracing.

Antonio Milito Di Marco

La 3060ti è stata presentata a 400 ma tanto viene venduta a 600 da sempre (anzi da mai), se la 6700xt stesse davvero a 500 euro avrebbe senso eccome, gli msrp nvidia valgono zero visto che hanno anche smesso di vendere le founder in pratica, almeno amd sul suo sito vende le founder e da un senso all'msrp.

Antonio Milito Di Marco

Invece ad oggi è così, io ho 600 euro di budget per una scheda video e non ne trovo mezza.

PS Per nvidia e amd ciò che conta è la redditività non il volume di vendite.

Recensione Gigabyte RX 6600 EAGLE: la piccola RDNA2 punta sull'efficienza

Recensione Asus VivoBook Pro X 14, OLED concreto!

Lenovo Yoga Slim 7 Carbon, Slim 7 Pro e IdeaPad 5 Chromebook ufficiali

Recensione Samsung Galaxy Book Pro 360, convertibile super sottile e leggero