
17 Gennaio 2020
Chi ora si approccia ad acquistare una nuova scheda video Nvidia GeForce RTX per il proprio PC desktop si trova davanti a una vasta scelta di proposte. La decisione deve essere ben ponderata per non rischiare di comprare qualcosa che vada oltre le necessità o, al contrario, un prodotto che non sia sufficiente a soddisfare le nostre esigenze. Le domande che possiamo porci per indirizzare la decisione sono fondamentalmente due: a che giochi voglio giocare e qual è la risoluzione del monitor che ho a disposizione.
Per cercare di aiutarvi nella scelta abbiamo analizzato le prestazioni di una selezione di schede GeForce RTX, in particolare una per modello, e le abbiamo provate con alcuni giochi particolarmente in voga in questo periodo e altri magari meno diffusi ma più dispendiosi dal punto di vista delle risorse hardware. Ecco quindi come si sono comportate le nuove RTX 2080 Ti, RTX 2080, RTX 2070 (annunciate la scorsa estate) e RTX 2060.
Per evitare limitazioni dovute ad altri componenti del PC abbiamo utilizzato alcune delle migliori periferiche attualmente disponibili sul mercato. Non vogliamo spoilerare troppo perché più avanti vi mostreremo in un video quello che abbiamo messo all'interno del PC che useremo nei prossimi mesi per il montaggio video (e anche per giocare, rigorosamente in pausa :D). Per il momento ci limitiamo a dirvi che i 32GB di RAM della nostra configurazione bastano e avanzano per giocare in 4k e che il processore Intel Core utilizzato è uno dei più potenti sul mercato (leggasi il più potente).
Ovviamente per giocare in 4K avevamo anche bisogno di un monitor gaming che si spingesse a questa risoluzione e che supportasse un refresh rate molto elevato. Abbiamo quindi scelto per la nostra prova l'Asus PG27UQ. Una sigla che presa singolarmente potrebbe non dirvi molto, ma che fa riferimento a quello che potremmo considerare come il miglior monitor gaming sul mercato. Qui trovate quelle che sono le sue caratteristiche principali:
Tutto ciò che si può desiderare accompagnato anche da una buona dose di luci RGB, tamarre quanto basta e compatibili con Aura Sync. La tastiera, ovviamente meccanica, è una G-Skills e il mouse un Asus della serie TUF Gaming. Si tratta in particolare del modello M5, dotato di sensore ottico a 6200DPI e switch Omron, anch’esso dotato di luci RGB compatibili con Aura Sync. Non mancano tasti laterali programmabili e un interruttore centrale con indicatore DPI per regolare la sensibilità.
La scheda video è l’unica componente che è stata cambiata di prova in prova. Le schede testate sono le quattro che trovate qui sotto con un piccolo riassunto delle caratteristiche di ciascuna:
Questo è invece l'elenco dei giochi che abbiamo utilizzato per la prova, come anticipato si tratta di un mix di titoli tra i più utilizzati e quelli che richiedono maggiori risorse:
Giocare in 4K è visivamente più appagante, e su questo non ci piove, ci sono però alcune situazioni per cui giocare in Full HD con frame rate più elevato permette di avere un vantaggio competitivo da non trascurare. Per questo motivo abbiamo testato gli stessi giochi in 3 risoluzioni differenti: 1080p, 4K e una via di mezzo più utilizzata di quanto si possa immaginare, ovvero il 1440p. Tutti i test a tutte le risoluzioni sono stati effettuati con le impostazioni dei dettagli al massimo livello disponibile.
Giocare in 4K è davvero bello, specialmente su questo monitor, ma purtroppo rimane ancora un’esperienza che per essere totalmente appagante richiede un hardware di fascia altissima. Se si vuole giocare in 4K con un frame rate costantemente superiore ai 60fps potete prendere in considerazione soltanto due alternative: 2080 e 2080Ti. Con alcuni dei titoli testati riusciamo ad avvicinarci alla soglia dei 60 fps anche con le schede meno potenti, ma soltanto con le due appena citate si riesce ad andare oltre questo margine in tutte le situazioni e avere quindi un'esperienza davvero appagante in ogni situazione.
Il 4K nativo a 144hz con dettagli ultra è un traguardo ancora molto lontano, almeno per quanto riguarda le schede testate in questo articolo. La 2080ti si conferma la scheda con le prestazioni migliori in ogni frangente e con uno dei titoli meno recenti - Shadow of Mordor - siamo riusciti anche ad ottenere una media di 100 fps con picchi a 120. Su The Witcher 3, non più recentissimo ma sempre molto dispendioso, la stessa scheda è l’unica ad averci permesso di ottenere una media superiore ai 60 fps.
C’è chi preferisce il dettaglio grafico estremamente curato e pulito del 4K e chi ha più a cuore il frame rate altissimo. In FullHD tutte le schede permettono di giocare oltre i 120fps su quasi tutti i giochi provati. 2060 e 2070 sono ovviamente le schede meno performanti e anche quelle che non riescono a raggiungere i 120 fps in ogni titolo. In particolare con Metro Exodus è la 2060 a "cadere in fallo" mentre con Battlefield V e The Witcher 3 anche la 2070 resta sotto la soglia.
Da un paio di anni troviamo in commercio monitor che si spingono oltre i 120 e 140Hz, raggiungendo anche i 240Hz. C’è ancora molto dibattito sull’utilità o meno di una frequenza di aggiornamento così alta, ma sicuramente possiamo affermare che passare da 144 a 240Hz non palesa differenze così significative come passare da 60 a 120Hz.
Per i giocatori che cercano questa esperienza visiva ancor più fluida, le GPU consigliate rimangono la 2080 e 2080Ti. Nessuna delle schede testate è comunque riuscita a toccare i 240fps con dettagli ultra nei titoli utilizzati. Nonostante questo siamo riusciti in alcune occasioni ad andare significativamente oltre i “canonici” 144Hz di media.
Questa risoluzione è una via di mezzo; un buon equilibrio tra chi ricerca una risoluzione elevata, e quindi una maggiore definizione, e fps mediamente alti. Con tutte le GPU ho superato i 60fps a 1440p con dettagli ultra, ma solo la 2080Ti si spinge oltre i 120fps su tutti i giochi, compreso The Witcher 3.
Con il gioco F1 ho ottenuto i risultati meno attendibili. Dai grafici e dai dati raccolti, la 2080 sembra essere meno potente di una 2070. Nonostante abbia ripetuto i test più volte i risultati non sono cambiati. Possiamo quindi presupporre che ci sia qualche bug di ottimizzazione nei driver o nel gioco in sé. Appare infatti altamente improbabile che una 2060 permetta di raggiungere gli stessi fps di una 2080.
The Witcher 3 anche qui risulta essere il gioco perfetto per comprendere le reali potenzialità di ogni scheda video. L'incremento degli fps medi è infatti costante e regolare di scheda in scheda dalla RTX 2060 alla 2080Ti.
Come prevedibile la GeForce RTX 2080Ti è la scheda video da scegliere se si vuole godere al massimo dell’esperienza in 4K a un buon frame-rate. La RTX 2080 resta comunque una valida alternativa se si vuole risparmiare qualcosa senza scendere a troppi compromessi. Il 4K è comunque raggiungibile anche con la 2060 e la 2070 ma dobbiamo ovviamente rinunciare a qualcosa in termini di qualità dei dettagli per mantenere un frame rate accettabile.
Se invece preferiamo giocare in Full HD per raggiungere fps più alti, anche le schede di fascia più bassa possono garantire una discreta esperienza di gioco. Solo con le due più potenti, e costose, non avrete problemi e sarete "al sicuro" anche tra un paio di anni quando i titoli si faranno più impegnativi.
NZXT H5 Flow con Kraken Elite 280, la recensione di una build votata all'eleganza
Recensione Asus ROG Swift PG42UQ, 42 pollici di puro godimento!
ROG Ally: abbiamo provato l’interessante ibrido tra console portatile e PC | VIDEO
NVIDIA Studio e Omniverse, come annullare 7.000 Km grazie alla tecnologia
Commenti
non vedo mai queste comparative fatte con un visore VR, se cambio scheda video é solo per quello!
Non vedo l'ora che Google Stadia e il Cloud Gaming spazzino via Nvidia e i suoi delusissimi fanboy.
Che goduria che sarà...
Blah blah blah...
Just buy it? Già sentita.
Ray Tracing? Non vale la spesa, oltretutto sempre applicato per spariti effetti cosmetici e mai integralmente.
DLSS? Upscaling, no grazie.
Sì affrettassero invece a mettere a punto schede multi-GPU con approccio Asynchronous Computing TOTALE.
IA su GPU consumer... Ma chi se ne strasbatte! Tutte scusette per propinare gli avanzi delle professionali agli allocchi, a prezzi mostruosi? Ma se li infilassero...
E AMDiota suona malissimo: senti invece come Nvidiota scivola bene bene. E a te si attagliate benissimo! Apri gli occhi, invece che la bocca per inghiottire tutto ciò che Huang to versa nella gola.
Si sapeva già che si sarebbe trattata di una tecnica ibrida rasterizzazione+RT, nessun fallimento, gli sviluppatori possono usare il Ray Tracing a loro piacimento, per i riflessi, per l'illuminazione globale o quant'altro. La differenza c'è, e se te ne intendessi un minimo di tecniche di rendering, non avresti scritto ciò che hai scritto, probabilmente sei uno di quelli che commenta le demo Nvidia riguardo il RT con "lol ma è solo tutto più scuro xdxd". La serie 2000 non è un fallimento perché a differenza di tutte le altre schede grafiche (per ora) ha gli RT Cores, cores ottimizzati SOLO per il ray tracing, che devono svolgere un solo lavoro, e lo fanno molto meglio rispetto ai Cuda Core (che ci sono comunque, sia chiaro, perché per appunto, si tratta di un rendering basato sulla rasterizzazione+ray tracing) inoltre hanno i Tensor Core (ottimi per il deep learning, nel caso qualcuno ne abbia bisogno) che fino a qualche mese fa erano disponibili solo sulla GeForce GTX Titan V, insomma ora li ritroviamo anche sulle gpu di fascia media.
Detto questo, non sono un fanboy Nvidia, (ho un MacBook Air per dire) solo che odio le persone che parlano senza conoscere le tecnologie in questione, studiati un pò come funziona il ray tracing, e capirai che queste gpu sono comunque un passo in avanti rispetto al passato, possono agevolare non di poco il rendering nelle anteprime dei programmi di modeling 3d, e poi oh, non vuoi il RT? Lo disattivi, tanto la serie 2000 è comunque più potente della precedente. Nvidia è riuscita ad ottenere ottimi risultati grafici con addirittura 1 solo bounce per pixel (parlando di ray tracing) grazie ad un denoiser ben fatto, aggiungici gli RT Cores, i Tensor Cores, DLSS (che si presume migliorerà nel tempo, si vedrà, recenti patch su Exodus confermano quanto ho detto) maggior potenza di elaborazione, processo produttivo migliore rispetto alla serie precedente con conseguenti consumi ridotti, e arrivi tu, mago merlino a dire che è stato tutto un flop. "AMDiota"
CMQ se fai oc sui 5ghz arrivi spesso a usare la gpu al 100% ma a questo punto cambia tuttto :)
Hai visto un ryzen con dissipatore montato male. Ho visto la stessa cosa su un 8700k, rimontato il dissipatore è tornato a posto, 100 in idle in stresstest cosa va a 150°? considera che maxtemp dei ryzen è 95° poi va in throttle
strano con Wraith 2700 in idle 40-45°, e 75-85° a pieno carico, mai provato di persona il 2600x, ma presumo che le temperature debbano essere analoghe ( o meglio inferiori visto TDP ridotto) risposetto al 2700. Io avrei chiesto il DOA al fornitore.
AMD Ryzen 5 2600 x 6-Core 19 MB Cache 95 W Wraith spire Cooler, 96°c/100°c in idle..il dissipatore funziona. Avevo consigliato un dissipatore, ma il cliente non l'ha voluto.
Che cpu hai provato? possibile che il dissipatore fosse fallato?
Dubito fortemente che Nvidia presenti una nuova architettura dopo meno di un anno dall'effettivo rilascio di quella vecchia (tra l'altro non hanno ancora nemmeno finito di presentare tutta la gamma). Potrebbe essere un re-fresh a 7nm, mi sembra più plausibile, mi sembra anche più plausibile che cambiare il nome sia solo questione di marketing.
Parli di migliorie prestazionali date da cambi di architettura ad un fanboy AMD abituato a GCN da un sacco di anni.. Ovvio che non ti capisce xD fermo restando che ampere sostituirà volta, e dovrebbe quindi avere hbm2.. Di conseguenza non la Vedremo nel settore consumer fino a che la concorrenza non sarà tale da costringere Nvidia a far scendere queste memorie costose sul mercato consumer.
Rileggi, "quella meno insensata".
La vita è adesso. Se ne uscirà ancora migliore, venderò questa, come ho sempre fatto, e con una manciata di euro comprerò quella nuova.
Io ho preso una 2080 Ti FE e devo dire che è la migliore scheda mai prodotta, un livello superiore di qualita rispetto a tutte le altre...
X70 ovvero una medio gamma venduta a 600€ e più... Spero tu stia scherzando!
2x4?? allora avresti gli 8gb che ti servivano e il 4430 tutto in 60 euro spediti, è un buon affare, prendila subito :)
l'h97 plus è più recente e un po' più completa come audio e porte usb3.0 (ne ha di più), per il resto sovrapponibili, specie per il tuo uso. MA non ha l'interfaccia m2 per gli ssd, quindi non potresti usare il tuo. quindi ti direi preleva processore e ram e piazzale sul tuo.
prendila! :)
Si si 2x4gb!
Ma la scheda madre sarebbe superiore alla mia Asus h97-plus?
Ampere semmai sostituisce Volta non turing, studiamo un pò di più .
lol
che le vedrai o meno (si parla cmq di tempo..) il tutto è riferito alla tia ultima frase ironica :)
è un buon acquisto, specie se sono 2x4 =8gb? :D altrimenti puoi vedere che memoria monta e acquistarne altri 2 banchi da 2gb uguali con meno di 20 euro e arrivare a 8gb!!
potresti proprio prenderla :)
su ebay si fanno affari con l'usato, specie quando non sono più di primissimo pelo :)
Un 27 è perfetto per il 1440p. provati
Per un 4k è preferibile un 32
È abitudine.
L'ho poi provato sul TV 55 al salone.... Da sturbo ;) Sony Bravia ;). Altro che monitor
No troppo grande, devi considerare la distanza che hai dal monitor. Il top è 27"
Lol
Dai almeno un 32....meglio
L'input lag non mi interessa più di tanto, visto che in multiplayer ne faccio poco....
E poi ho preso appunto un Samsung che è quello che ne ha meno.
Prima avevo un 32 a 1440p.... Sempre con un dotPitch molto meglio di un fullHd ....e lo sai...
Un 40 4k pagato 350 euro con HDR+ ecc .....
Molto meglio dei 32 va provati da 450.
Per pari qualità bisogna spenderne almeno 550-600....
Fifa ...Pes ecc ci gioco 4k 60 da più di un paio di anni....questi girano perfetti.
Non tornerei indietro ad un TN veloce assolutamete
Scusami ma ho letto in un altro tuo commento che giochi in 2K su una TV 4K a 40 pollici su una scrivania ad un metro e mezzo di distanza e poi chiedi a me come faccio? Preferisco qualcosa di quanto meno decente che una televisione di una grandezza tale che il 4k sembra un HD base, per non parlare del 2k poi... Sarai pure contento di due lucine ma goditi anche la densità di pixel penosa e i 26ms di input lag...
Ti dico quello che ho visto, in idle stava a 98°c con il dissipatore boxato. Poi se ti devo dire una bugia ti dico che era a 29°c in idle, ma non è così
E che vuoi che siano 2 anni :P
Ampere non sarà consumer.
Ancora con questa storia? Ti ho già dimostrato che volta non é uscita perché sarebbe stato uno spreco, guarda la titan V.. Nessuna Pascal raggiunge la titan V nonostante il dissipatore blower che ne limita le Frequenze. E se volta batte Pascal e Pascal batte Vega, in quale universo Vega batte volta? Nvidia ha separato pro e consumer con architetture differenti come farà anche AMD dopo navi. Smetti di disinfornare.
Tu dici che derivazioni consumer di Ampere non le vedremo nelle GeForce? Ho i miei fortissimi dubbi. Solo Volta non ha subito questo trattamento, ma semplicemente perché avrebbe preso schiaffi fa Vega. In quel caso Nvidia preferì lanciare Pascal (che non era nemmeno prevista sulla roadmap), c'ha alla fine sappiamo tutti essere un refresh potenziato di Maxwell.
hahahahhahahahhahahaha non arrivano a 70° in torture ora stanno a 100gradi in idle hahahahha il mio 8core sta in idle sui 29...
Dalle fonti ne hanno vendute a quintali agli oem e ad aziende piene di server (Google, amazon eccetera)... Perche come rapporto performance/consumi sono le migliori...
Un 3770k usato? Tanto per tamponare fino ai 7nm che escono tra 4-5 mesi...quello che hai intenzione di prendere sicuro di svaluta di 100 euro a breve...
Penso che tra un paio di mesi la prendo anche io...
No, mi lamentavo anche prima, ma qui entriamo in una spirale mortale. Lasciamo perdere che sennò mi arrabbio (come diceva il mio prof. di fisica all'università)
Avevo aperti diversi articoli ,ma tanto è disqus il commento ot fa tendenza.
Da nessuna parte dato che Nvidia usa architetture diverse per mercato gaming e professionale
Ma se la PS4 la pareggiavi ai tempi con un i3 4130, 8gb RAM e una GTX 750 ti....
Ampere sostituisce Volta :D non c entra nulla la fascia consumer .........
su ebay difficilmente trovi buoni prezzi sul nuovo, lì devi cercare l'usato e puntare gli i5 (4430 4440 4460 4570...) tra i 40 e i 50, soprattutto i 4430 mi pare che ce ne siano un po'.
prenderei anche la ram su ebay, ddr3 8gb kit, guarda che sia la dimm 240 pin, 1600 o 1333, non sodimm e non 204. punterei a spendere 30 euro spedita max, in asta.
ebay solo asta, a meno di botte di fortuna :) ci va tempo, chiaro, ma puoi fare affari.
Stavo giusto guardando sulla baia..ma con scarsissimo successo!
Prezzi bassi ma che arrivano tipo dal Giappone altrimenti prezzi che salgono parecchio!
Poi purtroppo zero esperienza di acquisto sulla baia
Sono anni che lo fai(politici) e solo adesso ti lamenti?
di nulla! se hai bisogno scrivi, e ricordati la questione degli hdd :)
e facci un pensierino all'i5 usato!!