Tutti i prezzi sono validi al momento della pubblicazione. Se fai click o acquisti qualcosa, potremmo ricevere un compenso.

Recensione GeForce RTX 4070 12GB: NVIDIA punta tutto sul DLSS 3.0

12 Aprile 2023 315

Debutta oggi GeForce RTX 4070, la nuova scheda grafica NVIDIA per il mercato consumer che va ad ampliare la famiglia GeForce RTX 40 "Ada Lovelace", inaugurata ricordiamo lo scorso ottobre con la top di gamma GeForce RTX 4090 (Recensione). Prima di qualsiasi considerazione tecnica o di prezzo, l'introduzione a questa GeForce RTX 4070 necessita di un'ulteriore premessa, legata direttamente al lancio della GeForce RTX 4070 Ti o, per meglio dire, alla sua genesi.

Chi segue il settore ricorderà che NVIDIA aveva pianificato due varianti della GeForce RTX 4080 - una da 16 e una da 12 gigabyte - cambiando i piani in corsa per via del posizionamento del tutto errato della RTX 4080 12GB, "rinominata" successivamente in GeForce RTX 4070 Ti cercando così di contenere i danni. Questa mossa, alla fine saggia per NVIDIA, a nostro avviso potrebbe però non giovare del tutto alla neonata GeForce 4070 che, non solo esce dopo la variante Ti, ma già sulla carta è nettamente distante a livello tecnico, ricordando che, a sua volta, quest'ultima era in realtà una GeForce RTX 4080.


Riassumendo il concetto di questo giro di parole, dovremo partire dal presupposto che, per dare un giudizio obiettivo sul prodotto, bisognerà tenere quantomeno a mente che la vera GeForce RTX 4070 Ti doveva posizionarsi tra quella attuale e questa GeForce RTX 4070; diversamente, il distacco tra due modelli è tale da poter rendere l'ultima proposta NVIDIA meno attraente agli occhi dell'utente finale (discorso prezzi a parte).

Detto questo, NVIDIA GeForce RTX 4070 viene presentata dall'azienda come una scheda capace di gestire il gaming a 1440P sopra i 100 FPS con ray-tracing e DLSS attivi; in occasione della presentazione alla stampa, NVIDIA ha riproposto in modo importante le potenzialità del nuovo DLSS 3.0 e delle tecnologie ad esso legate che - supportate al momento solo dalle GeForce RTX 40 - rappresentano il vero asso nella manica anche per i modelli di fascia media (o medio/alta) come questa GeForce RTX 4070 che testeremo oggi.


Rimanendo in ambito ray-tracing, il produttore ha snocciolato dati importanti che, oltre alla naturale evoluzione dal punto di vista qualitativo/prestazionale, puntano sulla diffusione (supporto) e soprattutto sull'adozione di tale tecnologia da parte degli utenti. Prendendo come riferimento la prima generazione di schede GeForce RTX del 2018 (serie 20), pare che gli utenti NVIDIA che utilizzano/attivano il ray-tracing in gaming siano passati dal 37% all'83%; un balzo importante che si muove di pari passo con il DLSS (passato dal 26% al 79%) e ci fa capire sostanzialmente perché NVIDIA punti molto su questo solido binomio oltre che sulle prestazioni pure in raster. Ma vediamo di capire meglio dove si colloca la GeForce RTX 4070 e le sue peculiarità tecniche confrontate con altre soluzioni della serie NVIDIA GeForce.

NVIDIA GEFORCE RTX 4070 - CARATTERISTICHE TECNICHE

Insieme al successo ottenuto con ray-tracing e DLSS, NVIDIA ci ha parlato della GeForce RTX 4070 confrontandola con modelli di precedente generazione della linea RTX 20 ed RTX 30. Non tutti hanno gradito e capito secondo noi questa mossa di marketing, ma ci sembra chiaro che il produttore guardi molto ai numeri e alle vendite degli anni precedenti, individuando in quegli utenti che attualmente viaggiano su prodotti come GeForce RTX 2070/RTX 2070 SUPER/RTX 2080 un potenziale bacino di acquirenti che potrebbero pensare a un upgrade per via dei giochi di ultima generazione (le statistiche a questo proposito sono molto chiare e facilmente consultabili).

E' fuori dubbio che paragonare le prestazioni di una GeForce RTX 4070 a una RTX 2070 abbia poco senso, e anche con la GeForce RTX 3070 (Recensione) il paragone è quasi impari per via del netto passo in avanti fatto con Ada Lovelace dal punto di vista di Streaming MultiProcessor, RT Core e tecnologie supportate (DLSS 3.0 in primis). Pensiamo quindi che, anche se le differenze tra GeForce RTX 3070 e GeForce RTX 3070 Ti non siano così marcate, il confronto andrà fatto quantomeno su quest'ultima in quanto GeForce RTX 4070 viene proposta - a differenza di RTX 3070 - come una scheda grafica per il gaming 1440P ad alto refresh-rate con ray-tracing e DLSS attivo.

Dopo quest'ulteriore premessa, andiamo a scoprire la scheda tecnica dell'ultima arrivata, di primo acchitto non molto distante da quanto visto sui modelli di pari fascia (più o meno) della precedente generazione.

I numeri ufficiali non lasciano spazio a molte interpretazioni: sulla carta abbiamo una GeForce RTX 4070 (AD 104) che presenta lo stesso numero di Cuda Core della sua antenata RTX 3070 (5.888), mentre se guardiamo alla GeForce RTX 3070 Ti i Cuda Core salgono a 6.144. La nuova arrivata però può contare su Ada Lovelace che, oltre al rinnovato Streaming MultiProcessor, prevede Tensor Core di 4a gen, Cuda Core di 3a gen, una cache L2 ampliata (36MB vs 4MB) e ben 12GB di VRAM di tipo GDDR6X 21 Gbps (leggermente castrati dal bus a 192 bit). Se questo non bastasse, in aiutano arrivano tutte le novità introdotte dalla nuova architettura GPU NVIDIA, tra queste ricordiamo le più decisive: Displaced Micro-Meshese (DMM), Opacity Micro-Maps (OMM), Shader Execution Reordering (SER), Optical Flow Accelerator (OFA) e Optical Multi Frame Generation. Questo mix di migliore si abbina alla perfezione con il DLSS 3.0 e con NVIDIA Reflex, un' ulteriore ottimizzazione che mira ad abbattere la latenza in gaming (anche del 20% rispetto alla serie RTX 30).

Diagramma GeForce RTX 4070

Sappiamo, quantomeno dai test da noi effettuati, che Ada Lovelace guarda anche all'efficienza energetica, caratteristica che ovviamente viene ripresa ed enfatizzata sulla GeForce RTX 4070; stando ai dati ufficiali del produttore, questa scheda riesce ad eguagliare e superare una GeForce RTX 3070 Ti consumando circa il 22% in meno, percentuale che sale a quasi al 42% se guardiamo a una GeForce RTX 3080 10GB (come vedremo molto vicina in gaming).

Come tutte le schede grafiche GeForce RTX, anche questa RTX 4070 strizza l'occhio alla produttività e, anche se con prestazioni inferiori alle top di gamma, può rappresentare un'ottima opzione se non avete particolari pretese; a bordo non manca il supporto NVIDIA Studio e il nuovo encoder NVENC AV1 - non doppio come sulle altre RTX 40 - che risulta il 40% più efficiente rispetto all'ormai "maturo" H.264.


NVIDIA GeForce RTX 4070 arriva nella versione Founders Edition con lo stesso design delle sorelle maggiori, ma ovviamente con dimensioni molto più contenute; l'alimentazione ausiliaria prevede il nuovo connettore PCI-E 16pin mentre sulle varianti dei partner vedremo modelli con uno o due connettori PCI-E 8pin standard. Il modello che proveremo in questa recensione è la Gigabyte GeForce RTX 4070 WindForce OC, con un leggero overclock di fabbrica e singolo connettore PCI-E 8pin.

Questa custom Gigabyte, che non sarà la più spinta del lotto, offre una frequenza Boost di 2.490 MHz; il dissipatore è simile a quello visto su altri modelli della serie Gigabyte WindForce, in questo caso piuttosto contenuto per dimensioni ma perfettamente in grado di gestire questa scheda. Le tre ventole blade in dotazione presentano un regime di rotazione alternato (max 3.200 RPM) e vanno a raffreddare un corpo lamellare in alluminio collegato a un heatsink attraversato da tre heatpipe in rame a diretto contatto con la GPU oltre che con VRM e chip di memoria. Nei prossimi paragrafi vedremo come si è comportata la scheda sotto il profilo termico/acustico, ma in linea di massima non abbiamo rilevato particolari novità rispetto a modelli WindForce precedentemente testati.

PIATTAFORMA DI TEST

Seguendo il trend delle ultime recensioni, quantomeno per avere risultati più facilmente confrontabili, utilizzeremo ancora la nostra piattaforma Intel Raptor Lake-S con RAM DDR5; riguardo invece la risoluzione nei giochi abbiamo optato per il 1440P e il 4K, ambito dove l'ultima scheda NVIDIA può dare comunque qualche soddisfazione. A seguire la configurazione nel dettaglio:

Hardware

  • Schede grafiche:
    • NVIDIA GeForce RTX 4090 FE
    • NVIDIA GeForce RTX 4080 16GB Aero OC (custom Gigabyte)
    • NVIDIA GeForce RTX 4070 Ti Gaming OC (custom Gigabyte)
    • NVIDIA GeForce RTX 4070 WindForce OC (custom Gigabyte)
    • NVIDIA GeForce RTX 3090 Ti (custom Zotac)
    • NVIDIA GeForce RTX 3090 (custom MSI)
    • NVIDIA GeForce RTX 3080 12GB LHR Suprim X (custom MSI)
    • NVIDIA GeForce RTX 3080 FE
    • NVIDIA GeForce RTX 3070 Ti FE
    • NVIDIA GeForce RTX 3070 FE
    • AMD Radeon RX 6900 XT
    • AMD Radeon RX 7900 XT
  • Processore: Intel Core i9-13900K 5,5 GHz all-core (5,8 GHz dual-core)
  • Dissipatore: ASUS ROG RYUJIN II 360
  • Scheda madre: ASUS ROG Strix Z790-E Gaming WiFi
  • Memorie: Corsair Vengeance DDR5 - 32GB / 6200 MHz / CL36
  • Storage SSD: Corsair MP600 PRO LPX 2TB
  • Alimentatore: Corsair RM1000x 1000W
  • Driver: NVIDIA GeForce Game Ready 531.42, Adrenalin 23.1.2
  • Sistema Operativo: Windows 11 Pro

Software

  • Test 3D sintetici e giochi (raster+ray-tracing):
    • 3DMark Firestrike Ultra
    • 3DMark Time Spy e Time Spy Extreme
    • Final Fantasy 14 - Ultra
    • Hitman 3 - Ultra
    • Horizon Zero Dawn - Ultra
    • Shadow of The Tomb Rider - Ultra
    • Metro Exdodus Enhanced Edition - Ultra
    • Assassin's Creed Valhalla - Ultra
    • Watch Dogs: Legion - Ultra
    • Far Cry 6 - Ultra
    • Red Dead Redemption 2 - Ultra
    • Cyberpunk 2077 - Alto

  • Giochi con DLSS 3.0:
    • F1 2022
    • Cyberpunk 2077
    • Forza Horizon 5
    • Microsoft Flight Simulator

  • Test di Calcolo - Produttività - Rendering - Ray Tracing:
    • GPUPI - Calcolo 32 Miliardi / 20 istanze
    • Geekbench 5 GPU Benchmark - CUDA e Open CL
    • Blender 3.3
    • Indigo Benchmark
    • Octane Benchmark
    • V-Ray - Benchmark CUDA e Ray Tracing

TEMPERATURE - RUMOROSITA' - CONSUMI - OVERCLOCK

Avendo già testato la GeForce RTX 4070 Ti - ottima a livello termico termico - non ci aspettavamo particolari sorprese (in negativo) per quanto riguarda le prestazioni di questo modello custom Gigabyte, quantomeno sotto il profilo delle temperature. La nostra previsione è stata ampiamente confermata, non solo per via del generoso dissipatore triventola in dotazione, ma anche e soprattutto per il TGP piuttosto contenuto della GeForce RTX 4070 (ricordiamo solo 200 watt).


Come anticipato sopra, il comportamento del dissipatore Gigabyte WindForce non differisce molto da quanto visto in altri test da noi effettuati. Le prestazioni con ventole gestite in automatico sono identiche a quando impostiamo manualmente il 60% del regime rotativo; c'è da ricordare però in questo secondo caso andiamo a perdere la modalità semi-passiva a discapito della rumorosità.


Le temperature sono ottime quando "blocchiamo" le ventole all'80% o al 100% ma la rumorostà aumenta sensibilmente, tanto che sconsigliamo tale profilo per un utilizzo quotidiano.


Riguardo i consumi infine, confermiamo i dati forniti da NVIDIA, soprattutto se paragoniamo le GeForce RTX 3080 ed RTX 3070 Ti di precedente generazione; nel prossimo capitolo tenete presente questo dato - consumo medio in gaming - quando andrete a leggere i grafici delle prestazioni.


L'ultima tornata di test prima dei giochi riguarda le doti di overclock, anche in questo caso in linea con quanto visto sulle altre soluzioni GeForce RTX 40. La Gigabyte GeForce RTX 4070 WindForce OC permette di incrementare il Power Limit solo dell'8% - qui potrebbe entrare in gioco il secondo connettore PCI-E 8pin - sufficiente però a spingere la frequenza GPU di ulteriori 200 MHz e le memorie GDDR6X di 400MHz. Con tali impostazioni, la GPU opera a una frequenza media di 2.970 MHz in gaming con picchi di 3.056 MHz (VRAM a 21,3 Gbps), risultato che possiamo definire apprezzabile; a titolo d'esempio, segnaliamo che il risultato a default nel 3DMark Time Spy è di 18.186 punti

PRESTAZIONI IN GAMING E PRODUTTIVITA'

Veniamo ora ai giochi e alle prestazioni offerte da questa GeForce RTX 4070 rispetto alle altre schede grafiche presenti nel nostro database. Iniziamo dai risultati registrati con ray-tracing disabilitato, ambito che conferma il salto generazionale di Ada Lovelace rispetto ad Ampere, soprattutto in fatto di Streaming MultiProcessor ed RT Core.

Il primo benchmark, 3DMark, mostra i risultati "reali" in termini di prestazione assoluta ed evidenzia che questa GPU offre il meglio in ambito DirectX 12, battendo nettamente la RTX 3070 Ti per allinearsi quasi a una GeForce RTX 3080 10GB.

Nei giochi in realtà rileviamo un comportamento piuttosto simile, con l'unica differenza che GeForce RTX 3070 Ti viene ulteriormente staccata, spostando così la sfida sui livelli della vecchia ammiraglia Ampere (RTX 3080 appunto). Nei vari titoli presi in esame, RTX 4070 ed RTX 3080 si alternano sia a 1440P che in 4K, tanto da decretare una sorta di pareggio.

Lo stesso scenario si ripropone quando attiviamo il ray-tracing, dove sicuramente ci può venire in aiuto il DLSS sia con le RTX 40 che con le RTX 30. Se parliamo di DLSS 2.0, i risultati cambiano poco e non mettono del tutto in evidenza le peculiarità di Ada Lovelace, motivo che vede la maggior parte dei titoli provati senza DLSS (fa eccezione Watch Dogs: Legion).


Le cose cambiano nettamente se prendiamo in considerazione titoli che supportano il DLSS 3.0, funzionalità che garantisce un Boost prestazionale notevole rispetto alle GeForce 30. In queste condizioni, GeForce RTX 4070 riesce a garantire un framerate nettamente superiore a una RTX 3080, toccando un picco del +86% su Microsoft Flight Simulator con ray-tracing attivo.





L'ultima sessione di test - relativa alla potenza di calcolo puro, produttività e rendering - cambia decisamente rotta ed evidenzia che in questi precisi ambiti/software la differenza in termini di Cuda Core è ancora determinante, ripassando così lo scettro alla GeForce RTX 3080. Se guardiamo invece al distacco dalla GeForce RTX 4070 Ti, quest'ultima è davanti almeno del 20% nel gaming 4K (in base al titolo) mentre in applicativi come VRay e Blender questa percentuale cresce in base al carico riprodotto.

CONSIDERAZIONI

Se avete seguito il filo dell'articolo, sarete giunti alla conclusione che nel titolo vengono riassunte - in poche parole - quelle che sono le nostre conclusioni sulla GeForce RTX 4070. Se per i due modelli flagship Ada Lovelace, GeForce RTX 4090 ed RTX 4080, la potenza di calcolo offerta è tale da mettere quasi in secondo piano i benefici del DLSS 3.0, lo stesso discorso non vale per la GeForce RTX 4070 e i modelli - di fascia inferiore - che la seguiranno.

Andando al sodo, le prestazioni pure in raster e ray-tracing della GeForce RTX 4070 sono ai livelli della GeForce RTX 3080; molto dipende dal titolo giocato ovviamente, mentre la GeForce RTX 3070 Ti viene nettamente battuta (anche se non gridiamo al miracolo). Abbiamo visto che in ambito produttività il distacco dalle top di gamma RTX 30 si fa sentire per una mera questione di Cuda Core, ma in tutto questo contesto non dobbiamo dimenticare che il consumo medio di RTX 4070 è almeno il 40% inferiore a una RTX 3080.


Quando entriamo nell'ottica DLSS 3.0 invece, possiamo apprezzare al meglio cosa può offrire la nuova scheda NVIDIA, posizionata sul mercato con un MSRP di 599 dollari (669 euro in Italia) sia nella variante Founders Edition che in alcune varianti custom come la Gigabyte RTX 4070 WindForce OC in prova. Il prodotto offre sostanzialmente quanto dichiarato dal produttore, +100FPS a 1440P con ray-tracing e DLSS attivi, ma possiamo dire senza problemi che la GPU può dare buone soddisfazioni in 4K se rinunciamo ai dettagli ULTRA in favore di una qualità ALTA.


Chi ovviamente non gioca titoli con ray-tracing e punta tutto sulla risoluzione nativa e le prestazioni raster probabilmente non sarà molto affascinato da questa GPU AD104, tuttavia, come discusso anche in altre occasioni, bisogna accettare il fatto che l'offerta NVIDIA si fa sempre più frammentata e difficilmente ritroveremo gli stessi "valori in campo" che avevamo prima della pandemia (dovrebbe valere anche per AMD).

Non a caso NVIDIA parla di nuova aggiunta alla famiglia GeForce RTX che, dopo il pensionamento delle RTX 3070/3080/3090 Founders Edition, vede l'ultima arrivata GeForce RTX 4070 prendere il posto della "vecchia", ma ancora valida, GeForce RTX 3080. Durante la stesura dell'articolo, GeForce RTX 3080 si può ancora trovare a circa 800/830 euro sui principali motori di ricerca, circa il 20% in più rispetto a GeForce RTX 4070. Diteci la vostra nei commenti.


315

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Nando Mormile

Nessun problema. In cyberpunk non supera i 67 gradi

Nando Mormile

Comunque quante s.egh.3 vi fate sulla VRAM. Io ho giocato dal 2019 fino ad oggi con una 2060 6gb di VRAM e non ho mai avuto problemi. Ora ho preso una rtx 4070 della msi biventola e sto apposto per altri 5 anni con 12 gb di ram, avoglia.

Nando Mormile

Comunque quante s.egh.e vi fate sulla VRAM.
Io gioco da 4 anni con una 2060 con 6 gb di VRAM e non ho mai avuto grossi problemi, giocando sempre tutto maxato, solo nell'ultimo annetto ho cominciato ad abbassare la qualità a medio.
Ora ho appena preso una 4070 biventola della inno3d a 500 euro su amazon nuova (non chiedetemi come l'ho trovata a quel prezzo, botta di culo!) e sto apposto. 12 gb di VRAM bastano e avanzano per altri 5 anni, avoglia.

sgru

ah ma parli della fascia ultra-bassa, quella di tua competenza... Essendo in un articolo di 4070 mi riferivo a ciò che non puoi acquistare.

Monakois 94
Simone70

Ho detto che è migliore? Ho scritto che aspetterò AMD.

Davide

e allora accontentati dell'alternatica economica ma non dire che sia migliore

Simone70

Dei CUDA non me faccio niente per giocare, tensor core per il mio budget sono inutili, dlss 3.0 mi porta un costo di 150$ in più.

Simone70

La 6650 pisc.a in testa alla 3060 "la scheda più venduta di Nvidia", paghi di più per avere un cexx.

Shoo7err

Ero tentato dalle varie soluzioni 3070 nel mercato, ma a quanto pare sarà la 4070 a sostituire la mia vecchia buona 980TI da oltre dieci anni di attività.

Robbie2k

Si ma tu dicevi che per più di 8 Gb si partiva dalla 3070 ed ho puntualizzato, inoltre la 3060 12 Gb si trova a 336, un'inezia più della 8 Gb quindi costicchia ma non più di qualsiasi altra in proporzione, anzi forse questa conviene di più.

GeneralZod

Purtroppo NVIDIA è in una posizione così dominante da potersi permettere anche di disattendere le attese. E venderà tantissimo. Lo street price si attesterà presto sotto ai 600 euro e ne venderanno tantissime.

Mikel

È quasi sempre sotto la 3080 10 GB, alla 12GB non ci arriva praticamente mai. Un ottima scheda, ma la 3080 è stata il riferimento della scorsa gen, peccato non l’abbia superata ed è questo che fa storcere il naso, non è da soldout. Ricordiamoci che la 3070 aveva raggiunto la 2080 TI.

saetta

e niente piu riguardo i dati piu mi chiedo perche una scheda del genere

Frazzngarth

Un amico deve prendere una scheda per il laboratorio: meglio una rtx 4070 o una Quadro?
Utilizza molto R-studio.
Altrimenti AMD?

Cecil the Dark Knight

I modelli Real ESRGAN è da un po' che non li uso. In base all'immagine/video vado a utilizzare un upscaler specifico. Per immagini reali uso 4x_NMKD Superscale-SP e per illustrazioni di solito 4x_NMKD Yandere4, tranne quando da ringing. In quel caso uso come 4x escale, Yandere2 o NeoXL.

Con comunque ESRGAN si hanno a disposizione una quantità enorme di tipi diversi modelli IA, non solo upscaling. Se cerchi "esrgan models" su google ti uscirà un link con un database formato da tantissimi modelli IA per ESRGAN. Da altre parti avevo anche trovato un ottimo di AA, il modello 1x SSAntiAliasNT-Alt, e due modelli per rimuovere gli halftones (preferibilmente integri) dalle scan dei manga (utile quando si legge su schermo)

Monakois 94

Utilizzo R-ERSGAN 4X+ con una 6700XT 12GB su Linux e 41 secondi é il tempo che ci mette per upscalare una immagine da 512 a 4096.

Non mi sognerei mai di consigliarti AMD per scopi lavorativi ma tieni d'occhio lo sviluppo che ha ROCM come alternativa CUDA perché sembra che stia procedendo molto bene.

Cecil the Dark Knight

Il problema non è un immagine. Il problema è quando sono molteplici immagini, specialmente con modelli ESRGAN di denoise.
Poi quando upscali video...

Ste Prince Guerrini

appunto, sei daltonico, succede come ovvio proprio il contrario e la differenza è abbastanza marcata.

Monakois 94
Francesco Bari

Io vedo che la 4070Ti fa meno fps della 4070 in quasi tutti i giochi. Ma forse non riesco a distinguere i colori

Ste Prince Guerrini

mi sà che ad occhio, non hai capito nulla guardando i grafici...

Robbie2k

C'è sempre la 3060 12Gb..

Monakois 94

41 secondi sono buoni per upcalare una immagine da 512x512 a 4096x4096?

sgru

Paghi meno e hai meno, mi pare ovvio.

sgru

La serie 4000 di Nvidia, inverosimilmente più si scende di modello peggiore è l'acquisto e lo si capì ben mesi prima dalla data di uscita della 4090 per questo la presi al day 1.

sgru

andrebbe acquistata in USA eheh

sgru

vabè ma è risaputo che ci sono giochi pro AMD e pro Nvidia per questo bisogna fare una media e non pickare i singoli giochi e mettendo nel calderone molti giochi ne esce un 10% più veloce in raster.

Mentre AMD non ha ancora cacciato fuori FSR 3.0, Nvidia è al lavoro al DLSS 4.0.

Ma non credo si tratti di ottusaggine, che può farci la gente se gli unici 2 produttori di GPU (Intel non la conto ancora) hanno aumentato il prezzo? Il problema è che sono solo 2. Se fossero 4-5 di sicuro il prezzo sarebbe inferiore. Come convinci la gente a non comprare più GPU.

Ken

l'unica scheda che si fa digerire "bene" in questa gen è la 4090 ad avere 2k da spendere. il resto sono sovrapprezzate apposta. eppure una 4080 a 750 euro sarebbe stato il sogno di tutti!

Frazzngarth

Ti prego, ma stai scherzando?

se hai un budget di 250 o 300 prendi una RX 6000 o una RTX 3000, per l'amore del cielo...

comprare un 1070 nel 2023...

a 300 trovi la RTX 3060
a 280 trovi la RX 6650 XT
a 240 trovi la RX 6600

io ti consiglio una di queste, la RX 6600 va circa come una RTX 2070, tanto per avere un paragone.

Davide

CUDA, Tensor core, DLSS

sgru

l'AI invece aiuta molto a chi ha una scheda video più lenta, passare infatti da 40 a 60 fps (con GPU di fascia bassa) è molto meglio rispetto a chi passa da 60 ad 80.

15-20? A stento va il 10% in più massimo, ho appena dato un'occhiata a diverse recensioni. Consuma meno, va meglio in RT (ad oggi utile a chi piace goderselo), ha un'AI meglio implementata (DLSS3) e ha meno problemi software.

A parità di prestazioni e di costo andrei di Nvidia dato che mi garantisce un supporto software migliore e la magia del DLSS3.

Ciccillo73

Non credo ci Sia anche in Italia, comunque ti metto le info qui di seguito:
Rate my gear Asus, cerca su Google.

Monakois 94

Ci sono e ci sono state tante gpu AMD che erano preferibili e francamente é inutile tirare in ballo l'AI che oltre ad essere una cosa molto recente,non é rilevante per una scelta in fascia medio-bassa.

La scelta tra una 7900XT e una 4070Ti non é cosí scontata perché da una parte hai un buon +15-20% di performance in raster e ben 8gb di vram in piú mentre dall'altra hai un buon 20% di performance in RT (ad oggi inutile) e il DLSS3.

In entrambi i casi si cade n piedi ma per l'amore della concorrenza,a paritá di prestazioni andrei di AMD.

Simone70

Dimmi le metà funzioni che avrà rispetto alla 4070.

Simone70

Infatti mettiamo in confronto la 3060 con la 6650, fino a 2 mesi fa la 3060 costava 420€, la 6650 348€.

sgru

preferibili fino ad un certo punto, Nvidia è sempre stata avanti in quanto a driver e tecnologie AI così com'è stata avanti nel prezzo.... la gente prende in considerazione anche questo

sì, ci sono stati modelli sicuramente preferibili ed infatti penso che han venduto pure un buon numero ma oggi la situazione è tornata pessima per AMD. Perchè dovrei acquistare una 7900 XT rispetto ad una 4070 Ti?

Cecil the Dark Knight

Visto che gioco in QHD preferirei una 70 o una 60ti.
Per quanto riguarda una possibile scelta su AMD dubito visto che ESRGAN gira su Cuda e ottiene beneficio dei Tensor cores (con la mia 2070 in FP16 è un -20% di tempo).
Vorrà dire che aspetterò.

GeneralZod

La scheda costa buoni 100 euro di troppo, ma ciò è figlio dei tempi. Fa schifo? No, assolutamente. E' una scheda che domina il QHD e in molti frangenti se la gioca con la "vecchia" 3080, che fino a ieri "compravamo" a 700 euro (ed oltre). Ha il supporto al DLSS 3, buono anche in ottica futura e più VRAM. E' perfetta? No, assolutamente. E' volutamente castrata nel BUS, quindi non scala altrettanto bene verso risoluzioni più alte. Diciamo che se trovata sotto al MSRP può anche essere un buon acquisto. Scalda poco, consuma poco e può anche essere messa in setup più piccoli.
Alternative AMD? Certo. Non sappiamo però se le 6xxx avranno il supporto a FSR 3, quindi comunque ci andrei cauto. Inoltre non sono state ancora presentate le 7xxx di fascia medio-alta. Personalmente la prenderei ma attenderei comunque per capire bene prima la situazione.

GeneralZod

Orribili

Frazzngarth

se proprio hai bisogno una Nvidia puoi prendere una 3060 12 GB...

se invece va bene anche AMD ciaone, hai solo l'imbarazzo della scelta.

Danitkd

Io stavo pensando anche a una 1660 Super o una rx6600. Una 1070 non è un po troppo vecchia? Ormai si troveranno solo usate e avranno già parecchi anni sulle spalle...

From Monkey Island 2 (bannato)

da amd non pretendo che tenga il passo con nvidia, ma che faccia una scheda, anche top di gamma, che faccia il cul0 a una xx70 e che te la faccia pagare parecchio meno. Se non tieni il passo con la qualità e tecnologia è sul rapporto prezzo/prestazioni che devi puntare. Presidiare la fascia bassa, medio-bassa e media è nelle corde di AMD. C'è stato un momento in cui nessuno o quasi nessuno avrebbe comprata una 3060 / 3060ti o 3070 se trovavi a molto meno una 6700xt o una 6750 xt . Tanto non ci prendiamo in giro, il grosso delle vendite si fanno in basso, non cone le 80 e le 90.

dadff eewff

ti basta una 1070

Monakois 94

Il "problema" é che il raster di oggi é talmente avanzato da ricreare degli scenari illuminati egregiamente anche senza il RT ed é per questo che quando si attiva il RT,all'atto pratico cambia poco o nulla.

Ci sono delle cose che ovviamente con il RT farai molto meglio ma il punto é che ad oggi non ne vale assolutamente la pena.

Cecil the Dark Knight

Non credo che cambierò la mia 2070 in questa gen. Il fatto è che con Cupscale (ESRGAN) gli 8 GB stanno stretti. Anche in FP16 per sfruttare con l'uso dei Tensor cores.

pollopopo

Be.... alcune cose di illuminazione si possono far bene solo con l'rt, effetti specchio eccc... si possono fare anche col raster da mo.

Monakois 94

Quello che c'é oggi non é il RT ma l'alfa della beta dell'inizio che sará il RT vero e in ogni caso parliamo di una feature che deve scontrarsi con il super ottimizzato raster di oggi.

Il 4K,per quanto superfluo,era qualcosa che riuscivi a percepire sin da subito con i giusti requisiti mentre il RT?
Pozzanghere e specchi che riflettono?
Ci sono anche nel primo TLOUS uscito su PS3.

Saró lieto di sbagliarli ma da quello che ho potuto capire,il RT é piú una features che aiuta gli sviluppatori a "sbrigarsi" che a noi a vedere le differenze sostanziali con l'attuale raster.

Monakois 94

Ci sarebbero le 6800XT e le 6900XT che vanno uguale se non di piú in raster ad un prezzo inferiore.

Attualmente non é ancora uscito nulla nella stessa fascia della 4070 ma il mio discorso verteva piú sul fatto che tolto il RT,le gpu AMD sono state delle valide avversarie snobbate ingiustamente in favore di gpu dal dubbio valore.

Abbiamo rifatto la nostra workstation, ora è tutta ASUS ProArt!

Recensione AMD Radeon RX 7600 XT: mainstream ma con 16 GB di memoria

Acer Predator, nuovi laptop in arrivo. C'è anche un monopattino! |VIDEO

Recensione GeForce RTX 4080 Super FE: il modello total black di Nvidia