Recensione NVIDIA GeForce RTX 4090: Ada Lovelace è un mostro di potenza | VIDEO

14 Ottobre 2022 528

Rimani aggiornato quotidianamente sui video, approfondimenti e recensioni di HDblog. Iscriviti ora al canale Youtube, basta un Click!

Eccoci finalmente ad esaminare le prestazioni e le novità delle GeForce RTX 4000, la nuova generazione di schede grafiche NVIDIA basate su architettura GPU "Ada Lovelace" e realizzate su nodo produttivo TSMC a 4nm. L'annuncio è arrivato lo scorso 20 settembre dopo mesi di indiscrezioni e notizie - spesso fuorvianti - che però ora cercheremo di verificare in prima persona con i nostri test.

Come da tabella di marcia, apre le danze la top di gamma della serie, sua maestà GeForce RTX 4090, finora la scheda grafica più potente e "impressionante" su cui abbiamo messo le mani in tanti anni di attività. La nuova ammiraglia, insieme ai modelli che la seguiranno a breve - GeForce RTX 4080 in primis - porta sul mercato il meglio della tecnologia NVIDIA attualmente a disposizione; le novità sono tante e, almeno stando ai dati forniti dal produttore, vengono affiancate a prestazioni "pure" da primato che, rispetto alla precedente generazione GeForce RTX 30, sono nettamente superiori nei giochi, mentre in ambito ray-tracing si arriva anche quattro volte quello che può offrire un altro mostro di potenza come la GeForce RTX 3090 Ti (Recensione).


Questi risultati sono resi possibili non solo dalle novità architetturali delle GPU Ada Lovelace, ma anche da importanti implementazioni come il DLSS 3.0 e il SER (Shader Execution Reordering); a questi si affianca poi il doppio Encoder NVIDIA (NVEC) e tutta una serie di ottimizzazioni hardware/software che rendono queste GPU le soluzioni ideali anche per altri ambiti come la creazione di contenuti e l'Intelligenza Artificiale (ma non solo ovviamente). In questo contesto la GeForce RTX 4090 si pone come un nuovo punto di riferimento, un prodotto che come la sua antenata RTX 3090 (Recensione) non è una scheda pensata per il gaming, o meglio, offre prestazioni senza compromessi in 4K aprendo le porte all'8K, ma garantisce risultati incredibili sui software di produttività più diffusi.

Le peculiarità delle GeForce RTX 4000 e della GeForce RTX 4090 sono state già trattate nei nostri precedenti articoli, come da prassi però ora faremo un breve recap che farà da introduzione alla nostra suite di benchmark; non mancherà poi la sessione dedicata all'overclock dove i risultati sono stati altrettanto sorprendenti. NVIDIA è sembrata molto sicura delle potenzialità del nuovo prodotto, basti ricordare le dichiarazioni del CEO dell'azienda, Jensen Huang, in occasione della presentazione all'ultima GTC:

L'era del ray-tracing RTX e del rendering neurale è in piena crescita e sta rivoluzionando il settore, la nostra nuova architettura Ada Lovelace rappresenta un’evoluzione che porta tutto al livello successivo. Ada offre un salto di qualità nelle prestazioni per i giocatori e apre la strada ai creator di mondi completamente simulati. Con prestazioni fino a quattro volte superiori rispetto alla generazione precedente, Ada stabilisce un nuovo standard per il settore.

NVIDIA GEFORCE RTX 4000 - CARATTERISTICHE GPU ADA LOVELACE

Partiamo dal principio e dalle GPU annunciate da NVIDIA che andranno ad equipaggiare le GeForce RTX 4000, almeno per questa "prima fase" di lancio dell'architettura Ada Lovelace. Abbiamo tre GPU: la top di gamma AD102 in dotazione alla GeForce RTX 4090, la AD103 su cui si basa GeForce RTX 4080 16GB e AD104 che NVIDIA utilizza sulla GeForce RTX 4080 da 12GB (ne abbiamo parlato QUI).

NVIDIA AD102 è un chip a dir poco imponente: 76,3 miliardi di transistor su una superficie di 608,5 mm2, 144 Streaming Multiprocessor, 18.432 Cuda Core, 144 RT Core e ben 576 Tensor Core. Come è accaduto per le precedenti generazioni, la GPU top di gamma "consumer" RTX 4090 è una versione leggermente castrata del chip (se così si può dire); gli Streaming Multiprocessor scendono a 128 e i Cuda Core a 16.384 (512 Tensor Core), abbinati a 24GB di memoria GDDR6X da 21Gbps su bus a 384 bit.
Ma cosa cambia sostanzialmente rispetto alle GPU Ampere delle GeForce RTX 3000?


Iniziamo dalle basi. Le GPU Ada Lovelace possono contare su un nuovo Streaming Multiprocessor che, oltre ad essere decisamente più potente rispetto a quello di Ampere - si parla di un picco di 90 TFLOPS - risulta anche il doppio più efficiente. Questo però è solo l'inizio: a bordo troviamo anche i Tensor Core di Quarta Generazione per i calcoli AI con prestazioni sino a 1,3 TFLOPS (su RTX 4090) e gli RT Core di Terza Generazione che, grazie a diverse novità e ottimizzazioni, permettono di doppiare le prestazioni ray-tracing (pure) della precedente generazione, soprattutto nelle scene più complesse.


Parlando di hardware, le GPU NVIDIA ADA Lovelace vantano anche una cache L2 maggiorata e nuove unità come DMM (Displaced Micro-Meshese) e OMM (Opacity Micro-Maps), direttamente coinvolte quando parliamo di prestazioni ed efficienza di risorse in ambito ray-tracing; a queste poi si aggiunge un altro elemento importante denominato SER (Shader Execution Reordering) che permette di sfruttare meglio le risorse della GPU gestendo con più efficienza i carichi di lavoro shading.



Altra novità, tra le più importanti delle GeForce RTX 4000 possiamo dire, è il DLSS 3.0 (ne abbiamo parlato QUI), l'ultima incarnazione dell'ormai nota tecnologia di super sampling NVIDIA basato sull'AI, che promette un balzo prestazionale che può arrivare sino a quattro volte rispetto alle GPU Ampere con DLSS 2.0. Il DLSS 3.0 punta tutto sui nuovi Tensor Core di Quarta Generazione e su elementi come l' Optical Flow Accelerator (OFA) e Optical Multi Frame Generation, con quest'ultimo capace di generare interi frame di transizione; il tutto poi è abbinato alla tecnologia NVIDIA Reflex per abbattere i tempi di latenza e garantire così un' esperienza utente ancora migliore e più fluida. NVIDIA DLSS 3.0 debutta oggi con la GeForce RTX 4090, oltre ai 35 giochi compatibili già annunciati presto sarà supportato da diversi altri titoli.


Ultima caratteristica, non per importanza se la guardiamo dal lato dei creatori di contenuti, l'implementazione di un doppio encoder per la codifica/decodifica AV1 che, sempre stando ad NVIDIA, permette di migliorare le prestazioni sino al 50% quando si parla di esportazione.

GEFORCE RTX 4090 FOUNDERS EDITION: E' ENORME, MA CHE SCHEDA!

Protagonista della recensione odierna è la GeForce RTX 4090, una scheda come detto davvero imponente, ma che sostanzialmente non si discosta dalle sue antenate, GeForce RTX 3090 e GeForce RTX 3090 Ti. Viste le caratteristiche di quest'ultima in relazione a quanto promette NVIDIA per la nuova ammiraglia, non sorprende che il TDP di RTX 4090 sia impostato a 450 watt; parliamo sicuramente di consumi importanti - soprattutto visto il periodo - ma come al solito non stiamo a discutere sui consumi di una scheda di questo tipo che, nella versione Founders Edition, costa in Italia 1.979 euro di listino.


Ricapitolando, la GeForce RTX 4090 offre 16.384 Cuda Core (+52% rispetto ad RTX 3090 Ti) mentre il reparto memoria rimane invariato - o quasi - con 24GB di VRAM GDDR6X che operano a 21 Gbps (21,2 Gbps per essere precisi); come per la GeForce RTX 3090 Ti, NVIDIA utilizza però GDDR6X Micron da 2GB, dimezzando quindi la quantità di chip sul PCB (12 in totale vs 24 di RTX 3090), impattando così positivamente su temperature e consumi.


Sappiamo che NVIDIA ha abbandonato il supporto NVLINK (QUI i dettagli), mentre riguardo il connettore di alimentazione troviamo il nuovo PCI-E 5.0 a 12+4pin che, come discusso in varie occasioni, garantisce un'erogazione massima di 600 watt, valori che abbiamo toccato con mano anche nei nostri test. Non avendo a disposizione un alimentatore PCI-E 5.0, abbiamo optato per l'adattatore fornito in bundle da NVIDIA, un cavo PCI-E 5.0 16pin che si snoda su quattro PCI-E 8pin da collegare però su quattro connettori PCI-E indipendenti dell'alimentatore (NVIDIA è molto chiara su questo). In realtà la GeForce RTX 4090 funziona con tre connettori 8-pin, il quarto è suggerito per l'overclock e se vogliamo "sbloccare" tutto il potenziale della scheda (che non è poco).

Riguardo l'estetica, la serie RTX 4000 non cambia direzione rispetto alle RTX 3000; questa GeForce RTX 4090 riprende il design Dual-Axial Flow-Through con doppia ventola, ulteriormente migliorato e a dir poco mastodontico (come del resto si vede in foto). Le ventole sono più grandi per garantire temperature di esercizio nella norma, mentre se invece guardiamo al PCB non notiamo particolari stravolgimenti rispetto alla vecchia generazione.


Prima di passare ai numeri, chiudiamo questo paragrafo con le frequenze, piuttosto pompate se guardiamo alle specifiche del chip AD102 e a quanto visto per esempio su una GeForce RTX 3090 Ti, già abbastanza spinta. La frequenza base del chip AD102 della GeForce RTX 4090 è di 2.235 MHz con Boost a 2.520 MHz, tuttavia l'algoritmo di boost NVIDIA permette di superare questo valore - in base all'applicativo e alle temperature - toccando anche i 2,7 GHz in game.

PIATTAFORMA DI TEST

Come facilmente potete immaginare, una scheda grafica di questa portata necessita di un processore e una piattaforma hardware all'altezza, diversamente le prestazioni potrebbero essere falsate, lasciando inespresso una parte del potenziale della GPU. Anche l'alimentatore non è da sottovalutare; NVIDIA consiglia un'unità di 850 watt ma considerando il resto della piattaforma suggeriamo un buon alimentatore da 1.000 watt, che supporti lo standard PCI-E 5.0 o equipaggiato con almeno tre o quattro connettori PCI-E 8pin.
In attesa di avere a disposizione i nuovi Intel Raptor Lake-S e confrontarli con i Ryzen 7000 recentemente annunciati per aggiornare definitivamente il nostro database, per questa prova rimarremo sul nostro sistema Alder Lake-S, utilizzando un Core i7-12700K overlcoccato a 5,5 GHz su quattro core e frequenza all-core da 5,3 GHz; l'alimentatore rimane il nostro fido Corsair RM1000x da 1.000 watt, decisamente all'altezza della situazione. A seguire la configurazione hardware utilizzata nel dettaglio:

Come visto per la GeForce RTX 3090 Ti, anche in questo caso abbiamo ampliato la suite di test oltre i giochi, integrando una sostanziosa parte di software per la produttività e calcolo di vario genere. Riassumiamo il tutto a seguire, sottolineando che i preset dettagliati dei giochi sono indicati direttamente nei grafici; segnaliamo anche che in questa occasione abbiamo evitato la risoluzione FHD (1920x1080p) in quanto ormai superflua per saggiare le prestazioni di questa tipologia di scheda.

Test 3D sintetici e giochi:

  • 3DMark Firestrike Ultra
  • 3DMark Time Spy e Time Spy Extreme
  • Final Fantasy 14 - Ultra
  • Hitman 3 - ULTRA
  • Horizon Zero Dawn - Ultra
  • Shadow of The Tomb Rider - Alto
  • Metro Exdodus Enhanced Edition - Ultra (Custom)
  • Assassin's Creed Valhalla - Ultra
  • Watch Dogs: Legion - Ultra
  • Far Cry 6 - Ultra
  • Red Dead Redemption 2 - Ultra Custom
  • Cyberpunk 2077 - Alto

Test di calcolo - GPGPU - Rendering - Analisi Sientifica - Crittografia - Transcodifica Immagini - Ray Tracing:

  • GPUPI - Calcolo 32 Miliardi / 20 istanze
  • Geekbench 5 GPU Benchmark - CUDA e Open CL
  • SiSoft Sandra 2022:
  • Calcolo Computazionale GP-GPU
  • Calcolo Scientifico FP32 ed FP64
  • Crittografia AES256+SHA2-256
  • Transcodifica Media AVC/H.264 - 4K HDR 10bit 30FPS
  • Puget DaVinci Resolve - Benchmark Standard (4K) ed Extended (8K)
  • Blender 3.1.2
  • Indigo Benchmark
  • Octane Benchmark
  • V-Ray - Benchmark CUDA e Ray Tracing

TEMPERATURE - OVERCLOCK (a 3 GHz) - CONSUMI

Fatte tutte le premesse del caso, passiamo finalmente ai numeri a dir poco notevoli che sono venuti fuori dalla nostra prima sessione di test, ossia temperature, overclock e consumi. Partiamo dicendo che, nonostante le dimensioni spropositate (i partner andranno anche oltre con le custom) il dissipatore proposto da NVIDIA è assolutamente impeccabile. Viste le specifiche della scheda riteniamo le temperature di esercizio ottime, con livelli di rumorosità che si fanno importanti solo quando impostiamo un regime rotativo fisso sopra il 65-70%.



Anche con ventole gestite in automatico, la NVIDIA GeForce RTX 4090 non ha superato mai i 76 °C (hot spot 85 °C in realtà), permettendo di creare un profilo personalizzato con un ottimo compromesso tra temperature e rumore prodotto; inutile dire che le due ventole al 100% - oltre i 3000 RPM - sono invece molto rumorose, garantendo però di abbattere le temperature sino a 67 °C sotto FurMark (che è ottimo); anche le memorie si sono comportate bene, merito delle GDDR6X Micron da 2GB che permettono di usare meno chip e, cosa più importante, su un singolo lato del PCB.


Quanto ai consumi, vengono confermati i 450 watt di picco, mentre in gaming si nota una migliore efficienza rispetto alla GeForce RTX 3090 Ti, merito appunto della nuova architettura e del nodo produttivo TSMC 4nm. Se passiamo all'overclock - collegando il quarto PCI-E 8pin se non avete una PSU PCI-E 5.0 - abbiamo un'ulteriore conferma sulle ottime doti di questa GPU ADA Lovelace ad operare a clock molto spinti (almeno se guardiamo ad Ampere).



Rimandando comunque questo aspetto a test più approfonditi che faremo nelle prossime settimane, abbiamo superato i fatidici 3 GHz (3.045 MHz) di cui si parlava nei giorni scorsi, il tutto senza alcun problema di stabilità e temperature. Collegando il quarto PCI-E 8pin, la GeForce RTX 4090 esprime tutta la sua potenza nel vero senso del termine: 609 watt di picco sono tanti, ma le prestazioni offerte sono incredibili e fuori portata per qualsiasi GPU di precedente generazione.

PRESTAZIONI NEI GIOCHI A 1440P E 4K

Veniamo ora alla prova dei fatti, i giochi. Le premesse non lasciano spazio a dubbi, ma ovviamente cercare di quantificare l'aumento prestazionale generazione su generazione in raster e ray-tracing è importante, aprendo poi il palcoscenico al nuovo DLSS 3.0 che stravolge le carte in tavola e, anticipiamo, cercheremo di affrontare e approfondire meglio in un secondo articolo. NVIDIA ci ha fornito diverse opzioni per testare il DLSS 3.0, ricordiamo disponibile ufficialmente solo da oggi e quindi non ancora definitivamente sdoganato (nei prossimi giorni/settimane arriveranno nuovi titoli che lo supportano e potremo avere un metro di giudizio più affidabile).

Per il momento abbiamo testato il DLSS 3.0 sul benchmark dedicato del 3DMark e Cyberpunk 2077, titoli che in entrambi i casi danno ragione a NVIDIA riguardo il miglioramento offerto dalla nuova versione del DLSS. Sul titolo di CD Project assistiamo, almeno per il momento e in attesa di nuove release - a un incremento del framerate del 125%, percentuale che si assesta al 110% se prendiamo in considerazione il benchmark targato UL. Ribadiamo che torneremo più avanti sull'argomento DLSS 3.0, ma almeno per adesso non possiamo che confermare i dati forniti da NVIDIA.



Passando alla nostra suite, la situazione non cambia e abbiamo modo di vedere - tranne alcune eccezioni - quanto migliora la potenza bruta nei giochi con le GPU Ada Lovelace senza DLSS. In questo caso i risultati parlano da soli e le percentuali variano di titolo in titolo, soprattutto con risoluzione 4K, il vero terreno di battaglia della GeForce RTX 4090; iniziamo con le prestazioni pure senza ray-tracing:


Ribadendo che si aspettano anche driver ulteriormente ottimizzati e patch per i vari titoli, notiamo subito la marcia in più della RTX 4090 già sul test sintetico del 3DMark dove, prendendo come riferimento il pesante Time Spy Extreme (4K), la nuova GPU Ada Lovelace stacca la più potente Ampere - RTX 3090 Ti - quasi del 72%. In media registriamo un aumento del framerate in 4K del 54,4%, media in realtà "rovinata" da Far Cry 6 che vede la GeForce RTX 4090 davanti solo del 26,8%.

Nei benchmark con ray-tracing attivo le cose vanno ancora meglio, segno che l'architettura sviluppata da NVIDIA è proiettata seriamente per sfruttare al meglio questa tecnologia, aiutata in modo importante dal DLSS (quando attivo).

Anche in questo caso notiamo che i titoli Ubisoft sono quelli meno sensibili al passaggio tra architettura Ampere e Ada Lovelace (almeno per adesso), mantenendo comunque uno scarto prestazionale poco superiore al 30%; decisamente meglio i risultati su Metro Exodus Enhanced Edition, Hitman 3 e Shadow of The Tomb Rider - rispettivamente +76% e + 72% - con Cyberpunk 2077 che fa segnare un +114% con ray tracing e DLSS disabilitato (davvero notevole).

TEST PRODUTTIVITA'

Altro ambito dove GeForce RTX 4090 mostra i muscoli è la produttività e il calcolo, con incrementi notevoli che in alcune occasioni toccano il 100%. Come per i giochi, anche su questa suite di software potremo ottenere migliori risultati con le prossime release dei programmi utilizzati, in linea di massima però siamo piuttosto soddisfatti del comportamento della scheda. Gli unici test su cui cercheremo di tornare sono quelli relativi a Da Vinci Resolve che, provato col benchmark di Puget, ci ha lasciati leggermente perplessi se confrontato con gli altri.

NVIDIA GeForce RTX 4090 dimezza in molti casi i tempi di esecuzione, che sia calcolo puro o rendering (vedi Blender ad esempio), confermando ancora una volta le dichiarazioni del produttore e il salto prestazionale rispetto all'architettura Ampere delle RTX 3000. Nel test crittografia di Sandra si rileva un boost prestazionale del 102% su GeForce RTX 3090 Ti, ma anche nel rendering di Octane siamo a un +85%, così come V-Ray che vede lo score salire del 77,5% in modalità Cuda.

CONSIDERAZIONI

Eccoci a tirare le somme sulla prima scheda grafica della serie NVIDIA GeForce RTX 4000, in un certo senso il modello più semplice da recensire nella fascia alta se guardiamo a quello che offrono, o meglio, hanno offerto finora, i prodotti di precedente generazione NVIDIA e AMD. GeForce RTX 4090 permette di cogliere al meglio le caratteristiche e le novità dell'architettura GPU ADA Lovelace, garantendo in sostanza quello che tutti cercano in un prodotto top di gamma del genere: prestazioni ed efficienza nettamente superiori rispetto alla sua antenata. Quando parliamo di efficienza ovviamente non guardiamo ai 450 watt di consumo di picco - che di questi tempi potrebbero far storcere il naso - ma a quello che la GeForce RTX 4090 offre rispetto a una GeForce RTX 3090 Ti, a parità di TDP o, come visto nei test, con un consumo medio in game inferiore (anche qui si potrebbe fare una sessione dedicata per avere dati più precisi).

La GeForce RTX 4090 batte a mani basse le "vecchie" top di gamma Ampere ed RDNA2 (manca la RX 6950 XT ma cambia poco) e permette agli utenti di sfruttare al meglio i monitor 4K 144Hz in gaming, al massimo dei dettagli e con ray-tracing attivo. Se passiamo poi alle prestazioni con DLSS attivo entriamo in un terreno ancora più fertile per NVIDIA che, con il DLSS 3.0, riesce non solo ad incrementare notevolmente il framerate (vedi Cyberpunk 2077 in 4K), ma garantisce un'esperienza di gioco più fluida e piacevole, abbinata anche a latenze inferiori grazie a NVIDIA Reflex.


Parlando di produttività le cose vanno ancora meglio e pensiamo che nelle prossime settimane i software che sfrutteranno appieno le caratteristiche dell'architettura Ada Lovelace aumenteranno, garantendo quindi ai creatori di contenuti (ma non solo) di abbattere drasticamente i tempi di lavoro, sia per l'elevata potenza elaborativa a disposizione che per il doppio encoder AV1, altro asso nella manica in questo ambito di utilizzo.

Per il resto i grafici parlano da soli, confermando i dati del produttore e gettando le basi per un nuovo punto di partenza per i competitor e le GPU next-gen, AMD in primis. Un accenno anche al potenziale in overclock di questa GPU che, seppur richiedendo molto alla PSU, risulta stabile nel quotidiano settata sino a 3 GHz e non solo per una sessione di benchmark; certo che 600 watt sono tanti, ma come visto nelle varie sessioni non c'è tutta questa necessità di "pompare" ulteriormente le frequenze della GeForce RTX 4090 (che supera comunque i 2,7 GHz). A questo proposito, negli articoli futuri cercheremo di trovare lo spazio per ulteriori prove in overclock, individuando i limiti in frequenza sia con TDP di fabbrica (450W) sia sbloccando tale valore via software (oltre i 600 watt). NVIDIA GeForce RTX 4090 promossa a pieni voti quindi, in attesa dei modelli "più consumer" come la GeForce RTX 4080 e delle sfidanti Radeon RX 7000 basate su architettura RDNA3.

VIDEO


528

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Herobrine

Bo

WhyCryBaby

O gli scarti fallati di AD 104.

migliorare

*la ingoiatra

GeneralZod

Io parlavo della 4070. E' comunque facile sia lo stesso chip con componenti disabilitate.

WhyCryBaby

4080 16GB: AD102.
4080 12GB: AD103.

GeneralZod

Io non so nulla poichè non mi risulta che la 4070 sia mai stata presentata. Potrebbe essere questa 4080 12 o un'altra versiona ancora.

WhyCryBaby

Dici? AD102 vs AD103? Capisci che sono proprio due chip differenti?

WhyCryBaby

DLSS alla fine è upscaling/upsampling, FORSE solo un po' più sofisticato.
La qualità visiva "migliorata" riguarda solo immagini statiche. Buona per i quadri.

GeneralZod

Non mi risulta che il DLSS sia mero upscaling. Quello è il FidelityFX, no? Ho visto sample dove la resa visiva era addirittura superiore al contenuto nativo. Tecniche di ML più o meno sofisticate possono letteralmente ricostruire informazioni mancanti.Ma è vero quel che dici sull'output. La 3090 è così potente da avere colli di bottiglia nelle uscite video (anche 8K 60 Hz).

WhyCryBaby

Con quei prezzi NON hanno scusanti. E comunque non credo che ci siano rimedi. L'upscaling già è una stima approssimata della posizione dei pixel, l'interpolazione è un'ulteriore stima approssimata dell'intero frame a schermo. Stiamo parlando dell'approssimazione dell'approssimazione. DLSS 3 camperà poco.
Inoltre, grazie alla Display Port 1.4, la 4090 non può mandare a schermo immagini in 4K con frequenza maggiore di 120 Hz.

Nvidia vi ha perçulati tutti un'altra volta.

GeneralZod

Sarà anche dovuto ad una release sw molto acerba

sgru

ecco a te, test eseguito dal noto Optimum Tech. Ben 100w in meno perde solo tra il 3 ed il 5% di fps :) Consumo totale del sistema a stock 527w, in undervolt 425w. In undervolt l'intero sistema consuma meno di ciò che avrebbe dovuto consumare la sola GPU.
https://uploads.disquscdn.c...

WhyCryBaby

Guarda la recensione del DLSS 3 su Hardware Unboxed.
Consiglio: tieni il sacchetto del vomito a portata di mano.

WhyCryBaby

No, il prezzo rimarrà quello.

WhyCryBaby

Io la penso ogni volta che guardo la 4090: anche lei succhia una cifra!

WhyCryBaby

Domanda da ignorante, e sarò grato a chi vorrà rispondermi: avendo la 4090 una display port 1.4, il segnale che va a schermo non sarà sempre e comunque limitato a 2160p a 120 Hz?

Frazzngarth
Daniele

Anche 2000w

Emiliano Frangella

ma no
non si differenzia tanto dalla 3090ti
ansi in game consuma anche meno ;)

piero

Consumo medio?

GeneralZod

Problema risolto da Nvidia stessa

Goose

In raster va quanto una 3080, non è proprio il massimo. E' più una 4070, venduta però a prezzo da criminali.

Roberto85

Ma falla finiscila, a voi proibizionisti non passa mai il vizietto eh?

Monakois 94

Non esistono schede migliori ma solo prezzi migliori.

Big wall

il succo del discorso era solo uno, di aspettare prima di comprare queste schede aspettando prezzi più abbordabili.

Big wall

il succo del discorso era solo uno, aspettare prima di comprare queste schede....per far abbassare i prezzi

SpiritoInquieto

Anche io, ma ti mancano le basi proprio! P. S. Non sono anziano...

Ergi Cela

Beh perché le schede nvidia sono le migliori, però anche a 3000/4000 euro secondo me è un prezzo troppo alto con quel prezzo ti fai un pc top di gamma con raffreddamento a liquido,solo un pazzo sarebbe in grado di pagare quelle cifre,anche fosse uno YouTuber per me non ha tanto senso

Mauro Corti (Sbabba)

Guarda io ho giocato sempre su pc, e giocavo molto, soprattutto online con mmorpg (daoc) e fps (america's army, battlefield 2 e battlefield bad company 2). Poi l'università prima e il lavoro poi hanno fatto scemare la voglia, che ogni tanto mi torna prepotente ma ormai ho soltanto un ultraportatile 13". Lavoro moltissimo, quasi come te, e purtroppo il tempo é poco, peró capisco la tua voglia di toglierti lo sfizio. Magari lo faró anche io prima o poi :)

Monakois 94
Vacancy

Un wafer 55nm costava circa $2000 nel 2009, lo stesso wafer a 5nm costa $17000 oggi.

Sarebbe il momento di smetterla di fare questi paragoni con schede di 10 anni fa.

Vacancy

Il DP 2.0 delle Intel Arc è inutile in quanto non si tratta di UHBR 20 ma UHBR 10 e si necessita comunque del DSC per andare oltre il 4K 120hz.

GeneralZod

No, infatti, non avrebbe senso. Diciamo che giochi tutto maxato per 3 anni sopra i 100 FPS in QHD. Poi usciranno nuovi filtri, nuovi effetti, un RTX più complesso ed inizieranno ad arrancare. E si ricomincia. Ho visto video dove reggeva gli 8K...

GeneralZod

Non ne ho idea ma mi sembrava comunque un bel risultato.

le_vitru

non vedi che consumano uguale? scuseeeee

le_vitru

smettila di spilorciare, si campa una volta sola

le_vitru

solo voi anziani, noi nuove leve abbiamo avuto Sasha, Khalifa, Adriana

le_vitru

Rullo ti rendi conto che un climatizzatore assorbe 3 volte una di queste schede?
Dai, concentrati sui problemi reali, per esempio le isole dinamiche

From Monkey Island 2 (bannato)

È un mostro grrrr grrrr

Slartibartfast

Con o senza interpolazione? Perché dlss3 da quel che ho capito arriva anche sulle RTX 3000, solo senza frame interpolation (per ora). Quindi sarebbe un confronto abbastanza farlocco.

Riccardo sacchetti

Ovviamente parlo di videogioco. Per i 2k bastano le attuali, almeno per qualche anno. Senza dubbio. Con questa puoi spingerti oltre e avere 4k ad alti fps nello stesso momento. Era un ragionamento generale. Di fare mille mila frame al secondo non mi interessa. Preferirei una via di mezzo tra i due.

Ma l’UE non si attiva per bloccare queste schede assurde da centinaia di WATT a funzionamento? poi rompe le balle per i tv 8k…

GeneralZod

Non in DLSS quantomeno https://uploads.disquscdn.c...

GeneralZod
Slartibartfast

Le performance erano inferiori alla 3090...

Scemo 4.0

È un 10bit "fasullo", è intervenuto il DSC, i monitor professionali con 10-12BIT veri non supportano tale tecnologia (appunto perchè comprime le immagini), per giocare va benissimo ma se hai bisogno per lavoro ti serve un 10BIT nativo (senza DSC cioè senza alcuna compressione)

RKR

continuo a non vedere il problema (ok il discorso mi servono più porte) https://uploads.disquscdn.c...

Scemo 4.0

Il tuo è "quasi" un monitor 10BIT (8BIT+FRC) e non vedi il supporto ai 10BIT perchè nemmeno la 3090 ha una DP 2.0 e probabilmente nemmeno il tuo monitor, però almeno la 4090 poteva includerla visto che parliamo di un paio di $ al massimo, anche perchè molti usano le xx90 come GPU workstation

RKR
Scemo 4.0

Ho una 3080Ti e un monitor 10bit e sono limitato a 120Hz se voglio tutti i 10Bit (quando lavoro ne ho bisogno), ogni volta mi tocca cambiare modalità nelle impostazioni, speravo che almeno la 4090 includesse la DP 2.0 visto che costa quasi €2000, ho altri dispositivi che occupano le porte HDMI, io non capisco come fate a giustificare tutto, per €2000 dovevano includere una DP 2.0, molto semplice.

Recensione Gigabyte GeForce RTX 4080 AERO OC: Potente e imponente

Recensione Intel Core i5-13600K: Core i7 sei tu? Test con DDR4 e DDR5

Recensione AMD Ryzen 9 7950X e Ryzen 7 7700X: ecco i nostri test con ECO MODE

Recensione Intel Core i9-13900K: Raptor Lake-S sfida AMD Zen4