NVIDIA GeForce RTX 4000: nuove conferme sulle specifiche tecniche

26 Maggio 2022 137

Dopo il lancio di GeForce RTX 3090 Ti (Recensione) e il refresh delle Radeon RX 6000 di AMD, l'interesse del mercato schede grafiche è tutto rivolto alle GPU next gen AMD e NVIDIA, molto promettenti sotto il profilo delle prestazioni ma ancora con un ragionevole punto di domanda riguardo i possibili consumi e i probabili prezzi (senza dimenticare la disponibilità). Oggi torniamo ad occuparci di GeForce RTX 4000 "Ada Lovelace" e delle ultime indiscrezioni provenienti dai media asiatici, sempre in prima linea in fatto di leak e informazioni "di prima mano" grazie alla vicinanza con la catena produttiva taiwanese (e cinese).

I nuovi dettagli arrivano dalla piattaforma Bilibili e vedono sotto i riflettori la gamma GeForce RTX 40 con le possibili caratteristiche tecniche dei primi modelli che dovrebbero giungere sul mercato: GeForce RTX 4090, GeForce RTX 4080, GeForce RTX 4070 e GeForce RTX 4060.


Precisiamo subito che i dati trapelati non si discostano in modo sostanziale da quelli emersi finora, risultando allo stesso tempo molto ottimistici se la guardiamo in ottica prestazioni rispetto alle attuali GeForce RTX 30. Ancora una volta emerge che la possibile top di gamma, GeForce RTX 4090, sarà il modello che più di tutte farà sentire il salto generazionale, offrendo sostanzialmente sino al 53% di unità di elaborazione in più rispetto alla GeForce RTX 3090 (quantomeno notevole); tale caratteristica, unita al miglioramento architetturale e frequenze di clock più spinte, permetteranno quasi sicuramente di doppiare la sua antenata.


GeForce RTX 4090 dovrebbe avere un TBP di 450 watt, ma il supporto al connettore PCI-E 5.0 sappiamo che permetterà di spingerisi a 600 watt, lasciando poi ulteriore "libertà" ai partner che implementeranno un doppio connettore di alimentazione. GeForce RTX 4080 ed RTX 4070 dovrebbero invece garantire un incremento dei Cuda Core pari al 23% e 25%, con la piccola della serie - GeForce RTX 4060 - accreditata di ben 4.608 Cuda Core, ossia +28% rispetto alla GeForce RTX 3060 (Recensione). Guardando alle informazioni trapelate notiamo che questo modello potrebbe utilizzare 8GB di VRAM GDDR6X e non più 12GB, in dotazione invece alla GeForce RTX 4070; la tabella riportata sopra contiene verosimilmente un errore in quanto con 8GB il bus memoria sarà sicuramente a 128 bit.

Un gamma a dir poco allettante sulla carta, ci sarebbe posto anche per un'eventuale GeForce RTX 4060 Ti e, ovviamente, per la mostruosa e tanto chiaccherata GeForce RTX 4090 Ti che, sencondo le ultime indiscrezioni, potrebbe giungere sul mercato con 48GB di VRAM GDDR6X, 18.432 Cuda Core e un TBP a dir poco impressionante, 900 watt.


137

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Negan Smith

Vedi sotto: se ho fatto confusione mi scuso, non ho problemi. Ma confermo che il DLSS non è così "ottimo" come lo si dipinge, e giocando dal 1440p in su onestamente preferirei lo spatial upscaling (FSR 1.0) perché è sensibilmente più veloce (parere personalissimo).

Negan Smith

In tal caso mi scuso (è facile fare confusione, tuttavia), ma il punto permane.

Negan Smith

Vatti a vedere che PP usano per le GA100, vai, vai...

Intel ha fonderie sue, e la performance, come abbiamo AMPIAMENTE potuto appurare, non è il loro target, bensì la disponibilità in volumi e i contratti con gli OEM. La ricerca delle linee di TSMC ha ben altre finalità, è sin troppo palese.

Superman

bello mio, guarda che su deathloop hanno aggiornato la versione del dlss.. così come hanno sempre fatto su tutti i giochi dove c'è il supporto da dlss 2.0 in su dove basta fare un aggiornamento via driver da parte di nvidia.. mentre per i pochi che ancora hanno dlss 1.0 l'upgrade non è automaticamente fattibile via driver ma dovrebbero lavorare assieme agli sviluppatori del gioco, però son giochi che ormai hanno fatto il loro tempo e non venderanno più copie quindi non ci spendono soldi se poi non rientrano..

quando hai finito di fare cherry picking dillo eh.. oppure magari ammetti che ti sei intromesso "difendendo amd" in un discorso dove non era nemmeno sotto attacco, dove ho semplicemente detto ad uno che ha appena comprato la 3060 che il dlss è tanta roba, amd non c'entrava e non l'avevo manco nominata.. e ora ti arrampichi sugli specchi perchè nonostante parli di onestà intellettuale non hai nemmeno la decenza di ammettere di esserti intromesso a ca$$o

Superman

non ho attaccato i ryzen, mi hai forse visto scrivere che saranno pessimi prodotti mentre intel sono ottimi? è questo il punto io ho risposto a uno che diceva che le rtx 30 consumano molto mentre le radeon no (e ha nno consumi allneati) e diceva che pure gli intel consumano molto, cosa verissima, ma amd stessa ha annunciato che almeno sui top gamma saranno allineati ad intel come consumi.. ho solo fatto notare il fatto che stava usando due pesi e due misure.. sei te che sei arrivato come sempre attaccando alla cieca convinto che la tua squadra del cuore fosse in pericolo, mica io.

Superman

a me sembra invece che intel ad oggi non ha un processo produttivo equivalente ai 5nm tsmc, quindi se vuole produrre con quella densità deve per forza andare da tsmc, non ha scelta.

nvidia ha mollato tsmc sui 7nm andando su samsung 8nm perdendoci anche.. perchè come processo produttivo è inferiore e sale meno in frequenza rispetto ai 7nm di tsmc, e l'ha fatto per una sola ragione: le console! sapeva che avrebbero saturato la linea a 7nm in un periodo storico come questo e quindi si è buttata altrove per cercare di tamponare al situazione crisi, tanto come prestazioni e consumi son riusciti a rimanere allineati ad amd, con la differenza che avevano una disponibilità superiore, e in un mercato dove c'è carenza ogni scheda che esce dalal fabbrica è già comprata quindi conta produrre più degli altri per guadagnare quote di mecato. (strategia rivelatasi vincente perchè infatti hanno guadagnato quote) ma ora che ci sono i 5nm "liberi" (senza console e senza apple che nel frattempo si sposta su altri nodi) non ha senso restare su un processo produttivo inferiore e regalare vantaggi alla concorrenza.. conviene che si metta sullo stesso nodo così questa volta amd non avrà più il vantaggio di un miglior processo produttivo e se la giocheranno alla pari, vincerà la'architettura migliore (nvidia o amd che sia) non è un complotto per soffocare amd, se le rx7000 dovessero andare meglio delle rtx 4000 non sarebbe per una giocata sporca di amd.. così come se invece andassero meglio le rtx 4000 non sarebbe colpa di nvidia..

Negan Smith

Bello mio, la versione di DLSS che crea imbarazzanti artefatti su Deathloop è proprio le 2.3, quindi...

E la distinzione tra le differenti versioni la faccio, eccome.

Negan Smith

Nun song Locusta...

Ad ogni buon conto, non c'è bisogno di essere un fanboy AMD per replicare agli attacchi ai Ryzen e suggerire che prima di fare polemica bisogna vedere cosa offrono "gli altri".

Superman

può andare forte quanto vuoi, ma una cpu da 230w non la compro, e questo è un fatto. infatti se ti togliessi gli occhiali con lenti rosse e leggessi commenti per quello che sono noteresti che non ho scritto che intel è meglio di amd, così come non ho scritto che nvidia sia meglio.. sono intervenuto sotto questo commento:

"1kw is coming... prepara l'alimentatore da 3kw perchè questo sembra l'andazzo che stanno prendendo schede video (nvidia) e processori (intel)."

facendo notare che i consumi delle schede video ad oggi sono allineati, ballano 20w quindi se uno consuma troppo per i suoi gusti allora anche l'altro consuma troppo.. altrimenti sta usando due pesi e due misure. ma cosa mi aspetto da te (Locusta) che sei universalmente un noto fan rosso? il mio unico errore è stato quello di guardare solo ora il tuo profilo @locustreborn

Superman

esatto, bnisogna essere intellettualmente onesti, quindi il dlss è più diffuso, punto. che fsr 1.0 sia arrivato a 80 giochi in meno tempo rispetto al dlss conta poco, sta di fatto che ad oggi dlss è più diffuso, così come conta poco fare cherry picking su specifiche versioni del dlss che hanno problemi di ghosting se poi son stati già risolti e quei problemi risalgono a novembre dello scorso anno, è poco onesto da un punto di vista intellettuale.

tutti i recensori famosi sono sponsorizzati da qualcuno, la differenza è che chi lo dice apertamente almeno sai che devi evitare di leggerti le "conclusioni" ma limitarti a guardare i test effettuati, i risultati dei test sono veri, e il fatto che ha mostrato il ghosting dove c'era fa capire che nonostante gli sponsor recensisce in modo onesto.

la differenza tra me e te è che io ho risposto ad un commento dove dicevo che il dlss è tanta roba, ed effettivamente lo è.. è innegabile, non ho denigrato fsr, o amd.. eppure tu ti inserisci a gamba tesa criticando a casaccio e sostenendo fsr 2.0 che è appena uscito e ancora non si sa come va dato che è stato aggiunto su un numero limitatissimo di giochi (e come ho già detto ci sta essendo appena uscito) sei te che sei arrivato dal nulla a farne una questione di brand mica io.. e anche questo non i sembra molto onesto dal punto di vista intellettuale

Negan Smith

Concordo, almeno non per il momento, e non in questo modo esagerato, finalizzato solo a fare marketing (proprio come l'infame ipertesselazione di MafiaWorks ai tempi di Crysis e Batman, chi dimentica è complice).

Negan Smith

Bisogna contestualizzare. Vediamo a cosa corrisponde in termini di performance un aumento tale del consumo, soprattutto in relazione alla concorrenza: aspettiamo di ammirare cosa sapranno fare "quelli bravi", i blu e i verdi.

E verifichiamo le spec definitive, non i proclami da social network (persino se vengono da AMD, che già in passato ha trollato tutti per disorientare la concorrenza).

Negan Smith

Informato meglio, che con oltre 80 titoli, FSR 1.0 è stata la tecnologia grafica più rapidamente adottata della storia dei computer.

Digital Foundry E' pagata da Nvidia: vatti a vedere i loro vontenuti sponsorizzati e le recensioni fatte passo-passo seguendo le guide di Nvidia. Non ci vuole molto a verificare.
E in tutta onestà sono rimasto a bocca aperta quando Alex "Depth Of Field" Battaglia (soprannominato così perché quando ha recensito FSR 1.0 ha tenuto attivato il RIS per i suoi zoom 400x del DoF) ha sottolineato i gravissimi artefatti di DLSS 2.3.

Quindi, se dobbiamo dire le cose "come stanno", in prerequisito è essere intellettualmente onesti.
Ok, Kal-el?

Jacopo93
Emiliano Frangella

Non vale la pena rtx

Superman

a parte che parlavo più che altro di schede video, ma vabbè... lato cpu fino ad alder lake vs ryzen 5000 si, eccetto il 12600k che in gioco è una bomba il resto della lineup intel non mi fa impazzire.. però adesso con am5 le cose sembrano essere un po cambiate, almeno sui top gamma con il 7950x 16 core 32 thread che va ad avere un tdp base di 170w (il 5950x aveva 105w) e tdp limite a cui arriva con pbo attivo raffreddamento permettendo 230w (come il 5950x andava a 140w e rotti con pbo attivo, che era il limite dichiarato da amd per il socket am4) ricordo che il 12900k arriva a 241w.

come non sono contento dei consumi del 12900k non lo sarò nemmeno del 7950x, non resta che vedere gli altri processori, magari le versioni a 8/12 core andranno meglio come efficienza, ma ora stando a quello che amd stessa ha detto come consumi sono pari al 12900k.. il che mi fa desistere anche dal guardare le performance perchè a prescindere una cpu del genere (amd p nvidia che sia) non la compro.

Superman

lato vga: hanno prestazioni allineate (salvo cherry picking) e consumi allineati (non mi venire adire che 20w fanno la differenza su una scheda video) quindi come fai a dire che amd ha un rapporto prestazioni/consumi migliore??

lato cpu: ryzen 5000 sono ottimi prodotti, non perfetti ma ottimi, infatti ad oggi per gaming prenderei un 5700x se assemblassi da zero. riguardo i ryzen 7000 (top gamma 16 core 32 thread) non sembra essere entusiasmante, 170w come tdp standard (il 5950x aveva 105w) e tdp limite a cui arriva con pbo attivo raffreddamento permettendo 230w (come il 5950x andava a 140w e rotti con pbo attivo) ricordo che il 12900k arriva a 241w.. non è che siano tanto distanti.. chiaramente vedremo il prodotto finito, ma come non ero contento dei consumi del 12900k probabilmente non sarò contento del 5950x

Superman

ti informo che il dlss 2.3 risale a novembre, siamo ormai praticamente a giungo con il dlss 2.4.X

la diffusione del dlss è pure maggiore rispetto a fsr (che essendo open source ci si aspettava si diffondesse a macchia d'olio)

dlss 1.0 essendo oggettivamente imperfetto si è diffuso su una decina di titoli, da quando è uscito il 2.0, da quando non serve più andare a collaborare strettamente con gli sviluppatori per addestrare l'IA ma basta un semplice driver ha preso il volo. poco da dire.. bisogna essere oggettivi nelle cose.. con fsr 2.0 come si mette? lo vedremo quando si diffonderà.. per ora esiste su un numero infinitesimale di giochi essendo appena uscito, sarebbe quanto meno prematuro parlarne ora

gli zoom sui fermo immagine vengono fatti perchè ormai il dlss ha raggiunto livelli notevoli, hai citato digital foundry? bene.. sappi che anche loro fanno zoom a 400x nelle comparative :) anche loro son pagati da nvidia o sei te che sei un po paranoico?

Superman

ti informo che il dlss 2.3 risale a novembre, siamo ormai praticamente a giungo con il dlss 2.4.X

la diffusione del dlss è pure maggiore rispetto a fsr (che essendo open source ci si aspettava si diffondesse a macchia d'olio)

dlss 1.0 essendo oggettivamente imperfetto si è diffuso su una decina di titoli, da quando è uscito il 2.0, da quando non serve più andare a collaborare strettamente con gli sviluppatori per addestrare l'IA ma basta un semplice driver ha preso il volo. poco da dire.. bisogna essere oggettivi nelle cose.. con fsr 2.0 come si mette? lo vedremo quando si diffonderà.. per ora esiste su un numero infinitesimale di giochi essendo appena uscito, sarebbe quanto meno prematuro parlarne ora

gli zoom sui fermo immagine vengono fatti perchè ormai il dlss ha raggiunto livelli notevoli, hai citato digital foundry? bene.. sappi che anche loro fanno zoom a 400x nelle comparative :) anche loro son pagati da nvidia o sei te che sei un fan boy paranoico?

Negan Smith

DLSS 1.0 o 2.0?
E ora che è uscito FSR 2.0 come si mette?

Fermo restando che, a mio avviso, con le risoluzioni alte è meglio FSR 1.0, perché è più veloce e la qualità di immagine è praticamente identica (a patto di non fare lo zoom 500x di un'immagine statica con fili sottilissimi, come fanno gli influencer pagati da Nvidia).

Piuttosto, andate a vedere la recensione di FSR 2.0 fatta da Digital Foundry, al minuto 20:00. Con DLSS 2.3, il migliore a detta di tutti, dopo 90 secondi di permanenza su immagine statica con dettagli in movimento si crea un artefatto ghosting tipo foto sovraesposta. Inguardabile.

Iena_Reloaded

se tralasciamo RT, mi sembra che ad ora amd abbia il miglio rapporto consumi/prestazioni lato vga; lato processori invece su AM4, Zen è spettacolare ed è un dato di fatto. Per l'AM5 invece aspetto di vedere i prodotti recensiti, anche se sembra inevitabile un aumento dei consumi, ma non tanto quanto intel per ora

Negan Smith

Dovevi prendere una Polaris!

Negan Smith

Te lo devo dire io che comunque è parecchio sotto Intel nei consumi?

Negan Smith

Mah, vale la pena?

Negan Smith

Il segreto sta nel farlo prima che le quote siano contrattualizzate.
E accaparrarsele non appena vengono lasciate libere dai giganti della telefonia mobile quando questi si spostano sui processi produttivi più nuovi.
Ad esempio, come mai Ampere è prodotta da Samsung, ma la linea pro è prodotta con i 7nm di TSMC?
Come mai Intel, che ha le sue fonderie, ha comprato grosse fette della produzione 5nm di TSMC? Come mai Nvidia ha abbandonato Samsung e si è spostata completamente su TSMC?
Ame sembra semplicemente un piano per soffocare la capacità produttiva di AMD.

Simplyme

Insomma.

Se hanno già le quote produzione assegnate non conviene a TSMC revocarle.

nvidia ha commesso l'errore di puntare su Samsung.

Ivan Clemente Cabrera

"4070 con meno banda della 3070" che sia meno come lo sai? A me sembrano uguali

Frazzngarth

Trovami differenza fra un 720p e un 4K da 4 metri 48 pollici, vai.

Davide

Nvidia sempre al top

sgru

ahhahaah

Frazzngarth

In 4K forse

Frazzngarth
Frazzngarth

Una 2060 per il 1440p in 21:9? Ma se fa fatica a dominare il 1080p...

E poi di quanti fps parliamo?

NaXter24R

Onesto? Ora, che ci sia il salto è vero, anche complice il fatto che la serie 2000 fa schifo. Ma la 3060 è una scheda che in condizioni normali doveva costare 250/300€, tu l'hai pagata il doppio. Parliamo sempre di una scheda di fascia bassa. Perchè non facciamoci ingannare, le 60 son fascia bassa e le 50 entry level, questo a prescindere dalle prestazioni. La fascia media, son le 70.

Superman

Esatto, anche se il dlss comunque è tanta roba.. E ora praticamente è ovunque..

sgru

andrò diretto di 4090 per godermela da subito, la Ti esce troppo tardi

sgru

io ho una TV 720p, non vedo la necessità di passare ad una 4k francamente parlando

sgru

dipende come ci giochi a quella risoluzione e soprattutto a cosa giochi... dire "io gioco a 3440x1440" senza dire come è riduttivo

ErCipolla

L'aumento "grezzo" della risoluzione di rendering è una delle cose più pesanti in assoluto, quindi non c'è da stupirsi. Probabilmente con DLSS riesce a fare 4k anche la 4060 a mio avviso, ma 4k "reali" è più ardua.

Emiliano Frangella

Semplice.... I giochi diventano sempre più pesanti.
La RX 6750 da 640 euro è consigliata per mandare tutto a 1440p pensa

Negan Smith

A prescindere dai rapporti, gli affari sono affari. Se metti un sacco di soldi sul tavolo, TSMC è più che disposta ad assegnare le quote dei PP a Intel e Nvidia piuttosto che a AMD. Il Team Blue e il Team Green sanno benissimo che possono strozzare AMD non facendole produrre chip dall'unica fonderia competitiva su cui AMD può fare affidamento. Cosa che non escludo sia già successa...

Emiliano Frangella

Guarda che le so queste cose e le vedo.
Ma al rtx vero e proprio si può rimediare con altri stratagemmi... E anche più leggeri.
Il fatto che su Battlefield fanno vedere i riflessi che ci sono con rtx, ma con questo spento spariscono del tutto, è solo un fatto commerciale ingannevole.

Altra cosa. Spiegami perché su metro exodus, senza riflessi sullacqua c'è poca roba.... Ma con rtx attivo si migliorano. Ma quando ruoti la visuale questo spedisce?? Eppure è rtx attivo. Se vuoi ti faccio pure gli screen

Negan Smith
Superman

Mah.. Nvidia è amd ad oggi hanno consumi mto simili, prendi la 6900xt e la 3090, 330w contro 350w, o 6700xt e 3070, 23w contro 250w.. Ed è così anche per le altre fasce.. Ballano poche decine di watt.

P.s. Amd si è corretta riguardo le cpu am5, vai a vedere gli articoli che parlano dei 170w, e dei 230w

NaXter24R

Ripeto, no. Ma manco per sbaglio. Io ho una 3070ti e mai una volta ho avuto problemi con 8gb giocando a 1440. Potrei averne qualcuno in 4k, ma è una scheda che non nasce per quella risoluzione. L'unico modo per avere problemi, è volerli, per esempio se un gioco alloca male le risorse. Altrimenti in 8gb ci stai tranquillmente

NaXter24R

Esattamente come tra GDDR6 e GDDR6X, motivo per cui prendersela per il bus ha poco senso.

FlowersPowerz

Si vede che non hai idea di cosa sia lo screen space reflection. Finché quello che vedi è renderizzato dalla gpu si vede il riflesso, ma appena abbassi la visuale verso il pavimento vedrai che scomparirà a poco a poco il riflesso rimanendo solo il cube map (se implementato). Questo screen dimostra soltanto che lo screen space reflection funziona, ma non è a quello che serve il ray tracing.

Federico

Ok!

Jotaro

Latenze e velocità diverse.

Jotaro

La Ti costava troppo al tempo.
Mi mangio le mani every day.

Recensione AMD Ryzen 7 6800U, la iGPU ora convince

Recensione AMD Ryzen 7 5800X3D: la V-Cache 3D funziona alla perfezione

Recensione NVIDIA GeForce RTX 3090 Ti: l'ultimo grido di Ampere

Mac Studio e Studio Display ufficiali: il Mac mini cresce ed è potentissimo | Prezzi