NVIDIA RTX 4090 arriva a luglio: niente 600 W, ne "basteranno" 450 | Rumor

16 Maggio 2022 34

Pare che dopotutto la NVIDIA GeForce RTX 4090, che dovrebbe essere la scheda top di gamma iniziale della nuova generazione di schede video gaming del colosso di Santa Clara, non avrà richieste energetiche oltraggiose come indicavano le indiscrezioni finora; cioè, chiariamo - consumerà sempre tantissimo, ma non addirittura 600 W - si limiterà ad "appena" 450 W, almeno stando a quanto indica il noto leaker @kopite7kimi su Twitter. La fonte si è rivelata affidabile nel corso del tempo, oltre che essere sempre ben preparata soprattutto sulle GPU e piuttosto prolifica.

Per riferimento, una RTX 3090 standard ha un TDP intorno ai 350 W, quindi è sempre un bel passo avanti rispetto alla vecchia generazione; ma è in linea con quello della RTX 3090 Ti, che abbiamo recensito proprio in questi giorni. Negli scorsi giorni si vociferava dell'esistenza di una variante ancora più spinta, con un TGP di addirittura 900 W. Non è chiaro, a questo punto, di che cosa si tratti.

In ogni caso, la fonte ha condiviso qualche informazione tecnica in più sulla scheda, che riassumiamo sinteticamente qui di seguito:

  • GPU: AD102-300
  • 16.128 core FP32 organizzati in 126 SM
  • Memorie GDDR6X a 21 Gbps
  • Velocità memorie del 90% superiori rispetto alla 3090 Ti
  • Processo produttivo: TSMC N5P, versione rifinita del processo a 5 nm usato l'anno scorso per i SoC mobile top di gamma.
QUANDO ARRIVA

17/05/2022

Ma non è finita qui. Il leaker infatti, interrogato sulla finestra di lancio, ha deciso di sbottonarsi e a scanso di equivoci ha abbandonato formule come "Q3 2022" per puntare dritto verso un periodo ben determinato: metà luglio.


34

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Negan Smith

Caro mio, proprio non ci arrivi...

I benchmark sono TUTTI in mano a Nvidia e Intel, semplicemente perché hanno più soldi per "collaborare" con gli sviluppatori. È un dato di fatto noto e consolidato, basta andare a guardare chi fa parte degli investitori nelle società che controllano le società di sviluppatori.

Come GIUSTAMENTE fai notare anche tu, Nvidia ad oltre l'80% del mercato dGPU è una favoletta raccontata dal marketing di Nvidia e ripetuta dagli influencer suoi schiavi. Quel 60% di Nvidia, oltre a riflettere un panorama ben più bilanciato nel settore desktop DIY (e ancora privo dell'incidenza delle diffusissime APU di AMD) è anche frutto del mining, per cui mi aspetterei grossi progressi di AMD nell'immediato futuro.

FSR, se ti documenti un attimo, è la tecnologia più rapidamente adottata nella storia della grafica, con oltre 80 titoli con FSR 1.0 e altri 13 in arrivo con FSR 2.0. Chi afferma che DLSS sia ancora la tecnologia più diffusa omette colpevolmente di indicare che è stata lanciata ANNI prima e che molti titoli hanno accesso solo al DLSS 1.0, che come sappiamo è una gran bella mèrdå. Non che il DLSS 2.3 sia meglio, visto quanto sorprendentemente indicato da Digital Foundry, che fa notare come un'immagine inquadrata per oltre 10 secondi produce un ghosting DA VOMITO!

Ti consiglio di seguire di più Moore's Law Is Dead, un canale YouTube che fornisce sempre eccellenti approfondimenti e anteprime. In un'intervista a uno sviluppatore, è stato detto che parlare di "performance" senza tenere a mente la "pipeline" dei calcoli semplicemente NON HA SENSO. In pratica significa che in tutta la tecnologia informatica il binomio hardware e software è indissolubile. Se il software, sotto forma di ogni applicativo possibile, compresi i giochi, è fatto "su misura" per ottimizzare il rendimento su un determinato hardware, ovviamente quello specifico hardware sarà avvantaggiato. Quindi i vari CUDA core, i vari RT core, i vari Tensor core, avranno un primato solo fino a quando Nvidia spenderà ingenti somme di denaro per convincere gli sviluppatori ad ottimizzare per loro.
Te la devo raccontare io la storiella dei gruppi di ingegneri Nvidia mandati a "collaborare" coi vari team di sviluppo o già la conosci? Te lo devo dire io che nulla si fa gratis o già lo sai?

Quindi, "caro lei", puoi sbellicarti quanto vuoi, ma questi elementari esercizi di dialettica che provi a fare con me posso funzionare solo con le menti deboli, un po' come i poteri Jedi. Con me non funzionano. Primo perché mi informo, e tanto. Secondo perché, come tanti altri, o forse A DIFFERENZA di tanti altri, io ho cominciato con Intel e Nvidia per poi apprezzare AMD. Una società che 7 anni fa doveva fallire a causa delle macchinazioni di Tram Blue e Team Green e che invece, grazie alla grandissima qualità dei suoi prodotti, è tornata ad essere leader del settore, fornendo soluzioni tecnologiche che gli altri si sognano! È semplicemente incredibile cosa AMD ha fatto nel campo delle integrazioni dei sottosistemi e dei pool di memoria.

Com'era lo slogan? "The Future Is Fusion". Quanto avevano ragione...

Superman

Io ne ho avute parecchie per le mani, sia radeon 6000 che rtx 3000 quindi il prodotto di cui parlo lo conosco bene.. Al contrario di te che per cercare la superiorità della 6600xt sulla 3070 mi vai a prendere 3d mark cloud gate quando il mondo intero utilizza time spy

P. S. Riguardo il link che hai messo speravi che mi fermassi al titolo? Perché dicono che nella settimana 20 son state vendute 3530 gpu, 51.28% radeon e 48.72% Nvidia.. Ma solo nella settimana 20, se guardi più in basso nel tuo stesso link ci sono i dati dalla settimana 1 alla 20 (i dati complessivi) vedrai che sono 60% Nvidia 40% radeon vendute.. Gli è andata bene una settimana e tu guarda caso prendi proprio quella settimana? Si chiama cherry picking.

Negan Smith

Prendi nota: reddit. com/r/radeon/comments/uq43mm/week_20_2022_mindfactoryde_total_gaming_gpu_sales/

Negan Smith

Tu invece sai di cosa parli? Sembrerebbe di no.

www.reddit. com/r/radeon/comments/uq43mm/week_20_2022_mindfactoryde_total_gaming_gpu_sales/

Negan Smith

Il 90% dei giochi sponsorizzati Nvidia, intendevi. Vero?

Superman

Domanda: hai mai avuto per le mani almeno una delle schede di cui parli? Da come parli sembrerebbe proprio di no

Superman

Certo, infatti sono talmente migliori delle Nvidia che hanno perso quote di mercato in un momento storico dove qualunque cosa esce dalla fabbrica viene comprata perché non ci sono schede video.. Se riesci a perdere quote perché la gente non ti compra le schede video nemmeno così devono essere proprio ottime! senza contare che ora hanno fatto una nuova lineup con 6750xt, 6950xt e via dicendo quando hanno le nuove gen alle porte, proprio perché sono migliori rispetto alle rtx e non hanno bisogno di overcloccarle e cambiargli nome per venderle nono!

Negan Smith

Le quote di mercato Nvidia le ha guadagnate solo con i sistemi OEM venduti per il COVID e per il cryptomining. Nel settore desktop DIY AMD legna Nvidia da parecchio tempo, ma è un settore che possiamo definire di nicchia (i PCMR possono piangere quanto vogliono). Ti dirò di più: la scheda più venduta su Mindfactory è la 6500XT, pensa un po'...
Ed in raster RDNA2 va MEGLIO di Ampere, puoi verificare ovunque tu voglia. Difatti, tutta la campagna marketing di Nvidia si è basata sul 4K ultra (dove la memoria più lenta di RDNA2 faticava di più), sull'8K (per l'ilarità di tutta la tech community), sul DLSS (che ormai è defunto) e sul RT (e solo sui giochi sponsorizzati, perché se vai a vedere su titoli indipendenti RDNA2 va persino meglio di Ampere, su quelli sponsorizzato AMD non mi soffermo).
E' ora di cominciare a vedere OLTRE le nebbie del marketing di Nvidia e dei suoi influencer schiavi.

Negan Smith

In tutti.

Superman

In quale universo parallelo?

Superman

Dimentichi una cosa fondamentale, le evga e le 5700xt sono uscite 1 anno dopo la loro concorrenza, in 1 anno Nvidia è rimasta da sola a poter vendere, e chi voleva una scheda video sel'era già comprata quando uscirono le Vega e le 5700xt (che infatti hanno venduto gran poco) le rx 6000 per quanto siano buoni prodotti non arrivano a Nvidia nemmeno per sbaglio.. Se anche come prestazioni in raster sono allineate da una parte puoi attivare dlss in impostazione qualità e guadagnare minimo il 20% di performance senza perdere qualità, dall'altra non hai potuto attivare nulla per diverso tempo dopo il lancio, poi è uscito frs che nelle. Prime versioni era ovviamente inutilizzabile per la perdita di qualità, oltre al fatto che c'era su 4 giochi in croce mentre dlss era diffuso già ovunque, e solo recentemente è uscito frs 2.0.. Con le nuove gen alle porte.. Quindi si può dire che il. Trend di cui parli lo hai visto solo tu.. Perché Nvidia ha continuato a guadagnare quote di mercato anche con queste attuali gen, il resto del mondo ha visto le. Cose come stavano e ha preso una rtx

NovaProspekt

Non mi risulta che nemmeno sui giochi "non sponsorizzati" AMD tenga testa. Una Rx 6800 di AMD non tiene il confronto nemmeno con una Nvidia Rxt 3080 ti.
In generale la Nvidia rende tra il 10 e il 20% in più in termini di performance pure, poi il Ray Tracing di Nvidia non penso abbia bisogno di confronti (e non serve che un gioco sia sponsorizzato da Nvidia per gestirlo già meglio di AMD), e il DLSS di Nvidia è un altro pianeta, e ormai è implementato su quasi ogni videogioco moderno (almeno lo è su tutti i giochi AAA).

Non dico AMD sia male, perchè offre GPU a prezzi notevolmente migliori, ma a parità di Tier Nvidia lascia Amd indietro e non di poco.
Non ho nemmeno usato la 3090 per il confronto, che incrementa leggermente di più il distacco com Amd.

Negan Smith
Negan Smith

Il 90% di quelli sponsorizzati Nvidia, vorrai dire...

Luca

"Nessuno fa beneficenza, scordatelo."

Che è la stessa cosa che ti ho appena scritto io.

Le fandonie da fan nutelloso 13enne non mi interessano, se AMD avrà davvero il miglior rapporto prezzo/prestazioni nella fascia xx80/x800 la scheda video gliela compro volentieri.
Ma conosco questo mercato da troppi anni per credere a tutti i mirabolanti rumor che puntualmente escono ad ogni release cycle sui prodotti ATI/AMD e puntualmente vengono smentiti.

Ciccillo73

Certo, vedo che il 90% dei giochi gira meglio su Nvidia, da sempre,questo e' il trend.

Negan Smith
Negan Smith

Accade più spesso di quanto tu non creda:
Vega 56/64 vs 1070/1080
580 vs 1060
5700 vs 2060/2070
Tutta RDNA2 vs tutta Ampere.
Lo vedi il trend?

77fabio

Ah beh allora ne prendo 2.

Legend99
sgru

parole da perfetto italiano insomma

Sherthes

Non penso il mining sia IL problema, ma uno dei problemi. Scarsità della produzione ha fatto abbassare le unità prodotte, quindi gli scalpers hanno avuto vita facile. Se ci fosse stata una produzione normale, non sarebbe stato possibile per loro dominare il mercato, perché le GPU non le avrebbero avute solo loro. è un po' come la questione del Titanio nella storia della metallurgia, sempre molto costoso, fino a quando l'ex URSS non ha voluto smantellare la sua flotta navale liberando nel mercato quantità immense di Titanio e abbattendone drasticamente il prezzo. Il monopolio di un mercato è sempre una questione di equilibri e "rubinetti". Se i rubinetti sono molto poco aperti si fa presto ad esaurire l'acqua, imbottigliandola e rivendendola a peso d'oro.

Ciccillo73

Questo succede ad ogni generazione di nuove schede grafiche dove AMD dovrebbe distruggere Nvidia, ma poi alla fine non accade.

Marco -

Esatto, appunto...

Ciccillo73

Sulle Gpu il mining e' praticamente morto.

Marco -

Non voglio essere così negativo. Il mining su gpu è molto ridimensionato, inoltre l'appena uscita AMD 6750 XT si trova tranquillamente a prezzo di listino, dal primo giorno di commercializzazione. Quindi o queste nuove schede hanno un prezzo di listino pazzesco, o gli scalper le comprano comunque sfruttando il fatto che la gente pensa che ormai il mercato debba andare così, o magari si torna a situazioni più normali, simili a quelle di 5 anni fa...io spero in un top di gamma sui 1300€ dalle prestazioni doppie almeno rispetto a una 3090, e ad un 4080 sotto i €1000 con prestazioni almeno pari ad una 3090ti.

IGN_mentale

Non darla a Putin!

IGN_mentale

Ma vai akka gare!

Luca

Videocardz è un raccoglitore di news, non è particolarmente affidabile.
Ad AMD che fa da benefattore ci crederò quando lo vedrò.

NICO

Basteranno 450W, ma non basteranno 2000€

Negan Smith

Non manca tanto: a breve sapremo tutto.

Patrocinante in Cassazione

Tra poco non basteranno i classici 3 kW

Pistacchio
MinoLLo

Notizia bomba!

Recensione AMD Ryzen 7 6800U, la iGPU ora convince

Microsoft Surface Laptop Studio, Pro 8 e gli altri: quale scegliere per il business?

Honor MagicBook 16 2022, la recensione: diversi passi in avanti e un prezzo maggiore

Recensione MSI GE76 Raider i9 12900HK e RTX 3080 Ti: un mostro di potenza!