
Rumor 02 Mag
Pare che dopotutto la NVIDIA GeForce RTX 4090, che dovrebbe essere la scheda top di gamma iniziale della nuova generazione di schede video gaming del colosso di Santa Clara, non avrà richieste energetiche oltraggiose come indicavano le indiscrezioni finora; cioè, chiariamo - consumerà sempre tantissimo, ma non addirittura 600 W - si limiterà ad "appena" 450 W, almeno stando a quanto indica il noto leaker @kopite7kimi su Twitter. La fonte si è rivelata affidabile nel corso del tempo, oltre che essere sempre ben preparata soprattutto sulle GPU e piuttosto prolifica.
Per riferimento, una RTX 3090 standard ha un TDP intorno ai 350 W, quindi è sempre un bel passo avanti rispetto alla vecchia generazione; ma è in linea con quello della RTX 3090 Ti, che abbiamo recensito proprio in questi giorni. Negli scorsi giorni si vociferava dell'esistenza di una variante ancora più spinta, con un TGP di addirittura 900 W. Non è chiaro, a questo punto, di che cosa si tratti.
In ogni caso, la fonte ha condiviso qualche informazione tecnica in più sulla scheda, che riassumiamo sinteticamente qui di seguito:
Ma non è finita qui. Il leaker infatti, interrogato sulla finestra di lancio, ha deciso di sbottonarsi e a scanso di equivoci ha abbandonato formule come "Q3 2022" per puntare dritto verso un periodo ben determinato: metà luglio.
Mid July.
— kopite7kimi (@kopite7kimi) May 16, 2022
Commenti
Caro mio, proprio non ci arrivi...
I benchmark sono TUTTI in mano a Nvidia e Intel, semplicemente perché hanno più soldi per "collaborare" con gli sviluppatori. È un dato di fatto noto e consolidato, basta andare a guardare chi fa parte degli investitori nelle società che controllano le società di sviluppatori.
Come GIUSTAMENTE fai notare anche tu, Nvidia ad oltre l'80% del mercato dGPU è una favoletta raccontata dal marketing di Nvidia e ripetuta dagli influencer suoi schiavi. Quel 60% di Nvidia, oltre a riflettere un panorama ben più bilanciato nel settore desktop DIY (e ancora privo dell'incidenza delle diffusissime APU di AMD) è anche frutto del mining, per cui mi aspetterei grossi progressi di AMD nell'immediato futuro.
FSR, se ti documenti un attimo, è la tecnologia più rapidamente adottata nella storia della grafica, con oltre 80 titoli con FSR 1.0 e altri 13 in arrivo con FSR 2.0. Chi afferma che DLSS sia ancora la tecnologia più diffusa omette colpevolmente di indicare che è stata lanciata ANNI prima e che molti titoli hanno accesso solo al DLSS 1.0, che come sappiamo è una gran bella mèrdå. Non che il DLSS 2.3 sia meglio, visto quanto sorprendentemente indicato da Digital Foundry, che fa notare come un'immagine inquadrata per oltre 10 secondi produce un ghosting DA VOMITO!
Ti consiglio di seguire di più Moore's Law Is Dead, un canale YouTube che fornisce sempre eccellenti approfondimenti e anteprime. In un'intervista a uno sviluppatore, è stato detto che parlare di "performance" senza tenere a mente la "pipeline" dei calcoli semplicemente NON HA SENSO. In pratica significa che in tutta la tecnologia informatica il binomio hardware e software è indissolubile. Se il software, sotto forma di ogni applicativo possibile, compresi i giochi, è fatto "su misura" per ottimizzare il rendimento su un determinato hardware, ovviamente quello specifico hardware sarà avvantaggiato. Quindi i vari CUDA core, i vari RT core, i vari Tensor core, avranno un primato solo fino a quando Nvidia spenderà ingenti somme di denaro per convincere gli sviluppatori ad ottimizzare per loro.
Te la devo raccontare io la storiella dei gruppi di ingegneri Nvidia mandati a "collaborare" coi vari team di sviluppo o già la conosci? Te lo devo dire io che nulla si fa gratis o già lo sai?
Quindi, "caro lei", puoi sbellicarti quanto vuoi, ma questi elementari esercizi di dialettica che provi a fare con me posso funzionare solo con le menti deboli, un po' come i poteri Jedi. Con me non funzionano. Primo perché mi informo, e tanto. Secondo perché, come tanti altri, o forse A DIFFERENZA di tanti altri, io ho cominciato con Intel e Nvidia per poi apprezzare AMD. Una società che 7 anni fa doveva fallire a causa delle macchinazioni di Tram Blue e Team Green e che invece, grazie alla grandissima qualità dei suoi prodotti, è tornata ad essere leader del settore, fornendo soluzioni tecnologiche che gli altri si sognano! È semplicemente incredibile cosa AMD ha fatto nel campo delle integrazioni dei sottosistemi e dei pool di memoria.
Com'era lo slogan? "The Future Is Fusion". Quanto avevano ragione...
Io ne ho avute parecchie per le mani, sia radeon 6000 che rtx 3000 quindi il prodotto di cui parlo lo conosco bene.. Al contrario di te che per cercare la superiorità della 6600xt sulla 3070 mi vai a prendere 3d mark cloud gate quando il mondo intero utilizza time spy
P. S. Riguardo il link che hai messo speravi che mi fermassi al titolo? Perché dicono che nella settimana 20 son state vendute 3530 gpu, 51.28% radeon e 48.72% Nvidia.. Ma solo nella settimana 20, se guardi più in basso nel tuo stesso link ci sono i dati dalla settimana 1 alla 20 (i dati complessivi) vedrai che sono 60% Nvidia 40% radeon vendute.. Gli è andata bene una settimana e tu guarda caso prendi proprio quella settimana? Si chiama cherry picking.
Prendi nota: reddit. com/r/radeon/comments/uq43mm/week_20_2022_mindfactoryde_total_gaming_gpu_sales/
Tu invece sai di cosa parli? Sembrerebbe di no.
www.reddit. com/r/radeon/comments/uq43mm/week_20_2022_mindfactoryde_total_gaming_gpu_sales/
Il 90% dei giochi sponsorizzati Nvidia, intendevi. Vero?
Domanda: hai mai avuto per le mani almeno una delle schede di cui parli? Da come parli sembrerebbe proprio di no
Certo, infatti sono talmente migliori delle Nvidia che hanno perso quote di mercato in un momento storico dove qualunque cosa esce dalla fabbrica viene comprata perché non ci sono schede video.. Se riesci a perdere quote perché la gente non ti compra le schede video nemmeno così devono essere proprio ottime! senza contare che ora hanno fatto una nuova lineup con 6750xt, 6950xt e via dicendo quando hanno le nuove gen alle porte, proprio perché sono migliori rispetto alle rtx e non hanno bisogno di overcloccarle e cambiargli nome per venderle nono!
Le quote di mercato Nvidia le ha guadagnate solo con i sistemi OEM venduti per il COVID e per il cryptomining. Nel settore desktop DIY AMD legna Nvidia da parecchio tempo, ma è un settore che possiamo definire di nicchia (i PCMR possono piangere quanto vogliono). Ti dirò di più: la scheda più venduta su Mindfactory è la 6500XT, pensa un po'...
Ed in raster RDNA2 va MEGLIO di Ampere, puoi verificare ovunque tu voglia. Difatti, tutta la campagna marketing di Nvidia si è basata sul 4K ultra (dove la memoria più lenta di RDNA2 faticava di più), sull'8K (per l'ilarità di tutta la tech community), sul DLSS (che ormai è defunto) e sul RT (e solo sui giochi sponsorizzati, perché se vai a vedere su titoli indipendenti RDNA2 va persino meglio di Ampere, su quelli sponsorizzato AMD non mi soffermo).
E' ora di cominciare a vedere OLTRE le nebbie del marketing di Nvidia e dei suoi influencer schiavi.
In tutti.
In quale universo parallelo?
Dimentichi una cosa fondamentale, le evga e le 5700xt sono uscite 1 anno dopo la loro concorrenza, in 1 anno Nvidia è rimasta da sola a poter vendere, e chi voleva una scheda video sel'era già comprata quando uscirono le Vega e le 5700xt (che infatti hanno venduto gran poco) le rx 6000 per quanto siano buoni prodotti non arrivano a Nvidia nemmeno per sbaglio.. Se anche come prestazioni in raster sono allineate da una parte puoi attivare dlss in impostazione qualità e guadagnare minimo il 20% di performance senza perdere qualità, dall'altra non hai potuto attivare nulla per diverso tempo dopo il lancio, poi è uscito frs che nelle. Prime versioni era ovviamente inutilizzabile per la perdita di qualità, oltre al fatto che c'era su 4 giochi in croce mentre dlss era diffuso già ovunque, e solo recentemente è uscito frs 2.0.. Con le nuove gen alle porte.. Quindi si può dire che il. Trend di cui parli lo hai visto solo tu.. Perché Nvidia ha continuato a guadagnare quote di mercato anche con queste attuali gen, il resto del mondo ha visto le. Cose come stavano e ha preso una rtx
Non mi risulta che nemmeno sui giochi "non sponsorizzati" AMD tenga testa. Una Rx 6800 di AMD non tiene il confronto nemmeno con una Nvidia Rxt 3080 ti.
In generale la Nvidia rende tra il 10 e il 20% in più in termini di performance pure, poi il Ray Tracing di Nvidia non penso abbia bisogno di confronti (e non serve che un gioco sia sponsorizzato da Nvidia per gestirlo già meglio di AMD), e il DLSS di Nvidia è un altro pianeta, e ormai è implementato su quasi ogni videogioco moderno (almeno lo è su tutti i giochi AAA).
Non dico AMD sia male, perchè offre GPU a prezzi notevolmente migliori, ma a parità di Tier Nvidia lascia Amd indietro e non di poco.
Non ho nemmeno usato la 3090 per il confronto, che incrementa leggermente di più il distacco com Amd.
Il 90% di quelli sponsorizzati Nvidia, vorrai dire...
"Nessuno fa beneficenza, scordatelo."
Che è la stessa cosa che ti ho appena scritto io.
Le fandonie da fan nutelloso 13enne non mi interessano, se AMD avrà davvero il miglior rapporto prezzo/prestazioni nella fascia xx80/x800 la scheda video gliela compro volentieri.
Ma conosco questo mercato da troppi anni per credere a tutti i mirabolanti rumor che puntualmente escono ad ogni release cycle sui prodotti ATI/AMD e puntualmente vengono smentiti.
Certo, vedo che il 90% dei giochi gira meglio su Nvidia, da sempre,questo e' il trend.
Accade più spesso di quanto tu non creda:
Vega 56/64 vs 1070/1080
580 vs 1060
5700 vs 2060/2070
Tutta RDNA2 vs tutta Ampere.
Lo vedi il trend?
Ah beh allora ne prendo 2.
parole da perfetto italiano insomma
Non penso il mining sia IL problema, ma uno dei problemi. Scarsità della produzione ha fatto abbassare le unità prodotte, quindi gli scalpers hanno avuto vita facile. Se ci fosse stata una produzione normale, non sarebbe stato possibile per loro dominare il mercato, perché le GPU non le avrebbero avute solo loro. è un po' come la questione del Titanio nella storia della metallurgia, sempre molto costoso, fino a quando l'ex URSS non ha voluto smantellare la sua flotta navale liberando nel mercato quantità immense di Titanio e abbattendone drasticamente il prezzo. Il monopolio di un mercato è sempre una questione di equilibri e "rubinetti". Se i rubinetti sono molto poco aperti si fa presto ad esaurire l'acqua, imbottigliandola e rivendendola a peso d'oro.
Questo succede ad ogni generazione di nuove schede grafiche dove AMD dovrebbe distruggere Nvidia, ma poi alla fine non accade.
Esatto, appunto...
Sulle Gpu il mining e' praticamente morto.
Non voglio essere così negativo. Il mining su gpu è molto ridimensionato, inoltre l'appena uscita AMD 6750 XT si trova tranquillamente a prezzo di listino, dal primo giorno di commercializzazione. Quindi o queste nuove schede hanno un prezzo di listino pazzesco, o gli scalper le comprano comunque sfruttando il fatto che la gente pensa che ormai il mercato debba andare così, o magari si torna a situazioni più normali, simili a quelle di 5 anni fa...io spero in un top di gamma sui 1300€ dalle prestazioni doppie almeno rispetto a una 3090, e ad un 4080 sotto i €1000 con prestazioni almeno pari ad una 3090ti.
Non darla a Putin!
Ma vai akka gare!
Videocardz è un raccoglitore di news, non è particolarmente affidabile.
Ad AMD che fa da benefattore ci crederò quando lo vedrò.
Basteranno 450W, ma non basteranno 2000€
Non manca tanto: a breve sapremo tutto.
Tra poco non basteranno i classici 3 kW
Notizia bomba!