NVIDIA GeForce RTX 3080: solo il dissipatore potrebbe costare 150 dollari

10 Giugno 2020 150

GeForce RTX 3080 l'abbiamo potuta osservare nelle prime - presunte - immagini, in molti sono rimasti però sorpresi dal nuovo dissipatore che NVIDIA potrebbe utilizzare sulle schede grafiche di prossima generazione RTX con GPU Ampere. Si tratta di un sistema con due ventole posizionate sui lati opposti del PCB, si presume per ottimizzare ulteriormente la dissipazione dei nuovi modelli.

Questo dissipatore (in apertura uno dei tanti render apparsi sul web) potrebbe però far lievitare sensibilmente il costo delle schede in quanto da solo costerebbe circa 150 dollari. A svelare nuovi dettagli sulle GeForce RTX 3000 è igorslab.de, confermando inoltre che i recenti leak sarebbero del tutto genuini, tanto da far partire un'indagine interna in NVIDIA per scovare l'origine della fuga di notizie.


Secondo quanto riportato, il dissipatore a doppia ventola sarà utilizzato solo sulle prossime GeForce RTX 3080 ed RTX 3080 Ti, nonché sulla nuova TITAN RTX che, tra le altre cose, potrebbe abbandonare questa nomenclatura in favore di GeForce RTX 3090.

La prossima punta di diamante NVIDIA utilizzerà una GPU Ampere GA-102 con 24GB di memoria GDDR6X su bus a 384 bit; il TDP è a dir poco impressionante, 350W. GeForce RTX 3080 Ti ed RTX 3080 dovrebbero montare due varianti dello stesso chip ma con diversi quantitativi di memoria (oltre che di Cuda Core): per GeForce RTX 3080 Ti si parla di 11GB GDDR6X a 352 bit, mentre per la tanto attesa GeForce RTX 3080 si passa a 10GB GDDR6X e bus a 320 bit. Il TDP di questi due modelli sarà invece di 320W.


Le tre schede NVIDIA dovrebbero avere un design pressoché identico e utilizzeranno varianti dello stesso PCB (PG132) con una lunghezza complessiva di 21,9 centimetri. Al momento mancano indiscrezioni sui prezzi, anche se le notizie trapelate fino ad ora non fanno ben sperare in questo senso.


150

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
X-Treme Deejay PC
Marco Rasero

fonte?

autodelta156

Spero davvero che con il full HD le schede attuali e quelle da 4GB bastino ancora per anni

Francy Ssr Ssr

Io mi arrangio, basta che gioco.

autodelta156

Da 5-6 anni? Sarà almeno da una decina d'anni che l'unico miglioramento sono texture più definite, e nemmeno sempre.
Ti basta guardare Crysis (2007) e metterlo a confronto con qualunque gioco attuale.

autodelta156

In realtà su pannelli da 24" e 27" è una risoluzione ridicola.
Ma io continuerò ad usare il full HD perché tanto ci vedo come una talpa.
Preferisco di gran lunga gli alti refresh

autodelta156

Si si, provaci con RDR2

Geffo

Tu invece hai capito e sai tutto,povero LOBOTOMIZZATO

Geffo

MAi quanto te,raggiungere le tue vette di idiozzia sarebbe impossibile per chiunque LOBOTOMIZZATO

Herbrecht Von Jeromen

Vabbè, sei in ¢oglione, è chiaro.

Francy Ssr Ssr

Per me il full HD è la risoluzione perfetta.

Geffo

Sei un povero fanboy,e se non fossestato per Nvidia,ci dovremmo sorbire
la M... che poroduce la tua cara amd,con driver bacati e
quant'altro,ovviamente senza avere nemmeno a disposizione cuda e tensior
core.Te l'ho detto sei solo un povero LOBOTOMIZZATO

Geffo

Tu invece sai,e hai capito tutto...POVERO LOBOTOMIZZATO

Geffo

Il tuo è da tempo che si è rotto,visto che la tua cara amd è sempre dietro a Nvidia...LOBOTOMIZZATO

Geffo

Tu invece sono anni che ti fai inkulare da amd,e ci godi pure LOBOTOMIZZATO

Geffo

Panico!!!! povero LOBOTOMIZZATO

Herbrecht Von Jeromen

Giusto uno che vive sotto un sasso non ha capito cosa è successo.
O chi non vuole capire.

Herbrecht Von Jeromen
Herbrecht Von Jeromen
Herbrecht Von Jeromen

Che c'è, ti prende il panico, Nvidiota?

Herbrecht Von Jeromen

No, non sono un fanboy.
Credo mi si addica più la definizione di in¢azzato nero con Nvidia e Intel, che rallentano il progresso per mungere gli utenti e rappresentano la mafia dell'industria informatica.
Ti è più chiaro ora, mio confuso amico?

Geffo

Tu li hai gia provati e conosci tutto vero LOBOTOMIZZATO???

Geffo

Penso che se ti tappassi quella bocca faresti piu figura invece di parlare di cose che neanche conosci....torna a giocare al gamboy

Geffo

Dipende dal KAZZO

Geffo

Sei solo un poveraccio che si rende ridicolo con le kazzate che scrive nel tentativo di difendere l'indifendibile.Il grado di disinformazione e le falsità che riuscite a vomitare voi LOBOTOMIZZATI amd è allucinante

Geffo

AZZO tu che dai del fanboy agli altri,tu non sei nemmeno un fanboy,
tu vai oltre il fanboismo.POVERACCIO

josefor

Se quella della foto postata è veritiera è un semplice dissipaore con heatpipes fatto solo di una forma a mio avviso stupida, con il PCD fatto a V da un lato, tutto molto assurdo, non so che vantaggio ci sia a mettere le ventole contrapposte su un dissipatore tanto poi spinge tutto il calore dentro al case, PCB che pare anche molto corto fatto così, vedremo...

darthrevanri

io gioco a 144hz con una uhd 630, a 10fps.

pedrosw

è quello che avevo pensato anche io, ma sembra da escludere la memoria HBM

Ex.

Non ti rispondo nemmeno dati i tuoi seri ed evidenti problemi di comprensione del testo

-Steck-

Si è molto probabile che sentano la concorrenza arrivare...e speriamo arrivi davvero!

Herbrecht Von Jeromen

Nulla di concreto?
Allora spiegami come fa la 5500 XT a battere la 1650 Super.
O la 5600 XT a umiliare la 1660 Ti.
O la 5700 XT ad arrivare a performance livello 2070 Super e 2080 costando molto meno, e massacrando la 2060 Super che costa lo stesso prezzo.
Tu questo lo chiami nulla di concreto?
Sei solamente un fanboy o sei semplicemente ignorante (nel senso che ignori) di informazioni concrete?

Ex.

AMD è indietro solo sulla fascia alta, Big Navi non si vede e non ci sono garanzie che sarà in grado di contrastare Nvidia. Ovviamente io ci spero, ma dopo tutte le promesse che hanno fatto con Vega ho perso un po' di fiducia

Pinco Palla

scarica dentro al case come tutti i dissipatori decenti fino ad ora? Dico decenti perché gli unici che scaricano fuori sono i blower e fanno schifo come temperatura e rumore...

Ex.

Per quanto grande sia il mio odio nei confronti di Nvidia come azienda, AMD al momento non ha proprio nulla di concreto, quindi per favore smettila di mettere pubblicamente in imbarazzo chiunque preferisca AMD

Fedoshlimloise

certo, ma si parla del passato, adesso la situazione è opposta (sempre sull'high-end) e c'è poco da fare, quelle che fai tu sono tutte ipotesi, realistiche quanto vuoi ma al momento sono ipotesi e sarei felicissimo se fosse realmente così, ma finchè non abbiamo dati reali dobbiamo basarci sui dati che abbiamo, cioè che al momento su quella fascia non esiste concorrenza

Ken

150 euro per la ventola mi sa tanto di notizia mandata in giro apposta da nvidia per far digerire il prezzo salatissimo della scheda video. con 150 euro mi faccio un impianto ad acqua! poche ball3

Herbrecht Von Jeromen

A proposito: il fatto che Ampere stia davanti a RDNA2 è ancora tutto da vedere. Ma se lo sarà, bisogna vedere a quale costo. Il fatto che Nvidia sia andata a piangere da TSMC ti fa capire qualcosa? E siccome sono sotto contratto con Samsung, cosa faranno fare ai loro 10nm? Hai sentito che 3080 e 3090 avranno un TDP di 320-350W?
Dai retta a me: quelli hanno visto le presentazioni di PS5 e Xbox X, si sono ¢agati sotto, hanno panicato, e sono corsi ai ripari, comprando a carissimo prezzo la linea produttiva migliore di TSMC e alzando a sproposito le frequenze di Ampere.
Il risultato sarà una scheda che PUÒ ESSERE sia più veloce, ma sarà una centrale nucleare.
Esattamente come sta succedendo con le CPU: Intel mantiene un marginale vantaggio sui videogiochi, a prezzi e frequenze senza senso.
Dopo aver ucciso Intel, adesso tocca a Nvidia.
Inutile scappare, moriranno stanchi.

Herbrecht Von Jeromen

È costretto?
Ecco, questo è il problema.
In secondo luogo, sai per quanti anni AMD ha letteralmente ¢agato in testa ad Nvidia, e i ¢oglioni (perché questo sono) hanno continuato a comprare Nvidia? Conosci nulla di Radeon serie HD 4000, 5000, 6000? No? Vai e documentati...

Maguttalax

Se porti sul mercato gpu con driver buggati, che consumano relativamente tanto per il tipo di silicio che hanno e che non ti fanno risparmia chissà che cosa rispetto alla concorrenza, allora si, amd caccapupù. XD

Maguttalax

E' arrivato ryzen delle gpu?HAAHHAHAAHHA e dov'è arrivato?Sui reddit dei fanboy bamboccioni amd?Sul canale di quell'inetto di abortedtv?LMAO

Fedoshlimloise

https://media2.giphy.com/me...

Fedoshlimloise

cioè? al momento non c'è nessuna scheda con le stesse prestazioni della 2080/2080ti e uno che vuole quel livello di prestazioni è costretto a prendere quelle. AMD è competitiva nella fascia media e infatti i prezzi sono più umani, ma nell'high-end c'è solo nvidia e queste sono le conseguenze. vorremmo tutti che amd diventi competitiva anche a quei livelli, la competizione fa bene a tutti, ma purtroppo al momento (e anche con la prossima generazione sembra) la situazione sarà sempre la stessa.

Just Memes

Basta non avere l’acquisto compulsivo

Herbrecht Von Jeromen

Dipende dal case.

Herbrecht Von Jeromen

Non hai capito che hanno scoperto che Big Navi gli fa un mazzo tanto e hanno alzato il TDP a dismisura?
E pensa che le mainstream saranno su Samsung 10nm: sarà un bagno di sangue.

Herbrecht Von Jeromen

4K. A breve lo farà anche una scheda da 200€. Tra upscaling, sharpening, VRS e mesh shading il carico sarà così alleggerito che spendere un patrimonio non sarà più necessario. Ecco perché le nuove console saranno 4K senza problemi.

Herbrecht Von Jeromen

Scusa, mi ripeti cosa è a 16nm, di grazia?

Herbrecht Von Jeromen

No, è che la gente non sa spendere.

Herbrecht Von Jeromen

Forse è Chrome che è cacca (cosa risaputa)?

Recensione Asus ROG Swift PG42UQ, 42 pollici di puro godimento!

ROG Ally: abbiamo provato l’interessante ibrido tra console portatile e PC | VIDEO

NVIDIA Studio e Omniverse, come annullare 7.000 Km grazie alla tecnologia

Recensione GeForce RTX 4070 12GB: NVIDIA punta tutto sul DLSS 3.0