
05 Agosto 2022
Mentre le notizie dell'ultima ora puntano tutte su un possibile posticipo delle GeForce RTX 40, le indiscrezioni sulle prossime GPU NVIDIA ADA Lovelace non si fermano, alimentando sempre di più la discussione riguardo il rapporto performace/consumi dei nuovi chip. Oggi si torna a parlare di top di gamma e di quello che, facendo due calcoli, potrebbe essere il chip più spinto della serie; per essere chiari ci riferiamo alla soluzione che troverà posto sulla tanto chiaccherata GeForce RTX 4090 Ti o su un'edizione aggiornata della NVIDIA Titan.
Stando all'ultimo tweet del leaker kopite7kimi, "The Beast" sarà una scheda basata su GPU AD102-450-A1 e un board design PG137, diverso quindi da quello della GeForce RTX 4090 (PG139).
"the beast"
— kopite7kimi (@kopite7kimi) July 25, 2022
PG137-SKU0
AD102-450-A1
18176FP32
48G 24Gbps GDDR6X
total board power ~800W
La GPU sarà a dir poco estrema: 18.176 Cuda Core, abbinati a 48GB di VRAM GDDR6X da 24Gbps e un TBP (Total Board Power) di ben 800 watt. Non è la prima volta che sentiamo numeri simili, nei mesi scorsi si vociferava di una GPU Ada Lovelace da 900W con 48GB di VRAM, dati presi come poco credibili qualche settimana fa che ora sembrano trovare invece una conferma.
Con tali caratteristiche non sarà facile dissipare il calore prodotto dalla scheda che, a questo punto, potrebbe richiedere anche una rivisitazione del PCB (dovrebbe avere 24 chip GDDR6X da 2GB tra l'altro) e un sistema di dissipazione almeno a tre ventole (se non a liquido). Al momento non è chiaro quando "The Beast" approderà sul mercato, la prima RTX 40 a debuttare sarà comunque la GeForce RTX 4090 (ottobre?), seguita da GeForce RTX 4080/4070; a questo punto, anche in base alle mosse di AMD, prevediamo che un'ipotetica NVIDIA GeForce RTX 4090 Ti possa arrivare a inizio 2023 (Q1).
Commenti
Se continua così,questi pc verranno usati solo da persone che abitano da sole perchè già con una 3090 + cpu partono quasi 500W in 4K.
Sicuramente la 4090 e 4090 ti ad100 sarà dual GPU come tutte le vecchie X090. Invece la titan avrà la ad100. Visto che è la top di gamma e le librerie sbloccate
Sgru?
Effettivamente...
A me già è successo con lavatrice, lavastoviglie, condizionatore e microonde (il frigo lo conto?).
Se aggiungi Intel e Nvidia è la fine: serve una fornitura ulteriore.
Come potresti ardere vicino al PC, tipo Pinocchio che si brucia i piedi.
ottimo :)
è davvero un bel monitor, non te ne pentirai
Ok mi é arrivato e va tutto bene
più che sufficienti per fare cosa?
se uno ha 10 kW di pannelli fotovoltaici sul tetto è obbligato ad aprire una azienda in casa per poter mettere il contatore da 10?
lo avevo capito, ho solo voluto puntualizzare.
fino a 6 Kw è per le abitazioni, al di sopra dei 6 ci si riferisce alle aziende.
infatti la mia era una battuta sarcastica
e ti garantisce quanti fps in quali giochi?
RX 580 8gb sapphire pulse
ce l'hai una scheda video decente?
questa DaVinci lo crepa in due. Belle cose ma a quel prezzo si valuta una Quadro.
Di solito un cavo Display Port è dentro alla confezione
LG UltraGear
Perché?
Ma infatti, se l'industria videoludica continua con questo andazzo possono pure fare a meno di produrli questi forni.
Perché ho letto che col displayport posso utilizzare AMD freesync e supporta i 165hz mentre con HDMI invece no
Qualsiasi Vram superiore a 16GB è attualmente fruibile solo da professionisti che con le gpu ci lavorano pesantemente.
Neppure gli Youtuber sfrutterebbero tale quantità di memoria.
In pratica sono quasi delle Quadro ma senza driver professionali.
la display port a cosa ti serve?
cosa ci fai con il pc?
8 anni fà,adesso la situazione si è ribaltata parecchio.
Per quella "grossa innovazione" sembra che non bisognerà aspettare le 5000 perchè AMD l'adotterà già quest'anno con le sue 7000.
800W di cui 200 solo per le memorie GDDR6X che consumano un botto.
Spero che la chiamino Titan e ce la finiscano con tutte queste Ti spalmate in giro.
Ma per caso devo comprare il cavo displayport? Perché io ho solo quello hdmi
al massimo un abitazione ne può pretendere 6.
Sarebbe l’ora di puntare alle gpu fotoniche per aumentare la potenza senza aumentare ulteriormente i consumi
800w... accendo il pc e scatta il contatore.
Ottima idea,spero che la prossima rtx 5000 abbia come minimo 100gb di Vram tanto per stare tranquilli
Questa corsa alle prestazioni a tutti i costi a scapito dei consumi è assolutamente folle.
Scheda assolutamente inutile nel gaming, andrà poco più di una 4090 liscia.
Assolutamente no. Diventerà "vecchia" dopo 5-6 anni come tutte le schede. Senza contare che la serie 5000 potrebbe essere una grossa innovazione con l'introduzione di architettura chiplet.
Di sto passo bisogna mettere trifase e contatore dedicato
Voi ridete e scherzate, ma con una scheda così potresti risparmiare sul riscaldamento per davvero
crysis a 8k gira?
non vi scaldate troppo, il 99% di noi non potrà permettersela, quindi non vedo quale sia il problema. È chiaro che la serie 90 sarà sempre più appannaggio di ambiti semi-pro come i content creator, dove si fanno workstation da parecchi mila € come ridere
Ho preso la versione da 165hz, la differenza con quello che ho ora da 75 sarà estrema hahah
ma non erano le AMD a scaldare e consumare?
Ecco perché fa così caldo
Si ok ma fino a quando era di Mojang e non di Microsoft, girava molto meglio a parità di hardware.
ahahahahahahah e poi salta il contatore
ho scritto quasi la stessa cosa
tutto questo po po di potenza per giocare in 8K a 165 hz e non trovarci differenza rispetto ad un 2k a 60hz
Mammaaaaaa sto giocando in SLI, spegni la lavatriceeeee
Si consiglia il passaggio da una fornitura da 3KW a quella di tipo industriale