NVIDIA RTX 4080 12 GB diventerà la RTX 4070 Ti, e arriverà il 5 gennaio | Rumor

11 Novembre 2022 179

Prende sempre più piede la teoria secondo cui la GeForce RTX 4080 12 GB, il cui lancio è stato cancellato da NVIDIA dopo le critiche degli utenti sulla strategia di lanciare due schede con lo stesso nome ma caratteristiche significativamente diverse (non solo la quantità di RAM), diventerà la RTX 4070 Ti. Era una delle spiegazioni più logiche e plausibili, e ora è sostenuta anche dal noto leaker Kopite7kimi (peraltro un peso massimo di reputazione, quando si tratta di schede video). Parlando con altri utenti su Twitter, la fonte sostiene inoltre che il lancio della scheda dovrebbe avvenire in tempi relativamente brevi - si parla di gennaio 2023. Un altro leaker relativamente affidabile, MEGAsizegpu, è intervenuto sulla questione indicando il giorno preciso: 5 gennaio.

Se così fosse, a questo punto non sarebbe impossibile che la variante Ti della scheda esca prima di quella standard - che non è un fatto senza precedenti, beninteso (un esempio recente è la RTX 3060). Naturalmente il grande punto di domanda resta il prezzo: ricordiamo che nei piani originali la scheda doveva costare 899 dollari, mentre la variante da 16 GB costerà 300 dollari in più (per l'Italia il salasso sarà significativamente maggiore - 1.109 e 1.479 euro rispettivamente).

Tuttavia, le due schede sono profondamente diverse l'una dall'altra. Se il nome suggerisce una "semplice" (si fa per dire) variazione della quantità di RAM a bordo, in realtà le schede sono basate addirittura su due GPU diverse - AD103 per la 16 GB, AD104 per la 12 GB cancellata. Cambia di conseguenza la quantità di streaming multiprocessor, e quindi di core CUDA (9.728 VS 7.680), Ray tracing (76 VS 60) e Tensor (304 VS 240); in ultimo, ci sono più di 8 TFLOPS di differenza (operazioni single-precision o FP32, in boost) tra l'una e l'altra. Ridotto anche il bus di memoria, da 256 a 192 bit.

Tra l'altro, nel frattempo AMD ha annunciato le nuove Radeon RX 7000, dicendo che la Radeon RX 7900 XT costerà esattamente come la RTX 4080 12 GB cancellata, mentre la flagship XTX richiederà 100 dollari in più; ma è difficile pensare che NVIDIA mantenga questi prezzi visto che entrambe le schede AMD si posizionano addirittura sopra la RTX 4080 16 GB dal punto di vista prestazionale (almeno stando ai dati ufficiali).

NOTA: articolo aggiornato l'11 novembre con indicazioni sulla data precisa di lancio

RTX 4070 TI, LA PRESUNTA DATA DI USCITA

Il noto leaker MEGAsizeGPU dice su Twitter che la scheda sarà lanciata il 5 gennaio.


179

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Herobrine

Continuano a esserci i soliti problemi perché la gente punta troppo in alto (120 FPS col ray tracing in 4k, seri???)
Semplicemente non servono, è meglio 8k ultra a 30-45 FPS che 4k a 130-150.
Io con la mia integrata (Ryzen 5 5600g quindi una Radeon vega 7) fullHD high a 30 FPS su Forza Horizon 4

Monakois 94

É l'unica risposta sensata che io possa darti.
Buona giornata.

Umberto Corni

Esattamente, la pandemia è stato il banco di prova, hanno visto che la gente acquista anche a prezzi folli..quindi perchè abbassarli..

Claudio Dalex

Era ovvio che dovevi rispondere cosi, ma credo sia anche meglio.. buona giornata

Monakois 94
Claudio Dalex

E il problema è proprio perché capisco cosa scrivi.. facciamo cosi, per chiudere sti commenti infiniti, perché vedo che il girotondo continua, ti faccio solo una domanda e tu devi rispondere solo si o no, il DLSS2 è migliore dell l FSR2? P.S. Del 3 lasciamo perdere perché lo conosciamo poco.. rispondi solo si o no, non cominciare col 1080p o è poco si o poco o dipende o è paragonabile.. è meglio o no?

Monakois 94
Claudio Dalex

Monacois 94 - 2 giorni fa
Se ti ho detto che il DLSS é leggermente meglio dell'FSR in 1080P é normale che avendoli entrambi attiverei quello

Monacois 94 - 13 ore fa
Esatto, tira una moneta

Monakois 94
Claudio Dalex

Giusto, leggermente meglio, però poi se devi scegliere...

Monakois 94
Claudio Dalex

Intanto comincia ad essere piu coerente nei commenti, poi si vedrà se io dovró diffondere la "realtà".. se prima dici che tra FSR e DLSS non si notano differenze, poi non puoi dire che tra i due sceglierei il DLSS, perché se scegli il DLSS le differenze le noti, e su questo concordo con te.

Monakois 94
Claudio Dalex

E certo, perché alla fine anche se lo attivo aumentano gli fps ma perdi in qualità e non di poco, è quasi inguardabile, se poi trovi il gioco che ha un cattivo antialiasing peggio di peggio.. l FSR non è uguale e non è paragonabile al DLSS perché pure tu stesso lhai detto, ti contraddici da solo, se ho la possibilità di scegliere ovviamente attivo il DLSS.. cioè nello stesso commento dici che il DLSS è migliore però allo stesso tempo affermi che è quasi uguale o uguale e che non noti differenze.. o la differenza ce o non ce, non puoi dire entrambi, anche se giochi in 4k, attiverai comunque il DLSS.

Monakois 94

Il problema non è che lo vedi sgranato su un 24 pollici (già siamo al limite) ma il fatto che addirittura tu lo reputi inutilizzabile.

Ti ho già detto che in 1080P si perde qualcosa ma da quì a dire "preferisco non usarlo" ce ne passa di acqua sotto i ponti,specie se lo puoi persino moddare in tutti i giochi che di norma manco ce l'hanno.

"quello che ha rivoluzionato è stato il DLSS, nell FSR non vedo niente di che."

Io ho visto solo un DLSS 1.0 che faceva schifo ma che veniva ugualmente osannato da tutti come stai facendo tu e un DLSS 2 che nella sostanza è stato raggiunto anche senza l'utilizzo di AI.

In futuro ci sarà sempre di più l'utilizzo di AI ma per il momento gli sviluppatori gli sanno tenere testa senza troppi problemi.

Claudio Dalex

Io su un 24 pollici full HD, FSR lo vedevo sgranato.
Ma infatti parlo pure sulla mia esperienza non perché lo dice Nvidia, col DLSS i colori e i contrasti sono migliori, rispetto al nativo che sembra piu sbiadito... Ma in 4k, la maggioranza delle persone gioca in 1080p e QHD ed è qui che il DLSS ha aiutato maggiormente.. ma uguale quello che ha rivoluzionato è stato il DLSS, nell FSR non vedo niente di che.

darthrevanri

infatti preferisco il fotorealismo poligonale che 2 riflessi in tempo reale, in un game anche non in tempo reale va benissimo, ovviamente il tutto a 90fps minimi non 30 col ray tracing!!!

Monakois 94

Si perché a molti non piace vedere il frame rate di un gioco abbassarsi per motivi innovativi tipo palazzi che crollano,interazione ambientale o altre cose stupende.

Abbiamo 2 riflessi in piú nelle pozzanghere e negli specchi che ci dimezzano gli fps,siamo contenti cosí.

Monakois 94

Perché?
Se ti ho detto che il DLSS é leggermente meglio dell'FSR in 1080P é normale che avendoli entrambi attiverei quello ma la parola "leggermente migliore" é molto lontana dal tuo "fare schifo".

Questa cosa che il DLSS migliora il nativo é una fesseria colossale perché dipende da gioco a gioco e da come viene implementato.

Senti,io l'ho provato su una tv 4K 55" e stando appiccicato allo schermo,ho notato una diminuzione della qualitá solo dal 1080P in giú e dubito fortemente che per te sia stato cosí evidente su un "mero" monitor da pc.

Vuoi continuare a dire che il DLSS sia anni luce avanti e blablabla?
Liberissimo di farlo ma devi accettare che per molti youtuber,recensori,utenti e per me,il 2.0 é giá paragonabile al DLSS 2.

Claudio Dalex

Tu praticamente nel tuo ultimo commento hai scritto 20 righi di un discorso, poi negli ultimi tre righi ti sei smentito da solo.. il DLSS oltre ad essere migliore del FSR, in modalità qualità, non solo raggiunge lo stesso risultato visivo del nativo, ma lo migliora ulteriormente, l FSR invece non raggiunge la qualità nativa, e questo è visibile anche in QHD, in 1080p semplicemente fa solo schifo, e io lho visto con i miei occhi e ti ripeto che sostanzialmente è come quando abbassi la scala di risoluzione e io l FSR non l attiverei neanche se fissi sprovvisto di una scheda RTX, la rivoluzione è il DLSS, l FSR o amche il più recente XeSS di intel sono soltanto imitazioni, solo per dire che esistono alternative

darthrevanri

nvidia ed anche gli youtubers hanno fatto un bel lavaggio di cervello a tutti.

Monakois 94
Marco Lancini

guarda che con quella che non arrivo a 75W... 75 è il max ma non lo raggiugngo mai

Marco Lancini

già speriamo

Monakois 94

Il problema principale é che questa strada la stanno intraprendendo almeno 10 anni prima del previsto solo per poterti dare l'ennesimo motivo di cambiare gpu senza affaticarsi veramente nel migliorare un gioco.

Perché alcuni giochi di 10-15 anni fá avevano un intelligenza artificiale e una fisica migliore rispetto a tanti giochi moderni?
Se li prendi caso per caso troverai giochi che hanno avuto features che adesso noi reputeremmo avanzate e sai perché?

Perché il 4K,8K,120fps e il RT sono esattamente la scappatoia del settore videoludico per poter "allungare il brodo" del progresso VERO per almeno altri 20 anni.

Monakois 94
Monakois 94
Claudio Dalex

E in 1080P lhai visto? io si? Ma guarda siamo d'accordo, facciamo pure 8k, a questa risoluzione anche con la lente d ingrandimento non noti differenza, è proprio qui il punto, qui si vede la bontà della tecnologia, in 1080p avere l FSR attivo neanche ne vale la pena, lho visto e provato diverse volte con i miei occhi, FSR sostanzialmente è come quando fai il classico upscaling soprattutto in 1080p, sono aumentati gli fps, ma la qualità è peggiorata, cosa che non ho notato col DLSS..
Io nel 2020 non ho detto che l fsr non potesse migliorare.. ma sicuramente era ovvio fin da subito che non potesse eguagliare il DLSS, perché il primo non utilizza l IA .. ti faccio una domanda, tu se avresti una RTX(magari ce lhai pure) cosa attivi tra FSR e DLSS?.. dai facciamo i seri.. perche dobbiamo fare sempre discorsi infiniti su cose ovvie..

Claudio Dalex

Io ultimamente vedo sempre di piu giochi con DLSS, ormai sono più quelli col DLSS che quelli senza, che poi solitamente l FSR è pure insieme al DLSS come opzioni grafiche. Non vedi superiorità? Quindi Ada Lovelace non è meglio di RDNA3? Apperò ce ne intendiamo di hardware, l alternativa di AMD della 4090 dov'è? Tu lhai vista? Basterebbe solo questo per capire quale delle due tecnologie è la migliore, ma oltre a questo è proprio tutto l ecosistema Nvidia ad essere migliore.. e come al solito lo devo sempre precisare, questo non significa che le Radeon fanno schifo o sono inutili, anzi tutto il contrario, non è che se tizio compra la 7900 XT o una 7700 XT è un idiota, è un idiota se una 7900 XT la paga 1500 euro questo si, purtroppo la difficoltà è il capire che le GPU amd hanno un valore le Nvidia un altro. Fine.

pillybilly

peccato che la più economica 6900xt, ora come ora, costi 900 euro.

Monakois 94

Lo so era per farti capire che se ti impegni la puoi acquistare.
Con le console si continua a risparmiare ma purtroppo viviamo in un periodo brutto e che non fa testo così come (quasi) quello pc.

Monakois 94

Perchè non è vero.TUTTI i recensori e chi l'ha provato (me compreso),una volta provato l'FSR 2 si sono resi conto che a risoluzioni 1440P o superiore non c'è nessuna differenza sostanziale e questo è sinonimo di comparabile.

Utenti 2020: Il DLSS ha l' AI dedicata e l'FSR 1.0 non potrà mai migliorare più di così.

Io 2020:Ragazzi smettetela di prendere il posto degli sviluppatori perchè vedete che qualcosa la sapranno fare.

Realtà 2021-2022: L'FSR 2 è comparabile al DLSS come risultato finale.

Ovviamente sono consapevole che il futuro si sposterà sempre di più verso l'AI ma sono orgoglioso di vedere che gli sviluppatori hanno saputo dare il "ben servito" a questi presuntuosi.

Monakois 94

Questa gente si è gasata talmente tanto da un rendersi conto che:

1. Il RT attuale è imbarazzante.
2. Se un gioco è sviluppato bene,la differenza non si nota proprio.
3. I giochi diventeranno esponenzialmente più pesanti e già adesso si fa fatica a reggerlo su giochi 2013.

Sono del tuo stesso parere che per una cosa veramente fatta bene ci vorranno altri 10 anni a meno che non si continui a fare un 2x ad ogni nuova gen sia in raster che in RT.

Monakois 94

Premesso che per me il RT attuale è una fesseria colossale e che il raster è la cosa più importante,una 6900XT attualmente si trova a €800 ma nessuno vieta che il suo prezzo continui a scendere.

Inoltre devi considerare una cosa,le performance in RT sono accompagnate da quelle in raster e se una 6900XT performa il 70% in più di una ipotetica 4050,il suo RT difficilmente gli sarà inferiore proprio a causa del suo vantaggio iniziale.

Big wall

Non sto denigrando la ps5 ci mancherebbe ma i prezzi , ma vale anche per il pc nel periodo covid miners a parte nvidia ed amd hanno venduto molte schede a prezzi fuori da ogni logica, il discorso alla fine è che con le console non si risparmia come prima.

GeneralZod

Secondo me anche 40. Ammetto di non avere lo spazio, ma a distanza comune di visione (50-70 cm) penso che sarebbe comunque troppo grande. Secondo me 27 pollici sono perfetti e là i 4K sono uno spreco di corrente e di risorse. Purtroppo non trovo molti monitor decenti di queste dimensioni. O sono da bimbi, o non sono regolabili, o costano uno sfacelo, o se più professionali si siedono a 60Hz.

Zippo

Ray Tracing escluso però...
Comunque dove l'hai vista la 6900xt a 650€?

Emiliano Frangella

In realtà bastano anche i 34... Che in orizzontale sono in 4k.
Quindi...
Un 42 sulla scrivania è troppo e te lo dico io che ho un 40

G.

Il DLSS aveva il vantaggio di essere temporale oltre che spaziale. Ora anche FSR lo è. E c'è RSR. Se è vero che DLSS può produrre risultati grafici ancora leggermente migliori, è anche vero che necessita di giochi che lo implementino e di hardware specifico. NVIDIA non ha una risposta a RSR che funzioni su tutti i giochi, su tutti gli hardware, senza mettere mano al codice: la compatibilità universale non è cosa da poco, specie per chi sviluppa i giochi.
Ti posso dare ragione solo su CUDA perché in certi software l'accelerazione che offre è migliore rispetto a OpenGL e ad oggi rimane un vantaggio per NVIDIA. Vedo comunque che nel settore degli acceleratori AMD non sta con le mani in mano: le Instinct Mi 250X sono dei mostri di potenza rispetto alle proposte NVIDIA.
Ognuna delle due compagnie ha le capacità tecniche di fare bene, se vuole. Non vedo una superiorità di una sull'altra, in quanto ad avanzamento tecnologico, nonostante il monopolio di NVIDIA nel gaming PC e quello di AMD nelle console e nell'embedded

G.
GeneralZod

Per 2 pollici!

Claudio Dalex

"piuttosto comparabile" perché non dire invece, sta sotto e basta, si ci avvicina ma non è uguale.. non sono p..ttanate, guarda i benchmark di chi ha testato le schede con e senza DLSS3, senza DLSS ci avviciniamo di quasi al doppio rispetto le 3000 col DLSS3 raddoppiamo, poi dipende da gioco a gioco, ma di media Nvidia ha detto il vero, un salto generazionale di questa portata non si è mai vista almeno negli ultimi 15 anni

Claudio Dalex

Come il DLSS2 va paragonato con FSR2, e tra le due tecnologie la prima è la migliore, come lo sarà ovviamente con il DLSS3, ora magari il DLSS3 sarà uguale all FSR3? Come può essere cosi? Il DLSS se non funziona sulle Radeon ce un motivo.. ce poco da ragionare, le 4000 sono tecnicamente migliori, e non parlo solo dei cuda core, ma di tutto l ecosistema Nvidia.

Claudio Dalex

A cosa serve il RT? E a cosa serve il progresso? Nel futuro la grafica si baserà sull intelligenza artificiale non sul raster, dove vuoi andare ancora col silicio? Se non si trovano nuove strade la grafica dei giochi può rimanere cosi, secondo te perché anche intel si è buttata nel IA? Ma anche AMD sta facendo lo stesso solo che ancora non sono al livello di Nvidia, dopotutto è la prima ad aver avuto schede basate sull IA

Monakois 94
Claudio Dalex

719 euro sarebbero le founders, che sono schede esclusivamente prodotte da nvidia, vendute a 4 persone e poi sono finite dopo 3 secondi dal lancio, le altre schede che si trovano sono custom prodotte dai vari partner, gigabyte, msi, zotac ecc, queste avevano e hanno un altro prezzo, non quello che diceva Nvidia, e i shop fidati non hanno intascato come dici, perché anche loro all ingrosso li prendevano comunque a prezzi maggiorati, non voglio aprire altre parentesi, ma era solo per spiegarti il perché una 3080 non costa meno di una 2080

Claudio Dalex

E non ho neanche scritto che le AMD a prezzi più bassi non siano una buona alternativa, le RX 7000 saranno schede buone come lo saranno le RTX 4000, soltanto che quest ultime avranno una tecnologia più avanzata e costeranno un po di più.

Claudio Dalex

E invece può essere una feature molto preziosa, soprattutto per la fascia piu bassa, nei giochi tipo cyberpunk o in generale nei AAA, l input lag non è cosi fondamentale, e nei giochi competitivi non serve a nulla, un input lag comunque sempre migliore delle console

Daniele

Beh, non necessariamente si deve comprare l'ultima uscita. La RX6900XT va più o meno come una 3090 (dipende dai casi) eppure la trovi intorno ai 750€ (bpm power)

Emiliano Frangella

Ho un 40

Asus ExpertBook B7 Flip: soluzione a tutto tondo per il business in mobilità | VIDEO

Recensione Samsung Galaxy Book3 Ultra, sfida i MacBook Pro in 16 mm

Recensione ROG Strix Scar 17 (2023), il nuovo Ryzen 9 7945HX è una bomba!

Recensione MSI Prestige 13 Evo A13M: business elite