GeForce RTX 3080 Ti 20GB: il lancio potrebbe essere rinviato a febbraio

15 Dicembre 2020 72

Nonostante NVIDIA non abbia ancora confermato ufficialmente la GeForce RTX 3080 Ti 20GB, dalla rete arrivano già le prime indiscrezioni su un possibile posticipo della scheda grafica, attesa inizialmente per il mese gennaio. Dopo la conferma definitiva giunta dall'ultima versione di AIDA64, i dubbi sull'esistenza della scheda sono pressochè svaniti, lasciando spazio alle prime ipotesi riguardo la data di lancio, da molti prevista, appunto, a gennaio.

Nelle scorse settimane le notizie sulla GeForce RTX 3080 Ti non sono mancate: ne conosciamo le caratteristiche tecniche e la probabile fascia di prezzo che, verosimilmente, andrà a collocarsi vicino alla Radeon RX 6900 XT a 999 dollari. Tutto interessante, se non fosse per il fatto che, secondo quanto riportato da Igor's Lab, NVIDIA avrebbe già pensato a un posticipo quantificato in circa un mese, si presume poco dopo il Capodanno Cinese (11-17 febbraio).


Ma non è tutto, c'è spazio anche per la GeForce RTX 3060 che a quanto pare arriverà in due varianti, sia per quanto riguarda la GPU che per la VRAM; ecco le possibili caratteristiche:

  • NVIDIA GeForce RTX 3060 12GB: GPU GA106-300, 3840 Cuda Core, 30 RT Core, 12GB GDDR6 16 Gbps, 192 bit, TDP 170W
  • NVIDIA GeForce RTX 3060 6GB: GPU GA106-400, 3584 Cuda Core, 28 RT Core, 6GB GDDR6 14 Gbps, 192 bit, TDP 130W

Quanto alla data di lancio, anche GeForce RTX 3060 12GB dovrebbe debuttare già a gennaio (da non escludere il CES 2021 a inizio mese), mentre per la GeForce RTX 3060 6GB ci sono diverse ipotesi, ancora non molto chiare.

Ricordiamo inoltre che NVIDIA ha in cantiere la GeForce RTX 3050 che dovrebbe montare una GPU Ampere GA-107 da 2304 Cuda Core; la differenza di Cuda Core tra questa GeForce RTX 3050 e la sorella maggiore RTX 3060 (3584 Cuda Core), lascia inoltre spazio anche a un'ipotetica GeForce RTX 3050 Ti, modello ancora non confermato che però avrebbe un senso come riferimento per la fascia entry-level.


72

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Andrew

La mia radeon VII invecchia bene..

Max pier

Capisco, grazie per il chiarimento

Dea1993

almeno mettilo dietro ad una ventola di immissione... cosi' ondeggia piu' o meno a seconda del carico del pc xD

piu' il pc soffre piu' lui dondola... piu' il pc e' calmo, piu' lui sta fermo ahahahah

NaXter24R

Si, in alcuni casi si, ma solo in quei casi li appunto, dove sei limitato da consumi, dimensioni e costi

Tsaeb

il PC può essere sia modulare che soc, esistono già prodotti simili, basta pensare ad alcuni ultrabook o gli all-in-one, per ora usano ancora architetture cpu-ram-gpu-chipset, ma in futuro imho li faranno anche soc, conviene come costi e come efficienza.

NaXter24R
NaXter24R

No. A quel punto comprerebbero tutti un mac, almeno mantiene valore nell'usato e hai due OS a disposizione.
Il PC è modulare, e così rimarrà. La memoria condivisa potrebbe tornare comodo in alcuni casi limite, ma non sarà mai la norma

Seraph84

ma che senso ha la 3060 con 12gb quando la 3060ti ne ha 8??? per me sto rumor è assolutamente fasullo....

Tsaeb

beh certo, devi riprogettare tutto e sarebbe indirizzato solo a chi non ha necessità di upgrade frequenti, ma credo ci sia già qualcosa in pentola, e il mercato c'è, sia office che domestico, non sono in molti a upgradare il pc, spesso fanno prima a cambiare tutto in blocco.

Dea1993

visto che hai gia una configurazione decente, e visto che a parte cyberpunk, non c'e' nulla di ingiocabile in fullhd su una 570... ti conviene aspettare, perche' i prezzi sono folli.
tanto vale aspettare le nuove gpu, e vedere cosa presentano amd e nvidia nella fascia attorno le 300 euro

Dea1993

no vabbe' sulla parte davanti ci tengo molto, non solo per questioni estetiche e per il mio autismo per l'ordine, ma anche per un discorso di ottimizzazione dell'airflow.
il dietro invece l'ho ordinato il piu' possibile, legando bene tutti i cavi, solo per questione di autismo, lo ammetto xD
gli ssd a spenzoloni non riuscirei ad accettarli nel mio case xD

Born In Dissonance

Falso, un m31 è un discreto prodotto se preso al giusto prezzo

Born In Dissonance

Con i prezzi attuali aspetta

NaXter24R
Dea1993

si si assolutamente, primo pc fisso e ovviamente tutto assemblato da solo, prendendo pezzo per pezzo e investendo tempo nel cable managment.
un grande sfizio tolto :)

NaXter24R

Qualsiasi recensione dice la stessa cosa: scheda da 1440. Il 4k lo fa, bene, a medio, dove appunto 8gb son sufficienti.
La 3070 ha un target di utenza che non spende più di quella cifra e che non si aspetta sicuramente il 4k per quella cifra

Dea1993

essendo il mio primo pc da gaming non ho paragoni da fare rispetto a cpu intel di qualche anno fa... il mio paragone sono solo i notebook, ma ovviamente non sono paragonabili.
ho solo visto che per il mio utilizzo (giocare), non mi ha mai dato problemi, ma come detto, non e' stato un aggiornamento, e' stato il primo vero pc

remus

La 3070 è da 4k.

Leonardo

Per via degli attuali prezzi, sia del nuovo che dell'usato, aspetterei.
Altrimenti, se non puoi aspettare, ti suggerisco di comprare CPU e scheda video usate per risparmiare il più possibile.
Come CPU punta ad un i7 6700/i7 7700. Almeno non devi cambiare scheda madre. Mentre, per la GPU, cerca una 1070/1070ti/1080 o Vega56/64. Vendendo poi il tuo i5 e la tua 570 per ammortizzare la spesa non dovresti spendere tantissimo.
C'è da dire che, se usciranno giochi come Cyberpunk, non li maxerai in 1080p avendo 60 fps fissi... Tuttavia miglioreresti di molto la tua configurazione ma ripeto, fossi in te, aspetterei.

NaXter24R

No, è una scelta sensata. In 4k va come la 2080ti nella stragrande maggioranza dei casi. Dove non è così, è qualcosa di normalissimo, dopotutto, hanno speso sempre 1200€ quelli che hanno una 2080ti.
La 3070 è da 1440, non da 4k

remus

La 3070 va più di una 2080ti sarebbe assolutamente adatta al 4k... hanno messo solo 8gb per limitarla di proposito. Una scheda già nata vecchia.

NaXter24R

Circa. In quel caso specifico non so esattamente come venga gestito il carico sulla VRAM, per quel tipo di applicativo potrebbe avere senso. Però parliamo di un'utenza davvero di nicchia. Per intenderci, Nvidia ha tra le Quadro la RTX 6000 e 8000, l'unica differenza se ricordo bene è la memoria, una ha 24 l'altra 48gb.
Tendenzialmente prendi una o l'altra proprio in base alla necessità di avere tanta memoria o meno.

Nel caso della 3060, se dovessi lavorarci, intanto non andrei su una 3060, ma più in generale, una 3070 o 3080 mi darebbe molto ma molto di più in termini di prestazioni pure rispetto a 12gb su una 3060.

Anni fa, quando lo SLI ed il crossfire venivano utilizzati, c'era anche un perchè dietro a schede con più memoria (la memoria non si sommava, ma era la stessa).

Max pier

Se invece che giocarci uso programmi tipo hypermesh o SOLIDWORKS per fare un esempio si fa sempre lo stesso discorso, ho capito bene?

NaXter24R

No gli 8 della 3070 sono sufficienti. Il 4k sarebbe comunque troppo, è una scheda da 1440. Se vuoi di più ti spingono a prendere la 3080

remus

Il problema non sono i 12gb della 3060, ma gli 8 della 3070 ;)

Infatti è quella che ho adesso e che voglio sostituire...

Mikel

Con quella cpu già fra 1 anno non solidifichi niente in fullhd a 60..

NaXter24R

Perchè non solo ti mancherebbe la potenza per sfruttare 12gb, ma proprio perchè il bus è inferiore a quello di GPU più potenti tipo la 3060ti o 3070 (256 per entrambe mentre questa 3060 dovrebbe essere 192) lo satureresti con la potenza della GPU a risoluzioni più basse. che quindi non richiedono tutta quella memoria video.
Ti faccio un esempio brutto, prendi la 3080 e la 3090, in full hd c'è un 13% di differenza, che ci sta considerando che la 3090 ha un 20% di CUDA in più.
1440p però è il 19% e poi il 24% in 4k.

Ora prendiamo la 3070 e 3060ti, stessa GPU, sempre un 20% di differenza in termini di CUDA.
Le differenze diventano: FHD 10%, 1440 13%, 4k 14%, come vedi son valori più uniformi, la differenza è data dalla differenza di potenza di calcolo.

Tra la 3080 e 3090 invece, nonostante la differenza simile, c'è altro, che è la banda (legata al bus).

Max pier

Chiedo da ignorante, come mai sono inutili con quel bus?

NaXter24R

Si ma è comunque un male. La latenza c'è perchè aumenti la frequenza.
Nel caso ti rimando a questo, non è recentissimo ma ti da un'idea di come funziuonano le memorie: https://www.gamersnexus.net/guides/2826-differences-between-ddr4-and-gddr5

Inoltre come ti dicevo, perderesti la modularità che rende i PC quello che sono. Prendi M1, la gente si beve la scusa del "unified memory". Quella è una memoria condivisa, esattamente come succede su qualsiasi soc mobile e/o nelle console. Conviene perchè fai un circuito e non due, usi meno componenti e generalmente semplifichi parecchio il tutto. Il contro, evidente oltretutto, è che non hai alcuna possiblità di upgrade, o comunque, dovresti creare un nuovo,standard e tutto il resto.

Si si ne hanno parlato anche su SNL

in realtà in certi giochi ho notato che è la CPU a soffrire ancora più della GPU...anche se in molti altri regge benino...

Max

Io ho una 2080 e gioco tutto maxato a 1080p, penso che se aspetti puoi portati a casa una 2080TI a prezzo stracciato e dovresti andarci per altri 3/4 anni a 60FPS.

Se ho ben interpretato come andrà, la tecnologia Soc sarà la norma sui PC Desktop. Ryzen, per esempio è quasi un Soc e i risultati sono li a premiarlo. ;)

Ho imparato che i giochi troppo annunciati all'inizio, sono pieni di intoppi che ti fanno rimpiangere l'acquisto.
Per ciò che ho scritto prima, un 5600 dovrebbe durare veramente un bel pò. Il mio ex i7-940 è anche durato più del dovuto. Era un carro armato, ma ormai sentivo che zoppiccava e mica poco. ;)

NaXter24R

Ad oggi c'è solo da farsi una risata. Se ottimizzano come Cyberpunk anche con una 1080 fai veramente tanta fatica a farne 60 a medio/basso

Tu che hai ZEN+ ( credo ) come ti sei trovato in ambito gaming e applicazioni in generale?
Io non lo posso ancora capire a fondo, ho un 3700X da non molto ( è un mostro rispetto a un Intel Nehalem ), però tutte le incertezze in ambito gaming, che avevo prima, sono sparite.
Con gli applicativi non colgo differenze sostanziali.
;)

Tsaeb

da quello che intuisco leggendo in giro AMD e Intel hanno già nel cassetto qualcosa di simile, vedremo.

Fabios112

Direi più di qualche anno. Esclusi quei mattoni devastanti che nemmeno con una 3090 fai girare. Tanto vale non rincorrere certi giochi.

Accoppia un AMD Ryzen 5600 ( che non si trova ) con una Nvidia 3060 ( che non si trova ).
Mettici minimo 16 GB di ram, se puoi ricicla quella che hai se compatibile, e per qualche anno potresti cavartela. ;)

NaXter24R

Auguri a far parlare assieme Intel, AMD e Nvidia

NaXter24R

Son combattuto anche io. Volevo prendere una 3060 ti, ma sto guardando anche altre opzioni e son arrivato a valutara la 3080 o la 6800xt e nonostante inizialmente fossi per la prima, ci sto ripensando

kanna mustafa
Torpilla

Disponibile da Marzo quindi....2025

Da blitz

cambia la scheda video e stop,la cpu va gia' bene

Simone Battista

1080p 144 hz per minimo 5/6 anni,del RT mi importa relativamente poco (cosi come anche le altre features)

Tsaeb

beh ma questo con l'attuale architettura ma non si sa cosa riserva il futuro.

OT: accontentandosi di 1080p e 60fps cosa consigliate per avere 60fps rock solid tutto maxato per i prossimi 4-5 anni?
Spendendo il meno possibile.

Attualmente ho un i5 6600 + rx570 4gb e iniziano a stare davvero stretti...d'altro canto su PC gioco così poco che non me la sento di spendere certe cifre per puntare a risoluzioni / framerate maggiori.

Fabios112

Io penso che la migliore in questa fascia sia la 3070 abbinata ad un 4k mid level o addirittura ancora meglio un quadHd 144hz

La (mia) postazione da Creator: dal Desktop MSI al Monitor 5K Prestige

Recensione Mac Mini Apple Silicon M1, ho QUASI sostituito il mio desktop da 2K euro

Recensione HONOR Router 3: il miglior Router Wi-Fi 6 qualità/prezzo

Apple Silicon è il futuro di Apple: da desktop a smartphone, andata e ritorno