Gigabyte conferma le GeForce RTX 3080 20GB e RTX 3070 16GB

18 Settembre 2020 120

Mentre tutti parlano di GeForce RTX 3080 e delle difficoltà a reperirla, il partner Gigabyte svela e conferma (non sappiamo se intenzionalmente) l'esistenza della GeForce RTX 3080 20GB nonché della più interessante GeForce RTX 3070 16GB, già anticipata da Lenovo a ridosso dell'annuncio ufficiale di NVIDIA del primo di settembre.

Le informazioni sono trapelate dal sito AORUS di Hong Kong utilizzato da Gigabyte per il riscatto dei codici del gioco Watch Dogs Legion, un portale che richiede ovviamente la registrazione dell'utente (diversamente non è consultabile) ma che non è sfuggito ai colleghi di videocardz.


L'esistenza di una GeForce RTX 3080 con 20GB di memoria era quasi certa, mentre per la GeForce RTX 3070 16GB c'erano ancora dubbi, se non altro perché potrebbe essere un prodotto che, viste le specifiche tecniche, sarebbe capace di disturbare le vendite dei modelli di fascia superiore.

Secondo quando riportato, il modello da 16GB della scheda sarà probabilmente commercializzato come GeForce RTX 3070 SUPER (stessa cosa per RTX 3080 20GB) e utilizzerà una GPU Ampere GA104, dotata di 6144 Cuda Core e memorie di tipo GDDR6 (non GDDR6X quindi) verosimilmente sempre con BUS a 256 bit.

NVIDIA - che come visto al momento è impegnata con altre problematiche - non ha commentato la notizia, tuttavia se le due schede saranno confermate è altamente probabile che vengano presentate dopo il debutto delle prossime schede AMD Radeon RX 6000, in arrivo ricordiamo il 28 di ottobre.

Il TOP di gamma più piccolo di Apple? Apple iPhone SE, in offerta oggi da mediaworld.it a 439 euro oppure da Euronics a 499 euro.

120

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Stefano

Sì, ma ha 6GB in meno, non solo 1 o 2. Sono importati anche quelli, soprattutto per chi usa il PC per i videogiochi. Adesso, con i nuovi videogiochi next gen, stanno diventano a mala pena sufficienti gli 8GB delle RTX 2000 e tra un paio di anni anche i 10GB saranno pochi. Quindi ha senso prendere una scheda da 16GB per fare in modo di tenerla per molti più anni, dato che la spesa non è poca

CinoCv

Vabbè ma questo è il solito discorso che molti giochi e molte app occupano RAM in base a quanta ce n'è disponibile e in molti casi anche occupandone di più, le prestazioni non cambiano minimamente.

CinoCv

Beh dipende dai casi perchè non sempre è una follia. Sarò sicuramente in una parte limitatissima di utenza ma ormai sono quasi 5 anni che uso la mia fiera 980 presa poco dopo il D1 dell'epoca e va ancora dignitosamente (data la GPU sono ancora a 1080p@144). Solo ora che ho visto una generazione degna farò il passaggio GPU/CPU con i nuovi top gamma e passerò finalmente dai 1080p al 4k visto che sono anni che resisto all'acquisto di una nuova GPU.
Alla fine se le prestazioni sono adeguate (come penso anche in questo caso) l'acquisto/investimento di una Top gamma dovrebbe garantire anni di serenità (sempre tenendo conto che magari dopo 5 anni non si può comunque pretendere prestazioni al top ma comunque più che accettabili)

CinoCv

beh ma se si parla di tenerla dai 3 ai 5 anni oppure per la stessa durata delle nuove console, negli anni i requisiti saliranno sempre più (vedi ad esempio flight simulator uscito dal nulla). Questi sono prodotti che vanno valutati nel tempo, perchè è ovvio che al D1 offrono più prestazioni di quante ne sono effettivamente richieste

Connor RK800

Ha ottimizzazioni particolari
Tanto tutti useranno il direct storage di Microsoft cu chui è basato rtx io

Connor RK800

Il 1080p non l'hanno neanche testato genio
È la CPU a fare da collo di bottiglia arrivati a 300/400 fps

Alex

Tranquillo, ho visto le varie recensioni e tutte sottolineano che solo in 4K va molto di più

Alex

Perché?

Just.In.Time

Mi sfugge il senso dell'utilità dei 20gb di ram...
Anche in 4k non si usera mai tutta e il limite è più sulla potenza della gpu che sulla quantità di vram.

xan

E vai di reso!

Mostra 1 nuova risposta

P.s. Fa pena questa remastered.

Mostra 1 nuova risposta

Se vuoi giocare al massimo i titoli della next gen dovrai cambiare scheda già con la prossima generazione. Li giocherai bene anche con meno ram, specie se poi il doppio di ram di costa 200 euro in più, con quei soldi ci compri la scheda di fascia superiore nel caso della 3070

Mostra 1 nuova risposta

A parte quando c'erano limitazioni dei prezzi o limitazioni nella tecnologia, hanno spesso proposto schede con il doppio o con la metà di memoria del chip di riferimento, ma la maggioranza delle volte sono state inutili, a meno che un non tenga una scheda 5 o 6 anni (che penso sia una follia)

Connor RK800

Per l'8k serve la 3090
Quindi inutile parlare di 8k su questa scheda . Come lamentarsi che la 2060 non giri in 4k senza dlss. Grazie è una scheda non pensata per quella risoluzione. Cosa volete?

Ad oggi è una tecnologia non ancora reale.

Per quanto riguarda i prossimi giochi.
I vram a disposizione sono superiori a quelli delle console quindi pace ed amore per gestire tutti i titoli next gen

Marco Rasero

Io non cambio scheda video ogni 2-3 anni, cambio ogni 5 anni.

Teschiofono

Se è così allora sicuro che è il processore da archiviare..

Vuoshino

Guarda. Al momento gioco a f1, call ofduty warzone e normale e assetto competizione. F1 2k dettagli massimi e gira tranquillo a minimo 70 fps. Warzone dettagli massimi in 2k gira a 80/100 e competizione in 2k con dettagli misti/alti/massimi a 60 minimo. Tutti su schermo wide. Per ora l unico cambiamento che farei sarebbe il processore.

Teschiofono

Non sono un esperto and,ma riesci davvero a giocare in 2k?A tutto maxato?60hz o ?

Zioe

Tu forse non hai calcolato che hai parlato appunto di titoli attuali. Dimentichi che le nuove console stanno tuffando il mondo nella next gen. Quindi pensa che titoli usciranno da qui a un paio d'anni su pc. L' 8K per esempio

Vuoshino

Sinceramente la gpu l ho pagata 280 euro nuova in versione xt pulse ed è stato un acquisto azzeccatissimo. Il processore è da aggiornare ma mi toglie quel 5 percento a dir tanto. Per ora sto very good

Zioe

Io ho un i5 4690k e una 2080 xD

Teschiofono

Ryzen?E te credo!In attesa della 20gb io ho un 10900k e la rtx Strix 2080ti gioco in 2k a 144hz qualsiasi gioco ultra settings e zero problemi. Cambia quel processore e gpu pure!

Teschiofono

Buona conferma che mi fa felice,quella da 20gb sarà il mio obiettivo e sotto l'albero di Natale illuminato a led,questa gpu ci farà un figurone!

sgru

Si sapeva già da mesi, soprattutto molti rumor sulla versione da 20GB. Per questo non ho usato un bot per prendere una 3080, lol.

opt3ron

Tech Node name (MTr/mm²)

Intel 7nm (2??)
TSMC 5nm EUV 171.3
TSMC 7nm+ EUV 115.8
Intel 10nm 100.8
TSMC 7nm Mobile 96.5
Samsung 7nm EUV 95.3
TSMC 7nm HPC 66.7
Samsung 8nm 61.2
TSMC 10nm 60.3
Samsung 10nm 51.8
Intel 14nm 43.5
GF 12nm 36.7
TSMC 12nm 33.8
Samsung/GF 14nm 32.5
TSMC 16nm 28.2
vedi un pò tu, qui il link alla fonte

Henry

hahahaha ancora 'sta solfa? Il tuo ragionamento ci sta, mi pare ovvio che sarebbero uscite versioni migliori. Ci sono 2 cose però che non mi quadrano nel tuo discorso.

1: Partendo dal presupposto che il piano di Nvidia era rifilarci un botto di 3070/3080, per poi presentare le nuove e costringerci a cambiarle nuovamente, possibile siano uscite tutte queste conferme (3070 16GB, 3080 20GB...) il giorno stesso dell'uscita della 3080 "liscia" ed a parecchi giorni di distanza dall'uscita della 3070? Cioè, non avrebbe avuto senso venderne un botto almeno fino a dicembre e poi fare uscire leak vari, in modo da spingerci a ricambiarle in primavera?
A me invece, così com'è ora, sembra più un'offerta completa per soddisfare le varie esigenze dei consumatori.

2: ma se per te le "lisce" hanno questa obsolescenza programmata, perché vuoi prendere una 3090? Non è previsto un upgrade anche sulla 3090?

Connor RK800

Incremento reale?
5%?

Connor RK800

No
Il contrario
Abbiamo visto come le rtx 2000 sono migliorate giorno dopo giorno

I paradigmi che usavamo in passato per valutare la vita delle schede non valgono più

Accettalo queste 3000 non si battono

Luca Lindholm

Paura, eh?

Mikel

OT: secondo voi, ho un paio di ventole da 140 af, visto che non sono pwm e dalla scheda madre riesco al massimo a portarle al 50%, come posso ulteriormente abbassare il numero di giri?

opt3ron

I 7nm euv di rdna2 sono circa 2x i 7nm di navi, non sono affatto la stessa cosa .

GianlucaA

Secondo me anche della 3090 uscirà la versione super allineata al chip quadro.

Stefano

io puntato a quello 12 core, ma solo per sfizio... se é a un buon prezzo oppure sul 3800x

Connor RK800

Ahahahha

Ma basta sta predica

Questo dimostra la pochezza di AMD che va avanti solo grazie a tsmc

Senza cambiare il processo produttivo non è capace di portare innovazioni

Dato che rnda2 sarà su 7nm come rnda2 sarà un minor update dato che le 5nm sono occupate da Apple

Connor RK800

"avranno requisiti ben maggiori"
Meh

Luca Lindholm

Come ha appena detto l'utente sopra, i giochi di prossima gen. avranno requisiti ben maggiori.

Vedrà come le versioni lisce delle 3xxx diverranno obsolete in poco tempo, rispetto alle versioni Ti.

Vuoshino

Io passeró alla nuova serie amd o alla 3600 /x quando usciranno le nuove e quando soprattutto quest ultimo costerá non mi piu pi 100 euro. Ora come ora devo dire che sto bene e riesco a giocare con tutto in 2k a buon frame

Connor RK800

Possiamo considerare un gioco programmato in modo buono e non fatto apposta per diventare un meme?

Stefano

ho un 4770k da cambiare ... ma faró step graduali

Connor RK800

Anche
Ma resta il fatto che tale gioco non è un test attendibile in quanto le cattive prestazionu sono un problema del gioco
Esattamente come crysis che era fatto col deretano

Luca Lindholm

E questo è niente!

Sono in arrivo le versioni Ti (e forse pure le Super!), si dice già entro fine anno!

(F5)
https://uploads.disquscdn.c...

Luca Lindholm

visto?

Visto??

VISTO???

VISTO????

VISTO?????

E questo è niente!!!

Il piano subdolo di nVidia era chiaro sin dal primo momento (nonostante non l'avessi capito subito lì pe rlì, perché pensavo a un aumento di prezzo da sfacciati... ma non potevo immaginare che gli azionisti e i portatori di interesse di nVidia si spingessero a tanto!): vendere una banale xx70, sfruttando il fatto di aver alzato di 500$ il prezzo della 2080 Ti rispetto all'omologa di gen. precedente, in modo da far impazzire tutti per qualcosa di assolutamente normale e venderne a milioni... per poi passare a lanciare le versioni con VRAM raddoppiata e, contemporaneamente spingere gli sviluppatori a utilizzarne sempre di più!

Queste versioni lisce nascono con l'obsolescenza programmata inclusa di serie... chi le prende è un fesso.

Per questo io, a inizio anno prossimo, prenderò una 3090 o una di quasi pari fascia Radeon e la inserirò in un bellissimo cabinet mini-ITX: l'NZXT H200i, davvero bello, elegante, sobrio, ma comunque molto ben dotato.

Basta con le truffe e i soldi spesi in maniera non intelligente, stavolta si fa sul serio.

Vuoshino

Io ho un ryzen 2600 che mi tappa un pochino ma anche su rdr2 non sono mai sceso sotto al 2k a 50 fps quasi tutto in high max

Stefano

prossimamente passaró a un 3440x1440, dici che una 5700xt basta? perché sto pensando a una 5700xt usata o una 3060...giochi punto tipo RDR2 e BF5

Vuoshino

Ti faccio capire. Ho inziato con una 580 abbinato a un full hd 60 hz per poi passare con la stessa scheda ad un lg 4k e gia li se scendevo sotto il 2k era una sofferenza. La differenza piu piu de diciamo che te la da da prop il passaggio dal 1080 al 2k. Da 2k a 4k è visibile ma non cosi netto lo stacco. Al momento utilizzo cod warxone in 2k tutto maxato ed è uno spettacolo.

Scemo 2.0

Grazie AMD.

Lorenzo Guidotti

prova con flight simulator

TecR6

Vabbè, il Rift S non prenderlo proprio in considerazione, è uno dei visori più scarsi.

Io ho l'Index e per farlo andare a 144hz al massimo dei dettagli ne servirebbero 2 di 3080.

Goose

E quindi? Apple con ARM su Mac tirerà qualcosa di straordinario da fare impallidire ogni benchmark. Mela per sempre.

soxxoz

No, in game si registra una media +25/30%
In bench di più, ma francamente poco importa.

La (mia) postazione da Creator: dal Desktop MSI al Monitor 5K Prestige

Recensione Mac Mini Apple Silicon M1, ho QUASI sostituito il mio desktop da 2K euro

Recensione HONOR Router 3: il miglior Router Wi-Fi 6 qualità/prezzo

Apple Silicon è il futuro di Apple: da desktop a smartphone, andata e ritorno