
22 Ottobre 2020
Mentre tutti parlano di GeForce RTX 3080 e delle difficoltà a reperirla, il partner Gigabyte svela e conferma (non sappiamo se intenzionalmente) l'esistenza della GeForce RTX 3080 20GB nonché della più interessante GeForce RTX 3070 16GB, già anticipata da Lenovo a ridosso dell'annuncio ufficiale di NVIDIA del primo di settembre.
Le informazioni sono trapelate dal sito AORUS di Hong Kong utilizzato da Gigabyte per il riscatto dei codici del gioco Watch Dogs Legion, un portale che richiede ovviamente la registrazione dell'utente (diversamente non è consultabile) ma che non è sfuggito ai colleghi di videocardz.
L'esistenza di una GeForce RTX 3080 con 20GB di memoria era quasi certa, mentre per la GeForce RTX 3070 16GB c'erano ancora dubbi, se non altro perché potrebbe essere un prodotto che, viste le specifiche tecniche, sarebbe capace di disturbare le vendite dei modelli di fascia superiore.
Secondo quando riportato, il modello da 16GB della scheda sarà probabilmente commercializzato come GeForce RTX 3070 SUPER (stessa cosa per RTX 3080 20GB) e utilizzerà una GPU Ampere GA104, dotata di 6144 Cuda Core e memorie di tipo GDDR6 (non GDDR6X quindi) verosimilmente sempre con BUS a 256 bit.
NVIDIA - che come visto al momento è impegnata con altre problematiche - non ha commentato la notizia, tuttavia se le due schede saranno confermate è altamente probabile che vengano presentate dopo il debutto delle prossime schede AMD Radeon RX 6000, in arrivo ricordiamo il 28 di ottobre.
NZXT H5 Flow con Kraken Elite 280, la recensione di una build votata all'eleganza
Recensione Asus ROG Swift PG42UQ, 42 pollici di puro godimento!
ROG Ally: abbiamo provato l’interessante ibrido tra console portatile e PC | VIDEO
NVIDIA Studio e Omniverse, come annullare 7.000 Km grazie alla tecnologia
Commenti
Sì, ma ha 6GB in meno, non solo 1 o 2. Sono importati anche quelli, soprattutto per chi usa il PC per i videogiochi. Adesso, con i nuovi videogiochi next gen, stanno diventano a mala pena sufficienti gli 8GB delle RTX 2000 e tra un paio di anni anche i 10GB saranno pochi. Quindi ha senso prendere una scheda da 16GB per fare in modo di tenerla per molti più anni, dato che la spesa non è poca
Vabbè ma questo è il solito discorso che molti giochi e molte app occupano RAM in base a quanta ce n'è disponibile e in molti casi anche occupandone di più, le prestazioni non cambiano minimamente.
Beh dipende dai casi perchè non sempre è una follia. Sarò sicuramente in una parte limitatissima di utenza ma ormai sono quasi 5 anni che uso la mia fiera 980 presa poco dopo il D1 dell'epoca e va ancora dignitosamente (data la GPU sono ancora a 1080p@144). Solo ora che ho visto una generazione degna farò il passaggio GPU/CPU con i nuovi top gamma e passerò finalmente dai 1080p al 4k visto che sono anni che resisto all'acquisto di una nuova GPU.
Alla fine se le prestazioni sono adeguate (come penso anche in questo caso) l'acquisto/investimento di una Top gamma dovrebbe garantire anni di serenità (sempre tenendo conto che magari dopo 5 anni non si può comunque pretendere prestazioni al top ma comunque più che accettabili)
beh ma se si parla di tenerla dai 3 ai 5 anni oppure per la stessa durata delle nuove console, negli anni i requisiti saliranno sempre più (vedi ad esempio flight simulator uscito dal nulla). Questi sono prodotti che vanno valutati nel tempo, perchè è ovvio che al D1 offrono più prestazioni di quante ne sono effettivamente richieste
Ha ottimizzazioni particolari
Tanto tutti useranno il direct storage di Microsoft cu chui è basato rtx io
Il 1080p non l'hanno neanche testato genio
È la CPU a fare da collo di bottiglia arrivati a 300/400 fps
Tranquillo, ho visto le varie recensioni e tutte sottolineano che solo in 4K va molto di più
Perché?
Mi sfugge il senso dell'utilità dei 20gb di ram...
Anche in 4k non si usera mai tutta e il limite è più sulla potenza della gpu che sulla quantità di vram.
E vai di reso!
P.s. Fa pena questa remastered.
Se vuoi giocare al massimo i titoli della next gen dovrai cambiare scheda già con la prossima generazione. Li giocherai bene anche con meno ram, specie se poi il doppio di ram di costa 200 euro in più, con quei soldi ci compri la scheda di fascia superiore nel caso della 3070
A parte quando c'erano limitazioni dei prezzi o limitazioni nella tecnologia, hanno spesso proposto schede con il doppio o con la metà di memoria del chip di riferimento, ma la maggioranza delle volte sono state inutili, a meno che un non tenga una scheda 5 o 6 anni (che penso sia una follia)
Per l'8k serve la 3090
Quindi inutile parlare di 8k su questa scheda . Come lamentarsi che la 2060 non giri in 4k senza dlss. Grazie è una scheda non pensata per quella risoluzione. Cosa volete?
Ad oggi è una tecnologia non ancora reale.
Per quanto riguarda i prossimi giochi.
I vram a disposizione sono superiori a quelli delle console quindi pace ed amore per gestire tutti i titoli next gen
Io non cambio scheda video ogni 2-3 anni, cambio ogni 5 anni.
Se è così allora sicuro che è il processore da archiviare..
Guarda. Al momento gioco a f1, call ofduty warzone e normale e assetto competizione. F1 2k dettagli massimi e gira tranquillo a minimo 70 fps. Warzone dettagli massimi in 2k gira a 80/100 e competizione in 2k con dettagli misti/alti/massimi a 60 minimo. Tutti su schermo wide. Per ora l unico cambiamento che farei sarebbe il processore.
Non sono un esperto and,ma riesci davvero a giocare in 2k?A tutto maxato?60hz o ?
Tu forse non hai calcolato che hai parlato appunto di titoli attuali. Dimentichi che le nuove console stanno tuffando il mondo nella next gen. Quindi pensa che titoli usciranno da qui a un paio d'anni su pc. L' 8K per esempio
Sinceramente la gpu l ho pagata 280 euro nuova in versione xt pulse ed è stato un acquisto azzeccatissimo. Il processore è da aggiornare ma mi toglie quel 5 percento a dir tanto. Per ora sto very good
Io ho un i5 4690k e una 2080 xD
Ryzen?E te credo!In attesa della 20gb io ho un 10900k e la rtx Strix 2080ti gioco in 2k a 144hz qualsiasi gioco ultra settings e zero problemi. Cambia quel processore e gpu pure!
Buona conferma che mi fa felice,quella da 20gb sarà il mio obiettivo e sotto l'albero di Natale illuminato a led,questa gpu ci farà un figurone!
Si sapeva già da mesi, soprattutto molti rumor sulla versione da 20GB. Per questo non ho usato un bot per prendere una 3080, lol.
Tech Node name (MTr/mm²)
Intel 7nm (2??)
TSMC 5nm EUV 171.3
TSMC 7nm+ EUV 115.8
Intel 10nm 100.8
TSMC 7nm Mobile 96.5
Samsung 7nm EUV 95.3
TSMC 7nm HPC 66.7
Samsung 8nm 61.2
TSMC 10nm 60.3
Samsung 10nm 51.8
Intel 14nm 43.5
GF 12nm 36.7
TSMC 12nm 33.8
Samsung/GF 14nm 32.5
TSMC 16nm 28.2
vedi un pò tu, qui il link alla fonte
hahahaha ancora 'sta solfa? Il tuo ragionamento ci sta, mi pare ovvio che sarebbero uscite versioni migliori. Ci sono 2 cose però che non mi quadrano nel tuo discorso.
1: Partendo dal presupposto che il piano di Nvidia era rifilarci un botto di 3070/3080, per poi presentare le nuove e costringerci a cambiarle nuovamente, possibile siano uscite tutte queste conferme (3070 16GB, 3080 20GB...) il giorno stesso dell'uscita della 3080 "liscia" ed a parecchi giorni di distanza dall'uscita della 3070? Cioè, non avrebbe avuto senso venderne un botto almeno fino a dicembre e poi fare uscire leak vari, in modo da spingerci a ricambiarle in primavera?
A me invece, così com'è ora, sembra più un'offerta completa per soddisfare le varie esigenze dei consumatori.
2: ma se per te le "lisce" hanno questa obsolescenza programmata, perché vuoi prendere una 3090? Non è previsto un upgrade anche sulla 3090?
Incremento reale?
5%?
No
Il contrario
Abbiamo visto come le rtx 2000 sono migliorate giorno dopo giorno
I paradigmi che usavamo in passato per valutare la vita delle schede non valgono più
Accettalo queste 3000 non si battono
Paura, eh?
OT: secondo voi, ho un paio di ventole da 140 af, visto che non sono pwm e dalla scheda madre riesco al massimo a portarle al 50%, come posso ulteriormente abbassare il numero di giri?
I 7nm euv di rdna2 sono circa 2x i 7nm di navi, non sono affatto la stessa cosa .
Secondo me anche della 3090 uscirà la versione super allineata al chip quadro.
io puntato a quello 12 core, ma solo per sfizio... se é a un buon prezzo oppure sul 3800x
Ahahahha
Ma basta sta predica
Questo dimostra la pochezza di AMD che va avanti solo grazie a tsmc
Senza cambiare il processo produttivo non è capace di portare innovazioni
Dato che rnda2 sarà su 7nm come rnda2 sarà un minor update dato che le 5nm sono occupate da Apple
"avranno requisiti ben maggiori"
Meh
Come ha appena detto l'utente sopra, i giochi di prossima gen. avranno requisiti ben maggiori.
Vedrà come le versioni lisce delle 3xxx diverranno obsolete in poco tempo, rispetto alle versioni Ti.
Io passeró alla nuova serie amd o alla 3600 /x quando usciranno le nuove e quando soprattutto quest ultimo costerá non mi piu pi 100 euro. Ora come ora devo dire che sto bene e riesco a giocare con tutto in 2k a buon frame
Possiamo considerare un gioco programmato in modo buono e non fatto apposta per diventare un meme?
ho un 4770k da cambiare ... ma faró step graduali
Anche
Ma resta il fatto che tale gioco non è un test attendibile in quanto le cattive prestazionu sono un problema del gioco
Esattamente come crysis che era fatto col deretano
E questo è niente!
Sono in arrivo le versioni Ti (e forse pure le Super!), si dice già entro fine anno!
(F5)
https://uploads.disquscdn.c...
visto?
Visto??
VISTO???
VISTO????
VISTO?????
E questo è niente!!!
Il piano subdolo di nVidia era chiaro sin dal primo momento (nonostante non l'avessi capito subito lì pe rlì, perché pensavo a un aumento di prezzo da sfacciati... ma non potevo immaginare che gli azionisti e i portatori di interesse di nVidia si spingessero a tanto!): vendere una banale xx70, sfruttando il fatto di aver alzato di 500$ il prezzo della 2080 Ti rispetto all'omologa di gen. precedente, in modo da far impazzire tutti per qualcosa di assolutamente normale e venderne a milioni... per poi passare a lanciare le versioni con VRAM raddoppiata e, contemporaneamente spingere gli sviluppatori a utilizzarne sempre di più!
Queste versioni lisce nascono con l'obsolescenza programmata inclusa di serie... chi le prende è un fesso.
Per questo io, a inizio anno prossimo, prenderò una 3090 o una di quasi pari fascia Radeon e la inserirò in un bellissimo cabinet mini-ITX: l'NZXT H200i, davvero bello, elegante, sobrio, ma comunque molto ben dotato.
Basta con le truffe e i soldi spesi in maniera non intelligente, stavolta si fa sul serio.
Io ho un ryzen 2600 che mi tappa un pochino ma anche su rdr2 non sono mai sceso sotto al 2k a 50 fps quasi tutto in high max
prossimamente passaró a un 3440x1440, dici che una 5700xt basta? perché sto pensando a una 5700xt usata o una 3060...giochi punto tipo RDR2 e BF5
Ti faccio capire. Ho inziato con una 580 abbinato a un full hd 60 hz per poi passare con la stessa scheda ad un lg 4k e gia li se scendevo sotto il 2k era una sofferenza. La differenza piu piu de diciamo che te la da da prop il passaggio dal 1080 al 2k. Da 2k a 4k è visibile ma non cosi netto lo stacco. Al momento utilizzo cod warxone in 2k tutto maxato ed è uno spettacolo.
Grazie AMD.
prova con flight simulator
Vabbè, il Rift S non prenderlo proprio in considerazione, è uno dei visori più scarsi.
Io ho l'Index e per farlo andare a 144hz al massimo dei dettagli ne servirebbero 2 di 3080.
E quindi? Apple con ARM su Mac tirerà qualcosa di straordinario da fare impallidire ogni benchmark. Mela per sempre.
No, in game si registra una media +25/30%
In bench di più, ma francamente poco importa.