NVIDIA GeForce RTX 3080 Ti, RTX 3060 ed RTX 3050 confermate da AIDA64

14 Dicembre 2020 153

Nonostante le polemiche scaturite dalla scarsa disponibilità delle GeForce RTX 30 e delle Radeon RX 6000, NVIDIA e AMD continuano a sfidarsi a suon di nuovi modelli che, dopo il debutto sul mercato della top di gamma AMD Radeon RX 6900 XT, vedono ora NVIDIA pronta al lancio della tanto chiaccherata GeForce RTX 3080 Ti 20GB.

Il nuovo modello è stato confermato definitivamente dall'ultima versione di AIDA64, nota utility per PC che, non solo svela la RTX 3080 Ti, ma anche le proposte più economiche (si spera) GeForce RTX 3060 e GeForce RTX 3050, senza dimenticare le imminenti GeForce RTX 30 Mobile (rispettivamente con RTX 3070/RTX 3060 Mobile e Max-Q)


Della GeForce RTX 3080 Ti sappiamo in realtà quasi tutto, avrà una GPU da 10.496 Cuda Core in linea con GeForce RTX 3090 (Recensione) mantenendo però il BUS a 320 bit con 20GB GDDR6X. Interessanti saranno le GeForce RTX 3060 e GeForce RTX 3050, con quest'ultima che sarà la scheda più economica a supportare il Ray-Tracing (vedremo il prezzo).

Da notare inoltre che nell'elenco vengono riportate tre varianti per la GeForce RTX 3070 Mobile, una delle quali con 16GB di VRAM; questa caratteristica conferma indirettamente una variante desktop, modello che dovrebbe coincidere con la GeForce RTX 3070 Ti 16GB. I primi modelli a debuttare saranno sicuramente quelli per notebook (pensiamo al CES 2021), seguiti dalla GeForce RTX 3080 Ti (verosimilmente a 999$) e successivamente le GeForce RTX 3060/3050 per contrastare i primi modelli Radeon RX 6700 che arriveranno a quanto pare sempre nel primo trimestre 2021.


153

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Claudio Dalex

Ma in fin dei conti ha senso il 4k? cioè se su pc, massimo si arriva a 27 pollici, casi estremi 32.. considerando pure i costi di monitor e scheda video adeguata, oltre a questo, anche avendo una 3080 o anche 90, è possibile trovare il caso in cui si è costretti a fare compromessi, almeno, fin quando si parla anche del raytracing.. il piu recente abbiamo cyberpunk 2077, in questo caso anche la piu fortunata 3090 con ratracing e tutto ad ultra in 4k, i 60 fps sono inarrivabili, gira mediamente a 30/40 fps, sicuramente il gioco dovrebbe essere migliorato, ma intanto anche la scheda video piu estrema non ti assicura sempre il 4k a 60, soprattutto col passare del tempo.. il paradosso è che il 4k su console ha molto piu senso, visto che vengono accostate più facilmente a schermi grandi da salotto. però una ps5 sicuramente non è prestante neanche come una 3080, anzi la vedo più vicina ad una 3060 ti e forse anche più sotto.

le_vitru

No, la 2070 la annientava per rapporto costo/prestazioni, hai buttato denaro in malo modo.
Doppie condoglianze

Frazzngarth

mica tanto...

Frazzngarth

ho anche una 2080, sono un po' più figo ora ai tuoi occhi?

le_vitru

2060: serie sfiga confermata, condoglianze

Born In Dissonance

Se han detto questo han sicuramente sbagliato

Born In Dissonance

Ah ecco questa mi mancava
Cavolata atroce da parte loro, ma comunque reazione inadeguata di nvidia

Gark121

E quindi? Sono lo stesso chip, è normale che si chiamino con lo stesso nome...

Davide

La conclusione però dice "che te ne fai di una Ferrari che tanto non puoi andare a 300 all'ora?. La Ferrari é inutile".
Capisci perché Nvidia se l'è presa?

Davide

Era la conclusione della loro prova a quel che ho letto. La riprendevano pure su notebookchecks

-Steck-
Alex

No, ma sono uscite diverse GPU mobile con lo stesso nome e prestazioni differenti tra di loro. Vedi le varie 2070 a 80w, 90w, max q e altro

B!G Ph4Rm4

La maggior memoria video serve a nulla in game (vai a vedere l'articolo di oggi di hardware upgrade con i giochi in 8k, e guarda chi ne esce meglio in quanto a fps tra la 6900XT con 16GB e la 3080 con 10GB), quelle due risoluzioni fanno ridere per 700 euro e comunque la differenza è minima, e quando spendi 700 euro non stai a guardarne 50.
Se ne spendi 150 guardi i 50 euro di differenza, quando ne spendi 700 non li guardi.

Nelle cose che contano (sopratutto per il gamer medio) la 3080 va meglio e la distrugge la 6800XT. La 3080 fa 10 fps in meno a 1080p su 350 totali? Beh la 6800XT fa la metà degli fps in RT su molti giochi rendendoli ingiocabili.

Dai per me è perchè molti recensori non so per quale motivo volevano far contenti chi li guarda, ma dimmi la verità, tu a me cosa consiglieresti? Cioè ti dico "che GPU di fascia alta mi consigli per giocare"? Non ti dico nient'altro, solo questo.

Commendatore

Biscottone rtx

Zazzy

Era solo per confermare quanto avevi detto te...

Born In Dissonance

Quando hanno detto questa cosa?

Gark121

Non è così perché la mobile ha il 10% dei core in più ma il 30% del clock in meno

Gark121

Ok, no, a questo punto sono sicuro: non sono io che non scrivo in italiano, sei te che non sai leggere.
"Le prestazioni in raster puro sono irrilevanti in questa fascia". Confermo e sottoscrivo.
Se uno vuol fare millemila fps, il DLSS lo usa eccome. Se uno vuole godersi il gioco, usa entrambi su qualsiasi gioco next gen, e tutti gli altri su roba da una 3070 in su andranno più che bene lo stesso, stiamo parlando delle performance della 2080 ti, il massimo esistente al momento dell'uscita.

Gark121

Ti do la mia 2080 ti a 500€ ancora in garanzia con tanto di fattura

Wsx1979

Per i 2k basta anche una 3070. A meno che non voglia giocare a 144 hz.
3080 e 3090 sono per il 4k

pollopopo

non mi sembra un grande affare... certo se proprio non sai aspettare capisco ma una 6800 o una 3070 vanno meglio :)

-Steck-
Big wall

forse volevi dire la 3060 no 80

UFrà

Prova a resistere alla tentazione e aspetta. Quando la disponibilità migliorerà con lo stesso prezzo o meno potrai prendere una 3060 ti nuova, che gira meglio della 2080 e sarà in garanzia

Guido

Potrebbe avere senso in qualche caso estremo
Sicuramente porta prestazioni identiche in gaming alla 3090 adun prezzo più ragionevole.

Se poi vogliamo essere accurati niente ha senso sopra la 3070

B!G Ph4Rm4

Concordo

Wsx1979

Su un 27 in qhd per giocare su un 5600x cosa consigliate? Io andrei su una 3070

B!G Ph4Rm4

E' vero, ma io mi aspettavo 1) performance quasi identiche in raster, 2) un prezzo più basso e 3) che facesse peggio in RT ma non che facesse così schifo.
Cioè a 650 dollari non è una scheda consigliabile, c'è poco da fare, poi se uno vuole per forza di cose comprare AMD la compri pure, però se uno vuole essere oggettivo non è da consigliare.

Se gli avessero messo 10-12GB che tanto come ha mostrato Hardwareupgrade oggi i 16 non servono a una s£ga, se l'avessero prezzata a massimo 600 dollari (ma massimo), e con delle performance in RT anche solo un po' più convincenti, allora l'avrei potuta consigliare, ma AMD ha trattato questa scheda come se NVIDIA fosse Intel e RDNA 2 come fosse Zen 3.
No ragazzi, non ci siamo.

E tralascio tutto il discorso pro: gli Zen 3 sono ottimi lato professionale, quindi sono la miglior scelta per chi gioca e ci lavora pure. Le RX6000 lato pro.... stendiamo un velo pietoso:
https://www.pugetsystems.com/labs/articles/AMD-Radeon-RX-6800-XT-Review-Roundup-1992/

Frazzngarth

una normale, comunissima RTX 2060...

ma non è il DLSS in sè, il fatto è che se attivi il Ray Tracing sei obbligato ad attivare anche il DLSS, se li spegni entrambi gira pure meglio

Frazzngarth

appunto, e che ho detto io?

B!G Ph4Rm4

E' che non è "very difficult to pick a clear winner", è molto facile, è la 3080.
Poi o fai un discorso generale o lo fai specifico. E' ovvio che uno sceglie in base a ciò che gioca, ma se lo vuoi fare generale, ovvero hai il tizio a caso X, di cui non sai gusti, giochi, ecc, gli devi consigliare ciò che è complessivamente migliore, ovvero la 3080.

-Steck-

Ah e quindi per te le prestazioni in raster sarebbero irrilevanti? Ma lo sai che esistono persone che non sanno nemmeno che esiste RT o che addirittura non lo vogliono perchè preferiscono fare millemila fps? A me sembra che tu voglia imporre la tua visione a tutti, come se fosse la verità assoluta. Oltretutto in che modo ci sarebbe questa divisione 90%-10% se hanno dedicato interi video dedicati a queste funzionalità?

ps: tanto per essere chiari, io per primo ritengo che DLSS e RT siano tecnologie da tenere in assoluta considerazione nella scelta di una GPU, visto che diversi titoli a cui giocherei nell'immediato futuro le supportano.

Tuccio

si, la 1650 mobile forse va anche più della desktop avendo più core

Gark121

Dedicare il 90% del tempo a qualcosa che è IRRILEVANTE per il prodotto in questione (lo ripeto per la terza e ultima volta, se sei interessato a giocare a giochi vecchi o indie, tutta la fascia sopra la 3060ti è un acquisto sbagliato) e il 10% a quello che realmente conta non è fuorviante? Dico ma stiamo scherzando?
RT con e senza DLSS doveva essere il 90% della recensione di delle 3080, 3090, 3070 e doveva essere il target di riferimento per le concorrenti AMD.

-Steck-

Ma in che modo sarebbe sbagliato e fuorviante il fatto di non dare preferenze e spiegare che ognuno deve valutare in base a cosa gioca?

Mikel

Secondo me 100/200 euro sotto la 3090, parlo delle custom ovviamente..

Mikel

Brava Nvidia and partner, scommettiamo che 3090 e 3080 ti saranno disponibili da gennaio e la 3080, visto il suo ottimo rapporto prezzo/prestazioni la fanno fuori?
Semplice, 3090 custom a 1500/2000 euro, 3080 ti custom a 1200/1600 euro.

-Steck-

Come ho scritto sopra all'altro utente, il ragionamento fatto da HWU è assolutamente generico e basato sulle percentuali dei titoli che supportano determinate feature. Infatti ogni volta Steve ribadisce che ognuno deve pensare a cosa gioca e decidere di conseguenza quale sia la GPU migliore. Poi se HWU non ritenesse queste tecnologie importanti non avrebbe pubblicato tutti quegli approfondimenti su DLSS e Raytracing. A me questa sembra la cosa più imparziale che si potrebbe fare.
Per quanto riguarda le conclusioni della review della 6800xt, anche in quel caso è un discorso generale basata sempre sulla stessa cosa (e sui prezzi di listino) ed oltretutto disse chiaramente "it's very difficult to pick a clear winner" dicendo anche che DLSS è impressionante ma che purtroppo è implementato in pochi titoli (insieme al raytracing).

Gark121

Ma oggettivamente, AMD ha fatto abbastanza bene contando la situazione in cui era, ma era altrettanto evidente che nvidia aveva 2 anni pieni di vantaggio (anzi, a livello di performance brute e di efficienza la 1080ti era ancora imbattuta da qualsiasi scheda amd dopo il suo terzo compleanno...), e che recuperare in un colpo solo era assolutamente impossibile. Io sinceramente mi aspettavo una politica di prezzi più aggressiva, ma è anche vero che per poter competere hanno dovuto usare un pp molto più avanzato, costoso e richiesto, per cui credo abbiano ben poco margine per scendere al momento.
Credo che amd potrà essere decisamente più competitiva come prezzi verso fine 2021, con i 7nm liberi dalle produzioni "mobile".
Tu anche avevi aspettative grossomodo corrette su amd e nvidia ben prima del lancio, e come noi tutti coloro che conoscono un po' il mercato e non hanno i paraocchi.
Poi ovviamente Connor e Von Fanboyen hanno continuato a fare gara a chi la sparava più grossa, ma non c'era da aspettarsi altro onestamente.
Son curioso di capire se in fascia bassa, dove sì il ray tracing sarà meno importante perché poco gestibile, amd sarà competitiva o conveniente.

Gark121

Io non so se non parlo italiano o cosa... Ho capito il suo ragionamento, e sto dicendo che è totalmente sbagliato e assolutamente fuorviante, che senso ha che mi rispondi ripetendo il ragionamento? È irrilevante il numero di giochi vecchi che supportano una feature quando valuti una gpu nuova.
Quello che conta è quanti giochi NUOVI supportano questa feature? Tutti quelli con una grafica impegnativa usciti recentemente o in uscita prossimamente.
Questo è rilevante.
Chi è che compra 1000€ di gpu nuova per giocare ai giochi del 2018? Cioè ok, magari giocherai anche a qualcosa di vecchio, ma sinceramente tra fare 145 e 148fps, cpu bound, con un gioco di 2, 5 o 10 anni fa non ritengo sia un criterio sensato per valutare un prodotto nuovo di fascia alta.
Compro e valuto per ciò che può realmente mettere a frutto ciò che sto comprando.
Altrimenti con questo principio il gioco più usato del mondo è fortnite, tanto vale giudicare solo su quello e dire che tutto quello che è uscito è pessimo perché tanto una 1080 ti fa giocare a 200 fps...

Davide

Ma anche oltre il FHD. Al 1440p ce la dovrebbe fare visto che la 2060 più o meno arriva da quelle parti.
La cosa interessante diventa la presenza di RT core e Tensor core visto che permetteranno di sfruttare tutti i nuovi effetti e le feature Nvidia.

B!G Ph4Rm4

E' che non è semplicemente più vero questo refrain che alcuni continuano a sbandierare.
Quando un bel po' di giochi grossi si sono aggiornati a RT e DLSS, e quando tutti i tripla A più attesi di questo fine anno hanno sia DLSS che RT, ma come fai a dire che non sia importante? Pretendono che sui giochi indie su steam ci sia RT dove la grafica è già nam**erda oppure il DLSS quando già ci fai 700 fps con una 3080? E dai, è ovvio che almeno per ora uscirà sui tripla A, ma è anche vero che è quasi sempre solo sui tripla A che servono queste due tecnologie.

Detto questo, io non l'ho mai seguito bene perchè mi è sempre sembrato un po' parac*lo. La recensione della 6800 XT secondo me è troppo entusiastica (sono andato a rivedermi ora le conclusioni). Anche a costo di farti scannare dai fànboy dovresti dire la realtà dei fatti: non ha senso comprarla, la RTX 3080 è una scheda superiore. Non puoi giustificare una scheda da 700 euro nel 2020 con "eehhhh ma guarda che in 1080p fa 5 fps in più della 3080 e poi se spendi altri 400 euro per il processore guadagni il 3% di performance (cosa che tra l'altro avranno tutti in poco tempo)"

Davide

Beh ma se te ne esci dicendo che ci sono ma sono inutili perché ti abbassano le performance e quindi non ha senso comprare le 3xxx stai volutamente gettando m***a su un prodotto per il solo gusto di farlo. Il RT é giocabile ma ovviamente richiede dei compromessi.
Se non si inizia non si finirà mai ed é questo che il recensore non capisce.
Una volta che provi il RT non torni indietro e parlo per esperienza con BF V.
Ovvio che non ti puoi aspettare le stesse performance. Io vedo il progresso e lo accetto volentieri se mi consente di avere.una grafica migliore.

-Steck-

Ma il ragionamento fatto da HWU è assolutamente generico e basato sulle percentuali dei titoli che supportano determinate feature. Infatti ogni volta Steve ribadisce che ognuno deve pensare a cosa gioca e decidere di conseguenza quale sia la GPU migliore.

IRNBNN

io sono indeciso, ho trovato una RTX 2080 MSI gaming trio a 450 euro usata...mi tenta. Ora ho una RX570 con il ryzen 3600.

Born In Dissonance

Però vedendo i video di hu, bench con rt e dlss ce ne sono, per cui ciò che ha fatto nvidia ha ben poco senso

-Steck-

Ma non hanno detto che non contano niente, hanno detto che contano molto meno solo per la quantità di titoli in giro per il momento (poi ognun è giusto che faccia i propri conti in base a cosa gioca). Che sia roba rivoluzionaria sono d'accordo anche loro (ho visto tutti i loro video sull'argomento, anche i Q&A). Oltretutto non so come si fa a dire che siano fanboy AMD. Lo ha dimostrato anche nel video di oggi, mediamente hanno promosso quasi sempre nvidia, mentre hanno bocciato quasi tutte le schede AMD negli ultimi anni, escluse le 5700 (di cui non erano comunque così entusiasti) e le 6800-6800xt.

Born In Dissonance

Eh grazie, con una pandemia in corso è difficile produrre

B!G Ph4Rm4

Infatti devo dire che avevi ragione, questa gen di AMD a mio avviso, anche se farà inca**are i fànboy AMD, è una delusione. Costa troppo e offre troppo poco. Non puoi sparare 50 dollari in meno dando nessuna feature che ti faccia preferire. Il rapporto prezzo/prestazioni in raster è IDENTICO (+7% della 3080 in 4k, e costa il 7% in più), con la differenza che ha tutto il resto.
Stendiamo un velo pietoso sulla 6900XT che è una scheda ancora più ridicola.
Tra l'altro i numeri presentati alla presentazione da AMD erano veramente una barzelletta: ecco perchè mostravano i numeri della 6900XT sempre e solo in giochi straottimizzati per AMD e con rage mode + SAM attivi (e anche lì in alcuni casi perdeva).
Ed ecco spiegato perchè hanno parlato 30 secondi di RT e 10 secondi di upsampling.

La riprova di tutto questo è che dopo le recensioni Herbert Von Fanboyen è scomparso :D

La (mia) postazione da Creator: dal Desktop MSI al Monitor 5K Prestige

Recensione Mac Mini Apple Silicon M1, ho QUASI sostituito il mio desktop da 2K euro

Recensione HONOR Router 3: il miglior Router Wi-Fi 6 qualità/prezzo

Apple Silicon è il futuro di Apple: da desktop a smartphone, andata e ritorno