NVIDIA RTX 4070 costerà 100$ in più della RTX 3070 | Rumor

31 Marzo 2023 158

Secondo Videocardz, la NVIDIA GeForce RTX 4070, il cui debutto è previsto verso metà aprile, costerà 599 dollari: l’ennesimo segno del significativo aumento di prezzi previsto dalla società per le schede video di questa generazione. Per avere qualche parametro di riferimento con i modelli attuali e precedenti:

  • Il prezzo di lancio della 4070 Ti è stato di 799 dollari;
  • Il prezzo di lancio della 3070 Ti di precedente generazione è stato di 599 dollari;
  • Il prezzo di lancio della 3070 è stato di 499 dollari.

La fonte è piuttosto sicura dell’informazione: dice che il dato è stato confermato nel corso di un briefing con la stampa direttamente da NVIDIA. Non è tuttavia impossibile un cambio di idee all’ultimo minuto - la società ha dimostrato che ciò può avvenire anche dopo un annuncio, proprio con la 4070 Ti che inizialmente era stata presentata come 4080 12 GB.

Chiaramente il balzo in avanti generazionale c’è: rispetto alla 3070 lanciata nel 2021, la nuova scheda avrà lo stesso quantitativo di core CUDA (5.888) ma un’architettura di generazione successiva, una frequenza di clock molto più alta sia in boost sia regolare (2.475 e 1.920 MHz rispettivamente contro 1.725 e 1.500 MHz) ma soprattutto molta più VRAM - 12 GB contro 8, peraltro GDDR6X contro GDDR6 standard con banchi a 21 Gbps contro i 14 della 3070. L’incremento di banda della memoria è tuttavia limitato dal bus, che da 256 bit scende a 192, quindi otteniamo 504 GB/s contro i precedenti 448 GB/s.

La scheda dovrebbe avere anche consumi paragonabili, 200 W contro 220. Nel complesso, ci si aspetta una potenza di 29 TFLOPS in FP32 contro i 20 della 3070. Vale la pena osservare che generalmente le schede di classe *70 sono tra le più popolari nella gamma NVIDIA.


158

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Frang2

Lol
Adesso ho un normale 16/9.

Il prossimo sarà un 34 21/9.
Sono eccezionali

No, non è fattuale, puoi tranquillamente giocare in 4k in giochi che non hanno bisogno di quella banda passante.
Nei processi di produzione dei prodotti basati semiconduttori non hanno tutti i prodotti finali hanno gli stessi risultati (e con il tempo questo vari ancora di più).
Se hai un prodotto di livello più basso puoi decidere di associare componistica (alle volte che sulla carta sembra addirittura uguale) più economica, e certificarla per risultati più bassi.
Se questi prodotti servono al marketing per effettuare bias cognitivo di ancoraggio, gli stessi servono anche aziende di non gettare componentistica leggermente obsoleta ma validissima, fuori standard in produzione, ecc. ecc.
Direi che ci siamo detti tutto.
Ciao

Esattamente quella che arriva a te e la porzione matematica dedicata al marketing.

opt3ron

Tra 3070 e 3070ti c'è un 5% di differenza(praticamente va come una qualsiasi 3070 custom) , gli 8GB fanno da collo di bottiglia ad entrambe , la 3070 ti è praticamente una 3070 con 100€ in più creata per giustificare l'aumento di prezzo fatto da nvidia in quella fascia ai tempi della crisi.

sgru

1080

M D

allora quando cambierò monitor (perchè prima o poi dovrò adeguarmi pure io, magari col prossimo pc) se ti ribecco nei commenti ti chiederò consiglio, dato che sono completamente a digiundo riguardo agli schermi. l'unica cosa che so è che non voglio assolutamente avere l'effetto clouding sullo schermo. Davvero fastidioso! Sulla tv che uso per guardare i film meno male che è quasi del tutto assente, ma su una tv che provai prima di questa che ho, nelle scene buie era un disastro di aloni biancastri che partivano dalla cornice... riportato indietro subito sono riuscito a farmelo cambiare, anche se la samsung non lo ritiene un difetto. Ecco, una cosa che vorrei evitare è proprio di ritrovarmi un difetto del genere, che rovina le scene buie.

M D

e nel mio caso sbagliano, perchè io e altri come me siamo fuori dalla media. perciò usiamo quello che ci sentiamo di usare ignorando la media, haha

M D

parere personale l'estetica. cmq concordo, erano davvero fighi quei computer. così fighi che ancora hanno una base bella solida di utenti che sviluppano nuovi giochi e techdemo. Io colleziono C64 e vic20, avevo in mente di mettermi a collezionare pure gli Speccy, ma poi il problema sarebbe stato in primis avere un rifornimento di chip, zoccoli e periferiche varie. La prima da procurarsi di sicuro la kempston!
Lo spazio fisico dove collocare le macchine... perciò non colleziono neppure Amiga e me ne rammarico molto.

M D

si, ma la questione rimane pur sempre soggettiva. io ho un monitor 1080p molto buono della asus, ma gioco con un 4/3 sempre asus lcd a 1280*1024. che ne so, mi piace di più... spero che in futuro io possa cambiare idea

M D

concordo appieno. poi una volta giocavo molto di più col pc. erano i tempi dei pentium4 con core prescott. Ho un p4 ht 530 che ancora svolge alcuni lavori, ma a quell'epoca era il pc da gioco. Ricordo che in estate, una volta, all'interno del case ci stavano 55 gradi... avevo la hd 4850 da 1gb reference che scaldava un botto! Quando misi una hd 4850 sempre da 1gb ma col dissipatore custom le temp. si abbassarono di parecchio in estate. Poi feci un sacco di modifiche al fine di portare aria un po ovunque all'interno di quel case.

GeneralZod

Se lavori e hai famiglia, per forza. Però sai, dipende da quanto tempo riesci a dedicarci. Per me è uno spreco. Anche perché dopo una sessione di 1h già inizio a pensare che ho altre cose più interessanti da fare.

From Monkey Island 2 (bannato)

oh ma quanti account hai? LOL

From Monkey Island 2 (bannato)

non puoi essere anche tu un account secondario, magari sei il terzo :D

Il corpo di Cristo in CH2O

ah quindi è "marketing" non è "fisica".

Frang2

Ho provato anche un 32 fullhd su scrivania.....
Lho cambiato dopo neanche un mese per quanto fosse sgranato su scrivania.
Ai voglia ad allontanarti ;)

Frang2

A me se uno gioca in fullhd non mi frega niente.
Però dire che è meglio è giusto io non ci sto.

sgru

figo il Commodore 64 col lettore di cassetta, me lo ricordo ancora bene ma era ancora più figo lo Spectrum ZX, soprattutto esteticamente, un gioiellino.

sgru

ok e allora? lol

M D

a parte i professionisti, credo che siamo tutti casual gamer. altrimenti ditemi voi, haha

M D

la media mondiale non è la media di casa mia. non è la mia scrivania, non è la mia distanza a cui guardo il monitor. In sostanza, si f0tta la media, haha.

M D

si, ma che te frega se uno vuol restare in 1080p? vai a casa sua a rompergli il monitor? La roba superata non esiste.
inoltre il mondo va di mode su mode, molte odiose e molte altre che tornano in voga. Buttate i vinili che ci stanno i CD, haha. Vallo a dire a chi i vinili se li porterebbe pure a letto, che a malapena tollera i cd e che odia la musica immateriale in formato mp3.

M D

infatti NO!

M D

giovani napippa... io ho cominciato a giocare col Commodore 64 e ancora adesso ci gioco. Le persone non sono tutte uguali a questo mondo, ogni persona ha le sue priorità nella vita. Giocare col pc è nel mio caso in fondo alla classifica oggi come oggi. Per lo svago preferisco di gran lunga spararmi un 100 km in bici.
il pc finché non mi crepa o mi stufo davvero profondamente, resta quello che ho (ragionamento che fanno in molti, ma quelli che cambiano pc sono di più, ma questo non significa che sia la "norma" perché la norma è quella che ogniuno ha a casa sua.)
giudicare il pc o lo schermo di qualcun altro è un po sbagliato. Siete abituati al 4k? Prova a giocare un RE7 su un monitor 4/3 da 19 pollici... esperienza stringinatiche e oppressiva che ben si addice ad un titolo del genere (questo è solo un esempio). Cmq ragà, ogniuno gioca con quello che ritiene più opportuno. Per il tizio che usa il VR, il tizio che sta in 4k è limitato. Per quello che sta in 4k, colui che sta in 1080p è limitato. Per quello che sta in 1080p, quello che gioca in 1280*1024 è limitato. In realtà non ci sono limiti o standard da seguire. Ogniuno gioca e fruisce come gli pare e piace col proprio hw!
fate i buoni che fare i cattivi porta male!

M D

non è neanche questione di soldi secondo me. Potrei comprare un pc nuovo col top del top e invece mi tengo questo che ho, semplicemente perché trovo inutile cambiare qualcosa che ancora mi va più che bene. Nel mio caso ho un pc ancora più scarso e vecchio del tuo e gioco in 1280*1024, anche se ho pure un 1080p asus da 26 pollici (o giù di lì, non ricordo manco quanto è, dato che preferisco in ogni caso il mio 19 pollici 4/3)
Per giocare si gioca bene pure alla mia risoluzione e come dicevo in qualche altro post, "ogniuno col suo pc ci fa e ci monta ciò che vuole". Non mi lamento, il mio "vetustus" come l'ho chiamato, tira pure metro exodus a preset con qualità ultra, liscio come l'olio a 60fps vsyncati. i7 4790k e r9 290x tri-x da 4gb!
E need for speed heat tutto ad ultra sempre 60 FPS fissi!

sgru

la media mondiale usa il monitor ad una determinata distanza, penso bisogna basarsi su quella e pure da 1 metro si nota bene la differenza tra le varie risoluzioni

Frazzngarth
Frazzngarth

Il concetto di "vicino" è abbastanza relativo; c'è chi ha il monitor a 50 cm e chi lo ha a 90 cm, chi ha un monitor 24 pollici e chi lo ha da 48.

di ABISSALE ci può essere tutto come anche niente, dipende.

I 60 o 120 fps non c'entrano niente, l'esempio è demenziale;

E prima di dare dell'ignorante a me ti consiglio caldamente di mangiare ancora qualche tonnellata di pastasciutta, ragazzo.

Frazzngarth
Frang2

E insomma....non è proprio la stessa cosa

Frang2

Ma poi il mio 40 4k pagato 350. Un tv samsung con pannello VA che da una pista a molti monitor di maggior costo.
Presi poi prima una gtx 1070 a 450 euro e giocavo tutto a 1440p fluidi. E molti giochi anche in 4k come fifa, ecc.
Non mi sembra di aver speso miliardi

Adesso un 4k ragionevole costa. E bis8gna prendere schede video da almeno 1300 euro per tenere almeno 2 anni

Frang2

Chi arriva adesso sul full hd può resistere un po di anni... ovvio

Sono stato uno dei primi ad avere un monitor 19 con un pentium 2, gli Altri avevano tutti il 17....
Poi mi feci un 21 sony trinitron usato....
Poi con l'era degli LCD, presi un 23 fullhd, poi 24, poi 27 poi ... 32 ma lho cambiato subito perché era troppo sgranato su scrivania.

Poi un'estate provai il PC su un 55 4k e da lì mi si è
aperto un mondo e quindi mai più un fullhd.

32 a 1440p è l'ideale.

No.
Esistono schede video con bus a 64bit più performanti di altre a 128 ed addirittura a 256.
Questo è fattuale.
Al posto di fissarvi co ste cose, che tanto manco sapete che sono (perché non siete ingegneri di quelle aziende), concentratevi a vedere il prodotto nel complesso…
A prescindere dal BUS questo prodotto che prestazioni ha con il gioco a cui voglio giocare? l esempio di tutto è DLSS.

Ciccillo73

Anch'io sto su 1080p e dove non mi piacciono uso Nvidia Supersampling e vado anche 4k.

triccuz

la penso come lui ma non sono un account secondario

triccuz

se non è superato il 1080p te sei mio nonno

Esattamente. Nel campo dei conduttori esistono prodotti con le stesse specifiche, quelle famose, (anzi pure inferiori) che costano anche 100 volte di più. Il marketing fa questo… ciao

Sepp0

Beati loro. Io non comprerei mai una scheda video dagli USA sinceramente.

sgru

certo!

sgru

ma che vuoi immaginare te che nemmeno riesci e leggere 2 parole in un blog...prossima gen di GPU per comprare la serie 2000? Sì, ci credo

sgru

lol non è un mio account secondario, te hai problemi seri ahhahaahha chiedi pure ad un mod di controllare.

sai non credo che per acquistare un pc da 3-4k bisogni essere paperon de paperoni...lì potresti comprare uno yatch da milioni di euro ad esempio ma mi rendo conto che data la tua posizione pensi che chi possa spendere 3-4k rispetto a milioni di euro sia già considerato essere un paperon de paperoni.

Se avessi letto non uso monitor 4k ma uw oled 1440p, a confermo che non sai nemmeno leggere.

Il mio lavoro ben retribuito se reale? Già parti con l'idea che io sia un dipendente, magari ho dipendenti a cui pagare lo stipendio. Detto ciò se hai ancora dei dubbi posso farti una foto del 13900k e 4090 con ram a 8000mhz :* Se vuoi posso anche mandarti del secondo PC che ho in un appartamento in una nazione diversa con 5800X3D e 3080 ed anche un terzo con 5600x e 3060Ti. Smack

From Monkey Island 2 (bannato)

vabbè comunque mi sono annoiato di rispondere a te e al tuo account secondario :D mi auguro il tuo lavoro ben retribuito che ti pemette di comprare una macchina di 3/ 4 k ( mamma mia immagina che paperon de paperoni potersi permettere di spendere una cifra del genere LOL) sia quantomeno reale, perché per attaccare una filippica del genere inizio anche a dubitare di questo :D
Comunque ti lascio alla seduta quotidiana di monitor 4k, magari su un 25 pollici, magari con la calibrazione di fabbrica fatta con il cu.l0 mentre nella tua testa ti ripete " guarda lì che qualità"

sgru

ti sbagli alla grande, l'ho editato perchè te l'ho già scritto nell'altro commento, non editato. Era per evitare una ripetizione. Per me sei e ti comporti da pezzente.

sgru

"Prima di evolversi bisognerebbe capire che a una determinata distanza un 1080p è percepito identicamente ad un 8K." si parla di PC e ci si sta vicini. La differenza tra 1080p, 1440p e 2160p è abissale. Non prendiamoci in giro per cortesia.

sgru

non credo centri nulla esser giovane...quando lo ero io non vedevo l'ora che la tecnologia avanzasse, soldi permettendo ... altri non possono permetterselo, soprattutto oggi dove il costo dell'hw è aumentato in modo spropositato ed essendo infantili non ammettono l'ovvio ma ti dicono che "il full hd va bene" ;-)

From Monkey Island 2 (bannato)

vabbè dai stai trollando

From Monkey Island 2 (bannato)

tutto sto casino per aver detto che resto con la 1080 in attesa della prossima generazione di GPU. Immagino i tipi di reazione per i problemi veri della vita... CURATI

sgru

vero, attualmente costa troppo giocare "ad ultra ad altro framerate" a 4k, come hai scritto sopra, e quindi il ragionamento ovvio di Frang2 va a farsi benedire ed in modo forzato ed erroneo ti senti costretto a dover dire che una risoluzione di 20 anni fa ti va ancora bene.

Eppure sai bene che se giocare a 4k era molto più economico già da da anni avresti cambiato hardware.

Il tuo è un copione ben noto, non devi vergognarti.

sgru

peccato che con un pc non ci giochi e basta

a te di sicuro va bene una console

sgru

sì ma il solito KOPITE7KIMI ha già divulgato le specifiche

sgru

sai com'è quando incontri quelli che commentano random il solito commento da 10 anni sotto ad ogni tipo di articolo che parlano di GPU.

Recensione ROG Strix Scar 17 (2023), il nuovo Ryzen 9 7945HX è una bomba!

Recensione MSI Prestige 13 Evo A13M: business elite

NVIDIA Studio e Omniverse, come annullare 7.000 Km grazie alla tecnologia

Recensione Medion Erazer Major X10: Intel ARC A730M sfida la RTX 3060 | VIDEO