NVIDIA GeForce RTX 4070: nuovi dettagli, frequenze GPU oltre i 2 GHz

04 Agosto 2022 63

Mentre AMD rimane molto abbottonata sulle Radeon RX 7000, attese entro fine anno, le indiscrezioni sulle NVIDIA GeForce RTX 4000 si moltiplicano, soprattutto all'avvicinarsi del debutto previsto per il mese settembre (almeno sulla carta). Oggi si torna a parlare della GeForce RTX 4070, prodotto che si colloca in una fascia di mercato molto battuta per quanto riguarda il rapporto prestazioni/prezzo e che, al pari di tutte le GeForce RTX 40, dovrebbe proporre un salto generazione davvero notevole.

Le ultime novità arrivano dal noto kopite7kimi e in sostanza "affibbiano" alla GeForce RTX 4070 le specifiche tecniche della GeForce RTX 4070 Ti, emerse solo qualche giorno fa. In un recente tweet, il leaker afferma che questo preciso modello sarà dotato infatti di 7.680 Cuda Core e 12GB di VRAM, al contrario quindi di quanto emerso nelle scorse settimane.

La GeForce RTX 4070 così configurata garantirebbe oltre 11.000 punti nel benchmark del 3DMark Time Spy Extreme, allineandosi a una GeForce RTX 3090 Ti (Recensione), il tutto però con un TBP inferiore del 33% (450W vs 300W). A bordo troviamo non 10GB ma 12GB di VRAM GDDR6X 21 Gbps - probabilmente con interfaccia a 192 bit - mentre le ultime voci di corridoio vogliono frequenze di clock molto spinte, per intenderci in un range tra i 2.000 e i 3.000 MHz.

Riguardo i prezzi, infine, NVIDIA potrebbe mantenere lo stesso MSRP della GeForce RTX 3070, ossia 499 dollari, una cifra che sarebbe a dir poco allettante viste le probabili prestazioni, ma che al momento rimane ancora da confermare.

GEFORCE RTX 4070 - SPECIFICHE TECNICHE PRESUNTE

GEFORCE RTX 4070 (vecchie specifiche):

  • GPU AD104
  • Cuda Core 7.168
  • Memoria 10GB GDDR6
  • Velocità Memoria 18Gbps
  • BUS Memoria 160 bit
  • TBP (Founders Edition) 300W

GEFORCE RTX 4070 (specifiche aggiornate):

  • GPU AD104
  • Cuda Core 7.680
  • Memoria 12GB GDDR6X
  • Velocità Memoria 21Gbps
  • BUS Memoria 192 bit
  • TBP (Founders Edition) 300W
  • Prestazioni=GeForce RTX 3090 Ti
Il meglio di OnePlus? OnePlus 9 Pro, in offerta oggi da Phoneshock a 548 euro oppure da eBay a 619 euro.

63

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Crazyciccio

Guarda, infatti io mi aspetto che se anche AMD prendesse lo scettro delle prestazioni (di poco) la gente continuerà per lo più a preferire Nvidia perché lo ritiene sinonimo di qualità e garanzia. Un po' come succede con Apple verso tutti gli altri marchi per intenderci.
Sì, la conosco la vicenda delle "sabotaggi" di Intel, di benchmark ma anche proprio a livello commerciale, nelle grandi catene, pagando affinché venissero esposti loro prodotti e non quelli ATI/AMD. Da quel momento in poi ha iniziato a scavare un solco incolmabile fino ad oggi che si è un po' appianato (non economicamente ma ideologicamente).
In passato ci sono state generazioni di GPU AMD come quelle che hai citato ma anche l'ancora precedente R9 290X che se la giocavano colpo su colpo ma dopo questa il divario è purtroppo riaumentato e la percezione della massa pure. Solo noi appassionati sappiamo comunque discernere quando un prodotto vale la pena essere preferito ad un altro e non per partito preso.

Monakois 94

Non ho vissuto la vicenda in prima persona ma mi sembra di aver capito che è stata principalmente colpa di Intel se AMD nel 2015 stava quasi fallendo,di conseguenza il fatto che non sia stata sul pezzo mi sembra abbastanza naturale (anche se la Fury X rivaleggiava con la 980Ti).

Quello che voglio è che la gente cominci di più a dare a Cesare quel che è di Cesare perchè ok che sono stati anni bui ma se con RDNA2 hanno fatto un salto enorme pur di pareggiare Nvidia mantenendo un ottima efficenza,non mi venire a dire soltanto "eh ma in RT fanno schifo" ignorando qualsiasi altro pregio.

Detto questo,RDNA3 dovrebbe andare almeno il 20% in più di Lovelace oppure consumare significatamente meno per avere un veloce riscontro di market-share perchè in caso di pareggio,cascasse il mondo continuerebbe il monopolio.

Crazyciccio

Già, hai ragione, purtroppo quando un marchio diventa leader del settore, il pubblico di massa conosce solo quello, è successo con Intel contro i primi Ryzen e lato GPU con le Nvidia contro AMD. Ci vuole molto tempo per far cambiare la percezione nel mercato e solo attualmente i Ryzen hanno preso una buona nomea. Lato GPU la situazione è molto più complicata ma questo è anche merito di Nvidia di essere sempre stata sul pezzo per anni e AMD che non ha proprio fatto benissimo in tutto dovendo sempre in qualche modo rincorrere. E non voglio assolutamente screditare AMD anzi, ti parlo da possessore di configurazione full AMD e da possessore di un vecchio PC con FX-6300.

Monakois 94

Il problema é che ad AMD non basta solo vincere per guadagnare quote rapidamente perché Nvidia ha troppi aficionados e lo abbiamo giá visto con RDNA2 che nonostante pareggia in raster con consumi ridotti,la gente punta il dito solo su RT per screditarla.

Alla Ryzen 3000 vs Intel 9000 per intenderci,dove per 1 sola mancanza venivano omessi 3 punti di forza.

Crazyciccio

A quanto pare dagli ultimi rumor emersi sembrerebbe che Nvidia abbia fatto marcia indietro sui consumi tornando sui livelli di Ampere ma a discapito delle performance. Temo a questo punto che il salto non sarà quello promesso ma sarà molto più compassato. Se AMD riesce invece a tenere le stesse performance per watt di quanto finora rumoreggiato, potrebbe davvero vincere (almeno in raster) e giocarsela piuttosto bene in RT.

Monakois 94

Spero solo che non si faccia lo stesso errore di Ryzen 3000 vs Intel 9000 dove la prima non veniva vista come "sorpasso" solo perché in single core andava il 15% meno ignorando tutto il resto.

Giá la strada é quella visti i commenti fatti contro RDNA2 che mi hanno fatto rabbrividire ma spero che la gente veda meglio il quadro generale perché altrimenti il monopolio regnerá sovrano ancora a lungo.

Crazyciccio

Io credo che la colpa dell'aumento vertiginoso del TDP delle prossime Nvidia sia proprio di AMD: si sa che RDNA3 sarà molto ma molto competitiva, molto più di RDNA2 vs Ampere, per questo Nvidia pur di mantenere il probabile scettro delle performance o comunque per giocarsela alla pari, ha dovuto alzare l'asticella di tutto, compreso il TDP. Il fatto è che loro utilizzeranno ancora architettura monolitica mentre AMD passerà sull'MCM con l'enorme vantaggio prestazioni/consumo. Si vede che sul monolitico non riescono proprio più ad alzare le performance tenendo bassi i consumi.

Monakois 94

Ne sono consapevole che stiamo arrivando al cap ma RDNA 2 e Ryzen 2-3 ci hanno dimostrato che si possono aumentare le performance mantenendo lo stesso pp e gli stessi consumi.

Quest'anno piú che mai,sará la fiera delle performance nude e crude e forse solo AMD frenerá leggermente i consumi ma alla fine dovremmo tutti cambiare alimentatore per un pc top gamma.

Crazyciccio

Già ma ormai i tempi in cui aumentavano le prestazioni tenendo i consumi pressoché uguali sono finiti. Come se non riuscissero più a fare qualcosa di simile per limiti architetturali o tecnologici.

Monakois 94
Crazyciccio

Bhé tra 2070 e 3070 ci fu un salto del 50% per un aumento del TDP di 45W (175 vs 220). In questo caso dovrebbe esserci un salto del 60% per un aumento del TDP di 80W. Alla fine stiamo lì.

Monakois 94

Con i driver aggiornati la situazione tende a cambiare parecchio sopratutto con le gpu AMD.

Detto questo,mi piace considerare "salto" una gpu totalmente migliore della precedente e se queste nuove andranno il 50-60% in più aumentando i consumi di pari passo e le dimensioni (si parla di 3-3,5 slot) allora c'è qualquadra che non cosa.

Per questo ho citato Maxwell,Pascal e RDNA 2 perchè offrivano un cospiquo aumento mantenendo inalterati consumi,dimensioni e temperature.

Crazyciccio

Personalmente mi affido a Techpowerup che fa una scala di tutte le GPU in percentuali e ti dà lo scarto medio a un tot di risoluzione per la media di numerosi giochi. Lo ritengo uno dei più affidabili anche se l'unico problema se non sbaglio è che non aggiorna le percentuali dovuti da update driver e simili.
Per questo ti dicevo che lo scarto che dovrebbe in teoria esserci tra 3070 e 4070 potrebbe essere effettivamente il più grande di sempre.

Monakois 94

Personalmente ho visto test che arrivavano al 60% di scarto tra la le 2 ma mi rendo conto che negli ultimi anni é molto facile beccare recensioni che passano dal +30 al +70% in base alla testata.

Indipendentemente da quanto sará grande il salto,bisognerá vedere con che consumi,spreco di calore e design verrá fatto perché finora Maxwell e Pascal si sono rivelate essere le migliori come architetture al "100%".

Crazyciccio

Ehm no, tra 970 e 1070 c'è "solo" un 47% di scarto anche meno di quello tra 2070 e 3070 (50% preciso).

Frazzngarth

1) la XX80ti l'hai tirata fuori tu, non io...

2) la 1070 va il 7% sopra la Titan X

3) la 2070 è il 10% sotto alla 1080ti

4) la 3070 è pari alla 2080ti

5) la 4070 sarà sopra del 10-15% rispetto alla 3080ti

a me sembra un incremento importantissimo rispetto alle ultime due generazioni, prezzo permettendo

è un incremento molto simile a quello che c'è stato fra la 980ti e la 1070, e siccome la serie 1000 è universalmente riconosciuta come una delle migliori, se non la migliore, serie di schede Nvidia... a me, se le performance dovessero essere confermate, sembra un eccellente risultato per le 4000

no?

gianluca campostini

Sapevo che avresti tirato fuori la 3080ti, ma non c'entra nulla.
Ormai è da non poche generazioni che la xx70 performa circa come la top di gamma della serie precedente, la 3070 va come una 2080ti, la 2070 è un po' sotto alla 1080ti (ma c'è stata l'introduzione di tensor e rt core quindi una buona parte del die è occupata da questi), poi la 1070 demolisce la titan x.
I nomi nuovi che si inventano ad ogni generazione per la top di gamma cambiano ma generalmente la tendenza c'è

Frazzngarth

E questa 4070 andrà ben di più della 3080ti.

Monakois 94

Già,della serie " le 3000 sono il salto più grande di sempre",poi guardi Maxwell e Pascal e ti rendi conto che le cose non stanno proprio così.

Antsm90

Quando uscirà andrà come una 3080TI e costerà uguale

gianluca campostini

La 3070 andava come una 2080ti, che era la facia più alta della gen prima
Avete la memoria corta

gianluca campostini

Il costo dei wafer di silicio e il costo di progettazione di una scheda nuova si sono alzati di molto

gianluca campostini

è colpa di nvidia se decidono di spingerla al massimo, potrebbero tranquillamente perdere qualche punto percentuale in performance e renderla da 200w se non meno.
Per esempio la 2080 ti ha un dei die più grossi mai arrivati su una gpu consumer con i suoi 754mm2 ed era da 250w, perchè non aveva competizione e nvidia non aveva incentivi a spingerla oltre

gianluca campostini

Infatti anche la 4070 sembra sarà da 12gb

gianluca campostini

Un die da 300mm2 su tsmc 5/4nm con 12gb di ram a 500 dollari, non è impossibile

Frazzngarth

ah dissentono?

eh, mi dispiace per loro...

https://uploads.disquscdn.c...

Monakois 94
Monakois 94
Monakois 94
Frazzngarth
Andreunto

Eh prima le 90 non c'erano. Volevo intendere che la 70 diventi la top della gen precedente.

Comunque vedremo. Sicuramente sarà la scusa per pompare ancor di più il prezzo

Crazyciccio

Della "80 Ti" sì ma in questo caso si parlerebbe della "90 Ti", praticamente la Titan che va circa il 10% in più che, ok non è molto, ma parleremmo sempre dello scarto prestazionale maggiore di sempre. Poi ripeto, è tutto da vedere ed io hi miei dubbi si faccia +60% gen su gen.

Andreunto

Si ma è normale che la xx70 sia pari alla xx80ti della gen precedente. E' sempre stato così. Il problema sono i consumi che non sono mai arrivati a tanto

Andreunto

Facci caso

GTX 770: 230 W
GTX 970: 148 W
GTX 1070: 150 W
RTX 2070: 175 W
RTX 3070: 220 W

Adesso andiamo diretti a 300w, tanto...

Andreunto

Ma non è vero.

GTX 770: 230 W
GTX 970: 148 W
GTX 1070: 150 W
RTX 2070: 175 W
RTX 3070: 220 W

Adesso andiamo diretti a 300w, tanto...

Crazyciccio

Diciamo che se fosse davvero quanto la 3090 Ti, sarebbe un +60% netto medio in game nella stessa fascia, cosa mai avvenuta prima. Perfino tra 970 e 1070 (+47% medio) e tra 2070 e 3070 (+50%) non si era mai avuto questo gap.

Sir Lipton Icetea

infatti

Ma era sempre stato così, di gen. in gen.!

Perché ora sarebbe qualcosa di straordinario?

thytan

avecce il giardino!

Crazyciccio

Bhé se avesse davvero le performance della 3090 Ti che ha un TDP di 450 W i 300 di questa 4070 non sarebbero malvagi. Più che altro sarebbe tanto merito del pp ridotto.

Crazyciccio

Stesse performance della 3090 Ti vorrebbe dire +60% netto sulla 3070, non doppio ma sarebbe il salto più grande di una "70" da anni e anni se non da sempre. Pure io resto scettico.

Ricordo ancora le 2080 Ti a soli 300€ su HWUpgrade nei giorni di settembre 2020 subito dopo l'annuncio della nuova serie... era il delirio pure qua su HDBlogghe...

E soprattutto gli stessi prezzi.

Un tempo, fino al 2015 circa, avevamo le x80/xx80 che consumavano 180-200W e costavano 400-500€... che tristezza.

deepdark

Lol...sta succedendo la stessa cosa che accadde con lo 3070 vs 2070, si parlava del doppio della potenza alla metà del prezzo. In molti misero la propria vga su subito/ebay per poi prenderla in saccoccia.

Hanno erroneamente scritto il prezzo al contrario €994 .. può capitare in fase di battitura!

Andreoid

Accidenti, io volevo comprarla, ma voto per LeU

Paolo

Così se ne può parlare, soprattutto con un prezzo decente

Redvex

Non è proprio esatto, ma sono d'accordo con te. Sembra la rincorsa di intel che fece con i Pentium 4 Prescott per recuperare su AMD. Solo che stavolta sia Nvidia che AMD che INTEL consumano un botto. Non ci sono architetture più efficienti

1v9

Io metterei in evidenza questo commento! Bravo Andrea, hai centrato il punto!

Davide Limina

se ragioni cosí non dovresti mai usare internet, cloud etc

Recensione AMD Ryzen 7 6800U, la iGPU ora convince

Recensione AMD Ryzen 7 5800X3D: la V-Cache 3D funziona alla perfezione

Recensione NVIDIA GeForce RTX 3090 Ti: l'ultimo grido di Ampere

Mac Studio e Studio Display ufficiali: il Mac mini cresce ed è potentissimo | Prezzi