Nvidia RTX 40 lancio anticipato! Le nuove schede saranno svelate il 20 settembre

08 Settembre 2022 176

L'arrivo delle GPU Nvidia di nuova generazione è sempre più vicino e sebbene avessimo a disposizione un quadro piuttosto preciso delle possibili date d'arrivo, ora sappiamo con certezza che saranno svelate tra pochi giorni.

Il l CEO di Nvidia, Jensen Huang, terrà uno speciale keynote intitolato "GeForce Beyond " alla conferenza GTC 2022 dell'azienda il 20 settembre, occasione durante la quale le nuove RTX 40 saranno ufficializzate come sostituzione delle architetture Ampere attuali.

Per contestualizzare meglio vi ricordiamo che l'ufficializzazione dell'architettura Ampere della serie RTX 30 risale a maggio del 2020, mentre per i primi tre modelli di RTX (3090, 3080 e 3070) si è dovuto attendere settembre dello stesso anno. Questo ci fa capire che tra la presentazione e l'annuncio potrebbero passare diverso tempo, anche se gli ultimi rumor parlano di produzione in corso per la RTX 4090 e lancio entro fine autunno.

Solamente un paio di giorni fa è trapelata quella che sembra essere la prima foto della RTX 4080 Founders Edition, e dai primi dettagli visibili sembra avere molte caratteristiche in comune con la top gamma di precedente generazione, la RTX 3090.

Per quanto riguarda la scheda grafica GeForce RTX 4090, si ipotizza che sarà equipaggiata con una GPU AD102 da 16.128 Cuda Core e 24GB GDDR6X probabilmente a 21Gbps, mentre il BUS sarà a 384 bit con un TBP di 450 watt. Come gli altri modelli della serie, questa scheda utilizzerà il nuovo connettore PCI-E 5.0. Abbiamo invece alcune indicazioni sulle possibili caratteristiche tecniche di RTX 4070 e RTX 4080, che vi riproponiamo a seguire.

NVIDIA GEFORCE RTX 4080 - CARATTERISTICHE ATTESE
  • GPU AD103
  • Cuda Core 9.728
  • Memoria 16GB GDDR6X
  • BUS Memoria 256 bit
  • Larghezza di Banda memoria 736 GB/s
  • TBP 340 watt
NVIDIA GEFORCE RTX 4070 - CARATTERISTICHE ATTESE
  • Configurazione 1

    • PG141-SKU340/341
    • 7.680 core
    • 12 GB di memoria GDDR6X
    • 21 Gbps di banda per la memoria
    • Interfaccia bus 192 bit
    • TBP: 285 W
  • Configurazione 2

    • PG141-SKU336/337
    • 7.168 core
    • 10 GB di memoria GDDR6X
    • 21 Gbps di banda per la memoria
    • interfaccia bus 160 bit
    • TBP: 250 W

Nvidia trasmetterà in streaming il suo evento GeForce Beyond su Twitch e YouTube e la conferenza inizierà alle 17.00, secondo il nostro fuso orario, del 20 settembre come riportato poco sopra.

Un Computer dentro uno Smartphone? Motorola Moto G100, in offerta oggi da Pskmegastore a 274 euro oppure da eBay a 387 euro.

176

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
WhyCryBaby

Le RTX 3000 sono già calate tantissimo. E vediamo quando esce RDNA3. Vuoi scommettere?

WhyCryBaby

Io. Molto. Molto più qualità a prezzo molto inferiore. Tu continua a farti fregare dai riflessini. A proposito, salutami DLSS 3.

Alessandro Manson Dionigi

chi si incula le amd.

Alessandro Manson Dionigi

i prezzi caleranno ulteriormente? ma la serie 3000 non vi ha insegnato niente?

Alessandro Manson Dionigi

ma che discorso è? ahhahaha se chiede una scheda video è perche ha gia un computer e gioca da pc! e le piste non gliele da comunque come potenza.

Edo8Avio

Con 50 euro in più compri una PS5, che gli da le piste.

riccardik

Diciamo che ci sono rimasto per mancanza di alternative, la serie 2000 non era molto appetibile, considera che ce l'ho dal 2014. Non fossero esplosi i prezzi avrei preso una 3060ti al lancio

Jotaro

No, FHD a vita.

Volpe Grigia

Nessuna azienda mente sulle prestazioni, ma non specificano mai nel dettaglio le modalità di test; per cui i risultati che si ottengono lasciano il tempo che trovano. Quello che è sicuro è il rispetto della legge di Moore, in pratica ogni due anni aumentano le prestazioni in media del 25%

Volpe Grigia

Se sei ancora con una 970 vuol dire che ti interessa molto il rapporto qualità/prezzo e non vuoi spendere molto. Prendi una geforce 1080/1070ti a poco più di 200€ e vivi tranquillo ancora per qualche anno

Volpe Grigia

Giustamente le bollette le pagano mamma e papà

Volpe Grigia

Questa potrebbe essere una soluzione, ottima idea. Non ho mai pensato a farmi un abbonamento finora, ma potrebbe essere arrivato il momento giusto

WhyCryBaby
WhyCryBaby

E chi ha detto che bisogna aspettare solo Nvidia?

Monakois 94

La parte dove dico "tutto il resto del sistema e driver" non la leggi?

Comunque non ho fatto un bel niente ai tuoi post perchè altrimenti non ti avrei risposto finora.

Ste Prince Guerrini

Ah dimenticavo, ora usciranno solo 70, 80 e 90, fascia media e bassa non si sa ancora nulla, quindi ripeto, aspetta e spera, invece di acquistare ora una 3000 a buon prezzo.

Ste Prince Guerrini
Ste Prince Guerrini

Allora spera di acquistare o semplicemente riuscire a trovare una rtx 4000 a buon prezzo all'uscita, costeranno un botto come già successo con le 3000, buona fortuna.
Ripeto prendere oggi una gpu del genere a 450€ è un grande affare.

Superman

e son già due post he mi fai eliminare, guarda caso proprio quelli dove spiego i punti deboli del tuo ragionamento.. non ha senso parlare con i bambini troll, ciao caro Lucusta

Kamgusta

Street Fighter Champion Edition che passa il tempo a chattare su Disqus vedrai che un giorno la mammina non ti pagherà più le bollettine e ciao ciao VGA, altro che pippe di status sociale ;-)

Ergi Cela

Eo voglio crearmi un buon raffreddamento a liquido per il pc per sfruttarlo al massimo,senza danneggiare i componenti usando ad esempio l’azoto liquido

Ergi Cela

Beh ogni 2 anni escono nuove schede video,e la serie 5000 avrà un design multi-chip con i 3nm,gddr7,forse il path tracing,e forse l’aggiunto dell’intelligenza artificiale sulle nuove gpu,è impossibile che non escano le nuove schede video anche se ci dovesse essere una guerra,perché devono comunque vendere come fa anche AMD

Monakois 94

Anche le gpu in un certo senso hanno uno standard perchè di solito sono da 2-3 slot con una lunghezza massima che va dai 29cm ai 33cm.

Se queste gpu saranno da 3-4 slot e magari lunghe 33-35cm saranno evidentemente sproporzionate rispetto agli standard attuali e un azienda deve tenere conto anche di quello perchè altrimenti ci ritroveremo con telefoni da 50 pollici e case grandi come frigoriferi.

A tutto c'è un limite.

Monakois 94

Il mio alimentatore è da 500W gold con un efficenza dell'87-90% a partire con un range che va dal 20% al 100% di utilizzo.

Quando dico "opportunamente controllata",intendo che dopo anni una persona normale conosce esattamente quali sono i suoi consumi medi e di conseguenza lo sai che quei €30-35 di bolletta in più sono imputabili solo all'unica cosa "fuori dal comune" della casa in 6 mesi.

Forse le tue intezioni sono buone ma stai dando troppo per scontato che chi ti sta parlando sia uno sprovveduto che misura "ad mentulam canis" quando in realtà non è così.

Il problema di fondo è che ti stai (volutamente o no) aggrappando al millesimo watt pur di dire "hai sbagliato"
quando lo sappiamo entrambi che anche se consumassi qualche watt in più non cambierebbe niente a nessuno.

Ripeto,massimo rispetto per le recensioni ma se ci sono troppe variabili per sapere il consumo effetivo di una gpu è altresì vero che
ce ne sono altrettante anche nel modello di gpu,nel silicio,nell'intero sistema e nei driver che col tempo aggiustano qualcosa quà è la.

WhyCryBaby

Sì, viste. A seconda del sito sembrano essere a quattro slot e doppia alimentazione "Gen 5", o varie gradazioni intermedie, con dissipatore che si protrude molto oltre la fine del "PCB". Praticamente come mettere un catamarano nel case...
Però mi pare strano che abbiano affrettato il lancio del top di gamma (momentaneo, aspettando gli immancabili refresh tra qualche mese) e lasciato indietro tutto il resto. Ma forse il motivo va ricercato in due ragioni:
- linea Ampere ancora da smaltire, che quindi "retrocederanno" a lineup "mainstream" svendendola (con sommo dispiacere di chi si è dissanguato per essa fino a pochi giorni fa), vedasi 3060 fatte con GA-102;
- placeholder per arginare RDNA3 in attesa delle 4060 e varie altre declinazioni delle GPU più "accessibili".

comatrix

Beh sono a Torino, non è che stia dall'altra parte del mondo eh

darkcg

Gli standard delle mobo contano poco, quello che conta di piu sono le dimensioni di case e vga, che invece uno standard non ce l'hanno. Quando si parla di top di gamma o comunque fascia alta di mercato, mini-itx e micro-atx non sono i riferimenti giusti. Poi tutto dipende, per me il termine "PC gaming" implica componenti che non hanno senso dentro spazi ristretti.

darkcg

Quindi per te future proof vuol dire aspettare il futuro e non comprare mai... Aspettare tra l'altro cose di cui non si sa nulla... Ottima strategia.

darkcg

450W non euro... Cosa non ti torna del fatto che c'è gente che guadagna piu di te e si può permettere cose che non ti puoi permettere tu? Troppo difficile da capire? O vivi in un mondo tutto tuo, comunista, dove tu rappresenti lo status economico dell'intero pianeta?

Monakois 94

Questa è una tua opinione ma la verità è che questo mondo è bello perchè formato da tanti modi diversi di pensare e tra questi ci sono io che mi sono assemblato un pc da gaming ispirandomi alla console con ottimi risultati.

Il mini-itx e il micro-atx sono stati da sempre uno standard e come tale ha avuto sempre modo di avere gpu delle stesse dimensioni e di conseguenza sono i produttori a doversi continuare ad adattare e non il contrario.

darkcg

Io la vedo differente ... Se vai ancora in giro con un PCI Express 3.0, il budget lo devi allocare altrove, non guardare schede del genere.

darkcg

Il PC gaming compatto e come la moto super sport con le dimensioni di un motorino. Una stronxata. Cominciamo in primis a dare la dimensione giusta delle cose. Se vuoi un PC gaming, al compatto non ci devi pensare.

darkcg

Usa il 4k poi ne riparliamo.

darkcg

Si, quello di finire le scuole elementari e capire le stronxate che si vanno chiedendo.

darkcg

Vieni quà a Milano e dopo ne riparliamo. Facile parlare da Roccapinnuzza.

darkcg

Quando si parla di sta roba, future proof è una frase messa li tanto per fare ... Che poi ormai il 2k è abbastanza anacronistico.

darkcg

Come fai a dire che è un prezzo top se non sai:

1) Quale scheda dev'essere presentata durante l'uscita della nuova gen nello stesso segmento di mercato.
2) A che prezzo viene proposta sul mercato.
Comprare a ridosso della presentazione di una nuova generazione è da cretini. Come diceva qualcun altro, è sempre possibile che allo stesso prezzo tu possa prendere un modello inferiore della generazione nuova che magari ti faccia un 20% in piu e magari introduce pure qualche nuova tecnologia assente nella vecchia.

Le RTX serie 3000 ormai sono roba vecchia, non ci sta mica da farci le corse.

darkcg

Gli screenshot delle prime Zotac vanno in giro, quindi sulla carta nemmeno tanto.

Superman

l'efficienza dell'alimentatore non è fissa. che modello hai? da quanti watt? se dichiarano ipoteticamente un 90% di efficienza al 50% su una psu da 750w significa che questa efficienza cel'hai solo e soltanto quando i tuoi componenti consumano 375w, se ne consumi sempre ipoteticamente 150w non ha i più il 90% di efficienza, ma si riduce drasticamente... e questo è solo uno dei componenti del pc, e con ipotesi di carico fisso, che è impossibile in gioco perchè ora consumi 300w, 100 millisecondi dopo quanto consumi? e altri 100ms dopo? c'è da guardare anche il polling del SW che usi per monitorare, non che il polling della oresa amperometrica.. passiamo alla scheda madre, come estrapoli il consumo della mobo per sottrarlo al valore rilevato a muro? come calcoli le dispersioni dei vrm, la potenza assorbita dalle usb, quanto assorbe la ram, eventuali risparmi energetici abilitati da bios? su cosa agiscono? sugli slot pcie non utilizzati tipo ASPM? sui sata o sulle usb non in uso? su altro? quanto consuma il tuo ssd? (sempore ricordando che il carico anche su di esso è estremamente variabile) ribadisco che la mia intenzione non è mortificarti o buttare m***a sul tuo pensiero o su amd in generale, così come non intendo glorificare le rtx 300 che hanno i loro difetti.. solo vorrei dirti che purtroppo se amd non rende disponibili i dati sul vero TBP tramite SW di monitoring come GPUZ HWinfo e simili è IMPOSSIBILE estrapolare dei dati che siano credibili (se non con un interposer elettronico di qualità) riguardo il consumo dell'intera scheda video semplicemente basandoti su una presa amperometrica e sulla bolletta bimestrale di tutta un intera abitazione con tuttel e variabili che comporta l'abitazione stessa.. come ti dicevo lo stesso meteo influisce sui consumi in bolletta, così come anche delle semplici variazioni nelle tue abitudini (o di chi vive con te in quella casa) questo non significa che la 6700xt sia un prodotto schifoso, un buon 80% degli utenti non guarda nemmeno questi dati, vede che la gpu è fresca e giustamente non si fa problemi.. dico solo che se si parla di consumi l'unico modo che abbiamo per vedere noi utenti comuni senza strumentazione professionale è guardare HWinfo che ti fa la media dei consumi, il picco, il minimo ecc.. ma se quel dato non è affidabile perchè i sensori non comunicano il dato esatto ma una media ad ca**um allora diventa davero impossibile senza interposer elettronico su pcie e connettori 8pin rilevare dei consumi veri e che siano affidabili.

Monakois 94

Se il software mi dice:
CPU 1% : 15W
GPU max: 100W
e il misuratore mi dice 145-150W.
quanto pensi possa sballare il tutto?

Se sommiamo 100+15,aggiungiamo un efficienza dell'alimentatore dell'87-90%,avremo un risultato intorno alle 130W + che sommato a tutto il resto del sistema,ci fa arrivare alla cifra iniziale.

Adesso,se facendo lo stesso task con queste impostazioni per 6 mesi,mi accorgo che il consumo dell'abitazione,opportunamente controllata,aumenta di questi 150W/ora,cosa vuoi che debba pensare?
Ovviamente che il mio metodo risulta abbastanza efficace.

Poi sono d'accordo che qualche watt possa sfuggire ma mi sembra molto strano che il software mi segni 170W e invece io stia consumando il 35% in piu.

Superman

Ma questa conversazione non era un modo per denigrare una casa.. Era semplicemente per dire che le rtx sono cappate eccetto alcune custom quindi non eccedono il tdp, pure la tua 6700xt è cappata.. Non è che arriva a 300w.. Il Cap massimo è 230w e più di quello senza overclock pesante non fai, anzi con undervolt fai meno, poi il. Resto del discorso sulla precisione del tuo metodo riguarda appunto il tuo metodo.. Che personalmente reputo impreciso (ma ci sta che la pensi diversamente da me) non amd in se.. Io non sono un sostenitore di nessuno se non del mio portafoglio caro amico.. Solo che passando i per le mani diverse componenti ne conosco pregi e difetti, sarei intervenuto anche se avessi scritto che la 6700xt consuma 280w chiedendoti quanto vicino sei arrivato ai 3ghz sul core (o se li hai superati) per questi consumi ;)

Monakois 94

Purtroppo non posso farti leggere tutti i commenti che ho ricevuto dai fanboy verdi/blu ai danni di AMD solo negli ultimi 3 anni ma ti posso assicurare che sono tutti molto simili a questa nostra conversazione.

Non giudico per carità,solo che date molti grattacapi e non è affatto carino.

Superman

Ceeeeeeeeeerto, ora so o il il fan.. Ahahahahah ma dai..

Monakois 94
Superman

Il. Mio problema? Guarda che in origine io ti ho solo fatto notare che una scheda video non è che consuma sempre il suo massimo tdp.. Ma varia in base all'utilizzo, a che refresh rate arriva il tuo monitor, se metti i meno un limite agli fps e via dicendo.. Sei te che hai iniziato a tirare fuori cose, tra cui la tua prodigiosa 6700xt, unico esemplare al mondo a restare 200w senza downvolt invece di 230.. Quindi che problemi hai tu. Software da un valore sbagliato, misuratore da un valore che non eliminaninefficienze, l'aumento in bolletta bimestrale può dipendere da un sacco di fattori, banalmente se fai la pasta al forno una volta in più questo bimestre, se è più nuvoloso e tieni accese di più le luci.. Se apri il. Frigorifero più volte rispetto al bimestre precedente già hai creato variabili, quindi altro dato impreciso, e infatti il margine di errore è del 15%, ovviamente questo 15% è in difetto, sia mai che quando si tratta di AMD sbagli per eccesso ;)

Monakois 94
Superman

Molto diverso? Guarda che se una scheda consuma 150w in totale di cui 100 di gpu è 50 di tutto il resto il sistema ti fa la media.. Quindi 125.. E mi dici che non è un dato inaffidabile? Comunque se avessi una formula per calcolare partendo da questo dato il consumo esatto l'avresti già detta senza girarci troppo in torno e fare il Misterioso.. infatti si vede che basta usare la matematica, tu a pieno carico senza undervolt dici che consuma da 175 a 200w (viva la precisione) quando in realtà ne consuma 230 e fino ad oggi che ti ho postato l'articolo manco sapevi come funzionano i sensori della tua scheda.. Quindi immagino la precisione matematica di questa formula che custodisci con tanta gelosia.. Da 200w a 230 hai già un 15% di errore.. Testare il pc in idle, rilevare il dato a muro, poi far partire un carico e fare la differenza, e a quella differenza sottrarre il Co sumo della CPU la chiami precisione? Come ho detto nel post che mi hai fatto eliminare ci sono un sacco di cose che non hai contato, ogni cosa nel pc ha un Consumo, in un nas con lo stesso i3 12100 cambiando la mobo lasciando tutto il resto invariato, da z690 (40w in idle a muro) a h610 20w in idle a muro) i consumi raddoppiano, in più c'è l'inefficienza dell'alimentatore.. Che varia a seconda del carico di lavoro, se questa è la tua metodologia di rilevazione che non tiene in contro di inefficienze e dispersioni mi pare logico che hai una percentuale di errore del 15%, che è tantissimo

Monakois 94
Superman

Bene, e come lo ricavi il risultato corretto partendo da un dato del tutto inaffidabile? Descrivi i passaggi..

Monakois 94

Recensione Pokémon Scarlatto e Violetto: alti e bassi di Paldea

LG OLED Flex LX3 da 42”: la curvatura è variabile, la qualità rimane quella del C2

Anteprima di Pokémon Scarlatto e Violetto: 4 cose che dovete sapere

Splatoon 3 ci ricorda perché i giochi Nintendo sono così speciali | Provato