
02 Maggio 2022
Mentre si parla della possibilità che NVIDIA annunci le GeForce RTX 3000 SUPER, in un momento dove il mercato attraversa comunque una situazione di forte carenza di GPU, si fanno sempre più insistenti le voci sulla prossima generazione di schede grafiche consumer NVIDIA, parliamo delle tanto attese GeForce RTX 4000. Oltre alla possibile nomenclatura, quasi inevitabile potremmo dire, al momento non ci sono informazioni ufficiali su questi nuovi prodotti: c'è un velo di mistero che, inevitabilmente, non fa altro che alimentare l'attesa e le indiscrezioni a tal proposito.
Nonostante quanto appena detto, le informazioni sulle GeForce RTX 4000 non mancano: nelle ultime settimane i dettagli emersi sono stati diversi e iniziano a delineare quella che potrebbe essere la nuova offerta di NVIDIA per il gaming. NVIDIA, forte di una leadership ulteriormente consolidata nel secondo trimestre, avrebbe teoricamente tutto il tempo di programmare il lancio delle nuove GPU a 2022 inoltrato, tuttavia, l'attuale situazione di incertezza del mercato, unita alle continue pressioni di AMD con le Radeon 7000 RDNA3 oltre che della neoarrivata Intel Alchemist, potrebbero comunque spingere il colosso californiano a stringere i tempi.
Secondo le ultime e più "affidabili" indiscrezioni trapelate dalla rete, le GeForce RTX 4000 dovrebbero essere basate sull'architettura GPU NVIDIA Lovelace e realizzate su nodo produttivo a 5nm. A tal proposito si vocifera che Lovelace non sarà la proposta consumer di NVIDIA, affidata invece alle soluzioni nome in codice Hopper; al momento, come detto, non abbiamo indicazioni da parte di NVIDIA, ma in base alle fonti valutate finora siamo più propensi per la prima.
Nomenclatura a parte, questi chip dovrebbero utilizzare ancora un approccio monolito a differenza di AMD RDNA3 (Radeon RX 7000) che, pare ormai confermato, sarà prodotto su nodo TSMC 5nm con tecnologia Multi-Chip-Module (o MCM). Per le ipotetiche GeForce RTX 4000 si parlava inizialmente di un'opzione Samsung (sempre 5nm), ipotesi decisamente svalutata nelle ultime settimane. Proprio per questo motivo è molto probabile che NVIDIA affiderà le GeForce RTX 4000 a TSMC e al suo nodo produttivo a 5nm (con tutto quello che ne può conseguire in ottica shortage).
Quanto al lancio, inizialmente si parlava di un debutto di NVIDIA Lovelace dopo l'estate del prossimo anno, ma anche in questo caso le ultime "soffiate" confermano che NVIDIA potrebbe stringere ulteriormente i tempi, anticipando il tutto al primo semestre 2022 (molto dipenderà anche dai risultati Intel e AMD).
Vista la tempistica discussa sopra, è molto probabile che i primi sample di GeForce RTX 4000 facciano la loro comparsa entro fine anno; al debutto ci aspettiamo ovviamente il modello top di gamma, l'ipotetica GeForce RTX 4090, seguita dall'ammiraglia per il gaming GeForce RTX 4080 e via seguendo.
Alla base del modello flagship NVIDIA dovremmo trovare quindi il chip Lovelace AD102, un prodotto che in realtà è stato già avvistato lo scorso dicembre, con caratteristiche che se confermate sono a dir poco impressionanti. Seguendo la logica NVIDIA, GeForce RTX 4080 si baserà sulla meno potente NVIDIA AD104, mentre un'ipotetica RTX 4080 Ti sarà una versione appositamente depotenziata della stessa AD102.
NVIDIA AD102 è accreditata di ben 144 Streamung Multi-Processor che, calcolatrice alla mano, sono ben 18.432 Cuda Core; il reparto memoria probabilmente sarà affidato sempre alle GDDR6X, mentre se parliamo di potenza di calcolo AD102 dovrebbe garantire 66 TFLOPS (FP32) a una frequenza di 1,8 GHz. Con queste caratteristiche, la nuova GeForce RTX 4090 sarebbe da 2 a 2,5 volte più potente della sua antenata.
Caratteristiche e prestazioni di questo livello ovviamente andranno ad incidere in modo sostanziale anche sui consumi: se la GeForce RTX 3090 ha un TDP di 350W, per la nuova RTX 4090 si parla di un incremento dei consumi nell'ordine del 30%. Queste al momento le informazioni a nostra disposizione che, inutile quasi dirlo, potrebbero essere stravolte a breve con nuovi dettagli ufficiali (o ufficiosi).
Commenti
Si infatti costeranno ancora come un computer assurdo tipo 2000,4000 euro di scheda...possono stare lì dove stanno sinceramente con questi prezzi folli
Sì ma, per dire, i macchinari che usano per le litografie sono prodotti in Europa.
Dopo 2 mesi posso confermare la bontà del mac mini M1 per "content creator" (oggi lo chiamano così). Sinceramente già a lavoro su server con distro linux e client pc con windows sto sempre a sistemare varie cose qua e là.. quando torno a casa il mac è perfetto, piccolo, silenzioso e prestante. Va benissimo così, anche perchè non gioco ormai più su PC da 10 anni.. altrimenti sicuramente mi sarei assemblato (come ho fatto negli ultimi 30 anni) un PC con scheda video sia per gaming che editing video.
È che non vuoi cacciare una lira non è che non le trovi.
Al solito si passa ad Apple perché non si è capito un c4zzõ. Se usavi Intel Quick Sync andavi lo stesso.
che discorso è? le schede ci sono, basta pagarle o mettersi in coda negli shop. io ne ho trovate 2, una 3080 e una 3090(attuale) pero' serve di farle sempre piu potenti perche ti assicuro che faticano anche queste in 4k
Dipende da come ti muovevi: ordinata a fine settembre in un negozio online arrivata a fine ottobre...
Consumi: 350W + 30% ... Azzarola... ... ...
guarda che il grosso di quelle che tu chiami competenze derivano prima da studi di ricerca che per una buona parte (anche più di buona) avviene a livello universitario e che facciamo anche noi in italia. la differenza tra noi e loro è che mentre noi ci facciamo pagare un piffero le consulenze e i nostri studi tanto per tirare avanti la baracca loro investono nella produzione e ci fanno sopra centinaia e centinaia di miliardi.
maledetto mercato delle GPU... per fare dei progetti in videoediting sono dovuto passare al MAC con M1 (che non so come fa ma gira fluido pure con 3 clip 4K 50fps con transizioni e della color correction) dopo 40 anni di Anti Apple!
Che voi siate maledetti!
Con più produzione e senza le console di mezzo. Poi AMD pare voglia lanciare la fascia mainstream sui 6nm
Se cerchi sugli store esteri qualcosa si trova appena preso Legion 5 con Ryzen 5600h e rtx 3060 con tdp massimo a 900 euro, in Italia il prezzo dei portatili è folle
Il punto non è quanti soldi investi, il problema è come e chi.
TSMC e Samsung sono avanti anni luce, hanno competenze nel settore da anni. Bisogna aggiungere il problema delle risorse primarie, perché a loro costano molto meno.
"in raster si equivalgono più o meno" con 100-120watt in meno di consumo.
Per loro ha senso ne fanno poche e le vendono al doppio...
Non confondiamo il "non si trovano" con "vende poco"
Shortage infinito
Confondi la scarsità di un prodotto con il fatto che sia introvabile.
Non hanno fatto 2 GPU in croce, anzi hanno venduto molto di più del solito, ma la domanda è ancora altissima
Anni, almeno 2, ma i miliardi sono giá stati investiti quindi si aspetta
Funzionamento di rvn è quasi come eth.. ma visto che ha un algoritmo che richiede tanta energia non è riuscito andare oltre ciò che è ora... Ma quando sparirà eth di sicuro uscirà fuori un altra moneta da minare.. infatti già il profitto per minare sia ergo che rvn soltanto genera 1 euro in meno al giorno.. almeno per me quindi se oggi eth diventa PoS comunque avrei guadagno di 11 euro al giorno invece di 12.. vedo difficile che mining sparisce dalla circolazione + visto che stanno sbloccando bure lhr soltanto con dei miner senza fare nulla al bios ecc.. oggi già una scheda lhr riesce ad esprimersi al 70% del suo potenziale
Non voglio star qua a discutere di percentuali minime e features che possono interessare o no.
La scorsa generazione AMD non aveva nulla contro le top Nvidia, ora possono sfidarle, e anzi vincono su certi parametri (efficienza).
La prossima gen AMD si sa da tempo che metterà in gioco una gpu MCM con il TRIPLO dei core (WGs, o come li si vuol chiamare/classificare).
Se Nvidia non ha ancora pronta una strategia MCM, per affrontarli deve avere accesso al nodo più denso possibile, i 5nm Samsung non basterebbero nemmeno facendo chip da 900mm2.
ovviamente la 4050ti giusto?
> neanche ci provano
In realtà ci stiamo provando e abbiamo un piano da 145 miliardi di €
i risultati fiscali di nvidia dicono che hanno venduto e venduto bene.
se "nessuno" le avesse comprate sarebbero in perdita.
che poi almeno i miner finiscono con la storiella che loro supportano un progetto come era per ethereum ........raven coin è proprio una moneta per giocare in borsa è nulla piu .........comunque anche loro difficolta a reperire le schede video se non sborsando prezzi folli , dunque rimane il dilemma , è vero che cè troppa domanda o se ne producono poco per venderli a prezzzi folli ?
Se quella la chiami parità, dai non sono ancora a livello le AMD, in RT c’è ancora un abisso, in raster si equivalgono più o meno, ma a volte le NVIDIA ancora sopra, tra l’altro le NVIDIA ad 8nm di Samsung. Con questo non voglio dire che il pp di Samsung sia migliore di TSMC, assolutamente, ma quelli di Samsung non sono neanche uno scempio da scartare.
A parte tutto, CHE SI SVEGLINO!
Fine.
>:((
A me il 29 Febbraio del 20mai.
;)
Non è che abbiano molta scelta, i 5nm di TSMC sono superiori di molto a quelli samsung, e già con la scorsa generazione AMD si è praticamente portata in parità con Nvidia.
L’Europa è inesistente su questo piano, paesi asiatici e Stati Uniti hanno quasi il completo controllo sulle materie prime. Qui in Europa neanche ci provano perché ci costerebbe tutto uno sproposito, e non avendo neanche le competenze necessarie..
Se tutto va bene 2023, anche perchè le stanno mettendo in piedi adesso.
Ma la cosa che mi scoccia di più, è che è ora di basta avere le fonderie al di la dell'oceano. Le vorrei anche qua! ( Parlando di livello continentale ). ;)
Non voglio entrare in merito perché sono veramente ignorante, ma quanto costa e quanto tempo ci vuole per una Intel o Samsung per costruire nuove fabbriche o aggiornare quelle attuali ai nuovi processi produttivi? Perché trovo impossibile e stupido che solo TSMC possa essere così avanti o farsi carico della maggior produzione mondiale.
Il grande problema è proprio quello. Sarà ancora peggio, lo shortage dilagherà in più direzioni, visto anche l’allarme lanciato da quello del settore automotive..
Sottile
Tutti su TSMC, ci porteremo questo shortage anche anni dopo la pandemia
uscita a settembre 2020 ma sono state irreperibili per almeno 3/4 mesi, nessuno riusciva a comprarle
Non è vero, vai su amazon e vedrai che il prezzo massimo è 800 €.
I veri unicorni sono le 3060Ti.
;)
La serie 3000 è uscita a settembre 2020; queste, da vari rumor, usciranno nel 2022. Ci sta come periodo di 2 anni. Che poi non siano reperibili a prezzi umani, è un altro discorso. Più che altro mi sembra strano che Nvidia non vada della classica serie 3000 Super, come successo per la serie 2000, prima dell'uscita della 4000
ma che senso ha far uscire nuove gpu di anno in anno se non si riesce a comprarle e bisogna aspettare mesi per riuscire a trovare un notebook o proprio la gpu? i prezzi delle attuali 3xxx sono ancora mostruosamente alti, ora si cominciano a trovare notebook con 2060 a 999e, il prezzo giusto che doveva essere anche l'anno scorso, mentre una 3060, per quei pochi disponibili, servono almeno 1700e, follia totale. dovrebbero aggiornare le gpu ogni 2/3 anni non prima.
Non sono nemmeno riuscito a trovarne 1 della serie 2000..
e tra un po' escono le 4000 :D
disponibili nel 2050
noi scalper siamo pronti, lmao
Primo semestre 2022 non ci credo neanche morto
*dentro ai pc dei miners
Quello che sappiamo, di sicuro che costerà un botto, ergo rimane sullo scaffale a vita :)
a me amazon la da in consegna il 31 settembre
...ed il tutto a 999 dollari con tanto di spedizione prime, prezzo minimo garantito e ovviamente disponibilità immediata :P
https://uploads.disquscdn.c...
Non mi piace troppo sta cosa dei 5nm TSMC, l'unico motivo per cui la disponibilità delle 3000 era migliore di RDNA 2 è stato proprio il fatto che avevano usato gli 8nm di Samsung.
E' anche vero che di RDNA 2 ce ne sono state molto poche perchè dovevano produrre anche per XBox e PS5, però non so quanto sarebbe stato diverso.
Disponibili dal prossimo 30 febbraio.