
30 Aprile 2021
Torniamo ad occuparci dell'ormai famigerata e più volte rimandata NVIDIA GeForce RTX 3080 Ti, l'erede dell'attuale NVIDIA RTX 3080 (Recensione) che dovrebbe debuttare sul mercato il mese prossimo. Da diversi mesi si parla di questo particolare modello, molto atteso soprattutto dopo il lancio della AMD Radeon 6900 XT, senza dubbio superiore alla proposta NVIDIA per quanto riguarda le prestazioni raster, ma decisamente dietro quando si parla di ray-tracing.
Dopo le ultime informazioni sulle possibili caratteristiche e sulla data di lancio, ulteriori dettagli arrivano nuovamente dal noto leaker kopite7kimi che conferma le specifiche trapelate il mese di febbraio, in particolare per quanto riguarda la quantità di memoria video, ossia 12GB di memoria GDDR6X 19 Gbps.
Things have changed.
— kopite7kimi (@kopite7kimi) February 6, 2021
Maybe the current spec is 10240FP32, 12G GD6X. 😃
Il post di kopite7kimi però va oltre e suggerisce che NVIDIA potrebbe introdurre sulla GeForce RTX 3080 Ti il cosiddetto "blocco per il mining", la stessa limitazione che l'azienda ha proposto per la recente GeForce RTX 3060 presentata a fine febbraio.
Al momento non possiamo confermare definitivamente la notizia, tuttavia, un'eventuale azione di questo tipo da parte di NVIDIA potrebbe dimezzare l'hash-rate della RTX 3080 Ti, rendendola quindi meno appetibile per i miner. Attualmente non conosciamo le prestazioni di questa inedita GPU, facendo due calcoli però, dimezzando l'hash-rate potrebbe portare ad avere prestazioni nell'ordine di una GeForce RTX 3070, il tutto però a un prezzo che dovrebbe essere di 1.000 dollari.
Commenti
Veramente come pesantezza pareggia con Cyberpunk 2077,WD Legion e AC Valhalla ma il punto è che i giochi nextgen usciranno almeno fra 2-3 anni, il resto sono roba non ottimizzata.
Tu pagheresti oggi tra i 500 ed i 1000€ per avere qualcosa, forse fra 4 o5 mesi? follia
Infatti i tempi e i delay si sono allungati a dismisura passando ai 7 e poi ai 5nm, basta che cerchi, è solo peggiorata la sitazione.
Poi se conosci la produzione sai che non si improvvisa, ogni nodo è prenotato e c'è una durata per la produzione di ogni lotto. Se a X servono l'equivalente di 10.000 wafer in 6 mesi a 10nm, tu sai che da aprile ad agosto (per dire), 2.000 wafer al mese dei 5 mila totali mensili a 10nm saranno occupati da X. Poi basta.
Non è che arriva NVIDIA e a X dicono "senti adesso i 12nm servono a loro quindi vai a fare in c**lo da un'altra parte". Non funziona così.
Se funzionasse così non vedresti che AMD fatica così tanto. AMD fatica perchè la produzione è tutta prenotata da altri che probabilmente pagano prima e pagano di più. E stai tranquillo che ad Apple, per dire, non tolgono produzione se AMD chiede 100k chip in più.
Sono contratti e vanno rispettati, altrimenti scattano penali e risarcimenti.
Apple e altri big pagano miliardi o decine di miliardi per prenotare le linee, letteralmente, non è che TSMC decide come spostare la produzione a piacimento penalizzando chi la paga.
Ergo, evidentemente, NVIDIA ha prenotato le linee a 12nm e TSMC, senza togliere ad altri, produrrà il quantitativo richiesto probabilmente qualche mese fa quando si è prenotata.
Questo non impatta ovviamente sulle linee di samsung (sono due aziende diverse che non c'entrano nulla), né sugli altri clienti dei 12nm di TSMC.
Fine, non c'è molto altro da dire.
Ma i wafer son quelli! Li ho letti i link, so come funzionano i semiconduttori e la loro produzione. TSMC ha X Wafer che occupano tutta la produzione. Se tu devi inserici ste nuove schede, devi togliere un po da una parte per metterla li! Tutto questo con la produzione dei chip che è quella che è. Inoltre, l'articolo è del 2017. Ora la produzione è già a 7nm. TSMC fa 140k wafer al mese da quello che dicevano. Wafer, non chip. Parti da quelli. Se tu lavori 140k wafer, la produzione è in base a quelli. Se vuoi fare un nuovo prodotto, devi prendere da quel pool di 140k wafer, non ne metti altri. Se prendi da quei 140k, inevitabilmente li togli da un'altra parte.
Non li acquistano, li fanno loro, non li acquistano li fanno loro, c'è scritto ovunque. Se le chiamano "fonderie" (TSMC, Intel, ecc) ci sarà un motivo no?
Per il resto ti ripeto di leggere i link, se vuoi cercane altri ma la realtà quella è.
Basta anche un po' di logica, se per fare un certo numero di chip ci vogliono da una settimana a un mese per creare i wafer e poi da 2 a 5-6 mesi per lavorarlo, è chiaro che il secondo passaggio crea un collo di bottiglia.
Se in una settimana fai 100 wafer e ti servono due mesi per lavorarli, in quegli stessi 2 mesi di lavorazione produci 800 wafer.
Se il tempo di produzione dei wafer e la loro lavorazione fosse uguale nel tempo in cui produci 100 wafer, ne hai lavorati 100. Invece ne riesci a lavorare solo 12.5.
Fidati che è così.
Devo trovarlo ma credimi, la storia dei waver ha lo stesso peso della produzione dei semiconduttori. Sicuramente produrre il chip prende tempo, e lo sappiamo tutti. Però i wafer, nonostante l'abbondanza di sabbia nel mondo, la produzione de wafer è quella, non aumenta. TSMC avrà posto per i 12 su quella linea, ma i wafer che produce/acquista, è quella., quindi se devi metterli li, devi necessariamente toglierli da qualche parte
Lo so, questo è lo stesso che gli fa i PCB review, solo che sul suo canale è libero di dire le cose in maniera meno carina visto che non dipende da nessuno.
Si procede per ordini, hai dei contratti da rispettare, non è che togli a un tuo cliente per dare a un altro perchè gli gira così.
NVIDIA avrà prenotato mesi fa quelle linee a 12nm e appena disponibili inizieranno a produrre (o se sono disponibili lo fanno già), samsung non deve riallocare assolutamente nulla perchè fa un solo modello e tsmc fa il resto.
E ripeto, leggi quello che ho postato, i wafer sono la parte semplice da fare e c'è un "surplus", ovvero, i tempi di lavorazione non riescono a stare al passo con la produzione di silicio.
Se ci metti una settimana per fare un cilindro e tagliarlo, e 5 mesi per lavorarlo e far uscire il chip dalla fabbrica, dove pensi che sia il collo di bottiglia? Nei wafer? Assolutamente no.
Non è un problema di quanto wafer hai, è un gioco da ragazzi produrli, è un problema di lavorazione.
Ripeto, qui il problema era altro, cerca il video di gamersnexus
https://www.youtube.com/watch?v=6BBEasRiM_M
Si ma Samsung devi comunque riallocarle. Ora usi tutti i wafer per una cosa, mentre dopo li dovrai dividere. TSMC dovrà quindi togliere wafer ad acune linee per metterli su questa.
Mah dissento, comunque in questo caso il problema era il poco tempo per il testing, non la qualità scarsa dei componenti.
Ma se anche fosse vero (e non è), una è di samsung (le RTX 3000), l'altra è di TSMC (le CMP a 12nm), entrambe si fanno i loro wafer da sole e quindi una produzione non intralcia l'altra.
Semplice semplice.
Si, e di nuovo, Nvidia. Cerca cosa succedeva alle 980ti coi controller delle memorie. Nvidia ha fatto delle specifiche al pelo e col tempo si friggevano. I PCB di Nvidia storicamente sono una ciofeca, a livello di componenti intendo
Si ma serve tempo. La produzione dei wafer è fissa. Ne fai X, non di più, non la aumenti se non fai altre fabbriche per produrli, e la produzione è già al massimo.
Concordo, il mining è un problema minore, il vero problema è che non si trova nulla di elettronica, e non tutti i prodotti sono in mano ai miners. In azienda abbiamo avuto difficoltà a trovare PC portatili, e non abbiamo avuto una richiesta maggiore lo scorso anno, ma erano semplicemente i soliti pc che periodicamente vanno cambiati. Lo shortage è su tutta l'elettronica, e i miners non sono il problema più grande.
ma è il gioco attualmente più pesante graficamente, quindi quello dove vedi le reali prestazioni
Guarda che le CMP sono le schede grafiche della gen scorsa senza uscita video
Non è proprio la stessa cosa, ad esempio con gli Asic normalmente sei limitato ad una o poche cripto che usano lo stesso algoritmo quindi diventano inutili ad un certo punto. Anche se i CMP possono minare più roba, è probabile succeda una cosa analoga, devi considerare che la difficoltà del mining non è statica ma cresce in base a certi fattori quindi si arriva al punto che uno rischia di spendere più in elettricità di quello che guadagna. Quale miner comprerebbe quel CMP? Certo, hai più coin da minare ma comunque sono veramente pochi/e quelli/e con cui si fa un profitto. Basta vedere bitcoin, prima potevi minarlo tranquillamente con hardware scarso ora invece senza un Asic da migliaia di euro fai poco.
Nvidia non è amd coi suoi Bios che si possono mettere uno sull'altro come fossero dei vestiti di una taglia diversa. Se flashi il Bios della 2080 sulla 2070 ottieni un elegante fermacarte. Credo sia facilmente reversibile, ma resta che non viene nemmeno riconosciuta dal Bios.
Ma noi del danaro non abbiamo bisogno, coltiviamo la terra e godiamo dei suoi frutti, poi tutti a nanna che all’alba si ricomincia.
‘Non avevi colto...forse pretendo molto..’
Non importa come guadagni il denaro purché sia in modo lecito.
Questi sono discorsi di 60 anni fà e in genere vengono fatti per invidia o per appunto cattiveria.
Eppure il mining non finirà, c'è da rassegnarsi, e francamente non riesco proprio ad avercela con chi mina, alla fine almeno si tratta di aziende che ci lavorano, e che non esistendo una linea di prodotti dedicata a loro che sia realmente conveniente devono accontentarsi di schede che non sono pensate al 100% per l'utilizzo che ne devono fare loro. Chi invece non riesco a giustificare sono gli scalpers, loro guadagnano senza fare nulla, con un BOT che prosciuga amazon e i vari store, la loro unica preoccupazione è quella di fare annunci su ebay e simili alzando il prezzo di qualche centinaio di euro e spedire quando qualcuno è disposto a pagarli. Loro sono parassiti, i miner per quanto uno possa non comprendere le crypto, o ritenerle inutili almeno fanno un lavoro vero; non pensare che prendi la scheda, la metti lì, e poi aspetti i guadagni senza fare nulla.
Secondo me, una 3080 ti costerà 1500 euro.
https://uploads.disquscdn.c...
Col dlss e rtx basso tiene i 60 alla grande in 4K.
Concordo
Ma non è che gli è stato detto. Tu forse ti stai riferendo al primo "rumor" di quel sito tedesco di cui mi sfugge il nome che aveva fatto questa ipotesi.
In realtà non era un problema di specifiche, il problema era sorto perchè i chip causa pandemia sono arrivati molto in ritardo e non erano stati fatti test a sufficienza.
Infatti alcuni modelli non avevano il minimo problema ed altri sì, ma una volta aggiornati i modelli problematici il problema si è risolto
Ma c'è scritto nei link che ti ho mandato, la produzione dei wafer è la parte "facile" della catena, è la lavorazione che rallenta l'intero processo. Nel secondo link ti fanno vedere con alcuni esempi e numeri come nella fase di lavorazione si creino colli di bottiglia difficilmente risolvibili.
Intel non li prenota, se li fa da sola, così come se li fa TSMC, Samsung, ecc.
https://www.intel.la/content/www/xl/es/architecture-and-technology/global-manufacturing.html
Ripeto, il problema non è la quantità di wafer, è la lavorazione.
Usare i 12nm di tsmc per le CMP e gli 8nm per le RTX vuol dire aumentare la produzione
Aspetta. Il silicio non manca. Mancano i wafer pronti da lavorare. Intel ne ha perchè li ha prenotati per tempo e la sua produzione non ne sta risentendo, anche perchè la domanda si stava lentamente spostando. Il problema è che è aumentata la domanda,per tutti. Quindi Intel continua la sua produzione con la roba che ha. Faceva tot prodotti prima e ne fa tot adesso. Non cambia niente.
Nvidia aveva X domanda e X produzione. La domanda ora è 2X per dire, e la produizione sempre X è, perchè i wafer li devi prendere per tempo e devi prenotarti gli slot delle fab per tempo. In tutto questo vogliono aumentare di un altro X la produzione con questa nuova linea per miners. Quindi a te serve 3X di materia prima e 3X di produzione. La produzione manca e lo sappiamo, ma manca pure 2X di materia prima, che non ti arriva nel giro di un giorno
Il problema è di Nvidia. Sono loro che danno le specifiche minime. Se le rispetti il problema non è del partner. Giustamente Asus, Gigabyte e compagnia hanno più fasce di prezzo, se Nvidia ti dice come minimo usa questo e loro lo usano e poi non va, il problema è di Nvidia che ha dato specifiche sbagliate. Son condensatori usati anche su altre schede che non hanno mai dato problemi infatti.
Guardati il video di gamersnexus, il problema era il fatto che alcuni erano andati al risparmio pensando che bastasse perchè non avevano testato abbastanza le schede. Infatti diversi modelli fatti meglio non avevano il minimo problema.
Non è così. La creazione del wafer è la parte meno complicata. Il silicio è super abbondante e la creazione dei wafer non è uno scherzo ma non è neanche la parte più complicata. Per creare i cilindri e poi i wafer ci vogliono poche settimane, per lavorarli anche 4 mesi o più:
https://www.waferworld.com/silicon-wafer-processing-process/
https://www.asml.com/en/technology/all-about-microchips/how-microchips-are-made#:~:text=Microchips%20are%20made%20by%20building,from%20design%20to%20mass%20production.
ASML fa i macchinari per la litografia, ergo è una fonte affidabile
https://semiengineering.com/battling-fab-cycle-times/
E qui ti spiegano proprio come il problema sia la lavorazione dei chip e come l'intoppo avvenga dopo la creazione dei wafer, con i tempi che aumentano di anno in anno.
Ma poi basta ragionarci un attimo. Se fosse vero che mancano i chip o la materia prima (il silicio se non sbaglio è il 20% della crosta terrestre), com'è possibile che intel produca a tutto spiano? Semplice, il problema non è la mancanza dei wafer, è che intel ha una marea di fabbriche (tradotto: di macchinari per la lavorazione dei wafer) e quindi non ha problemi di produzione. Gli altri si devono dividere le proprie poche fabbriche per una richiesta immensa.
Non credo sia la stessa cosa per loro. Quando vendono i lotti ai miners fanno sconti consistenti, ai gamers le venderebbero tranquillamente a prezzo pieno. Senza contare il malcontento generale diffuso tra più persone che minano senza dubbio la loro reputazione.
Ma sei cieco per caso?? Non hai letto cosa ha scritto l'altro ragazzo?? Una 3070 in 4k col rx attivo e tutto a manetta....senza dlss e su cyberpunk.... dovresti arrivarci da solo no?
La verità è che a loro frega zero. Vendere mille schede a mille persone o tutte ad una sola persona, per loro è identico.
I loro utili sono sempre in crescita mentre i gamers rimangono a secco.
Inoltre sta piaga del mining di criptovalute deve finire, buttano tantissima energia per avere una roba digitale. Una vergogna.
È li che voglio arrivare, mancano anche fisicamente i wafer. Ci vuole del tempo per farli. Quella produzione, così come quella di chip, è limitata.
Nono, è Nvidia che ha dato specifiche farlocche. Queste son le prime con un PCB degno. Sai quante 980ti partivano perchè i regolatori di voltaggio delle VRAM erano pessimi? Nvidia, lato PCB, lascia moltissimo a desiderare. Ed infatti questa volta hanno dovuto alzare le specifiche
MI chiedo come sia possibile evitare che tali blocchi vengano infranti, secondo punto ad Invidia cosa importa che ne fa una persona di quella determinata scheda, basta che vende, non vedo il motivo per il quale dovrebbe dare un freno, meno ce ne sono più si alza il prezzo. Ora non voglio dire che lo fanno apposta, solo che a pensare male non si sbaglia mai.
La mia 3070 lo ha girare in 3
UWQHD a più di 60fps al secondo con quasi tutto al massimo, non vedo perché non debba farlo la 3080ti
Anche questa sarebbe una soluzione, ottima direi, il problema potrebbe essere il mancato guadagno dei distributori intermediari, che da ciò che ho capito sarebbero, insieme ai partner, i veri responsabili degli incrementi da bagarini dei prezzi...sarebbe il caso di potenziare il canale dei preorder potenziando il canale gli acquisti autenticati. Purtroppo come ho sempre sostenuto, è una delle possibili soluzioni che fingono di ignorare.
Se ci lavori non è un problema pagarla 1000 euro, il video editing è il lavoro più poraccio per cui ti può servire, si ci fai ML o rendering 3d la tua azienda è anche più ricca.
Che sia la cosa giusta dividere sono d'accordo, anche perchè se continuano a fare così (ovvero schede della generazione precedente per le CMP) raddoppiano in un attimo la produzione.
Tra l'altro non è che tutte le schede le comprino i miner, basta vedere le statistiche di steam.
Tu non le compri perchè non cacci abbastanza soldi. Steam certifica che ci sono una marea di 3080 nelle mani dei gamer, ergo le comprano.
Poi vi fate un'idea sbagliata. Non è che TUTTE le comprano i miner, un po' le comprano i miner, un bel po' i gamer, un po' chi ci lavora, molte le comprano coi bot per rivenderle.
C'è uno qui nel forum che ne ha comprate due-tre, se volete potete comprarle anche voi.
Ma perchè non mettono i preorder? Mi prenoto ora e poi mi arriva tra 4/5 mesi ma almeno mi arriva.
Qua si litiga tra gamer e miner quando i veri parassiti sono gli scalper che tra l'altro praticano una cosa illegale che si chiama "bagarinaggio".
In realtà è l'esatto contrario. Uno che gioca compra una sola scheda video. I miner in blocco non lasciando nulla agli altri....qual'è il loro diritto divino di acquistare 50 schede e io nemmeno 1?
15 fps non è per niente male ok
Altre foto da lanciare ne abbiamo?
Con "apri il tuo pacchetto Fifa ultimate Team" mi avevi convinto fossi tu quello contro i gamers. Io non ce l'ho con nessuno, né con i miners, né con i gamers, né con chiunque altro. Se fossero stati i gamers a prevalere sul mercato GPU avrei avuto da ridire anche per loro, ergo non è importante la natura del problema. Se NVIDIA propone una soluzione, per quanto drastica, per migliorare la situazione mercato posso sentirmi gratificato? Mi dispiace per i miners SE dovessero ritrovarsi con schede che rendono di meno (ma non succederà visto che non sarà retroattiva), ma in ogni caso una soluzione va presa e per tutti.