
24 Settembre 2020
NVIDIA ha presentato ufficialmente le nuove schede grafiche professionali Quadro RTX, le prime basate su architettura Turing e ottimizzate per il Ray-Tracing. L'annuncio, arrivato nelle scorse ore al SIGGRAPH, contribuisce a fare chiarezza sulla roadmap del produttore americano, in dirittura d'arrivo anche per quanto riguarda la nuova serie di schede grafiche consumer GeForce.
Durante la conferenza tenuta al SIGGRAPH, il CEO NVIDIA, Jensen Huang, ha svelato le nuove linee Quadro RTX 8000, RTX 6000 ed RTX 5000, insieme ai nuovi server Quadro RTX che arriveranno sul mercato nelle prossime settimane. Per gestire in tempo reale il carico di lavoro richiesto dal Ray-Tracing, le nuove GPU sono state ottimizzate a livello hardware e dotate di nuovi "RT Core", affiancati dai Turing Tensor Core (per gestire reti neurali e deep learning) nonché da memorie GDDR6 di ultima generazione.
Il modello di punta della nuova serie è la NVIDIA QUADRO RTX 8000, una scheda con 48GB di memoria video GDDR6, dotata di 4608 CUDA Core e 576 Tensor Core; il prezzo è proibitivo, 10000 dollari. Le nuove schede NVIDIA Quadro RTX saranno disponibili a partire dal quarto trimestre, a seguire trovate le specifiche e i prezzi in dettaglio.
GPU | Memoria | Memoria con NVLink | Ray-Tracing | Cuda Core | Tensor Core | Prezzo |
Quadro RTX 8000 | 48GB | 96GB | 10 GigaRays/S | 4608 | 576 | 10000$ |
Quadro RTX 6000 | 24GB | 48GB | 10 GigaRays/S | 4608 | 576 | 6300$ |
Quadro RTX 5000 | 16GB | 16GB | 6 GigaRays/S | 3072 | 384 | 2300$ |
Commenti
Peccato. Onestamente per disegnare sul Cad avrei volentieri preso una 2000, di questi mostri non so cosa farmene, sono troppo overkill per il mio povero portafogli (nonché per le mie necessità, 48gb di ram sono 42 più di quelli che mi servono) XD
Lo dici solo perché a te crysis non gira e quindi sei nvidioso...
Starai ancora con la 6200 Turbocacche da "ben" 512mb. Si, megabit.
LoL
WE LAGAZZI! Qualantotto giga di memolia!
E le ladeon MUTE!
Heil Nvidia! https://uploads.disquscdn.c...
per il momento hanno presentato solo il chip di fascia alta e relativa versione depotenziata, di chip di fascia inferiore non ne parlano.
Nessuna notizia per le quadro serie 4000 e soprattutto le 2000?
Perdonami ma non ho capito cosa intendi on quest'ultima frase
Da anandtech:
"The big change here is that NVIDIA is going to be including even more ray tracing hardware with Turing in order to offer faster and more efficient hardware ray tracing acceleration. New to the Turing architecture is what NVIDIA is calling an RT core, the underpinnings of which we aren’t fully informed on at this time, but serve as dedicated ray tracing processors. These processor blocks accelerate both ray-triangle intersection checks and bounding volume hierarchy (BVH) manipulation, the latter being a very popular data structure for storing objects for ray tracing.
NVIDIA is stating that the fastest Turing parts can cast 10 Billion (Giga) rays per second, which compared to the unaccelerated Pascal is a 25x improvement in ray tracing performance."
Da ciò si capisce che l'architettura tradizionale ha dei limiti che non la rendono particolarmente efficiente per alcuni calcoli necessari per il ray tracing (C'è un motivo specifico ma non ho le competenze per spiegarlo con sicurezza), e quindi sono stati implementati questi RT core per risolvere il problema.
Ribadisco quindi, l'architettura delle attuali gpu nonostante tecnologie gpgpu come cuda e opencl non è tale da eseguire codice per il ray tacing nella maniera più efficiente possibile. E questa nuova soluzione di Nvidia ne è la conferma, insieme al prototipo di Imagination Technologies di qualche anno fa
"Mi scuso per il tono (credo sia quello ad averti irritato più che il contenuto) ma la modesta opinione rimane, finché eventualmente qualcuno mi spieghi diversamente"
Non hai capito niente. Azzanna alla gola e contemporaneamente ginocchiata nelle pàllè, così si argomenta sul blog. Non sei mica seduto su una poltrona del Carlton a sorseggiare un single malt mentre fumi un Cohiba 1966 Edición Limitada.
Boh
Con l'architettura non cambi granché, le operazioni di raytracing sono semplici di per se ma vanno ripetute "fifilioni" di volte. Le architetture delle gpu attuali (ed anche meno attuali) sono ottime per eseguire calcoli semplici in parallelo, il problema è quello della forza bruta.
Come ha scritto anche maurizio il problema è che devi riuscire ad aumentare il numero delle unità di elaborazione e tenerle alla frequenza più alta possibile.
É più un problema di processo produttivo che non di architettura.
Il problema più grosso l Ho riscontrato mentre ero in procinto di cambiare modalità grafica del superlativo Snake xenzia
Certo. Puoi dirlo forte
Ci sono sicuramente motivazioni più complesse, oggi è molto più fattibile farlo per l'industria che richiede tale tecnologia ancora più grande, la possibilità di raggiungere prestazioni che consentono di avvicinarsi al rendering real time, l'hardware per l'ia intanto sviluppato che può aiutare con il denoise, e soprattutto l'ottima condizione economica attuale di Nvidia.
Insomma non metto in dubbio che oggi sia decisamente più facile sviluppare e vendere un prodotto del genere, dico solo si sia aspettato tanto per farlo per ragioni più economico-strategiche (comunque comprensibili) che tecniche.
Prendo d'esempio imagination technologies, azienda molto più piccola, che qualche anno fa era riuscita a sviluppare un architettura per accelerare l'rt, e ha pure mostrato un prototipo funzionante con ottimi risultati. Ovviamente quasi impossibile per un'azienda del genere lanciare una GPU completa, anche con l'incognita del supporto software. Per un Nvidia leader del mercato forse era fattibile...
Pensadoci meglio il motivo principale potrebbe essere stato l'impegno per CUDA, tecnologia rivoluzionaria che consentiva l'utilizzo della GPU come acceleratore in molti settori, tra cui il ray tracing, garantendo già una forte espansione del mercato. Spingere oltre troppo presto forse non sarebbe stato altrettanto redditizio.
Poi non ti arrabbiare, capisco che da come ho scritto ti sembrava volessi insegnare a Nvidia, ma un blog è così si commenta, si discute, anche sbagliando, avendo magari la possibilita di essere corretti.
Poi io la mia opinione l'ho argomentata, se qualcuno può smentirla ben venga, ma dire che i vari di CEO ne sanno di più del commentatore è una risposta logica e che fila sempre, ma aggiunge poco alla discussione. Mi scuso per il tono (credo sia quello ad averti irritato più che il contenuto) ma la modesta opinione rimane, finché eventualmente qualcuno mi spieghi meglio
Eh oh... È una cosa relativamente nuova... Ha sicuramente problemi
l'attuale implementazione e' "piu' efficiente" di "non si puo' fare".
Io ne possiedo 2. Sono un tecnico specializzato che lavora nel campo dell'editing. Precisamente effetti speciali cinematografici a livello futuristico robotico e alieno. La passione per ciò che faccio mi ha portato a credere in questo prodotto. Ma se potessi tornare indietro non l'avrei acquistata. Ho avuto problemi di tutti i tipi
Quanto tempo è passato dalla tua ultima trombata?
Relax man...
Bhe, potevi candidarti a ceo di Nvidia o amd 10 anni fa e cambiare gli investimenti puntando sul Ray tracing. Se nessun colosso ci ha puntato prima ovviamente non è perché magari c'era qualche ostacolo economico / tecnico / vattelappesca.... No, il commentatore medio da blog ne sa ovviamente molto di più e avrebbe fatto meglio.
Una potenza enorme che viene aggravata dal fatto di non avere un'achitettura ottimizzata per quel tipo di calcoli... Il grandissimo salto di prestazioni è determinato dall'architettura, da quei RT core, NON soltanto dal p.p e dalle dimensioni del die, altrimenti fai fatica a guadagnare anche il 50%, quando qui stiamo parlando di 25 volte Pascal! La stessa architettura implementata in un processo produttivo di molti anni fa avrebbe prestazioni ovviamente inferiori, ma goderebbe di un vantaggio simile rispetto alle GPU di quell'epoca.
Lo stesso discorso lo si può fare con le macchinette per il mining dei bitcoin, non è che non esistessero perché mancasse la tecnologia, ma perché mancava la richiesta. Poi sono arrivati i bitcoin e hanno portato allo sviluppo di ASIC in poco tempo. Il mondo del path tracing esiste da un bel po' e muove miliardi (pensa a Pixar) ma nonostante questo sono tutti ancora a fare rendering su CPU o e GPU da rastering come imbeci||i spendendo 10 volte più energia e tempo solo perché nessuno aveva sviluppato soluzioni specifiche
Sì ma con tutta la calma di questo mondo
Se si parla di architettura adatta ad accelerare il ray tracing è ovvio che deve essere più efficiente altrimenti non avrebbe senso di esistere. La dimensione del die è frutto di una scelta, tieni conto che integra anche i tensore core e i CUDA core tradizionali. Probabilmente non hanno voluto compromettere le prestazioni in altri tipi di carichi, oppure puntare a prestazioni a livello assoluto più elevate possibile. Ma un 25x rispetto a Pascal non non lo si ottiene certo soltanto col processo produttivo e con le dimensioni del die. Probabilmente potrebbero fare una versione più compatta e ancora più specifica per il ray tracing con prestazioni comunque superiori di almeno un ordine di grandezza. Qualche hanno fa anche imagination technologies aveva presentato la sua architettura adatta al ray tracing che risultava 10 volte più efficiente della concorrenza
nel caso non fosse chiaro sopra stavo scherzando, ho sbagliato a scrivere milioni.
in linea di massima per scene con superfici riflettenti e geometrie complesse si parla di molti miliardi di intersezioni raggio-superficie.
Ma se viene usato ancora come benchmark di schede video e processori attualmente? :D
E allora, Final Fantasy XV ci gira?
'sta battuta del c***o aveva un senso nel 2007, nel 2010 aveva già rotto la min***a e adesso mi fa pensare che sussista un qualche disagio cognitivo nella mente di chi la ripropone sotto ogni singola maledetta notizia di schede video. BASTA!
https : // www . youtube . com / watch?v=tjf-1BxpR9c
Già con volta hanno mostrato una demo di raytracing in real time, anche se con l'aiuto di un filtro ia. L'immagine che riusciva a generare nel tempo di un frame era ancora estremamente grezza e rumorosa, ma con l'aiuto di un denoiser con intelligenza artificiale "magicamente" funzionava, anche se in maniera poco elegante. Ora con questa architettura adatta ad accelerare questo tipo di calcoli diventa ancora più interessante, non solo per puntare al Real Time ma per tutti quelli che hanno a che fare col mondo del path tracing
Non c'è niente di assurdo. Semplicemente ci vuole una potenza enorme per il ray tracing. Ci vorranno almeno altri 10 anni per qualcosa di usabile nei giochi a livello consumer.
E quanti ne servirebbero?
zero piu', zero meno, tanto gli zero non contano eh z.z
qui non stiamo parlando di architetture piu' efficienti, qualsiasi cosa voglia dire ma architetture nuove che sfruttano la maggiore capacita' offerta dall'incremento di transistors disponibili e da throughput verso la memoria sempre piu' ampi.
10 miliardi *
Non serve solo a puntare al rendering in tempo reale, ma soprattutto a velocizzare quello tradizionale. Una volta fatta l'architettura la devi implementare su un numero di transistor limitato dalla tecnologia del momento, dal processo produttivo e dalle dimensioni del die. Ma se hai di base un architettura più efficiente il vantaggio c'è l'hai sempre, oggi come 10 anni fa...
Ma Crysis ci gira?
con la tecnologia attuale serve un piatto da servito da 800mm^2 di chip e i risultati non sono neppure gran che (10 milioni di raggi al secondo, scordati scene complesse in realtime), semplicemente fino ad adesso non era possibile farlo.
è il modo migliore ( al momento ) di rappresentare scene 3d calcolate sulla base di raggi di luce ma ci vuole moltissima potenza
Era ora! Mi pare quasi assurdo che si sia arrivati fino ad oggi senza un hardware particolarmente efficiente nell'eseguire i calcoli per il ray tracing, nonostante non mancasse certo la richiesta...
Scusate, sono ignorante e oggi anche pigro, cos'è il Ray Tracing?