Recensione MSI RTX 3090 Gaming X Trio 24G, semplicemente ESAGERATA!

24 Settembre 2020 275

Nel 2013 NVIDIA annuncia la sua prima GPU TITAN, una scheda video in edizione limitata, disponibile solo tramite i canali ufficiali e caratterizzata da una serie di specifiche davvero incredibili per l'epoca. Il quantitativo di memoria video a disposizione era sicuramente una delle caratteristiche fondamentali di questa scheda, insieme a tutta una serie di ottimizzazioni e strumenti solitamente riservati alle GPU NVIDIA Quadro.

Tanta V-RAM utile soprattutto ai professionisti che lavorano con intelligenza artificiale, algoritmi di deep learning e più in generale con enormi quantitativi di dati. Allo stesso tempo le TITAN si sono rivelate schede molto apprezzate anche dai creatori di contenuti che hanno potuto sfruttare tutta l'efficacia del ray tracing nel rendering 3D e la possibilità di gestire con disinvoltura le sorgenti in 4K nel montaggio video. Tutti processi che richiedono una GPU discreta e un buon quantitativo di memoria video per sfruttare al massimo l'accelerazione grafica.

Sulla scia delle TITAN e con questi utenti nel mirino, NVIDIA ha quindi deciso di introdurre all'interno della line-up RTX serie 30 un modello inedito che prende il nome di RTX 3090 e che condivide la stessa caratteristica fondamentale: tanta memoria video, 24GB nel caso specifico. Abbiamo avuto la fortuna di avere tra le mani per qualche giorno la RTX 3090 Gaming X Trio 24G di MSI e l'abbiamo messa alla prova in gaming, e non solo, per saggiarne le potenzialità. Vediamo come è andata.

ANATOMIA DELLA SCHEDA

Tirata fuori dalla scatola questa MSI RTX 3090 Gaming X Trio impressiona per l'imponenza. Le dimensioni sono così generose che, affiancandola alla RTX 3080 Founders Edition, recensita qualche giorno fa, quest'ultima sembra letteralmente scomparire alla vista. Prima di acquistare una scheda di questo tipo siate certi di avere un case delle giuste dimensioni o vi troverete con una build senza abbastanza ricircolo di aria o addirittura senza lo spazio fisico per inserire la GPU. Montata su una scheda madre in formato ATX questa Gaming X Trio sporge infatti di oltre 5 cm, oltre ad occupare ben tre slot.

Dimensioni importanti che sono determinate in prima battuta dal sistema di raffreddamento che è stato nuovamente ridisegnato per riuscire a ottenere una ancora maggiore efficienza sia in termini di temperature che di rumorosità. Le tre ventole TORX FAN 4.0 hanno un nuovo design nel quale le lame che compongono la ventola stessa sono state unite a coppie per meglio convogliare l'aria all'interno del grande radiatore del sistema TRI FROZR 2. Grazie a questo nuovo design del sistema di ventilazione si riesce ad ottenere una pressione dell'aria fino al 20% superiore rispetto alla precedente generazione a parità di velocità di rotazione.


La porzione di dissipatore che poggia sulla GPU è stata poi riprogettata per riuscire ad avere una superficie di contatto maggiore e un'efficacia nella dispersione del calore fino al 50% maggiore rispetto ai design più classici e, sempre nell'ottica di disperdere il calore in maniera più efficace, anche il backplate della scheda è caratterizzato dalla presenza di heatpipe, oltre ad essere stato realizzato in grafene; materiale più resistente e in grado di condurre meglio il calore rispetto alla plastica.


Ma non finisce qui, il PCB è stato cosparso di pad termici che provvedono a fornire ulteriore aiuto nella trasmissione del calore all'esterno della board. Inoltre MSI ha aggiunto dei fusibili addizionali che aiutano a prevenire danni causati da sbalzi di corrente. Infine la struttura della scheda stessa è stata rinforzata con l'aggiunta di un inserto metallico che previene la flessione dei componenti. Parlando di connettività, invece, sul lato corto della scheda abbiamo 3 connettori display port 1.4a e una HDMI 2.1.


Le dimensioni e il peso generoso di questa RTX 3090 Gaming X Trio 24G hanno poi spinto l'azienda a inserire in confezione un supporto da fissare agli slot PCI-e del case che aiuta a sorreggerla evitando di gravare eccessivamente sul connettore. Quando si dice "prevenire è meglio che curare".

RTX 3090 AI RAGGI X

Come ormai ribadito in diverse occasioni, la GeForce RTX 3090 è la scheda "consumer" più potente proposta finora sul mercato. Rappresenta il top della linea NVIDIA GeForce RTX 30 ma c'è da ribadire - come del resto ha fatto già NVIDIA - che non si tratta di una scheda votata puramente al gioco, tanto che la stessa azienda parla di GeForce RTX 3080 come modello flagship per il gaming e diretta discendente della GeForce RTX 2080 Ti.

Detto questo, GeForce RTX 3090 beneficia di tutte le migliorie introdotte dall'architettura Ampere, che abbiamo snocciolato (e apprezzato) nella nostra recensione della GeForce RTX 3080. A bordo della GeForce RTX 3090 troviamo la mastodontica GPU Ampere GA102 (GA102-300-A1 per la precisione), un chip da 28,3 miliardi di transitor costruito su processo produttivo Samsung a 8nm (custom) e capace di una potenza di calcolo bruta di circa 36 TFLOPS (FP32).


La GPU GA102 in questione presenta un die da ben 628 mm² ed è equipaggiata con 10496 Cuda Core, 328 Tensor Core (3a gen) e 82 RT Core (2a gen); il tutto è abbinato a 24GB di memoria GDDR6X 19,5Gbps su BUS a 384 bit, caratteristiche mai viste su una scheda consumer che dovrebbero permettere una fruizione dei giochi a risoluzione 8K con DLSS ed RTX attivi, il tutto secondo NVIDIA con un framerate anche di 60 FPS. Queste caratteristiche però si sposano altrettanto bene, se non meglio, in ottica produttività, il vero terreno di battaglia di questa scheda come vedremo a breve. Rispetto alla Founders Edition, a cui si riferiscono questi dati, il modello di MSI offre una frequenza di Boost leggermente superiore: 1.785 MHz contro 1.700 MHz.

GeForce RTX 3090 nella versione Founders Edition ha un TDP di 350W, valore importante che ha spinto NVIDIA a raccomandare un'unità di alimentazione da almeno 750W, possibilmente di ottima qualità; l'alimentazione supplementare è affidata al nuovo connettore proprietario PCI-E a 12pin, tuttavia è possibile alimentare la scheda attraverso l'adattatore che si collega a due connettori PCI-E 8pin della PSU. La versione custom da noi provata è invece dotata di 3 connettori classici da 8 pin e offre un TDP ancora più elevato. Come vedremo tra poco, infatti, a pieno carico si toccano i 370W.


Volendo fare un confronto con la tanto chiaccherata GeForce RTX 3080, quest'ultima utilizza una GPU Ampere GA102-200 (GA102-200-KD-A1) dotata di 8704 Cuda Core, ossia circa il 20% in meno della sorella maggiore. A livello teorico quindi, possiamo aspettarci che GeForce RTX 3090 viaggi a una media del 15-20% superiore rispetto ai risultati visti per la GeForce RTX 3080. Quanto al TDP, tra le due schede c'è uno scarto di soli 30W, ossia circa il 9,5%; troveremo un riscontro tra queste percentuali "teoriche" in un ambito di utilizzo reale? Seguiteci e lo vedremo subito.

Prima di passare ai test, un'altra peculiarità da sottolineare è la presenza, sulla GeForce RTX 3090, del connettore NVLink che permette di abilitare la configurazione Multi-GPU, assente sulle altre schede della serie RTX 30. Segnaliamo infine che GeForce RTX 3090 offre la possibilità di registrare contenuti 8K HDR, supporto per la decodifica AV1 nonchè la presenza di connettori HDMI 2.1 oltre che Display Port 1.4a.

I TEST IN GAMING

Come già largamente anticipato la RTX 3090 in tutte le sue salse rappresenta sicuramente la scheda grafica "consumer" più potente attualmente disponibile sul mercato, a prescindere dalla tipologia di utilizzo. I test che abbiamo svolto sono però utili per capire se, e in quali ambiti, il gap prestazionale nei confronti della RTX 3080 giustifica il costo praticamente doppio della soluzione. Nella lettura dei grafici qui sotto tenete conto che tutti i giochi sono stati impostati al massimo livello di dettaglio possibile.

CONFIGURAZIONE DI TEST:

  • Scheda madre: ASUS ROG STRIX Z490 A-Gaming
  • CPU: Intel Core i7 10700K
  • RAM: 2x8GB DDR4 Corsair Vegeance Pro a 3200MHz
  • Storage: 1x Corsair MP510 da 512GB (O.S.) + 1x Crucial P1 da 1TB (Dati)
  • Raffreddamento: NZXT Kraken x53
  • PSU: NZXT C850 (80+ GOLD)
  • Test Bench: DimasTech Easy V3
  • Monitor: Asus PG43UQ 4K - 144Hz / TV Samsung 8K Q950T
  • Driver: 456.38

Come possiamo osservare nei grafici qui riportati siamo di fronte ad un gap prestazionale, rispetto alla RTX 3080 FE, tutto sommato abbastanza contenuto. I risultati di questa MSI RTX 3090 Gaming X Trio sono ovviamente sempre superiori e, a seconda dei giochi e della loro ottimizzazione, abbiamo uno scarto più o meno marcato. Si passa dal 30-40% di alcuni titoli come RDR 2 e Forza Horizon 4 per arrivare al 10% di Control, Death Stranding e Doom. Confrontando i risultati della 3090 di MSI e della 3080 FE si ha una media del 20% in più a favore della prima.


NVIDIA ha dichiarato in fase di lancio che questa 3090 sarebbe stata la prima scheda in grado di farci giocare in 8K. Abbiamo quindi chiesto a Samsung una nuova TV 8K, nello specifico il modello Q950T e abbiamo effettuato alcuni test. Non sono molti ma avendo ricevuto la TV in queste ultime ore non abbiamo avuto materialmente il tempo di fare di più e probabilmente rimedieremo tra qualche giorno con un contenuto dedicato. Come potete vedere, comunque anche con titoli abbastanza recenti riusciamo ad ottenere delle prestazioni sufficienti a giocare con un framerate accettabile. Giusto specificare che in questi test sono state utilizzate le impostazioni grafiche su dettaglio Alto.

I TEST DI PRODUTTIVITA'

Abbiamo più volte ripetuto che la nuova RTX 3090 è una scheda pensata principalmente per la produttività e allora, al termine dei test di gioco ho spostato le schede a bordo del PC che utilizziamo per il montaggio video in ufficio e le ho messe alla prova con alcuni programmi in grado di sfruttare la potenza di calcolo della GPU e in particolare la velocità delle nuove V-RAM GDDR6X che troviamo a bordo delle RTX serie 30. I risultati sono davvero sorprendenti, sia per quanto riguarda Octane Render che per Adobe Premiere Pro, per non parlare di Blender dove addirittura la RTX 3080 non raggiunge i requisiti minimi di memoria per portare a termini alcune operazioni.

Partiamo con Octane Render al quale abbiamo dato in pasto una scena da renderizzare prima con l'una e poi con l'altra GPU. Il programma stima il quantitativo di RAM necessaria ad esportare correttamente la scena in circa 15GB. Dato che RTX 3080 offre "solamente" 10 GB di V-RAM è necessario attivare l'Out of Core Rendering, che utilizza parte della memoria di sistema per far fronte alla mancanza di memoria video. Quest'ultima è ovviamente molto più lenta delle GDDR6X a bordo delle RTX 30 e quindi i risultati sono estremamente differenti. La RTX 3080 utilizza circa 8 GB di memoria video e "prende in prestito" 7 GB di RAM dal sistema, portando a termine il render in poco più di 6 minuti. Dall'altro lato, la RTX 3090 di MSI, sfrutta 13 dei 24 GB di memoria GDDR6X integrati per completare lo stesso lavoro in poco meno di 40 secondi.

Abbiamo poi messo alla prova RTX 3080 e RTX 3090 con il render in Adobe Premiere Pro di un video in 4K a 60fps e bitrate di 100 Mbps della durata di 14 min circa, il tutto ovviamente corredato da color correction, vari effetti di stabilizzazione, glitch, titoli e transizioni. Anche qui il risultato è eloquente. Il maggior numero di Cuda Core permette alla RTX 3090 di rendere ancora più veloce l'elaborazione di tutti gli effetti grafici e di ridurre quindi ulteriormente i tempi di rendering del 30% rispetto alla RTX 3080. Parliamo di 6 minuti e 50 contro i 9 minuti e 43 secondi della sorella minore.

Se il divario in gaming rispetto alla RTX 3080 non è così marcato è invece evidente come nella produttività questa nuova 3090 offra un boost prestazionale non indifferente. Tutto ciò a conferma di quanto dichiarato da NVIDIA nel corso delle ultime ore. In un blogpost dedicato al lancio della RTX 3090 l'azienda ha infatti ulteriormente evidenziato come questa rimanga la sostituta della TITAN RTX, da cui eredita anche la destinazione d'uso.

CONSUMI E TEMPERATURE

Ed eccoci a parlare della gestione termica ed energetica di questa RTX 3090 Gaming X Trio di MSI. Si tratta di una scheda dal potenziale estremamente elevato e pertanto anche le richieste in termini di alimentazione sono importanti. Al contrario di quanto accade sulle nuove Founders in cui abbiamo un connettore proprietario a 12 pin, questa scheda MSI propone il classico triplo connettore a 8 pin e può quindi essere collegata a qualsiasi alimentatore senza troppi problemi e, sicuramente, senza bisogno di adattatori.

Per andare a verificare consumi e temperature ho utilizzato due test differenti. Il primo è Furmark che simula un carico del 100% sulla GPU per un periodo di tempo prolungato, il secondo è invece 3D Mark nella scena TimeSpy in 4K; in questo caso abbiamo uno scenario che si avvicina maggiormente all'utilizzo in gaming.


Quello che vedete qui sopra è il grafico relativo a Furmark e, come potete notare, mostra un consumo massimo da parte della scheda pari a 370W, 20W in più rispetto a quanto dichiarato da NVIDIA per la propria Founders Edition. Le temperature, invece, dopo oltre 5 minuti di test si attestano intorno ai 75 gradi, a testimonianza del fatto che il lavoro svolto da MSI in fatto di dissipazione è assolutamente ottimo. Vi basti pensare che la 3080 Founders Edition, nello stesso test, arrivava a toccare le stesse temperature con un carico di 50W inferiore.


Simile in fatto di picchi il comportamento con 3D Mark Time Spy per il quale è però interessante analizzare i valori medi. In questo caso si parla di circa 256W di consumo medio e 67 gradi di temperatura.

Chiudo con il dato relativo alla rumorosità, misurata a circa 10 cm dalla scheda dal lato delle ventole. La MSI RTX 3090 Gaming X Trio 24G si rivela una scheda tutto sommato anche silenziosa con un picco massimo di circa 65 dB con le ventole al 100%. Con il sistema in idle, invece, non si superano i 40 dB.

CONSIDERAZIONI FINALI

Chiudendo il discorso non possiamo che inziare parlando di prezzo. La nuova MSI GeForce RTX 3090 Gaming X Trio 24G è disponibile sullo store ufficiale di MSI ad un prezzo di 1.729 euro. Sono 180 euro in più rispetto alla Founders Edition di NVIDIA, giustificati principalmente dal sistema di dissipazione che permette di mantenere temperature più basse anche quando sforziamo la scheda in maniera importante e per un lungo periodo di tempo.

Se siete disposti a spendere 1.549 euro per la versione Founders, non credo abbiate problemi ad aggiungere quei 180 euro per passare ad una custom di questo tipo. A livello di prestazioni non c'è sicuramente un gap tale da giustificare il sovrapprezzo, anche perché l'unica differenza tangibile è data dai meno di 100 MHz di boost clock in più rispetto al modello di NVIDIA; se pensiamo però alle temperature e alla rumorosità ecco che allora quei 180 euro potrebbero avere senso.

In tutto questo tenete sempre bene in mente la destinazione d'uso di una scheda di questo tipo. Se il vostro obiettivo sono le prestazioni in gaming, infatti, la scelta più sensata potrebbe essere la RTX 3080 che alla metà del prezzo vi offre delle prestazioni che in media sono soltanto il 10-15% inferiori rispetto a questa 3090. Se invece il vostro è un acquisto in ottica di produttività e non avete problemi di budget questa scheda video è sicuramente quella da acquistare al momento.


275

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
siux

Bene bene... appena ordinata dal mio spacciatore di fiducia :)

maset

Anche io ho questo case, ora ho una strix 970 e ci sta ancora larga, davvero le nuove 3080 sono cosi grandi da non starci dentro?

Luca Lindholm

Io sono allibito...

GiankulottoGranbiscotto

tutto bellissimo ma nel mio nuovo nzxt 510 elite tutte ste schede non entrano

Mostra 1 nuova risposta

È più sensato questo dei commenti di Lupo Alberto, Luca Lindor, e altri tizi di cui non ricordo il nome.

Claudio M.

fate una ricerca, driver softmod geforce, quadro

Lillo il commentatore®

OE STRUNZ

Lillo il commentatore®

DICE ZIA FRANCESCA CHE A BARLETTA LA SI GUSTA FRESCA

PistacchioScemo

In che senso RDR2 su 3080 in 4k fa 47 fps???????

Lucano

ma che cacchio dici

Giovannino

Resto della gente pensa di fare una prova è stata controllata per individuare virus con i soldi si può evitare che ti ho mandato una email a cui ti parlavo ieri sera

Giovannino

Tra le parti che ho avuto modo di fare il punto della gente non ha mai avuto un imprevisto di un vostro cortese riscontro porgo cordiali saluti

Giovannino

Tu invece che a un museo di arte moderna in pelle nera per il resto e è un messaggio email sono da intendersi ad essere sereno e tranquillo ed è una è una ricevuta del versamento della caparra

Giovannino

E comunque non indicate nella presente comunicazione ei relativi allegati possono essere riservate e sono comunque destinate esclusivamente alle persone indicate nella presente comunicazione ei relativi allegati contiene la mia avvenenza di non inoltrarlo anche la minestrina

Mostra 1 nuova risposta

Esatto. Comunque ci rimasi male quando tolsero le funzioni avanzate dai driver Geforce per metterli solo nelle Quadro. Parlo dei tempi delle Geforce 2 o 4, mentre con le successive non avevi più un sacco di funzioni utili per lavorare.

Karellen

Sì, penso la discriminante sia questa: sono features che usi per farci soldi? Allora compri una quadro che non ti cambia più di tanto e noi ci guadagniamo di più (ed abbiamo più soldi da investire sul supporto software). Dato che adesso i monitor 10 bit sono più comuni questa funzione non è più relegata solo all'ambito professionale, ed hanno deciso di liberalizzarla.

Mostra 1 nuova risposta

È giusto ormai i monitor 10bit si stanno diffondendo, non aveva senso questa discriminazione, nessuno si compra una Quadro da 100 euro solo per il monitor, neanche chi ci lavora come me

Karellen

Sono riuscito finalmente, grazie! Comunque fino a luglio 2019 serviva una quadro, infatti mi ricordavo di aver provato abbastanza recentemente, senza successo...

Rodrigo Oliveira

La titan rtx costa o costava uguale e va la metà di questa..le nuove console non riuscirano mai a far girare giochi come rdr control e battlefield a più di 70fps con il massimo della grafica e del ray tracing in 4k, rdr quando è uscito era praticamente avanti di una generazione rispetto ai giochi che sono usciti fino ad oggi, e in più, la prossima generazione punterà quasi sicuramente sulla velocità degli SSD (ovviamente accompagnati da un buon insieme di hardware), vedrai che avrà ancora queste stesse prestazioni o forse anche meglio, anche perché deve ancora arrivare il DLSS 2.0, GeForce I.O., poi sicuramente ci saranno le versioni super o TI, o addirittura una serie 4000..per finire, ricordati che la scheda per gaming è la 3080 che costa meno della metà, la 3090 è solamente per la produttività.

Mostra 1 nuova risposta

Prova a controllare qui:

https://nvidia.custhelp.com/app/answers/detail/a_id/4847/~/how-to-enable-30-bit-color%2F10-bit-per-color-on-quadro%2Fgeforce%3F

Se il cavo, il monitor, windows e i driver sono aggiornati non dovresti avere problemi ad abilitare i 10bit. Lì comunque ci sono diverse domande e risposte perchè magari qualcosa è impostato male... o magari hai un cavo che non regge i 30bit... i problemi potrebbero essere questi.

Mostra 1 nuova risposta

Non credo sia da poveri, anzi... (poi visto quel che costano... sono pure aumentate di prezzo negli anni)

So di molti che usano le geforce per il rendering, anche multi GPU, ma so che non tutti i GPU renderer si possono usare con tutti i software quindi dipende un po' dal tipo di lavoro e dal tuo flusso. I driver Studio comunque sono doverosi.

Certo in software vecchi, che hanno il monopolio del settore, ecc, è normale che non si sbattano minimamente per fare rendering via GPU o supportare schede mainstream, ma magari ti costano 2000 euro l'anno, direi che la Quadro non è un problema grave

Mostra 1 nuova risposta

Do per scontato che se ti interessano i 10bit in applicazioni come Photoshop (che non è un gioco directX su un monitor HDR), non hai i driver Gaming, ma quelli Studio, li hanno fatti apposta e non ci sono problemi comunque a giocare.

Mostra 1 nuova risposta

Scusa se hai un monitor 8 bit come pensavi di abilitare i 10bit?

Ovviamente DEVI avere un monitor 10bit, Windows e driver GPU devono essere aggiornati e non vecchi di anni perchè quella funzione è abbastanza recente (credo sia stata resa disponibile dopo l'uscita di Pascal, non proprio in contemporanea).

Mostra 1 nuova risposta

Mi è bastata la recensione sulla 3080 e i video coi commenti di ferry per capire che non hanno più personale in grado di recensire una scheda video.

Non che qui cambi, ma almeno non si atteggiano a esperti dell'hardware

lurdz

Ma veramente, sono andato a leggermi di là la recensione della 3090, e mi sembrava di vedere un clone di questa, assurdo.

Tiwi

beh

brombe

Appunto, driver o non driver, per l'utilizzo "pro" del mio caso posso garantire che a parità di potenza bruta le quadro hanno meno artefatti. All'atto pratico siamo tutti una marea di poveracci e quasi tutti usiamo un portatile o al massimo 2080 super/ti senza farci troppi problemi.
10 bit e multipli flussi video non tornano nel mio uso, per cui al contrario di quelli che aprono la bocca per aerarla, preferisco tacere

Karellen

Credo proprio di no, qua in ufficio non ho monitor 10 bit, ma l'opzione è in grigio, non me la lascia cambiare (nvidia 1050ti). A casa ho provato l'ultima volta circa un annetto fa, con la 1080ti, ma anche con quella (e con monitor 10 bit) nulla da fare.

olè

no erano tutte sovrapprezzate infatti proprio per quello poi sono uscite anche varie super, in ogni caso la cosa fondamentale è l'abbassamento di prezzo il resto sarà anche normale, ma i prezzi che tendono a scendere sono merito della concorrenza

olè

ma la concorrenza c'è e infatti sono tornate giù, in futuro non penso arriveranno a quei prezzi ma sarebbe sicuramente auspicabile

Mostra 1 nuova risposta

Ti invito a lasciare perdere i commenti che hai letto perchè non ce ne è mezzo vero, a partire dalla questione dei monitor a 10bit per Photoshop e simili che funzionano da almeno 3 anni

Mostra 1 nuova risposta

Si parlava però di castrazioni driver che nessuno ha citato, e se lo hanno fatto era per sentito dire, infatti hanno detto delle sciocchezze.

Mostra 1 nuova risposta

Qualcunquismo ed inesattezze a non finire.

Mostra 1 nuova risposta

Assolutamente no, è da Pascal che puoi usare monitor a 10bit con applicazioni professionali. Non conosco la situazione in casa AMD. Ai tempi di Pascal non potevi ancora farlo, ora non lo so.

Mostra 1 nuova risposta

Sei informato MALISSIMO. Quindi perchè commentare di argomenti di cui non sai nulla?

È da Pascal che i 10 bit sono utilizzabili anche in applicazioni OpenGL come Photoshop. Nelle altre app DirectX che quindi non sono programmi professionali puoi usare da sempre i 10bit.

Mostra 1 nuova risposta

Di là il livello delle recensioni e dei commenti è più imbarazzante di qua.

Max pier

Cos'è e come funziona la questione driver moddati?

Karellen

Non li conoscevo, ho un vago ricordo di secoli fa di qualcuno che aveva moddato il bios della scheda video per farla riconoscere come quadro. Hai qualche info in più?

Dea1993

e comunque rimane una gpu consumer, e' pur sempre una geforce, non una quadro, non e' una gpu da workstation, non ha driver specifici.

lurdz
Karellen

Qua spiegano abbastanza bene:
https://www.pugetsystems.com/labs/articles/Setting-Graphics-Card-Software-to-Display-10-bit-Output-1221/
Comunque la stessa cosa sembrerebbe essere vera anche per AMD, ovvero che per le schede video consumer i 10 bit di profondità colore sono supportati solo nelle applicazioni directx a schermo pieno, mentre le professionali anche in opengl e non a schermo pieno.
Vedi anche questa pagina di nvidia che è più riassuntiva:
https://support.nvidia.eu/hc/it/articles/211970189-Supporto-10-bit-per-colore-sui-GPU-NVIDIA-GeForce

Claudio M.

leggendo i commenti sotto, molta gente non conosce i driver "moddati" che rendono una banale geforce, una quadro e compatibile quindi con Cad, ed altri software.

Questo è di vivido interesse.
E' gratis?

RavishedBoy

"ironicizzando "?
Da dove ti è uscita questa parola?

Marcomanni

Ah, quindi stiamo criticando le scelte commerciali di msi e non il prodotto invidia. Scusa, non era chiaro

MarcoF

Raga dovrei prendere un pc per editing. Vorrei prendere qualcosa che sia un ottima spesa. Ho visto questo https :// www .amazon. co.uk/ Zephyrus-G401IV-GeForce-Windows-Lighting /dp/B08696S5JP/ref=sr_1_4?dchild=1&keywords=ASUS+ROG+Zephyrus+G14+GA401IV-HA037T&qid=1601023801&sr=8-4 Su amazon uk perchè in italia è sparito dalla circolazione, conoscete alternative migliori? Sotto i 2000€? Ho paura che i 16gb siano limitanti ma dalle recensioni non mi pare...

brombe

Se vuoi mi butto in mezzo io che lavoro nel 3d per vfx... In studio usiamo ovviamente tutte quadro mentre il 99% dei miei colleghi a casa ha schede consumer. Differenze sostanziali, per quanto mi riguarda, sono principalmente la quantità mostruosa di memoria che è una manna per fare texture (e nei film pesano veramente in modo osceno) e il fatto che in software tipo Maya la viewport non ha glitch strani quando si lavora su progetti grandi.
Quando poi la gente parla di "rendering 3d", spesso non sa che a parte una manciata di motori di render, quasi nessuno usa la gpu per renderizzare. La cpu è ancora in vantaggio nell'interattività quando si cambiano parametri, e le GPU a parte rari casi come questa 3090 o la titan rtx, non hanno abbastanza memoria per contenere tutto a meno che non si inizi a dividere la scena (esattamente il problema di Davide nella recensione, appena finisce la vram e la scena va out of core, il render rallenta in modo osceno).
Chi usa la gpu per renderizzare sta probabilmente lavorando a un progetto piccolino oppure per il settore realtime.

mariano giusti

non è quello che mostrano i benchmark qui sopra

mariano giusti

ma al di la del confronto con la 3080, mi sembrano bassine le prestazioni, da una scheda da 2000€ su un pc di fascia alta mi aspettavo di più, guarda anche Battlefield V, Control e Marvel non è che se la cavano molto meglio, sono sugli 80fps.
Ma magari non sto capendo io.

mariano giusti

beh da quanto mostrato sopra anche Battlefield V, Control e Marvel non è che se la cavano molto meglio, sono sugli 80fps, che sinceramente con 2000€ di scheda video e un pc di fascia alta mi sembra pochino.
Ma ripeto, magari non sto capendo io.

Recensione Honor MagicBook Pro, occhio ai paragoni azzardati!

Recensione Asus ZenBook Flip S, il primo con Intel Core 11th Gen!

Recensione NVIDIA GeForce RTX 3080, il 4K non sarà più un sogno! Video

NVIDIA GeForce RTX 3090, 3080 e 3070 ufficiali, caratteristiche e prezzi ITA