Tutti i prezzi sono validi al momento della pubblicazione. Se fai click o acquisti qualcosa, potremmo ricevere un compenso.

AMD Radeon RX 6900 XT: arrivano le prime custom di ASUS e ASRock

08 Dicembre 2020 65

ASUS e ASRock sono le prime aziende a svelare una Radeon RX 6900 XT con design custom. Nel giorno del debutto ufficiale sul mercato della top di gamma AMD, i produttori taiwanesi svelano rispettivamente Radeon RX 6900 XT TUF Gaming OC e Radeon RX 6900 XT Phantom Gaming D OC, entrambe ovviamente ottimizzate per offrire una dissipazione ottimale con ulteriore margine per migliore le prestazioni.

ASUS Radeon RX 6900 XT TUF Gaming OC

Partiamo dalla ASUS Radeon RX 6900 XT TUF Gaming OC, modello corazzato (come tutta la serie TUF) che offre un imponente dissipatore a tripla ventola e tutta una serie di accorgimenti che la rendono ideale per l'overclock, garantendo allo stesso tempo una buona affidabilità.

Le caratteristiche della Radeon RX 6900 XT sono ormai note, le abbiamo apprezzate durante la presentazione ufficiale delle Radeon RX 6800 di ottobre, modelli con i quali condivide la stessa GPU "Big Navi" ma nella sua declinazione più potente (Navi 21 XTX).


La ASUS Radeon RX 6900 XT TUF Gaming è una scheda con design a triplo slot, è dotata di un massiccio corpo dissipante con heatpipe che viene raffreddato da tre ventole Axial-tech, quelle esterne a 11 pale e quella centrale a 13 pale. A bordo è previsto il supporto alla tecnologia 0dB che permette di spegnere le ventole quanto la GPU scende sotto i 55 °C, mentre il top in alluminio e il backplate rinforzato aiutano ulteriormente a dissipare il calore.


La scheda è costruita utilizzando la tecnologie ASUS Auto Extreme in coppia con componentistica premium, non manca infine la retroilluminazione LED RGB personalizzabile; ultimo dato quello relativo all'alimentazione PCI-E costituita da un doppio connettore a 8pin. Al momento l'azienda non ha fornito dettagli riguardo alle frequenze di clock della GPU, verosimilmente più elevate della versione reference AMD visto che si tratta di un modello overcloccato di fabbrica; ricordiamo inoltre che ASUS dovrebbe proporre anche la variante ROG Strx LCS, equipaggiata con dissipatore a liquido e vero modello di punta della serie.



ASRock Radeon RX 6900 XT Phantom Gaming D OC

La Radeon RX 6900 XT Phantom Gaming D OC si muove sullo stesso terreno, offrendo il top della tecnologia ASRock, partendo dal generoso e colorato sistema di dissipazione (Phantom Gaming 3X), caratterizzato sempre da tre ventole (Striped Axial Fan), un massiccio corpo in alluminio con ben 8 heatpipe in rame e backplate rinforzato in alluminio.


Questo modello è costruito con tencologia Super Alloy (Dr.MOS, 2oz Copper PCB, Nichicon 12K Black Caps ecc) e supporta la tecnologia 0dB Silent oltre alla retroilluminazione RGB gestibile e personalizzabile grazie al software Polychrome RGB; in alternativa è possibile spegnere completamente i LED con uno switch dedicato posto sul lato del PCB.

Come ASUS, anche ASRock non ha reso note le frequenze operative della GPU, mentre, a differenza del competitor, segnaliamo che in questo caso vengono impiegati 3 connettori PCI-E 8pin. Nessun dettaglio sui prezzi ma ricordiamo che il prezzo della Radeon RX 6900 XT è di 999 dollari tasse escluse, aspettiamo quindi di vedere i prezzi per l'Italia.


RADEON RX 6900 XT - SPECIFICHE TECNICHE
  • GPU Navi 21 XTX (RDNA2)
  • Compute Unit 80
  • Ray Accelerator 80
  • Stream Processor 5120
  • Frequenza GPU Game-Boost 2015/2250 MHz
  • Memoria 16GB GDDR6 - 16Gbps
  • BUS Memoria 256 bit
  • Larghezza di banda memoria 512GB/s
  • Alimentazione 2x PCI-E 8pin
  • Consumo 300W
  • Prezzo 999$ tasse escluse

65

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Alessandro

Le rtx che io sappia hanno il chip diviso in 3 parti, cuda core, tensor core e RT core, i cuda per il raster, gli RT per il raytracing, e i tensor core aggiuntivi sono per il dlss o per qualsiasi altra cosa vogliano usarli in futuro, il dlss é un software, e come tale penserebbe sulle unità di calcolo dedicate al raster se non ci fosse hw dedicato per la sua esecuzione, non essendo un semplice upscaling ma basandosi su IA per migliorare la qualità dell'immagine il suo peso è ben più alto del Semplice upscaling delle vecchie console, e potrebbe quasi annullare i benefici del renderizzare un'immagine a risoluzione inferiore, con hw dedicato hai frame rate da 1440p invece, perché non vai a pesare sui cuda core, quindi un dlss senza unità dedicate non è auspicabile che sia paragonabile a quello Nvidia che gira su tensor core per gestire IA

Dea1993

??? mi sfugge qualcosa?
il DLSS ti fa renderizzare un gioco a 1440p piuttosto che a 2160p (risoluzioni buttate a caso), per upscalare con algoritmi ben fatti a 2160p.

quindi hai una qualita' paragonabile al 4k, ma con performance da 1440p.
i tensor core sono per il ray tracing, no?
hai fatto confusione tu o mi sta sfuggendo qualcosa sul DLSS?
perche' da quanto so io il DLSS e' "semplicemente" un ottimo "upscaling" (per dirla brevemente), non dovrebbe servire a niente l'hardware dedicato, dovrebbe essere una cosa tutta software

Alessandro

questo perchè i fanboy si nascondono ovunque

Alessandro

il problema è che il dlss è gestito da tensor core dedicati, non pesando sulla parte de lchip che si dedica alla rasterizzazione, ecco perchè aumentano le performance, le rx 6000 non hanno tensor (o equivalente amd) core che io sappia.. hanno la loro versioen degli rt core, ma non la loro versione dei tensor... già questo potrebbe essere un problema se vogliono raggiungere i risultati del dlss

B!G Ph4Rm4

L'importante è che la resa grafica sia solo un po' inferiore, se risultasse chiaro che è un upscaling per me non varrebbe la candela.
Preferisco piuttosto prestazioni inferiori al DLSS ma comunque qualità ottima (o comunque poter scegliere le varie impostazioni)

Dea1993

il punto e' che mentre giochi, spesso, non hai tempo di soffermarti ai dettagli.
quindi se la risposta amd al dlss, dovesse fornire comunque un notevole miglioramento prestazionale, tipo il dlss, ma con una resa grafica un po inferiore, non e' un dramma, nessuno ci fara' caso probabilmente, a parte in comparative dirette.

B!G Ph4Rm4

Beh in alcuni casi è più sgranato l'originale, o ad esempio i dettagli molto fini se li perde, mentre con il DLSS si leggono meglio. Ed è anche normale visto che è allenata con immagini alla massima qualità in 16k, ci può stare.
In alcuni casi per carità è leggermente meno definito col DLSS, in altri ci sono degli artefatti (in altri invece toglie gli artefatti, non chiedermi come).

Per il resto, AMD non è riuscita a recuperare lato RT, e per quello che mi riguarda recuperare il DLSS è moooooolto più difficile. Ma proprio tanto più difficile, contando che NVIDIA ha toppato con l'1.0 pur essendo uno dei leader mondiali nel campo dell'AI e della sua applicazione sulle immagini.
Se non ci mettono lo zampino microsoft & company sinceramente non credo che possano recuperare in 6 mesi una cosa che ad NVIDIA è riuscita bene dopo 5 anni (probabilmente 3-4 di sviluppo e 1-2 dopo il lancio della prima versione).
Già il fatto che si parli ancora di FidelityFX come alternativa al DLSS fa pensare che non userà le reti neurali (che ad oggi si stanno dimostrando lo stato dell'arte in questo campo).
Il fatto che non abbiano messo qualcosa come i tensor core in queste schede (ma solo sulle versioni per datacenter) mi fa pensare che per questa gen non se ne parli proprio.

se non ti metti a fare comparazioni, non ti accorgi neanche del DLSS, quindi nvidia ha fatto un ottimo lavoro, nessuno lo mette in dubbio, e anche se si notassero lievi differenze, sono insigificanti visto l'norme guadagno prestazionale

Su questo sono assolutamente d'accordo, è per questo che il DLSS è "pericoloso", perchè il giocatore medio vede che da 60 è passato a 100 fps e anche l'implementazione sul gioco X non fosse delle migliori (come sembra quella di COD), non si accorgerà di nulla.

Dea1993

prima di dire "solo nvidia ce la fa" aspettiamo di vedere anche cosa tira fuori amd.
comunque sul fatto che il DLSS da maggiore dettaglio, immagino che sia semplicemente una questione di nitidezza.
se aumenti la nitidezza puo' sembrare che hai un dettaglio maggiore, ma non e' sempre detto che sia la cosa migliore da fare.
probabilmente quello che fa il DLSS, dove dici "e' meglio dell'originale" e' solo questo, ma non sempre aumentare la nitidezza di un'immagine e' e' positivo.
poi chiaramente i risultati parlano da soli... se non ti metti a fare comparazioni, non ti accorgi neanche del DLSS, quindi nvidia ha fatto un ottimo lavoro, nessuno lo mette in dubbio, e anche se si notassero lievi differenze, sono insigificanti visto l'norme guadagno prestazionale

B!G Ph4Rm4

E' difficile da implementare come l'ha fatto NVIDIA. E' come dire "vabe ma una ferrari alla fine è pur sempre un telaio di metallo con un motore dentro, non è impossibile da fare". Il punto è che la panda non è come la ferrari.
L'upscaling del DLSS ha una qualità enormemente superiore a ciò che c'era prima, con pochissimi artefatti e garantisce prestazioni altissime.
Sono andato a rivedermi le ultime implementazioni di questi giorni, dove prendono i frame dal gioco e li zoomano, e già se lo imposti a "balanced" in molti casi non è facile dire quale sia il migliore.

Qui è a quality, risoluzione nativa vs DLSS:
https://www.youtube.com/watch?v=WTXfKWWJFus

Il maglione della tizia è leggermente più sfocato rispetto al nativo, ma gli edifici dietro il tizio che tira la palla sono più dettagliati con il DLSS e in generale è più dettagliata la scena (sempre del soldato con la palla): guarda le staccionate e le bombole di gas. Il tizio alla fine ha la barba leggermente meno dettagliata con il DLSS, anche se solo in alcune angolazioni.
Tutto questo avendo probabilmente se non il doppio degli fps, probabilmente +50-60-70% a seconda delle scene.
E su altri giochi i risultati sono questi. In WD legions proprio non c'è differenza tra DLSS on e off.

Questo è quello a cui bisogna arrivare, o avvicinarsi, e se non c'è riuscito nessuno non mi sembra esattamente una passeggiata come qua dentro molti continuano a dire.

Dea1993

be in fin dei conti DLSS e' un upscaling, ok il Machine learning e l'IA che c'e' dietro, ma le console da anni, renderizzano il gioco ad una risoluzione piu' bassa per poi upscalare.
insomma anche questa non e' una funzionalita' impossibile da implementare.

sgru

non c'è molto da capire, per il primo ci sono già risultati disponibili online con bios beta ed imminente al rilascio, per il "DLSS versione AMD" ad oggi non c'è ancora nulla se non parole.

B!G Ph4Rm4

Secondo te è più facile implementare una funzione integrata nello standard PCI-e o fare una roba gigantesca come il DLSS?
E sopratutto con gli stessi risultati?

Mostra 1 nuova risposta

Come prestazioni ci sono, per chi non è interessato al Ray Tracing potevano essere un acquisto sensato ai prezzi che i fanboy giuravano però, non certo se le vendono più care delle 3070 e 3080 però lol

NaXter24R

A parte che non ho capito se son riuscito a prenderlo. Dopo la procedura è arrivata alla fine ma non ho avuto mail o altro.

Dea1993

mandala al mio indirizzo poi la vieni a prendere xD

Dea1993

quindi fammi capire, parli di SMA, come "ormai ce l'hanno pure nvidia ed intel", quando ancora non e' arrivato, ma poi dici "AMD non ha più l'arma in più che invece ha ancora Nvidia per il DLSS", che e' gia in sviluppo anche su amd?
cioe' se mi dici "AMD non supporta DLSS", e "Intel e Nvidia, supportano SMA", c'e' qualcosa che non va

Ciccio

Il Fanboy?Ma se HDBlog lancia continuamente articoli tipo:'Amd batte Nvidia' con cadenza settimanale' ;-).

sgru

"vecchissimo" aka 2 anni su console e appena 1 anno su PC con motore ovviamente rivisto.

pov3raccio, commentare a vanvera ;-)

Oramyar (ex Ming-Hi-One)

Bella fatica!
RDR2 e' un gioco vecchissimo.

Oramyar (ex Ming-Hi-One)

Allora manca pochissimo!
Evvai!

Sapobully 4L

Ti fa proprio schifo la competizione eh?

B!G Ph4Rm4

Io un po' sto ridendo nell'iniziare a vedere gente su r/Amd che dice "mmh, non è che queste RDNA 2 mi abbiano convinto tanto ehhhhhh. A questo punto aspetto RDNA 3". LOOOOOOOOOOOOOOOOL
Ne ho già letti due così. Mesi a fare post da 1-2k commenti sui miracoli che li attendevano: ricordi herbert il fànboy che pronosticava una 6900XT che andava meglio della 3090 a 499 dollari? Le fonti che aveva solo lui dicevano questo.

E poi ricomincia il solito giro di giostra per RDNA 3.
Devo ammettere che un po' anche io ero stato influenzato dall'hype, ma in realtà sta serie è venuta fuori nel peggior modo possibile.

B!G Ph4Rm4

Per il 4k no. La 6800 XT è il 7% più lenta in media in 4k rispetto alla 3080, e costa 50 dollari in meno. Parlo di raster eh. In 2k più o meno siamo lì, forse un pelino meglio la radeon in alcuni casi. In RT fanno ridere, e il DLSS non c'è. Mia speculazione: credo ci vorranno 6 mesi o un anno ci sarà qualcosa di decente.
Ergo, per 50 euro, nessuno che sia oggettivo sceglierebbe la 6800XT sulla 3080, a meno che per qualche motivo quei 50 euro li vuole assolutamente risparmiare.

Lato software pro, no, cioè sono anni che sento sempre che "arriverà" e alla fine o non arriva o se arriva il supporto software ancora non ci siamo per niente.
E poi Ampere è un'architettura fatta anche per calcolo pesante e carichi professionali, le prestazioni enormi in FP32, i tensor core (che lato deep learning raddoppiano le prestazioni), la bandwidth estremamente maggiore.
Guarda qui per alcuni esempi:
https://www.pugetsystems.com/labs/articles/AMD-Radeon-RX-6800-XT-Review-Roundup-1992/
Senza considerare che se cerchi negli altri articoli ti dice proprio che alcuni test non li hanno considerati o non sono riusciti a farli perchè non c'è proprio il supporto alle schede AMD.

La 3090 almeno un suo senso ce l'ha, grazie ai 24GB di RAM che fanno la differenza.

Non ho capito che bisogno c'era di fare le schede così: bastavano 8-10GB sulla 6800, 10-12 sulla XT abbassando il prezzo a 499 e 599, in modo da ammazzare la 3070 e dare un'alternativa più allettante rispetto alla 3080.

La 6900XT poi un no-sense totale, per il gaming la differenza è troppo poca, non puoi andare l'1-2% in più rispetto alla 3080 e costare 300 dollari in più. Anche perchè non puoi nemmeno dire "eh va be ma la puoi usare per lavorare".

Ad ogni modo, spero che con RDNA 3 la discrepanza tra AMD e NVIDEA possa ulteriormente essere ridotta, già in questi due anni c'è stato un ravvicinamento di tutto rispetto, perché un po' di concorrenza non fa mai male.

A questo punto dubito, se NVIDIA è riuscita a fare un'arch sostanzialmente superiore senza sforzarsi troppo e usando per giunta un PP relativamente peggiore (anche se è una stima un po' del ca**o, i Navi 21 sono circa il 25% più densi di GA102), allora quando ci sarà la parità sul PP, considerando anche che introdurrà MCM e in generale migliorerà l'architettura, la vedo dura per AMD.

AllBlack

Sono schede ottime per il gaming il 2k e 4k solo non considerando una futura implementazione massiva del RT (e del DLSS). Considerando che abbiano le prestazioni della 3090 in questi casi, con oltre 500€ in meno, non è male.
Certo che, in previsione futura sono un'acquisto insensato.
Capitolo software, beh solo negli ultimi due anni AMD è riuscita a presentare qualche scheda dignitosa, quindi la speranza che in futuro possa arrivare un software ben ottimizzato in ambito lavorativo non è utopia...
Ad ogni modo, spero che con RDNA 3 la discrepanza tra AMD e NVIDEA possa ulteriormente essere ridotta, già in questi due anni c'è stato un ravvicinamento di tutto rispetto, perché un po' di concorrenza non fa mai male.

Mostra 1 nuova risposta

Si sono cadute da un camion insieme alle 3090

Mostra 1 nuova risposta

La Ti se tutto va bene monterà 12 o 16gb di ram, a dir tanto.

Son tutti rumors oltretutto, niente di certo, non è neanche detto che uscirà. E anche se fosse non sai quando.

Mostra 1 nuova risposta

Se hanno sparato questi prezzi vuol dire che ne hanno poche e che saranno tutte vendute.

Aspettiamo la fascia media va', ste schede da 1000 euro lasciamole agli enthusiast che prima si comprano la 3090 e poi prendono pure questa qui "per il muletto" (cit.), poi prendono la top di gamma dell'anno dopo e nel mezzo se esce una Ti si pigliano pure quella.

Mostra 1 nuova risposta

eeeeeeeesatto.

Mostra 1 nuova risposta

Come sempre le TUF sono abbastanza sobrie, se togliessero gli pneumatici dietro sarebbero ottime

B!G Ph4Rm4
Ryzen le prendeva in single core, ma costava meno, consumava meno e soprattutto ti dava più roba (core, overlock, mobo più economiche) a prezzi più bassi. Ora hanno alzato il prezzo, ma vanno meglio in tutto.
contro Nvidia ancora non sono li. Se avessero messo questa allo stesso prezzo della 3080 allora si, era un must buy, ma non è così

Amen, riassunto perfetto.

sgru

I dati dalle recensioni uscite oggi come quella su techpowerup dove mostra un bel sunto finale.

1) Prendendo in considerazione la 6900xt senza SAM, è in generale dietro la 3090 e pochissimo sopra 3080 e 6080xt.

2) Cerca Resizable BAR Capability. Andrà meglio del SAR, sarà compatibile anche con CPU Intel di 6 anni fa, ci sono già bios beta in giro funzionanti.

3) Non ho mai detto che sono brutte schede, ho semplicemente detto che sulla carta la migliore scheda come rapporto/prezzo/prestazioni è la 3080.

Tra non molto esce la 3080Ti.

NaXter24R

Il lavoro c'è, ma o stravinci e fai quei prezzi, o non vai al pelo con prezzi superiori.
Ryzen le prendeva in single core, ma costava meno, consumava meno e soprattutto ti dava più roba (core, overlock, mobo più economiche) a prezzi più bassi. Ora hanno alzato il prezzo, ma vanno meglio in tutto.
contro Nvidia ancora non sono li. Se avessero messo questa allo stesso prezzo della 3080 allora si, era un must buy, ma non è così

Piero

Informati meglio in relazione a cosa?
"Poi oggi non so come non si fa considerare il RT", Io stesso ho scritto:
"Una scheda che costa 999€ diventa imbarazzante se pecca così tanto su questa funzione"

Guido

Informati meglio.
Poi oggi non so come non si fa considerare il RT

Piero

Dove hai letto questi dati?
Queste schede AMD sono delle bombe se non si mette in discussione il RAY TRACING.
1) La 6900x si avvicina molto a una 3090 e in relazione al gioco la supera anche (senza RAY TRACING).
2) Sullo Smart Access Memory c'è un discorso molto più ampio da fare, visto che NON è una tecnologia nuova, ma al momento attuale non è implementata da NVIDIA nello stesso modo di come il DLSS non è implementato da AMD (ma sono implementazioni previste nei prossimi mesi), perciò sul come e sul perchè si possono fare solo speculazioni.
3) con una 6800 liscia vai a 60fps, 4k fissi ultra (senza quasi)... A sottolineare che queste di AMD non sono brutte schede e che AMD ha fatto un bel lavoro.

Se vogliamo parlare di contro, come ho scritto sopra, è il RAY TRACING dove le schede video NVIDIA vincono al 100% (vanno al doppio degli FPS in poche parole)... Una scheda che costa 999€ diventa imbarazzante se pecca così tanto su questa funzione. Ma se riescono a fare una miglior implementazione software con il fidelity FX potrebbero comunque essere interessanti.

Il problema adesso è che visto che non si trovano schede, ci saranno prezzi assurdi.

Nino

Allora, compro la 3080.

Nino

Oppure la portano al tuo Vecino o Eriksen.

Nino

Peggio del cashback IO.

Nino

Usa la VPN proton.

Nino

Cambialo.

Nino

Eccerto, sono da 100 anni che non le aggiornano.

Piero

In consegna il prossimo Natale

B!G Ph4Rm4

Vabe lo dico io in maniera più brutale.
Sta scheda è na mer*a, punto.
Lato gaming non ha senso e in molti casi le prende di brutto dalla 3080 (in ray tracing, o nei giochi con DLSS), lato pro le prende anche peggio vista l'assenza di supporto software in una marea di casi, le prestazioni assurde in FP32 delle Ampere, la mancanza dei tensor core, il 50% di RAM in meno e con la metà del bandwidth.
A 999 euro è una barzelletta.
La 6800XT mi sembrava una scheda mediocre come rapporto prezzo/prestazioni, ma questa le batte tutte.

Davvero non ho capito che diavolo gli è saltato in mente a questi di sparare sti prezzi assurdi.
Se ne venderanno una quantità decente sarà solo merito dei fànboy AMD che continueranno a blaterare che a loro di RT, DLSS e segmento pro non frega nulla e che è perfettamente sensato comprare una scheda da 1000 euro per giocare a 1080p perchè a 1080p fa 1.4 fps in più della 3080.

Delusione totale, considerando che NVIDIA si è impegnata relativamente e che per una volta hanno un rapporto qualità/prezzo migliore (cioè parliamo di NVIDIA LOL) e che hanno una serie sostanzialmente superiore pur avendola fatta su un 8nm di Samsung (immagino quanto gli sarà costato LOL) contro il miglior PP in commercio per AMD.

Alla fine quando dicevo (ricevendo tonnellate di dislike) che i 128MB di L3 erano un modo per mettere una pezza ad una scheda altrimenti inferiore, forse era vero. Con il problema che però quei 128MB di cache si sono mangiati un bel po' di spazio per la parte di calcolo che altrimenti poteva essere migliore, e costando meno.

Vabbe, vediamo RDNA 3, anche se da quel che si dice su Hopper (5nm+ TSMC, MCM, ecc) non ci spero molto.

sgru

non si muove nulla, 1 volta ogni m0rte di papa c'è disponibilità.

GianlucaA

A me da che l'indirizzo non è valido -.-

sgru

1% più veloce della 3080 e più lenta della 3090 ad un costo molto superiore rispetto la 3080. Ad oggi la 3080 rimane il miglior acquisto per rapporto costo/prestazioni. Tra l'altro ormai anche le schede Nvidia e processori Intel supportano lo Smart Access Memory quindi AMD non ha più l'arma in più che invece ha ancora Nvidia per il DLSS. Ho visto gente con una 3070 fare 60 FPS in 4k fissi quasi ad Ultra in RDR2.

Oramyar (ex Ming-Hi-One)

Davvero?!
Allora vendo la 3060 e mi prendo la nuova 3080 che uscira'.

Oramyar (ex Ming-Hi-One)

Secondo me la portano ad un tuo vicino.
Sta attento.

Oramyar (ex Ming-Hi-One)

Peggio del cashback?

Oramyar (ex Ming-Hi-One)

Allora basta usare una vpn!
Grazie per la dritta!

Recensione Asus Zenfone 11 (Ultra): tutto nuovo ma sa di déjà vu

Recensione Asus Zenbook 14 OLED, ecco come va con il nuovo Intel Core Ultra 7

Recensione Asus ROG Swift OLED PG49WCD: che immersività!

Abbiamo rifatto la nostra workstation, ora è tutta ASUS ProArt!