AMD da record nel primo trimestre 2021, fatturato in crescita del 93%

28 Aprile 2021 127

AMD conferma il suo momento di grazia nonostante la crisi legata alla carenza di componenti, che si traduce in una crescita costante e in ricavi da record rispetto al recente passato. Il produttore statunitense ha pubblicato i dati finanziari relativi al Q1 2021, un periodo letteralmente strepitoso per AMD che ha visto il fatturato salire addirittura del 93% su base annuale. Il primo trimestre solitamente è quello meno entusiasmante per le aziende, tuttavia i dati snocciolati nel report in questione gettano le basi per un 2021 che dovrebbe superare ogni più rosea previsione.


I numeri dicono che AMD ha fatturato 3,45 miliardi di dollari, un risultato stellare rispetto al primo trimestre 2020, quando il produttore si fermava a circa 1,78 miliardi; in questo contesto aumentano in modo importante anche l'utile operativo (+274%) e l'utile netto che supera i 550 milioni di dollari (+243%). Più contenuti ovviamente i risultati confrontati al già ottimo Q4 2020, rispetto al quale AMD cresce di circa il 6% in quanto a fatturato complessivo.

A guidare le vendite in questo primo trimestre sono soprattutto le soluzioni server/datacenter, non a caso la divisione Enterprise, Embedded and Semi-Custom ha fatto segnare ricavi per 1,35 miliardi, schizzando su base annua del +286%; in cima troviamo le vendite di processori EPYC, ma anche i dati relativi ai SoC custom (vedi console) sono apprezzabili.


Numeri più contenuti per la divisione AMD "Computing e Graphics" che, nonostante la situazione che tutti conosciamo (carenza di CPU e GPU in primis), riesce a incrementare il fatturato sino a 2,1 miliardi di dollari, crescendo del 46% su base annua e del 7% rispetto a fine 2020. Le vendite in questo caso sono guidate dai processori Ryzen desktop e mobile, oltre che dalle Radeon RX 6000, un dato che quasi sorprende ma che, in quanto a numeri e percentuali, AMD non ha espressamente chiarito.

L'azienda di Sunnyvale conferma quindi il particolare momento di forma e si appresta ad affrontare il Q2 con un'offerta che, in tutti i settori, dovrebbe contribuire a guadagnare ulteriori quote di mercato. AMD punta molto sui Ryzen 5000 desktop e sui più recenti Ryzen 5000 Mobile svelati a CES 2021, senza dimenticare le CPU EPYC Milan e la Radeon RX 6700 XT per il segmento gaming di fascia media. L'unico punto interrogativo rimane legato alla disponibilità effettiva di questi prodotti che, attualmente, penalizza gli utenti con prezzi nettamente oltre i listini ufficiali dell'azienda.

Il Samsung più equilibrato? Samsung Galaxy A52 5G, in offerta oggi da Phoneshock a 342 euro oppure da ePrice a 386 euro.

127

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
The

e ricominciamo a chiarire tutte le balle che scrivi:

1) si stava parlando del fatto che in AMD "hanno totalmente cannato con il ray tracing e con le feature extra come il DLSS", features che da una parte sono sfruttabili solo con GPU da 1500 euro e dall'altra cercano di fartelo digerire con il DLSS per aumentare il framerate, a scapito della qualità visiva e della latenza generale.

2) Physx è morto, o diversamente non diventava open source, come morto è il G-sync.

3)hai l'SDK che è Open source, ma visto che sei ingegnere informatico e che non comprendi la differenza tra un compilato e un compilatore, non capisci nemmeno che nel momento in cui compili il codice di physx (che di per se sono una manciata di algoritmi) il compilatore Cuda include dei DEV a seconda dell'HW che usi, visto che le stesse GPU nvidia possono avere o meno delle features che lo fanno girare sulla GPU, ma anche solo per le CPU e le loro proprietà; il tutto comunque, esclude le GPU AMD con il compilatore che crea codice che consente di usare solo la CPU (e fin qua nulla di strano, anche perchè sono anni che physx gira esclusivamente su CPU anche su nvidia), ma che quando usa la CPU la limita all'uso delle sole FPU e non delle SIMD AVX, di fatto dando un overload di computazione sulla CPU che produce più facilmente bottleneck e limitazioni nella generazione del framerate.

4)physx sono anni che si esegue esclusivamente sulla CPU perchè per eseguire quei calcoli usi le FP16, di cui molti modelli nvidia sono semplicemente sotto dotati (vedi ad esempio le pascal). Physx ormai è solo una questione di CPU.
le prestazioni migliori derivano dall'uso delle SIMD della CPU, se hai una scheda nvidia usi le SIMD, se non hai una GPU nvidia usi le FPU, anche se hai il medesimo modello di CPU.
quindi non è una condizione dell'HW nvidia, ma una costrizione del software ad operare con un certo tipo di HW o altro.
addirittura su alcuni giochi vecchi introduceva anche una forzata limitazione del framerate, con limiti di esecuzione di frame generabili al secondo.
lo si evidenzia su alcuni giochi in cui trovi che sulle AMD hai il medesimo framerate dalle 580 alle RX 6000, su qualsiasi CPU e alla metà del framerate ottenibile con una nvidia.
indica una palese limitazione basata sulla generazione del frame, che spesso deve seguire la generazione dei calcoli fisici, che, di per se, sono svincolati dalle tempistiche dalla creazione di un frame.
CPU e schede video con diverse architetture e frequenze che raggiungono il limite sempre allo stesso modo quando hanno prestazioni teoriche che variano anche del triplo tra la prima e l'ultima scheda.
se non è una palese limitazione quella!
il tutto diventa evidente quando bypassi la condizione di lockaggio del dev sulla CPU mettendo come scheda secondaria una semplice GT 710 quando hai come primaria una AMD; anche se la GT 710 occupa solo lo slot, giusto per caricare i driver nvidia, le prestazioni miracolosamente aumentano del 10-15%.
altro modo è di impedire al sistema di eseguire le istruzioni sulle SIMD delle CPU costringendo tutti gli HW ad usare le semplici FPU; su AMD non ti cambia nulla, su nvidia perdi miseramente frame.
esercizio che può essere verificato da chiunque per smentire la questione.

5) i programmatori si fanno finanziare dai produttori di HW, come evidenzia il fatto che da quando è stato presentato RT nvidia ha sponsorizzato ogni gioco uscito con quella tecnologia, con i primi tre che mostravano, in una sorta di demo, i tre aspetti fondamentali dell'RT nvidia: occlusione ambientale, ombreggiatura e riflessi.
nvidia, se non finanzia gli sviluppatori per scrivere codice che va bene sulle sue GPU, mostrerebbe i limiti del vecchiume che propone come tecnologia d'avanguardia e che invece è in ritardo di anni rispetto alla concorrenza.

6) dovrebbe essere così e non a seconda del nome del produttore, mentre sia i tools nvidia (physx, che ti ripeto oggi è esclusivamente su CPU) che quelli intel (MKL), non lo fanno, perchè i framwork e le DLL sono closed source, mentre AMD propone codice sempre open source sulle sue tecnologie.

ciao, ingegnè,
hhahahah

Davide
The

sbagli... a me il calcio fa schifo da quando avevo 5 anni e vedevo tanti babbuini starnazzare davanti ad una TV per qualche persona che tirava calci ad un pallore.
lo trovo un passatempo sciocco, buono solo per spremere soldi ai boccaloni disposti a pagare fior di quattrini per uno spettacolo già concordato (così come è diventata la F1 e la motoGP negli anni).
farsette da soap opera.

per il resto, basta che metti la variabile d'ambiente

AVX: bcdedit /set xsavedisable 1

per non dar usare le AVX su qualsiasi programma, facendo slittare il tutto su SEEE, MMX o FPU, clockare la CPU in modo che faccia da palese limite alla GPU e poi vedere la differenza con e senza variabile d'ambiente.
vedrai che in alcuni giochi (ed in alcuni programmi), i sistemi AMD non subiscono nessuna penalizzazione, perchè già costretti dai DEV di CUDa e MKL ad usare le semplici FPU, mentre quelli Intel e Nvidia perdono miseramente rendimento...
ecco perchè fanno a gara a sponsorizzare giochi e programmi, in modo da iniettare codice anticoncorrenziale.

se ci metti 5 minuti a verificarlo è tanto e tanto basta per dimostrarlo.

ciao, "ingegnè"... ti lascio alle tue previsioni scontate.

Davide
The

a Davide, ti leggo da 10 anni su questi siti e solo perchè sei giovane e prima non sapevi nemmeno scrivere ed in tutto questo tempo una cosa intelligente o inerente a questioni di tecnologia non sei mai riuscito a pronunciarla.
se vuoi ti spiego come funzionano le cose nel dettaglio (e magari, dopo, anche come gira il mondo, visto che ho il sospetto che ancora non hai capito con chi stai chiaccherando).

ti ho già fornito il modo con cui puoi verificare quanto detto da solo, in piena autonomia; se non lo verifichi è mancanza tua, non certo degli altri.

ed ora continuati a guardare la farsetta del MotoGP.

Davide
The

ingegnere informatico?
ma te l'hanno data per corrispondenza, sto diploma universitario?
physx viene usato sui giochi sponsorizzati nvidia.
quando lo usi con una scheda video nvidia usi il dev che ti permette di sfruttare algoritmi su AVX e (eventualmente) su GPU, se lo usi con una scheda video AMD, usi il dev sulle FPU, mandando in saturazione la CPU ben prima che con l'uso delle SIMD.
la riprova la puoi avere usando una AMD insieme ad una stupidissima scheda nvidia, anche una GT 720, messa sul sistema, perchè su molti giochi, soprattutto vecchi, basta che ci siano installati i driver nvidia per far si che Physx usi gli algoritmi più efficienti.
l'altro sistema è di eliminare la possibilità al sistema di usare le SIMD AVX (sai come s'imposta una variabile d'ambiente per l'intero OS, ingegnere?).
a quel punto, se usi una scheda AMD non ti cambia nulla, se usi una scheda nvidia, dipende da quanto sia intenso il thread principale: se già stavi lambendo il bottleneck della CPU, a qual punto vedrai scendere il framerate in proporzione all'uso della fisica che il gioco sfrutta, perchè a qual punto il dev che puoi usare è il medesimo di quello che ti fa usare per le AMD, su FPU e basta.
stessa cosa avviene con le MKL di Intel tra processori Intel e processori AMD...
Intel e nvidia hanno sfruttato questi tools per anni per azzoppare le prestazioni di AMD, e ci vuole proprio poco per dimostrarlo.

la prossima volta non dire che sei un ingegnere informatico, che fai fare una figuraccia a tutti gli ingegneri.

Davide

ahahah con una persona normale riusciresti anche a supportare la tua supercazzola ma ti è andata male che io sia ingegnere informatico e quindi sappia di cosa sto parlando.

Ho utilizzato CUDA per scrivere programmi, so cosa voglia dire SIMD e a cosa servano ALU e FPU (spoiler, SIMD e risorse di calcolo non centrano un ca**0 con quello che stai dicendo tu e soprattutto servono esattamente al contrario, ossia a massimizzare l'uso di ALU e FPU, ma vabbè).

Seconda cosa, stavamo parlando del Physx, del fatto che non sia Nvidia-only, in aggiunta open source e non penalizzante AMD. Stai virando la conversazione su cose che non c'entrano nulla proprio perchè hai capito che avevo ragione. TI farebbe onore ammetterlo e andare avanti.

The

argomenti che non conosci, appunto.
se mandi in bottleneck le CPU non riuscirai mai a mandare al meglio le GPU e se usi le SIMD riesci a rendere più leggere il lavoro per ALU e FPU, riuscendo a non mandare in bottleneck la CPU o comunque a fargli fare più lavoro.
un gioco non funziona solo grazie alle GPU, ma anche alle CPU.

a Davide, sto specchio lavalo, ogni tanto.

Davide

Ah s0m4r0, sei tu che hai iniziato ad offendere a caso senza motivo.
Stai evidentemente parlando di cose che non conosci visto che l'argomento erano le GPU e ora tiri fuori le AVX, che sono una funzionalità delle CPU per l'ottimizzazione del calcolo vettoriale (aka, cose eseguite in parallelo in maniera più efficiente).

Ti stai arrampicando sugli specchi.

The

stronz0, quando lo usi con una AMD, pur se gira comunque sulla medesima CPU (perchè sono eoni che gira su CPU), non usi le AVX, ma le FPU.
stessa cosa quando ci sono di mezzo librerie MKL di Intel: non usi le AVX ma usi solo le FPU, quindi bottleneck assicurato con qualsiasi CPU e quindi meno FPS.
ne hai decine di dimostrazioni in svariati giochi e, a differenza di altre cose, tu puoi indurre il sistema a non usare mai le AVX con una semplice variabile d'ambiente.
quando lo fai sullo stesso gioco con nvidia, perdi frame in maniera abbondante, quando lo fai su una configurazione AMD, non cambia nulla...
traine le conclusioni da solo.

PS:

se non vuoi essere trattato male, non trattare gli alti male.
c0glione.

The

no...
nvidia non le droppava più nemmeno al MSRP, quando lo faceva... oggi non le produce nemmeno più...

Davide

e allora basta che stai dietro a sito Nvidia. Stessa cosa

Davide

bomber, physx può essere usato anche con configurazione AMD -.-"
In più essendo open source puoi tranquillamente vedere che non azzoppa un bel niente.
Si vede quanto ne capisci.

The

sul sito AMD le droppano a quel prezzo, anzi, a meno...
basta che ci stai un po' dietro.
o paghi 1500-1800 euro per una 3080.

The

non CUDA, su cui gira.

Davide

ceeeerto. Peccato che Physx sia open source

Davide

appunto, quindi anche la 6900 non viene 1000€

The

Physx è usato esclusivamente dietro compenso di nvidia.
è l'unico modo di nvidia di limitare la concorrenza di AMD: pagare per far fare giochi adatti alle ue GPU e mettere gameworks che frenano le AMD.

The
e quindi ciò che fa fede è il prezzo di listino


e con il prezzo di listino, oggi giorno, ci fai della pratica carta igienica, quindi è di questo che stai parlando.

Davide

Che io sappia Nvidia so trova ma a prezzi alti mentre AMD non si trova proprio. Ciò detto, come dici tu non ha senso comprare a prezzi doppi e quindi ciò che fa fede è il prezzo di listino. In questo la 3070 costa la metà dell'ammiraglia AMD e nonostante questo domina sulle feature extra rastering

Davide

Physx è ancora usato ad ha avuto così successo che adesso è integrato di default in Unreal Engine.
Anche il G-sync è usato e ha spinto AMD a creare il free Sync, con poi le declinazioni premium.
L'RTX invece è il futuro ma chi ha AMD lo vedrà solo tra anni. Io l'ho provato il Battlefield e fidati che non torni indietro dopo averlo usato

The

quantomeno non hanno pagato le GPU il doppio per features che poi sono fallite miseramente, tipo il Physx, il G-synk e prossimamente l'RTX.

The

no.
le GPU a prezzi decenti sono per lo più per le AMD.
le GPU a prezzi scandalosi sono principalmente nvidia.
ora, se tu sei disposto a pagare il doppio di quello che vale una GPU, accomodati, le trovi anche facilmente, ma se tu vuoi pagarle il giusto, allora l'unico luogo dove le puoi trovare è sul sito AMD.

Davide

Come se le AMD le trovassi a prezzo di listino...
Le GPU sono oggettivamente inferiori

The

appunto: se ci fosse l'MSRP.
quindi è deboluccia anche la tua motivazione, almeno per il momento, non credi?

Juanito82

è che chiaro che se vuoi il top del PP c'è solo tmsc con un volume "limitato", ti devi accontentare della produzione che riesci a strappare e AMD si è accontentato di quella, nvidia avrà fatto le sue valutazioni suddividendo con samsung anche se con un PP un po' inferiore, evidentemente gli andava bene per il prodotto che avevano in mente.
però si parla di contratti che si stipulano con anni di anticipo, quindi qualcosa sapevano o quantomeno avevano previsto.
il ban c'entra perchè i chipmaker cinesi (cioè il governo) stavano investendo tantissimo per avere le linee produttive a 7nm entro il 2021-2022 e a 5nm per il 2022-2023, non si sa il livello di "qualità" ma di sicuro meglio dei 14nm che offrono ora e probabilmente meglio degli 8/10 nm di samsung, chissà che non possano essere anche migliori di tmsc.
immagino che parecchi ci stavano facendo un pensiero/valutazione, però Trump (il principio potebbe anche essere giusto, il metodo sbagliatissimo e ora sono quasi tutti sotto lo scacco cinese per la fornitura delle terre rare) ha cambiato le carte in tavola e scombussolato i piani anche dei chipmaker non coinvolti che hanno dovuto accelerare sui nuovi impianti che erano comunque già previsti.
poi è arrivato il covid che ci ha messo il carico e ha solo peggiorato la situazione su tanti aspetti diversi, non solo la produzione

Monakois 94
NaXter24R

Non è questione di ban, è che stai mettendo tutte le tue uova in un solo paniere. Ma vale per tutti quelli che si appoggiano a TSMC.
Riguardo alla produzione poi, son dati che puoi vedere anche tu, più o meno le quote son le stesse, ma Nvidia fa 3 linee più o meno, GPU gaming, server e custom, AMD fa CPU, GPU, server, custom (tra cui console)

Davide
Davide

È una giustificazione deboluccia. La 3070 la pagheresti la metà dalla 6900 prendendola dal sito al MSRP

Juanito82

mesi fa cosa?
stanno lavorando alle nuove fabbriche dal momento del ban nel 2019 e finiranno di costruirle nel 2022-2023, avrebbero dovuto prevedere il ban di trombetta con 3-4 anni di anticipo per farsi trovare pronti?
sulla questione che amd non si trovano e le nvidia si non posso dire nulla, in queste situazioni si vede quello che si vuole vedere e dipende esclusivamente dal tifo, io vedo che nvidia vende il 90% in più rspetto all'anno scorso e amd il 40% in più, quindi qualcuno le trova e le compra.
al netto di ritenere "si trova" un preordine di mesi (c'è chi è in coda da settembre), qui la vedo decisamente diversa

NaXter24R

Non stai capendo. Non parlo di adesso, parlo di mesi fa.
Poi, "serie" o meno, la serie 6000 è praticamente inesistente. Se NVidia si trova, a prezzi folli ma si trova, AMD no. E perchè? Ne hanno prodotte pochissime

Juanito82

il problema è proprio quello sono tutti già saturi e non è possibile produrre di più, secondo te se samsung non lo permettesse nvidia non raddoppierebbe all'istante la produzione.
il 7nm tmsc fa miracoli eccome, le schede "serie" nvidia le prodce lì, da samsung solo la roba non professionale

NaXter24R

Nvidia ha parlato con Samsung tanto per fare un esempio. Visto che i 7nm su TSMC non è che facciano sto miracolo sulle 6000, magari poteva aver senso guardare di dividere la produzione. Più che altro perchè le GPU sono assolutamente introvabili.

Juanito82

slegarsi e trovare un alternativa di cosa?
le Fab quelle sono e non ci si inventa fabbriche nuove e knowhow dal nulla.
di fab "avanzate" che non sono sottoposte al bando usa ci sono intel, samsung, tmsc, glofo (ferma a 14nm samsung) e basta, il resto sono realtà abbastanza piccole e producono su nodi produttivi ancora più vecchi, da 28nm in su.
per slegarci da tmsc andiamo a produrre su 28nm?
nel 2010 forse sarebbe stato ottimo ma nel 2021 no
se vuoi il massimo della tecnologia vai prima da tmsc, se non ha slot vai da samsung, se anche lei risponde picche vai da glofo, se anche glofo non ha disponibilità ti attacchi e preordini un futuro slot produttivo.
intel forse inizierà a prordurre per terzi (se ne parla dal 2016 e non è mai successo, forse ora che i bilanci stanno iniziando a calare lo fanno davvero) ma di sicuro non ha il miglior pp, forse si avvicina a samsung ma un po' indietro e comunque non ne ha il volume produttivo.
non esiste alternativa valida a TMSC prima di 3-4 anni e comunque sarà in china, quindi non venderanno in occidente, almeno fino al futuro antiban usa che si svenderà alla cina per avere più chip

The

oggi, se vuoi una 3070, mettiti in testa che devi sborsare sui 1000 euro, se vuoi una RX 6900 XT, l'unica cosa da fare e cercare di prenderla direttamente sul sito AMD al MSRP e quindi a 1000 euro.
ora la puoi mettere come più ti piace, ma se mediamente la 6900 XT è solo il 73% in RT rispetto ad una 3090, e pur vero che con 1000 euro, lato nvidia, prendi solo la 3070, che è il 75% di una 3090 in RT, quindi risulta che la 6900 XT costa quanto una 3070 e arriva alle prestazioni del 97% rispetto a questa (in RT, perchè in rasterizzazione minimo va 1/3 di più della 3070 e senza trucchetti sulle risoluzioni)...

l'unico reale vantaggio di nvidia, ad oggi, è il DLSS, che anche nella versione 2.0 non risulta impeccabile sia per quanto riguarda la resa grafica (decisamente più sfocata), che per le aberrazioni (soprattutto sui bordi) in movimento, da usare proficuamente solo per raggiungere framerate decenti, giocabili e non certo per sparare a 200fps perchè il DLSS è un post processing dell'immagine; farai pure 200FPS, ma li farai comunque 10ms dopo di quanto effettivamente impiegherebbe la GPU a farli nella risoluzione nativa che sta in effetti usando, quindi 200FPS, ma con lag di 100FPS.
introduci latenze di calcolo per ottenere quell'upscaling e Reflex di nvidia, per tagliare le latenze, non funziona se usi anche il DLSS; ecco perchè non vedrai mai nessun giocatore professionale che lo usa...

se i prezzi calano, la questione sarà diversa, ma ad oggi una 6900 XT la confronti con una 3070 e non con una 3090, perchè questa sul mercato la reperisci a 3000 euro.

Beh il mondo business sono anche le PMI.
Spesso on premises lo fai simile a ciò che hai, magari lo integri. Ad oggi si pensa a prendere prodotti certificati dai vendor, Intel é IBM forse su questo aspetto hanno più esperienza.

No no, la mia era una condivisione di esperienze e che rimane tale in quanto ti attieni al “certificato”. Perdona l’infantilità, Poi ovviamente quando viene l’analista professionista come te e mette sul tavolo una analisi di questa caratura posso solo che tacere e promettere che da domani inizierò una guerra in nome del tuo post che citerò pedissequamente.

The

ha, giusto per rendertelo presente: l'M1 usa core "big" a 4 vie di calcolo, non 2 come gli attuali X86 ne 1 sola come gli ARM A78 di oggi...

The

non vedo che è cambiata nessuna virgola, rassegnati.

Monakois 94

Le 6000 hanno pareggiato Nvidia lato performance in raster e in raytracing vanno piú o meno come le 2000 consumando meno,deludenti é l'ultima parola che verrebbe in mente.
Per il discorso FSR (dlss),dovrebbe arrivare entro l'anno,quindi come vedi la situazione non é cosí nera come la si dipinge (apposta).

biggggggggggggg

Minaccia? Hai mai sentito il detto "arrampicarsi sugli specchi"? E poi fai pure il saputello

NaXter24R

Infatti sicuramente hanno avuto quel pensiero, ma questo vale comunque per tutti, serve slegarsi da TSMC e trovare una alternativa. Ad oggi se chiudesse TSMC chi c'è? Samsung, ma non basta

NaXter24R

Rientrano, infatti quel "datacenter" ha pure dentro i numeri di embed e custom, tra questi le console.

Davide

AMD ha fatto un lavorone con le CPU ma ha sfornato GPU deludenti sotto molti punti di vista. Nvidia ha almeno un paio d'anni di vantaggio e nonostante siano andati vicini in termini di performance, hanno totalmente cannato con il ray tracing e con le feature extra come il DLSS, che alla fine sono ciò che fa la differenza tra un prodotto top come lo vende Nvidia e l'alternativa cheap

Maurizio Mugelli

e' una minaccia?

biggggggggggggg

Occhio che cadi a forza di arrampicarti

biggggggggggggg

Si sei lucusta

DeeoK

Per le gpu AMD vende parecchio meno di Nvidia che fa anche i Tegra, ad esempio, che trovi sulle Switch. Le quote per Xbox e PS non credo rientrino in quelle di AMD e, se lo fanno, vuol dire che AMD fa numeri decisamente più bassi di quelli Nvidia.

Come fare Animazione 3D: i consigli dei professionisti

Recensione NVIDIA GeForce RTX 3070 Ti

Acer annuncia Swift X e rinnova i notebook ConceptD | Anteprima video

iMac M1 24": altro che colori, bianco è meglio ma servono 16GB di RAM | Video