
24 Gennaio 2015
Dopo la presentazione avvenuta al GDC dello scorso anno, con buone notizie anche per la xBox One, tutti gli appassionati di PC Gaming (e non solo) vorrebbero già avere tra le mani titoli ottimizzati con le nuove librerie Microsoft per sfruttare e goderne a pieno i benefici.
Proprio a questo proposito, oggi vi segnaliamo un'interessante serie di test che arriva dai colleghi di Anandtech e che mostra quantomeno buoni risultati sul versante performance, CPU/GPU scaling ecc.
Con la collaborazione di Microsoft, Oxide Games e AMD/Nvidia, lo staff è riuscita a testare in DX-12 il benchmark Star Swarm. Stando ai numeri che escono dalla prova (a questa pagina), emerge un certo equilibrio prestazionale tra DX 12 e AMD Mantle, con quest'ultimo leggermente avanti e con Nvidia che invece al momento sembra avere un minore beneficio dal passaggio DirectX 11-DirectX 12.
Passando al CPU-Scaling i risultati sono forse ancora più interessanti e sembrano ulteriormente confermare una delle caratteristiche base di queste librerie. Tra i vari grafici è senza dubbio interessante notare come le DirectX 12 offrano benefici anche su Processori Dual-Core e non solo Quad-Core o superiori.
Insomma sembriamo essere proprio sulla buona strada per i titoli di nuova generazione, che, inutile quasi ribadirlo, necessiteranno comunque di molto lavoro iniziale.
NZXT H5 Flow con Kraken Elite 280, la recensione di una build votata all'eleganza
Recensione Asus ROG Swift PG42UQ, 42 pollici di puro godimento!
ROG Ally: abbiamo provato l’interessante ibrido tra console portatile e PC | VIDEO
NVIDIA Studio e Omniverse, come annullare 7.000 Km grazie alla tecnologia
Commenti
Beh un po' ci sta, considerando che nella situazione attuale le gpu AMD richiedono un po' più di lavoro da parte delle CPU (intel o amd che siano), Quindi se queste Dx12 diminuiscono il carico di lavoro della CPU di norma dovrebbero ricevere più boost rispetto alla controparte
Credo una 15ina.
Credimi non ne ho idea. Mi faceva strano il risultato di AMD ed ho provato. Proverei anche con Mantle ma c'è quel problema dello schermo bianco. Di minimo hai fatto caso quanto facesse?
guarda io non so ma una cosa è certa con il 4790k e la 780Ti in Dx11:
== Hardware Configuration =================================
GPU: NVIDIA GeForce GTX 780 Ti
CPU: GenuineIntel
Intel(R) Core(TM) i7-4790K CPU @ 4.00GHz
Physical Cores: 4
Logical Cores: 8
Physical Memory: 17049251840
Allocatable Memory: 140737488224256
== Results ================================================
Test Duration: 360 Seconds
Total Frames: 25324
Average FPS: 70.34
Average Unit Count: 4793
Maximum Unit Count: 6006
Average Batches/MS: 1402.98
Maximum Batches/MS: 4684.60
Average Batch Count: 19909
Maximum Batch Count: 138685
===========================================================
Eh si :-D Per casual gaming va bene però.
Però, nel caso di uno slot PCIe, e nel caso già si disponga di una quantità sufficiente di ram, meglio una scheda video come si deve. Con 100€ ci son buoni prodotti sul nuovo e con meno a volte nell'usato si trova roba interessante.
Però su un Nuc è dura come cosa
Ottimo, grazie per le dritte.
Frequenza prima di tutto. La latenza è direttamente collegata ovviamente.
http://www. tomshardware. com/reviews/memory-bandwidth-scaling-trinity,3419-4.html
E' di Trinity, un po vecchia, ma rende l'idea. In questo caso spendere 10€ in più per una ram veloce è un buon investimento
Parli di frequenza o ti riferisci altre caratteristiche?
Ah be quello di sicuro. Per certi sistemi è una buona cosa. Lo dicevo per quelli che credono che le console passeranno come per magia da 30 a 60fps.
Comunque per le grafiche integrate, una buona cosa è scegliere ram veloci, solo quelle migliorano parecchio.
Da 25 a 35 fps, lo considero comunque un buon risultato :-)
bravo ahahahha
ah capito :D
Più andiamo avanti e meno la potenza della CPU incide nelle prestazioni nei giochi. Ottima notizia per me che avendo un AMD 750X probabilmente non avrò bisogno di cambiarlo per molto tempo.
Un minimo si, per via del diverso uso delle risorse, ma nessun miracolo. Ecco, magari se uno gioca su un nuc e fa 25fps, magari ne fa 35, ma non diventa una macchina da gioco.
è come dire gli Intel Core non ha specificato quale tipo ma la categoria dei core 2 duo è lunga
In sostanza, le dx12 non porteranno grandi benefici hai NUC o simili.
Quindi significa che chi vuole giocare spenderà sempre piú soldi nelle schede video :)
Assolutamente. Son fatti per andare assieme, primo Intel non rilascerebbe mai una soluzione non adeguata, secondo, la GPU è talmente scarsa (passami il termine, paragonata ad altre GPU ovviamente) che non ha bisogno di particolari CPU.
Prendi le GPU integrate di AMD, che son decisamente superiori a quelle Intel, vanno con CPU molto meno prestanti.
Nel caso di un i5 dual-core è difficile che si sia in una situazione di CPU limited, con una scheda integrata HD500, o sbaglio?
Potrebbero migliorare nel senso che magari richiedono un po meno potenza di calcolo, ma non è che una GT720 diventa una GTX780.
La potenza alla base serve sempre.
Mantle non è una libreria chiusa ma open source e non richiede GCN per funziona ma deve essere implementata nel gioco dagli sviluppatori. Se cerchi su internet è spiegato chiaramente che è una libreria libera e può essere usata anche da NVIDIA se volesse.
Ok, ti ringrazio. Quindi se la scheda integrata fa un po' pena, le cose non migliorano.
Ringrazio x questa recensione , dato che un blog famoso ieri ha spalato uno scenario negativo senza prima provare e vedere. Un ringraziamento a tutti coloro e non solo Microsoft, Amd e Nvidia hanno fatto pressioni per avere qualcosa di innovativo e al passo con i tempi. Drectx12 is fantastic.
Comunque mi son fatto il test per conto mio con le DX11 (Mantle ha deciso di farmi vedere lo schermo bianco, pare debbano aggiornare il bench).
Risultati, 4790k stock, r9 280x "stock" 1070 core/ 1550 memoria:
Test Duration: 360 Seconds
Total Frames: 11508
Average FPS: 31.97
Average Unit Count: 4283
Maximum Unit Count: 5402
Average Batches/MS: 768.13
Maximum Batches/MS: 1852.56
Average Batch Count: 26605
Maximum Batch Count: 164857
Risultati, 4790k stock, r9 280x OC 1190 core / 1550 memoria @1.28v: (p.s. per quelli che "eh ma scalda, 66°C....)
Test Duration: 360 Seconds
Total Frames: 13507
Average FPS: 37.51
Average Unit Count: 4271
Maximum Unit Count: 5331
Average Batches/MS: 698.03
Maximum Batches/MS: 1846.00
Average Batch Count: 20318
Maximum Batch Count: 142664
Quindi, con AMD hanno cannato alla grandissima, o io ho una bestia senza saperlo, o han sbagliato loro... Anche perchè faccio un risultato migliore con una scheda peggiore rispetto al loro 6 core, che mi pare fosse il 4960x...
Le attendo pazientemente sulla mia xbox one.
Se un domani spostano tutti i calcoli sulla GPU si, ma ancora è molto presto per dirlo.
Il problema sono tutti quei giochi che richiedono molta CPU per funzionare, ovvero tutti quelli con molti elementi a schermo (Unity, Civilization, Battlefield nell'Online...)
Nei bench infatti si vede come un dual core tenga il passo con 4 o 6 core senza problemi, proprio grazie ad un minor carico sulla CPU.
e prezzi molto diversi anche :)
ah ecco ora è chiaro :)
quindi per il gaming del futuro basterà un i3?
E' il motivo per cui preferisco AMD ad Nvidia.
Mi sta bene che uno voglia fare le cose proprietarie, ma almeno non penalizzare chi non ha il tuo hw.
E poi ci son le cose inutili, tipo "Dynamic Super Resolution", meglio conosciuto come SSAA...
Era vecchio. Non aveva problemi, ma era troppo vecchio. Andava al 100% sono ad aprire una pagina di chrome...
Sarei curioso di sapere anche lo scaling tra cpu. Mi ricordo di test con Mantle in cui gli FX di AMD venivano rivalutati, e nel contempo anche gli Intel subivano un incremento di prestazioni, segno della bonta delle librerie, e della buonafede di AMD nel rilasciare codice imparziale.
AMD si dimostra onesta. Certo non brilla molte volte per la qualità assoluta del software che rilascia, ma, al contempo, non mi son mai sentito discriminato da lei per l'hardware che utilizzo.
che intendi per "andato" ? si può pure usurare una cpu?
Appunto. Su AMD c'è un x4, su Nvidia un x2. In termini di miglioramento AMD vince, sulle prestazioni finali lo fa Nvidia.
Personalmente mi interessa molto quel x4, vuol dire che la base è buona.
Ma a conti fatti parliamo di schede del 2013, alcune di derivazione ancora più datata (prendo ad esempio la mia 280x che è una 7970) paragonate a schede nuove.
Quando usciranno le 300, e ci saranno driver adeguati, sarà il tempo dei paragoni.
Semplicemente l'articolo evidenzia come AMD sembri avvantaggiarsi meglio del passaggio alle nuove librerie rispetto a NVidia. Come si sia ottenuto questo vantaggio e solo terreno per speculazioni di famboy di entrambi gli schieramenti.
Direi grazie al piffero, stai confrontando schede di due generazioni diverse.
Poi c'è sempre caso e caso. Di che modello parli di preciso?
Ho un amico a cui ho rifatto il pc e il suo core due duo era andato ormai, più di li non ce la faceva (2007).
Mio padre ha un PC vecchio ma comunque un Core 2 Duo decisamente più prestante
Conta la CPU non la GPU.
Le DX12 come Mantle vanno a togliere carico sulla CPU che inevitabilmente si ripercuote sull'utilizzo della GPU.
Rispetto allo schifo amd di prima ok. Ma come risultato finale nvidia rimane in vantaggio.
Si drogano ogni tanto su Hdblog prima di pubblicare
accidenti non posso crederci. Il mio core 2 duo fa fatica a far girare win 8.1, non riesco a credere che possa farmici qualche titolo di gioco. Sarebbe veramente eccezionale..
Ahahahah se HDblog è AMD fan io sono Salvini...
C'è stata un po di confusione nel riportare la cosa. Non dice infatti chi o cosa è in vantaggio.
Dice come hai detto tu che su AMD l'aumento, non il risultato finale, è maggiore rispetto ad Nvidia. :)
Anche in assenza di una scheda grafica discreta?
Questa è la notizia principale, si :)
Se hai una scheda AMD potresti gia provare a vedere come va con Mantle
Se tu osservi l'aumento di frame della soluzione AMD al passaggio dalle DX11 alle DX12, si osserva nel caso di NVidia un raddoppio dei frames, mentre nel caso di AMD di prestazioni quadruplicate. Poi l'autore dell'articolo non si sofferma sul perchè di questo (che può essere dovuto a disottimizzazioni sistemiche più che agli incrementi prestazionali delle nuove librerie). Se invece le tue osservazioni riguardano i frame totali, beh stiamo parlando di due schede diverse con due potenze diverse, quindi ovviamente con due risultati diversi.
Da questo test AMD si avvantaggia di più delle DX12 di NVidia. Negarlo è impossibile.
Si saran sbagliati. L'articolo non lo dice. E comunque, stiamo parlando di schede di un anno fa e di schede uscite da poco. E' normale che ci sia differenza. Anche il tipo di architettura conta. E non dimentichiamo i driver
quindi significa che potrò giocare ai nuovi titoli anche col mio vecchio core 2 duo? XD
ok ma nei grafici si parla di R9 290X e GTX980 perchè parli di 780?
l'articolo parla di difficoltà per Nvidia ma dai grafici di queste due schede sembra il contrario per quanto ci sia stato un salto in positivo....