Intel Arc A770M e A730M: nuovi dati ufficiosi sulle prestazioni nei giochi

24 Giugno 2022 24

Nonostante le schede grafiche Intel Arc siano attualmente disponibili solo sul mercato cinese, il debutto delle prime soluzioni notebook e desktop con le nuove GPU Intel sta destando molto interesse tra utenti e addetti ai lavori. Allo stato attuale, i dati a disposizione relativi alle prestazioni dei chip Arc serie A non sono molti e i vari benchmark non possono essere ancora considerati definitivi per tutta una serie di motivazioni: a parte l'effettiva disponibilità in volumi, c'è da considerare in primis l'ottimizzazione dei driver, senza contare la necessità di avere a disposizione dei test attendibili che vedano tutte le GPU provate a parità di condizioni (vedi CPU e TGP).

Detto questo, dopo le ultime notizie sulla variante desktop Arc A380, oggi si torna a parlare di GPU mobile per quelli che sarebbero i nuovi benchmark di riferimento Intel per i modelli Arc A770M e Arc A730; le informazioni trapelano da un report di tomshardwareusa che, a quanto pare, avrebbe avuto accesso alla review's guide dei colleghi cinesi per le prime recensioni dei nuovi notebook con Intel Arc.


Andando nel dettaglio, il documento in questione propone come di consueto una serie di benchmark di riferimento che vedono Intel Arc A770M e A730M a confronto con le dirette rivali - almeno sulla carta - GeForce RTX 3060 e GeForce RTX 3050 Ti Laptop. Il "succo" dei benchmark - svolti a 1080p con dettagli ALTI e ULTRA - è che entrambe le soluzioni Intel battono la concorrenza: Arc A730M è in media il 13% più veloce di RTX 3050 Ti, mentre Arc A770M si attesta a un +12% rispetto alla GeForce RTX 3060.

Benchmark Intel Arc A770M/A730M (fonte tomhardwareusa)

Risultati buoni potremmo dire, anzi buonissimi se pensiamo alla sicura maturazione dei driver Intel nei prossimi mesi, se non fosse che nello stesso documento emerge come i test in questione non sarebbero stati effettuati con le stesse impostazioni energetiche per tutti i modelli presi in esame. Mentre le Intel Arc operavano al pieno del loro TGP, sembra che le NVIDIA GeForce RTX 3060 e 3050 Ti siano state limitate rispettivamente 85 e 65 watt di TGP. Ecco i dettagli a seguire:

  • Intel Arc A730M (TGP 80/120W): Core i7-12700H, 16GB DDR5-4800
  • Intel Arc A770M (TGP 120/150W): Core i9-12900HK, 16GB DDR5-4800
  • NVIDIA GeForce RTX 3050 Ti (TGP 60W) (ROG Zephyrus M16): Core i7-11800H, 16GB DDR4-3200
  • NVIDIA GeForce RTX 3060 (TGP 85W) (MSI Pulse GL66): Core i9-12900HK, DDR5-4800

Ribadendo ulteriormente che non possiamo dare per definitivi questi dati sino a quando non verranno pubblicati direttamente dall'azienda, al momento ci sono ancora troppe incertezze sull'affidabilità di tutti i test emersi finora sulle GPU Arc Alchemist; anche queste varianti mobile sembrano sulla carta più veloci dei competitor, ma a questo punto bisognerà attendere delle recensioni decisamente più autorevoli ed equilibrate per farsi un'idea sulle reali potenzialità di queste GPU Intel.

Il TOP di gamma più piccolo? Samsung Galaxy S21, in offerta oggi da Phone2go a 559 euro oppure da eBay a 629 euro.

24

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Davide

Non sono un esperto di FPGA ma ho messo mano al GPGPU computing e per esperienza OpenCL non solo é più complesso da programmare ma anche meno performante. Parlo di hardware Nvidia che rappresenta lo standard di mercato. Può essere che ci siano scenari in cui OpenCL ha performance superiori ma overall CUDA é più prestante nella stragrande maggioranza dei casi

Il corpo di Cristo in CH2O

boh, non capisco dove stia la differenza, guarda che è sempre "come fosse un asic", come la giri la giri ma di li esce un bitstream, la config in quel caso è fissa, la programmabilità del sistema invece è fatta con codice compilato può anche essere opencl. a meno che per "massime prestazioni" non intendi lo sfruttamento dei macroblock, ma in quel caso non c'è molta differenza visto che il place and routing viene fatto ugualmente. sinceramente in quel contesto il massimo che mi è capitato di fare è stato di cambiare il loop di ottimizzazione perchè per qualche ragione dalla suite altera segnava una posizione e invece lo mappava in un altra. però stiamo parlando di qualcosa che oggi non fa più nessuno, ma non perchè non vorrebbero, ma per i costi, usi librerie già pronte, poi di HLS con opencl immagino sia possibile, non mi è mai capitato di farlo, con C si, non essendoci troppa differenza sicuramente qualcuno lo avrà implementato. ma ormai progettare a livello ip non lo fa più nessuno (soprattutto in italia dove, ripeto, si raschia il fondo del barile). tanto per capirci quello che intendevo io per "massime prestazioni" è come usare nios, e programmarlo in C, se ti capita di definire variabili locali che non sono mappate su una memoria locale, il compilatore traduce con degli spostamenti tra le memorie, e questo fa perder tempo. poi è per fare un esempio. ma puoi immaginare di farti un acceleratore tuo, con 20 unità computazionali e due livelli di memoria, a quel punto il codice che gli fai eseguire deve mappare le variabili nei due livelli di memoria e distribuirle sulle 20 unità, per far questo puoi usare opencl, le prestazioni sono quelle teoretiche dell'acceleratore. tutto qui. se prendi una scheda amd ha una config chiara, ha i suoi livelli di memoria, puoi usare benissimo opencl per mappare su quei livelli e su quella arch, in quel caso le prestazioni sono quelle massime della scheda. ne più ne meno. poi su dei SO più completi con dei carichi più eterogenei è più difficile avere uno sfruttamento al 100% però dipende appunto da quanto bene riesci a distribuire i carichi e a caratterizzare la scheda. tanto è vero che nei sistemi dedicati con 1 algoritmo da eseguire e 1 solo tipo di scheda, fanno questo lavoro con opencl e hanno prestazioni teoriche molto vicino alle massime possibili.

Davide

Quello che citi é uno dei due modi di usare una FPGA. L'altro banalmente consiste nel definire l'hardware in verilog e poi usarle come fossero ASIC (ovviamente potendole aggiornare essendo programmabili.
Se vuoi performance da una FPGA non usi OpenCL ma fai tutto in hardware.

Il corpo di Cristo in CH2O

mi sa che hai le idee parecchio confuse sull'argomento. una fpga la puoi programmare nel senso che ci puoi creare qualsiasi circuito logico (con i dovuti limiti del caso), questo lo puoi fare con un linguaggio a descrizione come verilog vhdl system verilog, o nel caso di HLS spinto anche system C o addirittura C e C++ e opencl. l'output in questo caso è una descrizione di un circuito logico che può essere fatta secondo uno studio preliminare dell'architettura oppure secondo l'applicazione da eseguire, in questo caso HLS. dopodichè se vuoi fargli eseguire quel codice il codice lo devi scrivere, e ti serve caratterizzare, nel senso di indicare dove e quanta memoria c'è in ogni punto, dove e quanta computazione mettere, per questo usi opencl, perchè è facile definire variabili in memoria locale, in memoria globale, dividere i loop, ecc. (poi ci sono anche programmi che fanno tutto questo automaticamente nel caso di HLS, ti ritornano una bella libreria da includere, alcuni persino del CDD per linux, ma è un altro discorso).

Il corpo di Cristo in CH2O

opencl è una estensione del C. il C lo usi per programmare, l'output di opencl non è altro che un programma, che poi viene tradotto in codice oggetto come tutti i programmi da un compilatore più o meno ottimizzato che sia. se vuoi avere una mappatura precisa sull'hw ti serve creare le funzioni per l'interfaccia di opencl. è come con C quando richiami una funzione, mica mi dici che è "astrazione" perchè quella funzione è scritta da un altra parte. in questo caso c'è un compilatore che cerca di capire quale sia lo scenario migliore e se rendere quella funzione inline o meno. poi la traduce e fine. questo va fatto sulla architettura specifica se vuoi il 100% di prestazioni dell'architettura, ma lo fanno solo le aziende alle quali realmente serve, e si fanno i propri compilatori. perchè AMD non lo fa? perchè ti assicuro che quella mappatura ha un costo non indifferente in termini di tempo (e devi pagare chi lavora).

Davide

P.S. chi programma le FPGA e vuole le massime prestazioni usa verilog, non OpenCL

Davide

E secondo te AMD che incentivo ha a non fare quel che dici? Perché semplicemente già lo fa. OpenCL in pratica é un'architettura virtuale e tutto l'hardware che lo supporta é in grado di eseguirle il codice. Codice che non sarà mai nativo (un po' come Java)

Il corpo di Cristo in CH2O

ma non c'è "astrazione", dipende dal compilatore che usi, secondo te ipotetica azienda X che crea un acceleratore su fpga vuole sfruttarlo al 100% o no? certo che si! difatti si fa i suoi compilatori.
guarda, è la stessa differenza che c'è tra l'usare il C e l'assembly, dipende dal compilatore (oltre al fatto che nulla vieta di fare delle parti in assembly). ora cuda ha una caratterizzazione maggiore di quella che ha amd con opencl, all'atto pratico quell'interfaccia è più efficiente perchè più cosciente della architettura che ci sta sotto ad eseguire il codice. se in amd si mettessero a caratterizzare i propri device come si deve le prestazioni sarebbero quelle teoriche dell'architettura.

Davide

OpenCL gira su tutto l'hardware compatibile ma non con prestazioni pari al 100% delle possibilità, proprio per via dell'astrazione.
CUDA é esclusivo Nvidia ed é fatto in C quindi hai performance massime per l'hardware su cui é usato. Non é un caso che in ambito datacenter ai usi praticamente solo quello. Che poi esista un caso in cui OpenCL vada un filo meglio non implica che di norma le performance non siano sotto e di parecchio

Davide

OpenCL serve appunto per creare un'astrazione con l'hardware. Gira su GPU come su FPGA ed il gap prestazionale é dovuto proprio all'astrazione. Ad AMD converrebbe staccarsi da OpenCL e farsi la sua versione di CUDA.

lux85

Dove?? dai non diciamo cose non vere, OpenCL è più difficile da programmare rispetto a CUDA e su questo non ci piove, ma è un programma chiuso funziona solo su HW nvidia deventemente, OpenCL funziona su tutto nel medisimo modo di come lo scrivi, e puoi andare dove vuoi cerca e vedrai che con questo le Intel ma anche soluzioni diverse riescono ad esprimere maggiore potenza delle Nvidia, cioè alla INSA di Strasburgo hanno fatto dei test su programmi di simulazionie ( sisma ect.. ) programmi scritti in openCL, Nvidia impiega 13 minuti in più della soluzione AMD, e sulla carta Nvidia sugli acceleratori è più forte di AMD.

Il corpo di Cristo in CH2O

opencl è una estensione del C per mappare acceleratori in modo piuttosto lineare, poi è costruito bene per le gpu per via dei famosi 6 loop, però nulla vieta di mappare altri acceleratori con i propri compilatori ecc. ora il punto della mia critica è che se sai quanta memoria hai, come è organizzata e come distribuire le risorse nel tuo acceleratore, opencl ti fa sfruttare il 100% delle performance possibili, quindi si, se AMD facesse una caratterizzazione decente delle proprie gpu in opencl con tanto di codice assembly dove serve avrebbero le stesse prestazioni di cuda, non lo fa perchè costa.

ma non è "è opencl quindi ha prestazioni del meno -40%", non è quello il motivo.

ekifi

È la primissima generazione e l'obiettivo non era mai stato offrire un'alternativa alla 3090, si è sempre parlato di prestazioni in linea con l'attuale serie 70 al massimo. Certo è che fra quello ed andare il 10% in più di una 60 limitata a metà del suo TGP ne passa, ma a questo punto direi che vedere qualcosa di effettivamente rilasciato, acquistabile e più o meno funzionante sarebbe un obiettivo viste le tribolazioni che pare dovranno passare prima di arrivare sotto forma discreta in Europa. È ovvio che per diventare reali concorrenti, almeno su fasce sopra i 200 euro, bisognerà aspettare ancora un bel po'. C'è da dire che di fascia bassa si sentiva comunque la mancanza, quindi anche venissero relegate dal mercato a opzioni economiche non farebbero male, anzi.

Davide

Veramente é opencl che ha prestazioni del -40% rispetto a CUDA

Superman

Come giustamente hai detto anche tu é la prima gen, nessuno si aspetta che la. Prima gen sia concorrenziale in fascia alta.. Già è tanto se su schede video desktop arriveranno alla fascia media di Nvidia.. Basta vedere i primi ryzen, e poi la seconda gen.. Non erano concorrenziali lato performance in gioco, però lo erano sul versante dei costi. La terza gen di ryzen poi è stata aiutata dal fatto che intel non riusciva a passare al nuovo PP ed è restata sui 14nm anche su serie 10 e 11, perché se fosse riuscita a passare a Intel 7 per tempo avremmo avuto alder lake contro i ryzen 3000 e sarebbe stato un massacro.. Qua come competitor ci sono Nvidia (che non è mai ferma al. Contrario di Intel nel periodo dei 4 core perenni in fascia consumer) e amd che ha recentemente ritrovato un po' di grinta con le rx 6000.. Per Intel sarà una strada lunga e tortuosa quella che porta alla fascia alta.. Per me prima di 5 anni non ci sarà nulla di realmente competitivo in fascia alta, Considerando che l'upscaling avanzato di Intel dovrà diffondersi (anche se già è buono che partiranno da subito con core dedicati e che useranno anche loro il DL come Nvidia) poi si spera sempre che intel non abbia ulteriori problemi con le fab per passare ai successivi processi produttivi, altrimenti la corsa si ferma, di positivo nelle fab i tel c'è che solitamente non scarseggiano mai in quanto a disponibilità e non dovendo pagare una fabbrica terza possono essere competitivi sul prezzo.. Io per ora resto su Nvidia, proprio per il dlss e per il fatto che fsr va anche sulle Nvidia (e anche sulle Intel) tra qualche anno quando ogni gioco avrà l'upscaling di tutti è tre i produttori allora si vedrà, ma per ora resto su Nvidia.

migliorare

Per carità, ma per le sue tecnologia nVidia è tipo 70% del mercato se non di più e AMD più di 25%... pur con potenza bruta similare e a volte superiore... ora l'AMD FidelityFX (che va poi bene anche con le nVidia) hanno aiutato, ma l'altra è proprio uber alles... poi certo, questa è la loro prima gen e non è facile partire a confrontarsi con le altre che lo fanno da sempre, alla terza gen saranno senz'altro molto meglio, ma ci saranno quantomeno la serie 5xxx di nVidia e controparte AMD che nel frattempo saranno avanzate non poco... comunque vedremo, in questo campo non si può mai dire ed è un attimo (beh, quasi...) ribaltare la situazione... tempo al tempo... comunque sia meglio una maggiore concorrenza che meno, una maggiore spinta al mercato e teoricamente vantaggi per tutti quantomeno per evitare che qualcuno si sieda sugli allori... ;-)

lux85

Ma sulla bontà della scheda non ci piove che se queste sono le premesse non è il massimo, ma va detto che è anche la prima gen., credo che verso la terza possa essere se non al pari poco sotto le altre due.
Solo che in tanti mettono nel calderone le tecnologie di Nvidia sempre, ma nei giochi cuda conta poco non è preponderante, RTX come ho detto ( almeno per me ) serve a poco, solo il DLSS è un ottima cosa, che per il momento svetta anche se AMD sta iniziando anche lei ad ingranare, su quello di intel non possimao esprimerci non avendolo visto in azione.

migliorare

Ah, indubbiamente, ma dato che non lo propongono per lavorare, ma come alternativa alle schede gaming dove nVidia la fa da padrona (anche per i suddetti motivi) non mi sembra un'alternativa valida a meno che non costino la metà delle nVidia, cosa che non mi pare purtroppo...

lux85

SI ma una volta per tutte salvo il DLSS che è ottimo, cuda è buono solo perchè semplifica la programmazione, ma un programma scritto in openCL su una AMD o su una intel ( su questa mi baso da quanto dedtto dai partner che hanno provato gli acceleratori ), le nvidia vengono messe in un angolo sono dietro di un buon 40%, infatti in molti superpc perchè non vengono messe le Nvidia che per costo prestazioni sarebbe favorite?? perchè lavorando con OpenCL sono lente.
RTX ( come le varianti AMD e intel ), al momento sono inutili tra 2/3 anni dove ogni gioco uscirà con tale tecnologia e i miglioramenti saranno veramente evidenti, allora avrà senso esserci.

T. P.

vediamo cosa ne esce fuori...
se anche le prime generazioni non saranno il massimo, speriamo che intel tenga botta e sia migliore con le successive!!!

migliorare

...e rinunciando a Cuda, RTX, DLSS...

Slenter97

Quindi le soluzione più alte di Intel a malapena battono le soluzione di fascia più bassa della concorrenza, inoltre entrambe consuma dal 50 al 100% in più della concorrenza riuscendo a fare poco di più in prestazioni. Mamma mia che ciofeca. Spero che tutti questi rumors e leak siano sbagliati, perché vorrei ci fosse reale concorrenza, altrimenti Nvidia e AMD continueranno per la loro strada senza preoccuparsene.

Giulk since 71' Reload

A riferimento tra la 770M e la 3060 liscia mi sembra che il TGP sia veramente alto della scheda Intel, va bene che sono le prime generazioni ma insomma, saranno poi da vedere i prezzi, perché puoi anche fare una gpu il 30 per cento più veloce di un'altra ma se quella gpu costa anche il 30 per cento in più o peggio non ha senso

Speriamo insomma che ci sia una concorrenza reale che spinga i prezzi verso il basso

AlphAtomix

Si ma i consumi sono alle stelle... Comunque sono proprio curioso di vedere a che prezzo si posizioneranno perché cambierei volentieri il mio portatile (amd a12...fate voi) se potessi anche avere una gpu dedicata a buon prezzo

Recensione AMD Ryzen 7 6800U, la iGPU ora convince

Recensione AMD Ryzen 7 5800X3D: la V-Cache 3D funziona alla perfezione

Recensione NVIDIA GeForce RTX 3090 Ti: l'ultimo grido di Ampere

Mac Studio e Studio Display ufficiali: il Mac mini cresce ed è potentissimo | Prezzi