GPU Intel Xe in almeno 4 modelli, i dettagli nell’ultima versione dei driver grafici

28 Luglio 2019 62

Intel Xe è la sigla che identifica la prima serie di GPU dedicate dell’azienda di Santa Clara, svelata già lo scorso dicembre | Schede grafiche Intel: ecco iGPU Gen11 e le GPU dedicate Xe | e confermata anche all’ ultima GDC di marzo attraverso i rendering mostrati al pubblico.

Le prime schede grafiche Intel Xe dovrebbero arrivare solo nel 2020, tuttavia l’ultima versione dei "test driver" Intel 26.20.16.9999 (attualmente rimossa dal sito ufficiale) offre diversi spunti e indicazioni su quella che potrebbe essere inizialmente l’offerta del produttore statunitense.

Nel dettaglio, i nuovi driver Intel svelano il nome di 4 GPU caratterizzate dalla sigla DG (molto probabilmente Discrete Graphics); DG non dovrebbe rappresentare il nome in codice delle nuove GPU, ma indicare piuttosto un supporto preliminare al nuovo hardware grafico. Sembra evidente che Intel stia lavorando ad almeno due soluzioni grafiche di 12a generazione, DG1 e DG2, caratterizzate rispettivamente dalle sigle LP e HP (low/high profile o low/high powered?); ecco le stringhe estrapolate dal file INF:

  • DG1 HW

iDG1LPDEV = "Intel(R) UHD Graphics, Gen12 LP DG1" "gfx-driver-ci-master-2624"

  • DG2 HW

iDG2HP512 = "Intel(R) UHD Graphics, Gen12 HP DG2" "gfx-driver-ci-master-2624"
iDG2HP256 = "Intel(R) UHD Graphics, Gen12 HP DG2" "gfx-driver-ci-master-2624"
iDG2HP128 = "Intel(R) UHD Graphics, Gen12 HP DG2" "gfx-driver-ci-master-2624"


DG1, identificata come Intel UHD Graphics Gen12, dovrebbe essere la proposta a basso profilo del produttore (LP); DG2 UHD Graphics Gen12 è prevista invece in tre varianti siglate come HP, ognuna associata a un numero (rispettivamente 128, 256, 512) che potrebbe facilmente indicare quello delle EU (Execution Unit).

Per il momento Intel non ha commentato, potrebbe anche aver svelato per errore il nome delle nuove GPU, ma sembra chiaro che l’azienda stia lavorando duramente per sviluppare e ottimizzare al meglio la sua prima generazione di schede grafiche dedicate. La leadership di NVIDIA e AMD non sarà facile da contrastare, ma non dimentichiamo che Intel vanta all’interno del proprio staff nomi come Raja Kuduri (dal 2017 in azienda) e Jim Keller | AMD ora fa paura, Intel assume il creatore dei Ryzen | assunti proprio dalle fila di AMD per concretizzare al meglio il progetto della divisione Core and Visual Computing Group.


62

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
densou

https://media3.giphy.com/me...

Alex Anyone

Hai ragione, l'ho visto ieri in edicola!

Gark121

Giustamente, perché usare una cosa che costa relativamente poco e va assolutamente bene per qualunque cosa non sia giocare quando può pagare un extra piuttosto significativo per della ram con una bandwidth molto più alto di cui non se ne fa nulla?

giangio87

Credo di capire che l'utente vorrebbe notebook con un po di vram oltre alla Ram

Alessandro Condorelli

manco in 1 angstrom arriveresti a tanto e anche se mettessero DDR7 or HBM4. Sono integrate credo all'altezza della navi 11 che sarà messa nel prossimo processore 4400G.

c0s87

Al momento no sono in farm, appena torno a casa le ho salvate e te le posto, non possono uscire come da principio anche solo perchè hanno accantonato: Cobalto,dummy gate ect... quindi è totalmente un altro progetto,meno futuristico, Infatti se poi vedi le interviste ( ne ho lette 5/6 ) dice che i prossimi processi non andranno oltre il 2x in densità a step, per evitare del ripetersi del disastro dei 10nm;
Ovviamente se dicessero apertamente abbiamo fallito in toto e fatto perdere alla società ( e investitori ) qualcosa come 19 miliardi di $, sarebbe un suicidio, partirebbero anche cause ect.. oltre a tonfi in borsa a cascata.

mig86

Pffffff, dilettante...30fps/480p su un'ati x1600pro. Per non parlare di Oblivion su una ati 9200 che non supportava nemmeno dx9. Tanto l'occhio umano non percepisce oltre i 24fps :P

mig86

"che invece di essere 2.7x piu denso dei 14nm è solo 1.4x piu denso"
Hai per caso un link, perché in tutte le interviste che ho trovato Bob Swan parla solo in maniera generica dei problemi avuti con i 10nm ed in tutte le presentazioni sostengono che i 10nm arriveranno senza compromessi rispetto al progetto iniziale (a parte i 3-4 anni di ritardo).

Ah!

TechNoobForSale

Non so perché poi però mi é evaporato il processore

Ma per sul serio?

TechNoobForSale

Principianti. Ho fatto girare Crysis a 30fps su una HD 4400

TechNoobForSale

Inoltre, ora che rileggo meglio, che c'entra la GPU? La parte hardware affetta da queste 2 vulnerabilità é la CPU. E c'é differenza.

TechNoobForSale

Inoltre, persino con 14nm e 10nm i processori Intel saranno capaci di rivaleggiare e/o superare l'offerta a 7nm di AMD, il che la dice lunga su efficienza e qualità delle due. Inoltre ancora, Spectre e Meltdown sono rari, anche se presenti. Ma spesso la gente ingigantisce il problema in maniere mastodontiche. Calmatevi insomma

TechNoobForSale

Solo Meltdown. Spectre può colpire anche ARM ed AMD. Smettetela di puntare il dito tutti su Intel.

Gark121

Cioè vorresti che tutti i portatili consumassero di più senza nessun beneficio?

John117

Mamma che figo il design. Speriamo in bene che la concorrenza fa sempre bene a noi consumatori :D

Mario Cacciapuoti 85

No sono così male soprattutto le ultime quelle integrate nei processori a partire dall'ottava generazione. Poi è ovvio dipende da che vuoi farci sicuramente non sono adatte al game estremo, ma per il resto ottime puoi praticamente lavorarci tranquillamente in ufficio con (Office, Adobe, Navigazione Internet, ecc...) e non hai mai la sensazione di essere alla corda.

Dea1993

se fanno notebook con 4gb di ram, la colpa non e' della gpu integrata, ma di chi ha assemblato quel coso nel 2019.
non a caso i portatili con APU AMD, gia da prima di ryzen, avevano tutti almeno 8GB di ram, dagli A8 in su, e con 8GB di ram l'utente medio sta piu' che tranquillo anche se usa in modo intenso l'integrata

Dea1993

laptop con gpu dedicata? no grazie, preferisco di gran lunga le integrate, sopratutto se devo scegliere solo integrata o solo dedicata, non sceglierei mai solo dedicata.
se devo fare qualcosa di pesante uso il fisso, il notebook lo voglio il meno complesso possibile, piu' leggero possibile e piu' fresco possibile.
di recente ho preso un nuovo notebook e tra i requisiti lo cercavo espressamente senza gpu dedicata.

V1TrU

No

Infatti.

DefinitelyNotBruceWayne

Nah, non chiedo fi giocare, ma almeno qualcosa che mi permetta di non stare perennemente con l'acqua alla gola se voglio fare qualcosa che richiede un po' di potenza di calcolo.
Roba in stile Vega 8 o Vega 11 insomma.

Se vuoi giocare si.
Per il resto, usi normali, vanno benissimo.

Senzanima

Ma esiste ancora.

Senzanima

Forse 128/256/512 saranno i bits. Non possono essere i GiB, sono troppi.

Juanito82

in quel caso propenderei più per una pagina web non ottimizzata, se incespica una cpu da pc immagina un cellulare.
la condivisione delle risorse (tipo un dato in ram) se fatta bene ottimizza le prestazioni e l'efficienza, di conseguenza anche l'autonomia, che è il target principe di qualunque sistema portatile.
ripeto, per le prestazioni portabili c'è un mercato a parte, ma ci sarà sempre qualcuno che pretenderà le prestazioni di una ferrari al costo e con i consumi di una 500 ;)

DefinitelyNotBruceWayne

Speriamo che sistemino anche le integrate. Le prestazioni al momento sono ridicole.

Josef Venture

il computer del pastore!! sbav....

Castoremmi

512GB DI VRAM!!!!!!!!!!!!!!!!!!!!!!

c0s87

Nvidia nel 2020 farà uscire la nuova serie con PP samsung, Intel stava solo sondando il terreno, ma è finito con un nulla di fatto.

c0s87

Ti sei perso l'intervista al CEO di intel, dove dice il passo indietro fatto sul 10nm, che invece di essere 2.7x piu denso dei 14nm è solo 1.4x piu denso, quindi se con 2.7x era alla pari ( poco poco sotto ) ai 7nm, non credo siano ancora comparabili,che poi a settembre esce il 7nm+ con EUV su alcuni layer e aumenta il gap in mono concreto.
Sull'architettura è sicuramente un fattore determinante, ma senza il PP puoi fare poco, è una sinergia...

DjL4S3r

TGM...che ricordi... :D

Simone

Aspettate... Ma Non Keller lavora per la divisione GPU?

OnlyKekko

La potenza e la ram utilizzate della scheda integrata sono più che sufficienti per lavorare ad esempio con Photoshop, oltre che ovviamente tutti i software per ufficio, musica, visione di film in streaming, navigazione..
ad esempio io che non gioco con il pc e non utilizzo software 3d non ho bisogno di una spesa supplementare per una grafica dedicata.
E bada bene, sono nella fetta di maggioranza. Chi cerca più fps sui sistemi laptop sono una ristretta minoranza e hanno già comunque dei desktop replacement e macchine ottime come quelle di Alienware, msi, etc.
Quindi perché dovrei spendere di più per un pezzo di hardware che non utilizzo, perdi più sacrificando autonomia e peso?

momentarybliss

E' compito di chi progetta i componenti e le architetture hardware adottare sistemi che variano i consumi in base all'utilizzo

momentarybliss

Io parto sempre dal presupposto che abbassandosi nel tempo i costi dei componenti le soluzioni migliorative debbano essere sempre adottate come standard, così accade anche in ambito smartphone, dove ad esempio i mediogamma possono contare su SOC performanti, un nutrito quantitativo di RAM e di storage, USB tipo C, display OIed FHD+, fotocamere di buona qualità, ecc.
Purtroppo sui laptop ogni upgrade viene introdotto col contagocce, a tal punto che per prenderne uno decente occorre spendere un migliaio di euro oppure aspettare le classiche promo.
Ormai laptop che montano unicamente grafica integrata non sono più sufficienti non solo giochi e rendering, ma nemmeno per navigare su internet

Alex Anyone

Non lo leggevo dai tempi di the game machine! Mi hai fatto sentire improvvisamente vecchio...

LAM

Ed è molto più professionaleeeeee

Davide

anche secondo me potrebbero essere schede grafiche integrate e 128/256/512 potrebbero essere i rispettivi core. Sulle soluzioni AMD più o meno simo lì come conteggio.

Maurizio Mugelli

il problema e' che il nodo determina gran parte delle scelte architetturali, che e' il motivo per cui intel non si e' schiodata da skylake negli ultimi anni, tutte le loro scelte per gli avanzamenti architetturali futuri erano legate ai 10nm e con il fallimento dei 10nm sono riusciti appena a fare backport ai 14nm di alcune feature minori

Tolemy

I 10nm di Intel hanno la stessa densità dei 7nm di TSMC. NVIDIA ha già mostrato che una buona architettura é più importante di un nodo di produzione migliore (fino ad un certo punto).

Maurizio Mugelli

nei tentativi precedenti (i740, larrabee ecc.) il problema principale di intel e' stato l'assenza di un target specifico e la necessita' di seguire le richieste di troppi dipartimenti nelle specifiche del progetto (oltre che cercare di accontentare la volatilita' degli azionisti), cosa che ha gonfiato enormemente il budget e i tempi di sviluppo, arrivando inevitabilmente all'obsolescenza prima ancora che il prodotto fosse finito.

se questa volta hanno una dirigenza del reparto con sufficiente capacita' decisionale e non cambiano bersaglio mille volte durante lo sviluppo secondo ordini "dall'alto" il potenziale e' interessante.

Maurizio Mugelli

ah, l'orrore della concorrenza intendi?

OnlyKekko

E perché?
Al momento i vantaggi sono solo prestazionali, per il resto una scheda grafica dedicata serve a pochi su un laptop e sottrae autonomia aggiungendo peso, rumore e calore.
Ci sono già soluzioni con grafica dedicata, orientati su quelle.

Bastian

Non mi convince perché c'é scritto iDG1 e iDG2, la i sta per integrated di solito...e poi i 128/256/512 successivi io li riconduco ai tagli di memoria. Mi sbaglieró ma io scommetterei su questo.

erdarkos

con tutti quegli RGB avrò almeno 10 FPS in più

Super Rich Vintage

Con tutti i soldi che hanno speso per sviluppare i 10 nm dal mio punto di vista produrranno la prima generazione di GPU "in casa" con la loro tecnologia e nel 2021 passeranno a 7nm magari chiedendo aiuto a Samsung.

Aster

Serve per l'autonomia e meno calore prodotto. Poi le esigenze sono diverse per ognuno.

Luke

Non si era detto che si rivolgeranno a Samsung per le GPU?

Xiaomi

Recensione Amazfit Verge Lite: ottimo smartwatch ma vale la pena comprarlo?

Xiaomi

Recensione Amazfit Bip Lite: display sempre visibile e batteria incredibile

Huawei

Il mare tra foca Monaca, granchi e capre con Huawei P30 Pro | Recensione Case Sub

Sony

Sony Xperia XZ3: a quasi un anno di distanza resiste bene | Riprova