Intel Skylake: la GPU integrata consuma di più

12 Maggio 2015 47

Dopo la notizia trapelata ieri sulla GPU Integrata dei nuovi Processori Intel Skylake, oggi ritorniamo sull'argomento per sottolineare come l'upgrade da parte di Intel sotto il profilo grafico potrebbe portare ad incrementare leggermente i consumi globali dei chip.

A quanto pare i modelli desktop di punta, Core i7-6700K e Core i5-6600K, avrebbero un TDP di 95 Watt, un incremento di 11 watt rispetto ai prodotti dell'attuale linea Haswell, caratterizzati dalla stessa architettura Quad-Core ma costruiti però con processo produttivo a 22 nanometri e con TDP di 84 W.

L'incremento prestazionale dichiarato da Intel del 50% quindi avrebbe un "costo", a nostro avviso non esagerato, ma comunque rilevante.

Il colosso americano da parte sua però sottolinea che nonostante questo aumento, l'effiecienza energetica di Skylake sarà nettamente superiore, tanto da compensare l'introduzione della nuova GPU che in playback HD offrirebbe un miglioramento medio del 35% a livello di durata della batteria.

Rimaniamo sempre in attesa di benchmark e test concreti, probabilmente a Giugno durante il Computex.


47

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Paolo Panzeri

certamente, era solo per fare un esempio di programma che sfruttano un hardware in modo diverso da un altro, ho usato cuda solo per comodità nel nome. (cuda è più accattivante da dire rispetto a cl)

Paolo Panzeri

Se la cantano e se la suonano loro in forma ufficiale sui siti relativi, ma ti dico già che nvidia spara robe del tipo "fino a 10/15 volte più veloce", che non vuol dire 'na beata minch*a a conti fatti. Del buono c'è, e tanto, roba che se io lavoro con preview di infima qualità,magar con alcuni effetti solo di prova su un solo frame, effetti in preview da era 1 bit e un render corposo alla fine, chi ha workstation adatte riesce a gestire tutto in realtime. io non sono videomaker o grafico, sistemo i video delle mie vacanze e mi va bene così. Poi io uso una vga del pleistocene, avessi una 970 probabilmente sarei già alle porte del paradiso. Questo fatto salvo di usare la suite adobe recente col motore mercury, scheda nvidia recente ed i cuda abilitati. Se usi appacaso . exe potrebbe non valere, bisogna vedere anno per anno, scheda per schedda, programma per programma. Le liste delle funzioni son sparse sul forum adobe, ogni versione di mercury nel tempo ha aumenato le doti. ed alcune cose supportate voglion dire maggior velocità, altre qualità. ad esempio lo scaling o crop non trova tanta differenza nella tempistica, quanto nella qualità finale. A titolo indicativo ti posso linkare www. studio1productions . com/Articles/PremiereCS5.htm, non tanto per dire quanto tempo risparmi (a senda di versioni di adobe e dei driver potrebbero cambiare, poi c'è da vedere la qualità. cioè se una quadro ci mette di più ma ha un cc migliore non ci è dato sapere), se ne vale la pena, o altro, ma anche solo per vedere che le gpu lavorano in modo ben visibile. per sentito dire, sentivo di sli-trisli-quadsli di titan (per i cuda a basso costo) più una quadro di bassa fascia (abilitando così le funzioni, tramite una scheda certificata, per sfruttare i cuda spendendo poco), ma non so se son minchi*te da bar o rappresentino il vero. Ps, ho detto cuda, ma ci sarebbe pure un discorso da fare sulle cl di amd.

ifrancesc0

chiaro, era solo per far capire che ci sono settori dove una gpu dedicata è totalmente inutile...

Penso anche a chi usa il pc per programmare...

sardanus

Sisi ci mancherebbe. È solo che per il 90% delle attività informatiche l'accoppiata cpu+gpu potente è un must. Il tuo settore è un'eccezione

GianlucaA

No sto parlando di chiunque usa un programma di grafica o modellazione. Che sia photoshop fino ad arrivare a molti motori di rendering e a vari programmi di modellazione 3d.
Farli girare su dedicata vuol dire perderci almeno il 25% di tempo in più. E spesso il tempo son soldi

NaXter24R

Dipende dal programma. Per Vegas e Premiere sia le GTX che le R9 vanno benissimo. Le AMD su Vegas sono mostruose, gli effetti sono in tempo reale.
Su Adobe vincono le Nvidia dove le GTX fanno benissimo il loro lavoro. Anche AMD va bene ma ho riscontrato qualche problemino a livello di crash. Probabilmente Mercury non è ancora ottimizzatissimo con i driver.
Sulle foto è vero. Ho visto i cambiamenti sia su Lightroom che su CameraRaw dove la scheda video è supportata. La differenza anche li è notevole, e nel mio caso si parla di una 280x

Oliver Cervera

"Laggano pure con prato fiorito" mi hai fatto morire. Ahahahahahah
Hai trovato documenti ufficiali Adobe sul supporto Quadro o FirePro?
Per ora il supporto CUDA e OpenCL è penoso dato che serve solo per i calcoli realtime e non per la transcodifica (rendering).

cipo

se sono salami si..altrimenti no.. :)

Matteo Dabergami

Sorry, pensavo fosse la risposta alla prima domanda

ifrancesc0

Io ho comprato un Mac con i7, faccio rendering audio e gestisco processi audio realtime, della grafica non me ne frega una mazza... ;)

ifrancesc0

ma quando parlate di grafici vi riferite a quei salami che usano Photoshop e Illustrator?

In quel caso basta pure una HD3000...

QualcommFlopDragon810

No.
come prestazioni è inferiore ad una GTX di fascia media.

Matteo Dabergami

Sulle versioni R a 65W
http://www. anandtech. com/show/7648/gigabyte-brix-pro

chojin999

Quando esporti un video dipende da come è scritto il programma e gli algoritmi se sono stati scritti per CPU o GPU. La maggioranza dei programmi fa uso delle unità DSP vettoriali quali le SSE e le più recenti AVX. Alcuni usano anche le GPU sia per effetti che per compressione.

Matteo Dabergami

chojin999

Ma proprio no. Sono anni che vari programmi di editing video supportano l'utilizzo delle GPU sia per il calcolo dei filtri per gli effetti sia per la compressione vera e propria.

chojin999

I transistor non si mettono tanto per metterli. Molti più transistor alla CPU per fare cosa? A parte aggiungere cache L2 ed L3 ..

Matteo Dabergami

L'incremento è tra GT3e di broadwell e GT4e di skylake...per cui l'aumento rispetto ad haswell dovrebbe essere più consistente

Matteo Dabergami

@ redattore
Le fregnacce su altri siti si potrebbero controllare.
Come è possibile che l'incremento di prestazioni della gpu (fino al 50%) aumenti i consumi, se il confronto è fatto tra un SL con tdp 45W è un BW con tdp 47W (dalla slide di Intel)

Paolo Panzeri

non usi molto le vga da "gaming" forse, una quadro la usi eccome. Tipo, sony vegas usa poche gtx ed al massimo 20-40%, premiere già usa un po' di più i cuda delle gtx. Ma se metti firepro e quadro (che laggano pure con prato fiorito) in videoediting stravolgi i tempi (magia della doppia precisione). Quel che dici era vero sul fotoritocco e sviluppo raw, ma ora man mano iniziano ad usare pure lì le vga. prova a fare un cg di un bel filmato risoluto e dal buon bitrate con una quadro k5000 e con una iris integrata, auguri per la prova con iris ;)

GianlucaA

Se non lo usi per programmi che sfruttano anche la gpu comunque di un i7 te ne fai proprio poco. O sei un gamer o sei un grafico che quindi comunque utilizza programmi che sfruttano la gpu e probabilmente apterai anche per anche scheda come le quadro.
Le gpu dedicate secondo me hanno senso solo sulla fascia bassa e media. Nell'alta non ha senso. E' solo un'ottima via per far pagare la cpu di +

sardanus

quando esporto il video chi interviene se non la gpu? E poi anche in fase di montaggio la gpu dedicata aiuta eccome (anche solo nel generare l'anteprima in tempi brevissimi e con buffer tendente a 0)

Stefano

E' anche vero se tu compri un assemblato del HP con i7 4770 cè solo l'integrata. Dovrebbero fare un i7 "normal" con Gpu integrata come quelli che ci sono, e i7 extreme dove non cè l'integrata ma la Cpu ha molti piu transistor. Visto che la Gpu si prende una buona fetta di transistoe. Gli extreme ci son già XD chiamiamoli superior

NaXter24R

Dipende. Puoi sfruttare l'accelerazione GPU.
Lo stesso vale nel foto editing quando vai a ritoccare i raw

ale

Per il video editing non ti serve a niente la GPU, è un lavoro che sfrutta praticamente solo la CPU, e anche per la grafica, insomma oltre al gioco una GPU dedicata serve a gran poco

sardanus

diciamo che chi compra un i7 top di gamma se non gioca, ha altri scopi per poter volere un simile processore (grafica, video editing ecc). Quindi necessita per forza di una gpu dedicata che non faccia da collo di bottiglia al processore. Il ragionamento iniziale potrebbe sembrare solo una polemica ma è sensato

NaXter24R

Beh, sarebbe il primo nel caso :)

deterMINATO

E magari un case più grande, così metto isk110 nel case più grande a modi matriosca...

ale

Non tutti usano il pc per giocare, se non giochi della GPU dedicata non te ne fai nulla...

NaXter24R

O ancora, registrare. Anche le la GPU non prende troppo nel registrare, è comunque una perdita. Invece con la integrata ogni componente fa il suo. La CPU si dedica al gioco, uguale la VGA e quella integrata registra.

NaXter24R

Dremel, riser PCIe ed un pomeriggio libero :D

Lukinho

In realtà con le dx12 nei giochi, potrebbero sfruttare l'integrata della CPU assieme alla discreta, ma chissà se verrà mai messa in pratica questa opzione...alcuni video dimostrativi facevano vedere dei vantaggi di 4-6 fps sfruttando assieme integrata+discreta...il che non sarebbe affatto male! contando che la hai nel processore e non riesci a sfruttarla.

deterMINATO

Beh, a me farebbe comodo per esempio, ci sono case come l'antec isk110 non possono ospitare vga dedicate, e avere una igpu il 50% più veloce della hd 4600 o 5000, mi farebbe comodo.

NaXter24R

Dipende cosa usano dentro al chip.. La nomenclatura è la stessa del glorioso 2600k, quindi saldato, ma sai, ci perdono soldi se lo saldano quindi...

stambeccuccio

Maggiori watt = maggiore consumo = maggiore calore.

Il problema a mio avviso è la dissipazione del "maggiore" calore.

Se l'architettura dei Skylake è in grado di dissipare il maggiore calore, come sembra che sia, il problema non si pone considerato l'incremento di prestazioni della GPU di ben del 50% rispetto alla generazione precedente (Haswell).

CAIO MARI

io ce l'ho nel pro retina 15 i7, va bene in tutto tranne nei giochi, dove cala spaventosamente di frame (abbassando a full hd e riducendo i dettagli se la cava), nell'utilizzo estremo ci mette di più ad elaborare, ma non ho mai avuto rallentamenti o riscaldamenti di vario genere...
ovviamente è concepita per un utilizzo medio-intenso e non per giocare e fare editing 4K...
in alcuni test che ho visto 1 anno fa nel rendering di un video 1080p h.265 come tempi di elaborazione era a metà strada tra la nVIDIA GT650M e la nVIDIA GT750M (sempre sul macbook) rispetto ad una dedicata su un portatile ti garantisce temperature meno elevate a parità di utilizzo (ad esempio quel video)

NaXter24R

Fa comodo se non hai una scheda video e soprattutto nel malaugurato caso in cui la scheda video decente decisse di lasciarti a piedi.
E poi ha altre funzioni che possono risultare comode ad alcuni come QuickSync

GianlucaA

BAH. Io ste GPU integrate sui top di gamma non li capisco. Vorrei sapere quante persone hanno i7 desktop e non hanno la GPU dedicata. Avrebbero un minimo di senso se a basso carico andasse l'integrità come in molti portatili ma cosi non é.

NaXter24R

Io son curioso di vedere due cose:
1. saldatura o pasta del capitano?
2. lato CPU quanto meglio nella vita vera e non nei bench?

deterMINATO

Normale, per ottenere delle migliorie in certi ambiti bisogna sacrificare qualcosa.

NaXter24R

Se bevi tante birre, ma tante, e prendi una botta in testa si. Altrimenti no.
Ora sono al livello delle APU AMD

Mr.Matto

Intel, premio GAC per Skylake :D

QualcommFlopDragon810

No

tecnologiaperta

ma le IRIS pro sono integrate in qlualche i7\i5 desktop? se si, come vanno? meglio di una GTX di fascia media?

QualcommFlopDragon810

è giustificato

maurizioxxoo

speriamo che escano presto dispositivi in commercio

Klaus88

11W in più per il 50% in più di EUs e capacità di calcolo di punta nettamente maggiore? Normale.

La (mia) postazione da Creator: dal Desktop MSI al Monitor 5K Prestige

Recensione Mac Mini Apple Silicon M1, ho QUASI sostituito il mio desktop da 2K euro

Recensione HONOR Router 3: il miglior Router Wi-Fi 6 qualità/prezzo

Apple Silicon è il futuro di Apple: da desktop a smartphone, andata e ritorno