Apple MacBook Pro 16", arriva la variante con GPU Radeon Pro 5600M da 8GB HBM2

15 Giugno 2020 88

Il MacBook Pro da 16" è adesso disponibile all'acquisto con la nuova scheda grafica Radeon Pro 5600M con 8GB di memoria HBM2.

La potente variante del portatile di casa Apple si aggiunge alle due soluzioni con Radeon PRO 5500M e Radeon Pro 5300M già presenti sin dal lancio del prodotto lo scorso novembre. La GPU di casa AMD offre prestazioni migliorate grazie alla presenza di ben 40 CU - contro le 24 unità della Pro 5500M - e del passaggio alla memoria di tipo HBM2, rispetto alla precedente GDDR6.

A seguire le principali caratteristiche.

AMD RADEON PRO 5600 8GB HBM2 - CARATTERISTICHE
AMD Radeon Pro 5600M
  • Prestazioni di calcolo eccezionali - Dotata di 40 unità di calcolo, la GPU AMD Radeon Pro 5600M offre fino a 5,3 TFLOPS di prestazioni in virgola mobile a singola precisione (FP32).
  • Memoria HBM2 - 8 GB di HBM2 con 394 GB/s di banda larga forniscono velocità di trasferimento ultraveloci per alimentare le applicazioni pro ad alta intensità di dati.
  • Architettura AMD RDNA - L'architettura AMD RDNA offre prestazioni eccezionali abbinate ad una notevole efficienza energetica ottimizzata per le piattaforme di calcolo mobili.

La nuova versione è già disponibile all'acquisto sul sito ufficiale e può essere selezionata direttamente in fase di acquisto con un incremento sul prezzo di 875 euro rispetto alla configurazione base.

VIDEO


88

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Giuseppe Desmo Chiarappa

ragazzi ma con questa scheda si potrà giocare agli ultimi titoli o no ?! E vero che equivale a una 2060m ?!

Giuseppe Desmo Chiarappa

Ma questa scheda video a quale nvidia rtx corrisponde?! Grazie ...

Ho preso er muro

Fin quando ce stanno i fessi fratelllí

darthrevanri

Ti aggiorno ora visto che è uscito il video di maxtech, dove fa vedere che non c’è throttling e che va quasi il doppio di una 5500m superando anche la Vega 56 in unigine heaven, quindi i 5,3 teraflops sono rispettati alla grande direi.

B!G Ph4Rm4
ho letto velocemente e pensavo fosse un bench che, visto il nome, sfruttava i tensor core

Sì dovrebbero essere con i dati a bassa precisione

1) Probabile
2) Mmh si probabile, non ho mai inteso che HBM2 su MBP = 4 volte le performance, ho solo detto che a parità di potenza del chip HBM2 > GDDR6
3) si, sostanzialmente d'accordo, anche se dovrebbe essersi abbassato il costo

Nvidia le usa solo sulle tesla (che, appunto, sono pensate per fare machine learning e stare nei data center), eppure schiaccia amd in tutto e per tutto anche senza hbm2 (la titan rtx, senza hbm2, distrugge qualunque scheda amd in commercio).

Beh alla fine se vai a vedere la V100s (ora è uscità l'A100 che è qualcosa di fenomenale) praticamente è il top in tutto per NVIDIA, ha le massime prestazioni in ogni campo.
Il problema di AMD infatti lato GPU è che, a differenza di Intel, NVIDIA non ha mai dormito e la superiorità in R&D e $$$ si è fatta sentire, per questo cerca di abbozzare con altre soluzioni, sperando che non faccia cose ridicole con la nuova arch.

In tutte le altre schede, anche quelle comunque molto costose (3000€ di titan) usa le gddr6

E per quanto mi riguarda potevano mettercela la HBM2 visto che di certo non ci usi photoshop. Tipo con la Titan V.

E le performance in qualunque task realistico per un laptop o una workstation (e non un centro di calcolo) sono la ragione per cui faccio questa scelta.

Beh è chiaro. Sicuramente non prenderei nemmeno io una scheda da 10 tflop con HBM2 al posto di una con 20 tflop con GDDR6, sto solo confrontando schede di potenza simile.
Comunque ripeto, bisognerebbe vedere i test reali per capire come si comportano in contesti del genere perchè la sicurezza non ce l'ho nemmeno io, ho fatto solo ragionamenti su ciò che conosco.

Gark121

1) la potenza: ho letto velocemente e pensavo fosse un bench che, visto il nome, sfruttava i tensor core (che hanno potenza equivalente, 130tflops pari). Evidentemente sbaglio.
2) guarda, non mi interessa tutta quella roba. Nel senso, molto bella, molto tecnica, ma come ho detto, la realtà è un'altra. Fai una prova diversa: se credi che aumentare la velocità della memoria cambi drasticamente le performance, prova a occare e poi downcloccare la vram. Puoi cambiare la velocità circa del 20%, e sai cosa cambia? Qualche punto percentuale. 10% di OC su core e - 10% di clock sulle ram, e magicamente la gpu andrà meglio, e non peggio, che stock.
Se non scrivi un codice appositamente per evidenziare la cosa, non cambia granché.
Con ciò, non sto dicendo che le hbm2 non sia meglio delle gddr6, mica sono d e m e n t e, sto solo dicendo che non fanno la differenza che vedi nei numeri dei bench, un po' come un ssd sata vs uno Nvme.
E, da quest'ultimo concetto (non fa la differenza che sembra, ma cambia di pochi punti percentuali), se ne desumono 2-3 cose che sto cercando di dire:
1) qui non c'è una hbm2 perché pensano di guadagnare tante performance, ma perché devono risparmiare calore e dimensioni sul pcb
2) non ti aspettare differenza sostanziali tra gddr6 e hbm2 in task reali sensati per un laptop (che, ripeto, non è un data center)
3) considerando il costo delle hbm2, esse non convengono: meglio memorie gddr6 e un chip più potente quando il prezzo conta

Detto ciò, le "top gamma" hanno tutte hbm2... Anche no. Nvidia le usa solo sulle tesla (che, appunto, sono pensate per fare machine learning e stare nei data center), eppure schiaccia amd in tutto e per tutto anche senza hbm2 (la titan rtx, senza hbm2, distrugge qualunque scheda amd in commercio). Non sarebbe possibile farlo se le hbm2 fossero realmente dei deal-breaker. E appunto, le usa solo nelle gpu in cui il prezzo è veramente irrilevante o possono fare dei compiti estremamente particolari in cui la memoria diventa critica. In tutte le altre schede, anche quelle comunque molto costose (3000€ di titan) usa le gddr6. E anche i rumors su ampere sono coerenti: nessuna delle gpu diverse dalla tesla a100 avrà le hbm2.

Perciò, concludendo, se devo scegliere tra spendere meno di 5000€ in una gpu, prendo tutta la vita una gpu senza hbm2 (ma più potente), rispetto ad una con le hmb2 ma meno potente. Il tutto ovviamente oggi, non ho idea di cosa succederà in futuro. E le performance in qualunque task realistico per un laptop o una workstation (e non un centro di calcolo) sono la ragione per cui faccio questa scelta.

B!G Ph4Rm4
v100 ha gli stessi TFLOPS della titan

La Titan ha 16 tflops vs i 14 della V100, non sono uguali. A quanto so i driver inoltre sono gli stessi se parliamo di calcolo.

chiedo casi di uso reali per un macbook: mi parli di allenamenti per le reti neurali. Direi che abbiamo detto tutto

Vorrei portarti altro oltre alle risposte dell'utenza sui forum, ma purtroppo anche cercando non esistono test fatti dai siti sulla questione. Comunque se cerchi o sui forum o su reddit qualcosa trovi.

vedrai che all'atto pratico, riuscirai sempre a mandare al 100% la cpu o la gpu (inteso come core che calcola), ergo, semplicemente, questo "grosso" bottleneck nella velocità della memoria non è un problema

Ma perchè non c'entra nulla il grafichino sul task manager.
Tu puoi anche vedere 100% ma non significa che il 100% dei core stiano lavorando. Possono essere attivi ma non significa che stiano calcolando.
Per vedere effettivamente cosa succede dovresti fare il profiling dell'applicazione (tipo tramite Visual Studio col plugin NSight Compute se non ricordo male il nome) e vedere effettivamente quanti stanno lavorando.
Il problema degli spostamenti di dati tra host e device (ovvero tra RAM di sistema e VRAM) sono così rilevanti che NVIDIA ha introdotto gli stream appositamente. Sostanzialmente consistono nel poter creare code di lavoro indipendentemente in modo da poter spezzare il lavoro.
L'utilizzo principale è nel mandare i dati sulla memoria della GPU a pezzetti in modo che arrivato il primo pezzetto si può andare già a calcolare senza dover aspettare il trasferimento completo.
Se tu lanci un kernel con delle copie in memoria dei dati che poi devono essere lavorati, quei core si accenderanno ma finchè non sono arrivati i dati non lavorano.

Proprio perchè la velocità delle memore è assolutamente un bottleneck nella computazione (o comunque in moltissimi casi), decisamente direi.
Giusto per capirci di quanta differenza facciano:

Device : Tesla K20c
Time for sequential transfer and execute (ms): 7.101760
max error : 1.1920929e -07
Time for asynchronous V1 transfer and execute (ms): 3.974144
max error : 1.1920929e -07
Time for asynchronous V2 transfer and execute (ms): 3.967616
max error : 1.1920929e -07

Quasi 2x di speedup. E ho visto anche risultati migliori.

Ora, non so quali algoritmi usino i vari programmi di video editing, ma credo che qualcosina con i vettori e le matrici la facciano, e considerando quanto possono essere grandi i file a occhio non credo che la velocità delle memorie non conti nulla, anzi.

Se devo scegliere tutta la vita HBM2 insomma (poi ovvio che il chip dovrebbe anche essere all'altezza, ma quello è un altro discorso).
Diciamo che probabilmente se non lo spremi per bene con lavori pesanti possono essere uguali, al contrario probabilmente degli incrementi prestazionali ci sono.
Io cercando ho letto di utenti che ci fanno grafica che parlano di migliori prestazioni, anche sensibili, con schede simili ma equipaggiate con HBM2. Ovviamente potrebbero essere cavolate e ci sono mille fattori in gioco, quindi manco te le linko, ma giusto per dovere di cronaca lo dico.
Anche perchè, se non fosse così, come mai le schede di punta montano tutte HBM2 (ormai HBM2e)?

B!G Ph4Rm4

La Pro 5600M ancora non è presente su notebookcheck...

Gark121

Mica ho detto che3 non possa essere reale (oddio, 50W si, è irreale, ma probabilmente entro la sessantina sta), ho solo detto che 80W di gpu dentro un macbook non li puoi mettere.

nick@127.0.0.1

Gli anni spesi alla scuola di fuffologia danno i loro frutti.

darthrevanri

Per la differenza tra una rtx 2060 mobile e una max Q solo in linea teorica sono simili visto che il sito dove prende spunto fa semplicemente una operazione matematica sui dati scritti in GPU Z o driver la rtx 2060 max q i dati dichiarano 975 - 1185 MHz mentre la rtx 2060 mobile 960 - 1200 MHz come vedi ci sono solo 15mhz di differenza TEORICA, MA all'atto pratico una 2060 90W raggiunge facilmente 1,5ghz mentre la max Q al massimo raggiunge i 1,3ghz fermandosi anche a 1,25ghz Quindi la differenza di 200+ mhz NON possono essere 0,05 teraflops, basta avere 2 neuroni in testa e fare 2+2.

darthrevanri

Ho letto che è 50W di tgp, quindi si avvicina piu' ai miei 65w previsti che agli 80w di Fabio, poi ho letto che il massimo di frequenza è circa 1ghz, credo che 1ghz vs 2ghz della versione Desktop (rx 5700xt) e non 5600xt visto che ha 2560 SP, puo' consumare poco, in virtu' anche delle HBM2 che hanno messo per consumi...

Gark121

si, ma questo 90W di gpu non riesce manco a tenerli accesi, altro che dissiparli. Ha un alimentatore da 87W LOL

Ivan Clemente Cabrera

fammi indovinare...idraulico

Alex

Macchina spettacolare, dal prezzo folle per le mie tasche.

darthrevanri

io sto parlando di 65w o giu di li, tu stai parlando di 80w, quindi gia' questo puo' generare una discussione sterile senza prove o recensioni, aspettiamo e vediamo chi ha ragione, ricordo che è un macbook da 16 pollici non quello da 13, ci sono asus rog zephyrus spessi come il macbook pro ma da 15 pollici senza cornici che dissipano tranquillamente 90w di solo gpu.... anche l'msi gs65-66

darthrevanri

ho scritto in TUTTE le mie risposte: NOTEBOOKCHECK, te lo scrivo in grande cosi magari lo vedi...

darthrevanri

TU oltre scem0 sei anche dislessico? ha detto 2060m+15% uguale alla 5600m +15% uguale alla 2070m

Barone Von Zeppeli

Ot ma non troppo.
Mi è stato chiesto un consiglio per un portatile sui 500 euro, o poco di piú. Uso da scuola, quindi niente di pesante (word, power point, prendere appunti a scuola, e cose cosí) cosa posso consigliargli da amazon, Media World o unieuro?

Gark121

1) la v100 ha gli stessi TFLOPS della titan, ma driver migliori e un'architettura ottimizzata. Comunque vabbè, facciamo finta il grosso della differenza derivi dalle memorie, stiamo parlando di una parte del 14%. Ossia, all'atto pratico, pochissimo.
2) chiedo casi di uso reali per un macbook: mi parli di allenamenti per le reti neurali. Direi che abbiamo detto tutto.

Il resto del discorso è francamente insensato. Non c'è un altro modo per dirlo, ma la realtà non è quella. Prendi un qualunque programma reale (non un algoritmo scritto appositamente), professionale quanto ti pare (montaggio video, modellazione 3d, giochi, quello che vuoi purché sia qualcosa che ha senso fare su un laptop sottile e leggero), e vedrai che all'atto pratico, riuscirai sempre a mandare al 100% la cpu o la gpu (inteso come core che calcola), ergo, semplicemente, questo "grosso" bottleneck nella velocità della memoria non è un problema.
Vuoi un esempio di dove c'è realmente un problema? Satura la ram in un programma e il PC rallenterà tantissimo con la CPU che gira al 10-20%, perché il disco dove swappa è troppo lento come memoria per star dietro alla CPU. Anche se ti trovi ad avere un gioco che richiede più Vram di quella che hai, avrai stutter continuo a la gpu che non va al 100%.
Ma in nessun task reale trovi un caso del genere, per cui questo "grosso collo di bottiglia", in realtà è qualcosa che i software commerciali (e pure se uno volesse scrivere un software deve pure tenere in conto che le hmb2 sono rarissime da trovare, quindi andrebbe a limitare la propria compatibilità facendoci conto) riescono abitualmente ad aggirare. Ed è anche la ragione per cui all'atto pratico le hbm2 non hanno mai fatto nessuna differenza sensibile in nessun applicativo realisticamente usato su una macchina "consumer" (perché questo è), anche nel caso si decidesse di usarla come workstation.
Non escludo che sulla terra esista qualcuno che possa pensare di sfruttare la hbm2 anche su un macbook, si tratta di casi singoli contro la stragrande maggioranza degli utenti, che da quella velocità extra non avrà alcun beneficio.
Lo ripeto, il motivo per cui c'è l'hbm2 qui è che devono cercare di abbassare il tdp, e risparmiare consumi e ingombri delle VRAM aiuta in questo senso. Ma l'impatto in termini di performance dirette sarà assolutamente risibile, come è sempre stato

Andrea De Filippo

Secondo me la maggior parte degli utenti confonde il ruolo di questi prodotti, sono per produttori di contenuti. C'è un grosso mercato a cui non interessa quanto costi il suo strumento di lavoro per il semplice fatto che gli permette di avere introiti talmente alti che facilmente ammortizzerebbe la spese di queste macchine appunto Pro.
Sapete quanto fa comodo a chi produce video in ambito pro non dover avere HDD/SSD esterni appunto perchè qui possono optare per tagli importanti? o quanti soldi fa risparmiare un software nato e creato per quel tipo di hardware, appunto un abito su misura. Per il consumer esistono validissime alternative, ma appunto parliamo di due mondi paralleli che non si incontrano mai.
Se vi facessi vedere quanto costa una connessione in fibra pregiata vi sentireste male se paragonata a un consumer gigabit domestica, ma appunto sono due mondi diversi, nel primo caso serve una banda dedicata e garantita anche in disaster e con tempi di ripristino calcolabili in termini di ore, nel secondo caso ci fruisci di serie tv in 4k. Se la serie non si carica velocemente non muore nessuno se il server di una banca dati va lento è un serio problema. La velocità e corsia preferenziale ha un serio costo.
Poi esiste il compromesso che fa al caso personale ma parliamo sempre di ambiti individuali su cui il cliente ragiona.

Fabio Biffo

Certo che la curva di consumi e prestazioni non é lineare.
Infatti, la 2060 mobile che hai citato ha un TDP di ben 115W per sprigionare circa 5 Tflops, ed é per questo spesso limitata a 90W per i portatili gaming con dei sistemi di raffreddamento di un certo spessore.

Mi spieghi come fai a raffreddare anche solo 80W solo di GPU in un MacBook??

Anche se lo buttassi nel azoto liquido, ci sono comunque dei limiti nel power delivery. Non é minimamente realistico aspettarsi queste prestazioni in modo COSTANTE E REALE (ovvero oltre 5/10 secondi) su un portatile del genere, almeno oggi con RDNA a 7nm.
In un futuro a 5/3 nm con RNDA 2/3 magari sará fattibile.

Ricky

Sul modello con i9 l’upgrade prima costava 250 euro, ora è sceso a 125.La cosa buffa è che se metti la nuova scheda video appena introdotta sulla versione base con i7 l’upgrade costa 1000 euro e non 875..

B!G Ph4Rm4
Gark121

No, non sono i chip ad essere migliori è che semplicemente le hmb2 non fanno nessuna differenza pratica. Si, lo so da solo che avere più bandwidth è sempre meglio, ma esiste un limite oltre il quale un incremento di bandwidth è semplicemente trascurabile rispetto ad altre cose tra cui driver, architettura, api proprietarie etc etc etc. Quindi di fatto il tuo incremento teorico non si traduce in un risultato pratico, ed è quello che sto cercando di far presente. Poco mi interessa che se scrivo un codice io per mettere in crisi la vram le hbm2 andranno meglio, i software (anche quelli professionali) non sono fatti per mettere in crisi la vram, anzi. E quindi, all'atto pratico, gireranno esattamente uguale (o con differenze trascurabili) con hbm o gddr6, rendendo tutto il discorso "teorico" (che è verissimo in sé) del tutto fine a sé stesso e totalmente in conflitto con la realtà.
La tesla v100 non elabora più dati della titan rtx solo perché ha le hmb2, ma perché ha fisicamente più cuda e tensor core (non a caso, parliamo di circa 10% di differenza...), e un'architettura totalmente diversa fatta per massimizzare le performance in quello scenario, mentre la titan è de facto una gpu da gaming con dei driver da gaming utilizzata fuori contesto.
Tornando a questo Mac, son pronto a scommetterci, le hmb sono presenti solo per abbassare la dimensione e il consumo di calore della gpu, non perché qualcuno si aspetti di cavarne qualche beneficio in termini di performance.

B!G Ph4Rm4

Mi tiri fuori le fonti per quello che dici? Perchè le mie non riportano quello che riporti tu

B!G Ph4Rm4

Si si su questo ti do perfettamente ragione, il mio discorso iniziale parlava ovviamente a livello di prestazioni teoriche.
Dopo è chiaro che se dopo 10 secondi esplode e va alla metà della frequenza i 5.3 tflop non contano nulla.

B!G Ph4Rm4

Perchè probabilmente i chip che hai usato sono migliori rispetto a quelli AMD tanto da vanificare il vantaggio delle memorie.

Ergo vorrei un esempio di un singolo contesto pratico e specifico in cui ci si aspetta un contributo sensibile

In qualsiasi caso hai un contributo sensibile perchè le HBM2 sono nettamente più veloci e hanno meno latenza delle GDDR.
Il confronto 1) è difficile perchè se non ricordo male l'unica attuale GPU NVIDIA con HBM2 è la V100/A100 che non ha controparte senza HBM e quindi è impossibile fare confronti (ma se vai a vedere qui già noti che la V100 nonostante sia "meno" potente della Titan RTX processa più dati quasi sicuramente per merito delle HBM https://lambdalabs.com/blog/titan-rtx-tensorflow-benchmarks/), 2) perchè non serve visto che di base le HBM2 sono più veloci delle GDDR, quindi è chiaro che più o meno ovunque performino meglio.
A occhio nei software di grafica dove vengono trasferiti gb di dati ogni volta credo proprio che siano molto utili, cercherò inutilmente dei benchmark tipo con Premiere perchè la risposta è scontata ma giusto per quantificare.

Per il resto, stiamo davvero parlando dell'acqua calda.

Gark121

Ecco, questa è la ragione per cui guarda i TFLOPS per valutare come andrà una gpu è una cosa senza senso: https://uploads.disquscdn.c...
Questo è timespy (solo punteggio grafico, niente cpu), un benchmark tra i più efficienti nello sfruttare tutto quello che gli dai in pasto, e puf: la 2060 max q, che dovrebbe essere vicinissima alla 2060 mobile normale, in realtà va il 20% in meno. E la 2070 max q, che pure come TFLOPS sta vicina alla versione mobile, in realtà fatica a battere la 2060 max q e non riesce a pareggiare con la versione laptop normale.
Questo perché i TFLOPS massimi su un modello mobile sono calcolati durante il boost, ma quel boost è insostenibile con qualunque laptop, oltre al fatto che son di per sé una cosa fuorviante quando confronti due architetture diverse (che a pari potenza bruta "da benchmark" potrebbero performare in modi molto diversi in casi reali).

Gark121

"applicativi professionali" non è una risposta "specifica". Voglio un esempio pratico, un caso di uso, non parole generiche buttate a caso, qualcosa dove posso cercare un benchmark o un test e vedere una differenza. Perché tutti gli "applicativi professionali" che ho usato io, dal Cad al video editing, delle hbm2 se sbattono altamente il c a z z o e all'atto pratico gira molto meglio con una gpu nvidia (a pari potenza bruta) senza hbm che su una amd con. Ergo vorrei un esempio di un singolo contesto pratico e specifico in cui ci si aspetta un contributo sensibile, o, altrimenti, smetterla di leggere "le hbm2 faranno una differenza" quando poi all'atto pratico non è mai così.

B!G Ph4Rm4

Sbagliato.
Praticamente ogni programma professionale ne può trarre vantaggio che vada oltre Paint, perchè HBM ha delle prestazioni nettamente superiori e il collo di bottiglia oggi spesso nel GPU computing è la memoria e non il calcolo.
Scarica CUDA o installa OpenCL, scriviti due kernel in C e vedi qual è la parte della computazione che prende (nettamente) più tempo (in molti casi, non tutti ovviamente): è il trasferimento dati.
Per questo puoi programmare cache e memorie più veloci sulle ultime proposte di entrambe (NVidia di sicuro).

Ma il punto non erano le memorie. A parità di prestazioni (e ottimizzazioni e blablabla) le memorie aiutano, ma comunque se vai su techpowerup o guru3d, prendi le classifiche prestazionali sui vari giochi, e noterai che praticamente viene rispettato l'ordine delle potenze in tflop di quelle schede.
Poi ovvio che i tflop non dicono tutto e c'entrano anche i fattori architettura/memoria/ottimizzazione/che ne so. Ma comunque danno un'ottima indicazione, non è che se non ti porta puoi dire che è sbagliata, tu hai confrontato le 2060 desktop con la Radeon in versione mobile.

Pip

"incremento sul prezzo di 875 euro rispetto alla configurazione base."

Boh, non so come commentare...

B!G Ph4Rm4
Puoi citarmi un singolo caso realistico (non centri di calcolo, è un laptop) in cui abbiano fatto una qualche differenza?

Applicativi professionali appunto, a parità di tflop non c'è storia, e te lo dico avendo scritto programmi in CUDA che quello che ti ammazza le prestazioni è il trasferimento da host a device e device ad host.
Poi è ovvio che HBM da sola non basta, ma a se le prestazioni saranno quelle dichiarate, la memoria darà una grossa mano.

Gark121
Alex........

Si ok, e tra un pò ci sarà il refresh con i core di 10th gen, wifi 6 eccecc... Un presa per i fondelli insomma...

D@VIDS

ahahhaahah

remus

Ci sei o ci fai? Stava parlando della rtx 2060 vs la max q quando ha parlato di teraflops... svegliati

darthrevanri

no, quello che dici è sbagliato, hai mai sentito parlare della curva di efficienza massima? una rtx 2060(mobile) con 90w riesce a generare 5 teraflops circa, a 165w(desktop) fa "solo" 6,5 teraflops, salendo di Watt mica sale proporzionalmente il clock, altrimenti sarebbe facile, basterebbe fare una 1650 da 300w ed ecco hai una 2080....ma non funziona cosi, una 5600m pro con 2500 e passa di Stream Processor(quindi uguale alla 5700xt),puo' fare 5,3 teraflops con il 60% del clock di una 5700xt, da una prima analisi è perfettamente realistica la cosa, secondo me consuma circa 65w

io sul sito lo vedo uguale, 250€ in più della 5300 del modello base

Ivan Clemente Cabrera

non so in che mondo vivi ma la maggior parte del software proffesionale usa la touchbar con comandi contestuali, vedi xcode, final cut, logic, adobe, etcc

Fabio Biffo

Infatti farà come va di moda ultimamente sulle CPU.
Ultra mega boost alla massima frequenza per 5-10 secondi, e poi dimezza la frequenza.
Una RDNA 7nm 5700XT fa sui 9 TFlops reali e costanti fa sui 220W.
Spiegami come si fanno a dissipare anche solo 100W di GPU contando carico anche sulla CPU in un MacBook.
Neanche con le ventole che urlano a 11000 giri col la CPU e GPU che fondono a 110 gradi ottieni quelle performance in modo reale e costante.

Per una manciata di secondi può darsi, ma non ci si fa niente di serio.

darthrevanri

non penso che vada in throttling la gpu, quello che mi preoccupa sono le temp 100 gradi sempre.....

LoZio
Fabio Biffo

Effettivi sono quelli proprio no.
"Fino a"
Leggi risposta sopra

Fabio Biffo

Si. Leggi risposta sopra.

Fabio Biffo

Eh si. "Fino a"
Posso anche mettere una 2080 TI su un MacBook Air, ma se poi va in throttling dopo 1 secondo e scende di clock non ci fai niente.
Cosa mi serve la potenza di una 2080 TI se dopo 1 secondo di utilizzo é come se avessi una 1050?

Cave Johnson

Ma perché Apple ha scelto AMD invece di NVIDIA?

AllBlack

Peccato sia disponibile solo come modifica alla variante top e non come proposta “base”.
Inoltre le 900€ necessari all’update non sono certo pochi...

andcore

L'occhio umano distingue fino a 300 ppi ad una normale distanza di visione.
Su un 17" fullhd sei a 130 ppi. Si vede oggettivamente peggio, non è un'opinione mia soggettiva.
Che consumi meno e sia più difficile gestire dal pc siamo tutti d'accordo, ma la differenza, per chi ci vede bene, è notevole.
Io ho il tuo stesso macbook ma quando passo ad un 15" fullhd me ne accorgo subito.

D@VIDS

tu con il notebook ci lavori o lo usi per scorrere tra le emoji?!
Quella barra è inutile scomoda e non serve a niente se non a fare i fighi e consumare batteria

Apple annuncia i processori proprietari per Mac basati su architettura ARM

macOS Big Sur ufficiale: benvenuti processori Apple

iPadOS 14 ufficiale: ecco come cambia iPad

iOS 14 ufficiale: tutte le novità, widget inclusi