Apple Silicon M1 Pro e M1 Max ufficiali: i SoC dei nuovi Mac promettono faville

18 Ottobre 2021 496

Nel corso dell'evento Unleashed di questa sera (seguilo su Twitch con noi!), Apple ha annunciato non uno, ma ben due nuovi SoC della famiglia Apple Silicon: M1 Pro e M1 Max. Si troveranno a bordo dei nuovissimi MacBook Pro da 14 e 16", presentati dalla società sempre questa sera.

M1 PRO

M1 Pro è il primo "Pro chip" della famiglia Apple Silicon. Il chip è molto più grande del regolare M1 che abbiamo visto finora, e include una novità architetturale piuttosto interessante - la GPU è integrata nel chip, e condivide la memoria con il resto del sistema. La "RAM" (o meglio memoria unificata) può arrivare a 32 GB massimi, e la banda massima teorica è di ben 200 GBps, tre volte di quella di M1.

In M1 Pro ci sono 33,7 miliardi di transistor, più o meno il doppio rispetto a M1; la CPU arriva fino a 10 core (otto ad alte prestazioni e due a basso consumo energetico) con prestazioni fino a +70% rispetto a M1 classico, mentre la GPU fino a 16 core (2.048 EU) e promette prestazioni doppie rispetto a M1. Sempre lato GPU, le prestazioni sono fino a sette volte superiori quelle di Intel Core i7-11800H octa-core, dice Apple.

M1 MAX

M1 Max è sostanzialmente una versione ancora più potente di M1 Pro. Per cominciare: raddoppia la memoria unificata (64 GB) e quindi la sua banda massima, ben 400 GBps. Il chip ha CPU fino a 10 core, mentre la GPU si spinge ad addirittura 32 GB. Apple dice che in generale M1 Max è quattro volte più potente di M1. La conta dei transistor raggiunge ben 57 miliardi: è quindi il chip più grande, oltre che più potente, mai creato dalla Mela e di gran lunga. M1 Max permette di connettere fino a quattro display allo stesso dispositivo.

Apple ha dichiarato molti dati prestazionali comparativi per M1 Max. Citiamo:

  • CoreML: tre volte più veloce rispetto ai più potenti Mac con Intel Core i9.
  • Final Cut Pro: fino a 5 volte più veloce in alcune operazioni.
  • Transcodifica filmati ProRes in Compressor: fino a 10 volte più veloce.
  • Cinema 4D: oltre tre volte più veloce.
  • Prestazioni CPU fino a 2 volte migliori rispetto ai MacBook Pro di precedente generazione con CPU Intel Core i9.
  • Prestazioni CPU per watt: fino a 1,7 volte migliore rispetto a M1 (stesso dato per M1 Pro)
  • Prestazioni GPU fino a 4 volte superiori rispetto a M1
  • Prestazioni GPU "comparabili" a quelle di una NVIDIA RTX 3080 consumando fino a 100 W in meno.

I due chip condividono molte altre caratteristiche, come per esempio il Media Engine che in questa iterazione è più veloce ed efficiente, e include acceleratori specifici per la decodifica di formati ProRes. Questo significa che il chip è in grado di gestire più flussi video 8K e 4K consumando pochissima energia. M1 Max ha una velocità di codifica video doppia rispetto a M1 Pro, e ben 10 volte rispetto al precedente MacBook Pro da 16".

Il SoC include anche un coprocessore AI Neural Engine a 16 core, un driver display dedicato che permette di connettere fino a quattro schermi allo stesso sistema e molteplici controller Thunderbolt 4. Non manca nemmeno il chip di sicurezza Secure Enclave di ultima generazione. In entrambi i casi il processo produttivo è a 5 nm.

macOS Monterey sarà l'elemento chiave lato software per sfruttare appieno la potenza di questi nuovi chip. Per il momento Apple non ha rilasciato molti dati solidi, ma ha anticipato che i Mac si risveglieranno dallo standby all'istante, e che l'intero sistema è incredibilmente veloce e reattivo. Sempre il termine "incredibilmente" è stato usato per descrivere l'autonomia delle nuove macchine. La nuova versione del sistema operativo sarà distribuita a partire dal 25 ottobre.


496

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Zer0

Io parlavo di display PC/Notebook, non smartphone. Su smartphone può anche essere, visto che le frequenze alte sui display sono una cosa relativamente nuova per questo settore.
Poi lo voglio proprio vedere un display Oled con performance migliori di un TN o Fast IPS da gaming a 144, 240 o 360Hz. Non esisterà mai, a causa dei limiti fisici dei display oled...ma vabbè.

Simone Radice

Ma su questo posso anche essere d'accordo. Il mio ragionamento era sui consumi/efficienza/potenza.
So bene la differenza tra uno Xeon e un i9... Per dire ....

Simone Radice

Guardati i test sui Display a 120hz di Samsung e quelli invece dell'iPhone 13... Magari impari qualcosa ...;)

pepp088

il dato è semplice da capire, la potenza espressa dalla IGPU del SoC apple riesce ad eguagliare una 2080 ( la 3080 era un refuso nella fonte corretta poi ) per potenza espressa, solo consumando decisamente meno.

Zer0

Questa è la cavolata dell'anno.
"finti" xD
Guardati i test approfonditi dei monitor da 144-240Hz e vedi se sono finti...

Zer0

Hem, ci lavoro sui server...
L'hardware server è generalmente avanti di 1 anno o più sulle tecnologie dei PC, perché richiede una qualità di produzione, performance, stabilità e ottimizzazione energetica che i normali PC si sognano.
Il mio "paragone" era con le CPU server. Nessuno usa CPU ARM sui server, per svariate ragioni, tra cui la retrocompatibilità, reperibilità e disponibilità dei driver hardware e software, che sono la base per un server (anche se molti si dimenticano questo particolare o fanno finta che non ci sia).
Poi aggiungiamoci che gli OS e pacchetti software first party non sono ancora compatibili e compilati al 100% con e per ARM, Mac incluso. Ma non penso tanto ai software delle grandi aziende, quanto più ai software opensource, che spessissimo sono usati/ripresi anche da quelli professionali o di grandi aziende.

C'è tutta una serie di ragione per cui rimango allucinato da alcuni utenti di HDBlog che sembrano completamente ignari di tutte queste cose...
ARM è acerba, non solo perché sta subendo ancora un GROSSO processo di miglioramento e ottimizzazione, sia prestazionale che di consumi, ma anche perché il contorno (il resto del mondo hardware e software), fino ad oggi, se n'è praticamente infischiato di questa architettura.
Dire il contrario è semplicemente nonsense e una dimostrazione di supponenza basata su ignoranza.

pietro

E sei passato da peg Perego a Clementoni

roby_go

Brava Apple , tanto di cappello!

L'avocado del Diavolo

Io non mi accontento.
Altrimenti potevo scegliere benissimo un Razer.

Pistacchio
efremis

Ciao ciao concorrenza

opt3ron

Sono prodotti a 5nm , indubbiamente a parità di consumi vanno di più ma qui ti fanno credere cose non vere , sono sicuramente i miglior portatili in commercio quando usi la batteria ma qui li confrontano con dei notebook trasportabili quando usano la batteria sapendo benissimo che sono nati per essere usati attaccati alla rete elettrica e che con la batteria le prestazioni crollano.

pietro

premesso che non sono mai stato simpatizzante apple, ma tutt'altro, però ci vuole obiettività, ed obiettivamente la famiglia m1 è 5 o 6 passi avanti a tutta la concorrenza, ed ancora non hanno tirato fuori una versione ad alto consumo "desktop" oriented

pietro

i tablet android sono giocattoli. A sto punto meglio un convertibile chrome os

optimus81

Apple non spinge Arm, Apple sta guidando Arm da un decennio introducendo soluzioni che la stessa Arm poi porta sui suoi cortex. A Livello di architetture hardware Apple ha rivoluzionato questo settore ma va detto che i suoi processori non hanno una virgola in comune con nessuno. Sono unicamente le ISA di Arm che Apple ha in licenza, ma va chiarito che già oggi gli Apple Silicon (compresi gli Axx di iPhone) eseguono tantissime ISA proprietarie (Swift) che col tempo si son moltiplicate al punto che in Silicon Valley si dice che entro pochi anni a Cupertino potrebbero utilizzare unicamente ISA proprietarie .Ad esempio alcune tipologie di istruzioni che i chip Apple hanno già oggi, arriveranno solo con le prossime ArmV9 ed è anche uno dei motivi che non ha spinto Apple ad accelerare la loro adozione (che porterà comunque altri vantaggi ma che riguarderanno più che altro le applicazioni scritte con codice open source e non nativo Apple come Swift o le librerie Metal etc).

Pistacchio
BlackLagoon

La ISA delle CPU x86 è stata storicamente categorizzata come CISC: quindi meno istruzioni più complesse (ti servono meno istruzioni per fare la stessa cosa di un RISC). Ma di fatto l'hardware scompone queste istruzioni complesse in diverse sotto-istruzioni più semplici.

Questo permette, fra le altre cose, di avere stadi di pipeline più lunghi ed incrementare ad esempio la frequenza (proprio perché ciascuna fase della pipeline è più semplice e richiede meno tempo per essere eseguita).

Questo è proprio raccontato alla buona in due righe, ma l'argomento è molto più sfaccettato e ha varie implicazioni / ripercussioni.

Pistacchio
BlackLagoon

Apple credo segua l'approccio dei molti DSP per compiti specifici: per la grafica, ti fa usare giusto i tipi 32 bit che sono i più diffusi. Se ti serve fare roba ML (quindi con la mezza precisione) hai il Neural Engine con la sua API e credo giri in FP16 (niente INT8 per dire, ma con 64GB di ram unificata..).

La doppia precisione non è supportata perché tanto sarebbe appannaggio di un settore che storicamente non usa MacOS ma va di linux con GPU discrete, con pieno supporto GPGPU (es. Tesla, Volta, etc..).

Insomma il solito approccio Apple, in cui ti dice cosa fare in che modo. Solo che a sto giro estende il concetto anche all'HW, non più al SW.

Gigiobis

e notch.

BlackLagoon
sopaug_

in quanto ad efficienza sicuramente, già l'M1 era un mostro, se scalano bene questi saranno anche meglio.
Come potenza bruta difficilmente potranno dire qualcosa, per questo chiamarle ws mi farà ridere fino a quando non vedo un benchmark serio che dice il contrario.
Ma il senso del mio commento era che nel 2021 fare grafici del genere fa ridere. Capisco che la platea media apple non abbia nè la voglia nè i mezzi per capire un grafico, ma nel 2021 ormai slide così sfondano nella non professionalità.

lore_rock

Con molta probabilità questi processori faranno meglio della semplice moltiplicazione della potenza, perché oltre a numeri x volte superiori di core ci sono moduli aggiuntivi specifici per determinati task

Sergio Lucci

Premesso che ho un MacBook Air M1 che credo sia uno dei migliori acquisti mai fatti come qualità-prezzo e che Apple ha fatto un lavoro ottimo con M1 quindi posso solo immaginare che mostri siano questi al livello cpu, certe affermazioni fanno proprio ridere…
“Sempre lato GPU, le prestazioni sono fino a sette volte superiori quelle di Intel Core i7-11800H octa-core, dice Apple”…peccato che l’11800H abbia come grafica la vecchia Intel UHD che era imbarazzante già anni fa, quindi capirai che confronto

Ivan Clemente Cabrera

Ci son meno porting vero ma aumentano ogni anno, io console a parte su pc gioco quasi solo strategici e gdr e non ne manca uno, da total war a baldurus gate 3. la tua affermazione poteva essere vera 3 anni fa ma ci spingiamo sempre di più verso la platform parity, il fatto che ora anche le loro macchine entry level abbiano gpu decenti penso che darà un ulteriore spinta.

Simone Radice

Si, solo gli ottusi continuano a non capire ...

Sympa_nze'

Che poi, per essere comparabile a una 3080, vorrebbe anche dire che dissiperebbe tantissimo calore... E sappiamo che Apple con gli Heatpipes e la locazione delle ventole fa abbastanza pena... Poi il chip è anche più grosso e quindi consuma di più, quindi meglio limitare le frequenze e insomma... L'M1 è un gran processore con i suoi 5nm e la sua L2, ma resta che io ai grafici di Apple su "build speciali" che conoscono solo loro, non mi fido... Per niente...

Sympa_nze'
pietro

La speranza è che facciano da apripista

JustATiredMan

al di là delle considerazioni sui consumi o sulle prestazioni più o meno elevate o equivalenti, intendo dire che non si può parlare di monopolio, perchè di cpu sul mercato, per gli usi e le necessità odierne ce ne sono fortunatamente. Un monopolio è tale quando quello che produce o vende un certo prodotto lo fa solo lui, e nessun'altro e non c'è alternativa. Fortunatamente ci sono alternative. Che poi la M1Xpro possa essere la migliore, ok, ci stà, ma non è che senza quella, non posso soddisfare alle mie necessità computazionali.

Salvatore Provino

Sicuramente sono usi diversi, ma la differenza di prezzo è troppo alta se non hai bisogno di questi M1 per fare soldi o nei hai da buttare a caso.

Marco

Ma hai confermato quello che ho detto.
Apple è per una nicchia, stop. Se vuole veramente dominare il mercato dovrebbe aprirsi e rendere più accessibili tali offerte.

A che serve avere tecnologie assurde, se poi sono limitate a qualche applicativo e solo a chi se lo può permettere?

Marco

Indubbiamente, ma questo vale sulla fascia fino a 1000€.
Superata, se hai esigenze di potenza, applicativi particolari e gaming, non c'è ancora testo.
Per quanto potente rapporto W/potenza questa GPU, non hanno fatto comparazioni lato rendering software e hardware così come vengono usate al giorno d'oggi nei giochi.

Vedremo, ben venga la concorrenza, ma a buon prezzo.

Marco

Ma che c'entra? È un computer? Amen. Esci tu dalla caverna.
Io se devo spendere tot soldi voglio poter fare le medesime cose di chi spende tot soldi, a maggior ragione se io ne scendo 2 o 3 volte tanto.

Ma no, Apple è quell'azienda dove spendi quasi 3 mila € e ti devi accontentare di quello che fa.

Certo che vi ha fatto un po' il lavaggio del cervello il marketing.. mamma mia.

Fabio Musso
Sven Goran E.

Non vedo l'ora di guardare la recensione di LTT. Ricordo ancora l'inversione ad U di Linus dopo aver visto i risultati dei benchmark di M1

Leonardo Massai

Cosa ha mantenuto M1 in ambito gaming? I numerini nei benchmark? In base a quelli delle volte puoi quasi paragonare un cellulare a un PC desktop. Servono scenari reali, giochi e frame times per fare vedere che tutte queste sono solo belle chiacchiere e grafici. I nuovi processori Mac sono potentissimi ma quando sento sti paragoni senza senso mi viene l'orticaria.

pietro

prendere un tablet android è masochismo, è l'unico settore dove apple è concorrenziale anche in rapporto al prezzo in pratica

pietro

ma cosa deve fare in più? A limite deve fare le stesse cose, meglio

pietro

sto mantra del gaming che si ripete ogni volta sembra onestamente più una scusa per trovare un difetto a caso a un prodotto più che una vera mancanza. Cioè, chi mai ha scelto macchine apple per giocare? Ed onestamente non so per quanto tempo sarà ancora mainstream giocare in locale

pietro

se si ripete quanto visto con m1, l'imbarazzo sarà comunque tanto per la concorrenza

pietro

credo che il grosso della magia stia nel fatto che è tutto un grosso sistema integrato. Quindi si, probabilmente è possibile che un giorno ci sia una proposta concorrente analoga, ma il prezzo da pagare sarà la possibilità di personalizzazione dell'hw. Che sia un bene o un male non lo so.

Fabio Musso

1) Si riferiscono alla RTX 3080 Mobile, che non è lontanamente paragonabile alla 3080 Desktop. Di conseguenza si, è possibile che sia vero;

2) Sui portatili di fascia alta la GPU è dedicata, così come la sua memoria, di conseguenza è necessario un considerevole assorbimento di energia per funzionare... senza contare che quando va a batteria si devono necessariamente abbassare le prestazioni per evitare che la batteria si scarichi nell'arco di un quarto d'ora;

3) Essendo un SoC, la RAM è integrata oltre che condivisa tra CPU e GPU; così facendo i dati vengono scritti una sola volta e sono immediatamente disponibili per essere elaborati. In un PC normale questa cosa te la sogni. Riducendo e semplificando le operazioni è naturale che serva molta meno energia per funzionare.

Alla luce di tutto questo ripeto, SI, è possibile che tutto ciò che è stato dichiarato sia vero. Che poi raga, l'M1 dell'anno scorso ha mantenuto le promesse ed è sembrato un miracolo, non vedo perché la storia non si possa ripetere anche stavolta.

pietro

beh la gpu di m1 a 8 core si parlava di circa 2,7 tereflops se ricordo bene, col quadruplo dei core non mi meraviglierei a vedere oltre 10 teraflops, che con quei consumi, su un laptop/workstation, mettono effettivamente tanto tanto imbarazzo anche se magari come potenza "bruta" non ci arrivano

pietro

nel rapporto performance per watt hanno creato tanto, ma tanto di quell'imbarazzo a tutta la proposta concorrente che penso basti per i prossimi 10 anni

pietro

il problema è soltanto windows che non ha software per arm e questo per il momento ferma il resto del mercato, ma con queste differenze tremendamente imbarazzanti nel rapporto performance per watt, gli utenti finali e di conseguenza gli oem chiederanno a gran voce qualcosa che quantomeno si avvicini un minimo. Chissene della potenza della 3080, a fare gola sono, consumi, calore e peso ai quali nessuna workstation al momento non si può avvicinare nemmeno lontanamente. Come hanno fatto con m1 nella fascia 1K€, ora anche nelle fasce altissime hanno fatto invecchiare tutto e male. Se prima veniva da dire che i mac erano quelli sovrapprezzati, adesso sovrapprezzata sembra quasi tutta la proposta della concorrenza

nitrusOxygen

"come prestazioni no" ne sei sicuro sicuro sicuro?

L'avocado del Diavolo

Partiamo dal presupposto che se vuoi giocare non prendi un Mac. Il tuo discorso ci stava in parte ma poi sei finito come gli altri che scrivono.. quasi nessuno sviluppa per Mac?
Esci dalla caverna per cortesia.

Giulk since 71' Reload

Per come si muove Apple dubito che succederà mai, stanno sempre di più diventando "centrici" costruendo un black box dove mettere tutto dentro, tutto quello che dicono loro chiaramente, sia chiaro questo non è necessariamente un male, anzi ha anche dei risvolti positivi, dipende sempre da quello che ti serve

nitrusOxygen

Volevo scrivere notebook, ho scritto desktop

Recensione iPhone 15: meglio del 14 Pro? | VIDEO

iPhone 15 Pro Max vs 14 Pro Max: tutte le differenze e le nostre impressioni | VIDEO

Stranezze Apple: iPhone 15 Pro meno caro, ricarica 20 watt, giochi AAA e non solo!

Apple, arrivano gli iPhone 15 Pro e Pro Max: scocca in titanio, USB-C e prezzi più bassi