Mac Pro, nuovo modello con CPU Intel. Troppo presto per Apple Silicon | Rumor

09 Giugno 2021 179

Apple è al lavoro per rinnovare il Mac Pro, vale a dire il prodotto che, per prezzo e prestazioni, occupa il gradino più alto del catalogo di dispositivi basati su macOS. Indiscrezioni in tal senso non sono nuove - il mese scorso un report di Bloomberg ha inserito il nuovo, potente Mac Pro tra i prodotti Apple in arrivo nei prossimi mesi - e vengono ora rilanciate da un'interessante informazione emersa dalla beta 1 di Xcode 13 (il kit di sviluppo per la creazione di app Mac, iPhone, iPad, Apple Watch e TV): il riferimento ad un inedito Mac Pro basato su processore Intel.

Il modello in commercio - lanciato due anni fa - può essere configurato con CPU Intel sino alla Xeon W con 28 core, ma i dati contenuti nella recente versione di Xcode vanno invece nella direzione di un prodotto basato sulle più recenti CPU Intel Xeon Ice Lake SP; presentati la primavera scorsa, questi processori a 10nm prevedono configurazioni con un massimo di 40 core. Mark Gurman di Bloomberg ha sottolineato il mese scorso che il prossimo Mac Pro sarà un vero e proprio mostro di potenza e la prospettiva dell'impiego dei nuovi processori Intel Xeon Scalable non fa che avvalorare questa circostanza. Lo stesso Gurman ha ribadito nelle scorse ore che Apple è tuttora al lavoro sul progetto.

Che il futuro Mac Pro continui ad utilizzare processori Intel e non Apple Silicon è un'ipotesi verosimile tenuto conto dell'attuale stato di sviluppo dei processori curati in prima persona dalla casa di Cupertino (si dice possa arrivare non prima del prossimo anno). Se si fa un passo indietro sino allo storico annuncio che ha formalizzato l'inizio del processo di transizione da CPU Intel ad Apple Silicon si ricorderà che l'Azienda guidata da Tim Cook ha parlato di una fase che sarebbe durata circa due anni, quindi indicativamente sino all'inizio dell'estate 2022. Bisogna però anche tenere conto delle vicende - crisi dei chip e pandemia - che possono far dilatare ulteriormente le tempistiche.

Per arrivare ad avere un Apple Silicon in grado di tenere testa ai processori Intel Xeon ci vorrà tempo e intanto Apple dovrà tornare a bussare alla porta di Intel, a meno che non voglia ritardare di molto il rinnovamento dell'offerta Mac Pro. Al momento il primo SoC Apple Silicon, l'M1, ha fatto il suo debutto sui portatili MacBook, sul Mac Mini, e da poco anche sugli iPad Pro, ma si è ancora in attesa della presentazione dei chip di seconda generazione che potrebbero esordire con i futuri MacBook della linea Pro (nello specifico i chiacchierati modelli da 14" e 16") - si dice che la produzione di massa dell'M2 sia partita ad aprile.


179

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Acta

In che senso? Microcode e driver non sono un problema - solitamente li fornisce AMD - e il codice adatto a Intel gira anche su AMD senza problemi, perciò non avrebbero dovuto sviluppare nulla di nuovo.

Luca Biasiolli

Non so quanto senso aveva per Apple sviluppare osx per AMD.

Tsaeb

ahhahahahha

klau1987

Dai però facciamo i seri, nel senso che mi spiego dato che ieri mi divertivo.
Prima di tutto era un esempio sulla prima macchina disponibile ricercando su Google.
Secondo 8gb di Apple sono condivisi quindi se hai la ram a tappo (8gb sono pochi anche per un excel bello pesante sia chiaro) si impalla tutto,
terzo io sono pro-tecnologia a prescindere dalla marca ma diciamola tutta dire che questa variante m1 non è solo per utenti consumer è una falsità (ed è palese dato che apple progetta processori "seri" a "breve"). Fino a quando non esisteranno architetture con grafica dedicata e piena compatibilità si tratterà comunque di un processo di transizione e quindi non adatto a chi porta i soldi a casa lavorando al pc (o almeno al 90% di essi dato che non esistono solo youtuber/scrittori al mondo).
I prodotti apple sono "esclusivi" si ma non per questo si deve effettivamente a sottostare a soluzioni "poco versatili" con hardware limitato/scarso (mi riferisco a ram e quantità hd) a prezzi esorbitanti. Ognuno fa quello che gli pare con i soldi eh, ma non significa che sia una scelta migliore spendere di più ;)

Ultima cosa ho per la casa (quindi diciamo come muletto) una i7 con 16gb di ram e scehda dedicata da 4g da orami 8 anni ed è una scheggia con ultima versione di windows, quindi aggiornato e aggiornabile (pagato 999 euro). Non avrà uno schermo 4k (comprato a parte per 300 euro dato che non necessito di coperture particolari essendo ingegnere e non grafico) ma per l'uso quotidiano/modellazione 3d o anche gioco credo sia 100 volte più versatile (non dico potente ovviamente) di un imac odierno. Ma è un mio pensiero e accetto il tuo ovviamente.

Giovanni Amato

Guarda che i supercomputer sono tutti ARM

Giovanni Amato

Vabbè che siano cari tutti i Mac è vero..
Comunque paragonare una MX 350 a 8gb di GPU Apple che è molto meglio non è cosa.
Diciamo che comunque è vero che tutti i Mac sono cari io ho MacBook Pro M1 e iPad Pro 2020 e iMac intel.
È ridicolo il fatto che ci siano solo 256 GB sulle versioni Base, ma comunque va detto che tiene il tempo ogni dispositivo Apple ed è sempre aggiornato almeno per 7-8 anni. Mondo PC un po’ difficile.

Tsaeb

e noi li aspettiamo, sai che risate.

Antonio

prova ad encodare un 4k in AV1 e poi ne riparliamo

Mr. Robot

Apple è solo consumer e, per assurdo, ai consumer non serve a nulla se non avere di meno perché dal momento che magari vuoi farti un giochino, senza esagerare, tipo League of Legends o Minecraft, 1200€ di PC in crisi...

Antares

Dove hai trovato un monitor fotografico 4.5k con copertura p3 e 500 nits a 500€?

Alexv

Penso che aggiungerebbe un overhead esagerato e tanti bug. Una volta AMD stava lavorando a una cosa del genere, di chiamava progetto Bridge, ma era il periodo in cui non aveva soldi, quindi venne abbandonato.

Antares

No io semplicemente paragono i prodotti simili: monitor fotografici con monitor fotografico, monitor da gaming con monitor da gaming, ciarpame con ciarpame.
Tu tiri fuori una macchina cheap la paragoni all’iMac e dici: eh ma costa meno… eh grazie al piffero…
Se poi il problema è il prezzo bene spendere per una macchina che costa meno… ma non si possono paragonare…
Poi se vuoi fare foto e videoediting meglio un monitor fotografico che uno con la copertura colore di topo gigio.

klau1987

Hahahaha quindi per avere una schermo da 500 euro (perché tanto costa) tu spediresti 1700 per poi poter fare poco e niente. Cavolo sei un volpe hahahah vabbé. Ripeto secondo me meglio non continuare che ti rendi ridicolo. Buonaserata almeno ho fatto un paio di risate con i soliti fanboy ;) ciao

Antares
Alexv

Quale i5 e in quale ambito? Attualmente dubito che un processore da 15W possa fare meglio di uno Xeon.

klau1987

Classica risposta da fegato ardente. Dai la prossima volta andrá meglio. ;)

Antares
klau1987

Purtroppo sei annebbiato dalla mela. ho detto che è bello (a me non piace molto ma sono gusti) ma 1700 euro per la base sono e restano un furto. per sopperire con un desktop si può considerare:
Uno schermo 4k sta sui 500 euro e un desktop slim (non rumoroso come dici tu lo trovi sui 1000 euro ma con i7 e almeno 16gb di ram e scheda dedicata con piena compatibilità).
all in one il primo che mi è capitato:

HP Pavilion 27-d0094nl Desktop All-in-One con schermo 4K - 1TB SSD- NVIDIA® GeForce® MX350 (4 GB di GDDR5 dedicati)
1500 euro
ps tanto per fare un esempio ;)

Ripeto bel prodotto ma sovrapprezzato e poco utile se non per chi non lavora o lavora con office o pochi altri programmi al momento compatibili (con alcune schede office poi probabilmente soffrirebbe con 8gb di ram). con questo chiudo tanto la pensiamo diversamente ;)

Antares

trovi altri allinone superiori a prezzi decisamente superiori e di molto.
Non è una beta: il software nativo per m1 brasa anche macchine anche più pompata e con schede grafica dedicata, il software non nativo gira perfettamente in emulazione (perchè non lo provi invece di parlare a vanvera) e non lo fa rimpiangere.
con meno di 2000 euro hai una macchina completa con uno schermo spettacolare (sai quanto ti costa un 4.5k con copertura colore p3? informati e poi parla), audio immersivo, design fantastico e che si interfaccia perfettamente nell'ecosistema, non scalda e non fa rumore.
Volendo con la stessa cifra ci fa un assemblato che è brutto, ingombrante, rumoroso, che scalda e che va peggio.
Internet, mail, foto e video editing, creazione musicale, contenuti multimediali, anche qualche gioco (di quelli che ci sono sullo store) sono il pane quotidiano di questo computer e fa tutte queste cose benissimo....
Continui a tirare fuori la concorrenza: bene trovami un computer allo stesso prezzo con le stesse caratteristiche che sia più performante e te lo pago io.

klau1987

Man mano non é ora. iMac era il miglior all in one per rapporto qualità prezzo ma non il migliore in generale. Capisco la "passione" per un marca ma non distinguere un prodotto beta quando lo é palesemente é assurdo (il 100% dei recensori hanno affermato che é un prodotto caro per uso consumer e basta che nella configurazione base é ridicolmente caro).
Ripeto se devi avere un bel monitor con la mela sopra e giochicchiare a casa ok ma per il resto é un mezzo pacco ;)

Antares

1) i software si stanno aggiornando mano mano.. tempo al tempo...
2) l'imac non è mai stato un prodotto dedicato ai professionisti
3)l'imac è il miglior allinone per rapporto qualità/prezzo, di simili e con quella qualità a quel prezzo non ci sono.
4) inutile paragonare ad un assemblato, per avere qualcosa di valido esteticamente spendi almeno 200 euro di case, spendi tanto per avere uno schermo 4.5k con copertura p3.. hai ingombri enormi, cavi, che fa rumore e scalda
5) finalcut da sempre da la polvere a premiere anche su macchine ben più carrozzate
6) se prendi un mac è perchè vuoi un determinato tipo di software, se devi usare determinati applicativi un mac non ha senso.
Si a quel prezzo è la migliore macchina per un determinato uso che tu possa acquistare e con un design fantastico.

klau1987

M1 non supporta schede grafiche, e già MacOS non é compatibile con troppi programmi. Una mossa diversa da quella fatta allos tato attuale significherebbe abbandonare il mercato.

klau1987

Già in ambito generale i prodotti Apple sono meno versatili della concorrenza (lavorativamente parlando ,se non per specifici campi, per lavorare si usano emulatori Windows) poi se si aggiunge un processore nuovo senza gpu dedicata a prezzi da top rispetto la concorrenza allora si arriva ad un prodotto non all'altezza. Il design é importate ma se poi si può fare poco resta lì...

klau1987

Dipende dall' i5 (non ne esiste solo 1) poi riepeto allos ttao attuale senza gpu dedicata ad alte prestazioni é un prodotto non professionale ma per uso consumer. La strada é quella giusta ma da Apple mi sarei aspettato un prodotto finito e non un beta per uso blando. La Dimostrazione é il fatto che gli Intel sono ancora sui modelli di punta.

klau1987

Già parlare di emulatore é un abominio. 1700 euro per un prodotto al momento compatibile con poco senza scheda grafica dedicata e con 8gb di RAM ti sembra un buon affare? Per carità forse sarà anche bello (nemmeno tantissimo per me) ma al momento é un downgrade. Ripeto al strada é giusta ma al livello professionale non regge la concorrenza.

The frame

E comunque i5 é solo una sigla e ce ne sono n tipologie a seconda del tdp

The frame

Be ma ha assoluta the ragione . L’attuale m1 é un processore che va bene per l’uso consumer, ma non ha grande potenza rispetto alle macchine utilizzate da professionisti video

sMattoZ1

gira male perché
-windows emula jit e non compila come fa rosetta
-la potenza di calcolo dei soc arm non apple non è ancora abbastanza per supportare una emulazione jit “flawless” (neanche m1 è al pari di x86 su windows, mentre su macos (o linux) la storia è diversa).
la bontà di un’architettura non si giudica se l’implementazione è fatta coi piedi, perché in quel caso ci sono troppi partner e non uno solo

biggggggggggggg

Ma il problema delle SIMD degli x86 purtroppo è un altro. In pratica sono state disegnate in modo che l'una è incompatibile con l'altra.
Se parti da AVX2 e vuoi usare AVX512 devi riscrivere il codice.
Su ARM invece è tutto scalabile e gestito internamente quindi se la SIMD è a 64, 128 o 512 bit il codice sfrutta pienamente quello che c'è.
Addirittura quella di ARMV9 permette SIMD scalabili da 32 a 2048 bit.

Fiore97

Eh purtroppo

Goose

AVX-512 tolti quei server che utilizzano software proprietario sviluppato ad hoc è inutilizzato, è un peccato. Mi chiedo cosa aspettano anche Intel e AMD ad implementare un'architettura simile, con 4 unità da 128 hai sicuramente più prestazioni perché puoi parallelizzare più calcoli vettoriali, anche se esistono le schede video dedicate.

lore_rock

Il problema non é lo xeon, bensì stare al passo con nvidia e amd

fabrynet

Apple non ha mai fatto leva sul prezzo basso, i suoi prodotti sono qualitativamente superiori e la qualità si paga, sempre.

Francesco Renato

Ti informo che il significato inglese di discrete e parent è esattamente corrispondente al significato latino da cui derivano e cioè rispettivamente "separato" e "genitore", purtroppo oggi i veri discendenti degli antichi romani sono gli anglosassoni e non gli italiani.

Antares

Con Rosetta 2 anche premiere gira benissimo.
Prezzi esorbitanti anche per niente: iMac è il miglior allinone sul mercato per rapporto qualità prezzo.
Quali sono i dispositivi con caratteristiche simili e prezzo più basso? Non ci sono, se vuoi qualcosa di equivalente devi spendere uguale o di più…

Mattmoon

Ma come vi vengono queste? M1 va il doppio dell’i5 di decima generazione e consuma meno. Inoltre hanno abbassato i prezzi rispetto all’anno scorso…

uncletoma

Ma lo so, ma Apple è in maggior parte segmento consumer

biggggggggggggg

Ah, altra roba: se non ricordo male l'M1 ha 4 unità SIMD da 128 bit.
Gli intel per ora hanno AVX-512 (che è molto più difficile e costoso da implementare, ma non possono fare diversamente perchè non è estensibile), mentre gli AMD dovrebbero averne una da 256.

biggggggggggggg

La questione della ROB non ricordo se sia un limite instrinseco ad x86, visto che è meno della metà rispetto ad M1.
Quello sul decoder invece è sicuramente un limite di x86 perchè non avendo istruzioni fisse ad un certo punto la logica di controllo per spezzettare le istruzioni diventa talmente grande e complicata da renderne controproducente l'ampliamento. E da quel che ho capito è un limite insuperabile.

La questione delle FPU ricordo che c'era già da prima, non a caso un'analisi di un po' di tempo fa parlava dell'A10 (o forse era l'A9) come una desktop-class CPU, per via delle unità di calcolo e della cache molto grande rispetto alle cpu mobile dell'epoca.
Comunque so per certo che da A13 ad A14 sono aumentate le fpu, probabilmente le hanno volute pompare in vista dell'M1 e immagino che il PP da 7-->5nm abbia aiutato.

Poi considera una cosa: M1 non deve mantenere la minima compatibilità con nulla, x86 deve mantenere la compatibilità con 9 milioni di cose differenti. Non è un vantaggio da niente.

klau1987

esatto codice scritto per...al momento è una qualcosa di nicchia a prezzi esorbitanti. Estremizzando è come una macchina che cammina solo in determinate condizioni, cioè inutile a mio parare.

klau1987

io mi riferisco nell'immediato e al momento nessuna gpu e prezzi esorbitanti per dispositivi con 8gb di ram (nuovo imac) per il momento è un esercizio beta tester style e anche se in potenza credo sia la scelta giusta, per chi lavora davvero con il pc e non può accontentarsi è una fregatura.

klau1987

io mi riferisco nell'immediato e al momento nessuna gpu e prezzi esorbitanti per dispositivi con 8gb di ram (nuovo imac) per il momento è un esercizio beta tester style e anche se in potenza credo sia la scelta giusta, per chi lavora davvero con il pc e non può accontentarsi è una fregatura. avessero almeno giocato in attacco con il prezzo ma ovviamente non è da Apple.

Leo9

Parlo di CPU perché quello era l'argomento centrale. Per quanto riguarda la GPU non credo ci siano troppi problemi a rendere disponibili slot di espansione PCIE nel caso il SoC Apple supportasse i requisiti I/O. In ogni caso, sempre secondo Bloomberg, Apple ha in sviluppo GPU da 64/128 core. Estrapolando dalle performance di M1 con 8 core GPU e ipotizzando una frequenza simile, la variante top gamma avrebbe oltre 40 teraflops in FP32, che è paragonabile a top di gamma Ampere.
Chiaramente questo è un calcolo puramente teorico, ma è per rendere l'idea che potenzialmente Apple potrebbe non aver bisogno di GPU esterne.

Goose

Eh, dal punto di vista dell'architettura è un gioiellino, non immaginavo a questi livelli. Avere più FPU e più ROB inoltre vuol dire migliore instruction-level parallelism. Da questo punto di vista Intel e AMD non so in che direzione stanno andando, l'unica cosa che mi ha sbalordito è il perceptron implementato da AMD nei Ryzen per migliorare il branch prediction e per ridurre i control hazards. E chissà quante altre tecnologie ormai hanno questi nuovi processori di cui non sappiamo nulla.

Darò una lettura, mi interessano molto questi argomenti.

Lorenzo Poli

Il termine "processore discreto" non esiste né in cielo né in terra. Così come non esiste (la gente ancora non vuole capirlo) il termine "GPU discreta". È solamente una deformazione dall'inglese "discrete GPU" che tradotto vuol dire "GPU dedicata" (e infatti si è sempre chiamata in questo modo) che però gli italiani hanno iniziato ad utilizzare come "discreta" per differenziarla da quella "integrata", ma non è la traduzione esatta, così come "parent" non vuol dire "parente" ma "genitore".
E oggi è la prima volta che sento il termine "discreta" addirittura sulla CPU.
Il Treccani dà 7 definizioni di "discréto" ma nessuna di queste si avvicina lontanamente all'uso per cui se ne fa sui blog di informatica da 5 anni a questa parte.
Il mio era solo un prenderlo in giro e prendere in giro quelli che in Italia continuano ad utilizzare ancora questo aggettivo in modo assolutamente senza senso senza neanche conoscerne il significato

BlackLagoon

Sai farmi esempi di casi in cui un Arm non può battersela con un x86/64? Non molto tempo fa Anandtech ha recensito l'Ampere Altra nella versione 80 core e ha praticamente rivaleggiato con l'EPYC 7742 in scenari decisamente poco comuni e decisamente molto professionali. Consumando anche qualcosina meno.

Architetturalmente parlando, inoltre, l'architettura RISC ha notevoli vantaggi a livello di decoding delle istruzioni essendo tutte della stessa lunghezza. Con la CISC invece devi aver decodificato la prima istruzione prima di poter sapere da dove inizia la seconda istruzione. Questo permette ai processori Arm di far scalare il numero di unità di decodifica a piacimento. Più unità di decode vuol dire più istruzioni eseguite in parallelo.

Come vedi, se vuoi entrare nel tecnico e spiegarmi perché secondo te CISC > RISC sono qui ed in grado di capire quello mi vorrai dire.

biggggggggggggg

Io da quel che ho letto finora, credo che RISC faccia la differenza. Molti dicono "no no ma non è vero non è vero, l'ISA non dice nulla", e invece sì dice qualcosa, altrimenti non si spiega come sia possibile che alla fine pure i CISC siano dei RISC mascherati. E non spiega come mai nessuno faccia simil-CISC da almeno 30 anni.

Ma quelle prestazioni secondo me vengono anche da altro: se leggi l'analisi di anandtech, i test dove il comparto memorie è sotto stress vengono stravinti da M1, ma in maniera imbarazzante. In lbm, in multithread (simulazioni quantistiche) dove da quel che leggo il sistema memorie conta molto, l'M1 fa quasi il triplo dei punti che fa il 4800U (nonostante questo abbia 8 core e 16 thread attivi).
E ha senso perchè una cache L2 ha una latenza fino a 10 volte più bassa di una L3, e la L1 ce l'ha 3-4-5 volte più bassa della L2.
L'M1 ha delle cache L1 e L2 enormi rispetto ai classici processori e potrebbe influire.
Tra l'altro ho notato gli stessi distacchi assurdi nei test con reti neurali e simili, e ha senso perchè di solito nelle implementazioni di backpropagation viene sfruttata pesantemente la cache per mantenere i pesi e le attivazioni del "pezzetto" che stai calcolando (c'è un approfondimento sul white paper dell'A100 di NVIDIA se ti interessa, non a caso hanno aumentato la cache L2 da 4MB a 40MB).

Ora io non voglio dire che la L3 non serva perchè non sono neanche lontanamente un chip designer, dico solo che la L1+L2 molto grandi sembra portare tanti ma tanti vantaggi.

Tra l'altro la banda di memoria (RAM intendo) sembra sia più del doppio rispetto a quella dei concorrenti. Ma questa cosa non si è spiegata come sia possibile (spoiler: non c'entra la supposta vicinanza tra soc e moduli ram).

Poi insomma, solite cose, una ROB che è quasi il triplo di quelle dei concorrenti, un decoder molto più ampio.
Se non ricordo male (dovrei andare a riprendere gli schemi di Zen 2/3) l'M1 ha anche più FPU (non a caso è lì che stacca di molto i concorrenti), e unito al fatto che il decoder è più ampio e molto più semplice da implementare potrebbe portare anche lui vantaggi.

E in più non scordiamolo è a 5nm invece che 7nm.

Di più non ti so dire, comunque se vuoi leggere qualcosa di interessante guarda qui (lo so è lungo, ma ne vale la pena):
https://www.extremetech.com/computing/323245-risc-vs-cisc-why-its-the-wrong-lens-to-compare-modern-x86-arm-cpus

L’unico problema è che il compartimento gpu M1 non può nulla contro schede dedicate di fascia alta GEFORCE o RADEON ovviamente….

si esatto, alcuni dei software piu usati nei rispettivi ambiti

Fulvio

Continui a non capire e a non distinguere utilizzi sporadici di un computer (dove le differenze prestazionali sono inesistendi) da utilizzi professionali.
Resta della tua convinzione, per oggi ho commentato abbastanza.

Abbiamo provato iOS 15: prime impressioni d'uso sulle principali novità

Abbiamo provato iPadOS 15: le novità che Apple non ci ha svelato

macOS Monterey ufficiale alla WWDC 2021: tutte le novità | download sfondi

iPadOS 15 ufficiale alla WWDC 2021: funzioni da iOS 14 e tanto altro ancora