
09 Ottobre 2020
Continua ad essere altissima l'attenzione su Apple e i nuovi processori Apple Silicon presentati durante il WWDC dello scorso mese. Dopo le informazioni emerse venerdì circa il possibile debutto entro fine anno di MAcbook Air e Macbook 13 basati su questa nuova architettura, arrivano adesso ulteriori dettagli anche se non confermati.
Sappiamo che l'azienda di Cupertino ha intenzione di migrare tutto il suo portafoglio di dispositivi ad Apple Silicon entro il 2022, una sfida davvero notevole e che si scontra con la necessità di portare grande potenza di calcolo su base ARM anche nel mondo desktop. Per farlo sicuramente sarà necessario utilizzare un numero di core importante ed oggi arrivano le prime indiscrezioni.
Secondo quanto emerso in rete, il primo Apple Silicon che debutterà sui Macbook a fine anno avrà 12 core. 8 core saranno ad alta frequenza in modo da garantire massime prestazioni, gli altri 4 core saranno invece ad alta efficienza energetica e saranno abilitati per far girare tutte quelle operazioni di base e che non necessitano la massima potenza.
Sarà quindi molto interessante vedere quanto la piattaforma ARM sviluppata da Apple, riesca ad offrire prestazioni ottime e in linea con i portatili di ultima generazione comparabili e quanto l'ottimizzazione del sistema MacOS permetta di avere un'autonomia sopra la media.
Commenti
Non è un avvicinamento di iOS a Mac ma un avvicinamento di Mac a iOS...
Ciò che Apple sta facendo è cercare una connessione per fare sì che macOs venga implementato con iOS e non vice versa.
La mossa vincente è nel fatto che tornano a rendere Apple un ecosistema isolato, unico, almeno finché Windows non seguirà.
Secondo me entro Natale si smuoverà qualcosa anche da Redmond
Io continuo eh, vecchio 50enne
Sono pietrificato dal terrore, Sig. Ingegnere Capo!
Dai che magari ti levi dalle 0.0
La prego, Sig. Ingegnere Capo, non lo faccia, la scongiuro!
Ma figurati, poi ti segnalo pure così magari ti bannano
Non oso contraddirla, Sig. Ingegnere Capo. Dall'alto delle Sue due lauree, come potrei mai?
Ma guarda il fatto che tu sia completamente digiuno in materia e che non abbia letto neanche per sbaglio qualcosa su come vengono gestiti i calcoli nei moderni computer/server/datacenter dovrebbe spingerti a imparare, non a disturbare gli altri con la tua arrogante ignoranza
Ha perfettamente ragione Sig. Ingegnere Capo, ho forti difficolta a capire le str0nz@te.
Si era capito benissimo.
Non credo nemmeno che riusciresti a capirli
Le dirò, Sig. Ingegnere Capo, che ho letto e seguito attentamente i Suoi interventi, ad eccezione degli ultimi tre o quattro, che, in tutta franchezza, non ho nemmeno letto. Mi sono bastati i precedenti. Cordiali saluti.
Io comunque non credo che tu abbia proprio capito di cosa stavamo parlando.
O sbaglio?
Hai assolutamente ragione, infatti ha anche deciso di abbandonare x86.
Infatti Intel non si sta buttando nel campo degli acceleratori deep learning con Nervana, non si è comprata Altera per fare gli FPGA e non si sta buttando nel campo delle GPU LOL
Hai ragione tu. Come dare torto ad un capo ingegnere Intel?
GENIO dal livello semi-serio in poi a meno che tu non sia un imb3cille USI un co-processore per svolgere il lavoro che devi fare, se esiste.
Se devi fare deep learning usi un certo tipo di schede tesla, o le TPU di google, se devi fare inferenza usi un'altro tipo di scheda con unità di calcolo a bassa precisione, se fai grafica 3D magari con RT compri le quadro con i tensor core, se devi applicare filtri con machine learning alle foto usi i chip dedicati presenti, ecc. ecc.
Non esiste (quasi) più che compri 400 processoroni e gli fai fare tutto, dal deep learning alla grafica alla musica, indipendentemente dal contesto, esistono chip dedicati che fanno la stessa cosa di un processorone da 10.000 euro alla metà del prezzo e 150 volte più velocemente, devi essere un totale babb3o se ti metti a farle su hardware non dedicato
Non è che siccome tu conosci solo il processorino per il computering da gaming allora tutto il mondo è limitato a quello.
Sì, certo, hai ragione tu. Hai già mandato il curriculum? A quando la promozione a ingegnere capo?
Vivono di iPhone... i Mac vedono quanto gli iPad e il grosso del volume sono i portatili di fascia “bassa”(per la Apple).
Io non credo abbiano fatto molte “operazioni” con Mac Pro... è ottimo ma è anche abbastanza semplice a livello “concettuale”, e costa abbastanza da ripagare lo sviluppo anche con poche unità vendute...
probabilmente sono avanti, ma i set di istruzioni di x86 per certe operazioni avanzate semplicemente fanno la differenza... e la vedo dura che ARM raggiunga Xeon nel breve periodo
30-40% da sempre per Apple, circa il doppio, nel caso di alcuni modelli, per la concorrenza Android, d'Asia.
Innanzitutto pc arm e macqualcosa sono una contraddizione.
Secondo qualunque sia la decisione sui prezzi, essa dipenderà dalla qualità dei componenti.
Nella concorrenza vale il principio opposto, quello secondo cui i componenti sono l'ultima cosa da guardare e i clienti tonti la prima.Nessuna offesa, è un principio del marketing: si fa credere ai clienti che comprando il proprio prodotto si frega qualcun altro e si è sicuri che qualcuno abbocca.
Nel mondo Android, ad esempio,sono la maggioranza, basta girare per i blog e contarei piagnucolanti che si lamentano che Apple costa troppo.
Non è una cosa certa, ovviamente, ma assai probabilmente hanno appena acquistato un dispositivo ad hoc, si sono accorti di essere stati fregati o entrambe le cose.
Non hanno più soldi, la loro ciofeca non la vuole nessuno e loro possono solo sbavare....
Bha negli anni tutti quelli che in ufficio o dai clienti usano MacOS alla fine hanno sempre una VM con Windows....se non si potrà più fare, secondo me, si tagliano fuori una bella fetta di mercato, oppure quelli che ci vogliono giocare...
Andrà bene alle persone come mia moglie, iPhone, iPad e Mac come unico ambiente, con scambio di informazioni e app e durata della batteria pazzesca.
Mai detto il contrario.
Appunto.
Non è che sia sempre necessario scalare sui core, lo fai dove serve, iTunes (o mail, o la calcolatrice o il lettore di pdf, o spotify o quello che ti pare) va già alla grande (è un programmino) così, non c'è necessità di mandare in parallelo. Idem per i videogiochi: i videogiochi già girano in parallelo (girano su una GPU LOL), quello che rimane sulla CPU è tutta roba difficile o impossibile da parallelizzare, per questo non servono 64 core per giocare bene.
D'accordo con te.
Sì, ma funziona già così. Se reimplementi l'algoritmo è perché hai necessità specifiche, la stragrande maggioranza richiama le API standard o di librerie apposite. Se chiami CUDA-C è perché ti interfacci con un coprocessore grafico Nvidia e lo fai comunque tramite l'API CUDA.
Ma sono casi particolari e, comunque, le MKL funzionano anche su CPU AMD (anche se Intel ha visto bene di peggiorare le prestazioni se non si adottano alcuni accorgimenti). Questo però non cambierà con la nuova architettura Apple: poiché ogni SoC avrà caratteristiche sue la disponibilità di talune funzioni sarà condizionale come già avviene nel mondo Android da diversi anni.
E vorrei anche vedere, hai preso praticamente l'unico contesto dove scalare sui core sia fondamentale. Non a caso spesso si usano le GPU per i calcoli perché di core ne hanno migliaia. Prendi però applicazioni come iTunes che Apple ha tenuto single core per una vita. Pure i giochi spesso non scalano granché oltre i 4-6 core. Non tutti i
Certo che è fattibile, mica ho mai detto il contrario.
10 no, ma 5 è probabile. E considerato che la stessa Apple ha parlato di due anni di transizione e non credo che abbia iniziato a lavorarci la settimana scorsa direi che sia abbanstanza d'accordo con me. Il lavoro in sé è fattibile, quello che è difficile è farlo bene impattando il meno possibile gli utenti.
Certo che del codice lo devi scrivere, ma mica ti metti a implementare l'algoritmo a basso livello, ci sono già librerie pronte che con due righe di Swift ti fanno l'operzione. Così come se devi moltiplicare due matrici non ti metti a scriverle in CUDA ma puoi comodamente richiamare due funzioncine in Python a cui passi i parametri e ti ritornano il risultato. Tra l'altro le hanno già mostrate le API per farlo, richiami tutto da Swift.
Dipende, se vuoi utilizzare le istruzioni SIMD devi usare primitive diverse (tipo MKL)
Ma in realtà la maggior parte delle applicazioni di calcolo (tutti i programmi che ho scritto io a dir la verità) scalano che è una meraviglia all'aumentare dei core. Ovvio che un'app di messaggistica non lo fa (non gli serve nemmeno), ma quelle in cui bisogna fare tanti calcoli se ben scritte scalano da 2 a 200 core tranquillamente.
Già sono state integrate nel SoC e anche nelle CPU x86, è una cosa fattibile e che porta immensi vantaggi.
Ma guarda, alla fine è quello che sto dicendo io.
Quello che io sostengo è che non sia un lavoro titanico che richieda miliardi di dollari di R&D con 10 anni di lavoro annesso.
Guarda che delle applicazioni opensource il 99% gira già su arm
" loro puntino a farti usare le API che sfruttano hardware dedicato piuttosto che farti scrivere il codice a mano"
Ehm... per usare le API scrivi codice a mano :D
Quasi nessuno scrive codice di basso livello ora come ora, tutti si appoggiano ad API anche perché altrimenti sarebbe un incubo. Poi ci possono essere più o meno livelli di astrazione sotto ma immagino che nel caso dei nuovi SoC non sarà diverso dallo scrivere codice C/C++.
Probabilmente prevederanno un framework e delle API per elementi comuni del sistema (come lo stile grafico) ma non è nulla di diverso da quanto avviene già su Windows e Linux (e pure su MacOS).
Non è che se devi scrivere un software Windows prevedi codice diverso per AMD e Intel anche se hanno architetture diverse. Al limite, sapendo di pregi e difetti di quelle architetture, puoi optare per accorgimenti specifici, niente di più.
"Quello che voglio dire è che secondo me le differenze ci saranno ma
saranno nell'hardware dedicato maggiormente: l'Air magari avrà 8 core ad alte prestazioni (numeri a caso) ognuno potente 10 e il Pro da 16 ne
avrà 16 potenti 15 ognuno, ma la vera differenza sarà nel fatto che
l'Air non ha il chip per la transcodifica video (quello che fa
l'Afterburner, non ricordo esattamente il nome) e il chip per i calcoli
matriciali è 10 volte più potente sul 16 rispetto all'Air (sempre numeri
a caso)."
Anche qui non è così semplice: intanto non è detto che sia possibile far scalare bene tutte le applicazioni su tanti core quindi il rischio di avere gli stessi core potrebbe tradursi in prestazioni finali mediocri a meno di non aumentare a dismisura il TDP, inoltre avere il chip per i calcoli matriciali più potente significa che occuperà più spazio sul die e quindi è un problema da gestire perché l'occupazione dello spazio deve essere ben studiata quindi alla fine è probabilmente che dovranno, appunto, ripensare l'architettura. Anche perché su un iMac, ad esempio, avere core a basso consumo non serve assolutamente a nulla, è spazio sprecato.
In generale è sempre la solita storia della coperta troppo corta: se provi a generalizzare troppo rischi che determinati aspetti siano trascurati con prodotti finali mediocri. Molto meglio avere prodotti pensati per i diversi tipi di utilizzo. Anche perché alla fine si tratta di avere solo due diverse architetture (basate sicuramente su elementi comuni, ci mancherebbe): una per TDP fino a 5-7W ed una per TDP > 10W.
Per ora, che io sappia, nessuno è riuscito a tirare fuori un'architettura che scali bene da 3 a 250W. Dei sacrifici sono sempre stati necessari.
A Intel frega relativamente di AMD con amd64. ARM è la vera minaccia visto che sta pian piano diffondendosi anche nei datacenter.
Microsoft soffre della concorrenza interna. Se la gente usa windows è perche ha tutto. Se cambi architettura pero diventa un sistema operativo che non ha nulla. Lo store e le universal app (che non sono stati cagati da nessuno) servivano proprio a questo.
L'innovazione piace
Microsoft è imbarazzante dai
Ma è eppol che adora mettere poca ram..
Guarda che arm ora funziona a 64bit quindi supporta memorie superiori a 4GB
si, a lungo termine. Dubito che gli investimenti fatti per sviluppare e produrre dei chip da se si ripaghi in qualche anno..
Si si è solo speculazione per ora (anche se io comunque ritengo che abbiano già almeno i prototipi per tutta la gamma, non provare prima sarebbe da folli).
Per forza di cose dovranno farlo. O almeno dovrebbero ridurre (anche AMD) le richieste energetiche dei loro chip perchè a me magari non cambia nulla ma per un datacenter che magari ha migliaia di CPU, se ognuna consuma 250 watt è un conto, se ne consuma 120 ne è un altro.
Hai messo in fila tanti se e tanti ma... Quello che ho detto io alla fine. Non resta che aspettare e vedere come evolve la situazione.
Si ma in quel caso (dissipazione carente e prezzo aumentato) sarebbe un limite artificiale creato per spingere la vendita di un prodotto rispetto ad un altro
Ma se manco sa la differenza tra RISC e CISC
Ormai il settore Pro dei Mac è finito, ARM su MacOs è solo la pietra sopra. A parte lo sviluppo per iOS / Mac, che uso Pro può avere un Mac? Mancano molti software per la fatturazione, la suite Adobe gira meglio su altri lidi, i software Cad sono assenti e se ci sono sono in versioni non aggiornate, il settore Server è inesistente, e così via. Ormai il settore Pro sta morendo, il che non è neanche necessariamente troppo un male perché è quello che (causa retrocompatibilità) tiene ancorata MS al passato mentre da ad Apple molta più libertà
Guarda il graviton 2 ti dico che a parità di core costa meno sia degli Epyc che degli Xeon, non li ho usati solo perchè non ero sicuro che fosse compatibile con tutto e perchè non c'erano le istanze che volevo io (quelle con meno memoria perchè avere 8 core e 32 gb di ram era uno spreco di soldi, e quindi ho preso gli Epyc alla fine)
E infatti ti farei notare che quest'anno ARM ha presentato i Cortex X o come si chiamano non ricordo per offrire SoC ad "altissime prestazioni". Secondo me è un chiaro invito a fare più roba sul versante pc classico.
Senza dimenticare che se tanti usano ARM, tanti programmi verranno portati su ARM, ed è questo quello che conta tantissimo. Io visto il costo minore e visto che spesso la CPU non mi serve a un tubo (serve la GPU), quando mi serve un'istanza prenderei tranquillamente un server basato su ARM, ma se non ho la sicurezza di poter installare tutto quello che voglio, preferisco spendere un po' di più e prendere Intel o AMD. Speriamo che questo problema venga risolto almeno per la gran parte di roba professionale (e di sviluppo)
Si ma infatti non sto dicendo che i core general purpose saranno uguali su tutti dagli Air ai Mac Pro (desktop), chiaramente avranno potenze diverse anche quelli, ma mi sembra chiaro che loro puntino a farti usare le API che sfruttano hardware dedicato piuttosto che farti scrivere il codice a mano. Anche perchè oggettivamente è un risparmio di tempo se quelle API le conosci.
Quello che voglio dire è che secondo me le differenze ci saranno ma saranno nell'hardware dedicato maggiormente: l'Air magari avrà 8 core ad alte prestazioni (numeri a caso) ognuno potente 10 e il Pro da 16 ne avrà 16 potenti 15 ognuno, ma la vera differenza sarà nel fatto che l'Air non ha il chip per la transcodifica video (quello che fa l'Afterburner, non ricordo esattamente il nome) e il chip per i calcoli matriciali è 10 volte più potente sul 16 rispetto all'Air (sempre numeri a caso).
Semplicemente perchè l'Air è nato per una roba (scrittura, web e programmi non troppo spinti), il 16 è una workstation mobile e metterci più roba ha senso.
Questo dicevo.
Dopo è chiaro che la potenza ci vorrà anche sui core general purpose, su questo non ci piove.
Tu parli dei chip da server con molti core tipo quello amazon: il graviton. È tutta teoria, non sappiamo neanche cosa hanno e se è possibile mettere un apple silicon da 64/128 core in un macbook pro 16. Forse si, forse no... Staremo a vedere. Fosse così semplice anche Qualcomm avrebbe preso il suo design, messo 64 core in fila, e dato il processore a microsoft per metterlo nei PC WoA... Evidentemente non è così facile.
Io spero in tanta sana concorrenza spietata dove, finalmente, a guadagnarci saremo noi: prezzi bassi e prestazioni alle stelle!
hahaha che bello vedere gente che crede alla favola delle App Iphone su Mac....
Ma secondo te su un "sistema desktop" (o notebook che sia..) che utilizza principalmente mouse e tastiera come sistemi di input, che ha un file system con cui l'utente deve poter interagire, con un display dalle forma e dimensione che nulla ha a che fare con quello di un telefono ecc ecc basta installare una app creata per funzionare con il touch su di un IPhone??? Il fatto che sià "tecnicamente fattibile" installare non significa che sia una cosa utile per l'utente.
Per rendere fruibile in modo sensato un app sui 2 sistemi ci sono pesanti modifiche da fare all'app stessa e stai pure certo che fino a quando il numero dei dispositivi arm in circolazione non sarà ragionevole le software house non investiranno migliaia di € per fare questo porting che tra l'altro in molti casi non ha nemmeno senso perchè ti converrebbe cmq avere 2 app separate per i 2 sistemi vista le grandi differenze che continuano ad avere.
Per me apple ha preso la direzione giusta nel modo giusto.
Microsoft ha venduto prodotti con WindowsRT da un giorno all’altro... per cambiare n volte la strategia negli anni per ritrovarsi addirittura indietro nella strategia soltanto il primo step pubblico di Apple.
Bah, la cosa é quasi ridicola.
In parte sì, è una questione di pp, ma è anche vero che l'architettura ormai non riesce più a migliorare e tutto ruota intorno all'aumento delle frequenze (che poi è normale visto che ha un decennio abbondante sulle spalle). Ormai sono 4 anni che Intel ha una concorrenza forte.
Certo che giravano senza problemi, ma le prestazioni erano comunque quelle che erano. In pratica facevi un uso tablet. Microsoft ha voluto prendere SoC da smartphone e adattarli ad un uso notebook con un risultato complessivamente scadente. Apple di sicuro riuscirà a fare lo stesso adattamento ma, appunto, per la parte meno prestante della line up. Per quella più prestante ci voglio soc ad hoc.
Sì, di sicuro faranno uso di coprocessori per task specifici ma questo avviene anche in ambito x86. In genere la crittografia è gestita da un coprocessore apposito, così come la decodifica video. Avere coprocessori è utilissimo per task specifici ma non ti consente di avere elevate prestazioni general purpose perché ogni coprocessore occupa spazio sul die. Quindi ad un certo punto dovrai fare delle scelte, non basta che prendi e aumenti roba a caso sul die. Già l'avere core prestanti e core a basso consumo occupa spazio ed è il motivo per cui nel mondo x86 è stato fatto raramente questo approccio visto che non era fondamentale avere autonomie estreme.
Non vanno riscritte, ma ricompilate. Alcune applicazioni necessiteranno di qualche step in più. La linea con Apple Silicon potrà eseguire le precedenti applicazioni in emulazione mentre la vecchia linea non potrà eseguire il ricompilato ARM.
Per molte app coesisteranno 2 versioni.
Secondo me potrebbero già avercelo una CPU pari ad un i9, anche se probabilmente hanno solo qualcosa per Air e Pro 13. Considera che ci sono già stati altri chip ARM negli ultimi anni e riescono a competere con x86 ben più prestanti di un "banale" i9
Caspita che argomentazione inutile, difficile fare di peggio.
E sopratutto che non ha idea di cosa parla perchè il mercato va esattamente in quella direzione e non nella direzione dei megaprocessori da 500 watt che cercano di fare tutto e male.
Vai su qualche sito serio invece di cercare solo pc da gheiming