Il primo processore Apple Silicon potrebbe avere 12 core

19 Luglio 2020 170

Continua ad essere altissima l'attenzione su Apple e i nuovi processori Apple Silicon presentati durante il WWDC dello scorso mese. Dopo le informazioni emerse venerdì circa il possibile debutto entro fine anno di MAcbook Air e Macbook 13 basati su questa nuova architettura, arrivano adesso ulteriori dettagli anche se non confermati.

Sappiamo che l'azienda di Cupertino ha intenzione di migrare tutto il suo portafoglio di dispositivi ad Apple Silicon entro il 2022, una sfida davvero notevole e che si scontra con la necessità di portare grande potenza di calcolo su base ARM anche nel mondo desktop. Per farlo sicuramente sarà necessario utilizzare un numero di core importante ed oggi arrivano le prime indiscrezioni.

Secondo quanto emerso in rete, il primo Apple Silicon che debutterà sui Macbook a fine anno avrà 12 core. 8 core saranno ad alta frequenza in modo da garantire massime prestazioni, gli altri 4 core saranno invece ad alta efficienza energetica e saranno abilitati per far girare tutte quelle operazioni di base e che non necessitano la massima potenza.

Sarà quindi molto interessante vedere quanto la piattaforma ARM sviluppata da Apple, riesca ad offrire prestazioni ottime e in linea con i portatili di ultima generazione comparabili e quanto l'ottimizzazione del sistema MacOS permetta di avere un'autonomia sopra la media.

Il top di Huawei al miglior prezzo? Huawei P30 Pro, in offerta oggi da interteria a 455 euro oppure da ePrice a 496 euro.

170

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Federico
Martino Dini

Non è un avvicinamento di iOS a Mac ma un avvicinamento di Mac a iOS...

Ciò che Apple sta facendo è cercare una connessione per fare sì che macOs venga implementato con iOS e non vice versa.
La mossa vincente è nel fatto che tornano a rendere Apple un ecosistema isolato, unico, almeno finché Windows non seguirà.

Secondo me entro Natale si smuoverà qualcosa anche da Redmond

Martino Dini
B!G Ph4Rm4

Io continuo eh, vecchio 50enne

Khan

Sono pietrificato dal terrore, Sig. Ingegnere Capo!

B!G Ph4Rm4

Dai che magari ti levi dalle 0.0

Khan

La prego, Sig. Ingegnere Capo, non lo faccia, la scongiuro!

B!G Ph4Rm4

Ma figurati, poi ti segnalo pure così magari ti bannano

Khan

Non oso contraddirla, Sig. Ingegnere Capo. Dall'alto delle Sue due lauree, come potrei mai?

B!G Ph4Rm4

Ma guarda il fatto che tu sia completamente digiuno in materia e che non abbia letto neanche per sbaglio qualcosa su come vengono gestiti i calcoli nei moderni computer/server/datacenter dovrebbe spingerti a imparare, non a disturbare gli altri con la tua arrogante ignoranza

Khan

Ha perfettamente ragione Sig. Ingegnere Capo, ho forti difficolta a capire le str0nz@te.

B!G Ph4Rm4

Si era capito benissimo.
Non credo nemmeno che riusciresti a capirli

Khan

Le dirò, Sig. Ingegnere Capo, che ho letto e seguito attentamente i Suoi interventi, ad eccezione degli ultimi tre o quattro, che, in tutta franchezza, non ho nemmeno letto. Mi sono bastati i precedenti. Cordiali saluti.

B!G Ph4Rm4

Io comunque non credo che tu abbia proprio capito di cosa stavamo parlando.
O sbaglio?

Khan

Hai assolutamente ragione, infatti ha anche deciso di abbandonare x86.

B!G Ph4Rm4

Infatti Intel non si sta buttando nel campo degli acceleratori deep learning con Nervana, non si è comprata Altera per fare gli FPGA e non si sta buttando nel campo delle GPU LOL

Khan

Hai ragione tu. Come dare torto ad un capo ingegnere Intel?

B!G Ph4Rm4

GENIO dal livello semi-serio in poi a meno che tu non sia un imb3cille USI un co-processore per svolgere il lavoro che devi fare, se esiste.
Se devi fare deep learning usi un certo tipo di schede tesla, o le TPU di google, se devi fare inferenza usi un'altro tipo di scheda con unità di calcolo a bassa precisione, se fai grafica 3D magari con RT compri le quadro con i tensor core, se devi applicare filtri con machine learning alle foto usi i chip dedicati presenti, ecc. ecc.
Non esiste (quasi) più che compri 400 processoroni e gli fai fare tutto, dal deep learning alla grafica alla musica, indipendentemente dal contesto, esistono chip dedicati che fanno la stessa cosa di un processorone da 10.000 euro alla metà del prezzo e 150 volte più velocemente, devi essere un totale babb3o se ti metti a farle su hardware non dedicato

Non è che siccome tu conosci solo il processorino per il computering da gaming allora tutto il mondo è limitato a quello.

Khan

Sì, certo, hai ragione tu. Hai già mandato il curriculum? A quando la promozione a ingegnere capo?

Alex Citton

Vivono di iPhone... i Mac vedono quanto gli iPad e il grosso del volume sono i portatili di fascia “bassa”(per la Apple).

Alex Citton

Io non credo abbiano fatto molte “operazioni” con Mac Pro... è ottimo ma è anche abbastanza semplice a livello “concettuale”, e costa abbastanza da ripagare lo sviluppo anche con poche unità vendute...
probabilmente sono avanti, ma i set di istruzioni di x86 per certe operazioni avanzate semplicemente fanno la differenza... e la vedo dura che ARM raggiunga Xeon nel breve periodo

AbstractBit

30-40% da sempre per Apple, circa il doppio, nel caso di alcuni modelli, per la concorrenza Android, d'Asia.

AbstractBit

Innanzitutto pc arm e macqualcosa sono una contraddizione.
Secondo qualunque sia la decisione sui prezzi, essa dipenderà dalla qualità dei componenti.

Nella concorrenza vale il principio opposto, quello secondo cui i componenti sono l'ultima cosa da guardare e i clienti tonti la prima.Nessuna offesa, è un principio del marketing: si fa credere ai clienti che comprando il proprio prodotto si frega qualcun altro e si è sicuri che qualcuno abbocca.

Nel mondo Android, ad esempio,sono la maggioranza, basta girare per i blog e contarei piagnucolanti che si lamentano che Apple costa troppo.

Non è una cosa certa, ovviamente, ma assai probabilmente hanno appena acquistato un dispositivo ad hoc, si sono accorti di essere stati fregati o entrambe le cose.

Non hanno più soldi, la loro ciofeca non la vuole nessuno e loro possono solo sbavare....

sardus

Bha negli anni tutti quelli che in ufficio o dai clienti usano MacOS alla fine hanno sempre una VM con Windows....se non si potrà più fare, secondo me, si tagliano fuori una bella fetta di mercato, oppure quelli che ci vogliono giocare...

Andrà bene alle persone come mia moglie, iPhone, iPad e Mac come unico ambiente, con scambio di informazioni e app e durata della batteria pazzesca.

B!G Ph4Rm4
Questo però non cambierà con la nuova architettura Apple: poiché ogni SoC avrà caratteristiche sue la disponibilità di talune funzioni sarà condizionale come già avviene nel mondo Android da diversi anni.

Mai detto il contrario.

E vorrei anche vedere, hai preso praticamente l'unico contesto dove scalare sui core sia fondamentale. Non a caso spesso si usano le GPU per i calcoli perché di core ne hanno migliaia. Prendi però applicazioni come iTunes che Apple ha tenuto single core per una vita. Pure i giochi spesso non scalano granché oltre i 4-6 core

Appunto.
Non è che sia sempre necessario scalare sui core, lo fai dove serve, iTunes (o mail, o la calcolatrice o il lettore di pdf, o spotify o quello che ti pare) va già alla grande (è un programmino) così, non c'è necessità di mandare in parallelo. Idem per i videogiochi: i videogiochi già girano in parallelo (girano su una GPU LOL), quello che rimane sulla CPU è tutta roba difficile o impossibile da parallelizzare, per questo non servono 64 core per giocare bene.

10 no, ma 5 è probabile. E considerato che la stessa Apple ha parlato di due anni di transizione e non credo che abbia iniziato a lavorarci la settimana scorsa direi che sia abbanstanza d'accordo con me. Il lavoro in sé è fattibile, quello che è difficile è farlo bene impattando il meno possibile gli utenti.

D'accordo con te.

DeeoK
Certo che del codice lo devi scrivere, ma mica ti metti a implementare l'algoritmo a basso livello, ci sono già librerie pronte che con due righe di Swift ti fanno l'operzione. Così come se devi moltiplicare due matrici non ti metti a scriverle in CUDA-C ma puoi comodamente richiamare due funzioncine in Python a cui passi i parametri e ti ritornano il risultato. Tra l'altro le hanno già mostrate le API per farlo, richiami tutto da Swift.

Sì, ma funziona già così. Se reimplementi l'algoritmo è perché hai necessità specifiche, la stragrande maggioranza richiama le API standard o di librerie apposite. Se chiami CUDA-C è perché ti interfacci con un coprocessore grafico Nvidia e lo fai comunque tramite l'API CUDA.

Dipende, se vuoi utilizzare le istruzioni SIMD devi usare primitive diverse (tipo MKL)

Ma sono casi particolari e, comunque, le MKL funzionano anche su CPU AMD (anche se Intel ha visto bene di peggiorare le prestazioni se non si adottano alcuni accorgimenti). Questo però non cambierà con la nuova architettura Apple: poiché ogni SoC avrà caratteristiche sue la disponibilità di talune funzioni sarà condizionale come già avviene nel mondo Android da diversi anni.

Ma in realtà la maggior parte delle applicazioni di calcolo (tutti i programmi che ho scritto io a dir la verità) scalano che è una meraviglia all'aumentare dei core. Ovvio che un'app di messaggistica non lo fa (non gli serve nemmeno), ma quelle in cui bisogna fare tanti calcoli se ben scritte scalano da 2 a 200 core tranquillamente.

E vorrei anche vedere, hai preso praticamente l'unico contesto dove scalare sui core sia fondamentale. Non a caso spesso si usano le GPU per i calcoli perché di core ne hanno migliaia. Prendi però applicazioni come iTunes che Apple ha tenuto single core per una vita. Pure i giochi spesso non scalano granché oltre i 4-6 core. Non tutti i

Già sono state integrate nel SoC e anche nelle CPU x86, è una cosa fattibile e che porta immensi vantaggi.

Certo che è fattibile, mica ho mai detto il contrario.

Ma guarda, alla fine è quello che sto dicendo io.
Quello che io sostengo è che non sia un lavoro titanico che richieda miliardi di dollari di R&D con 10 anni di lavoro annesso.

10 no, ma 5 è probabile. E considerato che la stessa Apple ha parlato di due anni di transizione e non credo che abbia iniziato a lavorarci la settimana scorsa direi che sia abbanstanza d'accordo con me. Il lavoro in sé è fattibile, quello che è difficile è farlo bene impattando il meno possibile gli utenti.

B!G Ph4Rm4

Certo che del codice lo devi scrivere, ma mica ti metti a implementare l'algoritmo a basso livello, ci sono già librerie pronte che con due righe di Swift ti fanno l'operzione. Così come se devi moltiplicare due matrici non ti metti a scriverle in CUDA ma puoi comodamente richiamare due funzioncine in Python a cui passi i parametri e ti ritornano il risultato. Tra l'altro le hanno già mostrate le API per farlo, richiami tutto da Swift.

Non è che se devi scrivere un software Windows prevedi codice diverso per AMD e Intel anche se hanno architetture diverse.

Dipende, se vuoi utilizzare le istruzioni SIMD devi usare primitive diverse (tipo MKL)

Anche qui non è così semplice: intanto non è detto che sia possibile far scalare bene tutte le applicazioni su tanti core quindi il rischio di avere gli stessi core potrebbe tradursi in prestazioni finali mediocri a meno di non aumentare a dismisura il TDP, inoltre avere il chip per i calcoli matriciali più potente significa che occuperà più spazio sul die e quindi è un problema da gestire perché l'occupazione dello spazio deve essere ben studiata quindi alla fine è probabilmente che dovranno, appunto, ripensare l'architettura. Anche perché su un iMac, ad esempio, avere core a basso consumo non serve assolutamente a nulla, è spazio sprecato.

Ma in realtà la maggior parte delle applicazioni di calcolo (tutti i programmi che ho scritto io a dir la verità) scalano che è una meraviglia all'aumentare dei core. Ovvio che un'app di messaggistica non lo fa (non gli serve nemmeno), ma quelle in cui bisogna fare tanti calcoli se ben scritte scalano da 2 a 200 core tranquillamente.

calcoli matriciali più potente significa che occuperà più spazio sul die e quindi è un problema da gestire perché l'occupazione dello spazio deve essere ben studiata quindi alla fine è probabilmente che dovranno

Già sono state integrate nel SoC e anche nelle CPU x86, è una cosa fattibile e che porta immensi vantaggi.

In generale è sempre la solita storia della coperta troppo corta: se provi a generalizzare troppo rischi che determinati aspetti siano trascurati con prodotti finali mediocri. Molto meglio avere prodotti pensati per i diversi tipi di utilizzo. Anche perché alla fine si tratta di avere solo due diverse architetture

Ma guarda, alla fine è quello che sto dicendo io.
Quello che io sostengo è che non sia un lavoro titanico che richieda miliardi di dollari di R&D con 10 anni di lavoro annesso.

Accapi

Guarda che delle applicazioni opensource il 99% gira già su arm

DeeoK

" loro puntino a farti usare le API che sfruttano hardware dedicato piuttosto che farti scrivere il codice a mano"

Ehm... per usare le API scrivi codice a mano :D
Quasi nessuno scrive codice di basso livello ora come ora, tutti si appoggiano ad API anche perché altrimenti sarebbe un incubo. Poi ci possono essere più o meno livelli di astrazione sotto ma immagino che nel caso dei nuovi SoC non sarà diverso dallo scrivere codice C/C++.

Probabilmente prevederanno un framework e delle API per elementi comuni del sistema (come lo stile grafico) ma non è nulla di diverso da quanto avviene già su Windows e Linux (e pure su MacOS).

Non è che se devi scrivere un software Windows prevedi codice diverso per AMD e Intel anche se hanno architetture diverse. Al limite, sapendo di pregi e difetti di quelle architetture, puoi optare per accorgimenti specifici, niente di più.

"Quello che voglio dire è che secondo me le differenze ci saranno ma
saranno nell'hardware dedicato maggiormente: l'Air magari avrà 8 core ad alte prestazioni (numeri a caso) ognuno potente 10 e il Pro da 16 ne
avrà 16 potenti 15 ognuno, ma la vera differenza sarà nel fatto che
l'Air non ha il chip per la transcodifica video (quello che fa
l'Afterburner, non ricordo esattamente il nome) e il chip per i calcoli
matriciali è 10 volte più potente sul 16 rispetto all'Air (sempre numeri
a caso)."
Anche qui non è così semplice: intanto non è detto che sia possibile far scalare bene tutte le applicazioni su tanti core quindi il rischio di avere gli stessi core potrebbe tradursi in prestazioni finali mediocri a meno di non aumentare a dismisura il TDP, inoltre avere il chip per i calcoli matriciali più potente significa che occuperà più spazio sul die e quindi è un problema da gestire perché l'occupazione dello spazio deve essere ben studiata quindi alla fine è probabilmente che dovranno, appunto, ripensare l'architettura. Anche perché su un iMac, ad esempio, avere core a basso consumo non serve assolutamente a nulla, è spazio sprecato.

In generale è sempre la solita storia della coperta troppo corta: se provi a generalizzare troppo rischi che determinati aspetti siano trascurati con prodotti finali mediocri. Molto meglio avere prodotti pensati per i diversi tipi di utilizzo. Anche perché alla fine si tratta di avere solo due diverse architetture (basate sicuramente su elementi comuni, ci mancherebbe): una per TDP fino a 5-7W ed una per TDP > 10W.

Per ora, che io sappia, nessuno è riuscito a tirare fuori un'architettura che scali bene da 3 a 250W. Dei sacrifici sono sempre stati necessari.

Lino Torvaldi

A Intel frega relativamente di AMD con amd64. ARM è la vera minaccia visto che sta pian piano diffondendosi anche nei datacenter.

IRNBNN

Microsoft soffre della concorrenza interna. Se la gente usa windows è perche ha tutto. Se cambi architettura pero diventa un sistema operativo che non ha nulla. Lo store e le universal app (che non sono stati cagati da nessuno) servivano proprio a questo.

Shalashaska

L'innovazione piace

Shalashaska

Microsoft è imbarazzante dai

Lucaaa

Ma è eppol che adora mettere poca ram..

Matteo R.

Guarda che arm ora funziona a 64bit quindi supporta memorie superiori a 4GB

fopyx

si, a lungo termine. Dubito che gli investimenti fatti per sviluppare e produrre dei chip da se si ripaghi in qualche anno..

B!G Ph4Rm4

Si si è solo speculazione per ora (anche se io comunque ritengo che abbiano già almeno i prototipi per tutta la gamma, non provare prima sarebbe da folli).

E non dimentichiamoci che amd ed intel non staranno certo a guardare né prestazionalmente né commercialmente (leggi faranno calare i prezzi drasticamente rispetto ad oggi alle strette).

Per forza di cose dovranno farlo. O almeno dovrebbero ridurre (anche AMD) le richieste energetiche dei loro chip perchè a me magari non cambia nulla ma per un datacenter che magari ha migliaia di CPU, se ognuna consuma 250 watt è un conto, se ne consuma 120 ne è un altro.

acitre

Hai messo in fila tanti se e tanti ma... Quello che ho detto io alla fine. Non resta che aspettare e vedere come evolve la situazione.

Sheldon!

Si ma in quel caso (dissipazione carente e prezzo aumentato) sarebbe un limite artificiale creato per spingere la vendita di un prodotto rispetto ad un altro

Sheldon!

Ma se manco sa la differenza tra RISC e CISC

Sheldon!

Ormai il settore Pro dei Mac è finito, ARM su MacOs è solo la pietra sopra. A parte lo sviluppo per iOS / Mac, che uso Pro può avere un Mac? Mancano molti software per la fatturazione, la suite Adobe gira meglio su altri lidi, i software Cad sono assenti e se ci sono sono in versioni non aggiornate, il settore Server è inesistente, e così via. Ormai il settore Pro sta morendo, il che non è neanche necessariamente troppo un male perché è quello che (causa retrocompatibilità) tiene ancorata MS al passato mentre da ad Apple molta più libertà

B!G Ph4Rm4

Guarda il graviton 2 ti dico che a parità di core costa meno sia degli Epyc che degli Xeon, non li ho usati solo perchè non ero sicuro che fosse compatibile con tutto e perchè non c'erano le istanze che volevo io (quelle con meno memoria perchè avere 8 core e 32 gb di ram era uno spreco di soldi, e quindi ho preso gli Epyc alla fine)

Fosse così semplice anche Qualcomm avrebbe preso il suo design, messo 64 core in fila, e dato il processore a microsoft per metterlo nei

E infatti ti farei notare che quest'anno ARM ha presentato i Cortex X o come si chiamano non ricordo per offrire SoC ad "altissime prestazioni". Secondo me è un chiaro invito a fare più roba sul versante pc classico.

L'importante è che ci sarà, finalmente, tanta sana concorrenza spietata dove a guadagnarci saremo noi: prezzi bassi e prestazioni alle stelle! Sia lodato...

Senza dimenticare che se tanti usano ARM, tanti programmi verranno portati su ARM, ed è questo quello che conta tantissimo. Io visto il costo minore e visto che spesso la CPU non mi serve a un tubo (serve la GPU), quando mi serve un'istanza prenderei tranquillamente un server basato su ARM, ma se non ho la sicurezza di poter installare tutto quello che voglio, preferisco spendere un po' di più e prendere Intel o AMD. Speriamo che questo problema venga risolto almeno per la gran parte di roba professionale (e di sviluppo)

B!G Ph4Rm4

Si ma infatti non sto dicendo che i core general purpose saranno uguali su tutti dagli Air ai Mac Pro (desktop), chiaramente avranno potenze diverse anche quelli, ma mi sembra chiaro che loro puntino a farti usare le API che sfruttano hardware dedicato piuttosto che farti scrivere il codice a mano. Anche perchè oggettivamente è un risparmio di tempo se quelle API le conosci.

Quello che voglio dire è che secondo me le differenze ci saranno ma saranno nell'hardware dedicato maggiormente: l'Air magari avrà 8 core ad alte prestazioni (numeri a caso) ognuno potente 10 e il Pro da 16 ne avrà 16 potenti 15 ognuno, ma la vera differenza sarà nel fatto che l'Air non ha il chip per la transcodifica video (quello che fa l'Afterburner, non ricordo esattamente il nome) e il chip per i calcoli matriciali è 10 volte più potente sul 16 rispetto all'Air (sempre numeri a caso).
Semplicemente perchè l'Air è nato per una roba (scrittura, web e programmi non troppo spinti), il 16 è una workstation mobile e metterci più roba ha senso.
Questo dicevo.
Dopo è chiaro che la potenza ci vorrà anche sui core general purpose, su questo non ci piove.

acitre

Tu parli dei chip da server con molti core tipo quello amazon: il graviton. È tutta teoria, non sappiamo neanche cosa hanno e se è possibile mettere un apple silicon da 64/128 core in un macbook pro 16. Forse si, forse no... Staremo a vedere. Fosse così semplice anche Qualcomm avrebbe preso il suo design, messo 64 core in fila, e dato il processore a microsoft per metterlo nei PC WoA... Evidentemente non è così facile.

Io spero in tanta sana concorrenza spietata dove, finalmente, a guadagnarci saremo noi: prezzi bassi e prestazioni alle stelle!

csharpino

hahaha che bello vedere gente che crede alla favola delle App Iphone su Mac....
Ma secondo te su un "sistema desktop" (o notebook che sia..) che utilizza principalmente mouse e tastiera come sistemi di input, che ha un file system con cui l'utente deve poter interagire, con un display dalle forma e dimensione che nulla ha a che fare con quello di un telefono ecc ecc basta installare una app creata per funzionare con il touch su di un IPhone??? Il fatto che sià "tecnicamente fattibile" installare non significa che sia una cosa utile per l'utente.
Per rendere fruibile in modo sensato un app sui 2 sistemi ci sono pesanti modifiche da fare all'app stessa e stai pure certo che fino a quando il numero dei dispositivi arm in circolazione non sarà ragionevole le software house non investiranno migliaia di € per fare questo porting che tra l'altro in molti casi non ha nemmeno senso perchè ti converrebbe cmq avere 2 app separate per i 2 sistemi vista le grandi differenze che continuano ad avere.

Per me apple ha preso la direzione giusta nel modo giusto.
Microsoft ha venduto prodotti con WindowsRT da un giorno all’altro... per cambiare n volte la strategia negli anni per ritrovarsi addirittura indietro nella strategia soltanto il primo step pubblico di Apple.
Bah, la cosa é quasi ridicola.

DeeoK
Il problema di Intel però è anche in parte il PP e le diffocoltà connesse unite alla mancanza di concorrenza.

In parte sì, è una questione di pp, ma è anche vero che l'architettura ormai non riesce più a migliorare e tutto ruota intorno all'aumento delle frequenze (che poi è normale visto che ha un decennio abbondante sulle spalle). Ormai sono 4 anni che Intel ha una concorrenza forte.


L'esempio di Microsoft è in parte vero in parte no. Cioè i SoC è vero che facevano pena per un computer "vero", ma è anche vero che i software
scritti appositamente girano senza problemi.


Certo che giravano senza problemi, ma le prestazioni erano comunque quelle che erano. In pratica facevi un uso tablet. Microsoft ha voluto prendere SoC da smartphone e adattarli ad un uso notebook con un risultato complessivamente scadente. Apple di sicuro riuscirà a fare lo stesso adattamento ma, appunto, per la parte meno prestante della line up. Per quella più prestante ci voglio soc ad hoc.

[...]

Sì, di sicuro faranno uso di coprocessori per task specifici ma questo avviene anche in ambito x86. In genere la crittografia è gestita da un coprocessore apposito, così come la decodifica video. Avere coprocessori è utilissimo per task specifici ma non ti consente di avere elevate prestazioni general purpose perché ogni coprocessore occupa spazio sul die. Quindi ad un certo punto dovrai fare delle scelte, non basta che prendi e aumenti roba a caso sul die. Già l'avere core prestanti e core a basso consumo occupa spazio ed è il motivo per cui nel mondo x86 è stato fatto raramente questo approccio visto che non era fondamentale avere autonomie estreme.

GeneralZod

Non vanno riscritte, ma ricompilate. Alcune applicazioni necessiteranno di qualche step in più. La linea con Apple Silicon potrà eseguire le precedenti applicazioni in emulazione mentre la vecchia linea non potrà eseguire il ricompilato ARM.
Per molte app coesisteranno 2 versioni.

B!G Ph4Rm4

Secondo me potrebbero già avercelo una CPU pari ad un i9, anche se probabilmente hanno solo qualcosa per Air e Pro 13. Considera che ci sono già stati altri chip ARM negli ultimi anni e riescono a competere con x86 ben più prestanti di un "banale" i9

B!G Ph4Rm4

Caspita che argomentazione inutile, difficile fare di peggio.
E sopratutto che non ha idea di cosa parla perchè il mercato va esattamente in quella direzione e non nella direzione dei megaprocessori da 500 watt che cercano di fare tutto e male.
Vai su qualche sito serio invece di cercare solo pc da gheiming

Recensione MacBook Air con Apple Silicon M1, il futuro dei notebook è già qui

Recensione Mac Mini Apple Silicon M1, ho QUASI sostituito il mio desktop da 2K euro

iPhone 12, Mini, Pro e Max: vi spieghiamo le differenze (e quale scegliere)

Recensione iPhone 12 Mini: grazie Apple, ci voleva