
27 Luglio 2022
Apple M2 è ufficiale alla WWDC 2022 in corso all'Apple Park di Cupertino. Abbiamo visto iOS 16, così come watchOS 9, ora concentriamoci sulla componente hardware dell'azienda californiana, destinata a prendere l'eredità della prima generazione.
Il SoC M2 è stato realizzato con processo produttivo a 5nm di seconda generazione, è formato da 20 miliardi di transistor (il 25% in più rispetto ad Apple M1) e con 100Gbps di banda di memoria (50% in più di M1), fino a 24GB di memoria unificata e nuovi core dedicati ad efficienza e performance garantisce prestazioni il 18% superiori di M1. É anche 1,9 volte più veloce dell'ultimo chip 10-core per PC laptop.
In sintesi:
Il chip di nuova generazione migliora sotto tutti i punti di vista, compresi il supporto ai video 8K e soprattutto il nuovo neural engine a 16 core con velocità superiore ad M1 del 40% capace di svolgere fino a 15,8 mila miliardi di operazioni al secondo. Apple dice che i sistemi con M2 saranno in grado di riprodurre streaming multipli di video 8K e 4K.
Apple M2 lo troveremo inizialmente sui nuovissimi MacBook Air e MacBook Pro.
Commenti
non ho parlato di color grading, ma di visione e taglio di tutte le cagate che non son venute bene e la consolidazione di quelle che son venute bene catalogate in modo che quando torni a casda non devo prenderti un altra vacanza per editarlo ma ho gia'tutti i file classificati e scremati.
Con un adattatore usb c con 2 uscite hdmi come tutti no?
e c'è bisogno di montare su telefono?
Con schede thunderbolt esterne si riesce ad avere 2 monitor esterni collegati, su youtube ci sono diversi video al riguardo.
Eh ma con un laptop avrei 3 monitor così invece sempre e solo 2. Secondo me proprio non hanno il supporto a livello di soc.
Se fai la prova fammi sapere
Assurdo proprio
1270p non usa quasi 30W? Questo poco più di 10. Differenza enorme
Sicuramente usciranno più avanti versioni più potenti del M2.
Molto probabilmente saranno le stesse che sono apparse con M1: M2 Pro, M2 Mac e M2 Ultra.
Ma sono sempre possibili sorprese.
purtroppo si, dovrei provare a vedere cosa succede se collegando un doongle, provassi a collegare un monitor usb-c direttamente al macbook e un altro monitor all'hdmi dell'adattatore, purtroppo in questo momento non dispongo di monitor usb quindi non posso fare la prova
credo sia castrato di proposito, chi ha la necessità di collegare più monitor è costretto ad orientarsi sui Pro, lo dimostra il mac mini M1 che due monitor li supporta (uno usb-c e uno con hdmi).
Non sono d'accordo .. Apple ha 3 soc.. m1 m1 pro e ultrà .. sono entrambi altissima fascia .. il dispositivo meno costoso con m2 sta 1500 euro ... Con l' m1 pro e ultrà si scontrano i vari 12800h e hx.. quindi la serie p intel come prestazioni e' tra le più scarse.. quella la PC sottili ..
nemmeno 1/10 dei transistor.
Il problema del tuo ragionamento è che il 1280p, per quando vecchio di 8 mesi, è il fiore all'occhiello di Intel per la mobilità.
M2 no. M2 è un base di gamma su cui vengono costruiti Pro Max e Ultra. È più sensato paragonarlo direttamente agli i5.
Son contento, se permetti.
Ti sei sbagliato.
nemmeno 1/10 dei transistor.
E' una miracolosa innovazione.
Vediamo! :D
Allora li batte! :)
Cisc o Risc elevated.
Per farli buttare.
La vera differenza sono le prestazioni a batteria. Con gli M1 hai tutta la potenza a disposizione a batteria e per molte ore. Con gli x86 devi attaccarti alla presa per avere le massime prestazioni. Altrimenti ti durano un paio d'ore.
A me fate un po' ridere, uno puo' andare a filmare squali balena e le isole che gli piacciono senza dover essere un content creator. Sai c'e' anche chi filma le cose per se stesso che tu ci creda o meno.
A me su questo sito fate un po' sorridere tutti...
Senza offesa, ma a leggere di mestiere sembrate tutti content creators.
ma in realta' neanche...e sarebbe strano il contrario
no se non ne capisci nulla direi di no.
ma anche senza lasciarla in background, il samsung semplicemente non puo;, ci mette piu' di un ora per quello che l'iphone fa in 14 minuti secchi, stiamo parlando di una differenza immensa
esatto, io ho un ryzen 5600X con una GPU del 2015 (in attesa di tempi migliori)
in casa mia Apple è proprio bandita
Più andiamo avanti e più 50w saranno considerati consumi esorbitanti, bisogna anche ragionare in ottica futura.
Ma sono super d accordo però avere più prestazioni consumando anche 45 watt quale e' il problema? Son 40 45w 50 w a pieno carico per avere prestazioni in più e non sono comunque consumi esorbitanti ..
Però se permetti io sono contento che abbia potuto montare una scheda video di penultima generazione sul mio povero Q9650.
Anche se non andrà mai come dovrebbe.
C'è il grafico, per le stesse prestazioni CPU di un 1260p consuma 10w contro i 35w, non penso che con il 1280 si sia arrivati a 10w.
Appena uscito l m1 aveva un vantaggio anche come prestazioni sulla concorrenza e non solo come consumi .. oggi un alder lake serie p montato su PC super sottili ha prestazioni migliori consumando di più si ma non esageratamente ...senza considerare che a breve 3sce la 13 gen
Facciamo 2 conti ... Un soc uscito ora va peggio in multi core di un 1280p uscito quasi 8 mesi fa .. a breve esce la 13gen .. i consumi ovviamente sono a favore della m2.. ma PC tipo il galaxy book 360 super sottile con un 1270p arriva a più di 10 ore facile .. ora con queste autonomie comunque buone date dalla serie p dove sarebbe tutta la magia dell' m2?
La serie p e' messa su PC super sottili con autonomie con più di 10 ore .. non consuma molto eh .. più di questo ma nulla di che
Si ma il 1270p non e' che consuma chissà quanto eh ..sta su un galaxy book pro 360 spesso come una sottiletta e fa tranquillo più di 10 ore ..anzi pure 12 13
sicuramente non vedono questa cosa come un problema, anzi. cè da dire pero che avere tutto un blocco "monolitico" ti da dei vantaggi, ti faccio un esempio. su un pc del 2000, potresti montare una scheda video di ultima generazione anche se non andrà al massimo, ma funzionerà (o viceversa). questo grazie al fatto che lo standard di connessione tra cpu e gpu è rimasto lo stesso in tutto questo tempo, si è evoluto ma ogni versione successiva aveva come requisito la compatibilità con la versione precedente.
la soluzione monoblocco non ti da questi vincoli, e puoi cambiare tutto ad ogni generazione.
ad esempio AMD ha comprato ATI (azienda che produceva le gpu ATI Radeon) nel 2006, ed una delle prime cose che ha detto è che questa fusione permetteva di creare delle APU (cpu+gpu) con memoria unificata tra le 2 componenti, a distanza di quasi 20 anni ancora non è riuscita a presentare una APU con memoria unificata, mentre Apple l'ha fatto gia con M1 nell'arco di pochi anni
Quindi è per questo che Apple l'ha adottato con M1?
Per farti buttare tutto appena devi cambiare qualcosa.
ni, quella è l'architettura interna della cpu. il mondo PC x86 nasce dai pc dekstop modulari in cui l'idea principale era quella di poter sostituire o aggiungere i vari componenti. il mondo ARM invece nasce per microcontroller o comunque dispositivi molto compatti, si è quindi sacrificato la modularità per la compattezza.
staremo a vedere! :)
Per un anno o due saranno in alto mare ma poi si allineeranno, anche Microsoft ora sta puntando molto (finalmente) su ARM.
certo, infatti chiedevo proprio se usciva anche di questo la versione max, ma è innegabile il passo in avanti con il precedente
Si me l'hanno insegnato a scuola.
Una roba tipo CISC e RISC o una cosa del genere.
Allora in realtà non è tutta questa miracolosa innovazione.
Ma è quello che ho detto.
Sottolineavo il fatto che sembra assurdo ma preferisco un computer con nemmeno 1/10 dei transistor.
vediamo cosa farà la concorrenza..
Ma anche per me vale la stessa cosa, però c'è chi lo preferisce e buon per loro, ci sbatteranno la testa