
Mobile 29 Ott
Gordon Moore è stato uno dei pionieri e filantropi della Silicon Valley, cofondatore di Intel Corporation e inventore della Legge di Moore, che ha previsto l'evoluzione esponenziale della potenza di elaborazione dei computer. Ci ha lasciati all'età di 94 anni.
Moore nacque a San Francisco nel 1929 e si laureò in chimica e fisica al California Institute of Technology. Iniziò a lavorare sui semiconduttori negli anni Cinquanta presso il Shockley Semiconductor Laboratory, dove conobbe Robert Noyce, con il quale fondò nel 1968 Intel, una delle aziende leader nel settore dei microprocessori.
Gordon Moore ha definito il settore tecnologico attraverso la sua intuizione e visione. É stato determinante nel rivelare il potere dei transistor e ha ispirato tecnologi e imprenditori nel corso dei decenni. Noi di Intel rimaniamo ispirati dalla legge di Moore e intendiamo perseguirla fino all'esaurimento della tavola periodica - Pat Gelsinger, CEO di Intel
Il mondo ha perso un gigante in Gordon Moore, uno dei padri fondatori della Silicon Valley e un vero visionario che ha contribuito a spianare la strada alla rivoluzione tecnologica. Tutti noi che lo abbiamo seguito gli dobbiamo un debito di gratitudine. Riposi in pace - Tim Cook, CEO di Apple
RIP Gordon Moore. La sua visione ha ispirato così tanti di noi a perseguire la tecnologia, è stata un'ispirazione per me. Un pensiero per la sua famiglia e tutti in Intel - Sundar Pichai, CEO di Alphabet
Moore fu anche un grande filantropo e ambientalista. Nel 2000 creò con sua moglie Betty la Gordon and Betty Moore Foundation, che ha donato oltre 2 miliardi di dollari a progetti di ricerca scientifica, conservazione della natura e assistenza sanitaria. Moore ha ricevuto nella sua vita numerosi riconoscimenti per i suoi meriti, tra cui la National Medal of Technology and Innovation, la Presidential Medal of Freedom e il Premio Kyoto.
Recensione Ecovacs Deebot T20 Omni: come lui nessuno | Video
Recensione ROG Ally: tanta potenza, ma non è adatta a tutti | Video
Recensione GOOGLE PIXEL 7a: è il medio gamma da COMPRARE? | Video
Microsoft crede nella fusione nucleare: accordo per l'acquisto di elettricità
Commenti
Anche Menga, ha fatto una brutta fine.
Si ma.. non sta avvenendo il contrario anzi, la miniaturizzazione dei componenti e dei computer procede a ritmo serrato. Il confronto fra una scheda RTX desktop e un chip ARM non ha il minimo senso poi, prestazioni diverse usi diversi. Piuttosto, bisognerebbe chiedersi quali dimensioni poteva avere una scheda video con la medesima potenza anni fa
Ha dettato i tempi del mercato.
E' una legge economica esposta usando come esempio i transistors , vale ancora ,per ottenere il massimo profitto devi raddoppiare le performance(reali o percepite dagli utenti) ogni 2 anni ovvero la gente acquista ogni 2 anni ,il mercato aldilà dell'evoluzione della miniaturizzazione continua a sfornare prodotti secondo le tempistiche previste da Moore che sono le migliori per guadagnare.
E' una legge economica esposta usando come esempio i transistors , vale ancora ,per ottenere il massimo profitto devi raddoppiare le performance(reali o percepite dagli utenti) ogni 2 anni ovvero la gente acquista ogni 2 anni , se ti fermi ai transisors sei come l'uomo che quando gli viene indicata la luna guarda il dito.
Nella realtà.
Nei sogni di chi vuole che sia così.
Ma allora non capisci proprio... Hai presente le "schede grafiche" già incluse in molte CPU? Quelle sono già molto più potenti delle schede grafiche "vere" di dieci anni fa! Se ci sono adesso dei "mostri" è perché sono molto più potenti di prima!
E anche Dei Grandi Numeri
La legge di Moore è ancora viva e vegeta.
Hai cambiato università?
Passato alla storia per una affermazione che si è rivelata abbastanza presto falsa?
La previsione di Moore sarebbe più corretto.
Si ok, non ci siamo capiti. È sbagliato chiamarla legge perché non è la parola giusta. Dovrebbe essere più “Obiettivo a lungo termine del miglioramento di produzione di Moore” visto oltretutto che è stata ritoccata più di una volta per tenerla in vita (cambio di tempo, all inizio indicava anche i mhz che chiaramente si sono fermati in poco tempo…).
Quando il mercato pc/server si è arenato intel ha smesso di evolvere lasciandola in mano ai concorrenti per poterla tirare avanti. Senza gli smartphone non ci sarebbe stata una richiesta mostruosa di chip a basso consumo che hanno spinto tsmc, samsung e altri a spingersi oltre in nm per creare le condizioni per continuare l’aumento del numero dei transistor. Infatti con gli anni è stato preso come mantra per pianificare i chip futuri in apple, nvidia, amd e gli altri. Ma per aumentare il numero di transistor cosa ci han messo dentro? Aumento del numero di core (ora fermo perché c è un limite al suo utilizzo consumer), il neural engine di Apple può essere esponenziale (sempre fino a quando ci sarà richiesta di potenza in quel campo da parte degli sviluppatori), le gpu integrate quando prima stavano in un chip a parte (però ora contano come uno solo). Ora la fisica metterà un freno alla discesa in nanometri e quasi sicuramente la potenza attuale dei chip per smartphone raggiungerà il limite richiesto dagli utenti (all inizio potevi cambiare smartphone ogni anno che c’erano miglioramenti evidenti nella velocità, poi siamo passati ogni 2 anni, poi 3… come quello che è successo nel segmento pc) in qualche anno. Quando anche questo mercato inizierà la discesa delle vendite rallenteranno anche i processi di produzione per le minori richieste e denaro da investire nelle linee successive.
A occhio il prossimo componente ad integrarsi nel singolo chip è la ram. Ora alcuni la saldano vicino alla cpu (come si faceva prima con le gpu per poi integrarle) e quando il divario delle velocità degli ssd sarà ancora più sottile (ci aveva provato intel con 3d xpoint ma ora abbandonato perché lo ha gestito come itanium) ci sarà il salto con meno bisogno di “raddoppio dei gb ogni altro anno. Già ora lato desktop non ci si muove sugli entry level come qualche anno fa mentre nei telefoni è ancora gara
Più che la sua "legge" è il fenomeno descritto ad aver rivoluzionato la tecnologia. A lui il merito di averlo descritto, in parte anticipandolo.
Perchè più che una legge era una previsione, poi disattesa tra l'altro :D
e certo, primo il costo per transistor non sta più scendendo, secondo per alta parallelizzazione le unità di calcolo devono essere di più, e occupano più spazio e consumano di più. di fatti questo fenomeno lo chiamano "more than moore" per una ragione.
… che non è una legge
guarda non rispondere lascialo stare. è un fanboy Apple patentato.
x86 vs asic.
a parte per le schede video ogni altro componente è ultra conveniente, puoi portarti a casa 1t di ssd gen4 con meno di 100 euro ad esempio
da quando ha scritto la legge i computer sono diventati più veloci, economici e compatti, questo non puoi negarlo.
poi che in questi ultimi anni stia accadendo l'opposto è un'altra storia
Moore sosteneva che con questa legge i computer sarebbero diventati più veloci, economici e compatti.
I PC sono diventati più veloci, più costosi e stanno diventando meno compatti del solito.
Non è quello il punto, nonostante le nuove RTX abbiano un’ottima efficienza energetica hanno dimensioni enormi.
I laptop che vedo in giro diventano sempre più grossi e spessi con alimentatori esterni mostruosi. E tutto questo nonostante i transistor diventano sempre più piccoli, se per te è normale va bene, ma non è questo il senso di “miniaturizzare” qualcosa.
che poi la "legge di moore" non c'entra niente con la dimensione dei chip.
Ci riescono solo i bambini, da un anno a due
Ossia, non solo spari un'immensa ca####a ma poi la ripeti pure... Non ti è mai venuto in mente che "forse" le cose "sempre più grosse e che consumano di più" facciano cose leggermente diverse dal vecchio hardware? Vuoi provare a fare del ray-tracing in tempo reale con una scheda di dieci anni fa?
ancora stai a comparare una cpuu x86 con arm?
purtroppo non è riuscito a raddoppiare al sua età ogni anno :(
alla buon ora eh!
Dispiace tanto, come dispiace il fatto che le aziende abbiano abbandonato la sua idea di “computer” sempre più piccolo nonostante abbiano addirittura superato la sua legge. A parte Apple che con i suoi nuovi soc ha fatto un bel lavoro sotto questo punto di vista (CPU/GPU performanti e a basso consumo in dimensioni da dispositivo mobile), gli altri mi sembrano che facciano uscire roba sempre più grossa e che consuma di più, un peccato.
Per come si stanno comportando le aziende adesso non è più valida da anni. Raddoppiano numeri di transistor (anche più del doppio) ma fanno uscire sempre roba che consuma un botto e più ingombrante (vedi le schede video NVIDIA).
Avrebbe potuto farsi ibernare il cervello per sapere nel futuro fino a quando la sua legge è rimasta valida.