Intel annuncia Aurora genAI e un supercomputer da oltre 2 ExaFlop

23 Maggio 2023 4

Intel ha annunciato Aurora genAI, un nuovissimo modello di intelligenza artificiale generativa pensato per operazioni scientifiche, e parallelamente anche l'omonimo supercomputer, chiamato per l'appunto, Aurora, che verrà utilizzato proprio per alimentare questa complessa tecnologia. Il tutto è avvenuto durante il keynote ISC23 poche ore fa.

Aurora genAI verrà addestrato principalmente su testi e dati scientifici, oltre a codici relativi al dominio. Si parla quindi di un modello di intelligenza artificiale generativa con potenziali applicazioni in argomenti come, Biologia, ricerca medica, scienze climatiche. cosmologia, chimica con focus specifico su materiali polimerici, dunque argomenti decisamente importanti ma specifici. Aurora sarà una risorsa importante in una varietà di applicazioni scientifiche, dalla sintesi molecolare all'identificazione di processi biologici correlati al cancro e ad altre malattie, svolgendo un ruolo fondamentale nella creazione di nuovi farmaci.

Per capire la complessità e la potenzia richiesta da Aurora genAI, vi basti pensare che il nuovo LLM vanta qualcosa come 1 trilione di parametri. Solo per confronto, le versioni pubbliche di ChatGPT non hanno mai superato i 175 milioni di parametri.


Per sostenere un LLM così complesso Intel ha sviluppato il supercomputer Aurora, che sarà utilizzato nell'Argonne National Laboratory negli Stati Uniti. Alimentato dalla serie Xeon CPU Max e Xeon GPU Max di Intel, il sistema è stato aggiornato rispetto ai propositi iniziali e ora è molto più potente.

Rispetto all'obiettivo iniziale di 1 exaflop, Aurora è in grado di arrivare a 2 exaflop. Ciò lo porterà a combattere ad armi pari con il supercomputer Frontier alimentato da AMD, che è attualmente il più veloce disponibile sulla Terra. In quanto a memoria, il supercomputer Aurora è dotato di 10,9 PB di DRAM DDR5 di sistema, 1,36 PB di capacità HBM attraverso le CPU e 8,16 PB di capacità HBM attraverso le GPU.


La DRAM di sistema raggiunge una larghezza di banda di picco di 5,95 PB/s, la CPU HBM raggiunge una larghezza di banda di picco di 30,5 PB/s e la GPU HBM raggiunge una larghezza di banda di picco di 208,9 PB/s. Per lo storage, il sistema è dotato di una capacità DAOS di 230 PB che funziona a una larghezza di banda di picco di 31 TB/s ed è configurato in un totale di 1024 nodi.

Aurora eseguirà l'ultima GPU Intel Data Center Max Series 1550, in grado di offrire le migliori prestazioni SimpleFOMP e surclassando di fatto gli acceleratori NVIDIA A100 e AMD Instinct MI250X. Il supercomputer Aurora verrà lanciato entro la fine dell'anno assieme all' ultimo modello Aurora gen AI.


4

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Federico

Solo per confronto, le versioni pubbliche di ChatGPT non hanno mai superato i 175 milioni di parametri.

Credo vi siete dimenticati qualche zero, sono billions ossia miliardi e non milioni.
E questo per GPT 3, non sono stati dichiarati i dati di GPT 4, che probabilmente rasentano il mezzo miliardo.

Slartibartfast

Aurora è il supercomputer con più ritardi nell'intera storia dei supercomputer, vedremo se arriverà davvero entro l'anno. Se venisse battuto sul tempo da El Capitan (più potente ed efficiente) sarebbe una beffa colossale.

Il modello AI sembra molto un esperimento senza sapere esattamente dove si vuole arrivare, faccio fatica a capire dove possa essere il vantaggio nel training di un modello così vasto su dati di ogni tipo rispetto a modelli ad-hoc, in ambito scientifico.

FabxRM

Quisquiglie in confronto a Sentient di cui è in possesso la CIA...

Jotaro

Intel adesso può dire che l'ha più lungo.

Recensione Asus ROG Swift PG42UQ, 42 pollici di puro godimento!

ROG Ally: abbiamo provato l’interessante ibrido tra console portatile e PC | VIDEO

NVIDIA Studio e Omniverse, come annullare 7.000 Km grazie alla tecnologia

Recensione GeForce RTX 4070 12GB: NVIDIA punta tutto sul DLSS 3.0