
06 Giugno 2023
Intel ha annunciato Aurora genAI, un nuovissimo modello di intelligenza artificiale generativa pensato per operazioni scientifiche, e parallelamente anche l'omonimo supercomputer, chiamato per l'appunto, Aurora, che verrà utilizzato proprio per alimentare questa complessa tecnologia. Il tutto è avvenuto durante il keynote ISC23 poche ore fa.
Aurora genAI verrà addestrato principalmente su testi e dati scientifici, oltre a codici relativi al dominio. Si parla quindi di un modello di intelligenza artificiale generativa con potenziali applicazioni in argomenti come, Biologia, ricerca medica, scienze climatiche. cosmologia, chimica con focus specifico su materiali polimerici, dunque argomenti decisamente importanti ma specifici. Aurora sarà una risorsa importante in una varietà di applicazioni scientifiche, dalla sintesi molecolare all'identificazione di processi biologici correlati al cancro e ad altre malattie, svolgendo un ruolo fondamentale nella creazione di nuovi farmaci.
Per capire la complessità e la potenzia richiesta da Aurora genAI, vi basti pensare che il nuovo LLM vanta qualcosa come 1 trilione di parametri. Solo per confronto, le versioni pubbliche di ChatGPT non hanno mai superato i 175 milioni di parametri.
Per sostenere un LLM così complesso Intel ha sviluppato il supercomputer Aurora, che sarà utilizzato nell'Argonne National Laboratory negli Stati Uniti. Alimentato dalla serie Xeon CPU Max e Xeon GPU Max di Intel, il sistema è stato aggiornato rispetto ai propositi iniziali e ora è molto più potente.
Rispetto all'obiettivo iniziale di 1 exaflop, Aurora è in grado di arrivare a 2 exaflop. Ciò lo porterà a combattere ad armi pari con il supercomputer Frontier alimentato da AMD, che è attualmente il più veloce disponibile sulla Terra. In quanto a memoria, il supercomputer Aurora è dotato di 10,9 PB di DRAM DDR5 di sistema, 1,36 PB di capacità HBM attraverso le CPU e 8,16 PB di capacità HBM attraverso le GPU.
La DRAM di sistema raggiunge una larghezza di banda di picco di 5,95 PB/s, la CPU HBM raggiunge una larghezza di banda di picco di 30,5 PB/s e la GPU HBM raggiunge una larghezza di banda di picco di 208,9 PB/s. Per lo storage, il sistema è dotato di una capacità DAOS di 230 PB che funziona a una larghezza di banda di picco di 31 TB/s ed è configurato in un totale di 1024 nodi.
Aurora eseguirà l'ultima GPU Intel Data Center Max Series 1550, in grado di offrire le migliori prestazioni SimpleFOMP e surclassando di fatto gli acceleratori NVIDIA A100 e AMD Instinct MI250X. Il supercomputer Aurora verrà lanciato entro la fine dell'anno assieme all' ultimo modello Aurora gen AI.
Commenti
Solo per confronto, le versioni pubbliche di ChatGPT non hanno mai superato i 175 milioni di parametri.
Credo vi siete dimenticati qualche zero, sono billions ossia miliardi e non milioni.
E questo per GPT 3, non sono stati dichiarati i dati di GPT 4, che probabilmente rasentano il mezzo miliardo.
Aurora è il supercomputer con più ritardi nell'intera storia dei supercomputer, vedremo se arriverà davvero entro l'anno. Se venisse battuto sul tempo da El Capitan (più potente ed efficiente) sarebbe una beffa colossale.
Il modello AI sembra molto un esperimento senza sapere esattamente dove si vuole arrivare, faccio fatica a capire dove possa essere il vantaggio nel training di un modello così vasto su dati di ogni tipo rispetto a modelli ad-hoc, in ambito scientifico.
Quisquiglie in confronto a Sentient di cui è in possesso la CIA...
Intel adesso può dire che l'ha più lungo.