Tutti i prezzi sono validi al momento della pubblicazione. Se fai click o acquisti qualcosa, potremmo ricevere un compenso.

Microsoft lavora a chip AI proprietari: Project Athena | Rumor

18 Aprile 2023 4

A quanto pare Microsoft sta lavorando ai propri chip AI per ridurre o limitare una (tra le altre cose) costosa dipendenza da NVIDIA: l’indiscrezione proviene da The Information, secondo cui il progetto è partito già nel 2019. A quanto pare alcuni dipendenti Microsoft e OpenAI hanno già accesso ai prototipi di chip e ne stanno verificando la bontà con i LLM (Large Language Model) di ultima generazione, come GPT-4.

Per il momento NVIDIA ha un netto vantaggio rispetto al resto della concorrenza sui chip AI, facilmente comprensibile visto che si tratta in buona sostanza di parenti molto stretti delle GPU che si trovano anche nelle schede video gaming. Il colosso di Santa Clara è al top della “catena alimentare” di questo tipo di prodotto da decenni ormai. Proprio grazie all’enorme picco di interesse generatosi nell’ultimo periodo intorno all’intelligenza artificiale, i prodotti top del momento di NVIDIA, le recentissime GPU H100 e le A100 di precedente generazione, sono richiestissime e quasi introvabili, tanto che si iniziano a vedere le H100 a prezzi folli sulle varie piattaforme di compravendita online.

Negli scorsi giorni John Carmack in persona, leggenda dei motori grafici 3D e recentemente molto interessato all’argomento AI, ha osservato su Twitter prezzi superiori ai 40.000 dollari; non si sa esattamente quanto queste schede costino, visto che non vengono generalmente vendute al dettaglio e che sono molto fresche di presentazione, ma vale la pena osservare che le A100 costavano intorno ai 10.000 dollari l’una. Tanto per dare un’idea dell’ordine di grandezza con cui abbiamo a che fare, si stima che OpenAI avrà bisogno di 30.000 (trentamila!) NVIDIA A100 per sostenere ChatGPT.

I chip di Microsoft avrebbero nome in codice Project Athena; la tempistica di lancio non è ancora stata chiarita - non è nemmeno detto che arriverà su Azure, ma un obiettivo concreto sarebbe una maggior diffusione interna sia a Microsoft sia a OpenAI nel corso dell’anno prossimo. Non ci sono molti dettagli nemmeno sulla potenza attesa - in effetti, pare che non saranno nemmeno delle sostituzioni dirette dei chip di NVIDIA, ma in ogni caso potrebbero permettere a Microsoft di ridurre in modo significativo i costi delle sue funzionalità AI.


4

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Simone

Il grosso problema software.
Con CUDA Nvidia ha il monopolio GPGPU, per tensor le cose sono complicate perch non ci adatti una GPU facilmente. Inoltre i tensor sono molto potenti lato reti neurali, non saresti neanche competitivo

Il corpo di Cristo in CH2O

perch dovrebbero integrarle nel set x86 se possono delegarle ad un acceleratore esterno?

Goose

Diciamo che le RTX non sono pensate per il Machine Learning, ma rispetto alle altre funzionano alla grande (anche per i core dedicati). Con una RTX 4080/4090 fai belle cose in termini di reti neurali ed in poche ore fai quello che altre schede video consumer fanno in un giorno. Poi diciamo che le GPU pensate per il machine learning sono altre, tipo le H100.

Comunque NVIDIA quella che sta spingendo di pi in questo ed leader del mercato, poi ci sono le TPU di Google pensate appositamente per il calcolo con tensori (e credo che Microsoft voglia fare una cosa simile per non dipendere completamente da NVIDIA). AMD praticamente fuori mercato, nonostante le sue schede video consumer siano buone la differenza tra ROCm e CUDA impressionante.

Simone

Pi che giusto che avvenga. Per l'AI possibile adottare soluzioni ancora pi estremizzate in termini di parallelismo(che poi con il tempo si dimostreranno sempre pi importanti, esempio RayTracing).
Queste nuove architetture(ci sono gi diverse, appunto i ray tracing core sono molto simili, ma soprattutto neoverse di intel, quelle proprietarie di apple ed arm, mi sembra anche qualcomm etc...) sono decisamente pi performanti.

Il problema sta poi nel fatto di farle x86(e si complicano un bel po' le cose, rispetto alla progettazione da 0 in Risc), se si decide di escludere x86 la sfida diventa ancora pi ardua(compatibilit software e architetture risc scalata molto in alto in dimensioni). Ed necessario poi farle estremamente potenti.

Insomma ad ora GPU ha adattato le proprie schede video, dove tra le altre cose pu vantare anche un software completo e validissimo come CUDA per il calcolo parallelo, e per molto sar ancora leader del mercato

Abbiamo rifatto la nostra workstation, ora tutta ASUS ProArt!

Recensione AMD Radeon RX 7600 XT: mainstream ma con 16 GB di memoria

Acer Predator, nuovi laptop in arrivo. C' anche un monopattino! |VIDEO

Recensione GeForce RTX 4080 Super FE: il modello total black di Nvidia