Elon Musk, 10.000 GPU per un progetto di intelligenza artificiale generativa su Twitter

12 Aprile 2023 43

Nonostante sia uno dei firmatari della lettera aperta con cui è stata pubblicamente richiesta a tutte le società interessate una sospensione di sei mesi nello sviluppo e nell'addestramento di sistemi di intelligenza artificiale generativa di ultima generazione, al fine di regolamentarli e garantire che operino nell'interesse pubblico, Elon Musk sarebbe comunque ancora fortemente interessato a questa tecnologia che sarà sicuramente di fondamentale importanza nell'immediato futuro.

MUSK AVREBBE ACQUISTATO 10.000 GPU

Stando a quanto riportato da Business Insider, il CEO di Tesla, Space X e Twitter, che da qualche giorno è stata inglobata in X Corp., avrebbe acquistato circa 10.000 GPU, delle unità di elaborazione grafica che solitamente vengono utilizzate dalle aziende tecnologiche per lavorare su grandi modelli di intelligenza artificiale data la mole di calcoli richiesta. Secondo le fonti, il progetto di intelligenza artificiale di Musk sarebbe comunque ancora in una fase iniziale.

Al momento, non è noto quali siano le GPU acquistate da Musk ma è probabile che si tratti delle più recenti NVIDIA H100 basate su architettura Grace Hopper, decisamente più potenti rispetto alle NVIDIA A100 con architettura Ada Lovelace che vengono utilizzate da OpenAI per il suo chatbot ChatGPT. Le H100 sono vendute a oltre 10.000 dollari per cui l'acquisto di tutte queste schede sarà costato sicuramente diverse decine di milioni di dollari a Twitter che lamenta una costante crisi finanziaria.

Le GPU dovrebbero essere utilizzate nel data center di Atlanta, diventato quello principale dopo che lo scorso dicembre Musk ha imposto la chiusura di quello di Sacramento. Twitter ha anche un secondo data center in Oregon.

SEMPRE PIÙ INTERESSE PER IA

A sottolineare il suo interesse per gli LLM (Large Language Model), modelli di intelligenza artificiale addestrati su un'enorme quantità di dati, Musk aveva assunto all'inizio di marzo sia Igor Babuschkin che Manuel Kroiss, due ingegneri che lavoravano in DeepMind, società sussidiaria controllata da Alphabet e focalizzata sullo sviluppo di questo tipo di modelli di IA.

L'utilizzo di IA generativa potrebbe essere utilizzato da Musk sia per migliorare la ricerca su Twitter, aspetto di cui si è sempre lamentato arrivando anche ad assumere il noto sviluppatore George Hotz (che andò via dopo appena un mese), sia per migliorare la pubblicità sulla piattaforma creando testi e immagini per un pubblico specifico.


43

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Danylo

Ha chiesto la sospensione per il bene dell'umanita'
(l'umanita' e' Mush, tutti gli altri sono risorse)

Una persona a caso di HDblog

ChaosGPT eh che bello

Maury "Kinder"

Anche quest'estate riuscirò ad andare al mare...

tulipanonero1990

Si e credo che gli serva per altre cose altrimenti non l’avrebbe messo su.

momentarybliss

Beh anche Musk stando a questo articolo ne ha comprate 10.000

Code_is_Law

Lui ha già il data center di tesla

www.uiblog.it

o per mantenere gli sbarcati... chi lo sa.

kedwir

La catastrofe ci sarebbe eccome.. e non per il nodo produttivo, ma proprio per la grandissima capacità produttiva che ha.. se si dovesse fermare, altro che anni indietro..

biggggggggggggg

Quel numero non ha minimamente senso.

biggggggggggggg

Quasi tutti gli esempi che hai citato sopra non riguardano ChatGPT e spesso non riguardano nemmeno l'AI in senso stretto ma sono stati buttati nel calderone perchè fa notizia. Spesso erano "banali" algoritmi non-ML usati da decenni che però sono stati implementati incautamente in contesti che richiederebbero molta più cura.
Ciò che viene contestato nei due paper (che avevo già letto) linkati nella petizione in un caso sono piuttosto fantasiosi, cioè questo:https://arxiv.org/abs/2209.10604
Nell'altro caso in teoria ci sono ma sono rischi di quart'ordine, anche perchè i prodotti rilasciati finora sono piuttosto robusti sotto quest'aspetto:
https://dl.acm.org/doi/10.1145/3442188.3445922

I motori di ricerca possono proporre risultati fake o faziosi esattamente come le AI. Non c'è nessuna differenza per il semplice fatto che entrambi "lavorano" con criteri quantitativi, non ci sono differenze sostanziali da questo punto di vista. Se cerchi è pieno di casi in cui ci sono state "diffamazioni" da parte di un motore di ricerca o link mostrati per primi che contenevano fake news ridicole.

Tutto il clamore viene da una parte da chi rosica (tipo musk), dall'altra da una specie di ala più o meno radicale in questo campo che vede questi modelli come il male assoluto e servi del capitalismo neolibbbberista e quindi ne vorrebbero una messa al bando. Si lo so lì c'è scritto uno stop di sei mesi, ma gente come gebru ed altri in realtà vorrebbero sostanzialmente uno stop a tempo indefinito.

Anche perchè lol non si capisce che diavolo cambierebbe tra 6 mesi. Cosa succede tra 6 mesi? Modelli del genere possono essere letteralmente scaricati e allenati da chiunque abbia un paio di RTX 4090, cosa si pensa di fermare?

saetta

poiche ci sono ambiti di maggior rischio nell'uso di una AI, per esempio i luoghi di lavoro, assunzioni o licenziamenti, tutto quello che concerne il funzionamento della democrazia, infrastrutture critiche, sorveglianza biometrica, polizia predittiva si propio quella di minority report, dove l'AI in questo caso si è rivelata discriminatoria, esiste esiste ma discrimina, social scoring , cioe la raccolta di dati dei cittadini come fanno in Cina, dove i cittadini vengono classificati in buoni meno buoni e cattivi in base ad un algoritmo di AI, quindi una AI gestita da terzi decide se tu sei buono o cattivo e quindi ti tratta di conseguenza, per non parlare di chatgpt integrato nel browser in questo caso Microsoft, guardacaso, che rappresenta un grave rischio si selezione discriminatoria dei risultati sulla base di un criterio scelto da chatgpt, ovviamnete, che potrebbe benissimo essere in linea con fake news o una visione faziosa o falsa e quindi distorsiva della realta, che a differenza dei soliti motori di ricerca, in questo caso la risposta è confezionata da una AI e non è piu l'utente a scegliere tra tutte le proposte possibili quella che ritiene piu giusta, la manipolazione o meglio la rappresentazione dell'informazione manipolata è dietro l'angolo e via discorrendo

No, sono serio. Come imprenditore mi affascina.

Frazzngarth

Divenne autocosciente alle 2:14 del mattino, ora dell'Atlantico, del 29 Agosto, e lanciò i missili nucleari alle 18:18 ora di Los Angeles.

momentarybliss

In base a questo articolo https://www.tomshardware.com/news/chatgpt-nvidia-30000-gpus l'addestramento di ChatGPT ha richiesto circa ventimila GPU, ma il loro numero per supportare le nuove funzionalità potrebbe arrivare ad oltre trentamila

biggggggggggggg

Per il training si, per l'inference basta meno.

momentarybliss

Viene quindi da chiedersi legittimamente se Musk abbia firmato la lettera della sospensione di sei mesi per puro interesse personale. Comunque si vede che di soldi ne ha raccattati su parecchi dopo aver lasciato a casa 6500 dipendenti di Twitter su 8000

Maury "Kinder"

A che ora iniziava a funzionare Skynet?

ErCipolla

Confermo, non trovo più l'articolo in questione, quindi presumo sia stato editato/rimosso in quanto i numeri erano sparati a caso.
Le GPU utilizzate comunque sono le nVidia A100.

Oscar

l'hai detto per ridere, vero? :D

biggggggggggggg

Credo che sia errata perchè parliamo di numeri folli. Saranno più di 2000 ma non 50.000 e sicuramente non top di gamma, si usano altre schede per fare inferenza.
Qualsiasi numero che trovi da utenti random su quanta potenza servirebbe non ha il minimo senso perchè quei modelli vengono presi e brutalmente ingegnerizzati per ridurli di dimensione e di richieste di calcolo, e nessuno ha idea di quanto ogni modello venga ottimizzato dall'azienda X.

ErCipolla

In effetti la mia affermazione era ambigua: per allenarlo si, ne bastano meno, ma poi per eseguirlo e rispondere alle query degli utenti in tempi ragionevoli te ne servono molte di più (stesso concetto del load balancing nei webserver tradizionali in pratica) e se non sbaglio avevano calcolato che, con il numero di utenti attuale, impiegano quasi 50mila GPU. Comunque informazione letta online, non ho verificato la fonte quindi potrebbe anche essere errata, quando ho un attimo vedo se riesco a recuperarla.

biggggggggggggg

La differenza c'è ma non è tale da causare una catastrofe se mancasse TSMC. Sarebbe come andare indietro di un nodo sostanzialmente.
Non è che TSMC produce a 3nm e tutti gli altri a 45nm.

Fade

se tutte le maggiori commesse se le prese TSMC non credo proprio che siano equivalenti, se la stessa samsung sui suoi telefoni si è affidata alla concorrenza vuol dire che la differenza c'è e si sente

fabbro

nonostante alcune motivazioni corrette il suo obbiettivo era palesemente rallentare i concorrenti per cercare di recuperare terreno, per la prima volta in vita sua ha sbagliato la tempistica e ora muove le pedine per ostacolare gli altri.

p.s: dato che commento ma non ricevo mai risposte vorrei capire se sono in blacklist di tutti e non vedete i commenti o, come giustamente diritto di chiunque, non vi va di interagire.ho avuto un passato movimentato qui e sono tornato da poco trovandolo morente...

biggggggggggggg

Tutti dipendono da fonderie esterne tranne intel, quindi non è quello il problema. Anche perchè pure samsung le ha, TSMC sarà un po' sopra ma sono sostanzialmente equivalenti.

Fade

dirò una stupidagine, ma il loro punto debole è l'assenza di un processo produttivo proprietario, al momento dipendono da taiwan e non tira una bella aria lì

Fade

mi dispiace ma servivano risorse per il liceo del made in italy

biggggggggggggg

Io lo dico da anni.
La grande differenza tra NVIDIA e tante altre aziende, è che quando ha iniziato a dominare non si è seduta a riposare ma ha continuato ad innovare e a proporre prodotti sempre migliori, e infatti oggi c'è una distanza siderale tra loro e tutti gli altri.
Jensen Fonzie c'aveva visto stra-lunghissimo, perchè iniziarono a sviluppare CUDA negli anni 2005-2008, ben prima di qualsiasi sviluppo interessante in ambito AI, e capirono che le loro GPU potessero diventare utili proprio in quel campo.
Parliamo di quasi 20 anni fa.

Oggi hanno le carte in regola per dominare "verticalmente" tutto dai dispositivi edge computing fino ai supercomputer. E alcune componenti di quella "verticale" già le dominano.

admersc

Nvidia sta raccogliendo i frutti di almeno 10 anni di investimenti in GPGPU, CUDA e Data Center. Complimenti, azienda tra le più ammirate al mondo.

tulipanonero1990

Buon momento per ricordare che gli investimenti per il piano IA italiano sono svaniti nel nulla. Eppure non servirebbe chissà quanto…

tulipanonero1990

Mamma mia i soldi che sta facendo Nvidia. Settore che attrae più investimenti e non ha concorrenti. Forse nel panorama IT è l’azienda messa meglio al momento. Avrei dovuto continuare a comprare azioni…

saetta

Non abusiamo del termine

tulipanonero1990

Gli servono anni però, con 6 mesi non gli hanno finito nemmeno di consegnare le schede.

biggggggggggggg

Tra i 1000 ne mancavano molti anche di primissimo piano. Quindi bisogna vedere non solo chi c'era ma anche chi NON c'era a sottoscriverla.
Tra l'altro le motivazioni sottostanti sinceramente facevano un po' ridere.

MM

100%

saetta

Concordo, ma questo non sminuisce la richiesta di regolamentazione, quanti erano i firmatari 1000/2000 ricercatori, prof universitari etc etc, non certo tutti interessati, come, probabilmente, il nostro simpatico giullare

Meandmyself

…semmai un egocentrico filantropo….i geni sono altri,e non sono ricoperti di soldi i geni. Anzi,non se li calcola nessuno,per poi alla loro morte rubargli le idee. Vedi Tesla…..

Maurizio

Musk ha cambiato idea, non c'è più bisogno di salvare l'umanità su Marte, creiamo una nuova specie di intelligenza qui sulla terra.

Fade

stavo per scrivere la stessa cosa, tra l'altro mi sembra che voglia essere ricodato proprio in quell'ambito

opt3ron

Quando Musk ha chiesto lo stop per 6 mesi ho scritto questo commento:

"Mi sa che Elon vuole entrare nel mercato ma è in ritardo sui competitor e quindi sta cercando di rallentarli ,quest'uomo non fa mai niente se non ci guadagna qualcosa."

come volevasi dimostrare

biggggggggggggg

Mi sembra impossibile, il più grande supercomputer attualmente ne ha molte di meno ed ha casi d'uso molto differenti.
Per allenare modelli del genere ne bastano molte meno, circa 2000.

ErCipolla

Se non sbaglio GPT-4 già ne usa molte di più (più di 50mila se non ricordo male?)

UN GENIO, poche parole per descrivere ELON MUSK

Tecnologia

Omnibus ha fallito, ma non ci sorprende. Il Black Friday Tech segna -11%

Games

ROG Ally: sei mesi dopo, il prezzo è giusto

Articolo

Netflix: tutti i film e le serie TV in arrivo a dicembre 2023

Games

Recensione Lenovo Legion Go, sfida ROG Ally a viso aperto