Nvidia, l'hacking dà i suoi frutti: i dettagli delle GeForce RTX 4000 finiscono sul web

02 Marzo 2022 68

Nei giorni scorsi il collettivo hacker noto come LAPSU$ avrebbe sottratto a Nvidia la bellezza di 1 TB di dati. L'azienda avrebbe confermato l'attacco, aggiungendo però di essere riuscita a contro-hackerare LAPSU$ criptando i dati sottratti. Un grossissimo rischio che sarebbe stato sventato dalla pronta reazione di Nvidia. Eppure gli hacker hanno fatto sapere di aver creato una copia di backup dei dati rubati, quindi di esserne ancora in possesso.

Sembra che abbiano ragione loro, a leggere le ultime indiscrezioni del web in cui si parla in modo dettagliato delle (presunte) configurazioni del chip Ada Lovalace per le GeForce RTX 4000 che saranno presentate quest'anno. Le GPU, in base alla documentazione, sarebbero cinque: AD102, AD103, AD104, AD106 e AD107. La prima, che dovrebbe essere la migliore della gamma, è accreditata di un massimo di 144 SM (streaming multiprocessor), e ciò significa che se Nvidia si mantenesse sui 128 Cuda core per SM AD102, avrebbe fino a 18.432 Cuda core.


Ricordando una volta di più che ci si muove nell'impervio terreno delle indiscrezioni e dunque dei "se", con 18.432 Cuda core AD102 avrebbe il 71% di unità di calcolo in più rispetto all'attuale top di gamma Ampere RTX 3090 Ti, ufficiale dal CES 2022 con 10.752 Cuda core ma non ancora in vendita. Le altre GPU della famiglia, AD103, AD104, AD105, AD106 e AD107 andrebbero dagli 84 ai 24 SM, quindi dai 10.752 ai 3.072 Cuda core. Dovrebbero arrivare a settembre.


68

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Carminebiscuit

Nvidia no intendo niente popö

Monakois 94

Esattamente.

Superman

E lo stesso sarà per le Nvidia, i watt che si sbandierano online (ammesso che siano veri) sarebbero solo per la top gamma, ossia la 4090/titan, modelli flagship che produrranno in numero limitatissimo e che servono solo per giocarsi lo scettro delle performance, se si fa più in basso nella lineup i consumi scendono esattamente come scendono per le amd..

Sebastied Juan

Sono delle carogne, parassiti che si intrufolano nella privacy altrui. Hacking o cracking questo è il senso comune e gli andrebbero tagliate le palle, andrebbero inasprite le pene, questi atti illeciti sono e saranno sempre più importanti in futuro e meritano fin d'ora una tutela più pesante ed un annientamento di questi idioti che ancora cavillano su hacking e cracking: sono da sodomizzare magrebinamente entrambi i comportamenti

Gianluca

Non scarichiamo sempre la colpa ai politici. I referendum si sono fatti, le manifestazioni e proteste anti TAP si sono fatte. È un problema di cultura. Bisogna rompersi per studiare di più e capire come funzionano le cose. Facile poi dare colpe ai politici corrotti e il solito qualunquismo da bar. Vanno premiati i politici che parlano di cose sensate non quelli che urlano più forte o vi fanno stare meglio con voi stessi quando li ascoltate.

Mostra 1 nuova risposta

È una questione linguistica non di disinformazione...

JustATiredMan

Concordo ! :-D

L'amico dei dislike

non c'è nulla di sbagliato nel titolo: hacking ha il significato privo di moralità positiva o negativa

Da un paio di decenni.
E' ora che ti aggiorni tu.
Oppure continua a piangere ad ogni articolo: verrai sbeffeggiato da chi ha capito il semplice concetto di adozione della parola nell'uso comune e perderai tempo inutilmente, visto che nessuno è disposto a cambiare modo di scrivere per i capricci di una risibile minoranza.

Ivan Clemente Cabrera

Se per quello non c'e' proprio bisogno di una GPU, una CPU puo' fare tutto quell oche fa la gpu, ray tracing, super sampling, tutto, solo che ci metti 3 ore a frame

The_Th

Guarda a meno che non abbiano preso un fondo di magazzino non cambia nulla o quasi.
Ho preso l'esempio del mio frigo, da A+ (ora F) ad A++ (ora E) sono 100kwh annui, praticamente niente, al prezzo di 4 anni fa quando lo presi erano 30€ di differenza all'anno, stimando pure un 150kwh di differenza per stare larghi. Ma una cosa simile vale per molti altri elettrodomestici, a volte spendere per una classe migliore non vale la pena, soprattutto se la differenza è importante. Per me vale la pena la spesa extra se recuperi la differenza in massimo 5 anni, altrimenti è una spesa senza senso.

efremis

No, hacker è da sempre usato in senso generale, positivo o negativo che sia.

Ottoore

Tu e i tizi sotto ne avete fatto una questione semantica ma non è quello il problema: l'articolo è intitolato "l'hacking dà i suoi frutti" sottolineando la bontà dell'operazione.

Invece questo è cracking ed i "frutti" sono l'oggetto di tutela dell'estorsione.
Non c'è nulla di buono in tutto ciò.

L'amico dei dislike

ancora questa lotta contro i mulini a vento?
Da oltre 20 anni i giornali dicono "hacker".
E l'uso comune fa il significato, come dovresti sapere visto che fai il pignolo sulle parole.

Peraltro, non sono termini scientifici, ma banali nomingnoli inventati da qualche nerd...

Ergi Cela

Magari io potrei provare a cambiare qualche elettrodomestico perché i miei genitori per la casa hanno comprato degli elettrodomestici di 2/3 anni fa o comunque hanno preso elettrodomestici economici da 3/400 euro,senza manco vedere la classe energetica,solo perché costavano poco

Zippo

Io dico allora che con il battimuro e la lippa si consuma ancora meno. Con un panino tiri tutto il pomeriggio...

The_Th

Esatto, ho pure ricontrollato, anche quelli nuovi, il nuovo modello del mio ha ancora uno in classe E e uno F (che sono le vecchie A+ e A++).
Uno consuma dichiarato 368kw/h annui e l'altro 460kw/h. Praticamente niente, considerando una differenza di prezzo di 800€ direi che non ne vale la pena. Al momento dell'acquisto avevo calcolato circa 30/40€ di differenza di consumo annuo stando molto larghi, quindi almeno 20/30 anni per riprendere la differenza. Assolutamente nosense. Non ho rifatto i calcoli con gli aumenti, ma la differenza non è di certo 200/300€ all'anno come consumi, e quindi per me non vale la spesa.

Monakois 94

Non proprio perché principalmente é Nvidia che sta esagerando con i consumi perché se vai di RX 6000 il massimo dei consumi sono di 270w,roba del tutto accessibile per un alimentatore da 650w.
Ovviamente non credo che RDNA3 sará molto poco energivora e anzi si avvicinerá molto ai livelli dei 400-450w (forse) ma stiamo parlando solo del top in assoluto mentre piú in basso le cose si faranno piú abbordabili.

Ergi Cela

Solo 100kwh annuo di differenza,ma dai davvero?

BoORD_L

o utilizzi i termini con il giusto significato...o vogliamo continuare a fare disinformazione?

BATTLEFIELD

E' diventata un vanto! ( e ne sono felice! XD)

The_Th

I PC per minare ne tengono tranquillamente 6, ovviamente con i dovuti adattatori, ma anche su un PC di casa 3 le monti, forse hai problemi per lo spazio, ma con un riser risolvi.
In ogni caso una top di gamma attuale beve tranquilla 350/400w, aggiungi CPU di fascia alta e stai ad altri 100/120w tranquillamente. Arrivi a 500/550w solo di CPU e GPU, aggiungi rail minori, RAM, dischi, ventole, led, periferiche e minimo devi avere un 750/800w se non vuoi rischiare spegnimenti improvvisi o tenere l'alimentatore al 100%.
Capisco che difficilmente userai al 100% la CPU e la GPU insieme, ma non puoi nemmeno avere un PC che ti costa 3000€ buoni che non puoi usare al 100% sennò si spegne.
Se ora diciamo che le nuove GPU top arrivano a consumare oltre 500w un 1000w è praticamente indispensabile.

Mostra 1 nuova risposta

Altra parola che ormai non si usa praticamente più come un insulto... ahahahah

The_Th

Si, anche quella delle A+++++ la vedo una mezza truffa, quando ho preso il frigo la differenza di prezzo era quasi 800€ tra A+ ed A++, la differenza di consumo annua dichiarata era di circa 100kw/h. Praticamente una miseria, quindi alla fine un A+ o A++ incide pochissimo, se non sul costo iniziale. Il frigo era esattamente lo stesso.

BATTLEFIELD

utenza nerd, hai ragione! XD

Mostra 1 nuova risposta

3 o 4 GPU su un PC non ci stanno neanche, se arrivi a 2 è già tanto e in ogni caso per consumare effettivamente più di 1000W giocando, anche con 2GPU diventa difficile. Parlo di W consumati non della potenza dell'alimentatore.

Mostra 1 nuova risposta

Ma si anche io la conosco, ma parliamo di utenza nerd, in generale si è sempre usato lo stesso termine per indicare entrambi gli scopi.

Qui se lavori per un azienda sei un esperto di sicurezza informatica, non un hacker. E se rubi i dati sei un hacker non un delinquente. Ormai viene usato e compreso così il termine... Non che sia una cosa positiva in effetti...

BATTLEFIELD

ahahahahahah..mi hai fatto ridere! In effetti non è verissimo, fra i più anzianotti la differenziazione fra hacker e Cracker si usa(VA)

The_Th

Oddio, prova a mettere a minare con 3/4 GPU e vedi che i 1000w li superi senza troppi problemi.
Poi devi considerare che se la tua CPU consuma 150w e la GPU 400w + hai ram, disco, ventole, periferiche, dispersione eccecc non puoi prendere un alimentatore "al pelo", rischi che al primo picco si spenga tutto, rischi di romperlo prima del tempo se lo fai lavorare sempre al 100% e hai una scarsa efficienza energetica.

Mostra 1 nuova risposta

Un PC non consuma 1000W da solo neanche se lo metti a minare al 100% della frequenza

Mostra 1 nuova risposta

Funziona ovunque ci siano capacità di calcolo ma su una GPU senza tensor core ci mette 12 anni al frame

Mostra 1 nuova risposta

Si ma in italiano questa differenza non si è mai fatta e se chiami uno cracker o pensi che sia commestibile o pensi che sia drogato

comatrix

Se si continua così..., sarà una triste realtà...

Ergi Cela

O avere tutti gli elettrodomestici in classe A+++ che almeno risparmi un po’ di corrente

Ergi Cela

Vuoi mettere fare 200fps tutto maxxato

Ergi Cela

Tra 2 anni mi sa che ti serve l’alimentatore da 3000w Platinum

comatrix

Fatto bene ad acquistare un Alimentatore da 1.000w Platinum, poiché in quella direzione si sta andando...
Però, come detto in precedenza, mi farebbe risparmiare sulla bolletta del GAS, poiché dovrei disdire l'abbonamento, basta la GPU a riscaldare casa...

P.S.Pensate che le future GPU potranno contenere Schede Madri, RAM, Processori, Dissipatori ecc...? Così evitiamo l'acquisto pure di un Case, oltre alla bolletta del GAS...

Redvex

Ma questo si sapeva. Anche una gtx 1000 può eseguire il raytracing, ma senza i tensor le prestazioni sono infime. Per il dlss sarà probabilmente la stessa cosa, poi bo. Tanto non avremo mai la contro prova

BoORD_L

anche il sale come lo zucchero sono insaporitori... ma immagino che tu li chiami sale e zucchero per un motivo.

efremis

Cracking significa fare hacking malevolo ma sempre hacking è.

HanselTTP

I politici erano troppo attenti ad assicurarsi visibilità e stipendi d'oro per pensare a cose cosi' superflue come la programmazione energetica a 10, 20, 30 anni. tanto loro se ne sarebbero già andati, come infatti è successo.

HanselTTP

è assurdo, io col mio misero 650watt faccio girare una 1080

The_Th

A meno di esigenze particolari, parlando di PC gaming non ha senso prendere una CPU top di gamma e una GPU medio gamma, tanto vale risparmiare e prendere una CPU medio gamma. Tanto per giocare in 2k un i5 basta e avanza.
Certo se poi uno usa extra gaming molti programmi che richiedono una CPU pompata è un altro discorso, stavo parlando di gaming in questo caso.

xan

infatti se non hai un i9 e un 4090 non sei nessuno

Ottoore

Consiglio al redattore dell'articolo di ripassare la differenza tra hacking e cracking.

Questo è chiaramente a fini estorsivi
https://uploads.disquscdn.c...

Ottoore

Consiglio al redattore dell'articolo di ripassare la differenza tra hacking e cracking.

Skreepers

Ormai i 3.5 kw sono un limite in una casa "moderna"...e lo dico avendo i 3.5 kw

Skreepers

Beh non è detto, dipende anche dagli applicativi che una persona utilizza e sopratutto dal portafoglio ma anche dall'intenzione che ha una persona. Uno può avere un i9 ma un monitor full hd o 2 k che non avrebbe senso avere una gpu che spinge in 4k...quindi è tutto abbastanza relativo.

NaXter24R

Sono cose che si sapevano da 6 mesi comunque..

NaXter24R

Come è sempre stato per ogni tecnologia Nvidia, è proprietaria e fine della storia.
Finchè non fanno come in passato dove fisicamente ostacolavano i driver altrui, non c'è niente di male

GerryNap

A quanto pare si

Recensione AMD Ryzen 7 5800X3D: la V-Cache 3D funziona alla perfezione

Recensione NVIDIA GeForce RTX 3090 Ti: l'ultimo grido di Ampere

Mac Studio e Studio Display ufficiali: il Mac mini cresce ed è potentissimo | Prezzi

Apple Silicon M1 Ultra ufficiale: due M1 Max in un chip solo