
11 Maggio 2022
02 Marzo 2022 68
Nei giorni scorsi il collettivo hacker noto come LAPSU$ avrebbe sottratto a Nvidia la bellezza di 1 TB di dati. L'azienda avrebbe confermato l'attacco, aggiungendo però di essere riuscita a contro-hackerare LAPSU$ criptando i dati sottratti. Un grossissimo rischio che sarebbe stato sventato dalla pronta reazione di Nvidia. Eppure gli hacker hanno fatto sapere di aver creato una copia di backup dei dati rubati, quindi di esserne ancora in possesso.
Sembra che abbiano ragione loro, a leggere le ultime indiscrezioni del web in cui si parla in modo dettagliato delle (presunte) configurazioni del chip Ada Lovalace per le GeForce RTX 4000 che saranno presentate quest'anno. Le GPU, in base alla documentazione, sarebbero cinque: AD102, AD103, AD104, AD106 e AD107. La prima, che dovrebbe essere la migliore della gamma, è accreditata di un massimo di 144 SM (streaming multiprocessor), e ciò significa che se Nvidia si mantenesse sui 128 Cuda core per SM AD102, avrebbe fino a 18.432 Cuda core.
Ricordando una volta di più che ci si muove nell'impervio terreno delle indiscrezioni e dunque dei "se", con 18.432 Cuda core AD102 avrebbe il 71% di unità di calcolo in più rispetto all'attuale top di gamma Ampere RTX 3090 Ti, ufficiale dal CES 2022 con 10.752 Cuda core ma non ancora in vendita. Le altre GPU della famiglia, AD103, AD104, AD105, AD106 e AD107 andrebbero dagli 84 ai 24 SM, quindi dai 10.752 ai 3.072 Cuda core. Dovrebbero arrivare a settembre.
Commenti
Nvidia no intendo niente popö
Esattamente.
E lo stesso sarà per le Nvidia, i watt che si sbandierano online (ammesso che siano veri) sarebbero solo per la top gamma, ossia la 4090/titan, modelli flagship che produrranno in numero limitatissimo e che servono solo per giocarsi lo scettro delle performance, se si fa più in basso nella lineup i consumi scendono esattamente come scendono per le amd..
Sono delle carogne, parassiti che si intrufolano nella privacy altrui. Hacking o cracking questo è il senso comune e gli andrebbero tagliate le palle, andrebbero inasprite le pene, questi atti illeciti sono e saranno sempre più importanti in futuro e meritano fin d'ora una tutela più pesante ed un annientamento di questi idioti che ancora cavillano su hacking e cracking: sono da sodomizzare magrebinamente entrambi i comportamenti
Non scarichiamo sempre la colpa ai politici. I referendum si sono fatti, le manifestazioni e proteste anti TAP si sono fatte. È un problema di cultura. Bisogna rompersi per studiare di più e capire come funzionano le cose. Facile poi dare colpe ai politici corrotti e il solito qualunquismo da bar. Vanno premiati i politici che parlano di cose sensate non quelli che urlano più forte o vi fanno stare meglio con voi stessi quando li ascoltate.
È una questione linguistica non di disinformazione...
Concordo ! :-D
non c'è nulla di sbagliato nel titolo: hacking ha il significato privo di moralità positiva o negativa
Da un paio di decenni.
E' ora che ti aggiorni tu.
Oppure continua a piangere ad ogni articolo: verrai sbeffeggiato da chi ha capito il semplice concetto di adozione della parola nell'uso comune e perderai tempo inutilmente, visto che nessuno è disposto a cambiare modo di scrivere per i capricci di una risibile minoranza.
Se per quello non c'e' proprio bisogno di una GPU, una CPU puo' fare tutto quell oche fa la gpu, ray tracing, super sampling, tutto, solo che ci metti 3 ore a frame
Guarda a meno che non abbiano preso un fondo di magazzino non cambia nulla o quasi.
Ho preso l'esempio del mio frigo, da A+ (ora F) ad A++ (ora E) sono 100kwh annui, praticamente niente, al prezzo di 4 anni fa quando lo presi erano 30€ di differenza all'anno, stimando pure un 150kwh di differenza per stare larghi. Ma una cosa simile vale per molti altri elettrodomestici, a volte spendere per una classe migliore non vale la pena, soprattutto se la differenza è importante. Per me vale la pena la spesa extra se recuperi la differenza in massimo 5 anni, altrimenti è una spesa senza senso.
No, hacker è da sempre usato in senso generale, positivo o negativo che sia.
Tu e i tizi sotto ne avete fatto una questione semantica ma non è quello il problema: l'articolo è intitolato "l'hacking dà i suoi frutti" sottolineando la bontà dell'operazione.
Invece questo è cracking ed i "frutti" sono l'oggetto di tutela dell'estorsione.
Non c'è nulla di buono in tutto ciò.
ancora questa lotta contro i mulini a vento?
Da oltre 20 anni i giornali dicono "hacker".
E l'uso comune fa il significato, come dovresti sapere visto che fai il pignolo sulle parole.
Peraltro, non sono termini scientifici, ma banali nomingnoli inventati da qualche nerd...
Magari io potrei provare a cambiare qualche elettrodomestico perché i miei genitori per la casa hanno comprato degli elettrodomestici di 2/3 anni fa o comunque hanno preso elettrodomestici economici da 3/400 euro,senza manco vedere la classe energetica,solo perché costavano poco
Io dico allora che con il battimuro e la lippa si consuma ancora meno. Con un panino tiri tutto il pomeriggio...
Esatto, ho pure ricontrollato, anche quelli nuovi, il nuovo modello del mio ha ancora uno in classe E e uno F (che sono le vecchie A+ e A++).
Uno consuma dichiarato 368kw/h annui e l'altro 460kw/h. Praticamente niente, considerando una differenza di prezzo di 800€ direi che non ne vale la pena. Al momento dell'acquisto avevo calcolato circa 30/40€ di differenza di consumo annuo stando molto larghi, quindi almeno 20/30 anni per riprendere la differenza. Assolutamente nosense. Non ho rifatto i calcoli con gli aumenti, ma la differenza non è di certo 200/300€ all'anno come consumi, e quindi per me non vale la spesa.
Non proprio perché principalmente é Nvidia che sta esagerando con i consumi perché se vai di RX 6000 il massimo dei consumi sono di 270w,roba del tutto accessibile per un alimentatore da 650w.
Ovviamente non credo che RDNA3 sará molto poco energivora e anzi si avvicinerá molto ai livelli dei 400-450w (forse) ma stiamo parlando solo del top in assoluto mentre piú in basso le cose si faranno piú abbordabili.
Solo 100kwh annuo di differenza,ma dai davvero?
o utilizzi i termini con il giusto significato...o vogliamo continuare a fare disinformazione?
E' diventata un vanto! ( e ne sono felice! XD)
I PC per minare ne tengono tranquillamente 6, ovviamente con i dovuti adattatori, ma anche su un PC di casa 3 le monti, forse hai problemi per lo spazio, ma con un riser risolvi.
In ogni caso una top di gamma attuale beve tranquilla 350/400w, aggiungi CPU di fascia alta e stai ad altri 100/120w tranquillamente. Arrivi a 500/550w solo di CPU e GPU, aggiungi rail minori, RAM, dischi, ventole, led, periferiche e minimo devi avere un 750/800w se non vuoi rischiare spegnimenti improvvisi o tenere l'alimentatore al 100%.
Capisco che difficilmente userai al 100% la CPU e la GPU insieme, ma non puoi nemmeno avere un PC che ti costa 3000€ buoni che non puoi usare al 100% sennò si spegne.
Se ora diciamo che le nuove GPU top arrivano a consumare oltre 500w un 1000w è praticamente indispensabile.
Altra parola che ormai non si usa praticamente più come un insulto... ahahahah
Si, anche quella delle A+++++ la vedo una mezza truffa, quando ho preso il frigo la differenza di prezzo era quasi 800€ tra A+ ed A++, la differenza di consumo annua dichiarata era di circa 100kw/h. Praticamente una miseria, quindi alla fine un A+ o A++ incide pochissimo, se non sul costo iniziale. Il frigo era esattamente lo stesso.
utenza nerd, hai ragione! XD
3 o 4 GPU su un PC non ci stanno neanche, se arrivi a 2 è già tanto e in ogni caso per consumare effettivamente più di 1000W giocando, anche con 2GPU diventa difficile. Parlo di W consumati non della potenza dell'alimentatore.
Ma si anche io la conosco, ma parliamo di utenza nerd, in generale si è sempre usato lo stesso termine per indicare entrambi gli scopi.
Qui se lavori per un azienda sei un esperto di sicurezza informatica, non un hacker. E se rubi i dati sei un hacker non un delinquente. Ormai viene usato e compreso così il termine... Non che sia una cosa positiva in effetti...
ahahahahahah..mi hai fatto ridere! In effetti non è verissimo, fra i più anzianotti la differenziazione fra hacker e Cracker si usa(VA)
Oddio, prova a mettere a minare con 3/4 GPU e vedi che i 1000w li superi senza troppi problemi.
Poi devi considerare che se la tua CPU consuma 150w e la GPU 400w + hai ram, disco, ventole, periferiche, dispersione eccecc non puoi prendere un alimentatore "al pelo", rischi che al primo picco si spenga tutto, rischi di romperlo prima del tempo se lo fai lavorare sempre al 100% e hai una scarsa efficienza energetica.
Un PC non consuma 1000W da solo neanche se lo metti a minare al 100% della frequenza
Funziona ovunque ci siano capacità di calcolo ma su una GPU senza tensor core ci mette 12 anni al frame
Si ma in italiano questa differenza non si è mai fatta e se chiami uno cracker o pensi che sia commestibile o pensi che sia drogato
Se si continua così..., sarà una triste realtà...
O avere tutti gli elettrodomestici in classe A+++ che almeno risparmi un po’ di corrente
Vuoi mettere fare 200fps tutto maxxato
Tra 2 anni mi sa che ti serve l’alimentatore da 3000w Platinum
Fatto bene ad acquistare un Alimentatore da 1.000w Platinum, poiché in quella direzione si sta andando...
Però, come detto in precedenza, mi farebbe risparmiare sulla bolletta del GAS, poiché dovrei disdire l'abbonamento, basta la GPU a riscaldare casa...
P.S.Pensate che le future GPU potranno contenere Schede Madri, RAM, Processori, Dissipatori ecc...? Così evitiamo l'acquisto pure di un Case, oltre alla bolletta del GAS...
Ma questo si sapeva. Anche una gtx 1000 può eseguire il raytracing, ma senza i tensor le prestazioni sono infime. Per il dlss sarà probabilmente la stessa cosa, poi bo. Tanto non avremo mai la contro prova
anche il sale come lo zucchero sono insaporitori... ma immagino che tu li chiami sale e zucchero per un motivo.
Cracking significa fare hacking malevolo ma sempre hacking è.
I politici erano troppo attenti ad assicurarsi visibilità e stipendi d'oro per pensare a cose cosi' superflue come la programmazione energetica a 10, 20, 30 anni. tanto loro se ne sarebbero già andati, come infatti è successo.
è assurdo, io col mio misero 650watt faccio girare una 1080
A meno di esigenze particolari, parlando di PC gaming non ha senso prendere una CPU top di gamma e una GPU medio gamma, tanto vale risparmiare e prendere una CPU medio gamma. Tanto per giocare in 2k un i5 basta e avanza.
Certo se poi uno usa extra gaming molti programmi che richiedono una CPU pompata è un altro discorso, stavo parlando di gaming in questo caso.
infatti se non hai un i9 e un 4090 non sei nessuno
Consiglio al redattore dell'articolo di ripassare la differenza tra hacking e cracking.
Questo è chiaramente a fini estorsivi
https://uploads.disquscdn.c...
Consiglio al redattore dell'articolo di ripassare la differenza tra hacking e cracking.
Ormai i 3.5 kw sono un limite in una casa "moderna"...e lo dico avendo i 3.5 kw
Beh non è detto, dipende anche dagli applicativi che una persona utilizza e sopratutto dal portafoglio ma anche dall'intenzione che ha una persona. Uno può avere un i9 ma un monitor full hd o 2 k che non avrebbe senso avere una gpu che spinge in 4k...quindi è tutto abbastanza relativo.
Sono cose che si sapevano da 6 mesi comunque..
Come è sempre stato per ogni tecnologia Nvidia, è proprietaria e fine della storia.
Finchè non fanno come in passato dove fisicamente ostacolavano i driver altrui, non c'è niente di male
A quanto pare si