
Windows 30 Mar
Secondo Videocardz, la NVIDIA GeForce RTX 4070, il cui debutto è previsto verso metà aprile, costerà 599 dollari: l’ennesimo segno del significativo aumento di prezzi previsto dalla società per le schede video di questa generazione. Per avere qualche parametro di riferimento con i modelli attuali e precedenti:
La fonte è piuttosto sicura dell’informazione: dice che il dato è stato confermato nel corso di un briefing con la stampa direttamente da NVIDIA. Non è tuttavia impossibile un cambio di idee all’ultimo minuto - la società ha dimostrato che ciò può avvenire anche dopo un annuncio, proprio con la 4070 Ti che inizialmente era stata presentata come 4080 12 GB.
Chiaramente il balzo in avanti generazionale c’è: rispetto alla 3070 lanciata nel 2021, la nuova scheda avrà lo stesso quantitativo di core CUDA (5.888) ma un’architettura di generazione successiva, una frequenza di clock molto più alta sia in boost sia regolare (2.475 e 1.920 MHz rispettivamente contro 1.725 e 1.500 MHz) ma soprattutto molta più VRAM - 12 GB contro 8, peraltro GDDR6X contro GDDR6 standard con banchi a 21 Gbps contro i 14 della 3070. L’incremento di banda della memoria è tuttavia limitato dal bus, che da 256 bit scende a 192, quindi otteniamo 504 GB/s contro i precedenti 448 GB/s.
La scheda dovrebbe avere anche consumi paragonabili, 200 W contro 220. Nel complesso, ci si aspetta una potenza di 29 TFLOPS in FP32 contro i 20 della 3070. Vale la pena osservare che generalmente le schede di classe *70 sono tra le più popolari nella gamma NVIDIA.
Commenti
Lol
Adesso ho un normale 16/9.
Il prossimo sarà un 34 21/9.
Sono eccezionali
No, non è fattuale, puoi tranquillamente giocare in 4k in giochi che non hanno bisogno di quella banda passante.
Nei processi di produzione dei prodotti basati semiconduttori non hanno tutti i prodotti finali hanno gli stessi risultati (e con il tempo questo vari ancora di più).
Se hai un prodotto di livello più basso puoi decidere di associare componistica (alle volte che sulla carta sembra addirittura uguale) più economica, e certificarla per risultati più bassi.
Se questi prodotti servono al marketing per effettuare bias cognitivo di ancoraggio, gli stessi servono anche aziende di non gettare componentistica leggermente obsoleta ma validissima, fuori standard in produzione, ecc. ecc.
Direi che ci siamo detti tutto.
Ciao
Esattamente quella che arriva a te e la porzione matematica dedicata al marketing.
Tra 3070 e 3070ti c'è un 5% di differenza(praticamente va come una qualsiasi 3070 custom) , gli 8GB fanno da collo di bottiglia ad entrambe , la 3070 ti è praticamente una 3070 con 100€ in più creata per giustificare l'aumento di prezzo fatto da nvidia in quella fascia ai tempi della crisi.
1080
allora quando cambierò monitor (perchè prima o poi dovrò adeguarmi pure io, magari col prossimo pc) se ti ribecco nei commenti ti chiederò consiglio, dato che sono completamente a digiundo riguardo agli schermi. l'unica cosa che so è che non voglio assolutamente avere l'effetto clouding sullo schermo. Davvero fastidioso! Sulla tv che uso per guardare i film meno male che è quasi del tutto assente, ma su una tv che provai prima di questa che ho, nelle scene buie era un disastro di aloni biancastri che partivano dalla cornice... riportato indietro subito sono riuscito a farmelo cambiare, anche se la samsung non lo ritiene un difetto. Ecco, una cosa che vorrei evitare è proprio di ritrovarmi un difetto del genere, che rovina le scene buie.
e nel mio caso sbagliano, perchè io e altri come me siamo fuori dalla media. perciò usiamo quello che ci sentiamo di usare ignorando la media, haha
parere personale l'estetica. cmq concordo, erano davvero fighi quei computer. così fighi che ancora hanno una base bella solida di utenti che sviluppano nuovi giochi e techdemo. Io colleziono C64 e vic20, avevo in mente di mettermi a collezionare pure gli Speccy, ma poi il problema sarebbe stato in primis avere un rifornimento di chip, zoccoli e periferiche varie. La prima da procurarsi di sicuro la kempston!
Lo spazio fisico dove collocare le macchine... perciò non colleziono neppure Amiga e me ne rammarico molto.
si, ma la questione rimane pur sempre soggettiva. io ho un monitor 1080p molto buono della asus, ma gioco con un 4/3 sempre asus lcd a 1280*1024. che ne so, mi piace di più... spero che in futuro io possa cambiare idea
concordo appieno. poi una volta giocavo molto di più col pc. erano i tempi dei pentium4 con core prescott. Ho un p4 ht 530 che ancora svolge alcuni lavori, ma a quell'epoca era il pc da gioco. Ricordo che in estate, una volta, all'interno del case ci stavano 55 gradi... avevo la hd 4850 da 1gb reference che scaldava un botto! Quando misi una hd 4850 sempre da 1gb ma col dissipatore custom le temp. si abbassarono di parecchio in estate. Poi feci un sacco di modifiche al fine di portare aria un po ovunque all'interno di quel case.
Se lavori e hai famiglia, per forza. Però sai, dipende da quanto tempo riesci a dedicarci. Per me è uno spreco. Anche perché dopo una sessione di 1h già inizio a pensare che ho altre cose più interessanti da fare.
oh ma quanti account hai? LOL
non puoi essere anche tu un account secondario, magari sei il terzo :D
ah quindi è "marketing" non è "fisica".
Ho provato anche un 32 fullhd su scrivania.....
Lho cambiato dopo neanche un mese per quanto fosse sgranato su scrivania.
Ai voglia ad allontanarti ;)
A me se uno gioca in fullhd non mi frega niente.
Però dire che è meglio è giusto io non ci sto.
figo il Commodore 64 col lettore di cassetta, me lo ricordo ancora bene ma era ancora più figo lo Spectrum ZX, soprattutto esteticamente, un gioiellino.
ok e allora? lol
a parte i professionisti, credo che siamo tutti casual gamer. altrimenti ditemi voi, haha
la media mondiale non è la media di casa mia. non è la mia scrivania, non è la mia distanza a cui guardo il monitor. In sostanza, si f0tta la media, haha.
si, ma che te frega se uno vuol restare in 1080p? vai a casa sua a rompergli il monitor? La roba superata non esiste.
inoltre il mondo va di mode su mode, molte odiose e molte altre che tornano in voga. Buttate i vinili che ci stanno i CD, haha. Vallo a dire a chi i vinili se li porterebbe pure a letto, che a malapena tollera i cd e che odia la musica immateriale in formato mp3.
infatti NO!
giovani napippa... io ho cominciato a giocare col Commodore 64 e ancora adesso ci gioco. Le persone non sono tutte uguali a questo mondo, ogni persona ha le sue priorità nella vita. Giocare col pc è nel mio caso in fondo alla classifica oggi come oggi. Per lo svago preferisco di gran lunga spararmi un 100 km in bici.
il pc finché non mi crepa o mi stufo davvero profondamente, resta quello che ho (ragionamento che fanno in molti, ma quelli che cambiano pc sono di più, ma questo non significa che sia la "norma" perché la norma è quella che ogniuno ha a casa sua.)
giudicare il pc o lo schermo di qualcun altro è un po sbagliato. Siete abituati al 4k? Prova a giocare un RE7 su un monitor 4/3 da 19 pollici... esperienza stringinatiche e oppressiva che ben si addice ad un titolo del genere (questo è solo un esempio). Cmq ragà, ogniuno gioca con quello che ritiene più opportuno. Per il tizio che usa il VR, il tizio che sta in 4k è limitato. Per quello che sta in 4k, colui che sta in 1080p è limitato. Per quello che sta in 1080p, quello che gioca in 1280*1024 è limitato. In realtà non ci sono limiti o standard da seguire. Ogniuno gioca e fruisce come gli pare e piace col proprio hw!
fate i buoni che fare i cattivi porta male!
non è neanche questione di soldi secondo me. Potrei comprare un pc nuovo col top del top e invece mi tengo questo che ho, semplicemente perché trovo inutile cambiare qualcosa che ancora mi va più che bene. Nel mio caso ho un pc ancora più scarso e vecchio del tuo e gioco in 1280*1024, anche se ho pure un 1080p asus da 26 pollici (o giù di lì, non ricordo manco quanto è, dato che preferisco in ogni caso il mio 19 pollici 4/3)
Per giocare si gioca bene pure alla mia risoluzione e come dicevo in qualche altro post, "ogniuno col suo pc ci fa e ci monta ciò che vuole". Non mi lamento, il mio "vetustus" come l'ho chiamato, tira pure metro exodus a preset con qualità ultra, liscio come l'olio a 60fps vsyncati. i7 4790k e r9 290x tri-x da 4gb!
E need for speed heat tutto ad ultra sempre 60 FPS fissi!
la media mondiale usa il monitor ad una determinata distanza, penso bisogna basarsi su quella e pure da 1 metro si nota bene la differenza tra le varie risoluzioni
Il concetto di "vicino" è abbastanza relativo; c'è chi ha il monitor a 50 cm e chi lo ha a 90 cm, chi ha un monitor 24 pollici e chi lo ha da 48.
di ABISSALE ci può essere tutto come anche niente, dipende.
I 60 o 120 fps non c'entrano niente, l'esempio è demenziale;
E prima di dare dell'ignorante a me ti consiglio caldamente di mangiare ancora qualche tonnellata di pastasciutta, ragazzo.
E insomma....non è proprio la stessa cosa
Ma poi il mio 40 4k pagato 350. Un tv samsung con pannello VA che da una pista a molti monitor di maggior costo.
Presi poi prima una gtx 1070 a 450 euro e giocavo tutto a 1440p fluidi. E molti giochi anche in 4k come fifa, ecc.
Non mi sembra di aver speso miliardi
Adesso un 4k ragionevole costa. E bis8gna prendere schede video da almeno 1300 euro per tenere almeno 2 anni
Chi arriva adesso sul full hd può resistere un po di anni... ovvio
Sono stato uno dei primi ad avere un monitor 19 con un pentium 2, gli Altri avevano tutti il 17....
Poi mi feci un 21 sony trinitron usato....
Poi con l'era degli LCD, presi un 23 fullhd, poi 24, poi 27 poi ... 32 ma lho cambiato subito perché era troppo sgranato su scrivania.
Poi un'estate provai il PC su un 55 4k e da lì mi si è
aperto un mondo e quindi mai più un fullhd.
32 a 1440p è l'ideale.
No.
Esistono schede video con bus a 64bit più performanti di altre a 128 ed addirittura a 256.
Questo è fattuale.
Al posto di fissarvi co ste cose, che tanto manco sapete che sono (perché non siete ingegneri di quelle aziende), concentratevi a vedere il prodotto nel complesso…
A prescindere dal BUS questo prodotto che prestazioni ha con il gioco a cui voglio giocare? l esempio di tutto è DLSS.
Anch'io sto su 1080p e dove non mi piacciono uso Nvidia Supersampling e vado anche 4k.
la penso come lui ma non sono un account secondario
se non è superato il 1080p te sei mio nonno
Esattamente. Nel campo dei conduttori esistono prodotti con le stesse specifiche, quelle famose, (anzi pure inferiori) che costano anche 100 volte di più. Il marketing fa questo… ciao
Beati loro. Io non comprerei mai una scheda video dagli USA sinceramente.
certo!
ma che vuoi immaginare te che nemmeno riesci e leggere 2 parole in un blog...prossima gen di GPU per comprare la serie 2000? Sì, ci credo
lol non è un mio account secondario, te hai problemi seri ahhahaahha chiedi pure ad un mod di controllare.
sai non credo che per acquistare un pc da 3-4k bisogni essere paperon de paperoni...lì potresti comprare uno yatch da milioni di euro ad esempio ma mi rendo conto che data la tua posizione pensi che chi possa spendere 3-4k rispetto a milioni di euro sia già considerato essere un paperon de paperoni.
Se avessi letto non uso monitor 4k ma uw oled 1440p, a confermo che non sai nemmeno leggere.
Il mio lavoro ben retribuito se reale? Già parti con l'idea che io sia un dipendente, magari ho dipendenti a cui pagare lo stipendio. Detto ciò se hai ancora dei dubbi posso farti una foto del 13900k e 4090 con ram a 8000mhz :* Se vuoi posso anche mandarti del secondo PC che ho in un appartamento in una nazione diversa con 5800X3D e 3080 ed anche un terzo con 5600x e 3060Ti. Smack
vabbè comunque mi sono annoiato di rispondere a te e al tuo account secondario :D mi auguro il tuo lavoro ben retribuito che ti pemette di comprare una macchina di 3/ 4 k ( mamma mia immagina che paperon de paperoni potersi permettere di spendere una cifra del genere LOL) sia quantomeno reale, perché per attaccare una filippica del genere inizio anche a dubitare di questo :D
Comunque ti lascio alla seduta quotidiana di monitor 4k, magari su un 25 pollici, magari con la calibrazione di fabbrica fatta con il cu.l0 mentre nella tua testa ti ripete " guarda lì che qualità"
ti sbagli alla grande, l'ho editato perchè te l'ho già scritto nell'altro commento, non editato. Era per evitare una ripetizione. Per me sei e ti comporti da pezzente.
"Prima di evolversi bisognerebbe capire che a una determinata distanza un 1080p è percepito identicamente ad un 8K." si parla di PC e ci si sta vicini. La differenza tra 1080p, 1440p e 2160p è abissale. Non prendiamoci in giro per cortesia.
non credo centri nulla esser giovane...quando lo ero io non vedevo l'ora che la tecnologia avanzasse, soldi permettendo ... altri non possono permetterselo, soprattutto oggi dove il costo dell'hw è aumentato in modo spropositato ed essendo infantili non ammettono l'ovvio ma ti dicono che "il full hd va bene" ;-)
vabbè dai stai trollando
tutto sto casino per aver detto che resto con la 1080 in attesa della prossima generazione di GPU. Immagino i tipi di reazione per i problemi veri della vita... CURATI
vero, attualmente costa troppo giocare "ad ultra ad altro framerate" a 4k, come hai scritto sopra, e quindi il ragionamento ovvio di Frang2 va a farsi benedire ed in modo forzato ed erroneo ti senti costretto a dover dire che una risoluzione di 20 anni fa ti va ancora bene.
Eppure sai bene che se giocare a 4k era molto più economico già da da anni avresti cambiato hardware.
Il tuo è un copione ben noto, non devi vergognarti.
peccato che con un pc non ci giochi e basta
a te di sicuro va bene una console
sì ma il solito KOPITE7KIMI ha già divulgato le specifiche
sai com'è quando incontri quelli che commentano random il solito commento da 10 anni sotto ad ogni tipo di articolo che parlano di GPU.