
Economia e mercato 17 Ott
11 Novembre 2022 179
Prende sempre più piede la teoria secondo cui la GeForce RTX 4080 12 GB, il cui lancio è stato cancellato da NVIDIA dopo le critiche degli utenti sulla strategia di lanciare due schede con lo stesso nome ma caratteristiche significativamente diverse (non solo la quantità di RAM), diventerà la RTX 4070 Ti. Era una delle spiegazioni più logiche e plausibili, e ora è sostenuta anche dal noto leaker Kopite7kimi (peraltro un peso massimo di reputazione, quando si tratta di schede video). Parlando con altri utenti su Twitter, la fonte sostiene inoltre che il lancio della scheda dovrebbe avvenire in tempi relativamente brevi - si parla di gennaio 2023. Un altro leaker relativamente affidabile, MEGAsizegpu, è intervenuto sulla questione indicando il giorno preciso: 5 gennaio.
Se così fosse, a questo punto non sarebbe impossibile che la variante Ti della scheda esca prima di quella standard - che non è un fatto senza precedenti, beninteso (un esempio recente è la RTX 3060). Naturalmente il grande punto di domanda resta il prezzo: ricordiamo che nei piani originali la scheda doveva costare 899 dollari, mentre la variante da 16 GB costerà 300 dollari in più (per l'Italia il salasso sarà significativamente maggiore - 1.109 e 1.479 euro rispettivamente).
Tuttavia, le due schede sono profondamente diverse l'una dall'altra. Se il nome suggerisce una "semplice" (si fa per dire) variazione della quantità di RAM a bordo, in realtà le schede sono basate addirittura su due GPU diverse - AD103 per la 16 GB, AD104 per la 12 GB cancellata. Cambia di conseguenza la quantità di streaming multiprocessor, e quindi di core CUDA (9.728 VS 7.680), Ray tracing (76 VS 60) e Tensor (304 VS 240); in ultimo, ci sono più di 8 TFLOPS di differenza (operazioni single-precision o FP32, in boost) tra l'una e l'altra. Ridotto anche il bus di memoria, da 256 a 192 bit.
Tra l'altro, nel frattempo AMD ha annunciato le nuove Radeon RX 7000, dicendo che la Radeon RX 7900 XT costerà esattamente come la RTX 4080 12 GB cancellata, mentre la flagship XTX richiederà 100 dollari in più; ma è difficile pensare che NVIDIA mantenga questi prezzi visto che entrambe le schede AMD si posizionano addirittura sopra la RTX 4080 16 GB dal punto di vista prestazionale (almeno stando ai dati ufficiali).
NOTA: articolo aggiornato l'11 novembre con indicazioni sulla data precisa di lancio
Il noto leaker MEGAsizeGPU dice su Twitter che la scheda sarà lanciata il 5 gennaio.
Available January 5th pic.twitter.com/UUzFbPjGWY
— MEGAsizeGPU (@Zed__Wang) November 10, 2022
Commenti
Continuano a esserci i soliti problemi perché la gente punta troppo in alto (120 FPS col ray tracing in 4k, seri???)
Semplicemente non servono, è meglio 8k ultra a 30-45 FPS che 4k a 130-150.
Io con la mia integrata (Ryzen 5 5600g quindi una Radeon vega 7) fullHD high a 30 FPS su Forza Horizon 4
É l'unica risposta sensata che io possa darti.
Buona giornata.
Esattamente, la pandemia è stato il banco di prova, hanno visto che la gente acquista anche a prezzi folli..quindi perchè abbassarli..
Era ovvio che dovevi rispondere cosi, ma credo sia anche meglio.. buona giornata
E il problema è proprio perché capisco cosa scrivi.. facciamo cosi, per chiudere sti commenti infiniti, perché vedo che il girotondo continua, ti faccio solo una domanda e tu devi rispondere solo si o no, il DLSS2 è migliore dell l FSR2? P.S. Del 3 lasciamo perdere perché lo conosciamo poco.. rispondi solo si o no, non cominciare col 1080p o è poco si o poco o dipende o è paragonabile.. è meglio o no?
Monacois 94 - 2 giorni fa
Se ti ho detto che il DLSS é leggermente meglio dell'FSR in 1080P é normale che avendoli entrambi attiverei quello
Monacois 94 - 13 ore fa
Esatto, tira una moneta
Giusto, leggermente meglio, però poi se devi scegliere...
Intanto comincia ad essere piu coerente nei commenti, poi si vedrà se io dovró diffondere la "realtà".. se prima dici che tra FSR e DLSS non si notano differenze, poi non puoi dire che tra i due sceglierei il DLSS, perché se scegli il DLSS le differenze le noti, e su questo concordo con te.
E certo, perché alla fine anche se lo attivo aumentano gli fps ma perdi in qualità e non di poco, è quasi inguardabile, se poi trovi il gioco che ha un cattivo antialiasing peggio di peggio.. l FSR non è uguale e non è paragonabile al DLSS perché pure tu stesso lhai detto, ti contraddici da solo, se ho la possibilità di scegliere ovviamente attivo il DLSS.. cioè nello stesso commento dici che il DLSS è migliore però allo stesso tempo affermi che è quasi uguale o uguale e che non noti differenze.. o la differenza ce o non ce, non puoi dire entrambi, anche se giochi in 4k, attiverai comunque il DLSS.
Il problema non è che lo vedi sgranato su un 24 pollici (già siamo al limite) ma il fatto che addirittura tu lo reputi inutilizzabile.
Ti ho già detto che in 1080P si perde qualcosa ma da quì a dire "preferisco non usarlo" ce ne passa di acqua sotto i ponti,specie se lo puoi persino moddare in tutti i giochi che di norma manco ce l'hanno.
"quello che ha rivoluzionato è stato il DLSS, nell FSR non vedo niente di che."
Io ho visto solo un DLSS 1.0 che faceva schifo ma che veniva ugualmente osannato da tutti come stai facendo tu e un DLSS 2 che nella sostanza è stato raggiunto anche senza l'utilizzo di AI.
In futuro ci sarà sempre di più l'utilizzo di AI ma per il momento gli sviluppatori gli sanno tenere testa senza troppi problemi.
Io su un 24 pollici full HD, FSR lo vedevo sgranato.
Ma infatti parlo pure sulla mia esperienza non perché lo dice Nvidia, col DLSS i colori e i contrasti sono migliori, rispetto al nativo che sembra piu sbiadito... Ma in 4k, la maggioranza delle persone gioca in 1080p e QHD ed è qui che il DLSS ha aiutato maggiormente.. ma uguale quello che ha rivoluzionato è stato il DLSS, nell FSR non vedo niente di che.
infatti preferisco il fotorealismo poligonale che 2 riflessi in tempo reale, in un game anche non in tempo reale va benissimo, ovviamente il tutto a 90fps minimi non 30 col ray tracing!!!
Si perché a molti non piace vedere il frame rate di un gioco abbassarsi per motivi innovativi tipo palazzi che crollano,interazione ambientale o altre cose stupende.
Abbiamo 2 riflessi in piú nelle pozzanghere e negli specchi che ci dimezzano gli fps,siamo contenti cosí.
Perché?
Se ti ho detto che il DLSS é leggermente meglio dell'FSR in 1080P é normale che avendoli entrambi attiverei quello ma la parola "leggermente migliore" é molto lontana dal tuo "fare schifo".
Questa cosa che il DLSS migliora il nativo é una fesseria colossale perché dipende da gioco a gioco e da come viene implementato.
Senti,io l'ho provato su una tv 4K 55" e stando appiccicato allo schermo,ho notato una diminuzione della qualitá solo dal 1080P in giú e dubito fortemente che per te sia stato cosí evidente su un "mero" monitor da pc.
Vuoi continuare a dire che il DLSS sia anni luce avanti e blablabla?
Liberissimo di farlo ma devi accettare che per molti youtuber,recensori,utenti e per me,il 2.0 é giá paragonabile al DLSS 2.
Tu praticamente nel tuo ultimo commento hai scritto 20 righi di un discorso, poi negli ultimi tre righi ti sei smentito da solo.. il DLSS oltre ad essere migliore del FSR, in modalità qualità, non solo raggiunge lo stesso risultato visivo del nativo, ma lo migliora ulteriormente, l FSR invece non raggiunge la qualità nativa, e questo è visibile anche in QHD, in 1080p semplicemente fa solo schifo, e io lho visto con i miei occhi e ti ripeto che sostanzialmente è come quando abbassi la scala di risoluzione e io l FSR non l attiverei neanche se fissi sprovvisto di una scheda RTX, la rivoluzione è il DLSS, l FSR o amche il più recente XeSS di intel sono soltanto imitazioni, solo per dire che esistono alternative
nvidia ed anche gli youtubers hanno fatto un bel lavaggio di cervello a tutti.
guarda che con quella che non arrivo a 75W... 75 è il max ma non lo raggiugngo mai
già speriamo
Il problema principale é che questa strada la stanno intraprendendo almeno 10 anni prima del previsto solo per poterti dare l'ennesimo motivo di cambiare gpu senza affaticarsi veramente nel migliorare un gioco.
Perché alcuni giochi di 10-15 anni fá avevano un intelligenza artificiale e una fisica migliore rispetto a tanti giochi moderni?
Se li prendi caso per caso troverai giochi che hanno avuto features che adesso noi reputeremmo avanzate e sai perché?
Perché il 4K,8K,120fps e il RT sono esattamente la scappatoia del settore videoludico per poter "allungare il brodo" del progresso VERO per almeno altri 20 anni.
E in 1080P lhai visto? io si? Ma guarda siamo d'accordo, facciamo pure 8k, a questa risoluzione anche con la lente d ingrandimento non noti differenza, è proprio qui il punto, qui si vede la bontà della tecnologia, in 1080p avere l FSR attivo neanche ne vale la pena, lho visto e provato diverse volte con i miei occhi, FSR sostanzialmente è come quando fai il classico upscaling soprattutto in 1080p, sono aumentati gli fps, ma la qualità è peggiorata, cosa che non ho notato col DLSS..
Io nel 2020 non ho detto che l fsr non potesse migliorare.. ma sicuramente era ovvio fin da subito che non potesse eguagliare il DLSS, perché il primo non utilizza l IA .. ti faccio una domanda, tu se avresti una RTX(magari ce lhai pure) cosa attivi tra FSR e DLSS?.. dai facciamo i seri.. perche dobbiamo fare sempre discorsi infiniti su cose ovvie..
Io ultimamente vedo sempre di piu giochi con DLSS, ormai sono più quelli col DLSS che quelli senza, che poi solitamente l FSR è pure insieme al DLSS come opzioni grafiche. Non vedi superiorità? Quindi Ada Lovelace non è meglio di RDNA3? Apperò ce ne intendiamo di hardware, l alternativa di AMD della 4090 dov'è? Tu lhai vista? Basterebbe solo questo per capire quale delle due tecnologie è la migliore, ma oltre a questo è proprio tutto l ecosistema Nvidia ad essere migliore.. e come al solito lo devo sempre precisare, questo non significa che le Radeon fanno schifo o sono inutili, anzi tutto il contrario, non è che se tizio compra la 7900 XT o una 7700 XT è un idiota, è un idiota se una 7900 XT la paga 1500 euro questo si, purtroppo la difficoltà è il capire che le GPU amd hanno un valore le Nvidia un altro. Fine.
peccato che la più economica 6900xt, ora come ora, costi 900 euro.
Lo so era per farti capire che se ti impegni la puoi acquistare.
Con le console si continua a risparmiare ma purtroppo viviamo in un periodo brutto e che non fa testo così come (quasi) quello pc.
Perchè non è vero.TUTTI i recensori e chi l'ha provato (me compreso),una volta provato l'FSR 2 si sono resi conto che a risoluzioni 1440P o superiore non c'è nessuna differenza sostanziale e questo è sinonimo di comparabile.
Utenti 2020: Il DLSS ha l' AI dedicata e l'FSR 1.0 non potrà mai migliorare più di così.
Io 2020:Ragazzi smettetela di prendere il posto degli sviluppatori perchè vedete che qualcosa la sapranno fare.
Realtà 2021-2022: L'FSR 2 è comparabile al DLSS come risultato finale.
Ovviamente sono consapevole che il futuro si sposterà sempre di più verso l'AI ma sono orgoglioso di vedere che gli sviluppatori hanno saputo dare il "ben servito" a questi presuntuosi.
Questa gente si è gasata talmente tanto da un rendersi conto che:
1. Il RT attuale è imbarazzante.
2. Se un gioco è sviluppato bene,la differenza non si nota proprio.
3. I giochi diventeranno esponenzialmente più pesanti e già adesso si fa fatica a reggerlo su giochi 2013.
Sono del tuo stesso parere che per una cosa veramente fatta bene ci vorranno altri 10 anni a meno che non si continui a fare un 2x ad ogni nuova gen sia in raster che in RT.
Premesso che per me il RT attuale è una fesseria colossale e che il raster è la cosa più importante,una 6900XT attualmente si trova a €800 ma nessuno vieta che il suo prezzo continui a scendere.
Inoltre devi considerare una cosa,le performance in RT sono accompagnate da quelle in raster e se una 6900XT performa il 70% in più di una ipotetica 4050,il suo RT difficilmente gli sarà inferiore proprio a causa del suo vantaggio iniziale.
Non sto denigrando la ps5 ci mancherebbe ma i prezzi , ma vale anche per il pc nel periodo covid miners a parte nvidia ed amd hanno venduto molte schede a prezzi fuori da ogni logica, il discorso alla fine è che con le console non si risparmia come prima.
Secondo me anche 40. Ammetto di non avere lo spazio, ma a distanza comune di visione (50-70 cm) penso che sarebbe comunque troppo grande. Secondo me 27 pollici sono perfetti e là i 4K sono uno spreco di corrente e di risorse. Purtroppo non trovo molti monitor decenti di queste dimensioni. O sono da bimbi, o non sono regolabili, o costano uno sfacelo, o se più professionali si siedono a 60Hz.
Ray Tracing escluso però...
Comunque dove l'hai vista la 6900xt a 650€?
In realtà bastano anche i 34... Che in orizzontale sono in 4k.
Quindi...
Un 42 sulla scrivania è troppo e te lo dico io che ho un 40
Il DLSS aveva il vantaggio di essere temporale oltre che spaziale. Ora anche FSR lo è. E c'è RSR. Se è vero che DLSS può produrre risultati grafici ancora leggermente migliori, è anche vero che necessita di giochi che lo implementino e di hardware specifico. NVIDIA non ha una risposta a RSR che funzioni su tutti i giochi, su tutti gli hardware, senza mettere mano al codice: la compatibilità universale non è cosa da poco, specie per chi sviluppa i giochi.
Ti posso dare ragione solo su CUDA perché in certi software l'accelerazione che offre è migliore rispetto a OpenGL e ad oggi rimane un vantaggio per NVIDIA. Vedo comunque che nel settore degli acceleratori AMD non sta con le mani in mano: le Instinct Mi 250X sono dei mostri di potenza rispetto alle proposte NVIDIA.
Ognuna delle due compagnie ha le capacità tecniche di fare bene, se vuole. Non vedo una superiorità di una sull'altra, in quanto ad avanzamento tecnologico, nonostante il monopolio di NVIDIA nel gaming PC e quello di AMD nelle console e nell'embedded
Per 2 pollici!
"piuttosto comparabile" perché non dire invece, sta sotto e basta, si ci avvicina ma non è uguale.. non sono p..ttanate, guarda i benchmark di chi ha testato le schede con e senza DLSS3, senza DLSS ci avviciniamo di quasi al doppio rispetto le 3000 col DLSS3 raddoppiamo, poi dipende da gioco a gioco, ma di media Nvidia ha detto il vero, un salto generazionale di questa portata non si è mai vista almeno negli ultimi 15 anni
Come il DLSS2 va paragonato con FSR2, e tra le due tecnologie la prima è la migliore, come lo sarà ovviamente con il DLSS3, ora magari il DLSS3 sarà uguale all FSR3? Come può essere cosi? Il DLSS se non funziona sulle Radeon ce un motivo.. ce poco da ragionare, le 4000 sono tecnicamente migliori, e non parlo solo dei cuda core, ma di tutto l ecosistema Nvidia.
A cosa serve il RT? E a cosa serve il progresso? Nel futuro la grafica si baserà sull intelligenza artificiale non sul raster, dove vuoi andare ancora col silicio? Se non si trovano nuove strade la grafica dei giochi può rimanere cosi, secondo te perché anche intel si è buttata nel IA? Ma anche AMD sta facendo lo stesso solo che ancora non sono al livello di Nvidia, dopotutto è la prima ad aver avuto schede basate sull IA
719 euro sarebbero le founders, che sono schede esclusivamente prodotte da nvidia, vendute a 4 persone e poi sono finite dopo 3 secondi dal lancio, le altre schede che si trovano sono custom prodotte dai vari partner, gigabyte, msi, zotac ecc, queste avevano e hanno un altro prezzo, non quello che diceva Nvidia, e i shop fidati non hanno intascato come dici, perché anche loro all ingrosso li prendevano comunque a prezzi maggiorati, non voglio aprire altre parentesi, ma era solo per spiegarti il perché una 3080 non costa meno di una 2080
E non ho neanche scritto che le AMD a prezzi più bassi non siano una buona alternativa, le RX 7000 saranno schede buone come lo saranno le RTX 4000, soltanto che quest ultime avranno una tecnologia più avanzata e costeranno un po di più.
E invece può essere una feature molto preziosa, soprattutto per la fascia piu bassa, nei giochi tipo cyberpunk o in generale nei AAA, l input lag non è cosi fondamentale, e nei giochi competitivi non serve a nulla, un input lag comunque sempre migliore delle console
Beh, non necessariamente si deve comprare l'ultima uscita. La RX6900XT va più o meno come una 3090 (dipende dai casi) eppure la trovi intorno ai 750€ (bpm power)
Ho un 40