
29 Ottobre 2019
NVIDIA potrebbe presentare a breve una nuova scheda grafica della serie GeForce RTX, a suggerirlo è l'ultima versione beta del noto software di diagnostica e benchmarking AIDA64 che, nelle note di rilascio 6.00.5151 (vedi FONTE), introduce il supporto a una nuova scheda grafica siglata nVIDIA GeForce RTX T10-8, basata su GPU Turing TU102.
Per chi non fosse ferrato in materia di GPU NVIDIA, ricordiamo che siamo di fronte allo stesso chip che il produttore utilizza sulla GeForce RTX 2080 Ti, nonché sui modelli professionali NVIDIA QUADRO RTX introdotti lo scorso anno.
Attualmente la GPU NVIDIA Turing TU102 è offerta in almeno due varianti: la prima con 4352 Cuda Core (vedi RTX 2080 Ti), la seconda con 4608 Cuda Core (RTX Titan, Quadro RTX 8000 e 6000). Un ulteriore modello basato sul chip TU102 fa pensare quindi a una nuova scheda top di gamma GeForce RTX, in linea quindi con la recente campagna NVIDIA SUPER | NVIDIA GeForce RTX SUPER ufficiali, specifiche e prezzi |.
Al momento NVIDIA non ha commentato, gli indizi tuttavia sono abbastanza concreti per parlare di una nuova scheda GeForce RTX di fascia alta che, quando arriverà, difficilmente sarà inferiore all'attuale RTX 2080 Ti a parità di GPU.
Commenti
Ah beh, per i case compatti una apu con una gpu realmente in grado di giocare in fhd con tutto ad alto ad almeno 70-80fps sarebbe praticamente la manna dal cielo. Il mio htpc del salotto sarebbe finalmente pronto a passare da un micro atx ad un itx gpu-less, sarebbe ottimo!
ma assolutamente no, le wall of text di questi tipi me li bevo perchè mi piace molto imparare dagli altri! ;) sei in gamba!
Suppongo che il grande evento tecnologico per prestazioni sarà intorno al 2022 con PCI-E 5.0 DDR5 GDDR7 e processori 7nm+/5nm. Comunque io sono sempre in attesa di una APU che possa farmi giocare a 1080p in modalità alta/ultra, (all'altezza delle GTX970/GTX980M). Il prossimo anno mi aspettavo una Navi 11 su un Ryzen7 6c/12t, ma ahimè sempre la solita Vega... :/ .
Mi sono bevuto il tuo muro di testo XD. Quindi quale sarebbe la soluzione secondo te?
Io desidererei solo un nuovo o diverso semiconduttore e all'epoca da quando incominciai a studiare informatica ed appassionarmi con i relativi linguaggi uscì quel fantomatico nanotubo al carbonio, ma la DARPA sembra non volere rilasciare il brevetto con i vari risultati offuscati o nascosti ma sembrava molto promettente, ora riescono le medesime notizie ultrapromettenti per i processori quantistici per uso civile perchè possano usarlo tutti invece che poche infrastrutture usando azoto o elio liquido.
Notare, era una notizia quando i processori erano ai 32nm e il nanotubo era visto come strumento per i processori avvenieristici per i 10nm, quindi mi sarei aspettato che o la intel o amd o arm o samsung comprasse il brevetto e investisse miliardi e menti per tale strumento,ed invece niente. idem per i processori a fibre ottiche, giusto la xanadu sta investendo soldi e tempo.
Dubito, se arriverà una rdna in grado di rivaleggiare con la 2080ti non sarà a breve, in più Nvidia aveva detto che non ci sarebbe stata una 2080ti super.. È poi ormai il passaggio a 7nm di Nvidia non è molto lontano, non avrebbe senso mettere un prodotto sul mercato adesso secondo me.. Poi ovviamente la sfera di cristallo non cel'ha nessuno, ma magari stavano testando un'altro prodotto della linea pro, un modo per riciclare le titan (dato che il chip è quello) per liberarsi delle scorte in attesa del cambio processo produttivo.
Allora, diciamo una cosa: che le Hbm non siano cost effective è un dato di fatto. Non c'è discorso in merito.
Se vuoi una "dimostrazione" semplice, prendi una qualsiasi gpu, overlocca la memoria del 10-20% e avrai incrementi in framerate del 2-3%.
Poi prova ad aumentare il clock del core del 10%, e solitamente l'incremento sarà del 6-8%.
Infine prendi una gpu con 10% dei core in più (le nuove touring super rispetto alle "vecchie" ad esempio), e l'incremento sarà anche di 10-12%.
Questo ti dice una cosa: più core batte core più veloci, e la memoria più veloce è la cosa meno importante.
Una ipotetica rx580 con le Hbm sarebbe più scarsa di una Vega 56 con gddr5, così come una 2080 con le Hbm sarebbe comunque più scarsa della 2080ti.
Il discorso sul "forno" e sul calore è relativo: amd ha "tirato il collo" alla sua architettura per troppo tempo, non avendo le risorse per svilupparne una nuova (tutti i soldi erano impegnati su ryzen, dove c'era più da guadagnare). Risultato, aumentare il numero di core oltre un certo punto diventava impossibile.
Una Vega 64 va come una 1080 grossomodo, ma consuma nelle condizioni reali 70W in più stock contro stock. Quindi una ipotetica Vega 80 sullo stesso tdp era irrealizzabile, avrebbe consumato 400W o qualcosa del genere, praticamente un chip enorme e impossibile da dissipare. Quindi per aumentare le performance, era necessario usare un altro approccio, ed ecco le Hbm.
Appena il pp nuovo e un'architettura migliorata hanno permesso di mettere più core senza consumare di più, le Hbm sono sparite dal settore gaming, e tutte le navi usano solo gddr6, com'è giusto che sia. Non perché nvidia ha la leadership del mercato, ma perché costo/performance è l'approccio giusto.
Fa sempre sentire importanti sapere di avere la tecnologia "migliore" possibile (e si, le Hbm sono migliori, senza se e senza ma), ma spesso è meglio avere la tecnologia che ti serve piuttosto che quella migliore in assoluto. Una Ferrari è un'auto migliore di una Clio, ma non ha senso comprare una Ferrari senza il motore al posto di una Clio nuova perché si hanno solo 15k€ a disposizione.
Oltre a ciò, esiste anche un discorso legato ai costi di progettazione (le Hbm richiedono un chip diverso da quello che usa le gddr6), che spinge amd (che ha meno budget, almeno al momento) a cercare di unificare la proposta consumer e quelle professionali e server, mentre nvidia può permettersi di avere chip specifici sulle tesla (dove mettono le Hbm) rispetto alle geforce.
si hai ragione, scusami forse mi ricordavo male per le polaris, ma le usa per le vega64 e altre oltre alla citata 24 GH. per quello che scrivi hai ragione anche perchè in molti thread su reddit, gli utenti dedcono la tua stessa convinzione del cost effective, ma questo esiste perchè nVidia domina il mercato, ed AMD deve vendere le sue di grafiche ad un prezzo minore, come ha fatto per le uscite delle ultime 5700/5800. Altrimenti le avrebbe usate eccome, anche perchè stano perfezionando verso le HBM3 che dovrebbero risolvere molti problemi tecnici/prestazioni e rapporto qualità costo. Come te preferisco le GDDR alle HBM, ma perchè le HBM devono essere sottoposte ad ulteriore studio e perfezionamento.
P.S. il mio vecchio computer lo usavo come stufa d'inverno con il suo i7 920 e radeon 8800 :D . Sono per i miniPC e sul risparmio energetico ma tutte le schede grafiche sono forni!
????
Mia frase: "Nvidia può usarle ma sceglie di non farlo dove non servono a niente."
Tua risposta: "invece le usa" e citi delle schede amd (per inciso, dicendo pure fesserie, visto che praticamente tutte le polaris da gaming usano, giustamente, ddr5).
Quel che scrivi non ha senso.
Hbm, per giocare, non è cost effective. Meglio risparmiare sulla ram e mettere più core. Amd si è trovata costretta ad usarle perché semplicemente l'architettura era ai limiti e non c'era modo di aggiungere core e restare vagamente ad un tdp accettabile (già così sono forni a gas le Vega, inclusa l'ultima radeon VII).
Non appena ha avuto un'architettura termicamente decente (le nuove 5700/5800 etc) prontamente le Hbm sono sparite, proprio per quanto ho detto prima: non sono cost effective.
Uno sli di titan rtx è insufficiente per il 1080p perché con con 512x msaa fa solo 90 fps...
In 2k? Ovvero 1080p?tutto low, certo
Witcher 3 con tutto al max non gira neanche vicino a 60fps in 4k con qualsiasi 1080ti .fidati, ho una 1080ti binned che fa 2200mhz. E si parlo con hair works attivo che fa una grande differenza. Ma neanche se lo disattivi non fai 4k/60. Poi vorrei insegnarti che non esiste risoluzione 2k su pc.. E che quella piu vicina a 2k é la risoluzione fhd... Il numero 2k significa 2000 che é il numero orizzontale.. Quella più vicina a 2k é proprio 1920x1080. Ciao
Witcher 3 tutto al max con la 1080ti FE gira a 60fps in 4k e 100fps in 2K. Alternativamente con una 1080 FE gira a 77fps in 2k. Questi sono i dati presi da Anandtech, di certo non l'ultimo dei siti.
Poi se te giri con hairworks attivo, complimenti: sei caduto nella trappola di nvidia per costringerti ad aggiornare l'hardware. La differenza è praticamente inesistente se non negli screenshot quando geralt copre col suo faccione 1/3 di schermo.
Maxare tutti i settaggi solo per dire ho tutto al massimo è una motivazione fortemente discutibile: i dettagli alti permettono di avere un'esperienza di gioco appagante visivamente; ma se tra "medio" e "alto" o tra hairworks on e off non c'è praticamente alcuna differenza allora lo scopo del maxare tutto viene meno..
no invece le usa eccome, esempio nelle Polaris le ha usate o nella strepitosa Vega24 M GH/GL.
ahahahah <3
Troll?
Hbm2 Nvidia può usarla quando vuole, non lo fa perché non ha assolutamente senso come costo/performance nel settore gaming. Ma ad esempio sulle tesla le usa
la HBM2 è di proprietà AMD quindi no. saranno sempre GDDR6 realmente, e difficilmente GDDR6X. il prossimo anno avremo per le AMD HBM3 e Navy24 che saranno una bomba :). Comunque io tifo per i processori grafici quantici o con grafene, il che avremo u bel balzo prestazionale per tutti i componenti.
Chissà che memorie adotteranno e se saranno HBM2 !
Fa lo stesso.
La 2080 super non è assolutamente appaiata o quasi ad una 2080ti, si è solo ridotto il gap di qualche punto percentuale
La 2080 TI super è la 2080 TI come sarebbe dovuta essere quindi la vera 2080 TI. La 2080 TI liscia molto simile a una 2080 Super (la 2080 come sarebbe dovuta essere e quindi la vera 2080) è quindi una 2080. Non più top gamma ma enthusiast.
Liscia non super.
2080ti liscia
2080ti super
2080 TI liscia? Cioè una 2080.
Motivo di cordoglio anche per chi ha comprato quest'anno la finta 2080 TI.
prossimo anno con prestazioni a partire dalla RTX 2080. Saranno magnifiche.
Sta uscendo anche la 2080 TI Super.
Se saranno o meno delle Nvidia killer si vedrà.. Magari uccideranno davvero le attuali proposte a 12nm, ma quando anche Nvidia passerà a 7nm dubito che potranno mantenere quel nome.
Sarà lecito aspettarsi una AMD in prossimità della 2080ti liscia? Facendo due conti....
ma se perfino la mia 1070 ti fa andare tutti i giochi in 2k 60fps se non 100 o piu’?
Le aorus sono schede molto costose.
Una 2080 aorus veramente si avvicina ad una 2080ti
Esiste già. È la Titan. Già la 2080 ti è un modello di mezzo tra le schede consumer e le Titan.
Veramente il refresh avviene da SEMPRE. Mai sentito parlare di rebranding? Quasi sempre da una generazione di GPU all'altra, i chip di quella prima vengono tweakati leggermente e assumono la denominazione delle nuova serie di schede video, generalmente per occupare la fascia più bassa del mercato. Non esiste una mossa goffa o scorretta, funziona così il mercato, è come dire che Samsung è scorretta perché ora sputa 10 nuovi SKU di cellulari al mese, ma ha semplicemente fatto quello che faceva pure Huawei. Qualsiasi azienda si guarda attorno e cerca di monopolizzare più quote possibili, andando a riempire ogni fascia di prezzo e rendendo i propri prodotti più appetibili se questo ha un costo pressoché nullo, come nei refresh di questo tipo. Prendi il caso di una 2080 che usa TU104: magari dalla fabbrica esce un wafer di silicio che non soddisfa tutti i requisiti, invece di buttarlo possono metterlo su una 2070 SUPER tagliando parte dei CUDA/RT Core. Non è niente di stratosferico, lo fanno tutti nell'industria.
Si ok comunque la 1080 non può fare tutto a palla su titoli AAA e reggere 60fps stabili a più di 1080p. Quello che a te piace , importa zero
in ufficio ne abbiamo 3-4 da diversi mesi oramai..
personalmente preferisco l'alto framerate a dettagli che noti solo negli screenshot comparati. Non ho detto che tutti i giochi girano a 165Hz ma che tutti i giochi a cui IO ho giocato (con i miei settaggi, sempre e cmq a piena risoluzione) girano cappati. Ok, qualcuno ogni tanto scende sui 100 ma poi risale. Giocando però su un monitor GSync di questi drop te ne importa mooolto relativamente
Ah ecco, il ragionamento io sono ricco, tu sei povero quindi sei come la volpe e l'uva
Io adesso ci suono il tamburo con la mia.
Veramente non avevo visto anche perché l'ho bloccato dopo quel messaggio perché nn person tempo con gente stup1da che parte di insulti quando non sta d'accordo con qualcuno. Possiamo postare quante foto ti pare, cio non cambia quello che ho detto sulle 1080. Mo blocco pure te. Ciao ciccio
Dopo che ha postato le foto del suo PC che tu puoi solo sognarti sei fuggito con la coda tra le gambe? ahahah
Sii certo certo, sono dei mostri (per chi non si può permettere di fare lupgrade e cerca di paragonarle a scatolette console per farsi sentire meglio ahahahahahah)
Reggono il 4K meglio di oneX, quindi vanno bene per il QHD, c'è poco da fare, idem per la 2060, chi la compra per il fhd è un f3sso
Credo che SIA tu. Perché la 1070 batte onex in ogni aspetto, ergo è valida per il 4K, quindi lo è anche la 1080. Del "tutto ultra/a palla/maxato si può fare tranquillamente a meno, non è che o si gioca così o niente
Lascialo stare.. non vedi che sta sulle sue? Qualsiasi cosa tu dica per lui hai torto ancora prima di esprimerti.
Mai divertente quanto te xD
Ottimo prezzo, io non ho esigenze particolari, avendo tutta la famiglia Vega 56/64 sono passato alla rx 5700 liscia 350 euro per la mia postazione collegata alla TV 1080p va più che bene..
La lineup era completa, hanno cambiato le cose in merito alle mosse di AMD e la 2080 ti super è stata smentita pochi giorni fa, resta quindi il fatto che è una mossa repentina e goffa.
Credo che sei tu che lo devi vedere