
04 Gennaio 2023
La famiglia RTX 40 continua a prendere forma e, dopo aver visto i primi dettagli sulle varianti mobile, questa volta è giunto il momento di scoprire qualcosa di più su una delle GPU più attese della serie, ovvero la RTX 4060 Ti. Sarà infatti questa una delle GPU più appetibili della serie, in quanto permetterà di accedere alle principali caratteristiche della serie 40 su una fascia di prezzo più abbordabile.
Stando a quanto emerge dalle prime indiscrezioni, la 4060 Ti si presenterà come una scheda tutto sommato compatta e le sue principali specifiche includono:
Le differenze principali rispetto alle sorelle maggiori riguardano il passaggio alla memoria GDDR6 invece che GDDR6X e il quantitativo inferiore ai 10 GB, fatto che rende la scheda ideale per i titoli di ultima generazione in FullHD, con la possibilità di giocare bene anche in 1.440p con le uscite meno recenti.
In chiusura vi segnaliamo che sono emersi nuovi render anche per la RTX 4070 Ti di PYN e che il produttore ha confermato quello che era già emerso nelle scorse settimane, ovvero che la scheda non è altro che un rebrand della già annunciata - e quasi commercializzata - RTX 4080 con memoria da 12 GB. Questa versione è stata ritirata prima del lancio in seguito alle pesanti critiche ricevute da Nvidia, dal momento che la nomenclatura risultava decisamente fuorviante.
Le differenze con la RTX 4080 da 16 GB, infatti, non riguardano solo il quantitativo di memoria equipaggiata, ma anche frequenze e numero di CUDA core presenti, motivo per cui la GPU è stata giustamente riposizionata sul segmento della 4070 Ti.
Per completezza vi riportiamo le specifiche tecniche complete della RTX 4070 Ti:
Commenti
ok ma non la prassi ... Sarà successo
Ma certo, del resto nVidia non ha mai fatto giochetti del genere ovviamente... Prendi la 9800 che rispetto alla 8800 era... La stessa scheda rimarchiata! Ops...
in RT full la 7900xtx si arena al solito livello della 3080...se fa schifo la serie 3XXX allora la serie 7XXX di amd è scandalosa
Togliendo le 4000 anche le 3000 fanno schifo, e non è che le 3000/4000 te le regalano, la cosa divertente su tutto è il confrontare le GPU al di là del prezzo, ritornando alla 4060ti uscirà a ridosso dell'estate " visto che Nvidia ha ancora troppo 3000 da vendere", con il costo di 700€.
Ho letto ovunque che la valvola è migliore del transistore, ma vabbè...
Nvidia DA SEMPRE usa trucchi beceri per far credere di essere migliore.
Chi ha detto che altri motori grafici non possano utilizzare approcci simili a Unreal Engine?
Io da sempre non compro giochi sponsorizzati Nvidia e sto benissimo.
Nvidia non ha voce in capitolo sulle console, scacciata malamente da AMD dai tempi di PS4, per cui stiamo tutti al sicuro.
Qualsiasi riproduzione della realtà è un "sostituto povero".
Lo streaming ha la qualità del blue-ray?
Il transistor ha la qualità della valvola?
L'MP3 ha la qualità del CD?
Vogliamo parlare di stereoscopia?
È sempre un compromesso tra qualità e convenienza in termini di risorse e costi.
E l'unica differenza realmente apprezzabile è l'impatto sul portafogli.
Bisogna smettere di fantasticare.
Lumen non è ray tracing è un sostituto 'povero' che serve al motore di epic per migliorare e inserire una sorta di RT nei giochi per console che si basano sulle scarse gpu rdna2 (e continueranno probabilmente visto che intel e nvidia non hanno soluzioni valide ed economiche per console)......
In soldoni è un modo per avere una un rt più scarso e veloce su gpu più economiche e meno prestanti....
Ripeto e ribadisco, il vero ed unico rt in real time non ha trucchi o magie, richiede potenza di calcolo dedicata e in questo nvidia è una generazione e mezza avanti...
Poi se non apprezzi le differenze è un altro paio di maniche
Mah, se Epic e Lumen fòttono Nvidia e il suo RT tanto meglio.
Ormai in molti sospettano che Nvidia sia andata ben oltre il necessario, come in passato.
Nessuno appesantisce nulla o va boicottato semplicemente nvidia riesce a gestire abbastanza bene il full ray tracing, amd no.
Il full ray tracing è un metodo di rendering di immagini tridimensionali che simula il comportamento della luce nell'ambiente virtuale in modo accurato e realistico. In pratica, vengono tracciati tutti i raggi di luce nell'ambiente virtuale, dalla fonte di luce all'occhio dell'osservatore, per calcolare l'illuminazione e il colore di ogni punto dell'immagine.
Il hybrid ray tracing, invece, è un metodo di rendering che combina il full ray tracing con altri metodi di rendering meno accurati, ma più veloci, come il rasterizzazione. In questo modo, il hybrid ray tracing permette di ottenere immagini realistiche con un tempo di rendering più breve rispetto al full ray tracing, ma con una qualità leggermente inferiore.
I negozi si, ma i singoli modelli mi sembrano un po' troppo economici rispetto agli altri.
Boh quei negozi online sono affidabili da quanto so
Oddio, sono 1370, praticamente è 1400, non 1300. Insieme ad un'altra GigaByte sono le uniche sono i 1500, il che non è un buon segno in genere.
Ma non è questione di driver ma di potenza bruta in determinati tipi di calcoli
ma sinceramente non credo sia vecchia dopo 1 anno, questa diventerà "vecchia" quando ci sarà la 5090 (quindi almeno 2 anni), non la 4090 Ti che andrà 5% in più. Ognuno i soldi li spende come vuole, dire che siano buttati è personale soprattutto se la 4090 la si usa sia per lavorare (dove ANNIENTA le AMD) che per giocare.
Guarda è giusto che ognuno spende come vuole, ma andate dietro ad una GPU che dopo un anno è già vecchia non mi va, mi sembrano soldi buttati, poi si alimenta un mercato "malato".
PS: i mie post sono in generale, non voglio polemizzare con nessuno, ciao e buon game.
Vabbeh, il discorso vale anche a cosa giochi.
la 4090 la compra chi si fa anche la vacanza ovviamente. La frase che hai detto è quella tipica di chi riesce a spendere una determinata cifra e non può andare oltre.
Ognuno spende secondo il proprio budget credo ed è giusto così. I prezzi sono aumentati vertiginosamente ed io se stessi ancora a guadagnare 1300 euro al mese come una vita fa in Itala ovviamente non l'avrei acquistata.
Infatti il tizio che spende 2500 euro per una GPU per giocare a 2000 fps se li gode, come si vuol dire "anche l'occhio che non vede la differenza vuole la sua parte", avevo idea di regalare 10 4090 ai miei parenti per natale, ma preferisco regalare una vacanza a testa per 15 giorni dove vogliono loro, muahahahahahaha
Il discorso vale per i giochi, ho sempre detto se compri la 4090 per lavorare fai benissimo.
Sai che fatica...
Io con la 2060 ci faccio ancora 1440p a dettagli medi a 70fps su Battlefield 2042
Comprare una 4090 per giocare ai giochi vecchi non ha senso, quando usciranno i giochi di nuova generazione vedrai sia amd che Nvidia butteranno le top gamma di questa generazione.
All'inizio si con giochi già "vecchi" poi devi cominciare a mettere mano nelle opzioni grafiche.
Tutto sta nel prezzo, se puoi aspettare aspetta, regalare 500+ euro per una scheda vecchia "dlss 3.0" non è mai buono.
Vero, ma pensa anche che ai tempi della 3080 il prezzo si aggirava sui 2000/2500€, adesso viene surclassata da una scheda da 1100€, le 3090ti stanno a 1400€, AMD non fa beneficenza, ma puoi metterla così: AMD ha potenziale di miglioramento con i driver, nvidia non lo so.
"avere 300 o 250 fps non cambia niente", già oggi ci sono titoli dove questi numeri te li sogni a 4k e dettagli al massimo quindi il tuo commento, come spesso accade, lascia il tempo che trova
Cerca su Google shopping, un negozio che la vende sui 1300 è bpm-power
Oppure...
Boicottare gli sviluppatori che si associano a Nvidia per truffare i consumatori.
A margine, seppur appesantendo i calcoli, la qualità visiva non cambia.
Si...ok ma non è imbrogliare, è mettere in difficoltà il competitor in modo più evidente senza necessariamente apportare stravolgimenti visivi.........
è come dire che in una gara d'auto in un circuito misto in cui abbiamo una vettura veloce in curva e rettilineo e una 'solamente' in rettilineo, quella veloce in curva bara perché il circuito la favorisce...........è colpa di amd se non tiene il passo..................
Diamo a cesare ciò che è di cesare, in raster amd fa paura se pensiamo al prezzo al consumatore e al costo per scheda ridicolo (per amd) rispetto al monolitico di nvidia.... ciò non toglie che nvidia vada comunque bene in raster e la svernici in rt............
La miglior scelta (per chi non vuol vendere un rene) di quest'anno se amd non abbassa i prezzi sarà la 4060ti, sarà un giusto equilibrio fra rt e raster per giocare con non troppi compromessi al più dei titoli...
Qmd quest'anno è inciampata nel solito errore della scorsa gen, prezzi simili ma performance simili con un grosso divario in rt...
Io la 4080 la trovo dai 1600 in su, veramente ed è ragionevole visto che il listino è di 1200$. Dove la troveresti a 1300 che manco in dollari la si trova a quella cifra?
Oltretutto le AMD sono uscite da una manciata di giorni, un minimo di tempo per l'assestamento di prezzi è necessario come sempre.
Basta aumentare i raggi di luce da calcolare, quanti rimbalzi devono fare, i filtri da applicare...
Già ai tempi di Turing lo avevano fatto, salvo poi diminuirli perché avevano esagerato e le schede non ce la facevano proprio.
Mi spieghi come fa nvidia ad appesantire i calcoli? Spiega meglio questo concetto perché nvidia non fa motori grafici e non sviluppa giochi, al massimo offre feature in più che permettono di avere un rt più complesso ed articolato, un pochino come quelle feature legata ad i peli (non ricordo il nome)
Barare è tutt'altro sotto il mio punto di vista.... in rt nvidia tira di più, come tira di più in opencl ecc....
Nei giochi che fanno un uso ibrido dell'rt, l'rt per la gpu fa da collo di bottiglia, se riesce a tenere il passo del raster fila liscio quando non riesce taglia
sono curioso di vedere se renderanno disponibile fsr 3 per tutti, comunque ho cercato adesso, la 4080 si trova sui 1300, la 7900 XTX sui 1200 circa, siamo lì, unica cosa veramente buona delle amd imho sono i displayport 2.0, ridicolo che le nvidia siano ferme alle 1.4
Come già scritto, AMD è nota per il pessimo software come lo era ATI a suo tempo. Detto questo, in RT è partita dopo, come lo è anche sul discorso DLSS, ma le sue soluzioni restano ottime al momento. Soprattutto in ambito DLSS ha recuperato quasi tutto il terreno ed in molti casi dipende dal singolo gioco. Oltretutto, per come la vedo io, essendo FSR open e multipiattaforma, per me è indubbiamente la tecnologia superiore sul mercato. Anche sul RT ha recuperato parecchio, a dire il vero, tant'è che non capisco bene i drammi che fanno alcuni. Poi certo, ci sono giochi dove va peggio e dove va meglio, ma quello è sempre stato così e vale anche al contrario.
Nella fattispecie, comunque, non si parla di due GPU vendute allo stesso prezzo. La 4080 costa un 20% in più della 7900 XTX, va peggio in raster e circa un 15-20% meglio in RT, quindi come prodotto non mi sembra mal posizionato.
In realtà dipende dal gioco. Su TPU vedi anche i dati normalizzati e mediamente batte tutta la serie 3000.
Non da quello che so io.
Ho letto che Nvidia appesantisce di proposito i calcoli sui rimbalzi di luce. La differenza visiva è nulla, il rallentamento invece è molto consistente.
In pratica barare, come sempre.
vabbe' allora mea culpa... quando hai scritto "lato professionale per molti campi persino i processori apple sono avanti", pensavo ti riferissi alle performance.
comunque per blender per le gpu amd c'e' HIP... ovviamente non e' al livello di cuda e optix di nvidia, pero' schifo non fa.
ora non so rispetto a metal quanto e' meglio, anche perche' metal e' roba di apple che funziona solo sul suo OS, e HIP non va su mac os, quindi e' difficile fare un paragone diretto sulle performance.
questo bench cade proprio a fagiolo, ma ovviamente non c'e' un paragone con dei mac e mancano anche le nuove gpu nvidia
https://www.phoronix.com/review/rx7900-blender-opencl
si si sicuro, la 6600xt sta tra una 3060 e una 3060Ti, la 6700 non ricordo se e' in linea con la 3060Ti o a meta' tra questa e la 3070.
anche perche' a questo giro la 3060Ti non e' la versione piu' potente della 3060, ma e' proprio una scheda diversa, bus, memoria e credo pure chip
Se si gioca in rt conviene aspettare una 4060ti, probabilmente sufficiente per il 4k, verrà sui 600 euro e in rt completo forse andrà pure un filo meglio della 7900xtx...
Sicuro? Mi confondo con la 6700?
Si vede che che i tanti utenti AMD guarderanno altrove...
Lo dicevano anche della tessellazione.
Sai che Nvidia voleva tessellare persino le texture? Bella roba...
Mai detto che sono più performanti, e parliamo di cose completamente diverse, ho detto che sono più avanti in fatto di ottimizzazione e implementazione (di quello si parlava). Le fonti cercatele da solo, non devo convincerti di nulla, ti ho detto da dove partire, se non cerchi è perché sai che ho ragione
hai detto che i soc apple sono piu' performanti delle gpu AMD in alcuni contesti.
ripeto, mostrami tempi di renderizzazione/benchmark per lo stesso progetto blender fatto tra un mac m1/m2 e una specifica gpu radeon.
quella e' una fonte, tutto cio' che stai dicendo non sono fonti
Va visto anche l'uso che ne viene fatto nei giochi, sta cosa del'rt pro nvidia la trovo sempre un pochino strana... se ci fosse una situazione di baro credo che verrebbe fuori (non si parla di un 5 o 10% di differenza), non mi pare che amd abbia denunciato politiche scorrette di nvidia.....