Recensione NVIDIA GeForce RTX 4070 Ti: consuma poco e vola nel gaming a 1440P

04 Gennaio 2023 595

Tra i protagonisti di questo CES 2023 c'è sicuramente NVIDIA che, confermando le indiscrezioni dei giorni scorsi, annuncia oggI la GeForce RTX 4070 Ti, la terza scheda grafica della serie GeForce RTX 40 "Ada Lovelace" guidata ricordiamo dalla top di gamma GeForce RTX 4090 (Recensione). La nuova proposta del produttore californiano arriva a poche settimane dalle Radeon RX 7000 di AMD e, inutile nasconderlo, offre sostanzialmente le stesse caratteristiche viste nella GeForce RTX 4080 12GB, prodotto cancellato (o annullato) dall'azienda subito dopo il lancio ufficiale dello scorso settembre. Senza dilungarci ulteriormente sulla questione, più volte discussa, chiudiamo definitivamente l'argomento dando credito al produttore che, come ammesso anche in un comunicato ufficiale, aveva fatto sicuramente una scelta di marketing errata (vedi fascia di prezzo) che ora sembra trovare un risvolto definitivo visto l'inserimento nella gamma GeForce xx70.


NVIDIA GeForce RTX 4070 Ti è una scheda ideata per offrire il top delle prestazioni nel gaming in QHD ad alto refresh-rate (anche sopra i 120Hz), garantisce una potenza di calcolo di 40 TFLOPS e, secondo i dati NVIDIA, si colloca al livello di una GeForce RTX 3090 Ti (Recensione), aiutata sicuramente dall'implementazione del DLSS 3.0, vero punto di forza di questa generazione di GPU. Nel nostro articolo andremo a toccare con mano le prestazioni di questo nuovo modello, nel dettaglio abbiamo provato la variante custom Gigabyte GeForce RTX 4070 Ti Gaming OC che, come suggerisce il nome, viene proposta con un leggero overclock sulla GPU (ulteriormente migliorabile aggiungiamo).

CARATTERISTICHE TECNICHE

Al pari delle top di gamma GeForce RTX 4090 ed RTX 4080 (QUI i nostri test), anche l'ultima arrivata in casa NVIDIA può contare su tutte le novità e le peculiarità dell'architettura GPU Ada Lovelace abbinate al nodo produttivo TSMC a 4nm: dal nuovo Streaming MultiProcessor, passando alla quarta generazione di Tensor Core e all'Optical FLow, senza dimenticare l'implementazione degli RT Core di terza generazione, lo Shader Execution Reordering (SER), maggiorazione della cache L2 e diverse ottimizzazioni software che sfociano appunto nell'ultima versione del DLSS (3.0), funzionalità in continua evoluzione che permette a queste particolari GPU di ottenere un netto balzo nel framerate e in particolare nei titoli che sfruttano il ray-tracing (dove supportato ovviamente).

Diagramma a blocchi GeForce RTX 4070 Ti

Andando nel dettaglio, a bordo della GeForce RTX 4070 Ti troviamo un chip NVIDIA AD104 equipaggiato con 7.680 Cuda Core, 60 RT Core e 240 Tensor Core; il reparto memoria è affidato a 12GB di VRAM GDDR6X da 21Gbps su bus a 192 bit - sarebbe stato meglio a 256 bit - mentre il TGP (Total Graphics Power) si attesta a 285 watt con un consumo medio in gaming dichiarato da NVIDIA in 226 watt.


Altra caratteristica comune ai modelli più blasonati è il connettore di alimentazione ausiliario PCI-E 5.0 a 16pin che, visto il TGP di 285 watt, può essere sostituito dall'adattatore con doppio PCI-E 8pin fornito in dotazione. GeForce RTX 4070 Ti può contare anche sul doppio encoder NVEC (AV1) - il 40% più efficiente di quello presente su Ampere - mentre lato uscite video troviamo tre Display Port e una HDMI (2.1). Il Boost Clock di questa GPU è di 2.610 MHz ma nella variante proposta da Gigabyte si sale a 2.640 MHz, con ampi margini di miglioramento grazie a un sistema di dissipazione che possiamo definire quasi sovradimensionato.


La Gigabyte GeForce RTX 4070 Ti Gaming OC non si discosta infatti da altri prodotti testati in passato e offre un sistema WindForce a tripla ventola in grado di tenere le temperature di esercizio sempre sotto controllo, anche con ventole gestite in automatico; a bordo troviamo ovviamente la modalità semipassiva e un doppio BIOS (OC o Silent) che, dati alla mano, non porta particolari cambiamenti a livello di prestazioni nei giochi.

Come anticipato, il dissipatore in dotazione è abbastanza imponente e quasi esagerato, almeno se guardiamo a quelle che dovrebbero essere le esigenze termiche del chip NVIDIA AD104 e dei 12GB di VRAM GDDR6X; tuttavia, essendo sostanzialmente questa originariamente una GeForce RTX 4080 12GB, a bordo troviamo quello che è il dissipatore di un modello della gamma RTX xx80. Oltre al regime di rotazione alternato e al design blade, le ventole in dotazione integrano un sistema di illuminazione RGB rivisitato (per gli amanti del genere), gestibile e personalizzabile via software con l'utility proprietaria Gigabyte Control Center.


Tornando invece al corpo dissipante vero e proprio, ritroviamo in pratica la stessa soluzione vista sulla GeForce RTX 4080 Gaming OC, caratterizzata dall'utilizzo della tecnologia Vapor-Chamber e un'ampia base in rame che smaltisce il calore di GPU e memorie attraverso una serie di heatpipe composite che si intersecano nel generoso corpo lamellare in alluminio.


Non manca infine il backplate in metallo per smaltire ulteriore calore, appositamente disegnato per massimizzare il flusso d'aria attraverso quello che Gigabyte chiama Screen Cooling; chiudiamo questa sezione segnalando che il produttore offre su questa scheda 4 anni di garanzia.

PIATTAFORMA DI TEST

La configurazione hardware utilizzata per la nostra prova sulla Gigabyte GeForce RTX 4070 Ti Gaming OC è sostanzialmente identica a quella adoperata per la recensione della Gigabyte RTX 4080 Aero OC, basata quindi sull'ultima piattaforma desktop Intel "Raptor Lake-S" con processore Intel Core 13900K, attualmente il top quando si tratta di prestazioni in gaming. Da questa tornata di test mancano le ultime Radeon RX 7000, precisiamo però che al momento AMD e i partner non ci hanno "aiutato" a introdurre le GPU RDNA3 in questo contesto per avere un quadro generale più realistico sul rapporto prestazioni/prezzo di tutte le schede grafiche di nuova generazione. Detto questo, ecco la piattaforma hardware/software impiegata per l'occasione:

Hardware

  • Schede grafiche:
    • NVIDIA GeForce RTX 4090 FE
    • NVIDIA GeForce RTX 4080 16GB Aero OC (custom Gigabyte)
    • NVIDIA GeForce RTX 4070 Ti Gaming OC (custom Gigabyte)
    • NVIDIA GeForce RTX 3090 Ti (custom Zotac)
    • NVIDIA GeForce RTX 3090 (custom MSI)
    • NVIDIA GeForce RTX 3080 12GB LHR Suprim X (custom MSI)
    • NVIDIA GeForce RTX 3080 FE
    • AMD Radeon RX 6900 XT
  • Processore: Intel Core i9-13900K 5,5 GHz all-core (5,8 GHz dual-core)
  • Dissipatore: AORUS WATERFORCE X 360
  • Scheda madre: Gigabyte Z790 AERO G
  • Memorie: Corsair Vengeance DDR5 - 32GB / 6200 MHz / CL36
  • Storage SSD: Corsair MP600 PRO LPX 2TB
  • Alimentatore: Corsair RM1000x 1000W
  • Driver: NVIDIA GeForce Game Ready 527.62, Adrenalin 22.10.3
  • Sistema Operativo: Windows 11 Pro aggiornato all'ultima versione

Software

  • Test 3D sintetici e giochi:
    • 3DMark Firestrike Ultra
    • 3DMark Time Spy e Time Spy Extreme
    • 3DMark NVIDIA DLSS
    • Final Fantasy 14 - Ultra
    • Hitman 3 - Ultra
    • Horizon Zero Dawn - Ultra
    • Shadow of The Tomb Rider - ULtra
    • Metro Exdodus Enhanced Edition - Ultra
    • Assassin's Creed Valhalla - Ultra
    • Watch Dogs: Legion - Ultra
    • Far Cry 6 - Ultra
    • Red Dead Redemption 2 - Ultra
    • Cyberpunk 2077 - Alto

  • Test di calcolo - GPGPU - Rendering - Analisi Sientifica - Crittografia - Transcodifica Immagini - Ray Tracing:
    • GPUPI - Calcolo 32 Miliardi / 20 istanze
    • Geekbench 5 GPU Benchmark - CUDA e Open CL
    • SiSoft Sandra 2022:
    • Calcolo Computazionale GP-GPU
    • Calcolo Scientifico FP32 ed FP64
    • Crittografia AES256+SHA2-256
    • Transcodifica Media AVC/H.264 - 4K HDR 10bit 30FPS
    • Blender 3.1.2
    • Indigo Benchmark
    • Octane Benchmark
    • V-Ray - Benchmark CUDA e Ray Tracing

TEMPERATURE - CONSUMI - OVERCLOCK

Iniziamo quindi con i risultati ottenuti dalla scheda Gigabyte in fatto di temperature di esercizio e rumorosità, ambito dove non ci aspettiamo particolari sorprese visti i risultati registrati con altri modelli della stessa serie. Il nostro primo test è incentrato sulle massime temperature raggiunte dalla scheda sotto stress (FurMark), prima con una gestione automatica delle ventole e successivamente con un regime di rotazione impostato manualmente.



Come anticipato, il dissipatore fornito in bundle con questa scheda permette di operare con ottime temperature anche nel peggiore degli scenari (vedi FurMark); dal grafico si evince che impostando un regime rotativo del 60% l'hot-spot la GPU tocca gli 80 °C, il valore più alto che abbiamo registrato e che, dando anche uno sguardo al grafico della rumorosità, ci spinge a scegliere nuovamente per il profilo semipassivo impostato nel BIOS.


Se però cercate di ottimizzare al massimo le prestazioni, il profilo con ventole impostate all'80% permette una frequenza Boost di picco leggermente più elevata, contenendo però la rumorosità rispetto al profilo 100% di quasi 10 dBA (che non sono affatto pochi). Quanto ai consumi, dopo l'ottima sorpresa della GeForce RTX 4080, anche la GeForce RTX 4070 Ti dimostra un'ottima efficienza e solo nel peggiore dei casi - sempre il famigerato FruMark - vede salire il consumo totale della scheda a 290 watt; nei giochi questo valore scende sensibilmente e anche registrando picchi di 207 watt, si attesta nel nostro caso a una media di 160 watt (molto al di sotto rispetto ai dati forniti da NVIDIA).


Chiudiamo con l'overclock, ambito dove siamo riusciti a limare più di qualche megahertz nonostante i "soli" due connettori PCI-E 8pin a disposizione (non sappiamo se ci saranno RTX 4070 Ti custom con adattatore 16pin/3x 8pin, ma non lo escludiamo). Questo modello permette come gli altri della serie RTX 40 di sbloccare il Power Limit via software e aumentare le frequenze sino a quando non riscontriamo problemi di stabilità (dovuti nella maggior parte dei casi al VCORE); nel nostro caso siamo piuttosto soddisfatti in quanto abbiamo incrementato di 150 MHz il chip grafico e di 400 MHz la memoria, toccando quindi una frequenza Boost di picco di ben 3.060 MHz.

PRESTAZIONI GAMING

Apriamo questa sezione dedicata ai giochi con un piccola premessa che riguarda sostanzialmente la fascia prestazionale a cui è (ed era) indirizzata questa scheda, il tutto tenendo presente che parliamo di una "ex" GeForce RTX 4080, soluzione sicuramente non ideata per il gaming in Full-HD. NVIDIA propone ora la GeForce RTX 4070 Ti come un prodotto pensato per il gaming a 1440P ad alto refresh-rate - e non ha torto - ma a nostro avviso è interessante verificare qual'è il comportamento di questa GPU in 4K e con ray-tracing attivo.


I risultati che emergono dai grafici a seguire danno a nostro avviso un quadro piuttosto chiaro della situazione, confermando se vogliamo che marchiare come GeForce RTX 4080 12GB questo prodotto sarebbe stato un errore grossolano da parte di NVIDIA.

Partendo dalle prestazioni raster (con ray-tracing disabilitato), notiamo che GeForce RTX 4070 Ti è quasi sempre avanti alla GeForce RTX 3090 Ti nel gaming a 1440P con percentuali che variano in base al titolo adoperato; discorso diverso quando passiamo al 4K che, nei giochi più impegnativi, vede sempre in vantaggio l'ex ammiraglia Ampere (che ha 24GB di VRAM e un BUS a 384 bit) con la nuova arrivata che in alcune occasioni è battuta - anche se in modo marginale - dalla GeForce RTX 3090 (CUDA Core e Memoria si fanno sentire).

Allo stesso tempo, bisogna ammettere che nelle occasioni sopraccitate (in 4K) lo scarto tra la nuova arrivata e le ex top di gamma RTX 30 non è così ampio anche con ray-tracing attivo; se a questo poi aggiungiamo la possibilità di sfruttare il nuovo DLSS 3.0 - nei titoli compatibili come Cyberpunk 2077 - la situazione migliora nettamente a favore della GeForce RTX 4070 Ti.

TEST PRODUTTIVITA'

In ambito produttività rileviamo un comportamento analogo e, soprattutto nei software di rendering, la differenza in termini di VRAM e Cuda Core tra una GeForce RTX 4070 Ti e una RTX 3090/3090 Ti si sente tutta.







Nei test effettuati, la nuova GeForce RTX 4070 Ti riesce a tenere a bada la GeForce RTX 3090 Ti solo su GPUPI, Octane e nella suite di Sandra, - aiutata proprio dall'architettura Ada Lovelace - mentre possiamo affermare che a volte le prestazioni scendono a livello di una GeForce RTX 3080 12GB, almeno nella nostra suite.

CONSIDERAZIONI

Eccoci come di consueto a tirare le somme sul prodotto testato, in questo caso la Gigabyte GeForce RTX 4070 Ti Gaming OC. Prima di passare alle considerazioni generali sulla GPU NVIDIA AD104, un cenno al lavoro svolto da Gigabyte su questa variante custom, davvero solida in quanto a qualità costruttiva e con ottime prestazioni del sistema di dissipazione. Come anticipato sopra, quest'ultimo risulta a nostro avviso leggermente sovradimensionato, tuttavia, le ottime capacità di overclock dimostrate dalla scheda permetteranno di sfruttarlo a dovere grazie anche alla possibilità di sbloccare il power limit e di conseguenza frequenze e temperature di esercizio più spinte rispetto ai valori di fabbrica.

Rimanendo in tema consumi, la GeForce RTX 4070 Ti di NVIDIA si candida ad essere tra i prodotti più efficienti proposti negli ultimi anni nel panorama delle schede grafiche consumer, almeno se guardiamo alle prestazioni offerte - di grado GeForce RTX 3090 Ti per intenderci - e i consumi medi rilevati, a dir poco ottimi (160-170 watt).


Tornando invece alle prestazioni nei giochi, la GeForce RTX 4070 Ti 12GB risulta ottima nel gaming 1440P a dettagli ULTRA e anche con ray-tracing attivo non deluderà le aspettative; discorso diverso nel gaming in 4K dove in sostanza non batte la "vecchia" RTX 3090 Ti - poche volte - ma si colloca comunque poco più sotto. Vista la fascia di appartenenza, riteniamo comunque le prestazioni offerte dalla RTX 4070 Ti notevoli e capaci comunque di puntare al gaming 4K con dettagli "ALTI" senza alcun problema.

Chiudiamo con il prezzo: 799 dollari di listino - 919 euro in Italia - cifra senza dubbio interessante se la guardiamo dal punto di vista delle prestazioni in gaming e pensiamo quanto consuma e quanto costa ancora una GeForce RTX 3090 Ti; se parliamo di produttività il discorso è leggermente diverso, quindi se puntate a questo ambito vi consigliamo di guardare almeno a una GeForce RTX 4080, non tanto per il prezzo - ancora alto - ma soprattutto per l'efficienza decisamente più elevata rispetto a una GeForce RTX 3090 Ti (che rimane inoltre inferiore sotto il profilo prestazionale).


595

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
M D

lo so, purtroppo è quello il problema. una top di gamma dovrebbe stare al massimo 800 euro. una scheda di fascia medioalta 300/350 e le altre tutte sotto questo prezzo. Una volta aveva senso perché in dx11 e precedenti era possibile acquistarne due di quelle "medioalta", risparmiare qualcosina rispetto alla top e comunque andare uguale se non di più. oramai sono fuori da tutti i discorsi io e non so nemmeno se rifarò un pc. la voglia ci sarebbe, ma non a questi prezzi. alla fine per me giocare è solo un passatempo, ma se deve costare così tanto mi butto solo ed esclusivamente sul Commodore 64...

Maurizio Stefanile

Ma è proprio quello il problema! Sciacallaggio sui prezzi. Prezzi assurdi.

M D

non essere cattivo, alla fine se costasse 499 euro la potrei prendere in considerazione, se avessi un pc nuovo dove alloggiarla e se non preferissi l'alternativa amd

Maurizio Stefanile
M D

hahaha, io faccio da badante ad una hd 4850! Ma mi piacerebbe riuscire a rimettere in moto una mitologica MTU K1008 del 1980/81! Solo che non ce la collegherei manco per scherzo al mio KIM-1 funzionante!

carta_IGNica

No, non lo è per questo programma.

Maxima Freks
M D

voi siete troppo gentili con le vostre gpu, le mandate in pensione quasi subito. io invece la faccio lavorare sodo la mia r9 290x tri-x da 4gb.
non abbiate pietà! :D

carta_IGNica
Mostra 1 nuova risposta

Per quello penso sia più efficiente una GPU dedicata, però informati

Macs

Ma la 4070ti non e' la 4080 rimarchiata che si sono vergognati di far uscire per le prestazioni imbarazzanti?

ssssss

900 euro una vga di fascia media, auguri.

carta_IGNica

Quick Synk

Mostra 1 nuova risposta

3060ti - 45% of cores, 40% slower than the 3090, $400

4070ti - 42% of cores, 40% slower than the 4090, $800

carta_IGNica

Quick Synk.

Mostra 1 nuova risposta

Le istruzioni suggerite da quel programma sono le AVX2 che sono piuttosto datate, e sono presenti già in Zen prima versione quindi tutti i Ryzen. Ormai i software che usano le istruzioni proprietarie Intel esclusive (su AMD magari arrivano qualche anno dopo) sono davvero pochissimi.

Mostra 1 nuova risposta

Ma chi se li ricorda i nomi dei telefoni samsung, io avevo preso all'epoca uno di quelli con lo slide che si aprivano, a oltre 400 euro dagli 800 di listino a cui si trovava pochi mesi prima, i 400 euro più stupidi buttati nella mia vita oltretutto. Era 2006-2007 credo.

Le 2 titan uscite all'epoca della 1080Ti comunque erano il chip top di gamma come la 1080Ti, cambiava poco e solamente per uso lavorativo, è proprio dalla serie 1000 che i prezzi sono cominciati a salire in maniera netta, come ti dicevo, già 80 euro sulla fascia media con la 1060.

La Titan aveva un mercato tutto suo e non era neanche votata al gaming nè pubblicizzata come scheda da gaming. Era a metà tra le quadro che costano il quadruplo e che ho sempre evitato anche se con le schede video principalmente ci lavoro, più che giocarci, e le schede da gaming.

Questo discorso non ha senso, semplicemente passano gli anni e ottieni molte più prestazioni con lo stesso prezzo precedente. Se non accade allora tantovale prendersi una scheda potente subito e non cambiarla mai più. Cosa che pare stia succedendo a molti.

Paulnord

La 1080 ti non era top di gamma perchè
c'era la Titan Xp che costava circa 1300€ all'epoca quasi il doppio!
Le 3090/4090 hanno preso il posto delle
vecchie Titan che hanno sempre avuto un sovrapprezzo assurdo!
Non puoi confrontarti con i prezzi di 6/10 anni fa!
Tutti i componenti elettronici si
svalutano col tempo anno dopo anno, quando si compra una cpu/gpu bisogna pensare che prima o poi diventerà un rifiuto Raee.
Negli ultimi anni il mercato delle gpu
ha subito mining,crisi componenti (chip/ram), inflazioni, speculazioni (e qui siamo tutti d'accordo), scalper e recessioni varie.
I prezzi non sono scesi per via di
tutto questo, ma non è un situazione normale, in passato quando compravi una gpu dopo 2 anni la potevi veramente trovare a metà prezzo!
Comunque aspetto di sapere quale modello samsung costasse 700€ nel 2007.

Grazie , cordiali saluti!

Mostra 1 nuova risposta

Ti sembra un buon affare perchè non capisci molto nè di affari nè di schede video.

La 1080Ti era la top di gamma, uscita mesi dopo le altre, chip molto potente quasi come la 4090, che però adesso costa 2100 euro invece che 750. E già con la serie 1000 c'era stato un aumento notevole dei prezzi su tutte le fasce, infatti ho ancora una 1060 che pagai 80 euro in più della (orribile ed inutile, questo va detto, 960, che comprai solo perchè mi si era rotta la precedente GPU).

I prezzi semplicemente non li sai, nè dei samsung visto che avevo un amico con un negozio di telefoni, e che uscivano a quei prezzi per poi calare dopo sei mesi ed avere un senso, nè delle schede video, che hanno sempre avuto prezzi molto più abbordabili, specie nelle top di gamma. Le più care che abbia avuto erano le 7900GTX da 550 euro, le altre le pagai meno.

La differenza col mercato dei telefoni di allora è che le schede escono a 900 euro, le trovi in giro a 1100 e dopo 2 anni le trovi a 1200 euro. Non alla metà del prezzo.

Paulnord

Beh, mi dispiace averti rovinato il sonno .)
"Ho cambiato schede video quasi ad ogni generazione per tutti questi anni" a proposito di demenza!
Io la cambio ogni 6/7 anni e passare da una 1080 Ti pagata 750€ (2017) a una 4070 Ti 950€ mi sembra un buon affare!
Forse hai bisogno di rileggere più volte il mio commento precedente per capire meglio i dati specifici perchè non comprendo le tue risposte fuorvianti....
Nel 2007 che modello samsung (specifico) costava 700€?
"imbambolato da questi articoletti" non mi dire che ti guardi le recensioni dei neofiti youtuber!

"L'hanno smontata ovunque" chi? cosa e perchè?

Chi ha parlato di spendere 1800€?
Buon riposo.

carta_IGNica

Edius, la versione X.

Mostra 1 nuova risposta

Mi dici quale programma e quali istruzioni? Mi interessa particolarmente.

carta_IGNica

Come ho già scritto, il programma di editing che uso RICHIEDE SPECIFICATAMENTE le istruzioni dei processori Intel, sono anche sicuro che altri programmi supportino i prodotti AMD!

Mostra 1 nuova risposta

"Paghi il doppio ma ottieni il doppio delle performance non mi sembra un furto!"

Se dopo aver detto questa frase sei ancora convinto di avere ragione, inutile leggere i tuoi commenti, o questi articoli, ti blocco direttamente...

Mostra 1 nuova risposta

Nel 2007 un samsung top di gamma stava a 700 euro, quindi forse sei te che non conosci i prezzi delle cose.

Sei anche tu talmente imbambolato da questi articoletti che non capisci che sono 20 anni che compri la scheda che va quasi il doppio alla metà del prezzo della precedente generazione. Ho cambiato schede video quasi ad ogni generazione per tutti questi anni, solo i dementi possono dire che una 4070ti sia un affare.

L'hanno smontata ovunque.

Ma naturalmente te sarai felice di comprare la 5070Ti a 1800 euro, perchè hey, così è la vita! Lol, che miopia.

Purtroppo ormai il livello degli articoli è sullo stesso livello di questi commenti demenziali.

Stefano

www
altoxida
com /prodotto/asus-tuf-rtx3080-o10g-v2-g-scheda-grafica-10-gb/?gclid=CjwKCAiAk--dBhABEiwAchIwkaodQn8ivUcyfC5wKS-qS1vSOoJqlRUbW14Lmfe4XXqIAv9PoQ0moRoCVHsQAvD_BwE

Cercando scheda video per me e valutando anche le Nvidia ho trovato questa

1984

- quanto prendi tu?
- una cifra interessante

Mostra 1 nuova risposta

La scheda indipendentemente dalla situazione attuale è un chip di fascia media venduto dai 1000 ai 1200 euro, il che è ridicolo.

Non è che scrivere che la situazione attuale sia questa rende la scheda ottima e non è ottima se confrontata ai prezzi osceni della precedente generazione dopo 2 anni.

Gli articoli devono cominciare a smetterla di lodare schede normalissime che soffrono pure di consumi elevati come schede scese dal cielo per grazia divina. Hanno scritto addirittura che è OTTIMA, non ridere a questa affermazione vuol dire essere incompetenti in materia.

10 generazioni fa usciva la GTX 470, un chip TOP DI GAMMA con qualche area disabilitata, era il massimo chip previsto di quella generazione, soffriva di consumi e calore molto elevati e decisero di abbassare i soliti prezzi della fascia medio/alta, che si trovava intorno ai 320-350 euro. Questa non ha nulla di top di gamma, scalda molto, consuma molto e viene venduta ad un prezzo fuori di testa.

La fascia medio alta non supera i 400 euro. La fascia è data dal prezzo, se di punto in bianco inventi nuovi prezzi semplicemente stai creando un nuovo mercato con una nuova fascia che si colloca al doppio del prezzo delle top di gamma dei precendenti 20 anni. E hai il coraggio di chiamarla fascia medio/alta?

Paulnord

Questa è una scheda di fascia "medio alta" se vai a guardare Amd propone cifre simili ( se non di più) per la stessa fascia!
La scheda è ottima per la situazione attuale, 3090/ti costano e consumano di più, 3080/ti sono inferiori e se guardi costano circa 880/1200€.
Ok il prezzo è alto..... sono anni che ci lamentiamo, quando farete un referendum chiamatemi.....

Mostra 1 nuova risposta

Steam Deck è molto potente e ha uno schermo minuscolo rispetto ad un PC, per cui si compensa

Nuanda

Anche no, ho un pc con una 3060 ti ma la mia postazione di gioco preferita è Steam Deck… ripeto non siamo tutti uguali, della grafica a me frega il giusto

sgru

pensa te se costava 350 all'estero e 450 in Italia, rapina ;-) Il senso del commento precedente

Andreunto

Ma ti hanno scongelato oggi per scrivere i commenti alle 2 di notte?

Mostra 1 nuova risposta

Esatto

Mostra 1 nuova risposta

Dai quando AMD avrà CUDA ne riparleremo lol

Mostra 1 nuova risposta

Così giusto per peggiorare ulteriormente l'efficienza energetica

Mostra 1 nuova risposta

Nvidia non vende le schede ma i chip, e di serie 30 non ne ha più. Non so a chi convenga avere prezzi folli visto che non se ne vendono

Mostra 1 nuova risposta

Può essere ma facevano semplicemente prima a rimandare il lancio. Così sono da neuro e io lo dico quasi da fanboy, non perchè sia un fanboy ma semplicemente perchè sia per lavoro che per giocare nvidia è sempre stata avanti da che ricordi, salvo un paio di semestri qua e là in 20 anni

Mostra 1 nuova risposta

Molto bene è un eresia, è una scheda di fascia bassa di una vita fa. Se prendi un gioco attuale questa fa 160fps e la 570 ne fa 24, segno che per giocare a 60 devi scendere a tantissimi compromessi.

Questo non giustifica la spesa di 1000 e passa euro eh

Mostra 1 nuova risposta

Sulle vga non c'è storia ma sulle CPU ormai le istruzioni sono coperte e le prestazioni di AMD sono al top. Intel resta avanti in qualche compito (in photoshop sono avanti di poco) ma nel multitasking i Ryzen spingono di brutto. Io uso la CC e altra roba come Blender ecc

Mostra 1 nuova risposta

Semplicemente quando ti fai un PC al top e ti giochi le ultime uscite quasi maxate ad alti fps e alta risoluzione, tornare a giocare a livelli medi è una sofferenza, giocare su console diventa atroce.

Mostra 1 nuova risposta

In cosa? Scaldare l'acqua della pasta?

Mostra 1 nuova risposta

Senti i tuoi discorsi sono piuttosto miopi.

Durante tutta l'era della scorsa generazione console, i PC erano superiori pure all'uscita delle nuove console, solo nei primi anni di queste nuove console si è verificato uno strano evento, cioè che i prezzi dei PC siano notevolmente superiori.

Ma è assolutamente insensato paragonare un PC ad una console perchè la console la devi prendere nuova, se ci riesci, il PC può essere vecchio di 5 anni, cambi scheda video e hai le stesse prestazioni dei tuoi 500 euro di console.
Peccato che hai giocato già per 5 anni da favola rispetto alla precedente generazione.

Oltretutto sono anche vendute in perdita al momento. Semplicemente se le paragoni non hai capito la differenza abnorme nel giocare su PC, giustificata dal prezzo.

Mostra 1 nuova risposta

Siti spazzatura

Mostra 1 nuova risposta

Il gaming non sarà mai appannaggio della fascia alta. 20 anni di statistiche steam lo confermano, da poco la 1060 è scesa dal trono, la gente vuole schede di buona qualità a 300 euro, molti riescono a spendere anche sui 500 senza difficoltà, ma se metti le top di gamma a 2000 e queste qui oltre i 1000 la gente si tiene le vecchie schede e loro prima o poi non avranno clienti.

Mostra 1 nuova risposta

Non fa schifo in sè ma a quel prezzo solo gli sciocchi o chi ci lavora sapendo che sta buttando i soldi

Mostra 1 nuova risposta

Niente si è appena svegliato tutto sudato

Mostra 1 nuova risposta

Infatti dovevano chiamarla 4070 o forse 4060ti

Mostra 1 nuova risposta

sRgb è il profilo più limitato di tutti però, se lavori per il web puoi comunque avere monitor con una gamma più ampia fedeli ma almeno quando fai altro non sei limitato

Mostra 1 nuova risposta

Si fanno schifo quei dissipatori, le ventole sono infime, i backplate sono ovviamente in plastica

Recensione Gigabyte GeForce RTX 4080 AERO OC: Potente e imponente

Recensione Intel Core i5-13600K: Core i7 sei tu? Test con DDR4 e DDR5

Recensione AMD Ryzen 9 7950X e Ryzen 7 7700X: ecco i nostri test con ECO MODE

Recensione Intel Core i9-13900K: Raptor Lake-S sfida AMD Zen4