
18 Ottobre 2023
Le AMD Radeon RX 7700 XT e 7800 XT, schede grafiche di ultima generazione che si collocano nel segmento Enthusiast, sono ormai praticamente ufficiali: saranno svelate oggi pomeriggio alla Gamescom 2023, ma nelle ore antecedenti sono successi due fatti interessanti: prima AMD ha accidentalmente pubblicato (e successivamente rimosso, ma ormai il danno era fatto) su Twitter un post a riguardo, con le immagini che vedete subito qui sotto, e poi i colleghi di Videocardz hanno svelato tutti i dettagli tecnici rimanenti facendo riferimento alle slide ufficiali. Insomma, non rimane più nulla scoprire (eccetto prezzo e tempistiche di uscita) e la bontà dei dati non è in discussione.
Entrambe le schede saranno basate sulle GPU Navi-32 ad architettura RDNA3 di ultima generazione. La GPU era già stata descritta in passato a livello ufficiale, ma finora rimane inedita, in particolare nel settore gaming. La 7800 XT userà la configurazione completa del chip, mentre la 7700 XT farà a meno di una sua parte. A giudicare dall'immagine, le schede condividono lo stesso design, con doppio connettore a 8 pin per l'alimentazione e due ventole per la dissipazione del calore. La parte della scheda rivolta verso l'esterno (o verso l'alto, in caso di installazione verticale) è accentata di rosso. Lo spessore sarà di due slot.
Queste le specifiche tecniche salienti:
Dal punto di vista prestazionale, AMD promette:
AMD dice che produrrà il modello reference solo della 7800 XT; la 7700 XT sarà disponibile solo tramite i produttori terzi.
Finalmente ci siamo, come da copione AMD ha confermato tutto ciò che vi abbiamo raccontato appena qualche ora fa. La disponibilità delle schede è prevista per questo settembre; i prezzi USA sono di 449 dollari per la RX 7700 XT e 499 per la RX 7800 XT. Attendiamo info per il nostro mercato.
Commenti
semplicemente ti rifilano schede sempre meno potenti ma che fanno bene l'upscaling, così ti ritrovi a giocare con risoluzione di partenza del 2005
Probabile anche che la prossima gen comprenderà un Refresh di RDNA3 esente dal bug hardware concentrando gli sforzi lato efficienza e consumi per Navi 43/44. Alla fine una 8900XTX a 4ghz rappresentebbe comunque un upgrade prestazionale non indifferente assieme alle GDDR7. Una line-up quindi che comprenda RDNA3.5 per le fascia alta e RDNA4 per la fascia media per poi ancor successivamente RDNA5 che comprenda tutta la linea. Bo, chi vivrà vedrà.
In quei video i consumi dichiarati erano attorno ai 400-450W ma ho visto anche un articolo dove si parlava delle stesse frequenze ma a 650W e di conseguenza penso proprio che abbia avuto un esemplare fortunato.
RDNA4 sembrà che non avrà Navi 41-42 ma solo 43-44 perchè AMD ha deciso di puntare i suoi sforzi su RDNA5 e di conseguenza Nvidia rimarrà imbattuta in fascia "Reni" mentre noi potremmo avere una 7900XT a €500 se tutto va bene. Se non cannano i prezzi ci sarà da divertirsi.
Per arrivare a frequenze così alte si va ben oltre i 600w con la 7900XTX, la maggior parte delle 7900XTX è stabile attorno ai 2700/2800mhz oltre si hanno consumi spropositati. RDNA3 è uscita male nel senso che c'è un bug hardware che non permette il raggiungimento delle frequenze sperate in fase di progettazione (e i rumors del tempo parlavano di 4ghz). Già per andare vicino ai 3ghz si va oltre i 450w di consumo. Che RDNA3 sia uscita male penso nessuno possa dire diversamente (e lo dico da possessore di 7900XTX) con gran beneficio di Nvidia (immagina semplicemente una 7900XTX con frequenze stock di oltre 3ghz). Spero per AMD quindi che la prossima gen sia tutto ciò che non è stata questa.
Ehy, io ho una 7900XTX.
Va da dio oh.
E il raster in 4k su schermi a 144Hz si sente :D
La differenza è nel prezzo.
Ho una 7900XTX pagata 700€ in meno a quanto costava la 4090.
In raster (che è quello che a me interessa) ha circa un 10% in meno (vado a memoria) però io ho 700€ in più in tasca e gioco da dio in 4k facendo girare plague tale (un mattone) a 80fps a ultra.
Io so che frame generation lavora meglio e crea meno latenza sopra i 60.
Diciamo che almeno 75 devono esserci.
Se avrà il 70% della qualità del DLSS3 ho paura che la qualità sia troppo bassa per abilitarlo a cuor leggero. Aspetto l'aggiornamento per Forspoken per provarlo
è come se fossero bloccati in un loop temporale al tempo delle RTX 20XX dove DLSS e RT erano usati da 2 giochi in croce
Ti basta un Monitor freesync anche a 60zh (il range va da 48 a 60 in quel modo), Frame generation ti fa avere fenomeni di tearing perchè Reflex è stato pensato per farti andare sui 57-58 fps così la GPU viene sotto utilizzata e si riduce la latenza che è proprio il problema del frame generation.
Il frame generation di AMD al 99% farà la stessa cosa.
Probabilmente si parla di listino prezzi tedesco, quindi devi aggiungere qualcosina per la nostra IVA
I fan di AMD devono chiamarla
Su amazon si trova la RX 6750 XT a 430 euro, se anche la RX 7700 XT arriverà a quella cifra probabilmente ci troveremo davanti a prezzi abbastanza interessanti
Ho visto un video dove hanno portato una 7900XT a 3.4ghz (anche la 7900XTX) e su CP2077 hanno guadagnato il 30%.
Diciamo che il 10-15% dovrebbe essere alla portata di tutti ma ovviamente il gioco in questione ha un suo peso.
RDNA3 non è riuscita ad essere quello che volevano ma l'insieme di questa architettura ha gettato le basi sul futuro delle gpu e ridotto i costi grazie al chiplet.
Disqus lo dice quando il commento è stato editato.
Vedi di non prendere per il deretano la gente.
sono d'accordo, ma solo per le gpu minimo di fascia medio/alta, non su robe come una 3060.
perche' su una 3060 il ray tracing fa comunque schifo, non tanto quanto sulla 6600xt (che e' imbarazzante), ma siamo comunque lontani da avere buone performance, quindi non ha senso scegliere una 3060 per il RT, visto che una 6600xt in raster va meglio, e costava (costa?) meno.
se devo scegliere tra 2 gpu, una che e' una me*da in RT ma va bene in raster e una che va male in ray tracing ma e' inferiore all'altra in raster, chi me lo fa fare di scegliere nvidia?
il DLSS ci puo' stare, ma ci si aspetta che DLSS e FSR siano l'ultima spiaggia per far girare giochi troppo pesanti, non so te, ma io preferisco giocare a risoluzione nativa, sopratutto in fullhd dove comunque l'upscaling si fa sentire (negativamente) rispetto a risoluzioni maggiori.
se devo comprare oggi una gpu, pensando come prima cosa ad una tecnica che faccia renderizzare i giochi ad una risoluzione inferiore per avere piu' performance, mi sembra gia di inc*lata.
e poi anche ai tempi di pascal e polaris, che ancora non c'erano ste ca*ate del ray tracing, DLSS e FSR, la 1060 era in assoluto la gpu piu' venduta, eppure la 580 (ma anche la 480), costavano meno, avevano piu' VRAM, e andavano di piu'.
quindi si, nvidia vende tanto anche per fama (non ho mai detto che vende solo per quello, ma indubbiamente conta tanto).
15/20% è eccessivo ma un 10% pieno certamente si e forse anche qualcosina in più. Io personalmente ho una 7900XTX raffreddata a liquido e alzando il power limit, abbassando il voltaggio, frequenze minime e massime core e frequenza della memoria è bene o male quello il miglioramento.
Prestazioni inferiori consumi superiori, il prezzo è buono. Nvidia se la ride come sempre. Aspettando di vedere le schede intel
Si guarda i test.
Anche la 4070ti è molto sotto alla 4080.
Ma quindi fra 4070 e 4080 c'è tutta questa differenza?
non sto parlando della Steam Deck, ma delle console
Wot, la deck ha il display a 60hz
Quello che ti sto dicendo ( e che non vuoi capire ) e proprio che se la xtx fa uguale alla 4080 ( che costa 200 euro di più e oltre street price ) non se la fila nessuno proprio perchè del raster non frega più a nessuno, ti può piacere o meno come gira il mondo ma questo è, oramai si punta alle tecnologie, la gente vuole quelle, sulla 4080 se giochi in RTX e attivi il dlss3 ( e magari il frame generator ) ciaone proprio alla xtx
Altra cosa.
Ho un ottimo monitor 4k 60hz
Con la 4080, non posso usare il frame generation bene. Lo sapevi?? Il fg toglie il vsync, pena ho un doppio tearing terribile,
quindi o si ha un monitor con freesync o lo si può usare.
Dovrò cambiarlo
Una 7900xtx è identica ad una 3090ti in rtx.
Quindi si può dire che la 3090ti è uno schifo di scheda??
Naturalmente invece in raster, la xtx fa uguale o di più di una 4080, mangiandosi la 3090ti
Si forse l'unica scheda concorrenziale di AMD sulla fascia di prezzo "poveracci" dai, come sali di prezzo e di categoria AMD sparisce, e aggiungo purtroppo perchè la concorrenza serve ad abbassare i prezzi
Dipende, caso per caso, fascia di prezzo per fascia di prezzo, periodo per periodo, non è che si può fare di tutta l'erba un fascio insomma, dipende :)
Le vendite sono una cosa, gli esperti un'altra
Ripeto:
Anche gli estimatore delle rtx, alla fine consigliavano una 6600 ad una 3060.
Spiegami il motivo.
È un esempio
Io lo sò il motivo
I giochi che supportano la tecnologia Nvidia a oggi sono un bel pò eh
Ancora con sta pantomima del "vende per fame e per nome"??? Mamma mia, vende perchè ha tecnologie che AMD si sogna, DLSS ( grazie ai Tensor Core che AMD NON HA ), Ray Tracing superiore ( di molto ), Frame Generator, RTX Relfex per il Low Latency, RTX IO per la gestione della decompressione texture in HW ( come su console ) e ora anche RTX AI per l'intelligenza artificiale ( sempre tramite i tensor core ) applicabile nei VG, senza contare che la serie 4xxx ha consumi ben più bassi delle gpu AMD 7xxx
Non sono contro AMD ma obbiettivamente è molto meno appetibili come gpu al momento, le potrei prendere in considerazione solo a un prezzo molto più basso della controparte nvidia, tradotto ( come detto ) la 7800XT sotto i 500 euro
Insomma...
Puoi non sentirle ma è cosi e le vendite lo dimostrano
NVIDIA ha presentato il nuovo DLSS 3.5, che introduce una nuova tecnologia, Ray Reconstruction. Sarà disponibile per tutte le schede video dalla serie RTX 2000 alla recente 4000 e cambia il modo in cui viene gestito il ray tracing.
4080 è unaltro livello
No dai non dire queste cose.
Non si possono sentire
per me stai delirando io non ho editato nulla
Cioè? Spiega sto dlss
Succede questo quando i fanboy dicono che amd supera nvidia da tipo 20 anni
succede questo quando non si hanno argomentazioni
Se non c'è il DLSS è perchè AMD paga la sporizzazione
Hanno avuto pure la faccia da deretano di dire che non hanno impedito l'arrivo del DLSS su Starfield.
Che facce da deretano
Mi sembrano buoni prezzi…
No, il prezzo era relativo al cambio citato e con l'IVA tedesca, è l'immagine stessa a dirlo durante la presentazione. Se poi lo applicano in tutta EU meglio.
La differenza in raster è veramente minima, e basta anche solo il DLSS per non scegliere l’opzione AMD. Lato driver non ne parliamo, bisogna essere ottusi per considerare migliori quelli AMD.
Un Ryzen 2600X (95W) ma indipendentemente da ciò l'intero sistema non raggiunge i 350W (OC al massimo).
La cpu in game viene usata poco e di conseguenza oltre i 100W non dovresti andare. Loro consigliano alimentatori più grossi del previsto sia per venderteli (partnership) sia per evitare di stare troppo a pelo e far succedere imprevisti vari ma all'atto pratico puoi anche avere una PSU molto più conservativa a patto che sia di ottima qualità e che abbia la certificazione 80+.
Finalmente AMD si è decisa a diminuire i prezzi rispetto a Nvidia. Se questa esce a 570€ di listino con street price intorno a 500€ è un'ottima scheda.
Si. Mi pare un'ottima soluzione. Aspetto il Black Friday pure io.