
11 Gennaio 2023
Quelle che vedete nell'articolo sono le prime (presunte) foto della AMD Radeon RX 7900, la scheda flagship di prossima generazione il cui debutto è ormai imminente (appuntamento a giovedì!). Sembra piuttosto chiaro che si tratta di prototipi: il PCB è rosso, manca il backplate e ci sono dei punti predisposti per il collegamento di strumenti e sensori esterni. Tuttavia, sono leak molto credibili - soprattutto se si nota la striscia accentata di rosso sul dissipatore, proprio come aveva anticipato AMD stessa nei teaser di quest'estate.
La scheda è un po' più lunga ma usa la stessa configurazione di connettori ausiliari, ovvero 2x8 pin. Da qui è impossibile stabilire se si tratta della variante XT o di quella XTX, ampiamente prevista dopo che la versione della serie 6000 è stata cancellata. Le tre ventole montate nel dissipatore sembrano identiche a livello di forma (curve e numero di pale) e dimensioni, mentre cambia il design della parte centrale.
La fonte non aggiunge dettagli tecnici alle immagini; si limita a dire che provengono da un gruppo chiuso della piattaforma di messaggistica cinese QQ. Tuttavia, possiamo ricapitolare le presunte specifiche tecniche emerse finora:
Commenti
E grazie al piffero direi, visto che è uscito 20 anni dopo.
Potrà non piacerti ma è tutto fuorché stupido. La distruttività degli ambienti in the Force Unleashed non è così avanzata come in Control.
Quelli di Remedy sembrano avere sempre una marcia in più rispetto agli sviluppatori occidentali (che di solito si adagiano nella mediocrità).
Quale abisso scusa? Con DLSS l'immagine è un po' più nitida ma in compenso ha gli artefatti da movimento, assenti con FSR. Ma sono d'accorso che se per te questo è addirittura "un abisso", sia inutile discutere.
E stiçazzi?
Quindi?
Ma lo sai che la 3D cache se ne frega?
Manco le basi...
Sì sì...
Vista la presentazione di RDNA3?
Suffer well.
a differenza tua e della pochezza dei tuoi commenti ha ragione da vendere
a breve venderanno i kit da 10k che ahimè funzioneranno solo su piattaforma Intel
già, senz'altro, piccolo fanboy AMD
https://www.overclockers.com/g-skill-overclocks-ddr5-to-10000mhz-on-air/
https://media0.giphy.com/me...mi dispiace ma non è un parere, è oggettività e con questo entri definitivamente nella lista di ultrà fanboy bloccati, che personaggio, addio.
Sì, senz'altro.
Secondo il tuo parere? Personalmente stimo molto più quello di altri.
c'e` stato un taglio di prezzo del 5800X3D proprio oggi in realta` e ora costa simile, non di meno. Consumo? Ma quanto? 20w? E scalda di piu` a causa del design? Ed e` piu` lento in tutti gli scenari dove si usano piu` core? Quindi ci sta che consumi in piu`? eheheheheh
ovvio che no, le cose vanno testate come si deve. Se una piattaforma supporta sopra 5000mhz con le DDR4 non vedo perche` devvano usare vetuste DDR4 a 3200mhz solo perche` la piattaforma AMD non ci arriva..per fortuna che con le DDR5 qualche recensore gia` sta usando i kit a 7000...l'anno prox con i kit a 10000 ci sara` da ridere
Il 13600K costa e consuma di più in ogni caso.
e cmq Gamers Nexus sono totalmente commerciali, fanno test random e semplicissimi... per es. quando testano le DDR4 non ti testano mai un kit 4000C16 o 4200C16 con timings secondari e terziari ottimizzati..per farti capire la vera differenza prestazionale tra un qualunque kit Samsung B-die DDR4 e DDR5.
tra l'altro se vai di AMD 7000 sei limitato nella frequenza delle DDR5 tra 6000 e 6600mhz mentre con Intel gia` sono arrivati a 10000mhz..
competitivo? Per chi lavora e` una ciofeca rispetto ad un 13600k. Forse non sai che esistono le B660 DDR4 economiche e che il 13600k costa meno di un 5800X3D. Altro che autogol.
Guarda, io mi fido di Hardware Unboxed e Gamers Nexus.
Il video da te linkato, oltre a confermare che il 5800X3D è assolutamente competitivo, finendo anche al primo posto in alcuni casi, dimostra anche la piattaforma AM4 è molto più economica e consuma parecchio meno.
Per me, ti sei fatto un autogol.
Beh, qualche differenza utilizzando DDR4 e DDR5, i Core 13 la hanno.
Però alla fine è sempre lo stesso discorso: cosa ci devi fare col PC?
Per i giochi, AM4 con 5800X3D è uno schiacciasassi e costa di gran lunga meno di ogni altra proposta.
Per la produttività, Zen4 sta ancora avanti, sebbene di poco.
Di contro, i Core 13 consumano esageratamente troppo e la piattaforma è al capolinea, contrariamente a entrambe AM5 e AM4, avendo AMD dichiarato di continuare a supportare quest'ultima.
D'altronde, i dati di vendita parlano abbastanza chiaro: AM4 continua a essere la regina indiscussa del mercato.
Quando sarà obbligatorio passare alle ddr5 su intel si presume che i prezzi si siano abbassati. Attualmente una piattaforma con intel di tredicesima gen e ddr 4 costa meno e non ha sostanzialmente nessuna differenza eclatante in performance.
La piattaforma amd di settima ha un costo troppo eccessivo e il problema delle temperature non lo risolvi se non con lo scoperchiamento del processore.
il 5800X3D se la gioca con 13600k e 7600k e lo dimostra questo bel video uscito proprio poche ore fa. Inoltre un 5800X3D su piattaforma "vecchia" costa pure di più rispetto ad un 13600k ;-) Senza parlare che in ambito non gaming le prende di brutto.
https://www.youtube.com/watch?v=CEfVr7nJ_HE
Il 5800X3D se la gioca col 13900K. A un quarto del consumo.
Un ipotetico 7800X3D sparecchia la tavola, non ci sono (ragionevoli) dubbi sl riguardo.
E se nel frattempo quel fallimento di Microsoft aggiusta Winzozz 11...
il 7800X3D a 1000 euro? Che se la gioca col 13900k con DDR5 a 9000mhz? eheh
ci sono più versioni, non si sa se è in base a diversi fornitori o meno ma fatto sta che c'è Steve di GamerNexus ha chiesto ai possessori di 4090 di farsi inviare l'adattatore e su tipo 130 che gli son arrivati solo il 5-7% aveva il problema
150v vs 300v e meglio saldato
https://uploads.disquscdn.c...
https://uploads.disquscdn.c...
FSR è meno preciso, più frastagliato nei contorni, meno performante in termini di guadagno ed è anche sensibilmente meno rapido nell'elaborazione. Però ehy: è la stessa cosa, no?
Dai non scherziamo... Paragoni Panda e Ferrari (volutamente iperbolico, ma il senso è quello)
Ma ci fai o ci sei?
Quindi ora RT e DLSS sono supportati solo da un gioco... Questo thread è la fiera dell'onestà intellettuale proprio...
No, ma è l'unica con una tecnologia di upsampling decente...
Se vogliamo negare l'evidenza, ovvero che tra DLSS e FSR2 c'è un abisso, allora ok: inutile anche discutere.
"AMD non ha il RT"
"AMD non ha il DLSS"
"La 6900XT non supera nemmeno la 3080Ti".
"Per il 1080P è meglio la 3060"
In questi 2 anni ne ho sentito di cotte e di crude su come AMD non raggiungesse Nvidia in niente e se permetti questo è più che sufficiente per dire che ci dobbiamo dare una calmata anche noi.
Ma le ditina, oltre che per incrociare, non puoi usarle anche per usare Google?
Guarda che Nvidia non è l'unica con una tecnologia di upsampling.
Per un gioco. Brutto come Control, tra l'altro.
Vabbè...
Va detto che Control è un gioco tutto al chiuso. Vorrei vedere Remedy fare lo stesso con un gioco a "mondo aperto".
Infine, il gioco lo trovo uno stupido clone di "The Force Unleashed".
E perché dovrebbe valere solo per AMD e non anche per Intel, che tra l'altro ha bisogno di RAM più veloci e costose?
Lamentarci? Se ci sono le corrette disponibilità amd da sempre vende secchiate nella fascia media e nvidia secchiate in quella alta.... con la serie 6 amd ha tirato fuori delle buone schede anche nella fascia alta (meno in rt) ma causa pandemia, scalper eccc.... non gli è andata benissimo, perché fra riffe e raffe spesso i prezzi in relazione alle prestazioni erano simili e fra dlss (tanto amd l'fsr lo rende compatibile con nvidia) e rt (sponsorizato o meno) e alcune cose come cuda, alla fine facevan preferire nvidia a amd....
Potrebbero approfittarne e fare prezzi più aggressivi oppure potrebbero dire "visto che tanto preferiscono Nvidia,almeno cerchiamo di guadagnarci il più possibile" il che non sarebbe una mossa sbagliata da un certo punto di vista.
Se oltre €500 di sconto nella top di gamma e €150 nella fascia media con prestazioni superiori non sono bastate,allora non è così irrealistico questo scenario.
L'inflazione c'è fino ad un certo punto perchè molte aziende come AMD o Intel (lato cpu) non hanno alzato minimamente i prezzi e anzi nel caso di quest'ultima li ha pure leggermente scesi.
Nvidia ha aggiunto alla sua lineup le Titan e spostato verso il basso la 80Ti di ben 2 posizioni e questo ha influito parecchio sul mercato attuale,oltre ai già citati utenti spendaccioni.
AMD deve cercare di competere un pò di più sui prezzi ma se noi utenti in primis non la finiamo di lamentarci per ogni minima cosa,questa faccenda non finirà mai.
Vaaaaa beneee...
perchè le varie 7600 7700 avranno chip sfigati che escono dai vari wafer
da li poi li adattano riducendone il die, shader units e così via
e gli costa meno
Invece e l'inverso si parlava di connettori , solo uno ha ipotizzato che la causa era sicuramente l'adattatore che la stessa nvidia fornisce insieme alla scheda, ora dal mio punto di vista niente cambia, anzi se la stessa nvidia mette un adattatore di scarse qualità su un prodotto top da 2000 euro fa capire che azienda è.
Fsr 2.0 è a livello di DLSS 2, e non lo dico io ma varie testate che li hanno messi a paragone con immagini zoomate. Inoltre funziona su tutte le GPU non solo le ultime di Nvidia. Ovviamente la qualità si perde in entrambi i casi per cui sono soluzioni che vanno valutate a partire dal QHD. Dire "eh ma gioco in RT con DLSS a 1080p" denota una certa incapacità analitica nella qualità dell'immagine.
Se non si abbassano drasticamente i prezzi delle DDR5 la vedo dura per la serie 7000 di AMD.
Ba, proprio perché snobbate non tirerà su troppo i prezzi, amd è da tanti anni che è la scelta conveniente
La 4080 che viene 1500 di listino (la 16gb) è più potente della 3090ti che veniva oltre i 2000 euro.
Ripeto, il pozionamento è al rialzo rispetto alla serie 1000 ma prendendo di riferimento la serie 2000 siamo li (devi tener di conto anche dell'inflazione)... purtroppo le titan con la serie 3xxx sono entrate nel consumer dando l'impressione di un aumento dei prezzi ma in realtà le titan son sempre costate di più, la titan xp veniva 1350 euro e la titan rtx (serie 2000) ben il doppio, 2600 euro...c'è stato questo balzetto dalla serie 1000 alla 2000 che poi è rimasto, le logiche commerciali dietro in realtà sono rimaste invariate
Magari fosse vero che l'fsr ha poco da invidiare a dlss. Con dlss sembra di giocare nativo, quando si attiva fsr si percepisce chiaramente la sfocatura. In movimento e nativamente salta all'occhio in modo chiaro.
E vai tranquillo che non sono uno che parteggia per quei ladri di Nvidia
"spendono" (errata corrige)
Ho visto anche il Samsung Galaxy Book 2 Pro, che potrei avere a circa 900 in configurazione simile al Huawei (i5 12esima-16/512GB). Che ne dite?