
28 Gennaio 2021
Mentre AMD si gode il successo ottenuto dalle Radeon RX 6000 basate su architettura RDNA2 annunciate lo scorso ottobre - con l'augurio che la disponibilità torni a livelli accettabili - dalla rete arrivano nuove indiscrezioni su quello che possiamo aspettarci dalla prossima serie di GPU dell'azienda di Sunnyvale e in particolare dall'architettura RDNA3.
AMD ha discusso più volte della sua roadmap GPU e di RDNA3, limitandosi però nel dire che manterrà lo stesso approccio utilizzato con RDNA2, ossia arrivare a un incremento delle prestazioni per watt al pari di quello raggiunto col passaggio RDNA a RDNA2 (praticamente raddoppiate).
In diverse occasioni si è parlato della possibilità che AMD utilizzi un approccio MCM (Multi Chip Module) su RDNA3, un'ipotesi che in realtà va avanti da qualche anno e che, dopo essere approdata sui processori Ryzen, sembra potersi finalmente concretizzare. Le ultime conferme sulla questione arrivano dal leaker @Kepler_L2 che su Twitter parla di Navi 31 e della possibilità che questo chip con architettura RNDA3 utilizzi una design a chiplet che, nella versione più potente, arriverà a integrare due chip da 80CU.
Se il rapporto Compute Unit (CU) Stream Processor sarà lo stesso visto per l'attuale Navi 21, la prossima GPU top di gamma AMD potrebbe avere un totale di 10120 Stream Processor, ossia il doppio dell'attuale Radeon RX 6900 XT. AMD inoltre sta lavorando anche per implementare una nuova componente hardware per il ray-tracing, unico punto debole delle Radeon RX 6000 rispetto alla controparte NVIDIA GeForce RTX 30.
Secondo ulteriori indiscrezioni apparse su Twitter, l'azienda starebbe lavorando al progetto e in particolare all'ottimizzazione delle risorse hardware sulle GPU con design MCM, il tutto sempre con un'importanza prioritaria per il ray-tracing. AMD al momento non ha confermato o smentito le nuove indiscrezioni, tuttavia, vista anche l'attuale situazione che affligge il mercato e le varie catene produttive, anche se questa GPU fosse confermata non arriverebbe prima del 2022, come del resto indica AMD nelle sue slide.
Commenti
Posta gli screen dai
Su control, dove non c'è una grande profondità di campo e gioco per me spoglio, va benissimo.
Su cyberpunk appanna.
Naturalmente io sto provando con la 3070.....ma tu no ;)
Come al solito
Praticamente, per fronteggiare la concorrenza della 2060 KO (credo), AMD decise di rilasciare un BIOS più aggressivo, il cui punto principale era aumentare la bandwidth delle VRAM.
Asus e MSI rifiutarono.
A questo aggiungi un'altra perla: nel corso degli anni, Nvidia è sembrata STRANAMENTE ben informata sugli sviluppi DELLA GPU AMD. Con lo sviluppo di Big Navi, AMD ha deciso di NON tenere informati gli AiB. Il risultato è che Nvidia è stata colta con le braghe calate coi risultati che ormai tutti conosciamo.
Si dice che due indizi fanno una prova. Qui siamo già a quota tre...
Non ne sapevo nulla. Che problemi aveva il bios della 5600XT?
Buone, non eccellenti.
La serie 6000 (RDNA2, Big Navi) piuttosto anonima.
Vogliamo ricordare anche che MSI si rifiutò di aggiornare il BIOS della 5600XT, cosa che tutti gli AiB non GPP fecero invece senza alcun problema?
le mech fanno schifo tutte mi pare. Di MSI bisogna guardare le gaming.
Gigabyte 3x00 non me le ho guardate, ma con la serie 5 hanno fatto un eccellente lavoro.
Tipo la Mech OC?
O le ultime Big Navi di Gigabyte che non hanno riscosso molto plauso?
Ho seguito con particolare attenzione la questione, ed effettivamente è sovente che le AMD non gli vengano bene.
Invece, altrettanto stranamente, le MoBo le fanno in genere MOLTO bene.
Ora mi chiedo perché le schede grafiche zoppicano e le schede madri vanno lisce come l'olio...
Anche il vino appanna caro :D
Gigabyte e MSI fanno ottime schede invece.
Per la differenza di performance, ovviamente.
Torniamo anche a mente che l'era di Unreal Engine 4, motore grafico appositamente sviluppato per la PS3 e quindi da sempre più congeniale alle architetture Nvidia, sta terminando, e sta per cominciare l'era di Unreal Engine 5, sviluppato appositamente per PS5 e quindi più congeniale alle architetture AMD.
E dal momento che UE è il motore grafico più diffuso...
A voi le conclusioni.
Sta per cambiare molto nel panorama videoludico.
E il dlss appanna ....
Vedi un po' te
Il DLSS è una tecnologia fondamentale per qualsiasi gioco in Raytracing, vedi Cyberpunk che comincia ad avere tanta ma tanta roba in RT.
I giochi in futuro saranno tutti così, se uno deve valutare cosa prendere deve pensare a cosa gioca. Prendi i giochi appena usciti?
Io ad esempio non li prendo subito, quindi posso valutare tutto, per me per il RT è presto. Ma penso che la maggioranza la pensi diversamente
Bloccalo non vale la pena
Legion fa schifo come tutti i giochi Ubisoft con il loro motore grafico del 1996
Il DLSS dovrebbe essere implementato in ogni singolo gioco, credo sia ancora presto ma le prestazioni e la qualità sono eccezionali, e credo sia l'unico modo per giocare degnamente in 4K.
Se uno deve prendere un monitor ora, il 4K va bene per tutto, specie per lavorare, ma giocandoci è un disastro in prestazioni
Nvidia è sempre indietro col processo produttivo però, penso che se venisse messa in seria difficoltà punterebbe a pareggiare i conti e prendersi il vantaggio
Piangi per cosa esattamente?
Le schede video stanno aumentando di valore più dei bitcoin
Questa dovrebbe essere la speranza per tutto, dal calcolo fisica su GPU al DLSS, all'implementazione del Ray Tracing, e gli effetti particellari ecc.
Però nessuno si mette a svilupparli, quindi lo fa direttamente nvidia e offre i suoi tool agli sviluppatori, e AMD segue a ruota con un pelo di ritardo.
Questo causa troppa frammentazione, fa schifo così.
A partire da 700 euro, introvabili... bello
Delude come la prima serie nvidia RT, solo che qui l'RT manca proprio.
La cosa sconvolgente però sono i prezzi, oltre al fatto che gli manca una componente fondamentale costano veramente troppo, e non hanno neanche presentato la fascia media.
E la mancanza della fascia media è scandalosa sia per AMD che nvidia, che di solito è più veloce. Stai a vedere che hanno prodotto pochissime schede anche qui.
Se parliamo di calcolo, l'efficienza delle GPU è estrema... sono gli sviluppatori che devono sfruttarla, le librerie ci sono... CUDA è documentatissima e agli sviluppatori grossi nvidia offre supporto custom.
Ne avevano pochissime, in questa situazione il prezzo altissimo e la scarsa disponibilità le rendono totalmente inutili
Poi vedi Valhalla e piangi...
Dirt 5, Godfall...
Ah, ma quello non contano, sono "rotti", impossibile che AMD legni Nvidia, bisogna continuare a "benchare" solo sui titoli ottimizzati per Nvidia...
Ma andassero tutti a ¢agare...
Non hai capito molto del discorso...
DLSS è implementato solo su una manciata di titoli sponsorizzati Nvidia, a spese di quest'ultima (i famosi fondi R&D di Nvidia...) per motivi di marketing. Scordati che abbia mai una diffusione particolarmente elevata, perché a Nvidia interessano solo i titoli di maggior richiamo per farsi pubblicità.
Chiarito questo, AMD sta lavorando ad una soluzione UNIVERSALE che vada bene su tutti i titoli con TAA (Temporale Anti Aliasing) da includere nella suite FidelityFX.
DLSS sta per andare ad allungare la già nutrita lista delle "ficiurs" Nvidia mandate in pensione da AMD (PhysX, G-Sync...).
Non vi fate abbindolare da Bryan Del Rizzo & Co.
In realtà spesso conviene evitare tutti i brand che producono anche per Nvidia: caso strano le AMD gli vengono sempre male, con poche eccezioni nel top di gamma.
Già confermato: AMD ha prenotato le linee produttive di TSMC nel 2021 e nel 2022 per la produzione di tutta la lineup di Zen4 e RDNA3. Ovviamente debutteranno per primi i "pezzi da 90", il cui scopo è ANCHE quello di fare marketing per le soluzioni più economiche e abbordabili, quelle che poi fanno "bulk" di vendite.
C'è un bel servizio di AdoredTV al riguardo.
Il 5nm sarà un nodo "puro", non una ottimizzazione di un nodo precedente (tipo l'8nm Samsung che in realtà e un'ottimizzazione del 10nm).
EHm a perche la serie 6000 la stanno vendendo altro che Nvidia io non ne ho vista manco una in foto negli store ITALIANI magari oltremanica ne vendono un botto. Saluti a tutti
Poi, come detto, l'ho presa al day one quando sono entrate in commercio (sono stato uno dei pochi fortunati). Ora tornano disponibili ogni tanto ma durano pochi minuti, senza un canale Telegram od altri mezzi che ti notificano la disponibilità, è quasi impossibile.
https :// www. amd. com /en/ direct-buy/it (togliere gli spazi)
Certo che spedisce :
https://uploads.disquscdn.c...
Tra l'altro Amd non spedisce in italia quando compri dal sito
Anche la gpu integrata base può avere consumi alti.
Per consumi alti si intende altro.
Scusami ma come si fa a comprare dal sito AMD non c'è un sito Anzi uno Store italiano c'è francese o tedesco e tra l'altro la dà sempre non disponibile senza nemmeno la possibilità di mettere l'indirizzo email per quando torna disponibile
significa che ancora non vogliono esporsi, quindi non si sa :D
inoltre considera che 1 o 2 + su ogni nodo produttivo ci stanno, è intel che ha esagerato e dopo un po è diventata una barzelletta.
ad esempio TSMC gia oggi ha in produzione 7nm, 7nm+ e 5nm
ma come... si trovano pure su amazon... proprio ieri ho visto una 6800 euro a soli 1700 euro (poco piu'), giusto 1200 euro in piu' del listino.
onesto direi
Hai ragione riguardo al "boost" si guadagna però "solo" qualche punto percentuale (testata la differenza con 5900X 4,7ghz all-core e una RX 6800 XT a 2650mhz core e 2150mhz sulle memorie).
Assolutamente ahahah
570 circa
??
A legion va meglio AMD in rtx
Dissipatore esploso l'altro giorno. La vittima è stata la scheda madre
bhe... come richiesto sono intervenuto... ma credo di non essere servito poi a tanto :)
posso chiederti quanto l'hai pagata sul sito amd? grazie
Confermo ciò che dici, ottime GPU e ottimo rapporto prestazioni/consumi. Ho una 6800 XT della XFX è rimane "fredda" anche in full load (rispetto alla 2070 che avevo prima).
non particolarmente, i chip di punta sono macchine da corsa e come tali hanno compromessi sul fronte consumi per ottenere piu' prestazioni, prendi quelli di classe inferiore e vedrai che consumano molto meno . una 3060ti ha un tdp di 150w in meno delle 3090
se vuoi le prestazioni devi accettare i consumi, se non vuoi i consumi ci sono opzioni con consumi inferiori - e' una semplice questione di liberta' di scelta.
Visto che in questo periodo molto casalingo volevo riprendere a giocare, mi son preso una 6800 liscia al day1 sul sito AMD e ne sono molto soddisfatto. In alcune cose è indietro ma è normale che sia così, nel RT è indietro ma si vede che qui c'e' molto marketing visto i giochi attualmente usciti e le varie implementazioni (chissà come mai si fa vedere sempre Minecraft od alcuni youtuber sono stati "rimproverati" da Nvidia quando non ne tengono conto...), invece manca sicuramente una tecnologia simil DLSS che permetta di scalare con le prestazioni in caso di effetti RT più mirati. Ma, visto che le console sono tutte AMD, sono confidente che qualcosa uscirà nei prossimi mesi anche sotto questo aspetto.
Intanto in puro raster fanno paura :
https://uploads.disquscdn.c...
Tu mi insegni che l'ottimizzazione watt/potenza del modello di punta si trasmette anche alle fasce più basse, che spesso sono un modo per riciclare i chip che non reggono determinate frequenze.
basta non comprare il modello di punta.