
16 Settembre 2023
Quella che vedete un po' più in basso in questo articolo potrebbe essere la prima "foto reale" del prossimo processore mainstream desktop per eccellenza di Intel, il Core i5-14600K, appartenente alla quattordicesima generazione anche nota come Raptor Lake Refresh (ricordiamo che questa nuova generazione sarà molto confusionaria con i nomi, con un mix di Meteor Lake per laptop e Raptor Lake Refresh per desktop). Beninteso, non la foto del prodotto in sé, ma delle sue specifiche tecniche salienti in base a quanto rilevato da applicazioni Windows chiave come CPU-Z e Core Temp. Ne possiamo ricavare uno specchietto riassuntivo piuttosto completo:
Suona famigliare? Non ne dubitiamo: è praticamente la stessa scheda tecnica del suo diretto predecessore, il Core i5-13600K, eccezion fatta per la frequenza in boost che guadagna 200 MHz. Calcolando che anche il processo produttivo dovrebbe rimanere il medesimo Intel 7 (precedentemente noto come 10ESF), e che lo stesso vale per le architetture dei core (Raptor Cove per i P Core e Gracemont per gli E Core), è piuttosto ovvio dedurre che chi già possiede il 13600K avrebbe praticamente zero benefici dall'upgrade. Tuttavia, potrebbe essere un buon incentivo per chi ancora sta usando chip di dodicesima generazione, che usano ancora lo stesso socket LGA1700 (dalla quindicesima generazione, però, si cambia). In questo caso il paragone è più lusinghiero: l'i5-12600K ha infatti solo 10 core (4 "P" e 8 "E") e 16 thread (4x2 + 8), 20 MB di cache L3 e frequenza boost di 4,9 GHz.
Per il resto, l'immagine non offre molti altri spunti di riflessione: certo, ci sono le temperature d'esercizio grazie a Core Temp, ma senza sapere le specifiche dettagliate del sistema di dissipazione del calore lasciano un po' il tempo che trovano. Comunque, le riportiamo per completezza: tra i 35 e i 39°C in idle e un picco registrato di 61°C (ma non sappiamo con quale carico di lavoro). Da notare che il chip è apparentemente montato su una scheda madre con chipset Z790, per la precisione una Gigabyte Gaming AX (ricordiamo che sarà necessario aggiornare il bios delle schede PRIMA di installare la nuova CPU!).
Il nuovo chip, insieme ai ben più potenti I7-13700K e i9-13900K, dovrebbe già essere presentato il mese prossimo; le varianti "non K", con moltiplicatore per l'overclock bloccato, dovrebbero arrivare nei mesi successivi. Non abbiamo informazioni dettagliate sui prezzi di lancio, ma ci aspettiamo più o meno gli stessi visti con i Raptor Lake l'anno scorso.
Commenti
basta aspettare un po di più ed il lavoro lo fa lo stesso
la mia cpu preferita, anche se non l'ho mai posseduta. La cito spesso per fare il paragone del salto prestazionale dalla gen precedente. salti del genere non si sono più visti secondo me, in casa intel. Io ho un i7 4790k+r9 290x tri-x da 4gb, per quello che devo farci io va più che bene
Non ho mai detto che le tecnologie di upscaling sono inutili ma solo che nell'utilizzo reale non ne abbiamo bisogno così tanto da spendere €200 e passa solo per poterle avere.
Il DLSS è superiore ma di quanto? In tutte le recensioni che lo paragonano alle controparti open,i risultati sono "meglio in 1080P,un pò meno in 1440P ed equiparabile in 4K".
Da quando queste parole si traducono in "anni luce avanti"? Questo modo di "interpretare" le cose non aiuta la concorrenza ma solo Nvidia.
"il raster oramai non basta più"
Lo dicevano anche nel 2019 e invece....dopo 5 anni rincorriamo ancora il "gioco dove lo implementa meglio"
Infatti alla serie 4000 non gli si può dire nulla (prezzi a parte) ma ti faccio notare che molti hanno dato attenzione ai consumi inferiori ma quando AMD con le 6000 consumava meno nessuno ne parlava. (2 pesi e 2 misure).
AMD deve abbassare i prezzi e già le 6000 e le 7000 costano abbastanza meno delle controparti Nvidia,quindi molto più di così non deve fare.
L'unica cosa che voglio e che la gente scenda con i piedi per terra e sappia acquistare correttamente perchè una 3050 al posto di una 6600 è al limite della follia.
Aridaie, se tu non vuoi vedere le cose come stanno non è colpa mia, ti rendi conto quanto poco venda AMD nel settore GPU desktop rispetto a Nvidia? il punto è che NVidia vende proprio per quelle tecnologie che tu reputi poco utili, e no, Xess e FSR sono anni luce dietro DLSS, sopratutto alla versione 3 con frame generator, il raster oramai non basta più, a meno che riesci a farmi una scheda che va in raster tre volte tanto una scheda nvidia di pari prezzo ma cosi non è
Poi mi parli di prestazioni, prezzo e consumi? ma è proprio per quello che AMD non vende, intanto alla serie 4x di Nvidia gli puoi dire tutto ma non puoi dire che consumino, sono gpu che consumano pochissimo, poi come detto ad oggi una 6800 XT pur costando meno di una 4070 e andano mediamente poco di più non vende come la 4070, se invece di 520 euro fosse costata che so 400 euro, allora vedi che vendeva, purtroppo non c'è margine, AMD per come sta ora, o abbassa i prezzi di brutto o non vende punto, perchè la gente ritiene che è meglio spendere quei 70/100 euro in più e prendere Nvidia, e ripeto non lo dico io, lo dicono i dati di vendita
Le console principali ( xbox series x e ps5 ) come sai sono tutte APU AMD anche per quello l'RT non viene implementato, toglierebbe troppe prestazioni, su PC Nvidia le cose sono un pò diverse, io come detto il ray tracing lo utilizzo su diversi giochi
Nvidia ha vendtuo pure la pupù al posto delle Radeon e questo anche prima di queste tecnologie.
Il problema non è ribadire i vantaggi che offre Nvidia ma quello di far finta che gli altri non esistano (FSR e il Xess) e sopratutto ignorare prestazioni/prezzo e consumi.
La facciamo facile a parlare di concorrenza ma se ci ostiano a comprare solo da una azienda anche quando non merita,allora siamo solo degli ipocriti.
Il RT ad oggi è assolutamente inutile per tanti motivi abbastanza oggettivi:
1. Viene implementato all'osso e causa una perdita allucinante.
2. Quando viene implementato come si deve (2 giochi su X00000,dopo 5 anni),ti tocca upscalare fino alla morte su gpu da €2000.
3. Siamo ancora in "old gen" e le cose non potranno far altro che peggiorare non appena ci saranno i motori grafici nuovi.
AMD è una azienda da 170 milioni e una parte di quella,volente oppure no,compete con Nvidia che vale 1,5 triliardi.
Questo ci dovrebbe far capire di cosa stiamo parlando e spingerci un pochino a riflettere prima di pretendere la botte piena e la moglie ubriaca.
Loro devono solo essere concorrenziali sul prezzo/prestazioni e se noi la supportiamo quando c'è bisogno,il mercato subirà la stessa sorte avuta con le cpu.
NVidia vende perchè ha più "Appeal" e ha più "Appeal" proprio per le tecnologie che a te non interessano, anche perchè a questo punto si va di console ( dove non puoi cambiare nessun setting o quasi ) e via no?
La gente compra Nvidia proprio per il DLSS, perchè permette di ottenere molti fps praticamente a "costo zero", tecnologia supportata in molti giochi oramai e ( mi dispiace anche dirlo ) superiore a FSR, come detto poi in attesa di FSR 3 perchè la concorrenza è sempre una bella cosa
Per il discorso Ray Tracing dipende molto dal gioco, su alcuni io lo uso, tipo spiderman remastered, cyberpunk, elden ring, su altri no, dipende dalla resa finale e da come è implementato, ma quando lo usi il DLSS viene molto in aiuto
Ma è inutile stare qui a ripetersi, al momento per me AMD non è concorrenziale e le vendite lo dimostrano, spero riesca a fare di meglio perchè io mi sarei anche stancato di comprare schede video castrate o di gamma media a prezzo folli xD, in tutto questo spero anche in un salto avanti di Intel con BattleMage
Si si, io ho finito con te, basta leggerti e ti commenti da solo. Grazie di aver dato visibilità alla tua pazzia da fanboy amd come lo siete tutti
Buona domenica
Io compro le gpu che offrono il miglior rapporto qualità/prezzo perchè di una 3060Ti da 8GB (esempio) con il suo "potentissimo" RT non me ne facevo assolutamente nulla.
La parte bella e che molti mi danno del fanboy per questo ma poi io vado avanti con i giochi nuovi e loro con le loro belle gpu azzoppate arrancano da morire.
Nessuno ha mai criticato Nvidia ma solo il fatto che tutti i suoi prodotti vengano osannati e aquistati a neuroni spenti solo per la nomea e questo ci ha portati ad un monopolio.
Abbiamo finito col trolling?
Certo la famosa"inflazione".
Lascia stare che ci sono stati tonnellate di prove dove con tutta l'inflazione avuta in questi 10 anni,le gpu non dovrebbero comunque superare le €200 di aumento e i pp rimangono gli stessi delle cpu che stranamente non hanno subito aumenti del 3x come ha fatto la nostra Nvidia.
Non mi interessa in che posizione vi piace mettere ma almeno abbiate la decenza di capire che a non tutti piacciono quel tipo di "cose".
Vero ma le Radeon venivano comunque acquistate moolto meno (e costavano meno) e il problema di cui parlo non risiede solo dal 2020 in poi perchè questa è una situazione che si è andata a creare anno dopo anno sin da Maxwell.
Ultima cosa: i lecchini sono da ambedue le parti! Non so, forse te lo sei scordato, ma nel 2020 erano in tanti a comprare a prezzi folli e non solo le gpu nvidia, ma anche le erreicsine che valevano meno di 0! Ricordati! Il casino è stato creato da tutti. Quindi stai solo blaterando cose senza senso
E in più aggiungo che l'aumebto di prezzi c'è stato su qualunque prodotto da qualsiasi produttore! Basta pensare al mercato automobilistico, valla a comprare una panda nuova va... ma capisco che per individui bigotti come te questo concetto è difficile da capire...
Ah già hardware unbox, il master-fanboy amd... si. Quello è l'unico che evito come la peste, perchè i sui dati sono alquanto fasulli, dato che se confrontato col resto del mondo dei recensori ci sono troppe differenze, ovviamente sempre in favore di prodotti amd.... a parte questo, io non ho MAI e poi MAI detto che i ryzen fanno schifo, anzi, è grazie a loro che oggi abbiamo questa situazione per le cpu, qualsiasi cpu si prende ci si trova bene. A ma fanno letteralmente defecare le schede video di amd, che valgono la metà di quello che costano! E voi le difendete pure... ok che possono avere un rapporto prezzo prestazioni maggiore delle nvidia, ma rimangono comunque schede video di dubbia qualità, con prestazioni inconsistenti e tecnologicamente indietro diversi anni. Infatti secondo me amd deve concentrarsi SOLO sulle cpu e fare bene solo con quelle. Dalla sua anche le APU, cpu per datacenter... le gpu è meglio che le dismette! Infatti la serie rx 8000 avrà solo fascia bassa e fascia media. Ma è meglio se non fa nemmeno quelle
Mi capita spesso di essere accusato di dire fesserie ma nessuno in 10 anni è mai riuscito a dimostrare alcunchè.
Mi dispiace di aver urtato i tuoi sentimenti ma io parlo senza peli sulla lingua di qualsiasi azienda.
Le guerre inutili le cominci tu dato che critichi a caso dicendo delle vere e proprie fandonie facendo diainformazione. Fattela da solo la guerra.... addio
I giochi dove non sarai stabile ci saranno sempre perchè e nella natura stessa del pc gaming l'imprevisto ma se con €310-330 oggi ti porti a casa una gpu (che per il momento) ti maxa tutti i giochi più esigenti ad oltre 80fps,è inutile fissarsi di spendere centinaio di € in più per un upcaler.
Quello che dici tu si ottiene perchè la gpu lavora ad una risoluzione più bassa e non è nulla di non ottenibile frenando gli fps o usando la risoluzione dinamica.
Il DLSS/FSR sono molto utili ma la gente sin dalla sua uscita lo antepone a qualsiasi altra cosa e di conseguenza a casa mia questa si chiama "fissa".
Il RT non sarà mai implementato bene prima di 5-10 anni perchè mettere 2 riflessi e 4 ombre ammazzando gli fps non è assolutamente una cosa sensata. Purtroppo non basta che "in alcuni giochi si noti" per dire di valerne la pena.
Sul discorso 6800XT vs 4070 anche io probabilmente preferirei quest'ultima ma è inutile girarci intorno,Nvidia vende principalemente per il brand in quanto pure le sue gpu più oscene sono state acquistate al posto delle Radeon.
Spero che la gente torni all'epoca dei primi Ryzen e che applichi quella mentalità anche alle gpu perchè altrimenti il pc gaming diventerà sempre più una utopia.
Vero ma a differenza degli Intel sono studiati così (opinabile) e infatti che tu ci metta un dissipatore stock o un 360,quei 95 non si schiodano da lì.
In ogni caso stavamo parlando principalmente di consumi in produttività perchè in gaming lo sappiamo tutti che qualsiasi cpu non si schioda dai 60-70 gradi.
Il punto è che i Ryzen sono degli ottimi processori e di conseguenza queste "guerre" inutili che volete fare a tutti i costi con me non attaccano perchè conosco ogni pro e contro di tutti questi componenti.
Tu sei la disinformazione fatta persona. Il 7700x arriva a 95° con qualsiasi dissipatore. Un 13600k lo si fa stare a 70° in cinebench r23 con un pearless assassin 120.
Falli vedere i tuoi link dai così ci facciamo 4 risate
Si dico, basta vedere gli nmila benchmark in rete, in Ultra già in FHD stai al limite dei 60 fps stabili sul alcuni giochi, poi se ti metti a seguire le guide e abbassare quel dettaglio o opzione qui e li che magari non si notano tanto in gaming ovvio che una decina di fps li recuperi pure, ma il problema come detto non è oggi ma domani, tecnologie di scaling aiutano a rendere più longeva la gpu a mio parere
Non è questione di fissa ma di utilità come detto, DLSS ( e spero in futuro FSR 3 ) servono ad abbassare il carico di lavoro della gpu e quindi a raggiungere il target frame desiderato, o più semplicemente ad abbassare consumi, temperature e quindi ventole che girano, il ray tracing non ti potrà interessare a te, ma in alcuni giochi si nota eccome ( quando ben implementato ), l'RTX IO poi è utilissimo visto che lo utilizzano le console dove rispetto al pc, grazie a tale tecnologia SW hanno un boost prestazionale nei tempi di caricamento dei giochi
Sul discorso del prezzo ti ho già fatto un parallelo tra una 6800 XT e una 4070, dove la 4070 costa mediamente una 70ina di euro di più, eppure guarda caso AMD vende una frazione di GPU rispetto a NVidia, evidentemente la gente ritiene che tecnologie come quelle sopra citate servono, oltre che a consumi nettamente migliori, e la serie 4xxx è stata anche abbastanza scarsa, proprio perchè al momento NVidia non ha praticamente concorrenza
Che è efficientissimo si, ma TDP e power consumption non sono la stessa cosa
Ottimo! Anche io! È questa la giusta logica. Io non capisco solo quelli che criticano le scelte degli altri... e allora io critico loro! Ehehehe... varrebbe la stessa se leggessi di un beota fanboy intel sparare cavolate per sminuire la controparte
La situazione dei driver è ok già da 3-4 anni ma...si scoraggia? E seconde te io vado a comprarmi una gpu che costa molto di più o che costa di più e va di meno perchè mi scoraggio? E con Ryzen 1000 che avevano questi problemi e andavano di meno perchè non ci siamo scoraggiati? Lascia stare che il motivo è molto più radicato di così.
La 5700XT andava in media tra il 2 e il 4% in meno della 2070S e grazie all'FSR2 ha la stessa longevità che si ha con una 2060S,quindi stiamo parlando del nulla.
Io non critico l'avvento del RT ma solo il suo essere in anticipo sui tempi di almeno 10 anni e sai perchè Nvidia lo ha fatto uscire prima delle console?
1. Perchè poteva apparire come "pioniera" e mettere nella bocca di tutti la parola RTX (detto fatto).
2. Nascondere le indecenti performance delle 2000 (tranne la 2080Ti).
Quello che critico non è l'acquisto di una gpu con il RT ma l' ossessione nei confronti di una tecnlogia che se va bene verrà completata fra anni (e ne sono già passati 5) ignorando completamente tutto il resto. Questo modo di fare ci ha portato ad un monopolio e questa cosa se permetti era assolutamente evitabile.
Io argomento benissimo e le mie fonti sono quelle che hai detto più tantissime altre quindi se a te non sta bene come parlo è perchè vuoi rimanere delle tue idee.
Nessuno ha mai messo indubbio la qualità di Nvidia ma:
1. Nessuna autorità informatica seria ti direbbe mai che una RTX 3050 è da preferire ad una 6600.
2. Non credo che ci serva il loro parere per capire dei meri benchmark.
Il loro lavoro è quello di fare i test non quello di dirci cosa comprare.
guarda che caschi male con me, ho avuto sia amd che nvidia afasi alterne, fanb oy solo del mio portafogli, e ho avuto problemi tecnici da entrambi i lati, però bisogna ammettere due fattori: il primo è la superiorità nvidia sul marketing, ha fatto molti più accordi con case videoludiche, e relativi accorgimenti sui giochi e sponsorizzazioni. Questo l'ha diffusa molto più velocemente di ati/amd. Il secono fatto innegabile è che sulla fascia enthusiast è sempre una generazione avanti, tuttavia per chi come me (il 90% del mercato) non compra enthusiast non cambia nulla, è solo .... marketing appunto.
E poi un'altra cosa: le massime autorità informatiche, siccome tutte dicono la stessa cosa, cioè che nvidia fa schede video migliori, son tutti pazzi? Loro i test li fanno eh (e pure io siccome sono in questo settore), non sono come te che provano 2 schedine in croce!
Guarda ti dico anche un'altra cosa: purtroppo amd non ha una bella nomina con i driver, non che capiti spesso ma capita con più frequenza rispetto nvidia. Questo l'utente medio lo scoraggia. E poi la rtx 2060s anche se ib raster va un frivolo 5% in meno, ha comunque già tutte le tech che la rx 5700xt si sogna. Ora la 5700xt è relegata nel dimenticatotio, invece per la 2060super ci sono ancora tanti utenti che la usano, idem per la 2060 liscia (anche se questo invece è inferiore alla 5700xt). Tuttavia la 5700xt era una scheda che costava tanto quanto la 2060s e quindi è ovvio che vende gli spicci, capisci? È inutile ragazzi che sparate i dati senza sapere di cosa parlate però! Fai discorsi lunghi un km ma spari diverse fandonie. Va beh dai lasciano stare. Tanto è fisto sprecato purtroppo.
E poi sta storia del RT non è rimabmbimento, scusa, perchè devi criticare una nuova tecnologia pure bella e soprattutto criticare chi sceglie di adottarla? Cioè ma renditi conto di cosa dici dai.. sarai sveglio te allora a prendere schede video indietro tecnologicamente di 3 anni. Tu sei libero di acquistare ciò che vuoi e nessuno ti critica. Basta intavolare un discorso, ma senza criticare le scelte altrui altrimenti passi al ridicolo fanboy amd che non sa nemmeno quello che dici, perchè non sai minimamente i dati veri quali sono a quanto pare
2
AMD hai tempi di Pascal stava praticamente per fallire e di conseguenza quello che ha fatto finora in entrambi i mercati ha solo dell'incredibile.
AMD non può competere attualmente con Nvidia perchè il mercato delle cpu è molto più importante per la sua rinascita ma anche noi non ci siamo/stiamo comportanto bene con le sue gpu.
Con Zen 1 tutti gli abbiamo dato una chance perchè costava di meno e ci facevamo andare bene i primi problemi con le ram e il fatto che in gaming andava il 15-20% in meno proprio perchè il rapporto qualità/prezzo era il focus.
Con le sue gpu invece?
1.Tonnellate di 1050Ti/1650/3060 e tante altre ciofeche vendute a discapito delle migliori Polaris e RX 6600/6600XT.
2.Gente che preferiva la 2060/2060S alla migliore 5700XT.
3.Gente che millantava "distruzione e annientamento" per il 6% di differenza tra la 5700XT e la 2070S ignorando i €200+ di differenza.
Adesso tutti si sono rimbambiti con sta storia del RT e pensano solo a quello nonostante gli sviluppatori stessi si sono espressi contraria all'utilizzo di questa feature almeno fino al 2030.
Purtroppo la situazione c'è sfuggita di mano e se non ricominciamo a dare priorità al nostro portafoglio come prima,le cose andanno solo che a peggiorare.
Dici? Ho una RX 6700XT che mi fa fare oltre i 60fps in 1440P tutto ultra su A Plague Tale Requiem,uno dei titoli maggiormente più pesante attualmente in circolazione e in tutti gli altri AAA sto tra i 70 e i 100fps in quella risoluzione. Direi che va bene così anche senza DLSS/FSR.
Le tecnologie tirate fuori da Nvidia sono ottime,il problema siamo noi che ci fissiamo solo su quelle e siamo disposti pure a farci prendere in giro spendendo molto di più senza accorgerci che all'atto pratico ci servono ben poco per quello che spendiamo.
Come sempre bisogna valutare tutti i pro e i contro e in questo momento Nvidia costa talmente tanto per quello che offre che non ne vale la pena.
In un mondo in cui si cerca la "cpu da gaming" aumentare le performance in media del 15% senza cambiare architettura è comunque una cosa fantastica.
AMD non ha voluto osare con la conta dei core e nonostante questo,quando perde (7700X) lo fa del 15% al massimo,sintomo che in fondo i suoi core vanno moolto bene,specie se poi in gaming è leggermente avanti e consuma e scalda molto meno.
In ogni caso molto probabilmente riavremo 16 core con Zen 5 ma come dico sempre se questo ci porterà un altro +40-50% in multi,allora per me possono rimanere così per altri 10 anni.
Si è vero. Il fatto è che proprio partendo da pascal nvidia ha distaccato amd in maniera irreparabile. Ma è anche normale dato che amd gestisce sia le cpu che le gpu, nvidia invece si cincentra solo ed esclusivamente sulle gpu ed è proprio per quesyo che la sezione R&D di nvidia è sempre la prima ad arrivate con le innovazioni! Facci caso, con turing nvidia ha implementato a livello archietturale la gestione in tempo reale del raytracing; con 2 anni di ritardo ha tirato poi fuori la sua prima arc di gpu a supportare il raytracing, ma con scarsissime prestazioni in relazione alla concorrenza, tanto da andare addirittura peggio delle rtx 2000. Nonostante questo se si applicano effetti RT di bassa qualità, rdna 2 riesce a gestirli. Nel frattempo sono uscite le console di nuova gen che supportano il raytracing grazie ad una customizzazione di rdna1 imolementando qualcosa di rdna2 per gestire il raytracing. Quello che voglio dirti è che nvidia è stata la prima ad implementare il supporto in tempo reale al raytracing, amd ed intel con le sue gpu sono arrivate dopo
Evidentemente non giochi a giochi pesanti altrimenti ti saresti accorto che il DLSS serve eccome, se giochi in Ultra tutto maxato insomma per tenere i 60fps fissi e stabili su una gpu di fascia medio bassa aiuta eccome, e poi uno compra oggi anche guardando in ottica futura, dove i giochi saranno sempre più pesanti, a meno che hai intenzione di cambiarti scheda video ogni anno, allora è un altro discorso
Poi ognuno ha le sue preferenze e da priorità a quelle, non è che c'e un qualcosa di meglio in assoluto, io per esempio tra una 6800 XT e una RTX 4070 preferirei sempre quest'ultima nonostante costi di media un 70/80 euro in più, nei giochi senza tecnologie attive, mediamente la 6800 XT va un pò meglio ( non su tutti ) ma la 4070 gli da la biada se attiva il DLSS, senza contare la gestione enormemente migliore del Ray Tracing, e tutte le altre tecnologie, e senza contare il fatto che consuma sensibilmente meno.
Non per questo la 6800 XT è una brutta scheda, anzi per me è una ottima gpu, ci avevo anche fatto un pensierino al tempo
"anzi, anni fa c'erano dei periodi in cui le radeon erano preferibili alle geforce. Solo che è dalle Pascal che amd non riesce più a competere con nvidia".
Hai esattamente centrato il punto. Nonostante quelle gpu preferibili,molti hanno puntato su Nvidia perchè il brand è più forte e infatti ti ho detto che potrei farti 100 esempi di gpu acquistate a mentula canis.
Tutto questo si è tradotto in minori entrate per AMD che nel lungo periodo si traduce in "pochi soldi,poca concorrenza".
A questo aggiungici lo straordinario potere degli utenti che per ogni mancanza da parte della squadra rossa,la trasformano in un macigno e hai la ricetta perfetta per questo disastro.
Si ma è in vantaggio solo nel gaming! La 3d cache aiuta solo a fare più fps, fine. Nei top di gamma il 13900k se la batte col 7950x come il 13700k se la batte col 7900x, mentre su tutte le fasce più basse le cpu intel sono sopra. Per esempio il 7800x3d e 7700x sono battuti addirittura del 13600k in multi thread.
Per quanto mi riguarda il DLSS senza l'ausilio del RT a momenti non c'è bisogno manco di attivarlo con i giochi attuali e in ogni caso abbiamo il Xess e l'FSR2 che sopra il 1440P cominciano ad essere paragonabili a quest'ultimo.
Il FG è un ottima cosa ma è utilizzabile principalmente dalla serie 4000 e se non hai una base di fps alta (4070+) comincia a mostrare il fianco.
Come sempre ogni cosa ha i suoi pro e contro e di conseguenza se AMD costa molto meno di Nvidia non c'è "scusa" che tenga per non acquistarla.
Dipende in che contesto anche di più.
Zen 2 aumentava del 15% l'IPC ma in media avevamo aumenti del 18-20%.
Zen 3 aumentava del 19% IPC ma in media si arrivava pure a 20-22%.
Zen 4 aumentava l'IPC del 13% ma con le frequenze si arrivavano tranquillamente ai fatidici 25-30% di boost (dichiarati 29% in ST).
Per quanto mi riguarda mi aspetto un bel salto da parte di Zen 5 e più avanti sicuramente anche Arrow-Lake farà la sua parte ma per allora bisognerà come sempre vedere i prezzi e le disponibilità.
AMD e Intel sono in forte gara ma per quanto mi riguarda come compatibilità di schede madri e boost dato dalle versioni con 3D-Vcache,AMD è in vantaggio.
Si ma le voci di corridoio lasciano il tempo che trovano e ammesso che fosse vero sulla carta questo 20% di IPC non si traduce mai in alcun modo in un 20% secco in più di performance. Ci sono app che sfruttano meglio la frequenza, altre che della frequenza se ne sbattono e conta quasi solo l'IPC. App dove tanta cache impatta altre no. Bisogna attendere prima di giungere a conclusioni affrettate e sperare nel miracolo. Piuttosto, dimmi che intel con arrow lake-s il prossimo anno farà un bel salto rispetto ad AL e RL perchè su un nuovo processo produttivo, ma non mi azzardo a tirar a caso alcuna cifra di incremento! Per quanto mi riguarda mi aspetto solo un bel salto rispetto all'attuale arc
Non c'è solo l'RT, c'è il DLSS che aiuta molto, il frame generator e ultimamente l'RTX IO che sarà sempre più importante in futuro
Ma assolutamente si, ti pensi che nvidia abbia fatto sempre schede perfette? No guarda e tutt'ora non lo sono. Anzi, anni fa c'erano dei periodi in cui le radeon erano preferibili alle geforce. Solo che è dalle Pascal che amd non riesce più a competere con nvidia, arranca, macina qualche numero, ma si ferma lì, perchè effettivamente va sempre prodotti inferiori, che ovviamente costano anche meno, ma restano inferiori