AMD: Smart Access Memory arriverà su piattaforme Intel e NVIDIA

24 Novembre 2020 135

In un'intervista a PCWord, Scott Herkelman di AMD ha confermato che gli ingegneri dei team Radeon e Ryzen stanno collaborando con Intel e NVIDIA per portare la tecnologia Smart Access Memory sulle piattaforme desktop dei competitor. Nei giorni scorsi NVIDIA aveva già reso noto di essere a lavoro su un'alternativa alla funzionalità proposta da AMD, attualmente disponibile solo sulle Radeon RX 6000 abbinate a processori Ryzen 5000 e schede madri AMD della serie 500. A differenza dell'azienda di Sunnyvale, NVIDIA però aveva parlato di una compatibilità estesa sia a piattaforme AMD che Intel, una caratteristica che a quanto pare AMD ha già deciso di adottare e sulla quale appunto sta lavorando con le due aziende rivali.


Nello specifico, Herkelman dichiara che si sta lavorando per abilitare la funzionalità SAM (Smart Access Memory) su configurazioni che prevedono CPU Intel Core con GPU AMD Radeon RX 6000 e allo stesso tempo CPU Ryzen 5000 con GPU NVIDIA GeForce RTX 30.

Il progetto ovviamente richiederà un certo tempo per lo sviluppo e l'ottimizzazione delle prestazioni, quindi non si tratta di un puro aggiornamento software/driver o di un nuovo Firmware/BIOS che attiva questo tipo di funzionalità.


Ricordiamo che la tecnologia Smart Access Memory permette al processore di accedere a tutta la VRAM della scheda grafica delle Radeon RX 6000, eliminando i cosiddetti colli di bottiglia grazie all'utilizzo del BUS PCI-E 4.0 e migliorando così le prestazioni nei giochi con un picco che può arrivare anche all'11%. Al momento non abbiamo dichiarazioni di Intel o NVIDIA in merito, vi lasciamo con un grafico che mostra i miglioramenti ottenibili abilitando la tecnologia SAM su alcuni giochi impostati a risoluzione 4K.



135

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Duzzu Acid

La dovrebbero smettere con sta censura, ma proprio verso chiunque non sia uno spammer con tanto di link alla roba che promuove.

B!G Ph4Rm4

E' il solito dem3nte. Comunque non ho dubbi che sia un ******* (trova tu la parola che più gli si addice) che passa tutto il giorno a fare ste ca**ate invece di trovarsi un lavoro.
E pensa pure che me ne freghi qualcosa se mi butta giù l'account :D

monopattinoelettrico

grazie

4 volte in totale è stato cancellato per spm (non subito ma dopo un ora), anche quando l'ho ripostato in alto
intanto ho litigato ed umiliato albertino su toms

Mostra 1 nuova risposta

Questi trollini ignoranti da quattro soldi che spuntano come funghi e con pochi messaggi... cosa vuoi farci

Mostra 1 nuova risposta

L'ho visto e l'ho citato io vediamo se lo cancellano.

Mostra 1 nuova risposta

B!G Ph4Rm4




è ufficiale c'è qualcuno che mi sgnala in massa con multiacc, perché è la 3 volta che sparisce il messaggio
lo riposto qui per completezza, ma è la risposta a quello sotto


2
rispose in una, questo commento e quello in cui dici (duzzu) che cuda è
traducibile, cerco di far vedere le risposte anche a chi ti ha messo mi
piace Luca Lindholm
cerco di spiegarvi come funziona senza arroganza, scusate la lunghezza del post:


1)Non
puoi avere accesso a cuda una cosa è mkl che è compilato per x86 e puoi
usarlo anche su amd(perchè le cpu sono entrambe x86), cuda sotto il
cofano è tutto scritto a bassisimo livello e specifica per
l'architettura nvidia, non puoi farci nulla perché amd e nvidia hanno
architetture diverse


2)cuda non è traducibile e non lo sarà mai,
al più le librerie che usano cuda possono essere tradotte ma con scarse
performance (online ci sono versioni tradotte di tensorflow ma sono
state abbandonate per scarse performance), visto che devi passare da
opencl che è generico e non ottimizzato per le gpu (come è invece cuda
per le gpu nvidia)


Probabilmente cuda non verrà sostituito mai,
ameno che amd non riscuota successo con HIP (che è il cuda di amd per le
proprie gpu, attualmente non all'altezza di cuda per usabilità) e che
si sviluppino tool che prendono il codice ad alto livello e lo traducano
sia in HIP che in CUDA.


Ovviamente amd deve pure farsi in casa
tutte le librerie di alto livello che ad oggi un programmatore puo'
chiamare; tipo tensorflow, uno scrive python e gira su gpu nvidia senza
conoscere cuda, con amd non si puo' fare perchè amd NON ha quelle
librerie (salvo che ora ci sta provando con tensorflow-rocm che però
pare non decollare). Come ti dicono sotto amd se vuole affrontare cuda
DEVE farsi da se la propria alternativa a cuda super ottimizzate per la
propria architettura, ed in più DEVE scriversi le proprie librerie e
renderle di facile utilizzo, magari ad alto livello. E non lo possono
fare altri sviluppatori perché è necessario che chi fa la libreria abbia
estrema conoscenza dell'hw per fare tutto in modo super ottimizzato,
oltre ad essere un programmatore eccezionale con estrema esperienza in
calcolo numerico; Esempio: quando richiami una funzione che ti calcola
gli autovalori sulla gpu nvidia non viene semplicemente fatto
l'algoritmo, ma viene super ottimizzato e reso numericamente accettabile
(per non dare risultati sballati) seguendo strategie apposite di
calcolo numerico per minimizzare l'errore di calcolo (la libreria DEVE
essere affidabile, infatti nessuno si scrive le librerie di algebra
lineare ma si usa MKL oppure quelle di cuda).Non è questioni di
complotti e di sviluppatori pigri, come scrivono gli altri amd
convincerà gli sviluppatori quando farà l'alternativa a cuda con pari
performance ed ottimizzazioni e pari facilità di utilizzo.


Questo è il messaggio che un utente non riusciva a scrivere perchè cancellato più volte, non so chi sia, ma mi da solo fastidio che spariscano i messaggi e che invece certe castronerie dette siano ancora qui in bella vista

@b

monopattinoelettrico

è ufficiale c'è qualcuno che mi sgnala in massa con multiacc, perché è la 3 volta che sparisce il messaggio
lo riposto qui per completezza, ma è la risposta a quello sotto

2 rispose in una, questo commento e quello in cui dici (duzzu) che cuda è traducibile, cerco di far vedere le risposte anche a chi ti ha messo mi piace Luca Lindholm
cerco di spiegarvi come funziona senza arroganza, scusate la lunghezza del post:

1)Non puoi avere accesso a cuda una cosa è mkl che è compilato per x86 e puoi usarlo anche su amd(perchè le cpu sono entrambe x86), cuda sotto il cofano è tutto scritto a bassisimo livello e specifica per l'architettura nvidia, non puoi farci nulla perché amd e nvidia hanno architetture diverse

2)cuda non è traducibile e non lo sarà mai, al più le librerie che usano cuda possono essere tradotte ma con scarse performance (online ci sono versioni tradotte di tensorflow ma sono state abbandonate per scarse performance), visto che devi passare da opencl che è generico e non ottimizzato per le gpu (come è invece cuda per le gpu nvidia)

Probabilmente cuda non verrà sostituito mai, ameno che amd non riscuota successo con HIP (che è il cuda di amd per le proprie gpu, attualmente non all'altezza di cuda per usabilità) e che si sviluppino tool che prendono il codice ad alto livello e lo traducano sia in HIP che in CUDA.

Ovviamente amd deve pure farsi in casa tutte le librerie di alto livello che ad oggi un programmatore puo' chiamare; tipo tensorflow, uno scrive python e gira su gpu nvidia senza conoscere cuda, con amd non si puo' fare perchè amd NON ha quelle librerie (salvo che ora ci sta provando con tensorflow-rocm che però pare non decollare). Come ti dicono sotto amd se vuole affrontare cuda DEVE farsi da se la propria alternativa a cuda super ottimizzate per la propria architettura, ed in più DEVE scriversi le proprie librerie e renderle di facile utilizzo, magari ad alto livello. E non lo possono fare altri sviluppatori perché è necessario che chi fa la libreria abbia estrema conoscenza dell'hw per fare tutto in modo super ottimizzato, oltre ad essere un programmatore eccezionale con estrema esperienza in calcolo numerico; Esempio: quando richiami una funzione che ti calcola gli autovalori sulla gpu nvidia non viene semplicemente fatto l'algoritmo, ma viene super ottimizzato e reso numericamente accettabile (per non dare risultati sballati) seguendo strategie apposite di calcolo numerico per minimizzare l'errore di calcolo (la libreria DEVE essere affidabile, infatti nessuno si scrive le librerie di algebra lineare ma si usa MKL oppure quelle di cuda).Non è questioni di complotti e di sviluppatori pigri, come scrivono gli altri amd convincerà gli sviluppatori quando farà l'alternativa a cuda con pari performance ed ottimizzazioni e pari facilità di utilizzo.

monopattinoelettrico

Di nuovo il commento è andato inspm. E' evidente che c'è qualcuno (multiaccount fan di amd) che segnala perché non gli va bene che scrivo la verità. I moderatori dovrebbero punire queste segnalazioni improprie

riposto qui per completezza. Il commento originale era in risposta a duzzu acid

2 rispose in una, questo commento e quello in cui dici che cuda è
traducibile, cerco di far vedere le risposte anche a chi ti ha messo mi
piace Luca Lindholm

cerco di spiegarvi come funziona senza arroganza, scusate la lunghezza del post:

1)Non puoi avere accesso a cuda una cosa è mkl che è compilato per x86 e puoi usarlo anche su amd(perchè le cpu sono entrambe x86), cuda sotto il cofano è tutto scritto a bassisimo livello e specifica per l'architettura nvidia, non puoi farci nulla perché amd e nvidia hanno architetture diverse

2)cuda non è traducibile e non lo sarà mai, al più le librerie che usano cuda possono essere tradotte ma con scarse performance (online ci sono versioni tradotte di tensorflow ma sono state abbandonate per scarse performance), visto che devi passare da opencl che è generico e non ottimizzato per le gpu (come è invece cuda per le gpu nvidia)

Probabilmente cuda non verrà sostituito mai, a meno che amd non riscuota successo con HIP (che è il cuda di amd per le proprie gpu, attualmente non all'altezza di cuda per usabilità) e che si sviluppino tool che prendono il codice ad alto livello e lo traducano sia in HIP che in CUDA.
Ovviamente amd deve pure farsi in casa tutte le librerie di alto livello che ad oggi un programmatore puo' chiamare; tipo tensorflow, uno scrive python e gira su gpu nvidia senza conoscere cuda, con amd non si puo' fare perchè amd NON ha quelle librerie (salvo che ora ci sta provando con tensorflow-rocm che però pare non decollare).
Come ti dicono sotto amd se vuole affrontare cuda DEVE farsi da se la propria alternativa a cuda super ottimizzate per la propria architettura, ed in più DEVE scriversi le proprie librerie e renderle di facile utilizzo, magari ad alto livello.
E non lo possono fare altri sviluppatori perché è necessario che chi fa la libreria abbia estrema conoscenza dell'hw per fare tutto in modo super ottimizzato, oltre ad essere un programmatore eccezionale con estrema esperienza in calcolo numerico; Esempio: quando richiami una funzione che ti calcola gli autovalori sulla gpu nvidia non viene semplicemente fatto l'algoritmo, ma viene super ottimizzato e reso numericamente accettabile (per non dare risultati sballati) seguendo strategie apposite di calcolo numerico per minimizzare l'errore di calcolo (la libreria DEVE essere affidabile, infatti nessuno si scrive le librerie di algebra lineare ma si usa MKL oppure quelle di cuda).

Non è questioni di complotti e di sviluppatori pigri, come scrivono gli altri amd convincerà gli sviluppatori quando farà l'alternativa a cuda con pari performance ed ottimizzazioni e pari facilità di utilizzo.
spero di essere stato chiaro

monopattinoelettrico

ho riscritto sopra

Mostra 1 nuova risposta

Non so, o hai usato parole bannate oppure qualche link, riprova...

Duzzu non so se è un multiaccount di qualcuno, non sarebbe una novità, boh

B!G Ph4Rm4
*e sinceramente non capisco perché non si decidono a dividere la loro architettura in "ML-focused" e HPC puro

Questo è interessante. Alcuni paper suggeriscono addirittura di rimuovere completamente le classiche unità FP32 e FP64 visto che si possono comunque ottenere gli stessi risultati con tensor core e simili

B!G Ph4Rm4

Che i due prossimi supercomputer di cui si ha notizia saranno Intel e AMD non c'è dubbio, anche perchè rientrano in parte in un ottica di "made in america" come hanno spiegato più volte.

Non mi fraintendere, a me le CPU AMD piacciono tantissimo sotto ogni punto di vista, ma ciò non vuol dire che non abbiano scelto NVIDIA perchè erano troppo scarse le GPU, visto che al momento sono al vertice prestazionale.
Certamente verranno fuori supercomputer di categoria exaflop con acceleratori NVIDIA che tra l'altro penso otterranno prestazioni esagerate.

monopattinoelettrico

Mostra 1 nuova risposta
B!G Ph4Rm4
siamo sicuri che questo individuo non sia un clone di clone?
come è possibile che il messaggio lungo, approfondito ed educato che ho scritto sopra sia andato in spm dopo un ora?
un multi account mi deve aver segnalato, e non c'è molto passaggio in un articolo di un giorno fa, l'ho ripostato per sicurezza vediamo se salta pure questa volta

monopattinoelettrico

sotto ho scritto un messaggio di risposta all'altro utente, ho visto che gli hai messo mi piace e quindi ti avevo citato ma poi il messaggio è andato in moderazione ingiustamente.
quindi ti dico qui che quel messaggio è anche diretto anche a te, in pratica non puoi e non potrai mai avere accesso facile a cuda
dimmi pure che ne pensi a riguardo.

è scocciante che i messaggi vengano contrassegnati per spm e rimossi per non si sa quale ragione

monopattinoelettrico

riposto il commento perchè eliminato ingiustamente:

2 rispose in una, questo commento e quello in cui dici che cuda è
traducibile, cerco di far vedere le risposte anche a chi ti ha messo mi
piace Luca Lindholm

cerco di spiegarvi come funziona senza arroganza, scusate la lunghezza del post:

1)Non puoi avere accesso a cuda
una
cosa è mkl che è compilato per x86 e puoi usarlo anche su amd(perchè le
cpu sono entrambe x86), cuda sotto il cofano è tutto scritto a
bassisimo livello e specifica per l'architettura nvidia, non puoi farci
nulla perché amd e nvidia hanno architetture diverse

2)cuda non è
traducibile e non lo sarà mai, al più le librerie che usano cuda possono
essere tradotte ma con scarse performance (online ci sono versioni
tradotte di tensorflow ma sono state abbandonate per scarse
performance), visto che devi passare da opencl che è generico e non
ottimizzato per le gpu (come è invece cuda per le gpu nvidia)

Probabilmente
cuda non verrà sostituito mai, a meno che amd non riscuota successo con
HIP (che è il cuda di amd per le proprie gpu, attualmente non
all'altezza di cuda per usabilità) e che si sviluppino tool che prendono
il codice ad alto livello e lo traducano sia in HIP che in CUDA.
Ovviamente
amd deve pure farsi in casa tutte le librerie di alto livello che ad
oggi un programmatore puo' chiamare; tipo tensorflow, uno scrive python e
gira su gpu nvidia senza conoscere cuda, con amd non si puo' fare
perchè amd NON ha quelle librerie (salvo che ora ci sta provando con
tensorflow-rocm che però pare non decollare).
Come ti dicono sotto
amd se vuole affrontare cuda DEVE farsi da se la propria alternativa a
cuda super ottimizzate per la propria architettura, ed in più DEVE
scriversi le proprie librerie e renderle di facile utilizzo, magari ad
alto livello.
E non lo possono fare altri sviluppatori perché è
necessario che chi fa la libreria abbia estrema conoscenza dell'hw per
fare tutto in modo super ottimizzato, oltre ad essere un programmatore
eccezionale con estrema esperienza in calcolo numerico; Esempio: quando
richiami una funzione che ti calcola gli autovalori sulla gpu nvidia non
viene semplicemente fatto l'algoritmo, ma viene super ottimizzato e
reso numericamente accettabile (per non dare risultati sballati)
seguendo strategie apposite di calcolo numerico per minimizzare l'errore
di calcolo (la libreria DEVE essere affidabile, infatti nessuno si
scrive le librerie di algebra lineare ma si usa MKL oppure quelle di
cuda).

Non è questioni di complotti e di sviluppatori pigri, come
scrivono gli altri amd convincerà gli sviluppatori quando farà
l'alternativa a cuda con pari performance ed ottimizzazioni e pari
facilità di utilizzo.
spero di essere stato chiaro

monopattinoelettrico

2 rispose in una, questo commento e quello in cui dici che cuda è traducibile, cerco di far vedere le risposte anche a chi ti ha messo mi piace Luca Lindholm

cerco di spiegarvi come funziona senza arroganza, scusate la lunghezza del post:

1)Non puoi avere accesso a cuda
una cosa è mkl che è compilato per x86 e puoi usarlo anche su amd(perchè le cpu sono entrambe x86), cuda sotto il cofano è tutto scritto a bassisimo livello e specifica per l'architettura nvidia, non puoi farci nulla perché amd e nvidia hanno architetture diverse

2)cuda non è traducibile e non lo sarà mai, al più le librerie che usano cuda possono essere tradotte ma con scarse performance (online ci sono versioni tradotte di tensorflow ma sono state abbandonate per scarse performance), visto che devi passare da opencl che è generico e non ottimizzato per le gpu (come è invece cuda per le gpu nvidia)

Probabilmente cuda non verrà sostituito mai, a meno che amd non riscuota successo con HIP (che è il cuda di amd per le proprie gpu, attualmente non all'altezza di cuda per usabilità) e che si sviluppino tool che prendono il codice ad alto livello e lo traducano sia in HIP che in CUDA.
Ovviamente amd deve pure farsi in casa tutte le librerie di alto livello che ad oggi un programmatore puo' chiamare; tipo tensorflow, uno scrive python e gira su gpu nvidia senza conoscere cuda, con amd non si puo' fare perchè amd NON ha quelle librerie (salvo che ora ci sta provando con tensorflow-rocm che però pare non decollare).
Come ti dicono sotto amd se vuole affrontare cuda DEVE farsi da se la propria alternativa a cuda super ottimizzate per la propria architettura, ed in più DEVE scriversi le proprie librerie e renderle di facile utilizzo, magari ad alto livello.
E non lo possono fare altri sviluppatori perché è necessario che chi fa la libreria abbia estrema conoscenza dell'hw per fare tutto in modo super ottimizzato, oltre ad essere un programmatore eccezionale con estrema esperienza in calcolo numerico; Esempio: quando richiami una funzione che ti calcola gli autovalori sulla gpu nvidia non viene semplicemente fatto l'algoritmo, ma viene super ottimizzato e reso numericamente accettabile (per non dare risultati sballati) seguendo strategie apposite di calcolo numerico per minimizzare l'errore di calcolo (la libreria DEVE essere affidabile, infatti nessuno si scrive le librerie di algebra lineare ma si usa MKL oppure quelle di cuda).

Non è questioni di complotti e di sviluppatori pigri, come scrivono gli altri amd convincerà gli sviluppatori quando farà l'alternativa a cuda con pari performance ed ottimizzazioni e pari facilità di utilizzo.
spero di essere stato chiaro

NaXter24R

Ero curioso di vedere qualcosa su adobe e davinci su pugesystem ma ancora non hanno rilasciato nulla

Arale's Poopoo

negli applicativi professionali potrebbe andare peggio o in modo simile a quelle vecchie, perché RDNA e RDNA2 sono ingenierizzate per dare il massimo negli algoritmi usati nel gaming senza concentrarsi sul computing. Per quello AMD ha creato CDNA.

Arale's Poopoo

C´é un piccolo problema.

Alcune implementazioni OpenCL sono ormai datate e la maggioranza degli sviluppatori ha un know how maggiore su CUDA e sa meglio come ottimizzare il codice per farlo funzionare al meglio.

Il problema é che per una azienda, qualsiasi essa sia, il passaggio da CUDA a OpenCL vale la candela se in un determinato periodo di tempo X il costo di sviluppo, beta testing e bugfixing viene ampiamente ripagato quando lo metti in produzione.

Il che significa che, per farlo, AMD deve avere schede che in OpenCL riescono a fare la stessa cosa di CUDA in notevolmente meno tempo.

Poi potete citarmi ZLUDA, ma la realtá dei fatti é che generalmente si tende a non passare per questi layer aggiuntivi, anche perché possono creare problemi alla stabilitá del software (bug, crashes ecc.).

Arale's Poopoo

Intendi l´antitrust?
L´antitrust interviene da una 30ina di anni solo quando si figura un danno vero e inconfutabile per il cliente finale.

Ad es: Google sotto investigazione in USA e si prevede venga costretta a scorporare o vendere Chrome (o terminarne lo sviluppo).

Arale's Poopoo

Quando é uscita la recensione sono passati su Toms HW a dire le loro cavolate.

Arale's Poopoo

Il gioco varrebbe la candela, perché i Ryzen 3000 continueranno ad essere venduti per ora (il Ryzen 5600 liscio dovrebbe arrivare nel Q1 2021 a quanto pare), e alle risoluzioni piú alte (giá in 1440p) é la GPU a fare da collo di bottiglia nella maggior parte dei giochi.

A livello marketing peró il gioco non vale, perché sanno che i gamer con il passaggio a Ryzen 5000 e SAM supportato avrebbero un vantaggio prestazionale nella maggior parte dei giochi rispetto a Ryzen 3000 senza SAM.
Se lo porteranno su Zen 2 sará solo perché Nvidia decide di farlo imo.

Arale's Poopoo

Ah davvero? Una 2070 Super?
Come va?

E scusa se sono indiscreto, quanto l´hai pagata?

Arale's Poopoo

"Se amd ha costruito un "instruction set" per il resizable bar che funziona"

AMD non ha costruito niente per sua stessa ammisione.
C´era la funzionalitá, ha detto "boh, vediamo un po´ se migliora le prestazioni anche nei giochi", ha visto il risultato positivo e ha deciso di introdurla nel desktop. Di proprietario non c´é niente.

È come dire che da domani Intel decide di rinominare USB4 sulla propria piattaforma in "Blueport". Questo non cambia il fatto che Blueport, di fatto, sia usabile anche da AMD, dato che la specifica viene ridamata dall´USB forum. La differenza é che, essendo Blueport un nome commerciale, AMD non potrá usarlo. Lo stesso é con Re:BAR e SAM.
Ma poi non capisco, AMD stessa dice che SAM si basa esclusivamente su Re:BAR e discutete su eventuali estensioni proprietarie?

"che a mio modo di vedere porta le chiacchere di Nvidia a un livello da gossip del grande fratello."

Non capisco. AMD ha cercato di far passare la specifica come proprietaria (il che non é un male), finché Steve di GamersNexus non ha contattato Nvidia e ha chiesto "ehy, state lavorando ad una cosa simil-SAM?" e Nvidia ha risposto con "SAM si basa su Re:BAR che é una specifica PCI-E e lo faremo funzionare anche sulla piattaforma Intel".
AMD ha ricevuto tanta puú dalla community, ha confermato che SAM é solo un nome commerciale di PCI-E Re:BAR e adesso sta cercando di riparare lavorando con entrambe le concorrenti perché ha capito che altrimenti vende meno.

GigiSoftware

Se amd ha costruito un "instruction set" per il resizable bar che funziona, e a quanto pare Nvidia e Intel useranno quello, tutti partiranno da ciò che l is permetterà di supportare. Non è perché una cosa esiste che allora si può dire semplicemente ah ma la uso! Vedremo, al momento quelle di Nvidia sono chiacchere e basta, anzi, amd li sta aiutando a sfruttare resizable bar, che a mio modo di vedere porta le chiacchere di Nvidia a un livello da gossip del grande fratello.

Arale's Poopoo

Nvidia ha detto proprio di volerlo portare su Ampere invece.

Arale's Poopoo

Lo dico da tempo.

Zen2 ha lo stesso die I/O di Zen 3 (fonte: AMD alla presentazione), quindi non ci sono motivi reali se non di marketing perché il die I/O é quello che sostanzialmente da comunicare il processore con "l'esterno".

Arale's Poopoo

Sono stati costretti sostanzialmente.
La community era parecchio arrabbiata sia per la questione di Azor (ha preso in giro i clienti sostanziamente ed é capomarketing AMD), ma anche perché AMD diceva che era possibile solo su Radeon 6000 + Ryzen 5000, però poi Nvidia ha dichiarato a GamersNexus che ci stava lavorando pure lei, facendo fare ad AMD una figura barbina.

Frasi tipo "solitamente é Nvidia a bloccare i concorrenti" erano all'ordine del giorno (peraltro affermazione falsa).

Arale's Poopoo

AMD stessa ha dichiarato che SAM é un nome commerciale per Resizable BAR.

La differenza é solo che AMD é stata la prima, con merito, di esplorare la cosa per un uso in gaming, dato che la specifica esiste dal PCI-E 2.0 e viene usata da tempo nel

Anche per questo Nvidia ha annunciato di essere al lavoro von Intel per portarla su cpu con PCI-E 3.
AMD ci ha provato, ma purtroppo per lei non é riuscita a farla passare per feature proprietaria, e il reparto marketing se lo sarebbe dovuto aspettare.

B!G Ph4Rm4

Ha commentato negli ultimi tempi usando 800 nick diversi: robertino, giovanni rana ed altri.
Fortunatamente sembra che ci siamo liberati di loro adesso che le schede sono uscite

Alessio Ferri

Ma sei sicuro che lucusta commenta ancora? Non ho sue notizie da quando anni fa commentava su Tom's.

B!G Ph4Rm4

lupo alberto (aka herbert von qualcosa) e lucusta

Alessio Ferri

Chi sarebbero?

Alessio Ferri

Stica**i, Cuda non ha bisogno di imporsi (purtroppo, se no sarebbe uno standard condiviso)

Alessio Ferri

È perché sei offeso che non lo paghi o perché così diventa uno standard?

Alessio Ferri

Ma perché devi bloccarlo? Ultimamente la mena con la 2070 come un bimbo eccitato, ha una sua visione della storia politica italiana alquanto personale e tendenze un po strane, ma a parte questo in questi commenti girano marchette vere e proprie.

Alessio Ferri

Si dice che anche l'abbia pagata 400€.
Ma non so da fonti certe

Alessio Ferri

Niente, che devi ricevere? Non hai nè una scheda supportata da Nvidia da SMA (saranno supportate solo le 3xxx) nè un processore che supporta pci-e 4. Ci penserei tra 3 anni.

Alessio Ferri

Bloccano la funzione e mangiano tutto il mercato, un "autogol" che li porta a diventare trend-setter.

Matteo

cosi ha twittato Nvidia poi vedremo il risultato.
Non ti preoccupare che se AMD potesse tenersi il vantaggio lo farebbe non è che da una mano alla concorrenza

Mostra 1 nuova risposta

Devono lavorarci, bisogna vedere se dal loro punto di vista il gioco vale la candela.
Per un +5% probabilmente no... vedremo.

Maurizio Mugelli

non hanno detto di volerlo far funzionare sui prodotti attuali, a parte forse ampere dove con buona probabilita' gia' avevano le informazioni su cosa stesse facendo amd durante lo sviluppo.

hassunnuttixe

Come sarebbe la "versione NVidia" senza accesso ai microcode della CPU e dei chipset e ai Bios delle schede madri se questi li fanno solo Intel e AMD? Da soli possono solo usare la feature del PCI-E (se gli altri la abilitano) con un guadagno modestissimo, per fortuna i fessi di AMD aprono tutto e gli danno una mano....

Matteo

vedremo al momento hanno solo detto cosi bisognerà vedere cosa tirano fuori

Felipe Campos ™

Cosa c'entra pcie3?
Nel mio caso ad esempio ryzen 3700x mb x570, se riescono a farlo funzionare sulle ciofeche Intel non vedo il problema di farlo funzionare anche su zen2

GigiSoftware

Non se si fanno pagare eventuali istruzioni macchina. Non si fanno soldi solo con tecnologie esclusive nel mercato client ma anche a livello B2B.

GigiSoftware

Non hanno fatto uscire specifiche che io sappia. Sono solo parole. Se utilizzato le specifiche di amd, e penso sia così visto che è amd a dare una mano loro in questo fronte, non avranno cose esoteriche in più. Anche perché se fanno risultare la memoria delle GPU come memoria RAM e indicizzabile dalla CPU potrebbero avere maggiore latenza, ma queste cose sono solo cose che penso io.

Matteo

la versione di nvidia va anche su pciexpress 3.0 vedremo come sarà ma nel caso il "problema" sarà solo di chi ha tutto amd

GigiSoftware

Per tutti quelli che sperano la metto a livello meme.
Il protocollo è chiaro!
Verrà implementata solo sulle ultime generazioni di CPU poiché al 99% necessità di microcode nuovo. Chi ha zen 2 ecc, come me, ne farà a meno, idem Intel. Schede rtx 20 o GTX molto probabilmente saranno lasciate indietro, almeno inizialmente, come rdna 1.

shaytan79

A me sembra tanto un autogol.

La (mia) postazione da Creator: dal Desktop MSI al Monitor 5K Prestige

Recensione Mac Mini Apple Silicon M1, ho QUASI sostituito il mio desktop da 2K euro

Recensione HONOR Router 3: il miglior Router Wi-Fi 6 qualità/prezzo

Apple Silicon è il futuro di Apple: da desktop a smartphone, andata e ritorno