GeForce RTX 4090 Ti con 48GB GDDR6X e TDP a 900W potrebbe essere una realtà

12 Maggio 2022 130

Torniamo sull'argomento schede grafiche per un tema che, come ampiamente pronosticato nei giorni scorsi, terrà banco da qui fino all'autunno, periodo che dovrebbe coincidere con il lancio delle GPU next-gen NVIDIA e AMD. Oggi parliamo di NVIDIA e della serie GeForce RTX 40 "Ada Lovelace", una linea molto discussa nelle ultime settimane per via delle probabili specifiche tecniche e, soprattutto, dei consumi che potrebbe avere in rapporto alle prestazioni offerte.

Se con la presunta top di gamma GeForce RTX 4090 si potrebbe toccare finalmente il muro 100 TFLOPs, sul versante consumi le cose non si mettono proprio benissimo: questa scheda dovrebbe avere infatti un TBP base di 600 watt, valore che verrà ampiamente superato dai modelli custom che potranno contare sino a un massimo di due connettori PCI-E 5.0 (600+600 watt teorici).


Come avvenuto per la serie GeForce RTX 30 con la GeForce RTX 3090 Ti (Recensione), NVIDIA potrebbe avere già in cantiere una probabile GeForce RTX 4090 Ti, scheda di cui si inizia già a parlare e che sicuramente farà altrettanto discutere. Secondo le più recenti indiscrezioni trapelate dalla rete, il modello flagship basato su architettura Ada Lovelace sarà ancora più estremo, sia per le specifiche tecniche sia in termini energetici.

Andando più nel dettaglio, la versione più spinta di NVIDIA AD102 avrà lo stesso numero di Cuda Core della sorella minore - RTX 4090 - ossia 18.432; quello che cambierà rispetto all'attuale generazione sarà invece il quantitativo della VRAM che, stando a quanto riportato, potrebbe raddoppiare attestandosi a 48GB. La presunta GeForce RTX 4090 Ti avrà sicuramente frequenze di clock più spinte per la GPU, ma anche i chip GDDR6X saranno più veloci, si presume a 24 Gbps su bus a 384 bit (1,15 TB/s di bandwidth); il tutto ovviamente sarà accompagnato da consumi ancora più estremi che potrebbero toccare addirittura i 900 watt, raggiungibili proprio grazie a due connettori PCI-E 5.0 a 12pin.

Con tali caratteristiche, NVIDIA potrebbe riuscire nel suo intento di sforare i fatidici 100 TFLOPs, quello che però iniziamo a chiederci è: a quale prezzo? Diteci la vostra nei commenti.


130

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Superman

Guarda 3dmark time spy poi ne riparliamo

Alessandro M.

Si son d'accordo ognuno ha il pallino per qualcosa e la passione per qualcosa porta notoriamente a fare follie ....

Superman

Secondo questo ragionamento Si potrebbe dire lo stesso di chi si compra una macchina lussuosa.. Dovremmo girare tutti con la panda (senza nulla togliere) solo perché sia la. Panda che la macchina lussuosa di turno ti portano dal punto a al punto b solo che una costa poco e l'altra costa tanto? O anche di chi è appassionato di musica e spende cifre importanti in impianti stereo.. La musica la ascolti anche con la casse in plastica della trust, perché spendere migliaia di euro per uno stereo?

Passioni, si tratta di passioni.. Tutto qua..

Superman

Sono anni che sento la stessa storia, l'anno prossimo amd batte Nvidia ecc ecc.. Sto ancora aspettando che succeda.. Amd ha battuto Intel per ragioni diverse, sicuramente amd ha fatto un ottimo lavoro con i ryzen, ma è riuscita nel colpaccio anche perché Intel era ferma da anni sui 4 core che avevano 5/10% in più di performance ogni gen.. Nvidia al. Contrario di Intel non si è mai fermata. E poi come se non bastasse Intel é arrivata in ritardo di 2 anni sul suo processo produttivo causa problemi alle fabbriche, altrimenti avremmo visto gli alder lake contro i ryzen 3000 e non contro i 5000.. Hai presente che massacro sarebbe stato vero? E ad ogni modo Nvidia non può avere problemi con le fab perché semplicemente non le ha.. E se tsmc dovesse avere problemi amd soffrirebbe gli stessi problemi visto che entrambi i brand si affidano a tsmc per le schede in uscita.

Superman

per valutare le performance complessive in gioco si usa 3dmark time spy, non 3dmark cloud gate, sei andato a pescare il bench con il lanternino o semplice errore in buona fede?

prigioniero

Forse le prossime console si potrà giocare 4k nativo a 60

prigioniero

Li c'è l ottimizzazione dei giochi, ma sicuro nin giochi in 4k nativo, loro ti fanno pubblicità ingannevole, e non è giusto, c'è gente che spende soldi nei PC per passione, non è la stessa cosa te lo dico io che provo con mano il 4k anche se non a 60 , la differenza c'è

prigioniero

Prox schede nvidia tremera dalla paura , ci sarà un cambiamento come è successo con intel , amd ha battuto intel

prigioniero

https://uploads.disquscdn.c...

prigioniero

La 3070 vince solo di poco su passare, gli altri la 6700 hai sbagliato

Fifagi

non so...io la 2080 ti che ho venduto per la 3090 lo venduta quasi allo stesso prezzo di acquisto. Se ad ottobre/novembre sarà disponibile la 4090 dovrei vedere a quanto potrei rivendere la 3090 comprata a 1400...

Alessandro M.

Vabbè su questo ti do ragione anche io sarei disposto a pagare un cronografo meccanico 5 o 6k....per questioni di passione non c'è spazio per la razionalità.... però bisogna anche tenere conto della perdita di valore nel tempo in caso di rivendita....adesso non saprei, perché non sono un PC Gamer ma mettiamo un prezzo di acquisto di una ipotetica 4090 di 1500€ che userò per i prossimi diciamo 4 anni, al momento di rivenderla perché voglio acquistare quella nuova, questa quanto varrà?? Io penso massimo 350/400€ o sbaglio?....capisci dove voglio arrivare? Se spendo invece 3/400 € di console oggi tra 5 anni quindi a fine ciclo generazionale la posso anche buttare nel cesso perché non c'ho perso praticamente niente spalmando l'investimento di 400€ per 5 anni....

Fifagi

Un discorso del genere allora si potrebbe fare anche a chi paga più di 50 euro un orologio... Dipende sempre dalle proprie finanze, e da cosa si cerca.

Per farti capire, dato che purtroppo, per la mia semsibilità visiva, giocando ad un fps con un fov limitato e/o fps sotto i 90 mi viene la Nausea, avevo provato warzone su ps5: ecco, se giocavo là avevo la nausea, sul pc, potendo impostare il fov ed avendo maggiori fps no, anche provando sullo stesso monitor.
Per me voleva dire, in quel caso specifico, o giocarci o non giocarci affatto!

Alessandro M.

Vabbè ma qua stiamo già parlando di un altra cosa....scusa ma quando ci stanno in ballo cifre del genere solo per una scheda grafica e solo per lo sfizio di giocare per ME non è più giocare per divertirsi ma è qualcosa di più simile a una fissazione o malattia...

Fifagi

Dipende sempre come si gioca... Se devo spendere 500 euro per giocare a 30 fps, o se mi dice bene a 60 in giochi tipo Battlefield, control o cyberpunk, preferisco spendere anche 4 volte di più ma averne almeno 90/120 fps e fov Regolabile (io ho una 3090 oc da ottobre 2020 pagata 1400 euro... La. Ps5 l'ho invece venduta) con addirittura una grafica. Migliore

Monakois 94

Se continua il trend del x2 o anche del +50-60% a gen,allora giá con una medio gamma del 2024-2025 si potrebbe stare tranquilli fino a fine gen,fatta eccezione di quei soliti 4 titoli mattoni che escono sempre.

Negan Smith

Guarda che ci sono ancora tantissimi giochi in Dx11.

Superman

il terzo punto del tuo commento centra perfettamente il mio obbiettivo, andare sotto l'articolo di rumors su una possibile scheda video top gamma e parlare di quanto sia bella la console (oltre tutto iniziando col vittimismo di dire che noi pc gamer diciamo che chi compra console non capisce nulla) è fuori luogo, come lo sarebbe a parti invertite dove in un articolo che parla di console arriva il ganzo di turno che parla della 3080ti

riguardo la 3080 è sicuramente una bella scheda video, ma fare lo spesone oggi (soprattutto in virtù del sovraprezzo) con UE5 alle porte è follia.. come al solito gli standard son dettati dalle console quindi bisogna aspettare e vedere i giochi che lo useranno per bene che peso avranno, e solo allora cambiare scheda video, non so questa nuova generazione che prestazioni avrà (chi dice 1,5x chi dice 2x e chi 2,5x gen su gen) ma sembrano essere molto potenti

Superman

fosse uscito quando i giochi erano ancora in dx11 avrebbe meritato titoloni ovunque, è un po come se oggi inventassero dei treni a vapore che vanno il 30% più veloci... chi ne benficia?

Monakois 94

I video sicuramente.

Monakois 94
Superman

L'esempio della 3080 per maxare horizon zero dawn in 4k lo vedo poco calzante, appunto perché in 4k ci giocano in pochissimi, e sulle console non ci gioca nessuno (nativo) le risoluzioni di punta sono fullhd e 1440p, io l'ho giocato appunto a 1440p con una 1080ti, in fullhd mi sarebbe bastata una 1070ti.. Se poi avessi voluto giocare con settaggi grafici paragonabili alla console (quindi un mix tra medi e alti) invece che maxarlo mi sarebbe bastato meno.. Ed è di quello che si parlava, grazie al piffero che se parliamo di giocare sempre tutto maxato il pc costa una Fucilata rispetto alla console, riguardo gli utenti che non giocano online, altri che aspettano X mesi prima di comprare il gioco, usano key ecc.. Possiamo includere anche gli utenti che su pc comprano solo i giochi con online interessante e gli altri li scaricano.. L'utenza ha un comportamento vario.. Per questo si fa una media, e in media é innegabile che i giocatori console spenda o di più per i giochi.. E l'online anche fatto ogni tanto è un costo, in 5 anni di vita della console certamente non ammortizzi la differenza col pc, però é molto meno rispetto alla situazione iniziale.. Per cui il discorso che si faceva sopra è che contesta i ossia 500€ vs 1000€ è errato.. Poi chiaro che il pc costa di più, offre di più quindi costa di più.. Ci sta.

Monakois 94

Il mio eguagliare era teorico perché non ha senso paragonare le prestazioni di un pc attuale con una console che ancora deve accendersi.

"Però appena usciranno schede video a 5nm diventeranno le solite prestazioni da fascia medio bassa.."
In linea teorica é vero ma in pratica ci é voluta una 3080 per maxxare in 4k Horizon Zero Dawn,che é stato sviluppato su un hardware giá di fascia bassa del 2013 e se vuoi giocarlo alla stessa qualitá di PS4,ci vogliono componenti di gran lunga superiori perché su pc c'é un overhead allucinante.
L'ultimo esempio dei 10000 esempi é Elden Ring che su pc di fascia alta stuttera da morire mentre su console va abbastanza bene.

Il ragionamento é giusto ma ti invito a considerare diversi fattori importanti:

1. L'online a pagamento lo reputo una fesseria ma perché date per scontato che tutti si facciano l'abbonamento per giocare online o che nessuno utilizzi le Key per i vari abbonamenti anche su console? Ci sono tanti utenti che giocano offline o al limite si pagano qualche decina di euro ogni tanto.

2. I giochi su pc costano mediamente il doppio di quelli su console ma solo i AAA e solo se si vuole acquistare per forza al day one e allora ti chiedo,se la differenza tra questi giochi é di €30-40 (€40 pc vs €65-80 console),quanti AAA devi comprarti al day one solo per arrivare ad ammortizzare €800 di sovraprezzo?

Personalmente ho sia un pc da gaming che una PS4 ma ci sono tanti fattori da considerare perché in questi anni ne ho lette di cotte e di crude pur di elogiare la propria piattaforma preferita prendendo solo i punti positivi.

I 30 fps sono sempre stati lo standard sia perché oggettivamente sono il limite minimo con cui si puó giocare senza problemi e sia per evitare grattacapi software anche in virtú del fatto vanno in salotto su tv che al massimo sono state a 60hz.

Il pc é bello,costoso e senza limiti ma ci devi stare dietro mentre la console é piú pratica,costa meno é non ti fá preoccupare (troppo) di come girerá un gioco.

Superman

Con una 3060ti e una CPU che le sta dietro le hai belle. Che raggiunte.. Per carità, le prestazioni della 3060ti sono un buon traguardo eh.. Però appena usciranno schede video a 5nm diventeranno le solite prestazioni da fascia medio bassa.. Che per 500€ va anche bene, non sono un hater console.. Dicevo solo che il ragionamento secondo il quale "ah tu spendi 1000 e rotti € di pc, io ne spendo 500 quindi tu spendi il doppio di me per qualche effetto grafico in più" é troppo semplificato, perché se vai poi a guardare online a pagamento e giochi che costano di più in 5 anni la. Differenza tra un pc da gioco e una console non è così enorme, contando anche che quando poi esce la gen successiva tu cambi solo scheda video (perché una volta avevi un i7 quad core e te lo tenevi una vita) magari spendendo la stessa cifra che spendo io per console, ma poi c'è nuovamente la differenza di costi in 5 anni.. A sto giro con le console nuove per reggere il Confronto e andare oltre devi avere un 3700x o 9900k (che si trovano a poco), ma per le gen precedenti volendo potevi solo cambiare scheda video ogni tot anni.. Poi c'è il mercato dei componenti usati sulla quale si fanno ottimi affari e via dicendo.. Quindi la differenza non è così marcata se non è l'investimento iniziale per il primo pc, ma poi ci soe di quel che puoi e giochi a tutto senza troppi problemi, e a un frame rate che le console iniziano a vedere solo oggi, e nemme o su tutti i giochi (per me 30 fps sono inaccettabili)

Superman

Amd in fascia alta non ci è mai arrivata a Nvidia.. Le Vega, le fury, le 390x che erano 290x overcloccate.. Non aveva driver di chissà quale qualità.. ecosistema pessimo e via dicendo.. Era per questo che era messa sul patibolo.. Direi che da quegli orribili ricordi alla serie 6000 di oggi hanno fatto passi da gigante, quello si, ma la 6700xt è la 3070 non sono per nulla pari, basta guardare 3dmark (che è il metro di misura vero delle performance di una scheda) perché i giochi variano a seconda dello sviluppo, se si prende dirt 5 e AC valhalla allora le rx 6000 sono meglio delle rtx 3000.. Se prendi giochi ottimizzati per Nvidia é l'opposto.. Per questo servono i benchmark, per veder le potenzialità effettive di una scheda video senza che un gioco sia sponsorizzato da uno o dall'altro produttore di schede. Frs 2.0 bisogna vedere se davvero è comparabile al dlss in termini di boost prestazionale offerto e qualità visiva, il dlss odierno in un analisi digital foundry hanno dovuto fare zoom 400% per trovare difetti.. Quindi difficilmente mentre giochi ti accorgi se stai renderizzando in risoluzione nativa o meno.

Ma Detto ciò mi riferivo più che altro al lato cpu, con i vecchi processori amd era imbarazzante.. Non c'era competizione ne nulla.. Ed era lì che era messa sul patibolo ancora, ho fatto notare che mentre amd anni fa era letteralmente dominata dalla concorrenza oggi Intel e Nvidia non lo Sono.. Il giorno in cui dovessero esserlo allora andranno pure loro sul patibolo della community di appassionati, e ho fatto notare che sulle rtx 40 non si sa nulla di certo quindi di certo non meritano di finire sul patibolo per un rumor come invece si sottointendeva nel commento originale

Monakois 94

Oddio,le attuali console hanno una potenza di tutto rispetto che se vuoi anche solo eguagliare con il pc,devi spendere almeno €1200 e ho escluso dall'equazione l'ottimizzazione che hanno i giochi su di esse che é spaventosa.

Monakois 94

Non proprio perché fino alle Fury X del 2015 AMD é sempre stata competitiva lato performance ma tutti puntavano il dito solo ed esclusivamente sui consumi maggiorati.
Ricordo ancora la solfa della Fury X che "consumava molto di piú di una 980Ti" quando in realtá ci passavano solo 30W di differenza.

La 6700XT é pari alla 3070 in raster (gioco piú gioco meno) mentre per il DLSS ci sará l' FSR 2.0 che fará contenti tutti cosí (speriamo) senza doversi preoccupare di che gpu prendere.
Riamane solo il RT dove le prende ma anche lí il supporto é limitatissimo é per niente sviluppato in maniera ottimale.
Vedremo.

Superman

Un discorso corretto (quello di Gianluca) a mio avviso.. Perché va considerato tutto.. Perché io ho una spesa iniziale più alta, ma tu spendi di più in media per i giochi, paghi l'online, e a fine vita butti via la Vecchia e compri la nuova (e questi costi in 5 anni fanno una bella cifra) io si, ho una spesa iniziale più alta per asdemblarmi il primo pc da gioco, ma non sono obbligato a Giocare sempre tutto ultra e quindi aggiornare la scheda video ogni 2 anni che esce quella nuova.. In fullhd 60fps (e sottolineo 60 fps) va benissimo anche una 1070 ti che ha ormai i suoi anni, ad esempio.. Lascia stare il mercato che è andato in vacca a causa di Pandemia e guerra che hanno portato carenze ovunque, ma in condizioni normali di mercato con le schede video al loro vero msrp chi ha un 3700x, o una CPU dal 9900k in su se le tiene e passa dalla ipotetica 1070ti ad una 3060ti spendendo il giusto e ha raggiunto e superato le performance di una console di generazione attuale, guadagnando il dlss che è una bomba per far durare di più l'hardware.. Quindi all'inizio tu ti sei comprato una console (ps4 o xbox) a 500€ risparmiando rispetto a me che ho speso di più, in 5 anni però io ho risparmiato rispetto te sulle spese collaterali (costo dei giochi e online a pagamento) recuperando l'investimento iniziale più alto, e quando tu ti compri ps5 o Series x io con quei 500€ prendo una 3060ti tenendomi tutto il resto (perché se mi parli di serie S allora mi tengo la 1070ti e siamo li come esperienza di gioco)

Quindi fa benissimo chi considera anche i costi a lungo termine, perché se si parla in termini economici di quanto mi costa una cosa bisogna considerare anche questo, comodo dire "io ho speso 500 e tu ci spendi 1000 e rotti" ma per quanto comodo sia il ragionamento non è completo

Superman

Se si parla di gaming e relativi costi come ho detto sopra il paragone 500€ vs 1000€ è semplicistico.. Per i motivi detti sopra appunto

Alessandro M.
Alessandro M.

Qui se non si è capito si parla di gaming e relativi costi.... quindi per ME il paragone ci sta tutto a me non frega un caxxo spendere solo di scheda grafica 2500€ se non di più per giocare quando con una frazione del prezzo posso farlo tranquillamente...poi ognuno fa quello che vuole per carità.
La mia è una considerazione personale ovviamente.

gianluca campostini

Ma hai letto quello che ho scritto?
A parte che series s va neanche la metà della x, poi ci paghi 60€ all'anno per l'online e in 5 anni sei a 570. Senza contare che i giochi costano di più

Superman

io non starei troppo dietro a queste notizie... poi ognuno fa come crede

Superman

esatto, la TUA scelta.. è soggettivo. senza contare che l'analisi dei 500€ per la console e dei 1000€ per pc fullhd è quanto meno semplicistico, ci sono un sacco di fattori da considerare sul pc e sul costo differente dei giochi, sull' utilizzo di componenti usate e via dicendo, vero che oggi il mercato è quello che è (e infatti anche reperire una console a 500€ non è sempre facilissimo) ma in condizioni normali c'era un mercato di componenti usate a prezzi accessibilissimi. e in ultimo: la cosa più esilarante (per citare il tuo primo commento) per come la vedo io è commentare sotto un articolo relativo ad una presunta ed ipotetica 4090TI dicendo che le console costano meno e ti diverti uguale, non ha senso... è come entrare in un ristorante vegano a vender salami..

Superman

più che per i consumi in se era messa sul patibolo per il fatto che nonostante i consumi non fosse competitiva con la concorrenza, e per il calore ovviamente generato da quei consumi:

intel dal canto suo nonostante consumi più elevati graazie ad un ottimizzazione dello scambio termico ha temperature buone fino agli i7.. mentre l'i9 ci vuole un buon dissipatore (ma come del resto anche il 5950x, non credere che scaldi poco)

nvidia invece sulle serie 40 non si sa ancora niente di certo, ma se confrontiamo la 6700xt e la 3070 ci sono 20/30w (e 70€ di msrp) di differenza.. solo che in quei pochi watt in più che ha la 3070 ci sono da calcolare prestazioni in raster superiori rispetto alla 6700xt, ray tracing realmente utilizzabile e tensor core per il DLSS, stesso di scorso si può fare per la 6900xt e la 3080ti, 330w contro 350w, in raster son simili ma una ha dlss e ray tracing utilizzabile

per questo non si può mettere sul patibolo intel che nonostante il ritardo nel passaggio al processo produttivo successivo è riuscita a creare prodotti competitivi (ricorda che col monopolio ci perdiamo noi consumatori) così come non si può ad oggi mettere sul patibolo nvidia, perchè amd consuma leggermente meno ma non ha feature di alcun genere

Alessandro M.

Si be il tuo discorso ci sta anche, ma se da giocatore ho la scelta tra spendere 300€ per giocare subito e gamepass annesso e spendere 1000€ di PC per giocare in fhd (e senza monitor) la scelta mi ricade ovviamente sul primo caso....e il resto dei soldi li spendo in altro....e gioco bene comunque e mi diverto lo stesso.

Alessandro M.

Io ho pagato la series s 270€....ed è ottima....su un PC da gaming cosa ci compro con 270€?? Te lo dico io: una Minkia.

ilvendicatoreatomico

Il PC gaming è quello che viene definito stato dell'arte delle tecnologie attuali. Nessuno dice che sia più divertente. Se vuoi usare le ultimissime tecnologie, spendendo molto soldi, devi giocare PC. Se vuoi/puoi spendere 500 euro per una console è un'ottima scelta, macchina longeva e che ti farà divertire per 5 anni almeno. Però sono due cose diverse. Sarebbe come dire che la tua golf ti porta nello stesso posto di una Lamborghini. Vero, ma ci sono altri fattori.

gianluca campostini

Questa mi sembra follia, ok che anche i 500 watt sembravano folli invece sembra che la 4090 li superi quindi non si può mai dire, però 900 è letteralmente un piccolo forno elettrico

pietro

900wahahahahahahahahahahahahahah

gianluca campostini

Era un discorso che veniva fatto qualche anno fa quando con una scheda da 200/250 euro e un i5 da 170 euro giocavi per anni senza pagare stupidi abbonamenti per l'online, con un catalogo molto più vasto, giochi free2play e potevi fare anche altro oltre a giocare.
Se scrivi una gpu da 500 euro ti riferisci all'ultimo anno e mezzo, quindi 800 euro per una console

floop

Una volta AMD era messa sul patibolo per i consumi etc... mo Nvidia e Intel ?

roba per 3 o 4 persone sia dal punto vista costi che reperibilità

Maurizio Mugelli

che vuol dire "100 tflop con l'attuale efficienza non sono raggiungibili"?

la scheda fa 100 tflop e ha un'efficienza superiore a quella attuale, i dati sono questi.
se hai bisogno di 100 tflop o piu' questa e' la scheda piu' efficiente disponibile per il momento.

efficienza vuol dire lavoro (in questo caso espresso come tflop) diviso per energia consumata, non so cosa intendi tu.

Roxas3458

Il punto è questo però, 100 TFlop con l'attuale efficienza non sono raggiungibili. 900 watt non dovrebbero neanche essere presi in considerazione se non per utilizzo professionale.
Una 3090 ti consuma la metà ed è già tri-slot, quanto saranno grosse? Come li dissipi 900 watt? Quanto rame dovrai sprecare per tenere sotto controllo queste bestie?
E non sarebbe neanche un problema se fosse soltanto la 4090 ti la fuori di testa, ma le indiscrezioni parlano di aumenti anche sulle fasce inferiori non da poco.

Negan Smith

In realtà provarono a fare una console, ma finì malissimo.

Negan Smith
Negan Smith

Ancora vecchie notizie su Nvidia, quando ci sono una valanga di nuove notizie su AMD.
Tipo il +30% performance in Dx11 coi nuovi driver. Una sciocchezza, vero?

Max

Ironia portami via.....

Vash 3rr0r

Nei 25mq di spazio utile che restano di sicuro.

Recensione NVIDIA GeForce RTX 3090 Ti: l'ultimo grido di Ampere

Mac Studio e Studio Display ufficiali: il Mac mini cresce ed è potentissimo | Prezzi

Apple Silicon M1 Ultra ufficiale: due M1 Max in un chip solo

Recensione MSI GeForce RTX 3080 Suprim X 12GB: la custom che tutti vorremmo