
05 Febbraio 2022
20 Giugno 2021 194
Dopo la presentazione della GeForce RTX 3080 Ti Founders Edition (Recensione), i partner NVIDIA iniziano a rendere disponibili le prime varianti custom della nuova top di gamma GeForce RTX 30. Tra questi ovviamente non poteva mancare Gigabyte che ci ha fatto pervenire la sua fiammante GeForce RTX 3080 Ti Vision OC.
Gigabyte GeForce RTX 3080 Ti Vision OC si inserisce nella rinomata serie Vision dell'azienda taiwanese, una gamma di prodotti che offre il giusto mix tra design (non esagerato) e prestazioni elevate, senza dimenticare la qualità costruttiva. A tal proposito, abbiamo apprezzato le doti della serie Vision nella recensione dell'SSD esterno Gigabyte Vision Drive e, più di recente, nei test sulla scheda madre Gigabyte Z590 Vision G per piattaforma Intel "Rocket Lake-S".
Caratterizzata da linee eleganti - ma non anonime - e un sistema di dissipazione ad alto profilo, questa scheda arriva anche con overclock di fabbrica, superando in gaming una frequenza GPU oltre i 2 GHz (lo vedremo dopo nei test) con ottime temperature di esercizio. Tra le peculiarità della Gigabyte GeForce RTX 3080 Ti Vision OC c'è anche il supporto per NVIDIA Studio, una caratteristica che senza dubbio rende questa soluzione ancora più versatile e appetibile per i creator o quei professionisti che cercano un prodotto valido in diversi ambiti di utilizzo (vedi animazione 3D ad esempio).
Fatte tutte le premesse del caso, passiamo ora alla parte più interessante e scopriamo subito le specifiche tecniche della Gigabyte GeForce RTX 3080 Ti VISION OC che, come facilmente si intuisce dalla sigla, arriva con frequenze più elevate della Founders Edition (+45 MHz in modalità Boost). Nella tabella a seguire trovante un riepilogo delle caratteristiche della scheda, paragonate a quelle della GeForce RTX 3080 Ti FE e alle top di gamma di precedente generazione NVIDIA.
La tebella riportata sopra ci dice chiaramente che la GeForce RTX 3080 Ti è sostanzialmente una RTX 3090 con memoria video dimezzata; la GPU è quasi identica (mancano due unità SM e 256 Cuda Core), ma le prestazioni nei giochi e la potenza di eleborazione della GPU sono in linea con la sorella maggiore. Questa similitudine non si ferma solo alla GPU ma vale anche per l'estetica: se GeForce RTX 3080 Ti FE risulta praticamente identica alla GeForce RTX 3080 FE, lo stesso scenario si ripropone quando paragoniamo la Gigabyte RTX 3080 Vision OC con la nuova Gigabyte RTX 3080 Ti Vision OC.
Ideata principalmente per creator e professionisti (ma non solo), Gigabyte GeForce RTX 3080 Ti Vision OC si fa notare per il design particolarmente curato ed elegante senza le esagerazioni che spesso vediamo sui modelli custom. C'è da dire anche che, come altri partner NVIDIA, Gigabyte vanta a catalogo diversi modelli della RTX 3080 Ti, offrendo soluzioni ancora più spinte come le varianti AORUS WaterForce, dotate di tre connettori PCI-E 8pin e TDP completamente sbloccato.
Generosa in dimensioni (320x126x55mm), la scheda occupa quasi tre slot PCI ed è coperta da un imponente dissipatore tri-ventola con top in alluminio che si sposa in modo armonioso col bianco delle ventole.
L'illuminazione RGB è presente anche se in misura molto contenuta, limitata al solo logo Gigabyte, ma comunque compatibile con il sistema proprietario RGB Fusion 2.0. La scheda Gigabyte viene alimentata da due connettori PCI-E 8pin, soluzione che troviamo su molti modelli custom e in particolare su quelli che riprendono il TDP della Founders Edition di NVIDIA (ossia 350W).
Oltre a supportare la piattaforma NVIDIA Studio, la Gigabyte GeForce RTX 3080 Ti Vision OC conferma la propria inclinazione al mondo dei creator anche con un reparto I/O che prevede tre Display Port 1.4a e due HDMI 2.1; non manca infine l'utility proprietaria AORUS Engine che permette di gestire e monitorare i parametri della scheda (frequenza, temperature, ventole) oltre all'illuminazione RGB del logo aziendale.
Viste le caratteristiche proposte, merita un minimo approfondimento il sistema di dissipazione utilizzato da Gigabyte su questo nuovo modello. A bordo è presente un WINDFORCE 3X con tre ventole a rotazione alternata (due da 90mm e una da 80mm), design blade e tecnologia 3D Active Fan che garantisce un raffreddamento semipassivo della scheda entro un range prestabilito di temperatura e carico di lavoro (60 °C di default).
Il generoso dissipatore è costituito da un'ampia base in rame che raffredda GPU e memorie: da qui partono poi 7 heatpipe (sempre in rame) collegate ad un fitto corpo di alette in alluminio. L'altro lato del PCB non è meno curato e presenta un robusto backplate in metallo che da un lato contribuisce a migliorare l'estetica, dall'altro ha il compito di proteggere la scheda, favorendo la dissipazione della componentistica (Gigabyte Ultra Durable) attraverso diverse feritoie asimmetriche.
Per il lancio della NVIDIA GeForce RTX 3080 Ti abbiamo messo insieme una nuova suite di benchmark che prevede l'utilizzo di diversi titoli (più o meno recenti), passando anche per i benchmark sintetici. Le GPU sono messe alla prova con tre diverse risoluzioni - 1080p, 1440p e 2160p - dettagli massimi e precise indicazioni quando andremo a variare i settaggi.
Dove supportato abbiamo utilizzato ovviamente il ray-tracing, senza focalizzarci esclusivamente su questo aspetto in quanto - come discusso in altre occasioni - aspettiamo che AMD sia pronta con la tecnologia FSR per proporre uno scenario più omogeneo; discorso simile per la funzionalità Resizable BAR che, anche se ormai disponibile ormai su Intel e NVIDIA, abbiamo pensato di approfondire in un secondo momento. Come forse saprete, abilitare questa funzionalità può portare qualche beneficio in termini di FPS, tuttavia in linea di massima i miglioramenti non sono apprezzabili in tutti i giochi, risultando a volte praticamente trascurabili.
A seguire la piattaforma hardware utilizzata per testare le prestazioni della Gigabyte GeForce RTX 3080 Ti Vision OC:
A seguire invece l'elenco dei titoli presi in esame per i benchmark:
Guardando alle caratteristiche della Gigabyte GeForce RTX 3080 Ti Vision OC, non possiamo aspettarci uno stravolgimento prestazionale rispetto alla variante Founders Edition; i 45 MHz di overclock incidono poco ma permettono comunque di ottenere qualche FPS in più, il tutto ovviamente in base al titolo preso in considerazione.
La proposta di Gigabyte conferma ulteriomente la superiorità della serie GeForce RTX 30 quando parliamo di ray-tracing, il tutto in attesa che AMD presenti la tecnologia FSR (FidelityFX Super Resolution). Nei test meno impegnativi notiamo che la nuova custom riesce a battagliare al meglio anche nei titoli dove AMD è in vantaggio, facendo sentire il peso degli 80 RT Cotre quando abilitiamo RTX in giochi come Control, Cyberpunk 2077 o Watch Dogs: Legion.
Analizzando le slide relative alle prestazioni, i più attenti avranno notato come la GeForce RTX 3080 Ti - così come la Radeon RX 6800 XT - possono facilmente creare scenari dove le prestazioni sono limitate dal processore (soprattutto in risoluzione FHD). Proprio per questo motivo è importante dimensionare bene le componenti del sistema quando siamo orientati su una scheda grafica di questa portata. Con l'Intel Core i7-11700K questa problematica non si pone più di tanto, ma sarebbe interessante vedere GeForce RTX 3080 Ti e Radeon RX 6800 XT in un testa a testa con un Core i9-11900K completamente sbloccato.
La GeForce RTX 3080 Ti è una scheda molto potente, ma risulta altrettanto esigente in quanto a dissipazione della componentistica. Se pensiamo che la GPU è praticamente la stessa della RTX 3090 con TDP a 350W, il calore prodotto sarà di conseguenza superiore a quello di una GeForce RTX 3080 (che ha anche 2GB di VRAM in meno). Non avendo testato la Gigabyte RTX 3080 Vision OC, ci manca oggettivamente un punto di riferimento con il precende modello; nonostante questo, dopo aver testato la scheda per circa una settimana, possiamo affermare che il sistema di dissipazione confezionato da Gigabyte risulta molto ben bilanciato sotto il profilo prestazioni/rumorosità, caratteristica da non sottovalutare quando parliamo di un prodotto rivolto ai creator (che cercano un sistema che sia anche silenzioso).
Il dissipatore WINDFORCE 3X opera di fabbrica con un profilo semipassivo: le ventole si attivano a 60°C e iniziano a stabilizzare la temperatura della GPU che, ricordiamo, influisce direttamente sulla massima frequenza Boost raggiungibile; il tutto ovviamente è modificabile semplicemente via software.
Andando più nel dettaglio, utilizzando le impostazioni di default avremo una scheda fanless a riposo che sotto carico lascia quindi partire le ventole a 60 °C; lanciando uno stress-test di qualche minuto (Furmark), abbiamo rilevato che la Gigabyte RTX 3080 Ti Vision OC si assesta a circa 69 °C di picco per quanto riguarda la GPU e 84 °C per la VRAM. In questo contesto la ventola imposta il suo regime rotativo nell'ordine del 62% (1.600 RPM circa) con rumorità massima misurata in 38 dBA (intero sistema).
Per completezza ovviamente abbiamo svolto altri test con ventola impostata manualmente. Ecco i risultati:
Come facilmente si intuisce dal grafico, non è consigliabile settare manualmente le ventole al 50%. Il sistema di dissipazione Gigabyte è ottimizzato per gestire questa scheda con un regime rotativo medio del 60%, sotto questa soglia le temperature iniziano ad essere troppo elevate, non solo per la GPU ma anche e soprattutto per le memorie GDDR6X che arrivano a 92 °C. Il dato in realtà non deve spaventare, queste VRAM possono operare in un range sino a 95-100 °C, ma è evidente che rimanere così vicino alla soglia massima può incidere a lungo termine sulla vita utile del chip.
Come anticipato sopra, l'aumento di temperatura porta anche ad un calo della frequenza Boost della GPU, motivo in più per non preferire un profilo con ventole impostate a medio regime. Da specifiche, la Gigabyte GeForce RTX 3080 Ti Vision OC opera con frequenza Boost di 1.710 MHz, ossia 45 MHz in più rispetto alla Founders Edition; va ricordato però che questo dato non si riferisce alla frequenza massima raggiunta dalla GPU che, grazie da Ampere GPU Boost 5.0, può arrivare a oltre 2 GHz.
Nel nostro caso, con impostazioni di fabbrica il modello Gigabyte raggiunge i 2.015-2.020 MHz in modalità Boost; per farvi capire però quanto incidono le temperature sul Boost 5.0, pensate che settando le ventole al 100% - mantenendo inalterati gli altri parametri - abbiamo guadagnato altri 20 MHz toccando i 2.040 MHz in game.
Per quanto riguarda l'overclock non avevamo particolari aspettative, in primis perchè il TPD della RTX 3080 Ti Vision OC è quello reference NVIDIA (350W), lasciando poco spazio di manovra per incrementare frequenze e tensioni. Servendoci del software AORUS Engine, siamo comunque riusciti a incrementare la frequenza GPU Boost di altri 95 MHz con memorie GDDR6X impostate a 10.500 MHz (21 Gbps effettivi).
Per l'occasione è stato sbloccato il Power Limit e le ventole sono state impostate al 100%, il tutto ha portato a una frequenza Boost di picco di 2.130 MHz, risultato decisamente notevole per una GPU come Ampere GA102. Se vi state chiedendo invece quanto consuma questa Gigabyte GeForce RTX 3080 Ti Vision OC, la risposta è circa 350W con impostazioni di fabbrica (354W di picco) e sino a 364W quando abbiamo praticato l'overclock.
Chiudiamo invece con un grafico che riporta l'incremento prestazionale ottenuto in alcuni giochi con l'overclock da noi praticato. Dopo qualche ora di test abbiamo in realtà notato che, seppur stabile, un overclock di 95 MHz sulla GPU non portava particolari benefici, penalizzando in alcuni casi il risultato finale del test (probabilmente per via della tensione non sufficiente). Per questo motivo siamo leggermente scesi di frequenza stabilizzandoci a +75MHz per la GPU e +1.000MHz per la VRAM.
Giunti alla fine di questa recensione sulla Gigabyte GeForce RTX 3080 Ti Vision OC, le conclusioni a cui siamo giunti non differiscono molto da quelle viste per le ultime schede grafiche da noi testate. La situazione in cui versa il mercato GPU non permette di fare un'analisi reale del rapporto prestazioni/prezzo, lasciandoci spazio per analizzare cosa offre oggettivamente il prodotto per la sua ipotetica fascia di mercato.
Detto questo, la versione custom di Gigabyte della GeForce RTX 3080 Ti è un prodotto decisamente valido: compito facile se guardiamo alla scheda tecnica della GPU direte voi, ma in realtà si tratta di un risultato tutt'altro che scontato. L'ultima scheda top di gamma NVIDIA è decisamente esigente in quanto a dissipazione, ma la soluzione proposta dall'azienda taiwanese riesce a gestire il tutto senza problemi e soprattutto con ottimi risultati per quanto concerne la rumorosità.
Abbiamo ribadito che questa non è la custom più spinta del produttore, ricordando invece che siamo di fronte a un modello con supporto NVIDIA Studio pensato anche per creator o professionisti che guardano a una soluzione silenziosa. Il dissipatore WINDFORCE 3X fa un ottimo lavoro con impostazioni di fabbrica, a nostro avviso però il giusto compromesso quando si effettuano lunghe sessioni di gioco o lavoro (parliamo di ore) è quello di settare manualmente le ventole al 70%, non tanto per il chip grafico quanto per le memorie GDDR6X, decisamente "sensibili".
Nonostante quanto detto finora, il risultato ottenuto in overclock sulla Gigabyte RTX 3080 Ti Vision OC non è affatto male, in particolare per quanto riguarda la memoria GDDR6X che arriva senza problemi a 21 Gbps (contro i 19Gbps di fabbrica). Venendo al prezzo, Gigabyte GeForce RTX 3080 Ti Vision OC ha un costo di circa 1.900 euro ma è già apparsa su alcuni negozi online a 2.000 euro, una cifra più alta del prezzo suggerito da NVIDIA per la Founders Edition che, ora più che mai, è puramente indicativo (diciamo pure lontanamente indicativo). La soluzione di Gigabyte in realtà si colloca nella stessa fascia delle altre custom dei partner, il tutto ricordiamo in un momento dove i prezzi di listino fluttuano di continuo.
NZXT H5 Flow con Kraken Elite 280, la recensione di una build votata all'eleganza
Recensione Asus ROG Swift PG42UQ, 42 pollici di puro godimento!
ROG Ally: abbiamo provato l’interessante ibrido tra console portatile e PC | VIDEO
NVIDIA Studio e Omniverse, come annullare 7.000 Km grazie alla tecnologia
Commenti
A 2000€ pretendo oltre alla32080ti, un ryzen 5900x, 32gb ram, scheda madre top, case,alimentatore, ssd nvme 1tb.
Questa frase ha letteralmente stufato: è TUTTO il sistema che traina i prezzi verso plutone, queste NON sono l'eccezione e TUTTO sta diventando LA REGOLA. Mi spiego meglio per chi ancora fa finta di NON capire: hanno esagerato in modo che a dire ossessivo compulsivo è dire poco e io cose FATTE in Cina o Paesi dove questi signori non pagano una ceppa di tasse non do neanche un cetesimo e spererei che neanche il resto della popolazione MONDIALE non butti il proprio denaro. Se lor signori pensano che il futuro dell'informatica o della tecnologia sia solo per chi ha denaro da buttare credo si siano fatti i conti sbagliati, credo che farebbero meglio a riprendere in mano la calcolatrice o il pallottoliere che l'algoritmo, che NON è IA, fatto da loro sia errato. Hanno mai studiato filosofia della politica? Meglio: hanno mai aperto un libro? No? Allora è meglio che inizino a farlo cominciando da Hobbes.
Nessuno ti obbliga ad acquistarli, prima o poi la gente si sveglierà e imparerà che non è il numeretto o la data di rilascio a fare la differenza.
Scusate ma chi è quel cretino o fuori di senno che acquisterebbe queste vere e proprie ciofeche? Spero vivamente che questo mondo dell'elettronica fallisca nel più breve tempo possibile: schede video create per fare criptovalute (da denuncia penale); prezzi aumentati come minimo del 1000% e per fare cosa? TV 8k dove le trasmissioni a stento sono HD, CPU intoccabili (a partire da700€) quando a suo tempo acquistai una CPU icore 7 4771 a 250€. Capisco che se vogliono farsi coprire dal ridicolo ci sono riusciti in pieno, come dite voi? Hanno centrato la mission.
Mi conosci? Mi sa di no.
Mezza sega. Ahahah.
A me. Ahahah. Siete simpatici quando date giudizi del genere, poi vi si soffia contro e vi si cancella anche dalla carta di identità.
Alert su telegram. Si qualcuna si trova ma stiamo ancora sui 500 e tempi di consegna lunghetti, luglio/agosto per capirci. Io in teoria ne ho una (3060) bloccata a 530 e devo decidere che fare visto che alla fine ho trovato altro. Nel senso, il prezzo è quello e quindi finchè non spediscono posso annullare, mi scoccia annullare se magari poi serve a qualche amico all'ultimo
Si guardale. Non c'è specifica per il calibro dei cavi e quindi loro hanno messo 150 che è il minimo. Guarda la 295X2 e chiede espicitamente 28A per 28 pin.
Sei in un territorio dove l'ignor4nza (non vuole essere un'offesa nei tuoi confronti sia chiaro) non è tollerata. Spendi 2k di scheda, sai cosa vuoi, sai cosa ottieni e probabilmente la usi anche per altro. I 3 connettori li mettono per far f1go, perchè oggettivamente non servono se non sotto LN2, e anche in quel caso ho forti dubbi visto che generalmente sai che tiri praticamente 1kw per scheda e quindi hai un buon alimentatore e quindi per proprietà transitiva, quegli alimentatori hanno dei cavi decenti.
Come riferimento:
https://www.tomshardware.com/reviews/graphics-card-power-supply-balance,3979-6.html
Non hai idea di quanta gente ha alimentatori del piffero pur avendo un hw di livello.
Beh non c’è nulla di male ad ammettere la verità poi
Queste schede non esistono nel mercato gaming/lavorativo/desktop. Le poche che producono (poche rispetto al normale, a causa della pandemia) spariscono tutte...
A me non sembra molto furbo lasciare a bocca asciutta milioni di persone che compravano i tuoi prodotti per pochi eletti che tra l'altro speculano e basta... Alla fine la paghi cara. Se provano a limitare il mining e ci riescono magari salvano la faccia.
Beh se si può usare per minare meglio prendo la 3090 oltre al fatto che i prezzi sono più o meno simili e 400 euro in più non è che cambi molto,se uno ha i soldi.alla fine è anche un investimento se vuoi fare soldi con il mining
Acciderbolina
Perfetto, abbiamo chiuso. :(
lo sanno tutti che il vetro aumenta del 10% le prestazioni del pc. se poi le schede interne sono pure belle devi aggiungere un ulteriore 10% :D
ho letto benissimo, pene di segugio. passo e chiudo.
Volevo dire vendite/fatturato record, ossia i numeri non delle singole schede, infatti una 3080 vale cinque 1060, ed è ovvio che Nvidia a visto crescere il fatturato contro il crollo del titolo in borsa, comunque non eccessivo,
Non ha senso osservare i dati steam.
Se fai altri due padre nostro...
Ma io contesto appunto il commento generale positivo. È una scheda che non aggiunge niente al mercato. Rimanendo sui prezzi di listino sul sito nvidia (che sono comunque irreali visto che ne hanno pochissime), hai comunque un aumento del 5% delle prestazioni rispetto alla 3080 ma costa il 10-15% in più.
Come si fa a definirlo un prodotto valido? La scheda è sbagliata alle fondamenta, questa versione custom sarà anche ben curata come da tradizione Gigabyte ma non è consigliabile a nessuno.
I recensori che seguo come Gamer Nexus ecc ci stanno andando giù duro e fanno bene. :) Un po' più di spirito critico male non fa.
Ciao Mostra 1 nuova risposta,
Spiace che il tuo concetto di credibilità si fondi su una frase, mozzata ed isolata dal contesto. Leggendo tutto il paragrafo si capisce benissimo che il giudizio si basa su quelle che sono le caratteristiche e il relativo andamento. Si scrive che è un prodotto valido, non conveniente o economico. Che i prezzi in questo momento siano esagerati lo sappiamo benissimo tutti e nessuno sta cercando di convincervi che siano corretti, così come nessuno vuole giustificarli. Ci si limita a raccontare come vanno le schede senza sbilanciarsi sul giudicare il prezzo estremamente volatile che, come sappiamo, è frutto di un momento molto particolare e che speriamo possa finire al più presto. Sta poi all'utente, in base a quelle che sono le sue disponibilità economiche, decidere quando il prezzo sarà sufficientemente basso da valutarne l'acquisto.
Mi sa che devi rileggere. O farti spiegare il significato delle parole. In estate fanno anche corsi di recupero. Bacione
Io ci lavoro eppure Steam ce l'ho e ogni tanto (raramente) chiede di fare il sondaggio. E guardacaso ho una 1060.
Ha una base di utenti così grande che la statistica è assolutamente affidabile. Inoltre cambia la base utenti di mese in mese, quindi rimane affidabile nel tempo e il fatto che non ci siano mai grossi cambiamenti di mese in mese conferma l'attendibilità statistica dei dati.
Inoltre chi si compra ste RTX da 2000 euro che praticamente servono solo per giocare? (per lavoro sono sovradimensionate). Gli uffici no di certo.
Chi fa rendering le prende solo se è costretto, chi sviluppa videogiochi se le può permettere ma son ben pochi.
Eppure l'immagine è evidente. Sono rarissime. Altro che successo di vendita. Forse tra i miner in cina, qui da noi ne arrivano col contagocce
Ma non è assolutamente vero.
Le serie che vendono parecchio scalano immediatamente la classifica di Steam delle schede video, la 1060 era balzata immediatamente al primo posto ed è ancora lì nonostante sia parecchio vecchia. Ma a prezzi simili cioè sotto i 300 euro compri solo GT 710
Quindi il tuo e' un giudizio soggettivo, il mio no. capisco. su una cosa hai ragione: l'ignorante sono io che penso che la gente capisca che il mio e' un giudizio personale. dovrei starmene zitto cosi' i geni come te non si sentano superioni. grazie caxxone.
oh, ma hai finito di fare il difensore delle ovvietà?? ma porc...
"beh, ma è il prezzo del mercato"
"beh, ma è la legge della domanda e dell'offerta"
"beh, ma possono rifiutare i contratti"
"beh, ma non fanno nulla di male a pagare poche tasse"
oi, non commentare più, ti faccio un bot che commenta in automatico e spara ste 4 frasi a rotazione. ascolta me, ci guadagni in tempo! chessò, vai al bar e ubriacati!
Ah beh. Se lo dice sancho panza e mister ITX ok.
Mio 'cugggino' non c'entra, sono i Prodigeek.
Seguili anche tu. ;)
va beh ma cosa centra, devi guardare le certificazioni. poi puoi anche farne passare 2kw se vuoi. morale, se metti 2 connettori è perchè la tua intenzione è quella di limitare questa cosa. non è un caso se tutte quelle a 3 connettori vanno (e possono andare) di più
Non esiste solo bianco o nero, esiste il grigio.
Chi cerca di coniugare una configurazione equilibrata in tutto ma che sia anche bella (soggettivamente parlando) non significa vi sia ignoranza.
A quanto pare quella la troviamo nei tuoi commenti, visti i giudizi dato a pene si segugio. Passo e chiudo.
Tuo cugggino?
dipende dai giochi.
su pc ho oltre quasi 400 giochi solo su steam piu' tutti quelli negli altri store,
non passerei mai ad un'altra piattaforma.
e poi un pc lo uso anche per altro, la console la userei solo per giocare.
ovvio pero' che a questi prezzi non cambierei mai la mia rx580, vedremo il prossimo anno se i prezzi torneranno normali
lato hardware non so neanche se hanno mai avuto credibilita'.
figurati ora che parlano per lo piu' di smartphone, e ora si sono messi pure a parlare di spazio, scienza, cinema, motori (che poi anche qui, ormai parlano di qualsiasi cariola abbia un motorino elettrico e 2 batterie), ecc...
Sinceramente mai viste a 400 euro negli ultimi tempi, come fai a vedere quando escono a quel prezzo scusa? le RTX 3060 si trovano?
Una Xbox series X se ti metti a cercarla la trovi, la PS5 un mio amico l'ha comprata un mese fa da un noto store a Roma, semplicemente chiedendo in giro, c'e gente che si mette in lista da più parti e poi magari non le va a ritirare perchè le trova da altre parti e dai noti store le paghi al prezzo loro non con il sovraprezzo come queste gpu
Non mi riferivo a queste ultime TI. Tutta la serie 3000 ha venduto parecchio.
badare al design per un pezzo hardware,al di fuori di quello del case, denota che si ha piu' interesse per l'occhio che per le prestazioni. quindi dimostra quanto siamo ignoranti in materia. io sono dell'idea che la scheda debba darmi quello che chiedo e basta. se poi e' anche bella e' solo un plus. ma non un motivo di scelta.
Chiedo... non sono informato su Steam... quella tabella riassume le schede video usate dai giocatori registrati sulla piattaforma? Se si, siamo tutti d'accordo che la gpu non serve solo per giocare?
PAROLE SANTE!!!
Io pure ho la tua stessa GPU e devo dire che in 1080p riesco a giocare a tutto. Non sento la mancanza di RT (ancora inutile nei giochi) nè di DLSS. A questi prezzi mi passa l'appetito ma non la voglia di augurare a miners e scalpers che tutto i soldi che rubano li possano spendere in supposte per il cagotto a spruzzo.
siamo su hdblog...
Ovvio. Ma il punto è un altro. La menzione al design per un componente che sta chiuso in un case e nessuno vede, ed è falso. Quindi è ovvio sì badi anche al design.
Vabbe', commento del caxxo per fare il simpatico. Ci sta. Anche se rimane stupid0.
Si, ma se Nvidia decide di far la splendida e fissare un MSRP che solo lei può rispettare, il partner passa per quello cattivo
O per passare per quelli buoni. Il caso della 3060ti è documentato. Solo che non sapremo mai le cifre a cui vendono, sono coperte da NDA
Li pagano qualcosa in meno ma non 30€.
So cosa usa Gigabyte di solito, ho visto qualche foto in giro. Appena mettono le foto su TPW o altri siti se vuoi ti faccio i oonti esatti.
Ti svelo un segreto, da un 8 pin passano più di 150W. Ma tanti di più. Le 295x2 tiravano quasi un kw da due 8 pin.
Bhe, il prezzo riflette il periodo in cui ci troviamo, per chi può aspettare allora sicuramente è meglio aspettare che finisca la carenza di chip, ma per chi non può evidentemente si dovrà accontentare di comprarle a quel prezzo..
esistono anche quelli tondi... ma non vuol dire che tutti li comprino.