
08 Marzo 2023
A circa un mese dall'annuncio avvenuto al CES di Las Vegas, debuttano ufficialmente oggi GeForce RTX 4090 e GeForce RTX 4080 Laptop, ossia le varianti ottimizzate per notebook delle GPU NVIDIA Ada Lovelace che abbiamo visto all'opera sui tre modelli desktop presentati finora dall'azienda: GeForce RTX 4090, GeForce RTX 4080 e, ultima in ordine d'arrivo, GeForce RTX 4070 Ti. Come discusso nei nostri precedenti articoli, il salto generazionale ottenuto da NVIDIA con la nuova architettura arriva attraverso diverse ottimizzazioni e rivisitazioni (hardware) importanti, affiancate a un ecosistema software che cresce di pari passo e si concretizza - almeno per questa generazione - nel DLSS 3.0.
Nella recensione di oggi ci occuperemo nel dettaglio della nuova top di gamma, la GeForce RTX 4090 Laptop che, al pari della mastodontica "sorella" da 450 watt, si pone al vertice dell'offerta consumer, non solo per prestazioni ma anche per l'efficienza rispetto ai modelli più potenti di precedente generazione.
Se sui notebook basati su GeForce RTX 3080 Ti Laptop si erano già raggiunti risultati che non hanno niente da invidiare alle controparti desktop, NVIDIA con le RTX 40 punta ancora più in alto, mettendo - come vedremo - quasi in discussione la necessità di un PC gaming desktop (ovviamente sempre portafogli permettendo).
Abbiamo affrontato più volte l'argomento NVDIA Ada Lovelace che, ricordiamo, può contare sul nodo produttivo TSMC a 4nm, a differenza delle GeForce RTX 30 che sono costruite su tecnologia Samsung a 8nm. Prima di fare un ulteriore recap sulle peculiarità dell'architettura, va sottolineato che per la prima volta NVIDIA propone una scheda della serie x90 sulla piattaforma notebook, segno che l'azienda mira a frammentare ulteriormente la fascia enthusiast, cercando di raccogliere i favori di quegli utenti che, in sostanza, non hanno problemi di budget.
Parlando di hardware, la GPU che equipaggia GeForce RTX 4090 Laptop - così come tutti i modelli RTX 40 - può contare sul nuovo Streaming Multiprocessor e una cache L2 maggiorata che, in questo caso, passa dai 4MB di una RTX 3080 Ti Laptop a ben 64MB. Tali peculiarità, in coppia con elementi come DMM (Displaced Micro-Meshese) e OMM (Opacity Micro-Maps), garantiscono un netto salto prestazionale che si manifesta soprattutto in ambito ray-tracing.
Un'ulteriore ottimizzazione delle prestazioni arriva grazie al SER (Shader Execution Reordering) e a vere novità come Optical Flow Accelerator (OFA) e Optical Multi Frame Generation, altri punti di forza di Ada Lovelace abbinati ai Tensor Core di 4a generazione e agli RT Core di 3a gen.
Guardando alle specifiche tecniche non è difficile intuire il potenziale di questa GeForce RTX 4090 Laptop: in sostanza è una GeForce RTX 4080 con memorie GDDR6 (non X) ma con un TDP che può essere programmato tra 80 e 150 watt, contro i 320 watt di una GeForce RTX 4080 desktop. A bordo troviamo 9.728 Cuda Core, 76 RT Core e 16GB di memoria GDDR6 su bus a 256 bit; la frequenza base/boost si attesta a 1.455/2.040 MHz, ma sappiamo che questi sono valori che possono variare in base al design del notebook e al profilo energetico che viene adoperato (ovviamente in primis dal TDP impostato da BIOS).
Come anticipato sopra, non c'è solo l'hardware ma anche il software. Il DLSS 3.0 è sicuramente il fiore all'occhiello di NVIDIA e, dati alla mano, porta concretamente a un netto inremento del frame-rate nel ray-tracing che, in base al titolo, può arrivare anche a un x2-x4 rispetto ai modelli di precedente generazione.
Con le GeForce RTX 40 Laptop si concretizza inoltre la quinta generazione notebook Max-Q, tecnologia ulteriormente migliorata che mira a ottimizzare - per prestazioni e consumi - tutte le componenti hardware: GPU, CPU, memoria, raffreddamento, software/driver e, non per ultimo, il display. Tra le novità introdotte spicca sicuramente il miglioramento lato VRAM; anzitutto parliamo di una nuova tipologia di GDDR6 molto efficiente (Ultra-Low Voltage), che garantisce prestazioni uguali o superiori ai modelli normali ma allo stesso tempo è caratterizzata da consumi notevolmente inferiori e temperature conseguentemente più basse.
Tutta la V-RAM, inoltre, può ora essere gestita in modo più granulare e operare in una nuova ed ulteriore modalità a basso consumo. Questo grazie alla tecnologia Tri-Speed Memory Control che permette alla GPU di modificare dinamicamente la modalità d'uso delle nuove memorie passando alla configurazione a basso consumo ogni volta che le condizioni lo permettono.
Sempre in relazione alla gestione delle memorie NVIDIA ha poi lavorato a stretto contatto con i produttori di queste stesse ridisegnare i chip e il modo in cui comunicano con il resto dei componenti della GPU. Grazie a questa ottimizzazione si è potuto raddoppiare la bandwith e migliorare il clock gating per fare in modo che la potenza assorbita durante l'utilizzo sia più bassa possibile e si possa così lavorare con frequenze operative più elevate rispetto al passato.
Ma all'interno del pacchetto di tecnologie che concorrono a costruire il concetto di Max-Q troviamo anche il DLSS, la tecnologia di Super Sampling basata sull'intelligenza artificiale che è ormai giunta alla terza generazione. Questa nuova versione del DLSS mantiene le caratteristiche della precedente, che resta alla base di tutto, ma vengono aggiunti dei nuovi elementi che non son meno importanti e che contribuiscono attivamente a raggiungere quel miglioramento nelle prestazioni che ho citato sopra.
Il nuovo DLSS 3 (ricordiamo, l'acronimo sta per Deep Learning Super Sampling) si basa soprattutto sull'hardware delle nuove schede NVIDIA - in particolare i Tensor Core di quarta generazione e un nuovo coprocessore chiamato Optical Flow Accelerator.
Optical Flow Accelerator permette al DLSS di generare fotogrammi completamente nuovi, invece che modificare solo i pixel. La tecnologia si chiama Optical Multi Frame Generation; in concreto, il coprocessore analizza due fotogrammi renderizzati in sequenza e, usando le parole di NVIDIA, "calcola i dati dei vettori di movimento per gli oggetti e gli elementi che appaiono nel frame, ma che non sono modellati dai vettori di movimento tradizionali presenti nei motore di gioco. Da questi calcoli viene generato un fotogramma completamente inedito, che unito alle operazioni del normale DLSS 2.x permette alle schede di ridurre in modo significativo artefatti e aberrazioni, soprattutto nelle ombre, nelle particelle, nei riflessi e nell'illuminazione.
Un altro grande vantaggio è che i fotogrammi vengono generati in post-elaborazione dalla GPU, e quindi possono aggirare eventuali limiti al framerate dipendenti dalla CPU. NVIDIA dice che in giochi con mondi particolarmente ampi o con un uso molto intensivo e sfaccettato della fisica, le GPU possono arrivare a generare fino al doppio dei fotogrammi di quelli calcolati dalla CPU.
Tante novità quindi ma senza dimenticarsi delle altre tecnologie che vanno a formare il raccoglitore Max-Q. Tra queste dobbiamo sicuramente citare la Dynamic Boost, Whisper Mode e Advanced Optimus. La tecnologia Dynamic Boost permette di ottimizzare le prestazioni in-game bilanciando in modo intelligente i consumi di CPU e GPU in base al carico; in breve, se la GPU è in una fase di carico pesante, il sistema "sottrae" potenza alla CPU per garantirla alla GPU, alzando così le frequenze per generare più FPS.
Passiamo al Whisper Mode 2.0 che, come suggerisce il nome, permette un nuovo livello di controllo sulla rumorosità del sistema di raffreddamento, servendosi di algoritmi AI per combinare al meglio tutti i parametri in base a frequenze CPU/GPU, tensioni, temperature e regime di rotazione delle ventole. L'utente avrà a disposizione diverse opzioni di personalizzazione, con la possibilità tra l'altro di impostare un livello minimo di frame-rate, il tutto per bilanciare il sistema in base alle esigenze del momento.
E per chiudere NVIDIA Advanced Optimus, evoluzione della famosa tecnologia Optimus che permette di ottimizzare i consumi (e quindi l'autonomia) del notebook spostando il carico tra la GPU integrata e quella discreta in base al tipo di carico. Con Advanced Optimus, la GPU dedicata e quella integrata sono entrambe collegate al display e gestite da un interruttore hardware dinamico che, tra le altre cose, può essere impostato via software (o lasciato su gestione Automatica) in base alle esigenze dell'utente, nonché dell'applicazione che si andrà ad autilizzare.
Al pari dei modelli desktop infine, GeForce RTX 4090 Laptop può trovare anche i favori dei creatori di contenuti grazie a NVIDIA Studio nonchè al supporto AV1 e al doppio encoder NVEC (presente solo su RTX 4090 e 4080 Laptop). Anche in questo ambito i numeri sono allettanti, garantendo di dimezzare i tempi di esportazione rispetto alle GeForce RTX 30.
Delle caratteristiche tecniche della nuova RTX 4090 Laptop vi ho già parlato sopra e quindi non starò a ripeterle, ma credo sia giusto darvi due informazioni a proposito del portatile che la ospita e con il quale l'ho testata. Si tratta di un Razer Blade 16, un notebook certamente molto interessante ma che non verrà venduto in Italia, almeno per il momento. Non che ci importi molto dato che mi è stato fornito per provare la GPU e non per una recensione del notebook stesso, motivo per cui non troverete un giudizio a riguardo.
Quello che conta e che ci interessa qui è proprio ciò che troviamo sotto la sua scocca. Si tratta di un prodotto dotato di una CPU Intel Core i9 13980HX, la soluzione più potete attualmente disponibile su un laptop per quello che riguarda la gamma Intel. 24 core, 5.6 GHz di frequenza turbo, 36 MB di Cache e un TDP che può arrivare fino a 157W (da indicazioni Intel). Insomma, una soluzione che difficilmente potrà rappresentare un collo di bottiglia. A questa CPU si aggiungono poi 32 GB di RAM DDR5 a 5600 MHz e due SSD PCIe 4.0 entrambi con una capacità di 1TB.
Altra specifica sicuramente interessante è quella del display. Abbiamo infatti di un pannello che può essere impostato su due risoluzioni differenti che offrono anche due refresh rate diversi. Tramite le classiche impostazioni dello schermo possiamo scegliere se utilizzare la risoluzione FullHD+, e allora avremo un refresh rate di 240Hz, oppure la UHD+ con una frequenza di aggiornamento di 120Hz. Una possibilità sicuramente interessante che ci permette di adattare le prestazioni del display al tipo di contenuto che andiamo a riprodurre.
Per chiudere, la batteria è da 95.2 Wh e in confezione troviamo un caricatore con connettore proprietario da 330W, che, grazie alla tecnologia GaN, considerando la potenza che è in grado di erogare risulta anche abbastanza compatto.
Ok, abbiamo sviscerato tutti gli aspetto che creano il background di questa prova ma è ora giunto il momento di arrivare al sodo e di vedere come effettivamente questa nuova RTX 4090 Laptop si comporta sul campo. Inizio parlandovi di temperature e consumi perchè sono elementi fondamentali per capire i risultati dei test e il lavoro incredibile fatto da NVIDIA con l'architettura ADA Lovelace.
Ho testato questi parametri in diverse situazioni, con benchmark e in uso reale, e i risultati ottenuti sono quelli mostrati nei grafici qui sotto. Il contesto più impegnativo si è rivelato quello del gaming, con una sessione di God of War durante la quale siamo arrivati ad ottenere un picco di consumi di 180W, con una media di 140W circa, e una temperatura che è arrivata a superare gli 80 gradi. Con il benchmark 3D Mark nella scena Time Spy abbiamo raggiunto i 140W con una temperatura massima di 70 gradi, mentre entrambi i parametri si alzano leggermente se avviamo lo stress test Furmark lasciandolo macinare per qualche minuto. Infine, il benchmark Blender porta ad un consumo massimo di 130W con una temperatura di 70 gradi circa. In tutti i test la frequenza operativa della GPU è arrivata a toccare i 2,4 GHz, ben più alta dei 2,0 GHz dichiarati da NVIDIA come limite massimo.
Tenete bene a mente i numeri qui sopra e lasciate che vi dica che la RTX 3080 Ti, top di gamma della serie 30 per Laptop, raggiunge più o meno le stesse condizioni di consumi e temperature (siamo arrivati fino a 170W con un MSI GE76 Raider). Cambiano invece le frequenze, decisamente più basse, e le prestazioni che, pur restando ottime, non sono paragonabili a quelle di questa 4090 Laptop.
Credo davvero che questo grafico non abbia bisogno di commenti. I test sono stati condotti in 1440p, con settaggi Ultra, RTX attivato con l'impostazione di default (dove disponibile) e DLSS disattivato anche nei titoli che lo contemplano per simulare condizioni più simili possibili tra le due schede. Il colpo d'occhio parla da solo ma se vogliamo proprio commentare questi numeri posso dirvi che l'incremento prestazionale tra le due generazioni può variare tra l'1.7x e oltre 2x a seconda dei titoli provati. Sono numeri impressionanti, che mostrano un gap generazionale simile a quello che abbiamo avuto modo di riscontrare nelle soluzioni desktop, con la differenza che qui le dimensioni della dissipazione non possono lievitare come sulle sorelle maggiori.
Ho poi ripetuto alcuni test, aggiungendone di nuovi, per testare anche il nuovo DLSS 3. In questo caso per valutare l'incremento prestazionale offerto dall'utilizzo di questa tecnologia ho confrontato i risultati ottenuti con RTX 4090 Laptop con DLSS attivo e senza DLSS. Anche qui i numeri sono davvero molto interessanti con e il miglioramento netto in tutti i casi. Come sopra si passa da incrementi del 70-80% a oltre il 100%. Insomma, potendo sfruttare questa nuova versione della tecnologia di super sampling e davvero possibile giocare in 1440p sfruttando realmente il refresh rate elevato dei display dei notebook gaming più recenti.
Dato che questo Razer Blade 16 offre un pannello 4K ho poi testato anche qualche gioco alla risoluzione massima, ovviamente sempre con DLSS3 attivo. I risultati? 70 frame medi su Cyberpunk 2077, 75 frame medi su Witcher 3 e 72-73 fps con A Plague Tale Requiem. Insomma, con DLSS3 il 4K non è affatto un traguardo irraggiungibile, specie per giocare a giochi di ruolo o avventure come quelle appena citate.
Avere a che fare con un notebook dotato di GPU discreta non porta vantaggi solamente per quello che riguarda i giochi. Anche in ambito produttività, specialmente con applicativi per la progettazione e modellazione 3D, per il rendering e per le animazioni grafiche, è infatti possibile godere di grossi benefici grazie a schede grafiche con prestazioni elevate. Come accaduto sopra ho voluto mettere a confronto la nuova RTX 4090 Laptop con la 3080 Ti Laptop per quantificare questo vantaggio in termini di prestazioni generazione su generazione.
Come per le prestazioni in gaming è difficile trovare aggettivi per descrivere il salto che possiamo apprezzare dai grafici qui sopra. Il benchmark Blender nella versione 3.3.0 mostra un incremento del 100% per due delle tre scene renderizzate, con il test classroom che offre un risultato che è addirittura quasi triplo. Risultati simili per il benchmark V Ray, con risultati doppi rispetto alla 3080 Ti, mentre per il test Octane abbiamo un punteggio di 765, contro i 370 del modello di generazione precedente. Numeri praticamente impensabili fino a poco tempo fa e che sono stati resi possibili da un continuo lavoro di ottimizzazione, dai processi produttivi all'adozione di nuove tecnologie proprietarie per migliorare l'efficienza energetica delle GPU e dei loro componenti.
Insomma, tirare le conclusioni dopo questa serie di test viene abbastanza semplice. Siamo, a mio modo di vedere, di fronte ad una vera e propria rivoluzione nel mondo delle GPU per laptop. Fino a pochi mesi fa, pensare di poter raggiungere un tale livello di prestazioni, con un salto così importante rispetto alla generazione precedente, era probabilmente un'utopia ma alla luce di quanto visto e provato in questi giorni posso solo chiedermi dove arriveremo con le prossime generazioni. Mi sarei aspettato di trovare un incremento simile? Sinceramente no, o almeno sicuramente non con consumi e temperature praticamente invariati rispetto alla precedente generazione.
Certo ma quanto costeranno questi gioiellini? I primi notebook dotati di schede grafiche RTX della serie 40 stanno arrivando sul mercato proprio in queste ore e quindi ancora non posso darvi un giudizio finale a questo proposito. Sicuramente non parliamo di prodotti economici, ma da un primo sguardo e da questa prima implementazione posso dirvi che, nel caso in cui possiate permetterveli, i motivi, e soprattutto i frame, necessari per giustificare il prezzo sembrano esserci tutti. Certo andrà poi valutato caso per caso e a questo proposito non vediamo l'ora di provare altre soluzioni nel corso delle prossime settimane. Stay tuned!
Commenti
Troppo
a quel punto mi compro un fisso
Capisco il tuo caso ma non credo che tutti quelli che li comprano abbiano problemi col tetto :)
Neanche io lo capivo finché non mi sono trasferito per lavoro e sono andato a vivere in una casa in cui per mettere il fisso dovrei togliere il letto.
Il risparmio di ingombro è parecchio e se uno non vuole rinunciare al gaming (pagando caro col portafogli), sono una ottima soluzione.
hai detto niente...
Si ovvio, io ho risolto collegandomi con Parsec al fisso di casa dove ho una 4090
No ma il portatile mi serve.
Ma non ti teletrasporti(lo smaruorchi è una caszata contesca)
Esattamente e per cose del genere non servono prestazioni esagerate
Lo smartworking è lavoro agile, noi impropriamente lo chiamiamo cosi. Cmq faccio telelavoro e lavoro in ufficio.
Se ti teletrasporti è telelavoro, se lavori a casa è smaruorchi, in ufficio è lavoro.
Se lavoro a casa e in ufficio e smartworking (in realtà telelavoro).
Se lavori in ufficio non è più smaruorchi.
Per me fhd e 60fps (ma sempre o quasi) sarebbero perfetti.
Non chiedo niente di più.
Lì c'è poca storia. Ma anche in tutti quegli ambiti di mobilità dove l'autonomia è importante. Ma su un fisso, dove una 4070 ti consuma a pieno carico 270W, non c'è da far scattare il contatore. Col Kwh a 42 centesimi, servono più di 3h a pieno carico per spenderli. Per un caffè al bar si spende di più e in meno tempo insomma. Tutto è relativo alle proprie esigenze.
Se non giochi in Fhd e se ti "accontenti" di 60fps puoi giocarci a tutto, i problemi sono semmai i giochi mal ottimizzati più che un non avere abbastanza potenza da parte della scheda
Se giochi a Fortnite ci posso anche credere.
Ah allora ok.
Si infatti, io lavoro principalmente con davinci
Per l'encoding video ha implementazione HW ed è un'ottima scelta per chi fa video editing in determinati formati. Altrimenti sta a piedi. I consumi sono rilevanti solo per un uso professionale 24/7. Per me a casa ad esempio sono irrilevanti
Ma se in determinate operazioni consumando 5 volte meno fa meglio della 4090 https://uploads.disquscdn.c... https://uploads.disquscdn.c... https://uploads.disquscdn.c...
Immaginavo, ma non lo trovo
Se me lo porti tu in ufficio ci sto.
Io pure, uso sw 2d e 3d.
Si, ovviamente stiamo parlando di una necessità non di tutti, ma ad esempio l avere lo stesso pc da usare sia in ufficio che a casa può essere una gran comodità, ovviamente se uno lavora sempre dalla stessa postazione un laptop non ha senso
4300$
Per lavoro, e parlo per esperienza, sempre e cmq desktop... infatti ho la 4090 ma sul fisso
Non riesco a immaginare un uso fisso professionale su un laptop se non per uso saltuario, oppure fai dei lavori saltuari ogni tanto
Grossomodo la situazione attuale è che la versione laptop equivale alla versione desktop dell'anno precedente
Se per lavoro hai bisogno di una scheda del genere allora è probabile che comunque il pc più di 3 anni non lo tieni e non ti fai troppi problemi a cambiarlo
In realtà ormai questi sono rivolti a un pubblico molto meno gamer, per giocare anche a dettagli alti va benissimo una scheda della serie 20.
Idem
Avrebbe senso spingere per il bene dei consumatori che ricevono a prezzi stellari hardware che non è nemmeno l'effettiva "ultima frontiera", ma è solo spacciato per tale perché nel cassetto hanno già pronti i prossimi 3/4 anni di rilanci. Ovviamente questo nessuno lo fa. La mia era solo una considerazione. Lo faceva anche Intel prima che AMD se ne uscisse coi Ryzen.
si ma quanto costa?
OT: dove posso trovare dei codici sconto compleanno Samsung messi a disposizione da chi non li usa?
Grazie
se pensi che in una sola generazioni le prestazioni di una scheda desktop diventano quelle "portatili" è un salto devastante, hanno sempre più senso questi laptop qui, prezzi a parte, non che la controparte desktop sia poi così meno costosa...
Capisco che sia quello il motivo.
Ma non credi che costi troppo rispetto al solo vantaggio di poterlo portare in giro?
A parte chi gioca come professione intendo.
In rete è pieno di confronti tra Macbook M2 Max e la accoppiata Intel i9 13980HX + RTX4090, l'M2 Max ne esce con le ossa rotte
Si ma dipende che lavoro fai.
Io parlavo di AutoCAD e simili.
Ahahahahah
Premetto che la 4090 è esagerata ma io per esempio uso laptop gaming da sempre, attualmente ho un omen con 3070. Mi da fastidio l’ingombro del pc fisso e l’idea di trasportarlo ovunque mi piace. Ormai i notebook gaming hanno ottime prestazioni e batteria più che soddisfacenti per qualsiasi utilizzo rispetto ai vecchi modelli pesantissimi, tamarri e praticamenti obbligati a stare attaccati alla corrente.
in Germania stanno a 6.5k€
difficile che bastino 4k . penso qualcosa intorno ai 5k considerando che verranno ovviamente affiancate da i9 13xxxhk
Anche se c'è da dire che se fai rendering col laptop e lo usi spesso sicuramente col tempo lo squagli...
diciamo che i greggi sono vasti, si suddividono bene le quote!
Lo smaruorchi lo puoi fare con desktop.
Se gli affianchi la più zozzosa delle schede grafiche, tipo una ARC a750, gli ca*a in testa. Su un PC puoi farlo, per questo il test ha meno rilevanza.
Anche io ma non mi occupo di rendering 3D
Io lavoro con un laptop per via dello smartworking
Non ti invido proprio , se mi guardassi allo specchio e fossi come te , ciao che depressione
si lavora anche con laptop si, io preferisco collegarmi in remoto al pc fisso di casa ma quando devo o voglio lavorare fuori casa è necessario