Recensione NVIDIA RTX 4090 Laptop, stessi consumi ma prestazioni doppie!

07 Febbraio 2023 245

Rimani aggiornato quotidianamente sui video, approfondimenti e recensioni di HDblog. Iscriviti ora al canale Youtube, basta un Click!

A circa un mese dall'annuncio avvenuto al CES di Las Vegas, debuttano ufficialmente oggi GeForce RTX 4090 e GeForce RTX 4080 Laptop, ossia le varianti ottimizzate per notebook delle GPU NVIDIA Ada Lovelace che abbiamo visto all'opera sui tre modelli desktop presentati finora dall'azienda: GeForce RTX 4090, GeForce RTX 4080 e, ultima in ordine d'arrivo, GeForce RTX 4070 Ti. Come discusso nei nostri precedenti articoli, il salto generazionale ottenuto da NVIDIA con la nuova architettura arriva attraverso diverse ottimizzazioni e rivisitazioni (hardware) importanti, affiancate a un ecosistema software che cresce di pari passo e si concretizza - almeno per questa generazione - nel DLSS 3.0.

Nella recensione di oggi ci occuperemo nel dettaglio della nuova top di gamma, la GeForce RTX 4090 Laptop che, al pari della mastodontica "sorella" da 450 watt, si pone al vertice dell'offerta consumer, non solo per prestazioni ma anche per l'efficienza rispetto ai modelli più potenti di precedente generazione.

Se sui notebook basati su GeForce RTX 3080 Ti Laptop si erano già raggiunti risultati che non hanno niente da invidiare alle controparti desktop, NVIDIA con le RTX 40 punta ancora più in alto, mettendo - come vedremo - quasi in discussione la necessità di un PC gaming desktop (ovviamente sempre portafogli permettendo).

CARATTERISTICHE TECNICHE E NOVITA'

Abbiamo affrontato più volte l'argomento NVDIA Ada Lovelace che, ricordiamo, può contare sul nodo produttivo TSMC a 4nm, a differenza delle GeForce RTX 30 che sono costruite su tecnologia Samsung a 8nm. Prima di fare un ulteriore recap sulle peculiarità dell'architettura, va sottolineato che per la prima volta NVIDIA propone una scheda della serie x90 sulla piattaforma notebook, segno che l'azienda mira a frammentare ulteriormente la fascia enthusiast, cercando di raccogliere i favori di quegli utenti che, in sostanza, non hanno problemi di budget.

Parlando di hardware, la GPU che equipaggia GeForce RTX 4090 Laptop - così come tutti i modelli RTX 40 - può contare sul nuovo Streaming Multiprocessor e una cache L2 maggiorata che, in questo caso, passa dai 4MB di una RTX 3080 Ti Laptop a ben 64MB. Tali peculiarità, in coppia con elementi come DMM (Displaced Micro-Meshese) e OMM (Opacity Micro-Maps), garantiscono un netto salto prestazionale che si manifesta soprattutto in ambito ray-tracing.

Un'ulteriore ottimizzazione delle prestazioni arriva grazie al SER (Shader Execution Reordering) e a vere novità come Optical Flow Accelerator (OFA) e Optical Multi Frame Generation, altri punti di forza di Ada Lovelace abbinati ai Tensor Core di 4a generazione e agli RT Core di 3a gen.

Guardando alle specifiche tecniche non è difficile intuire il potenziale di questa GeForce RTX 4090 Laptop: in sostanza è una GeForce RTX 4080 con memorie GDDR6 (non X) ma con un TDP che può essere programmato tra 80 e 150 watt, contro i 320 watt di una GeForce RTX 4080 desktop. A bordo troviamo 9.728 Cuda Core, 76 RT Core e 16GB di memoria GDDR6 su bus a 256 bit; la frequenza base/boost si attesta a 1.455/2.040 MHz, ma sappiamo che questi sono valori che possono variare in base al design del notebook e al profilo energetico che viene adoperato (ovviamente in primis dal TDP impostato da BIOS).


Come anticipato sopra, non c'è solo l'hardware ma anche il software. Il DLSS 3.0 è sicuramente il fiore all'occhiello di NVIDIA e, dati alla mano, porta concretamente a un netto inremento del frame-rate nel ray-tracing che, in base al titolo, può arrivare anche a un x2-x4 rispetto ai modelli di precedente generazione.

MAX-Q ALLA QUINTA GENERAZIONE

Con le GeForce RTX 40 Laptop si concretizza inoltre la quinta generazione notebook Max-Q, tecnologia ulteriormente migliorata che mira a ottimizzare - per prestazioni e consumi - tutte le componenti hardware: GPU, CPU, memoria, raffreddamento, software/driver e, non per ultimo, il display. Tra le novità introdotte spicca sicuramente il miglioramento lato VRAM; anzitutto parliamo di una nuova tipologia di GDDR6 molto efficiente (Ultra-Low Voltage), che garantisce prestazioni uguali o superiori ai modelli normali ma allo stesso tempo è caratterizzata da consumi notevolmente inferiori e temperature conseguentemente più basse.

Tutta la V-RAM, inoltre, può ora essere gestita in modo più granulare e operare in una nuova ed ulteriore modalità a basso consumo. Questo grazie alla tecnologia Tri-Speed Memory Control che permette alla GPU di modificare dinamicamente la modalità d'uso delle nuove memorie passando alla configurazione a basso consumo ogni volta che le condizioni lo permettono.

Sempre in relazione alla gestione delle memorie NVIDIA ha poi lavorato a stretto contatto con i produttori di queste stesse ridisegnare i chip e il modo in cui comunicano con il resto dei componenti della GPU. Grazie a questa ottimizzazione si è potuto raddoppiare la bandwith e migliorare il clock gating per fare in modo che la potenza assorbita durante l'utilizzo sia più bassa possibile e si possa così lavorare con frequenze operative più elevate rispetto al passato.

Ma all'interno del pacchetto di tecnologie che concorrono a costruire il concetto di Max-Q troviamo anche il DLSS, la tecnologia di Super Sampling basata sull'intelligenza artificiale che è ormai giunta alla terza generazione. Questa nuova versione del DLSS mantiene le caratteristiche della precedente, che resta alla base di tutto, ma vengono aggiunti dei nuovi elementi che non son meno importanti e che contribuiscono attivamente a raggiungere quel miglioramento nelle prestazioni che ho citato sopra.

Il nuovo DLSS 3 (ricordiamo, l'acronimo sta per Deep Learning Super Sampling) si basa soprattutto sull'hardware delle nuove schede NVIDIA - in particolare i Tensor Core di quarta generazione e un nuovo coprocessore chiamato Optical Flow Accelerator.


Optical Flow Accelerator permette al DLSS di generare fotogrammi completamente nuovi, invece che modificare solo i pixel. La tecnologia si chiama Optical Multi Frame Generation; in concreto, il coprocessore analizza due fotogrammi renderizzati in sequenza e, usando le parole di NVIDIA, "calcola i dati dei vettori di movimento per gli oggetti e gli elementi che appaiono nel frame, ma che non sono modellati dai vettori di movimento tradizionali presenti nei motore di gioco. Da questi calcoli viene generato un fotogramma completamente inedito, che unito alle operazioni del normale DLSS 2.x permette alle schede di ridurre in modo significativo artefatti e aberrazioni, soprattutto nelle ombre, nelle particelle, nei riflessi e nell'illuminazione.

Un altro grande vantaggio è che i fotogrammi vengono generati in post-elaborazione dalla GPU, e quindi possono aggirare eventuali limiti al framerate dipendenti dalla CPU. NVIDIA dice che in giochi con mondi particolarmente ampi o con un uso molto intensivo e sfaccettato della fisica, le GPU possono arrivare a generare fino al doppio dei fotogrammi di quelli calcolati dalla CPU.

Tante novità quindi ma senza dimenticarsi delle altre tecnologie che vanno a formare il raccoglitore Max-Q. Tra queste dobbiamo sicuramente citare la Dynamic Boost, Whisper Mode e Advanced Optimus. La tecnologia Dynamic Boost permette di ottimizzare le prestazioni in-game bilanciando in modo intelligente i consumi di CPU e GPU in base al carico; in breve, se la GPU è in una fase di carico pesante, il sistema "sottrae" potenza alla CPU per garantirla alla GPU, alzando così le frequenze per generare più FPS.

Passiamo al Whisper Mode 2.0 che, come suggerisce il nome, permette un nuovo livello di controllo sulla rumorosità del sistema di raffreddamento, servendosi di algoritmi AI per combinare al meglio tutti i parametri in base a frequenze CPU/GPU, tensioni, temperature e regime di rotazione delle ventole. L'utente avrà a disposizione diverse opzioni di personalizzazione, con la possibilità tra l'altro di impostare un livello minimo di frame-rate, il tutto per bilanciare il sistema in base alle esigenze del momento.

E per chiudere NVIDIA Advanced Optimus, evoluzione della famosa tecnologia Optimus che permette di ottimizzare i consumi (e quindi l'autonomia) del notebook spostando il carico tra la GPU integrata e quella discreta in base al tipo di carico. Con Advanced Optimus, la GPU dedicata e quella integrata sono entrambe collegate al display e gestite da un interruttore hardware dinamico che, tra le altre cose, può essere impostato via software (o lasciato su gestione Automatica) in base alle esigenze dell'utente, nonché dell'applicazione che si andrà ad autilizzare.

Al pari dei modelli desktop infine, GeForce RTX 4090 Laptop può trovare anche i favori dei creatori di contenuti grazie a NVIDIA Studio nonchè al supporto AV1 e al doppio encoder NVEC (presente solo su RTX 4090 e 4080 Laptop). Anche in questo ambito i numeri sono allettanti, garantendo di dimezzare i tempi di esportazione rispetto alle GeForce RTX 30.

RAZER BLADE 16

Delle caratteristiche tecniche della nuova RTX 4090 Laptop vi ho già parlato sopra e quindi non starò a ripeterle, ma credo sia giusto darvi due informazioni a proposito del portatile che la ospita e con il quale l'ho testata. Si tratta di un Razer Blade 16, un notebook certamente molto interessante ma che non verrà venduto in Italia, almeno per il momento. Non che ci importi molto dato che mi è stato fornito per provare la GPU e non per una recensione del notebook stesso, motivo per cui non troverete un giudizio a riguardo.

Quello che conta e che ci interessa qui è proprio ciò che troviamo sotto la sua scocca. Si tratta di un prodotto dotato di una CPU Intel Core i9 13980HX, la soluzione più potete attualmente disponibile su un laptop per quello che riguarda la gamma Intel. 24 core, 5.6 GHz di frequenza turbo, 36 MB di Cache e un TDP che può arrivare fino a 157W (da indicazioni Intel). Insomma, una soluzione che difficilmente potrà rappresentare un collo di bottiglia. A questa CPU si aggiungono poi 32 GB di RAM DDR5 a 5600 MHz e due SSD PCIe 4.0 entrambi con una capacità di 1TB.


Altra specifica sicuramente interessante è quella del display. Abbiamo infatti di un pannello che può essere impostato su due risoluzioni differenti che offrono anche due refresh rate diversi. Tramite le classiche impostazioni dello schermo possiamo scegliere se utilizzare la risoluzione FullHD+, e allora avremo un refresh rate di 240Hz, oppure la UHD+ con una frequenza di aggiornamento di 120Hz. Una possibilità sicuramente interessante che ci permette di adattare le prestazioni del display al tipo di contenuto che andiamo a riprodurre.

Per chiudere, la batteria è da 95.2 Wh e in confezione troviamo un caricatore con connettore proprietario da 330W, che, grazie alla tecnologia GaN, considerando la potenza che è in grado di erogare risulta anche abbastanza compatto.

PRESTAZIONI IN GAMING

Ok, abbiamo sviscerato tutti gli aspetto che creano il background di questa prova ma è ora giunto il momento di arrivare al sodo e di vedere come effettivamente questa nuova RTX 4090 Laptop si comporta sul campo. Inizio parlandovi di temperature e consumi perchè sono elementi fondamentali per capire i risultati dei test e il lavoro incredibile fatto da NVIDIA con l'architettura ADA Lovelace.

Ho testato questi parametri in diverse situazioni, con benchmark e in uso reale, e i risultati ottenuti sono quelli mostrati nei grafici qui sotto. Il contesto più impegnativo si è rivelato quello del gaming, con una sessione di God of War durante la quale siamo arrivati ad ottenere un picco di consumi di 180W, con una media di 140W circa, e una temperatura che è arrivata a superare gli 80 gradi. Con il benchmark 3D Mark nella scena Time Spy abbiamo raggiunto i 140W con una temperatura massima di 70 gradi, mentre entrambi i parametri si alzano leggermente se avviamo lo stress test Furmark lasciandolo macinare per qualche minuto. Infine, il benchmark Blender porta ad un consumo massimo di 130W con una temperatura di 70 gradi circa. In tutti i test la frequenza operativa della GPU è arrivata a toccare i 2,4 GHz, ben più alta dei 2,0 GHz dichiarati da NVIDIA come limite massimo.



Tenete bene a mente i numeri qui sopra e lasciate che vi dica che la RTX 3080 Ti, top di gamma della serie 30 per Laptop, raggiunge più o meno le stesse condizioni di consumi e temperature (siamo arrivati fino a 170W con un MSI GE76 Raider). Cambiano invece le frequenze, decisamente più basse, e le prestazioni che, pur restando ottime, non sono paragonabili a quelle di questa 4090 Laptop.



Credo davvero che questo grafico non abbia bisogno di commenti. I test sono stati condotti in 1440p, con settaggi Ultra, RTX attivato con l'impostazione di default (dove disponibile) e DLSS disattivato anche nei titoli che lo contemplano per simulare condizioni più simili possibili tra le due schede. Il colpo d'occhio parla da solo ma se vogliamo proprio commentare questi numeri posso dirvi che l'incremento prestazionale tra le due generazioni può variare tra l'1.7x e oltre 2x a seconda dei titoli provati. Sono numeri impressionanti, che mostrano un gap generazionale simile a quello che abbiamo avuto modo di riscontrare nelle soluzioni desktop, con la differenza che qui le dimensioni della dissipazione non possono lievitare come sulle sorelle maggiori.


Ho poi ripetuto alcuni test, aggiungendone di nuovi, per testare anche il nuovo DLSS 3. In questo caso per valutare l'incremento prestazionale offerto dall'utilizzo di questa tecnologia ho confrontato i risultati ottenuti con RTX 4090 Laptop con DLSS attivo e senza DLSS. Anche qui i numeri sono davvero molto interessanti con e il miglioramento netto in tutti i casi. Come sopra si passa da incrementi del 70-80% a oltre il 100%. Insomma, potendo sfruttare questa nuova versione della tecnologia di super sampling e davvero possibile giocare in 1440p sfruttando realmente il refresh rate elevato dei display dei notebook gaming più recenti.

Purtroppo al momento dei test Hogwarts Legacy non era ancora disponibile, ma abbiamo recuperato e vi abbiamo raccontato come va su questa 4090 laptop nella live qui sopra

Dato che questo Razer Blade 16 offre un pannello 4K ho poi testato anche qualche gioco alla risoluzione massima, ovviamente sempre con DLSS3 attivo. I risultati? 70 frame medi su Cyberpunk 2077, 75 frame medi su Witcher 3 e 72-73 fps con A Plague Tale Requiem. Insomma, con DLSS3 il 4K non è affatto un traguardo irraggiungibile, specie per giocare a giochi di ruolo o avventure come quelle appena citate.

BENCHMARK PRODUTTIVITA'

Avere a che fare con un notebook dotato di GPU discreta non porta vantaggi solamente per quello che riguarda i giochi. Anche in ambito produttività, specialmente con applicativi per la progettazione e modellazione 3D, per il rendering e per le animazioni grafiche, è infatti possibile godere di grossi benefici grazie a schede grafiche con prestazioni elevate. Come accaduto sopra ho voluto mettere a confronto la nuova RTX 4090 Laptop con la 3080 Ti Laptop per quantificare questo vantaggio in termini di prestazioni generazione su generazione.




Come per le prestazioni in gaming è difficile trovare aggettivi per descrivere il salto che possiamo apprezzare dai grafici qui sopra. Il benchmark Blender nella versione 3.3.0 mostra un incremento del 100% per due delle tre scene renderizzate, con il test classroom che offre un risultato che è addirittura quasi triplo. Risultati simili per il benchmark V Ray, con risultati doppi rispetto alla 3080 Ti, mentre per il test Octane abbiamo un punteggio di 765, contro i 370 del modello di generazione precedente. Numeri praticamente impensabili fino a poco tempo fa e che sono stati resi possibili da un continuo lavoro di ottimizzazione, dai processi produttivi all'adozione di nuove tecnologie proprietarie per migliorare l'efficienza energetica delle GPU e dei loro componenti.

CONSIDERAZIONI

Insomma, tirare le conclusioni dopo questa serie di test viene abbastanza semplice. Siamo, a mio modo di vedere, di fronte ad una vera e propria rivoluzione nel mondo delle GPU per laptop. Fino a pochi mesi fa, pensare di poter raggiungere un tale livello di prestazioni, con un salto così importante rispetto alla generazione precedente, era probabilmente un'utopia ma alla luce di quanto visto e provato in questi giorni posso solo chiedermi dove arriveremo con le prossime generazioni. Mi sarei aspettato di trovare un incremento simile? Sinceramente no, o almeno sicuramente non con consumi e temperature praticamente invariati rispetto alla precedente generazione.

Certo ma quanto costeranno questi gioiellini? I primi notebook dotati di schede grafiche RTX della serie 40 stanno arrivando sul mercato proprio in queste ore e quindi ancora non posso darvi un giudizio finale a questo proposito. Sicuramente non parliamo di prodotti economici, ma da un primo sguardo e da questa prima implementazione posso dirvi che, nel caso in cui possiate permetterveli, i motivi, e soprattutto i frame, necessari per giustificare il prezzo sembrano esserci tutti. Certo andrà poi valutato caso per caso e a questo proposito non vediamo l'ora di provare altre soluzioni nel corso delle prossime settimane. Stay tuned!

VIDEO


245

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Ryosaku

Troppo

disqus_EaYTCdoL4I

a quel punto mi compro un fisso

Davide Sollazzi

Capisco il tuo caso ma non credo che tutti quelli che li comprano abbiano problemi col tetto :)

Luca

Neanche io lo capivo finché non mi sono trasferito per lavoro e sono andato a vivere in una casa in cui per mettere il fisso dovrei togliere il letto.

Il risparmio di ingombro è parecchio e se uno non vuole rinunciare al gaming (pagando caro col portafogli), sono una ottima soluzione.

Igioz

hai detto niente...

Davide Limina

Si ovvio, io ho risolto collegandomi con Parsec al fisso di casa dove ho una 4090

deepdark

No ma il portatile mi serve.

carta_IGNica

Ma non ti teletrasporti(lo smaruorchi è una caszata contesca)

xpy

Esattamente e per cose del genere non servono prestazioni esagerate

deepdark

Lo smartworking è lavoro agile, noi impropriamente lo chiamiamo cosi. Cmq faccio telelavoro e lavoro in ufficio.

carta_IGNica

Se ti teletrasporti è telelavoro, se lavori a casa è smaruorchi, in ufficio è lavoro.

deepdark

Se lavoro a casa e in ufficio e smartworking (in realtà telelavoro).

carta_IGNica

Se lavori in ufficio non è più smaruorchi.

Davide Sollazzi

Per me fhd e 60fps (ma sempre o quasi) sarebbero perfetti.
Non chiedo niente di più.

GeneralZod

Lì c'è poca storia. Ma anche in tutti quegli ambiti di mobilità dove l'autonomia è importante. Ma su un fisso, dove una 4070 ti consuma a pieno carico 270W, non c'è da far scattare il contatore. Col Kwh a 42 centesimi, servono più di 3h a pieno carico per spenderli. Per un caffè al bar si spende di più e in meno tempo insomma. Tutto è relativo alle proprie esigenze.

xpy

Se non giochi in Fhd e se ti "accontenti" di 60fps puoi giocarci a tutto, i problemi sono semmai i giochi mal ottimizzati più che un non avere abbastanza potenza da parte della scheda

Davide Sollazzi

Se giochi a Fortnite ci posso anche credere.

Davide Sollazzi

Ah allora ok.

Mastro

Si infatti, io lavoro principalmente con davinci

GeneralZod

Per l'encoding video ha implementazione HW ed è un'ottima scelta per chi fa video editing in determinati formati. Altrimenti sta a piedi. I consumi sono rilevanti solo per un uso professionale 24/7. Per me a casa ad esempio sono irrilevanti

Mastro

Ma se in determinate operazioni consumando 5 volte meno fa meglio della 4090 https://uploads.disquscdn.c... https://uploads.disquscdn.c... https://uploads.disquscdn.c...

Alessandro Scarozza

Immaginavo, ma non lo trovo

deepdark

Se me lo porti tu in ufficio ci sto.

deepdark

Io pure, uso sw 2d e 3d.

xpy

Si, ovviamente stiamo parlando di una necessità non di tutti, ma ad esempio l avere lo stesso pc da usare sia in ufficio che a casa può essere una gran comodità, ovviamente se uno lavora sempre dalla stessa postazione un laptop non ha senso

[Max]

4300$

darkn3ss1

Per lavoro, e parlo per esperienza, sempre e cmq desktop... infatti ho la 4090 ma sul fisso
Non riesco a immaginare un uso fisso professionale su un laptop se non per uso saltuario, oppure fai dei lavori saltuari ogni tanto

xpy

Grossomodo la situazione attuale è che la versione laptop equivale alla versione desktop dell'anno precedente

xpy

Se per lavoro hai bisogno di una scheda del genere allora è probabile che comunque il pc più di 3 anni non lo tieni e non ti fai troppi problemi a cambiarlo

xpy

In realtà ormai questi sono rivolti a un pubblico molto meno gamer, per giocare anche a dettagli alti va benissimo una scheda della serie 20.

sk0rpi0n

Idem

Cloud

Avrebbe senso spingere per il bene dei consumatori che ricevono a prezzi stellari hardware che non è nemmeno l'effettiva "ultima frontiera", ma è solo spacciato per tale perché nel cassetto hanno già pronti i prossimi 3/4 anni di rilanci. Ovviamente questo nessuno lo fa. La mia era solo una considerazione. Lo faceva anche Intel prima che AMD se ne uscisse coi Ryzen.

ferragno

si ma quanto costa?

majs

OT: dove posso trovare dei codici sconto compleanno Samsung messi a disposizione da chi non li usa?

Grazie

olè

se pensi che in una sola generazioni le prestazioni di una scheda desktop diventano quelle "portatili" è un salto devastante, hanno sempre più senso questi laptop qui, prezzi a parte, non che la controparte desktop sia poi così meno costosa...

Davide Sollazzi

Capisco che sia quello il motivo.
Ma non credi che costi troppo rispetto al solo vantaggio di poterlo portare in giro?
A parte chi gioca come professione intendo.

[Max]

In rete è pieno di confronti tra Macbook M2 Max e la accoppiata Intel i9 13980HX + RTX4090, l'M2 Max ne esce con le ossa rotte

Davide Sollazzi

Si ma dipende che lavoro fai.
Io parlavo di AutoCAD e simili.

Davide Sollazzi

Ahahahahah

LoseYourself

Premetto che la 4090 è esagerata ma io per esempio uso laptop gaming da sempre, attualmente ho un omen con 3070. Mi da fastidio l’ingombro del pc fisso e l’idea di trasportarlo ovunque mi piace. Ormai i notebook gaming hanno ottime prestazioni e batteria più che soddisfacenti per qualsiasi utilizzo rispetto ai vecchi modelli pesantissimi, tamarri e praticamenti obbligati a stare attaccati alla corrente.

Maurizio

in Germania stanno a 6.5k€

Mattia Stortini

difficile che bastino 4k . penso qualcosa intorno ai 5k considerando che verranno ovviamente affiancate da i9 13xxxhk

darkn3ss1

Anche se c'è da dire che se fai rendering col laptop e lo usi spesso sicuramente col tempo lo squagli...

Xylitolo

diciamo che i greggi sono vasti, si suddividono bene le quote!

carta_IGNica

Lo smaruorchi lo puoi fare con desktop.

GeneralZod

Se gli affianchi la più zozzosa delle schede grafiche, tipo una ARC a750, gli ca*a in testa. Su un PC puoi farlo, per questo il test ha meno rilevanza.

GeneralZod

Anche io ma non mi occupo di rendering 3D

deepdark

Io lavoro con un laptop per via dello smartworking

Mastro

Non ti invido proprio , se mi guardassi allo specchio e fossi come te , ciao che depressione

Davide Limina

si lavora anche con laptop si, io preferisco collegarmi in remoto al pc fisso di casa ma quando devo o voglio lavorare fuori casa è necessario

Recensione Medion Erazer Major X10: Intel ARC A730M sfida la RTX 3060 | VIDEO

Recensione Asus Zenbook S13, vale la pena comprare un notebook premium?

Recensione MSI Prestige 15, un buon notebook tuttofare

Come scegliere il notebook giusto? Ecco i nostri consigli!