
07 Gennaio 2015
Alla conferenza di SMPTE, svoltasi in settimana a Hollywood, l'HDR è stata tra le grandi protagoniste. A mostrare prodotti che integrano questa tecnologia non è stata solo Sony, ma anche Dolby. La motivazione è molto semplice (ne abbiamo già parlato in passato): Dolby (insieme ad altre compagnie e a vari esperti, tra i quali anche vari registi) ritiene che i miglioramenti, in campo video, non debbano concentrarsi solo per l'incremento del numero dei pixel, ma anche (soprattutto?) sulla qualità degli stessi. Si dovrebbe parlare, dunque, anche di "pixel migliori", e non solo dell'aspetto quantitativo. Una delle vie per migliorare la qualità dei pixel è proprio l'HDR (High Dynamic Range), che eleva la gamma dinamica delle immagini, offrendo un'espansione sulle alte luci (le scene più luminose).
Alla conferenza sono stati affiancati due display LCD Full HD, uno tradizionale ed uno dotato di Dolby Vision (la versione proprietaria di HDR). Nell'immagine in apertura è visibile, a sinistra, il prototipo Dolby Vision, un modello Full LED con local dimming, dotato di una luminosità pari a 2.000 candele al metro quadrato, pannello a 12 bit (nativo, non tramite dithering) e copertura pari al 97% del gamut P3/DCI. A destra troviamo un LCD LED Edge, con luminosità di 100 candele al metro quadrato (grosso modo il valore utilizzato attualmente per la taratura dei pannelli), pannello a 8 bit e gamut BT-709.
I contenuti mostrati, realizzati per un picco di luminanza di 4.000 candele al metro quadrato e spazio colore ampliato, erano stati codificati in modo da poter essere supportati, da ciascun display, al meglio delle proprie possibilità, grazie alla presenza di due layer (quello base riproduceva il materiale utilizzando gli standard dei TV tradizionali, mentre il player aggiuntivo era specifico per Dolby Vision). Ovviamente la foto non è indicativa del risultato (anche perché non verrà visualizzata tramite display HDR), ma a quanto pare la differenza è lampante, secondo i pareri di chi era presente alla dimostrazione. Il numero di informazioni visive, sul prototipo Dolby Vision, era molto superiore, anche se la risoluzione era esattamente identica. Da notare che la superiore gamma dinamica, a differenza della risoluzione, si percepisce facilmente anche senza posizionarsi a distanze ben precise dallo schermo (è uno di motivi per cui Dolby la ritiene più importante dell'Ultra HD).
Commenti
Immaginavo fossi un amante del plasma
Pioneer KRP-500, Plasma 50".
Senti permetteresti una domanda? Che TV utilizzi? Pura curiosità... Io un Philips edge led, mi pare un 40PFL8605H del 2008 (pannello sharp e gestione Philips). Spacca ancora un casino con 1 ms di tempo di risposta. Contentissimo del rivestimento in cristallo sull LCD, anche se in presenza di troppa luce talvolta soffre un po' per i riflessi. Credo uno tra i migliori led edge mai provati. Mio malgrado temo dovrò attendere che passi a miglior vita prima di poterlo cambiare. Poi in una fase transitiva come questa, anche se fosse, acquistare non mi pare ancora il caso.
Lo schermo da 100 candele era tarato così, non è al suo massimo.
Il motivo è che, più o meno, è quello il valore che si utilizza per le tarature (100-120 cd/m2).
Perché non si va oltre?
Perché se l'ambiente non è molto luminoso, e quindi si deve compensare alzando la luminosità del pannello, si peggiora la qualità delle immagini.
Un'emissione luminosa superiore alza il livello del nero, causando quello che ho già descritto in precedenza, in più comporta problemi sull'intelligibilità delle scene scure, perché quasi sicuramente il gamma non sarà più di tanto lineare e ci saranno chiusure sulle basse luci, ovvero le parti molto scure saranno semplicemente tutte nere, affogando cose che si dovrebbero vedere.
C'è poi anche un aspetto fisico: avere tanta luce sparata in faccia, sempre, causa un maggiore affaticamento visivo.
Quindi non è che il display utilizzato come paragone non potesse andare oltre, è che l'avevano calibrato per rendere al meglio, che è anche il motivo per cui non hanno usato il display da 2.000 candele: come puoi capire se non rende bene un LCD a 300 candele (e ci arrivano tutti almeno a quei valori), uno da 2.000 candele è semplicemente impossibile da proporre, l'unico contesto in cui avrebbe senso è come display per esterni, in modo da compensare la luce del Sole.
Con HDR, invece, acquista senso, perché la luminosità in più non te la spara a video sempre, ma solo nei momenti dove serve averne di più (e non per forza il massimo), per darti quell'incremento alla gamma dinamica.
PS: ma figurati, grazie a te :).
Io però ho dei dubbi. Voglio dire, non è che se ci sono scene che il regista ha fatto intenzionalmente scure, il monitor me le spara? L'idea di vedermi Alien illuminato e con un'immagine piatta, per quanto piena di informazioni, non mi piace per niente.
In parte ti do ragione, e nel complesso il mio tuo ragionamento ha capo e piedi, ma ci terrei a puntualizzare su due aspetti per dovere di informazione. Il primo è che comunque il confronto poteva essere eseguito, seppur con schermi diversi, ma utilizzando per esempio uno schermo della "vecchia tecnologia" (intendo quella attuale) con un pannello quantomeno più dignitoso: cioè dai, 450 candele ormai le hanno tutti i pannelli.... Il secondo è che il local dimming, per quanto non perfettamente in pari (anzi, diremmo) con i retrostanti led, serve comunque a creare un effetto di neri più "saturi" , rispetto allo stesso sprovvisto di tale tecnologia. Il blooming si verifica comunque, non su tutto il pannello, ma solo nelle linee di "confine" tra una sezione scura ed una chiara, dove il pixel acceso si trova ad illuminare sia pixel bianchi che neri, coprendo un'area più ampia degli stessi. Se te la devo dire tutta, per me la soluzione ideale sarebbe un pannello oled (neri assoluti, pixel spenti) insieme a questa tecnologia dolby di gestione hdr dell'immagine, montata magari su un TV abbastanza grande da permettere una visione in 4k
Ma infatti questa non è una comparativa tra schermi, ma tra tecnologie differenti :).
Dolby Vision con HDR non è un pannello, è un sistema per aumentare la gamma dinamica, e servono sia hardware che software.
Se togli uno dei due non stai semplicemente cambiando un parametro: stai creando i presupposti per un mezzo disastro.
Sarebbe come se chiedessi di utilizzare un pannello capace di riprodurre un gamut ampliato, ma con una sorgente che utilizza il gamut standard Rec. 709. Praticamente o riporti il pannello ai parametri standard, ma a quel punto non hai mostrato niente delle sue caratteristiche, oppure fai interpretare le coordinate cromatiche standard all'interno di uno spazio colore più ampio, con il risultato che non avrai più corrispondenza diretta tra i colori da riprodurre e quello che vedi su schermo. In pratica peggioreresti la fedeltà cromatica e basta.
Qui è uguale: se togli il software al pannello, o riduci la luminosità a quella di un normale, TV, ma a quel punto lo vedi come qualunque altro modello, oppure alzi semplicemente la luminosità, sempre, e ti ritrovi con un'immagine orribile.
In entrambi i casi vorrei capire che utilità avrebbe il confronto, ben sapendo, tra parentesi, che esiti avrebbe ancora prima di predisporlo.
Ancora: quello che citi del local dimming si applica alla basse luci, non alle alte luci, se spari a mille la luminosità, senza criterio, la dinamica la comprimi. Al massimo puoi alzare il contrasto dinamico, ma 1) è inutile perché quello che ti interessa in un'immagine è il contrasto statico, 2) trucchetti del genere li puoi tranquillamente applicare anche oggi, ma non si fa perché non funzionano.
Perché? Semplice: è un LCD, se alzi la luminosità sai cosa succede al nero? Si alza anche quello, il che significa che comprimi il contrasto verso l'alto. A poco ti serve il poter spegnere i LED, se il valore minimo del nero diventa molto elevato: ricordati che non hai tanti LED quanti sono i pixel, e più alzi la luminosità, più andrai incontro a fenomeni come il blooming.
Dolby Vision sfrutta un LCD local dimming per offrire la miglior immagine possibile, ma non è di certo il local dimming che rende possibile l'HDR, è una combinazione di fattori, prima tra tutte l'alta luminosità, che non dipende dal local dimming.
La comparativa tra due sistemi, se si parla di gestione dell'immagine come dice qua, dovrebbe essere eseguita usando due schermi identici per dimostrare come una migliore gestione software della stessa impatti sul risultato finale. Che poi ci debbano essere differenze hardware risulta abbastanza chiaro, ciò non toglie che la comparazione debba essere effettuata con pannelli uguali. Per quanto attiene il local dimming, credo sia lampante che aumenti oltremodo un contrasto dinamico su un pannello full led. Se poi questo pannello produce 4000 candele in hdr l'oscillazzione tra neri e bianchi è elevatissima. Che ci azzecca un pannello edge led, dove nella parte centrale dello schermo non si oscura completamente, sprovvisto di local dimming e che per di più non fa più di 100 candele: il confronto non sta in piedi! Se poi vogliamo palesare che l'utente medio usa TV scarsi per visualizzare immagini scadenti è un altro paio di maniche. Guarda che non lo dico perché voglio avere ragione, ma lo impone la prassi scientifica. Se si vuole dimostrare una miglioria in qualche cosa, non lo si può fare con due sistemi differenti in simultanea, si analizza un sistema alla volta.
Non sarebbe servito a nulla: pompare la luminosità senza criterio non serve e a niente, te ne puoi rendere conto con qualunque TV.
Gli unici effetti che ottieni sono alte luci bruciate, nero più alto e quindi gamma dinamica compressa.
Il vantaggio della tecnologia HDR, che richiede sia hardware che software, è la possibilità di enfatizzare la luminosità dove serve, per avere quel "boost" che innalza la gamma dinamica.
Ecco perché ha senso solo il confronto con due sistemi bilanciati, cosa che un pannello da 2.000 candele mal gestito non sarebbe mai.
Vedi il meglio che puoi avere già oggi e quello che potresti avere domani con hardware s software HDR.
Altra cosa: del local dimming non te ne fai nulla se si tratta di elevare la dinamica verso l'alto, non puoi di certo accendere i LED di più di quanto non lo siano normalmente.
I vantaggi li hai sulle basse luci, ma non è quello che mostravano in questo caso.
Secondo il mio modesto parere dovevano utilizzare i medesimi pannelli con un uno la modalità hdr attiva, mentre l'altro con le stesse immagini in modalità "tradizionale", ovvero senza hdr attivo: ti garantisco che il confronto sarebbe stato molto meno evidente. Chiaro che la modalità hdr ha bisogno di una retroilluminazione totale, ma paragonarlo ad un TV che ha i led solo sulla cornice...dai, significa osannare! Se poi consideri che il full led lavorava in local dimming proprio non ci sono termini di paragone! È come paragonare la ripresa di un golf ti 170cv con un lamborghini, sono entrambi ottimi prodotti, ma non paragonabili
Veramente è l'unico paragone sensato: come lo sfrutti l'HDR senza un pannello sufficientemente luminoso?
Non a caso non è una funzione che puoi limitarti ad inserire nel software: devi per forza disporre anche di hardware adeguato.
Comunque paragonare un full led con local dimming da 2000 candele, contro un edge led da 100 candele, per quanto possa essere esemplificativo, risulta fuorviante. Ma che cavolo, ma all'evento sopracitato i presenti avevano il prosciutto sugli occhi o prima li avevano storditi con tanti aperitivi?!?
E' l'esatto opposto, grosso modo :).
non devi soffermarti sulla foto allegata all'articolo.
il file hdr non è compresso e quindi si possono regolare tutti i fattori come una macchina fotografica professionale o simile
Con buona pace del realismo delle immagini...
Era pure ora!!