
07 Marzo 2016
L'edizione 2015 del CES verrà ricordata anche per la nascita della UHD Alliance, un nuovo soggetto nato dalla collaborazione di moltissimi marchi, con il compito di promuovere nuovi standard per la risoluzione Ultra HD, includendo, ad esempio, un gamut cpiù ampio e formati audio 3D. A partecipare a questa "alleanza" sono Panasonic, Samsung, Sony, LG, Sharp, Dolby, Technicolor, Walt Disney, Twentieth Century Fox, Warner Bros, Netflix e DirectTV. La UHD Alliance ha dichiarato che l'obiettivo finale è quello di offrire un ecosistema integrato, di semplice utilizzo di alta qualità, per la fruizione dei contenuti a risoluzione Ultra HD.
Un'intervista realizzata dai colleghi di HDGuru permette di chiarire quali sono gli obiettivi perseguiti da questa nuova partneship, e perché i miglioramenti proposti sono importanti. Tutto nasce dai limiti dell'occhio umano: come molti lettori sapranno, la capacità di distinguere una maggiore risoluzione è data dal rapporto tra dimensioni dello schermo e distanza di visione. E' in altre parole impossibile percepire differenze tra risoluzioni elevate, se non ci si pone alla giusta distanza dallo schermo (la distanza, ovviamente, varia in funzione della grandezza del display).
La risoluzione Ultra HD, quindi, non potrà essere ugualmente apprezzata da tutti gli utenti: in molti casi la seduta è troppo lontana dallo schermo e/o la dimensione del pannello stessa non è sufficiente per permettere di percepire ogni dettaglio. Come si può migliorare l'esperienza di tutti, al di là della risoluzione? La risposta la si può riassumere parlando non di più pixel, ma di pixel migliori. Cosa si intende per pixel migliori? La qualità delle immagini non è chiaramente determinata solo dalla risoluzione: quest'ultima è solo una delle componenti che determina il risultato finale. UHD Alliance vuole dunque agire anche sulla riproduzione dei colori e sulla gamma dinamica, aspetti molto importanti, per garantire immagini soddisfacenti.
Per migliorare la riproduzione cromatica occorre ampliare il gamut riprodotto dagli schermi. Il gamut non è altro che la rappresentazione schematica della gamma di colori che un pannello è in grado di riprodurre. Attualmente viene utilizzato come standard il Rec.709, un formato che ha ormai 25 anni e che è limitato, rispetto ai colori presenti nella realtà. Come giustamente sostiene Mark Turner, Technicolor business development e partnerships VP, il rosso di una cabina telefonica di Londra, piuttosto che il verde di un cartello stradale di Los Angeles, non sono esattamente quelli che vediamo riprodotti sui TV. Quelle precise gradazioni vanno oltre il Rec.709, che quindi finisce per rappresentare un risultato approssimato, rispetto al colore reale. Ampliando il gamut, invece (tramite Quantum Dot o soluzioni che vadano nella stessa direzione), è possibile riprodurre colori più fedeli a quelli che vediamo ogni giorno, ottenendo immagini più naturali.
HDR, invece, permette di ottenere numerosi vantaggi: agendo contemporaneamente sull'incremento della luminosità e sul controllo delle basse luci (la riproduzione del nero, in sostanza), si raggiunge una gamma dinamica più elevata, che conferisce più tridimensionalità alle immagini, evitando di ingenerare l'impressione che il quadro sia "piatto", ovvero talmente povero di dettagli e distanza, tra i vari piani, da apparire come quasi bidimensionale. L'incremento della dinamica ha anche un effetto benefico sui colori, poiché consente di aumentarne la saturazione, anche senza espandere il gamut. Questo avviene perché HDR incrementa la luminosità massima, che è una delle componenti che determinano l'accuratezza nella riproduzione cromatica (le altre due componenti sono saturazione e tinta). La maggiore luminosità consente di mantenere un'accurata riproduzione dei colori anche con immagini più brillanti, prima di raggiungere il punto critico, superato il quale si assiste ad una progressiva perdita di saturazione. Un esempio ricorrente è dato dal cielo, che spesso viene visualizzato con tinte tendenti al bianco o grigio, se molto luminoso (questo fenomeno è definito anche bruciatura delle alte luci, proprio perché le informazioni cromatiche si perdono a causa della luminosità)
Commenti
Più che altro 4.000 candele sono molto critiche da gestire, secondo me.
Anzitutto richiedono una retroilluminazione potente, e questo implica calore maggiore da dissipare e consumi superiori (non deve essere facile realizzare un TV Classe A passando da 300-500 candele a 4.000).
Seconda criticità: la gestione della retroilluminazione. Capiterà di avere a video, nello stesso momento, zone luminosissime ed altre in penombra. Non è facile spingere così tanto sulla luminosità senza penalizzare le basse luci (gli LCD non gestiscono i pixel individualmente).
Insomma: secondo me 4.000 candele sono fin troppe, per l'uso domestico, sarebbe meglio gestirne bene un migliaio.
4000 cd/m2 , in stanza buia , ti bruciano gli occhi se nel film c'è un cambio di scena in bianco full screen... Affaticherà molto la vista un pannello con quella luminosità. Nei cinema e molte tv non si toccano le 100 candele ...
Le VHS probabilmente le usavo prima che tu nascessi...
Assolutamente, infatti HDR, per funzionare, deve essere supportato da tutta la catena video, dalla sorgente alla TV.
Se manca anche un solo passaggio, l'HDR non può funzionare.
E' proprio per questo che stanno spingendo per arrivare ad uno standard (perché per ora c'è chi punta a 1.000 cd/m2 o chi, come Dolby, vuole arrivare a 4.000 cd/m2).
Direi che mi hai convinto :) Comunque, come in campo audio, le informazioni devono stare nel master relativamente ad alte e basse luci, se è il tv a decidere secondo chissà quale algoritmo allora il gioco non vale la candela asd
No, attenzione: l'HDR non si applica su contenuti che non lo prevedano in origine, non a caso stanno ratificando anche lo standard in quel senso, con più formati attualmente in lizza (Ultra HD Blu-ray li adotterà tutti, in pratica, mentre UHD Alliance sembra più propensa ad orientarsi verso un limite di circa 1.000 cd/m2).
Pompare i bassi è una cosa del tutto diversa da qualunque punto di vista: la dinamica delle immagini, per come la vediamo adesso, è effettivamente compressa (il riferimento è circa 100 cd/m2, ed è molto, molto meno della luminosità reale di un paesaggio assolato, tanto per capirci).
Dipende dalla fotografia, dal modo in cui il regista ha registrato l'immagine dando forma alla sua arte, applicare HDR sul tv perche ce lo hanno detto loro non mi pare una grossa idea. anzi credo sia una idea malsana. Io penso a questo punto che ci sia un genio del male dietro questa gente che vuole allontanare la gente comune dalle cose belle è lo stesso discorso della loudness war in campo audio si fanno vedere pure ammucchiati in queste convenscion ma non hanno timore?
Si vede che non hai mai visto la merDavigliosa qualità di una vhs...
Se pensi ai bit...credo abbiano più di 25 anni
Tanta gente è fuori di testa al giorno d'oggi. C'è da chiedersi se camminano come zombie e vedono il mondo tutto disturbato nella stessa pessima qualità con cui guardano pessime copie pirata su schermi piccoli o medi.
Non sapevo che ci affidavamo ancora a uno standard di 25 anni fa o_O
ottimo post
Leggo questi articoli e poi penso che la gente preferisce guardare i film in streaming in qualità cam XD