
07 Gennaio 2020
Dolby Vision IQ è la novità che Dolby ha portato al CES 2020. Si tratta di un'estensione del Dolby Vision, il formato nato per i contenuti in HDR. Dolby Vision si differenzia da HDR10, il formato base per l'elevata gamma dinamica, per via dei metadati dinamici. I metadati sono le informazioni che TV, proiettori e monitor sfruttano per visualizzare i video in HDR.
I metadati dinamici consentono di ottimizzare la resa di chiari e scuri intervenendo in modo molto più fine. I metadati statici fissano una media identica per tutta la lunghezza del video, mentre i metadati dinamici consentono modifiche che possono arrivare a migliorare la resa fotogramma per fotogramma.
Dolby Vision IQ estende i benefici offerti dai metadati dinamici combinandoli con i sensori di luminosità integrati nei televisori. In questo modo diviene possibile compensare l'effetto che la luce ambientale esercita sulle immagini viste dallo spettatore. Differenti condizioni di luce - una stanza ben assolata oppure un salotto buio - influiscono direttamente su ciò che si vede sullo schermo. Per questo esistono modalità video separate per la visione diurna e quella notturna.
Dolby Vision IQ sfrutta i sensori per misurare la quantità di luce in ambiente e per ottimizzare le immagini di conseguenza. Di notte viene privilegiata una resa che valorizzi il nero e i particolari più scuri, di giorno si aumenta la luminosità, soprattutto sui mezzi toni, per evitare che le immagini risultino troppo scure e poco contrastate. Tutti questi interventi sono completamente automatizzati.
Dolby Vision IQ può inoltre capire la tipologia dei contenuti visualizzata sullo schermo e apportare le opportune modifiche alle impostazioni. L'obiettivo prefissato è quello di assicurare che le immagini vengano sempre mostrate nella maniera più corretta possibile, senza che l'utente abbia la necessità di prendere in mano il telecomando per cambiare manualmente tutti i vari parametri.
Dolby Vision IQ sarà disponibile su alcuni TV LG e Panasonic in uscita nel 2020.
Commenti
Per vedere bene un film in streaming o hai una connessione altissima oppure prova il formato fisico. Un bel bluray uhd con dolby vision ma stai attento... Dopo non tornerai più indietro.
Gemini Man su prime è un solo FHD , su youtube presumo sia 4k HDR.
Ho controllato adesso, quindi il video di gemini man perché fa un casino di differenza rispetto a prime video?
YouTube non supporta il DV ... anche se lo scrivono nella nel titolo.
Kakkadr
Di cosa parlava? Commento rimosso
Ho visto gemini man su prime video e poi il demo dolby vision su YouTube...
Praticamente mi sono perso mezzo film.
questa menata che dici tu è utilissima e la differenza è abissale senza che stai sempre a smenarti sulle calibrazioni
Joel Silver è la persona che ha organizzato e diretto il corso ISF quanto l'ho fatto io ai tempi.
Sono stato decisamente fortunato!
Ti dico solo che una delle prime cose che fece fu scusarsi per il sistema NTSC, che secondo lui è l'acronimo di "Never Twice the Same Color".
Per la questione taratura i problemi ci sono, vedo spesso errori grossolani anche da persone che dovrebbero essere esperte - non faccio nomi ma ricordo il grafico di un OLED con segnato un rapporto di contrasto poche centinaia a uno... Come è possibile riportare un grafico del genere? Se viene fuori un dato del genere bisogna chiedersi cosa è andato storto nelle misure, perché è evidente che ci sia un errore, neanche un LCD IPS ha un contrasto così basso.
Qui tra SDR, HDR10, HLG, Dolby Vision eccetera ormai è sempre più difficile e non ci si può neanche affidare alle tarature automatiche a cuor leggero perché di problemi a volte ne hanno eccome - e anche qui ne potrei raccontare di belle, mi sono arrivati prodotti usati da terzi in condizioni pietose perché secondo me erano state usate le automatizzazioni senza poi controllare come si vedeva il TV, io capisco che il grafico dica che è tutto a posto, ma chi con questi prodotti "ci gioca" da tempo dovrebbe sapere che i grafici non dicono tutto.
mi piacerebbe proprio un articolo di quello che hai imparato dal CEO di ISF.
Anche solo il capire come hai fatto ad arrivare a fare una discussione con lui.
C'è tanta ignoranza (me compreso) nel mondo della taratura.
Al giorno d'oggi con l'evoluzione tecnica delle tv si è arrivati a un mondo estremamente vasto e difficile da tenere sotto controllo.
Anni fa c'era la pubblicità che diceva: la potenza è nulla senza controllo (grande ronaldo!)
questa frase riassume in pieno una tv di fascia medio/alta senza un accurata taratura al giorno d'oggi
p.s la prossima volta di al ceo di far abbassare i prezzi di sonde e software! non è possibile spendere migliaia di euro a livello consumer
Il confronto non è fatto tra Dolby vision vecchio e nuovo ma tra Dolby vision ultima versione e hdr10 base
il bello è che fanno lo stesso in caso di risoluzione o di filtri per movimento/sharp
si, si sono inventati una cosa al classico dts dei dvd, diffondevano i risultati dei test del full rate a 1536kbps ma poi sui dvd erano tutti half rate a 768kbps
prime video ha molte serie in hdr
L'utilità esiste, ma il confronto è fatto apposta per presentarla come "mai più senza" invece che come "nice addition" come dovrebbe essere.
A me da fastidio. :)
netflix e ATV+ sono pieni di contenuti DV.
Assolutamente vero, purtroppo la modalità con cui vengono effettuati i confronti è più o meno sempre questa.
Devono far vedere un local dimming migliore sugli LCD?
La vecchia versione sembra un prodotto di 10 anni prima.
Devono far vedere la differenza tra SDR e HDR?
Il video in SDR viene mostrato come se fosse visualizzato su un proiettore in pieno giorno, tutto slavato e scuro.
Devono far vedere come funziona un'elettronica più evoluta?
Quella vecchia sembra incapace di upscalare anche un Blu-ray.
Da una parte li capisco anche: far vedere le differenze senza il confronto dal vivo è difficilissimo, ci sono troppe variabili e troppi passaggi che alterano la resa.
Esempio banale: come si fa a mostrare che una taratura per la notte è molto più accurata sulle scene scure perché valorizza il livello del nero e conserva tutti i particolari presenti, invece di schiarire un po' tutto e perdere informazioni?
Anche facendo finta che videocamera e YouTube non alterino il risultato, c'è da tenere presente lo schermo che gli utenti utilizzeranno per vedere immagini e video.
Se è tarato male, e facilmente lo sarà in molti casi, la prima cosa che viene alterata è proprio quella, non a caso tanti si sono lamentati dell'episodio 3 dell'ultima stagione di "Il Trono di Spade" proprio perché aveva il gamma mal regolato che portava a non vedere praticamente niente per tutta la puntata.
Quello che capisco meno è fossilizzarsi completamente sulle immagini, come se quelle fossero la notizia.
Le hanno enfatizzate anche troppo per pompare la differenza?
Vero, ma è storia vecchia, lo si fa ogni volta.
L'utilità però esiste o no?
É quello che dovrebbe interessare.
più che altro dipende che DV c'è: MEL (10-bit minimal enhancement layer) o FEL (12-bit full enhancement layer) e il bitrate del secondo layer.
Ad esempio tar Wars: The Last Jedi (2017) MEL - 0.07 Mb/s ..... è un DV un pò ridicolo .
Overlord (2018) FEL - 5.22 Mb/s è ottimo
Gemini man è spettacolare...
La differenza si può vedere anche con TV molto luminosi.
Il motivo è legato al modo in cui vengono realizzati i contenuti.
Ci sono film che hanno discrepanze piuttosto consistenti tra il picco di luminosità relativo al display usato per il color grading - in gergo si chiama MDL - e la luminosità del pixel più luminoso presente nel flusso video - MaxCLL.
Blade Runner 2049 è un buon esempio: MDL è fissato a 4.000 nits mentre MaxCLL è a meno 500 nits, infatti il film non ha picchi molto elevati.
Se il TV prende come riferimento il dato di MDL per regolarsi si rischia che il tutto risulti fin troppo spento, in alcune scene, perché il televisore pensa di dover arrivare a gestire picchi fino a 4.000 nits e quindi riserva un ampio spazio di manovra nell'estremo in alto, spazio che però in realtà non serve perché i picchi così alti non ci sono.
In pratica le variabili sono molte.
Personalmente non contesto la feature, che per i puristi/fissati/malati è sicuramente ottima proprio perchè ti evita la doppia/tripla/quadrupla taratura a seconda della luce che ti circonda, contesto le modalità con cui è stato fatto il confronto. Il "generic HDR" non è così orrendo nemmeno sulla TV Nikkei della Coop da 100 euro.
Non si hanno servizi streaming decenti per il classico HDR, figurarsi per questa nuova menata.
bisognerebbe precisare che i metadati sono tanto più efficaci quanto più è alta la differenza fra le luminosità di picco del master e quelle raggiungibili dal TV...
se un video master raggiungesse tipo i 400 nits di luminosità di picco e il TV nativamente riuscisse a riprodurne 500 in teoria i metadati non servono a nulla.
sbaglio?
La differenza si vede ad occhio, altrimenti non esisterebbero modalità per giorno e notte con riferimenti diversi per la taratura.
Se usi una modalità notte per ambienti luminosi i colori sono slavati, non a caso una delle prime cose che mi ha insegnato il CEO di ISF, parlando di tarature dei TV, è che quando si tara per il giorno bisogna caricare i colori rendendoli più saturi del riferimento, perché in quel modo si contrasta l'impatto della luce in ambiente e per l'occhio la saturazione è quella giusta.
Purtroppo la comunicazione sceglie la via più facile ed ecco perché vengono usate praticamente sempre questo tipo di immagini.
Con un video fatto bene si noterebbe come una taratura giorno in HDR enfatizza la luminosità sui mezzi toni ma finisce per bruciare qualcosa sulle parti più luminose e cambia la resa generale - una scena ripresa con la luce di una serata estiva alle 19:00 può diventare uguale a quella di un pomeriggio alle15:00. Anche l'equilibrio tra chiari e scuri cambia - che è poi quello che vorrebbero far vedere schiarendo goffamente il nero nell'immagine che mostra la differenza in ambienti scuri.
Con una taratura per la notte, invece, l'immagine risulta spenta con colori che perdono saturazione, se vista in ambienti luminosi.
L'utilità consiste quindi nell'evitare di dover cambiare modalità video tutte le volte a mano, cosa che credo facciano solo gli utenti un po' più informati, gli altri lasceranno molto probabilmente sempre la stessa modalità.
Esattamente, pensavo anch'io alla storia dei dentifrici e degli spazzolini elettrici. Infatti è per quello che lo fanno ma penso che la gente si renda conto da sola che questi confronti sono una scemenza.
Perfino nella mia vecchia lcd del 2010 (in cui i neri sono grigi) ho meno grigi xD
Siamo ai livelli del dentifricio che fa i denti più bianchi del modello precedente. Del resto se non innovano (anche per finta) la gente non sente necessità di cambiare
12bit però sempre ricostruiti non reali, il video è cmq a 10bit come per hdr10
A ogni nuovo formato mostrano quello vecchio come se i colori fossero completamente desaturati e senza contrasto, anche se il precedente alla presentazione veniva mostrato esattamente alla stessa maniera. Che pena...
Confronto di immagini imbarazzante. Seguendo questa logica, prima dell'uscita del HDR guardavamo tutti programmi in bianco e nero, tanto sono slavati i colori in generic hdr. Questo fa capire che ad occhio nudo difficilmente si noterebbe la differenza, e quindi via con il marketing fasullo
Ma al di la del refresh, nell'immagine di mezzo sembra che i neri in HDR "liscio" siano grigi e l'immagine sia molto slavata coi colori appiattiti e senza dettagli, cosa palesemente non vera.
Capisco che devi vendere, però così fa un po' sorridere.
Quei confronti sono inutili. Nelle pagine dei monitor mettono le "immagini di confronto" con 60hz contro 144!
Per la precisione: LG C8 ha dobly vision
Infatti, io ho un LG C8 e mica si vede in quel modo slavato, ma per favore
Ecco grazie! Ricordavo ci fosse altro ma non ricordavo cosa
HDR10+ il master a 4000nits al massimo mentre DV 10000nits.
Sti confronti però sono imbarazzanti, il "generic HDR" non è per niente così orribile come sembra.
A parte i sensori, DV arriva a 12bit di profondità colore, mentre HDR10+ a 10. Non ricordo se poi ci fossero altre differenze.
si, non avevo letto bene la questione dei sensori
Semmai il contrario (HDR10+ è uscito dopo) e comunque DV è teoricamente miglioredi HDR10+
Quindi l'equivalente di HDR10+?
Seeee vabbè, mo esce fuori che l'HDR fa cahare ! XD