
25 Novembre 2020
Le ultime settimane hanno portato novità piuttosto rilevanti per HDMI, l'interfaccia divenuta lo standard per i segnali in alta definizione nel mercato home cinema. HDMI Licensing Administrator (HDMI LA), il consorzio che gestisce tutto ciò che riguarda HDMI, ha infatti comunicato due importanti cambiamenti: il primo consiste nella sparizione di HDMI 2.0, che diventa semplicemente un sottoinsieme di caratteristiche inglobato all'interno di HDMI 2.1.
La seconda novità, annunciata relativamente in sordina nel corso delle ultime ore, è invece l'arrivo di HDMI 2.1a, l'ultima revisione del formato che aggiunge altre caratteristiche alla gestione di HDR. Si soprattutto di Source-Based Tone Mapping (SBTM), una funzionalità che si somma al resto delle specifiche senza introdurre nuovi formati, come vedremo nel capitolo dedicato. Non viene nemmeno toccata la massima banda passante ad oggi supportata, motivo per cui sarà possibile predisporre aggiornamenti firmware per i prodotti già in commercio.
Vediamo in dettaglio tutte le modifiche apportate di recente al formato.
Indice:
HDMI 2.0 è destinata a sparire e ad essere inglobata all'interno delle caratteristiche di HDMI 2.1. Ogni versione di HDMI è infatti retrocompatibile e pertanto tutte le specifiche di HDMI 2.0 sono presenti su ogni prodotto dotato di un connettore HDMI 2.1. Perché si è arrivati a questa situazione? Molto semplicemente non è più possibile certificare i prodotti come compatibili con HDMI 2.0. La diretta conseguenza è che su tutte le nuove uscite verrà utilizzata la dicitura HDMI 2.1, anche in assenza di qualsivoglia caratteristica legata alla versione più aggiornata.
Ovviamente questo aspetto rischia di creare una notevole confusione nell'utente meno informato o avvezzo alla tecnologia. Il consorzio HDMI ci ha spiegato che è comunque necessario un requisito aggiuntivo per poter parlare di HDMI 2.1 all'interno delle specifiche: i produttori dovranno indicare quali funzionalità di HDMI 2.1 sono supportate. Questa non è però una novità: a dispetto del modo con cui la notizia è stata trattata da varie testate, su HDMI.org è sempre stato indicato chiaramente che la dicitura HDMI 2.1 si può usare solo quando viene associata ad una o più delle funzioni o caratteristiche elencate nelle specifiche, come abbiamo chiarito nella nostra guida. Non c'è dunque alcun dubbio che la scritta "HDMI 2.1" non sia mai stata la garanzia di un supporto totale.
Tutti i marchi che utilizzano HDMI dovranno quindi indicare specificamente il perimetro della compatibilità assicurata da ciascun prodotto. Restano però evidenti alcune criticità. La prima è direttamente legata all'impossibilità di certificare i prodotti come HDMI 2.0. In precedenza si usava HDMI 2.1 solo in riferimento a caratteristiche come eARC, Auto Low Latency Mode, Variable Reresh Rate, High Frame rate eccetera, cioè solo quando almeno una delle novità introdotte dall'ultima revisione era effettivamente presente. Da ora in avanti si potrà invece citare HDMI 2.1 anche quando nessuna delle tecnologie summenzionate sarà realmente supportata. Ai produttori basterà indicare che la porta o le porte presenti sono compatibili con quel sottoinsieme di funzioni che non vengono più chiamate HDMI 2.0, ma che rientrano in HDMI 2.1 tramite la retrocompatibilità.
Un esempio lo si è già avuto con un monitor Xiaomi: la scheda tecnica indica che i 2 HDMI 2.1 supportano TMDS (Transition Minimized Differential Signaling), una soluzione sviluppata da Silicon Image e inizialmente adottata per l'interfaccia Digital Visual Interface (DVI). HDMI 2.1, nella sua forma completa, mantiene il supporto a TMDS per assicurare il funzionamento di tutti i dispositivi, ma sfrutta la nuova tecnologia Fixed Rate Link (FRL) che può operare su un massimo di 12 Gbps per 4 canali, raggiungendo così i 48 Gbps che rappresentano il tetto fissato nelle specifiche.
A questo punto è dunque chiara la differenza rispetto al passato: un produttore può dichiarare che il suo TV, monitor, proiettore eccetera è HDMI 2.1 specificando che supporta o una delle caratteristiche precedentemente riferite a HDMI 2.0 (come TMDS), oppure una delle nuove funzioni realmente legate alla versione più recente. Se dunque è sempre stato necessario controllare bene le schede tecniche per assicurarsi che il nuovo acquisto abbia tutto quello che serve, da ora in avanti lo si dovrà fare con ancora più attenzione.
La seconda criticità che rileviamo è che il sistema presuppone il rispetto delle direttive da parte di tutti gli operatori. Se tutti si adegueranno sarà sufficiente controllare le specifiche per avere un quadro chiaro; ovviamente aumenterà la complessità per gli utenti ma ci sarà comunque modo di tutelarsi. Non ci sono però garanzie che tutti lo faranno e ne abbiamo già avuto un esempio con i cavi. HDMI LA ha sempre dichiarato che non è consentito accostare la versione di HDMI ai cavi: non si dovrebbero cioè vendere cavi HDMI 2.1, il cui nome corretto è invece Ultra High Speed HDMI Cable. Chiunque abbia effettuato una ricerca su internet, in vista di un acquisto, sa molto bene che a discapito delle direttive sono molti i cavi venduti proprio come HDMI 2.1. Per questo motivo non ci sentiamo così sicuri che tutti forniranno le necessarie informazioni con dovizia di particolari.
HDMI LA ha voluto però sottolineare che la situazione verrà monitorata e che le eventuali violazioni segnalate saranno oggetto di attente indagini. Agli utenti consigliamo pertanto di basare i propri acquisti sulle funzioni ritenute necessarie per le proprie esigenze: chi è appassionato di videogiochi deve controllare la presenza di Auto Low Latency Mode, Variable Refresh Rate e del supporto per i 120 Hz, gli appassionati di film devono verificare la capacità di visualizzare contenuti con HDR nei formati provvisti di metadati dinamici e così via. Basarsi solo sulla scritta "HDMI 2.1" era già sbagliato in precedenza e rischia di essere completamente fuorviante nel prossimo futuro.
L'annuncio di HDMI 2.1a è giunto senza particolare enfasi: per la presentazione ufficiale si attenderà probabilmente l'avvio del CES 2022 (5 - 8 gennaio). Scorrendo il sito di HDMI.org e aiutandosi con la cache di Google, si possono reperire varie informazioni, alcune delle quali evidentemente inserite in anticipo e poi rimosse. La novità principale è quella che abbiamo già citato in precedenza: il Source-Based Tone Mapping (SBTM).
Di cosa si tratta? Il tone-mapping è l'elaborazione effettuata da televisori, proiettori e monitor (praticamente qualsiasi dispositivo dotato di uno schermo e compatibile con HDR) per adattare la luminosità dei contenuti alle caratteristiche di quel determinato prodotto su cui si sta visualizzando il contenuto. SBTM nasce per ovviare ad un limite attualmente presente: il tone mapping eseguito secondo i sistemi usati ad oggi non tiene normalmente conto delle caratteristiche dello schermo.
HDMI LA specifica che tale approccio non è un problema quando si parla di formati come HDR10 e HLG, poiché solitamente i TV applicano il tone-mapping andando oltre le possibilità offerte concretamente dal pannello in termini di picco di luminanza. Ciò significa che si tiene sempre una certo margine. Capita però che alcune sorgenti combinino l'HDR con altri formati, come ad esempio l'HDR con metadati dinamici, l'SDR (Standard Dynamic Range, la gamma dinamica standard) e grafiche. È ad esempio il caso dei videogiochi o dei menu presenti sui servizi streaming come Netflix, Prime Video eccetera.
Un esempio pratico lo si è avuto in varie occasioni con alcune console o sorgenti esterne: non è affatto raro che l'attivazione dell'HDR porti ad effetti non piacevoli, con alcuni elementi dell'interfaccia forzati in HDR (quando non lo sarebbero) e pertanto visualizzati con picchi di luminanza inutilmente elevati, tanto da risultare a volte fastidiosi (specialmente se gli sfondi sono scuri). Lo stesso vale per i colori, che possono subire una conversione negli spazi più ampi tanto inutile quanto scorretta, dato che le tinte originarie fanno riferimento al ben più ristretto Rec.709 (il rosso diventa ultra-saturo come gli incarnaci mostrati all'interno delle locandine).
Questo succede perché l'ottimizzazione degli elementi misti in HDR, SDR, menu eccetera richiede un'elaborazione compiuta dalla sorgente e non dallo schermo, che riceve semplicemente il segnale senza poter più distinguere un elemento dagli altri, finendo per trattarli tutto allo stesso modo. SBTM risolve questa limitazione spostando l'elaborazione del tone-mapping dallo schermo alla sorgente, sulla falsariga di quanto succedeva già con il Dolby Vision Low Latency Mode. SBTM mette in comunicazione lo schermo e il dispositivo collegato tramite HDMI col fine di ottimizzare la gestione di HDR.
La sorgente può così inviare un segnale capace di sfruttare a pieno le caratteristiche di quel determinato schermo, regolando l'uscita video per spremerne il pieno potenziale. Si tratta perciò di un tone-mapping che non si basa semplicemente su un set di colori e un intervallo di luminanza prefissati (come avviene per i formati HDR non dinamici): è la sorgente che adatta tutti questi valori al pannello a cui è collegata.
SBTM è pensato specificamente per PC da gioco e le console poiché permette sostanzialmente di replicare la funzione di HGiG, lo standard promosso da HDR Gaming Interest Group. Grazie ad HGiG si può ottimizzare la resa dei giochi in HDR in base alle caratteristiche del televisore collegato: per farlo è però richiesto un intervento manuale volto ad ottimizzare il risultato. L'utilità di SBTM consiste nel fatto che la regolazione manuale non è più richiesta.
HDMI LA specifica infine che Source-Based Tone Mapping non è un nuovo formato che si aggiunge a quelli esistenti ma si traduce in una funzione in più per tutti i prodotti compatibili con HDR. Si può implementare su tutti i set-top box e molti potranno essere aggiornati grazie a nuovi firmware. Lo stesso vale per i TV, proiettori e monitor: la compatibilità potrà essere estesa tramite aggiornamenti e sarà richiesta sia nella sorgente sia nel dispositivo che riceve il segnale. HDMI 2.1a dovrebbe inoltre apportare alcuni miglioramenti al Quick Media Switching (QMS: ne parliamo in dettaglio qui) e all'HDMI Cable Power, cioè la possibilità di alimentare i cavi HDMI attivi direttamente dal connettore, senza richiedere un cavo aggiuntivo. Maggiori dettagli arriveranno a breve da Las Vegas.
Commenti
a loro non interessa saperlo...
Sni.
Il TB necessita di un controller, che compr da Intel. Costa 10€, e quindi tanto, ma volento è tranquillamente integrabile da chiunque.
Il problema è che in molti hanno sempre creduto fosse appunto solo di Intel, quando in realtà chiunque avrebbe potuto utilizzarlo. Per intenderci, le schede di espansione PCIe necessitavano, oltre al PCIe chiaramente, anche di un cavo GPIO da collegare alla mobo, chiaramente "certificata". Sto cavo non faceva altro che dice "si la scheda è certificata". Morale, chiunque avrebbe potuto usare il TB, ma hanno sfruttato sto giochino per tenerlo per pochi e mantenere i costi alti.
Ad oggi è vero, ci fai poco, ma pensa solo a qualche anno fa quante vendite si sono mangiati dietro ad un finto costo, pur di tenere tutto chiuso. Oggi stiamo correndo tantissimo e finalmente l'USB 4.0 sarà un vero passo avanti, ma pensa solo all'uscita del TB3 che cosa era
Ma la Thunderbolt è un discorso diverso... è proprietario, introduce royalties richiede un processore dedicato(che solo intel integra e non da molto nei suoi CPU), e non sono così diffusi e prodotti. Non ha la stessa compatibilità di USB e in fondo ora come ora offre veramente pochissimo di più.
Avere una USB 4 invece che una Thunderbolt è praticamente indifferente. Decisamente meglio avere 2 uscite USB 4 con uscita video e PowerDelivery (che tra le altre cose ora con la 20V raggiunge 240W di potenza).
Però hai visto, tra il tempismo e soprattutto quelli che ci sono dietro, difficilmente cambierai il paradigma.
Tu pensa che Thunderbolt è rimasta segregata per anni dietro ad Intel ed Apple, quando in realtà sarebbe stata disponibile per tutti
“ Costa meno, HDMI si fa pagare (da quel che ricordo) 10K€ anno + 0.04€\0.08€ per ogni HDMI utilizzata e fa pagare anche gli accessori.”
Praticamente nulla anche se rapportata al costo anche soltanto di un accessorio anche perché non è che ogni rivenditore sulla supply chain debba pagare la fee a sua volta.
Come ho detto prima sono tutte cose che a chi produce televisioni non interessano più di tanto è sicuramente non si mettono li a supportare uno standard che a conti fatti non combacia neanche con le caratteristiche che offre HDMI al momento.
“ Sia per il consumer che per l'enterprise permette di ridurre i cavetti, di avere un connettore che è nettamente più piccolo ed è a gran mercato”
Nell’ottica televisione è una cosa irrilevante, non si sta parlando di monitor che devono essere collegati è scollegato dal portatile (perché oltre a quelli anche li la cosa perde senso se devo collegare il pc fisso preferisco usare la display port a grandezza normale
non mi metto ad usare la versione USB-C.
“ Un banale cavo HDMI 2.1 costa il doppio di un cavo type-c di fascia alta”
Qua invece c’è un errore di fondo un cavo super hight speed (2.1 non significa nulla) costa tanto perché è certificato di poter ottenere la banda passante necessaria a passare i test. Fare un qualsiasi paragone con un cavo usb c che supporta la DisplayPort (che poi quale displayport ? 1.4 ? Ci arriva a 8k/60 a 12bit?) non ha il ben che minimo senso perché in quell’ambito non ci sono certificazioni da fare e su ste cose devi andare a sentimento. Anche con HDMI puoi prendere un qualsiasi cavo a 5 euro e sperare che sia abbastanza decente a supportare il nuovo standard.
Io sono un appassionato del mondo open source, è c'è da togliere la convinzione che OPEN significhi morire di fame...
Blender, Linux Foundation, Mozilla, etc... Sono tutte aziende del mondo open che hanno sempre pagato i propri dipendenti, non sono volontari.
Vale lo stesso ovviamente per USB e Vesa.
Sul time to market ok, è proprio il fatto, purtroppo.
La display Port ha diversi vantaggi.
È uno standard open, anche modificabile se dovesse servire.
Supporta la USB-C, che è una grande feature, anche se ha i suoi limiti... Sia per il consumer che per l'enterprise permette di ridurre i cavetti, di avere un connettore che è nettamente più piccolo ed è a gran mercato, permette di unificare i cavetti, per cui se non hai un cavetto a portata di mano puoi sempre prendere uno tyoe-c o fartelo prestare a qualcuno(e fidati che io ho un dispositivo con power delivery e display Port su type-c ed è una comodità incredibile)... Semplicemente sul mio compiuter una porta HDMI non ci sarebbe mai entrata, e la type c batte 10 a 0 l'hdmi
Costa meno, HDMI si fa pagare (da quel che ricordo) 10K€ anno + 0.04€\0.08€ per ogni HDMI utilizzata e fa pagare anche gli accessori.
Un banale cavo HDMI 2.1 costa il doppio di un cavo type-c di fascia alta
Perchè è lo standard per un intero settore e il nuovo (almeno come form factor) non è riuscito ad offrire abbastanza feature per poter spodestare il vecchio e questo basterebbe anche in reatè, poi però se vai a guardare con la display Port non puoi fare neanche tutto quello che al momento fai con HDMI , per esempio non esiste una funzione analoga di eArc e neanche per ALL (e si capisce anche il perchè sui monitor queste cose non servono).
"ma qui andrebbe dimostrato il perché hdmi sia più conveniente di una display port implementata in una type-C."
In realtà è il contrario bisogna dimostrare cosa ha in più displayport (lascia stare USB-C in cuoi aprire tutto un altro discorso) che avrebbe dovuto far si che tutti i produttori si fiondino su quest'ultimo (dopo 20 anni che non l'hanno fatto).
Persino Apple si è dovuta arrendere e ha rimesso l'HDMI sui suoi portatili Pro anche se avevano mille mila porte che supportano a pieno la displayport.
d'accordo con te, ma qui andrebbe dimostrato il perché hdmi sia più conveniente di una display port implementata in una type-C.
La DisplayPort non implica limiti dal punto di vista consumer, anzi è un grosso vantaggio anche per loro.
Non vedo alcuna ragione per preferire HDMI.
non ho capito ma quelli certificati su amazon 2.1 a circa 15-20€ come sono?ne ho preso uno oggi per la mia apple tv 4k
Ma cosa stai dicendo?! La risoluzione la decide la sorgente (inteso come dispositivo, non come flusso video) e non la TV o il proiettore.
Con tutta la ragione che hai la potresti vendere! Non si è mai visto un connettore così stupido come l'hdmi, senza possibilità di fissaggio e che se lo tocchi non funziona più! Per non parlare delle EMC sui cavi più lunghi di 2 metri.
Displayport FTW!
"Secondo presumo che ci sia differenza di banda passante, se passa audio o solo video e se quello che viene renderizzato dalla sorgente è 720, 1080, 2k e così via no?"
Quando hai una tv a 1080p dovrai sempre e comunque dover un determinato cavo che ti permette di poter sfruttare una certa quantità di banda (poi a seconda di diversi fattori come Framerate/sottocampionamento cromatico ecc potresti aver bisogno di standard differenti)
Se vuoi la formula Banda segnale video = risoluzione video x profondità colore (totale) x Fps quindi per esempio un televisore 4k 10 bit a 60 fps richiede sempre e comunque 3840x2160x30x60 bit/s .
(specifico che qua non ho preso in considerazione l'audio, ma anche per quello esiste una formula che rimane tale anche se non gli mandi nulla al televisore)
Non importa quello che la sorgente invia come contenuto al televisore, importa che risoluzione hai impostato il dispositivo al momento in cui ha fatto il primo collegamento quando hai attaccato il cavo. Se ti guardi un video in 720p con un box, ma quest'ultimo è collegato in 4k al televisore a la TV importerà meno di 0 cosa gli mani non è che la risoluzione aumenta e diminuisce a seconda del contenuto che mostri a schermo.
"Oppure mi confermi che se dalla mia sorgente mando al tv un 1080p mi serve comunque questo cavo perchè per gestire il pannello serve sempre quella banda passante?"
Ti serve un cavo abbastanza buono che permetta di supportare a pieno la combinazione di risoluzione/profondità di coloro e framerate richiesta. Poi se ti guardi una foto in bianco e nero, un Film su Netflix, un Blueray oppure un videogioco non cambia nulla (aggiungo che di solito i contenuti multimediali sono codificati in 4:2:0).
"Scusami ma prima di tutto, potevi spiegare le tue teorie senza fare il dottorino"
Guarda con tutta la pazienza del mondo a me di fare il dottorino su ste cose importa meno di zero, se mi avessi scritto di spiegare meglio cosa volessi dire con il mio "Non c’entra niente" probabilmente mi sarei anche messo li a spiegarti cosa volessi dire, ma dopo il secondo messaggio (con anche riterata la stessa idea che mi aveva spinto a scrivere la prima risposta) non ho avuto voglia di approfondire la cosa.
E anche ora scrivo controvoglia questo papiro anche perchè non ho voglia di sertirmi dire che faccio il dottorino e/o scrivo "stro n z a ta" senza neanche vedere dalla controparte un minimo di interesse su sta cosa (e infatti il tutto è partito da una polemica sterile eh)
Praticamente a sto punto a che m1nch1a serve indicare una versione di un protocollo se poi a parità di versione ognuno mette le funzioni che vuole?
Scusami ma prima di tutto, potevi spiegarmelo senza fare il dottorino sin da subito, questo non ti rende meglio degli altri ma solamente antipatico.
Secondo presumo che ci sia differenza di bandwith, se passa audio o solo video e se quello che viene renderizzato dalla sorgente è 720, 1080, 2k e così via no?
Ripeto non c’entra nulla.
I cavi per collegare monitor hanno bandwidth così alte purché anche soltanto facendo 2 conti ci si accorge che serve tantissima banda per pilotare un qualsiasi monitor. (Non è che dai cavi ci deve passare Netflix con i suoi contenuti, il pannello richiede quella banda a prescindere)
Se devi fare una polemica (spoiler non è una delle migliori ) almeno porta delle argomentazioni un minimo sensate che possono portare a qualcosa differente da un face Palm.
Era solo una polemica per dire che abbiamo tutto questo bandwith sui cavi e poi le app di streaming hanno bitrate imbarazzanti.
Ieri guardavo un film su netflix sul 55 a 1 metro circa di distanza potevi contare i pixel sgranati.
Occorrerebbe una lunga lista di offese per esprimere il disprezzo che provo nei confronti di quelle persone che hanno apportato questo cambiamento.
Ottimo solo per aggiungere confusione.
11 e lode
Non so se sia peggio il consorzio di HDMI oppure quello di USB
Ogni volta che mettono mano ai nomi, riescono a complicare, anziché a semplificare.
Ufficio complicazioni cose semplici...
Esatto, 4K 180Hz no chroma sub sampling, il monitor è un LG GP950
appunto è il link che ho messo ,entro 3m non cambi a nulla.
180Hz ?!?
Bisogna far passare il messaggio che gratuito non significa più conveniente.
Non è mica un peccato mortale parare chi ti crea lo standard…
Non c’entra niente
Non puoi, devi vedere quali caratteristiche ha la televisione/dispositivo che stai comprando
Praticamente hanno incasinato il tutto
Anche la FireWire era superiore all'USB, all'epoca. Poi s'è vista la fine che ha fatto.
vero, stavolta ho fatto l'analfabeta funzionale.
effettivamente non l'avevo considerato.
RIDI nel senso che faceva ridere...
Che macello. Ora come si distingue un vero 2.1 da un falso 2.1?
HDMI è consumer, DP è professionale, quindi ha preso la fetta più grande di mercato. Andava bene, ha la protezione dei contenuti ed ha le sue royalties così guadagnano tutti.
Assolutamente, cambia nome e diventa parte di HDMI 2.1, quindi se tutto si chiamerà 2.1 a sparire è la 2.0.
Ovviamente ho forti dubbi su questo tipo di gestione: come hai detto c'era già abbastanza confusione senza bisogno di aggiungerne altra.
Già prima serviva a poco dire HDMI 2.1 (poteva anche indicare solo eARC o ALLM), da ora in poi si potranno chiamare così anche le porte che sono compatibili fino alle specifiche della 2.0.
Stiamo sostanzialmente dicendo la stessa cosa. La 2.0 cambia semplicemente nome, non funzione e funzionalità. Posso fare una 2.0 chiamandola 2.1 senza mettere nulla della 2.1. La 2.1 includeva già la 2.0 solo che ora posso chiamarla 2.1 senza cambiare assolutamente nulla rispetto alla 2.0.
In pratica è una "truffa" bella e buona.
Già la 2.1 era fumosa, ora ci sarà una invasione senza di fatto essere una 2.1 reale, per questo dico che DI FATTO la 2.1 scomparirà con tutte le sue funzioni, verrà usata solo nei tv top gamma e in qualche medio gamma. Al max si limiteranno a mettere qualche funzione secondaria che andrà cercata puntualmente dalle vostre recensioni.
Io continuo ancora a non capire perché questa porta sia così diffusa.
Esiste uno standard open e gratuito che va pure meglio. Tra le altre cose ora si integra con la TypeC, il che permette grossi benefici rispetto a quello schifo di connettore che us l'HDMI
la maggioranza di chi va al centro commerciale non sa la minima differenza tra hdmi 1 e 2 il consumatore meno sa e piu lo si puo "fregare"
Allora, io ho avuto una situazione simile con i cavi Amazon Basic 18 Gbps. Collegando il lettore Blu-ray 4K al TV non mi passava il segnale 4K HDR: o 4K ma SDR oppure HDR ma 1080p, e se collegato il lettore in cascata con la soundbar, lo schermo glitchava e presentava evidenti segni di posterizzazione. Questo con tutti i cavi Amazon che avevo, ovvero 6 o 7. Ho cercato in rete cavi certificati e ho trovato questi Maxonar 48 Gbps su Amazon (anche se poi li ho presi dal sito ufficiale perché risparmiavo una manciata di euro), con cavo in corda, connettore dorato e un bel design. Ho controllato la certificazione scansionando l'ologramma con l'app sullo smartphone ed è passata. Ho installato questi cavi in tutto il mio setup home cinema. Risultato: ora va tutto perfetto.
Quello che voglio dire è che a volte basta avere un buon cavo. Probabilmente nel caso tuo è stato così, e non c'entrano nulla i 3 metri. Finché si sta sotto i 5 m va tutto bene. Tant'è che infatti pochi producono cavi più lunghi di 5 m. Con tutto che chiaramente il cavo deve essere preso più corto possibile, ma più che altro per un fatto anche di estetica e di ingombri
Da anni si sta tentando di armonizzazione il settore dei cavi e connettori, da chi non ne sa nulla di cavi e specifiche, spero e mi auguro che in futuro basti un cavo USB 4 o futuri.
Ho scritto l'articolo, conosco bene il contenuto e per l'appunto è HDMI 2.0 a venire inglobata nella 2.1, non il contrario anche perché non sarebbe nemmeno possibile.
HDMI è retrocompatbile, quindi la 2.1 comprende tutte le specifiche della 2.0 mentre non vale il contrario.
Nelle schede tecniche si troverà sempre HDMI 2.1, non HDMI 2.0.
Eh sì, più che altro la vera differenza la fa su console nextgen e schede video potenti
Cito: "In precedenza si usava HDMI 2.1 solo in riferimento a caratteristiche come eARC, Auto Low Latency Mode, Variable Reresh Rate, High Frame rate eccetera, cioè solo quando almeno una delle novità introdotte dall'ultima revisione era effettivamente presente. Da ora in avanti si potrà invece citare HDMI 2.1 anche quando nessuna delle tecnologie summenzionate sarà realmente supportata. Ai produttori basterà indicare che la porta o le porte presenti sono compatibili con quel sottoinsieme di funzioni che non vengono più chiamate HDMI 2.0, ma che rientrano in HDMI 2.1 tramite la retrocompatibilità."
Lo so ma quelli certificati realmente non costano €10 purtroppo, comunque ripeto, non tutti i cavi hanno problemi, ma in situazioni particolari un cavo il più corto possibile può aiutare, lo so perchè mi è capitato proprio un paio di mesi fa, ho preso il monitor nuovo 4k 180Hz e il cavo che usavo prima, KabelDirekt 2.1 da 3m faceva perdere il segnale, schermata nera per intenderci, preso un cavo 2.1 da 1m e non ho avuto più problemi. Leggendo in giro è un problema noto che può capitare proprio in queste situazioni particolari.
ma anche nel settore pc, per quello che vedo io, a parte grafici, operatori cad e via dicendo, usano quasi tutti l'hdmi.
si, quel "ready" era veramente la presa per il c*lo suprema.
Le specifiche sono quelle di HDMI 2.1, non quelle di HDMI 2.0.
Esattamente ahaha erano tutti 720p non 1080p, sembrava quasi come se stessero ad annunciare "Questo televisore HD-Ready quando ci sarà il fullHD sarà pronto (a fare pena)"