MediaTek Pentonic 2000 ufficiale: super chip per TV 8K 120Hz

21 Novembre 2021 64

Dopo aver annunciato Dimensity 9000, primo chip al mondo per smartphone realizzato con processo produttivo a 4nm, MediaTek ha presentato il processore Pentonic 2000 destinato alle TV 8K di nuova generazione. Il lancio coincide con la presentazione dell'inedita famiglia di prodotti Pentonic Smart TV. "Il nuovo chip Pentonic 2000 è progettato con tutte le funzionalità flagship che i consumatori desiderano - dalle più recenti tecnologie per display e audio fino alle frequenze di aggiornamento super veloci, alle potenti capacità di intelligenza artificiale, allo streaming picture-in-picture e tanto altro", spiega il VP Mike Chang.

Il chip all-in-one è il primo realizzato per le TV tramite processo a 7nm N7 di TSMC: supporta display 8K con refresh rate a 120Hz e PC gaming a 144Hz, oltre che le console di ultimissima generazione. É dotato dell'inedita tecnologia AI-Super Resolution che consente di effettuare l'upscaling in tempo reale dei contenuti a bassa risoluzione alla risoluzione nativa del display, mentre Intelligent View apre le porte "degli schermi Picture-in-Picture o Picture-by-Picture, permettendo ad un ampio display con risoluzione 8K di mostrare un display wall di diverse fonti multimediali". In altre parole, sarà possibile visualizzare contemporaneamente contenuti in streaming provenienti da più fonti (app) alla massima risoluzione possibile.

CARATTERISTICHE TECNICHE
  • processo produttivo N7 di TSMC
  • supporto fino a display 8K 120Hz, hardware PC gaming 144Hz, console di ultima generazione
  • engine MEMC 8K 120Hz integrato
  • MediaTek APU con tecnologia AI-Super Resolution per l'upscaling intelligente
  • MediaTek Intelligent View per il PiP/PbP
  • MediaTek AI-Picture Quality Scene Recognition di 2a generazione
  • MediaTek AI-Picture Quality Object Recognition di 3a generazione
  • memoria UFS 3.1
  • supporto a WiFi 6E e 5G
  • supporto HDMI 2.1
  • connettività USB
  • supporto a Versatile Video Coding (VVC) H.266 per una maggiore efficienza di compressione
  • supporto agli standard HDR
  • Dolby Vision
  • Dolby Atmos
  • supporto agli assistenti vocali e integrazione ai dispositivi smart home
  • supporto AV1 per i servizi streaming
  • supporto a tutti gli standard di trasmissione, incluso ATSC 3.0

Pentonic 2000 verrà integrato sulle prime TV 8K a partire dal prossimo anno.

Il TOP di gamma più piccolo? Samsung Galaxy S21, in offerta oggi da Riphonegreen a 659 euro oppure da ePrice a 717 euro.

64

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
FabriFi

be hanno dalla loro la compatibilità con il nuovo h266 appena presentato. Ci credo molto

Luke

Io guardo i film sul monitor del PC e si vedono benissimo.

davide

Per altro qualsiasi cosa che noi percepiamo ed intepretiamo mediante il cervello è una approssimazione della realtà.
Dunque ? Se osserviamo una approssimazione della realtà mediante la nostra approssimazione della realtà, quello che stiamo osservando è meno reale?

davide

Continui a parlare senza toccar con mano, per giunta per sentito dire.
Ti ho messo a disposizione uno strumento free.
Ti ho messo nella condizione di testarlo.
Ti ho spiegato quanto può essere innovativo il fatto che un chip possa farlo realtime con un segnale video.

Rimani pure nel tuo guscio che vuoi che ti dica

Massimo Olivieri

quello dipende da al firmware fatto coi piedi e da android tv non dal soc.

Massimo Olivieri

i monitor non hanno la gestione del moto ne engine video ... si vedono da schifo .

Massimo Olivieri

cosi: ottimizzazione, calibrazione, integrazione si vano a benedire...

Massimo Olivieri

ho ha dimenticato i lettori BD UHD sono tutti mediatek tranne panasonic

Chicco Bentivoglio

E perché da oltre 2mt vedi differenze tra 1080p e 4k?

GeneralZod

E' migliore solo nella misura in cui non siamo in grado di distinguere un 8K reale da uno ricostruito. E comprendo quello che dici ma entriamo più nel filosofico che nel pratico. Perchè di fatti la percezione se pur alterata digitalmente dovrebbe essere quella che descrivo.

GeneralZod

Sono aspetti le cui opinioni contano relativamente. Un enorme 85" la cui larghezza è 1,88m, a 2,6m di distanza corrisponde ad un angolo visivo di soli 40°, ben al di sotto delle capacità umane. E a quella distanza con quel pannello la differenza di nitidezza si potrebbe notare eccome. Con 2 pannelli uno accanto all'altro il tuo blind test fallisce al 100% IMHO.

Fabio Biffo

Ma 8K a 144Hz veri a 10 bit 4:4:4 senza compressione o finti?

Luke

Puoi comprare un monitor e attaccarci un computer per vedere le cose in streaming e un decoder per vedere i canali della tv. L'unico problema è che monitor grandi come i televisori hanno costi proibitivi.

Nella mia tv c'è il Mediatek MT9615 e non va benissimo

non c'entra nulla con quello che ho scritto.
Magari leggi meglio la prossima volta prima di rispondere.

Roundup

Che sia la volta buona che gli android tv ci metteranno meno di 3 secondi per cambiare canale?

Davide

Così come vedevo la differenza tra FHD e 4k probabilmente vedrei anche quella tra 8k e 4k

Davide

Sarebbe anche ora di iniziare ad avere TV che non pagano da schifo nei menù

Aster

Non hai ancora capito che è un articolo informativo e un blog di informazione, per il resto puoi tornare da facebook

"No non capisco cosa c'entra il tuo commento"

ti avevo già consigliato l'insegnante di sostegno per questa eventualità.
Evidentemente tu che commenti a monosillabi ti aspetti che anche gli altri lo facciano, forse perchè non vai oltre alla prima riga quando leggi ;)

E con questa, addio.

Aster

A ok.

piervittorio

Sì, mi riferivo solo ai dispositivi multimediali Android.
Anche perchè diversamente oltre a modem e router, ci sono miliardi di dispositivi IoT, senza considerare che anche tutti i SoC dei vari Echo Dot, Echo Show ecc. sono anch'essi Mediatek.

Aster

No non capisco cosa c'entra il tuo commento quando 99% della gente compra la tv del volantino da ipercoop.Se hai una vita triste non e colpa degli utenti, la scienza è cosa da grandi.

tu sei quello che, nel 99% dei casi commenta "giusto", "bene", "ottimo".
Non ho altro da aggiungere vostro onore.

Se poi non capisci il nesso fra utilità dell'8k e questo articolo, boh, prova con un insegnante di sostegno.

Sergios

avevo letto anni fa che era 12k il limite percepibile, ovviamente non ho idea se sia vero

Slartibartfast

Quello che dici in principio è giusto, ma il 4K non si avvicina neanche lontanamente a "saturare" la risoluzione che puoi percepire coprendo l'intero campo visivo.

Aster

Hai dimenticato i modem e router

Aster

Magari ti sei fermato solo negli smartphone!

Aster

Ma che c'entra con l'articolo?! o cosi per fare l'esperta di turno

piervittorio

Guarda che già da molti anni la quasi totalità degli Android TV è basata su chip MediaTek, così come pure i Fire Stick TV ed i Fire Cube TV di Amazon, ovvero i dongle più diffusi al mondo, sono basati su chip MediaTek.
La sola novità è che dopo la guerra di Trump alla Cina, che ha buttato fuori dal mercato Huawei ed i suoi Kirin, nonché la fonderia nazionale SMIC, i produttori cinesi (che controllano due terzi del mercato smartphone mondiale) si sono orientati "con maggior decisione" (su ovvio suggerimento governativo) verso SoC taiwanesi a scapito dell'americana Qualcomm, e Mediatek, avendo una buona opportunità per crescere anche nelle soluzioni premium per telefonia, ha preso la palla al balzo.
Come predissi a quel tempo, la principale vittima della scellerata politica trumpiana sarebbe stata proprio Qualcomm, ed infatti oggi siamo con Mediatek che detiene il 43.5% del mercato dei SoC per smartphone contro il 24% di Qualcomm (solo due anni fa le quote di mercato erano invertite), con Unisoc che sta anch'essa entrando nel mercato dei SoC in modo sempre più convincente.

no, non è relativo visto che c'è un limite: lo schermo non può essere più ampio del tuo angolo di visione altrimenti vedi solo un parte dello schermo, quindi se ti avvicini troppo, sicuramente vedi dei dettagli in più, ma rientrano nel concetto di zoom.

il punto è che, salvo occhi fenomenali (ed è da dimostrare che esistano), se guardi lo schermo senza dover girare la testa per vedere da un bordo all'altro, allora sei arrivato alla minima distanza.
Ed è da lì che si fa il test.
Test che sono pronto a scommettere nessuno passerebbe.
Ovviamente c'è il discorso che per l'8K alzerebbero il bitrate quindi un miglioramento generale ci sarebbe anche se non dettato dalla risoluzione in sè.

Ottoore

Il problema è che qui non parliamo di buco. Parliamo del fatto che un quadrifoglio in 4k sia meglio del trifoglio (errato) in 8k.

Unito alla nostra incapacità di percepire l'aumento di risoluzione ad una corretta distanza di visione, stiamo parlando di una pratica dannosa. Non discutiamo nemmeno delle sorgenti di bassa qualità dove l'articiosità dell'immagine risultante è palese anche ad un ipovedente.

GeneralZod

Di fatto anche le AI non sono prevedibili e ci sono dei contro studi per capire il perchè dei loro risultati. Questi talvolta spaventano gli stessi ricercatori. E' corretto il tuo esempio. Potrebbe ricostruire il trifoglio. Ma tu vedresti il bel prato senza il buco. Nel contesto di cui parlavamo non c'è grande mancanza d'informazione. Siamo già in 4K. Per questo è in grado di funzionare alla grande.

opt3ron

E qualità della fonte.

Ottoore

Percependo la differenza perché l'AI, sempre per il discorso che è approssimazione statistica, introduce elementi assenti nell'immagine nativa.
Ripeto per l'ultima volta: sei vittima dell'oversharpened, ossia vedi una linea o un bordo più definito e pensi sia migliore. In realtà vedi il prodotto di un'AI che introduce elementi che ha imparato ma che, nell'immagine nativa, non sono presenti.

Mi è capitato di fare questo esempio: in un campo di trifogli in cui è presente un solo quadrifoglio, se cancellassi quel quadrifoglio dando all'AI l'onere di ricostruire l'immagine, questa ricostruirebbe un trifoglio.
La realtà non è prevedibile, l'AI sì.

GeneralZod

Non mi sono smentito, la differenza è sottile. Con il DLSS riproduci un'immagine inferiore a 4K su uno schermo 4K senza percepire la differenza. Ovvero per te l'immagine è realmente in 4K.
Per l'8K vale lo stesso. Stai portando il 4K in 8K, ovvero per te quel contenuto sarà 8K (migliore) perché per lo stesso motivo non sarai in gradi di percepire la differenza con un 8K nativo. Ovvero sarà migliore di un 4K visto su un 4K o di un 4K upscalato alla vecchia maniera su un 8K, ovvero migliore dell'originale.

GeneralZod

Tutto è relativo a distanza di visione e dimensione del pannello.

Ottoore

Ripeto, ti smentisci da solo. Ammetti che il prodotto dell'AI è frutto dell'approssimazione statistica ma poi dici che quella upscalata è migliore di quella originale.

La differenza c'è e mi stai anche dando ragione sul fatto che nessuna AI possa produrre un'immagine uguale, o migliore, dell'originale.

GeneralZod

Ma non sarai in grado di percepire la differenza. Un contenuto già in 4K upscalato ad 8K su un TV 8K si vedrà meglio del contenuto originale in 4K. Per lo stesso motivo sui videogiochi tecnologie come il DLSS stanno portando la risoluzione a 4K partendo da risoluzioni inferiori. Si aumentano i FPS e non si notano differenze degne di nota.

Ottoore

Hai confermato esattamente ciò che ho scritto: "in modo statistico partendo da dati noti".

Approssimazione, nulla può replicare la realtà.

GeneralZod

Mica vero. Le IA sono anche in grado di de-offuscare volti e fare operazioni che comuni algoritmi o umani non sono in gradi di fare. Se sa com'è fatto un albero e ne vede uno è in grado di ingrandire tante volte quell'albero ricreando un dettaglio incredibile. E lo fa letteralmente inventando l'informazione in modo statistico partendo da dati noti.

forse se ti fai iniettare un carico extra di piastrine.
L'8k alle fine è un 4k che puoi zoomare senza perdere troppo...

GeneralZod

Su un TV da 55" a 2m di distanza no. Su un >=75" che ha mezzo metro in più sulla diagonale, forse sì.

Ottoore

Purtroppo commetti lo stesso errore di chi, vedendo l'ingrandimento di un'immagine prodotta con DLSS a confronto dell'immagine nativa 4k, dice che quella sottoposta alla ricostruzione dell'intelligenza articiale Nvidia è migliore della nativa: confondi migliore con "oversharpened".

L'intelligenza artificiale produce un'immagine secondo regole fisse che ha acquisito dall'esperienza: il risultato è molto definito, questo porta l'osservatore a pensare che sia migliore, ma è artefatto.
La migliore intelligenza artificiale non può che produrre un'approssimazione della realtà.

davide

mi sa che sei rimasto indietro riguardo quello che può fare una AI

RavishedBoy

Vabbè se lo fai a un cieco è ovvio che non vede la differenza.

Non cambierebbe molto, il problema sarebbe l’interfaccia. Comunque tecnicamente è già così.

Brogli

Io lo vedo bianco e oro

IRNBNN

Merdatek PETOnic, ci sta come nome

ma c'è davvero qualcuno che sostiene di vedere la differenza tra 4k e 8k?
Pegherei per fargli fare un test a doppio cieco...

Recensione Sony Alpha 7 IV: l'evoluzione della specie | Video

Apple AirPods 3 ufficiali con Spatial Audio a 199 euro | Disponibili su Amazon

Recensione Fire TV Stick 4K Max: piccolo upgrade, solito ottimo prezzo | Video

Sky Glass, ecco il TV di SKY con Dolby Vision e soundbar Atmos | In Italia nel 2022