Porque motivo os televisores 4K ainda não são uma boa compra!

O problema existe em todo o hardware 4K atual, e mostra mais uma vez a realidade das coisas. As TVs 4K com HDR ainda possuem limitações e podem vir a sofrer ainda grandes transformações dado que o HDMI e a norma HDR terão evoluções para breve. Por esse motivo, nesta fase, ainda não recomendamos qualquer tipo de upgrade para quem já tem TVs 1080p, e muita ponderação na compra dos 4K por parte de quem compra de novo.

O problema de se investir muito cedo em novas tecnologias é que as mesmas evoluem. E como tal, os primeiros aderentes acabam prejudicados!

Tal aconteceu com as TVs LCD, com as TVs HD Ready, com as TVs 720p, com as TVs Full HD e com as TVs 4K quando saíram inicialmente. Até posso referir um caso de um conhecido que possuindo um PC com duas das Geforce Titan originais, ficou tão fascinado com a ideia de uma TV 4K que comprou um dos primeiros e caros televisores que suportaram a tecnologia, um modelo Sony de 60″.

E deu-se mal! A norma HDMI 2.0 não estava ainda definida na altura, e isso fez com que o seu televisor, equipado com um HDMI 1.4, quando ligado ao seu PC via sinal RGB (o único hardware na altura a suportar 4K), apenas suportasse 4K a 24/30 hz! Tal permitia a visualização de filmes, mas não o uso livre da TV para jogos!

Os televisores ultrapassaram essa limitação com o HDMI 2.0, mas a largura de banda adicional que estes cabos trouxeram pioraram ainda mais a situação aos primeiros aderentes ao oferecer sinais RGB 60hz e podiam igualmente suportar HDR, e tudo isto a preços bastante inferiores. Para os primeiros aderentes, com HDMI 1.4 o suporte a  sinais a 60 Hz foi acrescentado, mas não em RGB e sim usando uma codificação YCbCr (o nome correcto para a versão com suporte analógico e digital da codificação YUV), com limitações grandes (que perceberão ao lerem este artigo).



E isso terá sido custoso para os primeiros investidores perante um investimento tão grande!

A questão é que, como temos vindo a recomendar, o 4K, apesar das evoluções, ainda não tem todos os seus problemas resolvidos, e como tal o mesmo ainda está longe de ser uma tecnologia devidamente desenvolvida, explorada e estabilizada. E essas situações são o que ficarão a conhecer com este artigo.

Infelizmente, o problema continua a residir no HDMI, e na sua largura de banda!

Vamos começar por explicar quais as vantagens e desvantagens deste tipo de codificação YUV, qual a diferença para o sinal RGB, e como ele permitiu o suporte 60 hz em TVs com HDMI 1.4,  e porque mesmo com ele o HDMI 2.0 continua limitado.

O sinal RGB

O RGB é um modelo de cor usado na imagem digital e como tal usado pelos PCs, e baseia-se na informação individual para cada pixel de um nível de vermelho, verde e azul. A mistura destas três cores cria uma cor final que já por si possui um brilho associado, e que é representada no ecrã.

O sinal RGB é por norma de 24 bits, o que significa que cada uma das cores possui 8 bits associados (8 bits de cor), o que se traduz em 256 tons de cada cor. No entanto, o sinal RGB pode ser igualmente de 32 bits e tal traz associados já 10 bits a cada cor, tal como previsto como mínimo para a norma HDR, o que eleva a gama de tons de cada cor para 1024 (4096 a 12 bits, o máximo atualmente suportado, apesar de o HDR prever futuramente 16 bits)), mas infelizmente este tipo de sinal é bastante intensivo no uso de largura de banda, e o HDMI, mesmo na sua versão 2.0b, não possui largura de banda para ele em resoluções 4K.

Resumidamente, apesar de o acréscimo da largura de banda do HDMI 2.0 ter permitido a recepção de sinais 4K RGB com 8 bits de cor a mais de 24/30 Hz, ele não permite ainda que este sinal RGB possa, nesta resolução, ser com mais bits de cor.

Ora o HDR, na sua versão mais básica, usa exactamente 10 bits de cor. E por esse motivo passou-se a usar uma codificação de sinal diferente para o suportar. Uma codificação que, por poder ter simplificações, permitiu mesmo às TVs 4K com HDMI 1.4 suportarem produtos como a PS4 Pro e correr os jogos das mesmas até 60 fotogramas por segundo.

A metodologia de codificação escolhida foi então o YUV, um modelo de cor usado desde à muitos anos na transmissão TV, mais especificamente a sua versão mais recente, o YCbCr (vamos referir-nos futuramente a ele como apenas YUV). E pela sua metodologia de funcionamento, ele existe em vários formatos, com simplificações na cor, que permitem poupanças na largura de banda.

Esta metodologia funciona da seguinte maneira:

A codificação YUV (tambem chamada de YCrCb no caso da imagem digital e YPrPb na analógica)

Curiosamente estes termos já devem ser conhecidos de todos, pois eles eram usados anteriormente na chamada ligação de “Componentes”, mas o sinal ali existente foi agora adaptado ao HDMI dado que os cabos RCA não possuem largura de banda suficiente e blindagem ao ruído suficientes para resoluções muito elevadas.

ycbcr

Como funciona?

Como sabem, a imagem é composta por pixels. Se na codificação RGB os atributos dos pixels são as percentagens de cada uma das três cores base, o vermelho, azul e o verde, que são transmitidos directamente, na metodologia YUV este espaço de cores do RGB é convertido para um outro baseado em dois atributos, permitindo a poupança de largura de banda, sendo que posteriormente a TV recebe o sinal e converte novamente as cores em RGB.

rgb2yuv

Um desses dois parâmetros é a Luminância e o outro a Crominância, referidos como Luma que se refere ao valor do brilho do pixel (mais claro ou escuro), e como Chroma, que é o valor da cor do pixel (enviado em 2 imagens), respectivamente!

Dado que o HDR lida muito com brilhos, esta metodologia inicialmente criada para TVs CRT e agora adaptada ao sinal digital, ao permitir melhor controlo da Luminância, revela-se muito adequada, especialmente pelas poupanças possíveis na largura de banda face ao RGB.

Basicamente uma metodologia de transmissão de sinal bem diferente do RGB! Mas vamos aprofundar mais a situação para percebermos onde e como este método pode poupar largura de banda.

Naturalmente, num exemplo simplista, se retirássemos todo o Chroma (a cor) de uma imagem ficávamos com uma imagem a preto e branco, mas se tirássemos a luminância… o resultado seria uma imagem preta!

Ora isto mostra que a luminância é bastante importante e como tal a sua informação tem de ser enviada a todos os pixels. Já a crominância… essa não precisa forçosamente de ser enviada a todos os pixels podendo-se forçar conjuntos de pixels a ter a mesma cor, e mesmo assim, apesar de estamos longe de termos uma reprodução fiel da realidade, ter uma boa imagem.

E é por aqui que esta metodologia permite operar “milagres” de performance na largura de banda em TVs. Milagres que na realidade são aldrabices enormes na qualidade de imagem!

Para percebemos como funcionam esses “milagres” e aldrabices vamos introduzir o termo Chroma Subsampling (Amostragem de imagem), que surge associado a um conjunto de números e que representa o número de pixels que efectivamente estão a receber a informação. E esses valores aparecem normalmente ao lado do termo YUV, como por exemplo o YUV4:4:4 ou o YUV4:2:2 ou o YUV 4:2:0.

Mas o que significam esses números?

Bem, este tipo de codificação trabalha emitindo informação numa grelha de 4*2 pixels,algo do género que podem ver na imagem que se segue:

chroma_1

Como vêem neste codificação o sinal é sempre emitido em conjuntos de 4 colunas e 2 linhas de pixels. Daí que o primeiro 4 que aparece na designação seja uma constante. Independentemente do modo de crominância em que estamos, o primeiro número representa o número de colunas da metodologia, e neste caso é sempre um 4. Daí que a real a diferença entre os modos surgem apenas referenciadas nos dois números que se seguem!

Fica então claro o porquê do primeiro dígito ser um 4! Porque esta codificação trabalha com 4 colunas de pixels!

Mas e então os restantes números?

Pois bem, os restantes números são dois porque a TV trabalha numa grelha com 2 linhas, a superior e a inferior! Já o seu valor diz respeito à informação relativa à crominância contida em cada linha.

Assim, num modo YUV4:4:4 temos que, na primeira linha, 4 dos quadrados terão informação individual de crominância, e na segunda linha acontece o mesmo!

Já num 4:2:2, apenas dois pixels da primeira linha possuem crominância individual, e o mesmo se passa com dos da segunda linha.

Resumidamente temos o seguinte para cada um dos modos, com o 4:4:4 à esquerda, e o 4:2:2 à direita:

chroma_2

Num modo 4:2:0, a primeira linha é idêntica à de cima do modo 4:2:2, e a segunda linha, ao não possuir qualquer informação será idêntica à primeira, o que quer dizer que a informação de cor se passa em blocos de 4 pixels. Eis o esquema em baixo!

chroma3

Não liguem ao facto de nas imagens de cima só estarem representadas duas cores! Isso é irrelevante. O que interessa perceber é que no 4:4:4 cada pixel pode receber individualmente informação da sua cor, ao passo que no 4:2:2 os pixels recebem informação de cor em agrupamentos de dois. E no caso do 4:2:0, em grupos de 4.



Por aqui vemos que o equivalente ao modo de sinal RGB é o YUV 4:4:4, pois é o único que emite informação de cor para todos os pixels do ecrã. Mas infelizmente, mesmo no modo YUV4:4:4 o HDMI 2.0 não consegue emitir 10 bits de cor a 4K.

A AMD referiu isso na sua documentação oficial sobre a Polaris, e publicou a diferença entre o obtido nas suas placas com um cabo HDMI 2.0b e um Display Port 1.4. Eis a foto:

hdr_polaris

Como vemos o Display Port não tem qualquer limite, mas o HDMI 2.0b a 4K só consegue emitir HDR no modo YUV 4:2:2.

Quais as consequências?

As consequências são que atualmente qualquer TV 4K num modo de funcionamento em resolução 4K acima de 24/30 Hz apenas pode receber, no máximo, sinal YUV4:2:2, ou seja, com este modo a resolução de informação de cor (não confundir com a resolução do ecrã), desce dos 3840×2160 (4K), para um reais 1920×2160.

Estes mesmos cortes na resolução são o que  permite a uma TV com HDMI 1.4 receber sinal 4K mais de 24 fps usando um YUV 4:2:0. Mas nessas TVs a resolução da informação de cor a 4K é a mesma de uma TV Full HD, ou seja, os 1920*1080p.

Naturalmente o resultado final é sempre um hibrido entre a resolução da cor e a resolução do ecrã, e isto porque a este Chroma temos de somar o Luma, e esse existe na resolução nativa. Daí que o resultado final seja algo hibrido e do género que vemos de seguida, e onde nos modos abaixo do 4:4:4 temos a mesma cor, mas em eventuais tonalidades diferentes devido ao brilho:

chromaluma

A imagem de cima mostra a imagem real no modo 4:4:4 e a forma como as cores se distorcem nos outros modos. Pura e simplesmente a informação de cor perde-se a aldraba-se, e isso quer dizer que a resolução está lá, mas não é nativa uma vez que a informação de cor está numa resolução inferior!

A questão aqui é que, devido ao limite do HDMI, nenhuma TV atual consegue os 4:4:4 com HDR, e isso tem implicações na qualidade de imagem. Em caso algum os 4K que estão a receber são a qualidade máxima de imagem que a TV poderia e deveria oferecer, ou seja uma resolução 4K efectivamente nativa. E isso só acontecerá no futuro, com nova revisão do HDMI, e mesmo assim apenas num caso em que mais nenhuma tecnologia seja introduzida pelo meio.

Para demonstrar a diferença na qualidade de imagem e na resolução efectiva apresentada, eis uma foto que representa um pedaço da mesma imagem a 4K, com os diferentes Chroma Samplings.

colorcomp

E um outro exemplo em uma imagem de texto em movimento rápido,

chromacomp1

E na qualidade do Anti Aliasing nas extremidades dos objectos,

chormacomp2

Como vêem, tudo são imagens 4K, mas com resultados bem diferentes. E a resolução da cor tem um impacto direto na percepção da real resolução da imagem.

Isto quer dizer que as consequências de comprarem uma TV 4K agora é que nunca desfrutarão da qualidade máxima de imagem em HDR10 que um televisor destes pode oferecer. Se é verdade que a 4K com 8 bits de cor as TVs atuais não possuem limitações quando ligada a uma consola processando a cor para cada pixel, com HDR10 a situação altera-se. E a resolução de ecrã não é a mesma da resolução da cor. É metade!

Isto piora com TVs mais antigas, onde acima de 24/30 Hz. Não só não há HDR, como a resolução da cor é 1/4 da resolução de ecrã!

4K nativos com HDR… Ainda não é possível com as atuais TVs! E o que estão a obter… poderia ser comparado a uma interpolação, mas com resultados bem estranhos e com cores deturpadas.

E com estas limitações não adianta depois comprar consolas como a Scorpio que até podem já tem uma versão melhorada do HDMI a suportar o YUV 4:4:4, ou mesmo RGB a 4K com mais de 24/30 Ghz. A TV estará limitada neste campo e nunca permitirá mais do que o YUV 4:2:2. Ou seja 4K verdadeiramente nativos com HDR nunca os terão!

Eis o suporte das atuais TVs para os modos de 8 e 10 bits de cor.

rgbeyuv

Como informação adicional podemos dizer que o YUV 4:2:2, contendo a crominância e a luminância, requer 2/3 da largura de banda do YUV 4:4:4. A atual largura de banda do HDMI 2.0b é de 18 Gbps.

E isto quer dizer que, mais uma vez, quem compra uma TV 4K na atualidade está, infelizmente, e ainda, a ser mais um sacrificado. E no futuro, face à qualidade de imagem das TVs com idênticas características, a suportarem modos de Chroma Sampling 4:4:4 em 4K, os atuais modelos ficarão a perder e bastante. É um aumento da resolução de cor… para o dobro! E a passagem para os 4K efectivamente nativos!

Assim se são nossos leitores e mesmo assim optaram por uma troca de uma TV 1080p por uma TV 4K no estado atual, no futuro, caso no futuro a norma evolua no sentido esperado e a percepção da diferença face ao atual exista, não se poderão queixar, uma vez que sabem que não foi por falta de avisos da nossa parte que optaram pela compra. E apesar de nunca anteriormente termos sido técnicos a este ponto para vos explicarmos os problemas existentes, já alertamos claramente em outros artigos sobre a existência de conteúdos 4K (outra temática a ter em conta) que a compra das TVs 4K ainda não justificava nesta fase pelo facto de a tecnologia não estar ainda estabilizada!



E o importante a perceber deste artigo, e que se ressalta, mesmo caindo-se em repetição do que já foi dito, é que verdadeiros 4k nativos tão falados actualmente, e o tipo de resolução que nos habituamos a ter com os 1080p, só os vão conseguir sem HDR. E com HDR, com as atuais TVs em modos a mais de 24/30hz, ninguém terá 4K verdadeiramente nativos, seja a consola uma Pro, uma Scorpio, ou outra qualquer comprada no futuro.

Daí que mais uma vez fica o conselho: Se querem mais garantias de que não pensarão em trocar de TV novamente no futuro, aguardem e não se precipitem! As futuras melhorias no standard HDMI podem estar apenas à distância de uma atualização de firmware, mas e daí podem estar mais longe, requerendo novo hardware! Mas mesmo que a atualização posso ser apenas software, o certo é que um simples aumento da largura de banda não garante que a TV possa suportar mais modos de cor (há outro hardware envolvido que pode, por questões de custos, estar limitado). E então a distância para a actualização passa para… o custo de uma nova TV!

Mais ainda, caso o novo HDMI 2.1, cuja data de lançamento ainda não está definida, falhe em resolver este problema (seja nas atuais ou apenas nas futuras TVs), aumentando a largura de banda significativamente, a possibilidade existe de os fabricantes, na ânsia de melhoramento constante dos seus produtos, começarem a dar suporte como standard a outros modos de HDR como o Dolby Vision, capaz de 4:4:4, de usar 12 bits de cor em vez de 10 (e pode suportar 16 bits), possui já metadata dinâmico, é compatível com o HDR10, funciona perfeitamente com o HDMI 1.4 (apesar de o HDMI 2.0 ser o mínimo que garante a reprodução de todo o conteúdo pelo facto de o HDCP 2.2, apenas suportado desta versão do HDMI para cima, ser obrigatório em conteúdo UHD protegido), e é mais avançado que o HDR 10 em muitos outros aspetos.

No fundo todo o Dolby vision é um sistema de processamento de imagem, mas que tem sido preterido por requerer hardware de terceiros (um Chip dedicado responsável pelo denominado Dolby Vision “Display Management” e que consegue grandes optimizações na largura de banda por compressão de dados no hardware), e ser uma tecnologia proprietária, ao passo que o HDR10 é uma tecnologia aberta que permite aos fabricantes das TVs usarem os seus próprios chips sem licenciamentos e pagamentos de royalties, permitindo assim que se distingam dos produtos da concorrência e sejam mais baratos.

A realidade é que todos os pontos expostos neste artigo mostram que o HDR está ainda muito prematuro,  e que a norma vai sofrer, de uma forma simples, ou mais complexa, importantes transformações que, pelas necessidades de evolução que o HDMI necessita de ter para as suportar, não podemos, de forma alguma, ter a certeza que funcionarão nas atuais TVs. O standard que vai predominar no futuro está longe de ser garantido ser o HDR10, e o Dolby Vision ao ser melhor, mais completo, e estar a ser utilizado no cinema, ainda pode ter algo a dizer.

Mas se mesmo com estas atuais limitações, queres avançar mesmo com a compra… força! Verifica é os input lag da TV, especialmente em modo 4K com HDR pois, particularmente em Tvs mais baratas, podes ter uma desagradável surpresa ao chegares a casa!



Posts Relacionados