DLSS 3 vai fazer interpolação de fotogramas

No entanto a tecnologia nada tem a ver com o que é feito nas TVs.

O que as Tvs fazem

Quando uma Tv afirma que faz interpolação de fotogramas, levando qualquer cadencia para algo até 120 fps, a situação funciona da seguinte maneira,

O primeiro fotograma é enviado, mas em vez de ser apresentado, ele é retido, aguardando pela chegada do segundo fotograma. Na altura em que o segundo fotograma chega, ambos são retidos enquanto o processador da Tv processa linearmente fotogramas intermédios.

Quando finalmente essa interpolação está pronta, a imagem é representada, com muitos mais fotogramas que os dois originais que deram origem a todo o processo. Como o tempo de representação é igual ao tempo de fotogramas, e aqui ainda acrescentamos o tempo de cálculo dos fotogramas intermédios, a partir daqui o ciclo repete-se constantemente.



E apesar de esta situação funcionar muito bem, há aqui uma desvantagem clara. A latência que é criada que é igual ao tempo de apresentação de 1 fotograma acrescida do tempo de calculo dos fotogramas intermédios.

É por esse motivo que estas tecnologias por norma são desligadas quando a TV se liga a uma consola. A latência tem forçosamente que fugir, e não tem como não o fazer pois tal é uma consequência da forma como o processamento é feito, requerendo dois fotogramas para calculo dos fotogramas intermédios.

 O que o DLSS 3 se propõem fazer

Para sermos corretos, à data em que estamos a escrever este artigo não percebemos ainda totalmente como a tecnologia vai funcionar exatamente, uma vez que, do que lemos, a Nvidia ainda não foi 100% explícita nesse sentido. Mas pelo que se consegue ler, o básico da coisa é assimilável.

Basicamente a tecnologia propõem-se fazer o mesmo que a usada nas Tvs, que é inserir um fotograma ou mais, intermédio, entre os existentes.

Ora sendo assim não parece muito lógico este alarido todo, uma vez que as Tvs já fazem isso. E apesar de ser fácil perceber-se que poderiam existir vantagens em se fazer isso no GPU em vez da TV, mesmo assim tal não seria nada de fabuloso ao ponto de ser revolucionário.



Resumidamente, esta tecnologia irá permitir basicamente duplicar os fps, sendo que em alguns casos, dado que estamos aqui a trabalhar igualmente com reconstrução de imagem (esta tecnologia a 4K rende nativamente a 1080p), devido à maior performance das séries 4xxx, esse valor pode ser até maior do que isso. Há já relatos de ganhos de 400%.

Mas onde está então a vantagem deste método face às TVs?

Basicamente porque este método se propõem usar IA. Não necessariamente para calculo do fotograma intermédio que ao ser calculado pela comum interpolação linear não cria nenhum erro anormal, mas para uma previsão… do fotograma seguinte.

A análise de cálculo é feito usando técnicas já usadas e nossas conhecidas, de movimentação de pixels que são associados a vetores de movimento cujo histórico é analisado, e que permitem assim prever a posição futura dos mesmos.

Perante esta previsão, a latência associada à tecnologia equivalente das Tvs, que tem de reter a apresentação da imagem até chegar o fotograma seguinte e ser feito o cálculo, decresce tremendamente. E aqui a previsão do fotograma seguinte e o calculo do intermédio são logo realizadas após a apresentação do fotograma atual e prontas a tempo de o fotograma intermédio ser apresentado na devida altura. Algo que, a ser perfeito, basicamente eliminaria o lag.



A questão é que este é um fotograma falso, e apesar de visualmente apresentado, o que pode levar a uma reacção mais rápida do utilizador, na realidade isso não tem impacto pois qualquer comando entretanto fornecido graças à sua visualização, acontece durante o processamento daquele que será o fotograma seguinte, e já tarde demais para ele ser alterado. Consequentemente o comando não se refletirá aí, mas apenas no próximo fotograma real. A consequência é que, apesar com aumento da fluidez visual, a sensação de latência não desaparece.

Este processamento requer uma IA bem mais capaz do que a atualmente existente nas GeForce 3xxx, que calculará não só o re-escalamento da imagem, mas irá igualmente prever o fotograma seguinte. E isso explica o motivo pelo qual os atuais GPUs não podem suportar esta tecnologia.

A NVIDIA refere ainda que, para combater a latência, o GPU apresenta uma tecnologia nova, chamada de REFLEX. E que, segundo a NVIDIA foi criada especificamente para ser usada no processo de cima, podendo mesmo eliminá-la. No entanto, a NVIDIA recomenda que, em situações competitivas, a situação seja analisada caso a caso e caso haja aumento de latência, o DLSS3 não seja usado em interpolação de imagem, pelo que, pelo menos nesta fase, a tecnologia não deve ser ainda super eficaz em todos os casos.

Segundo a NVIDIA o CPU guarda uma fila de ordens de renderização para ser enviada ao GPU, garantindo que ele nunca espera por trabalho (o que causaria stuttering ou quebras de fps). A tecnologia REFLEX remove essa lista e sincroniza o CPU e o GPU garantindo que mal o CPU envia ordens, o GPU inicia o processamento. Uma situação que a NVIDIA diz que quando aplicada ao DLSS 3 reduz a latência. Mas a sua eficiência em todos os casos está por comprovar, e a recomendação de eventualmente, em alguns casos, poder ser necessário desligar a reconstrução de imagem do DLSS 3 em jogos competitivos parece ser a melhor prova disso.

Será de referir-se que o DLSS 3 é uma tecnologia da Nvidia e que, segundo a empresa, será exclusiva das Geforce RTX 4xxx pelo facto já referido que ele que requer um poder de processamento nos tensor cores que a atual geração não possui.





20 Comentários
Antigos
Recentes
Inline Feedbacks
Ver todos os comentários
Juca
Juca
28 de Setembro de 2022 10:50

Eis aí o primeiro porém das novas placas com 4x a performance da geração anterior… E olha que normalmente quem quer mais performance são os jogos competitivos.

Sem ler exatamente sobre a tecnologia REFLEX, que estava amplamente associada ao DLSS3 até onde se podia ler, eu estava erroneamente a presumir que essa seria uma IA a “antecipar inputs” para o jogador ter a sensação de que “não haveria lags”, ideia semelhante a que havia visto sugeridas também para games por streaming, mas foi presunção errada da minha parte.

PS: Vale lembrar que no caso das TVs a interpolação que quadros costuma gerar efeitos colaterais, como a presença de artefatos (coisas que não eram pra estar na tela) e efeito vídeo (com degradação de cores e sensação de aceleração de imagem), o que se espera é que com uma IA envolvida também se diminuam esses efeitos.

Last edited 1 ano atrás by Juca
Hennan
Hennan
Responder a  Juca
28 de Setembro de 2022 11:24

Segundo a galera. O ganho real é de 60% em relação a 3080 para 4090. 35% para 4080 e 13% para a 4080 fake. Isso em 1440p. Como a 4080 teve redução do barramento da memória, principalmente a fake. Não duvido que empate até com a 3080 de 12gb na média em 4k.

Juca
Juca
Responder a  Hennan
28 de Setembro de 2022 11:39

Um empate seria um absurdo colossal, e 13% já é muito pouco. Inda mais porque os clocks subiram e muito, não?!?! As 3080 tinham base clock na casa dos 1000 baixo e essas 4080 na base dos 2000, então, só 13% é um absurdo. E inexplicanelmente a redução de litografia (de 7nm pra 4nm?!?!) parece não trazer ganhos significativos, ou as especs de CUDA diminuiram entre análogas de cada série?!?!

A Nvidia está a dar uma de espertinha a umas duas gerações ao menos, a “sorte” deles é que o DLSS tem funcionado relativamente bem, mas agora estão a mexer num território complicado em quem investe em suas placas quer mais fps com menos lag, e nada diferente disso.

Last edited 1 ano atrás by Juca
HENNAN SANTOS CARVALHO
HENNAN SANTOS CARVALHO
Responder a  Juca
28 de Setembro de 2022 18:48

Na realidade, 13% não é tão ruim tendo em vista que estamos falando de uma 4070. A diferença entre uma 3070 e a 2080 super é menor. O problema é que a Nvidia chamou a GPU de 4080 e cobrou um preço ainda mais absurdo.

Hennan
Hennan
28 de Setembro de 2022 11:20

Algumas correções. O reflex já existe e se não me engano pode ser utilizado em gpus até da série 1000. A diferença agora é que todos os jogos com dlss serão obrigados a colocar o reflex. Na prática funciona bem. Em relação ao optium flow, segundo a nvidia vai aumentar a latência em 1/2 frame. E uma entrevista que vi de um funcionário, deixou claro que não dá pra utilizar em games competitivos. A questão é que 1/2 frame de 400, nem deveria gerar impacto. Logo ainda é um assunto nebuloso.

Juca
Juca
Responder a  Hennan
28 de Setembro de 2022 11:42

Ora, mas se quem mais quer fps são os competitivos, que sentido faz isso.
Desse modo, só quem se beneficiaria realmente são as placas de baixo desempenho que usariam o DLSS 3 pra ir dos 30 aos 60, pois a presunção é de que, no geral, placas como a 3080 e 3090 já se aguentassem bem nos 60 com tudo ativado.

HENNAN SANTOS CARVALHO
HENNAN SANTOS CARVALHO
Responder a  Juca
28 de Setembro de 2022 13:13

A meu ver a tecnologia será muito útil, justamente nos modelos mais baratos. Na 4090 é só mais um número. No entanto, segundo o marketing da Nvidia a intenção do optium flow é permitir 1080p a 240 fps mesmo em games AAA. Só não sei qual o público disso.

Juca
Juca
Responder a  HENNAN SANTOS CARVALHO
28 de Setembro de 2022 14:09

Tem um pessoal meio doente por fps dos shooters, o problema é que parece um pouco de ilusão de marketing se o input lag não cair junto e se o que você vê na tela não for bem o movimento do adversário.

Last edited 1 ano atrás by Juca
Juca
Juca
Responder a  Mário Armão Ferreira
28 de Setembro de 2022 16:07

Como não tinham tantas tecnologias diferentes disponíveis no comércio, e imagino que esses inputs e tempos de resposta fossem assemelhados entre si e por isso ignorados. Em termos de tempo de resposta, acho CRTs que se assemelham as plasmas (próximo de 0, e baseados no fósforo) e o input talvez tivesse alguma diferença mais a depender da resolução, que há época imagino era praticamente um padrão 1024×768… Mas provavelmente que usasse 800×600 talvez tivesse alguma vantagem de milisegundos se considerando que usassem a mesma VGA, mas perderiam em percepção de detalhes, é o que presumo.

Last edited 1 ano atrás by Juca
Vitor Hugo Reale
Vitor Hugo Reale
Responder a  Mário Armão Ferreira
28 de Setembro de 2022 22:59

Vendo todo esse poder dessas placas gráficas da série 4000, fico pensando que logo precisaremos de ps5 pro kk, a AMD tem que correr atrás. Essas placas são muito poderosas .

Vitor Hugo Reale
Vitor Hugo Reale
Responder a  Vitor Hugo Reale
28 de Setembro de 2022 23:02

Claro que estou falando como um jogador de console. Os PCs estão evoluindo muito e jogos com ray tracing pesado não terão todos os efeitos nos novos consoles. Em parte por que são fracos até comparando com uma rtx 3070 ou 3060 ti, pelo menos nos jogos atuais multi.

Deto
Deto
Responder a  Vitor Hugo Reale
29 de Setembro de 2022 0:31

Que PC?

Pq quantos PC no mundo terão uma 4090 na tua opinião?

100 mil talvez?

Hennan
Hennan
28 de Setembro de 2022 11:31

Por enquanto, tanto o lançamento da nvidia de gpus quanto os lançamentos da Intel e AMD de CPUs foram bem ruins. Em todos foi oferecido mais desempenho a custa de mais preço. Não há ganho real para o consumidor. E no caso da amd mataram o custo benefício do 7600x. O 5600X era um processador excelente por entregar desempenho de topo, consumindo pouco e esquentando pouco também. Você nem precisava comprar cooler box. Agora bate até 95 celsius. Vai ter que comprar um bom cooler e memória DDR5. Ou seja, matou o processador.

Juca
Juca
Responder a  Hennan
28 de Setembro de 2022 11:49

Infelizmente estão a precificar os produtos mais pelo desempenho do que pelas especificações em si, como se o tempo não defasasse mais as especificações, é o ponto ruim de já se ter players estabelecidos num mercado que não se agita com verdadeiras novidades… É esperar as GPUs da AMD, pois as da Intel ainda não empolgam!

Last edited 1 ano atrás by Juca
Deto
Deto
28 de Setembro de 2022 16:25

ai não vi vantagem, enquanto usavam o ML para aumentar a resolução, não achava ruim obviamente.

mas esse ai de FPS fake eu não acho válido… parece mais como não tendo mais o que inventar pra justificar tanto da GPU reservado para ML.

E continuo com minha teoria que a Nvidia com GPU unificada, Servidor e Desktop para jogos, tá é querendo empurrar isso nos jogos pq “tenho que aproveitar as partes que eu projeto para data center já que é a mesma GPU para servidor e desktop”

ainda continuo achando que isso ai é a Nvidia querendo que o sujeito que compra placa de video para jogar no PC pague um pouco da conta da Nvidia pesquisando e desenvolvendo soluções para servidores.

Mas veremos, por hora ainda não tem nenhum fato que invalide a minha suposição.

Entendo que tem a tendência de reservar areas do Silicio dedicadas a uma tarefa, exemplo são os M2 da apple, e também o IO do PS5. Mas vendo os preços inflados da Nvidia acho meio suspeito que eles estão repassando para o mercado de games uma parte dos custos de desenvolvimento, ou amortizando os custos, das GPUs de servidores.

Bom, eu não me importo… se eu tivesse renda para comprar placa de video de 16 mil reais, comprava a 4090 mesmo… e também isso não vai fazer o preço do PS5 subir.

Por hora a unica coisa que me beneficiaria era a Nvidia empurrar forte o Traçado de Raios, fazer a AMD também correr atrás disso e no PS6 toda a luz e som possam ser calculados com sobras por Traçados de Raios.

Resumindo, o bom da 4090 os caras no PC estão pagando a conta do PS6 projetado para ter toda a luz e audio processados por Traçados de Raio.

Last edited 1 ano atrás by Deto
HENNAN SANTOS CARVALHO
HENNAN SANTOS CARVALHO
28 de Setembro de 2022 18:54

Por coincidência saiu um vídeo na DF sobre o tema. Duas coisas chamaram minha atenção.
1) Terem escondido o número de fps na maioria dos comparativos e utilizado porcentagem.
2) O impacto na latência. Tendo em vista que escolheram os games a dedo, esse 1/2 frame não parece refletir a realidade.

Juca
Juca
Responder a  HENNAN SANTOS CARVALHO
28 de Setembro de 2022 19:33

Escolher a dedo é porque o DLSS3 não funciona em tudo, só pra jogos suportados e esses serão/são poucos.

error: Conteúdo protegido