40 fps está a tornar-se um standard?

Em que casos é que 40 fps pode ser usado, e qual a vantagem? Será que vai ser um standard?

Recentemente o jogo Ratchet and Clank: Rift Apart acrescentou um modo de 40 fps para os monitores 120 hz. Porque motivo isto acontece, e será que os 40 fps vão substituir os 30?

Para respondermos a isso temos de perceber porque motivo os jogos por norma funcionam a 30 e a 60 fps, e isso prende-se com os refrescamentos de ecrã!

Basicamente, para uma imagem fluida, torna-se ideal que o GPU produza fotogramas ao mesmo ritmo a que o monitor as pode apresentar.

Assim, num monitor 60 HZ, este faz 60 varreduras por segundo, pelo que se o GPU apresentar 60 fotogramas diferentes nesse mesmo período, o que temos é que o monitor vai apresentar uma nova imagem em cada varredura que faz.



GPU             A B C D E F G…

Monitor       A B C D E F G…

Ora para 60 fps, necessitamos de criar cada fotograma em 16.67 ms, mas Infelizmente, nem sempre todos os fotogramas são obtidos nesse tempo. O que acontece então é que se cria um assincronismo.

GPU             A B C     D E F…

Monitor       A B C C D E F…

Como vemos, se um fotograma demorar mais que 16.67 ms (mas menos de 33 ms), como é o caso do fotograma C, ele é representado duas vezes no ecrã. Isto cria ali uma sensação de soluço, ou stutter. Uma situação que é quase impossível de ser evitada, mas que se pretende que seja reduzida ao máximo.



Ora com os monitores a suportarem 60 Hx desde à muitos anos, os 60 fps tornaram-se no standard de fluidez. No entanto, quando os programadores pretendem mais qualidade gráfica, eles optam por um débito de apenas 30 fps, uma situação que obriga que o monitor apresente o mesmo fotograma em cada dois varrimentos.

GPU             A     B     C    D    E    F…

Monitor       A A B B C C D D E E F F…

Esta sincronia de um fotograma para dois varrimentos só acontece com os 30 fps. Se os fps fossem algo entre os 30 e os 60, o resultado seria terrível, com uma sensação enorme de falta de fluidez causada pelo diferente tempo de apresentação de cada fotograma.

GPU             A     B C     D    E F…



Monitor       A A B C C D D E F…

Este é o motivo pelo qual os jogos são por norma são criados para 30 ou 60 fps. Pois apenas estes dois modos permitem a sensação de fluidez necessária.

Uma alternativa seriam os 20 fps, com cada fotograma a ser representado 3 vezes, mas 20 fps é um valor algo reduzido, e longe de fluido, pelo que a fluidez de representação estaria lá, mas a fluidez de jogo, não.

Ora isto mostra-nos que 40 fps não é um valor desejado. Nunca será um valor standard nos jogos pelo simples facto que ele criaria uma situação semelhante à que acabamos de representar. Com fotogramas a serem apresentados a uma cadencia de 30 por segundo, e outros a uma cadencia de 60 por segundo, mas nenhum a 40, uma vez que esse não é um valor de refrescamento standard.

Então em que casos é que 40 fps, se mostram interessantes?



Nos casos em que os monitores refrescam a 120 Hz.

Estes monitores basicamente reproduzem os 60 fps tal como os de 60 Hz representam os 30:

GPU             A     B     C    D    E    F…

Monitor       A A B B C C D D E E F F…

E os 30 são representados com cada fotograma a aparecer 4 vezes:



GPU             A            B            C          D            E          F…

Monitor       A A A A B B B B C C C C D D D D E E E E F F F F…

Os 40 fps podem agora ser introduzidos aqui… Trazem menos fluidez que 60 fps, mas mais que 30, e são indicados para casos onde a performance do jogo não alcança os 60, mas pode alcançar os 40, como é o caso do modo de fidelidade de Ratchet and Clank: Rift Apart.

GPU             A         B       C        D        E       F…

Monitor       A A A B B B C C C D D D E E E F F F…



Basicamente este modo permite aos monitores de 120 Hz ganharem alguma fluidez extra nos jogos que planeados para 30 fps consigam ainda assim ultrapassar os 40 fps. Pelo que a tornar-se um standard, só se for no suporte a esse tipo de monitores.

O futuro.

Com o advento do VRR, os monitores vão passar a variar a frequência de refrescamento. A gama de suporte do VRR vai desde os 48 Hz até aos 120 Hz, pelo que no que toca aos 40 fps, ela não traz novidade nenhuma.

Mas um suporte 48 Hz permite que o monitor apresente fps entre os 24 e os 30 (excluído) de forma mais suave, pois o ajuste permite duplicar estes fotogramas no monitor mantendo os tempos de apresentação constantes. E isso quer dizer que as quedas de fps até aos 24 deixam de ser tão notórias.

Da mesma forma, fps entre os 48 e os 60 podem tambem ser representados sem stutering, com o monitor a ajustar os refrescamentos para estes valores e mantendo assim a cadência de fotogramas fixa no tempo evitando fotogramas apresentados a cadências diferentes.

Note-se que isto não impede que o tempo de representação destes fotogramas não varie de acordo com as variações de refrescamento, mas no entanto as variações são reduzidas, e acima de tudo o efeito de stuttering desaparece.



Dado que o suporte VRR vai dos 48 Hz aos 120, poderemos mesmo ponderar retirar limites aos fps acima de 60, pois o monitor ajustará sempre. Tal como acabado de referir, isto não implica que todos os fotogramas tenham o mesmo tempo de representação, mas no entanto basicamente quase removemos a situação em que um fotograma estava o dobro do tempo do outro, passando-se a ter apenas variações de algumas milésimas de segundo, o que se torna muito mais interessante a nível de fluidez.

 



13 Comentários
Antigos
Recentes
Inline Feedbacks
Ver todos os comentários
Paulo
Paulo
14 de Julho de 2021 11:15

Artigo interessante. Não imaginava que houvesse outros tipos de taxas de fps além dos 30 ou 60 fps.

Juca
Juca
14 de Julho de 2021 12:01

Vou fazer a seguinte observação, obviamente que o modo 40 de Ratchet, tem o objetivo de usar a resolução 4k, e pra usar 4k@120 é preciso de um monitor com HDMI 2.1, pois antes disso, a grande maioria das telas 4k só suportavam 30 ou 60.
Agora uma dúvida. Nunca entendi a tecnologia VRR como algo que realmente evite Sttutering, mas sim Screen Tearing, ou seja, começar a varredura da tela com um novo quadro sempre. Tendo em vista que o problema de Sttutering é ocasionado justamente por um quadro ficar mais tempo sendo exibido que os demais, não entendo como um jogo que não tenha todos os quadros exibidos num mesmo intervalo de tempo o Sttutering realmente desapareça. Se um jogo varia 15fps entre o máximo e a mínima, obviamente vc terá em algum momento uma diferença de ms em que alguns quadros serão exibidos por mais tempo que outros. Como assim o Sttutering pode ser eliminado em um jogo com fps não cravados a 60 ou outra taxa cravada? Penso que pra não ter Sttutering é preciso um fps fixo, ao menos, independente do valor pra que não se quebre a cadência dos quadros. “Minha teoria” é de que o Sttutering só é evitável com taxa de quadros fixos de valores múltiplos ou divisores inteiros de valores da taxa de refrescamento da tela.
Editado: FreeSync que é a tecnologia da AMD, trabalha com 9Hz na mínima de refrescamento da tela.

Last edited 2 anos atrás by Juca
Juca
Juca
Responder a  Mário Armão Ferreira
14 de Julho de 2021 15:04

Entendo a ideia, Mário, e concordo com o que vc diz. O que cito são games como o fps destravado que recorrem ao VRR. Imagine num jogo que em um momento está 120 fps e noutro a 90fps, em algum momento haverá uma passagem de uma cadência de frames a outra, e os ms de esposição de algum quadro farão diferença causando um sttutering, esse é o meu ponto de vista.
Óbvio que a Tecnologia VRR melhora o problema fazendo o jogo decair a padrões de cadência multipos da frequência do monitor, mas se faz isso gera um lag para o jogador na imagem mostrada (falo sobretudo de jogos competitivos), ao menos por milésimos de segundo, se isso é relevante ou não é outra questão. tem pessoas que parecem perceber, até pq hoje tem gente jogando em monitores de 240Hz ou superior.
Sobre o Ratcher a 40, o que quis dizer é que ele já tem um modo “4k” com desempenho(1440@60), e que o objetivo do modo 40 fps novo é tê-lo a 4k nativos com o maior fps possível, e isso só é possível com HDMI 2.1 de modo a não se ter problemas, já que PS5 não tem suporte a VRR e 40 tb não é divisor exato de 60, e TVs sem HDMI 2.1 não chegam a 4k@120. Pela lógica, um modo 40 numa TV 4k@60 ou sem HDMI irá gerar Stuttering num modo 4k.
Não sei se me fiz compreender!?

Last edited 2 anos atrás by Juca
Juca
Juca
Responder a  Mário Armão Ferreira
14 de Julho de 2021 14:53

Algumas fontes sobre os 9Hz da mínima do Free Sync.
https://wccftech.com/amd-freesync-nvidia-gsync-verdict/
https://www.monitornerds.com/what-is-freesync-adaptive-sync-amd/
De certa forma é apenas trazer sincronia pra exibição de outras coisas como animações e suavizar sttutering e evitar screen tearing pra jogos com quedas abaixo de 24 como ainda acontecem em jogos como Cyberpunk, por exemplo, em especial nos consoles Xbox One que segundo consta tb aceitam VRR. https://www.windowscentral.com/xbox-one-freesync

Juca
Juca
Responder a  Mário Armão Ferreira
14 de Julho de 2021 15:14

Aqui tem uma das fontes, Mário. Mas se buscares encontra outros artigos.
https://wccftech.com/amd-freesync-nvidia-gsync-verdict/
Penso que abaixo dos 24fps ainda tem algum interesse o Free Sync pra consoles xbox da geração passada que têm suporte ao VRR (One S e One X) e placas de vídeo mais fracas que têm suporte à tecnologia, apesar de entender o seu ponto de vista. Mas vale lembrar que games como Cyberpunk caem a taxas de 20 fps e talvez o VRR possa ajudar.

Last edited 2 anos atrás by Juca
Deto
Deto
14 de Julho de 2021 13:49

o bom que 40fps não depende de VRR.

Os divisores de 120 são:

1, 2, 3, 4, 5, 6, 8, 10, 12, 15, 20, 24, 30, 40, 60 e 120

120hz tb ajuda em filmes 24fps.

Mas não só isso, com VRR pode travar os FPS em qualquer valor entre 48 e 120fps, com jogos já projetados desde o inicio, teremos mais margem de manobra para os devs.

podem projetar um jogo 60fps, se não der… trava em 48, 50, 55fps

Mas claro, isso ai só na próxima geração ehheheheh

Last edited 2 anos atrás by Deto
Juca
Juca
Responder a  Deto
14 de Julho de 2021 15:07

Esse é meu ponto com o VRR, qual a vantagem do VRR para evitar sttutering num jogo que alcança 120 mas ao mesmo tempo cai a 90 em termos de performance? Pq só se acaba com o Sttutering se o jogo correr a taxa mínima sempre, não? como não ocorre Sttutering em um jogo que passa de 90 a 120 fps, por exemplo, se em algum momento a exposição de dado frame será maior ou menor na tela?

Last edited 2 anos atrás by Juca
Deto
Deto
Responder a  Juca
14 de Julho de 2021 15:21

sttuter eu acho que não tem solução a não ser o jogo NÃO ter isso.

VRR é para quedas de FPS normais, suaves e não abruptas.

pode ver que ninguém no PC deixa de reclamar de stutter mesmo tendo VRR, Gsync, etc.

Então para mim, sttuter está fora de jogada, é BUG e não pode existir.

Carlos Eduardo
Carlos Eduardo
14 de Julho de 2021 19:26

Ótimo trabalho da Insomniac. Estão muito atentos com os anseios da comunidade, e você percebe no twitter que eles de fato estão muito atuantes.

Spiderman Miles Morales não tinha modo Ray Tracing a 60fps, e implementaram.

Ratchet and Clank não tinha modo 40fps para monitores de 120hz, e implementaram.

Shin
Shin
16 de Julho de 2021 12:10

40fps é para converter número de atualizações adequadas sem saltos. Como o console não consegue 120Hz com RT e nem 75Hz eles usam 40fps e deve ter algum método de interpolação digital para fixar 120Hz na saída.

No passado eles faziam isso para monitores 50Hz rodando alguns jogos a 25fps.

RT é a maior furada desses consoles, eu falei aqui que venderiam patch pagos mas o pior é que diferentemente dos PCs, o desempenho RT raquítico de ambos os consoles só permite que os exemplos de RT se limite a reflexões e luzes secundárias.

error: Conteúdo protegido