Será que a PS5 vai mesmo ter de baixar as velocidades de relógio para manter as performances?

A resposta parece dada por Mark Cerny. A questão é que está confusa.

Nota: Este artigo encontra-se já escrito desde à algum tempo. No entanto acreditava que na presente data a resposta a esta questão estivesse já esclarecida, o que não aconteceu e levou a que o artigo fosse adiado para que a situação pudesse entrar como verdadeira ou o artigo fosse cancelado. Na presente data a resposta exacta para a pergunta com que o artigo se inicia não existe ainda, pelo que o artigo não estava previsto entrar, mas dado que a situação tem sido muito abordada nos comentários, resolvemos, apenas para que tenham uma noção daquilo que nos parece ser a realidade da situação, e a forma como esta está a ser mal entendida pela imprensa em geral, colocar o artigo online.
Será porém de notar que não pretendemos que tomem o que aqui é dito como verdadeiro, e daí o artigo com o nosso entendimento do que foi a explicação da Mark Cerny ter sido ajustado nas partes onde as dúvidas existem de forma a que possam posteriormente consultar os dados existentes no video divulgado, e julgar por vocês mesmos se entendem haver ou ou não razão daquilo que dizemos (pedimos no entanto que caso participem na discussão sobre a validade do artigo, o façam com argumentos técnicos e não apenas com argumento de… porque sim).

Há no entanto dois argumentos que me fazem acreditar no que digo:

1 – Se a PS5 tem a capacidade de ter ao mesmo tempo o CPU e o GPU na sua velocidade máxima (E cerny disse que eles estariam assim na maior parte do tempo – já discutiremos o que entendemos que isso quer dizer mais tarde), isso quer dizer que a consola tem a capacidade energética e térmica para essas velocidades.

2 – Esta era uma presentação para mostrar os pontos fortes da PS5. Custa a acreditar que Cerny passasse tanto tempo a explicar uma solução que não fosse realmente vantajosa e que pudesse deixar a consola ainda pior vista perante a concorrência. Especialmente porque a apresentação era gravada e foi mostrada após a Microsoft revelar a sua consola. E assim sendo essa parte poderia ter sido editada.



Segue-se o artigo:

————

Afinal a PS5 com as suas frequências variáveis tem ou não que descer velocidades de relógio para atingir picos de Tflops?

Esta é a pergunta que se faz!

Mas curiosamente… Mark Cerny já respondeu a isso. A questão é que de uma forma confusa, sendo que perante ele a questão fica no ar. Mas na realidade a interpretação que a maior parte dos websites está a ter poderá não ser a correcta. Vamos recapitular o que ele disse para perceber. Note-se que isto não é uma mera tradução do que é dito, pois sempre que possível simplificaremos o paleio ou colocaremos explicações adicionais:

Quando Mark Cerny apresentou a PS5 ele referiu que a metodologia clássica de definição de frequências de relógio para uma consola passa por uma análise ao hardware existente e baseado nisso, uma presunção de qual será o cenário pior, no jogo pior, durante a vida da consola. Perante isso, analisa-se o consumo energético e o calor gerado, preparando-se uma solução para arrefecimento do valor de calor encontrado. Perante a solução conseguida, a velocidade é fixa.



A questão é que o consumo de energia não é constante. Varia de jogo para jogo! Usando paleio mais técnico sobre triangulos mais pequenos no mapa de Hozizon Zero Dawn, Cerny explica que a aquecimento não é uma questão de o CPU/GPU estarem a 100% ou não, é uma questão de carga nos mesmos. Para explicar isto, e falando mais especificamente do GPU, basicamente podemos dizer que todos os jogos de topo ocupam o GPU a 100%. A questão depois é que nem todos o ocupam da mesma maneira. Uns usam mais umas caracteristicas, outros usam mais outras, e outros usam mais todas.

Esta situação é então a responsável pela variação de consumos energéticos e respectivo aumento no consumo de energia.

Ora dado que a análise em que se baseia toda a concepção do sistema de arrefecimento é uma estimativa, o que pode acontecer é uma de duas coisas.

  • A estimativa foi boa
  • A estimativa foi má

Se a estimativa foi boa, a consola será silenciosa. Se a estimativa foi má, a ventoinha vai disparar, a consola vai sobre aquecer e pode mesmo chashar ou desligar-se.

Isto não se passa só com o GPU, mas igualmente com o CPU. O exemplo é dado com o uso de instruções 256 bits referindo que estas gastam imensa energia no CPU. E isso tem como consequência igual aquecimento.
A solução pode ser então encontrada de duas maneiras:



– com uma ventoinha e uma fonte de maior capacidade
– com uma redução na velocidade de relógio.

Vamos manter presente que Cerny está a falar de uma solução para o pior cenário possível, não do caso geral.

Ora a solução da Sony para essas situações passa exactamente pelo segundo ponto. Em vez de uma frequência fixa onde o consumo energético mínimo é alto e constante, a velocidade dos componentes pode baixar e ser apenas aquela que é necessária para o processamento que está a ser efectuado.

Esta técnica é muito normal nos actuais GPUS. Vejam o video que se segue:



Como podem ver o GPU arranca como se estivesse bloqueado na frequência máxima, mas depois adequa a sua velocidade à necessidade da cena.

Esta é uma solução para criar mais estabilidade ao sistema e evitar aquecimentos desnecessários. Basicamente o CPU e o GPU mantêm-se mais frescos. E isso é algo que apenas pode acontecer com as frequências de relógio livres.

Qual a diferença entre esta solução e uma solução de frequência fixa a nível de resultados? Bem, quando se define por exemplo uma taxa máxima de fotogramas de 60 fps, a PS5 irá alocar a velocidade necessária para o cálculo desses 60 fps. Não literalmente, dado que o bloqueio é no consumo e não nos FPS, mas sem fugir sem limites do valor alvo. Já uma solução de frequência fixa como a da Xbox, calculará os que puder de forma livre, sejam eles 61, 70, 80 ou outro número qualquer.

De se notar que o exemplo de cima pressupõem que os sistemas conseguem atingir e passar o solicitado. Pode porém acontecer não o conseguirem fazer.

E o mesmo se vai então passar com o CPU que alocará apenas a energia necessária ao cálculo que efectua a cada momento.



Basicamente esta é a primeira parte relevante do que Cerny explica, e algo que ele não aborda de forma clara (culpa de ser uma apresentação para a GDC), dizendo apenas que tanto o CPU como o GPU funcionam a tempo inteiro como se estivessem em boost mode. Para tal a base de funcionamento é uma pequena percentagem, e daí para cima vai-se buscar dinâmicamente o que é preciso.

A segunda parte da tecnologia é um pouco mais complexa e onde reside a polémica e envolve a tecnologia smartshift. A tecnologia smartshift foi colocada para lidar com os tais casos em que os jogos possam passar acima dos consumos energéticos estimados e a ventilação existente dispara, podendo nos casos normais levar o sistema a crashar ou a re-iniciar.

Basicamente num sistema com velocidades fixas ambos os processadores estão a ter consumos elevados pelo simples facto de estarem com as velocidades sempre no máximo. E quando um deles puxa mais pelo sistema quebrando o “orçamento” energético disponível, vamos entrar num caso de sobre-aquecimento.

Mas aqui com o smartshift isso não acontece tão facilmente. Se o CPU não estiver na sua velocidade máxima, e o GPU fizer o sistema ultrapassar a barreira energética, ele pode ir buscar energia não usada ao CPU para manter a globalidade do APU no “orçamento” energético.

É importante nesta fase que olhem para a imagem que ilustra o artigo para que percebem que a seta de energia só tem um sentido, pelo que o CPU não ganha com o GPU a libertar energia. Apenas o GPU ganha com isso.



Basicamente isto é um extra… uma forma adicional de manter a estabilidade do sistema, e uma situação extremamente vantajosa. Associado a isto o facto de o APU na sua globalidade (CPU+GPU) poder arrefecer quando não tão solicitado ao descer as velocidades de relógio para o estritamente necessário, bem como facto que como um todo o APU não ir ter consumos tão altos pois dificilmente o CPU e o APU estão os dois a puxar a energia ao máximo em simultâneo é o que permite manter-se velocidades de 2.23 Ghz, quando sem isto ter 2 Ghz já seria problemático.

E desta forma, como Cerny refere, é possível manter-se o CPU a 3.5 Ghz e o GPU a 2.23 Ghz. O que pode criar confusão aqui é que ele refere que tanto o CPU como o GPU se manterão na velocidade máxima “a maior parte do tempo”. E é essa frase que, associado ao que  foi dito depois, leva aos conceitos de downclock que, chame-se a atenção, Cerny até ao momento não tinha abordado.

Ora aqui reside a situação que nos leva a questionar as interpretações pessimistas que por aí anda. Primeiro porque a partir do momento que o CPU e o GPU podem ambos estar no máximo, e isso é irrelevante por que quantidade de tempo, a consola mostra ter um envelope energético e térmico capaz de os sustentar. E se os tem ela funcionará nessas velocidades.

Daí que o entendimento que temos sobre o uso do termo “na maior parte do tempo” enquadra-se no contexto do que vem de traz. Dado que temos velocidades dinâmicas e dado que na informática as cenas são dinâmicas ao ponto de ao olharmos para um lado o GPU ser mais puxado, mas ao olhar para o outro já é menos puxado, as exigências ao sistema nunca são constantes variando a todo e qualquer momento, e consequentemente os usos da potência máxima também não se mantêm constante. Daí que com velocidades não fixas o sistema nunca fica fixo no máximo o tempo todo. Exactamente aquilo que Cerny refere ter sido o que permitiu estas velocidade.

Curiosamente a ideia que passa é que o sistema até poderia teoricamente ir mais longe pois Cerny até refere que o GPU teve de ser limitado a 2.23 Ghz, mas não por problemas de consumos ou térmica, mas de timmings internos. E há igualmente elogios ao sistema de refrigeração.



A questão são depois os casos que fogem ao controlo, e onde efectivamente não se consegue manter o sistema dentro do orçamento? E aqui sim, há diferenças entre o caso da PS5 e os outros.

Como já foi dito, numa configuração de velocidades de relógio fixas, já sabemos o que acontece. O sistema pode crashar ou re-iniciar.

Aqui não! Usando as frases de Cerny, e é neste contexto que ele fala pela primeira vez da existência de um downclock, se chegarmos ao tal cenário pior de todos os casos e ele for ultrapassado, aí sim, o sistema desce a velocidade. Não sobre-aquece, não crasha, não re-inicia… desce a velocidade.

Em nenhum outro caso é referido haver downclock. A nosso ver, como explicado, e se estivermos errados isso facilmente também será constatado em breve ao termos referências de criadores de software sobre o assunto, a extrapolação do cenário sobre downgrades deve-se à existência de velocidades de relógio elevadas, à confirmação de velocidades variáveis, e à referência ao downgrade de Cerny. Mas extrapolar que isso será a norma e não à excepção é que já não foi algo dito. Pelo contrário, entendemos, e cujo entendimento explicamos aqui, que o que Cerny explicou foi apenas o diferente funcionamento da PS5 e que, como graças a ele comportamento da PS5 será absolutamente normal com velocidades de relógio superiores.

Mas mesmo nos casos onde há um downgrade confirmado, Cerny tranquiliza… uma simples descida de uns pontos percentuais na velocidade de relógio são suficientes para descer o consumo em 10% e voltar a colocar o sistema dentro dos parâmetros normais.



Sinceramente, apesar que após a primeira visualização do video fui tentado a acreditar em variações de velocidade de relógio do GPU, tendo mesmo escrito um artigo que referia que o mesmo poderia descer para a zona dos 9 Tflops, agora não estou tão convencido disso. Após várias visualizações e alguma reflexão, o que nos quer parecer que se entende das palavras de Cerny é o que está neste artigo. Resumidamente, quer-nos parecer que a PS5 vai ter um comportamento perfeitamente normal!

Infelizmente Cerny tem tanto jeito para explicar isto ao público em geral como a minha avó. A sua explicação foi demasiadamente técnica e compreensivelmente a dúvida sobre como a coisa será fica no ar. Isso reconheço que fica, e assim sendo, torna-se difícil de avaliar.

Nesse sentido, porque a possibilidade de erro na nossa interpretação do que é dito existe, nada melhor do que deixar o video já devidamente preparado para arrancar na parte relevante para que possam ouvir novamente com mais cuidado e, confrontando com o que aqui escrevemos, julgarem por vocês mesmos.

Acima de tudo mantenham-se no contexto do que está a ser abordado, liguem e não ignoram à ordem cronológica das coisas e digam se concordam ou não com o que dizemos, tendo sempre presente uma coisa: Se leram algo que deriva de interpretação de palavras de alguém, ela pode estar certa ou errada. E aqui é isso que está em causa, pelo que não entendam a nossa interpretação como uma realidade, e muito menos agarrem-se a ela para discussões de guerras de consolas.



Nota: Artigo revisto para pequenas correções.

 

 

 



error: Conteúdo protegido