Porque motivo o balanceamento de um sistema é relevante, e nesse aspecto o SSD pode fazer a diferença.

Tal como tudo na vida, sempre que o trabalho depende de um conjunto de elementos, o mais lento será sempre o factor limitativo.

Quando olhamos para uma equipa de estafetas de, por exemplo, 4x 100 metros, temos de ter a noção que ter o atleta mais rápido do mundo na equipa, ajudará, mas que tal não garantirá a vitória. Afinal há mais 3 elementos que irão ter de fazer a sua parte. E há igualmente a qualidade na passagem do testemunho. Caso a mesma não ocorra na melhor das situações, haverá direito à perda de valiosos segundos.

Nos sistemas informáticos a coisa funciona um pouco da mesma forma. A máquina processa usando vários elementos em simultâneo, e o rendimento global da mesma ficará sempre dependente do rendimento do conjunto. Este é o motivo pelo qual o balanceamento de um sistema se torna relevante, ao ponto de ele poder garantir performance que de outra forma é inacessível.

Há várias situações que são nossas conhecidas que demonstram isso. Vamos ver algumas:

Por norma, o elemento mais capaz de um sistema é o GPU. Ele é o elemento mais definidor dos resultados, e daí o interesse em ter o mesmo a debitar o máximo da sua capacidade.



Mas a questão é: Como sabemos se ele está a debitar o máximo que pode?

Imaginemos uma consola imaginária. Tal como as actuais consolas ela usaria um sistema x86, com um GPU que não interessa definir, e um CPU que seria equivalente a um Ryzen 5 2400G.

O jogo era optimizado ao máximo… e obtínhamos 64 fps no mínimo, e 97 fps no máximo. Um jogo que poderia perfeitamente ser bloqueado nos 60 Hz.

Será que este sistema estava devidamente balanceado para este GPU? Eventualmente, dentro do hardware que ali estava, ele poderia estar. Mas o certo é que isso seria um balanceamento limitativo, um balanceamento que se tinha limitado a optimizar o hardware existente para funcionar o melhor possível.

Ora a construção de uma consola não é apenas isso. Basicamente não há uma escolha de um CPU, um GPU, uma RAM, um disco, etc, etc, e depois junta-se tudo e tenta-se optimizar o conjunto.

Se fosse isto, não havia a necessidade de vários anos de preparação do sistema, criação de hardware e testes e testes consecutivos.

Basicamente numa consola tenta-se ter isso, mas muito mais. Tenta-se escolher um GPU que não fique sub aproveitado pelo CPU. um CPU que puxe ao máximo pelo GPU, uma memória que alimente convenientemente tudo isso, e um disco que seja capaz de manter a qualidade desejada.

É este equilíbrio, que nunca é perfeito, que demora anos. É por isso que são desenvolvidos sistemas específicos, que são testados, optimizados, que lhes são inseridas tecnologias, muitas delas que ainda não existem no mercado, que se gastam milhões e milhões em desenvolvimento. Para garantir que o produto final, quando no mercado, e se devidamente utilizado, pode perfeitamente ir mais longe do que um sistema com performances equivalentes que não sofra as mesmas optimizações.

Não fosse isso, bastava montar-se um PC, usando peças já disponíveis. Ficaria certamente bem mais barato de desenvolver.

Ora no sistema de cima, vamos agora dar um nome ao GPU. E ele passaria a ser uma GTX 1080 Ti.

Sabendo-se que o processador era o Ryzen 5 2400G, será que o sistema estava bem balanceado?

Claro que não!

O CPU

Vamos trocar esse processador por um Core i7-8700k e ver o que acontece!

E o que vemos é que os FPS passam para 105 fps mínimo, e 147 fps máximo. Ou seja, com uma GTX 1080 TI, a escolha do Ryzen estava mal feita. Ou o processador teria de subir, ou o GPU teria de descer. Mas tal como estava, o sistema não estava equilibrado, uma vez que o cliente estava a pagar por um GPU caro que nunca iria usar a 100%

Para informação, estes valores que usei em cima, são reais. São de testes no PC do Battlefield 5. E esses testes estão aqui:

Como vemos, a GTX 1080 Ti só começa a apresentar valores perto do seu real potencial a partir dos Core i7-7700K. A mudança de CPU é essencial para o equilíbrio.

A realidade é que o sistema, tal como estava com o Ryzen 5 2400G e uma GTX 1080 Ti seria bem mais caro do que o mesmo sistema com, por exemplo uma AMD RX 580. Mas devido às limitações do CPU, provavelmente os resultados não seriam muito diferentes.

Ou seja, para uma consola com essas especificações, esse segundo hardware seria melhor escolha. Permitiria um sistema com performances semelhantes, mas muito, muito mais barato. Acima de tudo seria um sistema bem mais equilibrado e balanceado.

Ora o que isto nos mostra é que um GPU potente não é o único ponto de interesse. O CPU conta igualmente para as performances do sistema. Ter um grande GPU e um CPU que não o alimenta não garante melhores performances do que num sistema com pior GPU mas com um CPU devidamente adequado a ele. E isto independentemente dos Tflops envolvidos, uma medida que apenas nos mede a performance bruta teórica.

Nos casos de cima, os vários testes do Battlefield, o GPU é o mesmo… Os Tflops são os mesmos! A capacidade ou balanceamento do sistema para chegar ao rendimento máximo é que não é igual.

E esta situação não se aplica apenas ao CPU e ao GPU… Aplica-se com absolutamente todos os elementos do sistema. Algo que pelo que tenho lido nos comentários não parece ser uma consciência colectiva.

A memória (largura de banda)

Apesar de o CPU ser o factor mais limitativo, a memória também toma um papel preponderante. E o motivo é simples: É ela quem fornece a largura de banda, ou seja, é ela quem define a quantidade de dados que podem ser transmitidos pelo sistema entre os vários componentes. E naturalmente chegar mais informação e mais rápido, permite evitar tempos mortos no processamento em que, de outra forma se estaria à espera de dados.

Para percebermos a total relevância da RAM temos de bloquear um sistema, alterando apenas a RAM para vermos a diferença. Naturalmente que sistemas mais rápidos depois necessitarão de mais largura de banda do que sistemas mais lentos. Mas aqui vamos pegar num sistema fraquinho e limitado. Um Intel Pentium G4560, a correr o GTA V no seu GPU interno!

Claro que aqui estamos perante um sistema muito limitado, mas perfeitamente capaz, que vai crescer pouco com o aumento da largura de banda por isso mesmo.

Este sistema consegue perfeitamente correr o GTA 5, como podem ver em baixo (de notar que há aqui uma escolha muito variada de configurações de forma a se obter a performance).

Ora este sistema a correr o jogo com os parâmetros de defeito do jogo para a configuração High, obtém os seguintes valores:



No gráfico podemos ver três valores. O primeiro (em baixo) é o sistema original. O de cima (meio) é exactamente igual, mas com um sistema limpo, isto é, desligando tudo no windows que são serviços supérfluos, mas que consomem CPU e memória).

Já o valor de cima mostra os resultados com o mesmo sistema optimizado, mas perante a mudança da RAM para o máximo suportado pelo sistema. E vemos que, em média, esta pequena mudança na memória, traz um ganho médio na ordem dos 10%.

Percebam assim, que num GPU bem mais exigente, a trabalhar num nível de detalhe de topo e como jogos dos mais recentes, a largura de banda estar devidamente optimizada para ele se revela algo extremamente relevante. E não só para ele, mas igualmente para o CPU, para que este não deixe de poder debitar igualmente sem gargalos, e assim alimentar o GPU.

Daí que, apesar de parecer menor, a relevância da performance da RAM é extrema. Sem estar devidamente bem equilibrada, o CPU e o GPU sofrem, e as performances caem!

Mas agora uma pergunta: Será que uma largura de banda devidamente optimizada pode trazer gráficos melhores?

Aqui, até agora, falamos da largura de banda como permitindo ao GPU melhorar performances. E claro que mais performance representa mais cálculo, e assim sendo mais gráficos. Isso é consensual!



Mas a pergunta que pretendo fazer vai mais longe… Pode um sistema devidamente alimentado ter melhores gráficos que um outro mais potente, e pior alimentado pela RAM?

Aqui é que está aquilo que pode ser uma grande surpresa para alguns… mas sim, pode!

Se bem se recordam, em 2014 falamos sobre as ROPS do GPU e a forma como estas ficam limitadas pela largura de banda. Basicamente um sistema ser limitado pela capacidade de cálculo dos Raster Operators do seu GPU, ou pela incapacidade da memória em os alimentar.

Por exemplo, relembrando o caso da PS4:

Uso de shaders 8 bits:

PS4 – 32 ROPS – 800 Mhz*32*4=102 GB/s – A consola, ao contar com 176 GB/s de largura de banda, não fica limitada pela memória neste tipo de processamento, ficando apenas limitada ao que as ROPS podem processar.

Uso de Shaders 16 bits:

PS4 – 32 ROPS – 800 Mhz*32*8=204 GB/s – A consola não pode levar as suas ROPs ao máximo, uma vez que a largura de banda de 176 GB/s não é suficiente para as alimentar.

Se imaginarmos uma outra consola PS4, exactamente igual, mas com 410 GB/s de largura de banda, o que víamos é que esta não estaria limitada da mesma forma no uso de shaders 16 bits. Aliás ela não estaria sequer limitada com shaders de 32 bits. E apesar de as suas ROPs não debitarem mais por isto, a realidade é que os resultados dos seus shaders podiam ser visualmente muito mais atractivos. Ou seja, graficamente superiores!

De notar que isto não é no entanto uma limitação da PS4, mas apenas uma demonstração teórica. Não há nenhum caso onde os shaders saturem a largura de banda, e nem sequer nenhum caso onde os shaders sejam todos do mesmo tipo. Mas é um bom exercício teórico para se perceber limites e perceber até que ponto a largura de banda pode ajudar a melhorar o grafismo.

O disco

O elemento até hoje mais negligenciado é o disco rígido. E isto porque os jogos são feitos para processar ambientes fechados onde apenas a informação que está na memória é usada. O disco serve assim apenas para ir refrescando esse conteúdo com novos dados.

A grande questão é que, cada vez mais, os jogos são de mundo aberto. E as limitações dos discos em fornecer grandes quantidades de dados são cada vez mais notórias.

Os programadores tem vindo a desenvolver várias técnicas que limitam o processamento ao que está no campo de visão do jogador, (com um extra de cada lado para prever movimentos rápidos e dar tempo ao sistema de ir processando o resto), e isto no sentido de optimizar a pouca informação que o disco fornece para a zona que o jogador efectivamente necessita.

Mas a realidade é que o disco não é muito diferente da memória. Quando usado em jogos de mundo aberto, onde este faz streaming da informação, ele deixa de ser uma mera unidade de armazenamento para fazer o papel da RAM. Ou seja é ele que fornece a informação do mundo à RAM, que por sua vez a fornece ao GPU. Basicamente, o que isto significa é que a quantidade, e qualidade do que ali é apresentado depende daquilo que o disco consegue fornecer.

Este é aliás um dos motivos pelos quais os discos apareceram nas consolas. Os leitores de Blue-ray não possuem a capacidade de leitura necessária para fornecer dados em quantidade suficiente para as necessidades dos sistemas actuais. E daí o uso dos discos, que permitem elevar isso para valores impensáveis pelos leitores de BD. Basicamente esta capacidade de fornecimento de dados é a que define a qualidade gráfica que o GPU pode processar para o mundo, a qualidade da geometria, a velocidade a que o jogador se pode mover (porque o sistema tem de limitar essa velocidade para garantir que tem tempo para receber os dados e os processar) e muito mais.

Ora a colocação dos SSDs, e quando mais rápidos, melhor, vem colmatar aqui um problema naquele que é o elemento mais lento do sistema. O SSD vai permitir ganhos na ordem das várias dezenas de vezes nas capacidades de transferência de dados. Basicamente isso vai garantir que a memória está constantemente alimentada, e que o GPU vai conseguir usar toda a sua performances no processamento de mundos abertos. Tal como vimos o mesmissimo GPU a debitar mais devido ao aumento do CPU, poderemos ver o mesmo GPU a debitar mais devido ao aumento da velocidade de recepção de dados do Disco. No fundo a situação não é muito diferente, pois como perceberão, o GPU só pode processar o que lhe chega, mesmo que tenha performance para mais. Mais uma vez ficaremos perante um caso onde, com os mesmos Tflops, poderemos ter rendimentos completamente diferentes.

Conclusões

O fascinante na nova geração acaba por ser um pouco isto. Tal como o nosso leitor Shin tem vindo a dizer, esta geração não será uma geração como a anterior. Será uma geração onde o balanceamento da consola poderá ter mais relevância do que a performance bruta em si. Trata-se de criar uma geração onde se garante que o poder existente pode ser facilmente explorado totalmente a 100% do tempo, e não de ter mais poder de processamento. Os aumentos brutais que vamos ter na largura de banda e na velocidade do disco impõem isso mesmo. Um sistema menos balanceado, mesmo que com mais Tflops, poderá não ser o que obtém melhores performances.

Este é aliás o motivo pelo qual escrevo esta artigo. Sobre as novas consolas, e de oficial, conhecemos apenas uma caixa, a da Xbox Série X. Tudo o resto é especulação, com rumores para todos os gostos.

Agora o que é certo é que perante as novidades que esta geração trará, não podemos ignorar que o balanceamento será fulcral. Ele pode virar os pratos da balança!

Daí que sobre as novas consolas há muito ainda que se saber, e muito ainda que se discutir. E mesmo quando soubermos performances em Tflops não saberemos tudo. Especialmente agora que o Ray Tracing aparece à mistura, e onde a eficiência e uso de recursos no processamento do mesmo será igualmente fulcral.

Daí que muito se fala, muito se diz. Mas tal como em todos os artigos anteriores, refira-se: Sem se saber absolutamente tudo sobre as futuras consolas, não saberemos verdadeiramente nada. Se na anterior geração, era fácil ver que os Tflops  seriam o elemento diferenciador, aqui há novos factores que nos dizem para ter cuidado com isso. Porque o balanceamento de uma consola pode aproximar ou afastar mais os valores que os Tflops aparentemente indicam.



newest oldest
Notify of
AlexandreR
Visitante
AlexandreR

A minha pergunta é, será o cpu zen 2 bom o suficiente para um gpu de 11/12 Tflops com a ssd que já falamos? Pois se o cpu vai ter que correr tudo o que o ssd e a ram lhe transmite, aquela velocidade, não será um fator limitativo na consola?

AlexandreR
Visitante
AlexandreR

O que eu queria tentar transmitir é que o cpu irá ter muito trabalho e vai receber a informação a alta velocidade! Será que consegue processar tudo? Para não falar do ray tracing

MARCIO FERREIRA DA SILVA
Visitante
MARCIO FERREIRA DA SILVA

Olá AlexandreR encontrei este video ,talvez ele ajuide a todos nós a entender com ficará isso.
https://www.youtube.com/watch?v=gss2khM8Zaw

AlexandreR
Visitante
AlexandreR

Bom vídeo 🙂

By-mission
Visitante
By-mission

Mario excelente…
Estava a ler sobre o SSD e me lembra um pouco a situação da PS2 na época que das três consoles era a mais fraca tanto em CPU quanto em GPU mas aquilo era um monstro em memória para o sistema. Lembro de uma entrevista com o Kazunori a afirmar que o que estes conseguiram fazer na PS2 não conseguiam na PS3… Ex
Em Gran Turismo 3 na pista de Laguna Seca estes conseguiram um efeito de calor sobre o asfalto simplesmente calculando em cada frame a distorção de cada frame enchendo e esvaziando a memória inúmeras vezes, algo que ficaram muito tempo a ver uma maneira de se fazer na PS3 pois este não tinha largura de banda suficiente.

José Galvão
Visitante
José Galvão

Desculpa o offtopic Mário mas é oficial, evento da Sony para a PS5 dia 20 de Fevereiro!!!

José Galvão
Visitante
José Galvão

Sorry, afinal não, precipitei-me.

bruno
Visitante
bruno

Aproveitando este teu comentario, Galvao, e num off-topic, so me pergunto se alguem tem notado a triste palhacada em que se tornaram foruns como o Reset Era e o Neogaf?

Aquilo ja era um espetaculo triste antes, com pessoas a fazerem filmes do ar, e a atirarem ideias estapafurdias para o ar, mas agora, parece um concurso semanal para ver quando a Sony vai revelar a PS5.

Eles choram, fazem drama, queixam-se e andam sempre a arranjar novos prazos para a revelacao ate que depois a data chega, nada e revelado, e volta tudo a chorar, e a fazer drama.

Pior e quando ves isso, e ves pessoas a queixarem-se, na mesma thread de que tem muito backlog para passar.

Posso dizer ja isto… o meu nivel de impaciencia para ver quando a Sony vai revelar a PS5, ou pela chegada da proxima geracao e… 0. Nao tenho interesse, absolutamente nenhum.

Este ano esta repleto de imensos titulos de peso e estes sim estao me a causar espectativa.

Mário Armão Ferreira
Visitante

É verdade… não só há contra informação para todos os lados, como sempre que alguem diz algo de novo, verdadeiro ou falso, é imediatamente desmentido.
Por exemplo:
A PS5 é inferior à XsX
Pode lá ser… impossível. Falso!
A SxX é inferior à PS5
Pode lá ser…. Impossível. Falso!
Ambas as consolas são muito semelhantes.
Pode lá ser… Impossível. Falso!

Livio
Visitante
Livio

Xsx vai ter 12TF
logo depois PS5 9TF

Depois surge o rumor do PS5 a 9.2TF, ou seja um acréscimo de 0.2.
Logo depois o XsX tem 12.2TF, o mesmo acréscimo do PS5 para manter a mesma diferença, assim vai com outras características de ambos os consoles.

Fernando Molina
Visitante
Fernando Molina

A mim também, estou mais interessado em Resident 3, o novo Doom e o the last of us part 2 do que propriamente na revelação desses consoles

Livio
Visitante
Livio

TLoU2 já fiz a reserva da edição com livro arte e steelcase

Fernando Molina
Visitante
Fernando Molina

Por enquanto fiz a reserva do Resident Evil 3(versão Xbox, jogar esse no X), o novo Doom não vou pegar no lançamento, esperar uns meses e comprar mais em conta, o Tlou2 logo mais já garanto o meu, esse quero jogar no day one

AlexandreR
Visitante
AlexandreR

Eu estou ansioso é com o ghost os Tsushima! Aí aí

Vitor PG
Visitante
Vitor PG

Parabéns pela matéria Mário, você deu uma aula técnica com linguagem bem didática, você falou do disco fazer meio q um papel de RAM mas e se o jogo for digital como aconteceria? Lembro-me que no PS1 não existia Drawn distance e em muitos jogos os devs colocavam papel de parede nos jogos para dar impressão de distância além de jogos como Driver the wheelmen em q a medida q vc avançava o cenário era renderizando gradualmente

AlexandreR
Visitante
AlexandreR

Os consumidores estão ansiosos com o anúncio da ps5! Quando for anunciado os fóruns vão arrebentar e vai ser falado durante o resto do ano…

Mário Armão Ferreira
Visitante

Sem querer falar da consola A ou B, só espero que ambas sejam semelhantes.
Uma delas ser mais fraca, poderá limitar em muito a geração ao ser nivelada por aí.

Carlos Zidane
Visitante
Carlos Zidane

Mário, Esse é um pensando realmente inteligente que não ocorre a quem fica limitado a estúpida visão de A x B

AlexandreR
Visitante
AlexandreR

Eu também espero que sim! Ou então que a diferença seja menos de 5%
Que o foco seja os exclusivos, assim ambos ganham!

daniel
Visitante
daniel

Mário, como ficará a situação do PC? Achas que nos jogos, talvez começando pelo biênio 2021/2022, terão uma espécie de requisito mínimo, não só a GPU, CPU e RAM, mas daqui a pouco também no que concerne ao nvm2? Atrelado a isso, não achas que a Microsoft quer “atrasar” a implementação total da nova geração para 1/2 anos justamente porque ela terá que fazer a transição de pelo menos 3 sistemas (PC, Xbox e blades do novo xbox visando streaming)? Pelas suas belíssimas explanações, eu vejo que o SSD vai ser um grande diferencial no desenvolvimento dos jogos, mas penso que será gradual e media/lenta, pois dificilmente um dono de PC com RX 5700 ou RTX 2060 SUper (o topo do mainstream) possuem um nvme com velocidades próximas ao mínimo do que se espera da nova geração, que segundo rumores, advém do Series X, com algo entre 2 e 3 gb/s. Ou achas que a indústria não vai estar nem ai, e vão tentar impor/obrigar os donos do PC a adquirirem o SSD?

Vitor Calado
Visitante
Vitor Calado

Olha de todos os componentes de um sistema de jogos o armazenamento é o menos importante e o que menos impacta na performance, este artigo é apenas controle de dano, pois como toda a gente começa a suspeitar a PS5 vai estar atrás da XBOX em tudo excepto na velocidade de loading…imagina uma corrida de estafetas de 4×100, acontece que nos sistemas de jogos podes fazer batota e utilizar um buffer em que a data que se encontra no disco mais lento é passado para a memória mais rápida, assim na pista os 4 corredores não esperam que o testemunho seja passado e começam a correr antes do tempo, assim os mais lentos vão estar mais perto da meta e a velocidade é compensada pela menor distância que ainda lhes falta correr … o PC na nova geração apenas vai ter que ter mais memória para fazer cache dos dados para compensar o atraso da leitura e tudo vai correr como é suposto com o PC em primeiro lugar a Xbox em segundo do geral e em primeiro das consolas e a PS5 em último das consolas caseiras de mesa e em penúltimo no geral ficando a Switch com o último lugar, é isto que eu acho que vai ser a próxima geração e podem escrever todo o tipo de artigo a tentar beneficiar a consola A ou B, no final do ano a Digital Foundry vai passar o algodão e como toda a gente sabe o algodão não engana 😉

Nesta geração comecei com a PS4 pois era a mais capaz, portanto se estiver enganado vou de PS5…para mim não há crise pois escolho sempre a consola mais poderosa e não quero saber se não for a marca da minha preferência pois eu quero é jogar os jogos na melhor qualidade, preferia que fosse numa xbox mas se for numa playstation também estarei bem servido…

Edson
Visitante
Edson

Vá no Google Stadia, pois ali é o futuro! Altas performances, poder ilimitado.rs

Livio
Visitante
Livio

E provavelmente o Stadia está utilizando SSD! É cada uma que se vê internet afora!

nETTo
Visitante
nETTo

kkkkkk

só isso