Nos nossos artigos recentes sempre referimos que não podemos comparar os GPUs pelos Tflops, sem sabermos se o seu funcionamento interno se baseia a 100% na mesma arquitectura. E os últimos rumores parecem mostrar diferenças grandes na abordagem aos dois GPUs, nomeadamente com a utilização de um segundo GPU ou um ASIC como auxiliar gráfico.
Há atualmente dois rumores a correr sobre a PS5. E eles são ambos engraçados! Na realidade o que vemos é que um deles, quando mal interpretado até poderia ter partido do outro, mas depois, após milhares de conversas pela internet, eles derivaram em dois rumores completamente diferentes.
Vamos então passar a expor os dois, começando por referir aquilo que são as especificações da PS5 de que se tanto tem falado.
As especificações em rumor (nada confirmado)
Segundo os rumores, a Xbox apresentará um total de 12,1 Tflops, obtidos com um GPU a 1700 Mhz, com um total de 56 unidades de computação.
A PS5 apresenta um total de 9.2 Tflops, obtidos com um GPU a 2000 Mhz, com um total de 36 unidades de computação.
Esta situação, e sem contabilizarmos qualquer ganho extra que possa vir de outras situações, dá uma vantagem de performance gráfica na ordem dos 32% a favor da Xbox!
A térmica
Ora com 36 CU a 2 Ghz há uma questão que se coloca imediatamente! Serão 2 Ghz de velocidade um problema pela geração de calor expectável a esta velocidade?
Esta é uma dúvida lógica… que pode ou não ter razão de ser! E é isso que vamos tentar perceber, se há ou não motivos para se pensar assim!
Se formos a ver a RX 5700 possui 36 CU correndo a 1605 Mhz, mas como alguns utilizadores comprovaram, ela pode ser levada aos 2 Ghz sem dissipação adicional.
Com esta realidade em mente e tendo em conta que entre o lançamento da RX 5700 e os chips das novas consolas vai mediar cerca de ano e meio, e sendo estes chips foram criados de raiz a pensar nas suas velocidades de relógio, só podemos pensar que certamente eles estarão muito melhor preparados que uma RX 5700 para trabalhar a essas velocidades.
Ora a PS5 possui uma velocidade de relógio alta, de 2 Ghz, mas se formos a ver, os rumores da Xbox falam em 1,7 Ghz. Ou seja, na realidade o GPU da PS5 tem apenas mais 17,6% de velocidade de relógio.
Ora o que é normal nestes casos, sempre que a térmica se revela um problema, é descer a velocidade de relógio, aumentando os CUs. Mas o aumento dos CU, só funciona com uma real descida dos Mhz. O manter Mhz e aumentar os CU ainda nos cria um problema térmico maior.
O que acontece então é que se aceitamos que a PS5 a 2 Ghz vai ter problemas térmicos com os seus 36 CU, então temos também de aceitar que esses problemas estão igualmente presentes na Xbox! E porque? Porque se a PS5 aumenta a velocidade de relógio em 17,6%, a Xbox aumenta as unidades de computação em 55%. Há uma desproporção entre o aumento das unidades de computação e a descida de velocidade de relógio muito grande.
Que conclusão é que aparentemente poderemos tirar daqui? Que ou ambos poderão apresentar problemas, ou que estes GPUs deverão realmente estar preparados para estas velocidades. E a segunda hipótese parece ser a mais coerente!
Note-se porém, e nunca é demais realçar isto, que estas conclusões podem estar completamente erradas. Basta que as velocidades de relógio de pelo menos uma das consolas não seja aquela que os rumores referem, mas sim algo mais baixo.
A performance
Apesar de as diferenças entre estes dois GPUs dever ser feita comparando os 12,1 Tflops com os 9,2 Tflops, a comparação face às actuais Xbox One e PS4 já não devem ser feitas apenas pela comparação do valor numérico dos Tflops.
Tanto as consolas originais PS4 como Xbox são baseadas no GCN 1.0, apesar de personalizações com tecnologias mais recentes. Daí que a comparação apenas numérica não se traduz numa realidade de performances.
Para valores reais, comparativos face às consolas originais, teriamos de ver os ganhos obtidos nestes últimos anos no rendimento dos GPUs AMD. E isso implicava a comparação entre os GPUs Tahiti e os Navi, algo que não se consegue fazer directamente.
No entanto, a Eurogamer fez essa análise de forma indirecta, neste artigo, chegando à conclusão que do Tahiti para o Navi há um ganho que se pode estimar ser na ordem dos 62%.
E isso quer dizer que, falando no mesmo nível de eficiência das consolas originais, a nova Xbox equivaler-seia a uma XBox original com 56 CU a oferecer 19,6 Tflops, e a PS5 equivaler-se-ia a uma Xbox PS4, isto seria o mesmo que dizermos que este GPU da PS5 seria equivalente a uma PS4 com 36 CUs, a 14,9 Tflops.
De notar-se que os ganhos são variáveis, sendo que se este valor é indicativo do que poderemos esperar, há áreas em que os ganhos foram muito acima disso. Por exemplo, no capítulo da tesselização os ganhos do Navi face ao Tahiti, alcançam os 745%, o que permite antever que, comparativamente, estas novas consolas poderiam ainda assim bater as consolas originais com os Tflops equivalentes indicados.
A diferença de abordagens
Apesar das diferenças de performance do GPU serem as aqui referidas, tal não implica que elas sejam medidas nessa proporção no mundo real.
Há uma série de factores ainda desconhecidos que podem equilibrar ou mesmo inverter a inclinação dos pratos da balança!
O que é claro é que as abordagens são diferentes! A Sony optou por uma abordagem de obtenção de performance indo por mais velocidade e menos paralelismo. A Microsoft faz exactamente o contrário.
A outra diferença na abordagem é que nos parece mais relevante, e passa pela implementação do Ray Tracing… Algo que pode fazer toda a diferença, e o motivo deste artigo!
O Ray Tracing das duas empresas
Ora é no Ray Tracing que se fala estar a grande diferença entre as duas consolas. E aqui entram duas teorias para essa diferença. E ambas passam por um segundo chip auxiliar, seja ele um segundo GPU, ou um chip ASIC (um chip dedicado e especializado) auxiliar.
Vamos então expor as duas:
Teoria 1: A presença de um ASIC
Tal como todos os dados deste artigo, o que aqui é referido é apenas um rumor e como tal tudo pode não passar de uma nuvem de fumo. Mas os dados que são apresentados para o consolidar, verdadeiros ou não, são interessantes e bem fundamentados. Daí que resolvemos trazê-lo aqui a nível informativo.
Eis o que foi publicado no Reddit:
Para clarificar alguma confusão sobre as consolas de próxima geração, a Sony e a Microsoft estão a fazer aproximações diferentes aos seus APUs respectivos.
A Sony está a implementar um chipset discreto junto com o seu APU para o Ray Tracing por hardware. OS tais “9.2 Tflops” dizem respeito ao poder de processamento do GPU para grafismo dentro da PS5. Para enfatizar este algoritmo, a Sony alcançou o que pretendia com apenas 36/40 unidades de computação.
A Microsoft por outro lado, trabalharam o seu APU para conter o Ray Tracing no seu interior, tendo para isso aumentando o seu volume e a capacidade de computação. Isto obrigou a Microsoft a adicionar unidades de computação adicionais para satisfazer o que precisava. 52/56 unidades de computação que resultam no tão falado “GPU de 12 Tflops”.
Em termos leigos, a Microsoft usa o poder do seu GPU de “12 Tflops” de forma partilhada entre o processamento gráfico standard e o Ray Tracing. No entanto o GPU da Sony, apesar de menos capaz (9,2 Tflops), possui um chip discreto e dedicado para o Ray Tracing. No final, esperam que ambas as consolas tenham uma performance muito semelhante!
Esta publicação provavelmente passaria ao lado, não fosse pelo facto que o leak do Github parece confirmar que o APU da Microsoft tem Ray Tracing embutido e o da Sony não.
Agora a questão: Não será isto mero paleio de fanboy e uma mera tentativa de justificar o encontrado no leak, inventando, ao bom estilo MisterXmedia, uma realidade alternativa?
A realidade é que só pelo que foi publicado neste texto nunca escreveríamos um artigo sobre este rumor. Mas a questão é que depois as pessoas começaram a falar dele, tentando-lhe dar substância, e no que foi escrito sobre o assunto há coisas que encaixam muito bem!
Uma das situações que é associada a este ASIC é o software que a empresa Israelista Adshir mostrou na CES. Trata-se de uma solução software de elevada performance e baixo custo de computação para Ray Tracing, e que pode ser aplicada a qualquer GPU, que processa Ray Tracing, de nome LocalRay. É uma solução de extremo baixo consumo, que pode ser aplicado a smartphones.
Esta solução mostra-se extremamente interessante ao suportar multiplas plataformas, podendo ser aplicada a qualquer GPU.
Mas o que tem uma solução 100% software a ver com isto? Bem, aquilo que se pode ver é que a solução é relativamente leve e acima de tudo, extremamente eficaz… ao ponto de ter resultados de topo processados em tempo real.
Mas no entanto a ideia da Sony não teria sido usar o processamento do GPU para correr este software, mas sim usar um ASIC (um processador dedicado ao cálculo em causa), externo, que o faria. Basicamente a Sony colocaria hardware dedicado e especializado para executar esta solução software de Ray Tracing, transformando uma solução baseada em software em uma solução genérica hardware. Mas que por ter uma base software, pode ser inserida na sua consola sem qualquer problema de compatibilidade.
Mas porque este software? O que leva a que se junte a ideia do ASIC a este software em específico?
A frase do Vice Presidente executivo da Adshir, usada durante a apresentação feita na CES..
Desenhamos de raiz a pensar em que funcione em aparelhos baixo de gama. Temos múltiplos acordos que envolvem consolas e o sector móvel, mas não podemos falar disso até à segunda metade do ano.
Estas frases são reais… estão escritas em vários sítios, e realmente aparentam uma ligação à PS5.
Um dos principais motivos é o só poderem falar do assunto na segunda metade deste ano. E o que há de relevante a passar-se que possa impedir isso? Exactamente, a revelação das nova consolas!
Esta associação às consolas pode ser vista ao minuto 29:55 onde é dito que o software foi testado em consolas!
Mas é a data em que se pode falar, o único dado que associa este software à PS5?
Não.. nas realidade há algo mais! É que o video promocional desta empresa, e podem ver isso a partir do minuto 9:07 usa extensivamente o homem aranha como personagem. E quem detém os direitos de imagem do Homem Aranha? A Sony!
Há ainda uma outra situação referida que associa os dois rumores. O uso e um termo no post que fala do ASIC e que realmente soa a algo despropositado, e cito o trecho:
Para enfatizar este algoritmo, a Sony alcançou…
Claramente o uso do termo algoritmo soa a estranha… não se adequa verdadeiramente à frase!
Ora se houve algo que na apresentação da Adshir foi referido ínumeras vezes foi que o que distingue o seu software de todos os outros é a sua aproximação algorítmica, que permite uma estrutura de dados dinâmica e proprietária que se adapta automaticamente às adaptações de cenas.
Há aqui uma curiosidade no uso do termo que os defensores da teoria não quiseram deixar passar em branco.
Esta solução, a ser verdadeira, parece-nos muito interessante. Uma solução completa Ray Tracing capaz de correr em processadores mais fracos, colocada a correr num processador dedicado e criado especificamente para tal, poderia trazer elevados rendimentos.
Dado que a solução RT da AMD, apesar de mais versátil que a da Nvidia será, à partida, inferior a nível de performances, a escolha de uma solução deste género, seria mais barata, mais rentável, e com melhores performances.
Teoria 2 – Um segundo APU/GPU
Esta segunda teoria apoia-se um bocado nos princípios da primeira. Ou seja, é uma teoria na qual as performances do Oberon não revelaram toda a performance da consola. E tem igualmente uns fundamentos que se revelam interessante ao ponto de justificar trazer-se o mesmo aqui.
O mais interessante deste rumor é que ele explicaria a quase totalidade dos rumores que apareceram até hoje e dados como podendo ter algum fundamento E dado que nesta geração a contra-informação é muita, a coerência entre rumores torna-se uma das poucas ferramentas para alguma credibilidade.
De notar porém que isso não chega para dar credibilidade ao rumor, apenas para que o mesmo não seja descartado à partida.
O certo é que desde Junho de 2017 que já se fala do uso de um GPU discreto na PS5:
PS5 terá um GPU discreto e não um APU
Este rumor não seria exactamente o que teríamos aqui, uma vez que o segundo GPU (ou até segundo APU), estaria colocado em conjunto com um APU. Mas também estávamos em 2017, e com rumores muito prematuros, pelo que o mesmo poderia estar mal explicado ou obtido. Aliás em 2017, se falássemos a alguém de GPU discreto, o coerente seria imediatamente descartar a ideia de um APU.
Seja com for, o relevante aqui é perceber-se que já em 2017 se falava da possibilidade de a PS5 ter um GPU independente. E dado que a PS5 estaria para ser lançada em 2019, este rumor poderia estar baseado em dados concretos relacionados com o desenvolvimento que nesta fase estaria já avançado.
Aliás segundo outros rumores, foi exactamente em 2017 que a Sony resolveu adiar o lançamento da PS5 de 2019 para 2020.
Foi em Julho de 2019, ou seja, bastante antes de se começar sequer a falar do leak do Github e da aceitação que a PS5 teria 36 CU, que surgiu um rumor curioso publicado pelo Hot Hardware.
Ele falava que a PS5 teria uma configuração de 72 CU (numa configuração de duplo 36 CU). É a primeira referência efectiva a uma PS5 com duplo GPU, mas à qual ninguém deu a devida atenção, especialmente porque com a revelação do Navi e dos seus Dual Cus, se associou imediatamente a ideia de que esta configuração de duplo CU era na realidade os Dual CUs.
Seja como for, uma coisa é certa, o rumor falava em 36 CU, o número de CUs que os documentos da AMD confirmaram.
Basicamente o que interessa para se perceber este rumor é compreender-se que há rumores sobre a um GPU externo, e rumores sobre uma configuração de duplo GPU. Logo a especulação apoia-se nisso!
Agora vamos analisar o rumor de outra forma… O que levaria a Sony a tal escolha de um GPU ou APU duplo? Será que um APU e um GPU (ou duplo APU) não sairão mais caros do que um único APU com mais CUs?
E sabendo-se que a AMD refere que um dos motivos pelos quais não usa o infinity fabric para criar sistemas multi GPU é que as desvantagens do Crossfire se mantêm quase todas presentes, como é que a Sony iria optar por algo assim?
Curiosamente este rumor dá boas respostas a essas duas perguntas!
A primeira responde-se com este artigo!
Basicamente o artigo refere a ideia da Sony da existência de dois SKUs, um que seria a PS5, e outro que seria a PS5 Pro. Tal e qual a Microsoft tem com a Anaconda e a Lockhart!
Mas a realidade depois parece diferente: Temos conhecimento do Arden (Anaconda, agora Série X), e do SparkMan (Lockhart), mas do lado da PS5 só temos conhecimento de um chip que teve já algumas evoluções, começando como Gonzalo, evoluindo para Ariel, e chamando-se agora Oberon. E nas revisões conhecidas, sempre com 36 CU, e com as mudanças conhecidas a serem a velocidade de relógio do GPU.
E se é assim, não há nenhum APU para um segundo SKU.
E é exactamente ao não existir que este rumor se encaixa na perfeição. Basicamente só haveria um chip em desenvolvimento (ao qual os núcleos Zen poderiam ser retirados), sendo que a PS5 base usaria um APU com 36 CU a 2 Ghz e 9.2 Tflops, ao passo que um modelo Pro usaria 2 GPUs (ou 2 APUs), para um total de 18,4 Tflops de performance teórica máxima. Na realidade este valor de performance desceria pois quando com os dois APUs em uso, a velocidade deles desceria, oferecendo-se apenas 14,2 Tflops.
Que vantagens haveria nisto? Muitas, pois não haveria custo de desenvolvimento de um segundo chip, e nem dupla produção, o que permitiria poupar largas centenas de milhões (o desenvolvimento é onde se investe mais dinheiro), criar duas ofertas e tornar o esquema rentável. Tudo com um único APU para duas consolas. Tal permitiria inclusiva uma margem à Sony para cobrir perdas no preço das suas consolas.
Igualmente interessante é enquadrar isto com os dados da CES da AMD… 36 CU enquadra-se nas especificações da RX 5600 que a AMD considera optimizada para 1080p. 72 CU, entraria no domínio dos Big Navi, e perfeitamente capaz de 4K. Ou seja, com um APU com 36 CU e 2 Ghz teríamos uma consola capaz de superar uma RX 5700 e ir aos 1440p com margem, ao passo que com 2 destes chips poderíamos ir aos 4K ou acima.
Ora com um APU de 36 CU, que seria acompanhado de segundo um GPU de outros 36 CU (ou outro APU), naturalmente haveriam rumores de performance para ambos os lados. Quem só conhecia a ideia do uso do APU, referiria menos potente, quem conhecesse a ideia do duplo GPU (ou APU), referiria mais potente. Encaixaria como ginjas em todos os rumores.
Infelizmente toda esta teoria parece cair por terra quando vemos o que a AMD refere sobre as desvantagens do Crossfire estarem presentes em sistemas multi GPU. Basicamente tal não permitiria um ganho assim tão grande, com ganhos variáveis de jogo para jogo, e no máximo de algo na ordem dos 40%.
E isto invalidaria o interesse num investimento deste género!
Ou será que não?
Bem, a AMD tem o infinity Fabric… e queixa-se disso. Mas a Sony tem uma tecnologia que aprimora desde 2008 onde ligando 4 consolas apenas com cabos de rede consegue resultados fantásticos colocando consolas distintas a criar uma imagem única de maior resolução.
Esta tecnologia foi-nos mostrada em 2008 com a PS3 onde a Sony colocou Gran Turismo 4 a correr a 4K 60 Fps, usando 4 consolas Playstation 3.
Sim… 4K, 60 fps! Com consolas Playstation 3.
A tecnologia baseia-se no seguinte principio de funcionamento:
Ora se isto se faz com consolas ligadas por cabos de rede, o que poderá acontecer com consolas com uma ligação interna PCIe.
Neste caso, com dois GPUs a debitarem 9.2 Tflops RDNA (mais do dobro da Pro), cada um a debitar 2x 4K checkerboard (o dobro da Pro), um sistema com apenas dois APUs (ou um APU + um GPU), parece algo perfeitamente possível.
E isso explicaria o que nos foi mostrado à algum tempo, em hardware não especificado: GT Sports a 8K, 120 fps, com Ray Tracing.
https://www.youtube.com/watch?v=1vli7FsGHL0
Teoria? Ficção?
Bem, aqui escrevemos este artigo no campo da teoria… uma vez que não podemos fazer afirmações seguras.
Mas uma coisa é certa! O que vemos no video de cima poderia ser tambem feito com 4 consolas PS4 Pro, mas no máximo elas colocariam o jogo a correr a 8K 60 fps. Ora o que ali temos são 8K 120 fps e com Ray Tracing. E com 36 CUs RDNA não nos parece minimamente possível que GT Sports pudesse correr a 8K 120 fps HDR e com Ray Tracing. Mas com 72 CU RDNA com dois APUs com suporte Ray Tracing, isso já nos parece possível.
Conclusões
Como veem, as duas teorias tem alguns argumentos interessantes. Daí que achamos interesse em coloca-las aqui.
Mas recorde-se… é tudo especulação! Para dados concretos, teremos de esperar para ver!
E se nos é permitido uma nova teoria, quem sabe não poderemos ter algo que misture as duas coisas?
Enfim, sonhar não custa nada. 😉
Mas colocando os pés na terra, o que temos como dados palpáveis atualmente são 9.2 Tflops num único APU, e sem sabermos como será o ray Tracing. Esse é o dado mais concreto que temos até agora, apesar que nada nos pode garantir que isso não tenha sido alterado.
Um APU capaz de 4K, mas que não poderá voar tão alto como o APU de, supostos, 12 Tflops da Xbox!
Por isso que venho aqui todos dias!
Olha quanto trabalho em citar as fontes, olhem o vídeo… Digo e isso é informação de qualidade e desde o começo do artigo sempre avisando e que é especulação um rumor!
Por isso sempre acertaste Mario e desde o anuncio da PS4 estou aqui, informação de qualidade!
Se fosse em outro lugar já teriam batido o martelo e pronto. Enquanto andam uns a medir fotos do Twitter…
Temos você com informações que realmente nos tinham passado ao lado!
Faço das suas palavras as minhas.
Excelente trabalho Mário!
Se me permite, faço minhas as suas palavras By Mission.
Excelente artigo Mário. Você podia dar aula pra esses sites comerciais de clickbait, sem contar os sites com preferências que são basicamente FANFIC, e o Brasil está abarrotado deles.
Gostei bastante das teorias, especialmente do ASIC pra RT. Sempre fiquei imaginando que seria uma boa idéia criar chips separados pra desonerar o CPU/GPU em vários sentidos, e agora com RT isso me parece uma solução melhor que nunca, ainda mais como a descrita, baixo consumo e alta eficiência.
Só não me agrada de forma alguma clock tão alto como 2GHz na GPU, precisaria de um sistema de refrigeração primoroso, e não acho isso muito bom pra durabilidade, confiabilidade da peça.
Espero que surpreendam positivamente.
Eu tambem penso isso sobre os clocks Carlos…
Mas a realidade é que não sabemos que alterações as consolas poderão ter. Desde que os consumos acabam contidos, a dissipação térmica não será um problema. E nada nos garante que estes Gpus consumam o mesmo que uma Navi 10 de primeira geração.
Isto é um apanhado de muitas conversas. Não há um post que refira isto. Isto são conversas em que as pessoas vão acrescentando um dado aqui, um dado ali. Eu apanhei e compilei tudo.
São duas teorias… meros rumores… mas engraçados porque se procuram basear em algo que é palpável.
Eis mais um rumor:https://www.gamevicio.com/noticias/2020/01/rumor-sugere-que-o-xbox-series-x-tera-suporte-para-o-steam-e-epic-store/
O Jez Corden desmentiu isto no Twitter.
https://twitter.com/JezCorden/status/1215417027025874946
Vocês tem de aprender a não comer as coisas só porque se dizem… Olhem o exemplo dos rumores deste artigo. Eles andam no ar á tempos, mas só falei deles depois de haver algo palpável que pudesse consubstanciar os mesmos.
Naturalmente isso não os torna verdadeiros, mas dá-lhes pelo menos alguns pés para andar.
Agora, dizem uma coisa, e já a tomam como verdade… isso não pode acontecer. Mostra demasiado anseio e desejo para ser verdade.
72CU? Nos temos uma limitação física para isso, olha o SoC apresentado pela Microsoft, sendo 7nm é o maior SoC apresentado nesse processo. O que temos na verdade é a eficiência, 36CUs rDNA geram mais instruções que 72CUs Vega, e se você olhar o nome código inicial de Navi10 vai chegar a Bermuda, uma Pirate Island que seria cotada como R9 395x e foi dada como rumor em 2015 mas nunca apareceu.
Eu especulo que esta GPU serviu internamente como piloto para Navi10 e por isso ambas compartilham o mesmo nome.
Já a respeito do LocalRay eu não sei muito a respeito mas vi suas apresentações na Siggraphic 2019.
Acho oportuno lembrar que já temos algum exemplo da Sony testando sua solução Ray-Tracing em GTSport, eles faziam isso com poucos raios e muito ruido.
https://youtu.be/qzvzELq13HI
O Localray promete poucos raios e sem ruído eliminando segundo eles o método AS, é a mesma coisa mas em outro método que precisa de aceleração como um todo e o PS5 terá essa aceleração. Mas aonde ela está? Eu desconfio que ela não vem do Ryzen mas sim de sua Southbridge que também é um SOC. Como o Ray-Tracing se baseia em uma estrutura de dados pré compilados, se você estiver próximo dessa fonte, você perde menos ciclos.
A solução da AMD é similar a da Nvidia com a diferença de ser um circuito integrado como parte da TMU, a Nvidia um ASIC conectado a um circuito ao lado da TMU, ambos compartilham seu cache. A idéia é que a Sony/Microsoft use a solução da AMD de todo o modo. Mas aí rola o problema para a Sony, seu chip menor terá menos TMUs e menos ICs associados que o da Microsoft, até que ponto isso e comprometedor?
Por isso ao meu ver faz sentido uma solução de envio, CPU envia primitivos para uma memória, sistema dedicado gera dinamicamente o Nó e compila como uma classe de textura, GPU colhe e aclopa a seu pixel fragment como uma amostra dinâmica. Embora o caminho lógico seja colocar a unidade o mais próximo da GPU, uma vez que a Sony desenvolveu uma rápida solução de tráfego de dados entre as memórias abatendo os loadings, essa mesma solução pode servir para encaminhar dados entre diferentes sistemas.
Não é 72 CU… são dois GPUs com 36 cada!
Mas o RDNA pode ir aos 80 segundo as ultimas informações!
Excelente artigo Mario… sobretudo a parte de ligacao de consolas em serie e a comparacao com o crossfire. (e preciso nao esquecer que mesmo os dados da AMD provavelmente prendem-se com so no… PC – em sistema controlado, como bem sabemos, provavelmente mesmo o crossfire consegue ir mais longe).
Duas questoes:
1 – Quais sao os impedimentos sobre duas RX5700 a correrem a 2000Mhz?
Pelo que tenho entendido mais vale altas velocidades de relogio, num hardware mais pequeno que uma hardware maior com menor velocidade de relogio.
2- Falaste do duplo GPU, com um segundo GPU discreto. Ha contudo um rumor mais antigo que que refere que as consolas sao baseadas nas BIG Navi. Esse foi dos primeiros, e da WccfTech e o autor mantem o que tem dito. Dados mais recentes referem que esse GPU contara com 80 CU, e 505 mm2 de area. Ora isto sao duas Navi 10 coladas, basicamente. Considernado em cada ship navi 10 um WGP desactivado por SE, isto faz 72 Cu activas. Quais os impedimentos disto?
Acrescento apenas que nos ultimos dois anos, excepto a ma identificacao da Navi 10 por Navi 12 (e isto foi um erro compreensivel), toda a informacao proveniente do mesmo autor que disse que a Navi foi feita para a Sony tem estado correta. Ele previu corretamente que a primeira Navi a ser revelada teria 40CU e tem repetido insistentemente que as consolas seriam baseadas nas Navi high end.
Não há impedimento nenhum das RX 5700 correrem a 2 Ghz. Há muita malta a fazer isso com o cooler de série. Mas estes APUs das consolas são criados de raiz para consumirem e aquecerem menos .
Quanto a mais velocidade no hardware pequeno vs menos velocidade em hardware maior, é uma discussão eterna, mas que tem mais apoiantes do primeiro caso.
Calcula mais depressa e não tem perdas de rendimento pelo paralelismo.
2 – O rumor do segundo GPU pode estar mal fundamentado. O que foi referido foram 2x 36 CU, o resto é especulado. Aliás é engraçado que um recente tweet do Komachi veio referir que tanto o Oberon como o Ariel ainda estão a sofrer testes. Mas eles são em tudo iguais… Daí que quem sabe não é o que tu referes, dois APUs colados (nota que no artigo, por minha iniciativa, onde se fala do segundo GPU, eu escrevi também ou segundo APU).
Quem sabe o Ariel e o Oberon não são duas partes de algo que pode trabalhar em conjunto? Isto especulando no domínio do artigo, claro!
A questão aqui depois é que um dos grandes argumentos da teoria seria o ter um 2 em 1. Ou seja, terias duas consolas com o mesmo APU, em que na outra acrescentavas um segundo. Isto pouparia centenas de milhões em desenvolvimento que permitiria depois à Sony um preço competitivo com perdas nas vendas. Com um Big Navi isso desapareceria.
a Lisa SU falou que o Cerny esta “a frente do seu tempo” ou algo assim, para mim deu a entender que o PS5 é pensando para não 2020, mas sim 2022~25 e então eu suponho que eles vão ter alguma coisa que a AMD pretende ter mais no futuro nas suas placas de vídeo.
Viram a entrevista do Jim falando que “a maior diferença do PS5 para outros consoles não foi anunciada” ? bom, se for dual gpu, vai ser o primeiro console dual gpu da história mesmo UHUHAUHA
Sim… Para outras consolas… Playstation
Pra mim os 9,2tf desse rumor já são mais que suficientes
Tenho meu PS4 Fat desde 2014, não aderi as atualizações e passar dele com seus 1,8tf pra uma máquina no mínimo 5x mais poderosa, com full retrocompatibilidade (segundo estes mesmo rumores sobre os modos de funcionamento do gpu), e com os Sony Worldwide Studios a finco produzindo conteúdo pra nova plataforma, com o fortalecimento do PSNow pra brigar com o serviço do concorrente. O que mais pode se pedir? Preço baixo kkk
Seria bem a cara da Sony se fosse verdade!Já que colocou um chip auxiliar no PS4 para o Play Go….Eu acredito mais em um HW adicional para o Ray tracing…e se fosse de uns 4TF fechava a lacuna de performance junto com a GPU 9,2TF com uma performance máxima de 13TF que já foi rumorado para o PS5.
Uma coisa é certa! Além daquela GPU de 9.2tf tem mais alguma coisa! E pode muito bem ser a parte do Raytracing que está faltando…e tem mais a questão do som 3D que parece que pode ser feito via Raytracing como Marck Cerny tinha dado pistas…acho que todo o resto está nesse HW auxiliar ou segunda GPU, aliviando a GPU de 9.2TF.
Podem falar que estamos dando uma de Mister X media,mas o HW auxiliar parece a cara do Marck Cerny,e o HW RT do PS5 ainda é um grande misterio em somente 9,2TF de GPU.
O sr mario se estes trabalhos e artigos todos os pusesse num canal de YouTube ia ter mais sucesso e ia ser recompensado financeiramente, eu algumas vezes discordo de si mas louvo sempre o trabalho.
Mas claro iria ter muito mais trabalho que secalhar nao é o que o motiva.
Eu adoro esta fase de início de geração só nao estou a gostar das apresentações as pinguinhas, ainda me lembro daquela famosa e3 2005 da sony , houve la muita controvérsia mas verdade seja dita grande apresentação eu gostei muito.
Quanto as consolas vamos ver mas os rumores mais recorrentes sao 9.2 e 12.2, e nesta altura as specs ja estao fechadas julgo, pode haver uns tweaks mas o silício ja esta fechado certo?
Antes do mais, obrigado, Rui.
E digo desde já que discordar é sádio. É no debate de ideias que se aprende alguma coisa
Quanto ao Youtube… É impossível. Aliás mesmo no refime atual a coisa é complicada e a maior parte dos artigos são escritos de fiada e entram sem sequer uma revisão.
Mas uma coisa é teres uma hora livre, e escrever. Basta um computador!
Um video de youtube não. Não o podia fazer no trabalho, nas horas livres, e pior… tinha de renderizar tudo no fim.
Eventualmemte poderia ser financeiramente compensador, algo que aqui não existe. Mas a minha recompensa é a cossa satisfação.
Não me agradaria é que alguem com mais tempo, pegasse nos meus artigos e pesquisas e os pusesse no youtube, sem falar comigo primeiro e sem citar a pcmanias como fonte.
Mas de resto, a vossa satisfação é o que me motiva.
Será que a alteração no Oberon, poderá ser um aumento de CUs?
De forma a aproximar se da performance teórica da Xbox one series x?
Havendo um aumento de 36 para 42, 44 ou mesmo 46?
Aliás, há alguma gráfica que esteja entre as casa dos 40 e tais CUs?
E chegaria a quantos tflops?
Tudo é possível. Mas as revisões com alterações profundas ao hardware são raras. Por norma faz-se outro chip.
Mas é possível.
Ps: No seguimento do que se fala, há quem ponha a hipotese de o ASIC ser um cell. Perfeitamente apto para correr a solução da empresa israelita, atualmente barato, e que ajudaria na retro compatibilidade PS3.
Eita será que reviveriam o Cell? Digo aquilo era um monstro em 2005 mas hoje em dia 250gflops são para smartphones de entrada certo..
Estás a pensar em temos de GPUs. Sinceramente, a nível de CPUs não sei qual a potencia deles, mas o Jaguar por exemplo, não tem isso.
E um cell a 7nm seria ridiculamente pequeno, barato, e com consumos ultra leves.
Mas By-Mission… isto são especulações de gajos que estão a teorizar. Eu só refiro as coisas porque a teoria é engraçada, fundamentada, e não me soa a estapafurdia.
Sim eu entendo, mas digo o Cell teria como fazer Rtracing, digo, teoricamente é uma CPU complicada e bem antiga, será que bastaria para o Rtracing…? Só teorizando mesmo.
Em 2007, Ray Tracing pelo Cell – 14 SPUs
https://m.youtube.com/watch?v=zKqZKXwop5E
Uma altura em que se o usava muito mal, e o de as técnicas de RT em tempo real eram imaturas.
Agora o cell estava a 90 nm… 220 mm2. Em 7nm a versão de 8 SPUs poderia ter qq coisa como 15 mm2 ou menos e velocidades muito superiores, e numa versão maior conter mais núcleos.
O que ali está é 1080p 60 fps, usando metodologias de 2007.
Ainda hoje nenhum cpu faz ray tracing em tempo real, mas o software israelita, está de tal forma optimizado que se propoem fazer isso, mesmo em smartphones entrada de gama.
Cito (isto é de 2019).
“Even desktop chips nowadays, the fastest Intel stuff you can buy, is not by far as powerful as the Cell CPU…”
Sr Mário, faço coro juntos ao que elogiam o teu trabalho.
Questiono: no caso deste dual gpu não seria necessário algo igualmente genial a nível de memoria, comunicação e gerenciamento de acesso?
No caso da PS3, cada consola basicamente possui um angulo de câmara diferente. Mas todas estão a correr o mesmo jogo, recebendo dados posicionais pelo cabo de rede.
Basicamente a magia é simples.
Mas com dois GPUs poderia ainda ser mais simples. Os dados que estão na ram podem ser lidos pelos dois GPUs, cada qual processando metade da imagem como se dois angulos de câmara fossem.
Parece-me que isso poderia não ser um problema.
Diga-se aliás que este método parece bem mais simplista que o dividir as linhas pares e impares. Aqui basicamente o corre corre e cada gpu calcula, de forma independente e com dados de mundo partilhados, a sua metade da imagem.
A coordenação de fotogramas é que teria depois de existir.
Grato pela resposta.
Achei que seria complicado e gastaria muita memória e processamento, pois vi demostração de RT de Star War a 24 fps (nvidia).
Essa demo corria por software, acelerado pelo GPU, numa placa sem aceleração RT e demostra como RT pode ser pesado.
Basicamente a magia da solução israelita é essa. Nunca conseguirias colocar o código da Nvidia a correr num smartphone. Mas esta empresa propõem uma solução que faz isso, mesmo nos smartphones de entrada de gama.
Claro que teremos de ser realistas, e acreditar que quando mais fraco o hardware, mais limitado ele será no que pode fazer. Daí que o rumor seja imteressante ao referir um chip potente e capaz, dedicado a este RT. Basicamente não estarias limitado no que poderias fazer, e poderias ter efeitos de topo com performances iguais ou superiores às da Nvidia.
Mas aí depende de outras coisas. Apesar de no leak do github, os documentos AMD não mostrarem aceleração RT no Oberon, há uma referência que diz que naquela altura o RT da Sony estaria entre uma RTX 2060 e uma RTX 2070.
Mário gostaria da sua opinião pra algo, diversas fontes já confirmaram os 12tflops rdna do Xbox series x, as fontes do Windows central e jez corden falaram que é 12 rdna, o Richard do digital foundry também disse que é 12 rdna, o canal de xbox dealer gamer que já vazou diversas vezes coisas sobre xbox inclusive vazou o lockhart dizendo que estava vivo quando as pessoas diziam que a Microsoft cancelaram, então pelo menos em gpu esses consoles não vão decepcionar, porque 12 rdna é quase 16 gcn. Mas o cpu que parece decepcionante pra mim, a Microsoft disse que nessa geração ia focar muito no cpu porque queria mais frame rate, só que ela diz que o cpu do xbox series x é 4x mais rápido do que o cpu do xbox one (Não sei se a comparação é com o S Ou o X já que o cpu do x é 30% mais rapido) o Xbox one tinha cpu tão fraco até mesmo em 2013, você não acha um aumento de 4x muito pequeno? Eu achava que o aumento seria de umas 10x já que o jaguar em 2013 era muito fraco já e eles estão utilizando zen 2
Tens noção que o CPU das novas consolas equipara-se ao Core i7 e chega a estar ao mesmo nível do Core i9 da Intel?
Os CPUs de 2013 já eram “fracos” na altura.
Estes estão ao nível do melhor que hoje se faz.
Nenhuma fonte confirmou 12 Tflops na xbox.
Há muita gente que diz que é, mas não é ligada à Microsoft, pelo que o que eles dizem vale o que vale.
Isso é o que eles acham que pode ser (eu tambem acredito nisso), mas não é certeza.
Quanto ao CPU, o Zen 2 é tecnologia de ponta. Não há melhor do que isso.
Poderás não ter o mais potente dos Zen, mas o que terás, dificilmente poderias ter melhor.
Mas Mário, você tambem não esperava mais do que 4x de salto geracional no cpu?
Não… porque uma coisa é dizer-se que o jaguar era fraco face aos PCs da altura, outra é que o jaguar era fraco.
O Jaguar não era nenhuma bosta. Vê os resultados conseguidos. E quando se diz que ele era fraco, era dentro de dois contextos.
1- face aos PCs da altura.
2- Face aos CPUs da geração anterior.
Mas se fores a ver, o Cell ainda é um bicho, e nem um CPU topo de gama o pode igualar em certos cálculos, uma vez que o seu funcionamento SIMD se assemelha a um GPU.
8 núcleos Zen2 é cerca de 4x mais rápido do que 8 núcleos Jaguar. Basicamemte tens um ganho de 2x só no IPC, e se correrem a 3.2 Ghz mais 2x na velocidade de relógio. Mas em processamento AVX, como ISPC e Unity. Urst, por exemplo, algo muito usado em jogos, ele é até 8x mais rápido pois o jaguar tinha um rácio neste tipo de processamento de 0,5 e o Zen 2 tem um de 2.
Não, não esperava mais. Porque não há muito mais. E fiquei admirado até por os CPUs serem sem 2 pois inicialmente esperava Zen +.
Uma questão que eu tenho…
O Ray tracing consume muito gpu?
É que a ser verdade, a Xbox séries x é mais versátil e não obriga a utilização de ray tracing, dando os 12 tflops para o que os estúdios pretenderem…
Sendo esta solução que estamos a pressupor que possa ser uma solução da Sony para a ps5, parece ser mais complexa e talvez mais fraca, falando se a nível de smarthphones.
Enquanto no lado da Xbox tem mais performance e mais livre árbitro para onde usar os recursos
Não sabemos nada sobre as soluções de ambos os lados. O que sabemos é que a Microsoft há partida deve optar por uma solução que seja possível de ser utilizada na consola e PC. Mas mesmo isso não podemos ter a certeza.
A Solução da AMD é uma aceleração por hardware do RT baseada nos TMUs, ou processadores de texturas, mas sabemos pelo seu roadmap, que esta solução, apesar de altamente versátil, deve ser limitada (o Roadmap fala que a aceleração alcancará apenas efeitos selecionados (selected lighting effects for real time gaming). O RT completo é previsto apenas no futuro, e baseado na Cloud.
Ora o que aqui se fala é de uma solução software completa. Ou seja, sem limitações que não sejam a capacidade de processamento do harware em que corre. É aí que o rumor está bem feito ao prever um chip dedicado que torna a solução software em algo acelerado por hardware. E sendo um chip dedicado. Ele será dimensionado de forma a poder oferecer a totalidade dos efeitos.
Ora a largura de banda é por norma um problema, pelos elevados consumos que se sabe que ela tem. Mas esta solução que está no rumor é criada tendo em mente smartphones entrada de gama… com memórias muitas vezes baseadas na DDR3. Logo, e apesar que esses aparelhos provavelmente podem ficar um pouco limitados, vemos que ela está muito optimizada para não consumir largura de banda (por isso é que ela foi notícia, e por isso é que a foram apresentar na CES).
Pá, o rumor está bem feito, e esta solução a existir pode perfeitamente ser superior à da Microsoft.
Mas certezas, não tenho. Não só não posso avaliar a veracidade disto, como desconheço o que a Microsoft fez. Mas o rumor actualmente, e esse mesmo vindo de pessoas de fora do circulo que discute esta teoria. É que o RT e SSD da Sony são superiores.
Mas sim, o RT da AMD vai consumir muitos flops do GPU para ser calculado.
Obrigado pela explicação, Mário! 🙂
Continuando um pouco a dúvida do Alexandre… tendo uma solução que não necessita de hardware especializado para o RT, não seria contraproducente usar uma solução com hardware destinado unicamente ao RT? Uma solução com duas GPU poderia ser suficiente para o RT mais a vantagem de que o processamento extra poderia ser usado para jogos não RT. Outra coisa que a Sony ganharia em ter duas GPU é para o VR, cada GPU iria renderizar uma câmara diferente para cada olho e a Sony já confirmou que iria continuar a apostar no VR. Parece-me a solução da segunda teoria mais lógica.
O ASIC não seria mais do que um co-processador. Basicamente a solução continuaria a ser por software, só que é executada num chip desenhado e especializado para esse cálculo.
Mas ao ser implementada ao nível do hardware, basicamente os comandos passariam a estar integrados no API, e quando chamados, eles seriam redireccionados para o ASIC.
Ou seja, não é por aí!
Vamos esperar….
Uma das principais apostas da Sony é o SSD e isso todo mundo já sabe….e até rumores que ele pode ser mais rápido do que a solução da MS já sairam.
Agora uma fonte diz como certo que o SSD da Sony é pelo menos o dobro mais veloz do que no Xbox Série X.
Claro que até o lançamento pode mudar se houver alguma atualização por parte da MS….mas parece que muito do software da Sony e conceito do console está sendo preparado em cima disso.
É engraçado como muda de geração para geração. Nesse momento o Playstation 5 está quase entrando no nivel misterxmedia de especulações. Ja estamos no duplo GPU. Em alguns meses, pós revelação e confirmação de superiodade de hardware do XSX, podem surgir o hardware secreto que só será acessado por APIs que ainda estão em desenvolvimento…
Provavelmente mais um rumor vindo de fans. A proposito, o Kleegamefan se baniu do ResetEra, bem próximo dos últimos vazamentos e saiu falando frases de efeito vagas e com um total de 0 informações reveladas de verdade em todo esse tempo. No Beyond3D o Klee é fortemente questionado agora, e considerado um troll.
Não está acontecendo o duplo GPU, a Sony quer transição rápida dos seus usuários, você consegue isso com um produto acessível, e o produto acessível não está no console com duplo GPU.
Eh… Calma lá… Uma coisa são especulações vindas da boca de milhões de pessoas que andam em fóruns. Outra são informações dadas como certas vindas de uma só pessoa.
Aqui há pura especulação. Nada configura a verdade. O MisterXmedia postava fotos inventadas e tentava comprovar o que dizia.
E quanto ao XsX que confirmação tens? O que tu sabes que mais ninguém sabe?
A única coisa MisterXmedia que eu conheço e que não é boato, é real, é relacionado ao Xbox One
Não vamos misturar joio com trigo antes da hora
Eu não acredito muito nesses rumores, só acho interessante, e me agrada mesmo quando é positivo do lado do Xbox (detono só o que já é fracasso real por conta da incompetência e até caráter duvidoso), mas fanático detona a marca rival a ponto de dar como certo rumores favoráveis, mas os que não são, coloca como trolls
Agora imagine o PS5 a menos 3 Tflops e ainda continuar na liderança?! Tem que já planejando o controle de dano…
Há uma coisa que a malta não percebe….
Houve uma altura em que eu e o Mário falamos sobre isto.
O suporte e o conteúdo é que vendem consolas!
Esta geração é que foi muita ingrata para a Xbox, não só a consola tinha menos performance, era mais cara como também tinha menos suporte. Com estes dados é normal a distância da ps4 para a Xbox one! E também os jogos third party correm melhor na ps4…
Agora imaginando outro cenário…
Se a Xbox one, tivesse saído ao mesmo preço que a ps4 e o suporte equiparável, ambas estariam muito próximas nas vendas.
Nesta próxima geração, não vai haver uma diferença tão grande em vendas, ambas vão ter bastante conteúdo é uma boa plataforma!
AlexandreR
Kinect. Esse é o assassino do One pra mim.
Teoria:
Minha teoria leva a crer que sem ele (Kinect), a MS teria um console competitivo, com potência similar a Sony e sem o complexo de inferioridade (essa parte eu imagino ser meio lógica) que a empresa tenha tido essa pressão, além dos jogadores Xbox terem a pior versão dos jogos, daí tiveram a idéia de fazer um super console, a Sony ao saber disso, se apessou a criar o seu também, as soluções foram diferentes e o tempo também, o resultado é esse que vimos.
“Não podemos competir com a tradição japonesa em jogos, então vamos dar potência…”
Sem a pressão do hardware, talvez o foco pudesse ser mais em conteúdo e extrair tudo que a máquina podia dar.
Suporte, conteúdo e nada de aberrações “Pro”.
Isso é o que imagino, não afirmo nada disso.
Espero que sua última frase se concretize, mas não porque as pessoas querem jogos de graça num serviço, mas por conta da produção de grandes jogos dos dois lados.
Não acredito em duplo GPU e acho inviavel….mas Fernando vc tem que reconhecer que a parte de RT do PS5 poder ter um Hardware adicional e totalmente separado da GPU.
Se queres uma opinião… apesar de ambas as ideologias de dois chips estarem bem fundamentadas, não creio que o duplo GPU venha a existir. A alguma ser verdade, e ambas podem ser mentira, acredito mais na do ASIC.
Eu também acredito mais no ASIC.
Duplo gpu ia ser mais dispendioso
PS5 não saiu e não tem nenhuma informação concreta:
– se eu quiser especular que tem QUATRO GPUs EMPILHADAS dando um total de 36 TF, eu posso.
outra coisa é o console sair, eu ver um capacitor e falar que ali está uma GPU oculta, que a Sony vai ligar o PS5 na internet e TRIPLICAR o poder dele.
Poder especular podes… Mas tens de ter uma base onde te apoiares para seres credível.
http://www.pcmanias.com/xbox-one-possui-caracteristicas-de-dual-gpu/
Você mesmo disse que a Dual GPU do Xbox one não fazia diferença no final, e porque no ps5 iria mudar algo?
Lê o título correctamente… a Xbox nunca teve dual GPU… tinha era um processador de comandos no GPU com características que se se assemelham ao que verias num sistema com duplo GPU!
Este Rumor, que não se sabe se tem qualquer fundamento, e provavelmente até não, colocaria um segundo GPU efectivo na PS5.
Vega VII tem desempenho 8K
https://youtu.be/undhUsW9WQg
Podemos deduzir que RX5700XT em uma configuração 16GB deve se aproximar da Vega VII e uma APU de 56 CU deve está além disso a menos que reduza muito o clock. Ambos os consoles possivelmente terão desempenho intermediário 8K com opções nativas. Quem não rodará 8K serão os cinematicos ou competitivos online.