Após a polémica com as frases do Chefe de gestão de produtos da AMD, eis que a AMD, na sua apresentação realizada ontem, perante o mundo inteiro, mais uma vez deu fortes pistas que as consolas de nova geração serão todas RDNA 2.
A apresentação de ontem da AMD foi um verdadeiro show off tecnológico da empresa.
No entanto, na parte que todos ansiavam, as consolas, pouco ou nada se soube. Os rumores de Phil Spencer subir ao palco e anunciar uma exclusividade de hardware não se concretizaram, assim como não se viu Forza 5 a fazer de demo tecnológica para o hardware da AMD. Da mesma forma, o rumor de que a Sony iria mostrar um pouco de Horizon Zero Dawn não se concretizou.
Note-se que isto foram situações faladas um pouco por todos os sítios, mas que nunca anunciamos aqui uma vez que nos pareciam pouco coerentes para aquilo que era a apresentação de ontem. Uma apresentação da AMD (e não da Sony ou da Microsoft), e num contexto de dar a conhecer aos seus financiadores as tecnologias da empresa (e não ser vir de show off dos jogos de terceiros).
Mas apesar de tal, a apresentação era esperada com ansiedade, uma vez que ali poderia ser revelado algo sobre as consolas, especialmente sobre a PS5, dada a falta de informação sobre a mesma.
E realmente soube-se. É de notar que a AMD foi extremamente cuidadosa em não abordar nada que não fosse já público sobre as consolas. Mas no entanto não pôde deixar de abordar as suas tecnologias e o seu alcançe, e nesse aspecto tocou no suporte RDNA 2 pelas consolas.
Vamos ver então o revelado.
A AMD começou por abordar os seus parceiros e as suas tecnologias para os diversos sectores do mercado. Nesse sentido o PC e o Gaming foram uma das secções abordadas, divididas nas secções abaixo indicadas.
Aqui o nosso interesse salta a secção GAME CONSOLES, onde nada do que ali está indicado é novidade. Tanto Sony como Microsoft usarão soluções AMD nas suas futuras consolas.
Note-se porém que a secção se refere a Game Consoles, nomeadamente à Xbox séries X, e à PS5, explicitamente indicadas.
Mais tarde, e já fora deste contexto das consolas, a AMD aborda o RDNA 2, dando a conhecer que o Ray Tracing (RT)m e o Variable Shader Rating (VRS), serão uma característica standard nos GPUs com essa arquitectura.
O VRS é uma tecnologia que permite poupar muito processamento (nos casos extremos entre 30 a 50%) ao actualizar apenas os shaders nas partes relevantes do ecrã, e uma tecnologia que até ao momento não era suportada pela AMD.
É dado a conhecer que, tal como o RDNA 1 teve um ganho de performance por watt de energia consumido, de 50%, o RDNA 2 faz o mesmo face ao RDNA original.
Este é um dado super relevante, e que mostra como o RDNA 2 é relevante para o uso em consolas devido aos seus baixos consumos. Note-se que nesta fase ainda era uma incógnita se a PS5 o usaria ou não.
A situação melhora igualmente a nível do IPC (instruções por ciclo de relógio). A RDNA 2 melhora o IPC face à RDNA original. Na altura pareceu-me ter ouvido referir um valor de 15% no ganho de IPC, mas vendo o video de novo (em procura rápida), não estou a encontrar esse dado, pelo que admito que o asiático com o seu Inglês comido me possa ter enganado na altura.
Seja como for, o ganho de IPC é uma realidade, e isso é deixado claro no slide que se segue:
Como se percebe, o RDNA 2 é um avanço enorme face ao RDNA original. Suporte Ray Tracing, 50% de ganho na performance por watt, e aumento de IPC. Se uma das consolas não estivesse com esta arquitectura, ela à partida estaria com um handicap tremendo.
Mas eis que a AMD aborda a questão do Ray Tracing. Colocando este slide:
Aqui vemos algum texto que soa desde logo a esclarecedor. A frase “Arquitectura comum para os PCs e as Consolas.”
Dado que a AMD anteriormente, ao referir-se a consolas, incluiu na lista a Xbox série X e a PS5, é mais do que lógico assumir-se que é disso mesmo que ela fala. Que tanto a Xbox série X como a PS5 usam RDNA 2.
Esta questão parece ficar ainda mais clara, ao se ouvir as frases ditas por David Wang enquanto apresentava estes slides:
Desenvolvemos uma solução nova de ray tracing acelerado por hardware como parte do RDNA 2. É uma arquitectura comum usada na próxima geração de consolas. Com, isso, iremos simplificar o desenvolvimento de conteúdo que os criadores podes criar com uma plataforma, e passa-lo para outra.
O uso da palavra arquitectura comum parece apontar para um suporte genérico. Algo que, face às características do RDNA 2 aparenta ser lógico. Sendo aliás que o RT só é suportado pelo RDNA 2, tendo a PS5 já confirmado que o terá.
Poderíamos ainda ficar na dúvida sobre se a solução da Sony não usará uma solução que não a da AMD, contornado assim a questão, mas aí entram em jogo as palavras de Mithun Chandrasekhar, o Chefe de Gestão de produtos da AMD, que afirmou que ambas as consolas usarão o Ray Tracing por hardware, nativamente!
O segundo ponto é este: E vocês já estão familiarizados com isto, é na realidade informação já pública, tanto a Xbox de nova geração como a Playstation de nova geração, ambas serão alimentadas por uma Radeon, e ambas irão suportar ray Tracing por Hardware. Nativamente!
Nesse sentido, temos agora indícios extremamente fortes de que a PS5 usará igualmente o RDNA 2.
[OFF – relacionado] Se a MS não divulga o número de vendas a AMD faz o serviço, segundo a AMD foram vendidos um pouco mais de 150 milhões de consoles (PS4+Xbox One).
Se a Sony diz que vendeu algo em torno de 108 milhões só resta a crer que a o Xbox One vendeu algo em torno de 42 milhões, validando aquela taxa de quase 3 : 1 em vendas do PS4
Em uma análise sem chapéu azul ou verde, a verdade é que o mercado de Playstation e Xbox encolheu perante a geração anterior. Eles não estão nem empatando com Xbox 360 e PS3 somados. Fácil entender por que de tantos rumores sobre a SOny também começar a lançar jogos no PC. O mercado dos consoles mais hardcore está em declínio.
Em outra análise, é discutível o sucesso do Nintendo Switch também uma vez que ele pode estar mascarando que o sucesso se deve ao fato das características portáteis e não da capacidade como um console de mesa. Talvez o switch esteja mascarando que um mercado de quase 200 milhões de consoles somados entre Wii e DS/3DS, hoje é algo com potencial de cerca de 50 milhões.
Jogos Xbox Series X correrão no Xbox One e One X, portanto, supondo que exista uma nova plataforma de 4TF que visa substituir a gama de desempenho do One X com menos custo de produção, um jogo de nova geração das plataformas da Microsoft deve custar o mesmo de um jogo One X. Então o Series X deve ter pelo menos 2 modos de jogo:
– Modo 120Hz enhanced dobrando desempenho One X e Lockhart.
– Modo Next Graphic com Ray Shader.
Supondo que Hellblade 2 seja uma tech demo Next Graphic o fato dele rodar a 3840×1608 24qpi salienta uma maior intensidade Rayshader, todavia o game em si deve rodar da mesma maneira tanto no One X como Lockhart, tendo um setup mais exigente que a média de jogos One X. Algo que equivale a outros demos Unreal Engine como Samaritan e Infiltration que roda mais ou menos nessa gama de recursos nos PCs. Isso significa que os 8 TF são divididos entre RayShader, filtragem inteligente e recursos do sistema. O VRS então aparece como um componente chave para diminuir a intensidade da acuidade dos shaders permitindo um desempenho raio superior, ou seja, quanto mais otimizado for um game, mais distante será do One X e por isso dentro de anos o suposto hardware de 4TF que também deve ser RDNA2 mas não rodará RayShaders deve assumir a ponta do desempenho mais básico.
Nesse ponto a Sony construiu uma plataforma intermediária para levar poder e preço originalmente 8,4TF com os benefícios RDNA2, ou seja, jogos nível PS4pro a 120Hz que são mais leves que jogos One X a não necessitando de 12TF como tal. Enquanto Sony pode elevar qualquer jogo PS4pro a pelo menos 60fps ou em resolução pois o game toma benefícios de self math com FP16, a Microsoft precisa de um modo de compatibilidade e por isso tanto Lockhart quanto Series X estão presos a necessidade de otimização dedicada dos desenvolvedores, enquanto o PS5 rodará todo game de PS4pro com Boost mode desde o primeiro dia.
No caso do Ray-Tracing Sony eles usam os motores de interseção RDNA2 mas o BVH data é proprietário, ou seja, customização a nível de software onde a Sony usa um Datapath com logaritmos mais enxutos que os propostos pela AMD no FatBVH ou a Microsoft no DXR. Então vamos dizer que o Logaritmo da Sony permita mais raios, não porque faz mais raios mas porque diminui o número de testes por colisão, isso significa melhor IPC, significa menos flops por operação.
É por isso que os flops não significa essencialmente o valor de desempenho final da plataforma. Pode ser que devido a ênfase Ray-Tracing o Series X precise correr jogos mais lentamente que uma plataforma de menos Flops que está fazendo de forma mais especializada. Não sabemos o quanto desses flops estão ocupados com serviços de segundo nível, como IA, Rede, Drivers de acessorios, segurança, recursos especiais. Só podemos deduzir que a Microsoft dobrou sua banheira e a Sony também deve ter feito isso.
Em termos de preço uma plataforma menos capaz garante melhor preço, e o preço é algo essencial. Nos estamos no meio de um crash econômico, as empresas estão vendo sua produção estacionada, estão vendo clientes se preocupando em guardar dinheiro ao invés de gastar, como bom vendedor, você não precisa da oferta que é mais capaz mas sim aquela que seja essencial.
A briga não está no 9 vs 12 ao meu ver mas no 4 vs 8, o 9 vs 12 é uma briga especulativa, se o cenário mundial melhorar as pessoas gastarão mais dinheiro e por isso plataformas de maior poder terão mais chance de se estabilizar. Sony vai brigar por preço e não por poder mas não parece isso né? É claro. Levar seu rival ao poder distância ele do preço.
Mark Cerny não é engenheiro de hardware e sim software, a Sony tem excelentes equipes especializada em software de baixo nivel mas quem faz o design dos chips é a AMD. A Microsoft por outro lado tem equipes que desenham parte de seu chip e nesse ponto quem tem o chip custom é a Microsoft. Esse chip monstro gigantesco só pode vim da Microsoft, não é a filosofia de Cerny que preferiu resolver os gargalos do PS4 e PS4pro com software. Isso não significa que a Sony não vai fazer o melhor hardware mas devemos entender que o chip do Xbox One já era maior que do PS4 com diversas soluções anti gargalo que o PS4 não tinha mas a equipe antiga acreditou que manter o design baseado em memória embalada lhe daria vantagem em desempenho sustentável, a Sony recebeu o feedback dos desenvolvedores e todos queriam pool único de memória mesmo que ela não fosse tão rapida então a Sony pode usar uma GPU maior. Enquanto a Sony dobra isso no PS4pro a Microsoft precisa redesenhar a arquitetura toda no Xbox One X e ainda se manter compatível, então novamente a Microsoft vem com um chip maior e mais customizado. A solução da Sony no Ray-Tracing é provavelmente superior a da Nvidia em termos de software, pois a solução da Nvidia é um Fork da solução Microsoft no DXR, então não se supreenda se os 8,4TF ou talvez 9TF do PS5 seja superior em eficiência que os de Ampere, pois Ampere pelo menos na linha de consumo é Turing 7nm se aproveitando da melhor perfomance do processo. Enquanto os consoles já são N7P nm.
O facto de Mark Cerny ser um engenheiro de software é, a meu ver, a sua maior valia. O hardware não é mais do que uma forma de se correr software. Criar hardware adequado para tarefas de software pesadas é o que leva à inovação no hardware.
Cerny é engenheiro de software e programador de videojogos. Daí que as consolas são pensadas no que ele vê como adequado para essa função.
Isso não o torna infalível. Não faz com que seja melhor que outros. Mas torna-lo no homem certo no lugar certo.
Ora dá-me uma solução anti gargalo da One que a PS4 não tem.
Porque eu o contrário cito várias de cabeça. Mas curiosamente da One não face à PS4 não vejo nenhuma.
Todo o MMU do XO foi customizado pela Microsoft com Som, DMAs e Decodes proprietários.
Foi colocado poços de SRAM para diminuir a latência de leitura entre os núcleos de cada CPU complex ( originalmente Kaveri foi construído apenas pra Quadcore). Com todos os clientes conectados a eSRAM e esta sendo uma memória do tipo estática, ou seja, não precisa de escrita continua para leitura isso foi ótimo para conservar unidades de framebuffer e Resources. Porém o tamanho acabou pequeno para manter um Target 1080p, o cenário ideal do Xbox foi o DSR, permitindo que mais geometria obtenha entrada. Porém isso também torna as coisas mais difíceis e o PS4 não apenas representou uma GPU maior mas menos dificuldade.
O PS4 tem muita latência para acesso a CPU 220 ciclos isso dar ao PS4 a característica de um quadcore, é como se fosse os Pentium Dual Core onde era necessario consultar um schedule virtual para operar programas multicore o resultado é que programas real time rodam em 4 núcleos e os demais é para subprocessos.
Isso impediu que a Naughty Dogs alcança-se 60fps no Uncharted 4, a verdade é que os Kits iniciais rodava em um Buldoze quadcore 3.2GHz, e foi ele que rodou o demo da E3, mas no console 8 nucleos 1,6GHz representa menos de metade do desempenho. Mas por quê 8 núcleos? A alta taxa de compartilhamento de 176GB/s permitiria um maior número de entradas não porta o qual lento a CPU fosse, isso permitiu mais poder GPGPU no lado do PS4 fazendo a Sony ganhar uma vantagem essencial na disponibilidade de endereços.
Junte isso a um bom conjunto de ferramentas e suporte e a Sony teve muita vantagem e a Microsoft teve que correr atrás do prejuízo. Hoje as coisas são muito diferentes, na verdade, parte das ferramentas de desenvolvimento do PS5 vem da Microsoft pois a mesma se juntou a AMD para definirem o futuro dos gráficos. A Sony não precisa mais se preocupar tanto com Hardware, a AMD é seu fornecedor, a AMD semi personaliza, hoje eles tem o Infinite Fabric estabelecido em Zen que permite um design industrial modular para os chips. Então o cliente AMD faz escolhas específicas e a AMD rapidamente adapta.
É isso que estamos vendo hoje, Sony migrou rapidamente de RDNA 1 para RDNA 2 assim que percebeu que teria de entrar na corrida Ray-Tracing. Veja que, a razão motivacional disso não foi o que a Microsoft estava fazendo mas sim o qual grande foi o fracasso da Nvidia em vender GPUs de varejo cara tendo que logo em seguida derrubar os preços. Com RTX de preços mais bandos isso incomoda o cenário console e também incomoda a AMD, por isso os consoles são a ponta desse tipo de tecnologia. A AMD está usando seus clientes consoles para minar mercados da Nvidia em setores que eles não vão bem a anos. É por isso que a AMD faz questão de anunciar quantos chips estão vendendo para consoles, faz questão de trazer estes 2 clientes para perto, principalmente a Microsoft. Esses caras são Clientes nuvem agora e tem o Google, em breve HPC. Existe uma certa aliança entre as marcas, você não deve ver Sony vs MS mas sim como se ambas fossem como Sapphire e Powercolor. A AMD não deseja a canibalização dos mercados desses clientes mas que cada um se coloque em setores distintos aumentando as vendas e número de pedidos. Por isso Series X é feito muito mais com foco no maior mercado de jogos do mundo, os EUA, onde o poder de compra do jogador é maior, enquanto o PS5 deve pensar na Europa que tem multiplos setores distintos, na Ásia e nas economias em ascensão.
Shin… eu não vou discutir nada disto contigo pois estamos a chover no molhado uma vez que as consolas já demonstraram o que valiam.
Seja como for deixa que diga:
A PS4 usa uma arquitectura heterogenea (HSA) que permite com o uso de hUMA evitar perdas de ciclos na cópia de dados da pool do CPU para a Pool do GPU, bem como a partilha de caches entre os dois.
Há igualmente um controlador de memória com uma cache L2 cujo acesso é de apenas 20 ciclos, face aos 200 de acesso à RAM principal.
Esta cache é essencial pois graças a ela, desde que optimizes o código para que ele caiba lá, consegues suprimir a latência da GDDR. Ou seja, dados críticos para a performance são acedidos por aqui, indo apenas à ram para situações onde a latência não seja relevante.
A Naughty Dog deu uma palestra sobre isso e explicou isso muito bem, sendo que a lição foi aprendida rapidamente no inicio da geração pois nunca o CPU da Ps4 se revelou diferente do da One ao longo da geração. Daí que não sei porque tocas no assunto.
Mas a Naughty Dog nunca falhou os 60 fps por causa do CPU. E muito menos pela sua latência. Eles falharam-nos porque o nível de fidelidade visual era bastante alto e como tal não era possível para todas as situações existentes no jogo, manter 60 fps constantes.
A Naughty Dog comentou várias vezes que os 60 fps eram possíveis, mas tal seria à custa da fidelidade visual, e como não pretendia compromissos na qualidade do jogo, abdicou deles.
Nunca a Naughty Dog, pelo menos que eu visse, referiu que teve problemas com a latência do CPU.
O Uncharted 4 é um marco de excelência visual. Poucos jogos alcançaram aquele patamar de qualidade gráfica, detalhe, interacção e fisica. Ele levou o GPU aos limites que a tecnologia em software na altura permitia. O CPU não é o culpado pelos fps.
Aliás há uma noção completamente errada que o CPU é responsável pelos fps. E não é, nem nunca foi,
O CPU é UM dos responsáveis pelos fps, mas não o único. O CPU tem de ter a capacidade de gerir toda a geometria e interação ao dobro da velocidade, sim. Mas o GPU tem de ser capaz de calcular o fotograma em metade do tempo.
Basta um deles falhar, que não podes ir mais longe.
Aqui o GPU não conseguia dobrar os fps dada a qualidade gráfica. Logo não sei como concluis ou sequer falas da latência do CPU para atribuir culpas a isso.
Depois acho piada à frase da união da AMD com a Microsoft. Algo que acontece desde sempre.
A Microsoft tem um API, o DirectX e define standards que os produtores de hardware usam. Não há exclusividades, nem uniões, é um API com standards devidamente definidos e abertos a todos.
A Microsoft não ajuda a AMD. Isso seria anti concorrêncial com a Nvidia, e com a Intel. A parceria que tu vês com a AMD a Microsof também as tem com outros fabricantes. Nem de outra forma poderia ser, pois caso contrário o seu API seria imediatamente recusado por terceiros por favorecer a AMD. E não só não vemos isso, como até vemos a Nvidia a implementar novas tecnologias do Directx antes da AMD, como foi o caso do VRS.
O que há, isso sim, e isso é inegável, é um maior diálogo do que no passado, e o hardware AMD agora está muito melhor optimizado no API da Microsoft do que antes. Aliás no caso do DXR 1.1, dado que a AMD foi a primeira a implementar um RT 100% genérico e embutido na pipeline do GPU, ambas as empresas colaboraram no API que será usado no Windows. Mas não mais do que isso.
Enfim… fico por aqui.
Espera um pouco, a Sony uma empresa conhecida por produzir aparelhos eletrônicos e de inovações na área (CD, DVD, Bluray – há uma ressalva para o Walkman) e que produziu seus chips até o PS3 não é capaz (é assim que transparece o comentário) de fazer um custom chip para o PS5 pq quem faz o design de chips é a AMD, mas a MS uma empresa raiz no ramo do software que nunca produziu seus chips para os consoles pode fazer um custom chip pq tem equipes que desenham parte do chip?????
Tá confuso isso!
Também fiquei todo trocado….
Sony Computer não existe mais agora temos Sony Enterprise, os últimos projetos interno deles foram o PSvita e o PSVR. A era Kutaragi onde a Sony estava envolvida em design de semicondutores acabou. Hoje sua divisão de semicondutores está focada em tecnologia de câmeras não tendo relação com tecnologia gaming.
Ela ainda atua no ramo de semicondutores, nada que impeça de criar custom chips
É pra não ter que criar custom chips que eles terceirizam para a AMD. A falha da Sony com Custo Chip começa com os problemas que passaram com o graphic synthesizer que foi seu último sistema gráfico custom. O EE não era tão custom assim usando um MIPS R5900 licenciado pela Toshiba, agora o GS deu tanta dores de cabeça pra eles, que eles preferiram renunciar isso e deixar a Nvidia a cargo fazendo o RSX. Então depois disso não temos mais uma Sony que deseja customizar chips apenas semi personalizar, e quanto menos intrusões na arquitetura da AMD menos custo. A APU permite que toda a tecnologia seja feita pela AMD então mais customização é ir na contramão de uma longa tendência.
Deixaram a Nvidia a cargo do RSX pq não dava tempo para eles criarem uma GPU, lembra que a intenção do CELL era fazer o trabalho da GPU? O PS3 iria sair sem GPU, mas com a dificil programação do CELL e com o lançamento do 360 a Sony não tinha tempo para desenvolver sua GPU, recorreu a um produto pronto.
Houve em tempor um rumor que a Sony, ao ser a actual lider mundial no segmento da imagem, e IA nesse mesmo segmento, poderia implementar uma tecnologia proprietária sua de reconstrução de imagem, incluida directamente no hardware.
Na altura o link fornecido era este:
https://www.ai.sony/
Em RDNA2 o Tensor está no Video Core Next 2.5 junto ao decodificador de video, tem uma patente da AMD que ilustra isso.
http://www.freepatentsonline.com/y2019/0028752.html
Então os dois consoles terão IA mas a Microsoft pode ter customizado o console para compatibilidade com DirectML.
Como falei antes é Microsoft que tem feito as customizações de hardware enquanto a Sony usa as tecnologias da AMD e prefere customizar via software. A Microsoft precisa de usar um hardware de som proprietário pra emular o hardware de som dos consoles anteriores.
https://vandal.elespanol.com/noticia/1350732452/ninja-theory-confirma-que-xbox-series-x-tendra-hardware-dedicado-a-la-aceleracion-de-audio/
A Sony usará o True Audio Next que é compatível com a versão do PS4.
Eu fiz uma resposta e eu não sei se colei ou não.
A primeira é que a Microsoft está customizando sua APU com um sistema de Som proprietário diferente da Sony que usará o True Audio Next.
https://vandal.elespanol.com/noticia/1350732452/ninja-theory-confirma-que-xbox-series-x-tendra-hardware-dedicado-a-la-aceleracion-de-audio/
E o segundo ponto é que RDNA2 traz o Video Core Next de Arcturus MI100 e nele o decode de vídeo 8K usa um motor de inferência semi programável, um Tensor Core. Ou seja, tanto Series X como PS5 terão IA pois é padrão AMD.
Não sabemos se a Microsoft vai editar também isso devido o DirectML mas sabemos que haverá superscala 8K pois mostraram isso.
De que vale os 120 Hz na Xbox sem VR. O mercado que suporta 4K 120 Hz é aprox 0%
Aposto que em 3 ou 4 anos haverá mais mercado para televisores 4K 120 Hz do que para o VR. Melhor já ter o hardware pronto para não precisar de uma versão melhorada no meio da geração para incorporar uma tecnologia que já está presente hoje. O VR, sinto que a qualquer momento a Microsoft por tornar o console compatível com o Windows Mixed Reality, mas não tem mercado que justifique.
Duvido.

Olha este gráfico:
O previsível é que dentro de 5 anos os 8K sejam ainda irrisórios, e os 4K vendam menos que as TVs HD e FHD. E nota que o gráfico está em dinheiro gerado, não em quantidades vendidas, e sendo os televisores mais baratos na base, percebes que quando melhor a Tv menos ela vende em quantidade.
Os 1080p vieram para ficar. São uma boa resolução, são TVs capazes e acima de tudo, muito acessíveis.
Agora pega nisso e soma aos televisores já existentes, e tenho dados para acreditar que o 1080p ainda tem muitas pernas para andar.
Neste sentido, se estes dados tem fundamento, tem muita lógica as consolas terem dois SKUs, um para 1080p e outro para 4K.
Não sei se vcs se atentaram a este pequeno detalhe da apresentação da AMD, mas ela usou uma imagem de Killzone Shadow Fall na apresentação, se não me engano Killzone SF já usava raytracing de forma superficial lá em 2013.
Mario me corrija se eu estiver errado
Killzone Shadofall usava 170 raios de Ray Tracing, geridos pelo CPU.
Era um Ray Tracing em pequena quantidade (amostras), que não dispensava a mistura com cubemaps, e localizado e dirigido a superficies com reflexos, mas mesmo assim, era efectivamente Ray Tracing.
Essa é uma ótima notícia, nos revela que a PS5 e o próximo Xbox vão trazer o que tem de melhor da arquitetura de GPU da AMD. Mas também nos revela que a diferença entre o Xbox Séries X e PS5 vai ser grande, pelo menos no lado da GPU. Aquelas notícias de que o PS5 poderia trazer uma solução externa para o Ray Tracing talvez agora não se confirmem. Considerando a hipótese que o chip Gonzalo e Oberon, são o mesmo, e se referem a PS5, até agora ficou definido assim:
Xbox Séries X: CPU 8 cores, 16 thread baseado em Zen2 com clock de até 3.5GHz, 24GB de memória GDDR6, 560GBs de largura, SSD 1TB, GPU AMD RDNA 2.0 com 56 unidades de computação, 3584 shaders, 224 TMUs, 96 ROPs, Clock 1700MHz.
Playstation 5: CPU 8 cores, 16 theads baseado em Zen 2 com clock de até 3.2GHz, 16GB de memória GDDR6, 448GBs de largura, SSD 1TB, GPU AMD RDNA 2.0 com 36 unidades de computação, 2304 shaders, 144 TMUs, 64 ROPs, clock 2000MHz.
Será que esse meu palpite vai se confirmar?
O Clock de 2000MHz é provávelmente Devkit
O mais provável é 1800MHz indo para 8,29TF
Ou a Sony ativando os 40CU 9,21TF.
Mas porque a Sony ativaria ? Esse é um procedimento para aumentar a disponibilidade de chips mas talvez os ganhos não seja bons assim. Na verdade, no caso da Microsoft os 56 CUs são ativados não por limitações do chip mas porque eles podem limitar o bus de 386bits para 320bits diminuindo o número de chips GDDR6. Como esse não seria o caso pra Sony pois usaria bus de 256 bits, então eles podem ativar 40CUs sim.
Se os dados forem esses mesmos, provavelmente o DevKit do PS5 deve ter os 40CUs ativados, como você falou, e o console de varejo deve vir com 36CUs. E acho que o clock deve ficar inalterado em 2GHz. No Xbox o DevKit deve vir com 60CUs, e o de varejo 56CUs ativados. O correspondente mais próximo da GPU do Xbox, deve ser a Radeon RX 5900 que tem previsão de ser lançada em 2020. A RX 5900 vem com 64CUs .
RDNA 2 a 2 GHz já não me choca. A térmica, dados os ganhos face ao RDNA, já seria explicável.
A grande questão é se vai usar o RDNA2 porque ficarem limitados aos 36cu? Em tese é o mesmo pacote disponível pro XSX, então porque não personalizar modos de compatibilidade com a anterior geração já que isso é tão importante
Esse é um dos motivos pelos quais eu não acredito em nada.
Mas há uma possível explicação (haverá outras, entres as quais estupidez da Sony), a da solução RT da Sony ser compatível AMD, inserida no GPU AMD, mas não ser a standard da AMD.
O fato de a GPU ter 36CUs, se realmente se confirmar, deve ser provavelmente por questões de custo e compatibilidade. A Sony quer manter o equilíbrio, oferecer um console potente, com hardware de última geração e ao mesmo tempo cobrar um preço razoável. Essa é a desvantagem do Xbox séries X, se o hardware for esse mesmo, o preço vai ser demasiado. Os vazamentos apontam que o PS5 vai oferecer sim compatibilidade, diretamente no hardware, com o PS4 Pro e o PS4.
Queres uma possível justificação para o Github.
O Github refere claramente que o que ali está são testes realizados relativos a retrocompatibilidade. Isso não é discutível!
Agora ele refere-se ao Oberon como sendo 36 CU a 2 GHz. Isso tambem não é discutível.
Os testes não referem a presença de RT ou VRS..
Eu já referi várias vezes que não podemos descartar a hipótese de estarmos perante uma descrição do chip usados nos modos de compatibilidade. 36 CU, o mesmo número de CUs da PS4 Pro.
Agora repara nesta possibilidade. Uma PS4 tem… 18 CU. 20 no total com 2 desactivados.
Uma Pro acrescenta mais 18 CU. Na realidade mais 20. A consola funciona com 36 e 4 desactivados.
Imagina agora uma PS5 com mais 20 CU, 2 desactivados. Nada mais do que um acréscimo ao conceito anterior.
Estavamos perante um total de 60 CU, com 6 desactivados. Dispostos em 3 Shader Engines, com 20 CU (18 activos) cada, num total de 54
Para compatibilidade PS4 desactivas dois SE. Para compatibilidade Pro, desactivas um SE. E nestes dois casos desactivas tambem o RT e o VRS.
Seria isto que verias no Github, nos testes de retrocompatibilade.
Para a PS5 usarias os 3 SE, com um total de 54 CU, RT e VRS activos.
Velocidade? Até 2 Ghz, mas não 2 Ghz. Isso seria o máximo teórico do chip.
Há várias possibilidades em aberto, e esta, por exemplo, enquadra-se perfeitamente no Github.
Agora a realidade é que, não tens dados para a tomar como verdadeira. Mas a realidade é que tambem não tens dados para a tomar como falsa.
Acreditar no Github é uma hipotese. São dados reais!
Mas o certo é que o Github falha claramente. A PS5 tem RT. É oficialmente dito pela Sony, e a AMD confirma-o como sendo uma implemtação nativa (ou seja, totalmente integrada no GPU). Daí que uma coisa é certa. O Github, ao não o referir ou indentificar como existente, não diz tudo! Está incompleto!
E se ele esconde essa realidade, e está incompleto, então pode esconder outras. E ignorar essa realidade não é algo que, de forma intelectualmente honesta, possa ser feito.
Uma das alternativas é acreditar que foram feitas alterações depois. E se aceitas isso, tens de deixar em aberto a possibilidade de que possam ter sido acrescentados mais CUs.
Outra é acreditar que o chip estava com coisas desligadas uma vez que os testes, tal como referido, eram de retrocompatibilidade.
Na verdade eu nunca acessei esse site Github, esses meus comentários se baseiam em alguns artigos do Richard Leadbetter da Eurogamer Digital Foundry. Ele mesmo admite que essas informações tem um alcance limitado.
https://www.eurogamer.net/articles/digitalfoundry-2019-is-amd-gonzalo-the-ps5-processor-in-theory
https://www.eurogamer.net/articles/digitalfoundry-2019-playstation-5-xbox-series-x-spec-leak-analysed
Também tem a GPU Database do site techpowerup. Eles mesmos admitem que são informações baseadas em especulações, e que podem ser mudadas, mas eles já alistaram essas informações baseadas em vazamentos no banco de dados de GPUs deles. Eles acreditam que são pelo menos até agora as informações mais fiáveis.
https://www.techpowerup.com/gpu-specs/playstation-5-gpu.c3480
E são… são as únicas até agora que podemos dizer terem fundamento.
Mas conforme se vai sabendo mais vamos percebendo que o que lá está é incompleto.
O que sabemos agora é que aquilo não revela a totalidade do que é, actualmente, o APU da PS5, e a partir daí, sabendo-se que houve alterações, tudo fica em aberto,
Mas os vazamentos falavam de RDNA1 sem Ray-Tracing, a AMD banca Rdna2 em ambos consoles e a limitação de 36cu cai, essas questão de custo é uma opinião pessoal sua, do que vc vê. Eu sinceramente acho que as pessoas dão demasiado valor ao vazamento mesmo quando este não tem qualquer confirmação, mesmo com a fabricante vindo a o contrapor, enfim, eu acredito que se for Rdna2 como a Amd da a entender, PS5 assim como XSX vai ter 56cu também, quanto aos TF só no anúncio mesmo. É o mais razoável a ser pensar
Sony só precisa de 8,4TF que gera perfomance 4x mais do PS4pro em termos de arquitetura RDNA. Permite fazer o nível do raster mais Ray-Tracing e oferece uma abordagem limpa para um upgrade em uma versão Pro.
Os rumores de 9, 10, 13, 14TF porque teria que fazer hardware premium pra isso.
Na geração Pro você pode ver algo entre 16 à 20TF, mas a Sony não vai fazer isso agora pois é caro. Console Pro deve ter não apenas a duplicação de poder da GPU mas também a duplicação da velocidade do SSD. É aí que entra a segunda geração PSVR com Rendering 240fps com uma série de sensores.
Shin… Mesmo que o que dizes seja verdade… De que adiantaria isso?
Se a concorrência tem 12 TFLOPS a Sony com 8,4 teria metido a pata na poça.
Num caso como esse onde a Sony se tivesse preocupado com o caro, ela ter-se-ia lixado. E o barato poderia sair-lhe mais caro do que nunca, ao ponto de poder colocar em causa a estabilidade financeira da empresa porque as pessoas por mais 50 ou 100 euros preferiam uma consola 50% superior.
Não entres por isso em teorias só porque sim. Estás a teorizar, a inventar. E isso não é boa informação.
O que a Microsoft faz com o console dela não deve importar muito, os 12TF não são concorrentes em oferta, não são concorrentes em disponibilidade, não são concorrentes em tantos setores que o PlayStation ocupa. A Microsoft pode fazer 12TF pois seu console somente vende nos EUA e isso serve pra reforçar seu Marketshare nesse setor mais receptivo. A Sony precisa de um console que venda no mundo inteiro, então quanto mais balanceado for menos o console vai atrapalhar a venda de software.
E 8.4TF não é pouca coisa. É desempenho próximo da RTX2070Super ou a GTX1080TI, ou seja, desempenho de sistemas computacionais que hoje ultrapassaram os $500.
Mas pouco para justificar uma nova geração com 4K.
4K foi publicidade, agora estão no 8K, tenho certeza que a Sony pode duplicar seu Checkerboard e usar IA para melhorar o componente sub reconstruido. IA é mais importante que Flops daqui pra frente.
Usando Tensor Cores ganha-se até 8x em metacomandos da Titan V usando o DirectML.
Não é possível saber qual a profundidade de ganhos a IA vai gerar em RDNA2 mas com certeza é mais competitivo com Turing que RDNA1 ou qualquer Vega.
Independentemente de ser publicidade ou nao, se precisavas de 8 TFLOPS para títulos actuais nos 4K nativos, nao terás títulos com muito maior complexidade gráfica e 4K se fores com 36 CUs. A IA pode ser usada para melhorar reconstrução. Mas não te adianta de nada com geometrias mais complexa
Que 8K? Quem vai apostar nesse mercado?
A maioria das TVs ainda são 1080p. As 4K actuais não são HDMI 2.1. O mercado HDMI 2.1 e 8K para todos os efeitos não existe. As consolas apostarão nisso como marketing, mas nunca como standard. 4K 60 fps será o normal.
Quanto às IA ela será uma mais valia para a reconstrução pois 12 TFLOPS não dá para um ganho ao nível do da geração actual com 4K nativos. Para isso tens de usar reconstrução, e a IA pode-o fazer melhor que nunca.
4.2TF GCN 1.1 é mais que suficiente para 4K CBR no PS4pro.
6TF GCN 1.2 ( com algo de GCN 1.4) suficiente para 4K60 One X.
4TF RDNA suficiente para emular One X.
8TF = One X + PS4pro colados suficiente para 4K, 8K ou 120fps PS5.
12TF = O mesmo do PS5, com mais FPS.
As marcas estão falando de 8K, Microsoft imprime 8K no seu chip isso significa que vão fazer isso. Ou seja se Tetris rodar 8K eles já podem marketear 8K do mesmo modo que qualquer game em maior resolução que 4K se torna parte do market 8K. Rola que nem no Xbox 360 e PS3 aqui eram 1080p tem de fato meia duzia de games 1080p ou intermediários, a maioria 720p, alguns 640, 544p.
8TF RDNA não é suficiente para 4K? Nos estamos falando de mais desempenho que uma GTX1080.
Sim… 4.2 Tflops na Pro permitem a mesma qualidade de pixel que na PS4 a 4K CB.
6 Tflops não permitem isso em 4K nativo. Para isso precisas de 7.25.
Isto falando meramente em flops, e ignoranco alteração de eficiencia.
E não insistas nos 8K ou 120 fps. Isso é marketing. Tal como a cloud foi.
Não há TVs para isso e quando muito 120 fps usar-se-à no VR.
A PS3 tambem anunciava 1080p e teve meia dúzia de jogos de baixa qualidade que os suportavam.
Aliás se formos por aí, a PS2 tambem corria o God of War a 720p.
Aproveito a mensagem para esclarecer uma coisa a quem ainda não tiver percebido (e vejo nos fóruns que muitos não perceberam).
Quando a AMD anunciou que o RDNA tinha 50% mais eficiencia performance/watt face ao GCN, e que agora o RDNA 2 faz o mesmo com o RDNA, não estamos a dizer que o RDNA é 50% mais rápido ou que possui 50% mais de eficiencia interna que o GCN. E o mesmo com o RDNA 2 face ao RDNA.
Isso refere-se ao consumo de energia por operação efectuada. Pode implicar melhorias no IPC (essa sim, ganho na eficiencia) ou apenas descidas nos consumos. Mas o certo é que estes números não significam ganhos de performance, na prática a performance pode ser igual e os ganhos terem sido todos feitos apenas na descida dos consumos energéticos.
O market faz parte é como os 120fps que não será também uma regra rígida. 8K está lá as marcas estão enfatizando isso, elas querem que você compre uma TV 8K como quiseram no 4K, no 3D, no HDTV.
Sobre GCN vs RDNA a AMD comparou Vega 64 vs RX5700XT, no seu Whitepaper, os ganhos não são apenas perfomance por Watt mas sim da introdução do novo planejador de wavefronts e a introdução do cache L0 entre as DCUs.
https://www.amd.com/system/files/documents/rdna-whitepaper.pdf
Pode ver isso no mundo real quando RX5700 se mantém sobre a Vega 64. 7,9TF batendo 13TF.
https://youtu.be/iSdXjyYWDxA
Ou seja a comparado ao GCN 1.1 do PS4 não é como estivéssemos falando de 4x mas sim 8x o que dar um imenso salto geracional.
Na RDNA a AMD anunciou 50% de ganhos em performance por Watt, mas anunciou igualmente a correcta percentagem que foi ganha por aumento o IPC face à Vega.
Já na RDNA 2, O que a AMD anunciou foram novos 50% de ganhos em performance por watt face ao RDNA 2, mas não referiu percentagens para o IPC. Assim, parte pode ser pelo aumento do IPC, e parte por mera redução no consumo.
Os slides subsequentes mostram que há efectivamente ganhos pelo IPC, mas não referem percentagens.
O erro de muitos é que julgam que estes 50% face ao RDNA são todos no IPC.
Face ao GCN 1.1 (ou GCN 2 pela nova designação), os ganhos reais e medidos são, na sua globalidade 62%, como a Eurogamer mediu nos seus testes usando GPUs com as mesmas arquitecturas, com igual largura de banda e velocidades de relógio.
Os ganhos de perfomance por watt entre 7nm e N7P são de 18% sem redução do silício.
https://www.tsmc.com/english/dedicatedFoundry/technology/7nm.htm
A AMD disse que seu IPC vem de melhorias na distribuição do silício e design. Ou seja embora eles anuncie 50% não significa instruções por ciclo 50% mais rapidas mas sim outros enxugamentos da arquitetura. No Whitepaper de RDNA1 por exemplo não vimos a AMD falar nada sobre suas TMUs mas em RDNA2 a adoção do Ray-Tracing requer mudanças na mesma. O mesmo vale para os ROPs que ao meu ver adotam o TBR por completo.
Ninguém aqui afirmou 50% de melhorias em IPC. Falou 50% melhorias em performance por watt. Ou seja, potencialmente terás um RDNA2 igual ao 5700XT a consumir 50% menos. Isto é talvez a coisa mais impressionante revelada sobre a RDNA2.
Eu só vi depois de escrever… mas que treta é essa da PS4 Pro ser GCN 1.1 e a X ser GCN 1.4?
Para começar vamos acertar os termos. Existiu um GCN 1, e um GCN 1.1. Mas nunca existiu um 1.2 e superiores.
Quando do lançamento das Tonga, que seriam o GCN 1.2, a AMD mudou a nomenclatura. O GCN 1.0 seria GCN 1.0, o 1.1 seria GCN 2.0. O novo GCN, que deveria ser o 1.2 passou a ser o GCN 3.
A Polaris foi o GCN 4 e a Vega o GCN 5.
Tanto a PS4 Pro como a Xbox One X vão buscar tecnologias à Polaris (que seria na tua nomeclatura inadequada GCN 1.3). Desconheço que algum deles vá buscar algo à Vega (GCN 5, e na tua nomeclatura 1.4).
Mas o facto é que pela compatibilidade com a PS4 a Pro é GCN 2 (CLRX 1.1)
A Xbox One X deveria ser GCN 1, pois a Xbox One é GCN 1.0. Mas na realidade é GCN 2.0 (CLRX 1.1)
Estes dados são públicos e estão disponíveis no techpowerup.
E depois entras numas teorias algo estranhas.
Primeiro, a que chama logo a atenção é que falas da PS5 com 8 TF… mas que raio de informações são essas? Não te quero a vir para aqui dar como dados adquiridos situações que não são confirmadas. Não gosto disso e este não é o website para isso.
Recordo ainda que, se é certo que a Microsoft ao lançar uma consola RDNA 4 TF tem a certeza que ela iguala ou supera a X, a realidade é que se isso pode ser uma realidade nesse universo, não podemos afirmar isso para casos gerais.
E o motivo é que o GPGPU do RDNA é menos eficiente que o do GCN, pelo que 4 TF RDNA em computação pura não superam 6 TF GC. Não sei, e nem tu sabes, o que alterou com o RDNA 2 e o CDNA, mas lá está. Sem dados estamos a inventar.
PS4pro não tem nada com Polaris, é uma Vulcanic Island R9 200x como o PS4 base.
– PS4pro tem 8 ACEs como GCN 1.2
– PS4 tem uma organização 20/20 derivada de 64 ROPs.
– PS4 UVD 5 não tem decodificador HVEC pra 4K.
– True Audio.
Qual recurso Polaris o PS4pro tem? Nenhum. E o Xbox One X?
– One X 4 ACES como Polaris
– 32ROPs como Polaris
– UVD7 4K60 HVEC VP9 custom
– Audio DSP custom
– DDC por hardware
Este sim GFX80x…
Sobre o PS5 Benchmark salienta este clock o colocando pouco acima do desempenho da RTX2070
https://www.ps5playstation5.com/ps5s-benchmark/
@Shin estás errado. O GPU da Pro é um misto entre GCN 4 e 5 tendo ido buscar features até à Vega:
https://www.eurogamer.net/articles/digitalfoundry-2016-inside-playstation-4-pro-how-sony-made-a-4k-games-machine
Desconheço features da Vega…
Não digo que não existam, mas desconheço.
Seja como for, apesar das características, a base é CGN 2.0 (antigo 1.1)
Não é possível provar isso. Todos os responsáveis referem a Polaris. A única coisa são os 8 ACEs em vez do novo sistema de 4 ACEs mais dois HWS.
E mesmo disso não se pode retirar que não é Polaris, porque pode ser costumizacao sobre a Polaris.
Eu, pelo menos, não encontrei prova nenhuma de que não é Polaris e por isso baseio-me nas declarações oficiais.
Aceito que digas isso… Eu tambem não te tenho como impingir o contrário, especialmente pelo facto que as declarações não são claras.
E o GPU é efectivamente algo hibrido. A questão é que tem uma base GCN 2.0… Com caracteristicas alteradas aplicando tecnologias de outras arquitecturas até à Polaris.
Mario, para mim a coisa que mais me faz ver que não é GCN 2, é o facto de as Compute Units serem “maiores” na Pro. Foi isso que a análise ao GPU revelou.
Agora falar de bases é impossível porque são todos com base GCN.
Na realidade isso é apenas mais uma alteração. A base da arquitectura mantêm-se a mesma. Mas sim, a Pro não é GCN 2 puro, é uma hibrida! Infelizmente é a base que dita. E a base vem da PS4!
Desculpa a insistência Mário, mas porque dizes que a base da arquitetura é a mesma?
O GPU da Pro parece uma cópia dos Polaris 10, tendo exactamente o mesmo número de SPs (2304).
Tem depois alterações face a este nomeadamente o facto de em vez de 4ACEs mais 2HWS, ter as 8 ACEs.
Mas se até na Compute Units tens diferenças, que imagino são a introdução ao suporte FP16 baseado nas ALUs, como vês na Vega, então continuo a dizer que temos um misto gcn4 e 5.
O que te leva a dizer que a base é GCN2? As ACEs?
Compatibilidade… O API de baixo nível assim o obriga. Ao fazeres chamadas directas ao hardware não podes mudar a base de compatibilidade. Para isso precisavas de um API com layers de abstracção, ou alto nível, como no PC, ou patches ao software.
E GCN 2 porque a PS4 é GCN 1.1. É uma Pitcairn que está na base da consola.
O GCN 1.1 foi renomeado para GCN 2
O RDNA é algo curioso nesse aspecto. Porque é uma arquitectura nova, e como tu mesmo reconheces, mantêm muito do GCN. A retrocompatibilidade é conseguida através de implementação de emulação no hardware das versões anteriores. Daí a necessidade de testes para a retro compatibilidade ser garantida. Testes que caso as consolas usassem APIs de alto nível, ou se usasses emuladores, nem se colocariam.
Mas a GCN4 mantém muito da GCN 1 ou não?
Sim… muito é semelhante… Mas tens de manter uma estrutura e um Instruction set baseado na arquitectura de que partes! O GCN mantêm muito disso só por si, mas certas coisas vão-se perdendo na evolução. Vê o iOS… É software mas dá para perceber. Os novos são compatíveis com os antigos, mas deixaram de suportar muita coisa que os antigos usavam, quer porque essas coisas melhoraram ou se tornaram obsoletas. A partir de determinada altura, até tens mesmo de quebrar a compatibilidade, se queres evoluir, ou ficas preso a uma conjunto de situações legacy que te limitam.
Aqui não podes fazer isso. Tens o software a usar a base que é a PS4, e como tal tens de garantir que o que está lá se mantêm para que o software corra sem alterações. Como estamos a falar de hardware isso limita-te um bocado. E tens de partir de um GPU igual e evolui-lo no que podes, mas sem alterar a estrutura base.
É essa a dificuldade da retrocompatibilidade por hardware. Tens muita coisa que deixou de ser suportada nas novas versões, e tens de a implementar, nem que seja por emulação. No caso da Pro isso não usou uma arquitectura diferente. basicamente pegou-se numa PS4, duplicou-se e melhorou-se ainda mais. Mas a base ainda é a Pitcairn!
Isto é o mesmo com a X.
Perguntas então. Mas porque raio, se é assim, a X é GCN 2, se a One é GCN 1?
Bem, porque o GCN 1.1 era na realidade isso mesmo, um 1.1. Ou seja, uma alteração menor ao 1.0
Mas o 1.2 já era uma alteração muito maior.
Daí que quando se mudou a designação, foi tudo pela mesma medida. E o 1.1 que ficou como GCN 2 na realidade é apenas um GCN 1 com uns extras. Mas não quebra nada.
Daí a X poder ser GCN 2! Melhora, mas não quebra nada!
Off TOPIC x2 😉
Há um rumor que a Sony planeia iniciar um plano de pagamento a prestações da nova consola. As prestações terão baixa mensalidade, e terão a duração de alguns anos, sendo que ao fim desses anos a consola é trocada por uma nova versão a custo zero. Um modelo baseado no da Apple nos seus smartphones, mas que não prevê que as trocas sejam anuais.
Sinceramente, assim de repente não sei o que pensar disto, caso seja verdade. Precisava de mais dados e de ponderar a coisa.
Polaris 10 Ellesmere
Scorpio
Sea, Sutherland e Vulcanic
Hawaii
https://www.techpowerup.com/gpu-specs/amd-hawaii.g738
Livepool PS4
https://www.techpowerup.com/gpu-specs/amd-liverpool.g753#gallery-3
Neo PS4PRO
https://www.techpowerup.com/gpu-specs/amd-neo.g834#gallery-3
Se você prestar atenção nos Chips verá que o tamanho tanto do processador de comandos como de cada CU do NEO e equivalente aos de Hawaii mudando apenas o número de blocos. Enquanto Scorpio possui um processador de comandos mais simétrico como Polaris 10. O Neo Claramente é percebido como montaram esse projeto como uma extensão de Livepool e por isso existe um desalinhamento que não é visto em nenhuma GPU AMD cuja o projeto tenha uma origem.
Quem determina a família é o GFX então o Neo se encaixa na mesma família do PS4 por ser um chip remendado com mesmo tipo de CU mantendo compatibilidade a nível de hardware, no caso do Scorpio é um chip completamente novo. A Microsoft inclusive quebra parte da compatibilidade direta com o Xbox One original e por isso esse chip possui máquinas de interpretação Jit que interpreta o Software anterior. Scorpio é uma nova geração dentro da geração One enquanto o Neo é uma verdadeira extensão geracional.
O processador de comandos a Scorpio é costumizado. É uma das grandes mais valias da consola, e é igual ou uma evolução (isso nunca foi claro) do que foi feito com a Xbox One.
Não tem nada a ver com o da Polaris, e quando muito a polaris é que o copiou.
https://www.pcmanias.com/xbox-one-possui-caracteristicas-de-dual-gpu/
https://www.pcmanias.com/dice-deu-a-conhecer-mais-realidades-sobre-as-novas-consolas/
Ambos os GPUs (Neo e Scorpio) são GCN 2. Designação pelo antigo CLRX, GCN 1.1
https://www.techpowerup.com/gpu-specs/xbox-one-x-gpu.c2977
https://www.techpowerup.com/gpu-specs/playstation-4-pro-gpu.c2876
Todos dão mas a divisão de Durango é visível no Chip
https://www.techpowerup.com/gpu-specs/amd-durango.g754#gallery-3
Scorpio não precisa disso pois em Polaris os HWS fazem o mesmo a nível de hardware.
“”O HWS (grupo de trabalho de hardware / agendadores de frente de onda) são essencialmente pipelines ACE configurados sem controladores de despacho. O trabalho deles é descarregar a CPU manipulando o agendamento das filas de usuário / driver nos slots da fila de hardware disponíveis. São processadores programáveis por microcódigo que podem implementar uma variedade de políticas de agendamento. Nós os usamos para implementar os recursos Fila de resposta rápida e Reserva de CU no Polaris, e conseguimos transportar essas alterações para produtos GCN de terceira geração com atualizações de driver. ”
https://www.tomshardware.com/reviews/amd-radeon-rx-480-polaris-10,4616.html
Scorpio é tão diferente de Durango quanto é de Neo ou Livepool.
OS HWS são agendadores da tarefas de nova geração. Substituem os Ace ou trabalham em conjunto com eles.
A Scorpio mantêm 4 unidades ACE por compatibilidade com a Xbox One. Acrescenta mais 2 HWS, cada um equivalente a dois ACE, para se equivaler à PS4 e à Pro no número de agendadores.
Isto não torna a Scorpio numa Polaris. Torna a Scorpio numa hibrida com novidades da Polaris. Algo que nunca ninguem negou existir, todos concordam existir, e que nem percebo porque se discute aqui.
A Scorpio é assim uma arquitectura hibrida única, denominada Scorpio Engine.
A PS4 Pro usa tambem novidades da Polaris. Mas não usa HWS pois optou por dobrar o hardware da PS4 numa configuração borboleta.
Basicamente todas estas arquitecturas são únicas. Não há nenhum outro chip no mercado igual. Não são na verdade nenhum tipo de GCN existente.
O que elas tem é uma base comum com as consolas de primeira geração… E essa é um GCN antigo. Todas as PS4 partem da Pitcairn (1.1), Todas as Xbox One da Bonnaire (1.0). A Scorpio no entanto vai mais longe e quebra o GCN 1 passando a GCN 2. Isto porque o 1.1 e o 1.0 eram na realidade apenas uma pequena revisão.
Vamos lá deixar morrer esta conversa de treta… Estamos todos a dizer o mesmo, mas tu estás é a tentar concluir o que não é verdade. A Scorpio não é Polaris. Tem uma arquitectura com base GCN 2, e com novidades e estrutura baseadas na Polaris.
@Shin Por estas imagens nao consegues saber nada disso sobretudo porque a escala e distinta.
Ja agora, porque nao postas imagens do APU da ONE base tambem?
https://www.cdrinfo.com/Sections/News/Print.aspx?NewsId=38772
Agora o que vejo e que tanto a ONE X como metade do GPU da PS4 Pro tem CUs iguais ao Hawaii. A diferenca e que tens os mesmos CUs iguais na ONE X e na Pro aparenta ter 2 tipos de CUs. O que indica que efectivamente poderemos estar perante um GPU GCN2 e um GPU que com um novo tipu de CU. Efecticamente uma extensao.
Lembre-se entre GCN1.1 e Scorpio
Scorpio ACES diferentes 4 ACEs com 2 HWS
32ROPS ao inves de 64ROPs
O que Mark Cerny fala sobre usar a GPU como uma borboleta, ele quer dizer que pode dividir 2 filas de 4 comandos assíncronos por software, a mesma capacidade de Polaris mas sem o HMS dependendo do CPU.
Algo demostrado no diagrama do PS4
Continuas a dar-lhe… E não percebo bem o porque!
A Scorpio tem aproveitamentos da Polaris. Nunca ninguém negou nada disso! Nem sei porque insistes em algo que todos concordam.
Mas isso não a torna numa polaris. Torna-a num GCN 2 hibrido com melhorias vindas da Polaris!
O CPU da PS4 tambem tinha novidades usadas pelas Vulcanic Islands, e não era uma Vulcaninc Islands. Tinha como base uma Pitcairn GCN 1.1 com melhorias. Era um GCN 1.1 (OU GCN 2 pela nova designação) híbrida com melhorias.
O que está de acordo é que Scorpio está entre R9 e Polaris, já o Neo não, o Neo é apenas o mesmo GCN 1.1 de Livepool com mais um Shader Array Engines colado completando CUs mas que por meio de Drivers algumas features atuais são suportadas.
Foi o que ocorreu nos PCs, GCN1 suportava o mesmo nível de Shader de uma GPU genuinamente DX12.
Mas não com o mesmo desempenho. O DDC está lá mas é Tier0 não tendo o mesmo nível de desempenho ou compatibilidade que em Polaris, Scorpio ou Geforces Maxwell em diante.
Estás a falar da estrutura da arquitectura (disposição e estrutura dos CU)… Não da arquitectura em si.
Eu vou ficar por aqui… não vale a pena. Isto faz-me lembrar as conversas com o MisterXmedia onde por muito que se argumente, ele mete mais qualquer coisa ao barulho e a conversa em vez de avançar anda sempre para o lado.
De se notar que a Xbox X vale o que vale. Esta discussão não lhe tira nem mérito e nem performance. É o melhor APU actualmente em consola. Esta discussão é inútil nesse sentido, pois a consola não vai valer mais nem menos em qualquer dos casos.
@Shin…
Não há nada, nada, que indique que a ONE X possua 4ACEs+2 HWS. Nada.
A Microsoft nunca o anunciou.
Se te baseias nisso para defender que a ONEX é Polaris e a Pro GCN2… Esquece. Ignoras Tb constantemente o facto de a Pro suportar FP16 como a Polaris e talvez mesmo a Vega e a XOX não, e isto tem tanto peso como tudo o que apontaste.
Na realidade há um wiki sobre o Scorpio Engine que refere que tem 4 Ace mais 2 scheduellers. Não diz o que são e nem que são HWS. Mas há essa referência.
Sim… Dois command processors. Que a ONE base Tb tem. É o que a wiki diz, que tal como chips anteriores a Scorpio possui dois command processors.
A realidade é que eu nunca ouvi falar de nada disso oficialmente. Aliás estive mesmo para responder ao Shin que isso não era verdade, mas após ter lido o que ele escreveu, uma novidade para mim, não o disse tendo ido ver um wiki. E o wiki refere que esses agendadores se devem ao ter uma estrutura de arquitectura baseada na Artic Islands, o que dava indício de HWS, sem o dizerem explicitamente.
The number of ACEs (Asynchronous Compute Engine) on Scorpio has doubled to 4 in order to increase the parallelism possible. It’s worth pointing out that since the Scorpio Engine is based on Arctic Islands, there are also two additional schedulers.
Fonte: https://en.wikichip.org/wiki/microsoft/scorpio_engine
Nesse sentido acreditei no Shin e, mesmo tendo sido apanhado de surpresa, aceitei os dois HWS.
Mas o certo é que nunca li em lado nenhum que a Scorpio tinha agendadores HWS. O que me soou a estranho ap+os tanta coisa que li. E quando referiste isso, resolvi investigar mais a fundo. E fui ler uns foruns.
O que encontrei foram referências aos 4 ACE… e depois a dois GCP que eles não sabiam o que era. Mas que dizem respeito Graphics Command Processor.
A partir daí entram na especulação:
“GCP is likely HWS in AMD’s terminology meaning that it’s able to handle two queues of any kind (graphics is the most universal context in DX). This means that they went from 4+2 to 4+4 max for compute queues which is essentially the same as what PS4/Pro has.”
E a partir daqui toma-se como certo que os GCP são HWS.
Ou seja, não consigo confirmar qualquer HWS… O que consigo ver é efectivamente o GPC, e o mesmo a ser transformado em HWS por alguns.
4 ACE (compute processors) + 2 GCP
Nada de HWS
Pois… deve ser isso. O delta color compresion e o FP16 ou rapid packed math vieram de onde então?
O primeiro GPU AMD a ter DCC e FP 16 foi a Polaris. A PS4 Pro suporta DCC no hardware tal como a One X.
De uma entrevista do Cerny à Eurogamer
DCC allows for inflight compression of the data heading towards framebuffers and render targets which results in a reduction in the bandwidth used to access them. Since our GPU power has increased more than our bandwidth, this has the potential to be extremely helpful.
Aliás a Pro foi mais longe nos CUs do que a X? De outro artigo da Eurogamer:
Architecturally similar CPU clusters occupy the same space and area (though Xbox One X does double up on cache), and in both cases, the two banks of compute units are separated by the front end. Each individual CU on the Pro is around 15 per cent larger than the Scorpio equivalent, perhaps down to Microsoft retaining the existing ‘Southern Islands’ technology while Sony opts for a more modern CU design with new instructions.
Aliás diga-se que quanto às unidades ACE a PS4 não foi buscar nada às Vulcanic Island. As Vulcanic Island é que foram buscar à Ps4.
De uma entrevista do Cerny à Eurogamer.
We can have custom features and they can eventually end up on the [AMD] roadmap,” Cerny says proudly. “So the ACEs… I was very passionate about asynchronous compute, so we did a lot of work there for the original PlayStation 4 and that ended up getting incorporated into subsequent AMD GPUs, which is nice because the PC development community gets very familiar with those techniques. It can help us when the parts of GPUs that we are passionate about are used in the PC space
Isto contradiz tudo o que tens vindo a dizer que a Microsoft personaliza o hardware, mas a Sony não e usa o que a AMD tem por defeito.
A PS4 pro é um GPU GCN 1.1 (Agora GCN 2.0) com algumas estruturas usadas nas Vulcanic Islands, algo que herda da PS4, e elementos da Polaris (GCN 3).
A Xbox One X é igual.
O HVEC nada tem a ver com arquitecturas. É um Codec Video suportado ao nível do hardware que a Pro dispensa por não ter um leitor de BD UHD. Apenas os videos dispensados nesse formato usam esse codec por questões de compressão, para caberem no BD. A Pro lê videos 4K, mas por streaming do Netflix ou outros, e esses serviços não usam o codec HVEC.
Quanto à PS5 vais buscar um benchmark antigo do 3D Mark que se supõem ser da PS5. Mas não justificas a referência aos 8 Tflops anterior.
Sinceramente não vou entrar neste tipo de diálogo a cada comentário que escreves, especialmente porque a cada acrescentas novas coisas.
Pois. Creio que RPM suportado é o mais parecido com o da Vega que com o da Polaris. A Polaris limitava-se a suportar a operação. A Vega já tinha aceleração para essas operações ao suportar, creio, no hardware.
Pelas palavras do Cerny, não sabemos sequer se isso iniciou na Pro e foi passado para a Vega.
Lá está…
A AMD tem ganho muito com as colaborações com os fabricantes de consolas. As costumizações, quando se verificam que são funcionais são aplicadas às arquitecturas futuras.
Sony e Microsoft alteram o hardware à sua medida. Não há cá a Microsoft altera e a Sony usa o default… Na realidade nada disso se passa! O que se passou com a PS4, e isso só se veio a perceber depois, foi que na realidade foi a AMD quem usou as novidades da PS4, e não a PS4 que foi buscar coisas à arquitecturas mais recentes.
O mais importante é que entre o PS4pro e o One X existe uma diferença que excede os 100%, provando que não são apenas os Flops mas muitos recursos que no One X foi melhorado.
Por isso o salto para uma plataforma de 8,4TF ou mesmo 9,21TF RDNA é algo que impõe uma grande distância nos recursos afavor da nova geração.
Não há milagre nenhum…
A X não tem apenas mais Tflops… tem mais largura de banda, mais velocidade de relógio e melhor CPU.
Quando um jogo atinge um gargalo na Pro, não o atinge na X… Nada de estranho!
Mas depois os jogos que referes são jogos em resoluções nativas na Pro. Jogos que não podem levar CB?
E Diablo não é 4K constantes na X. Desce até 3648×2052.
Shadow of war: Na Xbox One X podes perder fps ou resolução. Se a resolução dinâmica for activa, mantendo os fps, a resolução da X desce aos 3520×1980.
AC Origins: Na X O jogo corre entre 1700p e 1800p. A resolução na tabela é a melhor que a X consegue.
E sinceramente nem sequer vou procurar dados sobre os outros jogos. Tu é que tens de ter cuidado com o que postas! Como eu disse não podes dar como verdade coisas que não o são, e se o queres dizer, tens de te informar sobre o que estás a dizer (Aliás Fortnite na tabela refere 1080p na PS4 Pro, ou seja é da altura onde o patch para a Pro nem existia).
Apenas como dica, dado que há mais quem leia isto, e não quero que dividem de mim, todos os valores que refiro foram obtidos em testes pela Digital Foundry, pelo que podem pesquisar pelos artigos deles caso queiram confirmar os dados.
Não é nenhum milagre, 42% mais Flops 30% mais eficiência da arquitetura, menos os gargalos. 100% dos casos o Xbox One X está correndo com uma diferença que excede os 50%, então não é apenas a diferença dos clocks e sim uma diferença gerada pelos recursos distintos de cada arquitetura. E se existe distinção não pode ser a mesma.
Não é eficiência da arquitetura. É mais flops devido a mais hardware e maior clock, mais memória mais largura de banda e cpu mais rápido com maior clock.
A eficiência de arquitetura mais recente tem que entrar no jogo.
44% a mais de potência, 30% de largura de banda e 8% a mais de clock de CPU não deveriam ser suficientes para essas diferenças de 2,2x na resolução em jogos modernos como Wolfenstein 2 ou Battlefront 2.
E como sabes que a arquitetura é mais recente? Foi isto que estivemos aqui a discutir.
Não há provas nenhumas. O GPU da One X não é equivalente a nenhum que a AMD tenha feito até então.
Tem os codecs mais recentes? Sim. Tem suporte a característica s da Polaris como FP16? Não.
Porque o Shin refere ROPs e ACEs mas não refere que nenhum Polaris do mercado tenha 44 CUs..
E nem sei se tem os dois HWS.
O problema que o Mário levantou para a API e retro continuam na Xbox ONE X
Polaris é GFX8xx e quem também é são R9 Fury que chegam a 64 CU. Quem determina o tamanho não é a Arquitetura mas sim a Matrix e Polaris era a AMD saltando dos 28nm para os 14nm houve a necessidade de redesenhar o Chip no processo.
@Shin Nao.
R9 Fury = Fiji, nao Polaris. GCN 3 nao 4.
Os Polaris, no mercado, chegaram no maximo as 2304 SPs.
Maiores que isso incoporando as alteracoes da Polaris e mais algumas receberam o nome Vega.
A ONE X nao tem suporte FP16 e a Polaris tem.
Tu não leste mesmo o que eu respondi pois não.
Aquela tabela é feita sem rigor nenhum. Eu fui apenas ver os três primeiros jogos da lista e o que encontrei foi que aqueles dados não são reais. O que vi, pelo menos nos três primeiros exemplos, foi a resolução média da Pro vs a Máxima da X. E apesar de não ter procurado mais, saltou à vista o Fortnite que era comparado antes do patch da Pro.
Seja como for a minha questão é como é que estas dúvidas aparecem só agora.
Vejamos
1440p e 4K – 2,2x mais
720p e 1080p – 2,25x mais
Ps4 Pro e X – 42% de diferença
One e PS4 – 40% de diferença
Ps4 pro e X – Vantagem de CPU na X
One e PS4 – Vantagem de CPU na One
PS4 Pro e X – Vantagem de largura de banda na X
One e PS4 – Vantagem se largura de banda na One
Resumindo, o caso da One e Ps4 é muito mais escabroso. Mas ali não se questiona a coisa, e não se fala em melhores eficiencias da PS4.
Daí que questiono, o porque desta conversa, quando tudo soa a normal?
Depois deixa-me explicar uma coisa. E nem sei se não faça um artigo disto.
Há sempre duas resoluções a ter em conta. A de apresentação, que é sempre 1080p nas bases e 4K nas outras, e a de processamento.
Quando tens um jogo 720p, porque motivo ele é 720p e não 900p? A escolha da resolução interna de processamento é feita com base em percentis de estabilidade. Se a consola nunca atinge os 900p fixas a resolução em 720p, se está mais tempo nos 720p, fazes o mesmo, se está mais tempo nos 900p fixas aí e aplicas resoluções dinâmicas às quedas.
E o mesmo se passa com qualquer resolução interna de processamento.
É isto que cria as disparidades. Porque num caso em que te fixas a 720p, se calhar o sistema até aguentava bem com 850p. Mas isso obrigava a resoluções dinâmicas constantes que afectariam a qualidade visual.
Logo 720p não te diz a realidade do sistema. É um patamar imposto onde podes garantir uma resolução nativa constante.
E o mesmo se passa com 1440p. A Pro se calhar até conseguias tal como no caso anterior, 1750p com regularidade. Mas para terem uma qualidade de imagem fixa e não dinâmica a resolução foi fixa nos 1440p.
Isto é igual aos FPS. Podes ter 45 ou 50, mas não chegando aos 60, bloqueia-se nos 30 para melhores resultados.
E por aí vêz que estas comparações acabam por ser artificiais no que toca à performance. São no entanto realidades e como tal devem ser tidas as contas nas comparações…
Só porque faltou. As resoluções standard, ou patamares de fixação são 720p, 900p, 1080p, 1440p, 1800p, 2160p. Tudo o resto tem de estar bloqueado a uma destas e ser dinâmico.
Se a gente pegar todo e qualquer game dessa geração e chocar resolução com resolução veremos sempre mais de 50% de ganhos com 100% de ganhos a maior parte do tempo mas isso depende também do método de renderização que tais games usam.
Battlefield V por exemplo, além de melhor taxa de quadros e qualidade de imagem no Xbox One X vareia a 1836p-3494×1944, enquanto PS4pro corre a 2304×1296 2.25x, Metro Redux 3840×2160 One X contra 2560×1440 PS4pro, RDR2 One X com nativo 2160p enquanto PS4pro CB 1920×2160 com uma diferença ainda mais substancial no desempenho em locais povoados. Existe uma diferença real no desempenho entre as duas plataformas e isso é sensível em Engines com boa escalabilidade. Na verdade em muitos casos a diferença entre o One X e PS4pro é maior que entre o PS4pro e o PS4 mesmo estes possuindo mais que o dobro em escala de flops. Então não é apenas os 6TFs ou clock maior a Microsoft obteve uma plataforma com mais recursos.
O HVEC tem haver com o VCE 3.0 sendo introduzido
https://en.m.wikipedia.org/wiki/Video_Coding_Engine#VCE_2.0
PS4 e PS4pro não suportam Freesync 1 ou 2, One X mesmo VPU de Polaris recebe a versão 2.
Você ver as marcas falando de DDC ou do RPM e pensa que somente determinado hardware pode usar esses recursos, não é bem assim. O Shader Model permite uma camada de software de recursos Tier 0 e uma camada de Hardware Tier 1. Quando atualizaram para Vulkan 1.1 entraram as instruções intrínsecas como miniFloats, e no Tier0 isto precisa ser declarado como uma Wavefront não sendo um recurso de hardware. A nível de hardware GCN1.1 é Shader Model 5.1 mas ele suporta feature level até do Shader Model 6.3. E sim a API GNM da Sony compartilha o mesmo VPIR-V usado pelo Vulkan.
É por isso que o DDC estava já embutido nas Radeon desde as Sea Island mas era Tier 0, você precisava ativar como uma função do Drive mas a própria Sony avisa no seu Kit que experimental e instável. Se o PS4pro realmente tivesse DDC funcionando em todos os ambientes veríamos uma situação parecida a do Xbox One X que pode rodar alvo 2160p mas usa DSR. É preciso um jogo realmente muito leve em requisitos para que o PS4pro faça 2160 sem checkerboard devido o estrangulamento da largura de banda.
A PS4 usa basicamente um passthrough da porta Display Adapter para o HDMI. É isso que permite que ela suporte HDR quando o seu GCN não o suporta no HDMI.
E o display Adapter suporta Freesync desde sempre.
Logo a PS4 suporta Freesync, a Sony é que nunca entendeu suportar o mesmo dado que o mercado de TVs alcançado com isso durante a geração era basicamente zero.
E Shin… eu não te vou contrariar em mais nada! não tenho nem tempo e nem pachorra para estar o dia todo nisto!
E repito, independentemente do que escreveste, o HEVC não é mais do que um codec… Que a PS4 não suporta por não ter leitor UHD.
Mário acreditas mesmo que o normal será 4k/60fps?
Na minha opinião continuaremos a ter o mesmo de sempre, resolução habitual e 30fps e em muitos nem isso, acho uma utopia as pessoas acharem que vai ser tudo a 60fps porque senão é porque são fracas, isto porque ou não têm os pés bem assentes na terra ou desconhecem a realidade das consolas.
Mário, um possível console xbox de 4 tflops poderia ser RDNA 2? O que um console desse poderia fazer? Rodaria a próxima geração toda em full hd e poderia fazer 4k upscaling? Poderia ter Ray Tracing?
Se tiver Ray Tracing terá de ser RDNA 2. E poderia fazer full HD!
Agora como eu já disse:
Xbox 360
240 Gflops ou 0,24 Tflops
Resolução – 720p
Flops médios dedicados a cada pixel – 8,13 Kflops. (divides 240 000 por 1280 e por 720)
PS4
1,84 Tflops
Resolução – 1080p
Flops médios dedicados a cada pixel – 29,57 Kflops.
Aumento na potência dedicada a cada pixel – 3,63x. Note-se que aqui se ignorou os ganhos de eficiência da arquitectura, pelo que teremos de o fazer também daqui para a frente.
Para um salto geracional igual, cada pixel teria de passar a ter então:
3,63*29.57 = 107 K flops
A 4K ou 3840*2160 isto requereria 26,6 Tflops.
Ou seja, para um salto com igual qualidade à geração anterior, terias de usar CB com metade da resolução, e reconstruir.
Isto dar-te-ia 13,3 Tflops. (pela lógica do Mark Cerny, e não sei bem porque ele dá essa margem, convinha acrescentar pelo menos mais 0.5 Gflops, o que atiraria isto para os 13,8. Mas vamos ignorar isso)
A Série X tem 12. Ou seja não pode dar os 107Fflops, o que quer dizer que, mesmo com reconstrução o salto é um pouco menor que a dado pela geração actual face à anterior.
Ela dá então cerca de 97 Kflops por pixel com 4K com reconstrução de imagem usando metade da resolução.
E a Lockhart?
Para 97 Kflops a 1080p era precisava de:
1920*1080*30*97 = 6 Tflops
Continuo por isso a dizer… 4 Tflops é pouco. A consola não vai acompanhar a X e nesse sentido vai limita-la.
Ainda por cima, aponta-se que ela trabalhe a 1440p.
Nota que qualquer ganho de eficiência que pudesses colocar aqui poderia resolver isso, mas dado que ele se aplicaria às duas consolas, o fosso mantinha-se igual, e esta incongruência não desapareceria.
Obrigado, Mário!
Ironicamente, tudo que a AMD revelou parece ter dado mais razão para acreditar nos dados guardados no Github. Com RDNA 2, 2GHz de relógio em um GPU de 36/40 CU é totalmente plausível, além de que o RDNA2 vai entregar a eficiência energética para tornar os produtos possíveis e mais acessíveis.
Fernando… Sem poder contradizer os 9.2 Tflops ou os 36 CU, uma vez que nunca ninguem falou de performances, a AMD deu a entender RDNA como standard na próxima geração de consolas. E assim sendo isso coloca questões sobre o github onde o Oberon ali presente era claramente RDNA 1.
Dado que fazes uma afirmação em sentido contrário, vou ter de pedir que digas então o que foi que a AMD disse que confirma o Guthub, pois se fazes a afirmação com certeza tens como te apoiar no que dizes.
E não me argumentes com velocidades de relógio, pois nesse caso, tenho de te questionar o seguinte:
Os 2 Ghz são indicados como velocidade máxima:
– Assim sendo como vês um GPU a 2.2 Ghz?
– Assim sendo como vês sequer um GPU a 2 Ghz? Sem poder negar a sua existência, tens noção que um chip a correr no limite máximo teórico poderá ter problemas de consumo (as curvas de consumo são exponenciais no fim da curva), poderá ter problemas de aquecimento, e acima de tudo deverá ter elevados custos de fabrico, uma vez que o aproveitamemto de chips que podem ser puxados ao máximo é reduzido.
Sairia mais barato um chip maior a mais velocidade. O que levanta outra questão.
– Se vês que o RDNA 2 permite essas velocidades, como é que as teorizas para a Sony, mas não questionas porque motivo a Série X, que usa igualmente RDNA 2 não subiu também as velocidades?
Sobre esse assunto, provavelmente aqui está a matéria mais vexatória do ano
https://viciados.net/ps5-sony-finalmente-revela-detalhes-oficiais-do-console/#mvp-comments-button
LOL… o gajo publica agora dados do artigo da Wired do ano passado?
E mais ainda… afirma RDNA 1 quando a Sony nunca falou da versão, e tal como a Microsoft, antes da revelação, apenas referiu RDNA.
Como é que uma pessoa destas espera ganhar credibilidade?
Se um website assim tem visitas só pode ser porque os fanboys acorrem para lerem aquilo que querem. Mas isso será sempre algo temporário, pois se as coisas forem falsas o tempo acaba por o revelar. E a credibilidade vai por água abaixo.
Embora seja uma confirmação da AMD consoles com RDNA2, o fato da Sony ter abordado RDNA 1 tem peso igual. A questão é que basta a adoção do motor de Interseção nas TMUs para adicionar suporte ao Ray-Tracing, ou seja, o Ray-Tracing não é uma função da plataforma computacional como é o VRS por exemplo.
Se o Ray-Tracing foi uma adoção tardia por parte da Sony provavelmente esta foi a mudança feita nas últimas atualizações de Oberon.
– TMU de RDNA 2
– VCN2.5 atualizado desde Raven Ridge com CNN
– Matrix N7P maior que Navi10 350mm^2
– Game Clock 1800MHz
Como a RX5700XT console 225w em sua versão anivessary, o chip da Sony deve está abaixo dos 200w de consumo, provavelmente nos 150w enquanto o chip da Microsoft está sobre os 200w. Greta Thunberg vai gostar mais do PS5, é mais ecológico.
Isso não tornaria a arquitectura em RDNA 2. Não traria as vantagens de poupança de energia e não traria o VRS. Seria uma RDNA 1 hibrida!
A AMD quando falou referiu-se que o RDNA 2 seria comum nas consolas, e PCs de nova geração. Ou seja, foi mais longe do que isso.
Eu não quero tomar essas palavras como uma confirmação exacta da situação. Para isso a AMD teria de ser textual. Mas o certo é que é um indício, e sendo um indício, se o queres usar, tens de aceitar que é RDNA 2. Porque o resto não é RDNA 2. É RDNA, alterado! E tal como a Pro e X são GCN 2 apesar das alterações, a PS5 não seria RDNA 2. E não foi isso que a AMD deu a entender!
Não exatamente, a AMD já fez algumas mudanças em Navi14 que é GFX1012, o Scarlet é cotado como GFX1020 que compartilha o Navi21lite enquanto existe também GFX1030 com Navi21.
https://twitter.com/KOMACHI_ENSAKA/status/1205295695617331200?s=20
Na medida que a AMD avança com os testes de Chips eles vão melhorando o processo. O que estou tentando dizer é que mesmo o Scarlett pode não ser de todo RDNA2 e não contar com a totalidade desse aprimoramento pois existe mais de uma ID RDNA2 com famílias diferentes.
É cotado por quem? Porque até agora no fim sabe com certeza os dados de APUs das novas consolas.
Só por curiosidade, pois tudo continua baseado em especulação.
https://www.techpowerup.com/gpu-specs/playstation-5-gpu.c3480
Antes o Github era a melhor fonte. Para ter mudado devem achar que a atual fonte vale mais do que isso.
Chegaste a ver essa aqui? É inacreditável como o Adrenaline que é o site mais visitado sobre tecnologia no Brasil me posta um rumor vazado no 4chan.
https://adrenaline.com.br/noticias/v/63084/especificacoes-do-playstation-5-finalmente-teriam-vazado-rumor.
Oberon e Flute são o mesmo chip com base em Navi10 Lite
https://twitter.com/_rogame/status/1238492197835755523?s=20
O desempenho similar a RX5600XT
https://twitter.com/Carthemanbrah/status/1238457203776016385?s=20
Convem dizer tudo…
Flute score similar to ~5600XT could very well be using base gfxclk.
Ou seja, e indo directo ao que interessa, o desempenho é similar a uma 5600 XT, mas desconhece-se em quais das velocidades de relógio.
Mais ainda, a discussão é se estes chips são efectivamente a PS5, pois há agora um novo “Unknown” que apareceu com referências semelhantes.
Mas mesmo que seja, recorde-se que o Oberon vai na revisão E0. Ou seja, bem distante do que aqui está que são as primeiras versões do chip!
Ah sim, outra coisa que é dita pelo ROGAME e que interessa dizer-se.
Que aquilo são os resultados de um teste. Falta saber se de um teste bem sucedido, ou de um teste mal sucedido.