Segunda análise aos supostos Benchmarks do Navi mostra resultados difíceis de explicar

Cada vez mais são conhecidos novos dados sobre o Navi que parecem dar veracidade aos Benchmarks que apareceram à tempos como sendo de um GPU com essa arquitetura. E tendo existido algumas referências adicionais sobre o assunto, olhamos novamente para os benchmarks confirmando mais uns dados inicialmente pouco ou nada abordados e que nos mostram que a AMD poderá ter ali um GPU vencedor entre mãos.

Faz agora algum tempo apareceu no CompuBench, um benchmark de um suposto GPU Navi.

Apesar de o mesmo poder ser comparado com diversos GPUs, há apenas alguns com os quais podemos em conjunto encontrar testes realizados usando o mesmo API, e que permitem realmente uma comparação.

Um deles foi com a RX 580:



E outro com uma Vega 56:

O que vemos em cima são valores bastante interessantes. A Navi bate claramente a RX 580 de 6.157 Tflops, mas mais do que isso bate-se de igual para igual com uma Vega 56 com 10.57 Tflops. Nos testes realizados face a este último GPU, num total de 6 testes, a Navi apenas não leva a melhor em 2, sendo que ambos são testes intensos no uso de GPGPU, onde esta Navi testada parece ficar um pouco atrás.

Ora estes resultados seriam basicamente normais se aceitássemos que estávamos perante uma nova iteração do GCN, e um GPU que viria substituir a Navi 56. E perante apenas essas realidades, nada mais haveria a dizer, excepto que o Navi se mostra competente.

No entanto, os testes revelam dados que nos podem levar a ficar optimistas face à Navi. Note-se que estes dados são os reportados pelo programa, sendo que a AMD pode ter baralhado os mesmos com dados inseridos no firmware do GPU, o que invalidaria todas as conclusões seguintes.

Mas aceitando que tal não aconteceu, o que podemos retirar dos resultados?

Para começar os benchmarks ganham credibilidade por existirem há algum tempo, e referirem como nome de código do GPU o gfx1010. Apesar de tal ter sido sempre apontado como sendo uma referência ao Navi (geração 10, Navi 10 ou 1010), tal podia ser apenas uma coincidência e uma tentativa de adaptação da referência à realidade do Navi. No entanto recentemente confirmou-se que efectivamente a AMD está a usar esse código nos  Navi 10.

Mas mais ainda, o nível de suporte indicado pelo programa bate tambem certo com as novas tecnologias que se sabem virem a existir no Navi, o que nos leva a acreditar que os benchs serão efectivamente reais.

Mas e outros dados relevantes?

Bem, um desses dados foi o abordado na altura do conhecimento deste Benchmark, e prende-se que uma análise à  informação sobre este GPU permite ver que este é um GPU muito simplificado face aos com que ele se está a bater. Este Navi possui apenas 20 CUs, quando a Vega 56 possui 56.

Basicamente isso foi a situação noticiada na altura. Que os 20 CUs da Navi estariam a obter uma performance em tudo equivalente ao fornecido pelos 56 CUs de uma Vega. Tal é um feito tremendo e que implica que os 20 CUs da Navi estariam a obter um rendimento 2.8 vezes superior ao habitual do GCN da AMD usado no Vega.

Mas há mais… e é aqui que estes resultados já surpreendentes se parecem tornar fantásticos. É que este GPU Navi é reportado como estando a correr a apenas 555 Mhz. Podem confirmar isso no link para os dados do GPU.



Eis uma montagem que mostra os dados relevantes numa foto simplificada

A combinação destes dois dados acaba por ser de pasmar. A Navi testada que está a bater a VEGA 56 tem apenas cerca de 35% dos seus Compute Units, e corre a 37.6% da sua velocidade de relógio.

E isto são valores impressionantes. A AMD aparenta ter-se superado nesta alteração à arquitectura, e o Navi aparenta ser não só um GPU de baixo consumo, como de baixa frequência de relógio, e com elevadíssimas performances.

Perante isto as especulações são muitas. Se fossemos calcular a performance desta Navi pelos valores padrões do GCN ela teria:

20 CUs*64 Shader Processors*2 instruções por ciclo*555 Mhz = 1.42 Tflops



Ou seja, supostamente esta Navi deveria ser inferior ao GPU da PS4, mas o que vemos é que ela bate a Vega 56.

Torna-se difícil explicar estes valores, o que leva a questionar se os dados do GPU estarão ou não alterados. Mas que caso não estejam a AMD está com um produto arrasador nas mãos…! Tal significaria melhorias radicais no GPU, ao ponto de a antiga metodologia de cálculo deixar de ser válida.

Pare encontramos uma explicação para o sucedido compilamos informação que está espalhada em vários locais e que refere alterações supostamente implementadas no Navi. Esta é informação que cita patentes, mas que não pudemos confirmar, mas que a ser a realidade aplicada explicaria tudo.

Voltamos a chamar a atenção que o que se segue é algo não confirmado, e que mesmo que sendo informação válida e vinda de patentes registadas, nada nos garante que seja o aplicado no Navi.

Com isto em mente, considerando que estas patentes efectivamente estariam aplicadas na Navi, esta terias as seguintes características.

  • A Navi possuiria Alus adicionais que permitiriam processar 2x mais por ciclo de relógio.
  • A Navi aumentaria o limite de Shader Processors por Compute Unit de 64 para 128.
  • Para uma compatibilidade sem desperdício de performance, a Navi poderia os seus 128 shader processors de cada CU como conjuntos de 2×64, o que quer dizer que face à arquitectura GCN anterior o número de instruções processada por ciclo passa de 2 para 4, mantendo as wavefronts em 64 como sempre aconteceu.

Perante estes 3 pontos, a dúvida que se nos coloca imediatamente é se o primeiro e o último não acabam por ser a mesma coisa. Ou seja se a referência às Alus adicionais etaria relacionada com a duplicação dos SPs por CU, ou se ela existe em cada SP.

Se aceitarmos que tudo isto estaria a acontecer em simultâneo, tal seria efectivamente uma quebra gigante face ao GCN, o que permitiria dizer que mesmo que a Navi continue na génese a ser uma GCN, é radicalmente diferente. E tal permitiria que este GPU de 20 CUs a 555 Mhz debitasse:

20*128*2*2*555*2 = 11.3664 Tflops

Um valor que, na prática, explorando-se devidamente as capacidades adicionais, e as novas tecnologias presentes no silicone, com software devidamente escrito, acabaria por se revelar bem mais eficiente do que o mesmo número na arquitectura anterior.

Apesar da total ausência de confirmação destas realidades, o número obtido certamente explicaria como esta Navi de 20 CUs e 555 Mhz estava a bater uma Vega 56 com 56 CUs a 1474 Mhz. Dai que a questão que fica é: será que há algum fundamento nesta informação que circula nos foruns, seja ela total ou parcial.

O certo é que se isso acontecer, e caso este GPU posso altingir velocidades de relógio mais altas, a AMD terá nas mãos um GPU que fará tremer a Nvidia.

 



newest oldest
Notify of
Bruno Ribeiro
Visitante
Bruno Ribeiro

Belo artigo.

No entanto, não entendo pk passas de *2 na original para *2*2*2 considerando que ja tomaste em consideração as 128 stream processors por compute unit.

Fazendo analogia a fórmula original, tens:

N. Dr compute units * n de sp por CU * velocidade de relógio * instruções por ciclo.

Assim seria:

20*128*555*4

Não?

Atualmente, na GCN, uma ALU constitui um SP. Na terascale, 5 ALUs constituíam um SP.

A questão que e preciso entender é: será que as próximas SPs terão duas ALUs, ou será que o número de SPs com uma ALU duplica por SIMD por compute Unit, ou até ambas.

Além disso… Apresentará a ALU alterações face ao que existe – que penso já foi mudado com a Polaris ou a Vega?

Curiosamente, a Sony, de acordo com rumores testou 4 PS4 Pro em simultâneo para uma demo de GT sport a 8k 120 FPS.

Ora duplicando tanto as instruções, como as SPs no GPU da o mesmo…

Brunoab
Visitante
Brunoab

vou comentar como eu acho possível ser verdade na parte PCs:

– a AMD “pulou” uma geração, que deveria ser a Radeon VII e virou uma GPU “requentava” GCN apenas para CGPU profissional e teve versão “gamer” usando as “sobras”, que foi a escolhe correta, conseguiu apoio de todo o playstation e só assim para alcançar a NVIDIA.

– “ain, como assim todo esse salto em cima das RTX mimimi”, pois claro… A RTX também é tapa buraco, a verdadeira RTX vai ser a 7nm+ que a NVIDIA já deixou engatilhada para competir com a NAVIs… Só serviu para dar uma amaciada no uso de RT e DLSS… Quando as RTX 7nm+ chegarem as tecnologias da RTX já vão ter mais suporte.

Sobre os consoles:

Se essa conta sobre a performance for a realidade da NAVI… nossa, o que teremos ai nos novos consoles? 40CUs a 1Ghz e 42TF? Oo 10x o PS4 PRO?

bom, negocio é esperar a AMD anunciar as NAVIs, se for 12TF com 20CUs e 555mhz e for realmente “escalavel” até 1GHz e 128CUs, vamos ter um monstro…

se a NAVI vai até 128CUs e 1GHz com aumento linear de performance baseado nessa GPU ai vazada….

128CUs 1GHz = ~140TF ?

é divertido especular, mas vamos ver quando a AMD apresentar a NAVI…

bruno
Visitante
bruno

Eu penso que se a estrategia e aumentar o numero de ALUs (ou SPs por CU) para o dobro, isso significa que nao se pode aumentar o numero de CUs. Porque o mais conveniente seria ate aumentar a quantidade de CUs.

Logo o teto maximo da Navi continua nos 64 CUs os quais, na nova formula, e numa velocidade de relogio igual a vega 64 chegam aos 34 Tflops (considerando *4 e nao *8). E imenso.

E deixa-me bastante animado, porque se esse e o topo de gama, entao 18 Tflops ficam no meio da tabela, na gama possivel para as consolas.

Marcelo Araujo
Visitante
Marcelo Araujo

A se confirmar tudo isso seria fantástico, a Nvidia precisa ser incomodada. Com a Intel também entrando no mercado de GPUs, a AMD precisa mostrar serviço. Mas o hype pelas Vegas e o que foi entregue pela AMD não me deixa tão esperançoso.

Eu ia perguntar a você Mário na notícia anterior da Navi sobre o que pensas da Vega 20, mas tinha desistido pelo fato de a publicação já ter alguns dias, mas aproveito essa nova oportunidade. Pela matéria que publicaste há algum tempo, tinhas grande expectativa pela Vega 20, mas o que realmente se teve foi algo bem aquém do que esperava na publicação que fizeste.

Fernando
Visitante
Fernando

O que eu realmente queria da AMD na próxima geração de GPUs, e isso envolverá os consoles, é que não tenhamos mais que ver uma placa AMD de 10,5tflops competindo com uma Nvidia de 5,4tflops e ganhando por 17% em alguns jogos específicos que utilizam mais recursos voltados a computação.

https://www.eurogamer.net/articles/digitalfoundry-2019-04-15-gtx-1660-ti-vs-vega-56-7001

Eu espero que a Navi seja competitiva em qualquer cenario, por que nessa geração já é dose ver a GTX 1060 de 4 tflops ganhando no comparativo do PS4 Pro e empatando com o Xbox One X de 6tflops, sendo que em alguns jogos até ganha.
Vai ser decepcionante se algum dos dois consoles novos que utilizarem AMD não forem bons o bastante para bater uma RTX 2060.

bruno
Visitante
bruno

OFF topic

Confirmados os specs da PS5.

Ultima Hora:https://www.wired.com/story/exclusive-sony-next-gen-console/

José Galvão
Membro

Significa que uma revelação não está muito longe, Mário tens que falar disto man! 😉

Edson
Visitante
Edson

Um monstro!

Fernando
Visitante
Fernando

Muitos dos rumores vazados no resetera são verdadeiros até aqui. CPU Zen de 8 cores, GPU Navi, Ray Tracing e SSD.
Ficamos a espera da confirmação dos numeros de potência e quantidade de memória RAM.
Chuto entre 10-11 Tflops. Pode parecer perto do Stadia mas na arquitetura Navi, se conseguiram eficiencia do nivel da Nvidia, vai ser muito melhor que a Vega 56 do Google.

Livio
Visitante
Livio

O que me preocupa é esse SSD proprietário da Sony, espero que não impeça que o usuário faça o upgrade do armazenamento interno.

Ahh e teve gente que estava especulando que o PS5 não teria RT, mas o novo Xbox sim.

Só falta depois soltarem que será 12TF+

Fernando Molina
Visitante
Fernando Molina

O que me preocupa é o preço, espero que eles consigam tudo isso por no máximo $500,00, e imagina no lançamento aqui no Brasil, medo

Fernando
Visitante
Fernando

Oficialmente, acho que é a primeira vez que alguem da Sony manifesta algo em relação ao ray tracing, ao contrario da Microsoft que é uma das maiores entusiastas da tecnologia e estava muito facil adivinhar que fariam algo nesse sentido.
Essa revelação sem muita pompa me pareceu um movimento apressado. Acho que foi pelo fato da Sony estar muito fora dos holofotes nesse ano deixando a e3 de lado. Provavelmente eles se anteciparam para que a Microsoft não ganhe muita visibilidade na E3 quando eles falarem do novo Xbox. Para as pessoas se lembrarem de que também tera um PS5 no ano que vem e ele também tera todas as tecnologias que a Microsoft anunciar.
Foi inteligente e calculado. A unica informação surpreendente foi o apoio ao RT mesmo e ela nao seria surpreendente se fosse falado pela Microsoft.
Sobre a questão do 8K, me pareceu conversa para leigo. A não ser que eles etejam escondendo um console de 24tflops.

bruno
Visitante
bruno

Concordo na parte do movimento apressado. Eu tambem achei estranho uma revelacao destas, nesta altura. Fiquei desiludido com os 8 cores do Zen. Tendo em conta a area ocupada pelo chiplet do zen 2, poderia ser mais. E algo que muito facilmente sera ultrapassado quando temos ate a intel a entrar no campo dos CPUs desktop com mais de 8 cores. Sobretudo porque recentemente foi anunciada uma solucao que usa IA para distribuir threads pelos Varios cores de um CPU. Imagino que nos proximos anos o preco descera bastante.

Hoje, os 8 cores parecem ser muito e serao sem duvida um grande avanco face ao Zen, mas nos proximos anos, temo que ficara ao nivel de um CPU meia gama, semelhante ao core i5 de hoje.

Sobre os 8K tambem achei estranho, sobretudo porque nao ha possibilidade nenhuma de isso se tornar padrao na proxima geracao. Nem o 4k, foi a revolucao que se esperava quantos mais os 8K. O porque de falar nisto agora perde-se me completamente. Mas ha rumores que apontam para upscaling em todos os titulos semelhante ao que a Xbox ONE S faz, pode ser isto.

O Ray tracing era algo que eu esperava e pelas palavras dele.. imagino que podera haver hardware dedicado no meio, apesar de o hardware dedicado nao ser uma necessidade para haver raytracing.

O mais surpreendente foi a revelacao que confirma a minha suspeita: o raytracing poder utiizado para muita, mas mesmo muita coisa para alem da luz. Tens audio e poderas ter muito, muito mais, a nivel deinteratividade com o cenario.

Mario, recordas-te quando me disseste que o GPU era cego face ao mundo? E se com um chip dedicado a RT deixar de o ser?

Mas isto e apenas especulacao da minha parte.

Por ultimo, esta revelacao sem duvida e para diantar-se ao que ira ocorrer na proxima semana em que o Navi sera revelado ao mundo.

bruno
Visitante
bruno

O engracado das utopias e que andam constantemente em mudanca.

Basta ver que ha um ano atras, o Raytracing em PCs era uma utopia e hoje tens a RTX. Que uma demo que precisou de 3 GPUs para rodar a 1080 e 24 fps, consegue hoje ser rodada a 1080p e mais fps.

E ontem soubemos que a PS5 ira suportar Raytracing e nao so: pelas palavras de Cerny o seu suporte nao se limitara a maquiagem, mas a permitir identificar objectos no mundo do jogo ajudando por exemplo, ao audio 3D. Alias, o facto de ele ter estabelecido a relacao direta entre raytracing.

Ora o Raytracing nas consolas tb podia ser considerado uma utopia antes de ontem. E hoje e uma realidade. O mesmo para um SSD nas consolas que hoje, sabemos, sera uma realidade.

O multinucleo esta a chegar em forca aos PCs e muito rapidamente o standard serao mais que 8 nucleos. Nao me espantaria nada a AMD ter uma surpresa de 32 cores preparada para o Desktop.

O que prevejo ocorrer nos proximos dois anos e uma resposta da Intel que ira forcar a AMD a baixar precos. Mais de 8 cores sera uma necessidade muito em breve.

bruno
Visitante
bruno

Eu nao me refiro, e muito menos a nVidia, a aplicacao loclizada e esporadica de Raytracing para certos efeitos. E muito menos o Mark Cerny. Isso ja existe desde a era PS3, pelo menos nas consolas, como bem dizes e pelos exemplos que das. Ate te digo mais, penso que ha seccoes em Uncharted 4, na cena flashback, no capitulo do assalto a casa da arqueologa, em que a luz da lanterna usa raios.

Refiro-me ao uso de raytracing na construcao da cena em tempo real. E isso que a RTX faz, ou pelo menos, e esse o objectivo da nVidia. Baseado no conceito introduzido pela Imagination Tech com os GPUs wizard, que assentavam no gerar da cena por rasterization e raytracing em simultaneo.

E isto, todos os sistemas o podem fazer, mas as benchmarks sao claras – sem a aceleracao por hardware, o peso na performance no hardware que nao possui unidades dedicadas, e enorme.

Se bem te recordas,tu mesmo duvidaste que o suporte raytracing em hardware dedicado alguma vez chegasse as placas PC. Chegaste mesmo afirmar que nao estavas a ver a adocao de raytracing para graficos em tempo real a nao ser para modelacao. Era a tua opiniao, era uma opiniao fundamentada, e era a opiniao de muita gente.

E depois a nVidia aparece com as RTX.

E neste sentido que eu refiro que o Raytracing era uma utopia, e depois deixou de o ser. O mesmo para o SSDs.

Sobre a quebra de performance, foi a primeira iteraccao num tecnologia completamente nova. Mas depois de varios meses, ha opinioes que a performance dos RT cores, a nivel individual deixa a desejar face ao hardware dedicado que a Imagination Tech implementou nos Wizard.

Ou seja, ha margem para melhorar a nivel de hardware.

Agora, nao faz sentido teres o arquiteto chefe da PS5, por-se a falar de hardware referir o raytracing e assumir que isso sera apenas algo secundario para maquiagem.

Sobretudo quando o mesmo senhor vai mais longe nessa entrevista e refere que o raytracing ira permitir, entre outras coisas, melhor localizacao dos objectos e processamento de audio (o ele refere mesmo os raios para o audio), para alem das vantagens da iluminacao.

Tendo em conta o que se sabe de The last of Us e os sistema de raios para iteraccao com os objectos (cortesia do cell – que muita gente tambem referiu ser bastante apto para raytracing no Beyond 3D), nao se deve assumir que o raytracing so conta como maquiagem quando, repito, pode contribuir para melhorar e muito a iteraccao do jogador com o mundo.

Pelas palavras do Cerny, nao e apenas um gimmick que e giro e por isso o puseram la – e uma caracteristica que querem usar para redefenir o a experiencia do jogador.

E precisamente pela ameaca do streaming que acho que a aposta em mais de 8 nucleos e vital. Como ja referi, a guerra esta acesa entre Intel e AMd e nos proximos anos antevejo uma descida bem grande no preco por numero de nucleos com os 8 nucleos a substiuirem possivelmente os 4 nucleos ou equivalente ao core i3 (na Intel).

Isso signfica que, apos mais de duas geracoes a lidar com 6 cores exclusivamente para jogos, seria necessario investir em mais cores para fazer estes sistemas aguentarem-se mais.

A aposta no multicore no PC comecou e sobre o aproveitamento, basta certas empresas como a Google pagarem para isso.

bruno
Visitante
bruno

Eu nao digo que ele disse que iria revolucionar a experiencia. Eu digo que vai revolucionar a experiencia baseado no que ele disse sobre o som.

O que eu disse e que pelas palavras do Cerny, o RT e uma caracterisitca que querem usar para revolucionar a experiencia do jogador. E uma deducao das palavras dele nao uma descricao do que ele disse.

Achas que o uso do Ray tracing para calcular fontes do audio e refraccao do mesmo, e uma coisa sem importancia?

Do artigo do Wired.. original, onde foi feita a entrevista.

Diz o seguinte:

“Ray tracing’s immediate benefits are largely visual. Because it mimics the way light bounces from object to object in a scene, reflective surfaces and refractions through glass or liquid can be rendered much more accurately, even in real time, leading to heightened realism [basicamente, o que tu descreveste ate agora para luz, sombras e reflexos, mas a seguir a parte interessante]. According to Cerny, the applications go beyond graphic implications: ‘If you wanted to run tests to see if the player can hear certain audio sources or if the enemy can hear the players’ footsteps, ray tracing is useful for that” he says “It’s all the same thing as taking a ray through the environment'”

Em PT:

“Os bebenficios imediatos do raytracing sao largamente visuais. Porque imita a forma como a luz se desloca de objecto para objecto numa cena, surpeficies reflexivas e refraccoes atraves do vidro ou liquidos podem ser renderizadas de forma mais exacta, ate em tempo real, levando a um realismo elevado. De acordo com Cerny, as aplicacoes vao alem do grafismo: ‘Se queres correr testes para ver se o jogador pode ouvir certas fontes de audio ou se o inimigo pode ouvir os passos do jogador, o ray tracing e util para isso” diz ele ” E tudo a mesma coisa ao levar o raio pelo ambiente'”

Entendes o que as palavras dele implicam?

O raytracing permite-te calcular em tempo real com base na posicao dos elementos da cena a forma como o som chega a cada um deles. Ele da um exemplo muito pratico usando o som que o o jogador pode ouvir num dado momento… e a possibilidade de deteccao do jogador devido ao som que este faz (o que contribui para uma melhor IA, isto e, ajuda a IA a reagir mais realisticamente ao jogador).

Tudo isto, nao se baseia em calculo de som, mas de distancia entre objectos na mesma cena, avaliando inclusive a natureza dos obstaculos, permitindo reaccoes adequadas do cenario. Tudo com base no percurso dos raios emitidos. Agora extrapola isto para iteraccao entre objectos como projecteis e detritos, ou ate dano. Estas a ver onde isto vai dar? Ricochetes realistas, melhor avaliacao do dano…

Tudo isto pode ser aplicado a fisica, IA, iluminacao, reaccao do ambiente a passagem do jogador (durante a deslocacao), dano no cenario…

Se nao achas que isto pode ser uma revolucao completa na experiencia do jogador, nao sei o que sera… mas ja tiveste um outro exemplo, com The Last of Us em que o mesmo foi usado para localizar objectos com os quais o jogador poderia interagir, podendo seleccionar um entre varias opcoes em simultaneo! E que tal iteraccoes entre objectos ao cair?

Ou seja, estamos perante algo que revoluciona a iteraccao do jogador com o mundo! e pode revolucionar a fisica de colisoes!

Sobre a performance do RT, o que tiveste, mais uma vez, foi uma primeira iteraccao por parte da nVidia.

Que o RT existe ha anos isso e evidente. Ele nasceu com a rasterizacao e nunca pegou porque a rasterizacao e mais rapida. Alias, chegaste a ter no inicio processadores dedicados a RT unicamente, pelo que o hardware dedicado ja existiu antes disto.

Agora o que acho que se falha em compreender e que o raytracing nao e apenas uma cosmetico que se aplica sobre a cena – e uma alterntiva a rasterizacao e um processo de construcoa da Cena 3d e dos objectos completamente distinto que implica uma pipeline propria!

A iniciativa da imag. Tech. foi criar um GPU hibrido, o primeiro na historia, que tivesse hardware capaz de rasterizacao e raytracing combinando os dois e reduzindo os dois ao trabalho que cada um faz bem.

O que tens de entender e isto: a construcao da cena por rasterizacao e um processo que esteve em voga ha decadas e esta altamente optimizado com nucleos capazes de o fazer facilmente. O Ray tracing nao teve a mesma evolucao porque o hardware dedicado ao mesmo nao e produzido ha imenso tempo!

Dito isto… tens nas atuais RT uma pipeline preparada para rasterizacao onde puseram uns pequenos nucleos para acelerar os calculos de colizao (de acordo com o tipo da 4A Games e isso que os RT cores sao). E uma primeira iteraccao da tecnologia e ha relatos que a performance destes sao pior relativamente ao que a IMag tech apresentou 2 anos antes.

Que eles sao essenciais, sao porque como estamos a ver a sua ausencia piora a performance. Mas isso nao significa que possam haver melhorias. Ter hardware dedicado e sempre melhor que nao ter, e no fundo o que ha e um equilibrio entre a performance que esperas do raytracing e da rasterizacao.

Uma coisa e certa, nao ter RT cores ou hardware especializado nao e insignificante, e se falas que um sistema vai suportar RT, tens que teres alguma coisa que acelere o seu processamento.

bruno
Visitante
bruno

Eu sei disso Mario..

O problema e que pareces pensar que isso so serve para gimmick cosmetico, e parece-me, que nao consegues ver as vantagens que isso pode trazer.

Pensa na informacao que e recolhida por esses raios. E pensa no que poderas fazer com isso.

O exemplo do Cerny e bastante revelador, porque e uma aplicacao da informacao obtida desses raios na gameplay. neste caso para o calculo do som com base na distancia e nos obstaculos e forma de reaccao dos objectos no cenario (neste caso, os inimigos) a essa informacao.

Isto e algo que revolucionaliza a gameplay completamente, ou nao achas? Muito longe de ser uma coisa bonitinha para mostrar reflexos melhores, digo eu.

Alias, o uso dos lasers em TLoU e um exemplo que de como podes usar os raios para outra coisa que nao o calculo da luz, mas calculo de trajectorias de objectos em movimento por exemplo, e reactividade (ou ricochete). Mais uma vez, algo que afecta e aumenta a interactividade entre jogador e mundo.

O que tens que ver e o seguinte: cada um desses raios e um ponto num objecto do cenario (o Ponto onde ha colisao do raio com a posicao do objecto). Numa cena puramente ray tracing terias o objecto a ser formado pelo conjunto desses pontos ao inves de triangulos como na rasterizacao.

Agora pensa – tens o GPU a calcular as colisoes e a ter essa informacao que basicamente te diz onde esta cada objecto. Sera que isso nao torna o GPU capaz de ver os elementos no cenario?

Tal como no inico os shaders eram apenas valores de cor e depois se tornaram em algo mais (dai os shader programs) em que o que se fez foi usar o calculo e os valores obtidos para outros fins.

E disto que eu falava quando digo que pode revolucionar a experiencia do jogador.

bruno
Visitante
bruno

Neste momento ha informacao que comprova que a ausencia de hardware dedicado conduz a perdas significativas de performance, versus a presenca, no caso do RT. Tens benchmarks que falam de perdas ate 40% ao processar os efeitos RT sem unidades dedicadas a isso.

Alias, o que sao GPUs que nao unidades dedicadas ao processamento grafico? Sempre foi uma regra basica que ter hardware dedicado acelerava os processos e isso continua a ser verdade no caso do RT.

Num sistema fechado como uma consola, afirmar que a mesma suportara RT e nao implementar aceleradores no hardware parece-me um risco enorme.

bruno
Visitante
bruno

De resto, vais me desculpar mas nao e justo dizer que o surgimento de hardware especializado para RT em GPUs nao foi uma surpresa, quando ando aqui neste site a propor isso mesmo, e tu proprio me disseste que o Ray Tracing nunca seria uma aposta por ser demasiado penalizador. Foi na altura dos artigos, em 2017 ou 2018, sobre o lancamento das novas consolas este ano.

Alias, quando falamos na altura, e estavamos a discutir as datas, eu expressei preocupacao sobre a ausencia do tal molho secreto, de uma caracterisitca do hardware que estivesse para a nova geracao como o GPGPU esta para a atual. E dei como exemplo, a renderizacao hibrida proposta pela Imag Tech.

Atencao que o ray tracing foi so um exemplo, para ilustrar uma tecnologia inovadora ou uma nova forma de fazer as coisas.

E depois quando a nVidia apresentou o RT e a MS o DXR, com as demos de grandes estudios, continuaste a negar que o RT chegasse sob a forma de hardware personalizado. Escreveste mesmo um artigo a comentar sobre o facto das demos usarem 3 placas volta para correr a 1080p e que seria algo impossivel na atual geracao.

E eu voltei a carga relembrar-te que uma nova arquitetura (porque era nisto que eu andava a insitir a ausencia de novidades a nivel de arquitetura que justificassem uma nova geracao), poderia correr a demo num unico GPU e que isso ja tinha ocorrido muitas vezes antes.

E pouco tempo depois tiveste as RTX a serem lancadas e a correrem essas demos num unico GPU.

Eu relato isto com um unico porposito…

O RT ou pelo menos o correr dessas demos num unico GPU.. eram tudo utopias a data em que estavamos a discutir. Mas deixaram de o ser e muito rapidamente.

Os SSDs, tens toda a razao, mas o que dizes nao invalida o que eu afirmo – que eram uma utopia quando analisavamos a situacao em 2017 e hoje sao uma realidade confirmada.

Logo, porque considerar mais que 8 nucleos uma utopia? O mercado reage a concorrencia e o que eu vejo neste momento e uma aposta em mais de 8 nucleos por parte das duas maiores fabricantes de processadores para PC. Neste momento tens os 12 nucleos como uma realidade a subtituir os anteriores 8 nucleos da geracao passada e a relegar o 8 nucleos para o lugar do core i5 da anterior geracao. A intel nao ficara quieta, e a AMD sera obrigada a tornar-se competitiva porque a performance por nucleo continua a ser pior.

Digamos que sao uma utopia hoje, mas apenas porque e hoje.

Voltando ao RT, acho que a unica coisa que mantem a tua opiniao e a atual performance da nVidia.

Eu so acho que o Cerny nao andaria ali a falar de ray tracing se nao tivesse o intuito de o implementar. Porque seria o mesmo que mentir. E falamos de sistemas que tem que durar varios anos e terao que concorrer com as placas de amanha.

bruno
Visitante
bruno

Eu nao estou a dizer que a existencia de hardware dedicado a RT tenha sido uma novidade para ti, ou sequer que desconhecias que se podiam fazer hardware dedicado a RT.

Estamos a discutir sobre o facto de o RT adoptado pelos jogos e estudios em massa seria ou nao uma utopia antes de o DXR ser anunciado.

Estou a dizer que a adocao de hardware dessa naturexza no mercado PC, capaz de rodar as demos que a nVidia apresentou com RT antes de apresentar a linha RTX, era uma utopia antes de serem anunciados. Ou ate mesmo, sequer a adocao de RT pelo DXR antes de ser anunciado.

O ponto e: tudo isto eram utopias ate ao momento em que aconteceram e como tu mesmo admites quando dizes que a incorporacao de hardware especializado te apanhou de surpresa, tu mesmo duvidavas que isso viesse a acontecer.

E esse o ponto que estou a falar.

Sobre os RT cores ser gimmick ou nao, o que sei e que sem eles a perda de performance e ainda pior, para as pequenas adopcoes que ja existiram, como o comprovam as benchmarks. Alias, e regra geral da informatica que o haver hardware dedicado para um proposito acelera o processamento desse codigo.

Por outras palavras, RT calculado por software sera sempre pior (
= pior performance) que o RT auxiliado por aceleradores no hardware. E isso que os Tensor cores e mais especialmente os RT cores sao. Volto a relembrar que o que precisou de 3 placas para ser processado, conseguiu ser processado so com uma com a introducao do hardware especializado.

Numa consola aceleradores deste tipo sao essenciais e por isso, duvido seriamente e que nao aparecam. Sobretudo porque o RT permite libertar imensos recursos da pipeline de rasterizacao, utilizados para as luzes cozinhadas. Agora serao Rt cores e proposito especifico ou algo mais versatil e aberto nao sei, so acho que se o Cerny falou no suporte ao RT, indo ao detalhe que foi, na seria para chegar ao fim e nao ter qualquer tipo de aceleracao incorporada.

Sobre os nucleos: a placa da PS4 foi lancada origincalmente na ronda dos 350$. Tiveste essa placa e os CPUs a 100$ na PS4. Para um preco de 500$, mantendo todos os outros custos iguais, poderias incrementar o custo dessa APU a 200, sem perdas ou 300 com perdas.

O que estou a dizer e que tendo em conta o panorama atual, antevejo uma enorme competicao Intel e AMD neste segmento que levara a uma descida de preco.

Neste momento os 16 cores estao a 500 e os 12 cores a 400 (pelo menos de acordo com os leaks).

Mas uma arquitetura ultrapassada (o zen 3 chega no proximo ano) podera levar a descidas de preco, com a competição da Intel. Imagino por isso que