Terá a Xbox série X problemas de gargalos com a sua memória?

Declarações recentes dão a entender que a configuração de memória da série X  poderá ser bastante problemática com a manutenção da largura de banda. Daí que resolvemos analisar.

NOTA: Artigo alterado a 09/04/2020 e 10/04/2020 dada a presença de novos dados.

Honestamente quando ouvi que a Xbox tinha 10 GB de RAM a 560 GB/s e 5 GB a 336 GB/s, numa mistura de chips de 2 e de 1 GB não fiz qualquer conta para verificar como seria a configuração desta memória. Mas agora que a situação está a ser referido como potencialmente problemática debrucei-me um bocado sobre a mesma e que vi mostra que realmente poderemos estar aqui com uma situação que pode ser um gargalo às larguras de banda, e consequentemente às performances do GPU.

Ora quando pensei em 10 GB a 560 GB/s e 6 GB a 336 GB/s, o que imediatamente me veio à cabeça foi que a consola teria os seus chips de 2 GB, e os seus chips de 1 GB montados em canais com largura diferente. Mas a questão é que sendo a combinação chips de 2 GB e de 1 GB, para se conseguir essa combinação de memória só havia duas hipóteses:

5 chips de 2 GB + 6 chips de 1 GB – Totalizando 16 GB (10+6)
10 chips de 1 GB + 3 chips de 2 GB – Totalizando 16 GB (10+6).



O problema é que nenhuma destas configurações é possível! Porque tanto uma como outra estavam a usar um número ímpar de chips.

Olhando para mais dados, foi possível saber-se que a Xbox série X usa um total de 5 controladores de 64 bits cada um para gerir a memória. E assim sendo, a configuração fica um bocado estranha e acima de tudo limitativa.

5 controladores de 64 bits, permitem no máximo ligar 10 módulos de memória. Fui então pesquisar fotos da consola, para confirmar isso:

Como vemos a consola possui 3 módulos de cada lado e 4 módulos no topo. Um total de 10.

Dado que tanto o número de chips de 2 GB, como os de 1 GB tem de ser par, e o número de chips é apenas 10, a única solução que nos permite 10 GB + 6 GB usando módulos de 2 GB e de 1 GB implica o uso de 6 chips de 2 GB mais 4 chips de 1 GB.



Estranho, não é? Mais estranho vão achar quando virem o tipo de ligações a que isto obriga com 5 canais de 64 bits (320 bits). Note-se que a posição dos chips não é forçosamente esta, mas tal é irrelevante, sendo que por uma questão de organização até se acredita que seja.

E então como é que isto funciona? De uma forma extremamente incomum.

Para se conseguir os 560 GB/s, os chips de 2 GB são acedidos apenas pela metade. Ou seja, o primeiro 1 GB. Sendo no total 10 chips, ficamos com 10 GB, acedidos todos a 32 bits, ou seja, 10 GB num bus de 320 Bits (32+32+32+32+32+32+32+32+32), ou 560 GB/s (56 GB/s fornecido por cada módulo de memória GDDR 6 14 mbps).



E os restantes 6 GB? Acedendo ao GB adicional dos módulos de 2 GB.

Estamos então com um bus de 192 Bits (32+32+32+32+32+32), o que nos dá os referidos 336 GB/s. (56 GB/s*6 modulos)

Mas e então qual é o problema que existe aqui?

Se olharmos para os quatro módulos de 1 GB presentes no topo do Chip, vemos que eles estão apenas dedicados à pool de 10 GB (o termo pool não é o mais correcto para aqui, uma vez que não há separação física da memória, mas como simplifica muito a escrita irei usa-lo). Com estes 4 chips a debitar 56 GB/s cada um, eles sozinhos debitam uma largura de banda de 224 GB/s. Tomem nota deste valor.



Ora os módulos de 2 GB também debitam 56 GB/s cada um (e o serem de 2 GB não altera isso pois a largura de banda é por módulo, independentemente da capacidade, e esse é o motivo porque se usam mais módulos e não módulos maiores quando se quer largura de banda). O problema é que nos dois casos de cima temo-los a usar os canal de 32 bits na sua totalidade e a debitar os 56 GB/s para ambas as pools. E isso nunca acontecerá! Na realidade a largura de banda do módulo (56 GB/s) e os canais 32 bits que vemos nas imagem de cima são os mesmos para as duas pools. E assim sendo, na realidade o que ali está são valores teóricos máximo de cada uma delas. mas não os valores reais. Na pratica tanto os canais como a largura de banda serão divididos entre a pool de 10 GB e a pool de 6 GB.

Qual a largura de banda que temos então? Bem, estes 10 chips, ao debitarem 56 GB/s cada um, garantem ao sistema um total de 560 GB/s. E isso será o valor que teremos a qualquer altura. Mas a questão é que isso não acontecerá em cada uma das duas pools, mas sim na soma das duas.

Explicado de outra forma, ao dividirmos a largura de banda dos modulos de 2 GB pelas duas pools o que temos é que estamos a dividir 56 GB/s que cada um debita pelas duas partes da memória. Isto porque o canal é o mesmo.

Resumidamente a largura de banda de cada uma das pools é variável, consoante a utilização, sendo que quando se acede à memória lenta a largura de banda da memória rápida diminui.

Os casos extremos ocorrem então quando nem sequer se usam os 6 GB. Nesse caso a largura de banda disponível na pool dos 10 GB será 560 GB/s  pois os chips de 2 GB debitarão a totalidade dos seus 56 GB/s para ela.



Mas com o uso dos 6 GB adicionais a largura de banda da pool de 10 GB diminui, pois os chips passarão a dividir a largura de banda pelas duas pools.

Esta é uma relação que pode chegar ao extremo onde se usam os 366 GB/s na pool de 6 GB, caso onde a pool de 10 GB ficará restrita a 244 GB/s.

Porque este valor de 244 GB/s? Bem, para além de ser a diferença para 560GB da largura de banda dos 6 GB, este é o valor debitado pelos quatro módulos de 1 GB que apenas trabalham na pool de 10 GB e que vos pedimos para tomarem nota em cima.

Resumidamente, o total das duas pools mantêm-se sempre inalterado e em 560 GB/s, mas a largura de banda de cada uma das pools altera conforme se usa ou não a outra.

Basicamente o que isto altera face a uma situação normal presente nos GPUs. Por exemplo, a PS5, apresenta 448 GB/s sem esta divisão, ou seja um valor constante em todos os 16 GB de RAM?



Mas aqui, como viram a largura de banda de cada pool e variável. E isso quer dizer que para manterem os 560 GB/s ou não podem usar os 6 GB adicionais de RAM, ou se os usarem tem de ler dados das duas pools em simultâneo usando a sua largura de banda ao máximo, de forma a que a soma das duas seja 560 GB/s.

E isto é extremamente complexo dado que o uso da RAM pelo CPU e GPU não é constante criando assim igualmente variações constantes na largura de banda de cada uma das duas pools.

Ora isto torna-se difícil de gerir dado que para se manter uma largura de banda elevada há que se ler dados das duas pools em simultâneo. Mas sendo o débito de cada uma variável, torna-se difícil fixar as velocidades de transferência.

Por outras palavras, manter os 560 GB/s estáveis é um problema!

Para que se perceba como a situação varia nos casos intermédios, vamos acrescentar alguns dados novos.



Na realidade, a GDDR6 fornece dados a 16 bits, tendo dois canais de ligação com esta capacidade. Isso quer dizer que os canais acima referenciados como 32 bits são na realidade 2 canais de 16 bits. Uma situação que nada altera a questão dos módulos de 1 GB, mas altera a questão dos módulos de 2 GB, ao permitir aceder aos 10 GB em simultâneo com os 6 GB.

Assim a esquemática passará a ser a seguinte:

Estes dois canais de 16 bits ora acederão os dois ao 1 GB inicial, fornecendo este esquema já referido:



Ora acederão os dois aos 6 GB, fornecendo o restante esquema já referido:

Mas numa situação normal, com acesso a ambas as memórias, o esquema será então o de baixo:

Aqui os 4 módulos de 1 GB de cima debitarão sempre 224 GB/s fixos para a pool de 10 GB, mas os módulos de 2 GB debitariam a sua largura de banda de forma dividida para ambas as pools, ou seja 28 GB/s máximo para cada uma.



Consequências disto? Bem, a realidade é que ao existir acesso à memória superior, independentemente da largura de banda que se puxe, há 6 canais de 16 bits que são desviados para lá, e que vão roubar largura de banda à memória rápida. Sendo que os 6 GB vão alojar o sistema operativo, os acessos, mesmo que baixos vão existir, pelo que garantidamente o que os programadores podem contar como fixo são 392 GB na pool de 10 GB, e 168 GB/s na de 6 GB. Ou seja, os 560 GB/s são apenas o valor teórico na pool rápida, sendo na realidade o valor total das duas pools.

No fundo, não é uma solução ideal a nível de largura de banda, pois essa só existe se não se usarem os 6 GB, mas pelo menos com estes valores sabe-se com o que se contar a cada momento. Diga-se que o outro caso intermédio aconteceria se as solicitações aos 6 GB ultrapassassem os 168 GB/s, o que obrigaria a que a totalidade dos canais 16 bits fossem desviados para aí, deixando os 10 GB com apenas 244 GB/s. Mas dado que esta memória é usada pelo sistema operativo que tem poucas exigências, só deixando 2.5 GB a uso para os jogos, é praticamente impensável que se passe alguma vez os 168 GB/s, pelo que o caso de cima com 392 GB/s e 168 GB/s deverá ser mesmo o mais comum.

Seja como for,  nesta fase é muito cedo para se perceber se isto poderá se revelar como um gargalo na memória ou não (daí o título ser uma interrogação), mas há muitos indícios que apontam que sim.

O mais forte de todos eles é que que esta solução da Microsoft não é novidade! A Nvidia já a usou nas sua Geforce 650 Ti e 660 Ti, e os resultados quando a memória mais lenta entrava a uso (que na altura era uma percentagem bem menor da total) eram extremamente penalizadores na performance. A largura de banda caia tremendamente e a placa sofria, tal como aqui é referido.

Ora aqui nesta caso estamos perante a mesma situação, mas com duas diferenças. É que a memória afectada é significativa face à memória total, pelo que dificilmente ela não será usada. e dado que o sistema operativo vai ficar nos 6 GB, mesmo que os acessos a esta ram aconteçam pontualmente, quando acontecerem a largura de banda dos 10 GB cai para 392 GB/s, e como tal, para que não hajam engasgos súbitos nos jogos, esse será o valor garantido com que se pode contar.



Nesse sentido prevê-se aqui um problema, um gargalo nas performances. Mas não se querendo ser bitaiteiro, e reconhecendo-se que não se conhece ainda tudo sobre as consolas, não vamos afirmar que ele existe. Quem sabe a Microsoft não implementou algum tipo de gestão que resolve este problema?

Daí que a questão fica como uma interrogação e serve o artigo para introdução ao tema. Se um dia esta situação se revelar relevante, retomaremos esta conversa.



79 Comentários
Antigos
Recentes
Inline Feedbacks
Ver todos os comentários
Edson
Edson
2 meses atrás

Bom dia! É um off topic, mas algo está estranho! Estão saindo pessoas grandes na The Coalition, Phil elogiou o trabalho que a The Coalition fez, ajudando a The initiative, com recursos técnicos, ensinamentos de tecnologia, no possível game do The Initiative, etc… O site do The Initiative não está atualizando há tempos e no linkedin, que eu sempre acompanhava o estúdio, onde eles estavam com umas 40 e poucas pessoas, o link da página saiu! Drew Murray, líder de design contratado pela MS para trabalhar no The Initiative, ex Insomniac e sempre ativo no Twitter, ainda está linkado no Linkedin. Onde quero chegar? Posso estar enganado, mas creio que as 40 pessoas do The Initiative estão se juntando ao The Coalition, e se bobear, Darrel Galagher, head do The initiative, assumirá o The Coalition, pela minha teoria.rs Eis o link do Drew Murray no linkedin e veja que o nome The Initiative está lá na página dele, mas agora sem link ou foto com a Logo. https://www.linkedin.com/mwlite/in/monsterdrew101

nETTo
nETTo
Responder a  Edson
2 meses atrás

Eita

Esquisito pensar nisso, o estudio foi formado para entregar e segundo a Microsoft jogos “AAAA”, visto que a Microsoft tem vindo a público deturpar os conceitos já pré estabelecidos de “triplo A” chamando tanto State of Decay 2 e ORI 2 de AAA, títulos que passam longe de grandes orçamentos e grandes equipes, apesar que no caso de Ori 2 com muita qualidade. E eu também tendo visto que a equipe da THE INITIATIVE ficou ali com seus pouco mais de 40 colaboradores e vem vc me referi tal coisa.

SERIA UMA BOMBA NEGATIVA, visto que a antiga Black Tusk, atual The Coalition já tinha projetos próprios e os teve de cancelar pra passar a cuidar de GEARS, agora +1 studio que iria trabalhar em títulos inéditos sendo movido pra também cuidar de GEARS? tenso, tomará que sejam apenas boatos

Edson
Edson
Responder a  nETTo
2 meses atrás

Pelo head do estúdio, encontra o The initiative! Está tudo muito estranho!

AlexandreR
AlexandreR
Responder a  nETTo
2 meses atrás

Poderá ser a segunda equipa de The coalition. A Naughty dog tem 2 equipa…

AlexandreR
AlexandreR
Responder a  Edson
2 meses atrás

A criação do estúdio, The Initiative, poderá não ter corrido como esperado.
Basicamente não é só criar um estúdio e começar a fazer jogos, creio eu.

Fred
Fred
Responder a  Edson
2 meses atrás

Eitaaa! Faz sentido, The Iniative será fechada e as as pessoas remanejadas para The Coalition.

Fernando Medeiros
Fernando Medeiros
Responder a  Edson
2 meses atrás

Ainda ontem o Phil Spencer falou na iGN sobre o jogo da the Initiative e a pouco tempo postou foto de visita ao estúdio e de que estava jogando o game deles. Mesmo que eles sejam fundidos a Coalition, isso não é uma bomba. Eles podem muito bem ter pego o IP da antiga Black Tusk para trabalhar nele, o projeto foi arquivado para dar preferência a Gears e nesse momento a The Coalition é a empresa com melhor conhecimento do Unreal Engine fora da Epic, aliás, esse estúdio é o maior colaborador da Epic no desenvolvimento do Unreal Engine. Eles trabalham tanto em Gears quanto no suporte a outras equipes que usam a Unreal dentro dos estúdios da Microsoft.
No final, seria interessante se eles virassem a Coalition Santa Monica.

Shin
Shin
2 meses atrás

Sistema e data fabric
6GB 336GB/s

GPU
10GB 560GB/s

Como a GPU pode ter latência usa a parte 2 mais longa, os demais mais curta.

Isso significa que não tem coerência, então da mesma forma que dados de um sistema UMA precisam ser recopiados aqui funciona da mesma forma os dados são movidos da baixa largura para a alta largura. Por motivos de compatibilidade retroativa, os 336GB/s são coerentes através do do North Bridge funcionando de forma similar ao One X ou PS4pro. Então quando a GPU fareja o SSD ela usa os 6GB 336GB/s, quando roda framebuffer usa os 10GB 560GB/s.

Agora a real se olhar o SoC poderá notar que a GPU tem o mesmo cache de reserva que a RX5700XT. Portanto, a GPU está conectada a 256bits diretamente acessando 8chipsx56=448GB/s mas eles estão me dizendo que tem 10chips disponíveis, a razão é o infinite fabric que permite eles extender este acesso a todos chips.

Então a maior parte do tempo a GPI tem 448GB/s e quando ela precisa de um pouco mais, conta com 56GB/s, já o CPU ele não precisa de mais de 56GB/s pois acessa a 32bytes ciclo.

Eu não diria que é um gargalo, chip tem 7WGP por grupo de cache, sendo 2 ativados 6WGP total 52CU.comment image

A idéia era ter o máximo de computação dentro do mínimo de espaço de memória.

bruno
bruno
Responder a  Mário Armão Ferreira
2 meses atrás

Ha contudo uma outra hipotese. Os 3.5GB utilizados pelo SO serem dos 6GB mais lentos… e resevarem-se 4 chips para isso… e os restantes 10 GB serem acedidos a maior velocidade. E demasiado cedo para se perceber se efectivamente havera ali problema. Mas teria gostado que tivessem isolado mais as duas memorias.. nao percebi essa decisao da parte deles, quando ja nesta geracao foi possivel colocar chips de memorias em lados distintos do PCB.

Sinceramente, e cada dia uma desilusao com estas consolas (e incluo a PS5 nisto). A minha opiniao e esta: tiveram tanta pressa em lancar, vao perder o comboio devido a fraca adocao e acabaram com hardware nada impressionante.

Recordo apenas que neste caso, nao necessario ter a divisao 10+6 da forma descrita. Acho que isso e apenas o funcionamento maximo da forma que esta, mas depois pode selecionar-se a forma como corre. Acho tb, que num sistema optimizado, isto nao se revelara um gargalo e ate me parece que pode ser uma optimizacao extra que acabe por ser bem vinda.

Antonio Lucas
Antonio Lucas
Responder a  Mário Armão Ferreira
2 meses atrás

O os do series x não usa 3.5gb de RAM, usa apenas 2.5

Shin
Shin
Responder a  Mário Armão Ferreira
2 meses atrás

Não, eu quis dizer existe 2 Pools físicos e não, pode ser usar mais de 10GB.

Como falei desconfio que a GPU está conectada diretamente a 448GB através de 8 chips devido os caches L2, porém existe 2 chips adicionais totalizando 10GB. Quando a GPU precisa de 2GB ela começa a contar novamente mas no segundo pool.

A maneira simples é olhar pra CPU ela sempre vai ocupar 56GB/s, outros clientes vai ocupar sempre a partição de 336GB/s 6GB, o que sobra pode ser direcionado para a GPU. Ou seja o acesso é simultâneo mas não são somados.

GPU requisita um dado do SSD 336GB/s
GPU faz framebuffer 560GB/s
Passou dos 10GB 336GB/s.

Então podemos enxergar 10+2, mas como os 2GB vem do mesmo conjunto de chips mudando apenas o canal, isso não torna as bandas somadas.

Outro ponto é que os 2 pools físicos não tem coerência virtual, determinado shader GPGPU da 336GB/s precisa repassar pelo data fabric para ser alocado nos 560GB/s.

Em outras palavras o datafabric ele é um filtro com multiplas entradas e duas saídas, uma saída é maior que a outra, mas leva pra o mesmo caminho.

Zackson
Zackson
Responder a  Mário Armão Ferreira
1 mês atrás

Eu não entendi muito bem, pelo que você explicou ambos sofrem a mesma penalização. Se no PS5 a CPU pedir 100/s dos 448/s, sobram 348/s para a GPU. No Xbox não acontece a mesma coisa? O problema é só que o Xbox está meio que limitado a 10GB para a GPU?

By-mission
By-mission
2 meses atrás

Mário desculpe a ignorância, isso não seria uma redução de custo na séries X, digo na altura do lançamento da PS4 foram muitos os “especialistas” a dizer que a CPU sofreria com a latência da GDDR5 algo que se confirmou em alguns jogos que mais limitadores da CPU acabaram por ter performance melhor na Xbox One…

Penso que com GDDR6 é um caso mais grave, onde a latência seria maior para a CPU e esta segunda pool de 6 gb seria uma forma de mitigar essa latência… Bom na explicação da digital Foundry eu entendi assim…
Pois o SO da console estaria alocado nessa ram mais lenta.

By-mission
By-mission
Responder a  By-mission
2 meses atrás

Em termos de como a memória é alocada, os jogos recebem um total de 13,5 GB no total, que abrange todos os 10 GB de memória ideal da GPU e 3,5 GB de memória padrão. Isso deixa 2,5 GB de memória GDDR6 do pool mais lento para o sistema operacional e o shell front-end. Do ponto de vista da Microsoft, ainda é um sistema de memória unificada, mesmo que o desempenho possa variar. “Em conversas com desenvolvedores, normalmente é fácil para os jogos mais do que preencher sua cota de memória padrão com CPU, dados de áudio, dados de pilha e dados executáveis, dados de script e desenvolvedores como essa troca quando isso oferece mais potencial. largura de banda “, diz Goossen.

Parece uma situação um tanto complexa, especialmente quando a própria Microsoft já entregou uma interface de memória mais tradicional e mais ampla no Xbox One X – mas a noção de trabalhar com memória GDDR6 muito mais rápida apresentou alguns desafios. “Quando conversamos com a equipe do sistema, havia muitos problemas relacionados à complexidade da integridade do sinal e o que não”, explica Goossen.

“Como você sabe, com o Xbox One X, fomos com a interface de 384 [bits], mas a essas velocidades incríveis – 14 gbps com o GDDR6 – nos esforçamos o máximo possível e sentimos que 320 era um bom compromisso em termos de alcançar o mais alto desempenho possível, ao mesmo tempo em que construímos o sistema que realmente funcionaria e que poderíamos realmente enviar “.

bruno
bruno
Responder a  By-mission
2 meses atrás

O problema, By-mission, e que no fim tu nao tens uma ram separada mais lenta – tens chips que poem ou funcionar de forma mais rapida ou dividir-se e funcionar de forma mais lenta.

O que tu dizes esta certo… se efectivamente houvessem 6gb separados a 360. Mas nao ha… o que ha e 12 gb que ou funciona a velocidade maxima de transferencia ou se dividem em 6 lentos e 10 “rapidos” mas que na realidade nem sao rapidos.

Deto
Deto
2 meses atrás

Quero juntar isso que tem no artigo com o fato do BOM estimado pelo Zhuguex ser entre 460 e 520 USD para o SX e 460 para o PS5.

Se fosse BOM de até 480USD acho que a MS teria botado 20GB GDDR6 que daria um BUS unico de 560GB/s dando BOM de 500USD, a MS iria adorar fala que tem 20GB de RAM contra 16GB do PS5.

chuto ai BOM do SX em 500~520 USD para a MS vender por 550USD.

João Magalhães
João Magalhães
2 meses atrás

Foi claramente uma decisão para cortas custos….então sim o XSX também tem seus compromissos e não foi feito com o que há de melhor como pensam.

Rui
Rui
Responder a  João Magalhães
2 meses atrás

Senao queres compromissos vai para o pc e gastas o que a tua carteira deixar, eu tambem acho que foi uma decisao performance/custos como todas as consolas sempre foram.

E nao prevejo gargalos com este setup alias isto foi falado pela Microsoft, e o phill ja veio assumir a liderança em hardware.

Aqui a questão é quem cortou mais? Isso para mim é claro.

By-mission
By-mission
Responder a  By-mission
2 meses atrás

“Então, quando eu afirmei que a GPU passaria a maior parte do tempo na frequência mais próxima, ou seja, com a ‘corrida para o ocioso’ removida da equação – estávamos vendo os jogos do PlayStation 5 em situações em que todo o mesmo estava sendo usado produtivamente. O mesmo vale para a CPU, com base no exame de situações em que ela tem alta utilização em todo o quadro, concluímos que a CPU passará a maior parte do tempo na frequência de pico ”
Mark Cerny

Fim da discussão.

By-mission
By-mission
Responder a  By-mission
2 meses atrás

“Provavelmente há mais a descobrir sobre como o impulso influenciará o design do jogo. Vários desenvolvedores que conversaram com a Digital Foundry declararam que seu trabalho atual no PS5 os vê desacelerando a CPU para garantir um relógio de 2,23 GHz sustentado no núcleo gráfico. Faz todo o sentido, já que a maioria dos mecanismos de jogos agora é projetada com o Jaguar de baixo desempenho – mesmo uma duplicação da taxa de transferência (por exemplo, 60fps vs 30fps) dificilmente sobrecarregaria os núcleos Zen 2 do PS5. No entanto, isso não parece uma solução de impulso, mas perfis de desempenho semelhantes aos que vimos no Nintendo Switch. “Em relação aos perfis bloqueados, apoiamos os de nossos kits de desenvolvimento; pode ser útil não ter relógios variáveis ​​ao otimizar. Os jogos PS5 lançados sempre recebem frequências aprimoradas para que possam tirar proveito da energia adicional”.

Andrio
Andrio
Responder a  By-mission
2 meses atrás

Segundo esse cara Aqui Daniel Rubino Exec editor
do WindowsCentral, o ps5 tem problemas de aquecimento.
Não sei se isso é verdade, mas quando o rumo é negativo, as fontes sempre são proximas da MS. @Mario, vc que ler bastante por ai em foruns, vc já viu algo isso ?

https://twitter.com/Daniel_Rubino/status/1245741486689398785

nETTo
nETTo
Responder a  Andrio
2 meses atrás

kkkkk

nETTo
nETTo
Responder a  Mário Armão Ferreira
2 meses atrás

Nos bastidores, o bloco de compressão Kraken dedicado do SSD, o controlador DMA, os mecanismos de coerência e os coprocessadores de E / S garantem que os desenvolvedores possam acessar facilmente a velocidade do SSD sem exigir código personalizado para tirar o melhor proveito da solução de estado sólido . Um investimento significativo em silício no controlador flash garante um desempenho superior: o desenvolvedor simplesmente precisa usar a nova API. É um ótimo exemplo de uma peça de tecnologia que deve oferecer benefícios instantâneos e não exigirá uma extensa adesão dos desenvolvedores para utilizá-la.

e la se vai mais uma falácia dos caixistas

By-mission
By-mission
Responder a  Mário Armão Ferreira
2 meses atrás

Sim é como tu mesmo disse aqui, se definido uma taxa de 60fps a PS5 calcula sempre 60fps ao contrário da séries X em que terá 60, 75 90fps pois o clock é fixo..

rogeriophs
rogeriophs
Responder a  Mário Armão Ferreira
2 meses atrás

Mario, no final do artigo também e referido que o ps5 não possui variable rate shading. Isso pode gerar uma grande diferença a favor do Xbox?

Shin
Shin
Responder a  Mário Armão Ferreira
2 meses atrás

Existe um mito VRS depois que o GitHub validou o recurso para o Serie X e a Sony ficou calada, e esse mito é por causa da implementação.

O PS4 faz VRS quando ele usa Foveated Renderingcomment image

A AMD já está falando disso desde Polaris.comment image

Antes VRS se chamava coarse pixel shading (CPS) que foi patenteado pela Intel.
https://patents.google.com/patent/US20160078672A1/en

O que a AMD fixou no RDNA 2 foi o método da Microsoft que inclusive faz parte do Shadel Model 6.5.
https://microsoft.github.io/DirectX-Specs/d3d/VariableRateShading.html

Não sabemos que método a Sony está usando e não ter a ID equivalente no Github pode indicar personalização.

Antonio Lucas
Antonio Lucas
2 meses atrás

Digital foundry fez um vídeo hoje e nesse vídeo mostrou que não adianta os clocks altíssimos do ps5, porque quando aumenta o clock é não aumenta a largura de banda, temos aí um bottleneck e eles deram de exemplo a placa rx 5700 no jogo hitman 2,e os resultados foram esses:

Rx 5700 1700MHZ/7.83TF 43fps
Rx 5700 1900MHZ/8.87TF 46fps
Ex 5700 2100MHZ/9.67TF 47fps

Quem está achando que o clock alto do ps5 vai mitigar as diferenças com o Xbox, tá muito enganado, O clock vai mudar pouquíssimo o fps e Mário você fala de uma limitação que o series x vai ter mas eu lembro de você falando que o Xbox one x seria limitado pelo número de rops, e esse console foi o que rodou red dead 2 a 4k nativo, que é o dobro do ps4 pro

Shin
Shin
Responder a  Antonio Lucas
2 meses atrás

Ter 36 CU =/= ser RX5700
PS5 não tem uma RX5700
PS5 não é programado como a RX5700
PS5 não tem as mesmas limitações da RX5700.
PS5 nem tem GPU dedicada, é uma APU.

Sim o PS5 é mais fraco que o XSX mas não, seu desempenho não é equivalente ao PC referência. A Sony aumenta o clock base para obter uma vantagem das unidades de função fixa…

2230MHz * 4 geometry engines = 17,8 Bilhões de triângulos
1825MHz *4 = 14,6 bi.
O raster também tem sua diferença, clock mais alto tbm põe um pouco mais de velocidade na passagem L1.

Jogos de PC não irão aproveitar isso pois eles mantém o nível de raster baixo para compatibilizar com o máximo de plataformas.

Deto
Deto
Responder a  Mário Armão Ferreira
2 meses atrás

Mario, nem precisa aprovar, fica só para vc dar uma olhada… mas ao que parece um bando de fanboys do xbox que se organizavam para fazer bait e report em massa no resetera tinham o vazamento do github bem antes de todo mundo.

https://www.neogaf.com/threads/next-gen-ps5-xsx-ot-speculation-analysis-leaks-thread.1480978/page-1650#post-257649489

comment image

ao que parece, a fonte inicial do github saiu de lá.

como vc estava desconfiado, ai tem coisa sim. esse vazamento está estranho.

site da MS tem vazamento que cai no colo dos fanboys do xbox que já estão organizados em uma “SEITA” para fazer fazer flamme em foruns de video game? que coincidência.

bom, se vc atualizar o artigo do vazamento do github ou fizer outro eu comendo lá, se não fizer tb azar UHAUHAUHUHUH

By-mission
By-mission
Responder a  Mário Armão Ferreira
2 meses atrás

“Não é como se não tivéssemos visto isso antes. Esses mesmos fanboys se uniram à mídia para divulgar o FUD sobre o PS4, a ponto de banir grupos de astroturfistas toda semana que tentavam estufar o Xbox One. Até Albert Penello foi pego. Isso não é novidade. O que devemos nos interessar é por que esta rodada de FUD é muito mais detalhada que a da última geração? Eu realmente sinto que o PS5 está causando ondas na comunidade de desenvolvedores e tem MS e seus fãs assustados.”

By-mission
By-mission
Responder a  Mário Armão Ferreira
2 meses atrás

“Mas o fato de um membro do DF estar lá e fornecer detalhes de que se eu fosse da Sony é um sinal claro de que pelo menos parte do DF não é imparcial. Confio no DF como uma análise, mas para ter um
membro que estivesse disposto a apoiar esse grupo porque ele não fala bem de você.

Isso não significa que a Microsoft os pague, mas se eles são incentivados a esse comportamento pelo que vemos, você já reparou no tipo de fanboy tóxico que o próprio Phil segue …
A Microsoft é conhecida por ter tido algumas práticas antiéticas no passado, talvez agora que isso não está acontecendo, mas não sabemos.”

By-mission
By-mission
Responder a  By-mission
2 meses atrás

Hora aqui o Dictador (ReE) a fazer artigos para o DF só derrubam o que se refere a, isenção do sítio, digo se este e pego e ainda assume como ficam os outros ao que parecem ainda são muitos.. E pior se a história do GitHub foi a luz por força deste, como fica o DF e pior como fica a credibilidade do site???

https://www.eurogamer.net/authors/1798

Rui Teixeira
Rui Teixeira
Responder a  Deto
2 meses atrás

Parece que os astroturf da MS eram coisa do passado, mas pelos vistos ainda estão bem activos, uma pena. Este foi um dos motivos que comecei a desgostar da marca!

Rui
Rui
2 meses atrás

É assim alguem me explique isto sff.

SX frequências locked.

PS5 continuos boost, ou seja a frequência não é locked ou seja nem sempre vamos ter o pico.

Se a ps5 efectivamente tivesse capacidade térmica e energética para todo o tipu de situações nao teria as suas frequências locked?

Mais, quando cerny diz na maioria do tempo, não é sempre, vai descer, é que as vezes parece que ou eu nao sei ler ou entao explicam mal.

E é verdade que o gpu no qual a ps5 é baseado não tem muitas vantagens com a acelaracao do mesmo mas la esta o gpu pc talvez o mesmo gpu na consola escale melhor.

Tivemos hoje mesmo o phill a assumir a liderança em hardware mas qual é a duvida? Se a sx nao fosse a melhor em hardware ele nao o diria.

AlexandreR
AlexandreR
Responder a  Mário Armão Ferreira
2 meses atrás

Mas porque é que há jogos que a consola é mais barulhenta do que outros?
Eu a jogar Horizon zero dawn e god of war, a minha ps4 pro parece um avião a levantar vou.

Rui
Rui
Responder a  Mário Armão Ferreira
2 meses atrás

Esta na eurogamer as várias noticias e o que o phill disse numa entrevista.

AlexandreR
AlexandreR
Responder a  Mário Armão Ferreira
2 meses atrás

O que o Rui se deve estar a referir é isto: “ When we saw the public disclosure, I felt even better about the choices that we made on our platform. And I kind of expected that I would… I had a lot of confidence in our hardware team. “

O resto da entrevista encontra se aqui:
https://sea.ign.com/hardware-1/159249/news/interview-head-of-xbox-phil-spencer-talking-xbox-series-x-unlocked-437

Livio
Livio
2 meses atrás
daniel
daniel
Responder a  Livio
2 meses atrás

Já era previsto que os principais jogos de maio em diante fossem adiados. A questão agora é; será que os novos consoles serão também adiados?

AlexandreR
AlexandreR
Responder a  daniel
2 meses atrás

É uma boa pergunta!
Daria jeito a Sony, para adiar também o Ghost of tsushima. Se não, o jogo poderia sair próximo da ps5 e os consumidores não lhe darem a devida atenção.
Mas como o lançamento da Xbox SX se deverá manter, o mesmo deve ser igual para a ps5

Fernando Molina
Fernando Molina
Responder a  daniel
2 meses atrás

Eu acho muito dificil esses novos consoles nao serem adiados, mas vamos aguardar

Davi
Davi
2 meses atrás

E o problema de superaquecimento do SSD do PS5?

Deto
Deto
Responder a  Davi
2 meses atrás

saiu do grupo do discord de caixistas fazendo FUD.

Rodrigo
Rodrigo
2 meses atrás

Ótimas observações Mário. Não vi nenhum site trazer atenção a esses detalhes interessantes. Agora resta saber qual a solução que a Microsoft têm implementado no controlador. É interessante que a largura de banda máxima do barramento 320bits é 560 GB/s, e do barramento 192bits é 336 Gb/s e as duas partes não podem ser acedidos simultaneamente nas suas velocidades máximas. Então existem duas ofertas aqui, acesso sequencial e largura de banda simultânea, mas compartilhado. Isso mostra que basicamente, em determinados cenários, as especificações irão executar como foi afirmado, em alguns outros não. Assim como os Teraflops em placas gráficas de desktop são calculados em relógios de impulso, o máximo teórico, em oposição à sua constante garantida velocidade de clock. Nesse caso o acesso não pode ser pré-arranjado através de um mecanismo de mudança pelo qual todo o sistema sabe quando o acesso aos diferentes espaços de endereço vai estar disponível?

Rodrigo
Rodrigo
Responder a  Mário Armão Ferreira
2 meses atrás

Realmente ficou estranha a minha dúvida. Para o Xbox e PS5 tanto CPU e GPU não estão acessando pool de memória compartilhada? (pelo menos em termos de controlador de memória).
Assim, ambos vão sofrer de forma aleatória accessos da CPU e da GPU. Se a CPU da PS5 está utilizando a largura da memória, a GPU fica prejudicada. Se houver um conjunto simétrico de acessos, o acesso da GPU para a RAM no caso da PS5 será pela metade 224 GB/s. Então vai surgir uma situação similar com o que acontece no Xbox. Só se a PS5 tem uma rota diferente da memória para a CPU e a GPU, nesse caso a PS5 teria uma vantagem.

Shin
Shin
2 meses atrás

O verdadeiro gargalo do XSX não está no acesso externo mas no interno, no cache L1. O L1 de RDNA é o L2 de GCN Vega com a diferença que ele está um nível sobre e serve para amortecer a carga de registro de dados sobre seu novo nível L2 (que é como fosse um L3) e ao mesmo tempo permitir leitura em velocidade dobrada pra cada WGP.

Cada cluster do Shader Engine tem sua rede de ULAs e 128KB de cache L1 e isso funciona de forma similar ao CCX, é como se fosse a estrutura de um CPU Quadcore.comment image

Então o que a Microsoft fez? Adicionou 2 WGP por cluster elevando de 20 para 28, no console eles desativam 2 WGP então tem 2 Cluster com 6WGP e outros 2 com 7 WGP. O nível L1 não aumentou continua 128KB, só que agora compartilhado com mais clientes.

Em RDNA o Raster é feito na L1 e não na VRAM, isso foi a mudança que assim como as Geforces, adoraram a etapa Binner.comment image

A AMD mostrou isso em Vega…comment image

Que é parte da renderização Tiled muito conhecida dos PowerVR, onde o raster é feito em blocos não ordenados. Então como pode ver no diagrama da AMD. Os 28WGP completam exatamente o número máximo de clientes pendurados no cache adjunto aos RBEs e a Microsoft desativa esses 2 WGP ao mesmo tempo que explora um clock maior para equilibrar velocidade dos motores de função fixa com os programáveis, isso também significa que o rendimento de cada cliente individual cai. Por isso que o DDC será importante para o XSX e VRS e a MS vai valorizar isso. Pode haver pequenos overdraws devido a saturação da largura de banda do L1 usando o máximo de clientes, isso não ocorre no PS5 pois existe apenas 18 grupos ligados, significa cada cliente tem 16KB e o total de largura de banda 4,4TB/s, no XSX são 8KB e um total de 3,6TB/s. Ou seja, o fluxo de leitura do XSX ficará um pouco mais Wait que o do PS5 e a compensação é mais DDC e VRS.

Shin
Shin
Responder a  Mário Armão Ferreira
2 meses atrás

A solução seria dobrar o cache L1 o que implicaria em também dobrar o cache L2.
L1 de 4×128 para 8×128 total 1MB
L2 de 32×256 para 64×256 total 8MB
Por isso a AMD tem outra solução, usar HBM2 de 4096bits, assim ela pode dobrar L1 sem depender do L2 pois o HBM o substitui. É o que ocorre com Vega que não tem o L1 mas seu L2 faz o que o L1 RDNA faz.

Isso também permitiria eles chegar a 128ROPs. É isso que vão fazer nas GPUs maiores que 28WGP.

Agora, por que existe 4 Shader Engines? Porque é o que o controlador de comandos pode operar. 1 HWS, 4 ACEs, devemos nos lembrar que RDNA não é uma nova arquitetura em tudo mas sim um híbrido GCN cuja o propósito era melhorar operações por ciclo. Por isso até então a AMD só pode alongar seu número de unidades de computação e não aumentar o número de Shader Engines.

O meu palpite é que em um futuro próximo a AMD começe a pensar em GPUs ligadas pelo infinite fabric que é o que a Nvidia e Intel querem fazer.comment image

Isso permitiria eles não serem obrigados a voltar pra HBM.

Quanto ao XSX ele estando nos mesmos limite do Navi10 significa ênfase em TOPs16/8,só ver como a MS enfatizou 25TF quando opera RT, a outra parte é o DXML cRNN, tudo que foi mostrado no DX12U.

Vamos fingir que RDNA aconteceu pois a Cerny e os demais engenheiros Sony não estavam satisfeitos com os ciclos de instruções GCN quando receberam a ordem vindo de cima, que o próximo hardware teria que se adequar aos acordos verdes Europeu. Então o que os caras Sony queriam era o máximo de operações FP/INT32 no menor CPI, então eles junto aos engenheiros da AMD começam a trabalhar na sua arquitetura sua condicionada enquanto a Microsoft pensa que tem que fazer o mesmo mas com maior poder. A Sony migrou para o Socket FP6 usado em chips menores que 300mm a MS permanece no mesmo Socket. Sony por exemplo tanto no PS4pro como no PS4s estava cortando custo do Socket, enquanto a Microsoft mantém o custo. Com custo e espaço a MS pede para AMD adicionar as mesmas plataformas que ela vinha trabalhando com a Nvidia, disso nasce o Socket XSX. Sony percebeu que ficou muito para trás e que isso pode impactar vendas, eles conversam com Cerny e ele propõe aumentar os clocks criando setups, isso permitiria manter uma assinatura regulatoria uma vez que o consumo de um chip é relativo ao calor dissipado, um cooler boxe e um gabinete bem condicionado resolveria. Só que a MS tem seus espiões industriais, então eles incrementam um gabinete e elevam seus Clocks. Isso deixa a Sony meio sem saída. Então temos uma Sony que ainda reluta para revelar seu console.

Meu palpite? A Sony pode está atrasando o PS5 com o objetivo de fazer o chip nos N6 que entra em produção de massa agora, isso permitiria a eles fazer um BGA 15% menor que os N7P. Então essas Specs de Cerny não são mais que uma estimativa, eles não tem o chip final em mãos.comment image

O que penso é que o chip final deve ser feito em torno dos requisitos anunciados por Cerny mas sem ser qualquer tipo de gambiarra apenas para demonstrar equivalência.

Shin
Shin
Responder a  Mário Armão Ferreira
2 meses atrás

Eu mesmo falei aqui que era equivalente ao Max Q lembra? E a Sony não está atrasando apenas pelo Covid, sempre foi um objetivo migrar de N7P para N6;
https://www.anandtech.com/show/14290/tsmc-most-7nm-clients-will-transit-to-6nm

– Novembro 2018 Ariel > N7 GPU clock 1800MHz
– Abril 2019 Gonzalo > N7P GPU 2000MHz
– Abril 2020 > N6 GPU 2200MHz

Lembra desse relato?
https://www.msn.com/pt-br/esportes/other/phil-spencer-afirma-que-j%C3%A1-est%C3%A1-jogando-no-xbox-scarlett/ar-BBXOAt7

Se Phil já estava jogando o XSX usa N7P. A Sony não tinha nem mesmo escolhido o design industrial do console ainda, então eles nunca pretendiam fazer isso em simultâneo com a MS. Isso significa que eles pretendiam lançar em um processo mais eficaz.

Ao invés de aumentar o chip, eles usam processos mais avançados para reduzir e atingir melhor a meta de consumo sem o custo do desenvolvimento de um woofer completamemte novo.

É o que estou falando em muitos comentários aqui, o chip final não é o que apareceu no Github que é uma versão mais antiga.

E atrasar não é o mesmo que adiar, a Sony pode está trocando o novembro de 2019 pelo março de 2020 permanecendo ainda dentro do seu trimestre fiscal.

Fernando Medeiros
Fernando Medeiros
2 meses atrás

Dado o trabalho da MS com o One X, eu acredito que eles tem soluções para evitar a penalização das performances. Na entrevista a Digital Foundry eles dizem algumas coisas sobre o design de memória assimétrico. É melhor ler lá do que tentar decifrar algo que não se tem total conhecimento ou demonstrações, a não ser o fato de que o console pode executar Gears 5 em 4K 60 FPS e configurações gráficas melhoras que nem estão disponíveis na versão PC.

By-mission
By-mission
Responder a  Fernando Medeiros
2 meses atrás

“Do ponto de vista da Microsoft, ainda é um sistema de memória unificada, mesmo que o desempenho possa variar.
Parece uma situação um tanto complexa, especialmente quando a própria Microsoft já entregou uma interface de memória mais tradicional e mais ampla no Xbox One X.”

Artigo de Richard Leadbetter, Editor de tecnologia, Digital Foundry

Fred
Fred
1 mês atrás

O engenheiro de renderização da Crytek(Ali Salehi) deu uma entrevista ontem e disse o mesmo que você comentou sobre as memórias, Mário! Só não foi tão detalhado quanto você neste artigo! De forma resumida: Acredita que os pools de memória divididos serão um problema e que os 12 teraflops do XBOX só serão alcançados em casos específicos(talvez se referindo a jogos first party) que é mais um número teórico e da forma que o PS5 foi desenvolvido conseguirá tirar muito mais dele! Infelizmente em menos de 24hrs fizeram ele apagar a entrevista, talvez a M$ tenha ligado na Crytek.. o negócio tava pegando fogo em fóruns pelo mundo, muito estranho!

error: Conteúdo protegido