Temos falado muito na PS5 e pouco na Xbox série X. Está na altura de dedicarmos um bocado de tempo a esta consola. Afinal é sobre ela que temos mais dados confirmados.
Curiosamente a PCManias tem sido levada a seguir as tendências, e a procura por informação sobre a PS5 é a situação mais abordada em tudo o quanto é local. Mas isso cria uma situação de injustiça pois afinal já temos uma consola com bastantes dados revelados, e com especificações tremendas. Não será que deveríamos estar a falar daquilo que já é palpável e real, e menos daquilo que, nesta fase, é especulação e mais especulação?
É nesse sentido que, contrariando as tendências, resolvemos escrever este artigo. Afinal basicamente o mercado está a entrar numa obsessão de procura de dados para comparação, ignorando a análise àquilo que é um produto já real.
Note-se que nesta fase não podemos aprofundar muito a análise à consola pois não há especificações exactas, pelo que a abordagem que faremos,será feita de forma genérica ao que é mais conhecido.
CPU
A velocidade do CPU da Xbox série X não foi ainda confirmada, apesar de ser especulada a 3.6 Ghz.
Trata-se de um CPU com 8 núcleos, e anunciado pela Microsoft como sendo 4x mais potente que o da geração anterior de consolas.
Apesar de o número poder soar a pequeno, ele não o é, e estamos a falar de um salto enorme a nível de capacidade de computação. Temos de tomar em conta que o CPU é usado para uma enormidade de situações, sendo que podemos destacar o controlo de todo o universo 3D, colisões, interacções, etc. E estas são situações fixas em quase todos os jogos 3D, e que, só por si, ocupam à partida uma enorme percentagem do CPU. Isto quer dizer que, em cada jogo, teremos que contar, como sendo de ocupação fixa, uma boa percentagem do CPU para estas situações, sendo que a inovação a nível daquilo que são as competências que um CPU pode oferecer a um mundo, se limitam à percentagem que resta.
Como exemplo, a Guerrilla revelou que quando fez o seu primeiro KillZone para a PS4, estavam tremendamente limitados com o CPU, tendo-o usado a 100%, mas que mesmo assim o mesmo não lhes permitia colocar em prática a sua ideologia. No entanto, com o uso de um API de baixo nível, foi possível reduzir-se a ocupação do CPU com as chamadas de desenho (as rotinas de pedidos ao GPU, e uma outra situação de uso standard do CPU em todos os jogos), tendo dessa forma conseguido libertar o CPU em 50%.
Esta situação permite perceber como o CPU pode ser facilmente sobrecarregado apenas com situações comuns a todos os jogos, especialmente se não estiver devidamente optimizado. Mas aqui apenas falamos de uma parte do uso do CPU. O controlo de colisões da movimentação do mundo 3D e respectiva geometria, de danos, de energias, da IA, da física, do input, da resposta ao input, etc, etc, é também tudo da responsabilidade do CPU.
Basicamente, uma larga parte do CPU é usada à partida apenas para se colocar aquilo que é standard e a base de todos os jogos. O que resta do CPU, aquilo que é a margem existente para a inovação e distinção dos jogos, a margem para a criação de sistemas mais complexos, é uma pequena parte do CPU, que depois os jogos gerem mais para evoluir uma componente outra conforme entendem, seja mais fps, melhor IA, melhor física. Mas infelizmente não melhor tudo, e dificilmente algo verdadeiramente inovador, uma vez que o que sobra de performance é pouco.
Ora ao quadruplicarmos a potencia do CPU não estamos apenas a aumentar a coisa em 4x. Na realidade a parte de uso fixo vai manter-se, e o que teremos é que a parte que fica livre para a inovação e melhoria é na realidade gigante.
Vamos ver um exemplo simplificado e teórico de uma possível ocupação do CPU.
Aqui temos um conjunto de aplicações base, com o CPU a registar uma parte livre a que chamamos “Espaço livre para criatividade”. Este é um espaço limitado que os programadores depois dedicam como querem, seja com algo aqui não previsto (por exemplo Ray Tracing básico por software), ou com a expansão de uma das restantes partes pré existentes (por exemplo, melhorias da física, da IA, ou de outra qualquer componente).
Mas com 4x mais CPU o que temos é:
Basicamente a zona livre para melhoria, neste exemplo, aumentou 13x. Isto pode-se traduzir de diversas formas. A mais básica seria um aumento de 4x em tudo, mas note-se que isso não acontecerá! Por exemplo, situações como o uso de CPU para a gestão do input não vai subir, e muitas outras situações, mesmo que passíveis de melhorias, poderão não subir também porque o jogo não as requer. Basicamente isto garantirá que fica sempre um enorme espaço no CPU livre para a implementação de novidades e inovação, e que será maior do que o aumento em 4x da capacidade de computação nos aponta.
Para que se perceba, o CPU da Xbox série X, salvo qualquer situação anormal (como por exemplo, possíveis cortes na cache que possam adulterar as performances), será uma das maiores revoluções no salto geracional. É certamente motivo para satisfação, e motivo para que, só por ele, a consola se revele bastante excitante.
O GPU
O GPU da Xbox série X está confirmado a 12 Tflops. Apesar de não podermos ter a certeza se estamos perante 12,06 Tflops (1675 mhz com 56 CU, de acordo com o Github), ou outro valor, tal torna-se irrelevante. Estamos perante uma revolução igualmente no capítulo do GPU.
Basicamente este GPU irá funcional na mesma resolução do GPU da Xbox One X, que possuia 6 Tflops, o que nos mostra desde logo uma potência dupla da anterior para o tratamento da imagem nessa mesma resolução de 4K.
Mas na realidade a coisa vai mais longe. O GPU é baseado na arquitectura RDNA 2, e sabemos que o RDNA trouxe ganhos de 40% a 62% de rendimento interno face ao GCN que equipa a Xbox One X.
Estes ganhos são fáceis de se verem comparando benchmarks entre GPUs GCN e RDNA com iguais especificações, sendo que a Eurogamer analisou e registou ganhos até 62% nas suas medições.
No entanto, por uma questão de não usarmos picos, mas médias mais constantes, não criado expectativas em demasia, aqui vamos referir apenas os 40%.
O RDNA 2 é anunciado como trazendo um ganho de performance por Watt superior em 50% ao RDNA, pelo que podemos presumir que o IPC desta nova arquitectura tem igualmente ganhos face à anterior, aumentando esse valor. Em quanto não é possível dizer-se pois a AMD não revelou o número, pelo que nesta fase vamos ignorar esses ganhos.
Mas mesmo com os referidos 40% de aumento no rendimento, este GPU na realidade, e na mesma medida de rendimento da Xbox One X, equivaler-se-à a um GPU com 16,8 Tflops. Ou seja, essa seria a performance que um GPU igual ao da Xbox One X teria de ter para igualar o rendimento deste.
Como vemos o salto é significativo. Estamos perante um GPU com performances ao nível do que de melhor actualmente se produz. Se a geração anterior, apesar de não ter decepcionado nada, tecnologicamente arrancou bastante atrás do PC, a nova geração, pelo menos do lado da Microsoft, dará um salto para a frente, e arrancará lado a lado com o PC.
É um bom augúrio para o futuro!
Mas o GPU da Xbox não se fica por aqui. O Ray Tracing estará presente e o GPU contará com aceleração hardware para ele. Uma novidade absoluta em consolas.
Basicamente conta-se com uma solução cujo nível de performances é ainda desconhecida, mas que será, acima de tudo, extremamente versátil. E dado que a geração se apoiará nos 4K 60 fps, conta-se que a solução seja capaz de alcançar essas resoluções e fotogramas sem problemas, o que será igualmente uma revolução.
A ajudar a isso temos o Variable Rate Shading (VRS). Esta é uma tecnologia que já abordamos aqui, (recomendamos a leitura), que permite ganhos consideráveis de performance, e que já foi confirmada pela AMD como standard no RDNA 2. No entanto a Microsoft refere-se a ela acrescentando que a sua versão é patenteada, o que indicia que deverá trazer melhorias adicionais sobre o que já é conhecido como standard.
Basicamente, e usando a gíria popular, a Xbox série X tem aqui um GPU “do caraças”. É um GPU fascinante, e que nada tem em comum com o da geração anterior. Aqui não há limitações, não há gargalos, tudo foi pensado para funcionar como deve de ser.
É um GPU que quando combinado com o CPU de cima, criam aquilo que se designa como “uma consola e pêras”. Uma máquina super apetecível, uma máquina potente, capaz, e que nenhum amante dos videojogos, dos que tem o hábito de andar atrás de jogos e não de marcas, se pode dar ao luxo de deixar passar ao lado.
Só por aqui vemos que a consola da Microsoft, e isto independentemente do que possa ser uma possível PS5, é uma consola cuja compra se recomenda. Uma consola que, desde que devidamente suportada, algo que a Microsoft agora pode garantir dados os estúdios que adquiriu, se tornará indispensável. Mas claro, como qualquer consola, o hardware só por si não define a consola, e teremos de ver o que a Microsoft nos apresenta como sendo o seu suporte.
Mas pelo hardware… oh oh… se a Microsoft se empenhar no software como se empenhou no hardware. Temos aqui um produto de topo!
O SSD
Como cereja no topo do bolo da próxima geração, temos a presença de um SSD. Uma forma de colmatar os elevados tempos de leitura dos videojogos, tornando o acesso aos jogos, os tempos de carga e o streaming de mundos, naquilo que se define igualmente como num avanço geracional.
A simples presença de um SSD (e refere-se que o SSD desta consola não será um mero SSD, mas algo com performances ao nível do que se faz actualmente de melhor), é uma novidade e uma revolução numa consola. Mas perante as performances que se esperam, a revolução será garantidamente superior.
Conclusões
Naturalmente é muito difícil que as pessoas leiam isto esquecendo que esta consola terá concorrência, e sem que se queira saber também o que a concorrência oferece.
Mas isso não impede que numa análise análise como esta, pura e dura ao que a Microsoft oferece, se possa dizer que o produto criado é de topo e excelente. E que independentemente de a concorrência poder oferecer melhor ou pior, estamos perante uma consola de elevada qualidade.
E isto pode ser dito mesmo sem sabermos as especificações totais.
Acima de tudo estamos longe de uma consola com os problemas que a Xbox One apresentava. Aqui não se conhecem situações que possam prejudicar a performance do sistema. E nesse sentido a única forma de algo do género desequilibrar o que esta consola oferece seria hardware radicalmente diferente no lado da concorrência. Mas mesmo assim, isso não invalidaria que a Microsoft criou aqui uma consola de luxo, uma consola apetecível. Uma excelente obra de engenharia e um produto de topo.
Resumidamente: Altamente recomendável.
Um console brutal!
Que virá com um preço brutal nas terras tupiniquins.
10 mil milicianos no minimo, se a coisa continuar
😕
Um ótimo artigo, mas na minha opinião errou um pouco no timing visto ue a mS falou que dia 18/03 sairá mais informações sobre o console.
Mas vês problema em outro artigo depois? 😉
E o artigo está escrito à uma semana… mas o agendamento é que adiou. Não tenho tempo todos os dias para escrever artigos, pelo que escrevo quando posso e depois agendo. Por vezes as coisas entram quase uma semana depois.
Para além do mais, a informação aqui dada é sempre actual.
Excelente artigo. O próximo Xbox vai trazer um grande salto em relação ao poder de processamento, principalmente no lado da CPU. A Microsoft dessa vez não economizou nas especificações, como foi em 2013. Imagine como vai ser por exemplo o próximo Gears of War explorando toda essa nova capacidade. O Gears 5 no XOne já ficou espetacular! Em um outro artigo eu chutei uma configuração, baseado em todas as notícias e rumores do Séries X:
CPU: 8 cores, 16 threads baseado em Zen 2 com clock de até 3.6GHz, 16 ou 24GB de memória GDDR6 com 560GBs de largura, SSD 1TB, GPU AMD RDNA 2.0 com 56 unidades de computação, 3584 shaders, 224 TMUs, 96 ROPs clock 1700MHz.
Será que vai se confirmar essa configuração? Se for infelizmente vai ser muito caro, como foi o Xbox 360 na época do lançamento, pelo menos no Brasil.
Os tensores das APUs da AMD estão incorporados no datafabric por meio do conjunto de clientes que o Northbridge pode cruzar, esses por sua vez são núcleos considerados Arrays Systolics.
https://en.m.wikipedia.org/wiki/Systolic_array
“Os dados de entrada paralela fluem através de uma rede de nós de processador conectados , que combinam, processam, mesclam ou classificam os dados de entrada em um resultado derivado. Como a propagação de dados em forma de onda através de uma matriz sistólica se assemelha ao pulso do sistema circulatório humano, o nome sistólico foi cunhado a partir da terminologia médica.”
Diferentemente do caso da Nvidia onde sua rede Tensorial é uma operação dentro do GPC de suas GPUs e limitados pelo número de wavefronts. No caso da AMD os seus tensores implementados como um Codec eles podem receber fluxo de instruções diretamente do CPU. O que ocorre é que sendo estes núcleos Tensores de características
MISD (Multiple Instruction, Single Data – Instrução Múltipla, Dados Únicos), eles não tem a mesma limitação da lei de Amdahl que os SIMD usados na GPU, então, sua utilização abrange uma pluralidade de recursos matemáticos.
A maioria dos serviços gráficos são sobre classificação e correlação de dados, para isso os CPUs em Lotes usam suas extensões através de PUs e máquinas de estado que podem maximizar a eficiência desse tipo de dado. Acontece que as MISD são muito superiores nisso pois, podem lidar com um número muito maior de dados simultâneos que as ALUs individuais ou em Wave, essa será uma nova coisa e creio que a verdadeira expansão da próxima geração e não apenas o poder lógico da CPU. A CPU embora represente um salto proporcional a sua frequência, as duas únicas devidas representações são melhorias no IPC + Clock, introdução do AVX2 + Predição de alocação de cache. Já a adoção de MISDs em Systolic Arrays é um salto da lógica do programa como um todo adicionando rede neural como uma plataforma de programação completa. Por isso a Microsoft criou o DirectML como uma extensão do DirectX, o ML não se resume a apenas os Tensor Core mas toda a plataforma Tensor que pode ser gerenciada no Kernel do Windows. E eu creio que tanto o PS5 como o XSX fazem essa implementação já que a AMD descreve isso em suas patentes.
Em outras palavras, o nível da lógica da nova geração não pode ser replicada por essa geração, é por isso que eles precisarão fazer duas camadas de jogos, a camada dos primeiros anos é como jogos dessa geração aprimorados, como ocorre nos PCs. A segunda camada que deve demorar 3 ou 4 anos pra começar acontecer e serão de jogos feitos dentro da lógica IA e esses jogos serão diferentes dos dessa geração, é por isso que temos SSDs muito rápidos na próxima geração para que um número massivo de dados de sejam usados sem sobrecarga.
Mas o que a IA vai fazer?
– Occlusion Culling eficiente (otimiza amostras de profundidade dos objetos)
– Ragdolls Physics Interativa IA ( melhorias nos testes de colisão, deformações e fluídos)
– Síntese criativa ( IA gerando elementos de jogo)
– DLA Shaders ( Shaders Deferidos com materiais criados por IA)
– Processamento de imagem.
Daqui pra frente serão esse tipo de núcleo que irá promover evolução, se você olhar os NoC e os EHP, que serão o destino das APUs e GPUs verão Tensor Cores cada vez mais abundante enquanto AMD e Nvidia vão sempre conservar o limite dos 128 grupos de unidades.
Devido a lei de Amdahl não existe qualquer vantagem em fazer consoles com mais de 64CUs.
https://en.m.wikipedia.org/wiki/Amdahl's_law
Isso significa que até os 2GHz os consoles estão com ganhos limitados até 16,4TFlops, ou seja, o XSX está muito próximo do fim da corrida e por isso precisará de usar eficientemente FP8 e FP16 que no caso do console da Microsoft o leva até 48TF FP/INT8. Por isso que um sistema sucessor do Series X se existir, não será uma evolução na proporcional em escala de Floats mas sim vai resolver gargalos, melhorar CPI e expandir IA.
Pense na nova geração como os 3DO e Jaguar introduzindo os primeiros processadores especializados Shaders. É o mesmo aqui com IA.
Questiono:
– Porque motivo a lei da Amdahl refere que os 64 CUs são o limite? A lei não fala em hardware e nem prevê limites. É uma lei teórica que fala em ganhos de paralelização, e que não prevê limites especificos de arquitecturas.
Se a aplicação puser ser dividida numa parte que corre em série e uma que corre em parelalo, a lei aplica-se, e os ganhos depende da parte paralelizada.
Ora diz-me em que parte da formula da lei aplicas o limite dos CUs?
O problema dos 64 CUs no GCN deve-se à perda de eficiencia no paralelismo da arquitectura. Um factor que a lei de Amdahl quase nem leva em conta, senão indirectamente.
Aliás se a lei fosse quem limita, como é que o problema estaria agora resolvido tendo a AMD referido GPUs com 80 CUs e a Nvidia mais?
A lei mede ganhos de paralelização e é extremamente incompleta, não fosse ela de 1967. Acho por isso estranho que fales dela e não da lei de Gustafson, que é bem mais realista nesse aspecto.
A Lei de Amdahl nos dar uma idéia do limite da computação paralela, se um dado não for altamente paralelo colocar mais núcleos não acrescenta mais velocidade ao programa. GPUs estão lidando com Shaders, Floats inteiros e Frações, varias partes do Kernel estão limitados a sua sequência de operações, então dobrar o número de CUs não está dando melhor desempenho. É por isso que a AMD não passa de 64CUs em GCN, entre uma e outra Wavefront você tem uma latência acumulada que diminui a eficiência dos ganhos, diminuiram o número de Waves para RDNA e melhoraram o data pool introduzindo L0, mas os benefícios em ultrapassar os 4096 núcleos são particulares para programas cuja o paralelismo inclua ganhos sobre os 95%.
Por conta disso 12TF XSX não é 30% sobre o PS5 de 8.4TF, é menos. Não é atoa que a AMD esteja empurrando mais Clock base a cada geração, como a Nvidia desde Maxwell e não aumentando o número máximo de núcleos, as partes não paralelizaveis do pipeline serão bonificadas com clock e melhorias de arquitetura enquanto as partes paralelas são melhoradas com redução de latência.
A lei de Amdahl não nos dá nenhuma noção dos limites da computação paralela. Ela dá-nos os ganhos que a computação paralela nos pode oferecer tomando em conta a percentagem de código em série e de código paralelizável, bem como o número de processadores em paralelo.
É uma lei teórica aplicável ao software e não directamente ao hardware onde a única parte que ela toma em consideração do hardware é o número de processadores paralelos.
Em parte nenhuma se toma em conta a eficiência do sistema, e a fórmula não define número máximo de processadores. Ela pode efectivamente dizer que a partir de determinado número de processadores os ganhos não justificam, mas isso depende apenas da paralelização possível com o software.
E os dados permitem mais paralelização, o que é provado pelo recente aumento de CUs. Os 64 eram um limite do GCN e o motivo pelo qual acima dos 56 não tinhas grandes ganhos era por ineficiência do hardware. Um dado que a fórmula nem sequer toma em conta de forma directa.
A lei vale independentemente da arquitetura, desde que estejamos falando de computação paralela. Não tem nenhuma RDNA 64CU+ lá fora apenas Arcturus que é uma GCN. A AMD pode criar GPUs multi Chip ou multicluster com 128CU ou mais, mas pelas razões descrita na Lei de Amdahl a eficiência será reduzida ao ponto de não valer o investimento.
Claro que vale. Nunca ninguem disse o contrário. Apenas que ela não poderia ditar que 64 CU era o limite. Ela não toma em conta a eficiencia das arquitecturas, e isso era um limite e uma lacuna da arquitectura.
As big Navi deverão ter 80 CU e a Nvidia tem uma ampere com 124 CU.
Estás a falar sem saber. Leste essa porcaria em qualquer sítio e agora estás a despejar sem saberes do que estás a falar.
A lei de Amdahl dá-te o resultado do ganho de eficiência de um sistema de acordo com o nível de paralelização do software.
Ou seja, ela não te diz o rendimento que tens com um determinado nível de processadores paralelos, uma vez que isso depende do software. Ela diz-te é para um determinado software que ganho podes esperar ao acrescentar processadores paralelos.
Ou seja, a lei nunca te pode dizer que acima dos 64 CU não compensa. Pode é dizer que para um determinado nível de paralelização, mais de 64 CU não compensa.
Vê se percebes, olhando para este gráfico que digitalizei de um livro.
Como vês, a lei está até basicamente tabelada… Se a paralelização e a serialização forem na proporção 50%, 50%, não te adianta ter mais do que 2 processadores. E isto é fácil de perceber: Um executa a parte serializada, ao mesmo tempo que o outro executa a parte paralelizada.
Mas conforme diminuis a parte serializada e aumentas a paralelizada, o número de processadores que podes ter não aumenta na mesma proporção (daí a existência de uma formula, a Lei).
Num caso de 80% paralelizada e 20% serializada já poderias ter um pouco mais de 4 processadores (na prática 4 pois não há cá processadores incompletos).
Mas conforme desces a parte serializada, a coisa sobe. Com 5% já poderias trabalhar com 16 processadores, com 1% podes passar dos 128 sem que a curva tenha estagnado.
E se esse valor for perto de zero, basicamente não tens limite.
Ou seja, a lei não pode ditar que 64 CU é um limite. Quando muito o que ele te diz é, de forma indirecta, que com aquela arquitectura ao não conseguires paralelizar o código acima de um determinado valor, aparece-te os 64 CU como um. Mas o que impõem essa serialização e paralelização é a arquitectura, não é a lei. Tu estás a falar genéricamente, como se isso fosse uma realidade ditada pela lei para todas as arquitecturas. E isso não é verdade.
A RDNA por exemplo, não tem essa limitação e pode ir aos 80 CU. Se terá perdas de eficiência perto dos 80 CU também não podemos dizer, e nem a lei te pode ajudar. Na realidade a paralelização pode andar perto dos 100% e não haver limite sendo que os 80 CU são impostos como máximo por outra situação qualquer.
Por outras palavras a lei não limita nada. A lei permite é ver, baseado no nível de serialização/paralelização do software, ver onde estão os limites. E o problema de isso ser assim é da arquitectura.
Independente da magnitude da melhoria proporcionada pela arquitetura, a aceleração teórica é sempre limitada pela parte da tarefa que não pode se beneficiar da melhoria. Não RDNA não está menos penalizada que GCN, ela é apenas possui uma execução individual mais eficiente e menos gargalada. E sim essa é um conceito genérico mas que aborda bem a circunstância das GPUs ao rodar gráficos.
O fato de AMD ou Nvidia fazer GPUs 64CU+ não fazem as GPUs escaparem de Amdahl, existe motivos que vão além dos jogos para elas fazerem isso.
Exacto (a primeira parte). É decido à parte serializada imposta. Se ela requer processamento em série, para essa parte o ter muitos processadores não vale de nada pois não pode melhorar com isso.
Quanto à segunda, naturalmente que a lei da Amdahl se aplica a tudo que seja sistema informático. Agora como eu disse ela aplica-se ao software, e a nova arquitectura reduz a dependencia da serialização que obriga no software, e dessa forma passa para outro patamar. Dessa forma o limite de 64 CU passa para outro valor.
Agora uma coisa é o limite da arquitectura, outra é os jogos saberem tirar partido disso. Se os programadores não souberem paralelizar o código o motor pode tirar mais ou menos partido de mais ou menos CU.
Interessante, interessante é isto.
https://mobile.twitter.com/HdrMadness/status/1239190154654429186?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1239190154654429186&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html%231239190154654429186
Aprentemente os testes do Oberon eram virtuais. Os dados do github são pré-silicio.
Bem interessante isso. Essas alterações no hardware pré-silicio parece que são comuns. O PS4 por exemplo, algumas notícias informavam que inicialmente haviam DevKits que possuíam CPUs com 4 núcleos AMD Piledriver e 4 GB de memória.
A Microsoft está adicionando uma série de tecnologias proprietárias no seu SOC, tem um híbrido ARM X86 e ASICs. Provavelmente o ARM assume quando em baixa potência.
https://twitter.com/blueisviolet/status/1238807975759736832?s=20
nossa, o misterXmedia 2?
Todos os APUs e GPUs AMD possuem ASICs ARM. Até a Xbox One e a PS4 os tem.
E o Blueisviolet é um dos braços direitos do MisterXmedia, sendo que o que ele cita aponta para um link ao qual não se consegue aceder. Nada do que vem destes senhores se aproveita.
Desde os primeiros Kabini a usar Jaguar tanto quanto me lembro.
Bem, já é oficial todos os specs da Xbox SX
Caro João… Entenda de uma vez.
As consolas saem daqui a 8 meses… e se saírem.
Não há nenhuma regra, lei ou questão de respeito ou desrespeito quando duas empresas trabalham com timmings diferentes.
A Sony revelará as especificações da sua consola em tempo devidamente útil. Terá muito, mas mesmo muito tempo para analisar, comparar e decidir o que quer antes de comprar.
Não há qualquer falta de respeito da Sony, ou sequer consideração da Microsoft com as revelações. São apenas timmings diferentes, nada mais do que isso. Algo normal, que acontece na maior parte de produtos. Mas com o devido tempo, saberá as especificações das duas. E apesar de no passado os timmings de revelação terem sido semelhantes, a realidade é que nada, mas absolutamente nada, nem sequer regras de etiqueta, obrigam a isso.
Bem, até é perceptível o adiantamento de informações relativas a ps5. E a meu ver ainda vai demorar até vermos o que os jogos conseguem fazer na ps5. Isto porque a Ps4 vai ter um ano espetacular, sem tirar o pé do acelerador, com 2 grandes exclusivos a saírem este ano !
O mais provável é a Sony entrar em força a partir de Agosto.
A Sony não quer tirar distrair o público com a ps5, pois não quer desviar as atenções dos gamers.
Eu não tenho duvidas, ghost of tsuhima e The last of us parte 2 vão ser dos melhores jogos desta geração!
Em 2013 não foi problema para a Sony falar do PS4 quando eles ainda iriam lançar The Last of Us. Não deveria ser um problema falar de PS5 antes desses jogos, principalmente quando eles certamente serão os maiores jogos para jogas no PS5.
Para mim o silêncio da Sony tem dois prováveis motivos, ou eles querem surpreender a todos com uma máquina que excede o que já parece inacreditável, ou eles realmente estão com as especificações bem abaixo no poder bruto.
Pelo que conhecemos e acompanhamos a Sony desde o início do Playstation, se eles estivessem acima, já teriam saído para divulgar, nem que fosse com mensagens sutis.
Se eu fosse responsável pela estratégia e estivesse numa posição em que realmente seja algo em torno de 9tflops, não revelaria especificações. Apenas falaria coisas do tipo é mais de 3x o desempenho do PS4 pro e mais de 7x o desempenho do PS4. Mesmo que 9,2 Tflops RDNA 2 tenham esse desempenho no mundo real, declarações ambíguas seriam o suficiente para no dia seguinte ter pessoas especulando 13Tflops na internet. Nessa altura, com os jogos sendo cross gen, nenhum game vai exigir as especificações máximas, o que significa que visualmente não vai ficar exatamente claro qual o console mais poderoso, e talvez nem nas comparações da Digital Foundry apareçam diferenças no início, já que 9 TFlops RDNA é mais que suficiente para dobrar o desempenho do One X.
Se falássemos a 3 meses atrás que o PS5 era 9,2 Tflops e o Xbox seria 8,5Tflops, todo mundo teria ficado bem pois sabe que na arquitetura RDNA isso significa um grande salto perante a geração atual. A controvérsia é o Series X ser tão poderoso para um console.
Vou revelar algo que me foi dito de uma fonte que não citarei.
A Sony está atrasada porque tem inúmeras coisas que pretende colocar na consola, mas devido a problemas com os custos, está a rever o que pode e não pode colocar. Dessa forma a revelação está atrasada.
Não me peçam mais dados. Não os fornecerei! Estou a dizer o que posso dizer.
Acreditem se quiserem.
Estás a falar a sério ou q imitar os fabulosos.insiders de fóruns…?
Pelo que conheces de mim, o que te parece?
Imagino que você deve ter alguma desconfiança em cima dessa sua fonte por que nessa altura do campeonato, qualquer um sabe que as especificações estão com o martelo batido à muitos meses e não faz diferença alguma as features a mais que a Sony quer colocar ou não. Não é como se ela estivesse escolhendo ter 60 ou 64 CUs 8 meses antes do lançamento, isso não existe. As especificações estão definidas e já poderiam ter sido reveladas. Se ela quer fazer alguma coisas exótica do tipo ter retrocompatibilidade nativa por hardware com o PS1, PS2, PS3 e PS4, ou colocar um SSD de 5TB, isso tem impacto 0 nas specs de CPU e GPU, que é o que todo mundo quer saber. Ela poderia falar alguma coisa para acalmar as pessoas que ela está perdendo por enquanto. Uma lida rápida nos fóruns por aí e o assunto é, “nunca cogitei um Xbox, mas o silencio da Sony e a possibilidade do hardware ser mais fraco está me fazendo cogitar…”
Todas as Specs do Series X estão oficializadas e a Digital Foundry tem artigos sobre isso nesse momento…
A GPU é de 52 CUs, o clock é de 1825MHz. 12,15Tflops.
16GB de memória GDDR6 no total mas com Pools Separados.
10GB a 560GB/s, 6GB a 336GB/s. Se a lógica da ESRAM se seguir, o sistema tem potencial para banda de 896GB/s!
A Solução de RT acelerada por Hardware segundo a Microsoft, tem um desempenho equivalente a 13Tflops de computação, em outras palavras, o desempenho de GPU do console com Ray Tracing seria o equivalente à uma placa RDNA de mais 25Tflops!
A CPU tem dois modos de funcionamento, 8 Cores e 8 Threads sem SMT a 3,8GHz, ou 8 Cores e 16 Threads com SMT a 3,6Ghz. Eles estimam que a principio os desenvolvedores utilizarão o primeiro modo que é mais parecido com a geração atual mas com a melhoria de desempenho e no futuro, com os jogos 100% de nova geração, o segundo modo se torna o preferencial.
SSD com velocidade de transferência de até 4,8GB/s.
Eu nunca tive dúvidas de que uma geração iniciada 100% sob o controle do Phil Spencer seria totalmente o oposto do One/Kinect do Don Mattrick. O Xbox Series X é moralmente o Xbox 360 parte 2.
Fernando… gostava só de te pedir que te identificasses como Fernando Medeiros. Lembra-te, e penso que saberá disso, que há aqui um outro utilizador chamado Fernando, e talvez seja vantajoso para ti, por uma questão de não te confundirem com ele, e serem acusado de coisas que não fizeste ou disseste, gerando-se confusão.
O Phil Spencer também defendeu que a Xbox one era com a Kinect, com o preço a 499€
A máquina é um monstro, e vai ser sem duvida uma geração interessante, mas não nos podemos esquecer que segundo ele, o primeiro e o segundo ano, a consola Xbox SX não terá exclusivos!
Não é um grande problema perante o nível da tecnologia atual. É uma situação sem paralelo, não temos a arquitetura defasada bloqueada ao nível de recursos do Directx 9 do Xbox 360. O Xbox One X é ainda hoje capaz de rodar jogos com visuais impressionantes e ainda vai demorar para os devs tirarem proveito do que o novo hardware pode fazer. Não vai ser um problema o primeiro ano sem exclusivos, vai ser exatamente o que a RTX2080 faz com os jogos atuais, os roda com gráficos no ultra em 4K 60fps. Não ache também que o PS5 terá um monte de jogos exclusivos de alto perfil no primeiro ano, ele estará no mesmo barco que o Series X, é o que é viável. Em 2020, nenhum jogo precisa ser exclusivo de nova geração, e se for, será apenas uma decisão comercial e não técnica.
Isso é o que falta ver… Porque as consolas sempre foram sobre jogos. E os jogos é que vendem consolas. Jogos de nova geração exclusivos podem ser um forte ponto de venda, especialmente se os resultados fizerem esquecer especificações.
Bem, eu espero que o Horizon zero dawn 2 seja uma proeza em todos os termos.
Capaz de dar motivos para fazer vender a ps5!
Espero que seja também, mas não acho que esse jogo acontece antes do final de 2021, ou mesmo em 2022, e é aí que está estimado chegarem os jogos que aproveitam os recursos de nova geração. O período sem exclusividades é o atual ano de 2020 e 2021. Talvez o final de 2021 já tenha exclusivos, ou jogos que rodam muito mal no One básico e que tenham dificuldades até no X.
Horizon zero dawn 2 na altura de lançamento da ps5 terá 3/4 anos de desenvolvimento.
Falam também no spider man para 2021
O jogo e de 2017. E ja tiveste uma segunda iteraccao do mesmo motor com um salto grafico que ninguem considerava ser possivel nesta gen…
Nao sei nao…
Perante isto, F. Medeiros, podes crer que vai haver desfasamento:
https://www.youtube.com/watch?v=u3ktiewcLpo
https://www.youtube.com/watch?v=KZ9mb3Jylb0
No resto, se for para jogar os mesmos titulos porque irei mudar de consola?
Em 3 anos, quando os jogos capazes do que esses vídeos mostram chegarem no mercado, você precisará trocar seu console. Enquanto isso não acontece, a mudança é para aqueles que vão comprar um novo hardware no lançamento pela novidade e a tecnologia, mesmo que ainda não seja totalmente aproveitada. É outra situação em relação à geração atual. O Xbox 360 e o PS3 estavam mais de 4 anos defasados no nível de recursos do que era possível para o PC. O PC passou pelo Directx 10 e entrou no Directx 11 ainda bloqueado pelo conjunto de recursos do Directx 9 por causa de consoles. Por isso, no primeiro dia já tinha jogos como Ryse Son of Rome, era basicamente o que os devs já estavam fazendo no PC. A Crytek na época mencionou que para eles foi fácil fazer o Ryse no Xbox One, era basicamente Directx 11.
Agora é bem diferente, nos últimos 7 anos a evolução esteve muito mais do lado do software do que do hardware. O Directx 12 e o Vulkan nem foram totalmente aproveitados. Os novos recursos que farão a diferença agora são a física avançada, que não é qualquer estúdio pequeno que vai ter capacidade para extrair, e o SSD que será utilizado para criar mundos maiores e mais complexos, o que não é novamente qualquer estúdio pequeno que vai extrair e mesmo estúdios grandes demorarão bastante. A Naughty Dog está demorando praticamente 5 anos para fazer The Last of Us 2 ainda no PS4, por que a Guerrilla que é um estúdio menor, em 3 anos e meio vai ter um jogo PS5 100% na nova geração?
E não um jogo pequeno, um game de mundo aberto.
Tlou Remaster 2014
Uncharted 4 2016 (3 anos após o console ter sido lançado)
Uncharted Lost Legacy 2017
Tlou Part2 2020 (e não 2022 kk)
De onde tirou 5 anos?
Halo 5 2015
Halo Infinity 2020
Isso aqui que é 5 anos e sem gameplay alguma ainda por cima
João… eu não passo panos. Eu sou directo! E acima de tudo sou objectivo e realista. Analiso as coisas baseado apenas em dados concretos. Nada de especulações, nada de tretas.
A Sony acertou nesta geração, a Microsoft não. Daí que a falar bem de alguém, de quem te parece que seja?
Curioso que os vazamentos do Github referiam 56cus pro XSX à 1,65ghz, a Microsoft revela 52cus à 1,82ghz
Ou seja, o vazamento passou longe da realidade pro XSX, será que no caso do PS5 ele vai acertar?
Pra lembrar ele dizia 36cus e 2ghz pro PS5.
Dentro disso, o insider Tommy Fisher foi o único que acertou exatamente o que seria o XSX inclusive dizendo que seria Rdna2 antes da revelação pela Microsoft.
Bem este mesmo insider acertivo no caso da Microsoft apontou 13.3TF pro PS5. Resta esperar pra ver se ele acerta também no caso da sony como aponta o twitt acima.
Aqui o nosso nETTinho anda fino… anda atento 😉
São 56 cus com 4 desativados!
O github eram 60 com 4 desactivados.
exato
Os vazamentos do Github apenas mencionaram uma GPU de 56 CUs, o resto foi dedução da digital foundry, que seria 60CUs com 4 desativados e deduziram a frequência. Existe margem para desconfiar ou para acreditar mais ainda no Guthub. O Devkit do Xbox One X tem todos os 44cus ativos e 6,6tflops de potencia. A Microsoft costuma enviar os devkits com todos os CUs ativos, a SOny não, o devkit reflete exatamente a especificação do console.
Os arquivos do github poderiam exatamente representar o hardware total, sem levar em consideração CUs desativados, o que bate com o número de 56CUs.
“With caveats in place, the sparse data in the leak includes mention of 3584 shaders, which would translate to a frankly ginormous processor with 56 active compute units. There is no sign of clock-speeds in the data, but if we assume that 12 teraflops is the target, 1680MHz gives you 12TF on the nose, with a round 1700MHz delivering 12.2TF. If Microsoft was aiming lower than 12TF, the shader count would be much lower and the silicon itself significantly cheaper to produce – in fact, it would likely look closer to the PS5 configuration. The AMD leak does seem to confirm memory bandwidth for the Arden chip at 560GB/s. It’s a curious figure, especially if we return to the Project Scarlett reveal teaser at E3 which seemed to show both 1GB and 2GB GDDR6 in play. Maybe we’re looking at a hybrid memory interface with some modules using a 256-bit interface with others at 64-bit. This is something of a mystery that will hopefully be resolved when the official spec is shared by Microsoft.”
O GITHUB acerta na lata o tamanho da GPU física e a largura de banda de um dos pools de memória.
Desculpa gente, existem mais dados que confirmam que o Github está certo do que o contrário.
Tlou Remaster 2014
Uncharted 4 2016 (3 anos após o console ter sido lançado)
Uncharted Lost Legacy 2017
Tlou Part2 2020 (e não 2022 kk)
De onde tirou 5 anos?
Halo 5 2015
Halo Infinity 2020
Isso aqui que é 5 anos e sem gameplay alguma ainda por cima
Uncharted LL não foi criado pela mesma equipe de The Last of Us 2, a ND tem duas equipes, pensei que isso já era algo bem conhecido até mesmo por quem não acompanha os detalhes de bastidores. Além disso, ele é só uma Skin para o Uncharted 4, não tem quase nenhum avanço técnico e seria só uma DLC que acabou convertida em jogo.
Muito provavelmente, a equipe de TLOUS2 é a mesma equipe de TLOUS, o que significa que talvez eles estejam fazendo o jogo entre 6 a 7 anos…
A 343i também tem duas equipes, a que desenvolve os jogos da série principal, e a que cuida do suporte aos jogos legados, como Halo MCC, Halo Wars 2, Halo 5 etc…
Não estou dizendo que 5 anos para o desenvolvimento de jogos de nova geração seja um problema, isso é um fato, os jogos estão cada vez mais complexos e os exclusivos da Sony perseguem um alto nível de detalhes visuais.
O único estúdio que vi conseguir entregar 2 jogos AAA de forma rápida com apenas uma equipe foi a Coalition com Gears 4 em 2016 e Gears 5 em 2019 sendo que eles receberam a tutela da franquia em 2014. Até hoje não sei como eles fizeram, ainda mais por ser dois jogos referência técnica da plataforma, mas eu imagino o que eles poderão fazer no dia em que tiverem 5 anos de desenvolvimento tranquilo. Mas eles também fizeram disso dentro da mesma geração, com um modelo já estabelecido.
E não vejo o Gears 6 acontecendo em dois anos no Series X e aproveitando tudo o que o console tem.
Simples, o Gears 5 é o Gears 4 com melhorias gráficas e um HUB aberto que não tem conteúdo nenhum.
Não tem muita diferença entre Gears 4 e 5 igual Uncharted LL e Uncharted 4, bastaria a Sony renomear Uncharted LL para Uncharted 5 e dado mais um ano para ND melhorar os gráficos e teriamos coisa similar ao Gears 4 e 5
Bem vrd
A equipe de tlou 1 foi quem fez Uncharted 4 depois que a diretora saiu e o time do Nell assumiu a IP.
Vc tenta, mas Lost Legacy de DLC não tem nada, é um jogo maior que Uncharted 1 com modo multiplayer herdado do 4.
Tlou Part2 oficialmente começou a ser desenvolvido em 2017, em fins de 2016 apareceu o primeiro teaser do jogo na PSXperience em novembro.
Esta confundindo imenso, Uncharted 4 contou com diretor do TLOUS, não com a equipe toda. É óbvio que pessoas flutuam entre as equipes, mas achar que realmente não estavam fazendo o jogo em estágios iniciais antes não faz sentido. A ND é um estúdio com 500 pessoas que não precisa manter suporte à jogos legados por que não investe em multiplayer e conteudos pós lançamento.
Fernando, ao inves de continuares a repetir a mesma lengalenga, por favor posta provas que efectivamente havia duas equipas distintas a trabalhar nos dois jogos.
Estas a fazer afirmacoes que nao podes provar de forma nenhuma.
Enquanto que o nETTo postou efectivamente uma fonte que indica que nao tinhas nada duas equipas distintas a produzir os dois titulos. Tinhas quando muito pequenas equipas em pre-producao (desenho, historia, dialogos) mas o grosso do trabalho so comecou apos o titulo anterior ter sido entregue.
E por ultimo, Uncharted TLL foi lancado pouco mais de um ano apos o anterior e era suposto ser um DLC, que se tornou num titulo individual. Ainda assim, e ao contrario do que afirmas, ha melhorias obvias no motor de jogo. Desde cenarios maiores e mais detalhados, a uma melhor implementacao do HDR. A melhoria e pequena, mas esta em linha com o que seria espectavel e o que ves em series com entreguas anuais, p.ex. Assassins Creed.
Nao sei onde queres chegar, mas em vez de continuares a insistir no que dizes, prova-o.
“https://br.ign.com/the-last-of-us-2/46976/news/the-last-of-us-part-2-so-comecara-a-ser-feito-apos-lancamento-de-uncharted-the-lost-legacy”
Pra acabar com a teima, ai uma entrevista com o presidente da NaughtyDog em 2017.
“Em entrevista à revista GameInformer, o presidente da Naughty Dog, Evan Wells, falou sobre as equipes de desenvolvimento dentro do estúdio, citando que há um time principal que trabalha atualmente no derivado de Uncharted, enquanto outra parte bem menor está focada em The Last of Us: Part II. Quando The Lost Legacy for finalizado, o foco passará a ser a continuação da história de Joel e Ellie.”
“Considerando que Uncharted: The Lost Legacy chegará ainda em 2017, o desenvolvimento pleno de Part II começará no mais tardar em 2018, podemos supor que o game chegue apenas em 2019.”
Fernando… O GitHub referia 56 CU no Arden, 36 no Oberon.
E tens de seguir a mesma coerência.
A não ser que queiras dizer que o Oberon era 36 aos quais ainda terias de desactivar 4, não vais dizer que o Arden era 56 para desactivar 4.
O GitHub era qualquer coisa. Não acertou na Xbox final, assim como ao que tudo indica não acertou na PS5.
E a frequência estava lá 1675 MHz…
Legal são os vídeos de alguns canais com o XSX, mas uma coisa me indaga, porque a MS demonstra Ray-Tracing com…. Minecraft?? Porque não com uma versão atualizada de Forza7 ou algum outro jogo com melhor qualidade gráfica?
Um vídeo legal onde se monta o hardware (pelo tamanho do dissipador ali esquenta pra caramba):
https://youtu.be/7Fjn4GRw8qE
pq ainda estão adaptando!
já tem video da previa de gears 5
Gears 5 não tem RT!
Tem, de outra forma que funciona até no Xbox One. Provavelmente vão mostrar um jogo com Ray Tracing em um evento próprio e grande, e não em um artigo.
Por que provavelmente querem fazer isso no evento que vai substituir a E3 e não em um artigo do Digital Foundry.
O Xbox Series X está muito bom mesmo. Vídeos interessantes:
https://www.youtube.com/watch?v=7Fjn4GRw8qE
https://www.youtube.com/watch?v=Oeyu0xYQtrw