Os rumores sobre a Xbox Scarlett

Os últimos rumores apontam para duas consolas. Uma primeira mais tradicional, e uma segunda, que sairá mais tarde, baseada em Streaming.

Os últimos rumores sobre a Xbox Scarlett partiram de Brad Sams, um colaborador no website Thurrot.com, pertença de Paul Thurrot, um conhecido blogger com um passado ligado à Microsoft. Apesar de Turrot já ter dito muita coisa que não se verificou no passado, a realidade é que o meio aceita-o a ele e ao seu blog como tendo fortes ligações à Microsoft, e como tal, aquilo que este refere, não pode ser descartado à partida.

De acordo com Brad, as duas consolas da Microsoft serão bem diferentes uma da outra. A primeira será uma consola tradicional e que será capaz de executar todos os jogos localmente. Não há ainda informações sobre as especificações dessa consola.

No entanto essa consola estará associada a uma outra que sairá posteriormente. E sobre esta há algumas informações interessantes.

Esta segunda consola será bastante mais barata e menos potente que a primeira, sendo basicamente aquilo que se denomina de uma “Streaming Box”, ou seja, uma consola 100% ligada e dependente da internet e que executará os jogos por streaming. O serviço de Streaming que servirá essa consola é o que tem vindo, ao longo dos tempos, a ser falado pela Microsoft como alo que lançará no futuro.



Ora esta consola será um aparelho de baixo consumo e de baixa performance, especificamente criada para Streaming. Refere-se que a Microsoft está ela própria a criar o hardware dedicado para esta consola.

Ora uma consola de baixo consumo e com baixa performance que funciona por Streaming é uma consola com tremendas limitações. Não só a internet é obrigatória para o funcionamento da mesma, como os jogos sofrerão dos tradicionais problemas de compressão de imagem e latencia.

E se sobre os dois primeiros não haverá uma solução universal, sobre a questão da latência a Microsoft arranjou maneira de a minimizar. A solução não é mágica e nem resolve todos os problemas, mas não deixa de ser uma melhoria sobre o streaming tradicional até hoje implementado. Em que consiste?

Bem, de acordo com os rumores, a consola terá uma “pequena capacidade de performance” (e aqui colocamos o termo entre aspas, pois não está definido o que se entende por pequena, podendo o termo ser meramente comparativo e como tal não indicar forçosamente um valor baixo), e correrá localmente parte do processamento.

Nesse sentido, a gestão básica do mundo, a colisão de objectos, e a gestão de controladores será feita a nível local, ou seja, directamente pela consola.

Desta forma, a consola pode responder de forma que seja, pelo menos a nível de percepção, mais precisa ao utilizador. Estes dados precisam contudo de serem enviados para o servidor, que eventualmente os enviará para outros jogadores (em casos de jogos multi).



No entanto, face ao sistema tradicional há aqui um ganho. Actualmente os dados de posição e de movimentação dado pelos controladores são enviados para o servidor, que os processa e envia o resultado. Desta forma o resultado, pelo menos para o jogador local, será mais imediato, pois apesar de a reação do ecrã poder não ser muito superior, o efeito visual de latência pode diminuir bastante.

Basicamente há aqui um misto do que se passa actualmente com os jogos processados localmente, com o sistema de streaming. Não deverá reduzir toda a latência, mas poderá diminuir a mesma para valores bem mais aceitáveis.

Associe-se a isto uma consola barata e um serviço de streaming a baixos custos, e a adesão poderá existir. Falta saber a que nível e isso é algo que acreditamos que nem a Microsoft consegue prever, e daí ir apostar nos dois campos.

A questão é que apesar de este sistema poder reduzir, e bastante a latência do Streaming clássico, há ainda que ver como tal se comporta na prática. Como verão mais abaixo, a tecnologia que acreditamos que será a base do que a Microsoft pretende usar promete ser muito boa e inovadora, mas há que se questionar que efeito a mesma poderá trazer na qualidade de resposta dos jogo face ao input do jogador. Mas dado que sobre isso não temos dados concretos pois desconhecemos o que a Microsoft vai implementar exactamente, deixamos o abordar desta situação para as linhas que se seguem e que teorizam mais sobre o assunto.

Questões que ficam no ar



Apesar de vermos que este tipo de consola de baixo custo poderia ter uma enorme aceitação no mercado, há várias questões relacionadas com este tipo de serviço que, pelo que é conhecido atualmente, temos de colocar.

Entre as várias questões que estes serviços colocam temos a qualidade de imagem.

Numa altura onde as consolas se distinguem pela imagem clara e pura e resoluções 4K, parece que um serviço deste género poderá ser problemático, especialmente porque a compressão da imagem tem de ser feita em tempo real, não podendo ser previamente preparada como no Youtube. E aquilo que vemos nos serviços que existem, apesar de a qualidade de imagem não ser má, é algo radicalmente diferente do resultado que temos directamente numa consola que processe ela a imagem.

Apesar que boas ligações e hardware dedicado para compressão e descompressão video podem suprimir e muito essa lacuna, a realidade é que a imagem será sempre comprimida, e isso quer dizer que o que teremos no ecrã, será sempre diferente do obtido localmente. Aliás, mesmo com elevados bitrates, aquilo que todos podemos comprovar é que resultados como os vemos no youtube são sempre incomparavelmente inferiores ao obtido localmente.

Mas aqui não estamos perante um youtube, mas sim, como já referido, uma compressão video que tem de ser feita em tempo real. E apesar que a Scarlett pode trazer hardware de compressão/descompressão video dedicados que podem melhorar a coisa face ao que existe actualmente, a realidade é que o actual está longe de ser um exemplo. Eis um exemplo com o PS Now!



Recomendamos que parem a imagem de vez em quando para perceberem como há uma boa perda de qualidade. Apesar de que aqui vemos a possibilidade de se melhorar muito esta qualidade, o certo é que este será um problema que a Microsoft terá de abordar pois a lógica atual implica que melhorar a qualidade de imagem sem grande compressão obriga a mais largura de banda, e mais largura de banda, pode afastar potenciais clientes.

Uma solução possível para a largura de banda que pode ser aplicada a esta situação referida de misto de processamento local e no servidor pode passar por uma tecnologia que ainda não foi posta em prática, mas que se pode revelar muito interessante. A tecnologia Kahawai e que a Microsoft desenvolveu ou ajudou a desenvolver!

Esta tecnologia basicamente permite que um sistema com pequena capacidade de computação possa receber detalhe adicional de servidores, passando um jogo rendido com o detalhe mínimo e baixos fps a um aspecto com o detalhe máximo e altos fps. Chama-se a tal um render cooperativo, e reduz em muito a largura de banda necessária ao ser apenas transmitido a diferença entre os dois processamentos, seja a nível da diferença de detalhe, seja a nível da diferença de fotogramas. naturalmente que perante a alta latência da internet a situação é extremamente problemática de ser funcional em tempo útil uma vez que o video com os dados em falta tem de ser inserido no tempo respectivo. Para resolver isso a Microsoft usa um sistema de previsão de acontecimentos que faz com que o servidor preveja o que o jogador vai fazer, calculando as coisas antecipadamente de forma a elas chegarem a tempo. Infelizmente, apesar dos testes bem sucedidos em DOOM 3 e Street Fighter 4, a questão é que esta situação requer alterações aos jogos, e pode não ser exactamente fácil de ser implementada em todos, e o sistema de previsão de movimentos requer processamento adicional, o que eleva as exigências no servidor caso se queira jogos com a qualidade obtida num GPU de 12 Tflops.

Diga-se que a tecnologia prevê duas hipoteses, o I-frame, onde o sistema local rende o jogo com a qualidade máxima e baixos fotogramas, sendo os fotogramas em falta inseridos por intermédio de video com o que se encontra em falta e calculado no servidor, e o modo Delta onde o sistema local rende o jogo com a qualidade mínima e todos os fotogramas, sendo o detalhe em falta enviado pelo servidor e colocado sobre a imagem. Este último método tem resultados inferiores ao primeiro, isto de acordo com os resultados dos estudos sobre esta matéria divulgados pela Microsoft, e divulgados pela Universidade de Washinton.



O gráfico de baixo mostra a qualidade do jogo e a qualidade obtida pelos dois modos com a variação da largura de banda, face ao modo Thin-Client, ou o sistema tradicional de streaming onde tudo é rendido do lado do servidor.

Na demo do DOOM, com o aumento da largura de banda o modo Delta até acaba por se revelar pior que o Streaming tradicional.

Note-se que SSIM significa Structural Similarity (SSIM), e foi usado para medir a qualidade de imagem. O SSIM permite determinar até que ponto o frame gerado pela tecnologia Kahawai é similar à qualidade máxima desse mesmo fotograma rendido pelo tradicional sistema de Streaming, e como se comprova o modo Delta é o que menor rendimento possui, apenas se mostrando mais vantajoso com menor largura de banda disponível. Mas como podem ver no video de baixo divulgado pela Microsoft, a qualidade deste modo, apesar de superar o streaming clássico com baixa largura de banda, ainda está longe de perfeita, e mais do que isso, perde muito com o aumento da largura de banda disponível. Da mesma forma a Microsoft revela que a latência com este modo é superior!



O estudo revela ainda que apesar de a tecnologia criar ela própria pouco mais de 2 ms de latência, a mesma sofre com redes com elevada latência, concluindo que a mesma é ideal para LAN, mas que em locais onde a latência da rede for alta, a resposta entre o imput e a percepção no ecrã excede os 100 ms. No entanto, tal não se revela muito diferente do que acontece com o Streaming clássico.

Ora o estudo, que se encontra aqui, acaba por demonstrar que, apesar de toda a inovação tecnológica, ficam ainda muitas questões no ar sobre a real resposta da tecnologia no mundo real de uma internet com tempos de resposta elevados. Talvez a solução passe por hardware de codificação específicos, para além de servidores muito capazes e espalhados pelo mundo, mas esta última hipótese faz lembrar um pouco a ideologia de serviços TV por todo o mundo que a Microsoft se propunha para a One. É que independentemente dos servidores, a qualidade da infra-estrutura dos ISPs foge ao seu controlo!

Seja como for, o relevante aqui é que esta tecnologia consegue reduzir a largura de banda necessária em 6x, trazendo uma latência mínima de 2 ms, algo dificilmente perceptível, e extremamente interessante para streaming, mas continuando muito sensível à latência da rede em que se encontra inserida.

Eis um video com a tecnologia:



Mas mesmo que esta tecnologia se possa revelar uma solução para a questão da qualidade da imagem, e mesmo da largura de banda e latência, há outros problemas, e um deles prender-se-há com a disponibilidade de recursos do hardware no servidor.

Ao contrário que se possa pensar, os recursos Cloud não são infinitos. Sim, é certo que um servidor é uma máquina muito mais potente do que aquilo com que lidamos no dia a dia, e isto incluindo sistemas de topo. Mas mesmo assim, estamos a falar de recursos finitos.

Ora quando há um jogo em Streaming, o que temos é Basicamente, cada pessoa estará a correr uma instância do jogo que será diferente e única. Poderá existir alguma excepção em jogos multi pois o universo é partilhado, mas tal não acontece em jogos de jogador único onde cada instância executada é completamente independente da outra. Seja como for, o processamento gráfico para as vistas de cada um dos jogadores é única qualquer que seja o jogo, pelo que no que toca ao capítulo gráfico, pouca ou nenhuma diferença há nos diversos tipos de jogos.

Isso quer dizer que, especialmente no que toca ao processamento gráfico, podemos dizer que basicamente há uma máquina na Cloud que nos está alocada e que está a correr o nosso jogo! Algo que pode ser estendido a todos os tipos de processamento em determinados tipos de jogo.

E isto quer dizer que, por muito poderosa que a Cloud seja, os seus servidores serão rapidamente esmagados a nível de performance ao processar jogos criados para máquinas de futura geração onde se espera que 12 Tflops seja a performance gráfica entregue.



Nesse sentido, o que poderá acontecer, tal como acontece com outros serviços existentes, é o serviço não ter hardware disponível para alocar mais uma sessão no momento em que queremos jogar. Pela maior partilha de recursos, percebe-se assim o interesse da Microsoft a desde já promover os jogos multi, uma vez que eles são a melhor forma que se pode encontrar para diminuir um pouco os requisitos, e tornar o serviço mais viável.

E essa situação é algo que se fala pouco, mas que acontece com serviços Streaming. E apesar de tal acontecer em todos eles, coloco uma foto do PS Now da concorrência como um exemplo da criação de filas de espera que demonstra que pode acontecer uma pessoa ligar-se para jogar e ser impossibilitada de tal ao receber uma mensagem a referir que de momento não há recursos hardware disponíveis para ser criada uma nova sessão, mostrando uma estimativa sobre a expectativa de esses recursos serem libertados em x minutos.

E não se iludam, a Cloud da Microsoft pode ser poderosa, mas não ao ponto de servir 10 milhões de consolas em jogos pesados ao mesmo tempo.

Para percebermos isso, nada como consultarem estes dados com as especificações dos servidores da AZURE. Daqui vemos que para este serviço não serve qualquer um deles, mas torna-se necessário o uso dos mais mais poderosos, os únicos dotados de GPUs com alta capacidade de processamento, os ND24, equipados com CPUs Xeon de 24 núcleos, e 4 GPUs Nvidia Tesla P40, com 11.758 Tflops cada, num total de 47.032 Tflops em precisão dupla.



Apesar de estes valores parecerem impressionantes, a realidade é que se espera que a nova geração nos venha trazer CPUs ZEN de 8 núcleos e GPUs de 12 Tflops, e isso quer dizer que, apesar destas especificações esta máquina, especialmente se tiver de fazer previsões, poderá ter dificuldade em servir 4 pessoas em jogos que usem essas especificações.

Mas mesmo que o faça, é preciso ver que isto implica que um servidor apenas serve 4 pessoas. Ou seja, para uma base mínima de 10 milhões de consolas, a Microsoft precisaria de alocar mais de 2.5 milhões destas máquinas só para o serviço Xbox. Para a atual base da Xbox (40 milhões) seriam necessários 10 milhões de servidores!

Recordemos que a Microsoft anunciou em 2013 que iria alocar 300 mil servidores à Xbox. E isto para um uso bem mais leve, o que significa que estamos perante um serviço que terá um custo incomparavelmente bem mais elevado. E isto leva-nos a outra duvida:

O preço do serviço!

Acima de tudo há que se perceber que esta segunda consola, ao ser extremamente económica, não pode ser uma ameaça para a a consola local que sairá primeiro, e cujo custo deverá rondar os 500 euros. E isto quer dizer que se estão a contar com uma consola barata e serviços de aluguer a 10 euros… esqueçam. Isso seria canibalizar o mercado da consola de mesa e criar uma concorrência entre os dois produtos.



Mas se dúvidas houvessem que esta consola, apesar de barata, não terá uma manutenção económica, basta tentarmos perceber qual poderá ser o preço do serviço para jogos Scarlett.

Note-se que há atualmente serviços de streaming a baixo custo. O Gamefly, por exemplo, funciona a menos de 10 euros por mês, fazendo Streaming para diversas TVs. Mas o Gamefly não só limita os jogos a 30 fps, como a resolução de stream é 720p, o que faz com que os recursos necessários para processamento dos jogos seja bastante mais reduzido, fazendo render bastante mais os servidores e permitindo que uma máquina como a ND24 possa servir algo como 40 sessões.

O PS Now, esse custa 45 euros por 3 meses, ou 15 euros/mês. O custo prende-se com o facto que o serviço não é feito com PCs, mas racks de consolas PS3 e PS4, sendo atribuída uma consola por jogo. Mas custando, ao público, uma consola PS4 250 euros, aceitemos que o hardware de um rack possa ficar à Sony por menos de 180 euros, algo que a 15 euros a cada 3 meses, se paga em 1 ano. Claramente compensador!

A questão aqui é que o que se espera desta Streaming Box Scarlett, são jogos Scarlett, com qualidade Scarlett. Ou seja, jogos que requerem 12 Tflops para processar e que fornecem qualidade 4K a 60 fps. Ora não só isto reduz tremendamente a capacidade de alocação de um servidor, que como vimos fica reduzido a servir 4 sessões, como temos outra questão.

Olhando novamente para os dados com as especificações dos servidores da AZURE vemos que por norma a Microsoft aluga estas máquinas a 3.676$/hora. Ou seja, alugadas normalmente, a Microsoft obtém com elas um total de 2735 dólares por mês.



Podemos aceitar que a Microsoft possa aceitar ganhar menos dinheiro com estes servidores, mas o certo é que se a ideia for manter este rendimento, tal seria incomportável pois mesmo que o valor mensal pago pelo serviço fosse de 60 euros/mês, tal requereria que este servidor fosse partilhado por 45.6 pessoas.

Dado que o servidor apenas pode ser vir 4 sessões, tal é incomportável, pelo que aceitando que 60 euros é um valor que não pode existir, sendo que o valor mensal tem de ser muito mais baixo, torna-se difícil perceber-se como é que a Microsoft irá rentabilizar as máquinas.

Como irá a Microsoft contornar isto, é algo que aguardamos para ver, sendo que a solução poderá passar por servidores novos, criados a partir do hardware da futura Scarlett

Mas para já, o certo é que tudo isto são questões que ficam no ar e para as quais aguardamos resposta.



error: Conteúdo protegido