A lei de Amhdal explicada – O motivo pelo qual Xbox série X e PS5 são mais parecidas do que se pensa.

0 0 votes
Avalie o nosso artigo

A lei de Amdahl aplicada às actuais consolas permite perceber o motivo pelo qual elas são bastante semelhantes.

A questão dos GPUs das novas consolas está a surpreender muita gente. Como é possível que um GPU com mais 1.84 Tflops. a potência de uma PS4, seja tão rápido ou até mais lento como um de 10.28 Tflops»

Vamos imaginar uma fábrica… onde temos esteiras onde a matéria prima entra numa sequência automatizada de produção.

Ora com uma esteira que recebe o material a uma determinada cadência, um determinado volume de produção que entre na esteira (100 unidades, por exemplo) demora T segundos a ser produzido!

Poderemos então pensar… ora se eu pegar e colocar outras esteiras lado a lado com a que tenho, o tempo que demoro a calcular este mesmo volume vai ser divido pelo número de esteiras.



Ou seja, se eu colocar P esteiras, o que vou ter é esse tempo dividido por esse número, ou seja T/P.

Num exemplo, se T = 60 minutos, e se o número de esteiras P = 4, então, para o mesmo volume de produção, irei precisar de apenas 15 minutos. 60m/4=15m.

Mas se isto é assim numa fábrica, porque motivo não é assim num GPU, quando temos igualmente unidades de produção, os CU, e aumentamos a quantidade deles?

Existem 2 obstáculos a isso:

  • O não paralelismo
  • A sobrecarga

Ora o grande interesse do paralelismo é podermos dividir o trabalho por várias unidades de produção. O objetivo aqui passa por duas partes. O reduzir o tempo que demora a tarefa a ser feita,  e o poder efetuar mais tarefas no mesmo tempo.

Ora o Ganho é o Tempo que temos com o aumento das unidades paralelas, o P. Vamos chamar a isso o TP. Ou seja,:



Ganho =  T/TP

No exemplo de cima, o Ganho era então 60m/15 m = 4 vezes! Ou seja, a nível de tempo para produzir a mesma coisa, tínhamos um ganho de 4 vezes, pois produzíamos em 1/4 do tempo a mesma coisa.

E repare-se: Que o Ganho não é nada mais, nada menos, do que o número de unidades de produção paralelas ou seja o P.

Ganho = P = 4

Ora o que podemos igualmente ter é casos onde o Ganho é Sublinear, ou seja o Ganho é menor que P. E casos onde onde o ganho é Superlinear, ou seja o Ganho é maior que P.



Por exemplo, se P=4, mas o Ganho = 5, temos um aumento superlinear, mas se P=4 e o Ganho = 3 temos um aumento Sublinear.

Vamos agora abortar um outro conceito relevante, o rendimento:

O Rendimento é o trabalho sobre o tempo usado com o uso das unidades paralelas, que em cima chamamos de TP.

Rendimento = Trabalho/TP

Assim, imaginemos que produzíamos 100 caixas, que seria o nosso trabalho.



Com uma única unidade de produção, o rendimento seria 100/60 m = 1,66

Mas com as 4, a nossa produção faz-se em 15m, logo o rendimento será 100/15 = 6.666

Basicamente, no caso de uma fábrica, o Rendimento seria P vezes superior, ou seja, é igual ao número de unidades de produção.

E isto leva-nos a um novo conceito, o de Eficiencia.

A Eficiência ou uso efetivo das unidades de produção paralelas traduz-se na seguinte formula:



Eficiência = Ganho/P

Ora no caso anterior, como o Ganho era de 4 vezes e as unidades paralelas eram 4 (P=4), temos uma Eficiência de 4/4=1 ou seja, de 100%.

E com este conceito percebido, vamos calcar novamente naquilo que já abordei aqui mais de 100 vezes, a Lei de Amdahl, aplicada aos processadores paralelos!

A Lei de Amdahl

Antes do mais, devo referir que já estudei isto há muitos anos, e não tendo a necessidade de ter estas coisas na ponta da língua, pode-se tornar difícil explicar este conceito. Diga-se mesmo que estou a relembrar muita coisa pelo que espero que consiga passar a mensagem.

Mas a realidade é que o paralelismo na computação não é idêntico ao paralelismo numa fábrica como no exemplo de cima. E daí que Gene Amdahl tenha tido a necessidade de criar uma Lei que explica o rendimento de um sistema informático com o aumento das unidades de computação paralelas.



E que melhor exemplo de grandes quantidades de unidades de processamento paralelas do que um GPU?

O grande problema da computação, e que cria a diferença para o exemplo de cima fornecido numa fábrica, é que a computação é inerentemente sequencial. Mesmo quando temos computação paralela, há sempre processamento sequencial. E ao contrário do que acontece numa fábrica onde eu posso fabricar um produto em várias linhas sem problemas, na computação existe algo chamado as dependências, ou seja, resultados que podem estar a ser calculados na linha de produção A, mas que são depois necessários na linha de produção M para esta poder prosseguir.

E estas dependências são o que impede que a computação paralela seja equivalente à produção paralela.

A acrescentar a isto, há muito código que, pura e simplesmente, não pode, ou pelo menos não deve sob pena de as dependências criarem gargalos a todo o sistema, ser paralelizado, havendo a necessidade de ser processado sequencialmente.

E isto cria uma realidade na computação paralela que é diferente da realidade da produção paralela, um aumento da perda de eficiencia, com o aumento do número de unidades de processamento paralelas.



Assim a formula do Ganho assume uma outra forma, e passa a ser:

Ganho = 1/Percentagem de código que necessita de ser sequencial.

Assim, se precisarmos de 50% de código sequencial, o ganho será 1/0.5, ou 2x
Se o código que precisa de ser sequencial for de 10%, o Ganho será 1/0.1 ou 10x

O que, mantendo-se a formula da eficiência, permite perceber que a mesma só será 100% quando a percentagem de código sequencial for basicamente nula.

Esta situação leva-nos a tabelas deste tipo:



O gráfico basicamente representa o seguinte:

O Ganho (Speedup) pode ser representado por várias linhas, dependendo da capacidade de paralelização do código. A azul temo código que é em 50% sequencial, e 50% paralelizável, e onde o ganho máximo que podemos obter é, como já tínhamos visto na conta de cima, 2, e a verde um código basicamente bem executado e preparado para paralelismo, onde apenas 5% do código é sequencial, e onde o ganho pode ir até 20 vezes sobre a existência de um único processador.

No entanto, com o aumento do número de processadores, as dependências aumentam exponencialmente, e consequentemente, a partir de um determinado número de processadores, os ganhos tornam-se nulos.

Eis um exemplo de uma dependência, em código:



sum = a+1; /* << */
first_term = sum*scale1; /* << */
sum = sum+b;
second_term = sum*scale2;

Basicamente, a variável sum depende do valor que possuía anteriormente

Podemos ver no gráfico de cima que com 95% de paralelismo isso ocorre com algo acima dos 4096 processadores. Tendo cada CU 64 unidades de processamento, isso implica que o limite acima do qual não justifica ir é 64 CU. Exatamente o limite que sabemos existia no CGN, e acima do qual a AMD nunca foi.

Mas o que podemos ver aqui é que a diferença no ganho entre 52 CU ou 3328 Processadores e 36 CU ou 2304 processadores é super reduzida.

Outra coisa que o que estamos a ver nos mostra é que a velocidade é importante. O ganho que estamos a observar no gráfico é em número de vezes o ganho de um único processador. Se um único processador é 22% mais rápido do que outro, o ganho obtido com as consequentes perdas é, comparativamente superior.



Por outras palavras, e algo que já sabemos, um processador que obtenha a sua performance por velocidade é mais eficiente que um que obtenha a mesma performance por paralelismo.

Como vemos no gráfico de Amdahl, a velocidade não é tomada em conta, mas sendo a Eficiência =  Ganho / P, e o Ganho com 2304 processadores muito próximo do Ganho com 3328 processadores, o valor da Eficiência do processador com menos unidades paralelas é mais alto.

Ora o que sabemos é que a Sony mexeu ainda mais na sua eficiência. Os Cache Scrubbers, os motores de Coerência, e mesmo o seu Geometry Engine estão alterados para melhorarem a eficiência ao reduzir a quantidade de processamento que é feito pelo sistema na sua gestão interna. E consequentemente, se a Eficiência ainda sobe mais, sendo P um valor fixo, o Ganho aumenta.

E isso permite que a PS5 possa estar ao mesmo nível da Xbox, apesar da diferença teórica de 18% dada pelos Tflops.

Mas várias perguntas podem ser colocadas:



1 – O paralelismo máximo é 95%?

Apesar de não poder dar essa certeza, é quase uma certeza que ele não deverá ser muito superior a isso.

Situações como a computação que seja limitada pela memória, ou pelo sistema de I/O, ou mesmo maus balanceamentos de cargas de processamento que criem sobrecargas ou overheads no sistema, obrigam forçosamente a serialização, mesmo que o código fosse totalmente paralelizável. Daí que apesar de não poder afirmar com toda a certeza que 95% seja a paralelização máxima, os 100% nos sistemas catuais são apenas teoria, e os 95% são uma boa aproximação da realidade em código bem realizado.

2 – Mas então porque apostar em mais CU e não em mais velocidade?

Na realidade, desde que o código seja bem feito, ambas as situações são meras alternativas. A questão passa depois pela maior dificuldade em paralelizar o código para mais CUs evitando as dependências ao máximo. Mas acreditando-se que isso se supera ambas as alternativas são viáveis e conduzem a resultados semelhantes.

A opção da Sony não seria a melhor se não fosse pelas melhorias adicionais na eficiência interna do sistema, que permitem fechar os pouco porcento de performance extra que a Xbox possui, tornando as consolas em tudo semelhantes, apesar de chegarem lá de formas diferentes. Eventualmente código mais otimizado para um tipo de processamento ou para outro, poderá fazer a balança pender para um lado ou para o outro mas, à partida, sempre com algum equilíbrio pois no global os sistemas acabam por ser muito semelhantes a nível de performance.

3 – Mas há quem diga que a lei de Amdahl está ultrapassada! Ela continua válida?

Na realidade a Lei de Amdahl é um modelo muito simplista que ignora imensos fatores, servindo apenas como modelo de aproximação, mas não como algo preciso.

Basicamente o modelo foi criado para responder a uma questão relacionada com o paralelismo: Se tenho um trabalho a fazer, quão mais rápido o posso fazer com paralelismo?

Mas por exemplo, se eu tenho um tempo de duas horas para processar algo, e arranjo um sistema mais rápido ele no mesmo tempo pode processar algo ainda mais complexo.

Sem darem significado aos termos, chama-se ao primeiro caso uma medida de escalamento forte, e ao segundo uma medida de escalamento fraca. E este segundo caso responde a uma outra pergunta: Que quantidade de trabalho posso processar num tempo fixo.

Ora apesar de para os videojogos basicamente e historicamente apenas sempre nos interessou o escalamento forte pois o jogo é o mesmo em todos os sistemas, cada vez mais vemos o escalamento fraco a ser usado, com a performance adicional a ser usada para efeitos adicionais ou resolução.

Daí que surgiu uma perspetiva diferente. Uma que inverte o problema que Amdahl colocou, e que em vez de calcular o quanto mais rápido é um sistema com P processadores do que com um processador com uma fração F de código paralelizável, podemos ver quanto mais lento é um processador face a P processadores num problema que é P vezes maior.

 

E teremos esta formula:

S(P)  =

T

__

  ≤

(1-F)+FP

____

  =

1+F(P-1)

 

TP

(1-F)+F

Esta é o lei de Gustafson’s, e nela a parte serializada não aumenta com o problema e pode ser ignorada.

Como vimos num cálculo anterior, se a percentagem de paralelização fosse de 90%, o ganho máximo do sistema seria de 10x, mesmo que subíssemos os processadores para além do necessário. Mas se a percentagem serializada não escalar com o tamanho do problema, 100 processadores poderiam aumentar o problema a resolver em 1000 vezes e escalar o mesmo num fator de 900.

Esta situação demonstrou uma fraqueza na lei de Amdahl, que na realidade não é uma fraqueza. Basicamente o que acontece é que esta inversão do problema mostra que os ganhos não são exatamente aquilo que a lei de Amhdal refere. E que os ganhos podem ser maiores do que os ali indicados. No entanto não altera a realidade global da lei, pelo que a mesma continua válida na teoria que representa e no limite imposto pelos processadores paralelos.

Outra situação onde a lei falha é que não toma em conta a paralelização dentro da paralelização. Todos sabemos que a AMD passou a usar Double CUs. Basicamente uma Navi RDNA 1 possui agora 40 CUs, mas numa estrutura de 20 Double CUs. Quer isto dizer que onde antes tínhamos um limite de 64 CUs, esse limite passa agora a ser de 64 Double CUs, ou seja 128 CUs.

Esta situação contorna o limite da lei de Amdhal, sem no entanto a quebrar. Continua a haver um limite de 4096 processadores com 95% de paralelização de código, mas cada um desses processadores são agora constituídos por dois processadores.

Numa outra falha da lei, ela parte do principio que todos os processadores em jogo são iguais, o que não necessita de ser verdade (por exemplo a PS3). Mas mais uma vez apesar de todos estes pontos serem referidos como algo que a lei não toma em conta, para o caso em causa a mesma continua válida.

É contudo uma lei que, dados os avanços na computação, deverá deixar de ser usada em breve pois não toma em conta muitas das novidades tecnológicas que apareceram e que permitem superar os seus limites. No entanto, para o caso em questão, e apesar de já estarmos a lidar com Dual Cus, a validade da mesma ainda pode ser tomada em conta para perceção da semelhança dos sistemas.

 

 



0 0 votes
Avalie o nosso artigo
51 Comentários
Antigos
Recentes
Inline Feedbacks
Ver todos os comentários
Marco Antonio Brasil
9 meses atrás
Avalie o nosso artigo :
     

Excelente artigo para começar o ano, muito didático.

PS: É maravilhoso quando a ciência entra em campo, jogando luz em qualquer debate. Uma pena que tantos aderiram a esse movimento de desacredita-la, apenas para defender seus pontos de vista a qualquer preço. Mas sigamos nos juntando aos bons.

Carlos Eduardo
Carlos Eduardo
9 meses atrás
Avalie o nosso artigo :
     

Parabéns pelo artigo, como sempre de altíssimo nível.

A discussão sobre processamento sequencial e paralelo é bastante interessante. Gostaria de acrescentar algo que foi levantado pelo @LeviathanGamer2 no twitter. Links: https://twitter.com/LeviathanGamer2/status/1329171522905366533?s=20 https://twitter.com/LeviathanGamer2/status/1329171814463967234?s=20

Ele resumiu o fluxo de trabalho em 3 etapas.

1) front-end / pré-processamento,
2) O trabalho do core shader
3) back-end / pós-processamento

Ele defende a tese que o PS5 é superior no backend (pixel fillrate) enquanto que o XSX é superior no core shader ( mais CUs). E sobre o lado do front-end, o PS5 pode estar levando vantagem, iniciando o passo 2 um pouco mais cedo que o XSX. Isso significa que embora o passo 2 tenha um paralelismo maior no Xbox Series X, entregando mais resultado em menos tempo, a parte sequencial que ocorre antes de entrar no passo 2 termina mais rápido no PS5, o que equilibra as coisas.

Perguntei no privado o que ele entende pelo passo 1, e recebi a resposta:

Usually the GPU frontend is Command Processor or Geometry Pipeline. There is also the CPU side as well which feeds the GPU work.

Sparrow81
Sparrow81
9 meses atrás
Avalie o nosso artigo :
     

Ótimo artigo, Mario.

É, parece que a Sony trabalhou muito melhor na proposta que um consolo deve ser, ou seja, um console.
Parece que dessa a Microsoft foi pega de surpresa com as alterações da arquitetura do PS5 e agora já ficou bem complicado defender a proposta de “mais poderoso”, sendo que na prática os jogos são quase iguais ou até superiores no PS5.

Tô curioso para ver o futuro, pois se em força bruta o PS5 leva vantagem agora, imagino quando forem levadas em consideração todas as features next gen.

Deto
Deto
Responder a  Sparrow81
9 meses atrás

Provável que seja os compromissos com Azure.

Impressionante que a DF sequer pensa nessa realidade… Desde que a AMD lançou as 6x a DF não piou mais com os papos furados de “não melhora com clock mais alto” e o Alex parou de falar de papo furado de Full RDNA.

Quando apareceu desenvolvedor falando que a diferença era pouca, sem falar qual era o melhor, já imaginei que era a favor do PS5, para evitar xiliques histérico dos fanboys do Xbox no forum

Carlos Eduardo
Carlos Eduardo
9 meses atrás
Avalie o nosso artigo :
     

Mário, ia comentar nesta thread (http://www.pcmanias.com/vrs-quem-o-quer-eu-nao/) , mas os comentários não estão mais habilitados.

Na análise do patch 2.0 de Dirt 5, o NXGamer disse que a versão do Xbox Series X melhorou muito, mas visualmente ainda está um pouco atrás do PS5. E ele culpou o VRS lol. Segue, a partir de 2:28 https://www.youtube.com/watch?v=-1FBC-1V59M

I zoom in again you can see this it’s much closer but in background the ps5 is better and that’s because the series x still uses VRS

you can see the difference in the codemaster sign, it’s much lower quality because series x uses VRS. You can see this on the ground as i zoom in. You can see on the series x there’s like a blur. This the ground is blurrier it’s softer and the ps5 is sharper and cleaner look as i pause it. And that’s because they’re probably using almost like a radial blur around the edge of the screen the VRS to actually reduce that level and slightly soften it to reduce the image. That’s what it looks like to me.

marcio
marcio
9 meses atrás
Avalie o nosso artigo :
     

Excelente artigo Mario!

Deto
Deto
9 meses atrás
Avalie o nosso artigo :
     

Acho q a gente pode considerar mais isso como uma noção de que o paralelismo tem limites.

Qual é? Depende do caso.

Rodrigo
Rodrigo
9 meses atrás
Avalie o nosso artigo :
     

Mais um ótimo artigo exclusivo, muito bem explicado. A lei de Amdahl mostra a tendência geral em sistemas reais, mas não abrange alguns processos não triviais. Por isso eu acredito que ela não deve ser aplicada literalmente a sistemas reais. Por exemplo como estimar corretamente na lei de Amdahl o efeito da sincronização de barreira, seção crítica, operações atômicas etc. A curva na lei de Amdahl mostra saturação quando o número de processadores chega a cerca de 2.000, mas não há uma modificação do Amdahl para sistemas de computação heterogêneos como GPUs em que os programadores podem calcular acelerações teóricas. Ela mostra a a ideia geral de paralelização, mas não é adequada para estimativas de desempenho reais.

Duarte
Duarte
9 meses atrás

Ainda é cedo, pois ainda nem sequer há multis exclusivos desta nova geração.
Ainda há coisas a melhorar no desenvolvimento como podemos ver no dirt 5, que apenas depois deste novo patch a SX equiparou a ps5.

duarte
duarte
Responder a  Mário Armão Ferreira
9 meses atrás

A melhoria na SX foi feia com um simples patch, o que poderá dizer que ainda mais se pode fazer e que as produtoras não estão a tirar real partido da SX no início, o que era de se esperar.
Claramente as duas consolas são muito semelhantes e o que parece faltar atualmente am alguns jogos na SX deve-se ao mesmo motivo porque ainda não vemos a superioridade do SSD da ps5 em relação á SX, ou seja, ainda não estão totalmente dedicados ás features.

AlexandreR
AlexandreR
9 meses atrás
Avalie o nosso artigo :
     

Mais uma vez um excelente artigo, Mario!!
Eu quero ver como cada uma se porta daqui a 2/3 anos.
Os 2 sistemas tem uma abordagem diferente, e vamos ver até que ponto os motores tiram partido de um ou de outro sistema, ou se de ambos.
Eu ainda não me sinto confiante relativamente a velocidade que a ps5 atinge, principalemte quando os jogos forem mais exigentes. Já sabemos que o sistema chega aos 2,23ghz, mas que tem as suas limitações. No caso da xbox sx, em termos de performance bruta, não se sabe.
Mas também acredito que a existir uma diferença, seja muito reduzida, relativamente a reaplicação e não será percetível

AlexandreR
AlexandreR
Responder a  Mário Armão Ferreira
9 meses atrás

Depender da carga térmica/energética.

Daniel
Daniel
Responder a  AlexandreR
9 meses atrás

As RDNA 2.0 são verdadeiras bestas enjauladas no que se diz respeito a velocidade de relógio. Há colegas em fóruns (só olhar no Adrenaline) conseguindo setar 2.7 ghz nas RX 6800XT com bons índices de consumo e temperatura, e o mais impressionante; alguns acham que a AMD limitou um pouco e que poderiam ir além (estou muito curioso para algum entusiasta blocá-las e não me admiro que cheguem a 3.0 GHz). Eu também estava cético, mas dado ao fato narrado em conjunto ao sistema de resfriamento do PS5, não me parece que haverá problemas.

Sparrow81
Sparrow81
Responder a  AlexandreR
9 meses atrás

Parece que vc não pegou até hoje o que Cerny disse, não é mesmo? Os 2.23ghz são constantes quando o sistema precisar, se não precisar aí os relógios descem, etc, etc etc… TB é a térmica/energética base do sistema com CPU e GPU trabalhando no seu máximo com suas margens preservadas. É na verdade o oposto dos boost clocks do PC. Incrível a dificuldade surreal de alguns entenderem algo tão bem explicado e de fácil entendimento.

O que o Xbox fez? Algo que nenhum sistema faz nos dias de hoje: Trabalhar com relógios travados. Qual a vantagem disso? Esquentar que é uma beleza desnecessariamente. Se tivesse que me preocupar com a longevidade de um sistemas seria com o SX, por razões óbvias. E você diz que não se sabe das variações na SX? Não se sabe, pois elas não existem! Os relógios estão bloqueados e não sobem e nem descem!

Sparrow81
Sparrow81
Responder a  Mário Armão Ferreira
9 meses atrás

Exatamente, Mario.
Como Cerny disse; basta um par de dígitos da descida de relógios para resolver completamente qualquer possível aquecimento de quando o pior jogo chegar.
O meu deve ficar a maior parte do tempo com cooler desligado, pois é um silêncio absoluto. Ele só liga em uns 10 segundos a cada hora e volta a silenciar.

Duarte
Duarte
Responder a  Sparrow81
9 meses atrás

No entando quem teve de implementar metal liquido (e é uma escolha que ninguém faz sem ser por necessidade de maior) foi a sony.
Estive a pesquisar e a verdade é que não existe informação 100% credível e fiável de como funciona exactamente o clock da ps5.

De qualquer das maneiras penso que a longo prazo o maior problema será o módulo de memória da ps5 que atinge 92 graus, que é temperatura limite para o tipo de memória em questão.

Duarte
Duarte
Responder a  Mário Armão Ferreira
9 meses atrás

Uma marca a usar numa gama de produtos de alto desempenho e compactos é tudo menos standard.
93.3 graus é perto do limiar de funcionamento, ou seja, como em todos os componentes electrónicos, trabalham mas a probabilidade de sofrer de deterioração prematura aumenta bastante.

Duarte
Duarte
Responder a  Mário Armão Ferreira
9 meses atrás

É a sapphire? Como sabes que não vai ter problemas? Até um carro faz muitos kilometros com metade de oleo de motor.

Duarte
Duarte
Responder a  Mário Armão Ferreira
9 meses atrás

Desgaste mais acentuado devido a temperatura. É um problema inerente a qualquer produto electrico/electronico.

É a Sapphire?

Duarte
Duarte
Responder a  Mário Armão Ferreira
9 meses atrás

Estou a falar desse bench da imagem. De que marca é essa gráfica?

Sparrow81
Sparrow81
Responder a  Duarte
9 meses atrás

Não se preocupe, amigo. O Ps5 já sabemos que você não vai comprar mesmo. Quem deve se preocupar é quem compra. FUD aqui agora?

Como assim não existe informação credível de como funcionam os clocks? Está a falar que não acredita no Mário? Ou está falando que o Cerny é mentiroso? Assista road to ps5 ou leia o artigo do Mario sobre continuous boost que você vai entender.
Não questionas os relógios bloqueados na SX pq? Por que eles fizeram essa escolha incomum? Por que o SX sustenta seus relógios mesmo sem precisar? Gastar energia e esquentar a toa agora é virtude?

Ah, o novo artigo do Mario mostra testes incomuns para o console e ele se saiu muito bem. E isso sem ventoinha! Tá em dúvidas ainda quanto ao projeto?

Sparrow81
Sparrow81
Responder a  Mário Armão Ferreira
9 meses atrás

Sim, Mario. Foi nesse contexto que falei “Não acredita no Mário”. Ora, se tudo que você escreve não tem valor para alguns e eles questionam a todo momento, mesmo com infos oficiais falando o mesmo, não sei o que fazem aqui, não é mesmo?

Duarte
Duarte
Responder a  Mário Armão Ferreira
9 meses atrás

A malta do PC gosta de ter o sistema o mais fresco possível e se possível longe das temperaturas limites mencionadas pelos fabricantes porque são maluquinhos.
Qualquer pessoa sabe que componentes electronicos a funcionar perto do limiar aceitável da temperatura desgasta os componentes mais rápidamente.
Aliás nem sei porque a sony se preocupou em deixar todos os outros módulos de memória bem mais frescos e apenas deixou um a chegar aos 93 graus.

Também não esquecer que a temperatura medida não é no Tjunction, que será superior aos 93.3 ºC.

Imagino que para vocês foi intecional e deve ter algum tipo de segredo.

Duarte
Duarte
Responder a  Mário Armão Ferreira
9 meses atrás

Quem é que está a falar de GPU?

Sparrow81
Sparrow81
Responder a  Duarte
9 meses atrás

Na moral mesmo, cara? Acorda! Nenhum engenheiro construiu o ps5 do zero não fazendo ideia do que era o projeto. Os caras pesquisaram metal líquido por 2 anos para ver a viabilidade, estão pensando no ps5 desde 2015, com Cerny viajando o mundo falando com devs e com parceiros da epic!
Você parece um amigo meu, sempre desconfiado de tudo simplesmente porque “eu nunca vi antes algo assim”. Eu TB não vi muita coisa na década de 90 que é possível hoje. Incrível né? As coisas evoluem, a Sony é uma empresa muito conhecida pelo seu investimento diuturno em pesquisa! Tudo foi muito bem explicado como funciona. Agora se você não acha a Sony credível, problema seu! Já eu não acho que você fale coisas com embasamento e lógica e nem por isso acho que você é um cara péssimo.
Se falasse as coisas com algum embasamento, mas não adianta contrapor e desenhar, mostrar fontes, standard e nada a você, que continua desconfiado. Continue assim, um mala sem alça. Hehe abraço.

Duarte
Duarte
Responder a  Sparrow81
9 meses atrás

Os engenheiros do RROD, YLOD e jet engine mandam-te um abraço.

Duarte
Duarte
Responder a  Mário Armão Ferreira
9 meses atrás

Exato. Mas aqui no site a ps5 é perfeita e isenta de problemas.

Deto
Deto
Responder a  Duarte
9 meses atrás

vc mesmo respondeu como é ridiculo esse papo com “deixou um chip sem refrigeração”

esse GN é o mesmo nível de especialistas do “RDNA1 não melhora desempenho, PS5 9TF” “pq no PC”?

Mas vamos fingir que vc está coberto de razão:

Sony é idiota e resolveu não refrigerar um chip dos 16 chips de RAM e não foi o teste do pião de computador que esta errado.

fabricante da memoria é idiota, certifica até 100 graus, mas isso faz a memoria ser descartável

sony idiota, além de ESQUECER um chip de ram para refrigerar, ainda não sabe que tem q refrigerar para temperatura máxima de 1/2 da certificada pelo fabricante de memoria.

um pouco de senso de ridiculo para ter noção de que se vc “escreve na internet” não te da o mesmo curriculo que uma empresa grande pq “ela tb escreve na internet igual a mim”

Duarte
Duarte
Responder a  Deto
9 meses atrás

Erros de concepção acontecem. Já ouviste falar RROD e YLOD?
O fabricante da memória não é a AMD.
Mostra-me dados oficiais do temperature range do Tjunction da GDDR6.

Porque a sony não colocou o módulo no mesmo range dos outros módulos? Sabes dizer?

Sparrow81
Sparrow81
Responder a  Duarte
9 meses atrás

Se a temperatura para funcionamento normal da memória é de até 110C°, 95 não está nem próximo disso. Você querendo ou não.

Duarte
Duarte
Responder a  Sparrow81
9 meses atrás

Dados oficiais do range da Tjunction sff?

Sparrow81
Sparrow81
Responder a  Duarte
9 meses atrás

Não, porém não sei o porquê da sua preocupação… A Sony faz videogame desde 1994, não é amadora e a maioria das pessoas confiam na empresa. Se você não confia e já disse que não vai adquirir a ps5, não sei o porquê da sua preocupação. Eu tenho um ps5 aqui e ele tá rodando tudo muito bem e sempre que fui colocar a mão atrás do console quando percebi que a ventoinha tinha acelerado, pah, lá estava um ar morno para frio, Muito diferente do tempo que montei PCs por exemplo. Então se é algo que você na sabe e TB não tem o mínimo interesse em ter o produto, não sei o porquê de tanto desespero.

Duarte
Duarte
Responder a  Sparrow81
9 meses atrás

Nem PS5 nem Xbox. Estou á espera da RTX3080, mas está difícil.

Deto
Deto
Responder a  Duarte
9 meses atrás

cuidado para a Nvidia não botar cheat nos drivers.

error: Conteúdo protegido