Mitos da informática que foram sendo desfeitos com o tempo.

Apesar que se tenta considerar que a análise a especificações são coisas são simples, na realidade, elas não são assim tão simples.

Quem visita os fóruns para verificar notícias de tecnologia ou gaming rapidamente se apercebe de uma realidade: Alí só há entendidos!

Basicamente a informática e a tecnologia são áreas onde efetivamente não é necessário encontramos formados na área para encontramos grandes cabeças. No entanto isso nem sempre é assim, e depois temos aqueles que acham que sabem, sem realmente saberem absolutamente nada. São “peritos” na área que mandam todos os palpites e mais alguns, criticando tudo e todos que os contrapõem, sem se aperceberem das asneiras que vão dizendo.

Como já abordado no parágrafo anterior, e isto pode ser observado em qualquer profissão, o conhecimento dado por um curso pode facilmente ser assimilado parcialmente pela experiência prática. Mas a questão é que no caso da informática é chocante pois qualquer pessoa dá palpites sobre assuntos da área, mesmo quando não tem conhecimento absolutamente nenhum sobre o que está a falar.

Num exemplo meu conhecido, havia uma determinada senhora que se desenrascava muito bem naquilo que fazia, que era o uso do word e do excel. E essa senhora, devido a ajudar muito os colegas achava-se uma entendida em informática. Como se a informática se limitasse ao Word e Excel!



Ora essa senhora gostava de dar palpites sobre a escolha de computadores aos colegas, sendo que na realidade ela nada percebia sobre o assunto. Esta história, sendo já antiga, passou-se ainda numa altura em que basicamente era quase possível percepcionar-se a velocidade de um sistema pelos seus MHZ. E nesse sentido, a senhora, entendida e mestrada pela vida, basicamente analisava a velocidade de relógio, e recomendava ou criticava baseada nela.

A realidade é que os colegas, que percebiam ainda menos que ela, olhavam para os seus conselhos como uma referência.

Até que um dia foi necessário trocar os sistemas todos da empresa em que ela trabalhava. E eis que a equipa que vai fazer a troca, por terem muitas máquinas que trocar, resolve fazer a coisa em duas fases. Na primeira, mais rápida, trocava-se os monitores todos, e na segunda, mais lenta, os computadores.

E eis que a equipa se dirige à senhora para lhe trocar o monitor, e esta se recusa a deixar que lhe levem o monitor. O motivo? Ela tinha muitos documentos importantes no ambiente de trabalho, e se lhe levassem o monitor… iria perde-los.

E creio que já todos perceberam que com isto a reputação da senhora foi de vez por água abaixo.

Ora esta história é interessante pois aborda uma realidade importante. Não só  que basta pouco para se perceber até onde vão os conhecimentos de uma pessoa, como uma outra realidade que é que a  tecnologia é enganadora em muitos aspetos, e não basta olhar para números para percebermos realmente o que temos à frente. As especificações são relevantes em todos os aspetos, até ao mais ínfimo pormenor, e é nesse aspeto que a maior parte dos “peritos” da internet falham.



Eis alguns exemplos, não exaustivos, de situações que ao longo da história se mostraram pródigas em desmascaram supostos peritos.

486 é melhor que 386, e Mais Mhz é melhor

Nos primórdios do PC, apareceram as gamas 286, 386 e 486. Cada uma delas era uma evolução face á anterior, sendo que, no entanto, elas coabitaram durante algum tempo. Depois entre modelos da mesma gama, era só olhar para os Mhz

E rapidamente o mercado percebeu isso. 386 é melhor que 286, e 486 é melhor que 386. E era então comum ver-se qualquer um que lidava com computadores a tentar passar por especialista da área e a explicar isso.

Mas a coisa desmascarou-se com os modelos SX e DX. Basicamente uma das coisas que se falava muito na altura era que o co-processador matemático era uma ferramenta extremamente útil pois acelerava enormemente o processamento. Ora o SX era um processador sem co-processador matemático, ao passo que o DX era um CPU equipado com co-processador matemático, logo, supostamente, inerentemente, mais rápido.

Este é um conceito que hoje em dia é obsoleto, mas que na altura, pelo facto de a tecnologia x86 estar nos seus primórdios, ainda acontecia. E os primeiros modelos não vinha dotados de co-processadores especializados em lidar com operações de virgula flutuante.



E eis que começamos a ver muita gente a espalhar-se ao comprido. e a recomendar, por exemplo, um 386DX 40 Mhz em detrimento de um 486 SX a 25 Mhz.

Apesar de as pessoas saberem que o 486 seria a tecnologia superior, a ausência do co-processador matemático era uma grande lacuna, que associada à grande diferença na velocidade de relógio, fazia qualquer um destes supostos entendidos repensar a sua lógica normal, e recomendar aqui o 386 face ao 486.

Mas a questão aqui é que para sabermos qual o melhor tornava-se preciso compreender o que é que tornava o 486 superior ao 386.

Acontece que nesta altura a tecnologia x86 estava nos primórdios e em desenvolvimento crescente, pelo que a arquitetura 486 era bastante mais eficiente que a 386, em particular pelo seu sistemas de cache melhorada.

Um sistema que era de tal forma melhor que, nem o DX no 386 o ajudava. Eis um vídeo que demonstra isso.



Se ouviram o que foi dito, o 485 sx a 25 Mhz chega a ser até 40% mais rápido que o 386DX a 40 Mhz. Daí que rapidamente se percebe que uma recomendação de um 386 DX a 40 face a um 486 SX a 25 Mhz mostrava uma completo e total desconhecimento do que realmente na altura era mais relevante para a performance.

Curiosamente, esta realidade não seria a mesma se os jogos tivessem a programação atual. É que na altura os jogos lidavam maioritariamente com inteiros, pelo que aqui, apesar dos menos MHz a cache do 486 se tornava relevante. Mas com os jogos atuais, que usam e bastante a virgula flutuante, o 386 DX a 40 Mhz seria mais rápido.

Daí que isto só mostra que para se falar, é necessário saber-se do que se fala.

Operações SIMD, quanto mais melhor

O aparecimento das instruções SIMD como o MMX, o 3DNOW, e o SSE mostraram ao mercado que estas tecnologias, quando acrescentadas aos CPUs, traziam melhorias de performance.



O MMX rapidamente mostrou as suas garras ao esmagar em performances um processador idêntico sem sem MMX, pelo que rapidamente o mercado se apercebeu que as instruções SIMD eram algo de bom.

Este foi um conceito que se enraizou ainda mais devido ao 3Dnow da AMD, que da mesma forma melhorou e muito as performances dos processadores AMD.

E eis que com o Pentium 3 a intel lança o SSE. O SSE era a evolução do MMX, basicamente o MMX 2.o, pelo que rapidamente o conceito foi o mesmo que vinha de trás: SSE é algo a obter!

Mas na realidade o SSE não era, para este processador, algo realmente relevante. Na realidade as aplicações eram compiladas de forma a utilizar instruções FPU (Co-processador matemátio) e SSE em paralelo, mas os processadores Pentium III não eram capazes de operar estes dois tipos de instruções em simultâneo num mesmo ciclo. A consequência é que estas limitações reduziam a eficiência do pipeline não sendo tão eficientes quanto o MMX original.

Este foi um caso onde muita gente, sob conselho de supostos peritos, fez upgrade ao seu processador para introduzir esta tecnologia, sem que ela realmente fosse algo de verdadeiramente significativo. Algo que no entanto foi corrigido com o SSE 2.0 que, esse sim, revelou a real capacidade do SSE que, pela forma como o Pentium III tinha sido concebido, não podia nunca ser verdadeiramente explorado ali.



Mais Tflops, mais performance

Este foi outro conceito errado que surgiu na geração passada de consolas.

Até essa altura o conceito de Tflops era algo que passava ao lado do comum mortal. Mas com a geração e o uso extensivo do termo devido á comparação entre a PS4 e a Xbox One, o termo pegou. E hoje é usada como se fosse uma ferramenta de comparação válida.

Mas na realidade não é!

Teraflops não é mais do que a performance máxima teórica de cálculo. Num exemplo diferente, e para mais fácil compreensão, imaginemos que as unidades de cálculo são máquinas que metem rolhas em garrafas. Basicamente eu se pegar no numero de linhas de produção que tenho, multiplicar pelo número de máquinas de colocação de rolhas em cada uma, e multiplicar pelo numero de rolhas que cada máquina consegue colocar num ciclo de funcionamento e multiplica pelo numero de ciclos que ela faz por segundo, eu tenho um máximo teórico de colocação de rolhas por segundo.

É o mesmo com os Tflops nos GPUs, Eu pego no numero de CU (linhas de produção), multiplico por pelo numero de ALUS em cada um (o número de máquinas de colocação de rolhas – por norma 64 em GPUs AMD), multiplico pelo número de operações feitas por ciclo (número de rolhas que a máquina coloca por ciclo – Por norma 2 nos GPUs AMD), e multiplico pelo número de ciclos que faz por segundo (Mhz),e  tenho a performance máxima teórica do GPU.



Mas quando vou colocar as rolhas, algumas saltam fora, estão podres, ou tem algum tipo de problema, pelo que a máquina pára e tem de re-iniciar, não aproveitando assim todos os ciclos, pelo que  o número real obtido vai ser menor que o teórico.

Com o GPU é o mesmo, há dados na cache que falham, que param o processamento, obrigando à limpeza das caches e reinicio, dados que se revelam inválidos, etc.

Basicamente o valor máximo teórico é isso mesmo… algo teórico. E que só se pode comparar com outro sistema desde que o seu rendimento interno seja comparável. Se o rendimento foi equivalente então a comparação, apesar de não nos dar o output máximo do que vamos obter, permite ter uma ideia comparativa da performance de ambos. E percentualmente, esse valor será válido.

Ora PS4 e Xbox One eram basicamente sistemas com alterações ligeiras face ao que já havia no PC, sendo que o mais alterado até era a PS4. Mas as alterações eram mesmo assim algo equivalentes, pelo que os Tflops eram uma boa medida de comparação.

Mas fora isso… os Tflops são inválidos como ferramenta comparativa.



É isso que na atual geração as pessoas falham em compreender. PS5, Xbox, e GPUs PC não são diretamente comparáveis pelos Tflops , Como exemplo, as alterações realizadas na PS5 não foram no sentido de se aumentar a performance teórica, mas sim de se aumentar o rendimento interno. Quer isto dizer que a ideia foi que o aproveitamento do que existe fosse maior.

Basicamente em cima referimos situações que foram abordadas pela PS5. Os cache scrubbers por exemplo, não só impedem a máquina de parar quando os dados da cache falham, como é possível saber-se que dados da cache já foram lidos, substituindo-os imediatamente, não sendo necessário esperar pelo fim do processamento e pela limpeza total da cache.

Esta situação, entre outras igualmente implementadas, tem impacto direto na performance, não pelo aumento da mesma, mas pelo aumento do rendimento interno.

E é o conjunto de alterações efetuados no processo de eficiência da PS5 que explica como um sistema com 10.28 Tflops iguala ou passa um de 12.15 Tflops. Algo que os entendidos da internet não entendem pois estão neste momento focados nos Tflops, e no facto de a arquitetura base ser a mesma.

Agora, este tipo de melhoria pode não se revelar igualmente significativa em todos os casos, o que significa que haverão sempre os três casos possíveis, com a PS5 a poder ficar à frente, igual ou atrás da XBox séries X.



Mas este tipo de alteração face ao PC standard, será algo que demorará a ser utilizada pelas Thirds, pelo que será algo que veremos mais com o avançar da geração. Se isso se tornará mais ou menos significativo face ao que vemos agora com as comparações com a Xbox séries, é algo que vais depender igualmente da forma com os programadores explorarem as diferenças, a semelhança da Xbox com o PC, e as situações igualmente únicas da Xbox.

O certo é que o mito dos Tflops=performance será algo que tambem vai cair… como os casos anteriores.

Será de se notar que bem recentemente tivemos vários mitos, todos eles contrariados pela PCManias, que foram caindo, apesar de apoiados por grandes websites, sendo que o maior exemplo foi  que os SSDs não melhoravam o gráficos. Algo a que inclusivamente a Digital Foundry dedicou vários artigos, e que sempre contrariamos, apesar de muitos virem aqui literalmente gozar com a nossa cara por essa afirmação. Atualmente é já consensual que tínhamos razão, e que um bom SSD permite melhorar, e muito, o grafismo.

Apenas como exemplo, imaginemos um GPU com um aproveitamento de 60%.

O que é que isso quer dizer? Basicamente os pipelines não podem ser usados todos a 100%. Não só por questões térmicas, mas igualmente porque devido a dependências no calculo, os pipelines podem chegar a ficar parados muito tempo.



Esta situação foi a que originou o conceito do GPGPU, pois quando se percebeu que o GPU podia ter um aproveitamento tão baixo como 60%, resolveu-se criar um segundo pipeline que seria usado quando há estes 40% de tempos mortos.

Mas mesmo hoje em dia os GPUs estão longe de serem usados na sua total capacidade. Quando referimos que um GPU é de 10 Tflops, podemos ver essa performance em picos, mas o normal é ele debitar algo na ordem dos 7,5 a 8 Tflops. Uma eficiência de cerca de 75 a 80%.

Basicamente quando subimos os Tflops de um GPU aumentamos tambem a capacidade real de cálculo, mas a alternativa a subir os Tflops é… subir a eficiencia.

Um GPU de 10 Tflops, com uma eficiência de 80%, que sofra um aumento de 10% na sua capacidade teórica de cálculo, subirá para 11 Tflops. E o seu cálculo real, num aproveitamento de 80% subirá de 8 para 8,8 Tflops.

Mas se em vez de mexermos nos Tflops mexermos na eficiência interna em 10%, o mesmo GPU de 10 Tflops debitará na realidade 9 Tflops.



O que teremos aqui, é um GPU de 10 Tflops, a bater um de 11 Tflops.

Este conceito bastante simples, e que custa muito a alguns a perceber é o que acontece com os GPUs AMD e Nvidia, ou mesmo entre gerações de GPUs do mesmo fabricante. Por exemplo, a Nvidia subiu os Tflops nos seus Ampere, mas com perda de eficiência face aos Touring. Esse é o motivo porque uma RTX 3060 com 12.5 Tflops não esmaga ou se destaca na proporção que se esperaria face a uma RTX 2070 com 7.5 Tflops.

No caso das consolas, em particular a PS5 que foi desenvolvida quer a nível hardware, quer de software, em torno do aumento da eficiência e não do aumento dos Tflops, isto tambem ocorre, invalidando facilmente a comparação em Tflops com outras consolas e em especial, GPUs PC.

 

 

 

 



19 Comentários
Antigos
Recentes
Inline Feedbacks
Ver todos os comentários
Marcio
Marcio
30 de Agosto de 2022 11:32

Obrigado pelo artigo Mario, sempre um prazer ler seus textos.
E as pessoas ainda brigam por Tflops e pior ainda é fazer comparaçoes absurdas como de uma placa de video face a um sistema completo.

No que desrespeito a jogos, essa geração tem sido um tanto atipica, e trasição entre gerações tem sido bem mais “suave” realmente como Sony e Microsoft haviam falado, considerando claro a falta de estoque, mas estamos no segundo ano de geração e não temos nada realmente feito para ela, como Ryse, foi para o xbox geração passado e Killzone:SF foi para playstation, comprei meu console a 1 ano e ainda estou com essa expectativa de ver algo e dizer, uau isso sim é nova geração, espero que para o proximo ano as coisas finalmente evoluam.

Acredito que só assim poderemos ter uma base para ver o que realmente rende os novos consoles, algo feito totalmente pensado para as novas features, chega de crossgen e codigos legados.

Juca
Juca
Responder a  Marcio
30 de Agosto de 2022 12:05

Marcio, eu fiquei bastante impressionado com o Ratchet Rift Apart e mesmo com o Crossgen do Horizon FW. De resto, a Demo de Matrix também me embasbacou! Mas entendo o seu ponto de vista, a geração está pra mais do mesmo que pra nova geração.

Marcio
Marcio
Responder a  Juca
30 de Agosto de 2022 12:35

Não, chegou jogar Ratchet Juca, mas vi videos, parece bom o visual, mas nada “WOW”, horizon joguei, muito bonito, mas parece uma evolução do primeiro, nada com cara que nova geração, a demo da matrix sim, realmente parece algo melhor do que ja tinhamos visto ate então, porem ainda é um motor generico(não desmerecendo o UE5 é um baita motor), mas ainda sim generico, gostaria de ver o que um motor proprietario faria, veja o que santa monica fez com o ps4 ou a naughty fez, espero algo nesse nivel, e vou ser sincero, proprio last of us part 1, feito na raiz para ps5, apesar de parece bom ainda parece abaixo da demo the matrix…Quero que tanto a Sony quanto a MS virem essa chave logo, vamos ver o que spider man 2 entregará…

Hennan
Hennan
30 de Agosto de 2022 11:51

Hoje é muito mais complexo fazer análise de hardware por dados. Existe muitos detalhes que fazem grandes diferenças. Você vê uma 6800xt ganhar da 3080 em 1080p e 1440p, mas ter um desempenho inferior em 4k devido ao menor barramento da memória. Ou seja, cada detalhe conta e o verdadeiro teste são os games.

Juca
Juca
30 de Agosto de 2022 11:56

Mário, assim você nos ofende, os pitaqueiros! É óbvio que nós levamos isso como partida de futebol! ?

Brincadeiras à parte, Mário, é como eu falei, há um reducionismo em levar tudo pra Tflops que é simplesmente o cálculo de um tipo de operação, inda mais teórica como você bem disse, e sem considerar o fator eficiência, diferenças de arquiteturas e etc. O que na verdade se tenta comparar são as entregas de cada sistema, mas com o PC sempre é mais complicado por serem bastante heterogêneos.

Mas um ótimo artigo, me fez lembrar do meu primeiro PC (eu comecei um pouco tarde e só tive o meu aos 18 anos, embora tivesse acesso aos de amigos) um intel 486 DX2 66 de 8MB de RAM, 80GB de HDD Maxtor, e um kit multimidia 8x da Creative Labs, se não me falha a memória… que logo receberia um upgrade pra esperar o Windows 95 com mais RAM e um DX4 100… Bons tempos de iniciar pelo DOS e escrever Win pra entrar… Editando muito o autoexec.bat pra gerenciar a memória e fazer o Doom rodar! ?
Meu primeiro sonho foi uma VGA Diamond Vesa de 2MB! 24bits de cores no Windows 3.1! ?

Last edited 1 ano atrás by Juca
João Ferreira
João Ferreira
Responder a  Juca
30 de Agosto de 2022 12:33

Estava a ver a configuração do PC, mas os HDD de 80GB não apareceram apenas uns anos mais tarde ?

Juca
Juca
Responder a  João Ferreira
30 de Agosto de 2022 14:03

Acho que na verdade eram 80MB, ou 540MB, a memória já me falha! Não a RAM, a dos miolos! ?
Boa observação!

Last edited 1 ano atrás by Juca
Juca
Juca
Responder a  Mário Armão Ferreira
30 de Agosto de 2022 17:25

Estávamos a falar do espaço em disco… Eu havia dito que eram 80 GB e o João me corrigiu, eram na verdade 80 MB ou talvez 540MB… A RAM meti na estória só pra trocadinho com minha falta de memória (no sentido de lembrança)! ?

Last edited 1 ano atrás by Juca
Juca
Juca
Responder a  Mário Armão Ferreira
30 de Agosto de 2022 14:05

Cada novo jogo, uma nova edição no autoexec.bat, ou tudo manual após o boot no EMM386.exe!!!! ?

Last edited 1 ano atrás by Juca
Juca
Juca
Responder a  Mário Armão Ferreira
30 de Agosto de 2022 17:27

Você já tinha experiência e eu penei no serviço braçal! Só depois arrumei um gerenciador de memória melhor que esse emm386.exe e não tive mais problemas a gerenciar a memória, meio que tive que aprender tudo só através dos /help /?… Menu de boot só aprendi depois! É o problema da falta de experiência! ?
Essa garotada de internet já não tem esse problema, é tudo mastigado quando precisam! Não tem mais o aprendizado com tentativa e erro! Nem precisam mais pensar! ?

Last edited 1 ano atrás by Juca
Antonio
Antonio
Responder a  Juca
30 de Agosto de 2022 19:34

Nem me lembrava mais dessas coisas 😉 eu com 19 anos 2 3 ordenados para escolher entre um 486 dx4 100 ou um Pentium 100 😉 foi o pentium 100 com uma gráfica sys 1 mega….depois como quem não percebe nada daquilo mandei meter mais 1 mega de RAM na gráfica …eheh…nem lembrem .E quando saíram as voodoo ,ui ..dava pano para muitas mangas ,grandes aceleradoras gráficas .Dava mais um grande artigo do porquê nem sempre o melhor e mais rápido tem mais aceitação,veio a primeira NVIDIA e pronto,foste…e nem era melhor , lembro de comprar o OpenGL nas voodoo e nas nvidias…voodoo era muito melhor ,mas NVIDIA era frames,lá vinham as velhas discussões.E vingou NVIDIA…

José Galvão
José Galvão
30 de Agosto de 2022 13:47

Infelizmente as comparações absurdas como a dos teraflops nunca vão desaparecer, da mesma forma que as comparações de megapixels ou cavalos de potência nunca vão desaparecer, é uma ferramenta de marketing usada para explorar a ignorância das pessoas.

marco brasil
30 de Agosto de 2022 13:53

Muito esclarecedor o artigo. Infelizmente os “pitaqueiros” não estão só na informática, muito pelo contrário. O que mais vemos são leigos espalhando desinformação e pior, mentindo e distorcendo para manter suas posições. E as redes sociais pioraram tudo, parece que virou moda. Recentemente tivemos aqui no Brasil uma onda de “médicos” e “juristas”…melhor deixar para lá rsrs

error: Conteúdo protegido