Ir ao conteúdo
  • Comunicados

    • Gabriel Torres

      Seja um moderador do Clube do Hardware!   12-02-2016

      Prezados membros do Clube do Hardware, Está aberto o processo de seleção de novos moderadores para diversos setores ou áreas do Clube do Hardware. Os requisitos são:   Pelo menos 500 posts e um ano de cadastro; Boa frequência de participação; Ser respeitoso, cordial e educado com os demais membros; Ter bom nível de português; Ter razoável conhecimento da área em que pretende atuar; Saber trabalhar em equipe (com os moderadores, coordenadores e administradores).   Os interessados deverão enviar uma mensagem privada para o usuário @Equipe Clube do Hardware com o título "Candidato a moderador". A mensagem deverá conter respostas às perguntas abaixo:   Qual o seu nome completo? Qual sua data de nascimento? Qual sua formação/profissão? Já atuou como moderador em algo outro fórum, se sim, qual? De forma sucinta, explique o porquê de querer ser moderador do fórum e conte-nos um pouco sobre você.   OBS: Não se trata de função remunerada. Todos que fazem parte do staff são voluntários.
Marin

Placas de vídeo e Sistema - Um Guia para Iniciantes - LEIA ANTES DE PERGUNTAR !!

Recommended Posts

ATENÇÃO !

Este tópico NÃO é destinado a avaliações de configurações, sua finalidade é explicar, a grosso modo, alguns mitos do mundo da informática e assim guiar quem quer entender as razões de alguns resultados.

----------------------------

Muitas pessoas quando escutam falar em placas de vídeo hoje em dia ou as levam como “mais memória, mais desempenho”, ou “nome maior (7900GT X 8500GT) placa melhor”, isso vem sendo muito comum já a algum tempo, por isso eu me ofereci para escrever esse pequeno artigo para o Fórum do Clube do Hardware, estava faltando um artigo com reais argumentos técnicos e uma visão mais ampla das GPUs modernas.

Neste artigo eu pretendo colocar quais são os pontos que realmente definem o desempenho de uma placa de vídeo. Começaremos então com a arquitetura:

1º Fator que influência no desempenho Arquitetura:

Todo hardware hoje em dia, seja ele um computador desktop ou um hardware primitivo, trabalha com uma arquitetura, nossos computadores possuem processadores cuja arquitetura foi escrita levando como base a arquitetura x86, mas só porque a arquitetura de um Core 2 Duo é derivada da x86, não quer dizer que ela seja igual à de um Pentium Pro. Ambos usam o x86, mas existe uma diferença monstruosa entre eles, trata-se da evolução! Falar assim é fácil, claro, mas estamos falando de algo realmente grande, vamos partir para as GPUs, atualmente no mercado, temos duas “linhas de pensamento” digamos assim, sobre as GPUs, é a da AMD e a da nVidia, ambas são baseadas no Shader Model 4.X (As GeForce 8, 9 e GTX2XX são baseadas no Shader Model 4.0, as Radeon HD2X00 são baseadas no Shader Model 4.0 e as Radeon HD3XX0 e 4XX0 são baseadas no Shader Model 4.1).

Mas se são baseadas em modelos de shader tão parecidos (O Shader Model 4.1 não trouxe muitas mudanças físicas à arquitetura pelo que eu sei), porque por exemplo uma GeForce 8800ULTRA é tão superior a uma Radeon HD2900XT (que também é Shader Model 4.0 compliant) ?

Isso vem agora das diferenças “reais” entre as arquiteturas delas, uma arquitetura não é definida pelo Shader Model na qual a mesma foi baseada e sim na forma como a AMD e a nVidia definiram-na, isso varia muito, por exemplo, a forma que os Stream Processors (a parte do chip que processa os dados dos pontos que compõem a imagem) trabalham, são diferentes em cada placa, em uma Radeon HD eles trabalham em uma disposição diferente nos pipelines (conjunto de partes do chip que executam funções diferentes no tratamento da imagem, funções como o processamento dos polígonos, aplicação de filtros..), muitos pensam que os pipelines são as “unidades que desapareceram” depois da GeForce 7/Radeon X1K, isso é errado, atualmente cada pipeline em uma GPU SM4.0 tem um número X de Stream Processors, isso faz toda a diferença, por exemplo, as Radeon HD possuem 64 pipelines com 5 Stream Processors cada, isso torna ela uma GPU mais capacitada para alguns tipos de serviços especiais que precisam de paralelismo grande, como nas GPUs profissionais, já a nVidia seguiu outra alternativa de processamento, ela preferiu trabalhar apenas com 16 pipelines, porém pipelines mais longas, cada uma com 8 Stream Processors.

Ainda devemos considearar que os Stream Processors e a forma de contá-los varia de fabricante para fabricante, por exemplo, a AMD considera como Stream Processors inclusive suas unidades lógicas aritméticas, isso não é lá totalmente certo, já foi feito o mesmo na série X1K, suas GPUs com 16 pipelines supostamente tinham 48, pois cada pipeline possuía 3 ALUs, na série HD2K (e também na 3k, 4k e 5k) cada “bloco” de Stream Processors, que no caso, representa 1 das 64 pipelines, possui uma unidade que “junta” o serviço realizado por 5 ALUs, esse “bloco” pode ser chamado Stream Processor, pois o “valor resultante” do serviço dele, é um “stream” (Streams são cadeias de dados) já a nVidia anuncia suas GPUs como 128 Stream Processors, uma vez que cada unidade dessas possui duas ULAs (vocês vão ver eu escrever ALU ou ULA em várias partes deste texto, não se assustem, representam a mesma coisa, ULA = Unidade Lógica Aritmética, e ALU significa Artithmetical Logic Unit).

block-g80.gif

Diagrama da arquitetura da GeForce 8800GTX Fonte: TechReport/NVIDIA

block-r600.gif

Diagrama da arquitetura da Radeon HD2900XT Fonte: TechReport/AMD

OBS.: O que é uma ALU?

R.: A Unidade lógica aritmética trabalha como se fosse uma unidade de processamento normal, ela é capaz de ler e processar streams. Nas GPUs atuais, tanto as GeForce 7/8 Radeons X1K/HD as ALUs são capazes de realizar uma operação MAD (Multiply-Add) com precisão de ponto flutuante (o tipo de cálculo que executam) de 32bit por ciclo, pois elas obedecem as atuais regras de processamento de vídeo IEEE 754.

Por que não posso considerar uma ALU como um stream processor? Pois as ULAs não conseguem montar seu trabalho sozinhas, elas precisam de uma Branch Execution Unit (em outras palavras, uma unidade que vai distribuir o trabalho para as ALUs), cada uma das 64 pipelines do R600 é formada de 5 ALUs + 1 Branch Execution Unit + Registradores de “Propósito Geral”, isso pode ser considerado um “Super Stream Processor”, uma vez que ela é capaz de trabalhar 5 pedaços de dados, endereça-las em uma só instrução imensa (chamada de VLIW, Very Long Instruction Word, porcamente traduzida “Palavra de Instrução muito grande”). Cada uma dessas pequenas unidades contidas no R600 se chama SIMD (Single Instruction Multiple Data, seria algo como “múltiplos dados em uma instrução”)

block-spu.gif

Um Stream Processor (HD2900XT) - Fonte: TechReport/AMD

O “porque” da nVidia também possuir mais desempenho com AA (Anti Aliasing, anti serrilhamento, um dos filtros de qualidade de imagem mais utilizados e mais pesados), isso é mais um dos problemas provenientes da arquitetura, o que explica isso basicamente é o fato de as GPUs da nVidia trabalharem com AA via ROP, ROPs (Render OutPuts) são as unidades encarregadas unicamente a trabalhar com AA e processos finais na renderização da imagem, já a AMD escolheu o caminho proposto pelo Shader Model 4.1, que trabalha o AA via Stream Processors, o AA é calculado pelas unidades que trabalhariam o gráfico do jogo, por isso em jogos pesados, a GPU não tem performance satisfatória, ela está com as unidades ocupadas em gráficos e o usuário está forçando ela a trabalhar AA nessas mesmas unidades. (isso vale pras HD 2000 e 3000, foi corrigido na 4000 e 5000 e elas tem ótimo desempenho quando o AA é ativado)

Não se sabe o porque da AMD escolher este caminho para andar nas Radeon HD, não se sabe se este é o caminho mais certo, sabemos apenas que ela poderia ter feito algo hibrido e seria muito mais satisfatório na visão do usuário, a nVidia possui a metodologia do AA via ROP, justamente por isso ela possui 24 ROPs nas suas GPUs Enthusiast (8800GTX e 8800ULTRA), 20/16 ROPs nas GPUs High End (20 nas GeForce 8800GTS derivadas do G80 e 16 nas GeForce 8800 derivadas do G92).

Outro motivo do AA para a nVidia conseguir aplicar AA com mais facilidade nas suas GeForce 8 é que seu AA usa uma arquitetura diferente, a forma que ele é disposto, a forma que ele armazena e lê informações na memória é diferenciado em relação ao da AMD. Apesar da qualidade ser muito próxima, é impossível negar que na atual situação a AMD é a que se sobressai em possibilidades com o AA, já que Stream Processors são unidades 100% programáveis, você as trabalha da forma que você quiser, a nVidia também possui essa alternativa, mas fazer uso dela seria a mesma coisa que entregar a vitória ao adversário, uma vez que seus ROPs extras seriam um “peso morto” dentro da GPU.

Mas até agora só falamos de arquiteturas no caso G80/G92 X R600/RV670 (Shader Model 4.X)

Vamos partir para comparações com as GPUs passadas, onde a nova arquitetura de processamento imposta pelo DirectX10 se mostra superior à antiga arquitetura:

Basicamente os benefícios de se usar uma GPU com DirectX10 é algo que foi batizado de “Dynamic Load Balancing” (Balanço de carregamento dinâmico).

Até o DirectX9C, as GPUs possuíam 2 unidades diferentes de processamento em suas pipelines, eram os Pixel Shaders e os Vertex Shaders, um bom exemplo para tomarmos é a GeForce 7900GTX, ela tinha 24 pixel pipelines com 2 ALUs cada, resultando 48 Operações de Pixel e 8 Vertex Pipelines, é fato que os jogos sempre usaram mais de operações de pixel, mas alguns jogos fugiam um pouco dessa regra, especialmente jogos RTS (estilo Age of Empires), esses fazem uso massivo das unidades de Vertex (vértices), por isso em jogos como Company of Heroes, nós podemos notar uma diferença monstruosa entre GPUs DX9 X DX10.

As GPUs DirectX10 trabalham com Stream Processors, essas unidades são programáveis, elas podem processar tanto Vertex quanto Pixel Shaders, isso torna possível fazer balanço do uso das unidades, nunca deixar uma sobrecarregada, no G70/G71 e no R520/R580/R580+ era muito comum os Vertex Shaders se sobrecarregarem, agora no G80/G92, R600/RV670 isso se torna muito difícil!

Tirando o fato que o DirectX10 trouxe muitas possibilidades com as GPUs, como por exemplo o poder de processar Geometry Shaders, a geometria até pouco tempo atrás era trabalhada inteiramente pela CPU, hoje em dia isso PODE mudar, não quer dizer que vá, pois os programadores estão aplicando o DirectX10 muito lentamente nos jogos, e isso deverá demorar muito ainda, mas em todo caso, jogos como Call of Juarez DirectX10 já trabalha Física via Geometry Shaders, tornando assim, a gama de possibilidades com processamento de física muito maior!

---EDIT---

Uma atualização sobre o assunto:

http://forum.clubedohardware.com.br/showthread.php?p=5409187#post5409187

04/01/2011

2º Fator que influencia no desempenho Clock

Depois de analisar a melhor arquitetura para escolher a sua GPU, chegou a hora de analisar o clock dela, duas GPUs de arquitetura igual com clocks diferentes possuem diferenças de performance.

Primeiramente, o que é clock:

Para quem já teve aula de física deve notar que o clock é medido em Hz, 1Hz é a medição de freqüência em física, em movimento circular, 1Hz representa um ciclo de uma roda girando em 1 segundo por exemplo, em GPUs e processadores não é muito diferente, 1Hz representa 1 ciclo de processamento, 1 instrução que entra para ser processada pode ficar muitos ciclos parados dentro do hardware (por isso clock não é tudo), por isso que hoje em dia as freqüências subiram assustadoramente em relação a antigamente, um processador de 3GHz (lembrem-se Giga é 10^9) é capaz de realizar 3.000.000.000 ciclos por segundo (pulso de clock).

É aí que encaixamos isso na nossa arquitetura, quando já definimos qual a melhor dentro de nossas cabeças, devemos passar a analisar a velocidade com que os dados são processados dentro dessa arquitetura.

Não tem muito segredo, uma GPU que tem o clock de 600MHz é proporcionalmente mais rápida que uma que tem o clock a 500MHz (neste exemplo, no máximo 20%), isto é, se forem exatamente o mesmo chip. Não se pode comparar um G80 (GeForce 8800GTS 640/320MB / GeForce 8800GTX / GeForce 8800ULTRA) com um G70 (GeForce 7800GT/7800GTX).

Outro ponto interessante do fator “clock” é o que vem sendo aplicado nas GPUs da série 8 em diante (NVIDIA), elas possuem diferenciação no clock da GPU em relação ao clock dos Stream Processors, enquanto os Stream Processors trabalham a um clock acelerado, a GPU trabalha com um valor bem mais baixo, no caso da GeForce 8800GTX por exemplo, enquanto sua GPU trabalha a 575MHZ os Stream Processors trabalham com um multiplicador de 2x sobre este clock, resultando em 1350MHz. Isso faz com que a parte que “realmente importa” trabalhe mais rápido, enquanto o “resto” que normalmente fica mais estático e/ou não conseguem atingir altos clocks fica com a velocidade reduzida, isso ajuda tanto no desempenho quanto no consumo e calor gerado!

Mas não devemos só analisar o clock da GPU para saber qual a melhor PLACA DE VIDEO, analisando apenas a GPU, quem tem mais clock em relação a outra igual, ganha, mas vamos para o próximo tópico.

3º Fator que influencia no desempenho Taxa de transferência das memórias

Mais uma vez, memórias possuem a quantidade de ciclos de leitura/gravação determinadas pelo seu clock, hoje em dia já possuímos memórias de GDDR4 rodando por aí, as suas limitações (não nos chips comercializados, mas nos que estão em testes) são algo próximo de 3.2GHz (3.200.000.000 operações), nas GPUs a venda, o mais comum hoje em dia é encontrar memórias GDDR3 trabalhando a 1600MHz / 1800MHz, em algumas GPUs mid end já temos memórias GDDR3/GDDR4 a 2000MHz, mas será que isso apenas basta? A velocidade das memórias É sim definida pelo seu clock, mas isso não quer dizer que necessariamente a comunicação entre a GPU e elas seja determinada por este valor!

O fator que determina a velocidade da memória em relação à sua comunicação com a GPU é o seu bus (barramento), ele é determinado em bits, hoje em dia placas de video como a Radeon HD2900XT já possuem 512bit, mas, assim como o clock, não podemos analisar os “bits” separadamente, temos que colocar tudo no papel para saber o que resulta em mais “banda de memória” (Velocidade que a memória transporta dados para a GPU). Felizmente existe uma fórmula muito simples para calcular a banda de memória.

X bits / 8 * Y MHz = Z MB/s

Então, vamos comparar uma Radeon HD2600XT GDDR4 com uma Radeon HD2900XT GDDR3 para ver como colocar as duas coisas no papel e descobrir quem é realmente mais forte nesse quesito, a Radeon HD2600XT GDDR4 possui um bus de 128bit com memórias a 2.2GHz, enquanto a HD2900XT possui um bus de 512bit com memórias a 1.6GHz.

Radeon HD2900XT : 512bits / 8 * 1600 = 102400MB/s (102,4GB/s)

Radeon HD2600XT : 128bits / 8 * 2200 = 35200MB/s (35,2GB/s)

Como podem ver, o clock da memória esta longe de ser algo realmente importante, assim como o padrão utilizado (GDDR3 ou GDDR5) não define uma placa ser mais rápida ou melhor que outra, pois pode-se usar chips GDDR3 de clock menor mas mais bits ou usar chips GDDR5 com clock bem alto e menos bits para se conseguir a mesma taxa de transferência. Quem decide isso é o fabricante da placa de vídeo, lembrando que ele leva em consideração o preço dos chips de memória, da placa de circuito impresso (PCB) e o consumo elétrico das memórias.

gtx-chips-vs-r580.jpg

8800GTX X X1950XTX - Cada chip de memória BGA tem 32bit, Fonte: TechReport

Portanto a melhor escolha agora para nós é aquela que tem a melhor arquitetura, depois de avaliar isso, escolhemos um modelo que cabe no nosso bolso, depois dessa escolha que acho que é uma das mais difíceis, vemos qual integrador (eVGA, PowerColor, etc...) oferece melhor clock e melhor banda de memória, o próximo passo é escolher um slot adequado para nós!

4º Fator que influência no desempenho Quantidade de memória:

Muitos acham que o termo “quanto mais memória melhor” não existe mais, muito pelo contrário, ele existe sim, mas você tem que definir qual o ponto em que ele se encaixa, você não deve coloca-lo acima da arquitetura, nem dos clocks por exemplo, mas nem sempre é fácil definir o que é mais importante. Um bom exemplo disso é comparar desempenho de placas parecidas com memórias diferentes. Por exemplo, uma GeForce 8800GT de 256MB é muito inferior à sua versão de 512MB, já uma GeForce 8600GT de 512MB não traz nenhum benefício em relação à uma GeForce 8600GT de 256MB, este é o ponto, o melhor a fazer neste caso é avaliar o desempenho das placas em um teste, GPUs mid-end NÃO SE BENEFICIAM DE GRANDES QUANTIDADES DE MEMÓRIA, este é o principal ponto a se levar em consideração, GPUs High End estão dispostas em um ponto em que elas rodam os jogos no máximo ou próximo disso, quanto mais alto os detalhes do jogo estiverem, mais memória eles vão demandar para armazenar texturas por exemplo, isso torna o uso de memória meio “desprendido”, pois ele acaba sendo muito grande, eu recomendo avaliar placas com base em reviews nesse caso, é difícil falar se uma Radeon HD3850 de 512MB seria superior a uma Radeon HD3870 de 256MB (esta segunda não existe), a resposta seria, depende, depende de quais jogos e qual resolução você vai usar, jogar Crysis em High com uma placa de 256MB é impossível, jogar Oblivion no Very High com uma placa de 256MB não é uma tarefa difícil (considerando resoluções “normais”, como 1280x1024), então isso deve ser avaliado pelo comprador, agora, existem alguns fatos a serem “desmistificados”:

placas de Vídeo Enthusiast (GeForce 8800GTX / 8800ULTRA) precisam de mais que 512MB normalmente (Em aplicações muito pesadas)

placas de Vídeo High End (GeForce 8800GTS G80, GeForce 8800GT / 8800GTS 512MB G92, ATi Radeon HD2900XT / HD3850 / HD3870) precisam de 512MB, 256MB seria muito pouco para elas.

Placas Mid End não fazem uso nem de 256MB de VRAM em grande parte das aplicações.

Outros pontos a se levar em consideração:

Quanto maior a resolução, maior o uso de memória de vídeo, no caso, se considerarmos uma GeForce 8600GT, ela não tem capacidade de rodar jogos em 1920x1440, então não faz diferença, já uma GeForce 8800GT tem capacidade para isso, portanto nesse caso é que se torna necessário ter 512MB de memória de vídeo, e ocorre o mesmo quando o assunto é filtros, quanto maior qualidade de filtros você usa, mais memória de vídeo ele ocupa!

5º Fator que influência no desempenho O Slot de comunicação

Muitos aqui devem estar me achando um louco, colocar o slot como um dos últimos fatores de influência sendo que por exemplo o AGP não seria o suficiente para uma GPU High End, mas eu não trouxe este tópico aqui para discutir sobre o AGP, muito pelo contrário, o assunto aqui é PCI-E X PCI-E 2.0, vou falar um pouco do AGP também!

O PCI-E está prestes a ser abandonado como o AGP foi, antes de “dar tudo de si”, é fato que atualmente nenhuma GPU por mais poderosa que seja ocupa todos os 4GB/s de bando que o PCI-Express 1.1 X16 oferece, mas já estão o substituindo pelo “novo conceito” do PCI-E, que é a sua versão 2.0, essa substituição não traz ganhos de performance, mais uma jogada de marketing é claro, pois o usuário que compra uma placa com slot PCI-E 2.0 vai se sentir beneficiado por isso, claro que no futuro isso será melhor utilizado, mas atualmente, o PCI-E 2.0 traz dois benefícios ao usuário, as GPUs ali instaladas precisam de menos alimentação extra (PCI-E 1.1 oferece 75W para a GPU, o 2.0 oferece 150W) e GPUs que possuem internamente a tecnologia PCI-E 2.0 possuem virtualização, assim como as CPUs atuais, com isso, pode-se usar dois sistemas operacionais com aceleração gráfica, eu não sei se o G92 ou o RV670 já são preparados para tal, mas o PCI-E2.0 tem como um de seus propósitos este “benefício” (que garanto que nem 1/100 dos usuários vão achar funcionalidade real para isso).

Para quem tem dúvidas, há compatibilidade entre os padrões, então uma placa de vídeo PCI-E 2.0 roda tranquilamente em uma placa-mãe PCI-E 1.x e uma placa-mãe PCI-E 2.0 aceita placas de vídeo 1.x sem problemas. (casos de incompatibilidade não estão relacionados a este ponto)

No mais, resumindo sobre o caso dos slots, não se deve comprar uma GeForce 8800GT pensando que por ela ser PCI-E 2.0 ela é superior a uma GeForce 8800GTX, muito pelo contrário, ela é comprovadamente inferior!

Fatores importantes para levar em consideração, porém que NÃO interfere na velocidade de processamento:

1- Litografia do chip.

Todo chip possui uma litografia, este valor é medido em nanômetros (1nm = 1/10.000.000.000metros, ou, 1 bilionésimo de metro), este valor é a distância entre um transistor e outro dentro do chip, definitivamente a litografia do chip não oferece ganhos práticos de desempenho, porém, o fato de se levar ele em consideração na hora da compra traz benefícios grandes ao comprador, quanto menos nanômetros o chip tem, menos fuga de elétrons ele vai ter, menor vai ser o tamanho do chip, menos energia ele vai consumir, menos calor ele vai gerar e mais overclock ele vai fazer!

Mas, nem sempre se deve levar ele como grande ponto, deve se analisar cada caso separadamente, por exemplo, as GeForce 8800GTS/GTX são baseadas no G80, este, possui litografia de 90nm, já o R600, GPU que equipa a Radeon HD2900XT é em 80nm, mesmo existindo essa vantagem para o R600, ele consome mais e esquenta mais que o G80, isso vem dos clocks e arquitetura, não da litografia, por isso é sempre interessante avaliar cada caso separadamente, só comparar a litografia quando o assunto for arquiteturas iguais e chips diferentes (G80 X G92 seria um bom “ponto de estudo” para esse tipo de comparação)!

close-up.jpg

G80 - "O Vovô Monstro" - 681milhões de transistores gravados com litografia de 90nm, Fonte: TechReport

chip.jpg

R600 - "Cabeça quente de 2007" - 700milhões de transistores gravados com litografia de 80nm, Fonte: TechReport

g92-chip.jpg

G92 - "Pequeno Monstro" - 754milhões de transistores gravados com litografia de 65nm, Fonte: TechReport

rv670-chip.jpg

RV670 - "Pequeno, cabeça fria, mas temível!" - 666milhões de transistores gravados com litografia de 55nm, Fonte: TechReport

Outro benefício da litografia menor é que, devido ao menor uso de silício para fabricar os chips, menor uso de mosfets para controlar a tensão (devido a eles consumirem menos), uso de capacitores mais simples, coisas desse tipo afetam o preço, normalmente o valor final de uma placa de video que usa uma GPU em 65nm é menor do que o de uma que usa GPU em 90nm, exemplo disso é entre a GeForce 8800GTS 320MB e a GeForce 8800GT 512MB, a quantidade de memória afeta o preço mas mesmo assim, a 8800GT é uma placa que consome menos, tem mais memória, mais desempenho e custa menos que a GeForce 8800GTS 320MB!

- Fabricante

Salvo algumas excessões, atualmente o fabricante tem pouco peso na qualidade e no desempenho da placa. Na verdade, na maioria das placas o fabricante é quem cola o adesivo sobre a placa e a coloca no pacote com um jogo legal, por isso que aparentemente todas as GTS250 e as HD 5850 tem a mesma cara e mesmas especificações, quase todas elas são absolutamente iguais (e em alguns casos, fabricadas pela mesma empresa como a Foxconn, rainha da terceirização).

Existem algumas excessões, alguns fabricantes desenvolvem o seu próprio PCB, usam um circuito regulador de tensão diferente e muitos usam coolers diferentes do padrão (geralmente melhores e/ou mais silenciosos). Pra saber se isso é uma boa alternativa, procure testes ou os tópicos oficials de placas, pois em alguns casos a eficiência é menor, ou o cooler é mais ruidoso ou tem o mesmo desempenho.

Assim como o lado bom, algumas placas são o contrário, as famosas placas "capadas" onde o fabricante usa especificações inferiores ao que determinam NVIDIA e ATI, por isso é sempre bom pesquisar e avaliar bem as especificações da placa de vídeo antes de comprá-la.

Bons fabricantes são: MSI, Asus, Gigabyte, Gainward, Sapphire, PowerColor, Galaxy, Sparkle, eVGA, ECS, Inno3D, XFX* e outros fabricantes que eu devo ter esquecido.

*ela deu umas pisadas na bola muito feias com algumas Radeon HD 4890 e Geforce 9600/9800GT, por isso muita gente não gosta dela, mas parece que corrigiram o erro nas novas safras.

Continua no próximo post...

Editado por Evandro
atualizando ;)
  • Curtir 11

Compartilhar este post


Link para o post
Compartilhar em outros sites

Outros fatores que modificam o desempenho 3D do seu computador:

Como a maioria, porém não todos aqui devem saber, o desempenho 3D não é proporcionado unicamente pela GPU, cada peça de seu computador é um “fator” que muda (para melhor ou pior) o desempenho do micro em jogos/edição de vídeo e derivados.

O “vilão” da história, é conhecido como “gargalo”. Ele é gerado quando alguma peça do computador não provê desempenho necessário para que a outra trabalhe “a todo vapor”, os exemplos típicos de gargalo em computadores com relação às placas de vídeo são os seguintes:

Processador Central

O Processador normalmente é o mais comum de todos os fatores que “prendem” o desempenho de uma placa de vídeo, um exemplo típico disso é quando o usuário, por exemplo, coloca uma GeForce 8800GT em um Processador Pentium Dual Core E2140 (1.6GHz, bi nuclear), e neste exemplo estou sendo bonzinho, pois o Pentium Dual Core está longe de ser um processador fraco !

O porquê de isso acontecer é explicado pelo fato de que o jogo não é composto apenas de vértices e pixels, ele também possui a Inteligência Artificial (IA ou AI), Física e diversos outros “processos envolvidos”, o processador até a geração DirectX9C obrigatoriamente trabalhava a IA, a Física e a Geometria, graças ao DirectX10, isso pode ser melhorado, atualmente os Stream Processors podem trabalhar Geometria e Física, o que já tira boa parte do trabalho da CPU, porém, não comprem placas de vídeo DX10 pensando neste benefício, muito pelo contrário, uma placa de vídeo DX10 High End demanda processadores muito fortes, pelo simples fato que os programadores AINDA não utilizam sistema de Geometry Shaders (A função do DirectX10 que processa geometria e física) nos jogos, o primeiro jogo a usar Geometry Shaders foi Call of Juarez DX10, porém este já é um pouco antigo, e jogos como Crysis cujo qual os produtores se enaltecem para falar que usam de todas as atuais tecnologias simplesmente não faz o uso de muito do DirectX10, e este “não faz o uso de muito” inclui aí os Geometry Shaders, portanto, GPU high end demanda CPU high end, a CPU faz a primeira parte do trabalho em um jogo, é o processamento “posicional” dos objetos, ele quem define onde colocar isso e onde colocar aquilo dentro do ambiente, ele que define o movimento que as coisas vão tomar, ele que processa as deformações no ambiente, depois é a parte da GPU, portanto antes de gastar R$ 1000,00 em uma GPU e R$ 200,00 em uma CPU, pense bem e gaste R$ 800,00 em uma GPU e R$ 400,00 em uma CPU, um sistema balanceado “é tudo”.

Atualmente o mercado de processadores está bem equilibrado com os Core i5/i7 e Athlon II/Phenom II, sendo que ter muitos núcleos ou Hyper Threading não é essencial já que os programadores nos deixaram na mão e isso não traz grandes benefícios ao comprador. São poucos os jogos capazes de usar um processador Quad Core apropriadamente, porém, para futuras aplicações possivelmente um quadrinuclear ajudará bastante o desempenho como vem gradualmente ocorrendo com vários programas como os de edição de vídeo, edição de imagens, compactação de arquivos e modelagem 3D.

Um ponto interessante a se lembrar é, CPU TAMBÉM não traz SOZINHA bom desempenho 3D para o computador !

Minhas recomendações para compras atuais de CPU e GPU é do tipo:

Se vai comprar uma Radeon HD 5870 para usar em um Semprom 140, compre uma Radeon HD4770 e use-a com PELO MENOS um Athlon II X3.

Se vai comprar um Core i7 860 para usar com uma GeForce 9500GT, compre um Phenom II X4 945 para usar com uma HD 5770, você vai ter MUITO mais desempenho.

Memórias

As memórias são outras que influenciam demais no desempenho 3D, é nelas que são armazenadas todas as coordenadas que o processador deve tomar para que o processo seja concluído, é muito comum hoje em dia vermos sistemas com GPUs e CPUs High End porém com apenas 1GB de memória RAM, sendo que devemos sempre lembrar que jogos até um pouco antigos como Oblivion já fazem uso de 2GB ou mais para que sua performance seja estável.

Outro ponto bom para levar em consideração, a memória da placa de vídeo é totalmente “separada” da memória do sistema, não existe problema nenhum em usar uma placa de vídeo que tenha memória GDDR3/GDDR4 em um sistema que tenha memória DDR2 ou DDR1. Lembre também que, a memória do sistema é totalmente separada da memória de vídeo, não compre placas de vídeo com pouca memória na esperança de ela usar a memória do sistema depois, a memória do sistema é muito lenta em comparação com a memória de vídeo (dificilmente a memória de sistema atinge 10GB/s de transferência enquanto placas de vídeo low end trabalham já com 20GB/s, e ainda devemos lembrar que a memória do sistema tem que ser usada TAMBÉM pela CPU!) e nem tenha em mente fazer o contrário já que atualmente os sistemas ainda não fazem virtualização de memória de vídeo!

Não há muito o que falar sobre isso hoje em dia, se você tem um sistema mediano, procure usar 4GB de memória, e para os sistemas de mais baixo custo, menos que 2GB de RAM hoje não é apropriado, lembre também que a velocidade da memória não interfere MUITO no desempenho, memórias DDR2 800MHz em Dual Channel são o suficiente para suprir quase todo o desempenho que o sistema pode oferecer, acima disso, o ganho de desempenho não é acentuado, portanto sempre dê preferência para a quantidade da memória de sistema e não o seu clock, porém é interessante balancear isso, não adianta você ter 8GB de memória rodando a 667MHz, nesse caso é mais interessante você ter 4GB rodando em 800MHz ou 1066MHz, a performance final seria maior, mas não é interessante você gastar uma fortuna em memórias DDR3 de 2133MHz e possuir apenas 1GB ou 2GB, é muito “melhor negócio” você gastar menos e comprar mais memória DDR2, digamos, uns 4GB DDR2 800. Outro ponto são as latências (o tempo que a memória leva pra executar uma operação, quanto maior, pior), elas são um fator levemente limitante de desempenho, mas normalmente isso é meio padronizado, memórias DDR2 667MHz possuem latência de 5-5-5-15, que é comum, mas já é o suficiente, enquanto memórias de clock maior tendem a ter latência maior também, portanto isso sempre mantém uma razão constante*, o que resulta sempre em desempenho bom, até mesmo nas memórias “low end” consideradas genéricas !

*claro, alguns modelos possuem latências mais baixas, depende do resto do sistema e do preço delas pra quanto isso vai compensar ou não)

30.jpg

Memórias DDR2 e DDR3 comparadas. Fonte: Computerbase.de

Placas Mãe

Quase últimas, mas não menos importantes, as placas mãe são as responsáveis por “juntar tudo e colocar pra funcionar”, é de EXTREMA importância que o nível da placa mãe “acompanhe” o nível do restante das peças. O chipset é o principal controlador do hardware do seu PC, ele que faz a “comunicação” entre os componentes do seu computador. Tanto a AMD quanto a Intel oferecem soluções interessantes para os diversos segmentos do mercado, cabe a você avaliar se precisa ou não de todos os recursos que aquele chipset oferece.

rev-c2qmb-fpLG.jpg

Placa Mãe High End da ASUS com chipset nVidia 680i SLI - Alta performance para gamers e overclockers!

Hoje em dia os chipsets tem pouco impacto no desempenho já que tanto a AMD quanto a Intel integraram a controladora de memória (e no caso da plataforma 1156 da Intel, outras coisas) ao processador além de terem fechado as postas para NVIDIA, VIA e SiS fabricarem chipsets para suas plataformas.

É interessante também avaliar a compatibilidade da placa mãe, se ela é compatível com CPUs que virão futuramente, se ela é compatível com memórias de padrão mais rápido do que as que você pretende comprar, se ela aceita as voltagens das memórias que você deseja.. pois o fator “upgrade futuro” pode muito bem ser um fator determinante na hora da compra !

Fonte

Ultima e das que você deve dar maior importância é a fonte, as fontes que são vendidas no mercado normalmente são genéricas, e essas podem causar danos sérios a seu computador independente dele ser ou não um computador forte, fontes genéricas não possuem proteção de sobre-tensão nas linhas e também não são capazes de gerir bem sua estabilidade, além de que nunca oferecem o valor que anunciam como potência e nem possuírem boa eficiência (ou seja, disperdiçam energia).

Algumas fontes são consideradas “genéricas de luxo”, essas são outras que você deve fugir, as mais comuns entre elas são as Leadership Gamer (muitas vezes essas já foram apelidadas de “LeaderShit Gaymer”) são fontes da pior qualidade, apenas com uma capinha bonita e embalagens deixando bem claro potência anunciada de 700, 800, 900W, sendo que dificilmente atingem 300W com estabilidade, essas fontes, para mim, são consideradas genéricas de “lixo” e não de “luxo”, pois você paga R$120,00 em um produto que mal vale R$50,00 como as fontes que são anunciadas e realmente são genéricas!

angle.jpg

Enermax Galaxy 1kW - Uma das mais poderosas. Fonte: DigitalHouse

interior.jpg

Construção impecável. Fonte: DigitalHouse

leadershipqv0.jpg

Leadership Gamer - 700W para trouxas! Fonte: CdH

leadershipabertanx3.jpg

Construção "lamentável". Fonte: CdH

Minhas recomendações em fontes são as marcas que possuem um nome mais acentuado no mercado, a primeiríssima e mais garantida de todas vem, de muito tempo atrás sendo a Enermax, suas fontes possuem construção impecável, peças de excelente qualidade e estabilidade incrível. Mas não só de Enermax vive o mundo, existem grandes marcas como OCZ (qualidade muito boa, muitas vezes já foi cogitada como uma boa substituta para a Enermax como melhor fonte), Zippy (Também fonte incrível), Corsair, SeaSonic, PC Power & Cooling System, Antec e diversos outros fabricantes, depois vem um nível mais baixo um pouco, essas são as fontes mais “compráveis” para “humanos”, são as fontes da Zalman, Seventeam, Coolermaster e 3RSystem são fontes baratas e de qualidade muito boa, suas versões geralmente são respeitáveis (eu pessoalmente uso uma Seventeam da série EPS de 600W com duas GeForce 8800GTS G80 que consomem barbaridade !)

A escolha da fonte varia muito de pessoa para pessoa e também do modelo, então, sempre procure testes da fonte em questão antes de comprar.

Editado por Evandro
;)
  • Curtir 6

Compartilhar este post


Link para o post
Compartilhar em outros sites

não incluí este tipo de informação, como você deve ter visto eu não trabalho com estes números, minha ideia é fazer por exemplo o pessoal assimilar que uma HD3870 de 320SP`s e uma 8800GT de 128SP`s não têm tanta diferença deperformance, hoje em dia, o que menos conta em uma placa de video são esses tipos de especificação, uma vez que a AMD e a nVidia escolheram formas muito diferentes para expressar seus números, e dificilmente da pra se fazer uma assimilação (nVidia -> 32 pipelines -> 4 SP`s / Pipeline -> 2 ALU / SP | AMD -> 64 Pipelines -> 1 SP / Pipeline -> 5 ALU`s / SP).

Compartilhar este post


Link para o post
Compartilhar em outros sites
opa, então comparo apenas usando isso ai ja está de otimo tamanho ?

valeu

excelente topico

Não, o intuito todo do tópico é pra explicar o porque de não comparar as coisas com dados de tabelas e sim com testes.

O máximo que pode se comparar é dentro de uma mesma arquitetura e família.

Compartilhar este post


Link para o post
Compartilhar em outros sites
Outro benefício da litografia menor é que, devido ao menor uso de silício para fabricar os chips, menor uso de mosfets para controlar a tensão (devido a eles consumirem menos), uso de capacitores mais simples, coisas desse tipo afetam o preço, normalmente o valor final de uma placa de video que usa uma GPU em 65nm é menor do que o de uma que usa GPU em 90nm, exemplo disso é entre a GeForce 8800GTS 320MB e a GeForce 8800GT 512MB, a quantidade de memória afeta o preço mas mesmo assim, a 8800GT é uma placa que consome menos, tem mais memória, mais desempenho e custa menos que a GeForce 8800GTS 320MB!

Continua no próximo post...

Por que usa menos silicio ?

Com menos distancia não daria para colocar mais transistores ?

Compartilhar este post


Link para o post
Compartilhar em outros sites
Por que usa menos silicio ?

Com menos distancia não daria para colocar mais transistores ?

O uso de menos silício é em comparações diretas, por exemplo, um chip de 200mi transistores em 90nm é BEM maior que um chip de 200mi transistores em 45nm.

Para exemplificar isso de maneira simples, o G80 que tem 681mi transistores é muito maior que o G92 que tem 754mi!

Agora, sobre o aumento do número de transistores, sim, mas aí já parte para outro caso, você pode aumentar o número de silicio mantendo o tamanho se você diminuir a litografia, mas é óbvio que uma hora essa razão se inverte!

Compartilhar este post


Link para o post
Compartilhar em outros sites

Muito bom o tópico, parabéns!!

Agora surgiu uma dúvida : a frequencia da memoria ram vai melhorar ou piorar o desempenho em games? Faria diferenca 667mhz em ddr ou 1066 em ddr ?

Compartilhar este post


Link para o post
Compartilhar em outros sites
Muito bom o tópico, parabéns!!

Agora surgiu uma dúvida : a frequencia da memoria ram vai melhorar ou piorar o desempenho em games? Faria diferenca 667mhz em ddr ou 1066 em ddr ?

Vai sim.

Dependendo de tudo.

Com uma placa de vídeo muito boa, e se sua memórias forem fracas, vai dar um gargalo sim.

Tudo, sem que seja um pouco, influencia nos FPS ou no jogo em total.

Mas isso vai muito relativamente.

Por exemplo, uma 8600GT não iria dar tanto gargalo como se fosse em uma 8800GTS.

Vai é assim. É bem relativo.

Compartilhar este post


Link para o post
Compartilhar em outros sites
Vai sim.

Dependendo de tudo.

Com uma placa de vídeo muito boa, e se sua memórias forem fracas, vai dar um gargalo sim.

Tudo, sem que seja um pouco, influencia nos FPS ou no jogo em total.

Mas isso vai muito relativamente.

Por exemplo, uma 8600GT não iria dar tanto gargalo como se fosse em uma 8800GTS.

Vai é assim. É bem relativo.

Detalhe melhor sua explicação ...

Em ddr uma ram de 667 mhz ja preenche quase toda banda de um core 2 duo, então pra que comprar memos de 800 ou de 1066 mhz se com 667 já daria pra "encher" a banda de transferencia de um core 2 duo?

Compartilhar este post


Link para o post
Compartilhar em outros sites

Excelente tópico! Realmente uma aula sobre GPUs. Sou mais um a parabenizá-lo.

Aproveitando, gostaria de perguntar sobre placas de vídeo profissionais, no meu caso, para aplicativos CAD 3D, como o Solidworks. O fabricante do software só testou e homologou algumas placas da linha Nvidia Quadro e da ATI Radeon.

Observando os itens que você descreve em seu tópico, ao menos aparentemente, as GeForce tem características superiores e são mais acessíveis para brasileiros. Acredito que a diferença esteja na arquitetura, caso contrário, não vejo porque pagar tão caro em placas Quadro, por exemplo. Efetivamente, qual a diferença entre estes tipos de placa?

Compartilhar este post


Link para o post
Compartilhar em outros sites
Excelente tópico! Realmente uma aula sobre GPUs. Sou mais um a parabenizá-lo.

Aproveitando, gostaria de perguntar sobre placas de vídeo profissionais, no meu caso, para aplicativos CAD 3D, como o Solidworks. O fabricante do software só testou e homologou algumas placas da linha Nvidia Quadro e da ATI Radeon.

Observando os itens que você descreve em seu tópico, ao menos aparentemente, as GeForce tem características superiores e são mais acessíveis para brasileiros. Acredito que a diferença esteja na arquitetura, caso contrário, não vejo porque pagar tão caro em placas Quadro, por exemplo. Efetivamente, qual a diferença entre estes tipos de placa?

Bem, para um estúdio, acho que o ideal são as placas profissionais mesmo, no caso a Quadro e a FireGL, mas como Não sei se esse é o caso, posso muito bem dizer que o aproveitamento de uma GeForce ou de uma Radeon vai ser parecido para um home user... me limito a responder apenas isso, uma vez que não sou muito ligado a essa área das placas de video!

Detalhe melhor sua explicação ...

Em ddr uma ram de 667 mhz ja preenche quase toda banda de um Core 2 Duo, então pra que comprar memos de 800 ou de 1066 mhz se com 667 já daria pra "encher" a banda de transferencia de um core 2 duo?

Em partes isso é fato... mas sempre existe um porém, alguns fatores limitam a memória, DDR2 667 não puxa o limite dos Core 2 Duo (já fiz testes aqui), porém DDR2 800 sim, e se você tiver memórias com latencias menores, você certamente vai ter um resultado melhor!

Vai sim.

Dependendo de tudo.

Com uma placa de vídeo muito boa, e se sua memórias forem fracas, vai dar um gargalo sim.

Tudo, sem que seja um pouco, influencia nos FPS ou no jogo em total.

Mas isso vai muito relativamente.

Por exemplo, uma 8600GT não iria dar tanto gargalo como se fosse em uma 8800GTS.

Vai é assim. É bem relativo.

Se as memórias forem muito ruins elas de fato limitam o desempenho, mas não muda muito a situação!

Muito bom o tópico, parabéns!!

Agora surgiu uma dúvida : a frequencia da memoria ram vai melhorar ou piorar o desempenho em games? Faria diferenca 667mhz em ddr ou 1066 em ddr ?

De 667MHz para 1066MHz talvez haja sim alguma diferença, mas a diferença da frequencia da memória é bem mais ligada a overclock, você consegue resultados melhores se tiver memórias que "sobem mais".

Editado por Evandro

Compartilhar este post


Link para o post
Compartilhar em outros sites
A memória de fato não soma. A explicação é simples e rápida, cada GPU vai precisar acessar simultaneamente os arquivos de código/texturas do jogo. Portanto todas elas precisam ter isso carregado na memória, ou seja, se um jogo ocupa 500MB de memória rodando com 1 placa de video, ele vai ocupar 2GB rodando com 4 placas de video, 500MB em cada uma, assim, não da pra dizer que a memória se soma, pois, poderíamos considerar que a memória somou quando há benefícios desse uso, por exemplo, eu poderia dizer que a memória "aumentou" se eu tivesse mais "espaço livre" para trabalhar nela. Porém eu não tenho, com 1,2,3 ou 4 GPUs trabalhando PARALELAMENTE (isso é muito importante, se as placas estiverem funcionando assincronas em aplicativos diversificados elas vão ter memória "independente") esse espaço extra, se são 4 placas de 512MB, você vai ter 512MB disponíveis.

Capiche? ^_^

Abraço.

Grande.

Dessa eu não sabia.

Eu sempre pensei que se um jogo ocupa 512MB de memos no CF ou SLI eles iria ficar divididos em 256MB para cada placa.

Por que que ocupa os 512MB das duas ?

É porque cada placa é uma placa, e apenas tem o fato de que as duas juntas acessam o jogo juntas ?

É isso ?

Abraço.

Compartilhar este post


Link para o post
Compartilhar em outros sites
Grande.

Dessa eu não sabia.

Eu sempre pensei que se um jogo ocupa 512MB de memos no CF ou SLI eles iria ficar divididos em 256MB para cada placa.

Por que que ocupa os 512MB das duas ?

É porque cada placa é uma placa, e apenas tem o fato de que as duas juntas acessam o jogo juntas ?

É isso ?

Abraço.

A memória ter que existir nas duas placas é pelo fato de que ambas precisam processar paralelamente o jogo usando o sistema em que os frames vão sendo processados com um certo sincronismo (placa 1 -> Frame 1,3,5,7 | placa 2 -> Frame 2,4,6,8), isso faz com que todos os dados tenham que ser completamente armazenados nas duas placas, porque ambas vão acessar simultaneamente o código do jogo, as texturas e etc...

Talvez seria possível armazenar os dados de forma dividida, mas imagine que, mesmo armazenando dessa forma, as placas precisariam processar os frames do mesmo modo (metade cada placa) e, a placa1 precisasse da textura que existe na placa2 apenas, existiria uma perda imensa de performance no acesso pois a placa um buscaria informações na memória da placa 2, enquanto a placa 1 poderia acessar toda a informação a sei la, 100GB/s de sua própria memória ela vai buscar (entupindo a banda do PCI-E) a informação na placa 2 a (vamos supor) 10GB/s...

Existiria a possibilidade de se dividir a memória, mas devido ao sistema de processamento de frames intercalados isso não é possível.

E, também não é possível mudar a forma de processamento de frames, se colocassemos uma placa para processar cada pedacinho da tela talvez o resultado seria péssimo ao programador, pois para se dividir de forma perfeita as informações não bastaria o driver, e caso dependesse unicamente do driver, provavelmente o processador seria atingido.

Como o aumento de consumo de VRAM parece ser algo não linear atualmente (a cada jogo novo, o aumento gráfico não ocasiona um impacto grande no uso de VRAM) provavelmente a melhor forma de trabalhar com multi-gpu é o modo AFR (Alternate Frame Rendering) que é o atual!

Abraços.

MariN

Compartilhar este post


Link para o post
Compartilhar em outros sites

Marin.

Lembro-me de ter me falado sobre a divisão de memórias no CF e SLI

E quando a VGA é um SLI ou um CF

Exemplo:

9800GX2 com 1GB

Então ela não teria na verdade 512MB pelo o que você me explicou ?

  • Curtir 1

Compartilhar este post


Link para o post
Compartilhar em outros sites

Pessoal.

Venho aqui pedir uma explicação para vocês.

O negócio é o seguinte:

Eu tinha um joginho antigo aqui em casa 3D e rodava legal no antigo computador do meu colega e eu gostava demais do jogo e só hoje ele veio aqui em casa e trouxe o jogo aqui...

O negócio é que o jogo ficou uma lerdeza em minha 7600GT.

E era super legal naquelas Geforce dele que não me lembro se é Geforce 1, 2, 3 ou a 4 ou a 4000.

Será que ocorreu essa incompatibilidade do jogo que é antigo com a arquitetura da minha VGA ?

Aguardo e valeu.

Compartilhar este post


Link para o post
Compartilhar em outros sites
Pessoal.

Venho aqui pedir uma explicação para vocês.

O negócio é o seguinte:

Eu tinha um joginho antigo aqui em casa 3D e rodava legal no antigo computador do meu colega e eu gostava demais do jogo e só hoje ele veio aqui em casa e trouxe o jogo aqui...

O negócio é que o jogo ficou uma lerdeza em minha 7600GT.

E era super legal naquelas GeForce dele que não me lembro se é Geforce 1, 2, 3 ou a 4 ou a 4000.

Será que ocorreu essa incompatibilidade do jogo que é antigo com a arquitetura da minha VGA ?

Aguardo e valeu.

Amigo, acho que incompatibilidade com a arquitetura da VGA, apesar de possível, talvez não tenha ocorrido, porque geralmente as placas de vídeo mais novas são retrocompatíveis no que diz respeito às instruções de DirectX etc.

O que pode ter acontecido é uma possível incompatibilidade do jogo, que é antigo, com o seu sistema operacional (se for Windows XP então, é batata). Eu tenho um jogo que nem é tão antigo assim (Indiana Jones And The Infernal Machine, lançado em 1999) e rodava lisinho no Windows 98, mas num funciona no XP nem a porrete (mesmo se ligar o recurso de compatibilidade)! :D

Compartilhar este post


Link para o post
Compartilhar em outros sites
Amigo, acho que incompatibilidade com a arquitetura da VGA, apesar de possível, talvez não tenha ocorrido, porque geralmente as placas de vídeo mais novas são retrocompatíveis no que diz respeito às instruções de DirectX etc.

O que pode ter acontecido é uma possível incompatibilidade do jogo, que é antigo, com o seu sistema operacional (se for Windows XP então, é batata). Eu tenho um jogo que nem é tão antigo assim (Indiana Jones And The Infernal Machine, lançado em 1999) e rodava lisinho no Windows 98, mas num funciona no XP nem a porrete (mesmo se ligar o recurso de compatibilidade)! :D

Não...

Meu amigo rodava o jogo dele com a Geforce com o Windows XP mesmo...

Vou ver...

Será que tem a ver com o CD estar um pouco riscado ?

valeu

Compartilhar este post


Link para o post
Compartilhar em outros sites
Não...

Meu amigo rodava o jogo dele com a GeForce com o Windows XP mesmo...

Vou ver...

Será que tem a ver com o CD estar um pouco riscado ?

valeu

Vixi, então não sei amigo... provavelmente deve ser alguma incompatibilidade com a sua VGA mesmo...

Se for problema com o CD, o jogo nem instalaria. Se ele instalou certinho então o CD, apesar de estar um pouco riscado, deve estar funcionando sim.

A propósito, qual o jogo que você se refere? Tenho bastante jogos um pouco antigos aqui e talvez eu conheça o jogo em si e se há algum problema com incompatibilidades...

Abraço.

Compartilhar este post


Link para o post
Compartilhar em outros sites

Jogos muito velhos tendem a rodar mal em VGAs novas, mesmo elas sendo retrocomátíveis.

Só ver que as X1900 vão bem mal em 3Dmark2001.

É até interessante isso ^_^

Compartilhar este post


Link para o post
Compartilhar em outros sites
Marin.

Lembro-me de ter me falado sobre a divisão de memórias no CF e SLI

E quando a VGA é um SLI ou um CF

Exemplo:

9800GX2 com 1GB

Então ela não teria na verdade 512MB pelo o que você me explicou ?

Sim, ela teria 512MB pois o princípio é o mesmo!

Espero que ainda seja de seu interesse essa informação, uma vez que eu sumi por um tempo!

De vez em quando eu apareço aqui para fazer uma visita, só que agora eu já não dedico mais tanto tempo para hardware já que encontrei minha nova paixão (de computadores, mulheres a parte! ;D) na programação! ^^

Compartilhar este post


Link para o post
Compartilhar em outros sites
Jogos muito velhos tendem a rodar mal em VGAs novas, mesmo elas sendo retrocomátíveis.

Só ver que as X1900 vão bem mal em 3Dmark2001.

É até interessante isso ^_^

Então XITA.

A questão aqui nun é rodar mal, exemplo 10FPS e tal

Aqui roda em uma lerdeza sem igual, parece que é o processador até que causa isso (parece)

Não é tipo aqueles FPS baixos que o jogo vai indo e indo e indo.

Aqui ficou muito, mas muito lento mesmo.

Sim, ela teria 512MB pois o princípio é o mesmo!

Espero que ainda seja de seu interesse essa informação, uma vez que eu sumi por um tempo!

De vez em quando eu apareço aqui para fazer uma visita, só que agora eu já não dedico mais tanto tempo para hardware já que encontrei minha nova paixão (de computadores, mulheres a parte! ;D) na programação! ^^

Opa

Grande.

Estou afim sim cara.

valeu.

Compartilhar este post


Link para o post
Compartilhar em outros sites

Uma duvida que tenho e não vi na aula é sobre as marcas da placa de video. Tem diferença muito grande, suponhamos 2 modelos identicos, entre componentes, durabilidade e desempenho em placas de marca diferente. Exemplo: 9800GT da XFX teria uma grande diferença entre a 9800GT da Zogis ou da Zotac?

Compartilhar este post


Link para o post
Compartilhar em outros sites
Uma duvida que tenho e não vi na aula é sobre as marcas da placa de video. Tem diferença muito grande, suponhamos 2 modelos identicos, entre componentes, durabilidade e desempenho em placas de marca diferente. Exemplo: 9800GT da XFX teria uma grande diferença entre a 9800GT da Zogis ou da Zotac?

As placas de vídeo mais vendidas são de dois fabricantes: nVIDIA e ATi!

nVIDIA e ATI fabricam as placas de vídeo com características padrão de clock, quantidade de memória etc. O que ocorre é que nVIDIA e ATI não vendem diretamente suas placas ao consumidor final, no caso uma pessoa física, como eu, você etc. Na verdade, em vez disso, emprezas revendedoras como Saphire, XFX e outras mais repassam essas placas ao consumidor. Entretanto, algumas características podem ser alteradas (em relação as características originais pré-estabelecidas pelos fabricantes, nVIDIA e ATi), como freqüência de clock (algumas placas inclusive vem com overclock de fábrica, dependendo do revendedor), quantidade de memória etc. Mas características mais marcantes de hardware, como por exemplo, largura de BUS, normalmente são mantidas. Então se você compara 2 modelos idênticos, mas de vendedores diferentes (vendedores e não fabricantes, pois quem fabrica o grosso mesmo como já citei, é nVIDIA ou ATi) provavelmente não haverá diferença alguma. Agora se dois revendedores diferentes, tipo Diamond e Gigabyte, vendem a mesma placa, por ex. uma GeForce 9800 GTX, sendo que aquela vendida pela primeira empreza (Diamond) vem overclockada de fábrica é esperado que seu desempenho seja naturalmente superior ao daquela cujo clock não foi alterado. O mesmo se aplica à quantidade de memória que é adicionada. Lembrando que, em alguns casos, o desempenho ganho por alteração de alguma dessas características nem sempre é grande o suficiente para justificar um preço tão mais elevado. Então como conclusão: É preciso ler muito e pesquisar até se achar o melhor custo/benefício! Deve-se ter muito cuidado na escolha da placa, pois como falei, muitas vezes o revendedor põe memória extra que só encaresse o produto e não resulta em melhora significativa na performance!

Abraços :)

Compartilhar este post


Link para o post
Compartilhar em outros sites
As placas de vídeo mais vendidas são de dois fabricantes: nVIDIA e ATi!

nVIDIA e ATI fabricam as placas de vídeo com características padrão de clock, quantidade de memória etc. O que ocorre é que nVIDIA e ATI não vendem diretamente suas placas ao consumidor final, no caso uma pessoa física, como eu, você etc. Na verdade, em vez disso, emprezas revendedoras como Saphire, XFX e outras mais repassam essas placas ao consumidor. Entretanto, algumas características podem ser alteradas (em relação as características originais pré-estabelecidas pelos fabricantes, nVIDIA e ATi), como freqüência de clock (algumas placas inclusive vem com overclock de fábrica, dependendo do revendedor), quantidade de memória etc. Mas características mais marcantes de hardware, como por exemplo, largura de BUS, normalmente são mantidas. Então se você compara 2 modelos idênticos, mas de vendedores diferentes (vendedores e não fabricantes, pois quem fabrica o grosso mesmo como já citei, é nVIDIA ou ATi) provavelmente não haverá diferença alguma. Agora se dois revendedores diferentes, tipo Diamond e Gigabyte, vendem a mesma placa, por ex. uma GeForce 9800 GTX, sendo que aquela vendida pela primeira empreza (Diamond) vem overclockada de fábrica é esperado que seu desempenho seja naturalmente superior ao daquela cujo clock não foi alterado. O mesmo se aplica à quantidade de memória que é adicionada. Lembrando que, em alguns casos, o desempenho ganho por alteração de alguma dessas características nem sempre é grande o suficiente para justificar um preço tão mais elevado. Então como conclusão: É preciso ler muito e pesquisar até se achar o melhor custo/benefício! Deve-se ter muito cuidado na escolha da placa, pois como falei, muitas vezes o revendedor põe memória extra que só encaresse o produto e não resulta em melhora significativa na performance!

Abraços :)

Pelo que estou vendo nas atuais tops, a concorrência está acirrada, estão colocando over de fábrica, melhorando os coolers, a powercolor já lançou uma com waterblock, mas quando elas são do mesmo nível não mudam em nada, só a marca mesmo, isso já vi em testes aqui no fórum...e mesmo pesquisando em sites para comprar placas com essa mesma dúvida, qual será melhor ? Com clocks idênticos só resta diferenciar o cooler e a estética pra atrair o comprador.

Pelo que sei a Nvidia e a ATI só fazem o chip, o resto da engenharia pode ser alterado pelas fábricas das placas, mantendo um certo padrão.

Compartilhar este post


Link para o post
Compartilhar em outros sites
Visitante
Este tópico está impedido de receber novos posts.





Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas publicações sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×