Ir ao conteúdo
  • Cadastre-se

8800GTX ou 9800 GTX?


Yukimura

Posts recomendados

Ela está mais cara que a Radeon HD4850? Se estiver, eu pegaria sem pensar a 4850. Pois acredito que essa 9800GTX ou fica atras ou empata com a 4850 com esses clocks.

Agora que eu vi, você cometeu um equívoco:

Os 1836MHz da 9800GTX+ são referentes aos shaders;

Os 2280MHz da 9800GTX da XFX são referentes à memória;

O método que considero melhor para comparação entre PVs é Clock da GPU / Clock da memória, visto que o clock dos shaders é relativo ao clock da GPU.

Isso posto, a sua comparação seria:

738MHz / 2200MHz (este é o clock das memórias da GTX+) 9800GTX+;

740MHz / 2280MHz XFX 9800GTX

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Aqui mostra o Clock da GTX+ que é 738 MHz / 1.836 MHz:

https://www.clubedohardware.com.br/artigos/519

Aqui fala que o da XFX 9800 GTX é 740/2280MHZ:

http://produto.mercadolivre.com.br/MLB-77768994-placa-de-video-geforce-9800gtx-xfx-7402280mhz-512mb-_JM

Então a 9800 GTX tá compensando?? digo em relação ao clock...pois a HD 4850 tá com o preço mais em conta.

Ou estou errado? (help me!^^)

Você viu errado bigas, 1836 é o clock do shader, o da memória é 2200.

2 MHz não afetam em nada o desempenho da placa.

Já os 80 a mais nas memórias podem afetar bem pouco, mas bem pouco mesmo.

Link para o comentário
Compartilhar em outros sites

Nossa...que estranho

No link lá q eu vi o Clock da GTX (740/2280) eu num vi nada referente aos shadders.

Pensei q era tipo padrão esses numeros (sim sou meio novato em PVs ^^)

Aonde q você viu isso da GTX+?

Nesse caso a HD4850 venceu disparado, segundo o que o Xita falou.

A GTX da XFX tem só um pouquinho a mais de Clock que a GTX+.

Link para o comentário
Compartilhar em outros sites

Geralmente quando se escreve 650/1944 é GPU/memória

A confusão que você fez foi ao consultar o link do CdH. Como eu expliquei, o clock dos shaders é relativo ao clock da GPU, logo o CdH colocou os dois juntos nesse formato no campo "Clock".

E o clock das memorias nesse mesmo link está lá onde está escrito "Clock da memória" :D

Link para o comentário
Compartilhar em outros sites

Geralmente quando se escreve 650/1944 é GPU/memória

A confusão que você fez foi ao consultar o link do CdH. Como eu expliquei, o clock dos shaders é relativo ao clock da GPU, logo o CdH colocou os dois juntos nesse formato no campo "Clock".

E o clock das memorias nesse mesmo link está lá onde está escrito "Clock da memória" :D

Aahh! Agora eu entendi a tabela!

Brigado Gah!

MAs então o que q é esse Shader?

Link para o comentário
Compartilhar em outros sites

Tentando explicar de um modo simples, Shader é a "parte" da placa de video responsável pela tarefa de aplicar efeitos às imagens geradas pela GPU. Portanto, é interessante ter os Shaders mais velozes que a GPU, como a NVidia faz, já que a imagem é renderizada mais rapidamente. Ou fazer como a ATI/AMD, que tem muito (e bota muito nisso) mais Shaders que a NVidia

Link para o comentário
Compartilhar em outros sites

sugizo shader são rotinas de programação para criarem efeitos nas texturas e nos vértices, atualmente as placas de vídeo tem canalizações de shaders separadas para os vértices e as texturas. Para você ter uma ideia melhor olhe os jogos de ps1, n64, e os jogos de Computador de 2000 para baixo que você verá a diferença. Como texturas estáticas e personagens que não sofrem deformações, tipo elásticidade e etc... Os shaders junto com o texel, foram as maiores revoluções em se tratando de jogos poligonais. Os shaders debutaram nas gf3, tinha dois demos q na época eram impressionantes, o do camaleão e o do zophar(aquela máquina que diz ler o futuro), teve também uma criatura de um jogo que não foi lançado que até para os padrões de hoje é impressionante, nada igual até ela aparecer no vídeo.

Link para o comentário
Compartilhar em outros sites

Tentando explicar de um modo simples, Shader é a "parte" da placa de video responsável pela tarefa de aplicar efeitos às imagens geradas pela GPU. Portanto, é interessante ter os Shaders mais velozes que a GPU, como a NVidia faz, já que a imagem é renderizada mais rapidamente. Ou fazer como a ATI/AMD, que tem muito (e bota muito nisso) mais Shaders que a NVidia

A ATI mostra naquela tabela quanto ela tem de clock do shader?

Queria comparar com os da Nvidia :D

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
A ATI mostra naquela tabela quanto ela tem de clock do shader?

Queria comparar com os da Nvidia :D

Tem, é o mesmo clock do núcleo, nas tabelas tem mais explicações sobre isso, lá pra baixo.

Não se compara números de uma VGA com outra VGA de outra arquitetura e outra fámilia.

Se olha os review !

Era o que eu ia dizer. ^_^

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Leia esse artigo: https://www.clubedohardware.com.br/artigos/519

A maneira correta de se comparar o desempenho da memória entre chips diferentes é através da taxa de transferência da memória, que é calculada com a fórmula clock x bits por clock / 8.

Abraços xD

isso é relativo a diferentes chips de memória.. e não define o desempenho da placa.

As 3870 com GDDR3 e GDDR4 apresentam o mesmo desempenho.

E fica faltando um ponto muito importante nestes cálculos, que são as latências.

Link para o comentário
Compartilhar em outros sites

só complementando o que o Xita falou, nas placas ATI/AMD, o clock dos shaders é sincronizado com o clock da GPU, ou seja, se certa placa tem 600MHz de clock na GPU, esse é o clock dos shaders. Por isso que nas placas desse fabricante não se informa "explicitamente" o clock dos shaders.

Link para o comentário
Compartilhar em outros sites

É que aqui fala q o sistema precisa de 500 W

http://www.sapphiretech.com/pr/products/products_overview.php?gpid=245

Aí como a minha tem 600W ...achei que ía ficar "muito apertado".

Cara.

Não tem nada a ver.

Vai ficar exageradamente folgado até.

Muito fácil:

Imagine-se na pele do fabricante de placa de vídeo, recomendando uma fonte para sua config.

- Ele não sabe qual a sua CPU;

- Ele não sabe quantos HD tem na sua máquina;

- Ele não sabe se você está fazendo overclock ou não;

- Se ele disser que uma fonte de 300 watts serve (e para a sua config áté sobra) e um usuário com uma config carregada, com OC e com 4 HD colocar essa fonte de 300 watts, vai dar pau, pode queimar alguma coisa, o cara processa, com razão, o fabrivcante , e, num país sério ganha esse processo.

- O que você faria??? Para uma placa 9600GT cujo consumo é de 60 watts apenas, o fabricante chuta alto e muito alto, pede 400 watts.

Vantagens que ele tem com isso...

1) A certeza que tudo irá correr bem independente de sua config..

2) Ele se livra de um possíveol processo, caso ele recomendasse fonte menor..

3) Sua placa, no mercado, fica parecendo melhor do que realmente é, pois existe uma relação na cabeça do comprador de que se a placa pedir muita potência terá melhor desempenho..

4) A placa do concorrente pede muita energia. Como é que a dele vai ficar atrás..

5) O fabricante não tem prejuizo algum pois quem paga a fonte é você...

Abraço...

É isso.

Link para o comentário
Compartilhar em outros sites

Arquivado

Este tópico foi arquivado e está fechado para novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...