Ir ao conteúdo
  • Cadastre-se

Teste das placas de vídeo GeForce GTX 980 Ti vs. Radeon R9 Fury X


     83.141 visualizações    Vídeo    16 comentários
Teste das placas de vídeo GeForce GTX 980 Ti vs. Radeon R9 Fury X

Introdução

Testamos duas das placas de vídeo mais topo de linha disponíveis no mercado atualmente: a GeForce GTX 980 Ti, da NVIDIA, e a Radeon R9 Fury X, da AMD. Qual será a mais potente em jogos? Confira!

Como voce pode conferir em nossa “Tabela comparativa de preços AMD vs. NVIDIA - outubro/2015”, a GeForce GTX 980 Ti e a Radeon R9 Fury X são concorrentes diretas, já que ambas estão na mesma faixa de preço, em torno de US$ 620 a US$ 650, nos EUA. Enquanto a Radeon R9 Fury X (juntamente com a R9 Nano) é a placa de vídeo mais topo de linha da AMD no momento, a NVIDIA tem ainda a GeForce GTX TITAN X (que nós já testamos), que é mais cara que a GeForce GTX 980 Ti, sendo voltada para o mercado ultra-entusiasta.

Você pode ver as duas placas de vídeo testadas nas Figuras 1 e 2, que são os modelos de referência dos fabricantes.

GeForce GTX 980 Ti vs. Radeon R9 Fury X

Figura 1: a GeForce GTX 980 Ti

GeForce GTX 980 Ti vs. Radeon R9 Fury X

Figura 2: a Radeon R9 Fury X

A Figura 3 mostra as duas placas lado a lado, sem os coolers.

GeForce GTX 980 Ti vs. Radeon R9 Fury X

Figura 3: as duas placas de vídeo, sem os coolers (Radeon R9 Fury X acima e GeForce GTX 980 Ti abaixo)

Na tabela abaixo, comparamos as principais especificações das placas de vídeo incluídas neste teste. Os preços foram pesquisados na Newegg.com no dia da publicação do teste.

Placa de vídeo

Clock dos núcleos

Clock turbo

Clock da memória (efetivo)

Interface de memória

Taxa de transferência da memória

Memória

Núcleos de processamento

TDP

DirectX

Preço

GeForce GTX 980 Ti

1.000 MHz

1.075 MHz

7 GHz

384 bits

336 GB/s

6 GiB GDDR5

2.816

250 W

12.1

US$ 620

Radeon R9 Fury X

1.050 MHz

-

1 GHz

4.096 bits

512 GB/s

4 GiB HBM

4.096

275 W

12

US$ 650

Você pode comparar as especificações destas placas de vídeo com outras através dos nossos tutoriais “Tabela comparativa dos chips Radeon da AMD (desktop)” e “Tabela comparativa dos chips GeForce da NVIDIA (desktop)”.

Agora vamos dar uma olhada mais de perto nas placas de vídeo testadas.


Análises similares


Comentários de usuários

Respostas recomendadas

Olha, estava esperando esse teste há tempo, e não podia ter ficado melhor! Parabéns pelo conteúdo, Rafael! São poucos os sites de hardware brasileiros com conhecimento técnico tão preciso e, ao mesmo tempo, objetivo. Cobriu tudo que era preciso! Excelente! Interessante notar como a AMD já foca nas tecnologias modernas, abolindo a senil memória GDDR5 e a entrada DVI, trocando o sistema de refrigeração do tipo blower para a refrigeração líquida, mas mesmo onerando um pouco o preço, permite que todo o potencial do chip seja extraído, além de aumentar a vida útil. A nvidia devia aprender com eles hehehe.

Mais uma vez, excelente matéria!  :P  ;)

  • Curtir 2
Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Poderiam testar consumo energético e overcock também

 

Quanto ao consumo, estamos até montando um wattímetro, o problema é que, em placas com dois conectores de energia, seriam necessários dois wattímetros simultâneos.

Já o overclock é mais complicado, demandaria muito tempo e os resultados seriam válidos apenas para o exemplar testado.

De qualquer forma, obrigado pelas sugestões!

Olha, estava esperando esse teste há tempo, e não podia ter ficado melhor! Parabéns pelo conteúdo, Rafael! São poucos os sites de hardware brasileiros com conhecimento técnico tão preciso e, ao mesmo tempo, objetivo. Cobriu tudo que era preciso! Excelente! Interessante notar como a AMD já foca nas tecnologias modernas, abolindo a senil memória GDDR5 e a entrada DVI, trocando o sistema de refrigeração do tipo blower para a refrigeração líquida, mas mesmo onerando um pouco o preço, permite que todo o potencial do chip seja extraído, além de aumentar a vida útil. A nvidia devia aprender com eles hehehe.

Mais uma vez, excelente matéria!  :P  ;)

 

Obrigado!

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Temperatura também  :)

 

É outra comparação difícil de ser feita corretamente. Pegar a leitura de temperatura da GPU não adianta muito, já que não há garantia de que o sensor de cada placa tenha uma regulagem precisa. Usar um termômetro externo também é complicado porque a geometria das placas é diferente, no caso deste comparativo mesmo, a Fury X é toda fechada, não teríamos como medir a temperatura na base do dissipador. Por isso não incluimos comparativo de temperatura.

Link para o comentário
Compartilhar em outros sites

Quanto ao consumo, estamos até montando um wattímetro, o problema é que, em placas com dois conectores de energia, seriam necessários dois wattímetros simultâneos.

Já o overclock é mais complicado, demandaria muito tempo e os resultados seriam válidos apenas para o exemplar testado.

De qualquer forma, obrigado pelas sugestões!

 

Obrigado!

Considerando que parte da energia usada vem da pciEx, não seria melhor monitorar na tomada ambos os sistemas completos e comparar o resultado total?

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Considerando que parte da energia usada vem da pciEx, não seria melhor monitorar na tomada ambos os sistemas completos e comparar o resultado total?

 

Até pode ser feito (com um wattímetro CA) mas não teríamos como saber exatamente qual a potência consumida pela placa de vídeo em si. Ou seja, seria mais uma curiosidade do que uma comparação exata entre as placas de vídeo.

Link para o comentário
Compartilhar em outros sites

Interessante ver que a Nvidia fornece 1 conector para monitores mais antigos ( DVI ) e a AMD aposta no futuro, mas não fornece um conector para monitores antigos.

Como você mesmo disse, a AMD aposta no futuro, sendo assim não tem porque ela ficar no passado fornecendo suporte a monitores antigos.

Link para o comentário
Compartilhar em outros sites

Até pode ser feito (com um wattímetro CA) mas não teríamos como saber exatamente qual a potência consumida pela placa de vídeo em si. Ou seja, seria mais uma curiosidade do que uma comparação exata entre as placas de vídeo.

 

Concordo em parte.

Se é um teste comparativo de duas ou mais VGAs, basta diminuir um resultado pelo outro que dará a diferença de consumo entre as placas de vídeo. Pois são o único hardware trocado entre os testes.

Então, nesse caso, faria-se um teste de consumo apenas com o vídeo integrado para ter uma base.

 

Gostei bastante do teste, fico bastante feliz que o CdH conseguiu exemplares dessas duas placas de vídeo que são extremamente caras.

 

Abraço.

Link para o comentário
Compartilhar em outros sites

Bacana o teste, mas confesso que o resultado me surpreendeu um pouco, a expectativa era de que a AMD levaria alguma vantagem por conta da tal HBM, mas levando em conta que é uma novidade, talvez ainda não tenham havidos os ajustes que todo sistema precisa, sejam de hardware, seja de software (no sentido de um driver maduro), principalmente dos jogos em si, já que a AMD promete mais desempenho com o Mantle e o Vulkan (pelo menos vi alguém deles dizendo isso num vídeo uns meses atrás) além do DX12, claro.

 

Mas enfim, quero aproveitar pra perguntar o que faz um "motor" como o Frosbite? Nunca entendi isso, o motor afeta o que no jogo, calcula o que exatamente?

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Bacana o teste, mas confesso que o resultado me surpreendeu um pouco, a expectativa era de que a AMD levaria alguma vantagem por conta da tal HBM, mas levando em conta que é uma novidade, talvez ainda não tenham havidos os ajustes que todo sistema precisa, sejam de hardware, seja de software (no sentido de um driver maduro), principalmente dos jogos em si, já que a AMD promete mais desempenho com o Mantle e o Vulkan (pelo menos vi alguém deles dizendo isso num vídeo uns meses atrás) além do DX12, claro.

 

Mas enfim, quero aproveitar pra perguntar o que faz um "motor" como o Frosbite? Nunca entendi isso, o motor afeta o que no jogo, calcula o que exatamente?

 

O "motor" calcula tudo. É o software que gera todos os gráficos, a partir dos modelos e texturas do jogo.

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

Excelente teste! Parabéns pelo Review!

 

Esperava mais da R9 Fury X. Achava que a memoria HBM faria diferença nos testes dos jogos, mas não foi o caso.

Pena que vocês não podem testar o consumo das placas...

 

Ainda me pergunto se vale a pena comprar uma placa dessas no Brasil. Pois o preço delas aqui ultrapassa os R$ 3.000,00.

Estou pensando em comprar uma GTX980 normal, queria a 980TI mas é muito caro para mim.

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...