Ir ao conteúdo
  • Cadastre-se

Teste das placas de vídeo GeForce GTX 980 Ti vs. Radeon R9 Fury X


     83.116 visualizações    Vídeo    16 comentários
Teste das placas de vídeo GeForce GTX 980 Ti vs. Radeon R9 Fury X

A Radeon R9 Fury X - parte 1

A Radeon R9 Fury X pode ser vista na Figura 12. A principal característica visível da placa é, obviamente, o fato de que ela vem com um sistema selado de refrigeração líquida já montado e instalado; basta instalar a placa em um slot PCI Express 3.0 x16 e fixar o radiador de 120 mm no seu gabinete. Além disso, a placa utiliza dois conectores de alimentação de oito pinos.

A placa mede 195 mm de comprimento, ocupa dois slots e pesa 880 g sem o radiador (1.509 g com o radiador). O logotipo acende em vermelho quando a placa está ligada.

GeForce GTX 980 Ti vs. Radeon R9 Fury X

Figura 12: vista superior da Radeon R9 Fury X

Na Figura 13 podemos ver os conectores de vídeo da Radeon R9 Fury X. Ela traz uma saída HDMI (versão não informada) e três saídas DisplayPort 1.2. A placa aceita até seis monitores simultâneos (utilizando um distribuidor DisplayPort).

GeForce GTX 980 Ti vs. Radeon R9 Fury X

Figura 13: conectores de vídeo da Radeon R9 Fury X

Na Figura 14 vemos a traseira da placa. Um detalhe interessante é um grupo de nove LEDs, visíveis no canto superior esquerdo, que dá uma indicação visual da utilização do processador gráfico em tempo real.

GeForce GTX 980 Ti vs. Radeon R9 Fury X

Figura 14: vista traseira da Radeon R9 Fury X

Removendo a tampa traseira, podemos ver o lado da solda da Fury X. Note que não há chips de memória deste lado.

GeForce GTX 980 Ti vs. Radeon R9 Fury X

Figura 15: lado da solda da Radeon R9 Fury X, sem a tampa


Análises similares


Comentários de usuários

Respostas recomendadas

Olha, estava esperando esse teste há tempo, e não podia ter ficado melhor! Parabéns pelo conteúdo, Rafael! São poucos os sites de hardware brasileiros com conhecimento técnico tão preciso e, ao mesmo tempo, objetivo. Cobriu tudo que era preciso! Excelente! Interessante notar como a AMD já foca nas tecnologias modernas, abolindo a senil memória GDDR5 e a entrada DVI, trocando o sistema de refrigeração do tipo blower para a refrigeração líquida, mas mesmo onerando um pouco o preço, permite que todo o potencial do chip seja extraído, além de aumentar a vida útil. A nvidia devia aprender com eles hehehe.

Mais uma vez, excelente matéria!  :P  ;)

  • Curtir 2
Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Poderiam testar consumo energético e overcock também

 

Quanto ao consumo, estamos até montando um wattímetro, o problema é que, em placas com dois conectores de energia, seriam necessários dois wattímetros simultâneos.

Já o overclock é mais complicado, demandaria muito tempo e os resultados seriam válidos apenas para o exemplar testado.

De qualquer forma, obrigado pelas sugestões!

Olha, estava esperando esse teste há tempo, e não podia ter ficado melhor! Parabéns pelo conteúdo, Rafael! São poucos os sites de hardware brasileiros com conhecimento técnico tão preciso e, ao mesmo tempo, objetivo. Cobriu tudo que era preciso! Excelente! Interessante notar como a AMD já foca nas tecnologias modernas, abolindo a senil memória GDDR5 e a entrada DVI, trocando o sistema de refrigeração do tipo blower para a refrigeração líquida, mas mesmo onerando um pouco o preço, permite que todo o potencial do chip seja extraído, além de aumentar a vida útil. A nvidia devia aprender com eles hehehe.

Mais uma vez, excelente matéria!  :P  ;)

 

Obrigado!

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Temperatura também  :)

 

É outra comparação difícil de ser feita corretamente. Pegar a leitura de temperatura da GPU não adianta muito, já que não há garantia de que o sensor de cada placa tenha uma regulagem precisa. Usar um termômetro externo também é complicado porque a geometria das placas é diferente, no caso deste comparativo mesmo, a Fury X é toda fechada, não teríamos como medir a temperatura na base do dissipador. Por isso não incluimos comparativo de temperatura.

Link para o comentário
Compartilhar em outros sites

Quanto ao consumo, estamos até montando um wattímetro, o problema é que, em placas com dois conectores de energia, seriam necessários dois wattímetros simultâneos.

Já o overclock é mais complicado, demandaria muito tempo e os resultados seriam válidos apenas para o exemplar testado.

De qualquer forma, obrigado pelas sugestões!

 

Obrigado!

Considerando que parte da energia usada vem da pciEx, não seria melhor monitorar na tomada ambos os sistemas completos e comparar o resultado total?

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Considerando que parte da energia usada vem da pciEx, não seria melhor monitorar na tomada ambos os sistemas completos e comparar o resultado total?

 

Até pode ser feito (com um wattímetro CA) mas não teríamos como saber exatamente qual a potência consumida pela placa de vídeo em si. Ou seja, seria mais uma curiosidade do que uma comparação exata entre as placas de vídeo.

Link para o comentário
Compartilhar em outros sites

Interessante ver que a Nvidia fornece 1 conector para monitores mais antigos ( DVI ) e a AMD aposta no futuro, mas não fornece um conector para monitores antigos.

Como você mesmo disse, a AMD aposta no futuro, sendo assim não tem porque ela ficar no passado fornecendo suporte a monitores antigos.

Link para o comentário
Compartilhar em outros sites

Até pode ser feito (com um wattímetro CA) mas não teríamos como saber exatamente qual a potência consumida pela placa de vídeo em si. Ou seja, seria mais uma curiosidade do que uma comparação exata entre as placas de vídeo.

 

Concordo em parte.

Se é um teste comparativo de duas ou mais VGAs, basta diminuir um resultado pelo outro que dará a diferença de consumo entre as placas de vídeo. Pois são o único hardware trocado entre os testes.

Então, nesse caso, faria-se um teste de consumo apenas com o vídeo integrado para ter uma base.

 

Gostei bastante do teste, fico bastante feliz que o CdH conseguiu exemplares dessas duas placas de vídeo que são extremamente caras.

 

Abraço.

Link para o comentário
Compartilhar em outros sites

Bacana o teste, mas confesso que o resultado me surpreendeu um pouco, a expectativa era de que a AMD levaria alguma vantagem por conta da tal HBM, mas levando em conta que é uma novidade, talvez ainda não tenham havidos os ajustes que todo sistema precisa, sejam de hardware, seja de software (no sentido de um driver maduro), principalmente dos jogos em si, já que a AMD promete mais desempenho com o Mantle e o Vulkan (pelo menos vi alguém deles dizendo isso num vídeo uns meses atrás) além do DX12, claro.

 

Mas enfim, quero aproveitar pra perguntar o que faz um "motor" como o Frosbite? Nunca entendi isso, o motor afeta o que no jogo, calcula o que exatamente?

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Bacana o teste, mas confesso que o resultado me surpreendeu um pouco, a expectativa era de que a AMD levaria alguma vantagem por conta da tal HBM, mas levando em conta que é uma novidade, talvez ainda não tenham havidos os ajustes que todo sistema precisa, sejam de hardware, seja de software (no sentido de um driver maduro), principalmente dos jogos em si, já que a AMD promete mais desempenho com o Mantle e o Vulkan (pelo menos vi alguém deles dizendo isso num vídeo uns meses atrás) além do DX12, claro.

 

Mas enfim, quero aproveitar pra perguntar o que faz um "motor" como o Frosbite? Nunca entendi isso, o motor afeta o que no jogo, calcula o que exatamente?

 

O "motor" calcula tudo. É o software que gera todos os gráficos, a partir dos modelos e texturas do jogo.

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

Excelente teste! Parabéns pelo Review!

 

Esperava mais da R9 Fury X. Achava que a memoria HBM faria diferença nos testes dos jogos, mas não foi o caso.

Pena que vocês não podem testar o consumo das placas...

 

Ainda me pergunto se vale a pena comprar uma placa dessas no Brasil. Pois o preço delas aqui ultrapassa os R$ 3.000,00.

Estou pensando em comprar uma GTX980 normal, queria a 980TI mas é muito caro para mim.

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...