Ir ao conteúdo
  • Cadastre-se

Teste das Placas de Vídeo AMD Radeon HD 6950 e 6970


Posts recomendados

  • Membro VIP
Cadê a GTX 580 nos testes? hehe ela ia dar um pau na 6970

Se tivesse alguma pra vender..

http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&N=100007709%20600094002%20600085534&IsNodeId=1&bop=And&Order=PRICE&PageSize=20

Ela ainda seria quase 37% mais cara que a 6970, mas só 15% mais rápida.

Belo "pau".

Link para o comentário
Compartilhar em outros sites

Physis é muito legal, mas pode ser calculado pelo processador da mesma forma que pela VGA, um bom exemplo é o Mafia 2 que calcula o physis melhor no processador que na VGA, então pode usar Physis com AMD/ATI sem problema algum, claro se tiver um processador X4 bom.

Eyefiniti é uma opção muito boa, só que tem que usar 3 monitores, dois eu não recomendo, já usei e fica a divisão bem no meio da mira se for jogo de tiro, mas com 3 fica o ó do borogodó, de preferência de 23" full Hd ou maiores.

Acho que vocês estão muito nervosos com o final do ano, :D

Aproveitando, nunca gostei de console, acho uma droga comparando com um PC gamer.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Erro na página 4 logo no comecinho:

"Abaixo nós temos uma visão geral do modelo de referência da AMD Radeon HD 6950. " (6970)

Edit: ...e também na página 13 no 4º parágrafo:

"Os US$ 60 extras podem ser revestidos em maior desempenho nesses jogos (gastando 25% a mais você terá mais de 25% em ganho de desempenho), se você tiver dinheiro para levar uma para casa, é claro." (reveRtidos)

Corrigido, muito obrigado!

Link para o comentário
Compartilhar em outros sites

  • Administrador

Quanto às pergunta sobre a configuração dos jogos.

Nós habilitamos ou não filtragens dependendo da classe da placa. Nesse caso, produtos topo de linha, é claro que habilitamos filtragem em todos os jogos, menos no Crysis Warhead. Isso se dá porque com elas ativadas o número de quadros por segundo cai para abaixo de 20, tornando os resultados irrelevantes, pois ninguém vai rodar o jogo com desempenho tão baixo. Se vocês repararem com atenção, nós mudamos a nossa metodologia, para cada teste as configurações de imagem são diferentes, de acordo com o mercado da placa (entrada, intermediária ou topo de linha). No geral, o que temos feito agora é escolher uma configuração que faça o jogo rodar entre 30 e 60 quadros por segundo, que é a meta de qualquer entusiasta. É claro que há jogos que mesmo colocando tudo no máximo a placa faz mais do que isso... ;)

Gabriel!!! você deveria lançar os testes primeiro em português ou no minimo ao mesmo tempo em Inglês e Português, não se esquece que fomos nos que fizemos você ficar GRANDE!!!

Em testes importantes (processadores e placas de vídeo importantes), tentamos sim publicar no mesmo dia, basta ver um histórico atentamente para ver que todos os testes importantes de processadores e placas de vídeo são publicados simultaneamente nos dois sites. Quando há algum atraso, é de apenas um dia, como foi o caso deste.

Não se esqueça que escrevo primeiro em inglês e isso não vai mudar, por vários motivos, o principal é que é mais fácil traduzir de inglês para português do que o contrário, além disso, como recebo material diretamente dos fabricantes nos EUA para o Hardware Secrets, eles querem ver o teste em inglês (já que eles não lêem português), pois eles ficariam chateados (com razão) se mandarem material para um site e eu publicar o teste primeiro em outro. Lembrando que o Clube do Hardware e o Hardware Secrets são empresas completamente distintas e focado em mercados completamente diferentes.

Acrescento ainda que se eu não tivesse me mudado para os EUA e não tivesse essa possibilidade de conseguir material para o Hardware Secrets e aproveitar para postar o teste em português no Clube do Hardware, você continuaria vendo os atrasos que tínhamos quando eu morava no Brasil, pois ficava à mercê do escritório local, que mandava material com muito atraso, tinha que ficar com ele por um tempo limitado e ainda devolver.

Aliás, mesmo com esse atraso de um dia que você está reclamando continuamos sendo os únicos no Brasil a termos testes no dia ou no dia seguinte ao lançamento...

Cadê a GTX 580 nos testes? hehe ela ia dar um pau na 6970

Não fez o menor sentido colocarmos a GTX 580 porque é uma placa que custa quase o dobro, não concorrendo com as placas selecionadas. É como comparar um Porsche com um Golf.

Aproveitando, nunca gostei de console, acho uma droga comparando com um PC gamer.

Vamos nos ater a discutir o teste, pois essa sua mensagem é provocativa e pode gerar atritos e discussões completamente desnecessárias.

Abraços,

Gabriel

Link para o comentário
Compartilhar em outros sites

Observações:

1. A maioria dos reviews não usaram os ultimos drivers. Foi lançado um Catalyst 10.12a hotfix para as Radeons 6970/6950 no Windows 7. Este driver trouxe melhora de desempenho na 5870, porém, ainda não foi feito nenhum review ou update das 6900 com ele.

2. Em resoluções altas a AMD tende a ter mais fôlego, devido ao fato de ter uns 700mb de memória a mais. A diferença de preço (20 dólares) se paga ai. Só espero que estes 20 dólares não se transformem em R$ 300,00 reais, como costumeiramente acontece no Brasil.

3. Pela primeira vez o Crossfire mostra pra que veio. Escalando entre 80 e 100% em quase todos os jogos testados nos reviews apresentados. Dai pensar que a 6990 (Antilles) deve ser outro monstrinho praticamente imbatível à atual situação em que se encontra a Nvidia.

4. Não houve melhora signitificativa no desempenho desta geração, devido ao fato de que a TSMC não conseguiu implantar o processo de 28nm (está pelo menos 1 ano atrasada) e as VGAs estão há um bom tempo no limite da relação transistors/TDP.

5. A placa desta geração realmente será a 6990, pois nos testes de consumo foi mostrado que 2x 6950 consomem o mesmo que uma GTX580 e arregaçam com o desempenho dela. Não vejo como a Nvidia lançar uma concorrente à altura, a menos que a GTX560 venha fazendo milagres.

6. A estratégia do "chipizão" adotada pela Nvidia mostra-se problemática quando comparada a estratégia da AMD, que produz um chip menor, porém mais flexível para uma dual GPU. Em primeiro lugar isto tem impossibilitado à Nvidia fazer uma dual gpu (isto ocorreria também na geração GTX200, caso não houvesse a mudança de litografia que permitiu a GTX295 vir ao mundo). Segundo, porque mesmo tendo um pouco mais de desempenho a GTX580 tem um die muito maior, assim como a GTX570 em relação à 6970, fazendo com que o rendimento por wafers e os lucros do camaleão sejam baixos.

7. A Geração GTX500 da Nvidia é virtualmente a mesma da GTX400, havendo melhora na litografia que permitiu diminuição do consumo e clocks maiores, além da ativação de todos os SPs, todavia os drivers não devem puxar mais nada destas placas. Por outro lado, houve uma mudança de arquitetura em relação à organização dos shaders entre as Evergreen e as Cayman, permitindo que futuros drivers tragam algum aumento de desempenho à placa.

8. Queria saber como a Nvidia vai aguentar até a chegada dos 28nm, porque a AMD tem uma margem bem maior para diminuição dos preços de suas placas...

Link para o comentário
Compartilhar em outros sites

Sei acho que to ficando velho...

A unica coisa que eu queria ver nessa joça toda era essas porcarias de chips dessas gerações nos Notebooks pra jogador de plantão mas nem sequer chips de 2 gerações atras dessas vemos aqui no Brasil porque a Intel domina tudo com o Atom ou seja esse negocio de VGA fico pra Users Profissionais pra quem trabalha como aceleração fora isso é coisa de playboy remunerado pelos pais, Afff....to azedo hoje...:mad:

:lol: marcoia1, o que dizer do teu post? Cara, muito engraçado! Na boa! E a carinha de :angry: no final fechou com chave de ouro.

:D Abraços.

Link para o comentário
Compartilhar em outros sites

Quanto às pergunta sobre a configuração dos jogos.

Nós habilitamos ou não filtragens dependendo da classe da placa. Nesse caso, produtos topo de linha, é claro que habilitamos filtragem em todos os jogos, menos no Crysis Warhead. Isso se dá porque com elas ativadas o número de quadros por segundo cai para abaixo de 20, tornando os resultados irrelevantes, pois ninguém vai rodar o jogo com desempenho tão baixo. Se vocês repararem com atenção, nós mudamos a nossa metodologia, para cada teste as configurações de imagem são diferentes, de acordo com o mercado da placa (entrada, intermediária ou topo de linha). No geral, o que temos feito agora é escolher uma configuração que faça o jogo rodar entre 30 e 60 quadros por segundo, que é a meta de qualquer entusiasta. É claro que há jogos que mesmo colocando tudo no máximo a placa faz mais do que isso... ;)

A pergunta que não quer calar, será que vão poder habilitar a filtragem com a HD6990??? :D

Obrigado, agora ta explicado.

Observações:

1. A maioria dos reviews não usaram os ultimos drivers. Foi lançado um Catalyst 10.12a hotfix para as Radeons 6970/6950 no Windows 7. Porém, ainda não foi feito nenhum review com eles.

2. Em resoluções altas a AMD tende a ter mais fôlego, devido ao fato de ter uns 700mb de memória a mais. A diferença de preço (20 dólares) se paga ai. Só espero que estes 20 dólares não se transformem em R$ 300,00 reais, como costumeiramente acontece no Brasil.

3. Pela primeira vez o Crossfire mostra pra que veio. Escalando entre 80 e 100% em quase todos os jogos testados nos reviews apresentados. Dai pensar que a 6990 (Antilles) deve ser outro monstrinho praticamente imbatível à Nvidia.

4. Não houve melhora signitificativa no desempenho desta geração, devido ao fato de que a TSMC não conseguiu implantar o processo de 28nm e as VGA's vem há um bom tempo no limite da relação transistors/TDP.

5. A placa desta geração realmente será a 6990, pois nos testes de consumo foi mostrado que 2x 6950 consomem o mesmo que uma GTX580 e arregaçam com o desempenho dela. Não vejo como a Nvidia lançar uma concorrente à altura, a menos que a GTX560 venha fazendo milagres.

6. A estratégia do "chipizão" adotada pela Nvidia mostra-se tão problemática quanto a estratégia da AMD. Primeiro porque isto tem impossibilitado à Nvidia fazer uma dual gpu (isto ocorreria também na geração GTX200, caso não houvesse a mudança de litografia que permitiu a GTX295 vir ao mundo). Segundo, porque mesmo tendo um pouco mais de desempenho a GTX580 tem um die muito maior, assim como a GTX570 em relação à 6970, fazendo com que o rendimento por wafers e os lucros sejam baixos.

7. A Geração GTX500 da Nvidia é virtualmente a mesma da GTX400, havendo melhora no consumo e permitindo clocks maiores e a ativação de todos os SPs, porém, os drivers não devem puxar mais nada dai, por outro lado, houve uma mudança de arquitetura em relação à organização dos shaders da 6970, permitindo que futuros drivers tragam algum aumento de desempenho à placa.

8. Queria saber como a Nvidia vai aguentar até a chegada dos 28nm, porque a AMD tem uma margem be maior para diminuição dos preços de suas placas...

Concordo com você em gênero número e grau.

Link para o comentário
Compartilhar em outros sites

Amigo, não falei que é uma farsa e que rodaria em placas ATI/AMD, mas é um recurso disponível em poucos jogos e sendo que em alguns deles, pra rodar legal, você tem que ter uma placa extra só pra calcular o efeito, o que não é muito viável pra maioria das pessoas.

Além disso, ele é proprietário e isso é o que mais atrapalha sua popularização.

Mas.. isso e a discussão de consoles não são pertinentes a este tópico, então, por favor, vamos nos ater aos testes, beleza ? :joia:

Claro Xita.

Também não disse que você falou que é uma farsa e tudo mais, perdão se pareceu...

Isso que você diz de uma placa extra para calcular o PhysX é verdade, esqueci de mencionar.. é tanta coisa...

Sobre ser proprietário, foi o que eu disse no post :P

Mas chega de falar disso mesmo, fugimos do tema :eek:

Soullforged, nunca vi um resumão tão completo da situação. Parabéns!!

:lol:

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

1. A maioria dos reviews não usaram os ultimos drivers. Foi lançado um Catalyst 10.12a hotfix para as Radeons 6970/6950 no Windows 7. Este driver trouxe melhora de desempenho na 5870, porém, ainda não foi feito nenhum review ou update das 6900 com ele.

Já sairam testes, inclusive o Evandro postou no tópico do R900, e não houve melhoras no desempenho em jogos.

2. Em resoluções altas a AMD tende a ter mais fôlego, devido ao fato de ter uns 700mb de memória a mais. A diferença de preço (20 dólares) se paga ai. Só espero que estes 20 dólares não se transformem em R$ 300,00 reais, como costumeiramente acontece no Brasil.

Não acho, pra maioria de nada vai adiantar esses 700MB a mais (ainda mais aqui no Brasil), pois as HD 69xx se dão melhor que as GTX 5xx na resolução 2560x1600, que pouquíssimos devem usar.

3. Pela primeira vez o Crossfire mostra pra que veio. Escalando entre 80 e 100% em quase todos os jogos testados nos reviews apresentados. Dai pensar que a 6990 (Antilles) deve ser outro monstrinho praticamente imbatível à atual situação em que se encontra a Nvidia.

Quem escala assim é o Barts, o Cayman escala um pouco menos.

5. A placa desta geração realmente será a 6990, pois nos testes de consumo foi mostrado que 2x 6950 consomem o mesmo que uma GTX580 e arregaçam com o desempenho dela. Não vejo como a Nvidia lançar uma concorrente à altura, a menos que a GTX560 venha fazendo milagres.

Duas HD 6950 consomem quase o mesmo que duas HD 5870 e o desempenho não é muita coisa maior que o da HD 5970. Considerando os clocks reduzidos, chuto que uma HD 6990 baseada na HD 6950 seria menos de 10% mais rápida que a HD 5970, o que pra mim seria meio embaraçoso.

6. A estratégia do "chipizão" adotada pela Nvidia mostra-se problemática quando comparada a estratégia da AMD, que produz um chip menor, porém mais flexível para uma dual GPU. Em primeiro lugar isto tem impossibilitado à Nvidia fazer uma dual gpu (isto ocorreria também na geração GTX200, caso não houvesse a mudança de litografia que permitiu a GTX295 vir ao mundo). Segundo, porque mesmo tendo um pouco mais de desempenho a GTX580 tem um die muito maior, assim como a GTX570 em relação à 6970, fazendo com que o rendimento por wafers e os lucros do camaleão sejam baixos.

Interessante... Mas se a AMD conseguir fazer um Antilles com a HD 6970, não duvido que a nVídia consiga fazer uma dual com a GTX 570 (lembrando que as duas consomem praticamente a mesma coisa). Quanto a um Antilles com a HD 6950, acho que uma dual de uma eventual GTX 560 poderia ser uma boa concorrente.

7. A Geração GTX500 da Nvidia é virtualmente a mesma da GTX400, havendo melhora na litografia que permitiu diminuição do consumo e clocks maiores, além da ativação de todos os SPs, todavia os drivers não devem puxar mais nada destas placas. Por outro lado, houve uma mudança de arquitetura em relação à organização dos shaders entre as Evergreen e as Cayman, permitindo que futuros drivers tragam algum aumento de desempenho à placa.

Bom, não é uma boa esperar drivers da AMD que melhorem desempenho...

8. Queria saber como a Nvidia vai aguentar até a chegada dos 28nm, porque a AMD tem uma margem bem maior para diminuição dos preços de suas placas...

No aperto que a AMD está? Duvido.

Link para o comentário
Compartilhar em outros sites

Não acho, pra maioria de nada vai adiantar esses 700MB a mais (ainda mais aqui no Brasil), pois as HD 69xx se dão melhor que as GTX 5xx na resolução 2560x1600, que pouquíssimos devem usar.

Não são placas feitas pra brasileiros, convenhamos. No exterior há um relativo grande número de jogadores que utilizam de alta resolução/eyefinity, onde a série 6900 mostrou um grande diferencial.

Quem escala assim é o Barts, o Cayman escala um pouco menos.

Wrong... Eu mesmo fiz os cálculos conforme os resultados da TechPowerUp e os resultados foram de bons, para mais do que perfeitos (ultrapassando, por pouco, a escala de 100%)

http://www.techpowerup.com/reviews/ASUS/Radeon_HD_6950_CrossFire/

(Crossfire/Single)*100-100 em 2560x1600

AvP
+102.26%

BF: Bad Company 2
+102.65%

BattleForge
+99.30%

CoD4
+87.39%

Call of Juarez 2
-0.0079%

Crysis
+97.12%

Dawn of War 2
+102.82%

Far Cry 2
+100.72%

HAWX
+96.96%

Metro 2033
+81.42%

Riddick: Dark Athena
+90.37%

STALKER - Clear Sky
+96.21%

Supreme Commander 2
+22.06%

UT3
+75.80%

3DMark03
+94.11%

3DMark05
+24.76%

3DMark06
+31.52%

Unigine Heaven 2.0
+98.92%

Gaming (sem Supreme Commander e Call of Juarez)
+94.41%

Gaming (sem Call of Juarez)
+88.85%

Gaming (todos os jogos)
+82.50%

Average (Todos os testes)
+78.02%

Duas HD 6950 consomem quase o mesmo que duas HD 5870 e o desempenho não é muita coisa maior que o da HD 5970. Considerando os clocks reduzidos, chuto que uma HD 6990 baseada na HD 6950 seria menos de 10% mais rápida que a HD 5970, o que pra mim seria meio embaraçoso.

novamente peço que você veja o review, e vai perceber que a performance em altas resoluções, chega a mais de 28% de aumento de performance em relação à uma 5970 em alguns testes. Por não ter alteração na litografia, é um resultado impressionante, mas lembrando que teve um update na arquitetura, muda todo o quadro.

Interessante... Mas se a AMD conseguir fazer um Antilles com a HD 6970, não duvido que a nVídia consiga fazer uma dual com a GTX 570 (lembrando que as duas consomem praticamente a mesma coisa). Quanto a um Antilles com a HD 6950, acho que uma dual de uma eventual GTX 560 poderia ser uma boa concorrente.

Agora uma opinião pessoal. O SLI da nVidia sempre teve uma boa escala, mas ele não teve um progresso tão grande quanto a AMD nos últimos tempos, e goste ou não, as placas do time vermelho estão escalando (?) melhor atualmente.

Um CF de 6950 escala tão bem que compete com um SLI de GTX580 em eyefinity ;) Obviamente que sua memória extra ajuda no desempenho em alta resolução.

Bom, não é uma boa esperar drivers da AMD que melhorem desempenho...

No aperto que a AMD está? Duvido.

As famosas lendas da AMD com drivers ruins e falindo...

"Ninguém/poucas pessoas jogam em alta resolução." é um dos argumentos mais fracos que eu conheço, se ninguém joga em nada maior que 1080p, não vejo motivo pra venderem placas mais fortes que +60fps all maxed 1080p, mas no entanto, vendem, e tem quem compre, então tem algo de errado nessa lógica...

Link para o comentário
Compartilhar em outros sites

Já sairam testes, inclusive o Evandro postou no tópico do R900, e não houve melhoras no desempenho em jogos.

Realmente.

Não acho, pra maioria de nada vai adiantar esses 700MB a mais (ainda mais aqui no Brasil), pois as HD 69xx se dão melhor que as GTX 5xx na resolução 2560x1600, que pouquíssimos devem usar.

Bom, alguns jogos mesmo com resolução de 1920x1080 já pedem boa quantidade de memória. Meu pensamento é que é melhor sobrar que faltar, ainda mais por uma diferença de 20 dólares.

Quem escala assim é o Barts, o Cayman escala um pouco menos.

Cara, você observou os reviews realmente ou tá falando na base do achismo?

Duas HD 6950 consomem quase o mesmo que duas HD 5870 e o desempenho não é muita coisa maior que o da HD 5970. Considerando os clocks reduzidos, chuto que uma HD 6990 baseada na HD 6950 seria menos de 10% mais rápida que a HD 5970, o que pra mim seria meio embaraçoso.

Acho que você realmente não olhou os reviews. Duas 6950 consomem cerca de 100w a menos que que 570 em SLI. Realmente exagerei um pouco quando disse que estavam no patamar de consumo de GTX580, acho que confundi com a HD5970.

Interessante... Mas se a AMD conseguir fazer um Antilles com a HD 6970, não duvido que a nVídia consiga fazer uma dual com a GTX 570 (lembrando que as duas consomem praticamente a mesma coisa). Quanto a um Antilles com a HD 6950, acho que uma dual de uma eventual GTX 560 poderia ser uma boa concorrente.

Dá uma olhada nos reviews que deve melhorar a percepção.

teste1zd.jpg

teste2j.jpg

Bom, não é uma boa esperar drivers da AMD que melhorem desempenho...
.

Devem melhorar.

No aperto que a AMD está? Duvido.

Essa do aperto já passou, meu amigo. E a AMD tem maior margem pra redução devido ao maior rendimento por wafer, tendo em vista que o Cayman é bem menor que o Fermi.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Não são placas feitas pra brasileiros, convenhamos. No exterior há um relativo grande número de jogadores que utilizam de alta resolução/eyefinity, onde a série 6900 mostrou um grande diferencial.

Bom, não acho. Quantos você conhece que possuem um monitor com resolução 2560x1600? Pode procurar até em fóruns gringos e números de reviews de monitores com essa res. na Newegg, são muito poucos. Quanto o Eyefinity, também é uma tecnologia que custa caro para poder usufruir bem, já que para ter uma boa experiência é preciso ter três bons monitores idênticos, com ''bordas'' finas. Isso não é nada barato.

Wrong... Eu mesmo fiz os cálculos conforme os resultados da TechPowerUp e os resultados foram de bons, para mais do que perfeitos (ultrapassando, por pouco, a escala de 100%)

http://www.techpowerup.com/reviews/ASUS/Radeon_HD_6950_CrossFire/

Mas você está considerando somente 2560x1600... Se for para comparar apenas uma res., prefiro usar 1920x1080 ou 1920x1200, pois muitos já as usam e elas já estão há um bom tempo disponíveis em monitores com preço acessível. Nesse caso, nesse mesmo teste:

perfrel.gif

perfrel_1920.gif

No teste do TPU, realmente, o CF do Cayman está escalando de uma forma parecida com a do Barts.

novamente peço que você veja o review, e vai perceber que a performance em altas resoluções, chega a mais de 28% de aumento de performance em relação à uma 5970 em alguns testes. Por não ter alteração na litografia, é um resultado impressionante, mas lembrando que teve um update na arquitetura, muda todo o quadro.

Novamente, altas resoluções. E você está se esquecendo que a o CF da HD 6950 é com os clocks padrões, já a HD 5970 é um CF de HD 5870 com clocks reduzidos. Eu achei a HD 6950 bem broxante, pois em single ela tem uma performance praticamente igual a da HD 5870, exceto em alguns casos como alguns jogos e benchs DX11. O atrativo da HD 6950 é que ela escala um pouco mais que a HD 5870 em CF, além de se sair melhor com o tesselation.

Agora uma opinião pessoal. O SLI da nVidia sempre teve uma boa escala, mas ele não teve um progresso tão grande quanto a AMD nos últimos tempos, e goste ou não, as placas do time vermelho estão escalando (?) melhor atualmente.

Fato. O CF, no momento, está escalando melhor nas HD 6xxx do que nas GTX 4xx ou GTX 5xx. Mas isso pode mudar com novos drivers (eu não acredito que irá mudar muito com as placas que já estão no mercado, mas é uma possibilidade).

Um CF de 6950 escala tão bem que compete com um SLI de GTX580 em eyefinity ;) Obviamente que sua memória extra ajuda no desempenho em alta resolução.

Poderia postar o teste? Só vi um site que fez com o Eyefinity, e não comparava com nenhuma Geforce.

As famosas lendas da AMD com drivers ruins e falindo...

Hã? Não falei que os drivers da AMD são ruins, o que eu quis dizer é que é tradição da AMD lançar as placas com drivers que já as deixe com o desempenho ''que eles queriam''. Quem tem costume de lançar as placas e ir melhorando o desempenho das mesmas com drivers novos é a nVídia. Um exemplo para isso é a linha HD 5xxx e a GTX 4xx.

"Ninguém/poucas pessoas jogam em alta resolução." é um dos argumentos mais fracos que eu conheço, se ninguém joga em nada maior que 1080p, não vejo motivo pra venderem placas mais fortes que +60fps all maxed 1080p, mas no entanto, vendem, e tem quem compre, então tem algo de errado nessa lógica...

Querendo ou não, é um argumento. E um grande argumento. É uma parcela mínima a dos que usam resoluções maiores que 1920x1080. Aqui vai um ranking das 10 resoluções mais usadas (pesquisa feita no ano passado):

http://www.osdezmais.com/tecnologia/as-10-resolucoes-de-monitor-mais-comuns/

Bom, alguns jogos mesmo com resolução de 1920x1080 já pedem boa quantidade de memória. Meu pensamento é que é melhor sobrar que faltar, ainda mais por uma diferença de 20 dólares.

Não sei se você já viu, mas o Evandro postou no tópico do R800 um comparativo da HD 5870 1GB com a HD 5870 2GB no Eyefinity, e praticamente não houve ganho de desempenho. A HD 6970 não se sai melhor que a GTX 570 em 2560x1600 em altas resoluções porque tem mais memória, e sim por causa da arquitetura mesmo. E no caso da disputa HD 6970 VS GTX 570, para a maioria das pessoas, compensa pegar a mais barata, que nesse caso, pelo menos por enquanto, é a GTX 570.

Cara, você observou os reviews realmente ou tá falando na base do achismo?

Sim, observei muito bem. O que vi é que o Cayman escala igual ao Barts em resoluções maiores que 1920x1080, mas nas resoluções mais baixas ou iguais a esta, elas escalam um pouco menos (mas mesmo assim escalam bem).

Acho que você realmente não olhou os reviews. Duas 6950 consomem cerca de 100w a menos que que 570 em SLI. Realmente exagerei um pouco quando disse que estavam no patamar de consumo de GTX580, acho que confundi com a HD5970.

Desculpe, mas o que isso tem haver com o que eu disse? :confused:

Dá uma olhada nos reviews que deve melhorar a percepção.

Essas são duas situações, mas neste mesmo teste do Guru3D tem algumas situações onde o CF não escalou tão bem. Nas duas situações abaixo, por exemplo:

http://www.guru3d.com/article/radeon-hd-6950-crossfirex-review/5

http://www.guru3d.com/article/radeon-hd-6950-crossfirex-review/7

Devem melhorar.

Só mesmo esperando para ver. Como o Cayman utiliza o esquema VLIW4 e tem o Dual Setup Engine, pode ser que novos drivers consigam aumentar o desempenho, mas eu acho bem improvável.

Essa do aperto já passou, meu amigo. E a AMD tem maior margem pra redução devido ao maior rendimento por wafer, tendo em vista que o Cayman é bem menor que o Fermi.

Sério? Não é o que eu vejo. O que eu vejo são os vários trimestres negativos. Enquanto isso a nVídia já está novamente tendo trimestres positivos.

Quanto a margem para redução... Bom, basta olhar as HD 5xxx, elas baixaram muito o preço? Acho que não. Dê uma olhada na Newegg e verá que a nVídia é quem está sendo mais ''agressiva'' e baixando os preços.

Link para o comentário
Compartilhar em outros sites

Sim, observei muito bem. O que vi é que o Cayman escala igual ao Barts em resoluções maiores que 1920x1080, mas nas resoluções mais baixas ou iguais a esta, elas escalam um pouco menos (mas mesmo assim escalam bem).

Acho que foi o hardware Heaven que fez um review colocando crossfire contra SLI, até o pessoal tava comentando no adrenaline que todos os testes crossfire escalou melhor que SLI,

Desculpe, mas o que isso tem haver com o que eu disse? :confused:

Você falou sobre uma possível dual GPU baseada na GTX570, o que eu acho meio impossível, pelo menos sem estourar os 300w. A diferença de consumo entre as duas configurações CF6950 vs. SLI570 é de quase 100w.

Essas são duas situações, mas neste mesmo teste do Guru3D tem algumas situações onde o CF não escalou tão bem. Nas duas situações abaixo, por exemplo:

http://www.guru3d.com/article/radeon-hd-6950-crossfirex-review/5

http://www.guru3d.com/article/radeon-hd-6950-crossfirex-review/7

Vamos tirar as dúvidas baseados no teste do Anandtech comparando 5970, 6950 e 6950CF.

Crysis Warhead 1920x1200 Entusiast 4AA

5970 = 65.7 / 6950 = 48.6 / CF 6950 = 87.4

escalou 79,83%

resultado em relação a 5970 = 33%

Battleforge DX10 1920x1200

5970 = 93,3 / 6950 = 58.3 / CF 6950 = 115,2

escalou 97,59%

resultado em relação a 5970 = 24,81%

Metro 2033 DX11 1920x1200 Analitical AA / 16AF

5970 = 47,5 / 6950 = 36 / CF 6950 = 60,5

escalou 68,05%

resultado em relação a 5970 = 27,36

Hawx 1920x1200 Maximum Quality + Low AO + 4AA

5970 = 155 / 6950 = 108/ CF 6950 = 192

escalou 77,77%

resultado em relação a 5970 = 23,87

Civilazion 5 1920x1200 + Maximum Quality + 4xAA

5970 = 49,3 / 6950 = 34,8/ CF 6950 = 46,3

escalou 33,04%

resultado em relação a 5970 = -6,21%

Vale ressaltar que o jogo não escalou bem com ninguém, nem crossfire nem SLI, mostrando-se pesado e mal-otimizado

Battlefiled BC2 1920x1200 + Maximum quality + 4xAA

5970 = 97,2 / 6950 = 61,8/ CF 6950 = 120,2

escalou 94,49%

resultado em relação a 5970 = 23,66%

Stalker Call of Pripyat 1920x1200 + DX11 + Ultra quality + 4xAA

5970 = 69,4 / 6950 = 52,1/ CF 6950 = 99

escalou 90,01%

resultado em relação a 5970 = 42,65%

Dirt2 1920x1200 + DX11 + Ultra high quality + 4xAA

5970 = 101,5 / 6950 = 70,6/ CF 6950 = 121,3

escalou 71,81%

resultado em relação a 5970 = 19,50%

Mass Effects 2 1920x1200 + Maximum quality + 4xAA

5970 = 120,3 / 6950 = 78,5/ CF 6950 = 144,5

escalou 84,07%

resultado em relação a 5970 = 20,11%

Wolfstein 1920x1200 + HQ + 4xAA

5970 = 110,3 / 6950 = 102,9/ CF 6950 = 113,1

escalou 9,21%

resultado em relação a 5970 = 2,53%

Outro jogo que não merece ser levado em consideração, tendo em vista que ninguém escalou e as placas nvidia e amd tiveram basicamente o mesmo resultado

Fazendo um média aritmética do crossfire, excetuando os dois jogos onde ninguém escalou temos: CF6950 = 82,95%. CF6950 em relação a 5970 = 26,87%.

As conclusões falam por si. É perfeitamente justificável o lançamento de uma dual GPU baseada no CF de 6950 que teria pelo menos 27% a mais de desempenho do que a 5970, contrariando os máximos 10% que você afirmou. A escalabilidade mantem-se acima de 80% mesmo em 1920x1200, subindo para quase 100% quando se aumenta a resolução.

Só mesmo esperando para ver. Como o Cayman utiliza o esquema VLIW4 e tem o Dual Setup Engine, pode ser que novos drivers consigam aumentar o desempenho, mas eu acho bem improvável.
.

Não vejo nada de improvável. Todas as placas desde a geração 2000 das radeons e da geração 8000 da Nvidia subiram de desempenho com o passar do tempo devido aos drivers.

Agora com a reorganização dos shaders elas tendem a ter uma melhor paralelização, mas, isto só veremos com o lançamento dos próximos catalysts.

Sério? Não é o que eu vejo. O que eu vejo são os vários trimestres negativos. Enquanto isso a nVídia já está novamente tendo trimestres positivos.

Quanto a margem para redução... Bom, basta olhar as HD 5xxx, elas baixaram muito o preço? Acho que não. Dê uma olhada na Newegg e verá que a nVídia é quem está sendo mais ''agressiva'' e baixando os preços.

A AMD tem uma dívida ainda pra pagar e apenas por isto tem tido trimestres no vermelho, pois desde a venda das fábricas a parte de pesquisa e desenvolvimento apresenta superavit.

O motivo das Radeons 5000 não terem baixado de preço foi falta de concorrência pura e simples. A primeira placa da geração fermi que veio fazer alguma cócega na AMD foi a GTX460 que se mostrou um ótimo produto.

A prova disto é que mesmo não tendo reduzido preços das placas da geração 5000, a AMD passou a ser dominante no mercado de GPUs discretas, algo que não acontecia desde as 8800...

Link para o comentário
Compartilhar em outros sites

...A prova disto é que mesmo não tendo reduzido preços das placas da geração 5000, a AMD passou a ser dominante no mercado de GPUs discretas, algo que não acontecia desde as 8800...

Essas GPUs discretas que faltam no nosso mercado, só temos notebooks com intel onboard e outras tranqueiras, apesar dos ix da vida terem melhorado um pouco com a VGA embutida os chips dedicados para jogos além de não ter muita opção chegam aqui rasgando o peito do interessado, de tão alto o valor.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Acho que foi o hardware Heaven que fez um review colocando crossfire contra SLI, até o pessoal tava comentando no adrenaline que todos os testes crossfire escalou melhor que SLI,

Sim, eu sei que o CF da nova geração está escalando melhor (tudo bem que pouca coisa) que o SLI da concorrente. Não discordei disso em momento nenhum. Agora, quanto o teste do Hardware Heaven, se estiver falando desse, bom, não dá para concluir muita coisa com o resultado em dois jogos (ainda mais porque o F1 2010 é um desses jogos, e ele se sai melhor com as Radeons).

Você falou sobre uma possível dual GPU baseada na GTX570, o que eu acho meio impossível, pelo menos sem estourar os 300w. A diferença de consumo entre as duas configurações CF6950 vs. SLI570 é de quase 100w.

Opa, mas eu disse que a nVídia poderia fazer uma dual baseada na GTX 570 se a AMD lançasse uma Antilles baseada na HD 6970, e nesse caso as duas consomem praticamente a mesma coisa tanto em single como dual. Eu disse também que se a AMD lançar uma Antilles baseada na HD 6950, provavelmente a nVídia irá lançar uma dual baseada na GTX 560, e aí irá ficar bem interessante, pois a GTX 560 será baseada no GF104 com algumas modificações (GF114), e pra quem não se lembra, as GTX 460 escalam muito bem em SLI.

Fazendo um média aritmética do crossfire, excetuando os dois jogos onde ninguém escalou temos: CF6950 = 82,95%. CF6950 em relação a 5970 = 26,87%.

As conclusões falam por si. É perfeitamente justificável o lançamento de uma dual GPU baseada no CF de 6950 que teria pelo menos 27% a mais de desempenho do que a 5970, contrariando os máximos 10% que você afirmou. A escalabilidade mantem-se acima de 80% mesmo em 1920x1200, subindo para quase 100% quando se aumenta a resolução.

Você está esquecendo que nesse caso você não está considerando que a Antilles irá ter uma certa redução de clocks. Sei não, acho bem arriscado, e olhando bem a situação, seria melhor a AMD fazer uma Antilles baseada na HD 6870 do que na HD 6950, pelo fato do CF escalar quase da mesma forma, e o Barts XT ainda consome menos e é menor que o Cayman PRO. Para mim as duas soluções são arriscadas e ficariam pouca coisa a frente da HD 5970.

Não vejo nada de improvável. Todas as placas desde a geração 2000 das radeons e da geração 8000 da Nvidia subiram de desempenho com o passar do tempo devido aos drivers.

Que eu lembro, as Radeons HD5xxx aumentaram pouquíssimo o desempenho com novos drivers (coisa de 1~3%, isso de acordo com a galera que tem uma), já as GTX4xx aumentaram consideravelmente o desempenho com novos drivers. Repito, pelo que sei a AMD não costuma melhorar desempenho de novas placas com novos drivers, mas como as HD6xxx tem muitas mudanças na arquitetura, pode ser que dessa vez seja diferente.

Agora com a reorganização dos shaders elas tendem a ter uma melhor paralelização, mas, isto só veremos com o lançamento dos próximos catalysts.

Aí você já falou minha língua. ^_^

A AMD tem uma dívida ainda pra pagar e apenas por isto tem tido trimestres no vermelho, pois desde a venda das fábricas a parte de pesquisa e desenvolvimento apresenta superavit.

Ou seja, ela ainda está no aperto.

O motivo das Radeons 5000 não terem baixado de preço foi falta de concorrência pura e simples. A primeira placa da geração fermi que veio fazer alguma cócega na AMD foi a GTX460 que se mostrou um ótimo produto.

Quando a nVídia lançou as GTX 460 1GB e 768MB, a GTS 450 e baixou o preço da GTX 470, a AMD não baixou praticamente nada o preço das HD5xxx. E acredito que se ela tivesse mesmo ''fôlego'' para diminuir os preços assim, a HD 6970 não teria sido lançada com esse preço.

A prova disto é que mesmo não tendo reduzido preços das placas da geração 5000, a AMD passou a ser dominante no mercado de GPUs discretas, algo que não acontecia desde as 8800...

Isso foi porque ela lançou as HD 5xxx muito antes das GTX 4xx, e sem concorrência fica fácil.

Link para o comentário
Compartilhar em outros sites

Opa, mas eu disse que a nVídia poderia fazer uma dual baseada na GTX 570 se a AMD lançasse uma Antilles baseada na HD 6970, e nesse caso as duas consomem praticamente a mesma coisa tanto em single como dual. Eu disse também que se a AMD lançar uma Antilles baseada na HD 6950, provavelmente a nVídia irá lançar uma dual baseada na GTX 560, e aí irá ficar bem interessante, pois a GTX 560 será baseada no GF104 com algumas modificações (GF114), e pra quem não se lembra, as GTX 460 escalam muito bem em SLI.

Este é o unico ponto em desacordo. Não haverá redução de clocks, pois o consumo de 2x 6950 em CF é exatamente o mesmo da 5970 (que é baseada na 5850). Portanto TDP deve ser manter o mesmo. Pode ser, ai eu acho mais difícil, que o a dual GPU seja baseada na 6970. Ai neste caso os clocks teriam que ser reduzidos.

O ponto é que o crossfire de 6970 é de 10 a 20% melhor que o de 6950, o que elevaria o patamar para 40 a 50% em cima da 5970, representando mais problemas para o camaleão.

Que eu lembro, as Radeons HD5xxx aumentaram pouquíssimo o desempenho com novos drivers (coisa de 1~3%, isso de acordo com a galera que tem uma), já as GTX4xx aumentaram consideravelmente o desempenho com novos drivers. Repito, pelo que sei a AMD não costuma melhorar desempenho de novas placas com novos drivers, mas como as HD6xxx tem muitas mudanças na arquitetura, pode ser que dessa vez seja diferente.

Eu tenho uma 5870 e meio que discordo disto. Em alguns jogos como RE5 os drivers melhoraram em quase 20% o desempenho da placa. tudo bem que mesmo no lançamento já dava pra rodar tudo no máximo.

Qualquer hora destas eu vou pegar um driver antigo e fazer alguns testes.

Aí você já falou minha língua. ^_^

:D

Ou seja, ela ainda está no aperto.

Nem tanto. O negócio mais rentável da AMD ainda é o ramo dos processadores e chipsets. Entre 60 e 70% de suas atividades. Por isto ela tem margem de manobra no setor de GPUs.

Quando a nVídia lançou as GTX 460 1GB e 768MB, a GTS 450 e baixou o preço da GTX 470, a AMD não baixou praticamente nada o preço das HD5xxx. E acredito que se ela tivesse mesmo ''fôlego'' para diminuir os preços assim, a HD 6970 não teria sido lançada com esse preço.

A esta altura a Nvidia era quem precisava recuperar-se do atraso. As radeons sofreram o deságio do mercado, e continuaram a não ser ameaçadas pelas placas da Nvidia.

Há reportagens da época que mostram que mesmo com todo frissom, as GTX460 demoraram um pouco a decolar.

Isso foi porque ela lançou as HD 5xxx muito antes das GTX 4xx, e sem concorrência fica fácil.

Então, como eu falei, falta de concorrência.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Este é o unico ponto em desacordo. Não haverá redução de clocks, pois o consumo de 2x 6950 em CF é exatamente o mesmo da 5970 (que é baseada na 5850). Portanto TDP deve ser manter o mesmo. Pode ser, ai eu acho mais difícil, que o a dual GPU seja baseada na 6970. Ai neste caso os clocks teriam que ser reduzidos.

Na verdade a HD 5970 é baseada na HD 5870, só que com clocks reduzidos (os clocks ficam iguais aos da HD 5850, por isso muita gente confunde). Quanto ao consumo, de acordo com o TPU, o CF de HD 6950 consome ~40W a mais que a HD 5970 em jogos, e ~60W a mais no Furmark. Acredito que teria sim uma redução de clocks. Mas, acho melhor esperarmos o teste definitivo do Xbits Labs para podermos ver essa questão do consumo.

Eu tenho uma 5870 e meio que discordo disto. Em alguns jogos como RE5 os drivers melhoraram em quase 20% o desempenho da placa. tudo bem que mesmo no lançamento já dava pra rodar tudo no máximo.

Qualquer hora destas eu vou pegar um driver antigo e fazer alguns testes.

Interessante, quando fizer o teste poste no tópico do R800 ou da placa pra gente poder analisar... :joia:

Nem tanto. O negócio mais rentável da AMD ainda é o ramo dos processadores e chipsets. Entre 60 e 70% de suas atividades. Por isto ela tem margem de manobra no setor de GPUs.

Essa questão de diminuir ou não o preço, só esperando mesmo... Mas acho que a AMD está tentando tirar o maior lucro possível com essas placas, e acho que diminuir o preço não está nos seus planos, pelo menos por agora.

A esta altura a Nvidia era quem precisava recuperar-se do atraso. As radeons sofreram o deságio do mercado, e continuaram a não ser ameaçadas pelas placas da Nvidia.

Há reportagens da época que mostram que mesmo com todo frissom, as GTX460 demoraram um pouco a decolar.

Mas a nVídia já estava incomodando, tanto que conseguiu recuperar uma pequena fatia do mercado de GPUs discretas.

Link para o comentário
Compartilhar em outros sites

Essas GPUs discretas que faltam no nosso mercado, só temos notebooks com intel onboard e outras tranqueiras, apesar dos ix da vida terem melhorado um pouco com a VGA embutida os chips dedicados para jogos além de não ter muita opção chegam aqui rasgando o peito do interessado, de tão alto o valor.

Meu irmão tinha uma HD4200, a onboardzinha quebrada um galho, hahaha

Atualmente ele usa minha HD2600 GDDR4 que dá pra rodar os jogos em HD tranquilamente

Se Deus quiser logo teremos Hybrid CF com um Fusion e uma onboard, hohoho

Daqui uns 5 anos, talvez isso seja útil pra gamers

Link para o comentário
Compartilhar em outros sites

Muito bom teste.. como sempre.

Parabêns mais uma vez ao CdH.

Eu vi um post a um tempo de um amigo, onde dizia mais ou menos o seguinte..

Não importa se é ATI ou NVIDIA, o importante é os FPS q ela vai me proporcionar...

(neste ponto não esta sendo considerado valor R$)

Aguardo com curiosidade futuros testes dos novos lançamentos da ATI e a gtx 580 da concorrente...

Ou vocês acreditam que ela não vale a pena ser testada GTX 580 ??

Abraços

e Feliz Natal.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Aguardo com curiosidade futuros testes dos novos lançamentos da ATI e a gtx 580 da concorrente...

Ou vocês acreditam que ela não vale a pena ser testada GTX 580 ??

Abraços

e Feliz Natal.

O teste da GTX 580 já saiu:

https://www.clubedohardware.com.br/artigos/Teste-da-Placa-de-Video-NVIDIA-GeForce-GTX-580/2119

E Feliz Natal para você também! :natal:

Link para o comentário
Compartilhar em outros sites

Crie uma conta ou entre para comentar

Você precisa ser um usuário para fazer um comentário

Criar uma conta

Crie uma nova conta em nossa comunidade. É fácil!

Crie uma nova conta

Entrar

Já tem uma conta? Faça o login.

Entrar agora

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...