Ir ao conteúdo

AMD R900 - Northern Islands: Radeon HD6**0


Evandro

Posts recomendados

Postado

Exatamente, Evandro, Gun'ss, Diego, Telminão. Então, resumindo tudo (para quem tiver só passando o olho no tópico):

A diferença: a nVIDIA levou o tapa na cara (dado pela TSMC) no gf100 e arrumou no gf110. Enquanto isso a AMD ficou tranquila nas 58xx e até no Barts, só precisou enfrentar o tapa na cara agora, nas Cayman.

E ela teve tempo para prever isso, a TSMC já cancelou o 32nm faz um tempão. Só que, ao invés de ser mais agressiva (o que aumentaria os riscos e os custos) ela preferiu fazer uma placa "boa" e depender da 6990 para competir com a gtx580. O fato da gtx580 não ter batido a 5970 só deu mais e mais tranquilidade para a AMD manter essa estratégia: "deixa a coisa rolar, a gente volta com força na próxima litografia".

Isso é uma estratégia válida, ao meu ver, mas meio broxante e ela corre o sério risco de perder o ano no mundo entusiasta, encalhar as 6950/6970 e ainda perder um pouco das vendas das 68xx (muito boas por sinal, ao meu ver) porque o flagship dela está denegrindo a imagem ao invés de levantá-la.

E sobre esses sites, vou dar uma olhada de vez em quando. Na verdade eu estou com uma matéria do Beyond3D sobre o ATI Xenos, placa gráfica da ATI para o Xbox360, aberta no browser. Tem coisas interessantes como "Unified Shader Core", eDRAM e "Unified Memory Architecture (UMA)", inclusive com o controle de memória do xbox sendo localizado no chip gráfico.

  • Membro VIP
Postado
Exatamente, Evandro, Gun'ss, Diego, Telminão. Então, resumindo tudo (para quem tiver só passando o olho no tópico):

A diferença: a nVIDIA levou o tapa na cara (dado pela TSMC) no gf100 e arrumou no gf110. Enquanto isso a AMD ficou tranquila nas 58xx e até no Barts, só precisou enfrentar o tapa na cara agora, nas Cayman.

Não é bem por aí, as HD5000 e até a HD4770 sofreram MUITO com a baixa disponibilidade de chips, também culpa da TSMC.

E ela teve tempo para prever isso, a TSMC já cancelou o 32nm faz um tempão.

Mais ou menos..

Só que, ao invés de ser mais agressiva (o que aumentaria os riscos e os custos) ela preferiu fazer uma placa "boa" e depender da 6990 para competir com a gtx580. O fato da gtx580 não ter batido a 5970 só deu mais e mais tranquilidade para a AMD manter essa estratégia: "deixa a coisa rolar, a gente volta com força na próxima litografia".

Provavelmente. Mas a 6990 tinha que ter saído ao mesmo tempo que as outras 6900 e, pra variar, a p.. dos preços tinham que rser melhores. ^_^

Isso é uma estratégia válida, ao meu ver, mas meio broxante e ela corre o sério risco de perder o ano no mundo entusiasta, encalhar as 6950/6970 e ainda perder um pouco das vendas das 68xx (muito boas por sinal, ao meu ver) porque o flagship dela está denegrindo a imagem ao invés de levantá-la.

Exato !

E sobre esses sites, vou dar uma olhada de vez em quando. Na verdade eu estou com uma matéria do Beyond3D sobre o ATI Xenos, placa gráfica da ATI para o Xbox360, aberta no browser. Tem coisas interessantes como "Unified Shader Core", eDRAM e "Unified Memory Architecture (UMA)", inclusive com o controle de memória do xbox sendo localizado no chip gráfico.

Crie uma conta no iGoogle e eoloque os gadgets destes sites, é mais fácil. :D

O Techreport e o GuiadoHardware fazem uns resumões excelentes. ;)

Postado

O pessoal, desculpa se não ficou claro, mas eu tava brincando quando cobrei ali viu? Ninguém viu as smiles não, pôxa? ;)

Se bem que ia ser legal se a gente descobrisse quem foi o primeiro maluco a cantar essa pedra publicamente... planet wide, of course! ;)

Ademais, parece que:

1 - Se a GF já estivesse a todo o vapor, a TSMC estaria em maus lençóis

2 - O preço tá muito alto!

3 - É bom o próximo processo deles vir TININDO!

4 - O preço tá muito alto!

5 - A top-top, pra todos os efeitos, continua sendo da AMD: HD5970!

6 - O preço tá muito alto!

7 - Seria muito melhor se a dual, vulgo Antilles, já tivesse saído!

8 - O preço tá muito alto!

9 - Como tem mudança relativamente forte na arquitetura, podemos até sonhar que os drivers vão evoluir e ajudar com o tempo. Mas sob hipótese alguma um "boom" duma versão pra seguinte, isso é estilo nvidia. Talvez um crescimento contínuo mais acelerado que a média anterior? ;)

10 - O preço tá muito alto!

11 - Alguém tem uma comparação dos consumos absolutos desde as HD4xy0, pra gente ver como tem evoluído?

12 - O preço tá muito alto!

13 - O título de vidente do ano no fórum continua meu! :D

n > 14 - O preço tá muito alto!

  • Membro VIP
Postado

Sério, não consigo ver como a AMD vai fazer a Antilles, ainda mais se for com o Cayman XT. Porque não sei se só com redução de clocks daria para deixar o consumo aceitável. Poxa, duas HD 6970 no furmark consomem quase 600W (só as VGAs, não o sistema)...

Pessoal, pensem bem, se a AMD lançasse uma placa com 1920 SPs (consequentemente 30 SIMD Cluster) mais ROPs (consequentemente uma maior interface e quantidade de memória), vocês acham que a HD 6970 iria consumir quanto? Mais de 400W? E o rendimento? Como ficaria?

Simplesmente, esse Cayman que todo mundo queria, provavelmente só poderá vir quando a TSMC disponibilizar o processo em 32nm.

  • Membro VIP
Postado

Eles podem usar dois Barts ou então dois Caymans com clocks baixos.

Sobre o possível chip com 1920 SPs, 400 W é exagero da sua parte, 300 como a 5970 e GTX480 são aceitáveis.

Postado
Não é bem por aí, as HD5000 e até a HD4770 sofreram MUITO com a baixa disponibilidade de chips, também culpa da TSMC.

Falo a nível de arquitetura, de placa. Pelo menos as placas não soltavam fogo. A AMD sofreu no abastecimento, as placas não. ;D

Postado

Isso é algo que eu queria ver... supondo que o Cayman que temos é o full que tá sendo produzido, só com 1500 e poucas unidades, e não um 1920 com unidades desativadas... Comparando com o tamanho do lançado, qual tamanho ele teria que ter?

Ademais, algum problema em usar Cayman "XT" com clock da "PRO"? Ou ainda, "PRO" com clock de "XT"?

E, sinceramente, Espero que pra 32nm venha muito mais do que o Cayman XT "que todo mundo queria com 1920 unidades"... ;)

  • Membro VIP
Postado
Falo a nível de arquitetura, de placa. Pelo menos as placas não soltavam fogo. A AMD sofreu no abastecimento, as placas não. ;D

Ah sim, mas isso só aconteceu porque elas reinaram sozinhas. ;)

Isso é algo que eu queria ver... supondo que o Cayman que temos é o full que tá sendo produzido, só com 1500 e poucas unidades, e não um 1920 com unidades desativadas... Comparando com o tamanho do lançado, qual tamanho ele teria que ter?

Difícil dizer sem uma foto daquelas que mostram o chip.

Ademais, algum problema em usar Cayman "XT" com clock da "PRO"? Ou ainda, "PRO" com clock de "XT"?

Teoricamente não.

E, sinceramente, Espero que pra 32nm venha muito mais do que o Cayman XT "que todo mundo queria com 1920 unidades"... ;)

Em 32 nm eu chuto pelo menos 36 blocos e um rearranjo dos ROPs, bits e etc.

Agora, estive vendo os preços na newegg, e a 6950 com 1 GiB vai ser interessante, pois além de preço legal pelo desempenho que oferece, ela vai espremer a 6870 pra uns 220 dólares. :)

O consumo está estranho nos testes, mas parece que a 6950 bebe como uma 5870, o que não é ruim.

  • Membro VIP
Postado
Eles podem usar dois Barts ou então dois Caymans com clocks baixos.

Dois Barts? E arriscar ter uma HD 6990 pior que a HD 5970? Duvido.

Sobre o possível chip com 1920 SPs, 400 W é exagero da sua parte, 300 como a 5970 e GTX480 são aceitáveis.

Mas a HD 6970 já consome quase 300W no Furmark, se ela tivesse 1920 SPs e 30 SIMD Clusters, teria um bom aumento de consumo.

  • Membro VIP
Postado
furmark não é mais parâmetro, após todo mundo capar consumo na marra quando vê ele instalado em alguma máquina na mesma rede... :D

Sendo assim, não podemos falar que a GTX 480 e HD 5970 consomem ~300W. ;)

  • Membro VIP
Postado
Quanto era o consumo load e tdp delas? ;)

O TDP da GTX 480 era 250W se não me engano. Quanto ao consumo, em jogos, no geral parece que é menos de 230W. O ''monstro começa a rugir'' quando você liga um programa como o Furmark.

Postado
Dois Barts? E arriscar ter uma HD 6990 pior que a HD 5970? Duvido.

Mas o Barts tem um scaling muito melhor que o Cypress, o que em tese compensaria o desempenho (individual) um pouco menor.

Postado

Ainda acho arriscado. Concordo com ele.

Que tal pegar dois HD6930, que jamais serão lançados? nã, demais, pouca unidade. sou mais a minha hipótese anterior, cayman "xt" com clock de "pro", ou cayman "pro" com clock de "xt".

  • Membro VIP
Postado

Ou pegar a fina flor da produção, como já foi especulado em alguma parte do miolo do tópico.

Talvez até esejam esperando uma nova revisão..

Ah, e lembrando que em alguns testes a 6950 concome como a 5870, então fica perto pra fazer uma X2 com o Cayman, mas ainda tem uns Watts pra perder. ^_^

  • Membro VIP
Postado
Ou pegar a fina flor da produção, como já foi especulado em alguma parte do miolo do tópico.

Hehehe, aí até pode ser, mas se eles fizessem isso, acho que seria quase um paper launch, assim como a GTX 580.

Talvez até esejam esperando uma nova revisão..

Ah, e lembrando que em alguns testes a 6950 concome como a 5870, então fica perto pra fazer uma X2 com o Cayman, mas ainda tem uns Watts pra perder. ^_^

Se eles fizerem um excelente trabalho (e diminuir bem os clocks :D), acho que podem sim colocar duas Caymans PRO na Antilles, mas aí teriamos uma HD 6990 pouca coisa mais rápida que a HD 5970. Tá complicado de adivinhar... :D

Postado

Uma pergunta pros manjadores de plantão: seria possível fazer uma dual de Barts com clocks aumentados?

Com o scalling superior, acho que dá pra ganhar um desempenho legal em cima da HD 5970, porque temos que:

HD 5870 > HD 6870

CrossFire de HD 6870 > Crossfire de HD 5870

Levando em conta que a HD 5970 tem clocks de HD 5850, o ganho de uma Dual Barts com overclock seria considerável, não?

  • Membro VIP
Postado
Hehehe, aí até pode ser, mas se eles fizessem isso, acho que seria quase um paper launch, assim como a GTX 580.

Mas dá certo pra imagem..

Se eles fizerem um excelente trabalho (e diminuir bem os clocks :D), acho que podem sim colocar duas Caymans PRO na Antilles, mas aí teriamos uma HD 6990 pouca coisa mais rápida que a HD 5970. Tá complicado de adivinhar... :D

Uns 30%.. não é lá pouca coisa, mas eles podem ter os clocks da 6950 com os SPs da 6970. ;)

Uma pergunta pros manjadores de plantão: seria possível fazer uma dual de Barts com clocks aumentados?

Sim, mas perde-se um pouco das inovações do Cayman, que pro mercado super topo de linha, contam bastante.

  • Membro VIP
Postado
Uma pergunta pros manjadores de plantão: seria possível fazer uma dual de Barts com clocks aumentados?

Com o scalling superior, acho que dá pra ganhar um desempenho legal em cima da HD 5970, porque temos que:

HD 5870 > HD 6870

CrossFire de HD 6870 > Crossfire de HD 5870

Levando em conta que a HD 5970 tem clocks de HD 5850, o ganho de uma Dual Barts com overclock seria considerável, não?

Hã? Dual GPU de referência com overclock? Isso non existe! :D

A HD 6870 consome quase a mesma coisa que a HD 5870, ou seja, eles teriam que diminuir os clocks da HD 6870. Assim sendo, acho que teria praticamente a mesma performance que a HD 5970.

  • Membro VIP
Postado
Sério, não consigo ver como a AMD vai fazer a Antilles, ainda mais se for com o Cayman XT. Porque não sei se só com redução de clocks daria para deixar o consumo aceitável. Poxa, duas HD 6970 no furmark consomem quase 600W (só as VGAs, não o sistema)...

Furmark não vai ser problema, vide Powertune.

E engraçado, no teste do Anand o 600W é o consumo do sistema todo com CF de HD6970, acho que você se confundiu:

http://www.anandtech.com/show/4061/amds-radeon-hd-6970-radeon-hd-6950/24

E se olhar o consumo no Furmark do CF de HD6950 vai ver que é apenas 19W maior do que uma SINGLE GTX580.

E aí, o Antilles sai ou não sai? :D

Uma pergunta pros manjadores de plantão: seria possível fazer uma dual de Barts com clocks aumentados?

Com o scalling superior, acho que dá pra ganhar um desempenho legal em cima da HD 5970, porque temos que:

HD 5870 > HD 6870

CrossFire de HD 6870 > Crossfire de HD 5870

Concordo mas não acho que lancem não, seria estranho dar um passo para atrás com a arquitetura. A menos que estejamos falando de uma HD6890. :D
  • Membro VIP
Postado
Mas dá certo pra imagem..

Isso é verdade. Aliás, parece que a disponibilidade da GTX 580 melhorou, pois já tem duas opções na Newegg que não tem ''limited offer'' no anúncio.

Uns 30%.. não é lá pouca coisa, mas eles podem ter os clocks da 6950 com os SPs da 6970. ;)

30% de desempenho a mais para uma ''dual HD 6950'' com clocks reduzidos em relação à HD 5970? Eu chuto menos de 10%...:

perfrel.gif

perfrel_1920.gif

Furmark não vai ser problema, vide Powertune.

E engraçado, no teste do Anand o 600W é o consumo do sistema todo com CF de HD6970, acho que você se confundiu:

http://www.anandtech.com/show/4061/a...eon-hd-6950/24

E se olhar o consumo no Furmark do CF de HD6950 vai ver que é apenas 19W maior do que uma SINGLE GTX580.

E aí, o Antilles sai ou não sai?

Me baseei no teste do TPU, onde eles medem somente o consumo da VGA:

power_maximum.gif

Além disso, nos testes preliminares do Xbit, dê uma olhada no consumo do sistema com uma HD 6970:

27_diagr_pw_xbt.png

Acho mais provável o Antilles vir com o Cayman Pro. Mas com a redução de clocks, acho que o desempenho não seria muita coisa maior se comparado à HD 5970.

Postado

Vix, eu até entendo sua preocupação. Para mim o Antilles vai acabar sendo um repeteco da relação entre 6970/5870. Ou seja, da mesma forma que a 6970 fica levemente acima do 5870 em DirectX inferior ao 11, a 6990 vai ficar levemente acima da 5970 em directX inferior ao 11. Isso porque não tem como fugir da arquitetura que mantém a proporção dos shaders.

Contudo, no DX11, a elevação da performance deve ser consideravel, assim como a elevação da 6970 para a 5870.

Na verdade, como vão ter mais um tempinho eles podem até ter dado uns tweaks nas placas, então podem espremer mais uma coisinha de performance no DX10.

Sem contar que um ganho considerável de "poder bruto" em shaders pode vir da melhor escalabilidade do crossfire da nova série.

A posição da AMD está razoável, a 5970 continua reinando e a 6990 pode colocar algo mais em cima, enquanto a nVIDIA deixa vazar uma coisa outra sobre a suposta gtx595.

Mas... pense comigo. Se você duvida da possibilidade da AMD conseguir fazer a dual-gpu sem capar um pouco no clock por causa da TDP, como fica a posição da nVIDIA? Já que a gtx570 consome mais que a 6950/6970. Sem contar que a nVIDIA não tem um mecanismo de controle de consumo como a AMD, o que só piora a situação dela.

Ou seja, a posição da AMD continua bem melhor que a nVIDIA quando pensamos em top placa-gráfica.

Repito que sim, nos números a Antilles pode deixar a desejar no poder bruto de shaders, pré-DX11, mas a gente ainda precisa ver como fica realmente a performance do crossfire dessa geração: boa parte da melhora em performance dessa nova dual-gpu deve vir disso.

Enfim, é o que eu acho. Fica o abraço.

  • Membro VIP
Postado
Vix, eu até entendo sua preocupação. Para mim o Antilles vai acabar sendo um repeteco da relação entre 6970/5870. Ou seja, da mesma forma que a 6970 fica levemente acima do 5870 em DirectX inferior ao 11, a 6990 vai ficar levemente acima da 5970 em directX inferior ao 11. Isso porque não tem como fugir da arquitetura que mantém a proporção dos shaders.

Só há um porém, a HD 6970 consome bem mais que a HD 5870... Então eles teriam que baixar os clocks numa proporção maior do que a da HD 5970.

Contudo, no DX11, a elevação da performance deve ser consideravel, assim como a elevação da 6970 para a 5870.

Sim, é verdade, mas são poucos cenários onde isso ocorre.

Na verdade, como vão ter mais um tempinho eles podem até ter dado uns tweaks nas placas, então podem espremer mais uma coisinha de performance no DX10.

Se conseguirem, eles merecem aplausos... Mas acho difícil. O Antilles sai em Janeiro?

Sem contar que um ganho considerável de "poder bruto" em shaders pode vir da melhor escalabilidade do crossfire da nova série.

Hmm, pelo que pude ver, quem escala muito bem é o Barts, o Cayman parece escalar menos, mas mais do que o Cypress.

A posição da AMD está razoável, a 5970 continua reinando e a 6990 pode colocar algo mais em cima, enquanto a nVIDIA deixa vazar uma coisa outra sobre a suposta gtx595.

Mas lembre-se que a nVídia surpreendeu todo mundo com o lançamento da GTX 580 e GTX 570, então acho bom a AMD não relaxar.

Mas... pense comigo. Se você duvida da possibilidade da AMD conseguir fazer a dual-gpu sem capar um pouco no clock por causa da TDP, como fica a posição da nVIDIA? Já que a gtx570 consome mais que a 6950/6970. Sem contar que a nVIDIA não tem um mecanismo de controle de consumo como a AMD, o que só piora a situação dela.

Na verdade a GTX 570 e a HD 6970 consomem praticamente a mesma coisa... Tem teste que a HD 6970 consome mais, tem teste que consome menos e tem teste que as duas consomem praticamente a mesma coisa.

Sem contar que a nVIDIA não tem um mecanismo de controle de consumo como a AMD, o que só piora a situação dela.

Na verdade tem sim:

power_maximum.gif

Ou seja, a posição da AMD continua bem melhor que a nVIDIA quando pensamos em top placa-gráfica.

Isso acho que só o tempo dirá... E tomara que a nVídia apresente uma dual GPU, pois sem concorrência a Antilles irá vir com um preço ''daqueles''.

Repito que sim, nos números a Antilles pode deixar a desejar no poder bruto de shaders, pré-DX11, mas a gente ainda precisa ver como fica realmente a performance do crossfire dessa geração: boa parte da melhora em performance dessa nova dual-gpu deve vir disso.

Só lembrando, o Cayman não escala como o Barts.

Enfim, é o que eu acho. Fica o abraço.

Hehe, outro. ^_^

Arquivado

Este tópico foi arquivado e está fechado para novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...