Ir ao conteúdo

AMD R900 - Northern Islands: Radeon HD6**0


Evandro

Posts recomendados

Postado
Verdade, confesso que não tinha pensado nisso. Achava que a alimentação dos SIMD's fosse uma só e no máximo colassem ou fritassem os transistores lá.

Na verdade você está correto. A alimentação elétrica exige correntes muito altas, que não podem ser conduzidas por um fusível ou antifusível... Eles são usados para desativar a unidade de forma lógica: normalmente desativam o "clock" da unidade... ou seja, a unidade está lá, recebe energia, mas não faz nada.

Dito assim, não parece, mas isso diminui muito o consumo em geral. A maior parte do consumo de um chip é dinâmica, e ocorre na transição de sinais. Como o componente não está fazendo absolutamente nada, não ocorrem muitas transições, e o consumo dinâmico cai a zero. O consumo em idle, por outro lado, não diminui tanto... mas com um bom projeto é possível obter resultados bons até em idle. Os Shangais são um exemplo disso: cortar um núcleo deles diminui o consumo de forma bem mais convincente que no caso dos Barcelonas, apenas pelo projeto e processo melhores...

Para cortar a alimentação completamente, é preciso usar transistores de potência na alimentação, o que é várias vezes mais complexo... a GF dispõe dessa tecnologia, e a AMD a usará nos Lanos e Bulldozers, mas, ao que eu saiba, ainda não usa em GPUs (a TSMC deve saber fazer isso, talvez de forma ruim, mas deve saber). A Intel usa essa tecnologia desde os Nehalems, é o "Power Gating" de que tanto falam...

Assim, temos três possibilidades:

1- Limitações de BIOS, que podem ser facilmente contornadas e diminuem pouco o consumo, particularmente em idle. A vantagem é que são muito fáceis e tem logística simples e eficiente.

2- Fusíveis laser ou antifusíveis, que diminuem o consumo razoavelmente, particularmente o dinâmico, e não podem ser contornadas por BIOS, ou mesmo por modificações razoáveis.

3- Uma combinação de fusíveis laser/antifusíveis e transistores de potência na alimentação, que diminuem quase totalmente o consumo em todas as condições e não podem ser contornadas da mesma forma que as limitações apenas com fusíveis/antifusíveis. Isso quase com certeza não é usado em GPUs atuais.

  • Membro VIP
Postado

A nova duvida é: Será que este chip da 6970 tem mesmo os 1920 SPs tão falados? Mesmo que desativados a nivel de hardware (portanto irrecuperáveis); ou seria este chip como especulamos anteriormente, um chip que seria usado pela 6950 originária, que de fato nao possui todos estes SPs e que subiu um degrau por problemas no chip que seria completo.

Acima comentou-se muito que a nova revisão de litografia poderia ser usada nas mid, que afinal de contas são a vaca gorda do negocio, mas quase ninguem lembrou da HD4890, que seguiu os passos que estamos tentando prever. Apesar que esta usou o chip da 4870 com melhorias. Mas sonhar não custa hehe.

Postado

Evandro entendi bem ou a 6950 de 1GB é 10 doletas mais barata que a de 2GB? se for assim, o preço não esta lá muito legal.

Sobre a 6990, alguém comentou que o scaling das Radeon está melhor que das GTX, dizendo que a 6970 em Cross é melhor que a GTX 580 em SLI, procede a informação?

  • Membro VIP
Postado
Evandro entendi bem ou a 6950 de 1GB é 10 doletas mais barata que a de 2GB? se for assim, o preço não esta lá muito legal.

O especulado está nisso, mas provavelmente vai baixar porque neste preço não tem sentido fazerem as placas.. eles teriam que baixar pra uns 210 - 230 pra fazer sentido.

Postado
Sobre a 6990, alguém comentou que o scaling das Radeon está melhor que das GTX, dizendo que a 6970 em Cross é melhor que a GTX 580 em SLI, procede a informação?

Pelos testes parece que tá por aí mesmo. O que vem meio como uma boa surpresa, já que meio mundo reclamava do scaling do crossfire enquanto a AMD continua com a estratégia de ter uma dual-gpu como TOP.

  • Membro VIP
Postado

Sobre a 6990, alguém comentou que o scaling das Radeon está melhor que das GTX, dizendo que a 6970 em Cross é melhor que a GTX 580 em SLI, procede a informação?

Está pouca coisa melhor... E o CF de 6970 é pouquíssima coisa melhor que o SLI de GTX 570.

Postado

V.I.X você se refere SLI da GTX 570 ou da 580? Porque se e somente se o CF da 6970 for melhor que o SLI da GTX 580 é uma grande coisa, afinal o desempenho em single a 6970 perde na grande maioria dos testes. De qualquer forma não terei dinheiro para comprar nenhuma nem outra to nem aí :rolleyes:

  • Membro VIP
Postado
V.I.X você se refere SLI da GTX 570 ou da 580? Porque se e somente se o CF da 6970 for melhor que o SLI da GTX 580 é uma grande coisa, afinal o desempenho em single a 6970 perde na grande maioria dos testes. De qualquer forma não terei dinheiro para comprar nenhuma nem outra to nem aí :rolleyes:

Seguinte, em single, HD 6970 = GTX 570. Agora comparando o CF de HD 6970 e SLI de GTX 570, o CF tem uma pequena vantagem, diria que algo como 5% no geral. A GTX 580 não é concorrente da HD 6970.

Postado
Não é so o dinheiro, é praticamente inutil ter isso tudo. É como comprar uma carreta pra entregar pizza...

Nem para todos, no brasil pra maioria dos usuários sim, mas nos EUA, Europa, Japão entre outros as resoluções são bem maiores, ou vários monitores.

Lembre-se que o custo de peças aqui é totalmente diferente que nos países ricos. Impostos nos matam cara.

abraços :cool:

  • Membro VIP
Postado

Cara, outros paises os caras usam assim como aqui tvs full hd para jogar, caso queiram ter um tamanho maior. 2 monitores fica uma porcaria para jogos. Quem usa aqueles monitores de resolução de 2500 px é cara que trabalha com imagem e video e esses caras querem é placa especializada. Mesmo na europa, EUA e asia quem compra essas placas sao entusiastas e a mais pura verdade é que ter 30 fps a mais onde se tem mais de 100 so sacia o ego. Uma vez que uma 4870 ainda roda tudo praticamente que está sendo lançado em quesito de jogos.

Postado

Lembre que quando você aplica mais e mais efeitos (um AA mais forte) há uma queda na performance.

Jogos como Metro 2033 (acho que é esse o ano) fazem até uma gtx580 suar muito com tudo no máximo. Só dual-gpu pra essas coisas.

Postado
Cara, outros paises os caras usam assim como aqui tvs full hd para jogar, caso queiram ter um tamanho maior. 2 monitores fica uma porcaria para jogos. Quem usa aqueles monitores de resolução de 2500 px é cara que trabalha com imagem e video e esses caras querem é placa especializada. Mesmo na europa, EUA e asia quem compra essas placas sao entusiastas e a mais pura verdade é que ter 30 fps a mais onde se tem mais de 100 so sacia o ego. Uma vez que uma 4870 ainda roda tudo praticamente que está sendo lançado em quesito de jogos.

Nâo exatamente, depende da exigência do usuário, coisas como filtros e estabilidade na performance contam muito mais do que "max fps". Se uma placa que rode a maioria dos jogos em full hd a mais de 100 frames por segundo (na média) apresente quedas de framerate em certas partes do jogo, mesmo que por um curtíssimo periodo de tempo, já pode não ser boa pra determinado usuário. As pessoas vivem falando que é inútil comprar uma placa que rode um jogo a mais de 100 frames, mas acabam se esquecendo que o que importa de verdade pra tu ter uma experiência sem chateação não são a quantidade máxima de frames por segundo que a placa gera, na verdade é o mínimo. Uma boa placa pode nunca passar de 60 frames num jogo de estratégia, por exemplo, desde que nunca caia pra 20 numa cena aonde tenham muitos detalhes e efeitos.

Postado
Nâo exatamente, depende da exigência do usuário, coisas como filtros e estabilidade na performance contam muito mais do que "max fps". Se uma placa que rode a maioria dos jogos em full hd a mais de 100 frames por segundo (na média) apresente quedas de framerate em certas partes do jogo, mesmo que por um curtíssimo periodo de tempo, já pode não ser boa pra determinado usuário. As pessoas vivem falando que é inútil comprar uma placa que rode um jogo a mais de 100 frames, mas acabam se esquecendo que o que importa de verdade pra tu ter uma experiência sem chateação não são a quantidade máxima de frames por segundo que a placa gera, na verdade é o mínimo. Uma boa placa pode nunca passar de 60 frames num jogo de estratégia, por exemplo, desde que nunca caia pra 20 numa cena aonde tenham muitos detalhes e efeitos.

Falou tudo cara, para escolher minhas placas, sempre olho o minimo em primeiro lugar e depois o avg, e infelizmente metro 2033 é pesadissimo e até Crysis em very high 4x AA e 16x AF ainda dá muito trabalho.

  • Membro VIP
Postado

Só lembrando que deve se ter cuidado ao avaliar valores mínimos de framerate pois dependendo do teste realizado ele pode não significar a VGA sendo utilizada ao extremo, e sim algum carregamento de texturas onde os demais componentes entram na equação, como velocidade do HD, RAM e processador.

Não adianta comprar uma VGA muito forte ou um par delas e querer não ter lags se sua máquina possui um restante de configuração mediana ou fraca.

  • Membro VIP
Postado

Ah ta me fala um jogo onde uma HD 5870 cai a 20 fps então. Tem gente que defende uma ideia sem ter a noção da realidade.

"Ai acho que vou trocar minha GTX 580 por uma HD 6990 porque no metro 2033 teve uns 3 segundos que meu fps ficou em 54..." by Entusiasta sem noção.

Na boa cada um faz o que quer com seu dinheiro, mas motivação sentimental não é uma forma valida de avaliar a necessidade do usuario. Se um jogo tem tamanha queda de fps numa placa top de linha, a culpa é obviamente da programação que não usa os recursos oferecidos de forma correta. Uma placa de video sozinha não faz milagre e no atual contexto jogos/custo/beneficio até minha 4870 ainda é pano pra manga com tranquilidade. Querer ou comprar uma placa de mais de 2000 reais ultra top de linha é uma opção de livre arbitrio, mas tentar justificar de forma logica e racional tal escolha é (me perdoe pela minha opiniao) ridiculo. Trata-se unicamente da questão de satisfação de ego.

Postado
Ah ta me fala um jogo onde uma HD 5870 cai a 20 fps então. Tem gente que defende uma ideia sem ter a noção da realidade.

"Ai acho que vou trocar minha GTX 580 por uma HD 6990 porque no metro 2033 teve uns 3 segundos que meu fps ficou em 54..." by Entusiasta sem noção.

Na boa cada um faz o que quer com seu dinheiro, mas motivação sentimental não é uma forma valida de avaliar a necessidade do usuario. Se um jogo tem tamanha queda de fps numa placa top de linha, a culpa é obviamente da programação que não usa os recursos oferecidos de forma correta. Uma placa de video sozinha não faz milagre e no atual contexto jogos/custo/beneficio até minha 4870 ainda é pano pra manga com tranquilidade. Querer ou comprar uma placa de mais de 2000 reais ultra top de linha é uma opção de livre arbitrio, mas tentar justificar de forma logica e racional tal escolha é (me perdoe pela minha opiniao) ridiculo. Trata-se unicamente da questão de satisfação de ego.

Assim como todo mundo eu entendo e respeito a sua opinião, e o que eu disse foi uma situação hipotética. Isso aconteceu comigo de diversas maneiras, tanto é que eu saí de uma 4850 até chegar na minha atual 5870. Jogando a 1080 com filtros no máximo na 4850 eu enfrentava alguns slowdowns em diversos jogos (crysis, mass effect, lost planet, só pra citar alguns) e fui trocando até encontrar uma que me satifez plenamente. Agora, só porque placa "x" é ideal pra mim não quer dizer que seja boa pra todo mundo, simplesmente porque outra pessoa pode utilizar o computador de uma diferente da que eu uso, além disso, tenho certeza de que por mais que a sua experiência de jogo seja satisfatória, tu ainda notaria a diferença caso coloque uma placa de video melhor ai na sua máquina, mesmo que só pra teste. ;)

  • Membro VIP
Postado

Pessoal, experiência de gameplay é um assunto subjetivo e definitivamente influenciado pelo marketing das fabricantes de placas de vídeo, afinal elas sempre vão querer que a última série, por menos incrementos que ela traga da geração anterior, pareça a última coca-cola do deserto e que você não pode viver sem ela.

Isso é necessário, pois já tem um tempinho que os jogos não evoluem mais na velocidade do hardware (quantos jogos puramente DX10 vocês conhecem? E quantos DX11?) então, verdade seja dita, hoje gastamos sim muito dinheiro para pouca coisa em hardware. E é óbvio, quem se sente confortável em gastar ou não liga, vai em frente! Só peço que evitem discussão sobre algo tão pequeno e fora do assunto do tópico, que é a arquitetura R900.

Arquivado

Este tópico foi arquivado e está fechado para novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...