Ir ao conteúdo
  • Cadastre-se

nVidia GT300 / GF100/110: Geforce GTX4** e GTX5**


Evandro

Posts recomendados

  • Membro VIP

Parece que a GTX 570 é uma GTX 480 com 5 dos 6 barramentos ativos (cada barramento tem 256MB de memória GDDR5, 8 ROPs e 64 bits) e clocks maiores, tirando as pequenas melhorias de arquitetura. Ou seja, enquanto a GTX 480 tem 1.536MB de memória, interface de 384 bits e 48 ROPs, a GTX 570 teria 1.280MB de memória, interface de 320 bits e 40 ROPs. O número de SMs ativos é o mesmo da GTX 480, 15 ativos e 1 inativo (cada SM tem 32 Cuda Cores), o que dá 480 Cuda Cores para as duas... Eu diria que é um caso parecido com o da GTX 460 1GB/GTX 460 768MB.

@Jonny, acho que esses 2200W é o que puxa da ''tomada'', pois uma GTX 480 consome ~300W em Full Load, já o 980X com esse clock e vcore deve consumir uns ~150W, e acho muito difícil a placa mãe consumir mais de 100W. Ou seja, acho que essa configuração sobracarregou a fonte, o que fez a eficiência cair e o consumo aumentar.

Link para o comentário
Compartilhar em outros sites

Não pode! Acho que os caras desabilitaram aquele limite de segurança. Segundo o Xbit Labs, uma GTX580 consumiria 264W (consumo GTX580).

Se formos pegar o TDP do processador e juntar com 4 vezes o valor dado pelo Xbit Labs teremos 1181W. Isso sem contar outros componentes que juntos, não devem bater mais de 450W , logo, o consumo não chegaria nem a pau a 2200W. Ainda acho muito estranho isso. E outra, por que mostraram uma fonte de 1200W se o sistema estaria consumindo 2200W? Cadê a outra fonte?

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Não pode! Acho que os caras desabilitaram aquele limite de segurança. Segundo o Xbit Labs, uma GTX580 consumiria 264W (consumo GTX580).

Se formos pegar o TDP do processador e juntar com 4 vezes o valor dado pelo Xbit Labs teremos 1181W. Isso sem contar outros componentes que juntos, não devem bater mais de 450W , logo, o consumo não chegaria nem a pau a 2200W. Ainda acho muito estranho isso. E outra, por que mostraram uma fonte de 1200W se o sistema estaria consumindo 2200W? Cadê a outra fonte?

Realmente, fiz as contas aqui, e a config teria que puxar mais de 1500W e a fonte ter uma eficiência abaixo de 70% nessas condições. Bem estranho mesmo... Ah, e no meu post acima eu quis dizer GTX 580, não 480.

Link para o comentário
Compartilhar em outros sites

Não pode! Acho que os caras desabilitaram aquele limite de segurança. Segundo o Xbit Labs, uma GTX580 consumiria 264W (consumo GTX580).

Se formos pegar o TDP do processador e juntar com 4 vezes o valor dado pelo Xbit Labs teremos 1181W. Isso sem contar outros componentes que juntos, não devem bater mais de 450W , logo, o consumo não chegaria nem a pau a 2200W. Ainda acho muito estranho isso. E outra, por que mostraram uma fonte de 1200W se o sistema estaria consumindo 2200W? Cadê a outra fonte?

Ficara inculcado mesmo com a coisa, não é?

vou te falar uma coisa, leia este artigo da Xbitlabs, aqui eles falam que o consumo da HD 5780 não passa de 110W em condições normais de uso, porém em stress ela ultrapassa 160W.

Agora ver este outro também da Xbitlabs, ver o que eles dizem sobre stressar a VGA para determinarem o quanto ela consome.

Diz para mim, de onde eles tiraram estes 170W de consumo da HD 5870 em condições normais como está operando a GTX 580?

TDP parece, mas não é o Power Consuption.

Link para o comentário
Compartilhar em outros sites

Saiu o TOP500:

http://www.top500.org/list/2010/11/100

Detalhe, sistema com GPUs Tesla no topo, no 3º e no 4º lugar.

Tianhe - 1A: Interconexão do NUDT (provavelmente um Infiniband guaribado?), uns 7000 nodos DP com Westmeres e uma GPU M2050 (uma GTX480 mais estável e fria), além de processadores do NUDT, que eu sei lá o que são, mas devem ser um acelerador no estilo Cell.

Nebulae: Bem menos "estranho" que o Tianhe. 4640 blades com 2 Westmeres e uma GPU C2050 (mesma coisa que a M2050, mais ou menos).

Tsubame: Esse é japonês... como todo bom japonês optaram pela compressão, usaram um servidor da HP que consegue enfiar 3 M2050 e 2 Westmeres por nodo 2U de meia largura... no fim das contas com 1400 desses conseguiram quase o mesmo resultado que o Nebulae... NO LINPACK, sei lá como isso se sai na realidade. Não sei se o fato do Tsubame ter provavelmente o dobro de largura de banda de Infinband resolve... e nem se o fato de ter menos CPUs por GPU atrapalha.

OBS: o Tsubame fica no Tokyo Institute of Technology, ou TIT... a universidade que com certeza tem a menor quantidade de Tokyo Institute of Technologies da região... e considerando que essa região trata-se do Japão, acho que pode clamar o mundo também :).

Link para o comentário
Compartilhar em outros sites

Ficara inculcado mesmo com a coisa, não é?

vou te falar uma coisa, leia este artigo da Xbitlabs, aqui eles falam que o consumo da HD 5780 não passa de 110W em condições normais de uso, porém em stress ela ultrapassa 160W.

Agora ver este outro também da Xbitlabs, ver o que eles dizem sobre stressar a VGA para determinarem o quanto ela consome.

Diz para mim, de onde eles tiraram estes 170W de consumo da HD 5870 em condições normais como está operando a GTX 580?

TDP parece, mas não é o Power Consuption.

A HD5870 puxa sim 170W full load jogando, não em stress tests.

A HD5770 é que puxa 110W...

a GTX580 tá por volta dos 240W.

Link para o comentário
Compartilhar em outros sites

Para mim a referencia agora é Fail:confused:

A HD5770 2º eles, Consome 61,2W pra uso normal, 81W para fulMark, 110W é a TDP.

Na verdade, TDP nesse caso continua o que sempre foi: inatingível pras aplicações práticas.

O problema é quanto, por exemplo, "Consome 61,2W pra uso normal, 81W para fulMark, 60W é a TDP"!!! :rolleyes: Essa modinha nova é que é ****! Tu dimensiona rede elétrica, ou refrigeração, por um consumo/dissipação errado porque o fabricante menciona um valor mentiroso, e depois se ferra! :P

E, de qq forma: 2400W é completamente fora da casinha, não faz o mínimo sentido! ;)

Link para o comentário
Compartilhar em outros sites

Nos testes do TPU, a HD 5770 consumiu 112W no ''máximo'' (Furmark), já a GTX 580 sem o limitador consumiu 304W...:

http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580/images/power_maximum.gif

A diferença entre laboratórios é gritante, quase 40%

Outro link que fui dar uma olhadinha e.... confirma diferenças de mais de 40W de um laboratório para outro.

Bom pelo menos já dar pra não achar que os caras lá do vídeo não é de tudo fake.

304W + Over já cairia por terra os 1200W

Link para o comentário
Compartilhar em outros sites

Cara... QUAD-SLI DE GTX580...OC PRA QUE, VALHA-ME GIBBS!@!! :D

Agora, deixando de lado a sacanagem... ;) O limitador tá lá POR UMA RAZÃO, e é pro FUTURMARK NÃO DERRETER A PLACA! Montar um quad-SLI de GTX580 e overclockar pra fazer futurmark, me empresta que eu espanco com prazer! :D

Sem brincadeiras agora, temos que cuidar que agora nós temos um novo tipo de teste de consumo em jogo: além de idle, average, load e sick (futurmark), agora nós temos "sick with medication" (futurmark com o limitador) e "sick without medication" (futurmark sem o limitador). Pra mim, eu conto mesmo é o load e o "sick with medication", e mesmo este último na verdade é pra fazer média com o load e assim criar alguma margem de segurança. ;)

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
A diferença entre laboratórios é gritante, quase 40%

Outro link que fui dar uma olhadinha e.... confirma diferenças de mais de 40W de um laboratório para outro.

Bom pelo menos já dar pra não achar que os caras lá do vídeo não é de tudo fake.

304W + Over já cairia por terra os 1200W

Bom, o over que eles fizeram, tanto nas VGAs quanto no processador, é bem pequeno...

Quanto ao teste do Xbit, na tabela diz claramente como o consumo máximo foi obtido: 3D Game. Ou seja, nada de Furmark.

Link para o comentário
Compartilhar em outros sites

Uma pessoa comprando Raid pra querer matar a Barata...:D.

Dar uma olhada neste tópico:

http://forum.clubedohardware.com.br/intel-sandy-bridge/769677?t=769677&page=24

já bons comentários sobre o assunto...

Link para o comentário
Compartilhar em outros sites

Arquivado

Este tópico foi arquivado e está fechado para novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!