Ir ao conteúdo
  • Cadastre-se

GeForce 4 MX e 6600GT


Posts recomendados

"Cada sistema, é um sistema"..

Bom, seja usando o riva, o powerstrip, ou ou collbits, qualquer alteração de clock que eu faça, nem que seja de 1mhz eu tenho que testar antes, senao, nem aplica.. e no teste, ele pisca umas 2 ou 3 vezes, e depois mais uma ao aplicar.. no caso de deixar pelo registro, picaria igual, porém, somente uma vez.. eu não quero que toda hora que inicie haja esta mudanca brusca de clock, e sim, que já fique por "default"...

bom, e respondendo, a sua pergunta.. "do que adianta setar a gpu para 500 se a memoria não vai ter tráfego suficiente pra mandar o gpu trabalhando???".. você tá BEM equivocado.. de 300mhz para 500mhz são praticamente 70% de oc... uma coisa é subir 200mhz, outra coisa é subir 50.. já tive uma 6600gt, e não senti necessidade de alterar clock da gpu, mudei somente a memoria para 1000, pois era de 2ns..

mas, voltando ao infundamento de sua pergunta.. quem limita a memoria é a gpu, e não a memoria que limita a gpu.. isto é uma questao logica, pois, mesmo havendo excesso de processamento a banda da memoria seria usada por completo.. o que poderia entrar em "colapso" ao usar clocks excessivamente altos na gpu.. na casa de uns 600, por exemplo, como constatado perde de desempenho por vários users.. inclusive em vgas mais antigas.. existe sim uma relação entre memoria e gpu, mas não esta que citou, que no caso foi "trafego para manter a gpu trabalhando"..

com relação aos testes, vamos lá..

6600gt 500/1000 + axp 2.2ghz (200x11) eu fazia 49k no aquamark e 72xx no 3dmark03..

6600 300/500 + a64 2.5 (277x9) eu faco 40k no aquamark e 5342 no 3dmark03....

6600 500/500 + a64 2.5 (277x9) eu fiz 55k no aquamark e 7120 no 3dmark03...

acho que os numeros falam mais do que qualuer coisa..

precisa de exemplo melhor do que este? sendo que isto não é um overclock em sí.. se as gpus sao iguais, e ela pode trabalhar em 500, porque deixar em 300? o unico problema seria o vgpu, mas até agora usando over por software não se mostrou instavel, nem nada parecido.. ainda mais agora, usando o vf700..

as temps sao 49 idle e 54 full com ele, contra 58 idle e 79 full no cooler original...

Aí é que mora um problema... Todo mundo ao mostrar pontuações de 3Dmark e aquamark, sempre mostra pontuações 'gerais'.... Que no caso, você diz que "falam mais do que qualuer coisa"... Qual a pontuação da VGA em si??? porque essa pontuação do aquamark por exemplo... 40K 6600GT e 55K 6600 essa pontuação não tem a ver com o desempenho da VGA por si só, mas sim um acúmulo de pontuações, VGA + CPU... Sendo injusta pelo fato de você ter comparado um Athlon XP2.2Ghz com um Athlon64 2.5Ghz... Sendo que o Athlon 64 conta com memórias mais rápidas, conjunto de instruções SSE2(no mínimo, se não SSE3 como meu Sempron), entre outras tecnologias novas...

Se você tivesse feito esse teste de pontuações com o MESMO PC, apenas alterando a VGA, com certeza que seu teste seria confiável.

Outra coisa... você provavelmente vai ter gargalo de memória na VGA... porque senão, 6600GT nenhuma teria aumento de desempenho 'apenas' com aumento de clock de memória... você acha mesmo que memória não limita GPU? Deve limitar, porque caso contrário, não haveria motivo para colocar memórias de 1000MHz se com 500MHz basta para o trabalho... Não acha?

Citei o aumento de clocks de GPU X MEMO(mesmo com disparidade) para exemplificar que na verdade a 6600GT não precisa de mais clock no GPU, mas sim mais banda de memória... Claro que clocks de GPU são importantes, mas de qualquer forma, o que faz o GPU de uma 6600GT qualquer, com 500/1000 'dispachar' mais do que uma 6600@500/500 é a memória... Será que não limita?

Além disso, você também citou "eu não quero que toda hora que inicie haja esta mudanca brusca de clock" porque? Qual o problema? Se todas as 6600GT vem com mudança automática de clock de 2D pra 3D, e exatamente na mudança que você citou, de 300MHz(2D) para 500MHz(3D)... Setando FULL-TIME para 500MHz você só vai reduzir a vida da sua VGA (mas com certeza, não me diz respeito), apenas postei no fórum uma opinião, pra ver se ajuda... Até porque nenhum de nós aqui é um técnico da NVIDIA, estamos todos aprendendo juntos...

Se sua arrogância te impede de admoestar os colegas de fórum, só lamento por você... Estou no fórum para ajudar, e não para humilhar os outros...

EDIT: Pessoal do fórum, perdão pela discussão inconveniente no fórum...

Abraço...

Valeu...

Link para o comentário
Compartilhar em outros sites

é meus camaradas..

acho que minha placa de lixo foi po brejo

testei em outro pc... mesma porcaria no começo quando ta iniciando o pc.

entrou no Windows normalmente o_O.

até ai quase tudo bem.

resolvi instlar o drive da nvidia que veio no cd..

depois de instalado, ficou um LIXO.

demorava 10min pra iniciar o desktop, mostrar janelas etc..

a temp estava 68°C

vou taca fogo.

Link para o comentário
Compartilhar em outros sites

Aí é que mora um problema... Todo mundo ao mostrar pontuações de 3Dmark e aquamark, sempre mostra pontuações 'gerais'.... Que no caso, você diz que "falam mais do que qualuer coisa"... Qual a pontuação da VGA em si??? porque essa pontuação do aquamark por exemplo... 40K 6600GT e 55K 6600 essa pontuação não tem a ver com o desempenho da VGA por si só, mas sim um acúmulo de pontuações, VGA + CPU... Sendo injusta pelo fato de você ter comparado um Athlon XP2.2Ghz com um Athlon64 2.5Ghz... Sendo que o Athlon 64 conta com memórias mais rápidas, conjunto de instruções SSE2(no mínimo, se não SSE3 como meu Sempron), entre outras tecnologias novas...

Se você tivesse feito esse teste de pontuações com o MESMO PC, apenas alterando a VGA, com certeza que seu teste seria confiável.

Outra coisa... você provavelmente vai ter gargalo de memória na VGA... porque senão, 6600GT nenhuma teria aumento de desempenho 'apenas' com aumento de clock de memória... você acha mesmo que memória não limita GPU? Deve limitar, porque caso contrário, não haveria motivo para colocar memórias de 1000MHz se com 500MHz basta para o trabalho... Não acha?

Citei o aumento de clocks de GPU X MEMO(mesmo com disparidade) para exemplificar que na verdade a 6600GT não precisa de mais clock no GPU, mas sim mais banda de memória... Claro que clocks de GPU são importantes, mas de qualquer forma, o que faz o GPU de uma 6600GT qualquer, com 500/1000 'dispachar' mais do que uma 6600@500/500 é a memória... Será que não limita?

Além disso, você também citou "eu não quero que toda hora que inicie haja esta mudanca brusca de clock" porque? Qual o problema? Se todas as 6600GT vem com mudança automática de clock de 2D pra 3D, e exatamente na mudança que você citou, de 300MHz(2D) para 500MHz(3D)... Setando FULL-TIME para 500MHz você só vai reduzir a vida da sua VGA (mas com certeza, não me diz respeito), apenas postei no fórum uma opinião, pra ver se ajuda... Até porque nenhum de nós aqui é um técnico da NVIDIA, estamos todos aprendendo juntos...

Se sua arrogância te impede de admoestar os colegas de fórum, só lamento por você... Estou no fórum para ajudar, e não para humilhar os outros...

EDIT: Pessoal do fórum, perdão pela discussão inconveniente no fórum...

Abraço...

Valeu...

Sendo comparada ou não com a GT, dei exemplos de testes feito com a 6600 em stock e com OC.. Não achou a diferença suficientemente grande? Eu, achei..

É lógico que o 1GHz da memória da GT fazem muita diferença, nem se compara 16Gb da GT com os 8 Gb da 6600.. Mas que colocar a GPU para 500 não vai limitar a memória, certamente não vai.. No máximo vai aproveitar a banda com menos perda ainda..

E com relação à mudança de clock, é pelo simples fato de ser uma mudança alta, como já citado.. E no caso da GT, ela tem dois ambientes de trabalho.. 2D é um clock, 3D é outro.. A mudança é feita automaticamente, sem dano, pois é nativo dela.. Agora baixe uma bios de uma 6600, vais notar que não tem esta diferença de ambiente 2D e 3D..

E por final, só respondi a altura da sua resposta.. Veja bem o modo com o qual falou.. Minha intenção é tão comum quanto à sua, dividir conhecimento..

Link para o comentário
Compartilhar em outros sites

Sendo comparada ou não com a GT, dei exemplos de testes feito com a 6600 em stock e com OC.. Não achou a diferença suficientemente grande? Eu, achei..

É lógico que o 1GHz da memória da GT fazem muita diferença, nem se compara 16Gb da GT com os 8 Gb da 6600.. Mas que colocar a GPU para 500 não vai limitar a memória, certamente não vai.. No máximo vai aproveitar a banda com menos perda ainda..

E com relação à mudança de clock, é pelo simples fato de ser uma mudança alta, como já citado.. E no caso da GT, ela tem dois ambientes de trabalho.. 2D é um clock, 3D é outro.. A mudança é feita automaticamente, sem dano, pois é nativo dela.. Agora baixe uma bios de uma 6600, vais notar que não tem esta diferença de ambiente 2D e 3D..

E por final, só respondi a altura da sua resposta.. Veja bem o modo com o qual falou.. Minha intenção é tão comum quanto à sua, dividir conhecimento..

Com certeza a diferênça é grande... Mas explico, a memória vai limitar o GPU, porque ela não vai poder fornecer toda a banda que o 'gargalo' do núcleo vai precisar... Correto?

E com relação a mudança de clock, não é o mesmo núcleo??? Então pergunto, porque ele não pode ser ajustado com o mesmo modelo de trabalho??? 300MHz (2D) e 500MHz(3D)... OBS: Não tem como você trocar a bios por uma de 6600GT, apenas baixando o clock das memos???

E então, que dividamos conhecimento sem 'interprar' mal as pessoas... Se não fui correto na colocação anterior, me desculpe...

Abraço...

Valeu...

Link para o comentário
Compartilhar em outros sites

Com certeza a diferênça é grande... Mas explico, a memória vai limitar o GPU, porque ela não vai poder fornecer toda a banda que o 'gargalo' do núcleo vai precisar... Correto?

E com relação a mudança de clock, não é o mesmo núcleo??? Então pergunto, porque ele não pode ser ajustado com o mesmo modelo de trabalho??? 300MHz (2D) e 500MHz(3D)... OBS: Não tem como você trocar a bios por uma de 6600GT, apenas baixando o clock das memos???

E então, que dividamos conhecimento sem 'interprar' mal as pessoas... Se não fui correto na colocação anterior, me desculpe...

Abraço...

Valeu...

Cara, eu não acho que a memória vai limitar o GPU.. Eu penso que a memória poderia ficar limitada no caso de usar um clock muito baixo no GPU, mas, usando de 300 para cima, ou, subindo mais o clock (até 500) ela vai ter menos perdas ainda..

É que eu tô falando de uma coisa, e você de outra.. Eu to falando que ela vai ter toda a banda utilizada.. E você tá falando que se a memória pudesse ter um clock mais alto, poderia ter um melhor desempenho.. E, assim, nesta config, o GPU fica lá em cima, e a memo não.. Ou ainda não é isto que queres dizer?

Quanto aos clocks 2d e 3d, sao iguais no meu caso.. E não tá dando pra mudar.. No rivatuner na gt, ele mostrava dois clocks.. 2d e 3d.. já na 6600 só mostra 1 mesmo.. por isto falei que não quero ficar fazendo uma mudanca brusca sempre que iniciar o windows..

Bom, quanto colocar uma bios da gt nela, eu não coloco.. Tudo bem que a gpu pode ser igual, mas na bios estão as configuracoes do timings de memoria.. que são diferentes.. as minhas sao 3.6ns.. as gt são na maioria 2.0ns, ou menor..

E até agora não encontrei uma bios da minha.. =/

Pìor que a galera não tá dando muita bola para o topico..

Link para o comentário
Compartilhar em outros sites

Cara, eu não acho que a memória vai limitar o GPU.. Eu penso que a memória poderia ficar limitada no caso de usar um clock muito baixo no GPU, mas, usando de 300 para cima, ou, subindo mais o clock (até 500) ela vai ter menos perdas ainda..

É que eu tô falando de uma coisa, e você de outra.. Eu to falando que ela vai ter toda a banda utilizada.. E você tá falando que se a memória pudesse ter um clock mais alto, poderia ter um melhor desempenho.. E, assim, nesta config, o GPU fica lá em cima, e a memo não.. Ou ainda não é isto que queres dizer?

Quanto aos clocks 2d e 3d, sao iguais no meu caso.. E não tá dando pra mudar.. No rivatuner na gt, ele mostrava dois clocks.. 2d e 3d.. já na 6600 só mostra 1 mesmo.. por isto falei que não quero ficar fazendo uma mudanca brusca sempre que iniciar o windows..

Bom, quanto colocar uma bios da gt nela, eu não coloco.. Tudo bem que a gpu pode ser igual, mas na bios estão as configuracoes do timings de memoria.. que são diferentes.. as minhas sao 3.6ns.. as gt são na maioria 2.0ns, ou menor..

E até agora não encontrei uma bios da minha.. =/

Pìor que a galera não tá dando muita bola para o topico..

Isso mesmo... Só que, como você sabe que a banda já não é toda BEM ocupada no caso de uma 6600GT... E que ela vai 'somente' ser 'melhor' aproveitada? porque, à exemplo do que temos visto em aumento de clock's das VGA's, me faz perguntar, será que ela já não trabalha no talo???

Outra, o GPU não aguenta essa mudança de clocks?

Outra2, onde eu consigo uma bios de 6600GT???

Valeu...

Abraço...

Link para o comentário
Compartilhar em outros sites

Isso mesmo... Só que, como você sabe que a banda já não é toda BEM ocupada no caso de uma 6600GT... E que ela vai 'somente' ser 'melhor' aproveitada? porque, à exemplo do que temos visto em aumento de clock's das VGA's, me faz perguntar, será que ela já não trabalha no talo???

Outra, o GPU não aguenta essa mudança de clocks?

Outra2, onde eu consigo uma bios de 6600GT???

Valeu...

Abraço...

Pelo menos eu não conheço algúm programa para teste de banda de memória de vga.. Então fica somente pelo calculo mesmo.. Uma simples regra de três dá pra chegar no valor..

Quano à trabalhar ou não no talo, eu nem faço ideia.. Mas tipo.. Oveclock de vga eu não sou muito adepto.. Já tive uma GT, e só mudei os clocks da memoria, dentro da margem do fabricante.. A gpu nem mudei.. 50Mhz a mais na gpu não fizeram muita diferenca.. Mas no caso desta 6600 que eu tenho aqui, faz sim, e muita..

Quanto à bios, procura no google.. Tem muitos sites com bios..

Link para o comentário
Compartilhar em outros sites

Pessoal,

Tenho uma geforce 6600 GT PCI Express da PixelView com 128MB de memória.

Já faz um ano que tenho essa placa e sempre usei pra jogar sem problemas. Um dia, instalei Far Cry e do nada, durante o jogo ela começou a mostrar a imagem toda cheia de quadrados pretos grandes. Depois disso, isso começou a acontecer com todos os jogos (BF2, BF1942, etc). O driver não foi porque eu não mudei o driver e antes funcionava. Desinstalei o jogo (Far Cry), mas os outros continuaram com o mesmo problema.

Formatei a máquina e continuou o mesmo problema. Atualizei o driver e também continuou.

A placa de vídeo tem feito um barulhinho no cooler quando liga (como se o cooler tivesse agarrando). Se eu encosto no cooler de leve, o barulho pára.

Pra que vocês possam ter uma ideia de como fica a imagem no jogo, tirei esse screenshot do painel de controle da nVidia da parte de configurações 3D onde ele mostra o overlay de acordo com as configurações da placa (antialias e etc)

A configuração da minha máquina é a seguinte:

P4 LGA 3GHz

placa-mãe Intel D925XECV2

1 GB de memória (533Mhz)

HD 80 Gb Sata

geforce 6600 GT PCI Express da PixelView com 128MB

Gravador de DVD LG

HD IDE de gaveta

Fonte Seventeam 350W real

A máquina é bem refrigerada com dutos e cooler de processador e de gabinete thermaltake (os cooler de gabinete tem até controle de velocidade).

Alguém tem uma dica

Desde já agradeço,

Leandro

post-85342-13884921754314_thumb.jpg

Link para o comentário
Compartilhar em outros sites

Pelo o que você disse pode preparar o inteirro pr ela ou dar uma limpesa no cooler que pode ser que ele ta garrando e ta dando super aquecimento .

AWE , uma noticia não sei se já tem no topico mas nos novos drivers 91.45 que pode ser achando no guru3d , esta abilitando o AA de transparencia que so era permitido na serie 7 , na serie 6 .

falou

Link para o comentário
Compartilhar em outros sites

Não sei se é superaquecimento. A temperatura dela fica na casa dos 50 quando tá parada e na casa dos 90 quando eu coloco o rthdribl pra rodar. E o cooler só faz esse barulho no inicio e depois para.. e ele parece estar numa boa rotação.

Valeu

Sim.. E 90 você por acaso acha uma boa temp?! Está pessima, altissima.. Dá um jeito ai pra melhorar isto.. A minha não passa dos 54 Full @ Zalman VF700CobreLed..

Provavelmente seu problema é temperatura, e este de colocar dedo em cooler, ESQUECA.. Um dia ele para, e você nem percebe..

Muda logo isto ai, adapta um.. No dissipador da Prolink é bem fácil adaptar um..

Link para o comentário
Compartilhar em outros sites

Bem galera, eu estava com problema no cooler da minha placa de vídeo, por isso resolvi comprar um novo. Acabei comprando um Zalman VF900 todo de cobre e a pasta térmica da Arctic Silver de 3,5g. Instalei os dois sem problemas. Mas quando fui verificar a temperatura da placa de vídeo, achei um pouco alta (na faixa de 52°C).

O engraçado é que eu coloquei um sensor de temperatura, que veio no gabinete, muito próximo da GPU e no lcd frontal do gabinete está acusando 32°C (20°C a menos). Gostaria de saber em qual das duas temperaturas devo confiar. E se a 1a temperatura for a verdadeira se ela se encontra numa faixa suportável, levando em consideração que em jogos pesados, como F.E.A.R. e Half-Life 2 há um aumento de no máx 4°C. Tirem minha dúvida, porque caso a temperatua esteja alta, gostaria de saber se será necessário eu fazer uma nova aplicação da pasta térmica.

Link para o comentário
Compartilhar em outros sites

Olá gostaria de saber uma coisa, GeFoce 6600GT XFX AGP ou GeForce 6800 XTreme XFX AGP 256 MB, qual a melhor?

xtreme com certeza, um amigo tem uma 6600GT na EVGA e ele com 1024x768 AA2x AF16x com tudo no max e eu com AA4x, eu ainda consigo 7fps a mais.

em 1280x1024 AA4x AF16x aqui da 22~27fps(perfeitamente jogável) com ele não passa de 20....

isso que minha XTreme é 128bits.

Link para o comentário
Compartilhar em outros sites

Olá gostaria de saber uma coisa, GeFoce 6600GT XFX AGP ou GeForce 6800 XTreme XFX AGP 256 MB, qual a melhor?

6800 XTreme ;)

Bem galera, eu estava com problema no cooler da minha placa de vídeo, por isso resolvi comprar um novo. Acabei comprando um Zalman VF900 todo de cobre e a pasta térmica da Arctic Silver de 3,5g. Instalei os dois sem problemas. Mas quando fui verificar a temperatura da placa de vídeo, achei um pouco alta (na faixa de 52°C).

O engraçado é que eu coloquei um sensor de temperatura, que veio no gabinete, muito próximo da GPU e no lcd frontal do gabinete está acusando 32°C (20°C a menos). Gostaria de saber em qual das duas temperaturas devo confiar. E se a 1a temperatura for a verdadeira se ela se encontra numa faixa suportável, levando em consideração que em jogos pesados, como F.E.A.R. e Half-Life 2 há um aumento de no máx 4°C. Tirem minha dúvida, porque caso a temperatua esteja alta, gostaria de saber se será necessário eu fazer uma nova aplicação da pasta térmica.

Olha brother, a melhor coisa que você fez foi colocar a AS5, pois é melhor que a que vem no cooler da Zalman.. Falei isto porque eu instalei esta semana um VF700 aqui, e com a pasta da Zalman obtive 2 graus a mais em idle, e uns 5 a mais em full.. Achei a diferença meio grande, fiz vários testes, mas, é isto mesmo.. Mas a preguiça não me deixa tirar o cooler novmanete.. ehhehehehehe..

Mas sua temperatura está boa sim..

Dá pra diminuir, fazendo lapping, e mais do que isto, melhorando a circulação do Gab..

Mas a temp está otima..

Em full, quanto que fica?

Link para o comentário
Compartilhar em outros sites

Sim.. E 90 você por acaso acha uma boa temp?! Está pessima, altissima.. Dá um jeito ai pra melhorar isto.. A minha não passa dos 54 Full @ Zalman VF700CobreLed..

Provavelmente seu problema é temperatura, e este de colocar dedo em cooler, ESQUECA.. Um dia ele para, e você nem percebe..

Muda logo isto ai, adapta um.. No dissipador da Prolink é bem fácil adaptar um..

Até pode ser temperaturas caras... Mas dá um olhada algumas páginas atrás, no fórum...

Temos um colega que usa a dele a vida toda com 115° sem problema nenhum...

Outra... Segundo o fabricante, o núcleo dessa VGA é pra 'começar' a dar 'crash' acima dos 127° que diz no driver ser a 'temperatura de ALERTA' da VGA...

Era isso... (eu acho)

Valeu...

Abraço...

Link para o comentário
Compartilhar em outros sites

Tipo fiz um OC já a bom tempo que ta ai na minha assinatura , mas depois de ontem logo apos estalar o demo do Dark messiah reparei que já comessou a dar artefatos , ai quando inham mais a tela ficava toda verde de artefatos , ai o pc reiniciou .

Depois coloquei a placa em 500/900( e ela ta assim ate agora ) , ai o jogo entreva eu inha jogo ate chegar a ponto e travar tudo ate o resto do pc .

Outra coisa que reparei tipo depois de colocar o DM demo no meu pc qualquer jogo que eu jogava tanto NFSMW , Farcry , Caesar4 demo , Paraworld Demo , FEAR , já entreva e dava artefato com qualquer OC min tipo ( 510) e depois de 10min de jogo o jogo trava .

então pergunto , o que pode ser isso , super aquecimento ou alguem defeito na placa , ou era do demo do DM o defeito .

já removi o demo e vou testar ele agora pr ver como ta .

falou

Link para o comentário
Compartilhar em outros sites

Tipo fiz um OC já a bom tempo que ta ai na minha assinatura , mas depois de ontem logo apos estalar o demo do Dark messiah reparei que já comessou a dar artefatos , ai quando inham mais a tela ficava toda verde de artefatos , ai o pc reiniciou .

Depois coloquei a placa em 500/900( e ela ta assim ate agora ) , ai o jogo entreva eu inha jogo ate chegar a ponto e travar tudo ate o resto do pc .

Outra coisa que reparei tipo depois de colocar o DM demo no meu pc qualquer jogo que eu jogava tanto NFSMW , Farcry , Caesar4 demo , Paraworld Demo , FEAR , já entreva e dava artefato com qualquer OC min tipo ( 510) e depois de 10min de jogo o jogo trava .

então pergunto , o que pode ser isso , super aquecimento ou alguem defeito na placa , ou era do demo do DM o defeito .

já removi o demo e vou testar ele agora pr ver como ta .

falou

Cara.. Rapidamente...

3 perguntas...

1- Qual a tua fonte??? (o estranho é que estava fucionando até agora...)

2- O jogo não fez nenhuma alteração no directx, ou no driver, quando você o instalou???

3- O que é esse AA que você fala na assinatura???

Valeu...

Abraço...

Link para o comentário
Compartilhar em outros sites

Cara o que rolou e o mais estranho coloquei o Dark Messiah demo , ai demo tudo errado , desestalei tudo e to colocando os jogos de novo de incio parace que o problema passou , porque testei cm o jogo GUN não travou hora nenhuma fiquei nele quase 2h e tudo beleza agora to indo pr FEAR , minha fonte e o que me assunta , porque ela e de quase 500W mas não sei se é real ou não acho que é ate genérica tenho que trocar ela logo .

Tipo esse AA era esclusivo pr serie 7 , mas com o driver 91.45 que pode ser acado no guru.3d o AA de transparencia fica disponivel pr serie 6 mas tem que por em multisample , porque em supersample buga em alguns jogo tipo fear , mas já to com esse driver a 1 mes e nunca tinha dado nda so quando coloquei o DM demo que comessou isso .

Mas parece que já achei o que causo esse meu problema , era o HDR + AA + AA de transparencia , bugava tudo no demo do dark Messiah e detono o pc depois parece que resolvi isso voutando para o 91.31 , mas so vou ter certeza amanha .

falou

Link para o comentário
Compartilhar em outros sites

Até pode ser temperaturas caras... Mas dá um olhada algumas páginas atrás, no fórum...

Temos um colega que usa a dele a vida toda com 115° sem problema nenhum...

Outra... Segundo o fabricante, o núcleo dessa VGA é pra 'começar' a dar 'crash' acima dos 127° que diz no driver ser a 'temperatura de ALERTA' da VGA...

Era isso... (eu acho)

Valeu...

Abraço...

Bom, eu já tive uma Gt agp, e chegando em uns 80 começava a travar em certos jogos.. ;).. Pra mim, o limite é este...

Link para o comentário
Compartilhar em outros sites

Cara o que rolou e o mais estranho coloquei o Dark Messiah demo , ai demo tudo errado , desestalei tudo e to colocando os jogos de novo de incio parace que o problema passou , porque testei cm o jogo GUN não travou hora nenhuma fiquei nele quase 2h e tudo beleza agora to indo pr FEAR , minha fonte e o que me assunta , porque ela e de quase 500W mas não sei se é real ou não acho que é ate genérica tenho que trocar ela logo .

Tipo esse AA era esclusivo pr serie 7 , mas com o driver 91.45 que pode ser acado no guru.3d o AA de transparencia fica disponivel pr serie 6 mas tem que por em multisample , porque em supersample buga em alguns jogo tipo fear , mas já to com esse driver a 1 mes e nunca tinha dado nda so quando coloquei o DM demo que comessou isso .

Mas parece que já achei o que causo esse meu problema , era o HDR + AA + AA de transparencia , bugava tudo no demo do dark Messiah e detono o pc depois parece que resolvi isso voutando para o 91.31 , mas so vou ter certeza amanha .

falou

Pois é cara...

Essa tua fonte deve ser genérica....

Então eu recomendo que com máxima urgência você a troque...

porque no caso desse pc aqui da empresa, a fonte é genérica, e dá umas paradas, umas resetadas, ou simplesmente fica lento as vezes, porque as voltagens tão tudo erradas...

você pode estar danificando seu hardware, com essa fonte, e o pior, sem nem saber...

Abraço...

Valeu...

edit: pois é cara... ainda não sei o que é esse AA de transparência... (não a função da VGA deixar uma janela transparente quando você arrasta ela pra algum lado?) :(

Bom, eu já tive uma Gt agp, e chegando em uns 80 começava a travar em certos jogos.. ;).. Pra mim, o limite é este...

Pois é cara... Mas talvez seja um problema que sua VGA tinha... porque temos o caso desse cara, que postou screns da VGA dele trabalhando a 115°C sem nenhum crash, e o seu caso que à 80°C travava... A minha já trabalhou à 88°C durante o primeiro mês que tive ela, e nunca travou... Mas confesso que havia ficado com medo dessas temperaturas... Então coloquei um cooler 12X12cm no lado dela, tirando o ar quente do dissipador dela, e jogando pra fora do PC... Mas a princípio, ela é pra funcionar tranquilamente até 125°C :ahh: e aos 127° :tantan: alertar o 'cidadão' que a temperatura tá subindo muito... huehauhiehae...

Mas era isso...

Abraço...

Valeu...

Link para o comentário
Compartilhar em outros sites

Visitante
Este tópico está impedido de receber novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!