Ir ao conteúdo
  • Cadastre-se

EspadaDaJustiça

Membro Pleno
  • Posts

    791
  • Cadastrado em

  • Última visita

Tudo que EspadaDaJustiça postou

  1. Bom se a sua for Green Editor, ela é 55 Nm (desconsidere os 65 Nm de GPU-Z). O meu vizinho tem essa green editor da XFX, e para overclock ela é bem fraca mesmo. Afinal de contas ela foi feita para SER ECONÔMICA, e não para fazer overclock. O motivo do fraco over do core, é devido a uma tensão menor (-0,1 V) no core se comparada a 9600 GT normal, que impede um clock mais agressivo, fora a falta de 1 conector de 75 W, limitando a 9600 Green ao 75 W do Slot PCI-E, alem de modificações no PCB. Ja as memorias não são afetadas, porque a tensão delas é a mesma das 9600 GT normais. Portanto é uma boa placa, porém se queria uma placa para over, tinha que ter pego a 9600 GT normal. A 9600 GT Green do meu vizinho aqui, suportou um over no core de uns 10 MHZ, mais que isso começou a ter um monte de artefatos, porém deve ter modelos de green que suportam um over melhor, mas não espere muito ai .
  2. Eu encontrei isso, no manual do driver do site da nvidia (aquele que quase ninguem le, porém deveriam ) Q: Counter Strike Source frame rate is jumpy. Jittery/lagging movement has been seen when starting a game after running the Video Stress Test. R: Smooth movement is restored after exiting and then restarting the application. The issue does not appear when creating a new game, disconnecting, and then creating another new game. Espero que ajude.
  3. Em primeiro lugar a GTS 250 so gasta UM POUCO menos de energia, se comparada a 9800 GTX+. Uma placa com apenas 1 conector Auxiliar PCI-E 6 pinos, pode gastar no maximo 150 W (75 W Slot PCI-E + 75 W do Conector PCI-E 6 Pinos). Acontece, que pelas contas da Nvidia, a 9800 GTX+ em Carga MAXIMA, poderia chegar a gastar um pouco mais que 150 W (nunca consegui gastar isso na minha 9800 GTX+ ). E por isso foi colocado um segundo conector de 6 Pinos, apenas por precaução, caso ele chegasse a esse pico TEORICO de + de 150 W. porém, logo depois a nvidia decidiu dar uma olhada no PCB das 9800 GTX+, e percebeu que poderia diminuir em pouco o consumo, fazendo pequenas mudanças no PCB. E com isso eliminando a necessidade de um segundo conector. Por isso as GTS 250, alem de uma bios mais atual, possuem apenas 1 Conector (existem 9800 GTX+ com PCB de GTS 250, com 1 conetor auxiliar PCI-E 6 Pinos). Lembrando que sem diminuir a performance. porém existe uma vantagem para as 9800 GTX+ de 2 conectores, caso você for um Overclock Maniaco , e fazer um overclock nervoso, vai perceber que nas 9800 GTX+ é possivel um overclock maior. porém tem que ser um Over bem bruto, pra fazer a 9800 GTX+ gastar mais que 150 W .
  4. Pois é, com a minha GTX 275 tambem tive um aumento consideravel nos Frames, porém as temperaturas aqui estão as mesmas se comparadas ao meu antigo driver (185.85). Fora que com o antigo driver demorava MUITO para os clocks cairem em Idle, porém com o 190.62, a redução dos clocks em Idle estão normais. Pro pessoal das GTS 250 que estavam com problemas com a rotação do cooler no 190.38, o problema foi resolvido no 190.62?
  5. Vixi então Ferrou Mesmo . Isso explica os 8 ROPS.... Ja que o G92 em Full tem 128 SPS, 256 Bits (4 x 64 Bits), 16 ROPS, 64 TMUS. Ja que no G92 os 16 ROPS são distribuidos em 4 Grupos , sendo que em cada Grupo tem 4 ROPS. Cada grupo de ROPS e ligado a um barramento de memoria de 64 Bits. Com isso ao remover um barramento de 64 bits, voce desativa o Grupo de ROPs ligado a ele. Ou seja os ***, tiraram 2 Barramentos de 64 Bits, e com isso desativou 2 Grupos de ROPS, sobrando 2 Barramentos de 64 Bits (128 bits), com 2 Grupos de ROPS ligados a eles (8 ROPS). Fora que ao retirarem 32 SPs (ja que ela tem 96 SPS, e o G92 em Full tem 128), voce obrigatoriamente retira 16 TMUs (essa tem 48 TMUs, contra 64 TMUs do G92 em FULL), ja que ambos tambem são interligados. Resumindo, eles não caparam o G92, eles simplesmente DECAPITARAM ELE.... * G92 FULL (9800 GTX, 9800 GTX+, GTS 250): 128 SPs, 256 Bits (4 X 64 Bits), 16 ROPS (4 x 4), 64 TMUS. * G92 (9800 GT, 8800 GT): 112 SPs, 256 Bits (4 x 64 Bits), 16 ROPS ( 4 x 4), 56 TMUS. * G92 (8800 GS, 9600 GSO): 96 SPS, 192 Bits (3 X 64 Bits), 12 ROPS (3 X 4), 48 TMUs. * G92 9600 GTX: 96 SPs, 128 bits (2 X 64 bits), 8 ROPS (2 x 4), 48 TMUs. Ou seja esse é o PIOR G92 Já "criado" até hoje. Se a 8800 GS / 9600GSO (G92) tinham uma performance parecida a da 9600 GT, esse G92 da "9600 GTX", sera inferior a 9600 GT. Com isso a conta bate com os dados do GPU-Z, valeu mesmo pela informação death_ . Eu até sabia que era Tecnicamente possivel, mas nunca me passou pela cabeça, que alguem iria "criar" um G92 tão fraco..... Uma pena mesmo. Quando coloco criar entre aspas, é porque esse G92 da 9600 GTX, nada mais é que o mesmo G92 usado nas 8800 GS/9600GSO. porém ao retirar os chips de memoria correspondentes aos 2 barramentos de 64 bits, automaticamente, você desativa 2 grupos de ROPS, ficando com apenas 8 ROPS. Me Desculpem pelo Post longo, mas agora eu entendi o que é essa 9600 GTX.
  6. Amigo , você não achava mesmo que iria aparecer no GPU-Z "9600 GTX" achou? Eu ja imaginava isso ai. Em primeiro lugar essa 9600 GTX nunca existiu de verdade, é apenas um nome criado pela XFX, para diferencias ela das 9600 GT. Como eu ja dizia no meu post anterior, ela usa de fato o G92. Portanto ja era certeza que o GPU-Z não iria visualizar de maneira correta essa "nova VGA". Eu so tava curioso para ver qual Device ID a XFX iria usar nessa "9600 GTX". Afinal não existe uma G92 com apenas 8 ROPS . De uma olhada na quantidade de chips de memoria, de preferência tire uma foto com os numeros deles legiveis. Ja que é possivel que esses 128 bits, sejam na verdade 256 bits. Portanto não se desespere, ja que existe chances dela ser 256 Bits de barramento. Pergunte la pro pessoal da XFX enquanto isso. ps: Desconsidere a opção de olhar os chips de memoria, ja que para ve-los você tera que retirar o dissipador, perdendo a garantia. É que as vezes quando investigo placas de video modificadas, eu vou a fundo nos detalhes tecnicos, e acabo esbarrando no detalhe "GARANTIA".
  7. Simples, essa 9600 GTX , possui 96 SPs, contra 64 SPs da 9600 GT. Amigo a sua 8800 GS é overclockada, porém se for comparar com a do clock em stock, é pouca coisa maior. Na verdade essa 9600 GTX, de fato tem potêncial pra superar a 9600 GT. Se o pessoal pesquisar, vão descobrir que mesmo as 8800 GS e a 9600 GSO (G92) que são a mesma placa, em certos jogos possui um desempenho um pouco melhor do que a 9600 GT. Ou seja, mesmo sendo 192 Bits essas 8800 GS e 9600 GSO (G92) tinham uma peformance praticamente igual a da 9600 GT, em alguns casos até um pouco melhor. Agora se as 8800 GS e 9600 GSO (G92) com 192 Bits de barramento de memoria, ja tinham uma performance pareo para a 9600 GT, imaginem com um barramento de 256 Bits. Sem duvida deve superar a 9600 GT. Me parece bem interessante, ja que é uma melhoria da 8800 GS, pouca coisa admito, mas não deixa de ser uma melhoria .
  8. A XFX brincando com as nomeclaturas novamente , eles adoram fazer isso. É evidente que essa placa não usa a GPU G94. Pelas especificações deve usar o G92. Ou seja essa sua 9600 GTX, na verdade é uma 8800 GS/ 9600 GSO (modelo G92), com um barramento de memoria maior, ja que a 8800 GS/9600GSO (modelo G92) usam um barramento de 192 Bits. O Clock do core dessa 9600 GTX é maior que os da 8800 GS/ 9600GSO (G92), porém possui um clock de memoria menor (1400 Mhz VS 1600 Mhz). porém como o barramento é maior, a banda fica muito boa (44.8 GB/S Vs 38.4 GB/s). Não é Muito maior, mas sem duvida ajuda a essa "9600 GTX" ter uma melhor performance do que a 9600 GT. Você poderia postar uma SS do GPU-Z dessa sua placa, e postar aqui?
  9. Essas temperaturas não são um problema para a GTS 250 em Alta Carga, para dar problema so acima de 80º. Bom se com a 8800 GT esse sistema não dava problema, pode ser a placa sim. porém para ter certeza, teste a sua placa em outro PC, para ver se vai ocorrer o mesmo problema. porém ela so trava no Crysis? Para elimar qualquer outro fator, faça o seguinte: * Desinstale os Drivers e instale novamente. * Desinstale o Crysis também e instale ele novamente. * Roda o Memtest 86+ para ver se as memorias estão ok. * Procure no Site da sua Mobo, se existe algum relato de incompatibilidade. Caso a placa funcione bem em outro PC, formate sua maquina e instale tudo novamente. MESMO ASSIM não dando certo, o jeito é trocar de mobo ou de placa de video (o que for mais conveniente). Com relação as cores dos Sockets, eles mudam de placa para placa, e portanto isso não serve para todas as placas. O que você fez foi retirar do esquema DUAL CHANNEL (128 Bits) (Amarelo-Amerelo, Preto-Preto) e mudou para o Sistema SINGLE CHANNEL (64 Bits) (Preto-Amarelo), que apesar de ter um menor desempenho, é mais compativel e menos vulneravel a problemas. Outra coisa, é que em algumas placas da Asus, o socket preto é dedicado para o uso das memorias DDR2 1066 MHZ. Claro que da pra usar DDR2 800, porém as DDR2 1066 MHZ so funcionam bem, nesse socket. Sem duvida , formatar o sistema para ficar 100% é uma boa ideia.
  10. Sem duvida, porém o preço deve ficar bem proximo de uma GTX 285
  11. Tanto o PCI Express 1.1 quanto para o 2.0, são fornecidos pelo Slot apenas 75 W. É que o pessoal confundi a força fornecida pelos conectores Auxiliares, com a força fornecida pelo proprio Slot. Ja que 1 conector de 6 Pinos PCI-E tambem fornece 75 W cada um. porém com a chegada do PCI-Express 2.0, veio tambem o conector de 8 pinos PCI-E, que fornece 150 W. Bom no geral a 9600 GT Green é boa, ja que é usado o core de 55 Nm (Sim ela é 55 nm, o GPU-Z que não enxerga isso ). Alem de ter clocks menores, e uma tensão menor -0.1 V, e com isso o consumo cai razoavelmente. Os 75 W do Slot PCI-Express, são suficientes pra ela.
  12. Bom, tem outro possivel culpado sim... As memorias. Sei que você usa kingston, mas é possivel que esteja ocorrendo uma incompatibilidade, se possivel teste outros pentes de memoria para ver se resolve. O meu caso por exemplo, quando eu estava usando a minha 9800 GTX+ no Xp 64, ocorria a mesma coisa que esta acontecendo com você agora (rodava uns 15 a 30 min de Battlefield 2142 e o Pc travava), depois de muita pesquisa, descobri que as minhas antigas Kingston (2X2 KVR800D2N6/2G 800 Mhz) eram incompativeis com a minha mobo, mesmo com a atualização da BIOS. Dai troquei para as KVR800D2N5/2G 800 Mhz, e agora ta tranquilo. Pela assinatura, você tem uma 8800 GT, certo? Você ja testou ela com esse mesmo PC? Por isso teste outras memorias na sua mobo. Tambem verifique o site do fabricante da sua placa mãe, para ver se existe alguma nova versão da BIOS que corrija compatibilidade com memorias. Sei que não é muito conclusivo, mas o jeito é ir testando mesmo.
  13. Em niveis de detalhes MAXIMOS, até a GTX 295 so conseguiu no maximo uns 40 FPS. Se você faz mesmo questão de jogar Crysis em Altissimas resoluções com AA alto com tudo no TALO, so mesmo as GTX 295 ou a HD4870 X2, ou montar um Crossfire de HD 4890. Ja no Crysis Warhead, a coisa fica um pouco mais fácil, ja que esse possui uma engine mais eficiente, e portanto roda melhor nas placas. Mesmo assim a HD 4890 não deixa de ser uma placa bem parruda
  14. Eu vi um modelo da Gainward: http://www.gainward.net/main/vgapro.php?id=140 Ela tem 1 conector de Energia auxiliar de 6 pinos, e com um certo Downclock em relação a GTS 250 normal, ficando com 700 Mhz core, 1512 Mhz Shaders, e 1000 Mhz nas memos (2000 MHZ GDDR3). Pra ser sincero, so vale a pena se o preço vier barato, menor do que a da HD 4770, caso contrario, não compensa. Eu também to esperando os testes dessa placa, mas acredito que a performance deve ficar igual a da HD 4770, ou até um pouco menor. Bom, se você estiver usando os drivers 190 da nvidia, recomendo voltar para os 185, e dai faça o teste. Outra alternativa e testar sem o over no seu processador, pode ser que as memorias não estejam conseguindo se manter estáveis no over junto com o processador (ja vi isso acontecer varias vezes). Não descarto que poderia ser a fonte. porém se esses valores forem reais, a sua fonte tem potência pra aguentar a GTS 250.
  15. Não se preocupe, sua fonte aguenta a GTS 250. So pra ficar claro, a GTS 250 pede no maximo 8A a 9A na linha de 12V, esse recomendação de 26 A que aparece, é para TODO o SISTEMA. Ou seja se a fonte tivesse apenas 1 barramento de 12V para TODO O SISTEMA, esse deveria ser de pelo menos 26 A. Mas a sua fonte possui 4 Barramentos de 12V, e com isso os componentes do sistema ficam distribuidos nesses 4 Barramentos, e com isso as chances da placa ficar com um barramento mais "folgado" é maior.
  16. To fazendo testes leves, e to adorando essa placa . Muito boa mesmo. No começo fiquei preocupado com as temperaturas dela em Alta carga, que segundo reviews passaria de 82º, para o modelo de referência. porém a minha XFX GTX 275, possue o mesmo sistema de refrigeração de referência das GTX 275, e so cheguei a essa temperatura (82º) em Alta Carga, com o cooler a 40%. Dai eu programei no rivaturner para aumentar a rotação de acordo com a temperatura do Core, e em alta carga fica em 72º no maximo, com o cooler em 60%, claro que meu gabinete bem refrigerado ajuda . Outro detalhe bacana dessa placa, é que ela reduz os clocks em idle para 300 Mhz core, 600 Mhz Shaders, e 100 Mhz para as memos, uma queda BEM Significativa, que ajuda a reduzir o consumo e as temperaturas. Outra coisa trivial que descobri, o GPU-Z esta mostrando o Campo Texture Fillrate de forma errada, para todas as placas da serie GTX, a unica que esta certa é a GTX 260 192 Sps e 65 nm. O motivo é simples, o GPU-Z calcula o campo Texture Fillrate multiplicando o valor do clock do core, pela quantidade de TMUs(unidades de Textura) resultando em MegaTexels, dai basta dividir por 1000 para obter os GigaTexels. Até ai tudo bem, porém o pessoal do GPU-Z achou que todas as GTX possuem apenas 64 TMUs. Em resumo , a coisa fica assim: GTX 260 192 SP 65 Nm = 64 TMUs, GTX 260 216 SP 65 ou 55 Nm = 72 TMUs, GTX 275, GTX 280 e GTX 285 = 80 TMUs, a GTX 295 possui 80 TMUs para cada GPU. Ou seja, para a minha GTX 275 com clock de 640 Mhz, o valor correto do Texture Fillrate é de 51 Gigatexels (640 * 80 = 51200 MegaTexels / 1000 = 51.2 GigaTexels). E não 41 GigaTexels, como aparece na SS da minha GTX 275. Ja mandei um e-mail pro editor chefe do GPU-Z , para corrigir esse erro .
  17. Pega a GTS 250 512 MB, você tera mais performance com ela.
  18. A capa é importante para criar um "tunel de vento" dentro da placa, ja que você vai delimitar o caminho que o ar vai ter que seguir. So compensa tirar se você comprar um Cooler+ Dissipador MUITO BOM, ou investir em refrigeração liquida. A galera precisa entender que para as GTS 250 e 9800 GTX+, temperaturas como 80º em Alta carga, apesar de não ser recomendavel, é uma temperatura ainda operacional para a placa. So vale a pena ficar preocupado se essas temperaturas em Alta carga passarem de 80º Graus.
  19. Uma coisa em comum entre o GTA 4 e o Flight Simulator X é a dependencia de um processador de 4 núcleos. Claro que você poderá roda-lo bem em certas resoluções e detalhes no seu Atlhon X2. Mas pra roda-lo no TALO, vai depender mais do seu processador, do que da placa de video em si. Acredito que vai rodar bem no seu sistema, mas para melhor performance do Flight Simulator X, mude para um Quad core.
  20. Olha, é bem complicado pegar uma Porcentagem Exata de ganho, porém é algo bem substâncial. O desempenho do SLI de GTS 250 é equivalente ao de uma GTX 275 (mesmo em altas resoluções, apesar dos 896 MB da GTX 275, contra os 2 GB do SLI de GTS 250), que fica proximo ao de uma GTX 285. Como você tem uma mobo que suporta o SLI, seria mais barato montar o SLI. So que da uma olhada no balanceamento dos barramentos da Corsair VX 450, pra ver se ela vai aguentar. Mesmo ela tendo um pico maior que 450 W, é sempre bom dar uma olhada como esta balanceado os barramentos de 12V. Outro detalhe é a refrigeração do seu gabinete, ja que vai precisar de uma refrigeração boa pra dissipar o calor de 2 GTS 250. Fora esses detalhes , acho uma boa ideia um SLI de GTS 250 (so não fiz isso, porque minha mobo não tem como suportar SLI , e peguei uma GTX 275 )
  21. O Rivaturner é um dos melhores programas nesse segmento, muito bom. Ele pega as temperaturas através de um arquivo .dll que faz parte do driver da Nvidia, que é uma interface de saida dos Sensores da placa, portanto é bem preciso sim. Sobre as ocilações dos clocks, sim é normal. Quando a placa percebe que uma tarefa não demanda muito processamento, ela automaticamente reduz os clocks, para economizar energia, e aquecer menos.
  22. Use esse teste do proprio Clubedohardware: https://www.clubedohardware.com.br/artigos/1594/6 Dai é so comparar a GTX 260 (192 ou 216) com a 9800 GTX+ (que tem a mesma performance da GTS 250) e com isso tirar suas próprias conclusões. Mas ao meu ver, compensa pegar a GTX 260 216 SP, principalmente em altas resoluções.
  23. Clocks e Temperaturas OK. Sem problema nenhum ai. Provavelmente o Cooler deve estar em 32 a 40% certo? Ja que em Auto, ele fica nessa margem, quando esta em Idle. Teste agora ela em jogos e verifique as temperaturas, provavelmente em jogos pesados deve ficar em no maximo 75º.
  24. Bom, "NO MEU CASO" os novos drivers ficaram muito instaveis, talvez para o Windows 7 32 Bits, não fiquem, puxe os novos e teste eles. porém o 185.85 é uma versão estavel do driver. Para ver a temperatura, Overclock e outras coisas, temos o Rivaturner, porém existem outros, é so procurar na net.
  25. Bom eu ja percebi problemas com esse novo driver 190.38 na Nvidia, pelo menos no Windows XP X64 SP2. Estava dando muitos erros de tela azul, de System_Service, relancionando o arquivo Nvdisp.dll, foi so voltar para o antigo, e voltou a ficar ok (eu puxei o novo driver 3 vezes, para ver se era arquivo corrompido ). Pelo menos no XP X64 não ficou muito estavel os novos drivers.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!