Ir ao conteúdo
  • Cadastre-se

cenir

Membro Pleno
  • Posts

    533
  • Cadastrado em

  • Última visita

Tudo que cenir postou

  1. Fez uma excelente compra, a sua é igual a minha, veja o review que fiz dela no final da página 14 http://forum.clubedohardware.com.br/gtx260-topico-oficial/577245/14Já vou te alertando que seu processador vai segurar bastante o desempenho dela, veja, tenho um [email protected] e no Grid (Game lindo) ele está peidando, segurando feio a VGA, na tela LeMans, os dois núcleos ficam o tempo todo a 100% daí ocorrem alguns lags, mesmo os FPS estando acima de 40. O gargalo realmente se faz presente. No 3Dmark 06 dá 10,5K e os caras por aí batem 14/15k de boa. Não sei o modelo do seu gabinete, mas a danada esquenta muito, tive que colocar + 2 coolers para refrigerar, ela bateu 95° e fiquei assustado. Agora fica no Max com 70°, mas estou usando um programa para gerenciar a ventoinha, pois no default ela só começa a elevar a rotação além dos 40% quando está acima de 65°. Bios trash. Crysis não é terror não, aqui roda no Talo, isto é no Muito Alto e AAx4 de boa, minha resol. é de 1360x768 @60Hz na TV de 26". às vezes uso meu monitor LCD de 17" que é de 1280x1024. Só não ponho em AAx8 porque dá umas tremidinhas, mas também roda, em DX9 com tudo no Alto e AAx8 roda acima de 35~40 frames o tempo todo e quase não se nota diferença no visual do game. Espero ter ajudado, Falou. Eu já sou a favor de Overclock, desde que seja feito com prudência e um mínimo de conhecimento. De que adianta um motor ferrari num fusquinha simples, sem modificações? Tem que pelo menos tentar equilibrar, isto é às vezes um Overclock resolve, sem ter que trocar um processador, o que demandaria gastos. Alguns jogos ficam horríveis com 30 frames, como o caso da maioria dos FPS e os de corrida. Todo processador atual suporta overclock alto, desde que se tenha uma refrigeração adequada. Com cooler stock até uns 20~30% dá para ir de boa. No caso dos processadores existem diversos fatores para clocks diferentes na mesma família e o principal deles é atender determinadas faixas de preço, mas na realidade todos compartilham o mesmo núcleo. Leia o que narrei acima a respeito do jogo Grid, Overcloquei para @3.1GHz usando o programa SETFSB que altera o clock pelo Cristal PLL e as travadas acabaram, mas não gosto de usá-lo porque altera junto o clock do barramento PCI-e, então torna-se um pouquinho arriscado esse método. Só não frito minha CPU porque a placa-mãe é uma P5GC-MX OEM Megaware bichada, PCI-E 1.0, não tem opções de overclock e com uma Bios maluca que não tem como atualizar, mas em breve vou comprar uma P43/P45 e vou mandar na lua o processador. Falou.
  2. É só abrir o Painel de Controle Nvidia, depois ir na barra superior e selecionar 3D Settings e desmarcar Show PhysX Visual Indicator.
  3. Valeu pela SS GCMSampaio, está certo sim, eu é que me enganei e achei que tinham relação com os Raster Operator, que servem para renderização, filtros e cálculos de profundidade, na verdade nem sei que partes da GPU o CUDA utiliza. Fiquei assim receoso, porque achei que minha GPU tivesse vindo bichada, pois sabemos que o núcleo da GTX260 é o mesmo da GTX280, mas com algumas partes inativas, as quais apresentaram defeito e, para não ficarem no preju total eles desligam tais partes e colocam uma linha mais simples no mercado.
  4. Pensou na possibilidade de uma HD5870?
  5. Não pensa na possibilidade de uma HD5870?
  6. Cara, dá para usar esse Dual Core, mas caso sinta que está gargalando a GPU taca um over nele de pelo menos 3.2GHz que vai rodar bem. Caso não saiba como overclocar existem tópicos neste fórum que ensinam a fazer corretamente. Memória Ram tem de sobra.
  7. Aos dois,DVI-D é idêntico ao HDMI, pois transmitem sinal digital entrelaçado ou progressivo, claro existem algumas diferenças técnicas, mas no básico só muda mesmo o tipo e tamanho do conector. São tão compatíveis que se pode usar um aparelho com saída HDMI num monitor com apenas DVI. A única coisa que se deve fazer para usar a conexão da placa de vídeo e um monitor HDMI é uma ligação interna entre o SPDIF out (Áudio Digital) da placa-mãe com o SPDIF in da VGA para que saia o som pelo cabo, é muito simples, apenas um par de fios, caso queira. Não existe nenhum tipo de conversão nos cabos, apenas o arranjo devido as diferenças físicas. A qualidade é a mesma que se estivesse usando uma VGA com saída HDMI nativa. Igual a BluRay Player. Ps: Geralmente o adaptador vem incluso na caixa da VGA, na minha ECS veio. Outra opção é o cabo direto DVI-HDMI, uso um de 2m e paguei R$11,00, tipo esse: http://produto.mercadolivre.com.br/MLB-118599806-cabo-dvi-x-hdmi-lcd-plasma-1-linha-garantia-1-ano-full-hd-_JM
  8. Você descobre pelos clocks, pois as BE vem com over de fábrica, veja a minha que tem os clocks padrão:
  9. Só disse o que li por ai e o que alguns estão pregando, tanto é que citei Mirro'r que rodou legal na minha antiga 9500GT.
  10. Essa é uma questão difícil, pois cada vez mais os jogos estão exigindo esse recurso, um exemplo é o Batman, vejam o vídeo completo: Dizem que para rodar desse jeito só uma 8800Gs/9600GSO 96Sps ou 8800gt dedicada para a física. Do outro lado quando tinha somente a 9500Gt DDR2 conseguia rodar com o PhysX ativado Mirro's Edge com todas as configs no max e AA X2 em 1360x768. Só dava uns lags na tela dos andaimes, onde tinham uns plásticos azuis, mas o resto ia de boa. O certo seria as SoftHouses colocarem os requisitos para PhysX, assim como colocam para as VGAs, ou melhor, quantos SPs o jogo usaria, aí sim daria para ter a noção exata se a VGA aguentaria o tranco ou não. Falou.
  11. É isso mesmo, está tudo certo, aliás deu sorte, pois a maioria dos modelos 1GB vem com memórias de 333MHz. Deve ser um lote novo, veja inclusive que no anúncio o vendedor foi honesto e colocou como sendo 333Mhz= 667MHz DDR2. Falou.
  12. Está embaixo do dissipador preto com o nome Asus, bem no centro.
  13. Cara, não confia nessas temps° aferidas pelo GPU-Z, pois esse programa em conjunto com o Driver 191.07 está marcando errado, aqui no meu PC onde é GPU temp° é na realidade os c° das memórias, ele está oculto e confundindo o programa, deve ser na realidade uns 8°~12° a mais. Se tiver o Everest dá uma confirmada. A todos, Nos programas Riva Tuner 2.24c, EVGA Precision 1.8.1 e o MSI Afterburner a configuração de personalizar o controle de velocidade do Fan não está funcionando corretamente quando usado o Driver 191.07, pelo simples fato de não reconhecerem a temp° da GPU. Grande chance de sentir um cheirinho de queimado. Ps:Uso o Vista, talvez em outros S.O.s não ocorra este problema.
  14. Estou usando uma GTX260, antes usava uma 9500GT.
  15. Estava até pensando nela para substituir minha Asus P5GC-MX(OEM com bios maluca que não atualiza nem tem opções de over), mas agora que descobri que não tem SPDIF vou descartar, pois uso justamente o HDMI, coisa que a minha vagaba tem. outro fator é o Slot PCI-E x16 ser 1.1, então dá na mesma, outro item que ela herdou das irmãs é o fato de não travar o clock do PCI-E em 100MHz a partir dos 340MHz FSB, portanto ruim para aqueles que tem processadores Core 2 Duo e Quad FSB1333MHz 45nm que pretendem overclocar e utilizam uma Placa de Vídeo Offboard.
  16. Usa o GPU-Z, Principalmente Rops, Shaders, Bus Width e GPU terão que ser iguais. Alguns outros números variam conforme o fabricante e modelo, DDR3 poderá ser de 700 até 1000MHz nas memórias, DDR2 varia de 333MHz (modelos 1GB) a 500MHz. a para saber o desempenho roda o Aquamark3 ou algum 3DMark 03/05/06 e depois compara com alguém. Vixi, e como, tem PV-T95G-YAR2 da XFX com interface de memória 64bits e uma Low profile (não lembro o modelo)que também usa 64bits na memória, totalmente XfShit. Tem um modelo que vem do PY com o PCB verde e cooler preto escrito Nvidia que nada mais é que uma 8500GT com a Bios modificada, também com 64bits. Vi não me lembro onde que tiveram a pachorra de modificar a Bios de uma 7200GS para ser identificada como 9500GT. Fora os 90% das 1GB que tem as memórias rodando a 667MHz. Falou.
  17. Gostei do teste, pelo menos não pegaram pesado com a pobre infeliz, deram corda até ela se enforcar. Apesar de não ter explodido mereceu o selo BOMBA. Como o pessoal já disse só falta o final da trilogia com a PUF4050s(fará jus ao nome?) e um 'remake' da DSA5060V. Que a força esteja com vocês, Falou.
  18. Como disse o Dragão Vermelho só falta a PUF4050S. Êta fonte vagaba, pelo menos não vai explodir em nenhum PC.
  19. Coloca isso lá nos "CAUSOS", Falou.
  20. Valeu Kronos3, Acho que é isso mesmo, pois deixei o gerenciador de tarefas aberto e comecei a jogar, fechei o game e nos gráficos os núcleos estavam a quase 100% durante o jogo. Não faço over porque minha placa_mãe é bichada, pois é OEM com uma BIOS maluca que não dá para atualizar, já tentei de tudo mas não tem solução, apenas trocando mesmo. Aqui dá para fazer over pelo programa SETFSB, que faz direto pelo cristal PLL, mas acredito que ele aumenta junto o clock do PCI-E, por isso não arrisco muito pois pode danificar a VGA. Falou.
  21. Meu gabinete é mini torre com 2 baias e coube, mas a temperatura está alta, ontem bateu 85° jogando Grid, por isso vou trocar em breve ou encher de coolers. Falando em Grid, achei esse game 10, tinha jogado antes sem AA e tudo no médio, mas na GTX260 tá rodando com tudo que tem direito no Ultra e 16XQCSAA (aff, é a última das mais de 12 opções) totalmente liso, é o jogo de corrida mais bonito que vi até hoje, só é difícil no começo, mas depois pega-se o jeito, agora estou quase no final. Só uma dúvida, ontem deram algumas pequenas travadinhas na tela LeMans na primeira volta, isso seria devido ao meu processador Core 2 Duo [email protected]? É o famoso GARGALO? Esse Game é otimizado para Quad? Seria minha Placa-mãe que não é PCI-E x16 2.0? 2GB DDR2 667 single? Quem puder ajudar agradeço, Falou.
  22. Pelo que o pessoal fala o Batman é pesado para placas mais simples, pois faz grande uso dos efeitos de física, olhe algumas páginas atrás que verá a diferença, tem um vídeo do Youtube que mostra. Mas funciona sim, mesmo que no mínimo, veja a seguir.O Seu problema é que tem que usar um Driver antigo da Nvidia, tipo 180 e seguir o passo-a-passo descrito nesse tutorial: http://www.adrenaline.com.br/forum/placas-de-video/211016-tutorial-ativando-physx-no-conjunto-radeon-hd-4xxx-geforce-a-partir-da-g80.html Outro porém é que no Batman "alternativo" não funciona, veja, não estou dizendo que é o seu caso. Falou.
  23. Caro Root, Fiquei feliz de alguém daqui do CdH ter conseguido fazer esse gambit, parabéns. Agora é só esperar para ver os resultados no PhysX. Vê se consegue emprestado uma VGA, tipo 8600Gt ou 9500Gt para testar junto com sua 9600GT só para ver se o Painel de controle Nvidia habilita o PhysX no Slot x1. Percebi que o desempenho despencou, mas com uma VGA mais simples não vai ter tanta queda. Falou.
  24. Realmente é interessante, visto o fato da mesma custar menos que o conjunto de uma GTX275 EVGA + GTS250 EVGA, o que daria um total de U$388,00. Só não entendi porque caparam a GTS, passado a interface das memos para 192bits.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

 

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!