Ir ao conteúdo
  • Cadastre-se

EspadaDaJustiça

Membro Pleno
  • Posts

    791
  • Cadastrado em

  • Última visita

Tudo que EspadaDaJustiça postou

  1. Tem sim, usa o Rivaturner para aumentar a rotação do cooler, deve estar em 40% quando você ta jogando. Se você aumentar para 65 a 70% um pouco antes de entrar no jogo, as temperaturas devem ficar menores.
  2. Não se preocupe com isso, o valor de 26A (312 W) é um valor de media para todo o sistema (incluindo, processador,memoria,HDs, etc..). Ou seja esse valor é um valor de media (de acordo com uma suporta configuração, que a XFX usou para obter esse valor). Como a sua fonte tem 2 barramentos virtuais de 20 A, pode ficar tranquilo. Ja que a ideia por tras disso é deixar um barramento o mais dedicado possivel para a placa, enquanto o outro fica encarregado do processador e outros componentes. a GTS 250 consome no maximo 8 a 9 A. Se sua fonte tem o plugue PCI-E de 6 Pinos, você deve usa-lo, em vez do adaptador.
  3. Na verdade o preço vai cair razoavelmente, porque a TSMC esta com problemas com o rendimento dos waffers do R800 em 40 nm, em especial como Chip Cypress e o Hemlock (dual Cypress). E quando isso for normalizado os preços vai cair, alem do surgimento da serie GT300. Sobre o DX11 é preciso ficar claro uma coisa, o DX11 é uma "atualização complementar" do DX10. Tem muita coisa bacana no DX11, porém placas DX10 vão poder rodar jogos escritos em DX11, so não vão ter os recursos novos de qualidade. porém vão rodar. Ja o PhysX não é uma "perfumaria". Se você utilizar jogos que suportam o PhysX vai perceber muitas diferenças. Tanto é que a propria ATI, que dizia que a "Fisica de GPU está morta", mudou de ideia e esta colocando forças no Bullet.
  4. Pode pegar a GTX 275 da Zogis mesmo. Ja a GTX 275 da XFX, você teria o jogo Farcry 2 original, como brinde. Se quiser pegar a HD 4890, também sera bem servido, porém no caso da HD 4890 não recomendaria pegar a da XFX. Olha pra ser sincero, nesse altura do campeonato das placas de video, nem compensa você pegar as da nova geração. O motivo é simples, a ATI não tem concorrencia nesses tipos de placas DX11, e por isso o preço delas esta bem alto (alem de problemas da TSMC e etc...). Você esta vendo agora, grandes quantidades de jogos em DX11? Ainda não certo. Por isso quem souber esperar o momento certo, poderá pegar uma HD 5870 ou até uma HD 5970 por um preço bem mais em conta. Alem de ter as opções do GT 300 da Nvidia.
  5. Bom em primeiro lugar, os graficos do consumo da 9500 GT la no ForumPC são o do consumo TOTAL de todo o sistema usado por eles (processador+ Placa mãe+ HDs, etc...). E por isso que você deve tomar cuidado ao levar ao pé da letra esses valores, ja que consumo total é uma coisa, e somente o da placa é outra. Como as maquinas testadas semprem mudam de teste para teste, fica um pouco complicado ter um numero REAL do consumo apenas da placa, mas você pode ter uma media so consumo com esses dados. E nunca uma placa como a HD 4870 vai consumir menos que uma 9500 GT. Porque você acha que a HD 4870 tem dois conectores de alimentação de 6 Pinos, e a 9500 GT não? A HD 4870 consome bem mais que a 9500 GT (160 W contra 50 ~ 55 W), e por isso sua conta de luz vai subir sim, porém não sera algo muito significativo (poderiamos levar em consideração se a maquina ficasse ligada muitas horas ou o dia todo por exemplo). Claro que esses valores são em FULL, ja em Idle caem bastante, principalmente na 9500 GT (a 9500 GT não tem o sistema de redução de clock, porém o VRM dela assim, como nas placas de video modernas, vai reduzir a potência fornecida para a GPU e com isso reduzir seu consumo, quando perceber que a placa esta em modo 2D).
  6. Bom amigo, pra começar, devo te informar de uma coisa bem basica, porém importante: A GTX 260 tem dois pluges de alimentação de 6 pinos cada, que devem ser conectados com 2 conectores de 6 pinos vindos da fonte. A sua fonte A corsair TX 450 apesar de ser otima, possui apenas 1 conector de 6 pinos, e dessa forma você deve usar o adaptador que vem junto com a placa, para converter 2 pluges de 4 pinos (aqueles que são usados nos HDs) em 1 pluge de 6 pinos que você deve usar na placa. Você conectou o pluge de 6 pinos da fonte + o adaptador de 6 pinos que veio junto com a GTX 260, na placa de video?
  7. Se for essa da Foto, demorou pra compar . Otimo cooler. Melhor que o cooler stock da Nvidia, que vem nos modelos da XFX.
  8. Nossa , so 190.9 Watts. Alem de bruta , essa placa ainda é economica, Show de bola mesmo. Ta de parabens a ATI. Com a volta do temido Super-Sampling Anti-Aliasing (SSAA) no R800, somente uma placa bruta como a HD 5970 pra conseguir rodar Crysis com SSAA 8X com um FPS alto em altas resoluções.
  9. Simples, para diminuir suas temperaturas e diminuir o seu consumo. Porque alem da temperatura das GPUs em si, tem tambem o cuidado de diminuir a temperatura no proprio PCB, principalmente no VRM. Claro que você pode fazer o overclock, mas levando em consideração o TDP max Teorico de 284 W (não quer dizer que ela vai consumir tudo isso, afinal TDP quer dizer o calor gerado pela placa, porém pode chegar perto). E Dessa forma cuidar da temperatura e consumo aqui, é bem importante.
  10. Moço que placa ignorante hein . Muito Potênte mesmo. Sonho de consumo .... Nessas horas que me da raiva de morar aqui no brasil.
  11. Se a intenção é pra Rodar jogos com o PhysX, esqueça a 8600 GT. A Diferença sera minima em performance, e você vai gastar muito mais energia. Para PhysX é melhor você pegar uma GTX 260 + GTS 250 (dedicada PhysX), ou uma GTX 260 + 9600 GT(dedicada). Ja que no PhysX são os SPs que contam.
  12. Sim, porém somente as Core Edition antigas são as de 192 SP. Se o GPU-Z ta 216 SP, então é de fato a Core 216.
  13. Olha , eu ja tinha testado minha antiga 9800 GTX+, contra uma 8800 Ultra do meu vizinho instalada na minha maquina , e percebi o seguinte: Em Resoluções mais baixas (1024X768, 1440X900) com AA baixo (2X) a 9800 GTX+ era mais rapida em media 4 a 7 FPS. Ja em Resoluções mais altas (1280X1024 +) com AA Alto (4x a 8X) a 8800 Ultra era mais rapida que a minha 9800 GTX+ em cerca de 5 a 8 FPS. Tinha testado varios jogos e obtive esses resultados. Ou seja a 8800 Ultra fica no mesmo nivel, porém é um pouco melhor quando você força mais detalhes. So pra fechar essa questão .
  14. Bom primeiramente 110º é COMPLETAMENTE INACEITAVEL. Root sobre os 120 Graus, eu discordo. O motivo dela desligar, é porque foi configurado via Bios que a partir de 105º (que é a temperatura LIMITE) a VGA se desligue para evitar ser queimada. Se 120º fosse operacional, porque a nvidia iria colocar como temperatura maxima de operação 105º? Devemos lembrar que estamos falando de GPUs em 55 ou 65nm. Em GPUs mais antigas, como as feitas em 80 nm, temperaturas mais altas eram "aceitaveis". Como ja foi dito pelo pessoal, troque de cooler, a não ser que queira queimar a placa.
  15. Olha o jtaday tem bons motivos em não recomendar a XFX. Como você pode ver pela minha assinatura eu tenho uma GTX 275 da XFX, que de fato esta totalmente funcional e possui otima performance. A questão é que a XFX anda pisando na bola com os clientes, seja fazendo 9600 GT "capadas" ou fabricando HD 4890 com performance muito abaixo (igual de uma HD 4850), fora a "aberração" da 9600 GTX...... A reclamação não é sobre o MODELO da GTX 260 216 da XFX em si, ja que de fato não tem nada errado com ela. porém é uma forma de boicotar a XFX, pela sacanagem que andam fazendo com os clientes. E eu sinceramente concordo com o boicote. Porque aquela historia, uma empresa que "capa" placas mais fracas, pode muito bem querer capas placas High-END em um futuro proximo...... Por essa continuidade de desrespeito ao consumidor, a XFX esta de fato com a reputação manchada. O GRANDE PROBLEMA, é que a XFX tem um esquema de vendas MUITO FORTE aqui no brasil, o que torna fácil de achar as placas da XFX. E torna a variedade algo complicado por aqui.....
  16. Isso ja foi discutido aqui nesse topico varias vezes. TODAS as 9800 GTX+ são feitas em 55 nm. O que aconteceu na epoca, é que quando a 9800 GTX+ foi criada, a nvidia não achou necessidade em criar um novo Device ID para as 9800 GTX+, e decidiu usar o mesmo Device ID das 9800 GTX 65nm, e por isso aparece na descrição do Windows "Geforce 9800 GTX/9800 GTX+". porém um pouco mais tarde a Nvidia mudou de ideia e criou um novo Device ID para as 9800 GTX+, porém apenas as 9800 GTX+ com Bios novas tinham o novo Device ID. porém as 9800 GTX+ com a Bios antiga, são de fato 55 Nm. Mas como o GPU-Z identifica a litografia da GPU, através do Device ID, isso faz que todas as 9800 GTX+ com bios antigas sejam vistas como sendo 65 Nm, ja que possuem o mesmo device ID das 9800 GTX. Ja as GTS 250 fica a questão. Se TODAS as GTS 250 usam o mesmo G92 das 9800 GTX+, então são todas 55nm. Agora se existir alguma GTS 250 que não use o G92B1, que apareça as imagens do core, porque todas as GTS 250 que vi até agora usam o G92B1 de 55 Nm.
  17. Recomendo você dar uma olhada nesse topico http://forum.clubedohardware.com.br/tenho-9600gtx-mas/722617. Você foi outro que caiu nessa armadilha chamada 9600 GTX.... Se for possivel troque por uma 9600 GT, seja da ZOTAC ou ECS, etc... So não pegue 9600 GT da XFX.
  18. Bom sei que a resposta não foi para mim, mas eu vou comentar algumas coisas a respeito disso. Quando ele disse que a 9600 GT não tera proveito dos 512 MB adicionais, é porque a 9600 GT não é uma placa adequada para altissimas resoluções. Baseada na arquitetura G94 (que é uma versão capada no G92 das 8800 GT, 9800 GTX,GTS 250) a 9600 GT possui um bom desempenho nos jogos atuais, mas devido a ter apenas 64 Sps, a capacidade dela em rodar os jogos rapidamente, cai razoavelmente em games que utilizam Shaders Complexos (Crysis por exemplo). Claro que uma 9600 GT de 1 GB deveria ser mais rapida, porém isso não ocorre na maioria dos jogos, porque na sua maioria não tem a necessidade de alocar tanto espaço para as texturas e para o Z-Buffer. Como o Pixel Fillrate e Texel Fillrate dela não é muito alto, não existe a necessidade de alocar muito espaço no Frame buffer (memoria) da placa. porém como o proprio Gabriel Torres disse no teste entre a 9800 GT de 1GB e a 8800 GT de 512 MB, Poderia haver um ganho maior, se outros jogos fossem testados. Um desses jogos, é o GTA 4. Ele aloca muito espaço na memoria da placa (principalmente com o View Distance em 100), e ter mais memoria de video aqui, sem duvida ajuda. Um bom exemplo de placa de video que em 1GB rende mais do que a de 512 MB, de forma mais consideravel é a HD 4870.http://www.anandtech.com/video/showdoc.aspx?i=3415&p=7. Veja que em certos jogos a melhoria foi consideravel. O Motivo de uma placa mais forte como a HD 4870 se beneficiar mais da memoria adicional, é devido ao fato dela trabalhar com um grande numero de SPs e possuir um Pixel e Texel Fillrate maior do que a 9600 GT. Cada bloco de SPs possui sua propria memoria interna (pequena so que rapida). Caso a placa começa a trabalhar com Shaders mais complexos, uma hora ou outra era tera que armazenar na memoria da placa, devido ao a essa memoria interna ser pequena. Dai você tera uma maior diferença na performance. Alem do fato de que quanto maior as texturas, e os efeitos do jogo, maior sera o tamanho do Z-buffer a ser armazenado na memoria. Por que você acha que a HD 4890 não tem versão de 512 MB? Eu entendo que você esta certo no fato da 9600 GT de 1GB não ter melhorias significativas na maioria dos jogos. porém isso não é uma regra para TODAS AS PLACAS.
  19. A Capacidade do Over vai depender da temporização desses chips da QIMONDA. porém para ele resta mesmo o Overclock das memorias, naquele velho esquema: Aumenta 20 Mhz e testa a estabilidade, funcionou.... + 20 Mhz e assim vai, ate ver onde ela começa a dar artefatos.
  20. Pode até ser uma versão "capada" em relação os clocks das memorias. porém é uma 9600 GT legitima (G94-3xx-xx). Clocks das memorias você pode resolver usando o Rivaturner ou outro similar para ajustar os clocks. Antes isso, do que ele pegar uma 9600 GSO de 48 Sps... dai nem o Chuck Norris, poderia colocar 64 Sps nela .
  21. Vai nessa... A 9600 GT capada da XFX, tem exatamente o mesmo comprimento da 9600 GT real, e possui sim um adaptador de energia auxiliar 6 pinos. Você precisa ficar atento ao modelo de 9600 GT da XFX que vai pegar, basta da uma olhada no site da XFX Global (Não vai so site XFX USA). Que la você vai ver quais tem 48 SPs. Para facilitar aqui vai o link: http://www.xfxforce.com/en-gb/ShoppingTools/ProductComparison.aspx. Dai é so fazer a comparação dos modelos de 9600 GT, e colocar cada um deles em uma coluna (4 colunas no maximo) e ir vendo as informações. Fica atento ao numeros de SPs. São 13 modelos de 9600 GT (bastava 2 ou 3, para que 13?), demora um pouco, para você conferir todos. Mas você vai perceber quais são 64 e 48 Sps. ps: Engraçado como no site Europeu (site primario) , não tem a aberração da 9600 GTX..... Estranho né ?
  22. A sem duvida, 8XS ja judia e muito da placa . Ja com os confortaveis 8X Multisampling a GTX 275 roda muito bem. Porque você acha que a nvidia escondeu o 8XS la do painel do driver? . Pelo que me lembro o 8XS é na verdade 4X MSAA + 2x SSAA. O 16XS é: 4X MSAA + 4X SSAA. Enquanto o 32XS é 8XQ MSAA + 4X SSAA. Isso mostra o quanto o SSAA é pesado. E por isso tanto a ATI quanto a Nvidia criaram os filtros hibridos. Creio que o desafio maximo para qualquer placa, seja o 16X SuperSampling. Para ativar os modos SuperSampling puros, usem o Rivaturner, ou o Nhancer. Com 16X Supersampling você faz as placas parrudas pedirem arrego.
  23. Ele pode manter as latências de 5-5-5-18 mesmo em over, basta força-las via Bios,e testar a estabilidade. No meu caso por exemplo com o Over de 3.4 Ghz do Meu Q9550, eu consigo manter as latências em 5-5-5-15. E como ele tem um kit da Corsair, pode manter a latência padrão numa boa. Tambem achei estranho a pontuação baixa dele.
  24. Bacana, finalmente esse topico esta ficando movimentado. So uma dica para você, mude as latências de suas memorias para 5-5-5-18 la na Bios. Ja que você tem um kit feito para trabalhar em 5-5-5-18, porém esta funcionando em 6-6-6-20. Vai ter um pequeno aumento na performance.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!