Ir ao conteúdo
  • Cadastre-se

jclafi

Membro Pleno
  • Posts

    1.237
  • Cadastrado em

  • Última visita

Tudo que jclafi postou

  1. Cara de longe a 8400GS é uma placa para jogos, no máximo multimidia e internet. Não que ela seja uma placa ruim, para o seu fim ela atende e até muito bem. Te recomendo uma 8600GT GDDR3, que custa apenas 150R$ no mercado livre, e deixa a 8400GS no chinelo. http://informatica.mercadolivre.com.br/placas-video/8600gt_OrderId_PRICE_Qshow_30 Esqueça 8400GS para jogos, vá de 8600GT GDDR3 256MB ou se tiver uns 400 R$ compre uma ATI HD4770 ou nVIDIA GTS250. Se você usa fonte genérica, primeiro compre uma fonte q presta, depois compre uma VGA boa. abraços !
  2. Beleza ! Isso é muito bom porque já temos vários relatos de E8400 C0 e E0 funcionando perfeitamente com as respectivas BIOS16 e Bios18 Beta na IN9 SLI. Agora mete um over ai e volta pra nos dizer se a BISO18 continua sendo excelente pra over assim como a BIOS16. Já para os quad´s de 45nm realmente ainda fica a dúvida, no Hexus tem um cara q rodou um Q9550 na IN9 com a BIOS Beta 18 de boa, tomara q rode mesmo. Ai temos supporte a todas as cpu´s C2D e C2Q de 65nm e 45nm, o q seria interessante. Abraços !
  3. Me adiciona no MSN >> [email protected] Te ajudo com o over de boa ! Garanto FSB@1600 na IN9, sobe bonito ! Abraços !
  4. Sinceramente não vejo muita vantagem em sair de um E6750 para ir pro E8400. Pelo menos se você for usar STOCK. Mais vale meter um over nesse E6750 que bate 3.4 fácil fácil, assim você economiza grana e ganha muuito desempenho ! Sobre o fato de você ressucitar o tópicoi, não tem problema algum, pois é aqui q se discute detalhes da Abit IN9 SLI, você postou no lugar certo !! Sobre o Q9400 eu li no forum da Hexus q um cara, usando o BIOS18, rodou de boa uma Q9550 na IN9 com a BIOS beta 18. Parece q roda tranquilo mas eu não tenho aqui uma CPU dessa pra testar. Em sumo, ou você mete um over nessa tua CPU ai pra 3.4 e fica tranquilo mais um bom tempo (um C2D @ 3.4 tem excelente desempenho) ou mete logo o Q9400 ( se optar por essa saida boa sorte !) Lembre-se q os 650i não são bons de over pra Quad Core, mas são excelentes pra over nos Dual. Aqui rodo o meu FSB@1600 diariamente, e o meu c2D @ 3.6, sólido como uma rocha. Se você quiser te ajuda a meter um over forte ai ! MSN >> [email protected] Abraços !
  5. Cara use Riva Turner que rola de boa.
  6. Interessante cara, A BIOS 16 e 18 suportam perfeitamente os E8400 C0 e E0, era pra rodar de boa ai contigo. Aqui pra mim toh na BIOS 16 @ 8400 C0, até um over rola de boa, rock solid cara. Abraço e boa sorte !
  7. Instale a BIOS16 em modo DOS/PENDRIVE e depois dÊ um clear CMOS. Pode funcionar. Não atualize a BIOS via WinFlash. Boa Sorte !
  8. Boa fonte na minha opinião. Enquenta pouco, não se nota ruídos da FAN de 120mm e as linhas de 3.3v, 5v e as de 12v variam pouco mesmo, pouco se nota. O detalhe fica para um "zumbido" que ela apresenta (somente ocorre em determinado horário do dia, como se fosse relacionado a demanda total da rede elétrica aqui do meu prédio, meio tabajara o prédio na real, feito nas 'coxa'....). Eu não tenho aterramento adequado, fica o detalhe. De resto, é legal saber q ela fornece 700W com 77% de eficiência. Algo positivo, ela está super dimensionada para a potência declarada. Espero q se algum dia eu chegar a este valor, eu não seja sorteado com uma q não desarma, ou seja, queima/explode. Em relação à distribuição da 12v V1 e V2, isso pode ser um fator limitante mesmo. Ficar de olho antes de comprar a fonte para ver se ela vai atender as demandas. Pelo menos com a minha config, que consome apenas 270W com over e tudo, a fonte mal esquenta. Um bom site para calcular da demanda do PC e total do sistema (incluindo Monitor) abaixo amigos: http://web.aanet.com.au/SnooP/psucalc.php Abraços !
  9. Cara não a cheguei a calcular o consumo mas deve ficar nos 350W a 400W no máx, não deve passar disso. Te recomendo q compre uma fonte forte, de 600W para trabalhar com folga e ter possibilidade para up´s futuros. Uma fonte de 450W ou 500W daria conta do recado, mas gosto de trabalhar com uma margem de segurança. Isso pode prejudicar um pouco a eficiência da fonte, mas como vamos pegar uma com certificado 80Plus, isso é meio irrelevante. Desta forma uma boa pedida seria: Seventeam ST-620PAF CORSAIR 620-HX Zalman ZM600-HP Qualquer uma delas é excelente pedida. Como comentei você poderia até pegar uma fonte de qualidade de 400W a 450W que vai tocar tranquilo, mas..... Eu não pegaria ! Abraços !
  10. Na realidade não se pode comparar séries diferentes com 3DMARK06. Não tenho nada contra a 8600GTS, tenho certeza q dá pra se divertir um bocado com ela, mas ela não é td isso q você tá falando cara. O problema dela pra mim era o preço, muito alto para o desempenho q ela apresentava na época. Nunca via uma 8600GTS rodando, somente vi uma 8600GT GDDR3, com clocks de 600/1800, rodando em DX10. O desempenho era regular, nada de extraordinário não. Abração cara !
  11. Nem em todos os cenários a 8600GTS é melhor q a 7900GS. Tenho uma 7900GS e além de ser excelente placa, é melhor q a 8600GTS em alguns games (maioria mais antigos q favorecem a arquitetura do G71). A 8600GTS é boa placa, mas não ganha da 7900GS em todos os cenários, sem falar q a 7900GS é um monstro de over, o ganho com over é bem notável. A minha EVGA bate 600/1600 fácil,e o ganho em cima dos clocks stock da 7900GS comum são notáveis (450/1320). A diferença pra 8600GTS, nos games q favorecem a arquitetura do G80, cai consideravelmente com over. Outro detalhe, a 8600GTS no DX10 sooooooofreeeeee um bocado... Abraços cara !
  12. Isso é porque a 8400GS é muito fraca, tanto para COD4 e COD5. Não desmerecendo a VGA, mas ela é muito limitada para COD5, bota ai 800x600 tudo no Low quem sabe roda bem. FredoPj pode ser q a sua 8400GS tenha morrido, eu tinha uma MX4000 q funcionava normal até o momento de carregar o driver. E o problema era a VGA. Boa Sorte ! Abraços !
  13. Olha só, Não me parece problema de temperatura amigos Malander e Danelon. De todas as VGA´s q já tive, nenhuma deu problema porque chegou nos 70ºC, aliás, essa temperatura é perfeitamente aceitável. Se você conseguir resolver o problema setando o cooler da VGA no máximo parabéns, mas não sei se você vai conseguir aturar o barulho q é o cooler da X1900 no máximo! Nossa é absurdo de alto o barulho mesmo com o gabinete fechado... O meu voto vai pra fonte de energia, VGA ferrada ou algum problema de software (drivers ou windows), agora temperatura não me parece ser o grande problema. Abraços
  14. O estranho é que essa fonte C3 Tech de 650W tem apenas 1 conector PCI-e. A maioria das fontes boas , acima de 500W, tem dois conectores PCI-e, visto a potência da fonte. Desta forma, procure se informar sobre a qualidade dessa fonte, e se possível, teste a tua VGA em outro PC. Se você achar informações ruins sobre essa fonte é muito provavel q ela esteja te atrapalhando. Se tiver como testar a VGa em outro PC, seria bom, mas certifique-se que esse PC tenha um fonte boa! abraços !
  15. "Malander poste ai o set PC completo, CPU, memória, HD´s, tudo mesmo." Essa fonte da C3 Tech é uma incógnita pra mim, tenta dar uma olhada no setor de fontes do forum e vê se tem alguma informação sobre essa fonte, ela pode ser tanto genérica da braba como uma fonte de qualidade. Até aonde sei a C3 Tech tem fontes ruins e boas, mas não sei te dizer a respeito desse modelo q você tem. Posta logo a config do teu sistema, e procure se informar sobre essa 'C3 Tech', se ela é real e possui linhas de 12v fortes. Abraços !
  16. Hummm, Essa Satalite 545K8 é até razoável, mas acho ela fraca pra tocar um PC com uma X1900GT. A série X1900 da ATI consome bastante e se você tiver uma beberrona ( uma CPU AMD Atlhon X2 ou um Intel P4 HT ou Pentium D) ai você pode estar com problemas. Malander poste ai o set PC completo, CPU, memória, HD´s, tudo mesmo. Aparentemente é problema de fonte isso, nem temperatura é porque 70ºC é absolutamente normal para uma VGA do nivel da X1900GT, é como eu falei, a minha chega em 90ºC e NADA de errado acontece. Não parece ser temperatura o problema. Isso é fonte, bem provável, e boa sorte com a sua VGA, tomara q as fontes de energia fracas q você usa não tenham danificado ela. Ae Danelon, com a tua Seventeam750ZAF dá pra ligar o teu PC mais o PC do Malander! kkkkkkkkk Boa sorte !
  17. Boa essa Danelon, placa 'veterana', foi mais elegante do que falar placa velha! Ao amigo Malander, a dica no Danelon é exatamente o que eu te recomendaria. O cooler da sua VGA deve estar entupido de poeira, leva a VGA num posto ou numa mecânica que tenha um c compressor de ar, e dá um belo jato de ar nela, limpando bem o cooler e dissipadores! Acho interessante você comentar q a sua VGA reinicia quando chega nos 70ºC, visto q a minha chega nos 90ºC tranquilo, e nunca aconteceu nada de errado. Qual o fabricante da sua fonte de energia? Abraços !
  18. R580 has 48 Pixel Shaders The Story "In the R580 case, the chip has 16 traditional pipelines that can process 16 textures while at the same time it can calculate 48 pixel data. The RV530 marchitecture is a good way to understand what ATI is doing now. With this chip, you have 12 pixel Shaders but just four texture memory units. Its a 3:1 ratio, as ATI believes that you need that many pixel information compared to textures." If you don't understand that, it means that the r580 will only have 16 pipelines, but can process 48 pixels per clock using 4 pixel shaders in every pixel pipeline, and can process 1 texture per clock using 1 Texture Mapping Unit(TMU) for every pixel pipeline. That means if the r580 is clocked at the same speed as the x1800xt, it will process 30,000 pixels per second, which is literally 3 times what the x1800xt can do, and more than twice what the 512MB 7800GTX can do. ATI's done the same thing with the rv530, or x1600 cards. The x1600xt has 4 pixel pipelines, and 12 pixel shader units. It's pretty easy to see how a card with that kind of setup will do in games. Compare the x1600xt to the x800 to see what I mean. Both cards have the same memory bandwith, and they both have the same number of pixel shaders. The only major difference is in the core speed, which is 600mhz on the x1600xt and 392mhz on the x800. With the 53% increase in core speed, you would expect the x1600xt to be at least 20% faster in games, right? This article from Anandtech.com says otherwise. The x1600xt is usually beaten by or equal to the x800, and sometimes even the 8 pipeline 6600gt. The only exception being BattleField 2, where the x1600xt completely destroyed both cards(not bad for a 4 pipeline card). The x1600xt has 53% more pixel processing power on the core, but can barely compete with the cards that have the full 12 pipelines. In fact, the card is closer in performance with an 8 pipeline card with those same specs, suggesting that a single pipeline setup like the rv530 is just as good as 2 pipelines with the old pixel pipeline setup. Using that information, you can guess that the r580, with 48 pixel shaders on 16 pipelines will be just as effective as 32 full pixel pipelines. The only information needed now is the clock speed and memory specs, and we can figure out how fast this card really is. Though, even if the r580 was to be 625mhz, like the x1800xt, it would be at least twice as powerful as the x1800xt. On a side note, I'm pretty sure with 32 pixel pipelines, Nvidia will also increase the number of ROPs on the card, to keep with the 2:3 ratio of ROPs and pixel pipelines as the article suggests, producing 32 pixels and 24 textures per clock, instead of 24 pixels and 16 textures, like the G70 is now. Having fewer ROPs didn't really hurt the performance of the cards at all, in fact, when you compare it to the benchmarks for the 7800GS, the 7800gtx is up to 50% faster while using 50% more pipelines. The rv530 is only 100% faster than a 4 pipe card would be, and has 200% more pipelines. Since the r580 will be just as efficient as a 32 pipeline card, ATI will have to give it some serious clock speed to compete with the rumored 700mhz core on the G71. Though, if developers make games to take advantage of the new setup, the r580 should act like a full 48 pipeline card! Sadly, though, if that happened, your older cards would obviously be destroyed by comparison. ----------------------------------------------------------------------------------------------------------- Apesar de estar em inglês, o texto aponta para os fatores que limitavam o desempenho do R580 no passado, e o porque q essa GPU é tão forte no presente. Estou meio enrolado no trabalho, mas assim q possível retornarei aos testes com o R580. Valeu !
  19. Deve ser porque você está usando memórias com timmgs diferentes, ai o problema dos travamentos. Verifique isso. Antes de colocar os pentes tente dar um clear cmos, tb dê um leve overvolt nas memo, com 4 pentes de 1 GB eu preciso de 1.95v para estabilizar as memo 667@ 830 Mhz 4-4-4-12 CR2... Tente isso tb... Boa Sorte, detalhe aqui o dual channel funciona de boa. Tenho 4 x 1 GB KVR Elpida original 667 rodando a 830, um mega over e tudo roda normal. Valeu !
  20. Muito show as S.S estarei postando o DIRT tb pra gente comparar. MAs acho q rodo ele em 1600x1200, 2X A.A e MEDIUM settings, com média de 26 a 32 fps. Abraços e belas S.S !
  21. Melhor custo/benefício Impossível! Esperar os modelos com over de fábrica é uma boa ideia! Eu toh desconfiado q dá pra ir loooooooooonnnnge no over!!!!
  22. Dei uma olhada em alguns reviews (todos antigos infelizmente, mas dá para ter uma ideia do tamanho do pipino) para justamente verificar a diferença de desempenho entre ambas. Vejam q apenas quero fazer um comparativo entre ambas, sendo q este comparativo nem é válido pois os drivers da ATI e nVIDIA evoluiram muito de Feb 2007 pra cá, melhorando tanto o desempenho da X1900 como da 8800. ************************************************************************* Primeiro review Feb 2007: www.trustedreviews.com http://www.trustedreviews.com/graphics/review/2007/02/13/nVidia-GeForce-8800GTS-320MB/p1 BattleField2 (1600x1200 | 4X A.A | 8X A.F) Não temos vencedor claro nesse título, visto q a ATI tem mesmo desempenho da nVIDIA na resolução citada. Neck-to-Neck. Call Of Duty 2 (1600x1200 | 4X A.A | 8X A.F) Neste jogo a X1950XTX é quase 100% mais rápida q a 880GTS 320Mb. Counter Strike - Source (1600x1200 | 4X A.A | 8X A.F) Neste jogo a X1950XTX é 20% mais rápida q a 880GTS 320Mb. Quake 4 (1600x1200 | 4X A.A | 8X A.F) Neste jogo a 8800GTS 320Mb é 20% mais rápida q a X1950XTX. Prey (1600x1200 | 4X A.A | 8X A.F) Neste jogo a 8800GTS 320Mb é 10 fps mais rápida q a X1950XTX 512 MB. Segundo review Feb 2007: www.bit-tech.net http://www.bit-tech.net/hardware/graphics/2007/02/13/nvidia_geforce_8800_gts_320mb/5 Company Of Heroes (1600x1200 | 0X A.A | 16X A.F) Neste jogo a 8800GTS 320MB Superclocked tem piores fps máximos, mas melhores fps mínimos. Neck-to-Neck Half Life 2 (1600x1200 | 4X A.A | 8X A.F) Neste jogo a 8800GTS 320Mb é mais de 20% superior q a X1950XTX. F.E.A.R (1600x1200 | 4X A.A | 8X A.F) Neste jogo a 8800GTS 320Mb é inferior a X1950XTX tanto nos fps mínimos como máximos. Terceiro review Março 2007: www.anandtech.com http://www.anandtech.com/video/showdoc.aspx?i=2953&p=9 Oblivion (1600x1200 | ?? A.A | ?? A.F) Neste jogo a 8800GTS 320Mb bate 36 fps e é superior a X1950XTX, que bate 26 fps. Rain Bown Six Vegas (1600x1200 | ?? A.A | ?? A.F) Neste jogo a 8800GTS 320Mb bate 28 fps e é superior a X1950XTX, que bate 21 fps. ************************************************************************* Eu até poderia pegar mais testes q achei na net mas isso já basta para uma análise rápida. Algumas conclusões: 1º - A arquitetura da ATI leva vantagem nos games mais antigos sim, mas temos q ressaltar que a nVIDIA ganhou muito desempenho com os drivers otimizados para a série 8 em jogos antigos, muito provável q a 8800GTS já tenha recuperado muito do terreno perdido para a X1900XTX. A diferença ente ambas é marginal e pequena nos games citados (antigos), acredito que com drivers novos e games mais novos a 8800GTS tende a tirar/ter ainda mais vantagem. 2º - Com certeza a ATI X 1900XTX teve ganho de desempenho com drivers mais novos de 2007 pra cá, assim como a 8800GTS, mas não sei citar um percentual de ganho da nVIDIA e da ATI. Acredito fortemente q, como a série 8 tinha uma arquitetura bem mais recente na época dos reviews do que a X1900, a probabilidade de um maior ganho de desempenho por parte da 8800GTS tb é maior. Ponto pra 8800GTS 320MB. 3º - Quanto maior a resolução, maior a vantagem da 8800GTS. Quanto menor a resolução, melhor vantagem para a X1900XTX. Interessante isso mesmo porque a ATI tem mais memoria q a nVIDIA. Claramente a arquitetura mais avançada da GTS tira vantagem neste cenário, sendo q mesmo a GTS tendo menos memoria de buffer, tem melhor desempenho em resoluções maiores a 1600x1200. 4º - Infelizmente não achei reviews com games mais novos. Neste games a 8800GTS deve ganhar fácil, com boa diferença de uns 30% a 40% pelo que pude constatar. Em games novos q favorecem a ATI, essa diferença deve ser (acredito eu), menor q 30%. 5º - O consumo de energia de ambas é alto, mas a ATI mesmo assim consome mais q a nVIDIA pelo q pude constatar, e tem menor desempenho. O consumo é uns 30% maior na ATI. 6º - Peguei os valores da 8800GTS Stock. Se você fazer um over nela a diferença pra ATI é ainda maior. A ATI não faz bom over até onde pude testar, acho q os Catalist 9.2 capam o over nas séries antigas, não sei ao certo. Em sumo, ainda tem mais performance pra espremer da 8800GTS se você gosta de over. 7º - Se você pegar a 8800GTS de 640Mb ela é ainda mais superior q a X1900XTX. Pouca mas notável a diferença a mais de performance dos 320Mb extras da 8800GTS 640Mb. 8º - Os testes foram feitos em DX 9.0c e OpenGL em alguns games eu acho. Se você colcoar a GTS pra rodar em DX10 eu acredito q se perca um pouco de desempenho, de 5% a 10% devido aos efeitos de shaders mais pesados do DX10. É isso ai galera se você tá na dúvida entre 8800GTS320Mb e uma X1900XTX 512 Mb vá de 8800GTS320MB toda vida. Agora se você TEM uma X1900XTX e quer trocar por uma 8800GTS 320Mb, ai não vale a pena, procure algo mais forte porque a diferença não é tão significativa. Abraços e se falei besteira podem me corrigir ! T+ P.S: Pessoal não fiz isso com o intuito de arrumar problemas com os donos de 8800GTS, é apenas uma visão sobre o assunto sob a minha opinião. Note q a 8800GTS é o vencedor aqui, mas a diferença não é brutal.
  23. Cara acho q não existe mais placas da série ATI X1X00 a venda, assim como GeForce 7X00. São placas muito fortes mas tb muito antigas, difícil achar elas. Eu acho sim q uma X1900XTX tem desempenho próximo a 8800GTS 320Mb, agora superior eu acho difícil. Em relação a diferença de desempenho de uma 1900XTX pra 1950XTX, a princípio, não é muito grande. Infelizmente a maioria dos reviews é antigo, com jogos e drivers antigos, então fica complicado pra fazer um levantamento desses, só tendo as VGA pra testar. Mas tecnicamente, a X1950XTX tem 25% a mais de banda de memória q a X1900XTX, e tenho certeza q isso deve dar uma diferença significativa em cenários de maior carga, ou seja, nos fps mínimos nos jogos. Abraços !
  24. Posta ai os seus testes, não q eu duvide de você, tb tenho uma e sei q ela é um monstrinho, mas já q você falou, agora poste ! O legal do Tozan é q na caixa tá escrito assim: "Venda exclusiva para uso Profissional" Abraços !
  25. >>Tozan! Thinner oficial para uso em produtos da AMD/ATI !!<< TOZAN, Você conhece !! Você confia !!! Conheça o Novo AMD Phenon Tozan Edition, a única CPU q com a garantia excusiva Tozan ! Conheça a linha completa de produtos Tozan no distribuidor AMD/ATI mais próximo de você !! Nova ATI X1900XTX Tozan Edition, extreme performance para os gamers q não tem dó do seu equipamento (exclusiva garantia vitalícia Tozan !!!) !! Master Thinner Presents ! Core 2 Due E8400 : 500 R$ Fonte Zalman 360APS: 280 R$ CORSAIR 2x 2 GB Dual KIT: 320 R$ ATI X1900XTX segunda mão q não dá video: 300 R$ ASUS P5LD2-SE: 240 R$ Tacar Thinner na porr@ da VGA, porque ela não 'dava vídeo', resolver o problema e ainda por cima e não estragar NADA, não tem preço!! Abraço Adriano é brincadeira cara, fica de boa e curte a sua XTX, posta S.S de game ai !!!

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!