Ir ao conteúdo
  • Cadastre-se

Child of Sin

Membro Pleno
  • Posts

    1.557
  • Cadastrado em

  • Última visita

Tudo que Child of Sin postou

  1. Procurando pelas especificações do modelo do monitor, geralmente encontradas no site do fabricante. Nas especificações normalmente é citado o suporte ou não a HDCP.
  2. Você terá que utilizar o cabo AV do PS3 e um adaptador com 2x RCA Fêmea em uma ponta e na outra uma conexão P2 Fêmea para ligar no kit de som, e alterar a opção de saída de audio no PS3. Mas desse jeito você terá que trocar entre PS3 e PC cada vez que quiser ouvir o audio de um dos 2.
  3. No ar não chega a 4,0Ghz, e na verdade dificilmente chega a 3,8Ghz, isso com estabilidade é claro. Clockar a 4,0Ghz e estabilizar a 4,0Ghz são duas coisas extremamente diferentes, assim como é o caso do 8,0Ghz com Nitro/LN2, mal conseguem ligar o PC e tirar a foto. Aqui o meu está a 3,6Ghz com 1,46v, sendo que o máximo de Vcore recomendado pela AMD quando utilizando coolers a ar é 1,55v. Para ter uma ideia, para 3,7Ghz ele precisa de 1,52v para estabilizar. Sobre a diferença entre Core i7 e Phenom II tudo depende do jogo e qual a placa de vídeo utilizada. Quando utilizando somente 1 placa (do porte da GTX285 e HD4890) geralmente a diferença é pouca quando jogando em altas resoluções, filtros, etc. Já com soluções multi GPU, como no meu caso ou uma HD4870x2, GTX295 e HD5970, ou até mesmo uma Single mais atual como a HD5870 o Core i7 dá uma certa diferença em alguns jogos.
  4. Ah sim, baixo o consumo não é, mas como eu gasto apenas umas 2 ou 3 horas por dia jogando no PC, a diferença na conta de luz nem deve ser muito grande. O meu processador não chega a 4Ghz, o máximo de clock (com Vcore não muito alto) é 3,6Ghz mesmo, como na grande maioria dos Phenom II. Claro que um processador mais forte, como um Core i7, daria mais ganho ainda no Cross, mas o resultado atual que possuo já está ótimo. Olha a única diferença que pude notar foi o aumento da temperatura da placa mãe, mas foi coisa de +2/+3ºC, o resto dos componentes aparentemente continua na mesma média de antes da adição da 2ª placa de vídeo.
  5. GTA IV eu acho complicado fazer bench, o jogo tem muita oscilação de desempenho dependendo da área da cidade e da quantidade de movimentação na mesma. Os testes que você citou irei fazer e posto aqui depois. Sobre o 3DMark06, o seu resultado foi tão bom em Single por conta do maior clock do processador e da placa de vídeo. Além disso, como o teste do 3DMark06 é feito em 1280x1024 sem filtros, acho que para o resultado do Cross ser maior só com mais desempenho de processador, fato que aqui já está no limite. Warhead 1680x1050 - Enthusiast - DX10 - AA4x Street Fighter IV - 1680x1050 - All Max - AA8x - AF16x - Extra Touch OFF Até agora não senti muita diferença nas temperaturas do gab, até porque é um CM690 todo equipado com fans, por isso acho que o a nova quantia de calor gerada pela nova placa não deve dar muita diferença. Além disso, como as HD4890 jogam parte do ar quente diretamente para fora do gab pelas ranhuras traseiras da placa, pouco ar quente gerado por elas fica retido dentro do gab. Eu acho que você viu errado meus testes, no Crysis em Very High o mínimo foi 29 FPS e Average 47. Já no Warhead, o mínimo foi 28 FPS e o Average 51 FPS. Sobre o consumo, sim é alto, mas vale lembrar que é difícil as 2 GPU's serem utilizadas 100% do tempo quando jogando, somente alguns jogos realizam esse fato. Já para muitos jogos, utilizando VSync, como as 2 GPU's não são utilizadas 100% o consumo também fica menor. E cada VGA não consome 200w, o TDP (que é o calor gerado) é estimado em 180w. Em testes de consumo pela internet, um kit Core i7 + Cross de HD4890 em pico (todos os componentes em 100% de uso) consomem entre 450w a 500w.
  6. continuação... DiRT 2 - Ultra - DX9 - AA4x Far Cry 2 Call of Juarez - High DX10 Warhead - Gamer DX10 Warhead - Enthusiast DX10 Lost Planet DX10 - All Max/DX10 AA4x AF16x
  7. Fala galera! Sem delongas, vou direto ao assunto. Resolvi pegar outra HD4890 e formar um Cross, nem tanto pela questão do desempenho, mas sim pelo fato de poder finalmente testar uma solução Multi Card/GPU. Claro que, o desempenho também foi algo visado! Para formar uma dupla com a minha HIS HD4890, peguei uma XFX HD4890 serial HD-489X-ZSFC Ver 1.6. De cara, posso lhes garantir que esse modelo não sofre de problema de desempenho visto em alguns modelos de HD4890 da XFX. Um ponto a ser notar nessa VGA, é que pelo que pude notar os chips de memória e o VRM não possuem dissipadores. Não desmontei a placa para ter certeza, mas a vista que tive foi essa. Apesar disso, a temperatura da VRAM ficou igual a vista na HIS (que possui cooler de referência). Sobre o VRM, esse modelo da XFX não possui sensor de temperatura para ele. O cooler desse modelo da XFX possui 4 heatpipes de cobre sobre o die da GPU (não em contato direto, existe uma base) e aletas de aluminium dos 2 lados da placa, e a saída de ar também se faz por ambos os lados. O cooler dsse modelo também é Dual Slot e possui as ranhuras traseiras para expelir parte do ar quente gerado. O fan, em 100% de uso da VGA, também vai a 100% de RPM, e faz mais barulho que o fan de referência da ATI em 30/35% (suficiente para gerar as mesmas temperaturas da XFX). Um ponto a se notar é que esse fan não possui sensor de velocidade, mas o mesmo funciona de forma exemplar mesmo com o CCC controlando a velocidade. Quando jogando, o fan sobe rapidamente o RPM, e ao sair do jogo, logo o diminui. Teste da XFX no Vantage: Mas chega de "lenga lenga", vamos as fotos e alguns testes. Se quiserem algum teste em especifico, se possível e dependendo do meu tempo, irei postando. Além disso, seria interessante se alguém tivesse um Cross similar com um processador Intel, para verificarmos as diferenças de desempenho entre as plataformas. Configuração utilizada nos testes: M3A79-T Deluxe Phenom II 940 BE @ 3.6Ghz/NB 2.4Ghz/HT 2.0Ghz 2x 2GB DDR2 1066 G.Skill 5-5-5-15 2x HD4890 HD's WD Velociraptor (Win) e Samsung 103 UJ (jogos) em AHCI Corsair HX620 Win 7 x64 3DMark06 3DMark Vantage Crysis High DX10 Crysis Very High DX10
  8. Encontrei ela no ML por R$ 575, achei bom o preço, mas era a última do vendedor. Os outros 2 vendedores que possuem HD4890 anunciadas no ML não respondem qual modelo estão enviando aos compradores, e ainda exibem fotos da versão de referência (PCB vermelho) da placa, lamentável. Tem uma dessas igual ao que eu comprei na PlugInformática támbém, mas está R$ 699. Eu queria MUITO comprar uma Vapor-X, mas não tem jeito de encontrar mais.
  9. Pois é galera, resolvi arriscar e pegar uma HD4890 da XFX, peguei o modelo ZSFC, que pelo que andei lendo é o último disponível e já não possui mais o problema de desempenho...veremos quando a placa chegar aqui. Se der tudo certo, posto os resultados do Cross por aqui.
  10. Alguém sabe de alguma loja online que tenha HD4890 de outras marcas que não seja XFX? Já procurei em todos os sites que conheço e infelizmente não encontrei. Estou pensando em montar um Cross, mas como só encontro HD4890 da XFX, que vai meio da "loteria" em pegar uma placa boa, estou quase desistindo da ideia.
  11. Normal, principalmente se for um SLIM. Aqui também faz essa barulheira toda, principalmente quando o console está aquecendo (nos primeiros 30min ligados) ou esfriando (nos primeiros 30min desligado) e pelo que pude notar é a carcaça externa que faz esses barulhos/estalos.
  12. Esqueceu de citar o principal dessa configuração...a fonte! É necessária uma fonte no mínimo boa para rodar tudo isso, de marca conceituada e uns 450W no mínimo. Temperaturas estão normais, e tenho minhas dúvidas que o problema esteja relacionado à HD4890 em si, a não ser que a mesma esteja com algum defeito.
  13. Na verdadem utilizando o adaptador DVI>HDMI que acompanha a linha HD4xxx, o audio é sim transportado pela saída DVI, eu utilizo isso aqui, ligando o PC em uma TV LCD por um cabo HDMI. Eu só precisei instalar um driver da Realtek, sendo que este é o mesmo driver presente no site da ATI, isso no Win XP. No Win 7, eu notei que o OS reconheceu automáticamente o Audio HDMI da placa de video, mas esqueci de testar o mesmo antes de instalar o driver da Realtek. Vale lembrar que para o audio realmente sair pela conexão HDMI, deve-se modificar o hardware de som no Windows, deixado padrão o dispositivo da ATI. EDIT: Estou achando esse tópico muita conversa e pouca ação...vou começar a postar uns testes aqui...ahahhaha Desempenho da DEMO do Dirt 2 aqui no meu PC. Phenom II @ 3.6Ghz + HD4890 @ 900/4200Mhz 1680x1050 - Ultra - MSAA4x
  14. Eu não sei se o PS3 reconhece HD's pelas portas USB's, nunca ouvi nada a respeito disso ou alguém que tenha tentado. Eu sei que o pessoal troca o HD INTERNO do PS3, e isso é fácil de fazer, pois não precisa abrir o PS3 para realizar o processo, e até o manual do PS3 explica como fazer isso. Agora, caso for trocar o HD, não sei dizer como é que se faz para realizar um backup de tudo o que você tem gravado nele, tipo se conectar no PC reconhece e tlz. EDIT: Andei lendo um pouco agora e parece que funciona sim, mas talvez o seu problema seja o cabo. Eu tenho um WD de 320GB externo que uso para o PC, com ele veio um cabo USB grosso de uns 30cm que funciona normalmente. Já se eu usar esses cabos USB's "normais" que acompanham MP4/MP3,etc (que geralmente são maiores e mais finos) o HD não funciona direito. Pelo que lí na época, se o cabo USB for muito grande a energia não consegue se manter por completa até a saída do cabo, e causa o mal funcionamento do HD.
  15. O teu problema não são os cabos, e sim o MONITOR. Só pra esclarecer, DVI e HDMI são ambos padrões digitais para transmissão de imagem, única diferença é que o HDMI transmite o Audio junto no mesmo cabo, e o DVI não. A qualidade de imagem de ambos é estritamente a mesma. Li a alguns posts atrás que o teu monitor é um Samsung T220, este que possui resolução de 1680x1050, correto? Primeiramente, esse monitor não suporta padrões 1080i/p, mesmo que a imagem venha a ser exibida no monitor, certamente ocorrerá distorção na imagem e outros problemas, como a tela ficar piscando, etc. No meu 2232BW aqui (1680x1050) ele até mostra a imagem em 1080i, mas fica pior do que em 720p pelo fato do monitor são suportar o padrão 1080i/p. Segundo que, como já expliquei anteriormente, alguns jogos mais antigos (e até alguns novos) do PS3 não rodam em 1080i/p, e sim apenas em 720p. Se o seu monitor/TV LCD tiver uma resolução nativa maior que a que está sendo enviada pelo PS3, a imagem será "esticada" para preencher todo o ecrã do monitor, e isso causa perda de definição e grande perda na qualidade de imagem. E não importa se você deixar em 1080i/p na XMB do PS3, se o jogo não tiver suporte a 1080i/p, no momento em que o jogo for iniciado, será utilizada a resolução mais baixa que esteja marcada na XMB, que no caso será 480i, 480p, 720p. Eu tenho um PS3, pode ter certeza que sei muito bem do que estou falando (escrevendo).
  16. A qualidade da imagem do PS3 não fica 100% em monitores pois muitos jogos rodam apenas em 720p. Por exemplo, você tem o PS3 ligado a um monitor 1920x1080 e o PS3 está configurado em 1080p, em jogos que rodam em 1080p fica bonito, mas jogos que não tem suporte a 1080i/p, é utilizada a resolução mais baixa marcada na XMB, que no caso seria 720p. Com o jogo rodando em 720p, o monitor "estica" a imagem para preencher todo o ecrã, e isso causa perda de qualidade e principalmente a sensação da imagem estar "embaçada" e sem definição. Aqui testei o PS3 em 720p no Samsung 2232BW que é 1680x1050 com cabo HDMI > DVI, e sinceramente, na minha TV de 29" rodando em 480p os jogos ficam mais bonitos que no monitor em 720p, justamente por conta do "esticamento" da imagem. Na minha opinião, o melhor para o PS3 não é uma TV Full HD, mas sim uma com resolução nativa de 720p ou semelhante, já que nem todos os jogos suportam 1080i/1080p. Já o X360 é um caso diferente, o console escalona todos os jogos para a resolução escolhida na Dash, não importando qual jogo for, além do X360 ter opções de resoluções 16:10. Nesse quesito, o X360 é bem melhor que o PS3 e, sinceramente, não sei por que a Sony ainda não corrigiu isso.
  17. Ví esse anúncio, esse vendedor fez um preço MUITO bom. Ruim é esperar 1 mês ou mais pra ter a placa em mãos...aí num dá. Vixe nem me fale, a vontade de catar uma sempre é grande, mas o "juizômetro" apita BEM alto quando penso nisso...ahahh
  18. Vsync é uma opção existente nos jogos (e também no driver de vídeo da placa) para fixar a taxa de frames por segundo (FPS) em jogos no mesmo valor da taxa de atualização do monitor, e assim, diminuir o consumo elétrico e aquecimento da placa. Por exemplo, você possui um monitor LCD com taxa de atualização de 60Hz. Ao rodar um jogo bem leve sem o Vsync habilitado, a taxa de frames pode vir a ficar acima dos 100 FPS ou mais, sendo que, para a visão humana, o máximo que podemos distinguir são 60 FPS, valores acima desse, não fazem diferença na visualização do jogo. Desse mobo, essa "sobra" de frames exibidos não faz diferença, e a placa mesmo assim fica trabalhando em quase 100% exibindo frames que "não enxergamos". Habilitando o Vsync, os frames ficarão fixados em 60 FPS, diminuindo o consumo e aquecimento da placa, pois ela não processa o excedente de frames como anteriormente. Por isso que, habilitando o Vsync diminui o ruído do VRM. Como o ruído aumenta de acordo com a porcentagem utilização da placa, situações como em menus dos jogos onde a taxa de frames chega a mais de 500 FPS, causam o aumento do ruído. Já com o Vsync, como a taxa ficará em 60 FPS mesmo nos menus, a porcentagem de uso da placa de vídeo diminui, assim como o ruído. O Vsync também serve para "limpar" um efeito bem comum em alguns jogos, onde riscos horizontais cruzam a imagem rapidamente quando você move a imagem muito rápido. Esse efeito é bastante visto em jogos de tiro em primeira pessoa e, mesmo que a taxa de frames do jogo em si não ultrapasse os 60 FPS, habilitar o Vsync tira esse efeito incômodo. O gerenciamento automático já é suficiente.
  19. Sim sim, aqui também é assim, é normal, quanto mais alimentação a placa precisa, mais o VRM trabalha e o ruido aumenta. Dizem que são os capacitores que fazem esse barulho. Em jogos, geralmente habilitando o Vsync diminui bastante o ruido.
  20. É o circuito regulador de tensão da placa de vídeo, ele é responsável por gerar as tensões que alimentam a GPU, chips de memória, etc.
  21. HD5870 sem disponibilidade para vendas http://www.fudzilla.com/content/view/15673/34/ xiiiiii...HD4870 "Round 2" ao quadrado (não sei como se faz ao quadrado pelo teclado:p). Coisa tá feia, galera doida atrás das placas (não aqui no Brasil, é claro) e não as encontram disponíveis à venda. Bem que a ATI poderia ter esperado umas 2 semanas pra ter um estoque bom antes de lançarem a série, não acham???
  22. Normal, é o famoso ruído gerado pelo VRM da placa, a minha também faz isso.
  23. Qual a aparência da placa? PCB vermelho ou preto? Quais os clocks? Tem algum nome/serial escrito na caixa ou na etiqueta do código de barras?
  24. Cara na boa, não entendi quase nada do que você escreveu (sim, reli várias vezes) e nem sei por que você misturou tanto assunto sobre uma resposta simples como eu dei anteriormente. Vou responder apenas ao que eu consegui entender. Pode acontecer de alguns chips produzidos não ficarem estáveis com seus respectivos clocks da mesma forma que outros chips conseguem. Sendo assim, a tendência é aumentar um pouco a tensão do chip pela Bios da placa de vídeo e, por segurança, é feita a troca para o conector 8 pinos (que pode fornecer mais energia) para garantir que toda a watagem necessária seja destinada ao chip e a placa em um todo. Além disso, com essa questão de aumento de tensão, pode acontecer da GPU não estabilizar nem com +10Mhz de overclock por falta de alimentação correta se usar 2x 6 pinos, o que certamente faz com que usuários queiram devolver as suas placas por relatarem que as mesmas estão com problemas. Ou seja, adiciona-se o 8 pinos por questão de segurança mesmo. MAS eu não tenho certeza se é por isso que a XFX resolveu impor 1x 8 pinos e 1x 6 pinos em algumas placas com clocks stock, já que ela foi a única a fazer isso. Sim, estão corretos. Você pode pesquisar em qualquer lugar que encontrará os mesmos valores que lhe citei sobre a wattagem dos conectores de alimentação auxiliar PCI-E. Sobre a GTX 295, ela também pode receber até 75W de um barramento PCI-E 1.1 ou até 150W de um barramento PCI-E 2.0 (que na verdade só usam 75W desse barramento também). Sendo assim, 75W + 75W + 150W = 300W de alimentação total para a placa, suprindo o valor do TDP (que pelo que eu saiba não é consumo, e sim aquecimento gerado) de 289W.
  25. Na verdade o cabo de alimentação auxiliar PCI-Express 6 pinos pode fornecer até 75W, já o 8 pinos até 150W. Ou seja, maior quantidade de pinos não significa "espalhar melhor a alimentação". E se você for analisar, os conversores decentes de 6 pinos para 8 pinos utilizam 2 entradas 6 pinos para 1 saída 8 pinos.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!