Ir ao conteúdo
  • Cadastre-se

KairanD

Coordenador
  • Posts

    15.730
  • Cadastrado em

  • Última visita

Tudo que KairanD postou

  1. Segundo o site TechPowerUP, o consumo médio da GTX 960 em jogos é de 110W. O consumo médio da R9 280X em jogos é 216W. Realmente é uma diferença notável. Qual é o modelo da fonte? Qual é a potência dela? A PCYes! produz fontes de ótima qualidade. Sobre "gastar muita energia", a diferença na conta de luz é irrelevante (apesar da diferença se consumo ser considerável), isso é besteira. Tem que ver é se a fonte suporta bem a R9 280X mesmo. Se for a de 500W, suporta. Se for a de 430W, não é adequado. A R9 280X é superior à GTX 960 pelo mesmo preço. Se sua fonte for adequada, é uma opção mais vantajosa. Se optar pela GTX 960, só recomendo o modelo de 4GB se a diferença de preço para o de 2GB for pequena. A placa não tem tanta potência assim para explorar direito essa memória a mais e o preço fica alto: geralmente é melhor pensar logo na GTX 970. E, com a GTX 960 ou R9 280X, não vai haver diferença de performance relevante entre os dois processadores citados (nem mesmo se fosse a GTX 970). Tem gente que detesta os HDs da Seagate. Tem gente que adora os HDs da Seagate. Eu, particularmente, usei tanto Seagate quanto Western Digital durante anos, inclusive recomendando para diversas pessoas, e nenhuma das duas marcas me trouxe problemas. Recomendo as duas de forma igualitária, compraria o que estiver mais barato ou disponível: tanto faz. Não compre monitores abaixo da resolução Full HD. Vai "matar" uma GTX 960 ou R9 280X. Se você quer realmente curtir o potencial da placa, precisa de um monitor/TV com resolução Full HD. Não vale a pena sair de 720p ou 768p para 900p. Sei que não foi pra mim, mas por que alguém deixaria de citar que existe um produto com performance melhor (R9 280X) com o mesmo preço de um com performance inferior (GTX 960)? Qual é seu problema com as AMDs R7 e R9? Há algo contra a AMD no geral? A GTX 960 é uma ótima placa de vídeo, sem dúvidas, mas a R9 280X pode compensar mais dependendo do preço. Uma fonte como a CX430 suporta uma GTX 960 com uma boa folga. Logo, é óbvio que é uma ótima opção a ser recomendada para quem quer gastar pouco (observando a questão dos conectores de energia). A fonte de 500W só seria necessária no caso da R9 280X (apesar de poder suportar, passa longe de ser adequado ligar uma R9 280X em uma fonte de 430W). Porém, como eu sempre comento aqui, se a diferença de preço for pequena e o usuário puder gastar, é sempre bom pegar a fonte de 500W, mesmo para a GTX 960. Ou mesmo uma de 600W. Acima disso não compensa.
  2. Agradeço pela indicação. Darei uma olhada. Certamente os testes serão mais precisos. @Edit Excelente teste. Realmente é uma ótima referência. Confirmou tudo o que eu havia dito. Nesse caso, é irrelevante. Qualquer uma das placas de vídeo citadas apresenta consumo muito baixo. As fontes de boa qualidade mais simples existentes no mercado, como a Corsair CX430, suportam qualquer configuração com essas placas com uma folga enorme. Não tem motivo para a diferença de consumo ter relevância. O que importa aqui é desempenho e preço.
  3. A sucata (sim, é um termo bem apropriado) da WiseCase teria que ser trocada de qualquer jeito. Para a fonte nova, qualquer uma das duas placas em pico de carga funcionaria tranquilamente. Além disso, o consumo real das placas durante jogos (92W x 62W) é irrelevante como critério de decisão até mesmo se for considerar diferenças na conta de luz a longo prazo (o que é, comumente, irrelevante, de qualquer forma). Conclui-se, portanto, que esse fator não é algo para decidir entre uma ou outra placa.
  4. @Dimitriusbueno, sua interpretação está equivocada. Confesso que não havia lido o teste do Guru3D porque não havia tempo. Nem mesmo li o teste do Tom's Hardware, apenas coletei os dados. Apenas estava dando uma olhada no Fórum e quis responder, seguramente, depois de ler sua afirmação sobre o pico de energia da R7 260X. Mas, para encurtar as coisas, comece considerando todos os modelos de R7 260X que você conhece. Todas possuem apenas um conector PCI de 6 pinos, correto? Considerando que o máximo que pode ser cedido por esse conector é 75W, e que o próprio slot PCI-E fornece 75W, temos um total de 150W. Isso é o máximo que está disponível para a placa de vídeo. Como você afirma que a placa apresenta picos de 220W, sendo que a quantidade máxima que ela tem acesso é de 150W? Pois, já poderíamos concluir a ideia por aí. Mas, explicando: Segundo o Guru 3D, "we'll be calculating the GPU power consumption here, not the total PC power consumption". Repare que eles vão é calcular o consumo da placa de vídeo, não medir diretamente. Continuando: Power consumption AMD Radeon R7-260X System in IDLE = 118W System Wattage with GPU in FULL Stress = 221W Difference (GPU load) = 103W Add average IDLE wattage ~10W Subjective obtained GPU power consumption = ~ 113 Watts Repare na palavra "system", nas duas primeiras linhas. A primeira quer dizer "sistema inativo". A segunda, "potência do sistema com a placa de vídeo em stress máximo". Esse é o consumo do sistema inteiro. Continuando: "we simply stress the GPU, not the processor. The before and after wattage will tell us roughly how much power a graphics card is consuming under load". Ou seja, o cálculo é feito simplesmente como carga total do sistema com apenas a placa de vídeo estressada menos carga do sistema parado (221W - 118W = 103W). A isso foi somado o consumo da placa de vídeo parada (em torno de 10W). Dessa forma, eles estimam o consumo da placa de vídeo que, portanto, foi baseado em pico máximo de uso em condições extremas, e não no consumo médio durante jogos. Concluímos, portanto, que esse valor obtido no teste deles não é uma média de consumo para o usuário gamer para ser comparada com a média de consumo da GTX 750Ti, porque foi baseada no limite. O site Guru3D aponta claramente: "above, we have a chart of relative power consumption. Again the Wattage shown is the card with the GPU(s) stressed 100%, showing only the peak GPU power draw, not the power consumption of the entire PC and not the average gaming power consumption". O gráfico a que ele se refere é esse: Como pode ver, o pico da R7 260X é de 113W, isso no teste deles que envolve apenas condição de stress extrema, como eles afirmaram. A conclusão final é, portanto, que o pico da R7 260X passa longe de 220W e que o teste deles constitui demanda de energia em condições extremas e não uma média para o usuário gamer que possa ser comparada com a média da GTX 750Ti comentada anteriormente. Recomendo, pois, uma leitura atenta ao teste. A comparação correta para a R7 260X seria: Guru 3D: 113W em pico de carga; Tom's Hardware: 129W em pico de carga. O objetivo do teste do Guru3D é focado em apenas dimensionar a fonte de alimentação encontrando o pico máximo de consumo da placa de vídeo, um número que ela seguramente não passará. E eles são realmente muito bons nisso. Mas ele não mede consumo médio em jogos. @Topic Fez bem em trocar de fonte e escolher a R7 260X. Pode ser qualquer uma: Corsair, PCYes!, EVGA.
  5. Esses testes que você postou, nas duas primeiras linhas, representam o sistema inteiro, e não somente a placa de vídeo. Esse pico de 221W é do sistema inteiro. Calcularam o consumo médio da placa de vídeo simplesmente pela diferença entre full stress e idle (lembrando que ninguém "joga" benchmarks, o consumo médio deveria ter sido estimado baseado na carga durante a execução de jogos). Segundo o site Tom's Hardware: http://www.tomshardware.com/reviews/radeon-r9-280x-r9-270x-r7-260x,3635-18.html http://www.tomshardware.com/reviews/geforce-gtx-750-ti-review,3750-21.html Consumo apenas da placa de vídeo: *Em idle com um monitor: R7 260X consome 9W, GTX 750Ti consome 6W. *Em jogo (Metro Last Light): R7 260X consome 92W, GTX 750Ti consome 62W. *Pico máximo em stress (GPGPU): R7 260X consome 129W, GTX 750Ti consome 68W. O pico da R7 260X é bem abaixo dos 220W colocados. Em jogos, que são o objetivo do autor do Tópico, a diferença de consumo é bem pequena e não deve ser critério de decisão. Além disso, ele vai ter que trocar a fonte de qualquer maneira, já que a dele é péssima e coloca todo o sistema em risco.
  6. Por que então compará-las dessa forma abaixo, sabendo que é errado?
  7. E nada dessas informações significa algo, pois não se deve comparar placas com arquiteturas diferentes observando especificações. O único jeito de saber qual é melhor é olhando testes de desempenho: E não existe GTX 960 de 256 bits.
  8. O conceito de eficiência não é esse. O selo não significa isso. O conceito de eficiência relaciona a quantidade de potência que é demandada da tomada com a quantidade de potência que o computador utiliza. A CX 600 é uma fonte boa e entrega toda a sua capacidade. Se a eficiência dela for, digamos, exatos 80%, e ela estiver entregando os 600W, isso significa que estará puxando da tomada 600W/0.8 = 750W. @Topic Placas de vídeo não são cartas de "Super Trunfo". Não há como dizer qual é melhor apenas olhando especificações: essas informações não significam nada. As arquiteturas são diferentes, o funcionamento é diferente, a eficiência do projeto é diferente... Tem que ver é o desempenho real: procure testes em sites e canais confiáveis. Só assim você poderá concluir algo. Dual channel é inútil para jogos e essa frequência a mais na memória não vai trazer ganhos. Procure pela R9 280X. É superior à GTX 960 e custa quase a mesma coisa. Sua fonte é excelente e entrega sim os 600W que promete. Até mesmo um pouco mais. Suportará a configuração com qualquer uma das placas de vídeo citadas tranquilamente.
  9. A perda de desempenho seria insignificante. Isso se ela existir. Qual seria a configuração completa do computador?
  10. Procure pela R7 260X. Desempenho próximo da GTX 750Ti por preço menor, custo benefício bem maior. Uma fonte de 430W de boa qualidade (PCYes!, Corsair, EVGA), dá e sobra para uso com essas placas, seja qual for seu processador. Qual o restante da configuração do computador?
  11. - editado pela moderação @Topic Como os colegas já afirmaram, não vale a pena pensar em SLI/Crossfire, muito menos se for com três ou quatro placas, já que o nível de ganho será pequeno. Compre apenas uma placa de vídeo como uma GTX 980Ti e fique com ela de forma definitiva. A GTX 980 não vale a pena.
  12. A R7 240 citada é a versão GDDR5, superior. Terá mais desempenho. E, caso não saiba, ter 1GB de memória GDDR5 é bem melhor que ter 2GB de memória GDDR3. A memória GDDR5 é muito mais rápida. @Edit Qual é a configuração completa do seu computador e quanto você pode gastar?
  13. Por preço próximo ao da GTX 960, você compra a R9 280X, que é superior.
  14. Por que você não procura respostas em um dos muitos tópicos que você criou? http://forum.clubedohardware.com.br/forums/topic/1134469-se-eu-botar-4gb-de-ram-nesse-pc-ele-roda-bf4/
  15. Mas o que estou querendo dizer é que justamente não é necessário conhecimento técnico para compreender qual placa de vídeo é melhor, já que a única maneira de fazer isso é vendo desempenho real. Não precisa estudar nada para entender isso. Ou seja, procure testes em sites e canais confiáveis. Você não pode sair comparando especificações diretamente porque há muitas variáveis e a arquitetura dos componentes varia muito. Se você seguisse essa lógica de comparação, provavelmente chegaria à conclusão de que uma GTX 760 é bem melhor que uma GTX 960, por exemplo. Sabemos que isso não é verdade, já que a GTX 960 é mais poderosa que a GTX 760. A R7 260X é uma bela placa de vídeo. Tem uma boa capacidade. Você ficará satisfeito optando por ela.
  16. Não se mede desempenho de placa de vídeo por quantidade de memória ou bits, mas sim analisando arquitetura e desempenho real. Não adianta falar "até 2GB, 128 bits" porque isso não reflete realidade de performance de placa de vídeo nenhuma. Componentes de computador não são cartas de "Super Trunfo". Procure por uma R7 250 ou R7 250X, mas a R7 260X tem muito mais desempenho por pouca diferença (apesar de sofrer gargalo em jogos que dependem muito do processador por culpa do Pentium, ainda compensa muito investir nela).
  17. O computador do meu colega tem apenas um pente de 4GB de memória ram. Ele não tem nenhum tipo de problema ao executar o Battlefield 4 e ainda joga sempre com o Skype aberto. No entanto, é melhor ter 8GB de memória para deixar uma folga. Creio que, no caso do Battlefield 4, o processador não traga problemas. Mas não é um processador ideal para jogos que dependem de seu intensivo uso.
  18. Segundo a IGN, a fonte do Wii U americano é bivolt: http://www.ign.com/blogs/chuck0latte/2012/12/12/wii-u-power-adapters-usa-are-actually-universal-100-250vac-dual-voltage Há também relatos de diversos usuários em fóruns que confirmam que a fonte é bivolt.
  19. Quanto você pode gastar? Seria recomendável trocar a placa-mãe por uma de chipset AMD 970. Não compre placas-mãe com chipset AMD 760G, não foram feitas originalmente para suportar processadores FX. Recomendaria também trocar a fonte por uma Corsair, PCYes! ou EVGA de 500W. Não é necessário uma fonte de 600W, já que a de 500W suporta com folga a configuração. Mesmo uma de 430W já suportaria. Não esqueça de avaliar também a possibilidade de comprar um kit Intel (Core i5 4440 + B85). Geralmente, compensa mais. E tente pegar ao menos uma GTX 960 ou R9 280X.
  20. A expressão "Watts reais" é uma das mais engraçadas que existem. Completamente sem sentido dizer isso. Eu também vivo avisando o pessoal sobre o erro grosseiro que é usar tal expressão. Você está correto. @Topic O FX-6300 não é um processador ruim. Em termos de performance, não é dos melhores (notavelmente), mas eu, pessoalmente, não o chamaria de ruim. Mas não faz sentido comprar ele sendo que um kit Intel superior tem preço semelhante. Basta ver isso. @Edit Se faz questão de usar um processador AMD, aguarde o lançamento da linha nova.
  21. Porque essa placa antiga não vale a pena ser comprada nova. Procure uma R7 250X ou junte um pouco mais de dinheiro e compre uma R7 260X, que é bem mais potente por pouca diferença.
  22. Você está decidindo entre computador e console baseado em quais fatores? Capacidade gráfica? Custos? Se for capacidade gráfica, é impossível montar um computador de R$ 1600,00 que consiga ser graficamente equivalente a um Playstation 4 ou Xbox One. Computadores de configurações mais avançadas são graficamente superiores a esses consoles, mas o custo é maior. Principalmente com a alta do Dólar. Não sei se a questão do preço dos jogos futuramente iria compensar, já que os jogos de console costumam ser mais caros que os de computador. Eu, particularmente, tenho um Wii U e acho o preço dos jogos dele bem elevado perto do preço que pago nos jogos para computador. Se você quer insistir em comprar um computador para rodar esses jogos, precisará de mais capital para ter uma boa experiência. Com esse valor, não ficará legal.
  23. Qual é o modelo da placa de vídeo? Qual é a configuração completa do computador? Quanto você pode gastar? Qual é o modelo exato da fonte? Não existe isso de "Watts reais". Se o que uma fonte realmente entrega são "Watts reais", o que ela não entrega seriam "Watts espectrais"? "Watts espirituais"? "Watts espaciais"? Não. Existe é fonte que presta e entrega o que promete e fonte que não presta e é bomba. Se a sua é genérica, ela não presta. Melhor trocar a fonte para depois pensar em placa de vídeo.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

 

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!