Ir ao conteúdo
  • Cadastre-se

Upgrade de GTX 750ti para RX580


Ir à solução Resolvido por grievous,

Posts recomendados

Galera, boa tarde.

 

Atualmente estou com a seguinte maquina:

Fonte ATX PCYES 600W Real Shocker Series 80 Plus White

Processador Intel Core i5-4590, Cache 6 MB, 3.3GHz (3.7GHz Max Turbo)

Memória HyperX 8GB 1600Mhz 

GTX 750TI 

e possui 2 Coolers de 120mm e também um SDD + HD,

 

Estou pensando em atualizar para a Placa de Vídeo VGA AMD MSI RADEON RX 580 8GB ARMOR 256Bits GDDR5, minha fonte daria conta? ficaria muito perto do limite?

 

EDIT: Estou focando nas placa de video AMD devido ao meu monitor ter FreeSync, caso a RX580 for muita coisa para minha fonte a RX570 seria uma boa alternativa?

Link para o comentário
Compartilhar em outros sites

4 minutos atrás, Andre Akira disse:

Estou pensando em atualizar para a Placa de Vídeo VGA AMD MSI RADEON RX 580 8GB ARMOR 256Bits GDDR5, minha fonte daria conta? ficaria muito perto do limite?

 

Sua fonte não vai ser um problema.

 

4 minutos atrás, Andre Akira disse:

EDIT: Estou focando nas placa de video AMD devido ao meu monitor ter FreeSync, caso a RX580 for muita coisa para minha fonte a RX570 seria uma boa alternativa?

Contanto que você tenha noção de que vai consumir o dobro de energia que uma Gtx 1060 6gb e vai ter o mesmo desempenho, pode pegar uma RX 580 sim.

  • Curtir 2
Link para o comentário
Compartilhar em outros sites

2 minutos atrás, Imakuni disse:

Sua fonte não vai ser um problema.

 

Contanto que você tenha noção de que vai consumir o dobro de energia que uma Gtx 1060 6gb e vai ter o mesmo desempenho, pode pegar uma RX 580 sim.

 

Seria possível ter uma ideia de quantos R$ isso deve impactar por mês com um uso de 4hr a 7hr por dia de uso?

Link para o comentário
Compartilhar em outros sites

agora, Andre Akira disse:

Seria possível ter uma ideia de quantos R$ isso deve impactar por mês com um uso de 4hr a 7hr por dia de uso?

Fazendo meio nas coxas, chute uns 120w (já incluindo a fonte) de diferença. Multiplique pelo uso e a taxa da sua energia para ter uma estimativa.

Link para o comentário
Compartilhar em outros sites

2 minutos atrás, grievous disse:

@Andre Akira O consumo de energia só aumenta quando você exige da placa. Só de manter o PC ligado ela fica em idle consumindo pouca energia. Você só sentiria no bolso caso jogasse jogos pesados durante muitas horas todos os dias.

 

Entendi, obrigado.

 

Mas queria só ter uma ideia, essa diferença na placa seria uma diferença de mais de 20 reais por mês para alguém jogando de 3hrs a 4hrs por dia?

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
  • Solução

@Andre Akira Funciona assim: as concessionárias que fornecem a energia cobram o killowat/hora, ou seja, uma hora consumindo um killowat de energia. Aonde eu moro (Mato Grosso) a concessionária (Energisa) cobra 50 centavos por kWh.

 

 

Se eu jogo 4 horas por dia em um PC que consome 200W isso daria:

4 (horas) * 200 (watts) * 30 (dias) = 24000wH ou 24kWh, eu teria de pagar 12 reais de eletricidade por mês.

 

 

Agora com uma GPU que consome o dobro (100W para 200W) fazendo o consumo total subir para 300W:

4 (horas) * 300 (watts) * 30 (dias) = 36000wH ou 36kWh, agora eu pagaria 18 reais de eletricidade por mês.

 

 

A diferença seria de 6 reais por mês, 72 reais por ano. Isso se você jogar diretão, quatro horas por dia, 7 dias por semana, jogos pesados que exijam do sistema. É só uma estimativa bem por cima, mas o valor real não deve estar muito longe.

 

@Imakuni Jogos DX12 e Vulkan a RX580 sai na frente da GTX1060.

  • Obrigado 1
Link para o comentário
Compartilhar em outros sites

8 minutos atrás, grievous disse:

@Andre Akira Funciona assim: as concessionárias que fornecem a energia cobram o killowat/hora, ou seja, uma hora consumindo um killowat de energia. Aonde eu moro (Mato Grosso) a concessionária (Energisa) cobra 50 centavos por kWh.

 

 

Se eu jogo 4 horas por dia em um PC que consome 200W isso daria:

4 (horas) * 200 (watts) * 30 (dias) = 24000wH ou 24kWh, eu teria de pagar 12 reais de eletricidade por mês.

 

 

Agora com uma GPU que consome o dobro (100W para 200W) fazendo o consumo total subir para 300W:

4 (horas) * 300 (watts) * 30 (dias) = 36000wH ou 36kWh, agora eu pagaria 18 reais de eletricidade por mês.

 

 

A diferença seria de 6 reais por mês, 72 reais por ano. Isso se você jogar diretão, todo dia, quatro horas por dia, jogos pesados que exijam da GPU. É só uma estimativa bem por cima, mas o valor real não deve estar muito longe.

 

brigadão pela resposta man, ficou bem mais claro agora, vou com a RX580 mesmo!

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

12 minutos atrás, grievous disse:

@Imakuni Jogos DX12 e Vulkan a RX580 sai na frente da GTX1060.

Sim, na minoria dos casos, a RX580 sai na frente. E foi o que eu falei: o desempenho (no geral) é o mesmo...

 

...com a diferença de que a RX 580 consome bem mais, o que para mim é um ponto que mata.

Link para o comentário
Compartilhar em outros sites

Crie uma conta ou entre para comentar

Você precisa ser um usuário para fazer um comentário

Criar uma conta

Crie uma nova conta em nossa comunidade. É fácil!

Crie uma nova conta

Entrar

Já tem uma conta? Faça o login.

Entrar agora

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!