Ir ao conteúdo
  • Cadastre-se

Andarilho_da_noite

Membro Pleno
  • Posts

    1.145
  • Cadastrado em

  • Última visita

Tudo que Andarilho_da_noite postou

  1. Um comparativo de rendimento entre ambas pode ser lido no link abaixo do site Anandtech, no gráfico em alguns jogos a GTX 750 TI se sobressai enquanto que em outros a R7 260X leva vantagem , a GTX 750 TI tem uma margem de ganho relativa na maioria dos títulos. GTX 750 TI vs R7 260X http://www.anandtech.com/bench/product/1044?vs=1130 O preço da GTX 750 TI é salgado quando comparamos a concorrente, na Kabum a versão mais barata recomendada custa R$ 679,91 enquanto o modelo mais em conta da R7 260X está por R$ 509,91. R7 260X http://www.kabum.com.br/produto/64573/placa-de-video-vga-powercolor-radeon-r7-260x-2gb-ddr5-128bit-pci-express-3-0-axr7-260x-2gbd5-dhv4e-oc-/?tag=R7%260X GTX 750 TI http://www.kabum.com.br/produto/58973/placa-de-video-vga-zotac-geforce-gtx-750-ti-2gb-ddr5-128-bit-pci-express-3-0-x16-zt-70605-10m/?tag=GTX%750%TI
  2. Sim, ela funciona bem nesse conjunto, se você já tem as peças não há problema mas a fonte foi superdimensionada para sua real necessidade, um modelo com 430W ou 500W para upgrades futuros comportaria a demanda de consumo com folga. A configuração é boa, vai ganhar muito em performance quando comparado ao seu hardware antigo.
  3. As placas baseadas na arquitetura Generation Core Next ( GNC 1.0 1.1 e 1.2 ) oferecem suporte ao Directx12, isso inclui a R7 270X. A AMD cometeu um grave erro com a divulgação insuficiente de informações a respeito da compatibilidade de suas placas com a nova API de baixo nível, essa constatação faz com que os consumidores não tenham o conhecimento necessário na hora de distinguir quais modelos terão suporte e em que nível ele se dará. A atribuição de recursos capazes de lidar com as novas instruções foi designada pela Microsoft como "Resource Binding Tiers", de maneira simplificada quanto maior o tier mais recursos de otimização terá determinada placa, temos uma escala de 1 à 3. A R9 270X e a R7 370 oferecem as mesmas instruções para a API Directx 12.
  4. @dif, não funciona exatamente assim. A instalação de drivers de vídeo proprietários como os da Nvidia e AMD copiam uma série de arquivos na raiz do sistema operacional, se você efetuar a remoção pelo método tradicional terá eliminado de grosso modo a maioria dos arquivos que compõe a base de instalação, entretanto se o usuário entrar na pasta System32 localizada no diretório Windows verá ainda uma série de arquivos relacionados a antiga instalação e que o desinstalador padrão não foi capaz de eliminar. A utilização do Display Driver Uninstaller conhecido popularmente como DDU é destinada aos casos onde pode haver conflitos com versões antigas decorrentes de falhas no processo de remoção, o objetivo é criar um ambiente limpo como seria em uma instalação do windows a partir do zero. Eu quero ressaltar que não havendo problema a desinstalação pode ser executada normalmente pelo método tradicional, é assim que você, eu e tantas pessoas fazem e está correto, eu apenas indico em caso de aparente conflito associado a driver.
  5. Olá, esse modelo da Gigabyte encontra-se indisponível na Kabum, quando retornar ao estoque o valor será de acordo com a cotação atual do dolar, para você ter uma ideia o modelo mais barato na Kabum está custando R$662,00, essa está em pronta entrega!
  6. O reflow no forno não é uma solução duradoura, o problema retorna em pouco tempo. Se o forno reviveu a placa inicialmente mas agora ela não aceita a instalação do driver o problema ainda persiste, a saída é encaminhá-la para uma assistência especializada em solda BGA ou trocá-la por outra, nada do que você fizer vai resolver porque existem microfissuras na solda BGA e essas trincas desencadeiam mal contato, o forno promove apenas uma reacomodação momentânea dos pontos afetados, a qualquer momento o defeito se manifesta.
  7. A GTX 750 Ti tem como característica baixo consumo de energia e como consequência dissipa pouco calor, é improvável que você tenha problemas relacionados ao superaquecimento com esse modelo. Em relação ao problema que você enfrentou com placas antigas é preciso ponderar alguns fatores, existem fabricantes que negligenciaram o dimensionamento do sistema de refrigeração para alguns modelos de menor custo, com isso essas placas operam com temperaturas acima do que consideramos como aceitável, o acúmulo de partículas de poeira nas aletas do dissipador de alumínio também atrapalha a função de reduzir a temperatura do processador gráfico, outros fatores como temperatura ambiente e ventilação do gabinete podem igualmente influenciar no controle de temperatura.
  8. Sim, a exclusão dos drivers antigos e de seus rastros é essencial para eliminar a possibilidade de conflitos como esse que você está observando, quando você instala outro modelo de placa de vídeo tem que desinstalar o driver antigo para reinstalar a versão compatível com a placa nova. O software indicado para remoção de rastros de drivers antigos chama-se Display Driver Uninstaller ( DDU ), o link para download do DDU está abaixo: http://www.guru3d.com/files-get/display-driver-uninstaller-download,20.html Após remover os rastros da antiga instalação pode baixar a versão mais recente para a placa de vídeo instalada atualmente.
  9. Se a temperatura de operação da placa está dentro da normalidade e não existe overclock a possibilidade de defeito tem que ser levada em consideração, depois da bateria de testes que você descreveu as hipóteses primárias foram descartadas. O surgimento de artefatos está relacionado na maioria dos casos a problemas com o BGA do processador gráfico, placas propensas para esse problema começam a ter microfissuras em pontos de solda que fixam o GPU ao PCB da placa, com o tempo ocorre perda de contato e é quando começa a reprodução de pontos coloridos ou quadrados, listas ou chuviscos além de outros eventos como perda do sinal de vídeo. O procedimento correto de reparo para artefatos relacionados a solda BGA é o reballing, é um serviço normalmente recomendado para modelos de placas High End onde o custo de reparo vale a pena, nos demais casos é preciso ponderar o preço do serviço e o valor da placa de vídeo.
  10. Se está na garantia você deve acioná-la, o fato do problema aparecer quando você entra em algum jogo é comum, uma placa com defeito pode gerar artefatos em qualquer momento ou especificamente em jogos, isso varia para cada caso.
  11. As placas de vídeo atuais operam em uma faixa abrangente de temperatura, o processador gráfico da maioria dos modelos pode funcionar com estabilidade na casa dos 100 graus, entretanto para a durabilidade da placa em si o ideal é não chegar próximo a isso. O aparecimento de artefatos com pontos coloridos, quadrados ou listas normalmente é provocado por defeito na placa de vídeo, a hipótese de superaquecimento em uma placa como sua seria justificável se o ventoinha não estivesse girando, como o equipamento é novo eu sugiro enviar a placa de vídeo para garantia, se quiser testá-la em outro computador poderá fazê-lo.
  12. Olá, pelo relato parece artefatos associados a algum problema na placa de vídeo, se a temperatura da placa está normal e você não fez overclock que justificasse a instabilidade pode ser defeito. Se o seu hardware é novo poderá acionar a garantia, verifique as temperaturas da placa de vídeo e processador, se fez algum overclock sete os parâmetros para o valor padrão de fábrica e veja se resolve.
  13. Você tem que acionar o Procon, não seja mais uma vitima dessa loja, afinal são quase R$2.000 de prejuízo para reaver.
  14. Sim, ele quis dizer que o dissipador não encosta na memória VRAM e em uma versão overclockada de fábrica a memória pode esquentar ao ponto de gerar a ocorrência de artefatos. Se a fabricante optou por alavancar a performance do processador gráfico e da memória dedicada aumentando sua frequência ela tem que garantir estabilidade plena, ninguém vai comprar um modelo superclocked para depois reduzir sua frequência ao valor stock, se isso resolver a placa terá igualmente problema afinal ela foi projetada para operar com frequência maior do que a original.
  15. Como o problema é reproduzido em vários jogos e você já removeu e reinstalou os drivers existe uma grande possibilidade de ser defeito na placa de vídeo, como a garantia vigente ainda não acabou acione o RMA da Terabyte, espero que eles não façam corpo mole dizendo que é direto com a fabricante, se isso ocorrer terá que enviar a placa para o exterior, a EVGA não possui RMA no Brasil.
  16. Tem quanto de memória de vídeo esse modelo? - O ideal são 2GB mas existem versões que tem apenas 1GB de VRAM, por esse preço vale a pena, a versão mais barata encontrada na Kabum custa R$674,81 reais, uma placa com 10 meses de uso se bem cuidada vai te trazer um bom aumento de performance dentro dos jogos, também estaria no período de garantia vigente já que o mínimo que as fabricantes oferecem é 1 ano contra defeitos. http://www.kabum.com.br/produto/59363/placa-de-video-vga-point-of-view-trooper-geforce-gtx750ti-2gb-ddr5-128-bit-pci-express-3-0-vga-750i-a1-2048 /?tag=GTX%750%TI Para você ter ideia de quanto irá ganhar em desempenho tem um comparativo entre uma AMD 7770 e a GTX 750 TI, o ganho com a 750 TI é enorme e representa um abismo profundo de performance entre ambas. http://www.anandtech.com/bench/product/1079?vs=1130
  17. Se você não fez overclock na placa o que também poderia justificar o surgimento de artefatos e o problema é reproduzido em todos os jogos é defeito na placa de vídeo, se estiver na garantia acione para substituí-la, nesse último caso não há muito o que fazer. Se você quiser desinstale os drivers com o Display Driver Uninstaler (DDU) para reinstalar novamente, o software apaga todos os rastros de drivers antigos que podem conflitar com uma nova instalação, é uma tentativa válida embora as imagens remetam a outro tipo de falha, como sugeriu o colega do post acima se você utiliza cabo HDMI troque-o para garantir que não é ele o causador dos artefatos.
  18. Olá Leonardo, já acompanhei outros casos semelhantes na loja Balão da Informática onde a garantia foi negada baseado em uma avaliação técnica discutível, são reclamações como essa do link abaixo. http://forum.clubedohardware.com.br/forums/topic/1131009-garantia-negada-com-base-em-laudo-inconsistente/?hl=+garantia%20+negada Em relação a PNY eu tenho algumas considerações, não é uma má fabricante e é uma das partners da Nvidia oficialmente autorizadas a comercializar placas no mercado americano (NVIDIA Authorized Board Partners ), o fato da marca focar em modelos baseados no design de referência não é motivo para demonizá-la, uma placa com design proposto pela Nvidia opera com maior temperatura e por possui um blower de pequenas dimensões acaba também emitindo mais ruído, não é algo absurdo ou insuportável na conclusão da maioria dos usuários. A Asus, a Gigabyte e outras empresas de maior visibilidade também fabricam algumas placas utilizando o modelo de refrigeração proposto pela Nvidia e AMD além do projeto do PCB, essas no entanto investem mais recursos em tecnologias proprietárias como nos modelos mais caros.
  19. @Foxwalt, a sua conclusão foi equivocada, uma leitura atenta a metodologia empregada pelo site Guru 3D que é referência nesse segmento iria ter esclarecido suas dúvidas sem a necessidade de réplica. Guru 3D We'll be calculating the GPU power consumption here, not the total PC power consumption. Tradução: Nós estaremos calculando aqui o consumo de energia do GPU, e não o consumo total de energia do PC. O consumo baseado na execução in game foi devidamente calculado no ítem *Subjective obtained GPU power consumption, esse valor é o calculo aproximado e não preciso do consumo em full load, ele bate muito próximo ao declarado pelas fabricantes de placas de vídeo. Em relação a sua declaração: "ninguém "joga" benchmarks". - Não foi mencionado que o consumo do GPU estaria nesse patamar em condições normais de operação, foi enfatizado que tratava-se da demanda em teste de tortura, a fonte de alimentação deve ser dimensionada para lidar com a demanda mais crítica dentro de determinada configuração, o Furmark tem uma característica única e sempre foi encarado como Stresstest e não test in game, com algoritmos de processamento de pele é um dos teste de estabilidade e stress mais exigentes do mercado, eleva a temperatura e carga no GPU em outro patamar, por isso demanda um perfil de consumo energético acima de condições normais de uso. Se o usuário estiver no limite da demanda nas linhas de 12V e executar o Furmark terá sua fonte desligada, uma fonte de alimentação medíocre sem proteção contra sobrecarga seria queimada pondo em risco o restante da configuração. O teste abrangeu as 2 situações, com o processador gráfico em Full Load baseado na carga em jogos e sob tortura. O pico como você definiu é uma condição específica sob teste de stress, uma leitura atenta ao gráfico do Guru 3D vai te mostrar que a demanda em full load baseada in game foi dimensionada em 113W, valor próximo ao obtido pelo Tom's Hardware e com uma diferença justifivável dependendo do modeo empregado nos testes, sendo baseado em cartões de referência ou não, o próprio Tom's Hardware deixa isso claro, entretanto precisa ler o que foi postado: No teste o site explica que a AMD não enviou placas de referência para alguns testes como o da R9 280X, entretanto o site possui um número X de placas com clocks e sistema de refrigeração diferenciados, também foi declarado que pode haver uma margem de diferença entre os resultados e o que é efetivamente declarado pela AMD em torno do TPD de consumo. Tom's Hardware: We’re getting as close as possible to the reference specs, but be advised that the power consumption values might not match the model coming straight from AMD. Tradução: Estamos o mais próximo possível da especificação de referência, entretanto os valores podem não coincidir com os modelos de referência que vem da AMD. Os testes provenientes de sites como TechPowerup, Tom's Hardware e Guru 3D tem pequenas diferenças entre sí, isso é explicado pelos modelos utilizados e pela metodologia empregada, não há discrepâncias no consumo em full load baseado in game no Guru 3D e Tom's Hardware. Guru 3D R7 260X: 113W in Game Tom's Hardware: 92W in game Em stress o Guru 3D pode empregar um software com algoritmo diferente do site concorrente, é o patamar mais crítico obtido com "queimadores" de GPU como Furmark. Nomenclatura Guru 3D System Wattage with GPU in FULL Stress ( Teste de tortura com simulação de GPU em potência máxima)- Subjective obtained GPU power consumption ( valor aproximado de consumo do GPU em full load baseado em condições in game ) Essa é uma das referências que mais se aproximam do que é declarado pelas fabricantes de placas.
  20. É importante fazer um alerta, o modelo da fonte do autor é uma Wise case "bomba", a potência que se pode extrair com "segurança" da linha de 12V dessa fonte é 285W segundo testes do Clube do Hardware, por isso foi evitado recomendar uma R7 260X. A R7 260X tem consumo médio de 113W mas em teste de stress com o Furmark chega a ter um pico de 220W, independente de ter uma GTX 750TI ou uma R7260X o ideal seria substituir a fonte, uma GTX 750 Ti consome em média 60W. Fonte Guru 3D Com essa fonte não tem como usar a R7 260X. As considerações na conclusão dos testes feitos pelo CDH estão parcialmente reproduzidas aqui: Clube do Hardware
  21. O dolar fechou o dia em R$ 4,11, essa é a maior alta em quatro anos, eu desaconselho completamente aguardar a Black Friday porque a sinalização do mercado econômico e cambial não é favorável, quem apostar em milagres para o final do ano pode se arrepender, o modelo da Zotac com 2GB e dual fan está custando R$949,00 à vista http://www.kabum.com.br/cgi-local/site/produtos/descricao_semanadohardware.cgi?codigo=62233 Se quiser a versão com 4GB o modelo de referência da PNY custa R$1.163, a memória adicional pode alavancar a performance em alguns títulos sensíveis a VRAM, a maioria dos games vão rodar bem com 2GB.
  22. Sim, ela irá rodar mas a GTX 960 trará maior rendimento, eu estou citando ela porque vi o valor que você estipulou, a R9 280X é superior mas infelizmente para a sua fonte não é o modelo mais adequado, uma GTX 960 consome aproximadamente 120W, depois da R9 280X é a placa que mais se encaixa na sua proposta inicial. GTX 960 Fonte Nvidia
  23. Se a conclusão é de que a fonte atende a demanda da sua configuração eu devo ter faltado nas aulas de matemática, se você executar um teste de dimensionamento de potência em um site como o citado pelo colega @RAFAEL_NIGHTM4RE, vaI ter a noção de que uma fonte de entrada não é adequada ao perfil de consumo dessa placa, esses sites farão o calculo baseando-se na demanda mais crítica de consumo, nessa condição uma única R9 280X chega a puxar 352W da linha de 12v, é uma projeção baseada em testes de stress com o Furmark, entretanto a fonte deve ser dimensionada para atender a demanda de pico mais exigente, logo o modelo CX 430 não se encaixa no perfil. Fonte Guru 3D Agora vamos analisar a carga na linha de 12V utilizando unicamente os elementos que demandarão maior consumo dessa linha, a placa de vídeo e o processador. A R9 280X com TDP máximo de 352W e o processador Core i5 3550 com TDP de 77W, a soma dos 2 itens retorna o valor de 429W, veja que a linha de 12V dessa fonte entrega até 384W. Fonte Corsair Eu não tenho dúvida alguma que não é uma fonte adequada para comportar uma placa de vídeo como essa, vamos agora simular o consumo dos mesmos itens com a placa de vídeo operando em full load sob condições normais, em carga in game ela puxa aproximadamente 250W da linha de 12V, temos o TDP de 250W mais o consumo do CPU que é 77W, o resultado é 327W sendo que outros componentes também exigirão carga nessa linha, apenas levei em consideração aqueles que mais consomem, nesse cálculo estaríamos no limite da potência rotulada que não é o ideal. Se você optar pela R9 280X a troca da fonte é necessário, a soma do TDP da sua configuração associado a uma margem de 20% de segurança sugeri uma fonte com 550W.
  24. Na verdade é uma fonte de no máximo 350W-400W reais, veja que no teste do Clube do Hardware ficou evidente que na linha de 12V que alimenta o CPU e o GPU o limite de potência que pode ser extraído com segurança foi de apenas 285W, a troca dessa fonte merece sua atenção.
  25. Sim, vale a pena pelo desempenho que é superior na versão Ti e pelo adicional de memória VRAM, mesmo em uma resolução abaixo de Full HD o padrão mínimo atual para atender os jogos de ultima geração é 2GB de memória de vídeo, não justificaria adquirir a versão com 1GB, no link abaixo existe um comparativo entre GTX 750 e GTX 750 TI. http://www.anandtech.com/bench/product/1130?vs=1131 A GTX 750 Ti demanda aproximadamente 60W da linha de 12V, quando a fabricante da placa de vídeo recomenda uma fonte ela o faz superdimensionando a potência realmente necessária para a maioria das configurações, isso acontece porque ela não sabe quantos HD's você possui, pode ter 1 como ter 5, se tens ou não overclock e em qual intensidade, o número de fans para refrigeração interna e etc - Não é prudente ficar preso a indicação de um determinado fabricante, essa placa é atendida tranquilamente por uma fonte com 430W mesmo em conjunto com CPU que tenha TDP de 125W, na página oficial da Nvidia a fonte mínima indicada é 300W, a recomendação de fonte de alimentação deve se basear no consumo real do usuário com uma margem de folga, pode ser 20% a mais para upgrades futuros. Fonte Nvidia

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!