Ir ao conteúdo

sdriver

Membro VIP
  • Posts

    2.420
  • Cadastrado em

  • Última visita

Tudo que sdriver postou

  1. O problema é que depende muito do perfil de quem usa. Tem gente como eu que 90% do tempo que usa o PC, está usando em jogos e ai desliga ele. Tem quem deixa o pc o dia todo ligado em idle e joga 1 hora por dia. Dimensionar uma fonte com 50% de sobra sobre a carga total do pc não causa danos ao conjunto, enquanto que ao dimensionar muito perto do limite de carga pode gerar os problemas que o @Gabriel Torres citou. Por outro lado se pensar que voce vai fazer upgrades trocando partes como processador, placa de vídeo e outros, a tendência mundial tem sido gerar equipamentos mais eficientes e econômicos. Ao trocar DDR3 por DDR4, HD por SSD e até mesmo as placas de vídeo top de linha mais novas são mais amigáveis energeticamente e estão vivendo essa tendência de diminuir o consumo. Isso tudo colabora pra que sua fonte fique com mais folga a cada upgrade. Então ate faz sentido realmente comprar uma fonte com sobra menor, mas eu ainda sou da velha guarda e minha recomendação é pelo menos que a fonte tenha uns 30% de potencia extra.
  2. Vixi, agora o @Gabriel Torres arrumou uma boa briga com um pessoal ali no forum que defendem que as fontes devem dimensionadas exatamente com a potencia que o pc consome.
  3. E é por isso que a intel é a queridinha das fabricante de placas mãe.
  4. Se for realmente fácil assim de cortar ao meio dessa forma os chips, voce tem razão. Sobre os wafers, não sei como é hoje, mas antigamente, os processadores eram rotulados por amostragem. Pegava-se algumas unidades e testavam. O pior resultado obtido era a base para marcação do lote inteiro do wafer. Com isso sempre dava muito rejeito e assim surgiu a ideia dos X3. Conforme as revisões progrediram melhorando os resultados, eventualmente os rejeitos ficaram com quantidades inferiores a demanda e ai fizeram os outros modelos como os Athlons. Provavelmente, a mesma linha deve ser seguida agora.
  5. Mas ai já eram arquiteturas prontas e existentes. Nada impede a AMD de manter as atuais linhas de produtos FX como modelos de menor performance e custo por exemplo. Mas a longo prazo acredito que deverão fazer algo no mesmo sentido com Ryzen.
  6. Querer usar maquina virtual pra rodar jogos é o mesmo comprar um caminhão pra entregar pizza. Não existem otimizações para placas de vídeo e alto desempenho de 3D por que simplesmente não é o foco desse tipo de solução. Virtualização sempre foi voltada para instalação de servidores
  7. Na verdade essa estratégia foi genial na época dos Phenom e hoje é ainda é uma excelente saída. Se voce parar para pensar, todos os processadores saem do mesmo molde e linha de produção, custando o mesmo preço de fabricação. Com isso a AMD obviamente gasta o mesmo valor pra fazer um 1700 ou 1800X. Se somente esses 3 modelos fossem vendidos, qualquer peça que falhar nos testes viraria lixo e seu custo integral seria prejuízo. Mas se ao desativar núcleos, a AMD conseguir fazer processadores ainda vendáveis, ela vai ter retorno. Digamos que na pior hipótese, a AMD investe 100 dólares por processador e ao lançar um R3, venda ele por 90. A conta ainda sim é melhor, ter 10 dólares de prejuízo é muito melhor que ter 100. E o melhor de tudo, em vez de gastar milhões em desenvolvimento de um outro processador menor e outros milhões adequando uma linha de produção, ela mantém tudo rodando no mesmo lugar. A única forma dessa formula ficar ruim é se 100% dos processadores produzidos forem aprovados para serem 1800X, ai a AMD teria de fazer peças boas serem capadas para suprir o mercado, mas nesse caso, quem vai sair no lucro são os clientes que vão poder comprar um processador com alta capacidade de OC e quem sabe de ativação de cores. Mas isso na pratica tem se mostrado um sonho distante para todas as fabricantes de chips.
  8. O problema, pelo que entendi da arquitetura é que esses processadores são 2 grandes blocos interligados, como se fossem 2 processadores interligados e instalados em 1 uma pastilha. Então ter um numero ímpar de núcleos deve dar algum tipo de problema. voce pode ate ter números ímpares de núcleos ativos. Mas como tem de fazer isso dos "lados", o que conseguiria ter no final é sempre um numero par de núcleos como 3 de cada lado por exemplo. Ja quanto a possibilidade de ativar os núcleos. As pessoas tem de entender que os fabricantes não fazem essas desativações como se fossem Easter Eggs. Se desativaram tem uma razão e os Phenoms só dava de ativar por que a AMD optou por usar um processo virtual para desativar os núcleos em vez de cortar as trilhas fisicamente. Ou seja, ela usou o método mais barato possível pra desativar os núcleos, o que faz todo sentido, afinal os mais caros e top Phenoms saiam da mesma fornalha que os simplórios X2. E não faz sentido algum gastar ainda mais dinheiro em um processador que voce vai vender mais barato. Só que o método usado era reversivel e quem quisesse se aventurar podia destravar os núcleos e usar por sua conta e risco. Agora se a mesma técnica vai ser usada nos Ryzen, teremos de esperar para ver. Até porque são uma arquitetura toda nova e a forma de desativação pode ser diferente ou irreversível.
  9. Com certeza é a mesma revisão. Agora sem informações confiáveis fica difícil dizer se os R5 serão a "raspa do tacho" ou se serão R7 saudáveis com núcleos desativados propositalmente para suprir a demanda de R5. Na época dos Phenom II, vi as 2 coisas acontecerem. Eu tive um X3 por exemplo que era problemático ao ativar o 4º núcleo. E lembro que tiveram modelos X2 que funcionaram perfeitos com os 4 ativados. Mas tudo leva a crer a que a primeira leva deve ser de raspa de tacho.
  10. Texto de google tradutor ai voce complica a gente ... Concordo exatamente com o que o @Narak13 disse. A diferença de desempenho nos jogos não é algo palpável. Com uma diferença tão desprezível, sabendo ainda que a arquitetura nova deles não tem ainda o suporte ideal nos jogos indica que entre 6 meses e 1 ano poderemos ter um novo cenário com talvez os Ryzen superando os intel nos mesmos testes onde ele "fracassou" como debutante. Além disso, na terra dos meros mortais, onde a maioria de nós tem um orçamento limitado, poupar 'Marcelas' (o termo Dilmas não pode mais ser usado em 2017) na compra de processador e placa-mãe significa ter mais grana para comprar uma placa de vídeo melhor que ainda é o supra sumo de qualquer pc gamer. Além disso, uma vantagem vertiginosa da plataforma AMD sempre foi e continuará sendo a retrocompatibilidade de sockets. É a característica mais carismática da AMD. Se fosse pra fazer um slogan sincero das 2 rivais seria algo do tipo: "AMD - a gente meio que se importa com seu dinheiro." "Intel - eu vou colocar um pino a mais no socket só pra te f*der"...
  11. A AMD vive uma praticamente eterna crise financeira. Isso tem seu maior impacto direto justamente no P&D da empresa. Eles não se podem dar ao luxo de gastar milhões em testes e ficar por meses a fio só fazendo revisões. Precisam vender pra por a comida na mesa como o Xita @Evandro disse. Esses processadores são um feito e tanto se olharmos por esse lado. E se eles conseguiram isso tudo já na primeira versão da nova arquitetura, o refinamento das próximas edições vai sanar os gaps apontados da primeira leva, aliado ao tune up que deve ocorrer nos próximos meses nos sistemas operacionais e programas. Além disso, convenhamos, os testes com jogos se mostraram excelentes. Não vi nenhum teste onde desde o 1700 não tenha tido resultados muito bons. Tudo bem que ficaram abaixo ainda dos super Intels, mas pensem bem, vocês gastariam 500 TRUMPS a mais para ter coisa de 20 fps extras sendo que já estão rodando acima de 100 frames? Ou o pessoal aqui é muito rico, ou então estão longe de pensar em comprar tanto um como o outro.
  12. O que tem de ser levado em conta é que segundo a AMD, são novos processadores desenhados do zero. É óbvio que a primeira geração de qualquer coisa totalmente nova não tem como foco dar folga para OC. A AMD está a mais de uma década correndo atrás da Intel. Se eles tivessem desenvolvido uma família de chips que chegasse assim fácil acima dos 4GHz, iriam colocar essa velocidade como default em vez de deixar margem pra OC. A ideia deles e em suma a ideia que vende no mercado mundial é a capacidade out of the box do processador. Claramente, existe espaço para melhorar bastante só com atualizações de BIOS e tweaks de SO e nos jogos/programas. Mas acredito que a verdadeira dor de cabeça pra Intel está por vir quando a segunda geração dos Ryzen aparecer.
  13. Agora é esperar pra ver se os Rysen vão mesmo ser assim monstruosos. Tudo leva a crer que a Intel não tem mais cartas na manga vendo como a evolução da arquitetura dos Core I está patinando. Se a AMD acertar o passo com as novas GPUs, vai ter tudo pra sair do atoleiro com uma dupla de ouro. Do outro, já vemos a Intel começando a queimar gordura. Descontos acima de 35% nas atuais gerações de processadores é um indicio de como eles têm uma lucratividade exagerada com o monopólio da parte de cima da tabela de desempenho. Teremos de aproveitar esse momento de investida da AMD para comprar "menos caro" os bons processadores, tanto de um lado como do outro. Até porque se a AMD se estabelecer no topo dos processadores, vai com certeza começar a subir gradativamente os preços. Ainda sim, como diria a vovó, não se deve colocar todos os ovos em uma única cesta. Obviamente as concorrentes Intel e AMD não vão ficar paradas olhando a AMD fazer sucesso sem reagir.
  14. @agnaldoreis errei a letrinha , quis dizer 20GB / dia.
  15. Mas gzuis ainda estão encasquetando com vida util do SSD?? A vida útil desses bichos é de 10 anos gravando 20 GB/dia! Todo mundo aqui já vai ter trocado o pc inteiro antes disso! Desapeguem desse mito besta!
  16. Usar a Ram para "gravar" é uma trapaça. Por isso ele dá esses números absurdos no benchmark. Como só tenho 8 GB de ram, não uso isso. Já sobre racionar o SSD, amigo desencana disso. Mesmo que voce grave quantidades absurdas de dados todo santo dia, ele tem autonomia pra uns 10 anos de vida. E eu sinceramente espero que até lá ja tenham inventado algo melhor como memórias de grafeno ou qualquer outra coisa do gênero.
  17. Eu tenho um 850 Evo de 500 GB, já faz um bom tempo que comprei (quase 2 anos) e estou extremamente satisfeito. Acredito que não existe diferença de desempenho perceptível para a versão de 250 GB. Aliado ao Windows 10, a maquina tem mostrado muito rápida com declínio de performance muito baixa ao longo do tempo. O meu está com mais ou menos metade do espaço ocupado. Segundo reviews diversos é importante tentar manter o disco não muito cheio, pois a performance cai. Independente da marca e modelo isso.
  18. De fato este usuário anda meio inativo no fórum por motivos diversos, mas vamos lá. Meu comentário foi sim levando em conta o mercado de fontes como um todo. E por isso levei em conta a qualidade geral das fontes que se vendem por ai e não somente as caríssimas fontes de alta certificação. Mesmo as marcas mais reconhecidas e vendidas como a Corsair, possuem fontes que ao se chegar próximo do seu limite, tendem a ter um desempenho pior. Mas ainda sim, veja que eu não defendia o uso de fontes gigantes, mas sim com 30% a mais de potencia do que se espera que o PC vá consumir. Até porque quase ninguém passa o tempo todo usando a maquina no máximo. Mas um ponto importante do meu posicionamento está ligado ao contexto da época. Quando escrevi isso, estava levando em conta o mercado de placas de vídeo e processadores dos anos anteriores. Havia uma tendência sólida que estava começando a mudar naquela época. Tanto processadores como placas de vídeo top de linha sempre tendiam a gastar mais do que os seus antecessores. Logo, alguém que pensa em upgrades, deveria ter esse ponto avaliado. Mas já naquela época estava-se iniciando uma nova tendência das fabricantes projetando chips mais eficientes, mas não era algo ainda consolidado. Agora, um ano depois, tenho de afirmar que realmente essa é uma tendência para os próximos anos. HDs virando SSD, memórias DDR3 virando DDR4 e logo DDR5. HBM nas placas de vídeo, chips com nova litografia indo abaixo dos 10nm... Tudo isso culmina na indicação que o próximo upgrade de qualquer pessoa vai acabar gastando menos que a atual configuração. Então o argumento de upgrade hoje não se aplica mais.
  19. cloneHD resolve. ele ja redimensiona.
  20. Para monitorar a rede por completo, você precisaria de um roteador ou firewall empresarial ($$$$$$$$$) ou criar uma solução em software, usando uma maquina em uma DMZ e fazer nela um controle de trafego tipo proxy. Ai precisa de programas para isso e tudo mais. Se for para uma empresa essa é a solução mais indicada, mas se for pra controlar os pcs de casa, o netlimiter resolve.
  21. Pra monitorar a sua rede toda é mais complicado, mas pro seu pc pessoal, não conheço ferramenta melhor que o Netlimiter. Nunca saio de casa sem ele... Além de monitorar, essa poderosa ferramenta permite fazer o controle de banda e bloqueio por aplicação. Não é free, mas vale cada centavo.
  22. Na verdade sim. As placas de video modernas tem de fato uma placa de som interna. Enquanto as AMD usam dispositivos da Realtek, a Nvidia usa a Azalia HDA. Só que essas placas de som só são ativadas e usadas caso você altere a saída do som para a saida HDMI ou DP da placa de video.
  23. Eu estou usando um cabo display port aqui com meu AOC e roda a 144hz aqui, porém não estou usando o audio. Quanto a qualidade de som acho difícil haver perda de qualidade se comparado com o som onboard. As placas de som de placa-mãe geralmente são bem fraquinhas, logo é difícil achar som pior. As placas de video da AMD trazem uma placa de som interna delas mesmas, mas tanto AMD como Nvidia fazem muito mistério sobre as especificações disso, o que nos leva a crer que a placa de som delas sejam tão fracas quanto uma onboard.
  24. Na verdade tanto faz qual você escolher. Os cabos possuem adaptadores também. Isso porque o sinal DP e HDMI são 100% digitais. Já o sinal que a entrada VGA opera é analógico, então vai ter de em algum ponto usar um conversor que é basicamente o que esses adaptadores fazem. Por coincidência, comprei hoje um punhado de adaptadores HDMI > VGA. Acontece que os desktops novos da Dell também estão vindo somente com portas HDMI e DP. Não deve ser um grande problema. E pelo menos teoricamente, converter o sinal do HDMI deve gerar o mesmo atraso que converter de uma saída DP, já que as duas são digitais.
  25. Não sei qual o metal do scroll, mas ele tem um grossa camada de verniz. Acho muito difícil enferrujar apesar de uns doidos terem aparecido no redit dizendo que o deles enferrujou. Deve ser restos de doritos...

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...