Ir ao conteúdo
  • Cadastre-se

Zeca Pagodinho

Membro Pleno
  • Posts

    795
  • Cadastrado em

  • Última visita

Tudo que Zeca Pagodinho postou

  1. Pensando em upgrades, uma fonte de 350W talvez não seja uma boa opção...
  2. Monitores, TVs, liga direto na rede elétrica ou num filtro de linha. Não liga na fonte do computador, aliás, acho que isso nem existe mais, ou melhor, nunca existiu. A saída que algumas fontes tinham para a gente conectar algum item dos periféricos só usufruía de proteção contra picos de tensão/corrente graças ao famigerado fusível da fonte e olhe lá. Fonte boa não tem essa saída, pode procurar, não vai achar uma sequer. Todavia, um bom filtro de linha é uma boa pedida para periféricos, dentre eles o(s) monitor(es) ou TVs. Quer calcular suas necessidades de energia? Eis a ferramenta de que precisa: https://outervision.com/power-supply-calculator Faz os upgrades que tu gostarias de fazer no futuro na calculadora e compara os resultados, vai te ajudar a decidir qual seria a fonte mais adequada para as tuas necessidades hoje e no futuro.
  3. Balanço mensal de distribuição de Folding Coins Durante os primeiros 900 dias do projeto foram distribuídos 500.000 FLDC por dia, o que terminou dia 16/12/2016. A partir de 17/12/2016 até se completarem outros 900 dias serão distribuídos 250.000 FLDC por dia. Entretanto a Folding Coin Inc. distribui esses valores mensalmente de acordo com a produção dos "associados", no primeiro sábado após a virada do mês. Abaixo segue um resumo com nome de usuário, pontos associados no período de 01/06/2017 a 01/07/2017 e os FLDC distribuídos referentes à produção de cada usuário. BALANÇO ilkyest_FLDC_16ziqv5eLaQdrdJjRj2i9K6jUgHKnUYuz6 Produção: 30.966 pontos Montante previsto: 204,59332554 FLDC Jonios_FLDC_1Pf4rumPNY6cxc9RAmWBtvTrQtwkQLgha8 Produção: 0 pontos Montante: 0 FLDC Shamichong_FLDC_13cjs9joALHnNWCMvEwDLXGrifQ7C9mFWZ Produção: 1.357.656 pontos Montante: 782,5182017 FLDC josefogaca_FLDC_1H3XNcGDf37cE23vQnPHbf5sBgwK5a1u83 Produção: 40.202.646 pontos Montante: 23.171,7771302 FLDC easyhelpinfo_FLDC_1GkNR2zq2NMaSSZfAqoDGmbWM3pcJ4Mrok Produção: 496.288 pontos Montante: 286,04771259 FLDC hudsonsilva_FLDC_1KWwCrrvfnK3wsyRUp1Zd5eo4vfQiZp91i Produção: 3.768.147 pontos Montante: 2.171,86357529 FLDC TOTAIS Produção: 46.179.703 pontos Montante: 26.616,79994532 FLDC Valor do FLDC no mercado Poloniex neste momento: 0,00000824 BTC Valor do BTC (Bitcoin) neste mesmo mercado: US$ 2.515.54 Valor do BTC no Mercado Bitcoin (Brasil): R$ 8.800,00 Valor do Dólar americano em relação ao Real: R$ 3,3007 Observações importantes: 1) Os valores do BTC, do FLDC, do US$ e do R$ são variáveis e os de moedas digitais são ainda mais. 2) O Mercado Bitcoin é uma empresa que opera com Litecoin e Bitcoin, compra e venda dessas moedas, e utiliza-se do mercado financeiro tradicional para fazer transferências bancárias. É através desse tipo de empresa que será possível sacar valores obtidos através do Folding. Deve haver outras, como PayPal, talvez. 3) O Mercado Bitcoin inflaciona os valores do Bitcoin, o que é uma garantia de lucros para quem trouxer seus Bitcoins para este mercado. Veja bem, 1 BTC no Mercado Bitcoin vale US$ 2666,1011 (6% a mais, podendo atingir cifras de 25 a 37% de ágio, dependendo da procura). 4) São cobradas taxas de movimentação de valores entre contas digitais. O valor da taxa de transferência da Poloniex para o Mercado Bitcoin é de 0,0001 BTC do montante transferido. 5) A Counterwallet também cobra por transferências e sempre em BTC. Se você nao tem saldo em BTC deverá transferir um valor em BTC para sua carteira de modo a pagar pela transferência dos seus FLDC para o Mercado Bitcoin, Poloniex, Bittrex ou outra empresa que negocia moedas digitais. Os valores são mais altos que os cobrados pela Poloniex, em torno de 0,0002 BTC. adicionado 6 minutos depois @Hudson Barreiros da Silva, @ilkyest e @easyhelpinfo, eis o balanço do último mês. Boa sorte durante este mês, esperamos que a dificuldade não aumente substancialmente. Durante o mês de maio foram necessários cerca de 1.060 pontos para obter 1 FLDC. Neste mês de junho essa cifra aumentou para 1.734,9832848 pontos/FLDC, sendo que nos últimos dias calculei algo em torno de 2.300 pontos por FLDC.
  4. Não te esquece do que comentei aqui. Como a Counterwallet utiliza-se de uma taxação variável para transferência dos valores, transferir pequenos valores não vale a pena. É preciso acumular um tanto para não ter prejuízo na hora de transferir. Outra coisa, a cotação do Folding Coin na Counterparty é a menor do mercado. De fato você terá de comprar um pequeno valor em BTC, transferir para a tua carteira Counterwallet e então transferir os teus FLDC para um mercado onde esta moeda esteja melhor cotada. Existem apenas a Poloniex e a Bittrex que comercializam o FLDC, portanto já pode ir te cadastrando em uma delas para futuramente negociar teus valores.
  5. Não tinha visto o teu post, desculpe a demora. Como já se passaram algumas horas, possivelmente a cotação do bitcoin e do FLDC tenham se alterado, fazendo com que os valores mudem. Agora, 11:28 (horário do Brasil), teus 286 FLDC valeriam US$ 6,57. Abaixo os cálculos: 1 FLDC = 0,00000892 BTC 1 BTC = 2576,03 US$ 286 FLDC x 0,00000892 BTC/FLDC x 2576,03 US$/BTC = US$ 6,57 Cotações do Mercado Poloniex (https://poloniex.com)
  6. OBSERVAÇÃO: a origem dos meus comentários partiu do teste da memória Optane de 32 GiB da Intel e foi movido para cá devido seu conteúdo estar mais relacionado ao vídeo. Todavia os assuntos tratados dizem respeito a memórias não-voláteis, este tópico e aquele estão ligados intrinsecamente. Isso explica a discrepância entre os ciclos de regravação dos bits de dados e o TBW indicado pelo fabricante. Digamos que, quanto maior a eficiência do sistema de balanceamento de desgaste mais próximos ficaremos do número de ciclos de regravação dos chips. adicionado 2 minutos depois Desfragmentação de unidades SSD não melhora muito o desempenho. A princípio um SSD é capaz de ler e manipular mais de um dado ao mesmo tempo, então dados fragmentados não aumentam muito a latência de resposta. Creio que traria mais benefício para aqueles casos em que as unidades SSD trabalham em modo de compatibilidade AHCI.
  7. https://www.mydigitaldiscount.com/everything-you-need-to-know-about-slc-mlc-and-tlc-nand-flash.html Retirado dos comentários do vídeo postado pelo @Rafael Coelho. Neste artigo informam a durabilidade do SSD em ciclos de regravação, ou seja, quantas vezes o mesmo bit pode ser regravado antes de apresentar falhas. Interessante observar a discrepância entre TBW e o valor em ciclos de regravação. Vejamos o porquê... Vamos comparar a questão do SSD WD Green 240 GiB, com TBW de 80 TiB, com a taxa de ciclos de regravação indicada no artigo do link acima. Segundo esse artigo um chip TLC típico teria uma taxa de regravações de 3000 a 5000 ciclos. Usemos a média de 4000 ciclos para efeito de cálculos. Ora, se cada bit de um SSD TLC pode ser regravado 4000 vezes, seu conteúdo total pode ser multiplicado por 4000 e teremos a quantidade de dados que podem ser gravados num dispositivo desse tipo (graças ao balanceamento de desgaste): 240 GiB x 4000 = 960000 GiB, ou 937.5 TiB (sou do tempo que 1 MiB = 1024 KiB; 1 GiB = 1024 MiB, e assim por diante.). É algo bem superior aos 80 TiB de TBW indicados pelo fabricante, mas se aproxima bastante daqueles resultados mostrados no teste da TechReport. A propósito, somente os SSDs da SAMSUNG usavam chips TLC no teste do link, todos os outros usavam memórias MLC. Se voltarmos ao TBW e fizermos o caminho inverso, a partir da quantidade máxima de dados regraváveis calcular o número de vezes que cada bit poderia ser regravado, o SSD WD Green 240 GiB teria tempo de vida útil de apenas 342 ciclos. O cálculo: 80 TiB/0,2344 TiB (240 GiB) = 341,33... Em suma, agora compreendi o que o TBW significa. Facilita as coisas para quem quer calcular o tempo de vida útil do hardware no seu empreendimento e planejar a manutenção, mas ao usuário comum acho que mais atrapalha do que ajuda. Ao usuário comum fica difícil comparar os SSDs existentes, uma vez que, quanto maior a unidade, maior o TBW indicado. Outra conclusão que tiro é que, apesar do que os fabricantes informam, vale mais o resultado dos testes. E os testes, como representativos da realidade, são categóricos em demonstrar que os SSDs duram muito mais tempo do que a garantia que lhes é atribuída. Como todos os SSDs duraram muito mais que a garantia, não dá para dizer que se tratava de uma amostra viciada, excepcional, estatisticamente isso é muito pouco provável. Também é pouco provável que esses resultados se repitam em todos os SSDs, mas a média vai girar próximo dos valores indicados nos testes.
  8. Trecho do artigo, grifo meu: Resposta do @Gabriel Torres a um questionamento sobre a durabilidade dos SSDs, comentários ao artigo de Teste do SSD WD Green: No próprio artigo sobre o SSD WD Green há uma tabela indicando TBW de 80 TiB para esse SSD. Todavia continua se propagando que os chips de memória TLC têm TBW de 10 TiB, que não são indicados em determinadas situações, etc. Poderiam acabar de vez com esse mito e assumir que os SSDs são praticamente eternos considerando a finitude da vida humana e a carga de trabalho habitual em desktops? Caso contrário, poderiam explicar melhor porque considerações como as destacadas acima? Pois bem, posso estar errado, mas quando falamos em cache estamos dizendo que um determinado número de arquivos habitualmente acessados ficam gravados nesta área do disco e, por estarem "à mão", são acessados com uma velocidade muito maior que a habitual. No caso dos discos rígidos, que precisam movimentar suas agulhas de leitura sobre a superfície do disco até localizar os setores que guardam as informações, lê-las, transmiti-las e transcodificá-las em sinal digital antes de se tornarem disponíveis ao processador, um cache acelera demais o processo, ainda mais se esse cache pode ser acessado usando o protocolo NVMe. Como os dados já estão lá e somente serão lidos, nenhuma gravação será realizada, ou seja, não haverá nenhum estresse sobre os chips, não haverá desgaste do tempo de vida útil. Porque não poderia utilizar um SSD como cache de disco? A propósito, não são usados chips dessa natureza em HDs híbridos? Tudo bem, o HD é quem vai determinar a durabilidade do conjunto e como duram muito menos que os SSDs, qualquer chip, seja SLC, MLC ou TLC, qualquer um vai durar esse tempo com confiabilidade. E no caso do arranjo de um SSD como cache, qual seria o problema? Nenhum dado do cache afetaria o dado do disco, um SSD que tiver seu tempo de vida útil esgotado não provocaria maiores danos na vida de um usuário comum: falhou, parou de funcionar, desfaz o arranjo ou troca de disco cache. OBS.: nunca fiz um arranjo desses, se não der para desfazer, então é melhor nem criar um. Quanto à aplicabilidade dessas memórias, vejo muito além do que estão comentando ou estou completamente enganado. Os colegas @Carlos Eduardo B Camargo e @fenixcload, por exemplo, comparam os resultados desse arranjo de disco rígido com as memórias Optane aos de um SSD como se fossem muito próximos ou que instalando um HD e um SSD em separado não haveria muita diferença. O meu entender do teste é que esse arranjo reúne a velocidade das memórias Optane com a capacidade dos HDs num único dispositivo, o qual, aos olhos do sistema operacional e do usuário comum, é de fato um só. Onde eu conseguiria um SSD de 4 TB? Ou mais ainda, um dispositivo M2 de 4 TB para desfrutar da velocidade que os testes demonstraram? Os resultados são assombrosos, é o que penso. Em suma, os preços podem ser caros, mas esses resultados justificam o investimento, dependendo da necessidade e do objetivo. Dificuldade de instalação se resolve com o tempo. Questão: porque razão somente um Core i7 de sétima geração pode ser usado para criar esse arranjo?
  9. Tenho um Optilex da Dell e resolvi procurar saber sobre a fonte que o acompanhava. Para minha surpresa, eficiência de 88% segundo informações da própria Dell. Claro, 230W, apenas, mas muito boa a fonte. Tem que procurar bem quando se deseja encontrar informações de fontes de grandes fabricantes de PCs, geralmente eles fornecem bons produtos, pois dão GARANTIA. Ninguém vai dar garantia se colocar uma fonte bomba no gabinete...
  10. Quando a gente tá na pior, sem grana, surgem umas promoções que a gente se arrepende de ter nascido pobre! Bom, independente do preço da Pixau estar muito bom ou o do micro usado estar supervalorizado, a primeira impressão que tive foi: "Caraca! Não pode ser!" Mais um ponto pro pessoal do marketing que captou isso e colocou no material visual.
  11. Cabe, tem que caber. Se tiver qualquer tipo de dificuldade, pede o dinheiro de volta relativamente ao gabinete, pois é certo que a Gigabyte não está infringindo o padrão ATX na sua placa-mãe.
  12. Conforme escrito pelo @Lucas Emanuel Valério , deverias ter feito essa alteração antes de tirar a placa de vídeo do computador. Ao reiniciar, mudar o cabo para o vídeo on board e pronto, questão resolvida. Em geral há uma opção automática em que é dada preferência ao vídeo off board, placa instalada no primeiro slot PCI-E 16x. O vídeo on board só ficaria disponível em caso de ausência de uma placa de vídeo off board instalada ou por por expressa demanda do usuário ao configurar na BIOS. Nesse teu modelo parece que deves definir qual é a opção escolhida SEMPRE. Mas... resetar a BIOS deveria dar conta do problema.
  13. Tenho essa mesma impressão em relação ao Windows 10, mas para saber isso, efetivamente, seria necessário ter um aplicativo que monitorasse leitura e gravação do SSD ao longo de um período determinado para se descobrir qual é o impacto do SO sobre o prazo de vida útil do dispositivo. Todavia, meu caro, isso é proibido de ser discutido aqui. Se quiser, abra um tópico no setor adequado, conforme orientação do Gabriel.
  14. Os computadores da Dell são muito bons, vê-se na prática quando se compara a fluidez do sistema em relação a outro micro com as mesmas configurações, mas de outro montador/fabricante. Isso se deve, geralmente, a uma boa fonte, com ótima eficiência, e bem dimensionada para o hardware que acompanha. Veja bem, "para o hardware que acompanha". Qualquer item que você adicionar pode ser a gota d'água que falta para saturar a fonte e sobrecarregá-la. Se quer algo mais, adiciona nas configurações da cotação e compra tudo pronto. Geralmente esses gabinetes da Dell são bem compactos e não permitem instalação de uma placa de video Full. Quanto ao preço, quando você compra um computador da Dell, da Lenovo, HP, etc, você compra também o suporte, a qualidade, entre outros serviços. Isso vale $ e está embutido ao preço do produto. Essas coisas dependem da avaliação de cada um e eu, pessoalmente, não compraria um computador pronto, eu o montaria.
  15. Melhores drivers para Linux (testados aqui): Para GTX 980 e GTX 1080 -- 370.28 Para GTX 1080 Ti -- 378.13 Por que dois drivers diferentes se temos duas placas de vídeo Pascal entre esses dois grupos? A GTX 1080 Ti só passou a ser reconhecida pelo driver 378.13. Embora desde o driver 367.xx haja suporte a GPUs Pascal, somente nesta versão é que os linux users tiveram suporte a essa monstra. Com o driver 370.28 a GTX 1080 Ti permanece com clock baixíssimo e só aumenta quando requisitada pelo Mozilla Firefox, por exemplo. O Folding@Home não é capaz de fazê-la despertar do sono... Entretanto o driver 378.13 não tem bom desempenho com a GTX 1080 e GTX 980. Provavelmente, caso tivéssemos condições de usar o driver mais antigo na GPU mais nova nos deparássemos com rendimentos ainda melhores. Infelizmente temos esse paradoxo no histórico de suporte a GPUs Pascal: a GTX Titan X Pascal já era suportada bem antes da sua irmã 1080 Ti. Overclock no Linux Tanto a série 9xx quanto a série 10xx tem suporte a modificações do clock de base e controle de FAN através do software NVidia-Settings. Não quer dizer que outras famílias não tenham, eu simplesmente desconheço se há. Todavia essas características não são habilitadas automaticamente em nenhuma GPU. É necessário incluir uma linha no arquivo de configuração do X.org: Option "Coolbits" "12" Mais detalhes sobre o procedimento, favor consultar o link que segue:http://ubuntuforum-br.org/index.php?topic=117588.0 Para entender porque o número escolhido é "12", leia o conteúdo desse thread dentro de outro fórum: http://www.gpugrid.net/forum_thread.php?id=3525&nowrap=true#38973 Dentro do primeiro link você encontrará o comando para modificar o clock da GPU. Abaixo eu o transcrevo e explico: nvidia-settings -a [gpu:0]/GPUGraphicsClockOffset[3]=120 -a [gpu:0]/GPUMemoryTransferRateOffset[3]=60 Este comando deve ser digitado em um prompt de administrador (root) ou usando o sudo. [gpu:0] se refere ao endereço da sua GPU no sistema, principalmente se houver mais de uma. Pode haver uma confusão aqui, uma vez que a GPU dos processadores Core i3, i5 ou i7 pode ser reconhecida como GPU0. Verifique o número da sua GPU NVidia usando o programa NVidia-Settings. Os dados oferecidos pelo Folding@Home através do log podem não ser precisos. Observe que há dois comandos aninhados numa linha só, os quais são precedidos pelo identificador -a. Em ambos vemos "Offset=", ou seja, os valores que se seguem são somados ao clock da GPU e ao clock de memórias. "GPUGraphicsClockOffset[3]=120" indica que o clock de base da GPU no perfil n° 3 será aumentado de 120 MHz. "GPUMemoryTransferRateOffset[3]=60" indica que o clock de base da memória no perfil 3 será aumentado de 60 MHz. Os perfis são listados em PowerMizer, Performance Levels, no NVidia-Settings. Nem todas as GPUs possuem tantos níveis de performance, dependo do que você tem em mãos. Essa é a única maneira de mudar o clock dessas GPUs. Para alterar a velocidade de FANs é mais fácil. Desde a inclusão do Coolbits="12" o NVidia-Settings, sessão Thermal Settings, fica habilitado a modificar a velocidade de FANs em tempo real e no software com interface gráfica. Basta clicar em "Enable GPU Fan Settings" e alterar a velocidade manualmente. A partir desse momento a velocidade de FAN não varia mais de acordo com a temperatura da GPU, você é quem determina. A velocidade escolhida vai se manter a mesma até que você a modifique de novo ou desmarque a opção previamente marcada. Lembre-se que o processador gráfico tende a ter seu clock reduzido à medida que a temperatura aumenta. Para melhores rendimentos é importante manter a temperatura do núcleo abaixo de 76°C, em algumas ocasiões uma redução mais drástica traz resultados ainda melhores. NOTA:
  16. Simples, utiliza-se a função SE. A fórmula fica nas células da coluna E, plan1, e as células da coluna B, plan2, são argumentos caso VERDADEIRO. Usarei a linha 1: =SE(B1=Plan2!A1;Plan2!B1;"Não combina!") Lembrando que "Não combina!" é o texto a ser mostrado caso não haja correspondência entre os valores comparados, ou seja, a resposta caso FALSO. Depois é só transpor a fórmula para as linhas seguintes até onde desejares.
  17. Obrigado pela atenção. Gostaria de salientar que a minha dúvida é em relação àqueles dados que são gravados frequentemente no dispositivo de armazenamento, ainda que em pequena quantidade, mas muito frequentemente. De qualquer forma, mesmo que um determinado processo seja capaz de esgotar o tempo de vida útil de determinada sequência de bits, terá de fazê-lo outras milhares de vezes sobre as sequências seguintes e assim sucessivamente até conseguir ultrapassar o limite dos 16 GiB extras reservados para correção de erros: Então creio que dê para ficar tranquilo que minhas unidades SSD vão ver colegas discos rígidos virem e irem em várias gerações sucessivas antes de se despedirem, honrosamente, depois de décadas de trabalho confiável. Todavia, gostaria de poder mensurar isso. Existe algum software de monitoramento dos ciclos de leitura e gravação aos quais uma unidade de disco qualquer é submetida durante um período determinado? Se houver, alguém poderia indicá-lo? adicionado 4 minutos depois Um TBW de 80 TiB está excelente para uma unidade de chips TLC, não é mesmo? No artigo "Anatomia das unidades SSD" o comparativo é de 10x menos ciclos de gravação em relação a uma unidade MLC.
  18. Enganei-me de processador. O R7 1700 foi testado pelo Clube do Hardware e foi inferior aos R5 em praticamente todos os testes realizados. Se for para jogos o R7 ainda não é bem aproveitado pelos jogos, seria a única explicação para essa queda de desempenho.
  19. Aos jogadores de plantão, se não me engano o Ryzen 7 1700x se sai pior que o Ryzen 7 1700, não me perguntem o porquê... O Ryzen 7 1700x seria específico para aplicações que necessitam de muitos threads de CPU.
  20. Bom dia, @Rafael Coelho . Obrigado pelo teste, sempre um bom trabalho. Tenho uma dúvida prática: esses SSDs têm um tempo de vida útil bem determinado, não se recomenda usar o modelo testado em aplicações que requeiram grande carga de regravações sob pena de ter que substitui-lo em breve. Esse tempo de vida útil pode ser medido pelo tempo em que o micro permanece ligado (por exemplo, um micro que fica ligado baixando conteúdo da internet e gravando-o num HD) ou somente para os casos em que efetivamente há uma leitura-gravação intensa. O que me pergunto é se o computador ligado lança mão de muitos ciclos de leitura e gravação no SSD independentemente de haver um trabalho direcionado a isso. Outra questão, de ordem geral: dentre os testes realizados, qual deles estaria mais próximo da percepção do usuário final, ou seja, uma diferença que poderia ser perceptível sem serem realizados testes de desempenho. Por exemplo, o usuário é acostumado a fazer transferências de grandes arquivos, que levam vários minutos para se concluírem. Em outra ocasião ele copia múltiplos arquivos. Faz essas cópias do SSD para ele mesmo ou de um disco rígido para o SSD, do SSD para o disco rígido, entre SSDs, etc. Haveria diferença significativa de tempo entre essas tarefas a depender do modelo utilizado? Se sim, quais são os testes que indicariam isso? Se essas perguntas estão respondidas em algum artigo, não perde tempo, é só indicar para a gente que vamos dar uma lida. Obrigado!
  21. @Imakuni , obrigado pelas considerações, aqui vão as minhas: Existe uma faixa de carga em que a eficiência de sistemas elétricos é maior. Esta é uma premissa. O VRM faz esse trabalho de converter as voltagens recebidas pelos cabos PCI-E para aquelas necessárias à GPU, chips de memória, etc. Por conta desse trabalho gera calor, e que não é pouco. Aumentar o número de fases diminui a carga relativa sobre cada controlador de tensão, o que diminui a dissipação de calor individual e consequentemente mantém esses chips longe do limite de trabalho para os quais foram projetados. De acordo com a premissa logo no início desse parágrafo, ajuda a manter esses chips dentro das especificações de melhor eficiência energética. NOTA: esse é um raciocínio linear, desconheço detalhes de funcionamento dos chips controladores de tensão. Imagino que um VRM com várias fases utilizaria uma e manteria os demais chips em espera, comutando a uma frequência de 500 KHz, de acordo com informações do vídeo, e a retomada de uma fase ociosa poderia solicitar uma energia extra. Creio que não seja o caso, geralmente se associa mais fases a maior eficiência. Continuando, chips controladores de tensão com menor temperatura são capazes de manter a tensão mais estabilizada, uma vez que não sofrem os efeitos do calor sobre a condutibilidade, que é justamente o que os limita, vide especificações indicando corrente e temperatura para esses chips. Pois bem, a temperatura dos controladores aumenta e se estabiliza de acordo com a carga que lhes é requerida e a capacidade de dissipação que têm. Aumentar a carga, ou seja, aumentar o clock da GPU, aumenta sua temperatura. Para aumentar mais o clock pode-se aumentar a tensão fornecida à GPU. Nesse ponto eu compreendo que isso se faça aumentando o limite de potência máxima permitido para a GPU, algo que só se faz via programas como MSI Afterburner e outros criados pelas fabricantes para as suas linhas de hardware, tudo controlado pelo algoritmo de PowerBoost, ou seja, o overclock automático que citaste. Daqui surgem duas colocações: 1) fazer overclock real, ou seja, aumentar o limite de potência da GPU, via software, mas deixando que o algoritmo PowerBoost escolha o melhor clock; 2) não fazer overclock, não aumentar o limite de potência, deixar tudo como está. Esse segundo ponto pode parecer contraditório, como posso aumentar o meu desempenho sem mexer em nada? Pois é baseado em todos os dados já citados que sustento minha afirmação: mais controladores de tensão, melhor desempenho. Havendo mais controladores, cada um dissipando uma parcela de calor que poderiam dissipar, teremos uma necessidade de dissipação menor por controlador. Ao invés de reunir o calor sobre uma pequena superfície, distribuiremos sobre uma superfície 8x maior (8 fases), além de ser menor o calor. Fica mais fácil de dissipar calor sobre superfícies maiores (essa é outra premissa). Menor temperatura de operação, maior condutibilidade, mais fácil de fornecer o que o chip da GPU requer, maior estabilidade: independentemente se o chip opera em overclock ou não, se houver um pico de consumo, lá estará a energia solicitada sem muito custo, este não sera um fator limitante. Desconheço quais seriam essas limitações. Refere-te ao limite de potência? Ele pode ser aumentado, mas tem um limite máximo... estarias te referindo a esse limite máximo? Não, não sabia, obrigado por explicar isso. Tu me indicaste o vídeo, não só para mim, mas para quem vier a ler esse tópico, mas eu tenho uma certa dificuldade com o inglês. Estou em Montréal, mas falo francês. Pretendo me aperfeiçoar em relação ao inglês, mas essa é outra história. Pois bem, o autor pode ter dito como funciona o controlador de tensão na AMP! Edition, mas para ficar mais claro, esses controladores trabalhariam em duplas controlados pelo mesmo chip comutador de 500 KHz? Considerando o que já expus a respeito do que entendo ser importante, qual é o resultado sobre a carga que cada chip controlador leva nas costas? Trabalhando lado a lado com outro controlador não melhoraria sua eficiência, também? Uma pequena correção: o modelo da EVGA que ela citou não é o FTW. O modelo citado pela autora tem 5+1 fases: https://www.evga.com/Products/Product.aspx?pn=08G-P4-6181-KR Com um sistema controlador de tensão folgado, com dissipação de calor eficiente (que não compromete o restante da placa de vídeo), maiores as chances de alcançar o limite máximo do Boost Clock. Digo isso porque monitoro a temperatura da GPU e o clock que ela mantém sob carga contínua (Folding@Home é como um torture test) de acordo com o clock máximo teórico para o perfil em que ela está trabalhando (via NVidia-Settings, Linux). Quanto maior a temperatura, menor o clock que ela mantém. Não precisa ter nitrogênio líquido para verificar essas variações. Para encerrar, eu não vejo problemas em suscitar discussões mais aprofundadas em quaisquer tópicos desse fórum, salvo restrições em contrário, as quais desconheço. Entendo que quem vem aqui pedir a opinião de usuários mais experimentados o faz não só para solucionar a sua dúvida, do tipo, "Escolho este ou aquele?" e o fulano responde: "Aquele". Acho que o pessoal vem para aprender também: "Aquele, por conta disso, daquilo e daquilo outro." Fórum = discussão, aprofundamento, aprendizado, CRESCIMENTO, em última análise. Continuo achando a Zotac melhor...
  22. Se tiver a opção de comprar uma Gigabyte GTX 1080 G1 Gaming, escolhe essa. Eu tenho uma desse modelo e supera expectativas. O clock que ela alcança, sem overclock, é superior ao determinado nas especificações, consome menos e tem um ótimo desempenho. Para se ter uma ideia, ela usa só um conector PCI-E e a maioria das GTX 1080 utiliza um de 6 e outro de 8, às vezes 2 de 8. Além disso o sistema derefrigeração é superior à maioria das demais VGAs disponíveis no mercado, perdendo somente para modelos de custo bem mais elevado. Entre a Zotac e a EVGA, sou mais Zotac. Eu diria que as duas marcas estão no mesmo patamar, mas entre os dois modelos que estão postos neste tópico com certeza a Zotac leva vantagem. Procurei para me certificar, mas não encontrei informações sobre o controlador de tensão desse modelo da Zotac, pois sei que o modelo AMP! Edition da GTX 1080 Ti tem 16+2 fases, o que é garantia de melhor desempenho em maiores frequências de clock. adicionado 6 minutos depois Discordo. As VGAs da série 10xx, devido ao GPU Boost, são muito sensíveis ao calor, é superimportante escolher um modelo que tenha um sistema de refrigeração eficiente, caso contrário o boost será muito leve. Além disso, escolher aquele modelo que possua um controlador de tensão de mais fases ajuda a aumentar a eficiência energética, reduzir a dissipação de calor e aumentar a estabilidade elétrica, aumentando ainda mais a chance de um boost maior. Fazer esse balanço importa bastante a longo prazo. Começar a escolher pelos modelos mais bonitos é inverter a ordem das coisas.
  23. O Windows reconhece o hardware e o gerencia? Ela estaria funcionando, os únicos problemas são as saídas de vídeo, que não ofertam mais sinal nenhum, correto? Pois bem, não sei te dizer se interessaria a algum profissional uma placa dessa idade, mas funcionando ela poderia ser usada para renderizar projetos de CAD, fazer conversão de vídeos, etc. Em outras palavras, verifica se isso é possível e põe à venda. Pode ser útil para outra pessoa. Aproveita o quanto conseguires para investir num equipamento novo ou até mesmo usado, mas em melhores condições. Não creio que valha a pena tentar consertar com um profissional.
  24. Observe as mensagens do @OpaioX. Embora o @AmarildoJr também traga informações interessantes, o OpaioX traz toda sua experiência descrita ao longo dos posts que fez e esclarece para que serve o ping e como interpretar seus resultados, além de discorrer sobre uma grande lista de possíveis causas para um aumento da latência de resposta da rede. E não se fixe sobre valores de ping. Quanto mais baixo, melhor, mas é possível jogar bem com valores mais altos. Isso foi descrito pelo OpaioX e sua experiência, basta ler. Por fim, eliminados fatores da rede interna, poderás pedir à operadora de internet que façam uma avaliação técnica a fim de melhorar a qualidade do serviço que prestam.
  25. Muito provavelmente o teu estabilizador matou as duas fontes! Pode fazer uma queixa-crime e exumar o corpo da fonte prévia que as provas estarão lá: condenação por 2 homicídios, ambos por envenenamento! Sem brincadeiras, a XFX deveria durar mais, mesmo com um estabilizador atrapalhando. Não está na garantia? Reenvia para a XFX ou para a loja onde compraste e recupera um produto novo. Aliás, deverias já ter feito isso desde que começou a apresentar problemas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

 

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!