Ir ao conteúdo
  • Cadastre-se

wilsansilva

Membro Pleno
  • Posts

    357
  • Cadastrado em

  • Última visita

Tudo que wilsansilva postou

  1. valeu pelo post galera do CDH. Uma sugestão, caso lhes interessarem: É possível fazer essa bateria de teste mas com memórias de frequências diferentes? Como partindo de modelos com 1333MHz a até 2400Mhz por exemplo? Sempre quis saber se isso influenciaria ou não o desempenho do micro (em se tratando de usuário final). Abraços... Caso já tenham o teste feito, gostaria que postassem o link (tenho memória curta). Grato galera.
  2. Bom ,espero que seja realmente "caso isolado" mas ainda fico com um "pé atrás" diante dessa situação.
  3. Primeiramente quero parabenizar pelo post. Notei que houve um significativo progresso na nova plataforma lançada, porém, o que mais me chamou a atenção (e até fiquei muito temeroso) foi com um constante número de usuários desta plataforma questionando a fragilidade do PCB (eles são mais finos que os tradicionais) destes novos CPUs vindo de sites gringos. Muitos utilizadores dos produtos da Intel de sexta geração notificaram um problema "horripilante", do tipo que os processadores estavam quebrando com o peso (ou a pressão) dos dissipadores mais robustos, inclusive danificando as mobos em que elas estavam alojadas. A MSI por exemplo anunciou suportes CPU Guard para "dellidding", no intuito de preservar o CPU contra esse tipo de dano (mas não impede de um usuário descuidado "detonar" o processador no ato de remover o escudo do CPU, tornando este um desastre maior). Sabendo da situação, fica até tenso fazer um upgrade, pois quem utiliza um processador mais potente acaba optando por um coolerbox melhorado, dispensando os coolerbox original da marca, que até o momento não apresentou danos ao CPU. Fica a sugestão caso a equipe CDH desejar. Abraços a todos.
  4. @samagowy Demorei bastante mas voltei . Concordo de seu ponto de vista, as iGPUs da Intel tem o processador como ponto favorável (a AMD também tem, mas cada qual possui tecnologias diferentes), mas não vamos nos esquecer que o Iris Pro HD 6200 tem nada mais e nada menos que 128 MB de cache L4 eDRAM totalmente dedicado, literalmente "debaixo do capacete" do processador, dividindo a mesma pastilha de silício da GPU e separado da CPU apenas pelo interposer. http://www.notebookcheck.net/Intel-Iris-Pro-Graphics-6200.125593.0.html @Wesley Sidney Respeito sua decisão mas quando mencionei "dificilmente" não me referi em unanimidade (todos) e sim que raramente alguém tomaria essa decisão. Se uma pessoa deseja ter o processador apenas para uso de iGPU e tem dinheiro de sobra para torrar onde desejar, tudo bem, pois é uma escolha dela e devemos respeitar sua decisão. Tentem entender isso para não gerar desconforto. Abraços...
  5. Parabéns equipe pelo post. Enfim, depois de tanto se falar, a PC Yes entra de vez no mercado de placas de vídeo. Espero ver boas recomendações dela por aqui no Brasil, a longo prazo, não só em performance mas em vida útil, afinal o preço dela deve ser um tanto elevado.
  6. Parabéns pelo review e pela dissecação e explicação de cada placa testada CDH. Legal ver o duelo das grandes placas de vídeo de 2015 lado a lado. Qualquer uma das duas para mim estava maravilhoso .
  7. @Wesley Sidney, antes que eu me esqueça, dificilmente alguém em sã consciência iria "torrar" dinheiro para comprar um CPU i7 5775C buscando desempenho de iGPU. Acredito que a Intel queria apresentar um novo conceito de tecnologia para seus gráficos integrados, possivelmente populares a nível de futuro nos modelos de entrada, como um Pentium talvez. Já a AMD que não tem muito domínio de mercado no segmento processador, teoricamente domina bem o uso iGPU CPU e, com isso, fornecer um preço mais atraente. O bacana deste teste é que o Iris Pro 6200 que equipa o Core i7 5775C possui um iGPU superior aos demais já lançados pela empresa (Intel) para o usuário final e adorei vê-lo concorrendo com o iGPU mais parrudo da AMD (para minha infelicidade, o iGPU da Intel ganhou em todas, mas faz parte). Esta foi uma boa sacada da galera do CDH.
  8. @Wesley Sidney Soube de alguns rumores em que a AMD pretende levar o HBM para as APUs (mais precisamente ao Zen, que mal sabemos de fato se ela saíra em 2016), porém, nada concreto surgiu. Se a AMD realmente levar a memória HBM para suas APUS, ela provavelmente elevará os gráficos integrados a um outro nível, visto o ganho que essas memória possuem e a unificação do interpositor, pois memória e CPU/GPU dividem o mesmo componente. A equipe CDH, mais uma vez, meus parabéns. Esta metodologia de teste com iGPU foi incrível e as variações de resultados entre as combinações eliminam bastante as dúvidas de quem procura por essa informações.
  9. Utilizo esta ferramenta há algum tempo e ele realmente é eficaz. Ainda não tive a chance de utilizar a versão para para saber quais pontos adicionais ele oferece, mas a versão grátis realmente é uma "mão na roda" e remove bem muitas ameaças impregnadas no sistema. valeu pelo post galera .
  10. @AmarildoJr Verdade. Pelo menos atualmente não temos mais sites dedicados com conteúdos tão técnicos e esclarecedores como aqui. Por isso estou sempre por aqui para aprender mais com a equipe e os membros, além de ler o que os outros entendem nos comentários e entender do ponto de vista de cada um. Afinal, sou um eterno aprendiz. @jofranx, antes que me esqueça, os Feature Levels como os Tiers, até onde sei, são recursos totalmente DirectX12. Se não me engano, o Vulkan tem outros meios de classificação.
  11. Caro colega. Não se desespere com isso. Você talvez deva ter esquecido que o foco do DX12 é ganho real de desempenho por parte do hardware como um todo, principalmente em eliminar o overhead do processador, muito comum no DX11. Caso você não tenha ideia do que isto significa, veja abaixo uma matéria que mostra o desempenho de um processador com placas de vídeo compatível com o DX12, mesmo que com Tiers e Feature Levels diferentes. Repare no ganho de performance que a placa de vídeo ganha quando operando em DX11 e DX12 além das capacidades de cores diferentes entre os processadores envolvidos. http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm/3 http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm/4 Como os resultados evidenciam, se um frame no DX11 levava, supondo, 12ms para processar em modo serial, no Dx12, a depender da quantidade de núcleos, este tempo é dividido pela quantidade de núcleos, reduzindo o overhead, paralelizando o processo e aumentando o ganho de performance da aplicação. Quanto aos Tiers e Feature Levels, isto é significativo a depender de sua necessidade, mas o "grosso" do DX12 já demonstra este ganho enorme de performance na casa dos 100%, 300% e até 500%. Vou tentar passar de forma genérica o que entendi sobre os Feature Levels. Os Features Levels são recursos nativos presentes no hardware para executar instruções compatíveis com a GPU em questão, como Precisão Dupla, Typed UAV, Asynchronous Compute, 3D estereoscópico, Rasterização, etc., (ele funciona meio que de forma hierárquica, pois cada Feature level absorve os recursos do nível anterior e acrescenta recursos exclusivos), daí os diferentes níveis de Features. A AMD, por exemplo, garante que todas as suas GPUs são Tier 3 e fornecem suporte a partir do Feature Level 11_1 em diante. A Nvidia por outro lado possui suporte a partir da Feature Level 11_0 em diante. A Nvidia por outro lado não tem placas Tier 3 pelo menos até as Maxwell v2 lançadas (GTX 900 Séries), sendo classificadas em Tiers 1 e 2, a depender da arquitetura utilizada, porém, nada impede de ela ser Feature Level 12_1 (na qual a arquitetura Maxwell v2 tem suporte nativo, segundo a Nvidia), já que os recursos incluídos dentro desta Feature não dependa exclusivamente do Tier 3. O que isto impacta nos jogos? Em termos de desempenho geral, talvez não muita coisa, mas em termos de instruções específicas, aí vai depender de quem possuir Feature Level mais recente e, de certa forma ou indiretamente falando, um Tier mais apropriado (porém, conforme alguns sites que verifiquei, quanto maior o Tier, mais recursos a GPU pode oferecer, implicando numa melhor otimização). Um exemplo de recurso específico que influencia diretamente no desempenho da GPU pode ser visto no quesito Async Compute, exibido no bench Ashes of Singularity, em que a GPU da AMD teve ganho enquanto a GPU da Nvidia não conseguiu computar da mesma maneira que o modelo da concorrente (isto explica a queda das GPUs Nvidia na computação assíncrona, já que esta tecnologia não se encontra nos Tiers, segundo uma entrevista de um representante da área de hardware da AMD). Segundo um funcionário da AMD, não existe nenhuma placa plenamente DX12, que tenha o Feature Level 12_1 e Tier 3, mas conforme descrito antes, isto não chega a ser um implicador de desempenho, somente um recurso que a placa não comporta de forma nativa Então, se você possui um bom processador e pelo menos uma placa DX12 com Tier 1 e Feature level 11_0, você já possui o ganho de performance e desempenho. Feature Levels acima desta versão incluem recursos adicionais e efeitos que podem sim derrubar o desempenho da GPU, caso esta não forneça o suporte de forma nativa, encravada dentro do hardware. Só para esclarecer um comentário de um funcionário da AMD, nenhuma placa de vídeo da empresa é Full DX12, não a nível de Feature Level, pois existem etapas que sofrem emulação (isto, imagino, caso a GPU "entenda" o que ela precisará executar) ou simplesmente não processa, ignorando o comando e eliminado tal recurso ou efeito que o app poderia apresentar na tela, mas claro que quanto menos emulação houver, menor será a queda do desempenho, mesmo com os gráficos setados no "extremo" com direito a todos os recursos gráficos disponíveis existentes ativados e setados na "estratosfera". De certa forma, o suporte ao Feature Level vai de acordo com os apps e games criados. Acredito que ninguém vai desenvolver um aplicativo que tenha um elemento vinculado à apenas um recurso do Feature. Em suma, quanto mais perto do metal a API trabalhar, melhor e mais eficiente será a GPU. Segundo Robert Hallock (funcionário da AMD), os "recursos chaves" para todos os jogos se encontra nas seguintes versões de Feature Levels: 11_1 e 12_0. No site abaixo tem as placas de vídeo e as Feature Levels compatíveis, lembrando que o Tier apenas são camadas de atribuição de recurso (entendo que seja a quantidade de recursos que a GPU fornece para a API processar uma determinada quantidade de comandos - quanto mais recursos, melhor a otimização). http://wccftech.com/amd-confirms-gcn-cards-feature-full-directx-12-support-feature-level-111-gcn-10-feature-level-120-gcn-1112/ Ainda assim, o Feature Level 11_0 tem seu foco totalmente voltado a performance, ou seja, mesmo que no básico você vai obter sim um ganho exponencial de desempenho em suas aplicações que envolvam esta API (DX12). Caso tenha um interesse em alguma placa de vídeo compatível com alguma dessas versões de Features, então vá em frente e adquira uma. Tentei de forma bem genérica passar o pouco que entendi sobre Feature Levels e Tiers de suporte. Provavelmente tenha dados que não corresponda a realidade, por isso, correções serão bem vindas. Abraços a todos...
  12. Parabenizo o CDH por mais um belo trabalho. Como era de se esperar, o tema causou bastante polêmica nos comentários. Verifiquei que os resultados não eram o que muitos esperavam, mas acredito que existem explicações pelos resultados contraditórios, porém, como o objetivo da matéria foi se a quantidade de RAM influencia diretamente nos jogos, não questiono os resultados, muito menos a metodologia utilizada. Gostaria de deixar uma sugestão construtiva para amenizar as polêmicas causadas, ou melhor: duas (caso esteja ao alcance do CDH, claro, pois não é meu objetivo forçar a barra). A primeira seria um teste com a mesma metodologia de memória utilizada (mantém as mesmas capacidades de RAM utilizadas, em single ou dual channel), porém, com placas de vídeo de mesmo chip e quantidade de memória VRAM diferentes (tipo uma GTX 960 ou R9 380 com 2GB e 4GB - esta é a parte mais difícil de conseguir, imagino); A segunda seria acrescentar o game "Middle Earth: Shadow of Mordor", que além de ser um jogo extremamente lindo, ainda tem um recurso "bandido" de qualidade de textura, que rouba toda a memória VRAM da placa gráfica, tendo que dividir recursos com a memória RAM principal do computador (em consequência caem bastante os frames, pelo menos na teoria, já que a memória RAM é mais lenta que a memória VRAM e a transição dos dados armazenados de uma para outra influencia na perfornance). Quem sabe esse elemento não determine se a RAM pode ou não ser um fator fundamental nos jogos, a depender da placa de vídeo utilizada? São apenas sugestões que podem ou não serem acrescentadas. Talvez a nova matéria intitularia se quantidade de VRAM influencia ou não nos games. Quem sabe com essas modificações, algo de interessante não surge . Mais uma vez parabéns pelos teste e resultados obtidos. Abraços e valeu a todos.
  13. @Gabriel Torres: "...mas a porca torce o rabo quando descemos em mais profundidade..." Gostei do trocadilho. Fazia tempo que não via e ouvia essa expressão: "a porca torce o rabo"... Essa eu curti Abraços...
  14. Tiers são camadas. Não sei ao certo como funciona mas ao que parece, cada camada responde por determinada situação em que o hardware não consegue render (por não fornecer suporte de forma nativa), sendo que o software é quem emula determinados recursos que tal aplicação pode apresentar (caso a GPU seja compatível, imagino). Ao que tudo indica, com suporte via emulação, a placa perde desempenho se comparado com o suporte nativo. Quem tiver mais ideias sobre o assunto, explanações serão bem vindas. Talvez o site abaixo lhe passe alguma informação adicional com os modelos compatíveis de forma parcial como em "plenitude" (segundo um comentário de um funcionário da AMD que responde pelo setor de hardware, nenhuma placa de vídeo atual é Full DX12). Abraços. http://www.pcmanias.com/directx-12-que-placas-o-suportam-e-em-que-nivel/ Alguns sites gringos apontaram que a Nvidia não suporta DX12 via hardware, a não ser por emulação de código. Outro fator contra é a ausência de suporte a computação assíncrona. http://www.pcmanias.com/amd-fala-da-computacao-assincrona-em-shaders-e-promete-ganhos-de-performance-ps4-ja-a-usou/ Como ocorreu nos benchmarks de Ashes of Singularity http://wccftech.com/ashes-singularity-alpha-dx12-benchmark/ Muitas águas ainda vão rolar e certamente, por mais que a Nvidia não forneça correções agora, é provável que ela encontre outros meios para amenizar o pouco ganho em apps que usam o DX12. Vale lembrar que temos poucos benchs sobre desempenho de ambas as GPUs em DX12. Quando o DX12 tornar-se mais popular, mais benchs poderão sair e talvez mudanças podem ocorrer neste tempo. Só nos resta esperar. A ideia sobre este tópico é muito bem vindo e quem sabe o CDH não traz uma matéria mais clara sobre o assunto. Afinal, tiers e feature level é bem complicado de entender.
  15. @AmarildoJr Tinha até visto um comparativo em que o DX11 tradicional utiliza um core do CPU (se não me engando de forma serial) enquanto os demais cores ficavam praticamente ociosos, aumentando o tempo de execução e atrasando a placa de vídeo, enquanto no DX12 esta divisão é melhor distribuída entre os cores (distribuição de comandos de forma paralela), elevando a quantidade de informações e reduzindo o tempo em que os comandos chegam na GPU, elevando o ganho de desempenho.
  16. Não se desespere ainda. A Valve é uma das companhias que está aderindo ao Vulkan, uma API de instrução de baixo nível desenvolvido pela Kronos Group (tudo indica que em parceria com a AMD). Esta API deriva do Mantle (assim como o DX12), porém, com um grande diferencial, que é open plataforma (Linux, Windows, Android, Mac OS, etc.). http://wccftech.com/vulkan-reason-create-dx12-backend-valves-ginsburg/ Como ainda está em desenvolvimento (talvez em fase beta), espera-se que ela seja uma API tão interessante, senão superior, quanto ao DX12. Segundo algumas notícias que li, ela também fornece suporte paralelizado a nível de hardware, como acontece no DX12, em que a divisão das tarefas é bem distribuída para todos os cores do CPU. O que é muito interessante é a preocupação que tanto os desenvolvedores como fabricantes tem demonstrado quando o assunto é extrair o hardware em sua totalidade. Espero que estas APIs aproveitem bem o hardware, trazendo ganhos excepcionais. Uma das coisas mais legais destas novas APIs é que elas tornarão os cenários mais fotorrealísticos, partículas e traços mais fieis a realidade, sem desperdício de hardware. Bacana a matéria sobre DirectX. Imaginando aqui a explicação do CDH sobre sanduíche: Abstração (software) => DirectX (API)=> Driver (API)=> Hardware. Será isso? Abrçs.
  17. O que queria dizer é que no final de seu comentário você cita que a API (Physx) roda unicamente em cima do processador e não da GPU (mesmo essa sendo Nvidia, sacas?), mas como você citou placa de vídeo da AMD, agora sim eu vim entender
  18. Que estranho, isso é novo para mim. Eu tinha uma placa de vídeo da Nvidia e no painel de controle ou console Nvidia permitia escolher manualmente qual processador iria executar o Physx de forma fixa, podendo ser tanto a CPU ou a GPU. Como faz muito tempo que não uso Nvidia não sabia que o Physx era uma instrução proprietária somente para CPU.
  19. O tutorial explica bem e ajuda muito para quem deseja realizar os procedimentos do overclock, agora só falta uma mobo Z170, um processador Skylake final "k", nitrogênio, fonte parruda, etc., tudo por um preço bem acessível . Brincadeira à parte, obrigado pela informação equipe CDH.
  20. De fato. Estas mobos estão esteticamente espetaculares e me parecem que estão adotando o reforço metálico nos barramentos PCI-Express x16 de forma padrão. Uma boa para quem tem problemas com placa de vídeo grande empenando o slot.
  21. Simplesmente linda. Até o momento, estas novas armaduras que estão vindo nas mobos Z170 e chipsets inferiores tem melhorado a estética das mobos, porém, seu preço a nível Brasil ainda inviabiliza um upgrade. Parabéns galera pelo review.
  22. @Gabriel Torres, agora sei de onde tinha visto esta abordagem tão familiar vinda do @aziebert Tinha visto uma entrevista sobre o funcionamento técnico do G-Sync, onde ele mesmo explicava detalhadamente seu funcionamento, mas não me recordava muita coisa, pois faz muito tempo. Com esta explicação, a lembrança veio mais fácil, pois não sei mais como encontrar a entrevista . Parabéns a todos.
  23. Processador interessante para quem possui mogos LGA 1150, mas será que as séries 8 e 9 de chipset Intel suportam eles, já que ambas equipam mobos LGA 1150 ou ela é feita somente para um dos chipsets referidos? Tinha visto um teste com este modelo da quinta geração contra o Core i7 SkyLake topo e os dois tiveram desempenho bem interessante. Será que os processadores voltados para desktops quinta geração lançados pela Intel chegará ao mercado brasileiro? E alguém arriscaria um preço? Parabéns equipe pela matéria e pelos resultados obtidos, mas reconheço que a quinta geração de processadores da Intel pode passar batido, já que a sexta geração também saiu no mercado.
  24. Post interessante e bem esclarecedor. Fiquei meio confuso com os "saltos" que a AMD dispõe em seu site com os modelos que suportam e não suportam freesync (segundo Heiss, a R7 370 por exemplo não suporta freesync na geração R7/R9 300 series, vai entender). No final das contas, meu monitor não passa dos 60hz http://www.amd.com/en-us/innovations/software-technologies/technologies-gaming/freesync Parabéns pela matéria.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

 

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!