Ir ao conteúdo

aziebert

Membro Pleno
  • Posts

    353
  • Cadastrado em

  • Última visita

Tudo que aziebert postou

  1. FYI a Dell lançou um monitor G-SYNC bem parecido com o ROG SWIFT e já está disponível no Brasil: http://accessories.la.dell.com/sna/productdetail.aspx?c=br&l=pt&s=dhs&cs=brdhs1&sku=210-AGJR
  2. O SWIFT casa muito bem com uma GTX 980 Ti. 4K precisa do SLI e ainda é limitado a 60Hz. Entre um SLI de 980 Ti e um monitor 4K a 60Hz ou apenas uma 980 Ti com um SWIFT eu acho a segunda opção muito melhor
  3. Como o sdriver respondeu, um monitor de 144Hz se G-SYNC trabalha sempre a 144Hz, independente do frame rate do jogo. O que por si só (mesmo sem G-SYNC) já ajuda bastante, pois cada varredura de tela é mais rápida (dura 7ms em vez de 16ms), portanto o tearing é menos visível e o tempo de resposta é menor. Agora, para um SLI de GTX 980 Ti eu acho que um monitor Full HD, mesmo de 144Hz é um desperdício, é melhor partir logo pra 4K, pois esse conjunto vai conseguir manter mais de 60FPS em 4K com tudo no máximo na grande maioria dos jogos. Quanto à sua dúvida, sdriver; você pode escolher se quer que o driver limite o processamento ao limite do monitor (144fps no caso) ou deixar o jogo correr solto e apresentar tearing, como um monitor normal, caso o jogo rode a uma taxa maior que a atualização do monitor.
  4. @Correr, aqui estão listados todos os modelos http://www.geforce.com/hardware/technology/g-sync/where-to-buy-g-sync-monitors-and-modules No Brasil estão disponíveis o Philips 272G5 e o Asus ROG SWIFT http://www.megamamute.com.br/produto/monitor-gaming-wled-27-wqhd-144hz-com-g-sync-rog-swift-pg278q-asus-75131 http://www.kabum.com.br/produto/61238/monitor-philips-led-27-widescreen-gamer-nvidia-vesa-3d-vision-ready-display-port-272g5dyeb-57/?tag=monitor%20philips
  5. Eu que agradeço o espaço para poder esclarecer essas diferenças. O G-SYNC é uma tecnologia que pela qual me apaixonei instantaneamente, não só pelos benefícios, mas porque me permitiu entender melhor o funcionamento do sistema. E muita gente o desmerece por achar que os problemas de tearing e stutter só se manifestam em alguns casos, quando na verdade na maior parte do tempo você fica preso a um ou outro, o raro é tudo funcionar corretamente. Tearing não existe só quando o jogo roda a um frame rate maior que o refresh do monitor, mas SEMPRE que o v-sync está desligado (alias, 60fps com v-sync desligado é uma das piores experiências que existem pois a "tear line" fica sempre no mesmo lugar da tela). E ao ligar o v-sync o comportamento do sistema muda muito, pois cada frame vira uma corrida contra o tempo e se não for concluído no prazo (o intervalo de 16ms de um refresh de 60Hz, por exemplo) ele necessariamente terá que esperar até a atualização seguinte, não importa se o frame ficou pronto 1 ou 15ms após o prazo inicial/previsto. Assim você acaba jogando a 30fps a maior parte do tempo e com um input lag medonho, o que é péssimo principalmente para jogos que usam o mouse para movimentar a câmera (seja em 1a ou 3a pessoa), pois há um grande intervalo de tempo entre o movimento realizado e o resultado disso na tela. Com o G-SYNC dá pra aproveitar ao máximo o desempenho da GPU e ter uma excelente experiência sempre. Eu preparei um demo uma vez que mostrava bem isso. Uma GTX 760 roda o Batman Arkham Origins a quase 60fps com tudo no máximo. Para usar o v-sync e garantir os 60fps seria necessário desativar alguns detalhes. Enquanto que o jogo rodando a perto de 60fps com v-sync desligado provocava muito tearing. Com o G-SYNC é possível jogar tranquilamente a 57fps, por exemplo, com tudo no máximo. E ainda trouxe um benefício adicional de dar um melhor tempo de resposta, você sente o mouse mais "conectado" ao movimento de câmera; o que torna a experiência ainda mais satisfatória. Isso fica ainda mais evidente quando o jogo roda a mais de 60fps. Você pode não conseguir ver a diferença simplesmente olhando para um vídeo de 60, 90 ou 120fps, mas dá pra sentir isso jogando, o que acaba se tornando uma vantagem competitiva e colabora para deixar teus sentidos mais "aguçados".
  6. Meus queridos, embora ambas tecnologias tenham os mesmos objetivos, elas funcionam de formas um tanto diferentes, então gostaria de aproveitar o espaço para esclarecer um pouco isso. Quando a NVIDIA desenvolveu o G-SYNC não havia um padrão nem scallers que permitissem o controle da taxa de atualização de forma variável. Então em vez de esperar até que todas as peças estivessem no lugar ela resolveu desenvolver um módulo que não só permitisse isso, como também mais alguns recursos que simplesmente não seriam possíveis de outro modo e de quebra garantindo compatibilidade com as GPUs já disponíveis no mercado (todas Kepler em diante que tenham displayport). O módulo possui um "processador" FPGA (o que permite que o próprio projeto do "chip" seja atualizado) e generosos 768MB de memória, o que permite armazenar alguns quadros completos, sem compressão, o que facilita a análise deles para calcular não só a cor de cada pixel/sub-pixel, mas principalmente o nível de de overdrive, para eliminar o efeito ghosting. Algo que ainda afeta os monitores freesync, justamente porque os scallers não tem poder de processamento suficiente para calcular corretamente o overdrive em um cenário de refresh variável. (calcular o overdrive em refresh estático é fácil, fazer isso quando você não sabe quando o próximo frame vai chegar é que são elas...) Outro ponto onde as duas tecnologias divergem de forma significativa é a estratégia tomada no limite inferior do painel. A maioria dos painéis de LCD tem um "limite inferior" na taxa de atualização ao redor dos 35Hz. Ou seja, não podem ficar mais de uns 28ms sem sofrer atualização, caso contrário a imagem começará a desaparecer e isso é percebido pelo usuário como flicker (por mais que o backlight seja constante, o próprio painel sofreria uma variação na quantidade de luz que deixa passar). Para evitar que isso aconteça, o freesync reverte para v-sync ligado ou desligado quando o frame rate do jogo cai para um ritmo menor que o limite inferior do painel, trazendo de volta os problemas que ele deveria resolver (tearing com v-sync desligado ou stutter com v-sync ligado) que ficam ainda mais evidentes devido à baixa taxa de atualização (o tearing ou o stutter ficam ainda mais pronunciados porque o painel estará trabalhando a 40Hz, por exemplo). Enquanto isso o G-SYNC adota uma estratégia mais eficiente, ele re-escreve a tela para evitar que o painel perca carga. O usuário não vê essa varredura já que a imagem não muda e isso evita que haja flicker. E essa varredura é feita em um intervalo intermediário, tomado pela média do intervalo dos últimos quadros. Para evitar que essa varredura conflite com a chegada do próximo frame. (o que pioraria o tempo de resposta, pois atrasaria a exibição da nova imagem). Fora isso a NVIDIA vem integrando mais funções ao módulo, como o ULMB, a mira que pode ser projetada na tela e, recentemente, overclock do painel; o que permite que um monitor com painel certificado para 75Hz possa trabalhar a até 100Hz, por exemplo. Tudo de forma fácil, acessível pelo painel do próprio monitor, sem depender de um programa instalado no PC por exemplo.
  7. A ideia é que alguns notebooks usem memórias GDDR5 (em vez de DDR3) como memória RAM. Assim como é feito no PS4. O custo de uns 8GB de GDDR5 não é absurdo, o único problema é que o sistema não teria espaço para upgrades (as GDDR5 precisam vir soldadas na placa, não dá pra fazer módulos de memória). Porém nos ultrabooks isso não é tanto problema (a maioria já não oferece espaço pra upgrades)
  8. @EL ETRO já foi confirmado que a GPU do Kaveri tem 512SPs.
  9. Sirroman, a AMD deve falar em mais detalhes no próximo Hotchips, mas pelo que eu vi, na APU do PS4 os 8 núcleos estão organizados em dois grupos de 4, cada grupo com seu cache L2; do mesmo jeito que os 4 núcleos do Kabini. E tudo indica que a GPU é uma Pitcairn completa mas com duas CUs desabilitadas (para garantir a produção mesmo que os chips apresentem pequenos defeitos). A APU é semi custom no sentido de que não foi necessário desenvolver tudo, mas foi necessário desenvolver um chip novo a partir de blocos já existentes. Por mais que esses blocos já existiam, foi necessário desenvolver toda a "cola" para grudá-los (a parte "uncore" do chip) e ainda deve haver tecnologia da Sony integrada dentro do chip. (3rd party IP)
  10. Não deve ser FM2 porque a APU do PS4 deve ser um SoC (System on a Chip, integra tudo, até o chipset, no mesmo chip). Provavelmente nem terá socket, deve ser BGA (soldado na placa). E deve ser bem inferior ao PS4 porque deve ser em capado (chips defeituosos)...
  11. O slide é meio velho (de janeiro), mas não tinha me atentado a um detalhe: Ali fala que os futuros processadores para server, feitos em 28nm (Steamroller), terão uma plataformas novas. Resta ver como isso afeta o desktop. Outro detalhe que podemos inferir é que a linha de CPUs server de entrada (que hoje é AM3+) será substituída por APUs. Enquanto a linha de força bruta (que vai substituir o socket G34) ainda será CPU (sem GPU integrada). ---- E recentemente a AMD liberou informações a investidores, garantindo que lançará o Steamroller ainda em 2013 (não em 2014 como era previsto): http://www.xbitlabs.com/news/cpu/display/20130331080217_AMD_We_Are_On_Track_With_Steamroller_Micro_Architecture_in_2013.html Provavelmente uma versão Opteron do Kaveri.
  12. Se não me engano tiveram que apelar pro Háfnio porque em 65nm a camada de óxido de Silício já estava em apenas 1.2nm (ou 5 átomos de espessura).
  13. jonny, o Richland é apenas uma ligeira revisão do Trinity para atingir clocks mais altos no mesmo envelope térmico, ainda é Piledriver + VLIW4 em 32nm.
  14. ???? Ali consta 32nm pro Richland. Tem alguma coisa muito estranha com esse processo. Já vi vários casos de sucesso em undervolt, coisa de -0.2v em stock com uma bela redução no consumo.
  15. Contiusa, acho que o que o EduardoS quer dizer é que o processo não ajuda. O K10 em 32nm (Llano) não consegue atingir os mesmos clocks que o K10 em 45nm (Phenom II). O Llano de maior clock (A8 3870K) trabalha a 3GHz, enquanto o Phenom II de maior clock trabalha a 3.7GHz (Phenom II X4 980). Uma arquitetura nova era necessária e a ideia de módulos com recursos compartilhados entre os núcleos não é ruim. A execução pecou em alguns aspectos, mas o pior é que não foi possível atingir clocks altos o suficiente para superar o desempenho (single thread) da geração anterior.
  16. Jonny, deram alguma explicação pra ainda usarem Magny Cours (em vez do Interlagos) ?
  17. Enquanto isso, o Kabini (sucessor do Brazos) terá versões BGA e com socket.
  18. EduardoS, retrocompatibilidade, além de ser cada vez mais complicado de implementar, deixou de ser tão importante. A Sony queria porque queria ter o hardware mais potente nessa geração, mas esqueceu que facilidade de programação muitas vezes é mais importante. Ela aprendeu a lição e decidiu focar nisso. Vale lembrar que o PS3 tinha um PS2 lá dentro para garantir a retrocompatibilidade, depois ele foi removido. Emulação do Cell está fora de questão, mas acho que o PS3 é perfeitamente capaz de emular o PS2, por que a Sony não fez isso? Engraçado que o Xbox360 roda ALGUNS jogos do Xbox original...
  19. Eriberto, o RCM diminui bastante a energia gasta para fazer o sinal de clock chegar a todas partes do chip, mas não tem nada a ver com o Turbo/TDP. Agora, para fazer um FX desses de 8 núcleos com TDP de 95w são necessários chips de melhor qualidade, por isso são mais caros apesar de serem mais lentos (que os de 125w). Lembra dos Athlon XP-M ? É a mesma coisa, um FX de 95w deve ser melhor de overclock que um de 125w. O recurso de "TDP configurável" já existe nos servidores, não sei porque não está disponível no desktop... Teoricamente bastaria fazer um underclock para usar um FX 8350 ou 8320 numa placa que só suporta processadores de 95w, mas normalmente ou o BIOS não reconhece ou recusa o processador, por segurança. Lembro que uma vez eu explodi uma plaquinha da Jetway rodando folding com um Phenom I X4 9850 em underclock (estava a 2.2GHz com 1.2v, a mesma configuração de um Phenom I X4 9550 de 95w, mas morreu depois de 2 dias rodando direto). Operando à mesma frequência com o mesmo vcore um chip pior consome mais. Aquele 9850 era o coisa ruim em forma de processador, matou umas 3 placas... BTW, saiu um review do A10-5700 (65w): http://hexus.net/tech/reviews/cpu/47257-amd-a10-5700/
  20. Pistigrillo, esse é o problema que eu vejo com esse FX-8300. Enquanto a Intel cobra mais caro pelo 3770S, por exemplo, justamente porque é de 65w (em relação ao 3770 normal de 77w), mesmo sendo mais lento. A AMD "tem" que cobrar mais barato pelo 8300 porque é mais lento que 8320, por exemplo. Apesar do apelo de poder ter um FX de 8 núcleos mesmo em uma placa que só suporte processadores de 95w, o que justificaria um valor maior.
  21. Se não me engano os Athlons para FM1 e FM2 são mais caros que os A4. São posicionados como soluções mais "high end".
  22. Se o orçamento for realmente limitado você não vai comprar uma placa de vídeo, vai ficar no vídeo onboard. Aí compensa pegar uma APU.
  23. Tem o ASUS K55N também:Trinity A8, 8GB de RAM e HD de 500GB http://br.asus.com/Notebooks/Versatile_Performance/K55N/#specifications Custa R$ 1869 na Kabum Mas eu queria um ultrathin...
  24. EduardoS, no techreport só não recomendam um Pentium Ivybridge com uma boa placa de vídeo porque o HT faz falta em alguns jogos. Mas um i3 é de longe o melhor custo benefício, seguido de perto pelo i5 (é mais caro, mas é significativamente mais rápido em cenários multithread). Enquanto que AMD não dá pra recomendar... A menos que seja um notebook com Trinity, mas não existe nenhum decente.
  25. Eriberto, a AMD deu um jeito para o Crossfire funcionar com GPUs de arquiteturas diferentes, mas o Crossfire ainda precisa de duas GPUs de performance semelhante para funcionar. Nos Trinity A4/A6 o Dual Graphics (Hybrid Crossfire) só funciona com a HD 6450, enquanto que num A8/A10 só com uma 6570 ou 6670. http://www.techpowerup.com/reviews/AMD/FM2_APU_Review/4.html

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!