Ir ao conteúdo
  • Cadastre-se

Lilisandro

Membro Pleno
  • Posts

    308
  • Cadastrado em

  • Última visita

posts postados por Lilisandro

  1. @mineirimbb De qualquer maneira, o Ray Tracing é algo superestimado. Os jogos não precisam dele para serem bonitos, visto que Last of Us (2013) e até The Witcher 1 (2007) já mostram superfícies e espelhos que refletem os raios de luz e imagens. Além disso, jogos como AC Valhalla, mesmo sendo lançamentos, não contam com o recurso e até o Cyberpunk 2077, que tem o recurso, possui belos reflexos mesmo com o RT desativado.

    O lance do RT é ele facilita a vida dos desenvolvedores, como explicado pelo colega lá em cima. Esse é o grande ponto.
    Outro ponto é que os raios de luz e reflexos passam a ser reais, mas isso não necessariamente quer dizer mais bonito. Com RT ativado não é raro momentos nos quais você não consegue enxergar o rosto dos personagens conversando, mesmo em cutscenes, simplesmente porque não há luz real incidindo ali.
    Mas uma coisa é certa: se for pra comprar GPU de R$10 mil, obrigatoriamente tem que pegar uma com o recurso né...

    Sobre ficar mais belo ou não, ou existir a necessidade do RT ou não, veja este vídeo onde comparo o Cyberpunk 2077 num certo momento com o RT desativado e depois ativado:
     

     

  2. Ray Tracing só da RTX3070 para cima.
    Esqueça de tentar rodar isso em qualquer outra placa, a menos que esteja disposto a abrir mão de MUITO desempenho e outros quesitos gráficos.

    Sendo assim, quando for pegar uma GPU, se for algo inferior a uma 3070, vá naquela que tiver maior desempenho bruto (por exemplo: entre a GTX1080 e RTX2060, vá na primeira que é mais forte no geral, mesmo sem o RT que a segunda "tem" mas não dá conta de rodar). Já quando for pegar uma GPU, se for algo de uma 3070, não abra mão do RT e DLSS: comprar uma placa de quase R$10 mil e que não tem RT decente (caso da 6800XT) é obliterar dinheiro.

     

    1 hora atrás, mineirimbb disse:

    Nos novos jogos encontramos o uso dessas novas tecnologias, mas trazem também bugs e problemas na performance (Cyberpunk, e agora The Medium). Parece que os dispositivos não tem poder de processamento para tanto. O fato de colocar reflexos, melhorar a iluminação e criar partículas ainda está pesado demais. 


    Eu não vi bug nenhum, no que diz respeito aos gráficos. O que rola é que, naturalmente, à medida que novas tecnologias vão chegando, mais coisas vão sendo colocadas nos jogos. Já viu o quanto de coisa há no Cyberpunk? (pelo Youtube não conta)
    As GPU, e isso eu tô falando das mais potentes topo de linha, são lançadas para, finalmente, darem conta do que passou, do que ficou para trás. Do que tá vindo, sempre vão passar aperto.

    A primeira GPU feita para o 4K, cheia de propaganda em cima disso, foi a 1080ti. E ela mal dava conta do que tinha na época, passava aperto danado... pra atingir os 60fps tinha que ser jogo mais antigo. Agora, na 3080, é a mesma coisa: ela finalmente dá conta daquilo que a 1080ti não dava, mas para o que tá saindo nesse momento ela berra para conseguir. Não atinge 60 fps em 2160p com tudo no máximo nem no AC Valhalla e nem no Cyberpunk, mas atinge no The Witcher 3 (2015). É assim que sempre funcionou e é assim que sempre vai funcionar.

     

    1 hora atrás, mineirimbb disse:

    A AMD por usar o novo sistema RNA 2 e servir de base para a construção dos novos consoles, pode se beneficiar quando esses jogos saírem pois usará sua tecnologia e assim terão atualizações no driver dessas placas fazendo assim diminuir a diferença entre ela e a NVIDIA? Ou melhor,, uma 6800XT conseguirá rodar os jogos numa qualidade igual ou superior ao Séries X? 


    Claro que vai. A GPU do Xbox Series X é muito inferior à 6800XT.

    O PS5 (e eu tenho um) e o Xbox Series X prometeram 2160p, Ray Tracing, gráficos refinados, 60 ou até 120fps. Mas uma coisa que muita gente percebeu é que NÃO prometeram isso tudo AO MESMO TEMPO.

    Se quiser bater 120 fps no console, só se for no Super Mario 3 de NES, amigão. Jogos com RT, vai ser a 30fps e com recursos gráficos no médio. Não tem jeito, nem adianta esperar algo diferente disso. Então, sendo assim, é claro que a 6800XT vai ser capaz de rodar melhor que o console.

    • Curtir 4
  3. O Valorant é um jogo leve, focado em movimentos rápidos, em taxas altas de quadros. Sendo assim, o gargalo sempre será o processador. Qualquer placa de vídeo que você puser ali o resultado será o mesmo: a linha de corte será o processador. Quanto mais forte o processador, mais fps serão gerados pelo jogo. Não tem nada a ver com a CPU não dar conta da GPU. 


    Há um gargalo do i3 8100 com a 1060 3GB em torno de 7% em 1080p, segundo o site a seguir, o que é pouca coisa a ponto de precisar se preocupar:

    https://pc-builds.com/calculator/Core_i3-8100/GeForce_GTX_1060/0O30Ve/8/100

  4. 10 minutos atrás, WOZ Dods disse:

    O teste que você postou, como todos de youtube, não esclarece metodologia nem equipamentos, mas mesmo assim tem algum conteúdo. Proponho que analise conteúdos também de revistas, feitos para o público entusiasta e que explicam todos os detalhes. Exemplo: https://www.techpowerup.com/review/amd-ryzen-3-3100/15.html


    Pelos testes desse site a vantagem do 9400f sobre o 3100, em jogos, é ainda maior do que no vídeo que citei do Youtube. De qualquer maneira, a ordem de grandeza é a mesma: 10 a 15%.

    • Curtir 2
  5. 17 minutos atrás, Gildo Zounar Rodrigues disse:

    @WOZ Dods Ótimos argumentos amigo. Estou nesse momento estudando um orçamento como opção por coisas da AMD (Processador e placa-mãe.). Uma dúvida: você acha correto e "sem gargalos", ter um processamento da AMD e uma placa de vídeo da Nvidia? Estou realmente interessado na GTX 1060 6GB.


    Não existe gargalo causado entre hardware por serem de fabricantes ou marcas diferentes. O máximo que acontece de incompatibilidade nesse sentido é não conseguir sincronizar o RGB de tudo, e só. Fora isso, tudo é compatível com tudo.

    Entretanto, entre a sua primeira opção, o 9400f, e a outra apresentada, o 3100, eu iria facilmente no primeiro. Inúmeras comparações, com a mesma configuração de hardware restante, mostram que, em jogos, o 9400f chega a ser mais de 10% superior ao 3100 em alguns casos. Só isso já encerra o assunto.
    O melhor desempenho do 3100 em multitread parece interessante mas não é algo que tenha utilidade no dia-a-dia, pro usuário normal, e especialmente em jogos onde quem manda é o single-tread, onde o 9400f tem um pouco mais de superioridade.
     


    Já argumentos do tipo "com o Ryzen você não precisa trocar de MB quando troca de geração de CPU" e nada são a mesma coisa. Primeiro que quem ninguém vai pegar um Ryzen 5900x, pra subir de patamar, e meter numa placa que foi criada lá atrás pro Ryzen de primeira geração. Segundo que essa compatibilidade se encerra agora, na quarta geração, visto que a próxima já não será compatível mais e já terá coisas novas como DDR5 e talvez até PCIe 5.0. Resumindo: essa compatibilidade de processadores de gerações diferentes com placas mais antigas não é algo que você vá usar no final das contas.

  6. 11 minutos atrás, Ornitotheus disse:

    Eu estava nessa mesma dúvida e acabei optando pelo H710i da NZXT, e não me arrependo, não só pela qualidade e construção do gabinete mas como os recursos premium, ambos são da categoria de "luxo", a Lian Li ganhou prêmio de melhor gabinete de 2018/2019, não me lembro o ano, e a NZXT sempre foi marca referência no mundo todo de cases, watercoolers, etc. Ótima escolha, qualquer um iria estar bem servido.


    A qualidade dos produtos da NZXT é outro nível. É coisa topo mesmo. A Lian Li é bem inferior nisso, inclusive ela tem gabinetes populares, fans baratas, etc, enquanto a NZXT não tem nada barato. Porém, o lance desses O11 em específico é a beleza, é coisa de outro mundo.

  7. Dentre as que você citou, sem dúvidas a melhor é a 1060 6GB. Não existe 1060ti, é 1060 apenas.

    Se encontrar uma 1650 Super por pouca coisa a mais, compensa mais ir nela. Porém, só se for pouca coisa a mais, visto que ela é quase nada melhor que a 1060 6GB.

    Sobre o i5 de 9º geração, fica tranquilo que o desempenho dele em jogos é exatamente o mesmo do de 10º geração. (na verdade, tem sido assim desde a oitava geração)

    • Curtir 2
  8. A placa-mãe não vai dar conta de alimentar uma fita com esse comprimento não. O máximo que dá conta, em geral e para placas mães fortes (linhas Z, por exemplo), são tipo 50cm.

    Porém, se não for uma fita led feita especialmente para ser controlada pela placa-mãe e ter uma alimentação externa, se você ligar a MB + a fonte vai dar ruim sim. Essa fita sua aí não permite fonte + MB. Fitas que permitem isso são próprias para isso e muito mais caras, passando dos R$1 mil ou R$2 mil.

  9. E aí, pegou o gabinete?
    Eu tenho um Lian Li O11 Dynamic XL ROG. É praticamente a mesma coisa que o seu, porém maior. Esses gabinetes da Lian Li são obras de arte, indiscutivelmente são os mais bonitos que existem atualmente, especialmente quando também se tem um interior bonito. Porém, a qualidade deles (apesar de estar totalmente em acordo com o seu preço) não é algo que impressiona. Tive um Airbide 540 da Corsair que, apesar de um design antigo, na época que comprei ele a qualidade dos detalhes e materiais me impressionou muito mais.

    E outra: ficar 15 anos com um gabinete é muito, hein? Especialmente esses gabinetes com design arquitetônico: eles envelhecem muito rápido à medida que as tendências mudam.

  10. Red Dead Redemption 2 é simplesmente o jogo mais pesado de todos os tempos. É totalmente normal ele fritar a sua GPU mesmo. Se ela não chegou a desligar do nada, então tá dentro dos limites dela. Geralmente o corte é em 84º₢.

    Voltando ao RDR2, embora ele possa atingir uma boa fluidez + boa qualidade de imagem com configurações que a gente encontra na internet, se você simplesmente puxar tudo para a direita, no máximo do máximo, sem tentar otimizar nada (mesmo que isso não altere em quase nada a qualidade visual), ele não faz 20 fps na RTX3080 em 1080p. Quem é Cyberpunk 2077...

  11. Em 17/01/2021 às 09:43, CeLioCiBR disse:

    Eu não sei o que eles tavam pensando em lançar uma RTX 3060 Ti com somente 8 GB, enquanto a 3060 com 12 GB.
    A RTX 3060 Ti deveria já ter vindo com 16 GB.


    O lance da 3060 é porque ela utiliza barramento de memória de 192 bits, que pode ser preenchido com 6 GB ou 12 GB de VRAM, visto que ela utiliza 6 chips de memória. A Nvidia julgou que 6GB seria pouca memória, então o jeito foi pular para 12GB. O alvo era 8GB, mas devido a essas características construtivas da placa não é possível chegar nesse valor.

     

    Sobre a 3060ti vir com 16 GB, embora a Nvidia pudesse ter feito isso, não agregaria em nada à placa. 8 GB são mais do que suficientes para rodar bem qualquer coisa durante bons anos e, quando essa quantidade de memória não for suficiente mais, a placa também não será, sendo incapaz de empurrar o que seria necessário. É tipo uma 2060 com 6GB: ela não vai utilizar esses 6GB nunca visto que ela não tem poder de fogo para empurrar algo que um dia pedisse todos esses 6GB.

    Eu sempre joguei com tudo no máximo do máximo e nunca bati 8GB de VRAM em uso. Além diso, mesmo esses quase 8GB estarem sendo indicados que estão em uso pelo Afterburner, boa parte deles está alocado apenas, e não em uso ainda. A memória é mais do que suficiente.
    Eu saí da uma 1080ti com 11GB para uma 3080 com 10GB. De início essa "perda" de memória me gerou um certo desconforto, e isso é natural. Porém, são só números. E números não querem dizer absolutamente nada, vide a Vega 64 com seus números lindos na época e performance medíocre.

    • Curtir 1
  12. 15 horas atrás, Jomar Machado disse:

    Tenho um set up com:
    Processador Intel® Core® i7-10700K
    placa-mãe Gigabyte Aorus Elite AC Z490 - Chipset: Intel® Z490
    SISTEMA DE REFRIGERAÇÃO LIQUIDA WC 240mm DEEPCOOL
    GABINETE GAMER TT H200 TEMPERED GLASS
    Normalmente ele está em 39C mas quando vou renderizar a temperatura chega nos 90C!!!
    Queria saber o que posso fazer para melhora esta situação.
    Desde já obrigado

    NEW KID ON THE BLOCK.jpg

     Mas é isso mesmo, tá dentro do funcionamento normal.

    Se você quiser abaixar um pouco a temperatura do processador vai ter que fazer push-and-pull no seu Watercooler, colocando mais duas fans do outro lado puxando o ar para fora ou entao instalar um Watercooler de 360mm com push-and-pull também de preferência.

     

    • Curtir 1
  13. A Aorus Master tem um monte de coisinha a mais que a Pro, como botão de reset e atualizar bios, telinha de LCD com código de erro, RGB diferenciado e blá blá blá. Nada que, no papel, compense a diferença de preço. Porém, nessas placas, a cada melhoriazinha o preço sobe a galope mesmo, é normal.

    E mesmo não compensando, por conta do nível (e preço) das outras peças que você está usando, eu certamente iria na Aorus Master.

    De qualquer maneira, para o 5900X, a minha escolha de placa-mãe seria a ROG Crosshair VIII Hero, que tá no mesmo preço da Aorus Master.

  14. 19 horas atrás, Jão Marcoos disse:

    Por R$ 500 de diferença a RTX 2060 entrega um ganho de uns 8 a 16FPS na maioria dos games, além de que pode jogar com Raytracing
    Eu prefiro a 2060, mas se tá com o orçamento apertado vai na 1660 Super mesmo.


    8, ou até mesmo 16 fps, em 20 fps, é MUITA coisa. Em 200 fps, são quase nada.
    Por favor, parem com esse vício de fazer comparações com números absolutos que não significam absolutamente nada. Usem porcentagem, pelo amor de Deus.

    2060, sem dúvida.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!