Ir ao conteúdo
  • Cadastre-se

Nvidia Turing - RTX 20*0 - GTX 16*0


Evandro

Posts recomendados

10 minutos atrás, Flávio Santana Lima disse:

 

Pra quem pensa em usar RTX e pegar GPU como 2080, repense sua CPU.  O Marcos fez uma bela demonstração de como o RT pesa na CPU também, mesmo com um FPS em média mais baixo.

adicionado 1 minuto depois

 

Veja o que o Peperaio testou, a 2060 dele quando ligado o RT, além do FPS mais baixo, ela tava com throttling de vram, com spikes em que o FPS desceu nos 3!!!

 

2060 é forte, mas é cara e com pouca VRAM, ainda mais quando se fala de Ray tracing, que ainda puxa mais ainda o uso de vram.

 

 

Pois é, mas você leu os artigos que mandei? Especialmente esse aqui: https://www.pcgamesn.com/metro-exodus/metro-exodus-nvidia-rtx-dlss-ray-tracing-performance-benchmarks

 

Com o DLSS ligado, eles conseguiram rodar Metro Exodus com ray tracing em 46 fps na RTX 2060 rodando a 1440p. Sem o DLSS, a performance cai para 38 fps. O DLSS não anula o peso do ray tracing, mas suaviza bastante.

Link para o comentário
Compartilhar em outros sites

1 hora atrás, rusty1 disse:

Querendo dar upgrade na grande 970, ate agora nenhuma das 2060 disponiveis no mercado me agradaram, achei todas com uma construcao muito simples pra se pagar ate 2k nelas. Pelo visto os modelos `melhores` vão sair na faixa dos >2200 entao acho que ja e mais negocio pegar uma 2070, pelo menos os modelos da GALAX estão muito bons pelo preco cobrado.

Estou vendo muitas reclamações das RTX nos fóruns, parece que essa 1° leva veio meio bichada hein...

 

adicionado 0 minutos depois
22 minutos atrás, Skaertus2 disse:

 

Pois é, mas você leu os artigos que mandei? Especialmente esse aqui: https://www.pcgamesn.com/metro-exodus/metro-exodus-nvidia-rtx-dlss-ray-tracing-performance-benchmarks

 

Com o DLSS ligado, eles conseguiram rodar Metro Exodus com ray tracing em 46 fps na RTX 2060 rodando a 1440p. Sem o DLSS, a performance cai para 38 fps. O DLSS não anula o peso do ray tracing, mas suaviza bastante. 

Esse DLSS não boto fé, parece que meio que borra/diminui a qualidade da imagem, por isso o ganho de desempenho ao meu ver.

Link para o comentário
Compartilhar em outros sites

34 minutos atrás, Skaertus2 disse:

Com o DLSS ligado, eles conseguiram rodar Metro Exodus com ray tracing em 46 fps na RTX 2060 rodando a 1440p. Sem o DLSS, a performance cai para 38 fps. O DLSS não anula o peso do ray tracing, mas suaviza bastante.

Jogo single player é mais leve a carga na CPU. E o DLSS não suaviza o RT ou o quanto ele usa de VRAM, ele suaviza o render geral, fazendo um upscaling das areas que "você não irá notar".

 

Fora que BFV, mesmo em 1080p, o peperaio teve problema de vram... 

 

DLSS pra mim, é melhor por FXAA ou reduzir algum outro filtro, no momento ta cru demais e apenas jogando pra ver. (essa conclusão minha, foi a partir do FFXV, que não curti nem um pouco esse filtro lá).

 

38 minutos atrás, Skaertus2 disse:

O que eu gostei nesse Metro, foi o Ray tracing, a iluminação global, realmente ficou bem mais realista ao meu ver.

Link para o comentário
Compartilhar em outros sites

5 horas atrás, Flávio Santana Lima disse:

 

Fora que BFV, mesmo em 1080p, o peperaio teve problema de vram...  

 

 

Sendo bem sincero, vi e revi o vídeo do peperaio com a RTX 2060 e RT no BFV umas cinco vezes e não acho que o problema tenha sido na VRAM. Se você reparar bem ele já começa a ter spikes e travamentos mesmo quando a VRAM estava em 5.2!

 

Teve momentos que a VRAM chegou a 5.8 mas nada que tenha ultrapassado o limite. E mesmo que ultrapasse o limite, ele estava testando numa máquina com 16GB de RAM e estava usando cerca de 10~11, a RTX 2060 simplesmente iria pegar a RAM emprestada se esse fosse o problema...

 

Então porque acontece com a RTX 2060 e com a 70 e 80 não? Não sei. Meu melhor palpite é a má implementação do RT mesmo. Ou talvez a RTX 2060 seja fraca pra RT como um todo.

 

Mas não acho que esteja relacionado a VRAM o problema, tanto que no Metro Exodus, mesmo no extreme com RT high, a RTX 2060 não teve nenhum problema usando +- a mesma quantia de VRAM (entre 5~6k)

 

Enfim, não estou discordando do peperaio só estou apresentando minha percepção do problema. É uma tecnologia nova, 2 jogos ainda é muito pouco pra dizer o que está certo ou errado.

 

E sobre o DLSS, sinceramente não gostei, não gosto de nada que aplique "blurry" na tela.

 

 

Link para o comentário
Compartilhar em outros sites

6 minutos atrás, piterfraga disse:

o fato de esta próximo de estourar a vram o drive já pode esta fazendo malabarismo para texturas caberem na memória 

 

 

Pode ser! Mas porque será que no Metro não faz isso?

 

Por isso acho que foi má implementação. Nem ferrando que o BFV é mais pesado que o Metro, mesmo com RT ligado!

 

Mas sei lá, pode ser isso sim, é como falei tá tudo muito novo, difícil saber ao certo.

Link para o comentário
Compartilhar em outros sites

Também acho que os stutters ocorrem pelo Raytracing ser mal otimizado mesmo, e não pela suposta falta de VRAM, é importante ter um senso crítico ao assistir vídeos por aí na net.

 

Vale lembrar que frequentemente o que se vê nos testes é a VRAM alocada pela placa de vídeo, não necessariamente a memória que está sendo efetivamente usada em tempo real pelo game. Alguns jogos bem otimizados podem alocar mais VRAM que o necessário preventivamente para melhorar o desempenho. Um exemplo disso é o novo Resident Evil 2 Remake que em 4k chegou a usar 8,5gb de VRAM em 4k com a 2080 Ti, porém mesmo assim não houve sutters. O mesmo ocorreu com uma placa com 6gb VRAM, novamente sem perda de desempenho nas mesmas condições. Porém placas abaixo de 6gb VRAM começaram a ter stutters, então isso evidencia que o jogo usa entre 4gb e 6gb na prática em 4k, e se a placa ver que tem + VRAM disponível, ela pré-aloca e isso pode (não necessariamente vai) melhorar o desempenho. Os stutters tendem a ocorrer quando a placa não tem VRAM suficiente pro uso prático em tempo real pelo jogo, e não o alocado.


Nesse teste, dá pra ver que em 1440p a 2060 mesmo com 6gb VRAM entrega uma jogatina sem stutters mesmo nos jogos mais comilões de VRAM (em 1080p então nem se fala). É muito provável que esse vá ser o cenário esse ano e muito provavelmente no próximo também.

 

Um bom exercício de futurologia é lembrar que placas de gerações passadas como a 980 Ti ou a Fury X que foram lançadas em 2015, estão agora começando a ter alguns problemas em alguns jogos específicos por causa da VRAM com gráficos no máximo. E você pode contornar em vários deles reduzindo do ultra pro high ou algo assim (até porque a placa é antiga e vai melhorar o desempenho anyway).

  • Curtir 2
Link para o comentário
Compartilhar em outros sites

8 horas atrás, Narak13 disse:

Teve momentos que a VRAM chegou a 5.8 mas nada que tenha ultrapassado o limite. E mesmo que ultrapasse o limite, ele estava testando numa máquina com 16GB de RAM e estava usando cerca de 10~11, a RTX 2060 simplesmente iria pegar a RAM emprestada se esse fosse o problema...

 

O caso dele é que quando ele ligou o RT, teve spikes gritantes, CPU, estava tranquila, GPU no core também, só que a VRAM no limite, e quando a VRAM ta no limite, essas quedas pra 3 FPS  são comuns, pois se o jogo pedir mais vram de alguma forma, vai ter que acessar do HD ou puxar da memória. 

 

Diferente do RE2, que mesmo dizendo que vai usar 12GB de vram, crava nos 7 e não tem queda bruta, pois o jogo ta manejando,a troca de texturas com a memória ram e HD o tempo todo. 

 

Isso quer dizer que o BF V que é mal implementado? Não! Só que o BFV precisa de mais vram quando vai jogar com RT ligado e o RE2 não precisa, e só aloca mais quando tem disponível. 

adicionado 1 minuto depois
8 horas atrás, Narak13 disse:

Enfim, não estou discordando do peperaio só estou apresentando minha percepção do problema. É uma tecnologia nova, 2 jogos ainda é muito pouco pra dizer o que está certo ou errado.

 

Na minha 2080, as minhas quedas de FPS no BF V são relativas à carga na CPU, como o Marcos mostrou. No mapa que o peperaio jogou, é leve o RT ali, quando tu vai para Roterdam, é onde o bicho pega e a CPU roda nos 80 a 100% o tempo todo. E isso é um 1600x em 4GHz. To no aguardo da 3 gen para saber, se fico de ryzen, ou pego intel (se o preço deixar é claro).

Link para o comentário
Compartilhar em outros sites

15 minutos atrás, Flávio Santana Lima disse:

Isso quer dizer que o BF V que é mal implementado? Não! Só que o BFV precisa de mais vram quando vai jogar com RT ligado e o RE2 não precisa, e só aloca mais quando tem disponível. 

Pode ser má implementação sim, é sabido desde o BF1 que a engine da Dice não trabalha bem em DX12 como trabalha em DX11. Mesmo com RT desligado, o consumo de VRAM em BFV é muito maior em DX12 do que DX11. Veja o teste aqui. Todo mundo que jogou BF1 sabe que ao ligar o DX12 podia ter muito stutter na jogatina, mesmo com CPU GPU core, VRAM e etc tudo normais. Eu mesmo já fiz isso e era injogável BF1 em DX12 no meu PC.

O lance é que o DX12 passou a trabalhar com low-level APIs e isso força os desenvolvedores de jogos a programarem na engine muita coisa que antes era a fabricante da GPU que programava nos drivers. Aparentemente (e entendo ser normal) os devs da DICE não são tão bons nesse tipo de programação e aí o renderer de VRAM da engine ficou bem mais ineficiente no DX12. O irônico é que a própria DICE foi incentivadora das APIs low level junto com a AMD desde a época do mantle, então a culpa é basicamente da DICE mesmo, incentivaram tudo mas n prepararam os programadores. Junte isso ao Raytracing que é algo totalmente novo e tenho quase certeza q os spikes são má programação, e não a VRAM.

Link para o comentário
Compartilhar em outros sites

16 minutos atrás, Steeveantonichen disse:

O lance é que o DX12 passou a trabalhar com low-level APIs e isso força os desenvolvedores de jogos a programarem na engine muita coisa que antes era a fabricante da GPU que programava nos drivers. Aparentemente (e entendo ser normal) os devs da DICE não são tão bons nesse tipo de programação e aí o renderer de VRAM da engine ficou bem mais ineficiente no DX12. O irônico é que a própria DICE foi incentivadora das APIs low level junto com a AMD desde a época do mantle, então a culpa é basicamente da DICE mesmo, incentivaram tudo mas n prepararam os programadores. Junte isso ao Raytracing que é algo totalmente novo e tenho quase certeza q os spikes são má programação, e não a VRAM.

Da para ver que é só na 2060 esse spike absurdo amigo. 

 

O Jogo tem instabilidade em DX12? Tem sim, mas não tem spike de 3 fps, e sim um suttering recorrente. Eu jogo BFV aqui, com DXR ativo, e é isso que sinto. Sinto bem mais á minha CPU não segurando, e no caso do Peperaio é a Vram. Foi só ele ativar o DXR, o consumo de vram subiu, e começou os travamentos brutos, que eu não tenho aqui na 2080 e 1600x com FPS maiores.

Link para o comentário
Compartilhar em outros sites

20 minutos atrás, Steeveantonichen disse:

Pode ser má implementação sim, é sabido desde o BF1 que a engine da Dice não trabalha bem em DX12 como trabalha em DX11. Mesmo com RT desligado, o consumo de VRAM em BFV é muito maior em DX12 do que DX11. Veja o teste aqui. Todo mundo que jogou BF1 sabe que ao ligar o DX12 podia ter muito stutter na jogatina, mesmo com CPU GPU core, VRAM e etc tudo normais. Eu mesmo já fiz isso e era injogável BF1 em DX12 no meu PC.

BF1 não dá para jogar em DX12, isso porque a dice só colocou e deixou em aberto. É muito melhor pra qualquer empresa trabalhar o DX11 do que o DX12 hoje. Já para uns 3 anos à frente, aí muda um pouco, terão que trabalhar mais o DX12, pois boa parte do pessoal pode ter migrado dos win 8,8.1 e 7.

adicionado 19 minutos depois

Abri rapidinho o Battlefield V com DXR ativo, DLSS ativo e tudo no ultra em 2560x1080.

Veja que esse mapa quase não tem RT ativo, quase mesmo, é um no deserto, o único reflexo nesse mapa é nos carros. Mas olha o uso de CPU!!! São 64 players. 

 

RTX com um pequeno OC 2000MHz core e 16400MHz memória.

Desci o 1600x para 3,8 porque essa minha sample é péssima, pede quase 1.4v pra 4GHz.

 

asdfs.jpg.91d8e20aea94804ea47f80bfadff82a4.jpg

Link para o comentário
Compartilhar em outros sites

3 horas atrás, Flávio Santana Lima disse:

O caso dele é que quando ele ligou o RT, teve spikes gritantes, CPU, estava tranquila, GPU no core também, só que a VRAM no limite, e quando a VRAM ta no limite, essas quedas pra 3 FPS  são comuns, pois se o jogo pedir mais vram de alguma forma, vai ter que acessar do HD ou puxar da memória. 

 

Diferente do RE2, que mesmo dizendo que vai usar 12GB de vram, crava nos 7 e não tem queda bruta, pois o jogo ta manejando,a troca de texturas com a memória ram e HD o tempo todo. 

 

Isso quer dizer que o BF V que é mal implementado? Não! Só que o BFV precisa de mais vram quando vai jogar com RT ligado e o RE2 não precisa, e só aloca mais quando tem disponível. 

 

 

Mas isso que tentei argumentar, ele já tava tendo spikes mesmo quando a VRAM não estava no limite.

 

Acho que é mal implementado sim, no BFV o RT só altera reflexos e o peso é gigantesco, coisa de 100 fps a menos dependendo do caso.

 

No Metro Exodus o RT afeta a ambientação inteira e o peso não é tão gigante assim, cerca de uns 30~40 fps menos.

 

3 horas atrás, Flávio Santana Lima disse:

 

Na minha 2080, as minhas quedas de FPS no BF V são relativas à carga na CPU, como o Marcos mostrou. No mapa que o peperaio jogou, é leve o RT ali, quando tu vai para Roterdam, é onde o bicho pega e a CPU roda nos 80 a 100% o tempo todo. E isso é um 1600x em 4GHz. To no aguardo da 3 gen para saber, se fico de ryzen, ou pego intel (se o preço deixar é claro).

 

Rotterdã o bixo pega mesmo, ô mapinha tenso, meu i7 8700k está a frequentes 90% nele mesmo sem o RT ativado.

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

9 horas atrás, Flávio Santana Lima disse:

Da para ver que é só na 2060 esse spike absurdo amigo. 

 

O Jogo tem instabilidade em DX12? Tem sim, mas não tem spike de 3 fps, e sim um suttering recorrente. Eu jogo BFV aqui, com DXR ativo, e é isso que sinto. Sinto bem mais á minha CPU não segurando, e no caso do Peperaio é a Vram. Foi só ele ativar o DXR, o consumo de vram subiu, e começou os travamentos brutos, que eu não tenho aqui na 2080 e 1600x com FPS maiores.

Não é só na 2060. Na 2070 também ocorre, como no vídeo que o @Phoenyx mostrou, mesmo com a 2070 q tem 8gb VRAM.

 

9 horas atrás, Flávio Santana Lima disse:

Abri rapidinho o Battlefield V com DXR ativo, DLSS ativo e tudo no ultra em 2560x1080.

Veja que esse mapa quase não tem RT ativo, quase mesmo, é um no deserto, o único reflexo nesse mapa é nos carros. Mas olha o uso de CPU!!! São 64 players. 

 

RTX com um pequeno OC 2000MHz core e 16400MHz memória.

Desci o 1600x para 3,8 porque essa minha sample é péssima, pede quase 1.4v pra 4GHz.

Pois é, é pesadinho. Veja o @Narak13 vendo o 8700k bater 90% uso no BFV em roterdã mesmo com DXR off. Como eu sempre avisava nas recomendações de PC, a 8ª gen é bruta mas teve vida muito curta. Mesmo que os Ryzen peguem menos FPS, ao menos tem menos risco de ter stutter por CPU batendo 100%.

 

8 horas atrás, Phoenyx disse:

 

Jogando em 2560x1440, acho que ele tá com uma 2080, não consegue pegar 60fps no high do RT, tem que baixar pro médio.

Opa, aqui da pra ver que VRAM não é o problema dos spikes. Na descrição ele diz q usa uma RTX 2070 que tem 8gb VRAM e mesmo assim tem os spikes, e são brutos tb.

 

8 horas atrás, Phoenyx disse:

Review da ASUS Strix RTX 2060:

 

 

Se chegar aqui por ~1800 eu pego uma!

Hehhehe 1800 numa strix, eu ouvi um amém? :P Só fiquei decepcionado que ela AINDA tem o problema dos thermal pads não encostando completamente nos VRM, mesmo problema da Vega 56 e 64 Strix. Tomara que a 2060 por ser uma placa mais eficiente, isso não seja problema no longo prazo.

 

 

@Evandro @Narak13 @Flávio Santana Lima @Phoenyx O teste mais interessante que vi até aqui da 2060 em DXR foi esse que coloco abaixo, da Digital Foundry. Eles perceberam que apenas baixando a textura do ultra pro high o FPS subiu quase 40%, mesmo com DXR no Ultra. Porém eles também notaram, assim como outros testes que vimos, que a 2060 não chegava a bater os 6gb VRAM, ficando na casa dos 5 e alguma coisa (ngm diz se é o alocado ou o real) mesmo com tudo no ultra (DXR incluso), então aparentemente não há problema de estouro de VRAM. Eles também notaram que reiniciar o jogo fez sumir os stutters mais pesados.

 

 

Como os spikes e quedas acontecem também com a 2070 como vimos nos vídeos lá em cima, eu acho q o problema n é falta de VRAM, é má otimização mesmo. Talvez seja um problema de VRAM mas não na falta dela e sim na otimização ou uso de banda, ou velocidade, algo assim. E o problema tem 3 raízes:

1- a DICE preferia o DX11, mas como o DXR exige DX12, pode ter muita má otimização aí (já vimos q mesmo sem DXR o consumo de VRAM é alto no DX12)-

2- o fato do próprio DXR ser algo totalmente novo, em beta

3 - o fato de que a própria memória é nova tb, lembremos que é a primeira leva das GDDR6.

  • Curtir 3
Link para o comentário
Compartilhar em outros sites

  • Membro VIP

@Steeveantonichen Ele editou ali, não constava, inclusive perguntei lá nos comentários.

Eu vi esta questão da Strix 2060, mas o próprio reviewer diz que é a melhor 2060 que ele já pegou na mão. E o que menos importa na minha opinião é a temperatura de memória comparada ao GPU e mosfets (os thermals tmb pegam pela metade nas memos).

 

Eu não tô ligando muito pro DLSS e RTX e sim desempenho bruto na totalidade dos games, então whatever. Isto aí me lembra as GTX 8800 com DX10 e unificação dos shaders, nenhuma carregava os games decentemente nesta API com boa taxa de fps e resolução, todo mundo ali foi beta tester.

Link para o comentário
Compartilhar em outros sites

19 minutos atrás, Steeveantonichen disse:

Pois é, é pesadinho. Veja o @Narak13 vendo o 8700k bater 90% uso no BFV em roterdã mesmo com DXR off. Como eu sempre avisava nas recomendações de PC, a 8ª gen é bruta mas teve vida muito curta. Mesmo que os Ryzen peguem menos FPS, ao menos tem menos risco de ter stutter por CPU batendo 100%.

 

 

Mas é só em Roterdã mesmo, nos restos dos mapas e jogos fica tudo em 60~70%. Roterdã é um ponto fora do curva. Outro motivo é que ele está levando uma RTX 2070 que poe o jogo a uns 90~120 FPS dependendo mapa, é bastante frame pro 8700K carregar. Se eu subir pra 1440p que é o foco dessa placa dá uma aliviada na CPU, mas não tenho monitor 1440p então...

 

Mas sim, não tem nada mais pesado que o mapa Roterdã do BFV até agora em qualquer jogo, só o AC Odyssey que chega perto.

 

22 minutos atrás, Steeveantonichen disse:

 

Como os spikes e quedas acontecem também com a 2070 como vimos nos vídeos lá em cima, eu acho q o problema n é falta de VRAM, é má otimização mesmo. Talvez seja um problema de VRAM mas não na falta dela e sim na otimização ou uso banda, ou velocidade, algo assim. E o problema tem 3 raízes:

1- a DICE preferia o DX11, mas como o RTX exige DX12, pode ter muita má otimização aí (já vimos q mesmo sem RT o consumo de VRAM é alto no DX12)-

2- o fato do próprio RTX ser algo totalmente novo, em beta

3 - o fato de que a própria memória é nova tb, lembremos que é a primeira leva das GDDR6.

 

 

É interessante porque eu já resolvi vários problemas de sttutering e spikes reiniciando o jogo ou até mesmo o PC. Coisas que só acontecem no BFV.

 

Muita gente elogia a otimização do BFV porque ele escalona bem com os hardwares e roda em muito hardware de entrada mas honestamente eu não gosto da otimização do BFV, por mais que o escalonamento seja decente, a engine é muito instável, e qualquer coisinha gera stutter, mesmo com hardware top de linha.

Link para o comentário
Compartilhar em outros sites

@Phoenyx Mas você queria a Strix + pelo design então né? Eu tb to de olho nela pelo poder bruto e preço mesmo. porque eu vi nesse teste, até a zotac de 1760 pila se saiu mt bem se a minha queimasse hj eu pegaria ela, porque a minha 480 tá começando a mostrar a idade. Por incrível q pareça a Gigabyte triple fan se saiu melhor no ruído que a Strix, bizarro :V E bom ver que as single fan seguram a onda, apesar das temps + altas, nenhum problema.

 

@Narak13 Heheh AC Odissey é fora da curva mas pelo motivos errados huahuuah é muito mal otimizado mesmo. Mais que PUBG.

 

15 minutos atrás, Narak13 disse:

É interessante porque eu já resolvi vários problemas de sttutering e spikes reiniciando o jogo ou até mesmo o PC. Coisas que só acontecem no BFV.

 

Muita gente elogia a otimização do BFV porque ele escalona bem com os hardwares e roda em muito hardware de entrada mas honestamente eu não gosto da otimização do BFV, por mais que o escalonamento seja decente, a engine é muito instável, e qualquer coisinha gera stutter, mesmo com hardware top de linha.

BF1 em DX11 é um jogo espetacular, e também do ponto de vista da otimização. Extremamente detalhado, bem feito, realista, e roda muito bem mesmo em hardware fraco. Acho q o problema mesmo de BFV é os 3 fatores que citei acima.

Link para o comentário
Compartilhar em outros sites

@Flávio Santana Lima  @Evandro @Phoenyx @Steeveantonichen @Narak13

 

Acredito que dependendo do cenário, trecho testado, presets, resolução do jogo, restante da configuração do pc e em partes onde o jogo necessita de mais vram para usar a rtx 2060 e seus 6gb, isso vale como geral não somente com raytracing, vai ser uma limitação independente de raytracing e já foi comprovado que ativando esta tecnologia o consumo de vram e processador aumentam também, somando-se tudo isso o rt core da rtx 2060 é inferior os rt cores das rtx 2070 e 2080, além disso o raytracing e dlss na arch turing tá ainda imaturo, vão implementar melhorias via driver e os devs com patchs.

 

A rtx 2060 é uma placa bem forte, mas ela tem um grande erro, vir com 6gb de vram, até uma gtx 1070 que é mais fraca tem mais vram.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

@OCCT Mas aí caímos naquele esquema, tem pouco GPU mas muita VRAM, coisa típica de VGA entry level.

Tmb concordo contigo que 8GB seria o ideal, 4GB é limítrofe hoje para 1080p, mas esta placa aí não foi feita pra 2k, 4k, nós na terra brasilis é que queremos economizar pois nos assaltam com os produtos aqui.

Conversão rápida, 350 doletas x 3.72 daria 1302 reais, numa 2060! O pessoal vende a 1060 de 2016 por este preço aqui.

 

Outro paradigma é a Vega II (Radeon 7 o escambau) com 16GB de VRAM onde não tem poder de sobra.

 

@Flávio Santana Lima Na verdade ele tinha uma 1080TI, trocou pela 2080, e destrocou. No video aí, depois que fiz a pergunta lá, ele editou a descrição e colocou que utilizou uma 2070 (inclusive achei até bom o resultado por ser esta placa em 2k).

Link para o comentário
Compartilhar em outros sites

Querendo ou não usar o BFV pro primeiro jogo Ray Tracing foi um erro. Ninguém liga pra isso em jogo multiplayer, ainda mais fps. Fps multiplayer a galera quer mais frames, isso é fato. Eu com a minha 2070 não ligo RT no BFV nem ferrando, não abro mão dos meus 144Hz pra isso.

 

Ainda não entendi porque até agora o Shadow of The Tomb Raider não implementou o RT, falaram que ia implementar e ele era o jogo perfeito pra poder testar isso. Geral já esqueceu dele aliás, até a desenvolvedora.

 

No Metro Exodus já faz mais sentido, por ser um single player, mas por ser fps eu iria querer frames mais altos também.

 

Olha o Marcos do PC Facts tendo sttuterings e spikes terriveis com uma RTX 2080 Ti. Por isso que acho que o problema não é VRAM.

 

Por volta dos 10 mins:

 

 

 

Link para o comentário
Compartilhar em outros sites

Crie uma conta ou entre para comentar

Você precisa ser um usuário para fazer um comentário

Criar uma conta

Crie uma nova conta em nossa comunidade. É fácil!

Crie uma nova conta

Entrar

Já tem uma conta? Faça o login.

Entrar agora

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...