Ir ao conteúdo
  • Cadastre-se

PCI Express 3.0 vs. 2.0: há ganho real em jogos?


     214.519 visualizações    Vídeo    31 comentários
PCI Express 3.0 vs. 2.0: há ganho real em jogos?

Introdução

Um dos recursos presentes nas últimas gerações de processadores, chipsets e placas de vídeo é a conexão PCI Express 3.0. Mas será que ela realmente traz, na prática, um aumento de desempenho em relação ao PCI Express 2.0? Vamos descobrir neste teste!

A conexão PCI Express 3.0 foi especificada em 2010, com taxa de transferência máxima teórica por pista de cerca de 1 GB/s (na verdade, 984,6 MiB/s), o dobro do padrão PCI Express 2.0, que oferece 500 GB/s por pista. Assim, um slot PCI Express 2.0 x16 oferece uma taxa de transferência máxima teórica (largura de banda) de 8 GB/s, enquanto um slot PCI Express 3.0 x16 chega a 16 GB/s, em teoria.

Lembrando que essas são as velocidades máximas que a conexão suporta, não significando que a placa de vídeo transferirá dados nessas velocidades. Para informações técnicas mais detalhadas, leia nosso tutorial “Tudo o que você precisa saber sobre a conexão PCI Express”.

Nas placas de vídeo, todos os modelos atuais são compatíveis com o PCI Express 3.0; as primeiras placas com chips da NVIDIA compatíveis com este padrão foram da geração GeForce GT/GTX 6xx, enquanto as da AMD o utilizam desde os modelos Radeon HD 7xxx.

Em relação aos processadores, na maioria dos casos a conexão PCI Express 3.0 é fornecida pelo processador, e não pelo chipset da placa-mãe. Porém, é necessário que a placa-mãe também seja compatível com este padrão. Os processadores Intel suportam o padrão 3.0 desde a terceira geração dos Core i (“Ivy Bridge”). Já nos AMD série A (APUs) o suporte existe para todos os modelos soquete FM2+. Os processadores FX, por outro lado, não oferecem suporte ao PCI Express 3.0, pois nesta plataforma as linhas PCI Express são geradas pelo chipset, e mesmo o modelo mais topo de linha, o 990FX, suporta apenas PCI Express 2.0.

Apesar da grande diferença na taxa máxima teórica de comunicação (largura de banda) entre o processador e a placa de vídeo, nós ainda estávamos curiosos quanto ao verdadeiro impacto no desempenho em jogos ao usar uma conexão PCI Express 3.0 contra uma 2.0. Desta forma, nós rodamos testes de desempenho com o 3DMark e com alguns jogos atuais, utilizando uma placa de vídeo topo de linha (que, em teoria, demanda mais largura de banda do que uma placa de vídeo intermediária ou básica), primeiro com o slot configurado como PCI Express 3.0 x16, e depois com o mesmo slot configurado como PCI Express 2.0 x16. Finalmente, nós fizemos um teste com a mesma placa de vídeo, mas desta vez em um slot que suporta no máximo PCI Express 3.0 x4, para verificar como uma taxa de transferência ainda menor poderia afetar o desempenho.

As Figuras 1, 2 e 3 mostram a configuração do barramento de comuniçação com a placa de vídeo, no campo “Bus Interface” do programa GPU-Z.

PCI Express 2.0 vs. 3.0
Figura 1: utilizando barramento PCI Express 3.0 x16

PCI Express 2.0 vs. 3.0
Figura 2: utilizando barramento PCI Express 2.0 x16

PCI Express 2.0 vs. 3.0
Figura 3: utilizando barramento PCI Express 3.0 x4

Listamos a configuração utilizada nos testes na próxima página.

  • Curtir 2
  • Obrigado 1

Comentários de usuários

Respostas recomendadas



  • Coordenador
9 minutos atrás, Sr. Coxinha disse:

Uma pergunta besta....

Qual foi a real intenção de criar o PCIe 3.0 se o 2.0 já é mais que o "suficiente"? Qual hardware que se aproveita bem do PCIe 3.0?

Fazer as pessoas acreditarem e vender placa-mãe e processador. B)

  • Curtir 2
Link para o comentário
Compartilhar em outros sites

Estava pensando nisso ontem... Era o que imaginava não tem perda de desempenho praticamente nenhum, imagina para as placas intermediárias que são as mais vendidas.

 

Tudo não passa de marketing para os trouxas comprarem torrarem dinheiro com hardware.

  • Curtir 2
Link para o comentário
Compartilhar em outros sites

6 horas atrás, Sr. Coxinha disse:

Uma pergunta besta....

Qual foi a real intenção de criar o PCIe 3.0 se o 2.0 já é mais que o "suficiente"? Qual hardware que se aproveita bem do PCIe 3.0?

 

 

SSDs pci-e, placas de rede gigabit quad port e talvez o pessoal do sli/crossfire

  • Curtir 7
Link para o comentário
Compartilhar em outros sites

8 horas atrás, Sr. Coxinha disse:

Uma pergunta besta....

Qual foi a real intenção de criar o PCIe 3.0 se o 2.0 já é mais que o "suficiente"? Qual hardware que se aproveita bem do PCIe 3.0?

 

Dar suporte real a uma interface SATA 600/USB3.0, por exemplo, usando apenas uma pista PCI-E 3.0, gerando mais economia de trilhas...

 

Faltou um teste relacionado usando SLI ou Crossfire e de preferência de placas com "pouca" memória, por exemplo alguma placa com 1GiB de RAM, já que dependendo do jogo a placa teria que recorrer a memória dinâmica compartilhada via DirectX e ai a diferença dos barramentos talvez já influenciasse mais...

  • Curtir 5
Link para o comentário
Compartilhar em outros sites

  • Membro VIP
53 minutos atrás, F4b10 disse:

 

Dar suporte real a uma interface SATA 600/USB3.0, por exemplo, usando apenas uma pista PCI-E 3.0, gerando mais economia de trilhas...

 

Faltou um teste relacionado usando SLI ou Crossfire e de preferência de placas com "pouca" memória, por exemplo alguma placa com 1GiB de RAM, já que dependendo do jogo a placa teria que recorrer a memória dinâmica compartilhada via DirectX e ai a diferença dos barramentos talvez já influenciasse mais...

Quanto ao teste com SLI ou Crossfire, está em nossos planos. E a ideia de utilizar uma placa de vídeo com menos VRAM também é interessante, obrigado!

  • Curtir 3
Link para o comentário
Compartilhar em outros sites

  • Membro VIP
1 hora atrás, Feu.Fernando disse:

Eu fico me perguntando se as placas de videos co HBM possam gargalar o PCI-e 2.0, já que possuem uma banda de memória bem maior que a GDDR5. Será que poderiam testar?

Em teoria, não faz MUITA diferença, primeiro porque a banda não é tão maior (cerca de 50% a mais comparando uma Fury X com uma GTX 980 Ti), segundo porque o "gargalo" é o desempenho de processamento, e não a largura de banda da memória.

Até poderíamos testar, mas tivemos de devolver a Fury X que testamos para a AMD...

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

2 horas atrás, Rafael Coelho disse:

Em teoria, não faz MUITA diferença, primeiro porque a banda não é tão maior (cerca de 50% a mais comparando uma Fury X com uma GTX 980 Ti), segundo porque o "gargalo" é o desempenho de processamento, e não a largura de banda da memória.

Até poderíamos testar, mas tivemos de devolver a Fury X que testamos para a AMD...

 

Gargalar foi no sentido de perder frames mesmo... Hehehhe


Poxa, que pena! Guarda a sugestão e quando forem testar a Pascal/Polaris aí vocês fazem esse bench! :D

Link para o comentário
Compartilhar em outros sites

  • Administrador
6 horas atrás, Feu.Fernando disse:

Eu fico me perguntando se as placas de videos co HBM possam gargalar o PCI-e 2.0, já que possuem uma banda de memória bem maior que a GDDR5. Será que poderiam testar?

 

A maior largura de banda da memória é entre o chip gráfico e a memória, e não entre o processador e o chip gráfico. Portanto, pelo menos em teoria, não faz a menor diferença a placa de vídeo ter uma memória mais rápida.

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

quando lançaram o agp 8x  eu não tinha internet , eu li um artigo sobre isto nas revistas que eu comprava o autor falava que somente placas fracas se beneficiavam da maior banda do slote por que sua memória não dava conta .

depois veio o pci ex 16x começo a aparecer as placas turbo cache, estas placas vinham com no maximo 64 mb de vram .

seria interessante testa uma gtx 960 de 2 giga no shadow of mordor é um jogo que a gtx 960 é bastante afetada pela falta de vram

Link para o comentário
Compartilhar em outros sites

Mais uma ótima análise e ótimos também os comentários e informações postados aqui! :)

 

Para mim, fica mais uma vez a certeza: apesar de ser um recurso/tecnologia justificável para algumas aplicações, não faz o menor sentido  para a grande maioria dos usuários.

 

E aí é onde vejo o maior problema: na maioria das vezes, recebemos informações parciais e/ou imprecisas que induzem a conclusões erradas. E passamos a analisar e opinar baseados em suposições que, mesmo parecendo evidentes na teoria, não significam nada na prática. Quem é que diria o que diz a conclusão deste teste antes da sua publicação?

 

É por isto que eu tenho tanto apreço por estes testes "Quebrando mitos": parabéns e muito obrigado! thumbsup.gif

  • Curtir 5
Link para o comentário
Compartilhar em outros sites

e ainda conheço caras que estão se desfazendo dos ótimos ivy bridge i7 3770 ou i5 3470 pra montar skylake por causa do ddr4 não sei por que mas também tenho a impressão que tudo não passa de marketing pra vender hardware  

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

Lendo esse artigo + o mitos do hardware 06 que informa que  BITS maiores da placa de video não significam que ela é melhor já consegui economizar uma boa grana ao montar meu computador. Simplesmente espetacular esses dois artigos, parabens pelo trabalho.

  • Curtir 3
Link para o comentário
Compartilhar em outros sites




Crie uma conta ou entre para comentar

Você precisa ser um usuário para fazer um comentário

Criar uma conta

Crie uma nova conta em nossa comunidade. É fácil!

Crie uma nova conta

Entrar

Já tem uma conta? Faça o login.

Entrar agora

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...