<?xml version="1.0"?>
<rss version="2.0"><channel><title>Artigos: Artigos</title><link>https://www.clubedohardware.com.br/artigos/video/page/2/</link><description>Artigos: Artigos</description><language>pt</language><item><title>Placa de v&#xED;deo com mais mem&#xF3;ria &#xE9; mais r&#xE1;pida? - Mitos Ep. 03</title><link>https://www.clubedohardware.com.br/artigos/video/placa-de-v%C3%ADdeo-com-mais-mem%C3%B3ria-%C3%A9-mais-r%C3%A1pida-mitos-ep-03-r36666/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_10/thumbnail-mitos-03.jpg.b92047f38edb1cee5970e53281121abe.jpg" /></p>
<div class="ipsEmbeddedVideo" contenteditable="false">
	<div>
		<iframe allowfullscreen="true" frameborder="0" height="270" id="ips_uid_3206_6" src="https://www.clubedohardware.com.br/applications/core/interface/index.html" width="480" data-embed-src="https://www.youtube.com/embed/9ijedgHRfD4?feature=oembed"></iframe>
	</div>
</div>

<p>
	 
</p>
]]></description><guid isPermaLink="false">36666</guid><pubDate>Tue, 21 Feb 2017 10:13:00 +0000</pubDate></item><item><title>Tudo sobre &#x201C;input lag&#x201D;</title><link>https://www.clubedohardware.com.br/artigos/video/tudo-sobre-%E2%80%9Cinput-lag%E2%80%9D-r36570/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_n7uosn7uosn7uosn.jpg.88d0d097a9f99262432580bfca0f6d7b.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	<em>Input lag</em> é o tempo total decorrido entre o momento que um determinado comando é dado em periférico de entrada (teclado, mouse, joystick etc.) e o momento que esse comando é reproduzido no periférico de saída (monitor, TV, projetor, etc.). O <em>input lag</em> engloba o tempo em que a máquina leva para processar o comando, o tempo em que a placa de vídeo leva para gerar o sinal da imagem e tempo em que o monitor leva para processar esse sinal em uma imagem e efetivamente exibi-la na tela. Nessa conta está incluído também o tempo de resposta, que é a única informação que os fabricantes nos fornecem atualmente, embora este número possa ser “maquiado”, como explicaremos a seguir. Infelizmente, muitas pessoas se restringem apenas ao tempo de resposta para considerar se uma tela é rápida ou não, e não se atentam que há também o <em>input lag</em>.
</p>

<p>
	A propósito, não deixe de ler nosso tutorial “<a href="https://www.clubedohardware.com.br/artigos/video/tudo-o-que-voc%C3%AA-precisa-saber-sobre-monitores-lcd-r34409/" rel="" target="_blank">Tudo sobre monitores LCD</a>”.
</p>

<p>
	Você já reparou como nos últimos anos os fabricantes passaram a divulgar números cada vez melhores nas especificações de seus monitores? A verdade, porém, é que as telas não evoluíram na mesma velocidade que esses números aparentam dizer. Como bons números ajudam nas vendas, os fabricantes vivem inventando “medidas alternativas” para divulgar as especificações dos seus aparelhos.
</p>

<p>
	Essa pratica, infelizmente, é comum há décadas. Em equipamentos de áudio, a indústria inventou a medida de potência PMPO para divulgar no lugar da potência verdadeira (RMS). Na indústria de discos rígidos, os fabricantes passaram a arredondar números, redefinindo o que é megabyte e gigabyte, usando números na base dez em vez de na base dois. Com monitores e TVs não foi diferente.
</p>

<p>
	Um bom exemplo é a medida da taxa de contraste. Antigamente, um bom monitor tinha 500:1 de contraste estático, depois, passou-se a utilizar o “contraste dinâmico” e a medida subiu para 10000:1 ou até 25000:1. A mesma coisa aconteceu com o tempo de resposta. Antes era medido de preto para preto (BTB, black to black) e um tempo de resposta de 5 ms indicava um modelo de monitor muito bom. Mas, depois, a medida passou a ser de cinza para cinza (GTG, grey to grey) e agora você tem monitores com tempo de resposta de apenas 1 ms, mas que na prática continuam sendo perto de 5 ms BTB.
</p>

<p>
	Todas essas medidas inventadas pelos fabricantes para melhorar os números deixam os consumidores confusos, e as agências reguladoras estão longe de agir para termos uma padronização.
</p>

<p>
	[pagination="Input lag, uma medida difícil de calcular"]
</p>

<p>
	Jogos em geral demandam do jogador uma resposta rápida aos acontecimentos da tela. Você basicamente reage ao que vê, para atingir um adversário ou desviar de um obstáculo. Então, quanto mais rápidamente a tela mostrar o que está acontecendo, maior será a sua chance de responder a tempo. O termo <em>input lag</em> convencionou-se como a medida entre o momento que um comando é emitido e o momento que a tela exibe o resultado desse comando.
</p>

<p style="text-align: center;">
	<img alt="o input lag" border="0" style="height: auto;" title="o input lag" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/3211_01.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> o <em>input lag</em>
</p>

<p>
	Nos antigos monitores e TVs CRT, mais popularmente conhecidos como aparelhos de tubo, o sinal recebido era analógico e sua exibição praticamente instantânea. Já em aparelhos com tecnologia digital, a imagem precisa ser processada antes de ser enviada à tela. Quanto mais tratamento uma imagem recebe, mas ela demorará a ser gerada e exibida.
</p>

<p>
	A grande dificuldade hoje é justamente descobrir qual é o <em>input lag</em> desses aparelhos, já que nenhum fabricante divulga tais dados, e até o presente momento não há uma convenção de como se fazer tal medição. Dessa forma, resta aos usuários descobrir na prática se um monitor é realmente rápido ou não.
</p>

<p>
	Medir o <em>input lag</em> é mais complicado do que você possa imaginar. Uma forma possível é através do uso de cronômetros e câmeras de alta velocidade. Para isso, usa-se um monitor CRT junto com a tela a ser testada, duplicando a imagem e usando um cronômetro via algum site ou programa. Bastava então tirar uma foto dos dois monitores lado a lado, e a diferença de tempo presente entre os cronômetros das telas seria o <em>input lag</em>.
</p>

<p>
	Contudo, na prática esta metodologia não funciona a contento, pois a taxa de atualização das telas é limitada. Precisaríamos que os dois monitores e a placa de vídeo fossem capazes de gerar mil quadros por segundo para que a foto exibisse a diferença de tempo exata em milisegundos. Como os monitores operam em geral a 60 Hz, as telas só podem mostrar um novo número a cada 16,66 ms. Portanto, uma diferença menor que isso faria as duas telas mostrarem a mesma imagem, e uma diferença entre 16 ms e 33 ms mostraria uma diferença de 16 ms e assim sucessivamente a cada 16,66 ms.
</p>

<p>
	Ainda há outro fator, que é o equipamento que está gerando o sinal. Um computador X pode levar mais ou menos tempo para enviar à tela o sinal do que um computador Y ou um console Z.
</p>

<p>
	Outras formas mirabolantes de medir o <em>input lag</em> foram inventadas, mas nenhuma delas era precisa o suficiente até que uma empresa do Reino Unido, a Leo Bodnar Electronics, inventou um aparelho chamado Lag Tester, sobre o qual falaremos na próxima página.
</p>

<p>
	[pagination="O Lag Tester"]
</p>

<p>
	O Lag Tester tem o tamanho de um discor rígido externo, usa duas pilhas pequenas (AA) e tem uma saída HDMI. Ele gera um sinal de 1080p com três faixas brancas e possui um fotossensor. Dessa forma, elimina-se todas as variáveis que podem interferir na medição como diferenças de hardware dos computadores e consoles e também a taxa de atualização da tela.
</p>

<p style="text-align: center;">
	<img alt="o Lag Tester da Leo Bodnar Electronics" border="0" style="height: auto;" title="o Lag Tester da Leo Bodnar Electronics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/3211_02.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> o Lag Tester da Leo Bodnar Electronics
</p>

<p>
	Para fazer o teste, você deve apontar o fotossensor para a tela na altura de uma das faixas brancas. O aparelho disparará seu cronômetro interno junto com a imagem e parará a contagem quando o fotossensor registrar a faixa branca. Em seguida, ele mostra o resultado do teste na tela.
</p>

<p>
	O aparelho gera três faixas por que monitores LCD geram a imagem progressivamente, de cima para baixo. Logo, se você fizer o teste com a primeira faixa terá um input lag menor do que se o fizer na terceira. Já em telas de plasma, a geração da imagem ocorre de forma simultânea na tela inteira. Por padrão, usa-se atualmente a faixa do meio para testes. Mas se você quiser saber o valor final de sua tela, use a terceira faixa.
</p>

<p style="text-align: center;">
	<img alt="teste de input lag usando a segunda faixa" border="0" style="height: auto;" title="teste de input lag usando a segunda faixa" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/3211_03.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 3:</strong> teste de <em>input lag</em> usando a segunda faixa
</p>

<p>
	[pagination="Qual é valor de input lag ideal?"]
</p>

<p>
	Temos hoje no mercado aparelhos já testados por diversos sites especializados. Porém, é importante sempre verificar qual metodologia de teste foi usada, pois ela pode afetar os resultados.
</p>

<p>
	Os valores a seguir são referentes à metodologia usando o Lag Tester, usando a faixa central como base. Considera-se excelente os aparelhos que ficam abaixo dos 20 ms. São esses os modelos recomendados para jogadores exigentes, principalmente para jogos de tiro. Os aparelhos entre 21 ms e 40 ms são considerados muito bons. Com eles é possível jogar bem qualquer tipo de jogo. Já aparelhos com input lag entre 41 ms e 60 ms são razoáveis e não recomendáveis para jogos de resposta rápida. E, finalmente, os aparelhos com <em>input lag</em> acima dos 61 ms não são recomendáveis para jogos.
</p>

<p>
	Curiosamente, os modelos de monitor com menor input lag registrado atualmente são aparelhos de 2012 e 2013 com tempo de resposta de 9 ms fabricados pela ASUS (MX279H) e LG (27EA33V), ambos já não mais fabricados e dificilmente encontrados à venda. Para os modelos fabricados em 2015 e ainda em circulação, o BenQ RL2755HM fica na casa dos 10 ms e pode ser encontrado no Brasil. Isso nos leva a concluir que os fabricantes não vêem como uma meta diminuir os valores atuais de <em>input lag</em>.
</p>

<p>
	Quando mudamos o cenário para televisores, vemos uma evolução ao longo dos anos, mas são as poucas TVs que conseguem operar abaixo dos 20 ms. Sony KDL-55W802A e Samsung UN65JU7500 encabeçam a lista com modelos de 17 ms (configuradas para o modo de imagem “jogos”). Logo, se sua intenção é comprar uma TV para jogos, é importante pesquisar antes de comprar. A lista de modelos que operam acima dos 40 ms é bem grande.
</p>

<p>
	Um bom lugar para começar sua busca é no site <a href="http://www.displaylag.com/display-database/" rel="external nofollow" target="_blank">http://www.displaylag.com/display-database/</a>, um banco de dados com diferentes tipos de aparelhos devidamente testados usando com o Lag Tester. 
</p>

<p>
	[pagination="Como evitar ou diminuir o input lag"]
</p>

<p>
	O ideal é pesquisar antes de comprar, mas se você já tem seu aparelho em casa, seguem algumas dicas.
</p>

<ul>
	<li>
		Sempre use a resolução nativa de sua tela. Muitos jogadores gostam de reduzir a resolução dos jogos para ganharem alguns quadros por segundo ou tornar os objetos maiores na tela. Mas ao fazer isso, você força a TV ou monitor a processar a imagem para redimensioná-la. Isso aumenta o <em>input lag</em>.
	</li>
	<li>
		Em TVs, use o modo “PC” ou “jogos”, que reduz o processamento de imagem a fim reduzir o <em>input lag</em>.- Desative todo tipo de melhoramento de qualidade de imagem possível. Quanto mais “crua” a imagem, menos a TV ou monitor terá de processá-la.
	</li>
	<li>
		Use entradas digitais. Alguns aparelhos ainda contam com entradas VGA e outras entradas analógicas. Evite esse tipo de entrada, pois o sinal precisará ser convertido para digital pelo monitor ou TV antes de ser exibido. Prefira sempre sinais do tipo HDMI, DVI-D ou Display Port que já são nativamente digitais.
	</li>
</ul>

<p>
	[pagination="Conclusão"]
</p>

<p>
	Tentamos, neste artigo, mostrar como podemos ser iludidos pelos fabricantes com suas unidades de medida duvidosas, e como o <em>input lag</em> ainda é um terreno desconhecido para muitos. As informações sobre o <em>input lag</em> de TVs e monitores são escassas e contamos apenas com o trabalho de usuários e publicações de tecnologia que acabam fazendo esses testes por conta própria. Dessa forma, ainda existem literalmente milhares de produtos à venda que nunca foram testados e que não temos como ter a mínima noção de sua velocidade para geração de imagens. Infelizmente, os fabricantes não parecem estar comprometidos em melhorar essa característica em suas telas, tampouco criar uma forma padronizada para medir e divulgar tais números.
</p>

<p>
	O aparelho citado neste artigo pode ser adquirido na Internet, mas não havia comercialização oficial no Brasil até a data de publicação deste artigo. Não temos contato com o fabricante nem recebemos qualquer tipo de incentivo para falarmos sobre o mesmo.
</p>
]]></description><guid isPermaLink="false">36570</guid><pubDate>Mon, 15 Feb 2016 09:54:00 +0000</pubDate></item><item><title>PCI Express 3.0 vs. 2.0: h&#xE1; ganho real em jogos?</title><link>https://www.clubedohardware.com.br/artigos/video/pci-express-30-vs-20-h%C3%A1-ganho-real-em-jogos-r36566/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_mt5x70mt5x70mt5x.jpg.403b6565dd3ab8868ebe8e3f0d11962c.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	Um dos recursos presentes nas últimas gerações de processadores, chipsets e placas de vídeo é a conexão PCI Express 3.0. Mas será que ela realmente traz, na prática, um aumento de desempenho em relação ao PCI Express 2.0? Vamos descobrir neste teste!
</p>

<p>
	A conexão PCI Express 3.0 foi especificada em 2010, com taxa de transferência máxima teórica por pista de cerca de 1 GB/s (na verdade, 984,6 MiB/s), o dobro do padrão PCI Express 2.0, que oferece 500 GB/s por pista. Assim, um slot PCI Express 2.0 x16 oferece uma taxa de transferência máxima teórica (largura de banda) de 8 GB/s, enquanto um slot PCI Express 3.0 x16 chega a 16 GB/s, em teoria.
</p>

<p>
	Lembrando que essas são as velocidades máximas que a conexão suporta, não significando que a placa de vídeo transferirá dados nessas velocidades. Para informações técnicas mais detalhadas, leia nosso tutorial “<a href="https://www.clubedohardware.com.br/artigos/placas-mae/tudo-o-que-voc%C3%AA-precisa-saber-sobre-a-conex%C3%A3o-pci-express-r34504/" rel="" target="_blank">Tudo o que você precisa saber sobre a conexão PCI Express</a>”.
</p>

<p>
	Nas placas de vídeo, todos os modelos atuais são compatíveis com o PCI Express 3.0; as primeiras placas com chips da NVIDIA compatíveis com este padrão foram da geração GeForce GT/GTX 6xx, enquanto as da AMD o utilizam desde os modelos Radeon HD 7xxx.
</p>

<p>
	Em relação aos processadores, na maioria dos casos a conexão PCI Express 3.0 é fornecida pelo processador, e não pelo chipset da placa-mãe. Porém, é necessário que a placa-mãe também seja compatível com este padrão. Os processadores Intel suportam o padrão 3.0 desde a terceira geração dos Core i (“Ivy Bridge”). Já nos AMD série A (APUs) o suporte existe para todos os modelos soquete FM2+. Os processadores FX, por outro lado, não oferecem suporte ao PCI Express 3.0, pois nesta plataforma as linhas PCI Express são geradas pelo chipset, e mesmo o modelo mais topo de linha, o 990FX, suporta apenas PCI Express 2.0.
</p>

<p>
	Apesar da grande diferença na taxa máxima teórica de comunicação (largura de banda) entre o processador e a placa de vídeo, nós ainda estávamos curiosos quanto ao verdadeiro impacto no desempenho em jogos ao usar uma conexão PCI Express 3.0 contra uma 2.0. Desta forma, nós rodamos testes de desempenho com o 3DMark e com alguns jogos atuais, utilizando uma placa de vídeo topo de linha (que, em teoria, demanda mais largura de banda do que uma placa de vídeo intermediária ou básica), primeiro com o slot configurado como PCI Express 3.0 x16, e depois com o mesmo slot configurado como PCI Express 2.0 x16. Finalmente, nós fizemos um teste com a mesma placa de vídeo, mas desta vez em um slot que suporta no máximo PCI Express 3.0 x4, para verificar como uma taxa de transferência ainda menor poderia afetar o desempenho.
</p>

<p>
	As Figuras 1, 2 e 3 mostram a configuração do barramento de comuniçação com a placa de vídeo, no campo “Bus Interface” do programa <a href="https://www.clubedohardware.com.br/artigos/software/gpu-z-r36208/" rel="" target="_blank">GPU-Z</a>.
</p>

<p style="text-align: center;">
	<img alt="PCI Express 2.0 vs. 3.0" border="0" style="height: auto;" title="PCI Express 2.0 vs. 3.0" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/pcie2vs3-1.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> utilizando barramento PCI Express 3.0 x16
</p>

<p style="text-align: center;">
	<img alt="PCI Express 2.0 vs. 3.0" border="0" style="height: auto;" title="PCI Express 2.0 vs. 3.0" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/pcie2vs3-2.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> <span>utilizando barramento PCI Express 2.0 x16</span>
</p>

<p style="text-align: center;">
	<img alt="PCI Express 2.0 vs. 3.0" border="0" style="height: auto;" title="PCI Express 2.0 vs. 3.0" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/pcie2vs3-3.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 3:</strong> utilizando barramento PCI Express 3.0 x4
</p>

<p>
	Listamos a configuração utilizada nos testes na próxima página.
</p>

<p>
	[pagination="Como testamos"]
</p>

<p>
	Durante nossas sessões de teste, nós usamos a configuração listada abaixo. Entre as sessões de teste, a única diferença foi a configuração de barramento PCI Express utilizado pela placa de vídeo.
</p>

<p>
	<strong><strong>Configuração de hardware</strong></strong>
</p>

<ul>
	<li>
		Processador: <a href="https://www.clubedohardware.com.br/analises/processadores/teste-do-processador-core-i7-5775c-r36517/" rel="" target="_blank">Core i7-5775C</a>
	</li>
	<li>
		Placa-mãe: <a href="https://www.clubedohardware.com.br/analises/placas-mae/placa-m%C3%A3e-asrock-z97-extreme4-r36340/" rel="" target="_blank">ASRock Z97 Extreme4</a>
	</li>
	<li>
		Memória: 16 GiB DDR3-2133 G.Skill Ripjaws Z, quatro módulos F3-17000CL9Q-16GBZH de 4 GiB configurados a 1600 MHz
	</li>
	<li>
		Cooler do processador: cooler padrão da Intel
	</li>
	<li>
		Unidade de boot: <a href="https://www.clubedohardware.com.br/analises/armazenamento/teste-das-unidades-ssd-kingston-hyperx-predator-480-gib-vs-kingston-hyperx-savage-480-gib-r36485/" rel="" target="_blank">Kingston HyperX Savage 480 GB</a>
	</li>
	<li>
		Placa de vídeo: <a href="https://www.clubedohardware.com.br/analises/video/teste-das-placas-de-v%C3%ADdeo-geforce-gtx-980-ti-vs-radeon-r9-fury-x-r36539/" rel="" target="_blank">GeForce GTX 980 Ti</a>
	</li>
	<li>
		Monitor de vídeo: Philips 236VL
	</li>
	<li>
		Fonte de alimentação: Corsair CX750
	</li>
</ul>

<p>
	<strong>Configuração do sistema operacional</strong>
</p>

<ul>
	<li>
		Windows 10 Home 64-bit
	</li>
	<li>
		NTFS
	</li>
	<li>
		Resoluçao de vídeo: 1920 x 1080
	</li>
</ul>

<p>
	<strong>Versões dos drivers </strong>
</p>

<ul>
	<li>
		Versão do drivers nVIDIA GeForce: 361.43
	</li>
</ul>

<p>
	<strong>Software utilizado</strong>
</p>

<ul>
	<li>
		<a href="http://www.3dmark.com/" rel="external nofollow" target="_blank">3DMark 1.5.915</a>
	</li>
	<li>
		<a href="http://www.battlefield.com/br/battlefield-4" rel="external nofollow" target="_blank">Battlefield 4</a>
	</li>
	<li>
		<a href="https://www.dirtgame.com/uk/home" rel="external nofollow" target="_blank">Dirt Rally</a>
	</li>
	<li>
		<a href="http://dyinglightgame.com/" rel="external nofollow" target="_blank">Dying Light</a>
	</li>
	<li>
		<a href="http://www.rockstargames.com/V" rel="external nofollow" target="_blank">GTA V</a>
	</li>
	<li>
		<a href="http://www.madmaxgame.com/" rel="external nofollow" target="_blank">Mad Max</a>
	</li>
</ul>

<p>
	<strong>Margem de erro </strong>
</p>

<p>
	Nós adotamos uma margem de erro de 3%. Assim, diferenças abaixo de 3% não são consideradas relevantes. Em outras palavras, produtos com diferença de desempenho abaixo de 3% são considerados tendo desempenhos equivalentes.
</p>

<p>
	[pagination="3DMark"]
</p>

<p style="text-align: left;">
	O 3DMark é um programa com um conjunto de testes de desempenho que criam cenários e simulações de jogos 3D.
</p>

<p style="text-align: left;">
	O teste Fire Strike mede desempenho DirectX 11 e é direcionado a PCs topo de linha. O teste Sky Diver também mede desempenho DirectX 11, mas é mais voltado a computadores intermediários. O teste Cloud Gate benchmark mede desempenho DirectX 10, rodando a 1280 x 720. E o teste Ice Storm mede desempenho DirectX 9 e é voltado a computadores de entrada, portanto não o incluímos em nosso comparativo.
</p>

<p style="text-align: left;">
	Lembrando que neste teste utilizamos uma placa de vídeo GeForce GTX 980 Ti em todos os testes.
</p>

<p style="text-align: left;">
	Rodamos cada teste três vezes, e cada escore nos gráficos é a média aritmética dos três escores obtidos em condições idênticas.
</p>

<p style="text-align: center;">
	<img alt="PCI Express 3.0 vs. PCI Express 2.0" border="0" style="height: auto;" title="PCI Express 3.0 vs. PCI Express 2.0" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/pcie2vs3-g1.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	No teste Fire Strike, o desempenho foi o mesmo nas três configurações.
</p>

<p style="text-align: center;">
	<img alt="PCI Express 3.0 vs. PCI Express 2.0" border="0" style="height: auto;" title="PCI Express 3.0 vs. PCI Express 2.0" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/pcie2vs3-g2.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	No teste Sky Diver, não houve diferença entre os testes com PCI Express 3.0 x16 e PCI Express 2.0 x16. Já no teste utilizando um slot PCI Express 3.0 x4, o desempenho foi 5,5% inferior ao primeiro teste.
</p>

<p style="text-align: center;">
	<img alt="PCI Express 3.0 vs. PCI Express 2.0" border="0" style="height: auto;" title="PCI Express 3.0 vs. PCI Express 2.0" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/pcie2vs3-g3.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	No teste Cloud Gate também não houve diferença entre os testes com versão 2.0 e 3.0, mas o teste utilizando o slot PCI Express 3.0 x4 levou a um desempenho 7,9% inferior.
</p>

<p>
	[pagination="Desempenho em jogos (parte 1)"]
</p>

<h3>
	Battlefield 4
</h3>

<p>
	O Battlefield 4 é o um dos mais populares da série Battlefield, tendo sido lançado em 2013. Ele é baseado no motor Frostbite 3, que é DirectX 11. Para medir o desempenho usando este jogo, abrimos caminho pela primeira missão três vezes, medindo o número de quadros por segundo usando o <a href="https://www.clubedohardware.com.br/artigos/software/fraps-r36273/" rel="" target="_blank">FRAPS</a>. Nós rodamos o jogo em Full HD, com a qualidade de imagem configurada em “alta”.
</p>

<p align="center" style="text-align: left;">
	Os resultados abaixo estão expressos em quadros por segundo e são a média aritmética dos três resultados coletados.
</p>

<p style="text-align: center;">
	<img alt="PCI Express 3.0 vs. PCI Express 2.0" border="0" style="height: auto;" title="PCI Express 3.0 vs. PCI Express 2.0" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/pcie2vs3-g4.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	No Battlefield 4 não houve diferença �de desempenho significativa entre os três testes.
</p>

<h3>
	Dirt Rally
</h3>

<p>
	O Dirt Rally é um jogo de corrida off-road lançado em abril de 2015, baseado no motor Ego. Para medir o desempenho usando este jogo, nós rodamos o teste de desempenho incluído no jogo, em Full HD, com a qualidade de imagem configurada em “alta” e MSAA x2.
</p>

<p>
	Os resultados estão expressos em quadros por segundo (fps).
</p>

<p style="text-align: center;">
	<img alt="PCI Express 3.0 vs. PCI Express 2.0" border="0" style="height: auto;" title="PCI Express 3.0 vs. PCI Express 2.0" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/pcie2vs3-g5.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	No Dirt Rally o desempenho com PCI Express 3.0 x16 e PCI Express 2.0 x16 foi exatamente o mesmo. Porém, utilizando o slot PCI Express 3.0 x4, o desempenho caiu 14%.
</p>

<h3>
	Dying Light
</h3>

<p>
	O Dying Light é um jogo de horror em mundo aberto lançado em janeiro de 2015, que utiliza o motor Chrome Engine 6. Nós testamos o desempenho neste jogo com as opções de qualidade em “alta” e resolução Full HD, medindo três vezes a taxa de quadros utilizando o programa <a href="https://www.clubedohardware.com.br/artigos/software/fraps-r36273/" rel="" target="_blank">FRAPS</a>.
</p>

<p>
	Os resultados abaixo estão em quadros por segundo e são uma média artimética dos três resultados coletados.
</p>

<p style="text-align: center;">
	<img alt="PCI Express 3.0 vs. PCI Express 2.0" border="0" style="height: auto;" title="PCI Express 3.0 vs. PCI Express 2.0" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/pcie2vs3-g6.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	Neste jogo, o desempenho com PCI Express 3.0 x16 foi 7% superior ao com PCI Express 2.0 x16. Já o PCI Express 3.0 x4 obteve um desempenho praticamente igual ao do PCI Express 2.0 x16.
</p>

<p>
	[pagination="Desempenho em jogos (parte 2)"]
</p>

<h3>
	Grand Theft Auto V
</h3>

<p>
	O Grand Theft Auto V, ou simplesmente GTA V, é um jogo de ação em mundo aberto lançado para PC em abril de 2015, utilizando o motor RAGE. Para medir o desempenho usando este jogo, nós rodamos o teste de desempenho do jogo, medindo o número de quadros por segundo usando o <a href="https://www.clubedohardware.com.br/artigos/software/fraps-r36273/" rel="" target="_blank">FRAPS</a> na parte em que a câmera acompanha o voo do avião. Nós rodamos o jogo em Full HD, com a qualidade de imagem configurada no máximo nos itens referentes a texturas e em mínimo no que se refere a pós-processamento.
</p>

<p style="text-align: center;">
	<img alt="PCI Express 3.0 vs. PCI Express 2.0" border="0" style="height: auto;" title="PCI Express 3.0 vs. PCI Express 2.0" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/pcie2vs3-g7.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	No GTA V, houve um ganho de 3,6% de desempenho ao utilizarmos o PCI Express 3.0 x16 em relação ao PCI Express 2.0 x16. Já o teste com PCI Express 3.0 x4 rodou 13% mais lento do que o primeiro teste.
</p>

<h3 style="text-align: left;">
	Mad Max
</h3>

<p style="text-align: left;">
	O Mad Max é um jogo de ação em mundo aberto lançado em setembro de 2015, utilizando o motor Avalanche. Para medir o desempenho utilizando este jogo, nós rodamos a introdução do mesmo, medindo o número de quadros por segundo usando o <a href="https://www.clubedohardware.com.br/artigos/software/fraps-r36273/" rel="" target="_blank">FRAPS</a> três vezes na sequência. Nós rodamos o jogo em Full HD, com a qualidade gráfica em “alta”
</p>

<p style="text-align: left;">
	Os resultados abaixo estão em quadros por segundo e são uma média artimética dos três resultados coletados.
</p>

<p style="text-align: center;">
	<img alt="PCI Express 3.0 vs. PCI Express 2.0" border="0" style="height: auto;" title="PCI Express 3.0 vs. PCI Express 2.0" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/pcie2vs3-g8.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	No Mad Max, o resultado foi o mesmo nos três testes.
</p>

<p>
	[pagination="Conclusões"]
</p>

<p>
	Nossos testes mostraram um resultado bem claro: em apenas um jogo (no Dying Light) houve algum ganho de desempenho significativo por utilizamos conexão PCI Express 3.0 em vez de PCI Express 2.0. Mesmo assim, foi um ganho bastante modesto, de 7%. Já ao utilizarmos um slot PCI Express 3.0 x4, houve uma perda de desempenho na maioria dos jogos.
</p>

<p>
	Lembrando que utilizamos uma placa de vídeo topo de linha, em um sistema também de alto nível. Embora não tenhamos rodado testes em um sistema mais básico, é lógico imaginar que, em um sistema onde o desempenho de processamento da placa de vídeo seja inferior, o impacto da largura de banda disponível na conexão entre o processador e a placa de vídeo seja ainda menor.
</p>

<p>
	Assim, caso você esteja procurando uma placa de vídeo, processador ou placa-mãe para comprar, o suporte ou não ao barramento PCI Express 3.0 não deve ser um fator crucial para decidir a sua compra, pelo menos em um sistema com apenas uma única placa de vídeo.
</p>
]]></description><guid isPermaLink="false">36566</guid><pubDate>Mon, 25 Jan 2016 11:18:00 +0000</pubDate></item><item><title>Teste da tecnologia Dual Graphics da AMD</title><link>https://www.clubedohardware.com.br/artigos/video/teste-da-tecnologia-dual-graphics-da-amd-r36533/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_sr42h4sr42h4sr42.jpg.0915220c9199e30212be9868284da70d.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p style="text-align: left;">
	A tecnologia Dual Graphics (ou Radeon Dual Graphics) da AMD serve para combinar o processamento do vídeo integrado de um processador série A (também chamado de “APU” pelo fabricante) com uma placa de vídeo Radeon “de verdade”, de forma a aumentar o desempenho em jogos e aplicações 3D. Nós testamos um arranjo Dual Graphics feito com um processador <a href="https://www.clubedohardware.com.br/analises/processadores/teste-do-processador-a8-7670k-r36530/" rel="" target="_blank">A8-7670K</a> e uma placa de vídeo <a href="https://www.clubedohardware.com.br/analises/video/teste-da-placa-de-v%C3%ADdeo-xfx-radeon-r7-240-core-edition-r36313/" rel="" target="_blank">Radeon R7 240</a> para verificarmos se há realmente ganho de desempenho com esta configuração. Confira!
</p>

<p style="text-align: left;">
	A tecnologia Dual Graphics é, na verdade, uma das formas de implementação da tecnologia CrossFire da AMD, mas em vez de duas placas de vídeo avulsas trabalharem em conjunto, uma placa de vídeo trabalha conjuntamente com o vídeo integrado no processador. A técnica era originalmente chamada “Hybrid CrossFire”, mas a implementação atual foi batizada de “Dual Graphics”. Para saber mais sobre o assunto, leia nosso tutorial “<a href="https://www.clubedohardware.com.br/artigos/video/sli-vs-crossfire-r34713/" rel="" target="_blank">SLI vs. CrossFire</a>”.
</p>

<p style="text-align: left;">
	Porém, não é qualquer placa de vídeo que pode ser utilizada em Dual Graphics. Cada geração de processadores série A é compatível com determinados modelos de placas de vídeo Radeon. <a href="http://www.amd.com/pt-br/innovations/software-technologies/dual-graphics" rel="external nofollow" target="_blank">A tabela atualizada pode ser acessada no site da AMD</a>.
</p>

<p style="text-align: left;">
	Nós decidimos testar esta tecnologia combinando o processador <a href="https://www.clubedohardware.com.br/analises/processadores/teste-do-processador-a8-7670k-r36530/" rel="" target="_blank">A8-7670K (que nós testamos recentemente)</a> com a placa de vídeo recomendada pela AMD para formar um arranjo Dual Graphics com este processador, a <a href="https://www.clubedohardware.com.br/analises/video/teste-da-placa-de-v%C3%ADdeo-xfx-radeon-r7-240-core-edition-r36313/" rel="" target="_blank">Radeon R7 240 (que nós também já testamos)</a>.
</p>

<p style="text-align: left;">
	Nós testamos o desempenho com o vídeo integrado sozinho, depois com a Radeon R7 240 instalada mas com o Dual Graphics desabilitado, e por fim com o Dual Graphics habilitado.
</p>

<p>
	As Figuras 1 e 2 mostram o processador e a placa de vídeo utilizados em nosso teste.
</p>

<p style="text-align: center;">
	<img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-01.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: center;">
	<strong>Figura 1:</strong> processador A8-7670K
</p>

<p style="text-align: center;">
	<img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-02.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: center;">
	<strong>Figura 2:</strong> placa de vídeo Radeon R7 240 da XFX
</p>

<p>
	Na próxima página, vamos ver como configurar a tecnologia Dual Graphics.
</p>

<p>
	[pagination="Configurando a tecnolgia Dual Graphics"]
</p>

<p>
	A configuração da tecnologia Dual Graphics da AMD é bem simples. Supondo que você esteja utilizando o vídeo integrado do seu processador A6, A8 ou A10, já com o driver atualizado instalado, basta instalar a placa de vídeo compatível em seu computador e ligá-lo. Assim que a placa for reconhecida pelo driver, a tela de configuração do Centro de Controle da AMD aparecerá, já com a opção Dual Graphics ativada. Ver Figura 3.
</p>

<p style="text-align: center;">
	<img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-11.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: center;">
	<strong>Figura 3:</strong> ativação automática da tecnologia Dual Graphics
</p>

<p style="text-align: left;">
	Para verificar se a tecnologia está realmente ativada, podemos utilizar um programa como o <a href="https://www.clubedohardware.com.br/artigos/software/gpu-z-r36208/" rel="" target="_blank">GPU-Z</a>. Note, na Figura 4, como o adaptador de vídeo aparece como “AMD Radeon R7 Graphics + R7 200 Dual Graphics". Também podemos ver que no campo “AMD CrossFire” consta que está habilitado CrossFire com dois processadores gráficos.
</p>

<p style="text-align: center;">
	<img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-12.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: center;">
	<strong>Figura 4:</strong> conferindo se a tecnologia Dual Graphics está corretamente habilitada
</p>

<p style="text-align: left;">
	Caso o Dual Graphics não seja configurado automaticamente, verifique no setup do BIOS de sua placa-mãe se a opção “Integrated Graphics” ou similar está habilitada. Em algumas placas-mãe, se esta opção estiver em “Auto”, o vídeo integrado é desabilitado quando uma placa de vídeo é instalada.
</p>

<p>
	[pagination="Como testamos"]
</p>

<p>
	Durante nossas sessões de teste, nós usamos a configuração listada abaixo.
</p>

<p>
	Nós testamos apenas com o vídeo integrado, depois com a placa de vídeo Radeon R7 240 instalada mas com o Dual Graphics desabilitado, e por fim com o Dual Graphics habilitado.
</p>

<p>
	<strong><strong>Configuração de hardware</strong></strong>
</p>

<ul>
	<li>
		Placa-mãe: <a href="https://www.clubedohardware.com.br/analises/placas-mae/placa-m%C3%A3e-asrock-fm2a88x-extreme6-r36270/" rel="" target="_blank">ASRock FM2A88X Extreme 6+</a>
	</li>
	<li>
		Cooler do processador: padrão AMD
	</li>
	<li>
		Memória (DDR3): 8 GiB DDR3 G.Skill Ripjaws Z, dois módulos F3-17000CL9Q-16GBZH de 4 GiB configurados em 2133 MHz em canal duplo
	</li>
	<li>
		Unidade de boot: <a href="https://www.clubedohardware.com.br/analises/armazenamento/teste-das-unidades-ssd-kingston-hyperx-predator-480-gib-vs-kingston-hyperx-savage-480-gib-r36485/" rel="" target="_blank">Kingston HyperX Savage 480 GB</a>
	</li>
	<li>
		Monitor de vídeo: Philips 236VL
	</li>
	<li>
		Fonte de alimentação: Corsair CX500M
	</li>
</ul>

<p>
	<strong>Configuração do sistema operacional</strong>
</p>

<ul>
	<li>
		Windows 7 Home Premium 64-bit
	</li>
	<li>
		NTFS
	</li>
	<li>
		Resoluçao de vídeo: 1920 x 1080 (área de trabalho), 1280 x 720 (alguns jogos)
	</li>
</ul>

<p>
	<strong>Versões dos drivers </strong>
</p>

<ul>
	<li>
		Versão do driver AMD: Catalyst 15.7
	</li>
</ul>

<p>
	<strong>Software utilizado</strong>
</p>

<ul>
	<li>
		<a href="http://www.3dmark.com/" rel="external nofollow" target="_blank">3DMark 1.5.915</a>
	</li>
	<li>
		<a href="http://www.battlefield.com/br/battlefield-4" rel="external nofollow" target="_blank">Battlefield 4</a>
	</li>
	<li>
		<a href="https://www.dirtgame.com/uk/home" rel="external nofollow" target="_blank">Dirt Rally</a>
	</li>
	<li>
		<a href="http://www.dragonage.com/" rel="external nofollow" target="_blank">Dragon Age: Inquisition</a>
	</li>
	<li>
		<a href="http://dyinglightgame.com/" rel="external nofollow" target="_blank">Dying Light</a>
	</li>
	<li>
		<a href="http://lifeisstrange.com/" rel="external nofollow" target="_blank">GTA V</a>
	</li>
	<li>
		<a href="http://lifeisstrange.com/" rel="external nofollow" target="_blank">Life is Strange</a>
	</li>
</ul>

<p>
	<strong>Margem de erro </strong>
</p>

<p>
	Nós adotamos uma margem de erro de 4%. Assim, diferenças abaixo de 4% não são consideradas relevantes. Em outras palavras, produtos com diferença de desempenho abaixo de 4% são considerados tendo desempenhos equivalentes.
</p>

<p>
	[pagination="3DMark"]
</p>

<p style="text-align: left;">
	O 3DMark é um programa com um conjunto de testes de desempenho que criam cenários e simulações de jogos 3D.
</p>

<p style="text-align: left;">
	O teste Fire Strike mede desempenho DirectX 11 e é voltado a computadores topo de linha, enquanto o teste Sky Diver também mede desempenho DirectX 11, mas é voltado a computadores intermediários. O teste Cloud Gate benchmark mede desempenho DirectX 10, rodando a 1280 x 720. E o teste Ice Storm mede desempenho DirectX 9 e é voltado a computadores de entrada.
</p>

<p style="text-align: center;">
	<img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-01.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	No teste Fire Strike, o desempenho com Dual Graphics foi 73% superior ao desempenho apenas com a Radeon R7 240 e 33% superior ao desempenho apenas com o vídeo integrado.
</p>

<p style="text-align: center;">
	<img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-02.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	No teste Sky Diver, o desempenho com Dual Graphics foi 76% superior ao desempenho apenas com a Radeon R7 240 e 42% superior ao desempenho apenas com o vídeo integrado.
</p>

<p style="text-align: center;">
	 <img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-03.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	No teste Cloud Gate, a pontuação com Dual Graphics foi 39% superior à obtida com a Radeon R7 240 e 20% maior do que a com o vídeo integrado.
</p>

<p style="text-align: center;">
	<img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-04.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	Já no teste Ice Storm Extreme, o desempenho com Dual Graphics foi 51% superior ao desempenho com a Radeon R7 240 e 27% superior ao desempenho com apenas o vídeo integrado.
</p>

<p>
	[pagination="Battlefield 4"]
</p>

<p>
	O Battlefield 4 é o um dos mais populares da série Battlefield, tendo sido lançado em 2013. Ele é baseado no motor Frostbite 3, que é DirectX 11. Para medir o desempenho usando este jogo, abrimos caminho pela primeira missão três vezes, medindo o número de quadros por segundo usando o <a href="http://www.fraps.com/" rel="external nofollow" target="_blank">FRAPS</a>. Nós rodamos o jogo em 1920 x 1080 (Full HD), com a qualidade de imagem configurada em “média”.
</p>

<p style="text-align: left;">
	Os resultados abaixo estão expressos em quadros por segundo e são a média aritmética dos três resultados coletados.
</p>

<p style="text-align: center;">
	<img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-05.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	Neste jogo a configuração Dual Graphics foi 92% mais rápida do que a Radeon R7 240 e 71% mais rápida do que o vídeo integrado.
</p>

<p>
	[pagination="Dirt Rally"]
</p>

<p>
	O Dirt Rally é um jogo de corrida off-road lançado em abril de 2015, baseado no motor Ego. Para medir o desempenho usando este jogo, nós rodamos o teste de desempenho incluído no jogo, em 1920 x 1080 (Full HD), com a qualidade de imagem configurada em “baixa” e MSAA desligado.
</p>

<p>
	Os resultados estão expressos em quadros por segundo (fps).
</p>

<p style="text-align: center;">
	<img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-06.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	Neste jogo, o desempenho com Dual Graphics foi 13% mais alto do que o desempenho da R7 240 e 10% superior ao do vídeo integrado.
</p>

<p>
	[pagination="Dragon Age: Inquisition"]
</p>

<p>
	Dragon Age: Inquisition é o último lançamento da popular série de RPGs de ação Dragon Age. Ele foi lançado em novembro de 2014 e utiliza o motor Frostbite 3 com SpeedTree. Nós rodamos o jogo em 1920 x 1080 (Full HD) com todas as opções gráficas em “baixa”, medindo três vezes o número de quadros por segundo usando o <a href="http://www.fraps.com/" rel="external nofollow" target="_blank">FRAPS</a>.
</p>

<p>
	Os resultados abaixo estão em quadros por segundo e são uma média artimética dos três resultados coletados.
</p>

<p style="text-align: center;">
	<img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-07.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	No Dragon Age: Inquisition, o jogo rodou com Dual Graphics com desempenho 76% superior ao da Radeon R7 240 e 58% superior ao do vídeo integrado.
</p>

<p>
	[pagination="Dying Light"]
</p>

<p>
	O Dying Light é um jogo de horror em mundo aberto lançado em janeiro de 2015, que utiliza o motor Chrome Engine 6. Nós testamos o desempenho neste jogo com as opções de qualidade no mínimo e resolução de 1280 x 720, medindo três vezes a taxa de quadros utilizando o programa <a href="http://www.fraps.com/" rel="external nofollow" target="_blank">FRAPS</a>.
</p>

<p style="text-align: left;">
	Os resultados abaixo estão em quadros por segundo e são uma média artimética dos três resultados coletados.
</p>

<p style="text-align: center;">
	<img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-08.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	Neste jogo, o resultado com Dual Graphics foi 35% superior ao obtido com a Radeon R7 240 e 28% superior ao apresentado pelo vídeo integrado.
</p>

<p>
	[pagination="Grand Theft Auto V"]
</p>

<p>
	O Grand Theft Auto V, ou simplesmente GTA V, é um jogo de ação em mundo aberto lançado para PC em abril de 2015, utilizando o motor RAGE. Para medir o desempenho usando este jogo, nós rodamos o teste de desempenho do jogo três vezes, medindo o número de quadros por segundo usando o <a href="http://www.fraps.com/" rel="external nofollow" target="_blank">FRAPS</a> sempre no mesmo ponto (parte em que a câmera acompanha o voo do avião). Nós rodamos o jogo em 1280 x 720, com todas as opções de qualidade de imagem no mínimo.
</p>

<p align="center" style="text-align: left;">
	Os resultados abaixo estão expressos em quadros por segundo e são a média aritmética dos três resultados coletados.
</p>

<p style="text-align: center;">
	<img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-09.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	No GTA V, o desempenho com Dual Graphics foi 7% inferior ao obtido com a Radeon R7 240 e equivalente ao apresentado com o vídeo integrado.
</p>

<p>
	[pagination="Life is Strange"]
</p>

<p>
	O Life is Strange é um jogo de aventura dramática baseado em escolhas, lançado em janeiro de 2015, e que utiliza o motor Unreal Engine 3. Nós testamos o desempenho neste jogo jogando a primeira cena da estória com as opções de qualidade em “baixa” e resolução de 1920 x 1080, medindo três vezes a taxa de quadros utilizando o programa <a href="http://www.fraps.com/" rel="external nofollow" target="_blank">FRAPS</a>.
</p>

<p>
	Os resultados abaixo estão em quadros por segundo e são uma média artimética dos três resultados coletados.
</p>

<p style="text-align: center;">
	<img alt="AMD Dual Graphics" border="0" style="height: auto;" title="AMD Dual Graphics" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/amd_dual_graphics-10.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: left;">
	No Life is Strange, o Dual Graphics foi 15% mais rápido que a Radeon R7 240, mas 5% mais lento do que o vídeo integrado sozinho.
</p>

<p>
	[pagination="Conclusões"]
</p>

<p>
	Nossos testes mostraram claramente que a tecnologia Dual Graphics da AMD realmente aumenta o desempenho em jogos. Na maioria dos jogos testados (e em todos os testes do 3DMark) o desempenho com a tecnologia habilitada foi superior ao obtido apenas com o vídeo integrado ou apenas com a placa de vídeo avulsa.
</p>

<p>
	Em dois jogos que utilizamos, porém, não houve diferença de desempenho. O nosso palpite é que, nesses testes, o desempenho estava sendo limitado pelo processador utilizado, que afinal de contas não é um processador de alto desempenho.
</p>

<p>
	Outro detalhe que ficou claro é que o vídeo integrado do processador A8-7670K é mais poderoso do que a placa de vídeo Radeon R7 240 “avulsa” que utilizamos. Isso faz sentido, pois as características técnicas deste motor gráfico integrado são ligeiramente superiores às da placa de vídeo utilizada.
</p>

<p>
	Assim, para quem tem um processador A8 ou A10, não faz sentido comprar uma placa de vídeo de entrada (tipicamente, placas abaixo de R$ 500), e desabilitar o vídeo integrado: você estará jogando dinheiro fora e estará inclusive diminuindo o desempenho do computador. Porém, você conseguirá um aumento no desempenho na maioria dos jogos caso compre uma placa de vídeo que possa ser utilizada em conjunto com o vídeo integrado do processador utilizando a tecnologia Dual Graphics.
</p>
]]></description><guid isPermaLink="false">36533</guid><pubDate>Mon, 19 Oct 2015 10:00:00 +0000</pubDate></item><item><title>Tudo sobre as tecnologias G-Sync e FreeSync</title><link>https://www.clubedohardware.com.br/artigos/video/tudo-sobre-as-tecnologias-g-sync-e-freesync-r36514/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_goz041goz041goz0.jpg.1eedf0feb94c55a74c9585407883e538.jpg" /></p>
<p>
	Sem qualquer tipo de mecanismo de sincronia entre a placa de vídeo e o monitor de vídeo, “erros” podem aparecer na imagem durante uma partida de jogo com muita ação, tipicamente com a parte de cima do monitor mostrando o pedaço de um quadro (imagem) enquanto a parte de baixo do monitor ainda está mostrando o pedaço de um quadro (imagem) anterior. Este tipo de “defeito” é conhecido, em inglês, como “tearing” (“rasgamento”). Neste tutorial explicaremos porque este tipo de erro ocorre e quais são as soluções disponíveis.
</p>

<p>
	A ocorrência mais comum desse tipo de erro é quando a placa de vídeo consegue gerar mais quadros por segundo que o monitor de vídeo é capaz de mostrar. Por exemplo, se você tem um monitor de vídeo com taxa de atualização de 60 Hz e um jogo está gerando, digamos, 80 quadros por segundo, a placa de vídeo enviará o próximo quadro antes de o monitor de vídeo ter terminado de mostrar o quadro anterior, ocasionando o problema.
</p>

<p>
	A solução mais comum para esse problema é ativar, no jogo, a sincronia vertical ou “V-Sync”. Este recurso limita o desempenho da placa de vídeo, fazendo com que ela so gera a mesma quantidade de quadros por segundo que o monitor de vídeo suporta.
</p>

<p>
	A desvantagem dessa solução é gerar um atraso na imagem em relação à ação do jogo (“lag”, em inglês), pois quadros são descartados e a placa de vídeo envia ao monitor um quadro que está “defasado” (“mais antigo”) em relação ao ponto exato do jogo no momento.
</p>

<p>
	Outra solução é comprar um monitor com uma taxa de atualização maior que 60 Hz (120 Hz ou 144 Hz).
</p>

<p>
	Mas, mesmo em monitores com taxas de atualização mais altas, o problema continua existindo se você tiver uma placa de vídeo topo de linha, porém menos perceptível. Isso ocorre por dois motivos. Primeiro, a quantidade de quadros por segundo que a placa de vídeo gera não é fixa e sim variável. Quando dizemos, por exemplo, que a placa está gerando 80 quadros por segundo, esse valor é uma média. Dentro do jogo, pode ter determinados momentos que a taxa sobre rapidamente por poucos segundos, e também pode ter determinados momentos que a taxa cai. Nesses momentos curtos em que a taxa sobe rapidamente por poucos segundos ou mesmo frações de segundo, você continuará vendo o problema, caso a taxa ultrapasse a do monitor de vídeo.
</p>

<p>
	O segundo motivo é que o monitor de vídeo pode não estar sincronizado com a placa de vídeo em relação ao momento exato de início do desenho do quadro. Isto é, quando o monitor está começando a desenhar o quadro no ponto (0,0) da tela, a placa de vídeo pode não estar enviando o quadro no mesmo ponto, gerando uma falta de sincronia (atraso) entre o que está acontecendo no jogo e o que está sendo desenhado na tela, além do problema de “tearing” descrito.
</p>

<p>
	As tecnologias G-Sync (NVIDIA) e FreeSync (AMD) resolvem esses problemas sincronizando o envio de quadros entre a placa de vídeo e o monitor de vídeo, isto é, quando o monitor estiver no ponto (0,0) da tela, a placa de vídeo está enviando o quadro no mesmo ponto. Isso elimina atrasos (“lag”) e imagens quebradas (“tearing”).
</p>

<p>
	Essas tecnologias, são portanto, para melhorar a qualidade de imagem e, como eliminam o atraso entre o ponto do jogo e o que está sendo apresentado na tela, o usuário tem a sensação de que o computador está “mais rápido”.
</p>

<p>
	Para usá-las, você terá de ter uma placa de vídeo e um monitor de vídeo compatíveis, isto é, o monitor precisa ser G-Sync ou FreeSync. No lado da NVIDIA, todas as placas de vídeo a partir da GeForce GTX 650 Ti Boost suportam o G-Sync, enquanto que no lado da AMD as placas a partir da Radeon R7 260 e processadores com vídeo integrado (“APUs”) a partir do “Kaveri” suportam o FreeSync.
</p>

<p>
	Um detalhe importante é que a conexão precisa obrigatoriamente ser DisplayPort e, portanto, uma placa de vídeo teoricamente compatível, mas que não tenha conector DisplayPort, na prática não é compatível com essas tecnologias.
</p>

<p>
	A tecnologia da NVIDIA é proprietária, e os fabricantes de monitores precisam instalar um módulo proprietário dentro do monitor para suportá-la e pagar <em>royalties</em> à NVIDIA. Já a AMD trabalhou em conjunto com a VESA (associação que desenvolve o DisplayPort) para que ela incluísse a especificação de sincronia adaptativa ao DisplayPort (adotado a partir da versão 1.2a desta conexão), fazendo com que monitores de vídeo não necessitem de hardware proprietário nem o pagamento de <em>royalties</em> à AMD. Em teoria, isso faz com que potencialmente existam mais monitores no mercado compatíveis com a tecnologia FreeSync do que com a G-Sync, pois basta o monitor ser compatível com o DisplayPort 1.2a para ele ser compatível com o FreeSync. Na prática, porém, sabemos que a NVIDIA tem um marketing muito mais agressivo do que a AMD, e só o tempo dirá qual das duas tecnologias terá maior adoção entre os fabricantes de monitores. Aliás, como a tecnologia de sincronia adaptativa que o FreeSync usa é atualmente parte da especificação DisplayPort, nada impede de fabricantes lançarem monitores compatíveis com as duas tecnologias.
</p>

<p>
	De acordo com a AMD, o G-Sync diminui muito levemente o desempenho, enquanto que não há qualquer perda de desempenho no uso do FreeSync.
</p>
]]></description><guid isPermaLink="false">36514</guid><pubDate>Tue, 01 Sep 2015 11:30:00 +0000</pubDate></item><item><title>Tudo sobre o padr&#xE3;o Ultra HD</title><link>https://www.clubedohardware.com.br/artigos/video/tudo-sobre-o-padr%C3%A3o-ultra-hd-r36322/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_v1r7ptv1r7ptv1r7.jpg.99a2412018e6a1470f22d270115e3531.jpg" /></p>
<p>
	O próximo passo para as resoluções de TV chama-se Ultra HD, abreviada como UHD ou UHDTV. Este padrão fará com que você tenha, em casa, resolução igual ou superior às salas de cinema digitais.
</p>

<p>
	Duas resoluções estarão disponíveis, chamadas “4K” (3840x2160) e “8K” (7680x4320). Interessante notar que o padrão “4K” também é usado em cinemas digitais, porém no cinema a resolução é um pouco maior, 4096x2160. O padrão “4K” oferece uma resolução quatro vezes maior que o “Full HD” (1080p), enquanto que o padrão “8K” quadruplica a resolução “4K” sendo, portanto, dezesseis vezes superior ao “Full HD”. Na tabela abaixo comparamos os padrões SD, HD, FHD e UHD.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<p>
					<strong>Padrão</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Resolução (abreviatura)</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Resolução (pixels)</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Resolução (megapixel)</strong>
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					SD (Standard Definition)
				</p>
			</td>
			<td>
				<p>
					480i
				</p>
			</td>
			<td>
				<p>
					640x480
				</p>
			</td>
			<td>
				<p>
					0,3
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					HD (High Definition)
				</p>
			</td>
			<td>
				<p>
					720p ou 720i
				</p>
			</td>
			<td>
				<p>
					1280x720
				</p>
			</td>
			<td>
				<p>
					0,9
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					Full HD (FHD)
				</p>
			</td>
			<td>
				<p>
					1080p ou 1080i
				</p>
			</td>
			<td>
				<p>
					1920x1080
				</p>
			</td>
			<td>
				<p>
					2,1
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					Ultra HD (UHD) 4K
				</p>
			</td>
			<td>
				<p>
					2160p
				</p>
			</td>
			<td>
				<p>
					3840x2160
				</p>
			</td>
			<td>
				<p>
					8,3
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					Ultra HD (UHD) 8K
				</p>
			</td>
			<td>
				<p>
					4320p
				</p>
			</td>
			<td>
				<p>
					7680x4320
				</p>
			</td>
			<td>
				<p>
					33,2
				</p>
			</td>
		</tr>
	</tbody>
</table>

<p>
	Veja a Figura 1 para uma comparação visual entre as diferentes resoluções para TV existentes.
</p>

<p style="text-align: center;">
	<img alt="Comparação entre resoluções" border="0" style="height: auto;" title="Comparação entre resoluções" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/udh_01jpg.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Comparação entre resoluções
</p>

<p>
	Uma das vantagens do UHD é a possibilidade de usar tecnologia 3D passiva sem os problemas atuais. Essa tecnologia é igual à tecnologia 3D usada em cinemas, onde os óculos não têm alimentação elétrica e são formados por duas lentes polarizadoras. Nela, a tela tem de ser dividida em dois campos, um para cada olho, cortando pela metade a resolução disponível, fazendo com que a qualidade da imagem caia. Como o padrão UHD tem uma resolução pelo menos quatro vezes maior que o padrão FHD, com óculos passivos você terá pelo menos o dobro da resolução FHD para cada olho e deve, pelo menos teoricamente, ter a mesma qualidade de imagem obtida em filmes 3D no cinema.
</p>

<p>
	Os principais fabricantes já oferecem aparelhos de TV “4K”, inclusive no Brasil, mas por preços ainda bastante elevados, mas que devem cair na medida em que conteúdo UHD esteja disponível e mais aparelhos sejam vendidos, a exemplo da queda de preço que vimos desde o lançamento das TVs “Full HD” até hoje.
</p>

<p>
	O maior desafio hoje é justamente o conteúdo. Tudo indica que teremos primeiramente conteúdo digital disponível via Internet. O YouTube já oferece suporte para a resolução 4K e, pelo menos nos EUA, estima-se que o Netflix adotará esse padrão. Já há filmadoras para o usuário final que suportam o padrão 4K e smartphones topo de linha já filmam nesse padrão. TVs por assinatura também oferecerão conteúdo UHD, mas não se sabe quando. Conteúdo UHD estará disponível em discos Blu-ray 4K. O desafio aqui é que um filme típico na resolução 4K ocupa 100 GB e os discos Blu-Ray atuais suportam até 25 GB; estima-se que os discos Blu-Ray 4K serão discos de quatro camadas com 25 GB cada.
</p>

<p>
	Em termos de conexão, o HDMI 1.4 suporta resoluções até 4K, porém até 30 quadros por segundo; o padrão HDMI 2.0 suporta 4K a 60 quadros por segundo. Outra novidade do HDMI 2.0 é o suporte a 32 canais de áudio, visto que já foi anunciado, no Japão, que transmissões 4K por lá usarão áudio no formato 32.2. O conector do HDMI 2.0 é o mesmo, mantendo compatibilidade com os cabos e os conectores atuais.
</p>

<p>
	Para mais detalhes sobre os padrões HDMI, leia o nosso tutorial “<a href="https://www.clubedohardware.com.br/artigos/video/tudo-o-que-voc%C3%AA-precisa-saber-sobre-conectores-de-v%C3%ADdeo-r34256/" rel="" target="_blank">Conectores de vídeo</a>”.
</p>
]]></description><guid isPermaLink="false">36322</guid><pubDate>Tue, 13 May 2014 09:58:00 +0000</pubDate></item><item><title>Vale a pena comprar um monitor 4K?</title><link>https://www.clubedohardware.com.br/artigos/video/vale-a-pena-comprar-um-monitor-4k-r36502/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_g2h8bvg2h8bvg2h8.jpg.b8d7dc04257fce0b40e66a9fcdae4c9a.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	Uma característica importante nos monitores de vídeo é a resolução, que é a quantidade de pontos (pixels) presentes na tela. A resolução dos monitores vem aumentando desde o surgimento dos primeiros computadores, e o padrão que começa a se tornar acessível é conhecido como “4K UHD” ou simplesmente “4K”. Mas será que já é hora de investir em um monitor que suporte esta resolução? É o que discutiremos neste artigo.
</p>

<p>
	Primeiramente, é interessante deixarmos claro que existem várias características relacionadas a monitores de vídeo, como tempo de resposta e taxa de contraste, só para citar algumas das mais importantes. Você pode aprender mais sobre elas em nosso tutorial “<a href="https://www.clubedohardware.com.br/artigos/video/tudo-o-que-voc%C3%AA-precisa-saber-sobre-monitores-lcd-r34409/" target="_blank" rel="">Tudo o que você precisa saber sobre monitores LCD</a>”. Neste artigo focaremos nas vantagens e desvantagems de utilizar a resolução 4K.
</p>

<p>
	Normalmente, uma resolução de vídeo é mostrada com dois números separados por “x”, onde o primeiro é o número de pontos (pixels) presentes na horizontal, e o segundo o número de pontos (pixels) presentes na vertical; este é o padrão mais utilizado, que usaremos neste texto. Cada resolução tem uma sigla pela qual é conhecida, e apresentaremos esta sigla entre parênteses.
</p>

<p>
	No início da era dos computadores pessoais, quando os monitores ainda eram de tubo (CRT), existiam várias resoluções, como MDA, CGA, EGA e VGA. Esta última, de 640 x 480, era a que apresentava a mesma resolução de aparelhos de TV de tubo (resolução hoje conhecida como SD ou Standard Definition) e foi por anos considerada a resolução “padrão” para computadores de mesa. Posteriormente, monitores capazes de trabalhar a 800 x 600 (SVGA) e 1024 x 768 (XGA) foram, a seu tempo, os mais utilizados. Tanto que ainda hoje muitos aplicativos e sites são otimizados para visualização nestas resoluções.
</p>

<p>
	Já na época dos monitores de cristal líquido ou LCD, embora os primeiros (e mais baratos) utilizassem a então popular resolução de 1024 x 768, logo surgiram monitores com resoluções de 1280 x 1024 (SXGA).
</p>

<p>
	A próxima evolução foi a adoção do padrão “widescreen” (literalmente, tela larga), com resoluções de 1280 x 720 (WXGA), 1366 x 768 (HD), até hoje a mais popular em telas de notebooks, 1440 x 900 (WXGA+) e 1600 x 900 (HD+), comum atualmente em monitores de baixo custo de 17 e 19 polegadas.
</p>

<p>
	Porém, para computadores de mesa (e notebooks voltados para jogos), o padrão mais utilizado tem sido 1920 x 1080, chamado de Full HD, FHD ou 1080p. Se você comprar hoje um monitor de 20 ou 24 polegadas, provavelmente esta será sua resolução, que também se tornou o padrão mais utilizado em TVs LCD.
</p>

<p>
	Monitores que utilizam resoluções mais altas, como 2560 x 1440 (WQHD) e 2560 x 1600 (WQXGA), existem há anos, mas são voltados principalmente para estações de trabalho de design gráfico e também utilizados por aficionados por jogos com um orçamento espaçoso, já que até hoje são monitores caros e difíceis de serem encontrados à venda no Brasil.
</p>

<p>
	O cenário mudou nos últimos meses, com o surgimento e popularização do padrão 4K UHD (Ultra HD), que tem 3840 x 2160 pixels.
</p>

<p>
	[pagination="Utilizando o padrão 4K em um computador de mesa"]
</p>

<p>
	Como mencionamos na página anterior, o padrão 4K Ultra HD (UHD) é de 3840 x 2160. Se você reparar, a resolução horizontal e a vertical são exatamente o dobro da Full HD, o que significa que o número total de pixels do padrão 4K é quatro vezes maior do que o Full HD. Este padrão surgiu no comércio primeiro em aparelhos de TV de tela grande.
</p>

<p>
	Atualmente os modelos de monitores de vídeo com resolução 4K mais fáceis de encontrar no comércio têm tela de 28 polegadas e custam em torno de R$ 2.200. Então a pergunta que vamos tentar responder é: vale a pena investir tanto dinheiro em um monitor? A resposta é: depende do uso que você vai dar a ele.
</p>

<p>
	Há muita confusão a respeito do hardware necessário para poder utilizar a resolução 4K. Muitas pessoas costumam dizer que, para utilizar um monitor 4K, você precisa ter um hardware topo de linha, com uma placa de vídeo super poderosa ou mesmo mais de uma placa de vídeo topo de linha. Porém, a grande maioria das placas de vídeo atuais suporta a resolução 4K, mesmo o vídeo integrado presente em equipamentos de baixo custo.
</p>

<p>
	A confusão acontece por conta do uso. Placas de vídeo básicas ou integradas ao processador permitem que você configure sua área de trabalho para trabalhar na resolução 4K e utilizar programas de edição de texto ou imagem, navegação na internet etc. sem problemas, e funciona muito bem. Porém, para jogos, a situação muda completamente de figura, como nós mostramos em nosso <a href="https://www.clubedohardware.com.br/analises/video/teste-da-placa-de-v%C3%ADdeo-geforce-gtx-titan-x-r36473/" target="_blank" rel="">teste da placa de vídeo GeForce GTX TITAN X</a>.
</p>

<p>
	Como uma imagem em resolução 4K tem quatro vezes mais pixels do que uma em Full HD, a placa de vídeo pode levar até quatro vezes mais tempo processando cada quadro (pelo menos em teoria), o que representa uma taxa de quadros (fps) até quatro vezes mais baixa do que na resolução Full HD. Claro que, na prática, outros fatores interferem nessa relação, mas em jogos você sempre obterá uma taxa de quadros mais baixa em resolução 4K do que em Full HD com a mesma placa de vídeo. Com isso, uma placa de vídeo mais “poderosa” é realmente necessária.
</p>

<p>
	O benefício, obviamente, é enorme: tudo fica mais nítido, o que, além de deixar o visual do jogo mais bonito, também representa uma vantagem em jogos de tiro, pois você pode ver detalhes mais longe do que seus adversários.
</p>

<p>
	Por outro lado, para trabalhar com edição de textos, fotos ou documentos, não é necessário um hardware poderosíssimo. Basta comprar um monitor 4K, conectá-lo à saída de vídeo de seu computador, e configurar a resolução para 3840 x 2160.
</p>

<p>
	Nesta resolução, tenha em mente que você pode abrir em sua tela quatro janelas simultâneas, cada uma com resolução equivalente a um monitor Full HD. Um modo de trabalho que fica excelente para quem edita textos é trabalhar com duas janelas, lado a lado, cada uma em modo retrato (ou seja, mais altas do que largas).
</p>

<p>
	Se você estiver saindo, por exemplo, de um monitor de 23 polegadas Full HD para um de 28 polegadas 4K, a resolução aumenta muito mais do que o tamanho da tela. Com isso, ícones e menus ficam muito pequenos. Se você não tiver uma visão perfeita, torna-se muito difícil trabalhar.
</p>

<p>
	Na próxima página explicamos como resolver este problema.
</p>

<p>
	[pagination="Aumentando o tamanho dos ícones"]
</p>

<p>
	No Windows 7, há uma forma simples de aumentar o tamanho dos ícones, barra inferior, menus etc. Primeiro, clique com o botão direito em uma parte livre da área de trabalho e selecione “Resolução de Tela”.
</p>

<p>
	Você verá uma janela semelhante à mostrada na Figura 1. Ali, basta clicar em “Ampliar ou reduzir textos e outros itens”.
</p>

<p style="text-align: center;">
	<img alt="Como ampliar ícones no Windows" border="0" style="height: auto;" title="Como ampliar ícones no Windows" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/resolucao4k-01.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> janela de seleção de resolução de tela
</p>

<p style="text-align: left;">
	Em seguida, será aberta uma janela onde você pode escolher entre o modo normal (100%), médio (125%) ou maior (150%), que vai do gosto pessoal; o ideal é que você experimente as duas opções maiores para qual delas você prefere.
</p>

<p style="text-align: center;">
	<img alt="Como ampliar ícones no Windows" border="0" style="height: auto;" title="Como ampliar ícones no Windows" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/resolucao4k-02.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> janela de seleção de ampliação
</p>

<p style="text-align: left;">
	A leitura de sites no seu navegador também pode ficar difícil por conta das letras muito pequenas; porém, você pode facilmente ampliar o conteúdo exibido em seu navegador pressionando Ctrl e “+” ou “-”, até achar o tamanho ideal para leitura.
</p>

<p style="text-align: left;">
	Obviamente, alguns itens ainda ficarão pequenos em seus aplicativos, e em alguns casos a única solução é mesmo se acostumar. Porém, o ganho de produtividade para quem trabalha com edição de conteúdo ou necessita de mais de uma janela aberta ao mesmo tempo é enorme.
</p>

<p>
	[pagination="Conclusões"]
</p>

<p>
	Enfim, vale a pena comprar um monitor com resolução 4K?
</p>

<p>
	Para jogar, vai depender do seu hardware. Se você possui uma boa placa de vídeo topo de linha ou um conjunto de placas de vídeo em SLI ou CrossFire, e não se importa de perder alguns FPS em seus jogos favoritos, vale a pena. Se você tem um computador topo de linha para jogos, o valor de um monitor desses não é tão alto assim, em relação ao que você já investiu em seu computador. Mas se você precisa reduzir as opções de qualidade de vídeo para conseguir jogar com uma taxa de quadros decente mesmo em Full HD, esqueça: tentar jogar em resolução 4K só vai causar frustração. Invista primeiro em uma placa de vídeo mais potente, e só depois pense em comprar um monitor 4K.
</p>

<p>
	Já para quem trabalha com edição de textos ou imagens, ou necessita ficar com mais de uma janela aberta ao mesmo tempo, o ganho de produtividade com um monitor 4K é enorme, pois um monitor 4K consegue mostrar tanta informação quanto quatro monitores Full HD. Considerando que um monitor 4K de 28 polegadas custa em torno do preço de três ou quatro monitores Full HD de 23 polegadas, porém ocupa bem menos espaço em sua mesa, a vantagem é óbvia. Em certos casos, é mais barato utilizar dois ou três monitores simultaneamente, mas quando o aumento de produtividade puder representar um aumento da rentabilidade de seu trabalho, vale a pena o investimento.
</p>

<p>
	Como nota final, vale um esclarecimento em relação às conexões de vídeo utilizadas. Tipicamente, monitores 4K têm tanto entradas de vídeo HDMI quando DisplayPort, enquanto TVs 4K têm apenas entradas HDMI. O padrão HDMI até 1.4 suporta a resolução de 3840 x 2160 a no máximo 30 Hz (30 quadros por segundo). Apenas a partir do padrão HDMI 2.0 há suporte à resolução 4K com taxa de atualização de 60 Hz. A entrada DisplayPort, por outro lado, suporta a resolução 4K com 60 Hz em todas as suas versões. Desta forma, é necessário verificar quais as portas de saída de sua placa de vídeo e do monitor (ou TV) 4K que você pretende comprar; se você não puder usar uma conexão HDMI 2.0 ou DisplayPort, você terá uma taxa de atualização de no máximo 30 Hz, o que pode ser ruim, principalmente para jogos.
</p>
]]></description><guid isPermaLink="false">36502</guid><pubDate>Wed, 05 Aug 2015 11:00:00 +0000</pubDate></item><item><title>Tabela comparativa de pre&#xE7;os AMD vs. NVIDIA: junho/2015</title><link>https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-de-pre%C3%A7os-amd-vs-nvidia-junho2015-r36480/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_wcdemrwcdemrwcde.jpg.17686b3cfc5406a70b4831c3666d669e.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	O objetivo dessa tabela é apresentar o posicionamento dos produtos da AMD e da NVIDIA, de forma a mostrar quais produtos são concorrentes e responder de forma rápida à uma das perguntas mais comuns de nossos leitores: “qual placa de vídeo usando chip gráfico da empresa A equivale à placa baseada no chip <i>x</i> da empresa B”?
</p>

<p>
	O segundo objetivo é detectar tendências no mercado de placas de vídeo para computadores de mesa, tais como a entrada de novos modelos, a saída de determinados modelos, e mudanças significativas de preços. Esta análise está presente na próxima página.
</p>

<p>
	Os preços foram pesquisados na Newegg.com no dia da publicação deste artigo. Decidimos por usar preços no mercado norte-americano por serem mais estáveis e para facilitar comparações em datas futuras.
</p>

<p>
	É importante notar que os preços publicados são os preços mínimos que encontramos, e não incluímos produtos remanufaturados (“refurbished”) ou abertos (“open box”). Como existem várias marcas vendendo placas de vídeo baseadas no mesmo chip, o preço no mercado na realidade encontra-se em uma faixa, normalmente de US$ 10 a US$ 20 acima do preço mínimo publicado, e você deverá levar isso em consideração ao utilizar nossa tabela. Como o preço publicado é o mínimo, significa estamos falando do modelo de referência da placa de vídeo. Modelos com recursos adicionais tais como overclock de fábrica e sistemas de refrigeração mais incrementados custarão mais do que o publicado. O preço publicado não considera “rebates” (tipo de desconto comum nos EUA, onde você paga o preço cheio, preenche um formulário, e após alguns meses, recebe um cheque ou cartão de débito com o valor do “desconto”).
</p>

<p>
	A tabela leva em consideração apenas preço, não havendo como indicar qual placa de vídeo é “melhor” ou “mais rápida”.
</p>

<p>
	A grande novidade deste mês foi a chegada ao mercado da <span ipsnoautolink="true">GeForce GTX 980 Ti</span>, uma placa com especificações muito próximas da GTX TITAN X, porém a um preço menor.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>AMD</strong>
			</td>
			<td>
				<strong>Preço Mínimo</strong>
			</td>
			<td>
				<strong>NVIDIA</strong>
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 1.049,99
			</td>
			<td>
				GeForce GTX TITAN X
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 649,99
			</td>
			<td>
				GeForce GTX 980 Ti
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 295X2
			</td>
			<td>
				US$ 619,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 479,99
			</td>
			<td>
				GeForce GTX 980
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 389,99
			</td>
			<td>
				GeForce GTX 780 Ti
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 324,99
			</td>
			<td>
				GeForce GTX 970
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290X
			</td>
			<td>
				US$ 299,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290
			</td>
			<td>
				US$ 249,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 280X
			</td>
			<td>
				US$ 209,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 285
			</td>
			<td>
				US$ 199,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 189,99
			</td>
			<td>
				GeForce GTX 960
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 280
			</td>
			<td>
				US$ 169,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 270X
			</td>
			<td>
				US$ 149,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 270
			</td>
			<td>
				US$ 144,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 265
			</td>
			<td>
				US$ 139,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 127,99
			</td>
			<td>
				GeForce GTX 750 Ti
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 260X
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 99,99
			</td>
			<td>
				GeForce GTX 650
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250E<br>
				Radeon R7 250X (GDDR5)
			</td>
			<td>
				US$ 94,99
			</td>
			<td>
				GeForce GT 630 (128 bits)<br>
				GeForce GTX 750
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 7750
			</td>
			<td>
				US$ 89,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 82,99
			</td>
			<td>
				GeForce GT 740
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250 (DDR3)
			</td>
			<td>
				US$ 79,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 240 (GDDR5)
			</td>
			<td>
				US$ 78,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250 (GDDR5)<br>
				Radeon R7 240 (DDR3)
			</td>
			<td>
				US$ 69,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 64,99
			</td>
			<td>
				GeForce GT 630 (64 bits)<br>
				GeForce GT 730 (GDDR5, 64 bits)
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 63,99
			</td>
			<td>
				GeForce GT 730 (DDR3, 128 bits)
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 59,99
			</td>
			<td>
				GeForce GT 730 (GDDR5, 128 bits)
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 54,99
			</td>
			<td>
				GeForce GT 730 (DDR3, 64 bits)
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6350
			</td>
			<td>
				US$ 52,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 46,99
			</td>
			<td>
				GeForce GT 720 (DDR3)
			</td>
		</tr>
		<tr>
			<td>
				Radeon R5 230
			</td>
			<td>
				US$ 44,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 42,99
			</td>
			<td>
				GeForce 6200
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6450
			</td>
			<td>
				US$ 39,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 38,99
			</td>
			<td>
				GeForce GT 610
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 31,99
			</td>
			<td>
				GeForce 8400 GS (64 bits)<br>
				GeForce 8400 GS (32 bits)
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 5450
			</td>
			<td>
				US$ 28,99
			</td>
			<td>
				GeForce 210
			</td>
		</tr>
	</tbody>
</table>

<p>
	Confira agora a análise detalhada das mudanças no mercado de placas de vídeo ocorridas no último mês.
</p>

<p>
	[pagination="Análise detalhada"]
</p>

<p>
	Vamos agora a uma descrição mais detalhada do que ocorreu no mercado de placas de vídeo nos EUA <a href="https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-de-precos-amd-vs-nvidia-maio-2015-r36457/" rel="" target="_blank">desde a nossa última análise</a>.
</p>

<p>
	<strong>Mudanças de preços</strong>
</p>

<p>
	Na tabela abaixo indicamos as placas de vídeo que tiveram seus preços alterados em relação <a href="https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-de-precos-amd-vs-nvidia-maio-2015-r36457/" rel="" target="_blank">à nossa última análise</a>. Não incluímos nesta tabela placas de vídeo que não tiveram alteração em seu preço ou então que entraram no mercado este mês. Importante lembrar que estamos avaliando apenas variações no preço mínimo.
</p>

<p>
	Normalmente placas de vídeo mais antigas têm variações expressivas de preços (por haver menos concorrência), enquanto que variações de preços em placas de vídeo mais recentes normalmente são menores (por haver mais concorrência).
</p>

<p>
	Marcamos as quedas de preço em verde pois elas são benéficas para o consumidor, enquanto que marcamos as elevações de preço em vermelho já que elas prejudicam o consumidor.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>Placa de vídeo</strong>
			</td>
			<td>
				<strong>Preço mínimo em 05/2015</strong>
			</td>
			<td>
				<strong>Preço mínimo em 06/2015</strong>
			</td>
			<td>
				<strong>Variação</strong>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250 (GDDR5)
			</td>
			<td>
				US$ 84,99
			</td>
			<td>
				US$ 69,99
			</td>
			<td>
				<span style="color: #008000;">-21,43%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 750
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				US$ 94,99
			</td>
			<td>
				<span style="color: #008000;">-15,79%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 980
			</td>
			<td>
				US$ 529,99
			</td>
			<td>
				US$ 479,99
			</td>
			<td>
				<span style="color: #008000;">-10,42%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 730 (GDDR5, 128 bits)
			</td>
			<td>
				US$ 64,99
			</td>
			<td>
				US$ 59,99
			</td>
			<td>
				<span style="color: #008000;">-8,33%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 720 (DDR3)
			</td>
			<td>
				US$ 49,99
			</td>
			<td>
				US$ 46,99
			</td>
			<td>
				<span style="color: #008000;">-6,38%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 285
			</td>
			<td>
				US$ 209,99
			</td>
			<td>
				US$ 199,99
			</td>
			<td>
				<span style="color: #008000;">-5,00%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 280X
			</td>
			<td>
				US$ 219,99
			</td>
			<td>
				US$ 209,99
			</td>
			<td>
				<span style="color: #008000;">-4,76%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 270
			</td>
			<td>
				US$ 149,99
			</td>
			<td>
				US$ 144,99
			</td>
			<td>
				<span style="color: #008000;">-3,45%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 650
			</td>
			<td>
				US$ 102,99
			</td>
			<td>
				US$ 99,99
			</td>
			<td>
				<span style="color: #008000;">-3,00%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 960
			</td>
			<td>
				US$ 194,99
			</td>
			<td>
				US$ 189,99
			</td>
			<td>
				<span style="color: #008000;">-2,63%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 780 Ti
			</td>
			<td>
				US$ 399,99
			</td>
			<td>
				US$ 389,99
			</td>
			<td>
				<span style="color: #008000;">-2,56%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 240 (DDR3)
			</td>
			<td>
				US$ 68,99
			</td>
			<td>
				US$ 69,99
			</td>
			<td>
				<span style="color: #ff0000;">1,43%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 740
			</td>
			<td>
				US$ 79,99
			</td>
			<td>
				US$ 82,99
			</td>
			<td>
				<span style="color: #ff0000;">3,61%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 970
			</td>
			<td>
				US$ 306,99
			</td>
			<td>
				US$ 324,99
			</td>
			<td>
				<span style="color: #ff0000;">5,54%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 750 Ti
			</td>
			<td>
				US$ 119,99
			</td>
			<td>
				US$ 127,99
			</td>
			<td>
				<span style="color: #ff0000;">6,25%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 730 (DDR3, 64 bits)
			</td>
			<td>
				US$ 49,99
			</td>
			<td>
				US$ 54,99
			</td>
			<td>
				<span style="color: #ff0000;">9,09%</span>
			</td>
		</tr>
	</tbody>
</table>

<p>
	<strong>Novas placas de vídeo</strong>
</p>

<p>
	Como mencionado, anteriormente, este mês vimos a inclusão da nova GeForce GTX 980 Ti. 
</p>

<p>
	<strong>Placas de vídeo removidas da nossa tabela</strong>
</p>

<p>
	A placa de vídeo abaixo tinha um número baixo de exemplares sendo vendidos na Newegg.com, com preços muito acima do “justo”, e, por este motivo, foi removida da nossa tabela comparativa, por ser um modelo muito antigo.
</p>

<ul>
	<li>
		Radeon HD 6570
	</li>
</ul>
]]></description><guid isPermaLink="false">36480</guid><pubDate>Tue, 09 Jun 2015 11:27:00 +0000</pubDate></item><item><title>Tabela comparativa de pre&#xE7;os AMD vs. NVIDIA: maio/2015</title><link>https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-de-pre%C3%A7os-amd-vs-nvidia-maio2015-r36457/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_wcdemrwcdemrwcde.jpg.86e1c146c6534e66de672ce04c3cbd50.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	O objetivo dessa tabela é apresentar o posicionamento dos produtos da AMD e da NVIDIA, de forma a mostrar quais produtos são concorrentes e responder de forma rápida à uma das perguntas mais comuns de nossos leitores: “qual placa de vídeo usando chip gráfico da empresa A equivale à placa baseada no chip <i>x</i> da empresa B”?
</p>

<p>
	O segundo objetivo é detectar tendências no mercado de placas de vídeo para computadores de mesa, tais como a entrada de novos modelos, a saída de determinados modelos, e mudanças significativas de preços. Esta análise está presente na próxima página.
</p>

<p>
	Os preços foram pesquisados na Newegg.com no dia da publicação deste artigo. Decidimos por usar preços no mercado norte-americano por serem mais estáveis e para facilitar comparações em datas futuras.
</p>

<p>
	É importante notar que os preços publicados são os preços mínimos que encontramos, e não incluímos produtos remanufaturados (“refurbished”) ou abertos (“open box”). Como existem várias marcas vendendo placas de vídeo baseadas no mesmo chip, o preço no mercado na realidade encontra-se em uma faixa, normalmente de US$ 10 a US$ 20 acima do preço mínimo publicado, e você deverá levar isso em consideração ao utilizar nossa tabela. Como o preço publicado é o mínimo, significa estamos falando do modelo de referência da placa de vídeo. Modelos com recursos adicionais tais como overclock de fábrica e sistemas de refrigeração mais incrementados custarão mais do que o publicado. O preço publicado não considera “rebates” (tipo de desconto comum nos EUA, onde você paga o preço cheio, preenche um formulário, e após alguns meses, recebe um cheque ou cartão de débito com o valor do “desconto”).
</p>

<p>
	A tabela leva em consideração apenas preço, não havendo como indicar qual placa de vídeo é “melhor” ou “mais rápida”.
</p>

<p>
	A grande novidade deste mês foi a inclusão da GeForce GTX TITAN X no catálogo da Newegg.com.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>AMD</strong>
			</td>
			<td>
				<strong>Preço Mínimo</strong>
			</td>
			<td>
				<strong>NVIDIA</strong>
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 1.049,00
			</td>
			<td>
				GeForce GTX TITAN X
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 295X2
			</td>
			<td>
				US$ 619,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 529,99
			</td>
			<td>
				GeForce GTX 980
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 399,99
			</td>
			<td>
				GeForce GTX 780 Ti
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 306,99
			</td>
			<td>
				GeForce GTX 970
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290X
			</td>
			<td>
				US$ 299,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290
			</td>
			<td>
				US$ 249,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 280X
			</td>
			<td>
				US$ 219,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 285
			</td>
			<td>
				US$ 209,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 194,99
			</td>
			<td>
				GeForce GTX 960
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 280
			</td>
			<td>
				US$ 169,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 270X<br>
				Radeon R9 270
			</td>
			<td>
				US$ 149,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 265
			</td>
			<td>
				US$ 139,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 119,99
			</td>
			<td>
				GeForce GTX 750 Ti
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 260X
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				GeForce GTX 750
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 102,99
			</td>
			<td>
				GeForce GTX 650
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250E<br>
				Radeon R7 250X (GDDR5)
			</td>
			<td>
				US$ 94,99
			</td>
			<td>
				GeForce GT 630 (128 bits)
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 7750
			</td>
			<td>
				US$ 89,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250 (GDDR5)
			</td>
			<td>
				US$ 84,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250 (DDR3)
			</td>
			<td>
				US$ 79,99
			</td>
			<td>
				GeForce GT 740
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 240 (GDDR5)
			</td>
			<td>
				US$ 78,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 240 (DDR3)
			</td>
			<td>
				US$ 68,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 64,99
			</td>
			<td>
				GeForce GT 630 (64 bits)<br>
				GeForce GT 730 (GDDR5, 64 bits)<br>
				GeForce GT 730 (GDDR5, 128 bits)
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 63,99
			</td>
			<td>
				GeForce GT 730 (DDR3, 128 bits)
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6570
			</td>
			<td>
				US$ 59,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6350
			</td>
			<td>
				US$ 52,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 49,99
			</td>
			<td>
				GeForce GT 730 (DDR3, 64 bits)<br>
				GeForce GT 720 (DDR3)
			</td>
		</tr>
		<tr>
			<td>
				Radeon R5 230
			</td>
			<td>
				US$ 44,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 42,99
			</td>
			<td>
				GeForce 6200
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6450
			</td>
			<td>
				US$ 39,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 38,99
			</td>
			<td>
				GeForce GT 610
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 31,99
			</td>
			<td>
				GeForce 8400 GS (64 bits)<br>
				GeForce 8400 GS (32 bits)
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 28,99
			</td>
			<td>
				GeForce 210
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 5450
			</td>
			<td>
				US$ 28,99
			</td>
			<td>
				 
			</td>
		</tr>
	</tbody>
</table>

<p>
	Confira agora a análise detalhada das mudanças no mercado de placas de vídeo ocorridas no último mês.
</p>

<p>
	[pagination="Análise detalhada"]
</p>

<p>
	Vamos agora a uma descrição mais detalhada do que ocorreu no mercado de placas de vídeo nos EUA <a href="https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-de-precos-amd-vs-nvidia-abril-2015-r36475/" rel="" target="_blank">desde a nossa última análise</a>.
</p>

<p>
	<strong>Mudanças de preços</strong>
</p>

<p>
	Na tabela abaixo indicamos as placas de vídeo que tiveram seus preços alterados em relação <a href="https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-de-precos-amd-vs-nvidia-abril-2015-r36475/" rel="" target="_blank">à nossa última análise</a>. Não incluímos nesta tabela placas de vídeo que não tiveram alteração em seu preço ou então que entraram no mercado este mês. Importante lembrar que estamos avaliando apenas variações no preço mínimo.
</p>

<p>
	Normalmente placas de vídeo mais antigas têm variações expressivas de preços (por haver menos concorrência), enquanto que variações de preços em placas de vídeo mais recentes normalmente são menores (por haver mais concorrência).
</p>

<p>
	Marcamos as quedas de preço em verde pois elas são benéficas para o consumidor, enquanto que marcamos as elevações de preço em vermelho já que elas prejudicam o consumidor.
</p>

<p>
	Vimos algumas mudanças de preços interessantes nas placas de vídeo da AMD; por exemplo, a Radeon R9 290X agora custa menos que a GeForce GTX 970. No lado da NVIDIA, a GeForce GTX 750 Ti teve uma expressiva redução de preço.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>Placa de vídeo</strong>
			</td>
			<td>
				<strong>Preço mínimo em 04/2015</strong>
			</td>
			<td>
				<strong>Preço mínimo em 05/2015</strong>
			</td>
			<td>
				<strong>Variação</strong>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R5 230
			</td>
			<td>
				US$ 68,77
			</td>
			<td>
				US$ 44,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-52,86%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 750 Ti
			</td>
			<td>
				US$ 139,99
			</td>
			<td>
				US$ 119,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-16,67%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 730 (DDR3, 64 bits)
			</td>
			<td>
				US$ 56,99
			</td>
			<td>
				US$ 49,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-14,00%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290X
			</td>
			<td>
				US$ 339,99
			</td>
			<td>
				US$ 299,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-13,33%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 280
			</td>
			<td>
				US$ 189,99
			</td>
			<td>
				US$ 169,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-11,77%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 295X2
			</td>
			<td>
				US$ 689,99
			</td>
			<td>
				US$ 619,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-11,29%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 730 (GDDR5, 128 bits)
			</td>
			<td>
				US$ 69,99
			</td>
			<td>
				US$ 64,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-7,69%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 265
			</td>
			<td>
				US$ 149,99
			</td>
			<td>
				US$ 139,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-7,14%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 650
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				US$ 102,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-6,80%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 270X
			</td>
			<td>
				US$ 159,99
			</td>
			<td>
				US$ 149,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-6,67%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 740
			</td>
			<td>
				US$ 84,99
			</td>
			<td>
				US$ 79,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-6,25%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 750
			</td>
			<td>
				US$ 114,99
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-4,55%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290
			</td>
			<td>
				US$ 259,99
			</td>
			<td>
				US$ 249,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-4,00%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250E
			</td>
			<td>
				US$ 97,99
			</td>
			<td>
				US$ 94,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-3,16%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 610
			</td>
			<td>
				US$ 39,99
			</td>
			<td>
				US$ 38,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-2,56%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 240 (DDR3)
			</td>
			<td>
				US$ 69,99
			</td>
			<td>
				US$ 68,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-1,45%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 970
			</td>
			<td>
				US$ 309,99
			</td>
			<td>
				US$ 306,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #008000;">-0,98%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 630 (128 bits)
			</td>
			<td>
				US$ 93,99
			</td>
			<td>
				US$ 94,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #ff0000;">1,05%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 730 (DDR3, 128 bits)
			</td>
			<td>
				US$ 62,99
			</td>
			<td>
				US$ 63,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #ff0000;">1,56%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 960
			</td>
			<td>
				US$ 189,99
			</td>
			<td>
				US$ 194,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #ff0000;">2,56%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 285
			</td>
			<td>
				US$ 189,99
			</td>
			<td>
				US$ 209,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #ff0000;">9,52%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 240 (GDDR5)
			</td>
			<td>
				US$ 68,99
			</td>
			<td>
				US$ 78,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #ff0000;">12,66%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 260X
			</td>
			<td>
				US$ 94,99
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				<span data-mce-mark="1" style="color: #ff0000;">13,64%</span>
			</td>
		</tr>
	</tbody>
</table>

<p>
	<strong>Novas placas de vídeo</strong>
</p>

<p>
	Como mencionamos, a GeForce GTX TITAN X foi adicionada ao catálogo da Newegg.com este mês. Além disso, a GeForce GT 630 (64 bits) voltou a ser listada.
</p>

<p>
	<strong>Placas de vídeo em falta</strong>
</p>

<p>
	As seguintes placas de vídeo estão marcadas como “em falta” no catálogo da Newegg.com, podendo indicar apenas uma falta temporária.
</p>

<ul>
	<li>
		GeForce GT 640
	</li>
	<li>
		GeForce GTX 760
	</li>
</ul>

<p>
	<strong>Placas de vídeo removidas do catálogo</strong>
</p>

<ul>
	<li>
		GeForce GTX 770
	</li>
</ul>

<p>
	<strong>Placas de vídeo removidas da nossa tabela</strong>
</p>

<p>
	As placas de vídeo abaixo tinham apenas um único exemplar sendo vendido na Newegg.com e, por este motivo, foram removidas da nossa tabela comparativa, por serem modelos muito antigos.
</p>

<ul>
	<li>
		GeForce GT 520
	</li>
	<li>
		Radeon HD 6970
	</li>
	<li>
		Radeon HD 7850
	</li>
</ul>
]]></description><guid isPermaLink="false">36457</guid><pubDate>Wed, 06 May 2015 11:37:00 +0000</pubDate></item><item><title>Tabela comparativa de pre&#xE7;os AMD vs. NVIDIA: abril/2015</title><link>https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-de-pre%C3%A7os-amd-vs-nvidia-abril2015-r36475/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_wcdemrwcdemrwcde.jpg.3ebe47d7cadc38a3c8bb63d744706b1b.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	O objetivo dessa tabela é apresentar o posicionamento dos produtos da AMD e da NVIDIA, de forma a mostrar quais produtos são concorrentes e responder de forma rápida à uma das perguntas mais comuns de nossos leitores: “qual placa de vídeo usando chip gráfico da empresa A equivale à placa baseada no chip <i>x</i> da empresa B”?
</p>

<p>
	O segundo objetivo é detectar tendências no mercado de placas de vídeo para computadores de mesa, tais como a entrada de novos modelos, a saída de determinados modelos, e mudanças significativas de preços. Esta análise está presente na próxima página.
</p>

<p>
	Os preços foram pesquisados na Newegg.com no dia da publicação deste artigo. Decidimos por usar preços no mercado norte-americano por serem mais estáveis e para facilitar comparações em datas futuras.
</p>

<p>
	É importante notar que os preços publicados são os preços mínimos que encontramos, e não incluímos produtos remanufaturados (“refurbished”) ou abertos (“open box”). Como existem várias marcas vendendo placas de vídeo baseadas no mesmo chip, o preço no mercado na realidade encontra-se em uma faixa, normalmente deUS$ 10 aUS$ 20 acima do preço mínimo publicado, e você deverá levar isso em consideração ao utilizar nossa tabela. Como o preço publicado é o mínimo, significa estamos falando do modelo de referência da placa de vídeo. Modelos com recursos adicionais tais como overclock de fábrica e sistemas de refrigeração mais incrementados custarão mais do que o publicado. O preço publicado não considera “rebates” (tipo de desconto comum nos EUA, onde você paga o preço cheio, preenche um formulário, e após alguns meses, recebe um cheque ou cartão de débito com o valor do “desconto”).
</p>

<p>
	A tabela leva em consideração apenas preço, não havendo como indicar qual placa de vídeo é “melhor” ou “mais rápida”.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>AMD</strong>
			</td>
			<td>
				<strong>Preço Mínimo</strong>
			</td>
			<td>
				<strong>NVIDIA</strong>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 295X2
			</td>
			<td>
				US$ 689,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 529,99
			</td>
			<td>
				GeForce GTX 980
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 416,77
			</td>
			<td>
				GeForce GTX 770
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 399,99
			</td>
			<td>
				GeForce GTX 780 Ti
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290X
			</td>
			<td>
				US$ 339,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 313,59
			</td>
			<td>
				GeForce GTX 760
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 309,99
			</td>
			<td>
				GeForce GTX 970
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290<br>
				Radeon HD 7850
			</td>
			<td>
				US$ 259,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 280X
			</td>
			<td>
				US$ 219,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 285<br>
				Radeon R9 280
			</td>
			<td>
				US$ 189,99
			</td>
			<td>
				GeForce GTX 960
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 270X
			</td>
			<td>
				US$ 159,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 270<br>
				Radeon R7 265
			</td>
			<td>
				US$ 149,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 139,99
			</td>
			<td>
				GeForce GTX 750 Ti
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6970
			</td>
			<td>
				US$ 119,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 114,99
			</td>
			<td>
				GeForce GTX 750
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				GeForce GTX 650
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250E
			</td>
			<td>
				US$ 97,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 260X<br>
				Radeon R7 250X (GDDR5)
			</td>
			<td>
				US$ 94,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 93,99
			</td>
			<td>
				GeForce GT 630 (128 bits)
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 7750
			</td>
			<td>
				US$ 89,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250 (GDDR5)
			</td>
			<td>
				US$ 84,99
			</td>
			<td>
				GeForce GT 740
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250 (DDR3)
			</td>
			<td>
				US$ 79,99
			</td>
			<td>
				GeForce GT 640
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 240 (DDR3)
			</td>
			<td>
				US$ 69,99
			</td>
			<td>
				GeForce GT 730 (GDDR5, 128 bits)
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 240 (GDDR5)
			</td>
			<td>
				US$ 68,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R5 230
			</td>
			<td>
				US$ 68,77
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 64,99
			</td>
			<td>
				GeForce GT 730 (GDDR5, 64 bits)
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 62,99
			</td>
			<td>
				GeForce GT 730 (DDR3, 128 bits)
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6570
			</td>
			<td>
				US$ 59,99
			</td>
			<td>
				GeForce GT 520
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 56,99
			</td>
			<td>
				GeForce GT 730 (DDR3, 64 bits)
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6350
			</td>
			<td>
				US$ 52,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 49,99
			</td>
			<td>
				GeForce GT 720 (DDR3)
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 42,99
			</td>
			<td>
				GeForce 6200
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6450
			</td>
			<td>
				US$ 39,99
			</td>
			<td>
				GeForce GT 610
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 31,99
			</td>
			<td>
				GeForce 8400 GS (64 bits)<br>
				GeForce 8400 GS (32 bits)
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 28,99
			</td>
			<td>
				GeForce 210
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 5450
			</td>
			<td>
				US$ 28,99
			</td>
			<td>
				 
			</td>
		</tr>
	</tbody>
</table>

<p>
	Confira agora a análise detalhada das mudanças no mercado de placas de vídeo ocorridas no último mês.
</p>

<p>
	[pagination="Análise detalhada"]
</p>

<p>
	Vamos agora a uma descrição mais detalhada do que ocorreu no mercado de placas de vídeo nos EUA <a href="https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-de-precos-amd-vs-nvidia-marco-2015-r36466/" rel="" target="_blank">desde a nossa última análise</a>.
</p>

<p>
	<strong>Mudanças de preços</strong>
</p>

<p>
	Na tabela abaixo indicamos as placas de vídeo que tiveram seus preços alterados <a href="https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-de-precos-amd-vs-nvidia-marco-2015-r36466/" rel="" target="_blank">em relação à nossa última análise</a>. Não incluímos nesta tabela placas de vídeo que não tiveram alteração em seu preço ou então que entraram no mercado este mês. Importante lembrar que estamos avaliando apenas variações no preço mínimo.
</p>

<p>
	Normalmente placas de vídeo mais antigas têm variações expressivas de preços (por haver menos concorrência), enquanto que variações de preços em placas de vídeo mais recentes normalmente são menores (por haver mais concorrência).
</p>

<p>
	Marcamos as quedas de preço em verde pois elas são benéficas para o consumidor, enquanto que marcamos as elevações de preço em vermelho já que elas prejudicam o consumidor.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>Placa de vídeo</strong>
			</td>
			<td>
				<strong>Preço mínimo em 03/2015</strong>
			</td>
			<td>
				<strong>Preço mínimo em 04/2015</strong>
			</td>
			<td>
				<strong>Variação</strong>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 260X
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				US$ 94,99
			</td>
			<td>
				<span style="color: #008000;">-13,64%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 240 (GDDR5)
			</td>
			<td>
				US$ 78,99
			</td>
			<td>
				US$ 68,99
			</td>
			<td>
				<span style="color: #008000;">-12,66%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 780 Ti
			</td>
			<td>
				US$ 449,99
			</td>
			<td>
				US$ 399,99
			</td>
			<td>
				<span style="color: #008000;">-11,11%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 760
			</td>
			<td>
				US$ 342,67
			</td>
			<td>
				US$ 313,59
			</td>
			<td>
				<span style="color: #008000;">-8,49%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 280X
			</td>
			<td>
				US$ 239,99
			</td>
			<td>
				US$ 219,99
			</td>
			<td>
				<span style="color: #008000;">-8,33%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 730 (GDDR5, 128 bits)
			</td>
			<td>
				US$ 74,99
			</td>
			<td>
				US$ 69,99
			</td>
			<td>
				<span style="color: #008000;">-6,67%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250 (DDR3)
			</td>
			<td>
				US$ 84,99
			</td>
			<td>
				US$ 79,99
			</td>
			<td>
				<span style="color: #008000;">-5,88%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 640
			</td>
			<td>
				US$ 84,99
			</td>
			<td>
				US$ 79,99
			</td>
			<td>
				<span style="color: #008000;">-5,88%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 270X
			</td>
			<td>
				US$ 169,99
			</td>
			<td>
				US$ 159,99
			</td>
			<td>
				<span style="color: #008000;">-5,88%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290
			</td>
			<td>
				US$ 274,99
			</td>
			<td>
				US$ 259,99
			</td>
			<td>
				<span style="color: #008000;">-5,45%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 960
			</td>
			<td>
				US$ 199,99
			</td>
			<td>
				US$ 189,99
			</td>
			<td>
				<span style="color: #008000;">-5,00%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6350
			</td>
			<td>
				US$ 54,99
			</td>
			<td>
				US$ 52,99
			</td>
			<td>
				<span style="color: #008000;">-3,64%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 980
			</td>
			<td>
				US$ 549,99
			</td>
			<td>
				US$ 529,99
			</td>
			<td>
				<span style="color: #008000;">-3,64%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 5450
			</td>
			<td>
				US$ 29,99
			</td>
			<td>
				US$ 28,99
			</td>
			<td>
				<span style="color: #008000;">-3,33%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce 210
			</td>
			<td>
				US$ 29,99
			</td>
			<td>
				US$ 28,99
			</td>
			<td>
				<span style="color: #008000;">-3,33%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 730 (DDR3, 128 bits)
			</td>
			<td>
				US$ 64,99
			</td>
			<td>
				US$ 62,99
			</td>
			<td>
				<span style="color: #008000;">-3,08%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290X
			</td>
			<td>
				US$ 329,99
			</td>
			<td>
				US$ 339,99
			</td>
			<td>
				<span style="color: #ff0000;">3,03%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 630 (128 bits)
			</td>
			<td>
				US$ 90,88
			</td>
			<td>
				US$ 93,99
			</td>
			<td>
				<span style="color: #ff0000;">3,42%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 730 (DDR3, 64 bits)
			</td>
			<td>
				US$ 54,99
			</td>
			<td>
				US$ 56,99
			</td>
			<td>
				<span style="color: #ff0000;">3,64%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 280
			</td>
			<td>
				US$ 179,99
			</td>
			<td>
				US$ 189,99
			</td>
			<td>
				<span style="color: #ff0000;">5,56%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250 (GDDR5)
			</td>
			<td>
				US$ 79,99
			</td>
			<td>
				US$ 84,99
			</td>
			<td>
				<span style="color: #ff0000;">6,25%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 720 (DDR3)
			</td>
			<td>
				US$ 46,99
			</td>
			<td>
				US$ 49,99
			</td>
			<td>
				<span style="color: #ff0000;">6,38%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce 8400 GS (32 bits)
			</td>
			<td>
				US$ 29,99
			</td>
			<td>
				US$ 31,99
			</td>
			<td>
				<span style="color: #ff0000;">6,67%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 265
			</td>
			<td>
				US$ 139,99
			</td>
			<td>
				US$ 149,99
			</td>
			<td>
				<span style="color: #ff0000;">7,14%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce 6200
			</td>
			<td>
				US$ 39,99
			</td>
			<td>
				US$ 42,99
			</td>
			<td>
				<span style="color: #ff0000;">7,50%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6970
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				US$ 119,99
			</td>
			<td>
				<span style="color: #ff0000;">9,09%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 295X2
			</td>
			<td>
				US$ 629,99
			</td>
			<td>
				US$ 689,99
			</td>
			<td>
				<span style="color: #ff0000;">9,52%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 750
			</td>
			<td>
				US$ 99,99
			</td>
			<td>
				US$ 114,99
			</td>
			<td>
				<span style="color: #ff0000;">15,00%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 750 Ti
			</td>
			<td>
				US$ 119,99
			</td>
			<td>
				US$ 139,99
			</td>
			<td>
				<span style="color: #ff0000;">16,67%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250X (GDDR5)
			</td>
			<td>
				US$ 79,99
			</td>
			<td>
				US$ 94,99
			</td>
			<td>
				<span style="color: #ff0000;">18,75%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 770
			</td>
			<td>
				US$ 309,99
			</td>
			<td>
				US$ 416,77
			</td>
			<td>
				<span style="color: #ff0000;">34,45%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 650
			</td>
			<td>
				US$ 74,99
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				<span style="color: #ff0000;">46,67%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R5 230
			</td>
			<td>
				US$ 44,99
			</td>
			<td>
				US$ 68,77
			</td>
			<td>
				<span style="color: #ff0000;">52,86%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 7850
			</td>
			<td>
				US$ 119,99
			</td>
			<td>
				US$ 259,99
			</td>
			<td>
				<span style="color: #ff0000;">116,68%</span>
			</td>
		</tr>
	</tbody>
</table>

<p>
	<strong>Novas placas de vídeo</strong>
</p>

<p>
	Nenhuma nova placa de vídeo foi adicionada ao catálogo da Newegg.com no período analisado. A GeForce GTX TITAN X consta como “disponível em breve”.
</p>

<p>
	<strong>Placas de vídeo em falta</strong>
</p>

<p>
	As seguintes placas de vídeo estão marcadas como “em falta” no catálogo da Newegg.com, podendo indicar apenas uma falta temporária.
</p>

<ul>
	<li>
		Radeon R7 250X (DDR3)
	</li>
</ul>

<p>
	<strong>Placas de vídeo removidas do catálogo</strong>
</p>

<ul>
	<li>
		GeForce 9400 GT (preço muito alto, considerando como se não estivesse presente)
	</li>
	<li>
		GeForce GT 630 (64 bits)
	</li>
	<li>
		Radeon HD 6670
	</li>
	<li>
		Radeon HD 7730
	</li>
	<li>
		Radeon HD 7770
	</li>
	<li>
		Radeon R9 270X (DDR3)
	</li>
</ul>
]]></description><guid isPermaLink="false">36475</guid><pubDate>Thu, 09 Apr 2015 10:39:00 +0000</pubDate></item><item><title>SLI vs. CrossFire</title><link>https://www.clubedohardware.com.br/artigos/video/sli-vs-crossfire-r34713/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_jrhw6pjrhw6pjrhw.jpg.89b407a790288d02ac6c5272b5a5ad91.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	As tecnologias SLI, da NVIDIA, e CrossFire (muitas vezes grafado somente CF), da AMD, permitem que mais de uma placa de vídeo seja conectada em paralelo de modo a aumentar o desempenho em jogos. Neste tutorial explicaremos tudo o que você precisa saber sobre essas tecnologias.
</p>

<p>
	Nota: A tecnologia CrossFire foi criada pela ATI, empresa que foi comprada pela a AMD em 2006. Ao longo deste tutorial falaremos apenas “AMD”, sendo que o que falaremos é válido para placas de vídeo antigas com chip ainda rotulados como “ATI”.
</p>

<ul>
	<li>
		Leia também: <a href="https://www.clubedohardware.com.br/artigos/video/que-fim-levou-o-sli-e-o-crossfire-r37108/" rel="">Que fim levou o SLI e o CrossFire?</a>
	</li>
</ul>

<p>
	Primeiro, vamos falar sobre as semelhanças entre essas duas tecnologias:
</p>

<ul>
	<li>
		Permitem que mais de uma placa de vídeo compatível com o modo seja conectada em paralelo para aumentar o desempenho em jogos. Esta é uma boa maneira de aumentar o desempenho do seu computador comprando uma segunda placa de vídeo e mantendo a sua placa de vídeo antiga instalada, desde que elas e a placa-mãe sejam compatíveis com o modo SLI ou CrossFire, é claro.
	</li>
	<li>
		Permite apenas que placas de vídeo usando chips do fabricante sejam usadas. Isto é, o SLI suporta apenas placas de vídeo com chip da NVIDIA e o CrossFire suporta apenas placas de vídeo com chip da AMD.
	</li>
	<li>
		A tecnologia só está disponível em placas-mãe compatíveis. O fato de uma placa-mãe ter mais de um slot PCI Express x16 não é garantia que ela será compatível com as tecnologias CrossFire ou SLI. Logo, você deverá conferir se a sua placa-mãe é compatível com o modo pretendido antes de se empolgar e sair comprando uma segunda placa de vídeo.
	</li>
	<li>
		Ambas tecnologias suportam duas, três ou quatro placas de vídeo (modos chamados duas vias, três vias e quatro vias pelos fabricantes, respectivamente), mas nem todas as placas de vídeo podem ser compatíveis com todos estes modos.
	</li>
	<li>
		O limite é, na realidade, de processadores de vídeo. Dessa forma, só é possível ter até duas placas de vídeo caso elas tenham dois processadores de vídeo cada.
	</li>
	<li>
		Ao usar duas placas de vídeo em paralelo, o desempenho do jogo não é dobrado, assim como ao usar três placas o desempenho não é triplicado nem ao usar quatro o desempenho é quadruplicado. O ganho de desempenho dependerá sobretudo do jogo usado; alguns jogos aproveitam melhor as tecnologias SLI e CrossFire, enquanto que outros se beneficiam menos. O quanto o desempenho do jogo aumentado pela tecnologia é referido, pelos entusiastas, por “escalabilidade”. Outro detalhe importante é em relação ao processador do computador, que pode estar limitando o desempenho caso ele não seja rápido o suficiente para manter as placas de vídeo ocupadas o tempo todo.
	</li>
	<li>
		Atualmente ambas tecnologias suportam o uso de múltiplos monitores de vídeo em jogos que suportem esse tipo de configuração. No entanto, todos os monitores têm de obrigatoriamente ser conectados à placa de vídeo principal. Com isso, você fica limitado ao número de monitores suportados por esta placa.
	</li>
	<li>
		Tanto a NVIDIA (Optimus) quanto a AMD (Dynamic Switchable Graphics) trazem recurso para manter o chip gráfico desativado e manter em uso o controlador de vídeo integrado ao processador para economizar energia quando o usuário não está rodando jogos. Ambas só existem em computadores portáteis.
	</li>
</ul>

<p>
	Nota: QuadSLI não é a mesma coisa que SLI de quatro vias. QuadSLI refere-se ao modo SLI usando duas placas de vídeo com dois chips gráficos cada.
</p>

<p>
	Já as principais diferenças entre essas duas tecnologias são:
</p>

<ul>
	<li>
		Na tecnologia SLI as duas placas de vídeo precisam ser baseadas no mesmo chip gráfico e terem a mesma quantidade de memória (elas não precisam ser do mesmo “fabricante”, isto é, ASUS, Gigabyte, MSI, EVGA, etc.). É possível ter placas com clocks diferentes, porém erros na imagem (“artefatos”) poderão aparecer. Neste caso, é recomendado configurar as placas para rodarem com o mesmo clock. Esta configuração não é feita de forma automática.
	</li>
	<li>
		Na tecnologia CrossFire, as duas placas de vídeo não precisam ser baseadas no mesmo chip, porém elas precisam ser compatíveis. Normalmente isto significa que elas precisam ser da mesma série. Nas novas placas cujo nome de modelo começa com “R”, no entanto, só é possível usar em conjunto placas com exatamente o mesmo nome, assim como ocorre com o SLI.
	</li>
	<li>
		O SLI roda jogos em modo janela (“windowed”), enquanto que o CrossFire é incompatível com este modo
	</li>
	<li>
		A maioria das placas-mãe com mais de um slot PCI Express x16 é compatível com o modo CrossFire; a quantidade de placas-mãe compatíveis com o modo SLI é menor.
	</li>
	<li>
		O CrossFire permite combinar o poder de processamento do motor gráfico de processadores AMD com o de placas de vídeo com chip da AMD em um modo chamado “Dual Graphics”, caso ambos sejam compatíveis com esta tecnologia. A NVIDIA já teve tecnologia equivalente (GeForce Boost), porém no momento não tem um equivalente para essa funcionalidade.
	</li>
	<li>
		O SLI traz um modo para aumento de qualidade de imagem chamado “SLI AA”. O CrossFire tinha um modo equivalente, chamado “Super AA”, quando ele foi lançado, porém este modo foi removido e não existe mais.
	</li>
</ul>

<p>
	Antes de prosseguirmos, é importante mencionarmos duas tecnologias relacionadas que achamos importante que você conheça:
</p>

<ul>
	<li>
		Virtu Universal MVP: solução que permite combinar o desempenho de uma placa de vídeo ao desempenho do processador gráfico integrado do processador, independentemente do fabricante do processador e do chip gráfico. Para mais informações, leia “<a href="https://www.clubedohardware.com.br/artigos/video/teste-da-tecnologia-virtu-universal-mvp-r35968/" rel="" target="_blank">Teste da tecnologia Virtu Universal MVP</a>”. Nota: aparentemente esta tecnologia saiu de linha.
	</li>
	<li>
		PhysX: é possível dedicar uma placa de vídeo com chip da NVIDIA para processamento de cálculos físicos em jogos que suportem a tecnologia PhysX. A placa de vídeo principal não precisa ter chip da NVIDIA. É uma maneira interessante de você reaproveitar uma placa de vídeo antiga com chip da NVIDIA caso você rode jogos baseados nessa tecnologia. Para mais informações, leia nosso tutorial “<a href="https://www.clubedohardware.com.br/artigos/video/como-instalar-e-configurar-uma-placa-de-v%C3%ADdeo-physx-dedicada-r36189/" rel="" target="_blank">Como instalar e configurar uma placa de vídeo PhysX dedicada</a>”.
	</li>
</ul>

<p>
	É importante entender que ambas tecnologias já passaram por diversas gerações e modificações, e detalhes de operação e compatibilidade no passado não são necessariamente os mesmos de hoje em dia.
</p>

<p>
	[pagination="Pontes"]
</p>

<p>
	Tanto no SLI quanto no CrossFire, a comunicação entre as placas de vídeo tradicionalmente se dá através de conexões dedicadas entre as placas de vídeo chamadas “pontes”. Ver Figuras 1 e 2.
</p>

<p style="text-align: center;">
	<img alt="SLI vs. CrossFire" border="0" style="height: auto;" title="SLI vs. CrossFire" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/sli_crossfire_04.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> exemplo de conector SLI
</p>

<p style="text-align: center;">
	<img alt="SLI vs. CrossFire" border="0" style="height: auto;" title="SLI vs. CrossFire" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/sli_crossfire_05.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> exemplo de ponte SLI
</p>

<p>
	Com o aumento na largura de banda propiciada pelo PCI Express, o uso de pontes não é necessário em placas de vídeo mais simples. Desta forma, a ausência de um conector para ponte como o apresentado na Figura 1 <em>não é</em> um indicativo de que a placa não suporta SLI ou CrossFire. A compatibilidade de uma placa com o SLI <a href="http://www.geforce.com/hardware/technology/sli/supported-gpus" rel="external nofollow" target="_blank">pode ser verificada aqui</a>, enquanto que a compatibilidade de uma placa com o CrossFire <a href="http://support.amd.com/en-us/kb-articles/Pages/Crossfire-Chart.aspx" rel="external nofollow" target="_blank">pode ser verificada aqui</a>.
</p>

<p>
	No caso do CrossFire, as placas de vídeo topo de linha mais recentes usam um modo chamado XDMA, onde as placas de vídeo comunicam-se usando o PCI Express tal como ocorre nas placas de vídeo mais simples. Com isto, estas placas dispensam o uso de uma ponte externa. É provável que no futuro nenhuma placa de vídeo baseada em chip da AMD necessitará de pontes para o modo CrossFire.
</p>

<p>
	[pagination="Sobre slots PCI Express"]
</p>

<p>
	Antes de prosseguirmos, é importante que você tenha conhecimento sobre algumas informações muito importantes a respeito de slots PCI Express, a fim de que você possa comparar corretamente os diferentes modelos de placas-mãe com mais de um slot PCI Express existentes no mercado.
</p>

<p>
	Existem três versões da especificação PCI Express, 1.1, 2.0 e 3.0, com as velocidades padrão de 2,5 Gbit/s (250 MB/s), 5 Gbit/s (500 MB/s) e 8 Gbit/s (1 GB/s) por pista (a explicação do porque a conversão de Gbit/s para GB/s se dá dividindo-se por dez nas versões 1.1 e 2.0 mas por oito na versão 3.0 é explicada no tutorial indicado ao final desta página).
</p>

<p>
	Para o maior desempenho possível, idealmente você deverá usar slots PCI Express 3.0 e placas de vídeo PCI Express 3.0. Você pode usar placas de vídeo PCI Express 2.0 em slots PCI Express 3.0 e placas de vídeo PCI Express 3.0 em slots PCI Express 2.0, porém a largura de banda será limitada à do padrão 2.0 (que é metade da do padrão 3.0).
</p>

<p>
	O número próximo ao “x” indica quantas pistas são usadas. Assim, uma conexão PCI Express 3.0 x16 usa 16 pistas e tem uma taxa de transferência máxima teórica (largura de banda) de 128 Gbit/s ou 16 GB/s.
</p>

<p>
	Porém, os slots PCI Express x16, que são usados por placas de vídeo, não necessariamente têm 16 pistas conectadas a ele.
</p>

<p>
	O mais comum com placas-mãe intermediárias com dois slots PCI Express x16 é o primeiro slot trabalhar a x16 quando há apenas uma placa de vídeo instalada, mas sua velocidade cair para x8 quando duas placas de vídeo estão presentes. Essa é uma configuração também chamada “x16/x0 e x8/x8”, sendo um macete usado para dividir 16 pistas PCI Express entre dois slots. O que significa é que uma placa sozinha tem uma largura de banda de 16 GB/s (supondo PCI Express 3.0) para a comunicação com o processador do computador, enquanto que quando uma segunda placa de vídeo é instalada, a largura de banda disponível cai pela metade (8 GB/s neste exemplo).
</p>

<p>
	Teoricamente, portanto, há queda de desempenho nesse tipo de configuração. Na prática, porém, vários testes indicam que a comunicação entre duas placas de vídeo não requer tanta largura de banda quanto há disponível, não havendo queda no desempenho. Além disso, placas de vídeo que podem ter problema de desempenho por causa de alguma limitação na comunicação PCI Express fazem uso de “pontes”, conectores para uma conexão dedicada entre as placas de vídeo, eliminando esse problema.
</p>

<p>
	No caso de placas-mãe mais simples (“de entrada”) com dois slots PCI Express, você deverá tomar muito cuidado, pois normalmente o primeiro slot é PCI Express 3.0 x16 mas o segundo é PCI Express 2.0 x4, havendo uma redução significativa na largura de banda no segundo slot (16 GB/s vs. 2 GB/s) que pode limitar o desempenho da segunda placa de vídeo. Esta configuração mais simples existe porque fabricantes raciocinam que usuários usando placas-mãe “de entrada” as utilizarão em conjunto com placas de vídeo mais simples, que não requerem tanta largura de banda. Porém, como placas de vídeo mais simples comunicam-se entre si utilizando o PCI Express e não conexões dedicadas externas (“pontes”), a queda de desempenho pode ser perceptível em comparação com a mesma configuração usando uma placa-mãe que não limita o desempenho no segundo slot.
</p>

<p>
	Há ainda as placas-mãe topo de linha, onde não há queda no desempenho do primeiro slot e o segundo slot trabalha a x16. Este tipo de configuração é normalmente obtida através do uso de um chip chaveador na placa-mãe. Este tipo de placa-mãe é voltada ao entusiasta que só compra “o melhor do melhor”, quer ter certeza que sua máquina para jogos terá o maior desempenho possível, e pode pagar para isto.
</p>

<p>
	Para uma explicação mais aprofundada sobre o funcionamento do PCI Express, recomendamos a leitura do nosso tutorial “<a href="https://www.clubedohardware.com.br/artigos/placas-mae/tudo-o-que-voc%C3%AA-precisa-saber-sobre-a-conex%C3%A3o-pci-express-r34504/" rel="" target="_blank">Tudo o que você precisa saber sobre a conexão PCI Express</a>”.
</p>

<p>
	[pagination="SLI"]
</p>

<p>
	O SLI foi originalmente introduzido pela 3dfx em 1998 em suas placas Voodoo 2. Nesta época SLI significava Scan Line Interleaving (Intercalamento de Varredura) e funcionava fazendo com que cada chip gráfico processasse um grupo de linhas (um chip gráfico processando as linhas pares e outro processando as linhas ímpares). A NVIDIA comprou a 3dfx em 19 de abril de 2001 e introduziu um conceito similar e atualizado para suas placas de vídeo em junho de 2004, renomeando SLI para Scalable Link Interface ou Interface de Link Escalável.
</p>

<p>
	O SLI pode funcionar nos seguintes modos:
</p>

<ul>
	<li>
		SFR (Split Frame Rendering ou Renderização por Divisão de Quadros), onde cada quadro é dividido em dois e cada metade é enviada para um chip gráfico diferente para ser processado. Ver Figura 3.
	</li>
	<li>
		AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros), onde cada chip gráfico processa um quadro inteiro, mas enquanto um chip gráfico está processando o quadro atual, o outro chip já está renderizando o próximo quadro, portanto quando o primeiro quadro é enviado, o segundo quadro já está renderizado (idealmente) ou praticamente renderizado. Ver Figura 4.
	</li>
	<li>
		SLI AA (Anti-Aliasing): este modo não é voltado para aumentar o desempenho em jogos, mas para aumentar a qualidade da imagem. Na verdade, neste modo o jogo normalmente roda mais lento, mas com uma melhor qualidade de imagem. Enquanto que com uma única placa de vídeo você pode obter tipicamente apenas até os modos anti-aliasing 4x ou 8x, com o SLI este número pode ser elevado para 8x, 16x ou 32x.
	</li>
</ul>

<p style="text-align: center;">
	<img alt="SLI vs. CrossFire" border="0" style="height: auto;" title="SLI vs. CrossFire" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/sli_crossfire_01.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 3:</strong> modo Split Frame Rendering (SFR)
</p>

<p style="text-align: center;">
	<img alt="SLI vs. CrossFire" border="0" style="height: auto;" title="SLI vs. CrossFire" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/sli_crossfire_02.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 4:</strong> modo Alternate Frame Rendering (AFR)
</p>

<p>
	Outras tecnologias correlatas:
</p>

<ul>
	<li>
		GeForce Boost: modo que não existe mais, permitia que o processamento de um motor gráfico embutido em chipsets da NVIDIA fosse combinado ao de um chip gráfico “avulso” para aumentar o desempenho, caso ambos fossem compatíveis com esta tecnologia. Uma lista de chips compatíveis <a href="http://www.nvidia.com/object/hybridsli_notebook.html" rel="external nofollow" target="_blank">pode ser encontrada aqui</a>. O Virtu Virtual MVP mencionado na introdução surgiu para preencher a lacuna deixada pela extinção desta tecnologia.
	</li>
	<li>
		HybridPower/Optimus: tecnologia que permite que o vídeo seja gerado pelo processador ou chipset enquanto o usuário não estiver demandando por desempenho, alternando automaticamente para o processador gráfico dedicado quando o usuário rodar jogos (ou qualquer outra aplicação que de fato exija o uso do chip gráfico dedicado), de forma a economizar energia e aumentar a autonomia da bateria. Esta tecnologia está disponível apenas em computadores portáteis. HybridPower é o nome antigo e Optimus é o novo nome.
	</li>
</ul>

<p>
	Nota: os modos HybridPower e GeForce Boost eram coletivamente chamados Hybrid SLI.
</p>

<p>
	[pagination="Como montar arranjos SLI"]
</p>

<p>
	Vamos agora dar algumas dicas importantes caso você queira montar arranjos SLI.
</p>

<p>
	Para montar arranjos SLI, você deverá:
</p>

<ul>
	<li>
		Ter uma placa-mãe com pelo menos dois slots PCI Express x16 e que seja compatível com o modo SLI. Você poderá verificar isso indo ao site do fabricante da sua placa-mãe (ASUS, ASRock, Gigabyte, MSI, etc.) e procurando pela página de especificações técnicas da sua placa-mãe. Procure, nesta página, por “SLI”. Se não houver nenhuma referência a esta palavra, muito provavelmente sua placa-mãe não é compatível. Não deixe de ler a página “Sobre slots PCI Express” que apresentamos anteriormente com dicas de como escolher a placa-mãe ideal.
	</li>
	<li>
		Ter duas (ou mais) placas de vídeo baseadas no mesmo chip gráfico e com a mesma quantidade de memória e que sejam compatíveis com o modo SLI. <a href="http://www.geforce.com/hardware/technology/sli/supported-gpus" rel="external nofollow" target="_blank">Veja a lista de placas compatíveis</a>. É possível usar placas de vídeo de nomes diferentes caso elas sejam “clones” (por exemplo, a GeForce 9800 GTX+ pode ser usada em conjunto com a GeForce GTS 250 de 1 GiB porque elas são exatamente a mesma placa). <a href="https://www.clubedohardware.com.br/artigos/video/tabela-de-chips-geforce-renomeados-da-nvidia-r36277/" rel="" target="_blank">Nós mantemos uma lista de placas clonadas que pode ser útil</a>.
	</li>
	<li>
		Todas as placas na lista acima suportam SLI de duas vias. Para saber se as placas suportam SLI de três vias ou de quatro vias, você deverá clicar na placa de vídeo na lista acima, clicar em “Specifications” e procurar por “SLI Options” ou “SLI Ready”. Ali constará o número de placas que poderão ser instaladas em paralelo (“two-way” = duas; “three-way” = três; “four-way” = quatro; mas, cuidado: “quad” = duas, pois significa que a placa de vídeo tem dois chips gráficos e, dessa forma, com duas dela você terá quatro chips gráficos, atingindo o limite do modo SLI).
	</li>
	<li>
		Conferir se a sua fonte de alimentação dará conta do recado ou se você precisará comprar uma nova fonte. Assista ao nosso vídeo “<a href="https://www.clubedohardware.com.br/artigos/energia/quantos-watts-voc%C3%AA-precisa-r36469/" rel="" target="_blank">Como calcular a potência da fonte de alimentação</a>”. Além de verificar a potência da fonte, você deverá verificar se a fonte tem conectores de alimentação auxiliar suficientes para todas as placas (é possível usar adaptadores, <a href="https://www.clubedohardware.com.br/artigos/energia/porque-n%C3%A3o-devemos-usar-adaptadores-de-alimenta%C3%A7%C3%A3o-em-placas-de-v%C3%ADdeo-r36425/" rel="" target="_blank">porém não recomendamos</a>).
	</li>
	<li>
		Verifique se é necessário conectar as placas de vídeo com pontes.
	</li>
	<li>
		Se houver placas de vídeo com clocks diferentes (isto é, modelos com overclock de fábrica), recomendamos que você configure todas as placas para usarem os mesmos clocks, para evitar o surgimento de erros na imagem (“artefatos”). Este ajuste não é feito de forma automática e pode ser feito com os utilitários <a href="http://gaming.msi.com/features/afterburner" rel="external nofollow" target="_blank">Afterburner</a> ou <a href="http://www.evga.com/precision/" rel="external nofollow" target="_blank">Precision</a> (apesar de serem programas da MSI e da EVGA, respectivamente, eles funcionam com qualquer placa que use chip da NVIDIA).
	</li>
	<li>
		Após instalar o hardware e ligar o computador, o driver de vídeo detectará o arranjo SLI e adicionará opções de configuração antes inexistentes. Recomendamos que você abra o driver (ícone da NVIDIA próximo ao relógio) e certifique-se que o modo SLI foi ativado.
	</li>
</ul>

<p>
	[pagination="CrossFire"]
</p>

<p>
	O CrossFire foi criado pela a antiga ATI, inicialmente usando o nome CrossFire, depois mudando o nome para CrossFireX, e agora usando novamente o nome original, CrossFire.
</p>

<p>
	Como explicamos na introdução, as principais vantagens do CrossFire são permitir a instalação de placas de vídeo diferentes (mas ambas precisam ser compatíveis entre si, normalmente significando que devem ser da mesma série, embora nas placas mais recentes com nome de modelo começando com “R” apenas placas com exatamente o mesmo nome podem ser usadas) e ter um número maior de placas-mãe compatíveis.
</p>

<p>
	O CrossFire pode usar os seguintes modos para renderizar imagens:
</p>

<ul>
	<li>
		Scissors (Tesoura): este modo é similar ao modo SFR (Split Frame Rendering ou Renderização por Divisão de Quadros) do SLI, mas como você pode ter duas placas de vídeo diferentes no CrossFire, a placa de vídeo mais rápida terminaria de renderizar sua metade mais rapidamente e teria de esperar pela placa mais lenta terminar seu trabalho para então prosseguir para o próximo quadro. Isto faria a placa de vídeo mais rápida trabalhar na mesma velocidade da placa mais lenta. Para resolver este problema, o CrossFire habilita balanceamento de carga dinâmico, isto é, se uma placa de vídeo rápida estiver conectada com uma placa mais lenta, o sistema não dividirá a tela em duas partes iguais, ele colocará a placa mais rápida para renderizar porções maiores da tela do que a placa mais lenta, fazendo assim com que as renderizações efetuadas pelas duas placas terminem ao mesmo tempo.
	</li>
	<li>
		SuperTiling: neste modo a tela é dividida em várias pequenos quadrados (ou “azulejos” – “tile”, em inglês, significa “azulejo” e “tiling”, portanto, o ato de se colocar azulejos, e daí o nome deste modo), cada um medindo 32x32 pixels, e cada placa de vídeo é responsável por tratar parte dos quadrados disponíveis. O balanceamento de carga é também usado aqui, portanto a placa de vídeo mais rápida receberá mais quadrados para renderizar do que a placa mais lenta se você estiver usando duas placas de vídeo diferentes.
	</li>
	<li>
		Renderização Alternada de Quatros (AFR, Alternate Frame Rendering): este modo é idêntico ao modo SLI com o mesmo nome, onde enquanto uma placa de vídeo está renderizando o quatro atual a outra placa está renderizando o próximo quadro.
	</li>
</ul>

<p>
	Há ainda as seguinte tecnologias correlatas:
</p>

<ul>
	<li>
		Hybrid CrossFire: modo que não existe mais, sendo equivalente ao GeForce Boost da NVIDIA. Permitia que o processamento de um motor gráfico embutido em chipsets da AMD fosse combinado ao de um chip gráfico “avulso” para aumentar o desempenho, caso ambos fossem compatíveis com esta tecnologia.
	</li>
	<li>
		Dual Graphics: modo similar ao Hybrid CrossFire, porém permitindo a união do poder de processamento do motor gráfico embutido em processadores da AMD ao de um chip gráfico “avulso” para aumentar o desempenho, caso ambos sejam compatíveis com esta tecnologia (<a href="http://www.amd.com/en-us/innovations/software-technologies/technologies-gaming/dual-graphics#desktop" rel="external nofollow" target="_blank">clique aqui para uma lista completa de processadores e placas de vídeo compatíveis</a>). A diferença entre Hybrid CrossFire e Dual Graphics é apenas uma questão semântica, pois o papel de ambos é o mesmo.
	</li>
	<li>
		Dynamic Switchable Graphics: tecnologia que permite que o vídeo seja gerado pelo processador enquanto o usuário não estiver demandando por desempenho, alternando automaticamente para o processador gráfico dedicado quando o usuário rodar jogos (ou qualquer outra aplicação que de fato exija o uso do chip gráfico dedicado), de forma a economizar energia e aumentar a autonomia da bateria. É equivalente ao Optimus da NVIDIA e só existe para computadores portáteis.
	</li>
</ul>

<p>
	[pagination="Gerações do CrossFire"]
</p>

<p>
	No momento existem quatro gerações do CrossFire: CrossFire, CrossFire Nativo, CrossFireX e CrossFire com XDMA.
</p>

<p>
	<strong>Primeira geração: CrossFire</strong>
</p>

<p>
	A primeira geração do CrossFire tinha dois problemas principais. Primeiro era necessário o uso de uma placa “mestre”, chamada “CrossFire Edition”, que era diferente do modelo convencional vendido no mercado – e tinha um chip adicional chamado “motor de composição” (“composition engine”). Por exemplo, havia a Radeon X850 CrossFire Edition e o modelo padrão Radeon X850 XT. Você não poderia usar duas placas Radeon X850 XT, uma delas precisava ser “CrossFire Edition”.
</p>

<p>
	O segundo problema era que você precisava de um cabo externo para conectar as placas de vídeo, como você pode ver na Figura 5. Este cabo conecta a saída DVI da placa “escrava” em um conector chamado DMS-59 (ou DMS), que tinha um tamanho físico semelhante ao do DVI, mas com mais pinos, ou em conector chamado VHDCI (Very High Density Cable InterConnect), que é um conector originalmente usado por alguns dispositivos SCSI, na placa “mestre”.
</p>

<p style="text-align: center;">
	<img alt="SLI vs. CrossFire" border="0" style="height: auto;" title="SLI vs. CrossFire" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/sli_crossfire_07.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 5:</strong> na primeira geração, as placas CrossFire eram conectadas através de um cabo externo
</p>

<p style="text-align: center;">
	<img alt="SLI vs. CrossFire" border="0" style="height: auto;" title="SLI vs. CrossFire" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/sli_crossfire_08.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 6:</strong> conectores DMS-59 (esquerda) e VHDCI (direita), que podem ser encontrados nas placas “mestre” (“CrossFire Edition”)
</p>

<p>
	<strong>Segunda geração: CrossFire Nativo</strong>
</p>

<p>
	A segunda geração do CrossFire, chamado CrossFire Nativo, resolveu os dois problemas principais encontrados na geração anterior: a necessidade de uma placa “mestre” (já que agora o motor de composição está integrado no chip gráfico de todas as placas de vídeo que suportam o CrossFire Nativo e o CrossFireX) e a questão do cabo, passando usar uma “ponte” para a conexão das placas topo de linha (nesta geração duas pontes eram necessárias) e conexão através do próprio PCI Express no caso de placas de vídeo mais simples.
</p>

<p style="text-align: center;">
	<img alt="SLI vs. CrossFire" border="0" style="height: auto;" title="SLI vs. CrossFire" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/sli_crossfire_09.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 7:</strong> conectores do CrossFire Nativo
</p>

<p style="text-align: center;">
	<img alt="SLI vs. CrossFire" border="0" style="height: auto;" title="SLI vs. CrossFire" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/sli_crossfire_10.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 8:</strong> ponte do CrossFire Nativo
</p>

<p>
	Para placas mais simples a ATI decidiu usar a mesma abordagem usada pela NVIDIA: as placas são conectadas através do barramento PCI Express, dispensado o uso de uma ponte externa.
</p>

<p>
	<strong>Terceira geração: CrossFireX</strong>
</p>

<p>
	A terceira geração, que é usada atualmente, é uma conexão CrossFire Nativo expandida para permitir a conexão de até quatro placas de vídeo baseadas nos chips ATI/AMD em vez de apenas duas. Os conectores e pontes são idênticos aos do CrossFire Nativo, a diferença é como eles são conectados (ver Figura 9).
</p>

<p style="text-align: center;">
	<img alt="SLI vs. CrossFire" border="0" style="height: auto;" title="SLI vs. CrossFire" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/sli_crossfire_11.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 9:</strong> CrossFireX
</p>

<p>
	A AMD renomeou CrossFireX de volta para CrossFire recentemente.
</p>

<p>
	<strong>Quarta geração: CrossFire com XDMA</strong>
</p>

<p>
	Como a conexão PCI Express atualmente oferece largura de banda mais do que suficiente para a comunicação entre placas de vídeo, as placas de vídeo topo de linha mais recentes não requerem mais a conexão de pontes, sendo toda a comunicação feita exclusivamente através do PCI Express.
</p>

<p>
	[pagination="Como montar arranjos CrossFire"]
</p>

<p>
	Vamos agora dar algumas dicas importantes caso você queira montar arranjos CrossFire.
</p>

<p>
	Mas, primeiro, vamos falar um pouco da compatibilidade entre placas de vídeo, pois, diferentemente do SLI, o CrossFire permite que você use placas de vídeo diferentes.
</p>

<p>
	As placas de vídeo não precisam ter o mesmo clock ou quantidade de memória, mas elas têm de ser obrigatoriamente ser da mesma família. Nas placas cujo número de modelo é formado por quatro números, os dois primeiros números precisam ser iguais. Por exemplo, você pode misturar uma Radeon HD 7850 com uma Radeon HD 7870, mas não pode misturar nenhuma delas com uma Radeon HD 7770.
</p>

<p>
	Já nas placas mais recentes, com nome de modelo começando com “R”, você só pode misturar placas com exatamente o mesmo nome. Por exemplo, você terá de ter obrigatoriamente duas Radeon R7 260, não podendo misturar uma Radeon R7 260 com uma Radeon R7 260X.
</p>

<p>
	Em caso de dúvida, <a href="http://support.amd.com/en-us/kb-articles/Pages/Crossfire-Chart.aspx" rel="external nofollow" target="_blank">veja as tabelas de compatibilidade disponíveis aqui</a>.
</p>

<p>
	Para montar arranjos CrossFire, você deverá:
</p>

<ul>
	<li>
		Ter uma placa-mãe com pelo menos dois slots PCI Express x16 e que seja compatível com o modo CrossFire. Você poderá verificar isso indo ao site do fabricante da sua placa-mãe (ASUS, ASRock, Gigabyte, MSI, etc.) e procurando pela página de especificações técnicas da sua placa-mãe. Procure, nesta página, por “CrossFire”. Se não houver nenhuma referência a esta palavra, muito provavelmente sua placa-mãe não é compatível. Não deixe de ler a página “Sobre slots PCI Express” que apresentamos anteriormente com dicas de como escolher a placa-mãe ideal.
	</li>
	<li>
		Ter duas (ou mais) placas de vídeo compatíveis, conforme explicado na introdução deste tópico.
	</li>
	<li>
		Conferir se a sua fonte de alimentação dará conta do recado ou se você precisará comprar uma nova fonte. Assista ao nosso vídeo “<a href="https://www.clubedohardware.com.br/artigos/energia/quantos-watts-voc%C3%AA-precisa-r36469/" rel="" target="_blank">Como calcular a potência da fonte de alimentação</a>”. Além de verificar a potência da fonte, você deverá verificar se a fonte tem conectores de alimentação auxiliar suficientes para todas as placas (é possível usar adaptadores, <a href="https://www.clubedohardware.com.br/artigos/energia/porque-n%C3%A3o-devemos-usar-adaptadores-de-alimenta%C3%A7%C3%A3o-em-placas-de-v%C3%ADdeo-r36425/" rel="" target="_blank">porém não recomendamos</a>).
	</li>
	<li>
		Verifique se é necessário conectar as placas de vídeo com pontes. Esta informação está disponível <a href="http://support.amd.com/en-us/kb-articles/Pages/Crossfire-Chart.aspx" rel="external nofollow" target="_blank">nestas tabelas</a> (células marcadas com “no bridge required” ou “no connector required” indicam conexões que não necessitam de pontes).
	</li>
	<li>
		Após instalar o hardware e ligar o computador, o driver de vídeo detectará o arranjo CrossFire e adicionará opções de configuração antes inexistentes. Recomendamos que você abra o driver (ícone do Catalyst Control Center próximo ao relógio) e certifique-se que o modo CrossFire foi ativado.
	</li>
</ul>
]]></description><guid isPermaLink="false">34713</guid><pubDate>Mon, 23 Mar 2015 11:00:00 +0000</pubDate></item><item><title>Tabela comparativa de pre&#xE7;os AMD vs. NVIDIA: mar&#xE7;o/2015</title><link>https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-de-pre%C3%A7os-amd-vs-nvidia-mar%C3%A7o2015-r36466/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_wcdemrwcdemrwcde.jpg.3fbf90ab1bcf5425914f3abcaaaafefe.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	O objetivo dessa tabela é apresentar o posicionamento dos produtos da AMD e da NVIDIA, de forma a mostrar quais produtos são concorrentes e responder de forma rápida à uma das perguntas mais comuns de nossos leitores: “qual placa de vídeo usando chip gráfico da empresa A equivale à placa baseada no chip <i>x</i> da empresa B”?
</p>

<p>
	O segundo objetivo é detectar tendências no mercado de placas de vídeo para computadores de mesa, tais como a entrada de novos modelos, a saída de determinados modelos, e mudanças significativas de preços. Esta análise está presente na próxima página.
</p>

<p>
	Os preços foram pesquisados na Newegg.com no dia da publicação deste artigo. Decidimos por usar preços no mercado norte-americano por serem mais estáveis e para facilitar comparações em datas futuras.
</p>

<p>
	É importante notar que os preços publicados são os preços mínimos que encontramos, e não incluímos produtos remanufaturados (“refurbished”) ou abertos (“open box”). Como existem várias marcas vendendo placas de vídeo baseadas no mesmo chip, o preço no mercado na realidade encontra-se em uma faixa, normalmente de US$ 10 a US$ 20 acima do preço mínimo publicado, e você deverá levar isso em consideração ao utilizar nossa tabela. Como o preço publicado é o mínimo, significa estamos falando do modelo de referência da placa de vídeo. Modelos com recursos adicionais tais como overclock de fábrica e sistemas de refrigeração mais incrementados custarão mais do que o publicado. O preço publicado não considera “rebates” (tipo de desconto comum nos EUA, onde você paga o preço cheio, preenche um formulário, e após alguns meses, recebe um cheque ou cartão de débito com o valor do “desconto”).
</p>

<p>
	A tabela leva em consideração apenas preço, não havendo como indicar qual placa de vídeo é “melhor” ou “mais rápida”.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>AMD</strong>
			</td>
			<td>
				<strong>Preço Mínimo</strong>
			</td>
			<td>
				<strong>NVIDIA</strong>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 295X2
			</td>
			<td>
				US$ 629,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 549,99
			</td>
			<td>
				GeForce GTX 980
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 449,99
			</td>
			<td>
				GeForce GTX 780 Ti
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 342,67
			</td>
			<td>
				GeForce GTX 760
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290X
			</td>
			<td>
				US$ 329,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 309,99
			</td>
			<td>
				GeForce GTX 770<br>
				GeForce GTX 970
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290
			</td>
			<td>
				US$ 274,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 280X
			</td>
			<td>
				US$ 239,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 199,99
			</td>
			<td>
				GeForce GTX 960
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 285
			</td>
			<td>
				US$ 189,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 280
			</td>
			<td>
				US$ 179,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 270X
			</td>
			<td>
				US$ 169,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250X (DDR3)
			</td>
			<td>
				US$ 162,72
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 270
			</td>
			<td>
				US$ 149,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 265
			</td>
			<td>
				US$ 139,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 7850
			</td>
			<td>
				US$ 119,99
			</td>
			<td>
				GeForce GTX 750 Ti
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6970
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 260X
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 99,99
			</td>
			<td>
				GeForce GTX 750
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250E
			</td>
			<td>
				US$ 97,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 7770
			</td>
			<td>
				US$ 95,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 90,88
			</td>
			<td>
				GeForce GT 630 (128 bits)
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 7750
			</td>
			<td>
				US$ 89,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250 (DDR3)
			</td>
			<td>
				US$ 84,99
			</td>
			<td>
				GeForce GT 640<br>
				GeForce GT 740
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250 (GDDR5)<br>
				Radeon R7 250X (GDDR5)
			</td>
			<td>
				US$ 79,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 240 (GDDR5)
			</td>
			<td>
				US$ 78,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 74,99
			</td>
			<td>
				GeForce GT 630 (64 bits)<br>
				GeForce GTX 650<br>
				GeForce GT 730 (GDDR5, 128 bits)
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6670<br>
				Radeon HD 7730<br>
				Radeon R7 240 (DDR3)
			</td>
			<td>
				US$ 69,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 64,99
			</td>
			<td>
				GeForce GT 730 (GDDR5, 64 bits)<br>
				GeForce GT 730 (DDR3, 128 bits)
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6570
			</td>
			<td>
				US$ 59,99
			</td>
			<td>
				GeForce GT 520
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6350
			</td>
			<td>
				US$ 54,99
			</td>
			<td>
				GeForce GT 730 (DDR3, 64 bits)
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 46,99
			</td>
			<td>
				GeForce GT 720 (DDR3)
			</td>
		</tr>
		<tr>
			<td>
				Radeon R5 230
			</td>
			<td>
				US$ 44,99
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6450
			</td>
			<td>
				US$ 39,99
			</td>
			<td>
				GeForce 6200<br>
				GeForce GT 610
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 31,99
			</td>
			<td>
				GeForce 8400 GS (64 bits)
			</td>
		</tr>
		<tr>
			<td>
				 
			</td>
			<td>
				US$ 30,00
			</td>
			<td>
				GeForce 9400 GT
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 5450
			</td>
			<td>
				US$ 29,99
			</td>
			<td>
				GeForce 8400 GS (32 bits)<br>
				GeForce 210
			</td>
		</tr>
	</tbody>
</table>

<p>
	Para saber as especificações técnicas detalhadas das placas de vídeo listadas, veja nossos tutoriais “<a href="https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-dos-chips-geforce-da-nvidia-desktop-r34106/" rel="" target="_blank">Tabela comparativa dos chips GeForce da NVIDIA (desktop)</a>” e “<a href="https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-dos-chips-radeon-da-amd-desktop-r34108/" rel="" target="_blank">Tabela comparativa dos chips Radeon da AMD (desktop)</a>”. Especificações técnicas foram indicadas na tabela acima apenas quando há mais de uma placa de vídeo com o mesmo nome porém com especificações técnicas significativamente diferentes.
</p>

<p>
	Confira agora a análise detalhada das mudanças no mercado de placas de vídeo ocorridas no último mês.
</p>

<p>
	[pagination="Análise detalhada"]
</p>

<p>
	Vamos agora a uma descrição mais detalhada do que ocorreu no mercado de placas de vídeo nos EUA <a href="https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-de-precos-amd-vs-nvidia-fevereiro-2015-r36437/" rel="" target="_blank">desde a nossa última análise</a>.
</p>

<p>
	<strong>Mudanças de preços</strong>
</p>

<p>
	Na tabela abaixo indicamos as placas de vídeo que tiveram seus preços alterados <a href="https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-de-precos-amd-vs-nvidia-fevereiro-2015-r36437/" rel="" target="_blank">em relação à nossa última análise</a>. Não incluímos nesta tabela placas de vídeo que não tiveram alteração em seu preço ou então que entraram no mercado este mês.
</p>

<p>
	Como você pode ver, placas de vídeo mais antigas tiveram variações expressivas de preços (por haver menos concorrência), enquanto que variações de preços em placas de vídeo mais recentes foram menores (por haver mais concorrência).
</p>

<p>
	Marcamos as quedas de preço em verde pois elas são benéficas para o consumidor, enquanto que marcamos as elevações de preço em vermelho já que elas prejudicam o consumidor.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>Placa de vídeo</strong>
			</td>
			<td>
				<strong>Preço em 02/2015</strong>
			</td>
			<td>
				<strong>Preço em 03/2015</strong>
			</td>
			<td>
				<strong>Variação</strong>
			</td>
		</tr>
		<tr>
			<td>
				GeForce 210
			</td>
			<td>
				US$ 31,99
			</td>
			<td>
				US$ 29,99
			</td>
			<td>
				<span style="color: #006400;">-6,25%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce 6200
			</td>
			<td>
				US$ 42,99
			</td>
			<td>
				US$ 39,99
			</td>
			<td>
				<span style="color: #006400;">-6,98%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce 9400 GT
			</td>
			<td>
				US$ 79,99
			</td>
			<td>
				US$ 30,00
			</td>
			<td>
				<span style="color: #006400;">-62,50%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 520
			</td>
			<td>
				US$ 56,99
			</td>
			<td>
				US$ 59,99
			</td>
			<td>
				<span style="color: #ff0000;">+5,26%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 610
			</td>
			<td>
				US$ 44,99
			</td>
			<td>
				US$ 39,99
			</td>
			<td>
				<span style="color: #006400;">-11,11%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 630 (128 bits)
			</td>
			<td>
				US$ 69,99
			</td>
			<td>
				US$ 90,88
			</td>
			<td>
				<span style="color: #ff0000;">+29,85%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 630 (64 bits)
			</td>
			<td>
				US$ 63,99
			</td>
			<td>
				US$ 74,99
			</td>
			<td>
				<span style="color: #ff0000;">+17,19%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 640
			</td>
			<td>
				US$ 89,99
			</td>
			<td>
				US$ 84,99
			</td>
			<td>
				<span style="color: #006400;">-5,56%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 720 (DDR3)
			</td>
			<td>
				US$ 49,99
			</td>
			<td>
				US$ 46,99
			</td>
			<td>
				<span style="color: #006400;">-6,00%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GT 730 (GDDR5, 64 bits)
			</td>
			<td>
				US$ 69,99
			</td>
			<td>
				US$ 64,99
			</td>
			<td>
				<span style="color: #006400;">-7,14%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 650
			</td>
			<td>
				US$ 99,99
			</td>
			<td>
				US$ 74,99
			</td>
			<td>
				<span style="color: #006400;">-25,00%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 750
			</td>
			<td>
				US$ 114,99
			</td>
			<td>
				US$ 99,99
			</td>
			<td>
				<span style="color: #006400;">-13,04%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 760
			</td>
			<td>
				US$ 339,95
			</td>
			<td>
				US$ 342,67
			</td>
			<td>
				<span style="color: #ff0000;">+0,80%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 770
			</td>
			<td>
				US$ 466,72
			</td>
			<td>
				US$ 309,99
			</td>
			<td>
				<span style="color: #006400;">-33,58%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 780 Ti
			</td>
			<td>
				US$ 752,47
			</td>
			<td>
				US$ 449,99
			</td>
			<td>
				<span style="color: #006400;">-40,20%</span>
			</td>
		</tr>
		<tr>
			<td>
				GeForce GTX 970
			</td>
			<td>
				US$ 329,99
			</td>
			<td>
				US$ 309,99
			</td>
			<td>
				<span style="color: #006400;">-6,06%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6450
			</td>
			<td>
				US$ 39,12
			</td>
			<td>
				US$ 39,99
			</td>
			<td>
				<span style="color: #ff0000;">+2,22%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6570
			</td>
			<td>
				US$ 61,99
			</td>
			<td>
				US$ 59,99
			</td>
			<td>
				<span style="color: #006400;">-3,23%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 6970
			</td>
			<td>
				US$ 119,99
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				<span style="color: #006400;">-8,33%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 7770
			</td>
			<td>
				US$ 99,99
			</td>
			<td>
				US$ 95,99
			</td>
			<td>
				<span style="color: #006400;">-4,00%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon HD 7850
			</td>
			<td>
				US$ 84,99
			</td>
			<td>
				US$ 119,99
			</td>
			<td>
				<span style="color: #ff0000;">+41,18%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 240 (DDR3)
			</td>
			<td>
				US$ 65,99
			</td>
			<td>
				US$ 69,99
			</td>
			<td>
				<span style="color: #ff0000;">+6,06%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 240 (GDDR5)
			</td>
			<td>
				US$ 105,69
			</td>
			<td>
				US$ 78,99
			</td>
			<td>
				<span style="color: #006400;">-25,26%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250 (GDDR5)
			</td>
			<td>
				US$ 82,99
			</td>
			<td>
				US$ 79,99
			</td>
			<td>
				<span style="color: #006400;">-3,61%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250E
			</td>
			<td>
				US$ 89,99
			</td>
			<td>
				US$ 97,99
			</td>
			<td>
				<span style="color: #ff0000;">+8,89%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250X (DDR3)
			</td>
			<td>
				US$ 99,99
			</td>
			<td>
				US$ 162,72
			</td>
			<td>
				<span style="color: #ff0000;">+62,74%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 250X (GDDR5)
			</td>
			<td>
				US$ 89,99
			</td>
			<td>
				US$ 79,99
			</td>
			<td>
				<span style="color: #006400;">-11,11%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 260X
			</td>
			<td>
				US$ 104,99
			</td>
			<td>
				US$ 109,99
			</td>
			<td>
				<span style="color: #ff0000;">+4,76%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R7 265
			</td>
			<td>
				US$ 129,99
			</td>
			<td>
				US$ 139,99
			</td>
			<td>
				<span style="color: #ff0000;">+7,69%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 280
			</td>
			<td>
				US$ 189,99
			</td>
			<td>
				US$ 179,99
			</td>
			<td>
				<span style="color: #006400;">-5,26%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 285
			</td>
			<td>
				US$ 209,99
			</td>
			<td>
				US$ 189,99
			</td>
			<td>
				<span style="color: #006400;">-9,52%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290
			</td>
			<td>
				US$ 269,99
			</td>
			<td>
				US$ 274,99
			</td>
			<td>
				<span style="color: #ff0000;">+1,85%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 290X
			</td>
			<td>
				US$ 299,99
			</td>
			<td>
				US$ 329,99
			</td>
			<td>
				<span style="color: #ff0000;">+10,00%</span>
			</td>
		</tr>
		<tr>
			<td>
				Radeon R9 295X2
			</td>
			<td>
				US$ 689,99
			</td>
			<td>
				US$ 629,99
			</td>
			<td>
				<span style="color: #006400;">-8,70%</span>
			</td>
		</tr>
	</tbody>
</table>

<p>
	<strong>Novas placas de vídeo</strong>
</p>

<p>
	Houve a entrada de apenas uma única placa de vídeo em nossa tabela deste mês, que foi a Radeon HD 7730.
</p>

<p>
	<strong>Placas de vídeo com apenas um único modelo disponível</strong>
</p>

<p>
	As placas de vídeo listadas abaixo tinham apenas um único modelo disponível, podendo significar que logo sairão de catálogo.
</p>

<ul>
	<li>
		GeForce GT 520
	</li>
	<li>
		GeForce GTX 660 (com overclock, por isso não entrou na tabela deste mês)
	</li>
	<li>
		GeForce GTX 760
	</li>
	<li>
		Radeon R7 250X (DDR3)
	</li>
</ul>

<p>
	<strong>Placas de vídeo em falta</strong>
</p>

<p>
	As seguintes placas de vídeo estão marcadas como “em falta” no catálogo da Newegg.com, podendo indicar apenas uma falta temporária.
</p>

<ul>
	<li>
		GeForce GTX 780           
	</li>
	<li>
		Radeon HD 7870             
	</li>
	<li>
		Radeon R7 260
	</li>
</ul>

<p>
	<strong>Placas de vídeo removidas do catálogo</strong>
</p>

<p>
	Houve a saída de apenas uma placa de vídeo do catálogo da Newegg.com este mês, a GeForce GTX 650 Ti.
</p>
]]></description><guid isPermaLink="false">36466</guid><pubDate>Wed, 04 Mar 2015 10:50:00 +0000</pubDate></item><item><title>Tabela comparativa de pre&#xE7;os AMD vs. NVIDIA: fevereiro/2015</title><link>https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-de-pre%C3%A7os-amd-vs-nvidia-fevereiro2015-r36437/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_wcdemrwcdemrwcde.jpg.a0df60985be6e9b0bc376cf30ea27b53.jpg" /></p>
<p>
	Esta é a estreia da nossa tabela comparativa mensal de preços de placas de vídeo para computadores de mesa usando chips gráficos da AMD e da NVIDIA.
</p>

<p>
	O objetivo dessa tabela é apresentar o posicionamento dos produtos dessas empresas, de forma a mostrar quais produtos são concorrentes e responder de forma rápida à uma das perguntas mais comuns de nossos leitores: “qual placa de vídeo usando chip gráfico da empresa A equivale à placa baseada no chip <i>x</i> da empresa B”?
</p>

<p>
	O segundo objetivo é detectar tendências no mercado de placas de vídeo para computadores de mesa, tais como a entrada de novos modelos, a saída de determinados modelos, e mudanças significativas de preços.
</p>

<p>
	Os preços foram pesquisados na Newegg.com no dia da publicação deste artigo. Decidimos por usar preços no mercado norte-americano por serem mais estáveis e para facilitar comparações em datas futuras.
</p>

<p>
	É importante notar que os preços publicados são os preços mínimos que encontramos. Como existem várias marcas vendendo placas de vídeo baseadas no mesmo chip, o preço no mercado na realidade encontra-se em uma faixa, normalmente de US$ 10 a US$ 20 acima do preço mínimo publicado, e você deverá levar isso em consideração ao utilizar nossa tabela. Como o preço publicado é o mínimo, significa estamos falando do modelo de referência da placa de vídeo. Modelos com recursos adicionais tais como overclock de fábrica e sistemas de refrigeração mais incrementados custarão mais do que o publicado. O preço publicado não considera “rebates” (tipo de desconto comum nos EUA, onde você paga o preço cheio, preenche um formulário, e após alguns meses, recebe um cheque ou cartão de débito com o valor do “desconto”).
</p>

<p>
	A tabela leva em consideração apenas preço, não havendo como indicar qual placa de vídeo é “melhor” ou “mais rápida”.
</p>

<p>
	Nesta primeira edição, indicamos em vermelho os modelos que estavam com estoque esgotado, o que pode indicar modelos prestes a sair de linha. Modelos não incluídos na tabela significa que já saíram de linha nos EUA, com exceção dos modelos TITAN da NVIDIA, que não são vendidos na Newegg.com.
</p>

<p>
	A principal tendência que identificamos com o auxílio da nossa tabela é a presença exclusiva da NVIDIA em placas de vídeo acima de US$ 330, faixa de preço onde não há concorrência da AMD (um detalhe muito importante: originalmente a Radeon R9 290X concorria com a GeForce GTX 970 em preço e desempenho, mas nesta semana a AMD diminuiu o preço da Radeon R9 290X). Por outro lado, a AMD reina sozinha em faixas intermediárias de preço (nos EUA), como a faixa entre US$ 160 e US$ 190 e a faixa entre US$ 220 e US$ 330 (para essa análise consideramos que preços podem variar até US$ 20 para cima). Até os US$ 160 há concorrência acirrada entre as duas empresas, com cada empresa apresentando múltiplos produtos na mesma faixa de preço, o que certamente dificulta a decisão do consumidor sobre qual placa de vídeo levar para casa.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>Preço Mínimo</strong>
			</td>
			<td>
				<strong>AMD</strong>
			</td>
			<td>
				<strong>NVIDIA</strong>
			</td>
		</tr>
		<tr>
			<td>
				US$ 29,99
			</td>
			<td>
				Radeon HD 5450
			</td>
			<td>
				GeForce 8400 GS (32 bits)
			</td>
		</tr>
		<tr>
			<td>
				US$ 31,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce 210<br>
				GeForce 8400 GS (64 bits)
			</td>
		</tr>
		<tr>
			<td>
				US$ 39,12
			</td>
			<td>
				Radeon HD 6450
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 42,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce 6200
			</td>
		</tr>
		<tr>
			<td>
				US$ 44,99
			</td>
			<td>
				Radeon R5 230
			</td>
			<td>
				GeForce GT 610
			</td>
		</tr>
		<tr>
			<td>
				US$ 49,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GT 720 (DDR3)
			</td>
		</tr>
		<tr>
			<td>
				US$ 54,99
			</td>
			<td>
				Radeon HD 6350
			</td>
			<td>
				GeForce GT 730 (DDR3, 64 bits)
			</td>
		</tr>
		<tr>
			<td>
				US$ 56,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GT 520
			</td>
		</tr>
		<tr>
			<td>
				US$ 61,99
			</td>
			<td>
				Radeon HD 6570
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 63,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GT 630 (64 bits)
			</td>
		</tr>
		<tr>
			<td>
				US$ 64,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GT 730 (DDR3, 128 bits)
			</td>
		</tr>
		<tr>
			<td>
				US$ 65,99
			</td>
			<td>
				Radeon R7 240 (DDR3)
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 69,99
			</td>
			<td>
				Radeon HD 6670
			</td>
			<td>
				GeForce GT 630 (128 bits)<br>
				GeForce GT 730 (GDDR5, 64 bits)
			</td>
		</tr>
		<tr>
			<td>
				US$ 74,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GT 730 (GDDR5, 128 bits)
			</td>
		</tr>
		<tr>
			<td>
				US$ 79,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce 9400 GT
			</td>
		</tr>
		<tr>
			<td>
				US$ 82,99
			</td>
			<td>
				Radeon R7 250 (GDDR5)
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 84,99
			</td>
			<td>
				Radeon R7 250 (DDR3)<br>
				Radeon HD 7850
			</td>
			<td>
				GeForce GT 740
			</td>
		</tr>
		<tr>
			<td>
				US$ 89,99
			</td>
			<td>
				Radeon HD 7750<br>
				Radeon R7 250E<br>
				Radeon R7 250X (GDDR5)
			</td>
			<td>
				GeForce GT 640<br>
				GeForce GTX 650 Ti
			</td>
		</tr>
		<tr>
			<td>
				US$ 99,99
			</td>
			<td>
				Radeon R7 250X (DDR3)
			</td>
			<td>
				GeForce GTX 650
			</td>
		</tr>
		<tr>
			<td>
				US$ 99,99
			</td>
			<td>
				Radeon HD 7770<br>
				Radeon R7 260
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 104,99
			</td>
			<td>
				Radeon R7 260X
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 105,69
			</td>
			<td>
				Radeon R7 240 GDDR5
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 114,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GTX 750
			</td>
		</tr>
		<tr>
			<td>
				US$ 119,99
			</td>
			<td>
				Radeon HD 7870<br>
				Radeon HD 6970
			</td>
			<td>
				GeForce GTX 750 Ti
			</td>
		</tr>
		<tr>
			<td>
				US$ 129,99
			</td>
			<td>
				Radeon R7 265
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 139,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GTX 660
			</td>
		</tr>
		<tr>
			<td>
				US$ 149,99
			</td>
			<td>
				Radeon R9 270
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 169,99
			</td>
			<td>
				Radeon R9 270X
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 189,99
			</td>
			<td>
				Radeon R9 280
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 199,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GTX 960
			</td>
		</tr>
		<tr>
			<td>
				US$ 209,99
			</td>
			<td>
				Radeon R9 285
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 239,99
			</td>
			<td>
				Radeon R9 280X
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 269,99
			</td>
			<td>
				Radeon R9 290
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 299,99
			</td>
			<td>
				Radeon R9 290X
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 329,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GTX 780
			</td>
		</tr>
		<tr>
			<td>
				US$ 329,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GTX 970
			</td>
		</tr>
		<tr>
			<td>
				US$ 339,95
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GTX 760
			</td>
		</tr>
		<tr>
			<td>
				US$ 466,72
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GTX 770
			</td>
		</tr>
		<tr>
			<td>
				US$ 549,99
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GTX 980
			</td>
		</tr>
		<tr>
			<td>
				US$ 689,99
			</td>
			<td>
				Radeon R9 295X2
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				US$ 752,47
			</td>
			<td>
				 
			</td>
			<td>
				GeForce GTX 780 Ti
			</td>
		</tr>
	</tbody>
</table>

<p>
	Para saber as especificações técnicas detalhadas das placas de vídeo listadas, veja nossos tutoriais “<a href="https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-dos-chips-geforce-da-nvidia-desktop-r34106/" rel="" target="_blank">Tabela comparativa dos chips GeForce da NVIDIA (desktop)</a>” e “<a href="https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-dos-chips-radeon-da-amd-desktop-r34108/" rel="" target="_blank">Tabela comparativa dos chips Radeon da AMD (desktop)</a>”. Especificações técnicas foram indicadas na tabela acima apenas quando há mais de uma placa de vídeo com o mesmo nome porém com especificações técnicas significativamente diferentes.
</p>
]]></description><guid isPermaLink="false">36437</guid><pubDate>Fri, 30 Jan 2015 10:57:00 +0000</pubDate></item><item><title>Como instalar e configurar uma placa de v&#xED;deo PhysX dedicada</title><link>https://www.clubedohardware.com.br/artigos/video/como-instalar-e-configurar-uma-placa-de-v%C3%ADdeo-physx-dedicada-r36189/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_6gl4bp6gl4bp6gl4.jpg.97c5c23d2666dc1da6b9dea56353c22b.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	Ao comprar uma placa de vídeo nova diferente da sua placa de vídeo atual, normalmente você tem duas opções: vender a placa de vídeo antiga ou deixá-la criando poeira dentro do armário. Se a sua placa de vídeo antiga e nova usarem um processador gráfico da NVIDIA, existe uma terceira possibilidade: instalar e configurar a placa de vídeo antiga como um processador PhysX dedicado. Vamos ver como isto é feito.
</p>

<p>
	O PhysX é uma tecnologia para cálculos físicos da NVIDIA. Com jogos que usam esta tecnologia e uma placa de vídeo com um processador gráfico da NVIDIA instalada, você poderá habilitá-la para criar uma experiência mais realística dentro do jogo. No entanto, apesar de esta tecnologia aumentar o realismo do jogo, ela também diminui o seu desempenho geral. Ao instalar uma placa de vídeo dedicada para estes cálculos, você poderá aumentar o nível de detalhe PhysX de seu jogo sem que haja uma queda no número de quadros por segundo gerados.
</p>

<p>
	Para que a sua placa de vídeo PhysX dedicada seja usada, você deverá configurar o sistema corretamente (ver próxima página), usar um jogo baseado no PhysX e habilitar a aceleração por hardware do PhysX no painel de controle do jogo. Além disso, a sua nova placa de vídeo deverá ser instalada como a placa de vídeo primária e a placa de vídeo antiga (aquela que será configurada como um processador PhysX dedicado) deverá ser movida para o segundo (ou terceiro, se você tiver uma configuração SLI) slot PCI Express x16. Você poderá utilizar uma placa de vídeo PhysX dedicada juntamente com duas ou três placas de vídeo no modo SLI sem problemas.
</p>

<p>
	Existem alguns pontos negativos em se ter uma placa de vídeo PhysX dedicada, o principal sendo o consumo de energia. O consumo geral de energia do seu computador aumentará mesmo quando você não estiver jogando, já que você terá outra placa de vídeo instalada em seu computador. O segundo problema é que a placa de vídeo PhysX dedicada será usada somente em jogos baseados na tecnologia PhysX e, portanto, apenas alguns jogos utilizarão esta placa de vídeo adicional.
</p>

<p>
	Vamos ver como configurar a placa de vídeo PhysX dedicada.
</p>

<p>
	[pagination="Configuração"]
</p>

<p>
	Configurar uma placa de vídeo para ser um processador PhysX dedicado é muito fácil. Dê um clique duplo na logomarca da NVIDIA que aparece ao lado do relógio do Windows e clique no link “Configurar Surround, PhysX” presente no painel esquerdo. A janela mostrada na Figura 1 aparecerá. Nesta janela, abaixo de “Configurações PhysX”, “Processador”,  selecione a placa de vídeo que será o processador PhysX dedicado. Em nosso caso, uma GeForce GTX 670 é a nossa placa de vídeo principal e desejamos configurar uma GeForce GTX 260 como um processador PhysX dedicado.
</p>

<p style="text-align: center;">
	<img alt="Configuração do PhysX" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/physx-1-port.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Configuração do PhysX
</p>

<p>
	Após selecionar a placa de vídeo, marque a caixa “Dedicar ao PhysX”, como mostra a Figura 2. Clique no botão “Aplicar” e a configuração estará pronta.
</p>

<p style="text-align: center;">
	<img alt="Configuração do PhysX" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/physx-2-port.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> Configuração do PhysX
</p>

<p>
	Agora você tem a sua placa de vídeo PhysX configurada corretamente. O próximo passo é habilitar a aceleração de hardware do PhysX dentro do seu jogo, que é feita através do painel de controle do próprio jogo.
</p>
]]></description><guid isPermaLink="false">36189</guid><pubDate>Wed, 17 Apr 2013 15:57:00 +0000</pubDate></item><item><title>Teste da tecnologia Virtu Universal MVP</title><link>https://www.clubedohardware.com.br/artigos/video/teste-da-tecnologia-virtu-universal-mvp-r35968/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_7579p27579p27579.jpg.a647b69be842b48bf8d52340bfa11ec5.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	O Virtu Universal MVP é uma tecnologia baseada em software que está disponível na maioria das placas-mãe baseadas no chipset Intel Z77. Ela oferece dois benefícios, um relacionado à qualidade de imagem e outro relacionado ao desempenho.
</p>

<p>
	Quando um jogo não limita a quantidade de quadros por segundo que a placa de vídeo gera para coincidir com a taxa de atualização do monitor (ou se esta limitação, chamada VSync, foi desabilitada pelo usuário), problemas na imagem, popularmente conhecidas na comunidade de jogos como “artefatos” podem ser gerados na tela. Isto acontece porque enquanto o monitor ainda está desenhando o quadro atual, a placa de vídeo já está enviando a informação do quadro seguinte, e o monitor pode concluir o desenho do quadro atual com informações do quadro seguinte, fazendo com que a imagem fique “quebrada”.  Limitar a quantidade de quadros por segundo que a placa de vídeo gera resolve este problema, mas limita o desempenho do jogo, e os usuários podem perceber que o jogo ficou lento.
</p>

<p>
	A tecnologia Virtu Universal MVP implementa uma tecnologia chamada “Virtual-VSync” que resolve esse problema. Ela permite que a placa de vídeo gere quantos quadros ela puder, mas evitando problemas de “artefatos” na tela.
</p>

<p>
	A tecnologia Virtu Universal MVP também permite ao usuário combinar o vídeo integrado no processador com uma placa de vídeo avulsa, aumentando assim o desempenho em jogos. Este recurso é chamado “HyperFormance”. O seu funcionamento é similar ao das tecnologias Hybrid SLI da NVIDIA e ATI Hybrid da AMD, com a notável diferença de permitir a utilização de chips gráficos e processadores de fabricantes diferentes. Neste teste nós veremos se esta tecnologia realmente funciona e qual é o ganho de desempenho com a sua utilização.
</p>

<p>
	Outros recursos da tecnologia Virtu Universal MVP podem ser <a href="http://www.lucidlogix.com/product-virtu-mvp.html" rel="external nofollow" target="_blank">encontrados aqui</a>, e uma explicação mais aprofundada de seu funcionamento pode ser encontrada <a href="http://www.lucidlogix.com/download/WP-Eliminating%20Graphics%20Pipeline%20Redundancies%20181011.pdf" rel="external nofollow" target="_blank">aqui</a> e <a href="http://www.anandtech.com/show/4795/idf-2011-lucid-announces-virtu-ultimate-mvp-featuring-hyperformance-technology" rel="external nofollow" target="_blank">aqui</a>.
</p>

<p>
	Nós medimos os efeitos da tecnologia Virtu Universal MVP usando quatro placas de vídeo com preços diferentes: <a href="https://www.clubedohardware.com.br/analises/video/teste-da-placa-de-v%C3%ADdeo-amd-radeon-hd-6570-512-mb-r35643/" rel="" target="_blank">Radeon HD 6570 com 512 MB GDDR5</a>, <a href="https://www.clubedohardware.com.br/analises/video/teste-da-placa-de-v%C3%ADdeo-amd-radeon-hd-7750-r35851/" rel="" target="_blank">Radeon HD 7750</a>, <a href="https://www.clubedohardware.com.br/analises/video/teste-da-placa-de-v%C3%ADdeo-amd-radeon-hd-7850-r35873/" rel="" target="_blank">Radeon HD 7850</a> e <a href="https://www.clubedohardware.com.br/analises/video/teste-da-placa-de-v%C3%ADdeo-amd-radeon-hd-7950-r35840/" rel="" target="_blank">Radeon HD 7950</a>. Nós rodamos quatro jogos em cada placa de vídeo, primeiro com e depois sem o driver Virtu Universal MVP instalado, para ver se havia ganho de desempenho considerável. Nós também medimos o desempenho do chip gráfico do Core i7-3770K para efeitos de comparação.
</p>

<p>
	[pagination="Como Testamos"]
</p>

<p>
	Em nossos testes de desempenho usamos a configuração listada abaixo. Entre as nossas sessões de teste o único dispositivo diferente era a placa que estava sendo testada.
</p>

<p>
	<strong>Configuração de Hardware</strong>
</p>

<ul>
	<li>
		Placa-mãe: <a href="https://www.clubedohardware.com.br/analises/placas-mae/placa-m%C3%A3e-gigabyte-z77x-ud3h-r35901/" rel="" target="_blank">Gigabyte Z77X-UD3H</a> (BIOS F8d)
	</li>
	<li>
		Processador: <a href="https://www.clubedohardware.com.br/analises/processadores/teste-dos-processadores-core-i7-3770k-vs-amd-fx-8150-e-core-i7-2600k-r35917/" rel="" target="_blank">Intel Core i7-3770K</a>
	</li>
	<li>
		Cooler: Padrão da Intel /solução de refrigeração líquida da AMD
	</li>
	<li>
		Memória: 4 GB DDR3-1866, dois módulos de memória <a href="http://www.gskill.com/products.php?index=360&amp;c1=&amp;c2=&amp;search=UmlwSmF3cw" rel="external nofollow" target="_blank">G.Skill Ripjaws XF3-14900CL9D-4GBXL</a>
	</li>
	<li>
		Disco Rígido: <a href="https://www.clubedohardware.com.br/analises/armazenamento/comparativo-de-discos-r%C3%ADgidos-de-1-tb-r35079/" rel="" target="_blank">Western Digital Black Caviar 1 TB</a> (WD1001FALS, SATA-300, 7.200 rpm, 32 MB buffer)
	</li>
	<li>
		Monitor: Samsung Syncmaster 932BW
	</li>
	<li>
		Fonte de Alimentação: <a href="https://www.clubedohardware.com.br/analises/energia/teste-da-fonte-de-alimenta%C3%A7%C3%A3o-antec-truepower-new-750-w-r35109/" rel="" target="_blank">Antec TruePower New 750 W</a>
	</li>
</ul>

<p>
	<strong>Configuração do Sistema Operacional</strong>
</p>

<ul>
	<li>
		Windows 7 Ultimate 64 bits
	</li>
	<li>
		NTFS
	</li>
	<li>
		Resolução de Vídeo: 1440x900 60 Hz
	</li>
</ul>

<p>
	<strong>Versão dos Drivers</strong>
</p>

<ul>
	<li>
		Versão do driver de vídeo AMD: Catalyst 12.4
	</li>
	<li>
		Versão do driver Intel Inf: 9.3.0.1019
	</li>
	<li>
		Versão do driver Lucid Virtu Universal MVP: 2.1.113.22180
	</li>
</ul>

<p>
	<strong>Programas Utilizados</strong>
</p>

<ul>
	<li>
		<a href="http://www.battlefield.com/battlefield3" rel="external nofollow" target="_blank">Battlefield 3</a>
	</li>
	<li>
		<a href="http://deusex.com/" rel="external nofollow" target="_blank">Deus Ex: Human Revolution</a>
	</li>
	<li>
		<a href="http://www.dirt3game.com/" rel="external nofollow" target="_blank">DiRT3</a>
	</li>
	<li>
		<a href="http://www.starcraft2.com/" rel="external nofollow" target="_blank">Starcraft II: Wings of Liberty – Patch 1.4.3</a>
	</li>
</ul>

<p>
	<strong>Margem de Erro</strong>
</p>

<p>
	Adotamos uma margem de erro de 3%. Com isso, diferenças de desempenho inferiores a 3% não podem ser consideradas significativas. Em outras palavras, produtos onde a diferença de desempenho seja inferior a 3% deverão ser considerados como tendo desempenhos similares.
</p>

<p>
	[pagination="StarCraft II: Wings of Liberty"]
</p>

<p>
	O StarCraft II: Wings of Liberty é um jogo DirectX 9 muito popular lançado em 2010. Embora ele utilize uma versão antiga do DirectX, a quantidade de texturas que pode ser apresentada na tela coloca a maioria das placas de vídeo topo de linha para trabalhar no limite. O StarCraft II: Wings of Liberty usa seu próprio motor de cálculos físicos que roda no processador da máquina.
</p>

<p>
	Nós testamos este jogo na resolução 1440x900, com as configurações de textura e qualidade de imagem em “Ultra”. Nós usamos o <a href="http://www.fraps.com/" rel="external nofollow" target="_blank">FRAPS</a> para coletar a quantidade de quadros por segundo rodando um jogo pré-gravado no mapa “Unit Testing”.
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/Virtu_StarCraft.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>Starcraft II: Wings of Liberty</strong>
			</td>
			<td>
				<strong>1440x900</strong>
			</td>
			<td>
				<strong>Diferença</strong>
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7950 (MVP)
			</td>
			<td>
				170,4
			</td>
			<td>
				13%
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7950
			</td>
			<td>
				150,7
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7850 (MVP)
			</td>
			<td>
				141,8
			</td>
			<td>
				9%
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7850
			</td>
			<td>
				130,6
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7750 (MVP)
			</td>
			<td>
				77,8
			</td>
			<td>
				10%
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7750
			</td>
			<td>
				70,6
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Core i7-3770K
			</td>
			<td>
				42,2
			</td>
			<td>
				 
			</td>
		</tr>
	</tbody>
</table>

<p>
	[pagination="Deus Ex: Human Revolution"]
</p>

<p>
	Deus Ex: Human Revolution é um jogo DirectX 11. Nós usamos a introdução do jogo para medirmos a quantidade de quadros por segundo gerada, usando o utilitário <a href="http://www.fraps.com/" rel="external nofollow" target="_blank">FRAPS</a>. Nós rodamos a introdução na resolução 1440x900, configurando todas as opções de qualidade de imagem em seus valores máximos.
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/Virtu_DeusEx.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>Deus Ex: Human Revolution</strong>
			</td>
			<td>
				<strong>1440x900</strong>
			</td>
			<td>
				<strong>Diferença</strong>
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7950 (MVP)
			</td>
			<td>
				168,9
			</td>
			<td>
				12%
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7950
			</td>
			<td>
				151,4
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7850 (MVP)
			</td>
			<td>
				131,2
			</td>
			<td>
				8%
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7850
			</td>
			<td>
				121,5
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7750 (MVP)
			</td>
			<td>
				89,3
			</td>
			<td>
				8%
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7750
			</td>
			<td>
				82,4
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Core i7-3770K
			</td>
			<td>
				41,7
			</td>
			<td>
				 
			</td>
		</tr>
	</tbody>
</table>

<p>
	[pagination="DiRT3"]
</p>

<p>
	O DiRT3 é outro jogo DirectX 11. Nós medimos o desempenho rodando uma corrida e depois reproduzindo a mesma corrida medindo a quantidade de quadros por segundo com o utilitário <a href="http://www.fraps.com/" rel="external nofollow" target="_blank">FRAPS</a>. Nós rodamos este jogo na resolução 1440x900, com todas as configurações de qualidade de imagem em seus valores máximos.
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/Virtu_DiRT3.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>DiRT3</strong>
			</td>
			<td>
				<strong>1440x900</strong>
			</td>
			<td>
				<strong>Diferença</strong>
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7950 (MVP)
			</td>
			<td>
				221,6
			</td>
			<td>
				10%
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7950
			</td>
			<td>
				201,1
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7850 (MVP)
			</td>
			<td>
				193,8
			</td>
			<td>
				7%
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7850
			</td>
			<td>
				180,9
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7750 (MVP)
			</td>
			<td>
				109,7
			</td>
			<td>
				8%
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7750
			</td>
			<td>
				101,6
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Core i7-3770K
			</td>
			<td>
				52,6
			</td>
			<td>
				 
			</td>
		</tr>
	</tbody>
</table>

<p>
	[pagination="Battlefield 3"]
</p>

<p>
	O Battlefield 3 é o mais novo capítulo da série Battlefield lançado em 2011, e é baseado no motor Frostbite 2, que é DirectX 11. Para medir o desempenho usando este jogo, nós jogamos a primeira metade da missão “Operation Swordbreaker”, medindo a quantidade de quatros por segundo usando o <a href="http://www.fraps.com/" rel="external nofollow" target="_blank">FRAPS</a>. Nós rodamos este jogo na resolução 1440x900, com todas as configurações de qualidade de imagem definidas em “high”, suavização de serrilhado em “2x MSAA” e filtragem anisotrópica em “8x.”
</p>

<p>
	 
</p>

<div style="text-align: center">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/Virtu_Battlefield.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</div>

<p>
	 
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>Battlefield 3</strong>
			</td>
			<td>
				<strong>1440x900</strong>
			</td>
			<td>
				<strong>Diferença</strong>
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7950 (MVP)
			</td>
			<td>
				79,4
			</td>
			<td>
				9%
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7950
			</td>
			<td>
				72,9
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7850 (MVP)
			</td>
			<td>
				69,2
			</td>
			<td>
				10%
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7850
			</td>
			<td>
				62,9
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7750 (MVP)
			</td>
			<td>
				47,6
			</td>
			<td>
				9%
			</td>
		</tr>
		<tr>
			<td>
				AMD Radeon HD 7750
			</td>
			<td>
				43,6
			</td>
			<td>
				 
			</td>
		</tr>
		<tr>
			<td>
				Core i7-3770K
			</td>
			<td>
				20,3
			</td>
			<td>
				 
			</td>
		</tr>
	</tbody>
</table>

<p>
	[pagination="Conclusões"]
</p>

<p>
	Nós tivemos um problema quando fizemos este teste da primeira vez, pois os nossos resultados não mostraram ganho de desempenho com a tecnologia Virtu MVP em placas de vídeo usando chips gráficos da AMD. A Lucid, desenvolvedora da tecnologia Virtu, entrou em contato conosco dizendo que o driver 2.1.110 que nós estávamos usando e que veio no CD da placa-mãe tinha um problema e não funcionava corretamente com o driver Catalyst 12.4 da AMD. Eles nos enviaram um novo driver, o 2.1.113, que corrige o problema.
</p>

<p>
	Com o novo driver 2.1.113 instalado, nós finalmente vimos aumento de desempenho com a tecnologia Virtu Universal MVP. O ganho de desempenho em nossas placas de vídeo ficou entre 7% e 12%, o que é ótimo, já que a tecnologia Virtu Universal MVP é um recurso que pode vir na placa-mãe de graça e não vemos motivos para não habilitá-la. Além disso, com o recurso “Virtual-Vsync” você pode obter a quantidade máxima de quadros por segundo que a sua placa de vídeo é capaz de gerar sem problemas de “artefatos” na imagem.
</p>

<p>
	Há um grande porém: <a href="http://www.lucidlogix.com/driverdownloads-mvp.html" rel="external nofollow" target="_blank">você tem de fazer o download da última versão do driver no site da Lucid</a>. Se você usar o driver que vem com a placa-mãe, você poderá não ter ganho de desempenho.
</p>

<p>
	A propósito, no 3DMark 11, os resultados com o Virtu Universal MVP aumentaram em até 46%, mas esses valores não estão corretos, <a href="http://www.3dmark.com/support/troubleshooting-my-results/lucidlogix-virtu-mvp-and-3dmark/" rel="external nofollow" target="_blank">como explicado no site da Futuremark</a>.
</p>
]]></description><guid isPermaLink="false">35968</guid><pubDate>Fri, 15 Jun 2012 17:24:00 +0000</pubDate></item><item><title>Introdu&#xE7;&#xE3;o &#xE0; tecnologia de autoatualiza&#xE7;&#xE3;o de tela</title><link>https://www.clubedohardware.com.br/artigos/video/introdu%C3%A7%C3%A3o-%C3%A0-tecnologia-de-autoatualiza%C3%A7%C3%A3o-de-tela-r35743/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_w7h9fqw7h9fqw7h9.jpg.48f51871d21c6fb1991ef6e07e8d669b.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	Os fabricantes estão sempre buscando formas inovadoras de economizar energia em notebooks. Com a interface DisplayPort 1.3 integrada (eDP 1.3), a VESA, associação responsável pela interface de vídeo DisplayPort, está propondo uma nova tecnologia, a Panel Self Refresh (PSR) ou Autoatualização de tela.
</p>

<p>
	O processador de vídeo precisa enviar o sinal de vídeo para o monitor a uma taxa constante. Esta taxa, conhecida como taxa de atualização, “refresh rate”, ou frequência vertical, é de pelo menos 60 Hz, o que significa que o processador de vídeo tem que enviar para o monitor o conteúdo da tela pelo menos 60 vezes por segundo, mesmo que não haja modificação na imagem.
</p>

<p>
	A ideia por trás da tecnologia de autoatualização de tela é desligar o processador de vídeo e os circuitos associados quando a imagem for estática – por exemplo, quando você estiver lendo um arquivo PDF. O monitor passa a ter uma memória de vídeo para armazenar o conteúdo da última tela. O computador desliga todos os circuitos de vídeo e o monitor repete o conteúdo da última atualização até que haja uma modificação no conteúdo da tela (por exemplo, você “rolou” a página do documento que estava lendo para cima ou para baixo).
</p>

<p>
	Quando a tecnologia de autoatualização de tela é usada, o circuito de vídeo dentro do processador pode ser desligado, fazendo com que o notebook economize aproximadamente 50% de energia. A interface DisplayPort, que é usada na comunicação entre o computador e o monitor LCD, também pode ser desligada, o que resulta em uma economia adicional de 25%. Há alguma economia de energia também na memória RAM, já que em micros com vídeo integrado, que normalmente é o caso de notebooks, parte da memória RAM é usada como memória de vídeo, e quando a tecnologia de autoatualização de tela é usada, a memória RAM não precisa ser acessada pelo processador de vídeo, o que resulta em uma economia de energia adicional de 10%. No total, a tecnologia de autoatualização de tela pode fazer com que o notebook economize até 85% de energia quando ela estiver em uso.
</p>

<p>
	É importante entender que isto não significa que a autonomia da bateria aumentará 85%. Essa economia só ocorrerá quando o micro estiver ocioso e o monitor vídeo não estiver sendo atualizado. Quando o monitor precisa ser atualizado (por exemplo, você está assistindo a um vídeo), esta tecnologia não é usada, e o notebook terá o mesmo consumo de energia de antes. De qualquer forma, o uso desta tecnologia deve aumentar a autonomia da bateria entre 45 minutos e uma hora.
</p>

<p>
	Além disso, como agora o monitor tem uma pequena quantidade de memória RAM para armazenar o conteúdo da imagem que está sendo exibida, ele na verdade passa a consumir um pouco mais de energia quando esta tecnologia estiver em uso, mas o aumento no consumo é compensado pela economia de energia geral do micro. Quando esta tecnologia não estiver sendo usada, o monitor desliga a sua memória RAM para economizar energia. A propósito, os fabricantes não utilizarão chips de memória RAM para esta função; esta funcionalidade estará integrada no chip controlador de temporização (TCON), que é responsável por decodificar o sinal DisplayPort e enviar o sinal decodificado para os demais circuitos do monitor.
</p>

<p>
	Vamos agora falar em mais detalhes de como a tecnologia de autoatualização de tela funciona.
</p>

<p>
	[pagination="Por Dentro da Tecnologia de Autoatualização de Tela"]
</p>

<p>
	A tecnologia de autoatualização de tela funciona usando um novo comando DisplayPort “capture static frame” (“captura de quadro estático”). Quando este comando é enviado pelo processador de vídeo, o monitor pega a última imagem (quadro) enviada e a armazena em sua memória RAM. Feito isso, o link principal do DisplayPort é desligado e o modo de autoatualização de tela é habilitado.
</p>

<p>
	Para sair do modo de autoatualização de tela, outro comando é enviado pelo link DisplayPort auxiliar (AUX). Após um curto período de sincronização, que dura alguns milissegundos, a tela estará pronta para receber novas imagens (quadros), e o micro estará funcionando como antes de entrar no modo de autoatualização de tela.
</p>

<p>
	Nas Figuras 1 e 2 você pode ver um micro suportando a tecnologia de autoatualização de tela. Na Figura 1, o micro está funcionando normalmente, enquanto que na Figura 2, o micro e entrou no modo de autoatualização de tela. Os blocos em preto são desligados para economizar energia.
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/psr_01.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1</strong>: Tecnologia de autoatualização de tela desligada
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/psr_02.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2</strong>: Tecnologia de autoatualização de tela em funcionamento
</p>
]]></description><guid isPermaLink="false">35743</guid><pubDate>Fri, 16 Sep 2011 16:16:00 +0000</pubDate></item><item><title>Tabela comparativa dos chips da Intel com v&#xED;deo integrado</title><link>https://www.clubedohardware.com.br/artigos/video/tabela-comparativa-dos-chips-da-intel-com-v%C3%ADdeo-integrado-r35482/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_f97avcf97avcf97a.jpg.b01ade98ee370c0c2f3b9388ff5f2a77.jpg" /></p>
<p>
	Nós compilamos essas tabelas de referência rápida para ajudá-lo a comparar as principais especificações dos motores 3D de diferentes chipsets e processadores da Intel com vídeo integrado (“on-board”).
</p>

<p>
	Células marcadas com um ponto de interrogação indicam que não tínhamos a informação em referência. Se você souber ou caso encontre algum erro ou omissão, por favor, entre em contato conosco através do link “Comentários”.
</p>

<p>
	Motores gráficos direcionados a computadores móveis normalmente têm mais de um clock e o clock usado depende do balanço entre desempenho e duração de bateria que o usuário configurar. Em alguns poucos casos o clock do motor gráfico é limitado pelo barramento externo do processador e pelo tipo de memória instalada.
</p>

<p>
	Em processadores para computadores móveis com vídeo integrado, o clock do motor gráfico varia de acordo com a carga e a dissipação térmica do processador. Esses processadores têm clock mínimo (clock base do motor gráfico) e um clock máximo.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>Chipset / Processador</strong>
			</td>
			<td>
				<strong>Mercado</strong>
			</td>
			<td>
				<strong>Motor</strong>
			</td>
			<td>
				<strong>Clock</strong>
			</td>
			<td>
				<strong>Motores de Pixel</strong>
			</td>
			<td>
				<strong>Motores de Vértice</strong>
			</td>
			<td>
				<strong>DirectX</strong>
			</td>
		</tr>
		<tr>
			<td>
				i810
			</td>
			<td>
				Desktop
			</td>
			<td>
				i740
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
		</tr>
		<tr>
			<td>
				852GM
			</td>
			<td>
				Móvel
			</td>
			<td>
				?
			</td>
			<td>
				133 MHz
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
		</tr>
		<tr>
			<td>
				852GME
			</td>
			<td>
				Móvel
			</td>
			<td>
				?
			</td>
			<td>
				100, 133, 200, 250 ou 266 MHz
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
		</tr>
		<tr>
			<td>
				852GMV
			</td>
			<td>
				Móvel
			</td>
			<td>
				?
			</td>
			<td>
				133 MHz
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
		</tr>
		<tr>
			<td>
				855GM
			</td>
			<td>
				Móvel
			</td>
			<td>
				?
			</td>
			<td>
				100, 133 ou 200 MHz
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
		</tr>
		<tr>
			<td>
				855GME
			</td>
			<td>
				Móvel
			</td>
			<td>
				?
			</td>
			<td>
				100, 133 ou 200 MHz
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
		</tr>
		<tr>
			<td>
				865G
			</td>
			<td>
				Desktop
			</td>
			<td>
				?
			</td>
			<td>
				266 MHz
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
		</tr>
		<tr>
			<td>
				865GV
			</td>
			<td>
				Desktop
			</td>
			<td>
				?
			</td>
			<td>
				266 MHz
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
			<td>
				?
			</td>
		</tr>
		<tr>
			<td>
				910GL
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 900
			</td>
			<td>
				333 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				910GML
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 900
			</td>
			<td>
				133 ou 160/166 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				910GMLE
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 900
			</td>
			<td>
				133 ou 160/166 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				915G
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 900
			</td>
			<td>
				333 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				915GL
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 900
			</td>
			<td>
				333 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				915GM
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 900
			</td>
			<td>
				133, 160/166, 190/200 ou 333 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				915GME
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 900
			</td>
			<td>
				133, 160/166 ou 333 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				915GMS
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 900
			</td>
			<td>
				133 ou 160 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				915GV
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 900
			</td>
			<td>
				333 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				940GML
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 950
			</td>
			<td>
				166 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				943GML
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 950
			</td>
			<td>
				200 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				945G
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 950
			</td>
			<td>
				400 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				945GC
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 950
			</td>
			<td>
				400 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				945GM
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 950
			</td>
			<td>
				250 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				945GME
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 950
			</td>
			<td>
				250 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				945GMS
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 950
			</td>
			<td>
				166 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				945GSE
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 950
			</td>
			<td>
				166 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				945GT
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 950
			</td>
			<td>
				400 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				945GU
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 950
			</td>
			<td>
				133 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				945GZ
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 950
			</td>
			<td>
				400 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				946GZ
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 3000
			</td>
			<td>
				400 MHz
			</td>
			<td>
				4
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				GL960
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA X3100
			</td>
			<td>
				267, 320 ou 400 MHz
			</td>
			<td>
				8
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				GLE960
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA X3100
			</td>
			<td>
				267, 320 ou 400 MHz
			</td>
			<td>
				8
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Q963
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 3000
			</td>
			<td>
				400 MHz
			</td>
			<td>
				8
			</td>
			<td>
				0
			</td>
			<td>
				9.0c
			</td>
		</tr>
		<tr>
			<td>
				Q965
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 3000
			</td>
			<td>
				400 MHz
			</td>
			<td>
				8
			</td>
			<td>
				0
			</td>
			<td>
				9.0c
			</td>
		</tr>
		<tr>
			<td>
				G965
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA X3000
			</td>
			<td>
				667 MHz
			</td>
			<td>
				8
			</td>
			<td>
				Unificado
			</td>
			<td>
				9.0c
			</td>
		</tr>
		<tr>
			<td>
				GM965
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA X3100
			</td>
			<td>
				Ver Tabela 2
			</td>
			<td>
				8
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				GME965
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA X3100
			</td>
			<td>
				Ver Tabela 2
			</td>
			<td>
				8
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				G31
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 3100
			</td>
			<td>
				400 MHz
			</td>
			<td>
				2
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				G33
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 3100
			</td>
			<td>
				400 MHz
			</td>
			<td>
				2
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				Q33
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 3100
			</td>
			<td>
				400 MHz
			</td>
			<td>
				2
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				G35
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA X3500
			</td>
			<td>
				667 MHz
			</td>
			<td>
				8
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Q35
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 3100
			</td>
			<td>
				400 MHz
			</td>
			<td>
				2
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				GL40
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 4500MHD
			</td>
			<td>
				400 MHz
			</td>
			<td>
				10
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				GS40
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 4500MHD
			</td>
			<td>
				400 MHz
			</td>
			<td>
				10
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				G41
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA X4500
			</td>
			<td>
				800 MHz
			</td>
			<td>
				10
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				B43
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 4500
			</td>
			<td>
				400 MHz
			</td>
			<td>
				10
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				G43
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA X4500
			</td>
			<td>
				800 MHz
			</td>
			<td>
				10
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Q43
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 4500
			</td>
			<td>
				400 MHz
			</td>
			<td>
				10
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				G45
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA X4500
			</td>
			<td>
				800 MHz
			</td>
			<td>
				10
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				GM45
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 4500MHD
			</td>
			<td>
				500 ou 533 MHz
			</td>
			<td>
				10
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				GS45
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 4500MHD
			</td>
			<td>
				Ver Tabela 3
			</td>
			<td>
				10
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Q45
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA 4500
			</td>
			<td>
				400 MHz
			</td>
			<td>
				10
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Atom D410
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 3150
			</td>
			<td>
				400 MHz
			</td>
			<td>
				2
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				Atom D510
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 3150
			</td>
			<td>
				400 MHz
			</td>
			<td>
				2
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				Atom N4xx
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 3150
			</td>
			<td>
				200 MHz
			</td>
			<td>
				2
			</td>
			<td>
				0
			</td>
			<td>
				9.0
			</td>
		</tr>
		<tr>
			<td>
				Atom Z6xx
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 600
			</td>
			<td>
				400 MHz
			</td>
			<td>
				4
			</td>
			<td>
				Unificado
			</td>
			<td>
				9.0c
			</td>
		</tr>
		<tr>
			<td>
				UL11L
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 500
			</td>
			<td>
				100 MHz
			</td>
			<td>
				4
			</td>
			<td>
				Unificado
			</td>
			<td>
				9.0c
			</td>
		</tr>
		<tr>
			<td>
				US15L
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 500
			</td>
			<td>
				200 MHz
			</td>
			<td>
				4
			</td>
			<td>
				Unificado
			</td>
			<td>
				9.0c
			</td>
		</tr>
		<tr>
			<td>
				US15W
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA 500
			</td>
			<td>
				200 MHz
			</td>
			<td>
				4
			</td>
			<td>
				Unificado
			</td>
			<td>
				9.0c
			</td>
		</tr>
		<tr>
			<td>
				Pentium G6950
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA HD
			</td>
			<td>
				533 MHz
			</td>
			<td>
				12
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Core i3-xxxE
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA HD
			</td>
			<td>
				De 500 a 667 MHz
			</td>
			<td>
				12
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Core i3-xxxM
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA HD
			</td>
			<td>
				De 500 a 667 MHz
			</td>
			<td>
				12
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Core i3-xxxUM
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA HD
			</td>
			<td>
				De 166 a 500 MHz
			</td>
			<td>
				12
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Core i3-5xx
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA HD
			</td>
			<td>
				733 MHz
			</td>
			<td>
				12
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Core i5-xxxM, 450M
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA HD
			</td>
			<td>
				De 500 a 766 MHz
			</td>
			<td>
				12
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Core i5-xxxUM
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA HD
			</td>
			<td>
				De 166 a 500 MHz
			</td>
			<td>
				12
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Core i5-6x0
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA HD
			</td>
			<td>
				733 MHz
			</td>
			<td>
				12
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Core i5-6x1
			</td>
			<td>
				Desktop
			</td>
			<td>
				GMA HD
			</td>
			<td>
				900 MHz
			</td>
			<td>
				12
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Core i7-6xxE
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA HD
			</td>
			<td>
				De 500 a 766 MHz
			</td>
			<td>
				12
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Core i7-6xxLM
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA HD
			</td>
			<td>
				De 266 a 566 MHz
			</td>
			<td>
				12
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Core i7-6xxM
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA HD
			</td>
			<td>
				De 500 a 766 MHz
			</td>
			<td>
				12
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
		<tr>
			<td>
				Core i7-6xxUM
			</td>
			<td>
				Móvel
			</td>
			<td>
				GMA HD
			</td>
			<td>
				De 166 a 500 MHz
			</td>
			<td>
				12
			</td>
			<td>
				Unificado
			</td>
			<td>
				10
			</td>
		</tr>
	</tbody>
</table>

<p>
	 
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>Clock Externo (FSB)</strong>
			</td>
			<td>
				<strong>Memória</strong>
			</td>
			<td>
				<strong>GM965 e GME965</strong>
			</td>
		</tr>
		<tr>
			<td>
				533 MHz
			</td>
			<td>
				DDR2-533
			</td>
			<td>
				267, 320 ou 400 MHz
			</td>
		</tr>
		<tr>
			<td>
				667 MHz
			</td>
			<td>
				DDR2-533
			</td>
			<td>
				267 ou 333 MHz
			</td>
		</tr>
		<tr>
			<td>
				667 MHz
			</td>
			<td>
				DDR2-667
			</td>
			<td>
				250, 333, 400 ou 500 MHz
			</td>
		</tr>
		<tr>
			<td>
				800 MHz
			</td>
			<td>
				DDR2-533
			</td>
			<td>
				267, 320 ou 400 MHz
			</td>
		</tr>
		<tr>
			<td>
				800 MHz
			</td>
			<td>
				DDR2-667
			</td>
			<td>
				250, 333, 400 ou 500 MHz
			</td>
		</tr>
	</tbody>
</table>

<p>
	 
</p>

<p>
	 
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>Clock Externo (FSB)</strong>
			</td>
			<td>
				<strong>Memória</strong>
			</td>
			<td>
				<strong>GS45</strong>
			</td>
		</tr>
		<tr>
			<td>
				800 MHz
			</td>
			<td>
				667 MHz
			</td>
			<td>
				333 ou 500 MHz
			</td>
		</tr>
		<tr>
			<td>
				800 MHz
			</td>
			<td>
				800 MHz
			</td>
			<td>
				320 ou 533 MHz
			</td>
		</tr>
		<tr>
			<td>
				1,066 MHz
			</td>
			<td>
				667, 800 ou 1,066 MHz
			</td>
			<td>
				533 MHz
			</td>
		</tr>
	</tbody>
</table>

<p>
	 
</p>
]]></description><guid isPermaLink="false">35482</guid><pubDate>Tue, 12 Oct 2010 23:15:00 +0000</pubDate></item><item><title>Encontrado o melhor desempenho por Watt para o Folding@Home</title><link>https://www.clubedohardware.com.br/artigos/video/encontrado-o-melhor-desempenho-por-watt-para-o-foldinghome-r34992/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_8o5jcr8o5jcr8o5j.jpg.b7647e80f073c9d520c15d2b3ec5fab9.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	Nós ficamos tão empolgados em participar do <a href="http://folding.stanford.edu/" rel="external nofollow" target="_blank">http://folding.stanford.edu/</a> que montamos alguns micros de alto desempenho para rodar tanto clientes SMP quanto GPU. Nós estávamos muito felizes com os resultados até que a conta de luz do laboratório chegou: nosso consumo de energia mais do que dobrou – e os computadores nem estavam funcionando 24 horas por dia durante todos os dias do mês! Como queríamos contribuir com o projeto Folding@Home, nós começamos a questionar se haveria uma maneira de obter uma alta pontuação no Folding@Home e, ao mesmo tempo, não irmos à falência por causa da conta de luz. Nós testamos todas as placas de vídeo disponíveis em nosso laboratório para ver qual delas oferece a melhor relação desempenho/consumo. Confira.
</p>

<p>
	Se você não conhece o projeto Folding@Home, saiba que ele é patrocinado pela Universidade de Stanford para a utilização de computadores pelo mundo para fazer simulações de enovelamento de proteínas com o objetivo de descobrir a cura de várias doenças. Você pode colaborar com o projeto instalando um cliente do programa em seu computador e, quando o mesmo ficar ocioso, o programa cliente automaticamente faz o download, calcula e envia os resultados de volta para a Universidade de Stanford. Desta forma eles podem ter o maior supercomputador do mundo (feito com a colaboração de todos os participantes no projeto) sem gastar um tostão.
</p>

<p>
	Se você quiser colaborar mais, você pode instalar e rodar programas clientes de alto desempenho, como o cliente SMP (que reconhece mais de um processador ou mais de um núcleo de processador; a versão padrão do programa cliente reconhece apenas um núcleo de processamento) e o cliente GPU (que usa o chip gráfico da placa de vídeo para fazer os cálculos, uma técnica chamada GPGPU, ou General Purpose Graphics Processing Unit ou Unidade de Processamento Gráfico de Uso Geral). Esses programas clientes completarão os cálculos mais rapidamente, mas em contrapartida, o consumo de energia será maior, resultando em um aumento em sua conta de luz. Encontrar o equilíbrio “perfeito” entre desempenho e consumo de energia é o objetivo deste artigo.
</p>

<p>
	Para cada trabalho concluído que você envia para a universidade você recebe determinada pontuação. A quantidade de pontos dependerá do tipo de programa cliente que você tem instalado (padrão, SMP, GPU, etc) e o tipo de trabalho que você está processando. A quantidade de pontos que você recebe será nossa métrica para o desempenho, já que a maioria das pessoas que participa do Folding@Home em times (<a href="http://kakaostats.com/t.php?t=148894" rel="external nofollow" target="_blank">como o nosso</a>) está interessada em obter a maior pontuação possível.
</p>

<p>
	Agora vamos mostrar a você os sistemas que montamos para colaborar com o projeto, seus desempenhos (ou seja, a quantidade de pontos que eles obtiveram) e seus consumos de energia. Com esses dados você pode ter uma ideia do quanto estamos gastando para mantê-los ligados 24 horas por dia, 30 dias por mês. Nós investigaremos como reduzir o consumo e, ao mesmo tempo, manter uma boa pontuação.
</p>

<p>
	Mas antes de apresentarmos os números, você precisa entender mais sobre o consumo de energia. Nós medimos o consumo com um wattímetro digital, que apresenta os resultados em watts. Com este instrumento nós medimos o consumo CA de nosso micro, que não é o quanto o micro estava extraindo da fonte de alimentação, já que a fonte em si consome e desperdiça energia. A relação entre a energia que o micro está consumindo da fonte de alimentação e a energia que a fonte está na verdade extraindo da rede elétrica é chamada eficiência.
</p>

<p>
	Quanto maior a eficiência, melhor, já que você gastará menos energia. Por exemplo, se um determinado micro está consumindo 200 W da rede elétrica, isto significa que o micro todo está consumindo 200 W (e sua conta de luz será calculada com base neste valor), mas os componentes que estão conectados na fonte de alimentação estarão consumindo menos do que este valor. Se pegarmos uma fonte de alimentação com eficiência típica de 80%, os componentes estariam consumindo 160 W.
</p>

<p>
	Suponha que você troque sua fonte com eficiência de 80% por outra com eficiência de 88%. Seu micro ainda estará consumindo 160 W da fonte de alimentação, mas sua nova fonte estará extraindo menos da rede elétrica: 182 W.
</p>

<p>
	Portando logo de cara uma das maneiras de economizar na conta de energia é substituir sua ponte por outra com eficiência maior. Uma maneira de descobrir a eficiência da sua fonte <a href="https://www.clubedohardware.com.br/artigos/energia/tudo-o-que-voc%C3%AA-precisa-saber-sobre-fontes-de-alimenta%C3%A7%C3%A3o-r34441/" rel="" target="_blank">é ler o gráfico da eficiência fornecido pelo fabricante</a>. Outra maneira é <a href="https://www.clubedohardware.com.br/artigos/energia/" rel="" target="_blank">ler nossos testes</a>, onde medimos isto.
</p>

<p>
	Watt (W) é a potência que o micro está consumindo, porém as concessionárias de energia elétrica cobram por energia consumida, que é dada em kWh (kilowatt-hora), não em W (watts). Energia é potência multiplicada por tempo. Portanto 1 kWh equivale a 1 kW (1.000 watts) consumidos durante 1 hora. Como estamos assumindo que cada máquina irá trabalhar 24 horas por dia durante todos os dias do mês, nós multiplicaremos a quantidade de watts por 0,72 (24 horas x 30 dias / 1.000; a divisão por 1.000 é necessária para converter Wh para kWh) para ter uma estimativa do consumo mensal em kWh. Feito isso basta multiplicar este número pelo custo de cada kWh para ter uma ideia do custo mensal de cada máquina trabalhando 24/7. Claro que o custo da eletricidade varia de acordo com a cidade; estamos assumindo o valor de R$ 0,47453 por kWh, que é o custo da energia no Rio de Janeiro/RJ no dia da publicação desse teste.
</p>

<p>
	No que diz respeito ao desempenho, nós medimos a quantidade que cada placa de vídeo ou processador levou para processar 1% do trabalho. Multiplicando este valor por 100, nós encontramos a quantidade de tempo que cada dispositivo levaria para processar uma unidade de trabalho inteira. Dividindo 86.400 (quantidade de segundo em um dia) deste número, nós encontramos o número máximo de unidades de trabalho que o dispositivo pode processar por dia. Como sabemos a quantidade de pontos de cada unidade de trabalho, nós descobrimos a pontuação máxima que você pode esperar do dispositivo multiplicando o número máximo de unidades de trabalho que o dispositivo pode processar por dia pelo número de pontos que cada unidade de trabalho dá. O resultado é a pontuação máxima que este dispositivo pode lhe dar por dia, e este é o número que usaremos.
</p>

<p>
	[pagination="Nossa Configuração de Alto Desempenho"]
</p>

<p>
	Abaixo você pode ver todos os sistemas que montamos para rodar o Folding@Home. Leia a página anterior para uma explicação detalhada a respeito do consumo, custo e desempenho/pontuação.
</p>

<table>
	<tbody>
		<tr>
			<td valign="top">
				<p>
					<strong>Sistema#</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Processador</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Placa de Vídeo</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Placa-mãe</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Memória</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Disco Rígido</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Fonte de Alimentação</strong>
				</p>
			</td>
		</tr>
		<tr>
			<td valign="top">
				<p>
					1
				</p>
			</td>
			<td valign="top">
				<p>
					Core 2 Extreme QX 9650 (3 GHz)
				</p>
			</td>
			<td valign="top">
				<p>
					Nenhuma
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="http://global.msi.com.tw/index.php?func=proddesc&amp;maincat_no=1&amp;cat2_no=170&amp;prod_no=1470" rel="external nofollow" target="_blank">MSI G31M3-F</a>
				</p>

				<p>
					 
				</p>
			</td>
			<td valign="top">
				<p>
					2 GB DDR2-800 Kingston KVR800D2N6/1GB
				</p>
			</td>
			<td valign="top">
				<p>
					160 GB
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="https://www.clubedohardware.com.br/analises/energia/teste-da-fonte-de-alimenta%C3%A7%C3%A3o-antec-earthwatts-500-w-r34860/" rel="" target="_blank">Antec EarthWatts 500 W</a>
				</p>
			</td>
		</tr>
		<tr>
			<td valign="top">
				<p>
					2
				</p>
			</td>
			<td valign="top">
				<p>
					Core 2 Duo E6600 (2,4 GHz)
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="https://www.clubedohardware.com.br/analises/video/teste-da-placa-de-v%C3%ADdeo-xfx-geforce-gtx-260-640m-xxx-r34933/" rel="" target="_blank">XFX GeForce GTX 260 640M XXX</a>
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="https://www.clubedohardware.com.br/analises/placas-mae/teste-da-placa-m%C3%A3e-gigabyte-ga-p35c-ds3r-r34776/" rel="" target="_blank">Gigabyte GA-P35C-DS3R</a>
				</p>

				<p>
					/&gt;
				</p>
			</td>
			<td valign="top">
				<p>
					4 GB DDR2-800 OCZ
				</p>
			</td>
			<td valign="top">
				<p>
					200 GB
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="https://www.clubedohardware.com.br/analises/energia/teste-da-fonte-de-alimenta%C3%A7%C3%A3o-pc-power-cooling-silencer-610-eps12v-r34840/" rel="" target="_blank">PC Power &amp; Cooling Silencer 610</a>
				</p>

				<p>
					/&gt;
				</p>
			</td>
		</tr>
		<tr>
			<td valign="top">
				<p>
					3
				</p>
			</td>
			<td valign="top">
				<p>
					Phenom 9600
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="https://www.clubedohardware.com.br/analises/video/teste-da-placa-de-v%C3%ADdeo-palit-geforce-9800-gt-1-gb-r34945/" rel="" target="_blank">GeForce 9800 GT 1 GB</a>
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="https://www.clubedohardware.com.br/analises/placas-mae/teste-da-placa-m%C3%A3e-sapphire-pi-am2rs780g-r34924/" rel="" target="_blank">Sapphire PI-AM2RS780G</a>
				</p>

				<p>
					/&gt;
				</p>
			</td>
			<td valign="top">
				<p>
					2 GB DDR2-800 Kingston KVR800D2N6/1GB
				</p>
			</td>
			<td valign="top">
				<p>
					500 GB
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="https://www.clubedohardware.com.br/analises/energia/teste-da-fonte-de-alimenta%C3%A7%C3%A3o-zalman-zm600-hp-r34729/" rel="" target="_blank">Zalman ZM600-HP</a>
				</p>

				<p>
					/&gt;
				</p>
			</td>
		</tr>
		<tr>
			<td valign="top">
				<p>
					4
				</p>
			</td>
			<td valign="top">
				<p>
					Phenom 9700
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="https://www.clubedohardware.com.br/analises/video/teste-da-placa-de-v%C3%ADdeo-sapphire-hd-4870-r34932/" rel="" target="_blank">Radeon HD 4870</a>
				</p>

				<p>
					<a href="https://www.clubedohardware.com.br/analises/video/teste-da-placa-de-v%C3%ADdeo-sapphire-hd-4850-r34918/" rel="" target="_blank">Radeon HD 4850</a>
				</p>

				<p>
					/&gt;
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="https://www.clubedohardware.com.br/analises/placas-mae/placa-m%C3%A3e-asus-m3a32-mvp-deluxe-wifi-ap-r34838/" rel="" target="_blank">ASUS M3A32-MVP</a>
				</p>
			</td>
			<td valign="top">
				<p>
					2 GB DDR2-800 Kingston KVR800D2N6/1GB
				</p>
			</td>
			<td valign="top">
				<p>
					500 GB
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="https://www.clubedohardware.com.br/analises/energia/teste-da-fonte-de-alimenta%C3%A7%C3%A3o-ocz-proxstream-1000-w-r34827//" rel="" target="_blank">OCZ ProXstream 1.000 W</a>
				</p>

				<p>
					/&gt;
				</p>
			</td>
		</tr>
		<tr>
			<td valign="top">
				<p>
					5
				</p>
			</td>
			<td valign="top">
				<p>
					Core 2 Extreme QX 9770 (3.2 GHz)
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="https://www.clubedohardware.com.br/analises/video/teste-da-placa-de-v%C3%ADdeo-geforce-gtx-280-r34913/" rel="" target="_blank">GeForce GTX 280</a>
				</p>

				<p>
					GeForce 8800 GT
				</p>

				<p>
					GeForce 8800 GT
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="https://www.clubedohardware.com.br/analises/placas-mae/placa-m%C3%A3e-evga-nforce-790i-ultra-sli-r34864/" rel="" target="_blank">EVGA nForce 790i Ultra</a>
				</p>

				<p>
					/&gt;
				</p>
			</td>
			<td valign="top">
				<p>
					2 GB DDR3-2000
				</p>
			</td>
			<td valign="top">
				<p>
					500 GB
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="http://www.ocztechnology.com/products/power_management/ocz_elitexstream_power_supply" rel="external nofollow" target="_blank">OCZ EliteXstream 1.000 W</a>
				</p>
			</td>
		</tr>
		<tr>
			<td valign="top">
				<p>
					6
				</p>
			</td>
			<td valign="top">
				<p>
					<a href="https://www.clubedohardware.com.br/artigos/outros/anatomia-do-playstation-3-r34967/" rel="" target="_blank">Playstation 3</a>
				</p>
			</td>
			<td valign="top">
				<p>
					/&gt;
				</p>
			</td>
			<td valign="top">
				<p>
					/&gt;
				</p>
			</td>
			<td valign="top">
				<p>
					/&gt;
				</p>
			</td>
			<td valign="top">
				<p>
					/&gt;
				</p>
			</td>
			<td valign="top">
				<p>
					/&gt;
				</p>
			</td>
		</tr>
	</tbody>
</table>

<p>
	Agora nós iremos fazer uma análise detalhada de nossos sistemas.
</p>

<p>
	[pagination="Análise do Consumo"]
</p>

<p>
	Nós medimos o consumo em três cenários. Primeiro com o sistemas rodando apenas o programa SMP cliente, depois com o programa GPU cliente, e em seguida com ambos os programas clientes ao mesmo tempo. Nós queríamos ver se faria sentido rodar ambos os programas clientes SMP e GPU ao mesmo tempo.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<p>
					<strong>Sistema#</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Cliente</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Consumo (W)</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Consumo Mensal (kWh)</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Custo Mensal (R$) *</strong>
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					1
				</p>
			</td>
			<td>
				<p>
					SMP
				</p>
			</td>
			<td>
				<p>
					121
				</p>
			</td>
			<td>
				<p>
					87,12
				</p>
			</td>
			<td>
				<p>
					R$ 41,34
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					2
				</p>
			</td>
			<td>
				<p>
					SMP
				</p>
			</td>
			<td>
				<p>
					185
				</p>
			</td>
			<td>
				<p>
					133,20
				</p>
			</td>
			<td>
				<p>
					R$ 63,20
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					2
				</p>
			</td>
			<td>
				<p>
					GPU
				</p>
			</td>
			<td>
				<p>
					228
				</p>
			</td>
			<td>
				<p>
					164,16
				</p>
			</td>
			<td>
				<p>
					R$ 77,89
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					2
				</p>
			</td>
			<td>
				<p>
					GPU + SMP
				</p>
			</td>
			<td>
				<p>
					202
				</p>
			</td>
			<td>
				<p>
					145,44
				</p>
			</td>
			<td>
				<p>
					R$ 69,01
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					3
				</p>
			</td>
			<td>
				<p>
					SMP
				</p>
			</td>
			<td>
				<p>
					196
				</p>
			</td>
			<td>
				<p>
					141,12
				</p>
			</td>
			<td>
				<p>
					R$ 66,96
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					3
				</p>
			</td>
			<td>
				<p>
					GPU
				</p>
			</td>
			<td>
				<p>
					171
				</p>
			</td>
			<td>
				<p>
					123,12
				</p>
			</td>
			<td>
				<p>
					R$ 58,42
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					3
				</p>
			</td>
			<td>
				<p>
					GPU + SMP
				</p>
			</td>
			<td>
				<p>
					213
				</p>
			</td>
			<td>
				<p>
					153,36
				</p>
			</td>
			<td>
				<p>
					R$ 72,77
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					4
				</p>
			</td>
			<td>
				<p>
					GPU
				</p>
			</td>
			<td>
				<p>
					430
				</p>
			</td>
			<td>
				<p>
					309,60
				</p>
			</td>
			<td>
				<p>
					R$ 146,91
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					5
				</p>
			</td>
			<td>
				<p>
					SMP
				</p>
			</td>
			<td>
				<p>
					335
				</p>
			</td>
			<td>
				<p>
					241,20
				</p>
			</td>
			<td>
				<p>
					R$ 114,45
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					5
				</p>
			</td>
			<td>
				<p>
					GPU
				</p>
			</td>
			<td>
				<p>
					441
				</p>
			</td>
			<td>
				<p>
					317,52
				</p>
			</td>
			<td>
				<p>
					R$ 150,67
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					5
				</p>
			</td>
			<td>
				<p>
					GPU + SMP
				</p>
			</td>
			<td>
				<p>
					468
				</p>
			</td>
			<td>
				<p>
					336,96
				</p>
			</td>
			<td>
				<p>
					R$ 159,89
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					6
				</p>
			</td>
			<td>
				<p>
					PS3
				</p>
			</td>
			<td>
				<p>
					131
				</p>
			</td>
			<td>
				<p>
					94,32
				</p>
			</td>
			<td>
				<p>
					R$ 44,75
				</p>
			</td>
		</tr>
	</tbody>
</table>

<p>
	* R$ 0,47453 por kWh rodando 24 horas por dia durante 30 dias por mês. Preço baseado no custo da energia no Rio de Janeiro/RJ na data de publicação deste teste. O custo em sua cidade poderá ser outro; consulte sua conta de luz.
</p>

<p>
	Aqui nós descobrimos alto muito curioso. Cada programa cliente GPU coloca pelo menos um dos núcleos do processador funcionando a 100%. Em processadores com dois núcleos, um dos núcleos sempre estará trabalhando a 100% (independente da quantidade de chips gráficos você tem trabalhando no Folding@Home). Em processadores com quatro núcleos, você terá um núcleo do processador por chip gráfico trabalhando a 100%. Por exemplo, com nosso processador Core 2 Duo quando iniciamos o programa cliente GPU a carga do processador foi direto para 50%, com um dos núcleos ficando ocioso e o segundo núcleo sendo usado a 100%. Por causa deste comportamento engraçado, quando nós colocamos os programas clientes SMP e GPU para rodarem ao mesmo tempo o consumo (e o desempenho) diminuiu, já que ambos os programas clientes estavam disputando o uso do processador. Em sistemas com quatro núcleos com três placas de vídeo, a utilização do processador foi de 75%, com um núcleo do processador sendo usado por chip gráfico rodando o Folding@Home.
</p>

<p>
	Note que exceto nos sistemas um e seis, todos os outros tinham uma placa de vídeo instalada e o consumo apresentado quando estavam rodando o programa cliente SMP inclui os consumos das placas de vídeo instaladas em modo ocioso.
</p>

<p>
	Veja como o Phenom 9600 executando o programa cliente SMP estava consumindo mais do que uma GeForce 9800 GT rodando o programa cliente GPU.
</p>

<p>
	Como estávamos rodando todos os sistemas com os programas clientes GPU e SMP ao mesmo tempo (exceto no micro número 4), o custo mensal estimado para essas seis máquinas funcionando foi de R$ 534,67. UI. A pontuação estimada diária foi de 30.715 pontos, com uma pontuação mensal estimada de 1.063.590 pontos.
</p>

<p>
	No sistema 1 o sistema operacional instalado era o Debian Linux 4.0 (64 bits), enquanto que nas outras máquinas o sistema operacional instalado era o Windows XP SP3 com drivers Catalyst 8.10 para placas ATI e drivers 177.84 para placas NVIDIA. [pagination="Análise do Desempenho"]
</p>

<p>
	Agora nós queríamos ver o que estávamos obtendo em termos de pontuação no Folding@Home rodando esses micros para fazermos algumas análises preliminares para vermos quais eram as configurações mais eficientes que tínhamos rodando. WU significa unidade de trabalho (Work Unit, estamos usando a mesma nomenclatura usada no Folding@Home para facilitar). Projeto é o número do projeto Folding@Home que cada cliente estava executando no momento em que coletamos nossos dados, que nos dirá a quantidade de pontos que nos será dada por cada unidade de trabalho entregue (<a href="http://fah-web.stanford.edu/psummary.html" rel="external nofollow" target="_blank">clique aqui para ver a tabela completa</a>). Nós colocamos a quantidade de pontos dada para cada WU completada entre parênteses. O desempenho máximo diário é calculado dividindo 86.400 (número de segundos em um dia) pelo tempo para completar uma unidade de trabalho e o resultado multiplicado pela quantidade de pontos dada para cada unidade de trabalho completada para aquele projeto.
</p>

<p>
	Nossa métrica para medir a eficiência será pontos/kWh, que é calculado dividindo o desempenho mensal máximo pelo consumo mensal em kWh. Este índice indica quantos pontos cada micro produz para cada kWh consumido da rede elétrica. Portanto quanto maior este número, melhor.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<p>
					<strong>Sistema #</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Cliente</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Projeto</strong><strong>(Pontos)</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Tempo para Completar Uma WU </strong><strong>(segundos)</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Desempenho Máx. Diário (Pontos)</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Desempenho Máx. Mensal (Pontos)</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Pontos/kWh</strong>
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					1
				</p>
			</td>
			<td>
				<p>
					SMP
				</p>
			</td>
			<td>
				<p>
					5101 (2.165)
				</p>
			</td>
			<td>
				<p>
					66.000
				</p>
			</td>
			<td>
				<p>
					2.834
				</p>
			</td>
			<td>
				<p>
					85.020
				</p>
			</td>
			<td>
				<p>
					976
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					2
				</p>
			</td>
			<td>
				<p>
					SMP
				</p>
			</td>
			<td>
				<p>
					2665 (1.920)
				</p>
			</td>
			<td>
				<p>
					150.000
				</p>
			</td>
			<td>
				<p>
					1.106
				</p>
			</td>
			<td>
				<p>
					33.180
				</p>
			</td>
			<td>
				<p>
					249
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					2
				</p>
			</td>
			<td>
				<p>
					GPU
				</p>
			</td>
			<td>
				<p>
					5800 (480)
				</p>
			</td>
			<td>
				<p>
					5.800
				</p>
			</td>
			<td>
				<p>
					7.150
				</p>
			</td>
			<td>
				<p>
					214.500
				</p>
			</td>
			<td>
				<p>
					1.307
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					2
				</p>
			</td>
			<td>
				<p>
					GPU + SMP
				</p>
			</td>
			<td>
				<p>
					Acima
				</p>
			</td>
			<td>
				<p>
					150.000 (CPU), 8.700 (GPU)
				</p>
			</td>
			<td>
				<p>
					5.873
				</p>
			</td>
			<td>
				<p>
					176.190
				</p>
			</td>
			<td>
				<p>
					1.211
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					3
				</p>
			</td>
			<td>
				<p>
					SMP
				</p>
			</td>
			<td>
				<p>
					2653 (1760)
				</p>
			</td>
			<td>
				<p>
					84.100
				</p>
			</td>
			<td>
				<p>
					1.808
				</p>
			</td>
			<td>
				<p>
					54.240
				</p>
			</td>
			<td>
				<p>
					384
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					3
				</p>
			</td>
			<td>
				<p>
					GPU
				</p>
			</td>
			<td>
				<p>
					5014 (480)
				</p>
			</td>
			<td>
				<p>
					10.300
				</p>
			</td>
			<td>
				<p>
					4.026
				</p>
			</td>
			<td>
				<p>
					120.780
				</p>
			</td>
			<td>
				<p>
					981
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					3
				</p>
			</td>
			<td>
				<p>
					GPU + SMP
				</p>
			</td>
			<td>
				<p>
					Acima
				</p>
			</td>
			<td>
				<p>
					84.100 (CPU), 15.400 (GPU)
				</p>
			</td>
			<td>
				<p>
					4.501
				</p>
			</td>
			<td>
				<p>
					135.030
				</p>
			</td>
			<td>
				<p>
					880
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					4
				</p>
			</td>
			<td>
				<p>
					GPU
				</p>
			</td>
			<td>
				<p>
					5651 (388)
				</p>
			</td>
			<td>
				<p>
					14.300 (HD 4850), 14.000 (HD 4870)
				</p>
			</td>
			<td>
				<p>
					2344 + 2394 = 4.738
				</p>
			</td>
			<td>
				<p>
					142.140
				</p>
			</td>
			<td>
				<p>
					459
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					5
				</p>
			</td>
			<td>
				<p>
					SMP
				</p>
			</td>
			<td>
				<p>
					2665 (1.920)
				</p>
			</td>
			<td>
				<p>
					79.500
				</p>
			</td>
			<td>
				<p>
					2.087
				</p>
			</td>
			<td>
				<p>
					62.610
				</p>
			</td>
			<td>
				<p>
					260
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					5
				</p>
			</td>
			<td>
				<p>
					GPU
				</p>
			</td>
			<td>
				<p>
					5013 (480)
				</p>
			</td>
			<td>
				<p>
					8.200 (GTX 280), 8.100 (8800 GT), 8.500 (8800 GT)
				</p>
			</td>
			<td>
				<p>
					5.057 + 5.120 + 4.879 = 15.056
				</p>
			</td>
			<td>
				<p>
					451.680
				</p>
			</td>
			<td>
				<p>
					1.422
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					5
				</p>
			</td>
			<td>
				<p>
					GPU + SMP
				</p>
			</td>
			<td>
				<p>
					Acima
				</p>
			</td>
			<td>
				<p>
					79.500 (CPU), 8.200 (GTX 280), 8.100 (8800 GT), 8.500 (8800 GT)
				</p>
			</td>
			<td>
				<p>
					17.143
				</p>
			</td>
			<td>
				<p>
					514.290
				</p>
			</td>
			<td>
				<p>
					1.526
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					6
				</p>
			</td>
			<td>
				<p>
					PS3
				</p>
			</td>
			<td>
				<p>
					5310 (110)
				</p>
			</td>
			<td>
				<p>
					26.100
				</p>
			</td>
			<td>
				<p>
					364
				</p>
			</td>
			<td>
				<p>
					10.920
				</p>
			</td>
			<td>
				<p>
					116
				</p>
			</td>
		</tr>
	</tbody>
</table>

<p>
	Você precisa entender algo muito importante sobre o sistema de pontuação do Folding@Home. Enquanto que as unidades de trabalho atribuídas para placas de vídeo baseadas nos chips da NVIDIA quase sempre lhe darão 480 pontos, a quantidade de pontos dada para unidades de trabalho processadas pelas placas de vídeo da ATI e pelo console Playstation 3 pode variar muito. Os resultados acima são baseados no projeto que cada programa cliente estava rodando na hora que fizemos os testes e não reflete as melhores pontuações que os sistemas ATI e PS3 podem obter. Nossas placas de vídeo baseadas nos chips da ATI estavam processando uma unidade de trabalho que dava 388 pontos, mas existem unidades de trabalho que dão 548 pontos. Nosso PS3 estava processando uma unidade de trabalho que dá 110 pontos, mas existem unidades de trabalho que dão 330 pontos. O tempo para completar essas unidades que dão mais pontos pode ser maior. Como um exercício, nós compilamos a tabela abaixo para os micros quatro (ATI) e seis (PS3) como se eles estivessem processando esses outros tipos de unidades de trabalho que dão mais pontos. Nós estamos fazendo isso para não sermos acusados de parcialidade ou alguém apontar esta falha em potencial em nossa metodologia. Para este exercício nós consideraremos que os programas clientes irão processar cada unidade de trabalho com o mesmo desempenho, que pode não ser verdade no mundo real.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<p>
					<strong>Sistema #</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Cliente</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Projeto</strong><strong>(Pontos)</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Tempo para Completar Uma WU</strong><strong>(segundos)</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Desempenho Máx. Diário (Pontos)</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Desempenho Máx. Mensal (Pontos)</strong>
				</p>
			</td>
			<td>
				<p>
					<strong>Pontos/kWh</strong>
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					4
				</p>
			</td>
			<td>
				<p>
					GPU
				</p>
			</td>
			<td valign="top">
				<p>
					4743 (548)
				</p>
			</td>
			<td>
				<p>
					14.300 (HD 4850), 14.000 (HD 4870)
				</p>
			</td>
			<td>
				<p>
					3.311 + 3.382 = 6.693
				</p>
			</td>
			<td>
				<p>
					200.790
				</p>
			</td>
			<td>
				<p>
					648
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					6
				</p>
			</td>
			<td>
				<p>
					PS3
				</p>
			</td>
			<td valign="top">
				<p>
					5305 (330)
				</p>
			</td>
			<td>
				<p>
					26.100
				</p>
			</td>
			<td>
				<p>
					1.092
				</p>
			</td>
			<td>
				<p>
					32.760
				</p>
			</td>
			<td>
				<p>
					347
				</p>
			</td>
		</tr>
	</tbody>
</table>

<p>
	Como você pode ver, mesmo simulando o melhor desempenho que esses sistemas podem obter, tanto o desempenho quanto a eficiência estavam em níveis abaixo dos outros sistemas.
</p>

<p>
	Dos resultados acima nós aprendemos coisas interessantes sobre nossos sistemas:
</p>

<ul>
	<li>
		Nosso Playstation 3 obteve o menor índice de eficiência (embora em nossa simulação acima ele foi mais eficiente do que sistemas rodando apenas o programa SMP cliente, se ele pudesse processar apenas unidades de trabalho que dão 330 pontos, o que não é verdade), significando que nós estávamos gastando muito energia para produzir poucos pontos se comparado com outros sistemas.
	</li>
	<li>
		O sistema número cinco foi o mais caro para funcionar, mas também foi o mais eficiente, o que significa que ele poderia produzir mais pontos por kWh. Neste sistema valeu a pena rodar o programa cliente SMP ao mesmo tempo já que nosso pontuação e índice pontos/kWh aumentou.
	</li>
	<li>
		Nos sistemas dois e três não valeu a pena rodar o programa cliente SMP ao mesmo tempo com o cliente GPU: o índice pontos/kWh caiu quando fizemos isso.
	</li>
	<li>
		O sistema quatro, que tinha duas placas de vídeo ATI topo de linha, obteve um índice pontos/kWh muito baixo. Este foi o primeiro sistema que decidimos desligar: ele estava gastando muita energia para produzir resultados pífios.
	</li>
</ul>

<p>
	Agora nós estávamos curiosos para ver se usássemos placas de vídeo intermediárias ou simples obteríamos melhores relações desempenho/energia. Para fazer isso nós testamos todas as placas de vídeo que tínhamos disponíveis em nosso laboratório. [pagination="Que Placa de Vídeo é a Melhor?"]
</p>

<p>
	Após termos visto que existe uma grande diferença no consumo de energia entre os diferentes sistemas, nós decidimos montar um sistema simples e medir o desempenho e o consumo de energia de todas as placas de vídeo que tínhamos disponíveis instaladas neste sistema. Mantendo o sistema inteiro idêntico e mudando apenas a placa de vídeo é a maneira correta de avaliar o desempenho da placa de vídeo.
</p>

<p>
	O sistema que montamos tinha as seguintes especificações: processador Core 2 Duo E6600 (2,4 GHz), placa-mãe <a href="https://www.clubedohardware.com.br/analises/placas-mae/placa-m%C3%A3e-asus-p5k-e-wifi-ap-r34829/" rel="" target="_blank">ASUS P5K-E/WIFI-AP (chipset Intel P35)</a>, 2 GB de memória DDR2-800 (Kingston KVR800D2N6/1GB), <a href="https://www.clubedohardware.com.br/analises/armazenamento/comparativo-de-discos-r%C3%ADgidos-de-500-gb-r34970//" rel="" target="_blank">disco rígido de 500 GB (Western Digital Caviar SE16)</a>, <a href="https://www.clubedohardware.com.br/analises/energia/teste-da-fonte-de-alimenta%C3%A7%C3%A3o-zalman-zm600-hp-r34729/" rel="" target="_blank">fonte de alimentação Zalman ZM-600HP</a> e unidade óptica Lite-On LH-20AIL. Nós instalamos o Windows XP SP3 com drivers Catalyst para placas ATI e drivers 177.84 para placas NVIDIA.
</p>

<p>
	Os resultados você pode ver abaixo. Lembre-se que o consumo é o consumo CA para o sistema inteiro, não apenas para a placa de vídeo. As placas da NVIDIA processaram o projeto 5800 (que dá 480 pontos por unidade de trabalho completada), enquanto que as placas da ATI processaram o projeto 4753 (que dá 548 pontos por unidade de trabalho completada).
</p>

<p>
	Nós classificamos a tabela abaixo da placa do melhor índice desempenho/kWh para o pior.
</p>

<table>
	<tbody>
		<tr>
			<td valign="top">
				<p>
					<strong>Placa de Vídeo</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Tempo para Completar Uma WU (segundos)</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Desempenho Máx. Diário (Pontos)</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Desempenho Máx. Mensal (Pontos)</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Consumo (W)</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Consumo Mensal (kWh)</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Custo Mensal (R$) *</strong>
				</p>
			</td>
			<td valign="top">
				<p>
					<strong>Pontos/kWh</strong>
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					GeForce GTX 260
				</p>
			</td>
			<td>
				<p>
					 5.800
				</p>
			</td>
			<td>
				<p>
					 7.150
				</p>
			</td>
			<td>
				<p>
					 214.500
				</p>
			</td>
			<td>
				<p>
					 214
				</p>
			</td>
			<td>
				<p>
					 154,08
				</p>
			</td>
			<td>
				<p>
					 R$ 73,11
				</p>
			</td>
			<td>
				<p>
					1392
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					GeForce GTX 280
				</p>
			</td>
			<td>
				<p>
					 5.500
				</p>
			</td>
			<td>
				<p>
					 7.540
				</p>
			</td>
			<td>
				<p>
					 226.200
				</p>
			</td>
			<td>
				<p>
					 234
				</p>
			</td>
			<td>
				<p>
					 168,48
				</p>
			</td>
			<td>
				<p>
					 R$ 79,94
				</p>
			</td>
			<td>
				<p>
					1342
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					GeForce 8800 GT
				</p>
			</td>
			<td>
				<p>
					 8.100
				</p>
			</td>
			<td>
				<p>
					 5.120
				</p>
			</td>
			<td>
				<p>
					 153.600
				</p>
			</td>
			<td>
				<p>
					 160
				</p>
			</td>
			<td>
				<p>
					 115,20
				</p>
			</td>
			<td>
				<p>
					 R$ 54,66
				</p>
			</td>
			<td>
				<p>
					1333
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					GeForce 9800 GT 1 GB
				</p>
			</td>
			<td>
				<p>
					 9.300
				</p>
			</td>
			<td>
				<p>
					 4.459
				</p>
			</td>
			<td>
				<p>
					 133.770
				</p>
			</td>
			<td>
				<p>
					 170
				</p>
			</td>
			<td>
				<p>
					 122,40
				</p>
			</td>
			<td>
				<p>
					 R$ 58,08
				</p>
			</td>
			<td>
				<p>
					1093
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					GeForce 8800 GTS
				</p>
			</td>
			<td>
				<p>
					 10.100
				</p>
			</td>
			<td>
				<p>
					 4.106
				</p>
			</td>
			<td>
				<p>
					 123.180
				</p>
			</td>
			<td>
				<p>
					 188
				</p>
			</td>
			<td>
				<p>
					 135,36
				</p>
			</td>
			<td>
				<p>
					 R$ 64,23
				</p>
			</td>
			<td>
				<p>
					910
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					Radeon HD 4830
				</p>
			</td>
			<td>
				<p>
					 17.800
				</p>
			</td>
			<td>
				<p>
					 2.660
				</p>
			</td>
			<td>
				<p>
					 79.800
				</p>
			</td>
			<td>
				<p>
					 158
				</p>
			</td>
			<td>
				<p>
					 113,76
				</p>
			</td>
			<td>
				<p>
					 R$ 53,98
				</p>
			</td>
			<td>
				<p>
					701
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					Radeon HD 4870
				</p>
			</td>
			<td>
				<p>
					 12.600
				</p>
			</td>
			<td>
				<p>
					 3.758
				</p>
			</td>
			<td>
				<p>
					 112.740
				</p>
			</td>
			<td>
				<p>
					 225
				</p>
			</td>
			<td>
				<p>
					 162,00
				</p>
			</td>
			<td>
				<p>
					 R$ 76,87
				</p>
			</td>
			<td>
				<p>
					696
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					Radeon HD 4850
				</p>
			</td>
			<td>
				<p>
					 15.100
				</p>
			</td>
			<td>
				<p>
					 3.136
				</p>
			</td>
			<td>
				<p>
					 94.080
				</p>
			</td>
			<td>
				<p>
					 189
				</p>
			</td>
			<td>
				<p>
					 136,08
				</p>
			</td>
			<td>
				<p>
					 R$ 64,57
				</p>
			</td>
			<td>
				<p>
					691
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					GeForce 9500 GT
				</p>
			</td>
			<td>
				<p>
					 21.700
				</p>
			</td>
			<td>
				<p>
					 1.911
				</p>
			</td>
			<td>
				<p>
					 57.330
				</p>
			</td>
			<td>
				<p>
					 119
				</p>
			</td>
			<td>
				<p>
					 85,68
				</p>
			</td>
			<td>
				<p>
					 R$ 40,65
				</p>
			</td>
			<td>
				<p>
					669
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					GeForce 8600 GT
				</p>
			</td>
			<td>
				<p>
					 25.300
				</p>
			</td>
			<td>
				<p>
					 1.639
				</p>
			</td>
			<td>
				<p>
					 49.170
				</p>
			</td>
			<td>
				<p>
					 126
				</p>
			</td>
			<td>
				<p>
					 90,72
				</p>
			</td>
			<td>
				<p>
					 R$ 43,04
				</p>
			</td>
			<td>
				<p>
					542
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					Radeon HD 3870
				</p>
			</td>
			<td>
				<p>
					 21.100
				</p>
			</td>
			<td>
				<p>
					 2.244
				</p>
			</td>
			<td>
				<p>
					 67.320
				</p>
			</td>
			<td>
				<p>
					 178
				</p>
			</td>
			<td>
				<p>
					 128,16
				</p>
			</td>
			<td>
				<p>
					 R$ 60,81
				</p>
			</td>
			<td>
				<p>
					525
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					GeForce 8500 GT
				</p>
			</td>
			<td>
				<p>
					 58.900
				</p>
			</td>
			<td>
				<p>
					 704
				</p>
			</td>
			<td>
				<p>
					 21.120
				</p>
			</td>
			<td>
				<p>
					 108
				</p>
			</td>
			<td>
				<p>
					 77,76
				</p>
			</td>
			<td>
				<p>
					 R$ 36,89
				</p>
			</td>
			<td>
				<p>
					272
				</p>
			</td>
		</tr>
		<tr>
			<td>
				<p>
					Radeon HD 3450 (64 bits)
				</p>
			</td>
			<td>
				<p>
					288.000
				</p>
			</td>
			<td>
				<p>
					116
				</p>
			</td>
			<td>
				<p>
					3.480
				</p>
			</td>
			<td>
				<p>
					111
				</p>
			</td>
			<td>
				<p>
					79,92
				</p>
			</td>
			<td>
				<p>
					R$ 37,92
				</p>
			</td>
			<td>
				<p>
					43
				</p>
			</td>
		</tr>
	</tbody>
</table>

<p>
	* R$ 0,47453 por kWh rodando 24 horas por dia durante 30 dias por mês. Preço baseado no custo da energia no Rio de Janeiro/RJ na data de publicação deste teste. O custo em sua cidade poderá ser outro; consulte sua conta de luz.
</p>

<p>
	Os resultados foram muito interessantes e falaremos mais sobre eles nas Conclusões.
</p>

<p>
	Agora que nós conhecemos bastante coisa sobre o que acontece com nossas peças, nós decidimos substituir peças de nosso sistema. Vejamos o que fizemos e o que aconteceu. [pagination="Ajustando nossos Sistemas"]
</p>

<p>
	Após lermos cuidadosamente os números apresentados na página anterior, nós decidimos fazer alguns ajustes em nossa configuração:
</p>

<ul>
	<li>
		Sistema 1: Permaneceu como antes.
	</li>
	<li>
		Sistema 2: Substituímos a GeForce GTX 260 por uma GeForce 8800 e desinstalamos o programa SMP cliente. O consumo de energia caiu de 202 W (145,44 kWh ou R$ 69,01/mês) para 185 W (133,20 kWh ou R$ 63,20/mês). O desempenho máximo mudou de 5.873 pontos/dia ou 176.190/mês para 5.120 pontos/dia ou 153.600 pontos/mês. Nosso índice pontos/kWh para esta máquina agora é 1.153 (de 1.211).
	</li>
	<li>
		Sistema 3: Desligada e desmontada.
	</li>
	<li>
		Sistema 4: Era a origem do nosso alto consumo porque estava usando duas placas de vídeo ATI (Radeon HD 4870 e Radeon HD 4850). Nós removemos as placas de vídeo da ATI e substituímos as duas por uma GeForce 8800 GT e uma GeForce 9800 GT. Nós também substituímos o processador de um Phenom 9700 para um Athlon X2 4600+, que nos permitiu economizar alguns watts, já que não estávamos rodando o programa cliente SMP. Nós também substituímos a fonte de alimentação OCZ ProXstream 1.000 W por uma Zalman ZM-600HP. Aqui foi onde vimos uma diferença grande no consumo e desempenho. Este sistema do jeito que estava consumia 430 W (309,60 kWh, R$ 146,91) e produzindo uma pontuação diária de 4.738 pontos e uma pontuação mensal de 142.140 pontos. Após as mudanças, o consumo de energia caiu 41% para 254 W (182,88 kWh, R$ 86,78) e nossa pontuação dobrou, atingindo 9.485 pontos diários ou 284.550 pontos mensais! Nosso índice pontos/kWh aumentou de 459 para 1.555.
	</li>
	<li>
		Sistema 5: Apesar de esta máquina ter sido a com o melhor índice de eficiência, ela também foi a mais cara para funcionar (468 W, 336,96 kWh, R$ 159,89), já que ela tinha três placas de vídeo e um processador topo de linha instalados. Portanto nós decidimos desligá-la e usar as duas placas de vídeo GeForce 8800 em outros sistemas e colocar a GeForce GTX 280 de volta no armário.
	</li>
	<li>
		Sistema 6: Nós decidimos usar nosso Playstation 3 apenas para brincar e/ou assistir filmes Blu-Ray. Ele não foi eficiente para funcionar com o Folding@Home.
	</li>
</ul>

<p>
	Nós temos agora três sistemas rodando o Folding@Home, mas o consumo agora é 560 W (403,20 kWh) em vez de 1.565 W (1.127 kWh), que custará R$ 191,33/mês em vez de R$ 534,79/mês. Esta é uma redução de 64%.
</p>

<p>
	Claro que o desempenho diminui. Nós estaremos agora fazendo 17.439 pontos/dia ou 523.170 pontos/mês em vez de 30.715 pontos/dia ou 1.063.590 pontos/mês, portanto uma redução de 43% no desempenho.
</p>

<p>
	O bacana, como você pode ver, é que o desempenho e o consumo não diminuíram na mesma proporção. Antes nós tínhamos um índice pontos/kWh de 944 – ou seja, nós estávamos fazendo 944 pontos no Folding@Home para cada kWh consumido –, que aumentou para 1.297. Portanto nossa eficiência aumentou 38%![pagination="Conclusões"]
</p>

<p>
	Nós descobrimos várias coisas interessantes em nossa investigação. Aqui está um resumo:
</p>

<ul>
	<li>
		Das placas de vídeo analisadas, a GeForce 8800 GT é a que oferece as melhores relações custo/benefício e desempenho/kWh para rodar o Folding@Home. Claro que você terá mais pontos com uma GeForce GTX 260 ou GeForce GTX 280, mas elas são mais caras além de consumirem mais. Se você pensar apenas na relação pontos/kWh (ou seja, eficiência), então a GeForce GTX 260 é a melhor: ela produz mais pontos por kWh consumido do que todas as outras placas de vídeo.
	</li>
	<li>
		Uma placa de vídeo “fraquinha” não necessariamente consumirá menos do que uma placa “parruda”. Basta ver como a GeForce 8800 GTS produz uma pontuação menor e consume mais do que a GeForce 8800 GT.
	</li>
	<li>
		As placas de vídeo da ATI não devem ser usadas para rodar o Folding@Home: elas apresentaram uma relação pontos/kWh muito menor se comparado com as placas da NVIDIA. Uma GeForce 8800 GT oferece quase o dobro da eficiência de uma Radeon HD 4870. Se você está montando sistemas dedicados para rodar o Folding@Home, opte pelas placas da NVIDIA: você terá uma maior pontuação e um menor custo na sua conta de energia.
	</li>
	<li>
		Placas de vídeo simples como a Radeon HD 3450 e GeForce 8500 GT não são eficientes para rodar o Folding@Home e devem ser evitadas. Do mercado intermediário a GeForce 9500 GT foi a que apresentou o melhor índice de desempenho e eficiência (pontos/kWh), sendo nossa recomendação neste segmento.
	</li>
	<li>
		Rodar o programa cliente SMP junto com o cliente GPU não necessariamente aumentará o desempenho do sistema. Em nossos testes nós vimos dois dos três sistemas onde o desempenho diminuiu. Nós descobrimos que para cada placa de vídeo rodando o cliente GPU o Folding@Home usará um núcleo do processador (em processadores com quatro núcleos o Folding@Home usará apenas um núcleo por GPU, portanto com um sistema de quatro núcleos e duas placas de vídeo, os dois núcleos do processador serão constantemente usados; em processadores com dois núcleos o Folding@Home usará apenas um dos núcleos durante todo o tempo independente da quantidade de chips gráficos que você tem instalado). Portanto quando você executar o cliente SMP ao mesmo tempo, ambos os clientes irão competir a utilização do processador, diminuindo o desempenho. Por outro lado, o consumo também diminui.
	</li>
	<li>
		Se você quer montar um sistema apenas para rodar o cliente SMP, é mais eficiente se você rodá-lo com uma placa-mãe com vídeo on-board, já que o consumo-base será menor já que você não terá uma placa de vídeo instalada.
	</li>
	<li>
		O Playstation 3 obteve uma das relações pontos/kWh mais baixas, o que significa que você sentirá um aumento em sua conta de energia sem um aumento significativo em sua pontuação do Folding@Home. Nós vimos muitas pessoas elogiando o desempenho matemático do PS3, mas este desempenho não é convertido em uma alta pontuação no Folding@Home porque cada PS3 unidade de trabalho não dá muitos pontos.
	</li>
	<li>
		Se você está montando um sistema para rodar o Folding@Home, nós achamos que a relação pontos/kWh deveria ser sua métrica para eficiência. Comprar um wattímetro digital ajudará muito a você encontrar o que você pode mudar em sua configuração para ter um sistema mais eficiente. De acordo com a nossa experiência você deve manter os sistemas com índice pontos/kWh de pelo menos 1.000. Sistemas com índices abaixo deste devem ser reavaliados.
	</li>
	<li>
		Nós testamos apenas as peças que tínhamos disponíveis em nosso laboratório. Se não incluímos a peça A ou B foi porque não a tínhamos. Portanto não poste comentários do tipo “porque não testaram a peça x?” – que na verdade significa “pessoal, você podem testar a máquina que eu tenho em casa de graça?” Se você está preocupado com o consumo, compre um wattímetro digital. Ele ajudará a você descobrir o consumo de outros dispositivos que você tem em casa e ver onde você pode economizar dinheiro.
	</li>
</ul>

<p>
	No texto nós explicamos como descobrir o índice pontos/kWh de um sistema, mas aqui está um resumo mais prático:
</p>

<ul>
	<li>
		Meça o consumo com um wattímetro digital conectado ao sistema com seu sistema rodando o cliente do Folding@Home. Os resultados serão dados em watts. Multiplique este valor por 0,72 para ter os resultados em kWh. Esta fórmula funciona apenas se o seu sistema funciona 24 horas por dia, 30 dias por mês. Caso o seu sistema não funcione ligado direto, o fator de multiplicação deve ser a quantidade de horas dividida por 1.000 (por exemplo, para 40 horas por mês o multiplicador é 0,04).
	</li>
	<li>
		Localize em sua conte de energia o custo de cada kWh. Multiplique este valor pelo resultado encontrado para ter uma estimativa de quanto está custando a você por mês manter o sistema funcionando.
	</li>
	<li>
		Abra o arquivo de log do seu cliente Folding@Home (FAHlog.txt), role a tela e veja a quantidade de tempo que está levando para processar cada %. Converta o tempo encontrado para segundos. Multiplique este número por 100 para ter a quantidade de tempo, em segundos, seu cliente levará para processar uma unidade de trabalho.
	</li>
	<li>
		Role a tela no arquivo de log e localize o número do projeto que seu cliente está executando. Feito isso, localize este projeto em <a href="http://fah-web.stanford.edu/psummary.html" rel="external nofollow">http://fah-web.stanford.edu/psummary.html</a> e veja a quantidade de pontos eles darão para processar uma unidade de trabalho daquele projeto.
	</li>
	<li>
		Divida 86.400 pelo tempo, em segundos, que seu cliente leva para processar uma unidade de trabalho. O resultado será a quantidade de unidades de trabalho seu cliente pode processar por dia. Multiplique o resultado pela quantidade de pontos que eles darão a você para cada unidade de trabalho. Você terá uma estimativa da quantidade de pontos que seu sistema pode gerar por dia.
	</li>
</ul>

<p>
	Multiplique o resultado acima por 30 para ter a quantidade de pontos que você pode gerar por mês. Divida este valor pelo consumo mensal do seu sistema em kWh. O resultado final será o índice pontos/kWh. Nós recomendamos que você mantenha somente sistemas que estejam fornecendo índices de pelo menos 1.000.
</p>
]]></description><guid isPermaLink="false">34992</guid><pubDate>Tue, 25 Nov 2008 19:04:00 +0000</pubDate></item><item><title>Tudo sobre monitores LCD</title><link>https://www.clubedohardware.com.br/artigos/video/tudo-sobre-monitores-lcd-r34409/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_qpbvzqqpbvzqqpbv.jpg.a2f9d2543d4cf50681ff9087f244a8d1.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	Os monitores de cristal líquido (LCD), antes um produto restrito aos notebooks, são agora uma realidade para computadores de mesa. As três grandes vantagens deste tipo de monitor se comparado com os tradicionais monitores CRT (tubo de raios catódicos) são o menor espaço que ele ocupa na mesa (especialmente em modelos de 17" para cima), o menor consumo elétrico e a total ausência de cintilação (flickering), mesmo com a taxa de atualização configurada em 60 quadros por segundo (60 Hz). Neste tutorial explicaremos tudo o que você precisa saber para fazer a escolha certa na hora de comprar um novo monitor LCD.
</p>

<p>
	A coisa mais importante que você precisa saber sobre a tecnologia LCD é que as telas LCD têm uma resolução fixa. Esta resolução é chamada “resolução nativa”, “resolução máxima” ou simplesmente “resolução”, e você deve configurar o seu computador com esta resolução, caso contrário três coisas podem acontecer, a depender do modelo do seu monitor:
</p>

<p>
	1. A imagem não será nítida; ficará sem definição. Você poderá ver muitas áreas quadradas sem nenhuma definição.
</p>

<p>
	2. O monitor centralizará a imagem na nova resolução, diminuindo o tamanho da imagem e deixando um espaço preto entre a imagem e a borda da tela. Por exemplo, se a configuração nativa é 1280x960 e você diminuiu a resolução para 800x600, isto significa que existem 480 pixels sobrando na horizontal (1280 – 800) e 360 pixels sobrando na vertical (960 – 600). A imagem será centralizada e haverá 240 pixels apagados (pretos) acima e abaixo da imagem e 180 pixels apagados (pretos) nos lados da imagem.
</p>

<p>
	3. O monitor tentará "esticar" a imagem para que o espaço preto ao redor dela não apareça, preenchendo toda a tela. Isto é feito através de uma técnica chamada interpolação, que não é 100% perfeita e você sentirá que a imagem tem melhor qualidade (definição) quando a tela é configurada em sua resolução nativa, apesar de os elementos na tela (ícones, letras, etc) ficarem menores. Em geral você sentirá que a imagem está ligeiramente "fora de foco" quando o monitor não está configurado para trabalhar em sua resolução nativa.
</p>

<p>
	Por causa desta característica inerente aos painéis de LCD você terá de escolher um monitor LCD que tenha uma resolução que seja mais confortável para você. A maior resolução nem sempre é a melhor. Com resoluções maiores você tem mais espaço na tela (em outras palavras, você pode ter mais coisas na tela ao mesmo tempo) apesar de os ícones e letras ficarem menores. Portanto, para o usuário médio um monitor com uma resolução alta nem sempre pode significar um melhor produto. Vai depender da aplicação. Se você usa o computador apenas para navegar na internet, escrever e-mails, usar uma planilha de eletrônica e um processador de textos, provavelmente você quer um monitor com uma resolução baixa, já eles são mais baratos e não fará com que seus ícones e letras fiquem pequenos. Mas se você trabalha com aplicações profissionais como edição de vídeos e imagens, então você provavelmente quer um monitor de alta resolução e tela grande.
</p>

<p>
	Se você curte jogos, você deve comprar um monitor compatível com a resolução que você quer jogar, caso contrário o jogo ficará sem nitidez. Em outras palavras, configure o seu jogo para rodar na resolução nativa (ou seja, na resolução máxima) do seu monitor. Todos os jogadores sabem que quando você aumenta a resolução do jogo o desempenho diminui (porque existirão mais pixels para serem desenhados na tela). Se seu jogo está rodando com um desempenho muito baixo, isto significa que está na hora de você fazer um upgrade da sua placa de vídeo. Você pode diminuir a resolução do jogo para aumentar o desempenho, mas como explicamos, você reduzirá a qualidade de imagem.
</p>

<p>
	[pagination="Tamanho da Tela e Relação de Aspecto"]
</p>

<p>
	O tamanho da tela – que é o tamanho da tela medido na diagonal, em polegadas – não tem nada a ver com resolução. Ou seja, uma tela maior não garante uma resolução maior. Na verdade é muito comum vermos monitores LCD grande com resoluções que são menores do que as usadas em monitores menores. Se você encontrar um monitor grande mais barato do que um monitor menor você pode apostar que o monitor menor tem uma resolução maior. Isto não significa que o monitor menor é melhor do que o monitor maior; isto dependerá da aplicação. Pessoas que estão procurando por mais espaço na tela (para trabalhar com edição de vídeos e imagens, por exemplo) preferirão um monitor com resolução maior (mesmo que ele seja um monitor “menor”) enquanto que usuários “normais” podem querer telas maiores com uma resolução menor, já que a resolução menor manterá os ícones e letras em um tamanho razoável. Claro que resolução “menor” aqui é uma comparação com a resolução mais alta usada por outros monitores.
</p>

<p>
	É sempre bom mencionar que você pode aumentar o tamanho dos seus ícones e letras no painel de controle do Windows.
</p>

<p>
	A relação de aspecto é a relação entre os lados verticais e horizontais do monitor. Os monitores CRT e os primeiros (e mais baratos) monitores LCD tinham uma relação de aspecto de 4:3 (ou seja, 1,33), o que significa que o lado horizontal tem um comprimento que é 1,33 (4:3) vezes o lado vertical, e o lado vertical tem um comprimento que é 0,75 (3:4) vezes o lado horizontal. Atualmente relações de aspecto “widescreen” estão se tornando mais populares, com relações de aspecto de 16:9 ou 16:10.
</p>

<p>
	Na tabela abaixo nós listamos as relações de aspectos e suas resoluções mais comuns. Monitores com diferentes relações de aspectos podem rodar resoluções de outras relações de aspecto adaptando as mesmas.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>Relação de Aspecto</strong>
			</td>
			<td>
				<strong>Resoluções Comuns</strong>
			</td>
		</tr>
		<tr>
			<td>
				4:3 (1,33)
			</td>
			<td>
				640x480<br>
				800x600<br>
				1024x768<br>
				1280x960<br>
				1600x1200<br>
				1920x1440<br>
				2048x1536
			</td>
		</tr>
		<tr>
			<td>
				5:4 (1,25)
			</td>
			<td>
				1280x1024
			</td>
		</tr>
		<tr>
			<td>
				15:9, 5:3 (1,66)
			</td>
			<td>
				1280x768
			</td>
		</tr>
		<tr>
			<td>
				16:9 (1,77)
			</td>
			<td>
				1280x720<br>
				1920x1080
			</td>
		</tr>
		<tr>
			<td>
				16:10 (1,60)
			</td>
			<td>
				960x600<br>
				1280x800<br>
				1440x900<br>
				1680x1050<br>
				1920x1200<br>
				2560x1600
			</td>
		</tr>
	</tbody>
</table>

<p>
	[pagination="Principais Especificações"]
</p>

<p>
	Nesta página explicaremos as principais características encontradas em monitores LCD e como interpretá-las:
</p>

<ul>
	<li>
		Tempo de resposta (ou desempenho): este parâmetro mede o tempo que a tela leva para mudar um pixel de “desligado” (preto) para “ligado” (branco). Este tempo é medido em milissegundos e quanto menor, melhor. Em monitores de vídeo com um tempo de resposta alto você verá a tela sem nitidez em animações rápidas (tais como jogos) e em movimentos rápidos na reprodução de vídeos. Atualmente é fácil encontrar monitores de vídeo com tempo de resposta na casa dos 5 ms ou menor, e você deve comprar um monitor com tempo de resposta de pelo menos 5 ms. Se você curte jogos, um monitor de 2 ms ou menos é recomendado.
	</li>
	<li>
		Brilho: este parâmetro indica o quão bem você poderá ver imagens na sua tela em ambientes muito claros. Esta característica é medida em uma unidade chamada candela por metro quadrado (cd/m2) e quanto maior, melhor. Para um ambiente de escritório típico, um monitor de vídeo com brilho de 300 cd/m2 ou 400 cd/m2 é mais do que o suficiente, mas você precisará de um número muito maior do que este caso o seu monitor seja exposto diretamente aos raios solares ou se você for trabalhar em ambientes externos.
	</li>
	<li>
		Taxa de contraste: mede a diferença de brilho entre a quantidade de branco máxima e a quantidade de preto máxima que o monitor consegue gerar. Quanto maior este fator, melhor, já que você poderá distinguir mais cores (ou seja, melhor qualidade de imagem). Um monitor LCD com taxa de contraste de 600:1, por exemplo, é melhor do que um monitor com taxa de contraste de 400:1. Os monitores atualmente disponíveis no mercado têm taxas de contrastes entre 400:1 e 1000:1. Existe ainda uma característica similar a esta chamada Taxa de Contraste Dinâmica (“DC” ou “Dynamic Contrast Ratio”) que apresenta valores maiores, veja abaixo. Alguns fabricantes anunciam a taxa de contraste dinâmica do monitor em vez da sua taxa de contraste estática. Você não pode comparar taxa de contraste dinâmica com taxa de contraste estática. Por exemplo, um monitor com taxa de contraste estática de 5000:1 terá qualidade superior se comparado a um monitor com taxa de contraste dinâmica de 5000:1. 
	</li>
	<li>
		Taxa de contraste dinâmica (DC): monitores com este recurso reduzirão o brilho da lâmpada presente atrás do painel LCD de acordo com a imagem que estiver sendo mostrada de modo a melhorar a taxa de contraste. Note que isto é um macete para aumentar a qualidade da imagem que não muda a verdadeira taxa de contraste do monitor (estática). Como explicamos, você não pode comparar valores dinâmicos (DC) com valores estáticos; eles são incompatíveis. Um monitor com taxa de contraste de 1000:1 terá uma qualidade de imagem melhor do que um monitor com taxa de contraste dinâmica de 2000:1 mas com taxa de contraste de apenas 400:1. Alguns fabricantes anunciam apenas a taxa dinâmica, especialmente quando o monitor tem uma taxa de constraste dinâmica alta porém uma baixa taxa de contraste estática. Quando você se deparar com anúncios de monitores exibindo uma taxa de contraste medida em milhares, você pode apostar que o fabricante está falando de taxa de contraste dinâmica, não da taxa real (estática). Portanto compare taxa de contraste estático com taxa de contraste estático e taxa de contraste dinâmico com taxa de contraste dinâmico. A taxa de contraste dinâmica é um recurso desejável, mas quando comparamos monitores com a mesma taxa dinâmica, compre aquele que tiver a maior taxa de contraste “real”.
	</li>
	<li>
		Ângulo de visão: dependendo do ângulo entre o usuário e a tela, o usuário não conseguirá ver o conteúdo dela. O ângulo de visão indica o ângulo máximo que o usuário pode estar em relação ao monitor e ainda ver o conteúdo da tela. Normalmente dois valores são atribuídos a este parâmetro: um ângulo horizontal e outro vertical. Alguns modelos têm ainda um ângulo de visão superior diferente do ângulo de visão inferior. Como a maioria dos usuários ficará exatamente em frente ao monitor, este parâmetro não faz muito sentido para a maioria deles. Mas dependendo da aplicação (por exemplo, você vai pendurar um monitor na parede para exibir informações para as pessoas que estão passando ou algo do gênero) este parâmetro pode ser muito importante.
	</li>
	<li>
		Conexões: os monitores LCD podem usar dois tipos de conexões, VGA (usando um plugue chamado D-Sub) ou DVI-D. O primeiro é um tipo de conexão analógica, enquanto que o segundo é um tipo de conexão digital e por essa razão oferece melhor qualidade de imagem. Você deve usar a conexão DVI-D para conectar seu monitor no micro, mas você é limitado pelo tipo de conexão disponível em seu micro. Atualmente todas as placas de vídeo oferecem duas saídas, com placas de vídeo simples e intermediárias normalmente oferecendo uma saída VGA e uma saída DVI e placas de vídeo topo de linha oferecendo duas saídas DVI. A menos que você tenha um micro simples com vídeo on-board e que ofereça apenas uma saída VGA, você deve usar a saída DVI. Para mais informações sobre o assunto leia nosso tutorial <a href="https://www.clubedohardware.com.br/artigos/video/tudo-o-que-voc%C3%AA-precisa-saber-sobre-conectores-de-v%C3%ADdeo-r34256/" rel="" target="_blank">Conectores de Vídeo</a>.
	</li>
	<li>
		Concentrador USB: Alguns monitores possuem um concentrador (hub) USB embutido. Este dispositivo não tem nada a ver com a conexão do monitor ao micro mencionada acima. Este dispositivo é adicionado ao monitor para facilitar a vida de quem tem mouse, teclado, webcam, câmeras digitais e outros dispositivos USB na mesa de trabalho. Assim em vez de você ter vários cabos partindo da sua mesa até o seu PC e ocupando várias portas USB do micro, você conecta tudo nas portas USB do monitor, partindo apenas um cabo USB do seu monitor até o seu PC.
	</li>
</ul>
]]></description><guid isPermaLink="false">34409</guid><pubDate>Fri, 29 Apr 2005 16:56:00 +0000</pubDate></item><item><title>A nova GeForce 9800 GTX+ e PhysX</title><link>https://www.clubedohardware.com.br/artigos/video/a-nova-geforce-9800-gtx-e-physx-r3787/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_o8z585o8z585o8z5.jpg.8bd9ff9e321365142ca2c95999392f0d.jpg" /></p>
<p>
	Eu realmente não sei sobre vocês, mas às vezes eu tenho a impressão que a NVIDIA gosta de lançar uma nova placa de vídeo por semana. Mesmo para a gente é complicado ficar atualizado com tantos novos lançamentos. A  nova série GTX 200 foi lançada apenas 3 dias atrás e hoje a NVIDIA lançou uma “nova” placa, a GeForce 9800 GTX+ (uma 9800 GTX com overclock), baixando o preço da GeForce 9800 GTX para que ela passe a competir com a nova Radeon HD 4850. Felizmente a NVIDIA nos forneceu uma prática tabela para entender quais produtos da AMD competem com quais produtos da NVIDIA após a redução de preços e a adição da GTX+, veja abaixo.
</p>

<p center="" style="text-align: center;">
	<img alt="GeForce 9800 GTX+" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/gtx+.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	Hoje a NVIDIA fez um anúncio importante: o suporte ao motor PhysX diretamente no chip gráfico. O PhysX é um motor de cálculos físicos que permite jogos serem mais realistas calculando como objetos interagem. Por exemplo, se você dá um tiro em um objeto, o que acontecerá? O objeto moverá? A bala fará um buraco no objeto? A bala ricocheteará? O objeto será destruído? Esses cálculos são tradicionalmente feitos pelo processador da máquina. O novo driver 177.39 permite que esses cálculos passem ser feitos pelo chip gráfico, aumentando o desempenho. No momento este driver habilita o PhysX apenas na GeForce 9800 GTX, na GTX 280 e na GTX 260, mas a NVIDIA está prometendo para julho um driver que permitirá o PhysX para todas as suas placas de vídeo disponíveis hoje.
</p>

<p>
	Há vários jogos baseados no PhysX hoje, um deles é o Unreal Tournament 3. O 3DMark Vantage também suporta o PhysX, mas ele não é um jogo de verdade. Uma pequena lista de futuros jogos suportando o PhysX inclui os seguintes jogos: Mstar, Mirrors Edge, Empire: Total War, Backbreaker e Pwnage.
</p>

<p>
	O único problema para mim com essa enorme quantidade de lançamentos em um curto período de tempo é organizar testes, especialmente com a NVIDIA lançando um novo driver por dia, forçando que a gente reteste todas as placas de vídeo cada vez que um novo driver importante é lançado. Por exemplo, com este novo driver suportando o PhysX tendo sido lançado, o nosso teste da GTX 280 que foi publicado apenas 3 dias atrás pode ser considerado como errôneo por usuários mais criteriosos por usar um driver sem suporte ao PhysX. Sinceramente, isso é muito chato.
</p>
]]></description><guid isPermaLink="false">3787</guid><pubDate>Thu, 19 Jun 2008 17:48:00 +0000</pubDate></item></channel></rss>
