<?xml version="1.0"?>
<rss version="2.0"><channel><title>Artigos: Artigos</title><link>https://www.clubedohardware.com.br/artigos/video/page/4/</link><description>Artigos: Artigos</description><language>pt</language><item><title>Ativando melhorias 2D nas placas GeForce das S&#xE9;ries 6 e 7</title><link>https://www.clubedohardware.com.br/artigos/video/ativando-melhorias-2d-nas-placas-geforce-das-s%C3%A9ries-6-e-7-r34497/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_spw3a9spw3a9spw3.jpg.2f753e7609a321f191672e2f0cef6108.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	Os chips gráficos GeForce das séries 6 e 7 possuem um processador de vídeo 2D responsável por melhorar a qualidade de vídeos 2D executados na máquina em programas como o Windows Media Player. Este recurso foi amplamente explorado pela NVIDIA <a href="https://www.clubedohardware.com.br/artigos/video/cobertura-do-lan%C3%A7amento-do-geforce-6800-nv40-r33685/" rel="" target="_blank">quando ela lançou a série 6, com o GeForce 6800 Ultra</a>, <a href="https://www.clubedohardware.com.br/artigos/video/cobertura-do-lan%C3%A7amento-do-geforce-7800-gtx-g70-r34480/" rel="" target="_blank">e quando ela lançou a série 7, com o GeForce 7800 GTX</a>. A NVIDIA divulga que seus chips gráficos dessas séries são “dois em um”, por terem tanto um processador 3D quanto um processador para melhoria de vídeos 2D.
</p>

<p>
	Só tem um detalhe que a NVIDIA não diz: os recursos de melhoria de vídeos 2D não são habilitados automaticamente. Isto é, não basta instalar a sua placa de vídeo GeForce da série 6 e da série 7 para obter melhorias na execução de vídeo 2D, você precisa instalar um driver adicional e configurar corretamente o Windows Media Player para usufruir deste recurso. Veremos com isto é feito neste tutorial.
</p>

<p>
	Coletivamente chamadas de PureVideo pela NVIDIA, as melhorias de imagem 2D foram adicionadas basicamente para corrigir entrelaçamento e telecinagem.<br>
	 <br>
	Vídeos originalmente voltados para serem exibidos em aparelhos de TV são entrelaçados, pois este é o modo em que os aparelhos de TV funcionam. No modo entrelaçado, cada quadro de vídeo tem somente metade das linhas de vídeo disponíveis. Monitores de vídeo usados pelos computadores usam varredura não-entrelaçada (ou progressiva, como também é chamada), que é capaz de mostrar todas as linhas disponíveis em todos os quadros. Desta forma, quando reproduzimos um vídeo no micro podemos ver que o vídeo não apresenta a melhor qualidade de imagem possível.
</p>

<p>
	As placas GeForce das séries 6 e 7 possuem uma unidade para remoção do entrelaçamento (de-interlacing), que cria as linhas que faltam em cada quadro de vídeo, melhorando a qualidade de imagem de vídeos 2D.
</p>

<p>
	Quando filmes são convertidos para vídeo, outro problema surge. Filmes são gravados a 24 quadros por segundo, enquanto devem ser passados a 30 quadros por segundo na TV. Desta forma, o filme precisa passar por um processo chamado telecinagem, que cria os seis quadros por segundo que estão faltando. Às vezes este processo não é bem feito e você percebe que a qualidade de imagem não é a melhor possível.
</p>

<p>
	As placas das séries GeForce 6 e 7 oferecem basicamente dois recursos para reverter a telecinagem e resolver este problema, chamados inverse 3:2 e 2:2 pull-down.
</p>

<p>
	Um terceiro recurso encontrado nas placas de vídeo dessas séries é chamado correção de edição mal feita ou 3:2 &amp; 2:2 correction, que corrige erros gerados pela telecinagem inversa.
</p>

<p>
	Como explicamos, apesar de as placas de vídeo GeForce séries 6 e 7 terem estes recursos, eles não são habilitados automaticamente. Veja como habilitá-los na próxima página.
</p>

<p>
	[pagination="Habilitando o PureVideo"]
</p>

<p>
	Para usar o recurso PureVideo de sua placa de vídeo GeForce séries 6 e 7, você precisará:
</p>

<ul>
	<li>
		<a href="http://www.microsoft.com/downloads/details.aspx?FamilyID=b446ae53-3759-40cf-80d5-cde4bbe07999&amp;DisplayLang=pt-br" rel="external nofollow" target="_blank">Baixar e instalar o Windows Media Player 10</a>
	</li>
	<li>
		<a href="http://www.nvidia.com/object/dvd_decoder.html" rel="external nofollow" target="_blank">Baixar e instalar o NVIDIA DVD Decoder</a>
	</li>
</ul>

<p>
	O decodificador da NVIDIA é uma versão trial de 30 dias. De acordo com a NVIDIA eles não fornecem este programa de graça porque eles têm de pagar royalties para a MPEG-LA e para a Dolby sobre a licença de uso do DVD Decoder. Como não são todos os usuários que de fato utilizarão as melhorias descritas neste tutorial, eles decidiram fornecer este programa como opcional a quem se dispor a pagar a sua licença, no valor de US$ 19,95 a US$ 39,95, dependendo da versão.
</p>

<p>
	Tudo bem, mas para alguém que comprou uma placa de vídeo de US$ 600 é no mínimo frustrante ter de comprar um software para poder usar todos os recursos de sua placa de vídeo... Mas, enfim...
</p>

<p>
	<strong>Nota:</strong> Quando publicamos este tutorial, o valor do software era US$ 15. Há pouco tempo a NVIDIA o desmembrou em três versões, custando de US$ 19,95 a US$ 49,95, dependendo da versão.
</p>

<p>
	Na página de download deste programa há as informações necessárias para você conseguir instalar a versão trial, como o nome do usuário e número da licença.
</p>

<p>
	Após instalar o Windows Media Player 10 e o NVIDIA DVD Decoder, você deverá configurar o Windows Media Player para usar o decodificador localizado na placa de vídeo em vez de usar o processador da máquina.
</p>

<p>
	Para isso, abra o Windows Media Player 10 e vá em Ferramentas, Opções, guia Desempenho, botão Avançado e configure da seguinte maneira:
</p>

<ul>
	<li>
		No campo Aceleração de vídeo, marcar as caixas “Usar processador de mixagem de vídeo” e “Usar sobreposições”.
	</li>
	<li>
		No campo Em vídeo de DVD, desmarcar a caixa “Usar processador de mixagem de vídeo”.
	</li>
	<li>
		Desmarcar a caixa “Mudança para modo de tela inteira”.
	</li>
</ul>

<p align="center">
	<img alt="Habilitando o PureVideo" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/purevideo_01.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Configurando o Windows Media Player 10 para usar o processador de vídeo da placa de vídeo.
</p>

<p>
	Feito isso, quando você executar qualquer vídeo MPEG-2 ou DVD no Windows Media Player 10 aparecerá na barra de tarefas ao lado do relógio um novo ícone da NVIDIA chamado NVIDIA Decoders. Dando um duplo-clique neste ícone você poderá configurar o processador de vídeo da placa de vídeo. Note que este ícone só aparece quando um vídeo MPEG-2 ou DVD estiver sendo executado. Na Figura 2 vemos as opções que aparecem.
</p>

<p align="center">
	<img alt="Habilitando o PureVideo" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/purevideo_02.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> Configurando o processador de vídeo.
</p>

<p>
	Embora as opções padrão sejam suficientes para a maioria dos usuários, você pode “brincar” com elas a fim de obter melhores resultados, especialmente do recurso de remoção de entrelaçamento.
</p>

<p>
	[pagination="Testes"]
</p>

<p>
	Infelizmente não há como capturar telas do tipo “antes” e “depois” para mostrar aqui. Embora as telas do tipo “antes” – isto é, sem usar o processador de vídeo da placa de vídeo – a gente consiga capturar, não é possível capturar as telas do tipo “depois”. A explicação é simples. Como é a placa de vídeo que está efetuando a decodificação do vídeo, ela está jogando os dados diretamente para o monitor, não passando pelo Windows. A única maneira de capturar uma tela seria instalando uma placa de captura que seja conectada na saída de vídeo que liga a placa de vídeo ao monitor de vídeo. Infelizmente não temos uma placa deste tipo. A gente poderia tirar fotos, mas o resultado final não ficaria muito bom.
</p>

<p>
	No entanto, <a href="https://www.clubedohardware.com.br/download/misc/NVIDIA_PureVideo_Reviewers_Guide.zip" rel="" target="_blank">estamos disponibilizando para download o documento da NVIDIA chamado NVIDIA PureVideo Reviewers Guide</a>. Neste documento você não só encontrará várias telas do tipo “antes” e “depois” como também encontrará detalhes mais aprofundados sobre as configurações do Windows Media Player 10 e do decodificador da NVIDIA que não explicamos aqui.
</p>

<p>
	Por outro lado, pudemos conferir numericamente a eficiência de se usar o decodificador da placa de vídeo em vez de se usar o processador da máquina para efetuar a decodificação de vídeos 2D. Ao executar um vídeo antes de configurarmos o decodificador da placa de vídeo, a taxa de utilização do processador estava entre 8% e 18%. Quando jogamos a decodificação para a placa de vídeo, a taxa de utilização do processador ficou entre 2% e 3%, realmente impressionante. Como nós estávamos usando um micro topo de linha (Pentium 4 de 3,4 GHz com placa de vídeo GeForce 7800 GTX) com certeza em uma máquina menos “parruda” o benefício de se usar o processador de vídeo da placa de vídeo será maior.
</p>
]]></description><guid isPermaLink="false">34497</guid><pubDate>Fri, 22 Jul 2005 16:59:00 +0000</pubDate></item><item><title>Cobertura do lan&#xE7;amento do GeForce 7800 GTX (G70)</title><link>https://www.clubedohardware.com.br/artigos/video/cobertura-do-lan%C3%A7amento-do-geforce-7800-gtx-g70-r34480/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_5ax5c5ax5c5ax5c5.jpg.8af2729593a71aa3e38ca3e83678c84c.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	A NVIDIA está lançando hoje o seu mais novo chip gráfico topo de linha, o GeForce 7800 GTX, que é baseado em uma arquitetura completamente nova, chamada CineFX 4.0. Em vez de usar o "antigo" núcleo do GeForce 6800 e simplesmente aumentar o seu clock, a NVIDIA decidiu redesenhar a maneira com que as instruções são executadas dentro do chip. Segundo a NVIDIA, isto fez com que o GeForce 7800 GTX tivesse um desempenho até 50% superior ao do GeForce 6800 Ultra rodando no mesmo clock – de acordo com o fabricante, uma única placa GeForce 7800 GTX ultra é mais rápida do que duas placas GeForce 6800 Ultra ligadas em paralelo usando o modo SLI.
</p>

<p align="center">
	<img alt="GeForce 7800 GTX" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1034_01.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> GeForce 7800 GTX.
</p>

<p>
	As principais características da GeForce 7800 GTX são:
</p>

<ul>
	<li>
		24 canalizações de pixel shader (contra 16 no GeForce 6800 Ultra) e oito canalizações de vertex shader (contra seis no GeForce 6800 Ultra).
	</li>
	<li>
		Cada uma das canalizações foi redesenhada, permitindo a execução de até oito operações MAD (multiplicação-adição) por pulso de clock. Esta é a operação mais comum de ser executada em jogos 3D. Por conta disso, cada canalização consegue obter um desempenho matemático de 165 Gflops, contra 66 Gflops do Radeon X850 XT Platinum Edition e 54 Gflops do GeForce 6800 Ultra.
	</li>
	<li>
		Novo modo de suavização de serrilhado (anti-aliasing) chamado "Suavização Transparente" ("Transparency Anti-Aliasing") que aumenta a qualidade de imagem dos jogos 3D.
	</li>
	<li>
		Recursos de melhoria de imagem para vídeo 2D (de-interlacing, inverse 3:2 e 2:2 pull-down) coletivamente chamados PureVideo pela NVIDIA.
	</li>
	<li>
		De acordo com a NVIDIA, o GeForce 7800 GTX oferece melhorias de até 60% no recurso HDR (High Dynamic Range) em comparação ao GeForce 6800 Ultra. O recurso HDR é usado para melhorar a iluminação e nós explicaremos o que é este recurso mais adiante.
	</li>
	<li>
		Consumo ligeiramente inferior ao do GeForce 6800 Ultra: o GeForce 7800 GTX consome entre 100 e 110 W enquanto o GeForce 6800 Ultra consome entre 110 e 120 W. Se você levar em conta que o GeForce 7800 GTX tem 36% transistores a mais do que o GeForce 6800 Ultra (302 milhões x 222 milhões) – o que levaria a um aumento de consumo –, este novo chip é mais eficiente em termos de consumo elétrico.
	</li>
	<li>
		Necessita de uma fonte de alimentação de 350 W ou de 500 W caso esteja operando em modo SLI.
	</li>
	<li>
		Barramento PCI Express x16.
	</li>
	<li>
		O GeForce 7800 GTX roda a 430 MHz com 256 MB de memória GDDR3 de 256 bits rodando a 1,2 GHz e com preço sugerido para o mercado norte-americano de US$ 599,00.
	</li>
	<li>
		Modelos mais baratos baseados no mesmo núcleo devem ser lançados, mas por enquanto a NVIDIA não anunciou oficialmente os nomes nem as especificações.
	</li>
</ul>

<p>
	Vamos ver agora como este novo chip funciona.
</p>

<p>
	[pagination="Arquitetura"]
</p>

<p>
	A arquitetura do GeForce 7800 GTX pode ser vista na Figura 2.
</p>

<p align="center">
	<img alt="GeForce 7800 GTX" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1034_02.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> Arquitetura geral do GeForce 7800 GTX.
</p>

<p>
	Os blocos grandes ao centro são as canalizações de pixel shader. Como você pode ver, há seis blocos com quatro canalizações cada, dando um total de 24 canalizações de pixel shader. Abaixo deles você pode ver uma referência a um cache L2, que falaremos em um minuto. No topo você pode ver oito blocos, que são as oito canalizações de vertex shader desse chip.<br>
	 <br>
	Na Figura 3 você pode ver o diagrama em blocos de uma das canalizações de vertex shader e na Figure 4 você pode ver o diagrama em blocos de uma das canalizações de pixel shader. Como você pode ver, tanto as canalizações de vertex shader quanto as de pixel shader têm acesso a um cache L2 de texturas, que aumenta o desempenho do chip, e as canalizações de pixel shader têm ainda acesso a um cache L1 de texturas.
</p>

<p align="center">
	<img alt="GeForce 7800 GTX" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1034_03.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 3:</strong> Canalização de vertex shader do GeForce 7800 GTX.
</p>

<p align="center">
	<img alt="GeForce 7800 GTX" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1034_04.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 4:</strong> Canalização de pixel shader do GeForce 7800 GTX.
</p>

<p>
	Na sére GeForce 7800 mais poder computacional foi colocado dentro das canalizações de pixel shader. Na série GeForce 6800, cada canalização consistia em duas unidades de shader com uma unidade de textura entre elas. Cada unidade de shader tinha um poder de processamento de quatro operações por pixel, com cada canalização atingindo, portanto, um total de oito operações por pixel. Na arquitetura do GeForce 7800 GTX, a unidade de textura foi movida e colocada ao lado da primeira unidade de shader (e não entre as unidades de shader) e o desempenho de cada unidade de shader foi aumentada para 10 operações por pixel, fazendo com que a canalização tenha um poder de processamento de 20 operações por pixel, um aumento de 150% sobre a arquitetura do GeForce 6800. Impressionante.
</p>

<p>
	[pagination="Melhorias na Qualidade de Imagem 3D"]
</p>

<p>
	Dois novos recursos foram adicionados ao GeForce 7800 GTX para aumentar a qualidade de imagem: High Dynamic Range (HDR) e suavização transparente (transparency anti-aliasing).
</p>

<h3>
	High Dynamic Range (HDR)
</h3>

<p>
	O problema da iluminação é que no mundo real luzes têm brilho ilimitado e o olho humano tem uma percepção de 14 dB (10^14:1), mas placas de vídeo usando um registrador padrão de 32 bits só é capaz de reproduzir 2,4 dB (255:1), porque são usados somente 8 bits para armazenar cada componente de vídeo (R, G, B e alfa). A GeForce 7800 GTX, para aumentar a qualidade de imagem, usa registrador de 128 bits para o HDR, com 32 bits para cada componente de vídeo. A diferença na imagem você pode ver na Figura 5.
</p>

<p align="center">
	<img alt="GeForce 7800 GTX" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1034_05.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 5: </strong>Comparação entre um sistema que não usa HDR (registrador de 32 bits, 8 bits para cada componente de vídeo) e sistema HDR usando registrador de 128 bits (32 bits para cada componente).
</p>

<p>
	A GeForce 7800 GTX usa sua unidade de ponto flutuante para produzir o HDR e não sua unidade de inteiros, como ocorre em outras placas de vídeo.
</p>

<h3>
	Suavização Transparente
</h3>

<p>
	A melhor maneira de explicar o efeito da suavização transparente é compará-la visualmente à suavização de serrilhado padrão.
</p>

<p align="center">
	<img alt="GeForce 7800 GTX" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1034_06.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 6:</strong> Suavização de serrilhado padrão.
</p>

<p align="center">
	<img alt="GeForce 7800 GTX" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1034_07.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 7: </strong>Suavização transparente.
</p>

<p>
	[pagination="Melhorias na Qualidade de Imagem 2D"]
</p>

<p>
	Coletivamente chamadas de PureVideo pela NVIDIA, melhorias de imagem 2D foram adicionadas basicamente para corrigir entrelaçamento e telecinagem.<br>
	 <br>
	Vídeos originalmente voltados para serem exibidos em aparelhos de TV são entrelaçados, pois este é o modo em que os aparelhos de TV funcionam. No modo entrelaçado, cada quadro de vídeo tem somente metade das linhas de vídeo disponíveis. Monitores de vídeo usados pelos computadores usam varredura não-entrelaçada (ou progressiva, como também é chamada), que é capaz de mostrar todas as linhas disponíveis em todos os quadros. Desta forma, quando reproduzimos um vídeo no micro podemos ver que o vídeo não apresenta a melhor qualidade de imagem possível. O GeForce 7800 GTX possui uma unidade para remoção do entrelaçamento (de-interlacing), que cria as linhas que faltam em cada quadro de vídeo, melhorando a qualidade de imagem de vídeos 2D.
</p>

<p>
	Quando filmes são convertidos para vídeo, outro problema surge. Filmes são gravados a 24 quadros por segundo, enquanto devem ser passados a 30 quadros por segundo na TV. Desta forma, o filme precisa passar por um processo chamado telecinagem, que cria os seis quadros por segundo que estão faltando. Às vezes este processo não é bem feito e você percebe que a qualidade de imagem não é a melhor possível. O GeForce 7800 GTX oferece dois recursos para reverter a telecinagem e resolver este problema, chamados inverse 3:2 e 2:2 pull-down.
</p>
]]></description><guid isPermaLink="false">34480</guid><pubDate>Wed, 22 Jun 2005 14:24:00 +0000</pubDate></item><item><title>SLI da ATI vem a&#xED;...</title><link>https://www.clubedohardware.com.br/artigos/video/sli-da-ati-vem-a%C3%AD-r3599/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_3ym7vd3ym7vd3ym7.jpg.867309a8e9dd17eb7487e414a3c8bedd.jpg" /></p>
<p>
	Ontem teve uma coletiva de imprensa da ATI para o anúncio oficial do chipset RS400 - versão do chipset Radeon Xpress 200 para a plataforma Intel. Mas foi um mico: o CD contendo a transparência estava com defeito e ficamos na mão. Por outro lado, a ATI apresentou informações mais detalhadas sobre a tecnologia HyperMemory (<a href="https://www.clubedohardware.com.br/artigos/video/turbocache-e-hypermemory-r34462/" rel="" target="_blank">que já explicamos aqui como funciona</a>), como sempre falando que esta tecnologia é superior à TurboCache da NVIDIA. Nós já recebemos tanto a Radeon X300 SE com HyperMemory quanto a GeForce 6200 com TurboCache para testes, em breve poderemos dizer por nós mesmos qual tecnologia é mais eficiente.
</p>

<p>
	Apesar do mico, Paul Ayscough deixou escapar que a ATI está criando sua própria tecnologia SLI para concorrer de frente com a NVIDIA. Quando será lançada? Não sabemos. Mas especulamos que talvez seja possível aprontá-la para a Computex 2005 - a feira mais importante para a indústria de hardware (que estaremos presentes mais uma vez, é claro). Algumas perguntas ficam no ar: como será a arquitetura da versão da ATI? Será que placas-mãe baseadas no nForce 4 rodarão placas de vídeo SLI da ATI? A ATI lançará um chipset SLI? Será que as placas-mãe com esse chipset SLI da ATI (se for lançado) rodarão placas de vídeo SLI da NVIDIA? Como será o seu desempenho? Pois é, por enquanto temos mais perguntas do que respostas e infelizmente a ATI ainda não pode responder a estas nossas perguntas.
</p>

<ul>
	<li>
		Leia também: <a href="https://www.clubedohardware.com.br/artigos/video/que-fim-levou-o-sli-e-o-crossfire-r37108/" rel="">Que fim levou o SLI e o CrossFire?</a>
	</li>
</ul>
]]></description><guid isPermaLink="false">3599</guid><pubDate>Thu, 28 Apr 2005 17:28:00 +0000</pubDate></item><item><title>TurboCache e HyperMemory</title><link>https://www.clubedohardware.com.br/artigos/video/turbocache-e-hypermemory-r34462/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_qole01qole01qole.jpg.3a85e2512aaec31c892e16d00910852a.jpg" /></p>
<p>
	Tanto a NVIDIA quanto a ATI lançaram novos chips gráficos voltados para placas de vídeo de baixo custo baseados no novo barramento PCI Express, ambos usando uma nova tecnologia que "rouba" parte da memória RAM do micro para ser usada como memória de vídeo. Esta tecnologia é chamada TurboCache (ou simplemente TC) pela NVIDIA, enquanto a ATI a chama de HyperMemory. Os chips lançados com esta tecnologia são o GeForce 6200 da NVIDIA e o Radeon X300 da ATI.
</p>

<p>
	Como a placa de vídeo usa parte da memória RAM do micro para formar sua memória de vídeo, a placa pode ser fabricada com pouca memória de vídeo, barateando o seu custo. A contrapartida é que seu micro ficará com menos memória RAM disponível.
</p>

<p>
	O problema é que os fabricantes de placas de vídeo estão anunciando suas placas de vídeo como se elas tivessem mais memória de vídeo do que realmente possuem, na maioria dos casos dizendo que ela "suporta 256 MB de memória", o que pode levar o usuário incauto a achar que trata-se de uma placa com 256 MB de memória de vídeo, o que não é verdade. Por exemplo, a placa GV-NX62TC256D da Gigabyte tem apenas 64 MB de memória de vídeo, mas é anunciada como tendo "suporte a 256 MB de memória de vídeo". Na realidade a diferença a placa "rouba" do sistema. Podemos dar como exemplo na linha da ATI a PowerColor Radeon X300 SE, que tem 128 MB de memória de vídeo mas é vendida "com 256 MB HyperMemory".
</p>

<p>
	A NVIDIA nos mandou um e-mail esclarecendo alguns pontos interessantes sobre este artigo:
</p>

<p>
	<em>"Com o TurboCache o driver de vídeo usa a memória do micro para aumentar a quantidade de memória de vídeo de acordo com o que a aplicação precisar. Dessa forma, o chip GeForce 6200 com TurboCache pode oferecer a mesma experiência que um chip não-TurboCache. Aliás, um chip TurboCache é melhor que um não-TurboCache no quesito preço. Dessa forma, não faz diferença para o usuário final o local onde a memória de vídeo está.</em>
</p>

<p>
	<em>Nós temos regras sobre como as embalagens dos produtos baseados no TurboCache devem ser, para termos certeza que os produtos estão rotulados de maneira clara. Essas regras incluem especificar o quanto de memória de vídeo a placa possui e que um PC com 512 MB de memória é necessário para obter todo o potencial da placa como se ele tivesse 128 MB. Quando sabemos que algum parceiro não está seguindo essas regras, nós trabalhamos para corrigir esse problema o mais rapidamente possível."</em>
</p>

<p>
	A NVIDIA também nos explicou que o GeForce 6200 com TurboCache está disponível em várias configurações de memória: 32 MB ou 64 MB, com interface de 64 bits ou 128 bits, e com clock de memória de 275 MHz ou 350 MHz. Dessa forma, você deve prestar muita atenção ao comprar uma placa de vídeo baseada no GeForce 6200, já que uma placa de um fabricante pode ser mais rápida do que de outro por causa da configuração de memória usada.
</p>

<p>
	A ATI também tem essa questão da placa usar interface de 64 bits ou 128 bits, mas pelo menos eles adicionam essa informação no nome do produto: Radeon X300 designa a placa de 128 bits, enquanto Radeon X300 SE designa a placa de 64 bits.
</p>

<p>
	Como você pode ver, a idéia por trás dessa tecnologia é a mesma do vídeo on-board – chamada UMA, Unified Memory Architecture –, que também rouba parte da memória RAM para ser usada como memória de vídeo, com a diferença de a placa já vir com um pouco de memória de vídeo (64 MB ou 128 MB), usando a memória RAM do sistema somente se o jogo precisar de mais memória de vídeo.
</p>

<p>
	Para aqueles que não sabem. esta idéia não é nova. Ela surgiu com o barramento AGP, que também oferece este recurso mas foi muito pouco usado. Na época, os fabricantes acabaram chegando à conclusão de que era melhor colocar mais memória de vídeo na placa do que "roubar" memória do sistema, por questões de desempenho. Mas naquela época o AGP operava a 528 MB/s e um PC típico tinha 16 MB de memória, quando muito. O barramento PCI Express x16 opera a 4 GB/s e um PC típico hoje tem 256 MB de memória.
</p>

<p>
	O mercado-alvo dessa nova geração de placas de baixo custo é justamente o de usuários que querem o micro mais barato possível mas querem um desempenho 3D um pouco melhor que o oferecido pelo vídeo on-board. Mas como essas placas são baseadas no barramento PCI Express, que foi lançado há muito pouco tempo, necessitando de placas-mães de última geração, a solução pode não ser tão barata assim – pelo menos por enquanto.
</p>
]]></description><guid isPermaLink="false">34462</guid><pubDate>Thu, 21 Apr 2005 14:42:00 +0000</pubDate></item><item><title>Tudo sobre HDTV</title><link>https://www.clubedohardware.com.br/artigos/video/tudo-sobre-hdtv-r34461/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_5ljiqf5ljiqf5lji.jpg.a0dad46c05c308886568eb0b48dfaf4e.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	O sistema de TV digital permite a transmissão de programas em resoluções maiores, aumentando consideravelmente a qualidade da imagem da TV. Para usar essas resoluções maiores, no entanto, é necessário que você tenha um aparelho de TV de alta resolução, mais conhecido como HDTV (TV de alta definição).
</p>

<p>
	Os aparelhos de TV atuais podem sintonizar canais do sistema digital usando um conversor sem problemas, mas ficam limitados à resolução padrão da TV, que é de 480 linhas usando varredura entrelaçada (480i, ver tabela abaixo).
</p>

<p>
	Os aparelhos de HDTV já existem, só que o problema é que a transmissão de TV atual usa a menor resolução possível. No exterior, onde a TV digital já é uma realidade, alguns programas de TV – em alguns casos, a programação completa – já estão sendo transmitidos em resoluções maiores para os telespectadores que possuem aparelhos de HDTV. A resolução usada varia de acordo com a emissora. Nos EUA, por exemplo, alguns programas da HBO e da CBS são passados em 1080i, enquanto que a resolução usada pelos programas transmitidos em formato HDTV na Fox é a 480p e na ESPN HD – que é um canal que transmite a programação inteira no formato HDTV – é a 720p.
</p>

<p>
	Os aparelhos de HDTV são capazes de operar em três resoluções: 480, 720 e 1080 linhas. O modo de varredura pode ser entrelaçado (também chamado "i", de interlaced) ou não-entrelaçado (também chamado "p", de progressive). Na tabela abaixo você confere todas as possíveis resoluções de HDTV.
</p>

<table>
	<tbody>
		<tr>
			<td>
				<p>
					<strong>Nome</strong>
				</p>
			</td>
			<td>
				<strong>Resolução</strong>
			</td>
			<td>
				<strong>Varredura</strong>
			</td>
			<td>
				<strong>Relação de Aspecto</strong>
			</td>
		</tr>
		<tr>
			<td>
				480i 
			</td>
			<td>
				640 x 480 
			</td>
			<td>
				Entrelaçada 
			</td>
			<td>
				4:3 (1,33)
			</td>
		</tr>
		<tr>
			<td>
				480p
			</td>
			<td>
				640 x 480 
			</td>
			<td>
				Não-Entrelaçada 
			</td>
			<td>
				4:3 (1,33)
			</td>
		</tr>
		<tr>
			<td>
				720i 
			</td>
			<td>
				1280 x 720
			</td>
			<td>
				Entrelaçada
			</td>
			<td>
				16:9 (1,78)
			</td>
		</tr>
		<tr>
			<td>
				720p
			</td>
			<td>
				1280 x 720
			</td>
			<td>
				Não-Entrelaçada 
			</td>
			<td>
				16:9 (1,78)
			</td>
		</tr>
		<tr>
			<td>
				1080i
			</td>
			<td>
				1920 x 1080
			</td>
			<td>
				Entrelaçada
			</td>
			<td>
				16:9 (1,78)
			</td>
		</tr>
		<tr>
			<td>
				1080p
			</td>
			<td>
				1920 x 1080
			</td>
			<td>
				Não-Entrelaçada 
			</td>
			<td>
				16:9 (1,78)
			</td>
		</tr>
	</tbody>
</table>

<p>
	A diferença de qualidade entre os modos entrelaçado e não-entrelaçado é significativa. O sistema de televisão analógico utiliza varredura entrelaçada. Nesse método primeiro são desenhadas as linhas ímpares (linha 1, linha 3, linha 5, etc) da tela e depois, quando a tela termina de ser preenchida, são desenhadas as linhas pares (linha 2, linha 4, linha 6, etc), para então recomeçar o processo. No total são desenhados 60 quadros por segundo (isto é, a tela é preenchida 60 vezes por segundo), sendo 30 quadros formados por linhas ímpares e 30 quadros formados por linhas pares, intercalados. Cada quadro, portanto, só tem metade das linhas que a televisão é capaz de mostrar.
</p>

<p>
	Já a varredura não-entrelaçada (ou progressiva, como agora ela está sendo chamada) todas as linhas são desenhadas de uma só vez. Assim, temos 60 quadros por segundo, sendo que cada quadro é formado por todas as linhas que a TV é capaz de mostrar.
</p>

<p>
	Sendo assim, você deve tomar muito cuidado ao comparar resoluções diferentes. Por exemplo, a resolução 1080i não necessariamente é melhor que a resolução 720p. Apesar da resolução 1080i ter mais pontos (pixels) na tela, a sua varredura é entrelaçada, enquanto que, apesar de a resolução 720p ter menos pontos, por ela usar varredura não-entrelaçada (progressiva) sua qualidade visual (que reflete basicamente na nitidez da imagem) é melhor.
</p>

<p>
	O grande problema é que os aparelhos de HDTV, assim como ocorre com monitores LCD, possuem uma resolução nativa (para mais informações sobre essa característica, <a href="https://www.clubedohardware.com.br/artigos/video/tudo-o-que-voc%C3%AA-precisa-saber-sobre-monitores-lcd-r34409/" rel="" target="_blank">leia nosso tutorial sobre monitores LCD</a>).
</p>

<p>
	Para mostrar imagens que não sejam da mesma resolução, os aparelhos precisam fazer uma conversão, que pode ser boa ou não, dependendo do modelo do aparelho. Só para citar um exemplo ao acaso, a TV de plasma Panasonic TH42PA20UP de 42" tem uma resolução nativa de 848 x 480 (ou seja, 480 linhas). Para mostrar imagens com resolução 720p ela precisa fazer esta conversão, fazendo com que a sua qualidade de imagem não seja tão boa quanto a de uma TV que seja nativamente de 720 linhas.
</p>

<p>
	Portanto, se você é um usuário que se preocupa com qualidade de imagem, ao comprar um aparelho HDTV você deverá prestar atenção à sua resolução nativa. Preferencialmente ela deverá ser igual à resolução que você pretende usar na maior parte do tempo.
</p>

<p>
	É possível ligar painéis HDTV diretamente ao PC. Vamos ver como isso é feito.
</p>

<p>
	[pagination="Conectando Painéis de HDTV ao PC"]
</p>

<p>
	Os painéis HDTV podem ser conectados ao PC através de uma das seguintes ligações, listadas por ordem de qualidade de imagem, da melhor para a pior:
</p>

<ul>
	<li>
		DVI
	</li>
	<li>
		VGA
	</li>
	<li>
		Vídeo Componente
	</li>
	<li>
		Separated Video (S-Video)
	</li>
	<li>
		Vídeo Composto
	</li>
</ul>

<p style="text-align: center;">
	<img alt="1011_01.jpg" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1011_01.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Conectores normalmente encontrados em uma placa de vídeo.
</p>

<p>
	A conexão DVI é a melhor porque nela os dados são transmitidos no formato digital, enquanto nos outros tipos de conexão os dados são transmitidos analogicamente. Dessa forma, se o seu painel HDTV tiver esse tipo de conector, use-o. Se ele não tiver, então use o conector VGA. Se o seu painel não tiver nem conexão DVI nem conexão VGA, então a solução é o uso da conexão vídeo componente.
</p>

<p style="text-align: center;">
	<br>
	<img alt="1011_002.jpg" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1011_002.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> Detalhe dos conectores DVI e VGA em um painel HDTV.
</p>

<p>
	Fazer a instalação do painel HDTV ao PC usando as conexões DVI e VGA é relativamente simples: basta você conectar uma ponta do cabo na saída correspondente da placa de vídeo (DVI ou VGA) e a outra ponta no conector apropriado do painel.
</p>

<p style="text-align: center;">
	<img alt="1011_003.jpg" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1011_003.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 3:</strong> Conectores do cabo DVI.
</p>

<p style="text-align: center;">
	<br>
	<img alt="1011_004.jpg" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1011_004.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 4:</strong> Cabo DVI conectado ao painel HDTV.
</p>

<p style="text-align: center;">
	<img alt="1011_005.jpg" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1011_005.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 5:</strong> Outra ponta do cabo DVI conectado à placa de vídeo.
</p>

<p>
	Para mais informações sobre a conexão DVI, <a href="https://www.clubedohardware.com.br/artigos/video/tudo-o-que-voc%C3%AA-precisa-saber-sobre-conectores-de-v%C3%ADdeo-r34256/" rel="" target="_blank">leia o nosso tutorial sobre o assunto</a>.
</p>

<p>
	A conexão usando a saída vídeo componente é um pouco mais complicada, vamos a ela.
</p>

<p>
	[pagination="Conexão via Vídeo Componente"]
</p>

<p>
	Se o seu painel HDTV não tiver entradas DVI ou VGA, a solução para ligá-lo ao seu micro é usando a sua entrada vídeo componente. Para usar esta conexão, sua placa de vídeo precisa ter uma saída deste tipo. O problema é que não é fácil detectar visualmente se uma placa de vídeo possui ou não este tipo de saída, porque ela compartilha o conector S-Video normalmente encontrado em placas de vídeo. Quase todas as placas de vídeo hoje em dia possuem um conector S-Video, mas a maioria não tem saída vídeo componente disponível neste conector.
</p>

<p>
	Uma maneira de detectar se o seu conector possui ou não saída vídeo componente é olhando para ele. Se ele tiver somente quatro pinos, significa que ele tem somente saída S-Video, não possuindo saída vídeo componente. Se ele tiver mais de quatro pinos, isso pode significar que ele talvez tenha a saída vídeo componente. Confira da Figura 6.
</p>

<p align="center">
	<img align="middle" alt="Conectores S-Video" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/hdtv_6.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 6:</strong> Identificando o tipo de conector S-Video que a sua placa de vídeo possui.
</p>

<p>
	Repare que dissemos "talvez". Isso ocorre porque algumas placas de vídeo – especialmente as com recurso de captura de vídeo (VIVO) – possuem mais do que quatro pinos em seu conector S-Video mas esses pinos extras são usados para outra função, não havendo a saída vídeo componente.
</p>

<p>
	Em resumo: se o conector S-Video da sua placa de vídeo tem quatro pinos, ela não tem saída vídeo componente, se ela tiver mais de quatro pinos ela pode ter saída vídeo componente.
</p>

<p>
	Para ter certeza, só mesmo lendo no manual da placa e procurando em suas especificações se há este recurso.
</p>

<p>
	Para usar a saída vídeo componente de sua placa de vídeo, você necessitará de um adaptador. Esse adaptador normalmente vem junto com as placas de vídeo que têm saída vídeo componente. Então, se a sua placa de vídeo veio com um adaptador desse tipo, isso significa que ela tem saída vídeo componente!
</p>

<p>
	Esse adaptador pode ter vários aspectos, os dois mais comuns nós mostramos nas Figuras 7 e 8.
</p>

<p align="center">
	<img alt="Tudo sobre HDTV" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1011_006.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 7:</strong> Adaptador para usar a saída vídeo componente da placa de vídeo.
</p>

<p align="center">
	<img alt="Tudo sobre HDTV" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/1011_007.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 8:</strong> Outro modelo de adaptador para usar a saída vídeo componente da placa de vídeo.
</p>

<p>
	[pagination="Conexão via Vídeo Componente (Continuação)"]
</p>

<p>
	Tendo certeza que sua placa de vídeo tem saída vídeo componente, basta fazer a conexão, da seguinte forma:
</p>

<ul>
	<li>
		Conector Verde: entrada verde ou rotulada como Y;
	</li>
	<li>
		Conector Azul: entrada azul ou rotulada como Pb, ou como Cb ou como B-Y;
	</li>
	<li>
		Conector Vermelho: entrada vermelha ou rotulada como Pr ou como Cr ou como R-Y.
	</li>
</ul>

<p>
	Você precisará obviamente de um cabo de conexão vídeo componente. Este cabo possui três plugues, um verde, um vermelho e um azul.
</p>

<p align="center">
	<img align="middle" alt="Cabo vídeo componente" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/hdtv_9.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 9:</strong> Cabo vídeo componente.
</p>

<p align="center">
	<img align="middle" alt="Conectores vídeo componente" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/hdtv_10.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 10:</strong> Conectores existentes no painel HDTV.
</p>

<p align="center">
	<img align="middle" alt="Conexão Vídeo Componente" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/hdtv_11.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 11:</strong> Cabo vídeo componente corretamente instalado ao painel HDTV.
</p>

<p align="center">
	<img align="middle" alt="Cabo vídeo componente" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/hdtv_12.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 12:</strong> Cabo vídeo componente corretamente instalado no adaptador da placa de vídeo.
</p>

<p align="center">
	<img align="middle" alt="Vídeo componente no PC" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/hdtv_13.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 13:</strong> Cabo vídeo componente corretamente instalado na placa de vídeo.
</p>

<p>
	Se a sua placa de vídeo não tiver saída vídeo componente e seu painel HDTV não tiver entradas DVI e VGA, então só sobra o uso da conexão usando  o padrão Separated Video (S-Video). A qualidade dessa conexão é muito baixa e você não obterá uma imagem muito nítida na tela, só devendo ser usada como um "quebra-galho". Sua conexão é simples, bastando ligar uma ponta do cabo na saída da placa de vídeo e a outra ponta na entrada do painel. Eventualmente você poderá precisar ativar a saída S-Video nas propriedades de vídeo do seu computador. Por causa se sua baixa qualidade não recomendamos o uso desse tipo de conexão.
</p>

<p>
	Após conectar o painel HDTV ao PC você precisará fazer alterações na configuração de vídeo. Vamos a elas.
</p>

<p>
	[pagination="Configuração"]
</p>

<p>
	Após efetuar a correta conexão do painel HDTV ao PC, você poderá precisar alterar em um dos botões do painel a seleção da entrada de vídeo para que a imagem do micro apareça na tela. Após fazer isso, você precisará alterar a resolução de vídeo. Isso pode ser feito através do ícone Vídeo do Painel de Controle.
</p>

<p>
	Você encontrará alguns problemas. Primeiro, como explicamos, todo painel HDTV possui uma resolução nativa. Dessa forma, a imagem só ficará perfeita quando você configurar o vídeo a usar a configuração nativa do painel.
</p>

<p>
	Segundo, a tela do painel HDTV é wide screen (relação de aspecto de 16:9). Por este motivo, você deverá ajustar a posição da tela através dos ajustes próprios existentes nas propriedades de vídeo do Windows.
</p>

<p>
	Por fim, outro problema que poderá ocorrer é você tentar configurar o painel em uma configuração que ele não suporta e a imagem ficar toda "embaralhada". Nesse caso, escolha outra resolução.
</p>

<p align="center">
	<img align="middle" alt="Configuração de Vídeo" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/hdtv1.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 14:</strong> Configurando a resolução do painel HDTV.
</p>

<p align="center">
	<img align="middle" alt="Configuração de Vídeo" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/hdtv2.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 15:</strong> Ajustando a posição da imagem.
</p>

<p>
	É isso. Bom divertimento!
</p>
]]></description><guid isPermaLink="false">34461</guid><pubDate>Wed, 20 Apr 2005 14:44:00 +0000</pubDate></item><item><title>TV digital</title><link>https://www.clubedohardware.com.br/artigos/video/tv-digital-r34460/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_qks1y8qks1y8qks1.jpg.75fe35be2a1740add3cbe85a883c729c.jpg" /></p>
<p>
	O Brasil é um dos poucos grandes países do mundo que ainda não decidiu qual padrão de transmissão de TV digital adotará. Uma das causas dessa demora é fato do ex-Ministro das Comunicações Miro Teixeira insistir pelo desenvolvimento de um padrão próprio brasileiro. A conseqüência direta na demora dessa decisão é que deixa o Brasil para trás em comparação aos demais mercados do mundo, incluindo outros importantes países em desenvolvimento tais como México, Rússia, Índia e China, que já decidiram qual padrão seguir. Outro detalhe é que o FCC (a Anatel norte-americana) estipulou que até maio de 2006 todas as transmissões de TV aberta nos EUA terão de ser digitais.
</p>

<p>
	No mundo existem três padrões:
</p>

<ul>
	<li>
		ATSC (Advanced Television Systems Committee), adotado pelos EUA, Canadá, México e Coréia do Sul;
	</li>
	<li>
		ISDB-T (Integrated Services Digital Broadcasting Terrestrial), adotado pelo Japão;
	</li>
	<li>
		DVB-T (Digital Video Broadcast Terrestrial), adotado pelos demais países que já decidiram qual padrão seguir, em especial os países da Europa, Ásia, África e Oceania.
	</li>
</ul>

<p>
	O sistema de transmissão digital usa a codificação MPEG-2 digitalizar as imagens, o mesmo padrão de codificação usado pelo DVD. A diferença entre os sistemas de transmissão está na maneira com que as imagens são codificadas para a transmissão, o formato de vídeo antes da codificação, o formato de vídeo após a codificação e a maneira com que o áudio é codificado. O sistema ATSC usa um esquema chamado 8-VSB, enquanto os outros dois sistemas usam um esquema chamado COFDM, que é menos sensível a interferências.
</p>

<p>
	Interessante notar que o Brasil é o único país no mundo pensando em adotar o sistema japonês. Testes realizados pela ABERT (Associação Brasileira de Emissoras de Rádio e Televisão) e pela SET (Sociedade Brasileira de Engenharia de Televisão e Telecomunicações) sob supervisão do CPqD (Centro de Pesquisa e Desenvolvimento em Telecomunicações) demonstrou que dos três padrões, o ISDB-T era o melhor, seguido do DVB-T e finalmente pelo ATSC.
</p>

<p>
	Aparentemente o fato de o ATSC ser o mais sensível a interferências não preocupa o mercado norte-americano, onde poucas pessoas ainda assistem TV aberta (isto é, através de antenas). O que nos faz pensar se a escolha do ATSC terá sido a melhor opção para o México. Por outro lado, devemos nos lembrar que o México faz parte do NAFTA (North American Free Trade Association, Zona de Livre Comércio da América do Norte), que faz do país um dos principais fabricantes e exportadores de produtos para o mercado norte-americano e, portanto, a adoção do mesmo sistema dos EUA aparentemente é melhor mais por motivos comerciais do que técnicos.
</p>
]]></description><guid isPermaLink="false">34460</guid><pubDate>Tue, 19 Apr 2005 13:16:00 +0000</pubDate></item><item><title>Gloss&#xE1;rio de termos 3D</title><link>https://www.clubedohardware.com.br/artigos/video/gloss%C3%A1rio-de-termos-3d-r34416/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_dmopnldmopnldmop.jpg.171caa8fc39770bb67013b92191b378d.jpg" /></p>
<p>
	[pagination="Opções de Configuração"]
</p>

<p>
	Se você abrir o menu de configurações do seu jogo 3D preferido verá uma série de opções de configuração da qualidade de imagem. No geral, quando diminuímos a qualidade da imagem, aumentamos o desempenho do jogo. Isso ocorre porque haverá menos coisas a serem feitas na imagem e, com isso, o chip gráfico trabalhará mais "folgado". Se você tem uma placa de vídeo menos poderosa pode aumentar o desempenho do jogo diminuindo a sua qualidade de imagem.
</p>

<p>
	Para os não-iniciados, no entanto, as opções de configuração da qualidade de imagem parecem grego. Explicamos a seguir os jargões mais comuns relacionados a qualidade de jogos 3D.
</p>

<ul>
	<li>
		Anti-aliasing (suavização): O anti-aliasing, conhecido em português como suavização de serrilhado ou simplesmente suavização, é uma técnica que se colocar pontos onde originalmente não havia para acabar com o aspecto de serrilhado ("escada") da imagem, especialmente em linhas retas desenhadas na diagonal. Em jogos 3D esta opção pode ser normalmente configurada em none ou disabled, 2x, 4x ou 6x (ou low, med e high, em alguns jogos). Quanto maior o valor, maior a qualidade da imagem, porém mais lento fica o jogo. Normalmente abreviado como FSAA (Full Screen Anti-Aliasing ou suavização em tela cheia).
	</li>
	<li>
		Filtragem bilinear (interpolação): Neste tipo de filtragem, a placa de vídeo suaviza transições entre cores. Por exemplo, se há uma transição entre uma área amarela e uma área vermelha, a filtragem bilinear fará com que a região de encontro entre estas duas áreas seja suavizada (cria-se um degradê indo do amarelo para o vermelho).
	</li>
	<li>
		Filtragem trilinear: Essa filtragem apresenta uma transição ainda mais suave entre cores, por usar uma região de transição maior. O efeito final é melhor que o da filtragem bilinear, porém faz com que o jogo fique mais lento.
	</li>
	<li>
		Filtragem Anisotrópica: Este tipo de filtragem melhora a qualidade de imagens que não estejam no plano tradicional. Para entender isso, lembre-se do letreiro dos filmes da série Guerra nas Estrelas. Na medida em que as letras sobem, elas ficam embaçadas e difíceis de se ler. A filtragem anisotrópica serve para que imagem não fique embaçada em casos como esse. Esta filtragem normalmente pode ser configurada com a quantidade de amostras a serem usadas no processo de filtragem (2x, 4x, 8x, 16x). Quanto mais amostras, mais nítida será a imagem, porém mais lento fica o jogo.
	</li>
	<li>
		Mapeamento MIP: É um tipo de filtragem onde a textura original aplicada no objeto é reaplicada usando tamanhos menores. Quando o objeto está distante, o que muitas vezes ocorre é que a textura a ser aplicada no objeto é maior que o objeto em si, fazendo com que a placa de vídeo tenha que "espremer" uma imagem grande em um espaço menor do que ela, criando um efeito visual indesejável, conhecido como ruído Moiré. Com o mapeamento MIP ativado, seria aplicada uma das texturas menores, que "cabe" no objeto, acabando com esta falha. Não deixa de ser uma técnica de suavização (anti-aliasing).
	</li>
	<li>
		Z-buffering: Tradicionalmente a memória de vídeo armazena somente informações a respeito da cor de cada ponto da tela. Como a memória também é um elemento bidimensional, tudo fica fácil. Com a técnica de z-buffering implementada, a placa de vídeo armazena informações sobre o eixo z (profundidade) na memória de vídeo, aumentando a velocidade de renderização da imagem, pois a placa saberá que objetos "escondidos" atrás de outros objetos não precisam ser desenhados. Quando o z-buffering não é usado, muitos cálculos precisam ser feitos para determinar a posição espacial de cada objeto e saber se um objeto está na frente ou atrás de outro.
	</li>
</ul>

<p>
	[pagination="Mais opções de Configuração"]
</p>

<ul>
	<li>
		OpenGL: É uma interface de programação (API), isto é, os jogos enviam comandos para a placa de vídeo nesta linguagem e o driver de vídeo converte estes comandos em instruções que o processador de vídeo compreenda. Com isso, os jogos 3D não precisam ter drivers para todas as placas de vídeo existentes no mercado, como acontecia antigamente.
	</li>
	<li>
		DirectX: Outra interface de programação, ver explicação acima.
	</li>
	<li>
		Bump Mapping: técnica de mapeamento para se criar superfícies irregulares como a casca de uma laranja, o asfalto de uma rua ou uma pedra, por exemplo.
	</li>
	<li>
		Combinação do canal alfa (alpha blending): Recurso para criar uma aparência de transparência parcial entre objetos. Este recurso é usado em vários efeitos, como na criação de água, vidros, etc.
	</li>
	<li>
		Mistura de cores (dithering): Pode-se misturar cores para obter uma cor não disponível na paleta de cores usada pela placa de vídeo. Isso é feito para não haver a necessidade de aumentar o número de cores do modo de exibição da placa de vídeo, o que requer mais memória de vídeo. A mistura de cores é feita colocando pontos coloridos próximos um dos outros para que de longe o usuário pense que se trata de uma só cor. Atualmente, como as placas de vídeo têm bastante memória de vídeo e na maioria das vezes rodamos jogos com mais de 4 bilhões de cores simultâneas (32 bits de cor), este recurso quase não é mais usado pelos jogos modernos. A não ser que você reduza a quantidade de cores usada no seu jogo por algum motivo.
	</li>
	<li>
		Frame buffer: os programas 3D normalmente dividem a memória de vídeo em dois blocos, chamados frame buffer, para aumentar o desempenho de vídeo. Enquanto a imagem atual está sendo mostrada, a placa começa a desenhar a próxima imagem no segundo bloco de memória. Esta técnica é também chamada double-buffering. Algumas placas permitem o uso de três blocos de memória, recurso chamado triple frame buffer, para casos onde a placa seja muito mais rápida do que o monitor de vídeo (quando o monitor está ainda desenhando em sua tela a primeira imagem e a placa de vídeo já terminou de desenhar no segundo bloco de memória a próxima imagem, a placa pode ser configurada para já ir desenhando a terceira imagem na seqüência e não ficando ociosa). Dependendo do contexto, frame buffer pode ser também sinônimo de "memória de vídeo".
	</li>
	<li>
		GPU (Graphics Processing Unit) ou VPU (Visual Processing Unit): Nome dado ao processador de vídeo quando ele incorpora as funções de iluminação e transformação (lightining and transform ou L&amp;T). Antigamente estas etapas, que fazem parte de um conjunto de tarefas chamado cálculo geométrico, eram feitas pelo processador da máquina. A partir do chip GeForce 256, estas etapas passaram do processador da máquina para o chip gráfico. Com isto, o desempenho de vídeo 3D da placa de vídeo passou a não depender mais do desempenho do co-processador matemático (FPU, unidade de ponto flutuante) da máquina.
	</li>
	<li>
		IGP (Integrated Graphics Processor): É quando há um chip gráfico embutido no chipset da placa-mãe, ou seja, o vídeo é on-board.
	</li>
	<li>
		Renderização: O processo de criação de imagens tridimensionais divide-se em dois grupos: cálculo geométrico e renderização. Na primeira etapa, os objetos que serão mostrados na tela são calculados. Na etapa de renderização os objetos são efetivamente desenhados na tela.
	</li>
	<li>
		FPS: Quadros por segundo (frames per second), a unidade de medida de desempenho de placas 3D mais tradicional. Também chamado framerate, mede a quantidade de quadros (telas completas) que a placa de vídeo é capaz de gerar por segundo. Para um jogo ser "jogável" a placa de vídeo tem que ser capaz de gerar pelo menos 30 quadros por segundo neste jogo. Quanto maior este valor, melhor. Como explicamos na página anterior, diminuir a qualidade da imagem faz com que a quantidade de quadros por segundo aumente. Importante notar que por conta das diferentes tecnologias usadas nos mais diferentes jogos no mercado, uma placa pode obter uma alta quantidade de quadros por segundo em um jogo e uma baixa quantidade de quadros por segundo em outro jogo. Por exemplo, uma GeForce FX 5200 pode obter um bom escore no Quake III que a classifica como "jogável" para este jogo, mas esta mesma placa obterá um baixo escore no Doom 3, fazendo com ela não seja a placa ideal para este outro game. Aliás, a escolha da placa de vídeo tem a ver com os jogos que você pretende rodar em sua máquina.
	</li>
</ul>
]]></description><guid isPermaLink="false">34416</guid><pubDate>Wed, 05 Jan 2005 11:35:00 +0000</pubDate></item><item><title>Guia de compras de placas de TV, FM e captura de v&#xED;deo</title><link>https://www.clubedohardware.com.br/artigos/video/guia-de-compras-de-placas-de-tv-fm-e-captura-de-v%C3%ADdeo-r34423/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_7okfsp7okfsp7okf.jpg.1002a357451ec54b8b6991f2282dd14b.jpg" /></p>
<p>
	[pagination="Entendo as Placas de Captura de video e FM/TV"]
</p>

<p>
	As placas com funções de sintonia de TV, sintonia de rádio e captura de vídeo estão cada vez mais populares. Entretanto, para o usuário não iniciado no assunto, torna-se um pouco difícil entender qual é a diferença entre os vários modelos oferecidos no mercado. Para facilitar, elaboramos um pequeno glossário para que você entenda o que significa os recursos e termos mais comuns desse tipo de periférico.
</p>

<ul>
	<li>
		PVR: Significa Personal Digital Video Recorder, ou Gravador de Vídeo Digital Pessoal. É o nome pelo o qual placas com recurso de sintonia e gravação de programas de TV e captura de vídeo estão sendo chamadas. Placas classificadas como PVR permitem a programação da gravação de TV por data e hora, da mesma forma com que você grava pode programar a gravação de programas de TV em seu videocassete.
	</li>
	<li>
		PIP: Significa Picture in Picture, é um recurso comum em televisões mais caras. No caso de placas de TV este recurso permite mostrar ao mesmo tempo o que está passando na TV e tocar um vídeo já gravado. Você escolhe qual dos dois será mostrado em tela cheia e qual será mostrado em uma janela menor.
	</li>
	<li>
		Compressão MPEG: A compressão MPEG é usada em DVDs. Se o chip da sua placa de captura tiver este recurso, significa que ele é capaz de codificar vídeos para gravação em DVD. Quando este recurso não está presente na placa, é o processador da máquina que efetua a codificação do vídeo. A vantagem da placa já ter este recurso é que o processo de codificação de vídeo para a gravação em DVD será mais rápido, pois o processador do micro não será usado neste processo.
	</li>
	<li>
		Time shifting ou live pause: Permite que você pause um programa de TV que você esteja assistindo ao vivo (para ir ao banheiro ou atender ao telefone, por exemplo). Quando você clicar na tecla pause novamente ou na tecla play, o programa continuará tocando da onde ele parou, até encontrar novamente com a programação ao vivo. Este recurso funciona removendo alguns quadros da exibição, fazendo com que a exibição do trecho entre você ter pressionado pause e a programação que está tocando ao vivo seja efetuada de uma maneira um pouco mais acelerada, porém quase imperceptível.
	</li>
	<li>
		CC: Close Caption, sistema de legenda transmitido pela emissora de TV. Para funcionar a transmissão tem que incluir este sistema.
	</li>
	<li>
		Teletext: Sistema que transmite informações tais como notícias, previsão meteorológica, programação de cinema etc pelo sistema de TV. Este serviço não existe no Brasil.
	</li>
	<li>
		Direct Burn: Permite a gravação diretamente em DVD de programas de TV e vídeo que esteja sendo capturado, em tempo real. Com isso o arquivo gerado, em vez de ser gravado no disco rígido, é gravado diretamente em DVD, fazendo com que você economize tempo e espaço no seu disco rígido. Para este recurso funcionar você precisa ter um gravador de DVD, naturalmente.
	</li>
	<li>
		De-interlacing: A televisão usa um esquema de varredura entrelaçada e os monitores de vídeo usam um esquema de varredura não-entrelaçada. Como conseqüência, se você olhar bem de perto imagens capturadas da TV você verá uma série de linhas. O esquema de desentrelaçamento consiste em remover estas linhas típicas de imagens capturadas de TV, aumentando consideravelmente a qualidade da imagem capturada.
	</li>
	<li>
		Streaming: técnica de se transmitir um vídeo ou som sem a necessidade de se ter o arquivo completo para iniciar a reprodução. No caso de placas de FM, TV e captura, este recurso permite que um vídeo ou áudio que esteja sendo capturado possa ser transmitido ao vivo pela Internet ou rede, ao mesmo tempo. Algumas placas permitem o streaming somente de arquivos já capturados, não permitindo o streaming ao mesmo tempo em que você captura a TV, rádio ou vídeo.
	</li>
	<li>
		RGB: Melhor sistema de cabos para a transmissão de imagens, onde cada componente de cor (vermelho, verde e azul) é transmitido em um cabo individual. Infelizmente este sistema não é encontrado em sistemas caseiros, somente em sistemas profissionais.
	</li>
	<li>
		Video componente: Sistema de cabeamento de alta qualidade, porém inferior ao RGB. Neste padrão são usados três conectores, chamados Y (conector verde), Pb (ou Cb ou ainda B-Y, conector azul) e Pr (ou Cr ou ainda R-Y, conector vermelho). No conector Y são transmitidas as informações de vídeo (imagem preto-e-branco) enquanto nos outros dois conectores são transmitidas as informações de cor.
	</li>
	<li>
		S-Video: Sistema de cabeamento inferior ao vídeo componente, que usa um conector contendo três fios, um para a transmissão das informações de luminância (imagem preto-e-branco), outro para transmissão das informações de crominância (informações de cor) e um fio terra.
	</li>
	<li>
		Vídeo composto: Sistema de cabeamento inferior ao S-Vídeo que usa um conector com dois fios – um terra e outro para a transmissão do sinal de vídeo em si. É o sistema usado por videocassetes, sendo o sinal usado nos plugues chamados video in e video out. É o sistema que oferece pior qualidade de vídeo.
	</li>
	<li>
		CVBS: Outro nome para vídeo composto, a sigla significa Color, Video, Blanking e Sync.
	</li>
	<li>
		RF: Abreviatura de radiofreqüência. É o sistema de transmissão de sinal usado pela televisão.
	</li>
</ul>

<p>
	[pagination="Mais algumas Características"]
</p>

<ul>
	<li>
		CATV: Cable TV, ou seja, TV a cabo. Atualmente todas as placas de TV são capazes de capturar sinal de TV a cabo (de canais não codificados), bastando ligar o cabo da operadora diretamente na entrada de antena de TV da placa. Para gravar canais codificados, você terá de usar o decodificador fornecido pela operadora, ligando o cabo no decodificador e o decodificador à placa de TV, como se a placa fosse um aparelho de TV. Você deverá sintonizar a placa no canal de operação do decodificador (normalmente canal 3) e controlar a sintonia dos canais através do decodificador. O ruim deste esquema é que você terá de deixar o decodificador ligado no canal que você queira gravar caso queira programar o computador para gravar um programa de TV quando você não estiver na frente do micro.
	</li>
	<li>
		DVB: Digital Video Broadcasting ou televisão digital. Transmissão da programação da TV em formato digital. Por enquanto é besteira comprar uma placa de TV com esta função por dois motivos. Primeiro, porque não temos TV digital no Brasil. E, segundo, o governo ainda não especificou qual formato de TV digital teremos no Brasil. Você corre o risco, portanto, de comprar uma placa com este recurso e, no futuro, o sistema usado aqui ser diferente do usado por sua placa de TV.
	</li>
	<li>
		DAB: Digital Audio Broadcasting ou rádio digital. Sistema de rádio digital, normalmente transmitido via satélite. É importante que você não confunda este sistema com o sistema de rádio digital oferecido via DVB (isto é, operadoras de TV que oferecem canais de TV que tocam música 24 H).
	</li>
	<li>
		NTSC: Padrão usado para transmissões de TV e vídeo nos EUA. Ao comprar uma placa de TV e captura, compre uma que seja NTSC, pois é este o modelo que é compatível com o sistema brasileiro PAL-M.
	</li>
	<li>
		PAL: Padrão usado para transmissões de TV e vídeo na Europa. Apesar do nome, não é compatível com o sistema brasileiro PAL-M. Não compre um modelo que seja deste tipo ou você não conseguirá assistir TV com ela.
	</li>
	<li>
		RC: Remote Control, controle remoto. Atualmente a maioria das placas vem com controle remoto.
	</li>
	<li>
		Video on Desktop: Recurso que permite configurar um vídeo ou canal de TV para ficar passando como se fosse um papel de parede do Windows, permitindo que você tenha acesso normalmente aos ícones da sua área de trabalho.
	</li>
	<li>
		HDTV: High Definition TV. Televisão de alta definição, que usa transmissão digital (DVB).
	</li>
	<li>
		Progressive Scan: sinônimo de varredura não-entrelaçada, que apresenta melhor qualidade do que o sistema usado pela TV (varredura entrelaçada).
	</li>
</ul>

<p>
	 
</p>
]]></description><guid isPermaLink="false">34423</guid><pubDate>Wed, 03 Nov 2004 12:35:00 +0000</pubDate></item><item><title>Novos chips gr&#xE1;ficos da ATI e da NVIDIA</title><link>https://www.clubedohardware.com.br/artigos/video/novos-chips-gr%C3%A1ficos-da-ati-e-da-nvidia-r34425/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_lhrb47lhrb47lhrb.jpg.0ef621a7fd2dce7374f1b2b0f36539c2.jpg" /></p>
<p>
	A ATI lançou recentemente sua mais nova série de chips gráficos. Chamada Radeon X700, esta série chega ao mercado com o objetivo de concorrer de frente com os chips GeForce 6600 da NVIDIA. Vindo após o lançamento das séries topo de linha das duas gigantes da indústria de chips gráficos, estes modelos chegam com o objetivo de serem chips intermediários, isto é, bom desempenho a um custo mais acessível.
</p>

<p>
	A série Radeon X700 tem três modelos: X700, X700 Pro e X700 XT. A diferença entre os modelos é o clock com que eles trabalham. Esta série acessa a memória a 128 bits e processa oito pixels por pulso de clock, enquanto a série topo de linha da ATI, Radeon X800, acessa a memória a 256 bits e processa de oito a 16 pixels por pulso de clock, dependendo do modelo. Para facilitar, compilamos uma tabela listando as principais características das séries Radeon X700 e Radeon X800 da ATI.
</p>

<p style="text-align: center;">
	 
</p>

<table>
	<tbody>
		<tr>
			<th>
				Chip Gráfico
			</th>
			<th>
				Clock
			</th>
			<th>
				Clock da Memória
			</th>
			<th>
				Memória
			</th>
			<th>
				Taxa de Transferência Da Memória
			</th>
			<th>
				Pixels por clock
			</th>
		</tr>
		<tr>
			<td>
				Radeon X700
			</td>
			<td>
				400 MHz
			</td>
			<td>
				600 MHz, GDDR3
			</td>
			<td>
				128 bits
			</td>
			<td>
				9,6 GB/s
			</td>
			<td>
				8
			</td>
		</tr>
		<tr>
			<td>
				Radeon X700 Pro
			</td>
			<td>
				420 MHz
			</td>
			<td>
				864 MHz, GDDR3
			</td>
			<td>
				128 bits
			</td>
			<td>
				13,8 GB/s
			</td>
			<td>
				8
			</td>
		</tr>
		<tr>
			<td>
				Radeon X700 XT
			</td>
			<td>
				475 MHz
			</td>
			<td>
				1,05 GHz, GDDR3
			</td>
			<td>
				128 bits
			</td>
			<td>
				16,8 GB/s
			</td>
			<td>
				8
			</td>
		</tr>
		<tr>
			<td>
				Radeon X800 SE
			</td>
			<td>
				*
			</td>
			<td>
				*
			</td>
			<td>
				*
			</td>
			<td>
				*
			</td>
			<td>
				8
			</td>
		</tr>
		<tr>
			<td>
				Radeon X800 Pro
			</td>
			<td>
				475 MHz
			</td>
			<td>
				950 MHz, GDDR3
			</td>
			<td>
				256 bits
			</td>
			<td>
				30,4 GB/s
			</td>
			<td>
				12
			</td>
		</tr>
		<tr>
			<td>
				Radeon X800 XT
			</td>
			<td>
				520 MHz
			</td>
			<td>
				1,12 GHz, GDDR3
			</td>
			<td>
				256 bits
			</td>
			<td>
				35,8 GB/s
			</td>
			<td>
				16
			</td>
		</tr>
		<tr>
			<td>
				Radeon X800 XT Platinum Edition
			</td>
			<td>
				540 MHz
			</td>
			<td>
				1,18 GHz, GDDR3
			</td>
			<td>
				256 bits
			</td>
			<td>
				37,76 GB/s
			</td>
			<td>
				16
			</td>
		</tr>
	</tbody>
</table>

<p>
	Já a série GeForce 6600 tem dois modelos: 6600 e 6600 GT e novamente a diferença entre estes dois chips é o clock em que eles trabalham. Assim como o Radeon X700, eles acessam a memória a 128 bits por vez e processam oito pixels por pulso de clock, enquanto os chips da série topo de linha GeForce 6800 processam de oito a 16 pixels, dependendo do modelo.
</p>

<p style="text-align: center;">
	 
</p>

<table>
	<tbody>
		<tr>
			<th>
				Chip Gráfico
			</th>
			<th>
				Clock
			</th>
			<th>
				Clock da Memória
			</th>
			<th>
				Memória
			</th>
			<th>
				Taxa de Transferência Da Memória
			</th>
			<th>
				Pixels por clock
			</th>
		</tr>
		<tr>
			<td>
				GeForce 6600
			</td>
			<td>
				300 MHz
			</td>
			<td>
				500 MHz
			</td>
			<td>
				128 bits
			</td>
			<td>
				8 GB/s
			</td>
			<td>
				8
			</td>
		</tr>
		<tr>
			<td>
				GeForce 6600 GT
			</td>
			<td>
				500 MHz
			</td>
			<td>
				1 GHz, GDDR3
			</td>
			<td>
				128 bits
			</td>
			<td>
				16 GB/s
			</td>
			<td>
				8
			</td>
		</tr>
		<tr>
			<td>
				GeForce 6800 LE
			</td>
			<td>
				300 MHz
			</td>
			<td>
				700 MHz
			</td>
			<td>
				256 bits
			</td>
			<td>
				22,4 GB/s
			</td>
			<td>
				8
			</td>
		</tr>
		<tr>
			<td>
				GeForce 6800
			</td>
			<td>
				325 MHz
			</td>
			<td>
				700 MHz
			</td>
			<td>
				256 bits
			</td>
			<td>
				22,4 GB/s
			</td>
			<td>
				12
			</td>
		</tr>
		<tr>
			<td>
				GeForce 6800 GT
			</td>
			<td>
				350 MHz
			</td>
			<td>
				1 GHz
			</td>
			<td>
				256 bits
			</td>
			<td>
				32 GB/s
			</td>
			<td>
				16
			</td>
		</tr>
		<tr>
			<td>
				GeForce 6800 Ultra
			</td>
			<td>
				400 MHz
			</td>
			<td>
				1,1 GHz, GDDR3
			</td>
			<td>
				256 bits
			</td>
			<td>
				35,2 GB/s
			</td>
			<td>
				16
			</td>
		</tr>
		<tr>
			<td>
				GeForce 6800 Ultra Extreme
			</td>
			<td>
				450 MHz
			</td>
			<td>
				1,1 GHz GDDR3
			</td>
			<td>
				256 bits
			</td>
			<td>
				35,2 GB/s
			</td>
			<td>
				16
			</td>
		</tr>
	</tbody>
</table>

<p>
	Uma vantagem das GeForce 6600 e 6800 sobre os chips da ATI é que elas usam o modelo Shader 3.0 (DirectX 9.0c), enquanto os chips da ATI ainda usam o modelo anterior, Shader 2.0 (DirectX 9) – ou seja, já estão preparadas para a nova geração de jogos que será lançada nos próximos anos.
</p>

<p>
	Ambas as séries são PCI Express e deverão demorar um pouco para chegar ao mercado brasileiro, já que o novo barramento PCI Express, lançado com o objetivo de substituir o AGP, ainda não é uma realidade por aqui.
</p>
]]></description><guid isPermaLink="false">34425</guid><pubDate>Wed, 06 Oct 2004 13:46:00 +0000</pubDate></item><item><title>Testando o desempenho 3D da sua m&#xE1;quina com o Doom 3 e com o Far Cry</title><link>https://www.clubedohardware.com.br/artigos/video/testando-o-desempenho-3d-da-sua-m%C3%A1quina-com-o-doom-3-e-com-o-far-cry-r34428/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_l6fn5gl6fn5gl6fn.jpg.e3fad391e517cc48f1decea8cde1d9b1.jpg" /></p>
<p>
	[pagination="Introdução e Doom 3"]
</p>

<p>
	O Doom 3 e o Far Cry são jogos 3D pesadíssimos, usando recursos de qualidade de imagem de última geração, o que os tornam excelentes para testar o desempenho 3D da sua máquina. Como quando aumentamos a qualidade de imagem o desempenho diminui, é importante que você use a mesma resolução e a mesma configuração de qualidade de imagem na hora de comparar o desempenho da sua máquina com o de outras máquinas.
</p>

<p>
	<b>Doom 3</b>
</p>

<p>
	O primeiro passo é configurar a resolução e a qualidade de imagem que você pretende testar e reiniciar o jogo. O Doom 3 oferece quatro níveis de qualidade de imagem: low, medium, high e ultra. Recomendamos que você efetue testes na resolução 1024 x 768 com a qualidade em low e depois uma nova rodada de testes com a qualidade em high. Se o seu monitor de vídeo for de 17" ou superior, talvez valha a pena medir o desempenho também em 1280 x 1024 e em 1600 x 1200.
</p>

<p>
	Chame o console do Doom 3 pressionando simultaneamente as teclas Control Alt e ` (a tecla do til) e entre o comando timedemo demo1. Isso fará o Doom 3 rodar o seu demo 1 e contar a quantidade de quadros por segundo (FPS) gerada, apresentando uma média ao término do demo. Anote o valor e repita este teste mais três vezes. Você verá que o primeiro valor é inferior aos demais e não deverá ser usado. Esse valor é menor porque na primeira rodada o jogo tem que carregar as texturas para a placa de vídeo, e nas rodadas seguintes as texturas já estão carregadas na placa.
</p>

<p>
	Um detalhe importante é que os drivers para chips gráficos da ATI ainda não estão totalmente otimizados para o Doom 3. Nno dia em que escrevemos esta dica a última versão era a Catalyst versão 4.8 e, segundo a ATI, as versões acima desta, quando lançadas, farão com que os chips da ATI obtenham maior desempenho no Doom 3.
</p>

<p>
	Outro detalhe interessante é que o Doom 3 possui uma trava na quantidade máxima de quadros por segundo que ele é capaz de gerar durante o jogo: ele só gera 60 quadros por segundo, mesmo que sua placa de vídeo seja capaz de gerar mais do que isso. Esta limitação, no entanto, não afeta o módulo de medida de desempenho deste jogo, que conta acima de 60 quadros por segundo sem problemas.
</p>

<p>
	[pagination="Far Cry"]
</p>

<p>
	Primeiro, atualize o seu Far Cry para a última versão disponível (1.33 hoje) indo em <a href="http://www.ubi.com/US/Downloads/Info.aspx?dlId=691" rel="external nofollow" target="_blank">http://www.ubi.com/US/Downloads/Info.aspx?dlId=691</a>. Em seguida você deverá baixar um demo da Internet. Vários sites oferecem demos para a medida de desempenho 3D no Far Cry. Recomendamos o demo criado pela revista alemã PC Games Hardware (PCGH), disponível em <a href="http://www.3dcenter.org/downloads/farcry-pcgh-vga.php" rel="external nofollow" target="_blank">http://www.3dcenter.org/downloads/farcry-pcgh-vga.php</a>. Baixe este arquivo, descompacte-o e copie o arquivo 1.tmd para o diretório LevelsPier e o arquivo checkpoint_pier_Pier_1.sav para ProfilesPlayerDefaultsavegames. Estes diretórios estão abaixo do diretório principal do jogo (C:Arquivos de Programas/Ubisoft/Crytek/Far Cry).
</p>

<p>
	Altere o atalho do jogo (clique com o botão direito sobre ele, selecionando Propriedades do menu que aparecerá) incluindo o parâmetro –devmode ao final da linha de comando do jogo.
</p>

<p>
	Configure a resolução e a qualidade de imagem que você pretende testar, reinicie o jogo e entre no console, pressionando a tecla ` (a mesma do til). Entre o comando map pier. Imediatamente após o jogo carregar o mapa, entre novamente no console e digite demo 1, pressionando a tecla ` para fechar a janela do console e deixar o demo rolar. O demo ficará em loop. Deixe-o rodar 4 vezes, entre novamente no console e entre o comando stopdemo. Saia do jogo. Os resultados estará no arquivo 1.log no diretório LevelsPier.
</p>

<p>
	Este jogo tem um detalhe importantíssimo em sua configuração de qualidade de imagem. O anti-aliasing, em vez de ser configurado numericamente (1x, 2x, 4x ou 6x) é configurado como low, medium ou high. O problema é que em chips da NVIDIA, tanto medium quanto high significa 4x, enquanto que em chips da ATI medium significa 2x e high significa 6x, tornando a comparação entre chips da ATI e da NVIDIA injusta. Por isso, ou use o antialiasing em low, que em ambos significa 2x, ou então force uma configuração fixa de antialiasing em 4x através do painel de controle do driver para todas as máquina que você testar.
</p>
]]></description><guid isPermaLink="false">34428</guid><pubDate>Wed, 15 Sep 2004 13:59:00 +0000</pubDate></item><item><title>Chips gr&#xE1;ficos alternativos</title><link>https://www.clubedohardware.com.br/artigos/video/chips-gr%C3%A1ficos-alternativos-r34432/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_48wkan48wkan48wk.jpg.f523575e389328521a3f09f57a2fad47.jpg" /></p>
<p>
	Até meados da década de 90 era possível comprarmos placas de vídeo usando chips dos mais variados fabricantes, tais como Trident, Oak, S3, 3dfx, Matrox, NVIDIA, ATI e 3Dlabs, só para citarmos os mais famosos. Atualmente parece que vivemos uma era onde só há basicamente dois fabricantes presentes no mercado, a ATI e a NVIDIA, apesar de existirem outros. É raro encontrarmos uma placa de vídeo que use um chip gráfico que não seja de uma dessas duas empresas.
</p>

<p>
	Para você ter uma idéia, de acordo com a empresa de análise de mercado Jon Peddie Research (JPR), no primeiro trimestre deste ano o mercado de chips gráficos estava dividido da seguinte maneira: Intel, 33%; NVIDIA, 27,2%; ATI, 24%; VIA, 7,8%; SiS, 6,9%; Matrox, 0,52%; XGI, 0,44%; 3Dlabs, 0,04%. Este estudo inclui o mercado de vídeo on-board e é por este motivo que a Intel, a VIA e a SiS aparecem (os números da VIA incluem os da S3). As demais empresas que eram populares no passado fecharam e/ou foram compradas. A 3dfx, por exemplo, fechou as portas e a NVIDIA comprou a sua marca e propriedade intelectual. A 3Dlabs foi comprada pela Creative. A S3 foi comprada pela VIA e só no ano passado a S3 voltou a projetar chips gráficos. E a Trident foi comprada pela XGI, empresa criada pela SiS para projetar e fabricar chips gráficos para placas de vídeo.
</p>

<p>
	Mas porque as outras empresas têm menos de 1% de participação no mercado? Não é por falta de produtos competitivos. A XGI (<a href="http://www.xgitech.com" rel="external nofollow" target="_blank">http://www.xgitech.com</a>), por exemplo, tem hoje uma linha completa de chips gráficos: Volari V3 para o mercado básico, Volari V5 para o mercado intermediário e Volari V8 para o mercado topo de linha. O mesmo ocorre com a S3 (<a href="http://www.s3graphics.com" rel="external nofollow" target="_blank">http://www.s3graphics.com</a>), com sua linha DeltaChrome, contendo os modelos F1 para o mercado topo de linha, S8 para o mercado intermediário e S4 para o mercado básico, e sua linha GammaChrome, com suporte nativo ao novo barramento PCI Express.
</p>

<p>
	Temos de ter em mente que a XGI é uma empresa com apenas um ano de vida e a S3 só voltou a produzir chips gráficos no ano passado. Isso explica um pouco o motivo da baixa participação de mercado dessas empresas: elas ainda estão há muito pouco tempo no mercado!
</p>

<p>
	Mas a verdade é que nenhum grande fabricante de placas de vídeo está querendo arriscar lançando produtos baseados em chips gráficos desconhecidos. Tanto é verdade que a XGI pretende fabricar as suas próprias placas de vídeo, para não ter de depender da boa vontade de outros fabricantes. Só que os fabricantes se esquecem que tanto a NVIDIA quanto a ATI um dia já foram pequenas...
</p>

<p>
	Caso diferente é o da Matrox (<a href="http://www.matrox.com" rel="external nofollow" target="_blank">http://www.matrox.com</a>). Mesmo seus produtos topo de linha – Millenium P650, Millenium P750 e Parhelia – estão tecnologicamente desatualizados, com motor gráfico DirectX 8.1 e não 9.0 como os produtos de todos os demais fabricantes. Isto explica, em parte, o fracasso de vendas da Matrox.
</p>

<p>
	O espaço aqui é curto para detalhar e comparar as características técnicas de todos os chips gráficos existentes hoje no mercado. Em <a href="http://www.rojakpot.com/showarticle.aspx?artno=88&amp;pgno=0" rel="external nofollow" target="_blank">http://www.rojakpot.com/showarticle.aspx?artno=88&amp;pgno=0</a> você encontrará tabelas comparando as características técnicas de todos os chips gráficos existentes, incluindo os de fabricantes alternativos.
</p>

<p>
	Em nossa opinião, ter mais fabricantes no mercado de chips é excelente, pois mais opções o consumidor tem. Geralmente empresas novas no mercado lançam bons produtos com preços mais acessíveis, o que é excelente para o mercado brasileiro, onde são poucos que podem pagar uma pequena fortuna para ter uma placa de vídeo topo de linha.
</p>
]]></description><guid isPermaLink="false">34432</guid><pubDate>Wed, 30 Jun 2004 14:31:00 +0000</pubDate></item><item><title>Como comprar uma placa de TV e captura de v&#xED;deo</title><link>https://www.clubedohardware.com.br/artigos/video/como-comprar-uma-placa-de-tv-e-captura-de-v%C3%ADdeo-r34406/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_3eplk43eplk43epl.jpg.3f4b066c79529f861f894dfe310d613a.jpg" /></p>
<p>
	Todos nós temos noção que no Brasil usamos um padrão de vídeo único para a transmissão de TV, chamado PAL-M. Com isto em mente, quando viajamos ao exterior e queremos comprar algum produto de vídeo – seja uma simples fita de vídeo VHS ou uma filmadora ou uma placa de TV ou de captura de vídeo para o computador – acabamos entrando pelo cano. Isto porque pedimos um produto para funcionar no padrão PAL-M e o vendedor acaba nos vendendo um produto para o sistema PAL europeu, completamente diferente do padrão PAL-M que usamos no Brasil.
</p>

<p>
	Para produtos que não são de informática – como fitas de filme VHS e filmadoras –, a solução é simples: basta meter na cabeça que o padrão correto a ser comprado é o americano, NTSC. Nossos videocassetes conseguem ler tanto fitas PAL-M quanto NTSC, e assim não corremos risco de comprarmos um elefante branco.
</p>

<p>
	Já em relação a placas de TV e de captura de vídeo, vamos explicar um pouco mais como elas funcionam. Este tipo de equipamento tem dois componentes principais: um sintonizador e um chip decodificador. O sintonizador é uma caixa metálica grande, normalmente ocupando um quarto da área da placa. Não tem como não achá-lo. É nele que a antena de TV é instalada. Em placas de captura sem função de TV, este componente não existe.
</p>

<p>
	É no sintonizador que mora o problema. Para cada sistema de vídeo existente no mundo, o sintonizador é de um modelo diferente. Se você comprar uma placa com sintonizador PAL, ela não funcionará no Brasil. Para funcionar no Brasil, você precisa comprar uma placa com sintonizador NTSC (ou NTSC-M, para sermos mais exatos). O que ocorre é o seguinte. Tanto o padrão NTSC (usados nos EUA) quando o padrão PAL-M (usado no Brasil) trabalham com o mesmo padrão de imagem (freqüência horizontal de 15.750 Hz, freqüência vertical de 60 Hz, varredura de 525 linhas, canais de 6 MHz). A diferença entre os dois está na maneira com que a cor é codificada e transmitida. O sistema PAL europeu é completamente diferente (625 linhas e 50 quadros por segundo).
</p>

<p>
	Já em relação ao chip decodificador, ele terá de suportar a codificação PAL-M. Uma excelente notícia é que a maioria dos chips decodificadores atualmente existentes, incluindo os mais populares, como o SAA7108AE, o SAA7109AE, o SAA7133HL (da Phillips) e o Theather 200 (da ATI) são capazes de decodificar qualquer sistema de vídeo do mundo.
</p>

<p>
	Ou seja, você só terá problemas ao comprar uma placa de TV ou captura caso:
</p>

<ul>
	<li>
		O sintonizador usado não seja NTSC, mas sim PAL. Compre uma placa com sintonizador NTSC. Se você comprar uma placa com sintonizador PAL você não será capaz de assistir TV.
	</li>
	<li>
		O chip decodificador usado não suportar o padrão PAL-M. Caso isto ocorra, a imagem da TV ou da captura aparecerá preto-e-branco no micro.
	</li>
</ul>

<p>
	Ou seja, compre uma placa NTSC. Como os chips decodificadores atualmente existentes são compatíveis com todos os sistemas do mundo, você não terá problemas.
</p>
]]></description><guid isPermaLink="false">34406</guid><pubDate>Wed, 05 May 2004 09:08:00 +0000</pubDate></item><item><title>Transformando sua Radeon 9800 Pro em uma Radeon 9800 XT</title><link>https://www.clubedohardware.com.br/artigos/video/transformando-sua-radeon-9800-pro-em-uma-radeon-9800-xt-r34146/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_c0wacnc0wacnc0wa.jpg.06423582b32abee5e1659967ede12134.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	Com o lançamento do Radeon 9800 XT, a ATI passou a fabricar o Radeon 9800 Pro usando o mesmo núcleo deste novo chip, chamado R360. Com isto, os chips Radeon 9800 Pro mais novos (núcleo R360) são, na verdade, chips Radeon 9800 XT rodando a um clock inferior. Enquanto o Radeon 9800 Pro roda a 380 MHz e acessa a memória a 340 MHz (680 MHz DDR), o Radeon 9800 XT roda a 412 MHz e acessa a memória a 365 MHz (730 MHz DDR). Como a única diferença entre estes dois chips é o clock do processador gráfico e da memória, é possível transformar uma Radeon 9800 Pro em uma Radeon 9800 XT efetuando um upgrade no BIOS da placa de vídeo, desde que a sua placa use um chip Radeon 9800 Pro com núcleo R360. Este upgrade altera também o registro do modelo, fazendo com que a placa passe a ser identificada como sendo uma Radeon 9800 XT pelo Windows e demais programas. Em nossa coluna de hoje ensinaremos como você pode efetuar esta transformação, economizando uma boa grana.
</p>

<p>
	A primeira coisa que você precisa saber é se o chip da sua Radeon 9800 Pro é do modelo "antigo" (núcleo R350) ou do modelo "novo" (núcleo R360). Somente placas baseadas no modelo novo do chip (R360) podem ser transformadas. Uma dica prática para você identificar qual é o modelo da sua Radeon 9800 Pro é contar o número de chips de memória existente. Se a sua placa tiver 16 chips, então ela usa o núcleo R350 e não pode ser transformada. Se a sua placa tiver 8 chips, significa que ela usa o núcleo R360 e pode ser transformada em uma Radeon 9800 XT usando esta nossa dica.
</p>

<p>
	Antes de efetuar a modificação você pode conferir se ela vai dar certo ou não, efetuando o overclock da sua placa via software (usando o PowerStrip, <a href="http://www.entechtaiwan.com/" target="_blank" rel="external nofollow">http://www.entechtaiwan.com/</a>). Configure sua placa para rodar a 412 MHz e a memória a 365 MHz (730 MHz DDR), rode algum programa de teste 3D (como o 3DMark03, <a href="http://www.futuremark.com/products/3dmark03/" target="_blank" rel="external nofollow">http://www.futuremark.com/products/3dmark03/</a>) e veja se a sua placa continua funcionando corretamente. Em caso positivo, pode efetuar o upgrade sem problema. Caso não funcione, você terá de descobrir, com o auxílio do próprio PowerStrip, qual é o clock máximo que a sua placa suporta, e alterar o BIOS com o clock máximo suportado pela sua placa. Falaremos disto mais adiante.
</p>

<p>
	[pagination="Testando a Modificação"]
</p>

<p>
	Para efetuar a modificação, você precisará do programa Flashrom, disponível em <a href="http://softmod.ocfaq.com/bios.php" target="_blank" rel="external nofollow">http://softmod.ocfaq.com/bios.php</a> e de uma BIOS de Radeon 9800 XT da mesma marca, com a mesma quantidade de memória (128 MB ou 256 MB) e preferencialmente mesma marca de memória (Samsung, Hynix, etc) e velocidade (2,8 ns, 2,5 ns, etc) da sua placa atual. Por exemplo, se sua placa de vídeo atual é uma Radeon 9800 Pro da ASUS com 256 MB de memória Hynix de 2,5 ns, você precisará baixar e atualizar com o BIOS da Radeon 9800 XT da ASUS com as mesmas características. Você encontrará uma lista completa de BIOS para download no link acima e também em <a href="http://www.techpowerup.com/bios" target="_blank" rel="external nofollow">http://www.techpowerup.com/bios</a> em <a href="http://www.mvktech.net/download.php" target="_blank" rel="external nofollow">http://www.mvktech.net/download.php</a>.
</p>

<p>
	Você precisará copiar o Flashrom e o BIOS (que é um arquivo com extensão bin) para um disquete de boot e dar boot no micro através deste disquete. Após o boot, você deverá entrar o seguinte comando para copiar o BIOS atual da sua placa de vídeo para o disquete:
</p>

<p>
	Flashrom -s 0 backup.bin
</p>

<p>
	Em seguida, faça o upgrade com o comando:
</p>

<p>
	Flashrom -f -p 0 nome_do_arquivo.bin
</p>

<p>
	Durante o upgrade pode ser que a tela fique "embaralhada". Não faça nada. Espere a imagem retornar ao prompt do DOS com a mensagem confirmando o upgrade. Em seguida basta reiniciar a máquina e pronto!
</p>

<p>
	Em nosso laboratório nós testamos este upgrade em uma Radeon 9800 Pro com 128 MB e memória Samsung de 2,8 ns da Gigabyte. Após o upgrade, a placa passou a ser reconhecida como Radeon 9800 XT, porém a imagem ficava "embaralhada" quando rodávamos jogos 3D. Investigando, chegamos à conclusão que o problema era que a memória da placa não suportava o novo clock. As memórias de 2,8 ns são especificadas para rodarem até 350 MHz (700 MHz). Como a nova configuração as forçava a rodarem a 365 MHz (730 MHz), o erro na imagem acontecia. A solução que encontramos foi editar o BIOS, baixando o clock de 365 MHz para 350 MHz, salvando este novo BIOS e efetuando um novo upgrade. A nossa placa passou a funcionar como uma Radeon 9800 XT sem nenhum problema (a não ser o fato da memória estar rodando com um clock inferior ao da Radeon 9800 XT original). Se você encontrar um problema similar, o programa para efetuar a edição do BIOS está em <a href="http://www.mvktech.net/download.php?view.157" target="_blank" rel="external nofollow">http://www.mvktech.net/download.php?view.157</a>. Nele, você deve abrir o arquivo .bin da ROM da Radeon 9800 XT e baixar o clock para o máximo suportado pela memória, salvar o arquivo e efetuar um novo upgrade. Se sua placa usa memórias de 2,5 ns você não terá problemas, pois esta memória roda a até 400 MHz (800 MHz).
</p>

<p>
	Nós efetuamos dois testes de desempenho. No programa 3DMark03, o desempenho 3D aumentou 10,48%, passando de 5.780 pontos para 6.386 pontos, e no programa Aquamark 3 o desempenho 3D aumentou 5%, passando de 42.949 pontos para 45.100 pontos. Nada mal para uma modificação que não custou nem um centavo...
</p>

<p>
	 
</p>

<p>
	<strong><img style="height: auto;" alt="spacer.png" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/r9800-antes.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"></strong><strong>Figura 1:</strong> Nossa Radeon 9800 Pro da Gigabyte antes do upgrade de BIOS.
</p>

<p>
	 
</p>

<p>
	<strong><img style="height: auto;" alt="spacer.png" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/r9800-depois.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"></strong><strong>Figura 2:</strong> Nossa Radeon 9800 Pro da Gigabyte transformada em uma Radeon 9800 XT.
</p>

<p>
	Se ocorrer algum problema, basta você reprogramar a sua placa com o seu BIOS antigo, rodando o comando:
</p>

<p>
	Flashrom -f -p 0 backup.bin
</p>
]]></description><guid isPermaLink="false">34146</guid><pubDate>Wed, 28 Apr 2004 04:00:00 +0000</pubDate></item><item><title>Upgrade de BIOS da placa de v&#xED;deo</title><link>https://www.clubedohardware.com.br/artigos/video/upgrade-de-bios-da-placa-de-v%C3%ADdeo-r34145/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_nllfgmnllfgmnllf.jpg.4feb7bd5370254a5e6b1ae93210d2b5e.jpg" /></p>
<p>
	Poucos usuários sabem, mas a placa de vídeo também tem um BIOS que, tal como o BIOS da placa-mãe, pode ser atualizado. É no BIOS da placa de vídeo que o fabricante corrige bugs existentes na placa de vídeo ou no chip gráfico que foram descobertos depois do lançamento da placa no mercado. Com isto, manter o BIOS da placa de vídeo atualizado permite que você tenha o seu sistema o mais estável possível, longe de bugs que podem comprometer o funcionamento do seu PC, em especial bugs que podem aparecer durante um jogo.
</p>

<p>
	A atualização do BIOS da placa de vídeo não tem muito mistério, bastando você ir ao site do fabricante da sua placa de vídeo e baixar o software necessário para efetuar esta atualização (em geral em uma seção chamada "support", "downloads" ou "BIOS"). Aqui vai um detalhe importante. O fabricante da placa normalmente não é o fabricante do chip. Assim, você não encontrará esta atualização no site da ATI ou da NVIDIA; você tem que ir ao site do fabricante da placa (Sapphire, Gigabyte, Inno3D, HIS, Tyan, Connect3D, MSI, ABIT, ASUS, FIC etc). A exceção fica por conta das placas com chip ATI que realmente tenham sido fabricados pela ATI. Se você comprou uma placa de vídeo barata "genérica" e não sabe qual é o seu fabricante, a solução é usar o código FCC ID da placa. Você pode descobrir o fabricante da placa através deste código, presente em uma etiqueta colada na placa. Basta ir a <a href="https://www.fcc.gov/oet/ea/fccid" rel="external nofollow">https://www.fcc.gov/oet/ea/fccid</a> entrar o código no formulário existente e o sistema retornará qual é o fabricante da placa.
</p>

<p>
	Esta dica não se aplica a micros com vídeo on-board. Neste caso, como o vídeo é produzido pela placa-mãe, o BIOS de vídeo está conjugado ao BIOS da placa-mãe, bastando você efetuar o upgrade do BIOS da placa-mãe para manter o seu PC atualizado.
</p>

<p>
	<b>Turbinando Sua Placa de Vídeo</b>
</p>

<p>
	É no BIOS da placa de vídeo que estão gravadas três informações interessantes: o chip gráfico da placa, o clock do chip gráfico e o clock da memória de vídeo. Com isto, você pode fazer o seguinte: modificar os valores dos clocks da sua placa de vídeo e fazer o upgrade de BIOS da sua placa. Com isto, sua placa de vídeo passará a funcionar "para sempre" com um clock mais elevado (overclock), aumentando o seu desempenho em jogos 3D. Você também pode efetuar o overclock por software (usando o PowerStrip, <a href="http://www.entechtaiwan.com/" rel="external nofollow" target="_blank">http://www.entechtaiwan.com/</a>), só que neste caso você precisa rodar o software sempre em que o micro for ligado para configurar novamente o overclock, pois quando o micro é ligado a placa lê os valores que estão em seu BIOS, que, caso você não efetue o upgrade de BIOS com os valores modificados, serão os valores de fábrica. Mas o programa PowerStrip pode ser interessante para você detectar o overclock máximo que você consegue com a sua placa, para programar o BIOS da sua placa de vídeo com os valores máximos que você conseguir.
</p>

<p>
	Para placas com chip da NVIDIA, você deve usar o programa <a href="http://www.x86-secret.com/Download/rvbsetup.exe" rel="external nofollow" target="_blank">http://www.x86-secret.com/Download/rvbsetup.exe</a> para alterar os dados do BIOS. Já para placas com chip da ATI, o programa é o <a href="http://www.softpedia.com/public/scripts/downloadhero/12-1-33/" rel="external nofollow" target="_blank">http://www.softpedia.com/public/scripts/downloadhero/12-1-33/</a>. Através do programa, leia o BIOS da sua placa de vídeo, altere os dados, e faça o upgrade.
</p>

<p>
	Se você não quiser se arriscar fazendo tais modificações, você pode também baixar na Internet BIOS prontos com estas modificações já efetuadas e testadas por outros usuários. Por exemplo, em <a href="http://softmod.ocfaq.com/bios.php" rel="external nofollow" target="_blank">http://softmod.ocfaq.com/bios.php</a> você encontra uma extensa lista de BIOS de placas de vídeo que usam chips da ATI e em <a href="http://www.mathiau.com/files/index.php" ipsnoembed="false" rel="external nofollow">http://www.mathiau.com/files/index.php</a> e em <a href="http://www.x86-secret.com/articles/nvbios.htm" rel="external nofollow" target="_blank">http://www.x86-secret.com/articles/nvbios.htm</a> você encontra BIOS de placas de vídeo com chips da NVIDIA. Além disto, em alguns casos é possível "transformar" um chip em outro mais rápido. Isto acontece porque em alguns chips mais simples são na verdade chips mais complexos com recursos extras desabilitados e rodando a um clock inferior. Com estes BIOS modificados você é capaz de ativar tais recursos desabilitados e, assim, "transformar" sua placa em outra mais possante.
</p>
]]></description><guid isPermaLink="false">34145</guid><pubDate>Wed, 21 Apr 2004 03:00:00 +0000</pubDate></item><item><title>Cobertura do lan&#xE7;amento do GeForce 6800 (NV40)</title><link>https://www.clubedohardware.com.br/artigos/video/cobertura-do-lan%C3%A7amento-do-geforce-6800-nv40-r33685/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_jx1sr5jx1sr5jx1s.jpg.fcaeee75a5ccb4aa3db8d47058c7ab8b.jpg" /></p>
<p>
	A NVIDIA acaba de lançar a sua mais nova arquitetura. Conhecida pelo nome-código NV40, esta nova arquitetura será usada como base para os novos chips gráficos a serem lançados por esta empresa daqui para frente. Juntamente com o anúncio desta nova arquitetura, a NVIDIA lançou os dois primeiros chips gráficos baseados nela: o GeForce 6800 e o GeForce 6800 Ultra. O lançamento ocorreu ontem (13 de abril de 2004 às 19:00 H ou 23:00 H no Brasil) no Nob Hill Masonic Center, em São Francisco, Califórnia. Nós fomos orgulhosamente convidados pela NVIDIA a participar deste evento. Em nossa cobertura você confere todos os detalhes desta nova arquitetura e dos dois novos chips gráficos lançados.
</p>

<p style="text-align: center;">
	<img alt="Cobertura do Lançamento do GeForce 6800 (NV40)" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/122_001.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 1:</b> São Francisco, palco do lançamento da arquitetura NV40 (GeForce 6800).
</p>

<p style="text-align: center;">
	<img alt="Cobertura do Lançamento do GeForce 6800 (NV40)" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/122_002.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 2:</b> Nob Hill Masonic Center, local do evento.
</p>

<p>
	O evento foi apresentado por Dan Vivoli, vice-presidente executivo de marketing, que chamou ao palco primeiramente Jen-Hsun Huang, co-fundador e diretor-presidente da NVIDIA, que falou sobre as estratégias da NVIDIA para o futuro, sendo "programabilidade" a palavra-chave usada em sua apresentação, além de mostrar preocupação de incorporar nos processadores gráficos funções para a casa digital, a partir do momento em que o PC passa a suportar vários padrões para a execução de conteúdo multimídia para o centro da casa do futuro. Huang deu ainda alguns números impressionantes sobre a arquitetura NV40: 1.000 engenheiros trabalharam neste projeto, foram gastos 400 milhões de dólares no desenvolvimento desta nova arquitetura ao longo de 2 anos.
</p>

<p>
	Em seguida foi chamado ao palco Ujesh Desan, gerente-geral de produtos para desktop, que fez a apresentação da arquitetura NV40 e dos dois primeiros chips gráficos que usam esta arquitetura, o GeForce 6800 e o GeForce 6800 Ultra.
</p>

<p style="text-align: center;">
	<img alt="Cobertura do Lançamento do GeForce 6800 (NV40)" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/122_003.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 3:</b> Ujesh Desan apresenta a arquitetura NV40.
</p>

<p>
	Esta nova arquitetura aumenta tanto o desempenho quanto a qualidade de imagem em comparação ao produto topo de linha anterior, o GeForce FX 5950 Ultra, além de suporte nativo a codificação e decodificação de formatos de vídeo, sendo o primeiro chip gráfico do mercado a incorporar funções de codificação de vídeo tais como MPEG4 e MPEG2 no próprio chip. Desta forma, o NV40 é considerado dois chips em 1, já que incorpora funções antes disponíveis em um chip à parte. A parte de codificação de vídeo é totalmente programável, fazendo com que seja possível "ensinar" o chip sobre um novo padrão de codificação que seja lançado no futuro, através da simples instalação de um novo driver de vídeo.
</p>

<p>
	A qualidade de imagem foi aumentada graças ao uso do novo Shader 3.0. Este novo modelo de programação traz várias novidades, como 65.535 instruções de Vertex Shader (contra 256 do modelo Shader 2.0, que é usado na série GeForce FX), 65.535 instruções de Pixel Shader (contra 96 do modelo Shader 2.0), precisão matemática de 32 bits (contra 24 bits no modelo Shader 2.0) e vários novos recursos não presentes no modelo anterior, como, por exemplo, o Geometry Instancing, que em vez do programa enviar a geometria dos objetos presentes na tela uma-a-uma, envia todas as geometrias de todos os objetos de uma só vez, aumentando o desempenho. A NVIDIA enfatizou várias vezes que o GeForce 6800 é o único chip gráfico existente hoje baseado na nova interface de programação Shader 3.0.
</p>

<p style="text-align: center;">
	<img alt="Cobertura do Lançamento do GeForce 6800 (NV40)" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/122_004.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 4:</b> Shader 2.0 vs. Shader 3.0.
</p>

<p>
	Foram apresentados vários demos para mostrar a melhoria da qualidade de imagem usando o Shader 3.0 em constrate com o Shader 2.0, além de terem convidado ao palco representantes de várias empresas de jogos, tais como Crytek, Sony, Electronic Arts e Epic para mostrarem os jogos baseados no Shader 3.0 que estas empresas estão desenvolvendo e/ou que já estão prontas para o Shader 3.0. A grande vantagem do Shader 3.0, segundo a NVIDIA, é que os jogos antigos baseados no Shader 2.0 não precisam de ser reescritos para tirarem proveito dos novos recursos do Shader 3.0. Os jogos apresentados incluíram FarCry (Crytek), EverQuest 2 (Sony), Lord of The Rings: The Battle For Middle-Earth (Electronic Arts) e Unreal 3 (Epic). Um detalhe importante é que o motor (engine) do Unreal 3 será usado como base para vários jogos.
</p>

<p>
	Quanto ao desempenho, segundo a NVIDIA o GeForce 6800 Ultra é, em média, 2 vezes mais rápido do que o GeForce FX 5950 Ultra, de acordo com testes executados em laboratório. É claro que em determinados jogos o aumento de desempenho foi maior do que em outros, sendo esta uma média. Para você ter uma ideia, a NVIDIA conseguiu com este novo chip mais de 14.000 pontos no 3DMark03, usando um Pentium 4 de 3,4 GHz (só para você ter uma ideia, os valores máximos que nós conseguimos neste programa até hoje foi 5.900 pontos em um Pentium 4 de 3,4 GHz usando uma Radeon 9800 Pro e 6.400 pontos com uma GeForce FX 5950 Ultra). Realmente impressionante, mas teremos de esperar nossos testes com este novo chip para verificarmos se realmente esta estimativa da NVIDIA se concretiza (<a href="gf6800.html" rel="" target="_blank">clique aqui para ler nossos testes com este chip</a>).
</p>

<p style="text-align: center;">
	<img alt="Cobertura do Lançamento do GeForce 6800 (NV40)" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/122_005.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 5:</b> Mais de 14.000 pontos no 3Dmark03 com a GeForce 6800 Ultra em um Pentium 4 de 3,4 GHz.
</p>

<p>
	O aumento do desempenho se deu por vários motivos. O chip GeForce 6800 usa uma arquitetura superescalar com 16 canalizações, isto é, ele é capaz de processar 16 pixels por pulso de clock, o dobro da série GeForce FX 5900. Além disto, cada canalização tem agora duas unidades de Shader e uma unidade de textura, sendo capaz de processar oito operações por pixel por clock. Multiplicando-se isto pela quantidade de canalizações, temos uma capacidade total de 128 operações por clock. Realmente impressionante.
</p>

<p style="text-align: center;">
	<img alt="Cobertura do Lançamento do GeForce 6800 (NV40)" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/122_006.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 6:</b> Arquitetura da série GeForce 6800.
</p>

<p>
	Outros detalhes da arquitetura incluem suporte nativo a precisão matemática de 128 bits, filtro anisotrópico de 16x, interface de memória de 256 bits, suporte a memórias DDR3, fabricação em processo de 0,13 mícron e suporte ao barramento AGP 8x e PCI Express (neste caso, usando o chip conversor da NVIDIA, chamado HSI, High-Speed Interconnect).
</p>

<p>
	O modelo GeForce 6800 Ultra virá com 256 MB de memória DDR3. Já o modelo GeForce 6800 virá com 128 MB de memória DDR "comum" e terá "somente" 12 canalizações, em vez das 16 presentes no modelo Ultra. Além disso, a NVIDIA prometeu para o verão norte-americano (inverno no Brasil) um modelo de GeForce 6800 Ultra com 512 MB de memória DDR3.
</p>

<p>
	Abaixo você confere um modelo de GeForce 6800 UItra apresentado no evento. Repare que há a necessidade de usar dois conectores de alimentação extras e as duas saídas de vídeo são no padrão DVI (que podem ser convertidas para VGA com o uso de um adaptador).
</p>

<p style="text-align: center;">
	<img alt="Cobertura do Lançamento do GeForce 6800 (NV40)" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/122_007.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 7:</b> Placa usando o GeForce 6800 Ultra, vista de frente.
</p>

<p style="text-align: center;">
	<img alt="Cobertura do Lançamento do GeForce 6800 (NV40)" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/122_008.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 8:</b> Placa usando o GeForce 6800 Ultra, vista de costas.
</p>

<p style="text-align: center;">
	<img alt="Cobertura do Lançamento do GeForce 6800 (NV40)" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/122_009.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 9:</b> Detalhe dos conectores de uma placa usando o GeForce 6800 Ultra.
</p>

<p>
	Durante o evento vários parceiros da NVIDIA demonstraram modelos de GeForce 6800 Ultra, entre eles ASUS, Gigabyte, AOpen, Chaintech, XFX, eVGA, Gainward e Leadtek.
</p>

<ul>
	<li>
		<a href="gf6800.html" rel="">Ler nossos testes com o GeForce 6800 Ultra</a>
	</li>
</ul>
]]></description><guid isPermaLink="false">33685</guid><pubDate>Wed, 14 Apr 2004 07:56:00 +0000</pubDate></item><item><title>TechTrends Brazil 2004</title><link>https://www.clubedohardware.com.br/artigos/video/techtrends-brazil-2004-r33686/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_h67ew5h67ew5h67e.jpg.e2ec447442459806167b569b5b2b32e2.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	Estivemos presentes ao evento Tech Trends Brazil 2004, promovido em São Paulo pelas empresas NVIDIA, Gigabyte, AMD e Digitron no dia 16 de março de 2004. Vejam o que foi falado por lá.
</p>

<p>
	NVIDIA: Evoluções Tecnológicas de Chips
</p>

<p>
	A apresentação da NVIDIA, sob o comando de Joe Gorfinkle, seu vice-presidente de vendas, teve como base as novidades e evoluções tecnológicas na área de chips gráficos, com ênfase no barramento PCI Express e suas vantagens. Para saber mais sobre essa arquitetura, leia nossos artigos sobre o assunto em <a href="https://www.clubedohardware.com.br/artigos/feiras-e-eventos/idf-fall-2003-3%C2%BA-dia-r33705/?nbcpage=3" target="_blank" rel="">https://www.clubedohardware.com.br/artigos/feiras_e_eventos/idf-fall-2003-3º-dia-r33705//3</a>
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img style="height: auto;" alt="spacer.png" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt00.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Joe Gorfinkle, vice-presidente de vendas da NVIDIA.
</p>

<p>
	Hoje em dia as placas de vídeo necessitam ter cada vez mais recursos para rodar os novos jogos que chegam ao mercado. Podemos ver isso claramente colocando um jogo de 1994 ao lado de outro de 2004, como vemos na Figura 2.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img style="height: auto;" alt="spacer.png" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt01.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> Comparação de jogo de 1994 com jogo de 2004.
</p>

<p>
	Ao compararmos os 5 mil polígonos de 1994 com os 5 milhões de polígonos de 2004, podemos ver que os jogos de hoje rodam 100 vezes mais rápido que os de 10 anos atrás. A questão é que muitos dos chips gráficos atuais são ainda para os gráficos de 1994. Eles vêm de graça, integrados ao chipset. E a diferença é percebida visualmente, mas muitos usuários estão perdendo o prazer de vivenciar todo o realismo dos jogos atuais porque um bom equipamento para rodar esses jogos ainda é muito caro para a maioria das pessoas.
</p>

<p>
	Para aumentar a capacidade de processamento e conferir mais realismo aos jogos, a NVIDIA faz uso de GPU (Graphics Processing Unit - Unidade de Processamento Gráfico), ou simplesmente processador gráfico, que melhora muito a qualidade da renderização 3D. As cenas, portanto, ficam mais realistas, como mostra a Figura 3.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img style="height: auto;" alt="spacer.png" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt02.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 3:</strong> Na imagem da esquerda, a pedra parece meio borrada e até mesmo macia; já na da direita, ela é mais rica em detalhes e a grama parece mais real.
</p>

<p>
	A NVIDIA criou, há cerca de dois anos, um recurso chamado Shaders programáveis, na série GeForce. Com a introdução, pela Microsoft, do Pixel Shader 3.0 no DirectX 9, temos uma precisão de 64 bits no processamento gráfico. Na Figura 4 podemos ver o grau de realismo das imagens, onde, por exemplo, a aparência translúcida de um rosto é obtida através da simulação de dispersão de luz dentro do objeto.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img style="height: auto;" alt="spacer.png" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt03.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 4:</strong> Recursos possíveis com o Pixel Shader 3.0.
</p>

<p>
	Sobre o futuro dos gráficos, vimos que o PCI Express é a arquitetura de barramento da próxima geração. Esta mudança é a mais significativa desde a mudança do ISA para o PCI. Durante o Intel Developers Fórum, realizado em fevereiro, a série GeForce foi apresentada com um chip chamado HSI (High Speed Interconnect), que converte os sinais do barramento PCI Express em sinais compatíveis com o chip gráfico AGP 8x (ver <a href="https://www.clubedohardware.com.br/artigos/feiras-e-eventos/idf-spring-2004-1%C2%BA-dia-r33688/?nbcpage=4" target="_blank" rel="">https://www.clubedohardware.com.br/artigos/feiras_e_eventos/idf-spring-2004-1º-dia-r33688//4</a>). A proposta dos chips HSI, que possuem largura de banda de 4 GB/s, é pegar os sinais AGP e convertê-los para o PCI Express e, mais importante ainda, converter os sinais do PCI Express de volta para o AGP, usando transferências isócronas e com total gerenciamento de potência.
</p>

<p>
	O lançamento dos novos produtos PCI Express está previsto para maio deste ano e os modelos são: GeForce PCX 5950 (baseada na arquitetura DirectX 9, proporciona aos entusiastas alta potência e desempenho gráfico, especialmente para gamers exigentes); GeForce PCX 5750 (elaborada para jogos de alto desempenho, com efeitos cinemáticos); GeForce PCX 5300 (bom desempenho a preço justo) e GeForce PCX 4300 (para o mercado voltado a usuários iniciantes, desempenho com preço acessível e boa qualidade visual).
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img style="height: auto;" alt="spacer.png" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt04.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 5:</strong> Infraestrutura PCI Express.
</p>

<p>
	O PCI Express apresenta uma nova arquitetura de barramento, já que não temos o AGP e o PCI Express ao mesmo tempo na mesma placa-mãe - ou é um ou é o outro. O que significa uma nova geração de placas-mães e novos chipsets. O risco do PCI Express é bem alto: "novo" geralmente significa "mais caro": o AGP e o PCI Express são processos incompatíveis, já que não se encaixam no mesmo slot.
</p>

<p>
	<strong>Chipsets</strong>
</p>

<p>
	A linha nForce 3 da NVIDIA possui apenas um chip. No nForce 2 existiam dois chips e assim era difícil atingir o mercado de PCs baratos, que constitui grande parte do mercado brasileiro. No nForce 3-150 temos um único chip. No nForce 3-250 Gb teremos também um único chip.
</p>

<p>
	<strong>Drivers e Utilitários</strong>
</p>

<p>
	Foi apresentado também o ForceWare Software: pacote de drivers e compiladores, ferramentas de gerenciamento de sistema (NVSystemUtilities, NVIDIA RAID, Personal Firewall, etc) e de área de trabalho (nView, NVRotate, NVKeystone, PowerMizer, etc) e software multimídia (captura de TV e vídeo, DVD, etc). Tudo bem fácil de usar, para todos os tipos de usuários, segundo o fabricante.
</p>

<p>
	Sobre drivers, a arquitetura UDA (Unified Driver Architecture, Arquitetura de Driver Unificada) usa um único driver para todas as placas de vídeo. Os usuários que comprarem um produto NVIDIA hoje poderão fazer upgrade de driver mais facilmente, se assim desejarem. Além disso, se um cliente desejar fazer um upgrade para outro produto NVIDIA mais moderno mas não quiser fazer o upgrade de driver, seu driver antigo funcionará com o novo hardware.
</p>

<p>
	O nView é uma ferramenta de desktop que permite o gerenciamento de múltiplas telas, proporcionando vários usos para múltiplos monitores, que estão se tornando cada vez mais comuns à medida que seu preço diminui. O nView permite a ligação de vários monitores em uma única placa de vídeo: pode-se ter um aplicativo diferente rodando em cada monitor (com um único monitor é necessário manter várias janelas abertas e alternar entre elas; com monitores múltiplos podemos ter um aplicativo rodando em um monitor diferente).
</p>

<p>
	Já que nem todo mundo pode ter múltiplos monitores, há também o Gridlines, que possibilita a definição da quantidade de sub-regiões em qualquer monitor. Veja na Figura 6 que o usuário simplesmente escolhe quantas janelas ele quer ver simultaneamente na sua tela, evitando assim ter que redimensionar as janelas de aplicativos a cada momento que desejar visualizá-las.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img style="height: auto;" alt="spacer.png" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt05.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 6:</strong> Uso do recurso Gridlines.
</p>

<p>
	Na área de armazenamento, vimos o NV-rebuild, que roda em segundo plano enquanto você está usando o computador e você nem nota que ele está lá, fazendo backup do sistema.
</p>

<p>
	Outra ferramenta interessante é o Game Profiles (perfis de jogos): o usuário pode ter uma configuração de aplicativo diferente para cada jogo sem ter que refazê-las a cada vez que for jogar. As configurações ficam armazenadas e basta carregar o jogo e o perfil estará lá, exatamente como o usuário determinou para aquele jogo específico.
</p>

<p>
	Muito útil é o overclock automático: para aqueles que não possuem um bom sistema de resfriamento, que em muitos casos é bem caro, o overclock automático detecta a melhor frequência baseado nas condições de operação do chip. Se o chip aquecer muito, o programa baixa o clock automaticamente.
</p>

<p>
	[pagination="AMD: Evolução do Mercado de 64 bits "]
</p>

<p>
	Muitas pessoas ainda perguntam se 64 bits realmente é algo necessário ou se 32 bits já é o suficiente, mas as aplicações de vídeo estão ficando cada vez mais complexas. Existe uma tendência para tornar a experiência com o micro cada vez mais real.
</p>

<p>
	Segundo Otto Stoeterau, diretor de tecnologia da AMD, o objetivo da empresa é criar algo que seja mais confortável para o usuário final, trabalhando vários aspectos como garantia, segurança (proteção anti-vírus no processador) e gerenciamento de potência. A intenção é fazer um desktop funcionar de maneira semelhante a um notebook, no que tange a poder variar freqüência e tensão de alimentação para que tenhamos esse desktop trabalhando da forma mais silenciosa possível, executando as funções sob demanda.
</p>

<p style="text-align: center;">
	<img alt="TechTrends Brazil 2004" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt06.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 7:</b> Otto Stoeterau, diretor de tecnologia da AMD.
</p>

<p>
	Segundo a AMD, o Athlon 64 3400+ é processador de maior desempenho no mercado de PCs atualmente (<a href="https://www.clubedohardware.com.br/artigos/processadores/athlon-64-3400-vs-pentium-4-3-4-ghz-r34272/" target="_blank" rel="">embora em nossos testes tenhamos chegado a outra conclusão</a>). A migração para 64 bits proporciona vídeos mais realistas, rodando aplicativos e jogos mais pesados. O usuário hoje adquire um perfil muito mais profissional e o desktop subiu de nível e não é mais o mesmo de quatro anos atrás. Hoje temos acesso a ferramentas cada vez mais profissionais dentro de casa e pode-se fazer uma edição de vídeo sem precisar de uma estação de trabalho gigante.
</p>

<p>
	A tecnologia AMD 64 traz a uniformidade de 64 bits desde notebooks até servidores, trazendo quatro conceitos principais: tecnologia Hyper-Transport (a idéia principal é trazer um barramento capaz de suportar até 6,4 Gigabits por segundo - 40 vezes mais rápido do que o padrão PCI suporta - <a href="https://www.clubedohardware.com.brhttps://www.clubedohardware.com.br/artigos/processadores/tudo-o-que-voc%C3%AA-precisa-saber-sobre-o-barramento-hypertransport-r34111/" target="_blank" rel="">lembrando que este número oficial da AMD é exagerado e errado</a>) para as novas evoluções que estão vindo no mercado – PCI Express, PCI-X, Gigabit Ethernet e novas placas de vídeo com tecnologia que demanda cada vez mais capacidade de processamento.
</p>

<p>
	Do ponto de vista de acelerar o processamento, o controlador de memória está integrado ao processador, ou seja, não existe mais a necessidade do processador recorrer ao chipset para acessar a memória – ele passa a controlar a memória diretamente. Isso faz com que o tempo de acesso à memória seja reduzido, diminuindo a latência.
</p>

<p>
	<a href="https://www.clubedohardware.com.br/artigos/processadores/cobertura-do-lan%C3%A7amento-do-athlon-64-r33695/" target="_blank" rel="">Mais detalhes sobre as tecnologias do Athlon 64 você encontra no artigo sobre o lançamento do processador Athlon 64</a>.
</p>

<p>
	[pagination="Gigabyte: Convergência Tecnológica "]
</p>

<p>
	A Gigabyte apresentou suas inovações tecnológicas junto com a AMD, NVIDIA e Digitron, seu grande parceiro na distribuição de placas no Brasil. A maior parte da apresentação de Eric Lu, gerente geral da Gigabye USA consistiu basicamente em dar informações aos revendedores sobre as vantagens de seus produtos, baseando-se no máximo suporte possível ao usuário brasileiro, proporcionando conforto através de website em português, bem como o manual e a caixa das placas que são vendidas no Brasil.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img style="height: auto;" alt="spacer.png" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt07.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 8:</strong> Eric Lu, gerente geral da Gigabyte USA.
</p>

<p>
	Um dos focos foi na tecnologia Xpress3, um conjunto de três programas exclusivos: Xpress Install, para facilitar a instalação de drivers, detectando quais são os drivers necessários; Xpress BIOS Rescue, que restaura a BIOS caso ela seja corrompida, criando uma cópia de segurança numa área segura do HD; e Xpress Recovery, que faz backup ou recuperação de HDs através da BIOS, já que o backup fica gravado numa área segura do HD. O software acompanha as placas e é gratuito.
</p>

<p>
	A tecnologia 6-Dual Miracle foi o outro ponto importante da apresentação. A Gigabyte dobrou seis características das placas-mães que possuem essa tecnologia, portanto a GA-K8NNXP usada na demonstração vem com dois BIOS: se o BIOS principal for apagado, pode-se recuperá-lo através do BIOS de backup. Veja nas Figuras 9 a 11 como funcionam o Express BIOS Rescue e o Xpress Recovery.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img style="height: auto;" alt="spacer.png" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt08.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 9:</strong> Express BIOS Rescue.
</p>

<p>
	<img style="height: auto;" alt="spacer.png" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt09.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 10:</strong> Funcionamento do Xpress Recovery.
</p>

<p>
	<img style="height: auto;" alt="spacer.png" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt10.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 11:</strong> Funcionamento do Xpress Recovery.
</p>

<p>
	Nós já testamos a placa GA-K8NNXP e seus detalhes podem ser vistos em <u><a href="https://www.clubedohardware.com.br/analises/placas-mae/placa-mae-gigabyte-k8nnxp-r34177/" target="_blank" rel="external nofollow">http://wwwclubedohardware.com.br/artigos/placas-mae/placa-mãe-gigabyte-k8nnxp-r34177/</a></u>
</p>

<p>
	[pagination="Digitron "]
</p>

<p>
	No Brasil, o Canal Gigabyte de Distribuição é a Digitron, cuja apresentação foi feita por seu gerente de marketing, Alexandre Parlangeli.
</p>

<p style="text-align: center;">
	<img alt="TechTrends Brazil 2004" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt11.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 12:</b> Alexandre Parlangeli, gerente de marketing da Digitron.
</p>

<p>
	A Digitron tem sua sede administrativa em São Paulo e atualmente possui fábricas em Manaus e Ilhéus. Sua capacidade de produção mensal está em torno de 65 mil placas-mães e 180 mil placas de expansão – a fábrica chega a produzir duas placas-mães por minuto, que são inspecionadas visualmente através de equipamentos de alta resolução ainda em sua linha SMD (Surface Mounted Device, Dispositivos Montados em Superfície)
</p>

<p style="text-align: center;">
	<img alt="TechTrends Brazil 2004" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt12.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 13:</b> Uma das linhas SMD da Digitron.
</p>

<p>
	No mesmo evento, a Digitron foi homenageada com um troféu pela Gigabyte por ser seu maior parceiro na América do Sul.
</p>

<p style="text-align: center;">
	<img alt="TechTrends Brazil 2004" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tt13.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 14:</b> Digitron é homenageada pela Gigabyte.
</p>
]]></description><guid isPermaLink="false">33686</guid><pubDate>Mon, 05 Apr 2004 08:14:00 +0000</pubDate></item><item><title>Placas GeForce 2 MX 400 falsificadas</title><link>https://www.clubedohardware.com.br/artigos/video/placas-geforce-2-mx-400-falsificadas-r34335/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_8x14hw8x14hw8x14.jpg.8f2e08a645085506b7f93a38bcc63d41.jpg" /></p>
<p>
	Recebemos e-mails de vários leitores denunciando que uma determinada placa de vídeo está sendo largamente vendida no mercado como sendo uma GeForce 2 MX 400 com 64 MB mas, na verdade, usa o chip SiS 315 com 32 MB, que é muito inferior ao GeForce 2 MX 400.
</p>

<p>
	A falsificação ocorre na caixa do produto e na própria placa. Na caixa há escrito que a placa é uma GeForce 2 MX 400 e sobre a placa há uma etiqueta dizendo que a placa é uma GeForce 2 MX 400. Há também na placa um adesivo com a logomarca da NVIDIA (fabricante dos chips GeForce) colado sobre um dos chips. O BIOS da placa de vídeo foi alterado: quando você liga o micro aparece na tela que a placa é uma GeForce 2 MX 400.
</p>

<p align="center">
	<img alt="Placas GeForce 2 MX 400 Falsificadas" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/geforcefalsa1.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 1:</strong> Caixa e placa GeForce 2 MX 400 falsificada.
</p>

<p align="center">
	<img alt="Placas GeForce 2 MX 400 Falsificadas" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/geforcefalsa2.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 2:</strong> A placa tem o BIOS alterado; quando você liga o micro aparece escrito "GeForce 2 MX 400".
</p>

<p>
	Quando os drivers são instalados, a surpresa: a placa usa drivers da SiS 315 e não drivers da GeForce! Aparentemente os drivers da placa foram alterados para que em vez de aparecer escrito "SiS 315" apareça escrito "GeForce 2 MX 400" no Gerenciador de Dispositivos. Mas se você reparar os nomes dos arquivos de driver – Sisgrv.dll entre outros – fica claro que a placa está usando drivers da SiS.
</p>

<p align="center">
	<img alt="Placas GeForce 2 MX 400 Falsificadas" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/geforcefalsa3.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 3:</strong> O Windows detecta que o chip gráfico é o SiS 315 com 32 MB e não o GeForce 2 MX 400.
</p>

<p>
	A "marca" desta placa é "Sky Video" ou "Sky Media", como você pode conferir em nossa foto. Na caixa há o site www.sky-tech.info. Fazendo uma pesquisa no Whois, descobrimos que este domínio está registrado para um brasileiro de Foz do Iguaçu. Ou seja, esta placa de vídeo veio do Paraguai.
</p>

<p>
	Ou seja, cuidado com placas desta marca. Se você comprou uma placa GeForce falsificada, é importante notar que o lojista que te vendeu a placa pode não saber que ela é falsificada, isto é, ele também pode ter comprado a placa para a revenda realmente pensando que se tratava de uma GeForce.
</p>

<p>
	Agradecemos aos leitores Márcio Antônio Rossetto da Cunha e Sieve-X, entre outros, que nos mandaram as fotos e informações da coluna de hoje.
</p>
]]></description><guid isPermaLink="false">34335</guid><pubDate>Wed, 01 Oct 2003 04:11:00 +0000</pubDate></item><item><title>Como transformar sua Radeon em uma FireGL</title><link>https://www.clubedohardware.com.br/artigos/video/como-transformar-sua-radeon-em-uma-firegl-r34334/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_vjlwjfvjlwjfvjlw.jpg.f8ccf7636a24d3bd8796de57d16ab6c8.jpg" /></p>
<p>
	O mesmo grupo de programadores russos que descobriu que os chips GeForce são na verdade chips Quadro com recursos desabilitados, descobriu que o mesmo processo ocorria na família de chips da ATI. Ou seja, chips Radeon são na verdade chips FireGL com recursos desabilitados. Com isso, é possível transformar chips Radeon em FireGL.
</p>

<p>
	Essa dica porém só funciona com chips nome-código R300, ou seja, Radeon 9500, Radeon 9500 Pro, Radeon 9700 e Radeon 9700 Pro. Ou seja, se você tem uma placa de vídeo baseada em um dos chips Radeon listados nesta tabela, você pode turbinar o seu PC sem gastar nada. A conversão pode ser feita para um chip FireGL X1 ou para um FireGL Z1 (independentemente de qual seja a sua placa), sendo que o FireGL X1 é mais rápido do que o FireGL Z1.
</p>

<p>
	A conversão do chip Radeon R300 em um FireGL é feita no driver da placa de vídeo. Você terá de baixar o driver atualizado da ATI para o FireGL, rodar um programa de conversão (SoftFireGL, que está presente no programa Riva Tuner) e instalar o driver modificado. Note que você terá de baixar, modificar e instalar os drivers para o chip FireGL, sendo que em seu micro você terá atualmente instalado os drivers para o chip Radeon.
</p>

<p>
	O passo a passo da conversão é o seguinte:
</p>

<p>
	1. Baixe os drivers de vídeo atualizados do chip FireGL Z1-128 ou FireGL X1-128, de acordo com o seu sistema operacional, em <a href="http://www.ati.com/support/driver.html" rel="external nofollow" target="_blank">http://www.ati.com/support/driver.html</a>.
</p>

<p>
	2. Descompacte o arquivo baixado em um diretório temporário (por exemplo, c:ati). Isso pode ser feito com o WinZip, mesmo o arquivo baixado sendo um executável.
</p>

<p>
	3. Baixe o programa Riva Tuner em <a href="http://www.guru3d.com/index.php?page=rivatuner&amp;menu=8" rel="external nofollow" target="_blank">http://www.guru3d.com/index.php?page=rivatuner&amp;menu=8</a>. Instale este programa e rode-o ao menos uma vez para que o programa crie associações de arquivos no sistema operacional.
</p>

<p>
	4. Rode o script SoftFireGL. Para fazer isso, execute o arquivo SoftFireGL w2k.rts existente em C:Arquivos de programasRivaTunerPatchScriptsATISoftFireGL1024+. Basta dar um duplo clique sobre este arquivo usando o Windows Explorer.
</p>

<p>
	5. Na janela do SoftFireGL, selecione a conversão que será efetuada (FireGL Z1 ou FireGL X1) e aponte o diretório onde o driver de vídeo foi descompactado (c:ati, por exemplo). Como o FireGL X1 é mais rápido do que o Z1, a nossa preferência é pela conversão pelo X1.
</p>

<p>
	6. Após modificar os drivers, instale-os no sistema. Isso tem de ser obrigatoriamente feito através do Gerenciador de Dispositivos, selecionando o driver de vídeo atual e mandando o sistema atualizar o driver. O instalador automático que acompanha o driver não funcionará.
</p>

<p>
	Note que em alguns casos a ATI vendeu chips R300 que não passaram nos testes para funcionar como um Radeon 9700 ou como um FireGL X1 como sendo um Radeon 9500. Por isso, em alguns casos a conversão para o chip FireGL X1 pode não funcionar, caso você tenha tido o azar de ter um chip rejeitado em sua placa de vídeo Radeon 9500. Neste caso, só resta a alternativa de converter a sua placa para uma OpenGL Z1.
</p>
]]></description><guid isPermaLink="false">34334</guid><pubDate>Wed, 24 Sep 2003 04:09:00 +0000</pubDate></item><item><title>Como transformar sua GeForce em uma quadro</title><link>https://www.clubedohardware.com.br/artigos/video/como-transformar-sua-geforce-em-uma-quadro-r34333/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_d5pp6ud5pp6ud5pp.jpg.a02c5005d1ebbcd6fc5650331c92fe8c.jpg" /></p>
<p>
	A NVIDIA, fabricante dos populares chips gráficos GeForce, fabrica duas séries de chip, GeForce, para usuários finais, e Quadro, voltada para o mercado profissional de alto desempenho, como aplicações CAD.
</p>

<p>
	Um grupo de programadores russo e chinês descobriu que na verdade os chips da série GeForce e Quadro são os mesmos, só que os chips GeForce possuem os recursos adicionais presentes na série Quadro desabilitados. Ou seja, é possível transformar um chip GeForce em um chip Quadro. Na tabela a seguir nós vemos a relação entre os chips GeForce e Quadro.
</p>

<p style="text-align: center;">
	 
</p>

<table>
	<tbody>
		<tr>
			<th>
				GeForce
			</th>
			<th>
				Quadro
			</th>
		</tr>
		<tr>
			<td>
				GeForce256
			</td>
			<td>
				Quadro
			</td>
		</tr>
		<tr>
			<td>
				GeForce2 MX
			</td>
			<td>
				Quadro2 MXR
			</td>
		</tr>
		<tr>
			<td>
				GeForce2 GTS
			</td>
			<td>
				Quadro2
			</td>
		</tr>
		<tr>
			<td>
				GeForce4 Ti
			</td>
			<td>
				Quadro4 XGL
			</td>
		</tr>
	</tbody>
</table>

<p>
	Ou seja, se você tem uma placa de vídeo baseada em um dos chips GeForce listados nesta tabela, você pode dar um "gás" no seu PC sem precisar gastar dinheiro algum.
</p>

<p>
	Há duas maneiras de se converter o chip GeForce em um Quadro. A primeira maneira é alterando alguns resistores em sua placa de vídeo. Por ser um procedimento delicado, nós não estaremos explicando este método. Contudo, se você quiser conhecê-lo, visite <a href="http://www.geocities.com/tnaw_xtennis/Quadro1-2.htm" rel="external nofollow" target="_blank">http://www.geocities.com/tnaw_xtennis/Quadro1-2.htm</a>. A segunda maneira de se fazer a conversão é através de software, que é a maneira que estaremos apresentando a vocês.
</p>

<p>
	A conversão é feita no driver da placa de vídeo. Você terá de baixar o driver atualizado da NVIDIA, rodar um programa de conversão (chamado SoftQuadro) e instalar o driver modificado. Como a modificação é feita em arquivos do driver de vídeo, não é possível modificar os drivers que estão instalados em seu micro atualmente, visto que eles estão sendo usados pelo sistema e, portanto, inacessíveis pelo programa de conversão.
</p>

<p>
	O passo a passo da conversão é o seguinte:
</p>

<p>
	1. Baixe os drivers de vídeo da NVIDIA atualizados, de acordo com o seu sistema operacional. Os drivers da NVIDIA servem para todos os modelos de GeForce e podem ser baixados em <a href="http://www.nvidia.com/content/drivers/drivers.asp" rel="external nofollow" target="_blank">http://www.nvidia.com/content/drivers/drivers.asp</a> (selecione Graphics Driver, GeForce and TNT2). Obs: alguns leitores não estão conseguindo modificar os drivers mais atualizados. Na documentação do SoftQuadro há a informação que ele seria compatível até a versão 41.03 dos drivers da NVIDIA. Em <a href="ftp://download1.nvidia.com/Windows" rel="external nofollow" target="_blank">ftp://download1.nvidia.com/Windows</a> você pode acessar o servidor da NVIDIA diretamente para baixar versões mais antigas dos drivers. Tendo sucesso, por favor avise-nos para que possamos colocar aqui um link diretamente para a versão dos drivers que funcionam corretamente com o SoftQuadro.
</p>

<p>
	2. Descompacte o arquivo baixado em um diretório temporário (por exemplo, c:nvidia). Isso pode ser feito com o WinZip, mesmo o arquivo baixado sendo um executável.
</p>

<p>
	3. Baixe o programa <a href="http://www.3dcenter.de/downloads/files/cb46p71/softquadro.zip" rel="external nofollow" target="_blank">SoftQuadro</a> ou o <a href="http://www.nvworld.ru/downloads/SQ4ScriptPack.zip" rel="external nofollow">SoftQuadro4</a>, caso você tenha uma GeForce 4 Ti.
</p>

<p>
	4. Rode o programa SoftQuadro, apontando o diretório temporário onde você descompactou os drivers de vídeo. No caso do SoftQuadro4, ele deve ser rodado dentro do RivaTuner. Além disto, no SoftQuadro4 você deverá rodar antes o script de remoção do Nvstrap.
</p>

<p>
	5. Após modificar os drivers, instale-os no sistema.
</p>

<p>
	6. O último passo é verificar se a sua placa de vídeo está sendo reconhecida como uma Quadro pelos programas. Isso pode ser feito através do programa GLInfo (<a href="http://mypage.bluewin.ch/TheEdge/projects/glInfo/index.html" rel="external nofollow" target="_blank">http://mypage.bluewin.ch/TheEdge/projects/glInfo/index.html</a>). Na linha Renderer deverá estar aparecendo agora "Quadro". Se não estiver aparecendo, use o programa RivaTuner e na guia Power User configure a chave OGL_ForceGeForce como "0".
</p>
]]></description><guid isPermaLink="false">34333</guid><pubDate>Wed, 17 Sep 2003 04:05:00 +0000</pubDate></item><item><title>Transformando uma Radeon 9500 em uma Radeon 9700</title><link>https://www.clubedohardware.com.br/artigos/video/transformando-uma-radeon-9500-em-uma-radeon-9700-r34257/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_64n4i264n4i264n4.jpg.5f65004c729349a455a633684a820550.jpg" /></p>
<p>
	É possível transformar sua placa de vídeo 3D baseada no chip Radeon 9500 da ATI em Radeon 9700 através de uma pequena modificação de um resistor existente sobre o processador de vídeo. O Radeon 9700 é atualmente um dos chips de vídeo mais rápidos do mercado. A diferença de preço entre uma placa de vídeo usando o Radeon 9500 e uma placa usando o Radeon 9700 é de quase US$ 100!
</p>

<p>
	O site russo <a href="http://www.overclockers.ru" rel="external nofollow" target="_blank">Overclockers.ru</a> descobriu que o chip da ATI Radeon 9500 não tem internamente nenhuma diferença para o chip Radeon 9700. Os recursos a mais existentes no chip Radeon 9700 também estão presentes no interior do Radeon 9500, só que estão desabilitados por hardware, através de um pequeno resistor existente no corpo do processador.
</p>

<p>
	É importantíssimo notar que somente os modelos da Radeon 9500 dotados de 128 MB de memória DDR-SDRAM de 256 bits é que podem ser modificados. Os modelos inferiores, de 64 MB ou de memória de 128 bits, não permitem a sua transformação em uma Radeon 9700.
</p>

<p>
	Para você transformar o chip Radeon 9500 e um Radeon 9700, dois passos são necessários. Primeiro, fazer a modificação no chip. Segundo, efetuar um upgrade no BIOS da placa de vídeo para uma versão modificada do BIOS que faz com que a placa "pense" que ela agora é uma Radeon 9700.
</p>

<p>
	A modificação do chip deve ser feita removendo-se o dissipador de calor da placa de vídeo. Posicione a placa de vídeo de tal forma que a logomarca da ATI existente sobre o chip fique de cabeça para baixo. Repare a série de pequenos resistores presentes no lado esquerdo do chip. O resistor localizado na extrema esquerda é o que deve ser modificado. O resistor está originalmente ligando os pinos marcados com 2 e 3 em nossa foto. Basta você, usando tinta condutiva, fazer a ligação entre os pinos 1 e 2. Essa tinta condutiva é vendida em lojas de material eletrônico (lojas que vendem componentes como transistores e circuitos integrados) e é normalmente usada para reparar trilhas danificadas em placas de circuito impresso.
</p>

<p align="center">
	<img alt="Transformando uma Radeon 9500 em uma Radeon 9700" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/r9500core-s.jpeg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Radeon 9500.
</p>

<p>
	Após efetuar essa modificação, o próprio passo é fazer o upgrade de bios da placa de vídeo, disponível em <a href="http://www.aselabs.com/downloads/flash.zip" rel="external nofollow">http://www.aselabs.com/downloads/flash.zip</a>. Após descompactar esse arquivo em um diretório do seu disco rígido, <a href="http://bootdisk.com/bootdisk.htm" rel="external nofollow">crie um disquete de boot limpo</a>. Em seguida, copie todos os arquivos que estavam no arquivo Zip para o disquete. Dê boot pelo disquete e, no prompt do DOS, entre o seguinte comando para fazer o upgrade de BIOS:
</p>

<p>
	atiflash -f -p 0 oc9500.bin
</p>

<p>
	Se depois você quiser desfazer o upgrade de BIOS ou caso algo tenha saído errado, use o comando abaixo para recuperar o BIOS antigo:
</p>

<p>
	atiflash -f -p 0 original.bin
</p>

<p>
	Testes feitos pelo site <a href="http://www.xbitlabs.com/news/video/display/news6149.html" rel="external nofollow" target="_blank">http://www.xbitlabs.com/news/video/display/news6149.html</a> mostram que o desempenho da Radeon 9500 aumenta 40% com essa modificação (medido no Quake III).
</p>

<p>
	Lembramos que a modificação sugerida nesta coluna anula a garantia do equipamento.
</p>

<p>
	<b>Dicas Relacionadas:</b>
</p>

<ul>
	<li>
		<a href="https://www.clubedohardware.com.br/artigos/video/upgrade-de-bios-da-placa-de-v%C3%ADdeo-r34145/" rel="" target="_Blank">Upgrade de BIOS da Placa de Vídeo</a>
	</li>
	<li>
		<a href="https://www.clubedohardware.com.br/artigos/video/transformando-sua-radeon-9800-pro-em-uma-radeon-9800-xt-r34146/" rel="" target="_Blank">Transformando sua Radeon 9800 Pro em uma Radeon 9800 XT</a>
	</li>
</ul>
]]></description><guid isPermaLink="false">34257</guid><pubDate>Wed, 22 Jan 2003 07:53:00 +0000</pubDate></item></channel></rss>
