<?xml version="1.0"?>
<rss version="2.0"><channel><title>Artigos: Artigos</title><link>https://www.clubedohardware.com.br/artigos/video/page/5/</link><description>Artigos: Artigos</description><language>pt</language><item><title>Filmes de DVD no PC</title><link>https://www.clubedohardware.com.br/artigos/video/filmes-de-dvd-no-pc-r34085/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_palkofpalkofpalk.jpg.cb07a5879366e4bb4e7eeb9431f7ea5a.jpg" /></p>
<p>
	O preço das unidades de DVD caíram tanto que essas unidades passaram a ser uma opção a mais para todos os que têm PCs. Mas inúmeros usuários têm nos escrito enfrentando uma série de problemas, por causa de um detalhe importantíssimo e que faz toda a diferença.
</p>

<p>
	Os filmes gravados em DVD gravados em formato digital e são comprimidos. Para poderem ser reproduzidos, precisam antes serem descompactados (decodificados). As unidades de DVD-ROM vendidas avulsas, sem placa decodificadora, usam o processador da máquina para fazerem essa decodificação. Se a máquina não for rápida o suficiente, você sentirá perda de qualidade e quebra de quadros (filme sendo reproduzido "picotado") na reprodução de filmes em DVD.
</p>

<p>
	Fizemos vários testes em nosso laboratório e, mesmo com uma máquina extremamente rápida (Athlon-1000, placa-mãe Gigabyte GA-7DXR e 256 MB de memória DDR-SDRAM), sentimos quebra de quadros esporádicas e, principalmente, uma qualidade inferior de imagem se comparada a reprodução do mesmo disco de DVD em um DVD player convencional conectado a um aparelho de TV (mesmo a TV tendo uma qualidade pior do que a do monitor de vídeo).
</p>

<p>
	Em casos de kits com DVD com placas decodificadoras, o caso é diferente, pois a placa é que irá fazer a decodificação do disco.
</p>

<p>
	Dessa forma, chegamos a algumas conclusões importantes e que poderão ser úteis a todos os leitores. O objetivo principal das unidades de DVD-ROM vendidas avulsas não é a reprodução de filmes de DVD, mas sim a leitura de discos DVD-ROM, que possivelmente irão substituir os discos de CD-ROM no futuro. Usar esse tipo de unidade para ver filmes não deve ser considerado uma solução adequada, mas sim um "quebra-galho".
</p>

<p>
	Muitos leitores pensam em comprar uma unidade barata dessas pois os aparelhos de DVD convencionais ainda estão muito caros nas lojas. Mas eles estão ficando cada vez mais baratos, muitos na faixa de R$ 400 e caindo. Não podemos nos esquecer também que para conseguir ver o filme em uma TV usando uma unidade de DVD de PC é necessário ter uma placa de vídeo com saída para TV ou então usar uma placa decodificadora.
</p>

<p>
	Dessa forma, não é tão verdade assim que usar o micro para reproduzir DVDs sai mais barato do que comprar um DVD player comercial. Você precisará ter uma máquina tão poderosa (e talvez você não precise de uma máquina tão poderosa) que pode acabar saindo mais caro.
</p>

<p>
	Não podemos nos esquecer também do áudio. Para poder escutar todos os canais de áudio, você precisará ter uma placa de som compatível com o formato de áudio do DVD (formato 5.1) com entrada digital, como a Soundblaster Live! 5.1 e usar caixas de som de boa qualidade conectadas à placa. Mais um custo para você conseguir aproveitar todos os recursos do DVD.
</p>

<p>
	Ou seja, você é quem deve decidir qual é a melhor opção para você, baseado nessas informações que acabamos de dar, e, principalmente, o seu grau de irritação em relação à perda de qualidade. Se você for um cinéfilo, então esqueça a solução de DVD pelo PC.
</p>
]]></description><guid isPermaLink="false">34085</guid><pubDate>Wed, 31 Oct 2001 02:00:00 +0000</pubDate></item><item><title>Aumentando o desempenho 3D de sua m&#xE1;quina</title><link>https://www.clubedohardware.com.br/artigos/video/aumentando-o-desempenho-3d-de-sua-m%C3%A1quina-r34062/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_rkm0lqrkm0lqrkm0.jpg.f4d59209aa1e0ff78364c568ea33f1b5.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	Freqüentemente dizemos aqui em nossa coluna da importância de se instalar os drivers que vêm no CD-ROM da placa-mãe. Falamos algumas vezes sobre os drivers de bus mastering e a importância dele para o aumento do desempenho de disco do micro (se você perdeu nossa série de tutoriais sobre o assunto, leia em <a href="https://www.clubedohardware.com.br/artigos/software/configurando-corretamente-o-sistema-operacional-r34021/" rel="" target="_Blank">https://www.clubedohardware.com.br/artigos/software/configurando-corretamente-o-sistema-operacional-r34021/</a>), mas ainda não havíamos falado sobre o driver do barramento AGP, fundamental para que a sua placa de vídeo 3D consiga atingir o máximo de desempenho possível.
</p>

<p>
	O que ocorre é que quando montamos um micro e instalamos o sistema operacional, a máquina aparentemente está funcionando bem e, por isso, muitas vezes não nos preocupamos com detalhes como a configuração do bus mastering e a instalação dos drivers do barramento AGP. Pois deveríamos. Fizemos uma série de testes em nosso laboratório e descobrimos que o desempenho 3D da máquina muitas vezes triplica quando os drivers do barramento AGP estão instalados corretamente!
</p>

<p>
	Para você ter uma ideia do que estamos falando, montamos uma máquina com o processador Athlon-1000, 256 MB de memória DDR-SDRAM PC2100, disco rígido Seagate ST-310212A e placa de vídeo Chaintech AGPRI93 (GeForce 2 GTS com 64 MB de memória DDR-SDRAM). Usamos dois programas para medir o desempenho 3D: o programa 3DMark2001 (<a href="http://www.futuremark.com" rel="external nofollow" target="_blank">http://www.futuremark.com</a>) e o jogo Quake III Arena (<a href="http://www.quake3arena.com" rel="external nofollow" target="_blank">http://www.quake3arena.com</a>). Testamos com esse conjunto várias placas-mães diferentes. Primeiro, com a configuração default do sistema operacional. E, depois, após instalarmos os drivers do barramento AGP da placa-mãe.
</p>

<p>
	O aumento de desempenho foi surpreendente. Em uma placa-mãe Gigabyte GA-7DXR, o desempenho 3D da máquina aumentou 131,21% no 3DMark2001 (passando de 1131 para 2615 3DMarks), ou seja, mais do que dobrou! No Quake III, o aumento foi de 28,06% no Demo 1 (passando de 105,5 para 135,1 quadros por segundo). Já com uma placa-mãe ECS K7VTA3, o desempenho aumentou 207,81% no 3DMark2001 (passando de 884 para 2721 3DMarks), ou seja, triplicou! No Quake III, o aumento foi de 28,08% no Demo 1 (passando de 95,1 para 121,8 quadros por segundo). Em mais um teste que fizemos, dessa vez com uma placa-mãe ASUS A7V-E (com processador Duron-600 e 256 MB memória PC-133), o desempenho 3D da máquina aumentou 227,76% no 3DMark2001 (passando de 670 para 2196 3DMarks), ou seja, mais do que triplicando! Já no Quake III, o aumento foi de 27,23% no Demo 1 (passando de 79,7 para 101,4 quadros por segundo).
</p>

<p>
	Os números mostram claramente que é indispensável a instalação dos drivers do barramento AGP de sua placa-mãe se você pretende obter o máximo de desempenho 3D que sua placa-mãe proporciona.
</p>

<p>
	Para saber se os drivers estão instalados em seu micro, basta você ir no Gerenciador de Dispositivos do Windows (ícone Sistema do Painel de Controle) e abrir a chave Dispositivos do Sistema. Observe todos os itens instalados nessa chave, procurando algum item que possua a palavra AGP. Por exemplo "Intel 82443BX Pentium II Processor to AGP Controller", "AMD-761 AGP Host to PCI Bridge", "ALi M1631 AGP System Controller", "VIA CPU to AGP Controller" ou similar. O nome exato varia de acordo com o chipset de sua placa-mãe (Intel, VIA, ALi, SiS, etc). Se esse item aparecer listado, significa que o driver do barramento AGP está corretamente instalado em seu micro.
</p>

<p>
	Na próxima página ensinaremos passo-a-passo a como instalar os drivers do barramento AGP em seu micro, caso eles não estejam instalados.
</p>

<p>
	[pagination="Como Instalar o Driver AGP"]
</p>

<p>
	Caso não exista nenhum item descrevendo o barramento AGP, possivelmente haverá um driver genérico "Ponte PCI Padrão" ou similar em seu lugar no Gerenciador de Dispositivos. Nesse caso, você precisará instalar os drivers que vêm junto com a placa-mãe, em seu CD-ROM de instalação, ou então baixar os drivers no site do fabricante do chipset da placa-mãe. Nós daremos os endereços mais adiante.
</p>

<p>
	Em princípio, basta executar o programa fornecido pelo fabricante (em geral chamado Setup.exe) que o próprio programa faz as modificações necessárias para você. Após reiniciar a máquina, o sistema irá reconhecer o barramento AGP e, no Gerenciador de Dispositivos, ele aparecerá agora listado, como mostramos na figura.
</p>

<p align="center">
	<img alt="Aumentando o Desempenho 3D de sua Máquina" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/495_01_275_300.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Barramento AGP corretamente instalado no sistema operacional em uma placa-mãe com chipset AMD-761.
</p>

<p>
	Se porventura após você instalar os drivers o sistema continuar não reconhecendo o barramento AGP, selecione os drivers do chipset que estão sendo listados como padrão (Ponte PCI padrão e similares) e remova. Ao reiniciar a máquina, possivelmente o sistema irá detectar os drivers corretos.
</p>

<p>
	Se você não tem experiência na instalação de drivers e na procura de drivers no CD-ROM do fabricante da placa-mãe, aqui vão algumas dicas. O driver que você tem de instalar varia de acordo com o fabricante do chipset (circuitos de apoio) da placa-mãe. Atualmente no mercado existem placas usando chipsets da Intel, VIA, SiS, ALi e AMD. Note que aqui "Intel" e "AMD" referem-se ao circuito encontrado na placa-mãe e não ao processador. Para saber qual é o fabricante do chipset de sua placa-mãe, basta olhar o que há escritos nos maiores circuitos que você encontrar sobre a placa. Cada fabricante chama os drivers do barramento AGP de uma maneira diferente.
</p>

<p>
	A VIA chama seus drivers de 4-in-1, a Intel chama seus drivers de "Intel Chipset Software Installation Utility" ou simplesmente "Inf Files", a SiS e a ALi chamam de "AGP Driver" e a AMD chama de "AGP Miniport Driver". Assim, de posse do CD-ROM de instalação da placa-mãe, você terá de procurar por um diretório que seja o provável local desses drivers. O problema é que o nome do diretório varia de acordo com o fabricante da placa-mãe. Só para você ter alguns exemplos reais, no CD-ROM da placa-mãe Gigabyte GA-7DXR (que usa o chipset AMD 761), os drivers do barramento AGP estão localizados no diretório chipsetamdagp e o nome do arquivo a ser executado é miniport_471.exe. Já no CD-ROM da placa-mãe Gigabyte GA-6OX (que usa o chipset Intel 815EP), os drivers do barramento AGP estão localizados no diretório chipsetintelintel95 e o arquivo a ser executado chama-se Setup.exe.
</p>

<p>
	Para a nossa sorte, os CDs das placas-mães hoje em dia estão vindo com a função autorun, sendo executados automaticamente quando você os insere na unidade. Nesse caso, basta escolher a opção que instala os drivers (no CD da Gigabyte GA-6OX essa opção chama-se Windows 9x INF Update Utility, por exemplo).
</p>

<p>
	Se você não tiver mais o CD da placa-mãe, baixe os drivers da Internet, nos endereços abaixo.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	 
</p>

<table>
	<tbody>
		<tr>
			<th>
				Fabricante
			</th>
			<th>
				Endereço
			</th>
		</tr>
		<tr>
			<td>
				ALi
			</td>
			<td>
				<a href="http://www.ali.com.tw/eng/support/drivers/drivers_main.htm" rel="external nofollow" target="_blank">http://www.ali.com.tw/eng/support/drivers/drivers_main.htm</a>
			</td>
		</tr>
		<tr>
			<td>
				AMD
			</td>
			<td>
				<a href="http://www.amd.com/us-en/Processors/TechnicalResources/0,,30_182_871_2336,00.html" rel="external nofollow" target="_blank">http://www.amd.com/us-en/Processors/<br>
				TechnicalResources/0,,30_182_871_2336,00.html</a>
			</td>
		</tr>
		<tr>
			<td>
				Intel
			</td>
			<td>
				<a href="http://developer.intel.com/design/software/drivers/platform/inf.htm" rel="external nofollow" target="_blank">http://developer.intel.com/design/software/<br>
				drivers/platform/inf.htm</a>
			</td>
		</tr>
		<tr>
			<td>
				SiS
			</td>
			<td>
				<a href="http://www.sis.com/support/driver/utility.htm" rel="external nofollow" target="_blank">http://www.sis.com/support/driver/utility.htm</a>
			</td>
		</tr>
		<tr>
			<td>
				VIA
			</td>
			<td>
				<a href="http://www.viaarena.com/?PageID=2" rel="external nofollow" target="_blank">http://www.viaarena.com/?PageID=2</a>
			</td>
		</tr>
	</tbody>
</table>

<p>
	 
</p>
]]></description><guid isPermaLink="false">34062</guid><pubDate>Wed, 24 Oct 2001 02:00:00 +0000</pubDate></item><item><title>Aumentando o desempenho de v&#xED;deo</title><link>https://www.clubedohardware.com.br/artigos/video/aumentando-o-desempenho-de-v%C3%ADdeo-r34020/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_twjwdatwjwdatwjw.jpg.47a4e122776a18046bd96c8fdb0c5950.jpg" /></p>
<p>
	O driver de vídeo é responsável por converter instruções de vídeo solicitadas por programas em instruções que a placa de vídeo seja capaz de reconhecer. Sem a instalação do driver da placa de vídeo, você não consegue ter acesso a todos os recursos que a sua placa de vídeo é capaz de oferecer, isto é, todas as suas resoluções e configurações de cor.
</p>

<p>
	Quando você compra uma placa de vídeo ela vem com um CD-ROM contendo os seus drivers, que deverão ser instalados. O próprio sistema operacional já vem com drivers para as placas de vídeo mais antigas e conhecidas do mercado.
</p>

<p>
	Acontece que muitas vezes os drivers que vêm com a placa de vídeo ou com o sistema operacional não são os que oferecem o melhor desempenho para o micro. Para que você consiga obter o desempenho máximo que a sua placa de vídeo é capaz de oferecer, o ideal é ter instalado em seu micro a versão mais recente do driver da placa de vídeo, que está disponível para download no site do fabricante na Internet.
</p>

<p>
	Você pode conferir qual é a versão do driver da sua placa de vídeo através do Gerenciador de Dispositivos (ícone Sistema do Painel de Controle), dando um duplo clique sobre a sua placa de vídeo (chave Adaptadores de vídeo). Na guia Driver, você confere a data de lançamento do driver que está atualmente instalado em sua máquina. Clicando na caixa "Detalhes do arquivo de driver" você pode ver a versão exata do driver que está instalado em seu PC, através do campo "Versão". Basta você ir no site do fabricante de sua placa de vídeo e ver se existe para download uma versão mais atualizada do driver de vídeo da sua placa (você pode obter uma lista completa de fabricantes de placas de vídeo em <a href="https://www.clubedohardware.com.br/pagina/drivers_vga" rel="" target="_Blank">http://www.clubedohardware.com.br/pagina/drivers_vga</a>).
</p>

<p align="center">
	<img alt="Aumentando o Desempenho de Vídeo" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/driver.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 1:</strong> Verificando a versão do driver de vídeo atualmente instalado em seu micro.
</p>

<p>
	 
</p>

<p>
	Nós fizemos um teste em nosso laboratório para vermos se esse procedimento realmente aumenta o desempenho de vídeo do micro. Montamos um micro com uma placa-mãe Chaintech CT-6AJR4, 64 MB de memória PC-133, disco rígido Seagate ST310212A (10 GB) e placa de vídeo TNT2 M64 com 32 MB de memória de vídeo (configurada na resolução 800 x 600 x 16 bits). Utilizamos para medir o desempenho de vídeo o programa 3DMark (que pode ser baixado em <a href="http://www.futuremark.com" rel="external nofollow" target="_blank">http://www.futuremark.com</a>). O driver que veio com essa placa de vídeo era a versão 4.12.01.0532, de 26/06/2000. Baixamos no site do fabricante da placa a versão mais nova disponível (4.12.01.0650, de 04/12/2000). O desempenho de vídeo 3D aumentou 2,98% (passando de 3.895 para 4.009 3Dmarks, que é a unidade de medida de desempenho do programa 3Dmark). É claro que esse é um aumento pequeno, mas dependendo de quão antigo seja o driver da sua placa de vídeo, maior será o aumento de desempenho ao instalar um driver mais atualizado.
</p>

<p>
	Você pode efetuar esse procedimento em sua casa para ver se houve aumento no desempenho de vídeo com a instalação do novo driver.
</p>

<p>
	A instalação da versão mais atualizada do DirectX também garante um melhor desempenho de vídeo. No momento a última versão do DirectX é a 9.0b, que pode ser baixada em <a href="http://download.microsoft.com/download/c/9/c/c9c8a1d4-7690-4c98-baf3-0c67e7f3751f/dx90update_redist.exe" rel="external nofollow" target="_blank">http://download.microsoft.com/download/c/9/c/c9c8a1d4-7690-4c98-baf3-0c67e7f3751f/dx90update_redist.exe</a>.
</p>
]]></description><guid isPermaLink="false">34020</guid><pubDate>Wed, 14 Mar 2001 05:23:00 +0000</pubDate></item><item><title>Novos chipsets 3D: GeForce2 GTS</title><link>https://www.clubedohardware.com.br/artigos/video/novos-chipsets-3d-geforce2-gts-r34102/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_xv9h3kxv9h3kxv9h.jpg.a4bb2f8dd4e4069f2e0359a86bf1acfd.jpg" /></p>
<p>
	A NVIDIA, uma das maiores fabricantes de chipsets gráficos e fabricante da primeira GPU (Unidade de Processamento Gráfico), confirmou a liderança no mercado com a GeForce2 GTS. Diferente da 3dfx que fabrica suas próprias placas, a NVIDIA vende os chipsets aos fabricantes que desenvolvem seus produtos baseados em uma placa padrão. Seu processo de fabricação em .18 micron é semelhante aos dos novos Pentium III Coppermine. Os primeiros a lançarem placas com esse novo chipset foram a Elsa, ASUS e Hercules. Todos têm produtos semelhantes, exceto pela Hercules, que lançou uma placa na cor azul e com dissipadores nos chips de memória, provavelmente aprendendo com os overclockers que fazem isso para dissipar o calor dos chips exigidos ao máximo.
</p>

<p>
	<strong>Especificações</strong>
</p>

<p>
	As novidades da GeForce2 GTS incluem a segunda geração em Hardware Transform and Lighting. A grande vantagem desse sistema é a baixa utilização do processador ao transformar texturas e efeitos de iluminação. O trabalho é feito pela placa de vídeo, ideal para quem tem um processador antigo e quer ter boa qualidade de vídeo em jogos e aplicativos 3D. O Hardware Anti-Aliasing também não foi esquecido. O Anti-Aliasing em todas as texturas está presente na nova GeForce apenas em OpenGL. A NVIDIA prometeu a atualização para Direct 3D no seus novos drivers. Essa função tira o efeito "quadrado" dos gráficos dando mais suavidade e qualidade as imagens e tudo isso realizado pela própria placa. Ela incorpora ainda o NVIDIA Shading Rasterizer, que é um processador de sombreamento. Parece que a NVIDIA investiu só em qualidade de imagem, mas isso não é verdade. Comparada a sua "irmã" GeForce 256, os avanços no processamento são claros. O chipset funciona a 200MHz e a memória, a 350MHz (só para comparação, a <a href="silurogt2ultra.html" rel="" target="_blank">ABIT Siluro que testamos</a> funciona a 150MHz e 183MHz, respectivamente) o que gera 25 milhões de polígonos por segundo, contra 15 milhões da GeForce 256.
</p>

<p>
	Ela é a primeira placa desenvolvida para DirectX 7. Não há muitas vantagens, já que nossas placas antigas funcionam perfeitamente com as atualizações, mas garante que a GeForce2 GTS é o que existe de mais moderno até agora. A placa está disponível em versões com 32MB e 64MB de memória DDR. Esse tipo de memória dobra a velocidade do barramento ao transportar texturas tanto na subida quanto na descida do pulso de clock. Isso quer dizer que a memória a 175MHz gera uma velocidade final de 350MHz, comum aos modelos lançados.
</p>

<p>
	<strong>Comparações</strong>
</p>

<p>
	Já que não temos uma placa para testar (infelizmente!) só podemos relatar o que encontramos na Internet. O site Hardocp (<a href="http://www.hardocp.com" rel="external nofollow" target="_blank">http://www.hardocp.com</a>) comparou a GeForce2 GTS com a Voodoo5 5500, ainda não lançada. A 3dfx forneceu uma versão final, mas ainda não comercial, da nova Voodoo. Seus resultados rodando o timedemo do Quake3 mostraram uma vantagem de 3 frames por segundo da GeForce2 GTS em relação à Voodoo5 5500 com uma resolução de 1024 X 768 a 32 Bits. Vamos esperar o lançamento oficial da nova Voodoo para tirarmos nossas conclusões. De antemão só podemos dizer que o sonho de consumo em placas de vídeo agora é a nova GeForce2 GTS.
</p>
]]></description><guid isPermaLink="false">34102</guid><pubDate>Tue, 16 May 2000 04:00:00 +0000</pubDate></item><item><title>As novas placas Voodoo: Voodo4 e Voodoo5</title><link>https://www.clubedohardware.com.br/artigos/video/as-novas-placas-voodoo-voodo4-e-voodoo5-r34103/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_xyg3yuxyg3yuxyg3.jpg.1f493be695a65e5234b4b61399259baa.jpg" /></p>
<p>
	[pagination="Introdução "]
</p>

<p>
	A 3dfx, desde sua fundação em 1994, vem trazendo significativas mudanças ao mercado de placas de vídeo, introduzindo tecnologias que revolucionavam os conceitos sobre 3D em PCs. Em 1995, introduziu a primeira placa de vídeo dedicada ao processamento 3D do mundo, a Voodoo. Era um processamento dedicado e, portanto, precisávamos de uma placa "secundária" para o 2D. Nesta data, o máximo de resolução que poderia se chegar em 3D era 320x240, com 4 MB de memória on-board, EDO, de 50 MHz de clock e de 16 bits. O processador 3D chegava a 50 MHz. A taxa de preenchimento das texturas chegava a cerca de 45 megapixels por segundo.
</p>

<p>
	Em 1996 foi também uma data importante para a 3dfx, pois neste ano sua API própria (Glide) foi melhor desenvolvida, e surgiram muitos títulos no mercado especificamente criados para trabalhar com a aceleradora Voodoo. Neste ano, a 3dfx lança o chipset Voodoo Rush, primeira placa da 3dfx a admitir um chipset 2D junto com seu processador 3D. Seus números: um milhão de polígonos por segundo e 45 megapixels por segundo de taxa de preenchimento. Com 6 MB de memória, barramento PCI e resolução de 640x480, apresentava um desempenho bom na época. No ano seguinte, em 1997, veio a segunda onda: a próxima geração das Voodoos, a Voodoo2.
</p>

<p>
	Com esse chipset, a 3dfx mostrava ao mundo o que era poder de processamento. Introduziu um novo mecanismo de processamento 3D com dupla canalização (pipeline) para processar as texturas, o que resultava em praticamente dobrar o desempenho em jogos otimizados (como o Quake2 , por exemplo) e aumentar muito a taxa de preenchimento (fill-rate) da placa. Assim, não existia concorrência frente à 3dfx, pois seu engine era capaz de processar duas texturas por ciclo de clock enquanto todas as outras aceleradoras conseguiam processar apenas uma por vez. Outras razões para seu grande sucesso: suporte à Direct3D e OpenGL, até 12 MB de memória (dedicando 4 MB para frame buffer e 8 MB para texturas), e uma tecnologia que marcaria a 3dfx para sempre: a tecnologia SLI (Scan Line Interleave).
</p>

<p>
	Esta técnica permitia que duas placas 3dfx idênticas, Voodoo2 PCI, trabalhassem em paralelo no mesmo sistema, dobrando o desempenho. Com o SLI, a resolução máxima aumentou para 1024x768 e a memória para 24 MB. Nada podia ser comparado ao desempenho deste conjunto imbatível. Mesmo atuando sozinha, sendo a primeira placa 3D de processamento 64 bits, 90 MHz de frequência para o processador e memória, por muito tempo esta placa foi o topo no mundo 3D. Esse chipset, o Voodoo2, foi o grande responsável por quase todo o reconhecimento que a 3dfx dispõe ainda hoje.
</p>

<p>
	Em seguida, já em 1998, a 3dfx introduziu o chipset Voodoo Banshee, a primeira solução 2D/3D da 3dfx. Carregada com 16 MB de memória e frequência de clock de 110 MHz (em processo de produção de 0,35 mícron), chegaria a até 125 MHz (em processo de 0,25 mícron), esta placa, mesmo sendo mais recente, não poderia mesmo chegar aos pés de um conjunto Voodoo2 SLI, porque, em seu projeto, o mecanismo de processamento textural duplo de passo único (que processa dois pixels por ciclo de clock) não foi adotado, ficando com um mecanismo de processamento simples (igual a seus concorrentes). Assim, o desempenho desta placa, mesmo sendo fantástico para a época, era apenas um pouco maior do que uma Voodoo2 sozinha.
</p>

<p>
	Suas taxas de preenchimento chegavam a 115 megapixels por segundo, enquanto uma Voodoo2 rodando em 90 MHz podia chegar a 90 megapixels por segundo. Como um par de Voodoo2 (em SLI) era um sonho de consumo que muito poucos poderiam realizar na época, a Banshee (principalmente através de grandes fabricantes de placas como a Diamond e seu modelo Monster Fusion) fez um enorme sucesso. A maior surpresa com a chegada desse chipset era a excepcional qualidade e desempenho 2D de seu chipset, superando tradicionais reis do 2D: ATI e Matrox. Esse incrível projeto foi a base do próximo lançamento da 3dfx, o Voodoo3.
</p>

<p>
	Em 1999, a 3dfx novamente sacudiu o mundo. Com o anúncio do chipset Voodoo3, a 3dfx, apostava todas suas cartas no sucessor de uma marca que já era sucesso absoluto, mantendo as características, ajustando o que era necessário (como aumento da frequência de clock para o processador e memória), incluindo um engine de 128 bits para 2D e 3D, taxas de preenchimento muito elevadas (podendo chegar a até 366 megapixels por segundo e 8 milhões de polígonos por segundo de processamento, no modelo multimídia Voodoo3 3500 TV).
</p>

<p>
	Enquanto isso, seus principais concorrentes, como NVIDIA, Matrox, ATI, S3 (Diamond), tinham produtos de ótimas características técnicas e inovações que estavam ausentes na Voodoo3, como suporte pleno ao barramento AGP 2x e até mesmo 4x (pois as placas da 3dfx não fazem texturização pelo AGP), suporte à renderização de 32 bits (a 3dfx continuava apenas nos 16 bits, embora que com ótima qualidade) e 32 MB on-board (a 3dfx tinha apenas 16 MB).
</p>

<p>
	Apesar destas deficiências, o chipset Voodoo3 mostrou-se de grande capacidade de processamento e o maior nível de compatibilidade com jogos de seus concorrentes, pois suporta nativamente a API Glide, além do OpenGL e Direct3D. Em 1999, a 3dfx passou de fabricantes de chipsets para fabricantes de placas, após a aquisição da STB. Por essas e outras razões, a 3dfx hoje é o terceiro maior fabricante do mundo de placas de vídeo, atrás somente da ATI e S3 (Diamond).
</p>

<p>
	Com uma história como essa, todo o alvoroço em torno do anúncio do novo processador 3dfx já era esperado...
</p>

<p>
	[pagination="Voodoo4 e Voodoo5 "]
</p>

<p>
	Sem nenhuma dúvida, todos estavam ansiosos para descobrir a próxima geração 3dfx: o chipset VSA-100 (VSA, Voodoo Scalable Architecture ou Arquitetura Escalável Voodoo, conhecido informalmente por Napalm), anunciado na última Comdex nos EUA. Para este chip, serão fabricadas as placas Voodoo4 e Voodoo5. Além de outras coisas, o que mais chamou a atenção foi o retorno do conceito de multiprocessamento paralelo SLI, desta vez aperfeiçoado e expandido a limites extremos. O que significa limites extremos? Suporte para até 32 processadores na mesma placa e até 2GB de memória on-board.
</p>

<p>
	Parece loucura, mas se esta placa for fabricada, seu valor poderá chegar a US$ 40.000. A Quantum 3D anunciou intenção de fabricar tais placas sob encomenda. A taxa de preenchimento? Cerca de 11,47 gigapixels por segundo (valor teórico). Esta linha de produtos se chamará AAlchemy.
</p>

<p>
	Bem, voltando ao mundo real, a última máquina 3D disponível para aqueles que não podem gastar tanto assim numa placa de vídeo será a Voodoo5 6000. Vamos às características principais. Todas possuem processador(es) 128 bits 2D/3D integrado, compressão de textura FXT1 e DirectX, renderização de 32 bits, z-buffer de 24 bits, suporte a texturas de 2048 x 2048 pixels, RAMDAC de 350 MHz.
</p>

<table>
	<tbody>
		<tr>
			<td>
				 
			</td>
			<td>
				<strong>Voodoo4 4500 PCI e AGP</strong>
			</td>
			<td>
				<strong>Voodoo5 5000 PCI</strong>
			</td>
			<td>
				<strong>Voodoo5 5500 AGP</strong>
			</td>
			<td>
				<strong>Voodoo5 6000 AGP</strong>
			</td>
		</tr>
		<tr>
			<td>
				Processador
			</td>
			<td>
				Um VSA
			</td>
			<td>
				Dois VSA
			</td>
			<td>
				Dois VSA
			</td>
			<td>
				Quatro VSA
			</td>
		</tr>
		<tr>
			<td>
				Memória de vídeo máxima
			</td>
			<td>
				32 MB
			</td>
			<td>
				32 MB
			</td>
			<td>
				64 MB
			</td>
			<td>
				128 MB
			</td>
		</tr>
		<tr>
			<td>
				Taxa de preenchimento
			</td>
			<td>
				Entre 333 e 367 megapixels/s
			</td>
			<td>
				Entre 667 e 733 megapixels/s
			</td>
			<td>
				Entre 667 e 733 megapixels/s
			</td>
			<td>
				Entre 1,32 a 1,47 gigapixels/s
			</td>
		</tr>
		<tr>
			<td>
				Preço estimado (EUA)
			</td>
			<td>
				US$ 179
			</td>
			<td>
				US$ 229
			</td>
			<td>
				US$ 299
			</td>
			<td>
				US$ 599
			</td>
		</tr>
	</tbody>
</table>

<p>
	Ao contrário do que muitos especialistas pensavam, a 3dfx não implementará T&amp;L (Transform &amp; Lighting) em seu novo chipset agora, talvez será uma tecnologia a ser implementada posteriormente (estaria a 3dfx novamente subestimando os produtores de games, como fez com o render em 32 bits?). Sem este mecanismo, poderá bater a Geforce 256 nos novos games? Ainda é cedo para dizer com certeza.
</p>

<p>
	Grandes modificações foram feitas: finalmente, a implementação de renderização de 32 bits, 32 MB de memória por processador, suporte a AGP 4x (mas continua ausente a texturização via AGP), a técnica de compressão de texturas, a implementação do T-buffer Cinematic Effects; foi melhorado também o suporte à DVD e à API OpenGL. Para melhorar a qualidade de imagens, agora o suporte a texturas de 2K x 2K de tamanho foi suportada (antes era suportado apenas 256 x 256 pixels de tamanho). Entenda a diferença comparando as Figuras 1 e 2.
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/256x256.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Imagem com 256x256 pixels.
</p>

<p>
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/2048x2048.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> Mesma imagem com 2K x 2K de tamanho.
</p>

<p>
	A diferença de qualidade de imagem quando se usa renderização de 32 bits em vez de 16 bits também é grande, como você pode comparar nas Figuras 3 e 4.
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/spheres_16.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 3:</strong> Imagem com renderização de 16 bits.
</p>

<p>
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/spheres_32.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 4:</strong> Mesma imagem com renderização de 32 bits.
</p>

<p>
	Uma coisa é certa: a 3dfx explodiu com as taxas de preenchimento, a uma altura que seus concorrentes devem demorar a alcançar. As taxas previstas para a Voodoo5 são verdadeiramente astronômicas. Se a 3dfx cumprir com seus prazos (a previsão é primeiro trimestre deste ano para início das vendas), este ano tem tudo para ser o mais explosivo da história dos games 3D. É a 3dfx fazendo história novamente.
</p>
]]></description><guid isPermaLink="false">34103</guid><pubDate>Sat, 11 Mar 2000 03:00:00 +0000</pubDate></item><item><title>Novos chipsets 3D</title><link>https://www.clubedohardware.com.br/artigos/video/novos-chipsets-3d-r33976/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_9yo4dt9yo4dt9yo4.jpg.59174dde66911115711ff5a77c0f85fa.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	É crescente a tendência de "3drização" dos produtores de softwares. Programas como o Softimage, 3D Max, Maya, Painter, StudioPRO, só para ficar nos mais famosos, estão cada vez mais populares graças à evolução do PC. Filmes 3d e animações complexas que antes só poderiam ser feitos em estações de dezenas e às vezes centenas de milhares de dólares hoje podem ser realizadas em uma plataforma x86, principalmente pelo alto desempenho oferecido pelos processadores atuais, pelo barateamento da memória e é claro, pela melhoria dos recursos gráficos disponíveis. Evidentemente que ainda temos placas realmente caras, como as fabricadas pela 3Dlabs, Evans&amp;Sutherland, a família Diamond FireGL entre outros, caracterizadas por grande quantidade de memória local instalada, pela presença de mais de um processador por placa (às vezes, fazendo funções diferentes como processamento de polígonos e outro para processar as texturas a serem aplicadas).
</p>

<p>
	Estas placas poderosas são capazes de renderizar cenas com milhões de polígonos, com várias fontes de luzes de diferentes posições e cores, em pouco tempo. A diferença para as placas doméstica está aí: estas últimas são otimizadas para renderizar cenas em tempo real, e, portanto, muito menos complexas, como as geradas por jogos, pelos sites que trabalham com VRML ou Direct3D. É interessante notar que as placas do mercado corporativo não são capazes de renderizar as cenas da maioria dos jogos com a mesma rapidez, assim como as placas domésticas não são capazes de gerar as cenas complexas 3D que se vê nos filmes por exemplo, com a mesma rapidez e qualidade de saída.
</p>

<p>
	Com a evolução constante dos chipsets “domésticos” em pouco tempo teremos placas de vídeo a custo acessível que podem realizar as mesmas operações geométricas e de cálculos complexos de iluminação e modelagem real-time das placas corporativas, em um PC comum.
</p>

<p>
	Renderizar em 3D é acessar o hardware da placa de vídeo, trabalhando diretamente com seu processador interno. Para acessar este hardware diretamente, precisamos de uma API (aplication program interface) que faça esta comunicação direta. As APIs mais comuns hoje são a OpenGL, desenvolvida pela gigante de computação gráfica, Silicon Graphics (SGI) e recentemente licenciada pela Microsoft. Outra API bem conhecida é a Direct3D da Microsoft, incluída no DirectX. Outras empresas também desenvolvem suas próprias APIs, como a 3dfx, que desenvolveu a GLIDE ou 3dfxGL. A PowerVR também fez uma (PowerGL), assim como a Matrox recentemente, para o seu chipset G400. A maioria das APIs são uma amostra piorada da API OpenGL, pois os micros domésticos até bem pouco tempo não eram capazes de gerar nada em 3D.
</p>

<p>
	A direct3D é a que menos exige de uma placa 3D, pois sua implementação utiliza pouco dos recursos de acesso ao hardware previstos pela OpenGL (portanto, se uma placa não funcionar bem em direct3D ou é porque ela tem um sério problema com seu driver ou porque é muito ruim para 3D). Todas as placas descritas aqui são capazes de trabalhar muito bem com Direct3D.
</p>

<p>
	A GLIDE da 3dfx (também conhecida como 3dfxGL ou miniGL) usa bem mais recursos, algumas técnicas avançadas de 3D, mas também é uma API mais “leve” do que a OpenGL. As placas mais modernas que trabalham com OpenGL realizam a maioria das funções previstas na API, utilizando técnicas de filtragem e amostragem avançadas, gerando belas imagens. A próxima geração de placas, como a Napalm (Voodoo4) da 3dfx, a GeForce 256 (NV10) da NVIDIA e a Savage2000 irão acrescentar recursos ainda mais avançados, e tornar o suporte à API OpenGL praticamente completo. Falaremos um pouco sobre a nova placa Geforce256 e as que estão chegando no final desta série.
</p>

<p>
	É comum encontrarmos os seguintes requisitos numa placa de qualidade atualmente:
</p>

<ul>
	<li>
		Suporte a DVD via hardware;
	</li>
	<li>
		Saída de TV/S-Video;
	</li>
	<li>
		Pelo menos16 Mb de memória (adequada para modo de vídeo de pelo menos 16 bit de cor em altas resoluções) com 128 Bits de processamento e barramento de memória;
	</li>
	<li>
		Sistema de refrigeração adequados, geralmente com coolers ativos ou grandes dissipadores (garante estabilidade do sistema e permite overclock);
	</li>
	<li>
		Pelo menos 250 Mhz de RAMDAC (para evitar taxas de atualização lentas em altas resoluções) e suporte à monitor digital LCD.
	</li>
</ul>

<p>
	 
</p>

<p>
	[pagination="Matrox G400"]
</p>

<p>
	Os chipsets estão cada vez mais rápidos, operando a frequências de clock cada vez mais altas, e, por consequência, trabalhando com memórias cada vez mais rápidas. Devido ao alto custo de memórias rápidas, os fabricantes tem disponibilizado às vezes mais de uma opção de velocidade de clock de suas placas, para baratear o custo (e tendo perda de desempenho, evidentemente).
</p>

<p>
	Assim, seguindo a tendência atual, a Matrox lançou dois modelos, o G400, e o G400MAX, diferenciados pela frequência de clock. A G400Max vem com configuração padrão em 166 MHz de clock para o processador e 200 MHz de memória, enquanto que a G400 comum vem em 125 MHz de core e 166 de memória. A Matrox, a ATI e a 3dfx (com a compra da STB) são as únicas empresas a fabricar suas próprias placas e chipsets (e não os vendem para que outros fabricantes a produzam, como fazia a 3dfx antes de comprar a fabricante de placas STB). Já a Nvidia, a S3, a 3Dlabs, entre outros, vendem seus chipsets para que os montadores (como Hercules, Diamond, Guilhermont, Creative Labs) produzam suas placas de vídeo.
</p>

<p>
	A Matrox é uma das mais conceituadas e tradicionais fabricantes de placas de vídeo do mundo, pois está no mercado há 29 anos. Em sua história recente, fez bastante sucesso com seu chipset G100, que foi seguido pelo G200 (ainda hoje um dos mais rápidos em 2D do mundo. A evolução natural ocorreu com o lançamento do chipset G400, que traz inúmeras evoluções de arquitetura e aperfeiçoamentos, melhorando significativamente o desempenho 3D. Este novo chipset da Matrox colocou finalmente a empresa numa briga séria pela melhor colocação em desempenho 3D, posto que tinha perdido há anos pelas principais concorrentes ATI, 3dfx e NVIDIA.
</p>

<p>
	Continua com sua linha de produtos, contando com a Milennium G400 e a Marvel G400 (linhagem iniciada com o chipset G200) que é uma placa multimídia, capaz de sintonizar TV, rádio, realizar edição e captura de vídeo, etc., assim como suas concorrentes ATI All-in-wonder 128 e a própria 3dfx, com sua placa Voodoo3 3500.
</p>

<p>
	Suas principais características:
</p>

<ul>
	<li>
		Suporte à AGP 4X;
	</li>
	<li>
		16-32MB de memória;
	</li>
	<li>
		2048x1536 max resolução em 2D, e 1920x1680 em 3D;
	</li>
	<li>
		32-bit de cor em 2D/3D;
	</li>
	<li>
		32-bit de Z-buffer;
	</li>
	<li>
		Environmental Bump Mapping suportado via hardware;
	</li>
	<li>
		Suporte à DX 5.x/6.x;
	</li>
	<li>
		OGL ICD;
	</li>
	<li>
		360 MHz(!) de RAMDAC;
	</li>
	<li>
		DualHead (duas saídas para monitores);
	</li>
	<li>
		Suporte à DVD via hardware.
	</li>
</ul>

<p>
	Uma grande inovação que a Matrox traz é o True Environmental Bump Mapping. As outras placas também o fazem, mas através de emulação em software, via DirectX 6.1. A Matrox é a única a suportar o Environmental Bump Mapping via hardware, e, além do excelente ganho em qualidade visual, suportar via hardware é muito mais eficiente. Veja as Figuras 1 e 2 para entender melhor o que este recurso é capaz de fazer.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/ebm_dis.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Imagem gerada com o Environmental Bump Mapping desabilitado.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/ebm_en.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> Mesma imagem com o Environmental Bump Mapping habilitado.
</p>

<p>
	As Figuras 3 e 4 mostram outro exemplo desse novo recurso.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/ebm2_dis.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 3:</strong> Recurso desabilitado.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/ebm2_en.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 4:</strong> Recurso habilitado.
</p>

<p>
	Outro interessante recurso lançado com este novo chipset é o DualHead display, ou seja, a placa possui capacidade para gerar saídas em dois monitores de vídeo ao mesmo tempo, com opção inclusive para saída em TV. Você pode passar por uma pequena tela um filme de DVD no seu monitor e exibir em full-screen na sua TV, ao mesmo tempo, por exemplo.
</p>

<p>
	Podemos dizer que se trata de um produto que traz inovações muito interessantes, como arquitetura de 256bit de memória (DualBus), que na realidade são dois barramentos de 128 bits, mas que segundo a Matrox, traz um ganho de velocidade incrível para aplicações 2D, apresentando praticamente a mesma aceleração tanto em 640x480x8bit quanto em 1600x1200x32bit; True Environmental Bump Mapping, DualHead Display, entre outros além dos esperados suporte à DVD por hardware com baixo uso da CPU, saída para TV (o monitor pode apresentar imagem em 1600x1200x32bit e a TV em 1024x768x32bit, por exemplo), saída a DFP – digital flat display ou LCD (com RAMDAC de 360 MHz).
</p>

<p>
	Em testes realizados, pudemos notar que a placa precisa de poder de processamento para mostrar todo o seu potencial. Ou seja, se você possui uma CPU como um K6-2 ou um Celeron de até 366 MHz, pode não valer a pena investir em uma placa como a G400. Se você tem uma CPU top, como um Intel Pentium III de 500 MHz, ou um AMD Athlon de 500 MHz ou mais, prepare-se, pois talvez seja necessário "amarrar" o monitor à mesa... é vencedora disparada em aplicativos que utilizam Direct3D e 32 bit de render, aumentando a vantagem sobre seus adversários na medida em que se aumenta a resolução. Para melhorar ainda mais seu desempenho 3D, a Matrox criou a API TurboGL, parecida com OpenGL e GLIDE.
</p>

<p>
	Quanto ao overclock, considerando que seu default é 166 MHz para processador e 200 MHz para memória (SGRAM de 5 ns), pode-se imaginar que o "limite" desta placa estaria em 175/210 MHz, o que já deve fornecer um ganho significativo de performance.
</p>

<p>
	O preço nos EUA é de US$ 230,00 na média, para o modelo Millenium.
</p>

<p>
	<strong>Para Saber Mais</strong>
</p>

<ul>
	<li>
		<a href="http://www.matrox.com/mga/g400/products/home.htm" rel="external nofollow" target="_blank">http://www.matrox.com/mga/g400/products/home.htm</a>
	</li>
	<li>
		<a href="http://www.sharkyextreme.com/hardware/reviews/video/matrox_g400max" rel="external nofollow" target="_blank">http://www.sharkyextreme.com/hardware/reviews/video/matrox_g400max</a>
	</li>
	<li>
		<a href="http://www.firingsquad.com/hardware/g400/default.asp" rel="external nofollow" target="_blank">http://www.firingsquad.com/hardware/g400/default.asp</a>
	</li>
	<li>
		<a href="http://www.anandtech.com/html/review_display.cfm?document=951&amp;pagenum=2" rel="external nofollow" target="_blank">http://www.anandtech.com/html/review_display.cfm?document=951<br>
		&amp;pagenum=2</a>
	</li>
	<li>
		<a href="http://www5.tomshardware.com/releases/99q2/990628/index.html" rel="external nofollow" target="_blank">http://www5.tomshardware.com/releases/99q2/990628/index.html</a>
	</li>
	<li>
		<a href="http://www.firingsquad.com/hardware/marvelg400/default.asp" rel="external nofollow" target="_blank">http://www.firingsquad.com/hardware/marvelg400/default.asp</a>
	</li>
</ul>

<p>
	[pagination="S3 Savage 4"]
</p>

<p>
	A S3 comprou a Diamond e, juntamente com a 3dfx, agora não é apenas fabricante de chipsets, mas também de placas. É o chipset mais barato dos concorrentes, mas seu desempenho geral é o menor deles também. Vejamos as diversas configurações possíveis para o chipset Savage4:
</p>

<table>
	<tbody>
		<tr>
			<td>
				<strong>Part Number</strong>
			</td>
			<td>
				<strong>Nome do Produto</strong>
			</td>
			<td>
				<strong>Interface Suportada</strong>
			</td>
			<td>
				<strong>Clock memória</strong>
			</td>
			<td>
				<strong>Clock processador</strong>
			</td>
			<td>
				<strong>Quantidade memória</strong>
			</td>
			<td>
				<strong>Saída</strong>
			</td>
		</tr>
		<tr>
			<td>
				86C397P
			</td>
			<td>
				Savage4 PRO+
			</td>
			<td>
				AGP 4X/2X
			</td>
			<td>
				143MHz
			</td>
			<td>
				125MHz
			</td>
			<td>
				32 MB
			</td>
			<td>
				AIC
			</td>
		</tr>
		<tr>
			<td>
				86C397
			</td>
			<td>
				Savage4 PRO
			</td>
			<td>
				AGP 4X/2X
			</td>
			<td>
				125MHz
			</td>
			<td>
				110MHz
			</td>
			<td>
				32 MB
			</td>
			<td>
				AIC
			</td>
		</tr>
		<tr>
			<td>
				86C396P
			</td>
			<td>
				Savage4 PRO-M+
			</td>
			<td>
				AGP 4X/2X
			</td>
			<td>
				143MHz
			</td>
			<td>
				125MHz
			</td>
			<td>
				32 MB
			</td>
			<td>
				M/B
			</td>
		</tr>
		<tr>
			<td>
				86C396
			</td>
			<td>
				Savage4 PRO-M
			</td>
			<td>
				AGP 4X/2X
			</td>
			<td>
				125MHz
			</td>
			<td>
				110MHz
			</td>
			<td>
				32 MB
			</td>
			<td>
				M/B
			</td>
		</tr>
		<tr>
			<td>
				86C395
			</td>
			<td>
				Savage4 GT
			</td>
			<td>
				AGP 2X
			</td>
			<td>
				125MHz
			</td>
			<td>
				110MHz
			</td>
			<td>
				16 MB
			</td>
			<td>
				AIC
			</td>
		</tr>
		<tr>
			<td>
				86C394
			</td>
			<td>
				Savage4 LT
			</td>
			<td>
				AGP 2X
			</td>
			<td>
				110MHz
			</td>
			<td>
				110MHz
			</td>
			<td>
				8 MB
			</td>
			<td>
				AIC
			</td>
		</tr>
	</tbody>
</table>

<p>
	Como podemos ver, é o chipset com maior número de opções. Suas principais características são, em resumo:
</p>

<ul>
	<li>
		AGP 2/4X (dependendo do modelo);
	</li>
	<li>
		125-143MHz memória/110-125 MHz de clock do processador;
	</li>
	<li>
		de 8 a 32 MB de memória;
	</li>
	<li>
		resolução de 1600x1200 max 2D/3D;
	</li>
	<li>
		32-bit color max in 2D/3D;
	</li>
	<li>
		16-24bit Z-buffer (8-bit Stencil);
	</li>
	<li>
		S3TC (S3 Texture Compression);
	</li>
	<li>
		Suporte a DX 5.x/6.x;
	</li>
	<li>
		OpenGL ICD;
	</li>
	<li>
		300MHz RAMDAC;
	</li>
	<li>
		Hardware DVD assistido.
	</li>
</ul>

<p>
	O modelo Diamond Stealth III 540 usa o chipset Savage4 PRO+ (note que o fan foi removido). A Diamond também lançou um modelo especial, batizado de Stealth III Extreme, com configuração de clock em 166/166 MHz (memória e core).
</p>

<p>
	Com este chipset, a S3 introduziu o S3TC (S3 texture compression, habilidade de reduzir largas quantidades de texturas em amostras de qualidade e de menor escala, ocupando menor quantidade de memória e portanto melhorando o desempenho como um todo), com suporte incluso na última versão do DirectX. Também suporta bump mapping via hardware.
</p>

<p>
	A compressão de textura vai ficando cada vez mais importante na medida em que o processamento geométrico vai aumentando, e o barramento passa a ser mais utilizado para carregar as texturas, que serão cada vez maiores (principalmente quando usamos resoluções de 1024x768 ou maiores).
</p>

<p>
	A S3 já havia mostrado do que é capaz em termos de qualidade gráfica com seu chipset Savage3. Este modelo traz motion compensation para baixa utilização da CPU em reprodução de DVD. Seu RAMDAC é de 300 MHz (para o modelo PRO em diante) e tem saída para Digital Flat Panel. Com este lançamento, mantém as características de alta qualidade de imagem, com um desempenho aceitável.
</p>

<p>
	Devido à relativa baixa performance em especial em altas resoluções, utilizar um bom aplicativo de overclock é recomendável (ver Figura 1).
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/over3d2.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Overclock em placa com chipset Savage4 Pro+ (default de 125/143 MHz).
</p>

<p>
	<br>
	<strong>Para Saber Mais</strong>
</p>

<ul>
	<li>
		<a href="http://www.s3.com/" rel="external nofollow" target="_blank">http://www.s3.com</a>
	</li>
	<li>
		<a href="http://www.gamersdepot.com/rev_diamond_s540.htm" rel="external nofollow" target="_blank">http://www.gamersdepot.com/rev_diamond_s540.htm</a>
	</li>
	<li>
		<a href="http://www.anandtech.com/html/review_display.cfm?document=945" rel="external nofollow" target="_blank">http://www.anandtech.com/html/review_display.cfm?document=945</a>
	</li>
	<li>
		<a href="http://www.anandtech.com/html/review_display.cfm?document=943" rel="external nofollow" target="_blank">http://www.anandtech.com/html/review_display.cfm?document=943</a>
	</li>
	<li>
		<a href="http://www3.sharkyextreme.com/hardware/articles/99/savage2000" rel="external nofollow" target="_blank">http://www3.sharkyextreme.com/hardware/articles/99/savage2000</a>
	</li>
	<li>
		<a href="http://www.firingsquad.com/hardware/savage2000/default.asp" rel="external nofollow" target="_blank">http://www.firingsquad.com/hardware/savage2000/default.asp</a>
	</li>
</ul>

<p>
	 
</p>

<p>
	[pagination="NVIDIA TNT2"]
</p>

<p>
	Este chipset da nVIDIA é muito mais do que uma versão TNT com aumento de clock, como costuma afirmar alguns críticos. A velocidade de render em 32 bit aumentou, sua arquitetura de pipelines também foi melhorada, e testes indicaram aumento em cerca de 17% em relação ao TNT, com clock idênticos (90 MHz de core e 110 MHz de memória, portanto, uma TNT2 "underclocked").
</p>

<p>
	Suas principais características são, em resumo:
</p>

<ul>
	<li>
		AGP 2/4X;
	</li>
	<li>
		de 125 a 175 de clock de processador e de 150 a 200 de clock de memória;
	</li>
	<li>
		de 16 a 32 MB de memória;
	</li>
	<li>
		2048x1536 2D/3D resolução máxima;
	</li>
	<li>
		32-bit color max em 2D/3D;
	</li>
	<li>
		32-bit Z-buffer (8-bit stencil);
	</li>
	<li>
		DirectX 5.x/6.x suportados;
	</li>
	<li>
		Suporte à OpenGL ICD;
	</li>
	<li>
		300MHz RAMDAC ;
	</li>
	<li>
		Hardware DVD assistido.
	</li>
</ul>

<p>
	A NVIDIA tem um ciclo de vida de seus produtos de mais ou menos 6 meses. Seu chipset Riva128 foi lançado há dois anos e logo foi seguido pelo Riva128 ZX (que já suportava 8Mb de RAM e AGP 2X). Sua evolução ocorreu realmente com o lançamento do TNT (16Mb de RAM, AGP2x), que foi seguido pelo TNT2 (32 MB de RAM, AGP 4x). Agora temos o lançamento do GeForce 256 (AGP4x, até 128 Mb de RAM). As versões do chipset:
</p>

<ul>
	<li>
		<strong>TNT2 M64 =</strong> clock de 125 MHz e memória de 64 bits em vez de 128 bits;
	</li>
	<li>
		<strong>TNT2 (Vanta) =</strong> 125 MHz core e 150 MHz memória;
	</li>
	<li>
		<strong>Ultra TNT2 =</strong> 150 MHz para core e 183 MHz para memória
	</li>
	<li>
		<strong>TNT2 PRO =</strong> 143 MHz de core e 166 MHz de memória. A diferença é que seu processo de fabricação é de 0.22 microns (idêntico ao GeForce 256) e não 0.25 como os outros.
	</li>
</ul>

<p>
	Porém, os fabricantes tem modificado este ajuste padrão, como por exemplo a Guillemot, com sua placa TNT2 com configuração de 135/166 MHz para o TNT2 Vanta. A Hercules, mantém sua tradição de oferecer placas com excelente refrigeração, memória o mais veloz possível, resultando em excelentes possibilidades de overclock. Sua configuração default é de 175/200 (!) e, através de seu driver nativo, pode-se chegar a 180/220, como mostra a Figura 1.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/herc.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Overclock da TNT2.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/herc1.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> O driver da Hercules é bem completo.
</p>

<p>
	A Diamond, seguindo a já tradicional linha Viper, que teve início com o modelo Viper v330 há dois anos (com o chipset NVIDIA Riva128), seguindo com a Viper v550 (Riva TNT), lança a Viper v770, em duas configurações, sendo que a top é a v770U (ultra). Também traz utilitário de overclock nativo, com "passos" pré-determinados, da seguinte forma: 1. 150 / 183; 2. 155 / 187,5; 3. 165 / 192,5; 4. 170 / 197,5; 5. 175 / 200, sendo que os valores da configuração "1" são o default.
</p>

<p>
	Esse chipset oferece excelente qualidade de imagem, possibilidades ótimas para overclock (dependendo do fabricante), desempenho excepcional e arquitetura completa (32bit de render, AGPx4 completo, 32 MB de RAM, multitexturização em passo único, etc.)
</p>

<p>
	Outros pontos a favor são a maturidade, estabilidade e desempenho de seu ICD de OpenGL, sua extrema qualidade e velocidade em 2D e para programas que trabalham com arquivos vetoriais (CAD, Corel, Flash, etc.). Um ponto negativo é a fraca otimização de seus drivers para a tecnologia 3DNow! (esperamos que a NVIDIA contorne este problema em breve).
</p>

<p>
	<strong>Para Saber Mais</strong>
</p>

<ul>
	<li>
		<a href="http://www.ga-source.com/hardware/reviews/3dblastertnt2U.shtml" rel="external nofollow" target="_blank">http://www.ga-source.com/hardware/reviews/3dblastertnt2U.shtml</a>
	</li>
	<li>
		<a href="http://www.sharkyextreme.com/hardware/reviews/video/asus_tnt2" rel="external nofollow" target="_blank">http://www.sharkyextreme.com/hardware/reviews/video/asus_tnt2</a>
	</li>
	<li>
		<a href="http://www.firingsquad.com/hardware/viper770ultra/default.asp" rel="external nofollow" target="_blank">http://www.firingsquad.com/hardware/viper770ultra/default.asp</a>
	</li>
	<li>
		<a href="http://www.fastgraphics.com/reviews/99/04/asus_v3800" rel="external nofollow" target="_blank">http://www.fastgraphics.com/reviews/99/04/asus_v3800</a>
	</li>
	<li>
		<a href="http://www.anandtech.com/html/review_display.cfm?document=959" rel="external nofollow" target="_blank">http://www.anandtech.com/html/review_display.cfm?document=959</a>
	</li>
	<li>
		<a href="http://www.anandtech.com/html/review_display.cfm?document=1058" rel="external nofollow" target="_blank">http://www.anandtech.com/html/review_display.cfm?document=1058</a>
	</li>
	<li>
		<a href="http://www.firingsquad.com/hardware/3dprophetsdr/default.asp" rel="external nofollow" target="_blank">http://www.firingsquad.com/hardware/3dprophetsdr/default.asp</a>
	</li>
</ul>

<p>
	 
</p>

<p>
	[pagination="3DLabs Permidia3"]
</p>

<p>
	A 3DLabs adiou o lançamento do Permidia3 várias vezes, mas finalmente ele chega ao mercado correspondendo às expectativas geradas, quanto à performance em 3D e suporte à API OpenGL principalmente devido ao enorme reconhecimento da 3DLabs no mercado corporativo de aceleradoras profissionais.
</p>

<p>
	Equipada com um RAMDAC de 300 MHz, traz um recurso de alocação de texturas de até 256 MB de tamanho (tamanho máximo endereçável) chamado de Virtual Texture Engine.
</p>

<p>
	Suas características principais:
</p>

<ul>
	<li>
		Unidade de Gerenciamento de memória de Textura Virtual;
	</li>
	<li>
		256MB de memória máxima endereçável para memória virtual;
	</li>
	<li>
		300MHz de RAMDAC;
	</li>
	<li>
		Passo único de bump-mapping, iluminação pixel por pixel;
	</li>
	<li>
		32 bit z-buffering;
	</li>
	<li>
		Compatível com AGPx2 e AGPx4.
	</li>
</ul>

<p>
	O mecanismo de "memória virtual" para armazenamento de texturas criado pela 3DLabs traz, como principais benefícios, diminuição do uso do barramento do sistema, diminuição do uso da memória da placa de vídeo para rodar aplicações com grandes quantidades de texturas, melhorando a capacidade de correção e aplicação de filtros às cenas geradas, pois aumenta o desempenho geral dos filtros (como o bilinear e trilinear mip-mapping).
</p>

<p>
	A placa da 3DLabs, Oxygen VX1, vem com 32 MB e tem uma arquitetura inovadora na aplicação de filtros. Segundo a 3DLabs, é capaz de renderizar cenas em com filtro trilinear com quase o mesmo custo de desempenho do que os chipsets de primeira linha do mercado. E sua renderização em 32 bits também é uma das mais rápidas.
</p>

<p>
	O chipset Permedia3 também irá suportar multihead, permitindo a visualização em até 8 monitores, mas isto só estará disponível no final do ano (1999). Veja as configurações do driver dessa placa nas Figuras 1 e 2.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/permidia1.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Configurações da Permidia3.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/permidia2.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> Mais configurações da Permidia3.
</p>

<p>
	A 3DLabs usa a seguinte frase para promover seu produto: "Permedia3 Create! tem o poder que você precisa para trabalhar rápido durante todo o dia e ter poder para se divertir com os melhores jogos por toda a noite". Exageros à parte, graças à experiência da 3DLabs, este chipset é realmente o que oferece melhor desempenho em aplicações profissionais do tipo 3DMAX e Sofimage de todas as placas analisadas aqui. Esta placa realmente oferece um poder de processamento realmente elevado, a um custo acessível. Quanto aos jogos, ela apresenta um desempenho muito bom, mas não comparável ao nível da TNT2 ou da Voodoo3. Já a qualidade de imagem é excelente, como a G400 da Matrox.
</p>

<p>
	<strong>Para Saber Mais</strong>
</p>

<ul>
	<li>
		<a href="http://www.3dlabs.com/" rel="external nofollow" target="_blank">http://www.3dlabs.com</a>
	</li>
	<li>
		<a href="http://www.anandtech.com/html/review_display.cfm?document=999" rel="external nofollow" target="_blank">http://www.anandtech.com/html/review_display.cfm?document=999</a>
	</li>
	<li>
		<a href="http://www.systemlogic.net/reviews/hardware/videocards/3dlabs/permedia3/index.htm" rel="external nofollow" target="_blank">http://www.systemlogic.net/reviews/hardware/videocards/3dlabs<br>
		/permedia3/index.htm</a>
	</li>
	<li>
		<a href="http://www.sharkyextreme.com/hardware/reviews/video/3dlabs_oxygen" rel="external nofollow" target="_blank">http://www.sharkyextreme.com/hardware/reviews/video/3dlabs_oxygen</a>
	</li>
</ul>

<p>
	[pagination="3dfx Voodoo3"]
</p>

<p>
	A 3dfx mostrou ao mundo o que era 3D quando lançou a linha Voodoo, há alguns anos. Com o lançamento do Voodoo2 (único a realizar multitextura em passo único, por ter um dual-pipeline de render embutido) permaneceu muito tempo no top de desempenho 3D e fez o nome da empresa no mercado, criando a fama que mantém até hoje. Mas suas placas funcionavam apenas em 3D, forçando o usuário a comprar uma segunda placa para rodar o 2D.
</p>

<p>
	Com o lançamento do Banshee, chegou a primeira placa da 3dfx integrada, 2D e 3D. Chegava também o slot AGP e suporte a 16 MB de RAM. Porém, mudaram seu núcleo: em vez de dois pipelines, como na Voodoo2, havia apenas um, resultando em perda de desempenho. A Banshee ficava atrás da Voodoo2 em 3D!
</p>

<p>
	Nessa época, a 3dfx disponibilizava uma tecnologia inovadora: a SLI, que permitia que duas placas PCI Voodoo2 fossem ligadas em paralelo e conectadas de modo que permitia praticamente duas vezes o desempenho de uma Voodoo2, e com o dobro de memória. Ainda hoje, uma Voodoo2 SLI é mais rápida que muitas placas 3D recentes.
</p>

<p>
	A Voodoo3 usa o 2D da Banshee, que é excelente, com um 3D da Voodoo2 melhorado. Agora, a 3dfx oferece uma solução 2D/3D realmente interessante, pois com 16 MB de RAM, resoluções de até 1600x1200 em 3D (a Voodoo2 em SLI suportava no máximo 1024x768) e com a conhecida velocidade estelar de render em 16 bits, a Voodoo3 poderia fazer bonito novamente. Alguns "problemas" porém continuam, já que não existe ainda suporte à texturização do slot AGP (trocar texturas com a memória principal do sistema), não renderiza 3D em 32 bits, e suporta apenas 16 MB, enquanto seus concorrentes suportam 32 MB (e alguns já estão chegando à casa dos 64 MB ou mais, como a NVIDIA e a S3).
</p>

<p>
	Segundo a 3dfx, seus clientes estão interessados primeiramente em desempenho, depois em qualidade de imagem. Sem dúvida, em 16 bits e resoluções mais baixas (como 640x480, 800x600 e 1024x768) a Voodoo3 é quase imbatível, quando usamos a API nativa Glide/miniGL (ou 3dfxGL).
</p>

<p>
	Suas características básicas:
</p>

<ul>
	<li>
		AGP 2X (sem texturização);
	</li>
	<li>
		de 143 a 183 MHz de frequência (memória e processador tem mesmo valor);
	</li>
	<li>
		16MB de RAM;
	</li>
	<li>
		1600x1200 máx em 3D (2046x1536 máx em 2D);
	</li>
	<li>
		16-bit de cor em 3D (32-bit em 2D);
	</li>
	<li>
		16/24-bit z-buffer;
	</li>
	<li>
		OpenGL ICD e suporte a Glide (API da 3dfx);
	</li>
	<li>
		350MHz de RAMDAC;
	</li>
	<li>
		DVD suportado por hardware;
	</li>
</ul>

<p>
	Foram lançados 3 modelos, primeiramente os Voodoo3 2000 e 3000, meses depois chegou a versão 3500 (devido à dificuldades da 3dfx de encontrar memórias de 183 MHz na quantidade e qualidade necessárias, a um valor praticável):
</p>

<ul>
	<li>
		<strong>Voodoo3 2000:</strong> 143 MHz (memória e core).
	</li>
	<li>
		<strong>Voodoo3 3000:</strong> 166 MHz (memória e core).
	</li>
	<li>
		<strong>Voodoo3 3500:</strong> 183 MHz de memória e core. Tem saída para TV e receptor de TV e FM embutidos.
	</li>
</ul>

<p>
	A Voodoo3 3000 e a 2000 vêm sem cooler ativo. Apenas a 3500 tem cooler.
</p>

<p>
	O grande diferencial da Voodoo3 3500, além do clock em 183 MHz default (o maior entre seus concorrentes), é o suporte a LCD digital, a sintonia de TV (suporta NTSC e PAL) e rádio, entrada e saída para áudio e vídeo, edição, display e captura de vídeo.
</p>

<p>
	O que torna esta placa uma opção muito interessante é não apenas por ser um dos mais rápidos processadores 3D do mercado, mas também uma solução A/V/multimídia completa. Seu processamento 2D é um dos melhores também, com excelente qualidade de imagem e taxas de atualização absurdas (200 Hz), em altas resoluções, graças em grande parte ao seu RAMDAC de 350 MHz (apenas V3 3500). Quanto aos drivers, a Voodoo3 tem driver para OpenGL completo (apresenta cerca de 6-10% de performance abaixo da API Glide) e excelente suporte à 3DNow! da AMD.
</p>

<p>
	Todas vem com utilitário de overclock de fábrica, como você confere na Figura 1.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/voodoo.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Utilitário da Voodoo3 2000.
</p>

<p>
	A Voodoo3 3500 vem equipada com memória 5,5 ns da Hyundai, SDRAM, e é bem provável que sem cooler adicional seja difícil alcançar índices acima de 190 a 200 MHz em overclock.
</p>

<p>
	O chipset Voodoo3 é um excelente produto para 2D e excepcionalmente rápido para 3D, mas com deficiências quanto ao não suporte de 32 MB de RAM, render em 32 Bit, texturização do barramento AGP e quanto ao tamanho das texturas suportadas (apenas 256x256 pixels de tamanho, enquanto seus concorrentes suportam 2048x2048). O tamanho da textura interfere na qualidade de imagem, pois para processar por exemplo um jogo 3D que use texturas de 512x512 pixels, como o Quake III, a placa precisa fazer um downsampling da textura via software, para adequar-se nos 256x256 suportados. Em alguns meses, quando for comum o uso de texturas de 1024x1024 ou maiores, a diferença de qualidade nas imagens entre os que suportam nativamente e os que fazem via software ficará bem mais visível. Os produtores de jogos 3D fazem uso de amostras de texturas maiores quando se usa maiores resoluções, principalmente para economia de memória e aumento da qualidade de imagem.
</p>

<p>
	Esse modelo da 3dfx apresentou números excepcionais de desempenho em 3D (16 bits) utilizando sua API nativa (Glide). Apesar das deficiências, a 3dfx fez um bom trabalho neste chipset, mas não pode mais considerar-se como a mais rápida do mundo, pois os atuais chipsets da NVIDIA e da Matrox estão praticamente no mesmo patamar de desempenho.
</p>

<p>
	<strong>Para Saber Mais</strong>
</p>

<ul>
	<li>
		<a href="http://www.extremehw.com/reviews/3dvideo/voodoo3/index4.html" rel="external nofollow" target="_blank">http://www.extremehw.com/reviews/3dvideo/voodoo3/index4.html</a>
	</li>
	<li>
		<a href="http://www.sharkyextreme.com/hardware/3dfx_v3_oc/b.shtml" rel="external nofollow" target="_blank">http://www.sharkyextreme.com/hardware/3dfx_v3_oc/b.shtml</a>
	</li>
	<li>
		<a href="http://www.anandtech.com/html/review_display.cfm?document=1010" rel="external nofollow" target="_blank">http://www.anandtech.com/html/review_display.cfm?document=1010</a>
	</li>
	<li>
		<a href="http://www3.sharkyextreme.com/hardware/reviews/video/3dfx_3500" rel="external nofollow" target="_blank">http://www3.sharkyextreme.com/hardware/reviews/video/3dfx_3500</a>
	</li>
	<li>
		<a href="http://www.sharkyextreme.com/hardware/articles/99/3dfx_fxt/temp" rel="external nofollow" target="_blank">http://www.sharkyextreme.com/hardware/articles/99/3dfx_fxt/temp</a>
	</li>
	<li>
		<a href="http://www.sharkyextreme.com/hardware/articles/3dfx_nextgen" rel="external nofollow" target="_blank">http://www.sharkyextreme.com/hardware/articles/3dfx_nextgen</a>
	</li>
</ul>

<p>
	[pagination="S3 Savage 2000"]
</p>

<p>
	Inicialmente conhecido como Savage GX4, hoje o nome do projeto é Savage 2000. As principais mudanças:
</p>

<ul>
	<li>
		Processo de produção de 0.18 mícron;
	</li>
	<li>
		200 MHz de processador e 200 MHz de memória;
	</li>
	<li>
		On-board Transform&amp;Lighting;
	</li>
	<li>
		AGP 2x e 4x suportados;
	</li>
	<li>
		2 multi-texturas por clock;
	</li>
	<li>
		64 MB de memória RAM;
	</li>
	<li>
		Hardware Emboss Bump Mapping;
	</li>
	<li>
		Completo suporte ao DirectX 7.0 e ao OpenGL;
	</li>
	<li>
		350 MHz de RAMDAC com porta digital para decoders NTSC e PAL;
	</li>
	<li>
		Suporte total à DVD e HDTV, com mecanismo de motion compensation de 3ª geração, com suporte à 16 taps (número de filtros por quadro – todas as placas atuais incluindo a GeForce 256 suportam máximo de 8 taps);
	</li>
	<li>
		Cerca de 700M pixels/s.
	</li>
</ul>

<p>
	Esse chipset trará inovações realmente significativas. Assim como a GeForce 256, utiliza on-board processador de triângulos e de T&amp;L, que deve ser padrão das aplicações desenvolvidas daqui para a frente. As primeiras informações indicam a absurda taxa de fill-rate próxima de 700M pixels/s. Se for confirmada, será pelo menos 30% mais rápido do que a GeForce (operando em 120/166 MHz).
</p>

<p>
	A previsão do lançamento é para o final do ano, nos EUA. A Diamond deverá anunciar a Viper 2, baseada neste chipset, no início do ano que vem (ano 2000), segundo primeiras informações.
</p>

<p>
	<strong>Para Saber Mais</strong>
</p>

<ul>
	<li>
		<a href="http://www.s3.com/" rel="external nofollow" target="_blank">http://www.s3.com</a>
	</li>
	<li>
		<a href="http://www.gamersdepot.com/rev_diamond_s540.htm" rel="external nofollow" target="_blank">http://www.gamersdepot.com/rev_diamond_s540.htm</a>
	</li>
	<li>
		<a href="http://www.anandtech.com/html/review_display.cfm?document=945" rel="external nofollow" target="_blank">http://www.anandtech.com/html/review_display.cfm?document=945</a>
	</li>
	<li>
		<a href="http://www.anandtech.com/html/review_display.cfm?document=943" rel="external nofollow" target="_blank">http://www.anandtech.com/html/review_display.cfm?document=943</a>
	</li>
	<li>
		<a href="http://www3.sharkyextreme.com/hardware/articles/99/savage2000" rel="external nofollow" target="_blank">http://www3.sharkyextreme.com/hardware/articles/99/savage2000</a>
	</li>
	<li>
		<a href="http://www.firingsquad.com/hardware/savage2000/default.asp" rel="external nofollow" target="_blank">http://www.firingsquad.com/hardware/savage2000/default.asp</a>
	</li>
</ul>

<p>
	 
</p>

<p>
	[pagination="NVIDIA GeForce256"]
</p>

<p>
	A NVIDIA vinha anunciando um estrondoso lançamento de um chipset que chegaria para arrasar com seus concorrentes e trazer uma nova realidade no que diz respeito à processamento real-time 3D. Conhecido pelo nome-código NV10, foi batizado como GeForce256, e é composto por uma GPU (Unidade de Processamento Geométrico ou Geometry Processing Unit). Essas são suas principais caraterísticas:
</p>

<ul>
	<li>
		Processo de produção de 0.22 mícron, com 23 milhões de transistores;
	</li>
	<li>
		120 MHz de processador e 166 MHz de memória (para SDRAM) ou 333 MHz DDR SGRAM;
	</li>
	<li>
		15 M triângulos/seg;
	</li>
	<li>
		AGP 2x e 4x suportados;
	</li>
	<li>
		4 Pixels por clock (4 pixel pipelines);
	</li>
	<li>
		480M pixels/seg taxa de preenchimento - 32 texturas por clock, full speed 8-tap anisotropic filtering;
	</li>
	<li>
		350 MHz de RAMDAC;
	</li>
	<li>
		Pronto para Directx7 e OpenGL - Tranform &amp; Lighting, mapeamento cúbico de ambiente (Cube environment mapping - uma técnica de reflexão e iluminação/sombreamento de objetos em real-time), texturas projetadas e compressão de texturas;
	</li>
	<li>
		Vai utilizar AGPx4 com Fast Writes (o processador do micro envia dados diretamente para a GPU a 1 GB/S), aumentando o desempenho como um todo e liberando o barramento da memória do sistema para outras funções;
	</li>
	<li>
		Processador de 256 bits interno. Memória de 128 bits dual.
	</li>
	<li>
		Suporte à memória DDR SGRAM (Double Data Rate SGRAM de 5ns) e SDRAM normal;
	</li>
	<li>
		Altíssima qualidade de video playback, altíssima precisão em overlay de vídeo e poderosa compensação de movimento (motion compensation) para HDTV (High Definition Television);
	</li>
	<li>
		Completo suporte em full-frame para DVD vídeo (com precisão de subpixel em 1/16 pixels);
	</li>
	<li>
		Controles independentes em hardware para contraste, brilho e saturação.
	</li>
</ul>

<p>
	Seu GPU possui cerca de 23 milhões de transistores (mais de duas vezes o número de transistores do Pentium III Katmai). Sua configuração default é de 32 MB, tendo também uma versão de 64 MB (mas suporta até 128 MB). Sua GPU pode manter uma taxa cerca de 4 a 5 vezes maior de triângulos do que um processador Pentium III Katmai.
</p>

<p>
	A grande novidade do GeForce é o Transform &amp; Lighting on-chip, que torna capaz de realizar complexas operações com polígonos envolvendo jogos de luzes e modelagem, liberando a CPU desta parte do processo de construção das cenas, como você pode ver na Figura 1. Os produtores de software poderão aproveitar esta tecnologia para gerar cenas muito mais ricas e reais, com um número muito maior de polígonos por cena.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/ilumin.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Observe, na tela da direita, efeitos especiais de iluminação da GeForce256.
</p>

<p>
	Nas Figuras 2 e 3 vemos a diferença na qualidade de imagem quando aumentamos o número de polígonos no jogo Quake III.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/baixo.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> Baixo número de polígonos.
</p>

<p>
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/alto.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 3:</strong> Alto número de polígonos.
</p>

<p>
	Em breve fabricantes como a Creative e Diamond estarão anunciando suas placas baseadas neste chipset por aqui. Haverá uma versão batizada de Quadro que deverá atender mais ao mercado corporativo. Virá equipada com 64Mb de DDR SGRAM e seu clock default deverá ser em torno de 135 MHz para core e 333 MHz (double), resultando em taxas de até 540 milhões de pixels por segundo e 17 milhões de triângulos por segundo.
</p>

<p>
	<strong>Para Saber Mais</strong>
</p>

<ul>
	<li>
		<a href="http://www3.sharkyextreme.com/hardware/articles/99/geforce256/3.shtml" rel="external nofollow" target="_blank">http://www3.sharkyextreme.com/hardware/articles/99/geforce256/3.shtml</a>
	</li>
	<li>
		<a href="http://nvnews.telefragged.com/reviews/geforce256_reviews.html" rel="external nofollow" target="_blank">http://nvnews.telefragged.com/reviews/geforce256_reviews.html</a>
	</li>
	<li>
		<a href="http://www.tomshardware.com/graphic/99q4/991011/index.html" rel="external nofollow" target="_blank">http://www.tomshardware.com/graphic/99q4/991011/index.html</a>
	</li>
	<li>
		<a href="http://www.firingsquad.com/hardware/3dprophetsdr/default.asp" rel="external nofollow" target="_blank">http://www.firingsquad.com/hardware/3dprophetsdr/default.asp</a>
	</li>
</ul>

<p>
	 
</p>

<p>
	[pagination="3dfx Voodoo4"]
</p>

<p>
	A 3dfx está disponibilizando poucas informações sobre sua nova placa, a Voodoo4 (ou Napalm). Talvez estejam aprontando alguma surpresa que irá realmente sacudir o mercado, para fazer frente ao Savage2000 e ao GeForce 256.
</p>

<p>
	Recentemente foi anunciada uma tecnologia de compressão de texturas, chamada 3dfx FXT1, de código aberto e livre aos produtores de software e hardware. A compressão de texturas é muito bom para alívio da memória da placa, para aumentar a velocidade de processamento de cenas complexas em alta resolução e melhorar a qualidade de imagem em geral. Atualmente, apenas a S3 Savage4 tem uma tecnologia semelhante (a S3TC, suportada pelo DirectX 6.x).
</p>

<p>
	Até mesmo os mais ardentes fãs da empresa sentiram-se meio decepcionados com o Voodoo3, pela limitação de texturas de 256x256, por não suportar render em 32 bits e não trazer nenhuma melhoria na qualidade de imagem. A 3dfx quer mudar esse quadro.
</p>

<p>
	Em julho de 1999 a 3dfx anunciou uma tecnologia de render real-time chamada T-buffer. Seus novos produtos deverão suportar ray-tracing e outras técnicas avançadas de modelagem e iluminação somente disponíveis hoje em estações de trabalho poderosas e caríssimas, como as da SGI, Sun e IBM. É uma espécie de buffer acumulativo, renderizando cada elemento da tela e combinando várias cópias para criar um efeito de camada que irá gerar a imagem final.
</p>

<p>
	Enquanto as placas comuns trabalham com frame buffer para gerar a saída em vídeo, a 3dfx com sua tecnologia T-buffer integrada com a FXT1 produzirá vários frame-buffers para gerar a saída, tornando a troca de imagens numa sequência de animação, por exemplo, muito mais "leve" e realista. Usando ainda filtragem anti-alising em tela cheia, combinando estas técnicas de motion-blur, as cenas além de muito mais belas e realísticas, serão renderizadas em maior velocidade, devido à técnica de super-amostragem e de guardar na memória vários frame-buffers da mesma cena (mas em perspectivas e ângulos diferentes). A técnica de anti-aliasing (que podemos considerar como uma espécie de desfocamento da cena) pode ser aplicada em qualquer software 3D. Já as outras técnicas será necessário desenvolver o software para suportar os recursos. A Figura 1 mostra o que é a técnica de anti-alising, enquanto a Figura 2 mostra uma cena renderizada usando a tecnologia T-buffer.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/alias.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Exemplo de anti-aliasing.
</p>

<p>
	<img alt="spacer.png" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/tbuffer.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> Exemplo de uso da tecnologia T-buffer.
</p>

<p>
	Em 1996 com o Voodoo a 3dfx introduziu a correção perspectiva de mapeamento de textura real-time, que foi introduzida pelos principais produtores de softwares. Em 1997, introduziu a multitexturização. Agora, juntamente com o suporte a 32 bits de profundidade de cor, texturas maiores (de 2048x2048 pixels por exemplo) e principalmente AGP texturing, este novo chipset da 3dfx estará apto a enfrentar seus mais poderosos concorrentes, e até superá-los.
</p>

<p>
	<strong>Para Saber Mais</strong>
</p>

<ul>
	<li>
		<a href="http://www.sharkyextreme.com/hardware/articles/99/3dfx_fxt/temp" rel="external nofollow" target="_blank">http://www.sharkyextreme.com/hardware/articles/99/3dfx_fxt/temp</a>
	</li>
	<li>
		<a href="http://www.sharkyextreme.com/hardware/articles/3dfx_nextgen" rel="external nofollow" target="_blank">http://www.sharkyextreme.com/hardware/articles/3dfx_nextgen</a>
	</li>
</ul>
]]></description><guid isPermaLink="false">33976</guid><pubDate>Thu, 04 Nov 1999 05:37:00 +0000</pubDate></item><item><title>Como testar placas 3D</title><link>https://www.clubedohardware.com.br/artigos/video/como-testar-placas-3d-r34278/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_l73ohsl73ohsl73o.jpg.b56d44a3c0f41bf62cd8c9d5640636b6.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	O bate-papo típico entre gamemaníacos fissurados em jogos 3D é uma loucura. Um assunto sempre presente nessas rodas de conversa é o desempenho das placas 3D. Pretendemos, nesta pequena série, ensinar algumas dicas básicas de como medir o desempenho das placas 3D.
</p>

<p>
	O processo de criação de imagens 3D consiste em duas etapas básicas: cálculo geométrico e renderização. O processo de cálculo geométrico é realizado, na maioria das vezes, pelo processador da máquina (pela unidade de ponto flutuante, isto é, o co-processador matemático, para sermos mais precisos). Já a etapa de renderização é realizada exclusivamente pela placa aceleradora 3D.
</p>

<p>
	Como a primeira etapa depende do micro e não da placa 3D sozinha, isso significa que você não poderá comparar o desempenho de placas caso o teste tenha sido feito em máquinas diferentes. Dessa forma, o teste comparativo de desempenho deverá ser feito em uma mesma máquina. Em outras palavras, uma placa de vídeo 3D instalada em um micro mais rápido tende a ter um melhor desempenho.
</p>

<p>
	O programa mais completo para o teste de desempenho de placas de vídeo 3D é o 3D Winbench, disponível em <a href="http://www.etestinglabs.com/main/services/zdmbmks.asp" rel="external nofollow" target="_blank">http://www.etestinglabs.com/main/services/zdmbmks.asp</a>. Esse programa executa testes de qualidade de imagem (para ver se a placa de vídeo 3D que está sendo testada suporta todos os processos de renderização disponíveis) e testes de desempenho 3D. O grande problema é que, segundo muitos especialistas em animação 3D, os testes de desempenho desse programa inflam artificialmente o resultado, apresentando resultados que talvez não sejam os mais corretos.
</p>

<p>
	Dessa forma, a melhor maneira de se testar placas 3D é na prática, usando jogos 3D. Quase todos os jogos 3D apresentam opções para teste de desempenho da placa de vídeo. O desempenho 3D é medido em quadros por segundo. Essa medida informa a quantidade de quadros ("telas") que a placa de vídeo é capaz de renderizar ("desenhar") em um segundo. Quanto maior esse valor, melhor. Quando uma placa de vídeo apresenta um número baixo de quadros por segundo, você percebe uma certa "quebra" quando "anda" dentro do jogo, isto é, você sente que o vídeo fica "agarrando" ao movimentar-se dentro do jogo.
</p>

<p>
	Atualmente a maioria das placas 3D têm embutidas uma placa de vídeo tradicional, isto é, 2D. As funções de vídeo 2D são usadas durante o boot do micro e dentro de todos os programas tradicionais. Já as funções 3D são usadas exclusivamente por programas 3D, basicamente jogos. Dessa forma, é importante você testar não só o desempenho 3D da placa, mas também o seu desempenho 2D. Os programas mais usados para essa finalidade são o Winbench e o Winstone, ambos disponíveis em <a href="http://www.etestinglabs.com/main/services/zdmbmks.asp" rel="external nofollow" target="_blank">http://www.etestinglabs.com/main/services/zdmbmks.asp</a>.
</p>

<p>
	[pagination="Jogos"]
</p>

<p>
	É importante que você faça testes de desempenho 3D usando mais de um jogo. Como veremos, alguns jogos (como o Quake) são otimizados para determinadas placas de vídeo e, com isso, podem beneficiar o desempenho de uma determinada placa. Estudaremos como realizar os testes de placas 3D usando os jogos mais comuns.
</p>

<p>
	<strong>Quake</strong>
</p>

<p>
	O teste de desempenho 3D do Quake é muito interessante, mas o grande problema é que esse jogo é otimizado para placas que usam chipset da 3dfx. Ou seja, placas de vídeo 3D que usem circuitos 3dfx obterão um resultado superior. Dessa forma, use os testes desse jogo apenas para placas 3dfx ou então configure todas as placas testadas como "genéricas", de modo a desabilitar a otimização.
</p>

<p>
	Esse jogo traz dois demos, isto é, dois jogos pré-gravados, que poderão ser usados para gerar as imagens que precisamos para medir o desempenho. Para efetuar testes 3D com esse jogo:
</p>

<p>
	1. Entre no console de comando do Quake pressionando a tecla til.
</p>

<p>
	2. Entre o comando Timedemo 1.
</p>

<p>
	3. Entre o comando demomap demo1.dm2 (para testar usando o jogo Demo 1).
</p>

<p>
	4. Entre o comando demomap demo2.dm2 (para testar usando o jogo Demo 2).
</p>

<p>
	O ideal é você efetuar quatro testes em cada resolução possível (640 x 480, 800 x 600, etc) e com cada um dos demos, desprezando o primeiro valor obtido e fazendo uma média aritmética dos três outros valores. Isso tem como objetivo reduzir a margem de erro.
</p>

<p>
	<strong>Incoming</strong>
</p>

<p>
	Para executar a contagem de quadros por segundo no jogo Incoming, basta você executá-lo através da seguinte linha de comando:
</p>

<p>
	incomer -framerate -screenmode
</p>

<p>
	Esse comando irá ativar a contagem de desempenho e irá permitir que você selecione a resolução para testes.
</p>

<p>
	<strong>Monster Truck Madness 2</strong>
</p>

<p>
	Nesse jogo você deve, antes de ativar a contagem de quadros por segundo, configurar corretamente o vídeo. Para isso, vá no menu Options, opção Graphics e configure da seguinte forma:
</p>

<ul>
	<li>
		Simulation Resolution: 640 x 480 Graphics Render: Direct3D
	</li>
	<li>
		Image quality: High
	</li>
	<li>
		Scenery: Complex
	</li>
	<li>
		Habilite: Automatic Full Screen, Shadows, Allow Damage, Textured Sky, Tire Tracks e Smoke Effects
	</li>
	<li>
		Desabilite: Dashboard, Steering Wheel
	</li>
	<li>
		Hardware Options: Habilite todas as opções existentes.
	</li>
	<li>
		Visibility: Você deve fazer testes com a visibilidade em 100% e em 50% também (testes separados, é claro).
	</li>
	<li>
		Menu Options: Mute Sound
	</li>
	<li>
		Menu Optons, opção Game: Number of Default Opponents: 0
	</li>
</ul>

<p>
	Execute a pista Farm Road 29 e, quando o jogo começar, digite as teclas F, R, A, M, E, nesta seqüência. Será iniciado a contagem de quadros por segundo.
</p>

<p>
	Você deve correr um pouco até que o número de quadros se estabilize um pouco. Como comentamos, você deve efetuar dois testes, um com a visibilidade em 50% e outro com esse parâmetro em 100%.
</p>

<p>
	<strong>Forsaken</strong>
</p>

<p>
	Esse jogo traz um excelente teste de desempenho 3D. Esse jogo traz dois demos, chamados Nuke e Ship. Basta executá-los para que o próprio jogo mostre o desempenho obtido. Você deve usar a opção Load Game do menu principal para executar os demos. Após o término da execução do demo, volte à tela Load Game para ver, no canto inferior da tela, a média de quadros por segundo obtida. Você deve executar os demos em sua velocidade normal (100%) para que os resultados sejam reais. Além disso, execute os testes em diferentes resoluções (640 x 480, 800 x 600, 1024 x 768).
</p>

<p>
	Outra forma de se medir o desempenho é habilitando a contagem de quadros por segundo durante o jogo. Para isso, pressione a tecla Esc dentro do jogo, entre no menu Options e altere a opção Show Frame Rate para On. Essa função serve mais como uma curiosidade, já que o método descrito anteriormente é mais eficiente, já que ele executará um jogo pré-gravado, isto é, da mesma maneira sempre.
</p>

<p>
	<strong>Unreal</strong>
</p>

<p>
	Para executar testes de desempenho no Unreal é necessário instalar um pequeno script, chamado Timedemo, ao programa. Esse script foi criado pelo pessoal do Planet Unreal (<a href="http://www.planetunreal.com" rel="external nofollow" target="_blank">http://www.planetunreal.com</a>) e pode ser baixado em <a href="http://www.planetunreal.com/cdrom/PU/timedemo02.zip" rel="external nofollow" target="_blank">http://www.planetunreal.com/cdrom/PU/timedemo02.zip</a>.
</p>

<p>
	Após baixar o script e instalá-lo (basta colocar o arquivo Timedemo.u no diretório UnrealSystem), entre no jogo e, na tela principal (aquela do castelo), pressione a tecla "til" para chamar o console. No console, execute o comando:
</p>

<p>
	Summon timedemo.timedemo
</p>

<p>
	Pressione Esc e você verá a contagem de quadros por segundo. Deixe esse teste sendo executado durante um determinado tempo (por exemplo, 4 minutos) na tela de introdução do jogo. Esse tempo deverá ser o mesmo para todas as placas de vídeo 3D que você for testar em seu micro. Após passado esse tempo que você estipulou, pressione a tecla "til" e entre o comando:
</p>

<p>
	Killall timedemo
</p>

<p>
	Isto encerrará o script e apresentará a média de quadros por segundo. Repita o teste para todas as resoluções possíveis.
</p>

<p>
	<strong>Outros jogos</strong>
</p>

<p>
	Como dissemos na primeira parte dessa série, a maioria dos jogos 3D possui testes de desempenho. Apresentamos aqui apenas os jogos mais conhecidos e mais usados por publicações especializadas no assunto. A seguir iremos falar do 3D Mark 99 Max, um excelente programa para teste de desempenho 3D que o Webmaster do site Jogos Etc (<a href="http://www.jogosetc.com" rel="external nofollow" target="_blank">http://www.jogosetc.com</a>) nos indicou. Esse site, aliás, é uma excelente fonte de informações sobre jogos 3D.
</p>

<p>
	[pagination="3D Mark 99 Max"]
</p>

<p>
	Esse é um excelente programa para testes de desempenho 3D. Ele é relativamente rápido de ser executado e apresenta tanto resultados de desempenho 3D quanto de qualidade de imagem e armazena telas capturadas com os resultados para que você possa comparar a qualidade da sua placa 3D com outras placas testadas. Esse programa pode ser baixado em <a href="http://www.3dmark.com" rel="external nofollow" target="_blank">http://www.3dmark.com</a> e, para executá-lo, você precisará ter o DirectX 6.1 instalado em sua máquina. Essa versão do DirectX pode ser baixada em <a href="http://download.microsoft.com/msdownload/directx/6.1/enduserdl/x86/en/dx61eng.exe" rel="external nofollow" target="_blank">http://download.microsoft.com/msdownload/directx/6.1/enduserdl/x86/en/<br>
	dx61eng.exe</a>.
</p>

<p>
	Na Figura 1 vemos um exemplo dos resultados de testes de desempenho 3D executado por esse programa e, na Figura 2, um exemplo dos resultados de testes de qualidade de imagem.
</p>

<p style="text-align: center;">
	<img alt="Como testar placas 3D" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/695_01.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 1:</b> Resultados de testes de desempenho 3D.
</p>

<p style="text-align: center;">
	<img alt="Como testar placas 3D" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/695_02.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 2:</b> Resultados de testes de qualidade de imagem.
</p>
]]></description><guid isPermaLink="false">34278</guid><pubDate>Wed, 13 Oct 1999 13:04:00 +0000</pubDate></item><item><title>Overclock de placas de v&#xED;deo 3D</title><link>https://www.clubedohardware.com.br/artigos/video/overclock-de-placas-de-v%C3%ADdeo-3d-r34286/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_66bei566bei566be.jpg.35dc5505a954ac88a54cc68261e83786.jpg" /></p>
<p>
	Muitas pessoas fazem overclock em seus processadores, mas poucos sabem que a mesma técnica pode ser usada para melhorar o desempenho do sistema de vídeo, através do aumento do clock do processador e da memória da placa de vídeo. Os chipsets atuais vem com gerador de clock programável. Isto significa que a freqüência padrão é determinada pela BIOS da placa, e pode ser alterada através de drivers. Como muitos fabricantes não fornecem drivers com possibilidade de alteração do clock, existem programas específicos, que reconhecem um grande número de chipsets. O aplicativo PowerStrip da Entech é o mais famoso.
</p>

<p>
	O primeiro chipset largamente usado com overclock foi o 3dfx Voodoo. Originalmente em 50 Mhz, com um comando usado no autoexec, podia aumentar para até 57 Mhz sem o uso de cooler:
</p>

<p>
	SET SST_GRX/CLX=XX
</p>

<p>
	onde XX é o clock desejado. Com o uso de heatsink/cooler apropriado, pode-se chegar a 62 Mhz! Já para a maioria dos chipsets da geração Voodoo ou anteriores, da 3DLabs, Trident, Matrox, ATI, etc., o único modo de alterar o clock é alterando valores do registro do Windows, como por exemplo o chipset 3D Labs Permidia 2: encontrando a entrada "systemclock" no regedit e alterando o valor padrão.
</p>

<p>
	Atualmente, quem disputa a posição de top em 3D performance é a NVIDIA, com o chipset RivaTNT, a 3dfx, com o chipset Voodoo 2 e a ATI, com seu chipset Rage128. Ainda teremos que aguardar um pouco pela chagada por aqui dos chipsets RivaTNT2 e Voodoo3. Destes, provavelmente o melhor para overclock é o chipset da NVIDIA.
</p>

<p>
	Originalmente configurado em 90 Mhz para processador e 100 Mhz para memória, em alguns casos pode chegar a até 120/125 Mhz, como na placa ASUS v3400TNT, que já vem com heatsink e cooler de fábrica. Dentre todas as placas TNT do mercado, somente os modelos da Hercules e da Creative permitem overclock com os drivers nativos (ver Figuras 1 e 2). O driver da Hercules, o Hercumeter, é o mais completo que permite alterar o clock tanto da memória quanto do processador. Aliás, o modelo da Hércules é o único que já vem com a configuração acima da especificada pela NVIDIA, em 98 Mhz para processador e 115 Mhz para a memória (o que já é um ganho considerável em relação à configuração padrão).
</p>

<p style="text-align: center;">
	<img alt="Overclock de Placas de Vídeo 3D" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/hercumeter.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 1:</b> O Hercumeter é um utilitário completo para overclock.
</p>

<p style="text-align: center;">
	<img alt="Overclock de Placas de Vídeo 3D" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/creative.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 2:</b> Já o utilitário da Creative oferece possibilidade de alteração do clock da memória apenas.
</p>

<p>
	Os ganhos em desempenho para o chipset NVIDIA TNT, quando mudamos do padrão de 90/100 MHz para 120/125, são os seguintes, todos realizados com o benchmarck Quake2 Demo1 a 1024x768, com 16 bit de cor:
</p>

<p style="text-align: center;">
	 
</p>

<table>
	<tbody>
		<tr>
			<th>
				<b>Chip (MHz)</b>
			</th>
			<th>
				<b>Memória (MHz)</b>
			</th>
			<th>
				<b>%</b>
			</th>
		</tr>
		<tr>
			<td>
				120
			</td>
			<td>
				125
			</td>
			<td>
				26.4
			</td>
		</tr>
		<tr>
			<td>
				120
			</td>
			<td>
				120
			</td>
			<td>
				24.5
			</td>
		</tr>
		<tr>
			<td>
				120
			</td>
			<td>
				115
			</td>
			<td>
				21.9
			</td>
		</tr>
		<tr>
			<td>
				120
			</td>
			<td>
				110
			</td>
			<td>
				19.3
			</td>
		</tr>
		<tr>
			<td>
				115
			</td>
			<td>
				125
			</td>
			<td>
				23
			</td>
		</tr>
		<tr>
			<td>
				110
			</td>
			<td>
				125
			</td>
			<td>
				19.8
			</td>
		</tr>
		<tr>
			<td>
				105
			</td>
			<td>
				125
			</td>
			<td>
				15.8
			</td>
		</tr>
		<tr>
			<td>
				115
			</td>
			<td>
				115
			</td>
			<td>
				18.5
			</td>
		</tr>
	</tbody>
</table>

<p>
	Dá para perceber a partir destes números que o impacto no desempenho em aplicativos 3D é muito mais significativa quando se aumenta o clock do chip, ao invés da memória. Rodando uma placa TNT a 105 Mhz de chip, dá pelo menos 10% de aumento de performance no Quake2 Demo1 benchmarck. Uma placa que pode ser ajustada a 120/125 como o caso da ASUS V3400TNT, o aumento de performance chega a incríveis 26%, bastante significativo.
</p>

<p>
	Lembrando que para fazer overclock em placas de vídeo, devem ser observadas as mesmas regras para o caso de overclock de CPU. Nem todos os chips tem a mesma capacidade de rodar na mesma velocidade ajustada; podem ter placas de mesmo modelo que atingem velocidades máximas diferentes. Mesmo para o caso do excelente heatsink/cooler fornecido pela ASUS, é provável que não se consiga atingir 120/125 Mhz, mas ao menos bem perto destes valores, dependendo de sua "sorte". Por outro lado, uma placa má refrigerada como por exemplo a Diamond Viper V550, dificilmente vc conseguiria ir além de 105/115 Mhz.
</p>

<p>
	Quanto ao chipset 3dfx Voodoo2, que vem de fábrica em 90 Mhz de chip e 100 de memória, somente o clock do chip pode ser aumentada, pois a RAM é do tipo EDO de ciclo simples e trabalha no máximo a 100 Mhz. Se assim mesmo se quisesse aumentar seu clock para, digamos, 110 Mhz, muito provavelmente teríamos amostragem de cores irreais, texturas que "somem" ou que falham durante uma renderização, e outros efeitos similares, ou até mesmo travamento do sistema. Portanto, fique satisfeito em elevar o desempenho de sua Voodoo2 apenas alterando o clock do chip. Poucos fabricantes vem de fábrica com o chip em 95 Mhz ou mais, e o diferencial em relação ao RivaTNT é que todos possuem em seus drivers a possibilidade de mudar o clock do processador, sem precisar do uso de aplicativo específico. O máximo que se pode atingir sem ter muitos problemas com a temperatura é 98 Mhz, mas com o adicional de cooler apropriado, pode-se chegar a 100 Mhz sem problemas.
</p>

<p>
	O chipset da 3dfx depende de uma ótima CPU para que os resultados de overclock fiquem realmente significativos; portanto, se você tem uma máquina com um processador Pentium II 233 ou menos, os ganhos de desempenho serão muito pouco perceptíveis.
</p>

<p>
	O aplicativo PowerStrip, da EnTech, Taiwan, reconhece a maioria dos chipsets atuais e permite aumentar tanto o clock do chip quanto da memória. Para isso, vá em About PowerStrip, Performance (ver Figura 3).
</p>

<p style="text-align: center;">
	<img alt="Overclock de Placas de Vídeo 3D" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/over3d.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<b>Figura 3:</b> A placa ASUS V3400TNT configurada em inacreditáveis 120/125 Mhz.
</p>

<p>
	Se você tem uma placa TNT ou Voodoo2, realmente vale a pena tentar o overclock para obter o máximo de desempenho em sua placa, pois isto pode retardar uma eventual necessidade de upgrade para os novos chipsets do mercado (como o G400 da Matrox, Permedia3 da 3D labs, TNT2 da NVIDIA, Voodoo3 da 3dfx, o Savage4 da S3, e ATI Rage128 PRO, por exemplo) para poder rodar os apicativos e jogos 3D mais exigentes.
</p>

<p>
	<br>
	Links:
</p>

<ul>
	<li>
		<a href="http://www.sysopt.com" rel="external nofollow" target="_blank">http://www.sysopt.com</a>: Site de otimização de hardware em geral.
	</li>
	<li>
		<a href="http://www.tomshardware.com" rel="external nofollow" target="_blank">http://www.tomshardware.com</a>: Hardware em geral, um dos melhores laboratorios.
	</li>
	<li>
		<a href="http://www.fastgraphics.com" rel="external nofollow" target="_blank">http://www.fastgraphics.com</a>
	</li>
	<li>
		<a href="http://www.sharkyextreme.com/hardware" rel="external nofollow" target="_blank">http://www.sharkyextreme.com/hardware</a>
	</li>
	<li>
		<a href="http://www.hardwarecentral.com" rel="external nofollow" target="_blank">http://www.hardwarecentral.com</a>
	</li>
	<li>
		<a href="http://www.overclockers.com" rel="external nofollow" target="_blank">http://www.overclockers.com</a>
	</li>
</ul>

<p>
	 
</p>
]]></description><guid isPermaLink="false">34286</guid><pubDate>Thu, 22 Apr 1999 05:23:00 +0000</pubDate></item><item><title>Configurando o DirectX</title><link>https://www.clubedohardware.com.br/artigos/video/configurando-o-directx-r34054/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_08/Gemini_Generated_Image_js4qt8js4qt8js4q.jpg.2c474074085866dde4e15c2edab8dd26.jpg" /></p>
<p>
	O DirectX é uma interface de programação desenvolvida pela Microsoft exclusivamente para jogos. Sua função é facilitar a comunicação do jogo com o hardware do micro: ao invés do jogo ter que conhecer todos os dispositivos do mercado -- como placas de vídeo 3D e placas de som -, ele passa a usar comandos do DirectX. O DirectX, por sua vez, faz a conversão dos comandos enviados pelo jogo para acessar o hardware específico, melhorando o desempenho e facilitando a programação do jogo, que passa a ser mais simples.
</p>

<p>
	Quando você instala um jogo que necessite do DirectX instalado, ele o instalará automaticamente. A versão mais popular do DirectX é a 5, que inclusive já vem com o Windows 98. Entretanto a Microsoft acaba de lançar a versão 6 do DirectX que, segundo testes que realizamos em laboratório, torna os programas 3D um pouco mais rápidos. Portanto, se você é um gamemaníaco, vale a pena instalar essa nova versão do DirectX, disponível para download no site da Microsoft, em <a href="http://www.microsoft.com/windows/downloads/default.asp" target="_blank" rel="external nofollow">http://www.microsoft.com/windows/downloads/default.asp</a>. A instalação é moleza: basta executar o arquivo que ele se instalará automaticamente em seu micro.
</p>

<p>
	Para micreiros fanáticos, a dica é a utilização de programas de configuração do DirectX. Através de programas desse tipo você será capaz de realizar o "ajuste fino" de sua configuração.
</p>

<p>
	Um problema muito comum ocorre quando você tem duas placas de vídeo 3D em seu micro. Alguns jogos, em vez de utilizarem automaticamente a sua placa 3D "turbinada" - especialmente as que possuem o chipset 3Dfx Voodoo -, acabam usando a outra placa que você tem instalada. Através de programas de configuração do DirectX você será capaz de definir qual será a placa 3D padrão, resolvendo esse tipo de problema.
</p>

<p>
	O programinha de configuração do DirectX mais simples é o directx.cpl, que pode ser baixado em <a href="http://www.sysinfo.net/digital/dx6cpl.exe" target="_blank" rel="external nofollow">http://www.sysinfo.net/digital/dx6cpl.exe</a>. Após baixá-lo da Internet, basta copiá-lo para o diretório c:windowssystem. Após ter feito isso, um novo ícone aparecerá no Painel de Controle de seu micro - apropriadamente chamado "DirectX", como mostra a Figura 1. Clicando sobre o ícone, aparecerão diversas opções de configuração do DirectX, como mostra a Figura 2.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="Configurando o DirectX" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/490_01.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 1:</strong> Controle do DirectX.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="Configurando o DirectX" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/490_02.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 2:</strong> Configuração do DirectX.
</p>

<p>
	Você pode instalar um programa que apresente configurações mais avançadas, como o DirectControl. Esse programa, que pode ser baixado em <a href="http://www.3dfiles.com/bgrsoftware/dcontrol.shtml" target="_blank" rel="external nofollow">http://www.3dfiles.com/bgrsoftware/dcontrol.shtml </a>, instala um atalho na Área de Trabalho e também na Barra de Tarefas. Clicando com o botão direito do mouse sobre o ícone da Barra de Tarefas, é possível configurar inúmeras opções do DirectX, como você pode ver na Figura 3.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="Configurando o DirectX" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/490_03.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 3:</strong> Programa DirectControl.
</p>

<p>
	Você pode testar se o DirectX está funcionando corretamente através de um programa de diagnóstico que acompanha o próprio DirectX. Para isso, basta executar c:arquivos de programasdirectxsetupdxdiag.exe. Por incrível que pareça, não há atalho em lugar nenhum para esse programa.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="Configurando o DirectX" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/490_04.jpg" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png"><br>
	<strong>Figura 4:</strong> Testando o DirectX.
</p>
]]></description><guid isPermaLink="false">34054</guid><pubDate>Fri, 02 Oct 1998 03:00:00 +0000</pubDate></item><item><title>Novos chipsets para placas 3D</title><link>https://www.clubedohardware.com.br/artigos/video/novos-chipsets-para-placas-3d-r34075/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_kt0qm4kt0qm4kt0q.jpg.a04d056673bb8057d94602a2115e1c51.jpg" /></p>
<p>
	[pagination="Introdução"]
</p>

<p>
	Uma nova safra de chipsets 3D está pronta para invadir o mercado. Até o final do ano, 3Dfx, NVIDIA, S3 e Matrox estarão lançando novas versões de seus chipsets. Outros chipsets da Rendition, Videologic e 3Dlabs são apenas promessas, mas que podem ser lançados ainda esse ano. Todos os chipsets são 2D/3D, confirmando a tendência do mercado de acabar com aceleradoras unicamente 3D.
</p>

<p>
	No entanto, o que fará realmente diferença para a escolha de um chipset 2D/3D será a suo desempenho 3D, já que o desempenho 2D parece ter chegado a um limite. Testes de performance realizados com a maioria desses chipsets mostram uma diferença de no máximo 2% entre o desempenho 2D de uma placa e outra.
</p>

<p>
	[pagination="3Dfx Banshe"]
</p>

<p>
	O Banshe é o primeiro chipset 3D/2D lançado pela 3Dfx, conhecida pelo chipset Voodoo Graphics (das famosas placas Diamond Monster 3D). A 3Dfx já havia feito um chipset que poderia ser usado numa placa 2D/3D, o Voodoo Rush, mas esse chipset precisava que a placa tivesse seu próprio controlador gráfico 2D.
</p>

<p>
	A Diamond já anunciou uma placa que usará o Banshe (Diamond Monster Fusion), e seu desempenho será próximo ao do Voodoo Graphics 2, atualmente o chipset 3D mais poderoso do mercado. A desvantagem do Banshe em relação ao Voodoo 2 é ter apenas uma unidade de processamento de textura, enquanto o Voodoo 2 tem duas. Com duas unidades de textura, o Voodoo 2 pode processar duas texturas ao mesmo tempo, enquanto o Banshe tem que processar uma de cada vez. Em jogos como Quake 2 por exemplo, há um mapa de textura e um mapa de iluminação. Quando um pixel vai ser renderizado, os dois mapas devem ser levados em consideração. Então, primeiro renderiza-se o pixel usando o mapa de textura, e depois aplica-se o mapa de iluminação. Com duas unidades de textura é possível fazer esses dois passos de uma vez só, aumentando bem o desempenho. No momento, somente alguns jogos usam multi-textura (como Quake 2 e Unreal), mas isso deve mudar no futuro. Mas, mesmo que o software venha a usar multi-textura, o Banshe não faz feio, tendo umo desempenho apenas um pouco menor que a do Voodoo 2. Em jogos que não usem multi-textura, o desempenho do Banshe poderá ser até maior que o do Voodoo 2, já que ele trabalha num clock mais elevado (100 ou 125 MHz, contra 90 MHz do Voodoo 2).
</p>

<p>
	O Banshe também oferece suporte à DVD. Este suporte à DVD é via software, precisando de um processador potente e não tendo a mesma qualidade do DVD decodificado via hardware.
</p>

<p>
	Uma placa com o Banshe pode ser tanto PCI quanto AGP, já que este chipset não usa nenhum recurso avançado do barramento AGP (como AGP Texturing) não havendo uma grande diferença no desempenho entre as placas PCI e AGP. Isso poderá diminuir o desempenho quando manipular texturas muito grandes em altas resoluções, já que o Banshe terá que alocar as texturas na memória principal via DMA, que é bem mais lento que AGP Texturing. De qualquer maneira, ainda não existem jogos com texturas grandes o suficiente para tornar isso um problema.
</p>

<p>
	O Banshe continua com a mesma qualidade de imagem 3D do Voodoo 2, tendo um z-buffer com profundidade de 16 bits, e renderizando com cores de 16 bits. Os outros novos chipsets tem z-buffer de maior profundidade e renderizam com mais cores, mas mesmo assim, a qualidade de imagem do Banshe ainda é muito boa.
</p>

<p>
	Mas a maior vantagem estará no preço. Uma Monster Fusion com 16 MB deverá custar (nos EUA) em torno de U$200, enquanto uma Monster II de 8 MB, que só é 3D, está acima dos U$250. Com esse preço, e a total compatibilidade com a API Glide (API usada em muitos jogos e exclusiva da 3Dfx), esse chipset provavelmente será um sucesso.
</p>

<p>
	[pagination="NVIDIA Riva TNT"]
</p>

<p>
	A NVIDIA está lançando o Riva TNT. Bem mais poderoso que seu predecessor(Riva 128) o TNT não melhora somente o desempenho como também melhora a criticada qualidade de imagem do Riva 128. Com um z-buffer de 24bits e renderizando com cores de 32 bits a qualidade da imagem melhorou bastante.
</p>

<p>
	O desempenho 3D deste chipset é realmente impressionante, superando o Banshe da 3Dfx. Assim como o Voodoo 2, o TNT tem duas unidades de processamento de textura, mantendo a ótimo desempenho em jogos que usam multi-textura.
</p>

<p>
	O TNT também terá suporte a DVD via software.
</p>

<p>
	O TNT é realmente compatível com AGP, usando AGP Texturing e AGP 2X, mantendo o desempenho mesmo com texturas grandes. Mas, mesmo assim, esse chipset poderá ser usado em placas PCI, logicamente, sem os recursos AGP.
</p>

<p>
	Diamond e Creative Labs já anunciaram placas com o Riva TNT, que devem custar em torno de U$200 com 16MB! Que também é um excelente preço se comparado ao caro Voodoo 2 (tenho uma ligeira impressão de que o preço das placas com Voodoo 2 vai cair logo, logo...).
</p>

<p>
	[pagination="S3 Savage"]
</p>

<p>
	A S3 já foi uma das líderes no mercado de chipsets de vídeo de alto desempenho para PC. Mas, à uns 2 ou 3 anos, começou a ficar para trás. Placas com chipsets S3 começaram a ser chamadas de "desaceladoras" 3D. Chipsets como o Virge DX (Diamond 3D 2000 Pro), são bons para 2D, mas são péssimos para 3D. Agora a S3 quer dar a volta por cima e recuperar o tempo perdido. Ela está fazendo uma pesada campanha de marketing para o S3 Savage com o slogan "Voodoo 2 performance at S3 prices" (Performance de Voodoo 2, com preço de S3). Mas o chipset não é lá essa coisa toda.
</p>

<p>
	Alguns testes com o Savage mostraram uma boo desempenho, mas apesar das especificações técnicas (24 bit z-buffer, renderização com cores de 32 bits) a qualidade da imagem deixa a desejar. Segundo a S3, isso é devido a problemas com os drivers, que ainda não estão totalmente prontos. Mas de qualquer maneira, a suo desempenho ainda não é melhor que a do Banshe nem do Riva TNT.
</p>

<p>
	O Savage também tem suporte a AGP 2X e AGP texturing, e suporta no máximo 8 MB na placa de vídeo.
</p>

<p>
	Uma caraterística interessante do Savage é a compressão de texturas. Com texturas muito grandes o tráfego de dados pelo barramento pode ficar muito intenso. Usando a compressão de texturas, pode-se diminuir o tráfego de dados pelo barramento. No futuro, quando o trafego de texturas for maior que a largura de banda do barramento, essa pode ser uma alternativa interessante. O DirectX 6 já oferece suporte a compressão de textura. No entanto, essa tecnologia causa perda na qualidade da imagem, e não há a necessidade de ser usada hoje em dia. Outro problema é que o driver da S3 usa a compressão de textura automaticamente. E isso pode não ser uma boa em algumas situações. A compressão leva tempo, e pode atrapalhar em situações em que as texturas precisam ser carregadas rapidamente. A S3 está sendo muito criticada por essa compressão automática.
</p>

<p>
	Apesar do slogan, ainda não há preço definido.
</p>

<p>
	[pagination="Matrox G200"]
</p>

<p>
	A Matrox finalmente lançou um bom acelerador 3D. O G200 não tem a melhor performance dos novos chipsets, mas ainda assim é muito bom. Com z-buffer de 32bits e renderização em cores de 32bits, a qualidade de imagem do G200 é excelente!
</p>

<p>
	O G200 também tem suporte à AGP 2X e à AGP texturing e assim como os outros chipsets, tem um excelente desempenho 2D. Em torno de U$170 no EUA.
</p>

<p>
	[pagination="Videologic Power VR - Segunda geração"]
</p>

<p>
	Este chipset está para ser lançado a mais de um ano. Algumas fotos com imagens de jogos usando o segundo Power VR já foram divulgadas e são muito boas. O chipset já está bastante atrasado, e dizem que isso está ocorrendo porque a Videologic anda muito ocupada com o desenvolvimento de um novo chipset para um novo Vídeo-game da SEGA. Se o chipset para PC for tão bom quanto o chipset do Vídeo-game da SEGA, provavelmente será um chipset muito bom. Já estão disponíveis alguns vídeos com imagens dos jogos do Vídeo-game, e a qualidade da imagem impressiona muito.
</p>

<p>
	[pagination="Rendition Verite 3000 e 3Dlabs Permidia 3"]
</p>

<p>
	Pouco se sabe ainda sobre esses dois chipsets, mas a julgar por suas versões anteriores, eles deverão ser muito bons. Rumores dizem que ambos terão duas unidades de processamento de texturas como o Voodoo 2 e não terão compressão de texturas como o Savage. Em pouco tempo, tanto a Rendition quanto a 3Dlabs, deverão divulgar mais informações sobre esses chipsets.
</p>

<p>
	 
</p>
]]></description><guid isPermaLink="false">34075</guid><pubDate>Wed, 09 Sep 1998 05:15:00 +0000</pubDate></item><item><title>Algumas no&#xE7;&#xF5;es de 3D</title><link>https://www.clubedohardware.com.br/artigos/video/algumas-no%C3%A7%C3%B5es-de-3d-r34090/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_vf3rtvf3rtvf3rtv.jpg.3f1a850fcb7304eeffe91f83cfa0b7e3.jpg" /></p>
<p>
	A AMD criou recentemente a tecnologia 3DNow! um recurso novo e inovador do processador AMD K6-2. As vantagens proporcionadas por essa nova tecnologia incluem maior quantidade de quadros por segundo em imagens de alta resolução, modelagem física muito melhor de ambientes reais, imagens 3D mais nítidas e detalhadas, playback de vídeo mais contínuo e áudio com qualidade próxima a de cinema. Um dos benefícios mais comentados dessa tecnologia é a sua capacidade de melhorar drasticamente gráficos 3D. Para ajudá-lo a entender o recente universo de 3D, nós relacionamos para você uma lista com algumas noções sobre 3D. essa lista não pretende ser um documento altamente técnico, mas sim um simples guia para que você compreenda melhor a terminologia normalmente utilizada.
</p>

<ul>
	<li>
		<strong>API (Application Programming Interface, Interface de Programacao de Aplicativo):</strong> Um conjunto de rotinas que um aplicativo utiliza para solicitar e conduzir serviços de baixo nível executados por um sistema operacional de computador. Ou, em uma linguagem mais "humana", um conjunto de rotinas que localiza-se entre o hardware (CPU e Processador de vídeo, por exemplo) e o aplicativo de software (um jogo, por exemplo). Os programadores só precisam escrever o código uma vez para a API , permitindo que ele rode no hardware de qualquer fabricante.
	</li>
	<li>
		<strong>DirectX: </strong>Uma API do Windows voltada para o desenvolvimento de programas com conteúdo multimídia. Segundo a Microsoft, ela oferece o primeiro conjunto completo de ferramentas que permite aos programadores acessar a flexibilidade multi-plataformas da Internet e as poderosas capacidades de multimídia do computador pessoal. O DirectX 6.0 é otimizada para 3DNow! e está disponível para aumentar o desempenho dos PCs baseados em processadores AMD-K6-2.
	</li>
	<li>
		<strong>Direct3D:</strong> Uma API do DirectX utilizada especificamente para gráficos 3D. O Direct3D está sendo fortemente promovida pela Microsoft como sendo uma importante API para jogos e outras aplicações 3D. O Direct3D, sendo uma parte do DirectX 6.0, é otimizada para tecnologia 3DNow!.
	</li>
	<li>
		<strong>OpenGL:</strong> Uma API utilizada há bastante tempo em estações de trabalho 3D de ponta. Muitos fabricantes de jogos também estão usando essa API. O OpenGL será otimizada para tecnologia 3DNow!.
	</li>
	<li>
		<strong>AGP (Accelerated Graphics Port):</strong> O AGP é uma conexão ponto-a-ponto de alta velocidade entre o chipset do sistema (ponte norte) e o chip gráfico. O AGP destina-se a aumentar a qualidade, a taxa de quadros por segundo e a interatividade de aplicativos 3D e otimizar o custo do equipamento. A característica-chave do AGP é sua interface de alta velocidade com a memória principal (RAM). Isto significa que o buffer de quadros (e, mais significativamente, as funções de cache do buffer de quadros) pode localizar-se na memória principal, em vez de na placa (reduzindo o custo). Dessa forma, recursos 3D tais como mapas de textura podem ser maiores e armazenados na memória RAM, em vez de no buffer de quadros. Assim, mantém-se o buffer de quadros menor.
	</li>
	<li>
		<strong>Cores de 16, 24 e 32 bits:</strong> Cada pixel é representado por uma cor. O modo 16 bits pode produzir 65.536 cores, enquanto o modo 24 bits pode produzir 16,7 milhões de cores. O modo 32 bits proporciona o mesmo número de cores que o modo 24 bits, mas gráficos de 32 bits podem ser manipulados muito mais rapidamente do que gráficos de 24 bits. Além disso, gráficos de 32 bits requerem cerca de 25% a mais de memória. Como o ser humano não consegue diferenciar mais do que 10 milhões de cores diferentes, considera-se que tanto gráficos de 24 bits como de 32 bits possuem qualidade fotográfica.
	</li>
	<li>
		<strong>Taxa de "Blit" (Blit Rate):</strong> O processo de copiar uma seqüência de dados da memória principal do PC para a da placa de vídeo é chamado de "Blitting". A velocidade dessa operação é a taxa de "blit".
	</li>
	<li>
		<strong>Taxa de Preenchimento (Fill Rate):</strong> Uma medida de quantos pixels uma placa 3D pode desenhar em um segundo.
	</li>
	<li>
		<strong>Sprite:</strong> Um objeto gráfico (freqüentemente, um caractere ou cursor) que pode ser movimentado sobre uma imagem de fundo.
	</li>
	<li>
		<strong>Engine:</strong> A parte de um programa de software que gerencia e atualiza os gráficos 3D em tempo real.
	</li>
	<li>
		<strong>Polígono:</strong> Uma figura fechada, separando uma área interna de uma externa, formada por pelo menos três linhas - um triângulo, por exemplo. Triângulos (polígonos simples de três lados) formam a base para objetos criados no ambiente 3D. Na maioria dos aplicativos 3D, os objetos são feitos de polígonos dispostos em uma variedade de maneiras, de modo a criar uma imagem realística. Na maioria das vezes, centenas ou milhares de polígonos são necessários para um único objeto 3D, criando uma enorme quantidade de dados a serem gerados e manipulados. A tecnologia 3DNow! é idealmente adequada a esse tipo de ambiente.
	</li>
	<li>
		<strong>Pixel - PI(X)cture ELement (Elemento de Imagem):</strong> A menor unidade de gráficos gerada por um adaptador de vídeo, geralmente do tamanho de uma cabeça de alfinete. Pixels podem possuir praticamente qualquer cor, dependendo das capacidades do adaptador.
	</li>
	<li>
		<strong>Texel - TE(X)ture ELement (Elemento de Textura):</strong> Um pixel de um mapa de textura que foi aplicado a um polígono.
	</li>
	<li>
		<strong>Malha:</strong> Termo para um objeto ou cena 3D - assim denominado por possuir a aparência de fios entrelaçados (como em uma rede).
	</li>
	<li>
		<strong>Estrutura de Arame (wireframe):</strong> Uma exibição bruta de um objeto, utilizando linhas para representar as bordas dos polígonos, o que a faz lembrar uma escultura feita de uma malha de arame.
	</li>
	<li>
		<strong>Sombreamento Plano (Flat Shading):</strong> Mostra a superfície e as cores, de uma maneira simples. Os objetos parecem, freqüentemente, facetados (pouca ou nenhuma suavidade entre os polígonos).
	</li>
	<li>
		<strong>Sombreamento Suave (Goraud Shading):</strong> Mostra a superfície com cor e suavização. E um modo de exibição muito popular atualmente, pois o hardware pode suporta-lo. Ainda assim, requer muito poder de processamento.
	</li>
	<li>
		<strong>Texturização suave:</strong> Começa a parecer-se com uma renderização pronta. Exige uma quantidade enorme de poder de processamento da CPU e de memória.
	</li>
	<li>
		<strong>Iluminação:</strong> São necessárias luzes para iluminar objetos em rotação, de forma que eles pareçam o mais realísticos possível na renderização final. Quatro tipos principais de luzes são utilizadas em software 3D: <em>1. Luzes Omni:</em> Como uma lâmpada, iluminando objetos em todas as direções.<br>
		<em>2. Luzes Spot:</em> Destacam uma porção de um objeto.<br>
		<em>3. Luzes Distantes:</em> Usadas para simular fontes distantes de luz, tais como a lua, que cria sombras paralelas.<br>
		<em>4. Luz Ambiente:</em> Presente em todos os lugares, em um espaço 3D. Usada para simular a luz refletida por outros objetos.
	</li>
	<li>
		<strong>Brilhos Especulares:</strong> Os reflexos brilhantes de luz vistos em objetos polidos.
	</li>
	<li>
		<strong>Renderização:</strong> O processo de um computador interpretar todos os dados de objetos e iluminação, e então criar uma imagem finalizada, vista pela perspectiva escolhida.
	</li>
	<li>
		<strong>Renderizacao "Chata" (Flat):</strong> Cria superfícies de polígonos com contornos nítidos, cada uma preenchida por uma só cor. Um meio muito rápido, porem bruto, de renderizar uma cena.
	</li>
	<li>
		<strong>Sombreado Gouraud:</strong> Une suavemente superfícies de objetos, tornando-os muito mais realísticos do que superfícies com renderizacao "chata". Muitos dos jogos e simuladores de vôo 3D em tempo real mais novos utilizam sombreado Gouraud (também conhecido com sombreado suave).
	</li>
	<li>
		<strong>Sombreado Phong:</strong> Uma forma de sombreado mais realística e complexa do que Gouraud, e que requer ainda mais poder de processamento.
	</li>
	<li>
		<strong>Ray Tracing (Traçado de Raios):</strong> O mais alto nível de qualidade de renderizacao disponível através da maioria de aplicativos de desenvolvimento 3D em computadores desktop. Permite que um raio seja refletido em superfícies e distorcido, exatamente como a luz real. O resultado obtido é muito realístico, com sobras extremamente precisas, reflexões e até mesmo refração.
	</li>
	<li>
		<strong>Transformações:</strong> Operações que alteram a posição, o tamanho ou a orientação de um objeto. Transformações comuns incluem Mover, Ampliar/Reduzir e Rotacionar.
	</li>
	<li>
		<strong>Deformações:</strong> Semelhante as transformações, mas alteram objetos de maneiras como Torcer, Entortar, Enviesar etc.
	</li>
	<li>
		<strong>Corte (Clipping):</strong> Eliminação de quaisquer polígonos fora do campo de visão do observador.
	</li>
	<li>
		<strong>Mapeamento de Textura:</strong> É o processo de desenvolver e designar atributos de material a um objeto, para proporcionar uma aparência realística. Antes de as texturas serem aplicadas, todos os objetos em um programa 3D possuem uma aparência padrão de plástico, seja cinza ou em algumas cores. O mapeamento dá ao objeto uma cor, acabamento, ou textura específicos. O segredo para criar cenas 3D convincentes é a prática - a prática que leva a imperfeição! Na realidade, os objetos possuem contornos brutos e imperfeições. O mapeamento de texturas permite este tipo de realismo. Pense em uma pedra: Uma parede composta por retângulos levemente irregulares, todos com superfícies chatas e cinzas e tão pouco convincente quanto uma parede feita de blocos perfeitos. Mas quando a textura de uma "pedra", com suas imperfeições, e adicionada aos objetos, os blocos anteriormente cinzas e simples adquirem a aparência de pedras verdadeiras. Os recursos mais importantes de mapeamento de texturas são correção de perspectiva, mapeamento MIP e filtragem bilinear.
	</li>
	<li>
		<strong>Textura:</strong> Uma imagem em bitmap, seja digitalizada ou pintada, que proporciona a um material qualidades realísticas.
	</li>
	<li>
		<strong>Bitmap (BMP):</strong> Um formato comum de imagens de 24 bits. Originalmente desenvolvido pela Microsoft como o formato nativo para ícones e imagens no ambiente Windows.
	</li>
	<li>
		<strong>JPG:</strong> Usado normalmente para armazenar imagens fotográficas - muito popular na Internet.
	</li>
	<li>
		<strong>GIF:</strong> Usado amplamente por programas comerciais e shareware - freqüentemente usado como formato padrão de imagens na Internet - também inclui um formato animado, utilizado na Internet em muitas animações gráficas simples.
	</li>
	<li>
		<strong>Correção de Perspectiva:</strong> Corrige as texturas, ajustando-as a perspectiva do observador. Os jogos, hoje em dia, tendem a utilizar triângulos relativamente grandes e empregar mapas de textura para dar a aparência de muito mais detalhe do que seria possível de outra forma. Apesar de a manutenção da perspectiva correta exigir poder de processamento, as abordagens alternativas resultam em distorção visível e texturas flutuantes, o que provoca perda de atenção na cena em doses brandas e enjôo em doses maiores!
	</li>
	<li>
		<strong>Mapeamento MIP:</strong> essa técnica melhora a qualidade de imagem de objetos 3D distantes. Mapas MIP são texturas múltiplas com diferentes resoluções, que representam a textura quando vista de distâncias variadas e são substituídas na textura conforme o ponto de vista aproxima-se (ou afasta-se) do objeto. esse recurso evita que objetos distantes tenham uma aparência caótica.
	</li>
	<li>
		<strong>Filtragem bilinear e trilinear:</strong> A filtragem bilinear é uma das maneiras mais simples de evitar um efeito "pixelated" (aparência de mosaico, ou em blocos) nas texturas, o que pode se tornar especialmente obvio quando o observador aproxima-se de um objeto com mapeamento de textura, tal como uma parede. esse recurso suaviza a textura, colorindo cada texel com uma media ponderada dos valores das cores dos quatro texels ao redor. A diferença da qualidade resultante é dramática, especialmente nos casos em que mapas de textura são ampliados.
	</li>
	<li>
		<strong>Anti-aliasing:</strong> Pelo fato de imagens digitais serem basicamente constituídas por uma matriz de pontos, as linhas que não sejam perfeitamente horizontais ou verticais podem criar objetos com linhas serrilhadas (com a aparência de uma "escada"). Essas imagens com os cantos quadrados são chamadas, freqüentemente, de "jaggies". O Anti-aliasing reduz esse efeito, preenchendo os pixels nas regiões "serrilhadas" como cores intermediárias entre a cor da linha e a cor de fundo, suavizando as bordas e tornando a linha mais fluida.
	</li>
	<li>
		<strong>Névoa (Fogging):</strong> Um dos efeitos atmosféricos mais comuns - permite que objetos próximos sejam vistos claramente, ao passo em que objetos distantes podem parecer esmaecidos. Por exemplo, os objetos podem parecer dissolver-se na névoa distante. esse efeito e não somente atmosférico, mas os programadores gostam dele porque pode-se reduzir a quantidade de detalhes contidos ao mesmo tempo em uma cena, reduzindo-se assim o peso sobre a CPU e o acelerador gráfico.
	</li>
	<li>
		<strong>Buffer Z:</strong> Um recurso relativamente novo e popular, serve para coordenar precisamente a superposição de objetos no espaço 3D. Usado freqüentemente para a criação de efeitos de névoa. Em vez de armazenar apenas a posição espacial de um pixel (x,y), o buffer z armazena também a profundidade. Um buffer contendo estes valores de profundidade é denominado buffer z.
	</li>
	<li>
		<strong>Combinação Alfa (Alpha Blending):</strong> Método de misturar texturas, permitindo muitos efeitos visuais, como reflexões ou transparência parcial. Os objetos podem adquirir um alto grau de transparência, tal como água límpida, ou uma translucência parcial, como explosões.
	</li>
</ul>

<p>
	 
</p>
]]></description><guid isPermaLink="false">34090</guid><pubDate>Fri, 03 Jul 1998 04:47:00 +0000</pubDate></item><item><title>Instalando e configurando v&#xE1;rios monitores no Windows 98</title><link>https://www.clubedohardware.com.br/artigos/video/instalando-e-configurando-v%C3%A1rios-monitores-no-windows-98-r33953/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_3wn3l43wn3l43wn3.jpg.6aeab178639a13fbe516673cbba55e50.jpg" /></p>
<p>
	O grande novo recurso do Windows 98 é o seu suporte a múltiplos monitores. Você pode instalar mais de um monitor de vídeo para trabalhar com uma grande área de trabalho, facilitando a edição de documentos e aumentando a produtividade (vide nossos testes).
</p>

<p>
	Para isso, você precisará instalar mais de uma placa de vídeo em seu micro. A primeira placa de vídeo (vídeo primário) pode ser qualquer placa de vídeo PCI. Já as placas de vídeo adicionais devem ser obrigatoriamente uma das placas listadas abaixo. Você pode ter até 9 placas e monitores de vídeo em um mesmo micro. Na tabela listamos o controlador (chipset) da placa de vídeo e exemplos de placas que usam tal controlador.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	 
</p>

<table>
	<tbody>
		<tr>
			<td>
				Chipsets de vídeo
			</td>
			<td>
				Placas de vídeo
			</td>
			<td>
				Driver
			</td>
		</tr>
		<tr>
			<td>
				ATI Mach 64 GX (GX, GXD, VT)
			</td>
			<td>
				ATI Graphics Pro Turbo PCIATI Graphics XpressionATI Win Turbo
			</td>
			<td>
				ATIM64.drv
			</td>
		</tr>
		<tr>
			<td>
				ATI Rage I, II e II+
			</td>
			<td>
				ATI All-in-wonderATI 3D Xpression+PC2TVATI 3D XpressionATI 3D Xpression+
			</td>
			<td>
				ATI_M64.drv
			</td>
		</tr>
		<tr>
			<td>
				ATI Rage Pro (AGP e PCI)
			</td>
			<td>
				ATI Xpert@Work, 4 e 8 MBATI Xpert@Play, 4 e 8 MBATI All-in-Wonder Pro
			</td>
			<td>
				ATIR3.drv
			</td>
		</tr>
		<tr>
			<td>
				S3 765 (Trio 64V+)
			</td>
			<td>
				Somente algumas versões funcionam. Se a placa for de uma das versões que funcionam, o Windows 98 a reconhece como Trio 64+ e instala o driver correspondente da Microsoft. Mas se a placa for de uma das versões que não funcionam, o Windows a reconhece como Trio 32/64.
			</td>
			<td>
				S3MM.drv
			</td>
		</tr>
		<tr>
			<td>
				S3 Trio64V2 (DX/GX)
			</td>
			<td>
				Diamond Stealth 64 2001STB PowerGraph 64V+STB MVP 64Miro TwinHead 22SDHercules Terminator 64/VideoNumber Nine 9FX Motion 331Number Nine 9FX Motion 772(?)California Graphics V2/DXVideologic GraphicsStar 410
			</td>
			<td>
				S3MM.drv
			</td>
		</tr>
		<tr>
			<td>
				Cirrus 5436
			</td>
			<td>
				Cirrus Alpine
			</td>
			<td>
				CIRRUSMM.drv
			</td>
		</tr>
		<tr>
			<td>
				Cirrus 5446
			</td>
			<td>
				STB Nitro 64V
			</td>
			<td>
				CIRRUSMM.drv
			</td>
		</tr>
		<tr>
			<td>
				S3 VIRGE (VIRGE (325), VIRGE VX(988),VIRGE DX (385), VIRGE GX(385))
			</td>
			<td>
				Diamond Stealth 3D 2000Diamond Stealth 3D 3000Diamond Stealth 3D 2000 ProNumber Nine 9FX Reality 332STB Nitro 3DSTB PowerGraph 3DSTB Velocity 3DSTB MVP/64STB MVP/64 3DSTB WorkStation (2 and 4 output)Miro Crystal VR4000
			</td>
			<td>
				S3V.drv
			</td>
		</tr>
		<tr>
			<td>
				ET6000
			</td>
			<td>
				Hercules Dynamite 128/VideoSTB Lightspeed 128
			</td>
			<td>
				ET6000.drv
			</td>
		</tr>
		<tr>
			<td>
				S3 Aurora
			</td>
			<td>
				Compaq Armada
			</td>
			<td>
				S3MM.drv
			</td>
		</tr>
		<tr>
			<td>
				Tridend 9685/9680/9682/9385/9382
			</td>
			<td>
				Jaton Video - 57P
			</td>
			<td>
				TRID_PCI.drv
			</td>
		</tr>
	</tbody>
</table>

<p>
	 
</p>

<p>
	A instalação é bem simples e não requer muitos detalhes enigmáticos. Basta você instalar as placas de vídeo no micro e conectar os monitores a elas. Ao ligar o micro, a imagem será gerada pela placa de vídeo primária. Durante o carregamento do sistema operacional, ele detectará as placas de vídeo adicionais, quando então instalará os drivers de vídeo. É importante que você instale os drivers que acompanham o próprio Windows 98 para que o suporte a múltiplos monitores funcione.
</p>

<p>
	Após a instalação dos drivers, o micro será reiniciado. Se tudo correr bem, durante o boot uma mensagem em tela texto será apresentada nos monitores adicionais, informando que o Windows 98 conseguiu inicializar corretamente as placas de vídeo adicionais.
</p>

<p>
	Após a carga do sistema operacional, antes de mais nada confira se os drivers foram instalados corretamente. Isto pode ser feito no Gerenciador de Dispositivos (ícone Sistema do Painel de Controle), como mostra a Figura 1. Não deverá haver nenhum símbolo de conflito ou mau funcionamento (ponto de exclamação amarelo). Caso isso ocorra, verifique se não há drivers incompatíveis sendo carregados no Config.sys ou Autoexec.bat (experimente temporariamente renomear estes arquivos) e se os drivers foram corretamente instalados (para reinstalar os drivers, basta clicar sobre o item problemático).
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="Instalando e configurando vários monitores no Windows 98" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/mm1.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: center;">
	<br>
	<strong>Figura 1: </strong>Duas placas de vídeo corretamente instaladas no Windows 98.
</p>

<p>
	O próximo passo é habilitar os demais monitores como parte da área de trabalho, bem como configurar a resolução e o número de cores. Isso pode ser feito através do ícone Vídeo do Painel de Controle ou então clicando com o botão direito sobre a área de trabalho, escolhendo a opção "Propriedades" do menu que aparecerá. Na guia "configurações", selecione cada monitor e habilite a caixa "Estender a área de trabalho do Windows a este monitor", como mostra a Figura 2. Você poderá selecionar cada placa de vídeo em "Exibir", configurando individualmente a resolução e número de cores que cada monitor utilizará.
</p>

<p>
	A esta altura todos os monitores já deverão fazer parte da área de trabalho e você poderá trabalhar com vários monitores de vídeo.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<img alt="Instalando e configurando vários monitores no Windows 98" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/mm2.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p style="text-align: center;">
	<br>
	<strong>Figura 2: </strong>Configurando os monitores de vídeo.
</p>
]]></description><guid isPermaLink="false">33953</guid><pubDate>Fri, 26 Jun 1998 12:58:00 +0000</pubDate></item><item><title>Tecnologias de mem&#xF3;ria de v&#xED;deo</title><link>https://www.clubedohardware.com.br/artigos/video/tecnologias-de-mem%C3%B3ria-de-v%C3%ADdeo-r33904/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_abs6nlabs6nlabs6.jpg.b6a53372b2e3f896b5b200e01b8259f2.jpg" /></p>
<p>
	Os usuários estão cada vez mais ávidos por velocidade e performance. Por este motivo, cada vez mais surgem modelos "turbinados" de placas de vídeo, fazendo com que o vídeo fique mais rápido. Para jogadores fanáticos e profissionais que utilizam de aplicativos gráficos como o Photoshop, a utilização de uma placa de vídeo de melhor qualidade é indispensável.
</p>

<p>
	As tecnologias das placas de vídeo "turbinadas" giram em torno basicamente do tipo de circuito utilizado na memória de vídeo. Para você que não sabe, a memória de vídeo fica na própria placa de vídeo e serve para armazenar o conteúdo da tela. Quanto mais rápida for a memória de vídeo, mais rápida será a apresentação de imagens na tela - o que é muito bom principalmente para animações gráficas, onde "quebras" de imagem não acontecerão.
</p>

<p>
	Veremos hoje as principais tecnologias de memória de vídeo.
</p>

<p>
	DRAM
</p>

<p>
	A memória de vídeo DRAM - utilizada pela maioria das placas de vídeo, como a Trident 9680 - é formada por circuitos de memória FPM, o mesmo tipo utilizado na memória RAM do micro. É o modelo que apresenta pior performance.
</p>

<p>
	EDO
</p>

<p>
	A memória de vídeo EDO é formada por circuitos de memória EDO, o mesmo tipo utilizado pela maioria das memórias RAM do micro. É cerca de 20% mais rápida que a memória de vídeo DRAM.
</p>

<p>
	SGRAM (Synchronous Graphic RAM)
</p>

<p>
	É uma memória de vídeo baseada na tecnologia SDRAM - utilizada na memória RAM de alguns micros -, porém otimizada para uso com vídeo.
</p>

<p>
	VRAM (Video RAM)
</p>

<p>
	Este tipo de memória de vídeo possui duas portas, permitindo que o processador consiga acessar a memória de vídeo ao mesmo tempo em que o controlador de vídeo também acessa. Normalmente isto não é possível: quando o processador precisa acessar a memória de vídeo, porém esta está sendo acessada pelo controlador de vídeo, o processador deverá esperar até que o acesso termine. Esta memória é 40% mais rápida que a DRAM. Atenção para não confundir o acrônimo "VRAM" com "memória de vídeo".
</p>

<p>
	WRAM (Windows RAM)
</p>

<p>
	É uma melhoria sobre a tecnologia VRAM: também possui duas portas, porém sua organização interna é diretamente compatível com o método utilizado pelo Windows para o armazenamento de imagens, fazendo aumentar o desempenho. Segundo o fabricante (Samsung), é 50 % mais rápida que a VRAM, além de ser mais barata.
</p>

<p>
	RDRAM (Rambus DRAM)
</p>

<p>
	Este tipo de memória de vídeo trabalha de uma maneira bastante peculiar. O processador de vídeo é ligado à memória de vídeo através de um barramento exclusivo, chamado Rambus (este barramento é transparente ao usuário), que transmite apenas 8 bits por vez, porém a uma velocidade muito alta (250 MHz, independente do clock do micro). Segundo o fabricante (Rambus, Inc.), esta memória é dez vezes mais rápida que a DRAM tradicional e de 3 a 5 vezes mais rápida que a memória VRAM.
</p>
]]></description><guid isPermaLink="false">33904</guid><pubDate>Fri, 19 Dec 1997 03:29:00 +0000</pubDate></item><item><title>Configurando monitor de v&#xED;deo no Windows 95</title><link>https://www.clubedohardware.com.br/artigos/video/configurando-monitor-de-v%C3%ADdeo-no-windows-95-r33899/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_o2fgqco2fgqco2fg.jpg.aa99232437684ce5877f5ca02fad30e5.jpg" /></p>
<p>
	Muito provavelmente você já deve saber que o micro não deve ficar mostrando a mesma imagem no monitor de vídeo, pois isto marca a tela. É por isto que devemos utilizar os recursos de proteção de tela (ou descanso de tela, como queira).
</p>

<p>
	Tanto no Windows 3.x quanto no Windows 95 você pode configurar a proteção de tela que quiser, como aqueles logotipos voadores do Windows que muita gente usa, ou mesmo instalar um produto comercial, como a proteção de tela da Pequena Sereia ou do Pato Donald. Tem gente por aí que tem até descanso de tela com mulher pelada...
</p>

<p>
	No caso do Windows 95 você pode habilitar um recurso muito interessante: fazer com que o monitor de vídeo seja desligado após um determinado tempo de ociosidade. Isto mesmo: desligado. Com isto você pode economizar energia elétrica. É claro que, após o monitor de vídeo ter sido desligado, basta apertar alguma tecla ou então mexer com o mouse para que ele "acorde" novamente. O processo é igual a quando há uma proteção de tela sendo executada.
</p>

<p>
	Para que isto seja possível, o seu monitor de vídeo deverá ser Plug and Play. Todos os monitores de vídeo hoje em dia o são, tanto que eles vêm com um selinho escrito "Designed for Windows 95" ou "Energy Star". Se você não tiver certeza, experimente. Você não irá estragar nada tentando, ok?
</p>

<p>
	Porém, para que tudo dê certo, você deverá configurar corretamente a placa de vídeo (conforme vimos na semana passada) e o monitor de vídeo no Windows 95. Para fazer isto, basta ir no ícone "Vídeo" do Painel de Controle ou então clicar com o botão direito sobre a área de trabalho, escolhendo a opção "Propriedades". Na guia "Configurações", clique na caixa "Alterar Tipo de Monitor".
</p>

<p style="text-align: center;">
	 
</p>

<p>
	<img alt="Configurando monitor de vídeo no Windows 95" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/monitor1.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 1:</strong> Configurando o monitor no Windows 95.
</p>

<p>
	 
</p>

<p>
	Repare na figura que, enquanto o driver de vídeo está corretamente configurado ("Tipo de Adaptador"), o monitor não, pois aparece como "Monitor Desconhecido". Neste caso, devemos clicar na caixa "Alterar", configurando em seguida a marca e o modelo de monitor que há instalado no micro. Se na lista do Windows 95 não tiver o seu modelo de monitor, escolha a opção "Monitor Plug and Play (VESA DDC)" em "tipos padrão de monitores". Não se esqueça de que a caixa "Monitor concordante com Energy Star" deverá ficar habilitada, pois ela indica ao Windows 95 que o monitor é Plug and Play.
</p>

<p>
	A seguir, na guia "Proteção de tela" você poderá configurar o desligamento do monitor (ahá! Esta tela você já conhecia: é aqui que configuramos a proteção de tela). No campo inferior da janela, em "Recursos de economia de energia do monitor", você deverá habilitar a caixa "Desligar Monitor" e configurar o tempo de espera. Da maneira que o micro da figura está configurado, ele irá apresentar a proteção de tela após 2 minutos de ociosidade e desligará o monitor após 10 minutos de ociosidade (ou seja, 8 minutos depois que a proteção de tela for ativada).
</p>

<p style="text-align: center;">
	 
</p>

<p>
	<img alt="Configurando monitor de vídeo no Windows 95" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/monitor2.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 2:</strong> Configurando o desligamento automático do monitor de vídeo.
</p>

<p>
	 
</p>
]]></description><guid isPermaLink="false">33899</guid><pubDate>Fri, 07 Nov 1997 02:54:00 +0000</pubDate></item><item><title>Configurando o v&#xED;deo no Windows 95</title><link>https://www.clubedohardware.com.br/artigos/video/configurando-o-v%C3%ADdeo-no-windows-95-r33738/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_2nni6m2nni6m2nni.jpg.b356c90acd1aff830f43487397036594.jpg" /></p>
<p>
	Vimos na semana passada que, para um perfeito desempenho, o vídeo do micro deverá estar corretamente configurado. Dando prosseguimento ao assunto, hoje iremos ver como configurar o vídeo de micros com Windows 95.
</p>

<p>
	O primeiro passo a ser dado é verificar qual driver de vídeo está atualmente instalado em seu micro. Para isto, utilize o ícone "Sistema" do Painel de Controle. O Painel de Controle pode ser chamado de duas formas: através da Barra "Iniciar" em "Configurações" ou através do ícone "Meu Computador". No ícone "Sistema" há uma guia chamada "Gerenciador de Dispositivos". Devemos verificar, através desta guia, o driver atualmente instalado, no item "Adaptadores de Vídeo". Deverá constar a marca e modelo da sua interface de vídeo.
</p>

<p align="center">
	<img alt="Configurando o vídeo no Windows 95" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/video4.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 1: </strong>Driver de vídeo corretamente instalado: Repare que há especificado o nome e modelo da interface de vídeo.
</p>

<p>
	 
</p>

<p>
	Caso o driver de vídeo instalado seja um genérico que não especifique exatamente o modelo de sua interface de vídeo - como "VGA", "Super VGA" ou "Trident Super VGA" - você deverá instalar o driver correto da interface de vídeo.
</p>

<p align="center">
	<img alt="Configurando o vídeo no Windows 95" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/add10.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 2: </strong>Driver de vídeo genérico: Repare que não há especificado o modelo da interface de vídeo ("número"). Neste caso, deveremos instalar o driver que está no disquete que acompanha a interface.
</p>

<p>
	 
</p>

<p>
	Para isto, você deverá utilizar o Assistente para Adicionar Novo Hardware, ícone presente no Painel de Controle. Você deverá responder com "Não" à pergunta "Deseja que o Windows procure seu novo hardware?". Será apresentada uma lista de periféricos, na qual você deverá escolher a opção "Adaptadores de Vídeo". Em seguida, clique na caixa "Com Disco". Você deverá inserir o disquete que acompanha a interface de vídeo na unidade. Quando solicitado, insira na unidade o disquete da interface de vídeo. Escolha o driver que julgar mais apropriado da lista que aparecerá.
</p>

<p>
	<strong>Importante:</strong> Na maioria das vezes, os drivers de vídeo estão em um diretório no disquete, como "A:WIN95". Experimente, portanto, alterar o diretório caso o Windows 95 reporte que não encontrou nenhum driver no disquete.
</p>

<p>
	<strong>Macete:</strong> Caso você não possua o disquete da interface de vídeo, você poderá utilizar o driver genérico "Super VGA". Neste caso, porém, o número máximo de cores que você poderá utilizar será de 256.
</p>

<p>
	<strong>Atenção:</strong> Você acabou de ver a importância do disquete que acompanha a interface de vídeo. Por esse motivo, exija sempre o disquete da interface de vídeo do vendedor do seu micro.
</p>

<p>
	Após instalar o driver de vídeo correto, você deverá configurar o número de cores utilizado pelo vídeo. Isto pode ser feito de duas formas: escolhendo o ícone "Vídeo" do Painel de Controle ou clicando com o botão direito do mouse sobre a área de trabalho e escolhendo a opção "Propriedades" do menu que aparecerá. Em ambos os casos, escolha a guia "Configurações".
</p>

<p>
	Na guia "Configurações" você deverá aumentar o número de cores simultâneas no campo "Paleta de Cores". Você deverá configurar o seu vídeo a trabalhar, no mínimo, com 256 cores. Quanto mais cores, melhor.
</p>

<p align="center">
	<img alt="Configurando o vídeo no Windows 95" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/95vid2.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 3:</strong> Configure o vídeo de seu Windows 95 com, no mínimo 256 cores. Quanto mais cores, melhor.
</p>

<p>
	 
</p>
]]></description><guid isPermaLink="false">33738</guid><pubDate>Fri, 15 Nov 1996 12:00:00 +0000</pubDate></item><item><title>Configurando o v&#xED;deo no Windows 3.x</title><link>https://www.clubedohardware.com.br/artigos/video/configurando-o-v%C3%ADdeo-no-windows-3x-r33737/</link><description><![CDATA[
<p><img src="https://www.clubedohardware.com.br/uploads/cms/monthly_2025_07/Gemini_Generated_Image_n0upitn0upitn0up.jpg.1c1fc7cee08d36a652687aff4ae1015a.jpg" /></p>
<p>
	Um dos grandes problemas encontrados na maioria dos micros é a sua configuração incorreta. Muitos usuários compram micros através de "montadores independentes" ou lojas que executam o serviço de montar micros "personalizados". Infelizmente, a maioria dos "profissionais" deixa detalhes de configuração para que o próprio usuário execute. Se o usuário for iniciante, o micro pode ficar durante séculos configurado errado, sendo subutilizado.
</p>

<p>
	Uma das configurações mais importantes do micro é a configuração de seu vídeo, em especial em relação ao número de cores simultâneas utilizadas. Atualmente devemos trabalhar com, no mínimo, 256 cores simultâneas. Quanto mais cores, melhor. Quando uma imagem com muitas cores é apresentada em um vídeo configurado a utilizar um baixo número de cores simultâneas, as imagens aparecem borradas, desfocadas e com cores trocadas.
</p>

<p>
	Para configurar o vídeo você necessitará do disquete que acompanha a interface de vídeo. Toda interface de vídeo é vendida com este disquete e nele estão os drivers de vídeo necessários. Cada modelo de interface de vídeo necessita de drivers específicos. A maneira com que o vídeo é configurado depende do sistema operacional utilizado. Hoje iremos ver como configurar o vídeo no Windows 3.x.
</p>

<p>
	O primeiro passo é descobrir se o vídeo está ou não configurado corretamente. Para isto, entre no ícone "Config do Windows" presente no grupo "Principal". Verifique a linha "Vídeo". Se nesta linha estiver a opção "VGA" ou "640x480x16c", será necessário configurar o vídeo. Caso contrário, significa que o vídeo já está corretamente configurado.
</p>

<p align="center">
	<img alt="Configurando o vídeo no Windows 3.x" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/vga.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 1:</strong> Vídeo configurado para apenas 16 cores simultâneas. Neste caso a correta configuração do vídeo é imprescindível.
</p>

<p>
	 
</p>

<p>
	Você deverá instalar os drivers de vídeo que estão no disquete da interface de vídeo. Há várias maneiras de se fazer isto. A mais usual é executando o programa instalador que existe no disquete, da maneira tradicional: utilizando o comando "Executar" do menu "Arquivo" do Gerenciador de Programas. Após ter executado o programa instalador, um grupo de programas de configuração da interface de vídeo será criado. Entre em tal grupo e execute o programa de configuração.
</p>

<p align="center">
	<img alt="Configurando o vídeo no Windows 3.x" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/trident.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 2:</strong> Programa de configuração do vídeo que acompanha a interface de vídeo Trident 9440.
</p>

<p>
	 
</p>

<p>
	Você deverá configurar o vídeo a trabalhar, no mínimo, com 256 cores. Quanto mais cores, melhor.
</p>

<p>
	Caso não exista nenhum programa instalador no disquete da sua interface de vídeo, você deverá instalar os drivers de vídeo manualmente, através do Config do Windows. Escolha a opção "Alterar Configurações do Sistema" presente no menu "Opções". Em "Vídeo", escolha a opção "Outro vídeo (requer discos de OEM)".
</p>

<p align="center">
	<img alt="Configurando o vídeo no Windows 3.x" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/wsetup4.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 3:</strong> Instalando manualmente o driver de vídeo.
</p>

<p>
	 
</p>

<p>
	Quando solicitado, insira na unidade o disquete da interface de vídeo. Escolha o driver que julgar mais apropriado da lista que aparecerá.
</p>

<p>
	<strong>Importante:</strong> Na maioria das vezes, os drivers de vídeo estão em um diretório no disquete, como "A:WINDOWS", "A:WIN" ou "A:WIN3X". Experimente, portanto, alterar o diretório caso o Windows reporte que não encontrou nenhum driver no disquete.
</p>

<p align="center">
	<img alt="Configurando o vídeo no Windows 3.x" border="0" style="height: auto;" data-src="https://www.clubedohardware.com.br/uploads/cms/oldcmsimages/wsetup6.gif" src="https://www.clubedohardware.com.br/applications/core/interface/js/spacer.png">
</p>

<p>
	<strong>Figura 4:</strong> Escolhendo manualmente o driver de vídeo do Windows.
</p>

<p>
	 
</p>

<p>
	Você deverá escolher, no mínimo, o driver "640x480x256c". Quanto mais cores, melhor.
</p>

<p>
	<strong>Atenção:</strong> Você acabou de ver a importância do disquete que acompanha a interface de vídeo. Por esse motivo, exija sempre o disquete da interface de vídeo do vendedor do seu micro.
</p>

<p>
	<strong>Macete:</strong> Caso você não possua o disquete da interface de vídeo, configure o vídeo com o driver "Super VGA 640 x 480, 256 cores" que acompanha o próprio Windows. Somente o Windows 3.11 possui este driver.
</p>
]]></description><guid isPermaLink="false">33737</guid><pubDate>Fri, 08 Nov 1996 11:45:00 +0000</pubDate></item></channel></rss>
