Ir ao conteúdo

7800GT - Tópico Central


_RAZIEL_

Posts recomendados

Postado

É isso, estive analisando os preços e estou pensando em pegar uma 7800GT da E-VGA. Mas depois fiquei pensando que com o mesmo valor eu consigo ligar duas 6600GT em SLI... e aí, qual será que fica melhor???

Postado

Sem duvida 7800GT, menos espaço ocupado, menos consumo eletrico, menos riscos de incompatibilidades e problemas com drivers, chances de no futuro você poder fazer um SLI de 7800GT, tecnologia mais recente, etc...

Agora referente a desempenho eu não sei mas se mesmo 2 6600 em SLI for melhor ainda recomendo uma 7800GT por essas vantagens acima.

  • Membro VIP
Postado

Se não me engano um SLI de 6600gt é equivalente a uma 6800GT ou uma 6800ULTRA

sendo que uma 7800GT é mais rápida que a 6800ULTRA,

então sendo esta a melhor performance diante das 2 citadas...

phoenix

Postado

Eu também já tive essa duvida... depois de muito pesquisar vi q a 7800GT tem desempenho melhor e compensa mais.

Só fico na duvida agora, se vale a pena pegar uma 7800GTX ... não sei se a diferença de preço compensa...

Postado

Isso mesmo que os leks disseram a cima. É muito mais vantagem e desempenho. O Anakin citou "coisas" muito importantes alem de um up futuro muito melhor.

phoenix_maximus Postado em Hoje, 08:31

  Se não me engano um SLI de 6600gt é equivalente a uma 6800GT ou uma 6800ULTRA

Isso mesmo a 6600gt é equivalente, mas apenas a 6800ultra que muitas vezes, ainda que single "bate" a 6600gt em sli. Assim a 7800gt é muito superior a 6600gt em sli e a 6800 ultra.

Postado

A minha EVGA 6600GT veio com memos de 1,6 ns e consegui elevar de 1000 até 1150 Mhz estável e o clock consegui subir de 500 para 600 sem problemas, muito boa realmente. Trabalho com ela em clock normal de 500/1000 mas confesso ter ficado admirado com o OC que ela suportaou sem problemas> :D

Postado

AHhAhAHhAhA... que arrebenta... investindo em OC também...

Agora sim...

Mais sei lá =P

não aumenta tanto assim o desempenho... ela é melhor para beachmarks do que pra jogos...

Sem conta que refrigirada a agua ela devia ter uns clocks um pouco mais altos... mais jaja eles lançam uma refrigerada a agua mais rapidinha...

porque com certeza isso agora vai virar moda...

=D

Postado
Postado Originalmente por Lukitas@18 de outubro de 2005, 10:23

AHhAhAHhAhA... que arrebenta... investindo em OC também...

Agora sim...

Mais sei lá =P

não aumenta tanto assim o desempenho... ela é melhor para beachmarks do que pra jogos...

Sem conta que refrigirada a agua ela devia ter uns clocks um pouco mais altos... mais jaja eles lançam uma refrigerada a agua mais rapidinha...

porque com certeza isso agora vai virar moda...

=D

Moda eu acho bem difícil de viar, já viu o alto custo que é para ter esse tipo de refrigeração? Para processadores já existe há um bom tempo e são bem poucos que dispõem de uns R$ 1.000,00 para colocar esse tipo de equipamento. Abraços.

Postado

Alguns dias atrás, a ATi acusou a sua maior rival, nVidia, de não ter uma placa 3D 100% compatível com os famosos Shader Models 3.0 e até mostrou uns slides mostrando. Tais slides tiveram uma credibilidade extra, quando foram endossadas por um site bem conceituado. O único problema é que os drivers em questão mencionados, eram antigos, de 16 meses desde seu lançamento e que a Geforce 6800 Ultra não é nenhum 'bicho de sete cabeças'.

Então, o pessoal do The Inquirer resolveu tirar a 'prova dos noves' e pegou uma GeForce 7800 GTX e uma 6800 para análise. Fora feito o download da versão do driver informada pela ATi, o 66.81, os WHQL 18.01 e o novo e ainda beta 81.85.

Em seguida, baixaram o programa Display Compatibility Test Kit (DCT), versão 5.3, que nada mais é que um programa usado pela Microsoft para testar as placas para a certificação WHQL e para os programas dos Windows.

Para evitar reclamações, fora testado cada driver de forma limpa, ou seja: formatado a máquina e só então instalado o driver, e em seguida o DCT 5.3. O teste durou 36 horas cada, e daí a razão de só agora está sendo divulgado.

Em todos os drivers analisados, as placas da nVidia simplesmente 'falharam' no teste de compatibilidade com o Pixel Shader 3.0 e o mais incrível que pareça: houve falhas nas versões 1.2 e 1.3 e a 1.4 passou sem problemas!

Embora ao que realmente pareça as alegações da ATi se confirmem, o pessoal do time vermelho não tem muito o que comemorar, pois como é sabido por todos, as novas Radeons X1k não têm suporte 100% nos Vertex Shaders 3.0 (Vertex Texturing).

Mesmo com a alternativa apontada pela ATi chamada R2VB (Render To Verex Buffer), que aparentemente não traz perda alguma em performance, o 'Vertex Texturing' é uma parte do DirectX 9.0c para rodar 'full compatibility'.

O ponto interessante é que o Xenos, processador gráfico do Xbox 360, não tem a tal falta de suporte ao 'Vertex Texturing'.

Sendo assim, nem a ATi, tampouco a nVidia podem se vangloriar afirmando que tem solução 3D 100% compatível com as especificações de Shaders Models 3.0.

Fonte: The Inquirer.

- Tirado do Adrenaline -

É, nada é perfeito. :bored:

Postado

é aquela velha historia: O sujo falando do mal-lavado.

Se uma X1600XT ( q tem suporte a shader 3.0 ) tem desempenho pior q uma X800GT ( q tem só shader 2.0 ) em varios jogos nos testes do Clube do Hardware, q moral ela tem p/ dizer q a concorrente é pior :naonao: ???!!!!

A informaçao q a ATI levantou não piorou o custoxbeneficio de placas como 6600GT e 6800 pura 128 megas ( 800 R$ no Brasil e ou 240 US$ na A1).

Como uma X1600XT de 256 megas ( 249 US$ de preço sugerido ) ser pior q uma VGA antiga como uma X800XT de 256 megas ( 180 US$ de preço sugerido )???!!!! Antes q alguem apele para o velho argumento de "falta de drives maduros" , se a empresa não desenvolveu bem os drives, não lance a VGA comercialmente!!! :angry:

Gastar 249 US$ num produto novo e lançado recentemente e ter um produto antigo de 180 US$ q tem uma desempenho melhor, não importa a area de negocios ou o tipo de produto, é algo simplesmente cretino e forçar a barra p/ recuperar um terreno perdido p/ a concorrencia.

Postado

A X1600XT atingiu resultados piores por ter barramento de memória de 128 bits ao invés dos 256 bits das X800, isso acaba influenciando em altas resoluções, onde a banda de memória faz mais diferença, e em recursos que requerem uso mais intenso da banda de memória, como Antialiasing e Anisotropic.

Quanto ao assunto do tópico, a questão levantada não é se é melhor ou pior. Nem sempre os drivers de produtos recém lançados aderem às especificações. Quando a Radeon 9700 foi lançada, os primeiros drivers sequer ofereciam suporte ao SM2.0, que só veio muito tempo depois com o Catalyst 3.0. o mesmo pode acontecer com a Geforce 7800.

Postado

Bom essa noticia é pra mostrar pros apressadinhos em atirar pedras e nem sabem o que falam. Um exemplo foi o caso postado aqui das novas Radeons não terem 100% sm3.0 deacordo com a falta de uma feature do SM3.0

Nada disso é novidade, como eu já disse a tempos atrás nenhuma é santa e a prova está aí, quem acredita em marketing da propria empresa que fabrica a placa só pode ser ingênuo, ambas rivais abusam de querer fazer a seu modo as instruções sm3.0, DX, OPGL, etc, sendo que está tudo especificado como deve ser.

Mas nada disso é de se preocupar, os desenvolvedores não ligam se o SM3.0 está completo, isso pouco importa. Eles atuarão em cima do que está disponivel em ambas as placas concorrentes, uns ajustes aqui e ali existirão por meio de paths ou drivers.

É claro que as empresas envolvidas usarão isso em seu favor pra derrubar a outra mas não confiem muito em noticias divulgadas por estas, pesquisem em sites confiaveis.

Antes que venha a galera traumatizada por conspirações, a Microsoft não alterou nada no DX9c pra prejudicar a nVidia no sm3.0 e nem foi ela a primeira a achar esse "problema" nas GFs. :goff:

  • mês depois...
Postado

nossa... mata essa aí agora hein... q placa mais força bruta... em SLI ficou d+

EDIT: isso aí foi para descontar a falta de desempenho da ASUS 7800GT simples, vi um review q a Simples 7800GT da ASUS tinha um desempenho inferior as demais 7800GT's

Postado

Houve um ganho de 13% em cima da single 7800GT SLI. Achei pouco. Esperava mais das 4 GPUs trabalhando juntas. será q foi gargalo do FX57?

Mad666

  • Membro VIP
Postado
Postado Originalmente por mad666@14 de dezembro de 2005, 19:08

Houve um ganho de 13% em cima da single 7800GT SLI. Achei pouco. Esperava mais das 4 GPUs trabalhando juntas. será q foi gargalo do FX57?

Mad666

provavelmente deve ter sido isso. vamos esperar sair o FX-60 e testar hehehehe

Postado
Postado Originalmente por mad666@14 de dezembro de 2005, 20:08

Houve um ganho de 13% em cima da single 7800GT SLI. Achei pouco. Esperava mais das 4 GPUs trabalhando juntas. será q foi gargalo do FX57?

Mad666

éo mais provavel.. acho q para fazer esses teste o minimo q deveria ser usado era um FX57 rodando a uns 3.2 ou 3.4GHz com um Water COoler... é só um teste... e outra coisa q pode tar ocorrendo é tar reconhecendo somente 3CHIPS... vejam na foto de como o windows reconheceu as placas... só tem 3 GF7800GT la... outra causa da perda de desempenho é o não uso da Bridge do SLI q em casos chega a causar perda de 15% de desempenho

  • mês depois...

Arquivado

Este tópico foi arquivado e está fechado para novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

LANÇAMENTO!

eletronica2025-popup.jpg


CLIQUE AQUI E BAIXE AGORA MESMO!