Ir ao conteúdo
  • Cadastre-se

Geforce 9500GT - Tópico Oficial


Posts recomendados

Essa GTX260 vale a pena o investimento em termos de custo e benefício?

Pagou quanto?

Se bem que num sistema como o meu nem vingaria, não?

Bom, abraço.

Sugiro a você esperar pela Radeon HD5770, ela tem o mesmo desemepenho da GTX 260, só que consome menos, tem suporte total para DirectX 11 e o melhor de tudo: é mais barata.

Link para o comentário
Compartilhar em outros sites

Brahx

Vinga sim., nada que uma fritada no processador não resolva.

.TK

Te garanto que o que paguei na minha GTX CAVALA foi mais barato do que vai custar essa HD5770 daqui a 1 ano, então que se dane DX11. afinal de contas até hoje DX10 não pegou, imagina esse aí.

E olha que tem nota fiscal e garantia de 1 ano. Se quiser amarrar uma aposta topo de boa.

Link para o comentário
Compartilhar em outros sites

Brahx

Vinga sim., nada que uma fritada no processador não resolva.

.TK

Te garanto que o que paguei na minha GTX CAVALA foi mais barato do que vai custar essa HD5770 daqui a 1 ano, então que se dane DX11. afinal de contas até hoje DX10 não pegou, imagina esse aí.

E olha que tem nota fiscal e garantia de 1 ano. Se quiser amarrar uma aposta topo de boa.

Aqui no brasil onde a inflação chega a níveis inacreditaveis e pagamos horrores de impostos pode até ser. Mas nos EUA e no resto mundo a HD5770 já é comprovadamente mais barata que qualquer modelo GTX260.

DX10 não pegou por que é pouco inovador. DX11 possui uma série de otimizações que tornam os games de fato muito mais realistas.

A longo prazo a HD5770 é muito melhor que a GTX260 isso você não tem como negar.

Link para o comentário
Compartilhar em outros sites

Aqui no brasil onde a inflação chega a níveis inacreditaveis e pagamos horrores de impostos pode até ser. Mas nos EUA e no resto mundo a HD5770 já é comprovadamente mais barata que qualquer modelo GTX260.

DX10 não pegou por que é pouco inovador. DX11 possui uma série de otimizações que tornam os games de fato muito mais realistas.

A longo prazo a HD5770 é muito melhor que a GTX260 isso você não tem como negar.

A longo prazo as duas sao ruins, daqui 2 anos elas vão ser como uma 7600GS é hj, principalmente porque vão usar GPU/CPU juntos e tal... A ATI sempre lança as placas com o DX mais avançado, mas ngn programa nada de especial pra elas, fica na mesmo. O proximo DX vai vir junto com o processamento de GPU com CPU, esse sim vai trazer muitas mudanças, enquanto isso...

Mas to feliz com minha 9500GT

Link para o comentário
Compartilhar em outros sites

CPU+GPU vai ser algo útil para notebooks ou mesmo desktops, mas tenha certeza que ele não vai ser capaz de rodar jogos em altíssimas resoluções com filtros, portanto as placas de vídeo atuais (off-board) continuarão existindo enquanto houver jogos demandando por mais e mais poder de processamento grafico.

O DX10 de fato não foi muito inovador, porém as novas placas da ATI contam com o Eyefinity que com toda a certeza é bem inovador para quem usa multiplos monitores. Todavia, é impossível dizer agora se o DirectX11 vai ser algo inovador, pois quase não existem jogos que fazem uso dele até o momento.

De qualquer forma, toda nova tecnologia é bem vinda, vide DirectX 10.1.

Link para o comentário
Compartilhar em outros sites

Eis a configuração do meu computador

PROC. AM3 PHENOM II X4 819 2.6GHZ 4X512KB L3 6MB

ASUS M4N78 SE

PLACA DE VIDEO 9 9500 GT 1GB DDR2 128BIT

4 GB DE MEMORIA

WINDOWS VISTA 32 BITS

comprei este computador ontem, e nao consigo jogar nem um jogo, instalei need for speed underground 2 e passa uns 10 segundos depois que entra no jogo, ainda no menu, ele trava ai tenho que reiniciar o computador, o mesmo acontece com o jogo Asda Story, antes de conseguir fazer o login na minha acc o pc trava e tenho que reiniciar também...

ja reinstalei o driver da placa de video, e o directx pra ter certeza que nao é problema do driver da placa...

alguem sabe o que pode ta acontecendo??

ajuda pls...

ja fiz teste de temperatura das placas e esta todo normal, a marca e a potencia da fonte nao sei informar

Link para o comentário
Compartilhar em outros sites

Também pode ser alimentação(fonte), e faça o que o raimarlunardi disse.

Será?Será?

Bom,

De Carlos Morimoto

"Do ponto de vista dos desenvolvedores, o DX11 será um superset das instruções disponíveis no DX10, que simplesmente inclui novas funções, sem abandonar as funções disponíveis anteriormente. Isso permitirá uma migração mais suave, já que ao deixar de usar as novas funções é possível escrever código compatível com as duas versões, assegurando a compatibilidade com a grande base de placas compatíveis com o DirectX10."

Esse tal de Eyefinity é muito ridículo, só se o candango precisar mesmo.

Coisa tosca, parece o telão do Faustão de 15 anos atrás.

Trash.

22625045.jpgô Loco Meu!!

Pra alguém como você que nunca irá usar mais de 1 monitor pode parecer ridiculo, mas pra pessoas que trabalham com CAD, CAM, Corel, renderização entre outros, essa função pode ser muito decisiva na hora da compra de uma placa de vídeo.

Realmente é uma função ridicula, mas que nenhuma GTX2xx possui ;)

E cá entre nós, a ATI não implementaria o Eyefinity se soubesse que ninguém iria usar, portanto é só mais um ponto positivo para a placa.

A HD5770 tem praticamente o mesmo desempenho da GTX 260 Matrix (a versão mais rápida dentre as GTX260 com overclock e 216 cores), consome menos, é mais atual, necessita de apenas um conector PCI-E, processo de fabricação em 40nm, e é mais barata. Neste caso a única razão que vejo para alguém optar pela GTX260 é se esta pessoa pretende fazer Hybrid SLI com a placa-mãe.

Você pode argumentar o quanto quiser, mas que a HD5770 tem custo/benefício superior à GTX260 isso é fato.

Link para o comentário
Compartilhar em outros sites

Tá bom .TK, chega de discutir. Tá muito off.

Só para seu governo tenho ligado aqui um de 26" e outro de 17", quase 50% do tempo, mas apenas como extensão do desktop

Mas que é ridículo é, até agora só vi esse troço em demonstração de jogos, nada realmente produtivo, tô até imaginando os frangos pagarem uma fortuna só para dizerem que tem.

Ponto positivo sim, mas para as contas da ATI.

22625045.jpgÔ Loco Meu!!F~boy.

Quem realmente precisa desse suporte corre é para as Nvidia Quadro, FirePro ou MATROX(edição de video).

Falou.

Link para o comentário
Compartilhar em outros sites

Vei, não sou fan boy, mas concordo com o .Tk

O EyeFinity vai ser uma ferramenta perfeita, principalmente para quem trabalha com edição de imagens, e gamers, que investem pesado.

Agora, achar que não vão usar o DirectX 11, muito difícil.Só se as empresas de jogos (Valve, EA, Ubisoft,...) não quiserem ganhar $, pois o DX 11 vai aumentar a briga, e ninguém obviamente, quer sair perdendo.

Link para o comentário
Compartilhar em outros sites

Pra alguém como você que nunca irá usar mais de 1 monitor pode parecer ridiculo, mas pra pessoas que trabalham com CAD, CAM, Corel, renderização entre outros, essa função pode ser muito decisiva na hora.

Nao quero estender a discução(que na minha opinião é muito saudavel pois cada um está colocando seu lado e quem ganha com isso somos nós, os usuarios do forum que podem ver os argumentos e assim formar uma opinião, por isso eu acho muito valido tal situação).

Bom, a tecnologia Eyefinity é valida sim no caso citado pelo .Tk na minha situação:

Uso um pc médio para trabalhar com Corel Draw e Photoshop em uma grafica, no momento eu uso uma 9600gt nesse pc com um monitor de 22'.

Ja está previsto a troca para um monitor maior para aumento de qualidade da produtividade dos trabalhos.

Se eu tive-se uma placa com tal tecnologia, eu poderia ao invéz de comprar um monitor de 32", comprar outro de 22" que ficaria maior.

O mais intereçante dessa tecnologia é que eu espero que nao precise gastar exageros para poder ter, pois os custo de uma NVIDIA quadro sao altos e o poder de processamento na minha situação seria desnecessario. Intao eu poderia comprar uma placa "fraquinha" que tive-se Eyefinity que eu iria pagar "barato" e assim ficar apenas com o que preciso.

Espero que eu tenha ficado claro a minha situação xD

Abraço para todo mundo

Link para o comentário
Compartilhar em outros sites

Dragutinovic

Só estou aloprando, botando pilha mesmo, claro que a tecnologia é bem vinda, mas o pessoal coloca com se fosse a cereja do bolo.

E no seu caso dá sim para ligar outro monitor.

Falou.

Concordo contigo, nao é a cereja do bolo, ou seja: Nao é somente esse o motivo de fazer um upgrade nesse caso. Mais acho que você concorda que é um "extra" muito bem vindo em algumas cituações.

Off:

Ja ia me esquecendo, independente se fez uma otima compra ou nao: Parabens pela nova placa, amo essa sensação de novo xD

Abraços

Link para o comentário
Compartilhar em outros sites

Tá bom .TK, chega de discutir. Tá muito off.

Só para seu governo tenho ligado aqui um de 26" e outro de 17", quase 50% do tempo, mas apenas como extensão do desktop

Mas que é ridículo é, até agora só vi esse troço em demonstração de jogos, nada realmente produtivo, tô até imaginando os frangos pagarem uma fortuna só para dizerem que tem.

Ponto positivo sim, mas para as contas da ATI.

22625045.jpgÔ Loco Meu!!F~boy.

Quem realmente precisa desse suporte corre é para as Nvidia Quadro, FirePro ou MATROX(edição de video).

Falou.

Sim, já estava offtopic, e agora está mais ainda já que você decidiu colocar as nVidia Quadro e ATI FirePro no meio.

Me explique uma coisa então, como você julga que o Eyefinity é "ridiculo" sendo que tudo que você viu dele foi uma desmontração em jogos?

Essa tecnologia ainda é muito nova, aos poucos as pessoas vão discubrir novas utilidades pra ela.

Essa situação é identica a quando a nVidia implementou o PhysX nas suas placas de vídeo logo quando adquiriu a Ageia, muitos disseram que essa nova tecnologia não mudaria nada e só aumentaria o custo das placas de vídeo. Comentários pré-maturos eu creio, pois na época os jogos mal tinham otimização para tal função, e a longo prazo esta mesma tecnologia se tornou muito útil para muitos que estavam procurando por boas placas de vídeo.

Sim, quanto as placas gráficas Quadro e FirePro, elas tem essa mesma função de "multi-monitor" e finalidades específicas como CAD e DCC, todavia o custo dessas placas aqui no Brasil é muito alto e como nem todas as pessoas dispoem de ~ R$ 2000,00 para compra-las a ATI certamente implementou esta tecnologia em placas gráficas mais baratas para que estivessem ao alcance de todos.

Ex.: Uma pessoa que trabalhe com edição de fotos, imagens ou videos e necessita de uma área de trabalho maior, não precisará adquirir placas gráficas especificas que tem custos altíssimos. É para essas pessoas que esta função existe, tal como também para os entusiastas que simplesmente não querem comprar um monitor maior e ter que vender o antigo.

Como eu já havia dito, dizer se uma tecnologia é realmente útil logo após ela ter sido implementada é pré-maturo e ainda mais ridiculo que compara-la com o telão do "programa do faustão" e deixar de mencionar que ela só foi implementada por que não existem outras placas gráficas nesta faixa de preço que ofereçam esta função.

Dragutinovic

Só estou aloprando, botando pilha mesmo, claro que a tecnologia é bem vinda, mas o pessoal coloca com se fosse a cereja do bolo.

E no seu caso dá sim para ligar outro monitor.

Falou.

Para você certamente nunca será a cereja do bolo, mas como eu mencionei acima, para pessoas que não dispoem de recursos e necessitam de uma área de trabalho maior, certamente adquirir placas com o Eyefinity sairá mais barato que comprar monitores com resoluções acima de 26''.

A solução não existia, agora existe, e certamente irá atender a um determinado mercado que faça uso dela.

Cabe a cada um julgar a utilidade do Eyefinity, mas generalizar é hipocrisia.

Link para o comentário
Compartilhar em outros sites

estou usando o EVGAPrecision como indicado pelo amigo ali .. no meu outro post

.. mas percebi que minha placa fica com 60° ~ a 70° mesmo so mexendo na area de trabalho ou mesmo parada . rodei WIC (World In Conflict)

tudo ativado menos Atialiasing e anistopic e rodo super leve mas minha placa chegou aos 91° graus o limite é 100 isso ta errado poise li em algum lugar aqui que o normal e de 60° a 75° ,, e nao to usando nenhum tipo de overclock

so to usando mesmo o EVGAPrecision , primeiramente achei que fosse o Drive

191.07 porque na minha 6200 SE com drive 181.00 ela esquentava muito ja com outro nao , instalei outro drive o 190.00 e deu mesma coisa com o 181.00 tmb

me deêm uma dica pois nao quero perde essa placa agora porque comprei ela faz menos de 1 semana o que faço pra ela nun esquenta tanto?

Ob: ela veio com cooler original nao fiz nenhuma mudança ,, to achando que

a velocidade do cooler ta baixa mas no programa mostra 100% :huh:

alguem sabe o que pode ser?

a os clocks de frabrica sao

Core 550 com over maximo ate 700

Shader 1400 com over maximo ate 1700

memory 400 com over maximo ate 500 ~550

Link para o comentário
Compartilhar em outros sites

JuniorMHK provavelmente a temperatura ambiente dentro de seu gabinete esta muito alta, para resolver isto é fácil, basta distribuir bem os cabos dentro do seu gabinete para o ar circular bem e acoplar dois fans, um frontal para jogar ar para dentro e um traseiro que servira como exaustor.

Link para o comentário
Compartilhar em outros sites

Ae galera,

Sinto se essa pergunta ja foi feita e respondida, mas como não achei resposta satisfatória ai esta minha dúvida:

Fui na loja comprar a VGA 9500GT 512 XFX mas o vendedor dispõem apenas da VGA 9500GT 1GB XFX.

Existe diferença de performance? Encomendo a 512 ou a de 1gb vale mais a pena?

Tenho receio da de 1gb tenha clock menor e menor performance mesmo tendo mais memória.

Link para o comentário
Compartilhar em outros sites

Ae galera,

Sinto se essa pergunta ja foi feita e respondida, mas como não achei resposta satisfatória ai esta minha dúvida:

Fui na loja comprar a VGA 9500GT 512 XFX mas o vendedor dispõem apenas da VGA 9500GT 1GB XFX.

Existe diferença de performance? Encomendo a 512 ou a de 1gb vale mais a pena?

Tenho receio da de 1gb tenha clock menor e menor performance mesmo tendo mais memória.

Coléga, isso vai depender, existem três modelos diferentes da GeForce 9500GT, são eles:

512MB GDDR2

1GB GDDR2

e ainda 512GB GDDR3.

Dos três modelos o que tem desempenho superior é o com memória GDDR3, então se o vendedor dispoem apenas do modelo de 1GB, com toda a certeza este modelo é inferior ao GDDR3, por mais que tenha o dobro de memória.

Link para o comentário
Compartilhar em outros sites

JuniorMHK provavelmente a temperatura ambiente dentro de seu gabinete esta muito alta, para resolver isto é fácil, basta distribuir bem os cabos dentro do seu gabinete para o ar circular bem e acoplar dois fans, um frontal para jogar ar para dentro e um traseiro que servira como exaustor.

Wlw Fozzy ,, tmb andei vendo que o cooler do processador joga um pouco

do ar quente pra placa pois minha placa e pequena, a VGA fica 3 dedos do dissipador e como costumo deixa o pc ligado 24 hs ... -_-

vou deixa a tampa lateral aberta enquanto nao compros os fans

Obrigado o Fozzy e o Cenir que responderam minhas duvidas

Link para o comentário
Compartilhar em outros sites

Ok, mas entre os modelos GDDR2 da XFX o de 1GB é sempre superior que o de 512MB?

Aparente a resposta é sim porque tem o dobro de memória, mais o aparente nem sempre é o que ocorre, por isso da minha dúvida. Não adiante ter mais memória se tem o clock ou alguma outra configuração pior.

Link para o comentário
Compartilhar em outros sites

Ok, mas entre os modelos GDDR2 da XFX o de 1GB é sempre superior que o de 512MB?

Aparente a resposta é sim porque tem o dobro de memória, mais o aparente nem sempre é o que ocorre, por isso da minha dúvida. Não adiante ter mais memória se tem o clock ou alguma outra configuração pior.

Todos os modelos da 9500GT GDDR2 são iguais a menos que venham com overclock de fábrica, portanto vence o que tem mais memória, neste caso o modelo de 1GB GDDR2.

Link para o comentário
Compartilhar em outros sites

Ok, mas entre os modelos GDDR2 da XFX o de 1GB é sempre superior que o de 512MB?

Aparente a resposta é sim porque tem o dobro de memória, mais o aparente nem sempre é o que ocorre, por isso da minha dúvida. Não adiante ter mais memória se tem o clock ou alguma outra configuração pior.

Cuidado com esses modelos de 1Gb da XFX.

Ele pode vir capado e com 64bits!

Pegue um de outra marca com 512Mb mesmo.

Link para o comentário
Compartilhar em outros sites

Maravilha, eu até desconfiava, mas não queria fazer a aquisição sem confirmar essa informação. Ja comprei hardware errado por não ter me informado adequadamente.

Muito obrigado pela resposta e por sua atenção.

Amigo, o Memory clock dos modelos de 512Mb 400(800) são superiores que a de 1G que tem apenas 333(666) , eu acho que seria melhor você optar pela de 512 MB pelo fato dela ser um pouco mais rápida , lembrando que 1G de memory é um exagero para este modelo

Obrigado o Fozzy e o Cenir que responderam minhas duvidas

De nada

Link para o comentário
Compartilhar em outros sites

Visitante
Este tópico está impedido de receber novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...