Ir ao conteúdo
  • Cadastre-se

x850xt_vale pegar-la pra aguardar o DX10?


Visitante

Posts recomendados

Ressucitada a velha discussão!

O pessoal das poderosas e ultrapassadas série X8** podem não concordar. Mas é evidente em alguns jogos que o shader 3.0 faz diferença. Mas ele ainda não é bem utilizado pelos programadores e por isso, ainda é possível na grande maioria dos jogos comparar qualidade de imagem das X8** com a série X1000 da Ati e série 7 da Nvidia.

Mas creio que nos jogos novos a situação deverá mudar.

Link para o comentário
Compartilhar em outros sites

eu já dise q não diminui nada, mas se insistem tanto nisso (se apegando a um fio de esperança d q não ha diferença) poste e veremos ;-)

lembre-se q quem está com SM 2.0 está por OPÇÃO, o q literalmente significa q não vemos essa diferença q vocês com SM 3.0 conseguem ver... é lógico q cada um defende o q tem, mas aí já é exagero. vocês pagaram por uma tecnologia q trouxe poucas diferenças, essa é a verdade, e estas diferenças (aliás), são altamente contestadas se beneficiam ou maleficiam a qualidade gráfica do jogo. basta pesquisar e verá q muitos meios consideram o SM 3.0 apenas mais uma tentativa fracassada de dar ainda mais vida ao dx9, e só.

Ressucitada a velha discussão!

O pessoal das poderosas e ultrapassadas série X8** podem não concordar.

prefiro ter uma VGA 'ultrapassada' e poderosa do q uma 'atual' e fraca, não adianta suportar SM 3.0 sem aguentar com o mesmo, de um jeito ou de outro a qualidade precisará ser diminuída, pra mim qualquer placa a baixo da 7800GT q se apresente a suportar os shaders 3.0 está enganando, porque sem força é preciso diminuir a qualidade gráfica geral do mesmo jeito... e a 7600GT é a próxima da lista, visto o TAMANHO desempenho q perde com os jogos atuais com shaders 3.0 ativados, é questão de tempo para ter q diminuir resolução ou os filtros como AA pra ver o SM 3.0, GRANDE vantagem <_<

Mas é evidente em alguns jogos que o shader 3.0 faz diferença. Mas ele ainda não é bem utilizado pelos programadores e por isso, ainda é possível na grande maioria dos jogos comparar qualidade de imagem das X8** com a série X1000 da Ati e série 7 da Nvidia.

Mas creio que nos jogos novos a situação deverá mudar.

ainda não é bem utilizado e o tempo acabou, o q vocês defensores dos shaders 3.0 estão espererando? isso sim me parece um fio de esperança (de q o mesmo ainda vá mostrar alguma coisa) mas já era, o tempo acabou, tão paias q foram q passaram um mínimo de tempo no mercado apenas pra tapar buraco. Shader Model 4.0 chegando na área, esse deve fazer o mesmo sucesso q o SM 2.0 B)

Link para o comentário
Compartilhar em outros sites

Diego, não vams recomeçar a discussao, uq diseram é q nas screens do Splinter Cell eu DIMINUI mais du q somente a opção SHADER MODEL e isso eu não fiz, e estou esperando a postagem das fotos....

sobre o tempo ter acabado, isso não é bem assim, tendo em vista q o SM 2 foi lançado e muito tpo depois o tpo acabou pro shader 1 q muito tpo depois acabou pro NO shader (DX7) asim será com o SM 4, pois acho difícil vermos jogos q tenham uso maciço do SM 4 antes de 2008

Link para o comentário
Compartilhar em outros sites

posta aê !

eu já dise q não diminui nada, mas se insistem tanto nisso (se apegando a um fio de esperança d q não ha diferença) poste e veremos ;-)

aproposito, Episode One não tem a METADE da qualidade Gráfica de um Age 3 no maximo, bumpmapping fraco (ultrapassado), efeitos de luz comuns em jogos de 2004, pouquissimos poligonos (se comparado a um Oblivion da vida) e por ai vai.... compare o Grafico de um Quake 4 ou Prey da vida com o HL 2 Episode One e verah a q é fraca e maquiada (não tem efeitos otimos mas tem um design bom, uq deixa bonito)

aguardo as Screen Shots do Splinter Cell (tire por favor nos mesmos lugares e angulos de visao q eu tirei ;-) ) !!!

abraçows

Calma aí... Estou instalando o game de novo só para tirar as fotos, Eu não digo que o sm3.0 é igual ou pior, melhor sim, mas não é gritante em alguns jogos.

Outra coisa e tirrar fotos com sm 2.0 e 3.0 da mesma placa não serve de comparação... Não tô qyereendo fazer apologia ao sm 2.0, o 3.0 está um passo afrente tem muito mais instruções, o que digo é que existe flame demais para um efeito que não está anos luz afrente, isso no quesito imagem e em alguns games.

como já disse... em outros games é notavel a diferença (não gritante), mas meu questionamento foi quanto ao splinter cell.

Veja que a diferença não é super gritante... Claro que no Sm3.0 vai ser superior, mas não super gritante, não sou cego.

post-16889-13884922906686_thumb.jpg

post-16889-13884922907424_thumb.jpg

Link para o comentário
Compartilhar em outros sites

Concordo com o Bruno Trovão! O shader 3.0 ainda não mostrou todo o potencial. E ainda vai demorar bastante para vermos o shader 4.0 realmente em ação.

Eu também concordo... E deixo claro que nunca indicaria uma série X8.xx para alguém que pode comprar uma 7.x.x pois seria burrice, só falo que em alguns games não existe diferença gigantesca, quanto ao Age III é evidente a superioridade do sm3.0 realmente nesse game fica claro que o game está mais bonito.

No serious sam não foi tão gritante também.

e digo que quando o sm3.0 estiver mais maduro vai mostrar imagens melhores, assim como foi com o sm2.0 que ainda mostra imagens bem proximas (não iguais) do sm3.0

Link para o comentário
Compartilhar em outros sites

Pois é.....eis a questão.

Pra quem já tem uma X850, como o Diego Coxa, eu nem recomendo trocar, afinal é uma ótima placa e roda todos os jogos atuais em configurações altas.

Mas pra quem vai comprar uma placa agora, não deve em nenhuma hipótese comprar uma da série X8**, porque são muito caras e existem opções mais modernas e igualmente poderosas por preços + ou - iguais.

Link para o comentário
Compartilhar em outros sites

Pois é.....eis a questão.

Pra quem já tem uma X850, como o Diego Coxa, eu nem recomendo trocar, afinal é uma ótima placa e roda todos os jogos atuais em configurações altas.

Mas pra quem vai comprar uma placa agora, não deve em nenhuma hipótese comprar uma da série X8**, porque são muito caras e existem opções mais modernas e igualmente poderosas por preços + ou - iguais.

depende..

se eu quiser rodar em 1600x1200 com tudo ligado, te garanto q a x850xt tem fps mais alto..

Link para o comentário
Compartilhar em outros sites

amigo a x850xt é de facto 1boa grafica mas já esta ultrapassada em todos os sentidos,em vez disso você podia pegar uma 7900gt ou x1800 k sao placas mt boas e estão a 1bom preço..é algo eskizito o facto de haver jogos programados para rodar com o direcX 9c agendados para o proximo ano e tambem sair o windows vista já com o direcX 10,ainda por cima n ha retrocompatiblidade...

Link para o comentário
Compartilhar em outros sites

Quando, nosso amigo Danilo, postou duas screen de Age 3, com Shader 2.0 e 3.0, vi que realmente, não é uma diferença, estrondosa, mais existe, e para mim, não vale a pena, eu sair de minha X800, para uma 7600GT.

Se eu fosse, trocar de VGA hoje, iria para uma X1900GT no mínimo, e no máximo uma X1900XT.

Vejam, essa comparação, da 7600GT, contra a X850XT:

http://www23.tomshardware.com/graphics.htm...5&chart=211

Vemos, que a X850XT, faz 10 fps a mais, pergunto, o Shader 3.0, faz diferença.

Eu prefiro, mais FPS, do que o Shader 3.0, pois ainda não me convenceu, sua superioridade.

Única, coisa que me convenceu, até agora é AA + HDR, coisa que a Nvídia, ainda não sabe fazer, já a ATI. :D

Link para o comentário
Compartilhar em outros sites

Quando, nosso amigo Danilo, postou duas screen de Age 3, com Shader 2.0 e 3.0, vi que realmente, não é uma diferença, estrondosa, mais existe, e para mim, não vale a pena, eu sair de minha X800, para uma 7600GT.

Se eu fosse, trocar de VGA hoje, iria para uma X1900GT no mínimo, e no máximo uma X1900XT.

Vejam, essa comparação, da 7600GT, contra a X850XT:

http://www23.tomshardware.com/graphics.htm...5&chart=211

Vemos, que a X850XT, faz 10 fps a mais, pergunto, o Shader 3.0, faz diferença.

Eu prefiro, mais FPS, do que o Shader 3.0, pois ainda não me convenceu, sua superioridade.

Única, coisa que me convenceu, até agora é AA + HDR, coisa que a Nvídia, ainda não sabe fazer, já a ATI. :D

pois é, mas a PERGUNTA DO TÓPICO é: x850XT vale a pena pega-la pra aguardar o DX10 ? e a resposta é NÃO pois pelo mesmo preço existe opção melhor ;-)

em momento algum discutiu-se aqui a troca de x850 pra 7600 GT, e sim a aquisição de uma nova placa, trocar uma x850 por 760 GT somente se não precisar mexer no bolso !

abraçows

ah, a nvidia realmente não pode colocar o AA + HDR com FP Blending, pois outros HDRs como o da Valve, o usado no AGE 3, o do Raimbow Six: Lock Down da pra ligar o AA sim.... e a ATi também até hoje não aprendeu a lidar com o OpenGL nem fazer Drivers decentes muito menos lançar placa de vídeo competitiva (le-se custo x benefício) !!! e apropósito, a x850 XT liga AA+HDR ? ah não né... esqueci.... tadinha ;-) hauhahauaha

brincadeiras a parte quero deixar bem claro q adoro a ATi, já tive MUITAS placas da ATi, já cansei de declarar aqui minha preferência por ela, porém no momento a nVidia está melhor e isso é incontestável (basta ver q até no terreno da ATi q sempre foi ter a placa MAIS FORTE da geração ela perdeu pra nVidia com a 7950 GX2)

abraçows

Link para o comentário
Compartilhar em outros sites

:tantan:

pois é, mas a PERGUNTA DO TÓPICO é: x850XT vale a pena pega-la pra aguardar o DX10 ? e a resposta é NÃO pois pelo mesmo preço existe opção melhor ;-)

em momento algum discutiu-se aqui a troca de x850 pra 7600 GT, e sim a aquisição de uma nova placa, trocar uma x850 por 760 GT somente se não precisar mexer no bolso !

abraçows

ah, a nvidia realmente não pode colocar o AA + HDR com FP Blending, pois outros HDRs como o da Valve, o usado no AGE 3, o do Raimbow Six: Lock Down da pra ligar o AA sim.... e a ATi também até hoje não aprendeu a lidar com o OpenGL nem fazer Drivers decentes muito menos lançar placa de vídeo competitiva (le-se custo x benefício) !!! e apropósito, a x850 XT liga AA+HDR ? ah não né... esqueci.... tadinha ;-) hauhahauaha

brincadeiras a parte quero deixar bem claro q adoro a ATi, já tive MUITAS placas da ATi, já cansei de declarar aqui minha preferência por ela, porém no momento a nVidia está melhor e isso é incontestável (basta ver q até no terreno da ATi q sempre foi ter a placa MAIS FORTE da geração ela perdeu pra nVidia com a 7950 GX2)

abraçows

Fala sério cara, a 7950GX2, em Quad SLI, não conseguiu, superar duas X1950XTX em Crossfire, como você, pode afirmar isso. :tantan:

E em relação, ao AA + HDR, disse da Série X1000, pois tô careca de saber, que a série X800 e X850, não suporta. :muro:

Link para o comentário
Compartilhar em outros sites

:tantan:

Fala sério cara, a 7950GX2, em Quad SLI, não conseguiu, superar duas X1950XTX em Crossfire, como você, pode afirmar isso. :tantan:

E em relação, ao AA + HDR, disse da Série X1000, pois tô careca de saber, que a série X800 e X850, não suporta. :muro:

ONDE você viu esse teste ? eu vi q em Single a 7950GX2 ganhou da x1950 e por boa diferença:

x1950 vs 7950GX2

e COMO q colocaram 4 7950GX2 na mesma placa mãe se cada uma ocupa 2 espaços de slots ?!?!?!?

sobre o HDR + AA, se a discussão é entre x850 e você pos essa historia no meio, nada mais justo q deixar claro q a x850 também não suporta né !! porque se não fica meio q nem o ditado popular (desculpe as palavras)"gozar com o pau alhieo" né ? é como o flamengo ganhar do Vasco mas Perder pro Fluminense, aí vem o vascaíno (q perdeu pro Flamenguista) e diz "hhhh seu time é ruim porque perdeu pro fluzao!!!"

passa o teste aê do "quad" Sli de 7950 GX2

abraçows

Link para o comentário
Compartilhar em outros sites

ONDE você viu esse teste ? eu vi q em Single a 7950GX2 ganhou da x1950 e por boa diferença:

x1950 vs 7950GX2

e COMO q colocaram 4 7950GX2 na mesma placa mãe se cada uma ocupa 2 espaços de slots ?!?!?!?

sobre o HDR + AA, se a discussão é entre x850 e você pos essa historia no meio, nada mais justo q deixar claro q a x850 também não suporta né !! porque se não fica meio q nem o ditado popular (desculpe as palavras)"gozar com o pau alhieo" né ? é como o flamengo ganhar do Vasco mas Perder pro Fluminense, aí vem o vascaíno (q perdeu pro Flamenguista) e diz "hhhh seu time é ruim porque perdeu pro fluzao!!!"

passa o teste aê do "quad" Sli de 7950 GX2

abraçows

http://www.atizone.it/news/reader.php?objid=3371

Analise, você mesmo!!! :D

Link para o comentário
Compartilhar em outros sites

:-)ah site ATiZONE ? quanta credibilidade um site com esse nome hein :-)ahua

e outra... nadescrição está escrito bem legivel: 2 placas 7950GX2 em QUAD SLi, ou seja, são 2 placas de 2 núcleos uq forma QUAD-SLi, 2 x1950 também sao 2 placas de 2 núcleos uq também forma Quad CrossFire, então a comparação não é 4 placas contra 2 placas como você supos lá em cima !!

abraçows

Link para o comentário
Compartilhar em outros sites

:-)ah site ATiZONE ? quanta credibilidade um site com esse nome hein :-)ahua

e outra... nadescrição está escrito bem legivel: 2 placas 7950GX2 em QUAD SLi, ou seja, são 2 placas de 2 núcleos uq forma QUAD-SLi, 2 x1950 também sao 2 placas de 2 núcleos uq também forma Quad CrossFire, então a comparação não é 4 placas contra 2 placas como você supos lá em cima !!

abraçows

Nossa, a 7950GX2, já são de dois núcleos e se são duas, se tornam 4 núcleos, ou estou errado? :tantan:

Sem comentários, a X1950XTX, venceu com dois cores e a 7950GX2 com quatros cores, não chegou nem perto.

E outra coisa, pesquise no Google, que você vai ver, que essa matéria, não tem só no Atizone. B)

Link para o comentário
Compartilhar em outros sites

Nossa, a 7950GX2, já são de dois núcleos e se são duas, se tornam 4 núcleos, ou estou errado? :tantan:

Sem comentários, a X1950XTX, venceu com dois cores e a 7950GX2 com quatros cores, não chegou nem perto.

você é louco ??

AMBAS as placas sao 2 CORES cara para de viajar

a comparação foi feita usando 2 de cada

Crossfire de x1950 = 2x 2cores

SLi de 7950GX2 = 2x 2cores

2x2 = 4 em ambos ? ou seria 2x2=4 somente pra nVidia

affes e eu ainda perco meu tpo....

Link para o comentário
Compartilhar em outros sites

você é louco ??

AMBAS as placas sao 2 CORES cara para de viajar

a comparação foi feita usando 2 de cada

Crossfire de x1950 = 2x 2cores

SLi de 7950GX2 = 2x 2cores

2x2 = 4 em ambos ? ou seria 2x2=4 somente pra nVidia

affes e eu ainda perco meu tpo....

você sabe, o que significa GX2? :muro:

Significa dois cores, logo duas GX2, dá um total de 4 cores. 2+2=4 :tantan:

Então, se é duas 7950 GX2, fica equivalente a 4 Gpu, contra duas X1950XTX, que são 2 GPU.

você ainda vai insistir no erro? :D

Cara a X1950XTX é single core e não dual-core, com a 7950GX2, entendeu?

Link para o comentário
Compartilhar em outros sites

Bruno o HDR tá ativado... no meu splinter cell, ele tá com o patch 1.05 que ativa HDR nas ATI com shader 2.0B (HDR não é exclusivo do 3.0) é um HDR mais Fraco, mas é HDR.

Note que o Anti aliasing está desativado... Ele não habilita quando o hdr está abilitado, assimcomo acontece no SM3.0 com hdr, no minimo só da para ativar o AF16X e 1280x1024

post-16889-1388492295469_thumb.jpg

post-16889-13884922955253_thumb.jpg

post-16889-13884922956047_thumb.jpg

post-16889-13884922956841_thumb.jpg

post-16889-13884922957413_thumb.jpg

Link para o comentário
Compartilhar em outros sites

amigos de momento kando s trata de potencia bruta sabemos k a nvidia esta na frente,eu n sou fanboy de nenhuma marca inclusive eu já tive varias placas ati,so estou do lado da melhor empressa e de momento a nvidia esta melhor.ker dizer k para o prox ano s a ati lancar melhores graficas k a rival eu estarei do lado da ati....agora de momento é nvidia

Link para o comentário
Compartilhar em outros sites

sinceramente enquanto vocês ficam discutindo ai to eu aqui curtindo a minha 7600GT rodando os jogos com shader 3 :D

E eu estou rodando nenhum jogo aqui nessa FX5700LErda <_< , só HL2 Episode 1 (já virei), e tenho que ver X8xx, 7xxx, x1xxx, nas discussões, ISSO É TRISTE DEMAIS Danilo...

você é louco ??

AMBAS as placas sao 2 CORES cara para de viajar

a comparação foi feita usando 2 de cada

Crossfire de x1950 = 2x 2cores

SLi de 7950GX2 = 2x 2cores

2x2 = 4 em ambos ? ou seria 2x2=4 somente pra nVidia

affes e eu ainda perco meu tpo....

Calma Bruno, o Alex tá certo, essa X1950XT só tem um core... :joia:

Viu o que dá ficar acordado discutindo shaders??? :P

Link para o comentário
Compartilhar em outros sites

Visitante
Este tópico está impedido de receber novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

 

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!