Ir ao conteúdo
  • Cadastre-se

O que o DX10 acrescentou até agora?


djalexm

Posts recomendados

Assumo que o Danelon pensa cm eu.. comprar a placa pra jogos que nós nem sabemos como e quando virão é um tiro no escuro, você pode acertar o pé cm acertar o alvo.

Só acho um pouco precipitado abraçar o DX10 como causa, na série 6 teve a mesma história, mas não sabemos como essa vai acabar.

Eu compraria uma 8800 ou 2900 hoje ?

Sim, mas pra jogar sem dó em DX 9.0c, com HDR + AA a 1600x1200 e ter gráficos muito bons, comprar esperando o Crysis eu não faria.

Pra mim os jogos estão pesados além do desejável...

Diziam que o DX10 viria leve...

Acho que ele veio com chumbo no porta malas...

Ja vi testes do DX10, em que uma HD 2900 XT e a 8800 GTX literalmente pede "agua" em 1600x1200, ficando abaixo dos 30 FPS...

Está ficando cada vez mais difícil jogar no computador (coisa que gosto muito) sem ter que gastar uma fortuna...

Basta ter um Quadcore, 4 Gb de Ram, e uma das Fracas 8800 e 2900 para poder ficar tranquilo até o ano que vem...:D

Assim não pode... Assim não dá... :(

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Calma djalexm, vamos considerar algumas coisas.

1- Se o jogo não pesar ngm mais compra VGA nova e eles não ganham $$

2- Como as VGAs ficam mais e mais fortes o que os programadores fazem ?

Metem mais efeitos pros jogos ficarem mais locos, se liberarem a velocidade na BR 101 você acha que ngm vai cravar 200 por hora só porque é inseguro ?

3- Drivers..

4- Programação renovada, isso dá um trabalhão, fora que eles têm que ganhar experiência, só ver os jogos 9.0c que estão saindo agora, só bonitos, são muito locos e são até que leves, porque os caras já sabem programar bem em 9.0c, ou OpenGL 2. (falando nisso eu acho que o OpenGL 3 vai desbancar o DX 10..) Mas claro que não isenta algumas desenvolvedoras de fazerem jogos de gráfico tosco e pesado, vide NFSMW.

5- Tecnologia nova de hardware, só lembrar da série 6 da Nvidia que não tem um suporte a Shader 3 tão bom quanto a série 7.

Criaram a necessidade de algo que não existe, e muita gente comprou por isso.. mas muita gente comprou pelo motivo que eu compraria. Como sempre é analisar bem antes de qquer coisa.

E eu acho (sim isso é pessoal) que é bom esperar um pouco antes de comprar um lançamento, se eu tivesse uma 7900GT teria infartado.. não falo só por hardware, mas pro produto se consolidar no mercado, pra tecnologia amadurecer e pro preço dar uma baixada :D

Link para o comentário
Compartilhar em outros sites

Eu ainda consideraria mais uma coisa...

não existe directx 10 de verdade. Quer dizer, directx 10 existe. Mas não existem jogos feitos baseados nele. Só com esses patchs mesmo.

E o que o que você falou é verdade mesmo Xita. Me lembro que teve uma vez em que quase comprei uma 7900GT por R$980! Fiquei até bravo quando vi que o cara tinha superado meu lance no ML. Acabou que depois comprei uma placa + ou - no nível por R$ 720.

Link para o comentário
Compartilhar em outros sites

Bioschock tem suporte ja na versão 1.0 do game é só ter VGA DX10 e o Vista que se pode ativar somente esse efeito "legalzinho" da água:

http://www.tweakguides.com/images/Bioshock_13a.jpg

http://www.tweakguides.com/images/Bioshock_13c.jpg

Ou seja a qualidade da água fica a mesma coisa só o efeito de rastro que fica bem melhor,porém ja vi efeitos similares no Oblivion por exemplo,logo não justifica eu vender minha VGA comprar uma 8600GT pelo mesmo valor,instalar o Vista e aproveitar o "novíssimo" efeito de rastro na água do DX10...

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Vocês estão muito precipitados, os caras não podem lançar um jogo Full Directx10 pois se não ninguém compraria, quando tooooodo mundo tiver sua VGAzinha + o Windows com directx10 100% funcional aí sim a coisa vai ficar legal, os caras vão trabalhar pra valer em cima do Dx10 e vejamos o que poderá sair

Link para o comentário
Compartilhar em outros sites

Vocês estão muito precipitados, os caras não podem lançar um jogo Full Directx10 pois se não ninguém compraria, quando tooooodo mundo tiver sua VGAzinha + o Windows com directx10 100% funcional aí sim a coisa vai ficar legal, os caras vão trabalhar pra valer em cima do Dx10 e vejamos o que poderá sair

Concordo em partes...

O Dx 10 deveria ser muito mais simples de programar e os efeitos já deviam aparecer logo nos primeiros jogos, pois é sempre assim, quando ele começar a ficar bom, já aparece o 11 com efeitos insignificantes e pesados, deixando todas VGA's do mercado obsoletas...

Link para o comentário
Compartilhar em outros sites

o DX10.1 vai trazer poucas melhorias. As maiores ficaram por conta do DX10 mesmo.

Parece que entre as melhorias do 10.1, vamos ter o Tesselator como uma necessidade no Hardware e memória EDRAM (Não vai mais ter jogos com AA desativado, só acho que vai ficar uma *******, como os jogos do Xbox 360, os bons programadores colocam um AA ferradão, e os maus nem se preocupam, deixam os usuarios se ferrar!)

Essas são as maiores, depois temos a nova especificação dos Stream Processors, que seria o Shader Model 4.1, mas isso não deve ser grande coisa, uma vez que Stream Processors são como cores independentes de uma CPU, podem processar o que quiserem da maneira que quiserem, portanto poucas limitações das placas DX10 até aqui.

O que mais pesa no DX10.1 é o Tesselator (as HD2900XT ja possuem), isso deve reduzir muito a performance necessária para fazer um "rosto" por exemplo (geometria pura), isso atualmente é processado pela CPU, os futuros jogos devem usar os Geometry Shaders e depois fica por conta do Tesselator, mas isso deve demorar pra ser implantado, uma vez que jogos como Gears of War (vai sair para PC) por exemplo, possuem modelagem brutalmente bem feita (é incrível) e pode ser tudo feito via CPU ou Stream Processors (possivelmente nos PCs vai ser feito via SP's, no caso, os Geometry Shaders, ja que o 360 tem uma CPU um tanto agressiva para os padrões atuais!)

Link para o comentário
Compartilhar em outros sites

Ahm.. "já tem" o 10.1 com um shader novo..

Não sei qual o problema deles, mal saiu o DX10 e já inventam outra moda, que as "novas" placas, que devem sair esse ano/começo do ano que vem, suportarão.

djalexm disse tudo, sou mais OpenGL.

OpenGL sem sombras de duvidas aumenta a vida util dos hardwares uma vez que suas especificaçoes sao mais demoradas pra serem normalizadas, homologadas e oficializadas. Afinal de contas, é uma API aberta com muitas pessoas e empresas envolvidas. Diferentemente do DirectX propriedade da Microsoft.

Alguns falam que se a API directx não fosse empurrada pela força q o windows tem, ela ja teria sucumbido, outros falam que não, pela belissima documentação e ferramentas que os comandados do tio Gates desenvolveram durante todos esses anos q têm feito a felicidade dos desenvolvedores.

O OpenGL é muito bom também, ninguem pode contestar, mas programar engines em OpenGL ainda é pra muitos, muito hardcore quando comparado com DirectrX e é natural que as desenvolvedoras migrem pro lado que lhe proporcinar ótimos efeitos, bom suporte, e maiores facilidades no desenvolvimento. O chato mesmo acaba sendo pra nós, q pela quantidade esmagadora de jogos desenvolvidos em DX, somos "obrigados" a ter sempre um hardware compativel com suas novas especificaçoes afim de podermos alimentar nosso vicio, ou em outras palavras, simplesmente "jogar".

Quanto a mudanças, essas sempre irao acontecer, e a Microsofot por mas errado e chato que seja pro consumidor final, vai promover essas mudanças, porque força de mercado e de convencimento os caras têm, felizmente ou infelizmente.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Ok, as HD tem tesselator, mas, ela tem força pra "tesselatiar" ?

O frufru em cima do 10.1 tá meio abafado, mas algumas das coisas que ele traz, como o AA "automático" eu acho bemvindas, mesmo que em alguns casos vá ser um AA podre, mas é alguma coisa.

Shader novo, de novo.. mesmo sendo unidades livres nada impede que cloquem uma instruçãosinha que gere incompatibilidade, não duvido muito que aconteça.

Eu simpatizo com as coisas "open", pode demorar um pouco mais mas o resultado é bom, lembro de uma foto que o Tyellbee colocou em um tópico faz um tempo, que comparava DX10 e 9.0c com OpenGL 3, e eu achei o OpenGL com qualidade maior.

Outro ponto forte dele é a Engine do Doom 3, que é boa e foi usada em outros jogos, oi um trabalho inicial grande mas flexível, o demo do quake wars é muito bem trabalhado e não reclamaram de ser pesado.

Mais um ponto pra ele (é o ultimo por hora) é o Linux, eu acho que em breve teremos alguns títulos bons pra Linux.. (a Valve tá contratando programadores pra isso), e vai ajudar a popularizar mais o pinguim.

Link para o comentário
Compartilhar em outros sites

Sobre a força para tesseletiar! XD... Não vou chutar muito sobre isso, mas acho que por ser uma unidade separada só com esse propósito ela deve ser forte, agora precisamos ver... eu (EU!) acredito firmemente que a próxima geração (DX11, pois o 10.1 ja é praticamente corrente), vamos ter especificações do tipo: "X Stream Processors, X bit de memória, 4, 8, 12 Tesselators"... 1 nunca foi o suficiente para nada!

Link para o comentário
Compartilhar em outros sites

Ou seja, essa história de unificar os shaders foi pra introduzirem outras unidades, senão íamos ficar mais perdidos que o normal..

Bom, hehehe, acho que unificaram os shaders só no papel, Stream Processors são bem diferentes do projeto original, onde haveria a unificação das unidades de Shader (Pixel, Vertex, Geometry -> Unificados), o que temos hoje é Stream Processors ("Processadores de cadeias de dados"), jogue uma lata de lixo de dados nessas unidades que elas vão processar, hehehe, então, ocorreu que, substituíram unidades especializadas por unidades que realizam qualquer tarefa.

Qual a perda com isso? Bem, isso fica meio que claro, as unidades especializadas são anos-luz mais rápidas que as unidades "gerais" nesse quesito, da pra notar que, uma GeForce 8800GTS com 96 Stream Processors, não é grande coisa mais poderosa que uma GeForce 7900GTX com 24 Pixel Pipelines.

Só que o ganho nesse caso fica por conta da flexibilidade, se o jogo usa muito os Vertex Pipelines (GF7900GTX tem 8), a 8800GTS tem um ganho extraordinário.

Acho que o projeto mais poderoso porém não tão flexível de GPU hoje está na GPU da ATi para o Xbox 360, hoje ela ficou defasada devido a ter poucos ROPs, TMUs e ao console ter pouca memória, mas em poder de GPU ela é muito forte, são 48 unidades de SHADER (Pixel ou Vertex, resumidamente, especializadas nessas duas funções), cada unidade com 2 ULAs (podendo processar 2 Vertex, 2 Pixels ou 1 de cada, isso é, por unidade).

Esse projeto é o verdadeiro dos Shaders unificados, o resto é balela... Stream Processors, unidades burras, sabem um pouco de cada coisa, no fim, fazem muito. A tendência é essas unidades irem adquirindo força graças à programação, eu não sei até que ponto elas podem ser otimizadas no hardware, talvez adicionando mais ULAs, para que uma unidade possa processar uma cadeia maior de dados. Agora, de adicionar mais instruções, isso não agrega nenhum tipo de limitação a elas, um Pentium MMX pode rodar gráficos feitos com Shader, só que ele demora muito, pois não sabe fazer isso. Imagine agora uma GPU com 128 Pentiums MMX, eles não sabem processar uma certa informação, mas a partir do momento que você faz elas darem "um jeitinho", isso se torna possível!

Uffa... que texto! kkkkkkkkkkkkkkkkkkkk

Link para o comentário
Compartilhar em outros sites

Bom, hehehe, acho que unificaram os shaders só no papel, Stream Processors são bem diferentes do projeto original, onde haveria a unificação das unidades de Shader (Pixel, Vertex, Geometry -> Unificados), o que temos hoje é Stream Processors ("Processadores de cadeias de dados"), jogue uma lata de lixo de dados nessas unidades que elas vão processar, hehehe, então, ocorreu que, substituíram unidades especializadas por unidades que realizam qualquer tarefa.

Qual a perda com isso? Bem, isso fica meio que claro, as unidades especializadas são anos-luz mais rápidas que as unidades "gerais" nesse quesito, da pra notar que, uma GeForce 8800GTS com 96 Stream Processors, não é grande coisa mais poderosa que uma GeForce 7900GTX com 24 Pixel Pipelines.

Só que o ganho nesse caso fica por conta da flexibilidade, se o jogo usa muito os Vertex Pipelines (GF7900GTX tem 8), a 8800GTS tem um ganho extraordinário.

Acho que o projeto mais poderoso porém não tão flexível de GPU hoje está na GPU da ATi para o Xbox 360, hoje ela ficou defasada devido a ter poucos ROPs, TMUs e ao console ter pouca memória, mas em poder de GPU ela é muito forte, são 48 unidades de SHADER (Pixel ou Vertex, resumidamente, especializadas nessas duas funções), cada unidade com 2 ULAs (podendo processar 2 Vertex, 2 Pixels ou 1 de cada, isso é, por unidade).

Esse projeto é o verdadeiro dos Shaders unificados, o resto é balela... Stream Processors, unidades burras, sabem um pouco de cada coisa, no fim, fazem muito. A tendência é essas unidades irem adquirindo força graças à programação, eu não sei até que ponto elas podem ser otimizadas no hardware, talvez adicionando mais ULAs, para que uma unidade possa processar uma cadeia maior de dados. Agora, de adicionar mais instruções, isso não agrega nenhum tipo de limitação a elas, um Pentium MMX pode rodar gráficos feitos com Shader, só que ele demora muito, pois não sabe fazer isso. Imagine agora uma GPU com 128 Pentiums MMX, eles não sabem processar uma certa informação, mas a partir do momento que você faz elas darem "um jeitinho", isso se torna possível!

Uffa... que texto! kkkkkkkkkkkkkkkkkkkk

Muito bom texto :lol:

venho notado um aumento significativo na performance das HD 2600 e 2900, talvez por melhor suporte dos driver.

Você acha que no futuro essa implementação da ATI pode ser melhor que a da Nvidia, quando os "Stream Processors" souberem melhor o que fazer?

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Dr. Marin cm sempre esclarecendo bem as coisas :D:lol:

valeu !

Acrescentarem instruções eu penso emtornar o SP um "genérico de marca", que vai saber fazer melhor os calculos de cada shader.. será que dá ?

Isso aliado a programação que agora fica mais aberta pode no futuro dar frutos muito bons, acho eu.

alex, nas HD o AA é calculado de uma forma nova, alias a ATI vem investindo em processamento maciço de shaders não é de hoje, mas com essa forma nova, toda feita por shader é natural que as placas tenham menos ROPs e ULAs, mas os drivers ainda não acharam uma boa forma de fazer os calculos, por isso que a cada catalyst o desempenho dá uma mudada, eu acho que não demora muito mais pra acertarem a mão, mas se em 6 meses não conseguirem então é problema de hardware.

Comparando as séries atuais acho que a ATI vai levar vantagem quando começarem a usar tesselation, shaders massivamente e quando a AMD acertar os drivers.

Se sairem os 3 juntos vai ser bão !

Link para o comentário
Compartilhar em outros sites

Dr. Marin cm sempre esclarecendo bem as coisas :D:lol:

valeu !

1- Acrescentarem instruções eu penso emtornar o SP um "genérico de marca", que vai saber fazer melhor os calculos de cada shader.. será que dá ?

Isso aliado a programação que agora fica mais aberta pode no futuro dar frutos muito bons, acho eu.

2- alex, nas HD o AA é calculado de uma forma nova, alias a ATI vem investindo em processamento maciço de shaders não é de hoje, mas com essa forma nova, toda feita por shader é natural que as placas tenham menos ROPs e ULAs, mas os drivers ainda não acharam uma boa forma de fazer os calculos, por isso que a cada catalyst o desempenho dá uma mudada, eu acho que não demora muito mais pra acertarem a mão, mas se em 6 meses não conseguirem então é problema de hardware.

3- Comparando as séries atuais acho que a ATI vai levar vantagem quando começarem a usar tesselation, shaders massivamente e quando a AMD acertar os drivers.

Se sairem os 3 juntos vai ser bão !

1- Talvez, mas não posso afirmar com certeza!

2- Talvez não adiante muito ficar mexendo em pequenos detalhes, AA é naturalmente um calculo pesado, basta ver que por exemplo, na geração passada onde tinhamos 16 ROPs, unidades especializadas, ainda tinhamos perda significativa de performance, agora a série 8 se acertou com isso, mas em contra partida, a 8800GTS tem 20 ROPs e a 8800GTX tem 24 ROPs, o número excessivo de unidades contribue para valores altos, alto numero de transistores, gera aquecimento e gasta energia (Não quero nem imaginar um R600 com 24 ROPs).

3- Sobre usar Tesselation, precisamos ver o tempo para usar isso, acredito que o uso dele vai ser só no DX10.1, e isso deve demorar um pouco, implementando agora, os produtores correm o risco de serem boicotados, ja que só uma parcela minima de pessoas têm placas DX10, e dessa parcela, a menor parcela de todas tem uma HD2900XT.

Usar os Shaders massivamente talvez ajude a ATi, mas só que o uso pesado de shaders no caso da HD2900XT, corta para os dois lados, a GPU tem que direcionar partes de seus Stream Processors para AA, e parte divididos em Pixel, Vertex e Geometry, temos ainda a tendencia de se usar Fisica por SP.

Junte tudo isso, teremos muitas limitações, um jogo que use shaders massivamente vai ficar limitado a pouco, ou nenhum AA (ja que em muitos jogos a HD2900XT ja não está se saindo muito bem).

Usar fisica pela GPU traz os mesmos problemas, e claro, nesse caso, traria problemas para todas as GPUs com Stream Processors no mercado!

EDIT: Lendo novamente meu post me lembrei de mais alguns numeros, o R600 também tem uma certa limitação com uso de texturas ultra-pesadas, ja que tem apenas 16 TMUs. Não é uma grande limitação, é mais uma limitação se contarmos isso em relação ao G80 (24 na GTS, 32 na GTX), ja em relação às placas top da geração passada ela está igual.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Parece que a ATI desaprendeu a fazer VGA.. poxa o R580 foi muito bom a meu ver, pecando mais em driver do que em hardware.. não sei o que esperavam com as HDs..

Alias.. a concepção diferente dos shaders não pode diminuir a "faca de dois legumes" pras HD Marin ?

Link para o comentário
Compartilhar em outros sites

Parece que a ATI desaprendeu a fazer VGA.. poxa o R580 foi muito bom a meu ver, pecando mais em driver do que em hardware.. não sei o que esperavam com as HDs..

Alias.. a concepção diferente dos shaders não pode diminuir a "faca de dois legumes" pras HD Marin ?

Talvez Xita... Não leve tudo o que falei em consideração, claro que nem sempre tudo isso pode ocorrer!

Link para o comentário
Compartilhar em outros sites

  • mês depois...

depois de ler a análise tecnica do no amigo Marin, percebi como o hardware se modificou e o software não acompanhou, apesar de ser cedo para querer jogos ultra-realistas, acho que eles cobram caro demais por placas que só serão utilizados ao maximo daqui a 1 ou 2 anos, mais é o mecado fazer o que?

quando comprei minha placa de video não se falava em dx10 e muito menos em unificação de unidades de shader, e isso só faz 1 ano, por isso se torna indispensavel esse estudo do hardware para compreender o papel do software, que no caso do dx10 e jogos, não passam (ainda) de marketing para microsoft e cia.

Link para o comentário
Compartilhar em outros sites

  • 3 semanas depois...

A microsoft ja fez besteira de colocar o directx 10 so pro vista, porque ja tem hackers desenvolvendo bibliotecas de dados pra para funcionar a arquitetura directx 10 no windows xp, e o tio bill gates, vai perder varios milhoes se isso funcionar, e com certeza vai, ja testaram ele nao-terminado e ja deu certo. tio bill, diga adeus a seus milhoes...

Link para o comentário
Compartilhar em outros sites

Foi por isso que quando comprei 8800gtx foi pensando em alto desempenho em directx 9.c e não em 10, pois até agora não vi nada em directx 10 que o 9.c não faça.

AMIGO, DUVIDO QUE você COMPROU A 8800 GTX PENSANDO EM DX 9.0C, SE EU FOSSE você QUE NAO PENSA EM DX10 PEGAVA UMA 7950 GX2 QUE COMPENSA MAIS CARA. FLOW

Link para o comentário
Compartilhar em outros sites

depois de ler a análise tecnica do no amigo Marin, percebi como o hardware se modificou e o software não acompanhou, apesar de ser cedo para querer jogos ultra-realistas, acho que eles cobram caro demais por placas que só serão utilizados ao maximo daqui a 1 ou 2 anos, mais é o mecado fazer o que?

quando comprei minha placa de video não se falava em dx10 e muito menos em unificação de unidades de shader, e isso só faz 1 ano, por isso se torna indispensavel esse estudo do hardware para compreender o papel do software, que no caso do dx10 e jogos, não passam (ainda) de marketing para microsoft e cia.

Exatamente ...

Aí daqui a um ano lancam dx10.1 aí os "bobao" compra as vga... depois lancam dx10.2 e compram novamente ...

" Homem primata , capitalismo selvagem ..."

Link para o comentário
Compartilhar em outros sites

Arquivado

Este tópico foi arquivado e está fechado para novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...