Ir ao conteúdo
  • Cadastre-se

HDR vs VGA´s


Posts recomendados

Eu adorei esse efeito disponivel na Serie 6/7 da nVidia. Sempre que disponível eu ativo, mas eu vi quando instalei o HL2: Lost Coast que indica as seguintes placas como compativeis (ainda usava a FX5200, então ele recomendou que eu "adquirisse" (comprasse) uma placa melhor e adicionasse + 512mb de RAM (1gb no total)) Ge Force 6800 e ATi Radeon x800.

Que eu saiba só placas compatíveis com DX9c suportam HDR sendo elas:

Ge Force 6/7

Radeon x1000 series

Ou estou enganado ou o jogo está enganaNdo, já que é patrocinado pela ATi?

Então fica no ar:

ATi 9xx0 e Xx00 Series compatíveis com HDR?

Link para o comentário
Compartilhar em outros sites

O HDR nada tem a ver com o DX ser 9a, b ou c .

É uma especificação que pode ser usada pelas series 9x00 (dx9a) em diante nas Atis e nas 6x00 (dx9c) em diante pelo lado da nVidia , seu uso que pode ser exclusivo pra uma placa ou outra dependendo da desenvolvedora do game que no caso da Valve (HL2) fez tal efeito funcionar em ambas placas concorrentes, mas é claro que uma placa potente é necessario pra isso, uma X800 e 6800 pra cima pra um bom desempenho.

Link para o comentário
Compartilhar em outros sites

  • 3 semanas depois...
Postado Originalmente por Anakin@07 de novembro de 2005, 04:43

O HDR nada tem a ver com o DX ser 9a, b ou c .

É uma especificação que pode ser usada pelas series 9x00 (dx9a) em diante nas Atis e nas 6x00 (dx9c) em diante pelo lado da nVidia , seu uso que pode ser exclusivo pra uma placa ou outra dependendo da desenvolvedora do game que no caso da Valve (HL2) fez tal efeito funcionar em ambas placas concorrentes, mas é claro que uma placa potente é necessario pra isso, uma X800 e 6800 pra cima pra um bom desempenho.

O "Anakin", eu creio que apenas das 9500 pra cima é que são 9.0, as outras 9x00 (9200, 9250) são 8.1 não?

Quanto ao HDR, eu não sabiA que as 9x00 da ATI tinham isto, você não se inganou não? Creio que apenas as x1xxx é que o tem... :blink:

Snake

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por 02snake@25 de novembro de 2005, 18:43

O "Anakin", eu creio que apenas das 9500 pra cima é que são 9.0, as outras 9x00 (9200, 9250) são 8.1 não?

Quanto ao HDR, eu não sabiA que as 9x00 da ATI tinham isto, você não se inganou não? Creio que apenas as x1xxx é que o tem... :blink:

Snake

Só as 9500 pra cima são DX9.0 você está certo, mas quanto ao HDR isso não é uma especificação sm3.0 como a nVidia quis convencer o publico, até uma GeForce 2 mx400 pode fazer, claro devido as proporções, ou seja, num game nem em sonhos.

O HDR pode ser implementado de acordo com a desenvolvedora do game mas como sabem mesmo que o façam rodar em uma 9500 num game não ficará muito bom o resultado, já numa X800 pra cima já é viavel, vide half-life 2 Lost Cost que já disponibiliza HDR pra essas placas.

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por MDG@25 de novembro de 2005, 19:39

Hummmm então minha placa já conta com HDR? De quantos bits? Porque a série X1xxx é de 64bits.

Bits? isso sinceramente eu não sei, mas é claro que as placas modernas estão melhores equipadas pro HDR, tanto pela velocidade quanto pelas especificações.

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Anakin@25 de novembro de 2005, 20:18

Só as 9500 pra cima são DX9.0  você está certo, mas quanto ao HDR isso não é uma especificação sm3.0 como a nVidia quis convencer o publico, até uma GeForce 2 mx400 pode fazer, claro devido as proporções, ou seja, num game nem em sonhos.

O HDR pode ser implementado de acordo com a desenvolvedora do game mas como sabem mesmo que o façam rodar em uma 9500 num game não ficará muito bom o resultado, já numa X800 pra cima já é viavel, vide half-life 2  Lost Cost que já disponibiliza HDR pra essas placas.

Olha, eu acho que não é bem assim, pois que eu me lembre é apenas uma "emulação" que fica disponível deste jogo e não o HDR em si... :goff:

Postado Originalmente por MDG@25 de novembro de 2005, 20:39

Hummmm então minha placa já conta com HDR? De quantos bits? Porque a série X1xxx é de 64bits.

Creio que a sua não tenha não. E o que você quer saber sobre a quantidade de bits? Não entendi...

E sobre a série X1xxx ser de 64 bits, bem, somente a X1300 é que tem versões em 32-bits (Hyper memory) e 64-bits, o resto é 128-Bits e 256-bits... e outra, não é a quantidade de bits que vai determinar se uma placa pode ou não ter HDR...

Snake

Link para o comentário
Compartilhar em outros sites

Não é emulação, é HDR nativo, se tem duvidas pesquise o readme do HL2 Lost Cost, e não estou dizendo isso só por que tenho uma placa que já tem HDR a muito tempo, até por que como já expliquei a minha pode faze-lo mas sem potencia suficiente pra uma bom desempenho em games, a Ati implementou HDR nas R300 e não divulgou até por que não teria nenhum uso em games e sim em programas voltados a computação grafica, e claro, pra marketing se pelo menos o publico soubesse o que significa HDR como sabem hoje.

Tem um programa que mostra todos os efeitos HDR numa 9500 vou tentar achar esse programa e se você tiver um amigo que tenha uma 9500 pra cima peça para ele rodar e verá que não é emulação, roda até hoje em todas placas da Ati.

Edit: aqui um da propria Ati posto pra download no dia do lançamento da 9700 (R300)

http://www2.ati.com/misc/demos/ATI-9700-De...L-Demo-v1.1.exe

Link para o comentário
Compartilhar em outros sites

Pô 02snake . . você não entedendeu cara. você já deu uma olhada nas matérias do Forum sobre a série X1xxx da ATi ? Lá fala que as duas já tem disponíveis HDR, mas a Nvida de tem HDR de 128bits enquanto a ATi tem HDR de 64bits(não confunda quantidades de bits do HDR com quantidade de bits de acesso a memória).A diferença entre as duas fabricantes consiste no fato de que na ATi você pode usar HDR de 64bits com AA6x(que é muito bom da Ati) e na Nvidia OU se usa HDR de 128bits OU se usa AA em no máximo 4x . . .

Entendeu? Por isto queria saber se a minha placa contava com HDR e de quantos bits seria.

obs: Tentei deixar evidente e diferença entre os bits do HDR e os bits da acesso a memória(64, 128 ou 256 na série X1xxx)

Qualquer pode perguntar de novo que fórum é pra isto mesmo 02snake, você já me respondeu muitas dúvidas e com satisfação que eu te ajudo no que puder !!! falou !!

Link para o comentário
Compartilhar em outros sites

Pronto... vivendo e aprendendo...

Bom "Anakin", então quer dizer que a ATI tinha o HDR mas não o publicou? Isso (sendo verdade ou não, mas creio que seja) é uma burrisse pois os PLUS, os EXTRAS, os ++ de um produto sempre tem de ser destacados e explorados. Tipo, a FORD quando lançou o Fiesta om novo motor colocou lá: "Novo Fiesta, agora com motor ZETC ROCAN". Tipo, quem sabia na época o que era essa "coisa"? Mas mesmo assim isso era o CHAMADO para comprar o carro... de novo eles dormiram então... mas se as Radeon da série 9600 pra cima tem este HDR muito bem... sorte de quem a tem!!! :bandeira:

Agora "MDG", como disse acima é vivendo e aprendendo..., ajudando e sendo ajudado... então me explique melhor as diferenças entre HDR 64-bits ou 128-Bits :blink:

Snake

Link para o comentário
Compartilhar em outros sites

High Dynamic Range (HDR)

O problema da iluminação é que no mundo real luzes têm brilho ilimitado e o olho humano tem uma percepção de 14 dB (10^14:1), mas placas de vídeo usando um registrador padrão de 32 bits só é capaz de reproduzir 2,4 dB (255:1), porque são usados somente 8 bits para armazenar cada componente de vídeo (R, G, B e alfa).

A série Radeon X1000 usa um registrador de ponto flutuante de 64 bits para o HDR, usando 16 bits para cada componente de vídeo. É realmente interessante notar que a GeForce série 7 da nVidia usa registrador de ponto flutuante de 128 bits para o HDR.

Por outro lado, a série Radeon X1000 perrmite o uso simultâneo do HDR e da suavização de múltiplas amostras (multi sampling anti-aliasing ou simplesmente MSAA).

aí Snake, isto foi que eu tirei da parte de plca de vídeo.

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por MDG@02 de dezembro de 2005, 13:35

High Dynamic Range (HDR)

O problema da iluminação é que no mundo real luzes têm brilho ilimitado e o olho humano tem uma percepção de 14 dB (10^14:1), mas placas de vídeo usando um registrador padrão de 32 bits só é capaz de reproduzir 2,4 dB (255:1), porque são usados somente 8 bits para armazenar cada componente de vídeo (R, G, B e alfa).

A série Radeon X1000 usa um registrador de ponto flutuante de 64 bits para o HDR, usando 16 bits para cada componente de vídeo. É realmente interessante notar que a GeForce série 7 da nVidia usa registrador de ponto flutuante de 128 bits para o HDR.

Por outro lado, a série Radeon X1000 perrmite o uso simultâneo do HDR e da suavização de múltiplas amostras (multi sampling anti-aliasing ou simplesmente MSAA).

aí Snake, isto foi que eu tirei da parte de plca de vídeo.

Olha aí :blink: ... o que é HDR eu sabia, mas sobre os bits fiquei aprendendo agora... O que são estes números e dois pontos (10^14:1, 255:1)???

Snake

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por MDG@02 de dezembro de 2005, 15:09

Isto demosntra que o olho humano pode demonstar/visualizar até uma proporção de brilho de (10 exp 14:1), isto mesmo, é um nº gigante, enquanto as placas de vídeo mostram apenas um contraste de 255:1. Bom, pelo menos foi isto que eu entendi . . .

Ok, ok.. mas mesmo assim eu não entendi pois você disse:

"Isto demonstra que o olho humano pode demonstar/visualizar até uma proporção de brilho de (10 exp 14:1) (o que é isso de 10 exp? o que é exp e porque 14:1? o que é isso?), isto mesmo, é um nº gigante, enquanto as placas de vídeo mostram apenas um contraste de 255:1."

Desculpa a ignorância, mas gosto de entender algo corretamente...

Snake

Link para o comentário
Compartilhar em outros sites

SNAKE, esse 10exp14:1, significa 10 elevado a 14. . . 1000000000000000 e os dois pontos é uma proporção/escala.Esta é a representação do olho humano; nas placas de vídeso atuais, esta proporção é de 255:1. Não sei se fui claro e também não manjo muito do assunto, mas este dois pontos : representam uma proporção de luminosidade/brilho. como o nº 10^14 ou 10exp14 é muito grande comparado a 255, o artigo quis indicar que o olho humano é extremamente complexo e que as placas de vídeo ainda tem que trabalhar muuuuito pra chegar ao realismo perfeito.

Obs: Não manjo muito, tirei estas conclusões apenas com leitura, não tenho curso na área, se tiver alguém que possa complementar/corrigir eu vou ficar agradecido !

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por 02snake@02 de dezembro de 2005, 09:27

Pronto... vivendo e aprendendo...

Bom "Anakin", então quer dizer que a ATI tinha o HDR mas não o publicou? Isso (sendo verdade ou não, mas creio que seja) é uma burrisse pois os PLUS, os EXTRAS, os ++ de um produto sempre tem de ser destacados e explorados. Tipo, a FORD quando lançou o Fiesta om novo motor colocou lá: "Novo Fiesta, agora com motor ZETC ROCAN". Tipo, quem sabia na época o que era essa "coisa"? Mas mesmo assim isso era o CHAMADO para comprar o carro... de novo eles dormiram então... mas se as Radeon da série 9600 pra cima tem este HDR muito bem... sorte de quem a tem!!! :bandeira:

Agora "MDG", como disse acima é vivendo e aprendendo..., ajudando e sendo ajudado... então me explique melhor as diferenças entre HDR 64-bits ou 128-Bits :blink:

Snake

Realmente não sei o motivo mas na minha opinião simplesmente por que o HDR é uma função comum e de nada tem de especial e talvez seu uso na epoca seria impossivel, as desenvolvedoras de games nem sonhavam usar isso em seus jogos e se usassem teriam que programar 2x o mesmo game pra aceitar a GFFX 5x00, como fez hoje a Valve com o HL2 LC, e ainda tem o fato do projeto não ficar muito bom no desempenho.

voce sabia que efeitos como blur, bump mapping, shaders e até mesmo os filtros, já existiam até nas velhas voodoos? isso nunca foi usado como meio de marketing, essa ideia surgiu agora com a briga entre a Ati e a nVidia, alias a nVidia já usou isso, procure saber mais sobre o TL no tempo das voodoosXgeforces, foi uma das causas da falencia da 3DFX.

Link para o comentário
Compartilhar em outros sites

  • 2 meses depois...
  • Membro VIP
Postado Originalmente por RamBo III@09 de fevereiro de 2006, 09:53

No NFS:MW, aquele brilho poderoso q acontece quando sai dos túneis seria o HDR?

ou esse game não possui isso?

Não, aquilo é Bloom, é um efeito que simula HDR.

Existe mais de um tipo de HDR. O HDR que a Valve implementou qualquer placa dx9.0 pode rodar... Ou seja, toda Radeon 9500 pra cima e das FX pra cima....~

Agora o HDR com FP Blending somente as Geforce6, Geforce7 e dx1000 podem rodar, pois é necessário que tenha suporte da placa pra este tipo de HDR... É o HDR usado no 3DMark06 e no Far Cry por exemplo....

E a única que pode usar "FSSA + full FP16 blended HDR" são as x1000... Nenhuma placa Nvidia simplimente pode rodar FSAA + HDR com FP Blending, não podem porque não tem suporte a este recurso... Elas conseguem fazer uma coisa ou outra... Não as duas ao mesmo tempo...

As x1000 portanto são as únicas que podem usar qualquer HDR com FSAA... Esta é uma vantagem delas...

Link para o comentário
Compartilhar em outros sites

  • 3 meses depois...
  • mês depois...

Não, aquilo é Bloom, é um efeito que simula HDR.

Existe mais de um tipo de HDR. O HDR que a Valve implementou qualquer placa dx9.0 pode rodar... Ou seja, toda Radeon 9500 pra cima e das FX pra cima....~

Agora o HDR com FP Blending somente as Geforce6, Geforce7 e dx1000 podem rodar, pois é necessário que tenha suporte da placa pra este tipo de HDR... É o HDR usado no 3DMark06 e no Far Cry por exemplo....

E a única que pode usar "FSSA + full FP16 blended HDR" são as x1000... Nenhuma placa Nvidia simplimente pode rodar FSAA + HDR com FP Blending, não podem porque não tem suporte a este recurso... Elas conseguem fazer uma coisa ou outra... Não as duas ao mesmo tempo...

As x1000 portanto são as únicas que podem usar qualquer HDR com FSAA... Esta é uma vantagem delas...

Eu não tenho certeza, mas acho que já consegui forçar HDR + FSAA na minha 6600GT e na atual 7900GT. O AA foi forçado via Driver e o HDR via edição do .INI de um jogo (acho que o Far Cry), além de ter aplicado um patch. Os frames caíram para 4-5 FPS, por isso acho que nativamente a função é inabilitada, pois o filtro tende a ser aplicado erroneamente dentro dos shaders (foi essa a explicação que li num site europeu) piorando inaceitavelmente o desempenho.

Link para o comentário
Compartilhar em outros sites

Arquivado

Este tópico foi arquivado e está fechado para novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...