Ir ao conteúdo
  • Cadastre-se

Geforce 6800 Ultra !


dkyrk

Posts recomendados

Postado Originalmente por MEIRANETO@15 abr 2004, 02:03

Falando sério, fiquei meio preocupado com as saidas tipo digital...cadê a saida comum? Será que terei de trocar de monitor se quiser(se puder  B) ) pegar uma dessas?

cara eu acho que essa pv vai vim com aqueles adaptadores de saida DVI pra VGA

tipo esse branco na parte de baixo da foto.

<div class='bbimg'>%7Boption%7Dhttps://www.clubedohardware.com.br/fotos/r9200-cabos.jpg' border='0' alt='Imagem postada pelo usuário' /></div>

e também ele e o modelo ultra. de repente no não ultra venha uma saida dvi e outra vga.

Link para o comentário
Compartilhar em outros sites

e as lan houses??? como q fikam? c estes jogos em FPS q sao muito pesados acabarem conquistando o modo multiplayer (isso na lan house), o pessoal da lan vai ter dinheiro pra investir em computadores com essas placas caras pra caramba?!... porque pelo menos ond eu jogo, os computadores já estão bem fraquinhos... :aranha:

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Bleza de detalhe Red

Na minha Radeon veio junto esses conectores e cabos. Só que nunca usei a outra saída. Tô pensando em ligar no TVZão de 29' quando for ver algum dvd.

Mas a disputa amiga de opiniões traz ganhos pra todos...o que não gosto de ver é quando começa a atacar um ao outro. Vejo todos aqui como meus amigos e nem conheço pessoalmente. Não vamos nos esquecer dos princípios sociais. Somos todos hermanos....o assunto tá bom d++++ :palmas:

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Toninho_Sv@15 abr 2004, 02:35

Pode até ser limitação do cpu, o que é estranho porque em 1024x768 exige bem menos da pv e da cpu do que em 1600x1200. Vai entender essas tecnologias...

ahhhhhhh meu...desculpa cara mas você tá sendo totalmente CONTRADITÓRIO quanto ao que está dizendoXo que a placa de vídeo é

cara... a diferença em 1024x768 é pequena PORQUê?

porque a CPU limita!!!!!!

liga uma GEFORCE 2 MX 64 bit e uma GTS no meu pc:

a 640x480 o framerate vai ser EXATAMENTE o mesmo... mas começa a aumentar a resoluçaõ...a diferença de desempenho vai ser ENORME, simplesmente porque uma vai começar a perder desempenho... e a outra vai MANTER este desempenho.

ou seja... a 1024x768 todas as placas são capazes de rodar XX FPS porque é o máximo q o PC dá (ainda que elas tenham recursos sobrando)

a partir disso... as q não tem mais CAPACIDADE, vão começar a perder desempenho...

Se NÃO COMEÇAR a perder, é porque A PLACA ainda não chegou no limite...mas a CPU já.

Ou seja, quando se aumenta a RESOLUÇAÕ DO VÍDEO, você força A PLACA DE VÍDEO, não a cpu... pra CPU tanto faz como tanto fez você jogar a 640x480 ou a 1600x1200, se a placa de vídeo aguentar, vai ter o mesmo FPS em qualquer resolução.

se a limitação fosse a PV, o framerate ia ser alto em resoluções menores e DESPENCAR nas maiores, portanto essa placa É SIM, MUIIIIITOOOOOO superior a qualquer outra já lançada.

quanto a dizer q não tem porque pegar uma placa q só dá 5 FPS de diferença a 1024x768, e q td mundo tem monitor 15"...

Caramba meu! quem vai ser o ***** de usar uma placa dessas num monitor de 15'???? é preferível então gastar menos numa PV e comprar um monitor melhor...

Justamente o motivo da evoluçaõ é este, jogar em resoluções maiores com menor perda de desempenho...

se for p jogar a 1024x768 pega qualquer Ti 4600 da vida q vai rodar td de boa (eu sei porque já testei aqui..até na minha carroça rodou tudo TRANQUILO.

CHEGA! cansei de dar explicações, mesmo porque não vim aqui pra defender a NVIDIA.

Simplesmente TINHA que escrever alguma coisa para "botar os pingos nos ÍS" nesse tópico.

eu acho MUITO BOM a gente esperar a ATI lançar a placa nova dela p tirar conclusões... lembrem da FX...td mundo esperava muito e foi uma decepção... assim pode ser com as novas radeons... como também pode ser mais um GRANDE SALTO de desempenho... é só esperar para ver.

ps: e porquÊÊÊÊ...meu deus PORQUÊêê não usaram um athlon 64 E um p4? porque só o P4? ele poderia apresentar resultados diferentes..seria interessante...

(ps: ainda não li o review completo...só o q foi falado no Clube do Hardware e alguma coisa no tomshardware)

espero não ter posto lenha na fogueira.

Abraços.

Calma cara, você não me entendeu direito, eu não sou muito entendido nisso também daí fica difícil. Tipo, é que eu tinha uma Geforce2mx 400, e o fps aumentava a cada resolução que eu diminuia. Já essa nova FX é o contrário, ela aumenta progressivamente o fps quando aumenta a resolução, olhe só:

1024

<div class='bbimg'>%7Boption%7Dhttp://hardwareanalysis.com/images/articles/large/11081.gif' border='0' alt='Imagem postada pelo usuário' /></div>

1280

<div class='bbimg'>%7Boption%7Dhttp://hardwareanalysis.com/images/articles/large/11082.gif' border='0' alt='Imagem postada pelo usuário' /></div>

1600

<div class='bbimg'>%7Boption%7Dhttp://hardwareanalysis.com/images/articles/large/11083.gif' border='0' alt='Imagem postada pelo usuário' /></div>

Só começa a cair de novo quando chega em 1600. Mas o jogo não tem um limite de fps por resolução, só se a pv trabalha menos em 1024 e mais nas outras, mas não é isso que minha Geforce 2 fazia. Isso que me confunde, pode me dar uma explicação?

Link para o comentário
Compartilhar em outros sites

Graphics Core 256-bit

Memory Interface 256-bit

Memory Bandwidth 35.2 GB/sec.

Fill Rate 6.4 billion texels/sec.

Vertices per Second 600 Million

Memory Data Rate 1100 MHz

Pixels per Clock (peak) 16

Textures per Pixel* 16

RAMDACs 400 MHz

isso aí é as specs da 6800U.. achei q o memory bandwidth seria maior. porque o da 5950U era cerca d 30GB/s, não era? :aranha:

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Red King@15 abr 2004, 02:46

ehehhe vocês tem que admiti tem varios fanaticos aqui porque pra ta as 3h da manha de quinta feira discutindo sobre placas de video tem que ser fanatico mesmo ehehehheheheheh :P  :P  :P

Hahaha verdade, mas também...eu não trabalho amanhã mesmo! :P

e as lan houses??? como q fikam?

Não ficam! Se os fabricantes de jogos puxarem o requerimento REAL do hardware do jeito que estão puxando atualmente, a coisa vai pegar.

O PROBLEMA é Q EM LUGARES COMO NOS ESTADOS UNIDOS E JAPÃO, COMPONENTES PRA PC SAO muito BARATOS... AO CONTRÁRIO DO BRASIL.. PODIAM DAR UM JEITO D BARATEAREM OS PRODUTOS.. SEI LÁ, ninguém GOSTA D TER Q ESPERAR ANOS PRA COMPRAR UMA PLACA Q hoje é PONTA D LINHA.. 

Pois é, lá fora (onde o dinheiro mora) tem muita gente disposta a investir 3000 dólares num PC...o mercado para usuários "entusiastas" e DIY creceu muito...eu mesmo ando meio "escravo" do hardware, esse ano já gastei mais de 1200 reais no PC, ouch.

Acho que isso é um tipo de vício de...consumismo! :zoio:

Voltando ao assunto do tópico...a placa é mesmo fantástica, imagine poder jogar Unreal Tournament 2004 em 1600x1200 com antialiasing em 4x e anisotropic em 8x? realmente um "doce" pros olhos...

Espero que a Nvidia a e ATI, nas próximas placas, adotem um projeto melhor quanto ao consumo de energia pra poder aposentar pelo menos uma das tomadas! :goff:

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Shadow_008@15 abr 2004, 02:54

Só começa a cair de novo quando chega em 1600. Mas o jogo não tem um limite de fps por resolução, só se a pv trabalha menos em 1024 e mais nas outras, mas não é isso que minha Geforce 2 fazia. Isso que me confunde, pode me dar uma explicação?

cara acho que eu sei o que tipo em 1024x768 o gargalo e o processador e em resoluções mais altas e que a pv mostra a sua potencia.

pode ver quando os cara por exemplo do tomshardware vão testar um processador com jogos eles usam 800x600 que ai que o processador e usado.

isso me traz uma ideia: sera que o desenvolvimento dos processadores esta acompanhando o das placas de video ??? eu acho que as pvs estão evoluindo muito mais rapidamente que os processadores.

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Ichigeki@15 abr 2004, 02:59

Espero que a Nvidia a e ATI, nas próximas placas, adotem um projeto melhor quanto ao consumo de energia pra poder aposentar pelo menos uma das tomadas!  :goff:

cara se não estou enganado no modelo pciexpress uma das tomandas vai ser aposentada. somente na versão agp que ha necessidade de duas conexões.

Link para o comentário
Compartilhar em outros sites

Só começa a cair de novo quando chega em 1600. Mas o jogo não tem um limite de fps por resolução, só se a pv trabalha menos em 1024 e mais nas outras, mas não é isso que minha Geforce 2 fazia. Isso que me confunde, pode me dar uma explicação?

Olha cara..desculpa mesmo (em primeiro lugar quero deixar claro q não é nada pessoal, não pretendia ofender você)

Só dei esse exemplo porque achei q você estava fazendo confusão...

mas esse detalhe me havia passado desapercebido...

Nossa...se o limite em 1024x768 é xx FPS, ele TERIA QUE, OBRIGATORIAMENTE,manter ou diminuir, mas NUNCA aumentar quando a resolução é aumentada, né...

explicação... bom... BUG DO JOGO/DRIVERS?(seria a única que me parece possível, já q os drivers p ela devem tar no ínicio do suporte né...)

resumindo, só dei o exemplo porque entendi q você queria dizer q quando a RESOLUÇÃO aumentava a CPU faria a diferença, mas não foi isso o q você quiser dizer, então desculpe, ok?

Ps: agora...cá pra nós... essa placa num monitor 15"... é ruim né... :P eu era mais de juntar uma grana e pegar um monitor maior p despejar td essa POTÊNCIA....

espero q as novas radeons tenham um desempenjo parecido (OU MELHOR!) quanto mais evoluir.... MELHOR PRA NÓS! :P

EM TEMPO:

será q o gráfico não foi postado por eles TROCADO? (note que a radeon também aumentou cerca de 5FPS em 1280...pode ser que eles tenham invertido o 1024x768 com o 1280x1024 no site...será q não?)

Abraços :-BEER

Link para o comentário
Compartilhar em outros sites

eu acho que as pvs estão evoluindo muito mais rapidamente que os processadore.

Certamente. Inclusive a última edição da revista PCs mostrou um projeto muito interessante: usar a GPU para fins científicos.

Já ficou provado que, apesar das placas gráficas não estrem otimizadas para esse tipo de aplicação, ela são muito mais rápidas nas operações for -> next.

Parece que uma Geforce FX 5900 Ultra atinge 20 Gigaflops usando as funções de programabilidade, o que equivale a um Pentium 4 de 10GHz!!!!! :blink:

A comunidade científica certamente vai ficar muito feliz com o lançamento desta placa! Com o poder dela muitas universidades poderão economizar muito dinheiro, ao invés de comprar um supercomputador, montar um cluster de Geforces 6800! :rolleyes:

Mais informações sobre uso das placas gráficas em aplicações científicas: http://www.gpgpu.org/ e http://graphics.stanford.edu/projects/brookgpu/

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Red King@15 abr 2004, 03:00

cara acho que eu sei o que tipo em 1024x768 o gargalo e o processador e em resoluções mais altas e que a pv mostra a sua potencia.

pode ver quando os cara por exemplo do tomshardware vão testar um processador com jogos eles usam 800x600 que ai que o processador e usado.

Mas é meio estranho isso, então a pv só trabalha com sua real potência em resoluções grandes?

isso me traz uma ideia: sera que o desenvolvimento dos processadores esta acompanhando o das placas de video ??? eu acho que as pvs estão evoluindo muito mais rapidamente que os processadore.

Eu também acho, e tenho uma teoria: talvez, com os desenvolvedores de processadores aperfeiçoam a tecnologia de processamento cada vez mais, isso já deixa um caminho aberto pros desenvolvedores de PVs fabricarem seus gpus sem terem que se importar com evolução de gpus, isso quem faz são os desenvolvedores de processadores. Será isso?

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Toninho_Sv@15 abr 2004, 03:06

Olha cara..desculpa mesmo (em primeiro lugar quero deixar claro q não é nada pessoal, não pretendia ofender você)

Só dei esse exemplo porque achei q você estava fazendo confusão...

Ô, eu que peço desculpas, devo ter me expressado mal e você entendeu daquele jeito, culpa minha. Desculpe

mas esse detalhe me havia passado desapercebido...

Nossa...se o limite em 1024x768 é xx FPS, ele TERIA QUE, OBRIGATORIAMENTE,manter ou diminuir, mas NUNCA aumentar quando a resolução é aumentada, né...

explicação... bom... BUG DO JOGO/DRIVERS?(seria a única que me parece possível, já q os drivers p ela devem tar no ínicio do suporte né...)

EM TEMPO:

será q o gráfico não foi postado por eles TROCADO? (note que a radeon também aumentou cerca de 5FPS em 1280...pode ser que eles tenham invertido o 1024x768 com o 1280x1024 no site...será q não?)

Abraços :-BEER

Vou ver nos outros benchmarks da FX 6200 se acontece o mesmo com ela e as outras pvs, daí fica uma boa pergunta do que é isso.

Ps: agora...cá pra nós... essa placa num monitor 15"... é ruim né... :P eu era mais de juntar uma grana e pegar um monitor maior p despejar td essa POTÊNCIA....

Essa eu admito que não pensei hehe, já tá meio de madrugada (amanhã não tenho aula =D) e tô escrevendo umas besteiras aí. Desculpe hehe.

Abraço! :):bye::-BEER

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Shadow_008@15 abr 2004, 03:10

Eu também acho, e tenho uma teoria: talvez, com os desenvolvedores de processadores aperfeiçoam a tecnologia de processamento cada vez mais, isso já deixa um caminho aberto pros desenvolvedores de PVs fabricarem seus gpus sem terem que se importar com evolução de gpus, isso quem faz são os desenvolvedores de processadores. Será isso?

o que eu quis dizer foi o seguinte:

alguem aqui deve se lembra quando saiu o p4 por incrivel que paressa ele perdia em desempenho pra um p3 de mesma freqüência e essa e uma demontração de que os processadores apesar de terem aumentado muito de freqüência não tiveram grandes aumentos de desempenho em cima da sua arquitetura.

ao contrario das pvs por exemplo: a 6800 tem o mesmo clock da 5800 e e muito mais rapida que ela isso e o que eu chamo de arquitetura e projeto melhor.

p.s. sem contar a diferença da memo da 5800 pra a 6800 que mesmo que fosse a mesma a 6800 iria ganhar em desempenho.

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Red King+15 abr 2004, 03:22-->
Shadow_008@15 abr 2004, 03:10

Eu também acho, e tenho uma teoria: talvez, com os desenvolvedores de processadores aperfeiçoam a tecnologia de processamento cada vez mais, isso já deixa um caminho aberto pros desenvolvedores de PVs fabricarem seus gpus sem terem que se importar com evolução de gpus, isso quem faz são os desenvolvedores de processadores. Será isso?

o que eu quis dizer foi o seguinte:

alguem aqui deve se lembra quando saiu o p4 por incrivel que paressa ele perdia em desempenho pra um p3 de mesma freqüência e essa e uma demontração de que os processadores apesar de terem aumentado muito de freqüência não tiveram grandes aumentos de desempenho em cima da sua arquitetura.

ao contrario das pvs por exemplo: a 6800 tem o mesmo clock da 5800 e e muito mais rapida que ela isso e o que eu chamo de arquitetura e projeto melhor.

p.s. sem contar a diferença da memo da 5800 pra a 6800 que mesmo que fosse a mesma a 6800 iria ganhar em desempenho.

Hmm, sim, valeu a explicação! E concordo. :-BEER

Olhei os benchmarks e só daquele site que está meio estranho mesmo. O Tom's hardware tá certinho:

http://www.tomshardware.com/graphic/200404...ce_6800-33.html

Já esse Hardware analysis:

http://hardwareanalysis.com/content/article/1708.6/

E olha que eles não inverteram nada não, olhem lá.

Bem, vou me recolher, foi interessante discutir, amanhã nós continuamos! :D

Foi tão interessante que me prendeu aqui até 3:36 da matina ahauuhahua! A se meu pai me pega no pc a essa hora. :-BEER

Abraços!

Link para o comentário
Compartilhar em outros sites

1000 vivas para a nvidia..... eu acho que estava demorando d+ para sair uma vga com tamanha diferença.... esse salto tecnologico foi sim um golpe de mestre da nvidia, se o Clube do Hardware falou certo, a estratégia da nvidia é lançar esse chip com um preço não tão salgado como foi o dos ultimos lançamentos,, isso força a ati a desenvolver um chip a altura por um preço similar....

viva a nós consumidores.... somos os maiores beneficiados disso.... com esse novo chip a serie fx deve despencar seus preço( assim espero ) e as radeons vão ter que abaixar para acompanhar... :-BEER

haha ........ isso é muito massa!!!!!!!!! :palmas:

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Shadow_008@15 abr 2004, 02:54

Só começa a cair de novo quando chega em 1600. Mas o jogo não tem um limite de fps por resolução, só se a pv trabalha menos em 1024 e mais nas outras, mas não é isso que minha Geforce 2 fazia. Isso que me confunde, pode me dar uma explicação?

aí sim.. isso se chama humildade! quando não se entende sobre o assunto é melhor perguntar antes de sair discutindo sobre o q não sabe

aqui vai minha humilde explicação dentro do q eu entendo sobre o assunto.. se alguem discorda é só me corrigir

o desempenho da sua gf2 caia quando aumentava a resolução pelo simples motivo de ela não aguentar o tranco em resoluções maiores pois obviamente qnt maior a res maior o trabalho da pv

quando isso acontece (fps cai muito quando aumenta a res) fica claro q o gargalo limitando o desempenho é a propria pv

agora, quando você aumenta a res, e os fps continuam o mesmo (ou caem pouco) fica claro q a limitação esta sendo o cpu

no bench da 6800u, o aumento de 5 fps q você viu quando aumentou-se a res de 1024x768 para 1280x1024 está dentro da margem de erro e aí podemos dizer q a placa manteve seu desempenho quando se aumentou a res (aí fica fica nakilo q disse ali em cima, quando se mantem os fps em res maiores, o gargalo do desempenho foi o CPU)

isso é exatamente a mesma coisa q acontecia quando foi lançada a radeon 9700pro saltando da 8500.... nos testes em jogos da epoca, os fps da 9700pro se mantinham (ou caiam pouco) quando aumentava-se a res, enquanto q as placas anteriores se igualavam em fps com ela em res menores de 800x600 e despencavam em res maiores

to me baseando no q li em todos os sites de benchs da 6800 q sairam ate agora

Link para o comentário
Compartilhar em outros sites

Zuma, concordo com o que você disse, entendi tudo, tem bastante nexo. Porém, acho que o erro é do site mesmo, vou pôr um outro benchmark aqui e você vai ver que a diferença de 5fps de 1024 para 1600 vai ser um pouco maior, olhe só:

Agora no UT2004:

1024

<div class='bbimg'>%7Boption%7Dhttp://hardwareanalysis.com/images/articles/large/11084.gif' border='0' alt='Imagem postada pelo usuário' /></div>

1280

<div class='bbimg'>%7Boption%7Dhttp://hardwareanalysis.com/images/articles/large/11085.gif' border='0' alt='Imagem postada pelo usuário' /></div>

1600

<div class='bbimg'>%7Boption%7Dhttp://hardwareanalysis.com/images/articles/large/11086.gif' border='0' alt='Imagem postada pelo usuário' /></div>

Tá dentro da margem de erro ainda? São ~7fps a mais, acho que deve estar né?

valeu pela explicação Zuma! :-BEER

PS: só uma coisa, tenho um jogo jedi knight 2, e nele com a Geforce 2 mx 400 o fps chegava em 200 +/- em áreas escuras onde o desempenho é maior na resolução 640x480. Porém, com minha Radeon 9600XT o fps fica travado em 120-130 até mesmo em 640x480 onde o fps deveria subir as alturas, e olha que não é nenhum limite de fps do jogo. O que pode ser?

Link para o comentário
Compartilhar em outros sites

Postado Originalmente por Shadow_008@15 abr 2004, 10:49

PS: só uma coisa, tenho um jogo jedi knight 2, e nele com a Geforce 2 mx 400 o fps chegava em 200 +/- em áreas escuras onde o desempenho é maior na resolução 640x480. Porém, com minha Radeon 9600XT o fps fica travado em 120-130 até mesmo em 640x480 onde o fps deveria subir as alturas, e olha que não é nenhum limite de fps do jogo. O que pode ser?

cara se não me engano, jedi knight usa muito de OpenGL (se estiver enganado me corrija), quesito q radeons deixam a desejar.. mas mesmo assim essa diferença estão alta é meio estranho

talvez com a gf2 você não estivesse usando algumas das opções do proprio jogo para melhora na qualidade de imagem (details high, shadows on etc..) e com a 9600xt de agora você ta com essas opções ligadas.. pode ser tamem os proprios AA e AF q agora você usa e antes não usava.. confere aí se não é isso

Link para o comentário
Compartilhar em outros sites

talvez com a gf2 você não estivesse usando algumas das opções do proprio jogo para melhora na qualidade de imagem (details high, shadows on etc..) e com a 9600xt de agora você ta com essas opções ligadas.. pode ser tamem os proprios AA e AF q agora você usa e antes não usava.. confere aí se não é isso

Eu deixava tudo em high na geforce 2 pois tinha um bom desempenho, e a Radeon continua em 120-130. Mas formatei o pc e vou dar uma conferida. valeu!

Link para o comentário
Compartilhar em outros sites

Arquivado

Este tópico foi arquivado e está fechado para novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!