Ir ao conteúdo
  • Cadastre-se

Geforce GTX480 - Tópico Oficial


Posts recomendados

É uma excelente VGA, mas primeiro que a minha fonte não aguenta não (da assinatura), segundo que o bolso não guenta também não, então deixa como tá xD

Eu Nao Diria excelente porque se entende que tem mais Prós que contras o que nao é o caso ja que ela tem 10 contras e um Pró

Link para o comentário
Compartilhar em outros sites

Os donos das "Forni" relatam que após a aquisição destas, não houve mai necessidade de utilizar de outros meios a não ser a própria dissipação térmica dela para cozinha, tomar banho ou aquecer suas residências.

ehuahuaheuahuehaa

Mas sério, acho um desempenho a mais tosco se comparado a temperatura e custo a mais se comparado a HD5870.

Link para o comentário
Compartilhar em outros sites

Eu Nao Diria excelente porque se entende que tem mais Prós que contras o que nao é o caso ja que ela tem 10 contras e um Pró

é, ela não é excelente, é que não queria falar que ela é uma b****, realmente ela só tem 1 pró que é o desempenho, e contras ela tem de monte, perdi até a conta.

Link para o comentário
Compartilhar em outros sites

é, ela não é excelente, é que não queria falar que ela é uma b****, realmente ela só tem 1 pró que é o desempenho, e contras ela tem de monte, perdi até a conta.

Bom, eu não sou Fanboy nem de ATI nem de NVidia (também não estou dizendo que alguém seja) e já fui dono de ambas. Já tive ATi 9600XT, HD2600XT até a HD3870. Em seguida resolvi tentar a NVidia, comecei com uma BFG 9800 GTX OCX e parei na atual GTX 260. Penso que ATI e NVidia são ótimas, e como consumidores conscientes temos que pesquisar bem antes de adquirir seus produtos.

Quem leu na Adrenaline (ou site gringo) a review da arquitetura Fermi viu que não é coisa de se fazer pouco caso não, muito pelo contrário. A ATi também salta aos olhos com o que faz com 256 bits.

:D Concordo com as críticas sobre consumo de energia e acho que, no contexto atual, a NVidia pecou nesse ponto.

:angry: Sobre as temperaturas em load, sim são altas. Mas não acho que nenhum usuário comum/leigo compraria uma placa dessas...elas custam mais que o PC todo (pode incluir monitor e impressora) de alguém nesse perfil. Nós somos diferentes, sabemos que precisamos de uma fonte de pelo menos 600w reais com alta eficiência, um gabinete grande e bem ventilado porque o chip tem um TDP alto, e ele foi fabricado com isso em mente.

Não vou me prolongar muito, mas pelo que li, e li boa parte das reviews sobre a série 5000 e a GTX 4x0, aposto no chip da NVidia.

Link para o comentário
Compartilhar em outros sites

Estou dando muita risada dos fans boys da Nvidia tenho um amigo fanatico por Nvidia eu também gostava anos atrás mas com todo aborrecimento que passei com a minha FX5200 decidi que só compraria Nvidia se fosse realmente bom.

Ainda lembro da piadinha do meu amigo Wagner.

Wagner: Sabe o apagão que teve geral no Brasil?

EU: Sim!

Wagner: Então testaram uma Fermi

EU: HAUHuahUAhuauh

A FX foi apenas uma serie que nao deu certo, a nvidia nao pode ser vista como "lixo" pelo resto da vida so porque fez uma GPU ruim na sua história, que me lembro apenas a FX foi a gpu que deu a nvidia o desgosto, tdas as outras (antes e depois) eram muito boas, me lembro da minha Gf 4MX 440 da MSI que rodava tdos os games com muita qualidade de imagem (tdos os games da epoca dela) e quem nao podia gastar horrores na serie Ti comprava MX, a Ti tinha, alem da performance, a vantagem de ter o efeito Pixel Shadder que faltava nas MX, mas o preco era o triplo!

O Fermi so foi mais um projeto esquisito da nvidia, mas de qualquer forma nao e pior que o concorrente, o problema e quando uma empresa lança sua GPU e ela é pior do que a GPU do concorrente que está a mais tempo no mercado. A nvidia apenas lançou uma GPU que compete de igual para igual com a ATi, embora a Nvidia talvez nao esteja satisfeita com a performance do seu novo chip, eles entraram no mercado que ha muito tempo ja vinha sendo totalmente dominado pela ATi e acredito que este era o foco da nvidia para o momento, apenas concorrer (embora acho que nao ganhe porque a ATi e muito mais custo/benefício atualmente).

O que me deixou chocado foi o seguinte, tiveram tempo de ver o produto concorrente e todos seus pontos positivos e negativos.

Apesar do desempenho ser um pouco superior, o consumo e temperatura não valem seu preço de forma alguma. Isso me remete a época do HD2900 XT onde o cenário era mais ou menos o inverso.

Amigo eles tiveram tempo de analisar a gpu do concorrente, mas quem garante que na epoca em que a Ati estava com as 58xx em fase final de desenvolvimento a nvidia ja nao tinha tb todo seu projeto do Fermi em andamento em uma fase a qual nao tinha mais como voltar atras?

Acredito que embora tivessem tido tempo e varias oportunidades de aprender com a GPU da ATi (que então ja havia sido lancada) o problema e que nao tinham como voltar atrás, pois isso seria catastrofico, então resolveram seguir adiante e eis o resultado!

A essa altura do campeonato, o foco da nvidia deixou de ser "vms ser os melhores" para ser "vms entrar no mercado antes que seja tarde demais"!

Bom, eu não sou Fanboy nem de ATI nem de NVidia (também não estou dizendo que alguém seja) e já fui dono de ambas. Já tive ATi 9600XT, HD2600XT até a HD3870. Em seguida resolvi tentar a NVidia, comecei com uma BFG 9800 GTX OCX e parei na atual GTX 260. Penso que ATI e NVidia são ótimas, e como consumidores conscientes temos que pesquisar bem antes de adquirir seus produtos.

Quem leu na Adrenaline (ou site gringo) a review da arquitetura Fermi viu que não é coisa de se fazer pouco caso não, muito pelo contrário. A ATi também salta aos olhos com o que faz com 256 bits.

:D Concordo com as críticas sobre consumo de energia e acho que, no contexto atual, a NVidia pecou nesse ponto.

:angry: Sobre as temperaturas em load, sim são altas. Mas não acho que nenhum usuário comum/leigo compraria uma placa dessas...elas custam mais que o PC todo (pode incluir monitor e impressora) de alguém nesse perfil. Nós somos diferentes, sabemos que precisamos de uma fonte de pelo menos 600w reais com alta eficiência, um gabinete grande e bem ventilado porque o chip tem um TDP alto, e ele foi fabricado com isso em mente.

Não vou me prolongar muito, mas pelo que li, e li boa parte das reviews sobre a série 5000 e a GTX 4x0, aposto no chip da NVidia.

Eu concordo com você em relação a essas piadas e tal, e entendi o que seu post deixa nas entrelinhas (fanboys da ATi contentes e aliviados em saber que o GF100 nao foi aquele torpedo que tornaria as ATi 5000 um grande lixo perante ele), mas no cenario atual e de acordo com o mercado, eu aposto no chip da ATi, afinal o custo/benefício e muuuuuuitoooo maior, falando em R$ acho que a GF470 vira para o Brasil com preco cerca de 200 a 300 reais mais caro que a 5850 oferecendo apenas entre 7 e 20% a mais de performance dependendo do jogo, e em alguns casos oferecendo menos performance até do que a 5850 e é ai que a nvidia morre com a GF470, pois eu por exemplo se fosse p/ gastar então 200 300 reais a mais na placa de video, compraria então a 5870 que e mais rapida que a GF470 e teria uma placa melhor do que ambas 5850 e GF470. Qto a GF480, bom acho que se for para ter a mais rapida, o cara pagaria um pouco a mais partiria para uma 5970 que ja e uma multgpu e ficara com a placa mais rapida da atualidade, embora nao seja uma comparacao justa ja que a 5970 tem 2 gpu e a GF480 apenas uma...mas e mais ou menos por ai a ideia!

Link para o comentário
Compartilhar em outros sites

paulo, concordo contigo, só não sei se a comparação é injusta, pois afinal a GTX480 e a HD5970 consomem o mesmo apesar de ser single X dual. Na verdade, só é injusta porque a GTX480 chega em temperaturas bem mais altas... :D

Além disso, não tinha MESMO como a nvidia mudar o projeto. Ela inventou uma arquitetura inteiramente nova, algo que ela vai lançar nas próximas 3-4 gerações de placas. O que tá dando água na boca de quem defende a ATI é que a gente tá vendo literalmente a reversão do jogo do que aconteceu com a R600 ou HD2900XT, e isso que ela não rompia os absurdos de consumo e temperatura que a GTX480 rompe.

A minha aposta seria que o Fermi2 ficaria "jóinha" já, mas com o atraso dos 28nm na TSMC, eu não sei se ele vai melhorar tanto assim.... Depender só de melhoria no projeto, sem melhoria no processo, é ****. E isso sim, eu admito que vai ser ruim pra todos. Por enquanto, só uma chapuletada muito bem dada e merecida no lado do ouvido da nvidia. Melhor só se os fanboys admitissem que essa placa é um desastre da mesma forma que foi o R600 pra ATI, e não ficar falando barbaridades por aí como "se a GTX480 tá arrombando (10% é arrombar?) a HD5970 (daonde que ela ganha da 5970?), imagina quando lançarem a versão dual (ok, dual vai ter o que, TDP de 600W, cooler quad-slot com uma dúzia de heatpipes, 4 conectores de 8 pinos e não vai ser autorizada de vender nem nos mercados europeu e americano por causa da legislação energética e do padrão pci-e, ela vai ser exclusivíssima pros extremamente importantes mercados brasileiro e do sri lanka!!! :D )"... :P

Link para o comentário
Compartilhar em outros sites

paulo, concordo contigo, só não sei se a comparação é injusta, pois afinal a GTX480 e a HD5970 consomem o mesmo apesar de ser single X dual. Na verdade, só é injusta porque a GTX480 chega em temperaturas bem mais altas... :D

Além disso, não tinha MESMO como a nvidia mudar o projeto. Ela inventou uma arquitetura inteiramente nova, algo que ela vai lançar nas próximas 3-4 gerações de placas. O que tá dando água na boca de quem defende a ATI é que a gente tá vendo literalmente a reversão do jogo do que aconteceu com a R600 ou HD2900XT, e isso que ela não rompia os absurdos de consumo e temperatura que a GTX480 rompe.

A minha aposta seria que o Fermi2 ficaria "jóinha" já, mas com o atraso dos 28nm na TSMC, eu não sei se ele vai melhorar tanto assim.... Depender só de melhoria no projeto, sem melhoria no processo, é ****. E isso sim, eu admito que vai ser ruim pra todos. Por enquanto, só uma chapuletada muito bem dada e merecida no lado do ouvido da nvidia. Melhor só se os fanboys admitissem que essa placa é um desastre da mesma forma que foi o R600 pra ATI, e não ficar falando barbaridades por aí como "se a GTX480 tá arrombando (10% é arrombar?) a HD5970 (daonde que ela ganha da 5970?), imagina quando lançarem a versão dual (ok, dual vai ter o que, TDP de 600W, cooler quad-slot com uma dúzia de heatpipes, 4 conectores de 8 pinos e não vai ser autorizada de vender nem nos mercados europeu e americano por causa da legislação energética e do padrão pci-e, ela vai ser exclusivíssima pros extremamente importantes mercados brasileiro e do sri lanka!!! :D )"... :P

Acho cedo pra falar que a Fermi é um desastre, as vendas ainda nem começaram. E como a própria Nvidia ressaltou, o chip foi feito pra trabalhar em altas temperaturas, não acho que isso seja o problema, dada a explicação do meu post anterior.

Além disso, com a nova arquitetura a NVidia vai investir pesado no lobby e mais e mais jogos vão ter o selo "The Way It's Meant To Be Played". Peguem como exemplo o Batman: Arkham Asylum. É outro jogo sem physx. A NVidia esta muito mais presente dentro das produtoras de games que a ATi, e faz muita diferença quando quando a própria produtora do game otimiza os gráficos para um determinado hardware/arquitetura.

Mais uma vez, a Cypress, Hemlock são placas TOP, sem dúvida. Aquestão não é essa. Acho que o ponto aqui é, além do desempenho, custo benefício, consumo, TDP, qual padrão a indústria adotará? NVidia ou ATi?

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Acho cedo pra falar que a Fermi é um desastre, as vendas ainda nem começaram.

Exatamente. Vários meses de atraso, preço alto e disponibilidade ruim, ele está falhando sucessivamente..

E como a própria Nvidia ressaltou, o chip foi feito pra trabalhar em altas temperaturas, não acho que isso seja o problema, dada a explicação do meu post anterior.

Amigo, isso foi desculpa esfarrapada por parte deles. Quanto maior a temperatura, pior é pro chip e pro proprietário, mesmo que ele ainda possa esquentar mais operando dentro do limite.

Além disso, com a nova arquitetura a NVidia vai investir pesado no lobby e mais e mais jogos vão ter o selo "The Way It's Meant To Be Played".

Se ela não tiver $$, difícil.

Peguem como exemplo o Batman: Arkham Asylum. É outro jogo sem physx. A NVidia esta muito mais presente dentro das produtoras de games que a ATi, e faz muita diferença quando quando a própria produtora do game otimiza os gráficos para um determinado hardware/arquitetura.

Este cenário está mudando. ;)

Mais uma vez, a Cypress, Hemlock são placas TOP, sem dúvida. Aquestão não é essa. Acho que o ponto aqui é, além do desempenho, custo benefício, consumo, TDP, qual padrão a indústria adotará? NVidia ou ATi?

Se a indústria for sensata, nenhum dos dois, ela vai desenvolver seus jogos para que o consumidor escolha a placa que quer. ^_^

Link para o comentário
Compartilhar em outros sites

Exato, esse atraso e consequente indisponibilidade foram falhas sim, mas foi o preço que a NVidia pagou por criar uma arquitetura inovadora, e isso é um fato. A maneira como esse chip da NVidia lida com os gráficos vai ser base para muitos outros chips daqui pra frente.

Exemplo: Meu note de trabalho tem um AMD Turion X2 64. Ele trabalha a 90 graus quando compilo meus programas, as vezes mais. Entrei em contato com a AMD, além de outros usuários, e alegaram que esta dentro da faixa de operação do chip. O que quero dizer com isso é que todos os chips tem uma faixa de temperatura na qual ele trabalha sem problemas. Claro que, caso você use um cooler melhor que o stock, o chip trabalhará em uma temperatura mais baixa, o que é sempre bom.

A NVidia tem bastante $$, te garanto. Ela não vive só de de placas pra jogos/desktops. Ela fatura alto no ramo profissional e cinetífico também.

Espero que esse cenário mude mesmo, mas façamos uma analogia com um fato recente: Blu-Ray...

Pelo nosso ponto de vista não seria algo sensato, o que você disse é certo. Mas para no ponto de vista dos empresários o sensato é fazer dinheiro...nós sabemos como funciona.

Link para o comentário
Compartilhar em outros sites

Pelo menos teremos novos conceitos em gabinetes.

Agora sim vai dar pra separar gabinete bom de gabinete ruim.

Ou será que todos serão ruim pras temperaturas desa placa e teremos uma nova geração de gabinetes bons.

Acho que o ideal é colocar 02 coolers 12x12 na tamba lateral jogando ar no sistema, + 03 em baixo no gabinete jogando ar diretamente na VGA + 03 em cima fazendo exaustão + 01 jogando o ar do cooler para fora.

A fonte?

Fica aí uma boa pergunta pros fabricantes de gabinetes.:D

Link para o comentário
Compartilhar em outros sites

só um detalhe: compilação em notebook OBVIAMENTE ele vai esquentar. E notebook sua chips especiais, escolhidos a dedo, cherrypicked.

Numa placa de vídeo pra desktop, tu joga tudo o que funcionar, guarda os cherrypicked pra laptop também ou pros q pagarem mais fazerem as suas OCed.

Desculpa, mais de 90 graus, fácil, em qq jogo? mesmo que o dissipador de conta da gpu, 2ª lei não te ajuda, calor continua sendo forma de transferência de energia não direcionada exceto se a fonte fria estiver a zero Kelvin, e portanto um "rabo quente" ligado dentro do gabinete VAI atrapalhar a vida do resto dos teus equipamentos. Num gabinete sensacional, essa atrapalhação vai ser muito reduzida (tem q ser sensacional pra dar conta de temperatura suficiente pra ferver água, o que significa que não é pouco o calor que tá saindo daquele chip!), mas vai estar lá.

Sejamos claros: tá dentro da faixa de operação do teu turion, tá. Mas tá lá no limite. E tu consegue isso num notebook, no Brasil. Esses 92-94 da nvidia, em gabinetes gigantes, no inverno europeu tão uma piada de mal gosto. o limite de operação vai ser o que, 105, 110 no máximo dos máximos? eu duvido q chegue lá em segurança.

qto a indústria, existem padrões de sobra. a menos de uma cachorrada muito mal vista como foi no batman, desativando FILTRO, o que a nvidia pode fazer na indústria é forçar ajuda a coisas como cuda, physx, etc. mas pra cada uma delas vem vindo o concorrente livre, e isso vai aos poucos impedindo mais e mais essa "presssão por usar o meu padrão pessoal"...

o q se chama de ramo profissional, das quadro, acho q a nvidia não deverá ter problemas. estamos em geral falando de workstations. Agora, o Fermi no ramo científico ainda não vejo como vai funcionar. É a mesma história, estamos falando de cluster, estamos falando de gabinetes 1U com até 4 placas, e estamos falando de uma "dissipação máxima" anunciada da geração anterior que é (miseravelmente) inferior à "dissipação típica" anunciada desta geração. Eu ainda não sei como eles vão fazer, tá pra sair daqui a pouco a "menorzinha" delas, e me desculpem, é calor demais a ponto de se trocar a palavra "máxima" por "típica"...

Como eu disse: a nvidia arriscou alto, e tinha que arriscar alto mesmo! O fato de os fãs da nvidia não admitirem que ela tá ****** nesta é o mesmo que os fãs da ati dizerem que ela não se ***** com a HD2900XT, e isso que irrita. Admitam, o Fermi 1 tá ******, mas lança o alicerce pro Fermi 2, 3, 4, etc, assim como a R600 lançou pra R700, R800, etc... Parece ser padrão, toda mega mudança de arquitetura de GPU **** o fabricante, a primeira é infantaria, vai pro campo de batalha só pra apanhar, e aos poucos é que vai se acertando.

O grande problema que a nvidia vai ter, e que a ati não teve? o atraso dos novos processos em litografias menores pelas fabricantes. Isso atrapalha e muito o Fermi 2.

Último detalhe: interessante observar que o teste do xbits mostrou que a GTX480 ainda consome menos que a GTX295. Essa tinha o TDP de 289W. Engraçado ambas consumirem mais que a HD5970, que tem um TDP de 294W? ;)

Link para o comentário
Compartilhar em outros sites

Observem nas reviews que junto com o consumo maior e maior temperatura o desempenho em altas resoluções (tecnologia cade vez mais acessível) com filtros ativados também foi maior, e a diferença não foi nada desprezível.

E pelo andar da carruagem, os jogos ficando cada vez mais realistas, acho difícil que se mantenham níveis de consumo e consequente temperatura nos mesmos patamares pra sempre. Desse jeito a tendência desses valores é sempre subir, mas concordo que deveria ser de forma mais gradual ao invés de "chutar o balde" assim.

Bom, já deixei claro meu ponto de vista, agora prefiro esperar pra ver. Chamar a Fermi de desastre pra min é um exagero. Também não vi especialista nenhum dizendo isso. Certo ou errado não tenho nada contra NVidia ou ATi. Acho que ambas são ótimas no que fazem, e não vou reagir de maneira passional por uma ou outra.

Link para o comentário
Compartilhar em outros sites

...

Último detalhe: interessante observar que o teste do xbits mostrou que a GTX480 ainda consome menos que a GTX295. Essa tinha o TDP de 289W. Engraçado ambas consumirem mais que a HD5970, que tem um TDP de 294W? ;)

Mas TDP e consumo não seriam coisas um pouco diferentes? Já vi em vários reviews de CPUs ou GPUs com mesmo TDP mas consumo diferentes.

Li esses textos, mas ou eu não entendi muito bem, ou o TDP e o consumo são coisas diferentes:

http://en.wikipedia.org/wiki/CPU_power_dissipation

http://en.wikipedia.org/wiki/Thermal_design_power

http://www.cpu-world.com/Glossary/T/Thermal_Design_Power_(TDP).html

Alguém poderia explicar melhor?

Link para o comentário
Compartilhar em outros sites

Realmente fiquei decepcionado com a Gtx480, eu esperava que ela seria muito mais rapida doq é, pois as espeqitativas eram bem altas, realmente ela é a mais rapida, mais sera que valeria a pena ter esperado qse 6 meses para ter uma placa com pouco mais de 20%, sendo q o preço da mesma saiu muito alto, sendo q consome muita energia e é muito esquentadinha, sempre fui fanboy da nVidia, so q agora realmente estou veno como a Radeon esta na frente nessa luta, como comprei minhas placas de video por 2k, e a GTX480 ta saino no mercado brasileiro por volta deste preço, estou muito contente em t adquirido uma coisa a 3 meses atrás , que ainda continua como o mesmo desempnho com a top de linha, sendo q iria gastar o mesmo dinheiro! e olha q 3 meses o preço da placa abaixo muito, de 1000, voce esta axano ela na casa dos 850.Para quem gosta valeu a pena . Teste provano que 5850 CrossFireX é equivalente ou melhor que a GTX480 ta ai : http://www.hexus.net/content/item.php?item=24061 .

Link para o comentário
Compartilhar em outros sites

Mas TDP e consumo não seriam coisas um pouco diferentes? Já vi em vários reviews de CPUs ou GPUs com mesmo TDP mas consumo diferentes.

Li esses textos, mas ou eu não entendi muito bem, ou o TDP e o consumo são coisas diferentes:

http://en.wikipedia.org/wiki/CPU_power_dissipation

http://en.wikipedia.org/wiki/Thermal_design_power

http://www.cpu-world.com/Glossary/T/Thermal_Design_Power_(TDP).html

Alguém poderia explicar melhor?

Isso ajuda?

Distinção entre TDP e consumo das VGA (fórum daqui mesmo):

http://forum.clubedohardware.com.br/distincao-entre-tdp/759620

Link para o comentário
Compartilhar em outros sites

sim, TDP e consumo são coisas diferentes... só q dá a impressão q a nvidia é mais "modesta" quando estabelece seus TDPs, se formos tirar pelo consumo... Pode não ter muito a ver, mas eu estranhei, imaginava consumos semelhantes frente ao respectivo "máximo" (TDP).

Alexandre, posso estar desatualizado... mas o que eu lembro dos primeiros testes (primeiro dia de testes) é que a vantagem porcentual do Fermi ia caindo continuamente na medida em que aumentava a resolução (não lembro os filtros, não vou afirmar nada).

eu lembro que pra mim não fazia o mínimo sentido isso. Por isso marcou e me lembro. ;)

Link para o comentário
Compartilhar em outros sites

A desculpa de que "os chips foram desenvolvidos para rodar em altas temperaturas e com bastante consumo" foi de longe uma das coisas mais ridículas que eu já vi. Qué vê, essas placas aí vão morre que nem as 8800GT. A "venda" no ML tá com preços absurdos. Até agora tá tudo desastroso.

Link para o comentário
Compartilhar em outros sites

Andei lendo na net que essa seria a semana final de preenchimento dos estoques da newegg e algumas outras lojas do exterior para início das vendas da GTX 480 e 470. Sendo assim, quando será que as lojas daqui (tipo WAZ, Kabum, Plugin etc) começarão a ter esses modelos pra venda? E o preço da 480, será que fica em torno dos R$ 2000?

Link para o comentário
Compartilhar em outros sites

Visitante
Este tópico está impedido de receber novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!