Ir ao conteúdo
  • Cadastre-se

NVIDIA Kepler - GTX 680, 6xx


Posts recomendados

FINALMENTE, a espera acabou xD (não estou usando smiles do CdH para não contar como imagem ;D)

Aqui você pode ver o review do CdH: https://www.clubedohardware.com.br/artigos/Teste-da-Placa-de-Video-EVGA-GeForce-GTX-680/2527

Outros reviews externos:

Anandtech: http://www.anandtech.com/show/5699/n...gtx-680-review

HardOCP: http://www.hardocp.com/article/2012/...eo_card_review

PcPerspective: http://www.pcper.com/reviews/Graphic...-Kepler-Motion

LanOC: http://lanoc.org/review/video-cards/...gtx-680-kepler

PureOverclock: http://www.pureoverclock.com/article1461.html

eTeknix: http://www.eteknix.com/reviews/graph...s-card-review/

Legit Reviews: http://www.legitreviews.com/article/1881/1/

Tech-Powerup: http://www.techpowerup.com/reviews/N...Force_GTX_680/

Hardware Heaven: http://www.hardwareheaven.com/review...roduction.html

O consenso geral parece ser mesmo o que vimos nos rumores que saíram ao longo do tempo: menor consumo de energia com maior performance. Nada absurdo como era relatado: em alguns jogos ela perde, em outros empata, porém na maioria ela deixa a 7970 bem atrás. Temos que nos lembrar também que esse é o GK104 (GTX 680), e os boatos diziam que a GTX 680 seria o GK110. Acredita-se que a NVIDIA tenha decidido lançar o GK104 como GTX 680 para ter espaço para seus chips futuros. Ainda não se sabe se o chip que seria a GTX 680 vai ser deixado para a série 7xx ou se virá como uma 685 (o que parece improvável). Mas, voltando a placa: o mais impressionante é que a NVIDIA conseguiu fazer tudo isso sem construir monstros como foi na geração passada, ou seja, conseguiu boa performance, mas também com boa eficiência.

A GTX 680 veio também com novos recursos:

http://geforce.com/whats-new/articles/introducing-the-geforce-gtx-680-gpu/

-->Suporta até 4 monitores, sem a necessidade de SLI (antes era necessário duas placas (SLI) para suportar três monitores (para jogar em 3D Vision Surround, por exemplo)).

3d-surround.png

-->Introduziu um novo algorítimo de Anti-Aliasing, o TXAA, além do novo Driver-forced FXAA, que permite usar FXAA em qualquer jogo, forçando pelo driver.

8x-msaa.png

msaa-txaa.png

-->Introduziu também o GPU Boost, tecnologia similar ao Turbo Boost da Intel: ela ajusta automaticamente o clock da placa de vídeo de acordo com a necessidade de FPS.

nvidia-gpu-boost-uses-available-power.png

O algorítimo olha o uso de GPU, a temperatura da GPU, consumo de energia, entre outros fatores, para determinar quanto do clock deve ser aumentado. Third-parties também estão lançando programas com suporte ao "NVIDIA Framerate Target", onde você pode especificar quanto FPS você deseja no jogo, e o GPU Boost vai ajustar o clock de acordo com a necessidade.

GTX680-EVGAPrecisionX-FrameRateTarget-650.png

--> Adaptive V-Sync: O Adaptive V-Sync alterna entre V-Sync ON e OFF de acordo com o FPS do jogo. Se o FPS passar de 60, o driver vai ligar o V-Sync para evitar o Tearing. Porém em uma cena pesada, o V-Sync pode atrapalhar o gameplay limitando o FPS, por isso é desativado. Se tudo der mesmo certo como a NVIDIA disse, isso vai tirar a necessidade de se usar o Triple-Buffering (o que vai diminuir o uso de VRAM).

gamer-tear-vsunc-off.png

vsync-shutters-frame-rates-drop.png

adapative-vsync.png

Apesar de todo esse poder, a NVIDIA GTX 680 não é perfeita, e peca no GPGPU:

[Fonte: Anandtech]

http://images.anandtech.com/graphs/graph5699/45163.png

http://images.anandtech.com/graphs/graph5699/45164.png

http://images.anandtech.com/graphs/graph5699/45166.png

45165.png

Apesar de ficar pra trás no teste do Civ5 e [MUITO] atrás no teste do SmallLuxGPU, a NVIDIA diz que isso é devido ao fato de ainda não terem trabalhado em otimizações nessa área, e que essa não é a real performance GPGPU da 680 (apesar de que, convenhamos, será que otimizações poderiam trazer 16.000 raios/s de volta?). Além disso também é sabido que as Geforce nunca se deram bem em renderizações em OpenCL. Resta esperar renders com ela usando CUDA para saber como é a real performance dela no ray-tracing.

A GTX 680 está saindo a US$499, ~$50 mais barato que a 7970, o que mostra que realmente a NVIDIA fez a lição de casa: além de eficiente, ainda veio com preço competitivo.

Desculpem pelas várias imagens em links, mas o CdH tem um limite de 10 imagens por post :@

post-792094-13884962311497_thumb.png

post-792094-13884962314719_thumb.png

post-792094-13884962315253_thumb.png

  • Curtir 2
Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Acho que terá uma boa semelhança com a arquitetura Fermi, mas bem melhorada e, principalmente, com consumo de energia moderado, e claro, será bem forte.

Dependendo de como o mercado de GPGPU se comportar, eles vão caprichar um pouco mais neste ponto para as placas "desktop".

Obrigado pela iniciativa, tópico "oficializado". :joia:

EDIT-

Ah, esqueci !

2011 eu não sei, talvez saia uma renovação do Fermi, mas até o fim do ano o processo de fabricação em 28 nm deverá estar disoponível, então, alguma coisa boa vai sair !

Link para o comentário
Compartilhar em outros sites

EDIT-

Ah, esqueci !

2011 eu não sei, talvez saia uma renovação do Fermi, mas até o fim do ano o processo de fabricação em 28 nm deverá estar disoponível, então, alguma coisa boa vai sair !

Eu também estou achando que vai ter uma renovação do Fermi, pois a GTX 580 já tem 512 CUDA cores, e parece que esse é o máximo das atuais FERMIs. Não acho que eles vão ficar lançando mid-end até chegar as keplers. Provavelmente iremos ver ainda uma GTX6xx baseada em Fermi.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Pra mim e acho que pra muita gente, o Kepler é baseado no Fermi, assim como as Radeon tem a "mesma aquitetura" desde a série 2000 até as 68*0, ou como a própria NVIDIA fez desde o lançamento da série 8.

A grosso modo é bem parecido, o que mudam são os detalhes, e às vezes eles fazem uma baita diferença.

Link para o comentário
Compartilhar em outros sites

Pra mim e acho que pra muita gente, o Kepler é baseado no Fermi, assim como as Radeon tem a "mesma aquitetura" desde a série 2000 até as 68*0, ou como a própria NVIDIA fez desde o lançamento da série 8.

A grosso modo é bem parecido, o que mudam são os detalhes, e às vezes eles fazem uma baita diferença.

Realmente, mudam pouco, mas as vezes fazem muita diferença. Podemos ver isso nas FERMI, que eu achei muito melhor que o projeto anterior. Caso a NVIDIA cumprir o que disse sobre as keplers serem de três a quatro vezes mais rapidas, acho que serão faster and angrier. Fora que elas parecem ser super-focadas em GPGPU... quem sabe não conseguimos raytracing nos games de 2011 com a ajuda das keplers?!

Link para o comentário
Compartilhar em outros sites

  • 2 semanas depois...

Ae pessoal, tava pensando um pouco mais sobre as keplers hoje e tive uma duvida: elas serão tres a quatro vezes mais rapidas que as Fermi, mas isso vai ser no FPS mesmo, ou é so teoria, porque se for tres vezes mais rapida, tipo, 60fps na Fermi 180fps na kepler, elas vão ser muito fodahs.. Talvez até full raytracing + full tesselation nos jogos...

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Ae pessoal, tava pensando um pouco mais sobre as keplers hoje e tive uma duvida: elas serão tres a quatro vezes mais rapidas que as Fermi, mas isso vai ser no FPS mesmo, ou é so teoria, porque se for tres vezes mais rapida, tipo, 60fps na Fermi 180fps na kepler, elas vão ser muito fodahs.. Talvez até full raytracing + full tesselation nos jogos...

3 a 4 vezes segundo a mãe da criança, não espere tudo isso na prática. ;)

O ray tracing é pesado, mas é lindimais, acho que a NVIDIA com uma placa forte deste jeito vai conseguir empurrar mais o 3Dvision.

ja estão pensando na Maxwell em 2013? "desempenho por watt até 16x maior do que a linha fermi" isso seria maior consumo ou menor?

Isso quer dizer que ela poderá ser até 16 vezes mais rápida que um fermi, mas consumindo a mesma coisa.

Link para o comentário
Compartilhar em outros sites

3 a 4 vezes segundo a mãe da criança, não espere tudo isso na prática. ;)

O ray tracing é pesado, mas é lindimais, acho que a NVIDIA com uma placa forte deste jeito vai conseguir empurrar mais o 3Dvision.

Aff, queria tanto o raytracing agora... Mas talvez eles usem o reflexo e transparencia do raytracing (os mais pesados)somente nos personagens principias dos jogos e usem transparencia Z e relfexo com env map no resto. Mas pelo menos um tesselation igual ao do Heaven Unigine eu quero!

Link para o comentário
Compartilhar em outros sites

Ray Tracing implantado em jogo com uma performance boa acho que vai demorar um pouco mais (chuto 5 anos, no melhor otimismo), pois esse recurso chega a ser 75x mais pesado que o HDR. Aliás, muitas placas ainda sofrem com um HDR mais elaborado.

Mas, jogar um jogo com tudo que temos hoje de melhor e ainda com os recursos futuros deve ser espetacular. Imaginem um jogo com tesselation extremo, texturas de 8192 x 8192, ray tracing nos gráficos, 3D e Eyefinity no visual, Sounrround 7.1 no áudio e controles de movimento bem planejados. Isso que podem inventar cada vez mais coisas pela frente, pois a tecnologia não vai parar tão cedo.

Link para o comentário
Compartilhar em outros sites

Ray Tracing implantado em jogo com uma performance boa acho que vai demorar um pouco mais (chuto 5 anos, no melhor otimismo), pois esse recurso chega a ser 75x mais pesado que o HDR. Aliás, muitas placas ainda sofrem com um HDR mais elaborado.

Mas, jogar um jogo com tudo que temos hoje de melhor e ainda com os recursos futuros deve ser espetacular. Imaginem um jogo com tesselation extremo, texturas de 8192 x 8192, ray tracing nos gráficos, 3D e Eyefinity no visual, Sounrround 7.1 no áudio e controles de movimento bem planejados. Isso que podem inventar cada vez mais coisas pela frente, pois a tecnologia não vai parar tão cedo.

Texturas 8192 porque se DX11 já tem 16348x16384?! Imagine uma face com um displacement, normal e diffuse de 16384x16384? Oo serial muito real!!!!! Mas vamos parar de pensar em coisas de daqui 200 anos e voltar para as keplers..

O que vocês acham do termo "pre-emption"?

Link para o comentário
Compartilhar em outros sites

Sério que já existem texturas nessa resolução? Meu Deus, quando que mencionaram isso que eu não vi?

Sobre o Pre-emption, a única coisa que eu encontrei no Wikipedia e que faz sentido no contexto é isso: link

Pelo que parece, esses recursos são para programação em GPGPU e não para jogos.

Link para o comentário
Compartilhar em outros sites

Sério mesmo, mais que ray tracing, textura astronômica e blá-blá, as vezes eu acho que o que os jogos precisam para ser mais realistas é outra coisa diferente e (eu espero) mais fácil de ser implementada: mais atenção e detalhe nos modelos dos personagens, especialmente nos modelos de inimigos (soldados, monstros) e "figurantes" (como o público em uma arquibancada em um jogo de corrida).

Hoje em dia eles são simplesmente... simples, existe um modelo que é repetido infinitamente, fazendo com que, por exemplo, todos os soldados sejam praticamente iguais entre si. Quando você vê um jogo de corrida com os carros hiperdetalhados e o mesmo motorista dirigindo todos os carros, é sinceramente broxante. (opa!)

Tipo, eu pergunto aqui, é tão difícil randomizar as características dos modelos? Altura, peso (tamanho)... Por que não randomizar até mesmo as feições? Isso pesa mais no CPU, no GPU ou mesmo na memória? Prometo que com isso o jogo vai ficar mais realista sem tantos efeitos especiais =P.

Queria saber o que está segurando esse avanço, hehe, pois, [piada obscura]em um jogo de aventura, tudo o que eu quero, lá no fundo do meu coração, é saber que 1000 mães estão chorando pela perda de seus filhos pelo fio de minha terrível espada. :D [/piada obscura]

----

Andre, essa preempção parece ser a habilidade de hierarquizar os processos em uma GPU sem que o programa tenha sido feito otimizado para isso. Com isso o OS vai poder utilizar mais eficientemente a GPU e até mesmo vários programas podem ser utilizados ao mesmo tempo de forma eficiente.

Link para o comentário
Compartilhar em outros sites

Sério que já existem texturas nessa resolução? Meu Deus, quando que mencionaram isso que eu não vi?

Sobre o Pre-emption, a única coisa que eu encontrei no Wikipedia e que faz sentido no contexto é isso: link

Pelo que parece, esses recursos são para programação em GPGPU e não para jogos.

Na verdade eu já imaginava que seria para programação GPGPU, mas não sabia exatamente o quera, valeu!

Parece então que elas realmente irão se tornar verdadeiros "General Purpouse" GPUs...

E sim! Já estão aí as texturas 16384x16384! Eu vi em vários sites (só não me lembro quais mais mas é só googlar) quando iria lançar o DX11 falando sobre as novidades, entre elas, texturas 16384x16384!

Sério mesmo, mais que ray tracing, textura astronômica e blá-blá, as vezes eu acho que o que os jogos precisam para ser mais realistas é outra coisa diferente e (eu espero) mais fácil de ser implementada: mais atenção e detalhe nos modelos dos personagens, especialmente nos modelos de inimigos (soldados, monstros) e "figurantes" (como o público em uma arquibancada em um jogo de corrida).

Hoje em dia eles são simplesmente... simples, existe um modelo que é repetido infinitamente, fazendo com que, por exemplo, todos os soldados sejam praticamente iguais entre si. Quando você vê um jogo de corrida com os carros hiperdetalhados e o mesmo motorista dirigindo todos os carros, é sinceramente broxante. (opa!)

Tipo, eu pergunto aqui, é tão difícil randomizar as características dos modelos? Altura, peso (tamanho)... Por que não randomizar até mesmo as feições? Isso pesa mais no CPU, no GPU ou mesmo na memória? Prometo que com isso o jogo vai ficar mais realista sem tantos efeitos especiais =P.

Queria saber o que está segurando esse avanço, hehe, pois, [piada obscura]em um jogo de aventura, tudo o que eu quero, lá no fundo do meu coração, é saber que 1000 mães estão chorando pela perda de seus filhos pelo fio de minha terrível espada. :D [/piada obscura]

----

Andre, essa preempção parece ser a habilidade de hierarquizar os processos em uma GPU sem que o programa tenha sido feito otimizado para isso. Com isso o OS vai poder utilizar mais eficientemente a GPU e até mesmo vários programas podem ser utilizados ao mesmo tempo de forma eficiente.

Pra mim, ainda falta muito realismo nos jogos. Realmente, pode colocar ray-tracing, texturas gigantescas e efeitos abstratos. Podem até mesmo randomizar TODOS os models dos jogos. Mas imaginem: Em um jogo, você nunca vai colocar água em um copo, e depois o copo enche, a agua cai no chão, cai na sua roupa e a deixa mais escura, cai numa outra poça de agua do lado, que faz esta poça respingar na parede ao lado, e mais toda aquela fisica da nossa Terra.... Nem PhysX, nem Havok, nem nenhum desses vão conseguir isso...

Mas falando de Kepler, eu não duvido nada que comecem a vir programas rodando na GPU daqui pra frente... Pena que NVIDIA vs ATI não entram em um acordo o que faz com que as softhouses tenham que adaptar seus programas para cada placa de cada uma. Imagine se sai um jogo em que até a AI é controlada pela GPU!! Que isso!!! Seria muito louco cara!!! (Tadinha das GPUs tem que guentar tudo)...

E realmente, não é difícil randomizar um modelo. Eu trabalho com 3d e sei! Nem que seja alguns vértices, já é o suficiente para ficar diferente, tipo, um olho mais aberto, uma orelha maior, um queixo mais puxado. E dependendo do programa e do modelo, tem até randomização automática! Isso é tudo preguiça mesmo. Talvez essas keplers nem sejam utilizadas como deveriam ser... Pois com tantos coisas pras GPUS serem independentes do CPU, porque até hoje reservá-las pra gráfico 3d (ou 2d)?!

Link para o comentário
Compartilhar em outros sites

A falta de acordo vem muito mais da nVIDIA do que da AMD, ela prefere plataformas próprias como o CUDA e o PhysX. A AMD costuma apoiar códigos abertos.

Embora isso não seja algo tão "maligno" por parte da nVIDIA, é que ela é grande o suficiente para tentar forçar suas soluções, se colar ela lucra bastante. É mais ou menos como a frescura da Apple com o flash.

Lembrei que tinha visto um teste de um sistema de física que me deixou impressionado no que ele fazia com partículas. Mas... você tinha que dar logo o exemplo da água? Poxa, é a coisa mais difícil possível de simular hehe. =P

Quanto a AI ser controlada pelo GPU eu não faço ideia, mas acho meio improvável, talvez até desnecessário pelos avanços atuais nos processadores. Não deve ser tão difícil hoje distribuir a função de AI para um ou dois núcleos. Ainda por cima escrever código para GPU parece ser um pé-no-saco de difícil e longo. E... vou fazer um comentário sem embasamento técnico, mas imagino que as AI não sejam processos altamente paralelos, o que faz com que talvez a vantagem não seja muito grande.

Sobre programas rodando na GPU, com certeza o maior avanço vai vir não dos kepler da vida, mas do fusion da AMD (e do que a Intel fizer), já que é com base no "low-end", no que "todo mundo tem" que as empresas recebem retorno.

Link para o comentário
Compartilhar em outros sites

A falta de acordo vem muito mais da nVIDIA do que da AMD, ela prefere plataformas próprias como o CUDA e o PhysX. A AMD costuma apoiar códigos abertos.

Embora isso não seja algo tão "maligno" por parte da nVIDIA, é que ela é grande o suficiente para tentar forçar suas soluções, se colar ela lucra bastante. É mais ou menos como a frescura da Apple com o flash.

Lembrei que tinha visto um teste de um sistema de física que me deixou impressionado no que ele fazia com partículas. Mas... você tinha que dar logo o exemplo da água? Poxa, é a coisa mais difícil possível de simular hehe. =P

Quanto a AI ser controlada pelo GPU eu não faço ideia, mas acho meio improvável, talvez até desnecessário pelos avanços atuais nos processadores. Não deve ser tão difícil hoje distribuir a função de AI para um ou dois núcleos. Ainda por cima escrever código para GPU parece ser um pé-no-saco de difícil e longo. E... vou fazer um comentário sem embasamento técnico, mas imagino que as AI não sejam processos altamente paralelos, o que faz com que talvez a vantagem não seja muito grande.

Sobre programas rodando na GPU, com certeza o maior avanço vai vir não dos kepler da vida, mas do fusion da AMD (e do que a Intel fizer), já que é com base no "low-end", no que "todo mundo tem" que as empresas recebem retorno.

Ah, cara mas eu espero muito das GPUs viu... pois hoje eu tenho uma GTS 450 que faz ray-tracing muito melhor que vários CPUs por aí... Agora olha o preço de um I7 e da minha GTS 450... A diferença... Obviamente eu comparei um processador high-end com uma placa mid, mas mesmo assim, o motivo da comparação é pela velocidade do cálculo do ray-tracing, que tá bem longe do que as placas estão acosttumadas a fazer hoje. E claro também que as keplers não vão sair rodando tudo quanto é jogo com full ray-tracing mais full tesselation mais full physX, mas já é um grande avanço!

Link para o comentário
Compartilhar em outros sites

Andre, não estou negando que as GPUs no futuro podem fazer milagre com raytracing, tesselation, física e etc. Só dei minha opinião de que, especificamente quanto a AI, eu acho que é uma função mais apropriada para CPUs.

Mas claro, é um comentário sem embasamento técnico (sou um mero curioso).

Link para o comentário
Compartilhar em outros sites

  • 2 meses depois...
  • Membro VIP

GTX590 está mais pro cume de um vulcão. :D

Não tme muito pra onde subir, os chips da GTX590 já são escolhidos a dedo, a disponibilidade é pequena, o consumo é alto e o desempenho não foi espetacular como o esperado justamente por isso.

Todo mundo espera que o Kepler corrija esse consumo alto, seja por uma otimização na arquitetura ou simplesmente pelo novo processo de fabricação.

Eu pessoalmente acho que o Kepler será uma pequena modificação do Fermi, e será uma ótima arquitetura, com ótimas placas como é de costume da NVIDIA nos últimos anos.

Só espero que eles mudem a política de preços.

Link para o comentário
Compartilhar em outros sites

  • 2 semanas depois...

Bom galera, GT 520 saiu este mês, portanto acredito que a série Fermi está quase completa. Antes da Kepler, que deve chegar somente depois de outubro, devemos ver uma 650 ou 660 ainda baseada nas Fermi, algo parecido como ocorreu com a série 9xxxx e GTS 250 que ainda eram baseadas no G92.

Aposto que será baseada na GTX 570 com clock menor e talvez mais alguma restrição de desempenho.

Isso porque ainda falta pelo menos 6 meses pra Kepler chegar, então a Nvidia deve inaugurar a série 6xx pelo entry level antes disso, talvez em julho/agosto.

Também é muito provável que apareça novos "sabores" de GTX 560 e 550 para ajustar a competição no mercado de placas médias e mais baratas, onde a AMD domina as recomendações do Tom's Hardware atualmente.

E sobre Ray Tracing, eu brinquei com o demo Design Garage nas minhas GTX 460 em SLI e achei impressionante. Porém ainda vai levar uns 5 anos ou mais para vermos este recurso usado em larga escala nos jogos. Mas teremos alguma implementação pontual a partir da Maxwell no final de 2013 ou início de 2014.

Abração.

Allan

Live Gamertag AllanGamer

Steam allan_hm

Link para o comentário
Compartilhar em outros sites

também... a NVIDIA tá colocando uns preço muito salgado

salgado não é o preço e sim o imposto, o preço que paguei na minha GTX570 nos EUA daria pra comprar uma GTX590 e sobraria grana pra um i5 2500.

e não é so a nVIDIA que tá salgando não...

resumindo, você compra uma placa pra você e outra pro governo, não haverá solução para os preços de informatica no brasil enquanto não houver redução da carga tributaria(quem sabe extinção :D).

Link para o comentário
Compartilhar em outros sites

Visitante
Este tópico está impedido de receber novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

 

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!