Ir ao conteúdo
  • Cadastre-se

Teste da Placa de Vídeo EVGA GeForce GTX 465 SuperClocked


     85.728 visualizações    Vídeo    55 comentários
Teste da Placa de Vídeo EVGA GeForce GTX 465 SuperClocked

Introdução

O GeForce GTX 465 é o mais novo chip gráfico DirectX 11 lançado pela NVIDIA, sendo mais acessível do que os modelos GTX 470 e GTX 480. Custando nos EUA entre US$ 280 e US$ 300, a GeForce GTX 465 está cotada entre a Radeon HD 5830 (US$ 240 – US$ 275) e a Radeon HD 5850 (US$ 295 – US$ 335). Vejamos como esta versão com overclock de fábrica da EVGA, chamada SuperClocked (SC), se sai em nossos testes.

A nova GeForce GTX 465 usa o mesmo clock interno e o mesmo clock das unidades de processamento da GeForce GTX 470 (607 MHz e 1.215 MHz, respectivamente), mas usa uma interface de memória de 256 bits (a GTX 470 usa uma interface de memória de 320 bits) e um clock de memória que é um pouco menor (3.206 MHz vs. 3.348 MHz). Ela também tem menos motores gráficos (também conhecidos como motores de sombreamento, “shaders” ou “núcleos CUDA”): 353 contra 448. Na tabela abaixo nós comparamos as principais especificações das quatro placas de vídeo incluídas neste teste. O modelo SuperClocked da EVGA vem com um pequeno overclock de 3%.

Placa de Vídeo Clock Interno Clock dos Proc. Clock da Memória (Real) Clock da Memória (Efetivo) Interface da Memória Taxa de Transferência da Memória Memória Proc. DirectX
GeForce GTX 465 607 MHz 1.215 MHz 801.5 MHz 3.206 MHz 256 bits 102,6 GB/s 1 GB GDDR5 352 11
EVGA GeForce GTX 465 SC 625 MHz 1.250 MHz 805 MHz 3.220 MHz 256 bits 103 GB/s 1 GB GDDR5 352 11
Radeon HD 5830 800 MHz 800 MHz 1 GHz 4 GHz 256 bits 128 GB/s 1 GB GDDR5 1.120 11
Radeon HD 5850 725 MHz 725 MHz 1 GHz 4 GHz 256 bits 128 GB/s 1 GB GDDR5 1.440 11

Você pode comparar as especificações dessas placas de vídeo com outras dando uma olhada em nossos tutoriais Tabela Comparativa dos Chips da AMD ATI e Tabela Comparativa dos Chips da NVIDIA.

Vamos agora dar uma olhada completa neste modelo da EVGA.


Análises similares


Comentários de usuários

Respostas recomendadas



A nVídia já ''destravou''. Nos últimos drivers já dá para fazer novamente a combinação ATI + nVídia (PhysX).

Isso foi um bug nesses drivers, a nVidia disse isso publicamente, então quando sair a versão final do driver não vai ser mais possível a combinação das duas. Mas tem driver modificado por aí (faz um tempo já), quem precisa é só dar uma procurada...

Com relação ao teste:

Mais um FAIL da nVidia com a série Fermi.

Horrível essa placa, perde pra HD5830!!

Só ganha no FarCry 2 pois a engine desse jogo favorece a nVidia.

"Engraçado" o teste com PhysX? Depois de todo aquele bafafá do "caso nVidia", e de um teste anterior em que foi dito que não seriam testados o PhysX e o CUDA pois estes não interessavam ao usuário normal, aparece um teste com PhysX...

E pra quem não sabe, ou não lembra, quando o PhysX não roda em GPU (nVidia) roda na CPU usando apenas um núcleo! Isso sim é bloqueio!

[]'s

Link para o comentário
Compartilhar em outros sites

ae nao sei c ja foi informado aqui gabriel mas 3 parte do teste, no final da pagina diz que veremos uma figura com os acessorios porém foi postado a imagem do chip

só um toque ae se for possivel corrigir ;)

parabens pelo teste! eu tava esperando uma disputa dessa aqui a tempos

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

excelente teste, O jogo The Last Remant da Square Enix também usa PhysX para a física do jogo (minhas 8600GT tão sofrendo um pouco com isso), e a square desponibiliza a demo e o programa de bechmark pra download no site oficial do jogo.

Otima iniciativa em incluir jogos DX11 nos testes.

Link para o comentário
Compartilhar em outros sites

ATi mandando no pedaço, mais tenho muita paranóia com placa de video ATI, sempre comprei NVIDIA. Varios amigos meus tiveram problema com placa de video ATI, o que eles mais reclamam é super aquecimento.

Pura paranóia, nesta geração elas esquentam muito menos.

A nVídia ofereceu a ATI o suporte para PhysX, mas a ATI não aceitou (provavelmente por não querer promover uma tecnologia da rival).

Não foi bem isso, ela queria cobrar pelo uso. A ATI não aceitou.

Ah, e a nVídia liberou novamente nos últimos drivers a possibilidade de instalar uma ATI com uma nVídia para o PhysX.
A nVídia já ''destravou''. Nos últimos drivers já dá para fazer novamente a combinação ATI + nVídia (PhysX).

Não liberou, ela publicamente assumiu que era um bug e que vai corrigir o problema no próximo driver.

A questão é que a nVidia está sendo infeliz em suas escolhas e em suas placas nessa geração. Ela tem possibilidade de vender produtos com o PhysX, e com esse driver, todos sabem que é possível e o que se vê é a má vontade da empresa. Essa geração está decepcionando. E o pior cego é aquele que não quer ver...

Link para o comentário
Compartilhar em outros sites

Está ficando complicado para este geração das GTX4xx, se o preço fosse acessível ao público ou com preço concorrendo diretamente com as HD's 5770 ela até poderia vender bem, pois muitos usuários iriam adquirir, mas com este custo/consumo/temperatura não vai valer a pena investir em um jogo completo de fonte/gabinete extremamente ventilado/placa de vídeo somente para rodar o Phyx, claro meu ponto de vista...

Parabéns pela nova metodologia do teste, ficou mas completa.

Agora fiquei com uma dúvida, os drives utilizados no teste das HD58xx foram os atuais ou os antigos??

Uma sugestão era incluisão da HD5770 no teste também para ver o seu desempenho frente a esta nova placa.

Abraços :cool:

Link para o comentário
Compartilhar em outros sites

Finalmente descobri pra que serve o tal do PhysX...

É pra "desabilitar a jogabilidade" nas placas da ATI, kkkkkkkk

Fala sério, jogando sozinho é fácil ganhar, sembre gostei dos produtos da N'Vídia, não pensava em ir pra ATI, não acho que a minha Sapphire 5870 seja a 8ª maravilha do mundo, muito menos que o suporte da AMD/ATI se compare com o da Intel ou da N'Vídia, mas essas duas últimas empresas "subiram a cabeça" em relação ao sucesso que um dia alcançaram, e hoje pagam o preço de perderem mercado, assim como a MicroSoft, que não é mais a toda poderosa maior empresa do setor de Software de outrora.

Ganharia mais a N'Vídia disponibilizando o PhysX para a ATI, assim muito mais jogos seriam programados para a plataforma e ela, como lider e maior desenvolvedora da tecnologia, seria a maior beneficiada com a venda de placas gráficas top ou mesmo placas "dedicadas", ainda que sendo "de entrada", coisa que muitos já falaram a muito tempo eeu só reforço.

Essa GTX-465-SC da EVGA em particular se mostrou decepcionante, alias, esse SC bem poderia ser SEM CHAMATIVOS tamanha é a mediocridade do tal overclock...

Parafraseando um amigo do tópico das relações cortadas, mais uma vez o resultado do teste foi: "ATI no CUDA N'Vídia, e sem cusPhysX outra vez"

É a tipica placa: "compre... se você não achar outra!" tsc, tsc, tsc.

Link para o comentário
Compartilhar em outros sites

Parafraseando um amigo do tópico das relações cortadas, mais uma vez o resultado do teste foi: "ATI no CUDA N'Vídia, e sem cusPhysX outra vez"

huahauabaahu... adorei a frase!!!!! Estava esperando sair esse REVIEW para me decidir q VGA coloco no meu novo PC. Me decidi pela 5850!!!!

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Não foi bem isso, ela queria cobrar pelo uso. A ATI não aceitou.

Bom, mas com o PhysX a ATI poderia roubar uma fatia do mercado que está nas mãos da nVídia. Além do mais você queria que a nVídia entregasse de mão beijada uma tecnologia que desenvolveu para a ATI?

Não liberou, ela publicamente assumiu que era um bug e que vai corrigir o problema no próximo driver.

Você está certo, dei uma olhada agora. Desculpem o erro...

A questão é que a nVidia está sendo infeliz em suas escolhas e em suas placas nessa geração. Ela tem possibilidade de vender produtos com o PhysX, e com esse driver, todos sabem que é possível e o que se vê é a má vontade da empresa. Essa geração está decepcionando. E o pior cego é aquele que não quer ver...

Pra falar a verdade, só 1 das 3 GTX4xx vale a pena, que é a 470... Essa sim tem possibilidade de tirar mercado das 5850 e 5870.

Intel ou da N'Vídia, mas essas duas últimas empresas "subiram a cabeça" em relação ao sucesso que um dia alcançaram, e hoje pagam o preço de perderem mercado, assim como a MicroSoft, que não é mais a toda poderosa maior empresa do setor de Software de outrora.

Nesse ponto você se equivocou... A Intel não está perdendo mercado de maneira alguma para a AMD, na verdade está ganhando mais a cada ano... A AMD se não me engano tem menos de 15% do mercado de desktops, enquanto a Intel tem mais de 80%, nos outros segmentos a vantagem da Intel é ainda maior. Quem perdeu uma fatia considerável do mercado é a nVídia, que dormiu no ponto.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Bom, mas com o PhysX a ATI poderia roubar uma fatia do mercado que está nas mãos da nVídia. Além do mais você queria que a nVídia entregasse de mão beijada uma tecnologia que desenvolveu para a ATI?

Concordo, mas eles poderiam liberar o uso de PhysX com uma placa dedicada quando há uma ATI como placa principal.

Nesse ponto você se equivocou... A Intel não está perdendo mercado de maneira alguma para a AMD, na verdade está ganhando mais a cada ano... A AMD se não me engano tem menos de 15% do mercado de desktops, enquanto a Intel tem mais de 80%, nos outros segmentos a vantagem da Intel é ainda maior. Quem perdeu uma fatia considerável do mercado é a nVídia, que dormiu no ponto.

Não é bem assim:

http://www.idg.com/www/pr.nsf/0/73CAE2EBD9C6D64685257715004BAF0C

http://forum.clubedohardware.com.br/boletim-908-29/769872?t=769872&highlight=mercado+intel+ganha

E, isso não é assunto para este tópico. ;)

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Concordo, mas eles poderiam liberar o uso de PhysX com uma placa dedicada quando há uma ATI como placa principal.

Também concordo. Se a nVídia liberasse novamente essa opção, poderia vender um monte de 9600GT/9800GT/GTS250... pra quem não dispensa o PhysX...

Tinha lido as mesmas notícias que você, mas não tinha os links pra confirmar... Bom, pelo menos eu não errei por ''muito''... :D

Ah, valeu pelos links Xita (ops, Evandro, hehe). :joia:

Link para o comentário
Compartilhar em outros sites

Isso foi um bug nesses drivers, a nVidia disse isso publicamente, então quando sair a versão final do driver não vai ser mais possível a combinação das duas. Mas tem driver modificado por aí (faz um tempo já), quem precisa é só dar uma procurada...

Com relação ao teste:

Mais um FAIL da nVidia com a série Fermi.

Horrível essa placa, perde pra HD5830!!

Só ganha no FarCry 2 pois a engine desse jogo favorece a nVidia.

"Engraçado" o teste com PhysX? Depois de todo aquele bafafá do "caso nVidia", e de um teste anterior em que foi dito que não seriam testados o PhysX e o CUDA pois estes não interessavam ao usuário normal, aparece um teste com PhysX...

E pra quem não sabe, ou não lembra, quando o PhysX não roda em GPU (nVidia) roda na CPU usando apenas um núcleo! Isso sim é bloqueio!

[]'s

É isso que eu penso, se o Physx roda em CPU também, porque não otimizar o jogo para utilizar somente um ou alguns núcleos. Ex.: Quadcore (3 Core pro jogo e 1 Core pro Physx) e Sixcore (4 Core pro jogo e 2 Cores pro Physx) porque pense bem, se ele processa o low, porque nao processa o mid e high? Com mais cores? Por isso penso q o Physx da NVIDIA só serve para você comprar uma VGA nova desta empresa. Acho q a ATI não aceitou usar Physx em suas VGAs pois a NVIDIA deve ter cobrado royalties para esta tecnologia assim como aconteceu com o SLI x Intel.

Link para o comentário
Compartilhar em outros sites

É isso que eu penso, se o Physx roda em CPU também, porque não otimizar o jogo para utilizar somente um ou alguns núcleos. Ex.: Quadcore (3 Core pro jogo e 1 Core pro Physx) e Sixcore (4 Core pro jogo e 2 Cores pro Physx) porque pense bem, se ele processa o low, porque nao processa o mid e high? Com mais cores? Por isso penso q o Physx da NVIDIA só serve para você comprar uma VGA nova desta empresa. Acho q a ATI não aceitou usar Physx em suas VGAs pois a NVIDIA deve ter cobrado royalties para esta tecnologia assim como aconteceu com o SLI x Intel.

Não é bem assim. Uma CPU e uma GPU são 2 coisas completamente diferentes em termos de instruções e finalidades.

A GPU, pelo seu próprio conceito e pelo modo como ela é programada, bate muito em uma CPU na hora de fazer cálculos e lidar com qualquer coisa que envolva matemática, formas geométricas etc. Por isso jogar para a GPU esses cálculos que ela pode fazer de mãos e pés amarrados traz benefícios incomparáveis com fazer esses cálculos na CPU, não importando quantos núcleos são usados.

[]'s

Link para o comentário
Compartilhar em outros sites

Belo teste, mas pelo jeito essas "fermi" ai não vão emplacar..

Concordo, mas eles poderiam liberar o uso de PhysX com uma placa dedicada quando há uma ATI como placa principal.

Se não me engano já tem vários usuários fazendo isso por ai, aproveitando um “erro” da NVIDIA que lançou uma versão do driver ("por engano") liberando o uso das placas para física trabalhando junto com uma ati principal, mas um dia depois "corrigiu" o driver..

Link para o comentário
Compartilhar em outros sites

Nesse ponto você se equivocou... A Intel não está perdendo mercado de maneira alguma para a AMD, na verdade está ganhando mais a cada ano... A AMD se não me engano tem menos de 15% do mercado de desktops, enquanto a Intel tem mais de 80%, nos outros segmentos a vantagem da Intel é ainda maior. Quem perdeu uma fatia considerável do mercado é a nVídia, que dormiu no ponto.

Falei numa referência histórica. A Intel tem 80% do mercado TOTAL e eleva essa vantagem por causa do ATOM, que não tem concorrente, mas se considerarmos que ela já foi DONA de praticamente TODO o mercado, assim como a MS e mesmo a N'Vídia, hoje essas bam bam bans tem que "correr atrás do prejuizo" pra vender e ter lucro, mas não é esse o foco do meu argumento...

Também concordo. Se a nVídia liberasse novamente essa opção, poderia vender um monte de 9600GT/9800GT/GTS250... pra quem não dispensa o PhysX...
Bom, mas com o PhysX a ATI poderia roubar uma fatia do mercado que está nas mãos da nVídia. Além do mais você queria que a nVídia entregasse de mão beijada uma tecnologia que desenvolveu para a ATI? .
Concordo, mas eles poderiam liberar o uso de PhysX com uma placa dedicada quando há uma ATI como placa principal.

Bem como vocês colocaram, a questão é que fornecendo a tecnologia do PhysX pra ATI (duvido disso) ou mesmo só liberando os Drivers (isso seria inteligente) pra serem usados em conjunto com uma placa da concorrente, acho que a N'Vídia é quem ganharia com isso, pois os programadores de jogos acabariam se rendendo a "nova engine" se podemos chamar assim, e com isso, um belo chamariz de marketing, diga-se de passagem, as vendas de placas deles explodiriam.

O que leva uma empresa a "trancar" as vendas de seus produtos? Só conheço duas explicações pra isso: incompetência administrativa OU... Incapacidade de suprir a demanda! Bem, já ouvi que os chips da N'Vídia estavam com probleas para serem entregues sei lá porque, nem sei se procede a informação ainda, mas se considerarmos que o mercado potencial de vendas para uma placa mid-end da N'Vídia, no caso específico da empresa liberar os Drivers para uso conjunto, seriam na casa de alguns milhões de unidades. De quebra, freiariam a adoção de sistemas CF, já que a maioria das MOBOS e mesmo dos usuários não usaria 3 placas de vídeo (CF + PhysX).

Mesmo assim, acho ainda que essa série GTX-4xx foi um tiro de festim, porque não chega a produzir danos (como um "tiro no pé" faria") para a N'Vídia, mas também não PODE, mesmo que queira, atingir alvo nenhum, e esse teste mostrou isso, alias, essa versão pífia de OVERCLOCK da EVGA ficou só no 'over' mesmo, fora da casinha, e particularmente, não vejo porque alguem migrar, ainda, pra essas Fermi DX11 se pode ficar nas GTX-2xx com um desempenho próximo, isso se fizer questão de N'Vídia, sem falar no custo/benefício e até na relação SLI x CF, já que pra SLI em Mobos antigas o Cipset tem que ser N'Vídia.

Pra mim, a ATI ganhou mercado se valendo muito mais da estratégia comercial do que da qualidade tecnológica, a exemplo do que ocorreu com a Apple x Microsoft nos anos 70/80.

Link para o comentário
Compartilhar em outros sites

A gtx 465 é concorrente da HD5830

A gtx 470 é concorrente da HD5850

A gtx 480 é concorrente da HD5870

achei injusto a gtx 465 contra a HD5850

sem physics a hd5830 tem o preço melhor

mas a Hd5830 mostrou-se na maioria dos testes superior na performance contra a gtx 465

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
A gtx 465 é concorrente da HD5830

A gtx 470 é concorrente da HD5850

A gtx 480 é concorrente da HD5870

achei injusto a gtx 465 contra a HD5850

sem physics a hd5830 tem o preço melhor

mas a Hd5830 mostrou-se na maioria dos testes superior na performance contra a gtx 465

Não entendo onde está a injustiça em fazer uma comparação com suas concorrentes de preço e também desempenho.

De que adianta fazer um teste se não há pelo menos dois pontos, um acima e um abaixo, pra se comparar o desempenho da placa ?

Link para o comentário
Compartilhar em outros sites

Não entendo onde está a injustiça em fazer uma comparação com suas concorrentes de preço e também desempenho.

De que adianta fazer um teste se não há pelo menos dois pontos, um acima e um abaixo, pra se comparar o desempenho da placa ?

Concordo com o Evandro, isso é querer não ver resultados positivos para a empresa verde comparador a vermelha em um certo cenário. É interessante ter todas as placas dispostas para termos uma noção da diferença entre os produtos. A única coisa que acho que faz falta é a presença das High da ATI e nVidia e também as placas da geração antiga pra se ter uma noção melhora da nova geração.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Concordo com o Evandro, isso é querer não ver resultados positivos para a empresa verde comparador a vermelha em um certo cenário. É interessante ter todas as placas dispostas para termos uma noção da diferença entre os produtos. A única coisa que acho que faz falta é a presença das High da ATI e nVidia e também as placas da geração antiga pra se ter uma noção melhora da nova geração.

"quanto mais gente melhor" já dizia a música. :D

Mas, quanto mais placas pra testar, mais demorado fica o artigo e aí complica um pouco a situação..

Sobte as placas mais fortes, acho que isso é assunto pra outro teste, e esperamos (nós, leitores) que ele seja publicado. ^_^

Link para o comentário
Compartilhar em outros sites

"Engraçado" o teste com PhysX? Depois de todo aquele bafafá do "caso nVidia", e de um teste anterior em que foi dito que não seriam testados o PhysX e o CUDA pois estes não interessavam ao usuário normal, aparece um teste com PhysX...

[]'s

Também não entendi o porque de incluir teste de physX, principalmente depois desse episódio estranho de erro de comunicação.

Link para o comentário
Compartilhar em outros sites

Também não entendi o porque de incluir teste de physX, principalmente depois desse episódio estranho de erro de comunicação.

Pelo que entendi do bafafá todo, no fim das contas a NVIDIA propôs um método de teste do Physx que não prejudica a concorrência, apenas mostra a capacidade de suas placas e deixa pra nós, consumidores que podemos ou não podemos achar Physx algo essencial, julgarmos se o teste é importante ou não.

Daí o fato de na resolução o Gabriel ter dito que eles enviaram inclusive jogos para testes neste sentido. No caso, nos jogos é simplesmente possível desativar o Physx e mostrar como as placas concorrentes se comportam até mesmo em um jogo que possua tal recurso alternativo.

Agora, independente disso, nada obsta ao Gabriel ser cavalheiro e acrescentar tais testes em respeito ao pedido da NVIDIA, sem precisar, entretanto, ficar puxando saco e sem deixar de fazer as ressalvas feitas com relação ao Physx. Educação e colaboração não são necessariamente puxa-saquismo e imparcialidade.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Pelo que entendi do bafafá todo, no fim das contas a NVIDIA propôs um método de teste do Physx que não prejudica a concorrência, apenas mostra a capacidade de suas placas e deixa pra nós, consumidores que podemos ou não podemos achar Physx algo essencial, julgarmos se o teste é importante ou não.

Daí o fato de na resolução o Gabriel ter dito que eles enviaram inclusive jogos para testes neste sentido. No caso, nos jogos é simplesmente possível desativar o Physx e mostrar como as placas concorrentes se comportam até mesmo em um jogo que possua tal recurso alternativo.

Agora, independente disso, nada obsta ao Gabriel ser cavalheiro e acrescentar tais testes em respeito ao pedido da NVIDIA, sem precisar, entretanto, ficar puxando saco e sem deixar de fazer as ressalvas feitas com relação ao Physx. Educação e colaboração não são necessariamente puxa-saquismo e imparcialidade.

Falou muito bem.

Acrescentando um pouco:

Para ser redimir do caso (falta de comunicação??) ela resolver atender ao CdH com todo o suporte pssível, explicando o porque testar (como no poste do GB cita que eles não haviam argumentado o porque testar e como testar tais recursos) e inclusive mandando o material nescessário (os jogos) para fazer tal teste, e no teste feito consta as observações referente a tais recursos que a concorrente não tem e que ele não servia para comparação entre as marcas.

Link para o comentário
Compartilhar em outros sites

Só confirma pra mim! esse jogo physx que foi testado tem opção para desabilitar o physx?

como tem no jogo do batmam?

se a resposta for sim acho que deveria ter feito teste sem a ativação

Acho que isso foi feito no primeiro cenário, com o PhysX no LOW, pelo que entendi, os calculos foram feitos pelo processador e não pelas placas, o que tornaria o teste parelho e as oporia em igualdade de condição.

Agora quanto ao caso de incluir testes do PhysX nos comparativos e Reviews do CdH, acho válido, por duas razões:

1- É uma tecnologia disponível, tanto em hardware, quanto em Software.

2- Muitos leitores gostariam da informação, seja por curiosidade, seja para aprenderem a melhor utilizar seus produtos ou mesmo para sanar dúvidas sobre futuras aquisições.

Portanto, independente da postura da N'Vídia no passado recente, de ter culpa ou dolo no "mal entendido" caso com o CdH, cabe a posição editorial do site, de zelar pelo respeito e pela integridade da informação repassada aos leitores. Acho que isso pesa mais na decisão de publicar testes de tecnologias que até possam ser dispensáveis, mas que não deixam de ser úteis e eficientes ao que se propõe.

Link para o comentário
Compartilhar em outros sites


Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!