Ir ao conteúdo
  • Cadastre-se

Marcelo970

Membro Pleno
  • Posts

    395
  • Cadastrado em

  • Última visita

posts postados por Marcelo970

  1. @Evandro: Não estou pedindo que ela tenha uma boa relação custo x benefício. O que eu "quero" é que ela tenha um preço mais aceitável. Ela será lançada oficialmente a $550, mas se sofrer o dito efeito mercadológico, a placa tem grandes chances de atingir $600. Levando-se isso em consideração, então poderemos esperar edições customizadas a $650, valor que se aproxima muito da HD6990. Indo além, diria que esse valor não ajuda em nada, pois dá a possibilidade de a Nvidia lançar uma placa top single-GPU a $600 e, até lá, de manter o preço da GTX580 como está.

    Óbvio que tudo isso 'na base da suposição, mas não creio que um preço de $550 ajude em alguma coisa se não a engordar os bolsos da AMD.

    Ah! E eu nunca disse que a AMD não poderia lançar uma placa top com um preço igualmente top. Seja lá quem for que tenha dito isso, só quero algo mais próximo da realidade e não fora dela. A HD7970 tem 30% a mais de performance e é de uma geração a frente da GTX580, por que não cobrar $499?

    O cara dar R$ 5.000,00 Dilmas num combo (i7-3960X + P9??? + 2x4GB) e reclama de pagar R$ 2000,00 numa HD 7970. Já pensou se GPU também fosse vendida em chips?

    Mais uma indireta? Mas tá tenso o negócio, hein?

    A questão não é quem compra uma placa dessas, mas sim o preço dela. Eu iria muito bem preferir pegar uma GTX580 por $469 (newegg) do que uma HD7970 por $550. Tem 30% a menos de performance? Sim, mas nada que um overclock não resolva. "Ah, mas a HD7970 também overcloca". Sim, mas por $90 de diferença.

    concordo com coisas que você diz (não tudo) mas na parte acima você esqueceu que está no Brasil.

    Muita gente aqui consegue, sim, comprar uma high-top-muzafuka-end placa se não tiver que gastar mais R$500,00 em uma fonte mais forte pra dar conta e não subir mais uns R$ na conta de luz.

    Logo, se a placa é super-ultra-plus-mega-end e você não precisa gastar mais com fonte e energia, você quebra o porquinho, deixa seu filho com fome uma semana e pede incentivo fiscal pra mamãe e compra uma dessas. Acho que é a realidade da maioria da rapaziada aqui do forum que quer ter uma dessas. Você pode estar correto ao dizer que quem compra uma dessas não liga pro consumo lá fora. Aqui no Brasil, onde essas peças custam caro e a energia é absurda, uma placa forte com consumo baixo causa esse frenesi enlouquecido que a galera tá falando.;)

    Foi mal cara, mas vou ter que descordar de você. Aqui no Brasil a maior parte das pessoas se preocupa com o preço do produto e não está colocando o consumo como prioridade. Os Phenom II foram uma prova disso, pois sempre recomendavam um Phenom II X6 para quem queria performance por um preço baixo, mesmo ele consumindo 125W. Ninguém se preocupava em ver se tinha uma opção que oferecia uma performance equivalente ou maior consumindo menos. Eu mesmo faço isso. Aliás, muitos colocaram o consumo da arquitetura Core da Intel como um extra frente ao Bulldozer, quando este foi lançado.

  2. Marcelo, só pra eu entender, fiquei curioso e acho que sua resposta vai cessar a discussão.

    Pra você, o que falta pra 7970 e que a 5870 tinha quando foi lançada ?

    Eu ia editar aquele comentário, mas não deu tempo xD

    O que falta? Talvez a performance da HD6990? A HD5870 esteve em todos os reviews muito próxima da HD4870X2. Com a GTX580 é a mesma coisa em relação à HD5970. A performance da HD7970 está muito mais próxima da GTX580 que da HD6990. Não estou considerando a melhoria em 2560x1600 porque além de eu não usar uma resolução dessas, ainda vejo que o que mais ajudou foram os 3GB de memória, coisa que a GTX580 padrão não tem.

    Mas eu não sou o único que não se empolgou com a performance da placa. Está cheio de gente nos fóruns gringos e brasileiros que não sentiu firmeza nesses 30% a mais de performance da HD7970 em relação à geração anterior. Fórum Guru3D: review HD7970. Alguns dos comentários contidos nesse link expressam bem o porquê.

    Sendo a HD7970, em média, 30% mais veloz que a GTX580, a AMD dá margem para a Nvidia contra-atacar com algo extremamente mais poderoso. Levando-se em consideração que boa parte dos que compram uma VGA top estão pouco de lixando para consumo, creio que que a AMD deveria ter trabalhado mais dentro desses 35W que sobraram para conseguir uma performance maior.

    O preço estimado de $550 é muito alto; com esse valor é possível fazer um SLI ou um CrossFire de placas mid-range e obter uma performance perto de 50% maior em relação à GTX580.

    Sobre o Eyefinity, ele é legal, mas não tem muita utilidade para a maioria das pessoas que não contam com espaço para usar mais de um monitor, além de estragar um pouco a imersividade por conta das bordas dos monitores (o mesmo vale para o 3D Surround).

    Quanto aos recursos por parte da Nvidia, CUDA não tem utilidade em jogos, mas em GPGPU dá uma grande diferença em relação às soluções open-source, e o 3D Vision é dito como a melhor solução 3D do mercado. Já o PhysX dá uma bela diferença nos jogos que o utilizam largamente (Batman Arkahm Asylum e Arkham City, Mirror's Edge, Cryostasis, Metro 2033), pois ele mexe com até 800x mais corpos que outros motores; o grande porém é o impacto na performance, que muitas vezes chega a ser insuportável.

    Se a placa tivesse a mesmíssima performance da HD6990 com esse consumo de 215W e custando $499, podem ter certeza que ela receberia ouro em qualquer review e surpreenderia até mesmo os defensores da Nvidia. Porém sendo apenas 30% mais rápida e custando $550, ela é apenas recomendada, mas longe de ser a "must buy".

    EDIT: Não estou desmerecendo a placa, mas não estou vendo ela do mesmo jeito que vocês.

  3. Leia isso e entendera, sabia que não estava inventando nada, sobre o landscape eu não me lembrava direito mas ai tem a explicação certa da mudança, e li em outros lugares tambem outras coisas mas agora não vou lembrar aonde. O 3d da AMD não funciona como o da nvidia, soma 1080p em 60hz pra cada olho pra ver quanto da;)

    http://www.guru3d.com/article/amd-radeon-hd-7970-review/4

    Se não era possível 3D em 1080p a 60Hz antes da HD7970, então por que fabricavam monitores FullHD que trabalham em 120Hz se teoricamente eu poderia produzir o efeito com um monitor comum? Nem me venha com marketing, porque até onde eu sei monitor não "prevê" quadros intermediários como as TVs de 960Hz da Samsung. Isso está me cheirando melhoria do HD3D, longe de se aplicar ao 3D Vision.

    E me desculpe, mas eu estava expressando minha opinião. Para mim, falta sim um algo a mais nessas placas da AMD que não seja o Eyefinity (probabilidade de eu usar mais de um monitor é nula). A HD7970 está longe de ser tão atraente aos meus olhos quanto a HD5870 foi alguns anos atrás.

    Ah! E não precisa se usar das indiretas para falar de mim. Eu pouco me importo se estão me chamando de fanboy. Eu compro o que eu quero, assim como qualquer um, mas espero que me respeitem por isso.

  4. Poxa! A placa é a single GPU mais poderosa do mercado atualmente e você não a considera top? O que seria top então? =S

    Eu estava usando a mesma classificação do Guru3D. Eles tem uns níveis de recomendações e no site o "top pick" é o mesmo que "must buy". Quanto à placa, acho que faltam mais recursos úteis e um precinho um pouco mais acessível que os $550 previstos.

  5. Marcelo970 e Sn1p3r_Fox A questão de desing, cores, etc... fica difícil agradar a todos, cada um tem um gosto, uns pedem blocks transparentes outros pretos, mas trabalharemos em mais opções com excelente acabamento.

    Sim, sim, verdade, mas o que quisemos dizer é em relação mais ao radiador e a bomba mesmo. Creio que são poucos os que não vão ligar para a peça de alumínio no meio do case preto/branco todo organizado. Mudando esse detalhe, creio que já dá para chamar a atenção dos consumidores.

  6. Porque vocês acham que a Nvidia esta quieta?

    Isso me lembra muito o Fermi, ela esta quieta porque sabe que seu produto não estão superior assim, e provavelmente deve gastar mais, sem contar nos atrasos, eu nunca vi a nvidia quieta assim, de repente o assunto da nvidia é o tegra 3, curioso não?

    Eu acho que quem esta contando com uma nvidia muito superior a AMD vai ter uma leve decepção, mas isso é só um palpite, acho que a AMD ja tem bala suficiente pra se manter em 2012.

    Não conte vitória antes do tempo, a Nvidia ganhou uma pequena fama de correr atrás da GPU mais rápida do mercado. Se ela está silenciosa, é porque ficou assim nos últimos tempos (antigamente não lembro). Você lembra de tanto alarde antes do lançamento da GTX580? Eu lembro de sair um slide aqui, outro ali que ainda eram tratados como rumores. Da 480 eu lembro da conferência para explicar os extras da arquitetura Fermi, depois disso foi o resultado "duvidoso" no Unigine Heaven e só. Não lembro da Nvidia sair soltando slides a torto e a direito como a AMD anda fazendo depois que lançou as HD4000.

    Essa VGA da AMD certamente é poderosa. Ela agradou por ser até 40% mais rápida que a GTX580 em jogos e ter um ótimo consumo (coisa que as GTX também terão, se a Nvidia não abusar). Porém me parece que falta um algo a mais nela para ser considerada um "top pick".

  7. Leo, O nosso radiador é um dos melhores do mercado, esse tipo de arquitetura é melhor que as convencionais, tanto que os carros novos utilizam essa arquitetura de tubos redondos, e ainda digo mais, só nos e a Watercool (fabricante dos melhores blocks que existem Heat-Killer e Kryos) que tem esse tipo de radiador.

    A bomba é a melhor bomba de WC do mercado, nenhuma chega a potencia desta, podem comparar.

    O desempenho ruim neste teste se deve ao projeto de algumas placas mãe da Gigabyte não seguir o padrão mecânico do socket estipulado pela Intel. Portanto a fixação problemática contribuiu com o resultado ruim, pois nos meus testes com uma placa Asus as molas serviram e o desempenho foi melhor que o Corsair H100.

    Varios fabricantes de coolers estão tento problemas com placas Gigabyte, uma pesquisa rapida no google:

    http://www.swiftech.com/apogeext-gigabyte-e58.aspx

    http://www.bjorn3d.com/read.php?cID=1848&pageID=8923

    Mas não cabe a mim procurar desculpas e sim atualizar o projeto do block e enviar outro para o teste.

    A única coisa que vocês poderiam melhorar é o design externo do bloco e as cores do radiador e bomba. Se o problema da performance é da placa-mãe eu não posso dizer, mas convenhamos que um bom visual chama a atenção.

  8. Aqui de certa forma a AMD pode ter razão, já que comprou a ATI, que comprou a SonicBlue, que ficou com uma parte da divisão FireGL da finada S3, que por sua vez, foi comprada pela VIA e vendida para a HTC. Aqui a AMD agiu de forma corporativista defendendo a Apple, que de certa forma, é sua cliente ;)

    Vejamos mais notícias dessa novela mexicana.

    Oh God! Esses empresários saíram às compras nesses últimos anos? Até a segunda vírgula eu lembro, depois....

  9. A cada lançamento de GPU nota-se que o consumo em idle fica substancialmente mais baixo, por isso mesmo acredito que essa tecnologia não vai servir quase pra nada, só pra deixar o notebook mais caro. :rolleyes:

    Como foi a VESA que propôs, eu não vejo como isso deixaria o notebook tão mais caro. Principalmente se todos os fabricantes usarem.

    Uma situação análoga seria aquela lei proposta um tempo atrás em que todos os carros comercializados no Brasil deveriam ter Air Bag e freios ABS. Se isso acontecesse, a tendencia seria que o preço abaixasse, afinal já se teria um know-how bem sólido e capaz de produzir tais produtos sem grandes custos.

  10. E por que não as da RAMBUS? Sabe-se lá quando as da Samsung ficam utilizáveis, quanto gastam, quanto CUSTAM!

    Pessoal, a RAMBUS pode ser odiada, mas de que a empresa sobreviveu até hoje. ela tem alguns clientes, pode ter certeza. Nenhum empresário sustena a empresa se ela nao rende lucro. Ou seja, alguém tá comprando algo dela. Falaram sobre Playstation. Se tem memórias XDR lá e os aparelhos funcionam bem, qual o problema? Por que as VGAs TOP TOP não podem ter?

    Elas podem ter, eu nunca vou comprar uma mesmo xD

    A questão é que o custo dessas memórias XDR2, pelo o que todos comentam, é muito alto. Daí fica a preocupação com o preço final das VGAs que utilizarem esses chips. Já imaginou ter uma single GPU à $599 só porque utiliza memória RAMBUS?

    O consumo das XDR2 já é menor que o da DDR5, então nem adianta muito discutir isso, porém não acho que a DDR5 de 7GHz chegaria a 1W por chip.

  11. Mais taxa de transferência não aumenta performance sozinha, mas pode ser um fator limitante (um dos principais aliás) para as GPUs, é só testar se um over na memória aumenta performance. Um teste comum é fazer 4 testes, um em stock, um com over apenas do clock do núcleo (shaders e tal), outro só do clock da memória, e outro dando over em tudo. Com isso dá para ver mais ou menos se a taxa de frequência tem influência maior ou menor na performance, mas sem duvida alguma ela tem sim.

    Eriba, eu sempre achei GPGPU (folding e etc) geralmente não usasse muito a taxa de transferência de memória, que o maior ganho é geralmente em jogos.

    Mesmo assim, esse ganho na performance é tão grande que justifica a escolha dessa memórias XDR2? Por que ela não escolheu as DDR5 de 7GHz que a Samsung estava/está desenvolvendo?

  12. Pensei algo agora. Supondo que a Rambus não apronte nada e essa memória seja realmente porreta, a AMD vai dar uma tacada de mestre no ramo das vgas top e dar uma surra na pobre Nvidia, que anda mal com o kepler que não sai. Não leio nenhum rumor de GTX600 nem nada e a AMD já está com a HD7000 quase na rua. A única novidade da Nvidia é que de birra ela vai lançar uma GTX595 ou GTX590 que funciona direito (como prefiram), e mais nada.

    E essas memórias vão ter real impacto na performance? Até agora não vi maior bandwidth fazer a performance subir.

  13. Opa! Ótimas notícias! Se não sair lançamento novo até novembro vou de CrossFire de Radeon HD 6870 mesmo. Mas dependendo do que sair da nova fornada de 28nm, posso reconsiderar minha compra ou mesmo pegar a linha atual com preço mais baixo.

    E puxa! Para que aquela ignorância de 4GB de memória numa placa-de-vídeo, ainda mais no mercado mobile, sendo que hoje não se aproveita bem nem 2GB? De qualquer forma, 2GB para mim ia me deixar muito feliz, pois daria uma fôlego a mais no futuro, quando os jogos usarem mais memória.

    Falando nisso... Já há algum jogo de 64 bits para desktops? TODOS os jogos que rodo são instalados na pasta "Arquivos de Programas (x86)", ou seja, tudo de 32 bits. Fico me perguntando quando terá algum jogo que aproveite minha (exagerada) quantidade de memória RAM, por exemplo.

    Se nao me engano o Crysis tem uma versão 64 bits, mas não faz diferença alguma na performance (por isso que eu acho xD).

  14. O tempo de prancheta é bem parecido, pelo que eu ouvi falar, 4~5 anos, tanto do lado CPU quanto do GPU. A diferença é que em GPU o pessoal é muito, mas muito mais agressivo que no CPU. Até porque tem muuuito mais margem para aumentar performance (nem fud*ndo que a gente vai ver um CPU com salto de performance de um ano pro outro do tamanho do que a gente vê nas GPUs).

    Que me lembre eles mantém essa agressividade simplesmente tendo mais projetos rodando ao mesmo tempo.

    E a compra da ATI foi em 2006, hehehe. 2011-2006 = 5 anos. =P

    Foi em 2006? Jurava que já tinha acontecido oO

    Bom, só imaginei que projetar e produzir uma GPU fosse mais complicado devido à complexidade do projeto e à quantidade de transistores num chip. É, na área de logística ainda tenho muito o que aprender :P

  15. Rapaz, eu já penso um pouco diferente. A AMD precisa acelerar o máximo possível para alcançar a Intel. Inclusive ela está fazendo isso nesse momento, com três arquiteturas completamente novas do lado CPU/APU.

    O fato de lançar um chip novo cada ano ou não dever ser praticamente irrelevante para o custo de R&D, os engenheiros continuam trabalhando direto, seja lançando hoje ou daqui a dois ou cinco anos. Até porque a logística de fabricar o chip fica para a GF (ou TSMC no caso).

    Se brincar, pode ser até melhor, já que eles vão ter mais contato com o hardware e podem lançar pequenas atualizações mais rapidamente, ao invés de precisar fazer tudo em uma tacada só.

    Mas, sim, você está certo quanto ao retorno, e é exatamente por isso que eu acho que o "esquema escadinha" seria interessante, eles lançam e testam a arquitetura no high-end logo cedo, ganhando vantagens em performance/marketing/qualquer-coisa logo e depois amortizam o custo do R&D vendendo esse mesmo chip na geração seguinte. Só não garanto que isso seja viável quanto aos yields (já que chip high-end tem que ser completão ^^).

    Ah sim, mas acho que um tick/tock para GPUs sai muito caro e não é tão simples quanto no caso de uma CPU. Seria interessante sempre pensar numa nova arquitetura enquanto melhora diversos aspectos da atual, e quando terminar o projeto e lançar no mercado a nova arquitetura, já começar a trabalhar na próxima.

    A princípio, o tick/tock da Intel consiste em lançar uma arquitetura num ano ímpar e refiná-la em um ano par. Nehalem em 2009, Lynnfield em 2010; Sandy Bridge em 2011, Ivy Bridge em 2012; Haswell em 2013, Broadwell em 2014, e assim vai. Creio que por ter menos transistores e ter menos complicações em termos de temperatura e consumo, seja mais fácil e rápido criar uma arquitetura para processador. Veja que a Sandy Bridge levou 5 anos para ficar pronta, enquanto que o projeto da HD7000 vem desde a compra da ATI.

    Mas tudo não passa de hipóteses :D

  16. Não sei se um tick/tock para a AMD seria uma boa. A Intel tem essa estratégia, mas o pessoal vive esculaxando a empresa. Porém a Intel tem um nome muito grande e pode se dar o direito de fazer isso, pois as pessoas vão comprar. Já AMD é meio desconhecida ainda (pelo menos pros leigos) e ficar lançando produtos com arquiteturas novas a cada 2 anos aumenta demais o custo com P&D, e sem um retorno certo então...

  17. tô vendo aí vocês falarem sobre tecnologias novas, quem vai subir, quem vai descer...

    http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=ibm-apresenta-primeiro-circuito-integrado-grafeno&id=010110110610

    e quando isso aí chegar ao mercado?

    sei lá, a gente fica se prendendo muito às tecnologias que a Nvidia, Ati/Amd/ Intel ficam nos anunciando e achando tudo absurdo. O medo de aparecer uma Intel/Nvidia e o mercado ficar fechado... mas a coisa tá muito mais longe.

    esse link acima é de um site muito bom que vivo acompanhando, www.inovacaotecnologica.com.br e **, só um trecho dessa noticia que colei acima: "...construiu um transístor de grafeno que bateu o recorde mundial de velocidade, operando a 300 GHz."

    Dá a impressão que a gente vive comprando lixo tecnologico e achando que tá "por cima da carne seca".

    É obvio que deve levar um bom tempo pra isso chegar até a minha mesa, mas a impressão de que estamos comendo mer** e arrotando caviar, permanece.

    já que é pra despertar a curiosidade, mais uns links da area de informatica: (existem muitas outras areas no site, como biotecnologica, mecanica etc.)

    http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=transmissao-tv-3-d&id=020150110601

    http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=busca-cenas-videos&id=010150110531

    http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=recorde-mundial-transmissao-dados&id=020175110523

    Parece que já andaram atingindo 1Thz.

  18. Não, não. Não é isso não, hehe.

    Esses resultados são apresentados trimestre a trimestre. Então, como você entendeu bem, existe a comparação entre o trimestre atual e o imediatamente anterior. Então compara o 2011/Q1 com 2010/Q4. Não serve muito como comparativo de médio/longo prazo porque é eminentemente sazonal (vender mais no fim do ano é fácil, por exemplo).

    Mas também tem a comparação entre o trimestre atual e o trimestre correspondente no ano anterior. Compara assim o 2011/Q1 com 2010/Q1.

    Ou seja, mesmo que tenha melhorado de um trimestre para o outro, a nVIDIA estava vendendo mais no ano passado, nesse mesmo trimestre.

    Ah tá, agora faz sentido :D

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

 

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!