Ir ao conteúdo
  • Cadastre-se

Athlon_man

Membro Pleno
  • Posts

    666
  • Cadastrado em

  • Última visita

Tudo que Athlon_man postou

  1. Até onde sei, o o CPU utilizado no x360 Slim (que ainda esquenta *****, porém, com um agradável silêncio) é o mesmo IBM só que junto da mesma GPU ATi. Só fizeram colocá-los juntos (termos técnicos, please).
  2. Pois é JorgeAlain, só lembrando que não estamos recomendando uma melhoria de performance, estamos recomendando uma melhoria no custo/benefício, por isso também recomendo HD5550 ou HD5570 (tem de ser com memórias GDDR3). Abraço
  3. Amigo, sinceramente, acho que a HD4670 já está começando a deixar de ser uma opção (sem pedras, por favor). Existem aí placas como as HD5550, HD5570, HD5650, HD5670, todas superiores à HD4670 e com preços parecidos (no caso da HD5550, creio). Abraço
  4. Não, meu caro, este valor já está multiplicado por 2. Este seu modelo é DDR2, as memórias têm clock real de 400MHz e clock de 800MHz em modo DDR.
  5. InsaneLife, os links não funcionam. Sobre o custo-benefício eu acho que já não sei mais responder. A fonte, é aquela história né. Funcionou pra mim com uma chingling de "180w". (Athlon x2 5000+, 4GB DDR2 800, Asus M3A, HD4670, 3HDs, 1DVD-RW...)
  6. É um absurdo uma marca lançar uma HD4670 com 550MHz na GPU. Tens certeza que esse é o clock padrão? Digo porque realmente existem algumas marcas que enganam seus clientes, se for verdade, peço que diga a marca para pôr na lista negra.
  7. Bem lembrado, Cris Spiegel, acho que devo ter dito em algum post, para ser problema de fonte, somente se a mesma estivesse com falha em alguma das linhas, o que não devia ser o caso já que o resto do sistema funcionava bem e, no caso da HD4670, sua alimentação passa pelo resto do sistema (pela placa mãe). A experiência própria manda recado, usei por muito tempo esta placa no sistema descrito na primeira página com uma fonte do tempo do império ATX 20 pinos de uma marca que não existe mais. Não é recomendado, eu mesmo já tive alguns incidentes com fontes ruins, mas funciona. PS.: A título de informação, a fonte descrita acima era rotulada com uma potência fictícia e uma suposta potência real de 180W.
  8. Amigo, vou lhe ser sincero. Para fazer isto, a forma que eu conheço é com BiOS mod, que consiste em abrir o arquivo da BiOS com um programa feito para isto, modificar os parâmetros que desejar, salvar o arquivo e então salvá-lo na placa. Eu não conheço os utilitários certos para as placas ATi, talvez algum outro colega possa lhe responder. De antemão, digo que é algo perigoso pois algum parâmetro modificado pode não ser suportado pelo hardware, se realmente quiser seguir em frente, sugiro que experimente mudar apenas a tensão na BiOS e experimente o OC manualmente, para evitar perder a placa. Disponha, meu caro. Pois é, já são alguns relatos sobre o Catalyst 10.9. Provavelmente é por causa dele. O que eu faria é desinstalar o driver por completo e instalar uma versão anterior. Sobre a BiOS, nunca mexi em BiOS de nenhuma ATi, infelizmente não posso te ajudar aqui, mas acho que o melhor seria a BiOS original, ou ao menos do mesmo modelo. Isto deve ser devido ao(s) último(s) driver(s), as HIS Iceq são muito boas para overclock, recomendadas em todo lugar. Eu realmente acho que deve ser um problema com driver. Abraços
  9. Se você olhar na primeira página, verá que levei a GPU a 850MHz máximos com 830MHz estáveis sem overvolt. Experimenta aí e diz como foi.
  10. leeson, tá tudo certo com sua placa. 400MHz é o clock real da memória, vira 800MHz DDR (double data rate, que envia 2 dados por pulso de clock). Veja o cálculo: 800MHz DDR * 128bits / 8000 = 12,8GB/s (não lembro o que significam os 8000 na divisão, só lembro da fórmula ) Na época do teste do CdH, haviam apenas as versões GDDR3, a sua, com GDDR2, foi lançada depois com frequencia de 800MHz DDR nas memórias. Teteusete, essa do gabinete...na verdade ocorreu comigo, no fim eu fiz o que não se deve fazer e não recomento que faça: "eu forcei um pouco pra cá e pra lá até que foi" (no meu caso, a saída DVI ficava batendo com a barra de suporte do gabinete). TALVEZ funcione você desparafusar a placa mãe, afastar um pouco pra frente do gabinete, pôr a placa, afastar de volta e parafusar tudo montado. Experimenta!
  11. Êta gota...só sobra essa opção mesmo, experimenta em outra máquina pra ver.
  12. Só por curiosidade, resetou a BiOS para Default? Se não, experimenta. Se continuar os problemas, procura por outra versão de driver (que eu já acho inútil, mas você quer tentar mais algo, então tenta ). Aí eu começo a ficar sem idéias.
  13. É uma boa, põe em outro PC pra ver o que acontece. Pra ser problema de fonte só se ela estivesse com algum problema em alguma linha, o que não deve ser o caso já que pelo visto o resto do sistema funciona normalmente.
  14. O tipo do comentário ridiculamente inútil de alguém que realmente não tem propriedade do que fala. Em 72 páginas de fórum, só elogios, perguntas e respostas, casos resolvidos e usuários satisfeitos pelo que pagaram. O pior é a pessoa vir dizer que NÓS nunca o ajudamos... Querido, pesquise, as 72 páginas estão salvas ainda justamente para isso, é mais ou menos esta a função de um fórum. Já nem possuo mais a placa, mas é incrível como a minha NUNCA de nem sequer 1 problema, nem mesmo com o atual dono. Dicas para quem tem algum problema: 1. Verificar a qualidade da fonte 2. Setar DEFAULT na BiOS da placa mãe (nunca se sabe o que foi feito por lá) 3. Verificar a refrigeração do sistema 4. Buscar outra versão dos drivers e certificar-se de ter desinstalado a anterior antes de instalar a nova. 5. No game, procurar as FAQs e ver se saiu alguma atualização. ....... Abraço
  15. O que tem o Westmere? Ele por acaso utiliza suas "unidades GPU" para qualquer propósito como se propõe para as APUs? Essa eu não sabia, principalmente porque até o SandyBridge vai usar sua GPU apenas para gráficos, inclusive desativando as mesmas caso uma placa discreta seja inserida no sistema. Opinião própria, uma forma porca de conseguir dizer "eu também pus uma GPU lá dentro e funciona".
  16. O que o CEO da AMD falou foi que a empresa não está a venda, mas que está disposto a fazer acordos de parceria. Nem fumaça, nem fogo. Quem pode perder mais aí é a IBM ou a AMD se a IBM ficar com raivinha...
  17. Acho que é isso mesmo que ele quer, usando a saída HDMI ligando num aparelho de Home-T deve dar para setar 7.1, ou talvez fique só no 5.1 ...
  18. Sim, todo mundo tem seu preço (principalmente políticos), mas a diferença deste preço entre "está a venda" e "não está a venda" é gritante, algo como a diferença entre "to precisando de grana urgentemente" e "não tenho necessidade nenhuma de vender e to feliz com isso aqui"... Acho que não vende não.
  19. Pois então... eu tinha pensado em perguntar se ele trabalha com isso, mas uma tara parece ser realmente mais plausível.
  20. Pois é, está tudo muito tenebroso... Agora, voltando ao link que você pôs, vi uma resposta que não havia visto ainda e que, pelo menos para mim, ainda era uma dúvida, por isso trago aqui para quem ainda estiver confuso: John Fuehe ao ser perguntado se o Bobcat é baseado no Bulldozer: "The upcoming “Ontario” processor will be based on the “Bobcat” core, which has a different core architecture than “Bulldozer.”" TRADUÇÃO LIVRE: "Os futuros processadores "Ontario" serão baseados no core "Bobcat", que tem uma arquitetura diferente da do "Bulldozer"." "There have been some that have made the assumption that a Bobcat was just a scaled down “Bulldozer”, but they are, in fact, different." TRADUÇÃO LIVRE: "Algumas pessoas assumiram que o Bobcat era apenas uma versão "capada" do Bulldozer, mas eles são, de fato, diferentes." Bem, se alguém ainda tinha dúvidas ou acreditava que o Ontario e o Bobcat eram versões simples do Bulldozer (assim como eu achava), está aí a resposta. Agora, ele também não comentou nada sobre k8 ou k10, será que é realmente algo totalmente novo, feito simplesmente para ser simples?
  21. Pois é Xita, engraçado que eu acabei de ver uma nova postagem no blog de press da AMD e o John Fruehe não falou nada a respeito de dual-channel ou triple ou quad no controlador de memória dos BD... PS.: Sim, a pergunta não era sobre isso, era sobre o NUMA (Non-Uniform Memory Access) que é algo que só será usado nos sistemas "bi-processados" ou mais. Pelo que entendi é uma mudança na forma como um Opteron vai poder buscar informações na memória controlada por outro Opteron. PS.: Se não me engano, alguém já havia perguntado sobre isso na parte 1 ou 2 dessa sequencia de posts, mas o John Fruehe se recusou a responder pra manter o sigilo do desenvolvimento ou algo assim. Link pras perguntinhas e respostas (ou não) do John (parte 3): http://blogs.amd.com/work/2010/09/13/bulldozer-20-questions-part-3/
  22. AMD desenvolveu um novo controlador de memória para os Bulldozers: http://www.fudzilla.com/processors/processors/amd-talks-about-bulldozers-new-memory-controller Interessante...?
  23. Segundo postagem no blog da AMD, essa semana inteira terá novidades sobre os fusion "zacate"... Eis o post de hoje (quentinho, ainda vou ler ) http://blogs.amd.com/fusion/2010/09/13/part-the-clouds-amd-fusion-apus-ideal-for-cloud-clients/ EDIT: Com direito a comparação "Zacate" vs i5 520M em gráficos... EDIT2: Cacilds, olha o tamanho daquilo??? Eu queroooo!
  24. Se não me falha a memória, um chip entra em estágio tape out quando vai para a produção de teste. Tem uma galera aí que responde melhor que isso.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

 

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!