×
Ir ao conteúdo
  • Cadastre-se

EduardoS

Membro VIP
  • Posts

    7.056
  • Cadastrado em

  • Última visita

Tudo que EduardoS postou

  1. Apesar da cara de primeiro de abril essa pode ser verdade. O TDP é 220W, mas o que que tem? No Power7 da IBM são 250W, nas GPUs top são 300W, sem contar que nos overclocks essa marca é facilmente excedida, qual a novidade? O produto é pra publicidade, só para chegar nos 5GHz mesmo, não muda em nada a vida do usuário comum.
  2. EduardoS

    Intel Haswell

    Junta com a litografia menor e... Vai ver é erro de tradução. SRAM é mais cara e consome mais que DRAM, a única vantagem real da SRAM é a latência, mas: 1) Isso não é importante para a função desse chip; 2) Com 128MB a latência da SRAM aumenta muito por causa do tamanho e para manter o consumo dentro do aceitável, talvez exceda a latência da DRAM. Talvez usaram, o processo de DRAM é dferente do processo de lógica.
  3. EduardoS

    Intel Haswell

    Com a quantidade de transistores que a Intel jogou nesse Haswell a diferença está longe de ser "mágica", é perfeitamente plausível que, a Intel usando muito mais recursos faça uma GPU mais rápida que a AMD, o que acho que ninguém esperava era que a Intel levasse o desempenho gráfico a sério, isso foi surpresa.
  4. EduardoS

    Intel Haswell

    Não sei se "dando um pau" é exatamente a expressão, mas realmente, é uma surpresa ver o video da Intel ganhando. Quanto ao preço... Tudo tem seu preço, a Intel conseguiu essa vitória aos custos de uma litografia melhor e uma porrada de transistores, não tem como esse Iris competir com o A10 na faixa dos 100 dolares.
  5. Coerência de memóriaentre CPU e VGA off, até podem implementar, mas ai o propósito é outro, não é algo que realmente vai afetar os games. É Jaguar, e não terá XOP nem FMA.
  6. As vezes a capacidade dos jornalistas de escrever besteira surpreende... hUMA e HSA é o nome que a AMD deu para a memória comum entre CPU e GPU, sem uma CPU com GPU integrada isso não existe, logo a nVidia não vai implementar... Que eu saiba a Intel já implementou, ainda assim, o video integrado deles ainda ta na categoria "e quem se importa?". São duas tecnologias completamente diferentes, usar uma não exclui a outra, e TSX não é tão interessante assim em jogos... Agora quanto as cotas de mercado, a AMD tem 100% de participação nos consoles de alta performance, dúvido que os jogos ignorem essa capacidade.
  7. Sim e não, sim porque... É faz sentido. Não porque, Ninguém quer correr o risco de atrasar ou ter qualquer dor de cabeça com o processador por causa desse HUB. Não sei se a AMD colocou tudo no processador de uma vez ou não, as duas opções são plausíveis.
  8. Já foi confirmado os 128SPs, mas supostamente deveriam ser divididos em 2 CUs e não em 4. EDIT: Olhando e coparando com as fotos do Tahiti cada ***** é formado pr dois desses quadrados, na verdade é um filete quase da altura do chip, nas fotos do Tahiti esses filetes são mais visíveis. Geralmente entre os L2 dessa maneira vai a interligação entre eles e as tags, a ponte norte acredito que fica na parte superior do chip. FHC?
  9. Eu também, mas a coisa não é tão simples assim, por exemplo: De onde vem o 32? Cada "*****" tem 4 SIMDs com 16 SPs cada, logo são apenas dois "*****"s, tem alguma coisa na imagem que não estamos vendo ;-)
  10. A GPU é maior mesmo, mas a disparidade não é tão grande quanto era no Bobcat.
  11. O top tem mesma frequência e TDP que o A10-4655M, vai dar uma briga e tanto com o irmão mais velho em casa...
  12. Em especial para as tarefas que você pretende usar a diferença deve ser de no máximo uns 5%, mesmo do seu i7-920 overclockado para o i7-3770k a diferença não é tão brutal assim.
  13. Não acho que MS e Sony entraram em acordo, a AMD ofereceu uma solução à MS que tradicionalmente não se preocupa com a exclusividade do hardware, eles toparam, ai vem a Sony, querendo um chip sem ter que pagar pelo desenvolvimento dele, a AMD mostra o que tem e a Sony diz sim. Esse chip, integração e máscaras, provavelmente foi todo bancado pela AMD, não pela Sony ou MS, sem pagar o desenvolvimento não da para exigir exclusividade.
  14. 1) Era ATI; 2) Eram requerimentos diferentes. A principal IP é os núcleos do Jaguar e os núcleos GCN, ambos seriam usados pela AMD em outros mercados, IPS incluídos pela MS e Sony seriam software ou, se for algum hadware, coisa muito pequena, a AMD poderia muito bem fazer um chip com a IP das duas e desabilitar parte da IP ao vender o chip para uma ou para outra, que nem a Intel faz com suas multiplas versões de CPU para desktop, se a IP for software ou habilitado via software (DirectX/OpenGL) nem isso é preciso. O Bobcat foi desenvolvido desdo o início para ser licenciado no estilo ARM, nunca para ser licenciado de forma exclusiva, mas não foi a Sony e nem a MS que pagaram o desenvolvimento do chip, então o chip não é de nenhuma delas. A MS não se importa, a Sony precisa dividir custos. O mercado de videogames a muito tempo é tecnicamente inviável e só se mantém por razões comerciais que vão além da nossa compreensão, para a MS isso não importa, o objetivo deles é garantir o ecossistema, mas a Sony precisa lucro, e esse lucro foi deteriorando com as maluquices inventadas no PS2 e depois PS3. Alias, as maluquices inventadas no PS2 e PS3 mostram justamente isso, com o mercado sendo tecnicamente inviável é difícil diferenciar PCs de consoles, as maluquices são justamente uma tentativa desesperada de tentar a diferenciação. Mas hoje uma maluquice dessas seria muito mais caro e a Sony tem menos dinheiro em caixa que na época do PS2 e PS3, sendo assim, para essa geração as duas tinham três opções: 1) Jaguar+GCN; 2) ARM A57+Kepler; 3) Alguma maluquice. A MS sempre mostrou preferência por processadores x86, seja la a razão que existiu durante o desenvolvimento do Xbox 360 para eles não usarem o Athlon 64 como inicialmente planejado essa razão não existe mais, ai a escolher 1 se tornou o mais óbvio. A Sony com certeza preferia escolher o 3, mas com o bolso vazio e diretores desconfiados dos riscos essa escolha foi riscada, depois ele poderia escolhere 1 ou 2, no caso do 2 ela teria que bancar os custos de desenvolvimento (a nVidia não quis), e também assumir os riscos da inexperiência da ARM, a AMD já havia bancado os custos do Jaguar, ele já estava na prateleira quando a Sony procurou, ai a opção 1 se tornou mais segura e barata. Quanto a diferenciação, as tecnologias de reconhecimento de movimentos trazem a diferenciação que a Sony quer, ou ao menos é tudo o que sobrou, o Wii provou que da para diferenciar um console de PCs através de outras maneiras que não o poder de processamento.
  15. Na verdade, é muito provável que o mesmo chip vendido para a Sony também tenha sido vendido para a Microsoft e seja vendido para os consumidores finais, nesse último caso, devido as características do chip deve ser soldado à placa mãe junto com a memória.
  16. Podem até conseguir, mas chamar de "Centurion" e cobrar $795 é forçar a barra...
  17. Olha... Essa notícia ai tem cheiro de primeiro de abril atrasado... Tipo... Um chines postou no primeiro de abril depois alguém leu, traduziu, não se tocou e a matéria só ficou pronta hoje...
  18. Ainda muito lento para os padrões atuais ;-)
  19. Esse P4 é bem mais lento que o seu notebook.
  20. As integradas são as que vem na placa mãe, as discretas são as placas de video, tipo GTX690...
  21. Calunia seria se a AMD acusasse a Intel de um crime que a Intel não cometeu, e não vejo nenhum crime ali...
  22. Se fosse para aumentar o número de núcleos teriam feito no Ivy, o núcleo do Haswell é maior e mais caro de fabricar que o do Ivy, a Intel não vai fazer um núcleo maior E aumentar o número de núcleos sem redução na litografia.
  23. Eles provavelmente estavam falando de alo diferente do que o Jones ta falando... O processador tem várias camadas, quando falamos do silício estamos falando da camada mágica de semicondutores, mas semicondutores são péssimos condutores, existe uma outra camada (na verdade várias outras), feita principalmente em cobre, que é usada para ligações, e é dessa camada que falavam no texto que você leu.
  24. Não sei se o limite é 4nm ou 5nm, mas a 13 anos atrás a redução na litografia sempre era acompanhada de redução na tensão, consumo e aumento da velocidade, hoje não está mais acontecendo desse jeito, e é preciso várias passagens para a "impressão" o que aumenta o custo, por mais que seja possível litografia em 2nm talvez não seja viável. EUV deve mudar um pouco isso, mas são ondes de 13nm, não da para ir muito longe com elas e já é praticamente raio-x.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Como ganhar dinheiro montando computadores!

MINICURSO GRÁTIS!

Como ganhar dinheiro montando computadores!

CLIQUE AQUI E INSCREVA-SE AGORA MESMO!