Ir ao conteúdo
  • Cadastre-se

EduardoS

Membro VIP
  • Posts

    6.878
  • Cadastrado em

  • Última visita

Tudo que EduardoS postou

  1. Sem relação, e os POWEr da IBM tão ai pra provar isso...
  2. Claro que ainda da tempo de melhorar mas não é um bom início.
  3. Foi mais lento que a geração anterior com o mesmo clock, qual o mérito? O Ivy vai ser lançado com 6GHz? ES a 1.8GHz não é bom sinal...
  4. Talvez o turbo demore uns 30ms para agir, talvez menos...
  5. Hum... 64? Quase um ano... Acho que foi o primeiro chip deles a ser detalhado tão antes, e também, só para estragar a festa da AMD. E também mostrou um compilador imaturo, não era isso que se espera de uma série que só não foi lançada por causa de atrasos na TSMC, não acha? Harvest é HDxx50, entre um série e outra (ex: HD5870 e HD5770) a diferença no tamanho é grande demais para usar o mesmo chip. Bom para o clock stock...
  6. Não, não acho, a AMD já fazia isso com processadores, até mais de um ano.
  7. PeaceKeeper não mede m#$@# nenhuma, de tempos em tempos aparece Pentium dando pau em Core i7 Extreme...
  8. Não sei... Chuto 4, MAS, enquanto a AMD tenta fazer o offload de tarefas da CPU para a GPU a Intel faz offload da GPU para a CPU, quem faz os shaders é o Sandy Bridge e não a IGP, o fica IGP mais pra funções fixas mesmo. Tanto faz... O teste só usa um core, deixa tudo habilitado, da na mesma.
  9. Sim, single-thread, que só usa 1 dos 2, 3 ou 4 núcleos dos processadores comparados. A propósito, como sou muito chaato, fiz 5850 pontos Phenom II X4 955 Radeon HD5770
  10. A GPU do Llano é limitada pela memória, a CPU não, e o JEDEC já aprovou DDR-3 2133, pode melhorar o controlador de memória também... Acredite' date=' o controlador de memória dele é muito bom. O Sandra não mostra a eficiência com que esse controlador realiza suas (muitas, mas muitas mesmo) funções, por outro lado, o Sandra não é relevante, o desempenho na prática desse controlador é o melhor da categoria. Os núcleos que são meio fraquinhos nesse clock... 1) Também sou chato e w/h não existe. 2) IDLE fica uns 5W para o Llano e 1W para o Bobcat, chutando alto. 3) Trabalhando a coisa muda muito de figura, o Llano consome muito mais mas trabalha bem mais. Para um teste single-thread com aceleração 2D, acho que ta dentro do esperado... A propósito, qual sua placa de video?
  11. Não precisa falar assim também... Para uma CPU como o Bulldozer 4.2GHz é só um indício de que a AMD ainda não conseguiu bons clocks com o processo de 32nm SOI HKMG...
  12. Falo dos clocks baixos para o Llano e Bulldozer até o momento... E Phenom II a mais de 7GHz...
  13. Os transistores são iguais aos que serão usados no Bulldozer, em 32nm SOI HKMG, o problema até o momento parece ser que a AMD ainda não se acertou com eles.
  14. O problema naquele teste são os programas usados, quase só benchmark sintético que diz muito pouco sobre o desempenho real, em programas de verdade ele fica bem mais próximo dos outros dois. O multiplicador da FPU do Bobcat, por exemplo, tem só 40% do tamanho e consumo da FPU do K-8, claro que não tem o mesmo desempenho, ainda assim ele mostrou alguns bons resultados nos benchs sintéticos como no caso do SIMD int, provavelmente pela latência ser um ciclo ao invés de dois do K-8 e K-10, o Bobcat também deve ter buffers menores.
  15. Apagaram o digito antes e depois do ponto, o tempo fica entre 10.029s e 19.929s
  16. Enviar comandos. Hoje é totalmente unidirecional, a CPU comanda a GPU, na nova arquitetura a GPU poderá enviar comandos também, se comunicar com a GPU. Isso está longe de serem instruções executadas diretamente pelo hardware, os comandos para a GPU devem ser interpretados pelo driver de video que vai repassar para o software, aqueles circulos com alguns quadrados são as filas (Command Queue ou Command Buffer) onde os comandos esperam para serem processados. É mais um tipo de MPI do que uma executando instruções da outra... Na teoria isso reduz o tempo para passar uma tarefa para a GPU' date=' não precisa copiar os dados, assim tarefas que antes eram inviáveis passam a ser possíveis. Essa é a teoria. Talvez quarta...
  17. Não: 1) O cache L2 não é compartilhado com a CPU. 2) Inclusivo ou não aqui não faz a menor diferença, não da para concluir se é uma coisa ou outra pelas informações liberadas até o momento. 3) Mesmo que algum nível do cache seja compartilhado ou que a memória seja compartilhada não é porque alguma parte desse nível seja compartilhada no chip que o outro lado precisa saber que isso existe. 4) Em casos normais a CPU vai acessar as instruções da GPU, para escreve-las mas não para executa-las (a CPU não entende essas instruções não pode executar), nesse caso essa infomações poderia estar tanto no cache de dados (e L2) da CPU quanto no cache de intruções da GPU, isso ocorre porque é a CPU que compila (e compila pouco antes da execução JIT) as aplicações que rodarão na GPU. 5) Na teoria a GPU também poderia ler as instruções da CPU (mas não executa-las ela não sabe o que essas instruções significam), isso não será muito comum porque não tem muita utilidade.
  18. As "CUs" são a parte da GPU que executa instruções...
  19. Não mas... Isso implica, e está completamente errado, não haverá instrções x86 na GPU e ela nem será capaz de executa-las, o que os caches de instrução das GPUs (que alias, já existem hoje) armazenarão são instruções da própria GPU que não são x86.
  20. Não, a GPU não terá intruções x86-64 dentro dela. O que escreveram sobre a nova arquitetura é que o endereçamento de memória entre GPU e CPU será unificado, a GPU vê a memória da CPU e a CPU vê a memória da GPU.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

 

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!