Ir ao conteúdo
  • Cadastre-se

EduardoS

Membro VIP
  • Posts

    6.878
  • Cadastrado em

  • Última visita

Tudo que EduardoS postou

  1. 1) difícil dizer; 2) Sim; 3) Não; 4) Não importa. O modelo de 6 núcleos terá o clock reduzido, não será 50% mais que o Sandy Bridge, mas o preço disso é um die gigante, no caso a Intel está reciclando o die dos Xeon-EP com uns 450mm², por conta disso custará mais do que 98% do mercado aceita pagar, é uma estravagância que a AMD não pode seguir, mas dificilmente afetará a vida dos mortais. Como ele é licensiado depende do desenvolvedor, os que eu conheço é núcleo físico.
  2. Quando o Power6 estreou já com 4.7GHz (e depois 5GHz) atropelando todo mundo ninguém lembrou do Pentium 4, os Phenom II já estão a 3.7GHz, os SB 3.4GHz e 3.8GHz no turbo e ninguém deixa de comprar eles por causa disso. A maior parte dos consumidores não faz a menor ideia do que é clock ou mesmo qual o clock do seu computador, compram o que o fabricante/vendedor diz que é bom*. Para uma outra parte dos consumidores é Intel é pronto. E para uma parcela final o que importa é quem tiver na frente dos benchmarks, são consumidores bem informados sobre clocks e afins mas não dão a mínima. No fim para o fabricante informar o clock é mera curiosidade técnica, se ao invés de 4GHz dissessem 2GHz "double pumped" daria na mesma, o mesmo vale para os "oito" núcleos do Bulldozer, podiam muito bem chamar de quatro, alias, acho um erro dizer que "octocore" porque alguns programas são licenciados por núcleo, essa decisão do departamento de marketing eliminou o Bulldozer nessas situações. *Em lugares civilizados é importante agradar o consumidor e o vendedor/fabricante até tenta indicar a melhor opção ao invés de simplesmente empurrar a mais cara.
  3. Tem que esquecer esse lance de performance por clock... Clock é um parâmetro de projeto, se quer aumentar o clock diminui o processamento por estágio, isso provavelmente o fará sacrificar algumas unidades de execução então cai a performance por clock. Por outro lado colocar mais unidades de execução para aumentar a performance por clock significa que cada estágio de pipeline terá mais trabalho a fazer logo o clock diminui. Multiplicando os dois não tem pra onde correr os engenheiros tem que ralar muito para achar um equilíbrio entre esses dois parâmetros. Tanto a Intel quanto a AMD tentam sempre melhorar um dos dois parâmetros sem sacrificar o outro ou, quando sacrificar o outro fazer com que esse sacrifício compense. O desafio é bem maior para a AMD porque precisa achar esse equilíbrio com bem menos dinheiro, preferiram um caminho mais barato, com menos unidades de execução, mais simetria e clocks mais altos, algo que faz todo sentido para eles porque eles provavelmente não conseguiriam bancar um design muito assimétrico que nem o Sandy Bridge. Mesmo com menos dinheiro as vezes a AMD acerta, o Athlon tinha mais performance por clock E atingia clocks mais altos, não era opção para a Intel descartar o P4. Se vier com 3.8GHz é uma falha no plano, provavelmente por causa do processo de 32nm já que o Llano não passa de 2.9GHz. O que a AMD chama de octacore a Intel chama de quadcore... E cada módulo do Bulldozer terá mais ou menos o mesmo tamanho de um SB e, se espera que aina clocks entre 20% e 30% mais altos, se com o mesmo envelope térmico um módulo do Bulldozer for mais rápido que um núcleo do Sandy Bridge então a AMD cumpriu sua obrigação, com menos dinheiro superou a Intel, o resto é milagre. É... E o campeão de performance hoje não é nem da AMD e nem da Intel, é o Power7 da IBM, com mesma performance por clock que o Nehalem-EX e dobro do clock ele prova pra todo mundo que clock alto não é defeito...
  4. Estão deduzindo muito de muito pouco... Sim, a GPU do Trinity vai se chamar HD7k, alguém ainda não sabia disso? Será em 32nm ou (muito improvável) 28nm, mas a arquitetura delas será mais parecida com a Cayman do que com uma possível arquitetura completamente nova (GCN), dar nomes novos a macacos velhos é comum, a AMD sempre fez isso com GPUs integradas, e digo isso assumindo que as HD7k serão GCN porque também existe a possibilidade delas serem um die shrink das Cayman.
  5. TDP não quer dizer que o processador consome aquilo, é o máximo que ele pode consumir, dois modelos iguais podem apresentar consumo muito diferente, isso é comum em modelos mas baratos onde o TDP é deixado em um valor alto para permitir que mais chips possam ser vendidos com aquele modelo. Não tem Phenom II a 80 dolares... Nem Core i3, no máximo tem Pentium G850.
  6. Depende, se for para usar com uma HD6870, pra que a IGP?
  7. Esses Athlon Llano são o refugo da produção, a AMD não vai pegar o melhor chip desativar a GPU e vender por um preço mais baixo... São os piores chips da fornada, aqueles que eles não puderam habilitar a GPU (ou por ela consumir demais e exceder os 100W ou por ser defeituosa ou porque o processador requer muita tensão para atingir esse clock, enfim), o TDP ficou alto para atender a todos esses casos, pode-se pegar um examplar e ele não passar de 50W, mas um outro pode chegar nos 100W. Enfim, são aqueles chips que iam pro lixo e alguém achou um jeito de usá-los...
  8. O tamanho do cache influenciou muito mais que o número de núcleos... Ainda assim, o gráfico não parece espressar o desempenho dos processadores, tem mais alguma coisa ai e o reviewer não quis olhar... Olha... Sempre que olho os reviews e vejo os números nos jogos fico desesperado porque parece que meu X4 não é capaz de rodar os jogos que jogo todo fim de semana Brincadeiras a parte ainda não encontrei um jogo que esse X4 fosse um limitador, nos dias de hoje desempenho em jogos não é uma ciencia simples e o que os reviews apresentam é ridiculamente simples, não da para chegar a grandes conclusões com isso.
  9. A concepção está quase certa, inclusivo é quando sempre tem uma cópia do outro cache, exclusivo quando nunca tem uma cópia do outro cache, agora adiciona um terceiro tipo (o mais comum em processadores multi-core) que não é nem inclusivo e nem exclusivo, quer dizer, pode ter uma cópia do outro cache, mas pode não ter. Não vou comentar cada trecho da mensagem, mas tudo o que falou de link não tem nada a ver... Veja acima. Isso. Não tem nada a ver. Inclusive, uma das razões mais citadas para o bom desempenho do Athlon XP (e dos demais K-7 em geral) era o L1 grande, o L2 exclusivo é uma consequencia do L1 grande, mas comparando o desempenho de dois processadores completamente diferente tem muito mais coisa para considerar além da arquitetura dos caches.
  10. Quanto a questão do cache inclusivo/exclusivo, na época dos single core costumava ser: Intel: inclusivo, AMD: exclusivo. Mas hoje tá uma bagunça... AMD: L1 é exclusivo ao L2 do mesmo núcleo, mas não aos demais caches, e também não inclusivo a nenhum cache, L3 não é inclusivo e nem exclusivo. Intel: L1 não é inclusivo e nem exclusivo ao L2, mas o L1 e L2 são inclusivos ao L3, Antes do Nehalem o Dunnington tinha o L3 que não era nem inclusivo e nem exclusivo, assim como seu L1 e L2. E o Bulldozer será, segundo as informações até o momento semelhante ao Dunnington, algo surpreendente considerando o L1 write-through. Quanto ao L3 inclusivo do Nehalem, a principal vantagem dele parece ser diferente do cache da AMD... É difícil justificar o cache L3 inclusivo (*****, é o L3), só sabendo de detalhes que não temos, as vantagens de um cache inclusivo geralmente citadas em artigos na internet são mais significativas em caches L2 do que em caches L3.
  11. Todo processador AM2/AM2+/AM3/AM3+ suporta ECC, um recurso raramente usado, mas ta la, ativo. A tabela tem alguns erros, um deles é não citar o ECC para processadores anteriores. Outro erro e que alguns comentaram aqui é o L1 pequeno, o Zambezi terá 96kb de L1 por módulo, 64kb de instruções compartilhado pelos dois núcleos mais 16kb por núcleo, o total de L1 por chip fica em 384kb. E são só 16kb de dados para permitir frequências maiores sem sacrificar demais a latência, claro que não é tão eficiente quanto os 64kb dos processadores anteriores mas é o que conseguiram encaixar com o resto do projeto.
  12. Muito pouco pra dar processo... Mas particularmente, não gosto do "K"...
  13. Estão prometendo algo além do tamanho, e acho que é o mínimo, o número de EUs não deve passar de 16, o desempenho dizem que vai dobrar... Claro que não, mas conseguir uns 90% ao invés de 40% chega a ser obrigação, no caso da Intel é um nível de desempenho muito baixo, os concorrentes não tem problemas de escalanilidade nesse nível. O Kanter acha... Por isso o critiquei. Estava justificando minha crítica ao Kanter, explicando porque acho que nem se o IGP do Sandy dobrasse de tamanho atingiria o desempenho do Llano como o Kanter da a entender, agora isso se chama FUD? E criticar sem qualquer dados como você está fazendo se chama o que? Bem... Realmente não sei todos os detalhes porque a Intel não os divulga, mas pelo visto sei mas que você e que o próprio Kanter. Dois reviews Em um dos reviews pode ter sido a AMD que pagou pelo equipamento (não estou disposto a reler o review para saber de onde veio...), mas ele foi feito pela HP e é igual ao que qualquer um pode comprar em lojas, se tem algo de errado com os números dele é só falar, é fácil de conferir, mas você não citou número nenhum, só reclamou do comprador... Não ignorei esse fato, a CPU só roda em 1.5GHz para deixar espaço para a GPU rodar em clocks maiores, as CPUs da Intel fazem o mesmo e também aumentam o clock da GPU quando só ela está trabalhando. No caso da Intel talvez os clocks da CPU subam junto, se isso ocorre então ou os engenheiros são muito burros ou o IGP depende do processamento da CPU e para ter bom desempenho precisa subir os clocks da CPU também... No caso da AMD provavelmente o clock da GPU não suba o bastante para ocupar todo o envelópe térmico, por isso a bateria durou mais tempo, mas se o clock subisse o bastante o Llano seria ainda mais rápido, então qual o seu ponto? Alguns no B3D realmente conhecem de GPUs, mas o IGP da Intel é difícil de obter informações, a Intel divulga o mínimo possível. Para saber se o IGP escala, se duplicando o tamanho do IGP a performance duplicaria, ou para saber se qualquer outro item de hardware que seja o gargalo escala o que se faz é duplicar esse recurso e manter os demais recursos intactos, então parabéns! Acabou de achar mais uma evidência de que o IGP da Intel usa recursos de processamento da CPU, mantendo a mesma GPU e duplicando os recursos da CPU o desempenho quase dobrou, em nenhum caso no gráfico acima se manteve os recursos de CPU apenas duplicando a IGP (como foi no teste do TechReport que testou esse mesmo bench com o Core i3 2100 e 2105). Apenas com o seu gráfico e olhando apenas para CPUs Intel podemos concluir uma das duas opções abaixo: 1) O teste é limitado pela GPU e a IGP usa recursos da CPU, por isso dobrando os recursos de CPU dobrou a performance. 2) O teste é limitado pela CPU por isso CPUs mais rápidas se sairam melhores. Agora olhando as GPUs dedicadas podemos descartar o segundo item porque passando da HD6450 para a HD6670 triplicamos boa parte dos recursos e a performance aumentou 136% supostamente com a mesma CPU, então o teste não é limitado pelo CPU.
  14. Olha que coincidência, a discussão toda é justamente sobre GPU e jogos 3D... Se a Intel tivesse feito uma GPU maior ainda perderia pro Llano... É simples não? 1) Não escala bem, pelos gráficos já não deu pra ver? Sem escalar não adianta aumentar o tamanho. 2) Já consome muito, se aumentar o tamanho vai consumir ainda mais, reduz os clocks e não duplica o desempenho. 3) Caso o baixo desempenho só seja atingido com ajuda da CPU, todo o resto se torna irrelevante... Que ponto você não entendeu? Desde o início só escolhi um jogo, Battlefield Bad Company 2, por que esse jogo? Porque o Techreport escolheu ele para testar o consumo, não serve esse jogo pra você? Tudo bem, fiz um sumário do TechReport, para o review do Llano desktop (onde compara a HD2000 com a HD3000, HD2000 = 100%, Llano16 - memórias 1600MHz, Llano13 memórias 1333Mhz): Battlefield Bad Company 2 HD3000 - 145% Llano13 - 264% Llano16 - 282% Boderlands HD3000 - 129% Llano13 - 257% Llano16 - 300% Civilization V - 1 HD3000 - 100% Llano13 - 240% Llano16 - 251% Civilization V - 2 HD3000 - 140% Llano13 - 330% Llano16 - 380% Civilization V - 3 HD3000 - 100% Llano13 - 219% Llano16 - 229% Civilization V - 4 HD3000 - 129% Llano13 - 371% Llano16 - 400% Starcraft 2 HD3000 - 140% Llano13 - 260% Llano16 - 300% Portal 2 HD3000 - 143% Llano13 - 371% Llano16 - 379% Olha só que irônico, justamente o gráfico que eu escolhi é onde a HD3000 escalou melhor e mais se aproximou do Llano... Ainda acha que eu escolhi o benchmark a dedo? E também podemos fazer o oposto, ache um gráfico que mostra que a HD3000 pode escalar bem e, se mantiver a escalabilidade, poderia chegar no Llano sob condições semelhantes. ps: Tente ler o review antes de questionar, me sinto como se estivesse transcrevendo o review aos poucos.
  15. E? Ambos funcionam de maneira muito parecida, se tem margem térmica aumenta o clock da GPU/núcleos, os dois ainda tem a mesma margem térmica, 35W, para a bateria durar mais é provável que o Llano não tenha atingido a margem térmica, o note da AMD consumiu apenas 2/3 do que o note da Intel consumiu, com a bateria de ~55Wh o Sandy deve ter consumido mais ou menos 35W no processador e 20W no resto, se o resto for semelhante para o Llano sobra uns 17W pro processador. Sim, sim, o Llano consumiu menos por manter clocks mais conservadores, e apesar do clock baixo ainda entregou o dobro do desempenho, o dobro do desempenho com metade do consumo... Isso já não é auto-explicativo? Quantas vezes o Llano seria mais rápido se subisse o clock para igualar a performance por Watt? Ah... Antes que responda dizendo que quem ta consumindo no sistema Intel é a CPU, o Llano atingiu o dobro do fps, isso quer dizer que a GPU teve que trabalhar duas vezes mais e a CPU também teve que entregar duas vezes mais trabalho útil, a única forma da CPU do Sandy Bridge ser a única culpada pelo consumo é se ela consumisse demais para não fazer absolutamente nada, o que representaria uma grave falha no projeto. A Intel não parece ter tantos engenheiros incompetentes assim, a teoria de que a CPU ajuda no processamento dos shaders parece mais realista. Com a mesma banda de memória e sem L3 o Llano atinge o dobro do fps, ainda assim você acha que o Sandy Bridge é gargalado pela banda de memória? Mas que porcaria de projeto... Assim vai precisar de 512 bits para atingir o desempenho do Trinity... A propósito, no review do TechReport eles testaram o Sandy Bridge só com um canal de memória, isso deixou a versão com 12EU 12% mais lenta, dificilmente essa versão com 12EU é limitada pela banda de memória de 2 canais...
  16. Não tem, era só ler o review, outro usuário postou o link. Se ainda tiver dúvidas quanto ao consumo de cada parte do chip pode ler o review e ver os testes de bateria com outras aplicações... É o primeiro teste de IGP do review e, por coincidência, o mesmo teste do consumo, o que não da é para escolher um teste para consumo e outro para performance não é mesmo? Esse gráfico não traz informações suficientes para se concluir nada sobre escalabilidade de GPUs da AMD ou nVidia, vai ser difícil achar um teste desse jogo com chips da AMD ou nvidia em um patamar tão baixo para fazer a comaração justa, mas subindo alguns degraus na performance e resolução temos isso aqui: Da 5770 para a 5870 dobramos os recursos e temos 71% mais performance, não é linear mas não é tão vergonhoso quanto a escalabilidade da Intel, e isso partindo de um nível bem mais alto.
  17. Bem... A AMD tem todas as licenças necessárias para fabricar DDR3 e GDDR5, não? Vai ve só alugaram a marca...
  18. Intel, bem vinda ao mundo das GPU onde se corre atrás dos problemas dos outros e se carrega os parceiros nas costas, com os bolso bem abertos. Até o momento os clocks baixos parecem culpa do processo de fabricação. E pela duração da bateria, o Sandy gasta bem mais para entregar muito menos... Só se fosse um bom projeto que escalasse de acordo com o número de unidades... Em um nível de performance tão baixo aumentar o desempenho em apenas 45% duplicando os recursos da GPU se deve a uma das opções: 1) O projeto da GPU é uma droga e não escala bem, nesse caso não adianta usar tanta área para a GPU como o Llano usa; 2) A GPU em si não consegue esse desempenho, para chegar nesse nível foi preciso transferir parte do processamento para a CPU e os recursos de CPU não foram duplicados, nesse caso também não adianta gastar mais área com a GPU porque é a CPU que faz o trabalho sujo. De um jeito ou de outro aquela conclusão do Kanter é totalmente parcial...
  19. Sim, é verdade, e também é verdade que: 1) A qualidade de imagem do chip da AMD é muito melhor; 2) Ou a GPU da Intel passa parte do processamento para a CPU ou são os 41mm² de silício (sem contar os 2MB de L3) que mais consomem energia atualmente, no primeiro caso a comparação deixa de ser verdadeira porque somando a CPU da uma área maior que a GPU do Llano, no segundo porque se a GPU do Llano pudesse gastar tanta energia teria um clock muito maior. Ignorar esses itens é chegar a uma conclusão tendenciosa.
  20. O Kanter tem sido um pouco favorável à Intel em seus artigos, recentemente foram três artigos para falar do Sandy Bridge contra um para falar do Llano, Trinity e GCN da AMD, se ele tivesse tempo faria um artigo para cada transistor do Sandy Bridge, não é difícil perceber a parcialidade, vou resumir para deixar mais claro: QPI 1.1: Com essa revisão a Intel passa a usar um protocolo igual ao que a AMD usa desde o primeiro Opteron, como o protocolo da Intel já era melhor que o da AMD agora fica ainda melhor. Sandy Bridge-EP: Agora a Intel vai vender ainda mais porque fez o mesmo que a AMD. GPU do Sandy Bridge: É um chip fantástico e destruidor, fica clara a vantagem da engenharia da Intel sobre as concorrentes e não tem porque alguém reclamar da baixa qualidade gráfica, performance muito abaixo da metade do Llano, alto consumo no modo 3D e escalabilidade pobre. OpenCL é suportado pelas Radeon 4000 e Geforce 8(!), DX11 desde as Radeon 5000, vai dizer que não deu tempo? Para qualquer um que conheça o assunto esse parágrafo é claramente favorável à Intel... Alias, há muitos pequenos erros nesse artigo, quando ele falava só de CPUs os artigos eram mais precisos.
  21. Pra quem reclama que a AMD não faz marketing no Brasil... ‪AMD apresenta Improvision - Cenas dos Blogueiros‬‏ - YouTube
  22. Acho que o único erro da AMD com o patrocínio da Ferrari foi não usar o cavalinho para fazer propaganda...
  23. A única coisa que impediu o aumento de clock no Phenom I foi o floating body effect além do próprio projeto, não teve relação com o famoso bug. A situação extrema não dependia do clock, só de muitos cache misses em padrão aleatório. overclock é diferente de clock! O processador é projetado para trabalhar em determinado clock, nesse clock ele é estável (que é 8MHz para um 8086 e 5GHz para um Power 6) acima disso é overclock, um 8086 a 20MHz mesmo tendo um clock baixo é instável.
  24. Nos monitores CRT com 60Hz era possível ver a tela piscar, mas isso era por causa do funcionamento deles, com LCD não da para perceber isso, e sem a tela piscando para a animação ficar fluída uns 30fps já são suficientes.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!