Ir ao conteúdo
  • Cadastre-se

EduardoS

Membro VIP
  • Posts

    6.878
  • Cadastrado em

  • Última visita

Tudo que EduardoS postou

  1. Ah sim, é a tal da "race to idle", mas que também pode ser "executar em clock menor e menos tensão" que é ainda mais econômico. E não é questão de fazer tanta diferença assim, faz um pouco de diferença e o custo é baixo, e hoje o uso de SSE é BEM mais comum que na era do Athlon 64. O problema do Bobcat não é o Bobcat em si, é a GPU que é grande e beberrona demais, a CPU é um pouco demais para um smartphone mas caberia em um tablet, e o concorrente dele seria o A9. Um die shrink muda as coisas: 1) O concorrente dele não é mais o A9, é o A15; 2) O núcleo ficou menor e mais econômico; 3) A GPU também ficou menor e mais econômica; 4) Acho que o Jaguar tem um tamanho comparável ao A15. Enfim, o Jaguar já é pequeno o bastante para embarcar em smartphones, claro, o chip não é só CPU, é um SoC e o resto faz diferença, mas a CPU tem essa capacidade. Acho que o próprio Bobcat poderia passar dos 2GHz, pro Jaguar em 28nm acho que o limite fica nos 2.5GHz, mas isso com muita tensão e pouca eficiência energética, o Jaguar só tem razão para existir se for mais eficiente que o Steamroller, isso limita a tensão "comercial" dele. Bolão? Chuto que o SKU mais rápido terá clock de 1.8GHz, mas os SKUs que realmente vão chamar a atenção terão clock base de 1GHz e TDP menor que 5W.
  2. O legal das teorias conspiratórias é que sempre existe uma que nos agrada Hoje mesmo li um outro artigo que a MS lançou o Windows RT porque a AMD não era mais um concorrente de peso e ela precisava de um concorrente para evitar que a Intel pratique preços absurdos, o que travariam as vendas de PCs novos e de Windows... Pra mim as regras que a MS criou para os ARM são para benefício próprio, não tem nada a ver com a Intel. Também acho uma m****, por essa (acho que não se aplica ao Android, certo?) e por outras não pretendo comprar um tablet com ARM.
  3. Uma unidade de função fixa para jpeg, gif, mp3, etc? Não da para ter função fixa para tudo, no máximo se coloca para os mais exigentes, mas ha diversos outros tipos de codecs rodando no PC, não necessariamente que precisam de grande desempenho mas rodam, e usando SSE (128 bits), ter unidades assim significa executar esse código gastando menos energia e, nos raros casos onde o desempenho deles impactar (imagine uma pagina web com milhares de imagens), mais rápido. Continua no nicho dele e, se quer saber, ele se encaixa muito bem nesse nicho, o único risco é ele ficar bom demais e avançar para o nicho do Bulldozer, mas não da para dizer que uma CPU com 3,1mm² não serve para mobile e até smartphones... RCM só funciona quando o clock é bem alto (a parte "ressonant" depende disso) e onde a distribuição do clock consome uma parte significativa do consumo total, o Bobcat não atinge clock alto nem com 2V, o Jaguar atinge clocks mais altos mais ainda não chega nesse ponto e em nenhum desses dois a distribuição do clock consome muito, o próprio Bulldozer só se beneficia acima dos 3GHz.
  4. O scheduller, a unidade load/store, buffers internos em geral e tudo isso aumentando o clock. 128 bits hoje é quase um prerequisito, muitos codecs usam, no Bobcat a performance DP era muito baixa, apenas uma multiplicação a cada dois ciclos, dependendo de como esses 128 bits foram implementados o Jaguar pode ganhar a capacidade de fazer duas multiplicações escalares DP por ciclo, o que seria um grande avanço.
  5. O compartilhamento de cache no Bulldozer é bem diferente... O L2 do Jaguar está mais para o L3 dos Sandy Bridge. ps: Melhor nem mencionar Bulldozer nesse tópico, não há semelhanças entre os dois projetos.
  6. Uns 2% melhor no desempenho multi-thread, mas uns 10% pior no desempenho single-thread. E desempenho multi-thread não é problema, apesar de ter mais coisas que o Bobcat a redução da litografia deixou o Jaguar ainda menor, a AMD podia colocar quantos núcleos ela quisesse.
  7. Isso é o de menos... Internamente houve diversas alterações, a FPU 128 bits é só a cereja em cima do bolo. Mais uma vantagem, não?
  8. Oficialmente também chamam assim... Mas ele tem um segundo nome, "Hammer", e é o último que a nomenclatura "K" não cria controvérsias. Chamando esses ai assim você corre o risco de, eventualmente, criar confusão. O Jaguar é um Bobcat BEM melhorado, é quadcore porque se propõe ao mercado de baixo consumo e, ao que se prepõe, é um ótimo processador.
  9. O Steamroler é sucessor do Piledriver, o Jaguar não tem nada a ver com nenhum dos dois, a informação no tópico está errada. 1) Não existe K10; 2) Não existe K10.5; 3) Não existe K10.6; 4) O Jaguar é uma evolução do Bobcat que por sua vez não tem nada a ver com o K8, Greyhound (Phenom I e II) e Husky (Llano).
  10. Jaguar não tem nada a ver com Bulldozer ou Steamroller. Não, eles estão dizendo que a capacidade do front-end aumenta em 30%, não há qualquer menção ao IPC e a performance por núcleo fica estimada entre 10% e 15% acima do Piledriver.
  11. Ah se isso fosse toda a competição pra a AMD... Esse Xeon é servidor de entrada, não assusta ninguém, o duro são os Sandy Bridge-EP...
  12. Os C2Q não são interligados. Na verdade a linha de 8 soquetes virou 4 soquetes MCM, a ligação interna é o link HT que ligaria os outros soquetes na placa mãe, é por isso que não existe mais a linha de 8 soquetes.
  13. Acho que me expressei mal, a primeira parte do meu post anterior foi mais uma brincadeira, a duvida real era se a AMD Brasil faria algum evento promovendo tablets com processadores AMD.
  14. Eu tava precisando de um tablet... Será que AMD vai fazer alguma coisa no lançamento do Windows 8?
  15. Dentro do prometido. E confirmou que o Athlon X4 750K é mais negócio que o FX-4320
  16. E desde quando os processadores da Intel tem FMA? Só espero que a AMD não tenha errado nas especificações de seus próprios processadores, se bem que aquele 4 no L3 cache do FX-4300 não me da segurança...
  17. Só para deixar claro... 1) A otimização no controlador de memória é para o IGP ter acesso a mais banda de memória mas não afeta a CPU que não conseguiria usar bem toda a banda de memória de qualquer jeito; 2)Colocaram mais cache porque: a) Ele não tem mais L3, os Athlon II X2 também tinham 1MB por núcleo; Proporcionalmente SRAM ficou mais denso no processo de 32nm, 1MB ficou mais barato.
  18. Pistigrilo, nunca vi um Llano perder para Athlon II no mesmo clock... Tem link disso?
  19. Contrata. As patentes básicas eles já tinham (compraram uma GPU junto com a Natinal Semiconductors), de resto é só licensiar se alguém criar problema. O software da ATI melhorou bem depois de comprada pela AMD e, os poucos programas que a AMD tinha de uma maneira geral tinham qualidade superior, software bom é uma questão de cultura na empresa, a AMD costumava ser mais exigente com a qualidade do que a ATI.
  20. A Intel usa PowerVR no Atom, não? As GPUs "made by AMD" seriam feitas desde o início em torno dos objetivos da empresa (memória compartilhada coerente, "turbo", offloading?), se por um lado não conseguissem superar um GTX680 por outro se encaixariam nos planos da empresa e poderiam ter as qualidades que fizessem a diferença, com a ATI a GPU é boa, mas já se passaram 6 anos e até agora CPU e GPU não se falam. Claro que vai da vontade de investir e aqui estou assumindo que existiria essa vontade, se não fica que nem a Intel que deixou o chip gráfico por anos na m$% para depois acordar, se não houver orgulho e vontade de matar a nVidia a AMD poderia integrar o chip gráfico ao processador somente quando já estivesse em um estágio mais maduro, economizando a revisão anual que a Intel faz no seu gráfico.
  21. Desculpa mas... O momento foi péssimo... Claro que ninguém tem bola de cristal e na época não dava para saber, mas: 1) Foi na passagem das X1000 (bem sucedidas) para as HD2000 (fiasco); 2) As vésperas de uma crise econômica; 3) A nVidia tinha acabado de lançar ótimas placas de video.
  22. Só para deixar claro, quando a AMD lançou o Magny Cours ela mudou a forma como o mercado de servidores é segmentado, mais tarde a Intel acompanhou (ou se preferir, a AMD tentou eliminar a segmentação jogando tudo pra baixo e a Intel achou um jeito de ressegmentar de outra maneira) tento o segmento inferior (Nehalem-EP, Westmare-EP e Sandy Bridge-EP) e segmento superior (Nehalem-EX e Westmare-EX), o problema é que quando a AMD fez isso ela se esqueceu que não tinha uma plataforma para o segmento superior, a única coisa pior do que a queda da competitividade da CPU é não ter uma CPU para competir. Se projetar CPUs da prejuízo não seria muito mais fácil usar CPUs da Intel? Ou da AMD, que tava precisando de um rendimento extra... Dependem do lucro das vendas. Digamos que a nVidia lucre 100 milhões vendendo, ham 100 mil Teslas e 100 milhões vendendo 10 milhões de Geforces, se qualquer um dos dois segmentos deixasse de existir seria muito ruim para a empresa porque acabaria com emtade do lcuro, juntos os dois segmentos dão a emrpes 200 milhões para investir em novos chips, com apenas um deles seriam 100 milhões, mas o importe é que a perda de qualquer um dos dois segmentos seria igualmente ruim porque os dois tem o mesmo lucro, o fato dela vender 100 vezes mais Geforces não faz a menor diferença. ps: Obviamente os valores são hipotéticos, não sei quanto lucro cada segmento da. O que a AMD precisa é lucro, não importa se tem volume ou não, ter volume e não ter lucro não adianta nada. O que eles tinham não era competitivo em desktops e não passaria a ser da noite para o dia não importa o que eles fizessem, a única forma de vender seria baixando os preços o que reduziria o lucro. Mas a longo prazo eles poderiam dar a volta por cima, para isso seria bom, por exemplo, nos segmentos onde eles tem lucro continuar tendo lucro para poderem se manter durante esse período, guinadas bruscas não ajudam no longo prazo e não fazem milagre a curto prazo. Vamos discutir as opções... Ter um lixo de GPU que nem a Intel não ajudaria, seria só continuar com um chip separado mesmo. Por outro lado, hoje as APUs estão vendendo relativamente bem, e o único motivo é que a GPU não é um lixo. Mas foi a AMD que criou essa situação, primeiro que a única saída para manter a performance por soquete parecida com a da Intel era aumentar o número de núcleos, fazendo isso reduz o clock e AMD foi ao extremo com o Magny Cours aos 12 núcleos ficando limitado a 2.5GHz, segundo a insistência em reutilizar o die para desktops e servidores deixou o MCM como única opção, o que não é melhor escolha para servidores. E a pior parte da escolha pelos MCM, a escalabilidade fica limitada, a AMD não competia com o Nehalem-EX (esse por sua vez tinha suas falhas, clock baixo - 2.26 GHz - e escalava mal para 8 soquetes, mas já que as falhas do MCM eram mais graves...) no segmento com maiores margens. Precisar quase o dobro do número de núcleos era um problema do ponto de vista de licenciamento de software, algo que pdoeria ser resolvido em breve com o Bulldozer chamando um módulo de "núcleo", ao invés disso mataram de vez as chances de voltar a esse segmento.
  23. Sim. O efeito prático é mínimo, 30 ms a 3 GHz são 10 milhões de ciclos da CPU, a perda de performance iniial é bem diluída. É só usar a lógica, se isso fosse relevante alguém já teria se preocupado em evitar isso... ps: Alguns dizem que o movimento é intencional para evitar que um dos núcleos esquente demais, o silicio frio gasta menos energia.
  24. Pequeno mas lucrativo, e o onde a AMD tinha a maior participação, no mercado 2S talvez a AMD tivesse uns 15%, talvez 20% no melhor momento, no 4S era quase 50%, o mercado 8S expandiu bem com o Istanbul que era o primeiro processador x86 com boa escalabilidade e que os servidores não precisavam carregar um custo extra adicional (ex: IBM x3950), depois com o Magny Cours a AMD abriu mão desse mercado perdendo participação e margens de lucro. Volume não tem nada a ver, lucro tem, hoje a AMD nem tem mais fábricas, ela não precisa de volume, é uma situação parecida com a da Sun/Oracle e Fujitsu (e as divisões de CPUs das duas conseguem justificar suas existências, apesar da falta de uma CPU excepcional), mesmo que tivesse a AMD poderia estar em uma situação parecida com a da IBM que tem fábricas e vende menos chips do que a AMD vende Opterons (e essa divisão da IBM é ainda mais lucrativa que as anteriores). A situação da nVidia é diferente, ela gasta desenvolvendo um chip e tem lucro em três mercados, nenhum desses três mercados é tão lucrativo assim, mas juntando os três ela consegue justificar o desenvolvimento dos chips, no caso do Tesla teve um fator adicional, ao lançalo existia um risco, as placas não começaram logo no lançamento a vender que nem água, nesse mercado a nVidia inicialmente teve prejuízo, mas ela ainda tinha outros dois mercados para cobrir o rombo (o que a ClearSpeed não tinha), quanto tempo a empresa conseguiria viver sem lucros? Se a AMD conseguisse reutilizar o chip em desktops e notebooks ótimo, se precisar abaixar os preços, não seria o ideal mas ainda melhor do que nada (e no fim foi isso o que a emrpesa foi forçada a fazer), mas mesmo que não desse manter o mercado de servidores a ajudaria a financiar um projeto futuro, da mesma forma que o mercado de desktops financiou a entrada da AMD no mercado de servidores o mercado de servidores poderia financiar a volta da AMD ao mercado de desktops, e esses dois mercados são bem mais lucrativos que os mercados da nVidia. Concordo com você, mas... E ai o Bulldozer seria mais um projeto cancelado? Projeto cancelado é prejuízo, e essa mudança de planos de última hora também pode ser considerada um projeto cancelado e foi muito prejudicial para o market share e ASP da AMD nos servidores. Quanto aos demais projetos cancelados, não sei os motivos e nem se realmente existiram. Pessoalmente acho que, pelo preço e tempo gasto com a ATI, podiam ter desnvolvido um chip gráfico internamente, nem todos vão concordar comigo, aos que não concordarem sobra a compra da ATI. Não acompanhei o mercado na época da aquisição mas o valor não me pareceu tão fora da realidade, se eles quisessem comprar tinham que pagar o valor que quem tinha a ATI queria, a lógica é simples... E o que o Bobcat tem a ver com o Nehalem? O plano original era: Barcelona -> Shangai -> Shangai-de-oito-núcleos-e-8-soquetes-diretos Após o susto com o Nehalem mudaram as pressas para: Barcelona -> Shangai -> Istanbul -> Magny Cours Sendo que no Magny Cours mataram o lucro dos 4S e extinguiram os 8S. O resultado foram vendas baixas do Magny Cours a preços mais baixos. Há sim, o chip ainda pode ser usado em desktops que originou os X6 que correspondem a uns 2% das vendas da AMD... E para finalizar minou o caminho do Bulldozer (o marketing vendendo um módulo como dois núcleos foi a cereja em cima do bolo), enquanto um chip maior poderia ser competitivo em 2S e 4S o mercado de 8S (mesmo pequeno) cairia de mãos beijadas para a AMD já que o Nehalem-EX (e Westmare-EX) não escalam tão bem até 8 soquetes, era onde a AMD poderia cobrar mais por chip, se não me engano a Intel cobra uns 4 mil dolares pelo Westmare-EX top. Não me parece que esse foi o caminho certo... Não li tudo, só por cima, mas achei o artigo um monte de m#$%!, o trabalho dele é conseguir page views e a melhor forma de conseguir isso é criando polêmica, para isso acho que ele exagerou bastante no tom e acho que nem tudo ali tratado como fato é verdade.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...