Ir ao conteúdo
  • Cadastre-se

EduardoS

Membro VIP
  • Posts

    6.878
  • Cadastrado em

  • Última visita

posts postados por EduardoS

  1. Justo, se 128bits realmente impactar tanto assim ("race to idle" vem a mente, é a isso que você se refere?) eu até fico quieto.

    Ah sim, é a tal da "race to idle", mas que também pode ser "executar em clock menor e menos tensão" que é ainda mais econômico.

    E não é questão de fazer tanta diferença assim, faz um pouco de diferença e o custo é baixo, e hoje o uso de SSE é BEM mais comum que na era do Athlon 64.

    Quando falei não se encaixa no nicho eu tava pensando em smartphones e tablets (o bobcat mal se encaixa nesse nicho, ainda consome demais). Realmente para laptops de entrada ele é muito bom mesmo tanto que vendeu que nem pastel em feira e "salvou" a AMD.

    O problema do Bobcat não é o Bobcat em si, é a GPU que é grande e beberrona demais, a CPU é um pouco demais para um smartphone mas caberia em um tablet, e o concorrente dele seria o A9.

    Um die shrink muda as coisas:

    1) O concorrente dele não é mais o A9, é o A15;

    2) O núcleo ficou menor e mais econômico;

    3) A GPU também ficou menor e mais econômica;

    4) Acho que o Jaguar tem um tamanho comparável ao A15.

    Enfim, o Jaguar já é pequeno o bastante para embarcar em smartphones, claro, o chip não é só CPU, é um SoC e o resto faz diferença, mas a CPU tem essa capacidade.

    Hmm, eu imaginava que em torno de 2GHz já faria um efeito benéfico, o bobcat já tá em 1.65GHz, coloca o shrink, tira alguma eventual falta de experiencia com 28nm, soma as mudanças feitas para aumentar o clock... acho que 2Ghz é até possível, n?

    Acho que o próprio Bobcat poderia passar dos 2GHz, pro Jaguar em 28nm acho que o limite fica nos 2.5GHz, mas isso com muita tensão e pouca eficiência energética, o Jaguar só tem razão para existir se for mais eficiente que o Steamroller, isso limita a tensão "comercial" dele.

    (Mas entendo que a maior parte dos SKUs poderão ter clock menor e por isso o RCM não valeria a pena no final.)

    Bolão? Chuto que o SKU mais rápido terá clock de 1.8GHz, mas os SKUs que realmente vão chamar a atenção terão clock base de 1GHz e TDP menor que 5W.

    • Curtir 1
  2. e se isso não der certo, sempre pode pagar todos os restaurantes pra não servir ele até morrer de fome.

    claro que ela tá com medo. A pergunta seria até quando vai esperar pra jogar sujo?

    Afinal, a M$ JÁ começou com as regras UEFI pra ARM! :P :raiva:

    O legal das teorias conspiratórias é que sempre existe uma que nos agrada :lol:

    Hoje mesmo li um outro artigo que a MS lançou o Windows RT porque a AMD não era mais um concorrente de peso e ela precisava de um concorrente para evitar que a Intel pratique preços absurdos, o que travariam as vendas de PCs novos e de Windows...

    Pra mim as regras que a MS criou para os ARM são para benefício próprio, não tem nada a ver com a Intel.

    Também acho uma m****, por essa (acho que não se aplica ao Android, certo?) e por outras não pretendo comprar um tablet com ARM.

    • Curtir 1
  3. Tipo, "para quê DP para o mobile?" E "não vale mais a pena ter uma unidade de função-fixa para trabalhar com midia, reduzindo o consumo?"

    Uma unidade de função fixa para jpeg, gif, mp3, etc? Não da para ter função fixa para tudo, no máximo se coloca para os mais exigentes, mas ha diversos outros tipos de codecs rodando no PC, não necessariamente que precisam de grande desempenho mas rodam, e usando SSE (128 bits), ter unidades assim significa executar esse código gastando menos energia e, nos raros casos onde o desempenho deles impactar (imagine uma pagina web com milhares de imagens), mais rápido.

    Essas mudanças me levam a crer que a AMD quer que o Jaguar acabe saindo do nicho dele (se bem que ele já mal se encaixava nesse nicho). Foi isso que eu quis dizer.

    Continua no nicho dele e, se quer saber, ele se encaixa muito bem nesse nicho, o único risco é ele ficar bom demais e avançar para o nicho do Bulldozer, mas não da para dizer que uma CPU com 3,1mm² não serve para mobile e até smartphones...

    E um comentario, a RCM parece ser bem mais adequado para os "bobcats" que os "BDZs", não existe info que o Jaguar a use, mas quem sabe no próximo?

    RCM só funciona quando o clock é bem alto (a parte "ressonant" depende disso) e onde a distribuição do clock consome uma parte significativa do consumo total, o Bobcat não atinge clock alto nem com 2V, o Jaguar atinge clocks mais altos mais ainda não chega nesse ponto e em nenhum desses dois a distribuição do clock consome muito, o próprio Bulldozer só se beneficia acima dos 3GHz.

    • Curtir 1
  4. Eduardo, no outro topico você postou que o FP é apenas a cereja do bolo (para mim FP foi o sinal de que a AMD esta investindo bastante no jaguar para o futuro, pois a unidade de 128bits não me parece ser uma necessidade para o mercado do jaguar), então me pergunto, que parte do que ja foi anunciado lhe chamou mais a atenção? =)

    O scheduller, a unidade load/store, buffers internos em geral e tudo isso aumentando o clock.

    128 bits hoje é quase um prerequisito, muitos codecs usam, no Bobcat a performance DP era muito baixa, apenas uma multiplicação a cada dois ciclos, dependendo de como esses 128 bits foram implementados o Jaguar pode ganhar a capacidade de fazer duas multiplicações escalares DP por ciclo, o que seria um grande avanço.

  5. o cache individualizado é melhor pro desempenho...

    Uns 2% melhor no desempenho multi-thread, mas uns 10% pior no desempenho single-thread.

    E desempenho multi-thread não é problema, apesar de ter mais coisas que o Bobcat a redução da litografia deixou o Jaguar ainda menor, a AMD podia colocar quantos núcleos ela quisesse.

    • Curtir 1
  6. Extra oficialmente, podemos chamar o Athlon 64 de K8;

    Oficialmente também chamam assim... Mas ele tem um segundo nome, "Hammer", e é o último que a nomenclatura "K" não cria controvérsias.

    Athlon X2 de K9; Phenom de K10 e Phenom II de K10.5... Não vejo porque não, mesmo que um executivo fale que não é...

    Chamando esses ai assim você corre o risco de, eventualmente, criar confusão.

    Jaguar é um Bobcat levemente melhorado. Menos do que deveria... 28nm, quadcore...

    O Jaguar é um Bobcat BEM melhorado, é quadcore porque se propõe ao mercado de baixo consumo e, ao que se prepõe, é um ótimo processador.

    • Curtir 4
  7. Algue me esclarece, Steamroller vai vir depois dos Piledriver,

    e Jaguar sera uma APU baseada em Steamroller do mesmo jeito que Trinity foi baseado no Piledriver?

    O Steamroler é sucessor do Piledriver, o Jaguar não tem nada a ver com nenhum dos dois, a informação no tópico está errada.

    Pelo que tenho lido ele compartilha algumas caracteristicas pois é baseado na micro-arquitetura K10.6

    1) Não existe K10;

    2) Não existe K10.5;

    3) Não existe K10.6;

    4) O Jaguar é uma evolução do Bobcat que por sua vez não tem nada a ver com o K8, Greyhound (Phenom I e II) e Husky (Llano).

    • Curtir 1
  8. Iniciando com o APU Jaguar em Q1 2013 ( Sucessor do bobcat ) ao contrario dos seus concorrentes tera instruções SSE4 AVX, IMC entre outras ja suportadas por seus irmão High-end, o núcleo gráfico será baseado em arquitetura GCN

    Jaguar não tem nada a ver com Bulldozer ou Steamroller.

    AMD esta reinvidicando ganhos de 30% em IPC e 25% em dispatches por thread.

    Não, eles estão dizendo que a capacidade do front-end aumenta em 30%, não há qualquer menção ao IPC e a performance por núcleo fica estimada entre 10% e 15% acima do Piledriver.

    • Curtir 2
  9. Ai a AMD nao fez muito milagre nao, apenas juntou 2 Piledrivers em um mesmo processador físico. Algo com o C2Q é feito, onde sao colocados 2 C2D interligados internamente.

    Os C2Q não são interligados.

    Feito seria se ela nao tivesse matado a linha de 8 soquetes e alguma empresa lancasse um 8 soquetes de 16 módulos, ai sim o bicho ficaria bonito :D

    Na verdade a linha de 8 soquetes virou 4 soquetes MCM, a ligação interna é o link HT que ligaria os outros soquetes na placa mãe, é por isso que não existe mais a linha de 8 soquetes.

  10. Se não me engano era referente a uma otimização do controlador de memória para dar preferência para o IGP, melhorando o desempenho gráfico, mas sacrificando um pouco o desempenho de processamento, tanto que acrescentaram mais cache para minimizar isso (com mais cache o processador é menos dependente da memória RAM).

    Só para deixar claro...

    1) A otimização no controlador de memória é para o IGP ter acesso a mais banda de memória mas não afeta a CPU que não conseguiria usar bem toda a banda de memória de qualquer jeito;

    2)Colocaram mais cache porque:

    a) Ele não tem mais L3, os Athlon II X2 também tinham 1MB por núcleo;

    B) Proporcionalmente SRAM ficou mais denso no processo de 32nm, 1MB ficou mais barato.

  11. E como fica a questão do capital humano?

    Contrata.

    E as patentes?

    As patentes básicas eles já tinham (compraram uma GPU junto com a Natinal Semiconductors), de resto é só licensiar se alguém criar problema.

    E o software? Convenhamos que criar uma divisão do zero não é simples. (por exemplo: fala-se muito do quanto a ATI pecava no SW e do quanto a AMD ainda falha nisso, imagine sem qualquer base nisso)

    O software da ATI melhorou bem depois de comprada pela AMD e, os poucos programas que a AMD tinha de uma maneira geral tinham qualidade superior, software bom é uma questão de cultura na empresa, a AMD costumava ser mais exigente com a qualidade do que a ATI.

  12. Eu não chamaria os melhores GPUs PowerVR de "lixo" (são melhores que os da Intel).

    A Intel usa PowerVR no Atom, não?

    É estranho você chamar as GPUs da Imagination ou da XGI de "lixo" enquanto diz que teria sido melhor a AMD ter feito os próprios GPUs, como se fosse garantido que os GPUs AMD seriam melhores. Os GPUs "made by AMD" provavelmente seriam do mesmo nível dos da Intel ou XGI, e inferiores aos da ATI, Nvidia ou Imagination.

    As GPUs "made by AMD" seriam feitas desde o início em torno dos objetivos da empresa (memória compartilhada coerente, "turbo", offloading?), se por um lado não conseguissem superar um GTX680 por outro se encaixariam nos planos da empresa e poderiam ter as qualidades que fizessem a diferença, com a ATI a GPU é boa, mas já se passaram 6 anos e até agora CPU e GPU não se falam.

    Claro que vai da vontade de investir e aqui estou assumindo que existiria essa vontade, se não fica que nem a Intel que deixou o chip gráfico por anos na m$% para depois acordar, se não houver orgulho e vontade de matar a nVidia a AMD poderia integrar o chip gráfico ao processador somente quando já estivesse em um estágio mais maduro, economizando a revisão anual que a Intel faz no seu gráfico.

  13. Tenho para mim que uma das melhores escolhas da AMD foi comprar a ATI, hoje o que ela lucra não esta escrito e ela comprou em um bom momento ( prestes a sair a serie HD )

    Desculpa mas... O momento foi péssimo... Claro que ninguém tem bola de cristal e na época não dava para saber, mas:

    1) Foi na passagem das X1000 (bem sucedidas) para as HD2000 (fiasco);

    2) As vésperas de uma crise econômica;

    3) A nVidia tinha acabado de lançar ótimas placas de video.

  14. Creio que a perda de mercado tenha mais a ver com queda de competitividade por parte dos CPUs AMD do que com a plataforma AMD.

    Só para deixar claro, quando a AMD lançou o Magny Cours ela mudou a forma como o mercado de servidores é segmentado, mais tarde a Intel acompanhou (ou se preferir, a AMD tentou eliminar a segmentação jogando tudo pra baixo e a Intel achou um jeito de ressegmentar de outra maneira) tento o segmento inferior (Nehalem-EP, Westmare-EP e Sandy Bridge-EP) e segmento superior (Nehalem-EX e Westmare-EX), o problema é que quando a AMD fez isso ela se esqueceu que não tinha uma plataforma para o segmento superior, a única coisa pior do que a queda da competitividade da CPU é não ter uma CPU para competir.

    IBM, Oracle e Fujitsu não precisam de tanto volume porque são verticalmente integradas. A divisão de microprocessadores para servidores da IBM geralmente não tem lucro ou é deficitária por causa do alto custo de desenvolvimento e baixo volume de vendas, e seu prejuízo é coberto pela divisão de sistemas, software e serviços, de onde vêm o grosso do lucro.

    Se projetar CPUs da prejuízo não seria muito mais fácil usar CPUs da Intel?

    Ou da AMD, que tava precisando de um rendimento extra...

    Já a AMD e Intel não são verticalmente integradas, e dependem de volume de vendas.

    Dependem do lucro das vendas.

    Se a Nvidia vendesse apenas Teslas, que vende poucas unidades em comparação com as Geforces, os custos de desenvolvimento teriam que ser recuperados apenas com a venda dessas poucas unidades (em vez de milhões de Geforces), e o preço das Teslas seria muito mais alto do que já é para a Nvidia poder ter lucro, tornando o negócio inviável.

    Digamos que a nVidia lucre 100 milhões vendendo, ham 100 mil Teslas e 100 milhões vendendo 10 milhões de Geforces, se qualquer um dos dois segmentos deixasse de existir seria muito ruim para a empresa porque acabaria com emtade do lcuro, juntos os dois segmentos dão a emrpes 200 milhões para investir em novos chips, com apenas um deles seriam 100 milhões, mas o importe é que a perda de qualquer um dos dois segmentos seria igualmente ruim porque os dois tem o mesmo lucro, o fato dela vender 100 vezes mais Geforces não faz a menor diferença.

    ps: Obviamente os valores são hipotéticos, não sei quanto lucro cada segmento da.

    e sem o volume de venda deles a AMD não tem como financiar o desenvolvimento da próxima geração de CPUs (a não ser que cobrem muito mais caro pelos Opterons que vendem).

    O que a AMD precisa é lucro, não importa se tem volume ou não, ter volume e não ter lucro não adianta nada.

    O que eles tinham não era competitivo em desktops e não passaria a ser da noite para o dia não importa o que eles fizessem, a única forma de vender seria baixando os preços o que reduziria o lucro.

    Mas a longo prazo eles poderiam dar a volta por cima, para isso seria bom, por exemplo, nos segmentos onde eles tem lucro continuar tendo lucro para poderem se manter durante esse período, guinadas bruscas não ajudam no longo prazo e não fazem milagre a curto prazo.

    5.4 bilhões de dólares é muito, muito mais do que a ATI valia ou do que a AMD podia pagar sem se ferrar depois.

    Vamos discutir as opções...

    Se o objetivo era só integrar gráficos no CPU, teria sido melhor comprar a XGI por muito menos ou licenciar o maior core da Imagination, e usar os vários bilhões restantes para projetar um CPU melhor (ou não ter que vender partes da empresa).

    Ter um lixo de GPU que nem a Intel não ajudaria, seria só continuar com um chip separado mesmo.

    Por outro lado, hoje as APUs estão vendendo relativamente bem, e o único motivo é que a GPU não é um lixo.

    Que eu me lembre o problema era que era preciso quase o dobro que núcleos AMD para competir com os da Intel, e só em alguns cenários.

    Mas foi a AMD que criou essa situação, primeiro que a única saída para manter a performance por soquete parecida com a da Intel era aumentar o número de núcleos, fazendo isso reduz o clock e AMD foi ao extremo com o Magny Cours aos 12 núcleos ficando limitado a 2.5GHz, segundo a insistência em reutilizar o die para desktops e servidores deixou o MCM como única opção, o que não é melhor escolha para servidores.

    E a pior parte da escolha pelos MCM, a escalabilidade fica limitada, a AMD não competia com o Nehalem-EX (esse por sua vez tinha suas falhas, clock baixo - 2.26 GHz - e escalava mal para 8 soquetes, mas já que as falhas do MCM eram mais graves...) no segmento com maiores margens.

    Precisar quase o dobro do número de núcleos era um problema do ponto de vista de licenciamento de software, algo que pdoeria ser resolvido em breve com o Bulldozer chamando um módulo de "núcleo", ao invés disso mataram de vez as chances de voltar a esse segmento.

    • Curtir 2
  15. Essa mudança nao vai apenas forçar o CPU a migrar os dados entre os caches?

    Sim.

    Parece ineficiente.

    O efeito prático é mínimo, 30 ms a 3 GHz são 10 milhões de ciclos da CPU, a perda de performance iniial é bem diluída.

    É só usar a lógica, se isso fosse relevante alguém já teria se preocupado em evitar isso...

    ps: Alguns dizem que o movimento é intencional para evitar que um dos núcleos esquente demais, o silicio frio gasta menos energia.

  16. Se sistemas 4S já são um nicho minúsculo, o que dirá 8S.

    Pequeno mas lucrativo, e o onde a AMD tinha a maior participação, no mercado 2S talvez a AMD tivesse uns 15%, talvez 20% no melhor momento, no 4S era quase 50%, o mercado 8S expandiu bem com o Istanbul que era o primeiro processador x86 com boa escalabilidade e que os servidores não precisavam carregar um custo extra adicional (ex: IBM x3950), depois com o Magny Cours a AMD abriu mão desse mercado perdendo participação e margens de lucro.

    Pode ser um nicho lucrativo, mas o volume de vendas é insignificante comparado com notebooks e desktops (veja o caso da Nvidia por exemplo: o lucro está nas Teslas e Quadros, mas o negócio não seria viável sem o volume de vendas das Geforces para amortizar os custos).

    Volume não tem nada a ver, lucro tem, hoje a AMD nem tem mais fábricas, ela não precisa de volume, é uma situação parecida com a da Sun/Oracle e Fujitsu (e as divisões de CPUs das duas conseguem justificar suas existências, apesar da falta de uma CPU excepcional), mesmo que tivesse a AMD poderia estar em uma situação parecida com a da IBM que tem fábricas e vende menos chips do que a AMD vende Opterons (e essa divisão da IBM é ainda mais lucrativa que as anteriores).

    A situação da nVidia é diferente, ela gasta desenvolvendo um chip e tem lucro em três mercados, nenhum desses três mercados é tão lucrativo assim, mas juntando os três ela consegue justificar o desenvolvimento dos chips, no caso do Tesla teve um fator adicional, ao lançalo existia um risco, as placas não começaram logo no lançamento a vender que nem água, nesse mercado a nVidia inicialmente teve prejuízo, mas ela ainda tinha outros dois mercados para cobrir o rombo (o que a ClearSpeed não tinha), quanto tempo a empresa conseguiria viver sem lucros?

    Se a AMD conseguisse reutilizar o chip em desktops e notebooks ótimo, se precisar abaixar os preços, não seria o ideal mas ainda melhor do que nada (e no fim foi isso o que a emrpesa foi forçada a fazer), mas mesmo que não desse manter o mercado de servidores a ajudaria a financiar um projeto futuro, da mesma forma que o mercado de desktops financiou a entrada da AMD no mercado de servidores o mercado de servidores poderia financiar a volta da AMD ao mercado de desktops, e esses dois mercados são bem mais lucrativos que os mercados da nVidia.

    O Bulldozer foi projetado visando servidores afinal de contas, mas os CPUs da AMD e Intel tem que ser polivalentes, capazes de servir decentemente em notebooks, desktops e servidores, e o Bulldozer/Piledriver não é capaz de fazer isso direito pois é um chip desbalanceado (para dizer o mínimo).

    Concordo com você, mas...

    Na minha opinião o problema da AMD foi a dúzia de projetos K8, K9 e K10 cancelados

    E ai o Bulldozer seria mais um projeto cancelado?

    Projeto cancelado é prejuízo, e essa mudança de planos de última hora também pode ser considerada um projeto cancelado e foi muito prejudicial para o market share e ASP da AMD nos servidores.

    Quanto aos demais projetos cancelados, não sei os motivos e nem se realmente existiram.

    e o preço absurdo que pagaram pela ATI.

    Pessoalmente acho que, pelo preço e tempo gasto com a ATI, podiam ter desnvolvido um chip gráfico internamente, nem todos vão concordar comigo, aos que não concordarem sobra a compra da ATI.

    Não acompanhei o mercado na época da aquisição mas o valor não me pareceu tão fora da realidade, se eles quisessem comprar tinham que pagar o valor que quem tinha a ATI queria, a lógica é simples...

    O que seria essa "resposta imediata" que não funcionou? O Bobcat? As "APUs" em geral?

    E o que o Bobcat tem a ver com o Nehalem?

    O plano original era:

    Barcelona -> Shangai -> Shangai-de-oito-núcleos-e-8-soquetes-diretos

    Após o susto com o Nehalem mudaram as pressas para:

    Barcelona -> Shangai -> Istanbul -> Magny Cours

    Sendo que no Magny Cours mataram o lucro dos 4S e extinguiram os 8S.

    O resultado foram vendas baixas do Magny Cours a preços mais baixos.

    Há sim, o chip ainda pode ser usado em desktops que originou os X6 que correspondem a uns 2% das vendas da AMD...

    E para finalizar minou o caminho do Bulldozer (o marketing vendendo um módulo como dois núcleos foi a cereja em cima do bolo), enquanto um chip maior poderia ser competitivo em 2S e 4S o mercado de 8S (mesmo pequeno) cairia de mãos beijadas para a AMD já que o Nehalem-EX (e Westmare-EX) não escalam tão bem até 8 soquetes, era onde a AMD poderia cobrar mais por chip, se não me engano a Intel cobra uns 4 mil dolares pelo Westmare-EX top.

    Não me parece que esse foi o caminho certo...

    http://semiaccurate.com/2012/10/15/amd-is-imploding-because-management-doesnt-understand-semiconductors/

    Se metade disso for verdade... E a m*rd* é que tem indicios suficientes para supor que é td verdade. A saida do Dirk novamente passa a ser vista como MUITO errada, o plano dele estava bem tracado, tecnologicamente parecia perfeito e apesar de n ter a enfase que a mesa queria, delineava o caminho a seguir como uma luva.

    Não li tudo, só por cima, mas achei o artigo um monte de m#$%!, o trabalho dele é conseguir page views e a melhor forma de conseguir isso é criando polêmica, para isso acho que ele exagerou bastante no tom e acho que nem tudo ali tratado como fato é verdade.

    • Curtir 1

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...