Ir ao conteúdo
  • Cadastre-se

sirroman

Membro Pleno
  • Posts

    3.271
  • Cadastrado em

  • Última visita

Tudo que sirroman postou

  1. Se sair nesse ano acho muito, muito, muito (repita o quanto tiver saco)... improvável que saia em 20nm. O timing tá todo errado (apesar de haver rumores que a TSMC está acelerada no 20nm, ela depois é tímida em alguns anúncios oficiais, fica essa mensagem desencontrada).
  2. sirroman

    Intel Haswell

    Dizer que a AMD é ruim é um contrassenso, faz favor... Cês tão falando sem qualquer parâmetro. O pessoal que vai de MIPS, ARM sonha em ter um CPU com performance comparável. Falar desse jeito é dar motivos para que enganem consumidores, vendendo Core i3, Pentium ou mesmo ATOM como se fosse a tampa do bubu só por ser Intel quando existem soluções AMD que são melhores de longe. Ou vai dizer que a Intel é ruim só porque não tem uma solução que seja comparável com uma monstruosidade POWER7? [/RANT] Cê ficou com o CPU em over durante 3 anos e está com receio de fazer over? E não, não vai valer a pena fazer o upgrade não. Acho que consegue o que... 20% a mais?
  3. AMD ainda perde dinheiro mas perdeu menos do que o mercado esperava. http://www.techpowerup.com/187409/amd-reports-2013-second-quarter-results.html Supostamente ganhou marketshare em todas as suas linhas. Espera aumentar em 22% sua receita no trimestre que vem. o.O
  4. Como esperado o aumento de consumo não chegou aos míticos 220W como o povo tava repetindo e repetindo. Leia-se, TDP != Consumo. E acho que o aumento de consumo e de performance estão dentro do esperado.
  5. Confirmacao que a AMD esta vendendo chips para a Sony e a M$ ao invés de lincensiando? http://seekingalpha.com/article/1550212-amd-s-cheat-sheet-for-july-18th
  6. $50 reais aqui, acolá, fica na margem de lucro. Mas eu acho improvável que o Kinect avulso fique por ai, deve ser mais perto dos $100. Isso é com todo eletrônico, quem compra de largada paga mais caro. Mas uma revisão do chip deve demorar pelo menos 2 anos, mais ou menos o tempo em que elas devem estar planejando fazer uma revisão do HW. Mas acho que a Sony vai demorar mais, em torno dos 3 anos.
  7. Vamos por partes ^^. Sinceramente? Apenas o pessoal que esta diretamente relacionado mesmo... No maximo da para analisar depois de tudo os indicios e dizer se foi isso ou aquilo. Quanto ao ESRAM Tipo, pelo simples fato da M$ ter gasto uma BOA parte do die nessa memoria ela claramente "colocou o dinheiro" nessa solucao, n posso dizer que é uma "carta na manga" hehe, mas certamente é a carta que a M$ tem na mao. Foi uma aposta. EU acho que foi uma questao do ponto de partida. A M$ tinha o sistema muito bom do X360 e resolveu construir algo em cima, semelhante. Certamente funciona, certamente tem suas vantagens (e desvantagens), mas a Sony simplesmente chegou na prancheta sem ter uma ideia marcada e chegou a uma solucao a primeira vista mais simples e... por que n? elegante (pois esses move engines n parecem muito bonitos olhando de longe n....) Mas só para ficar claro, os engenheiros da M$ e da AMD n fizeram uma loucura: foi uma escolha consciente que pode ser benefica ou n. Sem duvida. Mais sobre isso a seguir: Concordo, os resultados disso tudo a gente ainda n sabe (OBVIO xD) mas é provavel que as coisas fiquem mais simples para o desenvolvedor. O risco que a M$ tem que saber manejar é equilibrar a dificuldade do seu sistema de memoria contra o da Sony, pois se tudo ficar muito mais fácil, alguns desenvolvedores podem simplesmente considerar que n vale a pena investir no X1, o que poderia fazer com que uma boa parcela dos 3rd parties lancem seus produtos principalmente no PS4 (com ports meia-bocas), dificultando a posicao competitiva do X1, fazendo com que o PS4 tenha uma vantagem na userbase que venha a mudar a ideia das OUTRAS desenvolvedoras, que focariam no PS4, o que novamente complicaria a situacao do X1 e... nesse circulo vicioso a Sony ganharia o mercado. MAS tb pode acontecer que, ja que os custos globais de desenvolvimento devem cair, as desenvolvedoras vão... poder dispor de recursos para otimizar melhor para o X1, nesse caso fazendo com que as vantagens que o HW do X1 apresenta se materializem nos jogos, possivelmente mudando o equilibrio da balanca e dando uma vantagem para a M$. Tb tem gente que acha que os consoles vão simplesmente desaparecer, n da pra saber o que vai acontecer. xD A rigor o x1 nao ta "caro" em relação ao PS4, a diferenca entre os dois é justificada pelo Kinect. Agora: sera que o Kinect realmente é um fator que vai valer essa diferenca? A M$ claramente errou no modelo de negocios inicial, ela foi apressada demais querendo empurrar pela goela aquele negocio de always-on e etc, etc. N sei ela escolheu o momento certo de empurrar o Kinect como esta planejando fazer agora (mas se você me perguntar eu diria que sim, a hora é essa pois daqui a cinco anos o Kinect pode se tornar irrelevante), mas ela esta investindo pesado nisso. Sim, mas o que eu quis dizer com aquilo é que a M$ tem MAIS a ganhar em uma eventual reducao de custos com a diminuicao da litografia dos chips, pois ela ja economiza nos demais componentes (PCB, memoria, etc), então a reducao dos custos no chip vai ser substancial. Alem disso a M$ tb é bem mais agressiva nos shrinks e revisoes de chips que a Sony (pode ver que foram varias revisoes do chip do X360), então ela deve ter levado isso em conta desde o primeiro dia.
  8. Esperando para ver se sai o conteúdo da revista e comparar com as minhas impressões e achismos.
  9. Sony tá numa encruzilhada, para baratear tem que produzir mais, mas para valer a pena produzir mais vai ter que vender mais, e para vender mais vai precisar estar mais barato... Ao meu ver é o mesmo problema da Nintendo com o Wii U.
  10. Rapaz custo de produção não dá para ter certeza. Basicamente a M$ vai economizar em componentes externos (memória GDDR5 do PS4 é bem mais cara que a DDR3 e consome mais energia também) em troca de gastar mais no chip, pois essa ESRAM está completamente integrada no chip (ou mais especificamente no "die"), logo aumenta consideravelmente o tamanho do chip (falam em 40%, mas eu digo de cabeça). A questão é que eu não tenho todas as informações para analisar todos os custos e benefícios de cada uma das implementações. Gente muito mais esperta debate sobre isso e apesar de algumas terem opiniões mais fortes, ninguém está realmente acusando a M$, no geral dizem que provavelmente não foi a melhor opção. Assim, a ESRAM tem uma latência bem menor que a GGDR5 e a DDR3 (tipo, astronomicamente melhor) e a velocidade dela também é comparativamente muito grande, acontece que ela ocupa muito espaço e assim tem uma capacidade de memória diminuta. Assim a M$ tem 32mb de memória disponível que provavelmente é o sonho de todo o desenvolvedor... mas ainda é apenas 32 mb. Para superar esse problema a M$ aparentemente desenvolveu diversos mecanismos, como os move engines, e também recentemente atualizou o DX (agora 11.2) com recursos que permitem um uso bem mais inteligente da memória... Parece que a M$ quis desde o começo repetir o sucesso que foi a microarquitetura do X360 (é semelhante, com um sister die de memória) e acabou deixando tudo bem mais complexo do que precisava ser. SE ela vai conseguir traduzir essas vantagens específicas em melhor qualidade é outros quinhentos. No fim das contas pode até ser que o X1 tenha um sistema de memória que forneça muito mais performance que o do PS4 e os jogos do X1 podem ter certas características consideravelmente melhores que o do PS4... se o desenvolvedor souber gerenciar tudo corretamente. Inclusive eu tenho certeza que alguns jogos vão sair assim: desenvolvedor para console é uma raça acostumada a se virar com o que tem (leia-se o povo que mexeu com o Cell do PS3) e tirar o máximo que pode, além de que a M$ vai abrir os cofres para financiar o que for necesário e assim ganhar alguma vantagem no mercado. O problema é que no começo os jogos podem (não digo vão pois desenvolvedor já mexeu com coisa mais estranha e a M$ deve disponibilizar as melhores ferramentas que tiver disponível) sofrer um pouco (assim como os multiplataformas). E, por outro lado e na minha opinião, a Sony simplesmente escolheu a solução mais simples e direta (tanto que pôde economizar espaço no chip suficiente para colocar uma GPU maior). Eu gostei das escolhas da Sony no PS4. PS.: só para eu ser o mais completo possível, tecnicamente a M$ vai poder diminuir o tamanho do chip (reduzindo a litografia da fabricação do chip, dos 28nm de agora para, digamos 20nm ou ainda menor) e isso pode fazer com que daqui a uns 2~3 anos o X1 seja mais barato que o PS4 (até porque a GDDR5 pode acabar sendo substituida por outro tipo de memória o que aumentaria novamente o seu custo). Certamente isso também foi levado em conta pela M$, mas é algo bem relativo... Precisamos ver se vai valer a pena ou não. PPS.: moderação, se decidirem que esse post não é adequado aqui, por favor, migrem para o tópico apropriado para tal.
  11. N tem para onde correr não, o sistema de memória do X1 é mais complexo do que o do PS4. Isso obrigatoriamente é uma limitação. Desenvolvedores de jogos para consoles são acostumados com problemas como esses, mas não deixa de ser uma limitação ao menos no início da vida do console.
  12. Vi isso, deve ajudar, mas não muda o fato que o X1 vai ter um sistema de memória muito mais complexo que o do PS4 o que pode limitar as coisas "na prática". Por outro lado, se bem feito, o SW do X1 talvez possa ser substancialmente melhor em algumas coisas específicas?
  13. Concordo com o Dick. Apesar de reconhecer que seria possível que a AMD tivesse feito algum sucesso licenciando os gráficos da divisão Imageon, os riscos eram muito grandes para entrar no mercado ARM de smartphones. Na verdade os riscos continuam sendo grandes, tanto que a AMD é cautelosa e mantém uma boa distância desse mercado e a nvidia ainda luta para conseguir lucro com o tegra. O tempo de vida de um celular no mercado é de 1 ano ou até menos. É um mercado muito competitivo e é difícil de se diferenciar apenas com um chip: você precisa atrelá-lo a um produto final bem feito. Ao mesmo tempo que se diferenciar com um chip "qualquer" também é praticamente impossível: você precisa ter um chip adequado ou superior no momento correto. Acho que é por isso que as maiores empresas, sempre que podem, colocam a fabricação dos chips dentro de casa. Por outro lado a Imageon certamente foi um diferencial que pode justificar parte do sucesso da Qualcomm, a outra parte é que a Qualcomm já era uma empresa pronta para entrar nesse mercado. Essa é a minha impressão, é claro.
  14. Informação que a AMD está trabalhando em um chip para a Airbus e Boeing. http://semiaccurate.com/forums/showpost.php?p=187276&postcount=16 Teorizaram que como foi uma informação vazada a AMD entrou em contato com o site de notícias e pediu para remover a referência original.
  15. sirroman

    Intel Haswell

    Não sei se você tá falando da mesma coisa, mas eu achei errado o anúncio da AMD sobre o seu chip ARM como sendo o próximo passo da linha ao invés de uma outra linha, vai fazer com que o pessoal que está interessado no jaguar no server acredite que essa linha (x86) vai acabar, não sei se foi esperta essa forma de anunciar...
  16. sirroman

    Intel Haswell

    Concordo, esse novo roadmap inclusive suporta uma matéria de charlie em que ele defende que a AMD matou os "big cores". Fortalece o que ele disse lá atrás, mas talvez tenha sido uma leitura apressada dele (não "matou", mas apenas "matou os que estavam na roadmap para chip CPU puro sangue") pois acredito que vão lançar um cpu puro sangue, se não no SR, no Excavator caso contrário é jogar fora a posição que tem no mercado server, tanto as relações já existentes quanto as que vão ser construídas com o OpenCompute do Facebook.
  17. Interessante, alguém mais gabaritado pode ajudar a fazer sentido a isso?
  18. The Stilt "conserta" o teste SuperPi no Vishera (Bulldozer precisa de uma solução diferente e incompleta), não me ficou claro o que ele fez. Li menção a microcode mas não parei para reler com atenção redobrada. Resultado (SuperPI): 4.1GHz A10-6800K (com MOD): 17m34s. Teste de referência a 5GHz: 18m15s. Diferença de +3~%, mas com -18% no clock! (ou clock ~21% maior no resultado de referência) http://www.techpowerup.com/186056/the-stilts-bulldozer-conditioner-software-amd-superpi-history-to-be-re-written.html
  19. Ai que ta, quando você quer renderizar em um jogo você faz implementações otimizadas de várias técnicas. Também é por isso que é muito diferente você fazer um demo e postar no youtube de colocar em um jogo (como no caso recente do TressFX).
  20. Salvo engano foi confirmado o valor de 2199. (Mas eu posso estar me confundindo com o preço do X1..?)
  21. Praq? Convenhamos, a fabrica que estiverem usando deve estar ociosa.
  22. Rapaz, não tenho experiência mas um bom ponto de partida seria ver o tamanho das GPUS fornecidas para workstations, apesar de eu saber que existem render farms. Mas o tamanho delas não dá para saber e... o hardware provavelmente não é atualizado com a frequência que o desenvolvedor gostaria então teriamos que levar em conta isso. Pelo que eu sei são algumas coisas específicas que tomam muito tempo (raytracing e sombra, dentre outros) ao contrário de outras que já estão "resolvidas". Mas também não podemos esquecer que algumas coisas já podem ser computadas antes e acelerar quando da renderização do jogo (shadow maps por exemplo). Mas espera um cara experiente falar. =)
  23. Para acabar com todas as dúvidas sobre se a AMD vai poder vender o chip da M$ e da Sony para qualquer outra pessoa: Saeid Moshkelani, chefe da Semi-Custom Business Unit, diz que o serviço na divisão em que ele chefia é "um produto, um cliente", ao contrário do resto da AMD em que há "um produto, muitos clientes". Etc. Video no link. http://www.engadget.com/2013/06/12/amd-vp-saeid-moshkelani-interview/
  24. Eu sei. Inclusive disse que infelizmente isso é o máximo que podemos fazer por enquanto. Não ficou claro o que você quis dizer com isso. Se você quis dizer que 220W é maior que 125W, beleza. Se você quis dizer que o chip vai ter consumo mais próximo do limite de 220W do que algum valor intermediário (ou mesmo um consumo superior ao limite de 220W), eu diria que você estaria falando sem qualquer base. (E eu não preciso provar porque você mesmo acaba de dizer que seu post referia-se apenas a TDP). Se você quis dizer outra coisa então eu realmente não entendi mesmo o que você quis dizer.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!