Ir ao conteúdo
  • Cadastre-se

ThiagoLCK

Membro Pleno
  • Posts

    1.300
  • Cadastrado em

  • Última visita

Reputação

3
  1. Se eles forem usar um processador convencional, parece uma ideia bem razoável. Os problemas são os custos, maiores para um dado desempenho, e a dificuldade de convencer a empresa de GPUs e a de CPUs a miniaturizarem a coisa, e a desenvolverem-na nas fábricas adequadas. Com a unificação ATI/AMD e a criação da GF, talvez essas dificuldades sejam mitigadas... Eu concordo com ele, um MBA ajuda muito mais que qualquer doutorado nisso. Doutorado é bom para pesquisa, e mais como diploma e experiência que como aquisição de conhecimento mesmo. Mas quem falou em doutorado? Se donos de terras e advogados podem se chamar doutor, porque não o diretor lá ? Acho que foi bem nas festinhas que esse acordo foi feito, hein...
  2. Caras em nível mais baixo que isso em pelo menos uma grande transnacional ganham mais de 1 milhão de reais por ano. Se eu ganhasse isso, queria ser chamado de "Doutor Figurão Thiago", no mínimo... Um Audi legalzinho, umas garrafas de whisky Pure Malt e umas minifestinhas à Berlusconi também não iriam mal ...
  3. Esses testes normalmente foram feitos com VAXes,.. OK, a similaridade existe, e a convenção de que o ótimo está entre 16 e 32 provavelmente é verdadeira com aplicações "convencionais"... enquanto o código de jogos, em um processador simples, me parece um alvo muito melhor para pelo menos 32 registradores. Principalmente registradores SIMD. De qualquer modo, qualquer que seja o caso, a diferença entre x86-32 e x86-64 é razoável, e a x86-64 é realmente melhor em alguns aspectos. Mas ainda acho as RISCs melhores... só que a ideia de usar um SB no console me parece muito atraente do ponto de vista econômico.
  4. Em termos de desempenho de processamento um sistema biprocessado Westmere X5680 fica muito próximo de um sistema biprocessado Beckton X7560... isso no pior caso para o Westmere. O SPECint_rate2006 é um bom indicador para isso: Westmere Beckton Agora' date=' quando se considera que esse é um teste que escala perfeitamente (pior caso para o Westmere) e que já foi acusado de ser muito afetado por caches (pior caso para o Westmere), e que o Westmere custa US$ 1663, enquanto o Beckton custa US$ 3838 (tudo em lotes de 1000), sem contar placa-mãe e processador, e que se seu algoritmo escala perfeitamente os AMDs entram na jogada... Diga-se de passagem, o Beckton que custa perto dos Westmeres é o E6540... que tem 2 núcleos, 267 MHz e 6 MiB de L3 a menos do que o 7560... preciso mostrar o Westmerelona vs Beckton Madrid? Beckton Com Preço Razoável Na prática nada disso faz muito sentido, porque se você for utilizar um Beckton, provavelmente seu problema não tem como limitador o desempenho de processamento de aplicativos independentes (nesse caso você usaria 2 sistemas Westmere)... normalmente é capacidade de memória mesmo.
  5. É possível, mas não acho que seria aceitável para a GF.
  6. A IBM fabrica pouco, a GF seria suficiente para atendê-la. TSMC está fora de questão, por razões técnicas e estratégicas. De qualquer modo, isso é uma previsão de um analista... e analistas querem matar a IBM Micro há muito, muito tempo. Para falar a verdade, se o XBITLabs tirasse as citações esse artigo poderia ser um Ctrl+C, Ctrl+V de vários artigos de alguns anos atrás... no entanto, a IBM Micro continua, sinal de que: 1- É muito complicado vendê-la. Faz sentido... 2- A chefia da IBM (que não é de economizar nos cortes e spin-offs) sabe coisas que os analistas não sabem. Isso eu garanto! 3- Existem questões não-financeiras envolvidas, não é um negócio de pizzas, é a IBM... existem muitos acordos, até governamentais, sem contar a resistência interna dos funcionários e gerentes. 4- Todas as alternativas acima.
  7. Por algum lugar esse ar que entra pelo ventilador tem que sair ... eu aconselharia a usar pressão positiva, mas sei lá se seria possível colocar algum filtro nessa entrada. E quanto aos Molex, eu acho uma grande bobagem, mas se você tiver várias disco rígido pode ser que elas puxem demais da PCI-E... eu duvido: nunca vi placa puxar mais de 60 W por ali, mesmo em condições extremas, e aliás acho que as que puxaram 60 W foram mal projetadas nesse aspecto, as atuais puxam por volta de 40 W com OCCT e Furmark.
  8. Bem, sim, você está certo. A Intel alterou o projeto do Northwood para considerar a variação das características dos transistores na pastilha: isso com certeza não saiu barato, é aquele esforço de menos de 0,1%. Realmente, sempre existe a possibilidade do "replacement gate" da Intel deixar de ser viável "mecanicamente" com mudanças estruturais do transistor... afinal, é uma estrutura 3D com uma relação altura/profundidade muito alta, o que complica bastante a situação de remoção e deposição. Aliás, eu tenho quase certeza que a maior parte dos protótipos atuais são construídos diretamente, no que poderíamos chamar de "gate-first", e diria que em boa parte devido a dificuldade de construção. Mesmo assim, eu ainda acredito muito mais no "gate-last" com os FinFETs (se algum dia usarmos FinFETs, do jeito que a coisa vai). E não estou sozinho. A Applied acredita mais, a TSMC também... e a Intel, que tem mais poder de pesquisa que todas os outros grupos, com exceção talvez do IBM Esporte Clube. Eu simplesmente não acredito na escalabilidade do "gate-first", a variação de Vt é muito difícil de controlar, e é de longe a pior coisa que pode acontecer com o transistor em termos de projeto... e FinFETs trazem vários problemas elétricos e de variação próprios, e tendem a ser construídos em escala muito menor que a atual. É bem possível que a demora se deva mais a problemas de produção... afinal, eles usam "gate-first"! Não, eu não resisti ... A capacitância de junção faz muita diferença para o consumo, se para a velocidade daí depende do bloco: consumo sempre importa, velocidade só importa se não houver algo mais lento ainda, como um transistor pequeno drivando uma linha gigantesca... Ele aumenta dramaticamente com tensão e temperatura, não com clock. Se você tiver boa refrigeração e mantiver a tensão baixa, pode variar a frequência bastante que não terá grandes problemas com leakage. Assim o Bulldozer pouco sofrerá com leakage, em relação a um projeto mais lento... Eu falo do conservadorismo do projeto elétrico... mas a Intel tem vários grupos em overlap, cada um pode demorar uns 5 anos para desenvolver os processadores, e só não mudam mais porque preferem continuar com a base da P6: a Intel gosta muito da P6 , as pessoas amam a P6, e mesmo as mudanças não tão disruptivas do Sandy Bridge que quebraram com a mesmice do núcleo dos Nehalems foram bem consideradas antes de aceitas.
  9. Sim, isso é um fato. A Intel desenvolve processos excelentes, PARA A INTEL. Se você não tiver os recursos de projeto eletrônico e de processo deles, vai se ferrar. Nenhuma foundry jamais conseguiria convencer os consumidores deles a adotar as regras que a Intel adota, são bizonhas, o layout tem que ser todo regular, sob risco de falha geral. A Intel é a maior produtora de semicondutores e possui um número relativamente pequeno de produtos, não acho que tenha custo-benefício baixo para eles. Pelo contrário, o lucro da Intel com os x86s é excelente. Pelo contrário, ao que eu saiba ambos tem problemas, mas os problemas do gate-last parecem muito mais escaláveis... eu não acredito que o gate-first passe dos 20 nm. Os números que a AMD passou são de Drive Current, como você sabe o processo SOI precisa de menos do que os da Intel, e de qualquer modo com uma distância pequena "all bets are off", mesmo porque as medições são sempre realizadas em condições diversas. A maior vantagem em consumo do SOI é mais a menor capacitância de junção... o leakage de junção é secondário em processos atuais, embora menos em processos HK/MG. Não tenho tanta certeza se os processadores Intel não conseguiriam chegar a 4 GHz com uma refrigeração consideravelmente melhor, talvez com um projeto menos conservador em termos de número de estágios...
  10. Alguém disse' date=' há um bom tempo, que a Intel tinha uns 10.000 engenheiros só projetando microprocessadores, o que é um número absurdamente absurdo. E que eles investiam uns 5 bilhões só em P&D de processos de fabricação... Sim, bem maior. Mas a mudança entre Nehalem e SB também é muito grande, relativamente. A Intel chama a microarquitetura dos P4s de Netburst, não-oficialmente muitos chamam de P68, inclusive alguns engenheiros da Intel, não lembrei do Netburst na hora... Aliás, esqueci também dos Prescotts... a mudança foi BEM grande em relação os Northwoods e Willamettes... foi feita por Hillsboro também.
  11. A mudança Nehalem -> SB foi muito grande' date=' bem maior que a mudança Conroe -> Nehalem, e talvez maior até do que a Pentium M -> Conroe... o núcleo foi bastante modificado internamente, enquanto a Nehalem foi mais mudanças externas.
  12. Os processos SHP (processos com SOI, para Llano e BDZ) sempre seguem os nodos padrão do ITRS: 45 nm, 32 nm, 22 nm. Os processos HP (para GPUs, SoCs, etc...) tinham dois nodos para cada nodo do ITRS, um "full" e outro "half": 90, 80, 65, 55, 45, 40... mas agora, graças a TSMC, os "full-nodes" foram extintos, e os "half-nodes" viraram os únicos nodos: 28 nm e 20 nm... Isso se refere a duas formas diferentes de implantar o gate metálico do HK/MG... para resumir, o gate-last tende a ter maior performance em corrente, principalmente dos transistores tipo P, mas é mais chato e caro de implementar, o gate-first tende a ter maior densidade (o que pode compensar a performance de corrente) e ter uma modelagem mais fácil, mas tem um monte de problemas com parasitas, que podem não afetar nesse nodo mas afetarão nos próximos. Enfim, a tendência é que todo mundo acabe convergindo no gate-last, mas nesse nodo qualquer um dos dois serve, o gate-last se tiver alguma vantagem nos PMOS é pequena... Só para explicar o funcionamento dos dois, o gate-first funciona do jeito óbvio: implanta-se o dielétrico de alto K, depois o gate de metal, e pronto. Foi desenvolvido principalmente pela IBM... é usado por ela e suas amigas, basicamente. O gate-last é mais complexo... você inicialmente implanta um gate de sacrifício de polissilício, que é usado durante todo o processo de fabricação do transistor. Somente no final, logo antes de fechar a lógica e começar a metalização, que você retira os gates de polissilício e implanta um gate de metal. O detalhe (que faz a diferença para o gate-last) é que você pode usar metalizações diferentes de acordo com o tipo de transistor... por isso os PMOS do gate-last são absurdos. O campeão do gate-last é a Intel. A TSMC usaria gate-first, mas acabou mudando para o gate-last...
  13. WTFH? Não sei por que, mas acho que a IBM não vai vender sua divisão de chips para uma das mais perigosas concorrentes. A nVidia é uma empresa de GPUs, até existem aplicações disso em computação empresarial mas são bem restritas, a Oracle não vai pagar caro para tirar tudo. AMD tudo bem, essa sim dá para imaginar algo do tipo... mas acho bem difícil.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...