Ir ao conteúdo

EduardoS

Membro VIP
  • Posts

    6.875
  • Cadastrado em

  • Última visita

posts postados por EduardoS

  1. Quem sabe a AMD até não foi apenas esperta é tá chamando a atenção da inimiga para alvos errados? ;)

    As evidências mostram que ela foi é muito burra... Mas...

    É complicado quando uma empresa PRECISA ter uma divisão só para fazer compiladores, Intel e nvidia tem agora...

    A AMD também tem, anda meio abandonada, mas tem, a nVidia também tinha, compr a PGI só para tirar o doce da AMD mesmo.

    EDIT: eu não confirmei se a intel realmente tem uma divisão ou um setor dessa natureza. Mas tenho a impressão que sim.

    Tem, e vendem o polêmico Intel C Compiler.

    Enfim, a independência do PGI e a sua relevância para plataformas/padrões abertos deve (no primeiro caso, "pode" no segundo) cair consideravelmente.

    Certeza nos dois casos.

  2. Apesar da cara de primeiro de abril essa pode ser verdade.

    O TDP é 220W, mas o que que tem? No Power7 da IBM são 250W, nas GPUs top são 300W, sem contar que nos overclocks essa marca é facilmente excedida, qual a novidade?

    O produto é pra publicidade, só para chegar nos 5GHz mesmo, não muda em nada a vida do usuário comum.

  3. SE você acredita que a Sony e a MS entraram em algum acordo, diga logo, mas caso contrário isso não me parece ter sentido algum.

    Não acho que MS e Sony entraram em acordo, a AMD ofereceu uma solução à MS que tradicionalmente não se preocupa com a exclusividade do hardware, eles toparam, ai vem a Sony, querendo um chip sem ter que pagar pelo desenvolvimento dele, a AMD mostra o que tem e a Sony diz sim.

    Esse chip, integração e máscaras, provavelmente foi todo bancado pela AMD, não pela Sony ou MS, sem pagar o desenvolvimento não da para exigir exclusividade.

  4. Discordo, segundo matérias quanto à produção da GPU da AMD para a M$ e para a Nintendo da geração anterior, ficou bem claro que os times eram completamente separados, que não havia qualquer comunicação entre os grupos e que os projetos eram feitos de acordo com o desejo do cliente.

    1) Era ATI;

    2) Eram requerimentos diferentes.

    É provável que nessa geração exista uma comunhão maior entre os times dos dois chips, até por causa do HSA e para manter padrões, mas por puro profissionalismo eu duvido que um chip feito pela sony seja usado pela M$ e vice-e-versa, certamente em cada um deles exista algo que a Sony e a M$ (respectivamente, logico) pediu, forneceu a IP, engenheiros ou mesmo tinha em mãos.

    A principal IP é os núcleos do Jaguar e os núcleos GCN, ambos seriam usados pela AMD em outros mercados, IPS incluídos pela MS e Sony seriam software ou, se for algum hadware, coisa muito pequena, a AMD poderia muito bem fazer um chip com a IP das duas e desabilitar parte da IP ao vender o chip para uma ou para outra, que nem a Intel faz com suas multiplas versões de CPU para desktop, se a IP for software ou habilitado via software (DirectX/OpenGL) nem isso é preciso.

    Pelo que eu entendo do mercado semicustom (posso estar errado), aquele chip é daquele cliente, ponto final. Depois a IP pode ser usada pela AMD (ou pela M$/Sony, dependendo do caso), mas aquele chip é assunto encerrado.

    O Bobcat foi desenvolvido desdo o início para ser licenciado no estilo ARM, nunca para ser licenciado de forma exclusiva, mas não foi a Sony e nem a MS que pagaram o desenvolvimento do chip, então o chip não é de nenhuma delas.

    Ou você acha que a M$ gostaria de financiar o chip da Sony? E vice-e-versa?

    A MS não se importa, a Sony precisa dividir custos.

    O mercado de videogames a muito tempo é tecnicamente inviável e só se mantém por razões comerciais que vão além da nossa compreensão, para a MS isso não importa, o objetivo deles é garantir o ecossistema, mas a Sony precisa lucro, e esse lucro foi deteriorando com as maluquices inventadas no PS2 e depois PS3.

    Alias, as maluquices inventadas no PS2 e PS3 mostram justamente isso, com o mercado sendo tecnicamente inviável é difícil diferenciar PCs de consoles, as maluquices são justamente uma tentativa desesperada de tentar a diferenciação.

    Mas hoje uma maluquice dessas seria muito mais caro e a Sony tem menos dinheiro em caixa que na época do PS2 e PS3, sendo assim, para essa geração as duas tinham três opções:

    1) Jaguar+GCN;

    2) ARM A57+Kepler;

    3) Alguma maluquice.

    A MS sempre mostrou preferência por processadores x86, seja la a razão que existiu durante o desenvolvimento do Xbox 360 para eles não usarem o Athlon 64 como inicialmente planejado essa razão não existe mais, ai a escolher 1 se tornou o mais óbvio.

    A Sony com certeza preferia escolher o 3, mas com o bolso vazio e diretores desconfiados dos riscos essa escolha foi riscada, depois ele poderia escolhere 1 ou 2, no caso do 2 ela teria que bancar os custos de desenvolvimento (a nVidia não quis), e também assumir os riscos da inexperiência da ARM, a AMD já havia bancado os custos do Jaguar, ele já estava na prateleira quando a Sony procurou, ai a opção 1 se tornou mais segura e barata.

    Quanto a diferenciação, as tecnologias de reconhecimento de movimentos trazem a diferenciação que a Sony quer, ou ao menos é tudo o que sobrou, o Wii provou que da para diferenciar um console de PCs através de outras maneiras que não o poder de processamento.

    • Curtir 4
  5. Lembro de ter lido que já estão preocupados porque estão trabalhando com 2 ou 3 átomos de cobre para fazer as ligacoes, e ai confesso que não entendi, pois se o processador é feito de silicio, o que teria o cobre que ver?

    Eles provavelmente estavam falando de alo diferente do que o Jones ta falando...

    O processador tem várias camadas, quando falamos do silício estamos falando da camada mágica de semicondutores, mas semicondutores são péssimos condutores, existe uma outra camada (na verdade várias outras), feita principalmente em cobre, que é usada para ligações, e é dessa camada que falavam no texto que você leu.

  6. Não sei se o limite é 4nm ou 5nm, mas a 13 anos atrás a redução na litografia sempre era acompanhada de redução na tensão, consumo e aumento da velocidade, hoje não está mais acontecendo desse jeito, e é preciso várias passagens para a "impressão" o que aumenta o custo, por mais que seja possível litografia em 2nm talvez não seja viável.

    EUV deve mudar um pouco isso, mas são ondes de 13nm, não da para ir muito longe com elas e já é praticamente raio-x.

  7. Mas essa perda de 700Mhz não foi pela arquitetura nova? Será que se eles mantivessem uma arquitetura de núcleos separados eles não poderiam ganhar alguma coisa com um clock mais elevado, maior eficiência? Sei lá.

    Me referia ao Llano, não ao Bulldozer, do Phenom II para o Llano não houve mudança na arquitetura.

    Eu li uma matéria interessante sobre os Sandy Bridge, que os caras criaram uma distribuição muito boa (acho que de pipeline, não sei), e que a cada redução de die eles ganham mais espaço para expandir a capacidade de processamento.

    Link? Não existe nada de especial em relação ao Sandy Bridge.

    Talvez o calcanhar de aquiles da AMD seja a fábricação, porque eles sofreram para chegar aos 32nm enquanto a Intel já vai lançar a 2ª geração em 22nm. Aí fica difícil, porque os engenheiros da AMD devem estar tirando leite de pedra de um die que não "estica" a cada redução que não acontece.

    É o calcanhar de aquiles de todo mundo, inclusive da Intel, mas a Intel tem mais dinheiro para compensar.

    Esse ponto parece difícil do pessoal entender... A industria inteira está com dificuldade com novas litografias, inclusive a Intel, além da montanha de dinheiro a Intel não tem nada de mágico que vai livrar ela dos problemas que as outras passam e, esses problemas resultam em atrasos e peformance abaixo do esperado, mas são fatores relativos, como as outras tem mais atrasos e maior perda de performance a Intel parece imune porque, mesmo com problemas, continua se distanciando.

    Mas o mercado entusiasta não funcionaria como a F1 para a indústria automobilística?

    Não:

    1) Fabricar carros esportivos da dinheiro.

    2) Se não me engano Toyota e Volkswagen são as duas maiores fabricanets de automóveis do mundo, nenhuma das duas compete na F1, da mesma maneira, ficar de fora do mercado entusiasta pouco afetou as cotas de mercado da AMD nos ultimos anos, reduzir os preços tem funcionado bem.

    Os caras gastam milhões para ganhar um décimo de segundo sobre o adversário, mas o desenvolvimento acaba parando nos carros de linha, como foi o caso do freio ABS.

    ABS é proibido nas corridas...

    Mas o mercado automobilistico tem suas peculiaridades e, se for pensar, essas peculiaridades não se aplicam a informática, ao menos a componentes internos, já viu alguem pagar mais em um processador com bordas de plástico que fazem ele parecer um off-road?

    Eles devem tirar alguma coisa com essa corrida pelo desempenho em single thread, não?

    Acho que hoje, mais do que nunca, as empresas procuram por formas de aumentar o desempenho single-thread de forma econômica, mas "desempenho single-thread" não é um parâmetro único e nem fácil de obter.

  8. (off) Eu não entendo nada de arquitetura, mas um hipotético Phenom IV X8 1300T (já estaria na quarta geração) com 20% a mais de desempenho single threaded do que o 1100T

    Se você conseguir fazer um Phenom com 20% mais desempenho single-thread que o 1100T vende a ideia para a AMD, até agora tudo o que eles conseguiram foi perder 700MHz no die shrink.

    Sobre a arquitetura eu até compreendo ela, mas não consigo entender os testes de desempenho single thread já que ele é um processador modular onde um modulo aproveita 80% de cada núcleo.

    Os testes não deveriam medir o desempenho do modulo e não de apenas um núcleo?

    Ou o desempenho single thread em testes sintéticos já medem o desempenho do mesmo e o baixo rendimento tem algo relacionado com alguma falha no projeto?

    Espero que tenham me entendido.

    O nome teste diz tudo, "single thread", o número máximo de núcleos que podem ser usados por uma única thread é 1.

    Independente de como ele é reconhecido a única thread em funcionamento usa todos os recursos a qual tem acesso, mas são poucos.

    Como eu disse, eu não entendo disso, mas a questão é que o sistema operacional reconhece como octacore, porque ele foi projetado assim, então, na hora do benchmark, ele também vai isolar um núcleo, e não um módulo. Se ele tivesse sido projetado para ser reconhecido por módulos e cada módulo trabalhar como um núcleo, ele não poderia ser chamado de octacore, mas de quad-core. Também não sei se o desempenho iria melhorar.

    Ele era para ser reconhecido como quad core com SMT (para o que é visivel do software ele foi projetado assim), octacore é marketing, para um benchmark single-thread não faz diferença nenhuma como o SO reconhece ele, os patchs que a MS soltou em parte são para que ele seja tratado como quad core com SMT.

    Eu me arrisco a falar besteira de novo, mas o que parece ter sido comentado na época do lançamento do Bulldozer é que o fraco desempenho bruto (por núcleo) dos FX é porque o chip foi projetado para servidor - que usa melhor o paralelismo do que a força bruta -,

    O foco de fato era servidores, não atingir o clock planejado com os 32nm também atrapalhou.

    mas que de alguma maneira foi parar no mercado de desktop (não me pergunte por quê). Talvez eles não tivessem dinheiro para desenvolverem um chip de servidor e outro de desktop

    Ultimamente o preço médio dos processadores desktop que a AMD vendia era 50 dolares, a Intel 100 dolares, nos tempos de ouro a AMD conseguia uma média de 70 dolares.

    O FX é mais rápido que os processadores da Intel de 50 dolares? E de 70? E de 100?

    Se a resposta for sim para essas três perguntas então a AMD economizou uns 2 bilhões no desenvolvimento de um chip específico para desktops.

    E essa é a lógica, o mercado desktop não da dinheiro, o mercado entusiasta é pequeno demais, não da para focar eles, na minha opinião a total falta de foco como no caso do FX foi um erro, mas concordo que gastar bilhões apenas para atender uma parcela minúscula de um mercado pouco lucrativo não é uma boa opção.

    Então a estratégia da AMD foi, fazer um chip para servidores e depois vender ele em desktops.

    E se quer saber a Intel faz a mesma coisa.

    A AMD também tem o Bobcat/Jaguar feito para clientes (no sentido oposto a servidores) de baixo consumo que corre o risco de acabar sendo melhor que o FX... Mas ainda assim vai ser difícil de impressionar como desktop entusiasta.

    e tentaram fazer um curinga que acabou virando um dois de paus. O que assusta é que o FX-8350 roda "overclocado", a 4Ghz, e ainda assim não passou o Phenom II, e já é a 2ª geração.

    Esse é um dos pontos, o FX não roda overclocado, 4GHz é o normal dele, alias, é até baixo, mas a litografia não ajuda muito, cada estagio de pipeline no FX é 30% mais curto que o do Phenom II, o que proporciona um clock de 25% a 30% maior.

    • Curtir 1

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

LANÇAMENTO!

eletronica2025-popup.jpg


CLIQUE AQUI E BAIXE AGORA MESMO!