Ir ao conteúdo
  • Cadastre-se

EduardoS

Membro VIP
  • Posts

    6.878
  • Cadastrado em

  • Última visita

posts postados por EduardoS

  1. The big difficulty for AMD is that merely having hUMA isn't enough. Developers actually have to write programs that take advantage of it. hUMA will certainly make developing mixed CPU/GPU software easier, but given AMD's low market share, it's not likely that developers will in any great hurry to rewrite their software to take advantage of it. We asked company representatives if Intel or NVIDIA were going to implement HSA. We're still awaiting an answer.

    As vezes a capacidade dos jornalistas de escrever besteira surpreende...

    hUMA e HSA é o nome que a AMD deu para a memória comum entre CPU e GPU, sem uma CPU com GPU integrada isso não existe, logo a nVidia não vai implementar...

    Que eu saiba a Intel já implementou, ainda assim, o video integrado deles ainda ta na categoria "e quem se importa?".

    Entre escrever para HSA e escrever para TSX, que levará vantagem?

    Certamente que tem 85% de quota de mercado.

    São duas tecnologias completamente diferentes, usar uma não exclui a outra, e TSX não é tão interessante assim em jogos...

    Agora quanto as cotas de mercado, a AMD tem 100% de participação nos consoles de alta performance, dúvido que os jogos ignorem essa capacidade.

    • Curtir 1
  2. Fiz uma referencia a uma antiga matéria que dizia que seriam 128SPs, por isso a suposição.

    Já foi confirmado os 128SPs, mas supostamente deveriam ser divididos em 2 CUs e não em 4.

    EDIT: Olhando e coparando com as fotos do Tahiti cada ***** é formado pr dois desses quadrados, na verdade é um filete quase da altura do chip, nas fotos do Tahiti esses filetes são mais visíveis.

    Para mim, ainda tem várias não identificadas, por exemplo:

    área limão entre os L2, suponho que seja o NB.

    Geralmente entre os L2 dessa maneira vai a interligação entre eles e as tags, a ponte norte acredito que fica na parte superior do chip.

    área verde, suponho que seja o FHC, o que tornaria o chip monolítico, certo?

    FHC?

    • Curtir 1
  3. SE você acredita que a Sony e a MS entraram em algum acordo, diga logo, mas caso contrário isso não me parece ter sentido algum.

    Não acho que MS e Sony entraram em acordo, a AMD ofereceu uma solução à MS que tradicionalmente não se preocupa com a exclusividade do hardware, eles toparam, ai vem a Sony, querendo um chip sem ter que pagar pelo desenvolvimento dele, a AMD mostra o que tem e a Sony diz sim.

    Esse chip, integração e máscaras, provavelmente foi todo bancado pela AMD, não pela Sony ou MS, sem pagar o desenvolvimento não da para exigir exclusividade.

  4. Discordo, segundo matérias quanto à produção da GPU da AMD para a M$ e para a Nintendo da geração anterior, ficou bem claro que os times eram completamente separados, que não havia qualquer comunicação entre os grupos e que os projetos eram feitos de acordo com o desejo do cliente.

    1) Era ATI;

    2) Eram requerimentos diferentes.

    É provável que nessa geração exista uma comunhão maior entre os times dos dois chips, até por causa do HSA e para manter padrões, mas por puro profissionalismo eu duvido que um chip feito pela sony seja usado pela M$ e vice-e-versa, certamente em cada um deles exista algo que a Sony e a M$ (respectivamente, logico) pediu, forneceu a IP, engenheiros ou mesmo tinha em mãos.

    A principal IP é os núcleos do Jaguar e os núcleos GCN, ambos seriam usados pela AMD em outros mercados, IPS incluídos pela MS e Sony seriam software ou, se for algum hadware, coisa muito pequena, a AMD poderia muito bem fazer um chip com a IP das duas e desabilitar parte da IP ao vender o chip para uma ou para outra, que nem a Intel faz com suas multiplas versões de CPU para desktop, se a IP for software ou habilitado via software (DirectX/OpenGL) nem isso é preciso.

    Pelo que eu entendo do mercado semicustom (posso estar errado), aquele chip é daquele cliente, ponto final. Depois a IP pode ser usada pela AMD (ou pela M$/Sony, dependendo do caso), mas aquele chip é assunto encerrado.

    O Bobcat foi desenvolvido desdo o início para ser licenciado no estilo ARM, nunca para ser licenciado de forma exclusiva, mas não foi a Sony e nem a MS que pagaram o desenvolvimento do chip, então o chip não é de nenhuma delas.

    Ou você acha que a M$ gostaria de financiar o chip da Sony? E vice-e-versa?

    A MS não se importa, a Sony precisa dividir custos.

    O mercado de videogames a muito tempo é tecnicamente inviável e só se mantém por razões comerciais que vão além da nossa compreensão, para a MS isso não importa, o objetivo deles é garantir o ecossistema, mas a Sony precisa lucro, e esse lucro foi deteriorando com as maluquices inventadas no PS2 e depois PS3.

    Alias, as maluquices inventadas no PS2 e PS3 mostram justamente isso, com o mercado sendo tecnicamente inviável é difícil diferenciar PCs de consoles, as maluquices são justamente uma tentativa desesperada de tentar a diferenciação.

    Mas hoje uma maluquice dessas seria muito mais caro e a Sony tem menos dinheiro em caixa que na época do PS2 e PS3, sendo assim, para essa geração as duas tinham três opções:

    1) Jaguar+GCN;

    2) ARM A57+Kepler;

    3) Alguma maluquice.

    A MS sempre mostrou preferência por processadores x86, seja la a razão que existiu durante o desenvolvimento do Xbox 360 para eles não usarem o Athlon 64 como inicialmente planejado essa razão não existe mais, ai a escolher 1 se tornou o mais óbvio.

    A Sony com certeza preferia escolher o 3, mas com o bolso vazio e diretores desconfiados dos riscos essa escolha foi riscada, depois ele poderia escolhere 1 ou 2, no caso do 2 ela teria que bancar os custos de desenvolvimento (a nVidia não quis), e também assumir os riscos da inexperiência da ARM, a AMD já havia bancado os custos do Jaguar, ele já estava na prateleira quando a Sony procurou, ai a opção 1 se tornou mais segura e barata.

    Quanto a diferenciação, as tecnologias de reconhecimento de movimentos trazem a diferenciação que a Sony quer, ou ao menos é tudo o que sobrou, o Wii provou que da para diferenciar um console de PCs através de outras maneiras que não o poder de processamento.

    • Curtir 4
  5. Lembro de ter lido que já estão preocupados porque estão trabalhando com 2 ou 3 átomos de cobre para fazer as ligacoes, e ai confesso que não entendi, pois se o processador é feito de silicio, o que teria o cobre que ver?

    Eles provavelmente estavam falando de alo diferente do que o Jones ta falando...

    O processador tem várias camadas, quando falamos do silício estamos falando da camada mágica de semicondutores, mas semicondutores são péssimos condutores, existe uma outra camada (na verdade várias outras), feita principalmente em cobre, que é usada para ligações, e é dessa camada que falavam no texto que você leu.

  6. Não sei se o limite é 4nm ou 5nm, mas a 13 anos atrás a redução na litografia sempre era acompanhada de redução na tensão, consumo e aumento da velocidade, hoje não está mais acontecendo desse jeito, e é preciso várias passagens para a "impressão" o que aumenta o custo, por mais que seja possível litografia em 2nm talvez não seja viável.

    EUV deve mudar um pouco isso, mas são ondes de 13nm, não da para ir muito longe com elas e já é praticamente raio-x.

  7. 1. Um eventual e hipotético BDZ que conseguisse alcançar o mesmo clock com voltagens menores (digamos, mediante alguma mudança do design) seria melhor, e

    2. possivelmente conseguiria clocks maiores com um novo aumento de tensão.

    3. Esse aumento de clock poderia suprir parte das deficiências na performance, tornando o produto final melhor.

    Sinceramente não vejo como são incompatíveis.

    Hã... Desculpe, agora entendi o que você quis dizer...

    você quer dizer que esse hipotético BDZ precisaria de mudanças tamanhas que provavelmente fariam com que o chip não alcançasse clocks maiores, como o BDZ de fato? Ou outra coisa?

    Na verdade nem imaginei que você estivesse se referindo a esse tipo de mudança.

    E sim, esse tipo de mudança é bem complicado, esse o tempo de cada estagio do pipeline, foi um dos parâmetros definidos logo no início do projeto e para mudar só fazendo outro.

    • Curtir 2
  8. Nesse caso o BDZ não teria muita margem para overclock, não? Mas os resultados de competições parecem indicar o contrário.

    Sempre a questão do overclock...

    Existem alguns motivos para os overclockers irem mais longe:

    1) O controle de qualidade da AMD é mais rigoroso... Se o overclock passou no 3DMark, Preime95 ou qualquer outro programa de benchmark usado por alguns minutos ou algumas horas, ótimo, é válida para a competição, mas não para a AMD, para a AMD o processador precisa funcionar com TODOS os programas, as vezes o overclock pode causar falhas estranhas mesmo em programas pouco exigentes mas que por causa de uma sequência de código em particular, aconteceu.

    2) O aumento de temperatura torna os transistores piores, Com coolers grandões da para fazer overclock e ainda ssim deixar a temperatura nos 40º, mas não é esse cooler que a AMD recomenda e ela diz que o processador dela funciona mesmo a 70º, então ele precisa funcionar a 70º quando os transistores não estarão operando tão bem.

    3) Longevidade, a AMD da garantia de 3 anos, não é? Então o processador precisa durar três anos mesmo que o usuário use ele 24h por dia e a 70º e, ao menos até um dia antes do final desse período, precisa continuar funcionando como se fosse novo.

    4) Ao contrário do overclocker, a AMD não pode contar com a sorte, já ouviu falar de MTTF ou MTBF? Pois é, mesmo em um chip 100% funcional as vezes acontecem falhas, seja por raios cósmicos, seja por impurezes no silício ou por pequenas deformações durante a litografia não da apra fazer um chip livre de falhas, o overclock aumenta a probabilidade das falhas ocorrem, em geral chips são testados para garantir ao menos 1 milhão de horas em média para uma falha, bem, talvez você compre um chip que falhe em 3 horas, talvez passe os 3 anos de garantia sem falhar, 1 milhão de horas é a média, o que significa que a maior parte dos chips não vão apresentar falha durante os 3 anos de garantia, o overclock vai auemntar a probabilidade de falhas, ao invés de 1 milhão e horas digamos que a média caia para 100 horas, nesse caso existe uma grande chance de rodar Prime95 por 8 horas por exemplo sem falha nenhuma, nesse caso o ovrclockers sorte, para a AMD não serve.

    Por fim, a AMD não está em posição de limitar o clock de seus processadores só de sacanagem, se eles limitaram a 4.2GHz é porque eles tem um bom motivo para isso.

    • Curtir 6
  9. Tudo o que eu apontei foi que, como foi levantado aqui na época, há uma chance razoável de que o clock do BDZ foi determinado por uma questão de TDP, pois ele aguenta clocks maiores, mas precisa de tensão maior. O seu clock-alvo era maior, isso todo mundo sabe e você mesmo trouxe várias vezes, mas como para conseguir o tal clock-alvo consistentemente precisava de uma tensão maior e isso estourava a TDP, não foi possível.

    O que limita o clock (ao menos no turbo) tanto do Bulldozer quanto do Llano não é a TDP e, o clock atingido no turbo é com 1,4V, essa parece ser a tensão máxima que o processo 32nm SOI da GF aguenta sem danos ou leakage em excesso, o que limita o clock desses dois processadores é o tempo que os transistores nesse processo com essa tensão demoram para mudar de estado, resumindo, o clock não é mais alto porque os transistores são lentos demais.

    2) se mesmo com o undervolt o clock permanecesse o mesmo, a situação dele seria bem melhor no que tange ao TDP. (Isso é hipotético)

    Agora que a AMD também entrou no mundo da tensão e frequência variável vamos redefinir o termo "TDP".

    Se todos os núcleos funcionassem ao mesmo tempo com 1.4V e no maior clock que atingissem o consumo excederia a TDP, por isso nessas condições é usada uma tensão menor e clocks menores (efeito colateral), com apenas um núcleo (ou um módulo) funcionando no máximo que ele consegue ainda sobra TDP, pode olhar o exemplo do FX-8350 e FX-8300, no turbo os dois vão até os 4.2GHz em 1.4V, mas como os dois tem limites de TDP diferentes com os oito núcleos o FX-8300 tem que se limitar a clocks menores.

    O problema de performance da AMD não é com multi-threading, mesmo o FX-8300 não faz feio nesse ponto, o problema é com single-thread onde a AMD não consegue romper a barreira dos 4.2GHz.

    E se for falar em performance por watt de desktops... Undervolt/underclock vai "magicamente" aumentar a performance por watt, os 4.0GHz de clock base no FX-8350 com tensão quase no limite foram escolhidos porque sobrava watt nos 125W que a AMD definiu, não é uma boa marca para alguém procurando performance por watt.

    • Curtir 4
  10. sim, sim, sim. Não quis ser tão generalista nem pôr a culpa em cima do processo de fabricação. Podemos até entender que jogaram a tensão lá para cima para suprir as deficiências das microarquiteturas.

    Não foi isso o que eu disse...

    O que eu quis dizer é que como o BDZ não alcançou o clock desejado (seja por questões de processo como por questões de design mesmo) e só conseguiu ter bons resultados de over com voltagens maiores (e consumo fora de controle), se tivesse alcançado o mesmo clock com tensão menor e (muito provavelmente) clocks maiores com a tensão de lançamento, o resultado seria consideravelmente diferente.

    E no Llano eu falo com a certeza de quem se lembra dos debates: a gente bateu muito na tecla da tensão.

    Essa é a parte que não da para misturar...

    Em um processo X qualquer a tensão máxima aceitável pode ser 1,5V, em um outro processo Y a tensão máxima aceitável pode ser, digamos, 1,2V, isso não quer que um chip no processo X va consumir mais que um no processo Y ou que vai atingir um clock maior ou densidade, etc, são parâmetros de cada processo, é difícil fazer uma comparação misturando esses parâmetros.

    No portfolio da TSMC tem um caso assim onde o processo low power precisa de uma tensão um pouco maior mas atinge um clock menor e consome bem menos.

    • Curtir 1

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

 

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!