Ir ao conteúdo
  • Cadastre-se

EduardoS

Membro VIP
  • Posts

    6.878
  • Cadastrado em

  • Última visita

posts postados por EduardoS

  1. sirroman, cuidado ao misturar arquiteturas diferentes, processos de fabricação e todo o resto que eu escondi dentro do "k" da formula, tanto no caso do Llano como do Bulldozer o clock abaixo do esperado não foi por causa do consumo.

  2. Jonny, o consumo dinâmico de um chip (que é quase 100% do consumo dele, então vou ignorar o resto) é proporcional a frequência e ao quadrado da tensão, para aumentar a frequência temos que aumentar a tensão, no exemplo citei 25% mais tensão para 25% mais frequência e isso no fim da os 95% mais consumo, simplificando:

    consumo = k * frequência * voltagem²

    • Curtir 3
  3. Se a AMD tivesse chip bom de clock e lançasse Pitcairn com 25% a mais de clock e 256 de banda de memórias, ela bateria fácil Tahiti no segmento Desk, e consumiria menos energia.

    Há duas formas de alterar o clock:

    1) Uma grande mudança no projeto para deixar cada estágio de pipeline mais curto;

    2) Aumento de tensão;

    O 1 resultaria em um chip totalmente novo, então vamos ignorar, o segundo depende de quanto seria o aumento de tensão, se for, digamos, 25% então o consumo será: 1,25 do clock/processamento extra sendo executado * 1,25² da tensão extra = 1,95, quer dizer, 95% mais consumo, continua consumindo menos do que a Tahiti?

    Claro, isso assumindo que o projeto permita esse clock extra com um aumento de tensão, no caso da Pitcairn não acredito que seja o caso.

    • Curtir 2
  4. Se tratando de um console, não creio que exista a função turbo pra esse Jaguar.

    Eu ficaria surpreso se não existir.

    Bem, eu já estava achando que poderia dar "mamilos" um CPU defasado

    O Jaguar deixa o Xenos no chinelo, ele não é tão fraco quanto você acha.

    E, pelo que estão dizendo agora, o Xenos é ainda mais lento do que eu imaginava, mas essa afirmação agora pode ser marketing.

  5. Lendo o link que eu postei, falam sobre espetarem nessa vaguinha no die uma 7970M. Penso que seria algo monstruoso em performance! E dizem que o consumo geral ainda seria menor que os dos atuais PS3 e X360!

    Sei lá como será o esquema dos processadores, mas pelo o que eu entendi da matéria, a exemplo do PS3, saem os SPEs e entra o Kabini de 8 núcleos, somados com um módulo computacional gráfico, com pequenos núcleos gráficos, no auxilio da parte de física e quetais, e ainda com a GPU dedicada, que seria a 7970M, pelo visto. Acho que o tal módulo serviria pra ajudar no GPGPU, a provável nova tendência no mercado dos consoles.

    A HD7970M é basicamente a HD7870 para desktops com um clock menor, ela cabe no die do Kabini, não precisa ser dedicada.

  6. Mas o Jaguar não é um chip projetado para computação móvel, visando perf/W em vez de priorizar alto desempenho single-thread?

    Da mesma forma que alguns projetos e ideias não atingem as expectativas há alguns projetos e ideias que superam as espectativas.

    E de qualquer forma, nenhum dos dois foi projetado para desktops (IPC alto), o Bulldozer foi projetado para tarefas com IPC baixo, geralmente multi-thread que gastam grande parte do tempo com acessos a memória (por isso a unidade load/store gigante em relação aos ALUs), o Bobcat/Jaguar foi projetado para tarefas com IPC alto mas sem comprometer a eficiência energética.

    Pode ocorrer do Jaguar acabar tendo um desempenho absoluto melhor em tarefas com IPC alto já nenhum dos dois foi realmente projetado para isso, em notebooks então onde eficiencia energética já começa a pesar as chances são bem altas, por fim, o núcleo do Jaguar é muito pequeno, no lugar de um modulo do Bulldozer cabe entre 4 e 8 Jaguares com consumo seguindo mais ou menos a mesma proporção, mesmo não tendo sido projetado para isso ele pode acabar vencendo por acidente nos servidores devido ao maior número de núcleos.

    • Curtir 1
  7. Não é bem uma novidade, é? http://forum.clubedohardware.com.br/showpost.php?p=5816809&postcount=1885

    O núcleo do Jaguar é bem pequeno, podiam colocar 16 se quisessem, vai ver não acharam utilidade para os outros 8, e se aumentaram o número de núcleos da CPU por que não aumentariam o número de núcleos da GPU? Cabe uma HD7870 ali, o que vai limitar é o consumo mesmo, uns 960sps cabem direitinho ali em termos de custo e consumo.

    Sem querer ser chato mas repetindo mais uma vez, o Jaguar corre o risco de ficar melhor que o Bulldozer...

    • Curtir 1
  8. Mas claro que chegamos sim num ponto em que uma arquitetura não é 100% melhor que a anterior, como acontecia nos anos 80 e início dos 90. Só que dizer que não dá mais para melhorar eu acho uma afirmação um pouco pessimista demais e possivelmente/provavelmente irreal.

    O desmepenho não passa de "duplicar a cada dois anos" para "estagnação completa" de uma hora para outra, a queda no aumento é gradual, cada 1% de aumento no desempenho se torna cada vez mais difícil e cada vez mais caro, o resultado hoje é esse, ao invés dos 40% de aumento a cada ano de alguns anos atrás hoje é uns 10% de aumento a cada ano e azar de quem não gostar, as perspectivas para o futuro são que os aumentos de desempenho sejam ainda menores.

    E não, não é pessimismo, é a evolução natural de qualquer tecnologia, não adianta insistir no "dessa vez vai ser diferente".

    • Curtir 2
  9. Põe tenso nisso, e o pior é saber que a Intel já começaria a se remexer na cadeira se o FX-8350 fosse uns 10% melhor do que o Phenom II (edit - em single thread). Nesse ritmo, o Steamroller talvez seja 5% melhor do que o Vishera :rolleyes:

    Falando em "exceto em algumas situações", eu achei um post interessante (do Houndsteeth) no Tom's Hardware:

    http://www.tomshardware.com/forum/335263-28-intel-multi-tasking

    ***

    http://www.realworldtech.com/haswell-cpu/

    lá no final, a conclusão:

    "Overall, we estimate that a Haswell core will offer around 10% greater performance for existing software, compared to Sandy Bridge. For workloads using the new extensions, the gains could be significantly higher."

    Parece que eles entraram de vez na briga dos portáteis. Se o que eles estão falando é verdade, o Haswell talvez não traga o ganho que o Ivy Bridge teve sobre o Sandy Bridge, que já foi pouco.

    ***

    O Gol 2013 é muito melhor que o Gol 2012? Hum... 5% melhor? Não?

    Tecnologia é assim (todas elas), na infância os ganhos são grandes a cada nova geração, depois vem uma fase de maturidade onde os ganhos com cada nova geração são pequenos ou nulos, os semicondutores estão passando por essa fase agora, o Vishera não melhorour só isso porque a AMD não quis mais ou é incompetente, o Haswell não melhorou só isso porque a Intel é má ou or falta de concorrência, chegamos ao ponto do "não melhorou mais porque não da", se acostumem com essa nova fase, daqui pra frente os avanços serão mais devagar e não adianta chorar.

    ps: Estou sendo muito repetitivo nesse ponto?

    • Curtir 2
  10. Mas essa perda de 700Mhz não foi pela arquitetura nova? Será que se eles mantivessem uma arquitetura de núcleos separados eles não poderiam ganhar alguma coisa com um clock mais elevado, maior eficiência? Sei lá.

    Me referia ao Llano, não ao Bulldozer, do Phenom II para o Llano não houve mudança na arquitetura.

    Eu li uma matéria interessante sobre os Sandy Bridge, que os caras criaram uma distribuição muito boa (acho que de pipeline, não sei), e que a cada redução de die eles ganham mais espaço para expandir a capacidade de processamento.

    Link? Não existe nada de especial em relação ao Sandy Bridge.

    Talvez o calcanhar de aquiles da AMD seja a fábricação, porque eles sofreram para chegar aos 32nm enquanto a Intel já vai lançar a 2ª geração em 22nm. Aí fica difícil, porque os engenheiros da AMD devem estar tirando leite de pedra de um die que não "estica" a cada redução que não acontece.

    É o calcanhar de aquiles de todo mundo, inclusive da Intel, mas a Intel tem mais dinheiro para compensar.

    Esse ponto parece difícil do pessoal entender... A industria inteira está com dificuldade com novas litografias, inclusive a Intel, além da montanha de dinheiro a Intel não tem nada de mágico que vai livrar ela dos problemas que as outras passam e, esses problemas resultam em atrasos e peformance abaixo do esperado, mas são fatores relativos, como as outras tem mais atrasos e maior perda de performance a Intel parece imune porque, mesmo com problemas, continua se distanciando.

    Mas o mercado entusiasta não funcionaria como a F1 para a indústria automobilística?

    Não:

    1) Fabricar carros esportivos da dinheiro.

    2) Se não me engano Toyota e Volkswagen são as duas maiores fabricanets de automóveis do mundo, nenhuma das duas compete na F1, da mesma maneira, ficar de fora do mercado entusiasta pouco afetou as cotas de mercado da AMD nos ultimos anos, reduzir os preços tem funcionado bem.

    Os caras gastam milhões para ganhar um décimo de segundo sobre o adversário, mas o desenvolvimento acaba parando nos carros de linha, como foi o caso do freio ABS.

    ABS é proibido nas corridas...

    Mas o mercado automobilistico tem suas peculiaridades e, se for pensar, essas peculiaridades não se aplicam a informática, ao menos a componentes internos, já viu alguem pagar mais em um processador com bordas de plástico que fazem ele parecer um off-road?

    Eles devem tirar alguma coisa com essa corrida pelo desempenho em single thread, não?

    Acho que hoje, mais do que nunca, as empresas procuram por formas de aumentar o desempenho single-thread de forma econômica, mas "desempenho single-thread" não é um parâmetro único e nem fácil de obter.

  11. (off) Eu não entendo nada de arquitetura, mas um hipotético Phenom IV X8 1300T (já estaria na quarta geração) com 20% a mais de desempenho single threaded do que o 1100T

    Se você conseguir fazer um Phenom com 20% mais desempenho single-thread que o 1100T vende a ideia para a AMD, até agora tudo o que eles conseguiram foi perder 700MHz no die shrink.

    Sobre a arquitetura eu até compreendo ela, mas não consigo entender os testes de desempenho single thread já que ele é um processador modular onde um modulo aproveita 80% de cada núcleo.

    Os testes não deveriam medir o desempenho do modulo e não de apenas um núcleo?

    Ou o desempenho single thread em testes sintéticos já medem o desempenho do mesmo e o baixo rendimento tem algo relacionado com alguma falha no projeto?

    Espero que tenham me entendido.

    O nome teste diz tudo, "single thread", o número máximo de núcleos que podem ser usados por uma única thread é 1.

    Independente de como ele é reconhecido a única thread em funcionamento usa todos os recursos a qual tem acesso, mas são poucos.

    Como eu disse, eu não entendo disso, mas a questão é que o sistema operacional reconhece como octacore, porque ele foi projetado assim, então, na hora do benchmark, ele também vai isolar um núcleo, e não um módulo. Se ele tivesse sido projetado para ser reconhecido por módulos e cada módulo trabalhar como um núcleo, ele não poderia ser chamado de octacore, mas de quad-core. Também não sei se o desempenho iria melhorar.

    Ele era para ser reconhecido como quad core com SMT (para o que é visivel do software ele foi projetado assim), octacore é marketing, para um benchmark single-thread não faz diferença nenhuma como o SO reconhece ele, os patchs que a MS soltou em parte são para que ele seja tratado como quad core com SMT.

    Eu me arrisco a falar besteira de novo, mas o que parece ter sido comentado na época do lançamento do Bulldozer é que o fraco desempenho bruto (por núcleo) dos FX é porque o chip foi projetado para servidor - que usa melhor o paralelismo do que a força bruta -,

    O foco de fato era servidores, não atingir o clock planejado com os 32nm também atrapalhou.

    mas que de alguma maneira foi parar no mercado de desktop (não me pergunte por quê). Talvez eles não tivessem dinheiro para desenvolverem um chip de servidor e outro de desktop

    Ultimamente o preço médio dos processadores desktop que a AMD vendia era 50 dolares, a Intel 100 dolares, nos tempos de ouro a AMD conseguia uma média de 70 dolares.

    O FX é mais rápido que os processadores da Intel de 50 dolares? E de 70? E de 100?

    Se a resposta for sim para essas três perguntas então a AMD economizou uns 2 bilhões no desenvolvimento de um chip específico para desktops.

    E essa é a lógica, o mercado desktop não da dinheiro, o mercado entusiasta é pequeno demais, não da para focar eles, na minha opinião a total falta de foco como no caso do FX foi um erro, mas concordo que gastar bilhões apenas para atender uma parcela minúscula de um mercado pouco lucrativo não é uma boa opção.

    Então a estratégia da AMD foi, fazer um chip para servidores e depois vender ele em desktops.

    E se quer saber a Intel faz a mesma coisa.

    A AMD também tem o Bobcat/Jaguar feito para clientes (no sentido oposto a servidores) de baixo consumo que corre o risco de acabar sendo melhor que o FX... Mas ainda assim vai ser difícil de impressionar como desktop entusiasta.

    e tentaram fazer um curinga que acabou virando um dois de paus. O que assusta é que o FX-8350 roda "overclocado", a 4Ghz, e ainda assim não passou o Phenom II, e já é a 2ª geração.

    Esse é um dos pontos, o FX não roda overclocado, 4GHz é o normal dele, alias, é até baixo, mas a litografia não ajuda muito, cada estagio de pipeline no FX é 30% mais curto que o do Phenom II, o que proporciona um clock de 25% a 30% maior.

    • Curtir 1
  12. Irei fazer um update "em longo prazo" no meu PC (comprando peça por peça mês por mês) e pretendo começar com uma 6670 que futuramente ira ser parte de uma plataforma FM2 (A10 5800 ou A8 5600).

    Minha pergunta é se faz alguma diferença no Dual Graphics com a 7660D dos Trinity se a 6670 for GDDR5 ou DDR3, porque vi em reviews no youtube que a GDDR5 não faz diferença pois a APU usa DDR3, mas vi no google posts em forum recomendando pegar a 6670 GDDR5, que é bem mais cara...

    E agora? Quem esta com a verdade?

    Hybrid crossfire é um negócio maluco, quanto mais rápida a GPU dedicada mais rápida o "hybrid" funciona mesmo assim, acho uma fria, se o preço de processadores com e sem iGPU fossem o mesmo até vai, mas não é, um Athlon X4 é bem mais barato que uma APU então se for usar GPU dedicada compensa mais comprar uma GPU boa e uma CPU sem iGPU.

    GPUs boas hoje pode ser a partir das HD7750 ou GTX650.

  13. E mesmo que fossem 50 doletas mais barato, ainda acho que nao compensa, pois tenho que comprar uma vga a parte.

    Não entendo esse argumento, se é para ter um gráfico lixo que diferença faz o video ficar na CPU ou no chipset (AMD980G)?

    E com já haviam dito, tá na hora da AMD unificar logo essas linhas e fazer um APU com cpu forte, ai resulta mais interessante o negócio.

    Quer dizer, 8 núcleos e gráfico integrado?

    Não fazem hoje porque:

    1) O chip ficaria muito grande (hoje, pode mudar com futuros shrinks);

    2) A linha "CPU forte" é a linha de CPUs de servidores, não tem mercado para uma máscara exclusiva.

    Lembrando que a Intel faz a mesma coisa, com uma pataforma mainsstream com video integrado e a plataforma entusiasta que é a linha de servidor sem video integrado (ex: Core i7 3820), mas a Intel tem duas vantagens:

    1) Um video ruim, digo, pequeno sobrando mais espaço para CPU na plataforma mainstream;

    2) Litografia menor.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...