Ir ao conteúdo
  • Cadastre-se

Intel Atom - Tópico Oficial


EduardoS

Posts recomendados

Porque é barato e diferente... tem público que gosta da telinha pequena, do peso reduzido, da bateria que dura bem... se você for do time que busca desempenho sem dúvida vai penar um pouco com ele, mas se é só pra ver algo na net, digitar uma nota, usar como agenda, etc, é uma mão na roda devido à portabilidade.

Apenas "entusiastas" jogam R$1000 fora (em placa de vídeo ou quad-core) porque é diferente, e entusiastas não compram eeePCs.

Comprar por causa de bateria tudo bem, mas quem compra por causa de uma tela pequena? Compram porque É ÚTIL.

E se você vai jogar Crysis ou fazer renderização, então obviamente não compre um eeePC.

Se vai fazer transporte de cargas pesadas, não compre um Fiat Uno.

Não faz sentido usar um atom num notebook ou num desktop voltado para tarefas gerais, já que ele passa um perrengue com aplicações de escritório que são as mais simples, jogar, editar um vídeo, multitarefa, nem pensar...

No entanto as pessoas compram um eeePC para tarefas gerais... então não deve ser tão lento...

Quem compra eeePC para editar vídeos ou jogar?

A CPU do sistema toca um vídeo 720p mas não consegue rodar Word e Powerpoint, mandar email e navegar a Internet?

[]'s

DT

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

EDIT: Ah, o Nano parece que seria ideal pros eeePC ou para plataformas low power de mais recursos, como notebooks...

O Nano não é ideal para nada... Sério...

Então que adiassem a publicação do artigo até ter acesso à medição...

Acho que você não entendeu, não tem como, o processador é soldado a placa mãe e não tem acesso a linha de 12V.

Então porque compararam? Deviam incluir um ARM então, para humilhar o Atom e o Athlon.

Porque como a maioria das pessoas, eles ainda não entenderem a diferença entre um processador embutido, um Nano e um Atom.

E só o CPU da AMD custa 25% a mais que um Atom+placa-mãe.

E? Tem modelos mais baratos que esse ai, quem compra um desses não ta se importando muito com isso.

Um Athlon 2000+ de 1Ghz e 8W não compete diretamente com o Atom, no entanto um Athlon LE 1640 de 2.6Ghz e 45W compete?

O Atom será usado em um desktop e custara aproximadamente o mesmo? Então compete, se estiver tão preocupado assim com TDP só travar o CnQ do A64 que ele chega perto desses 8W ai.

Se um eeePC é seu único computador, realmente importa se ele é notebook ou desktop? Qual a diferença prática, fora a diferença no formato?

Se um PC de 300 dolares for meu único coputador o formato dele faz diferença sim, caso eu não precise da mobilidade vou comprar um desktop muito mais rápido.

Implementar OpenGL decentemente no seu driver já é difícil o bastante (veja a ATI), você realmente acha que a AMD teria condições de em poucos anos fazer DO NADA um GPU + os drivers para ele (que é BEM mais difícil) a ponto de concorrer com sucesso com NVidia, ATI ou Intel?

Veja a quanto tempo a Intel tenta fazer drivers decentes para seus GPUs mas não consegue direito...

A S3 de vez enquando lança novos chips, mas os drivers...

O único problema dessa teoria é que os drivers da ATI eram horríveis, o desempenho com OpenGL era patético, só ficaram realmente bons depois que a AMD fez a limpa por la.

A AMD comprou a ATI porque não porque não queria esperar, mas sim porque não podia nem tinha condições de fazer de outra forma.

Com 5 bilhões não da para pagar o desenvolvimento de uma placa de video?...

Olha que da viu... E se bobear fariam com 3 bilhões e lançariam antes do primeiro silício do Larrabee... Mas isso teria um problema, levariam ao menos 2 anos, o Puma demoraria ainda mais para sair, o mercado de GPUs teria três competidores e não teriam uma vantagem de tempo muito significativa sobre a Intel.

Mas neste segmento o que importa é o consumo em load.

Em note, net, e qualquer book que depende de uma bateria o que importa é o consumo IDLE porque é assim que o processador vai passar 99% do tempo, em desktops o consumo em load importa até certo ponto, uma TDP menor permite gabinetes menores, economia no cooler, VRM, etc, mas quando a TDP já é baixa reduzir ainda mais não traz tantos ganhos assim e muitos clientes podem não estar dispostos a sacrificar o desempenho em nome de alguns cm³ a menos, se o objetivo for reduzir a conta de luz o que vale é o consumo IDLE, e nem vale tanto assim que a energia elétrica é barata.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

A CPU do sistema toca um vídeo 720p mas não consegue rodar Word e Powerpoint, mandar email e navegar a Internet?

Tem sites que não consigo abrir com um celular, preciso de um PC razoável.

Mas isso não torna um celular com navegador inútil, não substitui o PC, não da para fazer tudo, mas é um ganho em mobilidade.

Se alguem decidisse pegar o celular e transformar em um desktop custando o mesmo que outros desktops de baixo custo ai sim seria completamente inútil, não haveria nada que eu pudesse fazer nele que eu não pudesse fazer no celular, e gastando o mesmo eu teria opções que me permitiriam fazer muito mais.

Link para o comentário
Compartilhar em outros sites

E? Tem modelos mais baratos que esse ai, quem compra um desses não ta se importando muito com isso.

Mais baratos e com 8W ou mais baratos e com 45W?

Claro que pelo mesmo preço você pode comprar um micro padrão mais rápido, mas estou me referindo a quando o TAMANHO do micro e a dissipação importam.

Quem compraria um AMD 8W não está se importanto com o consumo? Então vai e compra um CPU de 125W pelo mesmo preço?

O Atom será usado em um desktop e custara aproximadamente o mesmo? Então compete, se estiver tão preocupado assim com TDP só travar o CnQ do A64 que ele chega perto desses 8W ai.
Mas 8W em idle, o Atom gasta 3W em load.

Se um PC de 300 dolares for meu único coputador o formato dele faz diferença sim, caso eu não precise da mobilidade vou comprar um desktop muito mais rápido.

Eu me referia ao fato de que se é seu único computador, então provalvelmente o desempenho é suficiente.

Mas novamente, o TAMANHO e consumo do seu desktop.

E um eeeBOX, por exemplo, apesar de ser mais fraco, já vem com acessórios (WiFi, Bluetooth, etc) que precisam ser comprados separadamente em desktops normais.

O único problema dessa teoria é que os drivers da ATI eram horríveis, o desempenho com OpenGL era patético, só ficaram realmente bons depois que a AMD fez a limpa por la.

?!?!?!?!

Infelizmente não é teoria...

A Nvidia tem, desde os tempos da Riva128, a equipe da Silicon Graphics que FEZ o OpenGL, a Intel contratou para o Larrabee a equipe de OpenGL da 3DLabs, que dispensa apresentações, já a AMD tem o pessoal da ATI FireGL, que apesar de serem bons, não são tanto como os anteriores. E é impossível a AMD ter "feito a limpa" em tão pouco tempo, inclusive porque ele mesma não tem experiência com OpenGL.

O pessoal da ATI é melhor em hardware, e veio da compra da ArtX, que por sua vez era formada pelos engenheiros de hardware da Silicon Graphics, e por isso o aumento de desempenho em OpenGL (mas não em qualidade) da ATI ocorreu não por causa dos drivers, mas por causa de uma gambiarra no controlador de memória da família R500 em diante.

Com 5 bilhões não da para pagar o desenvolvimento de uma placa de video?...

Pode até dar, mas quanto tempo levaria? De onde viria o pessoal especializado? E o que aconteceria se eles falhassem?

Eles tiveram que pagar $5B pela ATI JUSTAMENTE porque não tinham opção... senão eles não pagariam tudo isso e fariam eles mesmos...

Olha que da viu... E se bobear fariam com 3 bilhões e lançariam antes do primeiro silício do Larrabee... Mas isso teria um problema, levariam ao menos 2 anos, o Puma demoraria ainda mais para sair, o mercado de GPUs teria três competidores e não teriam uma vantagem de tempo muito significativa sobre a Intel.
Se fosse tão fácil, rápido e barato então a Matrox, S3, Number9, Trident, entre outras, teriam hoje suas placas 3D no mercado, não é?

Em note, net, e qualquer book que depende de uma bateria o que importa é o consumo IDLE porque é assim que o processador vai passar 99% do tempo,

Sim, mas em idle o Atom ainda é melhor e em load mais ainda.

E mesmo que você use apenas Word e Internet, acho que a CPU não ficaria nem perto de 99% de ociosidade.

Tem sites que não consigo abrir com um celular, preciso de um PC razoável.
Seu celular não tem CPU de 1Ghz ou mais, nem 1GB ou mais de RAM, nem aceleração de vídeo, nem GBs de armazenamento.
Se alguem decidisse pegar o celular e transformar em um desktop custando o mesmo que outros desktops de baixo custo ai sim seria completamente inútil, não haveria nada que eu pudesse fazer nele que eu não pudesse fazer no celular, e gastando o mesmo eu teria opções que me permitiriam fazer muito mais.
E se o seu celular de amanhã usasse algo como o OMAP3530 em discussão no RWT, com 1Ghz e 512MB de RAM, acho que seria suficiente para rodar "Word for ARM" e navegar a internet, não seria?

E você não pode carregar seu desktop por aí, como seu celular.

Enfim, hoje o preço pode até não compensar, apesar da economia em tamanho (você não vai colocar um micro de 10W num gabinete padrão) e consumo, mas a miniaturização continua, e o hardware continua avançando mais rápido que a maioria das necessidades do software...

[]'s

DT

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Mais baratos e com 8W ou mais baratos e com 45W?

Pegue a versão de 45W e coloque a 1GHz.

Claro que pelo mesmo preço você pode comprar um micro padrão mais rápido, mas estou me referindo a quando o TAMANHO do micro e a dissipação importam.

Importa quanto? Alguem estaria disposto a sacrificar 60% do desempenho para ter um gabinete menor?

Quem compraria um AMD 8W não está se importanto com o consumo? Então vai e compra um CPU de 125W pelo mesmo preço?

Ok, eu deveria ter especificado o "isso", quem compra essa CPU de 8W é a IBM e a HP para colocar nos BladePCs deles, e o "isso" se refere ao preço de 100 dolares.

Mas 8W em idle, o Atom gasta 3W em load.

8W é TDP, em power-virus load a 1GHz, IDLE deve ficar entre 3W e 5W.

Mas novamente, o TAMANHO e consumo do seu desktop.

E um eeeBOX, por exemplo, apesar de ser mais fraco, já vem com acessórios (WiFi, Bluetooth, etc) que precisam ser comprados separadamente em desktops normais.

E quantos precisam desses acessórios?

Quanto ao tamanho, aos que estiverem dispostos a sacrificar 60% do desempenho um underclock resolve, quanto ao consumo é só deixar o CnQ habilitado.

?!?!?!?!

Infelizmente não é teoria...

A Nvidia tem, desde os tempos da Riva128, a equipe da Silicon Graphics que FEZ o OpenGL, a Intel contratou para o Larrabee a equipe de OpenGL da 3DLabs, que dispensa apresentações, já a AMD tem o pessoal da ATI FireGL, que apesar de serem bons, não são tanto como os anteriores. E é impossível a AMD ter "feito a limpa" em tão pouco tempo, inclusive porque ele mesma não tem experiência com OpenGL.

O pessoal da ATI é melhor em hardware, e veio da compra da ArtX, que por sua vez era formada pelos engenheiros de hardware da Silicon Graphics, e por isso o aumento de desempenho em OpenGL (mas não em qualidade) da ATI ocorreu não por causa dos drivers, mas por causa de uma gambiarra no controlador de memória da família R500 em diante.

Tenho uma R300 e vi a evolução... Alguns meses após a compra primeiro o CCC melhorou, depois o OpenGL, estabilidade, etc, a questão não tem nada a ver com a competência dos técnicos, é a política da empresa, o que priorizar quantos recursos dedicar a o que, etc. eles poderiam ter o melhor programador do mundo, se não dessem tempo e recursos suficientes para ele fazer bons drivers não sairia nada. Sinceramente, os diretores da ATI não levavam o negócio a sério, olha um pouco o antes e o depois, soft launchs, preços e porisiconamento de mercado, etc.

Pode até dar, mas quanto tempo levaria? De onde viria o pessoal especializado? E o que aconteceria se eles falhassem?

Da própria empresa, de universidades, do mercado, etc. Fazer uma GPU não é difícil.

Eles tiveram que pagar $5B pela ATI JUSTAMENTE porque não tinham opção... senão eles não pagariam tudo isso e fariam eles mesmos...

Já expliquei os motivos antes, nem tudo é devido a razões técnicas.

Se fosse tão fácil, rápido e barato então a Matrox, S3, Number9, Trident, entre outras, teriam hoje suas placas 3D no mercado, não é?

Qual era o tamanho de cada uma dessas empresas (tamanho real, não valor de mercado)? Quanto tinham pra investir? Tinham fábricas?

A AMD tinha mais estrutura que a ATI e nVidia juntas, tinha fábricas e muito dinheiro para investir, o problema era o cronograma desumano e o fato de que, se desenvolvessem sua prórpia GPU, além de concorrerem com a nVidia como é hoje tambem brigariam com a ATI.

Sim, mas em idle o Atom ainda é melhor e em load mais ainda.

E mesmo que você use apenas Word e Internet, acho que a CPU não ficaria nem perto de 99% de ociosidade.

Em IDLE a diferença cai pra menos de 2W, ainda não me convenceram nem que 5W são importantes.

95% de ociosidade ta bom? De um jeito ou de outro o consumo em load chega a ser irrelevante.

Seu celular não tem CPU de 1Ghz ou mais, nem 1GB ou mais de RAM, nem aceleração de vídeo, nem GBs de armazenamento.

A aceleração de video tem, mas voltando ao ponto, qualquer netbook ou celular é interessante porque tem algo que meu PC não tem, mobilidade, mas não fazem tudo que meu PC faz.

E se o seu celular de amanhã usasse algo como o OMAP3530 em discussão no RWT, com 1Ghz e 512MB de RAM, acho que seria suficiente para rodar "Word for ARM" e navegar a internet, não seria?

Com 400MHz já é, mas mesmo se tivesse 2000MHz ainda penaria em alguns pontos.

E você não pode carregar seu desktop por aí, como seu celular.

Sim, mas meu desktop faz muita coisa que o celular não fazem o EeePC, mas qual a vantagem de ter um celular ou EeePC que eu não consiga carregar por ai?

Enfim, hoje o preço pode até não compensar, apesar da economia em tamanho (você não vai colocar um micro de 10W num gabinete padrão) e consumo, mas a miniaturização continua, e o hardware continua avançando mais rápido que a maioria das necessidades do software...

Sim, por isso meu celular será capaz de fazer cada vez mais e em pouco tempo estarei falando com meu desktop...

Link para o comentário
Compartilhar em outros sites

Pegue a versão de 45W e coloque a 1GHz.

Se um Turion 2Ghz consome 25W, um CPU padrão de 2.xGhz e 45W vai consumir mais que o Turion em 1Ghz...

Importa quanto? Alguem estaria disposto a sacrificar 60% do desempenho para ter um gabinete menor?
Eu, bancas de jornais, bares, lojas, restaurantes, Lan-houses, laboratórios, grandes empresas onde o ambiente de trabalho individual é um cubículo menor que uma cela de cadeia, entre milhares de outros estabelecimentos comerciais. Sendo que um PC moderno padrão já é demais para todos esses casos.

Quanto ao tamanho, aos que estiverem dispostos a sacrificar 60% do desempenho um underclock resolve, quanto ao consumo é só deixar o CnQ habilitado.

Se fizer um underclock o tamanho continua o mesmo... (brincadeira, eu sei que você se referia ao consumo).

Mas sua fonte de 500W também continua a mesma, seus HDs de 3.5" e 7200rpm também, assim como sua placa de vídeo (opcional) e as 2 ou 3 ventoinhas presentes que ainda tem que girar.

Tenho uma R300 e vi a evolução... Alguns meses após a compra primeiro o CCC melhorou, depois o OpenGL, estabilidade, etc, a questão não tem nada a ver com a competência dos técnicos, é a política da empresa, o que priorizar quantos recursos dedicar a o que, etc. eles poderiam ter o melhor programador do mundo, se não dessem tempo e recursos suficientes para ele fazer bons drivers não sairia nada. Sinceramente, os diretores da ATI não levavam o negócio a sério, olha um pouco o antes e o depois, soft launchs, preços e porisiconamento de mercado, etc.

.

.

Da própria empresa, de universidades, do mercado, etc. Fazer uma GPU não é difícil.

.

.

Qual era o tamanho de cada uma dessas empresas (tamanho real, não valor de mercado)? Quanto tinham pra investir? Tinham fábricas?

A AMD tinha mais estrutura que a ATI e nVidia juntas, tinha fábricas e muito dinheiro para investir, o problema era o cronograma desumano e o fato de que, se desenvolvessem sua prórpia GPU, além de concorrerem com a nVidia como é hoje tambem brigariam com a ATI.

Cara... você realmente acha que ATI, NVidia, 3dfx e muitas outras empresas do passado são basicamente incompetentes e que a AMD magicamente faria mais e melhor em 1 ou 2 anos só porque tem uma Fab e $1bilhão a mais no banco (tinha, aliás), já que tudo seria apenas uma simples questão de alocação de recursos?

Você realmente acha que a diretoria da ATI (ex-Silicon Graphics) não levava o negócio a sério num mercado tão competitivo que tirou TODOS os outros 10 concorrentes do jogo?

A Matrox e ATI deviam valer mais no auge (pré-3D) do que a AMD vale agora (especialmente com o valor do dólar atual), além de serem líderes de mercado e terem mais KNOW-HOW (eis a questão) no assunto do que a AMD sem a ATI, mas ainda assim não conseguiram acompanhar o ritmo da Nvidia, que não tem Fabs... (e a ATI não teria conseguido sem o pessoal da SGI que fez o R300)...

Gente boa não dá em árvore... A Intel usou gente "das universidades" para fazer o Itanium1 (Merced), e olha o serviço... As equipes que desenvolvem há anos os drivers de vídeo dos chipsets da Intel são feitas de pessoal interno da Intel, e olha o serviço...

Já com o Larrabee eles contrataram o Michael Abrash e o pessoal da ex-3DLabs e ex-PowerVR justamente porque aprenderam que gente boa e com experiência não dá em árvore...

Os outros precisaram de mais de uma década de suor, lágrimas e experiência chegar ao que temos hoje, mas a AMD é diferente, tem "estrutura" (apesar de quase ser comprada à força pela nVidia)... e vai usar a equipe que comprou da Sun (que projetou o obsoleto Sparc2), contratar uns universitários sem muita experiência e magicamente projetar em 2 ou 3 anos uma GPU e **drivers** que competem de igual para igual com o melhor da ATI ou Nvidia... e tudo isso tendo 1/10 do pessoal e recursos da Intel...

95% de ociosidade ta bom? De um jeito ou de outro o consumo em load chega a ser irrelevante.
Mas se o usuário (como aquele meu avô) joga xadrez ou visita sites com applets Java ou Flash, e aí de repende a consumo em load passa a ter relevância...
A aceleração de video tem, mas voltando ao ponto, qualquer netbook ou celular é interessante porque tem algo que meu PC não tem, mobilidade, mas não fazem tudo que meu PC faz.
Não faz tudo, mas faz muita coisa útil (e cada vez mais)...

Assim como seu PC não faz tudo que um Superdome faz, mas isso não tira o mérito nem a utilidade do seu PC.

Com 400MHz já é, mas mesmo se tivesse 2000MHz ainda penaria em alguns pontos.

2Ghz não são suficientes para navegar a internet?

Este link, já postado no CdH, mostra um Via Nano rodando Crysis a 43FPS, mas no entanto um ARM ou Atom de 2Ghz não basta para navegar a internet e fazer outras coisas leves?

E o ARM já está disponível a 2Ghz (da Marvell) e consumindo 2W, que é o limite de dissipação em um celular.

Sim, por isso meu celular será capaz de fazer cada vez mais e em pouco tempo estarei falando com meu desktop...

Qual você acha que vai ocorrer (bem) antes, seu celular ficar mais rápido e capaz ou você falar fluentemente com seu desktop?...

Vamos apenas dizer que nós discordamos em quase tudo quanto à utilidade e necessidade dos micros low-power, e quanto às dificuldades de se projetar e manter uma GPU high-end e drivers competitivos.

[]'s

DT

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Se um Turion 2Ghz consome 25W, um CPU padrão de 2.xGhz e 45W vai consumir mais que o Turion em 1Ghz...

Acontece que o "x" na sentença é 7 e para obter esse clock maior teve aumento de tensão, então com aquela formulinha básica de forum de internet:

Turion 25W

2.0GHz * 1.25V² ~ 25W

1.0GHz * 1.10V² ~ 10W

Athlon 45W

2.7GHz * 1.35V² ~ 45W

1.0GHz * 1.10V² ~ 11W

A formula não é muito precisa, na prática os dois vão consumir um pouco menos que isso, mas a ideia aqui é só mostrar que, para criar o Turion ou mesmo o Athlon Embbeded de 8W o que a AMD fez basicamente foi um underclock e, se você quiser enfiar um Athlon 64 em um cubículo, basta fazer o mesmo.

Se fizer um underclock o tamanho continua o mesmo... (brincadeira, eu sei que você se referia ao consumo).

Mas sua fonte de 500W também continua a mesma, seus HDs de 3.5" e 7200rpm também, assim como sua placa de vídeo (opcional) e as 2 ou 3 ventoinhas presentes que ainda tem que girar.

Me referi ao underclock da forma, compre um Athlon 64, enfie ele em um cubículo e faça um underclock para não ter problemas com fornecimento de energia e aquecimento faça um underclock.

Cara... você realmente acha que ATI, NVidia, 3dfx e muitas outras empresas do passado são basicamente incompetentes e que a AMD magicamente faria mais e melhor em 1 ou 2 anos só porque tem uma Fab e $1bilhão a mais no banco (tinha, aliás), já que tudo seria apenas uma simples questão de alocação de recursos?

Você realmente acha que a diretoria da ATI (ex-Silicon Graphics) não levava o negócio a sério num mercado tão competitivo que tirou TODOS os outros 10 concorrentes do jogo?

A Matrox e ATI deviam valer mais no auge (pré-3D) do que a AMD vale agora (especialmente com o valor do dólar atual), além de serem líderes de mercado e terem mais KNOW-HOW (eis a questão) no assunto do que a AMD sem a ATI, mas ainda assim não conseguiram acompanhar o ritmo da Nvidia, que não tem Fabs... (e a ATI não teria conseguido sem o pessoal da SGI que fez o R300)...

Gente boa não dá em árvore... A Intel usou gente "das universidades" para fazer o Itanium1 (Merced), e olha o serviço... As equipes que desenvolvem há anos os drivers de vídeo dos chipsets da Intel são feitas de pessoal interno da Intel, e olha o serviço...

Já com o Larrabee eles contrataram o Michael Abrash e o pessoal da ex-3DLabs e ex-PowerVR justamente porque aprenderam que gente boa e com experiência não dá em árvore...

Os outros precisaram de mais de uma década de suor, lágrimas e experiência chegar ao que temos hoje, mas a AMD é diferente, tem "estrutura" (apesar de quase ser comprada à força pela nVidia)... e vai usar a equipe que comprou da Sun (que projetou o obsoleto Sparc2), contratar uns universitários sem muita experiência e magicamente projetar em 2 ou 3 anos uma GPU e **drivers** que competem de igual para igual com o melhor da ATI ou Nvidia... e tudo isso tendo 1/10 do pessoal e recursos da Intel...

Falei para não olhar só o valor de mercado...

As ações da AMD já valeram 42 dolares, hoje valem menos de 6, por causa dessa queda a AMD perdeu 6/7 da estrutura? Não, toda a estrutura continua lá, inalterada.

Quanto a compra pela nVidia, valor de mercado é uma coisa, valor para comprar uma empresa é outra, a nVidia nunca poderia nem sonhar com isso, as ações que estão a venda na bolsa por menos de 6 dolares não dão nem 5% das ações da AMD e, para controlar a empresa a nVidia precisaria 50%, os outros 45% precisariam ser negociados e pode apostar que seriam vendidos por bem mais que 6 dolares a ação (é por isso alias, que a AMD pagou mais pela ATI que o valor de mercado e a Microsoft de cara ofereceu muito mais que o valor de mercado pelo Yahoo), enfim, quem quiser comprar a AMD ja pode preparar um cheque de uns 10 bilhões.

Voltando, a estrutura da AMD em si, isso são as fabricas, laboratórios, funcionários, etc, e isso excede a estrutura da nVidia e da ATI juntas, talvez da para juntar Matrox, S3 e as outras concorrentes, fora grana para desenvolvimento, não lembro quando é que a nVidia pode desembolsar 5 bilhões de uma vez...

Agora o mercado de GPUs, será que a AMD e Intel estavam interessadas nele antes? A Intel tinha a linha de chipsets integrados (a AMD também, mas irrelevante) mas não ligava para as placas dedicadas antes delas provarem que serviam para FFTs, Intel e AMD não conseguiam entrar nesse mercado ou não queriam? Com 10 concorrentes e margens de lucro baixas acho que não queriam mesmo, e até recentemente a AMD tinha outras prioridades.

No caso do Larrabe, a Intel ta penando porque ta reinventado a roda, ou melhor, o jeito de se fazer GPUs, ao invés de garantir a compatibilidade com DirectX via hardware e deixar coisas complicadas como coerência para os drivers ela ta deixando a coerência no hardware, compatibilidade no software e ainda tentando deixar o hardware compatível com um x86, se tivessem um objetivo mais modesto do tipo "tem que rodar Crysis bem", já taria pronto e poderia até ser bom, para quem já faz processadores x86 a anos não é difícil fazer uma GPU, mas fazer uma GPU x86 com ótimo desempenho é difícil para qualquer um...

Mas se o usuário (como aquele meu avô) joga xadrez ou visita sites com applets Java ou Flash, e aí de repende a consumo em load passa a ter relevância...

Nesse caso um bom desempenho tambem é desejável, voltamos ao ponto inicial.

2Ghz não são suficientes para navegar a internet?

Este link, já postado no CdH, mostra um Via Nano rodando Crysis a 43FPS, mas no entanto um ARM ou Atom de 2Ghz não basta para navegar a internet e fazer outras coisas leves?

E o ARM já está disponível a 2Ghz (da Marvell) e consumindo 2W, que é o limite de dissipação em um celular.

Se for alguém como seu avô que joga Xadrex e acessa alguns sites feitos em flash e silverlight não, não basta.

Qual você acha que vai ocorrer (bem) antes, seu celular ficar mais rápido e capaz ou você falar fluentemente com seu desktop?...

Como para o celular ficar mais rápido só precisa melhorar 1%, o celular, mas você entendeu.

Link para o comentário
Compartilhar em outros sites

Tudo que a AMD tem a fazer para competir com a dissipação de energia de um Atom é pegar um Athlon, que já consome mais que um Core2Duo de 65nm, sem falar 45nm, e fazer um underclocking!

A AMD tem mais ou menos o mesmo tamanho e número de engenheiros que a ATI tinha no auge, mas não tem experiência em gráficos, mas ainda assim em 3 anos (e na primeira tentativa) vai fazer um GPU high-end e **drivers** que a ATI e nVidia quase não fizeram em 10 anos!

Com $5bilhões é possível fazer gente sem experiência aprender realmente rápido! E projetar a PRIMEIRA geração de um produto complexo e totalmente novo (e os **drivers**), e não apenas mais rápido mas também melhor que gente que faz isso a mais de 30 anos e em alguns casos, como a Silicon Graphics antigamente, tinha FAB própria, linha de CPUs própria (MIPS), tinham orçamentos ainda maiores e ajuda do governo americano!

A AMD leva cerca de 5 anos para projetar e fabricar uma arquitetura x86 nova, na qual ela já tem quase 30 anos de experiência, e ainda assim tem problemas, como no Barcelona, mas fazer uma GPU (com **drivers**) totalmente nova, com mesmo grau de complexidade leva apenas 2 anos, e sem experiência necessária! E dá certo na primeira vez! É só arrumar um pessoal e dar $5B para eles que eles tiram a Nvidia e ATI do mercado! É tudo um questão de estrutura, alocação de recursos e levar a coisa a sério!

A Intel tem 10x esses $5B mas não conseguiu fazer drivers decentes para seus chipsets até quando era do maior interesse dela (pós-3D), mas a AMD é diferente!

Bem, novamente, vamos apenas dizer que nós discordamos em quase tudo sobre micros low-power e GPUs (e **drivers**).

[]'s

DT

Link para o comentário
Compartilhar em outros sites

Tudo que a AMD tem a fazer para competir com a dissipação de energia de um Atom é pegar um Athlon, que já consome mais que um Core2Duo de 65nm, sem falar 45nm, e fazer um underclocking!

Em desktops... sim.

A AMD tem mais ou menos o mesmo tamanho e número de engenheiros que a ATI tinha no auge,

Fonte?

mas não tem experiência em gráficos, mas ainda assim em 3 anos (e na primeira tentativa) vai fazer um GPU high-end e **drivers** que a ATI e nVidia quase não fizeram em 10 anos!

O ciclo de desenvolvimento de processadores gráficos e drivers é bem mais curto do que 10 anos. Bem mais.

Com $5bilhões é possível fazer gente sem experiência aprender realmente rápido!

Com 5 Bilhões você contrata gente com experiência...

E projetar a PRIMEIRA geração de um produto complexo e totalmente novo (e os **drivers**), e não apenas mais rápido mas também melhor que gente que faz isso a mais de 30 anos e em alguns casos, como a Silicon Graphics antigamente, tinha FAB própria, linha de CPUs própria (MIPS), tinham orçamentos ainda maiores e ajuda do governo americano!

A SGI já teve fábrica própria? Fonte? E seu faturamento não era muito maior, considerando que eles tinham de desenvolver muito mais coisa eu chutaria por orçamentos para P&D menores.

A AMD leva cerca de 5 anos para projetar e fabricar uma arquitetura x86 nova, na qual ela já tem quase 30 anos de experiência, e ainda assim tem problemas, como no Barcelona, mas fazer uma GPU (com **drivers**) totalmente nova, com mesmo grau de complexidade leva apenas 2 anos, e sem experiência necessária!

Processadores gráficos são muito mais simples do que processadores x86.

A Intel tem 10x esses $5B mas não conseguiu fazer drivers decentes para seus chipsets até quando era do maior interesse dela (pós-3D), mas a AMD é diferente!

A divisão de gráficos integrados da Intel se duvidar nem meio bilhão tem.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Tudo que a AMD tem a fazer para competir com a dissipação de energia de um Atom é pegar um Athlon, que já consome mais que um Core2Duo de 65nm, sem falar 45nm, e fazer um underclocking!

Tudo o que a AMD tem que fazer para concorrer com o Atom desktop é um underclock no Athlon, do jeito que eles já fizeram e que a Intel poderia fazer, e fez, nos Core 2 Duo, Core Solo e Celeron M.

A AMD tem mais ou menos o mesmo tamanho e número de engenheiros que a ATI tinha no auge, mas não tem experiência em gráficos, mas ainda assim em 3 anos (e na primeira tentativa) vai fazer um GPU high-end e **drivers** que a ATI e nVidia quase não fizeram em 10 anos!

Quantos em que data? Pelo que eu tenho a AMD sempre teve mais engenheiros, acho que não vamos sair disso.

A AMD leva cerca de 5 anos para projetar e fabricar uma arquitetura x86 nova, na qual ela já tem quase 30 anos de experiência, e ainda assim tem problemas, como no Barcelona,

Uma arquitetura x86 é muito mais complexa que uma GPU, os problemas com o Barcelona não foram um bom exemplo, até o lançamento do Nehalem é a CPU x86 (não-x86 também?) mais complexa e levou 3 anos pra ficar pronto, teve o bug da TLB mas na contagem geral, saiu com menos bugs que o Core 2 ou mesmo o primeiro K-8, ao menos não foi do zero.

mas fazer uma GPU (com **drivers**) totalmente nova, com mesmo grau de complexidade leva apenas 2 anos, e sem experiência necessária! E dá certo na primeira vez! É só arrumar um pessoal e dar $5B para eles que eles tiram a Nvidia e ATI do mercado! É tudo um questão de estrutura, alocação de recursos e levar a coisa a sério!

- Primeiro a questão dos drivers que você ta dando tanta ênfase, essa é a parte fácil, vamos falar do projeto da GPU em si.

- Mesmo grau de complexidade? Não, uma GPU é muito mais simples.

- Na questão da experiência eles iriam suar, as funções fixas são as mais difíceis.

- Um cheque de $5B pra gráficos é grana pra c(*), o Jen-Hsun Huang nunca viu algo assim.

- Existe uma diferença entre "competir" e "tirar" a nVidia e ATI.

A Intel tem 10x esses $5B mas não conseguiu fazer drivers decentes para seus chipsets até quando era do maior interesse dela (pós-3D), mas a AMD é diferente!

Ok, a Intel tem 10x mais, mas quanto ela gasta para ter bons drivers? Se dessem $50B para o chefe do setor de gráficos ele faria drivers decentes e uma ótima IGP, mas a Intel nunca vai pagar isso porque não tem retorno, e até, dúvido que esse cara sonhe com os $5B pagos pela ATI.

Link para o comentário
Compartilhar em outros sites

Fonte?
Isso é pré-Internet...

A ATI tinha (ou ainda tem) equipes de R&D independentes no Canadá, EUA e Alemanha...

Acho que a arstechnica tem a história da aquisição da ArtX pela ATI, e de como "centenas" de engenheiros na ATI não conseguiriam competir com o ex-pessoal da SGI na Nvidia sem o (também) ex-pessoal da SGI na ArtX.

A Matrox tinha (a ainda tem) o melhor know-how em 2D, mas não conseguiu acompanhar o 3D...

E nenhuma destes empresas concorrentes eram muito grandes ou tinham FABs, por isso tamanho nunca fez diferença, que foi sempre o know-how. Até porque se fosse simples a Intel já teria GPUs decentes a muito tempo.

O ciclo de desenvolvimento de processadores gráficos e drivers é bem mais curto do que 10 anos. Bem mais.
E EXPERIÊNCIA se adquire e acumula por muito mais tempo que um ciclo de desenvolvimento de GPUs. Bem mais.
Com 5 Bilhões você contrata gente com experiência...

Gente com experiência já está contratada e ganhando bem em outros lugares, provavelmente fazendo coisas que as interessem...
A SGI já teve fábrica própria? Fonte? E seu faturamento não era muito maior, considerando que eles tinham de desenvolver muito mais coisa eu chutaria por orçamentos para P&D menores.
Precisa de fonte?!?!?

Digite "MIPS" e depois "Silicon Graphics" na wikipedia...

Processadores gráficos são muito mais simples do que processadores x86.
Em que um R700 ou G92 é mais simples que um CPU?

Eu tenho (link) um dos projetistas do PPro, P2, P3 e chefe do projeto P4 na Intel dizendo que GPUs estão ficando bem semelhantes a CPUs... em quem devo acreditar? (Ele fala isso no final durante as perguntas)

A divisão de gráficos integrados da Intel se duvidar nem meio bilhão tem.
Fonte?

[]'s

DT

Link para o comentário
Compartilhar em outros sites

Isso é pré-Internet...

Então o auge do número de engenheiros da ATI ocorreu antes da criação da Internet... nossa, quem diria?

A ATI tinha (ou ainda tem) equipes de R&D independentes no Canadá, EUA e Alemanha...

E? A AMD tem equipes em um monte de lugares também.

E nenhuma destes empresas concorrentes eram muito grandes ou tinham FABs, por isso tamanho nunca fez diferença, que foi sempre o know-how. Até porque se fosse simples a Intel já teria GPUs decentes a muito tempo.

Pois é, o mercado de processadores gráficos de alto nível é pequeno demais para conter empresas maiores.

E EXPERIÊNCIA se adquire e acumula por muito mais tempo que um ciclo de desenvolvimento de GPUs. Bem mais.

Com certeza. Por isso, a AMD iria usar os cinco bilhões para contratar gente que tivesse essa experiência... ou iria arriscar.

Gente com experiência já está contratada e ganhando bem em outros lugares, provavelmente fazendo coisas que as interessem...

1- Empresas falem.

2- Empresas são compradas.

3- Pessoas saem de empresas.

Precisa de fonte?!?!?

Digite "MIPS" e depois "Silicon Graphics" na wikipedia...

Te garanto que a SGI nunca teve uma fábrica moderna de CIs nas mãos. Se você não acredita em mim, pergunte pro John Mashey.

Em que um R700 ou G92 é mais simples que um CPU?

No fato de que a certificação dela demora algumas semanas? Ou no fato de que a arquitetura dela é mal definida (isto se é definida)? No fato de que ela não executa fora de ordem? Ou no fato de que ela não é x86? Ou no fato de que ela é desenvolvida com técnicas de circuito simples?

Eu tenho (link) um dos projetistas do PPro, P2, P3 e chefe do projeto P4 na Intel dizendo que GPUs estão ficando bem semelhantes a CPUs... em quem devo acreditar? (Ele fala isso no final durante as perguntas)

E em que isso implica em complexidade? Aliás, o vídeo não está abrindo aqui, quem é o cara? Bob Colwell?

Fonte?

Se eu tivesse, não escreveria se duvidar...

Link para o comentário
Compartilhar em outros sites

Quantos em que data? Pelo que eu tenho a AMD sempre teve mais engenheiros, acho que não vamos sair disso.

967,25. Em 23 de abril de 1993, as 15:34 da tarde. Quer os nomes?

Tanto a ATI como a AMD tiveram 2 equipes de R&D para hardware por muito tempo... e a ATI tinha uma só para drivers profissionais (FireGL)...

Uma arquitetura x86 é muito mais complexa que uma GPU, os problemas com o Barcelona não foram um bom exemplo, até o lançamento do Nehalem é a CPU x86 (não-x86 também?) mais complexa e levou 3 anos pra ficar pronto

O K10 é uma extensão do K8, que é uma extensão do K7... sendo que todos os 3 tiveram atrasos...

Veja o vídeo no último link no meu post anterior. O site também tem videos com o pessoal da AMD, ou outros sobre GPUs.

- Primeiro a questão dos drivers que você ta dando tanta ênfase, essa é a parte fácil, vamos falar do projeto da GPU em si.

É por isso que o drivers da Intel e S3 são tão bons...

É por isso que os drivers Linux e OpenGL da ATI são tão bons...

A própria 3dfx, que criou esse mercado, tinha drivers ruins...

A Nvidia cobra mais numa Quadro mais pelos drivers do que pelo hardware...

Veja a história da 3DLabs...

É, vamos mudar de assunto...

- Mesmo grau de complexidade? Não, uma GPU é muito mais simples.

- Na questão da experiência eles iriam suar, as funções fixas são as mais difíceis.

- Um cheque de $5B pra gráficos é grana pra c(*), o Jen-Hsun Huang nunca viu algo assim.

- Existe uma diferença entre "competir" e "tirar" a nVidia e ATI.

A nVidia tem 1.81 bilhões no banco (link), sem falar ações... e uma GPU top de linha já pronta...

E a AMD JAMAIS gastaria $5B no projeto de uma GPU (e se colocaria débito absurdo atual, negando verba até para os projetos x86)... ela pagou isso porque não tinha escolha...

Novamente, veja a palestra do Bob Colwell linkada no post anterior ou outras sobre GPUs no mesmo site. GPUs não são fazem mais apenas rasterização...

Ok, a Intel tem 10x mais, mas quanto ela gasta para ter bons drivers? Se dessem $50B para o chefe do setor de gráficos ele faria drivers decentes e uma ótima IGP, mas a Intel nunca vai pagar isso porque não tem retorno, e até, dúvido que esse cara sonhe com os $5B pagos pela ATI.

Mas se fazer drivers é tão fácil com você fala então não sairia caro... e eles usariam o mesmo pessoal para fazer o Larrabee...

Você fala que dinheiro é tudo no entanto as empresas que você chama de pequenas (ATI e Nvidia) tem drivers bem melhores que a empresa grande... sendo que a ATI nem sequer "levava a sério" o negócio...

E a Intel gastou $10B apenas no projeto Gelato para IA64... Eles tem mais projetos paralelos internos do que os codinomes que esses fóruns discutem...Eles tem em média $1.3B (falando de memória) de LUCRO a cada 3 meses... e vêm tendo lucros absurdos em TODOS os trimestres em TODA sua história, NUNCA tendo prejuízo...

...mas no entanto são pão-duros nos drivers para chipsets gráficos... e justamente por isso perdem ainda MAIS dinheiro na boa parte do mercado de chipsets onboard que eles perdem para ATI e Nvidia... faz sentido...

[]'s

DT

Link para o comentário
Compartilhar em outros sites

E? A AMD tem equipes em um monte de lugares também.

Onde?

Pois é, o mercado de processadores gráficos de alto nível é pequeno demais para conter empresas maiores

AMD e Intel são micro-empresas...

Com certeza. Por isso, a AMD iria usar os cinco bilhões para contratar gente que tivesse essa experiência... ou iria arriscar.

Ninguém gasta $5B e se coloca em -$3B para criar uma GPU... de deixa o lado x86 sem verba...

Te garanto que a SGI nunca teve uma fábrica moderna de CIs nas mãos. Se você não acredita em mim, pergunte pro John Mashey.

Salve a USENet. Bons tempos.

Mas os supercomputadores e workstations da SGI estavam entre os mais rápidos porque a fábrica dos chips era obsoleta... eles vendiam mais pro governo e pros militares porque eram obsoletos...

No fato de que a certificação dela demora algumas semanas? Ou no fato de que a arquitetura dela é mal definida (isto se é definida)? No fato de que ela não executa fora de ordem? Ou no fato de que ela não é x86? Ou no fato de que ela é desenvolvida com técnicas de circuito simples?

E daí que não é x86? E daí que não executa fora de ordem? Um POWER6 também não executa fora de ordem e nem por isso é simples... E pelo menos até o POWER4 ou 5 a IBM também usava as "técnicas de circuito simples", quase sem lógica customizada, e daí?

Você pode rodar jogos DX6 no seu SO e placa DX10 porque a arquitetura (e **drivers**) é mal definida...

Já estão implementando ECC, DP FP compatível com IEEE754...

O próprio engenheiro da Intel fala isso mas não é suficiente...

E em que isso implica em complexidade? Aliás, o vídeo não está abrindo aqui, quem é o cara? Bob Colwell?

Eu apenas tendo a dar credibilidade ao projetista do Pentium Pro, Pentium 2, Pentium 3 e chefe do projeto Pentium4 quando ele fala que GPUs estão evoluindo...

http://www.stanford.edu/class/ee380/

[]'s

DT

Link para o comentário
Compartilhar em outros sites

Onde?

Austin, Fort Collins, Sunnyvale, Boxborough. Esses no EUA.

Impressionante como é simples digitar www.amd.com e dar uma olhada no site de carreiras da AMD procurando títulos como "Sr Design Engineer" :).

AMD e Intel são micro-empresas...

Em termos de faturamento, sim, se considerarmos micro-empresa qualquer coisa que não venda petróleo, carros, computadores ou tudo. Em termos de lucro, a Intel decididamente não é. Em termos de prejuízo, a AMD talvez também não...

Ninguém gasta $5B e se coloca em -$3B para criar uma GPU... de deixa o lado x86 sem verba...

Avise isso para a AMD.

Salve a USENet. Bons tempos.

Mas os supercomputadores e workstations da SGI estavam entre os mais rápidos porque a fábrica dos chips era obsoleta... eles vendiam mais pro governo e pros militares porque eram obsoletos...

E daí se a fábrica era obsoleta ou não, o fato é que não era deles. Ah, os supercomputadores e estações da SGI não eram mais rápidos por causa do microprocessador, que, esse sim, ficou obsoleto durante um bom período.

E daí que não é x86?

X86 é complicada de implementar em um processador rápido.

E daí que não executa fora de ordem?

Execução fora de ordem é complicada de implementar em qualquer coisa.

Um POWER6 também não executa fora de ordem e nem por isso é simples...

Muita gente têm uma assinatura do tipo "Pesquise antes de postar.", como você parece ter recursos aconselho a lê-las. E comparar uma coisa tipo um POWER6 com um monte de FMACs e lógica de função fixa é complicado... qual é, o POWER6 é bem mais complicado, só olhar o tamamnho de cada núcleo e o tempo e recursos que gastaram para fazê-lo.

E pelo menos até o POWER4 ou 5 a IBM também usava as "técnicas de circuito simples", quase sem lógica customizada, e daí?

Existe uma grande diferença entre as técnicas de circuito de um POWER5 e de um processador gráfico ATI ou nVidia pré-8800, talvez até pós-8800. E te garanto que as ferramentas IBM são um pouco mais agressivas... e o processo é muito mais.

Você pode rodar jogos DX6 no seu SO e placa DX10 porque a arquitetura (e **drivers**) é mal definida...

Arquitetura=Arquitetura+Driver? Isso funciona em programação... Ou você acha que a minha GeForce 6150 roda o mesmo código que a GeForce GTX280 do colega de pensão? Arquitetura.

Se for por drivers no limite quase tudo é x86. Aliás, eu sou x86. Meio lerdo...

Já estão implementando ECC, DP FP compatível com IEEE754...

Compatível com IEEE754 é realmente complicado (nem sei se elas são totalmente, acho que não mas deixe pra lá), ECC e DP FP também não.

O próprio engenheiro da Intel fala isso mas não é suficiente...

O cara passa a vida toda trabalhando projetando microprocessadores e vira "engenheiro da Intel"...

Ele disse que elas estão ficando cada vez mais parecidas com CPUs. Pois é, se você der tempo eu, você ou o EduardoS também projetam uma CPU... aliás, turminhas saídas da faculdade há alguns anos projetavam coisa competitiva.

Isso não quer dizer nada sobre a complexidade relativa de um MIPS16 ou RISC-I em relação a um x86 atual, não é? O fato de ser uma CPU (eu tenho a ligeira impressão de que uma GPU atual já cruzou essa barreira, embora de forma pouco prática) não significa que seja tão ou mais complexo do que um x86 da Intel ou AMD.

Eu apenas tendo a dar credibilidade ao projetista do Pentium Pro, Pentium 2, Pentium 3 e chefe do projeto Pentium4 quando ele fala que GPUs estão evoluindo...

Eu também. E nem é porque seja o Bob Colwell, se o equivalente a mim em conhecimento dissesse isso eu também dava crédito. Porque é verdade.

Aliás, o Bob Colwell chefiou o projeto do PPro também.

Enfim, acho melhor parar por aqui, eu estou começando a me passar e falar ainda mais besteira. Se quiser discutir mais podemos usar outro meio.

Aliás, você disse que não faz sentido a Intel não se importar com a qualidade de seus drivers para vídeo integrado. Por quê? Eles rodam CS :). Para o mercado em questão, isso já é muito bom. Se rodar HL2 no Low então...

OBS: Obrigado pelo link dos vídeos, eu já tinha acessado o site algumas vezes mas não tinha conseguido ver nada, vamos ver se agora consigo... o duro vai ser conseguir assistir tudo, eu sou dispersivo demais...

Link para o comentário
Compartilhar em outros sites

Impressionante como é simples digitar www.amd.com e dar uma olhada no site de carreiras da AMD procurando títulos como "Sr Design Engineer" :).

E mais uma em Boston...

Agora, todas elas são totalmente independentes? Cada uma tem autonomia para fazer um CPU distinto, se precisar, ou não? Alguma delas veio da ATI?

E ainda mais fácil era digitar SGI ou MIPS na wiki...

Em termos de faturamento, sim, se considerarmos micro-empresa qualquer coisa que não venda petróleo, carros, computadores ou tudo. Em termos de lucro, a Intel decididamente não é. Em termos de prejuízo, a AMD talvez também não...

Huh?

OK, sua definição é diferente da do resto das pessoas.

Avise isso para a AMD.

Céus...

A AMD gastou $5B para PROJETAR um GPU do NADA, ou gastou $5B PARA COMPRAR UMA EMPRESA QUE JÁ TINHA O GPU, DRIVERS E INFRAESTRUTURA PRONTOS, DESTA FORMA ELIMINANDO OS RISCOS?

E daí se a fábrica era obsoleta ou não, o fato é que não era deles. Ah, os supercomputadores e estações da SGI não eram mais rápidos por causa do microprocessador, que, esse sim, ficou obsoleto durante um bom período.

Antes era obsoleta, agora e daí se não era mais...

A MIPS não foi da SGI e não tinha uma FAB? Se é fato cite a fonte, por favor. Que eu saiba apenas o Sparc era feito pela TI, o resto tinha FAB.

E me diga porque uma workstation SGI single socket do passado era muito mais rápida que um PC? Especialmente em FP.

Hoje obviamente MIPS é obsoleto e fabless. Mas x86 foi melhorar com o P6 em 1995, antes disso era uma piada...

X86 é complicada de implementar em um processador rápido.

Mas uma GPU não...

Quase ninguém acompanhou a Nvidia porque é trivial fazer uma GPU (e *drivers*) rápida...

Execução fora de ordem é complicada de implementar em qualquer coisa.

No entanto a próxima geração do chip do seu celular será fora de ordem e quad-core... (Cortex A9 MPCore)

Muita gente têm uma assinatura do tipo "Pesquise antes de postar.", como você parece ter recursos aconselho a lê-las. E comparar uma coisa tipo um POWER6 com um monte de FMACs e lógica de função fixa é complicado... qual é, o POWER6 é bem mais complicado, só olhar o tamamnho de cada núcleo e o tempo e recursos que gastaram para fazê-lo.

Você falou que EXECUÇÃO FORA DE ORDEM era sinônimo de complexidade, mas agora tem que incluir outros fatores?

E tamanho é documento?

O que é "lógica de função fixa", que até mencionaram em posts anteriores como estando presente em GPUs?

GPUs atuais são programáveis no entanto são simples?

O conjunto GPU+drivers na prática é um computador em si, que pouquíssimas empresas conseguem fazer direito e rápido, mas no entanto é simples...

Existe uma grande diferença entre as técnicas de circuito de um POWER5 e de um processador gráfico ATI ou nVidia pré-8800, talvez até pós-8800. E te garanto que as ferramentas IBM são um pouco mais agressivas... e o processo é muito mais.

A IBM usa FAB própria, já as outras usam a TSMC. Fora isso, as células são padrões (POWER4 e 5). A IBM não customiza(va) como na Intel ou AMD.

Arquitetura=Arquitetura+Driver? Isso funciona em programação... Ou você acha que a minha GeForce 6150 roda o mesmo código que a GeForce GTX280 do colega de pensão?

Sim amigo, se sua GPU roda DENTRO de um PC x86 e SOB outro sistema operacional, então obviamente a arquitetura engloba a GPU e os drivers...

Uma GeForce 8,9 e "10" (e futuras) tem que rodar CUDA, não tem?

O cara passa a vida toda trabalhando projetando microprocessadores e vira "engenheiro da Intel"...

Aff...

Se ele é engenheiro, trabalhou 15 anos na Intel, e fez o PPro, P2, P3 e P4, o que isso faz dele?

Ele disse que elas estão ficando cada vez mais parecidas com CPUs. Pois é, se você der tempo eu, você ou o EduardoS também projetam uma CPU... aliás, turminhas saídas da faculdade há alguns anos projetavam coisa competitiva.

CARA......

Então PORQUÊ a AMD gastou $5B para comprar a ATI se podia pagar baratinho para qualquer "turminha" saída da universidade e fazer algo competitivo?

A HP tem uma piada interna: o Itanium1 da Intel foi aquele lixo porque era o resultado do trabalho de 500 engenheiros com 2 anos de experiência. Já o Itanium2 da HP foi bem melhor porque era o resultado do trabalho de 50 engenheiros com 20 anos de experiência...

O Bob Colwell fala que GPUs estão ficando parecidas com CPUs, mas apenas as CPUs são complexas?

Isso não quer dizer nada sobre a complexidade relativa de um MIPS16 ou RISC-I em relação a um x86 atual, não é?

Claro... um é RISC, o outro é CISC sobre RISC...

Um é 16 bits dos anos 80, o outro é 64bits de 2008...

Você não vê diferença?

Eu também. E nem é porque seja o Bob Colwell, se o equivalente a mim em conhecimento dissesse isso eu também dava crédito. Porque é verdade.

Então porque nós tivemos que ter essa discussão sem fim se é verdade?

Bastava olhar as palestras na ATI e Nvidia no mesmo link para ver como GPUs modernas são simples e feitas por qualquer turminha.

Aliás, o Bob Colwell chefiou o projeto do PPro também.

Como dito em 2 posts anteriores.

Aliás, você disse que não faz sentido a Intel não se importar com a qualidade de seus drivers para vídeo integrado. Por quê? Eles rodam CS :). Para o mercado em questão, isso já é muito bom. Se rodar HL2 no Low então...

Ninguém se importa com aceleração de vídeo neste mercado... ou 3D...

Só que a concorrência faz isso e muito mais...

Mas concordo com você que esta discussão já bastou.

[]'s

DT

Link para o comentário
Compartilhar em outros sites

Antes era obsoleta, agora e daí se não era mais...

A MIPS não foi da SGI e não tinha uma FAB? Se é fato cite a fonte, por favor. Que eu saiba apenas o Sparc era feito pela TI, o resto tinha FAB.

É meio difícil achar uma citação oficial a respeito: a MIPS R10kx morreu já há um bom tempo. Mas...

http://groups.google.com.br/group/comp.arch/msg/15d2f41ec1f3d2b9?hl=pt-BR

http://groups.google.com.br/group/comp.arch/msg/bd331803d18c5ca3?hl=pt-BR

http://groups.google.com.br/group/comp.arch/msg/d392b319cc7c294a?hl=pt-BR

Isso é suficiente? Se não for, posso procurar mais.

E me diga porque uma workstation SGI single socket do passado era muito mais rápida que um PC? Especialmente em FP.

Hoje obviamente MIPS é obsoleto e fabless. Mas x86 foi melhorar com o P6 em 1995, antes disso era uma piada...

A comparação é obviamente com PA-RISCs, Alphas, SPARCs e POWERs.

Você falou que EXECUÇÃO FORA DE ORDEM era sinônimo de complexidade, mas agora tem que incluir outros fatores?

http://www.research.ibm.com/journal/rd/516/le.html.

Pesquise "out of order execution".

O que é "lógica de função fixa", que até mencionaram em posts anteriores como estando presente em GPUs?

Lógica não-programável.

GPUs atuais são programáveis no entanto são simples?

Zuse Z3.

A IBM usa FAB própria, já as outras usam a TSMC. Fora isso, as células são padrões (POWER4 e 5). A IBM não customiza(va) como na Intel ou AMD.

http://www.research.ibm.com/journal/rd/461/warnock.html

Sim amigo, se sua GPU roda DENTRO de um PC x86 e SOB outro sistema operacional, então obviamente a arquitetura engloba a GPU e os drivers...

Prefiro nem comentar a respeito dessa...

Uma GeForce 8,9 e "10" (e futuras) tem que rodar CUDA, não tem?

Java, C, C++, CUDA, FORTRAN...

Então PORQUÊ a AMD gastou $5B para comprar a ATI se podia pagar baratinho para qualquer "turminha" saída da universidade e fazer algo competitivo?

"Pois é, se você der tempo eu, você ou o EduardoS também projetam uma CPU... aliás, turminhas saídas da faculdade há alguns anos projetavam coisa competitiva."

Claro... um é RISC, o outro é CISC sobre RISC...

Nenhum x86 (pouco provável exceção a K5) é CISC sobre RISC.

Um é 16 bits dos anos 80, o outro é 64bits de 2008...

Você não vê diferença?

Claro que vejo.

Então porque nós tivemos que ter essa discussão sem fim se é verdade?

"... GPUs estão evoluindo...".

"... uma GPU (com **drivers**) totalmente nova, com mesmo grau de complexidade..."

Grande diferença.

Bastava olhar as palestras na ATI e Nvidia no mesmo link para ver como GPUs modernas são simples e feitas por qualquer turminha.

Não precisa nem fazer isso.

Como dito em 2 posts anteriores.

"... um dos projetistas do PPro, P2, P3 e chefe do projeto P4 na Intel..."

Ninguém se importa com aceleração de vídeo neste mercado... ou 3D...

Só que a concorrência faz isso e muito mais...

Se ninguém se importa...

Mas concordo com você que esta discussão já bastou.

Concordo também.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Vamos continuar de cabeça fria...

E nenhuma destes empresas concorrentes eram muito grandes ou tinham FABs, por isso tamanho nunca fez diferença, que foi sempre o know-how.

Quando foi destinado verba ao desenvolvimento de GPUs? Até recentemente a resposta é "nunca", por um motivo simples, esse mercado é concorrido demais e da lucro de menos.

Até porque se fosse simples a Intel já teria GPUs decentes a muito tempo.

Acho que já ta na hora de separar a Intel da divisão gráfica da Intel, a primeira tem muito dinheiro e pode torrar 10 bilhões no fracasso do Itanium, a segunda tem que se virar com uma verba limitada e fatura pouco, não recebe mais porque fatura pouco e não tem perspectiva de retorno.

Em que um R700 ou G92 é mais simples que um CPU?

Eu tenho (link) um dos projetistas do PPro, P2, P3 e chefe do projeto P4 na Intel dizendo que GPUs estão ficando bem semelhantes a CPUs... em quem devo acreditar? (Ele fala isso no final durante as perguntas)

Mas ele disse que GPUs estão ficando parecidas com CPUs por causa da complexidade ou pelo fato de serem programáveis? E mesmo que sejam parecidas com CPUs devido a complexidade, é parecida com um Barcelona ou com um 4004?

A propósito Thiago, quantas semanas demoraram para fazer o 4004?

967,25. Em 23 de abril de 1993, as 15:34 da tarde. Quer os nomes?

Não precisa, e nem vou veririficar a veracidade da afirmação, pela data da para ver que isso é irrelevante para a discussão, a AMD já possuia uma GPU mais avançada que essa data antes de comprar a ATI...

Tanto a ATI como a AMD tiveram 2 equipes de R&D para hardware por muito tempo... e a ATI tinha uma só para drivers profissionais (FireGL)...

E o tamanho das equipes?

O K10 é uma extensão do K8, que é uma extensão do K7... sendo que todos os 3 tiveram atrasos...

Pelos prazos estipulados o estranho seria não atrasar...

E é uma extensão relativamente complexa.

É por isso que o drivers da Intel e S3 são tão bons...

É por isso que os drivers Linux e OpenGL da ATI são tão bons...

A própria 3dfx, que criou esse mercado, tinha drivers ruins...

A Nvidia cobra mais numa Quadro mais pelos drivers do que pelo hardware...

Veja a história da 3DLabs...

É, vamos mudar de assunto...

De novo, quanto a Intel investe para ter bons drivers?

Chegou a conhecer os drivers da ATI pré-AMD? Principalmente os de Linux e OpenGL? E os depois?

A nVidia tem 1.81 bilhões no banco (link), sem falar ações... e uma GPU top de linha já pronta...

Não é por nada, mas dinheiro no banco são 700 milhões. Não que ter muito dinheiro no banco seja bom, claro.

E a AMD JAMAIS gastaria $5B no projeto de uma GPU (e se colocaria débito absurdo atual, negando verba até para os projetos x86)... ela pagou isso porque não tinha escolha...

Quando a AMD bateu o martelo quanto a compra da ATI eles imaginavam que a transição dos 90nm para os 65nm traria o mesmo ganho que teve dos 130nm para os 90nm, sem saber que não conseguiriam metade disso, não tinham com o que se preocupar.

Novamente, veja a palestra do Bob Colwell linkada no post anterior ou outras sobre GPUs no mesmo site. GPUs não são fazem mais apenas rasterização...

Realmente, e isso não as torna mais complexas que CPUs x86 fora de ordem, etc.

Mas se fazer drivers é tão fácil com você fala então não sairia caro... e eles usariam o mesmo pessoal para fazer o Larrabee...

Se não usaram o mesmo pessoal para fazer o Larrabee então acho que já podemos concluir que não tem muitas pessoas fazendo o GMA certo? Forte sinal de baixos investimentos.

Você fala que dinheiro é tudo no entanto as empresas que você chama de pequenas (ATI e Nvidia) tem drivers bem melhores que a empresa grande... sendo que a ATI nem sequer "levava a sério" o negócio...

Só que a empresa grande dedica muito pouco a sua pequena divisão de gráficos e se torna uma anã perto das outras duas, e sem entrar no mértio das comparações, mas os drivers da pequena divisão eram mais estáveis que das duas empresas pequenas, em especial de uma delas no período pré-2006 e da outra no período pós-Vista, não por acaso, 99% dos clientes da pequena divisão não se importam com desempenho OpenGL, mas choram se o driver travar. Uma das empresas pequenas só conseguiu drivers realmente bons depois de não ser mais uma empresa pequena.

E a Intel gastou $10B apenas no projeto Gelato para IA64... Eles tem mais projetos paralelos internos do que os codinomes que esses fóruns discutem...Eles tem em média $1.3B (falando de memória) de LUCRO a cada 3 meses... e vêm tendo lucros absurdos em TODOS os trimestres em TODA sua história, NUNCA tendo prejuízo...

No caso do IA64 existia mercado, existia margens de lucro, eles imaginavam recuperar todo esse investimento logo no primeiro ano então o investimento era justificável...

...mas no entanto são pão-duros nos drivers para chipsets gráficos... e justamente por isso perdem ainda MAIS dinheiro na boa parte do mercado de chipsets onboard que eles perdem para ATI e Nvidia... faz sentido...

...no caso do mercado gráfico o mercado é pequeno e as margens de lucro ainda menores, fica difícil gastar $1B para melhorar a GMA.

E com o cliente usando video dedicado da ATI e da nVidia a Intel vende o chipset do mesmo jeito, melhorar o IGP não vai mudar isso.

Ninguém gasta $5B e se coloca em -$3B para criar uma GPU... de deixa o lado x86 sem verba...

Hoje a AMD ainda tem 1.3Bi no banco (seguindo os mesmos critérios dos 700 milhões da nVidia) e, apesar de todo o prejuízo, ainda ta no verde, se tudo corresse como eles imaginavam teriam ainda mais, mas o que importa, eles tinham o dinheiro e precisavam imediatamente de uma plataforma para conseguir vender notebooks, precisam ter presença imediata no mercado tanto de chipsets quanto video, "novidade daqui a dois anos" e "concorrendo com antigos parceiros" não servia.

E daí que não é x86? E daí que não executa fora de ordem? Um POWER6 também não executa fora de ordem e nem por isso é simples... E pelo menos até o POWER4 ou 5 a IBM também usava as "técnicas de circuito simples", quase sem lógica customizada, e daí?

Ok, você citou uma das poucas ou talvez, a única empresa que gasta mais com P&D de processadores que a Intel, e que mesmo assim optou por uma arquitetura relativamente simples para acelerar o desenvolvimento, mas mesmo não tendo toda a complexidade de um Barceona ou Nehalem ainda faz muito que a nVidia nem sonha e a Intel/AMD penam para descobrir como fazer.

O Power6 atinge 5.0GHz no mesmo lixo de processo que o K-8 não passa de 3.1, ele não executa fora de ordem mas faz quase isso, e é super-escalar, alias, um super-escalar dos largos, o SMT dele é coisa de outro mundo, tem o equivalente ao ECC para unidades de execução, etc.

Já estão implementando ECC, DP FP compatível com IEEE754...

A AMD fez isso em... Ei, em termos de FPU a AMD não foi uma das primeiras?

A AMD gastou $5B para PROJETAR um GPU do NADA, ou gastou $5B PARA COMPRAR UMA EMPRESA QUE JÁ TINHA O GPU, DRIVERS E INFRAESTRUTURA PRONTOS, DESTA FORMA ELIMINANDO OS RISCOS?

E entrando imediatamente no mercado, com uma concorrente a menos.

Quase ninguém acompanhou a Nvidia porque é trivial fazer uma GPU (e *drivers*) rápida...

Ou simplesmente porque o mercado de GPUs é pequeno demais para valer o investimento.

No entanto a próxima geração do chip do seu celular será fora de ordem e quad-core... (Cortex A9 MPCore)

Mas continua sendo RISC com memória virtual simples, sem muita complexidade entre modos de usuário e protegido, sem suporte a multi-processamento, sem qualquer tecnologia de virtualização mas talvez mais complexo que uma GPU.

Você falou que EXECUÇÃO FORA DE ORDEM era sinônimo de complexidade, mas agora tem que incluir outros fatores?

A execução fora de ordem sem dúvida acrescenta complexidade, mas duas arquiteturas fora de ordem não tem necessariamente o mesmo nível de complexidade.

E tamanho é documento?

Vamos falar em número de lógicas distintas? Porque um cache pode ser bem grande e ainda ser simples, um processador vetorial com as ALUs repetidas 240 vezes pode ser grande e ainda assim ser simples, mas um Power6 que é grande e poucos itens repetem mais que 4 vezes implica em MUITA lógica distinta.

O que é "lógica de função fixa", que até mencionaram em posts anteriores como estando presente em GPUs?

"lógica de função fixa" é um termo vago, por si só é qualquer função não programável, pode ser até a predição de desvios.

Quando me referi a isso no post anterior dizendo que era a parte mais complexa de uma GPU nem falei tanto da lógica, mas das funções em, dos algorítimos, no caso das GPU atuais o que transforma triangulos em pixels, o que determina se um trinagulo vai aparecer na tela (e por isso, deve ser renderizado) são funções fixas, o algorítimo dessas funções é relativamente complicado e durante um bom tempo definiu o que era uma aceleradora boa ou ruim, por isso recebeu muita atenção dos engenheiros, hoje um pouco de força bruta compensa, mas não é elegante.

GPUs atuais são programáveis no entanto são simples?

Um 4004 é programável, e é simples.

O conjunto GPU+drivers na prática é um computador em si, que pouquíssimas empresas conseguem fazer direito e rápido, mas no entanto é simples...

Digamos, que pouquíssimas empresas com o dinheiro necessário para isso se interessam, porque da pouco lucro.

Uma GeForce 8,9 e "10" (e futuras) tem que rodar CUDA, não tem?

E? CUDA é um compilar, elas rodam a ISA delas (BEM mais simples que x86 ou mesmo Power)...

Se ele é engenheiro, trabalhou 15 anos na Intel, e fez o PPro, P2, P3 e P4, o que isso faz dele?

Um ótimo engenheiro, e que disse uma grande verdade, que as GPUs estão cada vez mais programáveis, mas ele nunca disse que estão quase tão complexas quanto o PPro que ele projetou.

A HP tem uma piada interna: o Itanium1 da Intel foi aquele lixo porque era o resultado do trabalho de 500 engenheiros com 2 anos de experiência. Já o Itanium2 da HP foi bem melhor porque era o resultado do trabalho de 50 engenheiros com 20 anos de experiência...

Ok, o Itanium2 foi "menos" ruim, a ideia da IA64 era retirar a complexidade da CPU e jogar no compilador, na teoria não faria diferença se eram 500 engenheiros ruins ou 50 bons, o processador deveria ser simples do mesmo jeito, era o compilador que precisava ser algo de outro mundo.

Mas todos os Itanium foram ruins, resultado de persistir em um erro, o Larrabee segue pelo mesmo caminho, não devido ao fato dos engenheiros serem ruins ou terem pouca experiência, mas pela super-confiança de que vão conseguir superar uma limitação já conhecida e nunca superada...

O Bob Colwell fala que GPUs estão ficando parecidas com CPUs, mas apenas as CPUs são complexas?

Se GPUs estiverem ficando parecidas com um 4004 não são complexas, mas a afirmação dele tambem não estaria errada certo?

Entenda, uma CPU x86 hoje tem um monte de lixo que as GPUs não precisam se preocupar, o decodificar é apenas um pequeno exemplo disso, outro exemplo poderia ser a memória virtual.

Quanto a complexidade das GPUs os shaders (que é o que ta deixando elas parecidas com CPUs) seriam feitos pelos engenheiros da AMD com um pé nas costas, tanto a nVidia quanto a ATI implementaram ele como se fosse um processador RISC tradicional (na realidade, VLIW) mas com vetores tipo SSE e SoMT, se bem que para esse último o hardware não implementa nem a lógica de troca de arquivos de registradores, é o software que se preocupa em não sobreescrever os registradores, ei, a AMD já criou processadores RISC, tambem já criou unidades SIMD, SoMT ainda não, mas é o segundo tipo de MT mais simples, ainda mais com o software cuidando dos problemas de mudança de contexto, não tem porque eles falharem justamente aqui.

Onde eles poderiam penar é onde não tem nada a ver com CPUs, as funções fixas.

Ninguém se importa com aceleração de vídeo neste mercado... ou 3D...

Só que a concorrência faz isso e muito mais...

Digamos que a Intel prefere gastar faznedo SSDs empresarias e processadores high-end, no caso da AMD até 2006 eles tinham a mesma opinião.

Link para o comentário
Compartilhar em outros sites

Vamos continuar de cabeça fria...

Eu não pretendo continuar a discussão, mas posso perfeitamente escrever no tópico.

Mas ele disse que GPUs estão ficando parecidas com CPUs por causa da complexidade ou pelo fato de serem programáveis? E mesmo que sejam parecidas com CPUs devido a complexidade, é parecida com um Barcelona ou com um 4004?

O Zuse Z3 para mim é um exemplo mais elegante. Mas, pensando bem, se duvidar é até mais complexo logicamente...

A propósito Thiago, quantas semanas demoraram para fazer o 4004?

Muitas, a Intel não sabia fazer microprocessadores e precisou de ajuda externa maciça para o projeto. Mas isso foi uma questão de implementação, com tecnologias dominadas isso não teria acontecido. Por exemplo, há algum tempo um maluco na Internet desenvolveu um computador bem mais complexo do que um que usasse um 4004 tendo como material apenas CIs 74xx. Isso em algo como dois anos, sem um curso de graduação na área ou conhecimentos avançados de projeto lógico...

O troço tinha até memória virtual...

E o tamanho das equipes?

Eu ficaria surpreso se cada equipe da ATI não fosse bem menor. Afinal de contas, pelo menos antigamente o grosso dos projetistas trabalhava na validação e implementação.

Ok, você citou uma das poucas ou talvez, a única empresa que gasta mais com P&D de processadores que a Intel,

Tem certeza?

e que mesmo assim optou por uma arquitetura relativamente simples para acelerar o desenvolvimento, mas mesmo não tendo toda a complexidade de um Barceona ou Nehalem ainda faz muito que a nVidia nem sonha e a Intel/AMD penam para descobrir como fazer.

O Power6 atinge 5.0GHz no mesmo lixo de processo que o K-8 não passa de 3.1, ele não executa fora de ordem mas faz quase isso, e é super-escalar, alias, um super-escalar dos largos, o SMT dele é coisa de outro mundo, tem o equivalente ao ECC para unidades de execução, etc.

Ele executa fora de ordem nas unidades de ponto flutuante...

A AMD fez isso em... Ei, em termos de FPU a AMD não foi uma das primeiras?

Não sei. Será que a 2k9 tinha uma FPU? Mas se não me engano a primeira IEEE754 foi da Intel.

Mas continua sendo RISC com memória virtual simples, sem muita complexidade entre modos de usuário e protegido, sem suporte a multi-processamento, sem qualquer tecnologia de virtualização mas talvez mais complexo que uma GPU.

Sem contar que o modelo de memória, as técnicas de circuito e o agendamento dele devem ser entediantes... além de outras coisas.

Um 4004 é programável, e é simples.

Novamente o Z3 é um exemplo mais legal... Que tal aquele OISC, ou URISC?

Ok, o Itanium2 foi "menos" ruim, a ideia da IA64 era retirar a complexidade da CPU e jogar no compilador, na teoria não faria diferença se eram 500 engenheiros ruins ou 50 bons, o processador deveria ser simples do mesmo jeito, era o compilador que precisava ser algo de outro mundo.

Mas todos os Itanium foram ruins, resultado de persistir em um erro, o Larrabee segue pelo mesmo caminho, não devido ao fato dos engenheiros serem ruins ou terem pouca experiência, mas pela super-confiança de que vão conseguir superar uma limitação já conhecida e nunca superada...

Eu acho que o principal problema da Itanium nem é jogar o trabalho no compilador... é jogar o trabalho nas mãos do compilador, em um mercado em que você não pode fazer isso, com uma ISA ridícula de complexa, que parece ter sido desenhada com o objetivo perverso de sacanear qualquer um que desenvolva compiladores e implementações para ela.

Quanto a complexidade das GPUs os shaders (que é o que ta deixando elas parecidas com CPUs) seriam feitos pelos engenheiros da AMD com um pé nas costas, tanto a nVidia quanto a ATI implementaram ele como se fosse um processador RISC tradicional (na realidade, VLIW) mas com vetores tipo SSE e SoMT, se bem que para esse último o hardware não implementa nem a lógica de troca de arquivos de registradores, é o software que se preocupa em não sobreescrever os registradores, ei, a AMD já criou processadores RISC, tambem já criou unidades SIMD, SoMT ainda não, mas é o segundo tipo de MT mais simples, ainda mais com o software cuidando dos problemas de mudança de contexto, não tem porque eles falharem justamente aqui.

Segundo mais simples? Sei lá, com uma latência conservadora, registradores compartilhados e uma ISA mais complicada, eu diria que é a mais simples.

Link para o comentário
Compartilhar em outros sites

Me desculpem, mas não vou mais responder todos os quotes de todos esses posts... e realmente gostaria de responder os quotes um por um, porque alguns realmente MERECEM (especialmente quando põem ou tiram palavras da sua boca, não percebem um sarcasmo óbvio, ou não lêem os próprios links que fornecem), mas felizmente não vivo para isso... principalmente porque tais assuntos já foram discutidos a fundo no RWT, USEnet ou Ace's pelos próprios engenheiros envolvidos...

Vou dizer que eu realmente estava errado quando a FAB da MIPS, mas que isso não fez diferença quanto ao sucesso da SGI no seu tempo, ou da ATI ou Nvidia, que eram todas fabless.

Mas quando digo que GPUs modernas são mais complexas e programáveis, me refiro em comparação a uma Voodoo2 ou RivaTNT, que não eram programáveis, ou a CPUs modernos. Agora, se vão citar máquina de Zuze, o ENIAC ou 4004 só porque eram programáveis, sinto muito, não vejo a relevância.

Se você olhar nestes quotes, parecem advogados ignorando o quadro geral para achar algum detalhe que não foi PERFEITAMENTE explicado ou tem alguma brecha irrelevante, e usar esse detalhe ou brecha para desviar um pouco o assunto e assim "provar o ponto" ou "vencer o argumento".

Agora dizer que AMD poderia facilmente fazer um R800 ou G92 em 2 anos, incluindo drivers, mas preferiu pagar $5B e quase ir a falência pra mim não faz sentido. Mesmo se pagaram demais, pagaram porque analisaram o caso e viram que não tinham alternativa.

Quem sabe quando a gente usar microfones e fones de ouvido nestes fórums agente discuta mais.

Até mais.

[]'s

DT

Link para o comentário
Compartilhar em outros sites

Me desculpem, mas não vou mais responder todos os quotes de todos esses posts... e realmente gostaria de responder os quotes um por um, porque alguns realmente MERECEM (especialmente quando põem ou tiram palavras da sua boca, não percebem um sarcasmo óbvio, ou não lêem os próprios links que fornecem),

Digo o mesmo.

mas felizmente não vivo para isso... principalmente porque tais assuntos já foram discutidos a fundo no RWT, USEnet ou Ace's pelos próprios engenheiros envolvidos...

Na USENET acho pouco provável, no RWT ou Aces eu nunca vi engenheiros envolvidos em projetos como esses discutindo esse tipo de coisa.

Vou dizer que eu realmente estava errado quando a FAB da MIPS, mas que isso não fez diferença quanto ao sucesso da SGI no seu tempo, ou da ATI ou Nvidia, que eram todas fabless.

O fato é que a SGI não tinha uma fábrica, e não tinha orçamento maior do que a AMD. Isso não é um detalhe.

Mas quando digo que GPUs modernas são mais complexas e programáveis, me refiro em comparação a uma Voodoo2 ou RivaTNT, que não eram programáveis, ou a CPUs modernos. Agora, se vão citar máquina de Zuze, o ENIAC ou 4004 só porque eram programáveis, sinto muito, não vejo a relevância.

São exemplos extremos. Você preferia um MIPS R2000 ou ARM1? O ponto continua.

Agora dizer que AMD poderia facilmente fazer um R800 ou G92 em 2 anos, incluindo drivers, mas preferiu pagar $5B e quase ir a falência pra mim não faz sentido. Mesmo se pagaram demais, pagaram porque analisaram o caso e viram que não tinham alternativa.

Mesmo considerando sua opinião como correta, empresas erram. Pra caramba, aliás.

Link para o comentário
Compartilhar em outros sites

Na USENET acho pouco provável, no RWT ou Aces eu nunca vi engenheiros envolvidos em projetos como esses discutindo esse tipo de coisa.

Então preste mais atenção.

O fato é que a SGI não tinha uma fábrica, e não tinha orçamento maior do que a AMD.

A SGI tinha orçamento garantido pelo departamento de defesa dos EUA, que era um grande cliente...

São exemplos extremos. Você preferia um MIPS R2000 ou ARM1? O ponto continua.

Preferia algo que não tivesse apenas alguns milhares de transistores ou que não tivesse sido feito na segunda guerra mundial.

[]'s

DT

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
A versão dual-core da geração atual do Atom será lançada agora em setembro ou um pouco depois.

O Atom 330 tem dois núcleos de 1.6Ghz, 1MB de cache total e TDP de 8W.

http://www.reghardware.co.uk/2008/08/20/idf_intel_first_dual_core_atom/

[]'s

DT

É tem uns dias já que saiu, mas como tem nessa notícia do fudzilla, nada mais são do que 2 Atom 230 juntos. ^_^

Link para o comentário
Compartilhar em outros sites

Arquivado

Este tópico foi arquivado e está fechado para novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!