Ir ao conteúdo
  • Comunicados

    • Gabriel Torres

      Seja um moderador do Clube do Hardware!   12-02-2016

      Prezados membros do Clube do Hardware, Está aberto o processo de seleção de novos moderadores para diversos setores ou áreas do Clube do Hardware. Os requisitos são:   Pelo menos 500 posts e um ano de cadastro; Boa frequência de participação; Ser respeitoso, cordial e educado com os demais membros; Ter bom nível de português; Ter razoável conhecimento da área em que pretende atuar; Saber trabalhar em equipe (com os moderadores, coordenadores e administradores).   Os interessados deverão enviar uma mensagem privada para o usuário @Equipe Clube do Hardware com o título "Candidato a moderador". A mensagem deverá conter respostas às perguntas abaixo:   Qual o seu nome completo? Qual sua data de nascimento? Qual sua formação/profissão? Já atuou como moderador em algo outro fórum, se sim, qual? De forma sucinta, explique o porquê de querer ser moderador do fórum e conte-nos um pouco sobre você.   OBS: Não se trata de função remunerada. Todos que fazem parte do staff são voluntários.

EspadaDaJustiça

Membros Plenos
  • Total de itens

    793
  • Registro em

  • Última visita

  • Qualificações

    0%

Reputação

80

Sobre EspadaDaJustiça

  • Data de Nascimento 27-02-1985 (33 anos)

Informações gerais

  • Cidade e Estado
    Rondonópolis / MT
  1. Na verdade as numeclaturas da Nvidia são bem simples. O que se tem ate agora é que o chip usado da GTX 680 sera o GK104. O GK100 não vai sair ainda, e sim sua versão revisada (GK110). Os motivos da Nvidia não lançar o GK100 ainda são "nebulosas" digamos assim. Pode ser desde design inapropriado para o processo TSMC 28 Nm HKMG HP, ou ate uma questão "mercadologica", ja que não precisaria de tanto poder , ja que a concorrente ate agora não apresentou uma GPU que represente uma ameaça, etc... porém pessoal o GK104 que esta aparecendo nos "Previews" é sem duvida muito eficaz. Bem balanceado com alto Shader Power, com bom nivel de Pixel Power (ROPS), e com TMUs de sobra (ate demais ). Para a nvidia é uma GPU consideravelmente barata pra se fabricar, e que vai render muito bem nos Wafers. Seu PCB tambem é bem simples (se comparada a uma High-End). Se a Nvidia vender por 500 Dolares, vai encher bem a conta no banco . Ou seja, ela não vale 500 dolares, porém a Nvidia tera todo o direito de colocar o valor que deseja (afinal a GTX 680 sera mais rapida que a HD 7970).
  2. Sobre a IBM defender o SOI nunca foi novidade né, afinal foi ela a primeira introduzir o SOI . Sobre os custos, o que é claro é que, o FD-SOI de fato aumenta em media o custo do Wafer entre 10 a 20%. A Intel sempre foi resistente a usar o SOI alegando justamente isso, CUSTOS . E como os FinFets da Intel serão usados no tradicional CMOS, os custos não serão um problema aqui (pelo menos na teoria ). Vamos ver comos os FinFets da Intel vai render.
  3. Sim Johannesrs, afinal o GK104 nos boatos esta sendo colocado como tendo 3.54 B Transistores, e isso em 28 Nm tende a ter um bom nivel de consumo. O legal dos boatos pelo que vi, foi o equilibrio entre ROPS, e Banda de Memoria. O pessoal pode achar estranho a GK104 ter 256 Bits de bus de memoria. porém os chips GDDR5 da Hynix H5GQ2H24MFR-ROC trabalham a 6 GHz Efetivos a 1.6 V. Com Isso voce tem 192 GB/s de banda nada mal para um bus de 256 bits não? . Claro que SE os Controladores realmente suportarem trabalhar a essa frequência. Ainda estou esperando as especificações completas, mas pelo que vi ate agora ta bem bacana. So achei um pouco exagerado tantos TMUs. Com tantos TMUs tanto a GK104 , quanto o Tahiti XT, pedem que os desenvolvedores começem a usar texturas mais precisas (FP 32), ou seja, mais pesadas. Mas isso ainda vai demorar, e o pessoal sabe muito bem devido a que.... . Vamos ver como vai ficar o preço né..... essa é a grande questão.
  4. Esses boatos da GTX 680 estão uma "salada" terrivel . O engraçado é especular sobre o que teria acontecido com o GK100? Sera que o design dele ficou tão ruim que forçou a nvidia a ter que fazer uma revisão nele para então lançar como GK110? Se o preço de 550 Dolares se firmar de fato, imagine o tanto de lucro agregado que a nvidia vai faturar. O motivo é simples, SE os dados dos boatos sobre o GK104 se confirmarem, seria um chip bem mais barato para a Nvidia, e com o PCB mostrado nos boatos (256 Bits, com VRM "comportado") os custos para a Nvidia seriam bem mais baixos do que ao da GTX 580. Ou seja, basta pensam um pouco pra ver que nesse cenario, a nvidia vai montar uma placa para literalmente, Rechear a conta bancaria . Concorrencia é o que salva os nossos bolsos pessoal.
  5. Bom Diego, sei que é uma pergunta *****, mas você ta abrindo o Driver Sweeper no modo de segurança como administrador pelo UAC certo? (imagino que voce esteja usando o Windows Seven) porque senão ele vai travar mesmo. Com relação a temperatura isso é muito relativo, como ficam as temperaturas no profile Idle (157/300)? Sobre vocês ter destravado o controle da tensão do clock pelo Afterburner, so vai influenciar se a tensão estiver alta. Como ta a tensão no profile Multimidia (400/900) ? Quando eu tinha a minha HD 5870 no profile Multimidia ficava bem perto dessas temperaturas que voce citou (vale lembrar que eu moro no Mato Grosso, onde as temperaturas são elevadas).
  6. Digamos que a diferença é bem consideravel, acima de 50% em varios jogos para a GTX 550 TI, alem da GTX 550 TI ter mais recursos como DirectX 11. porém minha recomendação é que nessa faixa de preço voce consegue uma Radeon Hd 6850 que é melhor que todas as 3 placas citadas. E pode ser encontrada na faixa de R$ 430 no mercado livre.
  7. Seja bem vindo ao Forum . Bom infelizmente o SLI da Nvidia so funciona com placas do mesmo modelo, ou seja, 9600 GT com 9600 GT, ou 9800 GT com 9800 GT, etc... Não funciona com modelos diferentes como a sua 9600 GT + 9800 GT. Melhor nesse caso é pegar a GTX 550 TI. Espero ter Ajudado.
  8. É isso mesmo, valeu pelo aviso . Pensei em um e escrevi o outro. kkkkkk
  9. Nada melhor que mais boatos para nos enlouquecer de vez não é? . Bom eu QUERIA acreditar nisso, porém o problema nem é o proprio Slide em si (que de dados mesmo tem MUITO pouco) mais sim o post do seronx. Bom ele postou la "bonitinho" os supostos specs das novas GPUs, ate a proporção entre elas e os CUs e tal. SO QUE , os ROPS diferentemente dos TMUS e os Shaders NÃO possuem relação de dependencia direta com os CUs(o mesmo vale para os SMs da nvidia). Ou seja, pode ter quantos CUs quiser, nao existe uma obrigatoriedade de colocar mais ROPS porque voce tem mais CUs. Eu imagino que ele deve ter achado que era interligado igual os TMUs e acabou fazendo a media aritmética pra chegar a suposta proporção de ROPs por *****. So isso ja acaba com a credibilidade da tal informação. Ja o Slide, de tão simples e vago, pode ou não ser verdadeiro. Ate porque nada melhor pra AMD que apimentar ainda mais essa guerra contra a Nvidia.
  10. Ficou bacana esse seu post. A TSMC ate agora não anunciou nenhum Node em SOI seja, FD-SOI ou PD-SOI, portanto as GPUs em 28 Nm que estão sendo feitas por ela estão usando o tradicional Bulk CMOS 28 nm HKMG HP. Tudo que se tem ate agora são boatos sobre que a TSMC pode a vir usar SOI nos processos mais a frente. Ou seja de SOI concreto mesmo entre essas foundries , so a GF mesmo . Ate porque o SOI é um processo que torna o Wafer mais caro para fabricar. E com isso nos temos que esperar a Intel brincar com os FinFETs pra ver como eles vão render de fato nos Ivy Bridges, até porque os FinFETs tambem trazem seus proprios desafios. porém com essa suposta paralização da produção de Wafers em 28 nm pela TSMC, ainda vai rolar muita coisa por ai.
  11. Eu entendo o que quer dizer. Como você ja sabe as Otimizações do GNC dão ao Cape Verde sua cartada na questão de Eficiência nos Shaders. Vale lembrar que dependendo da Engine do jogo a ser testado os resultados vão variar (normal ). Em Engines menos Shader Intensivos a HD 7750 fica mais proxima a sua irmã maior. Eu vi testes em que a HD 7750 perde por quase o dobro de FPS(em relação a HD 7770), geralmente em games DX11 com Post-Processamento alto e em engines muito shader intensivas, em outros games a diferença cai muito. O que é normal não é meu caro amigo Sirro . No caso do Juniper XT (HD 5770) os 1360 GFlops SP em MAD não significam muita coisa, até porque o VLIW5 é consideravelmente ineficiente em relação ao GNC. Vertex Shader então, no VLIW5 era bem decepcionante. Ja no GNC, melhorou bem isso. Outro detalhe é que se você prestar atenção cada vez mais jogos estão introduzindo o famoso FXAA. O FXAA como filtro pos-processado a renderização em si, vai se beneficiar bem de uma arquitetura como o GNC, e com isso você ganha alguns frames aqui. Sobre os caches L1 D & I, basicamente qualquer Workload, dentro dos CUs que precisa ser sincronizada com os outros do grupo local, uma hora ou outra vai ter que usar eles;). Geralmente Hull e Domain Shaders tende a usar mais ele (jogos), e no GPGPU vai variar de muito ou pouco, dependendo da bendita (ou maldita ) aplicação. porém o que eu quis colocar, e que apesar de ser um cache Importante, são de fatos os outros detalhes da arquitetura usada nas Novas Radeons, que pesam mais na performance dos jogos. O Cache L2 então.... Porque se fosse um caso de cache muito congestionada a AMD teria por obrigação ter que mudar isso na etapa de design. Uma outra situação ainda mais bizarra é a performance MUITO pareada das novas HD 7800 com as TOPS HD 7900. Ai voce pode dizer, "Onde esta a magica ?", bom não tem magica , o motivo é que apesar das novas HDs 7800 terem bem menos Shaders que as HD 7900, o seu poder em termos de ROPs (ou o que eu costumo chamar de Pixel Power) TMUs, foram bem preservados se compararmos com as HDs 7900. Alem de possuirem um otimo "Shader Power" . porém é como eu disse, quanto mais Shader Intensiva é uma Engine, maior tende a ser essa diferença. Ou seja para as novas HD 7900 brilharem mesmo, so faltava mais ROPs (e com isso mais Rasterizers e assim maior poder de Tesselation) e novos jogos com Engines que de fato aproveitem essa super poder nos Shaders.
  12. Na Verdade Sirro, não tem nada de estranho na performance o Cape Verde, dependendo de ONDE você olhar é claro . Em primeiro Lugar o cache L1 de Dados e Instruções que são Compartilhados por 3 ou 4 CUs é apenas de Leitura, e é usado mais para processos de compartilhamento rápido entre os CUs. Dentro de Cada ***** temos um outro Tipo de Cache L1 que o Cache de Texture Fetch, alem do Scheduler, e PRINCIPALMENTE temos a unidade Escalar. E fácil se esquecer dela, porém no GCN , esse unidade escalar tem um papel importante, de realizar calculos que não sao bem realizados pelas unidades vetoriais. O Scheduler ta ai, porque o GNC como uma arquitetura que agora nao depende mais ILP, deve gerenciar melhor os Warps entre as unidades vetoriais e PRINCIPALMENTE mandar os Warps certos para a unidade escalar. porém ele so gerencia o seu proprio *****, quem de fato é o Grande Scheduler do chip são os ACEs. Outra coisa MUITO importante é que agora o Cape Verde tem nada menos que o DOBRO de Cache L2. No Juniper XT (HD 6770) tinhamos 128 KB de Cache L2 para cada controlador de memoria, totalizando 256 KB De Cache L2. Ja no Cape Verde temos 512 KB de Cache Unificada. O L2 é de fato o grande compartilhador de dados para TODO o Chip, não apenas para os ROPS (que agora não tem mais uma conexão direta com o L2). Portanto o GNC com sua Unidade Escalar + aumento de clock + L2 enorme, tem muito mais peso nessa performance que o L1 D & I. Erro de design sem duvida que não é . Veja bem Sirro, o L1 D & I é bem pequeno e poderia ser aumentado sem muitas consequências. porém não é um Cache digamos CRITICO aqui. Ja o L2 compartilhado e o L1 de Texturas, esses sim, pesam mais nos jogos. O Aumento do L2 não é uma surpresa digamos assim, a Nvidia ja tem seguido essa linha, porém no caso dela, foi uma obrigação, ja que devido aos Multiplos Rasterizers (coisa que ate então nao se viu em GPUs) você precisava de um Cache L2 Grande e Unificado, senão o esquema do Fermi não funcionaria. Se me permite eu vou fazer uma consideração até , As GPUs tinham por caracteristica, justamente muitas Unidades de Execução e poucas areas de memorias (buffers, Registradores, Caches,etc..), ja as CPUs por outro lado sempre forem conhecidas por menos unidades de execução e mais areas de memoria dentro do Die. E o que estamos vendo agora? GPUs com mais area de memoria, perdendo sua eficiência em relação performance/Transistores, porém ganhando flexibilidade. Esse é o preço da Flexibilidade. Bom se o Slide que nosso amigo Jonny_br postou estiver correto, as HDs 7800 vão trabalhar com 2 Primitivas por Clock, ou seja, 2 Triangulos por Clock, que é a mesma capacidade de Rasterização do Tahiti. Ou seja Clock a Clock o mesmo poder de Tesselation. Vamos ver se eles vão fazer outros tipos de Cortes né
  13. Sim Sirro, porém o pequeno adicional de Cache L1 não iria fazer milagres. E outra, SE os CUs estavam carentes de Cache L1 , porque raios a AMD iria colocar eles no conjunto de 4 CUs com a quantidade de Cache L1 atual? Seria um erro primario, pra não falar ridiculo . Pois isso, eu acredito mais na ideia de ela ter feito 4/3/3 pra melhorar os rendimentos dos Wafers, do que na ideia citada.
  14. Pois é pessoal estão ai as Radeons 7700. Eu ja esperava uma performance moderada, nada de espetacular, porém respeitavel. A grande sacada aqui, foi o aumento do clock base do Chip pra 1 Ghz na HD 7770. Com isso a performance mantem um bom nivel, apesar do GNC não ser tão poderoso na relação area/transistores quanto o VLIW4, eficiência é agora a palavra de ordem . Confesso que achei estranho a AMD usar esquema de agrupamento de CUs 4/3/3 no Cape Verde. No Tahiti temos o esquema de agrupamento de 4 CUs usando o mesmo Cache L1 De instruções e Dados. Com o esquema em 3 CUs, temos uma subutilização dos Caches L1 de Dados e Instruções. Eles poderiam manter o esquema em 4/4/4, mas acredito que seja uma estrategia para obter melhor aproveitamento das fornadas do Cape Verde. Os TMUs e ROPs são identicos aos do Tahiti, inclusive o Crossbar que interliga os ROPs com os Controladores de memoria. O objetivo maior desse Crossbar seria criar uma flexibilidade maior na hora de se colocar ROPs e alimenta-los com barramentos de memoria. porém até agora não estou vendo muita serventia dele, pelo menos por enquanto.... De resto nada de novidade, CUs identicos internamente aos do Tahiti. Redução para apenas 1 Rasterizer, 1 Geometry Engine (2 de cada no Tahiti) o que é sensato, ja que temos apenas 16 ROPs agora , não temos necessidade de 2 Rasterizers aqui. Em termos de computação em FP32 MAD temos respeitaveis 1.28 Teraflops porém devido as GCN temos melhor utilização desses 1.28 Teraflops. Ja em FP64 temos apenas 80 Gigaflops .... porém devido apenas a uma limitação artificial, criada para focar esse tipo de aplicação nos produtos FirePRO. Baixo consumo (devido ao Processo TSMC 28 nm HKMG HP) , alem do Recurso PowerTune. porém o recurso que achei bem legal é o VCE, que nada mais é que a adição de um Encoder de Video via Hardware. Com isso você pode usar o poder da placa para criar videos usando o Encoder das novas radeons. Pro pessoal que gosta de editar e criar videos, é um recurso bem bacana. Placas legais, performance respeitavel (porém nada demais), tem potêncial, porém a AMD precisa apenas acertar o preço certo nelas.
  15. Sim, o nosso amigo Sirroman esta certo. porém tanto o PS3 quanto o Xbox tambem usam APIs, Proprietarias é claro, mais usam. O PS3 usa LibGCM com a Linguagem Shader PSGL, e o Xbox 360 usa o Direct X, porém otimizado apenas para o hardware do Xbox que foi criado pelo Programa Microsoft XNA. O motivo de ser melhor aproveitado aqui nos consoles, é uma questão até que obvia, afinal sendo um Hardware FIXO, é MUITO MAIS fácil otimizar o codigo para rodar da melhor forma possivel. Justamente pelo Hardware ser FIXO, as APIs não precisam de muitas camadas de abstração, o que deixa a API mais direta ao hardware, do que as APIs usadas nos PCs. A Perca de performance APENAS pela API DirectX dos Pcs, chega de 30 a 40%. Devido as varias camadas de abstração que ela deve lidar, devido aos varios possiveis hardwares que você tem que estar preparado para lidar. Portanto ao mesmo tempo que a Flexibilidade dos PCs é seu diferencial, tambem é sua maldição . porém vou dizer uma coisa pra você, os jogos de hoje, não rendem bem nos Pcs, não é so pelas APIs não. O motivo vai desde PURA PREGUIÇA na otimização do Codigo por parte das Software House de games (afinal como a propria Ubisoft costuma dizer, "Não vale a pena otimizar games pra PC, devido a Enorme Pirataria existente") e falta de incentivos por parte dos fabricantes, Ex: INTEL, AMD. A Nvidia é uma das poucas que ainda investem mais nos contatos com as Software House de Games. A AMD tambem faz, porém ainda de maneria "TIMIDA".

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas publicações sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×