Ir ao conteúdo
  • Cadastre-se

EspadaDaJustiça

Membro Pleno
  • Posts

    791
  • Cadastrado em

  • Última visita

posts postados por EspadaDaJustiça

  1. Aaah tá! Isso explica a perda de performance em resoluções maiores em comparação às outras placas de 1gb. Que tava meio estranha por sinal.

    valeu pela aula, espada. =)

    EDIT: oxi, então porque lendo no review do techreport (tá, tá, eu pulei para a consumo, resumo de performance e conclusão) ele diz que "Mixed density memory chips help increase performance"?

    E o consumo tá piorzinho do que o povo esperava, acho.

    Olha so esse trecho la deles:

    "Now, given the need to balance bandwidth between the GF116's three controllers, it would appear unlikely the GTX 550 Ti is making full use of the extra 256MB on its third controller—even with drivers attempting to take advantage. This mixed memory config might therefore not be so much a technical feat as a marketing ploy, whereby the extra RAM's chief purpose could be to let Nvidia slap a nice "1GB" on the box so that the card matches up well against competing Radeons in the minds of less informed consumers. "768MB" does look a little unsightly these days, and as the company keenly pointed out while briefing us, outfitting the GTX 550 Ti with 1.5GB of RAM (512MB per controller) wouldn't have been cost-effective."

    Ou seja eles sabem que a placa tera problemas de banda com o Extra de 256 MB. Mesmo com modificações do controlador e dos drivers :D. porém ela so tera problemas com banda caso o framebuffer ultrapasse os 768 MB.

    Não que seja o fim do mundo, afinal estamos falando de uma placa Low-End. porém esse tipo de abordagem é de pessima eficiência. É a mesma ideia de voce ter uma mobo Dual channel de dois pentes, e resolver colocar mais um pente em um dos canais. Apesar de ter mais memoria o terceiro pente sera acessado apenas em 64 bits e não em 128 Bits (dual Channel). So que aqui estamos falando de VGAs que são muito necessitadas de banda de memoria.

  2. Estava fazendo uma matemática aqui sobre a memória e o barramento. Primeira vez que vejo usarem memórias de barramentos diferentes numa mesma placa. A placa tem quatro chips de 1Gib e 2 de 2Gib.

    Sim, a nvidia usou essa abordagem ruim, unicamente para poder competir no segmento Low-End. Ja que é mais convidativo ter 1 GB do que 768 MB ^_^.

    Para que o sistema de Memoria e ROPS funcionem com eficiência, é preciso que as memorias sejam de mesma densidade para todos os barramentos. Afinal cada Bloco ROPs é ligado a um Barramento 64 bits, que no qual esse é conectado a 2 Chips GDDR5. Quando o Bloco ROP grava no Framebuffer da placa os Frames ja prontos , ou Efetua o Blend do MSAA, isso é feito paralelamente em TODOS os ROPS e consequentemente em todos os Controladores de memoria.

    Veja que no caso da GTX 550 TI, ela possue 3 Barramentos de 64 bits, sendo que o ultimo possui 2 chips de 256 MB e os outros 2 Barramentos, possuem apenas 2 Chips de 128 MB cada um.

    porém os Blocos ROPS de cada um desses barramentos são os MESMOS, incluindo o do terceiro barramento.

    Dessa forma em algum instante, quando os ROPS estiverem gravando os Frames, vai chegar algum ponto onde vai ter que armazenar Frames apenas do terceiro barramento, e com isso voce vai ter uma banda muito pequena, naquele momento.

    A banda de memoria teorica é calculada multiplicando o barramento total com a frequencia efetiva da memoria, dividindo por 8. Que no caso da GTX 550 TI é de 192 * 4104 /8 = 98496 MB/s ~= 98,4 GB/s. porém no caso dessa nova placa, a GPU so tera essa banda ate o momento em que a soma dos Framebuffers não passar 768 MB, caso passe, o restante vai ficar com a banda de 32.8 GB/s.

    Mesmo não sendo muito comum, um hora ou outra, a placa vai ter que gravar com banda baixa. Esse é o custo de se criar barramentos com densidades diferentes nas VGAs.

    Tudo isso pra manter o apelo comercial, do "O tio me compra uma Gefurci de 1 Giga" kkkkkkkkkkkk :).

    • Curtir 2
  3. Eu não dou 3 meses para essa placa chegar aos $450.

    @Espada: **, não sou ligado no setor logístico, administrativo (e o escambau :D) das empresas. Interessante saber disso.

    E outra, qual é o limite de aumento no número de transistores para que o consumo permaneça o mesmo? Leve em consideração a transição Fermi -> Kepler

    Sim é um detalhe que eu quis compartilhar, ja que a mudança do cientista chefe é algo importante. E com isso você tem qual a filosofia da empresa em seus produtos posteriores.

    Sobre o tal "limite" vai variar de acordo com o processo (no caso qual a real possibilidade de aumento de densidade no novo processo) e tambem na arquitetura do proprio chip em questão. Temos que esperar para ver.

  4. É, acho que nesse caso é a GTX480 que é a capada :D

    Agora, Espada me responda, é possível para a Nvidia, a partir de agora, melhorar essa arquitetura ao invés de criar um nova? Pelo que eu entendi, a Nvidia pretende lançar o Kepler no fim do ano que vem.

    Sim, e ao que tudo indica, é o provavel caminho que a nvidia prentende seguir. Lembre-se que o Atual Fermi é muito diferente do que o GT200. O Atual fermi segue a filosofia da nvidia em criar GPUs com multiplos propositos (GPGPU, Games, CAD, etc..).

    So pra você ter uma ideia, a nvidia tinha tirado David kirk (cientista chefe de muitos anos) para colocar no lugar dele o Bill Dally (professor de Stanford , especialista em computação paralela hibrida) para que você acha hum???

    O fermi foi uma aposta ambiciosa da nvidia, e Bill Dally é um dos grandes responsaveis por sua arquitetura. O que mostra que a Nvidia quer mesmo continuar esse caminho. Agora se esse é o caminho certo ou não, so o tempo vai dizer.

    Pelos planos da Nvidia , o Kepler devera seguir a ideia base do Fermi, porém com mais transistores, processo novo (talvez TSMC 28 nm), e talvez mais eficiênte no quesito (transistores/consumo).

    Agora é termos paciência, e aguardar o que o Cayman vai ter a oferecer.

  5. Mas é preço de lançamento... Em pouco tempo deve chegar na casa dos R$1400. Mas um ponto interessante é que a GTX 580 está com quase o mesmo preço da HD 5970, mesmo sendo um lançamento.

    Eu sei disso, mas eu duvido muito se a AMD não vai abaixar o preço da HD 5970 depois desse lançamento da GTX 580. :D.

    Agora so resta esperar o Cayman.

  6. Como resumir a GTX 580?

    "Uma boa placa, com pequenos refinamentos ao GF100, porém mantendo certos desbalanceamentos ao GF100. Ou seja o que Fermi deveria ser desde o começo :P. "

    A unica novidade significativa do GF110 esta na capacidade dos TMUs em filtrar Texturas FP16 em Full Speed, ou seja, na mesma taxa que a filtragem bilinear. De uma forma mais popular, ajuda em jogos em HDR a dar mais FPS.

    O Z-culling melhorado ajuda em certas cargas, principalmente quando dizer quais pixels serão mortos ou não.

    Mas no geral é um GF100 A4, nada mais :).

  7. Então, faz isso no Crysis e no Crysis Warhead (mesma engine então é basicamente o mesmo jogo). Eu imagino que pode ser porque essa engine use algum elemento que os outros jogos que testei não use. Por isso não notei o erro neles.

    É como eu disse, uma vez apareceu artefatos no ATI Tool, mas eu estava usando o computador para várias coisas... Pode ter causado o problema.

    Depois rodei 2 vezes uns 40 minutos cada vez e não achou nada.

    Nem no 3d Mark Vantage e nem no FURMARK não aparece nada.

    Não sei onde li que esses testes de artefatos usam apenas alguns shaders.

    Bom Juuchan, se você ja trocou de drivers, testou com o Furmark, 3dmark, etc.. O proximo passo, é reduzir o clock da GPU e Memoria, para ver se estabiliza. Pode ser que voce teve o azar de pegar um "Cypress XT" que não fica estavel em seus clocks originais do perfil performance (Core 850 Mhz / Memoria 1200 Mhz). Eu tive uma Geforce GTX 275 da XFX que pra funcionar bem sem artefatos, tive que reduzir muito clock (510 Mhz Core vs 640 Mhz Original) dai eu mandei de volta pra garantia e troquei pela HD 5870 ^_^.

    Boa sorte ai. :D

  8. Discordo completamente de você...

    A 5850 está abaixo da 6870 e esta, está muito próxima da 5870.

    já a 6850 está próxima da 5850 ;)

    EXATAMENTE. O problema da HD 5850 se chama CLOCK BASE. Basta deixar a HD 5850 perto de 850 MHZ, que ela ja passa a HD 6870, claro que você tambem pode dar um over na HD 6870 :D. Ja a HD 6850 alem de clock baixo, tem poucas unidades de SP/TMUs, e aqui voce pode dar um gas com over, mas não muito tambem.

  9. Então o gás que elas ganharam no FC2 com AA foi pura força bruta? As ATI tomavam um baque com AA no Far Cry 2, agora tá bem menor a queda de desempenho.

    http://www.guru3d.com/article/radeon-hd-6850-6870-review/16

    Bom o poder extra no caso do FC2 pode ter vindo de uma otimização dos Drivers para a Nova Serie HD 6000, principalmente o Recurso de Filtragem de Texturas de Alta Velocidade, introduzido pela AMD para a nova Serie. Alem do Esquema Dual Dispatch. porém a forma como o AA é tratado e a força dos ROPS é a Mesma do Cypress , clock a clock é claro :).

  10. PuNiShEr;4629375']É não sei como as HD6800 Series vão lidar com Filtro AA.

    Mais no DiRT II' date=' a HD4800 Series em Geral estão muito bem obrigado!

    Eu pego em Full HD 1080P - 45 ~ 75 FPS

    Aquele Bench, da Min de 44.5 Tudo Ultra AAX8 DX10

    Não sei como é as HD5700 e HD5800 Com Filtros.. mais sei que a HD5850 da um banho legal já em qualquer HD4800 Series, ( menos comprando com CF ou Dual GPU claro )

    @EDIT: 4800 Series NÃO TEM DX11

    Que viajo? agora Oo[/quote']

    Na verdade ela vai lidar com o AA da MESMA forma que o Cypress. O ESQUEMA RASTERIZER/ROPS não foi modificado no Barts. Ou seja o AA sera processado da mesma maneria que no Cypress.

    Sobre aquele novo filtro de AA, ele nada mais é que uma nova forma de CFAA, com uma qualidade melhor. Ou seja, como é um CFAA, ele usa os Shaders no processamento. A Diferença que o Novo Filtro foi feito com base nas primitivas do DirectCompute do DX11.

    Olha para voce que tem uma HD 4890, eu acho que vai valer a pena voce mudar para a nova Serie HD 6800, a menos que queira esperar o Cayman. porém quem ja tem uma HD 5850 ou HD 5870, compensa esperar pra ver se o Cayman vai trazer um aumento substancial, ou esperar a Serie HD 7000 :D.

  11. Minha HD5870 ja ficou velha :mellow:

    huAIHEiuhe

    O que essa placa tem, que seja importante quando se trata de jogos, ja que nao existe Dx12...?

    A Unica mudança real para o Cypress no Barts, é a unidade de Tesselator mais otimizada (ela não é brutalmente superior, porém tem uma melhor performance com Tesselation de Baixo Fator , ou seja, Tesselation de poucos triangulos) e uma unidade de Dispacho mais paralela.

    Em termos de jogos em si, não tem nenhuma revolução para o Cypress. O Barts nada mais é que 90% de um Cypress com alguns rebalanceamentos, nada mais.

    Punisher,

    o que acontece é que a maioria dos testes foi feito quando o Catalyst e os drivers das HD5XXX ainda eram muito recentes.

    Com as devidas atualizações dos drivers a HD5770 tem o desempenho de uma HD4890, e em alguns jogos/aplicações ela acaba superando.

    Tem gente que estima que o aumento de desempenho com os novos Catalysts a HD5770 deu um salto de desempenho de mais de 20%

    Olha para ser sincero, em termos de performance bruta as Duas são bem parecidas, porém a vantagem na HD 4890 em relação a HD 5770 se da atraves da banda de memoria maior (sim XITA, apesar daquele teste, ainda a banda aqui faz diferença :D).

    Basta observar que o aumento de performance da HD 5770 com os novos drivers, se dão mais nos aplicativos DX11, onde a AMD fez algumas otimizações, que afetaram toda a familia HD 5000.

    porém em minha concepção a HD 4890 é uma placa um pouco superior a HD 5770, em termos de poder bruto. Ja em recursos a HD 5770 ganha fácil :D.

  12. Troquei ontem a minha xfx gts 250(9800gtx+ coreedition) por uma xfx radeon 5850 black edition. Na verdade é uma 5850 normal com a bios da black edition(overclocada).

    A pergunta é simples:

    É possivel atualizar a bios dessa 5850 para a bios da 5870 e ter ganho de performanse?

    Ou isso é perigoso e desnecessário?

    Alguém aqui chegou a fazer essa atualização?

    Possivel é sim, porém voce NÃO vai "destravar" os SPs e TMUs desativados, ja que no Cypress Pro (HD 5850) eles foram desativados via corte a laser. O unico beneficio , seria os clocks maiores, porém voce pode ter problemas se o seu Cypress não se der bem com os clocks padrão da bios da HD 5870.

    O jeito é voce ir overclockando aos poucos e com isso testando ate onde o seu Cypress aguentar. Então esqueça essa ideia da Bios da HD 5870, ok.

  13. Pessoal, até parece que a nvidia iria liberar o Physx para as Radeon.:rolleyes: Vejam bem, na atual geração das Geforce, com seus 3.2 Bilhões de Transistores com pouco poder de texturas, e uma arquitetura mais voltada para GPGPU do que jogos. O Physx é o 3D Vision são as unicas armas que a Nvidia tem disponivel para atrair os consumidores para as Geforce GTX400.

    Sei que seria sensato a liberação do Physx , mas eu não sou do tipo que acredita em milagres :D.

  14. Realmente estranho.

    Espada, tem como voce monitorar as temperaturas das memorias?

    se ja havia feito, as memorias estavam sobre aquecendo ou algo do tipo?

    Quais memorias sua vga usa?

    Chegou a overclockar ela?

    Pergunto porque um amigo que possuia uma GTX 275(amigo nao, na verdade, meu professor, hehe), acabou de perder a dele essa semana, do nada, tambem, sem nenhum motivo aparente, e estava com os mesmos problemas que voce.

    SO que ele relatou que as memorias da vga estavam trabalhando em temperaturas absurdas.

    As temperaturas das memorias estão baixas. Ja a GPU eu configurei o Rivaturner para aumentar a rotação de acordo com a temperatura, ficando em 65% quando a GPU fica acima de 64º, 80% acima de 72º, e 100% acima de 76º. Com isso a GPU raramente passa de 70º em Alta Carga.

    Parece que fui "Premiado" com um GT200 instavel em seus clocks padrão (_(. Vou mandar essa placa para a garantia mesmo. E ver se dessa vez pego um GT200 normal.

    ps: Nunca fiz overclock nessa placa de video, justamente por ja saber que o GT200 é bem esquentadinho :D.

  15. então segue a configuração:

    Intel core2quad q6600 2.4ghz;

    MB Intel DP35DP

    6gb RAM DDR2 800mhz

    Geforce 9800gtx+ Sparkle 1gb

    SO Windows 7 Ultimate x64

    Driver 197.13

    gpuzg.gif

    Na questão dos Drivers, eu ja tentei quase todos que saiam desde 164 mais ou menos, mas sempre tem esses bugs, as vezes o jogo trava e depois volta com todas as texturas trocadas, ou no assassin's creed, aparece que o driver deu pau e o jogo simplesmente fecha (tudo isso ocorre com qualquer driver)

    Toda a configuração sem overclock (a placa mãe nem suporta)

    Seu problema é bem parecido com o que estou tendo com a minha GTX 275, o jogo trava por uns 4 ou 5 segundos e depois volta com as texturas trocadas e borradas né?

    Nos drivers novos isso ocorre mais frequentemente. Uma coisa que ajuda a diminuir a ocorrencia desse problema é forçar uma AA alto (8X) .

    Eu até tinha postado no topico das GTX 275, mas parece que ninguem pode testar o jogo Cabal Online em uma GTX 275, para saber se era problema de hardware ou software. Ja que nesse jogo em especial o problema ocorre com mais frequência.

    O Ideal é você fazer um downclock das memorias e depois da GPU em si. Se o problema se resolver com o downclock, mande a sua VGA de volta para a garantia (se caso ainda estiver), porque ninguem merece ter que usar uma VGA abaixo dos seus clocks padrão.

  16. Olha só o saudoso Espada da Justiça de volta! :lol:

    Como assim ocorre o problema nos jogos e não nos benchmarks? Esse tipo de software não usa muito a VRAM? Realmente muito estranho.

    Opa tudo bom Root ?. Bom de todos eles você sabe bem que o Furmark é de longe o que mais exige da placa. porém os jogos usam outros tipos de formatos de texturas entre outras variaveis, que podem acionar o problema da placa, que em programas de Benchmarks não ocorre.

    Por isso para desencargo de conciência eu quero que alguem que tenha uma GTX 275 teste o jogo cabal online sem o Anti-Aliasing para ver se é mesmo um problema de software.

    ps: Esqueci de citar que a CPU esta sem Overclock.

  17. Ola galera, faz tempo venho aqui ^_^. Bom eu estou tendo um problema bem particular com minha GTX 275 e gostaria de checar se alguem tem algo parecido. Como eu quase nunca jogo, descobri por intermedio da minha irma ^_^ que estava tendo problemas com alguns jogos.

    Durante alguns jogos, ocorre uma travada na imagem que dura uns 4 Segundos, quando o jogo volta a fluir, as Texturas estão todas borradas e com cores completamente diferentes (possivel Erro Frame Buffer).

    O Problema Ocorreu nos seguintes jogos: Cabal Online, Mechwarriors 4 Mercenaries, Freelancer, e também outros jogos antigos.

    Ja testei varios drivers, no mais novo (Versão 197.75) o problema ocorre com mais frequência, principalmente no Cabal Online. Ja no mais antigo (182.55) o problema ocorre com menor intensidade, porém com o mais velho ocorre outro problema, A exceção de Erro de Driver (O Driver Parou de Responder e bla bla bla) Com As cores de 4 Bits.

    O mais estranho é que se você forçar o AA em 8X a ocorrencia do problema reduz bastante, porém ocorre.

    Estou suspeitando de Falha em um dos Chips GDDR3, ja que erro de texturas é mais comum nos erros causados pela memoria da placa.

    Ja testei no 3D Mark 2006, 3D Mark Vantage, e no Furmark, e não ocorre problemas.

    infelizmente não existe uma ferramenta para testar mais profundamente a placa (testar os TMUs, ROPS, VRAM etc...) e por isso o jeito é por tentativa e erro.

    Por isso peço ajuda de quem tem essa placa poderia testar o jogo Cabal Online para tentar replicar o erro? As condições são:

    * Pode usar Qualquer Resolução

    * Anti-Aliasing DESLIGADO (no cabal aparece como Amostras multiplas)

    * Driver Mais Recente

    Por isso antes de mandar essa placa para a garantia, preciso ter certeza que não seja um problema apenas de drivers.

    Quem puder ajudar, serei muito grato.

    Obrigado.

    Configuração:

    Asus P5E Deluxe Core 2 Quad Q9550 @ 3.4 GHZ

    VGA: XFX GTX 275

    2 X 2 GB Kingston KVR800D2N5/2G 5-5-5-15 DDR2 800 Mhz

    Corsair TX 650 W

    HD 500 Gb Seagate

    Windows XP Professional SP2.

  18. Primeiro é sempre bom ver testes pro aqui :). porém raphaelsantos, como os colegas ja disseram, o ideal é você escolher apenas uma maquina para o teste. O ideal seria você ter pego o seu Quad, e ter pego emprestada a placa de video do seu amigo, e dai testar as duas no seu PC. Testando a GTS 250, depois desinstalando completamante os driver da Nvidia, instalando a HD 4770 e seus driver, e realizando o teste novamente. Porque senão o resultado fica muito pouco preciso, ok.

    Sobre o MSAA 8X, ele é o ponto fraco da Nvidia desde o G80 até o GT200, portanto não é novidade a GTS 250 ter uma perca alta no MSAA 8X.

    Então ai vai a dica, seria bom você criar outro teste delas usando apenas um PC.

  19. Espada da Justiça, mas tu não tá esquecendo de UM detalhe? E aquela história (teria que ver se se aplica especificamente neste chip, e pra isso, precisaria daqueles malucos que nsão capazes de olhar fotos de núcleos, reconhecer e contar os ítens) de que cada GPU já era previamente construída com unidades A MAIS que mesmo a top, por garantia?

    Ainda que eu concorde contigo, e o máximo que eu espere sejha uma 5890 estilo da 4890, ou uma 5990 com dois chips de 5890 levemente reduzidos em clock, sempre existe a possibilidade de a AMD decidir ficar "cheryypicking" os cretinos que, com as unidades extras por garantia, ainda assim conseguiram sair com todas as unidades perfeitas, estilo Angelina Jolie, Liv Tyler, Kirsten Dust, Charlize Theron ou Natalie Portman! :D:eek::cool:

    Já pensou uma VGA com as fotos delas? ía vender feito ÁGUA!:D:lol:

    P.S.: Dá pra fazer uma edição limitada com atrizes pornô, especial pra XXXFire! :D huahuahua!

    Hahahahahaha, iria vender MUITO MESMO, eu mesmo teria que comprar uma dessas :D. Viu johannesrs essa ideia de colocar foto dessas deusas foi otima. Afinal essas placas com foto de criaturas feitas em 3D ja ta enchendo o saco :lol:. Uma HD 5990 com a foto em cima da placa da Angelina Julie, ou de outras deusas, seria o presente dos deuses hein :D. Ficaria caro, mais valeria a pena.

    Bom voltando ao assunto, existe essa possibilidade sim, porém o que vai determinar se realmente a HD 5890 seria um Cypress FULL ao invés da HD 5870 é a quantidade de transistores. Até agora o Cypress foi colocado como tendo no total 2.15 bilhões de transistores, veja que tanto a HD 5870 e HD 5850 possuem a mesma quantidade, porém a HD 5850 possui blocos SIMD desativados, e com isso não possui todos os 2.15 bilhões ativos.

    Ou Seja se a HD 5890 vier mesmo com mais unidades tanto de blocos SIMD e ROPS e a quantidade de transistores for maior, então vai indicar que é um novo chip e portanto um irmão maior do Cypress. Se a quantidade se manter em 2.15 bilhões, vai indicar que é de fato um Cypress verdadeiramente FULL com todas as unidades ativas. A menos que a ATI/AMD tenha soltado uma "desinformação seletiva" sobre a quantidade real de transistores do Cypress. porém EU acredito que SE ele vier com mais unidades, ele não sera um Cypress.

    A questão em cheque nessa tabela, não é uma HD 5890 com mais unidades, na qual é de fato possivel, apesar de menos provavel. porém o fato de ter um barramento de 384 bits impede a placa de ter 1024/2048 MB de memoria. E por isso coloquei esse ponto. Alem de que 28 Nm agora em Q1 2010 ta fora de cogitação, ele vai ficar com o R900 mesmo.

    Mas de qualquer forma, que venham a HD 5830 , HD 5890 , e talvez uma HD 5990, quanto mais melhor.:)

  20. Pois é lospider, eu não arriscaria pegar essa "9600 GTO". Vale lembrar que até hoje a XFX vende a "placa aberração" 9600 "GTX" na qual diz ser 256 bits, e não passa de uma 8800 GS com um barramento menor (128 bits).

    Parece que virou moda agora criar esses "modelos" Diferentes para enganar o pessoal.

    Fico p*** como até hoje tem gente la do ML vendendo a 9600 GTX e dizendo, "A 9600 GTX é superior a 9600 GT porque, ela é GTX e não GT" :muro: .

    Triste, e isso não vai mudar nunca. A dica é ver no site do REAL criador da GPU (ATI ou Nvidia) e observar quais os modelos que existem de fato, e rezar pra não pegar um modelo capado (_(.

  21. Se você observar na tabela abaixo, você verá que a HD 5970 tem os mesmos clocks da HD 5850 tanto no chip quanto nas memórias. A única coisa que a HD 5970 tem de semelhante com a 5870 é a quantidade de Stream Processors.

    Agora se você observar bem, segundo esta tabela, a ATI pretende, ainda, lançar uma HD 5990, esta teria o chip com clock de 725 MHz (semelhante à HD 5850) e as memórias com clock de 1200 MHz (semelhante à também ainda não lançada HD 5890), assim como barramento de 384 bits (x2).

    5990Table.jpg

    Bom, so acho que essa tabela ta com alguns pontos ao meu ver, não muito consistentes. Primeiro que acho muiiiittooo difícil a ATI lançar Chip de 28 nm agora em Q1 2010.

    Outro Detalhe é que tal modificação do Cypress, exigiria uma mudança substancial na arquitetura R800, a tal ponto de NÃO ser mais chamada Cypress(ou seja, ainda seria da familia R800, porém não seria Cypress), ja que o R800 Full Cypress possui 20 Blocos SIMD de 80 ALUs + 4 TMUs cada um.

    Ou seja são 4 blocos SIMD adicionais + 2 Blocos ROPs adicionais. Que é algo bem consideravel. Outro detalhe é que de acordo com essa tabela, a HD 5890 teria 6 Blocos ROPS de 8 ROPs cada um (48 ROPS) e com isso 384 Bits de barramento. So que se você observar o campo Memory MAX, vai ver 1024/2048 MiB, so que isso é impossivel.

    Se você vai usar 6 barramentos independetes de 64 bits (384 bits) cada barramento pode usar 2 ou 4 Chips de memoria (Clamshell). Se você usar apenas chips de 1024 Mbit (128 MB) que são os chips de memoria atualmente mais comuns, você vai ter:

    * Modo Normal X32= 12 Chips * 128 MB = 1536 MB

    * Modo Clamshell= 24 Chips *128 MB = 3072 MB

    Se usarem os chips novos de 2048 Mbits:

    * Modo Normal X32= 12 Chips * 256 MB = 3072 MB

    * Modo Clamshell= 24 Chips *256 MB = 6144 MB

    Ou seja, não tem como obter 1024/2048 MB com esse barramento.

    Não é impossivel eles adicionarem 4 Blocos SIMD + 2 Blocos ROPs, porém isso iria modificar a arquitetura, e seria mais provavel um outro nome para ela. Mais pelas informações que ja coloquei, considero essa tabela meio que furada :D.

  22. Galera, eu tava conversando com um amigo meu, q tem play 3 e ele me falou que n existe vga com graficos melhores que o play 3 .. husahsa

    eu falei, claro que tem, a q vou comprar, HD5870 .. digam que eu n falei mer** hehe

    esse VGA é bem melhor que play 3 ou xbox 360(esse eu tenho dai vai da para comparar) né ? mesmo se usar o pc ligado a uma tv de 42 full hd ??

    preciso achar alguns sites que comprovam isso para mostrar pra ele, ele não esta acreditando que esta vga é melhor hehehe

    É preciso que seu amigo coloque na cabeça, que o RSX do PS3 é baseado na mesma arquitetura da Geforce 7800 GTX (que ja é consideravelmente desatualizada). O que torna a qualidade dos graficos do PS3 consideralvemente inferior aos das placas de video mais modernas, a unica coisa que salva a performance do PS3 é seu processador Cell.

    Ou seja, qualquer VGA superior a 7800 GTX é melhor que o RSX do PS3. O que permite o PS3 rodar jogos como o Crysis e o GTA4 com relativa performance, é do fato da resolução e detalhes dos graficos que são usados no PS3 serem menores que os usados no pc. Alem do fato do Cell ser uma CPU mais especializada para trabalhar com jogos, que os processadores dos PCs.

    Não adianta nem falar nada, quem realmente conhece isso, sabe que as placas para PCs possuem uma qualidade grafica bem superior. porém não adianta argumentar com esse pessoal que so quer ver o que quer...... Porque na cabeça deles os graficos do PS3 serão sempre os melhores, o que esta BEMMM longe da realidade. ^_^

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

 

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!