Ir ao conteúdo
  • Cadastre-se

EspadaDaJustiça

Membro Pleno
  • Posts

    791
  • Cadastrado em

  • Última visita

Tudo que EspadaDaJustiça postou

  1. Olha so esse trecho la deles: Ou seja eles sabem que a placa tera problemas de banda com o Extra de 256 MB. Mesmo com modificações do controlador e dos drivers . porém ela so tera problemas com banda caso o framebuffer ultrapasse os 768 MB. Não que seja o fim do mundo, afinal estamos falando de uma placa Low-End. porém esse tipo de abordagem é de pessima eficiência. É a mesma ideia de voce ter uma mobo Dual channel de dois pentes, e resolver colocar mais um pente em um dos canais. Apesar de ter mais memoria o terceiro pente sera acessado apenas em 64 bits e não em 128 Bits (dual Channel). So que aqui estamos falando de VGAs que são muito necessitadas de banda de memoria.
  2. Sim, a nvidia usou essa abordagem ruim, unicamente para poder competir no segmento Low-End. Ja que é mais convidativo ter 1 GB do que 768 MB . Para que o sistema de Memoria e ROPS funcionem com eficiência, é preciso que as memorias sejam de mesma densidade para todos os barramentos. Afinal cada Bloco ROPs é ligado a um Barramento 64 bits, que no qual esse é conectado a 2 Chips GDDR5. Quando o Bloco ROP grava no Framebuffer da placa os Frames ja prontos , ou Efetua o Blend do MSAA, isso é feito paralelamente em TODOS os ROPS e consequentemente em todos os Controladores de memoria. Veja que no caso da GTX 550 TI, ela possue 3 Barramentos de 64 bits, sendo que o ultimo possui 2 chips de 256 MB e os outros 2 Barramentos, possuem apenas 2 Chips de 128 MB cada um. porém os Blocos ROPS de cada um desses barramentos são os MESMOS, incluindo o do terceiro barramento. Dessa forma em algum instante, quando os ROPS estiverem gravando os Frames, vai chegar algum ponto onde vai ter que armazenar Frames apenas do terceiro barramento, e com isso voce vai ter uma banda muito pequena, naquele momento. A banda de memoria teorica é calculada multiplicando o barramento total com a frequencia efetiva da memoria, dividindo por 8. Que no caso da GTX 550 TI é de 192 * 4104 /8 = 98496 MB/s ~= 98,4 GB/s. porém no caso dessa nova placa, a GPU so tera essa banda ate o momento em que a soma dos Framebuffers não passar 768 MB, caso passe, o restante vai ficar com a banda de 32.8 GB/s. Mesmo não sendo muito comum, um hora ou outra, a placa vai ter que gravar com banda baixa. Esse é o custo de se criar barramentos com densidades diferentes nas VGAs. Tudo isso pra manter o apelo comercial, do "O tio me compra uma Gefurci de 1 Giga" kkkkkkkkkkkk .
  3. Realmente, essa GTX 570 é uma otima placa. Boa performance, temperatura aceitavel, consumo aceitavel, e principalmente boa FAIXA DE PREÇO. Enfim, é bom ver a Nvidia de volta ao jogo com um bom produto .
  4. Sim é um detalhe que eu quis compartilhar, ja que a mudança do cientista chefe é algo importante. E com isso você tem qual a filosofia da empresa em seus produtos posteriores. Sobre o tal "limite" vai variar de acordo com o processo (no caso qual a real possibilidade de aumento de densidade no novo processo) e tambem na arquitetura do proprio chip em questão. Temos que esperar para ver.
  5. Sim, e ao que tudo indica, é o provavel caminho que a nvidia prentende seguir. Lembre-se que o Atual Fermi é muito diferente do que o GT200. O Atual fermi segue a filosofia da nvidia em criar GPUs com multiplos propositos (GPGPU, Games, CAD, etc..). So pra você ter uma ideia, a nvidia tinha tirado David kirk (cientista chefe de muitos anos) para colocar no lugar dele o Bill Dally (professor de Stanford , especialista em computação paralela hibrida) para que você acha hum??? O fermi foi uma aposta ambiciosa da nvidia, e Bill Dally é um dos grandes responsaveis por sua arquitetura. O que mostra que a Nvidia quer mesmo continuar esse caminho. Agora se esse é o caminho certo ou não, so o tempo vai dizer. Pelos planos da Nvidia , o Kepler devera seguir a ideia base do Fermi, porém com mais transistores, processo novo (talvez TSMC 28 nm), e talvez mais eficiênte no quesito (transistores/consumo). Agora é termos paciência, e aguardar o que o Cayman vai ter a oferecer.
  6. Eu sei disso, mas eu duvido muito se a AMD não vai abaixar o preço da HD 5970 depois desse lançamento da GTX 580. . Agora so resta esperar o Cayman.
  7. Meu deus, me faz lembrar do tempo das Geforce 8800 GTX e Ultra. hahahahahaha . Com certeza uma placa para MUITO POUCOS .
  8. Como resumir a GTX 580? "Uma boa placa, com pequenos refinamentos ao GF100, porém mantendo certos desbalanceamentos ao GF100. Ou seja o que Fermi deveria ser desde o começo . " A unica novidade significativa do GF110 esta na capacidade dos TMUs em filtrar Texturas FP16 em Full Speed, ou seja, na mesma taxa que a filtragem bilinear. De uma forma mais popular, ajuda em jogos em HDR a dar mais FPS. O Z-culling melhorado ajuda em certas cargas, principalmente quando dizer quais pixels serão mortos ou não. Mas no geral é um GF100 A4, nada mais .
  9. Bom Juuchan, se você ja trocou de drivers, testou com o Furmark, 3dmark, etc.. O proximo passo, é reduzir o clock da GPU e Memoria, para ver se estabiliza. Pode ser que voce teve o azar de pegar um "Cypress XT" que não fica estavel em seus clocks originais do perfil performance (Core 850 Mhz / Memoria 1200 Mhz). Eu tive uma Geforce GTX 275 da XFX que pra funcionar bem sem artefatos, tive que reduzir muito clock (510 Mhz Core vs 640 Mhz Original) dai eu mandei de volta pra garantia e troquei pela HD 5870 . Boa sorte ai.
  10. EXATAMENTE. O problema da HD 5850 se chama CLOCK BASE. Basta deixar a HD 5850 perto de 850 MHZ, que ela ja passa a HD 6870, claro que você tambem pode dar um over na HD 6870 . Ja a HD 6850 alem de clock baixo, tem poucas unidades de SP/TMUs, e aqui voce pode dar um gas com over, mas não muito tambem.
  11. Bom o poder extra no caso do FC2 pode ter vindo de uma otimização dos Drivers para a Nova Serie HD 6000, principalmente o Recurso de Filtragem de Texturas de Alta Velocidade, introduzido pela AMD para a nova Serie. Alem do Esquema Dual Dispatch. porém a forma como o AA é tratado e a força dos ROPS é a Mesma do Cypress , clock a clock é claro .
  12. A Unica mudança real para o Cypress no Barts, é a unidade de Tesselator mais otimizada (ela não é brutalmente superior, porém tem uma melhor performance com Tesselation de Baixo Fator , ou seja, Tesselation de poucos triangulos) e uma unidade de Dispacho mais paralela. Em termos de jogos em si, não tem nenhuma revolução para o Cypress. O Barts nada mais é que 90% de um Cypress com alguns rebalanceamentos, nada mais. Olha para ser sincero, em termos de performance bruta as Duas são bem parecidas, porém a vantagem na HD 4890 em relação a HD 5770 se da atraves da banda de memoria maior (sim XITA, apesar daquele teste, ainda a banda aqui faz diferença ). Basta observar que o aumento de performance da HD 5770 com os novos drivers, se dão mais nos aplicativos DX11, onde a AMD fez algumas otimizações, que afetaram toda a familia HD 5000. porém em minha concepção a HD 4890 é uma placa um pouco superior a HD 5770, em termos de poder bruto. Ja em recursos a HD 5770 ganha fácil .
  13. Uma Bela Placa,e como eu tinha dito antes, É 90% de um Cypress . Mesmo esquema VLIW5, Bloco SIMD IDENTICO AO CYPRESS. Melhor Tesselation apenas em baixo Fator. Enfim, um Cypress com cortes e rebalanceamentos. GOGO Esperar o Senhor Cayman .
  14. Possivel é sim, porém voce NÃO vai "destravar" os SPs e TMUs desativados, ja que no Cypress Pro (HD 5850) eles foram desativados via corte a laser. O unico beneficio , seria os clocks maiores, porém voce pode ter problemas se o seu Cypress não se der bem com os clocks padrão da bios da HD 5870. O jeito é voce ir overclockando aos poucos e com isso testando ate onde o seu Cypress aguentar. Então esqueça essa ideia da Bios da HD 5870, ok.
  15. Pessoal, até parece que a nvidia iria liberar o Physx para as Radeon. Vejam bem, na atual geração das Geforce, com seus 3.2 Bilhões de Transistores com pouco poder de texturas, e uma arquitetura mais voltada para GPGPU do que jogos. O Physx é o 3D Vision são as unicas armas que a Nvidia tem disponivel para atrair os consumidores para as Geforce GTX400. Sei que seria sensato a liberação do Physx , mas eu não sou do tipo que acredita em milagres .
  16. As temperaturas das memorias estão baixas. Ja a GPU eu configurei o Rivaturner para aumentar a rotação de acordo com a temperatura, ficando em 65% quando a GPU fica acima de 64º, 80% acima de 72º, e 100% acima de 76º. Com isso a GPU raramente passa de 70º em Alta Carga. Parece que fui "Premiado" com um GT200 instavel em seus clocks padrão . Vou mandar essa placa para a garantia mesmo. E ver se dessa vez pego um GT200 normal. ps: Nunca fiz overclock nessa placa de video, justamente por ja saber que o GT200 é bem esquentadinho .
  17. Seu problema é bem parecido com o que estou tendo com a minha GTX 275, o jogo trava por uns 4 ou 5 segundos e depois volta com as texturas trocadas e borradas né? Nos drivers novos isso ocorre mais frequentemente. Uma coisa que ajuda a diminuir a ocorrencia desse problema é forçar uma AA alto (8X) . Eu até tinha postado no topico das GTX 275, mas parece que ninguem pode testar o jogo Cabal Online em uma GTX 275, para saber se era problema de hardware ou software. Ja que nesse jogo em especial o problema ocorre com mais frequência. O Ideal é você fazer um downclock das memorias e depois da GPU em si. Se o problema se resolver com o downclock, mande a sua VGA de volta para a garantia (se caso ainda estiver), porque ninguem merece ter que usar uma VGA abaixo dos seus clocks padrão.
  18. Opa tudo bom Root ?. Bom de todos eles você sabe bem que o Furmark é de longe o que mais exige da placa. porém os jogos usam outros tipos de formatos de texturas entre outras variaveis, que podem acionar o problema da placa, que em programas de Benchmarks não ocorre. Por isso para desencargo de conciência eu quero que alguem que tenha uma GTX 275 teste o jogo cabal online sem o Anti-Aliasing para ver se é mesmo um problema de software. ps: Esqueci de citar que a CPU esta sem Overclock.
  19. Ola galera, faz tempo venho aqui . Bom eu estou tendo um problema bem particular com minha GTX 275 e gostaria de checar se alguem tem algo parecido. Como eu quase nunca jogo, descobri por intermedio da minha irma que estava tendo problemas com alguns jogos. Durante alguns jogos, ocorre uma travada na imagem que dura uns 4 Segundos, quando o jogo volta a fluir, as Texturas estão todas borradas e com cores completamente diferentes (possivel Erro Frame Buffer). O Problema Ocorreu nos seguintes jogos: Cabal Online, Mechwarriors 4 Mercenaries, Freelancer, e também outros jogos antigos. Ja testei varios drivers, no mais novo (Versão 197.75) o problema ocorre com mais frequência, principalmente no Cabal Online. Ja no mais antigo (182.55) o problema ocorre com menor intensidade, porém com o mais velho ocorre outro problema, A exceção de Erro de Driver (O Driver Parou de Responder e bla bla bla) Com As cores de 4 Bits. O mais estranho é que se você forçar o AA em 8X a ocorrencia do problema reduz bastante, porém ocorre. Estou suspeitando de Falha em um dos Chips GDDR3, ja que erro de texturas é mais comum nos erros causados pela memoria da placa. Ja testei no 3D Mark 2006, 3D Mark Vantage, e no Furmark, e não ocorre problemas. infelizmente não existe uma ferramenta para testar mais profundamente a placa (testar os TMUs, ROPS, VRAM etc...) e por isso o jeito é por tentativa e erro. Por isso peço ajuda de quem tem essa placa poderia testar o jogo Cabal Online para tentar replicar o erro? As condições são: * Pode usar Qualquer Resolução * Anti-Aliasing DESLIGADO (no cabal aparece como Amostras multiplas) * Driver Mais Recente Por isso antes de mandar essa placa para a garantia, preciso ter certeza que não seja um problema apenas de drivers. Quem puder ajudar, serei muito grato. Obrigado. Configuração: Asus P5E Deluxe Core 2 Quad Q9550 @ 3.4 GHZ VGA: XFX GTX 275 2 X 2 GB Kingston KVR800D2N5/2G 5-5-5-15 DDR2 800 Mhz Corsair TX 650 W HD 500 Gb Seagate Windows XP Professional SP2.
  20. Primeiro é sempre bom ver testes pro aqui . porém raphaelsantos, como os colegas ja disseram, o ideal é você escolher apenas uma maquina para o teste. O ideal seria você ter pego o seu Quad, e ter pego emprestada a placa de video do seu amigo, e dai testar as duas no seu PC. Testando a GTS 250, depois desinstalando completamante os driver da Nvidia, instalando a HD 4770 e seus driver, e realizando o teste novamente. Porque senão o resultado fica muito pouco preciso, ok. Sobre o MSAA 8X, ele é o ponto fraco da Nvidia desde o G80 até o GT200, portanto não é novidade a GTS 250 ter uma perca alta no MSAA 8X. Então ai vai a dica, seria bom você criar outro teste delas usando apenas um PC.
  21. Hahahahahaha, iria vender MUITO MESMO, eu mesmo teria que comprar uma dessas . Viu johannesrs essa ideia de colocar foto dessas deusas foi otima. Afinal essas placas com foto de criaturas feitas em 3D ja ta enchendo o saco . Uma HD 5990 com a foto em cima da placa da Angelina Julie, ou de outras deusas, seria o presente dos deuses hein . Ficaria caro, mais valeria a pena. Bom voltando ao assunto, existe essa possibilidade sim, porém o que vai determinar se realmente a HD 5890 seria um Cypress FULL ao invés da HD 5870 é a quantidade de transistores. Até agora o Cypress foi colocado como tendo no total 2.15 bilhões de transistores, veja que tanto a HD 5870 e HD 5850 possuem a mesma quantidade, porém a HD 5850 possui blocos SIMD desativados, e com isso não possui todos os 2.15 bilhões ativos. Ou Seja se a HD 5890 vier mesmo com mais unidades tanto de blocos SIMD e ROPS e a quantidade de transistores for maior, então vai indicar que é um novo chip e portanto um irmão maior do Cypress. Se a quantidade se manter em 2.15 bilhões, vai indicar que é de fato um Cypress verdadeiramente FULL com todas as unidades ativas. A menos que a ATI/AMD tenha soltado uma "desinformação seletiva" sobre a quantidade real de transistores do Cypress. porém EU acredito que SE ele vier com mais unidades, ele não sera um Cypress. A questão em cheque nessa tabela, não é uma HD 5890 com mais unidades, na qual é de fato possivel, apesar de menos provavel. porém o fato de ter um barramento de 384 bits impede a placa de ter 1024/2048 MB de memoria. E por isso coloquei esse ponto. Alem de que 28 Nm agora em Q1 2010 ta fora de cogitação, ele vai ficar com o R900 mesmo. Mas de qualquer forma, que venham a HD 5830 , HD 5890 , e talvez uma HD 5990, quanto mais melhor.
  22. Pois é lospider, eu não arriscaria pegar essa "9600 GTO". Vale lembrar que até hoje a XFX vende a "placa aberração" 9600 "GTX" na qual diz ser 256 bits, e não passa de uma 8800 GS com um barramento menor (128 bits). Parece que virou moda agora criar esses "modelos" Diferentes para enganar o pessoal. Fico p*** como até hoje tem gente la do ML vendendo a 9600 GTX e dizendo, "A 9600 GTX é superior a 9600 GT porque, ela é GTX e não GT" . Triste, e isso não vai mudar nunca. A dica é ver no site do REAL criador da GPU (ATI ou Nvidia) e observar quais os modelos que existem de fato, e rezar pra não pegar um modelo capado .
  23. Bom, so acho que essa tabela ta com alguns pontos ao meu ver, não muito consistentes. Primeiro que acho muiiiittooo difícil a ATI lançar Chip de 28 nm agora em Q1 2010. Outro Detalhe é que tal modificação do Cypress, exigiria uma mudança substancial na arquitetura R800, a tal ponto de NÃO ser mais chamada Cypress(ou seja, ainda seria da familia R800, porém não seria Cypress), ja que o R800 Full Cypress possui 20 Blocos SIMD de 80 ALUs + 4 TMUs cada um. Ou seja são 4 blocos SIMD adicionais + 2 Blocos ROPs adicionais. Que é algo bem consideravel. Outro detalhe é que de acordo com essa tabela, a HD 5890 teria 6 Blocos ROPS de 8 ROPs cada um (48 ROPS) e com isso 384 Bits de barramento. So que se você observar o campo Memory MAX, vai ver 1024/2048 MiB, so que isso é impossivel. Se você vai usar 6 barramentos independetes de 64 bits (384 bits) cada barramento pode usar 2 ou 4 Chips de memoria (Clamshell). Se você usar apenas chips de 1024 Mbit (128 MB) que são os chips de memoria atualmente mais comuns, você vai ter: * Modo Normal X32= 12 Chips * 128 MB = 1536 MB * Modo Clamshell= 24 Chips *128 MB = 3072 MB Se usarem os chips novos de 2048 Mbits: * Modo Normal X32= 12 Chips * 256 MB = 3072 MB * Modo Clamshell= 24 Chips *256 MB = 6144 MB Ou seja, não tem como obter 1024/2048 MB com esse barramento. Não é impossivel eles adicionarem 4 Blocos SIMD + 2 Blocos ROPs, porém isso iria modificar a arquitetura, e seria mais provavel um outro nome para ela. Mais pelas informações que ja coloquei, considero essa tabela meio que furada .
  24. É preciso que seu amigo coloque na cabeça, que o RSX do PS3 é baseado na mesma arquitetura da Geforce 7800 GTX (que ja é consideravelmente desatualizada). O que torna a qualidade dos graficos do PS3 consideralvemente inferior aos das placas de video mais modernas, a unica coisa que salva a performance do PS3 é seu processador Cell. Ou seja, qualquer VGA superior a 7800 GTX é melhor que o RSX do PS3. O que permite o PS3 rodar jogos como o Crysis e o GTA4 com relativa performance, é do fato da resolução e detalhes dos graficos que são usados no PS3 serem menores que os usados no pc. Alem do fato do Cell ser uma CPU mais especializada para trabalhar com jogos, que os processadores dos PCs. Não adianta nem falar nada, quem realmente conhece isso, sabe que as placas para PCs possuem uma qualidade grafica bem superior. porém não adianta argumentar com esse pessoal que so quer ver o que quer...... Porque na cabeça deles os graficos do PS3 serão sempre os melhores, o que esta BEMMM longe da realidade.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

Ebook grátis: Aprenda a ler resistores e capacitores!

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!