Ir ao conteúdo
  • Cadastre-se

R1000, Radeon 7**0, "Southern Islands", tópico oficial de discussão


Evandro

Posts recomendados

Eu entendo o que quer dizer. Como você ja sabe as Otimizações do GNC dão ao Cape Verde sua cartada na questão de Eficiência nos Shaders.

Vale lembrar que dependendo da Engine do jogo a ser testado os resultados vão variar (normal ^_^). Em Engines menos Shader Intensivos a HD 7750 fica mais proxima a sua irmã maior. Eu vi testes em que a HD 7750 perde por quase o dobro de FPS(em relação a HD 7770), geralmente em games DX11 com Post-Processamento alto e em engines muito shader intensivas, em outros games a diferença cai muito. O que é normal não é meu caro amigo Sirro ^_^.

No caso do Cypress XT (HD 5770) os 1360 GFlops SP em MAD não significam muita coisa, até porque o VLIW5 é consideravelmente ineficiente em relação ao GNC. Vertex Shader então, no VLIW5 era bem decepcionante. Ja no GNC, melhorou bem isso.

Outro detalhe é que se você prestar atenção cada vez mais jogos estão introduzindo o famoso FXAA. O FXAA como filtro pos-processado a renderização em si, vai se beneficiar bem de uma arquitetura como o GNC, e com isso você ganha alguns frames aqui.

Sobre os caches L1 D & I, basicamente qualquer Workload, dentro dos CUs que precisa ser sincronizada com os outros do grupo local, uma hora ou outra vai ter que usar eles;).

Geralmente Hull e Domain Shaders tende a usar mais ele (jogos), e no GPGPU vai variar de muito ou pouco, dependendo da bendita (ou maldita :D) aplicação.

porém o que eu quis colocar, e que apesar de ser um cache Importante, são de fatos os outros detalhes da arquitetura usada nas Novas Radeons, que pesam mais na performance dos jogos. O Cache L2 então....

Porque se fosse um caso de cache muito congestionada a AMD teria por obrigação ter que mudar isso na etapa de design.

Uma outra situação ainda mais bizarra é a performance MUITO pareada das novas HD 7800 com as TOPS HD 7900. Ai voce pode dizer, "Onde esta a magica ?", bom não tem magica :), o motivo é que apesar das novas HDs 7800 terem bem menos Shaders que as HD 7900, o seu poder em termos de ROPs (ou o que eu costumo chamar de Pixel Power) TMUs, foram bem preservados se compararmos com as HDs 7900. Alem de possuirem um otimo "Shader Power" :).

porém é como eu disse, quanto mais Shader Intensiva é uma Engine, maior tende a ser essa diferença. Ou seja para as novas HD 7900 brilharem mesmo, so faltava mais ROPs (e com isso mais Rasterizers e assim maior poder de Tesselation) e novos jogos com Engines que de fato aproveitem essa super poder nos Shaders.

Não seria Juniper XT a 5770? Cypress XT não é a 5870?

Link para o comentário
Compartilhar em outros sites

Uma outra situação ainda mais bizarra é a performance MUITO pareada das novas HD 7800 com as TOPS HD 7900. Ai voce pode dizer, "Onde esta a magica ?", bom não tem magica :), o motivo é que apesar das novas HDs 7800 terem bem menos Shaders que as HD 7900, o seu poder em termos de ROPs (ou o que eu costumo chamar de Pixel Power) TMUs, foram bem preservados se compararmos com as HDs 7900. Alem de possuirem um otimo "Shader Power" :).

porém é como eu disse, quanto mais Shader Intensiva é uma Engine, maior tende a ser essa diferença. Ou seja para as novas HD 7900 brilharem mesmo, so faltava mais ROPs (e com isso mais Rasterizers e assim maior poder de Tesselation) e novos jogos com Engines que de fato aproveitem essa super poder nos Shaders.

Se me permite recortar, acho que a mensagem final diz um ponto importantíssimo e resume tudo. O GCN está melhor do que parecia à primeira vista, com base nos testes do Tahiti, pois ele está desequilibrado no quesito ROPs.

Pitcairn, com o mesmo front-end do Tahiti, faz o irmão maior suar muito para se manter na posição.

Link para o comentário
Compartilhar em outros sites

Isso é algo importante, porque significa que quem quer uma placa "top" tecnicamente tem "alternativa" desta vez.

A pergunta é: e em gpgpu, quem tá mandando mesmo, as HD7900 ou as HD7800?

Era exatamente essa a minha dúvida :) mas n pude parar ver isso direito :(, já que a "falta" de ROPs não influenciaria no GPGPU.

Link para o comentário
Compartilhar em outros sites

  • 3 semanas depois...

Uma informação interessante que eu não vi ser repassada aqui. Segundo o Dave Baumann o GCN tem o mesmo recurso do "bindless textures" da nvidia através da unidade escalar dentro do *****.

http://forum.beyond3d.com/showpost.php?p=1631487&postcount=22

http://forum.beyond3d.com/showpost.php?p=1631507&postcount=24

  • Curtir 2
Link para o comentário
Compartilhar em outros sites

Espada, continuando o que a gente tava falando: prova de que o Tahiti tá com um bottleneck danado em algum canto (chuto ROPs, como você disse)?

?colors=FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,00FF00,00FF00,00FF00,00FF00,00FF00,0000FF,0000FF,0000FF,0000FF

Apenas quando em CF o Tahiti tá conseguindo tirar proveito da maior quantidade/banda de memória disponível. Já com o GK104 ocorre o contrário. Parece que ele está muuito bem equilibrado (e em altas resoluções realmente começa a faltar memória/banda).

E para facilitar, o Scaling tá assim (todos em relação ao resultado single-gpu nesse jogo):

7970x4 = +254% (+32% em relação ao 7970x3)

7970x3 = +160% (olhando para o resultado x1 e x4 parece que perde mais scaling que o normal, deve ser algo de sincronia)

7970x2 = +87%

680x4 = +124%

680x2 = +62%

EDIT: ou eu tô procurando pelo em ovo :lol:

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

Espada, continuando o que a gente tava falando: prova de que o Tahiti tá com um bottleneck danado em algum canto (chuto ROPs, como você disse)?

?colors=FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,FF0000,00FF00,00FF00,00FF00,00FF00,00FF00,0000FF,0000FF,0000FF,0000FF

Apenas quando em CF o Tahiti tá conseguindo tirar proveito da maior quantidade/banda de memória disponível. Já com o GK104 ocorre o contrário. Parece que ele está muuito bem equilibrado (e em altas resoluções realmente começa a faltar memória/banda).

E para facilitar, o Scaling tá assim (todos em relação ao resultado single-gpu nesse jogo):

7970x4 = +254% (+32% em relação ao 7970x3)

7970x3 = +160% (olhando para o resultado x1 e x4 parece que perde mais scaling que o normal, deve ser algo de sincronia)

7970x2 = +87%

680x4 = +124%

680x2 = +62%

EDIT: ou eu tô procurando pelo em ovo :lol:

Bem curioso isso... Pelo visto a AMD tem feito o dever de casa em matéria de otimização multi-GPU. A cada geração isso parece estar melhorando... Muito curioso!

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

Sirroman, isso aí tá com cara de falta de drivers otimizados pro Kepler (pelo menos no que diz respeito ao SLI)...

Eu acho que não, hein? Porque outro review de SLI/CF, com outra configuração de qualidade (e logicamente com outras 680, o que faz com que os dois reviews sejam absolutamente incomparáveis) mas no mesmo jogo mostra que o SLI está funcionando corretamente.

http://www.tomshardware.com/reviews/geforce-gtx-680-sli-overclock-surround,3162-5.html

O que eu quero me concentrar é na própria 7970 contra o "padrão do SLI da 680 nesse teste" já que nessa geração não dá para comparar testes de 680 entre si! O turbo tá deixando tudo torto.

Link para o comentário
Compartilhar em outros sites

Não esperem que a AMD vá diminuir o preço das placas tão cedo.

What matters most is the general customers' perception of the brand. Why do you avoid to comment on that? That is something AMD should think of more deeply and in the long run, not about some current sales...
Ever considered that price drops may not be conducive to building a brand?

http://forum.beyond3d.com/showpost.php?p=1632968&postcount=3215

A AMD vai tentar reforçar a marca nessa geração e para isso cobrar um premium não é nem um pouco imprevisível.

Link para o comentário
Compartilhar em outros sites

Além disso Sirro, tem esse outro detalhe que eu tinha visto por ai, a AMD acredita que a Nvidia não vai conseguir sustentar a provisão para toda a demanda, se eu entendi bem.

http://www.hardwarecanucks.com/news/video/hd-7970-price-cuts-dont-count-on-it/

Through a few well placed sources in the retail chain we hear that backorder queues for the GTX 680 are filling up faster than AMD can sell HD 7900-series cards. At this rate it wouldn’t be surprising to see some retailers shift certain GTX 680 versions to “not available” status until the massive backlog clears. If that happens, AMD’s strategy may actually start paying dividends, especially considering the HD 7970, HD 7870 and HD 7850 are selling like gangbusters.
Link para o comentário
Compartilhar em outros sites

um rumorzinho para animar o inicio do mês :)

1a-635x359.jpg

1b.jpg

The picture reveals the card to be fairly long. AMD chose a fancy PCB number to denote "leeeet" (elite), it did a similar word-play with "AUSUM", around the HD 6990. The card is using an AMD-rebadged PLX PEX8747 PCI-Express 3.0 48-lane bridge chip, which features "broadcast" features that makes it fit for dual-GPU graphics cards. Moving on to specifications, the HD 7990 features 1 GHz core clock speed, with 1250 MHz memory. The card has a total of 6 GB GDDR5 memory, 3 GB per GPU. It features completely-unlocked 28 nm "Tahiti XT" GPUs, with 2048 stream processors. It draws power from two 8-pin PCIe power connectors. Display outputs include one dual-link DVI, four mini-DisplayPort connectors. Slated for a "hard-launch" on April 17, AMD's Radeon HD 7990 6 GB "New Zealand" will target a price-point of US $849.

Fontes:

http://wccftech.com/amd-radeon-hd-7990-images-details-surface/

http://www.techpowerup.com/163386/AMD-Radeon-HD-7990-Reference-Board-Pictured-Specs-Confirmed-in-GPU-Z-Screenshot.html

Link para o comentário
Compartilhar em outros sites

X720 com dual-GPU, não vai usar AFR (provavelmente vai ser "tile-rendering", mas eu não sei se o nome técnico é esse, esqueci). Com Blu-ray.

CPU com 4/6 núcleos, 1 dedicado para o OS, 1 para o Kinect.

http://www.vg247.com/2012/04/02/xbox-720-detailed-blu-ray-inside-always-on-netcon-required/

Para facilitar, link para o último leak sobre o PS4 (vulgo "orbis") do Kotaku: http://kotaku.com/5896996/the-next-playstation-is-called-orbis-sources-say-here-are-the-details

E uma novidade, supostos slides do Orbis, o PS4 deve fazer o mesmo que o Kinect (com o PS Eye) e que o Wii U (com o portátil controlando o console).

original.png

original.png

http://kotaku.com/5897139/sketches-of-playstation-orbis-features-surface-then-disappear

Ponho aqui pois pelo que o Charlie comenta GCN para ambos é possível. Ou pelo menos um.

Link para o comentário
Compartilhar em outros sites

X720 com dual-GPU, não vai usar AFR (provavelmente vai ser "tile-rendering", mas eu não sei se o nome técnico é esse, esqueci). Com Blu-ray.

CPU com 4/6 núcleos, 1 dedicado para o OS, 1 para o Kinect.

http://www.vg247.com/2012/04/02/xbox-720-detailed-blu-ray-inside-always-on-netcon-required/

Para facilitar, link para o último leak sobre o PS4 (vulgo "orbis") do Kotaku: http://kotaku.com/5896996/the-next-playstation-is-called-orbis-sources-say-here-are-the-details

E uma novidade, supostos slides do Orbis, o PS4 deve fazer o mesmo que o Kinect (com o PS Eye) e que o Wii U (com o portátil controlando o console).

original.png

original.png

http://kotaku.com/5897139/sketches-of-playstation-orbis-features-surface-then-disappear

Ponho aqui pois pelo que o Charlie comenta GCN para ambos é possível. Ou pelo menos um.

X720 com dual GPU? Sirro, o que você pensa disso? Lembra que nós conversamos a respeito disso e você achar que isso seria incabível? Embora na matéria diga que o funcionamento não seja igual a um SLI ou Crossfire num PC, imagino que o desempenho seja um estrondo! Se bem que eles usarão GPUs intermediárias pra possibilitar 2 GPUs no console, imagino eu, mas a performance sera estrondosa do mesmo jeito. Coitada da Nintendo e seu suposto HD 4830... (espero estar enganado).

Link para o comentário
Compartilhar em outros sites

X720 com dual GPU? Sirro, o que você pensa disso? Lembra que nós conversamos a respeito disso e você achar que isso seria incabível? Embora na matéria diga que o funcionamento não seja igual a um SLI ou Crossfire num PC, imagino que o desempenho seja um estrondo! Se bem que eles usarão GPUs intermediárias pra possibilitar 2 GPUs no console, imagino eu, mas a performance sera estrondosa do mesmo jeito. Coitada da Nintendo e seu suposto HD 4830... (espero estar enganado).

é, eu sinceramente não gosto nem um pouco disso (dual-gpu em um console). O problema é que um chip único é naturalmente mais simples e com isso é mais fácil ser eficiente. Por isso dual-gpu eu sempre achei que fosse ficar de fora. Mas sei lá, quem sou eu para falar sobre os planos do povo? xD

Se for dual-gpu mesmo, eu acredito sinceramente que vai ser algum tipo de APU + uma gpu discreta, porque eu não consigo imaginar que tipo de performance o x720 tem como alvo que não pudesse ser alcançada com um único chip que já exista no mercado... sem estourar o consumo, a refrigeração e consequentemente os custos. :huh: (pode ver que dual-gpu é feita para superar a performance que os outros chips maiores podem fazer, não para igualar, salvo a gente, reles mortais. :rolleyes: E geralmente só quando o preço cai, como um upgrade de uma placa que foi comprada antes).

Uma possibilidade que eu vi rodando é que o rumor de que "as gpus teriam funções diferentes, não sendo CF/SLI" na verdade significa que as duas NÃO seriam usadas para renderizar ao mesmo tempo, mas sim que a discreta iria fazer a parte "gráfica" enquanto a GPU integrada serviria para GPGPU, física e etc, etc.

Uma coisa bacana que isso abre seria usar essa GPU interna para fazer a análise das imagens do kinect, algo que a AMD já mostrou faz um tempinho e de vez em quando aparece nos slides como sendo uma vantagem dos seus produtos (seja para fazer funções como o "steady cam" que a gente já tem no CCC, seja para um eventual reconhecimento facial/labial que o kinect 2.0 venha a ter). Falta ver se vai dar certo mesmo.

Sendo isso vou estar aqui torcendo para o APU escolhido seja o Kaveri ou pelo menos o Kabini (ou uma versão levemente alterada), pois só assim a gente vai ter o GCN... Se for trinity ainda vai ser VLIW4 e ai você já viu: é bom mas n é a mesma coisa, n dá nem pro cheiro no GPGPU. ^_^ Na verdade eu acho que vai ser o Kabini mesmo se o núcleo jaguar for suficiente, porque ai o TDP vai ser menor (-consumo, -refrigeração, -defeito), o chip também vai ser menor (-custos) e o timing também está levemente mais interessante (Kabini lança no Q1 2013, o que dá um boooom tempo para pegar volume até o lançamento dos consoles num eventual Q4 2013, mas também não tem muito problema em ser um Kaveri eu acredito).

O legal disso é que, se for verdade, mostra que a AMD deve ter vendido o peixe do Fusion MUITO BEM, hein? Seria uma vitória estratégica interessantíssima e poderia forçar muita gente a mexer com o GCN e com o GPGPU ("eu tenho isso aqui a disposição, mas não posso usar para gráficos... hmmm... deixa eu ver o que eu posso espremer dessa gracinha")

(e outra vantagem não intencional desse rumor =P: eu vou estar "certo" :D não vai ser dual-gpu para renderizar o jogo, porque tem um overhead e complexidades que não são interessantes para consoles, logo o que eu falava antes permanece :D)

  • Curtir 3
Link para o comentário
Compartilhar em outros sites

é, eu sinceramente não gosto nem um pouco disso (dual-gpu em um console). O problema é que um chip único é naturalmente mais simples e com isso é mais fácil ser eficiente. Por isso dual-gpu eu sempre achei que fosse ficar de fora. Mas sei lá, quem sou eu para falar sobre os planos do povo? xD

Se for dual-gpu mesmo, eu acredito sinceramente que vai ser algum tipo de APU + uma gpu discreta, porque eu não consigo imaginar que tipo de performance o x720 tem como alvo que não pudesse ser alcançada com um único chip que já exista no mercado... sem estourar o consumo, a refrigeração e consequentemente os custos. :huh: (pode ver que dual-gpu é feita para superar a performance que os outros chips maiores podem fazer, não para igualar, salvo a gente, reles mortais. :rolleyes: E geralmente só quando o preço cai, como um upgrade de uma placa que foi comprada antes).

Uma possibilidade que eu vi rodando é que o rumor de que "as gpus teriam funções diferentes, não sendo CF/SLI" na verdade significa que as duas NÃO seriam usadas para renderizar ao mesmo tempo, mas sim que a discreta iria fazer a parte "gráfica" enquanto a GPU integrada serviria para GPGPU, física e etc, etc.

Uma coisa bacana que isso abre seria usar essa GPU interna para fazer a análise das imagens do kinect, algo que a AMD já mostrou faz um tempinho e de vez em quando aparece nos slides como sendo uma vantagem dos seus produtos (seja para fazer funções como o "steady cam" que a gente já tem no CCC, seja para um eventual reconhecimento facial/labial que o kinect 2.0 venha a ter). Falta ver se vai dar certo mesmo.

Sendo isso vou estar aqui torcendo para o APU escolhido seja o Kaveri ou pelo menos o Kabini (ou uma versão levemente alterada), pois só assim a gente vai ter o GCN... Se for trinity ainda vai ser VLIW4 e ai você já viu: é bom mas n é a mesma coisa, n dá nem pro cheiro no GPGPU. ^_^ Na verdade eu acho que vai ser o Kabini mesmo se o núcleo jaguar for suficiente, porque ai o TDP vai ser menor (-consumo, -refrigeração, -defeito), o chip também vai ser menor (-custos) e o timing também está levemente mais interessante (Kabini lança no Q1 2013, o que dá um boooom tempo para pegar volume até o lançamento dos consoles num eventual Q4 2013, mas também não tem muito problema em ser um Kaveri eu acredito).

O legal disso é que, se for verdade, mostra que a AMD deve ter vendido o peixe do Fusion MUITO BEM, hein? Seria uma vitória estratégica interessantíssima e poderia forçar muita gente a mexer com o GCN e com o GPGPU ("eu tenho isso aqui a disposição, mas não posso usar para gráficos... hmmm... deixa eu ver o que eu posso espremer dessa gracinha")

(e outra vantagem não intencional desse rumor =P: eu vou estar "certo" :D não vai ser dual-gpu para renderizar o jogo, porque tem um overhead e complexidades que não são interessantes para consoles, logo o que eu falava antes permanece :D)

Mas, pelo o que eu entendi, seriam 2 GPUs da série 7xxx. Eu estou por fora dos futuros lançamentos de APUs por parte da AMD, mas imagino que os modelos citados por ti venham com chip integrado HD 7xxx, o que pode confirmar a sua suspeita. E CPU eu imagino que seja AMD, também (algum FX-6xxx). E eu concordo contigo que poderiam pegar uma VGA single parruda e meter no console, igual foi com a geração passada, pra sua época. Agora, quanto ao GPGPU pra jogos, só se o chip integrado fosse potente o bastante pra fazer seu papel de CPU auxliar à CPU principal e o seu papel de GPU, e pros jogos, é mais importante o GPU que o CPU, né?

Quanto ao PS4, vi rumores de que ele poderia vir com uma CPU A8-3850 e uma simples HD 7670, o que não me parece ser muito mais poderosa que as VGAs dos consoles atuais. Se for isso, nem compensa, ao meu ver, lançar console novo.

Agora, quanto ao Wii U... Li rumores de que ele pode ser menos poderoso que os consoles atuais, o que é algo inaceitável! Antes, cogitavam muito algo da familia RV770 da AMD/ATI, o que já seria melhor que os consoles atuais. Agora, se a Nintendo inventar de lançar um console menos poderoso que os atuais, pra mim, nem precisa lançar. Lembrei que cogitaram lançar o novo console com o RV730, que eu pesquisei e seria a simplória HD 4670!! Não tem cabimento isso!

Espero não estar ficando off-topic.

Link para o comentário
Compartilhar em outros sites

[...]Quanto ao PS4, vi rumores de que ele poderia vir com uma CPU A8-3850 e uma simples HD 7670, o que não me parece ser muito mais poderosa que as VGAs dos consoles atuais. Se for isso, nem compensa, ao meu ver, lançar console novo.

Agora, quanto ao Wii U... Li rumores de que ele pode ser menos poderoso que os consoles atuais, o que é algo inaceitável! Antes, cogitavam muito algo da familia RV770 da AMD/ATI, o que já seria melhor que os consoles atuais. Agora, se a Nintendo inventar de lançar um console menos poderoso que os atuais, pra mim, nem precisa lançar. Lembrei que cogitaram lançar o novo console com o RV730, que eu pesquisei e seria a simplória HD 4670!! Não tem cabimento isso!

Espero não estar ficando off-topic.

Com certeza a HD 7670 é mais poderosa que a GPU do X360 e PS3! Mas ainda é muito fraca para renderizar jogos com alto nivel de detalhes, iluminação e sombras em 1080p, fato que deve ser obrigatório para justificar o novo investimento.

Quanto ao Wii U, não acredito que a Nintendo cometeria este erro gigante, o Wii foi um sucesso devido a inovação do controle, mas devia muito nos gráficos. Lançar um console novo, quase no fim da geração é um baita tiro no pé.

Link para o comentário
Compartilhar em outros sites

Estou surpreso. Se esses rumores se confirmarem, a AMD estará fechando ótimos contratos, fornecendo hardware para xbox e playstation!

Quanto à placa de vídeo, eu acho que vai ser uma(ou duas) da potência da 7870, com um melhoramento do consumo de energia. Afinal os consoles só serão lançados em 2013. Até lá a AMD poderá melhorar o modo de fabricação. É claro que num projeto de um dispositivo complexo como o console, você tem que escolher o hardware, fechar os contratos com os fornecedores, e depois "congelar" o hardware a fim de fazer testes e ajustes, mas ainda há margem para melhoramentos dos componentes, desde que a interface entre eles seja mantida.

Link para o comentário
Compartilhar em outros sites

Visitante
Este tópico está impedido de receber novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

 

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!