Ir ao conteúdo
  • Cadastre-se

R1000, Radeon 7**0, "Southern Islands", tópico oficial de discussão


Evandro

Posts recomendados

será q lança até setembro??

e será que a 7790 vem até uns 500 reais?? to com essa grana na mão para comprar uma vga, mas já q esperei tanto n queria comprar errado...

Se a Radeon HD 6870 ficar nesse preço até setembro será uma compra espetacular. ;)

Eu também estou aguardando a série Radeon HD 7xx0 sair para ver no que dá. Tomara que venham bem fortes e com baixo consumo elétrico (e bons preços). Mas se o preço da Radeon HD 6870 (ou talvez até a Radeon HD 6950) ficar muito atrativo, vou acabar indo com ela mesmo e talvez até fazer um CrossFire.

Link para o comentário
Compartilhar em outros sites

Dessa vez o Rage3D trouxe uma entrevista exclusiva com o Eric Demers e terminam com mais uma confirmação que GCN sai esse ano, tendo como alvo o Q4.

AMD's Graphics Core Next Gen architecture is scheduled to appear in products due in Q4, 2011, as both Eric Demers and Rick Bergman confirmed for us. It is likely they will use TSMC's 28nm process, and have a dual architecture split like Northern Islands. If so, then this time Cayman VLIW-4 architecture hits the mainstream, and the next generation architecture debuts in the high end - similar to AMD's deployment of VLIW-4 in the Radeon HD 6000 series. This makes sense for compatibility with APUs, if Trinity is using VLIW-4 then the discrete GPUs will need to as well for best compatibility and performance.

http://www.rage3d.com/interviews/amdchats/eric_demers_july_2011/index.php?p=1

Link para o comentário
Compartilhar em outros sites

Entretanto até hoje não há placa que aproveite 100% o PCI-Express 2.0 16X. O suporte ao padrão 3.0 não deixa de ser interessante pensando no futuro, mas duvido que as Radeon HD 7xx0 ou mesmo as GeForce GTX 6x0 consigam usufruir realmente do poder de fogo que o padrão 3.0 oferece.

Alguém sabe me dizer se GPUs PCI-Express 3.0 serão retrocompatíveis com placas-mãe PCI-Express 2.0?

Link para o comentário
Compartilhar em outros sites

Entretanto até hoje não há placa que aproveite 100% o PCI-Express 2.0 16X. O suporte ao padrão 3.0 não deixa de ser interessante pensando no futuro, mas duvido que as Radeon HD 7xx0 ou mesmo as GeForce GTX 6x0 consigam usufruir realmente do poder de fogo que o padrão 3.0 oferece.

Certíssimo.

Alguém sabe me dizer se GPUs PCI-Express 3.0 serão retrocompatíveis com placas-mãe PCI-Express 2.0?

100% de total e absoluta certeza que sim.

Link para o comentário
Compartilhar em outros sites

Eu não ia postar isso porque achei muito non-sense, maaaas... la vai.

amd_7990.png

http://www.nokytech.net/hd7x00__28nm,_nom_de_code_et_p-9979-a-c.html

IA mais inteligente tem a ver mais com CPU do que GPU não é? Quem fará o CPU?

AMD mesmo? estilo APU? ou IBM?

Das duas uma:

1) Talvez possam usar OpenCL para o AI, especialmente se a AMD espera emplacar o GCN no X720.

2) A AMD espera emplacar um APU (logo ela iria sim fazer a GPU e a CPU) no x720. Segundo o Charlie, das "big three", todas vão de AMD e pelo menos uma está "quase certa" em usar um APU.

Link para o comentário
Compartilhar em outros sites

Eu não ia postar isso porque achei muito non-sense, maaaas... la vai.

amd_7990.png

http://www.nokytech.net/hd7x00__28nm,_nom_de_code_et_p-9979-a-c.html

O que para mim vai contra a vertente atual é o exacerbado numero de shaders, que ao que tudo indica, tão se tornando mais complexos e parrudos, na geração VL4.

A primeira coisa que me vem em mente quando vejo essa suposta "7990" é esta estar seguindo uma proposta em voga ainda na época do VL5, onde há muito poder teórico graças a MUITOS shaders, mas em grande parte inutilizado, quando se exigiria cálculos "complexos", como os tais DP, faltava recursos a os mesmos. Em contra partida o consumo era baixo (como os supostos 300W deste leak) se comparado ao poder computacional. Acho que essa vertente já era, e mesmo que o avanço seja bem maior das 6K para as 7K -e com a nova litografia será- do que foi desta ultima vez, quando aconteceu uma "inimaginável" diminuição nos shaders, não veremos 6400SP em uma radeon tão cedo, já que agora a busca não é pelo numero em sí, mas pela eficiência e capacidade de utilização que faremos destes. VL4 com 6400SPs consumindo 300W e com mais capacidade de DP? Seria esperar de mais dos 28nm, na MINHA opinião, mas pelo visto o sirro concorda, pelo menos em parte com isso.

Link para o comentário
Compartilhar em outros sites

O fato das HD 7000 serem em pcix 3.0 e a AMD não ter oferecido o suporte nos chipsets 990FX foi por, na época deste, o padrão ainda não estar 100%? Porque atualmente já tem mobos Intel com este suporte.

Porque quero comprar uma Gigabyte UD3 990FX, mas daqui uns 2 anos, todas as vgas serão 3.0! Sei que não vai dar gargalo tão cedo, mas ficará desatualizada igual as Crosshair IV, um ano de duração!

Mas enquanto não der gargalo, está valendo, o que vai demorar...

Link para o comentário
Compartilhar em outros sites

O fato das HD 7000 serem em pcix 3.0 e a AMD não ter oferecido o suporte nos chipsets 990FX foi por, na época deste, o padrão ainda não estar 100%? Porque atualmente já tem mobos Intel com este suporte.

Porque quero comprar uma Gigabyte UD3 990FX, mas daqui uns 2 anos, todas as vgas serão 3.0! Sei que não vai dar gargalo tão cedo, mas ficará desatualizada igual as Crosshair IV, um ano de duração!

Mas enquanto não der gargalo, está valendo, o que vai demorar...

Colega, ainda não há placas-de-vídeo que utilizem todo o poder de fogo do PCI-Express 2.0 16X, então é muito improvável que as Radeon HD 7xx0 e as GeForce GTX 6x0 aproveitem corretamente o poder do fogo do PCI-Express 3.0. Como as placas serão retrocompatíveis com os slots antigos, mesmo quem tiver um PCI-Express 1.0 16X ou 2.0 8X ainda terá um bom desempenho usando as novas placas. E quem tiver o PCI-Express 2.0 16X provavelmente também não terá nenhum problema de usar TODO o poder das placas novas, mesmo elas vindo com suporte ao padrão 3.0. Vai demorar ainda para sair uma placa PCI-Express 3.0 que utilize todo o poder do barramento e ainda está para surgir a placa que use todo o poder do padrão 2.0 (quem sabe a próxima geração).

Link para o comentário
Compartilhar em outros sites

Até onde eu sei -perto de vocês eu sou um leigo-, é...

PCI-E 3.0 seriam 32GB/s (né?)

Sendo que as Placas BíGPU de hoje ainda não usam os 16GB/s disponíveis do 2.0... Imagine uma mid...

Interface Sata 3 tem teórico de 600Mb/s (sendo que os Hds ainda não usam metade disso, apenas ssds o fazem)

Mem DDR3 1600 acessada a 128bits renderia bons 25.6 Gb/s

Agora o cache eu vou ficar devendo, mas por ser interno trata-se de algo como 2 a varios ciclos de clock até receber os dados. =p

Abraço Jahannesrs

EPA, post 2500... huahaua! (fica o registro)

Link para o comentário
Compartilhar em outros sites

Eita! Charlie parece ter "descoberto" a razão da confusão toda entre o lançamento das HD7000 em 28nm e das gtx600 em 28nm e os contraditórios leaks de que a TSMC está indo mal e nVidia vai atrasar enquanto a AMD às vezes está para lançar daqui a pouco ou no ano que vem.

A descoberta? As SI não vão usar o processo 28nm HP (high performance) da TSMC, mas sim o 28nm HPL, basicamente o processo 28nm LP (low power) com HKMG jogado no meio. Com isso a AMD estaria com uns 6 meses de dianteira para lançar as placas no mercado enquanto a nVidia está passando por maus bocados com o processo HP da TSMC.

http://semiaccurate.com/2011/07/19/southern-islands-kepler-and-apples-a6-process-puzzle-outed/

Tudo foi com base numa análise do ChipWorks: http://www.chipworks.com/en/technical-competitive-analysis/resources/technology-blog/2011/07/more-hkmg-hits-the-market-–-gate-first-and-gate-last/

Link para o comentário
Compartilhar em outros sites

Supondo que isso se concretize...

Acredito que depois desses 6 meses, provavelmente o HP terá performance melhor, até porque essa é a proposta... Acho que a nVidia pode rir melhor ao apostar no HP. Será que TODAS as SI serão no LowPower w/ MetalGate? Se isso for verdade é uma nova variável que não vimos nas gerações passadas, né?

Link para o comentário
Compartilhar em outros sites

Supondo que isso se concretize...

Acredito que depois desses 6 meses, provavelmente o HP terá performance melhor, até porque essa é a proposta... Acho que a nVidia pode rir melhor ao apostar no HP. Será que TODAS as SI serão no LowPower w/ MetalGate? Se isso for verdade é uma nova variável que não vimos nas gerações passadas, né?

Na verdade teria que se calcular Performance ("menor margem para o HOL") x tamanho ("precisa ser maior para ter mesma performance com menos clock") x Yields ("HPL parece estar melhor que o HP") x Preço x Margem de lucro. :eek:

Tipo, parece ser uma aposta, mas como o processo é novo provavelmente só na geração seguinte veremos AMD e nVIDIA jogando tudo pro alto. Enquanto isso no mobile o povo já estaria estourando as garrafas.

E talvez a AMD viesse a lançar o high-end (79xx) em HP, junto com a nVIDIA (ou pouco depois)... Por enquanto ainda tá na fase "Charlie disse".

Link para o comentário
Compartilhar em outros sites

Era só isso que faltava. Mais uma coisa pra mexer com nossas cabeças se devemos comprar agora ou nao.

A não ser que todos sejam nesse chip e apenas as top end sejam com o HP. São muitas variáves.

No final tudo se resolve em quem fez mais frames consumindo menos energia, fazendo menos barulho e por ultimo, ocupando menos espaço no case.

Link para o comentário
Compartilhar em outros sites

Daqui a pouco estará na fase do "Charlie acertou de novo".

Só uma coisa, essa aposta em transístores muito porrada não basicamente o que foi o erro no Fermi 1, e que depois ajeitaram via transístores meio-termo?

porque q essa aposta me cheira a arrogância de CEO de novo atrasando a companhia em 6 meses e queimando ainda mais o nome da empresa? :)

Link para o comentário
Compartilhar em outros sites

Light: é muito improvável que saia no mercado uma "7800" em HPL e depois uma "7800" em HP. O design tem que ser feito desde o início levando em conta o processo-alvo.

O que poderia acontecer é dois chips diferentes usarem processos diferentes, mas isso vai ser "invisível" para o consumidor, que só vai saber o resultado final nos testes mesmo.

Daqui a pouco estará na fase do "Charlie acertou de novo".

Só uma coisa, essa aposta em transístores muito porrada não basicamente o que foi o erro no Fermi 1, e que depois ajeitaram via transístores meio-termo?

porque q essa aposta me cheira a arrogância de CEO de novo atrasando a companhia em 6 meses e queimando ainda mais o nome da empresa? :)

Rapaz, não acredito que seja tanto culpa do CEO ou soberba, já que HP é o padrão usado até agora. O processo do fermi continuou o mesmo (mudar seria um suicídio, demoraria demais e poderia causar mais problemas ainda, já que não foi desenvolvido com aquele processo em vista).

Mas se o charlie tiver certo nisso (e essa é um chute dele mesmo, não parece que alguém vazou para ele) vai ser muito interessante.

Link para o comentário
Compartilhar em outros sites

Sirro, eu me referia a isto do Fermi 1:

Thus the trick to making a good GPU is to use leaky transistors where you must, and use slower transistors elsewhere. This is exactly what NVIDIA did for GF100, where they primarily used 2 types of transistors differentiated in this manner. At a functional unit level we’re not sure which units used what, but it’s a good bet that most devices operating on the shader clock used the leakier transistors, while devices attached to the base clock could use the slower transistors. Of course GF100 ended up being power hungry – and by extension we assume leaky anyhow – so that design didn’t necessarily work out well for NVIDIA.

For GF110, NVIDIA included a 3rd type of transistor, which they describe as having “properties between the two previous ones”. Or in other words, NVIDIA began using a transistor that was leakier than a slow transistor, but not as leaky as the leakiest transistors in GF100. Again we don’t know which types of transistors were used where, but in using all 3 types NVIDIA ultimately was able to lower power consumption without needing to slow any parts of the chip down. In fact this is where virtually all of NVIDIA’s power savings come from, as NVIDIA only outright removed few if any transistors considering that GF110 retains all of GF100’s functionality.

Pode ser erro de interpretação meu, mas não meio que "soa" novamente com a nvidia botando fé demais em transístor top de linha?

Link para o comentário
Compartilhar em outros sites

Pode ser erro de interpretação meu, mas não meio que "soa" novamente com a nvidia botando fé demais em transístor top de linha?

Isso não tem como saber, provavelmente a nVIDIA aprendeu a lição e vai repetir o que funcionou com o GF110 (com mais variação nos transístores). Até onde eu sei, toda a linha da AMD e toda a linha da nVIDIA usam o mesmo processo HP da TSMC, mas isso não quer dizer que a empresa não possa fazer ajustes nos transistores dentro desse mesmo processo.

O que a gente está falando aqui é que o processo vai ser diferente, com novas etapas e novos alvos de performance/clock/leak. Então, se a nVIDIA no GF110 adicionou um tipo de transistor diferente, a AMD (segundo os rumores) mudou todos, tudo. É como se mudasse os ingredientes da massa da pizza.

Link para o comentário
Compartilhar em outros sites

Visitante
Este tópico está impedido de receber novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...