Ir ao conteúdo

Distinção entre TDP e consumo das VGA.


dragao vermelho

Posts recomendados

Postado
Bem amigo, eu sei que o 3Dmark não é o programa que extressa mais uma placa de video, mas veja, esse programa foi usado do mesmo modo, tanto na HD5970, quanto na HD4870 X2, e já que a diferença de TDP delas é de apenas 2W, isso também, porventura, não deveria ser refletido nesse resultando??

Se elas fossem placas de uma só GPU, de mesma geração, sim. Mas são placas dual-GPU (já gera uma incerteza, drivers importam muito...) de gerações diferentes (com controles térmicos bem diferentes, características de performance e escalabilidade diferentes)...

Vamos pensar de outra forma. No 3DMark Vantage (que é diferente do 3DMark 2006, que por algum motivo o XBitLabs não divulga resultados...) a 5970 tem um resultado 44% maior que o da 5870, e consome 78% a mais. Isso pode ser explicado por diferenças de frequência e ineficiências do Crossfire nessa aplicação.

Por outro lado... procurando o benchmarck original da 4870 X2 (porque comparar com a 4890, que tem o RV790, é sacanagem...), esta consome pouco mais que o dobro da 4870, e tem pouco mais que o dobro do desempenho... ou seja, nesse caso o Crossfire foi 100% eficiente no 3DMark Vantage, e utilizou plenamente a segunda GPU.

Ou seja, o que ocorreu é que por algum motivo no 3DMark Vantage o Crossfire da série da 5970 é MUITO menos eficiente do que o Crossfire da série da 4870 X2... é impossível saber por que. Se você achar uma aplicação que use o Crossfire de forma eficiente em ambas as séries, o consumo da 4870 X2 e da 5870 deverá ser aproximadamente o mesmo.

OBS: Alguém sabe onde arrumar resultados de 3DMark 2006 de 4870, 4870 X2, 5970 e 5870, com mesmo driver, em mesma configuração? Se tiver 5970 rodando as mesmas frequências da 5870 melhor ainda...

EDIT: Achei uma chart do THG, não sei se são em mesmo driver e config, mas usando aquilo...

ATI Radeon 5970 é 29% melhor que a 5870. E consome 78% a mais, em outra config e driver, provavelmente...

ATI Radeon 4870 X2 é 44% melhor que a 4870. E consome o dobro, em outra config e driver, provavelmente...

OBS: Bem que o THG poderia mostrar os resultados do FurMark, ******...

Postado

Bem amigo, achei uma coisa que me deixou ainda mais confuso nesse quesito de como é obtido esses TDPs, vamos ver uma comparação entre a HD4870 e a HD4890, que de certa forma é apenas uma versão melhorda da mesma, mas possui a mesma tecnologia e litografia, a HD4870 possui TDP de 157W, e a HD4890 possui um TDP de 190W, o lógico seria que nas mesmas condições, rodando o 3dmark na mesma resolução com as mesma opções gráficas, a HD4890 tivesse um consumo maior, só que não é isso que acontece, a HD4890 consome 10W a menos que a HD4870, mesmo tendo um TDP 33W maior, veja:

gtx275_power.png

Então me vem a cabeça que a esse TDP muitas vezes não tem nada a ver com consumo, apenas com dissipação termica, porque o lógico ai, mesmo que as VGAs não estivessem em extresse máximo, que HD4890 deveria consumir mais que a HD4890 já que seu TDP é bem maior, correto??

Você tem ideia de como esse TDP é estipulado pelo fabricante??Quais os testes, equações, ou equipamentos são usados?

Abrass

PS: achei um site interessante que consta os TDPs da grande mairia das placas tanto da ATI quanto da Nvdia e uma ótima explicação sobre o que é TDP:

Graphics Cards Thermal Design Power (TDP) Database

TDP das placa de video

Tutorial: O que é o Thermal Design Power (TDP)?Título

Pelo que vi, ai ele explica:

TDP is the max power a device can dissipate when running real applications.

E ainda diz que o TDP não é a potencia máxima que o processador pode consumir, usando o Formak e uma placa com over, se passa facilmente desse TDP (isso é meio óbvil), posta até alguns resultados.

No geral, me tirou algumas dúvidas.

Postado

Dragão, aí vale a mesma coisa que eu disse antes... a Radeon 4890 consome menos no 3DMark devido a melhorias de projeto, mas isso não quer dizer que consumirá menos em todas as aplicações, em todas as condições, em todos os exemplares...

Além disso, é possível que a ATI tenha preferido setar o TDP para a 4890 com base no consumo dela rodando em outra frequência, por ser uma placa topo de linha. É difícil saber. O fato é que dissipação térmica e consumo, para uma VGA, são praticamente a mesma coisa em qualquer condição de uso 3D. Então, se alguém mede o consumo da VGA como sendo 100 W, nessas condições ela dissipa praticamente 100 W (um pouco menos por causa do ventilador, LEDs, ondas eletromagnéticas, etc).

Postado
PMAX é maior... o PMAX normalmente é definido como sendo o valor máximo que o chip pode puxar a qualquer momento. Nenhum programa possível puxa o PMAX, é mais um guia para o pessoal de VRM. Mas o consumo máximo de um processador/placa de vídeo rodando um programa é sim bem próximo do TDP, isso se não for igual a ele.
Tradução, o TDP é algo mais aplicado, e na verdade, portanto depende da aplicação e na prática nada impediria que alguém conseguisse bolar um códigoque estressasse ainda mais o hardware do que o "sotware viral" usado pra calcular o TDP, mas sob hipotese alguma ele conseguiria passar do Pmax, certo?
Eu falei ali mais para as fontes...
Mas funciona, né? Tem 3 linhas de 50 ampéres, 2 sendo utilizadas totalmente no planejamento, e a outra eu sei quanto deve puxar no máximo... Tiro a potência de toda ela no máximo, juro que ela toda tá virando calor por efeito joule, e é frente a isso que eu dimensiono o ar condicionado... Sob hipótese alguma vai poder ser gerado mais calor por unidade de tempo do que o que for calculado assim, ou tu quebra a 1ª Lei. ;)
Não faz sentido falar em eficiência termodinâmica de um processador ou placa de vídeo, porque eles não visam fazer algo termodinâmico... o que eles visam fazer é gerar, a partir de uma configuração de elétrons determinada, outra configuração de elétrons segundo algumas regras.

O ideal seria que esse processo todo fosse reversível, mas isso exigiria que ele fosse inteiramente feito em supercondutores, sem um semicondutor, o que não parece prático :D. Nesse caso teríamos consumo igual a zero, na média... Os processos atuais consomem bem pouco, na verdade. Antes, havia muito ECL, BJT e PMOS/NMOS, que consumiam MUITO mais, porque neles o consumo não é apenas P = CV²f, é P = CV²f + k*V²/R, o que é BEM pior.

Tanto que a memória de configuração do Setup do micro costuma ser chamada de "CMOS"... porque antes do uso de memórias CMOS (e bem antes das Flashs e EEPROMs), não havia como fazer uma memória daquele tamanho que consumisse tão pouco mantendo os dados.

Pede pro EduS... Eu tava tão irritado tendo que pensar nisso ao mesmo tempo em que ando estudando a 2ª Lei a fundo (sim, acredite), que fui perguntar pra ele, não concordei com a resposta, e corri atrás na literatura (sim, acredite de novo!)... Ele tá com um artiguinho interessante! ;)
São TDPs muito parecidos, mas consumo real bem distintos, não sei bem porque a forma de representação de dissipação de calor é em "W"
Até eu já discuti isso mais em cima: Em resumo, porque calor é energia, caracas! ;)

Vamos só por um segundo supor que em peças em que (vou ter que falar termodinamicamente correto agora) "a energia que é transferida na forma de calor para o meio por unidade de tempo" é significativa (tipo CPU, VGAs, etc., esse valor fosse ser dado em, digamos, BTU/h, e nas outras peças, de dissipação relativamente pequena, como chipset, RAM, HDs, fosse dada em Watt. Agora, vamos dizer que queremos dimensionar uma fonte com base nisso: temos que somar tudo, mas como temos as coisas em duas unidades, vou ter que converter de BTU/h pra W, ou de W pra BTU/h. Uma pessoa sensata só faria a segunda conversão se for pra dimensionar um ar-condicionado porque por incompetência da legislação pode ser bendido e divulgado em BTU, quando deveria ser IMPOSTO em kW!

Vamos dizer que tu quer bolar a refrigeração de uma fonte: tu tem que pegar essa "puxada" de carga em Watts daí (espero que o cara tenha se convencido a não fazer em BTU), plicar a eficiência da fonte, e a diferença é a "energia dissipada na forma de calorpor unidade de tempo", para a qual tu tem que dimensionar a tua ventilação... vai converter ainda pra BTU/h por quê?

Último tiro: todo mundo já viu que se liga facinho unidades como kg, m, s, N, J e W, né? Que tal vocês estudarem como são os milhões de fatores de interconversão pra fazer o mesmo entre (libra-peso, onça, etc.), (pé, polegadas, jardas, etc.), s (sim, o segundo eles concordaram naquela ilha desgraçada, pelo menos!), (libra-força, BTU, etc.) e (HP, BTU/h, etc.). Porqueira, se tu considerar a gravidade como 10m/s², em qualquer unidade inclusive as britânicas, a conexão direta não existe nem entre libra-peso e libra-força!!! Vocês acham que é legal ficar convertendo unidades diferentes que servem pra dizer a mesma coisa? Antes de o Império impôr isso no Brasil, era briga de faca (extra) todo dia no porto por causa dessa besteirada! E tudo porque lá no tempo do epa, alguém que não sabia nem o que realmente significava peso e massa, decidiu que tinha que ter uma unidade pra massa de grãos, outra pra massa de carne, baseados provavelmente ainda na massa do nascimento de dois filhos do rei! :P

Postado
Alguém sabe se o TDP muda entre placas de mesmo chip mas quantidades de memória diferentes? Não consigo achar isso...

Nao sei se vou ajudar, mais quando fui comprar minha 9500 gt, estava com mesmo TDP na caixa da DDR3 de 512mb ; da DDR2 de 1gb e da DDR 2 de 512 mb, as tres com mesmo TDP. Só espero dos dados estarem certos

  • Membro VIP
Postado
Alguém sabe se o TDP muda entre placas de mesmo chip mas quantidades de memória diferentes? Não consigo achar isso...

Nunca vi nenhuma citação quanto a isso, mas porque seria diferente (de forma significativa) ?

Sei que a densidade é maior nos chips de memória, mas não lembro de ter visto diferença no VRM entre as versões.

Em tempo.. achei algum resultado:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/26/#abschnitt_leistungsaufnahme

Se passar o cursos sobre o nome da placa o gráfico se auto ajusta. Ainda bem, porque se fosse pra ler..

Postado
Bem o TDP oficial eu não sei se muda, mas o consumo em games é praticamente o mesmo:

17399.png

17400.png

Esse é o consumo das VGAs mesmo? Mas o consumo está muito mais alto nesses gráficos do que em outros já apesentados aqui, tanto em idle como em load. Tá certo isso?

Postado
Esse é o consumo das VGAs mesmo? Mas o consumo está muito mais alto nesses gráficos do que em outros já apesentados aqui, tanto em idle como em load. Tá certo isso?

Não amigo, esse é o consumo do sistema todo, foram usados o mesmo sistema com todas as placas de video e o consumo da HD4870 512MB e 1gb foi o mesmo tanto em Idle, quanto em Load, foi por isso que postei, mesmo sem apresentar o consumo isolado de cada placa de video, dá para saber que o consumo das duas foi praticamente o mesmo, independente da quantidade de memoria ultilizada.

Abrass

Postado

Sobre CPUs, mas tem tudo a ver com o assunto do tópico.

Se existem placas mãe que só aceitam CPUs até determinado valor de TDP é porque o VRM da placa só consegue fornecer até aquela quantidade de potência, correto? Isso já deixa claro que o consumo PODE chegar até o valor do TDP do chip, estou certo?

Com isso dá pra explicar também o fato de que às vezes uma placa aceita determinadas CPUs de maior TDP (neste caso um chip de boa qualidade, que dificilmente atinge o consumo igual ao TDP) ou então consegue-se fazer um overclock numa CPU que tem o TDP máximo suportado pela placa? O mesmo se aplicaria para uma placa de vídeo, que possui a mesma estrutura de uma CPU na placa mãe, pois as VGAs também tem VRM com limites de potência, etc. Tanto é que muitas placas de vídeo de modelos diferentes utilizam o mesmo PCB e até o mesmo VRM configurado com valores de tensões diferentes.

Postado
Nunca vi nenhuma citação quanto a isso, mas porque seria diferente (de forma significativa) ?

Não deveria. Mas estava querendo achar uma citação clara e oficial de que esse TDP é da placa, não do chip.

Postado
Não amigo, esse é o consumo do sistema todo, foram usados o mesmo sistema com todas as placas de video e o consumo da HD4870 512MB e 1gb foi o mesmo tanto em Idle, quanto em Load, foi por isso que postei, mesmo sem apresentar o consumo isolado de cada placa de video, dá para saber que o consumo das duas foi praticamente o mesmo, independente da quantidade de memoria ultilizada.

Abrass

Ah, tá! Então, em load, uma HD 4870 consome menos de 300 W? E eu que antes pensava que consumiria mais... . Mas, qual sistema foi usado nos testes? E eu não vi a 4870 512 MB no gráfico, somente a de 1GB.

Postado
Ah, tá! Então, em load, uma HD 4870 consome menos de 300 W? E eu que antes pensava que consumiria mais... . Mas, qual sistema foi usado nos testes? E eu não vi a 4870 512 MB no gráfico, somente a de 1GB.

Bem amigo, va verda uma HD4870 sozinha consome em load 130W, como podes ver abaixo:

evga275power.png

Você não ver o nome HD4870 512B, você ver apenas HD4870 (apenas) e HD4870 1GB, então o modelo de 512MB é o que não consta a memoria, quanto ao sistema utilizado, foi esse:

CPU------- Intel Core 2 Extreme QX9770 @ 3.20GHz

Motherboard----- EVGA nForce 790i SLI

Video Cards:

ATI Radeon HD 4870 X2

ATI Radeon HD 4870

ATI Radeon HD 4870 1GB

NVIDIA GeForce GTX 280

NVIDIA GeForce GTX 260 SLI

NVIDIA GeForce GTX 260

NVIDIA GeForce GTX 260 Core 216

Video Drivers ---- Catalyst 8.7

ForceWare 177.34

Hard Drive ------ Seagate 7200.9 120GB 8MB 7200RPM

RAM------- 4 x 1GB Corsair DDR3-1333 7-7-7-20

Operating System----- Windows Vista Ultimate 64-bit SP1

PSU ------ PC Power & Cooling Turbo Cool 1200W

Abrass

Postado
Bem amigo, va verda uma HD4870 sozinha consome em load 130W, como podes ver abaixo:

evga275power.png

Você não ver o nome HD4870 512B, você ver apenas HD4870 (apenas) e HD4870 1GB, então o modelo de 512MB é o que não consta a memoria, quanto ao sistema utilizado, foi esse:

CPU------- Intel Core 2 Extreme QX9770 @ 3.20GHz

Motherboard----- EVGA nForce 790i SLI

Video Cards:

ATI Radeon HD 4870 X2

ATI Radeon HD 4870

ATI Radeon HD 4870 1GB

NVIDIA GeForce GTX 280

NVIDIA GeForce GTX 260 SLI

NVIDIA GeForce GTX 260

NVIDIA GeForce GTX 260 Core 216

Video Drivers ---- Catalyst 8.7

ForceWare 177.34

Hard Drive ------ Seagate 7200.9 120GB 8MB 7200RPM

RAM------- 4 x 1GB Corsair DDR3-1333 7-7-7-20

Operating System----- Windows Vista Ultimate 64-bit SP1

PSU ------ PC Power & Cooling Turbo Cool 1200W

Abrass

Aff! Como é que eu não vi o nome da placa? Eu tava preocupado em ver o nome da placa com o F12 MB escrito na frente e não achei. rsrs

Nossa! Interessante ver o consumo das VGAs somado a um processador que parece consumir mais que o meu processador e não ver um consumo estratosférico com algumas VGAs parrudas. Pelos meus cálculos, com o processador que eu tenho (que consome menos que um Core 2 Extreme) minha fonte aguenta um Crossfire de 4870 e, bem no limite, até aguenta um SLI de GTX 280, sendo este último não muito adequado. Digo isso porque o TDP do tal QX9770 é de 136 W, e do meu Dual Core é de 65W. O consumo de ambos podem não ser o mesmo do TDP, mas digamos que, proporcionalmente, tenham uma diferença igual de consumo. Logo, se o meu consumir, em média, até 70 W a menos que o QX9770, no meu sistema, que é bem modesto em relação ao do teste, o consumo final de um SLI de GTX 280 junto com o sistema daria, no máximo, na casa dos 430 W, e minha fonte entrega no máximo (mas com 76% de eficiência) 475 W. Nada mal pra uma fonte direcionada ao público de entrada!

Será que esse meu post foi muito off? Bem, se trata de uma discussão a respeito do TDP e do consumo, provando que, pelo menos em jogos, ele não diz muita coisa quanto às VGAs, mas já não sei tanto quanto aos processadores.

Postado
Nossa! Interessante ver o consumo das VGAs somado a um processador que parece consumir mais que o meu processador e não ver um consumo estratosférico com algumas VGAs parrudas. Pelos meus cálculos, com o processador que eu tenho (que consome menos que um Core 2 Extreme) minha fonte aguenta um Crossfire de 4870 e, bem no limite, até aguenta um SLI de GTX 280, sendo este último não muito adequado. Digo isso porque o TDP do tal QX9770 é de 136 W, e do meu Dual Core é de 65W. O consumo de ambos podem não ser o mesmo do TDP, mas digamos que, proporcionalmente, tenham uma diferença igual de consumo. Logo, se o meu consumir, em média, até 70 W a menos que o QX9770, no meu sistema, que é bem modesto em relação ao do teste, o consumo final de um SLI de GTX 280 junto com o sistema daria, no máximo, na casa dos 430 W, e minha fonte entrega no máximo (mas com 76% de eficiência) 475 W. Nada mal pra uma fonte direcionada ao público de entrada!

Essa coisa de placa dual acabou transformando os monstros de consumo máximo permitido em... placas duais ;). A 4870 acaba consumindo muito menos do que 300 W, ainda mais que atualmente os jogos nem aproveitam tudo dela...

Agora, essa coisa de FurMark consumir mais que o TDP que o colega postou me pegou de surpresa... Opções:

1- Medição errada. Duvido, os caras não teriam todo aquele trabalho para nada.

2- A aplicação usada para medir o TDP não é uma aplicação de máximo consumo. Como consome menos que o FurMark, deve ser mais parecida com um F@H da vida muito bem otimizado somado com algumas partes mais "gráficas" de um jogo também bem otimizado...

3- O TDP é do chip, não da placa, ou algo similar. Não parece bater com algumas coisas que se ouve, mas é razoável: não se vê TDP diferente para chips iguais.

Postado
Essa coisa de placa dual acabou transformando os monstros de consumo máximo permitido em... placas duais ;). A 4870 acaba consumindo muito menos do que 300 W, ainda mais que atualmente os jogos nem aproveitam tudo dela...

Agora, essa coisa de FurMark consumir mais que o TDP que o colega postou me pegou de surpresa... Opções:

1- Medição errada. Duvido, os caras não teriam todo aquele trabalho para nada.

2- A aplicação usada para medir o TDP não é uma aplicação de máximo consumo. Como consome menos que o FurMark, deve ser mais parecida com um F@H da vida muito bem otimizado somado com algumas partes mais "gráficas" de um jogo também bem otimizado...

3- O TDP é do chip, não da placa, ou algo similar. Não parece bater com algumas coisas que se ouve, mas é razoável: não se vê TDP diferente para chips iguais.

Bem amigo, tambem achei estranho, isso, porque nos testes do Furmak da HD5970 feitos pelo Xbitlabs, ela não chegou nem mesmo perto do seu TDP, o que me leva a crer que cada TDP se comporta de maneira diferente, umas são bem fáceis de atingir, como a HD4850 que eu postei lá no inicio do tópico que segundo o teste do Xbitlabs, mesmo no 3DMark, ela fica bem próxima do seu TDP,(114W) e como já foi discultido esse programa está longe de extressar a VGA ao limite, então na minha opnião cada Chip possui um TDP, e esse TDP se comporta de forma diferente, uns são bem fáceis de atingir e outros mais difíceis.

Abrass

Postado
Bem amigo, também achei estranho, isso, porque nos testes do Furmak da HD5970 feitos pelo Xbitlabs, ela não chegou nem mesmo perto do seu TDP, o que me leva a crer que cada TDP se comporta de maneira diferente, umas são bem fáceis de atingir, como a HD4850 que eu postei lá no inicio do tópico que segundo o teste do Xbitlabs, mesmo no 3DMark, ela fica bem próxima do seu TDP,(114W) e como já foi discultido esse programa está longe de extressar a VGA ao limite, então na minha opnião cada Chip possui um TDP, e esse TDP se comporta de forma diferente, uns são bem fáceis de atingir e outros mais difíceis.

Abrass

O Xbit não fez o truque de renomear o FurMark... às vezes esse foi o problema. E a 5870 chega bem mais perto do TDP, o que indica que o FurMark não é tão bom na presença de Crossfires.

Além disso, é natural que a relação entre consumo real em um determinado programa e TDP varie muito de chip para chip, modelo para modelo, etc... porque o FurMark foi feito para estressar um determinado chip, e o TDP é calculado para um chip "ruim", não para todos os chips comerciais. O que é muito cuirioso é que um teste de consumo passe facilmente do TDP de uma peça. Isso não deveria acontecer em condições normais.

  • 3 semanas depois...
Postado

o meu problema é que nao hora de aumentar o vcore tenho dúvida porque a unidade expressa não é em v ou w, é em mv, e é isso q me deixa encucado na hora de tentar aumentar o vcore não só da placa de video, mas processador, mémoria e tal..

Postado

sim, vcore não vai ser em watts. aquilo não é uma potência, é uma diferença de potencial que tu tá controlando.

É como se tu mudasse a altura de uma cachoeira. Isso pode afetar a potência da mesma, mas depende de como o fluxo de água (ou nesse caso, o fluxo de elétrons ou intensidade de corrente ou corrente) vai responder.

E isso é Volts, ou miliVolts, que é o "mV". Volts e milivolts é que nem metro e milímetro, não tem o que pensar.

  • 4 meses depois...
Postado

Eu estava fazendo uns testes de consumo individuais para cada componente do meu PC, usando um alicate amperímetro UNI-T204, que faz medições de corrente CC também.

Com isso resolvi aferir a potência consumida pelo Q6600. Em stock, usando o programa Core Damage a corrente passante pelo ATX12V era de 7,8A e tensão de 12V medida em 12,20V. Ou seja, o processador estava consumindo 95W nessa condição, exatamente o valor do seu TDP.

Com um over @3.0Ghz e Vcore 1.285V, a corrente no ATX12V pulou para 11,8A, com tensão 12,20V, o que dá uma potência de 144W!

Agora eu pergunto: seria de fato possível um processador com TDP de 95W consumir 144W num over com um aumento de Vcore muito pequeno? Ou parte da corrente que entra no ATX12V alimenta outros dispositivos, como chipset da placa mãe? Eu fiquei assustado com esse resultado, e ainda pensava em aumentar ainda mais o over.

Postado

Usando o velho e bom CVVF, só o aumento de frequência leva ele até quase 120 W... não sei quanto você aumentou a tensão, porque isso depende do Q6600.

Postado

Desculpe Thiago, mas o que seria CVVF? :unsure:

O aumento de Vcore foi de 1.225V (padrão) para 1.2875V. Dá pra chegar a 3.0Ghz com esse Q6600 B0 sem aumentar o Vcore, porém fica instável no folding@home apenas.

Postado
Desculpe Thiago, mas o que seria CVVF? :unsure:

O aumento de Vcore foi de 1.225V (padrão) para 1.2875V. Dá pra chegar a 3.0Ghz com esse Q6600 B0 sem aumentar o Vcore, porém fica instável no folding@home apenas.

CVVF é a fórmula padrão de consumo de processadores (na verdade, qualquer CI CMOS)... é uma aproximação que não conta consumo estático ("leakage") e algumas outras coisas e que funciona dentro de uma faixa se a temperatura não variar muito.

Potência = Capacitância Equivalente (depende do processador, da temperatura, do programa...) * Tensão^2 * Frequência

No caso, fazendo essa fórmula, chegamos a quase 132 W. Mas existem outros fatores, como "leakage" (aumenta muito com temperatura e tensão, nada com frequência), capacitância (aumenta com temperatura), etc.

Arquivado

Este tópico foi arquivado e está fechado para novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...