Ir ao conteúdo
  • Cadastre-se

AMD Bulldozer / Bobcat / Zambezi - Plataformas.


Posts recomendados

  • Membro VIP
toc...toc...toc...bate 3x na madeira...sai pra lá, que é isso. :lol:

Em parte eu acho que faz sentido, não adianta vários núcleos sendo que muitas vezes eles não são aproveitados pelos programas, desempenho por clock também me parece algo muito mais promissor.

Além disso, a AMD já tem uma certa experiência nessa situação com o Magny Cours, ela deve ter uma boa ideia de qual deve ser o melhor caminho a seguir. ^_^

Ou ela sabe que vai levar nabo da Intel e está querendo se aparecer antes de afundar na lama.. (mais ou menos como aquela frase: sou feio mas estou na moda)

Mas eu concordo que não adianta muito os engenheiros darem uma de Jesus e multiplicarem os pães sendo que não tem boca pra comer tudo isso.

Será que no mundo "desktop" a paralelização vai emplacar nos próximos 5 anos ?

Seinão..

Link para o comentário
Compartilhar em outros sites

Então, falando em termos da AMD... Ela vai pular 28nm e pular pro 22nm na sua linha de alta-performance? 2011:28nm; ~2013:22nm?

Os processos SHP (processos com SOI, para Llano e BDZ) sempre seguem os nodos padrão do ITRS: 45 nm, 32 nm, 22 nm. Os processos HP (para GPUs, SoCs, etc...) tinham dois nodos para cada nodo do ITRS, um "full" e outro "half": 90, 80, 65, 55, 45, 40... mas agora, graças a TSMC, os "full-nodes" foram extintos, e os "half-nodes" viraram os únicos nodos: 28 nm e 20 nm...

Uh! Alguém sabe algo sobre esse gate first / gate last?

Isso se refere a duas formas diferentes de implantar o gate metálico do HK/MG... para resumir, o gate-last tende a ter maior performance em corrente, principalmente dos transistores tipo P, mas é mais chato e caro de implementar, o gate-first tende a ter maior densidade (o que pode compensar a performance de corrente) e ter uma modelagem mais fácil, mas tem um monte de problemas com parasitas, que podem não afetar nesse nodo mas afetarão nos próximos.

Enfim, a tendência é que todo mundo acabe convergindo no gate-last, mas nesse nodo qualquer um dos dois serve, o gate-last se tiver alguma vantagem nos PMOS é pequena...

Só para explicar o funcionamento dos dois, o gate-first funciona do jeito óbvio: implanta-se o dielétrico de alto K, depois o gate de metal, e pronto. Foi desenvolvido principalmente pela IBM... é usado por ela e suas amigas, basicamente.

O gate-last é mais complexo... você inicialmente implanta um gate de sacrifício de polissilício, que é usado durante todo o processo de fabricação do transistor. Somente no final, logo antes de fechar a lógica e começar a metalização, que você retira os gates de polissilício e implanta um gate de metal. O detalhe (que faz a diferença para o gate-last) é que você pode usar metalizações diferentes de acordo com o tipo de transistor... por isso os PMOS do gate-last são absurdos.

O campeão do gate-last é a Intel. A TSMC usaria gate-first, mas acabou mudando para o gate-last...

Link para o comentário
Compartilhar em outros sites

valeu Thiago! Mesmo sem saber detalhes deu para entender sim. (percebi que lá em cima comecei certo mas no exemplo escrevi errado, seria "2011:32nm", e não "28nm", mas deixa pra lá. =P)

E sobre o comentário da guerra dos núcleos, não acho exatamente um papo "sou feio mas estou na moda", até porque se for pensar, o n° de núcleo por processador é uma vantagem da arquitetura bulldozer, é a estratégia dela: aumentar núcleos economizando recursos, oferecer um núcleo físico extra ao invés de um núcleo virtual extra como a intel faz.

Ou seja, eu vejo uma profunda humildade no que o tio da AMD disse lá...

EDIT: Evandro, já que você falou disso aí, tb tem uma como essa aqui: http://www.newscientist.com/article/mg20727751.400-wonder-conductors-will-spin-up-cooler-computers.html?page=1

o site thefutureofthings as vezes tem matéria sobre isso tb.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

E sobre o comentário da guerra dos núcleos, não acho exatamente um papo "sou feio mas estou na moda", até porque se for pensar, o n° de núcleo por processador é uma vantagem da arquitetura bulldozer, é a estratégia dela: aumentar núcleos economizando recursos, oferecer um núcleo físico extra ao invés de um núcleo virtual extra como a intel faz.

Ou seja, eu vejo uma profunda humildade no que o tio da AMD disse lá...

O "sou feio mas estou na moda" foi porque eu achei esta declaração da AMD sem sentido assim como esta frase, que tenta desviar o assunto pra evitar assumir que vai perder.

Acho que agora que virão os com 8 núcleos a coisa deve dar uma acalmada, daqui uns 2 anos quem sabe teremos 12, mas ainda acho isso muita coisa.

Link para o comentário
Compartilhar em outros sites

O "sou feio mas estou na moda" foi porque eu achei esta declaração da AMD sem sentido assim como esta frase, que tenta desviar o assunto pra evitar assumir que vai perder.

Acho que agora que virão os com 8 núcleos a coisa deve dar uma acalmada, daqui uns 2 anos quem sabe teremos 12, mas ainda acho isso muita coisa.

Mas, tipo, você realmente acha que a AMD vai perder na contagem de núcleos? Com o BDZ?

Eu achei até meio "propagandista" os aspectos que o BDZ supostamente procura maximizar: o n° de núcleos e a frequência, as duas coisas mais facilmente utilizadas em uma estratégia de marketing ("OITO CORES! QUATRO GIGAHERTIZ!" =P). Me "acalmei" qd eu vi em algum canto por aqui que isso poderia ter outras razões de ser, técnicas mesmo.

Pode até ser que oito seja exagero (e realmente é, pelo menos hoje em dia), mas não imagino que nesse quesito em si (da "guerra dos cores") a AMD esteja "desviando o assunto pra evitar assumir que vai perder". Poxa, se fosse a Intel ela já estava fazendo propaganda na lua do n° dos núcleos que ela oferece. =P não acha não?

Agora, revendo, tb tem mais um aspecto: ele deixou bem claro que o futuro é "eficiência", que pode ser vista como "melhor custo/benefício" e, realmente, nesse aspecto é uma espécie de "desviar o assunto" como você disse, Evandro. Mas (custo/benefício) é meio que a única vantagem da AMD hoje em dia e a posição dela no mercado.:)

Link para o comentário
Compartilhar em outros sites

Pode até ser que oito seja exagero (e realmente é, pelo menos hoje em dia), mas não imagino que nesse quesito em si (da "guerra dos cores") a AMD esteja "desviando o assunto pra evitar assumir que vai perder". Poxa, se fosse a Intel ela já estava fazendo propaganda na lua do n° dos núcleos que ela oferece. =P não acha não?

Será que não? Talvez a AMD não tenha bufunfa pra investir em programadores, mas espere só os "48 cores" vingarem, o Planeta azul ficará sem manchas.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Mas, tipo, você realmente acha que a AMD vai perder na contagem de núcleos? Com o BDZ?

Sinceramente, eu não sei, minha bola de cristal deu tela azul com esta pergunta. :D

Eu achei até meio "propagandista" os aspectos que o BDZ supostamente procura maximizar: o n° de núcleos e a frequência, as duas coisas mais facilmente utilizadas em uma estratégia de marketing ("OITO CORES! QUATRO GIGAHERTIZ!" =P). Me "acalmei" qd eu vi em algum canto por aqui que isso poderia ter outras razões de ser, técnicas mesmo.

Pode até ser que oito seja exagero (e realmente é, pelo menos hoje em dia), mas não imagino que nesse quesito em si (da "guerra dos cores") a AMD esteja "desviando o assunto pra evitar assumir que vai perder". Poxa, se fosse a Intel ela já estava fazendo propaganda na lua do n° dos núcleos que ela oferece. =P não acha não?

Sim, mas então porque a AMD veio falar isso ?

Eu não sou muito chegado nessas declarações que as empresas ou alguns executivos das mesmas fazem. ( a MS disse recentemente que usar o Open Office pode reduzir as notas dos alunos já que os professores não conseguirão abrir os arquivos..)

Agora, revendo, tb tem mais um aspecto: ele deixou bem claro que o futuro é "eficiência", que pode ser vista como "melhor custo/benefício" e, realmente, nesse aspecto é uma espécie de "desviar o assunto" como você disse, Evandro. Mas (custo/benefício) é meio que a única vantagem da AMD hoje em dia e a posição dela no mercado.:)

Manter o melhor custo/benefício é a estratégia de quem está perdendo no quesito benefício.

Tirando algumas empresas arrogantes como a Intel, a NVIDIA e a Apple, isso é válido e vemos essa relação em qualquer mercado onde não exista monopólio. (dá uma passada nas casas bahia pra ver. :D)

----------------------------------------------------------------

Especial Lllllllllanoo !!

http://www.semiaccurate.com/2010/10/19/llano-boards-laid-bare/

Placa-mãe do Llano (notebook ?!)

http://www.semiaccurate.com/2010/10/18/amd-demos-llano/

Llano em ação

http://www.semiaccurate.com/2010/10/18/amd-shows-llano-wafer/

Wafer do Llano (a foto é ruim, mas o chip pareceu pequeno)

http://www.semiaccurate.com/2010/10/18/amd-demos-brazos/

Demonstração da plataforma Brazos.

Link para o comentário
Compartilhar em outros sites

Só pra complementar.

Kyle Bennett, sem estar ciente das instruções dadas, colocou dois dedos em cima dos heat-pipes sob o Llano e em seguida concluiu: "estava meramente morno ao toque, ou frio se comparado a qualquer outro processador visto em uma placa-mãe nos ultimos anos".

Link para o comentário
Compartilhar em outros sites

"AvP" não é exatamente "Alien vs Predator" n? =P

Eu sinceramente não sei o quão pesado/leve AvP é, mas pelo menos com base nas noticias que já sairam, no final essa demonstração significa: "o Llano funciona e é mais que suficiente para a necessidade gráfica do mercado que posicionamos ele".

Ou sei lá, os cara lá gostam desse jogo?

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Pra quem faz GPGPU ele está enchendo os olhos.. e ele será uma beleuza quando começarem a pegar pesado no GPGPU.

Só falta saber quando isso vai ocorrer..

Mas, no geral, se o consumo é baixo, mesmo pra quem não usará o chip gráfico ele se mostra uma opção interessante, e tem os comentários que vi nos sites gringos e que deixo aqui pra quem entende comentar: o Fusion poderá equipar a próxima geração de consoles ?!

Link para o comentário
Compartilhar em outros sites

Mas, no geral, se o consumo é baixo, mesmo pra quem não usará o chip gráfico ele se mostra uma opção interessante, e tem os comentários que vi nos sites gringos e que deixo aqui pra quem entende comentar: o Fusion poderá equipar a próxima geração de consoles ?!

Se a AMD acertar direito o crossfire para sempre fazer do gpu interno, realmente todo consumidor sai lucrando com o fusion.

Já foi postado aqui notícia de que a AMD fez o chip do X360 slim que une CPU e GPU. A arquitetura na verdade foi desenhada pela M$, mas quem implementou foi a AMD. Não vi ninguém comparando o X360-slim com o Bobcat, ainda.

Então, muito provavelmente, sim. Mas também tem outros fatores, por exemplo, é provável que a Sony continue apostando no Cell. Dizem que vão usar o Cell até no PSP2 :eek:

Link para o comentário
Compartilhar em outros sites

Eu quero ver é os benchs.

Sinceramente estou bem disposto a trocar performance de CPU por performance de video. Um Athlon @3,0ghz dá e sobra pra fazer o que preciso.

Acredito que o SB em alguns casos deva chegar a 100% de peformance de cpu em cima do Llano, porém em peformance de vídeo o troco não deve deixar por menos.

"AvP" não é exatamente "Alien vs Predator" n? =P

Eu sinceramente não sei o quão pesado/leve AvP é, mas pelo menos com base nas noticias que já sairam, no final essa demonstração significa: "o Llano funciona e é mais que suficiente para a necessidade gráfica do mercado que posicionamos ele".

Ou sei lá, os cara lá gostam desse jogo?

Alien vs Predador tem modos dx9 e dx11.

Se você usar DX9 com resolução de 1650 x 900, 2AA, tudo no máximo e mais uma firulinhas, uma 5770 roda que é uma beleza.

Se usar Dx11 na mesma resolução 8AA, tudo no máximo e mais uma firulinhas, nem a 5870 aguenta.

Simples: o segredo do jogo é o AA, pesa pra caramba.

Link para o comentário
Compartilhar em outros sites

  • Membro VIP
Eu quero ver é os benchs.

Sinceramente estou bem disposto a trocar performance de CPU por performance de video. Um Athlon @3,0ghz dá e sobra pra fazer o que preciso.

Acredito que o SB em alguns casos deva chegar a 100% de peformance de cpu em cima do Llano, porém em peformance de vídeo o troco não deve deixar por menos.

Isso no clock a clock ou no "preço a preço" ?

Não sei como virá o Sandy, mas achei bons os Phenom II X4 pra note rodando a 2.1 GHz (especialmente com preço abaixo de 900 dólares)

Link para o comentário
Compartilhar em outros sites

Isso no clock a clock ou no "preço a preço" ?

Não sei como virá o Sandy, mas achei bons os Phenom II X4 pra note rodando a 2.1 GHz (especialmente com preço abaixo de 900 dólares)

No preço tenha a mais absoluta certeza que os AMD custarão menos.

No quesito notebooks, os fusions vão ter que disputar com sandybridges.

No quesito desktops a missão inglória fica por conta do bulldozer, mas que não terá vídeo onboard.

Acho que ta tudo muito nebuloso ainda, porém, com certeza o chamariz do Llano será o GPU.

Supondo-se que você seja um jogador: prefere um GPU bom e uma CPU boa ou um SuperCPU e um GPU +/-?.

Link para o comentário
Compartilhar em outros sites

@Johny: sim, HKMG no Llano e no BDZ. Global Foundries já falou. o/

@Soulforged: acho que é fácil. Para Laptop, sem dúvida CPU/GPU boas (Llano), nunca vi ninguém mudar GPU de laptop...

Para Desk, se você for jogador, você vai comprar uma GPU discreta, então, se for para investir BEM, tasca CPU forte e uma GPU discreta forte. Mas se for para caber no bolso, CPU mais ou menos e GPU discreta e no talo é a melhor solução, não?

Até porque a GPU do Sandy se desliga qd tem GPU discreta, a GPU dela não traz vantagem nenhuma para os gamers (exceto se precisar tirar a placa para consertar, sei lá).

Link para o comentário
Compartilhar em outros sites

O campeão do gate-last é a Intel. A TSMC usaria gate-first, mas acabou mudando para o gate-last...

A qualidade do processo Intel tem dado resultados exatamente devido à customização trabalhosa feita transístor-por-transístor e muitas adaptações na moldagem das portas lógicas, até evitando uma necessidade de se fazer litografia por imersão. O problema é que essa customização toda tem um custo-benefício baixo porque deve ser refeita a cada novo nódulo, e o gate-last estará desabilitado após o nódulo 22 nm, portanto há apenas o gate-first como solução plausível para o futuro (ou seja, produção de circuitos de alta performance após 2013).

A GF recentemente apresentou resultados bons no papel para o SOI+HK/MG 32nm, mas sem a divulgação de informações da parte da AMD como número de camadas de metal usadas, fan-out etc. do BD fica difícil assegurar que a GF conseguirá competir de fato com a Intel. Por hora, a decisão da AMD em perseguir velocidades de relógio mais elevadas é sinal de que ela desenvolveu a filosofia correta para se lidar com o SOI e lógica dinâmica ou mista (uma das idéias por trás da aplicação do insulador é justamente reduzir o vazamento e consequentemente a potência dissipada, e isso é ótimo para circuitos menos limitados em velocidade do que em TDP) e aproxima-se cada vez mais da IBM com os Power6/7.

Link para o comentário
Compartilhar em outros sites

A qualidade do processo Intel tem dado resultados exatamente devido à customização trabalhosa feita transístor-por-transístor e muitas adaptações na moldagem das portas lógicas, até evitando uma necessidade de se fazer litografia por imersão.

Sim, isso é um fato. A Intel desenvolve processos excelentes, PARA A INTEL. Se você não tiver os recursos de projeto eletrônico e de processo deles, vai se ferrar. Nenhuma foundry jamais conseguiria convencer os consumidores deles a adotar as regras que a Intel adota, são bizonhas, o layout tem que ser todo regular, sob risco de falha geral.

O problema é que essa customização toda tem um custo-benefício baixo porque deve ser refeita a cada novo nódulo,

A Intel é a maior produtora de semicondutores e possui um número relativamente pequeno de produtos, não acho que tenha custo-benefício baixo para eles. Pelo contrário, o lucro da Intel com os x86s é excelente.

e o gate-last estará desabilitado após o nódulo 22 nm, portanto há apenas o gate-first como solução plausível para o futuro (ou seja, produção de circuitos de alta performance após 2013).

Pelo contrário, ao que eu saiba ambos tem problemas, mas os problemas do gate-last parecem muito mais escaláveis... eu não acredito que o gate-first passe dos 20 nm.

A GF recentemente apresentou resultados bons no papel para o SOI+HK/MG 32nm, mas sem a divulgação de informações da parte da AMD como número de camadas de metal usadas, fan-out etc. do BD fica difícil assegurar que a GF conseguirá competir de fato com a Intel.

Os números que a AMD passou são de Drive Current, como você sabe o processo SOI precisa de menos do que os da Intel, e de qualquer modo com uma distância pequena "all bets are off", mesmo porque as medições são sempre realizadas em condições diversas.

Por hora, a decisão da AMD em perseguir velocidades de relógio mais elevadas é sinal de que ela desenvolveu a filosofia correta para se lidar com o SOI e lógica dinâmica ou mista (uma das idéias por trás da aplicação do insulador é justamente reduzir o vazamento e consequentemente a potência dissipada, e isso é ótimo para circuitos menos limitados em velocidade do que em TDP) e aproxima-se cada vez mais da IBM com os Power6/7.

A maior vantagem em consumo do SOI é mais a menor capacitância de junção... o leakage de junção é secondário em processos atuais, embora menos em processos HK/MG. Não tenho tanta certeza se os processadores Intel não conseguiriam chegar a 4 GHz com uma refrigeração consideravelmente melhor, talvez com um projeto menos conservador em termos de número de estágios...

Link para o comentário
Compartilhar em outros sites

A Intel é a maior produtora de semicondutores e possui um número relativamente pequeno de produtos, não acho que tenha custo-benefício baixo para eles. Pelo contrário, o lucro da Intel com os x86s é excelente.

Eu deveria ter escrito "tem um custo-benefício baixo com relação às customizações mais comuns, caso estas fossem viáveis para a Intel", pois foi esse o sentido que eu intencionei.

Pelo contrário, ao que eu saiba ambos tem problemas, mas os problemas do gate-last parecem muito mais escaláveis... eu não acredito que o gate-first passe dos 20 nm.

Algumas fontes relatam que haverá mudança para os FinFETs ou Trigates após 22nm. O gate-last pode não se tornar inviável utilizando as estruturas atuais de devices, o problema ocorrerá caso desvantagens em termos de desempenho reforcem a opção em desabilitá-lo e adotar o gate-first com outras estruturas.

Os números que a AMD passou são de Drive Current, como você sabe o processo SOI precisa de menos do que os da Intel, e de qualquer modo com uma distância pequena "all bets are off", mesmo porque as medições são sempre realizadas em condições diversas.

O que me preocupa mais é a adequação dos circuitos reais para operação. Como se sabe, os responsáveis pelo projeto e pelo processo dos BD e Llano não são mais os mesmos, e com tantos rumores sobre demoras...

A maior vantagem em consumo do SOI é mais a menor capacitância de junção... o leakage de junção é secondário em processos atuais, embora menos em processos HK/MG. Não tenho tanta certeza se os processadores Intel não conseguiriam chegar a 4 GHz com uma refrigeração consideravelmente melhor, talvez com um projeto menos conservador em termos de número de estágios...

Bem, acredito que menor capacitância de junção seja decisiva para estabilidade do circuito em velocidades mais elevadas de operação e a contenção do vazamento seja importante sob as mesmas velocidades elevadas, já que este aumenta dramaticamente com a elevação da velocidade de relógio.

Quanto ao conservadorismo da Intel nos projetos, ocorre que a adoção do "Tick-Tock" permite uma janela de tempo menor para mudanças super-radicais. Em um ano altera-se o processo, com alterações leves na uarch e no ano seguinte outra uarch melhorada tem de obrigatoriamente estar pronta e preparada para utilizar o mesmo nódulo de processo. A AMD pelo visto já deve ter percebido essa fraqueza.

Link para o comentário
Compartilhar em outros sites

Eu deveria ter escrito "tem um custo-benefício baixo com relação às customizações mais comuns, caso estas fossem viáveis para a Intel", pois foi esse o sentido que eu intencionei.

Bem, sim, você está certo. A Intel alterou o projeto do Northwood para considerar a variação das características dos transistores na pastilha: isso com certeza não saiu barato, é aquele esforço de menos de 0,1%.

Algumas fontes relatam que haverá mudança para os FinFETs ou Trigates após 22nm. O gate-last pode não se tornar inviável utilizando as estruturas atuais de devices, o problema ocorrerá caso desvantagens em termos de desempenho reforcem a opção em desabilitá-lo e adotar o gate-first com outras estruturas.

Realmente, sempre existe a possibilidade do "replacement gate" da Intel deixar de ser viável "mecanicamente" com mudanças estruturais do transistor... afinal, é uma estrutura 3D com uma relação altura/profundidade muito alta, o que complica bastante a situação de remoção e deposição. Aliás, eu tenho quase certeza que a maior parte dos protótipos atuais são construídos diretamente, no que poderíamos chamar de "gate-first", e diria que em boa parte devido a dificuldade de construção.

Mesmo assim, eu ainda acredito muito mais no "gate-last" com os FinFETs (se algum dia usarmos FinFETs, do jeito que a coisa vai). E não estou sozinho. A Applied acredita mais, a TSMC também... e a Intel, que tem mais poder de pesquisa que todas os outros grupos, com exceção talvez do IBM Esporte Clube. Eu simplesmente não acredito na escalabilidade do "gate-first", a variação de Vt é muito difícil de controlar, e é de longe a pior coisa que pode acontecer com o transistor em termos de projeto... e FinFETs trazem vários problemas elétricos e de variação próprios, e tendem a ser construídos em escala muito menor que a atual.

O que me preocupa mais é a adequação dos circuitos reais para operação. Como se sabe, os responsáveis pelo projeto e pelo processo dos BD e Llano não são mais os mesmos, e com tantos rumores sobre demoras...

É bem possível que a demora se deva mais a problemas de produção... afinal, eles usam "gate-first"! Não, eu não resisti :)...

Bem, acredito que menor capacitância de junção seja decisiva para estabilidade do circuito em velocidades mais elevadas de operação

A capacitância de junção faz muita diferença para o consumo, se para a velocidade daí depende do bloco: consumo sempre importa, velocidade só importa se não houver algo mais lento ainda, como um transistor pequeno drivando uma linha gigantesca...

e a contenção do vazamento seja importante sob as mesmas velocidades elevadas, já que este aumenta dramaticamente com a elevação da velocidade de relógio.

Ele aumenta dramaticamente com tensão e temperatura, não com clock. Se você tiver boa refrigeração e mantiver a tensão baixa, pode variar a frequência bastante que não terá grandes problemas com leakage. Assim o Bulldozer pouco sofrerá com leakage, em relação a um projeto mais lento...

Quanto ao conservadorismo da Intel nos projetos, ocorre que a adoção do "Tick-Tock" permite uma janela de tempo menor para mudanças super-radicais. Em um ano altera-se o processo, com alterações leves na uarch e no ano seguinte outra uarch melhorada tem de obrigatoriamente estar pronta e preparada para utilizar o mesmo nódulo de processo. A AMD pelo visto já deve ter percebido essa fraqueza.

Eu falo do conservadorismo do projeto elétrico... mas a Intel tem vários grupos em overlap, cada um pode demorar uns 5 anos para desenvolver os processadores, e só não mudam mais porque preferem continuar com a base da P6: a Intel gosta muito da P6 :), as pessoas amam a P6, e mesmo as mudanças não tão disruptivas do Sandy Bridge que quebraram com a mesmice do núcleo dos Nehalems foram bem consideradas antes de aceitas.

Link para o comentário
Compartilhar em outros sites

Visitante
Este tópico está impedido de receber novas respostas.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

 

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!