Ir ao conteúdo

Gabriel Torres

Administrador
  • Posts

    8.858
  • Cadastrado em

  • Última visita

Tudo que Gabriel Torres postou

  1. Há exatamente um ano, no IDF Fall 2003, Paul Ottelini apresentou um wafer de 300 mm contendo pastilhas de silício de 65 nm. Na abertura deste IDF ele mostrou novamente o mesmo wafer. Desta vez, no entanto, Mark Bohr, do departamento de tecnologia lógica da Intel, explicou de forma aprofundada detalhes sobre esta tecnologia, que, de acordo com os planos da Intel, deverá estar equipando novos processadores a partir de 2005 ou 2006. Figura 1: Paul Ottelini apresenta wafer de 300 mm contendo pastilhas de silício de 65 nm na abertura do IDF Fall 2004. Os processadores atuais da Intel são fabricados no processo de 90 nm ou 130 nm. Diminuir o processo para 65 nm permite ao processador permite uma maior densidade de transistores, isto é, uma maior quantidade de transistores por milímetro quadrado. Para você ter uma ideia, com esta tecnologia é possível construir 10 milhões de transistores de memória estática – usada no circuito de memória cache – em apenas 1 mm quadrado (o tamanho da ponta de uma caneta esferográfica). O processo de 65 nm da Intel usa interconexões de cobre em oito camadas (o processo de 90 nm usa interconexões de sete camadas), como você pode ver na Figura 2. Figura 2: Tecnologia de 65 nm da Intel. O tamanho reduzido cria uma série de desafios. Para você entender melhor, os circuitos integrados são fabricados usando um processo chamado fotolitografia. Este processo consiste em basicamente marcar o silício usando uma luz de um determinado comprimento de onda. O problema é que para processos abaixo de 250 nm o comprimento de onda dessa luz é menor que o tamanho da área a ser gravada, como você pode ver na Figura 2. No processo de 65 nm a luz usada na gravação tem um comprimento de onda de 193 nm, o que representa uma grande diferença. Figura 3: Comparação do comprimento de onda usado no processo de fotolitografia. A solução usada pela Intel para resolver este problema foi a criação máscaras com alternação de mudança de fase, como mostra a Figura 4. Figura 4: Comparação do comprimento de onda usado no processo de fotolitografia.
  2. Em nosso segundo dia no IDF nós participamos de um laboratório para testarmos na prática o novo recurso presente na especificação Serial ATA II, chamado NCQ (Native Command Queuing). Nós já havíamos aprendido sobre este recurso no IDF Spring 2003, ou seja, há um ano e meio atrás, mas não tínhamos ainda o visto na prática. Este recurso aumenta o desempenho do disco rígido quando uma série de comandos de leitura de pontos distantes um do outro é enviada pelo computador. O disco rígido pega esses comandos e os reordena, de forma que ele consiga ler o máximo de dados do disco rígido com apenas uma rotação do disco. Veja na Figura 1. O computador pediu para o disco ler as posições A, B, C e D. Sem este recurso, o disco levará 2 voltas e meia para ler todos os dados pedidos (linha amarela). Já com a reordenação, o disco irá modificar a ordem para B, D, A e C, levando apenas uma volta para ler todos os dados pedidos (linha laranja). Figura 1: Funcionamento do NCQ. A Intel colocou à nossa disposição um micro com um disco rígido Serial ATA com este recurso (Seagate ST3160023AS, de 160 GB). A configuração do micro era: Pentium 4 3,2 GHz, 1 GB de memória RAM, placa de vídeo GeForce 6800 e placa-mãe Intel. Rodamos dois programas, o PCMark04 e o IOMeter em duas situações, com o NCQ desabilitado e com este recurso ativado. Os resultados que obtivemos no PCMark04 foram os seguintes: o uso do disco rígido (HDD Usage) aumentou de 5.978 MB/s para 6.112 MB/s, um aumento de apenas 2,24%; já o desempenho do carregamento do Windows XP (XP startup) aumentou 9,76%, pulando de 8.947 MB/s para 9.821 MB/s. Já com o IOMeter, sem o NCQ o desempenho foi de 119, pulando para 142 com este recurso ativado, ou seja, um aumento de 19,32% no desempenho de disco da máquina. Nada mal. A diferença de desempenho entre o IOMeter e o PCMark04 é facilmente explicada. O recurso NCQ só aumenta o desempenho quando o disco recebe uma série de comandos fora de ordem. No caso do PCMark04, o mais provável é que o seu teste de leitura do disco (HDD Usage) seja seqüencial, enquanto que o IOMeter faz leituras aleatórias de áreas do disco, daí o melhor resultado neste programa. Além disso, o carregamento do Windows XP – que necessita a leitura de vários arquivos espalhados pelo disco – melhorou consideravelmente, de acordo com o PCMark04. Uma novidade que a Intel deixou escapar durante a sua apresentação sobre memórias DDR2 é o lançamento, até o final deste ano, de um processador Pentium 4 de 3,46 GHz com 2 MB de memória cache L2 e com barramento externo de 1.066 MHz. Ainda não temos detalhes sobre este novo barramento, mas o valor sugere que seja um barramento de 266 MHz transferindo quatro dados por pulso de clock. A Intel mostrou uma comparação deste novo processador usando memória DDR2-533 com um Pentium 4 Extreme Edition de 3,4 GHz, que também tem memória cache L2 de 2 MB, usando memórias DDR400 e placa-mãe com chipset Intel 875P. Os resultados você confere na Figura 2: o novo processador foi 5% mais rápido no SPECint_base2000, que mede desempenho de processamento usando números inteiros, e 11% mais rápido no SPECint_fp2000, que mede o desempenho da unidade de ponto flutuante ("co-processador matemático"). O uso da memória DDR2-533 e do novo barramento de 1066 MHz foram os responsáveis por este incremento no desempenho, já que ambos rodam praticamente na mesma freqüência. Importante notar que estes valores são estimativas preliminares, já que este processador ainda não existe. Figura 2: Estimativa de desempenho para o novo Pentium 4 Extreme Edition de 3,46 GHz com barramento de 1.066 MHz. Neste IDF a Intel voltou a enfatizar a grande característica da memória DDR2, que é o seu consumo, na ordem de 30% menor que o das memórias DDR266 e na ordem de 40% menor que o das memórias DDR333, o que torna esta memória perfeita para notebooks – além de oferecer um desempenho maior que as memórias DDR. Segundo a Intel, o uso de memórias DDR2 pode representar até 10% de ganho na duração da bateria do notebook. Figura 3: Consumo das memórias DDR2. A Intel aproveitou para nos atualizar sobre o desenvolvimento das memórias DDR2-667 e DDR2-800. O padrão DDR2-667 está na sua fase final de especificação, enquanto o padrão DDR2-800 está em sua fase inicial de especificação. Para que você entenda melhor o que isto quer dizer, a criação de um novo tipo de memória passa por sete estágios. A fase em que o padrão DDR2-667 está hoje é a quarta (ou seja, faltam ainda três etapas para chegar ao mercado) e a fase em que o padrão DDR2-800 está é a segunda (ou seja, faltam ainda cinco etapas até que ela chegue ao mercado). Figura 4: Etapas onde o desenvolvimento das memórias DDR2-667 e DDR2-800 estão hoje. Durante este IDF a Intel apresentou mais detalhes sobre as futuras memórias DDR3, que deverão chegar ao mercado somente em 2006. Como você pode ver na Figura 5, os primeiros modelos serão de 800 MHz e 1066 MHz. Lembrando que, como ocorre com as memórias DDR e DDR2 este clock é "falso" pois indica o desempenho da memória e não o seu clock real. Figura 5: Planejamento da Intel para memórias. Segundo a Intel, as memórias DDR3 terão uma latência de 15% a 20% menor do que as memórias DDR2, serão alimentadas com 1,5 V e usarão um conector com a mesma quantidade de pinos dos módulos DDR2, porém com travas de instalação posicionadas em locais diferentes – isto é, não será possível instalar módulos DDR3 em soquetes DDR2 e vice-versa. O grande problema das memórias DDR3 é que só podemos instalar apenas um módulo por canal. As memórias DDR2 nós podemos instalar dois módulos por canal e no caso das memórias DDR convencionais é possível o uso de até três módulos por canal. Esta limitação física impede a criação de placas-mães com mais de um soquete (no caso de DDR3 single channel) ou com mais de dois soquetes (no caso de DDR3 dual channel), o que realmente é um problema. A solução para isto é o uso da nova tecnologia FB-DIMM (Fully Buffered DIMM), que a Intel já havia apresentado no IDF passado. Com o uso de módulos FB-DIMM, a capacidade de instalação de memória pula para oito módulos por canal. Sugerimos que você leia a nossa cobertura do IDF Spring 2004 para entender mais detalhadamente como esta tecnologia funciona.
  3. Esta edição do IDF, Intel Developer Forum, foi novamente realizada em San Francisco, Califórnia, desta vez no Moscone Center North. Este evento é um dos mais importantes da indústria de PCs; nele a Intel e empresas parceiras mostram as tecnologias que estão desenvolvendo, que podem demorar anos até chegar ao mercado. Trata-se, portanto, de uma oportunidade única de ver o que há de mais novo em termos de pesquisa e desenvolvimento de hardware, muito antes dos produtos que usam as tecnologias apresentadas entrarem no mercado. O evento foi mais uma vez aberto por Pat Gelsinger, vice-presidente sênior e executivo-chefe de tecnologia (CTO, Chief Technology Officer), que explicou o que é o IDF, sua importância e a sua programação, e aproveitou para oficialmente confirmar a entrada do Brasil no circuito oficial do IDF: teremos um IDF em São Paulo no dia 17 de novembro de 2004. Será um evento menor, já que o IDF dos EUA tem três dias de duração. Figura 1: Pat Gelsinger abrindo o IDF Fall 2004, em San Francisco. Figura 2: Brasil finalmente entra no mapa do IDF! Em seguida, Paul Otellini, presidente e executivo-chefe de operações (COO, Chief Operating Officer) subiu ao palco para falar sobre a visão da Intel para os próximos anos e o que podemos esperar de novos produtos da Intel para os próximos seis meses. Otellini foi rápido e rasteiro: a Intel está apostando em duas tecnologias para o futuro próximo. Primeiro, processadores com mais de um núcleo, que começarão a ser realidade já este ano, com o lançamento do Montecito, nome-código do processador Itanium de núcleo duplo. E, segundo, a tecnologia Wi-Max (IEEE 802.16), de rede metropolitana sem fio. Figura 3: Paul Otellini apresenta amostra do Itanium de núcleo duplo (Montecito). Ter mais de um núcleo significa que o processador na realidade tem dois ou mais processadores dentro dele, podendo realizar tarefas em paralelo, da mesma forma que ocorre atualmente com computadores que possuem mais de um processador na placa-mãe. Há várias vantagens em se colocar mais de um processador diretamente dentro do próprio processador, como a velocidade de comunicação entre os núcleos (em um sistema multiprocessado tradicional os processadores comunicam-se através da placa-mãe, que não proporciona a maior velocidade de comunicação possível entre eles) e um menor custo. A previsão da Intel é que processadores com mais de um núcleo estarão mais presentes em 2006, com uma fatia de mercado maior que 40% no mercado de desktops de alto desempenho, maior que 85% no mercado de servidores e maior que 70% no mercado de notebooks de alto desempenho. Figura 4: Previsão da Intel para os processadores com mais de um núcleo. A Intel apresentou um protótipo de servidor com quatro processadores de núcleo duplo. O Windows reconheceu a presença de 16 processadores: cada processador tem dois núcleos e cada núcleo usa a tecnologia Hyper-Threading – que faz o sistema reconhecer cada núcleo como sendo dois processadores, daí o Windows reconhecer cada processador de núcleo duplo como sendo quatro processadores. A NASA, agência aeroespacial norte-americana, participou desta apresentação, anunciando o projeto Columbia, um supercomputador que usará aproximadamente 10.000 processadores Itanium 2 e, quando estiver pronto, será o supercomputador mais rápido do mundo (desde que até lá ninguém lance outro supercomputador mais rápido), com aproximadamente 60 TeraFLOPs de capacidade de processamento. A Intel está apostando nas seguintes novas tecnologias para os seus próximos processadores: Hyper-Threading, que hoje equipa 55% dos processadores Intel para desktops e 100% dos processadores Intel para servidores; EM64T, a tecnologia de 64 bits da Intel, lançada no IDF passado; LaGrande, que protege o PC contra a ação de hackers e que foi apresentada no IDF Fall 2003; Vanderpool, tecnologia que permite "dividir" o PC em várias máquinas e que também foi apresentada no IDF Fall 2003; e a tecnologia iAMT, Intel Advanced Management Technology, que terá suas especificações publicadas no próximo IDF. As tecnologias LaGrande e Vanderpool (tecnologia de virtualização) serão possíveis com o próximo sistema operacional da Microsoft, o Longhorn. Paul Otellini mostrou razões bem convincentes porque a Intel está apostando tanto na tecnologia Wi-Max, que permitirá redes sem fio metropolitanas, isto é, uma única antena atenderá a uma área muito maior do que a tecnologia Wi-Fi (IEEE 802.11), podendo cobrir um bairro inteiro. Em 2003 somente 10% dos notebooks vinham de fábrica com antena para redes sem-fio. A previsão para 2004 é que esse número aumente para 60% e chegue a até 96% em 2006. Figura 5: Previsão do IDC para o mercado de notebooks com rede wireless. Em 2000, 90% das conexões à Internet eram feitas por linha discada e somente 10% por banda larga. A previsão para 2004 é que o número de usuários de banda larga praticamente iguale o de conexão discada, nos EUA, com a conexão wireless representando 8% das conexões. Já a previsão para 2008 é que apenas 22% das conexões sejam discadas, com 40% dos usuários fazendo conexão via Wi-Fi e 8% via Wi-Max. Figura 6: Previsão da Intel para métodos de conexão. A Intel prevê ainda que teremos em 2006 os primeiros notebooks vindo com rede Wi-Max de fábrica, atingindo um número expressivo de unidades em 2008. Figura 7: Previsão da Intel para o mercado de notebooks. Isto posto, Otellini apresentou o primeiro sistema Wi-Max em um único chip da Intel. Figura 8: Paul Otellini apresenta a placa de desenvolvimento do primeiro sistema Wi-Max em um único chip da Intel. A NVIDIA aproveitou o IDF para fazer uma apresentação explicando suas tecnologias atuais, a maioria delas já abordamos na nossa cobertura do lançamento do GeForce 6800, como o modelo Shader 3.0, então não vamos repeti-las aqui. A NVIDIA mostrou o seu módulo MXM, que já falamos aqui, e as tecnologias SLI (Scalable Link Interface) e SDI (Serial Digital Interface). A tecnologia SLI é uma conexão entre placas de vídeo que permite que os processadores gráficos trabalhem em paralelo, similar ao que ocorre em computadores multiprocessados. A NVIDIA mostrou um demo do simulador de vôo Aechelon, que é um simulador profissional, usado pelas forças armadas. Pudemos comprovar o aumento de desempenho: uma placa Quadro FX 3400 produzia 30 quadros por segundo e, colocada juntamente com outra placa ligada via SLI, o desempenho dobrou, pulando para 60 quadros por segundo. O ponto forte é que não a necessidade de qualquer modificação no software para o funcionamento desta tecnologia. Figura 9: Tecnologia SLI da NVIDIA. Figura 10: Com o uso de duas placas de vídeo o desempenho dobrou. Já a tecnologia SDI é voltada para aplicações profissionais de vídeo, tais como estúdios de TV e vídeo. Trata-se de uma interface de vídeo profissional. Outra aplicação cogitada pela NVIDIA é o de cinemas digitais. O distribuidor de filmes, em vez de fazer cópias físicas da película, transmitiria via satélite o filme, em tempo real, para o cinema, que então projetaria o filme, usando um computador equipado com esta interface. Esta transmissão seria obviamente criptografada. Figura 11: Placa Quadro FX 4000 com interface SDI. Figura 12: Arquitetura da placa Quadro FX 4000 com SDI. A NVIDIA apresentou ainda alguns demos das tecnologias de correção de imagem presente nos processadores GeForce da série 6. Estes processadores de vídeo são na realidade "dois em um": além do chip gráfico em si, há integrado ao próprio chip um processador de imagens, para a decodificação de vídeo. Como pudemos comprovar ao vivo, este recurso permite imagens sem aqueles "quadrados" quando aumentamos a janela de reprodução do vídeo, além de fazer com que não haja pausas durante a reprodução de vídeo, o que é muito comum de ocorrer especialmente se o processador da máquina não é tão rápido. Ou seja, em micros com placas de vídeo usando os chips da série GeForce 6 a decodificação de vídeo passa a ser papel da placa de vídeo, e não mais do processador do micro. Para mais informações, leia a nossa cobertura do lançamento do chip GeForce 6800.
  4. Olá, O preço tanto de livros quanto de programas é determinado pela editora. O autor ganha royalties (comissão sobre vendas). Não acho o preço dos livros caro no Brasil; ele está no mesmo patamar do preço em outros mercados. Acho que o problema é outro: o brasileiro é que ganha pouco. Sinceramente, acho que em vez do pessoal reclamar do preço das coisas, deveria lutar para uma maior valorização profissional, salarial, de remuneração, etc. Abraços, Gabriel Torres
  5. A ABIT organizou um campeonato mundial de LAN Party, chamado ACON4, em 21 países diferentes. Os vencedores de cada país foram convidados a disputar a final em Xangai, China Continental, com todas as despesas pagas pela ABIT. O jogo era o WarCraft III e as máquinas foram montadas com placas-mães ABIT AG8 (soquete LGA775), placas de vídeo ATI Radeon X800, processadores Pentium 4 de 3,6 GHz soquete LGA775, memórias Kingston DDR500, discos rígidos Western Digital 74 G Raptor Serial ATA de 10.000 rpm, gabinetes Coolermaster, monitores Viewsonic LCD de 17" e mouses Logitech. O ganhador levou um carro da Kia, o segundo lugar ficou com US$ 3.500, o terceiro lugar levou US$ 2.000 e o quarto lugar colocou US$ 1.000 no bolso. Nós fomos convidados a assistir a esta disputa final (o ganhador foi o concorrente norte-americano e, em segundo lugar, ficou o concorrente russo – que ironia!) e aproveitar nossa ida até Xangai para visitar a fábrica da ABIT e também a fábrica das memórias Kingston. Figura 1: China, país generoso. Figura 2: Final do campeonato ACON4, em Xangai, China. Uma curiosidade deste campeonato é que fiscais do governo chinês fiscalizaram cada passo do campeonato. Para você ter uma ideia, o lugar onde cada finalista ficaria sentado teve de ser aprovado pelos representantes do governo antes do início do campeonato, e os fiscais verificavam o tempo todo se as pessoas estavam sentadas nos locais previamente acordados. Ficava parecendo que qualquer saída milimétrica do acordo estabelecido entre a ABIT e o governo chinês seria motivo para encerrar o campeonato e mandar todo mundo de volta para casa. Não muito diferente do Brasil durante o governo militar. Se você reparar com atenção a Figura 2 você verá os fiscais em ação atrás dos competidores. Na Figura 3 você os vê sentados após o término do campeonato. Figura 3: Fiscais do governo chinês. Visitar a China é sempre uma aventura. Por conta dos problemas políticos entre a China e Taiwan, na há vôos diretos entre Taiwan e a China Continental. Por isso, tivemos que ir de Taiwan até Macau e de Macau até Xangai. Macau é uma ex-colônia portuguesa que foi devolvida a China em 1999, e que fica a uma hora de barco de Hong Kong. Macau, assim como Hong Kong, é uma Zona Administrativa Especial, fazendo parte do que os chineses chamam de "um país, dois sistemas", já que Macau e Hong Kong tem sua própria moeda. O que achamos engraçado é que em Macau, apesar de ter sido colonizado por Portugal, a direção é inglesa, como Hong Kong, e não convencional, como o resto do mundo incluindo a própria China. A vôo de Taipé até Macau demora 1:30 H, e de Macau até Xangai leva outra 1:30 H. Por conta da espera em Macau pelo próximo vôo e deslocamento, são gastos quase 6 H. Isto sem contar o que já havíamos passado para chegar em Taiwan (uma hora entre Rio e São Paulo, cinco horas de espera em São Paulo, oito horas de vôo até a África do Sul, cinco horas de espera na África do Sul, 13 horas de vôo entre a África do Sul e Hong Kong, uma hora de espera em Hong Kong e mais uma hora e meia de vôo entre Hong Kong e Taipé – são literalmente dois dias voando e, acredite, este é o caminho mais rápido). Xangai é uma cidade com 16 milhões de pessoas – ou seja, quase do tamanho de São Paulo. São enormes arranha-céus para todos os lados e, ao mesmo tempo, várias casas e prédios ao estilo oriental. É o contraste que faz de Xangai uma cidade única. Figura 4: Xangai a noite. Figura 5: Enorme templo budista ao lado de um arranha-céu. Cena comum em Xangai. Este é o Templo do Buda de Jade. A fábrica da ABIT, que é chamada Rolly, fica na cidade de SuZhou (pronuncia-se "su-tjou"), aproximadamente a 100 Km a leste de Xangai. SuZhou é uma cidade pequena para os padrões chineses, com 1 milhão de habitantes e sua principal atração são os seus jardins, mais de 2.000 espalhados pela cidade. Devido a problemas políticos entre Taiwan e China, a fábrica da ABIT não pode se chamar ABIT. Por isso, seu nome oficial é Rolly. Construída em 1999, esta fábrica é responsável pela fabricação de todos os produtos da ABIT. Antes de sua construção os produtos eram fabricados em uma fábrica que a ABIT tinha em Taiwan, sendo que esta fábrica em Taiwan não existe mais. Eles também fabricam produtos para outras empresas, como Canon e Yamaha – mas nunca para outras empresas de placas-mães. Figura 6: Missão da Rolly, fábrica da ABIT em SuZhou. A ABIT mantém um centro de pesquisa e desenvolvimento na Rolly, onde alguns dos produtos da ABIT são desenvolvidos. Figura 7: Centro de Pesquisa e Desenvolvimento da ABIT dentro da Rolly. Figura 8: Centro de Pesquisa e Desenvolvimento da ABIT dentro da Rolly. Vamos dar uma rápida olhada nas linhas de produção da ABIT antes de falarmos o que vimos de diferente na ABIT para as outras fábricas que já visitamos. O processo de fabricação de uma placa-mãe ou uma placa de vídeo é praticamente o mesmo em todas as fábricas. A placa de circuito impresso (PCB) chega e nela é aplicada uma pasta de solda nos pontos onde componentes SMD serão instalados. A placa segue por uma esteira para a linha de inserção SMT (SMD e SMT são praticamente sinônimos; enquanto SMD refere-se ao componente, SMT refere-se à tecnologia de soldagem). Nesta linha robôs pegam e instalam os componentes SMD em seus locais apropriados. Após a inserção de todos os componentes SMD, a placa segue pela esteira para um forno de solda, onde a pasta aplicada na primeira etapa derrete e solda os componentes. Ao final e em pontos durante o processo que o fabricante julgar necessário, funcionários (normalmente mulheres) inspecionam visualmente a placa a procura de erros. Figura 9: Visão geral das linhas SMD da ABIT. Figura 10: Uma das placas-mães que estavam sendo fabricadas durante nossa visita. No caso da ABIT, após o término da linha SMD, uma máquina faz o controle de qualidade visual. Não são todas as fábricas que dispõem deste aparelho. Esta máquina é programada para inspecionar, visualmente, determinados pontos da placa-mãe. Caso o ponto não esteja bem soldado, por exemplo, a máquina acusa e a placa é encaminhada para uma das funcionárias para a correção de erros. Normalmente em linhas de produção são usadas mulheres, pois já foi comprovado em pesquisas que mulheres acham erros com mais facilidade do que os homens. Além da inspeção visual por máquina, a inspeção manual por uma funcionária continua existindo. Figura 11: Controle de qualidade visual. Após o término do controle de qualidade da linha SMD, a placa segue para a linha de inserção manual, também chamada DIP. Nesta linha são inseridos os componentes maiores, que requerem solda convencional, como soquetes, conectores, capacitores eletrolíticos, slots, etc. A placa segue em uma esteira que corre em frente a vários funcionários. Cada funcionário é responsável pela inserção de um componente. A placa segue pela linha até que todos os componentes sejam inseridos. Em seguida, a placa segue para o seu banho de solda, onde ela entra em uma máquina soldadora automática onde o seu lado da solda é banhado por solda e os componentes saem da máquina automaticamente soldados. Em seguida, a equipe do controle de qualidade entra em ação conferindo se todas as soldas ficaram perfeitas ou não. Em seguida, funcionários instalam o BIOS, a bateria e o dissipador de calor do chipset, e eventualmente outros componentes que não podem ser instalados antes da máquina de solda. Por fim, Após esta etapa, a placa está pronta para uso. Figura 12: Detalhe de uma das linhas de inserção manual da ABIT. Figura 13: Funcionária programando os chips do BIOS. Este processo ocorre em outra área. Figura 14: Funcionários instalando o chip do BIOS e aplicando a pasta térmica sobre o chipset. Estando a placa fabricada, a próxima etapa é o seu teste funcional, naturalmente. Neste teste, a placa-mãe é ligada e todos os seus componentes são testados. Este é um teste obrigatório e todas as placas são testadas. Figura 15: Baias onde as placas recém fabricadas são testadas uma a uma. O que ocorre após o teste funcional da placa varia de fabricante para fabricante. Vale a pena explicarmos melhor o que ocorre na ABIT. Nós já visitamos várias fábricas de placas-mães, incluindo as fábricas da MSI, da Gigabyte e da ECS/PCChips, só para citarmos as mais importantes. De uma forma geral, todas as fábricas são iguais, já que o processo de produção é basicamente o mesmo. O que pode eventualmente variar de acordo com o fabricante é a quantidade de pontos onde as inspeções visuais são feitas durante o processo de fabricação. O que a ABIT tem de realmente diferente para os outros fabricantes é a quantidade de testes efetuados ao longo do processo de fabricação. Normalmente os fabricantes fazem somente um teste funcional (verificam se a placa liga e rodam um programa de teste de hardware para testar todos os recursos da placa-mãe) e, eventualmente, um burn-in (deixam a placa-mãe ligada 24 horas). Por conta da demora no teste de burn-in, muitos fabricantes simplesmente não fazem mais este teste e aqueles que ainda o fazem efetuam o teste por amostragem, isto é, apenas algumas placas-mães são aleatoriamente escolhidas para serem testadas. Aliás, só vimos uma fábrica de placas-mães onde todas as placas passavam por burn-in e foi no Brasil (na Netgate, mas isso foi em outubro de 2000 e pode ser que o procedimento tenha sido alterado). Mas é claro que em uma fábrica que produz 3.000 placas-mães por mês isto é fácil de ser feito. Em uma fábrica que produz quase 1 milhão de placas por mês, isto torna-se quase impossível. Então, na maioria das fábricas é assim que funciona: após o teste funcional algumas placas são sorteadas para ficarem em burn-in por 24 horas e o restante é imediatamente embalado. E c'est fini. Dentro do processo da ABIT, entretanto, são efetuados seis testes após o teste funcional: compatibilidade, burn-in, ambiental, confiabilidade, vibração e queda. Estes testes são realizados por amostragem, isto é, somente algumas placas são testadas. Segundo eles, isto é suficiente para descobrirem eventuais falhas no processo de fabricação. Realmente nunca vimos uma fábrica com tantos testes. No teste de compatibilidade, a ABIT testa 10 peças de cada modelo sendo fabricado por dia para ver como se comporta a compatibilidade do produto com vários sistemas operacionais e com peças de vários fabricantes (por exemplo, vários modelos de memórias de vários fabricantes), a fim de descobrir se existe algum conflito ou incompatibilidade com o produto que está sendo testado. Figura 16: Laboratório onde o teste de compatibilidade é executado. O teste de burn-in da ABIT é por amostragem, testando 10 peças de cada modelo que está sendo fabricado por dia, rodando o Windows XP e rodando vários programas de testes na temperatura ambiente por 24 horas para ver se nenhum problema ocorre. Figura 17: Teste de burn-in em execução. Já o teste que a ABIT chama de ambiental é algo que nunca vimos em nenhuma outra fábrica (ou, se existe nas outras fábricas que visitamos, não nos mostraram). Neste teste, a peça testada é colocada em funcionamento em uma câmara térmica que parece um forno gigante. Nesta câmara, a temperatura é baixada a 0 grau e depois aumentada até 40 graus, e a umidade relativa do ar é baixada a 0% e depois aumentada até 85%. Este teste roda durante 24 horas e ao final tem-se um relatório mostrando se a peça funcionou bem ou se apresentou problemas quando as características ambientais foram modificadas. Este, por precisar de câmaras especiais, é feito por amostragem e são testadas três peças de cada modelo sendo fabricado por dia. Figura 18: Câmara onde o teste ambiental é executado. Figura 19: Detalhe do display da câmara ambiental mostrando os testes já executados e o em execução. O teste de confiabilidade é outro teste que nunca vimos em outra fábrica (ou, da mesma forma, se existe em outras fábricas que visitamos, ninguém nunca nos mostrou). Este teste consiste de um burn-in de 168 horas (ou seja, 7 dias consecutivos), com a peça rodando sob temperatura ambiente e rodando uma bateria de programas de testes. Este teste também é feito por amostragem, onde são testadas 10 placas por dia de cada modelo que está sendo fabricado. O teste de vibração tem como objetivo simular o transporte das placas da ABIT na mais severas situações. O testador pega uma caixa contendo várias placas dentro devidamente embaladas e executa dois testes, de uma hora de duração cada. O primeiro teste é de freqüência variável, onde a caixa é sacudida em freqüências de 10 Hz a 60 Hz (ou seja, 10 sacudidas a 60 sacudidas por segundo), permanecendo em cada freqüência por 10 minutos. O segundo teste efetuado é o de freqüência fixa, onde a caixa fica balançando a 100 Hz por uma hora. 20 caixas de cada modelo por dia passam por este teste. Ao final de cada teste, a caixa é aberta para verificar se houve danos físicos nas caixas dos produtos e nos produtos em si e os produtos são testados para ver se estão funcionando adequadamente. O último teste é o de queda, onde uma caixa contendo várias placas em suas respectivas embalagens é literalmente jogada no chão para ver o que acontece. Cada caixa é jogada ao chão de uma altura de 76 cm e o teste é feito para todos os seis lados da caixa. Após o término do teste, a caixa é aberta para verificar como ficou a aparência das caixas dos produtos e as placas são testadas para verificar se estão funcionando corretamente. Este teste é efetuado em 20 caixas de cada modelo que está sendo fabricado por dia. Como podemos ver, aparentemente o controle de qualidade é o diferencial da ABIT. Onze porcento dos empregados da Rolly trabalham no controle de qualidade, enquanto, segundo a ABIT, na fábrica da ASUS este número é de 6%. Outro ponto positivo da ABIT que é importante destacar é que depois do problema de capacitores eletrolíticos estourando e vazando que afeta várias placas-mães – inclusive as da ABIT – eles passaram a só usar capacitores japoneses, mais caros mas que não sofrem deste problema. Para mais informações: http://www.abit-usa.com/
  6. Aproveitamos nossa visita à Xangai para visitarmos a fábrica da Kingston. A Kingston possui quatro fábricas: Penang, Malásia, com capacidade para fabricação de 500 mil módulos de memória por mês; Hsin-Chu, Taiwan, com capacidade para fabricação de 1,7 milhão de módulos por mês; Fountain View, Califórnia, EUA, com capacidade de produção de 800 mil módulos de memória por mês; e Xangai, China, com capacidade de produção de 2,5 milhões de módulos por mês. Os módulos são projetados exclusivamente na sede da Kingston, em Fountain View, Califórnia, EUA. É neste mesmo local que os chips com a marca Kingston são encapsulados, isto é, a Kingston compra o wafer de algum fabricante e encapsula o chip em suas instalações e marca a sua própria marca no invólucro. A Kingston também usa chips de terceiros, como Hynix e Elpida. Durante a nossa visita à fábrica de Xangai, os módulos sendo fabricados usavam chips da Hynix. A fábrica de Xangai é a maior, contendo 8 linhas SMT. A Kingston está construindo uma nova fábrica em Xangai, que terá 10 linhas SMT ainda neste ano e 12 linhas em 2005, quando a sua capacidade de produção dobrará, passando a ser de 5 milhões de módulos por mês. A Kingston mantém quatro fábricas, segundo eles, para prevenir problemas de distribuição caso ocorra algum desastre natural ou incêndio. A fábrica que visitamos está localizada na Zona Franca de Waigaoqiao em Xangai. Fábricas localizadas na Zona Franca não pagam o imposto local (VAT, Value Added Tax, o equivalente ao nosso ICMS, que lá é de 17%) se o produto for exportado. Se for vendido no mercado local, o imposto é cobrado. Figura 1: Entrada da Zona Franca de WigaoQiao em Xangai. Figura 2: Fachada da fábrica da Kingston. Figura 3: Política de qualidade da fábrica da Kingston. O processo de fabricação de módulos de memória é similar ao de fabricação de outras placas. A diferença está no fato que módulos de memória não têm componentes de inserção tais como conectores e capacitores eletrolíticos e, portanto, a etapa de inserção manual não existe. A produção de módulos de memória restringe-se à linha SMT. Para entender detalhadamente o processo de fabricação de placas, leia o artigo sobre a nossa visita à fábrica da ABIT em SuZhou, China, onde explicamos o processo em detalhes. Figura 4: Visão geral de algumas das linhas SMT da Kingston. Uma diferença na fabricação de módulos de memória para a fabricação de placas-mães é que as placas de circuito impresso das memórias, ou seja, os módulos sem componentes instalados, entram no processo presos em um painel. Cada painel tem oito módulos. Ao final da fabricação dos módulos, o painel tem que ser cortado para que os módulos possam ser testados e embalados – e usados, naturalmente. Figura 5: Painel contendo oito módulos de memória entrando na linha SMT. Figura 6: Painel saindo da máquina de inserção e entrando no forno de soldagem. Figura 7: Funcionária procura por defeitos de solda nos módulos. Antes de serem separados, os módulos são etiquetados. A etiquetagem e o corte do painel é feito pela mesma máquina. Figura 8: Módulos após terem sido etiquetados. O próximo passo é testar os módulos. Todos os módulos são testados de duas formas. Através de uma máquina, que faz um teste rápido preliminar, e depois um teste funcional em um ambiente real, isto é, em PCs rodando programas de teste de memória. Figura 28: Primeira etapa de testes. Figura 29: Visão geral de uma das áreas de teste da Kingston. Após os módulos terem sido testados eles seguem para serem embalados e ter suas embalagens etiquetadas. A etiquetagem é feita por uma máquina, que imprime a etiqueta na hora dependendo do produto que estiver sendo embalado. Após este processo, os módulos são guardados em caixas de 25 unidades cada. Por fim, uma funcionária confere cada caixa para ver se há 25 módulos em cada caixa e se a etiqueta presente na embalagem do módulo corresponde ao módulo que está de fato dentro da caixa. Figura 30: Máquina etiquetadora. Para mais informações: http://www.kingston.com/
  7. Os gabinetes mais incrementados, além de trazerem portas USB em sua parte frontal, como vimos na semana passada, trazem também plugues de entrada de microfone (mic in) e saída para alto-falantes (ou fones de ouvido), recurso que torna muito prático e rápido instalar um microfone ou fone de ouvidos ao PC, pois com este recurso não precisamos tirar o gabinete do lugar e ficar procurando onde encaixar o microfone ou os fones de ouvido (ou caixas de som) na hora da instalação destes periféricos. Retirar o gabinete do lugar é realmente um inconveniente, ainda mais se você tem ele instalado em um móvel feito sob medida, por exemplo. Figura 1: Detalhe de gabinete com portas USB e plugues do som on-board na parte frontal. Para usar esses plugues, sua placa-mãe precisa ter placa de som integrada (ou seja, som on-board). A instalação, no entanto, não é tão simples quanto parece, e iremos explicar na coluna de hoje como ela deve ser feita. Dos plugues sai um conjunto contendo sete fios. Ao final de cada fio há um pequeno conector preto, e neste conector há escrito a função do fio. Você encontrará os seguintes fios: Mic In (ou Mic Data), Ret L, Ret R, L Out (ou Ear L), R Out (ou Ear R) e dois Gnd (ou Ground). Se você observar bem, os fios Ret L e L Out são conectados entre si, o mesmo ocorrendo com os fios Ret R e R Out. Se o seu gabinete tiver também um plugue de entrada de linha (line in), haverá mais dois fios: Line In L e Line In R. Figura 2: Fios dos plugues frontais do gabinete. Você deverá procurar na sua placa-mãe o local de instalação desses fios. Este local está marcado com "Audio", "External Audio", "Ext Audio", "Front Audio", "F Audio" ou similar. Este local consiste em um conector contendo 9 pinos, existindo dois jumpers instalados, fazendo a ligação de alguns destes pinos. A localização exata deste conector varia de placa-mãe para placa-mãe e você precisará do manual da sua placa-mãe para localizá-lo com exatidão. Figura 3: Local da placa-mãe onde os fios do gabinete deverão ser instalados. Para instalar os fios, o primeiro passo é entender o sistema de numeração dos pinos do conector da placa-mãe. Existem no conector nove pinos, mas o conector é considerado de 10 pinos porque um dos pinos foi removido (pino 8). Os jumpers existentes conectam os pinos 5 ao 6 e os pinos 9 ao 10. Como há o espaço sem pino (pino 8), fica fácil descobrir a numeração dos demais pinos. Note que de um lado do conector os pinos têm numeração ímpar (1 a 9) e, do outro, par (2 a 10). Figura 4: Pinagem do plugue da placa-mãe. Remova os jumpers. A conexão dos fios deve ser feita da seguinte forma: Mic In ao pino 1; Gnd ao pino 2 e 3; R Out ao pino 5; Ret R ao pino 6; L Out ao pino 9 e Ret L ao pino 10. Aprenda a instalar as portas USB frontais mostradas na Figura 1.
  8. Os gabinetes mais incrementados vêm com portas USB frontais. Para usá-las, você precisa conectá-las à placa-mãe do seu micro. Em nossa coluna de hoje, mostraremos como esta conexão deve ser feita. Atualmente as placas-mães vêm com quatro, seis ou oito portas USB, só que dessas portas todas, normalmente apenas duas ou quatro são soldadas diretamente à placa-mãe, em sua parte traseira. Por conta disso, em geral temos duas portas USB "sobrando" na placa-mãe. Estas portas "sobrando" estão normalmente disponíveis em um conector de 9 ou 10 pinos, como você confere nas fotos. É nesse conector que as portas USB do painel frontal do gabinete devem ser instaladas. Figura 1: Conector USB da placa-mãe. Figura 2: Outro exemplo de conector USB da placa-mãe. O grande problema é que não há padronização entre os diversos fabricantes de placas-mães das funções de cada pino, isto é, o pino 1 do conector de uma placa-mãe pode ter um significado diferente do pino 1 do conector de uma placa-mãe de outro fabricante. Por causa disso, cada fio das portas USB do painel frontal do gabinete usam conectores individuais. Como cada porta USB usa quatro fios, você terá em seu gabinete oito fios vindo do painel frontal, caso o seu gabinete tenha duas portas USB, que é a quantidade mais comum. Figura 3: Fios das portas USB do gabinete. No conector de cada fio há escrito o seu significado, que pode ser +5V (ou VCC ou Power), D+, D- e GND. Além do significado, em cada conector há escrito se o fio pertence à porta 1 (ou A ou X) ou porta 2 (ou B ou Y) do gabinete. O primeiro passo para a instalação é separar os fios de acordo com a porta, isto é, separar os fios em dois grupos: porta 1 e porta 2. Figura 4: Detalhe dos conectores dos fios das portas USB do gabinete. Em seguida, você deve instalar os fios no conector da placa-mãe. O grande problema é saber o significado de cada pino da placa-mãe, já que normalmente isto não está escrito sobre a placa-mãe. Para esta tarefa, você precisará consultar o manual da placa. Lá o significado de cada pino do conector, como mostramos na ilustração. Basta você instalar cada um dos fios (+5V, D+, D- e GND) nos locais indicados no manual. Na placa-mãe usada em nosso exemplo, os fios da porta 1 deverão ser ligados da seguinte forma: +5V no pino 1, D- no pino 3, D+ no pino 5 e GND no pino 7. Os fios da porta 2 deverão ser ligados da seguinte forma: +5V no pino 2, D- no pino 4, D+ no pino 6 e GND no pino 8. Note que o significado de cada pino da sua placa-mãe pode ser diferente deste exemplo e, portanto, você precisará consultar o manual da sua placa. Normalmente os fios de uma porta ficarão de um lado do conector (pinos ímpares) e os fios da outra porta ficarão do outro lado (pinos pares). Figura 5: Manual da placa-mãe. Clique aqui para aprender a instalar os conectores frontais de áudio do gabinete.
  9. Com certeza se o seriado Profissão: Perigo tivesse sido criado e rodado em 2004, o McGyver teria um canivete suíço como este, que tem 64 MB ou 128 MB de memória flash USB, que é um verdadeiro sonho de consumo. Este nosso teste foge completamente do perfil dos nossos testes normalmente publicados aqui no Clube do Hardware, mas nós julgamos este teste muitíssimo interessante, já que este produto é fabricado pela lendária Victorinox – responsável pela criação dos famosos canivetes suíços desde 1884 – e, com certeza, despertará o desejo de todos os nossos usuários. A sua praticidade fala por si só. Amantes de canivetes suíços tendem a carregá-lo a todos os lugares. Desta forma, aonde quer que você vá, você terá à mão uma memória de 64 MB ou 128 MB, podendo transportar arquivos com facilidade e de uma maneira infinitamente mais prática e menor que um disquete, sem falar na capacidade de armazenamento quase 90 vezes maior que um disquete de 1,44 MB, comparado ao modelo de 128 MB. Figura 1: Caixa original do canivete suíço com memória USB. Oficialmente chamado Swissmemory, o canivete tem as seguintes ferramentas: memória USB de 64 MB ou 128 MB, faca pequena, lixa, tesoura, caneta e lanterna. A Victorinox comercializa ainda um modelo sem as ferramentas cortantes (faca, lixa e tesoura) para que você possa carregar o canivete em vôos aéreos. Este modelo é chamado Flight e é um pouco mais barato. O canivete é realmente pequeno (6 cm de comprimento) e realmente muito prático. Junto com o canivete vem um cabo de extensão, para caso a porta USB esteja atrás do PC em ângulo de difícil acesso para a instalação do canivete. Figura 2: Canivete suíço e o seu cabo de extensão. Figura 3: Realmente portátil, com apenas 6 cm de comprimento. A memória USB é destacável, o que torna o canivete ainda mais interessante, pois oferece uma indiscutível praticidade. Figura 4: Para maior praticidade, a memória pode ser destacada do canivete. Nas próximas fotos você confere as demais ferramentas deste canivete. Figura 5: Tesoura, lixa e faca. Figura 6: Caneta. A lanterna é ligada pressionando-se o símbolo da Victorinox. Figura 7: Lanterna. Pode parecer que já mostramos tudo que este canivete oferece, mas isto não é verdade. Em sua memória vem um programa chamado Secure Lock, que configura as funcionalidades da memória. Versões de memória: 64 MB e 128 MB Ferramentas: Faca pequena, lixa, tesoura, caneta e lanterna. Há uma versão sem a faca, lixa e tesoura, chamada Flight, para que você possa carregar o canivete em vôos aéreos. Recursos extras: Cabo extensor USB e programa Secure Lock. Mais informações: http://www.swissbit.com Preço sugerido no mercado europeu: € 64 (modelo Flight, 64 MB), € 78 (modelo Flight, 128 MB), € 69 (modelo completo, 64 MB) e € 82 (modelo completo, 128 MB). Programa Secure Lock O programa Secure Lock que acompanha o canivete permite que você configure uma senha para impedir que pessoas não autorizadas leiam os dados presentes na memória. O programa permite criar dois tipos "partições" na memória, uma pública, que qualquer um pode acessar, e uma privada, que somente quem souber a senha pode acessar. Há também no programa uma ferramenta de reparo, que "zera" a memória e testa a mesma para ver se ela está 100% funcional. Outra ferramenta disponível no programa é a transformação da memória USB em um disco de boot, permitindo que você dê boot através da memória USB. Esta opção é realmente muito interessante para os técnicos em manutenção. Figura 8: Programa Secure Lock. Desempenho Nós recebemos para teste o modelo com 128 MB de memória. Testamos o desempenho da memória USB do canivete usando o programa Sandra 2004 versão 9.89 (http://www.sisoftware.net), em um micro com portas USB 2.0. Usando arquivos de 2 MB, a memória atingiu um desempenho de 956 KB/s para a leitura e 546 KB/s para a escrita, valores parecidos com outras memórias USB disponíveis no mercado. Conclusões O canivete suíço com memória USB é uma idéia fantástica, pois é um produto prático e realmente útil. Como comentamos, quem gosta de canivete suíço acaba carregando-o consigo a todos os lugares, e ter uma memória USB de 64 MB ou 128 MB à mão é sempre útil. O canivete é pequeno e leve, o que o torna ainda mais atraente. O fato da memória poder ser destacada do canivete é realmente muito conveniente. O programa que acompanha o canivete é outro destaque, já que ele permite criar "partições" na memória do canivete, uma pública e uma privada, com senha de acesso.
  10. Os spams, e-mails não solicitados, são uma praga. Além de entupirem a nossa caixa de e-mail e nos fazerem perder muito tempo apagando as benditas mensagens, não oferecem nada de concreto a não ser golpes, soluções questionáveis para problemas sexuais, produtos que não queremos e coisas do gênero. De fato, a maior parte dos e-mails que circulam na Internet é spam, fazendo com que servidores tenham de ser superdimensionados para aguentarem o tráfego adicional indesejado, acarretando em um aumento no consumo elétrico. Se pensarmos na quantidade de servidores de e-mails espalhados pelo mundo, temos um real problema ecológico que pouco é discutido e que já exploramos em nosso editorial “Porque somos a favor da criminalização do spam”. Existem vários programas e soluções para “matar” spam. Mas hoje queremos discutir o que poucos usuários comuns sabem: afinal, como se pega spam? como, tendo acabado de criar uma conta de e-mail “limpa”, passamos a receber spam? Ou seja, como as pessoas que fazem spam conseguem o nosso endereço de e-mail? Por incrível que pareça, são poucos os métodos usados para se conseguir capturar o nosso endereço de e-mail. Com isto, se tivermos o cuidado necessário é possível ter uma caixa postal sem spam. Vamos a eles. Robôs de captura de endereços de e-mail O método mais usado para conseguir e-mails para se fazer spam é usar um programa do tipo “robô” que varre a web em busca de endereços de e-mail. Isto significa o seguinte. Se você publicar o seu endereço de e-mail em algum site na Internet, como redes sociais, fóruns, sites de classificados, sites de reclamação, página de contato de um site ou blog etc. inevitavelmente começará a receber spam. E uma vez recebendo spam, já era, pois seu endereço de e-mail estará em uma lista que será emprestada, divulgada ou até mesmo vendida a outros spammers (pessoas que fazem spam). Se você realmente precisar publicar um endereço de e-mail em um site, escreva-o de forma a enganar os robôs de spam. Há várias formas de se fazer isto. Supondo que o seu e-mail é [email protected], você pode publicar o seu e-mail no site de uma forma alternativa. Alguns exemplos: nome at provedor dot com dot br nome em provedor ponto com ponto br nome#provedor.com.br nome [arroba] provedor [ponto] com [ponto] br Como os robôs de busca varrem a web em busca do símbolo de arroba (@), essa dica funciona que é uma beleza. Você já deve ter reparado que muitos sites de empresas não têm endereço de e-mail para contato, mas sim um formulário, inclusive com possibilidade de selecionar o departamento que você deseja entrar em contato. Um dos motivos que as empresas usam formulários em vez de divulgarem seus endereços de e-mail é justamente evitar o spam, já que no formulário o e-mail da empresa não é divulgado. Portanto, se você tem um site na Internet, a dica é usar formulários em vez de divulgar seus e-mails de contato (ou, se divulgar os e-mails de contato, use a dica acima). Robôs de “chute” de endereços de e-mail Outro tipo de robô de spam “chuta” endereços de e-mail baseados em nomes comuns que são configurados em um dicionário. Aqui mesmo no Clube do Hardware, analisando os logs do nosso servidor de e-mails, vemos inúmeras tentativas de envio de e-mails para contas inexistentes baseadas nesse método. Isto é válido tanto para contas genéricas como sac@, diretoria@ e suporte@ como para nomes comuns, como rodrigo@, fernanda@, bruno@ etc. Por esse motivo, se você tem um site ou blog, recomendamos que não configure endereços de e-mails genéricos, pois certamente tais caixas postais receberão spam na base do “chute”. Da mesma forma, idealmente o seu endereço de e-mail não deve ser um que seja fácil de “chutar” por um envio em massa baseado em palavras de dicionário, como um endereço contendo apenas o seu nome ou sobrenome. Por esse mesmo motivo, se você tiver um site ou blog, nunca utilize configuração de “catch all”. Esta é uma configuração que permite que qualquer e-mail enviado ao seu domínio seja encaminhado a um endereço de e-mail específico. Assim, se alguém enviar um e-mail a um endereço que não existe, em vez de este e-mail retornar com uma mensagem de erro de conta inexistente, ele será aceito encaminhado a uma conta existente. Como o servidor aceitará e-mails enviados a qualquer endereço, sua caixa postal ficará lotada de spam muito rapidamente, pois robôs de spam “chutam” endereços de e-mail, como explicamos. Configuração de redes sociais Em redes sociais como o Facebook e o LinkedIn, é possível configurar para que o seu endereço de e-mail seja mostrado a qualquer um, a contatos mútuos ou então a ninguém, entre outras opções eventualmente disponíveis. Recomendamos que você configure todas as redes sociais que participe a não mostrar o seu endereço de e-mail a ninguém. E-mails em massa Na guerra contra o spam, amigos podem se tornar inimigos, sem saberem. Com certeza você já deve ter recebido inúmeras mensagens repassadas por amigos contendo uma interminável lista de e-mails de outras pessoas que também receberam aquela mesma mensagem. Ou então é um e-mail de divulgação de algo, que a pessoa, em vez de utilizar o campo “Cópia Oculta”, “BCC” ou “CCO” (Blind Carbon Copy/Cópia Carbono Oculta), que oculta a lista de destinatários do e-mail, utiliza, por engano ou por desconhecimento, o campo “Para”, “Cópia” ou “CC” (Cópia Carbono). Essa lista de e-mails é um prato cheio para os spammers, pois ali está, sem nenhum trabalho, uma lista fresquinha de endereços de e-mail válidos. Incluindo o seu! Ao receber mensagens deste tipo, o que você deve fazer é explicar para o remetente que enviar uma mensagem com a lista de destinatários “aberta” (ou seja, com os e-mails inseridos nos campos “Para” ou “CC”) é ruim pois divulga os endereços de e-mails para possíveis spammers. O correto, ao enviar uma mensagem para várias pessoas simultaneamente, é colocar os endereços de e-mail no campo “Cópia Oculta”, “BCC” ou “CCO”, que faz com que a lista de destinatários não seja divulgada. Como a lista de destinatários não é divulgada, não é possível que o spammer capture a lista de e-mails. Cadastros em sites da Internet Outra maneira muito comum de se pegar spam é quando você faz um registro em algum site ou então baixa algum programa shareware ou freeware que necessita de registro para funcionar. Em sites que necessitam de registro para você navegar ou então postar mensagens em seu fórum, você é obrigado a cadastrar seu endereço de e-mail. Este fato isoladamente não faz com que você passe a receber spam, pois normalmente sites que pedem registro normalmente não enviam e-mails não solicitados aos usuários cadastrados. Entretanto, quando você se cadastra em um site deste tipo, normalmente há, na página de registro, caixas de verificação contendo perguntas como "Gostaria de receber e-mails contendo promoções de nosso site?" ou "Gostaria de receber promoções de nossos parceiros?". Se você encontrar caixas de verificação como estas durante o processo de registro, trate de desmarcá-las, ou você passará a receber spam! O fato é que essas caixas aparecem já marcadas e os usuários mais apressadinhos, doidos para terminar logo o processo de registro para usufruir do site (ou programa), simplesmente não observam a existência de tais caixas de verificação. Outro problema é o fato de muitos usuários não sabem ler inglês muito bem e, em sites estrangeiros ou em programas em inglês, pode ser que o usuário não identifique que as caixas que autorizam o envio de spam. Com isto, simplesmente clicam em prosseguir (“Next”) sem se atentarem ao fato de que acabaram de autorizar o envio de spam. Tecnicamente falando, este procedimento é chamado “opt-in”, ou seja, você optou por receber e-mails com mensagens publicitárias. Normalmente os e-mails enviados por conta da sua “solicitação” vêm com uma mensagem do tipo “Você está recebendo este e-mail por ter solicitado. Para remover seu e-mail visite...” ou o equivalente em inglês. Cadastros em lojas físicas O mesmo cuidado descrito no tópico anterior é válido para lojas físicas. Atualmente é muito comum, ao efetuar uma compra, o vendedor solicitar o seu endereço de e-mail. Você começará a receber e-mails com propaganda da loja em seguida. Em alguns casos, o cadastro de um endereço de e-mail é acompanhado com alguma promoção ou desconto. Não existe almoço grátis: a promoção é oferecida para que a loja possa passar a te bombardear com propagandas. A não ser que estejam oferecendo desconto e este valha a pena, não informe o seu endereço de e-mail. Ou então crie uma conta de e-mail apenas para esse tipo de cadastro. Cuidado ao pedir para excluir seu e-mail Você deverá tomar muito cuidado antes de clicar em mensagens do tipo “clique aqui para remover o seu e-mail” ou “responda a este e-mail com a palavra remover”. As principais técnicas para a coleta de endereços de e-mail são o uso de robôs, como discutimos anteriormente, e da compra de listas com milhões de e-mails de outros spammers que já fizeram este trabalho. O spammer, no entanto, ainda não sabe se a lista de endereços de e-mail é válida ou não. Uma técnica utilizada há muito tempo para verificar se os e-mails são válidos é justamente colocar uma mensagem do tipo “clique aqui para remover seu e-mail” ou “responda a este e-mail com a palavra remover”. Se você clicar no link, estará verificando que o seu endereço de e-mail é válido! Com isto, o spammer acaba criando uma nova lista de endereços de e-mail válidos! Como consequência, ao clicar em mensagens como essa, você passará a receber ainda mais spam! Desta forma, antes de clicar em um link desse tipo, você deve verificar antes quem está enviando a mensagem. Se for de um site onde você se cadastrou recentemente ou de uma loja onde você fez uma compra e o vendedor pediu o seu endereço de e-mail, então é provavelmente seguro clicar no link de descadastramento. Do contrário, não clique nem abra o endereço mencionado, ou você passará a receber ainda mais spam. Ou seja, simplesmente apague o spam! Palavras finais Se você está atualmente recebendo muito spam, as dicas de hoje terão pouca eficiência, pois seu endereço de e-mail já está incluído em listas de spam. Desta forma, o ideal é criar uma nova caixa postal e passar a adotar os conselhos dados
  11. Nosso 3º dia de IDF começou com uma apresentação de Sean Maloney, vice-presidente executivo e gerente geral do grupo de comunicações da Intel, sobre as novidades na área de pesquisa e desenvolvimento de redes. Foram feitas alguns anúncios bem interessantes. Para começar, o desenvolvimento de memórias flash de 90 nm, que serão lançadas no mercado no 3º trimestre deste ano. Diminuindo o tamanho dos transistores de 130 nm para 90 nm aumentará o desempenho da memória, o que sensivelmente melhorará o desempenho de celulares e PDAs que usarem memórias flash de 90 nm. Figura 1: Comparação da pastilha de silício da memória flash de 90 nm com a memória flash de 130 nm. Foi apresentado ainda um novo chip de vídeo 3D para PDAs, nome-código Carbonado, que promete ter um desempenho de 3 milhões de polígonos por segundo e será lançado ainda neste semestre. Vimos ao vimo um jogo de primeira pessoa (estilo Doom) rodando com um bom desempenho em um protótipo de PDA usando este novo chip. Sean apresentou ainda uma placa de rede Ethernet de 10 Gbit/s usando um chip Intel de 2ª geração, fazendo a placa de rede ficar menor que as placas de 10 Gbit/s de primeira geração. Foi mostrado ainda um switch Ethernet de 10 Gbit/s. Figura 2: Placa de rede Ethernet de 10 Gbit/s de 2ª geração. Figura 3: Switch Ethernet de 10 Gbit/s. Em seguida, assistimos a uma apresentação de Pat Gelsinger ("Pesquisa e Desenvolvimento: Arquitetando a Era do Tera"), onde foram apresentadas várias novidades tecnológicas que estarão incorporadas nos processadores Intel nos próximos anos. Para demonstrar a necessidade de poder computacional, Pat convidou ao palco Phillip Slusallek, professor de computação gráfica da Universidade de Saarland, Alemanha, que nos explicou a diferença entre rasterização (rastering) e traçado de raios (ray tracing), que são duas técnicas de se renderizar imagens 3D. Atualmente o primeiro método é usado, o grande problema, porém, é que o resultado final não fica perfeitamente realista, por conta dos reflexos. Figura 4: Diferenças entre rasterização e traçado de raios. Na apresentação foram mostrados o modelo de dois carros (New Beetle) estacionados lado a lado. O vermelho, que usa rasterização, não reflete o que está ao seu redor. Já o azul, que usa traçado de raios, reflete o que há a sua volta, obtendo um aspecto muito mais realista. Compare nas Figura 5 e 6. Figura 5: Detalhe do carro renderizado usando rasterização. Figura 6: Detalhe do carro renderizado usando traçado de raios. O grande problema de se usar traçado de raios é a complexidade dos cálculos envolvidos. Cada imagem demora minutos ou mesmo horas para ser renderizada. Com isto, torna-se impossível atualmente usar a técnica de traçado de raios para a renderização de imagens 3D em tempo real, como para jogos ou CAD. Slusallek demonstrou um sistema onde ele conseguia renderizar imagens 3D em tempo real. Mas, para isto, usou uma "singela" configuração: 22 racks cada um contendo 2 processadores Xeon de 2,2 GHz. O sistema tinha uma capacidade total de processamento de 400 Giga FLOPS. Figura 7: Pat Gelsinger e Phillip Slusallek ao lado da configuração usada para renderizar a animação da Figura 6 em tempo real. Ou seja, a renderização de imagens 3D ainda mais realistas, usando a técnica de traçado de raios, é um exemplo de aplicação que se beneficia de aumento do poder computacional que poderá ser introduzido nos próximos anos. Outro dado muito interessante apresentado foi o seguinte. Na técnica de rasterização, quanto mais polígonos a imagem 3D tem, menor é o desempenho de renderização, isto é, menos quadros por segundo são gerados. Já na técnica de traçado de raio, há pouca queda no desempenho quando aumenta-se o número de polígonos. Para imagens pouco complexas, a técnica de rasterização tem um desempenho muito superior. Mas quando estamos falando de imagens complexas, na ordem de 1 bilhão de polígonos, a técnica de traçado de raio acaba se saindo melhor que a técnica de rasterização. Com uma grande vantagem: o desempenho aumenta proporcionalmente ao número de processadores da máquina. Vemos isto no gráfico da Figura 8, onde a linha amarela mostra o desempenho da rasterização e a verde, do traçado de raios (para um, dois ou quatro processadores). Figura 8: Desempenho da rasterização versus traçado de raio. A deixa aqui é clara: como a Intel deverá começar a produzir em breve processadores Xeon e Itanium com múltiplos núcleos (clique aqui para saber mais sobre este assunto), esta nova safra de processadores deverá aumentar o desempenho de estações de trabalho de alto desempenho usadas na renderização de imagens 3D usando a técnica de traçado de raios. Pat Gelsinger mostrou uma tecnologia chamada Helper Threads, que consiste em um compilador que analisa o programa e o otimiza de forma que as instruções sejam ordenadas de forma que o processador não tenha que esperar a memória ficar pronta para entregar ou receber um dado. Como a memória RAM é muito mais lenta que o processador, o que acaba ocorrendo é que grande parte do tempo o processador tem de parar e esperar até a memória RAM entregar um dado ou ficar pronta para receber um dado. Isto ocorre sobretudo quando há um erro de cache (cache-miss), isto é, quando o dado requisitado não estava dentro da memória cache, que é uma memória que consegue se acessada na mesma velocidade do processador. Para esta tecnologia funcionar, o processador também tem de tê-la. Gelsinger apresentou o protótipo de Itanium com esta tecnologia em uma demonstração ao vivo desta tecnologia fazendo consultas a um banco de dados DB2, onde o sistema com o Helper Threads mostrou-se realmente mais eficiente. Na máquina sem esta tecnologia, o demo demorou 50,9 segundos para ser executado e ocorreram 411 milhões de erros de cache. Já na máquina com esta tecnologia, o demo demorou 45,9 segundos e ocorreram 314 milhões de erros de cache. Polarização Adaptativa de Corpo Outra tecnologia apresentada foi a polarização adaptativa de corpo (adaptative body biasing), que será usada na construção de futuros transistores usados em microprocessadores. Atualmente um dos maiores problemas encontrados na fabricação de processadores é a corrente de fuga de seus transistores. O que acontece é o seguinte. Quando o transistor está em sua posição de "desligado", uma pequena corrente continua passando (chamada corrente de fuga), que faz com que uma parte significativa da potência dissipada pelo processador seja causada por esta corrente. Isto significa que se não houvesse corrente de fuga, os processadores dissipariam menos potência, isto é, menos calor seria gerado. A ideia apresentada consiste em fazer com que, quando o transistor estiver desligado, que ele seja inversamente polarizado (isto é, "ligado invertido") a fim de diminuir a incidência da corrente de fuga. Gelsinger falou ainda nos progressos do rádio adaptativo, mas como já explicamos esta tecnologia em nossa cobertura do IDF passado, não a explicaremos novamente aqui. Uma das grandes novidades deste IDF foi o lançamento de um consórcio para a criação do barramento USB sem fio, chamado wireless USB ou simplesmente WUSB. A ideia do USB sem fio é fazer a ligação de periféricos USB ao PC sem fio. Ao computador será conectada uma antena (via porta USB, naturalmente), também chamada HWA (Host Wire Adaptor). Já a antena onde os periféricos são instalados é chamada DWA (Device Wire Adaptor), com capacidade para conexão de até 127 periféricos. Em uma mesma antena podem ser instalados vários periféricos USB, tais como impressoras, câmeras, etc. Ou seja, os periféricos USB existentes hoje funcionarão sem problemas no USB wireless: em vez de ligar a impressora USB ao micro você a instalará na antena. A taxa de transferência é a mesma do USB 2.0: 480 Mbit/s, para uma distância de até 3 metros entre as antenas, o que é uma taxa de transferência impressionante. À medida em que as antenas se separam mais do que isto, a taxa de transferência cai. A ideia é concorrer com o Bluetooth, que está tentando (ao nosso ver, sem muito sucesso) fazer a conexão entre o PC e periféricos usando tecnologia wireless. A grande vantagem do USB wireless, e daí a importância deste lançamento, é a sua taxa de transferência: o Bluetooth transfere dados somente a 1 Mbit/s. Os primeiros produtos WUSB deverão começar a chegar ao mercado no final de 2005, de acordo com a previsão da Intel. A comunicação do Wireless USB funciona na faixa de freqüência UWB (Ultra Wide Band, de 3,1 GHz a 10,6 GHz). Já a tecnologia Bluetooth funciona na faixa de 2,4 GHz, a mesma usada pela comunicação sem fio IEEE 802.11 (Wi-Fi). O consórcio PCMCIA está disposto a introduzir um novo formato de cartões de expansão para notebooks, chamado Express Card. Estes cartões podem ter dois tamanhos: Express Card/34 (34 mm) e Express Card/54 (54 mm). Figura 9: Placas Express Card. A da esquerda é uma de 54 mm, para smart card. Há várias diferenças do Express Card para o PC Card (mais conhecido como PCMCIA). O Express Card transfere dados de maneira serial e conecta-se diretamente ao barramento USB 2.0 ou ao barramento PCI Express. Já no PC Card a comunicação é paralela e necessita de um circuito controlador no notebook. Como o Express Card é ligado diretamente ao USB 2.0 ou ao PCI Express, este circuito não é necessário. Como a comunicação é serial, menos pinos são necessários: 26, contra 68 no PC Card. Isto simplifica a construção de placas e notebooks, já que menos fios são necessários na placa de circuito impresso do notebook. Como há menos pinos e o cartão é menor, o custo de fabricação de um cartão Express Card é também menor, enquanto o seu desempenho é maior. Na feira de tecnologia que ocorre paralelamente ao IDF, a Seagate apresentou um modelo de disco rígido SAS (Serial Attached SCSI), tecnologia que vimos no IDF Spring 2003 (clique aqui para conhecer esta tecnologia em detalhes). O HD apresentado, Savvio, roda a 10.000 rpm, tem cache de 8 MB, é de 2,5 polegadas e será encontrado em duas capacidades: 36 GB ou 73 GB. Durante o terceiro trimestre serão lançados os modelos SCSI (Ultra320) e Fibre Channel e, no quarto trimestre, será lançado o modelo SAS de 3 Gbit/s (aproximadamente 375 MB/s). Figura 10: Disco rígido Savvio da Seagate, usando tecnologia SAS. De resto, embora nesta edição do IDF a feira tivesse mais expositores, achamos ela fraca para a nossa área, visto que a maioria dos expositores era de desenvolvedores procurando parceiros para negócios tais como desenvolvimento e fabricação de produtos. Os demais expositores que poderiam nos interessar, como NVIDIA, ATI, Samsung, Hynix, Elpida, Kingston e ALi, não apresentaram nada de novo. Por exemplo, a NVIDIA, que anunciou novos chips gráficos PCI Express, não os mostrou nesta feira.
  12. Começamos o nosso segundo dia de IDF assistindo a uma apresentação do novo sistema de áudio que a Intel estará implementando em seus próximos chipsets, Grantsdale e Alderwood. Antigamente chamado Azalia, o nome comercial deste sistema de áudio é HD ou High Definition (alta definição). Este áudio on-board tem duas novas características: o multi-streaming (permite enviar mais de um sinal de áudio a mais de um receptor de áudio distinto, por exemplo, assistir um DVD na sala transmitindo o áudio via wireless e fazer uma conexão de voz sobre IP no computador) e a alta qualidade. A alta qualidade é possível hoje, mas para isto a placa-mãe tem que ter um controlador a parte, como o VIA Envy24, por exemplo. Com esta nova tecnologia, o áudio de qualidade (7.1, taxa de amostragem de 192 kHz e resolução de 24 bits) será produzido pelo próprio chipset (ponte sul), necessitando apenas de um codec externo para efetuar a conversão digital/analógica e analógica/digital necessária. Inclusive a C-Media anunciou ontem um codec compatível com o áudio HD da Intel, o C-Media 9880. A Intel está promovendo o áudio de alta definição em parceria com o famoso laboratório Dolby, que criou três "níveis" de áudio para o PC em conjunto com o áudio HD da Intel: Dolby Sound Room, Dolby Home Theater e Dolby Master Studio representando o usuário iniciante, o usuário intermediário e o usuário avançado, respectivamente (classificações de acordo com o uso de áudio digital). As características são as seguintes: Dolby Sound Room: áudio de 2 canais com capacidade para as tecnologias Dolby Virtual Speaker e Dolby Head Phones. Estas duas tecnologias simula o áudio 5.1 usando apenas 2 caixas de som, baseado no Dolby Pro Logic II. Relação sinal/ruído mínima de 75 dB. Dolby Home Theater: áudio no formato 5.1 com relação sinal/ruído mínima de 85 dB, baseado no Dolby Pro Logic II. Dolby Master Studio: áudio no formato 7.1 com relação sinal/ruído mínima de 95 dB, baseado no Dolby Pro Logic IIx, e tecnologia Dolby Digital Live. Algo muito interessante sobre a tecnologia Dolby Pro Logic II é que ela permite simular áudio 5.1 (ou 7.1 no caso do Dolby Pro Logic IIx) mesmo que a fonte de entrada tenha apenas 2 canais (como é o caso do CD, por exemplo), usando um sistema de filtros. Já a tecnologia Digital Live é a tecnologia de streaming dos laboratórios Dolby, usada na transferência de uma música que esteja no computador para um aparelho de som localizado na sala via wireless, por exemplo. A ideia é que os usuários, apenas olhando para a caixa da placa-mãe, já saibam qual é a qualidade do áudio da placa, observando apenas qual é a logomarca Dolby presente (Sound Room, Home Theater ou Master Studio). Vimos (ou melhor, ouvimos) alguns demos e ficamos impressionados com a tecnologia Dolby Pro Logic IIx, que separa em oito canais (formato 7.1) músicas de CDs, que são gravados em apenas dois canais. O resultado é realmente impressionante, fica até parecendo que o CD foi originalmente gravado no formato 7.1 Pete Voigt, engenheiro principal da Intel, fez a apresentação da nova tecnologia de memórias para servidores que a Intel está criando, chamada Fully Buffered DIMM ou simplesmente FB-DIMM. A Intel ainda está apresentando ao JDEC, órgão responsável pela padronização de memórias, esta tecnologia, que só deverá chegar ao mercado no final de 2005 ou início de 2006. A ideia dos módulos FB-DIMM é fazer a comunicação entre o controlador de memória (chipset) e os módulos de memória serial, da mesma forma que ocorre com o PCI Express. Com isto, a quantidade de fios diminui, além de ser possível a criação de mais canais de memória, o que aumenta o desempenho de acesso à memória. Com esta tecnologia é possível ter até 8 módulos por canal e até 6 canais. A comunicação serial dos módulos FB-DIMM usa 10 pares de fio na transmissão de dados do chipset ao módulo de memória e 12 ou 14 pares de fio na transmissão de dados do módulo de memória ao chipset. Cada par de fio usa transmissão diferencial, isto é, em um fio é enviado o sinal e no outro o inverso do sinal, da mesma forma que ocorre na transmissão em redes de par trançado. Clique aqui para ler um tutorial nosso que explica em detalhes como esse esquema de transmissão funciona. Outro detalhe interessante é que é usado caminhos separados para a transmissão e para a recepção de dados. Nos módulos de memória DIMM convencionais é usado um único caminho tanto para a transmissão quanto para a recepção. O esquema usado nos módulos FB-DIMM ajuda no aumento do desempenho do sistema de memória. Inicialmente os módulos FB-DIMM usarão memórias DDR2, migrando para DDR3 possivelmente no final de 2006 ou início de 2007. Interessante notar que os módulos FB-DIMM terão o mesmo tamanho dos módulos DDR2, e não precisarão ser alterados quando as memórias DDR3 forem lançadas. Figura 1: Funcionamento dos módulos FB-DIMM. Há várias vantagens no uso de módulos FB-DIMM em servidores. A primeira é a simplificação da construção da placa-mãe do servidor. Apesar de o soquete usado ser o DDR2, de 240 pinos, o FB-DIMM usa apenas 69 destes pinos, ficando muito mais fácil fazer o roteamento (desenho das trilhas da placa de circuito impresso). Na Figura 2 nós vemos o roteamento necessário para ligar a ponte norte aos soquetes DDR2, usando apenas um canal. É necessário usar 3 camadas de placa de circuito impresso. Figura 2: Roteamento de módulo DIMM DDR2, 1 canal. Já na Figura 3 nós vemos o roteamento necessário para ligar a ponte norte aos soquetes FB-DIMM, usando dois canais. Além de menos fios, usa-se apenas 2 camadas de placa de circuito impresso. Note que mesmo usando 2 canais, usa-se menos fios do que o DDR2 usando apenas 1 canal. Figura 3: Roteamento de módulo FB-DIMM, 2 canais. Outras duas vantagens dos módulos FB-DIMM sobre os módulos DDR2-DIMM são a capacidade máxima e o desempenho. Na Figura 4 nós temos um resumo disto. O máximo que é possível construir usando um controlador de memória com módulos DDR2 convencionais é um sistema com capacidade máxima de 8 GB (quatro soquetes, dois por canal), com uma taxa de transferência máxima de 10 GB/s, se forem usadas memórias DDR2-800. Já com módulos FB-DIMM, a capacidade máxima pula para 192 GB (48 módulos, oito por canal) e a taxa de transferência máxima pula para 40 GB/s, usando o mesmo tipo de memória. A taxa de transferência é aumentada porque é possível ter até 6 canais de memórias FB-DIMM, porém apenas 2 canais DDR2. Figura 4: Comparação de capacidade entre DDR2-DIMM e FB-DIMM. A ideia das memórias FB-DIMM é realmente interessante e deve solucionar a demanda de servidores por mais memória e mais taxa de transferência, e é interessante saber que até o momento vários fabricantes já falaram que construirão módulos com esta tecnologia, como a Samsung, a Elpida, a Infineon, a Micron, a Hynix, a Nanya e a Kingston. Continue lendo: IDF Spring 2004 - 3º Dia
  13. Este IDF foi mais uma vez aberto por Pat Gelsinger, Vice-Presidente Sênior da Intel, que chamou para o palco o Diretor-Presidente da Intel, Craig Barret. Figura 1: Pat Gelsinger abre o IDF Spring 2004. Craig explicou que o mercado de informática está finalmente começando a se reaquecer, após ter passado por uma queda geral nos últimos anos, desde o estouro da bolha especulativa das ações de empresas de tecnologia na NASDAQ. Figura 2: Craig Barret anuncia as novidades da Intel. A Intel pretende investir US$ 5 bilhões em pesquisa e desenvolvimento neste ano (no ano passado foram por volta de 4 bilhões de dólares), e o processo de fabricação em 65 nm deve ser realmente lançado no ano que vem. A principal novidade deste IDF foi o anúncio das extensões de 64 bits da Intel, chamada IA-32E (de "Extended"), tecnologia que será introduzida na próxima geração de processadores Xeon MP (nome-código Nocona, produzido em tecnologia de 90 nm), que serão lançados no próximo trimestre. Após o Xeon MP, será a vez do Pentium 4 com núcleo Prescott de ganhar as extensões de 64 bits da Intel (IA-32E). Esta extensão de 64 bits funciona de forma similar às extensões de 64 bits da AMD, ou seja, o processador continua rodando sem problemas em sistemas operacionais de 32 bits, mas terão desempenho melhor em sistemas de 64 bits. Craig Barret, no entanto, se esquivou de responder claramente se as tecnologias da AMD e da Intel são compatíveis. Ele declarou que os programas e sistemas operacionais possivelmente rodarão tanto em processadores Intel IA-32E quanto em processadores AMD x86-64. Com isto, ficamos com um grande ponto de interrogação: a Intel estará usando as mesmas instruções da AMD ou esta "compatibilidade" será feita via software? sugere que a Intel teria direito a usar a patente da tecnologia de 64 bits da AMD. Enfim, teremos de esperar para vermos como realmente esta tecnologia funcionará. A Microsoft garantiu que o Windows 64 terá suporte total à tecnologia de 64 bits IA-32E da Intel. A declaração veio através de um vídeo do Diretor-Presidente da Microsoft, Steve Ballmer. Figura 3: Steve Ballmer: Windows suportará extensões IA-32E. A Intel apresentou a sua plataforma-conceito para o PC de entretenimento de 2005. Trata-se de um computador voltado para a casa digital, transmitindo dados para a TV sem fio, para gravação de programas de TV, tocar CDs, DVDs, MP3 e vídeos. O protótipo apresentado usa a nova tecnologia Wireless USB, que está sendo lançada neste IDF e que teremos a oportunidade de conhecer melhor nos próximos dias. O protótipo tinha também um display de cristal líquido, mostrando o menu de navegação do aparelho. Figura 4: Apresentação da plataforma-conceito do PC de entretenimento 2005. Figura 5: Detalhe da plataforma-conceito do PC de entretenimento 2005. Figura 6: Detalhe do display de cristal líquido do protótipo. Plataforma-Conceito: Celular com Áudio Outra plataforma-conceito apresentada pela Intel neste IDF foi um aparelho de celular com um pequeno leitor de código de barras, que consegue ler o código de barras de um CD e tocar as músicas daquele CD. O exemplo dado foi o seguinte: o usuário está lendo uma revista que contenha uma resenha de um CD e, ao final da resenha, é publicado o código de barras do CD. Com o celular, o usuário lê este código de barras e baixa as músicas que ele quer ouvir (na realidade funciona com tecnologia streaming, você vai ouvindo enquanto ainda está baixando). Além disto, o protótipo apresentado tinha uma câmera digital de 1,2 megapixel e conexão IEEE 802.11 e Bluetooth. Ou seja, trata-se de um misto de celular com PDA, câmera digital e uma espécie de MP3 player. Figura 7: Protótipo do celular com áudio da Intel. Para o mercado de notebooks, a Intel apresentou uma plataforma-conceito contendo tela no formato widescreen (16:9), rede wireless IEEE 802.11g (Wi-Max, de 54 Mbit/s) e display de cristal líquido do lado de fora do notebook. A novidade ficou por um dispositivo de reconhecimento biométrico (sensor de impressão digital), permitindo apenas ao verdadeiro dono do notebook ter acesso a ele. Outro recurso interessante deste notebook é que ele tem placa de TV embutida e permite que você assista TV ao vivo ou grave para ver depois. Figura 8: Plataforma-conceito de notebook da Intel. Projeto Sandstorm Craig Barret apresentou ainda o projeto Sandstorm, que está sendo realizado na universidade de Carnegie Mellon. O DARPA (Agência de Projetos de Pesquisa Avançada de Defesa dos EUA) está dando um prêmio de 1 milhão de dólares para o primeiro grupo que construir um veículo que vá de San Francisco até Las Vegas, um percurso de 330 quilômetros, sem qualquer intervenção humana. Ou seja, o veículo além de não poder ter pilotos, não pode ser controlado remotamente. O veículo tem de seguir sozinho o caminho e ajustar o seu curso automaticamente, sem qualquer intervenção humana. O jipe criado pela universidade para tentar vencer este desafio usa 3 processadores Xeon e um Itanium para efetuar todos os cálculos necessários para ajustar o curso da máquina. O jipe será enviado a Las Vegas no próximo dia 13 de março. Figura 9: Jipe Sandstorm. Figura 10: Detalhe da lateral do jipe, onde estão os racks contendo os computadores. A NVIDIA anunciou durante o IDF uma série de chips para o novo slot PCI Express. Na realidade, a solução da NVIDIA é o uso de um chip chamado HSI (High Speed Interconnect), que converte os sinais do barramento PCI Express em sinais compatíveis com o chip gráfico AGP 8x. Assim, os primeiros chips gráficos PCI Express da NVIDIA não serão nativamente PCI Express: serão os mesmos chips gráficos que temos hoje só que com um chip HSI fazendo o interfaceamento para o barramento PCI Express. Segundo Tony Tomasi, vice-presidente de marketing da NVIDIA, não há qualquer problema em se usar esta técnica, já que o barramento AGP 8x tem uma taxa de transferência máxima de 2 GB/s, enquanto que o PCI Express x16 tem uma taxa máxima de 4 GB/s. Figura 11: Funcionamento do HSI. Os chips anunciados foram os seguintes: GeForce PCX 5950, GeForce PCX 5750, GeForce PCX 5300 e GeForce PCX 4300. Enquanto que o modelo topo de linha claramente usa o chip GeForce FX 5950 Ultra como base, não sabemos ainda quais são os chips que os demais modelos usam como base. Segundo a NVIDIA, estes chips são otimizados para a nova tecnologia de 64 bits da Intel. Figura 12: Novos chips da NVIDIA. A promessa para 2004 é uma mudança radical na arquitetura dos PCs, e os chipsets Alderwood e Grantsdale farão parte desta mudança. Ambos suportam o novo barramento PCI Express e aceitam memórias DDR2-400 e DDR2-533, operando em dois canais. Se forem usadas memórias DDR2-533 no esquema dual channel, a taxa de transferência do processador com a memória vai a 8,5 GB/s. Figura 13: Arquitetura do chipset Grantsdale. O Grantsdale terá vídeo on-board com o motor gráfico de 3ª geração da Intel, suportando DirectX 9 e Pixel Shader 2.0. Este chipset aceitará, além das memórias DDR2, memórias DDR "comuns" (DDR400/PC3200). Já o Alderwood não tem vídeo on-board, não aceita memórias DDR "comuns" (só DDR2), e aceita memórias ECC, além de ter uma tecnologia de aceleração ao acesso à memória similar à tecnologia PAT do chipset Intel 875P. Outra novidade destes dois chipsets é que o esquema dual channel está mais flexível. Agora é possível fazer o esquema DDR Dual Channel apenas respeitando a capacidade total de cada canal, não sendo necessário usar módulos iguais em cada canal. Por exemplo, se for usado um módulo de 512 MB no canal A e dois módulos de 256 MB no canal B, o esquema DDR Dual Channel funcionará sem problemas. O esquema também permite que os módulos tenham velocidades diferentes. Neste caso, no entanto, o desempenho será nivelado por baixo. Por exemplo, se em um canal houver um módulo DDR2-400 e no outro um módulo DDR2-533, a memória toda será acessada como se fosse DDR2-400, mesmo havendo um módulo DDR2-533 instalado. Outra tecnologia que será iniciada com estes dois chipsets é a comunicação da ponte norte com a ponte sul. Estes chipsets usarão um novo esquema de comunicação chamado DMI (Direct Media Interface). Atualmente todos os chipset usam um único canal de comunicação entre a ponte norte e a ponte sul. A partir destes dois novos chipsets, haverá um canal separado para a transmissão e outro separado para a recepção, melhorando a comunicação. A taxa de transferência desta comunicação será de 4 GB/s. Figura 14: Funcionamento do barramento DMI. Estes novos chipsets usarão o áudio on-board Azalia, de alta definição. Além de suportar o formato 7.1, a grande novidade deste sistema de áudio chama-se multi-streaming, que é a capacidade de enviar várias informações de áudio diferentes para dispositivos separados. Por exemplo, é possível ver um filme em DVD, enviando o áudio via rede sem fio para um receptor instalado na sala de casa e, ao mesmo tempo, usar o computador para uma comunicação de voz sobre IP. O Grantsdale terá ainda suporte a dois monitores de vídeo simultaneamente. Ambos os chipsets terão um access point 802.11 integrados no próprio chipset, além de a ponte sul ser Serial ATA II, que permite o enfileiramento de comandos. Clique aqui para uma explicação detalhada sobre este recurso. Nesta apresentação vimos uma placa-mãe usando o chipset Grantsdale. Um detalhe importante é que as placas-mães com o novo barramento PCI Express usarão um novo plugue de alimentação ATX, de 24 pinos (o plugue ATX padrão é de 20 pinos). Ou seja, será necessário usar uma nova fonte de alimentação em conjunto com placas-mães que usem barramento Serial ATA. Também foi apresentado o formato BTX de placas-mães, que nós já havíamos visto no ano passado e que a Intel estará tentando introduzir no mercado durante este ano. Continue lendo: IDF Spring 2004 - 2º Dia
  14. Fomos mais uma vez convidados a participar do IDF, Intel Developer Forum, evento que ocorre duas vezes por ano e é onde a Intel apresenta as tecnologias que está desenvolvendo no momento e que pode até mesmo demorar anos para chegar ao mercado. Por este motivo, o IDF é, para nós, o evento mais importante do mundo em termos de tecnologias de hardware, pois estamos vendo tecnologias em seu berço, muitos anos antes de elas chegarem ao mercado. O evento da primavera norte-americana deste ano será realizado dos dias 17 a 19 de fevereiro, desta vez em San Francisco, na Califórnia (até o IDF passado o evento era realizado em San José). Nós publicaremos aqui no Clube do Hardware uma descrição completa e detalhada do que vimos neste IDF ao longo dos próximos dias. Figura 1: Moscone Center West em San Francisco, Califórnia, palco do IDF Spring 2004. Para esta edição do IDF são esperados mais de 4.000 participantes e mais de 600 jornalistas do mundo todo. Este ano as sessões de treinamento foram divididas em dois grupos principais: sistemas, onde as sessões são voltadas a engenheiros e correlatos, onde serão feitas apresentações técnicas em nível aprofundado, e soluções, onde as sessões são voltadas a gerentes de TI das empresas, focadas em soluções de tecnologia wireless para as empresas. Até o IDF passado não havia estas sessões de soluções. Serão 130 sessões de treinamento de sistemas e 20 sessões de treinamento de soluções. Paralelamente ao IDF ocorre, no mesmo pavilhão de exposições, uma feira de informática, que nesta edição contará com mais de 200 expositores, tais como ATI, NVIDIA, ALi, Fujistu, Broadcom, Analog Devices, Samsung, Seagate e Hynix, só para citarmos alguns. Apesar de o IDF só começar oficialmente amanhã, hoje tivemos algumas apresentações reservadas apenas a jornalistas. Nossa primeira apresentação foi conduzida pelos doutores Kevin Kahn, diretor do laboratório de tecnologias de comunicação da Intel, e Mario Paniccia, diretor do laboratório de pesquisas em fotônica, que mostram o desenvolvimento da tecnologia de transmissão óptica. Há um ano atrás, no IDF Spring 2003, a Intel fez a primeira apresentação pública de um modular óptico 100% baseado em silício. Esta tecnologia progrediu bastante nos laboratórios da Intel, e foi apresentado um modulador óptico de 1 GHz. Até então, a freqüência máxima de moduladores ópticos já criados era de 20 MHz. Um modulador óptico permite que dados digitais sejam convertidos (ou modulados, como é o termo correto) em impulsos ópticos (luz infravermelha), fazendo com que a transmissão dos dados seja feita através de fibra óptica. Isto não chega a ser nenhuma inovação. A inovação está no fato deste modulador ser totalmente feito de silício, isto é, ser um chip usado em qualquer equipamento eletrônico. Até a Intel ter anunciado este progresso no ano passado, os moduladores eram formados por outros materiais. Como este modulador desenvolvido pela Intel é totalmente feito de silício, ele poderá estar, no futuro, integrado a chips comuns, tais como processador, memórias, chipsets e muito mais, substituindo a atual comunicação elétrica feita através de fios de cobre em comunicação óptica. A comunicação óptica já é usada em comunicações de longa distância (como as fibras ópticas que sustentam a Internet ou são usadas na conexão entre centrais telefônicas digitais, por exemplo) e até mesmo em comunicações de distância mais curta, como a conexão de computadores em rede. Com esta nova tecnologia será possível ligar um processador à memória ou ao chipset usando fibras ópticas. Um exemplo mais realista para que você entenda a importância desta tecnologia é na conexão de um notebook a seu monitor de cristal líquido. Em vez de serem usados vários fios, seria usado apenas uma única fibra óptica, ocupando menos espaço no interior do notebook. Houve uma apresentação prática desta tecnologia. Dados digitais foram modulados pelo chip, enviados através de um rolo de 5 Km de fibra óptica, e depois demodulados pelo chip. Depois, os apresentadores aumentaram a velocidade de transmissão a fim de mostrar, na prática, que o sistema funcionava a 1 GHz (1 Gbit/s de taxa máxima teórica) sem problemas. Figura 2: Sistema usado na demonstração. Repare, à esquerda, o rolo conendo 5 Km de fibra óptica. Figura 3: Modulador óptico feito de silício. Figura 4: Transmissão sendo feita a uma baixa velocidade. Figura 5: Transmissão sendo feita a 1 Gbit/s, sem problemas. Outra apresentação pré-IDF que nos chamou muito a atenção foi sobre a tecnologia LCOS (Liquid Crystal On Silicon, Cristal Líquido Sobre Silício), apresentada por Steve Reed, diretor desenvolvimento de ecossistemas do grupo de aparelhos eletrônicos da Intel. Figura 6: Steve Reed e, ao fundo, protótipo de HDTV usando painéis LCOS. A tecnologia LCOS é a solução da Intel para a construção de telas de televisões de alta definição (HDTV). A maioria das televisões atualmente usa tubo de raio catódicos, o que torna-se um problema para televisões de tela grande, por causa do tamanho, consumo e qualidade da imagem. O grande problema é que quando aumenta-se o tamanho da tela, invariavelmente aumenta-se o tamanho de cada ponto da tela, já que a resolução da tela é fixa. Uma das soluções para a substituição do tubo de raios catódicos é o uso de uma tecnologia genericamente chamada microdisplay. Esta tecnologia é amplamente usada por videoprojetores (o famoso "telão" ou "datashow", usado para projetar imagens do computador ou vídeo em uma tela). Tanto TVs de alta definição quanto videoprojetores tradicionalmente usam uma tecnologia chamada HTPS (High-Temperature Polysilicon) ou outra chamada DMD (Digital Micromirror Display). Na tecnologia HTPS, um display de cristal líquido é usado para formar a imagem e, através de uma lâmpada de alta luminosidade e de um conjunto de lentes, a luz atravessa este display e o conteúdo deste display é projetado. Cada display destes é também chamado de painel e uma TV de alta definição ou videoprojetor precisa de três painéis, um para cada cor primária de vídeo (vermelho, verde e azul). Já a tecnologia DMD usa um microespelho para cada pixel a ser projetado. Esta tecnologia é também chamada micro electro-mechanical systems (MEM). A TV de alta definição usa uma resolução de 2 milhões de pixels, chamada 1080i ou 1080p (1920 x 1080 pixels). As tecnologias HTPS e DMD têm problemas para serem usadas com resoluções acima de 720p (1280 x 720 pixels). Nos microdisplays HTPS o problema é diminuir o tamanho de cada transistor usado em cada pixel. Usar esta tecnologia para formar uma tela 1920 x 1080 faz com que o brilho e a qualidade da imagem caia, por causa desta limitação. Já na tecnologia DMD o problema é o preço. Como para cada ponto da tela há um microespelho, basta aumentar a quantidade de espelhos, o que invariavelmente aumenta o custo do microdisplay, tornando-se uma tecnologia muito cara. A tecnologia desenvolvida pela Intel, LCOS, consiste de uma camada de cristal líquido colada sobre uma superfície de alta reflexão. A luz é projetada sobre o cristal líquido, que deixa ou não a luz passar, refletindo ou não sobre a superfície refletora. Abaixo desta superfície refletora há o silício que controla o painel. A principal vantagem desta tecnologia é o seu custo, inferior ao das duas outras tecnologias (principalmente por ser baseada em silício, tecnologia que a Intel mais do que domina), além de conseguir reproduzir com qualidade resoluções de 1920 x 1080 e acima. Além disso, se for necessário criar painéis com resoluções maiores, não há problema, não sendo necessário aumentar o tamanho do painel. Outra diferença é que o painel LCOS tem dois buffers. Assim, enquanto uma imagem é mostrada, a TV já pode ir enviando a próxima imagem ao display. Com isto, a taxa de atualização é bem maior do que o das outras tecnologias, o que garante um brilho maior e uma melhor qualidade de imagem. Figura 7: Painel LCOS. Uma HDTV ou videoprojetor usando esta tecnologia precisa de três painéis destes, um para cada cor primária de vídeo. Figura 8: Sistema de projeção montado, contendo lente, três painéis e módulo de controle. É realmente interessante ver que a Intel está expandindo sua atuação para outras áreas. Atualizado em 26/10/2004: Intel decide cancelar chip para HDTV A Intel decidiu cancelar o desenvolvimento de sua tecnologia para TVs de alta definição LCOS (cristal líquido sobre silício). O objetivo do projeto era permitir a redução do custo desses aparelhos e a empresa já tinha até fechado acordos com alguns fabricantes chineses. No entanto, depois de adiar o lançamento da tecnologia para o início de 2005, a Intel resolveu enterrar os planos definitivamente. A razão do cancelamento da tecnologia, segundo uma porta-voz, foi o alto custo de pesquisa e desenvolvimento e a perspectiva de um baixo retorno sobre o investimento. A decisão deve favorecer outras empresas que apostam no LCOS, como JVC e Sony, e produtos concorrentes, como o Digital Light Processor, da Texas Instruments. Continue lendo: IDF Spring 2004 - 1º Dia
  15. Abandonware é um termo cunhado para classificar programas antigos que pararam de ser comercializados e cujo desenvolvedor não dá suporte há mais de cinco anos. Existe uma lenda urbana que diz que tais programas seriam grátis e, por isto, poderiam ser baixados da Internet gratuitamente sem qualquer problema, podendo ser instalados em qualquer máquina sem precisar pagar nenhuma licença e, em caso de fiscalização, não haveria problema algum. Só por que algo não é mais comercializado, não significa que a sua propriedade intelectual tenha caído em domínio público. Basta fazer um paralelo com livros. Um livro antigo, que não é mais comercializado, é considerado esgotado. Entretanto, isso não significa que o seu conteúdo seja de domínio público, isto é, que qualquer um pode sair copiando. O direito autoral continua normalmente sendo do seu autor. Se o autor não for mais vivo, em geral os direitos passam para seus descendentes, sendo que o direito autoral pode ser transferido a terceiros. A mesma lógica aplica-se sobre os direitos autorais de software ou de qualquer outra propriedade intelectual. Desta forma, juridicamente falando, abandonware não existe, e o uso deste tipo de programa é tecnicamente pirataria, a não ser que o detentor dos direitos autorais diga publicamente que ele liberou o seu programa para cópia, o que é um caso completamente diferente. Neste caso, o detentor dos direitos autorais determinou que o seu programa passou a ser um freeware. Muitos desenvolvedores de software fazem isto, colocando o programa antigo para download grátis, em conjunto com uma declaração informando formalmente que o software pode ser baixado livremente. Em resumo, um programa que não é mais comercializado e cujo desenvolvedor não dê mais suporte não se transforma automaticamente em um “programa grátis”. O desenvolvedor, por ser detentor dos direitos autorais do programa, tem o direito de simplesmente negar a reprodução gratuita do seu programa, mesmo o programa não existindo mais à venda no mercado. Outra lenda urbana é a “regra das 24 horas”, que é uma mentira criada para divulgar e estimular a pirataria. Segundo esta suposta regra, qualquer pessoa poderia instalar um programa pirata e teria 24 horas para testá-lo e, após este prazo, teria de apagá-lo ou então a sua instalação seria considerada pirataria. Isto não existe. Qualquer programa que você não tenha licença para usar é pirataria. A maioria dos desenvolvedores disponibiliza versões “demo”, “trial” ou “shareware” de seus programas, de forma que o usuário possa testá-lo durante um período razoável de tempo, sem a necessidade do usuário ter de gastar dinheiro comprando o programa primeiro para depois ver se ele atende às suas necessidades, o que pode ser catastrófico (todos que já compraram um programa e depois se decepcionaram com ele sabem do que estamos falando). A SIIA (Software & Information Industry Association) tinha em seu site um texto explicativo sobre o assunto, que já não está mais disponível, mas temos um tópico em nosso fórum contendo a tradução deste texto.
  16. Oi! Gostei muito deste tópico e gostaria de acrescentar algo sobre a parte legal dessa história toda. Apesar de eu não se advogado, tenho gabarito para falar sobre o assunto, já que a lei sobre programas no Brasil é exatamente a mesma lei sobre livros. E de livros eu entendo. Quem quiser aprender a fundo o assunto sugiro o livro "De Gutemberg à Internet: Direitos Autorais na Era Digital", de Henrique Gandelman: http://www.estantevirtual.com.br/q/De-Gutemberg-%C3%A0-Internet Fazendo um paralelo com o mercado de livros, um "abandonware" seria um "livro esgotado", isto é, um livro velho e que não está mais à venda. Mas isso não significa que os direitos dele sejam públicos. Para um livro ser considerado de domínio público, pelo menos no Brasil, ele tem que estar esgotado a pelo menos 100 anos. Desta forma, tecnicamente falando, um abandonware é pirataria, já que quem escreveu o programa ainda é detentor de seus direitos autorais, mesmo que o programa não seja mais comercializado. A não ser que o detentor dos direitos autorais (programador, softwarehouse, etc) coloquem um aviso público dizendo que o seu programa "x" está oficialmente descontinuado e pode ser livremente copiado. Isto, infelizmente, raramente ocorre, e o detentor dos direitos autorais pode "segurar" o programa por motivos mercadológicos. O exemplo mais claro que me ocorre não é o de games, mas o de sistemas operacionais e aplicativos. A Microsoft nunca irá declarar "grátis" seus sistemas e programas antigos (Windows 95 e Office 95, por exemplo, que rodariam "redondo" mesmo em máquinas mais antigas), já que ela ganha dinheiro vendendo produtos novos... Pode parecer terrível, abuso do capitalismo, etc. Seja qual for o nome, é o que ocorre. Em tempo: gostei tanto do assunto que publiquei a minha coluna do jornal O Dia falando sobre esta história. Agradeço, portanto, ao nosso membro macsei pela importante contrinuição feita à nossa comunidade. O link para a coluna que publiquei é este: https://www.clubedohardware.com.br/artigos/Abandonware-e-Regra-das-24-horas/523 Abraços, Gabriel Torres
  17. É possível adaptar um joystick originalmente desenvolvido para videogames para ser usado no PC. Para isto, é necessário fazer uma adaptação para instalá-lo na porta paralela de seu computador. Após ter feito esta adaptação, é preciso ainda instalar um driver para que o sistema operacional consiga entender que o dispositivo conectado na porta paralela é um joystick. Mostraremos o que deve ser feito para adaptar um joystick de Mega Drive no PC. Você precisará comprar os seguintes componentes: 7 diodos 1N4148, 1 conector DB-25 macho (com caixa), 1 conector DB-9 macho (com caixa) e 2 metros de cabo de 10 fios. Além disto, você precisará ter um ferro de solda e saber soldar! Com este material nós construiremos um cabo que, de um lado (conector de 25 Pinos) será instalado na porta paralela do PC e, do outro lado, é onde o joystick de Mega Drive será instalado. Nós mostramos na figura o esquema elétrico de como deve ser feita a montagem deste cabo. Os diodos devem ser soldados diretamente no conector DB25. Figura 1: Esquema eletrônico do adaptador do joystick de Mega Drive para o PC. O maior cuidado que você deve ter na hora de soldar os fios e os diodos é observar a pinagem dos conectores. Se você prestar atenção, no próprio conector existe, bem pequeno e ao lado de cada pino, o número de cada pino (1, 2, 3 etc). Visto de trás, isto é, no lado que leva a solda, a pinagem dos conectores é a mostrada nas figuras abaixo. Figura 2: Conector DB-25. Figura 3: Conector DB-9. Após você montar o cabo, você terá de instalar um driver no seu PC. Se você usa o Windows 9x ou ME, você deverá baixar o DirectPad em http://www.emulatronia.com/parcial/dpadpr50.zip. Se você usa o Windows 2000 ou XP, baixe o NTpad em http://www.emulatronia.com/reportajes/directpad/ntpad.zip. Para instalar o driver no Windows 9x ou ME, instale o joystick no PC, descompacte o DirectPad em um diretório do seu PC (ex: c:[:backslash:]joystick) vá ao Painel de Controle, dê um duplo clique no ícone Controladores de Jogos, clique na caixa Adicionar na janela que aparecerá e, em seguida, selecione Adicionar outro, clicando na caixa Com Disco e apontando para o diretório onde você descompactou o DirectPad. O Windows reconhecerá o controle, clique em Aceitar e, em seguida, Finalizar. Depois de instalar o driver, você precisará selecioná-lo, clicar em Propriedades e, em seguida, em Configuração você deverá selecionar o tipo de joystick instalado, que, em nosso caso, será o "Mega Drive". Já no Windows 2000 ou XP, basta descompactar o arquivo e executar o arquivo install.exe. Selecione como joystick Genesis (que é o nome do Mega Drive em outros países). O processo de adaptar um joystick de Playstation no PC é o mesmo de se adaptar um joystick de Mega Drive, que explicamos na página anterior. A diferença está que o plugue do joystick do Playstation é diferente e, portanto, a confecção do cabo adaptador é um pouco diferente também. Você precisará comprar os seguintes componentes: 5 diodos 1N4148, 1 conector DB-25 macho (com caixa) e 2 metros de cabo de 8 fios. Além disto, você precisará ter um ferro de solda e saber soldar! O ideal seria conseguir um plug macho para encaixar no joystick do Playstation, porém este plugue não é fácil de ser encontrado. Com este material nós construiremos um cabo que, de um lado (conector de 25 Pinos) será instalado na porta paralela do PC e, do outro lado, é onde o joystick de Playstation será instalado. Nós mostramos na figura o esquema elétrico de como deve ser feita a montagem deste cabo. Os diodos devem ser soldados diretamente no conector DB25. Figura 4: Esquema eletrônico do adaptador do joystick de Playstation para o PC. O maior cuidado que você deve ter na hora de soldar os fios e os diodos do plugue DB-25 é observar a pinagem do conector. Se você prestar atenção, no próprio conector existe, bem pequeno e ao lado de cada pino, o número de cada pino (1, 2, 3 etc). Visto de trás, isto é, no lado que leva a solda, a pinagem dos conectores é a mostrada na figura abaixo. Figura 5: Conector DB-25. No caso do conector PSX (conector do joystick), nós mostramos a pinagem abaixo. Preste atenção na numeração para não cometer erros. Nós contamos os pinos com o conector que vem do joystick visto de frente. Figura 6: Conector PSX. Após você montar o cabo, você terá de instalar um driver no seu PC. Se você usa o Windows 9x ou ME, você deverá baixar o DirectPad em http://emulando.virgula.terra.com.br/radar/materias/joysticks/soft/dpadpr50.zip. Se você usa o Windows 2000 ou XP, baixe o NTpad em http://www.iespana.es/wk3/ntpad.zip. Para instalar o driver no Windows 9x ou ME, instale o joystick no PC, descompacte o DirectPad em um diretório do seu PC (ex: c:[:backslash:]joystick) vá ao Painel de Controle, dê um duplo clique no ícone Controladores de Jogos, clique na caixa Adicionar na janela que aparecerá e, em seguida, selecione Adicionar outro, clicando na caixa Com Disco e apontando para o diretório onde você descompactou o DirectPad. O Windows reconhecerá o controle, clique em Aceitar e, em seguida, Finalizar. Depois de instalar o driver, você precisará selecioná-lo, clicar em Propriedades e, em seguida, em Configuração você deverá selecionar o tipo de joystick instalado, que, em nosso caso, será o "Playstation". Já no Windows 2000 ou XP, basta descompactar o arquivo e executar o arquivo install.exe. Selecione como joystick Playstation. Só um lembrete: para este esquema funcionar, a porta paralela deverá estar configurada como "ECP" no setup do micro. Da mesma forma que é possível adaptar um joystick de Mega Drive e de Playstation, podemos adaptar um joystick de Super Nintendo no PC. O processo é similar, só que como o plugue do joystick do Super Nintendo é diferente, o esquema de confecção do cabo adaptador é um pouco diferente também. Você precisará comprar os seguintes componentes: 5 diodos 1N4148, 1 conector DB-25 macho (com caixa) e 2 metros de cabo de 6 fios. Além disto, você precisará ter um ferro de solda e saber soldar! O ideal seria conseguir um plug macho para encaixar no joystick do Super Nintendo, porém este plugue não é fácil de ser encontrado. Com este material nós construiremos um cabo que, de um lado (conector de 25 Pinos) será instalado na porta paralela do PC e, do outro lado, é onde o joystick do Super Nintendo será instalado. Nós mostramos na figura o esquema elétrico de como deve ser feita a montagem deste cabo. Os diodos devem ser soldados diretamente no conector DB25. Figura 7: Esquema eletrônico do adaptador do joystick de Super Nintendo para o PC. O maior cuidado que você deve ter na hora de soldar os fios e os diodos do plugue DB-25 é observar a pinagem do conector. Se você prestar atenção, no próprio conector existe, bem pequeno e ao lado de cada pino, o número de cada pino (1, 2, 3 etc). Visto de trás, isto é, no lado que leva a solda, a pinagem dos conectores é a mostrada na figura abaixo. Figura 8: Conector DB-25. No caso do conector SNES (conector do joystick), nós mostramos a pinagem abaixo. Preste atenção na numeração para não cometer erros. Nós contamos os pinos com o conector que vem do joystick visto de frente, com o lado redondo do plugue à direita. Figura 9: Conector SNES. Após você montar o cabo, você terá de instalar um driver no seu PC. Se você usa o Windows 9x ou ME, você deverá baixar o DirectPad em http://www.arcadecontrols.com/Mirrors/www.ziplabel.com/dpadpro/dpadpr50.zip. Se você usa o Windows 2000 ou XP, baixe o NTpad em http://www.iespana.es/wk3/ntpad.zip. Para instalar o driver no Windows 9x ou ME, instale o joystick no PC, descompacte o DirectPad em um diretório do seu PC (ex: c:[:backslash:]joystick) vá ao Painel de Controle, dê um duplo clique no ícone Controladores de Jogos, clique na caixa Adicionar na janela que aparecerá e, em seguida, selecione Adicionar outro, clicando na caixa Com Disco e apontando para o diretório onde você descompactou o DirectPad. O Windows reconhecerá o controle, clique em Aceitar e, em seguida, Finalizar. Depois de instalar o driver, você precisará selecioná-lo, clicar em Propriedades e, em seguida, em Configuração você deverá selecionar o tipo de joystick instalado, que, em nosso caso, será o "SNES". Já no Windows 2000 ou XP, basta descompactar o arquivo e executar o arquivo install.exe. Selecione como joystick SNES. Você também pode usar o joystick do Super Nintendo no DOS, o que é muito útil caso você esteja rodando algum emulador DOS. Basta baixar o programa SNESKey em http://nintendochile.host.sk/pad/sk163b.zip. Após descompactar o arquivo, rode-o com o comando SNESKEY SNES.INI /t antes de rodar o seu emulador. O que este programa faz é converter cada botão do joystick em uma tecla do teclado. Editando o arquivo Snes.ini você pode configurar quais teclas serão acionadas pelo joystick. Só um lembrete: para este esquema funcionar, a porta paralela deverá estar configurada como "ECP" no setup do micro. Para concluirmos, mostraremos como adaptar um joystick de Nintendo 64 no PC. Esta adaptação, no entanto, é muito mais complicada do que as outras que publicamos (Mega Drive, Playstation e Super Nintendo), pois é necessário usar dois circuitos integrados e outros componentes não presentes nas adaptações anteriores. Por este motivo, esta montagem não é recomendada para quem nunca montou um circuito eletrônico usando circuitos integrados. Você precisará comprar os seguintes componentes: 1 conector DB-25 macho (com caixa), 10 diodos 1N4148, um resistor 4K7 x 1/4 W, um resistor 100 K x 1/4 W, um resistor 10 K x 1/4 W, um resistor 2K2 x 1/4W, um capacitor cerâmico 100 pF, um transistor BC559, dois circuitos integrados 4006 e três fios com 2 metros cada. Além disto, você precisará ter um ferro de solda e saber soldar! É também recomendado uma placa de circuito impresso experimental (é uma placa de circuito impressa toda furada para a montagem de protótipos) para a montagem do circuito. Nós mostramos na figura o esquema eletrônico de como deve ser feita a montagem deste circuito. Clique na imagem para ampliá-la. Figura 10: Esquema eletrônico do adaptador do joystick de Nintendo 64 para o PC. Você deve ter muito cuidado para não fazer a ligação errada, especialmente do transistor. A pinagem do transistor usado, visto de frente (com os números impressos virados para você e com os seus terminais voltados para baixo) é a seguinte: coletor, base, emissor. Você também deverá prestar atenção na pinagem do plugue DB-25. Se você prestar atenção, no próprio conector existe, bem pequeno e ao lado de cada pino, o número de cada pino (1, 2, 3 etc). Visto de trás, isto é, no lado que leva a solda, a pinagem dos conectores é a mostrada na figura abaixo. Figura 11: Conector DB-25. No esquema, o conector do joystick é visto de frente. Se você quiser construir uma placa de circuito impresso para este circuito, poderá baixar o seu layout em http://www.emulatronia.com/reportajes/directpad/n64/pcb-n64.zip. Após você montar o circuito, você terá de instalar um driver no seu PC. Se você usa o Windows 9x ou ME, você deverá baixar o DirectPad em http://emulando.virgula.terra.com.br/radar/materias/joysticks/soft/dpadpr50.zip. Se você usa o Windows 2000 ou XP, baixe o NTpad em http://www.iespana.es/wk3/ntpad.zip. Para instalar o driver no Windows 9x ou ME, instale o joystick no PC, descompacte o DirectPad em um diretório do seu PC (ex: c:[:backslash:]joystick) vá ao Painel de Controle, dê um duplo clique no ícone Controladores de Jogos, clique na caixa Adicionar na janela que aparecerá e, em seguida, selecione Adicionar outro, clicando na caixa Com Disco e apontando para o diretório onde você descompactou o DirectPad. O Windows reconhecerá o controle, clique em Aceitar e, em seguida, Finalizar. Depois de instalar o driver, você precisará selecioná-lo, clicar em Propriedades e, em seguida, em Configuração você deverá selecionar o tipo de joystick instalado, que, em nosso caso, será o "Nintendo 64". Já no Windows 2000 ou XP, basta descompactar o arquivo e executar o arquivo install.exe. Selecione como joystick Nintendo 64. Você também pode usar o joystick do Nintendo 64 no DOS, o que é muito útil caso você esteja rodando algum emulador DOS. Basta baixar o programa http://www.emulatronia.com/emus/utiles/jtk36en.zip. Só um lembrete: para este esquema funcionar, a porta paralela deverá estar configurada como "ECP" no setup do micro.
  18. Durante a nossa viagem à Taiwan, nós fomos convidados a visitar as fábricas da ECS/PCChips localizadas na cidade de ShenZhen (a pronúncia correta é "tchên-diên"), província de Guangdong, China Continental. Esta viagem foi uma experiência única, em vários sentidos, e por isso vale a pena falar um pouco mais de vários aspectos da viagem – além, é claro, das visitas às fábricas em si. Só para adiantar um pouco o assunto, visitamos duas fábricas: ECSM (ECS Manufacturing), que é um complexo de dois prédios gigantescos onde as placas-mães, notebooks, etc são fabricados, e a Biloda, que fabrica as placas de circuito impresso que são usadas nas placas-mães ECS e PCChips. Chegar em ShenZhen é uma aventura. Como estávamos em Taiwan, tivemos de viajar uma hora de avião até Hong Kong e, de lá, pegamos um ônibus e enfrentamos mais uma hora (65 Km) até ShenZhen. Apesar de ShenZhen ter um aeroporto internacional, não é possível pegar um avião em Taiwan para ShenZhen, por conta do problema político entre China e Taiwan. Hong Kong é uma Zona sob Administração Especial, o que significa que, apesar de pertencer à China Continental, Hong Kong tem um tratamento como se fosse um outro país. Lá tudo é diferente do restante da China, incluindo a moeda e o sistema de direção (que é o inglês). Brasileiros não precisam de visto para entrar em Hong Kong, mas para entrar na China, sim. ShenZhen fica ao lado de Hong Kong, como vocês podem ver no mapa, e é uma Zona Econômica Especial, isto é, é uma célula capitalista dentro de um país comunista. Figura 1: Mapa do sul da China, localização de ShenZhen e Hong Kong. A quantidade de oficiais de alfândega que temos que cruzar até chegar em ShenZhen é incrível, o que fez com que o nosso passaporte fosse carimbado de tudo quanto é maneira. Veja: saída de Taiwan, entrada em Hong Kong, saída de Hong Kong, entrada em ShenZhen. Quatro carimbos na ida e mais quatro na volta. Figura 2: Visão de Hong Kong a caminho de ShenZhen. ShenZhen é uma cidade muito grande, maior do que o Rio de Janeiro, com 7 milhões de habitantes. Ficamos realmente muito surpresos. É uma cidade capitalista para ninguém botar defeito, com muitas coisas funcionando 24 horas por dia. Grandes letreiros de neon são vistos em todos os lugares, lembrando Las Vegas ou Atlantic City. Figura 3: Visão de ShenZhen à noite. ShenZhen é um centro industrial, onde as principais fábricas de produtos eletrônicos estão instaladas. Os funcionários que trabalham nas linhas de montagem normalmente vêm das cidades do interior para trabalhar muito e juntar dinheiro para retornar à sua cidade. O chinês típico trabalha muito e descansa pouco. Vendo ShenZhen entendemos o medo dos EUA em relação à China. ShenZhen existe há apenas 20 anos e é uma potência capitalista. Imagina só o dia em que a China toda for capitalista. Não será páreo para os EUA. Junto com esta migração, o lado negativo, presente em todas as cidades deste porte. Ao cair da noite, começam aparecer mendigos e prostitutas na porta dos hotéis da cidade. Aproveitamos para conhecer o mercado de informática de ShenZhen. Mercados como o do Ed. Av. Central no Rio, da R. Santa Ifigênia e 25 de março em São Paulo e o mercado Paraguaio são todos imitações do mercado de ShenZhen, onde em um pequeno espaço centenas de pequenos estandes se aglomeram. Só que o mercado de ShenZhen faz os mercados do Rio, São Paulo e Ciudad Del Este parecerem brincadeira de criança. O principal mercado de informática está instalado em um prédio de oito andares, onde cada andar tem mais estandes do que o Ed. Av. Central inteiro. Então imagina a loucura que é. Os dois primeiros andares são destinados somente à venda de componentes eletrônicos, tais como transistores e circuitos integrados (em muitos casos roubados por funcionários que trabalham nas fábricas), e os demais seis andares são destinados à venda de peças de hardware. Por incrível que pareça, os preços não são tão baratos quanto imaginávamos, e com isso não compramos nada. Figura 4: ShenZhen de dia. Figura 5: Jogos dos sete erros: o que há de errado com esta foto (dica: o carro da esquerda é de ShenZhen e o da direita é de Hong Kong). Depois desta introdução a ShenZhen, vamos a nossa visita à principal fábrica da ECS/PCChips. Esta fábrica consiste em um complexo contendo três prédios, chamados 5, 20 e 26. O prédio 5 não está ainda em atividades (está esperando ainda aprovação do governo de ShenZhen) e por isso não o visitamos. O prédio 20, que é onde a maioria das placas-mães ECS e PCChips são fabricadas, tem 10 andares e é gigantesco. Já o prédio 26, que também visitamos, tem seis andares e é onde os notebooks e sistemas (mini PCs e PCs de clientes) são fabricados, em dois andares, e outros três andares são também dedicados à fabricação de placas-mães. Figura 6: Fábrica 20, visto do topo do prédio 26. Figura 7: Fábrica 26, visto do topo do prédio 20. A capacidade total de fabricação de placas-mães deste complexo da ECS é de 2,5 milhões de placas-mães por mês. Atualmente ela fabrica 2 milhões de placas-mães por mês. É importante notar que até 2001 a ECS era a maior fábrica de placas-mães do mundo, tendo sido ultrapassada em 2002 pela ASUS. Ou seja, o ranking atual de fabricação de placas-mães é ASUS em 1º e ECS/PCChips em 2º. O pessoal da ECS espera recuperar a primeira posição neste ano ou no máximo em 2004. Fábrica 20 Em seguida mostramos algumas fotos da fábrica 20. Como falamos, esta fábrica é gigantesca e fica até difícil mostrar o seu real tamanho através de fotos. Mas vamos tentar. Na Figura 8 vemos o elevador da fábrica, decorado com placas-mães (sonho de qualquer nerd, não?), e nos corredores vimos caixas e mais caixas de placas-mães ECS, PCChips e Matsonic (para quem não sabe, as placas-mães Matsonic são PCChips e a prova é a presença delas na fábrica da PCChips). Figura 8: Elevador da fábrica 20. Figura 9: Caixas da nossa velha conhecida... Figura 10: Para quem ainda tinha dúvidas se a Matsonic era ou não PCChips... As linhas de produção são gigantescas. A fábrica 20 tem dois andares com 11 linhas de inserção de componentes SMD cada na ala sul e dois andares com 12 linhas de inserção SMD cada na ala norte, ou seja, um total de 46 linhas SMD. Figura 11: Algumas das 46 linhas SMD da ECSM. Já a área de inserção manual é um pouco menor, sendo dois andares com quatro linhas cada, dando um total de oito linhas para a inserção manual de componentes. As linhas são extremamente longas, como vemos na Figura 12. Figura 12: Uma das oito linhas de inserção manual da fábrica 20. Figura 13: Detalhe da linha de inserção manual. A terceira etapa na fabricação de uma placa-mãe é o teste. A fábrica 20 conta com dois andares com quatro linhas de teste cada na ala sul e mais dois andares com duas linhas de teste cada, ou seja, a fábrica 20 tem um total de 12 linhas de teste. Todas as placas-mães são testadas individualmente. Os testes se processam em duas etapas. Na primeira etapa, são efetuados testes mais simples, verificando se a placa-mãe funciona (liga). Na segunda etapa, são testados de forma aprofundada todos os componentes da placa-mãe. O importante a ser notado é que todas as placas-mães da ECS/PCChips são testadas na fábrica. Figura 14: Primeira etapa de testes. Figura 15: Uma das linhas de testes (segunda etapa). A fábrica 26 tem menos andares mas não por isto ela é menor. São três andares dedicados à fabricação de placas-mães, especialmente de notebooks e desknotes, com 14 linhas SMD em cada andar (total de 42 linhas SMD) e 8 linhas de inserção manual em cada andar (total de 24 linhas de inserção manual). Outros dois andares são dedicados à fabricação de notebooks, desknotes e sistemas (mini PCs, por exemplo). Nestes andares há 3 linhas retas para a fabricação de notebooks, seis linhas em formato célula para a fabricação de notebooks e mini-PCs, e três linhas para a montagem de sistemas. Figura 16: Visão geral de duas linhas de fabricação de notebooks. Figura 17: Detalhe de uma das linhas de fabricação de notebooks. Figura 18: Clonagem dos HDs dos notebooks. Todos os notebooks ECS são testados por 24 horas (burn in), como conferimos na Figura 19. Figura 19: Área de testes (burn-in) dos notebooks ECS. Figura 20: Uma das linhas de montagem em célula, onde o mini PC da ECS/PCChips estava sendo montado. Em uma das linhas em célula, tivemos um flagrante de algo interessantíssimo. É a ECS quem fabrica os PCs da Acer. Isto mesmo, você leu certo. A fabricação da Acer é terceirizada para a ECS. Perguntamos ao pessoal da ECS sobre isto e eles informaram que tudo dos micros da Acer é fabricado pela ECS, inclusive a placa-mãe. Ainda não está convencido? Olhe o logotipo na camiseta da operária e veja qual é o logotipo no gabinete que ela está montando na Figura 21. Figura 21: Surpresa: micros da Acer são fabricados pela ECS. Figura 22: Funcionária da ECSM empacotando micros da Acer. Depois de termos visitado o complexo da ECSM, visitamos, no dia seguinte, a fábrica de placas de circuito impresso da ECS, chamada Biloda. Como comentamos, a Biloda é a fábrica de placas de circuito impresso da ECS. Ela fica em outra cidade na província de ShenZhen, chamada Bao An. A capacidade de produção desta fábrica é de mais de 168 mil metros quadrados de placas de circuito impresso por mês. Para você ter uma ideia do quanto é isso, uma placa-mãe ATX mede 30 cm x 28 cm (840 centímetros quadrados ou 0,084 metro quadrado). Com uma capacidade de produção de 168 mil metros quadrados é possível a fabricação de até 2 milhões de placas de circuito impresso do tamanho ATX, ou mais do que isso se o tamanho for menor. Figura 23: Biloda, fábrica de placas de circuito impresso da ECS. O processo de fabricação de placas de circuito impresso se divide em várias etapas. Estaremos mostrando as principais etapas que pudemos conferir de perto em nossa visita. Na Figura 24 nós vemos a etapa de perfuração. As placas, inicialmente totalmente de cobre, são furadas de acordo com o projeto. No meio você vê as placas de cobre antes de serem furadas e no entorno você verifica as máquinas responsáveis por fazerem os furos nas placas. Figura 24: Etapa de perfuração. Figura 25: Placa de cobre antes de ser perfurada. Figura 26: Máquina perfurando a placa de cobre. A placa é protegida com um papel de alumínio. Após a etapa de perfuração a placa é limpa por um funcionário (ver Figura 27). Figura 27: Limpeza da placa após perfuração. As demais etapas incluem a marcação das trilhas, adição de camadas e aplicação de verniz protetor. Entre cada etapa há sempre testes para controle de qualidade. Figura 28: Marcação das trilhas. Figura 29: Prensagem das camadas internas. Figura 30: Aplicação do verniz externo (no caso, roxo). Figura 31: Teste da placa.
  19. Recebemos e-mails de vários leitores denunciando que uma determinada placa de vídeo está sendo largamente vendida no mercado como sendo uma GeForce 2 MX 400 com 64 MB mas, na verdade, usa o chip SiS 315 com 32 MB, que é muito inferior ao GeForce 2 MX 400. A falsificação ocorre na caixa do produto e na própria placa. Na caixa há escrito que a placa é uma GeForce 2 MX 400 e sobre a placa há uma etiqueta dizendo que a placa é uma GeForce 2 MX 400. Há também na placa um adesivo com a logomarca da NVIDIA (fabricante dos chips GeForce) colado sobre um dos chips. O BIOS da placa de vídeo foi alterado: quando você liga o micro aparece na tela que a placa é uma GeForce 2 MX 400. Figura 1: Caixa e placa GeForce 2 MX 400 falsificada. Figura 2: A placa tem o BIOS alterado; quando você liga o micro aparece escrito "GeForce 2 MX 400". Quando os drivers são instalados, a surpresa: a placa usa drivers da SiS 315 e não drivers da GeForce! Aparentemente os drivers da placa foram alterados para que em vez de aparecer escrito "SiS 315" apareça escrito "GeForce 2 MX 400" no Gerenciador de Dispositivos. Mas se você reparar os nomes dos arquivos de driver – Sisgrv.dll entre outros – fica claro que a placa está usando drivers da SiS. Figura 3: O Windows detecta que o chip gráfico é o SiS 315 com 32 MB e não o GeForce 2 MX 400. A "marca" desta placa é "Sky Video" ou "Sky Media", como você pode conferir em nossa foto. Na caixa há o site www.sky-tech.info. Fazendo uma pesquisa no Whois, descobrimos que este domínio está registrado para um brasileiro de Foz do Iguaçu. Ou seja, esta placa de vídeo veio do Paraguai. Ou seja, cuidado com placas desta marca. Se você comprou uma placa GeForce falsificada, é importante notar que o lojista que te vendeu a placa pode não saber que ela é falsificada, isto é, ele também pode ter comprado a placa para a revenda realmente pensando que se tratava de uma GeForce. Agradecemos aos leitores Márcio Antônio Rossetto da Cunha e Sieve-X, entre outros, que nos mandaram as fotos e informações da coluna de hoje.
  20. A apresentação de hoje foi com Eric Mentzer e Pat Gelsinger, que apresentaram, mais uma vez, novas tecnologias que a Intel está desenvolvendo, desta vez para soluções wireless. Dentre os assuntos abordados, o mais interessante em nossa opinião foi o novo padrão IEEE 802.16, que a Intel chama de Wi-Max, que é uma rede sem fio de alto desempenho, com uma taxa de transferência máxima de 75 Mbit/s, alcance de até 48 Km e permitindo até 1.000 usuários por estação-base. Esta é uma solução para redes metropolitanas que os provedores de Internet norte-americanos estarão testando durante o ano que vem (2004) e que começará a ser oferecido aos usuários americanos em 2005. Esta tecnologia é realmente muito promissora, não só porque oferecerá Internet muito mais rápida do que temos hoje, mas também porque é sem fio, sendo um ponto realmente fantástico, pois não será necessário passar cabos para atingir os usuários. O problema, por outro lado, é o tamanho da antena. Foi apresentada uma demonstração ao vivo desta tecnologia, e na Figura 1 você confere, a esquerda, a antena (do usuário) e, a direita, a antena usada na estação-base. Figura 1: Antenas IEEE 802.16 (Wi-Max). Foram discutidos ainda os principais problemas de desempenho da transmissão sem fio. O primeiro grande problema é o fato do sinal não oferecer um desempenho linear durante a sua transmissão dentro de um canal de rádio. Veja na Figura 2 que, em vez de o desempenho de transmissão ser uma linha reta, o desempenho varia bastante de ocordo com a posição do sinal dentro do canal. Figura 2: Problema com desempenho de transmissão sem fio de sinais. A solução proposta pela Intel para este problema chama-se Modulação Adaptativa. Funciona da seguinte forma: em vez de o sinal usar um único tipo de modulação para a sua transmissão, como é o normal, a transmissão passa a usar vários tipos de modulação, dependendo da posição do sinal dentro do canal. Dessa forma, nos pontos que um determinado tipo de modulação apresenta baixo desempenho (curvas para baixo na Figura 2) o sistema passa a usar naquela porção do canal um outro tipo de modulação que ofereça melhor desempenho. Veja esta técnica em funcionamento na Figura 3. As áreas marcadas em preto, que são as que oferecem menor desempenho, estão usando um tipo de modulação diferente do resto do sinal. Com esta técnica é possível dobrar a taxa de transferência da transmissão, segundo Pat Gelsinger. Figura 3: Modulação adaptativa. O segundo grande problema das transmissões sem fio diz respeito as antenas. Se existirem obstáculos entre a estação-base e a antena do computador cliente, a taxa de transferência obtida não é a máxima. A solução para isso é o uso de um novo conceito, chamado MIMO ou Multiple Input, Multiple Output. Em vez de se usar apenas uma antena de cada lado, pode-se usar mais antenas para um maior desempenho. O desempenho da rede é proporcional ao número de antenas usadas. Por exemplo, em uma rede onde com uma antena a transmissão esteja sendo feita a 6 Mbit/s, ela passa para 24 Mbit/s se for usado um arranjo 4x4 (4 antenas na estação-base e quatro antenas no cliente). Ou seja, adicionando-se quatro antenas, a taxa de transferência é multiplicada por quatro. Segundo Pat Gelsinger, no futuro notebooks e PDAs poderão usar duas antenas em vez de uma para aproveitar esta tecnologia. E o terceiro grande problema de desempenho ocorre quando máquinas com um menor desempenho de rede (sinal mais fraco) entram na rede sem fio. Quando isso ocorre, o desempenho da rede toda cai, por conta da maneira com que as redes sem fio funcionam. A solução apresentada para este problema é o uso de roteadores (access points) sem fio, funcionando como um repetidor. Um roteador wireless precisa estar obrigatoriamente conectado ao backbone da rede através de cabo. Este novo tipo de roteador comunica-se com o roteador principal sem usar cabo, funcionando como um repetidor dos sinais do roteador principal, fortalecendo o sinal na região. Pat Gelsinger mostrou mais detalhes do Comunicador Universal que foi apresentado por Paul Otellini na abertura do IDF. Um dispositivo que é uma mistura de celular com PDA e que usa o conceito de rede adaptativa que vimos na apresentação pré-IDF. Este aparelho tem tanto conexão celular (GSM) quanto conexão wireless (IEEE 802.11). A comunicação entre dois aparelhos desses é feita usando o sistema que estiver disponível, de forma automática. Se ele perceber que é possível fazer uma conexão 802.11, então essa será a conexão usada. Se a conexão 802.11 cair ou não estiver disponível, então a conexão GSM é usada. O interessante é que no caso da conexão cair, a GSM é usada sem que os usuários percebam que houve esta troca. Este aparelho, portanto, é o primeiro protótipo do conceito que a Intel quer usar de rede adaptativa. Após esta apresentação, tivemos uma importante aula sobre novas tecnologias memórias não-voláteis, isto é, o futuro das memórias Flash. Nossa aula sobre memórias não-voláteis foi conduzida por Stefan Lai, Vice-Presidente do Grupo de Tecnologia e Manufatura da Intel e Co-Diretor da Fábrica da Intel na Califórnia. Ele apresentou quais são os tipos de memória não voláteis que estão sendo pesquisadas na indústria hoje e qual é o tipo de memória que a Intel vê como mais promissor. Memórias não-voláteis são memórias que não perdem o conteúdo quando a alimentação é cortada. O tipo mais famoso é a memória Flash, amplamente utilizada em cartões de memória usado por câmeras digitais. O grande problema das memórias não-voláteis é o desempenho, muito abaixo das memórias RAM usadas no PC, que em contrapartida são voláteis, isto é, o conteúdo é perdido quando desligamos o micro. As memórias Flash que usamos estão em sua oitava geração. Elas foram criadas em 1986 e de lá para cá diminuiram 234 vezes em tamanho. O problema é que para diminuir o tamanho ainda mais ou, mais especificamente, para conseguir um nível maior de integração (mais células de memória em um espaço físico menor), será necessário usar algum novo método de armazenamento de dados que não seja baseado somente em transistores. Stefan Lai apresentou seis tipos de memórias não voláteis que estão sendo pesquisadas: MRAM (Magnectic RAM), OUM (Ovonic Universal Memory), FeRAM, RRAM (Resistance RAM), Polímero e PFRAM (Polímero Ferroelétrico). A MRAM está sendo pesquisada basicamente pela IBM e pela Infineon. Neste tipo de memória, a célula de armazenamento é uma célula magnética, que muda sua polaridade (norte-sul) de acordo com a corrente que é aplicada. Veja seu funcionamento na Figura 4. Figura 4: Memória MRAM. Já a memória OUM é o tipo de memória que a Intel está pesquisando. Ela usa o mesmo princípio (e material) do CD-RW: aplica-se calor em um material fotossensível que muda de opaco para cristalino e vice-versa. Em vez de usar um raio laser como no CD-RW, este tipo de memória usa um eletrodo resistivo para gerar o calor necessário. A grande vantagem é que a célula que foi aquecida esfria rapidamente (1 ns). Figura 5: Memória OUM. A memória FeRAM é baseada em um cristal chamado PZT que tem em seu centro um átomo que muda de posição de acordo com o sentido da corrente aplicada. Este tipo de memória tem como desvantagem ter os dados apagados depois que são lidos. Figura 6: Memória FeRAM. A memória RRAM é baseada em um material que muda a resistência de acordo com a corrente que é aplicada. O seu grande problema é que ninguém até agora entende completamente como este material funciona, portanto ele ainda está sendo pesquisado. Figura 7: Memória RRAM. Já a memória de polímero usa dois pedaços de metal com um polímero especial unindo eles. Como polímero é um tipo de plástico, o custo de produção deste tipo de memória é baixíssimo. Figura 8: Memória de Polímero. Já a memória de Polímero Ferroelético usa terminais de metal intercalados com polímero, sendo estes terminais perpendiculares. A vantagem deste tipo de memória é que as células podem ser facilmente empilhadas, fazendo uma memória de alta densidade. Figura 9: Memória de Polímero Ferroelétrico. O.k., mas qual é o melhor tipo de memória não-volátil dentro desses seis tecnologias? Sendo o palestrante, três tecnologias podem ser levadas mais a sério: MRAM, FeRAM e UOC. Na Figura 10 vemos uma tabela comparativa entre estas três tecnologias. Figura 10: Comparação entre as principais tecnologias de memórias não-voláteis. Como memórias não-voláteis são basicamente voltadas para dispositivos portáteis como celulares, PDAs, notebooks, câmeras digitais, enfim, dispositivos alimentados por baterias, o consumo é uma das principais preocupações. A memória FeRAM é a que consome menos, mas em compensação, os dados são apagados depois de lidos. Isto é realmente um problema. Segundo a Intel, a OUM que eles estão pesquisando é a melhor solução, pois não precisa de nenhum processo especial de fabricação e possuem células menores do que das outras tecnologias. Durante o IDF dois futuros chipsets para servidores, "Lindenhurst" e "Tumwater", foram oficialmente apresentados. Estes nomes são, obviamente, nomes-código, visto que estes produtos ainda não foram lançados. Estes serão os primeiros chipsets da Intel suportando novo barramento PCI Express, barramento que apresentamos durante a cobertura do IDF de fevereiro deste ano. O primeiro é destinado a servidores e o segundo, a workstations. Nós vimos muito o barramento PCI-X (versão de alto desempenho para servidores do barramento PCI) nas apresentações da feira montada no IDF, visto que muitos produtos voltados para o mercado corporativo foram apresentados. Por isso, vale a pena falarmos um pouco mais sobre o futuro do PCI-X. O PCI-X tem duas gerações: PCI-X 1.0, com duas versões de velocidade, PCI-X 66 e PCI-X 133, e o novo padrão PCI-X 2.0, com quatro versões de velocidade, PCI-X 66, PCI-X 133, PCI-X 266 e PCI-X 533. Estas duas novas velocidades são baseadas no PCI-X 133 transferindo dois dados por pulso de clock e quatro dados por pulso de clock, respectivamente. Na Figura 11 você pode ver a comparação do desempenho do PCI-X com outros barramentos existentes e a importância do PCI-X 2.0 para servidores de alto desempenho, pois há aplicações como rede 10 Gbits que o barramento PCI-X 2.0 é a única solução disponível para conexão do servidor. Figura 11: Desempenho do barramento PCI-X. O PCI-X 2.0 só começará a entrar no mercado em 2004 (PCI-X 266) e em 2005 (PCI-X 533), como você confere no gráfico abaixo. Figura 12: Planejamento para o PCI-X 2.0.
  21. A grande novidade de hoje foi o lançamento de um novo formato de placas-mães, chamado BTX (Balanced Technology Extended), anteriormente conhecido dentro da Intel pelo nome-código Big Water. Este novo padrão poderá substituir o atual padrão ATX nos próximos anos. Há diferenças significativas entre os padrões ATX e BTX e, por isso, placas-mães BTX não poderão ser instaladas em gabinetes ATX bem como placas-mães ATX não poderão ser instaladas em gabinetes BTX. A migração do padrão BTX para o ATX, contudo, poderá demorar. Apesar da especificação BTX ter sido lançada, especificações sobre fontes e gabinetes BTX ainda não foram lançadas, sendo que a especificação BTX só estará totalmente completa em abril de 2004. Ou seja, podemos seguramente prever que placas-mães e gabinetes BTX só começarão a ser populares em 2006, se levarmos em conta o mesmo tempo que o padrão ATX demorou para se popularizar no Brasil (o padrão ATX foi lançado em 1995, mas só começamos a vê-lo com maior freqüência a partir de 1997). Mas, afinal, o que muda e porque um novo formato de placas-mães? O novo formato foi lançado por dois motivos básicos: melhorar a dissipação térmica do computador (isto é, sua ventilação interna) e padronizar formatos de placas-mães de tamanho reduzido (cá entre nós, foi a resposta da Intel para o padrão ITX da VIA). Cada fabricante que hoje em dia produz um PC de tamanho reduzido ou está usando o padrão ITX da VIA ou então está usando um padrão próprio. O BTX possui três tamanhos básicos: picoBTX (20,32 cm x 26,67 cm), microBTX (26,41 cm x 26,67 cm) e BTX (32,51 cm x 26,67 cm). O padrão da ITX da VIA, que mede 21,5 cm x 19,1 cm continua menor que o picBTX da Intel. Os dois padrões medem quase a mesma coisa do que o microATX e o ATX. O que mudou foi a disposição interna dos componentes, que ficarão em uma posição "espelhada" em relação ao ATX. Os slots foram colocados hoje onde fica os conectores dos componentes on-board, e a memória RAM foi colocada hoje onde os slots estão instalados. Outra mudança foi a distância da placa-mãe para o chassi metálico do gabinete, que passou a ter 10,6 mm, sendo uma distância maior do que no padrão ATX, melhorando o fluxo de ar na parte de baixo da placa-mãe e facilitando o uso de sistemas de fixação do cooler do processador maiores. Você pode ver o aspecto geral do padrão BTX e a localização dos componentes neste novo formato de placa-mãe nas Figuras de 1 a 3. A placa da Figura 1 é para gabinetes do tipo torre. a uma primeira vista, parece que não há muita diferença para o ATX. Mas é só impressão. A placa-mãe está invertida. Como assim? No gabinete ATX, com a frente do gabinete virada para você, temos que a placa-mãe está instalada do lado direito e a parte esquerda é "vazia", ou melhor, é o espaço usado para a passagem de cabos e instalação de placas. No gabinete BTX ocorrerá justamente o inverso. O lado "fechado" (onde a placa-mãe está instalada) é o esquerdo, e o lado "vazio" (passagem de cabos, instalação de placas, etc) é o direito. Figura 1: Padrão BTX de placas-mães, gabinetes torre. Já na Figura 2 nós vemos o padrão de gabinetes BTX desktop (gabinetes "deitados"). A visão é de cima do gabinete. No gabinete desktop as mudanças ficam mais visíveis: as placas de expansão passaram para o lado direito e a fonte de alimentação passou para o lado esquerdo. Figura 2: Padrão BTX de placas-mães, gabinetes desktop. Já na Figura 3 nós temos o gabinete para PCs compactos. A fonte de alimentação, mais uma vez, foi movida para a esquerda. Figura 3: Padrão BTX de placas-mães, gabinetes miniatura. Outra grande diferença introduzida no padrão BTX é a posição do processador na placa-mãe e um duto de entrada de ar posicionado no meio do gabinete, na sua parte frontal. Repare a área em azul marcada em volta do processador nas figuras anteriores. Esta entrada de ar foi desenhada para que o PC use uma ventoinha jogando ar frio diretamente sobre o processador, e o processador usando um dissipador de calor passivo, isto é, sem ventoinha. Além disso, essa ventoinha terá um sistema de controle de velocidade: quando o processador atingir uma determinada temperatura, ela passa a girar mais rapidamente. Como na maior parte do tempo esta ventoinha estará trabalhando a uma velocidade menor do que a sua velocidade máxima, o nível de ruído de computadores baseados no padrão BTX será bem menor. Outro detalhe interessante é que o circuito regulador de tensão será colocado bem no caminho do fluxo de ar frio feito por esta ventoinha, melhorando a dissipação térmica dentro do gabinete e aumentando a vida útil do regulador de tensão (para quem não sabe, é o componente que normalmente queima quando uma placa-mãe "queima"). Por conta desse sistema de ventilação (muito similar ao usado pela Shuttle em seu XPC) o chipset da placa-mãe não precisa usar cooler com ventoinha, nem o processador de vídeo da placa de vídeo. É claro que possivelmente a PCs de alto desempenho continuem precisando de coolers com ventoinha no chipset e na placa de vídeo. A fonte de alimentação BTX usa dois plugues, similarmente ao que ocorre com as fontes ATX12V. O plug principal, no entanto, tem mais pinos (24 pinos em vez de 20 pinos), enquanto o plugue auxiliar é idêntico ao plugue usado para a alimentação extra de 12V do padrão ATX12V. A Intel apresentou um protótipo de PC desktop usando uma placa-mãe BTX durante o IDF, veja abaixo. Repare o duto de ventilação do qual falamos e veja a posição das peças. Figura 4: PC desktop BTX. Figura 5: PC desktop BTX. Figura 6: PC desktop BTX, vista traseira. Como usual, paralelamente às palestras e aulas do IDF há uma feira de tecnologia, que nesta edição foi bem maior do que a feira do IDF passado, contando com 190 expositores. A maior parte dos expositores ou estava oferecendo ferramentas de desenvolvimento, ou estava mostrando produtos para redes de altíssimo desempenho, assunto que, apesar de interessante, foge ao escopo do nosso site. Ainda teve o caso de expositores que estavam mostrando a mesma coisa que mostraram na edição passada do IDF, como foi o caso da Rambus. Com isso, selecionamos alguns expositores para falarmos aqui sobre, pois acreditamos que têm a acrescentar aos amantes do hardware. Adaptec A Adaptec apresentou uma nova placa SCSI Ultra 320 baseada no novo barramento PCI Express. Excelente oportunidade para vermos finalmente qual é o tipo de conector que o PCI Express usará. A placa conta com um soquete DIMM, para a instalação de um módulo de memória que funcionará como cache de disco, aumentando o desempenho. Figura 7: Adaptec Ultra320 PCI Express. Marvell A Marvell apresentou várias soluções Serial ATA, incluindo um novo chip Serial ATA II, chamado 88SX6081. O padrão Serial ATA II transfere dados a 300 MB/s, o dobro do Serial ATA I, sendo também chamado SATA-300. Figura 8: Placa Serial ATA II PCI-X baseada no chip 88SX6081 da Marvell. Memórias DDR2 Os fabricantes de memória presentes - Hynix, Infineon e Samsung - mostraram módulos DDR2, tanto DDR2-400 quanto DDR2-533. Figura 9: Módulos DDR2 da Samsung. Continue lendo: IDF Fall 2003 - 3º Dia
  22. A abertura do IDF foi feita oficialmente hoje por Pat Gelsinger, Vice-Presidente Sênior e Diretor-Geral de Tecnologia da Intel, que rapidamente explicou o que é o IDF e saudou os 4.500 participantes e 190 expositores, chamando ao palco em seguida Paul Otellini, Presidente e Diretor-Operacional (COO) da Intel, que apresentou as novidades da Intel para os próximos anos. Figura 1: Pat Gelsinger abrindo o IDF Fall 2003. Figura 2: Paul Otellini, Presidente da Intel. Otellini começou sua apresentação falando mais uma vez da convergência de tecnologias, tema amplamente explorado no IDF passado (IDF Spring 2003), e lembrou alguns dados interessantes. Em 2010 deveremos ter no mundo 1,5 bilhão de PCs conectados em banda larga e 2,5 bilhões de dispositivos de mão conectados sem fio com a potência de um PC de hoje em dia. Ao que tudo indica, ele estava se referindo ao Servidor Pessoal que vimos ontem. Além disso, a China aparece como o mercado com maior potencial de crescimento. Segundo ele, a Intel está indo na direção de suprir esta previsão. Ainda no final deste ano, a Intel estará produzindo o Manitoba, que é um sistema com acesso a Internet sem fio usando apenas um chip, que deverá chegar ao mercado no início de 2004. Ainda para 2004, a grande aposta da Intel é o WMAN (Wireless Metropolitan Area Network), instalação de redes metropolitanas sem fio usando o padrão IEEE 802.11 com alcance de 30 Km, tecnologia que a Intel chama de Wi-Max. E a necessidade, no futuro, de dispositivos wireless que detectem automaticamente a rede disponível na região em que ele se encontra (conforme vimos em detalhes na apresentação de ontem). O presidente da Intel aproveitou para fazer uma demonstração de um protótipo do Comunicador Pessoal, um telefone que permite troca de arquivos, transmissão de imagens ao vivo e muito mais. Em seguida, começou a apresentação das novidades tecnológicas em si, e neste IDF foram muitas novidades para os amantes do hardware de PCs, com o anúncio de novas tecnologias de processadores. O grande problema é a complexidade de se diminuir ainda mais o tamanho dos transistores usados no interior dos chips de processadores. Como você pode conferir na figura abaixo, a nova tecnologia de 90 nm (0,090 micron) faz com que as trilhas dos processadores sejam menores do que o vírus da gripe. Figura 3: Comparação das tecnologias de 0,13 micron e 90 nanômetros. Mesmo assim, Ottelini fez a primeira apresentação de um wafer de uma nova pastilha de silício usando a tecnologia de 65 nm (0,065 micron), que deverá ser lançada somente em 2005. Para esta tecnologia, a Intel investiu US$ 10 bilhões na fábrica de Ronler Acres, Oregon. Figura 4: Wafer contendo pastilhas de silício com tecnologia de 65 nm. Para a tecnologia após a de 65 nm, a Intel está desenvolvendo um novo tipo de transistor, chamado tri-gate, que tem três terminais "gate", como você confere na figura 5 (os trasistores FET normalmente têm três terminais, um chamado Dreno ou Drain, um chamado Fonte ou Source e um chamado Portão ou Gate). Ou seja, este tipo de transistor tem três terminais de controle, em vez de apenas um. Figura 5: Transistor Tri-Gate, candidato a ser usado nas pastilhas abaixo de 65 nm. Segundo a Intel, a sua tecnologia de 45 nm estará disponível em 2007, a de 32 nm em 2009 e a de 22 nm em 2011. Interessante notar que nestas tecnologias, cada terminal do transistor deverá ter, respectivamente, 20 nm, 15 nm e 10 nm de espessura. Só para você ter uma ideia, a espessura de uma molécula de DNA humano é de aproximadamente 12 nm. Realmente impressionante. Figura 6: Tecnologia de 45 nm. Figura 7: Tecnologias de 32 nm e 22 nm. Além das novidades na área de construção de processadores, a Intel anunciou novidades importantes na linha de processadores para servidores (Itanium e Xeon). A grande novidade para os processadores para servidores, tanto para a família Xeon quanto para a família Itanium, foi o anúncio da incorporação de mais de uma pastilha de silício por processador. Isto é, processadores com mais de um processador dentro. O Xeon com duas pastilhas (isto é, na verdade com dois processadores completos dentro) recebeu o nome-código Tulsa, enquanto o Itanium com duas pastilhas recebeu o nome-código Montecito e o Itanium com mais de duas pastilhas recebeu o nome-código Tanglewood. Confira na Figura 8. Figura 8: Futuros processadores para servidores. Um detalhe interessante é que essas novas pastilhas estão sendo desenvolvidas pelo time de engenheiros que trabalharam no desenvolvimento dos processadores Alpha, da antiga Digital (DEC), que foi comprada pela Compaq. Por falar em processadores para servidores, a Intel apresentou um computador Altix 3700 da SGI, que tem 128 processadores Itanium 2, rodando Linux. Uma demonstração ao vivo foi conduzida mostrando o poder computacional da criança. Realmente impressionante. Segundo Mike Graf, Gerente de Marketing da linha Itanium, esta super máquina é usada na simulação de carros de Fórmula 1, durante o desenho do carro, para verificar a aerodinâmica, etc. Para mais informações sobre essa máquina, visite http://www.sgi.com/servers/altix/. Figura 9: Altix 3700 da SGI. Figura 10: Exemplo ao vivo da simulação de um carro de Fórmula 1. Além disso, a Intel mostrou dados interessantes sobre o mercado de servidores. Como você pode ver na Figura 11, até meados de 2002, servidores usando plataformas RISC apresentavam o melhor desempenho do mercado, quando foram então superados por servidores HP usando processadores Itanium. A gente conferiu os resultados apresentados e eles são verdadeiros, estando disponíveis on-line em http://www.tpc.org/tpcc/results/tpcc_perf_results.asp. Estes resultados baseiam-se em um escore chamado TPC, medido por uma organização sem fins lucrativos chamada Transaction Processing Performance Council, que mede a velocidade que um servidor consegue processar uma transação eletrônica de banco de dados, como o processamento de um cartão de crédito ou a atualização de um sistema de controle de estoque, por exemplo. Figura 11: Evolução do desempenho dos servidores de alto desempenho. Mas isso ainda não é tudo. Mais novidades ainda foram apresentadas, especialmente duas novas tecnologias: LaGrande, Vanderpool (tecnologia de virtualização) e o novo processador MXP5800. LaGrande é uma tecnologia que protege dados do micro contra a ação de hackers, através do hardware do PC. Ela funciona criptografando dados da comunicação entre o teclado e o PC, além de criptografar dados da memória de vídeo e da memória RAM do sistema. Mesmo que um hacker tenha acesso total ao sistema, ele não conseguirá ler os dados e, portanto, eles não servirão de nada para o hacker. Foi feita uma apresentação ao vivo desta tecnologia, onde foi simulada a instalação de um cavalo de tróia no micro que captura todos os dados entrados pelo teclado bem como permite o acesso do hacker ao conteúdo da memória de vídeo e da memória RAM do sistema, e esta tecnologia realmente mostrou-se eficiente. Figura 12: Demonstração ao vivo da tecnologia LaGrande. Já a tecnologia Vanderpool permite dividir (particionar) o PC em várias máquinas independentes. Na demonstração ao vivo desta tecnologia, Paul Otellini fez a máquina equipada com esta tecnologia exibir um vídeo em uma tela remotamente, via tecnologia wireless (video streaming, parte da tecnologia da Intel para a casa digital) e, logo em seguida, ele simplesmente deu um reboot na máquina. O vídeo não parou um minuto sequer. A máquina estava dividida em duas e, mesmo uma "partição" da máquina estar exibindo um vídeo, a outra pode ser rebootada sem problemas. Ou seja, as máquinas "virtuais" são realmente manipuladas independentemente, mesmo sendo fisicamente uma única máquina. Segundo Otellini, a Intel lançará pelo menos duas plataformas baseadas na tecnologia Vanderpool nos próximos 5 anos. A Intel apresentou ainda o recém lançado processador MXP5800 (lançado em conjunto com a Xerox), que é o primeiro processador de uma série de processadores de mídia que a Intel pretende lançar. Este processador é responsável por efetuar, por hardware, funções de vídeo como Alpha Blending, Chroma Keying, etc. Otellini não descartou a possibilidade deste tipo de processamento passar a estar integrado ao processador da máquina ou ao chipset da placa-mãe dentro de algum tempo. Para mais informações sobre este processador, visite http://www.intel.com/design/celect/imageprocessing.htm. Por fim, a última novidade da apresentação do Presidente da Intel foi a criação de um grupo chamado DHWG (Digital Home Working Group) que atualmente conta com 17 empresas, para padronizar a casa digital. Além disso, a Intel está trabalhando junto com outros gigantes da indústria de tecnologia e entertenimento, como a Warner Bros, no desenvolvimento da tecnologia DTCP/IP (Digital Transmission Content Protection Over Internet Protocol), para proteger contra a cópia vídeos que serão transmistidos do PC para aparelhos de TV sem fio (um vizinho poderia simplesmente copiar um filme que você estivesse vendo com uma antena apropriada, por exemplo). A tarde assistimos a uma apresentação sobre a disponibilidade de memórias DDR2, com a presença de representantes da Infineon, Elpida, Hynix, Samsung e Micron. Nossa aula sobre memórias DDR2 foi conduzida pela Intel e pelos principais fabricantes de chips de memória RAM: Infineon, Elpida, Hynix, Samsung e Micron. Ou seja, a memória DDR2 será realmente lançada, ainda mais com a Intel prometendo um chipset para a plataforma soquete 478 aceitando este tipo de memória no início de 2004. Segundo a Intel, este novo chipset aceitará tanto memórias DDR quanto DDR2, mas a escolha do tipo de memória que a placa-mãe aceitará será feita pelo fabricante da placa-mãe, visto que, por conta das diferenças tecnológicas, não será possível trabalhar com memórias DDR e DDR2 ao mesmo tempo na mesma máquina. Além disso, este novo chipset da Intel aceitará memórias DDR2 operando no esquema DDR Dual Channel, o que aumentará ainda mais o desempenho do sistema. Para quem não sabe, as memórias DDR2 transmitem quatro dados por pulso de clock. Dessa forma, conseguem atingir uma taxa de transferência máxima teórica maior, usando um clock inferior. É planejado o lançamento das seguintes memórias: DDR2-400 (rodando a 100 MHz), DDR2-533 (rodando a 133 MHz), DDR2-667 (rodando a 166 MHz) e DDR2-800 (rodando a 200 MHz). Para facilitar o entendimento do assunto, montamos a tabela abaixo. Note que colocamos tanto a taxa de transferência máxima da memória quando ela está operando sozinha, quanto a taxa de transferência máxima dela operando em DDR Dual Channel. Memória Clock Taxa Máxima Taxa Máxima Dual Channel DDR2-400 100 MHz 3.200 MB/s 6.400 MB/s DDR2-533 133 MHz 4.264 MB/s 8.528 MB/s DDR2-667 166 MHz 5.336 MB/s 10.672 MB/s DDR2-800 200 MHz 6.400 MB/s 12.800 MB/s Há duas diferenças importantes entre as memórias DDR e DDR2. Primeiro, a tensão de alimentação, que é de 2,5 V para as memórias DDR, mas caiu para 1,8 V nas memórias DDR2. A segunda diferença é que nas memórias até a DDR, a terminação resistiva era feita na placa-mãe. Na memória DDR2 a terminação resistiva é feita dentro do chip de memória, e este processo é chamado ODT (On-Die Termination). Isso faz com que a memória receba impulsos elétricos com menos ruídos, como vemos na Figura 13 (no lado esquerdo vemos dados em memórias com terminação na placa-mãe e, no lado direito, vemos dados em memórias com terminação no interior do chip). Figura 13: Impacto da terminação resistiva na transmissão dos dados. Por conta dessas diferenças, não será possível usar memórias DDR2 em soquetes DDR-DIMM atualmente existentes, ou seja, querendo usar memórias DDR2 em sua máquina, você terá de trocar a placa-mãe. Tem um detalhe sobre as memórias DDR2 que nos chamou a atenção. Elas consomem a metade da potência das memórias DDR e dissipam menos calor. Isso significa que equipamentos portáteis como notebooks e PDAs poderão passar a usar este tipo de memória principalmente porque o aparelho esquentará menos e consumirá menos bateria, isto é, a bateria durará mais. O desempenho a mais virá de brinde. Mas quando encontraremos memórias DDR2 no mercado? Quando o preço da memória DDR2 será igual ao da memória DDR que temos hoje? Essas perguntas são respondidas de maneiras diferentes por cada fabricante. As estimativas de como o mercado se comportará varia de fabricante para fabricante. Segundo a Hynix, memórias DDR2 custam 20% mais para se fabricar do que memórias DDR, sendo que obviamente esta diferença cairá a medida em que as memórias DDR2 tornarem-se mais populares. Para podermos ter uma visão geral da estratégia dos fabricantes, vamos mostrar a seguir como cada um deles vê o mercado para memórias DDR2. A Intel é muito otimista, como vemos na Figura 14, com memórias DDR2 entrando em cena já no início de 2004 e com os modelos DDR-667 e DDR-800 entrando em cena no início de 2005. Figura 14: Visão da Intel para memórias DDR2. Na Figura 15 nós vemos a visão da Elpida, também bastante otimista, pois para ela entraremos em 2005 com metade do mercado de memórias destinado a memórias DDR2, e já em julho de 2004 a memória DDR2 teria uma participação de 30% do mercado. Figura 15: Visão da Elpida para memórias DDR2. Já a visão da Samsung pode ser conferida na Figura 16. Figura 16: Visão da Samsung para memórias DDR2. A visão da Micron nós apresentamos na Figura 17. Figura 17: Visão da Micron para memórias DDR2. Para a Hynix, as memórias DDR2 custarão o mesmo que memórias DDR em 2005. Como você pode ver, todos os fabricantes estão extremamente otimistas com a larga adoção do padrão DDR2. Se isto realmente ocorrerá e se as previsões dos fabricantes se concretizarão, não podemos dizer. Continue lendo: IDF Fall 2003 - 2º Dia
  23. San José, Califórnia. Capital do Vale do Silício, região onde estão instaladas as principais empresas da área de alta tecnologia. Palco do fórum da Intel que ocorre duas vezes por ano, uma na primavera e outra no outono norte-americanos. É neste Fórum - chamado IDF, Intel Developer Forum - que a Intel apresenta suas novidades na área de tecnologia e o que ela está desenvolvendo no momento. São três dias apresentando tecnologias que ainda levarão anos para chegar ao mercado. Figura 1: San José McEnery Convention Center, mais uma vez, palco do IDF. Fomos, mais uma vez, orgulhosamente convidados para participarmos do IDF, onde pudemos conferir de perto as inovações tecnológicas que só chegarão ao mercado daqui a alguns anos. Estaremos, ao final de cada dia, resumindo aqui o que vimos e ouvimos e o que você pode esperar do mercado de informática (e de redes) nos próximos anos. O Fórum só começa oficialmente amanhã, terça-feira dia 16 de setembro de 2003, mas hoje tivemos uma apresentação exclusiva para membros da imprensa, antecipando muito do que veremos durante o IDF. Esta apresentação foi conduzida pela equipe de Pesquisa e Desenvolvimento da Intel. Nessa apresentação pré-IDF, ficou claro que a Intel está apostando cada vez mais na convergência de tecnologias de computação e de rede, como foi apresentado no IDF passado, em fevereiro. Mas agora a Intel mostrou a sua preocupação nos detalhes técnicos que permitirão que isso seja possível. Para ter um mundo ainda mais conectado - incluindo aí não só PCs e PDAs, mas também eletrodomésticos e afins - o grande problema é: como será possível haver comunicação sem fio com vários dispositivos tentando "conversar" ao mesmo tempo. Atualmente, temos a faixa de freqüência de 2,4 GHz disponível, sendo essa a freqüência usada pelos dispositivos IEEE 802.11 (que a Intel chama de Wi-Fi) e BlueTooth. Como dissemos, com mais e mais dispositivos usando esta freqüência, teremos problemas de interferência. A solução é o uso de outras faixas de freqüência, porém outras faixas de freqüência não estão disponíveis, pois são reservadas por agências reguladoras no mundo todo (FCC nos Estados Unidos e Anatel no Brasil). A Intel está trabalhando em duas frentes: com os fabricantes, para a padronização da tecnologia wireless, e conversando com a FCC e com as suas equivalentes em outros países para o uso de outras faixas de freqüência, especialmente a faixa de 3,1 GHz a 10,6 GHz, chamada Ultra Wide Band. Além de ser uma faixa de freqüência maior, há uma outra grande vantagem no uso desta faixa de freqüência: a taxa de transferência máxima que é possível chegar é maior que 100 Mbit/s (basta lembrar que conexões wireless IEEE 802.11 trabalham a 11 Mbit/s). Mas, mesmo usando esta faixa de freqüência, como fazer em caso de interferência. É aí que entra dois conceitos que a Intel está pesquisando: divisão automática do espectro e configuração automática do dispositivo wireless. O primeiro conceito funciona da seguinte forma: o dispositivo wireless "percebe" quais canais estão sendo usados e quais canais não estão sendo usados dentro da faixa de freqüência UWB, usando somente canais livres para não haver o problema de interferência. Já o segundo conceito vai ainda mais longe. Como cada cidade ou região tem (ou terá) seus próprios provedores de serviços wireless, o dispositivo wireless percebe quais serviços estão disponíveis na cidade e automaticamente configura o dispositivo para usá-los. Funciona mais ou menos quando temos um telefone celular em roaming: o dispositivo procura pela rede disponível e passa a usá-la, mesmo não sendo uma rede do seu provedor de acesso (no caso de telefone celular, a rede da sua companhia telefônica com a qual você tem um contrato). Lembramos que por "dispositivo" estamos considerando qualquer dispositivo eletrônico que possa a vir a usar uma rede sem fio, como notebooks, PDAs, desktops, etc. Posto isto, veio uma fantástica apresentação conduzida por Roy Want, Engenheiro de Pesquisas da Intel, sobre servidores pessoais, um conceito que, se bem explorado, poderá ser um sucesso de mercado. Roy Want começou sua apresentação com dados factuais bem interessantes. Primeiro, um PDA é muito pequeno para ser usado como um computador portátil, e os laptops têm duas grandes desvantagens, são grandes e pesados. Então, como fazer um computador pequeno, leve e portátil? Figura 2: Roy Want, Engenheiro de Pesquisas da Intel. A ideia que Roy está pesquisando chama-se simplesmente Servidor Pessoal e é um computador menor do que uma máquina fotográfica que cabe em um bolso. Ele pretende ser um meio termo entre PDA e um notebook. A grande diferença dele é que ele não tem tela, não tem mouse e não tem teclado. Loucura? Figura 3: Conceito do Servidor Pessoal. A ideia é a seguinte: qualquer computador pode passar a ser o seu computador. Isto é, você pode pegar "emprestado" o teclado, monitor e mouse de qualquer computador. Ainda, locais podem disponibilizar estes dispositivos, da mesma forma que hoje temos estações de Internet em hotéis, por exemplo. A diferença é que a conexão ao Servidor Pessoal é feita totalmente sem fio, usando comunicação BlueTooth. A escolha do BlueTooth, segundo a Intel, é porque esta tecnologia é mais promissora do que a IEEE 802.11 por um motivo muito importante: requer menos energia para efetuar transmissões de dados. Para um dispositivo portátil, operado por bateria, este fator é importantíssimo. Com o desenvolvimento de processadores que consomem menos (como o XScale da Intel, que roda a 1 GHz e consome apenas 1,4 W), e com o desenvolvimento de memórias Flash de maior capacidade, os Servidores Pessoais poderão ser em breve uma realidade. Mas, segundo Roy Want, uma realidade ainda distante, onde, segundo ele, só começaremos a ver alguma coisa desta tecnologia em prática no mercado daqui a pelo menos 5 anos. As aplicações para o Servidor Pessoal são muito promissoras. Você poderia acessar os arquivos MP3 do seu computador através de um aparelho de som com comunicação wireless. Poderia ver seus filmes através de um aparelho multimídia, como um futuro aparelho de TV com essa capacidade ou até mesmo nos monitores individuais de vídeo de aviões, um telefone sem fio poderia consultar sua agenda diretamente em seu servidor pessoal e até mesmo um carro poderia ajustar as estações de rádio e posição do banco de acordo com o servidor pessoal do motorista. Outras aplicações são ainda mais futuristas, lembrando filmes de ficção científica como Minority Report. Como o Servidor Pessoal pode ser carregado no bolso ou em uma bolsa, ele poderia se comunicar via wireless com outros servidores pela rua, recolhendo informações de lojas e restaurantes por onde você passou, por exemplo. Além disso, o servidor pessoal poderia ser integrado a um celular, já pensou? Uma apresentação ao vivo do protótipo do servidor pessoal foi feita (funcionando, note bem). A transmissão não é tão rápida, visto que a comunicação Bluetooth atualmente trabalha a somente 115.200 bps. Mas a transmissão MP3 e de vídeos é feito usando a tecnologia "streaming", que em vez de transmitir o arquivo inteiro para então começar a tocá-lo, vai tocando o arquivo enquanto ele está ainda sendo transmitido. Por conta disso, o desempenho não é tão ruim. Devemos lembrar ainda que o Bluetooth possará por revisões que aumentarão sua taxa de transferência. Figura 4: Protótipo do Servidor Pessoal, funcionando. Note que ele usa um cartão de memória flash. Figura 5: O outro lado do protótipo, notar a bateria e o tamanho. Foi mostrado ainda o protótipo de um controle remoto para o Servidor Pessoal em forma de relógio, para ser usado quando não temos acesso a um teclado ou a um mouse. Por exemplo, você está diante de uma loja que tem um monitor de vídeo com capacidade wireless, mas a loja está fechada. Você só poderá usar o monitor, mas não o teclado e/ou o mouse. Aí entraria o controle remoto, permitindo que você consulte alguma informação em seu servidor pessoal. Figura 6: Roy Want com o protótipo do controle remoto em forma de relógio. Figura 7: Close do protótipo do controle remoto em forma de relógio. Futurista demais? Bem, os protótipos estão aí funcionando. Se esta tecnologia realmente chegará no mercado e quando, bem, isto ainda é uma incógnita. É claro que questões sobre a segurança do Servidor Pessoal foram levantadas. Segundo Roy Want, as soluções hoje existentes para segurança e criptografia via Internet são satisfatórias para o uso com o Servidor Pessoal. Mas será importante ter um backup dos dados, para caso o dono perca ou quebre o aparelho ou ainda para o caso dele ser roubado. A apresentação foi fechada por Pat Gelsinger, Vice-Presidente Sênior e Diretor-Geral de Tecnologia (CTO) da Intel, com uma sessão de perguntas e respostas sobre futuras tecnologias da Intel. Das questões levantadas, a única em nossa opinião que vale a pena destacar é o fato da Intel ter desistido de criar uma tecnologia de transmissão de Internet via rede elétrica. Segundo Gelsinger, é muito complicado, pois cada casa possui uma rede elétrica diferente, entre outras dificuldades que, segundo ele, fizeram a Intel desistir deste projeto. Figura 8: Pat Gelsinger e Gabriel Torres. Continue lendo: IDF Fall 2003 - 1º Dia
  24. Você sabia que é possível usar o computador como um "grampo" eletrônico? Usar o PC para gravar conversas telefônicas é muito mais prático e barato do que usar um gravador convencional, além de ter uma capacidade de gravação de centenas de horas, visto que o áudio é gravado em um arquivo no disco rígido do micro. Além disso, você pode ainda converter os arquivos de áudio para MP3, para ocuparem menos espaço ainda no disco rígido, ou até mesmo gravar os arquivos como um CD de áudio para que as conversas telefônicas gravadas possam ser ouvidas em qualquer CD player. Até pouco tempo atrás modems com recurso de voz (modems "voice") eram muito populares no mercado. Estes modems tinham como recurso extra a secretária eletrônica, um sistema de viva-voz e o sistema de gravação de conversas telefônicas. Por desconhecimento dessas capacidades, a maioria dos usuários sequer sabia que o modem era capaz de efetuar estas tarefas, e os fabricantes acabaram por retirar estes recursos nos modelos mais novos para baratear o modem. Alguns modems mais modernos têm uma saída chamada TAD (Telephony Answering Device), que pode ser usada para ligar o modem à placa de som, através de um cabo similar ao usado na conexão do CD-ROM à placa de som. Através desta conexão é possível gravar conversas telefônicas usando a sua placa de som. Para isso, é necessário que a sua placa de som tenha também uma entrada TAD e você instale o cabo ligando o modem à placa de som. Com a popularização da Internet banda larga, cada vez menos usuários têm modems instalados no micro. A solução para transformar o PC em um gravador de conversas telefônicas é a construção de um pequeno circuito que descrevemos a seguir. Este circuito é muito simples e barato de ser montado, você não deverá gastar nem R$ 10 montando ele. Mesmo um usuário sem conhecimentos aprodundados de eletrônica conseguirá montá-lo sem muita dificuldade. As peças que você precisará comprar são: um resistor 4K7 x 1/2 W, um capacitor 220 nF x 200 V, dois diodos zener 5 V x 1 W, um potenciômetro de 10 K logaritmo (que servirá como controle de volume) e um plugue P2 mono macho. Há ainda um transformador telefônico. Para baratear o equipamento, sugerimos que você simplesmente remova o transformador de um modem velho (2.400 bps, por exemplo). Veja na Figura 2 como é este transformador usado por modems. Nós publicamos um tutorial chamado "Como Dessoldar Componentes" que poderá ser muito útil para aqueles que não sabem como remover o transformador do modem. Figura 1: Esquema do grampo telefônico. Figura 2: Transformador usado em modems. Depois de montado o circuito, basta ligá-lo de um lado na linha telefônica e do outro na entrada Mic In da placa de som. Para gravar as conversas, você precisará de um programa de gravação, como o Sound Forge. Na falta de um programa, use o Gravador de Som do próprio Windows. Como a qualidade da linha telefônica não é alta, você pode gravar na qualidade 11.025 Hz mono para que o arquivo gravado fique o menor possível. Atenção: Lembramos que a gravação de conversas telefônicas sem autorização da outra parte é crime. Você só pode gravar conversas telefônicas com o consentimento das pessoas que estão conversando.
  25. Se você instalou pelo menos uma ventoinha auxiliar em seu PC, você deve ter percebido que o seu micro ficou muito mais barulhento. Ventoinhas extras são ótimas para melhorar a circulação de ar no gabinete e evitar o superaquecimento da máquina, mas seu grande inconveniente é o seu nível de ruído, isto é, o seu micro fica mais barulhento. Dependendo do tipo e da quantidade de ventoinhas que você adicionou ao seu gabinete, muitas vezes trabalhar no micro pode se tornar uma tarefa insuportável pela barulheira que o micro passa a fazer. A solução para esse problema é bem simples: diminuir a velocidade de rotação da ventoinha auxiliar quando o micro não está operando em "carga total". Girando mais devagar, a ventoinha emite menos ruído. Quando você precisar de uma dissipação térmica maior (por exemplo, quando você está jogando o seu jogo 3D preferido e/ou quando você está fazendo um overclock), aí sim você pode colocar as ventoinhas rodando em suas velocidades máximas. Mas como fazer isso? Algumas ventoinhas topo de linha vêm com controle de velocidade, e alguns fabricantes desenvolveram circuitos para o controle da velocidade da ventoinha, como é o caso da Cooler Master (entre em http://www.coolermaster.com e veja os produtos Aerogate e Musketeer). Só que esses produtos, além de caros, são raros no Brasil. Então o que fazer? Hoje nós ensinaremos a você a montar um sistema de controle de velocidade de ventoinhas. Você verá que é muito mais simples do que parece, e o custo é muito mais acessível do que as soluções prontas existentes no mercado. Você precisará ter experiência em soldagem de componentes eletrônicos; se você não tiver, peça ajuda a um amigo que saiba manejar um ferro de solda. O único componente que você precisará comprar é um potenciômetro de 100 ohms linear de 5 watts, componente encontrado com facilidade em lojas de componentes eletrônicos (Rua República do Líbano no Rio de Janeiro e Rua Santa Ifigênia em São Paulo). Cuidado para não comprar um potenciômetro do tipo logarítmico, este tipo de potenciômetro não funcionará corretamente neste circuito. Você também precisará comprar meio metro de fio para fazer as ligações necessárias. Você também pode aproveitar e comprar um botão (chamado knob) para colocar no pino central do potenciômetro. A ligação é simples. O fio que alimenta a ventoinha precisará ser cortado ao meio, para a instalação do potenciômetro. Esse fio é o de cor vermelha no caso de ventoinhas que são ligadas diretamente à placa-mãe (plugue de três pinos) ou amarela no caso de ventoinhas que são ligadas diretamente à fonte de alimentação (plugue de quatro pinos). Desencape a extremidade de cada pedaço de fio resultante do corte e faça a ligação do potenciômetro, como mostramos na figura. O fio marcado com 1 deve ser ligado a um dos fios resultantes do corte descrito e o fio marcado com 2 deve ser ligado ao outro fio resultante do corte. Não se esqueça de isolar todas as emendas com fita isolante. Figura 1: Potenciômetro para controlar a velocidade da ventoinha. Para melhor controle, o potenciômetro pode ser instalado na frente do gabinete, em uma das baias de 5 1/4" que não estiver sendo usada. Basta fazer um furo na tampa plástica existente e instalar o potenciômetro. Se você tiver mais de uma ventoinha que você queira controlar a velocidade de rotação, basta repetir o processo, instalando um potenciômetro para cada ventoinha.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

LANÇAMENTO!

eletronica2025-popup.jpg


CLIQUE AQUI E BAIXE AGORA MESMO!