Ir ao conteúdo
  • Cadastre-se

Rajiv Khotari

Membro VIP
  • Posts

    12
  • Cadastrado em

  • Última visita

    Nunca

Reputação

0

1 Seguidor

Sobre Rajiv Khotari

  1. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: Aprendendo Mais Sobre o PCI-E 3.0 "Este editorial explica a atual implementação do PCI Express 3.0 padrão, o que significa ser compatível com “Gen 3” e como isso afeta a compra da sua próxima placa-mãe." Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  2. Recentemente, os fabricantes de placas-mãe têm feito o possível para diferenciar seus produtos uns dos outros em um esforço para renovar os estagnados negócios de computadores. Uma boa parte desta atitude tomou um rumo muito agressivo, onde as empresas têm denunciado ou atacado descaradamente os produtos concorrentes por não serem autênticos ou acompanharem o ritmo. A dura realidade é que placas-mãe geralmente ficam dentro de um determinado intervalo de desempenho. Tudo se resume a valores agregados, como UEFI BIOS, suporte a USB 3.0 nativo, placas de som especiais ou adaptadores de rede de desempenho superior, para realmente obter uma vantagem competitiva. Portanto, não foi nenhuma surpresa quando, depois que o PCI-E Gen 3 foi anunciado, ele tenha chamado a atenção dos entusiastas com uma demanda insaciável por velocidade. Com uma taxa de bits de oito Giga Transfers por segundo (8 GT/s), a largura de banda da PCI-E 3.0 foi duplicada, tornando-a a evolução natural do velho padrão 2.0. Ela também se transformou em uma corrida dos departamentos de marketing para ver quem conseguiria implementar a tecnologia primeiro, como uma forma de conquistar este mercado influente e sofisticado. A expressão “à prova de futuro” dá uma noção do ciclo de vida estendido de um produto, mas deve ser entendida de maneira figurativa. Não é possível realmente criar uma tecnologia à prova de futuro, considerando que o seu propósito é estar em constante evolução para algo melhor e mais rápido. No entanto, ela atinge em cheio os clientes quando eles ficam sabendo que não sentirão o “remorso do comprador” em um curto período de tempo. Todo mundo quer que seus PCs durem por bastante tempo. Como entusiastas de hardware, nós sabemos que a realidade é que o seu PC tem uma vida útil média de três a quatro anos, no máximo. Mas pergunte a qualquer comprador comum por quanto tempo ele gostaria de manter o sistema atual e eles esperam algo em torno de seis ou sete anos. É com essa mentalidade que a mensagem por trás da PCI-E 3 esperava ressoar junto aos consumidores. O importante é conhecer os métodos utilizados para comercializar a geração atual de placas-mãe como “compatíveis com PCI-E 3” e se você está levando a coisa certa. As mudanças na arquitetura de Sandy Bridge fez com que as pistas PCI Express sejam todas manipuladas pelo processador. As pistas PCI-E que saem do processador se dividem, executando oito pistas para o primeiro slot PCI-E e depois mais oito pistas no chip comutador. Em seguida, o comutador analisa a sua configuração para controlar a largura de banda para um único slot x16 (roteando as pistas de volta para emparelhar com as oito pistas provenientes do processador) ou como slots duplos x8 (roteando as pistas para o segundo slot). Naturalmente, isso significa que novas velocidades Gen 3 também teriam de advir dessas pistas, mas, infelizmente, o suporte a Gen 3 não ocorrerá até que os processadores Ivy Bridge da Intel cheguem oficialmente ao mercado no início de 2012. Os circuitos dentro das placas-mãe de chipset Intel série 6, teoricamente, conseguem executar uma conexão PCI-E 3, mas como as pistas Gen 3 estão vinculadas aos futuros processadores Ivy Bridge, será necessário atualizar a BIOS da placa-mãe para reconhecer e comunicar o novo padrão sem problemas. As placas-mãe mais atuais só apresentam comutadores PCI-E 2.0 (sendo a NF200 da NVIDIA para “True SLI” um destaque), portanto, quando um processador Ivy Bridge que tem funcionalidade PCI-E 3 é ligado na tomada, apenas oito pistas (das 16 totais) realmente funcionarão. Placas-mãe com vários slots PCI Express têm os chips comutadores mais atualizados de fornecedores como a Pericom ou o PLX para verdadeiramente oferecer suporte à plena disponibilidade de largura de banda Gen 3 em configurações de várias placas de vídeo CrossFireX da NVIDIA SLI e/ou da AMD. Muitas placas-mãe mais antigas que afirmam ser compatíveis com “Gen 3” apenas se escondem por trás do fato de que são compatíveis com processadores Ivy Bridge e tentam tirar proveito dos consumidores que ignoram os aspectos técnicos por trás dessa tecnologia. Toda essa mensagem “compatível com PCI Gen 3” pode ser considerada uma jogada de marketing, pois embora você esteja tecnicamente conseguindo usar os seus novos periféricos PCI Express Gen 3 (leia-se: garantindo a compatibilidade), você só consegue utilizar a metade da largura de banda teórica. Para aumentar a confusão, há uma falta de dados de referência disponíveis, o que significa que os usuários estão se dividindo com informações ainda mais ambíguas sobre o que é considerado o “verdadeiro” Gen 3. Tentar acompanhar a tecnologia mais recente sempre parece ser um esforço inútil, mas ninguém quer sentir remorso do comprador por ter perdido a possibilidade de melhoramentos significativos por não saber esperar. A metodologia por trás do empurrão das PCI-E 3 era fazer com que o mercado geral “comprasse agora” em vez de aguardar, mas parece que ainda estamos à espera para que as PCI-E 3 se mostre em placas gráficas e SSDs PCI-E. Nós definitivamente podemos ter a esperança de que, uma vez no mercado, as incríveis velocidades que nos foram prometidas se mostrem também. Conforme mais placas se gabam da compatibilidade e do suporte a Gen 3, certifique-se de que você está comprando uma placa que, pelo menos, tenha os chips comutadores adequados prontos para você tirar vantagem deles quando puder.
  3. Este artigo investiga a nova arquitetura UEFI e porque ela é muito mais importante para o mundo da computação do que você imagina. O hardware dos computadores evoluiu bastante nas últimas décadas. As placas gráficas e de áudio oferecem gráficos cheios de vida e som com qualidade de cinema, HDs com terabytes e mais terabytes estão sendo combinados com unidades SSD extremamente rápidas para oferecer armazenamento ilimitado ao usuário comum, ao mesmo tempo que grandes quantidades de RAM e processadores fornecem seis (em breve oito) núcleos para fornecer incríveis capacidades multitarefa. Reunindo tudo o que o hardware apresenta, está a placa-mãe, a espinha dorsal do seu sistema. O hardware da placa-mãe alcançou novos níveis de qualidade, com componentes de melhor categoria (atingindo até mesmo certificações especiais) que proporcionam longevidade e estabilidade. Há também todo tipo de conectividade à prova do futuro disponível, como o USB 3.0, a SATA-600 e agora o PCI Express 3.0. No entanto, há uma parte da placa-mãe que tem sido o componente principal há muito tempo e só recentemente começou a ser atualizado. A BIOS, uma arquitetura de três décadas de idade que atua como ponto de partida do seu sistema de PC como um todo. Como pode ser observado em vários testes de placas-mãe, alguns fabricantes têm adotado uma nova BIOS “UEFI” (Extensible Firmware Interface Universal) para substituir o atual, mas o que parece ser ignorado por muitas pessoas é o quão importante esse recurso realmente é e como ele beneficia todo o campo da computação. A BIOS (Basic Input/Output System) é o primeiro software a ser executado quando o PC é ligado. A função da BIOS se concentra principalmente na configuração do hardware de inicialização e na identificação de periféricos. Mais recentemente, as atualizações da BIOS têm permitido código atualizado seja gravado nos chips de hardware para oferecer suporte a novos processadores e periféricos que antes não eram detectáveis. Isso beneficia os usuários ao manter atualizado o hardware existente e oferecer suporte a novos padrões de codificação ou métodos de detecção. A maior característica da BIOS é a capacidade de manipular e alterar as principais configurações do sistema para atender a necessidades individuais. Foi assim também que o overclocking viu seu nascimento. Ao ajustar os computadores para taxas de clock mais altas do que as predefinições de fábrica, os usuários puderam forçar o sistema a atingir um novo patamar e obter um aumento significativo de desempenho. Os entusiastas começaram a perseguir os fabricantes de placas-mãe que ofereciam tantos recursos avançados quanto possível para overclocking, como por exemplo ajustes de tensão (o que poderia comprometer a estabilidade do sistema). Isto fez com que a BIOS se tornasse uma ferramenta bastante comercial ​​e um importante diferencial entre o que as placas mais sofisticadas poderiam fazer em relação às suas concorrentes mais baratas. No entanto, a BIOS está chegando aos 30 anos e o desgaste começa a ser perceptível. Para início de conversa, ela apresenta somente 1.024 KB de espaço de execução. Isso é extremamente limitante em um mundo onde gigabits de dados são transferidos ao mesmo tempo e a tendência é ficar ainda mais rápido, com os dispositivos e a conectividade de próxima geração. Há problemas também na inicialização de dispositivos. A abundância de periféricos e controladores onboard torna o processo de inicialização mais demorado por causa do espaço limitado de instruções e da falta de otimização. Em uma escala maior, a segurança tem sido um grande problema no mundo da computação e a BIOS é um dos grandes culpados em termos de gestão e segurança de sistemas. Antes de inicializar o sistema operacional, não medidas internas de solução de problemas ou de segurança aprofundada. A BIOS só fornece a funcionalidade básica de senha que exige a instalação de softwares adicionais para monitorar e proteger os PCs remotamente. Estas questões fundamentais têm sido negligenciadas em favor de outras tecnologias, e é chegado o momento de abordá-las. Oferecer suporte para discos rígidos com mais de 2.2 TB e finalmente poder usar o mouse com uma GUI (interface gráfica do usuário) são os benefícios mais alardeados que você ouvir sobre a UEFI, pois qualquer usuário pode compreendê-los. Estes são outros benefícios importantes obtidos ao usar a UEFI: A UEFI apresenta funcionalidades semelhantes às dos sistemas operacionais. Por quase 30 anos, você teria de examinar um sistema de menus feio e arcaico que intimidava qualquer pessoa que não fosse um usuário avançado. A UEFI oferece um menu mais inovador e esteticamente agradável, que proporciona uma abordagem mais organizada para configurar o sistema. É possível até mesmo acessar a Web e emails por meio da UEFI, atualizar a BIOS e, em breve, você verá a abundância de utilitários que ajudam a solucionar problemas do sistema sem entrar em um sistema operacional. Integração com aplicativos. Atualmente, a UEFI tem o tamanho ROM expandido para acomodar testes de memória simples, backups do HD e suporte a flash da BIOS. Com o passar do tempo, também haverá maior integração, por meio de serviços e aplicativos baseados na Web que podem proporcionar uma experiência geral de computação. A integração pré-SO não é novidade, mas a UEFI pretende oferecê-la com uma aparência mais interessante e fornecer todos os tipos de recursos administrativos adicionais. A UEFI Abre Caminho para Capacidades de Boot Imediato. Já não é hora de podermos ligar o computador e chegar à área de trabalho em menos de dez segundos? Em breve isso será possível com a UEFI e discos SSD. Como a BIOS tem de passar por um árduo processo de inicialização, a UEFI foi projetada para oferecer suporte um número muito maior de periféricos e dispositivos, podendo carregá-los muito mais rápido. O Windows 8 foi projetado para UEFI. A Microsoft realizou recentemente sua conferência BUILD, na qual detalhou os benefícios de seu próximo sistema operacional com UEFI. Alguns boatos dão conta de que o Windows 8 sequer pode rodar em sistemas não-UEFI! Embora ainda seja muito cedo para ter certeza, essa certamente será direção dos futuros sistemas operacionais e estará na vanguarda de outras futuras iterações. Nós mencionamos anteriormente que o setor precisa se concentrar na eliminação de todas as barreiras de entrada para que os usuários novatos aproveitem a tecnologia de próxima geração. Esse é mais um grande passo para obtermos componentes nos mesmos padrões de design definidos por seus concorrentes móveis. As funcionalidades e as formas também devem ser reforçadas, com uma interface mais elegante e intuitiva como maneira de manter a relevância, e a arquitetura UEFI ajuda significativamente nisso. Ao observar todas as deficiências da BIOS, é natural que a UEFI tenha sido projetada para resolver os principais problemas. E o mais importante: a UEFI ajudará a conduzir os PCs para uma nova era da computação, mesmo na era “pós-PC”.
  4. A era da Internet está atingindo a aurora de um novo tempo, onde tudo pode ser acessado para além das limitações físicas do seu computador. A Internet atual oferece muitos serviços prontos para fornecer conteúdo de maneira instantânea. Ao investigar como todos esses serviços são hospedados, você descobrirá que sempre há alguma menção à “nuvem”. Na verdade, ao observar muitos dos serviços nos dias de hoje, você perceberá que a "nuvem" desempenha um papel importante no fornecimento de conteúdo a uma ampla gama de pessoas. A característica mais importante entre aquelas que beneficiam os usuários finais é que todo o conteúdo é sincronizado em conjunto em múltiplas plataformas – seja no PC, telefone celular ou tablet. No entanto, por mais emocionante que tudo isso possa ser, essa “nuvem” não é exatamente nova; trata-se de mais um chavão para reacender o interesse na tecnologia existente. Outro chavão popular usado no reino da computação, ainda que desatualizado, é “virtualização”. O termo se referia originalmente ao uso de uma máquina virtual, onde o software host criaria uma experiência de computador simulado que poderia ser acessado ​​remotamente, utilizando os recursos de outro sistema. Esse esquema foi usado pela primeira vez pela IBM para aproveitar os sistemas de grande porte que projetavam na década de 1960. Ao dividir os recursos em máquinas virtuais lógicas individuais, era possível executar vários aplicativos ao mesmo tempo e maximizar a eficiência. Eventualmente, esse uso eficiente de recursos levou ao formato “cliente/servidor”, que prevaleceu em muitos aplicativos na década de 1990, no qual um sistema centralizado armazenava dados importantes em um ambiente muito organizado e seguro. Tornou-se prática comum para as empresas integrar essa tecnologia a suas infraestruturas. Um exemplo mais moderno de virtualização seria o recurso de Acesso Remoto no Windows XP, onde uma pessoa pode controlar seu PC de outro local para ajudar a solucionar problemas. No entanto, houve uma perda significativa de desempenho no lado de acesso remoto, ao mesmo tempo em que as falhas de segurança proporcionaram potenciais sequestros hostis de PC por vírus e outros malwares. A virtualização ainda ocupa um espaço no mundo da informática, mas a computação em nuvem está se apropriando de todos os seus principais benefícios e oferecendo-os em um modelo de fornecimento baseado na Internet que é muito mais robusto e facilita muito mais as coisas para os usuários. Um estudo de mercado recente mostrou que cerca de 22% dos consumidores norte-americanos conhecem o termo “computação em nuvem”, mas 76% dessas mesmas pessoas usavam serviços que se promovem ativamente como parte da nuvem. Quais são os aplicativos que essas pessoas usam? Para começar, serviços de email baseados na Web como o Hotmail, o Yahoo! e o Gmail. Serviços de email baseados na Web existem há bastante tempo e foram uma das primeiras formas de computação em nuvem prontamente disponíveis – todo o conteúdo é armazenado fora do seu computador e é acessível em qualquer lugar. Os aplicativos de computação em nuvem são hospedados em servidores que qualquer pessoa pode acessar remotamente. Esses servidores são dedicados ao aplicativo específico e são mantidos e atualizados sem a necessidade de configurações no lado do cliente. O cliente acessa uma interface básica no front-end enquanto a nuvem (ou servidor) executa todos os softwares no back-end. O servidor pode administrar permissões ou conjuntos de regras (protocolos) com base no cliente. Isso desempenha um papel importante em serviços baseados em assinatura e em como as diferentes contas são manipuladas. Computadores e smartphones tornaram-se uma necessidade para as empresas e, agora, os dados podem ser compartilhados e sincronizados para se obter uma melhor organização. Os funcionários não precisam mais instalar componentes individuais – eles podem fazer login em um servidor e acessar todos os seus emails, aplicativos e dados de qualquer local. O Google Docs também é uma forma popular e em crescimento de computação em nuvem, pois não é necessário instalar softwares em seu computador e os dados são perfeitamente sincronizados com celulares Android. Mesmo as opções de entretenimento se beneficiam dessa nova integração. Você pode carregar e transmitir seus filmes e programas de TV favoritos do Hulu ou Netflix sem a necessidade de seguir um cronograma de programação, mas, diferente de um gravador de vídeo digital, você também pode assisti-los de qualquer dispositivo móvel. Novos serviços de música como o Google Music, o Spotify e o Turntable.fm oferecem aos usuários uma nova maneira de acessar bibliotecas e criar seus próprios canais de rádio personalizados para compartilhar em mídias sociais. As possibilidades são infinitas; serviços adicionais surgem constantemente para tirar proveito de todo o estardalhaço em torno da "nuvem". Uma das maiores críticas a alguns serviços pagos de computação em nuvem é que os dados não são realmente de propriedade do usuário, mas sim alugados e acessados com base no status de assinante nos servidores host. Nem todos os serviços são gratuitos e os modelos de preços são necessários para facilitar os custos associados com hospedagem offsite, o que, por sua vez, sincroniza os dados com muito mais eficácia. Levando em consideração o efeito que a pirataria teve sobre o setor do entretenimento, a computação em nuvem parece ser uma maneira infalível de manter conteúdo acessível sem as dores de cabeça do gerenciamento de direitos digitais, que assolou as tentativas anteriores de evitar a pirataria. Dependendo do seu posicionamento quanto a questões de segurança, talvez você não goste que o seu conteúdo seja potencialmente monitorado e acompanhado. E, ainda mais importante, potenciais abusos ou explorações do sistema também deixam o conteúdo vulnerável a bloqueios – ou pior, roubos –, o que torna muito inconveniente para os clientes acessar dados pelos quais pagaram de maneira legítima. Além disso, os serviços de Internet precisam ser rápidos e estáveis o suficiente para fornecer esse conteúdo aos usuários – algo ainda indisponível em muitas partes do mundo (incluindo zonas rurais dos EUA). A maior desvantagem pode ser o preço desses serviços. Grandes corporações tendem a se beneficiar dessa estrutura, porque podem pagar o quanto for necessário para acomodar sua infraestrutura. Os usuários finais podem se sentir um pouco abandonados, porque pagam taxas de assinatura padrão que poderiam ultrapassar seu modelo de uso, mas, com o surgimento de uma grande variedade de opções de pagamento e serviços, a longo prazo isso pode deixar de ser um problema. Não fique apreensivo: a computação em nuvem é uma embalagem nova em folha para serviços baseados na Web que já estão disponíveis há algum tempo. A verdadeira razão pela qual as empresas se escondem por trás do chavão é que, embora a tecnologia seja fascinante e nos proporcione uma nova maneira de aproveitar todo nosso conteúdo, ela também tem sido usada como uma maneira para os criadores de conteúdo gerenciarem melhor sua propriedade intelectual. No entanto, não deixe que isso o impeça de tirar proveito dos serviços reais que estão sendo comercializados. Aproveitar novo conteúdo instantaneamente é o futuro da tecnologia e dará início a novas formas de experiências mais personalizadas.
  5. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: A Arte da Escovação de Bits "Conforme o mercado de PCs desktop apresenta lançamentos de novos produtos e um foco mais intenso nos recursos, este editorial analisa o mercado dos entusiastas de PC e as maneiras pelas quais os fabricantes tentam abrir as portas a uma nova geração." Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  6. O overclocking sempre foi uma espécie de tabu para a maioria dos usuários – seja por conta da anulação da garantia, do excesso de trabalho dos componentes (que pode danificá-los se feito incorretamente) ou simplesmente do ruído e do calor. Além disso, o overclocking também exige certa habilidade técnica; ajustar as frequências, as relações, as tensões e os timings de memória do clock do processador e do processador gráfico é um processo demorado e, em alguns casos, entediante. A prática já existe há quase 20 anos e, embora tenha havido um crescimento significativo no passado, uma grande quantidade de produtos de consumo atraentes ameaça tirá-la do caminho das novas gerações. Felizmente, os PCs desktop terão um futuro previsível e a bolha dos usuários de tecnologia proporciona continuamente material e produtos frescos para estimulá-los. Agora, mais do que nunca, as placas-mãe e as placas gráficas têm se adaptado às necessidades dos usuários avançados, oferecido qualidade superior de projeto e aumentado os conjuntos de recursos para ajudar a obter o máximo dos sistemas. Ainda assim, de que servem todas estas características se a curva de aprendizagem for muito íngreme? Assim como o número de opções de overclocking aumentou ao longo do tempo, mais sites e fóruns surgiram nos últimos anos para ajudar os usuários a entenderem todos os detalhes e configurações disponíveis nas tecnologias da nova geração. Você não sabe o que é um VDROOP? Use um mecanismo de busca (ou pergunte aqui!) e vários sites estarão prontos não só para oferecer informações detalhadas sobre sua função, mas também dados detalhados de engenharia elétrica para que você compreenda plenamente seus benefícios. É uma comunidade em constante evolução, que se empolga com a ideia de ter novas plataformas e produtos para dissecar e compreender totalmente. Os adeptos do overclocking também adotaram uma competitividade elitista, semelhante à forma como a maioria dos entusiastas de carros tratam as corridas de arrancada: com torneios mundiais onde os melhores dos melhores se enfrentam para ganhar milhares de dólares em prêmios em dinheiro e em viagens ao redor do mundo. Esses eventos são ainda transmitidos como os grandes eventos de corrida, como demonstrado recentemente pelo Master Overclocking Arena 2011 da MSI, em Las Vegas - adequadamente realizado em uma pista de corrida indoor. E o mais importante: qualquer pessoa pode participar dessas competições e, com o hardware e o conhecimento certos, podem criar uma reputação entre seus pares. Por sua vez, isso faz com que os fabricantes desafiem os limites da engenharia para oferecer qualquer capacidade adicional às boas graças dos usuários. Os adeptos do overclocking não são somente extremamente bem informados, como também são uma voz muito importante para o setor em geral. Quando um entusiasta monta um PC para um amigo ou membro da família, ele certamente escolherá o produto que acredita que não só oferece o melhor valor, mas também tem um bom desempenho. Conquistar este segmento entusiasta significa, para qualquer empresa, obter benefícios para toda a linha de produtos. Essa situação desempenha um papel muito importante em todas as estratégias de marketing e, portanto, é uma das principais razões por que tantos produtos se concentram nos benefícios de overclocking. Em um esforço para aumentar e crescer neste influente segmento de entusiastas, que atualmente constitui cerca de 5% da participação no Mercado de acordo com as discussões mais internas, era necessário haver uma maneira de oferecer um meio rápido e fácil de aproveitar os benefícios do overclocking sem sobrecarregar o consumidor comum. A resposta tem sido uma infinidade de ótimas opções de alterações para que qualquer pessoa possa tirar o máximo do seu sistema de PC: overclocking em um toque, expansão BIOS UEFI (para obter uma abordagem gráfica facilitadora para uma pilha de PCs antigos), e até mesmo overclocking sem fio a partir do celular ou tablet. Esta abordagem de "fator uau" é uma forma essencial de apresentar toda uma nova geração de usuários ao mundo e à mente de um entusiasta, usando rodinhas de treinamento para que possam começar a trilhar o caminho para se tornar um usuário avançado e libertar todo o potencial do que pode ser feito em um PC, diferente de qualquer outro produto eletrônico. Combinado com a ajuda de guias e fóruns (como o nosso Clube do Hardware), ela oferece a possibilidade de aumentar os 5% e, em última análise, ajudar a estimular os novos cursos da inovação. Depois do enorme sucesso da Apple, os fabricantes de componentes têm direcionado a maior parte do foco e da atenção do seu marketing nos produtos completos de sistema, como tablets, notebooks, PCs de tela sensível ao toque e outros dispositivos móveis. Isso tira muita da ênfase dos produtos principais (placas-mãe e placas gráficas) e leva a uma falta de inovação, em parte devido a todo o rebuliço e emoção que permeia esses produtos completos em oposição às características individuais de produtos componentes. De um ponto de vista empresarial, faz muito mais sentido, pois os consumidores não querem enfrentar a complexidade das novas tecnologias e passar mais tempo aprendendo todos os recursos avançados para obter o melhor valor do produto. Oferecer um caminho gradual de progresso proporciona um incentivo para passar mais tempo com o produto sem se sentir sobrecarregado. Agora é momento de dar um passo para trás e perceber que, se o setor pode ser mais aberto e amigável para os iniciantes, o mercado como um todo pode aumentar, e todos nós podemos ajudar a inaugurar uma nova geração de entusiastas. Por sua vez, isso leva as empresas a considerarem ideias inovadoras dedicadas a esse segmento como uma boa decisão. A indústria de componentes de computador é definitivamente muito competitiva, lutando pelos usuários avançados que influenciam fortemente a compra dentro de seus grupos pessoais e nas empresas para as quais trabalham. No entanto, essa batalha constante antes disputava uma base de clientes cada vez menor, conforme os produtos eletrônicos se aproximavam do que os computadores montados faziam de maneira exclusiva. Simplificar o overclocking é um passo que precisa acontecer para que nós realmente recuperemos a magia que ajudou a nos moldar como os entusiastas de PC que somos hoje. Houve um grande impulso desde a introdução do overclocking há quase 20 anos em termos de desempenho e complexidade, por isso é definitivamente do nosso interesse continuar a tentar sustentar, e até mesmo fazer crescer, esse segmento importante para o nosso setor. Como entusiasta, que tipo de recursos ou tecnologias você gostaria que fossem adicionados aos componentes que também seriam adotados pelo consumidor comum? Compartilhe suas ideias na seção de comentários!
  7. A AMD lançou recentemente uma nova linha de chipsets, a série 900. Neste editorial nós falaremos sobre o modelo mais topo de linha desta série, o 990FX. Como um leitor do Clube do Hardware, você sabe que a gente tenta descomplicar as coisas, e por isso antes de continuar a leitura deste editorial você deve se familiarizar com alguns termos para não ficar confuso. “Bulldozer” se refere à nova arquitetura de processadores da AMD. É o nome mais popular para a nova geração de processadores da AMD, voltada ao desempenho e escalabilidade (isto é, vários núcleos). Ela foi construída a partir do zero e, por isso, você deverá ver esta arquitetura sendo usada por vários anos. O foco principal é no desempenho voltado a threads (processos) – competindo diretamente com a tecnologia Hyper-Threading (que tem sido um fator significativo para o domínio da Intel no mercado de processadores com vários núcleos). Os primeiros processadores baseados na arquitetura Bulldozer serão chamados “Zambezi” e serão destinados ao mercado de micros de mesa topo de linha. AMD lançará modelos de oito núcleos (FX8000), modelos de seis núcleos (FX6000) e modelos de quatro núcleos (FX4000). Os processadores de oito núcleos serão 50% mais rápidos do que os atuais processadores Phenom II em aplicações multimídia. Esperamos ter esclarecido um pouco sobre a plataforma. Continue lendo! A AMD tem um ano muito interessante pela frente. Em resposta ao sucesso dos processadores Sandy Bridge da Intel, eles pretendem contra-atacar com os futuros processadores Llano, que vêm com gráfico integrado e estão posicionados como uma plataforma superior para computadores voltados ao usuário médio – em geral, onde a relação custo/benefício entra em jogo – e a AMD se posiciona como uma opção viável. No entanto, os usuários entusiastas da AMD têm aguardado pacientemente pela a linha de processadores Bulldozer, que tem sofrido inúmeros atrasos e realmente perdeu uma grande oportunidade de roubar mercado da Intel durante o problema em seu chipset Cougar Point (P67/H67Q67). A Intel domina no mercado há muito tempo e precisa de alguma competição saudável. Embora ainda não exista uma data concreta para o lançamento oficial dos processadores Bulldozer, os fabricantes de placa-mãe têm mantido a programação e lançado modelos que suportam não apenas os futuros processadores Bulldozer soquete AM3+, mas também os atuais processadores soquete AM3. Esta é uma grande oportunidade para os fãs da AMD se prepararem para os tão aguardados processadores Bulldozer e um caminho de atualização fácil para os atuais clientes. Mas e os novos clientes? Faz sentido comprar uma placa-mãe baseada no chipset 990FX e um atual processador Phenom II soquete AM3? O chipset 990FX compartilha a mesma pastilha de silício do chipset 890FX, e por isso não há grandes modificações. Até mesmo o chip ponte sul SB950 usado com o chipset 990FX é um SB850 com outro nome. Inicialmente, havia esperanças de que o chipset 990FX e o chip ponte sul SB950 tivessem alguns acréscimos importantes: suporte nativo às portas USB 3.0, núcleo menor, mais pistas PCI Express – mas esses recursos não foram adicionados. Pelo contrário, as principais características do 990FX são o suporte para os processadores de oito núcleos e o suporte para o barramento HyperTransport 3.1 com taxa de transferência de até 6.4 GT/s (contra 5.2 GT/s no barramento HyperTransport 3.0 do chipset 890FX). Você também pode ter notado que muitas informações divulgadas na internet diziam que o chipset 890FX suportaria os processadores soquete AM3+ e que os clientes tinham sido agraciados com vida extra para os seus atuais processadores. Então, qual é a razão do 990FX? O 990FX foi lançado com o objetivo de facilitar a identificação de placas-mãe compatíveis com os futuros processadores Zambezi soquete AM3+. A AMD também compartilha a ideia de que os chipsets da série 900 são a escolha para os processadores Bulldozer. Isso é importante dar aos usuários uma opção clara sobre qual é a melhor escolha para a plataforma de uma nova geração. Embora possa haver casos onde é mais indicada a utilização do 890FX, os fabricantes de placas-mãe têm confeitado o bolo, incluindo suas próprias características, como componentes de melhor qualidade, BIOS UEFI e tecnologias de overclock melhores sem ter que usar chipsets mais antigos. Mais ainda, eles já licenciaram uma tecnologia que tem feito muita falta na plataforma AMD e que oferece um grande incentivo para os entusiastas considerarem o 990FX agora. Nos últimos dois anos, se você quisesse fazer qualquer tipo de configuração com várias placas de vídeo, você só tinha uma opção: CrossFireX. Agora, a NVIDIA finalmente permitiu que o modo SLI fosse usado novamente na plataforma da AMD com a introdução do 990FX. Uma combinação antiga voltou e foi recebida com os braços abertos. Se você voltar alguns anos, verá que os entusiastas em jogos adoravam a combinação de processadores AMD com placas de vídeo NVIDIA, por causa do preço. Quando a AMD comprou a ATI, houve (o que parecia) uma reação automática para bloquear o modo SLI nos chipsets AMD. Isso deu à Intel uma importante vantagem competitiva no reino dos entusiastas por ter mais opções para suporte a múltiplos chips gráficos, já que as principais tecnologias da NVIDIA estavam sendo fortemente comercializadas para os usuários finais (como 3DVision Surround, PhysX e CUDA). Nesse ínterim, tecnologias como a HYDRALogix da Lucid foram lançadas e realmente chamaram a atenção por permitir que múltiplas placas de vídeo da NVIDIA rodassem nos chipsets AMD mais novos, mas o desempenho e compatibilidade ainda estava atrás do nível dos formatos suportados oficialmente. Fora isso, você precisaria voltar ao antigo chipset 980A que não tinha todas as novas tecnologias (USB 3.0 e SATA-600) e foi limitado em estoque (a NVIDIA já não fabricava mais chipsets). Naturalmente, este chipset não suportaria os novos processadores soquete AM3+, assim parece que a voz do usuário final e da mídia finalmente irrompeu. É bom ver que a opção está disponível para os leais à NVIDIA poderem economizar algum dinheiro no processador, mantendo os principais benefícios que eles querem com suas placas de vídeo. Considerando que somos usuários de PCs e que a capacidade de escolhermos as peças que iremos instalar é um dos seus grandes aspectos, então isso é sempre uma grande vantagem. O AMD 990FX é um pouco incerto para a maioria das pessoas, mas ele tem os principais benefícios para certos usuários entusiastas. Normalmente, o lançamento de um novo chipset dependente do lançamento de um novo processador para a sua utilização, mas o 990FX oferece compatibilidade retroativa para facilitar o caminho de atualização. Se você atualmente é um usuário do AMD Phenom II já comprometido em comprar um processador Bulldozer para usar o modo SLI em suas placas de vídeo, o 990FX é a opção certa para você. Tenha em mente que não haverá lançamento de nenhuma nova geração de chips gráficos até o final do ano, por isso a atual geração de placas de vídeo compatíveis com o modo SLI vai ficar no mercado por um tempo. No entanto, é uma espécie de beco sem saída para os usuários que não têm micros baseados na plataforma AM3. A maioria das pessoas não vai querer comprar dois processadores no mesmo ano. Essencialmente, se você atualmente não é um usuário AMD (seja reparando o micro principal ou querendo mudar da plataforma da Intel) é melhor aguardar até que o processador seja lançado. Em qualquer caso, você pode ter certeza de que os preços serão competitivos e fornecerá a você outra opção sólida para o seu próximo computador.
  8. Os processadores baseados na arquitetura Sandy Bridge da Intel deram um fôlego à indústria de computadores por serem dispositivos rápidos e inteligentes capazes de atrair usuários comuns, condensando e simplificando um monte de opções. A maior barreira para a entrada no reino dos PCs tem sido o problema da complexidade, e isso foi definitivamente um passo na direção certa. No entanto, isso não foi algo que deixou todo mundo feliz, já que muitos entusiastas não gostaram da forma como a Intel limitou a capacidade de overclock, ao permitir que apenas os processadores da série K tivessem o seu clock modificado, e mesmo assim, foram limitados a opções muito básicas. (Minha opinião é que a Intel tornou o overclock uma prática acessível para um público mais amplo – e esta é uma boa notícia para aqueles na indústria de placas-mãe, já que nós podemos abranger um maior número de pessoas e apresentar aos entusiastas opções em um processo de “avanço” que nos mantém no negócio. Este será o assunto do meu próximo editorial.) A mudança mais notável nos processadores da Intel foi a integração de um chip gráfico, eliminando a necessidade, para alguns usuários, de comprar uma placa de vídeo separada. Ao contrário do vídeo integrado das placas-mãe, o chip gráfico integrado nos processadores baseados na arquitetura Sandy Bridge da Intel são realmente bons (equivalente a série Radeon 5xxx) e oferecem alguns benefícios práticos para a maioria dos usuários, tais como reprodução em alta definição otimizada, transcodificação e a capacidade de rodar jogos simples. Esperamos que todos os processadores daqui para frente tenham vídeo integrado para eliminar completamente o segmento de placas de vídeo de entrada (e ser uma ameaça concreta à linha de produtos inferiores de algumas empresas!). A única limitação é que você não pode usar este recurso com placas-mãe P6x topo de linha, somente com placas H6x, que são tipicamente intermediárias, na melhor das hipóteses. Genericamente falando, isto faz sentido, já que um entusiasta prefere usar uma placa de vídeo separada para maior desempenho, enquanto placas-mãe H6x microATX permitem um pouco mais de flexibilidade. Quando a Intel anunciou o chipset Z68, eu me lembro ter ficado extremamente confuso sobre o objetivo da plataforma e porque alguém precisaria usar o chip gráfico integrado e uma placa de vídeo separada – especialmente após todos os testes terem mostrado que eles não poderiam chavear entre si. O Z68 era essencialmente um chipset “destravado” que oferece os benefícios tanto das placas P67 quanto das placas H67 – mas eu não sabia que eles tinham uma carta na manga. A LucidLogix (empresa conhecida por sua tecnologia HYDRA) recentemente anunciou o VIRTU, uma tecnologia que permite chaveamento entre o chip gráfico integrado e uma placa de vídeo separada (baseado no que você está fazendo). Eu adorei esta ideia desde que ela foi introduzida nos notebooks pela NVIDIA, com a tecnologia Optimus. Ela permite ao notebook gerar menos calor e economizar bateria ao dinamicamente chavear entre o chip gráfico integrado e uma placa de vídeo separada para oferecer o melhor equilíbrio. Agora, eu não sei você caro leitor, mas meu micro é poderoso, porém esquenta muito. Eu não quero que minha GTX 480 atue como um aquecedor para o meu quarto, portanto eu adorei ver este recurso disponível para usuários de micros de mesa. Parece uma solução lógica, não? Bem, parece que teremos isto nas novas placas-mãe baseadas no chipset Intel Z68 que começam a chegar ao mercado. Portanto isto responde minha preocupação a respeito do objetivo do Z68 (ou melhor, porque se preocupar com o P67 quando o Z68 é mais completo) – mas os benefícios deste novo chip não param aqui. Eu me peguei fazendo a pergunta acima, em vão, para muitas pessoas na primeira vez que comecei a pesquisar sobre o Z68. Eu assumi só pelo nome que este recurso significava que placas-mãe Z68 se beneficiariam mais de ter uma unidade SSD do que um disco rígido tradicional. Eu estava 50% certo; mas você precisa de uma unidade SSD (para disco de boot) e um disco rígido tradicional para armazenar os seus dados. O cache SSD é chamado pela Intel de Smart Response Technology (SRT). Funciona da seguinte forma: os aplicativos usados com mais frequência são copiados e acessados a partir da unidade SSD, o que aumenta o desempenho em até quatro vezes em relação aos discos rígidos tradicionais. Deixe-me explicar melhor. O micro copiará os aplicativos mais usados do disco rígido para a unidade SSD para que eles sejam carregados mais rapidamente. A tecnologia SRT monitora quais programas são utilizados e os prioriza. Isto funciona para jogos, Photoshop ou qualquer outro programa que acessa muitos arquivos do disco rígido em um curto período de tempo. Portanto, utilizar esta configuração híbrida com SRT é a definição mais próxima de “overclock” do disco rígido. Devido a limitações do tamanho das unidades SSDs, e a maioria das pessoas já utiliza a configuração SSD+disco rígido, esta tecnologia torna as coisas ainda melhores. Nota: Se você não percebeu diferença em usar uma unidade SSD como disco de boot, eu recomendo que você invista em um modelo de 64 GB e o utilize em combinação com outros discos rígidos de dados. É velocidade é muito superior e é o melhor upgrade que você verá em longo prazo. Eu trabalho para um fabricante de placas-mãe e aprendi que não há razão para tentar persuadir alguém que é fã da marca X a mudar para a marca Y. Tudo o que eu quero que as pessoas façam é uma pesquisa com a mente aberta e comprem o que é melhor para elas – nem todo mundo precisa gastar US$ 200 (nos EUA) em uma placa-mãe, mas todos os recursos desta aquisição devem ser úteis para você e valer a pena! Dito isso, sempre procure nas especificações por aquilo que você irá usar – e no caso das placas-mãe Z68 procure por saídas de vídeo (para a tecnologia VIRTU). A placa que você está comprando tem as saídas corretas? Nós vimos algumas placas-mãe Z68 de concorrentes que não têm nenhuma saída de vídeo em seus produtos topo de linha, o que não apenas diminui o valor da plataforma, como também causa confusão para o usuário final. Você lerá testes do chipset, sairá para comprar uma placa intermediária ou topo de linha, para então descobrir que não poderá usufruir das novas tecnologias que foram anunciadas – é realmente frustrante! Portanto, verifique as especificações e pesquise os recursos (e quais são incluídos!). Como o desempenho não é um fator preponderante entre placas individuais, no final o que importa são os recursos que você se beneficiará.

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...