Ir ao conteúdo

Rajiv Khotari

Membro VIP
  • Posts

    6
  • Cadastrado em

  • Última visita

    Nunca

Tudo que Rajiv Khotari postou

  1. Este artigo investiga a nova arquitetura UEFI e porque ela é muito mais importante para o mundo da computação do que você imagina. O hardware dos computadores evoluiu bastante nas últimas décadas. As placas gráficas e de áudio oferecem gráficos cheios de vida e som com qualidade de cinema, HDs com terabytes e mais terabytes estão sendo combinados com unidades SSD extremamente rápidas para oferecer armazenamento ilimitado ao usuário comum, ao mesmo tempo que grandes quantidades de RAM e processadores fornecem seis (em breve oito) núcleos para fornecer incríveis capacidades multitarefa. Reunindo tudo o que o hardware apresenta, está a placa-mãe, a espinha dorsal do seu sistema. O hardware da placa-mãe alcançou novos níveis de qualidade, com componentes de melhor categoria (atingindo até mesmo certificações especiais) que proporcionam longevidade e estabilidade. Há também todo tipo de conectividade à prova do futuro disponível, como o USB 3.0, a SATA-600 e agora o PCI Express 3.0. No entanto, há uma parte da placa-mãe que tem sido o componente principal há muito tempo e só recentemente começou a ser atualizado. A BIOS, uma arquitetura de três décadas de idade que atua como ponto de partida do seu sistema de PC como um todo. Como pode ser observado em vários testes de placas-mãe, alguns fabricantes têm adotado uma nova BIOS “UEFI” (Extensible Firmware Interface Universal) para substituir o atual, mas o que parece ser ignorado por muitas pessoas é o quão importante esse recurso realmente é e como ele beneficia todo o campo da computação. A BIOS (Basic Input/Output System) é o primeiro software a ser executado quando o PC é ligado. A função da BIOS se concentra principalmente na configuração do hardware de inicialização e na identificação de periféricos. Mais recentemente, as atualizações da BIOS têm permitido código atualizado seja gravado nos chips de hardware para oferecer suporte a novos processadores e periféricos que antes não eram detectáveis. Isso beneficia os usuários ao manter atualizado o hardware existente e oferecer suporte a novos padrões de codificação ou métodos de detecção. A maior característica da BIOS é a capacidade de manipular e alterar as principais configurações do sistema para atender a necessidades individuais. Foi assim também que o overclocking viu seu nascimento. Ao ajustar os computadores para taxas de clock mais altas do que as predefinições de fábrica, os usuários puderam forçar o sistema a atingir um novo patamar e obter um aumento significativo de desempenho. Os entusiastas começaram a perseguir os fabricantes de placas-mãe que ofereciam tantos recursos avançados quanto possível para overclocking, como por exemplo ajustes de tensão (o que poderia comprometer a estabilidade do sistema). Isto fez com que a BIOS se tornasse uma ferramenta bastante comercial ​​e um importante diferencial entre o que as placas mais sofisticadas poderiam fazer em relação às suas concorrentes mais baratas. No entanto, a BIOS está chegando aos 30 anos e o desgaste começa a ser perceptível. Para início de conversa, ela apresenta somente 1.024 KB de espaço de execução. Isso é extremamente limitante em um mundo onde gigabits de dados são transferidos ao mesmo tempo e a tendência é ficar ainda mais rápido, com os dispositivos e a conectividade de próxima geração. Há problemas também na inicialização de dispositivos. A abundância de periféricos e controladores onboard torna o processo de inicialização mais demorado por causa do espaço limitado de instruções e da falta de otimização. Em uma escala maior, a segurança tem sido um grande problema no mundo da computação e a BIOS é um dos grandes culpados em termos de gestão e segurança de sistemas. Antes de inicializar o sistema operacional, não medidas internas de solução de problemas ou de segurança aprofundada. A BIOS só fornece a funcionalidade básica de senha que exige a instalação de softwares adicionais para monitorar e proteger os PCs remotamente. Estas questões fundamentais têm sido negligenciadas em favor de outras tecnologias, e é chegado o momento de abordá-las. Oferecer suporte para discos rígidos com mais de 2.2 TB e finalmente poder usar o mouse com uma GUI (interface gráfica do usuário) são os benefícios mais alardeados que você ouvir sobre a UEFI, pois qualquer usuário pode compreendê-los. Estes são outros benefícios importantes obtidos ao usar a UEFI: A UEFI apresenta funcionalidades semelhantes às dos sistemas operacionais. Por quase 30 anos, você teria de examinar um sistema de menus feio e arcaico que intimidava qualquer pessoa que não fosse um usuário avançado. A UEFI oferece um menu mais inovador e esteticamente agradável, que proporciona uma abordagem mais organizada para configurar o sistema. É possível até mesmo acessar a Web e emails por meio da UEFI, atualizar a BIOS e, em breve, você verá a abundância de utilitários que ajudam a solucionar problemas do sistema sem entrar em um sistema operacional. Integração com aplicativos. Atualmente, a UEFI tem o tamanho ROM expandido para acomodar testes de memória simples, backups do HD e suporte a flash da BIOS. Com o passar do tempo, também haverá maior integração, por meio de serviços e aplicativos baseados na Web que podem proporcionar uma experiência geral de computação. A integração pré-SO não é novidade, mas a UEFI pretende oferecê-la com uma aparência mais interessante e fornecer todos os tipos de recursos administrativos adicionais. A UEFI Abre Caminho para Capacidades de Boot Imediato. Já não é hora de podermos ligar o computador e chegar à área de trabalho em menos de dez segundos? Em breve isso será possível com a UEFI e discos SSD. Como a BIOS tem de passar por um árduo processo de inicialização, a UEFI foi projetada para oferecer suporte um número muito maior de periféricos e dispositivos, podendo carregá-los muito mais rápido. O Windows 8 foi projetado para UEFI. A Microsoft realizou recentemente sua conferência BUILD, na qual detalhou os benefícios de seu próximo sistema operacional com UEFI. Alguns boatos dão conta de que o Windows 8 sequer pode rodar em sistemas não-UEFI! Embora ainda seja muito cedo para ter certeza, essa certamente será direção dos futuros sistemas operacionais e estará na vanguarda de outras futuras iterações. Nós mencionamos anteriormente que o setor precisa se concentrar na eliminação de todas as barreiras de entrada para que os usuários novatos aproveitem a tecnologia de próxima geração. Esse é mais um grande passo para obtermos componentes nos mesmos padrões de design definidos por seus concorrentes móveis. As funcionalidades e as formas também devem ser reforçadas, com uma interface mais elegante e intuitiva como maneira de manter a relevância, e a arquitetura UEFI ajuda significativamente nisso. Ao observar todas as deficiências da BIOS, é natural que a UEFI tenha sido projetada para resolver os principais problemas. E o mais importante: a UEFI ajudará a conduzir os PCs para uma nova era da computação, mesmo na era “pós-PC”.
  2. A era da Internet está atingindo a aurora de um novo tempo, onde tudo pode ser acessado para além das limitações físicas do seu computador. A Internet atual oferece muitos serviços prontos para fornecer conteúdo de maneira instantânea. Ao investigar como todos esses serviços são hospedados, você descobrirá que sempre há alguma menção à “nuvem”. Na verdade, ao observar muitos dos serviços nos dias de hoje, você perceberá que a "nuvem" desempenha um papel importante no fornecimento de conteúdo a uma ampla gama de pessoas. A característica mais importante entre aquelas que beneficiam os usuários finais é que todo o conteúdo é sincronizado em conjunto em múltiplas plataformas – seja no PC, telefone celular ou tablet. No entanto, por mais emocionante que tudo isso possa ser, essa “nuvem” não é exatamente nova; trata-se de mais um chavão para reacender o interesse na tecnologia existente. Outro chavão popular usado no reino da computação, ainda que desatualizado, é “virtualização”. O termo se referia originalmente ao uso de uma máquina virtual, onde o software host criaria uma experiência de computador simulado que poderia ser acessado ​​remotamente, utilizando os recursos de outro sistema. Esse esquema foi usado pela primeira vez pela IBM para aproveitar os sistemas de grande porte que projetavam na década de 1960. Ao dividir os recursos em máquinas virtuais lógicas individuais, era possível executar vários aplicativos ao mesmo tempo e maximizar a eficiência. Eventualmente, esse uso eficiente de recursos levou ao formato “cliente/servidor”, que prevaleceu em muitos aplicativos na década de 1990, no qual um sistema centralizado armazenava dados importantes em um ambiente muito organizado e seguro. Tornou-se prática comum para as empresas integrar essa tecnologia a suas infraestruturas. Um exemplo mais moderno de virtualização seria o recurso de Acesso Remoto no Windows XP, onde uma pessoa pode controlar seu PC de outro local para ajudar a solucionar problemas. No entanto, houve uma perda significativa de desempenho no lado de acesso remoto, ao mesmo tempo em que as falhas de segurança proporcionaram potenciais sequestros hostis de PC por vírus e outros malwares. A virtualização ainda ocupa um espaço no mundo da informática, mas a computação em nuvem está se apropriando de todos os seus principais benefícios e oferecendo-os em um modelo de fornecimento baseado na Internet que é muito mais robusto e facilita muito mais as coisas para os usuários. Um estudo de mercado recente mostrou que cerca de 22% dos consumidores norte-americanos conhecem o termo “computação em nuvem”, mas 76% dessas mesmas pessoas usavam serviços que se promovem ativamente como parte da nuvem. Quais são os aplicativos que essas pessoas usam? Para começar, serviços de email baseados na Web como o Hotmail, o Yahoo! e o Gmail. Serviços de email baseados na Web existem há bastante tempo e foram uma das primeiras formas de computação em nuvem prontamente disponíveis – todo o conteúdo é armazenado fora do seu computador e é acessível em qualquer lugar. Os aplicativos de computação em nuvem são hospedados em servidores que qualquer pessoa pode acessar remotamente. Esses servidores são dedicados ao aplicativo específico e são mantidos e atualizados sem a necessidade de configurações no lado do cliente. O cliente acessa uma interface básica no front-end enquanto a nuvem (ou servidor) executa todos os softwares no back-end. O servidor pode administrar permissões ou conjuntos de regras (protocolos) com base no cliente. Isso desempenha um papel importante em serviços baseados em assinatura e em como as diferentes contas são manipuladas. Computadores e smartphones tornaram-se uma necessidade para as empresas e, agora, os dados podem ser compartilhados e sincronizados para se obter uma melhor organização. Os funcionários não precisam mais instalar componentes individuais – eles podem fazer login em um servidor e acessar todos os seus emails, aplicativos e dados de qualquer local. O Google Docs também é uma forma popular e em crescimento de computação em nuvem, pois não é necessário instalar softwares em seu computador e os dados são perfeitamente sincronizados com celulares Android. Mesmo as opções de entretenimento se beneficiam dessa nova integração. Você pode carregar e transmitir seus filmes e programas de TV favoritos do Hulu ou Netflix sem a necessidade de seguir um cronograma de programação, mas, diferente de um gravador de vídeo digital, você também pode assisti-los de qualquer dispositivo móvel. Novos serviços de música como o Google Music, o Spotify e o Turntable.fm oferecem aos usuários uma nova maneira de acessar bibliotecas e criar seus próprios canais de rádio personalizados para compartilhar em mídias sociais. As possibilidades são infinitas; serviços adicionais surgem constantemente para tirar proveito de todo o estardalhaço em torno da "nuvem". Uma das maiores críticas a alguns serviços pagos de computação em nuvem é que os dados não são realmente de propriedade do usuário, mas sim alugados e acessados com base no status de assinante nos servidores host. Nem todos os serviços são gratuitos e os modelos de preços são necessários para facilitar os custos associados com hospedagem offsite, o que, por sua vez, sincroniza os dados com muito mais eficácia. Levando em consideração o efeito que a pirataria teve sobre o setor do entretenimento, a computação em nuvem parece ser uma maneira infalível de manter conteúdo acessível sem as dores de cabeça do gerenciamento de direitos digitais, que assolou as tentativas anteriores de evitar a pirataria. Dependendo do seu posicionamento quanto a questões de segurança, talvez você não goste que o seu conteúdo seja potencialmente monitorado e acompanhado. E, ainda mais importante, potenciais abusos ou explorações do sistema também deixam o conteúdo vulnerável a bloqueios – ou pior, roubos –, o que torna muito inconveniente para os clientes acessar dados pelos quais pagaram de maneira legítima. Além disso, os serviços de Internet precisam ser rápidos e estáveis o suficiente para fornecer esse conteúdo aos usuários – algo ainda indisponível em muitas partes do mundo (incluindo zonas rurais dos EUA). A maior desvantagem pode ser o preço desses serviços. Grandes corporações tendem a se beneficiar dessa estrutura, porque podem pagar o quanto for necessário para acomodar sua infraestrutura. Os usuários finais podem se sentir um pouco abandonados, porque pagam taxas de assinatura padrão que poderiam ultrapassar seu modelo de uso, mas, com o surgimento de uma grande variedade de opções de pagamento e serviços, a longo prazo isso pode deixar de ser um problema. Não fique apreensivo: a computação em nuvem é uma embalagem nova em folha para serviços baseados na Web que já estão disponíveis há algum tempo. A verdadeira razão pela qual as empresas se escondem por trás do chavão é que, embora a tecnologia seja fascinante e nos proporcione uma nova maneira de aproveitar todo nosso conteúdo, ela também tem sido usada como uma maneira para os criadores de conteúdo gerenciarem melhor sua propriedade intelectual. No entanto, não deixe que isso o impeça de tirar proveito dos serviços reais que estão sendo comercializados. Aproveitar novo conteúdo instantaneamente é o futuro da tecnologia e dará início a novas formas de experiências mais personalizadas.
  3. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: A Arte da Escovação de Bits "Conforme o mercado de PCs desktop apresenta lançamentos de novos produtos e um foco mais intenso nos recursos, este editorial analisa o mercado dos entusiastas de PC e as maneiras pelas quais os fabricantes tentam abrir as portas a uma nova geração." Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  4. O overclocking sempre foi uma espécie de tabu para a maioria dos usuários – seja por conta da anulação da garantia, do excesso de trabalho dos componentes (que pode danificá-los se feito incorretamente) ou simplesmente do ruído e do calor. Além disso, o overclocking também exige certa habilidade técnica; ajustar as frequências, as relações, as tensões e os timings de memória do clock do processador e do processador gráfico é um processo demorado e, em alguns casos, entediante. A prática já existe há quase 20 anos e, embora tenha havido um crescimento significativo no passado, uma grande quantidade de produtos de consumo atraentes ameaça tirá-la do caminho das novas gerações. Felizmente, os PCs desktop terão um futuro previsível e a bolha dos usuários de tecnologia proporciona continuamente material e produtos frescos para estimulá-los. Agora, mais do que nunca, as placas-mãe e as placas gráficas têm se adaptado às necessidades dos usuários avançados, oferecido qualidade superior de projeto e aumentado os conjuntos de recursos para ajudar a obter o máximo dos sistemas. Ainda assim, de que servem todas estas características se a curva de aprendizagem for muito íngreme? Assim como o número de opções de overclocking aumentou ao longo do tempo, mais sites e fóruns surgiram nos últimos anos para ajudar os usuários a entenderem todos os detalhes e configurações disponíveis nas tecnologias da nova geração. Você não sabe o que é um VDROOP? Use um mecanismo de busca (ou pergunte aqui!) e vários sites estarão prontos não só para oferecer informações detalhadas sobre sua função, mas também dados detalhados de engenharia elétrica para que você compreenda plenamente seus benefícios. É uma comunidade em constante evolução, que se empolga com a ideia de ter novas plataformas e produtos para dissecar e compreender totalmente. Os adeptos do overclocking também adotaram uma competitividade elitista, semelhante à forma como a maioria dos entusiastas de carros tratam as corridas de arrancada: com torneios mundiais onde os melhores dos melhores se enfrentam para ganhar milhares de dólares em prêmios em dinheiro e em viagens ao redor do mundo. Esses eventos são ainda transmitidos como os grandes eventos de corrida, como demonstrado recentemente pelo Master Overclocking Arena 2011 da MSI, em Las Vegas - adequadamente realizado em uma pista de corrida indoor. E o mais importante: qualquer pessoa pode participar dessas competições e, com o hardware e o conhecimento certos, podem criar uma reputação entre seus pares. Por sua vez, isso faz com que os fabricantes desafiem os limites da engenharia para oferecer qualquer capacidade adicional às boas graças dos usuários. Os adeptos do overclocking não são somente extremamente bem informados, como também são uma voz muito importante para o setor em geral. Quando um entusiasta monta um PC para um amigo ou membro da família, ele certamente escolherá o produto que acredita que não só oferece o melhor valor, mas também tem um bom desempenho. Conquistar este segmento entusiasta significa, para qualquer empresa, obter benefícios para toda a linha de produtos. Essa situação desempenha um papel muito importante em todas as estratégias de marketing e, portanto, é uma das principais razões por que tantos produtos se concentram nos benefícios de overclocking. Em um esforço para aumentar e crescer neste influente segmento de entusiastas, que atualmente constitui cerca de 5% da participação no Mercado de acordo com as discussões mais internas, era necessário haver uma maneira de oferecer um meio rápido e fácil de aproveitar os benefícios do overclocking sem sobrecarregar o consumidor comum. A resposta tem sido uma infinidade de ótimas opções de alterações para que qualquer pessoa possa tirar o máximo do seu sistema de PC: overclocking em um toque, expansão BIOS UEFI (para obter uma abordagem gráfica facilitadora para uma pilha de PCs antigos), e até mesmo overclocking sem fio a partir do celular ou tablet. Esta abordagem de "fator uau" é uma forma essencial de apresentar toda uma nova geração de usuários ao mundo e à mente de um entusiasta, usando rodinhas de treinamento para que possam começar a trilhar o caminho para se tornar um usuário avançado e libertar todo o potencial do que pode ser feito em um PC, diferente de qualquer outro produto eletrônico. Combinado com a ajuda de guias e fóruns (como o nosso Clube do Hardware), ela oferece a possibilidade de aumentar os 5% e, em última análise, ajudar a estimular os novos cursos da inovação. Depois do enorme sucesso da Apple, os fabricantes de componentes têm direcionado a maior parte do foco e da atenção do seu marketing nos produtos completos de sistema, como tablets, notebooks, PCs de tela sensível ao toque e outros dispositivos móveis. Isso tira muita da ênfase dos produtos principais (placas-mãe e placas gráficas) e leva a uma falta de inovação, em parte devido a todo o rebuliço e emoção que permeia esses produtos completos em oposição às características individuais de produtos componentes. De um ponto de vista empresarial, faz muito mais sentido, pois os consumidores não querem enfrentar a complexidade das novas tecnologias e passar mais tempo aprendendo todos os recursos avançados para obter o melhor valor do produto. Oferecer um caminho gradual de progresso proporciona um incentivo para passar mais tempo com o produto sem se sentir sobrecarregado. Agora é momento de dar um passo para trás e perceber que, se o setor pode ser mais aberto e amigável para os iniciantes, o mercado como um todo pode aumentar, e todos nós podemos ajudar a inaugurar uma nova geração de entusiastas. Por sua vez, isso leva as empresas a considerarem ideias inovadoras dedicadas a esse segmento como uma boa decisão. A indústria de componentes de computador é definitivamente muito competitiva, lutando pelos usuários avançados que influenciam fortemente a compra dentro de seus grupos pessoais e nas empresas para as quais trabalham. No entanto, essa batalha constante antes disputava uma base de clientes cada vez menor, conforme os produtos eletrônicos se aproximavam do que os computadores montados faziam de maneira exclusiva. Simplificar o overclocking é um passo que precisa acontecer para que nós realmente recuperemos a magia que ajudou a nos moldar como os entusiastas de PC que somos hoje. Houve um grande impulso desde a introdução do overclocking há quase 20 anos em termos de desempenho e complexidade, por isso é definitivamente do nosso interesse continuar a tentar sustentar, e até mesmo fazer crescer, esse segmento importante para o nosso setor. Como entusiasta, que tipo de recursos ou tecnologias você gostaria que fossem adicionados aos componentes que também seriam adotados pelo consumidor comum? Compartilhe suas ideias na seção de comentários!

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...

GRÁTIS: ebook Redes Wi-Fi – 2ª Edição

EBOOK GRÁTIS!

CLIQUE AQUI E BAIXE AGORA MESMO!