Ir ao conteúdo
  • Cadastre-se

Flavia Dutra

Membro VIP
  • Posts

    35
  • Cadastrado em

  • Última visita

Reputação

3.443

Sobre Flavia Dutra

  1. Nos anos 1990, o mundo temia o emblemático Bug do Milênio (Y2K), que aconteceria na passagem do ano de 1999 para 2000. O problema afetaria programas mais antigos, escritos em linguagens como o COBOL, que traziam datas armazenadas com o número do ano representado apenas pelos seus dois dígitos finais. Diante disso, empresas e usuários, com receio de que os sistemas retornassem ao ano 1900, atualizaram software e hardware. Entretanto, na ocasião ocorreram apenas pequenas falhas, fáceis de serem corrigidas. Agora, já existem muitas especulações sobre a próxima falha, chamada Bug do Milênio Unix, Y2K38, Y2.938K ou S2G, que pode fazer com que programas que usam o padrão POSIX/IEEE 1003, em que a data é calculada através do número de segundos ignorando os segundos bissextos desde o dia 1º de janeiro de 1970, utilizando variável de 32 bits (formato conhecido como timestamp), não consigam mais contar o tempo a partir de 2038. Segundo informações, no dia 19 de janeiro de 2038, às 3 horas, 14 minutos e 5 segundos, no horário universal (UTC), os computadores que ainda estiverem usando variáveis de 32 bits não conseguirão lidar com a mudança de data, visto que terão atingido seu limite máximo de armazenamento de 2.147.483.647 segundos. Então, para continuar a contar os segundos, os valores começarão a ser armazenados em uma contagem negativa, a partir de -2.147.483.647 até zero. Diante disso, não se sabe com exatidão como os sistemas se comportarão ao chegar no limite da contagem. Alguns podem continuar funcionando normalmente, porém com a data incorreta, e outros, que dependem da precisão de dados, parem de operar. A solução mais viável para resolver o problema seria transformar o tipo de marcação de 32 bits para o sistema de 64 bits, uma vez que utiliza datas mais elásticas, adiando o erro para cerca de 292 bilhões de anos no futuro. Apesar disso, a mudança poderia prejudicar a compatibilidade binária de software. Muitos programas usados na operação de servidores Unix, Linux e suas variantes, como é o caso do MySQL, por exemplo, ainda usam variáveis de 32 bits para o armazenamento do valor do timestamp. O Bug do Milênio custou mais de US$ 300 milhões para ser amenizado e estima-se que o Y2K38 custe muito mais.
  2. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: A nova preocupação: o bug do ano 2038 "Conheça o bug do ano 2038, que causa alguns programas de computador a mostrarem a data incorreta a partir daquele ano." Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  3. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: GRÁTIS: ebook Redes Wi-Fi – 2ª Edição! "Baixe agora mesmo este ebook gratuito e aprenda mais sobre redes Wi-Fi!" Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  4. Gabriel Torres acaba de colocar no ar, inteiramente de graça, a nova edição do seu ebook Redes Wi-Fi. Nele, você aprenderá o embasamento teórico para aprofundar os estudos em cursos intermediários e avançados. Entre outros assuntos, com a leitura desse ebook você aprenderá sobre: Arquitetura ad-hoc, BSS e ESS Serviços de estação e de distribuição Criptografia e segurança Bandas de 2,4 GHz, 5 GHz e 6 GHz Beamforming MIMO e MU-MIMO OFDM e OFDMA Perfuração de preâmbulo Coloração do BSS TWT e OMI IEEE 802.11-1997 (“Wi-Fi 0”) IEEE 802.11b (“Wi-Fi 1”) IEEE 802.11a (“Wi-Fi 2”) IEEE 802.11g (“Wi-Fi 3”) IEEE 802.11n (Wi-Fi 4) IEEE 802.11ac (Wi-Fi 5) IEEE 802.11ax (Wi-Fi 6) IEEE 802.11be (Wi-Fi 7) Baixe agora!
  5. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: Como funciona a tecnologia NFC? "Aprenda como funciona a tecnologia NFC, que permite a troca de dados entre dispositivos por aproximação." Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  6. A sigla NFC significa Near Field Communication ou Comunicação por Campo de Proximidade. Trata-se de uma tecnologia de troca de dados entre dispositivos por aproximação, sem a necessidade fios ou cabos. O recurso foi criado em 2004 pelas empresas Nokia, Sony e Philips. A primeira aplicação foi implementada em 2006, com um adesivo que continha informações compatíveis com dispositivos NFC, mesmo ano de lançamento do “smart poster”, que funcionava de forma semelhante ao adesivo. Na mesma ocasião surgiu o Nokia 6131, o primeiro telefone com suporte ao recurso NFC. A tecnologia NFC gera uma ligação em radiofrequência de curta distância, aproximadamente de 10 centímetros, que opera na velocidade constante de 13,56 MHz e possibilita a troca de uma pequena quantidade de informações entre os aparelhos, sejam eles smartphones, cartões e suas máquinas portáteis, caixas eletrônicos, terminais de transportes públicos, entre outros. A comunicação NFC depende de um chip específico, alocado dentro dos dispositivos, dispensa configurações de pareamento e permite que um dos aparelhos da troca de dados não precise de energia. A transmissão NFC pode ser ativa, quando há fonte de energia própria e capacidade para enviar ou receber informações; passiva, que necessita do chip próximo para obter energia e só então transmitir dados; leitora e gravadora, que lê, altera e grava novos dados, como o Bilhete Único dos transportes via smartphone; e peer-to-peer, no qual dois aparelhos comunicam-se entre si, de maneira similar ao sistema Bluetooth, porém com menor gasto de energia e de forma mais rápida. A principal utilidade do recurso NFC nos telefones celulares é liberar meios de pagamentos digitais, como Apple Pay, Samsung Pay e Android Pay. Esses telefones podem substituir os cartões de débito ou crédito durante compras em estabelecimentos com máquinas compatíveis. Entretanto, a tecnologia pode ser aplicada em outras inúmeras funções, como trocar fotos e arquivos, reproduzir músicas, substituir códigos de barras e até mesmo ligar e desligar as luzes em uma casa. Apesar das dúvidas entre muitos consumidores, o pagamento através de NFC é considerado seguro, visto que a transação é feita em mão única, significando que o aparelho receptor não tem acesso a informações confidenciais, como senhas, dados da conta bancária ou da carteira digital. Além disso, a proximidade necessária para o uso da tecnologia diminui a possibilidade de interferências, interrupção do sinal ou roubo de dados à distância. O limite de valores para transações financeiras também ajuda a proteger o consumidor. No entanto, é prudente o usuário possuir aplicativos para apagar dados remotamente e que autorizem as transações após confirmação com a impressão digital, em caso de perda, roubo ou furto do telefone celular. O consumidor também pode se precaver guardando cartões com recurso NFC em carteiras com malhas metálicas, embrulhando-os em papel alumínio ou acondicionando-os com outros cartões, para dificultar que golpistas tentem realizar transações aproximando uma máquina leitora sem o seu consentimento. Conforme o relatório da companhia Blue Bite, até 2020 as ativações por meio de NFC cresceram 71% e as estimativas indicam que até 2024 existirão mais de 1,6 bilhão de dispositivos habilitados para a tecnologia, permitindo a esse mercado atingir o valor aproximado de US$ 47 bilhões. Logo, ainda podemos esperar que a NFC evolua ao longo dos anos.
  7. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: Que fim levou o computador de baixo custo PIC, da AMD? "Criado como uma solução para aumentar o número de pessoas conectadas à Internet, a AMD abandonou o projeto após dois anos. Entenda." Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  8. A AMD lançou, em 2004, o PIC (Personal Internet Communicator), computador de baixo custo projetado para países em desenvolvimento, parte do projeto “50x15”, cujo objetivo era possibilitar que 50% da população mundial tivesse acesso à internet até 2015. O dispositivo vinha com interface de exibição de até 1600 x 1200, processador AMD Geode GX 500 com clock de 366 MHz, 128 MiB de memória DDR, um disco rígido de 3,5 polegadas com 10 GB de armazenamento, conexão por linha discada com modem V.92 (56 kbps), quatro portas USB 1.1, áudio AC’97, fonte de 8 W, sistema operacional Windows CE 5.0 e compatibilidade com o Internet Explorer 6. O PIC custava US$ 185 com teclado, mouse e software para computação pessoal básica pré-instalado ou US$ 249, incluindo também monitor e acesso à internet. Durante seu período de vida, o PIC foi vendido na Índia, no Caribe, no Brasil, no México e na China, onde empresas de telecomunicações também alugavam os aparelhos para seus assinantes. No terceiro trimestre de 2006, a AMD decidiu encerrar a fabricação do PIC, alegando vendas insignificantes. No entanto, rumores sugeriam que o projeto era apenas para impulsionar o comércio do processador Geode. Este processador foi originalmente criado pela Cyrix, com o nome MediaGX, e era um modelo de baixo consumo voltado a sistemas embarcados. Em 1997, a National Semiconductor comprou a Cyrix, renomeando o MediaGX para Geode dois anos depois. A AMD comprou todos os direitos do Geode em 2003, encerrando a sua produção em 2019. Em dezembro de 2006, a AMD transferiu os ativos de produção do PIC para a Data Evolution Corporation, que passou a comercializá-lo como decTOP, por US$ 99, permitindo a instalação de qualquer sistema operacional compatível com x86. Diante da estrutura inalterável do PIC ou decTOP, bem como por causa do sistema operacional que não podia ser trocado, o dispositivo tornou-se obsoleto. Dados da União Internacional das Telecomunicações (ITU), órgão vinculado à Organização das Nações Unidas (ONU), 43% da população mundial tinha acesso à internet em 2015. Apenas em 2019 esse índice ultrapassou a meta do projeto da AMD, atingindo 51,2% das pessoas. Em 2023, há mais de cinco bilhões de pessoas conectadas, o equivalente a 63% do população mundial. Mais informações: PIC: o computador popular da AMD Análise detalhada da retomada financeira da AMD: outros fatos relevantes de 2004
  9. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: Que fim levou o laptop de US$ 100 do governo brasileiro? "Em 2005, a ONG OLPC divulgou, com grande destaque na mídia, conversas com o governo brasileiro para a adoção do projeto de um laptop de US$ 100 voltado a estudantes, que não foi adiante. O que aconteceu?" Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  10. No início de 2005, a Organização Não-Governamental One Laptop Per Child (OLPC, Um Computador por Criança), ligada ao Instituto de Tecnologia de Massachussets (MIT), desenvolveu um modelo de computador portátil de US$ 100, que seria usado como um instrumento educacional nas escolas públicas, tendo sido divulgado à época com enorme destaque pela mídia. O projeto, financiado por diversos países, incluindo Brasil, Argentina, Nigéria, Tailândia e Líbia, e apresentado pelos pesquisadores Nicholas Negroponte e Seymour Papert, pretendia comercializar um milhão de notebooks a baixo custo, porém a produção teria que ser em grande escala, entre quatro e cinco milhões de unidades, para chegar ao preço proposto de US$ 100. Na ocasião, Negroponte propôs ao governo brasileiro a compra de um milhão de notebooks no projeto-piloto e o estabelecimento de uma meta para levá-los a 40 milhões de estudantes até 2010, ao custo de US$ 50. A proposta não previa o pagamento de royalties, o que contribuiria para a redução do preço do dispositivo. Os custos de vendas, marketing, distribuição e lucro não incidiriam sobre o projeto. Além disso, uma nova tecnologia de tela baixaria o custo, assim como o uso de sistemas operacionais menos pesados. Em dezembro de 2006, três centros de pesquisas do Brasil receberam 50 unidades do laptop, que ultrapassou o custo inicial, atingindo os US$ 150, com meta de disponibilizar mais mil máquinas para testes nas escolas a partir de janeiro de 2007. O notebook pesava 1,5 kg, poderia ser usado mesmo em locais sem eletricidade, por conta da energia manual, uma espécie de cordão para carregá-lo, tinha uma alça plástica, duas antenas para conexão sem fio com redes de banda larga, touch pad com o triplo do tamanho convencional, teclado de material emborrachado e baixo consumo de energia. Conforme o site do produto, que já não se encontra mais ativo, o laptop teria tela LCD de sete polegadas com resolução de 1 megapixel, processador Geode de 500 MHz, 1 GiB de memória flash, portas USB e sistema operacional Linux. O grupo de trabalho do governo que na época avaliou o projeto comentou que os principais entraves para colocá-lo em prática seriam a existência apenas de um conceito e protótipos, a viabilidade industrial para fabricar a máquina e, principalmente, a concorrência, visto que o Centro de Pesquisas Avançadas Wernher von Braun, em Campinas, também produziu um computador portátil de baixo custo, baseado no mesmo modelo de negócios do telefone celular. Apesar dos obstáculos, o governo brasileiro realizou em 19 dezembro de 2007 o processo de seleção do projeto Um Computador por Aluno (UCA) pelo Fundo Nacional de Desenvolvimento da Educação (FNDE), com a empresa Positivo Informática considerada a vencedora parcial do leilão eletrônico, com o Classmate PC, em parceria com a Intel. A Positivo ofereceu R$ 98,18 milhões para um lote de 150 mil notebooks. Isto daria um valor de R$ 654,53 por aparelho, equivalendo, ao câmbio da época, a US$ 363,63. No entanto, o Ministério da Educação (MEC) divulgou que tentaria negociar um valor menor. Desde então, o processo de escolha do computador foi paralisado. A previsão era que o laptop fosse adotado nas escolas públicas no início de 2008. Diante disso, o notebook de US$ 100 do MIT foi descartado. O dispositivo também foi distribuído em outros países, como Peru, Uruguai, Índia, Estados Unidos, Egito, África do Sul, Ruanda, Nigéria, porém o custo final e viabilidade comercial também afetaram no progresso do projeto. Em 2008, financiamento anual da OLPC caiu de US$ 12 milhões para US$ 5 milhões, resultando na sua reestruturação em 7 de janeiro de 2009, com financiamento da fabricante de chips Marvell. Com isso, o laptop foi aprimorado, passando a conter processador VIA C7-M, chipset com motor gráfico 3D, decodificador de vídeo HD, 1 GiB de memória, 4 GiB ou 8 GiB de armazenamento e preço abaixo dos US$ 150. Entretanto, essa versão e outras planejadas, incluindo um tablet, foram canceladas após anúncio de que a produção não seria real. A OLPC informou que o projeto deixou de existir em 2014. Atualmente, a OLPC se dedica a um ecossistema educacional, que permite às crianças de todo o mundo desenvolverem seu conhecimento, implementado por meio de governos, setor privado e organizações sem fins lucrativos em escolas, comunidades e até mesmo em centros de aprendizado móvel para promover novos canais de aprendizado, compartilhamento e autoexpressão por meio da tecnologia digital. Mais informações: O Laptop de US$ 100 do Governo Brasileiro Laptop de US$ 100 Vai Funcionar na Base da Manivela? Fotos do Novo Design do Laptop de US$ 100 Fotos dos Primeiros Protótipos Funcionais do Laptop de US$ 100
  11. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: Que fim levou o WiMAX? "A tecnologia WiMAX foi promovida no início dos anos 2000 como uma das melhores soluções para conexão de Internet banda larga sem fio, mas foi abandonada após 10 anos. O que aconteceu?" Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  12. O WiMAX (Worldwide Interoperability for Microwave Access ou Interoperabilidade Mundial para Acesso por Microondas, em português) é uma tecnologia de conexão sem fio, criada em 2001, via rádio, baseada no padrão IEEE 802.16, criado em 1999, capaz de alcançar até 50 quilômetros de distância, pelo menos em teoria. Essa tecnologia surgiu em uma época em que a conexão à Internet estava migrando das linhas discadas, que tinham um limte de 56 Kbit/s, para conexões banda larga, com velocidades acima desta, e tinha como objetivo acelerar a implementação da Internet banda larga por não necessitar de cabos. Através de uma única estação rádio base, ela poderia fornecer Internet banda larga a assinantes localizadas dentro de seu raio de alcance. A Intel, que fabricava os chips que seriam utilizados nas estações rádio base e nos modems, liderou os testes da rede WiMAX no Brasil desde 2004, em parceria com universidades, empresas e instituições governamentais, nas cidades de Brasília (DF), Ouro Preto (MG), Parintins (AM), Mangaratiba (RJ) e Belo Horizonte (MG). Em Minas Gerais, os testes, realizados com equipamentos na frequência de 3,5 GHz com 254 portadoras, foram considerados satisfatórios, apesar do relevo montanhoso das cidades. Em um dos experimentos, em Ouro Preto, uma antena WiMAX foi instalada em uma Kombi com três computadores, que permaneceu na praça principal, onde as pessoas podiam entrar no veículo para acessar a Internet. A unidade de emissão do sinal (BSU) ficou localizada a uma distância considerável, na Universidade Federal de Ouro Preto (UFOP). Anos depois, os equipamentos em Ouro Preto passaram a operar na frequência de 5,8 GHz com 32 portadoras e, posteriormente, foram desligados por falta de assistência aos executores do projeto. Na mesma época, a Universidade Federal do Paraná também implantou hotspots WiMAX em seus campi para alunos que não possuíam Internet e para os proprietários de dispositivos móveis e, em 2009, o Centro Tecnológico da Universidade Federal do Espírito Santo (UFES) testou equipamentos com a tecnologia operando a 5,8 GHz (banda não licenciada) em Vitória, com o objetivo de oferecer a rede nos municípios do interior do estado. A Embratel ofereceu, entre os anos de 2008 e 2010, um serviço WiMAX para pequenas e médias empresas nas principais capitais brasileiras, com conexão banda larga e telefonia VoIP. No entanto, a partir de 2010, as novas ofertas foram suspensas, com manutenção dos serviços já contratados ou sua substituição por outras soluções, ocasionadas pela aquisição da Embratel por parte da NET. Outras operadoras, como Telefônica/Vivo e Brasil Telecom também haviam anunciado planos para introduzir o WiMAX no Brasil para acesso comum à Internet móvel, de maneira análoga às redes 3G, porém em 2012 elas desistiram da ideia e adquiriram a frequência LTE, usada como padrão para a implementação da rede 4G. Nos Estados Unidos, em 2005, uma operadora de telefonia celular testou a WiMAX, porém foram diagnosticados problemas para atingir os níveis esperados de transferência dos dados, que alcançaram apenas um pequeno percentual dos níveis laboratoriais. Apesar dos resultados, em 2006, a Intel investiu US$ 600 milhões na instauração da rede WiMAX em diversas regiões do país e aliou-se a companhias como Dell, Cisco e IBM para a criação do projeto Comunidades Digitais, que levaria a rede para aproximadamente 100 cidades ao redor do mundo, mas rapidamente os acordos foram cancelados. Na Europa, a Motorola adotou o WiMAX em diversos países, assim como a Austrália, Ásia e América Latina também se interessaram pela tecnologia, mas a oferta do serviço também não durou. Apesar de a conectividade WiMAX parecer melhor em comparação à rede 2G e ao Wi-Fi da época, teoricamente ser mais rápida de ser implementada pela não necessidade da instalação de cabos e mesmo tendo investido milhões de dólares na divulgação da tecnologia com o intuito de vender chips para a infraestrutura, a Intel desistiu do WiMAX em 2011. Ela tornou-se inviável mundialmente por vários motivos: A área de alcance, na prática, não passava muito dos oito quilômetros, frente aos 50 km teóricos; A instalação de antenas, principalmente em cidades cheias de prédios, diminuiria ainda mais o alcance do sinal; Existiam pouquíssimos equipamentos compatíveis com a rede, o que exigiria mais investimento para alterar a infraestrutura; O longo tempo de testes a fez ficar ultrapassada; O surgimento do padrão LTE, com suporte para redes e equipamentos já usados, que originou a rede de telefonia celular 4G; E por conta da Internet sem fio de alta velocidade nos telefones celulares.
  13. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: Gabriel Torres lança a nova edição do seu livro de referência Hardware "O livro trata sobre hardware e arquitetura de computadores x86." Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  14. Gabriel Torres anunciou o lançamento da nova edição, totalmente revisada e atualizada, do seu livro de referência Hardware, voltado para estudantes, autodidatas e profissionais da área de informática/tecnologia da informação (TI). O livro, com mais de mil páginas, trata sobre hardware e arquitetura de computadores x86. Nele, o usuário aprenderá: Uma visão aprofundada e completa sobre a fabricação, arquitetura e funcionamento dos processadores usados no PC, até o Core i de 12ª geração, da Intel, e Zen 4, da AMD; Como os sistemas de paginação e memória virtual funcionam; O que é e como funciona a técnica de virtualização; Tipos e tecnologias de memórias, incluindo memórias flash NAND e NOR, Optane, DDR5, LPDDR5X e GDDR6X; Tudo sobre placas-mãe, incluindo todos os tipos de slots de expansão e portas de comunicação; Detalhes sobre o funcionamento do circuito regulador de tensão de placas-mãe e placas de vídeo; Como funciona as técnicas de rasterização, traçado de raios, aceleração de mídia e recursos para a melhoria da qualidade de imagem; Todos os tipos de conexão de vídeo, incluindo VGA, DVI, HDMI, DisplayPort e Thunderbolt; Como unidades de armazenamento como discos rígidos, SSDs e pen drives funcionam; Funcionamento do áudio digital; Detalhes aprofundados sobre o funcionamento da fonte de alimentação do computador, bem como de baterias e equipamentos de proteção; Abordagem sobre computadores portáteis e muito mais ! O novo livro Hardware está disponível apenas no formato digital (ebook, PDF), por R$ 39,90. Os interessados em uma versão impressa devem levar o arquivo, que é fornecido em formato vetorial, a uma gráfica, cuja qualidade final será idêntica à de um livro físico, por um valor muito mais baixo. Gabriel Torres lançou seu primeiro livro Hardware Curso Completo em 1996, com 712 páginas, na época em que a Internet tinha acabado de chegar ao Brasil e quase ninguém tinha acesso. Praticamente não existiam livros sobre hardware no mercado brasileiro. Os existentes eram de autores nacionais, porém com assuntos pouco aprofundados, ou de escritores estrangeiros, mal traduzidos e fora da realidade do mercado, pois no Brasil os computadores eram montados por lojas ou técnicos autônomos, enquanto nos EUA a maioria era de marca específica, com hardware diferente. O livro Hardware Curso Completo tornou-se um dos mais vendidos já no seu primeiro mês de vida, formando toda uma geração de profissionais da área de informática. Mais informações
  15. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: Chegou! Novo livro "Montagem de Micros" edição 2022! "O livro aborda novos temas como memórias DDR5, novos soquetes de processadores e os conectores de alimentação." Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...