Ir ao conteúdo
  • Cadastre-se

Alessandra Carneiro

Membro VIP
  • Posts

    10
  • Cadastrado em

  • Última visita

    Nunca

Reputação

1

Sobre Alessandra Carneiro

  1. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: Teste do iPod Nano Mono-Chromatic "A Apple risca o design do iPod Nano e volta às origens nessa quarta geração do aparelho. Confira o que achamos do novo Nano." Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  2. Esqueça o lançamento do ano passado: o novo iPod é o modelo que vínhamos esperando desde a chegada da segunda geração. Fino, leve, com display colorido, capacidade para fotos e um design quase perfeito. Assim era o segundo Nano lançado. Porém, muitos sentiram falta da capacidade de rodar video, o que foi resolvido no ano passado, com o lançamento da terceira geração. Se as funções atendiam aos pedidos dos usuários, o design, decepcionou. A Apple abriu mão do visual ‘magrinho’ para alargá-lo e deixá-lo com um aspecto de ‘baixinho gorducho’, com a desculpa de fazer caber a tela maior e no formato wide. Figura 1: iPod Nano de terceira geração. Agora, o novo iPod Nano, batizado de ‘Nano-Chromatic’, prova que uma mudança radical no design não era necessária. Mais fino do que nunca (com apenas 6,2 mm de profundidade), o modelo manteve a tela de duas polegadas de cristal líquido e com 204 ppi de resolução do último Nano e ainda permite a visão wide com o iPod posicionado de lado. Disponível em nove cores (prata, preta, roxa, azul, verde, amarela, vermelha e rosa) e com memórias flash de 8 GB ou 16 GB. A Apple confirmou também a chegada, para breve, de modelos de 4 GB para alguns mercados internacionais. Uma boa novidade é que gravar sons ficou mais fácil: a entrada para fone de ouvido também é compatível com microfones autorizados pela Apple. Nos EUA, a empresa já disponibiliza dois modelos: o mais simples de 29 dólares e o mais avançado de 79 dólares. Vale lembrar que o iPod agrega algumas funções para pessoas com necessidades especiais, como menus de áudio (que permitem ouvir alguns nomes de menus, canções e artistas) e a opção de nomes. O novo iPod Nano continua com as mesmas características de uso dos modelos anteriores, com o click wheel como o acesso às principais funções. A bateria mantém a mesma durabilidade de duas gerações atrás (24 horas para músicas), o que é bastante razoável para essa função. No entanto, o mesmo não pode ser dito sobre os vídeos. Assim como no iPod do ano passado, a bateria dura apenas 4 horas quando rodamos vídeo, de acordo com a Apple. Em nossos testes tivemos uma grata surpresa: o Nano rodou cerca de cinco horas de vídeo, mais do que o prometido pela empresa. Ainda assim, pode não ser suficiente quando o usarmos em longas viagens, junto com outras funções. Figura 2: Parte de cima. Antes de transferir os vídeos, será necessário convertê-los para o formato MP4. Para isso, usamos o programa gratuito DVDVideoSoft Free Studio. É bem fácil de operar, agrega diversas funções (inclusive a gravação de vídeos do YouTube), e fornece opções de conversão em baixa, média e alta qualidade. A tela é grande, se considerarmos o tamanho compacto do Nano, mas muitos podem considerá-la pequena demais para assistir a um filme. Já um capítulo de um seriado, um desenho animado ou mesmo pequenos vídeos da Internet estão ao alcance da mão a qualquer momento, com uma imagem consideravelmente boa e um áudio que não decepciona. É diversão na certa! Figura 3: Parte de baixo. Mas será que os vídeos roubaram a principal função do aparelho, que é tocar música? Nada disso. Mesmo com pouco a ser adicionado, a Apple trouxe algumas novidades. Basta virar o Nano de lado enquanto estiver ouvindo uma música para navegar pela discoteca disponível, visualizando as capas dos álbuns. Quando achar a música que deseja, basta pressionar o centro do click wheel para adicioná-la à playlist ‘on-the-go’. Outra novidade: basta agitar o iPod para mudar para a função ‘shuffle’ e ser surpreendido por qualquer música de sua discoteca. Mas será que isso não atrapalharia se mexermos demais no iPod? Pelos nossos testes, é preciso agitá-lo com uma certa força, permitindo que você se exercite sem que a função ‘shuffle’ seja acessada a todo momento. A Apple também lançou a função Genius, que cria séries de músicas que têm tudo a ver, ao menos na teoria. Na próxima página, dedicamos um tópico exclusivo para a função. Figura 4: Função flip. A seção de jogos também ganhou uma turbinada, com três título: Klondike (uma espécie de Paciência), Vortex e Maze, sendo que esse último se aproveita da capacidade da tela de entender movimentos. A loja do iTunes possui outros títulos para compra ou mesmo para downloads gratuitos. Outras funções incluídas no novo Nano são podcast, calendário, alarmes, cronômetro, contatos, notas, e horários. Não é nenhuma novidade revolucionária, mas promete diversão: o Genius cria uma sequência de 25 músicas baseada em uma que o usuário escolher. Se a ideia é ótimo, o mesmo não pode ser dito de seu uso. Antes de mais nada, é preciso ativar uma conta no iTunes Store. Para nós, brasileiros, eles exigem um número de cartão de crédito. Outra opção é ‘enganar’ o sistema e se cadastrar como se morasse nos EUA. Existem vários tutoriais na Internet ensinando como fazer isso. Uma vez criada a conta, é preciso acordar a função Genius, mas com um incoveniente: aceitar um termo permitindo que a Apple examine o conteúdo de seu iTunes, o que soa um tanto quanto intrusivo. Aceitando o termo, você já pode começar a usar o Genius. Algumas vezes, ele funciona muito bem. Outras, cria sequências absurdas, com músicas e ritmos que não têm nada a ver um com o outro. E, na maioria das vezes, ele devolve a resposta 'genius is unavailable for this song' (‘genius não está disponível para essa música’). Na ocasião do lançamento, Steve Jobs garantiu que o banco de dados compreendidos pelo Genius sera atualizado toda semana. Com o tempo, talvez esse problema pare de incomodar. Mas, por enquanto, o Genius está longe de ser uma função nota 10. O primeiro iPod Nano chegou em setembro de 2005 em versões de 2 GB e 4 GB como substituto do iPod Mini. Se, quando o iPod Mini surgiu, parecia o player MP3 mais portátil do mundo, imediatamente passou a ser considerado um trambolho ao lado do minúsculo Nano, que encheu os olhos de qualquer fã do player da Apple. Apesar dos modelos só estarem disponíveis nas cores preta ou branca, a tela vinha em cores para visualização de fotos. Pesava 42,5 gramas e media 8.9 x 4 x 0.7 cm. A durabilidade da bateria foi bastante criticada na época: apenas 14 horas para música. Na segunda geração, a bateria ganhou uma boa turbinada: a bateria passou a aguentar 24 horas de música, e desde o seu lançamento, em setembro de 2006, não houve evolução. Mesmo com o suporte a vídeos a partir da terceira geração, a bateria continua, até essa quarta geração, garantindo as mesmas 24 horas para música e apenas 4 horas para vídeo. A segunda geração trazia modelos com seis cores diferentes e memórias flash de 2 GB, 4 GB e 8 GB. Figura 5: Nano antigo (esquerda) e novo Nano. A terceira geração foi lançada em setembro de 2007 com um design mais largo que não agradou à maioria dos usuários. Mesmo com a chegada do suporte a vídeos, a venda no mês de lançamento foi a mais fraca de todas as gerações: em torno de ¼ de seu estoque inicial, de acordo com a AppleInsider. No entanto, talvez graças às boas resenhas, as vendas nos EUA cresceram na época do Natal, e a Apple respirou aliviada. O modelo foi o mais pesado, com quase 50 gramas, e também o maior, com as medidas 7 x 5.2 x 0.7 cm. A boa novidade era a tela em formato wide e com resolução melhor. Disponível em seis cores e com modelos de 4 GB e 8 GB. Figura 6: Modelos lado a lado. Agora, na quarta geração, a Apple trouxe de volta o design ‘alto e magro’, mas sem abrir mão das melhorias da terceira geração, como a tela maior e com melhor resolução (320 x 240 / 204 ppi) e o suporte a vídeos. O novo modelo mede 9.1 x 3.8 x 0.6 cm e pesa menos de 37 gramas. As principais características do iPod Nano da quarta geração são: Dimensões: 90,7 mm x 38,7 mm x 6,2 mm Peso: 36,8 gramas Display LCD de 2” (diagonal) 8 GB ou 16 GB de memória flash Armazena de 2.000 a 4.000 músicas no formato AAC 128-Kbps Armazena de 7.000 a 14.000 fotos Armazena de 8 a 16 horas de vídeo Resposta de frequência: 20 Hz a 20.000 Hz Suporte de áudio: AAC (16 a 320 Kbps), AAC protegido (da loja iTunes), MP3 (16 a 320 Kbps), MP3 VBR, Audible (formatos 2, 3, e 4), AIFF e WAV. Suporte de imagens: JPEG, BMP, GIF, TIFF, PSD (Mac) e PNG Suporte de vídeo: m4v, .mp4, e .mov Bateria de íon-lítio recarregável com suporte de até 24 horas de música ou 4 horas de vídeo quando carregada por completo. Cores: Prata, preta, roxa, azul, verde, amarela, laranja, vermelha e rosa. Mais informações: http://www.apple.com/br/ipodnano/ Preço sugerido nos EUA: US$ 149 (8 GB); US$ 199 (16 GB) Preço sugerido no Brasil: R$ 579 (8 GB); R$ 769 (16 GB) Pontos Fortes A volta do design ‘magrinho’ O mais leve e fino Nano Roda vídeos Imagens que giram para se adaptar ao formato wide Procura de albums e músicas mais fácil Pontos Fracos Genius não funciona como o esperado Bateria pouco durável para vídeos Falta um carregador A necessidade de baixar o iTunes 8 Infame "Custo Brasil" faz um com que ele seja muito caro no Brasil (US$ 149 vs. R$ 549 para o modelo de 8 GB e US$ 199 vs R$ 769 para o modelo de 16 GB).
  3. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: Cobertura do PhotoImageBrazil 2004 "Veja tudo o que rolou na 12ª edição da feira internacional de imagens, a PhotoImageBrazil 2004!" Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  4. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: Visita à Sede da Lexmark, em Lexington, Kentucky, EUA "A sede da Lexmark é um gigantesco centro de pesquisa e desenvolvimento. Veja como foi nossa visita e entenda porque os cartuchos de tinta não são baratos." Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  5. Com certeza você já se perguntou por que os cartuchos de impressora são tão caros. Muita gente acha que é pura e simples "roubalheira" e, por isso, acaba optando por um modelo genérico ou recarregando várias vezes o mesmo cartucho. Mas o que pouca gente sabe é que há muito mais tecnologia naquela "caixinha de tinta" do que sonha nossa vã impressão. Além das tintas, um cartucho contém, em média, mais de 15 componentes. Na maioria das vezes, a tinta acaba mas esses outros componentes ainda estão novos e acabam sendo jogados no lixo – inclusive a cabeça da impressão, que em quase todas as marcas está montada no cartucho, e não na impressora. Em tempo: apenas nos modelos Epson a cabeça está na impressora, o que torna o cartucho mais barato e não descarta um componente quase novo. Mas os concorrentes contra-atacam afirmando que isso causa os freqüentes casos de entupimento nas impressoras dessa empresa. Numa visita à fábrica da Lexmark, em Lexington, no estado de Kentucky, Estados Unidos, vimos que o preço do cartucho se justifica pelo investimento em tecnologia e em Pesquisa & Desenvolvimento, com o intuito de buscar mais qualidade, durabilidade e fidelidade às cores em cada impressão. No Laboratório de Ciência de Cor Inkjet (Figura 1), os cientistas implementam algoritmos de processamento de imagem e tabelas de reprodução de cores. Uma das funções é converter o RGB (de red, green e blue, as cores primárias das cores-luz) do computador para pontos CMYK (de cyan, magenta, yellow e key, que representa o preto) na página impressa. Nessa área também se definem as cores usadas na impressão de cada continente, já que a preferência varia de local para local. Nas Américas, por exemplo, os consumidores preferem cores fortes e avermelhadas, de um jeito que pareça que a pessoa está sempre bronzeada. Na Europa, preferem-se tons mais pálidos, assim como na cultura oriental, mas com algumas diferenças de nuance. Um fato curioso é a reação dos orientais às fotos dos americanos. "Em vários testes que realizamos, os japoneses olhavam para as fotos e diziam: 'eles parecem bêbados!', referindo-se aos tons avermelhados do rosto dos fotografados", divertia-se um dos cientistas. "Esse é um claro exemplo de que a cor ideal na foto não é a próxima à realidade, mas sim, a cor que o consumidor deseja ver estampada. Muitas vezes deseja-se uma foto com céu azul-anil, mesmo que essa tonalidade não seja a que corresponda à realidade", explica. Figura 1: Laboratório de Ciência de Cor Inkjet da Lexmark. No Laboratório de Química Analítica (Figura 2) garante-se a pureza da tinta. Através de aparelhos como o espectrômetro de plasma é possível medir com exatidão os componentes da tinta e do toner, garantindo a inexistência de impurezas. Dessa forma garante-se o mínimo de "sujeira", eliminando as chances de entupimento do bico. Figura 2: Laboratório de Química Analítica da Lexmark. Já a qualidade da precisão com que o ejetor libera a tinta é controlada no Laboratório de Física da Impressão (Figura 3). Aí são medidos o tamanho, a forma e a trajetória de cada gotícula de tinta. Figura 3: Detalhe do ejetor de tinta liberando uma partícula de tinta. No Laboratório de Durabilidade de Imagem (Figura 4), as amostras de impressão são avaliadas sob várias condições de iluminação (incandescente, fluorescente, luz solar simulada etc); temperatura; exposição a gases e condições climáticas, simulando diferentes desgastes que uma impressão pode ter nas mãos de seus usuários. Assim, é possível dizer, por exemplo, o tempo de vida de uma foto produzida por determinada impressora. O mais bacana é que os testes são feitos com diversas marcas de papéis fotográficos. Mas é claro que a equipe trabalha para que a maior durabilidade seja com papéis da própria Lexmark. Por isso, o casamento perfeito sempre acontece entre a tinta e o papel de marcas iguais (impressão Lexmark em papéis Lexmark, HP em papéis HP etc). No caso da Lexmark, a maior durabilidade chega a 200 anos, nas fotos impressas em papel Premium Glossy da própria empresa e com cartuchos com tintas Evercolor Photo (usados nas novas multifuncionais P4350 e X3350). Figura 4: Laboratório de Durabilidade de Imagem da Lexmark. Outros laboratórios medem a capacidade eletromagnética (afinal, queremos que nossa impressora não sofra interferência, e nem interfira, em nenhum outro equipamento eletrônico, não é mesmo?); criam designs futurísticos (existem até protótipos de impressoras para daqui a 30 anos); testam a facilidade com que diferentes consumidores reagem à usabilidade das impressoras; e até usam e abusam dos lançamentos dos concorrentes, para checar no que mais a Lexmark pode melhorar. Figura 5: Laboratório de Compatibilidade Eletromagnética da Lexmark. Figura 6: Protótipo sendo esculpido no Laboratório de Design da Lexmark. Figura 7: Laboratório de Teste de Usabilidade da Lexmark.
  6. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: Que tecnologia é melhor: GSM ou CDMA? "Entenda o funcionamento das tecnologias GSM e CDMA, e saiba qual é a melhor." Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  7. Tópico para a discussão do seguinte conteúdo publicado no Clube do Hardware: Não Deixe seu PC Torrar no Verão "Dicas práticas para proteger o seu computador do calor do verão." Comentários são bem-vindos. Atenciosamente, Equipe Clube do Hardware https://www.clubedohardware.com.br
  8. Calor, umidade, maresia, tempestades...Todos esses “companheiros” da estação mais quente do ano fazem um mal danado ao computador. Para evitar danos permanentes, alguns cuidados são fundamentais durante todo o verão. Altas temperaturas, como é sabido, podem fazer com que o micro comece a travar aleatoriamente ou dar resets sozinho, por exemplo. Isso acontece porque “em altas temperaturas pode ocorrer dilatação das partes metálicas, como os contatos entre as placas”, explica o colunista Gabriel Torres. “ Todo chip tem uma temperatura máxima de operação que não pode ser excedida”, lembra. O ideal é manter o micro em temperaturas abaixo dos 30ºC. Nos próximos meses, índices assim são atingidos com o auxílio de ar-condicionado. Quando isso não é possível, é preciso ficar atento, ao menos, à ventilação do gabinete. “O computador foi feito para operar na temperatura ambiente. O problema é que, como o ideal é que a temperatura dentro do micro esteja 10º C abaixo da temperatura ambiente típica de 35º C, é difícil manter o gabinete a 30º C no verão carioca, com os processadores e os chips gráficos atuais operando com temperaturas bem altas, acima dos 40º C”, explica Gabriel Torres. “Tão importante quanto a ventilação dos chips é a remoção do ar quente que fica acumulado no gabinete”, ressalta o professor. De acordo com a Intel, os micros baseados nos novos modelos de Pentium 4 podem operar com uma temperatura interna de até 38º C. Com processadores cada vez mais potentes, é preciso ficar atento, também, ao cooler correto, para evitar superaquecimento. Na embalagem do próprio cooler é preciso verificar para que peças ele serve. E seguir à risca a recomendação do fabricante. Um cooler para um processador mais simples pode encaixar perfeitamente em outro mais potente, mas não resolver o problema. Muitos usuários compram a opção mais barata sem prestar atenção se o cooler serve ou não para o processador dele. “Por exemplo, o usuário monta um micro com um Athlon XP 3200+ e usa um cooler barato que só serve até o Athlon XP 2400+, é candidato a ter sérios problemas de superaquecimento”, diz Gabriel. E não é só o calor que atrapalha o bom funcionamento da máquina. Geralmente, a umidade também é maior nessa época do ano, principalmente em cidades litorâneas ou com florestas. Quando misturada à poeira então, é um estrago só! Pode causar oxidação e, conseqüentemente, mau contato. No Break: Com as chuvas de verão, se tornam mais freqüentes os casos de interrupção de fornecimento de energia elétrica. Para quem usa muito o micro, ou tem a mania de deixá-lo ligado por horas e até dias (às vezes conectado à Internet baixando arquivos), o no-break torna-se um periférico indispensável. Sua principal função é manter o micro funcionando por um tempo extra mesmo em caso de apagão, dando tempo para o usuário salvar seu trabalho. Os modelos domésticos oferecem um tempo de autonomia de cinco a 30 minutos, variando de modelo para modelo. Mas é bom lembrar que quanto mais equipamentos ligados ao no-break, menor é o tempo de autonomia. Tanto que não é recomendado que você ligue outros periféricos a ele, como impressoras. Nesse equipamento você deve conectar somente o micro e o monitor de vídeo. Alguns modelos vem também com um software de gerenciamento, programados para desligar os programas que estão em funcionamento, sem prejuízo para a máquina. Os preços variam entre R$ 200 e R$ 1.500 de acordo com as características do produto. Estabilizador: iguala as variações na entrada de energia elétrica (função exercida também pelo fio terra, leia mais abaixo). Mas hoje em dia, muitos computadores e periféricos já são fabricados com as funções de um estabilizador, tornando o uso desse equipamento dispensável. É possível comprar um estabilizador por R$ 40. Filtro de linha: Muita gente não dá importância a esse produto, achando que ele serve apenas para conectar vários equipamentos a uma única omada. Mas é bom sempre ficar atento às especificações técnicas do produto para ter certeza que o filtro de linha escolhido protege os equipamentos contra surtos e picos de energia. Os melhores, geralmente custam entre R$ 100 e R$ 200. Coloque um saquinho de silica gel colado com fita adesiva no fundo do gabinete. Ajuda a diminuir a umidade interna. O Silica Gel também é útil – principalmente quando acompanhado de alguns cravos da índia – para evitar que formigas se alojem no gabinete. Capas plásticas ajudam a evitar o acúmulo excessivo de poeira e umidade. Só não se esqueça de removê-las ao usar o micro, pois caso contrário ela evitará a correta dissipação térmica do micro. Se o usuário instalar uma ventoinha auxiliar na frente do micro, deverá colocá-la no sentido da ventilação (puxando ar de fora do micro para dentro). Se for instalada na parte de trás do micro, deverá seguir o sentido de exaustão (puxando ar de dentro para fora). Não instale o computador em locais com pouca circulação de ar (como dentro de móveis ou próximos às paredes). Abra o seu gabinete e confira como os cabos flat estão arrumados. Se necessário, reorganize-os de um jeito que não atrapalhem o fluxo de ar. Se não souber como fazer, peça a um técnico para organizar os cabos Não deixe o micro perto de janelas (evita os raios solares e também chuvas inesperadas). Quem tem Internet por linha discada deve ter cuidado durante tempestades. Raios podem causar surtos na corrente elétrica. O maior perigo é a descarga elétrica passar pelo cabo do telefone conectado ao modem e queimar todas as placas do micro. Quando for passar muito tempo longe de casa, ou estiver caindo uma tempestade daquelas, desconecte o modem do cabo de telefone. Como nem sempre lembramos de desconectar o fio do modem, a solução é o uso de um filtro entre o modem e a linha telefônica. Os melhores filtros são os que usam um centelhador a gás (uma ampola de vidro contendo gás onde a tensão elétrica em excesso é descarregada). Aprenda a fabricar você mesmo um filtro deste tipo. A poeira pode interferir no funcionamento de muitos componentes, inclusive das ventoinhas. Limpe seu PC regularmente (e com maior freqüência no verão), não esquecendo de verificar se as ventoinhas estão funcionando corretamente. Cuidados extras nunca são demais. Por isso, mesmo quem tem um no-break pode aterrar a rede elétrica a fim de oferecer total proteção ao seu micro (ou a outros equipamente ligados a uma tomada). A função do aterramento é permitir que a descarga elétrica escape pela terra, e não danifique o equipamento eletrônico, além de igualar o potencial elétrico de dois equipamentos interligados. A maioria dos edifícios não possui fio terra e criá-lo não é nada fácil (para isso, é necessário enterrar uma barra de ferro na terra. Se já não é simples para quem mora em uma casa, imagina que vive num apartamento...). Por isso, só um bom eletricista deve fazer a instalação de um fio terra. Em edifícios, muitas vezes se utiliza o encanamento de água para essa instalação. Uma alternativa é o “fio terra virtual”. Pelo menos para igualar o potencial entre os seus equipamentos, conforme explica Gabriel Torres. “Para isso, basta interligar os fios terra deles. O seu estabilizador de tensão pode fazer isso. Basta não cortar o pino terra dos equipamentos e ligá-los ao mesmo estabilizador para que o potencial deles seja igualado. O único problema será se houver diferença de potencial entre você e a carcaça do gabinete. Você tomará um ‘choquinho’ toda vez em que encostar no gabinete. E se for ligar vários micros em rede, o fio terra será necessário”, explica o professor.
  9. Antes de decidir qual é superior, vale a pena entender um pouquinho das duas tecnologias: CDMA: sigla para Code Division Multiple Access (Acesso múltiplo por divisão de código). Tanto os dados quanto a voz são separados dos sinais por códigos, e depois são transmitidos em um amplo conjunto de freqüências. Assim, sobra mais espaço para a transferência de dados (esse foi um dos motivos do CDMA ser a tecnologia mais indicada para o acesso ao 3G, que consiste em acesso a banda larga e troca de pesadas mensagens multimídias). 14% do mercado global pertence ao CDMA. Para a 3G, o CDMA escolheu as tecnologias CDMA 1x EV-DO e EV-DV. Tem muitos usuários na Ásia, sobretudo na Coréia. GSM: sigla para Global System Mobile (sistema móvel global). Apesar de, no Brasil, ser vendida como "grande novidade", essa tecnologia é anterior ao CDMA (e também ao TDMA). Mas é bom lembrar que em momento algum isso significa que o GSM seja inferior ou mais atrasado que o CDMA. A facilidade de roaming e a dificuldade de fraudes representam duas vantagens dessa tecnologia. É a tecnologia mais usada, com 73% do mercado mundial e é na Europa o seu ponto global mais forte. No Brasil, o mercado de GSM representa 28%; enquanto o de CDMA abocanha 30%. A maioria ainda usa TDMA (41%), e ainda existem celulares AMPS (analógicos) ativos no País. Mas a curva de crescimento do TDMA é praticamente nula (a do AMPS nem se fala...), enquanto a do CDMA e, principalmente, a do GSM não param de subir. Gradualmente, o TDMA tende a desaparecer. E com o forte apelo comercial das "novas" operadoras, o número de usuários GSM deve ultrapassar o de CDMA logo, logo. Por isso, então, a disputa pela maior fatia de mercado entre GSM e CDMA (que no Brasil opera somente com a Vivo, ainda a maior operadora do País). Assim, de um lado, o GSM diz que é melhor "porque tem chip, porque é a tecnologia mais usada no mundo, é mais segura e a mais avançada..."; de outro, o CDMA diz que é melhor porque "é a tecnologia 3G, tem a maior cobertura no Brasil, o GSM vai migrar para o CDMA e porque é a mais avançada..." Mas, afinal, qual está certa? Durante o 3º Seminário de Roaming que aconteceu no Rio de Janeiro, o gerente geral para assuntos governamentais da Nokia, Raimundo Duarte, afirmou que "essa discussão deixou de ser técnica, e agora é apenas mercadológica". Essa é a melhor forma de definir a briga travada entre essas duas tecnologias de comunicação móvel. No início, o GSM realmente era superior. Tinha mais serviços, possibilitava maior troca de dados. Quando entrou no Brasil, fomentou o mercado, trazendo mais concorrência, o que resultou em mais serviços e maior usabilidade do celular, queda de preços e melhores aparelhos, só para citar algumas vantagens. Mas o CDMA, ameaçado pela "nova concorrência", se deu conta do potencial evolutivo de sua tecnologia e tratou logo de correr atrás do prejuízo. Hoje, não dá para dizer que os serviços do GSM são melhores que os do CDMA. Mensagens multimídia, vídeo no celular, acesso à Internet em alta velocidade, aparelhos com funções de câmera digital ou até mesmo de PDA...são características que vemos em operadoras de ambas as tecnologias. A nova tecnologia CDMA 1XRTT, uma prévia do que virá na 3G, inclusive traz melhor evolução que o EDGE, tecnologia de "início" de 3ª geração do GSM, permitindo maiores velocidades. Até mesmo a tal vantagem do SIM Card, que possibilita trocar de aparelho e manter a agenda, foi superada pela Vivo. O novo serviço da operadora, o Vivo Agenda, permite que suas informações sejam armazenadas em um banco de dados, o que possibilita recuperar sua agenda telefônica mesmo se o celular for roubado (o que não é possível com o GSM, já que se o celular for roubado, o SIM Card vai junto). Obs: Recentemente foi lançado um acessório no mercado internacional chamado SIM Backup que permite o backup de cartões SIM. Este produto foi lançado após este artigo ter sido escrito e, infelizmente, não está oficialmente disponível no Brasil, e não sabemos se funcionam em chips GSM de celulares brasileiros, já que algumas operadoras bloqueiam o cartão. Depois do anúncio do Vivo Agenda, algumas operadoras GSM começaram a oferecer o armazenamento da agenda mesmo em caso de perda do chip. Mas muitas operadoras ainda não oferecem este serviço. Ou seja, hoje as duas tecnologias estão muito bem equiparadas em termos de tecnologia, mas esse quadro não permanecerá assim no futuro. Afinal, o campo evolutivo do CDMA é muito mais amplo e, por isso, em poucos anos será superior ao GSM. Isso significa que as operadoras de GSM vão desaparecer? Nada disso. Elas apenas vão migrar para uma tecnologia CDMA, e a briga vai continuar. Afinal, as operadoras CDMA de hoje optaram pelo 1xEV-DO e 1XEV-DV para sua rede 3G. E as operadoras GSM optaram por uma tecnologia diferente, o WCDMA. E, apesar do uso de uma tecnologia CDMA, essas operadoras poderão continuar usando a rede GSM de hoje. E os usuários não devem nem sentir a migração para a próxima geração. Não importa que tecnologia escolherem. AMPS: sigla para Advanced Mobile Phone Service (serviços avançados de telefones móveis). Sistema de celular analógico, mas ainda usado no Brasil por operadoras de Banda A. TDMA: sigla para Time Division Multiple Access (Acesso Múltiplo por Divisão de Tempo). Divide os canais de freqüência e cada usuário usa um espaço de tempo específico, para impedir interferências. Ainda é o sistema celular mais usado não só no Brasil, como em toda a América Latina. CDMA 1XRTT: tecnologia de segunda geração (na verdade, de 2,5G) que permite que os dados trafeguem em uma velocidade de até 144 kbps. EDGE: sigla para Enhanced Data Rates for Global Evolution (algo como "taxas aperfeiçoadas de dados para evolução global"). Tecnologia promovida pelas operadoras GSM. Antes de operarem com o WCDMA, o EDGE vai permitir acesso a voz e dados de 3ª Geração. Permite acesso em alta velocidade (384 kbps). EV-DO: Como é conhecida a tecnologia de terceira geração CDMA 1xEV-DO. "EV" vem de evolution (evolução) e "DO" de data-only (somente dados). Usa um segundo canal, de 1,25 MHz, somente para dados. Alguns países já começaram a operá-la. Nos Estados Unidos, a Verizon lançou o serviço neste ano. Ainda neste mês, a Sprint também deve começar a trabalhar com o EV-DO comercialmente. A tecnologia permite acesso à internet em alta velocidade (2,4 Mbit/s), seja através de cartões de conexões sem fio para notebooks e PDAs, ou através dos próprios celulares. A Vivo está realizando testes comerciais do serviço. EV-DV: Evolução do EV-DO, mas ainda está em desenvolvimento. "DV" vem de data-and-voice (dados e voz). Usa o mesmo canal para trafegar dados e voz. A velocidade pode chegar a 5,2 Mbit/s. WCDMA: Wideband CDMA. tecnologia de 3ª Geração que será adotada pelas operadoras GSM. Sua versão européia é conhecida como UMTS (Universal Mobile Telecommunications System, ou Sistema de Telecomunicações Móveis Universal). Velocidades de até 2Mbit/s.
  10. A 12ª edição da feira internacional de imagens PhotoImageBrazil aconteceu na semana passada no Centro de Exposição Imigrantes, em São Paulo, e tem muitos motivos para comemorar. Sua primeira edição, em 1991, teve a participação de apenas 54 empresas. Esta edição contou com 117 expositores. Em 1996, e evento, que era bienal, passou a ser realizado anualmente. Apesar dos problemas de público e de número de participantes que essa decisão trouxe, a organização da feira logo teve a resposta que desejava. A PhotoImageBrazil foi crescendo ano a ano e trouxe a necessidade de um maior contato com o público amador, que voltou a consumir produtos de fotografia com a explosão das câmeras digitais no mercado brasileiro. Tanto que, pela primeira vez, o público consumidor final teve acesso às novidades apresentadas. Apenas no último dia, é certo, mas já pôde conferir, mesmo que brevemente, as tendências desse crescente mercado. Os primeiros dias do evento, como de costume, foram exclusivos para os profissionais da área. A organização aponta mais de 300 marcas nacionais e internacionais representadas na feira. A diretora do evento, Duda Escobar, afirmou que essa foi a maior edição da história da PhotoImageBrazil. “Tivemos o crescimento de 15% na nossa metragem total, que nesse ano se elevou a 22.400 m2; registramos 117 estandes, o que significa um crescimento de 10% sobre a edição de 2003. Pelos depoimentos que já tivemos, o volume total de negócios realizados ultrapassou a cifra de R$ 90 milhões”, revela a executiva. O público total nesse ano chegou a 25.210 visitantes, também o maior afluxo já registrado. Vale lembrar que alguns grandes lançamentos foram deixados para ser apresentados na Photokina (a maior feira de fotografia do mundo, que acontece na Alemanha entre os dias 28 de agosto e 3 de setembro de 2004), então é sempre bom ficar de olho no que será mostrado por lá. Mas em matéria de lançamentos para o público que consome câmeras amadoras ou semi-profissionais, a PhotoImageBrazil teve um resultado positivo, apesar da ausência da Nikon (que só comparece na feira brasileira de dois em dois anos), e da presença tímida da Sony e da HP. Mas as empresas que estiveram presentes não deixaram de lado aquele público que está numa fase de transição entre as máquinas de filmes 35mm para as digitais. Vale lembrar que no ano passado o mercado de digitais na América Latina cresceu 145%, com mais de 1 milhão de remessas de novas câmeras. E o Brasil é o líder na região, com 225 mil câmeras remetidas em 2003, o que representa uma taxa bruta de 125%. O principal fator impulsionador das vendas é a queda dos preços, que estão 20% mas baixos quando comparados ao ano passado. Uma câmera de 1,3 megapixel custava R$ 1,1 mil, em média, em 2002. Em 2003, custava R$ 800 e hoje, um modelo com a mesma definição, mais recursos e design compacto, sai por R$ 640. Com isso, câmeras de 3 e até de 4 MP, que permitem boas impressões, estão ao alcance de um público bem maior. Confira, a seguir, alguns lançamentos das principais empresas que estiveram na feira. A empresa está investindo pesado no Brasil e garantiu seu destaque na feira com lançamentos para usuários amadores e avançados e promoções em seu estande, um dos maiores espaços ocupados no Centro de Exposições Imigrantes. Para usuários amadores, os destaques são modelos D395 e D580. O lançamento mais em conta, e por isso mesmo o mais simples, é a D395, com foco automático de 35mm. Sua resolução é razoável – 3,2 megapixels –, mas não tem zoom ótico. Seu visor LCD tem 1,5 polegadas. Além disso, permite a criação de filmes curtos. Preço sugerido: R$ 1.199. Figura 1: Olympus D395. A D580, com resolução de 4 megapixels e zoom ótico de 3x, incorpora também a função de voice recorder, ou seja, conta com um microfone integrado para a gravação de áudio. Aliás, uma das tendências para o futuro do mercado de fotografias digitais é a convergência de duas ou mais funções. Câmeras com MP3 player, gravador de voz e funções de celulares prometem atrair mais consumidores e expandir esse mercado. A linha Stylus, que traz câmeras resistentes a diferentes condições climáticas, como chuva, poeira e neve, apresentou a Stylus 410, de 4 MP, gravação de vídeo e zoom ótico 3x. Figura 2: Olympus Stylus 410. Já para o mercado de semiprofissionais, a Olympus apresentou as câmeras C770 Ultra Zoom (preço sugerido R$ 4.379) e C765 Ultra Zoom (R$ 3.799), ambas com resolução de 4 megapixels e zoom ótico de 10x. Figura 3: Olympus C770 Ultra Zoom. Esses dois modelos também contam com um processador de imagens aperfeiçoado chamado TruePic Turbo que tenta resolver uma das maiores reclamações dos fotógrafos em relação às digitais: a lentidão no processamento de suas funções. As novas câmeras prometem velocidades mais rápidas para inicialização, disparo de diafragma e apresentação de imagens. A C770 ainda traz como destaque a captura de vídeo com áudio em formato MP4. Já no ramo profissional, a C8080 WideZoom chamou a atenção. A objetiva f2.4 a f.8.0 é uma grande angular zoom ótico de 5x, com uma lente que equivale a uma 28mm-140mm em câmeras convencionais. Também incorpora o processador TruePic Turbo, para resultados mais rápidos e, informa a empresa, ajuda também em fotos mais claras e com mais precisão de cor. Ainda não tem preço sugerido no mercado brasileiro mas, nos Estados Unidos, custa em torno de US$ 1.149. Para o mercado doméstico, a Olympus também investiu na nova impressora P-10. Sua maior vantagem é a impressão de fotos em apenas 45 segundos. Além disso, as novas câmeras da empresa podem ser conectadas diretamente na impressora. Porém, apesar de bonito, o modelo não é dos mais compactos, evitando uma característica crucial nos dias de hoje: mobilidade. Uma das vantagens dos modelos específicos para impressões fotográficas, quando comparadas com os modelos jatos de tinta, é o modo como a foto é impressa. E a P-10 é um exemplo de produto que trabalha no esquema de sublimação de tintas. Dessa forma, as cores saturadas são vaporizadas sobre o papel, e não pontilhadas como na jato de tinta (quando vistas de perto, a foto deixa transparecer os pontos individuais de sua impressão). O resultado é uma suave transição de tonalidades nas bordas de cada pixel, garantindo maior durabilidade da foto. O preço sugerido da P-10 é de R$ 1.800. Custa de cada foto sai por R$ 2,60. Figura 4: Olympus P-10. Mais Informações: http://www.olympusamericalatina.com/port/digital/default.htm Apesar de mostrar câmeras profissionais, o foco da Canon foram as câmeras amadoras e as impressoras. Como por exemplo a Power Shot S60, de 5 MP. Destaque também para os modelos A310 (R$ 999; 3,2 megapixels) a A75 (R$ 1.699; 3,2 MP, zoom ótico de 3x). Figura 5: Canon Power Shot S60. Figura 6: Canon A310. Já a nova linha de impressoras jato de tinta traz as Pixma iP1000, iP1500 e iP 3000. O nome da linha Pixma vem da junção de Pixel com Maximum. Segundo a empresa, a tecnologia Fine (Full Photography Inkjet Nozzle Engineering) garante alta resolução nas imagens impressas e maior velocidade da impressão. Mais Informações: http://consumer.usa.canon.com/ir/controller?act=ProductCatIndexAct&fcategoryid=113 FujiFilm A Fuji traz três novos modelos de câmeras amadoras. A mais em conta é a A120, com resolução de 3,1 MP, mas não tem zoom ótico. Preço sugerido: R$ 990. A FinePix A330 tem 3,2 MP e zoom ótico de 3x. Preço sugerido: R$ 1.290. E o modelo mais avançado, de 4 MP, é a FinePix A430, que também traz zoom ótico de 3x, além de função macro (distância mínima de 10 cm). R$ 1.590. As três prometem também função de webcam e gravação de vídeo. Para o mercado profissional, a FujiFilm apresentou a FinePix S3 Pro, com 12 megapixels. Deve chegar ao mercado brasileiro apenas no final do ano Mais Informações: http://www.fujifilm.com.br/produtos/index.asp A Samsung, que abraça a segunda posição de câmeras digitais mais vendidas no Brasil, com 20% do mercado, quer crescer ainda mais no mercado doméstico este ano. A empresa espera um upgrade de mais de 200% este ano. Os principais lançamentos foram: Digimax V50 (5,1 MP, zoom ótico de 3x, lente schneider, monitor rotatório colorido de 2”, vídeo). Digimax U-CA 3 (3.2 MP, zoom ótico de 3x, macro 5c, lâmpada que emite 7 cores para cada operação) e Digimax U-CA 401 (4 MP, 6 graduações de iluminação, ultra compacta, não tem zoom ótico). Figura 7: Samsung Digimax U-CA 401. Mais Informações: http://www.samsungtechwin.com/ Kodak Na área de impressoras, a empresa lança a EasySharePlus, que incorpora padrões internos infra-vermelhos e um adaptador opcional para Bluetooth. Permite a impressão de fotos de praticamente todas as fontes digitais: celulares, palmtops, câmeras digitais ou leitores de cartão. As fotos são impressas em pouco mais de 60 segundos. Chega ao mercado brasileiro em setembro com o preço sugerido de R$ 999. O mais barato lançamento de câmeras digitais é a CX 7220, com 2 megapixels, zoom ótico de 2x, memória interna de 16 MB. Preço sugerido: R$ 799. A mais avançada, para o mercado amador, é a DX 7630, com resolução de 6 megapixels e lente Schneider. Zoom ótico de 3x, foco automático para alta precisão com baixa luminosidade, captura de vídeos com som. Preço sugerido: R$ 3.299. Figura 8: Kodak CX 7220. Mais Informações: http://wwwbr.kodak.com/BR/pt/produtos/produtosTipo/amador.shtml?primeiro=0&segundo=1

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...