Imprimir artigo
Vale a pena comprar um monitor 4K?
por em Tutoriais
Última atualização:
49.946 visualizações
Página 1 de 4

Introdução

Uma característica importante nos monitores de vídeo é a resolução, que é a quantidade de pontos (pixels) presentes na tela. A resolução dos monitores vem aumentando desde o surgimento dos primeiros computadores, e o padrão que começa a se tornar acessível é conhecido como “4K UHD” ou simplesmente “4K”. Mas será que já é hora de investir em um monitor que suporte esta resolução? É o que discutiremos neste artigo..

Primeiramente, é interessante deixarmos claro que existem várias características relacionadas a monitores de vídeo, como tempo de resposta e taxa de contraste, só para citar algumas das mais importantes. Você pode aprender mais sobre elas em nosso tutorial “Tudo o que você precisa saber sobre monitores LCD”. Neste artigo focaremos nas vantagens e desvantagems de utilizar a resolução 4K.

Normalmente, uma resolução de vídeo é mostrada com dois números separados por “x”, onde o primeiro é o número de pontos (pixels) presentes na horizontal, e o segundo o número de pontos (pixels) presentes na vertical; este é o padrão mais utilizado, que usaremos neste texto. Cada resolução tem uma sigla pela qual é conhecida, e apresentaremos esta sigla entre parênteses.

No início da era dos computadores pessoais, quando os monitores ainda eram de tubo (CRT), existiam várias resoluções, como MDA, CGA, EGA e VGA. Esta última, de 640 x 480, era a que apresentava a mesma resolução de aparelhos de TV de tubo (resolução hoje conhecida como SD ou Standard Definition) e foi por anos considerada a resolução “padrão” para computadores de mesa. Posteriormente, monitores capazes de trabalhar a 800 x 600 (SVGA) e 1024 x 768 (XGA) foram, a seu tempo, os mais utilizados. Tanto que ainda hoje muitos aplicativos e sites são otimizados para visualização nestas resoluções.

Já na época dos monitores de cristal líquido ou LCD, embora os primeiros (e mais baratos) utilizassem a então popular resolução de 1024 x 768, logo surgiram monitores com resoluções de 1280 x 1024 (SXGA).

A próxima evolução foi a adoção do padrão “widescreen” (literalmente, tela larga), com resoluções de 1280 x 720 (WXGA), 1366 x 768 (HD), até hoje a mais popular em telas de notebooks, 1440 x 900 (WXGA+) e 1600 x 900 (HD+), comum atualmente em monitores de baixo custo de 17 e 19 polegadas.

Porém, para computadores de mesa (e notebooks voltados para jogos), o padrão mais utilizado tem sido 1920 x 1080, chamado de Full HD, FHD ou 1080p. Se você comprar hoje um monitor de 20 ou 24 polegadas, provavelmente esta será sua resolução, que também se tornou o padrão mais utilizado em TVs LCD.

Monitores que utilizam resoluções mais altas, como 2560 x 1440 (WQHD) e 2560 x 1600 (WQXGA), existem há anos, mas são voltados principalmente para estações de trabalho de design gráfico e também utilizados por aficionados por jogos com um orçamento espaçoso, já que até hoje são monitores caros e difíceis de serem encontrados à venda no Brasil.

O cenário mudou nos últimos meses, com o surgimento e popularização do padrão 4K UHD (Ultra HD), que tem 3840 x 2160 pixels.

ARTIGOS RELACIONADOS
ÚLTIMAS NOTÍCIAS EM VÍDEO
ÚLTIMOS ARTIGOS
529.700 usuários cadastrados
341 usuários on-line