Ir ao conteúdo

Vale a pena comprar um monitor 4K?

       
 59.736 Visualizações    Tutoriais  
 22 comentários

Os monitores com resolução 4K estão começando a ficar acessíveis. Mas vale a pena investir em um? Veja quais são as vantagens e desvantagens, e dicas de como trabalhar nesta resolução mais alta.

Vale a pena comprar um monitor 4K?
Rafael Coelho Editor-chefe do Clube do Hardware

Introdução

Uma característica importante nos monitores de vídeo é a resolução, que é a quantidade de pontos (pixels) presentes na tela. A resolução dos monitores vem aumentando desde o surgimento dos primeiros computadores, e o padrão que começa a se tornar acessível é conhecido como “4K UHD” ou simplesmente “4K”. Mas será que já é hora de investir em um monitor que suporte esta resolução? É o que discutiremos neste artigo.

Primeiramente, é interessante deixarmos claro que existem várias características relacionadas a monitores de vídeo, como tempo de resposta e taxa de contraste, só para citar algumas das mais importantes. Você pode aprender mais sobre elas em nosso tutorial “Tudo o que você precisa saber sobre monitores LCD”. Neste artigo focaremos nas vantagens e desvantagems de utilizar a resolução 4K.

Normalmente, uma resolução de vídeo é mostrada com dois números separados por “x”, onde o primeiro é o número de pontos (pixels) presentes na horizontal, e o segundo o número de pontos (pixels) presentes na vertical; este é o padrão mais utilizado, que usaremos neste texto. Cada resolução tem uma sigla pela qual é conhecida, e apresentaremos esta sigla entre parênteses.

No início da era dos computadores pessoais, quando os monitores ainda eram de tubo (CRT), existiam várias resoluções, como MDA, CGA, EGA e VGA. Esta última, de 640 x 480, era a que apresentava a mesma resolução de aparelhos de TV de tubo (resolução hoje conhecida como SD ou Standard Definition) e foi por anos considerada a resolução “padrão” para computadores de mesa. Posteriormente, monitores capazes de trabalhar a 800 x 600 (SVGA) e 1024 x 768 (XGA) foram, a seu tempo, os mais utilizados. Tanto que ainda hoje muitos aplicativos e sites são otimizados para visualização nestas resoluções.

Já na época dos monitores de cristal líquido ou LCD, embora os primeiros (e mais baratos) utilizassem a então popular resolução de 1024 x 768, logo surgiram monitores com resoluções de 1280 x 1024 (SXGA).

A próxima evolução foi a adoção do padrão “widescreen” (literalmente, tela larga), com resoluções de 1280 x 720 (WXGA), 1366 x 768 (HD), até hoje a mais popular em telas de notebooks, 1440 x 900 (WXGA+) e 1600 x 900 (HD+), comum atualmente em monitores de baixo custo de 17 e 19 polegadas.

Porém, para computadores de mesa (e notebooks voltados para jogos), o padrão mais utilizado tem sido 1920 x 1080, chamado de Full HD, FHD ou 1080p. Se você comprar hoje um monitor de 20 ou 24 polegadas, provavelmente esta será sua resolução, que também se tornou o padrão mais utilizado em TVs LCD.

Monitores que utilizam resoluções mais altas, como 2560 x 1440 (WQHD) e 2560 x 1600 (WQXGA), existem há anos, mas são voltados principalmente para estações de trabalho de design gráfico e também utilizados por aficionados por jogos com um orçamento espaçoso, já que até hoje são monitores caros e difíceis de serem encontrados à venda no Brasil.

O cenário mudou nos últimos meses, com o surgimento e popularização do padrão 4K UHD (Ultra HD), que tem 3840 x 2160 pixels.

Compartilhar



  Denunciar Artigo

Comentários de usuários


Na minha opinião, faltou citar outro fator que virou tendência para este assunto: DPI

 

Eu sei que estamos falando de monitores para PC mas por conta do advento que as telas de celular se tornaram mais populares e cada vez mais nítidas, a mesma tecnologia foi adotada também no "irmão maior".
Só pra citar como exemplo: a Apple introduziu em 2012 os MacBooks Pro com Tela Retina - nas telas de 13" e 15" ela adotou a resolução de 2560x1600 e 2880x1800, respectivamente. Qual a ideia? Ao invés de somente aproveitar o espaço disponível pra colocar mais coisa, a Apple remodelou o OS X pra usar a densidade de pixels de forma a deixar a imagem mais nítida e os pixels da tela praticamente invisíveis "a olho nu". Como estamos acostumados a trabalhar em monitores com 96 dpi (110 dpi, na maioria dos notebooks), esse número aumentou pra 220 dpi.

E com o 4K, a ideia (no meu ver) é a mesma. A imagem é mais nítida porque a densidade de pixels é o dobro do 1080p, logo ao invés de simplesmente usar uma tela com tamanha resolução para mais espaço, você pode configurar o SO pra aumentar a nitidez dos elementos e fornecer uma imagem mais nítida.


A Apple começou suporte à Tela Retina no OS X Lion (10.7.2);
A Microsoft só adotou suporte ao HiDPI a partir do Windows 8.1, as "gambiarras" do Windows 7 não otimizam totalmente a interface;
No mundo GNU/Linux não sei dizer com certeza mas algumas distros já progrediram bastante nesse aspecto.


Só por fins de comparação, no celular já estamos falando em telas com 400+ DPI - só pra ilustrar o que digo, celulares de 5" com telas WQXGA (LG G4 taí pra provar o q eu digo).

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Outro fator importante que a matéria ignorou é a respeito da atual qualidade das telas em si. Apesar de citar no inicio que existem vários fatores, não abordou por exemplo o tempo de resposta, efeito ghost, brilho e contraste que as atuais telas conseguem oferecer. 

A verdade é que um monitor 4k a essa altura do campeonato não é lucro pra ninguém. As telas ruins custam caro, as boas ainda não são tão boas assim e custam ainda mais! O único motivo que a matéria evidencia como vantajoso, ao meu ver não é, pois para aumentar a área de trabalho de quem edita textos, mais fácil, funcional e barato é adicionar monitores. Eu uso meu laptop no trabalho com uma tela adjacente. O programador que trabalha ao meu lado, usa o pc com 3 telas, inclusive uma delas na vertical para escrever os códigos. 

Uma TV ou monitor 4k por enquanto é mais pra você dizer aos amigos que tem do que para ter efeito real. 

Cai na mesma discussão de trocar uma placa de video que voce usa pra jogar CS com 200 fps por uma nova que roda a 300 fps:

 

"Faz bem ao ego, não aos olhos..."

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Outro fator importante que a matéria ignorou é a respeito da atual qualidade das telas em si. Apesar de citar no inicio que existem vários fatores, não abordou por exemplo o tempo de resposta, efeito ghost, brilho e contraste que as atuais telas conseguem oferecer.

 

Nesta parte nós linkamos outros tutorial: http://www.clubedohardware.com.br/artigos/tudo-o-que-voce-precisa-saber-sobre-monitores-lcd/942

 

Que explica os pontos principais que você lista (faltam alguns outros). Vou atualizar este outro tutorial em breve. Obrigado.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Nesta parte nós linkamos outros tutorial: http://www.clubedohardware.com.br/artigos/tudo-o-que-voce-precisa-saber-sobre-monitores-lcd/942

 

Que explica os pontos principais que você lista (faltam alguns outros). Vou atualizar este outro tutorial em breve. Obrigado.

Grande Gabriel!

Bom eu fiz esse comentario pensando na qualidade geral dos artigos e materias aqui do CdH. É uma critica que tentei fazer de forma construtiva, aja visto a alta qualidade que sempre vejo no material do site.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Parabéns pelo texto, tirou algumas dúvidas. Hoje, eu vi uma TV 4K da Samsung com 1200 Hz (mil e duzentos hertz).

Na minha opinião, uma coisa que poderia ser adicionada ao texto é sobre esse tal de "CLEAR MOTION RATE" e similares.

É interpolação? Isso realmente melhora a imagem ou é só propaganda?

 

 

biuofq.jpg

Editado por agnaldoreis

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Outro fator importante que a matéria ignorou é a respeito da atual qualidade das telas em si. Apesar de citar no inicio que existem vários fatores, não abordou por exemplo o tempo de resposta, efeito ghost, brilho e contraste que as atuais telas conseguem oferecer. 

A verdade é que um monitor 4k a essa altura do campeonato não é lucro pra ninguém. As telas ruins custam caro, as boas ainda não são tão boas assim e custam ainda mais! O único motivo que a matéria evidencia como vantajoso, ao meu ver não é, pois para aumentar a área de trabalho de quem edita textos, mais fácil, funcional e barato é adicionar monitores. Eu uso meu laptop no trabalho com uma tela adjacente. O programador que trabalha ao meu lado, usa o pc com 3 telas, inclusive uma delas na vertical para escrever os códigos. 

Uma TV ou monitor 4k por enquanto é mais pra você dizer aos amigos que tem do que para ter efeito real. 

Cai na mesma discussão de trocar uma placa de video que voce usa pra jogar CS com 200 fps por uma nova que roda a 300 fps:

 

"Faz bem ao ego, não aos olhos..."

 

Essas afirmações não são tão verdade assim, comprei uma TV 4k LG 42UB8200, e estou tendo uma ótima experiência na área de trabalho.

 

A questão preço foi a primeira superada: por R$2.000,00, acho mais do que justo ter a mesma resolução de área de trabalho que 4 monitores full hd de 21 polegadas, que é encontrado por uma média de 500 reais, logo o preço é o mesmo, contando que ainda levo ótimo sistema de som (me surpreendeu por ser uma tv tão fina) e outras entradas, uma vez que o uso da TV é para PC e TV.

 

A produtividade aumenta muito com uma tela desse tamanho. Não vai ter algumas facilidades de telas separadas como arrastar e maximizar com a mesma velocidade, mas o espaço é tanto que você "joga" as janelas pela área de trabalho e nem precisa arrumar. Para certas aplicações, como abrir um projeto em AutoCAD é até covardia.

 

Outra vantagem é a possibilidade de jogar uma infinidade de jogos antigos que foram reprogramados para 4K dando uma visão que antes era impossível: Age of Empires 2, Sim City 4, ou outros escritos em nGlide para as antigas Voodoos, já fiz vários testes e o resultado é muito bom.

 

A placa de vídeo que comprei foi apenas uma R7 240, e roda muita coisa em 4K, colocando no mínimo, claro.

 

Agora os pontos negativos não posso deixar de citar:

 

Para alguns jogos, o alto input lag atrapalha, mesmo em resoluções mais baixas e configurada no modo Game, além da taxa de atualização em 30Hz. Essa TV tem a capacidade de exibir 4K em 60Hz, porém com as limitações da placa de vídeo, espero em pouco tempo ter uma opção no mercado barata para exibição em 4K@60. Dessa forma não posso avaliar ainda esse modo de exibição. Acredito que deve melhorar um pouco o rastro em cenas rápidas e aumentar ainda mais o input lag, mas dentro do esperado por um produto com o preço tão em conta.

 

Nessa TV, quando está setada em 4K, as cores caem para 8 bits, dando um total de 16,7 milhões de cores, o que não chega a ser um problema, exceto pelo fato da TV não ter preto, um problema comum à quase todas LCDs.

 

Outro ponto negativo nessa TV é como o back panel não fica colado na matriz de pixels, bem no canto da tela, dependendo do ângulo de visão, alguns pixels ficam escurecidos, porém sem trazer maiores transtornos.

 

Um ponto negativo não ligado exatamente ao monitor ou TV é que para exibição 4K de filmes e vídeos, é utilizado muito recurso do PC, logo é preciso ainda ter um processador bem potente para rodar HTML5 e Flash Player e os codecs em 4K. Estou com um Phenom X4 @ 3.0 Ghz, e ainda não é o suficiente. Não dá pra assistir nada na máquina em 4K com suavidade.

 

Concluindo, fiquei muito satisfeito com a utilização dessa TV como monitor do PC, mesmo com as limitações do produto. Ganhei em conforto visual, produtividade e maior imersão em vários jogos, além do ótimo custo benefício.

 

Para quem deseja jogos de FPS ou seja cinéfilo não é recomendado esse produto, aí sim é dizer que tem apenas pra dizer que tem. Ainda não foi testada a total capacidade da TV aqui em casa, talvez em breve posso dar alguma contribuição.

Editado por Rafael Guerra

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

@Rafael Guerra Você está tendo uma ótima experiência porque, para começar, sua TV tem uma tela de 42" e não 28" ou 30" como é comum em monitores 4K.

 

A placa de vídeo que comprei foi apenas uma R7 240, e roda muita coisa em 4K, colocando no mínimo, claro.

 

Se é para rodar em 4K, com toda essa resolução e colocar os detalhes no mínimo, então eu, particularmente, optaria por jogar em outra resolução mais baixa, pois acredito que quem deseja jogar em 4K, deseja qualidade visual.

 

Mas claro, sem desmerecer nada do que você comentou, são apenas minhas colocações.

 

Abraço.

Editado por edurc

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Com resolução 4K, imagino que haja pouca necessidade de Antialiasing, isso já dá uma aliviada na carga da VGA. ;)

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Com resolução 4K, imagino que haja pouca necessidade de Antialiasing, isso já dá uma aliviada na carga da VGA. ;)

 

Exato, a imagem fica melhor em 4K sem antialiasing do que em FHD com AA, já que o AA pode ser encarado como uma simulação de resolução mais alta.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Exato, a imagem fica melhor em 4K sem antialiasing do que em FHD com AA, já que o AA pode ser encarado como uma simulação de resolução mais alta.

 

Deve ser uma beleza isso para a cadência dos quadros.

 

Por hora, vou usando o AA de pobre, que é jogar sem óculos. :D

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Na minha opinião, faltou citar outro fator que virou tendência para este assunto: DPI

 

Eu sei que estamos falando de monitores para PC mas por conta do advento que as telas de celular se tornaram mais populares e cada vez mais nítidas, a mesma tecnologia foi adotada também no "irmão maior".

Só pra citar como exemplo: a Apple introduziu em 2012 os MacBooks Pro com Tela Retina - nas telas de 13" e 15" ela adotou a resolução de 2560x1600 e 2880x1800, respectivamente. Qual a ideia? Ao invés de somente aproveitar o espaço disponível pra colocar mais coisa, a Apple remodelou o OS X pra usar a densidade de pixels de forma a deixar a imagem mais nítida e os pixels da tela praticamente invisíveis "a olho nu". Como estamos acostumados a trabalhar em monitores com 96 dpi (110 dpi, na maioria dos notebooks), esse número aumentou pra 220 dpi.

E com o 4K, a ideia (no meu ver) é a mesma. A imagem é mais nítida porque a densidade de pixels é o dobro do 1080p, logo ao invés de simplesmente usar uma tela com tamanha resolução para mais espaço, você pode configurar o SO pra aumentar a nitidez dos elementos e fornecer uma imagem mais nítida.

A Apple começou suporte à Tela Retina no OS X Lion (10.7.2);

A Microsoft só adotou suporte ao HiDPI a partir do Windows 8.1, as "gambiarras" do Windows 7 não otimizam totalmente a interface;

No mundo GNU/Linux não sei dizer com certeza mas algumas distros já progrediram bastante nesse aspecto.

Só por fins de comparação, no celular já estamos falando em telas com 400+ DPI - só pra ilustrar o que digo, celulares de 5" com telas WQXGA (LG G4 taí pra provar o q eu digo).

 

Então, muito interessante isso que você falou, eu sempre me perguntei porque em celulares se fala tanto em DPI e em monitores essa especificação nunca é tocada, sendo que o fato dos pixels visiveis a olho nú é algo que particularmente me incomoda MUITO ! Por exemplo, meu antigo Nokia 5530 tinha uma resolução de 360 x 640 pixels (~253 ppi pixel density) e meu monitor atual tem 19" e resolução de 1440X900, e a qualidade de imagem do meu antigo Nokia é muito superior a do meu monitor !!!! Engraçado, porque será que NINGUÉM fala disso nos monitores né ? Tava conversando com um amigo esses dias sobre resolução 4k e ele me disse que é imbecilidade usar um monitor inferior a 32" em 4k, queria entender a lógica dessas pessoas...

Editado por kid.gafanhoto

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Então, muito interessante isso que você falou, eu sempre me perguntei porque em celulares se fala tanto em DPI e em monitores essa especificação nunca é tocada, sendo que o fato dos pixels visiveis a olho nú é algo que particularmente me incomoda MUITO ! Por exemplo, meu antigo Nokia 5530 tinha uma resolução de 360 x 640 pixels (~253 ppi pixel density) e meu monitor atual tem 19" e resolução de 1440X900, e a qualidade de imagem do meu antigo Nokia é muito superior a do meu monitor !!!! Engraçado, porque será que NINGUÉM fala disso nos monitores né ? Tava conversando com um amigo esses dias sobre resolução 4k e ele me disse que é imbecilidade usar um monitor inferior a 32" em 4k, queria entender a lógica dessas pessoas...

Não se fala em DPI simplesmente por as telas de computadores e TVs terem uma variação absurda nos tamanhos, ago que não acontece com tamanha discrepância nos portateis. É obvio que o DPI de um monitor 4k de 28" vai ser absurdamente mais alto do que de uma TV de 60". Afinal em TVs e monitores a quantidade de pixels é padronizada. 

Editado por sdriver

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

A questão é que monitores são utilizados mais longe dos olhos do que um smartphone, e uma TV em geral é vista mais de longe ainda. Por isso a questão dos DPI é mais importante em telas de smartphones.

Pessoalmente, eu acho ridículo que 99% dos notebooks encontrados no mercado ainda tenha tela HD. Editar um texto online é horrível nessa resolução, as barras de botões e menus ocupam mais de metade da tela mesmo com a janela do navegador maximizada, deixando umas poucas linhas de área útil para edição.

O pior é que simplesmente não se encontra no mercado um notebook mainstream com tela FullHD; apenas notebooks "gamer" que custam uma pequena fortuna.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Exato, a imagem fica melhor em 4K sem antialiasing do que em FHD com AA, já que o AA pode ser encarado como uma simulação de resolução mais alta.

AA não simula resolução mais alta, pois não aumenta nem um pixel só na imagem, mesmo se renderizar a mais como faz o DSR ou VSR no final vai ter que mandar na resolução do monitor se não nem dá video, só suaviza as bordas OK, o AA mais pesado faz praticamente o mesmo que o DSR e VSR e reduz a imagem de volta pra resolução do monitor, o mas leve só suavisa as bordas e dá na mesma, tanto que acho usar VSR ou DSR só pra jogar burrice, pesa mais que AA e dá na mesma, se for pra gravar um Gameplay em 4K ou tira print é bom.

A questão é que monitores são utilizados mais longe dos olhos do que um smartphone, e uma TV em geral é vista mais de longe ainda. Por isso a questão dos DPI é mais importante em telas de smartphones.

Pessoalmente, eu acho ridículo que 99% dos notebooks encontrados no mercado ainda tenha tela HD. Editar um texto online é horrível nessa resolução, as barras de botões e menus ocupam mais de metade da tela mesmo com a janela do navegador maximizada, deixando umas poucas linhas de área útil para edição.

O pior é que simplesmente não se encontra no mercado um notebook mainstream com tela FullHD; apenas notebooks "gamer" que custam uma pequena fortuna.

Vi tela Cel 1080P e não consegui ver um pixel só nem de perto, 720P da de ver fácil, minha vista não é das melhores nem das piores tambem, já em TV 4K é fácil de ver, monitor 1080P tambem é até de longe da de ver, mas gosto de usar monitor de perto e TV de longe, 1080P pra TV está perfeito pra uns 99,9% das pessoas, na joja todo mundo olha a TV colado na tela, e em casa senta no sofá bem longe KKK, pra monitor 4K não é exagero, se tem CEL saindo com telas que só PC Top tinha em 2006 pra edição profissional ainda e o pessola falava que era exagero pois 1080P é o limite da visão humana pros "especialistas" assim como a lorota dos 30FPS kkk, acima de 60 sei que é besteira o que importa mesmo é Frame Time estavel por isso filme a só 24FPS não dá lag, mas tambem não fica como uma a 48FPS, por isso acho besteira CEL com mais de 1080P, tablet com mais de 2K, monitor de 4K nunca vi mas deve ser perfeito pra mim na distancia que uso, o 1080P é lixo, sempre achei já sonhava com um 2560X1600 desde 2006, e tinha gente que achava que 1080P era Top, não bate nem a resolução máxima de monitor analógico profissional KKK, nem 4K é Top já tem 5K e logo vem monitor 8K pra vender por enquanto nem pra vender na NET achei.

Então, muito interessante isso que você falou, eu sempre me perguntei porque em celulares se fala tanto em DPI e em monitores essa especificação nunca é tocada, sendo que o fato dos pixels visiveis a olho nú é algo que particularmente me incomoda MUITO ! Por exemplo, meu antigo Nokia 5530 tinha uma resolução de 360 x 640 pixels (~253 ppi pixel density) e meu monitor atual tem 19" e resolução de 1440X900, e a qualidade de imagem do meu antigo Nokia é muito superior a do meu monitor !!!! Engraçado, porque será que NINGUÉM fala disso nos monitores né ? Tava conversando com um amigo esses dias sobre resolução 4k e ele me disse que é imbecilidade usar um monitor inferior a 32" em 4k, queria entender a lógica dessas pessoas...

Não é imbecilidade se usar de perto como eu, imbecilidade é mouse "Gamer", se nem monitor 4K passa de 300DPI pra que aqueles milhares de DPI, alem que são todos interpolados, regulo o meu pra 800 que é o minimo acima fica lixo, aumento pelo jogo e windows, 4K em monitor de 28 pra mim que uso colado na tela deve ficar muito bom, se até na loja vi umas TVs 4K e tinha que chegar bem perto pra perder nitidez rodando 4K, 4X mais perto que uma 1080P, por isso pra TV é besteira mesmo, tanto que Cinema Digital usa pouca coisa a mais que 4K, a tela é grande mais de vê de longe, o que importa é mais distancia que tamanho de tela, por isso Cel hoje já vem uns com telas mais Tops de resolução que Apple Cinema de 30 monitor que sonhava em 2006 pra mim lol, tem gente que gosta de 32 mas usa de longe, já vi pessoal jogando FPS com monitor de 42 pra mim é dor de cabeça na certa, e conta de luz alta, não gosto de tela muito grande, prefiro resolução em uma tela média de 28, por isso prefiro monitor, tem gente que joga com TV e acha Top KKK, aquelas cores suadas de qualquer TV pra vender na loja parasnoobs como som de loja que são todos lixos, TV boa não tem nestas lojas pois é pra quem entende e tem grana igual som bom que não pode ter corneta de vender pamonha como este Mutekis bem caros, pelo preço do Muteki pode se ompar uma som mais fraco mas de altura boa de se ouvir, muteki é pra estragar audição e só, o som é horrivel até em volume baixo, ai leva um mas de mais durabilidade e qualidade sonora muito boa ou até perfeita em testes cego, já o muteki pelas cornetas qualquer um percebe o som zuado e diferente, ai quem não entende acha que o barulho de corneta é fidelidade sonora lol, igual as cores exagerads das TVs de loja, olha as cores desta TV o vendedor a redução de ruido, muitos filmes deixam o ruido de filme até no analogico de proposito o cara vai lá tira e borra tudo, se nem Photoshoop presta pra tirar ruido sem perder nitidez imagina TV nunca vi uma prestar nisso, desligo tudo e regulo com aquelas imagens de calibração da NET, mas nem chega perto do monitor de 400 reais, nem uma 60 polegads nem uma 42, ele mostra estes filtros e tal pros Noobs e cara se inpressiona KKK, eu desligo tudo que vem nela, nitidez e tal mas mesmo assim uma TV cara não bate um monitor barato em cores KKK, em preto claro que até Plasma barata detona LCD caro.

Editado por LFSO

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

@Rafael Guerra Você está tendo uma ótima experiência porque, para começar, sua TV tem uma tela de 42" e não 28" ou 30" como é comum em monitores 4K.

 

 

Se é para rodar em 4K, com toda essa resolução e colocar os detalhes no mínimo, então eu, particularmente, optaria por jogar em outra resolução mais baixa, pois acredito que quem deseja jogar em 4K, deseja qualidade visual.

 

Mas claro, sem desmerecer nada do que você comentou, são apenas minhas colocações.

 

Abraço.

Não acho nesse caso, pois quando se coloca em resolução menor, é perceptível um embassamento na imagem causado pelo não casamento dos pixels.

 

Mas completando a mensagem, reforço que a experiência de jogos com muito movimento em 30Hz é sofrível, já testei GTA5 4K rodando com uma HD7850, e a taxa de atualização realmente limita o gameplay e causa desconfoto. Quando estiver com uma placa de vídeo que tenha display port ou hdmi 2.0 e capacidade de rodar 4K@60 posto aqui a experiência. E torcendo pro input lag diminuir.

 

Um abraço

Editado por Rafael Guerra

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Não acho nesse caso, pois quando se coloca em resolução menor, é perceptível um embassamento na imagem causado pelo não casamento dos pixels.

 

Mas completando a mensagem, reforço que a experiência de jogos com muito movimento em 30Hz é sofrível, já testei GTA5 4K rodando com uma HD7850, e a taxa de atualização realmente limita o gameplay e causa desconfoto. Quando estiver com uma placa de vídeo que tenha display port ou hdmi 2.0 e capacidade de rodar 4K@60 posto aqui a experiência. E torcendo pro input lag diminuir.

 

Um abraço

Cara até minha 6780 tem Display port, só não manda 4K por limitação da VGA, vai até 2560X1600, nunca testei mais que 1080P, a AMD que diz, compra uma Adaptador dele pra HDMI, ou uma cabo de uma ponta de cada um, o cabo é melhor dura mais que adaptador, mas estando todos beleza a qualidade é a mesma, Digital só difere qualidade em caso de um defeito ou falha na transmissão como no sinal da TV digital, já anlógico sempre tem perdas, mesmo que sejam imperceptiveis, prefira um cabo e manda direto pro monitor, monitor 4K sempre vem Display Port e HDMI, uma pena que abandonaram o DVI mandaria até 5K a 60Hz fácil se atualizasse ele, HFMI não dura nada, o conector é muito fragil, tanto do cabo, VGA, Monito ou TV, nunca vi DVI dar pau, quando dá a VGA ou tv e  monitor que tá lascado, display porrt não deve durar muito é bem parecido com HDMI seus pinos, o DVI tem o Sink link que sobra pra 1080P e Dual lInk, vou comprar um dual pois ai até caindo pino vai dar 100% de qualidade KKK, já tive que trocar o HDMI de DVI aqui por artefatos causados pelo cabo KKK, achava que só VGA dava artefatos, depois que troquei tá 100% a imagem, o DVI é mais caro mais vai durar muitos anos aqui, mas que o monitor lol.

 

Isso só acontece em monitor digital cara que interpola pra uma resolução mais baixa do que a nativa, no analógico era bom que dava pra colocar 1024X768 no meu 1280X1024 sem ter os problemas de rodar em uma resolução não nativa como ocorre em LCD e a imagem ficava muito boa, no LCD do meu amigo ficava lixo, e tinha gente que comparava LCD de 1280X2014 e usava em 1024X768, e achava Top o LCD, depois que mostrei pro meu amigo o CRT em 1024X768 sem imagem borrada ele achou o LCD lixo, mas era mesmo pois os primeiros LCDs tomavam benga de CRT, agora não troco pela tela Wide e conforto visual, no CRT da muita dor de cabeça e força a vista, mesmo colocando em 75Hz que era o máximo do meu em 1024X768, o CRT não atualiza toda tela de uma vez como LCD ele vai atualizando ela por partes mais bem rápido, por isso que cameras filma a piscada dele, no LC dá pra filmar de boa, em 1280X1024 a imagem ficava bonita mas era muito ruim pra usar,fui lá coloquei em 1280X1024, ele falo que ficou tudo pequeno, mostrei que dá pra regular o tamanho no Windows KKK. Todas as resoluções que o monitor roda são nativas no CRT lol, pra minha 7300GT em Over de 550 na GPU vs os 350 originais não sofrer usava 1024X768, a VGA só era boa em % de Over, a amior que já vi até na NET sem WC ou outros articios caros, metia uma FAN forte do lado e sentava o Over nem artefato dava ou crashs KKK. O ruim que nunca vi analógico de LCD nem sei se dá pra fazer, alem que analógico com cabo ruim degarda amimagem, Digital só degradou aqui quando o conector tava meio solto no cabo, mesmo assim ficava uns pontos coloridos na tela, não tudo lascado como um VGA velho que meu amigo usava, emprestei meu cabo VGA pra ele e ficou muito limpa a imagem, na deve ter digital anal´gico nem pra gamer, ai seria muma boa em, já pensou um monitor 4K que tem a mesma qualidade de um nativo em resoluções mais baixas como CRT tem, ia ser Top, acho que deve dar pra fazer, mas vai ia mais caro o maquinário tá tudo pra digital. Tem a sensibilidade do mouse, tem gente que acha que tem que comprar mouse mais sensivel pra agilizar no Windows KKK, dá pra regular como regula em um jogo de boa, 400DPI sobra até pra 4K que são menos de 300DPI, ou seja um mouse de 800DPI dá e sobra, vou trocar o meu por um LOgitech de 800DPI de minima e uns 2400 de máxima, quanto menos DPI de minima acho melhor, egulo no jogoe SO e fica bem preciso, já tenho precisão pixel a pixel aqui testado no Pint com dois mouses baratos, só um sem fio não passou e um simplão, não achei de 400DPI logitech, pego pois tem 3 anos de garantia no minimo, mas tenho um mouse e teclado dela aqui com 5 anos de garantia.                                                                                                                   

Editado por LFSO

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Na minha opinião, faltou citar outro fator que virou tendência para este assunto: DPI

 

Eu sei que estamos falando de monitores para PC mas por conta do advento que as telas de celular se tornaram mais populares e cada vez mais nítidas, a mesma tecnologia foi adotada também no "irmão maior".

Só pra citar como exemplo: a Apple introduziu em 2012 os MacBooks Pro com Tela Retina - nas telas de 13" e 15" ela adotou a resolução de 2560x1600 e 2880x1800, respectivamente. Qual a ideia? Ao invés de somente aproveitar o espaço disponível pra colocar mais coisa, a Apple remodelou o OS X pra usar a densidade de pixels de forma a deixar a imagem mais nítida e os pixels da tela praticamente invisíveis "a olho nu". Como estamos acostumados a trabalhar em monitores com 96 dpi (110 dpi, na maioria dos notebooks), esse número aumentou pra 220 dpi.

E com o 4K, a ideia (no meu ver) é a mesma. A imagem é mais nítida porque a densidade de pixels é o dobro do 1080p, logo ao invés de simplesmente usar uma tela com tamanha resolução para mais espaço, você pode configurar o SO pra aumentar a nitidez dos elementos e fornecer uma imagem mais nítida.

A Apple começou suporte à Tela Retina no OS X Lion (10.7.2);

A Microsoft só adotou suporte ao HiDPI a partir do Windows 8.1, as "gambiarras" do Windows 7 não otimizam totalmente a interface;

No mundo GNU/Linux não sei dizer com certeza mas algumas distros já progrediram bastante nesse aspecto.

Só por fins de comparação, no celular já estamos falando em telas com 400+ DPI - só pra ilustrar o que digo, celulares de 5" com telas WQXGA (LG G4 taí pra provar o q eu digo).

Poderia explicar melhor essa parte do HiDPI ?

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Cara até minha 6780 tem Display port, só não manda 4K por limitação da VGA, vai até 2560X1600, nunca testei mais que 1080P, a AMD que diz, compra uma Adaptador dele pra HDMI, ou uma cabo de uma ponta de cada um, o cabo é melhor dura mais que adaptador, mas estando todos beleza a qualidade é a mesma, Digital só difere qualidade em caso de um defeito ou falha na transmissão como no sinal da TV digital, já anlógico sempre tem perdas, mesmo que sejam imperceptiveis, prefira um cabo e manda direto pro monitor, monitor 4K sempre vem Display Port e HDMI, uma pena que abandonaram o DVI mandaria até 5K a 60Hz fácil se atualizasse ele, HFMI não dura nada, o conector é muito fragil, tanto do cabo, VGA, Monito ou TV, nunca vi DVI dar pau, quando dá a VGA ou tv e  monitor que tá lascado, display porrt não deve durar muito é bem parecido com HDMI seus pinos, o DVI tem o Sink link que sobra pra 1080P e Dual lInk, vou comprar um dual pois ai até caindo pino vai dar 100% de qualidade KKK, já tive que trocar o HDMI de DVI aqui por artefatos causados pelo cabo KKK, achava que só VGA dava artefatos, depois que troquei tá 100% a imagem, o DVI é mais caro mais vai durar muitos anos aqui, mas que o monitor lol.

 

Isso só acontece em monitor digital cara que interpola pra uma resolução mais baixa do que a nativa, no analógico era bom que dava pra colocar 1024X768 no meu 1280X1024 sem ter os problemas de rodar em uma resolução não nativa como ocorre em LCD e a imagem ficava muito boa, no LCD do meu amigo ficava lixo, e tinha gente que comparava LCD de 1280X2014 e usava em 1024X768, e achava Top o LCD, depois que mostrei pro meu amigo o CRT em 1024X768 sem imagem borrada ele achou o LCD lixo, mas era mesmo pois os primeiros LCDs tomavam benga de CRT, agora não troco pela tela Wide e conforto visual, no CRT da muita dor de cabeça e força a vista, mesmo colocando em 75Hz que era o máximo do meu em 1024X768, o CRT não atualiza toda tela de uma vez como LCD ele vai atualizando ela por partes mais bem rápido, por isso que cameras filma a piscada dele, no LC dá pra filmar de boa, em 1280X1024 a imagem ficava bonita mas era muito ruim pra usar,fui lá coloquei em 1280X1024, ele falo que ficou tudo pequeno, mostrei que dá pra regular o tamanho no Windows KKK. Todas as resoluções que o monitor roda são nativas no CRT lol, pra minha 7300GT em Over de 550 na GPU vs os 350 originais não sofrer usava 1024X768, a VGA só era boa em % de Over, a amior que já vi até na NET sem WC ou outros articios caros, metia uma FAN forte do lado e sentava o Over nem artefato dava ou crashs KKK. O ruim que nunca vi analógico de LCD nem sei se dá pra fazer, alem que analógico com cabo ruim degarda amimagem, Digital só degradou aqui quando o conector tava meio solto no cabo, mesmo assim ficava uns pontos coloridos na tela, não tudo lascado como um VGA velho que meu amigo usava, emprestei meu cabo VGA pra ele e ficou muito limpa a imagem, na deve ter digital anal´gico nem pra gamer, ai seria muma boa em, já pensou um monitor 4K que tem a mesma qualidade de um nativo em resoluções mais baixas como CRT tem, ia ser Top, acho que deve dar pra fazer, mas vai ia mais caro o maquinário tá tudo pra digital. Tem a sensibilidade do mouse, tem gente que acha que tem que comprar mouse mais sensivel pra agilizar no Windows KKK, dá pra regular como regula em um jogo de boa, 400DPI sobra até pra 4K que são menos de 300DPI, ou seja um mouse de 800DPI dá e sobra, vou trocar o meu por um LOgitech de 800DPI de minima e uns 2400 de máxima, quanto menos DPI de minima acho melhor, egulo no jogoe SO e fica bem preciso, já tenho precisão pixel a pixel aqui testado no Pint com dois mouses baratos, só um sem fio não passou e um simplão, não achei de 400DPI logitech, pego pois tem 3 anos de garantia no minimo, mas tenho um mouse e teclado dela aqui com 5 anos de garantia.

 

Eu falei dessa forma pois as placas de vídeo que rodam 4k@60 geralmente só conseguem pela Display Port, sendo a porta HDMI 1.4 limitando a varredura em 30Hz. A TV só tem entrada HDMI, então seria um adaptador desse e o cabo. De qualquer forma, acredito que você consiga pela display port e sua placa de vídeo 2560x1440 em 60Hz, que seria 2k.

 

Tenho muita saudade dos CRT, o problema é o espaço. Porém vários LCDs já possuem a capacidade de tratar a entrada e ajustar na resolução nativa do monitor, tanto upscale como downscale, minimizando problemas de compatibilidade e visualização. Lógico que esse processamento a mais significa maior input lag.

Editado por RenatoMejias
Post saiu duplicado

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Cara até minha 6780 tem Display port, só não manda 4K por limitação da VGA, vai até 2560X1600, nunca testei mais que 1080P, a AMD que diz, compra uma Adaptador dele pra HDMI, ou uma cabo de uma ponta de cada um, o cabo é melhor dura mais que adaptador, mas estando todos beleza a qualidade é a mesma, Digital só difere qualidade em caso de um defeito ou falha na transmissão como no sinal da TV digital, já anlógico sempre tem perdas, mesmo que sejam imperceptiveis, prefira um cabo e manda direto pro monitor, monitor 4K sempre vem Display Port e HDMI, uma pena que abandonaram o DVI mandaria até 5K a 60Hz fácil se atualizasse ele, HFMI não dura nada, o conector é muito fragil, tanto do cabo, VGA, Monito ou TV, nunca vi DVI dar pau, quando dá a VGA ou tv e  monitor que tá lascado, display porrt não deve durar muito é bem parecido com HDMI seus pinos, o DVI tem o Sink link que sobra pra 1080P e Dual lInk, vou comprar um dual pois ai até caindo pino vai dar 100% de qualidade KKK, já tive que trocar o HDMI de DVI aqui por artefatos causados pelo cabo KKK, achava que só VGA dava artefatos, depois que troquei tá 100% a imagem, o DVI é mais caro mais vai durar muitos anos aqui, mas que o monitor lol.

 

Isso só acontece em monitor digital cara que interpola pra uma resolução mais baixa do que a nativa, no analógico era bom que dava pra colocar 1024X768 no meu 1280X1024 sem ter os problemas de rodar em uma resolução não nativa como ocorre em LCD e a imagem ficava muito boa, no LCD do meu amigo ficava lixo, e tinha gente que comparava LCD de 1280X2014 e usava em 1024X768, e achava Top o LCD, depois que mostrei pro meu amigo o CRT em 1024X768 sem imagem borrada ele achou o LCD lixo, mas era mesmo pois os primeiros LCDs tomavam benga de CRT, agora não troco pela tela Wide e conforto visual, no CRT da muita dor de cabeça e força a vista, mesmo colocando em 75Hz que era o máximo do meu em 1024X768, o CRT não atualiza toda tela de uma vez como LCD ele vai atualizando ela por partes mais bem rápido, por isso que cameras filma a piscada dele, no LC dá pra filmar de boa, em 1280X1024 a imagem ficava bonita mas era muito ruim pra usar,fui lá coloquei em 1280X1024, ele falo que ficou tudo pequeno, mostrei que dá pra regular o tamanho no Windows KKK. Todas as resoluções que o monitor roda são nativas no CRT lol, pra minha 7300GT em Over de 550 na GPU vs os 350 originais não sofrer usava 1024X768, a VGA só era boa em % de Over, a amior que já vi até na NET sem WC ou outros articios caros, metia uma FAN forte do lado e sentava o Over nem artefato dava ou crashs KKK. O ruim que nunca vi analógico de LCD nem sei se dá pra fazer, alem que analógico com cabo ruim degarda amimagem, Digital só degradou aqui quando o conector tava meio solto no cabo, mesmo assim ficava uns pontos coloridos na tela, não tudo lascado como um VGA velho que meu amigo usava, emprestei meu cabo VGA pra ele e ficou muito limpa a imagem, na deve ter digital anal´gico nem pra gamer, ai seria muma boa em, já pensou um monitor 4K que tem a mesma qualidade de um nativo em resoluções mais baixas como CRT tem, ia ser Top, acho que deve dar pra fazer, mas vai ia mais caro o maquinário tá tudo pra digital. Tem a sensibilidade do mouse, tem gente que acha que tem que comprar mouse mais sensivel pra agilizar no Windows KKK, dá pra regular como regula em um jogo de boa, 400DPI sobra até pra 4K que são menos de 300DPI, ou seja um mouse de 800DPI dá e sobra, vou trocar o meu por um LOgitech de 800DPI de minima e uns 2400 de máxima, quanto menos DPI de minima acho melhor, egulo no jogoe SO e fica bem preciso, já tenho precisão pixel a pixel aqui testado no Pint com dois mouses baratos, só um sem fio não passou e um simplão, não achei de 400DPI logitech, pego pois tem 3 anos de garantia no minimo, mas tenho um mouse e teclado dela aqui com 5 anos de garantia.                                                                                                                   

 

 

você falou sobre a imagem borrada fora da resolução nativa..... Nas plasma esse problema ocorrem com uma intencidade muito menor que na LCD..... Eu fico imaginado como seria uma TV de plasma 4k ...... :wub: Sendo que HD já é :aplausos: .... Isso pra TV.... :D  Uma pena que sairam de linha (_( .....

 

Em jogos eu uso a resolução HD mesmo + FXAA......Em  720P + o FXAA, os games rodam mais leves que em Full HD.....E os graficos ficam bonitos....

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites

Poderia explicar melhor essa parte do HiDPI ?

Não-oficial: O HiDPI é um recurso que os fabricantes de software estáo adotando para otimizar o visual dos aplicativos para telas de alta densidade.

Já destrinchei bem no comentário que eu fiz, mas a grosso modo é o seguinte: repare na qualidade da imagem da tela entre o seu computador e o seu celular, atualmente. Qual deles possui a melhor imagem?

No celular, os fabricantes estáo adotando telas com alta densidade de pixels para gerar uma imagem cada vez mais nítida - e como as telas dos celulares estão """limitadas""" ao mesmo tamanho, quanto maior é o fator densidade de pixels, melhor é a imagem - isso, desconsiderando outros fatores técnicos práticos como luminosidade, contraste, fidelidade de cor e etc. No PC isso demorou pra ser adotado e tá começando a se tornar popular com o advento de telas 4K e até mesmo notebook com tela 1080p ou superiores.

Em suma, ao invés de você criar mais e mais espaço em tela para conteúdo, os sistemas estão se otimizando para aumentar a densidade de pixels dessas telas para melhorar a definição da imagem e tornar os elementos mais nítidos. Pegue um dos novos MacBooks da Apple, como exemplo; estes já adotam telas HiDPI (220 DPI) desde 2012 e os demais computadores da linha estão caminhando para o mesmo caminho.

Compartilhar este comentário


Link para o comentário
Compartilhar em outros sites


Crie uma conta ou entre para comentar

Você precisar ser um membro para fazer um comentário






Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas publicações sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×