Ir ao conteúdo
  • Cadastre-se

Vale a pena comprar um monitor 4K?


     69.176 visualizações    Vídeo    22 comentários
Vale a pena comprar um monitor 4K?

Utilizando o padrão 4K em um computador de mesa

Como mencionamos na página anterior, o padrão 4K Ultra HD (UHD) é de 3840 x 2160. Se você reparar, a resolução horizontal e a vertical são exatamente o dobro da Full HD, o que significa que o número total de pixels do padrão 4K é quatro vezes maior do que o Full HD. Este padrão surgiu no comércio primeiro em aparelhos de TV de tela grande.

Atualmente os modelos de monitores de vídeo com resolução 4K mais fáceis de encontrar no comércio têm tela de 28 polegadas e custam em torno de R$ 2.200. Então a pergunta que vamos tentar responder é: vale a pena investir tanto dinheiro em um monitor? A resposta é: depende do uso que você vai dar a ele.

Há muita confusão a respeito do hardware necessário para poder utilizar a resolução 4K. Muitas pessoas costumam dizer que, para utilizar um monitor 4K, você precisa ter um hardware topo de linha, com uma placa de vídeo super poderosa ou mesmo mais de uma placa de vídeo topo de linha. Porém, a grande maioria das placas de vídeo atuais suporta a resolução 4K, mesmo o vídeo integrado presente em equipamentos de baixo custo.

A confusão acontece por conta do uso. Placas de vídeo básicas ou integradas ao processador permitem que você configure sua área de trabalho para trabalhar na resolução 4K e utilizar programas de edição de texto ou imagem, navegação na internet etc. sem problemas, e funciona muito bem. Porém, para jogos, a situação muda completamente de figura, como nós mostramos em nosso teste da placa de vídeo GeForce GTX TITAN X.

Como uma imagem em resolução 4K tem quatro vezes mais pixels do que uma em Full HD, a placa de vídeo pode levar até quatro vezes mais tempo processando cada quadro (pelo menos em teoria), o que representa uma taxa de quadros (fps) até quatro vezes mais baixa do que na resolução Full HD. Claro que, na prática, outros fatores interferem nessa relação, mas em jogos você sempre obterá uma taxa de quadros mais baixa em resolução 4K do que em Full HD com a mesma placa de vídeo. Com isso, uma placa de vídeo mais “poderosa” é realmente necessária.

O benefício, obviamente, é enorme: tudo fica mais nítido, o que, além de deixar o visual do jogo mais bonito, também representa uma vantagem em jogos de tiro, pois você pode ver detalhes mais longe do que seus adversários.

Por outro lado, para trabalhar com edição de textos, fotos ou documentos, não é necessário um hardware poderosíssimo. Basta comprar um monitor 4K, conectá-lo à saída de vídeo de seu computador, e configurar a resolução para 3840 x 2160.

Nesta resolução, tenha em mente que você pode abrir em sua tela quatro janelas simultâneas, cada uma com resolução equivalente a um monitor Full HD. Um modo de trabalho que fica excelente para quem edita textos é trabalhar com duas janelas, lado a lado, cada uma em modo retrato (ou seja, mais altas do que largas).

Se você estiver saindo, por exemplo, de um monitor de 23 polegadas Full HD para um de 28 polegadas 4K, a resolução aumenta muito mais do que o tamanho da tela. Com isso, ícones e menus ficam muito pequenos. Se você não tiver uma visão perfeita, torna-se muito difícil trabalhar.

Na próxima página explicamos como resolver este problema.

  • Curtir 1

Artigos similares


Comentários de usuários

Respostas recomendadas

Na minha opinião, faltou citar outro fator que virou tendência para este assunto: DPI

 

Eu sei que estamos falando de monitores para PC mas por conta do advento que as telas de celular se tornaram mais populares e cada vez mais nítidas, a mesma tecnologia foi adotada também no "irmão maior".
Só pra citar como exemplo: a Apple introduziu em 2012 os MacBooks Pro com Tela Retina - nas telas de 13" e 15" ela adotou a resolução de 2560x1600 e 2880x1800, respectivamente. Qual a ideia? Ao invés de somente aproveitar o espaço disponível pra colocar mais coisa, a Apple remodelou o OS X pra usar a densidade de pixels de forma a deixar a imagem mais nítida e os pixels da tela praticamente invisíveis "a olho nu". Como estamos acostumados a trabalhar em monitores com 96 dpi (110 dpi, na maioria dos notebooks), esse número aumentou pra 220 dpi.

E com o 4K, a ideia (no meu ver) é a mesma. A imagem é mais nítida porque a densidade de pixels é o dobro do 1080p, logo ao invés de simplesmente usar uma tela com tamanha resolução para mais espaço, você pode configurar o SO pra aumentar a nitidez dos elementos e fornecer uma imagem mais nítida.


A Apple começou suporte à Tela Retina no OS X Lion (10.7.2);
A Microsoft só adotou suporte ao HiDPI a partir do Windows 8.1, as "gambiarras" do Windows 7 não otimizam totalmente a interface;
No mundo GNU/Linux não sei dizer com certeza mas algumas distros já progrediram bastante nesse aspecto.


Só por fins de comparação, no celular já estamos falando em telas com 400+ DPI - só pra ilustrar o que digo, celulares de 5" com telas WQXGA (LG G4 taí pra provar o q eu digo).

  • Curtir 6
Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Outro fator importante que a matéria ignorou é a respeito da atual qualidade das telas em si. Apesar de citar no inicio que existem vários fatores, não abordou por exemplo o tempo de resposta, efeito ghost, brilho e contraste que as atuais telas conseguem oferecer. 

A verdade é que um monitor 4k a essa altura do campeonato não é lucro pra ninguém. As telas ruins custam caro, as boas ainda não são tão boas assim e custam ainda mais! O único motivo que a matéria evidencia como vantajoso, ao meu ver não é, pois para aumentar a área de trabalho de quem edita textos, mais fácil, funcional e barato é adicionar monitores. Eu uso meu laptop no trabalho com uma tela adjacente. O programador que trabalha ao meu lado, usa o pc com 3 telas, inclusive uma delas na vertical para escrever os códigos. 

Uma TV ou monitor 4k por enquanto é mais pra você dizer aos amigos que tem do que para ter efeito real. 

Cai na mesma discussão de trocar uma placa de video que voce usa pra jogar CS com 200 fps por uma nova que roda a 300 fps:

 

"Faz bem ao ego, não aos olhos..."

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

  • Administrador

Outro fator importante que a matéria ignorou é a respeito da atual qualidade das telas em si. Apesar de citar no inicio que existem vários fatores, não abordou por exemplo o tempo de resposta, efeito ghost, brilho e contraste que as atuais telas conseguem oferecer.

 

Nesta parte nós linkamos outros tutorial: https://www.clubedohardware.com.br/artigos/tudo-o-que-voce-precisa-saber-sobre-monitores-lcd/942

 

Que explica os pontos principais que você lista (faltam alguns outros). Vou atualizar este outro tutorial em breve. Obrigado.

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Nesta parte nós linkamos outros tutorial: https://www.clubedohardware.com.br/artigos/tudo-o-que-voce-precisa-saber-sobre-monitores-lcd/942

 

Que explica os pontos principais que você lista (faltam alguns outros). Vou atualizar este outro tutorial em breve. Obrigado.

Grande Gabriel!

Bom eu fiz esse comentario pensando na qualidade geral dos artigos e materias aqui do CdH. É uma critica que tentei fazer de forma construtiva, aja visto a alta qualidade que sempre vejo no material do site.

Link para o comentário
Compartilhar em outros sites

Parabéns pelo texto, tirou algumas dúvidas. Hoje, eu vi uma TV 4K da Samsung com 1200 Hz (mil e duzentos hertz).

Na minha opinião, uma coisa que poderia ser adicionada ao texto é sobre esse tal de "CLEAR MOTION RATE" e similares.

É interpolação? Isso realmente melhora a imagem ou é só propaganda?

 

 

biuofq.jpg

Link para o comentário
Compartilhar em outros sites

Outro fator importante que a matéria ignorou é a respeito da atual qualidade das telas em si. Apesar de citar no inicio que existem vários fatores, não abordou por exemplo o tempo de resposta, efeito ghost, brilho e contraste que as atuais telas conseguem oferecer. 

A verdade é que um monitor 4k a essa altura do campeonato não é lucro pra ninguém. As telas ruins custam caro, as boas ainda não são tão boas assim e custam ainda mais! O único motivo que a matéria evidencia como vantajoso, ao meu ver não é, pois para aumentar a área de trabalho de quem edita textos, mais fácil, funcional e barato é adicionar monitores. Eu uso meu laptop no trabalho com uma tela adjacente. O programador que trabalha ao meu lado, usa o pc com 3 telas, inclusive uma delas na vertical para escrever os códigos. 

Uma TV ou monitor 4k por enquanto é mais pra você dizer aos amigos que tem do que para ter efeito real. 

Cai na mesma discussão de trocar uma placa de video que voce usa pra jogar CS com 200 fps por uma nova que roda a 300 fps:

 

"Faz bem ao ego, não aos olhos..."

 

Essas afirmações não são tão verdade assim, comprei uma TV 4k LG 42UB8200, e estou tendo uma ótima experiência na área de trabalho.

 

A questão preço foi a primeira superada: por R$2.000,00, acho mais do que justo ter a mesma resolução de área de trabalho que 4 monitores full hd de 21 polegadas, que é encontrado por uma média de 500 reais, logo o preço é o mesmo, contando que ainda levo ótimo sistema de som (me surpreendeu por ser uma tv tão fina) e outras entradas, uma vez que o uso da TV é para PC e TV.

 

A produtividade aumenta muito com uma tela desse tamanho. Não vai ter algumas facilidades de telas separadas como arrastar e maximizar com a mesma velocidade, mas o espaço é tanto que você "joga" as janelas pela área de trabalho e nem precisa arrumar. Para certas aplicações, como abrir um projeto em AutoCAD é até covardia.

 

Outra vantagem é a possibilidade de jogar uma infinidade de jogos antigos que foram reprogramados para 4K dando uma visão que antes era impossível: Age of Empires 2, Sim City 4, ou outros escritos em nGlide para as antigas Voodoos, já fiz vários testes e o resultado é muito bom.

 

A placa de vídeo que comprei foi apenas uma R7 240, e roda muita coisa em 4K, colocando no mínimo, claro.

 

Agora os pontos negativos não posso deixar de citar:

 

Para alguns jogos, o alto input lag atrapalha, mesmo em resoluções mais baixas e configurada no modo Game, além da taxa de atualização em 30Hz. Essa TV tem a capacidade de exibir 4K em 60Hz, porém com as limitações da placa de vídeo, espero em pouco tempo ter uma opção no mercado barata para exibição em 4K@60. Dessa forma não posso avaliar ainda esse modo de exibição. Acredito que deve melhorar um pouco o rastro em cenas rápidas e aumentar ainda mais o input lag, mas dentro do esperado por um produto com o preço tão em conta.

 

Nessa TV, quando está setada em 4K, as cores caem para 8 bits, dando um total de 16,7 milhões de cores, o que não chega a ser um problema, exceto pelo fato da TV não ter preto, um problema comum à quase todas LCDs.

 

Outro ponto negativo nessa TV é como o back panel não fica colado na matriz de pixels, bem no canto da tela, dependendo do ângulo de visão, alguns pixels ficam escurecidos, porém sem trazer maiores transtornos.

 

Um ponto negativo não ligado exatamente ao monitor ou TV é que para exibição 4K de filmes e vídeos, é utilizado muito recurso do PC, logo é preciso ainda ter um processador bem potente para rodar HTML5 e Flash Player e os codecs em 4K. Estou com um Phenom X4 @ 3.0 Ghz, e ainda não é o suficiente. Não dá pra assistir nada na máquina em 4K com suavidade.

 

Concluindo, fiquei muito satisfeito com a utilização dessa TV como monitor do PC, mesmo com as limitações do produto. Ganhei em conforto visual, produtividade e maior imersão em vários jogos, além do ótimo custo benefício.

 

Para quem deseja jogos de FPS ou seja cinéfilo não é recomendado esse produto, aí sim é dizer que tem apenas pra dizer que tem. Ainda não foi testada a total capacidade da TV aqui em casa, talvez em breve posso dar alguma contribuição.

  • Curtir 2
Link para o comentário
Compartilhar em outros sites

@Rafael Guerra Você está tendo uma ótima experiência porque, para começar, sua TV tem uma tela de 42" e não 28" ou 30" como é comum em monitores 4K.

 

A placa de vídeo que comprei foi apenas uma R7 240, e roda muita coisa em 4K, colocando no mínimo, claro.

 

Se é para rodar em 4K, com toda essa resolução e colocar os detalhes no mínimo, então eu, particularmente, optaria por jogar em outra resolução mais baixa, pois acredito que quem deseja jogar em 4K, deseja qualidade visual.

 

Mas claro, sem desmerecer nada do que você comentou, são apenas minhas colocações.

 

Abraço.

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Com resolução 4K, imagino que haja pouca necessidade de Antialiasing, isso já dá uma aliviada na carga da VGA. ;)

 

Exato, a imagem fica melhor em 4K sem antialiasing do que em FHD com AA, já que o AA pode ser encarado como uma simulação de resolução mais alta.

  • Curtir 1
Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Exato, a imagem fica melhor em 4K sem antialiasing do que em FHD com AA, já que o AA pode ser encarado como uma simulação de resolução mais alta.

 

Deve ser uma beleza isso para a cadência dos quadros.

 

Por hora, vou usando o AA de pobre, que é jogar sem óculos. :D

  • Curtir 4
Link para o comentário
Compartilhar em outros sites

Na minha opinião, faltou citar outro fator que virou tendência para este assunto: DPI

 

Eu sei que estamos falando de monitores para PC mas por conta do advento que as telas de celular se tornaram mais populares e cada vez mais nítidas, a mesma tecnologia foi adotada também no "irmão maior".

Só pra citar como exemplo: a Apple introduziu em 2012 os MacBooks Pro com Tela Retina - nas telas de 13" e 15" ela adotou a resolução de 2560x1600 e 2880x1800, respectivamente. Qual a ideia? Ao invés de somente aproveitar o espaço disponível pra colocar mais coisa, a Apple remodelou o OS X pra usar a densidade de pixels de forma a deixar a imagem mais nítida e os pixels da tela praticamente invisíveis "a olho nu". Como estamos acostumados a trabalhar em monitores com 96 dpi (110 dpi, na maioria dos notebooks), esse número aumentou pra 220 dpi.

E com o 4K, a ideia (no meu ver) é a mesma. A imagem é mais nítida porque a densidade de pixels é o dobro do 1080p, logo ao invés de simplesmente usar uma tela com tamanha resolução para mais espaço, você pode configurar o SO pra aumentar a nitidez dos elementos e fornecer uma imagem mais nítida.

A Apple começou suporte à Tela Retina no OS X Lion (10.7.2);

A Microsoft só adotou suporte ao HiDPI a partir do Windows 8.1, as "gambiarras" do Windows 7 não otimizam totalmente a interface;

No mundo GNU/Linux não sei dizer com certeza mas algumas distros já progrediram bastante nesse aspecto.

Só por fins de comparação, no celular já estamos falando em telas com 400+ DPI - só pra ilustrar o que digo, celulares de 5" com telas WQXGA (LG G4 taí pra provar o q eu digo).

 

Então, muito interessante isso que você falou, eu sempre me perguntei porque em celulares se fala tanto em DPI e em monitores essa especificação nunca é tocada, sendo que o fato dos pixels visiveis a olho nú é algo que particularmente me incomoda MUITO ! Por exemplo, meu antigo Nokia 5530 tinha uma resolução de 360 x 640 pixels (~253 ppi pixel density) e meu monitor atual tem 19" e resolução de 1440X900, e a qualidade de imagem do meu antigo Nokia é muito superior a do meu monitor !!!! Engraçado, porque será que NINGUÉM fala disso nos monitores né ? Tava conversando com um amigo esses dias sobre resolução 4k e ele me disse que é imbecilidade usar um monitor inferior a 32" em 4k, queria entender a lógica dessas pessoas...

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

Então, muito interessante isso que você falou, eu sempre me perguntei porque em celulares se fala tanto em DPI e em monitores essa especificação nunca é tocada, sendo que o fato dos pixels visiveis a olho nú é algo que particularmente me incomoda MUITO ! Por exemplo, meu antigo Nokia 5530 tinha uma resolução de 360 x 640 pixels (~253 ppi pixel density) e meu monitor atual tem 19" e resolução de 1440X900, e a qualidade de imagem do meu antigo Nokia é muito superior a do meu monitor !!!! Engraçado, porque será que NINGUÉM fala disso nos monitores né ? Tava conversando com um amigo esses dias sobre resolução 4k e ele me disse que é imbecilidade usar um monitor inferior a 32" em 4k, queria entender a lógica dessas pessoas...

Não se fala em DPI simplesmente por as telas de computadores e TVs terem uma variação absurda nos tamanhos, ago que não acontece com tamanha discrepância nos portateis. É obvio que o DPI de um monitor 4k de 28" vai ser absurdamente mais alto do que de uma TV de 60". Afinal em TVs e monitores a quantidade de pixels é padronizada. 

Link para o comentário
Compartilhar em outros sites

  • Membro VIP

A questão é que monitores são utilizados mais longe dos olhos do que um smartphone, e uma TV em geral é vista mais de longe ainda. Por isso a questão dos DPI é mais importante em telas de smartphones.

Pessoalmente, eu acho ridículo que 99% dos notebooks encontrados no mercado ainda tenha tela HD. Editar um texto online é horrível nessa resolução, as barras de botões e menus ocupam mais de metade da tela mesmo com a janela do navegador maximizada, deixando umas poucas linhas de área útil para edição.

O pior é que simplesmente não se encontra no mercado um notebook mainstream com tela FullHD; apenas notebooks "gamer" que custam uma pequena fortuna.

  • Curtir 2
Link para o comentário
Compartilhar em outros sites

Exato, a imagem fica melhor em 4K sem antialiasing do que em FHD com AA, já que o AA pode ser encarado como uma simulação de resolução mais alta.

AA não simula resolução mais alta, pois não aumenta nem um pixel só na imagem, mesmo se renderizar a mais como faz o DSR ou VSR no final vai ter que mandar na resolução do monitor se não nem dá video, só suaviza as bordas OK, o AA mais pesado faz praticamente o mesmo que o DSR e VSR e reduz a imagem de volta pra resolução do monitor, o mas leve só suavisa as bordas e dá na mesma, tanto que acho usar VSR ou DSR só pra jogar burrice, pesa mais que AA e dá na mesma, se for pra gravar um Gameplay em 4K ou tira print é bom.

A questão é que monitores são utilizados mais longe dos olhos do que um smartphone, e uma TV em geral é vista mais de longe ainda. Por isso a questão dos DPI é mais importante em telas de smartphones.

Pessoalmente, eu acho ridículo que 99% dos notebooks encontrados no mercado ainda tenha tela HD. Editar um texto online é horrível nessa resolução, as barras de botões e menus ocupam mais de metade da tela mesmo com a janela do navegador maximizada, deixando umas poucas linhas de área útil para edição.

O pior é que simplesmente não se encontra no mercado um notebook mainstream com tela FullHD; apenas notebooks "gamer" que custam uma pequena fortuna.

Vi tela Cel 1080P e não consegui ver um pixel só nem de perto, 720P da de ver fácil, minha vista não é das melhores nem das piores tambem, já em TV 4K é fácil de ver, monitor 1080P tambem é até de longe da de ver, mas gosto de usar monitor de perto e TV de longe, 1080P pra TV está perfeito pra uns 99,9% das pessoas, na joja todo mundo olha a TV colado na tela, e em casa senta no sofá bem longe KKK, pra monitor 4K não é exagero, se tem CEL saindo com telas que só PC Top tinha em 2006 pra edição profissional ainda e o pessola falava que era exagero pois 1080P é o limite da visão humana pros "especialistas" assim como a lorota dos 30FPS kkk, acima de 60 sei que é besteira o que importa mesmo é Frame Time estavel por isso filme a só 24FPS não dá lag, mas tambem não fica como uma a 48FPS, por isso acho besteira CEL com mais de 1080P, tablet com mais de 2K, monitor de 4K nunca vi mas deve ser perfeito pra mim na distancia que uso, o 1080P é lixo, sempre achei já sonhava com um 2560X1600 desde 2006, e tinha gente que achava que 1080P era Top, não bate nem a resolução máxima de monitor analógico profissional KKK, nem 4K é Top já tem 5K e logo vem monitor 8K pra vender por enquanto nem pra vender na NET achei.

Então, muito interessante isso que você falou, eu sempre me perguntei porque em celulares se fala tanto em DPI e em monitores essa especificação nunca é tocada, sendo que o fato dos pixels visiveis a olho nú é algo que particularmente me incomoda MUITO ! Por exemplo, meu antigo Nokia 5530 tinha uma resolução de 360 x 640 pixels (~253 ppi pixel density) e meu monitor atual tem 19" e resolução de 1440X900, e a qualidade de imagem do meu antigo Nokia é muito superior a do meu monitor !!!! Engraçado, porque será que NINGUÉM fala disso nos monitores né ? Tava conversando com um amigo esses dias sobre resolução 4k e ele me disse que é imbecilidade usar um monitor inferior a 32" em 4k, queria entender a lógica dessas pessoas...

Não é imbecilidade se usar de perto como eu, imbecilidade é mouse "Gamer", se nem monitor 4K passa de 300DPI pra que aqueles milhares de DPI, alem que são todos interpolados, regulo o meu pra 800 que é o minimo acima fica lixo, aumento pelo jogo e windows, 4K em monitor de 28 pra mim que uso colado na tela deve ficar muito bom, se até na loja vi umas TVs 4K e tinha que chegar bem perto pra perder nitidez rodando 4K, 4X mais perto que uma 1080P, por isso pra TV é besteira mesmo, tanto que Cinema Digital usa pouca coisa a mais que 4K, a tela é grande mais de vê de longe, o que importa é mais distancia que tamanho de tela, por isso Cel hoje já vem uns com telas mais Tops de resolução que Apple Cinema de 30 monitor que sonhava em 2006 pra mim lol, tem gente que gosta de 32 mas usa de longe, já vi pessoal jogando FPS com monitor de 42 pra mim é dor de cabeça na certa, e conta de luz alta, não gosto de tela muito grande, prefiro resolução em uma tela média de 28, por isso prefiro monitor, tem gente que joga com TV e acha Top KKK, aquelas cores suadas de qualquer TV pra vender na loja parasnoobs como som de loja que são todos lixos, TV boa não tem nestas lojas pois é pra quem entende e tem grana igual som bom que não pode ter corneta de vender pamonha como este Mutekis bem caros, pelo preço do Muteki pode se ompar uma som mais fraco mas de altura boa de se ouvir, muteki é pra estragar audição e só, o som é horrivel até em volume baixo, ai leva um mas de mais durabilidade e qualidade sonora muito boa ou até perfeita em testes cego, já o muteki pelas cornetas qualquer um percebe o som zuado e diferente, ai quem não entende acha que o barulho de corneta é fidelidade sonora lol, igual as cores exagerads das TVs de loja, olha as cores desta TV o vendedor a redução de ruido, muitos filmes deixam o ruido de filme até no analogico de proposito o cara vai lá tira e borra tudo, se nem Photoshoop presta pra tirar ruido sem perder nitidez imagina TV nunca vi uma prestar nisso, desligo tudo e regulo com aquelas imagens de calibração da NET, mas nem chega perto do monitor de 400 reais, nem uma 60 polegads nem uma 42, ele mostra estes filtros e tal pros Noobs e cara se inpressiona KKK, eu desligo tudo que vem nela, nitidez e tal mas mesmo assim uma TV cara não bate um monitor barato em cores KKK, em preto claro que até Plasma barata detona LCD caro.

Link para o comentário
Compartilhar em outros sites

@Rafael Guerra Você está tendo uma ótima experiência porque, para começar, sua TV tem uma tela de 42" e não 28" ou 30" como é comum em monitores 4K.

 

 

Se é para rodar em 4K, com toda essa resolução e colocar os detalhes no mínimo, então eu, particularmente, optaria por jogar em outra resolução mais baixa, pois acredito que quem deseja jogar em 4K, deseja qualidade visual.

 

Mas claro, sem desmerecer nada do que você comentou, são apenas minhas colocações.

 

Abraço.

Não acho nesse caso, pois quando se coloca em resolução menor, é perceptível um embassamento na imagem causado pelo não casamento dos pixels.

 

Mas completando a mensagem, reforço que a experiência de jogos com muito movimento em 30Hz é sofrível, já testei GTA5 4K rodando com uma HD7850, e a taxa de atualização realmente limita o gameplay e causa desconfoto. Quando estiver com uma placa de vídeo que tenha display port ou hdmi 2.0 e capacidade de rodar 4K@60 posto aqui a experiência. E torcendo pro input lag diminuir.

 

Um abraço

Link para o comentário
Compartilhar em outros sites

Não acho nesse caso, pois quando se coloca em resolução menor, é perceptível um embassamento na imagem causado pelo não casamento dos pixels.

 

Mas completando a mensagem, reforço que a experiência de jogos com muito movimento em 30Hz é sofrível, já testei GTA5 4K rodando com uma HD7850, e a taxa de atualização realmente limita o gameplay e causa desconfoto. Quando estiver com uma placa de vídeo que tenha display port ou hdmi 2.0 e capacidade de rodar 4K@60 posto aqui a experiência. E torcendo pro input lag diminuir.

 

Um abraço

Cara até minha 6780 tem Display port, só não manda 4K por limitação da VGA, vai até 2560X1600, nunca testei mais que 1080P, a AMD que diz, compra uma Adaptador dele pra HDMI, ou uma cabo de uma ponta de cada um, o cabo é melhor dura mais que adaptador, mas estando todos beleza a qualidade é a mesma, Digital só difere qualidade em caso de um defeito ou falha na transmissão como no sinal da TV digital, já anlógico sempre tem perdas, mesmo que sejam imperceptiveis, prefira um cabo e manda direto pro monitor, monitor 4K sempre vem Display Port e HDMI, uma pena que abandonaram o DVI mandaria até 5K a 60Hz fácil se atualizasse ele, HFMI não dura nada, o conector é muito fragil, tanto do cabo, VGA, Monito ou TV, nunca vi DVI dar pau, quando dá a VGA ou tv e  monitor que tá lascado, display porrt não deve durar muito é bem parecido com HDMI seus pinos, o DVI tem o Sink link que sobra pra 1080P e Dual lInk, vou comprar um dual pois ai até caindo pino vai dar 100% de qualidade KKK, já tive que trocar o HDMI de DVI aqui por artefatos causados pelo cabo KKK, achava que só VGA dava artefatos, depois que troquei tá 100% a imagem, o DVI é mais caro mais vai durar muitos anos aqui, mas que o monitor lol.

 

Isso só acontece em monitor digital cara que interpola pra uma resolução mais baixa do que a nativa, no analógico era bom que dava pra colocar 1024X768 no meu 1280X1024 sem ter os problemas de rodar em uma resolução não nativa como ocorre em LCD e a imagem ficava muito boa, no LCD do meu amigo ficava lixo, e tinha gente que comparava LCD de 1280X2014 e usava em 1024X768, e achava Top o LCD, depois que mostrei pro meu amigo o CRT em 1024X768 sem imagem borrada ele achou o LCD lixo, mas era mesmo pois os primeiros LCDs tomavam benga de CRT, agora não troco pela tela Wide e conforto visual, no CRT da muita dor de cabeça e força a vista, mesmo colocando em 75Hz que era o máximo do meu em 1024X768, o CRT não atualiza toda tela de uma vez como LCD ele vai atualizando ela por partes mais bem rápido, por isso que cameras filma a piscada dele, no LC dá pra filmar de boa, em 1280X1024 a imagem ficava bonita mas era muito ruim pra usar,fui lá coloquei em 1280X1024, ele falo que ficou tudo pequeno, mostrei que dá pra regular o tamanho no Windows KKK. Todas as resoluções que o monitor roda são nativas no CRT lol, pra minha 7300GT em Over de 550 na GPU vs os 350 originais não sofrer usava 1024X768, a VGA só era boa em % de Over, a amior que já vi até na NET sem WC ou outros articios caros, metia uma FAN forte do lado e sentava o Over nem artefato dava ou crashs KKK. O ruim que nunca vi analógico de LCD nem sei se dá pra fazer, alem que analógico com cabo ruim degarda amimagem, Digital só degradou aqui quando o conector tava meio solto no cabo, mesmo assim ficava uns pontos coloridos na tela, não tudo lascado como um VGA velho que meu amigo usava, emprestei meu cabo VGA pra ele e ficou muito limpa a imagem, na deve ter digital anal´gico nem pra gamer, ai seria muma boa em, já pensou um monitor 4K que tem a mesma qualidade de um nativo em resoluções mais baixas como CRT tem, ia ser Top, acho que deve dar pra fazer, mas vai ia mais caro o maquinário tá tudo pra digital. Tem a sensibilidade do mouse, tem gente que acha que tem que comprar mouse mais sensivel pra agilizar no Windows KKK, dá pra regular como regula em um jogo de boa, 400DPI sobra até pra 4K que são menos de 300DPI, ou seja um mouse de 800DPI dá e sobra, vou trocar o meu por um LOgitech de 800DPI de minima e uns 2400 de máxima, quanto menos DPI de minima acho melhor, egulo no jogoe SO e fica bem preciso, já tenho precisão pixel a pixel aqui testado no Pint com dois mouses baratos, só um sem fio não passou e um simplão, não achei de 400DPI logitech, pego pois tem 3 anos de garantia no minimo, mas tenho um mouse e teclado dela aqui com 5 anos de garantia.                                                                                                                   

Link para o comentário
Compartilhar em outros sites

Na minha opinião, faltou citar outro fator que virou tendência para este assunto: DPI

 

Eu sei que estamos falando de monitores para PC mas por conta do advento que as telas de celular se tornaram mais populares e cada vez mais nítidas, a mesma tecnologia foi adotada também no "irmão maior".

Só pra citar como exemplo: a Apple introduziu em 2012 os MacBooks Pro com Tela Retina - nas telas de 13" e 15" ela adotou a resolução de 2560x1600 e 2880x1800, respectivamente. Qual a ideia? Ao invés de somente aproveitar o espaço disponível pra colocar mais coisa, a Apple remodelou o OS X pra usar a densidade de pixels de forma a deixar a imagem mais nítida e os pixels da tela praticamente invisíveis "a olho nu". Como estamos acostumados a trabalhar em monitores com 96 dpi (110 dpi, na maioria dos notebooks), esse número aumentou pra 220 dpi.

E com o 4K, a ideia (no meu ver) é a mesma. A imagem é mais nítida porque a densidade de pixels é o dobro do 1080p, logo ao invés de simplesmente usar uma tela com tamanha resolução para mais espaço, você pode configurar o SO pra aumentar a nitidez dos elementos e fornecer uma imagem mais nítida.

A Apple começou suporte à Tela Retina no OS X Lion (10.7.2);

A Microsoft só adotou suporte ao HiDPI a partir do Windows 8.1, as "gambiarras" do Windows 7 não otimizam totalmente a interface;

No mundo GNU/Linux não sei dizer com certeza mas algumas distros já progrediram bastante nesse aspecto.

Só por fins de comparação, no celular já estamos falando em telas com 400+ DPI - só pra ilustrar o que digo, celulares de 5" com telas WQXGA (LG G4 taí pra provar o q eu digo).

Poderia explicar melhor essa parte do HiDPI ?

Link para o comentário
Compartilhar em outros sites

Cara até minha 6780 tem Display port, só não manda 4K por limitação da VGA, vai até 2560X1600, nunca testei mais que 1080P, a AMD que diz, compra uma Adaptador dele pra HDMI, ou uma cabo de uma ponta de cada um, o cabo é melhor dura mais que adaptador, mas estando todos beleza a qualidade é a mesma, Digital só difere qualidade em caso de um defeito ou falha na transmissão como no sinal da TV digital, já anlógico sempre tem perdas, mesmo que sejam imperceptiveis, prefira um cabo e manda direto pro monitor, monitor 4K sempre vem Display Port e HDMI, uma pena que abandonaram o DVI mandaria até 5K a 60Hz fácil se atualizasse ele, HFMI não dura nada, o conector é muito fragil, tanto do cabo, VGA, Monito ou TV, nunca vi DVI dar pau, quando dá a VGA ou tv e  monitor que tá lascado, display porrt não deve durar muito é bem parecido com HDMI seus pinos, o DVI tem o Sink link que sobra pra 1080P e Dual lInk, vou comprar um dual pois ai até caindo pino vai dar 100% de qualidade KKK, já tive que trocar o HDMI de DVI aqui por artefatos causados pelo cabo KKK, achava que só VGA dava artefatos, depois que troquei tá 100% a imagem, o DVI é mais caro mais vai durar muitos anos aqui, mas que o monitor lol.

 

Isso só acontece em monitor digital cara que interpola pra uma resolução mais baixa do que a nativa, no analógico era bom que dava pra colocar 1024X768 no meu 1280X1024 sem ter os problemas de rodar em uma resolução não nativa como ocorre em LCD e a imagem ficava muito boa, no LCD do meu amigo ficava lixo, e tinha gente que comparava LCD de 1280X2014 e usava em 1024X768, e achava Top o LCD, depois que mostrei pro meu amigo o CRT em 1024X768 sem imagem borrada ele achou o LCD lixo, mas era mesmo pois os primeiros LCDs tomavam benga de CRT, agora não troco pela tela Wide e conforto visual, no CRT da muita dor de cabeça e força a vista, mesmo colocando em 75Hz que era o máximo do meu em 1024X768, o CRT não atualiza toda tela de uma vez como LCD ele vai atualizando ela por partes mais bem rápido, por isso que cameras filma a piscada dele, no LC dá pra filmar de boa, em 1280X1024 a imagem ficava bonita mas era muito ruim pra usar,fui lá coloquei em 1280X1024, ele falo que ficou tudo pequeno, mostrei que dá pra regular o tamanho no Windows KKK. Todas as resoluções que o monitor roda são nativas no CRT lol, pra minha 7300GT em Over de 550 na GPU vs os 350 originais não sofrer usava 1024X768, a VGA só era boa em % de Over, a amior que já vi até na NET sem WC ou outros articios caros, metia uma FAN forte do lado e sentava o Over nem artefato dava ou crashs KKK. O ruim que nunca vi analógico de LCD nem sei se dá pra fazer, alem que analógico com cabo ruim degarda amimagem, Digital só degradou aqui quando o conector tava meio solto no cabo, mesmo assim ficava uns pontos coloridos na tela, não tudo lascado como um VGA velho que meu amigo usava, emprestei meu cabo VGA pra ele e ficou muito limpa a imagem, na deve ter digital anal´gico nem pra gamer, ai seria muma boa em, já pensou um monitor 4K que tem a mesma qualidade de um nativo em resoluções mais baixas como CRT tem, ia ser Top, acho que deve dar pra fazer, mas vai ia mais caro o maquinário tá tudo pra digital. Tem a sensibilidade do mouse, tem gente que acha que tem que comprar mouse mais sensivel pra agilizar no Windows KKK, dá pra regular como regula em um jogo de boa, 400DPI sobra até pra 4K que são menos de 300DPI, ou seja um mouse de 800DPI dá e sobra, vou trocar o meu por um LOgitech de 800DPI de minima e uns 2400 de máxima, quanto menos DPI de minima acho melhor, egulo no jogoe SO e fica bem preciso, já tenho precisão pixel a pixel aqui testado no Pint com dois mouses baratos, só um sem fio não passou e um simplão, não achei de 400DPI logitech, pego pois tem 3 anos de garantia no minimo, mas tenho um mouse e teclado dela aqui com 5 anos de garantia.

 

Eu falei dessa forma pois as placas de vídeo que rodam 4k@60 geralmente só conseguem pela Display Port, sendo a porta HDMI 1.4 limitando a varredura em 30Hz. A TV só tem entrada HDMI, então seria um adaptador desse e o cabo. De qualquer forma, acredito que você consiga pela display port e sua placa de vídeo 2560x1440 em 60Hz, que seria 2k.

 

Tenho muita saudade dos CRT, o problema é o espaço. Porém vários LCDs já possuem a capacidade de tratar a entrada e ajustar na resolução nativa do monitor, tanto upscale como downscale, minimizando problemas de compatibilidade e visualização. Lógico que esse processamento a mais significa maior input lag.

Link para o comentário
Compartilhar em outros sites

  • Administrador

gostei bastante do podcast do CdH abordando em parte esse topico. Complementou a matéria.

 

Perfeito, este artigo é justamente o que mencionamos no podcast que faríamos. Vou aproveitar e adicionar o link lá. Para quem não escutou o podcast, o link é este:

https://www.clubedohardware.com.br/artigos/radio-cdh-programa-048/3135

Link para o comentário
Compartilhar em outros sites

Cara até minha 6780 tem Display port, só não manda 4K por limitação da VGA, vai até 2560X1600, nunca testei mais que 1080P, a AMD que diz, compra uma Adaptador dele pra HDMI, ou uma cabo de uma ponta de cada um, o cabo é melhor dura mais que adaptador, mas estando todos beleza a qualidade é a mesma, Digital só difere qualidade em caso de um defeito ou falha na transmissão como no sinal da TV digital, já anlógico sempre tem perdas, mesmo que sejam imperceptiveis, prefira um cabo e manda direto pro monitor, monitor 4K sempre vem Display Port e HDMI, uma pena que abandonaram o DVI mandaria até 5K a 60Hz fácil se atualizasse ele, HFMI não dura nada, o conector é muito fragil, tanto do cabo, VGA, Monito ou TV, nunca vi DVI dar pau, quando dá a VGA ou tv e  monitor que tá lascado, display porrt não deve durar muito é bem parecido com HDMI seus pinos, o DVI tem o Sink link que sobra pra 1080P e Dual lInk, vou comprar um dual pois ai até caindo pino vai dar 100% de qualidade KKK, já tive que trocar o HDMI de DVI aqui por artefatos causados pelo cabo KKK, achava que só VGA dava artefatos, depois que troquei tá 100% a imagem, o DVI é mais caro mais vai durar muitos anos aqui, mas que o monitor lol.

 

Isso só acontece em monitor digital cara que interpola pra uma resolução mais baixa do que a nativa, no analógico era bom que dava pra colocar 1024X768 no meu 1280X1024 sem ter os problemas de rodar em uma resolução não nativa como ocorre em LCD e a imagem ficava muito boa, no LCD do meu amigo ficava lixo, e tinha gente que comparava LCD de 1280X2014 e usava em 1024X768, e achava Top o LCD, depois que mostrei pro meu amigo o CRT em 1024X768 sem imagem borrada ele achou o LCD lixo, mas era mesmo pois os primeiros LCDs tomavam benga de CRT, agora não troco pela tela Wide e conforto visual, no CRT da muita dor de cabeça e força a vista, mesmo colocando em 75Hz que era o máximo do meu em 1024X768, o CRT não atualiza toda tela de uma vez como LCD ele vai atualizando ela por partes mais bem rápido, por isso que cameras filma a piscada dele, no LC dá pra filmar de boa, em 1280X1024 a imagem ficava bonita mas era muito ruim pra usar,fui lá coloquei em 1280X1024, ele falo que ficou tudo pequeno, mostrei que dá pra regular o tamanho no Windows KKK. Todas as resoluções que o monitor roda são nativas no CRT lol, pra minha 7300GT em Over de 550 na GPU vs os 350 originais não sofrer usava 1024X768, a VGA só era boa em % de Over, a amior que já vi até na NET sem WC ou outros articios caros, metia uma FAN forte do lado e sentava o Over nem artefato dava ou crashs KKK. O ruim que nunca vi analógico de LCD nem sei se dá pra fazer, alem que analógico com cabo ruim degarda amimagem, Digital só degradou aqui quando o conector tava meio solto no cabo, mesmo assim ficava uns pontos coloridos na tela, não tudo lascado como um VGA velho que meu amigo usava, emprestei meu cabo VGA pra ele e ficou muito limpa a imagem, na deve ter digital anal´gico nem pra gamer, ai seria muma boa em, já pensou um monitor 4K que tem a mesma qualidade de um nativo em resoluções mais baixas como CRT tem, ia ser Top, acho que deve dar pra fazer, mas vai ia mais caro o maquinário tá tudo pra digital. Tem a sensibilidade do mouse, tem gente que acha que tem que comprar mouse mais sensivel pra agilizar no Windows KKK, dá pra regular como regula em um jogo de boa, 400DPI sobra até pra 4K que são menos de 300DPI, ou seja um mouse de 800DPI dá e sobra, vou trocar o meu por um LOgitech de 800DPI de minima e uns 2400 de máxima, quanto menos DPI de minima acho melhor, egulo no jogoe SO e fica bem preciso, já tenho precisão pixel a pixel aqui testado no Pint com dois mouses baratos, só um sem fio não passou e um simplão, não achei de 400DPI logitech, pego pois tem 3 anos de garantia no minimo, mas tenho um mouse e teclado dela aqui com 5 anos de garantia.                                                                                                                   

 

 

você falou sobre a imagem borrada fora da resolução nativa..... Nas plasma esse problema ocorrem com uma intencidade muito menor que na LCD..... Eu fico imaginado como seria uma TV de plasma 4k ...... :wub: Sendo que HD já é :aplausos: .... Isso pra TV.... :D  Uma pena que sairam de linha (_( .....

 

Em jogos eu uso a resolução HD mesmo + FXAA......Em  720P + o FXAA, os games rodam mais leves que em Full HD.....E os graficos ficam bonitos....

Link para o comentário
Compartilhar em outros sites

Poderia explicar melhor essa parte do HiDPI ?

Não-oficial: O HiDPI é um recurso que os fabricantes de software estáo adotando para otimizar o visual dos aplicativos para telas de alta densidade.

Já destrinchei bem no comentário que eu fiz, mas a grosso modo é o seguinte: repare na qualidade da imagem da tela entre o seu computador e o seu celular, atualmente. Qual deles possui a melhor imagem?

No celular, os fabricantes estáo adotando telas com alta densidade de pixels para gerar uma imagem cada vez mais nítida - e como as telas dos celulares estão """limitadas""" ao mesmo tamanho, quanto maior é o fator densidade de pixels, melhor é a imagem - isso, desconsiderando outros fatores técnicos práticos como luminosidade, contraste, fidelidade de cor e etc. No PC isso demorou pra ser adotado e tá começando a se tornar popular com o advento de telas 4K e até mesmo notebook com tela 1080p ou superiores.

Em suma, ao invés de você criar mais e mais espaço em tela para conteúdo, os sistemas estão se otimizando para aumentar a densidade de pixels dessas telas para melhorar a definição da imagem e tornar os elementos mais nítidos. Pegue um dos novos MacBooks da Apple, como exemplo; estes já adotam telas HiDPI (220 DPI) desde 2012 e os demais computadores da linha estão caminhando para o mesmo caminho.

  • Curtir 2
Link para o comentário
Compartilhar em outros sites



Crie uma conta ou entre para comentar

Você precisa ser um usuário para fazer um comentário

Criar uma conta

Crie uma nova conta em nossa comunidade. É fácil!

Crie uma nova conta

Entrar

Já tem uma conta? Faça o login.

Entrar agora

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...