Na minha opinião, faltou citar outro fator que virou tendência para este assunto: DPI
Eu sei que estamos falando de monitores para PC mas por conta do advento que as telas de celular se tornaram mais populares e cada vez mais nítidas, a mesma tecnologia foi adotada também no "irmão maior". Só pra citar como exemplo: a Apple introduziu em 2012 os MacBooks Pro com Tela Retina - nas telas de 13" e 15" ela adotou a resolução de 2560x1600 e 2880x1800, respectivamente. Qual a ideia? Ao invés de somente aproveitar o espaço disponível pra colocar mais coisa, a Apple remodelou o OS X pra usar a densidade de pixels de forma a deixar a imagem mais nítida e os pixels da tela praticamente invisíveis "a olho nu". Como estamos acostumados a trabalhar em monitores com 96 dpi (110 dpi, na maioria dos notebooks), esse número aumentou pra 220 dpi. E com o 4K, a ideia (no meu ver) é a mesma. A imagem é mais nítida porque a densidade de pixels é o dobro do 1080p, logo ao invés de simplesmente usar uma tela com tamanha resolução para mais espaço, você pode configurar o SO pra aumentar a nitidez dos elementos e fornecer uma imagem mais nítida. A Apple começou suporte à Tela Retina no OS X Lion (10.7.2); A Microsoft só adotou suporte ao HiDPI a partir do Windows 8.1, as "gambiarras" do Windows 7 não otimizam totalmente a interface; No mundo GNU/Linux não sei dizer com certeza mas algumas distros já progrediram bastante nesse aspecto. Só por fins de comparação, no celular já estamos falando em telas com 400+ DPI - só pra ilustrar o que digo, celulares de 5" com telas WQXGA (LG G4 taí pra provar o q eu digo).