Que sentido faz para que a “nitidez” seja ajustável em um monitor?

84

Monitores modernos geralmente têm uma configuração de "nitidez".

Mas eu não entendo como isso faz sentido.

O software pede ao monitor para exibir um padrão específico de valores RGB de 32 bits, certo?
Ou seja, o sistema operacional pode solicitar ao monitor todos os quadros para exibir um bitmap específico de 1920 × 1080 × 32.

Mas ajustar "nitidez" significa permitir que os valores de pixels próximos afetem uns aos outros, o que parece implicar que a entrada não está mais sendo representada fielmente ... significando que não exibiria mais o que é solicitado a exibir, o que não não faz sentido. Então eu simplesmente não vejo onde isso deixa qualquer espaço lógico para ajuste de nitidez.

De onde exatamente vem o grau de liberdade para ajustar a nitidez?

    
por Mehrdad 04.01.2018 / 22:35

11 respostas

76

Por link , "nitidez" em um O LCD faz parte do pós-processamento.

Mesmo excluindo o redimensionamento / upsampling (por exemplo, se você tentar exibir um sinal SD em um monitor HD) e as complexidades da calibração de cores, o monitor nem sempre exibe a imagem como determinado. Este é um efeito colateral infeliz do marketing.

Os fabricantes de monitores gostam de distinguir seus produtos de outros produtos. Do ponto de vista deles, se você alimentar o mesmo sinal para o monitor deles e um concorrente mais barato, e parecer idêntico, isso é ruim . Eles querem que você prefira o monitor deles. Então, há um monte de truques; geralmente fora da caixa, o brilho e o contraste são enrolados além do que é sensato. A "nitidez" é outro truque. Como você faz a sua imagem parecer mais nítida do que um concorrente que está exibindo a imagem exatamente como foi enviada? Cheat.

O filtro "nitidez" é efetivamente usado no Photoshop e em programas semelhantes. Aumenta as arestas para que elas atraiam os olhos.

    
por 05.01.2018 / 11:05
66

Pergunta Original: De onde vem exatamente o grau de liberdade para ajustar a nitidez?

A nitidez está diretamente relacionada ao tipo de sinal e conteúdo que você está visualizando. Os filmes geralmente ficam melhores quando a nitidez é reduzida e os pixels podem ficar um pouco juntos. Por outro lado, um monitor de computador precisaria de alta nitidez para texto nítido e imagens nítidas. Os videogames são outro exemplo em que maior nitidez é melhor. Sinais de TV de baixa qualidade também podem ser aprimorados com controles de nitidez.

Por ser monitores que podem ser usados para exibir uma tela de computador, um filme ou praticamente qualquer fonte de vídeo, a nitidez ainda é uma configuração útil.

link

EDIT: O OP indicou nos comentários que isso não responde à pergunta.

OP: Where in the problem is there room for any adjustment? Like if I tell you x = 1 and y = 2, and then say "oh, and I want x - y = 3". That makes no sense.

O processo de converter uma imagem / vídeo ao vivo em sinais analógicos / digitais elétricos, transmitir em algum meio e recriar essa imagem em um dispositivo de exibição NUNCA é um processo de 1 para 1.

Ruído de sinal, perda de compressão, variações de fabricação e equipamentos, cabeamento / tipo de sinal e outros fatores entram em ação. Todos os ajustes em um monitor são projetados para trabalhar juntos para dar ao usuário final a melhor experiência de visualização de qualidade - de acordo com o usuário final. A interpretação é totalmente subjetiva.

OP: This answer does not answer the question of why have the viewer adjust the sharpness when this is already defined by the content creator (be it Spielberg or Excel).

Se quisermos seguir essa lógica, por que os monitores precisam ou têm QUALQUER ajuste? A resposta é que o que vemos na tela não é uma representação 100% precisa dos dados originais.

    
por 04.01.2018 / 23:00
35

Você está certo de que, para uma reprodução perfeita na entrada, o monitor deve simplesmente apresentar cada pixel à medida que é enviado.

No entanto, seus olhos (e seu cérebro) não vêem os pixels como entidades separadas, eles vêem uma imagem formada a partir de pixels. Dependendo do que representa, uma imagem parece "melhor" (mais atraente) se os parâmetros forem intencionalmente "falsificados".

A nitidez normalmente aumenta o contraste nas bordas de mudança de cor, por exemplo, uma letra neste texto é representada por linhas de pixels, uma linha pode parecer (simplificada) 2-2-2-2-7-7-7-2 -2-2-2 em que 2 é cinza claro e 7 é cinza escuro. Aumentar a 'nitidez' aumenta a queda de brilho na borda, de modo que os dois últimos antes dos primeiros 7 ficam ainda mais claros (= 1), e os primeiros 7 depois dos últimos 2 ficam ainda mais escuros (= 8). repita para a outra extremidade, e você terá 2-2-2-1-8-7-8-1-2-2-2. Isso parecerá muito mais "penetrante" para seus olhos.
Isso é feito em ambas as dimensões e um pouco mais sofisticado, mas isso deve explicar a idéia básica.

Editar: achei que deixei isso claro na minha resposta, mas o OP alega que não o entendeu:
OP pergunta: "que sentido isso faz" - > Resposta: parece mais nítido para o seu cérebro.
Muitas pessoas querem isso; se você não se importa, não use.

    
por 04.01.2018 / 23:30
31

A resposta é que um pixel não é o que você pensa que é. Não há uma correlação de 1 para 1 entre os pixels digitais e os pixels físicos devido a "Subpixel Rendering". A maneira como as cores são exibidas é diferente em cada monitor, mas a maioria dos monitores LCD possui elementos VERMELHOS, VERDES e AZUL distintos organizados em um triângulo. Alguns, adicionalmente, têm um pixel branco formando um quad de elementos por "pixel".

Assim,nemtodososlayoutssãocriadosiguais.Cadalayoutemparticularpodeteruma"resolução visual" diferente, limite de função de transferência de modulação (MTFL), definido como o maior número de linhas em preto e branco que podem ser renderizadas simultaneamente sem o alias cromático visível.

Os drivers de monitor permitem que os representantes ajustem corretamente suas matrizes de transformação de geometria para calcular corretamente os valores de cada plano de cor e obter o melhor resultado da renderização de subpixel com o menor alias cromático.

A "nitidez" do monitor reduz o algoritmo de mesclagem natural usado para fazer com que as linhas pareçam contíguas quando não estão. Aumentar a nitidez aumentará o aliasing cromático enquanto produz linhas mais limpas. Reduzir a nitidez dará a você uma melhor mistura de cores e suavizará as linhas que se encontram entre o espaçamento de subpixel.

Para informações mais detalhadas, consulte este artigo: link

    
por 05.01.2018 / 17:32
17

Você está absolutamente certo de que a definição de nitidez no monitor "distorce" a imagem dos dados com precisão de pixels enviados pelo computador (ou o que estiver conectado à outra extremidade do cabo de vídeo). No entanto, ele permite que o usuário melhore sua experiência visual se a nitidez dos dados precisos em pixels enviados não corresponderem à nitidez desejada na imagem que estão visualizando.

Assim, o monitor não está fazendo isso:

  1. Receber bitmap do cabo
  2. Renderizar bitmap
  3. Ir para 1.

mas isto:

  1. Receber bitmap do cabo
  2. Modificar bitmap com base nas preferências do usuário
  3. Renderizar bitmap
  4. Ir para 1.

Assim, o grau de liberdade para ajustar a nitidez é explicitamente adicionado pelo fabricante do monitor, com o objetivo de melhorar a experiência do usuário.

    
por 05.01.2018 / 11:02
12

The software asks the monitor to display a particular pattern of 32-bit RGB values, right? i.e. The OS might ask the monitor every frame to display a particular 1920×1080×32 bitmap.

Não é assim que o VGA funciona. No nível do monitor, não há pixels.

Como os displays tradicionalmente funcionam antes da era do LCD são:

  1. O software solicita ao driver de dispositivo que exiba uma imagem de bitmap

  2. O driver de dispositivo divide a imagem em três formas de onda para R, G e B. Isso mesmo, formas de onda! Exatamente como formas de onda de áudio. Agora, essas formas de onda têm um formato específico porque, enquanto o áudio é 1d, as imagens são 2d.

  3. O sinal analógico para linhas na tela é enviado para o monitor.

O monitor nunca vê um pixel, ele só vê linhas.

  1. O monitor cospe elétrons movendo-se quase à velocidade da luz a partir de três pistolas eletrônicas e o feixe é desviado pelo grupo controlador de eletroímãs, fazendo com que eles pintem a tela inteira.

Aqui é onde entra o controle de nitidez.

Devido às tolerâncias de fabricação, os feixes de elétrons quase nunca convergem corretamente e produzem imagens borradas diretamente da linha de montagem. Nos velhos tempos, cabe a você, a pessoa que comprou o monitor, ajustar a nitidez em casa. Mais tarde, mais modernas dessas exibições antigas têm processo de ajuste automático na fábrica, mas o ajuste de nitidez ainda deve ser construído para que o processo funcione.

Então a resposta é muito simples. O ajuste de nitidez está lá para garantir que a imagem nos monitores seja nítida.

    
por 05.01.2018 / 10:16
5

Em uma TV (digital), a nitidez controla um filtro de pico que aprimora as bordas. Isso não é tão útil em um monitor, se usado como um monitor de computador.

No século anterior, em um monitor CRT analógico de ponta, a nitidez pode ter controlado a voltagem de foco da arma de elétrons. Isso afeta o tamanho do ponto com o qual a imagem é desenhada. Defina o tamanho do ponto muito pequeno (muito nítido) e a estrutura da linha fica muito visível. Também pode haver interferência "Moiré" irritante na estrutura da máscara de sombra. A configuração ideal depende da resolução (taxa de amostragem) da imagem, já que muitos monitores CRT eram capazes de múltiplas resoluções sem escala (multi-sync). Defina apenas afiada o suficiente.

Os televisores CRT de ponta possuem Scan Velocity Modulation, onde o feixe de varredura é desacelerado em torno de uma borda vertical, e também filtros de pico horizontal e vertical e talvez um circuito de melhoria transitória horizontal. Nitidez pode ter controlado qualquer um ou todos.

A nitidez em geral aumenta as bordas, tornando o lado escuro da borda mais escuro, o lado claro mais brilhante e o meio da borda mais inclinado. Um filtro típico de pico calcula um diferencial de 2ª ordem, no processamento digital, p. (-1,2, -1). Adicione uma pequena quantidade desse pico ao sinal de entrada. Se você cortar os overshoots, reduz-se a "melhoria transitória".

Em alguns dispositivos digitais, a nitidez de um scaler pode ser controlada, por ex. nos meus receptores digitais de TV por satélite. Isso define a largura de banda dos filtros polifásicos de um scaler, que converte de uma resolução de origem para a resolução de exibição. A escala não pode ser perfeita, é sempre um compromisso entre artefatos e nitidez. Definir isso muito afiado e irritante contorno e aliasing são visíveis.

Essa pode ser a resposta mais plausível para sua pergunta, mas apenas se o monitor estiver sendo dimensionado. Não faria nada por um modo 1: 1 sem escala.

Fonte: 31 anos de experiência em processamento de sinal para TV.

    
por 05.01.2018 / 14:30
4

Não faz sentido. Ou pelo menos não na maioria dos monitores LCD. Você quase sempre quererá que sua "nitidez" seja definida como 0, dependendo do monitor ou da TV (alguns irão borrar o sinal em 0, então a configuração real não filtrada pode estar em algum lugar no meio), caso contrário, será aplicado um aprimoramento de borda , o que torna o lado mais escuro de uma borda mais escuro e o lado mais claro mais claro. Isso é especialmente notável em desenhos animados e texto. Sua milhagem pode variar, mas acho que parece ruim em quase todos os casos.

Este é um filtro irreversível e com perdas que você provavelmente não desejará ser ativado. Seu computador está enviando dados com pixels perfeitos, portanto, "nitidez" e filtros indefinidos geralmente são indesejáveis.

Observe também que o filtro / configuração de "nitidez" é inadequado. É impossível tornar uma imagem mais nítida (ou seja, ter mais detalhes), apenas menos detalhada. A única maneira de obter uma imagem mais nítida é usar uma imagem de origem de definição mais alta.

    
por 05.01.2018 / 19:54
4

As configurações de nitidez existem nos painéis LCD porque os fabricantes acham que os efeitos digitais venderão mais monitores e TVs. Em vez de representar fielmente a entrada do computador, o fabricante dá ao usuário opções para ajustar a imagem de acordo com os gostos pessoais, por mais pobres que esses gostos sejam.

"Nitidez" é relevante para sinais analógicos (como VGA) e para monitores CRT, em que o sinal é representado por formas de onda em algum momento. Como o analógico tende a ser impreciso, as configurações de nitidez permitem a calibração de tolerâncias e a compensação de imperfeições na saída de exibição analógica e na transmissão de sinal.

A nitidez deve ser irrelevante nos painéis LCD usando DVI, HDMI e outras fontes de dados "pixel-perfect" com um mapeamento de resolução 1: 1. Sim, nitidez distorce a imagem neste cenário. Exibições em lojas de caixas geralmente têm nitidez e outros filtros digitais acionados a extremos para parecerem mais dramáticos do que os monitores ao redor. Alguns consumidores podem realmente querer esses efeitos porque se acostumaram com os efeitos dos filtros ou porque estão tentando compensar um painel LCD de baixa qualidade que parece ruim para os olhos na saída nativa. A nitidez também pode ser relevante ao usar um sinal digital que deve ser redimensionado porque a fonte e a tela têm resoluções diferentes.

Em geral, você provavelmente deseja que a nitidez seja Desativada ou 0 em um monitor LCD moderno com um sinal digital 1: 1.

link e link

    
por 05.01.2018 / 21:57
4

Muitos monitores podem aceitar um sinal de vídeo que não tenha a mesma resolução do painel e tentar dimensioná-lo conforme apropriado. Se um monitor de 1280 pixels de largura for chamado para exibir uma imagem com 1024 pixels de largura e o material de origem consistir em faixas pretas e brancas com um pixel de largura, a exibição provavelmente mostrará um padrão repetitivo de 5 pixels. Em uma escala de 0 a 4, o padrão provavelmente seria 03214. Se as listras pretas e brancas no original forem "significativas", exibi-las como acima pode ser útil. Por outro lado, o padrão de repetição de 5 pixels seria uma distração que não está presente no original. Adicionar um pouco de desfoque à imagem reduziria os efeitos de aliasing do dimensionamento.

    
por 06.01.2018 / 05:25
-1

Configurações diferentes são boas para conteúdo diferente. Essas configurações também podem ser alteradas na fonte, mas eu e provavelmente muitas outras pessoas não sabem onde você pode alterar a configuração de nitidez em um PC.

Portanto, há um menu de fácil acesso no monitor, onde a nitidez pode ser alterada.

    
por 05.01.2018 / 10:41

Tags