シャープネスをモニター上で調整できることにどのような意味があるのでしょうか?

最近のモニターには、「シャープネス」という設定があります。

しかし、私にはそのような設定があることの意味がよくわかりません。

ソフトウェアは、32ビットRGB値の特定のパターンを表示するようモニターに要求しますよね。
例えば、OSはフレームごとにモニタに特定の1920×1080×32のビットマップを表示するように要求するかもしれません。

しかし、シャープネスを調整するということは、近くにあるピクセルの値を互いに影響させるということであり、それは入力が忠実に表現されなくなることを意味しているように思えます...つまり、表示するように要求されたものが表示されなくなるということであり、それは意味のないことです。これでは、シャープネスを調整する論理的な余地があるとは思えません。

シャープネス調整の自由度は、いったいどこから来るのでしょうか?

*オリジナルの質問です。シャープネスの調整の自由度はどこから来ているのでしょうか?

シャープネスは、視聴している信号やコンテンツの種類に直接関係します。映画の場合は、シャープネスを下げて画素を少しぼかした方がきれいに見えます。一方、コンピュータのディスプレイでは、文字や画像を鮮明にするために、シャープネスを高くします。ビデオゲームもシャープネスが高い方が良い例です。また、低品質のテレビ信号も、シャープネスコントロールによって向上させることができます。

コンピュータの画面や映画など、あらゆる映像ソースを表示できるモニターだからこそ、シャープネスの設定は有効なのです。

https://www.crutchfield.com/S-biPv1sIlyXG/learn/learningcenter/home/tv_signalquality.html

EDIT: OPはコメントで、これでは質問に答えていないと指摘しています。

OP:問題のどこに調整の余地があるのでしょうか?例えば x=1、y=2と言っておいて、x-y=3にしたいんだけど、とか。 それは意味がありません。

ライブ映像をアナログ/デジタルの電気信号に変換し、何らかの媒体で伝送し、その映像をディスプレイ上で再現するというプロセスは、決して1対1のプロセスではありません。

信号のノイズ、圧縮損失、製造や機器のばらつき、ケーブルや信号の種類など、さまざまな要因が絡み合っています。モニターのすべての調整は、エンドユーザーが最高品質の視聴体験を得られるように設計されています。その解釈は完全に主観的なものです。

OP:この回答では、「なぜ視聴者にシャープネスを調整させるのか? 視聴者がシャープネスを調整する必要があるのか? という疑問には答えられません。

もしこの論理に従うならば、なぜモニターには調整が必要なのでしょうか?その答えは、画面に表示されているものが、元のデータを100%正確に表現しているわけではないからです。

解説 (25)

入力を完全に再現するためには、モニターは各ピクセルをそのまま表示すればよい、というのはその通りです。

しかし、あなたの目(そして脳)はピクセルを独立したものとして見ているのではなく、ピクセルから形成された画像を見ているのです。何を表現しているかにもよりますが、パラメータを意図的に 'falsified'することで、画像はより良く(より魅力的に)見えます。

シャープネスは、一般的に、色が変わるエッジ部分のコントラストを高めます。例えば、このテキストの文字はピクセルの列で表現され、1つのラインは(簡略化して)2-2-2-2-7-7-2-2-2(2は明るいグレー、7は暗いグレー)のように見えます。シャープネスを上げると、エッジでの明るさの落ち込みが大きくなり、最初の7の前の最後の2がさらに明るくなり(=1)、最後の2の後の最初の7がさらに暗くなります(=8)。これをもう一方のエッジで繰り返すと、2-2-1-8-7-8-1-2-2となります。これで、あなたの目にはずいぶんとシャープに見えることでしょう。
この方法は、両方の次元で行われ、もう少し洗練されていますが、基本的なアイデアはこれで説明できます。

編集:私は自分の回答でそれを明確にしたつもりですが、OPはそれを理解していないと主張しています。
**OP質問:「それはどんな意味があるのか」 -> 答え:あなたの脳にはよりシャープに見えます。 多くの人がそれを望んでいます。気にならない人は使わなければいいのではないでしょうか。

解説 (3)

ソフトウェアは、32ビットRGB値の特定のパターンを表示するようにモニターに要求しますよね? 例えば、OSは毎フレーム、モニタに特定の1920×1080×32のビットマップを表示するように要求するかもしれません。

しかし、それはVGAの仕組みとは全く異なります。モニターレベルでは、ピクセルは全く存在しません。

液晶の時代以前のディスプレイの仕組みはこうだ。

1.ソフトウェアがデバイスドライバにビットマップ画像の表示を依頼する

2.デバイスドライバが画像をR、G、Bの3つの波形に分割する。オーディオの波形と同じですね。音声が1次元であるのに対し、画像は2次元であるため、この波形は特定のフォーマットを持っています。

3.3.画面上の線のアナログ信号がモニターに送られる。

モニターはピクセルを見ることはなく、線だけを見ている。

4.3つの電子銃から光速に近い電子をモニターに吐き出し、電磁石群を制御して電子を偏向させ、画面全体に描き出す。

ここで、シャープネスコントロールの出番です。

製造上の公差により、電子ビームが正確に収束することはほとんどなく、組み立て直後はぼやけた写真になってしまいます。昔は、モニターを買った人が自宅でシャープネスを調整していたのだ。最近のディスプレイは、工場での自動調整機能を備えていますが、シャープネスの調整機能は内蔵されていないと機能しません。

その答えはとてもシンプルです。シャープネス調整は、ディスプレイの画像がシャープであることを保証するためにあります。

解説 (8)