※想像の部分が多く正確性に欠ける大雑把な話として聞いてください
前に『Lightroom のRAWディテールって効果ある?ない?』って話を書きましたが
この話は図があると解りやすいので図を作りました
デジカメの一般的なセンサー、ベイヤーセンサーが
仮に、下の図のような並びだったとします
RのピクセルはR(赤)の情報しかありません
GのピクセルはG(緑)の情報しかありません
BのピクセルはB(青)の情報しかありません
センサーに、下の図のようなモノが写ったとします
オレンジの丸ですね
RのピクセルはGとBの情報が無いのでオレンジの丸が接しているGとBのピクセルからGとBの情報をもらいオレンジのピクセルを作ります
同じく
GのピクセルはRとBの情報が無いのでオレンジの丸が接しているRとBのピクセルからRとBの情報をもらいオレンジのピクセルを作ります
BのピクセルはRとGの情報が無いのでオレンジの丸が接しているRとGのピクセルからRとGの情報をもらいオレンジのピクセルを作ります
ベイヤーセンサーのこの方式は
被写体の形状や具合によっては正確な色情報が得られないピクセルも出てくるんですよね
1ピクセルのみで正確なRGBの情報が得られるFoveonセンサーの方がベイヤーセンサーより解像感が高い
と言われるゆえんですね※詳しくはシグマの公式ページへ
とりあえずベイヤーセンサーの話に戻りますが
じゃあLightroomは
RAWデータを上記の図のように1ピクセルずつ隣接ピクセルから色情報を収集して計算しているのか?
というと
違う
という噂があります
あくまで噂です
ただ
RAWからJPEGのような画像を作る処理(デモザイク処理)は
カメラメーカーや現像ソフトによって結構差があるようです
参照元:
https://www.adwaa.co.jp/ip-software/technology/demosaic
Lightroomがどのように計算しているのか解りませんが
処理速度を優先して、わりと大雑把に計算しているというのを聞いたことがあります
その大雑把具合が
Lightroomで現像するとCapture One よりも解像度が落ちる
と言われる原因だとも噂されています
そして
その差(LightroomとCapture Oneの差)を解消するための機能がRAWディテールだと噂されています
より細かい計算をすることでCapture Oneとの現像結果の差を埋める
ってことですかね
あと
カメラ撮って出しJPEGもデモザイク処理はわりと大雑把って話を聞きますね
だからRAWからちゃんとデモザイク処理をした方がJPEGの解像感が上がるってことみたいですね
私の経験だと
カメラ撮って出しJPEGよりもLightroomでRAWから現像して出力したJPEGの方がモアレが多かったので
Lightroomの方がカメラ撮って出しJPEGよりもデモザイク処理が大雑把
というイメージです
そして
RAWディテールを使うことでモアレが減ったので(カメラ撮って出しJPEGよりも減った気が微妙にする)
RAWディテールを使えば(ニコンのカメラ撮って出しJPEGよりも)解像感の高いJPEGが生成できる気がします
繰り返しますが
この話は正確性に欠ける部分があると思いますので
詳しい方がいたら教えてください



コメント