写真のHDRと動画のHDRの違い

最近テレビで聞くHDR対応

これは写真のHDRと何が違うのか気になって調べてみました。

そこで

まず最初に

HDRに対してSDRという言葉があることを初めて知った。

SDRは普通

ということなんだと思う。

カメラ等の映像機器が取り込める光の幅(ダイナミックレンジ)というのは

人間の目が取り込める光の幅に比べて

だいぶ狭い。

そのため、写真と実際に自分の観たものに大きな違いがでる。

例えば

晴天でひなたに目が慣れている場合

日陰も暗いながら人間の眼では見えるが

写真になると日陰の部分は黒ツブレしてしまうことが良くある。

写真とは

光の幅の中で、どこからどこまでの光を選ぶかが醍醐味といっても良い。

プログラムオート、絞り優先、シャッタースピード優先、ISOオートなどを使っているのは

その醍醐味を、自分で選択せずカメラ側に任せてしまっているという意味でもある。

とにもかくにも

現在の写真のほとんどは

SDR環境で鑑賞することが前提になっている。

写真の世界でHDRというのが流行り出した。

これは簡単に説明すると

明るい部分が白トビしてないけど暗いところは黒ツブレしている写真

暗いところは黒ツブレしてないけど明るいところは白トビしている写真

黒ツブレしてない部分と白トビしてない部分を合成する技術

のことを言う。

これは、光の幅をSDR内に圧縮しただけで

SDR環境(普通のディスプレイやテレビ)で鑑賞することを前提とした技術で

実際に光の幅が広がっているわけじゃないから

コントラスト等を派手にしなければ、割と眠い画像になる。

動画のHDRは違う。

HDRに対応したカメラはSDRの100倍ぐらい広い光を取り込めるし

HDR対応と謳ったテレビも、その幅を表現できるように作られている(テレビの方はSDRの10倍ぐらいみたいだけどね)。

ただ

動画の中にも

写真のように

明るい部分が白トビしてないけど暗いところは黒ツブレしている映像

暗いところは黒ツブレしてないけど明るいところは白トビしている映像

この2コマの

黒ツブレしてない部分と白トビしてない部分を合成し

1秒間に60コマの技術で明暗2コマずつ撮って1コマに合成して1秒間30コマの動画にする技術がある。

これは写真のHDRの応用であってSDR環境で鑑賞するための技術であり

HDR対応テレビでみるための映像とは違うので

このタイプのHDR技術を使った動画をHDR対応テレビで見る

という勘違いはしないで欲しい。

地上波デジタルテレビはHDRの映像は流れないのかな。

YouTubeとかNetflixとか、HDRの動画がありますね。

先日購入したSONY BRAVIA KJ-55X8500EはHDR対応で

YouTubeもNetflixも対応しているので

4KHDR動画を堪能しましたが

写真でいうところのHDRとは全然違うので

映像の迫力に感動しました。

以上が、私がネットで調べた写真のHDRと動画のHDRの違いです。

細かい部分で間違っているところもあると思いますが、参考になれば。

コメント

タイトルとURLをコピーしました