最近発売になったソニーのα6700とα7C iiとα7CR。これら新製品の性能として色深度が10 bitを備えている。それまでの製品は8 bitであると。この差は、10 bitカラーに対応しているモニターであると、表示色数が10億6433万色に対し、8 bitでは1677万色であると。そう言われていてもピンとこない。だいたい、自分のPCモニターはApple Thunderbolt Displayだけど10 bitカラーに対応しているのかもしらない。自宅のテレビは4kに対応しているから両者の差をある程度は窺い知れるかもしれない。
しかしだ。Final Cut Proで動画編集していて気づいたことがある。
釣りの動画撮影に使っているGoPro11の色がやたらと綺麗で、しかも色調節の幅が広い。それに対してα6400で撮影した動画についてはどうも薄っぺらいというか調節幅が狭いというか。なぜだろうか。
GoPro11で撮影した動画の一コマを切り取ったものがこれ、
で、Final Cut Proでカラーグレーディングと色調節をした一コマがこれ。
それに対して、α6400 (8 bit)では、
で、同じ調節を加えてみたところ、
なんか違うなぁと思う。どうなんだろ。
ということで、調べてみると、
GoPro11からは10 bitカラーにアップグレードされたそうで、画像解像度も5Kだという。
それに対して、α6400は8 bitだそうだ。その差か??
そうなってくると、これら二つのカメラで撮影した動画を一つの動画作品に混在させるというのは、違和感を生じさせるという意味でよくないんじゃないの?って思う。
α6400の設定はフレームレート24fpsで4k。推奨されている高画質の設定にしている。
ということは、α6700やα7C iiの10 bit対応カメラで撮影した場合はその性能の差に気づくものなのだろうか。
α6400の設定と撮影手法をもう一度検討し直す必要があるな。やべえぞこれ。