カメラを使う場合、過去と現在ではかなり変わっていますが、カメラと言う機材が特別だった時代はある意味終わり、カメラを所有するという事自体が特別な時代ではなくなりました。

 

 これと同様に 【 写真や動画を撮る 】 場合においても、日常を切り取るだけだと、スタイルとして確立できるような物ではなく、誰でも彼でもできてしまうことになっていますから、既に 【 撮るだけで凄い時代ではなくなっている 】 訳です。写真と言うのは物理現象であり、その現象をどうとらえるのか?で状態が変わってきます。

 

 現在はデジタルイメージング製品が主流の時代になっていますが、富士フィルムやSIGMAの製品で非ベイヤー配列のセンサーもありますが、現在のイメージセンサーの多くはベイヤー配列でラスターグラフィックのように正方形が並んだ配列になっています。この画素がラスターグラフィックのように一つづつの色を拾っているわけではないので、画像処理で色を出しています。

 

 小学校の授業で、 【 エネルギーは変換可能である 】 という事と、

【 相互変換が可能 】 という事を学びますが、写真とは、光を切り取る処理なので、その記録方式がどう言った物なのか?で機材が違います。その根本的な部分はピンホールカメラになりますが、この仕組みは、暗室に配して小さな穴を通して光が入ってきた場合に、反転した像が刻まれる現象になりますが、この現象自体は紀元前から知られており、紀元前15世紀辺りには、この現象が知られています。その後、小さな穴を通した見えるぼやけた像を 【 より鮮明に映りだす 】 ために凸レンズを用いて光を得て、それをミラーで反射して像を見ながらトレースするカメラオブスキュラが登場します。

 

 現像が登場するのは、19世紀のダゲレオタイプからになりますが、その登場以前に、フランスのエニプス兄弟がアスファルトの素材を感光材にして8時間かけて撮影しています。それが1826年の事ですが、その13年後に銀メッキした銅板を感光材料として使うダゲレオタイプが登場します。これにより、1枚の写真を撮るのに天体写真かスターストリームの撮影のように8時間の露光が必要だった通常の露光時間が30分まで短縮されました。これでも天体撮影のような時間ですが、その後、焼き増しが出来るようなネガポジほうが登場します。これがフィルム写真で見かける色彩がなく濃淡が反転した陰画を現像して陽画にする手法になります。その後も記録方式は多く存在しますが、19世紀の写真はガラスに刊行する物質を塗った物だったのですが、1888年に

コダックからフィルムの製品が登場します。ちなみに、このガラスに記録されている物を乾板と言いますが、これがロールフィルムの前に存在した焼き増しのできるネガになります。

 

 ちなみに、乾板は度時代に伝わっているので、日本の写真の歴史は江戸時代で19世紀半ばに始まっています。

 

 ちなみに、日本初のアマチュア向けカメラはコニカミノルタが小西本店と言う名前の時代に発売した 【 チェリー手提暗函 】 になります。

 

 フィルムまでの時代を見てみると、観光する対象が面としてカメラ内部に配置されており、シャッターが切れると光が入ってきて感光するような仕様になっています。フィルムカメラの時代のファインダーはOVFですから、ペンタプリズムを通して入ってきた像を見る感じになっていますが、ファインダー越しに見た像は上下左右が正しく見えているはずです。しかし、物理の授業で、レンズや小さな穴を通した時に光は方向が逆さまになる事を学びます。フィルムにはその状態で焼き付けられますが、見えている物がそうだと困ります。その為、一旦ミラーで反射させることで方向の補正をかけて上に上げるような仕組みになります。

 

 シャッターを切る前はこのミラーが光を反射しているのでフィルムに光が入らない仕組みになっており、シャッターを切ると、府ミラーが跳ね上がり光がフィルムに当たる仕組みになっています。と言っても、この状態だと真上に像が行ってしまいますから、ハッセルブラッドのように上から見て撮るようなカメラでもない限りその状態だと使う事が出来ませんし、下を見ながらカメラを使うというのも少し特殊な作業ですから、光軸と同じ場所の状態が見えるようにする必要があります。そこで、そのミラーで反射した光をペンタプリズムで曲げてファインダーに送っているわけです。これがペンタプリズム式の一眼レフの仕組みです。この仕様の製品が登場したのは、日本でカラーフィルムが発売されて9年後になる1950年の話になります。

 

 ちなみに、ライカAが登場したのは1925年になります。

 

 カメラが光を得る方法は共通していて、状態を作って伝達するのがレンズであり、それを記録する野庭ボディーと言う仕組みは変わりません。

 

 ただし、フィルムの場合は、感光体の状態変化による記録(化学反応)で、デジタルイメージング製品の場合、イメージセンサーで受けた光を電気信号に変換しているので、電気信号による記録(電気信号の記録と物理現象)になります。

 

 イメージセンサーでの情報もセンサーの性能で全く異なりますが、ボディー内部では、画像を記録するための絵作りを行う画像処理エンジンと言うデバイスが存在しています。その為、こうしたデバイスの設計によって写真や動画の絵作りが全く変わってきます。

 

 写真はレンズが重要なのは言うまでもありませんが、デジタルになってからはボディー性能がフィルム時代とは別次元で重要さを増しています。と言うのも、レンズからの光を得てそこから絵を作るのが化学反応ではなく、デジタル処理になっていますから、そうした点を踏まえると、どう言ったイメージセンサーの仕様でそのセンサーはどれくらいのダイナミックレンジがあり、最大の色深度がどの辺りで、どれくらいの光を取り込む能力があるのか?などはセンサーの作りで変わってきます。

 

 また、画像処理エンジンについても同様で、出来る事が全く違いますから、設計の新旧で画質と記録に違いが出ます。例えば、現在のカメラだと、14bit RAWが取れて当たり前の時代になっていますが、12bitまでしか対応していない物もありますし、旧世代の製品だと、最大感度が低くノイズが多いので増感でシャッタースピードを稼ぐことができません。また、暗所に弱いので日中の低感度撮影を主体とした使い方になります。(もしくは、ライトで光を作って撮ることで感度を抑えるなどしないと厳しいです。)

 

 デジタルになってからは 【 技術が新しいほど画質は高くなる 】 と言う状態になっていますが、画像処理エンジンの世代が新しいほど増感の選択肢が多く、常用感度も広くなっているので、APS-C以上のセンサーだと常用感度がかなり高くなっています。その為、10年以上前の製品だとISO800が厳しいカメラもありましたが、現在の製品だと、ISO800位だと常用で使っても平気な製品も多くあります。その為、出始めの頃のデジタル一眼レフの製品だったり、15年位前の製品だと、ISO800の品質が現在のISO 3200~6400相当になってしまうのでかなり厳しい状態になります。 

 

 その為、デジタルイメージング製品については、大昔のフラグシップ製品だと、かなり使いにくい仕様になっています。とは言っても、古い製品でもCybershot DSC-R1のようにジョイスティックやダイヤルが合ってUI操作がかなり洗練されていて使いやすい製品もありますが、連写はできませんし、増感すると酷いので、得意分野を生かして撮らないと厳しい製品になっています。あと、近年のフラグシップ製品レベルで重たいのと、手振れ補正機能と言う物が存在しないので相当厳しいと思います。また、古い製品は低画素なので画素ピッチは広いのですが、暗所に強い訳ではありませんから、重くて用途を選ぶ製品になっています。その為、余りにも古すぎる製品は中古で購入しても満足感は低いと思います。と言うのも、撮って楽しいと感じられるレベルで目的に向いていればいいのですが、スマホを持っている場合だと、古すぎる製品はスマホよりも使いにくく、条件によっては画質も厳しくなることがあるので、 【 古すぎる製品でも、購入する日付から5年以内にリリースされたもの 】 の物を選ぶ事になります。

 

 基本的に、写真や動画を撮る場合だと、デジタル製品を使うことになりますが、基本部分は共通しています。

 

 

メラと光軸                       

 

 写真や動画と撮る場合にカメラを使いますが、光が届いたあとの処理が化学なのか物理なのかの違いで、面に光が届くまでの条件は全く同じです。これはiPhoneがAIを使って写真を作るような処理をするとしてもこの部分までは同じです。と言うのも、AIの処理と言うのは画像処理なので、トラッキングなどと同様で届いた情報を元に処理をしてますから、画像処理エンジンまでデータが来た後の処理になります。

 

 その為、レンズからイメージセンサーに光が来るまでの状態というのはフィルムもデジタルイメージング製品も同じです。その為、このセンサーに当てる光の状態をどう作るかを考える必要があります。

 

 写真や動画を撮る場合、カメラを被写体に向けますが、この時にカメラはレンズのセンターを中心にファインダーで見える範囲で切り取られて見えています。この短形の中で構図を決めて写真を撮る事になりますが、この時のセンターの部分は光軸に該当します。その為、レンズを向ける場合、光軸をどこに向けるのか?という事になります。この条件はどのカメラでも同じです。そして、レンズの中心からレンズの範囲で入ってきた光がセンサーに当たってピントがあるわけですが、この距離もセンサーのサイズで違ってきます。

 

 

 ントと範囲                      

 

 カメラを被写体に向けた場合、主題をしっかりと残す必要がありますから、被写体にピントが来ている必要があります。

 

 この場合、主題を撮るので、そこにピントを合わせます。これが大前提になりますが、その後に、

 

【 強調したいのはどこで、フレーム内において主題でない

   物は何か? 】                          

 

を判断したうえで、ピント会う範囲をコントロールします。この時に使用するのが 【 絞り 】 です。

 

 絞りについては、レンズの設計によって使える範囲が異なりますが、絞り込むことはどのレンズでもできますが、解放時の明るさについては、完全にレンズの設計で異なります。

 

 その為、レンズの名称として既に明記されていますが、どのレンズにも 【 F値 】 が記されています。

 

 これが絞りの値になりますが、レンズに明記されているのは、解放側のF値になります。このF値を 【 解放F値 】 と呼びます。

 

 レンズを購入した場合、解放で撮るのも悪くないのですが、レンズ特性からすると、1~2段分位絞ってみて、テスト撮影をすると、単焦点レンズでも、この範囲でディテールがシャープに出て被写界深度が浅くなる場所があります。これが、そのレンズの一番高いパフォーマンスが出るポイントになります。と言っても、パンフォーカスで撮りたい場合に被写界深度を浅くすることはできませんから、絞り込むことになります。

 

 その為、そのレンズの解放側で被写界深度を浅くした場合に、撮る条件だと、少し絞ったほうがレンズ本来の性能が出ます。この特性はレンズ全般に言えるのですが、この条件で考えると、被写界深度を浅くしたい場合には、開放F値の数値が小さなレンズを選んだほうが選択肢が広くなるので、必要な被写界深度を得る事が出来ます。

 

 絞りの値は被写界深度をコントロールする調整項目の一つになりますから、解放側のF値が小さいほど調整幅は広くなります。

 

 絞りと言うのは、光のとおる穴になりますが、この穴を絞りばねを動かす事で形を変えて穴のサイズを変える事が出来るようになっています。

 

 光の通る穴が大きいとセンサーに届く光も増えますから、明るくなりますし、小さくなると暗くなります。その為、ピントの合う範囲だけでなく、明るさも変わってきます。

 

 このF値については、35mmフルサイズの標準になっていますから、センサーサイズが異なると状態が変わります。

 

 

 ンサーサイズと結果の違い          

 

 レンズは35mm換算の物が基準となっていますから、F値が同じでもセンサーサイズで変わってきます。この絞り値の違いですが、35mm換算にした時のレンズの倍率と同じ数値になります。その為、APS-Cだと、1.5段分絞ったような表現になりますし、マイクロフォーサーズだと2段分になります。ちなみに、2段版と言うと、√2の2倍ですから、F値を倍にした状態が35mmフルサイズで撮った時の暗さや被写界深度の深さになります。

 

 スマホなどで使用されている1/2.5型というのは記録を行う場所の面積だけでいうと、動画を撮るフィルムのSuper 8よりも大きなサイズになるのですが、このセンサーだと5.5倍ですから、5.5段分の暗さになります。また、被写界深度が深いので、解放側にしてもそれほど被写界深度が深くなりません。その為、F2.8のレンズを使った場合でも、フルサイズのセンサーで撮った場合の被写界深度と1/2.5型で撮った場合の条件ではかなり違います。また、この条件で考えると、35mmフルサイズのF2.8の条件だと、マイクロフォーサーズだと、F1.4で同じ条件になりますから、レンズのいい部分を使おうと思うとF1.2で少し絞ってF2.8相当で使うことになります。この条件で考えると、APS-CだとF1.4とかで少し絞って使うと同じ条件になります。

 

 その為、写真や動画の撮影結果が35mmの製品の作例だと、センサーサイズが小さい場合に同じレンズを使った場合には絞ったような表現になってしまいます。

 

 所有している製品や導入する製品がどう言った仕様の物なのか?を前提に考える事になります。

 

 持っている物を使うという条件だと、所有しているセンサーサイズがどう言った物で、使用しているレンズの仕様と特性がどう言った物なのか?を確認して、その上で、特性意を踏まえたうえで撮る事になります。写真を見る場合、EXIFも公開されていますが、いい写真があっても、光学系とセンサーサイズの仕様の違いで撮れない場合も出てきます。

 

 所有しているカメラで撮れる物は構成で変わってきますから、もしもカメラを持っている場合だと、 【 特性を知り、それで撮れる物を撮る 】

事になります。

 

 基本的に、マニュアルで撮れるカメラだと、自由度がかなり高いので、カメラで出来る事はかなり多いです。その為、レンズの絞りで制約がある場合、解放側から回折現象(小絞ぼけと言う絞り過ぎるとフォーカスの範囲は広くなるものの、光学的な物理現象によって全体的にディテールが低下する現象)起きるまでの範囲で何が出来るのだろうか?と言う条件をテーマにして、その上で撮る方を模索すると相当多くのアプローチが見つかるはずです。その為、レンズやボディーによって絶対に撮れない物も孫座強いますが、既に所有している製品がある場合、 【 何が出来るのだろうか? 】 という部分から考えたほうが、出来る事は増えていきます。

 

 

 点距離の変化                  

 

 前述の内容と重複しますが、レンズの焦点距離が同じでも、それを装着するカメラのセンサーサイズで焦点距離が変わってきます。これは、センサーサイズが変わると、範囲が変わってきますから、画角が変わってきます。これと同時に焦点距離の変化で発生する距離感の変化も発生します。

 

 焦点距離が変わると、

 

     被写界深度

     奥行き(距離の圧縮、伸長効果)

     画角

 

が変わります。焦点距離と距離の変化については、

 

■ 焦点距離と距離の変化

のような目で見てわかるレベルの変化が出ます。これが焦点距離による距離の圧縮・伸長効果になります。

 

 動画だとこれを使った撮影技法に 【 ズームイン・ズームアウト 】 がありますが、これとは別に、ワーキングディスタンス(レンズの先端から被写体までの距離)を変化させるドリーイン・ドリーアウトがあります。これについても、

 

■ 動画の製作と素材 : 素材の作成(4) 【 3DCGとカメラの違い 】

 

■ ズームとドリー

 

のような違いが出ます。この二つを組み合わせたものがヒッチコック・ドリーやドリー・ズームと呼ばれる撮影手法になります。

 

 その為、 【 被写体を切り取る 】 と言っても、ドリーとズームでは全く意味が違います。写真の場合だと、時間軸がないのでズーミングを使うのは特殊な物を撮る時しか使いませんが、写真でもズームリングを使った手法も存在します。以前、

 

■ ズームリングを使った場合(Cybershot DSC-R1で撮影)

 

で紹介していますが、焦点距離の変化で画角も変わるのですが、ズームの場合、動画では画角だけでなく距離感も変わってきますし、通常の写真とは異なる物を撮る事もできます。

 

 焦点距離の違いでレンズのサイズも変わりますが、小型センサーにすると焦点距離の長い製品をコンパクトに作る事が出来ます。それが可能なので、ニコンのP900やP1000のような風景撮影から土星が見えるような写真まで撮れる製品もあります。

 

 2000mmや4000mmと言うと35mmフルサイズようだとだと凄まじいサイズと重量になりますから何処かの土管か鉄柱のようなのを持ち歩いているようなイメージで、日常においては、 【 ウェイトトレーニングで見かけるような数値 】 になると思います。その為、この条件で考えると、 【 自宅にパーソナル天文台を用意してドーム事設置する人の選ぶワンランク上のプレミアムな天体望遠鏡 】 のようなのがそれになります。となると、 【 何で支えてどう撮るんだろうか? 】 という話になりますが、小型センサーなので、1kg程度の重量でそれを収める事が出来ているわけです。SIGMAの200-500mmのF2.8と言うレンズがありますが、これが結構なサイズなので、この焦点距離の数倍の物を想像すると、結構なサイズになってしまいます。F値を小さくするとそうでもないのですが、P2000のF値を35mmフルサイズようで作ると、人が持ち歩けるものではなくなるはずです。

 

 その為、小型センサーの特性が残ってしまいますが、軽量で焦点距離を稼げるという利点はあります。あと、小型センサーなので、ポートレートとかで24~120mm位のカメラでよく見かける焦点距離の範囲で単焦点レンズのようにボケを出そうともうと無理があるので、小型センサーは被写界深度が深くなる特性があります。ただし、被写界深度が浅くなる条件に 

 

     焦点距離が長い

     マクロ撮影

 

と言う条件もありますから、焦点距離を長くすると小型センサーでも前景や背景をぼかす事が出来ます。特にマクロだとその傾向が強く出るのですが、

 

■ Lumix DMC-TZ85で今日も撮ってみた。(昆虫注意)

の中でも紹介していますが、超望遠域になると、小型センサーでもかなり被写界深度は浅くなります。

 

 マクロを個なった場合も寄れる製品だと、かなり被写界深度が浅くなるのですが、

 

 

位背景ボケが出ますフィギュアのサイズは同じなので、後ろにあるBD-Rのスピンドルのサイズで大体のサイズが確認できると思いますが、この写真は、被写体が1mくらい先にあり、同じ距離離した場所にあるのが後ろのフィギュアになります。その為、距離の圧縮効果で、後ろのフィギュアがかなり大きくなっているのですが、焦点距離を長くするとこうした現象が発生します。

 

 その為、広角側で広く撮りたい場合だと、大型センサーのほうが選択しやすい状態にあり、小型で焦点距離が長いほうがいい場合だと、小型センサーの製品を選ぶ事になります。後で書きますが、条件によってセンサーサイズが重要になる事もあるので、用途で選択肢が変わってきますが、センサーサイズが変わると35mm用のレンズを使用した場合、焦点距離や明るさや被写界深度が違ってきます。

 

 

 ンサーサイズと光の撮り込む能力      

 

 写真をフィルムで撮る場合だと、粒子のサイズの最小値は決まっているので、L版や2Lにする場合でも、フィルムの受光面が広いほうが情報を多く得る事が出来るのでサイズが大きいほうが良好な結果になります。これはトイカメラを使った場合もそうなんですが、受光面に情報を伝達するのは、レンズの仕事なので、フィルムの場合だと、レンズ性能が殆どの機能を果たしており、カメラはその中においてその光の露光時間をどの程度の長さにするのか?を決める物になります。とは言っても、AEなども実装しているので、フィルム時代でも、明るさの基準をどこにするのか?を決めることになりますが、そうした入ってきた情報をおどう言った形で使うのか?を決めるのは、ボディーの仕事になります。そして、明るい場所と暗い場所の違いや環境による色温度の違いなどは、フィルムのISO感度とフィルムの種類(デイライトとタングステン)などで使い分けることになりますから、照明の色が青がかった状態やアンバーに振った状態でも環境色に引っ張られないようにするためにフィルムの選択で調整する必要がありました。これは写真も動画も同じですが、デイライトではデイライト用の現像を行い、タングステンではタングステンの現像を行うわけですが、撮影したフィルムに対して、現像を違う物で行う事で印象的な結果にする方法もあります。この現像方法がクロスプロセスと言いますが、現在のコンシューマのDSLR製品では、プロファイルの中にクロスプロセスを実装した製品もあるので、撮影時にクロスプロセスを選択して写真を残す事もできます。

 

 フィルムは、粒子のサイズが決まっているので、Super 8のような小さなサイズの物だと情報量が少なくなり、Super 35で撮影した場合には、全く違う結果になるわけですが、これと全く同じ条件がデジタルでも発生します。この 【 粒子のサイズ 】 をベイヤー配列のイメージセンサーにおきかえると、画素数が同じ場合、大型センサーのほうが画素自体の受光面積が大きいので光を取り込む能力に優れているという事になります。その為、この条件で考えるとフィルムと全く同じ条件が成立します。

 

 ただし、前述のようにセンサーは電子機器ですから、設計が新しいほど高性能になっています。その為、画素数の少ない古いカメラの場合だと、デバイスの設計が古く画像処理エンジンの性能も低いので同じ画素数の製品が存在した場合、新しいイメージセンサーと画像処理エンジンの構成のほうが良好な結果になります。

 

 イメージセンサーのサイズが大きいと、光を取り込む能力が高いので、フルサイズやAPS-Cサイズのセンサーの場合、ダイナミックレンジが広いので、RAWで撮影した時に記録できる情報量が違ってきます。そうした点も含めて、大型のセンサーを用いたほうがいいのですが、星を撮る場合だと、向いているセンサーやローパスフィルターの影響が少ない製品のほうがいいので、星を撮るのにチューニングされているカメラを用いることになります。星以外を撮る場合だと、撮影する頻度の高い被写体が何かを考えてカメラを選ぶ事になりますが、描写の基準はレンズなので、レンズがどう言った描写をするのか?を決めて、それに対して調整項目を全く触っていない状態のメーカー出荷時の方向性で撮った場合にどう言った傾向が出るのかを見たうえでボディーを決めます。これも後で書きますが、基本的に、暗所や動きの速い物を撮る場合、必ず増感が必要になりますが、センサーサイズが大きい場合、増感をしても常用感度が結構高い(用途によってはISO1600位まで大丈夫なものまであります。ノイズが見えても大丈夫な物だと、フルサイズだともっと増感してもディテールの破綻をしない感度がしばらく続くので、ISO 2000辺りにしても、ディテールがしっかりと残る製品が多いです。この辺りは、画像処理エンジンとイメージセンサーとレンズの性能で変わってきますが、エントリー製品でも、ISO 1600を上限として使うと、出力サイズにもよりますがノイズが少なくディテールも出ている状態になると思います。ただ、エントリー製品だと、ISO 800までの範囲だとノイズが気にならない状態になる製品が多いので、この辺りは現在の常用感度と言えるのかもしれません。)のでそう言った意味でもセンサーサイズの大きな製品を選んだほうがいい場合もありますし、小型センサーでは対応できない物も存在します。

 

 

 メラと絵作り                     

 

 カメラを使う場合 

 

【 メーカー出荷段階で変更のない状態撮ってみた状態 】

 

を基準にすると書きましたが、この内容は、カメラで撮影できる質感はカメラ内部で指定できるためです。

 

 コンシューマのDSLR製品でもフィルターが実装されているので、目的に合った質感を選択できますし、メーカーごとに呼び名が違いますが、絵作りに必要な、画像の構成要素を指定して撮影する事が出来ます。

 

 ピクチャープロファイルやフォトスタイルやカスタムイメージなど色々な名称になっていますが、

 

    コントラスト

    彩度

    シャープネス

    ノイズリダクション

  

などの項目があります。これについては、

 

■ 撮影時の設定

 

で紹介していますが、カメラ内でどう言った状態で撮影するのかを指定できるようになっているので、一つのカメラを使うとしてもテイストを指定して記憶しておき、それを適応して撮影する事が出来ます。

 

 購入したカメラの絵作りがメーカーの方向性として、低彩度でシャープネスが弱いと仮定します。そのカメラもシャープネスを強くする絵作りはできますから、撮影段階で調整できます。また、真逆の絵作りの製品もありますが、この場合にも低彩度で低コントラストにすることもできます。

 

 ただし、この場合、 

 

【 用意されている調整項目でどの辺りまで変わるのか? 】

 

で結果が違ってきますから、RAWで撮った時にどうなるのか?と言うのを知っておく必要があります。と言うのも、その絵作りから現像で調整をすることになるので、写真を撮る場合だと、RAWがどう言った状態になるのかを見ておく必要があります。その上で調整をすることになります。フィルターの処理は、JPEG記録時の選択肢なので、RAWの場合には現像ソフトで調整していくことになります。その為、RAWで撮って現像するという流れの場合、RAWの品質を基準に考えることになります。

 

 コンシューマのカメラでも動画撮影が可能で、4K対応の物も増えていますが、この記録方式はMPEG-4 AVC/H.264になります。つまり、ロッシー形式のMPEG圧縮による8bit/4:2:0のREC.709による記録になります。その為、RAWではなく、エンコーダを通して処理をしているので、現在のカメラでは、動画撮影時にも実装フィルタを通して撮影する事が出来ます。

 

 完全なコンポジションによって作成されているフィルターは動画では使用できませんが、大半のフィルターは対応しているので、絵作りの段階でそう言った物を使用できます。ソニーやパナソニックのようにBDレコーダーを販売しているメーカーではSDカード経由でBDレコーダーで録画番組のCMカットをするような感じで編集できるような仕様になっていますが、こうした編集を行う場合でもカメラまかせのオートで撮っただけのものではなく、フィルターを使って質感の異なるものを素材として使用して編集する事が出来ます。

 

 現在は、ビットレートが決まってしまいますが、PS4のShare Factoryでもう少し上の編集ができますし、iMovieやLumafusionを使うと更に複雑な事が出来ますが、クリップを切り貼りするくらいしかリソースがなく、文字と音楽の追加だけで対応するしかないような状態だと、撮影段階でテイストをカメラ側で決めておいて、シーンに合ったテイストを呼び出して撮影し、それをソフトやアプリで繋いで字幕や音楽や音声を追加するようにすると負荷の少ない状態で作業を行う事が出来ます。

 

 元の状態が偏っていると調整幅が狭くなるので、ソフト側でノーマライズとグレーディングを行う場合だと、Logのように調整幅の多い状態にしておいて、白トビ、黒潰れがない状態で撮影してその後、ソフト側で調整するほうが作業がしやすいと思います。iPhone 12は10bitになりますが、Filmic Proで10bit LOG対応とかになると面白そうですが、基本的に8bitで撮影したソースを256階調の色の範囲で調整する事になりますから、その情報を元に色の方向性を決めようと思うと、LOGのように色の方向が決まっておらず、どの方向にも調整しやすい状態にしたほうが選択の幅は広がります。動画の製作で色深度の深いソースを使うほうがいいのは、ノーマライズやグレーディングの工程において色の変更を行うと色深度に応じて階調の変化が出て、色の変化は近似値で表現される場所もありますが、映像の場合、画素のRGBの色の変化で状態が変わっていますから、中間色が多いほうが都合がよくなります。そうなると、10bitで記録されている物を10bitで処理したり、12bitで記録されている物を12bit処理したほうが調整幅は広くなります。

 

 この時にダイナミックレンジが広く、センサーに光の情報をちゃんと伝えてくれるレンズを使ていると更に情報量が多くなるのですが、センサーサイズが大きいとそうした点でメリットがあります。

 

 動画を作る場合の調整幅の広さで考えると、大口径のレンズでしっかりと光の状態をセンサーに伝えてくれるものを選択して、大型センサーのボディーで色深度が深い状態で記録できる物を使って、色深度の深い記録方式で撮影して、編集時に素材の状態を確定して映像全体の状態を作る事になりますが、カメラ内部でもテイストの指定が出来るので、動画撮影機能のようにDNGの選択肢がない条件だと、JPEG撮影時に適応できるフィルター類を適応できるので、オートで撮った状態とは確実に異なる物を作る事が出来ます。

 

 その為、カメラを購入してオートで撮った品質以外でないというのは、1995年辺りのデジカメの話なので、四半世紀前の話になりますし、始祖のデジカメのような製品の事になりますから現在の製品では、JPEGの場合だと、フィルターを使い、RAWの場合だと、現像する流れになりますし、動画だと、RAW記録が出来る訳ではありませんから、JPEGのようにエンコードした物になりますから、加工をして出力する事が出来ます。その為、動画撮影時に実装フィルターを適応してシーンを撮影してそれを使う事が出来ます。

 

 8bitでもLogが効くというのは、Filmic Pro+LumaFusionなどの組み合わせで使ったことがある人だとご存知かと思いますが、色の方向性が決まった状態で撮る(と言うか、光の向きや状態を決めて持ち帰るというのは通常の撮影もLOGも同じです。)よりも、LOGのように調整幅が広いほうが作業がしやすくなります。

 

 

 撮影と調整                     

 

 どう言った機材を使うかで結果が違ってきますが、光の使い方で条件が変わってきます。自然光だけでも綺麗に撮る方法はあるので、自然光+レフで撮るだけでも状況が変わりますが、マクロのように対象物が小さい物で、動かない物を撮る場合だと、自由度の高さはさらに多くなります。

 

 ここで、Lumix DMC-TZ85を使っていますが、このカメラだと

 

 

のようなサイズで月を取れるので、トリミングをすると、

 

 

のような感じで月を撮れます。ただし、長時間露光と増感が出来る訳ではないので、動画撮影時に暗所を撮るのは向いていませんし、星空が取れるような製品でもありません。

 

 ただし、マクロを行う場合には、自由度が高いので、色々な事が出来ますが、照明を調整できる場合には、撮り方もかなり違ってきます。同じものを撮る場合でも、正面からストロボを当てた場合だと、

 

 

のようになる物も露出を変えると、

 

 

になります。光の向きは同じで、正面から弱めにストロボを当てて二灯でスローシャッターにしたスローシンクロにした場合、

 

 

になり、これをストロボを炊かず、ISO 100まで下げて4秒の長時間露光で、光の指向性だけ決めた状態で撮影したのが

 

 

になります。同じ被写体で同じライトで同じカメラでも撮り方を変えるだけでこんな感じで質感が変わります。これは、環境を変えている訳でもカメラを変えている訳でもなく、撮影の仕方を変えているだけですし、実質的に4万未満のデジカメ(レンズもワイド端でF3.5なのでレンズが明るいわけでもありません。)でもこんな感じで状態が変わります。

 

 ちなみに、これは撮って出しの写真をリサイズしただけのものになります。機材を使う場合ですが、 【 長所を生かして撮影する 】 しかありませんから、その機材のポテンシャルを知る必要があります。

 

 その為、何が出来て何ができないのかを知らないと出来る事もできない物だと誤認してしまいます。

 

 写真の場合、撮影後に少し調整を入れますが、調整を入れると、月も

 

 

 

 

のようになりますし、夕暮れ時の空も

 

 

のような感じになります。これは殆ど調整をしていませんが、調整については、

 

■ カメラで撮れる物

 

でも触れていますが、

 

 

のように状態を作る事が出来るのですが、このカメラにはNDフィルターやハーフNDフィルターを使うことはできませんから、画像処理を使用していますが、アンダーな場所に光を当ててオーバーになる場所に光を当てないようにする手法やこの事例のように疑似的に光の状態を処理でコントロールする方法もあります。

 

 小型センサーのカメラだと、長時間露光が出来ませんが、乗り物のライトなどをラインのように撮る機能は存在していますからそれを用いると、長時間露光ができます。

 

 パナソニックのカメラだと 【 アーティスティックに撮る 】 と言う物になりますが、RAWで撮影して調整すると、

 

 

のように星が浮かび上がります。満月の日だとこれくらいまで明るくすることができますが、A4サイズ位で見ると結構酷いので、やはり大型センサーでフツーに撮った物と比較すると画質的に厳しくなります。

 

 基本的に、カメラだけで撮れる物の自由度の高さも相当あるのですが、オートで撮っているとカメラの機能の大半を捨てている状態なので機材性能を撮影者がスポイルして使用している状態になります。

 

 また、現像を行う場合にはさらに調整幅が広くなるのですが、これもどう言った撮影をするのかで結果が違ってきます。

 

 カメラも現像の環境もそうですが、

 

【 自動処理に頼るといい事は殆どない 】

 

ですし、多機能なツールの大半の機能を使っていない場合、殆ど何も知らないのと同じですから、未経験者と同じレベルになってしまいます。また、カメラの自動レベル補正が全く使えない処理の一つにマジックアワーがありますが、これについても

 

 

を自動ホワイトバランスで調整した場合、

 

 

のように赤色の成分が抜けてしまいます。その為、青みが刈るので明るくしても

 

 

になることはありません。その為、自動補正を行ったとしても

 

 

のような状態にはなりません。カメラの場合自動で撮ると、全体の明るさを基準に明るく撮れるようにAEを設定するので、被写体だけを強調したようなAEの使い方が出来ません。その為、カメラ任せで撮ると多くの場合、似たような結果になってしまいます。その為、構図を変えることになりますが、その状態だと、メーカー出荷時の色味と自動のテイストと全体的に明るく撮れる絵作りでしか写真や動画記録されません。

 

 その為、 

 

【 何も覚えず操作するだけだと大抵の場合、機材の金額の

 9割くらいは捨てている状態 】               

 

になります。これは、カメラもそうですし、PCを使った現像を行う場合ににおいても同様です。

 

  カメラを選ぶ場合、予算を掛けれる場合だと、汎用性の高いフルサイズの製品を選ぶと、天体望遠鏡を使った場合もTマウントを使って天体望遠鏡をレンズとして使う事もできますし、顕微鏡についても同様の使い方ができます。その為、大は小を兼ねるので、そう言った選択になりますが、予算の上限がある場合、何が出来る物を得るのが正しいのか?を事前に考える必要があります。そう考えた時に、どう言った条件の物が必要なのか?を考えることになります。例えば、スマホをつかっっている場合に 【 今と同じ画角で綺麗に撮りたい 】 だとそう言ったレンズ構成の大型センサーの製品とその焦点距離のレンズ構成になりますし、月を大きく撮りたい場合だと小型センサーの製品と超望遠レンズにするか、もしくは、画質面がそう言った構成よりは少し落ちますが、小型センサーの超望遠デジカメになります。星を撮りたい場合、追尾をするかもしくは、高感度で撮る事になりますが、前述の物だと天体望遠鏡と同じで赤道儀で追尾する事になりますし、後述の条件だと、大型センサーのように増感耐性がある物を用いて露光時間を稼ぐことになります。その為、 【 手持ちの物で撮れない場合、何が必要なのかを考えると必要な条件が抽出できる 】 ので、その条件に合った機材構成にすると、必要な性能を持った適正繋機材を導き出す事が出来ます。

 

 写真や動画ですが、 

 

【 出力する表示機材のインチ数で機材の選択が変わってくる 】

 

ので、大型スクリーンだったり、20インチ台で近づいてみるような条件だと、機材性能を高くしないと質感が出ません。その為、どう言った出力を行う物なのか?を基準に機材を選ぶ事になります。

 

 あと、カメラだけで多重露光もできるので、写真の場合だと、花火Ⅾそう言った手法を用いて撮影しますが、同じ方法を用いると、

 

 

のような写真を撮る事が出来ます。左から二番目のふぃちゅあには足がありませんが、これは多重露光時にマスクをかけているので、その部分には光が入っていないので足が消えています。これもカメラだけで撮影できる写真になります。これは、セット内の状態を変えていたり、光を動かしていますから、 

 

【 機材だけよくしても絶対に撮れない物 】

 

になります。つまり、 

 

【 機材で散在すると何でも取れるというのは単なる間違い 】

 

という事になりますし、この写真は、 

 

【 カメラとライトだけで撮っている 】

 

ので、長時間露光とマスク処理を使った撮影ですから、花火を複数撮る手法を応用した物になります。その為、シャッターを切っただけで何でも撮れるし、何も知らなくても技術がなくてもカメラが良ければ撮れるわけではありません。

 

 と言うのも、 【 作る 】 事を想定した場合、ワンカットや手持ちやカメラ任せという事は 【 選択肢をその段階で失っている状態 】 になりますから撮れる物が少なくなります。そう考えると、単なるシャッターボタンを押す作業員になってしまいますから、楽しみも何もありません。と言うのも、 【 何も考えずにできることが楽しいわけがない 】 ので、その部分が欠落してくると、その分野の楽しさが全くわからなくなります。物事を学んだ後には、 【 考える楽しさ 】 が理解できないと先細りします。その為には、 【 知識 】 という材料が必要になりますから、何も知らずにカメラ任せで出来るという条件だと、相当条件が絞られてしまうわけです。

 

 写真やイメージングを行う場合、目を養う必要がありますが、この場合、いい物を多く見る必要があります。また、それと同時に、自分で撮影した物をしっかりとした環境で見なければまともな状態かどうかを判断できません。そうなると、小さなサイズでしか物を見ない状態は避けたほうがいいです。と言うのも、画素密度が同じでも、インチ数が違うと見え方が全く異なるためです。その為、予算がある場合だと、最低でも4Kで30インチ以上のモニターでドットバイドットで見ても粗さを感じないような品質の物を選んだほうがいいような気がします。

 

 この条件にすると、そこから外れるカメラも複数あるので、最低限のボーダーとしてこの辺りの品質で選ぶと個人レベルだと問題がないかな?と思います。あと、コストが同じだと、画質と焦点距離の自由度をトレードオフすることになりますから、超望遠域を求める場合だと、コリメート撮影かTマウントを使うか超望遠デジカメになりますから、望遠鏡とセットで購入するか単体のカメラにするのかの選択になります。画質を求めるとカメラと望遠鏡の双方が高額になるので、凄いことになりますし、 【 観測用のドームの大建造 】 と言う、撮影機材の購入を行うのではなく、自宅の改装工事の話になってきますから、話がかなり変わってきます。その為、目的に合った物を選ぶ場合には、妥協点を打つ必要があります。ただし、レンズ交換式の製品の場合だとコリメート撮影とTマントの選択肢が残るので、拡張によって対応できるという条件が付きます。基本的に同じ予算だと、そう言った条件になりますから、目的を明確にしておくと機材選択で迷うことはなくなります。

 

 ちなみに、Panasonic Lumix DMC-TZ85は、

 

 

のような感じのコンパクトカメラで1/2.5型のセンサーの製品になります。また、ワイド端の開放F値も暗いので、レンズが明るいコンパクト製品とは異なる仕様のものになります。