先日は、

 

■ Blenderでの作業と基本的な機能(1) 【 Blender 3.2 】

 

にてBlenderの使い方につ居て書きました。作業をする場合だと、素材制作とアセットを登録するプロジェクトファイルを作る事になるので、素材制作段階だと

のような感じのツリー構成を作って素材を管理して小汀、アセットを使う場合には素材単位でアセットを格納したプロジェクトを用意しておくと作業がしやすくなります。

 

 先日は、形状のレイアウトとレンダリングについて書いたので、今回は、モーションや動画について書こうかなと思います。

 

 

B lenderでの制御           

 

 Blenderに限らず、製作を行うツールは何かしらの言語でスクリプトやプラグインを作れるようになっていますが、Blenderもそう言った機能があり、Pythonで機能を追加したり、手だ業で行うのは大変な物で法則性で制御できる物については、アドオンの開発を行ってUIで数値の指定をして処理を実行できるようになっています。その為、Blenderでは、スクリプトでのコード記述と管理が出来るようになっています。

 

 

 

 このコードで行うのをもう少し敷居を下げた物がノードになりますが、2.79の時代からノードを使う事で、

 

   レンダリングの状態

   質感

  

のコントロールが行えていましたが、2.9からジオメトリノードが追加されたのでオブジェクトの状態もノードでコントロールできるようになりました。

 

 

 基本的に、Blenderではbpyを使うと殆どの事が制御できるようになっているので、基本となるPythonの仕組みを理解して、外部のモジュールの読み込みをして標準ライブラリに存在しない関数を使う気分で仕様に合った関数を使って記述をするとBlenderの制御が出来るようになっているのですが、コードでの制御はOSLも含まれるので、質感の適応もコードの記述で行えるようになっています。

 

 その為、手作業で行う部分も存在しますが、ノードやコードでの制御方法を知ると、ノードやコードの方が作業がしやすい条件もあるので、目的い応じて使い分けて作業をする事が出来るようになっています。また、コードはファイルなので外部参照が出来るので別のプロジェクトでも呼び出せるのですが、ノードもアセットブラウザで登録できるようになりましたから、設定を行った物を外部に記憶しておいて参照して使う事が出来るようになっています。

 

 この管理方法を用いると、同じ設定のファイルを複数作らなくてもいいので、必要となるファイルを用意しておいてそれを読み込んで使用できるので、素材やノードなどを記録したプロジェクトファイルさえ用意してお置けば、そのファイルを参照して作業が出来るので似たようなプロジェクトファイルを無駄に量産してストレージ容量を圧迫するのを回避できるようになっています。ただし、アセットブラウザを使う場合、基本的にはリンクヤアペンドと同じ処理なので、参照元のファイルの複製を行っておいて、片方のファイルが壊れても別のファイルからアセットをy日出せるようにしておくと、参照できなくなる問題を回避できます。

 

 

B lenderでの動画制作         

 

 Blenderは、3DCGのオブジェクトや静止画だけでなく、動画の書き出しが出来る仕様になっていますが、その素材を使って動画自体を作る事が出来る仕様になっています。

 

 動画関連の機能としては、

 

   VideoEditingによるノンリニア編集

   コンポジットノードによる合成

   コンポジットによるロトスコープ

   コンポジットによるマッチムーブ

 

があります。

 

 

■ ノンリニア編集            

 

 ノンリニア編集は、素材をトラックに配置して映像の流れを作る時に使用する作業ですが、現在の動画編集は、ファイルを読み込んで素材を配置してカット編集を行うこの方式を用いています。その為、映像制作を行う場合、個人レベルでの作業であっても、ノンリニア編集を行う事になります。

 

 現在のノンリニア編集ソフトでは、複数のトラックに対応しており、ソフト内でミキシングや素材の合成が可能になっています。大半のツールで透過素材の合成やクロマキーなども行えるようになっていますが、Blenderの場合、実写映像のような不透過素材をマスクを作ってフレーム単位で調整しながら切り出す事により素材部分だけを抜き出す事が出来ます。この処理をロトスコープと言いますが、クロマキーによる合成とは別に動的なマスクを作成してマスキング下部分を除去して必要な部分だけを使う事が出来るようになっています。

 

 

■ ロトスコープ             

 

 ロトスコープは、CyberlinkのColor Directorでも対応しているのですが、DavinciResolveでも使用可能になっているので、現在では、個人レベルでも使用できるようになっていますが、

 

   3DCGの制作と実写の合成

   手描きアニメーションの制作と実写合成

 

のような素材制作が必要な条件になると、複数のソフトを使う事になります。Blenderの場合、これが1本のソフトで完結するので、コストの制約がかかる個人の場合だと、Blender単体で制作すると工夫が必要になる条件もありますが、ソフトの数を抑えて作業をする事が出来ます。

 

 ロトスコープは動的マスクなので、これを単一の静止画に適応すれば、静的マスクにできるので、クロップでは対応できないような 【 形状の切り抜き 】 ができます。これは、形状の変化がないので、PinPを行う際の枠の形の変化を付けたいときに使用できます。

 

 その為、マスク処理には画像制作時に使用するような静的なマスクと、実写映像から特定の被写体の実を切り出すときに使用する動的マスクの2種類が存在しているのですが、Blenderでは、この双方に対応しており、作成したマスクをVideoEditingで読み込んで使用する事ができます。

 

 

■ マッチムーブ             

 

 マッチムーブですが、これは、実写の動画と3DCGのシーンの始点や焦点距離の整合性を持たせて同じ空間内で存在するように状態を一致させるための処理になります。

 

 映像を撮影する際にはカメラを使いますが、この時には光軸を基準とした視点が存在しており、その視点の範囲を用意されたアスペクト比で指定した矩形の範囲で切り取って映像として納めています。これが写真と映像における 【 カメラが見てきた世界 】 になりますが、実写の映像の場合、この始点を基準に映像が進行していきます。ノンリニア編集だとこの素材がどう言った流れで繋がり進んでいくのかを考えることになりますが、3DCGのオブジェクトがその世界に存在しているように動かす場合、物体との平面に記録された世界との整合性を取る必要が出てきます。

 

 3DCGも実写と同様にカメラで見た世界が記憶されているので、その流れの中で存在しているのが3DCGAになりますが、このCGのビューポート上に存在するカメラオブジェクトの見ている世界と実写の殺ウェイジに使用したカメラが見ている世界は異なるので、

 

   焦点距離

   カメラの位置

   光軸の向き

   カメラワーク

 

などが全く異なる状態になっています。当然、ラスターグラフィックとして記憶されている動画部分で変更を入れるのは無理ですし、行った場合には画質が落ちてしまいますから、この条件で考えると、3DCGのビューポート内のカメラオブジェクトの状態を実写の映像に合わせることで映像内のカメラの状態と同じ変化を3DCGのビューポートのカメラの挙動として実装する事ができます。

 

 この時に、マーカーを基準に状態を検知する事になりますが、マーカーを基準に床面などが指定できると、平面から空間の情報を取得して、その状態をカメラオブジェクトに適応します。これにより、カメラの動きが実写映像のカメラと同じになるので、焦点距離の整合性を取ると実写の映像で動いている状態と同じようにカメラオブジェクトが移動するようになります。と言う事は、映像のシーン内に存在するカメラワークに合わせて3DCGが空間内の影響を受けるようにレイアウトできるので、遠くにいるオブジェクトがカメラに近づいてきてカメラの横を通り過ぎるような状態を作る事ができます。また、存在しない物を配置できるので、存在しないオブジェクトを追加したり、空間内に変化を与えるなど様々な処理も行えますが、クロマキーやアルファチャンネルとは異なり、立体的なエフェクトの合成が出来るのもマッチムーブの特徴になります。

 

 この作業の際にトラッキングを行っている訳ですが、マッチムーブでは3Dのトラキングを行っています。

 

 このとらっきんごを平面で行うと、映像内の特定のオブジェクトを追尾してその座標を追いかけることが出来るようになります。

 

 その為、映像内で動いている物体を追尾するようにテキストが動くような映像を作る場合、2Dのトラッキングを使いますが、映像内の特定の物を追いかける時にトラッキングを行いあm巣。マッチムーブでは、これを複数のマーカーでトラッキングを行う事になります。

 

 マッチムーブの場合、マーカーを用意して対象をトラッキングする事で合成する対象と空間の整合性を取る事になります。その為、この処理では、

 

   実写の背景に対して3DGCを合成する

   実写映像のアクターをバーチャルセットに合成する

 

と言う二種類があります。先程の条件は前者になりますが、バーチャルセット内で人が動く条件だと後者にアナルの絵、マーカーの付いたグリーンバックの中を動いているアクターの死蔵を用意してそれを元にトラッキングを行います。すると、アクターの動いている状態をトラッキングできるので、このカメラワークと同じものをビュポート上のカメラジェクトに適応できるので、合成の方向をビューポート内の3DCGの映像を背景に来るように配置して、アクターの映像自体を前面に配置すると、バーチャルセットを歩いている状態にすることができます。

 

 この条件は2つのトラックしかない条件ですからアクターの前に何か別の物を配置して映像トラックよりも前に来る物を用意したい場合だと、映像を構成する層を増やす事になります。

 

 

 ンリニア編集            

 

 Blenderでのノンリニア編集はVideoEditingで行う事になりますが、ワークスペースがないので、上部のタブの 【 + 】 から選択して追加する事になります。追加すると、

 

 

のようになりますが、VideoEditingを指定しているシーンとは異なる場所にあるシーンであれば、トラック内に配置する事ができます。

 

 

例えば、

 

 

のようなセットで、

 

 

のようなシーンを配置する場合、一旦レンダリングをした物を配置する方法もありますが、要素ごとにバラして出力してそれをコンポジションの段階で調整しながら合成することもできますが、シーン自体を配置する事もできます。また、テキストも配置できるので、

 

 

のように文字を追加する事もできますが、画像のように背景のザブトンを付けた状態で文字の指定をする事もできます。一つのテキストには一つの指定しか出来ませんが、トラックを分けると、

 

 

のようにタイトルとは別に字幕を付けることもできます。

 

 Blenderでは画面内でセンタリングが出来るので、文字を常に中央に配置したい場合は、テキストのプロパティで指定する事ができます。また、

 

 

のように別のシーンを追加して、これをトラックの効果で合成すると、

 

 

のようにグラフィックツールのレイヤーの効果のようにいろいろな合成の仕方が出来るようになっていますが、これをそのまま配置してサイズの変更をすると、

 

 

のようにPinPでレイアウトする事が出来るようになります。

 

 

■ 動画の構造             

 

 レンダリングの設定をする際に動画での書き出しをする際には、開始と終了のフレームを指定します。

 

 映像は、静止画の集合体なので、圧縮を入れていない状態だと、Cinema DNGなどのようなシーケンシャルファイルの構造になっています。

 

 つまり、全てのフレームが画像で、その画像がフレームレートで指定されている数分だけ秒間書き換わって表示されています。初期の映像は、紙テープに記録するような物だったので、映画用のフィルムの始まりは紙テープでした。その後、写真と同じ乾板の方式になったのでフィルムを現像して撮るスタイルになったのですが、写真はシャッターを切った後に刊行して像が刻まれますが、フィルムの時代だとモータードライブを使って巻き上げながら連写する事で連続写真が撮影できる仕様になっていましたが、動画の場合も連続写真を記録しているのですが、ミラーでフィルムを遮蔽するのではなく、円盤を2つ重ねて、光が入る部分の円弧を用意してその角度を変更して光を取り込む仕様になっていました。写真の場合、ミラーが跳ね上がる仕様ですが、これを行うとシャッター部分が持たないのと安定しないので、円盤の回転運動でシャッターが切れる仕組みになっています。これが回転式シャッターなので 【 ローリングシャッター 】 と言いますが、 この機構を持たせることで、光の入る円弧の角度で露光時間を変更する仕様になっています。

 

 その為、写真ではミラーの上がる時間なので、シャッタースピードと言いますが、エイズの場合、円弧の角度なので、シャッターアングルで露光時間を指定します。この時、一回転で1つのフレームの露光を行っているので、秒間にフレームレート分だけ回っている事になりますから、秒間に24回ほど回転する仕様になっています。

 

 8mmフィルムやスーパー8などの初期の製品は16fpsと言う現在では核ついて見えるようなフレームレートだったのですが、当時は、【 16fps以上だと動きに見える 】 と言う事でこうしたフレームレートが使用されていました。実際には、便名が進むと昔言われていた 【 人間のセンサー性能には色々と間違いがあり、相当低スペックな物として判断されている事が多かった 】 事が解りますが、脳の容量や目の認識についても、科学的な根拠がない出所が解らないような数値が独り歩きしている事があり、まことしやか語られている事があります。多くの場合、時代が変わると出所の解らない物であったり、【 PCソフトの動作環境ののような辛うじて大丈夫な最低限のスペック 】 のような物なので、 【 制作における基準値ではない 】 のは確かです。 

 

 映画の場合m24枚の画像が秒間で入れ替わっていますが、デジタル放送だと60フィード相当(59.94i)なので、基数列と偶数列の走査線を交互に送信しているので、実質的に29.97p相当のコマの情報が流れているようなイメージになります。

 

 プログレッシブスキャンに変換した場合、フィードの情報を1つにするので数値が半分になりますが、現在のBSの4K放送(民放は従来の右旋電波のBS)やNHKの8K放送(これは商用のCSやBSの4K放送などと同じで従来とは異なる左旋電波を使っています。)の仕様は、PlayStation 5やXbox Series Xで再生できる次世代型のBlu-RayのUltra HD Blu-Rayと同じ仕様で60pとなっています。ネイティブSHVの仕様は完成していないので少し違うのですが、完全なネイティブSHVは12bit/4:4:4の120fpsの8Kなので、高解像度で色深度の高い状態の映像がハイスピード映像で使用するようなフレームレートで動くような状態になります。つまり、PlayStation 5やXbox Series XでフルHDでフレームレートを上げてリフレッシュノートの高いゲーミングモニターを使ってプレイした時の動きの滑らかさが映像の再生においても再現されるようになり、その時の解像度が8Kと言う中判のカメラで撮ったような物であり、ネイティブSHVの場合、URSA Proとかで撮ったRAWのような色深度の8Kがハイスピード映像のようなフレームレートの120fpsで動くような仕様になります。これが、少し先の未来に登場する 【 最高品質の平面の映像 】 になりますが、 【 これが、放送として電送される 】 と言うのが直近の未来の映像の変化になります。基本的に、映像の仕様作成と言うのは、未来の事を決めるので、エンドユーザーが直近で見ているものとは異なる物を策定するので、使用が凄くて当たり前ですが、現在のフルHDと言う仕様と、20年前の2002年辺りのフルHDでは意味合いが異なる訳ですが、2002年の段階でデジタル放送として使われたHDVも当時としては高解像度ですが、現在はフルHDの横に帯が入る4:3の映像は低解像度なものですから、新規にカメラを導入して撮るような物ではないので、現在の当たり前の品質を求めると使用するカメラとは異なります。ちなみに、ハイビジョンの研究は東京オリンピックの開催後の1964で、8年後の1972年にITU-R(当時はCCIR)に規格提案がされ、その5年後の1976年にハイビジョンの30インチモニターが開発されています。その為、現在のデジタル放送として流れているハイビジョン放送の研究自体は半世紀前に研究が始まった物で1990年に16:9のアスペクト比が策定され、1999年に1125本の走査線方式が採用されました。電送の研究も1989年にNHK衛星第二放送で行いその後ハイビジョンの放送が当たり前に行われるようになります。ただし、当時のハイビジョンは、アナログハイビジョンなので、NTSCの4:3のもので、ブラウン管ですから、4:2:2の映像をコンポーネント端子(YCbCrを輝度1本と色差の2本に分けて出すような物になっていました。これを混ぜて1本にした物がコンポジット端子になります。S端子はピン数を増やしてありますが、コンポーネント端子ような色成分の再現が出来ないので、色の情報で考えると、コンポーネント端子の方が上になります。現在のHDMIはS端子以上ですし、アナログサンセット以降は、アナログ端子でのハイビジョンの映像の送信が出来なくなったので、アナログ接続をした場合、低品質な出力しか出来なくなっています。)ですから、後の720/60pや1080/60iと比較するとディテールが荒いハイビジョンになります。

 

 このようにハイビジョンの歴史を見ても半世紀前からの研究でその時代の物が数十年後に実装されるような流れになっています。つまり、【 オリンピックをカラーで放送する事が特別な時代 】 に 【 カラーが当たり前でその時代よりも高品質な物を電送する 】 事が研究されている訳ですから、高品質な物が研究されているのが当たり前な世界とも言えます。このように過去の歴史を見てもコンテンツについては、 【 高品質になるようにできている 】 ので、 【 クリエイターは時代が経過するほどに映像の規格による制約を受けずに済む 】 ので、求めている品質をしっかり出せるように環境が変化している訳です。

 

 電送の段階で、【 セグメントの割り当て 】 が発生するので、相当劣化させた状態で送信しているので、デジタルシネマのスクリーンの4Kと比較すると低品質になっている事がありますが、時代と共に高品質になっています。

 

 基本的に、光学メディアに記録する映像の規格は放送に合わせてあるので、Ultra HD Blu-RayもBSやCSで使用されている4K放送と全く使用が同じなので、放送に合わせた形になっています。DVDがデジタル形式のNTSC(PAL圏はPAL方式なので、25pで解像度の高いものが使用されています。)のものになっており、Blu-Rayはハイビジョン放送(これは、4Kが始まる前のBSデジタルの仕様と同じです。)の仕様と同じなので、この辺りまでの英ぞいコンテンツはNTSC圏だとインタレーススキャン方式を使った物になります。現在のUltra HD Blu-Rayは画像をそのまま記録するPALのようなプログレッシブスキャン方式ですから、現在のカメラで撮影しているごく一般的なカメラと同じ仕様で画像がフレーム単位で再生されるものが使用さえています。

 

 その為、60pだと60枚になりますが、放送の関係上59.95pと言うフレームレートになっています。

 

 このように映像自体は時代とともに変わっている訳ですが、映像が 【 画像の変化 】 で成立している部分は変わりませんし、その変化を再現させるために 【 フレームレート 】 は存在しているのも変わりません。

 

 現在は、デジタルで処理をしているので、映像はラスターグラフィックを使っていますから、解像度の概念が存在します。アナログの時代だと走査線の本数などで解像度が語られていましたが、現在は、製作段階で

 

   映像素材 : デジタル

   CG素材   : デジタル

 

なので、カメラで記録する動画もCGの素材もラスターグラフィックなので、解像度の整合性を取る事で調整する事ができます。

 

 その為、 【 縦横に並んだピクセル数 】 でディテールの再現をする状態になっています。ここに色の情報が発生するのですが、

 

   映像 : 輝度から色差情報を引いたもの

   画像 : RGBの情報の差異で表現した物

 

なので、色の作り方が違います。その為、使用している色空間も違うので、え遺贈制作時には高品質な物を使おうと思うと、色空間の範囲が広く、それぞれの素材の色空間を樺した物を使用する事になります。その為、12bitや14bitの色空間以上となると

 

   映像 : リニアACES

   画像 : Pro Photo

 

になりますから、映像で使用する場合には、RGBではないほうの広域の色空間であるリニアACESを使う事になります。

 

 画像を使用する際には色空間とは別にグラデ―ションを再現する際の階調を使用する事がありますが、これは、2値のオンとオフに対して階調を与えて処理をする事になるので、色がある状態に対してどの程度の明度を与えるのか?を指定する事になりますと言う事は小学校4年生の理科のモーターのカリキュラムのようにオンと言う状態と極性と言う状態で制御するように、ビット数を増やす事になります。そうなると、階調を増やすごとに組み合わせることが出来るパターンが増えますから、この時のビット数の増加による階調の変化は二進数の桁数の変化と同じものになります。

 

 この時の階調の変化でグレーの濃淡の階調をの変化をコントロールしている訳ですが、8bitの場合だと2の8乗数になるので、使用できる階調は256になりますから、0~255までの範囲になります。その為、コンピューターで使用しているビット数はオンとオフの信号の発生をさせるスイッチの数で、それを組み合わせて使用した時の状態になりますが、8bitだと8つのスイッチや発光体があって、個別の1bitを示すものがオンかオフの状態になるk十で構成されるパターンが2の累乗なので、十進数変換をする事でその会長として扱う事が出来るようになっています。これを8桁として扱うとデータの数が膨大になるので、十六進数にまとめると、2桁に収めることが出来るので、コンピューターでは十六進数を使います。その為、Fのような1桁だと4bitの16階調で、この桁数が増えることで階調を増やす事が出来ます。8bitにするとFFなので、二乗になるので階調が256階調になります。その上の桁は12bitなのでFFFになり、16の3乗なので4096階調になります。この12bitの色深度がネイティブSHVで使用されるものになっています。映画のカメラや中判デジタル製品では16bitの色深度に対応した物がありますが、これはFFFFとなりますから、4乗なので65,535階調になります。

 

 この会長はRGBを全て同じ数値にした際の深度なので、色の情報は色深度の3乗になります。これが画像の状態になりますが、この時に使用できる色はそうなりますが、色の方向性で変域を設ける必要があるので、色空間を使用する事になります。この時の色空間で出る色が違ってくるので、記録段階での色空間においてどの色なのか?を指定して記録する事になります。

 

 また、色深度を広げると、色空間を広くする必要がありますが、色深度と色空間を広げると使用できる色が多くなるので、写真屋動画を取る際には階調の表現やグラデーションの表現が豊かな状態になります。

 

 編集時も取ら㏍単位の調子えをする事になりますから、この時に記録されている素材の色の階調とソフトウェア上で使用できる階調が多いと調整幅が広くなるので、階調の深いソースをその会長の変化をそのまま利用できるツールを使うと細かな調整が行えるようになります。

 

 映像のは仕様がありますが、画像でシーケンシャルを作る場合には、この状態でいいのですが、映像の場合、クロマサンプリングによって圧縮をかけているので、輝度とクロマから赤と青の成分をそれぞれ引いた物を使用する事で情報が確定しています。その為、輝度をYとし、クロマがCなので、ここから成分である赤と青の成分を引くので、それぞれをrとbとした場合、YCbCrとなります。この仕様になっているので、最大を4として、それを半分や1/4にする事で数値が変わるので、4:2:2や4:4:4のような仕様が存在します。圧縮が入らない場合、4:4:4で、業務用の報道用のカメラで使用されている物だと4:2:2などになりますが、アナログハイビジョンもこのしようになっていました。放送で流れてきているものや光学メディアで販売されている映像ソフトの仕様は、4:2:0なので、クロマサンプリングで1/4までアシュクされた物になります。ちなみに、SD解像度のデジタル記録で可能なDVコーディック(AVIコンテナを使用)の場合だと、クロマサンプリングが異なり、NTSC圏では4:1:1の仕様になっていました。25Pの記録で解像度の高い状態で記録できるPAL圏だと、この仕様が異なり、クロマサンプリングはDVDと同じ4:2:0になっていました。

 

 

 このように動画と画像では仕様が異なるので、最終的に映像で書き出すとその仕様に合った状態で映像が構成されるようになっています。この際に汎用性を持たせる場合、撮影素材や製作した素材の品質よりも低くなるので、必然的に素材の品質が高くなるような機材を揃えておいてその状態で品質が高くなるように作る必要があります。

 

 ラスターグラフィックの場合輪郭処理をして滑らかにしないとジャギー(ピクセルの角が立って曲線や斜線の輪郭がギザギザになる状態)が立ってしまうので、この補正をする必要がありますが、ラスターグラフィックだと輪郭補正としてアンチエイリアシングをかける事になります。この逆に輪郭の補正をしている色の影響Wなくす場合にはコントラストを上げると中間色が消えるのですが、ジャギーの状態を消すときにはアンチエイリアシングを用いることになります。ラスターグラフィックと輪郭補正については、

 

 ■ ラスターグラフィックと処理

 

の中で触れていますが、マインクラフトでも地上絵や看板を作った場合には平面委なるので、この時のドットの状態はラスターグラフィックと同じになります。そこで、用意されている中間色のカラーを使って輪郭補正をすると斜線や曲線を滑らかにすることができます。例えば、斜線だと

 

 

の様な感じになりますが、マイクラのグレースケールの近似値だと

 

 

のような色があるので、赤や青にズレていますが、この階調を使う事でデッサンのようなモノトーンの表演を行う事が出来ます。この時に、黒い輪郭線の補正をグレースケールで補完する事で、エッジを消す事になりますが、

 

 

のように補正をしてと遠目で見ると、

 

 

のようになります。同じドットの状態は維持されていますが、飛騨露側に桑部手右側の方がエッジが出ている感覚は少なくなっており、斜線の印象の方が強くなっていると思います。これが輪郭補正の効果になります。

 

 写真や映像を撮影するとKに居はその時の色のデータを取得しているので、ジャギーが出ている事はありませんが、ラスターグラフィックだとアンチエイリアシングを使う事でこの輪郭補正を行っています。ブラシを使う場合もこの有無の指定ができますが、3DCGのようにレンダリングが必要な物の場合、指定した解像度でラスターグラフィックのスクリーン座標のドットの色でカメラで見えているシーンを再現する事になるので、そのままだとジャギーが出ます。これを補正する際にアンチエイリアシングを加えることになります。

 

 2000年代初頭だとシングルスレッドのPCしかなく、ラジオシティー(これは、光の計算ではなく、熱力学を使った影のモデルを計算してレンダリング時にシェーダーとして適応する仕様の物になります。)が使用されていたり、パストレーシングの選択が出来るようになった時代なので、この時代にはレンダリングの選択肢は増えていますが、ワークステーション以外はシングルスレッドの時代なのでレイトレーシングですら結構時間がかかるので、アンチエイリアシングをせずに4倍の解像度でレンダリングして、25%縮小をかけてジャギーを消す方法もありましたが、3DCGの場合、アンチエイリアシングはジャギーを消す際に必要な機能になります。

 

 アンチエイリアシングはゲームでも実装されていますが、処理の方法が異なる物が複数存在しています。UPBGEではSMAAを使用できますが、レンダリング結果をラスターグラフィックで表示する際にはジャギーが出るので、映像や画像だけでなくゲームでもジャギーを消す機能が使用されています。

 

 

■ 映像の作り             

 

 映像の場合、構成によって状態が異なりますが、3DCGAを作る場合、セキュリティーカメラのような定点撮影になる事はありませんから、映像の流れを考えることになります。

 

 映像を作る場合、【 映像全体の内容 】 を考えてから、構成要素を考えることになりますが、映像がどんなものにするのかが決まった場合、展開を考えることになります。そうなると、その構造で映像自体を分割できるので、少なくとも、この大まかな構成要素の間には、映像の区切りとなる 【 カット 】 が入ります。そして、この大まかな流れの中でも展開があるので、その構成要素はどう言った変化によってセイル津するのか?を決めることになりますが、その場合、異なるシーンの構成で成立しているはずなので、シーン単位でどう言った展開になっているのかを考えることになります。そうなると、シーン間では異なる映像になるので、このシーンにの間でもカットが入る事になります。

 

 では、1つのシーンを考えた特機に映像がセキュリティーカメラのように固定されたFIXまみれの状態になる事はありませんから、映像の変化がシーン内でも発生する事になります。この時のカメラの視点の変化などが変わる条件があった場合、映像をその変化の単位で分けることになります。この最小単位をショットと言いますが、アニメーションを作る際にコンテとかで指定するカット割りで示した物がこれになります。

 

 そう考えると、映像の流れは、ショットの集合体と言う事になり案スから、どう言った変化が発生しているのかを考えて行く事になります。映像を撮る場合もアニメーションを作る場合も同様に 【 映像には始点と終点がある 】 ので、最初のフレームと終了するフレームが存在します。しかし、絵コンテの場合だとそのフレームの状態だけしか存在しませんから、どう始まってどう終わるのか?が見えてきません。

 

 手書きのアニメーションの制作では、この始点と終点の状態を原画で指定してあるので、この間の部分がどう変化するのか?を中割を入れて決めて行く事になります。コンテの場合、カットのフレーム数があるので、そのフレーム数で最適に動くような中割を入れて行く事になりますが、アニメーションの場合だと、手描きでフレームの変化を指定する事になります。

 

 3DCGAの場合だと、これをキーフレームで変化を入れることになりますが、キーフレームも始点と終点の状態を決めて状態を指定するので、原画での動作の指定をしてその間を演算で処理しているような状態になります。ただし、意図しない動きになる事もあるので、中間で補正を入れて中割を入れる必要が出てくる場合もありますが、考え方としては、キーフレームの間がカットで、その部分の原画の状態をキーフレームを使って座標の変化を追加する事によって動きを実装するような流れになっています。