先日は、

 

 

にて、フィルムとVTRについて書きました。

現在のデジタルの作業はVTRの仕様をデジタルで行っているだけなので、基本となる部分はVTRの信号の変調をデバイスではなく、ソフトウェアで状態変化を作って作業をするような流れになっています。

 

 

  フィルム


 8mmフィルムの場合、24Fで撮影すると3分弱しか撮影できないので、長い尺の映像を作ろうと思うと複数本のカートリッジが必要になるわけですが、基本的に仕組みが映画と同じなので、映写機でスクリーンに対して上映することで映像を流す仕組みになっています。これをVTR準拠で行っているのがプロジェクターになりますが、映写機にフィルムを装填してマスターから巻上げる側に向かって手順通りに内部を通してフィルムをかけることで装填できるので、その状態にしてから上映する流れになります。

 8mmフィルムの考え方は、自宅に映画館を持ってくるような感じの物であり、その上映する対象物を撮影するソリューションとして

■ カメラ
■ レンズ
■ スプライサー

が存在しています。考え方としては

■ 制作会社
■ 映画館

を自宅に設けるような物ですから、高コストになるのは言うまでもありません。

 また、現在とは異なり映像を撮ること自体が珍しく、カメラ自他も高額商品ですから、映像に至っては富裕層の娯楽だったのもあり、現在のように下手でもカメラがあるので誰でも撮れてしまうような時代ではないので特殊な物だったわけです。

 8mmでもそんな感じですからVTRが普及する前まではテレビ局で使用されていた16mmフィルムとかだと相当高額なので個人で持っっている人は殆ど居なかったはずですし、映画で使用されている35mmとかスーパー35とかもそうですが、現在でも高額なので使用するのが大変なIMAXとかだと映画でも仕様例が少ないので、個人でそれを持っている人は存在しないと思います。

 このように映像制作については、フィルムの時代には物凄く式が高かったわけですが、この時代に幼少期をカメラとともに過ごした人が、現在では映画で有名な作品を残していたり、名前を聞くと誰でも知っている人だったいするわけですが、写真を撮るだけでも結構なコストのかかる時代に現像代やメディア代だけでも高額になる映像制作となると、富裕層の娯楽だったと考えることができるわけです。

 映画については、サイズの大きなもので撮影されているので古い映画でもフィルムを取り込んでRAW現像をするように調整すると恐ろしくディテールが残っている場合がありますが、ディズニーの 【 美女と野獣 】 のように相当昔の映画でもBlu-Rayにした際にはフルHDに耐える品質でリリースされています。これは70mmという巨大なサイズのフィルムで撮影されていたためですが、基本的に映画で使用されているフィルムはSuper 8や16mmではなく、もっと大きなサイズのものなのでディテールが多く残っているわけですが、これは受講面積の広さがあった為で、フィルムという媒体だからそうなったという話ではありません。(この辺りが変質した状態でメディアの性能が高ければ受講面積は関係ないような物理法則を無視したような間違いが語られていることがありますが、単なる間違いですから、受光面積が狭いとフィルムの場合光を取り込む能力が低いのでそれほどディテールが残るわけではありません。)

 映画については、MFで撮るので基本となる

■ 絞  り : アイリス
■ 焦点距離 : ズーム
■ ピント  : フォーカス

はレンズ側で決めるのですが、これは砲塔用のショルダーマウントの大きなカメラも同じ作りですから、機材を同じにすれば技術がなくても撮れるという訳ではありません。実際に、こういうのはYouTubeで紹介されている動画もあるので確認できる内容ですが、プロの機材を使ったら素人でも同じように出来るようなことはありませんし、そもそもプロの機材は、 【 調整幅の自由度を撮影者が決めることが出来る 】 ことを前提として作られているので、エンドユーザー向けの製品とは異なります。

 つまり、気軽に撮れる機材と制作用途で作り手のニーズに答える製品では、 【 求められているものが全く違う 】 のでエンドユーザーの機材しか使ったことがない人がプロ用の機材を使うとまともに使えないと思います。なので、カメラでまともに撮る人の場合、 【 まさかの時にはMFでおいかければいい 】 と言う選択肢があるので、機材依存で撮影するような構造だとその機能では追いかけれないような物がでた時に困るので、そうならないように撮影者の技量でカバーするような撮影を行えるようにしています。  

 なので、 【 本職であれば、”あって然るべき能力” を当然のように持ち合わせていること 】 が前提となったカメラやレンズがプロ用の機材になります。(なので、そういう機材を用意したら、その技量を身につけることからスタートすることになります。) 

 シネマカメラをコンシューマのビデオカメラ気分で使うと技量が足りなすぎて撮影できない場合もありますから、品質は間違いなくシネマカムのほうが高いのですが、撮影に必要な技量ありきの話(なので、シネマレンズを使う場合にはMFが基本でマニュアル操作で何でも出来るようにしておく必要がります。)になってくるので、それがない場合だと撮れないものが物凄く多くなってしまうと思います。

 基本的に8mmやSuper 8の考え方は、単焦点レンズを実装したシネマカムと同じなのでオートフォーカス依存でしか撮影できない状態だとピントが合いませんし、カメラや撮影の知識がないとまともに撮影が出来ません。

 また、フィルムの場合、編集作業は工作のように 【 物理的に切り貼りする作業 】 ですから、現像に出した後の結果を変更する事は出来ませんから、撮影時にショットの状態を確定させておく必要があります。その為、テレシネや逆テレシネのような作業をしてVTRにして編集するような作業をしない限り特殊な後処理は出来ませんから、カメラだけで撮影する場合には、一つ一つのショットをしっかりと撮り切る必要があります。また、8mm用のオプティカルプリンターは存在しませんから、多重露光による合成(基本的にマスクと露光で合成する感じになります。)も多重露光の機能が使えるカメラのみで可能なものになっています。

 そのため、フィルムでの特撮については露光の計算をしっかりと行って、フィルムに造を焼き付けるような多重露光を使えばそうしたことも出来ますが、こうした技法の原点はフランスにあり、ジョルジュ・メリエスが実際に作品としてそうした技法を残しています。

 この時代にカット割りの概念や現在だとクロマキーやロトスコープを使って撮影するような同一人物が複数登場するようなシーンについても(現在はコンポジットツールでノーマルマップを追加して凹凸を出すと平面っぽく見えない状態に出来るので、こういったシーンを作っても奥行き感のある表現が出来るようになっています。)その時代に多重露光のみで作成されています。

 この時代が何時頃なのか?と言うと、歴史の教科書で登場する 【 トーマス・エジソン 】 の時代ですから、そうとう昔の話になりますが、この時代にオプティカルプリンターのような商業的にフィルムのコンポジションを行うような機材が誕生する前にカメラだけでそういった技法を 【 発明 】 した偉人が存在していたわけです。こうした流れを見ると、なぜ、欧州はシネマに近いフレームレートで、解像度を優先したPALだったのか?というのもなんとなく解る気がします。

 ちなみに、NTSCの考え方は、動画は動くものだから、解像度を犠牲にしても動きの滑らかさを優先すると言うアプローチなので、どちらが正しいというわけではなく、 【 テクノロジーが発展したら両方実装するもの 】 なので、その時代のテクノロジーのレベルではそれが無理だったので、いずれかを選択するような状態になっていたわけです。この内容はハイビジョンでも存在していましたが、アナログ端子のD端子にはD3とD4と言う規格があり

■ D3 : 1920x1080/60i
■ D4 : 1280x720/60p

と言う仕様がありますが、D5の登場まではこの2つの規格しかありませんでした。ちなみに、D2までの規格はSD解像度で

■ D1 : 720x480/60i
■ D2 : 720x480/60p

となっていますから、インタレーススキャン方式とプログレッシブスキャン方式の違いしかなかったのですが、ハイビジョンでは解像度と動きのいずれかを選択するような状態になっていました。PALと同じでD4は720pですが像が確定した状態のプログレッシブスキャン方式ですから動きが滑らかで像も綺麗なんですが解像度が低くなっています。これに対して、D3の規格は解像度が高いのでディテール感は多いのですが、59.94iというHDTVのような規格なので、奇数列と偶数列の走査線の情報を交互に送るインタレーススキャン方式なので、解像度を重視した変わりにフレームレートが犠牲になるような仕様になっています。こうした仕様も20世紀に策定されたものですから、そうなっているわけですが、その後D5の登場で、AVCHD 2.0で使用できる1920x1080/60p(59.94p)が当たり前に使用できるようになりました。

 こうした規格の違いもその時代テクノロジーの上限では対応できていないので、二者択一になっているだけなのですが、実際には両方揃ったほうがいいのは確かですから、現在だとそういった仕様で推移しています。

 フィルムの場合、70mmやIMAXのような凄いサイズのものが存在しているので、映画についてはコストが物凄い事になりますが、フィルムを選択したからといって低品質になるようなことはないのですが、Super8と16mmは現在の映像品質を基準にすると高画質とは言えなくなっています。また、Super 8はコダックがSuper8の100周年にデジタルの機能を使って便利に撮れるSuper8のカメラやサービスを展開していましたが、基本的にコンシューマで流通していた映像用のフィルムカメラは中古しかないのとフィルム自体が減っているので現在だと高ストトな製品になっています。
 

 

  VTR


 VTRについては、現在のDLSR動画やガジェットの動画のしくみがVTR準拠なので、アナログの時代だと信号の変調をデバイスで操作していたものをソフトウェア上で処理するしくみにしたものになっています。

 VTRはフィルムのように受光面に対して化学反応で像を焼き付けるしくみではなく、時期記録で情報を記録するしくみになっていますが、こうした磁気テープの登場で、音声と映像をテープメディアに記録できるようになりました。また、この時代にはRCA端子で映像と音声を伝送出来るようになりましたから、レコードとフィルムと言う互換性のない物を使って音声と映像を組み合わせるような時代とは異なり、ケーブルの接続だけで、記録された映像と音声データをデッキに送ることが出来るようになっていました。

 この時の信号の合成によってテープレコーダーとカメラの音声を合成できるので、この時の音圧レベルを変更することで、映像の音声を潰さない程度の音圧レベルでBGMやSEを編集時にを追加できるようになりました。

 フィルムの場合には、撮影時にショットの色彩などを完結させる必要がありましたが、VTRはダビングでショットを繋いでいく作業を行いますから 【 デッキの出力信号を調整することで質感を変えることが出来る 】 ようになっています。これは、デッキ側のテレビへの映像出力をする際の調整機能を使ったものですが、アナログ放送の時代のブラウン管のテレビにも調整つまみというのがあって、それを使うことで放送やVHSやベータマックスの映像の質感を変更することが出来るようになっていました。

 そのため、出力の信号を調整すれば録画側のレコーダーには出力信号の色彩が反映されるので、撮影時の質感とは異なる状態で記録が出来るわけです。この調整が現在のノンリニア編集のカラコレやグレーディングと同じ作業になりますが、こうした作業の原点はこのダビング時の色調補正の機能になります。

 この時代にも音のミキシングは行われていたのでアナログミキサーが存在していたのですが、これを使用すると音声の合成ができますから、ダビング時に音の追加ができるようになりました。この場合、

■ 映像の音声
■ BGM
■ SE
■ マイクの音声(ナレーション)

を各チャンネルに入力して音圧レベルを調整して最適化すれば、こうした素材を合成した映像を作ることが出来る用意なっていました。

 20世紀はテープメディアしかなく、CDが登場した時代ですから、CD-Rが珍しいような時代ですし、PCの映像もMPEG-1がでてる時代ですから、DVコーディックの編集が個人で行えるようになるのはもっと後の時代の話になります。20世紀だと、S-VHSの時代のはずですから、この規格だと、RCA端子の映像出力の出来るゲームは録画できていたので、初代プレステやセガサターンなども録画が可能になっていました。ということは、ミキサーを使って

■ ゲームの音声
■ BGM
■ SE
■ マイクの音声(ナレーション)

のような状態で音を調整すれば、ゲーム実況動画を作ってVHSで記録することも出来ていたわけです。また、カメラを用意してスイッチャーを追加すると、

■ ゲームの画面
■ カメラ映像
■ ミキサーの音声

を追加できるので、ワイプでプレイヤーの映像の入ったゲーム実況動画を作ってVHSで録画することも可能だったわけです。

 実況の場合だとダビングではなくライブなので、リアルタイムで録画するので編集は発生しませんが、これをマスターのテープにしておいて残しておいて、必要な部分だけを切り抜くようにダビングすると 【 ゲーム実況の切り抜き動画 】 を作ることも出来ていたわけです。こう考えると、20世紀の動画制作についても結構いろいろなことが出来るようになっていたわけですが、こうした映像を作っている人を見たことがないのは、 【 この時代には、映像とゲームの双方を触っている人が居なかっただけ 】 です。あと、もう一つの理由として 【 機材が物々しくなり、生活空間を過剰に圧迫する 】 ので、そういったことをする人が居なかっただけだと思います。

 また、 【 映像=フィルム 】  という既成概念があると、テレビ局の編成でやっていることは知らないはずなので、こうしたごく当たり前のことすら知らないわけです。先程の内容を見てもらうと、 【 ゲーム実況のライブストリミング 】 を行う際にOBSで指定している内容そのものですが、こうした内容も放送準拠のVTRのしくみだから行えるようになっています。

 ゲーム実行動画の録画をする場合、PS5やWINDOWS 10/11などで長時間録画をするような状態と同じなので、音楽を流した状態でスタートして手元でSEの頭出しが出来るような状態にしておけばOBSでの配信と似たようなことが出来ていたわけですが、この状態をワンオペ
で行った場合、ゲームの操作しか出来ませんから映像部分を触ることは出来ません。

 なので、この録画テープをマスターとして、この映像をスイッチャーに通して孫ダビングをするように編集をすると、この映像内にテロップを入れることが出来ます。そうすると映像内に字幕を追加できるのですが、特定の場所で映像全体に色調の変化を入れる場合だとそういった処理を追加することも出来ます。

 その為、孫ダビングまで行うと現在のゲーム実況動画のような作りにすることも出来るようになっていました。この条件だと、

【 デッキ1 】
  ■ ゲームの画面
  ■ ミキサーの音声(マイク以外)

【 デッキ2 】
  ■ カメラ映像
  ■ ミキサーの音声(マイクのみ)

として録画しておくと、2つの素材が出来るので、ミキサーを複数用意して個別の処理を入れてダビングをすると、ワイプとゲーム映像の片方だけにフィルターをかけることも出来ます。こうなると既に機材構成がテレビ局の機材を簡素化したような状態になりますし、既に作業量が物凄いので誰もやらないはずですが、VTRではそういったことが出来るようになっています。

 と言っても、ゲームのライブストリーミングをされている方だと配信時にこれは常に行っているはずですし、別のストリーミングでもこれと同じことは行っているはずですから、OBSを使ったストリミングの処理自体はVTRでの作業と全く同じものになります。

 このように信号の入出力が出来るようになったので、フィルムでは難しいモニター上の映像の利用が出来るようになったのがVTRの利点になりますが、フィルムとは異なり、録画可能な状態であればテープに録画できるので、単一のメディアを用意しておけば、環境の際に関係なく撮影できるというのもVTRのメリットになります。VTRの時代から、音声と映像を組み合わせることができるようになったのですが、映像はその後、DegitalVideo方式のDVコーディックになり、無劣化でPCで取り込んで編集できるようになります。

 そのため、先程の 【 熱量と電気代との戦いに勝利するものだけが許される編集環境 】 のようなよく解らない物を用意しなくても

  ■ IF
  ■ マスモニ
  ■ オーディオインターフェース
  ■ モニターヘッドフォン


を用意するとPCでノンリニア編集が出来るようになりました。また、カメラについては、照度の変化似合わせてライトを使う必要はありますが、露出をカメラ側で指定できるようになったので、単一のメディアでISO感度の差に対応できるようになっており、色温度の変化もカメラ側で対応できるようになりました。また、ファイルとしてPCに素材を読み込んでおけば頭出しもなくソフト上で作業が出来るので、変種をする際に常にライブストリーミングのような応対になるようなこともなくなりました。
 

 

  デジタルでの記録


 デジタルになった後はIEEE 1394ポート経由で無劣化でDVコーディックを取り込めるようになったのですが、音声もオーディオインターフェース経由で取り込める(量子化→符号化でエンコードをかけてファイルにする処理が行われます。)のでフルデジタルでの作業が行えるようになります。MACでは、iLifeがバンドルされていたので、買ったその日から動画編集と音楽作成ができるようになっていたのですが、WINDOWSでは、動画編集ソフトは標準実装だったのでそのままDVコーディックを読み込んで作業が出来るようになっていました。その際にIEEE 1394ポートをPCに追加する必要があったのですが、MACはFirewireは標準だったのでカメラを買ってきたらそのまま作業が出来る仕様になっていました。WINDOWS製品もノート製品にはポートが実装されていたのでそのまま作業が出来る状態のものもありましたが、自作の場合だとキャプチャー製品や専用のボードを追加する流れになっていました。

 デジタルの記録をすると、テープだけでなくファイルとしてストレージに記録できるので、無劣化の状態のファイルをHDDに残すことが出来るようになりました。その時代だと大容量に感じるファイル(DVコーディックは1/6圧縮が行われています。)だったはずですが、25Mbpsなので、現在ではAVCHD 2.0やゲーム実況動画を作る際のキャプチャーのビットレートよりも低いので、長時間録画をしてもストレージを圧迫するような容量にはならなくなっています。現在のように12TBのHDDが出回っている時代だと、DVコーディックの状態で保存しても大量に保存できるようになっていますが、無劣化のデータを残せる利点は大きいです。また、BD-Rの登場以降はデータディスクとして使用すると、動画ファイルを当たり前の残せるので、光学メディアに保存することを想定しても結構な時間のデータを保存できるようになっています。

 このDVコーディックのあとに、MPEG圧縮のDVD記録製品が登場しますが、8MbpsのMPEG-2_PS記録で長時間記録が出来ない仕様ですから、かなり厳しい商になっていました。DVDプレイヤーで録画した短い尺の動画を再生できるという仕様の物なので、制作用途には間違いなく向かないものになっていましたが、このMPEG-2_PS記録の問題をHDDで解決している製品がありました。ビクターの製品は記録媒体をHDDにすることにより、カメラをUSBで接続した際にUSB マスストレージクラスで認識させることでUSB HDD内のデータを読み込んで使用できるような状態になっていました。この場合、ストレージ容量分だけのデータを記録できるので長時間録画やメディアの枚数に翻弄されることなく撮影できるようになっていました。あくまでも、これはSD解像度のでの話になりますが、この時代にはHDVの時代にシフトしていたので、ハイビジョンへとSD解像度の共存する過渡期に登場した不思議が製品が色々と存在していました。
 

 

  データでの記録


 21世紀になってしばらく経過すると、デジカメでも動画の撮影が出来るようになり、三洋のXactyのような製品も登場したわけですが、それ以降はデジカメは写真と動画の双方が撮影できるようになりました。ビデオカメラもDVカムの時点で、写真と動画の撮影が出来るようになっていたのですが720p相当の写真の撮れるDVカムも存在したので、720pのストップモーションアニメを撮ることも可能でしたが、デジカメの動画はしばらくはSD解像度でした。携帯電話でも動画が撮れる時代になると少し話が変わってきますが、Xacty HDと言う製品では720pの撮影が出来るようになりその後、デジカメでもハイビジョン撮影が可能になります。

 ビデオカメラは、HC-1の登場でコンシューマでも1440x1080/60i(59.94i)の撮影が可能になりますが、その後、ビクターからHDDに1920x1080/60i記録が可能な製品が登場します。これがHDTVの記録方式そのままでしたが、ハイビジョンの記録が出来る製品になっていました。

 その後、ワットパフォーマンスよりも光学ドライブとの連携性を重視したAVCHDカムが登場し、DVDドライブでも読めるハイビジョンカメラが登場しましたが、この規格もストレージデバイスやフラッシュメモリーに置き換わって現在の形に落ち着いています。

 ハイビジョンの光学メディアの規格では、HD-DVDとBlu-Rayが存在していたのですが、Blu-Rayが市場で使用されるようになったので、HD-DVDはなくなりました。AVCHDのコンセプトは容量を圧縮してハイビジョンを記録すると言う至極当然な考え方でしたから必然的にカメラの記録方式に使用されることになりました。その後、AVCHD Liteという720p記録のデジカメ用の規格が登場したり、1080/60p対応のD5の映像が使えるAVCGD 2.0などが登場しますが、後にこの規格はビデオカメラだけでなくデジカメでも使用できるようになります。

 その時代になると、SD解像度は緊急用になっていたので低画質ソースになっていたのですが、高速に記録できるようになると、低解像度のソースはフレームレートを稼げるのでハイスピード撮影用のソースとして使用されるようになります。そのため、デジカメから実装された機能になりますが、 【 ハイスピード撮影 】 が可能な製品が登場し、低解像度ながら1000fps記録が可能な製品も登場します。
 
 ビデオカメラは長時間録画か可能で 【 最長録画時間 = バッテリーが切れるまで 】 と言う仕様になっていたのですが、ナイトモードやナイトショットなどフレームレート以下のスローシャッターや赤外線による暗視撮影なども行えるようになっているので、そうした点で差別化が行われていました。現在は、デジカメの便利な機能がビデオカメラにも実装されていますが、1型以上の大型センサーを実装した上位製品なども存在しています。
 

 

  動画編集


 DVコーディックの登場で無劣化での取り込みが出来るようになったわけですが、この素材をそのまま使用して繋ぐだけだとスマートレンダリングのような処理が出来ますが、この素材を使って特撮のようにコンポジションを行う場合、

  ■ コンポジション
  ■ 最終書き出し

のように二度の処理が発生します。その都度劣化することになりますから、書き出し前のショットやシーンについては劣化していない状態にしておく必要があります。

 昔のPCはとにかく遅いので、映像制作時に最初から最後までを全て一つのプロジェクトに素材を載せて作業をすると無理が来るので、シーンで分けて作業をする必要がありました。また、MPEG-1がメインの汎用コーディックだった時代だと、キャプチャーで取り込んだ映像は結構ひどいのでここから更に酷くなると取り返しがつかなくなるので、シーンの書き出しの段階で中間ファイルにしてそこから書き出す必要がありました。この時に使用するのがロスレス形式になりますが、20世紀だと映画のLOGでもない限り10bitの色深度は使わないので、コンシューマの8bitの色深度を使うことになります。WINDOWSとMACでは当初はそれぞれに独自のコンテナがあり、

  ■ WINDOWS : WMV
  ■ MAC   : MOV

を使用してその中に任意のコーディ句を指定して使用できるようになっていたのですが、それぞれにロスレス形式が存在したので、一旦ロスレス形式にしてから使うと言う方法がありました。これが中間ファイルになりますが、無償で使用できるロスレスコーディックも存在しているので、そうしたコーディックをインストールしてから中間ファイルを作ってから編集を行って最終的にシーンを繋いで書き出すと言う方法を用いることになります。

 WINDOWSだとWINDOWS MOVIE MAKERがDVコーディックがそのまま読めるので、ロスレスで書き出してから編集して、WINDOWS MEDIA ENCODERで書き出すと言う流れになっていましたが、AviDemuxなども存在していたので、字幕や音の追加だけでなく、映像の質感の変化のような 【 カラコレやグレーディング 】 のような処理も行えるようになっていました。

 質感のコントロール用のフィルターも充実しているのでシーン構築+音の組み合わせだとこれだけでも大丈夫な感じになっていました。また、同じ素材を繋ぐだけの処理にも対応しているので、シーンをロスレスなどで書き出したあとにファイルを繋ぐこともできるようになっていました。また、フィルターとして 【 デ・インタレース 】 や 【 シャープネス 】 なども存在するので、かなりいろいろな処理が出来るようになっていました。

 こうした処理を行うと、字幕の追加や映像の調整やカット編集なども行えるのですがスイッチャーで行える機能は存在しません。こうした機能は本来はノンリニア編集ソフトではなく、コンポジットツールで行うので、AfterEffectなどのツールを使って処理をすることになりますから、個人だとかなり敷居の高い作業になっていました。
 

 

  コンポジション


 コンポジションは任意のコンポジットツールを使うことになりますが、このツールで行っていることは3DCGの処理なので、動画の書き出しが出来る3DCGツールであれば、ごく当たり前に同じことが出来ます。

 20世紀にはいろいろなツールがでていましたが、21世紀になると、マイクロソフトがTrueSpace 3Dの無償提供をしていたので、このツールを使ってコンポジションを行うことも出来ました。純国産の3DCGツールのShadeの廉価バージョンも21世紀になると動画の書き出しが出来るようになっていたので、ムービーテクスチャを使うとビューポート内に動画を配置できるようになっていたのですが、その後、Blenderが無用提供され始めるので、コンポジションの選択肢もかなり広がります。

 DVコーディックの登場当初にそれが出来たのか?を考えてみると、コンシューマの最上位のプロセッサはMACのPowerPCだったり、ワークステーション用のPentium Proをコンシューマ用にしてネオジオのカセットのミニチュア版のような物を刺して使用するSLOT 1対応のPentium IIですからDVコーディックの動画自体が動いたのだろうか?というのが疑問を感じますが、256MBが上限だったり、MACも上限が1GBの時代ですから、どうだったのだろうか?と言う印象は受けますが、動画素材同士の合成の場合、使用しているのは板ポリゴンであり、シーン内のライトの計算をしなくてもいいので結構軽い処理にできるのですが、現在のBlenderだとWorkbenchで処理が行えるものになります。これに類似するのがスキャンライン法になりますが、20世紀の3DCGツールではパストレーサーが実装されている安価ノアツールは存在しないはずなので、スキャンライン法でテクスチャを読み込んで使うか、もしくは、レイトレーサーで動画の解像度にして書き出すと言う選択になると思います。ただし、20世紀だとスキャンライン法を使ってもレンダリングには結構時間がかかるはずなので、現在ではリアルタイムで終わりそうなものですら結構な時間がかかる状態になっています。

 なぜなら、1997年のPentium IIの最上位製品のクロックは266MHzですから、マイコンのような速度で動いているのでかなり厳しい状態だったわけです。また、20世紀末にやっと1GHzの壁が壊れてAMDが1GHzのプロセッサを出したような状態ですから、技術的には可能でしたが、PinPとかを行う場合だと、スイッチャーを使うほうが現実的だったわけです。その後、チューナーボードの登場によってRCA入力やS端子入力が可能になりますが、グラフィックボードが登場するとRCA出力対応のものも登場しました。

 この仕様になると、SD解像度の場合、【 PCゲームをスイッチャーで取り込んでゲーム実況動画を作れる 】 わけですが、3DCGをクロマキーで抜ける状態で書き出しておいて、それをフル画面表示で再生すればスッチャーで取り込んで実写映像と合成できるので、3DCGと実写の合成ができるようになります。

 当然、キャプチャーボードが存在する場合、RCA端子やS端子経由でその映像を取り込めるので、SD解像度の映像を取り込んでそのシーンを動画内で使用することも出来るので、キャプチャーボードの登場とグラフィックボードのアナログ出力が可能になった段階で、PC画面の映像をS-VHSにも書き出せるようになったわけですが、DVD-Rドライブの登場前でもDVDレコーダーに映像を送ってDVDにすることが可能になっていました。

 コンポジションは処理能力が足りないので、ワークステーション以外だとスイッチャーと連携したほうがいい状態が続いていましたが、PCの処理能力が向上していくと、3DCGツールだけでも作業が出来るようになります。

 これと同時に、平面的なコンポジションはノンリニア編集ソフトでも可能になり、Premiereの廉価版の初代Premiere Elementsでは、ビデオとオーディオのエフェクトが大量に用意されており、キーフレームでの処理にも対応していたので合成が可能になっていました。また、最大解像度が4096x4096なのでこの時代のソフトながら4K書き出しも行えるようになっていました。

 3DCGツールの場合、ビューポート上でシーンを組んだものをカメラで見ている状態が3Dのコンポジションと同じなので、この状態をキーフレームで制御することで、三次元的な合成を行うことが出来ます。この場合、リグでキャラクターオブジェクトの制御をするのと同じなので、パーティクルや映像なども制御できますが、テクスチャの状態にマスクで透過をかけることが出来るのでクロマキーやロトスコープで透過した素材を使ったり、ロトスコープでつくたtマスクを合成することで透過素材としてビューポート上に映像を配置することが出来ます。これを行うと、素材の周囲をオブジェクトが移動できるようになるので、立体的な処理を空間内に配置することが出来るようになります。そのため、マッチムーブで背景をグリーンバックで撮影してトラッキングで撮った映像を使用してマッチムーブを行うと床面と垂直方向のでた状態でビューポート上のカメラオブジェクトと撮影で使用して売るカメラのレンズの情報とカメラワークが反映されるので、セットを配置して干渉しないようにしておくと3DCGのセット内をアクターが歩く状態を作ることが出来ます。この状態を作った後に色調のコントロールをすることになりますが、このシーンの中にパーティクルを降らせると前後関係がある状態でパーティクルを散らすことが出来ますし、流体を使って煙の位置を指定した場合にも前後関係がはっきりした状態で配置をすることが出来ます。

 こうした処理は平面で行うことも出来ますが、アクターの周りを3DCGのオブジェクトが移動するような条件だとビューポート上で処理をしたほうがいいので、ノードのように平面で処理をするのではなく、ビューポート上のオブジェクトの座標の変化として扱うことになります。