先日、
【 ティラノスクリプト 】
を使う場合に、WebMやoggを使うことになると書きました。ビデオについては返還が必要で、Googleのコーディックについては、先日、
で触れたようにVP10はAV1に統合されています。
現状だと音声については、AudacityやLMMSで音声やSEや曲を作ってoggで出すというような流れになるので、オーディオ部分では現状ではソフトで困る事はなさそうです。
Audacityでは、録音と廃液演習が可能になっていますが、これを用いた場合、パルスとノイズの生成ができるのでじっそつ的に音を作ることができます。
【 Audacity 】
まず、
からトラックを選択し、
から波形を選択します。ちなみに
□ Pluck : 弦
□ Risset Drum : 打楽器
の音を出せます。とりあえず、打楽器の音を選択すると、
のような調整項目が登場するのでプレビューしながら音作りをして波形を生成できます。これは、パルスやノイズも同じです。
波形を配置すると
のようになるのですが、これを加工すると、
のような差が出ます。一番上のが通常の波形で、一番下の物が、ディストーションや他のエフェクトをかけたものです。こうしてみてもらうと、エフェクトによって音が変わると波形もそのまま変化しているのが確認できると思います。
この波形とは別に、Pluckを追加して加工をすると
のような状態になります。この二つを比較すると、波形が全く違うわけですが、これは周波数の違いによるピッチの差でこの波形の密度の差が生まれています。
拡大をしてみると、
のような状態になるので、低い音の周波数と高い音の周波数の差が確認できるわけですが、加工された音は周期が特殊な流れになっています。
自然界の音は正弦波なので、サインカーブを描いて流れているのですが、そうした波形と比較すると、
のように、一定の周期で音が出るオシロスコープの音のような波形と、Pluckを加工した音では波形の流れが全く違うことが確認できます。
SEの場合、モノラル音声の場合が多いので、空間の中の残響音をステレオやサラウンドで鳴らす場合には音を作った後に違う作業が発生しますが、音の発生源自体は一か所なので、音についてはそのまま作る場合はモノラルで作って後処理でステレオ間を足したりし厚生委を合わせるほうがやりやすいかもしれません。
DAWでの楽器の音だと純粋なモノラルソースになりますからそれと同じ作り方をする場合だと、ミキサーで調整するのはフェーダーでの音量調整の身になります。つまり、その音がどう重なっているのか?を指定することで、音の質感をコントロールすることになります。
音楽の場合には、低位があるので、左右のスピーカーのどのあたりから聞こえてくるのかを調整することになりますし、サラウンドだとモニター環境で色を見ながら音の状態がどういった感じなのかを確認しながら調整をすることになります。その為、モノラルで音を重ねるような作りというのはシンセ音源での音の生成かステレオなどの音の広がり入れる前のモノラルソースになりますから、音の作り方で低位の仕方も全く違ってきます。とりあえず、ここから崩壊しても未資金ぐ段階ででたらめになるだけですから、最初から違ってミキシングできなくなるような末期なことをしても仕方がないので、当たり前の音作りが必要になります。
書き出しは、
のようにOGGの選択がありますから、作ったSEや収録したナレーションなどはそのままOGG形式で書き出して使用することが可能です。
■ Appendix
作曲については、LMMSがインストール直後からOGG書き出しが可能になっていますが、MUSESCOREを使った場合だとWAVE出力とMIDI出力が可能なので、SoundFontの音で書き出してその音を使いたい場合だと、ミキシング後にAudacityを使うことになります。
Dominoで作るとMIDIになりますが、MIDIファイルはiTunesでPCMに変換できる(CDDA相当)になるので、音がMIDIの軽い音になってしまいますが、それをAudacityに持って行ってoggに変換することが可能です。