こんにちは。

こんにちは と こんにちわ どっちが正しいのか調べてたら こんにちは の方が日本語的には正しいらしいということを数秒の検索によって判断したけぎらいPです。

どっちでもいいらしいですけど()

 

さて、自分が作業をサボるt・・・いえ、自分でMixしたいからMixおしえて!と聞かれることが多くて、一つ一つ話すのも面倒なので気がむいたときに自分のやり方を全部書いていこうと思ったわけです。

 

まとめると自分の勉強にもなりそうですしね

 

まず第一弾として、プロジェクトファイルの作成 の方法です。

以外と大事だったりします。音変わります。

意識して、理解して作成するようにしましょう。

※画像はPro Tools の新規セッション作成画面です

一つ一つ見ていきましょう。

 

①名前

そのままです。自由に決めてください()

注意するべき点としては

 

1、全角文字は使わない

2、ファイル名が必ず被らないようにする

3、わかりやすい名前をつける

 

ということです。

2と3は省きます。

 

1についての理由は、特にPro Toolsでの作業の場合外部スタジオに持ち込んだりすることもあると思います。その際、他のPCに移してプロジェクトファイルを見ると文字化けしていることがあります。それを防ぐためです。これはトラックに名前をつける際も同じです。気をつけましょう。あと、自分だけかもしれませんが全角使わないとカッコよく感じてモチベーションが上がります 笑

 

②ファイルタイプ

レコーディング、インポートされた音源の保存形式を決めます。自分はMacPCでしかProToolsを使ったことがないのでわかりませんが基本的には2つ。

WAVファイルかAIFFファイルです。

WAVはWindows標準の非圧縮ファイル、AIFFはMac標準の非圧縮ファイルです。

 

基本的にはどっちでもいいですが、自分は一般的に知られている、普及している。また、WinとMacどっちにも対応しているという理由でWAVにしています。

 

○非圧縮ファイルと圧縮ファイルについて

WAVファイルとMP3ファイルの違いってなにかわかりますか?

MP3は音が悪い〜〜と言われていますがその理由の説明です。

人間が聞こえる音の高さの範囲は一般的に20kHzと言われています。それ以上の音をモスキートーンなんてよんでいたりしますが・・・。

 

人間が聞くだけなんだし、聞こえない音とか消して容量小さくした方がいっぱいデータ入る!と考えられて作られたのがMP3(など)です。なので、必要最低限程度に入らないものを消されています。

それに比べてWAVはちゃんとした人間には聞こえないとされている音の高さのデータも保存されています。

※音の高さ以外にも編集されている部分もあります

 

この容量を小さくするために用いられているのが圧縮ファイル。そのままの形で保存されているものが非圧縮ファイルと言われています

圧縮ファイルにも2種類あります。不可逆圧縮可逆圧縮です。

簡単に言うと

不可逆圧縮は圧縮したら元に戻せないもの

MP3、MP4 など・・・

可逆圧縮は圧縮後にもとに戻せるもの

ZIP、RAR など・・・

です。

 

③サンプルレート

サンプリングレートとも書きます。

1秒間にどれだけのデータを保存するか というものを決めるものです。

動画は、何枚もの画像を高速に再生することによって動画ファイルとして保存しています。それの音ver です。

44.1kHzというのは、一秒間に44100回のデータを保存して音声として保存しています。この値をあげればあげるほど音の再現性がよくなりますが比例して容量も大きくなります。

音楽的に、考えることは標本化定理(サンプリング定理)というものです。

簡単にいうと、ここで設定した高さの半分の高さまで音声が聞こえる ということです。44.1kHzなら、22.05kHzまでですね。

先ほど書いた通り、人間が聞こえる音の高さは20kHzまでとされています。が、実際になっている音はどうでしょうか。ずっと高いところまでなっていると思います。ですから、音がよりリアルになります。

 

ちなみに電話だと、このサンプルレートは16kHzです。なので8kHzまでしか聞こえないわけですね。

 

人間には20kHzまでしか聞こえないんでしょ?なら44.1kHzで充分じゃん!と思うかたもいると思います。

少し前から聞く ハイレゾ というものをご存知でしょうか。

このハイレゾというのは、人間には実際聞こえないはずの音まで収録されている音源です。単体で聴くとわかりませんが、混ぜて聴くと以外とわかるものなのです。。です。

 

④ビットデプス

ビットレートと表記されることもあります。

すでにデジタル化された音源の1秒間で扱う情報量の単位のことです。

 

音量の振り幅をどれくらい細かく再現するか っていうものって考えた方がわかりやすいですかね()

音の細かさや音量の大小の表現力などをあげるものになります。

 

最後に

はじめは見落としがちで、また大体の方が16bit,44.1kHzで作業している方が多いとおもいます。実際CDの音源も16bit,44.1kHzですからね。

(ちなみに16bit,44.1kHzのことを慣れてる人は イチロクヨンヨンイチ と言ったりします。)

はじめはMP3とWAVの音の違いはわからないと思いますが、わかるようになってくると、ビットレート、サンプリングレートを変更することにより音の違いがわかるようになると思います。その時に聞き分けて、また、自分にあった音で作業できるようにしましょう。しょう。

 

ちなみに参考までに自分は家では 24bit,48kHz で作業しています。

 

それと、音楽業界では最終的にはサンプリングレートは44.1kHz。映像業界では48kHzで納品することが多いです。多いっていうかほぼ100%・・・。