動画編集を始めて一年ちょっと。最近ようやく、BGM周りの作業が少しだけ苦じゃなくなってきました。今日はそのきっかけになった話を、失敗談も含めて書いてみます。
テンポが分からなくて、何度もやり直した話
最初にぶつかった壁は、フリー音源のテンポが動画のカットと全然合わないことでした。映像の切り替えを曲のビートに合わせたいのに、BPMが分からないから全部カンで編集して、何度も「なんかズレてる」と感じてはやり直す……という繰り返し。
試しに Key & BPM Finder を使ってみたら、音源を読み込むだけでBPMとキーが数値で出てきて、「あ、こんな簡単に分かるんだ」と少し拍子抜けしました。ただ、数値が分かっても最初は使い方がよく分からなくて、結局また手探りで編集していた時期もあります。それでも、テンポを数字として把握できるようになってから、カットのタイミングを計算で出せるようになったのは大きかったです。
鼻歌をMIDIにしてみたら、思ったより大変だった
次に試したのが、自分の鼻歌をそのまま曲に使えないか、という実験です。
録音した音声をそのまま使うのは難しいので、Audio to MIDI Converter という技術を使って、音声を演奏データ(MIDI)に変換してみました。MIDIというのは音そのものではなく、「どの高さの音を、どのくらいの長さで鳴らしたか」という情報だけを記録したデータで、これがあれば後からピアノでもシンセでも好きな音色に差し替えられます。
結果は……単音のメロディはそこそこ読み取れたものの、少しでも音が重なったり、声がブレたりすると全然違うデータになってしまいました。「AIが全部やってくれる」と思っていたので、最初はかなり面食らいました。変換後のデータを手で直す作業が意外と多くて、「これ、最初から打ち込んだ方が早かったかも」と思ったこともあります。
それでも、大まかなメロディの輪郭をデータとして出してもらえるのは助かっていて、今は「下書きを作ってもらう」くらいの気持ちで使っています。
MusicArtを使い始めて変わったこと
その後、ブラウザ上でもう少し直感的に操作できるツールを探していて、MusicArt にたどり着きました。インターフェースがシンプルで、音楽理論をほとんど知らない私でも何となく触れるのが気に入っています。
ただ、こちらも万能ではなくて、和音が絡む部分の読み取りはまだ精度にムラがあります。出力されたデータをそのまま使うと、どこか機械的な印象になるので、音の強弱を手で調整したり、タイミングを少しずらして人間らしい揺らぎを加えたりする作業は結局自分でやっています。
その「手を加える工程」が、今は一番楽しい時間になっています。
ツールを使って気づいたこと
こういったツールを使い始めて一番変わったのは、「面倒な解析作業に時間を取られなくなった分、どんな音にしたいかを考える時間が増えた」ことだと思います。AIが出してくれたデータはあくまで素材で、それをどう料理するかは自分次第、という感覚です。
最初は「AIに任せれば全部うまくいく」と思っていたので、思い通りにならない場面でがっかりしたこともありました。でも今は、得意なことを任せて、自分は表現の部分に集中する、という使い方が自分には合っていると感じています。
まだまだ試行錯誤中ですが、同じように「頭の中にメロディはあるのに形にできない」と悩んでいる方の参考に少しでもなれば嬉しいです。