同人音楽作家にお仕事を依頼したことはありますか?
お蔭さまで、うちのサークルでもコンスタントに依頼が来るようになりました。
その中には初めて楽曲制作の依頼をするという歌い手さん、ゲーム製作者さん、音系サークル主さんなどからの依頼も少なくはありません。
初めての依頼に僕を選んで頂いたのはとても嬉しいことなので、できる範囲でアドバイスやサポートをさせて頂くようにしてます。初めてなので当然分からないことって沢山あるものですよね。
しかし、その都度で対応していると結構な時間がかかってしまうし、やりとりが煩雑になってしまうなぁと感じることも多いのが正直なところです。
そこで今回は、楽曲制作依頼前にこれは知っておくとスムーズだよ!という用語や知識をまとめて書いてみました。
目次
作業区分について
僕ら楽曲制作者が行っている作業区分についてです。
名称だけは知ってても、「作曲と編曲の違い」、「ミックスとマスタリングの違い」が分かっていなかったり、マスタリングの存在を知らない方が結構います。
作曲=メロディを作ること
作曲とは即ち、メロディを作ることです。
楽器を弾きながらでも、お風呂場で歌いながらでも、パソコンと向き合いながらでも、メロディを思いついて記録したらそれは作曲です。
記録は五線譜でも、MIDIでも、深く心に刻み込んでもいいと思います。忘れなければ。
また、加えてコード付けまでを作曲という場合もあります。僕もコードから先に考えたり、メロディと同時にコードが出てくるタイプなので、メロディとコードを考えるところまでを作曲という風に考えてます。
因みにコードとは和音(=複数の音を鳴らしたもの)のことです。コードを効果的に切り替えることで雰囲気、世界観、感情、気分、気持ち良さ、気持ち悪さなどをコントロールできます。
編曲=伴奏を作ること
編曲とは、伴奏を作ることです。アレンジとも言います。
作曲したメロディ(とコード進行)だけでは、音の情報量が少なすぎて聞き手にとって聴き辛かったり、物足りなさを感じさせてしまいます。
そこで、ピアノ、ギター、ストリングス、シンセサイザーなどでコードを強調したり、ドラムやベースなどでリズムを強化したりします。
また、オブリガートや裏メロなどと呼ばれる副次的なメロディを付けることもあります。
作曲したメロディは同じでも、コードの付け方、楽器の種類・演奏方法、リズムの組み方によって、ポップス風、ロック風、ダンス風、ジャズ風、はたまた特定の○○さん風など、アレンジでガラっと音楽ジャンルは変わってきます。
五線譜に楽器と音符を書き込んでも編曲ですが、DTMerだと普通は打ち込みとレコーディングをしながら編曲していきます。
ミックス=音を整えること
ミックス(ミックスダウン)とはメロディ、伴奏含め、全ての音を整えることです。ミキシングとかトラックダウンとも言われます。
各楽器の音量バランス、定位(鳴らす位置)、音色を調整して聞き手が聞いていて気持ちの良い音を作りこみます。
多くの製作者はアレンジ段階で各トラックの音量・定位を大体な位置に設定してますが、これをさらに適切な位置に設定して楽曲をより聴きやすくします。
音色のつくりこみとしては、奥行きをコントロールしたり、残響音を与えたり、帯域の住み分けをしたりしてより気持ちの良い音にします。
ミックス作業をしないと、特定の楽器が大きすぎる、楽器の位置が中心によりすぎている、特定の帯域に音が集まりすぎている、音に迫力がない、など聴きづらい音源となってしまいます。
因みに、ミックスが完了した音源を2mixと言います。
マスタリング=他の音源と同じ質感に合わせること
マスタリングとは2mixを他の音源と同じ質感に合わせることです。
コンテンツの中で一つの音源のみ聴くということは殆どありません。音楽CDでも、ゲームでも、アニメの劇判なんかでも必ず連続していくつかの曲を聴くと思います。
未マスタリングの2mixは質感がバラバラです。それが顕著に現れる要素が「音圧」です。
例えば音楽CDを聞いていて、1曲目は小さい音だったのに2曲目で突然大きな音になるとびっくりして音量を下げますよね。そして、3曲目で小さい音になると良く聞こえないのでまた音量を上げなければなりません。これはとても気持ち良く音楽を聴ける状態じゃないですよね。
このような問題を解消するために、コンテンツに使用する音源を集めて質感を整えるマスタリングという工程が必要になるわけです。
1曲しか収録していないCDなどの場合は、極論を言うとマスタリングは必要ないのかもしれません。しかし、他のCDを聞いたあとにそのCDを聞いたら極端に音が小さかったりすると不便なので、「世間一般の質感と揃える」という意味で基本的にはマスタリングをします。
同人のコンピレーションCDなどで稀にそれぞれの製作者がマスタリングする場合もありますが、これも世間一般の質感に合わせるという意味合いが大きいと思います。
デジタル音声データの基礎知識
「提出ファイルのデータフォーマットを教えてください」と言われたときに、依頼者もデータフォーマットについてある程度知っておかなければ答えられませんよね。
ステレオ/モノラル
再生ch数の違いです。
モノラル=1ch。1つのスピーカーからひとつの音を出す。
ステレオ=2ch。2つのスピーカーから別々の音を出す。
ボーカルなんかはモノラルで録りますが、最終的には基本的にステレオ音源を提出します。
サンプリング周波数/量子化ビット数
音質に関わってくる設定その1です。
サンプリング周波数は~Hz、量子化ビット数は~bitで表します。
詳しい解説は他サイトに譲ってここでは一般的によく使用される設定を記述します。
■サンプリング周波数
44100Hz(44.1kHz) … 音楽業界の標準です。音楽CDもこの設定です。
48000Hz(48kHz) … 映像業界の標準です。映画やテレビはこの設定です。
■量子化ビット数
16bit … 一般的な音質です。音楽CDはこの設定です。
24bit … ハイレゾオーディオ等高音質な設定です。
基本的にはCDの場合44.1kHz/16bit、映像の場合48kHz/16bitで良いと思います。
音質に拘る場合、48kHz/24bitで書き出してからマスタリング後にダウンサンプリングして書き出す…なんてことをやる場合もあります。
またハイレゾオーディオで192kHz/24bitなんて大きなデータを扱うときもあります。(経験はないけど)
ファイルフォーマット
圧縮/非圧縮、マイナーなものを含めるとかなりたくさんありますが主に使うものだけを記述します。
wav
MicrosoftとIBMが開発した非圧縮フォーマット。
圧縮しないため音質は最高ですが、容量はかなり大きいです。
ファイルの受け渡しの際は注意。
最終的な納品用によく使用します。
aiff
Appleが開発した非圧縮フォーマット。
Mac派の人や、Logicを標準DAWとしている企業への納品で使ったことがあります。
使い方や注意点はwavと同じです。
mp3
圧縮フォーマットの代名詞です。
音質は圧縮されるため劣化しますが低容量です。
サンプリングレートによって劣化具合と容量が変化します。
制作途中の視聴用デモなどを提出する際に使用します。
最終的な成果物ではwavやaiff、途中の視聴用なんかはmp3という使い分けでOKだと思います。
音楽ジャンルについて
音楽の雰囲気を言葉で伝えるためにジャンルというものは有効だと思われがちですが、細かいジャンルになってくるとイメージの齟齬が発生することはよくあります。
依頼で使用するのはCDショップでよく見る基本ジャンル(ポップス、ロック、ファンク、レゲエ、ジャズ、クラブ、テクノ、ハウス、EDM等)ぐらいにして細かい部分は参考音源(youtube等のURLでもOK)を付けた方が確実です。
おわり
雑多なまとめ記事になってしまいましたが、如何でしょうか。
依頼する側からしたら専門外のことかもですが、あらかじめ知っておくとスムーズに依頼できて双方捗りますよ!
なにか他にも必要な知識があるような気もしますが…気が付いたら追記するかも。
~を書いたほうがいいよ!とかあったらコメントででも教えてください。