2015年06月15日

ボイシングについて

 今回は、打ち込みの際にかなり大切な要素であると思われるボイシングについて述べたいと思います。
 「ボイシングとは何か」というのを理論的に書くと、長くそして難しくなりそうだったので画像を用意しました。楽譜作成にはFinale NotePadを使用しています。登録が必要ですがフリーです。ダウンロードはこちら
 入門編ということで簡潔に記したつもりですが、奥が深いものでもありますので、もっと詳しく勉強したい方は専門のサイト等をごらんになっていただければと思います。

 まずはボイシングのバリエーションから。
 Cのコード、つまり「ドミソ」ですが、単純に「ミソド」「ソドミ」という和音(鍵盤の押し方)もCになります。楽譜で示すと次の通りです。1小節ごとに「ドミソ」「ミソド」「ソドミ」となっていますが、どれもCのコードなんですね。ただ、実際に鳴らしてみると微妙に響きが違うことがお分かりになるかと思います。c_vari.png

k_c1.png 鍵盤で表すと分かりやすいかと思います。上の画像が「ドミソ」で下が「ミソド」ですね。
 右手で弾くので、1の指(親指)が「ド」か「ミ」かという違いもあります。ちなみにどちらも、左手はルート(主音)でドの単音、またはオクターブユニゾンになります。
k_c2.png 同じCのコードでも「ドミソ」で弾くのか「ミソド」で弾くのかというのは場面や流れによっても変わってきますので、ここが冒頭で述べた「重要」という点につながってくるのです。

 次に、コードが展開した場合のボイシングを例に挙げたいと思います。オーソドックスな「C→G」と「C→F」のパターンの2つについて説明します。

 「C→G」の場合、「ドミソ」から「ソシレ」という弾き方はほとんどしません。c_to_g_n.png
 これは、指が大きく動いてしまうためです。明らかに弾きにくいですよね。一般的には次のように「シレソ」というGのボイシングになるはずです。c_to_g_v.png

k_g2.png 鍵盤で表すとこんな感じになります。ドとミを押さえていた指がそれぞれ1音ずつ下がるだけですから至極弾きやすいはずです。ソを押さえている指については普通は変更なしです。
 もちろん、「シレソ」ではなく「レソシ」というボイシングもあります。次のコードが何かによって、または主・対旋律の動きによっても柔軟な変更が可能なのです。しかしながら、これは鍵盤を押さえる指すべてが動いてしまうために、あまり使われないボイシングでもあります。

 同じように、「C→F」の場合も「ドミソ」から「ファラド」というようなボイシングをしている楽譜はほとんど見かけません。c_to_f_n.png
 コード進行の中で、構成音に同じ音がある場合はその指をできるだけ動かさないほうがいいという暗黙の了解があるので、やはり「C→F」も同じ構成音である「ド」の音を動かさずに「ドファラ」というボイシングにするのです。c_to_f_v.png

k_f2.png 「C→G」のときに「ソ」の鍵盤を押さえていた指が変わらなかったのと同様に、今度は「ド」の鍵盤を押さえる指が動きません。そういった関係から、左手のベース部分をあえて「ド」のまま残し、「FonC」というコードにする進行もよく使われます。

 最後に、「C→G」でも最初のCのボイシングが違うと次のコードのボイシングも変わるという例を紹介します。c_to_g_vari.png
 「ミソド」から「レソシ」ですね。この場合は1の指がミからレに下がっています。

 このように「弾きやすいボイシング」を探すことが、打ち込みでも重要だと考えています。実際に鍵盤で弾きながら確かめるのが手っ取り早いとは思いますが、ピアノロールだけで打ち込んでいる方はぜひ「同じ構成音」に着目してボイシングを研究してみてください。
 ボイシングを見直すことで、自然なコード進行で聴かせることができます。「流れが不自然だ」と感じてしまうデータも、案外これだけで変わってしまうこともありますので。
posted by あずぷろスタッフ at 00:28| 秋田 ☁| Comment(0) | DTM・打ち込み | このブログの読者になる | 更新情報をチェックする

2015年06月10日

EQのかけ方〜番外編〜

 前回はさすがに長すぎたので反省しました(;´д`)。なので短めに番外編をお届けします。
 予告通り、「可聴域」に関するEQのかけ方についてです。
 
 可聴域とは読んで字のごとく聴くことができる音の範囲で、これは周波数と関係しています。一般的には20Hz〜20000Hz程度だと言われていますが、個人差や加齢による縮小等によってまちまちです。自分の可聴域を知りたいなら、測定ツールがたくさんありますのでそれを使うという手もありますね。PC用のソフトでは、サウンドカードあたりのハードウェアの性能やスピーカ・ヘッドフォンなどの再生環境によっても影響を受けますので、必ずしも正確な測定ができないことがあります。また、極力周辺のノイズが発生しないようにしなくてはなりません。私もやってみたのですが、11Hz〜15796Hzでした。静かな環境で行うことができなかったので参考記録といったところです。上は年齢通りでしょうか(^-^;。下は普通に全部聴こえました。…老人そのものじゃないですか(汗)。

 一時期話題になった「モスキート音」は老化する以前の年代にのみ聴くことができる周波数の音で、つまり「若者以外には聞こえない音」ということになります。公園だのコンビニの前だの若者がたむろしそうな場所で流していたということで様々な波紋を呼びましたね。

 可聴域を上回る音は「超音波」と呼ばれます。およそ20KHz以上の音がこれにあたります。
 下限周辺の音を「低周波」といいます。これにより健康被害が取り沙汰されたので、「低周波騒音」という言葉を聞いたことがあるという方も多いのではないでしょうか。

 以上のような点を踏まえてEQを設定する必要があります。
 前回、「下の周波数の音はほぼ切る」というような記述を多くしました。これは上に書いた低周波の問題と大きく関わってくるからです。曲にもよりますが、バスドラム以外で100Hz以下を増幅してしまうと「不快な音」と感じる人もいるようです。ほぼ切ったとしても人間は低音部を感じ取ることができるので、薄っぺらいという印象は発生しませんから安心してください。
 また、聴きとれない、または聴きとりづらいという音域の高い音についても、不自然なまでに上げるのはやめたほうがいいでしょう。人にとってはイヤな音と感じることもあるみたいですので。

 しかし、EQの世界ではあえて可聴域以上の周波数を増幅することがあります。これを「おまじない」と称するクリエイターの方もいるのですが、一応は理にかなっていて、聴こえていなくとも骨伝導によって感じ取ることができているからなんだそうです。入っているのと入っていないのが分かってしまうんだとか。不思議ですねぇ。
 もっとも、CDのサンプリング周波数は44100Hzで、理論上22050Hzまでの音しか出すことはできませんから(しかも実際の周波数域はもう少し狭くなります)、それ以上を上げても意味はないということになります。48000Hzフォーマットでデータを作成して24KHz付近の音を持ち上げたとしても、CDに焼いた際には消えてしまうということです。そういった特性を踏まえた上でのおまじない的要素でしょう。

 音の世界はまだ科学的に解明されていないことも多く、だからもしかすると新しいEQの可能性も存在するかもなんて浅はかな夢を抱いていた頃もありました(^-^;。皆さんはこういった豆知識を頭に入れた上で、「常識的な」範囲内でEQ補正を楽しんでくださいね〜。
posted by あずぷろスタッフ at 00:18| 秋田 ☀| Comment(0) | DTM・打ち込み | このブログの読者になる | 更新情報をチェックする

2015年06月09日

EQのかけ方

 今回はEQを通す際の基本的な知識を紹介したいと思います。仙台往復で消耗した体力がまだ回復していないのですけど、調子に乗って筆を進めてしまいました(^-^;。

 「EQ」は「イコライザー」の略です。詳しくは「グラフィック・イコライザー」と「パラメトリック・イコライザー」の2種類がありますが、どちらも音声信号の周波数特性を調整する機能を持っています。
 簡潔に表すと、パライコは周波数や帯域の幅まで含めて調整できるイコライザーで、グライコはあらかじめ決められた周波数と幅を複数本持ちそれぞれの信号調整ができるものです。だいたいこのような解釈で問題ないでしょう。
 一般的なコンポやDAPなどの再生機器に搭載されるEQはほとんどがグライコになりますので、その考え方で説明していきたいと思います。

 まずは周波数帯域について。「Hz」とか「KHz」とか書かれた部分の数値がこれにあたります。「K」は「キロ」なので1KHz=1000Hzということになりますね。この数値が小さければ低音、大きければ高音を示します。
 それさえ分かれば、あとは古いコンポに付いていたようなグライコを操作する感覚と同じです。「dB(デシベル)」と表記してあるものが多いはずですが、ここを上下に変更してその帯域の音を強調したりカットしたりします。

 では、この周波数帯域の本数が多ければ多いほど良いEQと呼べるのでしょうか。実は単純にそうでもありません。あまりに細かすぎてもダブる帯域が存在してしまいますし、高すぎたり低すぎたりしても可聴域の問題が生じてしまいます。だからと言って帯域が少なすぎるのも使いにくいですので、実際は5〜7個あたりがちょうど良いのではないでしょうか。可聴域については次回に触れたいと思います(^-^;。

 これまでにも何回も書いている通り、自分の耳で確かめながら調整するのが最善なので、これがベスト!というようなフォーマットは存在しません。特にEQはミキシング時の作業にしている方が大半だと思われるので、まわりの楽器との兼ね合いで調整するべきでしょう。しかしながら、あえて大別できるという考え方があるのも事実なので、掻い摘んで紹介します。
 なお、それぞれの楽器において特定の周波数帯域があるので(ex:バスドラムなら75Hz周辺とか)、それはネット等で調べておくべきだと思います。なぜなら、不要な帯域をカットできることにつながるからです。

 ドラムはEQをそれぞれにかけるということを考えると、あらかじめ楽器毎に別パートにしておいたほうが得策です。バスドラムなら前述の帯域を持ち上げますし、スネアは中音域よりある程度上の部分を、ハイハットやシンバルなら高音域を…といった感じで調整できますので。余計な部分は思い切って下げても構いません。もちろん、バスドラムの胴鳴りを残したいといった思惑があればその帯域は残しておきますけど。

 ベースは大抵バスドラムと音域がかぶりますので、聴き比べながらの調整ということになるでしょう。高音部分はバッサリ、低音域も500Hzあたりから下はグッと下げて、バスドラムとの混在を避けます。

 ギターはアコギ・エレキによっても大きく異なってきますが、基本的にベースとのユニゾンでもない限り低音を切ってしまいます。ストロークのシャラシャラ感を出したいなら中高音域を持ち上げると良いと思います。

 ストリングスも大概は3〜4パートに分けます。バイオリンは低音カットで高音域を強調。ビオラ・チェロは中音域を太く。コントラバスは高音カットといった具合です。これを一緒くたにEQ調整すると生音から遠ざかってしまい、一気にコンピュータ臭くなりますので注意が必要です。

 ボーカルは男性・女性によって異なります。男性ボーカルなら高音・中音域を心持ち上げる感じで。女性ボーカルは低音域を完全に切ります。しかし、女性ボーカルであっても不必要に高音を上げるのは避けたほうが無難です。キンキンする度合いが増し、聴いていて疲れてしまいますから。また、歯擦音と呼ばれるサ行あたりの耳障りな音を消すにもEQは有効ですが、これに特化したディエッサーというエフェクトがあるのでそちらをオススメします。

 という感じで、同じ周波数帯域の音をゴチャゴチャしないように調整する役目がEQということがお分かりいただけると思います。分離がまったく変わりますので、最終MIXの前にはぜひEQを通してみてください。
 以前何かで読んだのですが、日本人は所謂「ドンシャリ」の音が好きらしく、中音域が前に出るような楽曲を作るのは苦手なんだそうです。自分の曲がそうだと感じる方は、その帯域に当てはまるようにシンセ系バッキングのオクターブを上下させてみるのもアリかもしれません。そっちのほうが、あえて中音域をEQで持ち上げるより違和感がないということもたびたびありますので。
 まずは試行錯誤です。ミキシングは納得がいくまでUNDOの繰り返しですよ(^-^)。
posted by あずぷろスタッフ at 00:10| 秋田 ☁| Comment(0) | DTM・打ち込み | このブログの読者になる | 更新情報をチェックする

2015年06月06日

アーティキュレーションって?

 すっかり忘れていたのですが、DTMに関する講座っぽいものをカテゴリで分ける予定だったんです(^-^;。以前書いた記事でこれに属するものもついでに移動させましたんで、ご了承くださいm(__)m
 「講座」と銘打つと語弊がありますから、現時点では、DTMで曲作りがしたいという方の一助となればという意味合いが強いです。偉そうに講釈していますが、生温かい目で見守ってくだされば幸いですm(__)m
 もちろん、これまで書いたものも今回の記事も、理論として確立されているものではなく、私のこれまでの経験から知識として共有できれば有意義かもしれないというものをピックアップしただけですので誤解なきよう…。

 さてこの「アーティキュレーション」という言葉、DTMをご存じない方、音楽に明るくない方にとっては極めて馴染みが薄いと思います。しかし、DTMをやってみたいという方にしてみると避けては通れない重要なテクニックの一つなのです。

 Wikiには、「音楽の演奏技法において、音の形を整え、音と音のつながりに様々な強弱や表情をつけることで旋律などを区分すること。」とあります。ざっくり言うとスラーやスタッカート、アクセントやらクレッシェンドやらがこれに当てはまるのではないでしょうか。

 まずはスタッカートが分かりやすいので、これを使って例示したいと思います。
 4分音符1個ぶんの長さを表す数値が100だとします。初期の頃のDTMにおけるスタッカートは33〜50で打ち込むべしと言われていたように記憶しています。(誤解を避けるためにあえて言及しますが、DAW等の性能(分解能)により、4分音符1個ぶんは96だったり120だったり480だったりします。あくまで例ですので…)
 しかし、実際にこの通り打ち込むと、50ではまったくスタッカートに聴こえないということがしばしばあるのです。
 蛇足ですが、DAWの中には音符の長さと実際に発音する長さの両方で内部処理されるものもあるようです。休符の扱いに所以するのでしょう。古くはレコンポーザにおいて、ST=ステップタイムとGT=ゲートタイムという入力方法が存在していました。STは音符の長さ、GTは実際に鳴らす長さという意味ですね。直感的で分かりやすかったです。今はピアノロールが主なので、操作としてはズズッとドラッグして入力するだけですから本来の音符の長さを意識しない人も多いかもしれません。逆に楽譜の知識がある人にとっては音符の長さは重要なので、必然的にベタで打ってから短くするという作業が欠かせないというパターンになるかと思います。私は後者です。ピアノロールに慣れるまでけっこう苦労しました…。

 では、どうしてそれだとスタッカートにならないのでしょうか。一つの理由として、小学校の音楽の教科書に「スタッカートとはその音符を短く切って演奏・歌唱すること」と書いてあって、「じゃあそれってどのくらい短く?」と聞かれると「その音符の長さの半分程度」と答えるべし的な通念がある…ということが挙げられます。これは「概算」であって「正確にそうしなさい」ということではありませんから、人間の感覚で長さなんてどうにでもなるのです。ところがコンピュータの世界ではそうもいかず、数値で指定する必要があります。指定された以上、コンピュータは正確にその数値ぶん鳴らしますから、そこにズレが生じるという仕組みです。
 演奏する場合のことを考えれば分かると思います。4分音符にスタッカートが付いていたとして、律儀に半分の8分音符ぶんを鳴らす人はいません。しかし、8分音符のスタッカートなら16分音符ぶんでも十分スタッカートに聴こえます。プレイヤーの側からすると、感覚的には4分音符のスタッカートも8分音符のスタッカートも特に意識せず同じ長さで演奏しているという場面も多いはずです。当然、テンポやらフレーズやらにも左右され、スタッカートが付いた音符の長さは変化しますけど。

 つまり、これを打ち込みの際にも当てはめると良いというのが結論になります。とりあえずは短くして聴いてみて「この長さでスタッカートになるな」という数値を探し当てるのが一番の近道なんですね。元の音符の長さだけではなく、楽器(音源)によって、さらには前後の音符との兼ね合いによっても異なってきますから、とにかくいろいろと試してみることです。数値に頼らず自分の耳に頼りましょう。

 これ以上に難しいのがテヌートやレガートで、パーセンテージで簡単に表せるようなものではありません。特に音が減衰しない楽器(電子楽器含む)では、下手に鳴る時間を短くすると不自然極まりないテヌート・レガートになってしまうということも多々あります。
 私がテヌートやレガートを入力する際には、次の音符の直前ギリギリまで伸ばし、ボリューム系のコントローラを使って強制的に減衰させたり、音色エディットでキーオフの設定を変えたりといった作業を入れます。実は今の音源には、次の音符と100%でつながっていない場合の発音に変化を持たせているものも存在し、上手く切ってくれるという有り難い機能が付いていたりしますんで、その鳴りを聴きながら長さを調節するというのも音源との賢い付き合い方だと思いますよ。

 あとは、楽譜に記載されない基本的な演奏のお約束というのも知っておいて損はないでしょうね。

 例えば、シンコペーションなら2つ目の音(長い音)はアクセントを付加するのが普通ですから、ベロシティは大げさにならない程度に盛らなくてはならないですし、2つ目にベロを盛ったぶんだけ1つ目の音はスタッカートに近くしたほうが良いということも踏まえて打ち込む必要があります。音の強さと長さは、音符を連ねてフレーズをつくっているという理由から密接なつながりをもっていますので、強弱を変更したら長さも見直すという作業をぜひおすすめしたいです。特にブレスが必要な楽器は必須だと思います。もちろんボーカルにも当てはまりますので、調教にも使えるテクかもしれません。

 また、管楽器等のクレッシェンドも、エクスプレッションを機械的に上げるだけの入力ではなく、音の頭にスフォルツァンドをもってきたほうがリアルになります。アタック音が必要だということです。楽譜にsfzの記号が無かったとしても、曲調から判断したなら付加することに問題はありません。音楽は、作り手・演奏者の想いや考えが活かされるからこそ楽しく、自由なのです。

 というわけで、残念ながらここらへんに演奏経験と打ち込み経験の接続部がありまして、鳴り方の差に直結してしまうんですねぇ…。「音楽経験は無いけど打ち込みはできる」という人や「音楽経験は豊富だけど打ち込みは初心者」という人のデータにのっぺりとした印象を抱いてしまう理由がこれなんです。演奏経験38年、打ち込み経験33年の私も未だに試行錯誤の連続なんですから(^-^;;;。

 …う〜ん、他にも書きたいことはたくさんあるのですが、次回以降ということで(;´д`)。この文量で原案・入力・校正に2時間半かかりました_| ̄|○ このカテゴリはエネルギーが漲っているときのみの更新になりそうです…。
posted by あずぷろスタッフ at 01:25| 秋田 ☔| Comment(0) | DTM・打ち込み | このブログの読者になる | 更新情報をチェックする

2015年05月26日

転調を踏まえた曲作り

 たまには音楽的な話題でも書いてみようかと思いましたが、所詮専門職ではなかった全教科担任故の浅い知識なので化けの皮どころか角質層あたりまで被害が及ぶ可能性もありますね(^-^;。気にしないで進めましょう。講釈の対象年齢は10歳程度です(゚ー゚;。

 とりあえずWikiで引いてみると、転調は「曲中で調を変える事」とあります。至極当たり前ですけど、では「調」って何なのでしょう?
 調は音階に基づいたもので、例えば「ドレミファソラシド」なら「ハ長調」になります。この鍵盤の並び(間が1・1・半・1・1・1・半)が長音階です。白鍵で「ラシドレミファソラ」と弾けば、並びは1・半・1・1・半・1・1で短音階となり、イ短調と呼ばれます。ですから、ドを主音にしたハ短調は「ドレミ♭ファソラシ♭ド」ですね。普通に機種依存文字を使ってしまいました(^-^;が、大雑把に表すとこういう○長調とか○短調とかが「調」なのです。

 実はこの「曲中で」という部分が重要で、古典的な楽曲や唱歌等はほぼ単一調で終始ということも多いのです。しかし、現代の邦楽は特に頻繁に転調しています。それも聴き手が意識しないうちに大胆な転調をしていることも珍しくありません。メロディを鍵盤で弾くとよく分かります。ハ長調ベースの曲でも黒鍵を2つ3つ使わないと弾けないという事態にはよく遭遇します。例えばハ長調のI度からV度、それがト長調のI度になって転調というような簡単なパターンではなく(この場合に使う黒鍵はファのシャープ)、短3度転調なんかをして、レのシャープとラのシャープも使っているという場合がこれに当てはまります(変ホ短調ならファのシャープも…嬰ニではなく変ホと表すので厳密にはミ♭ソ♭シ♭)。まぁここから先はダイアトニックコードなんかの要素も多く含まれてくるので割愛しますけど、ざっくり言ってしまえば「最近の曲はキーが行ったり来たりする」ということなんですよ。
 小中学生がカラオケでとんでもなく難しい楽曲をいとも簡単に歌えてしまうのは、こういった曲の作りに「慣れているから」なんでしょう。もちろん、理論が頭に入っているわけではありません。

 ちなみに、小学校の音楽では階名(ドレミファソラシド)と音名(ハニホヘトイロハ)を両方教えることになっていました。いろは唄も知らないですからピンと来ない子も多く、だからなのでしょうか、階名唱のスキルは鍛えるんですが音名唱はやりません。でも教員採用試験では、転調ではなく移調をさせ音名を記入させるというような問題が出るんですねぇ。何の篩いにかけているのか未だに謎です。
 たぶん大人だって「音名なんてよく分からない」という人が多いですよね。「ドレミの歌」が「ハニホの歌」ですからw。さらには楽譜に抵抗がある人も多く、初等音楽教育の間違いを感じずにはいられません。…なんか問題発言っぽい(^-^;;;。

 よく海外から「日本の楽曲のコード進行がすごい」というようなことを言われるらしいです。転調をするためにもI・IV・Vばかり使っているわけにもいかないですから、必然的に押さえる鍵盤が増えていくんですね。というわけでやっと今日の話題、「転調を踏まえた曲作り」につながっていくわけです(^-^;。相変わらず前段が長いw。

 例えばプロの作曲者ではなくとも、曲を作ったことがあるという人はけっこういると思います。鼻歌でもなんでもいいんですよ。大半の人はメロディから先に作るのではないでしょうか。事実、編曲の依頼をくださる方はメロのみという場合がほとんどです。コードが付いているときもありますが、メロの構成音を元にした単純な和音だけで、必然的にアボイドノートは発生しない仕組みになっています。でもですね、アレンジャーの立場から言わせていただけると、そのコード進行では対旋律が作れないんですよ。よって勝手にコードを変えて一部分だけ転調させることも多いです。さすがにメロの進行までは変えられませんので限界はありますが、なるべく依頼者の予想を良い意味で覆すアレンジをモットーにしています。…けっこういろんな場所でこの発言してるんですけど、割とハテナ顔されることが多いんですよ(;´д`)。

 もちろん、和音を奏でられる楽器、つまりギターやらピアノやらを演奏する人なら、コードからというパターンはあるかもしれませんけど、幼少から音楽に携わってきた人なら尚更、理論から離れられずにオーソドックスな進行になっているのではないでしょうか。キレイな流れってやつです。
 ちょっと考え方を変えて、リスナーは何に傾聴するかという部分から考えると、やはりメロなんですよね。そのメロディの流れが自然ならば、逆にコードは自由で構わないと個人的に考えています。よって最近の曲作りは「転調を多用したコード進行に自然なメロディを乗せる」というベースに則って行っているのです。
 実質的には、コードだけ全部作ってしまってから後付けでメロディというパターンは無理があるので、同時進行になる中で適宜修正を重ねていく作り方ですけど。
 これから作曲したいという方の参考になるかどうか分かりませんが(^-^;、より具体的に記述するとこんな感じです。

1.コードを白玉で置く
2.ベースをコードの主音のみ白玉で置く(分数コードを除く)
3.メロディを乗せる
4.ベースラインに動きを付加する
5.ドラム・パーカスを入れる
6.コードの白玉をリズムパターンに変換
7.他の楽器で装飾

 1〜6が前述の「適宜修正を加える」という部分で、7は最終段階だけの作業になります。だいたいは4小節刻みでこの作業を繰り返してますね。ベロシティを後から調整というのは、ずぼらな自分には絶対落ちが発生してしまうことが分かっているので、4〜6の間に一緒に行ってしまいます。他コントローラ類も同様です。
 バランス調整やPANなんかは鳴らしながら決めることが多いので、プリセットを登録しておいて云々…ということはしないですね。MIDIの時代はパターンを数種類作っておいて読み込んでから作成開始ということもやってましたが(何と言っても楽器数が少なかったからできたことです)、今はジャンルが多岐に渡っているのであえて無の状態から作ったほうが幅が広がります。

 あと、意外に重要なのが「時間を置いてから聴き直すこと」ですね。特に転調部分は、次の日聴いてみると「なんじゃこりゃあっ!?」ということもよくあります(^-^;。コードの流れは最初から通して聴かないと全体像が把握しにくく、とりわけ集中して作っているときには何度も聴いてますから感覚が麻痺して「これでいい」と思ってしまうんですねぇ。そして次の日、「よくないわっ!」と水泡に帰すこともザラですのよ_| ̄|○

 あとは前奏やら間奏やら後奏やらをいつ作るかですけど、これはメロディをモチーフにする場合がよくあるので、中盤から終盤にかけてですね。上の順列でいくと3.以降の段階でということになります。私の場合には、間奏は主・対旋律でもまったく使っていない新しいフレーズを組み込むこともあり、コード進行に乗せたメロでボツったものを拾ってきたりします。

 昔は転調と言えば単に移調のこと(サビのリピートで半音上げ等)だと考えていた青い時期がありました(^-^;。今は1曲の中で欠かせないものになっています。私のように、音楽はメロディではなくコードを聴くというリスナーがいることを信じてw、作り込んでいきたいと思います。
posted by あずぷろスタッフ at 01:38| 秋田 | Comment(0) | DTM・打ち込み | このブログの読者になる | 更新情報をチェックする

広告


この広告は60日以上更新がないブログに表示がされております。

以下のいずれかの方法で非表示にすることが可能です。

・記事の投稿、編集をおこなう
・マイブログの【設定】 > 【広告設定】 より、「60日間更新が無い場合」 の 「広告を表示しない」にチェックを入れて保存する。