ハイドン博士の音響合成マシン
むかし、NHKの電子音楽スタジオでしばらく「遊ばせてもらえる」機会があった。
電子音楽というといかめしいが、まだアナログのテープレコーダーの時代で、パーソナル・コンピュータも普及したての頃。オシレーター(発信器)から出る「ピー」とか「キー」とかいう音やラジオなどから出る「ザー」「シャー」というノイズ(雑音)、あるいは現実音(人の声や雑踏の音、もちろん楽器の音も)などなどを、さまざまなモデュレーター(変調機)に通したりテープ編集したりして「変な音」にして楽しむ…もとい「実験」するという・・・まさに「音で遊ぶ」世界である。
ちなみに、戦後から70年代頃まで、世界中の放送局にこの種の「電子音楽スタジオ」があった。とは言っても、酔狂な作曲家に「音で遊ばせる」ために作った施設ではない。
音響学では「どんな音でも、単純な音を合成することで作り出すことが出来る」ことになっている。つまり、放送で「音声」として遅れる音(つまりスピーカーから出る音)なら、どんな音でもすべて「機械的かつ電子的に合成できる」。その実験というわけである。
これは要するに、弦楽器や管楽器や人間の声といった複雑な自然の音も、基本的に「ぴー」とか「ぽー」とかいう単純な音を膨大に「合成」し「変調」させてゆけば作り出すことが出来る…ということ。
例えていえば、どんな味の食べ物でも、素材Aと調味料Bと加熱X分と熟成X日…というように足してゆけば作り出すことが出来る…みたいなものだ。これが実現できたら「世界中のどんな音でも、人間の手で作り出すことが出来る」。こんな素晴らしいことはない…と世界各国の放送局はやっきになった。
その余波で作曲家が「おもちゃ」を手にすることが出来、変な音を出せば出すほど「芸術」と言われる「電子音楽」バブルの時代が到来したのである。
実際、1970年代(日本では大阪万博の頃)に「シンセサイザー」という形でそれは現実のものになった。当初のシンセサイザーは「楽器」ではなく、そのものずばりの「音響合成マシン」。電子音の発信器(オシレータ)が複数並び、それを回路上でブレンドして「波形」を作り、その音にエンベロープ(アタックや減衰、残響のような音の性格)を付けて「ストリングスっぽい音」や「パーカッシヴな音」を作り出す。機械以外の何者でもなかった。
そもそも発信器から出る電子音というのは、(例えば)1ボルトの電圧をかけると「ド」の音が出て2ボルト電圧をかけると1オクターブ上の「ド」の音が出る…というように極めてシンプル。
それなら、その1ボルトを12等分にするボタンをピアノの鍵盤みたいに並べれば「ドレミファ」が出せるわけで、それに気付いた研究者によって「ミュージック・シンセサイザー」が生まれた。それは、「電子音」が「音楽」と出会った歴史的な瞬間だったわけだ。
さらにその後、1980年代にはこの「合成された電子音」をコンピュータで制御する規格(MIDI)が生まれ、ドレミファに並べた「電子音」を楽譜(打ち込みの数字)通り演奏させて「音楽作品」にする技術が確立した。
これは、作曲家にとっては「ピアノ」の登場に次ぐ歴史的大事件だった。なにしろ…演奏も出来て、楽譜も書け、書いた楽譜を音で鳴らすことも出来る。しかも、オーケストラのさまざまな音をほぼそのまま鳴らすことが出来る…まさに最高の「作曲ツール」の誕生だったのだから。
*
ただ、意外な盲点もあった。
コンピュータによって、どんな音でも「合成」できるようになったのに、その逆……、音楽をコンピュータで「解析」して「楽譜」にするということが、さて、どういうわけかさっぱり出来ないのである。
音響合成やサンプリング(現実音の抽出)の技術によって、弦楽器でも管楽器でも人間の声でも宇宙的音でも「それらしい音」は機械的に作れるようになった。
そして、それらを回路上で「音階」や「リズム」として構築することも出来る。さらに、そういった「音」たちをコンピュータによって構成し並べてさまざまなテンポで「演奏(リアリゼイション)」することも可能になった。
要するに、ピアノ曲だろうがコーラスだろうがオーケストラ曲だろうが、シンセサイザーとコンピュータによって「それらしい音楽」として鳴らすことは出来るようになったわけなのだ。
ところが、その逆、ピアノ曲やコーラス曲やオーケストラ曲をコンピュータに聴かせ、それを「音楽」として分析して元の「楽譜」に還元する。これが出来ない。
(もちろん、MIDI鍵盤で音楽を弾いて入力さえすれば、即楽譜になる。初めから「音データ」をキイボード入力するのだから、これは簡単だ。問題はあくまでも「音声」を入力した場合である、念のため)
以前、東京大学の音響工学研究室のようなところにお邪魔してその話をしたところ、「単音なら出来るんですけど」とのこと。つまり、オーボエ一本が単線律を吹いているものなら、それの周波数分析をして「メロディ」を音符のようなものに還元することは可能なのだ。
確かに、単旋律なら単なる「周波数」の増減グラフになるのだから、そこから「音高」を割り出し、時間軸上に「音符」として並べるのは出来そうだ。(実際、その研究の成果として生まれたのが、カラオケの「採点機能」なのだそうだ)
ところが、これが2つの楽器2つの声部になると、もう出来ない。
混じり合った音を解体して元の2つの音に還元する(フーリエ変換というらしい)だけなのだから、何か簡単な方法がありそうなものなのだが、これが未だに不可能なのだ。
(もちろん、2つの音が和音として静止している状態なら、2つの周波数を特定することで「楽譜」に出来る。しかし、それが対位法的に動き出すとお手上げだ)
音大を受験する程度の耳がある子なら、2つのメロディを聞き分けるなど初歩の「ソルフェージュ」だし、別にプロの作曲家でなくても、普通の音楽愛好家ならハイドンの弦楽四重奏曲の中で第2ヴァイオリンやチェロがどういう音型を弾いているかぐらい聞き取れる。
しかし、「どんな音でも合成し」「フル・オーケストラでも楽譜通り再現する」ことの出来るコンピュータ大先生にそれが「出来ない」というからちょっと不思議だ。
そこから先は「う〜ん、どうしてなんでしょうね〜?」というため息しか出ないが、要するに、「〈カレー〉と〈ライス〉を合成して〈カレーライス〉を作ることは出来る」、でも「カレーライスを〈カレー〉と〈ライス〉に分離することは出来ない」ということなのらしい。
確かに、コンピュータはどんなものでも「成分分析」して「窒素何%、リン酸何%、カリウム何%…」と解析はしてくれるが、じゃあ、その解析通り窒素とリン酸とカリウムと合成してゆけば、元のモノが出来るのかというと、それは無理。それに似ている。
ただし、これが本当に「金輪際出来ない」ものなのか、そっちの方向の研究が進んでいないだけなのか、(あるいは、開発はしているのだが、それをプログラムあるいはソフトとして発表しても採算が取れないので存在しないだけなのか)それは定かではない。
一見簡単に思えた「素数」の並び具合の法則性の解読が、意外にもリーマン予想という100年の謎にまみれたように、「音を聞いて楽譜にする」という簡単なことが未だ「闇」の中にあるというのは、(コンピュータの進化をわくわくしながら見てきた身には)かなり「意外」である。
何かAI(人工知能)的なコンピュータの登場で解き明かされる日が来るのか、あるいはどこかで天才的な学者が「ぽっ」と思い付いたアイデアで簡単に実現することなのか。
採譜が苦手な作曲家としては「CDを聴かせたら即座にスコアにしてくれる」ソフトがあったら、大金出しても手に入れたい。(それがあったら「タルカス」のオーケストラ化に40年もかからなかったし(++;)。ここは、後者であることを切に祈るばかりである。
*
と、タイトルのハイドンとは全く関係なさそうな方へ話がどんどん脱線しているのだが、普通の人が音楽を聴く時、聞こえてくるすべての「音響情報」をもれなく耳に入力するわけではない。
オーケストラで壮大に鳴り渡る交響曲にしても、単純なポップスの楽曲でも、そのサウンドの中には「管楽器が奏でる主旋律」や「弦楽器によるハーモニー」「金管楽器によるリズムのアタック」「ドラムスやティンパニによるアクセント」「ギターによるリズム・カッティング」「ヴィオラによる対旋律」「コントラバスやチェロによるベース・ライン」などなど膨大な「音情報」が満ちている。しかし、人はそんな「合成音」の中から一本の「メロディ」だけを聞き分けているはずだ。
2つのスピーカーあるいは2つの耳から入力された「ひとかたまりの音響」にもかかわらず、人はその中から「メロディ」部分だけをより分けて認識する。
そして、「メロディ」を分離するのと同時に、「リズム」を感じて身体を同調(シンクロ)させる。「どうやってやっているんですか?」とコンピュータに聞かれても、良く分からない(笑)。でも、どんな子供でも音痴の人でも、簡単に「出来る」。
もちろん、それを「楽譜」に出来るレベルまで細部に認識しているかどうかは別問題。メロディやリズムを聞き分けていても、「それを楽譜に記譜してください」と言われて、すぐ「はい」と言える人は滅多にいない。音楽を「感じる」のに、そこまでの「解読」は必要ないからだ。
さらに「ハーモニー」(コード進行)となると、よほどの人でない限り「Am7〜Dsus4〜」などと解読して聴くことはない。今鳴った和音に9thの音が含まれているかどうか…とか、オーボエとファゴットが2オクターブ差で導音を鳴らしているかどうか…なんて、作曲科の入学試験くらいでしか必要のない特殊技能だ。
それでも、どんな人でもセブンスのニュアンスとか係留の4度の「感じ」は聞き取っている。そして「なんだかカッコいい響き」とか「ちょっとシャレたニュアンス」という感じを得ている。
このあたりをコンピュータに教え込むには、音の科学的分析のほかに、音楽を感じる右脳と言語を司る左脳…という二重構造のシステムとさらに、言語と共にメロディを感じる大脳皮質(前頭葉とか側頭葉と呼ばれる部分)、リズムを感じる人間の脳の最深部(視床下部?)、ハーモニー感覚の源である脳幹あるいは中枢神経…というような多層構造になっている「脳」へのアプローチも必要なのかも知れない。
そう言えば、電子音楽黎明期の「MIDIによるシンセサイザー」で最初期に使っていた音源(MIDIサウンド・モジュール)は、まさにこの「メロディ」「リズム」「ハーモニー」の3成分だけに特化したもので、チャンネルは4つだった。
つまり「メロディ」で1チャンネル、「リズム」で1チャンネル、そして「ハーモニー」(ベースとコード)が2チャンネル…というものだったのだが、結構これだけで「それらしい」楽曲が作れたのだから、3成分おそるべしである。
(要するに、現在のコンピュータのように演算スピードが速くなかった頃、最低限の計算力で最大限の音楽的効果を得るのがこの「3権分離」の「4チャンネル」だったわけだ)
しかし、今では誰も「音楽」というものの要素を「メロディ」「リズム」「ハーモニー」と信じて疑わないが、実際にこの3成分が政権を確立したのは意外と新しい。
人類の「音楽」の歴史における最古参はもちろん「リズム」。これは、心臓のような生命の基本に関わるもので、それを司るのは脳の一番深部。起源は恐竜と同じくらい古い原始時代のものらしい。
続いて、人間が二足歩行を始め、社会や言語が登場する頃と前後して「メロディ」が現れる。これは脳で言うと、大脳新皮質の時代。古いと言えば古いが、恐竜脳よりは新しい。
それでも、原始の時代にはメロディはメロディだけ唸り、リズムはリズムだけ叩かれていた。それががおそらく数十万年ほどは続いたに違いない。
そのうち人間が「文明」らしきものを確立するようになって、ようやくリズムを叩きながらメロディを歌う(演奏する)時代がやってくる。これが数万年前。
それに比べると「ハーモニー」の登場はひどく新しい。Ⅰ〜Ⅳ〜Ⅴ〜Ⅰ…というようなシンプルな和声進行(カデンツ)の形が姿を現したのさえ、どう古く見積もってもせいぜい1000年前のことなのだ。(このあたりの詳しい歴史は拙著「運命はなぜハ短調で扉を叩くのか?」参照)
その後、通奏低音や数字和音のような語法が確立し、和音がぶつからないようなシステム(機能和声法の原形)が出来たのがバロック時代。
そして、そこまでの音楽語法の集大成をして「音楽の父」と呼ばれたバッハの登場がせいぜい300年前。それまでは、おそらく「音楽が「メロディとリズムとハーモニーで出来ている」などと言い切るところまで吹っ切れた発想はなかったのではなかろうか。
*
では、クラシック音楽において初めて「音楽はメロディとリズムとハーモニーで出来ている」というシンプルな視点で音楽を書いたのは誰か?ということになると、それこそハイドンではないかと思うわけなのだ。(と、ここでようやくハイドン先生の登場である)
バッハは(調性や平均律といった音楽の礎を作った点で)まさしく「音楽の父」ではあるけれど、彼の音楽はあくまで「対位法」だ。グレゴリオ聖歌で登場した「多声部音楽」の語法をとことんまで機能的に高め、調性や平均律というシステマチックな構造も把握し、それを「器楽」にまで応用する基礎を作った。
それゆえ彼の音楽は、現在のクラシック音楽の「起点」だが、同時に「対位法」という視点で進化してきたそれまでの教会系音楽の「デッドエンド(終点)」とも言えるような気がする。
それは、ある意味で後期ロマン派の最後の最後に、究極のクールさを持った十二音システムが登場し、進化の頂点を極めたと同時に「終点」となってしまったのに似ている。逆に言えば、そこまで究極に音楽の「純度」を煮詰めてしまったのだ。
それを、「メロディ」「リズム」「ハーモニー」というもっともシンプルな要素に還元して、音楽の新たな(別の方向への)「進化」を試みたのが、ハイドン(そして彼の時代の古典派と呼ばれる作曲家)たちだ。
彼(彼ら)は「対位法」や「調性システム」そして何より「キリスト教の重み」にがんじがらめになった音楽から、メロディとリズムとハーモニー以外の余計なものをそぎ取り、シンプルに「音を合成する」という原点に立ち返った。
それは、バッハまでの複雑で高純度に向かった多声部音楽の「進化」を思うと、ある意味「退化」に近い稚拙さにも聞こえる。
実際、中世〜ルネッサンス音楽〜バロック音楽から「バッハ」へと到達した音楽の流れを俯瞰して聞いてゆくと、この「古典派」の時代にいきなり音楽が「幼稚」になった感じがする。(なにしろ伴奏音型がドソミソだったりするし、ドミソの単純な和音が連打されるし)
しかし、それこそが「(普通の人間にとって)分かりやすい」そして「新しい(かつ普遍的な)」音楽スタイルだった。
それは、その後に「西洋クラシック音楽」の全盛期が到来し、実際にこの「ハイドン以降の音楽」に現代の聴衆もが魅せられ続けていることが証明している。
そんな彼(ハイドン)が作った「メロディとリズムとハーモニーだけで出来た音楽」を最もシンプルに現実化したのが「4声部」からなる「器楽」の合奏形態である〈弦楽四重奏〉。そして、それを「弦楽器」「管楽器」「打楽器」という中型アンサンブルに結晶させたのが「管弦楽(オーケストラ)」だ。
これは、まさしく「シンセサイザー(音響合成マシン)」の発想である。
まず「発信器(オシレータ)」=「楽器」を複数並べ、それをアンサンブルという形でブレンドし、「ソナタ形式」というような「構造物」として構成する。
そこでは、リズムを刻む「指揮者」は、「シークエンサー(テンポをシンクロさせる機構や回路)」であり「ミキサー(複数の音源を混ぜ合わせる混合器)」の役目を負う。
さらに、ハイドンの弦楽四重奏や管弦楽の世界では、メロディは細分化されてベロシティ(音量の増減)で制御され、リズムはそのスピードの変化による表現に還元される。
(バッハまでの音楽は、「テンポの変化」や「リズムの構造」と言った点にあまり気をかけていなかったが、ハイドンはこれを徹底的に解析し、音楽の主要素として活用し始める)
つまり、対位法的な整合性ではなく(さらに信仰とか情念とか精神でもなく)、どういうフレージングがどういう効果をもたらすか、どういう演奏法がどういう表現をもたらすか、テンポのどういう変化が聴き手にどんな反応をもたらすか…という、きわめて「職人的」な試行錯誤がそこにはある。
これはもう「科学者」そのものの視点なのだ。
だから、私が先の4チャンネルの(メロディとリズムとハーモニーしか出せない)音響モジュールを手にしたとき、最初に感じたのは「バッハ」ではなく「ハイドン(でありモーツァルト)」だった。
そしてコンピュータ制御の「シンセサイザー」という最新の機材を目にして感じたのは、ハイドンが育て上げた「オーケストラ」という「超アナログ音響合成マシン」の先駆性だったわけなのだ。
実際、ハイドンがエステルハージ家の楽長としてオーケストラや弦楽四重奏という「楽器」を手にした時、おそらくMIDI制御のシンセサイザーを手にした多くの作曲家たちと同じ感慨に打たれたのではなかったろうか。
このつまみを回すとこんな音が出る。ここでテンポをこう変化させるとこういう効果があがる。こういう響きとこういう響きをブレンドするとこういう世界が立ち現れる。男はこういうことが嬉しくてたまらない。
まさしく子供っぽい「音の遊び」だが、そういった膨大な「遊び(実験)」の中から、彼の「交響曲」や「弦楽四重奏曲」は生まれたのだ。
そして、このハイドンの音響実験によって生まれた「音楽」の上に、若い盟友モーツァルトが鮮やかなイマジネーションを加え、さらに弟子ベートーヴェンが究極まで拡大させた表現力の翼を広げ、西洋クラシック音楽はその後150年の栄華の時代へ突入する。
その時誕生したハイドンによる「音響合成マシン」…弦楽四重奏とオーケストラ…は、現代も音楽の世界で生き残っている。
ハイドンはまさしく、モーツァルトだけでなく全クラシック音楽愛好家にとっての「パパ」なのである。
*
■ゲヴァントハウス弦楽四重奏団*
2010年12月10日(金)19時開演 紀尾井ホール
・ハイドン
弦楽四重奏曲第80番変ホ長調Op.76-6、Hob. III-80
・モーツァルト
弦楽四重奏曲第17番変ロ長調「狩」K.458
・ベートーヴェン
弦楽四重奏曲第8番ホ短調「ラズモフスキー第2番」Op.59-2
■千住真理子withスーク室内オーケストラ
クリスマス・コンサート
*
12月16日(木) 19時開演 東京オペラシティ コンサートホール
・パッヘルベル:カノン
・ヘンデル:コントラバスと弦楽合奏のためのソナタ
・バッハ:主よ、人の望みの喜びよ
・ヘンデル:ラルゴ
・バッハ:2つのヴァイオリンのための協奏曲
・バッハ/グノー:アヴェ・マリア
・シューベルト:アヴェ・マリア
・コレルリ:クリスマス協奏曲
・バッハ:ヴァイオリン協奏曲第1番
■スーク室内オーケストラ 名曲コンサート
12月17日(金) 19時開演 紀尾井ホール
・モーツァルト
ディヴェルティメントニ長調k.136
・ハイドン
ピアノ協奏曲 ニ短調
・ディッタースドルフ
コントラバスとヴィオラための協奏交響曲
・チャイコフスキー
弦楽セレナーデOp.48
| 固定リンク
「2010年記事」カテゴリの記事
- 金管楽器の楽しみ(2010.12.10)
- ハイドン博士の音響合成マシン(2010.11.10)
- 鳥たちの作曲法(2010.10.10)
- ハレルヤコーラスはなぜニ長調なのか?(2010.09.10)
- 夏休み総力特集「ロックmeetsクラシック」(2010.08.10)
コメント