削除された内容 追加された内容
編集の要約なし
Kyube (トーク | 投稿記録)
語尾の統一、推敲
11 行
最初に[[w:MIDI|MIDI]]について解説します。元々計算機で音を扱う方法として、空気の振動を電気的な波形に変換し、それを離散化してデジタルデータとして扱うことができることを[[高等学校情報C]]で述べました。計算機上で、音を扱う方法は基本的にこれ1つしかありません。
 
コンピュータ上の音楽ファイルとしては[[w:WAV|WAV]]ファイル、[[w:MP3|MP3]]ファイル、[[w:Ogg Vorbis|Ogg Vorbis]]ファイルなど、様々な保存形式があり、これらはどれも異なった方法で音を扱っているように思えます。しかし、実際にはこれらはどれも同じデータ([[w:サンプルレート|サンプルレート]]などの違いはあれど)を扱っており、異なっているのはデータではなくデータを[[w:圧縮|圧縮]]する方法となっているです
 
残念なことにデータの圧縮は数学的な過程でこれらの違いを理解することは非常に困難である。フリーな圧縮形式であるOgg Vorbisの圧縮方法はWeb上で公開されているので、もしも興味があれば見てみるのもよいかも知れません<!-- 特に推奨はしないけれど ... 。-->([http://xiph.org/vorbis/doc/Vorbis_I_spec.html])。
 
ここまででコンピュータが音を扱う方法は基本的に1通りしか無いことを述べてました。MIDIはいくつかの方法で用いられますが、MIDIもまたコンピュータ上で音を扱う方法である。しかし、これまでに見てきた方法とは本質的に異なった方法で音を扱います。より正確にいえば、音そのものではなく楽譜のデータを扱う方法といった方がよいかも知れません。
 
もちろん楽譜と音は互いに異なったものである。楽譜は音そのものではなく、楽譜にそって演奏された音楽が音です。そのため、楽譜の情報を扱うMIDIと音を扱うOggなどの形式は本質的に異なった情報であるになります
 
ただし、ソフトウェアシンセサイザなどのソフトウェアを利用すると、あたかもMIDIファイルが音を扱うファイルであるかのようにMIDIファイルの内容を演奏できてしまいます。そのため、MIDIファイルが音を扱う形式であると述べても決して間違いとはいえません。しかし、MIDIファイルとOggファイルが扱う情報は本質的に異なったものであるということははっきりさせておく必要ります
 
===MIDIの構成===
 
音を扱う情報と楽譜を扱う情報は非常に異なっています
 
まず、楽譜が扱う情報は(あまり)曖昧さがありません。音の高さ1つを取っても例えばミとファの間には音は存在しないことになっています。一方、 音自体を情報として扱う視点から見れば、ミの音は周波数659Hzの音であり、ファの音は周波数698Hzの音(周波数については後述)であるので、その間には当然多くの音が存在し得ます。
 
このことから分かる通り、楽譜が扱う音は実際に音そのものとして存在し得る音よりもかなり少ない種類の音を扱います。このことは、情報をデジタル化すること処理を考えるとありがたいことなのある。なぜなら、少ない種類の情報はより少ない量の情報で表すことができるからである(より正確な議論は[[w:情報量|情報量]]を参照)。
 
ここまででMIDIが扱う情報の性質にいて述べました。次に、実際のMIDIがどのような情報を扱っているかについて述べます。まず最初に、どんな情報を扱うかを直観的に述べます。そのあと実際の情報の表し方も述べますが、これは[[w:プログラマ|プログラマ]]向けの内容なのでMIDIを使うことが目的ならそこは読まなくてもよいでしょう。
 
楽譜を扱う上で重要な情報はある音程の音を出力する事である。MIDIでは、この命令のことをNOTE_ONと呼びます。また、反対の命令として、ある音程の音の出力を取り止めることをNOTE_OFFと呼びます。
 
基本的なMIDIはNOTE_ONとNOTE_OFFの命令を繰り返すことで構成されます。しかし、楽譜に記述される情報はそれだけではありません。例えばある曲においては、楽譜の複数部分を同時に演奏する必要があります。例えば、[[w:ピアノ|ピアノ]]は両手で演奏される場合には、弾き手は楽譜の2つの部分を同時に演奏する必要があります。MIDIでは、これらの楽譜の部分をチャンネルと呼びます。MIDIを扱う場合には複数のチャンネルを扱う方法を規定する必要があります
 
また、実際の演奏で利用される楽器の種類も、楽譜によって指定されます。そのため、MIDIではいくつかの楽器を使い分ける必要があります。<!-- これらの情報は、通常トラックの最前部に記録され、演奏を始めるときに読み出されます。 -->
 
ここからは実際に上で述べられた情報がどのようにデジタルデータとして扱われているかについて述べます。MIDIは情報を扱う手段として
 
命令 データ
 
というフォーマットで記述される[[w:バイト]]列を使います。命令、データともにバイト列ですが、データの量は、命令の種類によって変化しているます。命令の種類は数多いのですが、ここではNOTE_ONと、NOTE_OFFだけを扱います。
 
各々の命令に対して、トラックを扱う手段が必要です。MIDIが同時に扱えるトラックは少なくとも16種類あることが保証されています。そのため、少なくとも16種類のトラックに対して、NOTE_ON、NOTE_OFFを送る命令があればよいわけであることになります
 
チャンネルn(n<16)に対するNOTE_ON命令は次の命令で表されます
 
0x9n 0x.. 0x..
55 行
0x8n 0x.. 0x..
 
となります。ここで、NOTE_OFFの場合には音の強さは関係を指定する必要ないのでデータの2バイト目は任意の値を設定できま
 
実際の演奏ではNOTE_ONとNOTE_OFFの間の時間、つまり対応する音の演奏時間も伝達されます。この時間のことをデルタタイム (Delta Time) と呼びます。デルタタイムは特殊な形式で書かれるのでMIDIファイルを読むときには注意が必要であるになります(rosegardenx.x.x/sound/MidiFile.cppのgetNumberFromMidiBytesを参照)。
 
まず、デルタタイムを表すバイトについて、最後のバイトについては0、それ以外のバイトについては1と、各バイトの最も左のビットを設定しま。これによってMIDIを扱うプログラムはどこまでがデルタタイムを表すバイトなのかを判断できます。実際のバイト列は次のようになります
 
1xxxxxxx 1xxxxxxx ... 1xxxxxxx 0xxxxxxx
 
実際の時間は各々のバイトについて最も左のバイビットを取り去り、それ以外のビットを全てつなげた値で計算しま。例えば、デルタタイムが1バイトで表されるときには、デルタタイムを表すバイト列は
 
0xxxxxxx
 
で表され、0から127=<math>2^7</math>単位までの時間経過を表すことができます。2バイトでは
 
1xxxxxxx 0xxxxxxx
 
となり、0から、16384=<math>2^{14}</math>単位までの時間経過されるすことができます
 
例えば、童謡'かえるのうた'の最初のフレーズである'ドレミファミレド'をチャンネル0で演奏するには(ただし、デルタタイムは160単位、音の強さは40としま)、
 
90 60 40 81 20 80 60 7f 00(ド)
83 行
90 60 40 81 20 80 60 7f 00(ド)
 
となります。 ここで、値は全て16進数でかかれています。途中の81 20は、上の数え方を利用すると
 
1000 0001 0010 0000 -> 000 0010 010 0000 = <math>2^8 + 2^5</math>= 128+32 = 160
 
となります
 
===MIDIソフトウェアシンセサイザ===
 
ここまででMIDIがどのように楽譜の情報をデジタル化するかを見てました。ここからはこの情報を実際に音の情報に変換する方法について述べます
 
最も簡単な音の合成は対応する音程の[[w:正弦波]]を順番に書き込んで行くことです。ただし、サンプルレートの問題があるので、手作業で正弦波を作成しても正しい音程で演奏されないことが予想されます。一般に正しいサンプルレートで演奏するには、サンプルレートを指定できる形式で保存し、後にその形式の音楽ファイルを再生するのが簡単です。<!-- (手作業で音楽ファイルを作るのは無駄でも不必要でもないしどちらかといえば面白いことだと思う。しかし、今必ずやるべきことではないようにも思う。もっとも先のことはわからないのだが ... 。) -->
 
ここでは正弦波を作成するプログラムとして、[[w:en:SoX]]を利用します。SoXは音楽ファイルを扱うための簡潔なコマンドラインプログラムで、機能の1つとして正弦波、矩形波の合成があります。具体的にはn Hz(nは整数)の正弦波を出力するには、
 
$sox infile outfile synth sine n
108 行
ファ:698Hz
 
(小数点以下切捨て)に対応する事がわかります
 
SoXでは作成した音楽ファイルをつなげて一つの音楽ファイルを作成することができます。音楽ファイルをつなげるためには、
114 行
$sox infile1 infile2 ... infilen outfile
 
のコマンドを利用しま
 
ここまでで簡単な音楽合成を行う方法を述べました。しかし、実際の音楽演奏では音は正弦波ではなく、より複雑な波形を持っていることが普通である
 
このような複雑な波形を合成するには、あらかじめ対応する楽器の波形を記録しておき、適宜その波形を出力することが有効な手段となります。このように波形のデータから音楽データを合成するソフトウェアをシンセサイザ ([[w:en:Synthesizer|en:Synthesizer]]) と呼ばれるびます。また、楽器に対応する波形データとしてサウンドフォント[[w:en:SoundFont|en:SoundFont]] (.sf) が知られています
 
ここではシンセサイザとしてTimidity++ ([[en:w:Timidity]]) を利用します。ここからはTiMidity++の使い方を説明しますが、既に何らかの方法でMIDIが再生できる場合にはこの章はとばして次に進んでください。
126 行
===MIDIシーケンサ===
 
ここまででMIDIを再生する方法について述べました。ここからはMIDIを作成する方法について述べます
 
MIDIを作成するソフトウェアをMIDIシーケンサと呼んでいます。Linuxで動くMIDIシーケンサとして有名なものに、[[w:en:Rosegarden|en:Rosegarden]]があります。ここからはRosegardenの説明をするので、他の方法でMIDIを作成する人は別の資料を探した方がよいでしょう。
 
====Rosegarden====