説明

演奏表情付け支援装置

【構成】 演奏表情付け支援装置(10)は、表示装置(18)を含み、フレージングに基づく演奏の表情付けを支援する。ユーザが指定したフレーズに対して演奏の表情付けを行う際、表示装置(18)には、テンポ、ダイナミクスおよびアーティキュレーションの3つの演奏表現の表情カーブ50が、同じ画面42上に、同じ時間軸で多重表示される。表情カーブ50は、マウス等の操作によって形状を変化させることが可能であり、ユーザは、この表情カーブ50の修正によって、指定したフレーズに対する演奏の表情付けを行う。
【効果】 テンポ、ダイナミクスおよびアーティキュレーションの関係性を把握し易いので、演奏の表情付けを容易かつ効率的に実行できる。

【発明の詳細な説明】
【技術分野】
【0001】
この発明は演奏表情付け支援装置に関し、特にたとえば、楽曲分析情報をユーザに提供することによって、ユーザ主導で行われるフレージングに基づく演奏の表情付けを支援する、演奏表情付け支援装置に関する。
【背景技術】
【0002】
近年、音楽コンテンツのデザインにおいて、演奏の表情付けの重要性が増してきている。演奏の表情付けとは、指定された音の並びに対して、音量、テンポおよびアーティキュレーションを含む演奏表現(演奏パラメータ)に変化を与え、音楽を活き活きしたものとして実体化する作業であり、人間の知性や感性の表れとして実施されるものである。なお、アーティキュレーションとは、音や音のつながりに影響をもたらす音の形の表現であり、スラー、スタッカートおよびアクセント等の記号やその表現を示す。
【0003】
演奏の表情付けに関する研究は、音楽系人工知能研究の1つとして取り組まれ、その多くは、ルール学習や事例ベース推論に基づく自動化技術の開発に焦点が当てられてきた。このような自動化技術は、音楽コンテンツの生産性の向上をもたらすが、一方では、ユーザが求める演奏表情に辿り着くことが必ずしも容易ではないという問題が残る。
【0004】
そこで、この発明者らは、非特許文献1などにおいて、演奏デザインにおける表情付けはユーザが主導で行い、煩雑な作業の部分を自動化技術で代替(支援)することによって、ユーザ所望の表情付けを効率的に実行できるシステムを提案している。非特許文献1の技術は、フレージングに焦点を当てたユーザ主導の演奏表情デザインシステムであって、フレーズ構造解析支援機能と演奏表情エディット機能とを備えている。フレーズ構造解析支援機能は、ユーザが部分的にフレーズの境界(構造)を指定すれば、残りのフレーズ構造については、GTTM(A Generative Theory of Tonal Music)を応用して解析できる機能であり、演奏表情エディット機能は、ユーザが表情付けしたいフレーズを任意に選択すると、そのフレーズに対応するテンポおよび音量(ダイナミクス)の表情カーブのそれぞれを各エディット画面に表示し、ユーザの操作に応じて各表情カーブを個別に修正していくことによって、ユーザ所望の演奏表情を形成する機能である。ユーザが選択したフレーズに表情付けが行われると、その表情付けは楽曲全体に反映され、演奏の表情付けの効率化が図られる。
【非特許文献1】「Mixtract:ユーザの意図に応える演奏表現デザイン支援環境」 (第17回大阪大学保健センター 健康科学フォーラム「音楽とウェルネスの学際的融合」,36−37,2009年11月)
【発明の概要】
【発明が解決しようとする課題】
【0005】
音楽経験者は、暗黙知としてフレーズの表現方法を理解しているが、演奏表現における「聴こえ」を実現する演奏パラメータ(テンポやダイナミクスなど)の組み合わせは、必ずしも一意ではない。また、フレーズ構造の演奏表現は、テンポ表現やダイナミクス表現などを有機的に組み合わせることによって、その個性が表出されるものである。しかしながら、非特許文献1の技術では、指定されたフレーズに対するテンポおよびダイナミクスの表情カーブを別個のエディット画面に表示し、各エディット画面において各表情カーブを個別に修正するようにしていたので、演奏パラメータ相互の関係性を把握し難い上、演奏パラメータのどのような組み合わせによってその演奏表現の「聴こえ」が実現されているのかを把握し難かった。
【0006】
また、ユーザは、選択したフレーズに対する演奏表現(表情カーブ)の修正(編集)と試聴とを繰り返すことによって、所望の表情付けを行うが、演奏生成に関わる方法論が規定されず、目安や手掛かりとなる情報が乏しい状態、たとえば楽譜情報(ピアノロール情報)のみを参考にして、演奏の表情付けを行うことは、必ずしも容易ではなかった。
【0007】
それゆえに、この発明の主たる目的は、新規な、演奏表情付け支援装置を提供することである。
【0008】
この発明の他の目的は、演奏に対する所望の表情付けを容易に実行できる、演奏表情付け支援装置を提供することである。
【課題を解決するための手段】
【0009】
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、この発明を何ら限定するものではない。
【0010】
第1の発明は、フレージングに基づく演奏の表情付けを支援する演奏表情付け支援装置であって、ユーザによって指定、もしくは、自動解析された階層的フレーズ構造を構成する各フレーズに対して、テンポ、ダイナミクスおよびアーティキュレーションの3つの表情カーブを、同じ画面に、同じ時間軸で多重表示する第1表示手段、および画面に表示された表情カーブの修正を受け付ける修正受付手段を備える、演奏表情付け支援装置である。
【0011】
第1の発明では、演奏表情付け支援装置(10)は、第1表示手段(12,18,42,S13)を備え、ユーザが行うフレージングに基づく演奏の表情付けを支援する。第1表示手段は、たとえば、ユーザによる指定や自動解析によって楽曲の階層的フレーズ構造の解析がなされた後、その階層的フレーズ構造を構成する複数のフレーズから任意に選択されたフレーズに対して、テンポ、ダイナミクスおよびアーティキュレーションの3つの演奏表現の表情カーブ(50)を、同じ画面上に、同じ時間軸で多重表示する。修正受付手段(12,16,42,S51)は、ユーザが行うマウス等の操作によって、表情カーブの修正を受け付ける。この表情カーブの修正により、ユーザは、そのフレーズに対する演奏の表情付けを行う。
【0012】
第1の発明によれば、3つの表情カーブを、同じ画面上に、同じ時間軸で多重表示するので、テンポ、ダイナミクスおよびアーティキュレーションの関係性が把握し易くなる。つまり、これら3つの演奏表現の関係性を総合的に判断しながら編集できるので、ユーザは、演奏の表情付けを容易に行うことができる。
【0013】
また、暗黙知として存在していたフレーズの表現の仕方、つまりテンポ等の演奏パラメータをどのように組み合わせてその表現を実現したかを外在化できるので、自身の知識を形式化することができ、第3者に演奏表現の技法をより具体的に伝えることができるようになる。
【0014】
第2の発明は、第1の発明に従属し、フレーズ内の各音符の頂点らしさを算出する算出手段、および各音符の頂点らしさを識別可能に表示する第2表示手段をさらに備える。
【0015】
第2の発明では、各音符の頂点らしさ、つまり演奏表現における各音符の重要度を定量的に見分けるための指標となるものを算出する算出手段(12,14,S7)、および算出した各音符の頂点らしさを識別可能に表示する第2表示手段(12,18,40,S9)を備える。第2表示手段は、たとえば、各音符の頂点らしさを、ピアノロール上の各音符の描画色の濃淡情報として表示する。
【0016】
第2の発明によれば、フレーズ内のどの音符が重要であるかを定量的に判断できるようになるので、これを参照することにより、ユーザは、演奏の表情付けを容易かつ効率的にできるようになる。
【0017】
第3の発明は、第2の発明に従属し、算出手段は、所定の音楽理論に基づく音符の頂点らしさを判定するためのルール群を記憶するルール記憶手段、およびフレーズ内の各音符とルール群のそれぞれとを照合し、該当するルールがある音符には、当該ルールに割り当てられた評価ポイントを、その音符の頂点らしさを示すエネルギー値として加算する加算手段を含む。
【0018】
第3の発明では、算出手段(12,14,S7)は、ルール記憶手段(14)を含み、ルール記憶手段には、たとえば、保科の提唱した音楽解釈理論に基づくルール群が記憶される。各ルールには、重要度などに応じて評価ポイントが設定される。つまり、音符の頂点らしさの計算のための条件および評価ポイント値をルールとして記述している。加算手段(12,S47)は、フレーズ内の各音符(具体的には、その音高、音価および和声など)と、ルール記憶手段に記憶されたルール群とを比較照合し、該当するルールがある音符には、該当するルールに割り当てられた評価ポイントを、その音符の頂点らしさを示すエネルギー値として加算する。各音符についてのエネルギー値の計算結果は、メモリ(14)等に適宜記憶される。
【0019】
第3の発明によれば、算出されたエネルギー値の大きさによって、各音符の頂点らしさ、つまり各音符の重要度を定量的に表すことができる。また、音符の頂点らしさの計算のための条件および評価ポイント値をルールとして記述していることから、その計算の根拠をユーザに示すことも容易に実現される。したがって、ユーザ自身による頂点の推定や把握を助けるという視点において、演奏の表情付けの支援を行うことができる。
【発明の効果】
【0020】
第1の発明によれば、表情カーブを修正するときに、テンポ、ダイナミクスおよびアーティキュレーションの関係性を把握し易くなるので、演奏の表情付けを容易に行うことができる。
【0021】
第2の発明によれば、フレーズ内のどの音符が重要であるかを定量的に判断できるようになるので、これを参照することにより、ユーザは、演奏の表情付けを容易かつ効率的にできるようになる。
【0022】
第3の発明によれば、音符の頂点らしさの計算のための条件および評価ポイント値をルールとして記述していることから、その計算の根拠をユーザに示すことも容易に実現される。したがって、ユーザ自身による頂点の推定や把握を助けるという視点において、演奏の表情付けの支援を行うことができる。
【0023】
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う後述の実施例の詳細な説明から一層明らかとなろう。
【図面の簡単な説明】
【0024】
【図1】この発明の一実施例の演奏表情付け支援装置の内部構成を示すブロック図である。
【図2】図1の演奏表情付け支援装置の表示装置に表示されるフレーズ構造解析画面の一例を示す図解図である。
【図3】頂点推定ルールの分類を示す図解図である。
【図4】頂点推定ルールの一部を示すテーブルである。
【図5】頂点推定ルールの他の一部を示すテーブルである。
【図6】図1の演奏表情付け支援装置の表示装置に表示される演奏表情編集画面の一例を示す図解図である。
【図7】図1の演奏表情付け支援装置のCPUが実行する演奏デザインの全体処理の動作の一例を示すフロー図である。
【図8】図7におけるフレーズ構造解析処理の動作の一例を示すフロー図である。
【図9】図7における頂点らしさの計算処理の動作の一例を示すフロー図である。
【図10】図7における表情カーブの編集処理の動作の一例を示すフロー図である。
【発明を実施するための形態】
【0025】
図1を参照して、この発明の一実施例である演奏表情付け支援装置(以下、単に「支援装置」という。)10は、階層的なフレーズ表現を基本とした、ユーザ主導で行う演奏の表情付けを支援するための装置である。支援装置10は、たとえばパーソナルコンピュータのような電子計算機を用いて構成され、詳細は後述するように、ユーザによる演奏の表情付けを支援するために、フレーズ構造解析支援機能、頂点解析機能および演奏表情編集機能などを備えている。
【0026】
支援装置10は、CPU12を含む。CPU12は、マイクロコンピュータ或いはプロセサとも呼ばれ、支援装置10の全体的な制御を実行する。CPU12には、バス等を介して、メモリ14、入力装置16、表示装置18および音源20等が接続される。
【0027】
メモリ14は、図示は省略するが、ROM、HDDおよびRAM等を含む。ROMやHDDには、CPU12がこの演奏表情付け支援処理を行うためのプログラムおよびデータ、ならびにその他必要なプログラムおよびデータが記憶される。RAMは、CPU12の作業領域またはバッファ領域として使用される。つまり、CPU12は、ROMやHDDに記憶されたプログラムおよびデータをRAMにロードし、これらプログラムに従って支援装置10の各部の動作を制御し、各種処理を実行する。また、CPU12は、演奏の表情付け処理の進行などに応じて適宜生成される演奏データ等の一時的なデータをRAMに記憶する。
【0028】
メモリ14(ROMやHDD)に記憶されるプログラムとしては、表示装置18に所定の画面を表示するための画面表示プログラム、ユーザが入力した部分的なフレーズ構造に基づいて残りのフレーズ構造を解析するためのフレーズ構造解析支援プログラム、各音符の頂点らしさを推定するための頂点推定プログラム、ユーザによって指定されたフレーズにおける表情カーブを生成するための表情カーブ生成プログラム、ユーザによる表情カーブの修正などに応じて演奏データを生成(更新)するための演奏データ生成プログラム、生成された演奏データに応じた音声(演奏音)を出力するための演奏音出力プログラム等がある。
【0029】
メモリ14に記憶されるデータとしては、表示装置18に表示される文字データや映像データ、各音符の頂点らしさを推定するためのルールに関するデータ、および所望の楽曲の楽譜データ(音符の並びや演奏記号の情報)等がある。楽譜データは、たとえば、標準MIDIファイル(SMF)形式やMusicXML形式のデータを用いることができ、MIDIのスコアエディタ、またはMusicXMLのインポート機能などを利用して適宜入力されてメモリ14に記憶される。
【0030】
なお、上述のプログラムおよびデータ等は、CD−ROM、DVD−ROMおよびメモリカード等の各種情報記録媒体に記録されているものを読み出して使用してもよいし、LANあるいはインターネットのようなネットワーク上のサーバ等から取得して使用してもよい。
【0031】
入力装置16は、ユーザが操作する操作手段であり、キーボードおよびポインティングデバイス等を含む。ポインティングデバイスとしては、マウス、タッチパネル、トラックボール、トラックパッド、デジタイザまたはタブレット等が用いられる。ユーザによる入力装置16の操作に応じた操作信号(操作情報)は、CPU12に与えられ、CPU12は、与えられた操作信号に基づいて処理を実行する。
【0032】
表示装置18は、LCDやCRT等であり、CPU12から与えられる表示信号に基づいて、後述するピアノロール画面およびエディット画面などの各種画面を表示する。
【0033】
音源20は、CPU12の制御の下、RAMに生成される演奏データ(表情付けされた演奏データ等)に基づいて音声信号を生成し、音声出力装置22に出力する。音声出力装置22は、D/Aコンバータ、アンプおよびスピーカ等を含み、音声信号に応じた音声(演奏音)を出力する。なお、音源20としては、音源を備えたサウンドカード等の内部音源を使用することもできるし、電子ピアノ等の外部音源を使用することもできる。
【0034】
このような構成の支援装置10は、上述のように、階層的なフレーズ表現(フレージング)に焦点を当て、ユーザ主導で行われる演奏の表情付けを支援する。ここで、この発明の理解に必要な範囲で、音楽表現におけるフレーズ構造について簡単に説明する。なお、演奏家や作曲家によっては、フレーズのことをグループと表現している場合があるが、フレーズとグループとは同義語であるので、ここでは、フレーズの呼称を使用することとする。
【0035】
どのような音楽においても、ある時刻における音とそれに前後する音との間には何らかの関係を持ったまとまりが形成される。このまとまりをフレーズという。複数のフレーズはさらに関連付けられて、階層的なフレーズ構造が形成される。また、フレージングとは、音楽の流れを適切な位置で区切る(つまりフレーズを設定する)ことによって曲に呼吸を与えることであり、フレージングを踏まえて演奏することによって演奏に抑揚が生まれる。つまり、楽曲の階層的フレーズ構造をいかに聴取者へ伝達するかが、音楽表現の主題であると言っても過言ではない。
【0036】
ところで、作曲家が用意した楽譜から解釈されるフレーズ構造は必ずしも1つではなく、多義性が存在する。演奏家や指揮者などは、フレーズ構造の可能な解釈の中から1つを定め、そのフレーズ構造が伝わるように演奏表現として具現化している。また、フレーズ構造の演奏表現も必ずしも1つではなく、テンポ、ダイナミクスおよびアーティキュレーションの組み合わせによって演奏の個性が表出される。つまり、ユーザが望む演奏デザインを行うためには、楽曲のフレーズ構造をどのように解釈(設定)し、そのフレーズ構造をどのように表現するのかが重要となる。しかし、楽曲全体の階層的なフレーズ構造、およびそのフレーム構造の表現方法の全てを、何の手掛かりもないままユーザが決定していくことは、多大な労力を必要とすると共に、初心者では能力的に困難な作業となる。
【0037】
そこで、支援装置10では、あくまでもユーザ主導で演奏の表情付けを行うことを前提として、特定のルールや事例参照などに基づく楽曲分析情報(フレーズ構造解析情報や頂点解析情報など)をユーザに提供することによって、ユーザ主導で行われる演奏の表情付けを支援する。
【0038】
なお、この実施例では、ピアノのような打鍵楽器を対象として説明するが、支援装置10は、打鍵楽器以外の楽器、たとえば、弦楽器、管楽器、打楽器、およびそれらの複合にも適用可能である。
【0039】
以下には、支援装置10が提供する演奏表情付け支援処理の一連の流れについて、一例を挙げて説明する。支援装置10を用いて演奏の表情付けを行う作業は、簡単にいうと、(1)一列に連なるフレーズ群(プライマリフレーズライン)の決定、(2)プライマリフレーズライン中のフレーズに対しての頂点の決定、(3)頂点情報を利用したプライマリフレーズラインの演奏デザイン、(4)プライマリフレーズラインの上位構造に対するまとまり感の付与、という流れで行われる。支援装置10は、ユーザに入力や選択動作を行わせるためのGUI(Graphical User Interface)画面を表示装置18に適宜表示し、ユーザによる入力指示に応じた楽曲分析情報を提供しながら、インタラクティブに演奏表情付け支援処理を実行する。なお、演奏デザインの進行に応じて、音声出力装置22から演奏音を出力するための演奏データは適宜生成され、たとえば、表示装置18の画面上に表示される試聴ボタン(図示せず)をクリックすることによって、ユーザは、任意段階での演奏音の試聴が可能である。以下、具体的に説明する。
【0040】
支援装置10を用いて演奏の表情付け作業を行うユーザは、先ず、所望の楽曲の楽譜情報(楽譜データ)を支援装置10に入力する、或いは予め支援装置10のメモリ14等に楽譜情報が記憶された楽曲の中から所望の楽曲を選択する。表情付けを行う楽曲が決定すると、ユーザは、支援装置10のフレーズ構造解析支援機能を利用して、楽曲のフレーズ構造を決定する。図2は、表示装置18の画面上に表示されるフレーズ構造解析画面の一例を示している。
【0041】
具体的には、フレーズ構造を解析する際には、支援装置10では、その楽曲の楽譜情報を示すピアノロール画面30がGUIとして表示装置18に表示される(図2の上部参照)。ユーザは、ピアノロールの任意の部分、たとえば楽曲最初の数小節や中盤の数小節を選択して、概ね1〜数小節分の長さを目安に、一列に連なるフレーズ群(プライマリフレーズライン)を形成する。つまり、楽曲の任意の部分において、ピアノロール上に数個の区切り線を入れることによって、フレーズ境界を部分的に指定する。
【0042】
ユーザがフレーズ境界を部分的に指定すると、支援装置10では、ユーザが指定した部分以外のフレーズ境界および階層的フレーズ構造が、GTTM(A Generative Theory of Tonal Music)の境界判定を行うルール(GPR:Grouping Preference Rule)を利用したexGTTM(Hamanaka,M., Hirata,K. andTojo,S.: Implementing“A Generative Theory of Tonal Music”,Journal of New Music Research, Vol.35, No.4, pp.249-277(2006)参照)を利用して自動解析される。
【0043】
フレーズ構造の解析処理が終了すると、階層的フレーズ構造32がGUIとして表示装置18に表示される(図2の下部参照)。図2において、斜線で示されるフレーズ構造(U(0)−U(5)のフレーズ)32aがユーザ指定によるフレーズ構造であり、ドット模様で示されるフレーズ構造(C(0)−C(27)のフレーズ)32bが支援装置10によって自動解析された上位および下位のフレーズ構造である。なお、階層的フレーズ構造32中に示される複数の縦線34は、ユーザのフレーズ境界指定に依存しない自動処理によって提示されるフレーズ境界の候補である。ユーザは、このフレーズ境界の候補を参照して、フレーズ構造を修正することもできる。また、図面の都合上、斜線やドット模様を付してユーザ指定のフレーズ構造32aと自動解析によるフレーズ構造32bとを区別しているが、実際には、任意の色を配色することによって区別しており、自動解析によるフレーズ構造32bにおいては、さらに上位構造と下位構造とで違う色を配色して区別できるようにしている。
【0044】
また、支援装置10では、ユーザによってフレーズ境界が入力または更新されると、自動演奏を再生するための演奏データが順次生成される。楽譜情報のみを手掛かりとしてフレーズ境界を判断することは、ユーザにとって必ずしも容易な作業ではないが、楽曲の試聴機能を利用することで、専門家以外のユーザでもほぼ直感的にこの作業を実施できる。
【0045】
上述の作業で意図するフレーズ構造が得られなかった場合には、ユーザは、適宜、フレーズ構造を編集する。たとえば、あるフレーズを選択して、そのフレーズとその直前または直後のフレーズとの境界位置を移動させることによって、修正作業を実施する。ユーザによって修正されたフレーズ構造の上位構造および下位構造は、自動的に再解析が実施され、この作業を繰り返すことにより、最終的にユーザの意図するフレーズ構造に近づけていくことができる。
【0046】
なお、ユーザの指定するフレーズ境界は、GTTMのプレファランスと反駁することがあるが、この際には、ユーザ指定のフレーズ境界が優先され、GTTMの支持するデフォルトプレファランスの重みを下げることによって自動解析処理自体のユーザ適合が図られる。また、支援装置10には、GPRのユーザプレファランスを、ユーザが指定したフレーズ境界をサポートするものになるように更新していく機能を備えるようにしてもよい。この場合には、支援装置10が実行するフレーズ構造の自動解析に関して、GPRの基本プレファランスと随時更新されるユーザプレファランスとのどちらを優先させるかをユーザが選択できるようにしてもよい。さらに、ユーザのフレーズ指定作業を補助するものとして、旋律外形の計算により、ユーザが指定したフレーズと同型のフレーズを検出する機能を備えるようにしてもよい。
【0047】
上述のような作業によってユーザが望むフレーズ構造が得られると、続いて、支援装置10のフレーズ頂点解析機能を利用して、プライマリフレーズライン中のフレーズに対しての頂点を決定する。
【0048】
具体的には、フレーズに対しての頂点を決定する際には、先ず、ユーザは、プライマリフレーズラインに含まれるフレーズ群の中から1つのフレーズを選択する。ユーザがフレーズを選択すると、支援装置10の表示装置18には、選択したフレーズ部分のピアノロール画面が表示され、支援装置10では、選択されたフレーズに含まれる各音符の頂点らしさ(尤度)が推定される。
【0049】
この実施例では、保科の提唱した音楽解釈理論(保科洋:生きた音楽表現へのアプローチ,エネルギー思考に基づく演奏解釈法,音楽之友社,(1999)参照。以下、「保科理論」という。)に基づいて、頂点解析を行うようにしている。
【0050】
保科理論では、楽譜の解析から得られるフレーズにおいて、最もエネルギー値が高い音符を頂点または重心と定義している。そして、音符のエネルギー値を音量やテンポ等の演奏表現上での制御に置き換えていくことで、作曲者の意図に沿った演奏が可能になると説明している。頂点の演奏表現法は一意ではないが、頂点を中心とした表情カーブを描くことによって、音楽的な破綻を避けた演奏の表情付け(演奏デザイン)が可能となる。
【0051】
そこで、この実施例では、保科理論に即した頂点らしさの推定方法を定式化し、フレーズが構成する音符が持つエネルギー値を推定して表示することによって、ユーザが演奏の表情付けを実行する上での目安あるいは手掛かりとなる情報を提示している。
【0052】
具体的には、保科理論では、音高の高い音(つまり音形輪郭における頂点音)、音価の長い音、および各音の緊張-弛緩構造における緊張音は、エネルギー値(つまり頂点らしさ)が高いとされる。また、和声によって頂点らしさは変化し、フレーズの最終音は頂点にならないという原則も与えられている。この実施例では、これらの音形輪郭や和音進行の原則をルールの条件節として使用できるように類型化すると共に、臨時記号などに関するルールを追加している。図3−5には、頂点らしさの計算に使用されるルール群の一例を示す。図3に示すように、頂点らしさの計算に用いるルール群は、音価、音高、旋律的緊張-弛緩、音積(和声)、グループおよびその他の6つに分類される。また、ドミナント・モーションなど音楽的に意味を持つ音の並びの表現にも対応するため、各ルールにおいては、該当する音符の他に、先行音および後続音にも評価ポイントを設定している場合がある。
【0053】
図4および5に示すように、音価に属するルールとしては、たとえば「隣接する2音の第1音が後続音より短いとき、後続音に1ポイント加算する。」というルールがあり、音高に属するルールとしては、たとえば「隣接する2音の第1音が後続音より低いとき、後続音に1ポイント加算する。」というルールがあり、旋律的緊張-弛緩に属するルールとしては、たとえば「倚音の音価が後続音より長いとき、その倚音に3ポイント加算する。」というルールがある。また、音積に属するルールとしては、たとえば「I6の和音には1ポイント加算する。」というルールがあり、グループに属するルールとしては、たとえば「グループ(つまりフレーズ)の開始音には1ポイント加算する。」というルールがあり、その他に属するルールとしては、たとえば「アクセント記号が付された音には1ポイント加算する。」というルールがある。
【0054】
各音符の頂点らしさの計算は、各ルールに適合するか否かを判定していき、該当するルールがあったときに、そのルールに割り当てられた頂点らしさの評価ポイントを、その音符のエネルギー値として加算する処理によって実行される。このエネルギー値の合計ポイントは、音符の頂点らしさを表し、合計ポイントの高い音符が、頂点音として表現することが好ましい音符とされる。各音符についての計算結果は、メモリ14等に適宜記憶される。
【0055】
なお、ここで適用したルール群は単なる例示であり、他のルールを適用して音符の頂点らしさを計算してもよい。たとえば、図4および5に示すルール群の一部のみを用いることもできるし、図4および5に示すルール群に他のルールを付加することもできる。また、保科理論とは別の理論に基づくルール群を適用することもできる。さらに、特定のルールに該当するか否かで頂点らしさを推定することにも限定されず、たとえば事例参照によって頂点らしさを推定することもできる。
【0056】
上述のような方法でフレーズ内の各音符の頂点らしさが推定されると、支援装置10の表示装置18には、ユーザが各音符の頂点らしさを識別できるように、ピアノロール上の各音符の描画色の濃淡情報などとして表示される。ユーザは、この各音符の頂点らしさの情報を適宜参照して、フレーズの頂点音を指定する。ただし、フレーズの頂点音は、支援装置10によって自動的に決定されてもよく、たとえば、頂点らしさのポイントが1番高い音符を頂点音として自動的に決定するようにしてもよい。
【0057】
フレーズの頂点音が決定すると、続いて、支援装置10の演奏表情編集機能を利用して、選択したフレーズに対する演奏デザイン(演奏の表情付け)を行う。
【0058】
具体的には、フレーズの頂点音が決定すると、支援装置10では、テンポ、ダイナミクスおよびアーティキュレーションの3つの表情カーブのデフォルト値が設定され、ユーザからの指示に応じて、表情カーブがGUIとして表示装置18に表示される。表情カーブのデフォルト値としては、決定した頂点音に対するシンプルな山型の表情カーブ、算出した各音符の頂点らしさに応じた表情カーブ、または頂点音に依存しない直線や自由曲線の表情カーブなどが設定される。これらは、ユーザによって選択可能にされてもよいし、自動的に決定されてもよい。ユーザは、表示画面18に表示された3つの表情カーブの形状を修正(編集)することによって演奏の表情付けを実施する。たとえば、マウスによるドラッグ操作によって表情カーブの形状を修正するとよい。
【0059】
図6には、表示装置18に表示される演奏表情編集画面の一例を示す。演奏表情編集画面は、画面上部のピアノロール画面40、および画面下部のエディット画面42を含む。なお、ピアノロール画面40およびエディット画面42においては、横軸が時間軸を表している。エディット画面42の左部には、3つ表示ボタン、つまりD(ダイナミクス)ボタン44、T(テンポ)ボタン46、およびA(アーティキュレーション)ボタン48が設けられており、これら表示ボタン44,46,48をユーザがオンにすると、対応する演奏表現の表情カーブ50がエディット画面42上に点線表示される。たとえば、Dボタン44のみをオンにすると、ダイナミクスカーブのみが表示され、3つの表示ボタン44,46,48の全てをオンにすると、ダイナミクスカーブ、テンポカーブおよびアーティキュレーションカーブが多重表示される。つまり、エディット画面42には、テンポ、ダイナミクスおよびアーティキュレーションの3つの表情カーブ50を同じ時間軸上に多重表示することが可能である。
【0060】
また、表示ボタン44,46,48の横に設けられるエディットラジオボタン52で選択された表情カーブ50は、実線で表示され、ユーザは、入力装置16のマウスなどを操作することにより、エディット画面42上でその形状を直接修正(編集)できる。この編集操作を各表情カーブ50について行うことによって、ユーザは、所望の演奏表情を形成する。
【0061】
このとき、エディット画面42の下部に設けられるShow apecesのチェックボックス54を指定すると、ピアノロール画面40上に各音符の頂点らしさの情報が表示される。図6では、図面の都合上、密度が異なるように音56の塗りつぶしのパターンを変化させ、そのパターンによって表現される密度の違いによって、各音56の頂点らしさの違いを表現している。ただし、実際には、任意の色を配色し、その濃淡情報によって頂点らしさを識別可能に表示している。この実施例では、頂点らしさが高ければ色が濃く、頂点らしさが低ければ色が薄くされる。ただし、その他の方法、たとえば頂点らしさの高い順に番号を付けるなどして、各音符の頂点らしさの違いを表現してもよい。
【0062】
また、エディット画面42の下部に設けられるShow articulationのチェックボックス58を指定すると、たとえば、エディット画面42に表示されるデフォルト表情カーブが、各音符の頂点らしさに応じた表情カーブとなり、チェックボックス58の指定を外すと、頂点音に対するシンプルな山型の表情カーブとなる。
【0063】
そして、Reset curvesボタン60が押されると、選択したフレーズに対する表情カーブが更新され、この表情付けは、残りのフレーズに対しても反映される。また、設定装置10では、プライマリフレーズラインの上位構造に対しても、頂点情報に基づいて表情カーブのデフォルト値が自動設定される。この上位構造については、その構造がまとまりをもって聞かれる程度に控えめの表情カーブが付与される。なお、ユーザは、上記と同様の操作を行うことによって、この上位フレーズの表情カーブを編集することも可能である。
【0064】
階層的フレーズ構造の各フレーズの表情カーブが設定されると、これら表情カーブは合成され、楽曲全体としての表情カーブが生成される。楽曲全体(階層的フレーズ構造全体)での各表情カーブの算出方法を以下に示す。
【0065】
テンポカーブ自体は、指数表現、すなわち変化なしの場合は0、テンポが倍になる場合は1、テンポが半分になる場合は−1として与えられる。楽曲全体でのテンポカーブTempo(t)は、式(1)で与えられる。
【0066】
式(1)

【0067】
ここで、tは楽譜時間、GroupTempo(t)は楽譜上での時刻tをその範囲に持つフレーズのテンポカーブ、wはそのフレーズの重みを示す。また、各音の発音時刻および消音時刻は、Tempo(t)の積分値によって定められる。つまり、楽譜上の時刻としてt,tに配置されたイベント間の経過時間Time(t,t)は、テンポカーブが指数で表記されていること、およびテンポが時間進行の逆数になることから、式(2)によって表される。
【0068】
式(2)

【0069】
ここで、DeltaDurationは、曲全体のbpm(Beats Per Minute)と式(2)での積分区間の分解能によって規定される値である。このような計算を実施することによって、指揮システム等の実時間のスケジューラを構成する際に、拍以下の単位で、だんだん速くする或いはだんだん遅くする等の処理をシンプルに実装できる。
【0070】
上述のテンポカーブと同様に、楽曲全体でのダイナミクスカーブDyn(t)は、式(3)によって与えられる。各音の音量の計算についても、上述の発音・消音と同じく、楽譜上での時刻tをその範囲に持つフレーズのダイナミクスカーブの足し合わせによって計算される。
【0071】
式(3)

【0072】
ここで、tは楽譜時間、GroupDyn(t)は楽譜上での時刻tをその範囲に持つフレーズのダイナミクスカーブ、wはそのフレーズの重みを示す。ダイナミックスカーブは、MIDIにおけるvelocity(音の強さ)を基準として設定されることから、楽譜上での時刻tの音符のvelocityは、式(4)によって計算される。
【0073】
式(4)

【0074】
ここで、StdVelは、デフォルトのvelocity設定値である。
【0075】
また、この実施例では、打鍵楽器を対象としているので、アーティキュレーションの表現における主要な制御対象は、各音符のノートオフのタイミングとなる。i番目の音符の楽譜上の終了時間NOffset(i)は、式(5)によって設定される。
【0076】
式(5)

【0077】
ここで、NOnset(i)およびNTV(i)のそれぞれは、i番目の音符の楽譜上の開始時間および音価を示す。GroupArtcltn(t)は、その音符が含まれるフレーズのアーティキュレーションカーブの時刻tにおける比率を示す。NOffset(i)が実際に発行される時間は、式(2)に従って計算される。
【0078】
なお、この支援装置10では、楽譜情報(楽譜データ)として、クレッシェンド、リタルダントおよびスタッカート等の演奏記号が付加されている場合には、それらをルール処理によって表情カーブに展開することもできる。演奏記号が適用されると、その演奏記号に対応する新たなフレーズが形成され、対応する表情カーブのデフォルト値が設定される。
【0079】
このようにして、楽曲全体としての表情カーブは生成される。なお、選択したフレーズの表情カーブを編集する際には、ユーザは、必要に応じて、各音の開始時刻、終了時刻および音量を個別に設定することもできる。また、プライマリフレーズラインよりも、上位構造の演奏デザインを重視したくなった場合には、予め設定されたプライマリフレーズラインの重み係数を下げ、上位構造をあらためてプライマリフレーズラインとして再設定して編集操作を継続してもよい。また、上述の一連の過程は、必要に応じて前の操作に戻り、処理を繰り返すこともできる。
【0080】
支援装置10では、上述のようなユーザによる表情カーブの修正に応じて、自動演奏を再生するための演奏データが生成または更新され、ピアノロール画面40のプレビュも更新される。そして、ユーザは、ピアノロール画面40およびエディット画面42に表示される視覚情報を参考にしながら、試聴と上述の編集操作とを繰り返すことにより、所望の演奏表情を形成していく。
【0081】
この編集操作の際には、テンポ、ダイナミクスおよびアーティキュレーションの3つの表情カーブ50が、エディット画面42上に、同じ時間軸で多重表示されるので、ユーザは、これら演奏表現の関係性を把握し易くなる。つまり、これら3つの演奏表現の関係性を総合的に判断しながら編集作業を実行できるようになる。また、テンポや音量などの演奏表現をどのように組み合わせることで、その演奏表情が出来上がっているかを認識できるので、ユーザは、演奏の表情付けを容易に行うことができるようになる。
【0082】
また、ピアノロール画面40に頂点らしさの情報が表示されるので、どの音符が重要であるかを定量的に判断できるようになり、これによってもユーザは、演奏の表情付けを容易に実行できるようになる。
【0083】
なお、1分間程度の中級者向けのピアノ曲に対して表情付けを行う場合、対象音符は概ね500音程度であり、それぞれに演奏表情を付けることは困難な作業である。しかし、支援装置10を用いた場合、ユーザが指定するフレーズ(境界)は10数個であり、ユーザが指定したフレーズの表情カーブを修正するだけで演奏の表情付けが実行できるので、演奏デザインの効率化という観点において、支援装置10は有効であることがわかる。
【0084】
続いて、上述のような支援装置10の動作の一例をフロー図に従って説明する。具体的には、支援装置10のCPU12が、図7に示す全体処理を実行する。図7を参照して、CPU12は、全体処理を開始すると、ステップS1で、楽譜情報(楽譜データ)を取得し、その楽譜情報をピアノロール形式で提示する。すなわち、メモリ14等に記憶されたユーザ所望の楽曲の楽譜情報を読み出し、その情報に基づいてピアノロール画面を生成して表示装置18の表示画面に表示する。次のステップS3では、詳細は後述するフレーズ構造の解析処理を実行する。ステップS3で楽曲のフレーズ構造が決定すると、ステップS5に進む。
【0085】
ステップS5では、フレーズ選択の入力があるか否かを判断する。すなわち、ステップ3で決定されたフレーズ構造における一連のフレーズ群の中から、ユーザが入力装置16等を用いて1つのフレーズを選択したか否かを判断する。ステップS5で“YES”の場合、すなわちフレーズ選択の入力がある場合には、ステップS7に進む。一方、ステップS5で“NO”の場合、すなわちフレーズ選択の入力がない場合には、ステップS17に進む。
【0086】
ステップS7では、詳細は後述する頂点らしさの推定処理を実行し、ステップS9に進む。ステップS9では、頂点らしさの提示、つまり頂点音の候補の提示を行う。たとえば、ピアノロール画面上の音に任意の色を配色し、その濃淡情報によって頂点らしさを識別可能に表示する。
【0087】
次のステップS11では、頂点指定の入力を受け付ける。ただし、ユーザによる頂点指定が無い場合や、自動決定に設定されているような場合には、ステップS7で算出した各音符の頂点らしさに基づいて、フレーズの頂点音を自動的に決定してもよい。また、ユーザによる頂点指定の入力があった場合には、その情報をユーザプレファランスとして適宜記憶しておき、頂点推定ルールのパラメータなどをそのユーザに合うように更新していくようにすることもできる。
【0088】
次のステップS13では、頂点情報に基づく表情カーブの初期値を設定し、提示する。たとえば、ステップS11で決定された頂点音を頂点とする山型形状となるようにダイナミクスカーブやテンポカーブのデフォルト値を設定したり、ステップS7で推定した頂点らしさに応じた形状になるようにダイナミクスカーブやテンポカーブのデフォルト値を設定したりする。どのようなデフォルト値を取るかはユーザが選択できるようにすることもできる。そして、ユーザからの入力指示に応じて、各表情カーブをGUIとして表示する。たとえば、ユーザが、テンポ、ダイナミクスおよびアーティキュレーションの3つの表情カーブを表示するよう入力したときは、これら3つの表情カーブを同じ画面上に、同じ時間軸で多重表示する。
【0089】
次のステップS15では、後述する表情カーブの編集処理を実行し、ステップS17に進む。ステップS17では、全体処理を終了するか否かを判断する。たとえば、ユーザから終了指示があった場合や、ユーザによる入力操作が所定時間以上行われなかった場合には、全体処理の終了と判断する。ステップS17で“YES”の場合には、この全体処理をそのまま終了する。一方、ステップS17で“NO”の場合には、処理はステップS3またはユーザの指定に応じた適宜のステップに戻る。
【0090】
図8は、図7に示したステップS3のフレーズ構造解析処理を示すフロー図である。図8を参照して、CPU12は、フレーズ構造解析処理を開始すると、ステップS21で、GPRプレファレンスの指定を受け付ける。すなわち、GPRの基本プレファレンスとユーザプレファレンスのどちらを優先するのかのユーザによる選択を受け付け、ユーザの選択に応じたGPRプレファレンスに設定する。
【0091】
次のステップS23では、フレーズ境界の入力を受け付ける。すなわち、図7のステップS1で提示したピアノロール上のどの部分にユーザによってフレーズ境界が入力されたかを検出し、メモリ14等に一時記憶する。ステップS25では、ユーザGPRプレファレンスを更新する。すなわち、ステップS23でのユーザによるフレーズの境界指定に応じて、ユーザGPRプレファレンスをそのユーザに合うように更新する。
【0092】
次のステップS27では、類似フレーズを検出する。すなわち、ステップS23でユーザが指定したフレーズと類似するフレーズを楽曲全体から抽出し、ステップS29に進む。ステップS29では、eXGTTMに基づいて、残りのフレーズ構造を解析する。すなわち、ユーザが境界指定したフレーズの前後のフレーズ構造、および上位や下位のフレーズ構造を解析する。この際には、ステップS21で設定したGPRプレファレンス(ユーザまたは基本)を優先する。また、ユーザの指定したフレーズ境界が、GTTMのプレファレンスと反駁するときには、基本GPRプレファレンスの重みを下げると共に、ユーザGPRプレファレンスをそのユーザに合うように更新する。ステップS31では、フレーズ構造を提示する。すなわち、ステップS29で解析した階層的フレーズ構造を表示装置18にGUIとして表示する。
【0093】
次のステップ33では、フレーズ構造を決定するか否かを判断する。すなわち、ユーザからのフレーズ構造の決定指示があるか否かを判断する。たとえば、ユーザは、この段階での演奏の試聴とフレーズ構造の視覚的な確認とによって、意図するフレーズ構造になっているか判断し、満足である場合にはその判断結果を入力する。ステップS33で“YES”の場合、すなわちフレーズ構造を決定する場合には、図1の全体処理にリターンする。一方、ステップS33で“NO”の場合、すなわちフレーズ構造を解析しなおす場合には、ステップS23またはユーザの指定に応じた適宜のステップに戻る。
【0094】
図9は、図7に示したステップS7の頂点らしさの計算処理を示すフロー図である。なお、図9において、「i」は、音符を指定するために音符の並び順に割り振られた変数である。また、Note(i)は、i番目の音符の音高、音価および和声などの情報を記述したものであり、ApexVal(i)は、i番目の音符の頂点らしさを表す値(エネルギー値)である。図9を参照して、CPU12は、頂点らしさの計算処理を開始すると、ステップS41で、ApexVal(i)=0を設定して頂点らしさの初期化を行い、ステップS43で、i=0を設定する。
【0095】
次のステップS45では、i=maxか否かを判断する。すなわち、対象となる全ての音符について頂点らしさの計算を行ったか否かを判断する。ステップS45で“YES”の場合、すなわち対象となる全ての音符について頂点らしさの計算を行った場合には、図1の全体処理にリターンする。一方、ステップS45で“NO”の場合、すなわち頂点らしさの計算を行っていない音符がある場合には、ステップS47に進む。
【0096】
ステップS47では、Note(i)の情報と頂点推定ルール(図4および5参照)のそれぞれとを比較照合し、Note(i)に該当するルールがある場合には、該当するルールに割り当てられた評価ポイントをApexVal(i)に加算する。算出したApexVal(i)の値、つまり頂点らしさを示す合計ポイントは、各音符に対応付けてメモリ14などに適宜記憶される。次のステップS49では、iをインクリメントして(i=i+1)、ステップS45に戻る。
【0097】
図10は、図7に示したステップS15の表情カーブの編集処理を示すフロー図である。図10を参照して、CPU12は、表情カーブの編集処理を開始すると、ステップS51で、表情カーブの修正があるか否かを判断する。すなわち、ユーザによってテンポカーブやダイナミクスカーブ等に修正が加えられたか否かを判断する。ステップS51で“YES”の場合、すなわち表情カーブの修正がある場合には、ステップS53に進む。一方、ステップS51で“NO”の場合、すなわち表情カーブの修正がない場合には、ステップS61に進む。
【0098】
ステップS53では、楽曲全体の表情カーブを計算する。すなわち、ステップS51で修正したフレーズの上位構造に対しても、頂点情報に基づいて表情カーブのデフォルト値を設定し、階層的フレーズ構造の各フレーズの表情カーブを合成して、楽曲全体としての表情カーブを生成する。なお、ユーザは、表情カーブを修正する際には、クレッシェンド等の演奏記号を入力することも可能であり、演奏記号が入力された場合には、ルール処理によって演奏記号を表情カーブに展開する。
【0099】
次のステップS55では、各音符の個別修正があるか否かを判断する。すなわち、音符ごとの発音時刻、消音時刻および音量などの修正がユーザによって行われたか否かを判断する。ステップS55で“YES”の場合、すなわち各音符の個別修正がある場合には、ステップS57に進む。一方、ステップS55で“NO”の場合、すなわち各音符の個別修正がない場合には、ステップS59に進む。
【0100】
ステップS57では、ステップS55で受け付けた修正指示に応じて、音符単位での演奏表情の修正を行う。ステップS59では、ピアノロール画面およびエディット画面に編集結果を表示すると共に、表情カーブの編集に応じた演奏を出力するための演奏データを更新する。
【0101】
そして、ステップ61では、表情カーブの決定か否かを判断する。すなわち、ユーザからの表情カーブの決定指示があるか否かを判断する。たとえば、ユーザは、表情付けされた演奏の試聴とピアノロール画面やエディット画面の視覚的な確認とによって、意図する演奏の表情付けが行われたか否かを判断し、満足である場合にはその判断結果を入力する。ステップS61で“YES”の場合、すなわち表情カーブを決定する場合には、図1の全体処理にリターンする。一方、ステップS61で“NO”の場合、すなわち表情カーブを修正しなおす場合には、ステップS51またはユーザの指定に応じた適宜のステップに戻る。
【0102】
この実施例によれば、表情カーブを編集するときに、テンポ、ダイナミクスおよびアーティキュレーションの3つの表情カーブを、エディット画面上に、同じ時間軸で多重表示するので、ユーザは、これら演奏表現の関係性を把握し易い。つまり、テンポや音量などの演奏表現をどのように組み合わせることで、その演奏表情が出来上がっているかを認識できるので、ユーザは、演奏の表情付けを効率良く容易に実行することができるようになる。また、このような認識を持って演奏の表情付けを行うことによって、ユーザの演奏表現に関する思考が客観的のものに移行し、楽曲分析や演奏表現の技法をより具体的に理解できるようになる。つまり、暗黙知として存在していたフレーズの表現法、つまりテンポ等の演奏パラメータをどのように組み合わせてその表現を実現したかを外在化できるので、自身の知識を形式化することができる。したがって、第3者に演奏表現の技法をより具体的に伝えることができるようになるので、支援装置10は、教育用ツールとして好適に用いることができる。
【0103】
また、フレーズの頂点音は、フレーズ境界のように試聴によって明示的に判断できるものではないため、音楽未経験者にとって頂点音を見極めることは困難な作業となる。しかし、この実施例によれば、ピアノロール画面に頂点らしさの情報(ガイダンス)を表示するので、ユーザは、どの音符が重要であるかを定量的に判断できるようになり、これを参照することによって、演奏の表情付けを容易かつ効率的にできるようになる。また、どのような音が頂点音になり易いかを視覚的に判断できるので、ユーザは、頂点音の発見方法を理解し易くなる。この点においても、支援装置10は、教育用ツールとして好適に用いることができると言える。
【0104】
さらに、この実施例では、音符の頂点らしさの計算のための条件および評価ポイント値をルールとして記述していることから、その計算の根拠をユーザに示すことも容易に実現される。したがって、ユーザ自身による頂点の推定や把握を助けるという視点において、演奏の表情付けの支援を行うことができる。
【0105】
なお、上述の実施例では、ユーザがフレーズ境界を部分的に指定(プライマリフレーズラインを指定)した後、残りの部分のフレーズ構造を自動解析するようにしたが、これに限定されない。たとえば、楽曲の階層的フレーズ構造の全てをユーザが指定することもできるし、階層的フレーズ構造の全てを自動解析することもできる。もちろん、階層的フレーズ構造の全てを自動解析した後に、ユーザによってフレーズ境界を修正していくこともできる。
【0106】
また、上述の実施例では、プライマリフレーズラインに含まれるフレーズに対して、頂点らしさを計算したり、表情カーブの修正を受け付けたりしたが、これに限定されず、楽曲の階層的フレーズ構造を構成する全てのフレーズのそれぞれに対して、頂点らしさを計算することもできるし、表情カーブの修正を受け付けることもできる。
【符号の説明】
【0107】
10 …演奏表情付け支援装置
12 …CPU
14 …メモリ
16 …入力装置
18 …表示装置
20 …音源
40 …ピアノロール画面
42 …エディット画面
50 …表情カーブ

【特許請求の範囲】
【請求項1】
フレージングに基づく演奏の表情付けを支援する演奏表情付け支援装置であって、
ユーザによって指定、もしくは、自動解析された階層的フレーズ構造を構成する各フレーズに対して、テンポ、ダイナミクスおよびアーティキュレーションの3つの表情カーブを、同じ画面に、同じ時間軸で多重表示する第1表示手段、および
前記画面に表示された前記表情カーブの修正を受け付ける修正受付手段を備える、演奏表情付け支援装置。
【請求項2】
前記フレーズ内の各音符の頂点らしさを算出する算出手段、および
前記各音符の頂点らしさを識別可能に表示する第2表示手段をさらに備える、請求項1記載の演奏表情付け支援装置。
【請求項3】
前記算出手段は、
所定の音楽理論に基づく音符の頂点らしさを判定するためのルール群を記憶するルール記憶手段、および
前記フレーズ内の各音符と前記ルール群のそれぞれとを照合し、該当するルールがある音符には、当該ルールに割り当てられた評価ポイントを、その音符の頂点らしさを示すエネルギー値として加算する加算手段を含む、請求項2記載の演奏表情付け支援装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate