楽曲練習装置
【課題】歌唱練習や演奏練習を行うための楽曲練習装置において、曲中のどの箇所がどのように悪いのかを歌唱者に指摘することのできる技術を提供する。
【解決手段】楽曲練習装置1の記憶部14にはコメント文が複数記憶されている。楽曲練習装置1のCPU11は、記憶部14に記憶された模範音声データと生成された練習者音声データとを比較し、練習者音声データが模範音声データに対して所定量以上の隔たりがある場合は、練習者音声データの当該箇所を修正領域として特定する。CPU11は、特定した箇所における練習者音声データの模範データに対する隔たりの態様に応じて、記憶部14に記憶されたコメントテーブルからコメント文を選択して読み出し、記憶部14に記憶された歌詞データを読み出して表示部16に表示させるとともに、表示部16に表示されている歌詞データにおいて修正領域に該当する部分に、読み出したコメント文を表示させる。
【解決手段】楽曲練習装置1の記憶部14にはコメント文が複数記憶されている。楽曲練習装置1のCPU11は、記憶部14に記憶された模範音声データと生成された練習者音声データとを比較し、練習者音声データが模範音声データに対して所定量以上の隔たりがある場合は、練習者音声データの当該箇所を修正領域として特定する。CPU11は、特定した箇所における練習者音声データの模範データに対する隔たりの態様に応じて、記憶部14に記憶されたコメントテーブルからコメント文を選択して読み出し、記憶部14に記憶された歌詞データを読み出して表示部16に表示させるとともに、表示部16に表示されている歌詞データにおいて修正領域に該当する部分に、読み出したコメント文を表示させる。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、歌唱または演奏の巧拙を評価して指摘や指導をするための技術に関する。
【背景技術】
【0002】
カラオケ装置においては、歌唱者の歌唱の巧拙を採点するための方法が種々提案されている。例えば、特許文献1においては、歌唱とそのお手本となるリファレンスを比較するにあたって、歌唱のタイミングとリファレンスのタイミングがずれている場合には、歌唱音声データとリファレンスデータを時間軸方向にずらして相互相関を求め、相互相関の最も高い位置で各音符について採点する方法が提案されている。この方法によれば、歌唱者が「ため」や「ルバート」の歌唱技法を用いて歌唱した場合でも、歌唱タイミングをリファレンスのタイミングに合わせて比較して採点することができる。
【特許文献1】特開2005−107330号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
しかしながら、特許文献1に記載の技術においては、歌唱者の歌唱の巧拙を採点することができるものの、歌唱者は、その採点結果をみても、曲中のどの箇所がどのように悪いかを把握することはできなかった。また、歌唱者は、自身の歌唱をどのように直せばよいかを把握することはできなかった。これは楽器演奏についても同様である。
本発明は上述した背景の下になされたものであり、曲中のどの箇所がどのように悪いのかを歌唱者に指摘することのできる技術を提供することを目的とする。また、本発明の他の目的は、歌唱者が、曲中のどの箇所をどのように直せばよいかを歌唱者に指導することのできる技術を提供することである。
【課題を解決するための手段】
【0004】
上記課題を解決するため、本発明は、入力される練習者の音声を練習者データとして出力する入力手段と、模範データが記憶された模範データ記憶手段と、前記模範データ記憶手段に記憶された模範データと前記入力手段から出力された練習者データとを比較し、前記練習者データが前記模範データに対して所定量以上の隔たりがある場合は、前記練習者データの当該箇所を修正領域として特定する修正領域特定手段と、コメント文を複数記憶したコメント文記憶手段と、前記修正領域特定手段が特定した箇所における練習者データの前記模範データに対する隔たりの態様に応じて前記コメント文記憶手段からコメント文を選択して読み出すコメント文読出手段と、楽曲を構成し、楽曲の進行に従った内容を示すデータを有する楽曲構成データを記憶する楽曲構成データ記憶手段と、楽曲構成データ記憶手段から前記楽曲構成データを読み出して表示装置に表示させるとともに、前記コメント読出手段が読み出したコメント文を、前記表示装置に表示されている楽曲構成データにおける前記修正領域特定手段が特定した修正領域に該当する部分に表示させる表示制御手段とを具備することを特徴とする楽曲練習装置を提供する。
【0005】
本発明の好ましい態様においては、前記模範データは、模範となる歌唱の模範音声データであることを特徴とする。
また、本発明の更に好ましい態様においては、前記表示制御手段は、前記楽曲構成データに加えて、前記模範データまたは前記練習者データの少なくともいずれか一方を前記表示装置に表示させることを特徴とする。
また、本発明の別の好ましい態様においては、前記模範データは、模範となる歌唱に用いられている技法の種類とタイミングを示す技法データであることを特徴とする。
また、本発明の別の好ましい態様においては、前記練習者データは、入力される楽器音のデータであり、前記模範データは、模範として用いられる楽器音のデータであることを特徴とする。
また、本発明の更に好ましい態様においては、前記楽曲構成データは、前記楽曲の歌詞を示す歌詞データまたは前記楽曲のメロディの音階を示すメロディデータの少なくともいずれか一方であることを特徴とする。
また、本発明の更に好ましい態様においては、修正領域特定手段によって特定される前記修正領域は、音符、小節または予め決められた複数の小節を単位として特定されることを特徴とする。
また、本発明の更に好ましい態様においては、前記楽曲の伴奏楽音を構成する伴奏データを記憶する伴奏データ記憶手段と、前記修正領域特定手段が特定した修正領域から伴奏を開始させることを指示する指示手段と、前記指示手段によって伴奏の開始が指示された場合に、前記修正領域特定手段が特定した修正領域に対応する部分の伴奏データを前記伴奏データ記憶手段から読み出して、伴奏音信号を生成する伴奏音信号生成手段とを具備することを特徴とする。
【発明の効果】
【0006】
本発明によれば、曲中のどの箇所がどのように悪いのかを歌唱者に指導することができる。また、本発明によれば、曲中のどの箇所をどのように直せばよいかを歌唱者に指導することができる。
【発明を実施するための最良の形態】
【0007】
<A:構成>
図1は、この発明の一実施形態である楽曲練習装置1のハードウェア構成を例示したブロック図である。図において、11はCPU(Central Processing Unit)である。12はROM(Read Only Memory)である。13はRAM(Random Access Memory)である。14は例えばハードディスクなどの大容量記憶装置で構成された記憶部である。CPU11は、ROM12または記憶部14に記憶されているコンピュータプログラムを読み出して実行することにより、バス15を介して楽曲練習装置1の各部を制御する。16は例えば液晶ディスプレイなどで構成される表示部であり、CPU11の制御の下、文字列や各種メッセージ、楽曲練習装置1を操作するためのメニュー画面等を表示する。17はキーボード等の入力装置を備える操作部であり、キーの押下等に応じて操作内容に対応した信号をCPU11へ出力する。18は音声を収音するマイクロフォンであり、19は音声処理部である。マイクロフォン18は音声処理部19に接続されており、音声処理部19は、マイクロフォン18から入力される練習者(歌唱者)の音声を練習者音声データとしてCPU11に出力する。20は、音声処理部19に接続されたスピーカであり、音声処理部19から出力される信号に対応した音を出力する。
【0008】
楽曲練習装置1の記憶部14は、図1に示すように、伴奏データ記憶領域14aと、歌詞データ記憶領域14bと、背景画データ記憶領域14cと、コメントテーブル記憶領域14dと、模範音声データ記憶領域14eと、模範技法データ記憶領域14fと、練習者音声データ記憶領域14gと、練習者技法データ記憶領域14hと、修正領域データ記憶領域14iとを有している。伴奏データ記憶領域14aには、伴奏楽音を構成する例えばMIDI(Musical Instruments Digital Interface)形式の伴奏データであって、その楽曲の伴奏を行う各種楽器の音程(ピッチ)や強さ(ベロシティ)や効果の付与等を示す情報が楽曲の進行に伴って記された伴奏データが記憶されている。この伴奏データの中には、楽曲のメロディの音階を示すメロディデータが含まれている。歌詞データ記憶領域14bには、楽曲を構成し、楽曲の進行に従った歌詞を示す歌詞データが記憶されている。なお、メロディデータと歌詞データとは、楽曲を構成し楽曲の進行に従った内容(音階、歌詞)を示すデータであり、以下の説明においては、説明の便宜上、これらを「楽曲構成データ」と称して説明する。
次に、記憶部14の背景画データ記憶領域14cには、伴奏データと対応する動画像を示す背景画データが記憶されている。
【0009】
次に、記憶部14のコメントテーブル記憶領域14dには、歌唱に対する指摘コメント文と歌唱に対する指導コメント文とをそれぞれ複数記憶するコメントテーブルが記憶されている。
図2は、コメントテーブルの内容の一例を示す図である。図示のように、コメントテーブルは、「修正領域種別」と「指摘コメント」と「指導コメント」との各項目が互いに関連付けて記憶されている。これらの項目のうち、「修正領域種別」の項目には、「音程ずれ」や「タイミングずれ」といった、模範音声と練習者音声との隔たりの態様を識別する情報が記憶されている。「指摘コメント」の項目には、例えば、「音程ずれ」や「タイミングずれ」等、歌唱に対する指摘コメント文を示すテキストデータが記憶されている。「指導コメント」の項目には、例えば、「抑えて」や、「はっきりと」といった、歌唱に対する指導コメント文を示すテキストデータが記憶されている。
【0010】
次に、記憶部14の模範音声データ記憶領域14eには、例えばWAVE形式やMP3(MPEG Audio Layer-3)形式などの音声データであって、楽曲の歌唱の模範として用いられる音声データ(以下、「模範音声データ」)が記憶されている。
次に、記憶部14の模範技法データ記憶領域14fには、模範音声データ記憶領域14eに記憶された模範音声データの表す模範となる歌唱に用いられている歌唱技法の種類とタイミングとを示すデータ(以下、「模範技法データ」)が記憶される。
図3は、模範技法データの内容の一例を示す図である。図示のように、模範技法データは、「区間情報」と「種別情報」との各項目が互いに関連付けられている。これらの項目のうち、「区間情報」の項目には、模範音声データにおいて歌唱技法が用いられた区間を示す情報が記憶される。なお、この区間情報が示す区間は、開始時刻情報と終了時刻情報とによって表される時間幅を有した区間であってもよく、またはある1点の時刻を示すものであってもよい。
「種別情報」の項目には、予め複数種類設定された歌唱技法を識別する情報が記憶される。この「種別情報」は、例えば「ビブラート」、「しゃくり」、「こぶし」、「ファルセット」、「つっこみ」、「ため」、「息継ぎ」などの歌唱技法を識別する情報である。「ビブラート」は、音の高さをほんのわずかに連続的に上下させ、震えるような音色を出す技法を示す。「しゃくり」は、目的の音より低い音から発音し、音程を滑らかに目的の音に近づけていく技法を示す。「こぶし」は、装飾的に加えるうねるような節回しを行う技法を示す。「ファルセット」は、いわゆる「裏声」で歌う技法を示す。「つっこみ」は、歌い出しを本来のタイミングよりも早いタイミングにする技法を示す。「ため」は、歌い出しを本来のタイミングよりも遅いタイミングにする技法を示す。「息継ぎ」は、歌唱者が息継ぎをするタイミングを示すものである。
【0011】
次に、記憶部14の練習者音声データ記憶領域14gには、マイクロフォン18で収音される練習者の音声を表す音声データ(「以下、練習者音声データ」)が記憶される。また、練習者技法データ記憶領域14hには、練習者音声データで用いられている歌唱技法を示すデータ(以下、「練習者技法データ」)が記憶される。この練習者技法データの構成は、上述した模範技法データの構成と同様であり、「区間情報」と「種別情報」との各項目が互いに関連付けられて構成されている。
なお、以下の説明においては、説明の便宜上、「模範音声データ」と「練習者音声データ」とを各々区別する必要がない場合には、これらを「音声データ」と称することとする。また、「模範技法データ」と「練習者技法データ」とを各々区別する必要がない場合には、これらを「技法データ」と称して説明する。
【0012】
次に、修正領域データ記憶領域14iには、CPU11が模範音声データと練習者音声データとの比較処理、および、模範技法データと練習者技法データとの比較処理を行うことによって生成する修正領域を示すデータ(以下、「修正領域データ」)が記憶される。この修正領域データは、練習者音声が模範音声に対して所定量以上の隔たりがある箇所を示すデータである。
図4は、修正領域データの内容の一例を示す図である。図示のように、修正領域データは、「修正領域種別」と「区間情報」と「態様情報」と「ID」との各項目が互いに関連付けられている。これらの項目のうち、「修正領域種別」は、例えば、「音程ずれ」や「タイミングずれ」、「ビブラートずれ」等、模範音声と練習者音声との隔たりの態様を識別する情報が記憶される。「区間情報」の項目には、その隔たりのある箇所を示す時刻情報が記憶される。また、「態様情報」の項目には、隔たりの態様をさらに具体的に示す情報が記憶される。例えば、修正領域種別が「タイミングずれ」の場合に、タイミングが早いのか遅いかといった内容を示す情報が記憶される。「ID」の項目には、修正領域データを識別する情報が記憶される。
【0013】
<B:動作>
次に、この実施形態の動作について、図5に示すフローチャートを参照しつつ以下に説明する。
練習者が楽曲練習装置1の操作部17を操作して曲を選択すると、選択内容を示す信号が操作部17からCPU11に出力される。CPU11は、操作内容を示す信号が入力されたことを検知すると、選択された曲と対応する模範音声データを記憶部14の模範音声データ記憶領域14eから読み出し、読み出した模範音声データに対して音声分析処理を行い、時刻に対応したピッチ、パワー、スペクトルを模範音声データから算出する(ステップSA1)。続けて、CPU11は、伴奏データ記憶領域14aに記憶された伴奏データに含まれるメロディデータと模範音声データ記憶領域14eに記憶された模範音声データとを所定のフレーム単位で解析し、模範音声データとメロディデータとの時間的な対応関係を検出する(ステップSA2)。
次に、CPU11は、模範音声データから算出されたピッチ、パワーおよびスペクトルの時間的な変化のパターンを解析して、この解析結果が予め定められたパターンに対応するか否かを判定し、対応する場合には当該パターンに対応する区間を特定の歌唱技法が用いられている区間として特定する。そして、CPU11は、特定した区間の区間情報を、その歌唱技法を示す種別情報と関連付けて記憶部14の模範技法データ記憶領域14fに記憶する(ステップSA3)。
【0014】
ここで、ステップSA3に示す、各歌唱技法が用いられている区間の特定処理について以下に説明する。本実施形態においては、CPU11は、「ビブラート」、「しゃくり」、「こぶし」、「ファルセット」、「つっこみ」、「ため」および「息継ぎ」の各歌唱技法が用いられている区間を特定(検出)する。これらのうち、「ビブラート」および「しゃくり」は模範音声データから算出されたピッチに基づいて検出する。また、「こぶし」および「ファルセット」は模範音声データから算出されたスペクトルに基づいて検出する。また、「ため」および「つっこみ」は、模範音声データから算出されたピッチとメロディデータとに基づいて検出する。また、「息継ぎ」は、模範音声データから算出されたパワーとメロディデータとに基づいて検出する。
【0015】
CPU11は、模範音声データとメロディデータとの対応関係と、模範音声データから算出されたピッチとに基づいて、模範音声データに含まれる音の開始時刻と当該音に対応するメロディデータの音の開始時刻とが異なる区間を特定する。ここで、CPU11は、模範音声データのピッチの変化タイミングがメロディデータのピッチの変化タイミングよりも早く現れている区間、すなわち模範音声データに含まれる音の開始時刻が当該音に対応するメロディデータの音の開始時刻よりも早い区間については、この区間を「つっこみ」の歌唱技法が用いられている区間であると特定する。CPU11は、特定した区間の区間情報を、「つっこみ」を示す識別情報と関連付けて記憶部14の模範技法データ記憶領域14fに記憶する。
逆に、CPU11は、模範音声データとメロディデータとの対応関係と、模範音声データから算出されたピッチとに基づいて、模範音声データのピッチの変化タイミングがメロディデータのピッチの変化タイミングよりも遅れて現れている区間、すなわち模範音声データに含まれる音の開始時刻が当該音に対応するメロディデータの音の開始時刻よりも遅い区間を検出し、検出した区間を「ため」の歌唱技法が用いられている区間であると特定する。
【0016】
また、CPU11は、模範音声データから算出したピッチの時間的な変化のパターンを解析して、中心となる周波数の上下に所定の範囲内でピッチが連続的に変動している区間を検出し、検出した区間を「ビブラート」の歌唱技法が用いられている区間であると特定する。
【0017】
また、CPU11は、模範音声データから算出したピッチの時間的な変化のパターンを解析して、低いピッチから高いピッチに連続的にピッチが変化する区間を検出し、検出した区間を「しゃくり」の歌唱技法が用いられている区間であると特定する。なお、この処理は、メロディデータとの対応関係に基づいて行うようにしてもよい。すなわち、CPU11は、模範音声データとメロディデータとの対応関係に基づいて、模範音声データのピッチが、低いピッチから連続的にメロディデータのピッチに近づいている区間を検出すればよい。
【0018】
また、CPU11は、模範音声データとメロディデータとの対応関係と、模範音声データから算出されたパワーとに基づいて、メロディデータが有音である区間であって模範音声データのパワー値が所定の閾値よりも小さい区間を検出し、検出した箇所を「息継ぎ」の区間であると特定する。
【0019】
また、CPU11は、模範音声データから算出されたスペクトルの時間的な変化パターンを解析して、スペクトル特性がその予め決められた変化状態に急激に遷移している区間を検出し、検出した区間を「ファルセット」の歌唱技法が用いられている区間であると特定する。ここで、予め決められた変化状態とは、スペクトル特性の高調波成分が極端に少なくなる状態である。例えば、図6に示すように、地声の場合は沢山の高調波成分が含まれるが(同図(a)参照)、ファルセットになると高調波成分の大きさが極端に小さくなる(同図(b)参照)。なお、この場合、CPU11は、ピッチが大幅に上方に変化したかどうかも参照してもよい。ファルセットは地声と同一のピッチを発生する場合でも用いられることもあるが、一般には地声では発声できない高音を発声するときに使われる技法だからである。したがって、音声データのピッチが所定音高以上の場合に限って「ファルセット」の検出をするように構成してもよい。また、男声と女声とでは一般にファルセットを用いる音高の領域が異なるので、音声データの音域や、音声データから検出されるフォルマントによって性別検出を行い、この結果を踏まえてファルセット検出の音高領域を設定してもよい。
また、CPU11は、スペクトル特性の変化の態様が短時間に多様に切り替わる区間を検出し、検出した部分を「こぶし」の歌唱技法が用いられている部分であると特定する。「こぶし」の場合は、短い区間において声色や発声方法を変えて唸るような味わいを付加する歌唱技法であるため、この技法が用いられている区間においてはスペクトル特性が多様に変化するからである。
以上のようにして、CPU11は、模範音声データから各歌唱技法が用いられている区間を検出し、検出した区間を示す区間情報をその歌唱技法を示す種別情報と関連付けて記憶部14の模範技法データ記憶領域14fに記憶する。
【0020】
図5の説明に戻る。楽曲練習装置1のCPU11は、模範技法データの生成処理(ステップSA3)を終えると、伴奏データ記憶領域14aに記憶された伴奏データを読み出して、読み出した伴奏データを音声処理部19に供給する。音声処理部19は、供給された伴奏データをアナログ信号に変換して伴奏データの表す音声をスピーカ20から発音させる。また、CPU11は、伴奏データを音声処理部19に供給するに併せて、歌詞データ記憶領域14bに記憶された歌詞データと、背景画データ記憶領域14cに記憶された背景画データとを、表示部16に供給して、再生される伴奏に対応する歌詞と背景画とを表示部16に表示させる。
【0021】
練習者は、表示部16に表示される歌詞を確認しつつ、スピーカ20から発音される伴奏に併せて歌唱を行う。練習者によって歌唱が行われると、練習者の音声がマイクロフォン18によって音声信号に変換され、変換された信号が音声処理部19へ出力される。音声処理部19は、マイクロフォン18から出力された音声信号をデジタルデータに変換して練習者音声データとする(ステップSA4)。この練習者音声データは、音声処理部19から出力されて記憶部14の練習者音声データ記憶領域14gに記憶される。
【0022】
伴奏の再生が終了すると、楽曲練習装置1のCPU11は、練習者音声データ記憶領域14gに記憶された練習者音声データに対して基礎分析処理を行って、ピッチ、パワー、スペクトルを算出する(ステップSA5)。また、楽曲練習装置1のCPU11は、伴奏データ記憶領域14aに記憶された伴奏データに含まれるメロディデータと練習者音声データ記憶領域14gに記憶された練習者音声データとを所定のフレーム単位で解析し、練習者音声データとメロディデータとの時間的な対応関係を検出する(ステップSA6)。続けて、CPU11は、練習者音声データから練習者技法データを生成する(ステップSA7)。これらのステップSA5〜SA7に示した処理と、上述したステップSA2〜SA4に示した処理が異なる点は、処理対象となる音声データが異なる点である。すなわち、ステップSA2〜ステップSA4では模範音声データに対して処理を行い、ステップSA5〜SA7では練習者音声データに対して処理が行われるものの、その処理内容については同様であるため、ステップSA5〜ステップSA7についてはその詳細な説明を省略する。
【0023】
次に、楽曲練習装置1のCPU11は、模範音声データと練習者音声データとの両者の波形同士を直接対比して、例えばDTW(Dynamic Time Warping)等により、模範音声データと、練習者音声データとの時間的な対応付けをフレーム毎に行い、両者の対応箇所を検出する(ステップSA8)。
【0024】
続けて、楽曲練習装置1のCPU11は、ステップSA8で検出した対応箇所に基づいて、模範音声データ記憶領域14eに記憶された模範音声データと音声処理部19から出力された練習者音声データとを比較し、練習者音声データが模範音声データに対して所定量以上の隔たりがある場合は、練習者音声データの該当箇所を修正領域として特定する(ステップSA9)。具体的には、CPU11は、模範音声データのピッチと練習者音声データのピッチとを、歌詞の文字単位(本実施形態においてはひらがな1文字単位)毎の区間毎に比較して、練習者音声データが模範音声データに対して所定量以上の隔たりが検出された場合には、該練習者音声データの当該箇所を修正領域として特定する。CPU11は、検出した隔たりの態様と、その隔たりの程度とを示す修正領域データを生成して、記憶部14の修正領域データ記憶領域14iに記憶する。具体的には、例えば、CPU11は、練習者音声データのピッチが模範音声データのピッチに対して所定量以上の隔たりが検出された場合には、「音程ずれ」を示す修正領域データを生成する。また、例えば、CPU11は、練習者音声データのピッチの変化タイミングが模範音声データのピッチの変化タイミングに対して所定量以上の隔たりが検出された場合には、「タイミングずれ」を閉めす修正領域データを生成する。
【0025】
また、CPU11は、模範技法データ記憶領域14fに記憶された模範技法データと、練習者音声データから生成された練習者技法データとを比較し、練習者技法データが模範技法データに対して所定量以上の隔たりがある場合は、練習者技法データの該当箇所を修正領域として特定する(ステップSA10)。具体的には、例えば、CPU11は、記憶部14の模範技法データ記憶領域14fに記憶された模範技法データをひとつずつ読み出して、読み出した模範技法データと対応する練習者技法データを練習者技法データ記憶領域14hから検索し、歌詞の文字単位毎の区間を評価区間として、模範技法データの区間情報と練習者技法データの区間情報とが所定量以上隔たっている評価区間を修正領域として特定する。このようにして修正領域を特定することによって、模範音声で歌唱技法が用いられている区間と練習者音声で歌唱技法が用いられている区間とに時間的なずれがある修正領域と特定することができるとともに、また、模範音声で歌唱技法が用いられている区間であって練習者音声で歌唱技法が用いられていない区間についても、この区間を修正領域として特定することができる。
上述したステップSA9とステップSA10の処理をCPU11が実行することによって修正領域が特定される。
【0026】
次に、CPU11は、ステップSA9,SA10において特定した修正領域における練習者音声データの模範音声データに対する隔たりの態様に応じて、コメントテーブル記憶領域14dに記憶されたコメントテーブルからコメント文を選択して読み出す(ステップSA11)。すなわち、CPU11は、生成された修正領域データの修正領域種別を、コメントテーブル記憶領域14dに記憶されたコメントテーブルから検索し、検索されたものと対応する指摘コメントと指導コメントとを選択して読み出す。
【0027】
次に、楽曲練習装置1のCPU11は、楽曲構成データ(メロディデータ、歌詞データ)を記憶部14から読み出して表示部16に表示させるとともに、練習者音声データと模範音声データとを表示部16に表示させる。また、CPU11は、ステップSA11においてコメントテーブル記憶領域14dから読み出したコメント文(指摘コメントと指導コメント)を、表示部16に表示されている歌詞データにおけるステップSA9,SA10で特定した修正領域に該当する部分に表示させる(ステップSA12)。
【0028】
図7(a)は、楽曲練習装置1の表示部16に表示される画面の一例を示す図である。
楽曲練習装置1のCPU11は、模範音声データのピッチの時間的な変化を示すグラフA1を表示させるとともに、練習者音声データのピッチの時間的な変化を示すグラフA2を表示部16に表示させる。また、CPU11は、メロディデータのピッチの時間的な変化を示すグラフA3を表示部16に表示させる。
また、CPU11は、ステップSA2で検出した模範音声データとメロディデータとの対応関係と、歌詞データ記憶領域14bに記憶された歌詞データとに基づいて歌詞W1を表示させ、また、ステップS6で検出した練習者音声データとメロディデータとの対応関係と、歌詞データ記憶領域14bに記憶された歌詞データとに基づいて歌詞W2を表示させる。
さらに、CPU11は、模範技法データの種別情報と区間情報とに基づいて、模範音声において各歌唱技法が用いられている区間と対応する歌詞の文字の近傍に、当該種別情報と対応する歌唱技法を示すアイコンI1,I2を表示させる。また、CPU11は、ステップSA11で読み出した指摘コメントC1,C2と指導コメントC11,C12とを、表示されている歌詞情報の該当部分に表示させる。
【0029】
このように、楽曲練習装置1のCPU11は、練習者音声データが模範音声データに対して所定量以上の隔たりが検出された場合には、該練習者音声データの該当箇所を修正領域として特定し、その修正領域における練習者音声データの模範音声データに対する隔たりの態様に応じてコメントテーブルから指摘コメントを選択して表示させるから、曲中のどの箇所がどのように悪いかを練習者に指摘することができる。
【0030】
また、楽曲練習装置1のCPU11は、練習者音声データが模範音声データに対して所定量以上の隔たりが検出された場合には、該練習者音声データの該当箇所を修正領域として特定し、その修正領域における練習者音声データの模範音声データに対する隔たりの態様に応じてコメントテーブルから指導コメントを選択して表示させるから、歌唱方法をどのように修正すればよいかを練習者に指導することができる。
【0031】
図7(a)に示す画面において、練習者は、その修正領域における模範音声または練習者音声を再生する旨を、操作部17を用いて指示することができる。これは例えば、図7(a)に示すような、「先生の歌唱を聴く場合は該当数値とAを押してください」や、「あなたの歌唱を聴く場合は該当数値とBを押してください」といった、操作を促すメッセージM1を表示するようにし、また、図7(b)に示すような、0〜9のテンキーB10と「A」,「B」を選択できる操作ボタンB11,B12とを備える操作部17を操作して練習者が指示するようにすればよい。
練習者が操作部17を操作することによって指示されると、その指示内容を示す信号が操作部17からCPU11に入力される。CPU11は、模範音声の再生指示を示す信号が入力されたことを検知した場合は、選択されたID(番号)に対応する修正領域について、模範音声データのうちの当該修正領域に対応するデータを、音声処理部19に供給する。音声処理部19は、供給された信号に応じてスピーカ20から音を放音する。一方、練習者音声の再生指示を示す信号が入力されたことを検知した場合は、CPU11は、練習者音声データから修正領域に対応するデータを抽出して、音声処理部19に供給する。音声処理部19は、供給された信号に応じてスピーカ20から音を放音する。
このように、CPU11が、修正領域における模範音声または練習者音声を音声処理部19を介してスピーカ20に放音させるから、練習者は、模範音声と練習者音声とを聴き比べることができる。
【0032】
また、図8は、表示部16に表示される画面の他の例を示す図である。この画面においては、練習者は、「指摘箇所を練習する」、「自動で繰り返し練習する」、「先生の歌唱を聴く」、「あなたの音声を聴く」のいずれかを、操作部17を用いて選択することができる。練習者によって操作部17が操作されると、操作部17は、操作された内容に応じた信号をCPU11に出力することによって各処理を指示する。例えば、「指摘箇所を練習する」を選択する操作が行われた場合は、操作部17は、図5のステップSA9,SA10において特定した修正領域から伴奏を開始させることをCPU11に指示する。
【0033】
操作部17から信号が入力されると、CPU11は、入力された信号に応じた処理を実行する。例えば、「指摘箇所を練習する」旨の信号が入力された場合、すなわち、操作部17を介して伴奏の開始が指示された場合は、CPU11は、図5のステップSA9,SA10において特定した修正領域であって、選択されたID(番号)に対応する修正領域に対応する伴奏データを伴奏データ記憶領域14aから読み出して、伴奏データ信号を生成して音声処理部19に出力する。音声処理部19は、供給された信号に応じてスピーカ20から伴奏音を放音する。
このように、修正領域に対応する伴奏データを楽曲練習装置1が再生することによって、練習者は、模範音声と自身の歌唱との相違箇所の歌唱を練習することができる。
【0034】
一方、「自動で繰り返し練習する」旨の信号が入力された場合は、CPU11は、音声処理部19を介して、伴奏データのうち修正領域に対応する伴奏データの示す伴奏をスピーカ20から繰り返し放音させる。「先生の歌唱を聴く」、または「あなたの音声を聴く」が選択された場合は、CPU11は、音声処理部19を介して、修正領域に対応する模範音声データまたは練習者音声データを、スピーカ20から放音させる。
【0035】
<C:変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。
(1)上述した実施形態においては、楽曲構成データ(歌詞データ、メロディデータ)に加えて、模範音声データを示すグラフA1と練習者音声データを示すグラフA2(図7参照)とを表示部16に表示させるようにした。これに代えて、模範音声データや練習者音声データを表示させずに、楽曲構成データのみを表示させるようにしてもよい。
図9は、模範音声データと練習者音声データとを表示させずに、楽曲構成データ(歌詞データとメロディデータ)を表示させる場合の画面の一例を示す図である。図9に示す例においては、楽曲練習装置のCPUは、メロディデータのピッチの時間的な変化を示すグラフA3を表示させるとともに、記憶部に記憶された歌詞データに基づいて歌詞W3を表示部に表示させ、また、コメントC11,C12を表示されている歌詞W3の該当部分に表示させる。
図9に示す例においては、模範音声データを記憶部に記憶させておく必要はなく、メロディデータのみを記憶部に記憶させておけばよい。
なお、このとき、図9に示すように、メロディデータのピッチの変化に対応する位置関係で歌詞W3の文字のそれぞれを表示させるようにしてもよい。また、上述した実施形態と同様に、模範音声において各歌唱技法が用いられている区間と対応する歌詞の文字の近傍に、各歌唱技法を示すアイコンI1,I2を表示させるようにしてもよい。
【0036】
(2)上述した実施形態においては、楽曲を構成し、楽曲の進行に従った内容を示すデータを有する楽曲構成データとして、歌詞データとメロディデータとを用いて、これら双方を表示部に表示させるようにしたが、楽曲構成データとしてこれら双方を用いる必要はなく、例えば、歌詞データのみを楽曲構成データとして用いてもよく、または、メロディデータのみを楽曲構成データとして用いてもよい。すなわち、歌詞データおよびメロディデータの少なくともいずれか一方を楽曲構成データとして用いればよい。
図10は、歌詞データのみを楽曲構成データとして用いた場合に表示される画面の一例を示す図である。この場合、楽曲練習装置のCPUは、図10に示すように、記憶部に記憶された歌詞データに基づいて歌詞W4を表示させるとともに、コメントC11,C12を表示されている歌詞W4の該当部分に表示させる。
【0037】
また、上述した実施形態においては、楽曲を構成し、楽曲の進行に従った内容を示すデータを有する楽曲構成データとして、歌詞データとメロディデータとを用いたが、楽曲構成データはこれに限定されるものではなく、例えば、楽曲において第何小節目であるかを示すデータや、第何フレーズ目であるかを示すデータ等であってもよい。すなわち、楽曲構成データは、楽曲を構成し、楽曲の進行に従った内容を示すデータであればどのようなものであってもよい。
【0038】
(3)上述した実施形態においては、模範音声データと練習者音声データとを比較して修正領域を特定する(図5のステップSA9参照)とともに、模範技法データと練習者技法データとを比較して修正領域を特定する(図5のステップSA10参照)ようにした。これに代えて、模範技法データと模範音声データのいずれか一方を用いて修正領域を特定してもよい。すなわち、図5のステップSA9とステップSA10のいずれか一方の処理を行って修正領域を特定するようにしてもよい。
【0039】
(4)上述した実施形態においては、歌詞の文字単位毎の区間を単位として修正領域を特定するようにしたが、修正領域の単位はこれに限定されるものではなく、例えば、音符、小節または予め決められた複数の小節を単位として修正領域を特定するようにしてもよい。または、楽曲の冒頭からの絶対時刻の修正領域を特定するようにしてもよい。
【0040】
(5)上述した実施形態においては、コメント文として指摘コメントと指導コメントとの両方を表示部16に表示させるようにしたが、どちらか一方のみを表示させてもよい。
【0041】
(6)上述した実施形態においては、歌詞データを予め記憶部に記憶させておくようにしたが、これに代えて、楽曲練習装置のCPUが、音声データに対して音声認識処理を施して、音声データから歌詞データを自動的に生成するようにしてもよい。この場合は、CPUが、メロディデータと、音声データから抽出したピッチとを照合させて、どの歌詞がどのタイミングで歌われているかを自動的に割り付けるようにすればよい。
【0042】
(7)上述した実施形態においては、記憶部14の模範音声データ記憶領域14eに記憶される音声データはWAVE形式やMP3形式のデータとしたが、データの形式はこれに限定されるものではなく、音声を示すデータであればどのような形式のデータであってもよい。
また、上述した実施形態においては、模範音声データを記憶部14に記憶させて、楽曲練習装置1のCPU11が記憶部14から模範音声データを読み出すようにしたが、これに代えて、通信ネットワークを介して音声データを受信するようにしてもよい。要するに、模範音声データをCPU11に入力するようにすればよい。このようにすれば、所望の歌手の音声データをダウンロードして用いることができるから、練習者は、その歌手の歌唱技法と自身の歌唱技法とを比較することができ、所望の歌手の歌唱技法を真似て歌唱することが容易になる。
【0043】
(8)上述した実施形態においては、練習者データとして、入力される練習者の歌唱を示す練習者音声データと、練習者音声に用いられている技法の種類とタイミングを示す練習者技法データとを用い、また、模範データとして、楽曲の歌唱の模範として用いられる模範音声データと、模範となる歌唱に用いられている技法の種類とタイミングを示す模範技法データを用いた。本発明における練習者データと模範データとはこれに限定されるものではなく、楽器の演奏音を表す音声データにも適用することができる。すなわち、練習者データは、入力される楽器の演奏音を表すデータであり、模範データは、模範として用いられる楽器の演奏音を表すデータであってもよい。なお、この場合は、練習者の演奏技法(例えば、ビブラート、息継ぎ、ため等)を示す技法データと練習者データとして、また、模範演奏の演奏技法を示す技法データを模範データとして用いるようにしてもよい。
【0044】
(9)上述した実施形態では、楽曲練習装置1が、本実施形態に係る修正領域特定処理等を行うようになっていた。これに対し、通信ネットワークで接続された2以上の装置が上記実施形態に係る機能を分担するようにし、それら複数の装置を備えるシステムが同実施形態の楽曲練習装置1を実現するようにしてもよい。例えば、マイクロフォンやスピーカ、表示装置および入力装置等を備えるコンピュータ装置と、修正領域特定処理を実行するサーバ装置とが通信ネットワークで接続されたシステムとして構成されていてもよい。この場合は、コンピュータ装置が、マイクロフォンから入力された音声を音声データに変換してサーバ装置に送信し、サーバ装置が、受信した音声データと模範音声データとの比較処理を行って修正領域を特定し、修正領域を示す修正領域データをコンピュータ装置に送信するようにすればよい。
【0045】
(10)上述した実施形態における楽曲練習装置1のCPU11によって実行されるプログラムは、磁気テープ、磁気ディスク、フロッピー(登録商標)ディスク、光記録媒体、光磁気記録媒体、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)、RAMなどの記録媒体に記憶した状態で提供し得る。また、インターネットのようなネットワーク経由で楽曲練習装置1にダウンロードさせることも可能である。
【図面の簡単な説明】
【0046】
【図1】楽曲練習装置のハードウェア構成の一例を示すブロック図である。
【図2】コメントテーブルの内容の一例を示す図である。
【図3】模範技法データの内容の一例を示す図である。
【図4】修正領域データの内容の一例を示す図である。
【図5】楽曲練習装置の制御部が行う処理の流れを示すフローチャートである。
【図6】ファルセットの検出処理を説明するための図である。
【図7】楽曲練習装置の表示部に表示される画面の一例を示す図である。
【図8】楽曲練習装置の表示部に表示される画面の一例を示す図である。
【図9】楽曲練習装置の表示部に表示される画面の一例を示す図である。
【図10】楽曲練習装置の表示部に表示される画面の一例を示す図である。
【符号の説明】
【0047】
1…楽曲練習装置、11…CPU、12…ROM、13…RAM、14…記憶部、15…バス、16…表示部、17…操作部、18…マイクロフォン、19…音声処理部、20…スピーカ。
【技術分野】
【0001】
本発明は、歌唱または演奏の巧拙を評価して指摘や指導をするための技術に関する。
【背景技術】
【0002】
カラオケ装置においては、歌唱者の歌唱の巧拙を採点するための方法が種々提案されている。例えば、特許文献1においては、歌唱とそのお手本となるリファレンスを比較するにあたって、歌唱のタイミングとリファレンスのタイミングがずれている場合には、歌唱音声データとリファレンスデータを時間軸方向にずらして相互相関を求め、相互相関の最も高い位置で各音符について採点する方法が提案されている。この方法によれば、歌唱者が「ため」や「ルバート」の歌唱技法を用いて歌唱した場合でも、歌唱タイミングをリファレンスのタイミングに合わせて比較して採点することができる。
【特許文献1】特開2005−107330号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
しかしながら、特許文献1に記載の技術においては、歌唱者の歌唱の巧拙を採点することができるものの、歌唱者は、その採点結果をみても、曲中のどの箇所がどのように悪いかを把握することはできなかった。また、歌唱者は、自身の歌唱をどのように直せばよいかを把握することはできなかった。これは楽器演奏についても同様である。
本発明は上述した背景の下になされたものであり、曲中のどの箇所がどのように悪いのかを歌唱者に指摘することのできる技術を提供することを目的とする。また、本発明の他の目的は、歌唱者が、曲中のどの箇所をどのように直せばよいかを歌唱者に指導することのできる技術を提供することである。
【課題を解決するための手段】
【0004】
上記課題を解決するため、本発明は、入力される練習者の音声を練習者データとして出力する入力手段と、模範データが記憶された模範データ記憶手段と、前記模範データ記憶手段に記憶された模範データと前記入力手段から出力された練習者データとを比較し、前記練習者データが前記模範データに対して所定量以上の隔たりがある場合は、前記練習者データの当該箇所を修正領域として特定する修正領域特定手段と、コメント文を複数記憶したコメント文記憶手段と、前記修正領域特定手段が特定した箇所における練習者データの前記模範データに対する隔たりの態様に応じて前記コメント文記憶手段からコメント文を選択して読み出すコメント文読出手段と、楽曲を構成し、楽曲の進行に従った内容を示すデータを有する楽曲構成データを記憶する楽曲構成データ記憶手段と、楽曲構成データ記憶手段から前記楽曲構成データを読み出して表示装置に表示させるとともに、前記コメント読出手段が読み出したコメント文を、前記表示装置に表示されている楽曲構成データにおける前記修正領域特定手段が特定した修正領域に該当する部分に表示させる表示制御手段とを具備することを特徴とする楽曲練習装置を提供する。
【0005】
本発明の好ましい態様においては、前記模範データは、模範となる歌唱の模範音声データであることを特徴とする。
また、本発明の更に好ましい態様においては、前記表示制御手段は、前記楽曲構成データに加えて、前記模範データまたは前記練習者データの少なくともいずれか一方を前記表示装置に表示させることを特徴とする。
また、本発明の別の好ましい態様においては、前記模範データは、模範となる歌唱に用いられている技法の種類とタイミングを示す技法データであることを特徴とする。
また、本発明の別の好ましい態様においては、前記練習者データは、入力される楽器音のデータであり、前記模範データは、模範として用いられる楽器音のデータであることを特徴とする。
また、本発明の更に好ましい態様においては、前記楽曲構成データは、前記楽曲の歌詞を示す歌詞データまたは前記楽曲のメロディの音階を示すメロディデータの少なくともいずれか一方であることを特徴とする。
また、本発明の更に好ましい態様においては、修正領域特定手段によって特定される前記修正領域は、音符、小節または予め決められた複数の小節を単位として特定されることを特徴とする。
また、本発明の更に好ましい態様においては、前記楽曲の伴奏楽音を構成する伴奏データを記憶する伴奏データ記憶手段と、前記修正領域特定手段が特定した修正領域から伴奏を開始させることを指示する指示手段と、前記指示手段によって伴奏の開始が指示された場合に、前記修正領域特定手段が特定した修正領域に対応する部分の伴奏データを前記伴奏データ記憶手段から読み出して、伴奏音信号を生成する伴奏音信号生成手段とを具備することを特徴とする。
【発明の効果】
【0006】
本発明によれば、曲中のどの箇所がどのように悪いのかを歌唱者に指導することができる。また、本発明によれば、曲中のどの箇所をどのように直せばよいかを歌唱者に指導することができる。
【発明を実施するための最良の形態】
【0007】
<A:構成>
図1は、この発明の一実施形態である楽曲練習装置1のハードウェア構成を例示したブロック図である。図において、11はCPU(Central Processing Unit)である。12はROM(Read Only Memory)である。13はRAM(Random Access Memory)である。14は例えばハードディスクなどの大容量記憶装置で構成された記憶部である。CPU11は、ROM12または記憶部14に記憶されているコンピュータプログラムを読み出して実行することにより、バス15を介して楽曲練習装置1の各部を制御する。16は例えば液晶ディスプレイなどで構成される表示部であり、CPU11の制御の下、文字列や各種メッセージ、楽曲練習装置1を操作するためのメニュー画面等を表示する。17はキーボード等の入力装置を備える操作部であり、キーの押下等に応じて操作内容に対応した信号をCPU11へ出力する。18は音声を収音するマイクロフォンであり、19は音声処理部である。マイクロフォン18は音声処理部19に接続されており、音声処理部19は、マイクロフォン18から入力される練習者(歌唱者)の音声を練習者音声データとしてCPU11に出力する。20は、音声処理部19に接続されたスピーカであり、音声処理部19から出力される信号に対応した音を出力する。
【0008】
楽曲練習装置1の記憶部14は、図1に示すように、伴奏データ記憶領域14aと、歌詞データ記憶領域14bと、背景画データ記憶領域14cと、コメントテーブル記憶領域14dと、模範音声データ記憶領域14eと、模範技法データ記憶領域14fと、練習者音声データ記憶領域14gと、練習者技法データ記憶領域14hと、修正領域データ記憶領域14iとを有している。伴奏データ記憶領域14aには、伴奏楽音を構成する例えばMIDI(Musical Instruments Digital Interface)形式の伴奏データであって、その楽曲の伴奏を行う各種楽器の音程(ピッチ)や強さ(ベロシティ)や効果の付与等を示す情報が楽曲の進行に伴って記された伴奏データが記憶されている。この伴奏データの中には、楽曲のメロディの音階を示すメロディデータが含まれている。歌詞データ記憶領域14bには、楽曲を構成し、楽曲の進行に従った歌詞を示す歌詞データが記憶されている。なお、メロディデータと歌詞データとは、楽曲を構成し楽曲の進行に従った内容(音階、歌詞)を示すデータであり、以下の説明においては、説明の便宜上、これらを「楽曲構成データ」と称して説明する。
次に、記憶部14の背景画データ記憶領域14cには、伴奏データと対応する動画像を示す背景画データが記憶されている。
【0009】
次に、記憶部14のコメントテーブル記憶領域14dには、歌唱に対する指摘コメント文と歌唱に対する指導コメント文とをそれぞれ複数記憶するコメントテーブルが記憶されている。
図2は、コメントテーブルの内容の一例を示す図である。図示のように、コメントテーブルは、「修正領域種別」と「指摘コメント」と「指導コメント」との各項目が互いに関連付けて記憶されている。これらの項目のうち、「修正領域種別」の項目には、「音程ずれ」や「タイミングずれ」といった、模範音声と練習者音声との隔たりの態様を識別する情報が記憶されている。「指摘コメント」の項目には、例えば、「音程ずれ」や「タイミングずれ」等、歌唱に対する指摘コメント文を示すテキストデータが記憶されている。「指導コメント」の項目には、例えば、「抑えて」や、「はっきりと」といった、歌唱に対する指導コメント文を示すテキストデータが記憶されている。
【0010】
次に、記憶部14の模範音声データ記憶領域14eには、例えばWAVE形式やMP3(MPEG Audio Layer-3)形式などの音声データであって、楽曲の歌唱の模範として用いられる音声データ(以下、「模範音声データ」)が記憶されている。
次に、記憶部14の模範技法データ記憶領域14fには、模範音声データ記憶領域14eに記憶された模範音声データの表す模範となる歌唱に用いられている歌唱技法の種類とタイミングとを示すデータ(以下、「模範技法データ」)が記憶される。
図3は、模範技法データの内容の一例を示す図である。図示のように、模範技法データは、「区間情報」と「種別情報」との各項目が互いに関連付けられている。これらの項目のうち、「区間情報」の項目には、模範音声データにおいて歌唱技法が用いられた区間を示す情報が記憶される。なお、この区間情報が示す区間は、開始時刻情報と終了時刻情報とによって表される時間幅を有した区間であってもよく、またはある1点の時刻を示すものであってもよい。
「種別情報」の項目には、予め複数種類設定された歌唱技法を識別する情報が記憶される。この「種別情報」は、例えば「ビブラート」、「しゃくり」、「こぶし」、「ファルセット」、「つっこみ」、「ため」、「息継ぎ」などの歌唱技法を識別する情報である。「ビブラート」は、音の高さをほんのわずかに連続的に上下させ、震えるような音色を出す技法を示す。「しゃくり」は、目的の音より低い音から発音し、音程を滑らかに目的の音に近づけていく技法を示す。「こぶし」は、装飾的に加えるうねるような節回しを行う技法を示す。「ファルセット」は、いわゆる「裏声」で歌う技法を示す。「つっこみ」は、歌い出しを本来のタイミングよりも早いタイミングにする技法を示す。「ため」は、歌い出しを本来のタイミングよりも遅いタイミングにする技法を示す。「息継ぎ」は、歌唱者が息継ぎをするタイミングを示すものである。
【0011】
次に、記憶部14の練習者音声データ記憶領域14gには、マイクロフォン18で収音される練習者の音声を表す音声データ(「以下、練習者音声データ」)が記憶される。また、練習者技法データ記憶領域14hには、練習者音声データで用いられている歌唱技法を示すデータ(以下、「練習者技法データ」)が記憶される。この練習者技法データの構成は、上述した模範技法データの構成と同様であり、「区間情報」と「種別情報」との各項目が互いに関連付けられて構成されている。
なお、以下の説明においては、説明の便宜上、「模範音声データ」と「練習者音声データ」とを各々区別する必要がない場合には、これらを「音声データ」と称することとする。また、「模範技法データ」と「練習者技法データ」とを各々区別する必要がない場合には、これらを「技法データ」と称して説明する。
【0012】
次に、修正領域データ記憶領域14iには、CPU11が模範音声データと練習者音声データとの比較処理、および、模範技法データと練習者技法データとの比較処理を行うことによって生成する修正領域を示すデータ(以下、「修正領域データ」)が記憶される。この修正領域データは、練習者音声が模範音声に対して所定量以上の隔たりがある箇所を示すデータである。
図4は、修正領域データの内容の一例を示す図である。図示のように、修正領域データは、「修正領域種別」と「区間情報」と「態様情報」と「ID」との各項目が互いに関連付けられている。これらの項目のうち、「修正領域種別」は、例えば、「音程ずれ」や「タイミングずれ」、「ビブラートずれ」等、模範音声と練習者音声との隔たりの態様を識別する情報が記憶される。「区間情報」の項目には、その隔たりのある箇所を示す時刻情報が記憶される。また、「態様情報」の項目には、隔たりの態様をさらに具体的に示す情報が記憶される。例えば、修正領域種別が「タイミングずれ」の場合に、タイミングが早いのか遅いかといった内容を示す情報が記憶される。「ID」の項目には、修正領域データを識別する情報が記憶される。
【0013】
<B:動作>
次に、この実施形態の動作について、図5に示すフローチャートを参照しつつ以下に説明する。
練習者が楽曲練習装置1の操作部17を操作して曲を選択すると、選択内容を示す信号が操作部17からCPU11に出力される。CPU11は、操作内容を示す信号が入力されたことを検知すると、選択された曲と対応する模範音声データを記憶部14の模範音声データ記憶領域14eから読み出し、読み出した模範音声データに対して音声分析処理を行い、時刻に対応したピッチ、パワー、スペクトルを模範音声データから算出する(ステップSA1)。続けて、CPU11は、伴奏データ記憶領域14aに記憶された伴奏データに含まれるメロディデータと模範音声データ記憶領域14eに記憶された模範音声データとを所定のフレーム単位で解析し、模範音声データとメロディデータとの時間的な対応関係を検出する(ステップSA2)。
次に、CPU11は、模範音声データから算出されたピッチ、パワーおよびスペクトルの時間的な変化のパターンを解析して、この解析結果が予め定められたパターンに対応するか否かを判定し、対応する場合には当該パターンに対応する区間を特定の歌唱技法が用いられている区間として特定する。そして、CPU11は、特定した区間の区間情報を、その歌唱技法を示す種別情報と関連付けて記憶部14の模範技法データ記憶領域14fに記憶する(ステップSA3)。
【0014】
ここで、ステップSA3に示す、各歌唱技法が用いられている区間の特定処理について以下に説明する。本実施形態においては、CPU11は、「ビブラート」、「しゃくり」、「こぶし」、「ファルセット」、「つっこみ」、「ため」および「息継ぎ」の各歌唱技法が用いられている区間を特定(検出)する。これらのうち、「ビブラート」および「しゃくり」は模範音声データから算出されたピッチに基づいて検出する。また、「こぶし」および「ファルセット」は模範音声データから算出されたスペクトルに基づいて検出する。また、「ため」および「つっこみ」は、模範音声データから算出されたピッチとメロディデータとに基づいて検出する。また、「息継ぎ」は、模範音声データから算出されたパワーとメロディデータとに基づいて検出する。
【0015】
CPU11は、模範音声データとメロディデータとの対応関係と、模範音声データから算出されたピッチとに基づいて、模範音声データに含まれる音の開始時刻と当該音に対応するメロディデータの音の開始時刻とが異なる区間を特定する。ここで、CPU11は、模範音声データのピッチの変化タイミングがメロディデータのピッチの変化タイミングよりも早く現れている区間、すなわち模範音声データに含まれる音の開始時刻が当該音に対応するメロディデータの音の開始時刻よりも早い区間については、この区間を「つっこみ」の歌唱技法が用いられている区間であると特定する。CPU11は、特定した区間の区間情報を、「つっこみ」を示す識別情報と関連付けて記憶部14の模範技法データ記憶領域14fに記憶する。
逆に、CPU11は、模範音声データとメロディデータとの対応関係と、模範音声データから算出されたピッチとに基づいて、模範音声データのピッチの変化タイミングがメロディデータのピッチの変化タイミングよりも遅れて現れている区間、すなわち模範音声データに含まれる音の開始時刻が当該音に対応するメロディデータの音の開始時刻よりも遅い区間を検出し、検出した区間を「ため」の歌唱技法が用いられている区間であると特定する。
【0016】
また、CPU11は、模範音声データから算出したピッチの時間的な変化のパターンを解析して、中心となる周波数の上下に所定の範囲内でピッチが連続的に変動している区間を検出し、検出した区間を「ビブラート」の歌唱技法が用いられている区間であると特定する。
【0017】
また、CPU11は、模範音声データから算出したピッチの時間的な変化のパターンを解析して、低いピッチから高いピッチに連続的にピッチが変化する区間を検出し、検出した区間を「しゃくり」の歌唱技法が用いられている区間であると特定する。なお、この処理は、メロディデータとの対応関係に基づいて行うようにしてもよい。すなわち、CPU11は、模範音声データとメロディデータとの対応関係に基づいて、模範音声データのピッチが、低いピッチから連続的にメロディデータのピッチに近づいている区間を検出すればよい。
【0018】
また、CPU11は、模範音声データとメロディデータとの対応関係と、模範音声データから算出されたパワーとに基づいて、メロディデータが有音である区間であって模範音声データのパワー値が所定の閾値よりも小さい区間を検出し、検出した箇所を「息継ぎ」の区間であると特定する。
【0019】
また、CPU11は、模範音声データから算出されたスペクトルの時間的な変化パターンを解析して、スペクトル特性がその予め決められた変化状態に急激に遷移している区間を検出し、検出した区間を「ファルセット」の歌唱技法が用いられている区間であると特定する。ここで、予め決められた変化状態とは、スペクトル特性の高調波成分が極端に少なくなる状態である。例えば、図6に示すように、地声の場合は沢山の高調波成分が含まれるが(同図(a)参照)、ファルセットになると高調波成分の大きさが極端に小さくなる(同図(b)参照)。なお、この場合、CPU11は、ピッチが大幅に上方に変化したかどうかも参照してもよい。ファルセットは地声と同一のピッチを発生する場合でも用いられることもあるが、一般には地声では発声できない高音を発声するときに使われる技法だからである。したがって、音声データのピッチが所定音高以上の場合に限って「ファルセット」の検出をするように構成してもよい。また、男声と女声とでは一般にファルセットを用いる音高の領域が異なるので、音声データの音域や、音声データから検出されるフォルマントによって性別検出を行い、この結果を踏まえてファルセット検出の音高領域を設定してもよい。
また、CPU11は、スペクトル特性の変化の態様が短時間に多様に切り替わる区間を検出し、検出した部分を「こぶし」の歌唱技法が用いられている部分であると特定する。「こぶし」の場合は、短い区間において声色や発声方法を変えて唸るような味わいを付加する歌唱技法であるため、この技法が用いられている区間においてはスペクトル特性が多様に変化するからである。
以上のようにして、CPU11は、模範音声データから各歌唱技法が用いられている区間を検出し、検出した区間を示す区間情報をその歌唱技法を示す種別情報と関連付けて記憶部14の模範技法データ記憶領域14fに記憶する。
【0020】
図5の説明に戻る。楽曲練習装置1のCPU11は、模範技法データの生成処理(ステップSA3)を終えると、伴奏データ記憶領域14aに記憶された伴奏データを読み出して、読み出した伴奏データを音声処理部19に供給する。音声処理部19は、供給された伴奏データをアナログ信号に変換して伴奏データの表す音声をスピーカ20から発音させる。また、CPU11は、伴奏データを音声処理部19に供給するに併せて、歌詞データ記憶領域14bに記憶された歌詞データと、背景画データ記憶領域14cに記憶された背景画データとを、表示部16に供給して、再生される伴奏に対応する歌詞と背景画とを表示部16に表示させる。
【0021】
練習者は、表示部16に表示される歌詞を確認しつつ、スピーカ20から発音される伴奏に併せて歌唱を行う。練習者によって歌唱が行われると、練習者の音声がマイクロフォン18によって音声信号に変換され、変換された信号が音声処理部19へ出力される。音声処理部19は、マイクロフォン18から出力された音声信号をデジタルデータに変換して練習者音声データとする(ステップSA4)。この練習者音声データは、音声処理部19から出力されて記憶部14の練習者音声データ記憶領域14gに記憶される。
【0022】
伴奏の再生が終了すると、楽曲練習装置1のCPU11は、練習者音声データ記憶領域14gに記憶された練習者音声データに対して基礎分析処理を行って、ピッチ、パワー、スペクトルを算出する(ステップSA5)。また、楽曲練習装置1のCPU11は、伴奏データ記憶領域14aに記憶された伴奏データに含まれるメロディデータと練習者音声データ記憶領域14gに記憶された練習者音声データとを所定のフレーム単位で解析し、練習者音声データとメロディデータとの時間的な対応関係を検出する(ステップSA6)。続けて、CPU11は、練習者音声データから練習者技法データを生成する(ステップSA7)。これらのステップSA5〜SA7に示した処理と、上述したステップSA2〜SA4に示した処理が異なる点は、処理対象となる音声データが異なる点である。すなわち、ステップSA2〜ステップSA4では模範音声データに対して処理を行い、ステップSA5〜SA7では練習者音声データに対して処理が行われるものの、その処理内容については同様であるため、ステップSA5〜ステップSA7についてはその詳細な説明を省略する。
【0023】
次に、楽曲練習装置1のCPU11は、模範音声データと練習者音声データとの両者の波形同士を直接対比して、例えばDTW(Dynamic Time Warping)等により、模範音声データと、練習者音声データとの時間的な対応付けをフレーム毎に行い、両者の対応箇所を検出する(ステップSA8)。
【0024】
続けて、楽曲練習装置1のCPU11は、ステップSA8で検出した対応箇所に基づいて、模範音声データ記憶領域14eに記憶された模範音声データと音声処理部19から出力された練習者音声データとを比較し、練習者音声データが模範音声データに対して所定量以上の隔たりがある場合は、練習者音声データの該当箇所を修正領域として特定する(ステップSA9)。具体的には、CPU11は、模範音声データのピッチと練習者音声データのピッチとを、歌詞の文字単位(本実施形態においてはひらがな1文字単位)毎の区間毎に比較して、練習者音声データが模範音声データに対して所定量以上の隔たりが検出された場合には、該練習者音声データの当該箇所を修正領域として特定する。CPU11は、検出した隔たりの態様と、その隔たりの程度とを示す修正領域データを生成して、記憶部14の修正領域データ記憶領域14iに記憶する。具体的には、例えば、CPU11は、練習者音声データのピッチが模範音声データのピッチに対して所定量以上の隔たりが検出された場合には、「音程ずれ」を示す修正領域データを生成する。また、例えば、CPU11は、練習者音声データのピッチの変化タイミングが模範音声データのピッチの変化タイミングに対して所定量以上の隔たりが検出された場合には、「タイミングずれ」を閉めす修正領域データを生成する。
【0025】
また、CPU11は、模範技法データ記憶領域14fに記憶された模範技法データと、練習者音声データから生成された練習者技法データとを比較し、練習者技法データが模範技法データに対して所定量以上の隔たりがある場合は、練習者技法データの該当箇所を修正領域として特定する(ステップSA10)。具体的には、例えば、CPU11は、記憶部14の模範技法データ記憶領域14fに記憶された模範技法データをひとつずつ読み出して、読み出した模範技法データと対応する練習者技法データを練習者技法データ記憶領域14hから検索し、歌詞の文字単位毎の区間を評価区間として、模範技法データの区間情報と練習者技法データの区間情報とが所定量以上隔たっている評価区間を修正領域として特定する。このようにして修正領域を特定することによって、模範音声で歌唱技法が用いられている区間と練習者音声で歌唱技法が用いられている区間とに時間的なずれがある修正領域と特定することができるとともに、また、模範音声で歌唱技法が用いられている区間であって練習者音声で歌唱技法が用いられていない区間についても、この区間を修正領域として特定することができる。
上述したステップSA9とステップSA10の処理をCPU11が実行することによって修正領域が特定される。
【0026】
次に、CPU11は、ステップSA9,SA10において特定した修正領域における練習者音声データの模範音声データに対する隔たりの態様に応じて、コメントテーブル記憶領域14dに記憶されたコメントテーブルからコメント文を選択して読み出す(ステップSA11)。すなわち、CPU11は、生成された修正領域データの修正領域種別を、コメントテーブル記憶領域14dに記憶されたコメントテーブルから検索し、検索されたものと対応する指摘コメントと指導コメントとを選択して読み出す。
【0027】
次に、楽曲練習装置1のCPU11は、楽曲構成データ(メロディデータ、歌詞データ)を記憶部14から読み出して表示部16に表示させるとともに、練習者音声データと模範音声データとを表示部16に表示させる。また、CPU11は、ステップSA11においてコメントテーブル記憶領域14dから読み出したコメント文(指摘コメントと指導コメント)を、表示部16に表示されている歌詞データにおけるステップSA9,SA10で特定した修正領域に該当する部分に表示させる(ステップSA12)。
【0028】
図7(a)は、楽曲練習装置1の表示部16に表示される画面の一例を示す図である。
楽曲練習装置1のCPU11は、模範音声データのピッチの時間的な変化を示すグラフA1を表示させるとともに、練習者音声データのピッチの時間的な変化を示すグラフA2を表示部16に表示させる。また、CPU11は、メロディデータのピッチの時間的な変化を示すグラフA3を表示部16に表示させる。
また、CPU11は、ステップSA2で検出した模範音声データとメロディデータとの対応関係と、歌詞データ記憶領域14bに記憶された歌詞データとに基づいて歌詞W1を表示させ、また、ステップS6で検出した練習者音声データとメロディデータとの対応関係と、歌詞データ記憶領域14bに記憶された歌詞データとに基づいて歌詞W2を表示させる。
さらに、CPU11は、模範技法データの種別情報と区間情報とに基づいて、模範音声において各歌唱技法が用いられている区間と対応する歌詞の文字の近傍に、当該種別情報と対応する歌唱技法を示すアイコンI1,I2を表示させる。また、CPU11は、ステップSA11で読み出した指摘コメントC1,C2と指導コメントC11,C12とを、表示されている歌詞情報の該当部分に表示させる。
【0029】
このように、楽曲練習装置1のCPU11は、練習者音声データが模範音声データに対して所定量以上の隔たりが検出された場合には、該練習者音声データの該当箇所を修正領域として特定し、その修正領域における練習者音声データの模範音声データに対する隔たりの態様に応じてコメントテーブルから指摘コメントを選択して表示させるから、曲中のどの箇所がどのように悪いかを練習者に指摘することができる。
【0030】
また、楽曲練習装置1のCPU11は、練習者音声データが模範音声データに対して所定量以上の隔たりが検出された場合には、該練習者音声データの該当箇所を修正領域として特定し、その修正領域における練習者音声データの模範音声データに対する隔たりの態様に応じてコメントテーブルから指導コメントを選択して表示させるから、歌唱方法をどのように修正すればよいかを練習者に指導することができる。
【0031】
図7(a)に示す画面において、練習者は、その修正領域における模範音声または練習者音声を再生する旨を、操作部17を用いて指示することができる。これは例えば、図7(a)に示すような、「先生の歌唱を聴く場合は該当数値とAを押してください」や、「あなたの歌唱を聴く場合は該当数値とBを押してください」といった、操作を促すメッセージM1を表示するようにし、また、図7(b)に示すような、0〜9のテンキーB10と「A」,「B」を選択できる操作ボタンB11,B12とを備える操作部17を操作して練習者が指示するようにすればよい。
練習者が操作部17を操作することによって指示されると、その指示内容を示す信号が操作部17からCPU11に入力される。CPU11は、模範音声の再生指示を示す信号が入力されたことを検知した場合は、選択されたID(番号)に対応する修正領域について、模範音声データのうちの当該修正領域に対応するデータを、音声処理部19に供給する。音声処理部19は、供給された信号に応じてスピーカ20から音を放音する。一方、練習者音声の再生指示を示す信号が入力されたことを検知した場合は、CPU11は、練習者音声データから修正領域に対応するデータを抽出して、音声処理部19に供給する。音声処理部19は、供給された信号に応じてスピーカ20から音を放音する。
このように、CPU11が、修正領域における模範音声または練習者音声を音声処理部19を介してスピーカ20に放音させるから、練習者は、模範音声と練習者音声とを聴き比べることができる。
【0032】
また、図8は、表示部16に表示される画面の他の例を示す図である。この画面においては、練習者は、「指摘箇所を練習する」、「自動で繰り返し練習する」、「先生の歌唱を聴く」、「あなたの音声を聴く」のいずれかを、操作部17を用いて選択することができる。練習者によって操作部17が操作されると、操作部17は、操作された内容に応じた信号をCPU11に出力することによって各処理を指示する。例えば、「指摘箇所を練習する」を選択する操作が行われた場合は、操作部17は、図5のステップSA9,SA10において特定した修正領域から伴奏を開始させることをCPU11に指示する。
【0033】
操作部17から信号が入力されると、CPU11は、入力された信号に応じた処理を実行する。例えば、「指摘箇所を練習する」旨の信号が入力された場合、すなわち、操作部17を介して伴奏の開始が指示された場合は、CPU11は、図5のステップSA9,SA10において特定した修正領域であって、選択されたID(番号)に対応する修正領域に対応する伴奏データを伴奏データ記憶領域14aから読み出して、伴奏データ信号を生成して音声処理部19に出力する。音声処理部19は、供給された信号に応じてスピーカ20から伴奏音を放音する。
このように、修正領域に対応する伴奏データを楽曲練習装置1が再生することによって、練習者は、模範音声と自身の歌唱との相違箇所の歌唱を練習することができる。
【0034】
一方、「自動で繰り返し練習する」旨の信号が入力された場合は、CPU11は、音声処理部19を介して、伴奏データのうち修正領域に対応する伴奏データの示す伴奏をスピーカ20から繰り返し放音させる。「先生の歌唱を聴く」、または「あなたの音声を聴く」が選択された場合は、CPU11は、音声処理部19を介して、修正領域に対応する模範音声データまたは練習者音声データを、スピーカ20から放音させる。
【0035】
<C:変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。
(1)上述した実施形態においては、楽曲構成データ(歌詞データ、メロディデータ)に加えて、模範音声データを示すグラフA1と練習者音声データを示すグラフA2(図7参照)とを表示部16に表示させるようにした。これに代えて、模範音声データや練習者音声データを表示させずに、楽曲構成データのみを表示させるようにしてもよい。
図9は、模範音声データと練習者音声データとを表示させずに、楽曲構成データ(歌詞データとメロディデータ)を表示させる場合の画面の一例を示す図である。図9に示す例においては、楽曲練習装置のCPUは、メロディデータのピッチの時間的な変化を示すグラフA3を表示させるとともに、記憶部に記憶された歌詞データに基づいて歌詞W3を表示部に表示させ、また、コメントC11,C12を表示されている歌詞W3の該当部分に表示させる。
図9に示す例においては、模範音声データを記憶部に記憶させておく必要はなく、メロディデータのみを記憶部に記憶させておけばよい。
なお、このとき、図9に示すように、メロディデータのピッチの変化に対応する位置関係で歌詞W3の文字のそれぞれを表示させるようにしてもよい。また、上述した実施形態と同様に、模範音声において各歌唱技法が用いられている区間と対応する歌詞の文字の近傍に、各歌唱技法を示すアイコンI1,I2を表示させるようにしてもよい。
【0036】
(2)上述した実施形態においては、楽曲を構成し、楽曲の進行に従った内容を示すデータを有する楽曲構成データとして、歌詞データとメロディデータとを用いて、これら双方を表示部に表示させるようにしたが、楽曲構成データとしてこれら双方を用いる必要はなく、例えば、歌詞データのみを楽曲構成データとして用いてもよく、または、メロディデータのみを楽曲構成データとして用いてもよい。すなわち、歌詞データおよびメロディデータの少なくともいずれか一方を楽曲構成データとして用いればよい。
図10は、歌詞データのみを楽曲構成データとして用いた場合に表示される画面の一例を示す図である。この場合、楽曲練習装置のCPUは、図10に示すように、記憶部に記憶された歌詞データに基づいて歌詞W4を表示させるとともに、コメントC11,C12を表示されている歌詞W4の該当部分に表示させる。
【0037】
また、上述した実施形態においては、楽曲を構成し、楽曲の進行に従った内容を示すデータを有する楽曲構成データとして、歌詞データとメロディデータとを用いたが、楽曲構成データはこれに限定されるものではなく、例えば、楽曲において第何小節目であるかを示すデータや、第何フレーズ目であるかを示すデータ等であってもよい。すなわち、楽曲構成データは、楽曲を構成し、楽曲の進行に従った内容を示すデータであればどのようなものであってもよい。
【0038】
(3)上述した実施形態においては、模範音声データと練習者音声データとを比較して修正領域を特定する(図5のステップSA9参照)とともに、模範技法データと練習者技法データとを比較して修正領域を特定する(図5のステップSA10参照)ようにした。これに代えて、模範技法データと模範音声データのいずれか一方を用いて修正領域を特定してもよい。すなわち、図5のステップSA9とステップSA10のいずれか一方の処理を行って修正領域を特定するようにしてもよい。
【0039】
(4)上述した実施形態においては、歌詞の文字単位毎の区間を単位として修正領域を特定するようにしたが、修正領域の単位はこれに限定されるものではなく、例えば、音符、小節または予め決められた複数の小節を単位として修正領域を特定するようにしてもよい。または、楽曲の冒頭からの絶対時刻の修正領域を特定するようにしてもよい。
【0040】
(5)上述した実施形態においては、コメント文として指摘コメントと指導コメントとの両方を表示部16に表示させるようにしたが、どちらか一方のみを表示させてもよい。
【0041】
(6)上述した実施形態においては、歌詞データを予め記憶部に記憶させておくようにしたが、これに代えて、楽曲練習装置のCPUが、音声データに対して音声認識処理を施して、音声データから歌詞データを自動的に生成するようにしてもよい。この場合は、CPUが、メロディデータと、音声データから抽出したピッチとを照合させて、どの歌詞がどのタイミングで歌われているかを自動的に割り付けるようにすればよい。
【0042】
(7)上述した実施形態においては、記憶部14の模範音声データ記憶領域14eに記憶される音声データはWAVE形式やMP3形式のデータとしたが、データの形式はこれに限定されるものではなく、音声を示すデータであればどのような形式のデータであってもよい。
また、上述した実施形態においては、模範音声データを記憶部14に記憶させて、楽曲練習装置1のCPU11が記憶部14から模範音声データを読み出すようにしたが、これに代えて、通信ネットワークを介して音声データを受信するようにしてもよい。要するに、模範音声データをCPU11に入力するようにすればよい。このようにすれば、所望の歌手の音声データをダウンロードして用いることができるから、練習者は、その歌手の歌唱技法と自身の歌唱技法とを比較することができ、所望の歌手の歌唱技法を真似て歌唱することが容易になる。
【0043】
(8)上述した実施形態においては、練習者データとして、入力される練習者の歌唱を示す練習者音声データと、練習者音声に用いられている技法の種類とタイミングを示す練習者技法データとを用い、また、模範データとして、楽曲の歌唱の模範として用いられる模範音声データと、模範となる歌唱に用いられている技法の種類とタイミングを示す模範技法データを用いた。本発明における練習者データと模範データとはこれに限定されるものではなく、楽器の演奏音を表す音声データにも適用することができる。すなわち、練習者データは、入力される楽器の演奏音を表すデータであり、模範データは、模範として用いられる楽器の演奏音を表すデータであってもよい。なお、この場合は、練習者の演奏技法(例えば、ビブラート、息継ぎ、ため等)を示す技法データと練習者データとして、また、模範演奏の演奏技法を示す技法データを模範データとして用いるようにしてもよい。
【0044】
(9)上述した実施形態では、楽曲練習装置1が、本実施形態に係る修正領域特定処理等を行うようになっていた。これに対し、通信ネットワークで接続された2以上の装置が上記実施形態に係る機能を分担するようにし、それら複数の装置を備えるシステムが同実施形態の楽曲練習装置1を実現するようにしてもよい。例えば、マイクロフォンやスピーカ、表示装置および入力装置等を備えるコンピュータ装置と、修正領域特定処理を実行するサーバ装置とが通信ネットワークで接続されたシステムとして構成されていてもよい。この場合は、コンピュータ装置が、マイクロフォンから入力された音声を音声データに変換してサーバ装置に送信し、サーバ装置が、受信した音声データと模範音声データとの比較処理を行って修正領域を特定し、修正領域を示す修正領域データをコンピュータ装置に送信するようにすればよい。
【0045】
(10)上述した実施形態における楽曲練習装置1のCPU11によって実行されるプログラムは、磁気テープ、磁気ディスク、フロッピー(登録商標)ディスク、光記録媒体、光磁気記録媒体、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)、RAMなどの記録媒体に記憶した状態で提供し得る。また、インターネットのようなネットワーク経由で楽曲練習装置1にダウンロードさせることも可能である。
【図面の簡単な説明】
【0046】
【図1】楽曲練習装置のハードウェア構成の一例を示すブロック図である。
【図2】コメントテーブルの内容の一例を示す図である。
【図3】模範技法データの内容の一例を示す図である。
【図4】修正領域データの内容の一例を示す図である。
【図5】楽曲練習装置の制御部が行う処理の流れを示すフローチャートである。
【図6】ファルセットの検出処理を説明するための図である。
【図7】楽曲練習装置の表示部に表示される画面の一例を示す図である。
【図8】楽曲練習装置の表示部に表示される画面の一例を示す図である。
【図9】楽曲練習装置の表示部に表示される画面の一例を示す図である。
【図10】楽曲練習装置の表示部に表示される画面の一例を示す図である。
【符号の説明】
【0047】
1…楽曲練習装置、11…CPU、12…ROM、13…RAM、14…記憶部、15…バス、16…表示部、17…操作部、18…マイクロフォン、19…音声処理部、20…スピーカ。
【特許請求の範囲】
【請求項1】
入力される練習者の音声を練習者データとして出力する入力手段と、
模範データが記憶された模範データ記憶手段と、
前記模範データ記憶手段に記憶された模範データと前記入力手段から出力された練習者データとを比較し、前記練習者データが前記模範データに対して所定量以上の隔たりがある場合は、前記練習者データの当該箇所を修正領域として特定する修正領域特定手段と、
コメント文を複数記憶したコメント文記憶手段と、
前記修正領域特定手段が特定した箇所における練習者データの前記模範データに対する隔たりの態様に応じて前記コメント文記憶手段からコメント文を選択して読み出すコメント文読出手段と、
楽曲を構成し、楽曲の進行に従った内容を示すデータを有する楽曲構成データを記憶する楽曲構成データ記憶手段と、
楽曲構成データ記憶手段から前記楽曲構成データを読み出して表示装置に表示させるとともに、前記コメント読出手段が読み出したコメント文を、前記表示装置に表示されている楽曲構成データにおける前記修正領域特定手段が特定した修正領域に該当する部分に表示させる表示制御手段と
を具備することを特徴とする楽曲練習装置。
【請求項2】
前記模範データは、模範となる歌唱の模範音声データであることを特徴とする請求項1記載の楽曲練習装置。
【請求項3】
前記表示制御手段は、前記楽曲構成データに加えて、前記模範データまたは前記練習者データの少なくともいずれか一方を前記表示装置に表示させることを特徴とする請求項1または2記載の楽曲練習装置。
【請求項4】
前記模範データは、模範となる歌唱に用いられている技法の種類とタイミングを示す技法データであることを特徴とする請求項1記載の楽曲練習装置。
【請求項5】
前記練習者データは、入力される楽器の演奏音を表すデータであり、前記模範データは、模範として用いられる楽器の演奏音を表すデータであることを特徴とする請求項1記載の楽曲練習装置。
【請求項6】
前記楽曲構成データは、前記楽曲の歌詞を示す歌詞データまたは前記楽曲のメロディの音階を示すメロディデータの少なくともいずれか一方であることを特徴とする請求項1から5いずれかに記載の楽曲練習装置。
【請求項7】
修正領域特定手段によって特定される前記修正領域は、音符、小節または予め決められた複数の小節を単位として特定されることを特徴とする請求項1から6いずれかに記載の楽曲練習装置。
【請求項8】
前記楽曲の伴奏楽音を構成する伴奏データを記憶する伴奏データ記憶手段と、
前記修正領域特定手段が特定した修正領域から伴奏を開始させることを指示する指示手段と、
前記指示手段によって伴奏の開始が指示された場合に、前記修正領域特定手段が特定した修正領域に対応する部分の伴奏データを前記伴奏データ記憶手段から読み出して、伴奏音信号を生成する伴奏音信号生成手段と
を具備することを特徴とする請求項1から7いずれかに記載の楽曲練習装置。
【請求項1】
入力される練習者の音声を練習者データとして出力する入力手段と、
模範データが記憶された模範データ記憶手段と、
前記模範データ記憶手段に記憶された模範データと前記入力手段から出力された練習者データとを比較し、前記練習者データが前記模範データに対して所定量以上の隔たりがある場合は、前記練習者データの当該箇所を修正領域として特定する修正領域特定手段と、
コメント文を複数記憶したコメント文記憶手段と、
前記修正領域特定手段が特定した箇所における練習者データの前記模範データに対する隔たりの態様に応じて前記コメント文記憶手段からコメント文を選択して読み出すコメント文読出手段と、
楽曲を構成し、楽曲の進行に従った内容を示すデータを有する楽曲構成データを記憶する楽曲構成データ記憶手段と、
楽曲構成データ記憶手段から前記楽曲構成データを読み出して表示装置に表示させるとともに、前記コメント読出手段が読み出したコメント文を、前記表示装置に表示されている楽曲構成データにおける前記修正領域特定手段が特定した修正領域に該当する部分に表示させる表示制御手段と
を具備することを特徴とする楽曲練習装置。
【請求項2】
前記模範データは、模範となる歌唱の模範音声データであることを特徴とする請求項1記載の楽曲練習装置。
【請求項3】
前記表示制御手段は、前記楽曲構成データに加えて、前記模範データまたは前記練習者データの少なくともいずれか一方を前記表示装置に表示させることを特徴とする請求項1または2記載の楽曲練習装置。
【請求項4】
前記模範データは、模範となる歌唱に用いられている技法の種類とタイミングを示す技法データであることを特徴とする請求項1記載の楽曲練習装置。
【請求項5】
前記練習者データは、入力される楽器の演奏音を表すデータであり、前記模範データは、模範として用いられる楽器の演奏音を表すデータであることを特徴とする請求項1記載の楽曲練習装置。
【請求項6】
前記楽曲構成データは、前記楽曲の歌詞を示す歌詞データまたは前記楽曲のメロディの音階を示すメロディデータの少なくともいずれか一方であることを特徴とする請求項1から5いずれかに記載の楽曲練習装置。
【請求項7】
修正領域特定手段によって特定される前記修正領域は、音符、小節または予め決められた複数の小節を単位として特定されることを特徴とする請求項1から6いずれかに記載の楽曲練習装置。
【請求項8】
前記楽曲の伴奏楽音を構成する伴奏データを記憶する伴奏データ記憶手段と、
前記修正領域特定手段が特定した修正領域から伴奏を開始させることを指示する指示手段と、
前記指示手段によって伴奏の開始が指示された場合に、前記修正領域特定手段が特定した修正領域に対応する部分の伴奏データを前記伴奏データ記憶手段から読み出して、伴奏音信号を生成する伴奏音信号生成手段と
を具備することを特徴とする請求項1から7いずれかに記載の楽曲練習装置。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【公開番号】特開2007−233013(P2007−233013A)
【公開日】平成19年9月13日(2007.9.13)
【国際特許分類】
【出願番号】特願2006−54147(P2006−54147)
【出願日】平成18年2月28日(2006.2.28)
【出願人】(000004075)ヤマハ株式会社 (5,930)
【Fターム(参考)】
【公開日】平成19年9月13日(2007.9.13)
【国際特許分類】
【出願日】平成18年2月28日(2006.2.28)
【出願人】(000004075)ヤマハ株式会社 (5,930)
【Fターム(参考)】
[ Back to top ]