説明

携帯端末装置および楽曲表現方法

【課題】 本発明は、再生中の楽曲データがどのように評価されているかを簡単に認識することができる携帯端末装置および楽曲表現方法を提供することを課題とする。
【解決手段】 端末楽曲データベース32に楽曲データと共に、楽曲データの印象を表す印象度データを記録しておき、発光色決定部38は、音声出力部36によって音声出力されている楽曲データの印象度データに基づいて発光色を決定し、複数の発光色で発光する発光部37を発光色決定部38で決定した発光色で発光させる。端末楽曲データベース32に記録されている印象度データは、複数の評価項目からなり、発光色決定部38は、印象度データの中で最も特徴的な評価項目を抽出し、抽出した評価項目に予め割り当てられている発光色で発光部37を発光させる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、端末楽曲データベースに記憶された複数の楽曲データの再生を行う携帯端末装置および楽曲表現方法に関し、特に再生を行う楽曲データの情報を表示する端末表示部を備えた携帯端末装置および選曲方法に関する。
【背景技術】
【0002】
近年、HDD等の小型で大容量の記憶手段が開発され、大量の楽曲データを記憶させておくことができるポータブルオーディオ等の携帯型の音声再生装置(以下、携帯端末装置と称す)が提案されている。携帯可能な携帯端末装置は、小型化されているため、操作のための入力スペースや表示スペースに制限があり、記憶手段に記憶された大量の楽曲データの管理は、携帯端末装置と接続可能に構成されたパーソナルコンピュータによって行われている。
【0003】
パーソナルコンピュータによって行う管理としては、例えば、楽曲に対する主観的な印象に基づいて利用者の希望する楽曲を検索可能にするために、検索を希望する楽曲に対するユーザの主観的な要件を入力して数値化して出力し、その出力から、検索対象の楽曲の印象を数量化した予測印象値を算出し、算出した予測印象値をキーとして、複数の楽曲の音響信号およびその楽曲の印象を数量化した印象値を記憶した楽曲データベースを検索することにより、利用者の楽曲に対する主観的なイメージに基づいて、希望する楽曲を検索し、検索した楽曲データを携帯端末装置に転送するようにしている(例えば、特許文献1参照)。
【0004】
しかしながら、従来技術では、記憶された大量の楽曲データの管理をパーソナルコンピュータで行うように構成されているため、楽曲データの印象値が携帯端末装置に転送されず、再生中の楽曲データがどのように評価されているかを簡単に認識することができないという問題点があった。
【特許文献1】特開2002−278547号公報
【発明の開示】
【発明が解決しようとする課題】
【0005】
本発明は斯かる問題点を鑑みてなされたものであり、その目的とするところは、再生中の楽曲データがどのように評価されているかを簡単に認識することができる携帯端末装置および楽曲表現方法を提供する点にある。
【課題を解決するための手段】
【0006】
本発明は上記課題を解決すべく、以下に掲げる構成とした。
本発明の携帯端末装置は、楽曲データを記録しておき、記録している前記楽曲データの再生を行う携帯端末装置であって、前記楽曲データと共に、前記楽曲データの印象を表す印象度データを記録する端末楽曲データベースと、該端末楽曲データベースに記録されている前記楽曲データを読み出して音声出力する音声出力手段と、該音声出力手段によって音声出力されている前記楽曲データの前記印象度データに基づいて発光色を決定する発光色決定手段と、複数の発光色を切り換えて発光する発光手段とを具備し、前記発光手段を前記発光色決定手段によって決定された発光色で発光させることを特徴とする。
【0007】
さらに、本発明の携帯端末装置は、前記端末楽曲データベースに記録されている前記印象度データは、複数の評価項目からなり、前記発光色決定手段は、前記印象度データの中で最も特徴的な前記評価項目を抽出し、抽出した評価項目に予め割り当てられている発光色で前記発光手段を発光させることを特徴とする。
【0008】
さらに、本発明の携帯端末装置は、前記発光色決定手段は、前記印象度データの複数の前記評価項目についていずれが最小値もしくは最大値に最も近いかを判断することで最も特徴的な前記評価項目を抽出することを特徴とする。
【0009】
さらに、本発明の携帯端末装置は、該音声出力手段によって音声出力されている前記楽曲データの書誌データを表示する端末表示手段を具備し、
前記発光手段は、前記端末表示手段の端部に配置され、前記端末表示手段の表示面に対して横方向から投光して前記端末表示手段の表示面を発色させることを特徴とする。
【0010】
また、本発明の楽曲表現方法は、楽曲データを記録しておき、記録している前記楽曲データの再生を行う携帯端末装置において、再生中の前記楽曲データのイメージを表現する楽曲表現方法であって、端末楽曲データベースに前記楽曲データと共に、前記楽曲データの印象を表す印象度データを記録しておき、前記端末楽曲データベースに記録されている前記楽曲データを読み出して音声出力し、該音声出力している前記楽曲データの前記印象度データに基づいて発光色を決定し、複数の発光色を切り換えて発光する発光手段を前記決定した発光色で発光させることを特徴とする。
【0011】
さらに、本発明の楽曲表現方法は、前記印象度データは、複数の評価項目からなり、前記印象度データの中で最も特徴的な前記評価項目を抽出し、抽出した評価項目に予め割り当てられている発光色で前記発光手段を発光させることを特徴とする。
【0012】
さらに、本発明の楽曲表現方法は、前記印象度データの複数の前記評価項目についていずれが最小値もしくは最大値に最も近いかを判断することで最も特徴的な前記評価項目を抽出することを特徴とする。
【0013】
さらに、本発明の楽曲表現方法は、前記音声出力されている前記楽曲データの書誌データを表示する端末表示手段の表示面表示面を前記決定した発光色で発色させることを特徴とする。
【発明の効果】
【0014】
本発明の携帯端末装置および選曲方法は、端末楽曲データベースに楽曲データと共に、楽曲データの印象を表す印象度データを記録しておき、音声出力している楽曲データの印象度データに基づいて発光色を決定し、複数の発光色で発光する発光手段を決定した発光色で発光させるように構成することにより、再生している楽曲データの印象を表す印象度データを発光色によって簡単に把握することができるため、再生中の楽曲データがどのように評価されているかを簡単に認識することができるという効果を奏する。
【発明を実施するための最良の形態】
【0015】
以下、本発明の実施の形態を図面に基づいて詳細に説明する。
【0016】
図1は、本発明に係る楽曲検索システムの実施の形態の構成を示すブロック図であり、図2は、図1に示す携帯端末装置の構成を示す前面図であり、図3は、図1に示す楽曲登録装置に用いられるニューラルネットワークを事前に学習させるニューラルネットワーク学習装置の構成を示すブロック図である。
【0017】
本実施の形態は、図1を参照すると、楽曲登録装置10と、携帯端末装置30とがUSB等のデータ伝送路23で接続されており、携帯端末装置30は、楽曲登録装置10から切り離して携帯することができる構成となっている。
【0018】
楽曲登録装置10は、パーソナルコンピュータ等のプログラム制御で動作する情報処理装置であり、図1を参照すると、楽曲データ入力部11と、圧縮処理部12と、特徴データ抽出部13と、印象度データ変換部14と、楽曲データベース15と、楽曲マッピング部16と、楽曲マップ記憶部17と、楽曲検索部18と、PC操作部19と、PC表示部20と、送受信部21と、音声出力部22とからなる。
【0019】
楽曲データ入力部11は、CD、DVD等の楽曲データが記憶されている記憶媒体を読み取る機能を有し、CD、DVD等の記憶媒体から楽曲データを入力し、圧縮処理部12および特徴データ抽出部13に出力する。CD、DVD等の記憶媒体以外にインターネット等のネットワークを経由した楽曲データ(配信データ)を入力するように構成しても良い。なお、圧縮された楽曲データが入力される場合には、圧縮された楽曲データを伸長して特徴データ抽出部13に出力する。
【0020】
圧縮処理部12は、楽曲登録時には、楽曲データ入力部11から入力された楽曲データをMP3やATRAC(Adaptive Transform Acoustic Coding )等の圧縮形式で圧縮し、圧縮した楽曲データを、アーティスト名、曲名等の書誌データと共に楽曲データベース15に記憶させる。
【0021】
特徴データ抽出部13は、楽曲データ入力部11から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出し、抽出した特徴データを印象度データ変換部14に出力する。
【0022】
印象度データ変換部14は、図3に示すニューラルネットワーク学習装置40によって予め学習が施された階層型ニューラルネットワークを用いて、特徴データ抽出部13から入力された特徴データを、人間の感性によって判断される印象度データに変換し、変換した印象度データを楽曲マッピング部16に出力すると共に、特徴データ抽出部13から入力された特徴データと変換した印象度データとを楽曲データに関連づけて楽曲データベース15に登録する。
【0023】
楽曲データベース15は、HDD等の大容量の記憶手段であり、圧縮処理部12によって圧縮された楽曲データ、書誌データと、特徴データ抽出部13によって抽出された特徴データと、印象度データ変換部14によって変換された印象度データとが関連づけられて記憶される。
【0024】
楽曲マッピング部16は、印象度データ変換部14から入力された印象度データに基づいて、任意空間である楽曲マップに楽曲データをマッピングし、楽曲データをマッピングした楽曲マップを楽曲マップ記憶部17に記憶させると共に、楽曲マップにマッピングされた楽曲データを検索するための検索テーブルを作成し、作成した検索テーブルを楽曲データベース15に記憶させる。なお、楽曲マップとしては、図3に示すニューラルネットワーク学習装置40によって予め学習が施された自己組織化マップが用いられる。
【0025】
楽曲マップ記憶部17は、HDD等の大容量の記憶手段であり、楽曲マッピング部16によって楽曲データがマッピングされた楽曲マップが記憶される。
【0026】
楽曲検索部18は、PC操作部19から書誌データに基づいて楽曲データベース15を検索し、当該検索結果をPC表示部20に表示すると共に、PC操作部19によって選択された代表曲に基づいて楽曲マップ記憶部17を検索し、当該代表曲検索結果をPC表示部20に表示すると共に検索リストとして楽曲データベース15に記憶させる。
【0027】
PC操作部19は、キーボードやマウス等の入力手段であり、楽曲データベース15および楽曲マップ記憶部17に記憶されている楽曲データを検索する検索条件の入力、携帯端末装置30に出力する楽曲データを選択する入力が行われる。
【0028】
PC表示部20は、例えば液晶ディスプレイ等の表示手段であり、楽曲マップ記憶部17に記憶されている楽曲データのマッピング状況の表示、楽曲データベース15および楽曲マップ記憶部17に記憶されている楽曲データを検索する検索条件の表示、検索された楽曲データ(検索結果)の表示等が行われる。
【0029】
送受信部21は、携帯端末装置30の送受信部31との間をUSB等のデータ伝送路23で接続可能に構成されており、楽曲データベース15に記憶されている楽曲データと、当該楽曲データに対応する印象度データおよび楽曲マップにおけるニューロンの座標と、検索テーブルと、検索リストとを携帯端末装置30の送受信部31に出力する。
【0030】
音声出力部22は、楽曲データベース15に記憶されている楽曲データを伸長して再生するオーディオプレーヤであり、接続されたスピーカ24から伸長した楽曲データを音声出力させる。
【0031】
携帯端末装置30は、HDD等の大容量の記憶手段を有するポータブルオーディオ等の音声再生装置であり、図1を参照すると、送受信部31と、端末楽曲データベース32と、楽曲検索部33と、端末操作部34、端末表示部35と、音声出力部36と、発光部37と、発光色決定部38とからなる。
【0032】
送受信部31は、楽曲登録装置10の送受信部21との間をUSB等のデータ伝送路23で接続可能に構成されており、楽曲登録装置10の送受信部21から入力された楽曲データを端末楽曲データベース32に記憶させる。
【0033】
端末楽曲データベース32は、HDD等の大容量の記憶手段であり、楽曲データベース15に記憶されている楽曲データと、当該楽曲データに対応する印象度データおよび楽曲マップにおけるニューロンの座標と、検索テーブルと、検索リストとが記憶される。
【0034】
楽曲検索部33は、端末操作部34から書誌データに基づいて端末楽曲データベース32を検索し、当該検索結果を端末表示部35に表示すると共に、端末操作部34によって特定された代表曲に基づいて検索テーブルを検索し、当該検索結果を端末表示部35に表示する。
【0035】
端末操作部34は、楽曲データの再生に係る入力が行われる入力手段であり、図2を参照すると、再生する楽曲データの選択する入力、検索方法を選択する入力、ボリュームコントロールの入力等を行う十字キー341と、選択された楽曲データの出力を指示する入力、選択された検索方法の実行を指示する入力等を行う決定キー342からなる。
【0036】
端末表示部35は、例えば液晶ディスプレイ等の表示手段であり、端末楽曲データベース32に記憶されている楽曲データを検索する検索条件の表示、検索された楽曲データ(検索結果)の表示等が行われる。
【0037】
音声出力部36は、端末楽曲データベース32に圧縮されて記憶されている楽曲データを伸長して再生するオーディオプレーヤであり、接続されたヘッドフォン25から伸長した楽曲データを音声出力させる。
【0038】
発光部37は、R(赤:Red)、G(緑:Green)、B(青:Blue)の発光ダイオードからなり、複数の発光色を切り換えて発光させることができる発光手段であり、また、発光部37は、端末表示部35の端部に配置され、端末表示部35の表示面に対して横方向から投光して端末表示部35の表示面を発色させるように構成されている。
【0039】
発光色決定部38は、音声出力部36によって再生している楽曲データの印象度データに基づいて、発光部37の発光色を決定し、決定した発光色で発光部37を発光させる。
【0040】
ニューラルネットワーク学習装置40は、印象度データ変換部14で用いられる階層型ニューラルネットワークと、楽曲マッピング部16で用いられる楽曲マップとの学習を行う装置であり、図3を参照すると、楽曲データ入力部41と、音声出力部42と、特徴データ抽出部43と、印象度データ入力部44と、結合重み値学習部45と、楽曲マップ学習部46と、結合重み値出力部47と、特徴ベクトル出力部48とからなる。
【0041】
楽曲データ入力部41は、CD、DVD等の楽曲データが記憶されている記憶媒体を読み取る機能を有し、CD、DVD等の記憶媒体から楽曲データを入力し、音声出力部42および特徴データ抽出部43に出力する。CD、DVD等の記憶媒体以外にインターネット等のネットワークを経由した楽曲データ(配信データ)を入力するように構成しても良い。なお、圧縮された楽曲データが入力される場合には、圧縮された楽曲データを伸長して音声出力部42および特徴データ抽出部43に出力する。
【0042】
音声出力部42は、楽曲データ入力部41から入力された楽曲データを伸長して再生するオーディオプレーヤであり、接続されたスピーカ24から伸長した楽曲データを音声出力させる。
【0043】
特徴データ抽出部43は、楽曲データ入力部41から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出し、抽出した特徴データを結合重み値学習部45に出力する。
【0044】
印象度データ入力部44は、音声出力部42からの音声出力に基づく、評価者による印象度データの入力を受け付け、受け付けた印象度データを、階層型ニューラルネットワークの学習に用いる教師信号として結合重み値学習部45に出力すると共に自己組織化マップへの入力ベクトルとして楽曲マップ学習部46に出力する。
【0045】
結合重み値学習部45は、特徴データ抽出部43から入力された特徴データと、印象度データ入力部44から入力された印象度データとに基づいて階層型ニューラルネットワークに学習を施し、各ニューロンの結合重み値を更新し、結合重み値出力部47を介して更新した結合重み値を出力する。学習が施された階層型ニューラルネットワーク(更新された結合重み値)は、楽曲登録装置10の印象度データ変換部14に移植される。
【0046】
楽曲マップ学習部46は、印象度データ入力部44から入力された印象度データを自己組織化マップへの入力ベクトルとして自己組織化マップに学習を施し、各ニューロンの特徴ベクトルを更新し、特徴ベクトル出力部48を介して更新した特徴ベクトルを出力する。学習が施された自己組織化マップ(更新された特徴ベクトル)は、楽曲マップとして楽曲登録装置10の楽曲マップ記憶部17に記憶される。
【0047】
まず、楽曲登録装置10における楽曲登録動作について図4乃至図9を参照して詳細に説明する。
図4は、図1に示す楽曲登録装置における楽曲登録動作を説明するためのフローチャートであり、図5は、図1に示す特徴データ抽出部における特徴データ抽出動作を説明するためのフローチャートであり、図6は、図1に示す特徴データ抽出部におけるテンポ決定動作を説明するためのフローチャートであり、図7は、図1に示す印象度データ変換部で用いられる階層型ニューラルネットワーク例を示す説明図であり、図8は、図1に示す楽曲マッピング部が楽曲データをマッピングする楽曲マップ例を示す説明図であり、図9は、図1に示す楽曲データベースに記憶される検索テーブル例を示す図である。
【0048】
楽曲データ入力部11にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部11から楽曲データを入力する(ステップA1)。
【0049】
圧縮処理部12は、楽曲データ入力部11から入力された楽曲データを圧縮し(ステップA2)、圧縮した楽曲データを、アーティスト名、曲名等の書誌データと共に楽曲データベース15に記憶させる(ステップA3)。
【0050】
特徴データ抽出部13は、楽曲データ入力部11から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出する(ステップA4)。
【0051】
特徴データ抽出部13における特徴データの抽出動作は、図4乃至図6を参照すると、楽曲データ入力部11にCDプレーヤ等の楽曲再生装置やインターネット等のネットワークから楽曲データが入力されると(ステップB1)、楽曲データ入力部11は、高速化を目的とし、楽曲データ入力部11に入力された楽曲データを44.1kHzから22.05kHzにダウンサンプリングし、ダウンサンプリングした楽曲データを特徴データ抽出部13に出力する。
【0052】
次に、特徴データ抽出部13は、楽曲データの予め定められたデータ解析開始点(楽曲の先頭から30s)から一定のフレーム長に対してのFFT処理を行い、パワースペクトルを算出する(ステップB2)。なお、本実施の形態においては、特徴データの1つである楽曲のテンポとしてテンポの周期を抽出し、テンポの周期が0.3〜1sの範囲にあることを想定し、サンプリング周期が22.05kHzである楽曲データに対して1024ポイントのFFT処理を行うように構成した。すなわち、FFT処理を行うフレーム長を、1024/22.05kHz≒46msとし、想定した楽曲におけるテンポの周期の最小値よりも短い値としている。
【0053】
次に、特徴データ抽出部13は、Low(0〜200Hz)、Middle(200〜600Hz)、High(600〜11050Hz)の周波数帯域を予め設定しておき、Low、Middle、Highの3帯域のパワースペクトルを積分し、平均パワーを算出し(ステップB3)、ステップB2〜ステップB3の処理動作を行ったフレーム個数が予め定められた設定値(2048)に達したか否かを判断し(ステップB4)、ステップB2〜ステップB3の処理動作を行ったフレーム個数が予め定められた設定値に達していない場合には、データ解析開始点をシフトしながら(ステップB5)、ステップB2〜ステップB3の処理動作を繰り返す。これにより、ステップB2〜ステップB3の処理動作は、予め定められたフレーム個数の設定値分行われることになり、Low、Middle、High3帯域の平均パワーの時系列データをそれぞれ求めることができる。なお、本実施の形態では、解析時間長を60sとし、データ解析開始点を60s*22.05kHz/2048≒646ポイントずつシフトしながらFFT処理を行い、2048ポイント、60sの平均パワーの時系列データを作成するように構成した。
【0054】
次に、特徴データ抽出部13は、ステップB2〜ステップB5の処理動作によって算出したLow、Middle、Highの平均パワーの時系列データに対しそれぞれFFTを行い、ゆらぎ情報を算出する(ステップB6)。なお、本実施の形態では、平均パワーの時系列データに対して2048ポイントのFFT処理を行うように構成した。
【0055】
次に、特徴データ抽出部13は、Low、Middle、HighにおけるFFT分析結果から、横軸を対数周波数、縦軸を対数パワースペクトルとしたグラフにおける近似直線を最小2乗法等によって算出し(ステップB7)、近似直線の傾きと、近似直線のY切片とを求め(ステップB8)、Low、Middle、Highのそれぞれにおける近似直線の傾きおよびY切片を特徴データとして抽出する。
【0056】
また、特徴データ抽出部13は、LowにおけるFFT分析結果において、ステップB6で算出されたゆらぎ情報と、ステップB7で算出された算出された近似直線との差分を差分情報として算出し(ステップB9)、予め定められたロジックに基づいて算出した差分情報を解析することで、テンポの周期を決定し(ステップB10)、決定したテンポを特徴データとして抽出し、Low、Middle、Highのそれぞれにおける近似直線の傾きおよびY切片と共に印象度データ変換部14に出力する。
【0057】
なお、特徴データ抽出部13におけるテンポ決定動作は、図6を参照すると、ステップB9で算出された差分情報を解析することで、まず、周期0.3〜2sにおいて近似直線と1.25dB以上離れている成分があるか否か、すなわち周波数1/0.3〜1/2Hzの範囲内に近似直線と1.25dB以上離れている周波数成分があるか否かを判断し(ステップC1)、近似直線と1.25dB以上離れている周波数成分がある場合には、近似直線と1.25dB以上離れている周波数成分の内、最も周期が長い周波数成分の周期を候補Aとする(ステップC2)。
【0058】
次に、特徴データ抽出部13は、候補Aが1s以上か否かを判断し(ステップC3)、候補Aが1s以上である場合には、候補A/2をテンポの周期として決定すると共に(ステップC4)、候補Aが1s以上でない場合には、候補Aをテンポの周期として決定する(ステップC5)。
【0059】
ステップC1で近似直線と1.25dB以上離れている周波数成分がない場合には、特徴データ抽出部13は、周期0.3〜2sにおいて近似直線と0.7dB以上離れている成分があるか否か、すなわち周波数1/0.3〜1/2Hzの範囲内に近似直線と0.7dB以上離れている周波数成分があるか否かを判断し(ステップC6)、近似直線と0.7dB以上離れている周波数成分がある場合には、近似直線と0.7dB以上離れている周波数成分の内、最も周期が長い周波数成分の周期を候補Aとする(ステップC7)。
【0060】
次に、特徴データ抽出部13は、候補Aが1s以上か否かを判断し(ステップC8)、候補Aが1s以上である場合には、候補A/2をテンポの周期として決定すると共に(ステップC9)、候補Aが1s以上でない場合には、候補Aが0.6s以上か否かを判断する(ステップC10)。候補Aが0.6s以上である場合には、候補A以外に近似直線と0.7dB以上離れている周波数成分が2つ以上あるか否かを判断し(ステップC11)、候補A以外に近似直線と0.7dB以上離れている周波数成分が2つ以上ある場合には、候補A/2をテンポの周期として決定する(ステップC9)。ステップC10で候補Aが0.6s以上でない場合と、ステップC11で候補A以外に近似直線と0.7dB以上離れている周波数成分が2つ以上ない場合には、候補Aをテンポの周期として決定する(ステップC12)。
【0061】
ステップC11で近似直線と0.7dB以上離れている周波数成分がない場合には、特徴データ抽出部13は、周期0.3〜2sにおいて近似直線と0.6dB以上離れている成分があるか否か、すなわち周波数1/0.3〜1/2Hzの範囲内に近似直線と0.6dB以上離れている周波数成分があるか否かを判断し(ステップC13)、近似直線と0.6dB以上離れている周波数成分がある場合には、近似直線と0.6dB以上離れている周波数成分の内、最も周期が長い周波数成分の周期を候補Aとする(ステップC7)。
【0062】
次に、特徴データ抽出部13は、候補Aが1s以上か否かを判断し(ステップC8)、候補Aが1s以上である場合には、候補A/2をテンポの周期として決定すると共に(ステップC9)、候補Aが1s以上でない場合には、候補Aが0.6s以上か否かを判断する(ステップC10)。候補Aが0.6s以上である場合には、候補A以外に近似直線と0.6dB以上離れている周波数成分が2つ以上あるか否かを判断し(ステップC11)、候補A以外に近似直線と0.6dB以上離れている周波数成分が2つ以上ある場合には、候補A/2をテンポの周期として決定し(ステップC9)、ステップC10で候補Aが0.6s以上でない場合と、ステップC11で候補A以外に近似直線と0.6B以上離れている周波数成分が2つ以上ない場合には、候補Aをテンポの周期として決定する(ステップC12)。
【0063】
ステップC13で近似直線と0.6dB以上離れている周波数成分がない場合には、特徴データ抽出部13は、周期3〜4sにおいて近似直線と0.6dB以上離れている成分があるか否か、すなわち周波数1/3〜1/4Hzの範囲内に近似直線と0.6dB以上離れている周波数成分があるか否かを判断し(ステップC14)、近似直線と0.6dB以上離れている周波数成分がある場合には、近似直線と0.6dB以上離れている周波数成分の内、最も周期が長い周波数成分の周期を候補Aとし(ステップC15)、候補A/4をテンポの周期として決定する(ステップC16)。
【0064】
ステップC14で近似直線と0.6dB以上離れている周波数成分がない場合には、特徴データ抽出部13は、周期0.1〜0.3sにおいて近似直線と0.7dB以上離れている成分があるか否か、すなわち周波数1/0.1〜1/0.3Hzの範囲内に近似直線と0.7dB以上離れている周波数成分があるか否かを判断し(ステップC17)、近似直線と0.7dB以上離れている周波数成分がない場合には、1sをテンポの周期として決定すると共に(ステップC18)、近似直線と0.7dB以上離れている周波数成分がある場合には、0.3sをテンポの周期として決定する(ステップC19)。
【0065】
なお、本実施の形態では、楽曲のテンポとしてテンポの周期を抽出するように構成したが、一般にテンポを表す単位として用いられているBPM(beat per minutes)に換算するようにしても良く、さらにテンポの周期を一定の加工方法で加工するようにしても良い。
【0066】
次に、図4を参照すると、印象度データ変換部14は、図7に示すような入力層(第1層)、中間層(第n層)、出力層(第N層)からなる階層型ニューラルネットワークを用い、入力層(第1層)に特徴データ抽出部13で抽出された特徴データを入力することによって、出力層(第N層)から印象度データを出力、すなわち特徴データを印象度データに変換し(ステップA5)、出力層(第N層)から出力された印象度データを、楽曲マッピング部16に出力すると共に、特徴データ抽出部13から入力された特徴データと、出力層(第N層)から出力された印象度データとを、楽曲データと共に楽曲データベース15に記憶させる。なお、中間層(第n層)の各ニューロンの結合重み値wは、評価者によって予め学習が施されている。また、本実施の形態の場合には、入力層(第1層)に入力される特徴データ、すなわち特徴データ抽出部13によって抽出される特徴データの項目は、前述のようにLow、Middle、Highのそれぞれにおける近似直線の傾きおよびY切片と、テンポとの7項目であり、印象度データの評価項目としては、人間の感性によって判断される「明るい、暗い」、「澄んだ、にごった」、「激しい、穏やか」の3項目を設定し、各評価項目を7段階評価で表すように設定した。従って、入力層(第1層)のニューロン数Lは、7個、出力層(第N層)のニューロン数Lは、3個となっており、中間層(第n層:n=2,…,N−1)のニューロン数Lnは、適宜設定されている。
【0067】
楽曲マッピング部16は、楽曲データ入力部11から入力された楽曲データを楽曲マップ記憶部17に記憶されている楽曲マップの該当箇所にマッピングする(ステップA6)。楽曲マッピング部16におけるマッピング動作に用いられる任意空間である楽曲マップは、複数の部分空間に分割されており、楽曲データは、複数の部分空間のいずれかに配置される。楽曲マップとしては、例えばニューロンが2次元に規則的に配置(図8に示す例では、9*9の正方形)されている自己組織化マップ(SOM)を用いることができ、この場合には、ニューロンが複数の部分空間に対応する。
【0068】
本実施の形態では、楽曲マップとしてニューロンが100*100の正方形に配列された2次元SOMを使用し、楽曲マップの各ニューロンには、(1,1)〜(100,100)の座標が付与され、座標によりニューロン間の距離が認識できるように構成されており、楽曲マッピング部16は、楽曲マップにマッピングされた楽曲データを検索するための検索テーブルを作成し、作成した検索テーブルを楽曲データベース15に記憶させると共に、楽曲データが配置されたニューロンの座標を楽曲データと共に楽曲データベース15に記憶させる。検索テーブルは、該当するニューロンを検索し、検索されたニューロンに配置されている楽曲データを特定するためのものであり、図9に示すように、楽曲マップにおける各ニューロンの座標と、各ニューロンに配置されている楽曲データ(楽曲データを特定する番号等)とからなる。なお、本実施の形態では、楽曲マップとしてニューロンが正方形に配列された2次元SOMを用いたが、ニューロンの配列は、長方形であっても、蜂の巣であっても良く、さらに3次元SOMを用いるようにしても良い。
【0069】
また、楽曲マッピング部16におけるマッピング動作に用いられる楽曲マップは、予め学習が施されており、各ニューロンには、予め学習されたn次元の特徴ベクトルm(t)∈Rが付与されており、楽曲マッピング部16は、印象度データ変換部14によって変換された印象度データと、特徴データ抽出部13によって抽出されたテンポとを入力ベクトルxとし、入力ベクトルxに最も近いニューロン、すなわちユークリッド距離‖x−m‖を最小にするニューロンに、入力された楽曲データを配置し、楽曲データがマッピングされた楽曲マップを楽曲マップ記憶部17に記憶させる。なお、Rは、印象度データの各評価項目の評価段階数を示し、nは、印象度データの項目数を示す。
【0070】
次に、印象度データ変換部14における変換動作(ステップA5)に用いられる階層型ニューラルネットワークの学習動作について図10を参照して詳細に説明する。
図10は、図2に示すニューラルネットワーク学習装置における階層型ニューラルネットワークの学習動作を説明するためのフローチャートである。
【0071】
評価者による階層型ニューラルネットワーク(結合重み値w)の学習は、例えば、図2に示すニューラルネットワーク学習装置40を用いて行われ、まず、階層型ニューラルネットワーク(結合重み値w)を事前学習させるための事前学習データ(楽曲データの特徴データ+印象度データ)の入力が行われる。
【0072】
楽曲データ入力部41にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部41から楽曲データを入力し(ステップD1)、特徴データ抽出部43は、楽曲データ入力部41から入力された楽曲データから特徴データを抽出する(ステップD2)。なお、特徴データ抽出部43によって抽出する特徴データは、楽曲登録装置10の特徴データ抽出部13で抽出する特徴データと同一である。
【0073】
また、音声出力部42は、楽曲データ入力部41から入力された楽曲データを音声出力し(ステップD3)、評価者は、音声出力部42からの音声出力を聞くことによって、楽曲の印象度を感性によって評価し、評価結果を印象度データとして印象度データ入力部44から入力し(ステップD4)、結合重み値学習部45は、印象度データ入力部44から入力された印象度データを教師信号として受け付ける。なお、本実施の形態では、印象度の評価項目としては、人間の感性によって判断される「明るい、暗い」、「澄んだ、にごった」、「激しい、穏やか」の3項目を設定し、各評価項目についての7段階評価を印象度データとして印象度データ入力部44で受け付けるように構成した。
【0074】
次に、特徴データと入力された印象度データとからなる学習データが予め定められたサンプル数Tに達したか否かを判断し(ステップD5)、学習データがサンプル数Tに達するまでステップD1〜ステップD4の動作が繰り返される。
【0075】
結合重み値学習部45における階層型ニューラルネットワークの学習、すなわち各ニューロンの結合重み値wの更新は、誤差逆伝播学習法を用いて行う。
まず、初期値として、中間層(第n層)の全てのニューロンの結合重み値wを乱数によって−0.1〜0.1程度の範囲の小さな値に設定しておき、結合重み値学習部45は、特徴データ抽出部43によって抽出された特徴データを入力信号x(j=1,2,…,8) として入力層(第1層)に入力し、入力層(第1層)から出力層(第N層)に向けて、各ニューロンの出力を計算する。
【0076】
次に、結合重み値学習部45は、印象度データ入力部44から入力された印象度データを教師信号y(j=1,2,…,8) とし、出力層(第N層)の出力outjと、教師信号yとの誤差から、学習則δjを次式によって計算する。
【0077】
【数1】

【0078】
次に、結合重み値学習部45は、学習則δjを使って、中間層(第n層)の誤差信号 δjn を次式によって計算する。
【0079】
【数2】

【0080】
なお、数式2において、wは、第 n 層 j 番目と第 n -1 層k番目のニューロンの間の結合重み値を表している。
【0081】
次に、結合重み値学習部45は、中間層(第n層)の誤差信号 δjn を用いて各ニューロンの結合重み値wの変化量Δwを次式によって計算し、各ニューロンの結合重み値wを更新する(ステップD6)。なお、次式において、ηは、学習率を表し、評価者による学習では、η(0<η≦1)に設定されている。
【0082】
【数3】

【0083】
ステップD6では、サンプル数Tの事前学習データのそれぞれについて学習が行われ、次に、次式に示す2乗誤差Eが予め定められた事前学習用の基準値Eよりも小さいか否かが判断され(ステップD7)、2乗誤差Eが基準値Eよりも小さくなるまでステップD6の動作が繰り返される。なお、2乗誤差Eが基準値Eよりも小さくなると想定される学習反復回数Sを予め設定しておき、ステップD6の動作を学習反復回数S回繰り返すようにしても良い。
【0084】
【数4】

【0085】
ステップD7で2乗誤差Eが基準値Eよりも小さいと判断された場合には、結合重み値学習部45は、事前学習させた各ニューロンの結合重み値wを結合重み値出力部47によって出力し(ステップD8)、結合重み値出力部47から出力された各ニューロンの結合重み値wは、印象度データ変換部14に記憶される。
【0086】
次に、楽曲マッピング部16におけるマッピング動作(ステップA6)に用いられる楽曲マップの学習動作について図11を参照して詳細に説明する。
図11は、図2に示すニューラルネットワーク学習装置における楽曲マップの学習動作を説明するためのフローチャートある。
【0087】
楽曲データ入力部41にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部41から楽曲データを入力し(ステップE1)、特徴データ抽出部43は、楽曲データ入力部41から入力された楽曲データから特徴データとしてテンポを抽出し(ステップE2)、抽出したテンポを楽曲マップ学習部46に出力する。なお、特徴データ抽出部43によって抽出するテンポは、楽曲登録装置10の特徴データ抽出部13で抽出するテンポと同一である。
【0088】
次に、音声出力部42は、楽曲データ入力部41から入力された楽曲データを音声出力し(ステップE3)、評価者は、音声出力部42からの音声出力を聞くことによって、楽曲の印象度を感性によって評価し、評価結果を印象度データとして印象度データ入力部44から入力する(ステップE4)。
【0089】
楽曲マップ学習部46は、特徴データ抽出部43から入力されたテンポと、印象度データ入力部44から入力された印象度データとを自己組織化マップへの入力ベクトルとして受け付ける。なお、本実施の形態では、印象度の評価項目としては、人間の感性によって判断される「明るい、暗い」、「澄んだ、にごった」、「激しい、穏やか」の3項目を設定し、各評価項目についての7段階評価を印象度データとして印象度データ入力部44で受け付けるように構成した。
【0090】
楽曲マップ学習部46は、特徴データ抽出部43から入力されたテンポと、印象度データ入力部44から入力された印象度データとを入力ベクトルx(t)∈Rとし、各ニューロンの特徴ベクトルm(t)∈Rを学習させる。なお、tは、学習回数を表し、学習回数を定める設定値Tを予め設定しておき、学習回数t=0,1,…,Tについて学習を行わせる。なお、Rは、各評価項目の評価段階を示し、nは、印象度データの項目数を示す。
【0091】
まず、初期値として、全てのニューロンの特徴ベクトルm(0)をそれぞれ0〜1の範囲でランダムに設定しておき、楽曲マップ学習部46は、x(t)に最も近いニューロンc、すなわち‖x(t)−m(t)‖を最小にする勝者ニューロンcを求め、勝者ニューロンcの特徴ベクトルm(t)と、勝者ニューロンcの近傍にある近傍ニューロンiの集合Ncのそれぞれの特徴ベクトルm(t)(i∈Nc)とを、次式に従ってそれぞれ更新する(ステップE5)。なお、近傍ニューロンiを決定するための近傍半径は、予め設定されているものとする。
【0092】
【数5】

【0093】
なお、数式5において、hci(t)は、学習率を表し、次式によって求められる。
【0094】
【数6】

【0095】
なお、αinitは学習率の初期値であり、R(t)は、単調減少する一次関数もしくは指数関数が用いられる。
【0096】
次に、楽曲マップ学習部46は、学習回数tが設定値Tに達したか否かを判断し(ステップE6)、学習回数tが設定値Tに達するまでステップE1〜ステップE5の処理動作を繰り返し、学習回数tが設定値Tに達すると、再び最初のサンプルから同じ処理動作を行う。この反復回数が予め定められたS回になった時点で、特徴ベクトル出力部48を介して学習させた特徴ベクトルm(T)∈Rを出力する(ステップE7)。出力された各ニューロンiの特徴ベクトルm(T)は、楽曲登録装置10の楽曲マップ記憶部17に楽曲マップとして記憶される。
【0097】
次に、楽曲登録装置10における楽曲検索動作について図12乃至図17を参照して詳細に説明する。
図12は、図1に示す楽曲登録装置における楽曲検索動作を説明するためのフローチャートであり、図13は、図1に示すPC表示部に表示される検索条件入力画面例を示す図であり、図14は、図1に示すPC表示部に表示される条件検索結果表示画面例を示す図であり、図15は、図1に示すPC表示部に表示される代表曲検索結果表示画面例を示す図であり、図16は、図1に示すPC表示部に表示される楽曲リスト表示画面例を示す図であり、図17は、図1に示すPC表示部に表示される楽曲マップ表示画面例を示す図である。
【0098】
楽曲検索部18は、PC表示部20に、検索条件を入力する検索条件入力画面51を表示し、PC操作部19からのユーザ入力を受け付ける。検索条件入力画面51は、図13に示すように、検索条件として書誌データを入力する書誌データ入力領域511と、検索の実行を指示する条件検索実行ボタン512と、全曲リスト表示ボタン513と、楽曲マップ表示ボタン514とからなり、ユーザは、検索条件として書誌データをPC操作部19から入力し(ステップF1)、条件検索実行ボタン512をクリックすることで、書誌データに基づく検索を楽曲検索部18に指示する。
【0099】
楽曲検索部18は、PC操作部19から入力された書誌データに基づいて楽曲データベース15を検索し(ステップF2)、条件検索結果を表示する条件検索結果表示画面52をPC表示部20に表示させる(ステップF3)。条件検索結果表示画面52は、図14を参照すると、条件検索結果の中から代表曲を選択する代表曲選択領域521と、選択された代表曲に基づく検索を指示する代表曲検索実行ボタン522と、条件検索結果を検索リストとして登録する登録ボタン523とからなる。
【0100】
次に、ユーザは、代表曲選択領域521に表示されている検索結果の中から代表曲を選択し(ステップF4)、代表曲検索実行ボタン522をクリックすることで、代表曲に基づく検索を楽曲検索部18に指示する。なお、この時点で登録ボタン523がクリックされた場合には、楽曲検索部18は、検索結果表示領域52に表示されている条件検索結果を検索リストとして楽曲データベース15に記憶させる。
【0101】
楽曲検索部18は、選択された代表曲に基づいて楽曲データベース15を検索することで、楽曲マップにおいて代表曲が配置されているニューロン(以下、代表ニューロンと称す)の座標を特定する(ステップF5)。
【0102】
次に、楽曲検索部18は、変数nに0を設定し(ステップF6)、楽曲マップ記憶部17に記憶されている図9に示す検索テーブルを参照することで、ステップF5で特定した代表ニューロンから距離nのニューロンに配置されている楽曲データを検索し(ステップF7)、検索された楽曲数が予め定められた検索数以上であるか否かを判断する(ステップF8)。
【0103】
ステップF8で検索された楽曲数が予め定められた検索数未満である場合には、楽曲検索部18は、変数nをインクリメントし(ステップF9)、ステップF7に戻り、検索された楽曲数が予め定められた検索数以上になるまでステップF7およびステップF8を繰り返す。
【0104】
ステップF8で検索された楽曲数が予め定められた検索数以上である場合には、楽曲検索部18は、検索された楽曲データを予め定められた検索数まで絞り込んだ後(ステップF10)、絞り込んだ楽曲データを代表曲検索結果として代表曲検索結果表示画面53をPC表示部20に表示する(ステップF11)。代表曲検索結果表示画面53は、図15を参照すると、出力する楽曲データを選択する出力楽曲選択領域531と、選択された楽曲データの出力を指示する出力ボタン532とからなる。
【0105】
ステップF10における検索された楽曲データの絞り込みは、代表ニューロンの特徴ベクトルもしくは代表曲の印象度データ変換部14によって変換された印象度データを入力ベクトルxとし、検索された楽曲データの印象度データを検索対象ベクトルXとすると、入力ベクトルxに近い検索対象ベクトルX、すなわちユークリッド距離‖X−x‖が小さいものを順に予め定められた検索数まで検索することで行われる。なお、ステップF10における検索された楽曲データの絞り込みは、代表ニューロンから最も離れたニューロン、すなわち代表ニューロンから検索に用いた変数nの最大値分離れたニューロンに配置されている楽曲データに対してのみ行うようにすると、距離計算を行う対象件数を少なくすることができるため、検索時間(計算時間)を短縮することができる。また、ステップF10における検索された楽曲データの絞り込みを行うことなく、検索された楽曲データの全てを代表曲検索結果として代表曲検索結果表示画面53に表示するようにしても良く、この場合には、距離計算を行うことなく検索を行うことができるため、検索時間(計算時間)をさらに短縮することができる。
【0106】
次に、楽曲検索部18は、出力ボタン532がクリックされると、出力楽曲選択領域531に表示されている代表曲検索結果を検索リストとして楽曲データベース15に記憶させる(ステップF12)。
【0107】
また、検索条件入力画面51において、全曲リスト表示ボタン513がクリックされると、楽曲検索部18は、記憶されている全楽曲データの楽曲リストを表示する楽曲リスト表示画面54をPC表示部20に表示させる。楽曲リスト表示画面54は、図16を参照すると、全楽曲データの楽曲リストの中から代表曲を選択する代表曲選択領域541と、選択された代表曲に基づく検索を指示する代表曲検索実行ボタン542とからなる。
【0108】
ユーザが代表曲選択領域541に表示されている楽曲リストの中から代表曲を選択し(ステップF4)、代表曲検索実行ボタン542をクリックすることで、選択された代表曲に基づく検索が楽曲検索部18に指示され、以下、ステップF5〜ステップF12の楽曲検索動作が行われる。
【0109】
さらに、検索条件入力画面51において、楽曲マップ表示ボタン514がクリックされると、楽曲検索部18は、楽曲マップのニューロンをポイントとして表示する楽曲マップ表示画面55をPC表示部20に表示させる。楽曲マップ表示画面55は、図17を参照すると、検索の中心とするニューロンを選択するニューロン選択領域551と、選択されたニューロンに基づく検索を指示するマップ検索実行ボタン552とからなる。
【0110】
ユーザがニューロン選択領域551に表示されているニューロンの中から検索の中心とするニューロンを選択し、マップ検索実行ボタン552をクリックすることで、ステップF5で特定される代表ニューロンの替わりに、ニューロン選択領域551で選択されたニューロンに基づく検索が楽曲検索部18に指示され、以下、ステップF6〜ステップF12の楽曲検索動作が行われる。
【0111】
なお、ニューロン選択領域551においては、楽曲データが配置されているニューロンのみが表示され、楽曲がマッピングされているニューロンにカーソルを移動させると、カーソルが位置するニューロンに配置されている楽曲データの楽曲名のポップアップ表示553が行われるように構成されている。
【0112】
次に、楽曲登録装置10から携帯端末装置30への楽曲データの転送動作について詳細に説明する。
図18は、図1に示す楽曲登録装置から携帯端末装置への楽曲データの転送動作を説明するための説明図である。
【0113】
楽曲登録装置10の楽曲データベース15には、図18に示すように、楽曲データと、当該楽曲データに対応する特徴データ(特徴データ抽出部13で抽出)、書誌データ、印象度データ(印象度データ変換部14で変換)および楽曲マップにおけるニューロンの座標(楽曲マッピング部16でマッピング)と、検索テーブル(楽曲マッピング部16で作成)と、検索リスト(楽曲検索部18で検索)とが記憶されており、携帯端末装置30の端末楽曲データベース32には、楽曲データと、当該楽曲データに対応する書誌データ、印象度データおよび楽曲マップにおけるニューロンの座標と、検索テーブルと、検索リストとが転送される。
【0114】
楽曲登録装置10の送受信部21と、携帯端末装置30の送受信部31とは、データ伝送路23によって携帯端末装置30が接続されると、楽曲登録装置10の楽曲データベース15の記憶内容と、携帯端末装置30の端末楽曲データベース32の記憶内容とを比較し、楽曲登録装置10の楽曲データベース15の記憶内容を携帯端末装置30の端末楽曲データベース32に反映させる。
【0115】
次に、携帯端末装置30における楽曲検索動作について図19を参照して詳細に説明する。
図19は、図2に示す携帯端末装置の端末表示部の楽曲検索時における表示例を示す図である。
【0116】
楽曲検索部33は、図示しない電源キーによって携帯端末装置30の電源が投入されると、再生する楽曲データを検索する方法として「書誌データによる検索」、「印象度データによる検索」、「検索リストによる検索」のいずれかを選択するための検索方法選択画面351を端末表示部35に表示し、ユーザは、検索方法選択画面351に表示されている検索方法を十字キー341の上下で選択し、決定キー342を押下することで選択した検索方法に基づく楽曲データの検索を楽曲検索部33に指示する。
【0117】
検索方法選択画面351で「書誌データによる検索」が選択された場合には、楽曲検索部33は、「アーティスト」、「アルバム」、「タイトル」の内のいずれかを選択するための一覧表示選択画面352を端末表示部35に表示し、ユーザは、一覧表示選択画面352に表示されている「アーティスト」、「アルバム」、「タイトル」のいずれかを十字キー341の上下で選択し、決定キー342を押下することで選択した一覧の表示を楽曲検索部33に指示する。
【0118】
一覧表示選択画面352で「アーティスト」もしくは「アルバム」が選択された場合には、楽曲検索部33は、端末楽曲データベース32に記憶されている全楽曲データに対応する書誌データからアーティスト名もしくはアルバム名を読み出し、アーティスト名もしくはアルバム名の一覧を表示するアーティスト・アルバム一覧画面353を端末表示部35に表示する。ユーザは、アーティスト・アルバム一覧画面353に表示されているアーティスト名もしくはアルバム名のいずれかを十字キー341の上下で選択し、決定キー342を押下することでアーティスト名もしくはアルバム名に基づく検索を楽曲検索部33に指示し、楽曲検索部33は、選択されたアーティスト名もしくはアルバム名に基づいて端末楽曲データベース32を検索し、該当する楽曲データのタイトル一覧を検索結果画面354として端末表示部35に表示する。なお、一覧表示選択画面352で「タイトル」が選択された場合には、楽曲検索部33は、端末楽曲データベース32に記憶されている全楽曲データに対応するタイトルを読み出し、読み出したタイトル一覧を検索結果画面354として端末表示部35に表示する。
【0119】
検索方法選択画面351で「印象度データによる検索」が選択された場合には、楽曲検索部33は、検索条件として印象度データを入力する印象度データ入力画面355を端末表示部35に表示し、ユーザは、十字キー341の上下左右で印象度データの各項目の値を選択し、決定キー342を押下することで印象度データに基づく検索を楽曲検索部33に指示する。楽曲検索部33は、印象度データに基づく検索が指示されると、検索条件として入力された印象度データに基づいて端末楽曲データベース32に記憶されている楽曲データを検索し、検索した楽曲データのタイトル一覧を検索結果画面354として端末表示部35に表示する。検索条件として入力された印象度データに基づく楽曲データの検索は、検索条件として入力された印象度データを入力ベクトルxとすると共に、端末楽曲データベース32に記憶されている全楽曲データに対応するそれぞれの印象度データを検索対象ベクトルm(t)∈Rとし、ユークリッド距離‖x−m‖が小さい方から所定数を検索する。なお、Rは、印象度データの各評価項目の評価段階数を示し、nは、印象度データの項目数を示す。
【0120】
検索方法選択画面351で「検索リストによる検索」が選択された場合には、楽曲検索部33は、端末楽曲データベース32に記憶されている検索リストの一覧を検索リスト一覧画面356として端末表示部35に表示し、ユーザは、検索リスト一覧画面356に表示されている検索リストのいずれかを十字キー341の上下で選択し、決定キー342を押下することで選択した検索リストの表示を楽曲検索部33に指示し、楽曲検索部33は、選択された検索リストのタイトル一覧を検索結果画面354として端末表示部35に表示する。
【0121】
検索結果画面354が表示されている状態で、十字キー341の右が押下されると、楽曲検索部33は、検索結果画面354に表示されたタイトル一覧に対応する楽曲データを端末楽曲データベース32から順次読み出し、読み出した楽曲データを音声出力部22に出力して音声出力させる。また、検索結果画面354が表示されている状態で、十字キー341の上下でいずれかのタイトルを選択した上で十字キー341の左が押下されると、楽曲検索部33は、選択されたタイトルに対応する楽曲データのみを端末楽曲データベース32から読み出し、読み出した楽曲データを音声出力部22に出力して音声出力させる。
【0122】
さらに、検索結果画面354が表示されている状態で、十字キー341の上下でいずれかのタイトルを選択した上で、決定キー342が押下されると、楽曲検索部33は、選択されたタイトルを代表曲とする代表曲検索を行い、代表曲検索結果を検索結果画面354として端末表示部35に表示する。なお、楽曲検索部33で行われる代表曲検索は、端末楽曲データベース32に記憶されたニューロンの座標と検索テーブルとに基づいて行われ、上述した楽曲登録装置10の楽曲検索部18で行われる代表曲検索と同様の手順で行われる。
【0123】
次に、携帯端末装置30における楽曲再生時の表示方法について図20および図21を参照して詳細に説明する。
図20は、図2に示す携帯端末装置の端末表示部の楽曲再生時における表示例を示す図であり、図21は、図1に示す発光色決定部における発光色決定方法を説明するための説明図である。
【0124】
楽曲再生時に、発光色決定部38は、再生中の楽曲データ、すなわち音声出力部22によって音声出力されている楽曲データにおける印象度データの中で最も特徴的な評価項目を抽出し、抽出した評価項目に予め割り当てられている発光色で発光部37を発光させ、図20に示すように、端末表示部35の表示面を発色させる。
【0125】
各楽曲データには、印象度データとして「明るい、暗い」、「澄んだ、にごった」、「激しい、穏やか」の3つの評価項目についてそれぞれ1〜7の評価がなされており、最小値(1)もしくは最大値(7)に近いほど特徴的な評価項目である。例えば、評価項目「明るい、暗い」の場合、最小値(1)に近いほど「明るい」印象を与える楽曲データであり、最大値(7)に近いほど「暗い」印象を与える楽曲データである。従って、発光色決定部38は、再生中の楽曲データにおける印象度データの評価項目である「明るい、暗い」、「澄んだ、にごった」、「激しい、穏やか」の3項目についていずれの項目が最小値(1)もしくは最大値(7)に最も近いかを判断することで最も特徴的な評価項目を抽出する。
【0126】
各評価項目に予め割り当てられている発光色は、図21に記すように、評価項目「明るい、暗い」には、イエロー、グレーが、評価項目「澄んだ、にごった」には、スカイブルー、ブラウンが、評価項目「激しい、穏やか」には、レッド、ベージュがそれぞれ割り当てられている。
【0127】
発光色決定部38は、最小値(1)に近いことによって評価項目「明るい、暗い」を最も特徴的な評価項目として抽出した場合には、イエローの発光色で発光部37を発光させ、最大値(7)に近いことによって評価項目「明るい、暗い」を最も特徴的な評価項目として抽出した場合には、グレーの発光色で発光部37を発光させる。また、発光色決定部38は、最小値(1)に近いことによって評価項目「澄んだ、にごった」を最も特徴的な評価項目として抽出した場合には、スカイブルーの発光色で発光部37を発光させ、最大値(7)に近いことによって評価項目「澄んだ、にごった」を最も特徴的な評価項目として抽出した場合には、ブラウンの発光色で発光部37を発光させる。さらに、発光色決定部38は、最小値(1)に近いことによって評価項目「激しい、穏やか」を最も特徴的な評価項目として抽出した場合には、レッドの発光色で発光部37を発光させ、最大値(7)に近いことによって評価項目「激しい、穏やか」を最も特徴的な評価項目として抽出した場合には、ベージュの発光色で発光部37を発光させる。
【0128】
また、1曲のみを指定した再生以外、すなわち、検索結果画面354に表示されたタイトル一覧を順次もしくはランダムに再生する場合や、端末楽曲データベース32に記録された全楽曲データを順次もしくはランダムに再生する場合には、楽曲検索部33は、再生している楽曲データの書誌データを端末表示部35に表示させると共に、次回に再生を行う次回楽曲データ、すなわち再生している楽曲データの再生終了後に再生を行う楽曲データの書誌データを端末楽曲データベース32から読み出し、図20に示すように、読み出した書誌データを次曲情報として端末表示部35に表示させる。
【0129】
次曲情報が端末表示部35に表示されている状態では、十字キー341の左が押下されると、楽曲検索部33は、次回に再生を行う予定の楽曲データをスキップさせ、新たな楽曲データを選択(順次再生する場合には、次々曲、ランダム再生の場合には、ランダムに選択)し、選択した楽曲データの新たな次回楽曲データとし、当該楽曲データの書誌データを端末楽曲データベース32から読み出し、読み出した書誌データを次曲情報として端末表示部35に表示させる。
【0130】
以上説明したように、本実施の形態によれば、端末楽曲データベース32に楽曲データと共に、楽曲データの印象を表す印象度データを記録しておき、発光色決定部38は、音声出力部36によって音声出力されている楽曲データの印象度データに基づいて発光色を決定し、複数の発光色で発光する発光部37を発光色決定部38で決定した発光色で発光させるように構成することにより、再生している楽曲データの印象を表す印象度データを発光色によって簡単に把握することができるため、再生中の楽曲データがどのように評価されているかを簡単に認識することができるという効果を奏する。
【0131】
なお、本実施の形態では、発光色決定部38で決定した発光色で発光部37を発光させるように構成したが、端末表示部35がカラーディスプレイである場合には、端末表示部35を発光部37として用い、背景画面等を発光色決定部38で決定した発光色で表示するようにしても良い。
【0132】
なお、本発明が上記各実施の形態に限定されず、本発明の技術思想の範囲内において、各実施の形態は適宜変更され得ることは明らかである。また、上記構成部材の数、位置、形状等は上記実施の形態に限定されず、本発明を実施する上で好適な数、位置、形状等にすることができる。なお、各図において、同一構成要素には同一符号を付している。
【図面の簡単な説明】
【0133】
【図1】本発明に係る楽曲検索システムの実施の形態の構成を示すブロック図である。
【図2】図1に示す携帯端末装置の構成を示す前面図である。
【図3】図1に示す楽曲登録装置に用いられるニューラルネットワークを事前に学習させるニューラルネットワーク学習装置の構成を示すブロック図である。
【図4】図1に示す楽曲登録装置における楽曲登録動作を説明するためのフローチャートである。
【図5】図1に示す特徴データ抽出部における特徴データ抽出動作を説明するためのフローチャートである。
【図6】図1に示す特徴データ抽出部におけるテンポ決定動作を説明するためのフローチャートである。
【図7】図1に示す印象度データ変換部で用いられる階層型ニューラルネットワーク例を示す説明図である。
【図8】図1に示す楽曲マッピング部が楽曲データをマッピングする楽曲マップ例を示す説明図である。
【図9】図1に示す楽曲データベースに記憶される検索テーブル例を示す図である。
【図10】図2に示すニューラルネットワーク学習装置における階層型ニューラルネットワークの学習動作を説明するためのフローチャートである。
【図11】図2に示すニューラルネットワーク学習装置における楽曲マップの学習動作を説明するためのフローチャートである。
【図12】図1に示す楽曲登録装置における楽曲検索動作を説明するためのフローチャートである。
【図13】図1に示すPC表示部に表示される検索条件入力画面例を示す図である。
【図14】図1に示すPC表示部に表示される条件検索結果表示画面例を示す図である。
【図15】図1に示すPC表示部に表示される代表曲検索結果表示画面例を示す図である。
【図16】図1に示すPC表示部に表示される楽曲リスト表示画面例を示す図である。
【図17】図1に示すPC表示部に表示される楽曲マップ表示画面例を示す図である。
【図18】図1に示す楽曲登録装置から携帯端末装置への楽曲データの転送動作を説明するための説明図である。
【図19】図2に示す携帯端末装置の端末表示部の楽曲検索時における表示例を示す図である。
【図20】図2に示す携帯端末装置の端末表示部の楽曲再生時における表示例を示す図である。
【図21】図1に示す発光色決定部における発光色決定方法を説明するための説明図である。
【符号の説明】
【0134】
10 楽曲登録装置
11 楽曲データ入力部
12 圧縮処理部
13 特徴データ抽出部
14 印象度データ変換部
15 楽曲データベース
16 楽曲マッピング部
17 楽曲マップ記憶部
18 楽曲検索部
19 PC操作部
20 PC表示部
21 送受信部
22 音声出力部
23 データ伝送路
24 スピーカ
25 ヘッドフォン
30 携帯端末装置
31 送受信部
32 端末楽曲データベース
33 楽曲検索部
34 端末操作部
35 端末表示部
36 音声出力部
37 発光部
38 発光色決定部
40 ニューラルネットワーク学習装置
41 楽曲データ入力部
42 音声出力部
43 特徴データ抽出部
44 印象度データ入力部
45 結合重み値学習部
46 楽曲マップ学習部
47 結合重み値出力部
48 特徴ベクトル出力部
51 検索条件入力画面
52 条件検索結果表示画面
53 代表曲検索結果表示画面
54 楽曲リスト表示画面
55 楽曲マップ表示画面
341 十字キー
342 決定キー
351 検索方法選択画面
352 一覧表示選択画面
353 アーティスト・アルバム一覧画面
354 検索結果画面
355 印象度データ入力画面
356 検索リスト一覧画面
511 書誌データ入力領域
512 条件検索実行ボタン
513 全曲リスト表示ボタン
514 楽曲マップ表示ボタン
521 代表曲選択領域
522 代表曲検索実行ボタン
523 登録ボタン
531 出力楽曲選択領域
532 出力ボタン
541 代表曲選択領域
542 代表曲検索実行ボタン
551 ニューロン選択領域
552 マップ検索実行ボタン
553 ポップアップ表示

【特許請求の範囲】
【請求項1】
楽曲データを記録しておき、記録している前記楽曲データの再生を行う携帯端末装置であって、
前記楽曲データと共に、前記楽曲データの印象を表す印象度データを記録する端末楽曲データベースと、
該端末楽曲データベースに記録されている前記楽曲データを読み出して音声出力する音声出力手段と、
該音声出力手段によって音声出力されている前記楽曲データの前記印象度データに基づいて発光色を決定する発光色決定手段と、
複数の発光色を切り換えて発光する発光手段とを具備し、
前記発光手段を前記発光色決定手段によって決定された発光色で発光させることを特徴とする携帯端末装置。
【請求項2】
前記端末楽曲データベースに記録されている前記印象度データは、複数の評価項目からなり、
前記発光色決定手段は、前記印象度データの中で最も特徴的な前記評価項目を抽出し、抽出した評価項目に予め割り当てられている発光色で前記発光手段を発光させることを特徴とする請求項1記載の携帯端末装置。
【請求項3】
前記発光色決定手段は、前記印象度データの複数の前記評価項目についていずれが最小値もしくは最大値に最も近いかを判断することで最も特徴的な前記評価項目を抽出することを特徴とする請求項2記載の携帯端末装置。
【請求項4】
該音声出力手段によって音声出力されている前記楽曲データの書誌データを表示する端末表示手段を具備し、
前記発光手段は、前記端末表示手段の端部に配置され、前記端末表示手段の表示面に対して横方向から投光して前記端末表示手段の表示面を発色させることを特徴とする請求項1乃至3のいずれかに記載の携帯端末装置。
【請求項5】
楽曲データを記録しておき、記録している前記楽曲データの再生を行う携帯端末装置において、再生中の前記楽曲データのイメージを表現する楽曲表現方法であって、
端末楽曲データベースに前記楽曲データと共に、前記楽曲データの印象を表す印象度データを記録しておき、
前記端末楽曲データベースに記録されている前記楽曲データを読み出して音声出力し、
該音声出力している前記楽曲データの前記印象度データに基づいて発光色を決定し、
複数の発光色を切り換えて発光する発光手段を前記決定した発光色で発光させることを特徴とする楽曲表現方法。
【請求項6】
前記印象度データは、複数の評価項目からなり、
前記印象度データの中で最も特徴的な前記評価項目を抽出し、抽出した評価項目に予め割り当てられている発光色で前記発光手段を発光させることを特徴とする請求項5記載の楽曲表現方法。
【請求項7】
前記印象度データの複数の前記評価項目についていずれが最小値もしくは最大値に最も近いかを判断することで最も特徴的な前記評価項目を抽出することを特徴とする請求項6記載の楽曲表現方法。
【請求項8】
前記音声出力されている前記楽曲データの書誌データを表示する端末表示手段の表示面表示面を前記決定した発光色で発色させることを特徴とする請求項5乃至7のいずれかに記載の楽曲表現方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate


【公開番号】特開2006−317872(P2006−317872A)
【公開日】平成18年11月24日(2006.11.24)
【国際特許分類】
【出願番号】特願2005−142913(P2005−142913)
【出願日】平成17年5月16日(2005.5.16)
【出願人】(000005049)シャープ株式会社 (33,933)
【Fターム(参考)】