アミューズメントシステム
【課題】カラオケにおいて、臨場感の高いライブ演奏を疑似的に体験することができる技術を提供することを課題とする。
【解決手段】本体装置2は、楽曲データ61と、ライブ会場に入場した観客の映像が記録された観客映像データ62とを再生する。ユーザは、マイク4を持って、モニタ3に表示された観客に特定のフレーズを呼び掛け、特定の動作を行うことによりライブパフォーマンスを行う。マイク4は、音声データ4Aと、マイク4の動き情報42を本体装置2に送信する。パフォーマンス特定部25は、ユーザが特定のフレーズを呼び掛け、かつ、特定のフレーズに対応する動作をユーザが行った場合、ユーザがライブパフォーマンスを行った判定する。反応指示部26は、ライブパフォーマンスに対する観客の反応を示す映像及び音声が記録されたリアクションデータの再生を、再生部23に指示する。
【解決手段】本体装置2は、楽曲データ61と、ライブ会場に入場した観客の映像が記録された観客映像データ62とを再生する。ユーザは、マイク4を持って、モニタ3に表示された観客に特定のフレーズを呼び掛け、特定の動作を行うことによりライブパフォーマンスを行う。マイク4は、音声データ4Aと、マイク4の動き情報42を本体装置2に送信する。パフォーマンス特定部25は、ユーザが特定のフレーズを呼び掛け、かつ、特定のフレーズに対応する動作をユーザが行った場合、ユーザがライブパフォーマンスを行った判定する。反応指示部26は、ライブパフォーマンスに対する観客の反応を示す映像及び音声が記録されたリアクションデータの再生を、再生部23に指示する。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザが再生される楽曲データに合わせて歌を歌うことができるアミューズメントシステムに関する。
【背景技術】
【0002】
カラオケでは、ユーザが選択した楽曲の演奏に合わせて歌を歌う形式が一般的である。カラオケ装置のモニタには、ユーザが選択した楽曲の歌詞が、楽曲の演奏の進行に合わせて表示される。これにより、ユーザは、選択した楽曲の歌詞を全て覚えていなくても、カラオケを楽しむことができる。モニタに表示される歌詞の背景には、歌を歌うキャラクタの映像や、楽曲のイメージに合わせた映像などが表示される。
【0003】
カラオケは、家族あるいは友人同士などの少人数のグループで楽しむことが多い。カラオケを盛り上げるために、歌を歌うユーザが好みのタイミングで効果音などを発生することができる装置が特許文献1に開示されている。
【0004】
下記特許文献1に係る電子パーカッション装置は、マラカスなど打楽器の形状をしており、加速度センサを備えている。電子パーカッション装置は、楽曲の間奏が演奏されているときなど、自装置を操作することができるタイミングを、LEDを点灯させることによりユーザに通知する。LEDの点灯期間内にユーザが電子パーカッション装置を振ることによって、パーカッション音が再生される。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2004−287020号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
上述したように、カラオケは、少人数のグループで楽しむことが多い。ユーザが歌う歌を聞く人は、カラオケに参加した家族あるいは友人等に限られる。つまり、カラオケでは、ライブのシンガーのように、多くの観客に自分の歌を聴いてもらうという体験をすることができない。
【0007】
そこで、本発明は、前記問題点に鑑み、臨場感の高いライブ演奏を疑似的に体験することができるアミューズメントシステムを提供することを目的とする。
【課題を解決するための手段】
【0008】
上記課題を解決するため、請求項1記載の発明は、アミューズメントシステムであって、本体装置と、ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、を備え、前記音声入力装置は、前記音声入力装置の動きを示す第1動き情報を出力する第1動き情報出力部、を含み、前記本体装置は、前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、を含む。
【0009】
請求項2記載の発明は、アミューズメントシステムであって、本体装置と、ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、前記ユーザを撮影して映像データを出力する撮像装置と、前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、を備え、前記本体装置は、前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、前記映像データを解析して前記ユーザの動きを示す第1動き情報を生成する映像解析部と、前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、を含む。
【0010】
請求項3記載の発明は、請求項1または請求項2に記載のアミューズメントシステムにおいて、前記反応指示部は、前記特定されたパフォーマンスに対する前記聴衆の反応レベルを、前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて決定し、前記聴衆の反応レベルに基づいて、前記再生リアクションデータを選択する。
【0011】
請求項4記載の発明は、請求項3に記載のアミューズメントシステムにおいて、前記反応指示部は、前記聴衆の反応レベルに基づいて、前記再生リアクションデータの再生条件を決定し、前記再生条件を前記再生部に指示する。
【0012】
請求項5記載の発明は、請求項3または請求項4に記載のアミューズメントシステムにおいて、前記再生部は、前記ユーザにより設定された聴衆の客層に応じた聴衆状況データを再生し、前記反応指示部は、前記聴衆の客層に基づいて、前記聴衆の反応レベルを決定する。
【0013】
請求項6記載の発明は、請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、前記パフォーマンス特定部は、前記フレーズ情報に基づいて、前記ユーザが前記聴衆に対して質問形式の特定のフレーズを呼び掛け、かつ、前記第1動き情報に基づいて、前記音声入力装置の向きが反転したと判定した場合、前記ユーザが前記聴衆を煽るパフォーマンスを行ったと判定し、前記反応指示部は、前記再生リアクションデータとして、前記特定のフレーズに対して聴衆が一斉に応答をする映像及び音声が記録されたリアクションデータを選択する。
【0014】
請求項7記載の発明は、請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、前記パフォーマンス特定部は、前記フレーズ情報に基づいて、前記ユーザが前記聴衆に対して合唱を要求する特定のフレーズを呼び掛け、かつ、前記第1動き情報に基づいて、前記音声入力装置の向きが反転したと判定した場合、前記ユーザが前記聴衆に合唱を要求するパフォーマンスを行ったと判定し、前記反応指示部は、前記再生リアクションデータとして、前記聴衆が合唱する映像及び音声が記録されたリアクションデータを選択する。
【0015】
請求項8記載の発明は、請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、前記パフォーマンス特定部は、前記動き情報に基づいて、前記ユーザが手拍子を行っていると判定した場合、前記ユーザが手拍子を先導するパフォーマンスを行ったと判定し、前記反応指示部は、前記再生リアクションデータとして、前記聴衆が手拍子する映像及び手拍子の音声が記録されたリアクションデータを選択する。
【0016】
請求項9記載の発明は、請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、前記パフォーマンス特定部は、前記動き情報に基づいて、前記ユーザが腕を振る動作をしていると判定した場合、前記ユーザが前記聴衆に対して両手を振る動作を要求するパフォーマンスを行ったと判定し、前記反応指示部は、前記再生リアクションデータとして、前記聴衆が両手を振る映像が記録されたリアクションデータを選択する。
【0017】
請求項10記載の発明は、請求項1、請求項3ないし請求項9のいずれかに記載のアミューズメントシステムにおいて、さらに、前記ユーザが前記音声入力装置を保持する手と反対の手で保持するコントローラ、を備え、前記コントローラは、前記コントローラの動きを示す第2動き情報を出力する第2動き情報出力部、を含み、前記パフォーマンス特定部は、前記第2動き情報に基づいて、前記ユーザのパフォーマンスを特定する。
【0018】
請求項11記載の発明は、請求項3ないし請求項10のいずれかに記載のアミューズメントシステムにおいて、前記反応指示部は、前記楽曲データの第1パートで行われた全てのパフォーマンスを、各パフォーマンスに対する前記聴衆の反応レベルに基づいて採点し、前記楽曲データの第2パートで行われた全てのパフォーマンスを、各パフォーマンスに対する前記聴衆の反応レベルに基づいて採点する。
【0019】
請求項12記載の発明は、アミューズメントシステムであって、本体装置と、ユーザが保持する音声入力装置と、を備え、前記音声入力装置は、前記本体装置と無線通信を行う無線通信部、を含み、前記本体装置は、前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、前記音声入力装置から送信される無線信号の有無に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、前記聴衆の反応を示す音声又は映像が記録された複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、を含む。
【0020】
請求項13記載の発明は、請求項12に記載のアミューズメントシステムにおいて、前記パフォーマンス特定部は、前記楽曲データの再生が開始された後に、前記無線信号を検出した場合、前記ユーザが仮想的なライブ会場に入場したと判定する。
【0021】
請求項14記載の発明は、請求項12または請求項13に記載のアミューズメントシステムにおいて、前記パフォーマンス特定部は、前記楽曲データの再生が開始された後に、前記無線信号を検出できなくなった場合、前記ユーザが仮想的なライブ会場から退場したと判定する。
【0022】
請求項15記載の発明は、請求項1ないし請求項14のいずれかに記載のアミューズメントシステムにおいて用いられる音声入力装置である。
【0023】
請求項16記載の発明は、ユーザが保持し、前記ユーザが入力した音声を音声データとして出力し、自装置の動きを示す第1動き情報を出力する音声入力装置と、前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、通信可能な本体装置に搭載されるコンピュータを、前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部、前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部、前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部、として機能させるためのプログラムである。
【0024】
請求項17記載の発明は、ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、前記ユーザを撮影して映像データを出力する撮像装置と、前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、通信可能な本体装置に搭載されるコンピュータを、前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部、前記映像データを解析して前記ユーザの動きを示す第1動き情報を生成する映像解析部、前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部、前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部、として機能させるためのプログラムである。
【0025】
請求項18記載の発明は、ユーザが保持する音声入力装置と無線通信が可能な本体装置に搭載されるコンピュータを、前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部、前記音声入力装置から送信される無線信号の有無に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部、前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部、として機能させるためのプログラムである。
【発明の効果】
【0026】
本発明において、本体装置は、ライブの聴衆の状況を示す聴衆状況データを再生して、モニタなどに表示する。本体装置は、ユーザがマイクに入力したフレーズを示すフレーズ情報や、ユーザの動きを示す動き情報に基づいて、ユーザが行うライブパフォーマンスを特定し、ライブパフォーマンスに対する聴衆の反応を示すリアクションデータを再生する。これにより、ユーザは、表示された聴衆に対してライブ演奏を提供するシンガーとして振る舞いながら、カラオケを楽しむことができるとともに、臨場感の高いライブ演奏を疑似的に体験することができる。
【図面の簡単な説明】
【0027】
【図1】本発明の実施の形態によるカラオケシステムの全体図である。
【図2】本体装置の機能的構成を示すブロック図である。
【図3】マイクの機能的構成を示すブロック図である。
【図4】コントローラの機能的構成を示すブロック図である。
【図5】本体装置の動作の流れを示すフローチャートである。
【図6】モニタの画面に表示される観客の映像を示す図である。
【図7A】画面内の観客に対して観客煽りを行う手順を示す図である。
【図7B】画面内の観客に対して観客煽りを行う手順を示す図である。
【図8A】画面内の観客に対して合唱を先導する手順を示す図である。
【図8B】画面内の観客に対して合唱を先導する手順を示す図である。
【図9A】画面内の観客に対して手拍子を先導する手順を示す図である。
【図9B】画面内の観客に対して手拍子を先導する手順を示す図である。
【図10A】画面内の観客に対してウェーブ(両手を大きく振る動作)を先導する手順を示す図である。
【図10B】画面内の観客に対してウェーブを先導する手順を示す図である。
【図11】ユーザがライブ会場に仮想的に入場する手順を示す図である。
【図12】ライブの客層を設定する設定画面を示す図である。
【発明を実施するための形態】
【0028】
以下、図面を参照しつつ、本発明の実施の形態について説明する。本実施の形態では、アミューズメントシステムの一例として、カラオケシステムについて説明する。
【0029】
{1.カラオケシステム1の全体構成}
図1は、カラオケシステム1の全体図である。カラオケシステム1は、本体装置2と、モニタ3と、マイク4と、コントローラ5とを備える。
【0030】
本体装置2は、カラオケシステム1の全体制御を行う処理装置であり、ユーザが選択した楽曲に対応する楽曲データ及び映像データを再生する。ユーザは、図示しないリモコンを用いて、カラオケで歌う楽曲を選択する。
【0031】
モニタ3は、液晶ディスプレイなどであり、本体装置2から出力される映像を表示する。モニタ3は、図示しないスピーカを備えており、本体装置2により再生される楽曲データを音声として出力する。
【0032】
マイク4は、ユーザが歌を歌うときに音声を入力する音声入力装置である。マイク4は、自装置の動きを検出する動き検出機能を有し、ユーザの動きを示す動き情報を本体装置2に送信する。
【0033】
コントローラ5は、自装置の動きを検出する動き検出機能を有しており、動き情報を本体装置2に送信する。ユーザは、一方の手にマイク4を持ち、他方の手にコントローラ5を持って歌を歌う。図1に示すように、コントローラ5は、直方体状の形状であるが、リストバンドのように、ユーザの腕にはめることができる形状であってもよい。この場合、ユーザがコントローラ5を誤って落とすことを防止できる。
【0034】
本体装置2は、ユーザが選択した楽曲の演奏音を出力するとともに、大勢の観客が入場したライブ会場の様子が記録された映像をモニタ3に表示させる。つまり、モニタ3には、ライブ会場のステージに立つシンガー(ユーザ)を見ている大勢の観客の映像が表示される。
【0035】
ユーザは、選択した楽曲の歌を歌うだけでなく、マイク4を通して画面3a内の観客に呼び掛けたり、マイク4を観客に向けたりすることにより、観客に対して様々なライブパフォーマンスを行う。本体装置2は、マイク4及びコントローラ5から送信される動き情報に基づいて、ユーザの両手の動きを検出する。本体装置2は、マイク4に入力された音声や、マイク4及びコントローラ5の動き情報に基づいて、ユーザのライブパフォーマンスを特定する。特定されたライブパフォーマンスに対する観客の反応を示す映像が、モニタ3に表示される。このように、ユーザは、カラオケシステム1を利用することにより、実際にライブ会場でライブを行うシンガーのように振る舞うことができるため、臨場感の高いライブ演奏を疑似的に体験することができる。
【0036】
次に、本体装置2の構成について説明する。図2は、本体装置2の機能的構成を示すブロック図である。本体装置2は、無線通信部21と、データ取得部22と、再生部23と、音声認識部24と、パフォーマンス特定部25と、反応指示部26と、記憶部27と、出力部28とを備える。
【0037】
無線通信部21は、マイク4及びコントローラ5と無線通信を行い、マイク4及びコントローラ5から動き情報42A,51Aを取得する。無線通信には、Bluetooth(登録商標)、無線LAN、赤外線通信などを利用することができる。
【0038】
データ取得部22は、ユーザが選択した楽曲に対応する楽曲データ61、観客映像データ62、複数のリアクションデータ63,63・・・を、インターネット等を介して楽曲サーバから取得する。楽曲データ61は、ユーザが選択した楽曲の演奏音を記録したデータである。観客映像データ62は、ライブ会場に入場した大勢の観客(聴衆)の状況を示す聴衆状況データであり、観客の映像及び音声を記録したデータである。ここで、聴衆とは、ユーザが楽曲に合わせて歌う歌をライブ会場で鑑賞する人々を指し、観客を含む概念である。リアクションデータ63は、ライブパフォーマンスに対する観客のリアクションを示す映像及び音声が記録されたデータである。リアクションデータ63は、複数のライブパフォーマンスのうちいずれか一つに対応するとともに、観客の反応レベルのいずれか一つに対応する。反応レベルの詳細については、後述する。
【0039】
本実施の形態では、大勢の観客の状況を示す聴衆状況データとして、観客映像データ62を用いる例を説明する。しかし、大勢の観客(聴衆)の状況を示す音声データを用いてもよい。具体的には、観客映像データ62に代えて、観客(聴衆)の歓声などが記録された音声データなどを用いることができる。
【0040】
再生部23は、データ取得部22が取得した楽曲データ61及び観客映像データ62を再生する。音声認識部24は、マイク4から送信された音声データ4Aに対し音声認識処理を行い、ユーザがマイク4に入力したフレーズを検出する。音声認識部24は、検出したフレーズを示すフレーズ情報24Aを出力する。
【0041】
パフォーマンス特定部25は、フレーズ情報24Aと、動き情報42A,51Aとに基づいて、ユーザが行ったライブパフォーマンスを特定する。パフォーマンス特定部25は、フレーズ情報24Aが特定のフレーズ(シンガーが観客に呼び掛けるフレーズ)を含み、かつ、ユーザが特定のフレーズに対応した動作を行ったと判断した場合、ユーザがライブパフォーマンスを行ったと判断する。
【0042】
反応指示部26は、特定されたライブパフォーマンスに対する観客の反応レベルを決定する。特定されたライブパフォーマンスと観客の反応レベルとに基づいて、観客のリアクションを示すリアクションデータ63が選択される。反応指示部26は、観客の反応レベルに基づいて、選択されたリアクションデータ63の再生条件を決定する。再生条件とは、選択したリアクションデータ63の再生時の音量などである。反応指示部26は、選択したリアクションデータ63を、決定した再生条件で再生することを再生部23に指示する。
【0043】
記憶部27は、ハードディスク装置などであり、データ取得部22が取得した楽曲データ61、映像データ62及びリアクションデータ63,63,・・・を格納する。出力部28は、再生部23により生成された音声及び映像を、モニタ3に出力する。
【0044】
次に、マイク4の構成について説明する。図3は、マイク4の機能的構成を示すブロック図である。マイク4は、音声入力部41と、センサ部42と、無線通信部43とを備える。
【0045】
音声入力部41は、ユーザが発する音声を入力して電気信号に変換し、音声データ4Aを出力する。センサ部42は、マイク4の動きの変化を検出する加速度センサを備えており、マイク4の動きを示す動き情報42Aを出力する。センサ部42は、加速度センサの他に、地磁気センサやジャイロスコープなどを備えていてもよい。無線通信部43は、本体装置2と無線通信を行い、音声データ4A及び動き情報42Aを本体装置2に送信する。
【0046】
次に、コントローラ5の構成について説明する。図4は、コントローラ5の機能的構成を示すブロック図である。コントローラ5は、センサ部51と、無線通信部52とを備える。センサ部51は、マイク4のセンサ部42と同様に加速度センサを備えており、コントローラ5の動きを示す動き情報51Aを出力する。無線通信部52は、本体装置2と無線通信を行い、動き情報51Aを本体装置2に送信する。
【0047】
なお、カラオケシステム1は、ユーザの動きを撮影するカメラを備えていてもよい。この場合、本体装置2は、映像データを解析してユーザの動きを検出する画像解析部を備える。カメラは、たとえば、モニタ3の上に設置され、ユーザを撮影した映像データをリアルタイムに本体装置2に出力する。ユーザがモニタ3及びカメラの前でライブパフォーマンスを行うことにより、画像処理部は、ユーザの動きを示す動き情報を生成して出力する。パフォーマンス特定部25は、フレーズ情報24Aと、画像解析部から出力される動き情報とに基づいて、ユーザが行ったライブパフォーマンスを特定する。この場合、カラオケシステム1は、コントローラ5を備える必要はなく、マイク4にセンサ部42を設けなくてもよい。
【0048】
{2.本体装置2の動作}
以下、ユーザのライブパフォーマンスに応じて、モニタ3から出力される観客の映像及び音声が変更される処理について、本体装置2の動作を中心に説明する。以下の説明では、マイク4及びコントローラ5から送信される動き情報42A,51Aを用いる例について説明する。カメラを用いてユーザの動きを検出する場合であっても、同様の処理が行われる。
【0049】
図5は、本体装置2の動作の流れを示すフローチャートである。最初に、ユーザは、図示しないリモコンを操作して、カラオケで歌いたい楽曲を選択する。データ取得部22は、ユーザにより選択された楽曲に対応する楽曲データ61と、観客映像データ62と、リアクションデータ63,63,・・・とを楽曲サーバから取得して、記憶部27に格納する(ステップS1)。
【0050】
再生部23は、楽曲データ61及び観客映像データ62の再生を開始する(ステップS2)。これにより、ユーザが選択した楽曲の演奏音と、ライブ会場でライブを楽しむ観客の映像及び歓声とが、モニタ3から出力される。
【0051】
図6は、多くの観客の映像が表示されたモニタ3を示す図である。ユーザは、画面3aに多くの観客の映像が表示されたモニタ3の前に立つことにより、画面3a内の多くの観客と向かい合う。すなわち、ユーザは、モニタ3に映し出された観客に対してライブを行うシンガーとして、楽曲の演奏音に合わせて歌う。ユーザは、ライブを行うシンガーとして、歌を歌いながら、様々なライブパフォーマンスを行うことができる。
【0052】
本体装置2は、楽曲データ61の再生が終了するまで(ステップS3においてYes)、ステップS4〜ステップS9の処理を繰り返し実行する。
【0053】
マイク4は、音声入力部41に入力された音声フレーズを、音声データ4Aとしてリアルタイムに本体装置2に送信している。本体装置2が音声データ4Aを受信した場合(ステップS4においてYes)、音声認識部24は、音声データ4Aに対する音声認識処理を実行する(ステップS5)。音声認識部24は、ユーザの発した音声フレーズを記録したフレーズ情報24Aを出力する。パフォーマンス特定部25は、フレーズ情報24Aに基づいて、ユーザが画面3a内の観客に対して特定のフレーズを呼び掛けた否かを判定する(ステップS6)。
【0054】
フレーズ情報24Aが特定のフレーズを含まない場合(ステップS6においてNo)、マイク4に入力された音声は、ユーザの歌声であると判定される。本体装置2は、ステップS3の処理に戻る。一方、フレーズ情報24Aが特定のフレーズを含む場合(ステップS6においてYes)、パフォーマンス特定部25は、ユーザが観客に特定のフレーズを呼び掛けたと判断する。そして、パフォーマンス特定部25は、特定のフレーズに応じた動きをしたか否かを、動き情報42A,51Aに基づいて確認する。
【0055】
マイク4は、センサ部42が出力する動き情報42Aを本体装置2にリアルタイムに送信する。同様に、コントローラ5は、センサ部51が出力する動き情報51Aを本体装置2にリアルタイムに送信する。パフォーマンス特定部25は、動き情報42A,51Aに基づいて、特定のフレーズに応じた動きをユーザが行ったか否かを判定する(ステップS7)。
【0056】
特定のフレーズに応じた動きが検出されなかった場合(ステップS7においてNo)、本体装置2は、ステップS3の処理に戻る。
【0057】
特定のフレーズに応じた動きが検出された場合(ステップS7においてYes)、パフォーマンス特定部25は、ユーザが画面3a内の観客に対してライブパフォーマンスを行ったと判定する。ユーザが行うライブパフォーマンスとして、観客煽り、観客の合唱の先導、手拍子の先導などが挙げられる。
【0058】
反応指示部26は、フレーズ情報24A及び動き情報42A,51Aを用いて、ユーザのライブパフォーマンスに対する観客の反応レベルを決定する(ステップS8)。反応指示部26は、ユーザが行ったライブパフォーマンスと、反応レベルとに基づいて、リアクションデータ63を選択する。たとえば、反応レベルが高い場合、反応指示部26は、ユーザのライブパフォーマンスに対して全観客が反応する映像が記録されたリアクションデータ63を選択する。
【0059】
反応指示部26は、選択されたリアクションデータ63の再生を、再生部23に対して指示する。再生部23は、指示されたリアクションデータ63を、再生中の楽曲データ61とともに再生する(ステップS9)。この結果、ユーザのライブパフォーマンスに対する観客のリアクションが画面3aに表示されるとともに、楽曲の演奏音と、観客の歓声とが重なってモニタ3から出力される。
【0060】
反応指示部26は、リアクションデータ63の再生条件を反応レベルに応じて変更してもよい。たとえば、反応レベルが高ければ、観客の歓声の音量を大きくしてもよい。反応レベルが低ければ、観客の歓声の音量を小さくしたり、観客の歓声が記録されたデータの再生速度を遅くしたりしてもよい。
【0061】
図5に示すフローチャートでは、音声データ4Aから特定のフレーズを検出した後に、検出した特定のフレーズに応じた動きが行われたか否かを判定している。しかし、ライブパフォーマンスの種別に応じて、ステップS4〜S6の処理と、動き検出(ステップS7)の処理の順序とを入れ替えてもよい。また、特定のフレーズ及びユーザの動きのいずれか一方に基づいて、ユーザのライブパフォーマンスを特定してもよい。
【0062】
本実施の形態では、観客映像データ62と、リアクションデータ63とが異なるデータである例を説明しているが、これに限られない。たとえば、観客映像データ62の各観客をオブジェクト化してもよい。この場合、本体装置2は、特定されたライブフォーマンと反応レベルとに基づいて、各観客オブジェクトの動きを変更する。たとえば、本体装置2は、特定されたライブパフォーマンスに対する観客の反応として、各観客オブジェクトの動作や歓声を変更することができる。また、反応指示部26は、反応レベルに応じて、ユーザのライブパフォーマンスに対して反応する観客オブジェクトの割合を変化させることができる。
【0063】
{3.ライブパフォーマンスの具体例}
以下、本体装置2が検出することができるライブパフォーマンスの具体例について説明する。
【0064】
{3.1.観客煽り}
図7A及び図7Bは、ユーザが画面3a内の観客31に対して観客煽りを行う手順を示す図である。図7A及び図7Bでは、画面3a内の観客31の動きを分かりやすく説明するために、画面3a内に一人の観客31のみを表示している。実際には、再生部23が観客映像データ62を再生することにより、ライブ会場と、ライブ会場に来ている多数の観客31とが画面3aに表示される。図7A、図7Bにおいて、本体装置2及びコントローラ5の表示を省略している。
【0065】
観客煽りとは、ライブ中のシンガーが質問形式のフレーズを観客に対して呼びかけ、観客がシンガーに対して一斉に返事をするというライブパフォーマンスである。ユーザは、楽曲の前奏あるいは間奏が再生されているときなどに、観客煽りを行うことができる。
【0066】
本体装置2は、ライブパフォーマンスとして観客煽りを特定する場合、マイク4から送信される音声データ4A及び動き情報42Aを使用し、コントローラ5から送信される動き情報51Aを使用しない。
【0067】
本体装置2は、ライブパフォーマンスとして観客煽りを特定する場合、特定のフレーズの検出を先に行う。図7Aに示すように、ユーザは、最初に、マイク4をユーザ自身に向けながら、たとえば、「のってるかーい?」という質問形式の特定のフレーズ(以下、「煽りフレーズ」と呼ぶ。)をマイク4に入力する。マイク4は、煽りフレーズを音声データ4Aとして本体装置2に送信する。
【0068】
音声認識部24は、受信した音声データ41Aに対して音声認識処理を行って(ステップS5)、フレーズ情報24Aを生成する。パフォーマンス特定部25には、シンガーがライブパフォーマンスの際に観客に呼び掛ける様々なフレーズが設定されている。パフォーマンス特定部25は、フレーズ情報24Aと、設定された様々なフレーズとを比較することにより、ユーザが煽りフレーズを観客に呼び掛けたと判断する(ステップS6においてYes)。
【0069】
ユーザは、ユーザ自身に向けたマイク4に煽りフレーズを入力した後に、マイク4をユーザ自身の方向から画面3aの方向に向ける。つまり、ユーザは、矢印45(図7A参照)に示すように、マイク4の向きを反転させる。マイク4のセンサ部42は、ユーザの動きに応じた動き情報42Aを生成する。パフォーマンス特定部25は、マイク4から送信された動き情報42Aに基づいて、マイク4の向きが反転されたと判定する。パフォーマンス特定部25は、煽りフレーズがマイク4に入力され、かつ、マイク4の向きが反転されたことから、ユーザがライブパフォーマンスとして観客煽りを行ったと判定する(ステップS7においてYes)。
【0070】
反応指示部26は、ユーザが行った観客煽りに対する観客の反応レベルを決定する(ステップS8)。反応指示部26は、煽りフレーズが入力された音声入力タイミングと、マイクの反転が検出された動き検出タイミングとの時間差(検出時間差)に基づいて、反応レベルを決定する。音声入力タイミングは、フレーズ情報24Aに含まれている。動き検出タイミングは、動き情報42Aに含まれている。
【0071】
反応指示部26には、反応レベルが最大となる、音声検出タイミングと動き検出タイミングとの時間差(理想時間差)が設定されている。反応指示部26は、理想時間差と、検出時間差とのずれの大きさに基づいて反応レベルを決定する。たとえば、ずれが小さい場合、反応指示部26は、観客煽りがスムーズに行われたと判断して、反応レベルを高くする。一方、マイクを反転させるタイミングが遅い場合など、ずれが大きい場合、煽りフレーズに対する観客の反応がばらつくと考えられる。この場合、反応レベルは低下する。また、反応指示部26は、ユーザが観客煽りを、楽曲データ61のどの再生位置で行ったかを考慮して、反応レベルを決定してもよい。
【0072】
反応指示部26は、観客煽りに対するリアクションデータ63を、決定した反応レベルに基づいて、記憶部27に格納されたリアクションデータ63,63,・・・の中から選択する。反応レベルが高ければ、観客全員が観客煽りに対して反応する映像が記録されたリアクションデータ63が選択される。反応レベルが低ければ、観客煽りに対して反応する観客の数が少ない映像が記録されたリアクションデータ63が選択される。
【0073】
反応指示部26は、選択したリアクションデータ63の再生を、再生部23に指示する。このとき、選択されたリアクションデータ63の再生条件も、再生部23に通知される。再生条件は、観客煽りに対する反応レベルに基づいて決定される。たとえば、反応レベルが高ければ、リアクションデータ63の再生時の音量が大きくなる。反応レベルが低ければ、リアクションデータ63の再生時の音量を小さくしたり、観客の歓声の再生速度を小さくしたりすることができる。
【0074】
再生部23は、再生中の楽曲データに合わせて、反応指示部26に指示されたリアクションデータ63を再生する(ステップS9)。この結果、図7Bに示すように、観客煽りに対する観客の反応として、画面3a内の観客31が右手を挙げるようすが画面3aに表示されるとともに、「イェーイ!」という観客の歓声が再生される。実際には、画面3aには、多くの観客が一斉に観客煽りに対して反応する様子が表示されるため、ユーザは、ライブ会場でのライブパフォーマンスを疑似的に体験することができる。観客煽りのやり方によっては、ライブ会場内の観客31の反応が大きく変化するため、ユーザは、実際にライブを行うシンガーと同様の緊張感を楽しむことが可能となる。
【0075】
{3.2.合唱の先導}
ユーザは、ライブパフォーマンスとして、画面3a内の観客に対して、ユーザが歌っている楽曲の合唱を先導することができる。図8A及び図8Bは、ユーザが観客の合唱を先導する手順を示す図である。
【0076】
図8A及び図8Bは、図7Aと同様に、画面3a内の観客の動きを分かりやすく説明するために、二人の観客31,31のみを表示している。図8A、図8Bにおいて、本体装置2及びコントローラ5の表示を省略している。
【0077】
本体装置2は、合唱を先導するライブパフォーマンスが行われたと判定する場合には、マイク4から送信される音声データ4A及び動き情報42Aを使用する。コントローラ5から送信される動き情報51Aは、合唱の先導の判定に用いられない。
【0078】
図8Aに示すように、楽曲データ61が再生されている間、画面3aには、ライブ会場の観客の映像と、再生されている楽曲の歌詞32とが表示されている。再生されている楽曲の中で観客の合唱が可能な部分(たとえば、楽曲のサビの部分)に対応する歌詞32が、図8Aに示すように、四角い枠で囲まれて表示される。これにより、ユーザは、合唱を先導するタイミングを知ることができる。
【0079】
本体装置2は、ライブパフォーマンスとして合唱の先導を特定する場合、ユーザが合唱を観客に呼び掛ける音声フレーズ(以下、「合唱フレーズ」と呼ぶ。)を先に検出する。ユーザは、マイク4をユーザ自身に向けながら、たとえば、「一緒に歌おう!」という合唱フレーズをマイク4に入力する。マイク4は、入力された合唱フレーズを音声データ4Aとして本体装置2に送信する。上記と同様の手順で、パフォーマンス特定部25は、ユーザが合唱フレーズを呼び掛けたと判定する。
【0080】
ユーザは、合唱フレーズをマイク4に入力した後に、マイク4を画面3aの方向(矢印45の方向)へ反転させる。パフォーマンス特定部25は、マイク4から送信された動き情報42Aに基づいて、マイク4の向きが反転されたと判定する。パフォーマンス特定部25は、合唱フレーズがマイク4に入力され、かつ、マイク4の向きが反転されたことから、ユーザがライブパフォーマンスとして合唱を先導していると判定する。
【0081】
反応指示部26は、ユーザが行った合唱の先導に対する反応レベルを決定する。反応レベルの決定手順については、上記と同様であるため、その説明を省略する。
【0082】
反応指示部26は、観客が合唱をするリアクションデータ63,63,・・・のうち、決定した反応レベルに対応するリアクションデータ63の再生を指示する。リアクションデータ63の再生条件も再生部23に通知される。これにより、合唱する観客の数や合唱の音量は、反応レベルに応じて変化する。図8Bに示すように、ユーザが行った合唱の要求に対する反応として、画面3a内の観客31,31が肩を組んで合唱する様子が表示される。また、ユーザが合唱を先導した歌詞に対応する観客の歌声が、モニタ3から出力される。実際には、画面3aには、多くの観客が一斉に合唱をする様子が表示されるため、ユーザは、ライブ会場で、観客と一緒に歌を歌うというライブパフォーマンスを疑似的に体験することができる。
【0083】
観客の合唱は、ユーザがマイク4を動かさない限り継続される。ユーザは、観客の合唱を停止させる場合、マイク4を画面3aの方向からユーザ自身の方向へ反転させる。パフォーマンス特定部25は、リアクションデータ63の再生中にマイク4の向きが反転した場合、合唱を先導が終了したと判定する。これにより、楽曲データ61及び観客映像データ62の再生が再開される。
【0084】
{3.3.手拍子の先導}
ユーザは、ライブパフォーマンスとして、画面3a内の観客31に対して手拍子を先導する動作を行うことができる。図9A及び図9Bは、ユーザが画面3a内の観客31,31に対して手拍子を先導する手順を示す図である。
【0085】
図9A及び図9Bは、図7Aと同様に、画面3a内の観客31の動きを分かりやすく説明するために、二人の観客31,31のみを表示している。図9A、図9Bにおいて、本体装置2の表示を省略している。本体装置2は、手拍子の先導を検出する場合、マイク4から送信される音声データ4A、動き情報42Aと、コントローラ5から送信される動き情報51Aを使用する。
【0086】
図9Aに示すように、楽曲データ61が再生されている間、ユーザは、ライブパフォーマンスとして手拍子を先導することができる。本体装置2は、手拍子の先導を検出する場合、手拍子を先導する音声フレーズ(以下、「手拍子フレーズ」と呼ぶ。)を先に検出する(ステップS6においてYes)。
【0087】
具体的には、ユーザは、マイク4に手拍子フレーズを入力する。手拍子フレーズは、たとえば、「みんな、手拍子よろしく!!」などである。マイク4は、入力された手拍子フレーズを音声データ4Aとして本体装置2に送信する。上記と同様の手順で、パフォーマンス特定部25は、ユーザが画面3a内の観客に対して、手拍子フレーズを呼び掛けたと判定する。
【0088】
ユーザは、手拍子フレーズをマイク4に入力した後に、手拍子を先導する動作を行う。図9Bに示すように、ユーザは、楽曲の演奏音(再生される楽曲データ61)のリズムに合わせて手拍子をする。ユーザが右手にマイク4を、左手にコントローラ5を持っているため、マイク4及びコントローラ5は、手拍子の動きを示す動き情報42A,51Aを本体装置2に送信する。
【0089】
パフォーマンス特定部25は、受信した動き情報42A,51Aに基づいて、ユーザの両手の動きを検出する。たとえば、マイク4及びコントローラ5が左右に繰り返し動き、かつ、マイク4が動く方向とコントローラ5が動く方向とが反対方向である場合、パフォーマンス特定部25は、ユーザが手拍子の動作をしていると判断することができる(ステップS7においてYes)。つまり、パフォーマンス特定部25が、手拍子フレーズと、手拍子の動作とを検出することにより、ユーザが手拍子を先導していると判断する。
【0090】
反応指示部26は、手拍子フレーズを検出したタイミングと、手拍子の動きを検出したタイミングとに基づいて、観客の反応レベルを決定する(ステップS8)。反応レベルの決定手順は、基本的には、観客煽りの反応レベルの決定と同様である。また、反応指示部26は、動き情報42A,51Aを用いて、ユーザの手拍子のリズムを算出し、算出したリズムに基づいて、反応レベルを決定してもよい。たとえば、反応指示部26は、楽曲の演奏音のリズムとユーザの手拍子のリズムとのずれを検出し、検出したずれが小さいほど、反応レベルを高くすることができる。
【0091】
反応指示部26は、観客が手拍子をするリアクションデータ63,63・・・のうち、決定した反応レベルに対応するリアクションデータ63の再生を指示する。リアクションデータ63の再生条件も、再生部23に通知される。これにより、楽曲データ61とともに、観客が手拍子をするリアクションデータ63が再生されることにより(ステップS9)、図9Bに示すように、画面3a内の観客31,31が頭上で手拍子をする映像が表示される。画面3aに表示する観客のうち、手拍子をする観客の割合は、反応レベルによって変化する。また、手拍子の音量も、反応レベルに基づいて決められた再生条件によって変化する。
【0092】
このように、ユーザが手拍子をする動きに合わせて、画面3a内の観客31,31が手拍子をする映像が表示されるため、ユーザは、ライブ会場で、観客と一体となって手拍子をするというライブパフォーマンスを疑似的に体験することができる。
【0093】
{3.4.ウェーブ(両手を大きく振る動作)の先導}
ユーザは、ライブパフォーマンスとして、画面3a内の観客に対してウェーブを先導する動作を行うことができる。ウェーブとは、ライブ会場の観客が、ライブ中の楽曲に合わせて両手を左右に大きく振る動作である。図10A及び図10Bは、ユーザがウェーブを先導する手順を示す図である。
【0094】
図10A及び図10Bは、図9Aと同様に、画面3a内の観客の動きを分かりやすく説明するために、二人の観客31,31のみを表示している。図10A、図10Bにおいて、本体装置2の表示を省略している。本体装置2は、ウェーブの先導を検出する場合、マイク4から送信される音声データ4A,動き情報42Aと、コントローラ5から送信される動き情報51Aを使用する。
【0095】
図10Aに示すように、楽曲データ61が再生されている間、ユーザは、ライブパフォーマンスとしてウェーブを先導することができる。本体装置2は、ウェーブの先導を検出する場合、ウェーブを呼び掛ける音声フレーズ(以下、「ウェーブフレーズ」と呼ぶ。)を先に検出する。
【0096】
具体的には、ユーザは、ウェーブフレーズをマイク4に入力する。ウェーブフレーズは、たとえば、「みんな、両手を大きく振って!!」である。マイク4は、入力されたウェーブフレーズを音声データ4Aとして本体装置2に送信する。上記と同様の手順で、パフォーマンス特定部25は、ユーザが画面3a内の観客に対してウェーブフレーズを呼び掛けたと判定する(ステップS6においてYes)。
【0097】
ユーザは、ウェーブフレーズをマイク4に入力した後に、ウェーブの動作を行う。図10Bに示すように、ユーザは、楽曲の演奏音(再生される楽曲データ61)のリズムに合わせて、頭上で両手を大きく振る。ユーザが右手にマイク4を、左手にコントローラ5を持っているため、マイク4及びコントローラ5は、ウェーブの動きを示す動き情報42A,51Aを本体装置2に送信する。
【0098】
パフォーマンス特定部25は、受信した動き情報42A,51Aに基づいて、ユーザの両手の動きを検出する。たとえば、パフォーマンス特定部25が、マイク4及びコントローラ5が左右に繰り返し大きく動く動作を検出し、かつ、マイク4が動く方向と、コントローラ5が動く方向と一致する場合、ユーザがウェーブの動作をしていると判断する。
【0099】
反応指示部26は、ユーザがウェーブの先導をしていると判定した場合(ステップS7においてYes)、観客の反応レベルを決定する(ステップS8)。ユーザが両手を振るリズムに基づいて、反応レベルが決定される。たとえば、反応指示部26は、楽曲の演奏音のリズムと、ユーザのウェーブのリズムとのずれを検出し、検出したずれが小さいほど、反応レベルを高くすることができる。
【0100】
反応指示部26は、観客がウェーブをするリアクションデータ63,63,・・・のうち、決定した反応レベルに対応するリアクションデータ63の再生を指示する。これにより、再生される楽曲データ61とともに、観客がウェーブをするリアクションデータ63が再生されることにより(ステップS9)、図10Bに示すように、画面3a内の観客31,31が頭上でウェーブをする映像が表示される。画面3aに表示する観客のうち、ウェーブをする観客の割合は、反応レベルによって変化する。
【0101】
ユーザは、ライブパフォーマンスとして手拍子またはウェーブを先導する場合、手拍子フレーズまたはウェーブフレーズを画面3a内の観客に対して呼びかけなくてもよい。たとえば、本体装置2は、手拍子フレーズを検出せず、ユーザが手拍子をする動作のみを検出した場合であっても、観客が手拍子をするリアクションデータ63を再生してもよい。
【0102】
ユーザは、コントローラ5を用いず、マイク4のみを用いて、手拍子またはウェーブを先導してもよい。パフォーマンス特定部25は、マイク4が繰り返し左右に動いている場合に、ユーザが手拍子またはウェーブを先導していると判定すればよい。このとき、手拍子とウェーブとの違いは、ユーザがマイク4を左右に動かす大きさに区別すればよい。
【0103】
{3.5.入場及び退場}
ユーザは、ライブパフォーマンスとして、画面3aに表示されているライブ会場に疑似的に入場したり、退場したりすることができる。
【0104】
最初に、ユーザがライブ会場に疑似的に入場するケースについて説明する。図11は、ユーザがライブ会場に疑似的に入場する手順を示す図である。パフォーマンス特定部25は、動き情報42A,51Aに代えて、マイク4からの無線信号の有無に基づいてユーザの動きを検出する。
【0105】
ユーザは、楽曲データ61の再生が開始される前に、本体装置2が設置された部屋から出て待機する。このとき、本体装置2の無線通信部21は、マイク4から送信される無線信号を検出することができない。
【0106】
楽曲データ61の再生が開始された後に、ユーザは、マイク4を持って、カラオケシステム1が設置された部屋へ入る。無線通信部21は、ユーザが入室した場合、マイク4からの無線信号を検出することができる。パフォーマンス特定部25は、楽曲データ61の再生が開始された後に、マイク4からの無線信号を検出した場合、ユーザがライブ会場に入場したと判定する。
【0107】
ユーザがライブ会場に入場したと判定された場合、反応指示部26は、観客の反応レベルを決定する。反応指示部26は、マイク4からの無線信号を検出したタイミングに基づいて、観客の反応レベルを決定する。
【0108】
反応指示部26は、シンガーの入場時の観客の反応を示すリアクションデータ63の再生を、再生部23に指示する。このとき、リアクションデータ63の再生条件も、再生部23に指示される。再生部23は、ユーザの入場に合わせて、観客が大きく盛り上がる映像と、観客の歓声とが記録されたリアクションデータ63を再生する。観客の歓声の音量は、再生条件に応じて変更される。
【0109】
次に、ユーザのライブ会場からの退場について説明する。ユーザは、ライブ会場から疑似的に退場する場合、マイク4を持って部屋から退出する。無線通信部21がマイク4からの無線信号を検出することができなった場合、パフォーマンス特定部25は、ユーザがライブ会場から退出したと判定する。
【0110】
反応指示部26は、ユーザがライブ会場から退場したと判定された場合、観客の反応レベルを決定する。反応指示部26は、ユーザがライブ会場から退場したタイミングや、ユーザが退場するまでに行われたライブパフォーマンスの反応レベルに基づいて、退場時の反応レベルを決定する。反応レベルが高ければ、反応指示部26は、観客がアンコールを要求するリアクションデータ63の再生を再生部23に指示する。一方、反応レベルが低ければ、反応指示部26は、観客の歓声の音量を小さくするように再生部23に指示したり、観客がブーイングをするリアクションデータ63の再生を再生部23に指示したりすることができる。
【0111】
また、マイク4に、ユーザが入場及び退場したことを通知するスイッチを設けてもよい。この場合、入場スイッチが押された場合、マイク4は、入場信号を本体装置2に送信する。退場スイッチが押された場合、マイク4は、退場信号を本体装置2に送信する。本体装置2は、入場信号及び退場信号の受信に応じて、観客の反応を変化させる。これにより、ユーザは、本体装置2が設置された部屋から出入りしなくてもよい。
【0112】
このように、ユーザは、歌を歌い出す前、あるいは、歌を歌い終わった後であっても、ライブの臨場感を疑似的に体験することが可能となる。
【0113】
{3.6.その他のライブパフォーマンス}
ユーザは、上述したライブパフォーマンスの他に、様々なライブパフォーマンスを行うことができる。
【0114】
たとえば、ユーザは、コントローラ5を持つ左手を大きく回しながら、右手にマイク4を持って歌ってもよい。この場合、コントローラ5は、コントローラ5が回転する動きを示す動き情報51Aを、本体装置2に送信する。パフォーマンス特定部25は、動き情報51Aに基づいて、ユーザの左手の動きを特定する。この場合、ユーザの動きに合わせて観客が左手を回す映像が記録されたリアクションデータが、楽曲データ61とともに再生される。
【0115】
ユーザは、上述のライブパフォーマンスを組み合わせたパフォーマンスを行ってもよい。たとえば、ユーザは、ライブパフォーマンスとして、合唱の先導とウェーブの先導とを同時に行ってもよい。ユーザは、合唱フレーズをマイク4に入力した後に、図10Bに示すウェーブの動作を行う。パフォーマンス特定部25は、検出した合唱フレーズに基づいて、ユーザが合唱を先導していると判定し、検出したユーザの両手の動きに基づいてウェーブを先導していると判定する。この結果、画面3aには、観客がウェーブをする映像が表示される。また、再生中の楽曲の演奏音と、観客が合唱する歌声とが、同時にモニタ3から出力される。
【0116】
{4.ライブパフォーマンス以外の機能}
{4.1.観客指定機能}
ユーザは、カラオケシステム1を用いてカラオケをする場合、ライブ会場の観客の客層を指定することができる。ユーザは、設定した客層に応じたライブパフォーマンスを行う必要がある。
【0117】
図12は、ライブの客層を設定する設定画面を示す図である。ユーザは、図示しないリモコンを操作して、観客の客層を性別、年齢に基づいて設定する。性別設定では、ユーザは、男性主体、女性主体、及び中間のいずれかを指定する。男性主体は、観客の男性の比率が、80%に設定されることを示す。女性主体は、観客の女性の比率が、80%に設定されることを示す。中間とは、観客の男性の比率と女性との比率が50%ずつであることを示す。年齢設定では、ユーザは、15〜25歳、25〜45歳、及び45歳以上のいずれかから選択する。年齢設定により、ユーザが選択した年齢層の観客の比率が、70%に設定される。この結果、楽曲データ61とともに、設定された客層に応じた観客映像データ62が再生される。
【0118】
客層が設定された場合、観客の反応レベルは、ユーザが選択した楽曲や、ユーザが行うライブパフォーマンスに応じて変化する。このため、ユーザは、観客の客層を意識して、ライブパフォーマンスを行う必要がある。たとえば、ユーザは、45歳以上で女性主体の客層を指定した場合、比較的ゆっくりとしたテンポの楽曲を選択し、観客に対して激しい動きを要求しないライブパフォーマンス(ウェーブ先導など)を行うことによって、反応レベルを上げることができる。一方、同様の客層でハードロック系の楽曲を先導し、ライブパフォーマンスとして観客煽りを繰り返し行った場合、観客の反応レベルは低くなる。このように、観客の客層を設定することにより、ユーザは、様々な観客を対象にしたライブを疑似的に経験することができる。
【0119】
{4.2.対戦モード}
カラオケシステム1は、複数のユーザがライブパフォーマンスの出来を競い合う対戦モードを実行することができる。以下、対戦モードの実行時における、本体装置2の動作について説明する。
【0120】
対戦モードでは、二人のユーザが交互にライブパフォーマンスを行う。ここでは、歌詞が3番まである楽曲を用いて、対戦が行われるケースを説明する。最初に、第1のユーザが、ライブパフォーマンスを行いながら、楽曲の1番を歌う。次に、第2のユーザがライブパフォーマンスを行いながら、楽曲の2番を歌う。このとき、第1のユーザ及び第2のユーザは、マイク4及びコントローラ5を共用する。しかし、複数のマイク4及びコントローラ5を、対戦モードを行う人数分用意してもよい。
【0121】
各ユーザが行うライブパフォーマンスは、本体装置2により採点される。第1のユーザ及び第2のユーザのうち、得点の高いユーザが、演奏中の楽曲の3番を歌うことができる。
【0122】
ライブパフォーマンスの採点方法について説明する。上述したように、本体装置2は、ユーザが行ったライブパフォーマンスを行うたびに反応レベルを決定している。本体装置2は、第1のユーザがライブパフォーマンスを行うたびに、決定した反応レベルに基づいて各パフォーマンスを採点する。第1ユーザが行ったライブパフォーマンスごとの点数の総和が、第1ユーザの得点として算出される。第2ユーザの得点も、同様に算出される。
【0123】
第2のユーザがライブパフォーマンスを終了した後に、各ユーザの得点が画面3aに表示される。勝者となったユーザが、楽曲の3番でライブパフォーマンスを行うことができる。このように、対戦モードを設けることにより、複数のユーザがライブパフォーマンスを競い合うという新たなカラオケシステムを提供することができる。
【0124】
{変形例}
マイク4及びコントローラ5は、バイブレーション機能を備えていてもよい。たとえば、本体装置2の反応指示部26は、観客の反応レベルが一定のレベルを超えた場合、マイク4及びコントローラ5に振動指示信号を送信する。マイク4及びコントローラ5は、振動指示信号を受信した場合、一定の時間(3秒程度)、自装置を振動させる。これにより、ユーザは、画面3a内の観客の映像だけでなく、マイク4及びコントローラ5を介して観客の反応を知ることができる。
【0125】
本体装置2は、ライブ会場の選択機能を設けてもよい。この場合、ユーザは、図示しないリモコンを操作することにより、アリーナ、野球場、及びコンサートホールなどをライブ会場として選択することができる。本体装置2は、選択された会場に応じた観客映像データを再生する。これにより、ユーザは、ライブのシンガーとして、様々なライブ会場でのライブパフォーマンスを疑似的に経験することができる。
【0126】
図2に示すように、本体装置2が音声認識部24を備える例を説明したが、マイク4が音声認識部24を備えていてもよい。マイク4は、フレーズ情報24Aが音声認識部24により生成されるたびに、生成されたフレーズ情報24をリアルタイムに本体装置2に送信する。
【0127】
リアクションデータ63が、ライブパフォーマンスに対する観客のリアクションを示す映像及び音声が記録されたデータである例を説明した。しかし、リアクションデータ63は、聴衆の反応を示す音声のみが記録されたデータであってもよい。たとえば、観客煽りに対する観客の歓声や、手拍子の先導に対する手拍子、聴衆のブーイングなどが記録されたデータを、リアクションデータ63として用いることができる。
【0128】
リアクションデータ63は、上述のような、ライブパフォーマンスに対する観客の動作を具体的に示すデータでなく、観客の反応を象徴的に示すデータであってもよい。たとえば、リアクションデータ63として、ライブ会場から複数の打ち上げ花火が上がる映像が記録されたデータを用いることができる。反応指示部26が反応レベルに応じて打ち上げ花火の数を変更することにより、ユーザは、ライブパフォーマンスに対する観客の反応を知ることができる。あるいは、反応指示部26は、反応レベルが低いときのリアクションデータ63として、観客のいないライブ会場の映像が記録されたデータや、荒れ狂う海が記録されたデータを選択してもよい。
【符号の説明】
【0129】
1 カラオケシステム
2 本体装置
3 モニタ
3a 画面
4 マイク
5 コントローラ
21,43,52 無線通信部
22 データ取得部
23 再生部
24 音声認識部
25 パフォーマンス特定部
26 反応指示部
42、51 センサ部
【技術分野】
【0001】
本発明は、ユーザが再生される楽曲データに合わせて歌を歌うことができるアミューズメントシステムに関する。
【背景技術】
【0002】
カラオケでは、ユーザが選択した楽曲の演奏に合わせて歌を歌う形式が一般的である。カラオケ装置のモニタには、ユーザが選択した楽曲の歌詞が、楽曲の演奏の進行に合わせて表示される。これにより、ユーザは、選択した楽曲の歌詞を全て覚えていなくても、カラオケを楽しむことができる。モニタに表示される歌詞の背景には、歌を歌うキャラクタの映像や、楽曲のイメージに合わせた映像などが表示される。
【0003】
カラオケは、家族あるいは友人同士などの少人数のグループで楽しむことが多い。カラオケを盛り上げるために、歌を歌うユーザが好みのタイミングで効果音などを発生することができる装置が特許文献1に開示されている。
【0004】
下記特許文献1に係る電子パーカッション装置は、マラカスなど打楽器の形状をしており、加速度センサを備えている。電子パーカッション装置は、楽曲の間奏が演奏されているときなど、自装置を操作することができるタイミングを、LEDを点灯させることによりユーザに通知する。LEDの点灯期間内にユーザが電子パーカッション装置を振ることによって、パーカッション音が再生される。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2004−287020号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
上述したように、カラオケは、少人数のグループで楽しむことが多い。ユーザが歌う歌を聞く人は、カラオケに参加した家族あるいは友人等に限られる。つまり、カラオケでは、ライブのシンガーのように、多くの観客に自分の歌を聴いてもらうという体験をすることができない。
【0007】
そこで、本発明は、前記問題点に鑑み、臨場感の高いライブ演奏を疑似的に体験することができるアミューズメントシステムを提供することを目的とする。
【課題を解決するための手段】
【0008】
上記課題を解決するため、請求項1記載の発明は、アミューズメントシステムであって、本体装置と、ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、を備え、前記音声入力装置は、前記音声入力装置の動きを示す第1動き情報を出力する第1動き情報出力部、を含み、前記本体装置は、前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、を含む。
【0009】
請求項2記載の発明は、アミューズメントシステムであって、本体装置と、ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、前記ユーザを撮影して映像データを出力する撮像装置と、前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、を備え、前記本体装置は、前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、前記映像データを解析して前記ユーザの動きを示す第1動き情報を生成する映像解析部と、前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、を含む。
【0010】
請求項3記載の発明は、請求項1または請求項2に記載のアミューズメントシステムにおいて、前記反応指示部は、前記特定されたパフォーマンスに対する前記聴衆の反応レベルを、前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて決定し、前記聴衆の反応レベルに基づいて、前記再生リアクションデータを選択する。
【0011】
請求項4記載の発明は、請求項3に記載のアミューズメントシステムにおいて、前記反応指示部は、前記聴衆の反応レベルに基づいて、前記再生リアクションデータの再生条件を決定し、前記再生条件を前記再生部に指示する。
【0012】
請求項5記載の発明は、請求項3または請求項4に記載のアミューズメントシステムにおいて、前記再生部は、前記ユーザにより設定された聴衆の客層に応じた聴衆状況データを再生し、前記反応指示部は、前記聴衆の客層に基づいて、前記聴衆の反応レベルを決定する。
【0013】
請求項6記載の発明は、請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、前記パフォーマンス特定部は、前記フレーズ情報に基づいて、前記ユーザが前記聴衆に対して質問形式の特定のフレーズを呼び掛け、かつ、前記第1動き情報に基づいて、前記音声入力装置の向きが反転したと判定した場合、前記ユーザが前記聴衆を煽るパフォーマンスを行ったと判定し、前記反応指示部は、前記再生リアクションデータとして、前記特定のフレーズに対して聴衆が一斉に応答をする映像及び音声が記録されたリアクションデータを選択する。
【0014】
請求項7記載の発明は、請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、前記パフォーマンス特定部は、前記フレーズ情報に基づいて、前記ユーザが前記聴衆に対して合唱を要求する特定のフレーズを呼び掛け、かつ、前記第1動き情報に基づいて、前記音声入力装置の向きが反転したと判定した場合、前記ユーザが前記聴衆に合唱を要求するパフォーマンスを行ったと判定し、前記反応指示部は、前記再生リアクションデータとして、前記聴衆が合唱する映像及び音声が記録されたリアクションデータを選択する。
【0015】
請求項8記載の発明は、請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、前記パフォーマンス特定部は、前記動き情報に基づいて、前記ユーザが手拍子を行っていると判定した場合、前記ユーザが手拍子を先導するパフォーマンスを行ったと判定し、前記反応指示部は、前記再生リアクションデータとして、前記聴衆が手拍子する映像及び手拍子の音声が記録されたリアクションデータを選択する。
【0016】
請求項9記載の発明は、請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、前記パフォーマンス特定部は、前記動き情報に基づいて、前記ユーザが腕を振る動作をしていると判定した場合、前記ユーザが前記聴衆に対して両手を振る動作を要求するパフォーマンスを行ったと判定し、前記反応指示部は、前記再生リアクションデータとして、前記聴衆が両手を振る映像が記録されたリアクションデータを選択する。
【0017】
請求項10記載の発明は、請求項1、請求項3ないし請求項9のいずれかに記載のアミューズメントシステムにおいて、さらに、前記ユーザが前記音声入力装置を保持する手と反対の手で保持するコントローラ、を備え、前記コントローラは、前記コントローラの動きを示す第2動き情報を出力する第2動き情報出力部、を含み、前記パフォーマンス特定部は、前記第2動き情報に基づいて、前記ユーザのパフォーマンスを特定する。
【0018】
請求項11記載の発明は、請求項3ないし請求項10のいずれかに記載のアミューズメントシステムにおいて、前記反応指示部は、前記楽曲データの第1パートで行われた全てのパフォーマンスを、各パフォーマンスに対する前記聴衆の反応レベルに基づいて採点し、前記楽曲データの第2パートで行われた全てのパフォーマンスを、各パフォーマンスに対する前記聴衆の反応レベルに基づいて採点する。
【0019】
請求項12記載の発明は、アミューズメントシステムであって、本体装置と、ユーザが保持する音声入力装置と、を備え、前記音声入力装置は、前記本体装置と無線通信を行う無線通信部、を含み、前記本体装置は、前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、前記音声入力装置から送信される無線信号の有無に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、前記聴衆の反応を示す音声又は映像が記録された複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、を含む。
【0020】
請求項13記載の発明は、請求項12に記載のアミューズメントシステムにおいて、前記パフォーマンス特定部は、前記楽曲データの再生が開始された後に、前記無線信号を検出した場合、前記ユーザが仮想的なライブ会場に入場したと判定する。
【0021】
請求項14記載の発明は、請求項12または請求項13に記載のアミューズメントシステムにおいて、前記パフォーマンス特定部は、前記楽曲データの再生が開始された後に、前記無線信号を検出できなくなった場合、前記ユーザが仮想的なライブ会場から退場したと判定する。
【0022】
請求項15記載の発明は、請求項1ないし請求項14のいずれかに記載のアミューズメントシステムにおいて用いられる音声入力装置である。
【0023】
請求項16記載の発明は、ユーザが保持し、前記ユーザが入力した音声を音声データとして出力し、自装置の動きを示す第1動き情報を出力する音声入力装置と、前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、通信可能な本体装置に搭載されるコンピュータを、前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部、前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部、前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部、として機能させるためのプログラムである。
【0024】
請求項17記載の発明は、ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、前記ユーザを撮影して映像データを出力する撮像装置と、前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、通信可能な本体装置に搭載されるコンピュータを、前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部、前記映像データを解析して前記ユーザの動きを示す第1動き情報を生成する映像解析部、前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部、前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部、として機能させるためのプログラムである。
【0025】
請求項18記載の発明は、ユーザが保持する音声入力装置と無線通信が可能な本体装置に搭載されるコンピュータを、前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部、前記音声入力装置から送信される無線信号の有無に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部、前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部、として機能させるためのプログラムである。
【発明の効果】
【0026】
本発明において、本体装置は、ライブの聴衆の状況を示す聴衆状況データを再生して、モニタなどに表示する。本体装置は、ユーザがマイクに入力したフレーズを示すフレーズ情報や、ユーザの動きを示す動き情報に基づいて、ユーザが行うライブパフォーマンスを特定し、ライブパフォーマンスに対する聴衆の反応を示すリアクションデータを再生する。これにより、ユーザは、表示された聴衆に対してライブ演奏を提供するシンガーとして振る舞いながら、カラオケを楽しむことができるとともに、臨場感の高いライブ演奏を疑似的に体験することができる。
【図面の簡単な説明】
【0027】
【図1】本発明の実施の形態によるカラオケシステムの全体図である。
【図2】本体装置の機能的構成を示すブロック図である。
【図3】マイクの機能的構成を示すブロック図である。
【図4】コントローラの機能的構成を示すブロック図である。
【図5】本体装置の動作の流れを示すフローチャートである。
【図6】モニタの画面に表示される観客の映像を示す図である。
【図7A】画面内の観客に対して観客煽りを行う手順を示す図である。
【図7B】画面内の観客に対して観客煽りを行う手順を示す図である。
【図8A】画面内の観客に対して合唱を先導する手順を示す図である。
【図8B】画面内の観客に対して合唱を先導する手順を示す図である。
【図9A】画面内の観客に対して手拍子を先導する手順を示す図である。
【図9B】画面内の観客に対して手拍子を先導する手順を示す図である。
【図10A】画面内の観客に対してウェーブ(両手を大きく振る動作)を先導する手順を示す図である。
【図10B】画面内の観客に対してウェーブを先導する手順を示す図である。
【図11】ユーザがライブ会場に仮想的に入場する手順を示す図である。
【図12】ライブの客層を設定する設定画面を示す図である。
【発明を実施するための形態】
【0028】
以下、図面を参照しつつ、本発明の実施の形態について説明する。本実施の形態では、アミューズメントシステムの一例として、カラオケシステムについて説明する。
【0029】
{1.カラオケシステム1の全体構成}
図1は、カラオケシステム1の全体図である。カラオケシステム1は、本体装置2と、モニタ3と、マイク4と、コントローラ5とを備える。
【0030】
本体装置2は、カラオケシステム1の全体制御を行う処理装置であり、ユーザが選択した楽曲に対応する楽曲データ及び映像データを再生する。ユーザは、図示しないリモコンを用いて、カラオケで歌う楽曲を選択する。
【0031】
モニタ3は、液晶ディスプレイなどであり、本体装置2から出力される映像を表示する。モニタ3は、図示しないスピーカを備えており、本体装置2により再生される楽曲データを音声として出力する。
【0032】
マイク4は、ユーザが歌を歌うときに音声を入力する音声入力装置である。マイク4は、自装置の動きを検出する動き検出機能を有し、ユーザの動きを示す動き情報を本体装置2に送信する。
【0033】
コントローラ5は、自装置の動きを検出する動き検出機能を有しており、動き情報を本体装置2に送信する。ユーザは、一方の手にマイク4を持ち、他方の手にコントローラ5を持って歌を歌う。図1に示すように、コントローラ5は、直方体状の形状であるが、リストバンドのように、ユーザの腕にはめることができる形状であってもよい。この場合、ユーザがコントローラ5を誤って落とすことを防止できる。
【0034】
本体装置2は、ユーザが選択した楽曲の演奏音を出力するとともに、大勢の観客が入場したライブ会場の様子が記録された映像をモニタ3に表示させる。つまり、モニタ3には、ライブ会場のステージに立つシンガー(ユーザ)を見ている大勢の観客の映像が表示される。
【0035】
ユーザは、選択した楽曲の歌を歌うだけでなく、マイク4を通して画面3a内の観客に呼び掛けたり、マイク4を観客に向けたりすることにより、観客に対して様々なライブパフォーマンスを行う。本体装置2は、マイク4及びコントローラ5から送信される動き情報に基づいて、ユーザの両手の動きを検出する。本体装置2は、マイク4に入力された音声や、マイク4及びコントローラ5の動き情報に基づいて、ユーザのライブパフォーマンスを特定する。特定されたライブパフォーマンスに対する観客の反応を示す映像が、モニタ3に表示される。このように、ユーザは、カラオケシステム1を利用することにより、実際にライブ会場でライブを行うシンガーのように振る舞うことができるため、臨場感の高いライブ演奏を疑似的に体験することができる。
【0036】
次に、本体装置2の構成について説明する。図2は、本体装置2の機能的構成を示すブロック図である。本体装置2は、無線通信部21と、データ取得部22と、再生部23と、音声認識部24と、パフォーマンス特定部25と、反応指示部26と、記憶部27と、出力部28とを備える。
【0037】
無線通信部21は、マイク4及びコントローラ5と無線通信を行い、マイク4及びコントローラ5から動き情報42A,51Aを取得する。無線通信には、Bluetooth(登録商標)、無線LAN、赤外線通信などを利用することができる。
【0038】
データ取得部22は、ユーザが選択した楽曲に対応する楽曲データ61、観客映像データ62、複数のリアクションデータ63,63・・・を、インターネット等を介して楽曲サーバから取得する。楽曲データ61は、ユーザが選択した楽曲の演奏音を記録したデータである。観客映像データ62は、ライブ会場に入場した大勢の観客(聴衆)の状況を示す聴衆状況データであり、観客の映像及び音声を記録したデータである。ここで、聴衆とは、ユーザが楽曲に合わせて歌う歌をライブ会場で鑑賞する人々を指し、観客を含む概念である。リアクションデータ63は、ライブパフォーマンスに対する観客のリアクションを示す映像及び音声が記録されたデータである。リアクションデータ63は、複数のライブパフォーマンスのうちいずれか一つに対応するとともに、観客の反応レベルのいずれか一つに対応する。反応レベルの詳細については、後述する。
【0039】
本実施の形態では、大勢の観客の状況を示す聴衆状況データとして、観客映像データ62を用いる例を説明する。しかし、大勢の観客(聴衆)の状況を示す音声データを用いてもよい。具体的には、観客映像データ62に代えて、観客(聴衆)の歓声などが記録された音声データなどを用いることができる。
【0040】
再生部23は、データ取得部22が取得した楽曲データ61及び観客映像データ62を再生する。音声認識部24は、マイク4から送信された音声データ4Aに対し音声認識処理を行い、ユーザがマイク4に入力したフレーズを検出する。音声認識部24は、検出したフレーズを示すフレーズ情報24Aを出力する。
【0041】
パフォーマンス特定部25は、フレーズ情報24Aと、動き情報42A,51Aとに基づいて、ユーザが行ったライブパフォーマンスを特定する。パフォーマンス特定部25は、フレーズ情報24Aが特定のフレーズ(シンガーが観客に呼び掛けるフレーズ)を含み、かつ、ユーザが特定のフレーズに対応した動作を行ったと判断した場合、ユーザがライブパフォーマンスを行ったと判断する。
【0042】
反応指示部26は、特定されたライブパフォーマンスに対する観客の反応レベルを決定する。特定されたライブパフォーマンスと観客の反応レベルとに基づいて、観客のリアクションを示すリアクションデータ63が選択される。反応指示部26は、観客の反応レベルに基づいて、選択されたリアクションデータ63の再生条件を決定する。再生条件とは、選択したリアクションデータ63の再生時の音量などである。反応指示部26は、選択したリアクションデータ63を、決定した再生条件で再生することを再生部23に指示する。
【0043】
記憶部27は、ハードディスク装置などであり、データ取得部22が取得した楽曲データ61、映像データ62及びリアクションデータ63,63,・・・を格納する。出力部28は、再生部23により生成された音声及び映像を、モニタ3に出力する。
【0044】
次に、マイク4の構成について説明する。図3は、マイク4の機能的構成を示すブロック図である。マイク4は、音声入力部41と、センサ部42と、無線通信部43とを備える。
【0045】
音声入力部41は、ユーザが発する音声を入力して電気信号に変換し、音声データ4Aを出力する。センサ部42は、マイク4の動きの変化を検出する加速度センサを備えており、マイク4の動きを示す動き情報42Aを出力する。センサ部42は、加速度センサの他に、地磁気センサやジャイロスコープなどを備えていてもよい。無線通信部43は、本体装置2と無線通信を行い、音声データ4A及び動き情報42Aを本体装置2に送信する。
【0046】
次に、コントローラ5の構成について説明する。図4は、コントローラ5の機能的構成を示すブロック図である。コントローラ5は、センサ部51と、無線通信部52とを備える。センサ部51は、マイク4のセンサ部42と同様に加速度センサを備えており、コントローラ5の動きを示す動き情報51Aを出力する。無線通信部52は、本体装置2と無線通信を行い、動き情報51Aを本体装置2に送信する。
【0047】
なお、カラオケシステム1は、ユーザの動きを撮影するカメラを備えていてもよい。この場合、本体装置2は、映像データを解析してユーザの動きを検出する画像解析部を備える。カメラは、たとえば、モニタ3の上に設置され、ユーザを撮影した映像データをリアルタイムに本体装置2に出力する。ユーザがモニタ3及びカメラの前でライブパフォーマンスを行うことにより、画像処理部は、ユーザの動きを示す動き情報を生成して出力する。パフォーマンス特定部25は、フレーズ情報24Aと、画像解析部から出力される動き情報とに基づいて、ユーザが行ったライブパフォーマンスを特定する。この場合、カラオケシステム1は、コントローラ5を備える必要はなく、マイク4にセンサ部42を設けなくてもよい。
【0048】
{2.本体装置2の動作}
以下、ユーザのライブパフォーマンスに応じて、モニタ3から出力される観客の映像及び音声が変更される処理について、本体装置2の動作を中心に説明する。以下の説明では、マイク4及びコントローラ5から送信される動き情報42A,51Aを用いる例について説明する。カメラを用いてユーザの動きを検出する場合であっても、同様の処理が行われる。
【0049】
図5は、本体装置2の動作の流れを示すフローチャートである。最初に、ユーザは、図示しないリモコンを操作して、カラオケで歌いたい楽曲を選択する。データ取得部22は、ユーザにより選択された楽曲に対応する楽曲データ61と、観客映像データ62と、リアクションデータ63,63,・・・とを楽曲サーバから取得して、記憶部27に格納する(ステップS1)。
【0050】
再生部23は、楽曲データ61及び観客映像データ62の再生を開始する(ステップS2)。これにより、ユーザが選択した楽曲の演奏音と、ライブ会場でライブを楽しむ観客の映像及び歓声とが、モニタ3から出力される。
【0051】
図6は、多くの観客の映像が表示されたモニタ3を示す図である。ユーザは、画面3aに多くの観客の映像が表示されたモニタ3の前に立つことにより、画面3a内の多くの観客と向かい合う。すなわち、ユーザは、モニタ3に映し出された観客に対してライブを行うシンガーとして、楽曲の演奏音に合わせて歌う。ユーザは、ライブを行うシンガーとして、歌を歌いながら、様々なライブパフォーマンスを行うことができる。
【0052】
本体装置2は、楽曲データ61の再生が終了するまで(ステップS3においてYes)、ステップS4〜ステップS9の処理を繰り返し実行する。
【0053】
マイク4は、音声入力部41に入力された音声フレーズを、音声データ4Aとしてリアルタイムに本体装置2に送信している。本体装置2が音声データ4Aを受信した場合(ステップS4においてYes)、音声認識部24は、音声データ4Aに対する音声認識処理を実行する(ステップS5)。音声認識部24は、ユーザの発した音声フレーズを記録したフレーズ情報24Aを出力する。パフォーマンス特定部25は、フレーズ情報24Aに基づいて、ユーザが画面3a内の観客に対して特定のフレーズを呼び掛けた否かを判定する(ステップS6)。
【0054】
フレーズ情報24Aが特定のフレーズを含まない場合(ステップS6においてNo)、マイク4に入力された音声は、ユーザの歌声であると判定される。本体装置2は、ステップS3の処理に戻る。一方、フレーズ情報24Aが特定のフレーズを含む場合(ステップS6においてYes)、パフォーマンス特定部25は、ユーザが観客に特定のフレーズを呼び掛けたと判断する。そして、パフォーマンス特定部25は、特定のフレーズに応じた動きをしたか否かを、動き情報42A,51Aに基づいて確認する。
【0055】
マイク4は、センサ部42が出力する動き情報42Aを本体装置2にリアルタイムに送信する。同様に、コントローラ5は、センサ部51が出力する動き情報51Aを本体装置2にリアルタイムに送信する。パフォーマンス特定部25は、動き情報42A,51Aに基づいて、特定のフレーズに応じた動きをユーザが行ったか否かを判定する(ステップS7)。
【0056】
特定のフレーズに応じた動きが検出されなかった場合(ステップS7においてNo)、本体装置2は、ステップS3の処理に戻る。
【0057】
特定のフレーズに応じた動きが検出された場合(ステップS7においてYes)、パフォーマンス特定部25は、ユーザが画面3a内の観客に対してライブパフォーマンスを行ったと判定する。ユーザが行うライブパフォーマンスとして、観客煽り、観客の合唱の先導、手拍子の先導などが挙げられる。
【0058】
反応指示部26は、フレーズ情報24A及び動き情報42A,51Aを用いて、ユーザのライブパフォーマンスに対する観客の反応レベルを決定する(ステップS8)。反応指示部26は、ユーザが行ったライブパフォーマンスと、反応レベルとに基づいて、リアクションデータ63を選択する。たとえば、反応レベルが高い場合、反応指示部26は、ユーザのライブパフォーマンスに対して全観客が反応する映像が記録されたリアクションデータ63を選択する。
【0059】
反応指示部26は、選択されたリアクションデータ63の再生を、再生部23に対して指示する。再生部23は、指示されたリアクションデータ63を、再生中の楽曲データ61とともに再生する(ステップS9)。この結果、ユーザのライブパフォーマンスに対する観客のリアクションが画面3aに表示されるとともに、楽曲の演奏音と、観客の歓声とが重なってモニタ3から出力される。
【0060】
反応指示部26は、リアクションデータ63の再生条件を反応レベルに応じて変更してもよい。たとえば、反応レベルが高ければ、観客の歓声の音量を大きくしてもよい。反応レベルが低ければ、観客の歓声の音量を小さくしたり、観客の歓声が記録されたデータの再生速度を遅くしたりしてもよい。
【0061】
図5に示すフローチャートでは、音声データ4Aから特定のフレーズを検出した後に、検出した特定のフレーズに応じた動きが行われたか否かを判定している。しかし、ライブパフォーマンスの種別に応じて、ステップS4〜S6の処理と、動き検出(ステップS7)の処理の順序とを入れ替えてもよい。また、特定のフレーズ及びユーザの動きのいずれか一方に基づいて、ユーザのライブパフォーマンスを特定してもよい。
【0062】
本実施の形態では、観客映像データ62と、リアクションデータ63とが異なるデータである例を説明しているが、これに限られない。たとえば、観客映像データ62の各観客をオブジェクト化してもよい。この場合、本体装置2は、特定されたライブフォーマンと反応レベルとに基づいて、各観客オブジェクトの動きを変更する。たとえば、本体装置2は、特定されたライブパフォーマンスに対する観客の反応として、各観客オブジェクトの動作や歓声を変更することができる。また、反応指示部26は、反応レベルに応じて、ユーザのライブパフォーマンスに対して反応する観客オブジェクトの割合を変化させることができる。
【0063】
{3.ライブパフォーマンスの具体例}
以下、本体装置2が検出することができるライブパフォーマンスの具体例について説明する。
【0064】
{3.1.観客煽り}
図7A及び図7Bは、ユーザが画面3a内の観客31に対して観客煽りを行う手順を示す図である。図7A及び図7Bでは、画面3a内の観客31の動きを分かりやすく説明するために、画面3a内に一人の観客31のみを表示している。実際には、再生部23が観客映像データ62を再生することにより、ライブ会場と、ライブ会場に来ている多数の観客31とが画面3aに表示される。図7A、図7Bにおいて、本体装置2及びコントローラ5の表示を省略している。
【0065】
観客煽りとは、ライブ中のシンガーが質問形式のフレーズを観客に対して呼びかけ、観客がシンガーに対して一斉に返事をするというライブパフォーマンスである。ユーザは、楽曲の前奏あるいは間奏が再生されているときなどに、観客煽りを行うことができる。
【0066】
本体装置2は、ライブパフォーマンスとして観客煽りを特定する場合、マイク4から送信される音声データ4A及び動き情報42Aを使用し、コントローラ5から送信される動き情報51Aを使用しない。
【0067】
本体装置2は、ライブパフォーマンスとして観客煽りを特定する場合、特定のフレーズの検出を先に行う。図7Aに示すように、ユーザは、最初に、マイク4をユーザ自身に向けながら、たとえば、「のってるかーい?」という質問形式の特定のフレーズ(以下、「煽りフレーズ」と呼ぶ。)をマイク4に入力する。マイク4は、煽りフレーズを音声データ4Aとして本体装置2に送信する。
【0068】
音声認識部24は、受信した音声データ41Aに対して音声認識処理を行って(ステップS5)、フレーズ情報24Aを生成する。パフォーマンス特定部25には、シンガーがライブパフォーマンスの際に観客に呼び掛ける様々なフレーズが設定されている。パフォーマンス特定部25は、フレーズ情報24Aと、設定された様々なフレーズとを比較することにより、ユーザが煽りフレーズを観客に呼び掛けたと判断する(ステップS6においてYes)。
【0069】
ユーザは、ユーザ自身に向けたマイク4に煽りフレーズを入力した後に、マイク4をユーザ自身の方向から画面3aの方向に向ける。つまり、ユーザは、矢印45(図7A参照)に示すように、マイク4の向きを反転させる。マイク4のセンサ部42は、ユーザの動きに応じた動き情報42Aを生成する。パフォーマンス特定部25は、マイク4から送信された動き情報42Aに基づいて、マイク4の向きが反転されたと判定する。パフォーマンス特定部25は、煽りフレーズがマイク4に入力され、かつ、マイク4の向きが反転されたことから、ユーザがライブパフォーマンスとして観客煽りを行ったと判定する(ステップS7においてYes)。
【0070】
反応指示部26は、ユーザが行った観客煽りに対する観客の反応レベルを決定する(ステップS8)。反応指示部26は、煽りフレーズが入力された音声入力タイミングと、マイクの反転が検出された動き検出タイミングとの時間差(検出時間差)に基づいて、反応レベルを決定する。音声入力タイミングは、フレーズ情報24Aに含まれている。動き検出タイミングは、動き情報42Aに含まれている。
【0071】
反応指示部26には、反応レベルが最大となる、音声検出タイミングと動き検出タイミングとの時間差(理想時間差)が設定されている。反応指示部26は、理想時間差と、検出時間差とのずれの大きさに基づいて反応レベルを決定する。たとえば、ずれが小さい場合、反応指示部26は、観客煽りがスムーズに行われたと判断して、反応レベルを高くする。一方、マイクを反転させるタイミングが遅い場合など、ずれが大きい場合、煽りフレーズに対する観客の反応がばらつくと考えられる。この場合、反応レベルは低下する。また、反応指示部26は、ユーザが観客煽りを、楽曲データ61のどの再生位置で行ったかを考慮して、反応レベルを決定してもよい。
【0072】
反応指示部26は、観客煽りに対するリアクションデータ63を、決定した反応レベルに基づいて、記憶部27に格納されたリアクションデータ63,63,・・・の中から選択する。反応レベルが高ければ、観客全員が観客煽りに対して反応する映像が記録されたリアクションデータ63が選択される。反応レベルが低ければ、観客煽りに対して反応する観客の数が少ない映像が記録されたリアクションデータ63が選択される。
【0073】
反応指示部26は、選択したリアクションデータ63の再生を、再生部23に指示する。このとき、選択されたリアクションデータ63の再生条件も、再生部23に通知される。再生条件は、観客煽りに対する反応レベルに基づいて決定される。たとえば、反応レベルが高ければ、リアクションデータ63の再生時の音量が大きくなる。反応レベルが低ければ、リアクションデータ63の再生時の音量を小さくしたり、観客の歓声の再生速度を小さくしたりすることができる。
【0074】
再生部23は、再生中の楽曲データに合わせて、反応指示部26に指示されたリアクションデータ63を再生する(ステップS9)。この結果、図7Bに示すように、観客煽りに対する観客の反応として、画面3a内の観客31が右手を挙げるようすが画面3aに表示されるとともに、「イェーイ!」という観客の歓声が再生される。実際には、画面3aには、多くの観客が一斉に観客煽りに対して反応する様子が表示されるため、ユーザは、ライブ会場でのライブパフォーマンスを疑似的に体験することができる。観客煽りのやり方によっては、ライブ会場内の観客31の反応が大きく変化するため、ユーザは、実際にライブを行うシンガーと同様の緊張感を楽しむことが可能となる。
【0075】
{3.2.合唱の先導}
ユーザは、ライブパフォーマンスとして、画面3a内の観客に対して、ユーザが歌っている楽曲の合唱を先導することができる。図8A及び図8Bは、ユーザが観客の合唱を先導する手順を示す図である。
【0076】
図8A及び図8Bは、図7Aと同様に、画面3a内の観客の動きを分かりやすく説明するために、二人の観客31,31のみを表示している。図8A、図8Bにおいて、本体装置2及びコントローラ5の表示を省略している。
【0077】
本体装置2は、合唱を先導するライブパフォーマンスが行われたと判定する場合には、マイク4から送信される音声データ4A及び動き情報42Aを使用する。コントローラ5から送信される動き情報51Aは、合唱の先導の判定に用いられない。
【0078】
図8Aに示すように、楽曲データ61が再生されている間、画面3aには、ライブ会場の観客の映像と、再生されている楽曲の歌詞32とが表示されている。再生されている楽曲の中で観客の合唱が可能な部分(たとえば、楽曲のサビの部分)に対応する歌詞32が、図8Aに示すように、四角い枠で囲まれて表示される。これにより、ユーザは、合唱を先導するタイミングを知ることができる。
【0079】
本体装置2は、ライブパフォーマンスとして合唱の先導を特定する場合、ユーザが合唱を観客に呼び掛ける音声フレーズ(以下、「合唱フレーズ」と呼ぶ。)を先に検出する。ユーザは、マイク4をユーザ自身に向けながら、たとえば、「一緒に歌おう!」という合唱フレーズをマイク4に入力する。マイク4は、入力された合唱フレーズを音声データ4Aとして本体装置2に送信する。上記と同様の手順で、パフォーマンス特定部25は、ユーザが合唱フレーズを呼び掛けたと判定する。
【0080】
ユーザは、合唱フレーズをマイク4に入力した後に、マイク4を画面3aの方向(矢印45の方向)へ反転させる。パフォーマンス特定部25は、マイク4から送信された動き情報42Aに基づいて、マイク4の向きが反転されたと判定する。パフォーマンス特定部25は、合唱フレーズがマイク4に入力され、かつ、マイク4の向きが反転されたことから、ユーザがライブパフォーマンスとして合唱を先導していると判定する。
【0081】
反応指示部26は、ユーザが行った合唱の先導に対する反応レベルを決定する。反応レベルの決定手順については、上記と同様であるため、その説明を省略する。
【0082】
反応指示部26は、観客が合唱をするリアクションデータ63,63,・・・のうち、決定した反応レベルに対応するリアクションデータ63の再生を指示する。リアクションデータ63の再生条件も再生部23に通知される。これにより、合唱する観客の数や合唱の音量は、反応レベルに応じて変化する。図8Bに示すように、ユーザが行った合唱の要求に対する反応として、画面3a内の観客31,31が肩を組んで合唱する様子が表示される。また、ユーザが合唱を先導した歌詞に対応する観客の歌声が、モニタ3から出力される。実際には、画面3aには、多くの観客が一斉に合唱をする様子が表示されるため、ユーザは、ライブ会場で、観客と一緒に歌を歌うというライブパフォーマンスを疑似的に体験することができる。
【0083】
観客の合唱は、ユーザがマイク4を動かさない限り継続される。ユーザは、観客の合唱を停止させる場合、マイク4を画面3aの方向からユーザ自身の方向へ反転させる。パフォーマンス特定部25は、リアクションデータ63の再生中にマイク4の向きが反転した場合、合唱を先導が終了したと判定する。これにより、楽曲データ61及び観客映像データ62の再生が再開される。
【0084】
{3.3.手拍子の先導}
ユーザは、ライブパフォーマンスとして、画面3a内の観客31に対して手拍子を先導する動作を行うことができる。図9A及び図9Bは、ユーザが画面3a内の観客31,31に対して手拍子を先導する手順を示す図である。
【0085】
図9A及び図9Bは、図7Aと同様に、画面3a内の観客31の動きを分かりやすく説明するために、二人の観客31,31のみを表示している。図9A、図9Bにおいて、本体装置2の表示を省略している。本体装置2は、手拍子の先導を検出する場合、マイク4から送信される音声データ4A、動き情報42Aと、コントローラ5から送信される動き情報51Aを使用する。
【0086】
図9Aに示すように、楽曲データ61が再生されている間、ユーザは、ライブパフォーマンスとして手拍子を先導することができる。本体装置2は、手拍子の先導を検出する場合、手拍子を先導する音声フレーズ(以下、「手拍子フレーズ」と呼ぶ。)を先に検出する(ステップS6においてYes)。
【0087】
具体的には、ユーザは、マイク4に手拍子フレーズを入力する。手拍子フレーズは、たとえば、「みんな、手拍子よろしく!!」などである。マイク4は、入力された手拍子フレーズを音声データ4Aとして本体装置2に送信する。上記と同様の手順で、パフォーマンス特定部25は、ユーザが画面3a内の観客に対して、手拍子フレーズを呼び掛けたと判定する。
【0088】
ユーザは、手拍子フレーズをマイク4に入力した後に、手拍子を先導する動作を行う。図9Bに示すように、ユーザは、楽曲の演奏音(再生される楽曲データ61)のリズムに合わせて手拍子をする。ユーザが右手にマイク4を、左手にコントローラ5を持っているため、マイク4及びコントローラ5は、手拍子の動きを示す動き情報42A,51Aを本体装置2に送信する。
【0089】
パフォーマンス特定部25は、受信した動き情報42A,51Aに基づいて、ユーザの両手の動きを検出する。たとえば、マイク4及びコントローラ5が左右に繰り返し動き、かつ、マイク4が動く方向とコントローラ5が動く方向とが反対方向である場合、パフォーマンス特定部25は、ユーザが手拍子の動作をしていると判断することができる(ステップS7においてYes)。つまり、パフォーマンス特定部25が、手拍子フレーズと、手拍子の動作とを検出することにより、ユーザが手拍子を先導していると判断する。
【0090】
反応指示部26は、手拍子フレーズを検出したタイミングと、手拍子の動きを検出したタイミングとに基づいて、観客の反応レベルを決定する(ステップS8)。反応レベルの決定手順は、基本的には、観客煽りの反応レベルの決定と同様である。また、反応指示部26は、動き情報42A,51Aを用いて、ユーザの手拍子のリズムを算出し、算出したリズムに基づいて、反応レベルを決定してもよい。たとえば、反応指示部26は、楽曲の演奏音のリズムとユーザの手拍子のリズムとのずれを検出し、検出したずれが小さいほど、反応レベルを高くすることができる。
【0091】
反応指示部26は、観客が手拍子をするリアクションデータ63,63・・・のうち、決定した反応レベルに対応するリアクションデータ63の再生を指示する。リアクションデータ63の再生条件も、再生部23に通知される。これにより、楽曲データ61とともに、観客が手拍子をするリアクションデータ63が再生されることにより(ステップS9)、図9Bに示すように、画面3a内の観客31,31が頭上で手拍子をする映像が表示される。画面3aに表示する観客のうち、手拍子をする観客の割合は、反応レベルによって変化する。また、手拍子の音量も、反応レベルに基づいて決められた再生条件によって変化する。
【0092】
このように、ユーザが手拍子をする動きに合わせて、画面3a内の観客31,31が手拍子をする映像が表示されるため、ユーザは、ライブ会場で、観客と一体となって手拍子をするというライブパフォーマンスを疑似的に体験することができる。
【0093】
{3.4.ウェーブ(両手を大きく振る動作)の先導}
ユーザは、ライブパフォーマンスとして、画面3a内の観客に対してウェーブを先導する動作を行うことができる。ウェーブとは、ライブ会場の観客が、ライブ中の楽曲に合わせて両手を左右に大きく振る動作である。図10A及び図10Bは、ユーザがウェーブを先導する手順を示す図である。
【0094】
図10A及び図10Bは、図9Aと同様に、画面3a内の観客の動きを分かりやすく説明するために、二人の観客31,31のみを表示している。図10A、図10Bにおいて、本体装置2の表示を省略している。本体装置2は、ウェーブの先導を検出する場合、マイク4から送信される音声データ4A,動き情報42Aと、コントローラ5から送信される動き情報51Aを使用する。
【0095】
図10Aに示すように、楽曲データ61が再生されている間、ユーザは、ライブパフォーマンスとしてウェーブを先導することができる。本体装置2は、ウェーブの先導を検出する場合、ウェーブを呼び掛ける音声フレーズ(以下、「ウェーブフレーズ」と呼ぶ。)を先に検出する。
【0096】
具体的には、ユーザは、ウェーブフレーズをマイク4に入力する。ウェーブフレーズは、たとえば、「みんな、両手を大きく振って!!」である。マイク4は、入力されたウェーブフレーズを音声データ4Aとして本体装置2に送信する。上記と同様の手順で、パフォーマンス特定部25は、ユーザが画面3a内の観客に対してウェーブフレーズを呼び掛けたと判定する(ステップS6においてYes)。
【0097】
ユーザは、ウェーブフレーズをマイク4に入力した後に、ウェーブの動作を行う。図10Bに示すように、ユーザは、楽曲の演奏音(再生される楽曲データ61)のリズムに合わせて、頭上で両手を大きく振る。ユーザが右手にマイク4を、左手にコントローラ5を持っているため、マイク4及びコントローラ5は、ウェーブの動きを示す動き情報42A,51Aを本体装置2に送信する。
【0098】
パフォーマンス特定部25は、受信した動き情報42A,51Aに基づいて、ユーザの両手の動きを検出する。たとえば、パフォーマンス特定部25が、マイク4及びコントローラ5が左右に繰り返し大きく動く動作を検出し、かつ、マイク4が動く方向と、コントローラ5が動く方向と一致する場合、ユーザがウェーブの動作をしていると判断する。
【0099】
反応指示部26は、ユーザがウェーブの先導をしていると判定した場合(ステップS7においてYes)、観客の反応レベルを決定する(ステップS8)。ユーザが両手を振るリズムに基づいて、反応レベルが決定される。たとえば、反応指示部26は、楽曲の演奏音のリズムと、ユーザのウェーブのリズムとのずれを検出し、検出したずれが小さいほど、反応レベルを高くすることができる。
【0100】
反応指示部26は、観客がウェーブをするリアクションデータ63,63,・・・のうち、決定した反応レベルに対応するリアクションデータ63の再生を指示する。これにより、再生される楽曲データ61とともに、観客がウェーブをするリアクションデータ63が再生されることにより(ステップS9)、図10Bに示すように、画面3a内の観客31,31が頭上でウェーブをする映像が表示される。画面3aに表示する観客のうち、ウェーブをする観客の割合は、反応レベルによって変化する。
【0101】
ユーザは、ライブパフォーマンスとして手拍子またはウェーブを先導する場合、手拍子フレーズまたはウェーブフレーズを画面3a内の観客に対して呼びかけなくてもよい。たとえば、本体装置2は、手拍子フレーズを検出せず、ユーザが手拍子をする動作のみを検出した場合であっても、観客が手拍子をするリアクションデータ63を再生してもよい。
【0102】
ユーザは、コントローラ5を用いず、マイク4のみを用いて、手拍子またはウェーブを先導してもよい。パフォーマンス特定部25は、マイク4が繰り返し左右に動いている場合に、ユーザが手拍子またはウェーブを先導していると判定すればよい。このとき、手拍子とウェーブとの違いは、ユーザがマイク4を左右に動かす大きさに区別すればよい。
【0103】
{3.5.入場及び退場}
ユーザは、ライブパフォーマンスとして、画面3aに表示されているライブ会場に疑似的に入場したり、退場したりすることができる。
【0104】
最初に、ユーザがライブ会場に疑似的に入場するケースについて説明する。図11は、ユーザがライブ会場に疑似的に入場する手順を示す図である。パフォーマンス特定部25は、動き情報42A,51Aに代えて、マイク4からの無線信号の有無に基づいてユーザの動きを検出する。
【0105】
ユーザは、楽曲データ61の再生が開始される前に、本体装置2が設置された部屋から出て待機する。このとき、本体装置2の無線通信部21は、マイク4から送信される無線信号を検出することができない。
【0106】
楽曲データ61の再生が開始された後に、ユーザは、マイク4を持って、カラオケシステム1が設置された部屋へ入る。無線通信部21は、ユーザが入室した場合、マイク4からの無線信号を検出することができる。パフォーマンス特定部25は、楽曲データ61の再生が開始された後に、マイク4からの無線信号を検出した場合、ユーザがライブ会場に入場したと判定する。
【0107】
ユーザがライブ会場に入場したと判定された場合、反応指示部26は、観客の反応レベルを決定する。反応指示部26は、マイク4からの無線信号を検出したタイミングに基づいて、観客の反応レベルを決定する。
【0108】
反応指示部26は、シンガーの入場時の観客の反応を示すリアクションデータ63の再生を、再生部23に指示する。このとき、リアクションデータ63の再生条件も、再生部23に指示される。再生部23は、ユーザの入場に合わせて、観客が大きく盛り上がる映像と、観客の歓声とが記録されたリアクションデータ63を再生する。観客の歓声の音量は、再生条件に応じて変更される。
【0109】
次に、ユーザのライブ会場からの退場について説明する。ユーザは、ライブ会場から疑似的に退場する場合、マイク4を持って部屋から退出する。無線通信部21がマイク4からの無線信号を検出することができなった場合、パフォーマンス特定部25は、ユーザがライブ会場から退出したと判定する。
【0110】
反応指示部26は、ユーザがライブ会場から退場したと判定された場合、観客の反応レベルを決定する。反応指示部26は、ユーザがライブ会場から退場したタイミングや、ユーザが退場するまでに行われたライブパフォーマンスの反応レベルに基づいて、退場時の反応レベルを決定する。反応レベルが高ければ、反応指示部26は、観客がアンコールを要求するリアクションデータ63の再生を再生部23に指示する。一方、反応レベルが低ければ、反応指示部26は、観客の歓声の音量を小さくするように再生部23に指示したり、観客がブーイングをするリアクションデータ63の再生を再生部23に指示したりすることができる。
【0111】
また、マイク4に、ユーザが入場及び退場したことを通知するスイッチを設けてもよい。この場合、入場スイッチが押された場合、マイク4は、入場信号を本体装置2に送信する。退場スイッチが押された場合、マイク4は、退場信号を本体装置2に送信する。本体装置2は、入場信号及び退場信号の受信に応じて、観客の反応を変化させる。これにより、ユーザは、本体装置2が設置された部屋から出入りしなくてもよい。
【0112】
このように、ユーザは、歌を歌い出す前、あるいは、歌を歌い終わった後であっても、ライブの臨場感を疑似的に体験することが可能となる。
【0113】
{3.6.その他のライブパフォーマンス}
ユーザは、上述したライブパフォーマンスの他に、様々なライブパフォーマンスを行うことができる。
【0114】
たとえば、ユーザは、コントローラ5を持つ左手を大きく回しながら、右手にマイク4を持って歌ってもよい。この場合、コントローラ5は、コントローラ5が回転する動きを示す動き情報51Aを、本体装置2に送信する。パフォーマンス特定部25は、動き情報51Aに基づいて、ユーザの左手の動きを特定する。この場合、ユーザの動きに合わせて観客が左手を回す映像が記録されたリアクションデータが、楽曲データ61とともに再生される。
【0115】
ユーザは、上述のライブパフォーマンスを組み合わせたパフォーマンスを行ってもよい。たとえば、ユーザは、ライブパフォーマンスとして、合唱の先導とウェーブの先導とを同時に行ってもよい。ユーザは、合唱フレーズをマイク4に入力した後に、図10Bに示すウェーブの動作を行う。パフォーマンス特定部25は、検出した合唱フレーズに基づいて、ユーザが合唱を先導していると判定し、検出したユーザの両手の動きに基づいてウェーブを先導していると判定する。この結果、画面3aには、観客がウェーブをする映像が表示される。また、再生中の楽曲の演奏音と、観客が合唱する歌声とが、同時にモニタ3から出力される。
【0116】
{4.ライブパフォーマンス以外の機能}
{4.1.観客指定機能}
ユーザは、カラオケシステム1を用いてカラオケをする場合、ライブ会場の観客の客層を指定することができる。ユーザは、設定した客層に応じたライブパフォーマンスを行う必要がある。
【0117】
図12は、ライブの客層を設定する設定画面を示す図である。ユーザは、図示しないリモコンを操作して、観客の客層を性別、年齢に基づいて設定する。性別設定では、ユーザは、男性主体、女性主体、及び中間のいずれかを指定する。男性主体は、観客の男性の比率が、80%に設定されることを示す。女性主体は、観客の女性の比率が、80%に設定されることを示す。中間とは、観客の男性の比率と女性との比率が50%ずつであることを示す。年齢設定では、ユーザは、15〜25歳、25〜45歳、及び45歳以上のいずれかから選択する。年齢設定により、ユーザが選択した年齢層の観客の比率が、70%に設定される。この結果、楽曲データ61とともに、設定された客層に応じた観客映像データ62が再生される。
【0118】
客層が設定された場合、観客の反応レベルは、ユーザが選択した楽曲や、ユーザが行うライブパフォーマンスに応じて変化する。このため、ユーザは、観客の客層を意識して、ライブパフォーマンスを行う必要がある。たとえば、ユーザは、45歳以上で女性主体の客層を指定した場合、比較的ゆっくりとしたテンポの楽曲を選択し、観客に対して激しい動きを要求しないライブパフォーマンス(ウェーブ先導など)を行うことによって、反応レベルを上げることができる。一方、同様の客層でハードロック系の楽曲を先導し、ライブパフォーマンスとして観客煽りを繰り返し行った場合、観客の反応レベルは低くなる。このように、観客の客層を設定することにより、ユーザは、様々な観客を対象にしたライブを疑似的に経験することができる。
【0119】
{4.2.対戦モード}
カラオケシステム1は、複数のユーザがライブパフォーマンスの出来を競い合う対戦モードを実行することができる。以下、対戦モードの実行時における、本体装置2の動作について説明する。
【0120】
対戦モードでは、二人のユーザが交互にライブパフォーマンスを行う。ここでは、歌詞が3番まである楽曲を用いて、対戦が行われるケースを説明する。最初に、第1のユーザが、ライブパフォーマンスを行いながら、楽曲の1番を歌う。次に、第2のユーザがライブパフォーマンスを行いながら、楽曲の2番を歌う。このとき、第1のユーザ及び第2のユーザは、マイク4及びコントローラ5を共用する。しかし、複数のマイク4及びコントローラ5を、対戦モードを行う人数分用意してもよい。
【0121】
各ユーザが行うライブパフォーマンスは、本体装置2により採点される。第1のユーザ及び第2のユーザのうち、得点の高いユーザが、演奏中の楽曲の3番を歌うことができる。
【0122】
ライブパフォーマンスの採点方法について説明する。上述したように、本体装置2は、ユーザが行ったライブパフォーマンスを行うたびに反応レベルを決定している。本体装置2は、第1のユーザがライブパフォーマンスを行うたびに、決定した反応レベルに基づいて各パフォーマンスを採点する。第1ユーザが行ったライブパフォーマンスごとの点数の総和が、第1ユーザの得点として算出される。第2ユーザの得点も、同様に算出される。
【0123】
第2のユーザがライブパフォーマンスを終了した後に、各ユーザの得点が画面3aに表示される。勝者となったユーザが、楽曲の3番でライブパフォーマンスを行うことができる。このように、対戦モードを設けることにより、複数のユーザがライブパフォーマンスを競い合うという新たなカラオケシステムを提供することができる。
【0124】
{変形例}
マイク4及びコントローラ5は、バイブレーション機能を備えていてもよい。たとえば、本体装置2の反応指示部26は、観客の反応レベルが一定のレベルを超えた場合、マイク4及びコントローラ5に振動指示信号を送信する。マイク4及びコントローラ5は、振動指示信号を受信した場合、一定の時間(3秒程度)、自装置を振動させる。これにより、ユーザは、画面3a内の観客の映像だけでなく、マイク4及びコントローラ5を介して観客の反応を知ることができる。
【0125】
本体装置2は、ライブ会場の選択機能を設けてもよい。この場合、ユーザは、図示しないリモコンを操作することにより、アリーナ、野球場、及びコンサートホールなどをライブ会場として選択することができる。本体装置2は、選択された会場に応じた観客映像データを再生する。これにより、ユーザは、ライブのシンガーとして、様々なライブ会場でのライブパフォーマンスを疑似的に経験することができる。
【0126】
図2に示すように、本体装置2が音声認識部24を備える例を説明したが、マイク4が音声認識部24を備えていてもよい。マイク4は、フレーズ情報24Aが音声認識部24により生成されるたびに、生成されたフレーズ情報24をリアルタイムに本体装置2に送信する。
【0127】
リアクションデータ63が、ライブパフォーマンスに対する観客のリアクションを示す映像及び音声が記録されたデータである例を説明した。しかし、リアクションデータ63は、聴衆の反応を示す音声のみが記録されたデータであってもよい。たとえば、観客煽りに対する観客の歓声や、手拍子の先導に対する手拍子、聴衆のブーイングなどが記録されたデータを、リアクションデータ63として用いることができる。
【0128】
リアクションデータ63は、上述のような、ライブパフォーマンスに対する観客の動作を具体的に示すデータでなく、観客の反応を象徴的に示すデータであってもよい。たとえば、リアクションデータ63として、ライブ会場から複数の打ち上げ花火が上がる映像が記録されたデータを用いることができる。反応指示部26が反応レベルに応じて打ち上げ花火の数を変更することにより、ユーザは、ライブパフォーマンスに対する観客の反応を知ることができる。あるいは、反応指示部26は、反応レベルが低いときのリアクションデータ63として、観客のいないライブ会場の映像が記録されたデータや、荒れ狂う海が記録されたデータを選択してもよい。
【符号の説明】
【0129】
1 カラオケシステム
2 本体装置
3 モニタ
3a 画面
4 マイク
5 コントローラ
21,43,52 無線通信部
22 データ取得部
23 再生部
24 音声認識部
25 パフォーマンス特定部
26 反応指示部
42、51 センサ部
【特許請求の範囲】
【請求項1】
本体装置と、
ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、
前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、
を備え、
前記音声入力装置は、
前記音声入力装置の動きを示す第1動き情報を出力する第1動き情報出力部、
を含み、
前記本体装置は、
前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、
前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、
前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、
を含むアミューズメントシステム。
【請求項2】
本体装置と、
ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、
前記ユーザを撮影して映像データを出力する撮像装置と、
前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、
を備え、
前記本体装置は、
前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、
前記映像データを解析して前記ユーザの動きを示す第1動き情報を生成する映像解析部と、
前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、
前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、
を含むアミューズメントシステム。
【請求項3】
請求項1または請求項2に記載のアミューズメントシステムにおいて、
前記反応指示部は、前記特定されたパフォーマンスに対する前記聴衆の反応レベルを、前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて決定し、前記聴衆の反応レベルに基づいて、前記再生リアクションデータを選択するアミューズメントシステム。
【請求項4】
請求項3に記載のアミューズメントシステムにおいて、
前記反応指示部は、前記聴衆の反応レベルに基づいて、前記再生リアクションデータの再生条件を決定し、前記再生条件を前記再生部に指示するアミューズメントシステム。
【請求項5】
請求項3または請求項4に記載のアミューズメントシステムにおいて、
前記再生部は、前記ユーザにより設定された聴衆の客層に応じた聴衆状況データを再生し、
前記反応指示部は、前記聴衆の客層に基づいて、前記聴衆の反応レベルを決定するアミューズメントシステム。
【請求項6】
請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、
前記パフォーマンス特定部は、前記フレーズ情報に基づいて、前記ユーザが前記聴衆に対して質問形式の特定のフレーズを呼び掛け、かつ、前記第1動き情報に基づいて、前記音声入力装置の向きが反転したと判定した場合、前記ユーザが前記聴衆を煽るパフォーマンスを行ったと判定し、
前記反応指示部は、前記再生リアクションデータとして、前記特定のフレーズに対して聴衆が一斉に応答をする映像及び音声が記録されたリアクションデータを選択するアミューズメントシステム。
【請求項7】
請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、
前記パフォーマンス特定部は、前記フレーズ情報に基づいて、前記ユーザが前記聴衆に対して合唱を要求する特定のフレーズを呼び掛け、かつ、前記第1動き情報に基づいて、前記音声入力装置の向きが反転したと判定した場合、前記ユーザが前記聴衆に合唱を要求するパフォーマンスを行ったと判定し、
前記反応指示部は、前記再生リアクションデータとして、前記聴衆が合唱する映像及び音声が記録されたリアクションデータを選択するアミューズメントシステム。
【請求項8】
請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、
前記パフォーマンス特定部は、前記動き情報に基づいて、前記ユーザが手拍子を行っていると判定した場合、前記ユーザが手拍子を先導するパフォーマンスを行ったと判定し、
前記反応指示部は、前記再生リアクションデータとして、前記聴衆が手拍子する映像及び手拍子の音声が記録されたリアクションデータを選択するアミューズメントシステム。
【請求項9】
請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、
前記パフォーマンス特定部は、前記動き情報に基づいて、前記ユーザが腕を振る動作をしていると判定した場合、前記ユーザが前記聴衆に対して両手を振る動作を要求するパフォーマンスを行ったと判定し、
前記反応指示部は、前記再生リアクションデータとして、前記聴衆が両手を振る映像が記録されたリアクションデータを選択するアミューズメントシステム。
【請求項10】
請求項1、請求項3ないし請求項9のいずれかに記載のアミューズメントシステムにおいて、さらに、
前記ユーザが前記音声入力装置を保持する手と反対の手で保持するコントローラ、
を備え、
前記コントローラは、
前記コントローラの動きを示す第2動き情報を出力する第2動き情報出力部、
を含み、
前記パフォーマンス特定部は、前記第2動き情報に基づいて、前記ユーザのパフォーマンスを特定するアミューズメントシステム。
【請求項11】
請求項3ないし請求項10のいずれかに記載のアミューズメントシステムにおいて、
前記反応指示部は、前記楽曲データの第1パートで行われた全てのパフォーマンスを、各パフォーマンスに対する前記聴衆の反応レベルに基づいて採点し、前記楽曲データの第2パートで行われた全てのパフォーマンスを、各パフォーマンスに対する前記聴衆の反応レベルに基づいて採点するアミューズメントシステム。
【請求項12】
本体装置と、
ユーザが保持する音声入力装置と、
を備え、
前記音声入力装置は、
前記本体装置と無線通信を行う無線通信部、
を含み、
前記本体装置は、
前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、
前記音声入力装置から送信される無線信号の有無に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、
前記聴衆の反応を示す音声又は映像が記録された複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、
を含むアミューズメントシステム。
【請求項13】
請求項12に記載のアミューズメントシステムにおいて、
前記パフォーマンス特定部は、前記楽曲データの再生が開始された後に、前記無線信号を検出した場合、前記ユーザが仮想的なライブ会場に入場したと判定するアミューズメントシステム。
【請求項14】
請求項12または請求項13に記載のアミューズメントシステムにおいて、
前記パフォーマンス特定部は、前記楽曲データの再生が開始された後に、前記無線信号を検出できなくなった場合、前記ユーザが仮想的なライブ会場から退場したと判定するアミューズメントシステム。
【請求項15】
請求項1ないし請求項14のいずれかに記載のアミューズメントシステムにおいて用いられる音声入力装置。
【請求項16】
ユーザが保持し、前記ユーザが入力した音声を音声データとして出力し、自装置の動きを示す第1動き情報を出力する音声入力装置と、
前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、
通信可能な本体装置に搭載されるコンピュータを、
前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部、
前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部、
前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部、
として機能させるためのプログラム。
【請求項17】
ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、
前記ユーザを撮影して映像データを出力する撮像装置と、
前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、
通信可能な本体装置に搭載されるコンピュータを、
前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部、
前記映像データを解析して前記ユーザの動きを示す第1動き情報を生成する映像解析部、
前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部、
前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部、
として機能させるためのプログラム。
【請求項18】
ユーザが保持する音声入力装置と無線通信が可能な本体装置に搭載されるコンピュータを、
前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部、
前記音声入力装置から送信される無線信号の有無に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部、
前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部、
として機能させるためのプログラム。
【請求項1】
本体装置と、
ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、
前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、
を備え、
前記音声入力装置は、
前記音声入力装置の動きを示す第1動き情報を出力する第1動き情報出力部、
を含み、
前記本体装置は、
前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、
前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、
前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、
を含むアミューズメントシステム。
【請求項2】
本体装置と、
ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、
前記ユーザを撮影して映像データを出力する撮像装置と、
前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、
を備え、
前記本体装置は、
前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、
前記映像データを解析して前記ユーザの動きを示す第1動き情報を生成する映像解析部と、
前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、
前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、
を含むアミューズメントシステム。
【請求項3】
請求項1または請求項2に記載のアミューズメントシステムにおいて、
前記反応指示部は、前記特定されたパフォーマンスに対する前記聴衆の反応レベルを、前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて決定し、前記聴衆の反応レベルに基づいて、前記再生リアクションデータを選択するアミューズメントシステム。
【請求項4】
請求項3に記載のアミューズメントシステムにおいて、
前記反応指示部は、前記聴衆の反応レベルに基づいて、前記再生リアクションデータの再生条件を決定し、前記再生条件を前記再生部に指示するアミューズメントシステム。
【請求項5】
請求項3または請求項4に記載のアミューズメントシステムにおいて、
前記再生部は、前記ユーザにより設定された聴衆の客層に応じた聴衆状況データを再生し、
前記反応指示部は、前記聴衆の客層に基づいて、前記聴衆の反応レベルを決定するアミューズメントシステム。
【請求項6】
請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、
前記パフォーマンス特定部は、前記フレーズ情報に基づいて、前記ユーザが前記聴衆に対して質問形式の特定のフレーズを呼び掛け、かつ、前記第1動き情報に基づいて、前記音声入力装置の向きが反転したと判定した場合、前記ユーザが前記聴衆を煽るパフォーマンスを行ったと判定し、
前記反応指示部は、前記再生リアクションデータとして、前記特定のフレーズに対して聴衆が一斉に応答をする映像及び音声が記録されたリアクションデータを選択するアミューズメントシステム。
【請求項7】
請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、
前記パフォーマンス特定部は、前記フレーズ情報に基づいて、前記ユーザが前記聴衆に対して合唱を要求する特定のフレーズを呼び掛け、かつ、前記第1動き情報に基づいて、前記音声入力装置の向きが反転したと判定した場合、前記ユーザが前記聴衆に合唱を要求するパフォーマンスを行ったと判定し、
前記反応指示部は、前記再生リアクションデータとして、前記聴衆が合唱する映像及び音声が記録されたリアクションデータを選択するアミューズメントシステム。
【請求項8】
請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、
前記パフォーマンス特定部は、前記動き情報に基づいて、前記ユーザが手拍子を行っていると判定した場合、前記ユーザが手拍子を先導するパフォーマンスを行ったと判定し、
前記反応指示部は、前記再生リアクションデータとして、前記聴衆が手拍子する映像及び手拍子の音声が記録されたリアクションデータを選択するアミューズメントシステム。
【請求項9】
請求項1ないし請求項5のいずれかに記載のアミューズメントシステムにおいて、
前記パフォーマンス特定部は、前記動き情報に基づいて、前記ユーザが腕を振る動作をしていると判定した場合、前記ユーザが前記聴衆に対して両手を振る動作を要求するパフォーマンスを行ったと判定し、
前記反応指示部は、前記再生リアクションデータとして、前記聴衆が両手を振る映像が記録されたリアクションデータを選択するアミューズメントシステム。
【請求項10】
請求項1、請求項3ないし請求項9のいずれかに記載のアミューズメントシステムにおいて、さらに、
前記ユーザが前記音声入力装置を保持する手と反対の手で保持するコントローラ、
を備え、
前記コントローラは、
前記コントローラの動きを示す第2動き情報を出力する第2動き情報出力部、
を含み、
前記パフォーマンス特定部は、前記第2動き情報に基づいて、前記ユーザのパフォーマンスを特定するアミューズメントシステム。
【請求項11】
請求項3ないし請求項10のいずれかに記載のアミューズメントシステムにおいて、
前記反応指示部は、前記楽曲データの第1パートで行われた全てのパフォーマンスを、各パフォーマンスに対する前記聴衆の反応レベルに基づいて採点し、前記楽曲データの第2パートで行われた全てのパフォーマンスを、各パフォーマンスに対する前記聴衆の反応レベルに基づいて採点するアミューズメントシステム。
【請求項12】
本体装置と、
ユーザが保持する音声入力装置と、
を備え、
前記音声入力装置は、
前記本体装置と無線通信を行う無線通信部、
を含み、
前記本体装置は、
前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部と、
前記音声入力装置から送信される無線信号の有無に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部と、
前記聴衆の反応を示す音声又は映像が記録された複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部と、
を含むアミューズメントシステム。
【請求項13】
請求項12に記載のアミューズメントシステムにおいて、
前記パフォーマンス特定部は、前記楽曲データの再生が開始された後に、前記無線信号を検出した場合、前記ユーザが仮想的なライブ会場に入場したと判定するアミューズメントシステム。
【請求項14】
請求項12または請求項13に記載のアミューズメントシステムにおいて、
前記パフォーマンス特定部は、前記楽曲データの再生が開始された後に、前記無線信号を検出できなくなった場合、前記ユーザが仮想的なライブ会場から退場したと判定するアミューズメントシステム。
【請求項15】
請求項1ないし請求項14のいずれかに記載のアミューズメントシステムにおいて用いられる音声入力装置。
【請求項16】
ユーザが保持し、前記ユーザが入力した音声を音声データとして出力し、自装置の動きを示す第1動き情報を出力する音声入力装置と、
前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、
通信可能な本体装置に搭載されるコンピュータを、
前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部、
前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部、
前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部、
として機能させるためのプログラム。
【請求項17】
ユーザが保持し、前記ユーザが入力した音声を音声データとして出力する音声入力装置と、
前記ユーザを撮影して映像データを出力する撮像装置と、
前記音声データに対する音声認識処理を行って、前記ユーザが話したフレーズを示すフレーズ情報を生成する音声認識装置と、
通信可能な本体装置に搭載されるコンピュータを、
前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部、
前記映像データを解析して前記ユーザの動きを示す第1動き情報を生成する映像解析部、
前記フレーズ情報及び前記第1動き情報の少なくとも一方に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部、
前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部、
として機能させるためのプログラム。
【請求項18】
ユーザが保持する音声入力装置と無線通信が可能な本体装置に搭載されるコンピュータを、
前記ユーザが選択した楽曲データと、聴衆の状況を示す映像及び音声の少なくとも一方が記録された聴衆状況データとを再生する再生部、
前記音声入力装置から送信される無線信号の有無に基づいて、前記ユーザのパフォーマンスを特定するパフォーマンス特定部、
前記聴衆の反応を示す複数のリアクションデータの中から、特定されたパフォーマンスに対応する再生リアクションデータを選択し、前記再生リアクションデータの再生を前記再生部に指示する反応指示部、
として機能させるためのプログラム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7A】
【図7B】
【図8A】
【図8B】
【図9A】
【図9B】
【図10A】
【図10B】
【図11】
【図12】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7A】
【図7B】
【図8A】
【図8B】
【図9A】
【図9B】
【図10A】
【図10B】
【図11】
【図12】
【公開番号】特開2012−88521(P2012−88521A)
【公開日】平成24年5月10日(2012.5.10)
【国際特許分類】
【出願番号】特願2010−235043(P2010−235043)
【出願日】平成22年10月20日(2010.10.20)
【出願人】(591128453)株式会社メガチップス (322)
【Fターム(参考)】
【公開日】平成24年5月10日(2012.5.10)
【国際特許分類】
【出願日】平成22年10月20日(2010.10.20)
【出願人】(591128453)株式会社メガチップス (322)
【Fターム(参考)】
[ Back to top ]