説明

映像コンテンツ生成装置およびコンピュータプログラム

【課題】音楽に合わせた映像コンテンツを生成する際に、音楽を聴いている利用者の盛り上がりを映像コンテンツに反映させることを図る。
【解決手段】利用者が音楽を聴いているときのイベントの発生を判定するためのデータを取得するデータ取得部11と、取得したデータを用いてイベントの発生を判定するイベント判定部(盛り上がり判定部12)と、イベントが発生したと判定した場合に、イベントに対応する動きのデータである第1の動きデータを生成する第1の動き生成部14と、イベントが発生したと判定した場合に第1の動きデータを表示する表示データを生成する表示データ生成部17と、を備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、映像コンテンツ生成装置およびコンピュータプログラムに関する。
【背景技術】
【0002】
近年、音楽に合わせた動き(モーション)データを自動生成する技術が提案されている。例えば特許文献1に記載のモーション作成装置では、複数のモーションにおいて人体姿勢が類似する2つのフレーム間を連結した有向性グラフとしてモーションデータベースを構築し、その複数のモーションの中から、音楽データから取得したビート特徴成分と相関を有する動き特徴成分をもつモーションを選択している。また、非特許文献1に記載の技術では、事前に独自なデータ構造を生成し、音楽を入力すると、動的計画法(Dynamic Programming)により高速な同期を行うことができる。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2007−018388号公報
【非特許文献】
【0004】
【非特許文献1】徐建鋒、高木幸一、米山暁夫、“動きのビート・盛り上がり情報に基づく音楽に同期したダンス生成手法”、2009年度映像メディア処理シンポジウム(IMPS)、I−04−01、2009年10月7日
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかし、上述した従来の装置では、音楽を聴いている利用者の盛り上がりを映像コンテンツに反映させることができない。例えば、カラオケ装置が再生する音楽に合わせた映像コンテンツを表示するシステムにおいて、カラオケ装置が再生する音楽に合わせて歌っている利用者が盛り上がっている時に、盛り上がっている動きのデータを表示することができれば、利用者と映像コンテンツとの一体感が高まるので、利用者の満足度を向上させることができる。
【0006】
本発明は、このような事情を考慮してなされたもので、音楽に合わせた映像コンテンツを生成する際に、音楽を聴いている利用者の盛り上がりを映像コンテンツに反映させることができる映像コンテンツ生成装置およびコンピュータプログラムを提供することを課題とする。
【課題を解決するための手段】
【0007】
上記の課題を解決するために、本発明に係る映像コンテンツ生成装置は、音楽に合わせた映像コンテンツを生成する映像コンテンツ生成装置において、利用者が前記音楽を聴いているときのイベントの発生を判定するためのデータを取得するデータ取得部と、前記データ取得部が取得したデータを用いてイベントの発生を判定するイベント判定部と、前記イベント判定部が、イベントが発生したと判定した場合に、イベントに対応する動きのデータである第1の動きデータを生成する動き生成部と、前記イベント判定部が、イベントが発生したと判定した場合に、前記動き生成部が生成した第1の動きデータを表示する表示データを生成する表示データ生成部と、を備えたことを特徴とする。
【0008】
本発明に係る映像コンテンツ生成装置においては、前記イベント判定部が、イベントが発生したと判定した場合に、前記データ取得部が取得したデータを用いてテンポを算出するテンポ算出部を備え、前記動き生成部は、前記テンポ算出部が算出したテンポに、イベントに対応する動きのテンポを合わせた動きデータを生成する、ことを特徴とする。
【0009】
本発明に係る映像コンテンツ生成装置において、前記表示データ生成部は、前記音楽に合わせた第2の動きデータと前記動き生成部が生成した第1の動きデータとを用いて前記表示データを生成し、前記動き生成部は、前記表示データにおける前区間の動きデータに続く第1の動きデータを生成する、ことを特徴とする。
【0010】
本発明に係る映像コンテンツ生成装置においては、イベントに対応する動きのデータを蓄積する動きデータベースを備え、前記動き生成部は、前記動きデータベースから、前記表示データにおける前区間の動きデータに続く動きのデータを選択する、ことを特徴とする。
【0011】
本発明に係る映像コンテンツ生成装置において、前記データ取得部は、前記利用者の動きを検知する加速度センサーを有し、前記イベント判定部は、イベントの発生を判定する区間毎に、前記加速度センサーの出力信号に対して主成分分析し、第一主成分の平均得点が閾値以上である場合に、イベントが発生したと判定する、ことを特徴とする。
【0012】
本発明に係る映像コンテンツ生成装置において、前記データ取得部は、前記利用者との間の距離を検知する距離センサーを有し、前記イベント判定部は、イベントの発生を判定する区間毎に、前記距離センサーの出力信号に対して主成分分析し、第一主成分の平均得点が閾値以上である場合に、イベントが発生したと判定する、ことを特徴とする。
【0013】
本発明に係る映像コンテンツ生成装置において、前記テンポ算出部は、前記第一主成分の得点をフーリエ変換して求めた最大周波数を用いて、テンポを算出する、ことを特徴とする。
【0014】
本発明に係る映像コンテンツ生成装置において、前記データ取得部は、前記利用者の音声を検知するマイクロホンを有し、前記イベント判定部は、イベントの発生を判定する区間毎に、前記マイクロホンの出力信号を用いて音量を算出し、平均音量が閾値以上である場合に、イベントが発生したと判定する、ことを特徴とする。
【0015】
本発明に係る映像コンテンツ生成装置において、前記データ取得部は、複数の前記利用者の音声のシンク度を測定する音シンク度測定装置を有し、前記イベント判定部は、イベントの発生を判定する区間毎に、前記音シンク度算出装置が測定したシンク度又は平均シンク度が閾値以上である場合に、イベントが発生したと判定する、ことを特徴とする。
【0016】
本発明に係る映像コンテンツ生成装置において、前記音楽はカラオケ装置が再生するものであり、前記データ取得部は、前記カラオケ装置が前記利用者の歌を採点したスコアを入力する入力装置を有し、前記イベント判定部は、イベントの発生を判定する区間毎に、前記入力装置が入力したスコア又は平均スコアが閾値以上である場合に、イベントが発生したと判定する、ことを特徴とする。
【0017】
本発明に係るコンピュータプログラムは、音楽に合わせた映像コンテンツを生成する映像コンテンツ生成処理を行うためのコンピュータプログラムであって、利用者が前記音楽を聴いているときのイベントの発生を判定するためのデータを取得するデータ取得ステップと、前記取得したデータを用いてイベントの発生を判定するイベント判定ステップと、前記イベント判定ステップで、イベントが発生したと判定した場合に、イベントに対応する動きのデータを生成する動き生成ステップと、前記イベント判定ステップで、イベントが発生したと判定した場合に、前記動き生成ステップで生成した動きデータを表示する表示データを生成する表示データ生成ステップと、をコンピュータに実行させるためのコンピュータプログラムであることを特徴とする。
これにより、前述の映像コンテンツ生成装置がコンピュータを利用して実現できるようになる。
【発明の効果】
【0018】
本発明によれば、音楽に合わせた映像コンテンツを生成する際に、音楽を聴いている利用者の盛り上がりを映像コンテンツに反映させることができるという効果が得られる。
【図面の簡単な説明】
【0019】
【図1】本発明の一実施形態に係る映像コンテンツ生成装置1の構成を示すブロック図である。
【図2】本発明の一実施形態に係る映像コンテンツ生成処理のフローチャートである。
【図3】本発明の一実施形態に係る表示データ生成シーケンスの一例を示す図である。
【図4】正弦近似処理の概念図である。
【発明を実施するための形態】
【0020】
以下、図面を参照し、本発明の実施形態について説明する。本実施形態では、利用者が音楽を聴いているときのイベントとして、利用者が盛り上がっていること、を判定する。なお、利用者が音楽を聴いているときのイベントについては任意に定義することができる。
【0021】
図1は、本発明の一実施形態に係る映像コンテンツ生成装置1の構成を示すブロック図である。図1において、映像コンテンツ生成装置1は、データ取得部11と盛り上がり判定部12とテンポ算出部13と第1の動き生成部14と第1の動きデータベース15と第1の動き記憶部16と表示データ生成部17と第2の動き生成部21と第2の動きデータベース22と第2の動き記憶部23と制御部31を備える。
【0022】
映像コンテンツ生成装置1は、音楽に合わせた映像コンテンツを生成する。映像コンテンツ生成装置1は、例えばカラオケ装置が再生する音楽に合わせた動きのデータを表示する表示データを生成する。その表示データは、例えばカラオケ装置の表示画面上で表示される。これにより、利用者は、カラオケ装置が再生する音楽と共に該表示データを視聴して楽しむことができる。
【0023】
データ取得部11は、音楽を聴いている利用者の盛り上がりを判定するためのデータを取得する。データ取得部11は、例えば、音楽を聴いている利用者の動きを検知する加速度センサー、音楽を聴いている利用者との間の距離を検知する距離センサー、音楽を聴いている利用者の音声を検知するマイクロホン、音楽を聴いている複数の利用者の音声のシンク度を測定する音シンク度測定装置、又は、カラオケ装置が再生する音楽に合わせて歌っている利用者の歌を該カラオケ装置が採点したスコアを入力する入力装置、を有する。本実施形態では、データ取得部11は、音楽を聴いている利用者の動きを検知する加速度センサーを有している。
【0024】
盛り上がり判定部12は、データ取得部11の加速度センサーの出力信号を用いて盛り上がりを判定する。テンポ算出部13は、盛り上がり判定部12が盛り上がっていると判定した場合に、データ取得部11の加速度センサーからの出力信号を用いてテンポを算出する。
【0025】
第1の動き生成部14は、盛り上がり判定部12が盛り上がっていると判定した場合に、盛り上がっている動きのデータを生成する。第1の動き生成部14は、テンポ算出部13が算出したテンポに、盛り上がっている動きのテンポを合わせた動きデータを生成する。
【0026】
第1の動きデータベース15は、盛り上がっている動きのデータを蓄積している。第1の動きデータベース15には、盛り上がっている動きのデータが予め準備される。第1の動き生成部14は、第1の動きデータベース15内の動きデータを利用して、盛り上がっている動きのデータを生成する。
【0027】
第1の動き記憶部16は、第1の動き生成部14が生成した動きデータ(第1の動きデータ)を一時的に記憶する。
【0028】
第2の動き生成部21は、入力される音楽データに合わせた動きのデータ(第2の動きデータ)を生成する。第2の動きデータベース22は、各種の動きのデータを蓄積している。第2の動きデータベース22には、各種の動きのデータが予め準備される。第2の動き生成部21は、第2の動きデータベース22内の動きデータを利用して、第2の動きデータを生成する。第2の動き記憶部23は、第2の動き生成部21が生成した第2の動きデータを一時的に記憶する。
【0029】
制御部31は、映像コンテンツ生成装置1の動作を制御する。制御部31は、入力される操作データに従って、映像コンテンツ生成装置1内の各部を制御する。又、制御部31は、盛り上がり判定部12の判定結果に応じて、映像コンテンツ生成装置1内の各部を制御する。
【0030】
次に、図2を参照して、図1に示す映像コンテンツ生成装置1の全体的な動作を説明する。図2は、本実施形態に係る映像コンテンツ生成処理のフローチャートである。
【0031】
ステップS1:制御部31は、第2の動き生成部21及び盛り上がり判定部12に対して、一定時間毎に、処理実行を指示する。第2の動き生成部21は、制御部31からの処理実行指示に応じて、一定時間分の音楽データを入力する。盛り上がり判定部12は、制御部31からの処理実行指示に応じて、データ取得部11から、一定時間分の加速度センサー出力信号を取得する。データ取得部11は、定常的に、加速度センサーからの出力信号を出力している。この加速度センサーの出力信号は、第2の動き生成部21に入力される音楽データが再生された音楽を聴いている利用者の動きを検知した信号である。
【0032】
ステップS2:第2の動き生成部21は、入力した一定時間分の音楽データ(入力音楽データ)に合わせた第2の動きデータを生成する。このとき、第2の動き生成部21は、第2の動きデータベース22内の動きデータの中から入力音楽データに合った動きデータを選択して第2の動きデータを生成する。第2の動き生成部21は、生成した第2の動きデータを第2の動き記憶部23に保存する。
【0033】
ステップS3:盛り上がり判定部12は、入力した一定時間分の加速度センサー出力信号を用いて盛り上がりを判定する。盛り上がり判定部12は、盛り上がりの判定結果を制御部31に通知する。
【0034】
ステップS4:ステップS3の判定結果が、「盛り上がっている」である場合にはステップS5に進み、「盛り上がっていない」である場合にはステップS9に進む。
【0035】
ステップS5:盛り上がり判定部12は、ステップS3の判定の結果が「盛り上がっている」である場合に、テンポ算出部13に対して、テンポ算出を指示する。テンポ算出部13は、盛り上がり判定部12からのテンポ算出指示に応じて、テンポを算出する。
【0036】
ステップS6:制御部31は、盛り上がり判定部12から通知された判定結果が「盛り上がっている」である場合に、第1の動き生成部14に対して、動きデータ生成を指示する。第1の動き生成部14は、制御部31からの動きデータ生成指示に応じて、第1の動きデータを生成する。このとき、第1の動き生成部14は、第1の動きデータベース15内の動きデータの中から、表示データにおける前区間の動きデータに続く動きデータに適した動きデータを選択して第1の動きデータを生成する。
【0037】
ステップS7:第1の動き生成部14は、テンポ算出部13が算出したテンポに、第1の動きデータの動きのテンポを合わせる調整を行う。第1の動き生成部14は、生成した第1の動きデータを第1の動き記憶部16に保存する。
【0038】
ステップS8:制御部31は、盛り上がり判定部12から通知された判定結果が「盛り上がっている」である場合に、表示データ生成部17に対して、第1の動きデータを用いた表示データ生成を指示する。表示データ生成部17は、制御部31からの「第1の動きデータを用いた表示データ生成指示」に応じて、第1の動き記憶部16から第1の動きデータを読み出し、読み出した第1の動きデータを表示する表示データを生成する。
【0039】
ステップS9:制御部31は、盛り上がり判定部12から通知された判定結果が「盛り上がっていない」である場合に、表示データ生成部17に対して、第2の動きデータを用いた表示データ生成を指示する。表示データ生成部17は、制御部31からの「第2の動きデータを用いた表示データ生成指示」に応じて、第2の動き記憶部23から第2の動きデータを読み出し、読み出した第2の動きデータを表示する表示データを生成する。
【0040】
ステップS8又はS9で生成された表示データは、映像コンテンツ生成装置1から出力されて、表示装置(図示せず)の画面上に表示される。例えば、表示データはカラオケ装置の表示画面上で表示される。
【0041】
ステップS10:制御部31は、映像コンテンツ生成処理の終了を判断する。この結果、映像コンテンツ生成処理の終了である場合には図2の処理を終了する。一方、映像コンテンツ生成処理の継続である場合にはステップS1に戻る。
【0042】
図3は、本実施形態に係る表示データ生成シーケンスの一例を示す図である。図3において、ステップS101では、ステップS100で生成された第2の動きデータを用いて、第(P−1)区間の表示データを生成する。但し、Pは2以上の整数とする。
【0043】
ステップS111では、ステップS110で取得された加速度センサー出力信号を用いて盛り上がり判定した結果が「盛り上がっている(合格)」であるので、第1の動きデータを生成する。このとき、(P−1)区間の表示データに使用された第2の動きデータ(ステップS100で生成されたもの)に続くように、第1の動きデータを生成する。そして、ステップS112では、ステップS111で生成された第1の動きデータを用いて、P区間の表示データを生成する。
【0044】
ステップS121では、ステップS120で取得された加速度センサー出力信号を用いて盛り上がり判定した結果が「盛り上がっている(合格)」であるので、第1の動きデータを生成する。このとき、P区間の表示データに使用された第1の動きデータ(ステップS111で生成されたもの)に続くように、第1の動きデータを生成する。そして、ステップS122では、ステップS121で生成された第1の動きデータを用いて、(P+1)区間の表示データを生成する。
【0045】
ステップS131では、ステップS130で取得された加速度センサー出力信号を用いて盛り上がり判定した結果が「盛り上がっていない(不合格)」であるので、第1の動きデータを生成しない。そして、ステップS141では、ステップS140で生成された第2の動きデータを用いて、(P+2)区間の表示データを生成する。
【0046】
次に、本実施形態に係る盛り上がり判定処理(図2のステップS3)を詳細に説明する。
本実施形態では、一定時間(盛り上がりを判定する区間)毎に、入力した一定時間分の加速度センサー出力信号に対して主成分分析し、第一主成分の平均得点が閾値以上である場合に盛り上がっていると判定する。
【0047】
加速度センサーは、利用者の手や足などに装着されている。盛り上がり判定部12は、一定時間毎に、加速度センサー出力信号(以下、加速度信号と称する)を取得して主成分分析を行い、第一主成分得点を算出する。ここで、時刻tにおける3次元の加速度信号「a(t)=(ax(t),ay(t),az(t))」を用いて、一区間のデータ「X」を「X={a(t1),a(t2),・・・,a(tN)}と表す。但し、Nは区間長(一区間内に含まれるサンプルの個数)である。Xは、M行N列の行列である(但し、M=3)。
【0048】
主成分分析処理では、データXに対して主成分分析処理を行い、データXを主成分空間へ変換する。主成分分析処理については、例えば、“http://en.wikipedia.org/wiki/Principal_components_analysis#Software.2Fsource_code”にオープンソースが開示されている。以下、本実施形態に係る主成分分析処理(ステップS301からS303)を説明する。
ステップS301:(1)式により、データXから平均値を除いたN行M列の行列Dを算出する。
【0049】
【数1】

【0050】
ステップS302:(2)式により、N行M列の行列Dに対して特異値分解(Singular Value Decomposition)処理を行う。特異値分解処理については、例えば、“http://www.gnu.org/software/gsl/”にオープンソースが開示されている。
【0051】
【数2】

【0052】
但し、Uは、N行N列のユニタリ行列である。Σは、N行M列の負でない対角要素を降順にもつ対角行列であり、主成分空間の座標の分散を表す。Vは、M行M列のユニタリ行列であり、主成分に対する係数(principal component)である。
【0053】
ステップS303:(3)式により、N行M列の行列Dを主成分空間へ変換する。M行N列の行列Yは、主成分空間の座標値(得点)を表す。
【0054】
【数3】

【0055】
(3)式による行列Yから第一主成分の座標値(第一主成分得点)を取得し、第一主成分得点の平均値(平均得点)を算出する。この平均得点が、盛り上がり判定の所定の基準値(閾値)以上である場合に「盛り上がっている(合格)」と判定し、該閾値未満である場合に「盛り上がっていない(不合格)」と判定する。
【0056】
次に、本実施形態に係るテンポ算出処理(図2のステップS5)を詳細に説明する。
まず、上記盛り上がり判定処理で算出された第一主成分得点y(t)の極値b(j)を抽出する。極値b(j)の集合Bは(4)式で表される。但し、Jは、ビートの個数である。
【0057】
【数4】

【0058】
次いで、集合B内の各極値b(j)間を、(5)式により正弦曲線(Sinusoid)で近似する。
【0059】
【数5】

【0060】
図4は、(5)式による正弦近似処理の概念図である。但し、sj−1(t)は、(j−1)番目の極値b(j−1)からj番目の極値b(j)までの区間の正弦近似値である。図4において、1番目の極値b(1)から2番目の極値b(2)までの区間a1(j=2の場合の区間)は、s(t)で近似される。同様に、2番目の極値b(2)から3番目の極値b(3)までの区間a2(j=3の場合の区間)はs(t)で近似され、3番目の極値b(3)から4番目の極値b(4)までの区間a3(j=4の場合の区間)はs(t)で近似され、4番目の極値b(4)から5番目の極値b(5)までの区間a4(j=5の場合の区間)はs(t)で近似される。
【0061】
次いで、(5)式で得られたs(t)をフーリエ変換して、s(t)の最大周波数を求める。このとき、最低L点のハン窓を用いたFFT(高速フーリエ変換)を行い、所定の周波数範囲[fl,fh]で最大周波数fmaxを求める。そして、最大周波数fmaxを用いてテンポを算出する。本実施形態では、テンポ(tempo=60×fmax)とする。
【0062】
次に、本実施形態に係る第1の動き生成処理(図2のステップS6)を詳細に説明する。
まず、第1の動きデータベース15内の動きデータの中から、表示データにおける前区間の動きデータに続く動きデータに適した動きデータを選択する。具体的には、(6)式および(7)式によって、第1の動きデータベース15内の動きデータの中から、使用する動きデータを選択する。
【0063】
【数6】

【0064】
但し、kは、第1の動きデータベース15内に在る動きデータの個数である。tは、第1の動きデータベース15内の動きデータにおけるフレーム番号である。c(k,t)は、(7)式で算出される。
【0065】
【数7】

【0066】
但し、q1(i)は、表示データにおける前区間の動きデータにおける最後のN個のフレームの中のi番目のフレームである。q2(i,t)は、第1の動きデータベース15内の動きデータのt番目のフレームからのN個のフレームの中のi番目のフレームである。
【0067】
次いで、第1の動きデータベース15から選択された動きデータにおける「t番目のフレームからのN個のフレーム」と、表示データにおける前区間の動きデータにおける「最後のN個のフレーム」とを、slerp(spherical linear interpolation)処理によってブレンディングする。このブレンディング処理については、「David H. Eberly,“3D Game Engine Design”, 2nd edition, Geometric Tools, Inc., Morgan Kaufmann, pp.774, 2006」に記載されている。
【0068】
次に、本実施形態に係るテンポ調整処理(図2のステップS7)を詳細に説明する。
本実施形態では、第1の動き生成処理(図2のステップS6)で、第1の動きデータベース15から選択された動きデータに対してブレンディングを行った後の動きデータ(第1の動きデータ)に対して、テンポ算出処理(図2のステップS5)で算出したテンポ(tempo)に、テンポを合わせる処理を行う。具体的には、(8)式によって、第1の動きデータの再生速度を調整する。再生速度の調整後の第1の動きデータは、第1の動き記憶部16に格納される。
【0069】
【数8】

【0070】
但し、Fs_oldは第1の動きデータベース15内の動きデータに定義されている再生速度である。Fs_newは調整後の再生速度である。tempo_origは、第1の動きデータベース15内の動きデータのテンポであり、第1の動きデータベース15に予め準備されている。tempo_inputは、テンポ算出処理(図2のステップS5)で算出したテンポ(tempo)である。TH_High及びTH_Lowは所定の閾値である。
【0071】
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
例えば、データ取得部11は、音楽を聴いている利用者との間の距離を検知する距離センサーを有してもよい。この場合、盛り上がり判定部12は、上述した実施形態と同様に、一定時間(盛り上がりを判定する区間)毎に、入力した一定時間分の距離センサー出力信号に対して主成分分析し、第一主成分の平均得点が閾値以上である場合に盛り上がっていると判定する。
【0072】
又は、データ取得部11は、音楽を聴いている利用者の音声を検知するマイクロホンを有してもよい。この場合、盛り上がり判定部12は、一定時間(盛り上がりを判定する区間)毎に、マイクロホンの出力信号を用いて音量を算出し、平均音量が閾値以上である場合に盛り上がっていると判定する。音量算出技術については、例えば「RECOMMENDATION ITU-R BS.1770-1. Algorithms to measure audio programme loudness and true-peak audio level」に記載されている。
【0073】
又は、データ取得部11は、音楽を聴いている複数の利用者の音声のシンク度を測定する音シンク度測定装置を有してもよい。この場合、盛り上がり判定部12は、一定時間(盛り上がりを判定する区間)毎に、音シンク度算出装置が測定したシンク度又は平均シンク度が閾値以上である場合に盛り上がっていると判定する。
【0074】
又は、データ取得部11は、カラオケ装置が再生する音楽に合わせて歌っている利用者の歌を該カラオケ装置が採点したスコアを入力する入力装置を有してもよい。この場合、盛り上がり判定部12は、一定時間(盛り上がりを判定する区間)毎に、入力装置が入力したスコア又は平均スコアが閾値以上である場合に盛り上がっていると判定する。
【0075】
なお、上述した実施形態に係る第2の動き生成部21は、任意の方法によって、入力音楽データに合わせた第2の動きデータを生成するものでよい。例えば、特許文献1又は非特許文献1に記載される従来技術を用いることができる。又、「Ganapathi, V.; Plagemann, C.; Koller, D.; Thrun, S., “Real Time Motion Capture Using a Single Time-of-Flight Camera”, IEEE CVPR 2010, pp. 755 - 762.」に記載される従来技術を用い、距離センサーからの出力信号から人物の動きを自動的に抽出するようにしてもよい。
【0076】
また、第2の動きデータについては、予め準備しておいてもよい。例えば、音楽データと共に第2の動きデータを映像コンテンツ生成装置1に入力するようにしてもよい。この場合には、第2の動き生成部21および第2の動きデータベース22は不要である。
【0077】
また、図2に示す各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、映像コンテンツ生成処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disk)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
【0078】
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
【符号の説明】
【0079】
1…映像コンテンツ生成装置、11…データ取得部、12…盛り上がり判定部(イベント判定部)、13…テンポ算出部、14…第1の動き生成部、15…第1の動きデータベース、16…第1の動き記憶部、17…表示データ生成部、21…第2の動き生成部、22…第2の動きデータベース、23…第2の動き記憶部、31…制御部

【特許請求の範囲】
【請求項1】
音楽に合わせた映像コンテンツを生成する映像コンテンツ生成装置において、
利用者が前記音楽を聴いているときのイベントの発生を判定するためのデータを取得するデータ取得部と、
前記データ取得部が取得したデータを用いてイベントの発生を判定するイベント判定部と、
前記イベント判定部が、イベントが発生したと判定した場合に、イベントに対応する動きのデータである第1の動きデータを生成する動き生成部と、
前記イベント判定部が、イベントが発生したと判定した場合に、前記動き生成部が生成した第1の動きデータを表示する表示データを生成する表示データ生成部と、
を備えたことを特徴とする映像コンテンツ生成装置。
【請求項2】
前記イベント判定部が、イベントが発生したと判定した場合に、前記データ取得部が取得したデータを用いてテンポを算出するテンポ算出部を備え、
前記動き生成部は、前記テンポ算出部が算出したテンポに、イベントに対応する動きのテンポを合わせた動きデータを生成する、
ことを特徴とする請求項1に記載の映像コンテンツ生成装置。
【請求項3】
前記表示データ生成部は、前記音楽に合わせた第2の動きデータと前記動き生成部が生成した第1の動きデータとを用いて前記表示データを生成し、
前記動き生成部は、前記表示データにおける前区間の動きデータに続く第1の動きデータを生成する、
ことを特徴とする請求項1又は2に記載の映像コンテンツ生成装置。
【請求項4】
イベントに対応する動きのデータを蓄積する動きデータベースを備え、
前記動き生成部は、前記動きデータベースから、前記表示データにおける前区間の動きデータに続く動きのデータを選択する、
ことを特徴とする請求項3に記載の映像コンテンツ生成装置。
【請求項5】
前記データ取得部は、前記利用者の動きを検知する加速度センサーを有し、
前記イベント判定部は、イベントの発生を判定する区間毎に、前記加速度センサーの出力信号に対して主成分分析し、第一主成分の平均得点が閾値以上である場合に、イベントが発生したと判定する、
ことを特徴とする請求項1から4のいずれか1項に記載の映像コンテンツ生成装置。
【請求項6】
前記データ取得部は、前記利用者との間の距離を検知する距離センサーを有し、
前記イベント判定部は、イベントの発生を判定する区間毎に、前記距離センサーの出力信号に対して主成分分析し、第一主成分の平均得点が閾値以上である場合に、イベントが発生したと判定する、
ことを特徴とする請求項1から4のいずれか1項に記載の映像コンテンツ生成装置。
【請求項7】
前記テンポ算出部は、前記第一主成分の得点をフーリエ変換して求めた最大周波数を用いて、テンポを算出する、
ことを特徴とする請求項5又は6に記載の映像コンテンツ生成装置。
【請求項8】
前記データ取得部は、前記利用者の音声を検知するマイクロホンを有し、
前記イベント判定部は、イベントの発生を判定する区間毎に、前記マイクロホンの出力信号を用いて音量を算出し、平均音量が閾値以上である場合に、イベントが発生したと判定する、
ことを特徴とする請求項1から4のいずれか1項に記載の映像コンテンツ生成装置。
【請求項9】
前記データ取得部は、複数の前記利用者の音声のシンク度を測定する音シンク度測定装置を有し、
前記イベント判定部は、イベントの発生を判定する区間毎に、前記音シンク度算出装置が測定したシンク度又は平均シンク度が閾値以上である場合に、イベントが発生したと判定する、
ことを特徴とする請求項1から4のいずれか1項に記載の映像コンテンツ生成装置。
【請求項10】
前記音楽はカラオケ装置が再生するものであり、
前記データ取得部は、前記カラオケ装置が前記利用者の歌を採点したスコアを入力する入力装置を有し、
前記イベント判定部は、イベントの発生を判定する区間毎に、前記入力装置が入力したスコア又は平均スコアが閾値以上である場合に、イベントが発生したと判定する、
ことを特徴とする請求項1から4のいずれか1項に記載の映像コンテンツ生成装置。
【請求項11】
音楽に合わせた映像コンテンツを生成する映像コンテンツ生成処理を行うためのコンピュータプログラムであって、
利用者が前記音楽を聴いているときのイベントの発生を判定するためのデータを取得するデータ取得ステップと、
前記取得したデータを用いてイベントの発生を判定するイベント判定ステップと、
前記イベント判定ステップで、イベントが発生したと判定した場合に、イベントに対応する動きのデータを生成する動き生成ステップと、
前記イベント判定ステップで、イベントが発生したと判定した場合に、前記動き生成ステップで生成した動きデータを表示する表示データを生成する表示データ生成ステップと、
をコンピュータに実行させるためのコンピュータプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate


【公開番号】特開2012−212245(P2012−212245A)
【公開日】平成24年11月1日(2012.11.1)
【国際特許分類】
【出願番号】特願2011−76656(P2011−76656)
【出願日】平成23年3月30日(2011.3.30)
【出願人】(000208891)KDDI株式会社 (2,700)
【Fターム(参考)】