説明

コンテンツ決定プログラムおよびコンテンツ決定装置

【課題】複数人物に最適なコンテンツを表示することを目的とする。
【解決手段】コンテンツ決定装置は、時系列に撮影された複数の撮影画像から人物画像を検出し、人物画像についての人物の速度ベクトルを算出する算出手段、複数の人物の算出した速度ベクトルに応じて、複数の人物を一つのグループに関連付ける関連付手段、関連付けられたグループ内の複数の人物画像を画像処理して、グループの属性情報を取得する取得手段、属性情報と記憶部に記憶された投影画像を特定する画像情報との対応関係に基づき、属性情報に対応する投影画像を決定する決定手段を有する。

【発明の詳細な説明】
【技術分野】
【0001】
本技術は複数の人物に対してコンテンツ画像を決定するコンテンツ決定装置に関する。
【背景技術】
【0002】
従来、移動する人物を特定して、特定した人物の移動方向の延長上にコンテンツ画像を表示するシステムがある。また、人物の個人情報、複数人物間の関連情報を含むRFIDを予め各人物に所持させることで、複数人物からなるグループに対して広告を表示するシステムがある。
【0003】
しかし、従来技術は個人毎の嗜好に応じたコンテンツ画像の提供であり、親子、カップルなどのような移動する複数人物の組み合わせによって生まれる特徴を考慮していない。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2006−113819号公報
【特許文献2】特開2005−300965号公報
【特許文献3】特開2005−165406号公報
【非特許文献】
【0005】
【非特許文献1】A. Shio and J. Sklansky: “Segmentation of people in motion”, Proc. IEEE Workshop on Visual Motion, pp.325−332 (1991)
【非特許文献2】前泰志・白井良明・三浦純・久野義徳:“Object Tracking in Cluttered Back ground Based on Optical Flow and Edges“、JRSJ Vol.17, No.7, pp.45−51
【非特許文献3】郷原邦男, 馬場功淳, 江島俊朗:“人物追跡画像に基づく服装の実時間分類“, 情報処理学会研究報告. HI, ヒューマンインタフェース研究会報告 2001(87) pp.101−108 20010913
【非特許文献4】安藤寛哲、藤吉弘亘:“人検出結果に基づくカメラの自己キャリブレーションと3次元位置推定“、電気学会 一般産業研究会 2009
【非特許文献5】南竹俊介,高橋伸,田中二郎:“公共大画面への注視情報取得システム“, http://www.iplab.cs.tsukuba.ac.jp/paper/domestic/minamitake_dicomo2008.pdf
【非特許文献6】南竹俊介:“顔向き解析による大画面への注視情報の取得“, http://www.iplab.cs.tsukuba.ac.jp/paper/bachelor/minamitake_thesis.pdf
【発明の開示】
【発明が解決しようとする課題】
【0006】
本発明の一つの側面は、複数人物に応じたコンテンツ画像を決定することを目的とする。
【課題を解決するための手段】
【0007】
コンテンツ決定装置は、時系列に撮影された複数の撮影画像から人物画像を検出し、人物画像についての人物の速度ベクトルを算出する算出手段、複数の人物の算出した速度ベクトルに応じて、複数の人物を一つのグループに関連付ける関連付手段、関連付けられたグループ内の複数の人物画像を画像処理して、グループの属性情報を取得する取得手段、属性情報と記憶部に記憶された投影画像を特定する画像情報との対応関係に基づき、属性情報に対応する投影画像を決定する決定手段を有する。
【発明の効果】
【0008】
本発明の一つの側面は、複数人物に応じたコンテンツを決定することができる。
【図面の簡単な説明】
【0009】
【図1】図1は、本実施例のコンテンツ決定装置10の機能ブロック図である。
【図2】図2はコンテンツ画像のライブラリ92の構成である。
【図3】図3は、コンテンツ画像管理情報95の構成例である。
【図4】図4は動作状態情報93の構成例である。
【図5】図5は属性情報99の構成例である。
【図6】図6はグループ属性情報98の構成例である。
【図7】図7は注視履歴情報97の構成例である。
【図8】図8は、コンテンツ決定装置10の全体の動作フローチャートである。
【図9】図9は撮影部11が撮影した背景画像300である。
【図10】図10は撮影部11が撮影した入力画像310である。
【図11】図11は、図9と図10の差分から得られる差分画像320である。
【図12】図12は、人物の顔および視線の方向を特定する処理のフローチャートである。
【図13】図13は、グループの関連付けの処理のフローチャートである。
【図14】図14は、グループ関連付けの時刻t1の例である。
【図15】図15は、図14での速度ベクトルのなす角を示す図である。
【図16】図16は、グループ関連付けの時刻t2の例である。
【図17】図17は、図16での速度ベクトルのなす角を示す図である。
【図18】図18は、グループ関連付けの時刻t3の例である。
【図19】図19は、図18での速度ベクトルのなす角を示す図である。
【図20】図20は、視聴者の視線方向の説明図である。
【図21】図21は、速度ベクトルと顔の向きの説明図である。
【図22】図22はルールを満たさない視聴者Aと視聴者Bの関係での位置を示す例である。
【図23】図23は、図22の例での視聴者Aと視聴者Bの速度ベクトルを示す図である。
【図24】図24はルールを満たさない視聴者Aと視聴者Bの関係での位置を示す第二の例である。
【図25】図25は、図24の例での視聴者Aと視聴者Bの速度ベクトルを示す図である。
【図26】図26は、グループとして関連付ける場合の人物の動作状態の組合せの例である。
【図27】図27はグループとして関連付けない場合の人物の動作状態の組合せの例である。
【図28】図28はグループとして関連付けない場合の人物の動作状態の組合せの例である。
【図29】図29は、グループとして関連付ける場合の人物の動作状態の組合せの例である。
【図30】図30は、複数の視聴者が会話状態の場合の例である。
【図31】図31は複数の人物が別方向から一箇所に集合する場合の時刻t1での例である。
【図32】図32は複数の人物が別方向から一箇所に集合する場合の時刻t3での例である。
【図33】図33、二人の視聴者A、Bの会話に、視聴者Cが参加する場合の時刻t1での状態を説明する図である。
【図34】図34は、二人の視聴者A、Bの会話に、視聴者Cが参加する場合の時刻t3での状態を説明する図である。
【図35】図35は注視情報の取得の処理のフローチャートである。
【図36】図36は、コンテンツ画像の投影位置を変更する前の状態である。
【図37】図37は、視聴者の進行方向に対して左右方向に投影位置を変更した状態である。
【図38】図38は、図36から図37にコンテンツ画像の投影位置を変更後、一定時間Tより小さい適当な時間tが経過した時の状態である。
【図39】図39は、図36から図37にコンテンツ画像の投影位置を変更後、一定時間Tより小さい適当な時間tが経過した時の状態の他の例である。
【図40】図40は図36のコンテンツ画像の投影位置を視聴者から離れる位置に変更した状態である。
【図41】図41は、図36から図40のように投影位置を変更し、一定時間Tより小さい適当な時間tが経過した時の状態である。
【図42】図42は、図36から図40のように投影位置を変更し、一定時間Tより小さい適当な時間tが経過した時の他の状態である。
【図43】図43は、人物がコンテンツ画像を注視しているか否かを判定する処理のフローチャートである。
【図44】図44は、提示するコンテンツ画像を決定する処理のフローチャートである。
【図45】図45は、コンテンツ画像のカテゴリ毎の注視率の算出処理のフローチャートである。
【図46】図46はコンテンツ画像の注視率を算出する処理のフローチャートである。
【図47】図47は絵のみのコンテンツ画像の例である。
【図48】図48は文字のみのコンテンツ画像の例である。
【図49】図49は絵と文字を組み合わせたコンテンツ画像の例である。
【図50】図50は絵と文字を組み合わせたコンテンツ画像の第二の例である。
【図51】図51は、コンテンツ画像の投影例である。
【図52】図52は、本実施例のコンテンツ決定装置10のハードウェア構成の例である。
【発明を実施するための形態】
【0010】
本発明の実施の一形態について、図面を参照して説明する。
【0011】
[コンテンツ決定装置10]
図1は、本実施例のコンテンツ決定装置10の機能ブロック図である。
【0012】
本実施例のコンテンツ決定装置10は、予め提示優先度が付与されている複数の広告などのコンテンツ画像を表示する。コンテンツ決定装置10は、各個人または各個人の組み合わせによって構成されるグループの属性に応じて、コンテンツ画像の種類、再生時間の長さ、大きさ、情報量を決定する。この結果、コンテンツ決定装置は、複数の人物に対して適当なコンテンツ画像を提供することが可能になる。
【0013】
以下、「人物」は、撮影部11で撮影された画像に含まれる人間を示す。人物は、撮影範囲内で静止、あるいはそれぞれの速度で歩いたりするものとする。
【0014】
以下、「画像」は、静止画像、動画像の総称であり、撮影部11が取得する画像を示す。以下、「コンテンツ画像」は、人物に対して表示する広告などの静止画像あるいは動画像であり、コンテンツ画像表示部16が出力する画像を示す。本実施例において、コンテンツ画像はグループの進行方向の床面に投影される。
【0015】
以下のデータに含まれる情報は、文字列であってもよいし、数値であってもよい。数値を使用する場合、管理者は、分類した状態と数値とを関連付けるテーブルを定義しておく。
【0016】
撮影部11は画像を撮影する。撮影部11は人物の頭上から足元に向かって撮影できる場所に配置される。撮影部11は、例えば、天井に設置され、床面方向を撮影する。
【0017】
画像記憶部21は撮影部11が撮影した画像を記憶する。
【0018】
なお、コンテンツ決定装置10は、人物の顔を撮影できる位置に第二の撮影部22を設置する場合もある。
【0019】
コンテンツ画像記憶部20は、コンテンツ画像のライブラリである。図2はコンテンツ画像のライブラリ92の構成である。ライブラリ92はコンテンツ画像の表示サイズや文字の多さなどの特徴を示す情報を含む。なお、コンテンツ画像を投影画像という場合もある。
【0020】
コンテンツ画像管理情報記憶部19は、コンテンツ画像管理情報95を記憶する。図3は、コンテンツ画像管理情報95の構成例である。コンテンツ画像管理情報95は、コンテンツ画像の種類を特定する画像の種類の情報、ライブラリ92のコンテンツ画像を特定する情報、コンテンツ画像の配信の優先度を定めた画像配信優先度、コンテンツ画像のカテゴリを含む。画像配信優先度はコンテンツ画像を提示する日時情報やコンテンツ画像を提示する対象のグループの属性情報に関連するように設定されている。例えば画像の種類が「I1234」のコンテンツ画像が冬に売りたい商品であるとする。画像配信優先度は冬のときに大きく、他の季節のときに小さく設定しておく。図3の例では、このとき、「I1234」のコンテンツ画像の画像配信優先度は冬の場合に「10」、他の季節の場合「0」と設定される。管理者は画像配信優先度を予め設定する。
【0021】
動作状態取得部13(算出手段)は画像内に写る人物の位置を検出し、検出した人物の移動速度を算出する。また、動作状態取得部13は、取得した人物の動作状態を動作状態情報93として属性情報保持部18に格納する。
【0022】
図4は動作状態情報93の構成例である。動作状態情報93は、視聴者ID、位置座標、速度ベクトル、加速度ベクトル、予測位置座標、顔の方向、視線方向を含む。視聴者IDは、最新の画像内に写る人物を識別するための情報である。人物の視聴者IDは、動作状態情報93および、以降に説明する属性情報99、注視履歴情報97などの視聴者IDにおいて共通する。位置座標は視聴者の画像内の位置を特定する情報である。速度ベクトルは視聴者の移動方向と、移動方向へ進む速さを含む情報である。加速度ベクトルは視聴者の加速方向と、加速方向への加速度の大きさを含む情報である。予測位置座標は、当該視聴者が将来の画像で位置すると予測される位置の情報である。顔の方向および視線方向は、当該視聴者の顔の方向および視線方向示す情報である。
【0023】
属性情報取得部14(関連付手段、取得手段)は、動作状態取得部13で検出した人物を画像に写る外見で分類した属性情報99を特定する。属性情報は、例えば、人物の外見の性別、服装、年齢(子供、大人)などから特定される。属性情報99は人物毎に人物の属性を記憶する。
【0024】
図5は属性情報99の構成例である。属性情報99の視聴者IDは、画面に映る人物を識別する識別情報である。属性情報99のグループ情報は視聴者IDの人物が属するグループを識別する識別情報である。属性情報99の個人属性は、人物の外見から分類された情報である。属性情報99の性別は人物の外見から分類された性別あるいはRFIDから取得された性別を示す情報である。属性情報99の年代は人物の外見から分類された年代あるいはRFIDから取得された年代を示す情報である。属性情報99の服装は人物の外見から分類された服装を示す情報である。属性情報99の動作状態は、人物の動作の状態を示す情報である。属性情報99の日時は、属性情報を更新あるいは登録した日時の情報である。
【0025】
属性情報保持部18は、属性情報取得部14で取得した属性情報99を格納する。
【0026】
属性情報取得部14は、動作状態取得部13で検出した人物の動作状態からグループを特定する。属性情報取得部14は、特定したグループを構成する人物の属性情報の組み合わせからグループの属性を特定する。属性情報取得部14は、特定したグループの属性としてグループ属性情報98を属性情報保持部18に格納する。
【0027】
図6はグループ属性情報98の構成例である。グループ属性情報98はグループを識別するグループID、グループの属性を示すグループ属性、グループを特定した日時を含む。グループ属性情報98はグループ毎にグループの属性を記憶する。
【0028】
注視情報計測部12は注視情報を算出する。注視情報は、コンテンツ画像を人物に表示した際に、当該人物がコンテンツ画像を注視したか否かを示す情報である。注視情報計測部12は算出した注視情報の履歴を注視履歴情報97として、注視履歴保持部17に格納する。
【0029】
図7は注視履歴情報97の構成例である。注視履歴情報97は、履歴ID、視聴者ID、グループID、グループ属性、個人属性、性別、年代、服装、動作状態、日付、カテゴリ、提示画像、画像情報、注視率などを含む。履歴IDは、レコードを識別する情報である。視聴者IDは、画像内の人物を特定する情報である。なお、コンテンツ提示装置の処理範囲外に出た人物が再度コンテンツ提示装置の処理範囲に入ってきた場合、本実施例では、新規の人物として扱う。しかし、例えばRFIDなどにより、人物を特定できる情報がある場合、コンテンツ提示装置は当該人物を同一人物として扱うことも可能である。グループIDは、グループを識別する情報である。
【0030】
属性情報99、グループ属性情報98と同じ情報である。個人属性、性別、年代、服装、動作状態、日付は、属性情報99、グループ属性情報98と同じ情報である。カテゴリはニュース、行楽地情報、シューズ、音楽などコンテンツ画像のコンテンツ画像のカテゴリである。管理者はコンテンツ画像のカテゴリを予め登録する。提示画像はコンテンツ画像を識別する情報である。画像情報は提示したコンテンツ画像の特徴である。たとえば、コンテンツ画像のサイズ、再生時間、情報量などである。コンテンツ提示装置は、同じ商品を紹介する複数のコンテンツ提示装置を有することが可能である。この結果、コンテンツ提示装置は、グループの移動速度、グループの属性によって、表示するコンテンツ画像を切り替えることが可能になる。例えば、コンテンツ提示装置は、グループの移動速度が速い場合、同じ商品を紹介する場合に、文字よりも絵が多いコンテンツ画像を提示する。また、コンテンツ提示装置は、グループに子供が含まれる場合、同じ商品を紹介する場合に、文字よりも絵が多いコンテンツ画像を提示する。注視率は、コンテンツ画像が人物によって注視されている割合を、0から1までの実数で表した数値である。
【0031】
注視履歴保持部17は、注視情報と提示したコンテンツ画像の情報、日時情報、人物およびグループの属性情報、動作状態を含む注視履歴情報を記憶する。
【0032】
コンテンツ画像選択部15(決定手段)はグループに対して表示するコンテンツ画像を決定する。コンテンツ画像選択部15は、注視履歴保持部17の注視情報の履歴とコンテンツ画像管理情報記憶部19の配信優先度とから、人物あるいはグループに対して出力するコンテンツ画像のカテゴリを決定する。
【0033】
コンテンツ画像選択部15は決定したカテゴリに属するコンテンツ画像の内、グループの動作状態に基づいて提示するコンテンツ画像の再生時間の長さ、提示する画像の寸法、情報量を満たすコンテンツ画像を特定する。コンテンツ画像選択部15は、コンテンツ画像表示部16(投影部)を介して、表示の対象となるグループに特定したコンテンツ画像を表示する。
【0034】
[コンテンツ決定装置10の全体の動作]
次に、コンテンツ決定装置10の全体の動作について説明する。図8は、コンテンツ決定装置10の全体の動作フローチャートである。
【0035】
撮影部11は、コンテンツ画像を表示可能な領域を含む画像を撮影する(S01)。撮影部11は所定時間毎に撮影対象を撮影する。撮影部11は画像情報記憶部21に画像を記憶する。撮影部11は画像を動作状態取得部13に送信する。
【0036】
動作状態取得部13は、S01で撮影した画像内に人物を検出したか否かを判別する(S02)。
【0037】
S02で撮影した画像の投影領域内に人物を検出しなかった場合(S02:No)、動作状態取得部13は、S12の処理を終了するか否かの判定処理に移行する。一方、S02で人物を検出した場合(S02:Yes)、動作状態取得部13は、S02で検出した人物に対してすでにコンテンツ画像を提示中か否かを判別する(S03)。既にコンテンツ画像を提示中の場合(S03:Yes)、注視情報計測部12は、各人物が提示しているコンテンツ画像を注視の状態を計測する(S05)。注視情報の計測については後述する。
【0038】
次に、属性情報取得部14は、一つのグループを構成する人物が別れたか否かを判別する(S13)。属性情報取得部14は、複数の人物のそれぞれの速度ベクトルおよび複数の人物間の距離等に応じて、複数の人物を一つのグループに関連付ける。グループが複数のグループに別れた場合(S13:Yes)、動作状態取得部13は、別れたグループのそれぞれにコンテンツ画像を提示する(S14)。一方、グループが別れていない場合(S13:No)、動作状態取得部13は、S12の処理に移行する。
【0039】
一方、コンテンツ画像を提示していない場合(S03:No)、動作状態取得部13は、S04で算出した人物の移動速度が所定の移動速度以下か否かを判定する(S06)。移動速度が所定の移動速度以下ではない場合(S06:No)、コンテンツ画像を提示せずにS12に移行する。対象の人物は急いでいると推測でき、該人物はコンテンツ画像を提示しても注視しない可能性が高いためである。
【0040】
一方、移動速度が所定の移動速度以下の場合(S06:Yes)、属性情報取得部14は画像上の人物の位置、移動方向、および移動速度からグループの関連付けを行う(S07)。グループの関連付け処理については後述する。
【0041】
属性情報取得部14は、各グループの属性情報を取得する(S08)。属性情報取得部14は、画像内の人物画像について画像処理してすることで個人の属性を特定する。その後、属性情報取得部14は、特定した各人物の属性から該グループの属性を決定する。
【0042】
コンテンツ画像選択部15は、注視履歴情報の注視率とコンテンツ画像管理情報の管理者が予め設定した配信優先度とから、各コンテンツ画像を提示する優先度を決定する(S09)。優先度の算出方法の詳細は後述する。コンテンツ画像選択部15は、優先度に応じて提示するコンテンツ画像を決定する。コンテンツ画像選択部15は、グループの属性情報と記憶部に記憶されたコンテンツ画像の属性情報との対応関係に基づき、投影するコンテンツ画像を決定する
コンテンツ画像選択部15は、S04で算出した人物の移動速度およびS08で特定したグループの属性に応じて、提示するコンテンツ画像の再生時間の長さ、提示する画像サイズ、情報量を決定する(S10)。コンテンツ提示装置は、一つのコンテンツに対して、再生時間の長さ、提示する画像サイズ、情報量の異なる複数のコンテンツ画像を記憶可能である。同一のコンテンツに対して複数のコンテンツ画像を有する場合、コンテンツ提示装置は、最適なコンテンツ画像を選択する。コンテンツ画像の決定方法については後述する。
【0043】
コンテンツ画像表示部16はS10で決定したコンテンツ画像を提示する(S11)。
【0044】
コンテンツ決定装置10は、コンテンツ画像の表示処理を終了するか否かを判別する(S12)。コンテンツ画像の表示処理を終了する場合(S12:Yes)、コンテンツ決定装置10はコンテンツ画像の表示処理を終了する。一方、コンテンツ画像の表示処理を終了しない場合(S12:No)、コンテンツ決定装置10は、S01からの処理を再度実行する。
[移動速度の算出方法]
次に、図8のS02乃至S04の撮影部11が撮影した画像上の人物の検出処理、および検出した人物の位置、移動方向、移動速度の算出処理について説明する。人物の位置、移動速度の算出は、背景差分法や、物体の移動方向を示すオプティカルフローを用いる方法などがある。本実施例では背景差分法を用いた実施の例を示す。
【0045】
背景差分法とは、検出対象が含まれていない背景画像を予め撮影しておき、背景画像と別途同一条件で撮影した入力画像との差分から、検出対象を検出する処理である。
【0046】
図9乃至図11は背景差分法による人の抽出処理を説明する図である。図9は撮影部11が撮影した背景画像300である。撮影部11は、背景画像として例えば、予め静止画像を撮影する。背景画像300の座標系はfa(x,y)とする。図10は撮影部11が撮影した入力画像310である。撮影部11は、入力画像として例えば所定の時間間隔で静止画像を撮影する、あるいは動画像を撮影する。入力画像310の座標系はfb(x,y)である。311、312、313は画像に写る人物である。図11は、図10と図9の差分から得られる差分画像320である。差分画像320の座標系はF(x,y)である。動作状態取得部13は背景画像300と入力画像310との特徴の差分から、例えば以下の数式1によって、差分画像320を特定する。
【0047】
【数1】

【0048】
動作状態取得部13は、例えば、人間とは推定できないような小さな領域をノイズであると判定することにより、差分画像320についてノイズ除去処理を実行する。また、動作状態取得部13は、例えば、過去に検出した人物の領域情報をメモリ52に格納しておき、過去の人物の領域情報とノイズ除去後の差分画像320とを比較して、差分画像320に存在する領域が人物か人物以外の物体かを判別することも可能である。
【0049】
なお、人物に提示するコンテンツ画像も差分画像に検出される。このため、差分画像はコンテンツ画像の存在する領域も含む。そこで、動作状態取得部13は、例えば、以下の処理を実行することで、差分画像からコンテンツ画像の提示領域を除去する。動作状態取得部13は、直前のコンテンツ画像表示時におけるコンテンツ画像表示領域内のコンテンツ画像提示領域の重心の座標を記憶しておく。動作状態取得部13は、差分画像上に存在する領域を抽出する。動作状態取得部13は、抽出した各領域の重心座標を特定する。動作状態取得部13は、記憶していた直前のコンテンツ画像提示領域の重心座標に合致する領域の重心座標を特定する。動作状態取得部13は、特定した重心座標をコンテンツ画像提示領域であると判定する。
【0050】
動作状態取得部13は、ノイズ除去後に差分画像上の独立した領域に、人物が存在すると推定する。動作状態取得部13は、独立した領域の重心座標を人物の差分画像上での位置とする。さらに、動作状態取得部13は、差分画像の座標系から、コンテンツ画像表示部16が投影するコンテンツ画像の座標系に座標系を変換する。
【0051】
動作状態取得部13は、差分画像の座標系とコンテンツ画像表示部16が投影するコンテンツ画像の座標系とがずれている場合に、座標系の変換を、例えば以下の手順によって実行する。
【0052】
動作状態取得部13は、差分画像の座標系とコンテンツ画像の座標系のずれ量を予め計測し、格納しておく。動作状態取得部13は、事前に計測した座標のずれ量に基づき、差分画像320の各座標値をコンテンツ画像の座標値に変換することで差分画像の座標系からコンテンツ画像表示部16が投影するコンテンツ画像の座標系に座標系を変換する。例えば、図11の破線321はコンテンツ画像の座標系である。
【0053】
動作状態取得部13は、座標変換後の差分画像から人物の位置を取得する。また、動作状態取得部13は、例えば、異なるフレーム毎に取得した各差分画像の人物の位置の差分によって、人物の速度ベクトルを算出する。速度ベクトルは、移動速度と移動方向を含む情報である。
【0054】
動作状態取得部13は、人物を特定する手段が無い場合、過去の画像から抽出した人物と最新の画像から抽出した人物との関連付けを行う。撮影部11が動画像を撮像する場合、動作状態取得部13は、動画のフレーム間で人物を関連付ける。動作状態取得部13は、過去に取得した差分画像と現在取得した差分画像とを比較することで人の移動速度、加速度、移動方向を算出する。例えば、動作状態取得部13は、過去の画像上の位置座標と現在の画像上の位置座標が最も近い人物が同一であると判定することができる。また、動作状態取得部13は、過去の画像上の人物が現在の画像で存在すると予測される予測位置座標と現在の画像で存在する人物の位置座標とが最も近い人物を同一であると判定することができる。
【0055】
また、各人物の顔の方向や視線の方向などを取得して、動作状態情報93に記憶する。
【0056】
人物の顔の向きを動画像から取得し、視線を推測することにより、注視情報を取得する。この場合、人物の顔を撮影できる位置に第二の撮影部22を設置する。
【0057】
図12は、人物の顔および視線の方向を特定する処理のフローチャートである。
【0058】
動作状態取得部13は、画像を取得する(S71)。なお、画像の取得のタイミングは、コンテンツ画像を提示中に連続して取得してもよいし、コンテンツ画像を表示する時間内の任意の時間で離散的に取得してもよい。
【0059】
動作状態取得部13は、S71で取得した画像から人物の顔部分を検出する(S72)。
【0060】
動作状態取得部13は、S72で人物の顔を検出したか否かを判定する(S73)。動作状態取得部13は、例えば、S71で取得した画像に対して画像処理を実行し、画像の濃淡図、エッジ情報、色情報を抽出することで画像内に顔を検出したか否かを判定する。
【0061】
動作状態取得部13は、画像内に顔を検出しなかった場合(S73:No)、再度画像を取得するS71の処理を実行する。一方、動作状態取得部13は、画像内に顔を検出した場合(S73:Yes)、画像内の人物の顔の方向を抽出する(S74)。
【0062】
動作状態取得部13は画像内の人物の顔を特定する(S75)。人物の顔は、中央に凸形状で鼻が位置する。そこで、画像内の顔部分の鼻の位置と、肌色領域の重心の情報を基に画像内の人物の顔の向きを推定する。動作状態取得部13は画像内の人物の視線の方向を特定する(S76)。動作状態取得部13は特定した、人物の顔の方向および視線の方向を動作状態情報93に記憶する(S76)。
[グループの関連付け処理]
次に、S07のグループの関連付け処理について説明する。本実施例のグループは、なんらかの関係を有する複数の人物の集合体を示す。属性情報取得部14は差分画像から得られた各人物のグループを判別し、グループ情報を特定する。グループ情報は、グループに含まれる複数の人物の特定情報を含む。属性情報取得部14は、あらかじめ設定した各人物がグループか否かを判断する基準(ルール)を満たすか否かによって、複数の人物間の関係の有無を判別する。
【0063】
図13は、グループの関連付けの処理のフローチャートである。属性情報取得部14は、所定の時間範囲内の人物の動作状態からグループの判定処理を実行する。所定の時間範囲内は、任意の時刻t1から時刻t3までの時間である。属性情報取得部14は、コンテンツ画像が終了する度、あるいは画像取得範囲内に人物が新たに入ってきた場合などにグループの判定処理を実行する。なお、本実施例において、ルールは複数の人物間の位置、速度、方向、顔の向きの関係から定義される。
【0064】
属性情報取得部14は、画像内の特定した任意の人物(第一の人物)を特定する(S81)。
【0065】
本実施例では、属性情報取得部14は、画像内の全員についてグループの条件を満たすか否かの処理を実行する。よって、第一の人物として画像内の全員を選択する。なお、属性情報取得部14による重複する判定処理を実行しないとすることは適宜選択可能である。
【0066】
属性情報取得部14は、画像内の特定した任意の人物(第二の人物)を特定する(S82)。属性情報取得部14は、第一の人物に対して画像内の全ての人物についてグループの条件を満たすか否かの判定を行う。よって、S82で該当する第二の人物は複数存在する場合もある。
【0067】
属性情報取得部14は、第一の人物の比較対象となる第二の人物を検出する場合、画像内全体から第一の人物に関係するグループの候補を検索するのではなく、第一の人物の近傍に位置する人物を対象にするようにすることも可能である。第一の人物の近傍に位置する人物を対象にする場合、属性情報取得部14は第一の人物を中心として所定の範囲内に位置する人物を検出する。第二の人物が第一の人物の所定の範囲内に存在するか否かは、動作状態情報93に格納された両者の位置情報から距離を算出して、算出した距離が所定の距離内か否かによって判別する。
【0068】
次に、属性情報取得部14は、第一の人物のパラメータと第二の人物のパラメータとを比較する(S83)。パラメータは、動作状態情報93に格納されたデータである。属性情報取得部14は、動作状態情報93から第一の人物および第二の人物に該当するレコードの位置、速度、加速度、方向、顔の向き、視線の向き等のパラメータを読み出して比較する。
【0069】
属性情報取得部14は、特定した複数の人物間の関係の状態があらかじめ設定したルールを満たすか否かを判別する(S84)。ルールを満たさない場合(S84:No)、属性情報取得部14は、次の人物について処理する。画像内の全員について判定処理が終了するまで、S81からの処理を行う。
【0070】
一方、ルールを満たす場合(S84:Yes)、属性情報取得部14は第一の人物と第二の人物とがグループであると判定することにより、第一の人物と第二の人物とを関連づけてグループに登録する(S85)。具体的には、属性情報取得部14は、特定したグループにグループを識別するためのグループIDを付与する。グループIDが付与されたグループを、グループを特定した日時とともに、グループ属性情報98に登録する。
【0071】
なお、三人以上の人物間の関係のルールをあらかじめ定義することも可能である。また、本実施例では、最終的に他の人物とも関連付けされない人物を一人の人物のみで構成されるグループとする。
【0072】
以下、ルールについて説明する。まず、人物が移動中か否かを判別する。人物が移動中の場合、移動中の人物に対するグループ判定処理を行う。一方、人物が静止中の場合、静止中の人物に対するグループ判定処理を行う。
【0073】
まず、移動中の人物に対するグループ判定処理について説明する。
【0074】
図14、図16、図18は、移動中の視聴者の状態を説明する図である。図14は時刻t1、図16は時刻t2、図18は自国t3の状態を示すものとする。時刻は、t1からt2、t2からt3の順に経過するものとする。視聴者Aおよび視聴者Bの矢印はそれぞれの進行方向を示す。
【0075】
属性情報取得部14は、第一の人物(視聴者Aとする)を特定する。属性情報取得部14は、当該視聴者Aから任意の定数R以下の距離にいる人物から、特定の第二の人物(視聴者Bとする)を特定する。属性情報取得部14は、視聴者Aと視聴者Bとが以下の関係を満たすときに視聴者Aと視聴者Bとをグループとして関連付ける。
【0076】
本実施例の関係は例えば、以下の3つである。
【0077】
第一の条件は、視聴者Aと視聴者Bとがほぼ同じ方向に移動していることである。図14、図16、図18は、視聴者Aと視聴者Bとがほぼ同じ方向に移動している。属性情報取得部14は、時刻t1から時刻t3までの間、視聴者Aの速度ベクトルと視聴者Bの速度ベクトルがなす角度θが、あらかじめ決めた角度φ以下である場合に、第一の条件を満たしていると判定する。図15、図17、図19は、それぞれ、図14、図16、図18の視聴者Aの速度ベクトルと視聴者Bの速度ベクトルのなす角度θ1、θ2、θ3を示す。
【0078】
第二の条件は、視聴者Aと視聴者Bとが近くにいることである。属性情報取得部14は、時刻t1から時刻t3までの間、視聴者Aと視聴者Bの距離dがあらかじめ決めた距離D以下である場合に、第二の条件を満たしていると判定する。図14、図16、図18は、それぞれ、視聴者Aと視聴者Bの距離d1、d2、d3があらかじめ決めた距離D以下である。
【0079】
第三の条件は、視聴者Aが視聴者Bの方を見ている、あるいは、視聴者Bが視聴者Aの方を見ていることである。属性情報取得部14は、時刻t1から時刻t3までの間、視聴者Aの顔の方向と視聴者Aの位置から視聴者Bの位置を結ぶベクトルVABがなす角τがあらかじめ決めた角度ε以下であり、かつ、そのとき視聴者Aの速度ベクトルとベクトルVABがなす角λが、あらかじめ決めた角度Λ以上である場合に、第三の条件を満たしていると判定する。なお、視聴者Bが視聴者Aの方を見ている場合、上記の第三の条件は視聴者Aと視聴者Bとが入れ替わる。
【0080】
図14、図16、図18は、時刻t1、t2、t3のそれぞれの時刻における視聴者A,Bの状態を示す図である。視聴者A、Bは、時刻t1、t2、t3のいずれの時刻においても、第一の条件と、第二の条件を満たす。また、時刻t2、t3において、第三の条件を満たす。この場合、視聴者Aと視聴者Bをグループとして関連付ける。
【0081】
設計者は、第一の条件、第二の条件、第三の条件の全てを時刻t1から時刻t3までの間で満たす場合のみにグループとして判定するように条件を定義することも可能である。本実施例では、時刻t1から時刻t3までの間で、常に第一の条件と第二の条件を満たし、第三の条件を満たす状態を検出すると、当該視聴者A,Bをグループとして関連付ける。
【0082】
図20は、視聴者Bの顔の方向ベクトルと視聴者Bの位置から視聴者Aの位置を結ぶベクトルVBAとは角τをなすことを示す。また、図20は、視聴者Bの顔の方向ベクトルを中心として角度εの範囲を示す。図20では、視聴者Bの顔の方向ベクトルと視聴者Bの位置から視聴者Aの位置を結ぶベクトルVBAとのなす角τは、視聴者Bの顔の方向ベクトルを中心とする角度εの範囲内である。図21は、視聴者Bの顔の方向ベクトルと視聴者Bの速度ベクトルとが角λをなしており、当該角λは、あらかじめ決めた角度Λ以上である状態であることを示す。 図20と図21とから、視聴者Aと視聴者Bとは第三の条件を満たす。
【0083】
図22はルールを満たさない視聴者Aと視聴者Bの関係での位置を示す例である。図23は、図22の例での視聴者Aと視聴者Bの速度ベクトルを示す図である。図22では、視聴者Aと視聴者Bとの距離d4は、あらかじめ決めた距離Dより大きい。また、図23で示すように、図22の視聴者Aと視聴者Bとは、ほぼ同じ方向に移動している。図22の場合、属性情報取得部14は、視聴者Aと視聴者Bをグループとして関連付けない。
【0084】
図24はルールを満たさない視聴者Aと視聴者Bの関係での位置を示す第二の例である。図25は、図24の例での視聴者Aと視聴者Bの速度ベクトルを示す図である。図24では、視聴者Aと視聴者Bとの距離d5は、あらかじめ決めた距離Dより小さい。しかし、図25で示すように、図24の視聴者Aの速度ベクトルと視聴者Bの速度ベクトルがなす角度θ5は、あらかじめ決めた角度φ以上である。よって、図24の場合、属性情報取得部14は、視聴者Aと視聴者Bをグループとして関連付けない。
【0085】
なお、3人以上の人物に関しても、あらかじめルールを定義することで、属性情報取得部14は、1つのグループとして関連付けるか否かを判定することが可能である。なお、本実施例では、顔の方向も検出して、条件としてあげているが、人物の移動方向と位置のみでグループか否かを判断することも可能である。
【0086】
図26は、グループとして関連付ける場合の人物の動作状態の組合せの例である。図26において、人Aと人Bとが予め定めた一定の距離以内であり、かつ人Aと人Bの移動方向がほぼ一致するとする。この場合、属性情報取得部14は、人Aと人Bとをグループとして関連付ける。
【0087】
図27はグループとして関連付けない場合の人物の動作状態の組合せの例である。図27において、人Aと人Bとは予め定めた一定の距離以内であるが、人Aと人Bの移動方向および速度の大きさは一致しない。この場合、属性情報取得部14は、人Aと人Bとをグループとして関連付けない。
【0088】
図28はグループとして関連付けない場合の人物の動作状態の組合せの例である。図28において、人Aと人Bの移動方向は一致するが、人Aと人Bとは予め定めた一定の距離以内にいない。この場合、属性情報取得部14は、人Aと人Bとをグループとして関連付けない。
【0089】
図29は、グループとして関連付ける場合の人物の動作状態の組合せの例である。図29において、人Aと人B、人Bと人C、人Cと人D間は、それぞれ予め定めた一定の距離以内であるとする。また、人A、人B、人C、および人Dの移動方向および速度の大きさはほぼ一致するものとする。この場合、属性情報取得部14は、人A、人B、人C、および人Dをグループとして関連付ける。図29のように、3人以上の人物が、グループの誰かと指定の一定の距離以内に常におり、かつ速度ベクトルの方向がほぼ一致している場合は全員を1つのグループとして関連付ける。
【0090】
次に、S84のルールを満たすか否かの判定処理における、静止中の人物に対するグループ判定処理について説明する。静止状態の人物については、複数の人物が会話状態であるのか、複数の人物が別方向から一箇所に集合する状態であるのかなどでグループか否かを判別することができる。
【0091】
まず、複数の視聴者が会話状態の場合のグループの関連付け判別の処理を説明する。時刻t1からt3までにおいて、属性情報取得部14は、画像内の視聴者Aを特定する。次に、属性情報取得部14は、視聴者Aから定数R以下の距離にいる視聴者Bを特定する。
【0092】
属性情報取得部14は、以下の条件を満たす場合に。視聴者Aと視聴者Bとをグループとして関連付ける。第一の条件は、時刻t1からt3までの任意のタイミングで、視聴者Aと視聴者Bとがともに静止状態であることである。例えば、属性情報取得部14は、視聴者Aと視聴者Bとがともに速度0であること場合に、第一の条件を満たすと判定する。
【0093】
第二の条件は、時刻t1からt3までの任意のタイミングで、視聴者Aの顔の方向と視聴者Aの位置から視聴者Bの位置を結ぶベクトルVABがなす角τがあらかじめ決めた角度ε以下であることである。なお、第二の条件は、視聴者Aと視聴者Bとが入れ替わってもよい。
【0094】
図30は、複数の視聴者が会話状態の場合の例である。図30において、視聴者Aと視聴者Bとはともに静止状態であるとし、第一の条件を満たす。図30において、視聴者Aの顔および視聴者Bの顔は、それぞれ破線で示す方向を向いているものとする。視聴者Aの顔の方向は、視聴者Aと視聴者Bとを結ぶベクトルVABに対して角τaをなす。視聴者Bの顔の方向は、視聴者Bと視聴者Aとを結ぶベクトルVBAに対して角τbをなす。角τaと角τbはあらかじめ決めた角度ε以下である。よって、視聴者Aと視聴者Bはともに互いの方向を見ていると判断でき、視聴者Aと視聴者Bは第二の条件を満たす。
【0095】
次に、複数の人物が別方向から一箇所に集合する場合のグループの関連付け判別の処理を説明する。図31は複数の人物が別方向から一箇所に集合する場合の時刻t1での例である。図32は複数の人物が別方向から一箇所に集合する場合の時刻t3での例である。
【0096】
属性情報取得部14は、時刻t1からt3までにおいて、画像内の視聴者Aを特定する。次に、属性情報取得部14は、画像内の視聴者Bを特定する。
【0097】
属性情報取得部14は、以下の条件を満たす場合に、視聴者Aと視聴者Bとをグループとして関連付ける。第一の条件は、時刻t1において視聴者Aと視聴者Bが別々の地点から一箇所に集まる方向に移動しており、時刻t3では静止していることである。時刻t3において視聴者Aと視聴者Bがともに静止しているか否かは、例えば、属性情報取得部14が時刻t3において視聴者Aと視聴者Bがともに速度0であることを特定することにより判別する。時刻t1において視聴者Aと視聴者Bが別々の地点から一箇所に集まる方向に移動しているか否かは例えば、以下の手順で検出する。
【0098】
属性情報取得部14は時刻t3において視聴者Aと視聴者Bが集まっている位置を特定する。属性情報取得部14は、時刻t1での視聴者Aの位置と時刻t3において視聴者Aと視聴者Bが集まっている位置とを結ぶベクトルを特定する。属性情報取得部14は、特定したベクトルの方向と時刻t1での視聴者Aの移動方向が合致するか否かを判定する。
【0099】
また、属性情報取得部14は、時刻t1での視聴者Bの位置と時刻t3において視聴者Bと視聴者Aが集まっている位置とを結ぶベクトルを特定する。属性情報取得部14は、特定したベクトルの方向と時刻t1での視聴者Bの移動方向が合致するか否かを判定する。
【0100】
第二の条件は、時刻t3での静止した状態の視聴者Aと視聴者Bの距離dがあらかじめ決めた距離D以下であることである。図32において、Dは所定の距離、εは所定の角度、dは視聴者Aと視聴者B間の距離、VABは視聴者Aから視聴者Bへの方向、VBAは視聴者Bから視聴者Aへの方向、破線は視聴者Aおよび視聴者Bの顔の方向、τaはVABの方向と視聴者Aの顔の方向のなす角、τbはVBAの方向と視聴者Bの顔の方向のなす角である。視聴者Aと視聴者Bの距離dはあらかじめ決めた距離D以下である。この場合、属性情報取得部14は、第二の条件を満たすと判定する。任意のタイミングで、視聴者Aの顔の方向と視聴者Aの位置から視聴者Bの位置を結ぶベクトルVABがなす角τがあらかじめ決めた角度ε以下であることである。なお、第二の条件は、視聴者Aと視聴者Bとが入れ替わってもよい。
【0101】
第三の条件は、時刻t3において視聴者Aの顔の方向と視聴者Aの位置から視聴者Bの位置を結ぶベクトルVABがなす角τaがあらかじめ決めた角度ε以下であることである。
【0102】
図32において、視聴者Aの顔の方向と視聴者Aの位置から視聴者Bの位置を結ぶベクトルVABがなす角τaがあらかじめ決めた角度ε以下である。この場合、属性情報取得部14は、第三の条件を満たすと判定する。
【0103】
第四の条件は、時刻t3において視聴者Bの顔の方向と視聴者Bの位置から視聴者Aの位置を結ぶベクトルVBAがなす角τbがあらかじめ決めた角度ε以下であることである。
【0104】
図32において、視聴者Bの顔の方向と視聴者Bの位置から視聴者Aの位置を結ぶベクトルVBAがなす角τbがあらかじめ決めた角度ε以下である。この場合、属性情報取得部14は、第四の条件を満たすと判定する。
【0105】
なお、3人以上の場合においてもあらかじめルールを定義しておき、三人以上の人物を1つのグループとして関連付けることも可能である。
【0106】
3人以上の場合のグループについて説明する。例えば、二人の視聴者A、Bの会話に、視聴者Cが参加する場合、視聴者A,B,Cをグループとして扱う。
【0107】
図33、二人の視聴者A、Bの会話に、視聴者Cが参加する場合の時刻t1での状態を説明する図である。図34は、二人の視聴者A、Bの会話に、視聴者Cが参加する場合の時刻t3での状態を説明する図である。なお図33の時点で、視聴者Aと視聴者Bとはグループとして関連付けられているものとする。
【0108】
属性情報取得部14は、視聴者Aから任意の定数R以下の距離に近づいてくる視聴者Cが以下の条件を満たすとき視聴者Cを視聴者Aと視聴者Bを含むグループに関連付ける。第一の条件は、時刻t3において視聴者Cが静止していることである。
【0109】
第二の条件は、時刻t3において静止した状態の視聴者Cとグループに属するいずれかの視聴者との距離dのうち最小の距離があらかじめ決めた距離D以下であることである。
【0110】
第三の条件は、時刻t3において、視聴者Cの顔の方向と視聴者Cの位置からグループXに属する何れかの視聴者の位置を結ぶベクトルがなす角τcのうち最小の値が、あらかじめ決めた角度ε以下であることである。図34において、視聴者Cの顔の方向と視聴者Cの位置からグループに属する視聴者Bの位置を結ぶベクトルνのなす角τは、あらかじめ決めた角度ε以下である。
【0111】
第四の条件は、時刻t3において、視聴者Cの顔の向きが、グループに属する視聴者同士を結ぶ線分lと交差することである。図34において、視聴者Cの顔の向きは、グループに属する視聴者A、視聴者Bを結ぶ線分lと交差する。
【0112】
なお、本実施例では、コンテンツ決定装置10は、グループか否かを判定する際、顔の方向を検出する。コンテンツ決定装置10は、過去の視聴者の移動方向から顔の方向を推定する構成でもよい。また、コンテンツ決定装置10は、顔の方向は条件とせず、人物の移動方向と位置のみでグループか否かを判断する構成でもよい。
【0113】
また、第一の人物と第二の人物の距離が、あらかじめ定めたグループと判別する距離の閾値に近い場合、当該閾値を超える距離あるいは超えない距離になることを繰り返す可能性がある。この場合、閾値を超えるあるいは超えないと検出する度に第一の人物と第二の人物とは、グループ/否グループとして判定される可能性がある。そうすると、表示するコンテンツ画面が、グループ/否グループとして判定される度に切り替わる可能性がある。そこで、属性情報取得部14は一旦グループとして判定した場合、一定時間グループとしての条件を満足しない場合でもひとつのグループとして扱う。同様に、一旦、否グループとして判定した場合、一定時間グループとしての条件を満足する場合でも別のグループとして扱う。一定時間とは、たとえば、ひとつのコンテンツ画像の表示時間としてもよい。
【0114】
[属性情報の取得処理]
次に、S08の属性情報99の取得処理について説明する。画像内に新たな人物を検出した場合、属性情報取得部14は属性情報99に新たに検出した人物のレコードを登録する。属性情報取得部14は、属性情報99にレコードを登録するため、新たに検出した人物に視聴者IDを付与する。属性情報取得部14は、視聴者IDが付与された人物の属性を取得し、属性情報99に登録する処理を実行する。なお、動作状態の変更があると、属性情報取得部14は属性情報99の一部の情報を更新する。
【0115】
画像処理による属性情報99の取得方法の一例を、以下に説明する。
【0116】
属性情報取得部14は、例えば、視聴者の身長を取得する場合、斜め上方から撮影部11が撮影する範囲を撮影できる第二の撮影部22を設置する。第二の撮影部22の設置位置は、撮影部11が撮影する範囲の人物を横方向から撮影できる位置に設置してもよい。属性情報取得部14は、撮影部11が撮影した画像上の人物と第二の撮影部22が撮影した画像上の人物とを幾何学演算により関連付けることが可能であるとする。例えば、属性情報取得部14は当該第二の撮影部22が撮影した画像上の人物の衣服の形状、色などの情報と、あらかじめ記憶した衣服の形状や色の情報から服装を推定する。服装は、「スーツ」、「カジュアル」、「派手」などであり、事前に管理者が衣服の形状や色の情報毎に分類して記憶しておく。また、属性情報取得部14は服装や髪型、人物の身長などから人物の性別、年代を推定する。同様に服装、身長、性別などから、人物の個人属性を推定する。これらの推定は、管理者が外見の情報を分類した情報を予め定義しておき、属性情報取得部14は、第二の撮影部22が撮影した画像上の人物の外見が当該分類に合致するか否かを判定する。合致する場合、属性情報取得部14は、人物は当該分類に属すると推定する。
【0117】
また、属性情報取得部14は、視聴者の身長を取得する場合、斜め上方から撮影部11が撮影する範囲を撮影できる第二の撮影部22を設置してもよい。この場合、第二の撮影部22の設置位置は、撮影部11が撮影する範囲の人物を横方向から撮影できる位置に設置してもよい。第二の撮影部22の設置位置と検出された視聴者の位置および第二の撮影部22が撮影した画像内の人物の高さ方向の大きさから幾何計算により当該人物の身長を推定する。第二の撮影部22が撮影した動画像上の人物の位置と撮影部11が撮影した画像上の人物の位置との関係から、人物を特定する。属性情報取得部14は、撮影部11が撮影した画像上の人物と第二の撮影部22が撮影した画像上の人物とを幾何学演算により関連付ける。
【0118】
なお、「個人属性」、「性別」、「年代」、「服装」などが登録されたRFIDを予め各人物に所持させ、図示しないRFID読み取り機によってRFIDに記憶された情報を読み取ることで、属性情報取得部14が各人物の属性情報99を取得することも可能である。
【0119】
属性情報取得部14は、取得した属性情報99のレコードを属性情報保持部18に格納する。
【0120】
S08において、属性情報取得部14はグループ属性情報98のグループ属性の取得処理も実行する。属性情報取得部14は、S07のグループの関連付け処理によって得られたグループを構成する各人物の属性情報99から、予め決められた条件にしたがってグループの属性を特定する。条件は、グループを構成する各人物の属性情報や位置情報など組み合わせで構成される。例えば、管理者は、グループを構成する人物の年代が大人と子供である場合に「親子」、グループを構成する人物が女性と男性であり、常に所定の距離以下接近して移動している場合に「カップル」などの定義をしておく。
【0121】
属性情報取得部14は、グループを構成する人物の属性情報99を読み出す。属性情報取得部14は、予め定義した条件によって、読み出した各人物の年代が大人と子供である場合に「親子」であると判断する。また、属性情報取得部14は、グループを構成する人物が女性と男性であり、常に所定の距離以下接近して移動している場合に「カップル」であると判断する。なお、予め設定した組合せのパターン以外のグループ場合、属性情報取得部14は、グループ属性に不明として登録する。
【0122】
属性情報取得部14は、決定したグループ属性情報属性をグループIDに関連付けて属性情報保持部18に格納する。
【0123】
[注視情報の計測]
次に、人物がコンテンツ画像を注視しているかを判定する処理について説明する。コンテンツ提示装置は、注視情報を取得する。注視情報は、視聴者が画像を注視していたかどうかについての情報である。注視情報を取得する方法は、コンテンツ画像の投影位置の操作によって取得する方法や人物の視線を取得する方法、人物の顔の方向を検出する方法を用いて取得する方法がある。
【0124】
まず、コンテンツ画像の投影位置の操作によって注視情報を取得する方法を説明する。
【0125】
コンテンツ画像の投影位置の操作によって注視情報を取得する場合、コンテンツ決定装置10はコンテンツ画像の投影位置を本来の投影する位置から意図的にずらす。コンテンツ画像をずらした結果、人物の移動がコンテンツ画像に追従したか否かによって、コンテンツ決定装置10はコンテンツ画像を注視したか否かを判定する。この結果コンテンツ決定装置10は注視情報を取得する。なお、グループに対してコンテンツ画像を提示している場合、注視情報計測部12は、グループを構成する人物の一人ずつに対して注視情報を計測する。
【0126】
人物の動きを撮影した画像として撮影部11の画像を使用する。注視情報を取得するためのカメラを新たに設置する場合、使用するカメラは最低1台とする。カメラの設置位置は、プロジェクタの投影方向と同じ方向になるように設置する。カメラの撮影範囲は、全てのカメラの撮影範囲を合わせると画像を投影する領域を全て含むようにする。
【0127】
本方法で注視情報を取得する場合、人物の動きを撮影する第二の撮影部22が必要である。
【0128】
以下、注視情報の取得の処理を説明する。図35は注視情報の取得の処理のフローチャートである。注視情報計測部12は、一定時間Tの周期で注視情報の取得の処理を実行する。
【0129】
視聴者にコンテンツ画像を投影開始した後、注視情報計測部12は一定時間T待機する(S31)。システム管理者は一定時間Tをあらかじめ設定する。一定時間Tが短いほどより正確に注視情報を取得することができる。
【0130】
一定時間Tの経過後、注視情報計測部12は画像の投影位置を操作する。注視情報計測部12は視聴者の進行方向からずらした位置にコンテンツ画像を投影する(S32)。
【0131】
ここで、投影位置の操作について説明する。コンテンツ決定装置は、コンテンツ画像を投影する位置を視聴者の動作から予測して決定する。以降、コンテンツ決定装置がコンテンツ画像を投影する位置を予測投影位置とする。通常、予測投影位置は視聴者の進行方向にある。視聴者の進行方向は視聴者の速度ベクトルの方向である。注視情報計測部12は予測投影位置から投影位置を変更する。
【0132】
注視情報計測部12は、視聴者に対して左右の方向に投影位置を変更する場合、視聴者の位置と変更されたコンテンツ画像の投影位置を結ぶ線が当該視聴者の速度ベクトルと90度以下の範囲になるように、投影位置を変更する。
【0133】
注視情報計測部12は、視聴者に対して前後の方向に投影位置を変更する場合、変更された投影位置と視聴者の距離が離れすぎないあるいは近づき過ぎない範囲になるように、投影位置を変更する。例えば、コンテンツ画像を視聴者から離す方向に投影位置を変更する場合、注視情報計測部12は予測投影位置と視聴者との距離の2倍以内に収める。あるいは、コンテンツ画像を視聴者に近づける方向に投影位置を変更する場合、注視情報計測部12は予測投影位置と視聴者との距離の0.5倍以上に収める。
【0134】
コンテンツ決定装置10は、コンテンツ画像の投影位置を左右に変更した場合、変更した時点の視聴者の位置から変更後のコンテンツ画像の投影位置の中心の位置への方向を視聴者の移動する方向として記憶する。以降の投影処理は、変更した視聴者の移動方向に基づき投影位置を決定する。また、コンテンツ決定装置10は、コンテンツ画像の投影位置を前後に変更した場合、変更した時点の視聴者の位置から変更後のコンテンツ画像の投影位置の中心の位置までの距離を視聴者の移動する速さとして記憶する。以降の投影処理は、変更した視聴者の速さに基づき投影位置を決定する。
【0135】
一定時間Tより小さい適当な時間tが経過した後、注視情報計測部12は注視の判定を行う。
【0136】
図36乃至図42は、コンテンツ画像の投影位置の変更と視聴者の追従の関係を説明する図である。図36は、コンテンツ画像の投影位置を変更する前の状態である。
図37は、視聴者の進行方向に対して左右方向に投影位置を変更した状態である。注視情報計測部12は、図36のコンテンツ画像の投影位置を図YY2の投影位置に変更する。図38は、図36から図37にコンテンツ画像の投影位置を変更後、一定時間Tより小さい適当な時間tが経過した時の状態である。なお、図38は、コンテンツ画像と視聴者との距離を投影位置の変更前の距離よりも大きくする変更も行っている。図38において、変更後の投影位置の移動方向と視聴者の移動方向とは同じである。
【0137】
また、図38において距離dがあらかじめ決められた距離より小さい。これは、注視情報計測部12がコンテンツ画像を意図的に遠くにしたにもかかわらず、視聴者が移動速さを大きくして、コンテンツ画像に追従していることを示す。この場合、視聴者の移動方向とコンテンツ画像の移動方向が同じであり、且つ、視聴者の移動速さとコンテンツ画像の移動速さとが同じであるため、注視情報計測部12は視聴者が画像を注視していると判断する。
【0138】
一方、図39は、図36から図37にコンテンツ画像の投影位置を変更後、一定時間Tより小さい適当な時間tが経過した時の状態の他の例である。図39では、変更後の投影位置の移動方向v1と、視聴者の速度方向v2が同じ方向を向いていない。この場合、注視情報計測部12は視聴者が画像を注視していないと判断する。
【0139】
また、図40乃至図42は視聴者の進行方向に沿ってに投影位置を変更する場合の例である。図40は図36のコンテンツ画像の投影位置を視聴者から離れる位置に変更した状態である。
【0140】
図41は、図36から図40のように投影位置を変更し、一定時間Tより小さい適当な時間tが経過した時の状態である。図41において、変更後の投影位置の移動方向と視聴者の速度方向が同じ方向は同じ方向を向いている。また、図41において、視聴者とコンテンツ画像間の距離dがあらかじめ決められた距離Dより小さい。この場合、注視情報計測部12は、視聴者が画像を注視していると判断する。
【0141】
図42は、図36から図40のように投影位置を変更し、一定時間Tより小さい適当な時間tが経過した時の他の状態である。図42において、変更後の投影位置の移動方向v1と視聴者の速度方向v2とは同じ方向である。しかし、図42において、視聴者とコンテンツ画像間の距離dはあらかじめ決められた距離Dより大きい。この場合、注視情報計測部12は、視聴者が画像を注視していないと判断する。
【0142】
例えば、カメラは、コンテンツ画像の投影位置を変更した後、投影範囲内を対象とする画像を撮影する。注視情報計測部12は、撮影した画像内の人物がコンテンツ画像を追従したか否かを判別する(S33)。
【0143】
注視情報計測部12は、コンテンツ画像の投影位置を視聴者の進行方向に対して左右に変更した場合、時間t経過後において、投影位置の変更後のコンテンツ画像の移動方向と視聴者の移動方向がほぼ同じである場合に、追従したと判定する。注視情報計測部12は、コンテンツ画像の移動方向ベクトルと視聴者の移動方向ベクトルのなす角が、所定一定の角度以下であるか否かで、方向が同じか否かを判別する。
【0144】
また、注視情報計測部12は、コンテンツ画像の投影位置を視聴者の進行方向に対して前後に変更した場合、時間t経過後において、投影位置と視聴者の位置との距離が、視聴者の速度に応じた所定の距離の範囲内にある場合に、追従したと判定する。
【0145】
撮影した画像内の人物がコンテンツ画像を追従した場合(S33:Yes)、注視情報計測部12は、人物がコンテンツ画像を注視していると判定する(S34)。一方、撮影した画像内の人物がコンテンツ画像を追従していない場合(S33:No)、注視情報計測部12は、人物がコンテンツ画像を注視していないと判定する(S35)。
【0146】
次に、注視情報計測部12は、コンテンツ画像の提示が終了したか否かを判定する(S36)。コンテンツ画像は例えば、15秒、30秒などのように、それぞれのコンテンツ画像毎に提示時間がある。注視情報計測部12は、コンテンツ画像の提示が終了していない場合(S36:No)、コンテンツ画像が終了するまで一定時間T間隔で注視しているか否かを判別する。
【0147】
注視情報計測部12は、コンテンツ画像の提示が終了した場合(S36:Yes)、注視情報を集計する(S37)。注視情報計測部12は、注視情報の集計結果として注視率を算出する。注視率は、コンテンツ画像が人物によって注視されている割合を、0から1までの実数で表した数値である。注視情報計測部12は、例えば以下の数式によって注視率を算出する。注視情報計測部12は、注視していた時間を計測する場合、数式2により算出する。
【0148】
【数2】

【0149】
数式2の注視率は、コンテンツ画像の再生時間の総和に対する人物がコンテンツ画像を注視していた時間の割合である。時間で計測する場合、連続して測定する必要があるが正確に測定可能である。また、注視情報計測部12は、注視していた回数を計測する場合、数式3により算出する。
【0150】
【数3】

【0151】
数式3の注視率は、コンテンツ画像の再生時間中に計測を実施した回数の総和に対する人物がコンテンツ画像を注視していると判定された回数の割合である。回数で算出する場合、測定処理の負荷は低いが、注視したか否かの精度は低くなる。
【0152】
注視情報計測部12は、注視率と視聴者の属性情報と関連付けて注視履歴保持部に記憶する(S38)。
【0153】
次に、人物の顔検出を用いて注視情報を取得する方法を説明する。
【0154】
人物の顔の向きを動画像から取得し、視線を推測することにより、注視情報を取得する。例えば、人物の顔を撮影できる位置にカメラを設置する。
【0155】
図43は、人物がコンテンツ画像を注視しているか否かを判定する処理のフローチャートである。
【0156】
注視情報計測部12は、カメラから画像を取得する(S41)。なお、画像の取得のタイミングは、コンテンツ画像を提示中に連続して取得してもよいし、コンテンツ画像を表示する時間内の任意の時間で離散的に取得してもよい。
【0157】
注視情報計測部12は、S41で取得した画像から人物の顔部分を検出する(S42)。
【0158】
注視情報計測部12は、S42で人物の顔を検出したか否かを判定する(S43)。注視情報計測部12は、例えば、S41で取得した画像に対して画像処理を実行し、画像の濃淡図、エッジ情報、色情報を抽出することで画像内に顔を検出したか否かを判定する。
【0159】
注視情報計測部12は、画像内に顔を検出しなかった場合(S43:No)、再度画像を取得するS41の処理を実行する。一方、注視情報計測部12は、画像内に顔を検出した場合(S43:Yes)、画像内の人物の顔の方向を抽出する(S44)。
【0160】
カメラは画像内の人物の顔を特定する。人物の顔は、中央に凸形状で鼻が位置する。そこで、画像内の顔部分の鼻の位置と、肌色領域の重心の情報を基に画像内の人物の顔の向きを推定する。推定した顔の方向と、人物の投影領域内の水平位置、人物の顔部分の高さ位置とから幾何学計算により、当該人物の注視している位置を特定する。
【0161】
さらに、視線の方向を検出できる場合は、視線の方向も幾何学計算にくわえてもよい。注視情報計測部12は、例えば、顔の位置から目の位置と方向を検出し、視線方向を3次元的に検出することにより視線方向を抽出する。
【0162】
注視情報計測部12は、注視情報を取得する(S45)。具体的には、注視情報計測部12は、人物がコンテンツ画像を注視しているか否かの情報を取得する。注視情報計測部12は、例えば、人物の顔や視線の方向にコンテンツ画像が存在する場合、人物がコンテンツ画像を注視していると判定する。注視情報計測部12は、注視情報を一時的に記憶する。
【0163】
以上のS41からS45の処理をコンテンツ画像の終了まで実行する。
注視情報計測部12は、例えばひとつのコンテンツ画像の表示が終了した後、人物がどの程度終了したコンテンツ画像を見ていたかの注視率を算出する。注視情報計測部12は、S35で一時的に記憶した注視情報を読み出し、コンテンツ画像を注視した割合を算出する。
【0164】
なお、投影範囲内に複数のグループが存在し、それぞれのグループに対して別のコンテンツ画像が表示されている場合、(第一のグループ内の人物A)が、第二のグループに向けて提示しているコンテンツ画像を注視する可能性がある。このような場合、第二のグループに向けて提示しているコンテンツ画像の注視率のレコードとして、人物Aの注視率を記憶することも可能である。
【0165】
注視情報計測部12は、注視履歴情報97を注視履歴保持部17に記憶する(S46)。
【0166】
[提示するコンテンツ画像の決定]
次に、各グループ向けに提示するコンテンツ画像の決定処理について説明する。本実施例では、コンテンツ画像選択部15はコンテンツ画像が切り替わる毎にコンテンツ画像の決定処理を実行するものとする。コンテンツ画像選択部15はコンテンツ画像の提示の終了前に次のコンテンツ画像を決定してもよい。なお、本実施例では、コンテンツ画像選択部15はコンテンツ画像の決定処理をグループ単位で実行する。
【0167】
図44は、提示するコンテンツ画像を決定する処理のフローチャートである。
【0168】
まず、コンテンツ画像選択部15は、コンテンツ画像を提示するグループを特定する。次に、コンテンツ画像選択部15は、注視履歴情報97から現在の日時に近い日時情報、現在の処理対象のグループの属性に合致するグループ属性情報のレコードを検索する(S21)。なお、管理者は、検索項目の完全一致、部分一致などの条件をあらかじめ設定しておく。
【0169】
コンテンツ画像選択部15は、S21で検索されたそれぞれのコンテンツ画像について、カテゴリ毎のコンテンツ画像の注視率を算出する(S32)。
【0170】
図45は、コンテンツ画像のカテゴリ毎の注視率の算出処理のフローチャートである。本フローチャートでは、注視率を算出する処理の対象のカテゴリを「カテゴリA」とする。
【0171】
コンテンツ画像選択部15は、S21の検索結果に含まれるコンテンツ画像のうち、カテゴリAに含まれるコンテンツ画像に関する履歴の数が所定数以上あるか否かを判別する(S51)。
【0172】
所定数以上ある場合(S51:Yes)、コンテンツ画像選択部15は、検索結果からカテゴリAに属するコンテンツ画像の注視率の平均値を求める。コンテンツ画像選択部15は、求めた平均値を画像カテゴリAの注視率とする(S52)。
【0173】
例えば、コンテンツ画像選択部15はカテゴリAの注視率Gcを下記の数式で算出する。
【0174】
【数4】

【0175】
上式において、Gcは画像カテゴリの注視率である。giは各検索結果の各コンテンツ画像の履歴の注視率である。nは画像カテゴリAに含まれるコンテンツ画像の総数である。
【0176】
一方、カテゴリAに含まれるコンテンツ画像に関する履歴の数が所定数未満である場合(S51:No)、コンテンツ画像選択部15は、あらかじめ決めた値を注視率として用いる。あらかじめ決めた注視率は、カテゴリごとに管理者が設定しておいてもよいし、全てのカテゴリで一つの値を用いてもよい。
【0177】
また、コンテンツ画像選択部15は、直前までコンテンツ画像の提示を行っていたか否かを判別する(S54)。
【0178】
直前までコンテンツ画像の提示を行っていた場合(S54:Yes)、コンテンツ画像選択部15は、提示していたコンテンツ画像の注視情報から注視率を修正する(S55)。直前に提示していたコンテンツ画像と同じカテゴリに含まれる他のコンテンツ画像を表示することが、視聴者に対して効果的な場合も考えられるためである。例えば、視聴者が直前に提示したカテゴリAに属するコンテンツ画像を注視していた場合、コンテンツ画像選択部15はカテゴリAの注視率を1(最大値)にすることもできる。一方、視聴者が直前に提示したカテゴリAに属するコンテンツ画像を注視していなかった場合、コンテンツ画像選択部15はカテゴリAの注視率を低くすることもできる。また、移動していた視聴者が立ち止まった場合、コンテンツ画像選択部15は直前に提示していたコンテンツ画像に類似するカテゴリを選択することもできる。視聴者の移動速度が速くなった場合には、コンテンツ画像選択部15はカテゴリの注視率を低くすることもできる。コンテンツ画像選択部15はすべてのカテゴリについて注視率を算出する。
【0179】
次に、コンテンツ画像選択部15は提示するコンテンツ画像のカテゴリを決定する(S23)。例えば、コンテンツ画像選択部15は、S22で求めた注視率が最大であるカテゴリに、提示するコンテンツ画像のカテゴリを決定する。例えば、注視率が最も大きい画像カテゴリが複数ある場合、コンテンツ画像選択部15は、配信者が決めた配信優先が高い画像カテゴリを選択する。また、コンテンツ画像選択部15は、複数のカテゴリを含むコンテンツ画像を優先して選択することも可能である。
【0180】
次に、コンテンツ画像選択部15は、S23で選択されたカテゴリに属する各コンテンツ画像の注視率を決定する(S24)。
【0181】
図46はコンテンツ画像の注視率を算出する処理のフローチャートである。なお、本フローチャートにおいて、コンテンツ画像選択部15はコンテンツ画像Bを対象に処理をするものとする。
【0182】
コンテンツ画像選択部15は、カテゴリに属するコンテンツ画像Bの履歴が注視履歴情報97に所定数以上存在するか否かを判別する(S61)。コンテンツ画像選択部15は、コンテンツ検索結果にコンテンツ画像Bに関する履歴の数が所定数以上ある場合(S61:Yes)、履歴に含まれるコンテンツ画像Bの注視率の平均値をコンテンツ画像Bの注視率とする。コンテンツ画像選択部15はコンテンツ画像Bの注視率を数式4で算出する。
【0183】
【数5】

【0184】
一方、コンテンツ画像選択部15は、コンテンツ検索結果にコンテンツ画像Bに関する履歴の数が所定数未満である場合(S61:No)、あらかじめ決めた値を注視率として用いる。あらかじめ決めた注視率は、コンテンツ画像ごとに管理者が設定しておいてもよいし、全てのカテゴリで一つの値を用いてもよい。
【0185】
次に、コンテンツ画像選択部15は、S24で求めたコンテンツ画像の注視率と配信優先度とから、コンテンツ画像の提示優先度を算出する(S24)。配信優先度は、コンテンツ画像管理情報95に記録されている。
【0186】
コンテンツ画像選択部15は、コンテンツ画像の提示優先度を数式5で算出する。
【0187】
【数6】

【0188】
同様の方法で、コンテンツ画像選択部15はS23で選択されたカテゴリに属する他のコンテンツ画像について提示優先度を算出する。他のコンテンツ画像は、例えば、全注視履歴情報を遡って提示回数が少ないコンテンツ画像や、新規登録されたコンテンツ画像である。
【0189】
次に、コンテンツ画像選択部15は提示するコンテンツ画像を決定する(S26)。コンテンツ画像選択部15はS25で算出して提示優先度が最も大きいコンテンツ画像を提示するコンテンツ画像に決定する。コンテンツ画像選択部15は、提示優先度が最も大きいコンテンツ画像が複数ある場合、配信者が決めた配信優先度が高いコンテンツ画像を選択してもよいし、注視率が高いコンテンツ画像を選択してもよい。
【0190】
以上により、コンテンツ提示装置は、各グループに対して、最適なコンテンツ画像を提供することができる。
【0191】
[動作状態に応じたコンテンツ画像の表示処理]
次に、グループの動作状態に応じたコンテンツ画像の選択処理を説明する。
【0192】
コンテンツ画像選択部15は、動作状態情報93からグループに属する各人物の動作状態を検出することで、グループの動作状態を特定する。動作状態は、例えば静止、歩行、早歩き、走行などであり、移動速度に応じて分類して定義しておく。例えば、コンテンツ画像選択部15はグループを構成する人物の平均速度から、グループの移動速度を求める。
【0193】
コンテンツ画像選択部15は、グループの動作状態に基づいて、コンテンツ画像の映像の再生時間長さ、提示する画像の寸法、情報量を制御する。
【0194】
提示する画像の寸法は、投影されるコンテンツ画像の表示サイズである。情報量とは、コンテンツ画像内の写真やイラストの数、文字の量、文字の大きさなどである。情報量の多い画像とは、コンテンツ画像内の写真やイラストの数、文字の量ともに多いものを指す。情報量が多い場合、グループにとって、情報を認識するまでに時間がかかることが予想される。そこで、グループの移動速度が比較的遅い場合に、情報量の多いコンテンツ画像を提供する。一方、比較的移動速度が速いグループには、情報量の少ないコンテンツ画像を提供することで、グループがコンテンツ画像を素早く認識できるようにする。また、グループの範囲が大きい場合、コンテンツ画像選択部15は投影する大きい表示サイズのコンテンツ画像を選択することも可能である。
【0195】
コンテンツ画像は、図47のように絵のみのコンテンツ画像でもよいし、図48のように文字のみのコンテンツ画像でも、図49、図50のように絵と文字を組み合わせたコンテンツ画像でもよい。
【0196】
再生時間長さ、提示する画像の寸法、情報量の決定方法については、動作状態または移動速さ、速度からあらかじめ決めた条件に従って決定してもよいし、注視履歴保持部17における注視率が最も高くなるように決定してもよい。あらかじめ決めた条件とは、例えば、静止している人であれば、長い時間注視してもらえる可能性が高いと考えられるので、再生時間が長く、情報量の多い画像を提示するなどである。
【0197】
次に、コンテンツ画像選択部15は、グループに対して投影するコンテンツ画像の配置位置を決定する。図51は、コンテンツ画像の配置位置の例である。400、401、402、403、404は投影されたコンテンツ画像である。414は人物の速度ベクトルである。線414の長さは速度の大きさを示す。410は人物417と人物419とを結ぶ線である。411は線410の中点を通過し、且つ人物417、人物418、人物419の速度ベクトルの方向に平行な線である。412は人物422と人物423とを結ぶ線である。413は線412の中点を通過し、人物422および人物423の速度ベクトルの方向と平行な線である。415、416、417、418、419、420、421、422、433はコンテンツ画像の投影範囲内の人物である。
【0198】
コンテンツ画像選択部15は、例えば、グループを構成する複数の人物の結ぶ線の中点を通過し、グループの速度ベクトルの方向に平行な線上にコンテンツ画像を配置する。コンテンツ画像選択部15は、例えば、動作状態取得部13で取得した複数の人物位置の座標を結ぶ線を特定する。このとき人物を上から見た重心位置を当該人物の中心の座標とする。次に、コンテンツ画像選択部15は特定した線の中点を特定する。コンテンツ画像選択部15は、動作状態取得部13で取得した複数の人物の速度ベクトルからグループの速度ベクトルの方向を特定する。コンテンツ画像選択部15は例えば、複数の速度ベクトルの方向の平均などにより特定する。
【0199】
コンテンツ画像選択部15は、特定した中点を通り、且つ、グループの速度ベクトルに平行な線上にコンテンツ画像を配置する。人物422と人物423はグループであるとする。人物422と人物423とを結ぶ線412の中点を通り、且つ人物422と人物423のグループの速度ベクトルの方向に沿う線413上にコンテンツ画像403は配置される。なお、コンテンツ画像は線413上で線412よりも人物422および人物423の進行方向側に配置される。
【0200】
コンテンツ画像選択部15は、グループの移動速度に応じて、グループとコンテンツ画像との距離を決定する。コンテンツ画像選択部15は所定速度よりも速い速度でグループが移動している場合、グループから遠い位置にコンテンツ画像を配置する。また、コンテンツ画像選択部15は所定速度よりも遅い速度でグループが移動している場合、グループに近い位置にコンテンツ画像を配置する。人物415と人物416はそれぞれ一人のグループであるとする。人物415と人物416とは移動速度が異なる。この場合、コンテンツ画像選択部15は、移動速度が遅い人物415に対しては、人物415に近い距離にコンテンツ画像401を配置する。また、コンテンツ画像選択部15は、移動速度が速い人物416に対しては、人物416から離れた距離にコンテンツ画像400を配置する。
【0201】
グループが3人以上の場合、コンテンツ画像選択部15は、グループを構成する端の人物間を結ぶ線を特定し、特定した線分の中点を通過し、且つグループの速度ベクトルの方向に沿った線上にコンテンツ画像を配置する。人物417、人物418、人物419はグループを構成するものとする。この場合、グループの端は、人物417と人物419である。コンテンツ画像選択部415は、グループの端について、例えばグループの速度ベクトルに対して直角方向を求め、当該直角方向でもっとも離れている人物を特定することで、グループの端の人物を特定する。
【0202】
コンテンツ画像選択部415は、人物417と人物419とを結ぶ線410を特定する。コンテンツ画像選択部415は、線分410の中点を通過しグループの速度ベクトルに平行な線分411上にコンテンツ画像を配置する。
【0203】
コンテンツ画像選択部15は、グループが停止している場合は、所定の距離を離した位置にコンテンツ画像を配置する。人物420と人物421はグループであるとする。この場合、コンテンツ画像選択部15は、人物から所定の距離を離した位置にコンテンツ画像404を配置する。なお、コンテンツ画像選択部15は、過去に移動してきた方向から人物の向きを推定する。また、コンテンツ画像選択部15は、グループの向いている方向にコンテンツ画像を配置する。
【0204】
コンテンツ画像選択部415はコンテンツ画像の角度を速度ベクトルの方向に合うように変更する。
【0205】
コンテンツ画像選択部415は、コンテンツ画像の配置位置および配置角度を決定した後、投影画像を生成し、コンテンツ画像表示部16に投影画像を送信する。コンテンツ画像表示部16は取得した投影画像を投影する。
【0206】
また、提示するコンテンツ画像の制御の細かさについては、あらかじめ同じコンテンツについて再生時間長さ、寸法、情報量を変えた数種類のコンテンツ画像を用意し、コンテンツ画像記憶部20に格納する。コンテンツ画像選択部15は、その範囲で段階的に制御してもよい。また、コンテンツ画像の再生時間長さ、提示する画像の寸法を動的に編集して提示してもよい。
【0207】
以上により、コンテンツ決定装置10は、親子連れ、カップル、会社員などのグループの属性およびグループの移動の状態に適したコンテンツ画像を各グループに対して提示することが可能になる。なお、コンテンツ決定装置10は、人物の移動方向によってグループを特定し、グループ単位にコンテンツ画像を決定する処理と、グループを構成する人物の外見の組合せによってグループの属性を決定し、属性に応じてコンテンツ画像を決定する処理と、グループを構成する人物の注視度によってコンテンツ画像を決定する処理と、を個別に実行する、あるいは一部の処理を組み合わせて実行することが可能である。
【0208】
[コンテンツ決定装置10のハードウェア構成]
次に、コンテンツ決定装置10のハードウェア構成を説明する。
【0209】
図52は、本実施例のコンテンツ決定装置10のハードウェア構成の例である。コンテンツ決定装置10はコンピュータであり、プロセッサ51、メモリ52、ストレージモジュール53、入力モジュール54、出力モジュール55、撮影モジュール56、投影モジュール57などを含む。
【0210】
プロセッサ51は例えばCPUであり、コンテンツ決定装置10が実行するプログラムの各種演算を行う。例えば、プロセッサ51はメモリ52に展開されたコンテンツ決定プログラムを実行することにより、注視情報計測部12、動作状態取得部13、属性情報取得部14、コンテンツ画像選択部15として機能する。
【0211】
メモリ52は、コンテンツ決定装置10が使用する各種データおよびコンテンツ決定装置10が実行する各種プログラムを一時的に格納する。また、メモリ52は画像メモリを含む。画像メモリは、投影モジュール57に出力するための画像のデータを格納する記憶領域である。
【0212】
ストレージモジュール53は、コンテンツ決定装置10が使用する各種データおよびコンテンツ決定装置10が実行するコンテンツ決定プログラムを格納する。ストレージモジュール53は、画像情報記憶部21、コンテンツ画像記憶部20、コンテンツ画像管理情報記憶部19、注視履歴保持部17、属性情報保持部18として機能する。ストレージモジュール53は読み取り可能な記憶媒体から情報を読み出す、あるいは読み取り可能な記憶媒体に情報を書き込む機能を含む。読取り可能な記録媒体は、non−transitory(非一時的)である。読取り可能な記録媒体は、例えば、ROMやRAM等のコンピュータに内部実装される内部記憶装置、CD−ROMやフレキシブルディスク、DVDディスク、光磁気ディスク、ICカード等の可搬型記憶媒体を含む。なお、non−transitoryな記録媒体を遠隔地に配置し、それに格納されたプログラムを利用することとしても良い。
【0213】
投影モジュール57は、プロセッサ51からの指示により、コンテンツ画像を表示するコンテンツ画像表示部16として機能する。投影モジュール57は例えば、プロジェクタ、ディスプレイなどである。
【0214】
撮影モジュール56は、プロセッサ51からの指示により、画像を取得する撮影部11、第二の撮影部22として機能する。撮影モジュール56は、例えば、カメラ、ビデオカメラなどである。なお、コンテンツ決定装置は撮影モジュール56を複数有する場合もある。
【0215】
入力モジュール54は、管理者がコンピュータに種々の情報を入力するための装置であり、例えば、キーボードやマウスなどである。出力モジュール55は、コンピュータの種々の情報を出力するための装置であり、例えば、ディスプレイである。
【産業上の利用可能性】
【0216】
開示のコンテンツ決定装置10は、複数人物にコンテンツを表示する分野に適用できる。
【符号の説明】
【0217】
10 コンテンツ決定装置
51 プロセッサ
52 メモリ
53 ストレージモジュール
54 入力モジュール
55 出力モジュール
56 撮影モジュール
57 投影モジュール

【特許請求の範囲】
【請求項1】
時系列に撮影された複数の撮影画像から人物画像を検出し、該人物画像についての速度ベクトルを算出し、
算出した該速度ベクトルに応じて、複数の人物画像を一つのグループに関連付け、
一つのグループに関連付けられた複数の人物画像の画像処理結果から、該グループの属性情報を取得し、
該グループの属性情報と記憶部に記憶されたコンテンツ画像の属性情報との対応関係に基づき、投影に用いられるコンテンツ画像を決定する、
処理をコンピュータに実行させるためのコンテンツ決定プログラム。
【請求項2】
該関連付手段は、該複数の人物の該速度ベクトルの差が所定値以下の場合に、該複数の人物を一つのグループに関連付ける
ことを特徴とする請求項1に記載のコンテンツ決定プログラム。
【請求項3】
該算出手段は、更に人物の位置を特定し、
該関連付手段は、該複数の人物間の距離が所定値以下の場合に、該複数の人物を一つのグループに関連付ける
ことを特徴とする請求項1または請求項2に記載のコンテンツ決定プログラム。
【請求項4】
該算出手段は、更に人物の位置を特定し、
該関連付手段は、該複数の人物間の距離が所定値以下の場合かつ該複数の人物の該速度ベクトルの差が所定値以下の場合に、該複数の人物を一つのグループに関連付ける
ことを特徴とする請求項1または請求項2に記載のコンテンツ決定プログラム。
【請求項5】
さらに、該撮影画像から該人物画像の顔の画像部分を検出し、検出結果に基づき視線方向を抽出し、抽出した該視線方向に該記憶部に記憶されたいずれかの該投影画像が存在する時間から、注視率を算出し、
該算出した注視率と該属性情報に応じて投影画像を決定する
ことを特徴とする請求項1乃至4に記載のコンテンツ決定プログラム。
【請求項6】
該算出した優先度と該属性情報に応じて投影画像を決定する
ことを特徴とする請求項1乃至5に記載のコンテンツ決定プログラム。
【請求項7】
時系列に複数の画像を撮影する撮影部と、
該撮影部で撮影された該画像から人物画像を検出し、該人物画像についての人物の速度ベクトルを算出する算出手段、
複数の人物の該算出した該速度ベクトルに応じて、複数の人物を一つのグループに関連付ける関連付手段、
該関連付けられた該グループ内の該複数の人物画像を画像処理して、該グループの属性情報を取得する取得手段、
該グループの属性情報と予め記憶部に記憶されたコンテンツ画像の属性情報との対応関係に基づき、投影するコンテンツ画像を決定する決定手段、
該決定したグループに対して、該決定手段で決定した該投影画像を投影する投影部と
を有することを特徴とするコンテンツ決定装置。

【図6】
image rotate

【図13】
image rotate

【図17】
image rotate

【図23】
image rotate

【図36】
image rotate

【図37】
image rotate

【図38】
image rotate

【図39】
image rotate

【図50】
image rotate

【図51】
image rotate

【図52】
image rotate

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26】
image rotate

【図27】
image rotate

【図28】
image rotate

【図29】
image rotate

【図30】
image rotate

【図31】
image rotate

【図32】
image rotate

【図33】
image rotate

【図34】
image rotate

【図35】
image rotate

【図40】
image rotate

【図41】
image rotate

【図42】
image rotate

【図43】
image rotate

【図44】
image rotate

【図45】
image rotate

【図46】
image rotate

【図47】
image rotate

【図48】
image rotate

【図49】
image rotate


【公開番号】特開2011−248548(P2011−248548A)
【公開日】平成23年12月8日(2011.12.8)
【国際特許分類】
【出願番号】特願2010−119929(P2010−119929)
【出願日】平成22年5月25日(2010.5.25)
【出願人】(000005223)富士通株式会社 (25,993)
【Fターム(参考)】