説明

ユーザ反応推定装置、ユーザ反応推定方法およびユーザ反応推定プログラム

【課題】ユーザの身体にセンサ類を直接装着することなく、コンテンツに対するユーザの反応を精度良く推定することができるユーザ反応推定装置、ユーザ反応推定方法およびユーザ反応推定プログラムを提供する。
【解決手段】シーンごとにメタデータ12が付与されたコンテンツ10の各シーンに対するユーザUの反応を推定する反応推定装置であって、メタデータ12が対応するシーンに対して示すことが期待されるユーザUの反応を定義したものであり、状態検出装置で検出されたユーザUの状態からその状態変化を検出する状態変化検出手段31と、コンテンツ10からメタデータ12を取得するメタデータ取得手段32と、状態変化の変化量が所定の閾値を超えた場合、その時点でユーザUが視聴していたシーンに付与されたメタデータ12が表す反応を、当該シーンに対してユーザUが示した反応として判定する反応判定手段33と、を備える

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、映像、音声等のコンテンツに対するユーザの反応を推定するユーザ反応推定装置、ユーザ反応推定方法およびユーザ反応推定プログラムに関する。
【背景技術】
【0002】
これまで、映像、音声等のコンテンツを視聴するユーザ(視聴者)の顔画像から、その表情を分類認識する技術が多く提案されている。また、コンテンツに対するユーザの反応については、前記したユーザの表情や脳波、心拍数等の観察、あるいは視線の動き等の情報から、ユーザがコンテンツのどのシーンに興味を持っているのかを推定する生理学的な推定方法が試みられている。
【0003】
例えば、特許文献1では、コンテンツを視聴する視聴者に生起すると期待される感情を示す感情期待値情報と、コンテンツを視聴する際に視聴者に生起する感情を示す感情情報と、を取得し、これらを比較することでコンテンツの視聴質を判定することが提案されている。なお、ここでの感情期待値情報とは、コンテンツの編集内容から生成される情報であり、感情情報とは、視聴者の脳波、皮膚電気抵抗値、皮膚コンダクタンス、皮膚温度、心電図周波数、心拍数、脈拍、体温、筋電、顔画像、音声等の生体情報から生成される情報を示している。
【0004】
また、特許文献2では、再生コンテンツに対しての視聴者の反応を示す視聴者反応データと、画面操作履歴の情報を含む再生コンテンツについての視聴データと、を収集してこれらを時間同期させて統合することで、視聴質データを生成することが提案されている。なお、ここでの視聴者反応データとは、人物の表情、視線パターン(注視方向)、目の瞳孔直径、瞬き、顔部の向き、笑い声、体温、心拍数、利用者識別ID等のセンシングデータおよび認識データを示している。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2008−205861号公報
【特許文献2】特開2005−142975号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、特許文献1に係る発明は、音楽(BGM)、効果音、映像ショットおよびカメラワークといったコンテンツの編集内容から感情期待値を決定する必要があるため、処理が複雑になって感情期待値の決定が困難であるという問題があった。また、特許文献1に係る発明は、視聴質の判定精度が感情期待値情報および感情情報(生体情報)の測定精度に依存するという問題があった。
【0007】
そして、特許文献2に係る発明も、視聴質データの生成結果が各種センシングに基づくセンシングデータおよび認識データの測定精度に依存するという問題があった。
【0008】
また、特許文献1および特許文献2に係る発明で用いられる顔画像認識では、認識可能な表情が大きな表情変化の場合に限定される、複雑な表情を認識することができない、個人差によって誤差が生じる、といった問題があった。さらに、前記したような生体情報、センシングデータおよび認識データ等の生理学的手法を用いるためには、視聴者の身体にセンサ類を直接装着する必要があるため、日常的に利用するには煩雑であるという問題があった。
【0009】
本発明はかかる点に鑑みてなされたものであって、ユーザの身体にセンサ類を直接装着することなく、少ない機材によってコンテンツに対するユーザの反応を精度良く的確に推定することができるユーザ反応推定装置、ユーザ反応推定方法およびユーザ反応推定プログラムを提供することを課題とする。
【課題を解決するための手段】
【0010】
前記課題を解決するために請求項1に係るユーザ反応推定装置は、シーンごとにメタデータが付与されたコンテンツをユーザに提供するコンテンツ提供装置と前記ユーザの状態を検出する状態検出装置とを用いて、前記コンテンツ提供装置から前記ユーザに提供された前記コンテンツの各シーンに対する前記ユーザの反応を推定するユーザ反応推定装置であって、前記メタデータは、対応する前記シーンに対して前記ユーザが示すことが期待される前記ユーザの反応を定義したものであり、前記ユーザが前記コンテンツを視聴しているときに前記状態検出装置で検出された前記ユーザの状態から、当該ユーザの状態変化を検出する状態変化検出手段と、前記ユーザが前記コンテンツを視聴しているときに、当該コンテンツから前記メタデータを取得するメタデータ取得手段と、前記状態変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定する反応判定手段と、を備える構成とした。
【0011】
このような構成によれば、ユーザ反応推定装置は、コンテンツのシーンごとにユーザの反応を定義するメタデータが付与されているため、ユーザの状態変化の変化量が所定の閾値を超えた場合に、その時点で当該ユーザが視聴していたシーンに付与されたメタデータが定義する反応をユーザの反応として推定することができる。
【0012】
また、請求項2に係るユーザ反応推定装置は、前記状態検出装置が、前記ユーザを撮像するための撮像装置であり、前記状態変化検出手段が、前記撮像装置で撮像された画像データから、画像処理によって前記ユーザの顔の表情変化を検出し、前記反応判定手段が、前記ユーザの顔の表情変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定する構成とした。
【0013】
このような構成によれば、ユーザ反応推定装置は、ユーザの顔の表情変化の変化量が所定の閾値を超えた場合に、その時点で当該ユーザが視聴していたシーンに付与されたメタデータが定義する反応をユーザの反応として推定することができる。
【0014】
また、請求項3に係るユーザ反応推定装置は、前記状態検出装置が、前記ユーザを撮像するための撮像装置であり、前記状態変化検出手段が、前記撮像装置で撮像された画像データから、画像処理によって前記ユーザの視線の位置変化を検出し、前記反応判定手段が、前記ユーザの視線の位置変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定する構成とした。
【0015】
このような構成によれば、ユーザ反応推定装置は、ユーザの視線の位置変化の変化量が所定の閾値を超えた場合に、その時点で当該ユーザが視聴していたシーンに付与されたメタデータが定義する反応をユーザの反応として推定することができる。
【0016】
また、請求項4に係るユーザ反応推定装置は、前記状態検出装置が、前記ユーザを撮像するための撮像装置であり、前記状態変化検出手段が、前記撮像装置で撮像された画像データから、画像処理によって前記ユーザの頭部の位置変化を検出し、前記反応判定手段が、前記ユーザの頭部の位置変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定する構成とした。
【0017】
このような構成によれば、ユーザ反応推定装置は、ユーザの頭部位置変化の変化量が所定の閾値を超えた場合に、その時点で当該ユーザが視聴していたシーンに付与されたメタデータが定義する反応をユーザの反応として推定することができる。
【0018】
また、請求項5に係るユーザ反応推定装置は、前記状態検出装置が、前記ユーザを撮像するための撮像装置であり、前記状態変化検出手段が、前記撮像装置で撮像された画像データから、画像処理によって前記ユーザの身体の重心の位置変化を検出し、前記反応判定手段が、前記ユーザの身体の重心の位置変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定する構成とした。
【0019】
このような構成によれば、ユーザ反応推定装置は、ユーザの身体の重心位置変化の変化量が所定の閾値を超えた場合に、その時点で当該ユーザが視聴していたシーンに付与されたメタデータが定義する反応をユーザの反応として推定することができる。
【0020】
また、請求項6に係るユーザ反応推定装置は、前記状態検出装置が、前記ユーザの体重による圧力から、当該ユーザの身体の重心位置を測定するための圧力測定装置であり、前記状態変化検出手段が、前記圧力測定装置で測定された測定データから、前記ユーザの身体の重心の位置変化を検出し、前記反応判定手段が、前記ユーザの身体の重心の位置変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定する構成とした。
【0021】
このような構成によれば、ユーザ反応推定装置は、ユーザの身体の重心位置変化の変化量が所定の閾値を超えた場合に、その時点で当該ユーザが視聴していたシーンに付与されたメタデータが定義する反応をユーザの反応として推定することができる。
【0022】
また、請求項7に係るユーザ反応推定装置は、前記メタデータが、前記コンテンツ提供装置による前記コンテンツの提供中または提供後に、前記シーンに付与される構成とした。
【0023】
このような構成によれば、ユーザ反応推定装置は、コンテンツに予めメタデータを付与する必要がないため、コンテンツからメタデータを取得する処理を省略することができる。
【0024】
さらに、請求項8に係るユーザ反応推定方法は、シーンごとにメタデータが付与されたコンテンツの各シーンに対する前記ユーザの反応を推定するユーザ反応推定方法であって、前記メタデータが、対応する前記シーンに対して前記ユーザが示すことが期待される前記ユーザの反応を定義したものであり、状態変化検出手段によって、前記ユーザが前記コンテンツを視聴しているときの前記ユーザの状態から、当該ユーザの状態変化を検出するステップと、メタデータ取得手段によって、前記ユーザが前記コンテンツを視聴しているときに、当該コンテンツから前記メタデータを取得するステップと、反応判定手段によって、前記状態変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定するステップと、を行う手順とした。
【0025】
このような手順によれば、ユーザ反応推定方法は、コンテンツのシーンごとにユーザの反応を定義するメタデータが付与されているため、ユーザの状態変化の変化量が所定の閾値を超えた場合に、その時点で当該ユーザが視聴していたシーンに付与されたメタデータが定義する反応をユーザの反応として推定することができる。
【0026】
そして、請求項9に係るユーザ反応推定プログラムは、対応するシーンに対してユーザが示すことが期待されるユーザの反応を定義したメタデータがシーンごとに付与されたコンテンツを前記ユーザに提供するコンテンツ提供装置と前記ユーザの状態を検出する状態検出装置とを用いて、前記コンテンツ提供装置から前記ユーザに提供された前記コンテンツの各シーンに対する前記ユーザの反応を推定するために、コンピュータを、前記ユーザが前記コンテンツを視聴しているときに前記状態検出装置で検出された前記ユーザの状態から、当該ユーザの状態変化を検出する状態変化検出手段、前記ユーザが前記コンテンツを視聴しているときに、当該コンテンツから前記メタデータを取得するメタデータ取得手段、前記状態変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定する反応判定手段、として機能させる構成とした。
【0027】
このような構成によれば、ユーザ反応推定プログラムは、コンテンツのシーンごとにユーザの反応を定義するメタデータが付与されているため、ユーザの状態変化の変化量が所定の閾値を超えた場合に、その時点で当該ユーザが視聴していたシーンに付与されたメタデータが定義する反応をユーザの反応として推定することができる。
【発明の効果】
【0028】
請求項1、請求項8および請求項9に係る発明によれば、コンテンツのシーンに対して示すことが予想されるユーザの反応が、シーンごとにメタデータとして明確に付与されているため、複雑な処理を行うことなく、ユーザの反応を的確に推定することができる。また、コンテンツ視聴中におけるユーザのわずかな状態変化であっても推定が可能であるとともに、ユーザの状態変化の変化量が所定の閾値を超えるか否かのみを判定すればよいため、推定結果がユーザの状態変化の測定精度に依存することがなく、ユーザの反応を精度良く推定することができる。さらには、ユーザの身体にセンサ類を直接装着する必要がないため、ユーザにとって煩雑ではなく、コンテンツに対するユーザの反応の推定を日常的に行うことができる。
【0029】
請求項2に係る発明によれば、コンテンツ視聴中におけるユーザの顔の表情変化の変化量が所定の閾値を超えるか否かを判定することで、ユーザの身体にセンサ類を直接装着することなく、ユーザの反応を精度良く的確に行うことができる。
【0030】
請求項3に係る発明によれば、コンテンツ視聴中におけるユーザの視線の位置変化の変化量が所定の閾値を超えるか否かを判定することで、ユーザの身体にセンサ類を直接装着することなく、ユーザの反応を精度良く的確に行うことができる。
【0031】
請求項4に係る発明によれば、コンテンツ視聴中におけるユーザの頭部の位置変化の変化量が所定の閾値を超えるか否かを判定することで、ユーザの身体にセンサ類を直接装着することなく、ユーザの反応を精度良く的確に行うことができる。
【0032】
請求項5および請求項6に係る発明によれば、コンテンツ視聴中におけるユーザの身体の重心位置変化の変化量が所定の閾値を超えるか否かを判定することで、ユーザの身体にセンサ類を直接装着することなく、ユーザの反応を精度良く的確に行うことができる。
【0033】
請求項7に係る発明によれば、コンテンツの各シーンに対して予めメタデータを付与する必要がないため、より簡単にユーザの反応を推定することができる。また、ユーザがライブ番組等の予めメタデータを付与することが難しいコンテンツを視聴した場合であっても、その反応を推定することができる。
【図面の簡単な説明】
【0034】
【図1】本発明に係るユーザ反応推定装置の全体構成を示すブロック図である。
【図2】実施形態1に係るユーザ反応推定装置における状態変化検出手段の具体的構成を示すブロック図である。
【図3】第1実施形態に係るユーザ反応推定装置における反応判定手段の具体的構成を示すブロック図である。
【図4】本発明に係るユーザ反応推定装置の全体動作を示すフローチャートである。
【図5】第2実施形態に係るユーザ反応推定装置における状態変化検出手段の具体的構成を示すブロック図である。
【図6】第3実施形態に係るユーザ反応推定装置における状態変化検出手段の具体的構成を示すブロック図である。
【図7】第4実施形態に係るユーザ反応推定装置における状態変化検出手段の具体的構成を示すブロック図である。
【図8】第5実施形態に係るユーザ反応推定装置の全体構成を示すブロック図である。
【図9】第5実施形態に係るユーザ反応推定装置における状態変化検出手段の具体的構成を示すブロック図である。
【発明を実施するための形態】
【0035】
本発明の実施形態に係るユーザ反応推定装置、ユーザ反応推定方法およびユーザ反応推定プログラムについて、図面を参照しながら説明する。なお、以下の説明において、同一の名称、符号については、原則として同一の構成を示しており、詳細説明を適宜省略する。
【0036】
[第1実施形態]
以下、第1実施形態に係るユーザ反応推定装置30の構成について、図1を参照しながら詳細に説明する。なお、以下の説明では、ユーザ反応推定装置30を含むユーザ反応推定システム100全体の構成を説明しながら、その中のユーザ反応推定装置30について説明することとする。
【0037】
ユーザ反応推定システム100は、コンテンツ10の映像、音声11に対するユーザUの反応を推定するためのシステムである。ユーザ反応推定システム100は、ここでは図1に示すように、コンテンツ10と、コンテンツ提供装置20と、ユーザ反応推定装置30と、格納装置50と、を備えている。
【0038】
コンテンツ10は、ディレクター等のコンテンツ制作者によって制作される映像、音声、文字等の創作物である。コンテンツ10の具体例としては、地上デジタル放送等でリアルタイムに放送される映画やドラマ等が挙げられる。コンテンツ10は、ここでは図1に示すように、映像、音声11と、メタデータ12と、から構成される。
【0039】
映像、音声11は、コンテンツ10の具体的な内容である。映像、音声11は、ここでは図1に示すように、その内容ごとにシーン1〜シーン4の複数のシーンから構成されている。映像、音声11には、図1に示すように、これらのシーンごとにメタデータ12が付与され、それぞれのシーンとメタデータ12とが対応付けられている。また、映像、音声11は、図1に示すように、コンテンツ提供装置20を介してユーザUに提供される。
【0040】
メタデータ12は、コンテンツ10の映像、音声11に対して付与されるデータである。メタデータ12は、ここでは図1に示すように、対応するシーンに対してユーザUが示すことが期待されるユーザUの反応を定義するものであり、より詳しくは、各シーンに対するコンテンツ制作者の演出意図、すなわちコンテンツ制作者がコンテンツ10の映像、音声11の各シーンを通じて誘導したいと考えるユーザUの反応を定義したものである。従って、メタデータ12は、主にコンテンツ制作者によってコンテンツ10に付与されることになる。
【0041】
ここで、例えば、コンテンツ10の映像、音声11が、図1に示すように「導入部」のシーン、「コミカル」のシーン、「アクション」のシーン、「主役の死」のシーン、という4つのシーンから構成されるドラマであるとする。この場合、コンテンツ制作者がシーン1の「導入部」のシーンを視聴したユーザUに対して、物語に興味を持って欲しいと考えて演出を行った場合、シーン1には、図1に示すように「物語に興味」という反応を定義するメタデータ12が付与される。
【0042】
同じように、コンテンツ制作者がシーン2の「コミカル」のシーンを視聴したユーザUに対して、笑って欲しいと考えて演出を行った場合、シーン2には、図1に示すように「笑い」という反応を定義するメタデータ12が付与される。また、コンテンツ制作者がシーン3の「アクション」のシーンを視聴したユーザUに対して、ドキドキ、ワクワクして欲しいと考えて演出を行った場合、シーン3には、図1に示すように「ドキドキ、ワクワク」という反応を定義するメタデータ12が付与される。また、コンテンツ制作者がシーン4の「主役の死」のシーンを視聴したユーザUに対して、悲しんで欲しいと考えて演出を行った場合、シーン4には、図1に示すように「悲しみ」という反応を定義するメタデータ12が付与される。
【0043】
メタデータ12は、図1に示すように、ユーザUがコンテンツ10の映像、音声11を視聴する際に、当該メタデータ12が対応付けられたシーンが放送された時間(図示省略、以下「シーン放送時間」という)とともに、メタデータ取得手段32に出力される。
【0044】
コンテンツ提供装置20は、ユーザUに対してコンテンツ10の映像、音声11を提供するものである。コンテンツ提供装置20は、具体的には、テレビ受像機、パソコンのディスプレイ等が挙げられる。コンテンツ提供装置20には、図1に示すように、コンテンツ10の映像、音声11が入力される。なお、本実施形態では、コンテンツ10が地上デジタル放送等の放送波としてコンテンツ提供装置20に入力され、リアルタイムでユーザUに提供されることを想定しているが、例えば、コンテンツ提供装置20内部に記憶手段を設けてコンテンツ10を予め記憶し、当該コンテンツ10を読み出してユーザUに提供される構成としても構わない。
【0045】
ユーザ反応推定装置30は、コンテンツ提供装置20からユーザUに提供されたコンテンツ10の映像、音声11の各シーンに対するユーザUの反応を推定するものである。ユーザ反応推定装置30は、ここでは図1に示すように、状態変化検出手段31と、メタデータ取得手段32と、反応判定手段33と、を備えている。
【0046】
状態変化検出手段31は、撮像装置40によって撮像されたユーザUの状態から、コンテンツ10視聴中におけるユーザUの状態変化を検出するものである。本実施形態において、ユーザUの状態および状態変化とは、後記するように、コンテンツ10視聴中におけるユーザUの画像データおよびユーザUの表情変化のことを示している。状態変化検出手段31には、図1に示すように、撮像装置40からコンテンツ10視聴中におけるユーザUの状態と、当該ユーザUの状態を撮像した時間(図示省略、以下「撮像時間」という)と、が入力される。そして、状態変化検出手段31は、ユーザUの状態変化を算出し、図1に示すように、当該ユーザUの状態変化および撮像時間(図示省略)を反応判定手段33に出力する。なお、状態変化検出手段31の具体的構成および具体的処理手順については後記する。
【0047】
メタデータ取得手段32は、コンテンツ10から、各シーンに付与されたメタデータ12を取得するものである。メタデータ取得手段32は、具体的には、前記したようにコンテンツ10が地上デジタル放送等の放送波としてリアルタイムでユーザUに提供される場合は、当該放送波として伝達されるコンテンツ10からメタデータ12を取得する。また、コンテンツ10がコンテンツ提供装置20内部の記憶手段からユーザUに提供される場合は、コンテンツ提供装置20内部の記憶手段に記録されたコンテンツ10からメタデータ12を取得する。なお、メタデータ取得手段32は、前記した放送波のみならず、インターネット上からメタデータ12を取得することもできる。
【0048】
メタデータ取得手段32には、図1に示すように、ユーザUがコンテンツ10を視聴するときに、コンテンツ10のシーンごとに付与されたメタデータ12およびシーン放送時間(図示省略)が入力される。そして、メタデータ取得手段32は、図1に示すように、メタデータ12およびシーン放送時間(図示省略)を反応判定手段33に出力する。
【0049】
反応判定手段33は、ユーザUの状態変化およびメタデータ12を用いてユーザUの反応を判定するものである。反応判定手段33には、図1に示すように、状態変化検出手段31からコンテンツ10視聴中におけるユーザUの状態変化および撮像時間(図示省略)が入力される。また同時に、反応判定手段33には、図1に示すように、メタデータ取得手段32からメタデータ12およびシーン放送時間(図示省略)が入力される。
【0050】
そして、反応判定手段33は、ユーザUの状態変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点でユーザUが視聴していたシーンに付与されたメタデータ12が定義する反応を、シーンに対してユーザUが示した反応として判定し、これをユーザ反応推定情報として格納装置50に出力する。なお、反応判定手段33の具体的構成および具体的処理手順については後記する。
【0051】
撮像装置40は、コンテンツ10視聴中におけるユーザUの状態を撮像するためのものである。言い換えれば、撮像装置40は、ユーザUの状態を検出するための状態検出装置である。撮像装置40の具体例としては、例えば、カメラ、ビデオカメラ、webカメラ等が挙げられる。撮像装置40は、図1に示すように、ユーザUを撮像して取得したユーザUの状態および撮像時間(図示せず)を状態変化検出手段31に出力する。なお、以下の説明では、撮像装置40はコンテンツ提供装置20の例えば上部に設置されたwebカメラであり、かつ、ユーザUの顔が撮像装置40およびコンテンツ提供装置20に対して正対していると仮定して説明する。
【0052】
格納装置50は、ユーザUの反応を推定した情報であるユーザ反応推定情報を格納するためのものである。格納装置50の具体例としては、例えば、メモリ、ハードディスク等が挙げられる。格納装置50には、図1に示すように、反応判定手段33からユーザ反応推定情報が入力される。このように格納装置50に格納されたユーザ反応推定情報は、例えばユーザUが興味を持つジャンルの判定や、ユーザUに対して次に視聴する番組を推薦、あるいは提案を行う際に利用することができる。また、ユーザ反応推定情報は、家庭用のゲームや、デジタルサイネージ(digital Signage:電子看板)等にも広く応用することができる。
【0053】
<状態変化検出手段>
以下、前記した状態変化検出手段31の具体的構成および具体的処理手順について、図2を参照しながら詳細に説明する。状態変化検出手段31は、ここでは図2に示すように、表情取得手段31aと、表情変化算出手段31bと、を備えている。
【0054】
表情取得手段31aは、コンテンツ10視聴中におけるユーザUの画像データから、ユーザUの表情データを取得するものである。表情取得手段31aは、図2に示すように、撮像装置40(図1参照)からコンテンツ10視聴中におけるユーザUの画像データおよび撮像時間(図示省略)が入力されると、当該画像データからユーザUの顔の領域を認識して表情データを抜き出し、この表情データおよび撮像時間(図示省略)をリアルタイムで表情変化算出手段31bに出力する。なお、ユーザUの画像データから表情データを抜き出す方法は、従来周知の方法を用いればよい。
【0055】
表情変化算出手段31bは、コンテンツ10視聴中におけるユーザUの表情データから、その表情変化を算出するものである。表情変化算出手段31bは、本実施形態では、ユーザUの顔の現在の特徴点の重心位置からの距離と、ユーザUの顔の過去の特徴点の重心位置からの距離と、の差を求め、当該差の2乗総和値を一定時間積分することで、ユーザUの表情変化を算出する。なお、表情変化算出手段31bは、ユーザUの現在および過去の表情データを保持するための図示しない記憶手段を備えている。
【0056】
表情変化算出手段31bは、図2に示すように、表情取得手段31aからユーザUの表情データが入力されると、当該表情データからユーザUの顔の大きさA、特徴点、特徴点の数m、現在のn番目の特徴点と顔の重心位置との距離Ln1、過去のn番目の特徴点と顔の重心位置との距離Ln2、を抽出する。なお、前記したユーザUの顔の大きさAは、画像上におけるユーザUの顔の縦方向の画素数である。そして、表情変化算出手段31bは、下記式(1)によって、ユーザUの表情変化Mを算出し、図2に示すように、当該表情変化Mおよび撮像時間(図示省略)を反応判定手段33に出力する。
【0057】
【数1】

【0058】
このように算出した表情変化Mは、コンテンツ10を視聴したユーザUの表情の変化、すなわちコンテンツ10に対するユーザUの動揺度合いを示している。なお、ユーザUの表情変化Mとして、下記式(2)のように、ユーザUの顔の現在の特徴点の重心位置からの距離と、ユーザUの顔の過去の特徴点の重心位置からの距離と、の差の総和値を一定の時間でサンプリングしたT回を積分して算出したものを用いてもよい。なお、下記式(2)におけるLは、ユーザUの顔の特徴点と、ユーザUの顔の重心位置との距離である。
【0059】
【数2】

【0060】
<反応判定手段>
以下、前記した反応判定手段33の具体的構成および具体的処理手順について、図3を参照しながら詳細に説明する。反応判定手段33は、図3に示すように、比較手段33aと、閾値格納手段33bと、反応抽出手段33cと、を備えている。
【0061】
比較手段33aは、コンテンツ10視聴中におけるユーザUの表情変化と、予め定められた所定の閾値と、を比較するものである。比較手段33aには、図3に示すように、表情変化算出手段31b(図2参照)からユーザUの表情変化および撮像時間(図示省略)が入力される。また、同時に、比較手段33aには、図3に示すように、閾値格納手段33bから閾値が入力される。そして、比較手段33aは、入力されたユーザUの表情変化の変化量が閾値を超えるか否かを比較し、当該変化量が閾値を超える場合、図3に示すように、その比較結果と、前記した撮像時間のうち、変化量が閾値を超えた時点における時間(図示省略、以下「閾値超過時間」という)と、を反応抽出手段33cに出力する。
【0062】
閾値格納手段33bは、ユーザUの表情変化を閾値処理するための閾値を予め格納するものである。この閾値の具体的構成は特に限定されず、例えば、ユーザUに提供されるコンテンツ10(図1参照)に対して一つの閾値を設定する、あるいは、コンテンツ10のシーンごとに閾値を設定することもできる。また、他にも、ユーザUごとに閾値を設定することもできる。閾値格納手段33bは、ユーザUがコンテンツ10を視聴する際に、図3に示すように、比較手段33aに対して閾値を出力する。
【0063】
反応抽出手段33cは、メタデータ12からユーザUの反応を抽出するものである。反応抽出手段33cには、図3に示すように、比較手段33aから比較結果および閾値超過時間(図示省略)が入力される。この比較結果は、前記したように、ユーザUの表情変化の変化量が予め定められた閾値を超える旨の結果である。また、反応抽出手段33cには、図3に示すように、メタデータ取得手段32からメタデータ12およびシーン放送時間(図示省略)が入力される。そして、反応抽出手段33cは、閾値超過時間(図示省略)と一致するシーン放送時間(図示省略)に放送されるシーンと対応付けられたメタデータ12が定義する反応を抽出し、これをユーザ反応推定情報として格納装置50に出力する。
【0064】
このような構成を備えるユーザ反応推定装置30は、コンテンツ10のシーンに対して示すことが予想されるユーザUの反応がシーンごとにメタデータ12として明確に付与されているため、複雑な処理を行うことなく、ユーザUの反応を的確に推定することができる。また、コンテンツ10視聴中におけるユーザUのわずかな状態変化であっても推定が可能であるとともに、ユーザUの状態変化の変化量が所定の閾値を超えるか否かのみを判定すればよいため、推定結果がユーザUの状態変化の測定精度に依存することがなく、ユーザUの反応を精度良く推定することができる。さらには、ユーザUの身体にセンサ類を直接装着する必要がないため、ユーザUにとって煩雑ではなく、コンテンツ10に対するユーザUの反応の推定を日常的に行うことができる。
【0065】
なお、ユーザ反応推定装置30は、一般的なコンピュータを、前記した各手段として機能させるプログラムにより動作させることで実現することができる。このプログラム(コンテンツ暗号化プログラム)は、通信回線を介して配布することも可能であるし、CD−ROM等の記録媒体に書き込んで配布することも可能である。
【0066】
[ユーザ反応推定装置の動作]
以下、ユーザ反応推定装置30の動作、すなわちユーザ反応推定方法について、図4を参照しながら簡単に説明する。ユーザ反応推定方法は、図4に示すように、状態変化検出ステップS10と、メタデータ取得ステップS20と、反応判定ステップS30と、を行う。ここで、状態変化検出ステップS10とメタデータ取得ステップS20の順序は、メタデータ取得ステップS20が先でもよく、あるいは、2つの処理を同時に行っても構わない。
【0067】
<状態変化検出ステップ>
状態変化検出ステップS10は、状態変化検出手段31によって、撮像装置40によって撮像されたユーザUの状態からその状態変化を検出するステップである。状態変化検出ステップS10では、撮像装置40から状態変化検出手段31に対して、コンテンツ10視聴中におけるユーザUの状態および撮像時間が入力され、当該状態変化検出手段31によって、ユーザUの状態からユーザUの状態変化が算出される。なお、本実施形態において、ユーザUの状態および状態変化とは、前記したように、コンテンツ10視聴中におけるユーザUの画像データおよびユーザUの表情変化のことを示している。
【0068】
<メタデータ取得ステップ>
メタデータ取得ステップS20は、メタデータ取得手段32によって、コンテンツ10から、各シーンに付与されたメタデータ12を取得するステップである。メタデータ取得ステップS20では、ユーザUがコンテンツ10を視聴する際に、メタデータ取得手段32に対して、コンテンツ10のシーンごとに付与されたメタデータ12およびシーン放送時間が入力され、当該メタデータ取得手段32から反応判定手段33に対して、メタデータ12およびシーン放送時間が出力される。
【0069】
<反応判定処理ステップ>
反応判定ステップS30は、反応判定手段33によって、ユーザUの状態変化およびメタデータ12を用いてユーザUの反応を判定するステップである。反応判定ステップS30では、状態変化検出手段31から反応判定手段33に対して、コンテンツ10視聴中におけるユーザUの状態変化および撮像時間が入力され、メタデータ取得手段32から反応判定手段33に対して、メタデータ12およびシーン放送時間が入力される。そして、反応判定手段33によって、ユーザUの状態変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点でユーザUが視聴していたシーンに付与されたメタデータ12が定義する反応を、シーンに対してユーザUが示した反応として判定し、これをユーザ反応推定情報として格納装置50に出力する。
【0070】
このような手順を行なうユーザ反応推定方法は、コンテンツ10のシーンに対して示すことが予想されるユーザUの反応がシーンごとにメタデータ12として明確に付与されているため、複雑な処理を行うことなく、ユーザUの反応を的確に推定することができる。また、コンテンツ10視聴中におけるユーザUのわずかな状態変化であっても推定が可能であるとともに、ユーザUの状態変化の変化量が所定の閾値を超えるか否かのみを判定すればよいため、推定結果がユーザUの状態変化の測定精度に依存することがなく、ユーザUの反応を精度良く推定することができる。さらには、ユーザUの身体にセンサ類を直接装着する必要がないため、ユーザUにとって煩雑ではなく、ユーザUの反応の推定を日常的に行うことができる。
【0071】
[第2実施形態]
以下、第2実施形態に係るユーザ反応推定装置の構成について、図1および図5を参照しながら詳細に説明する。第2実施形態に係るユーザ反応推定装置は、図1に示す状態変化検出手段31を、図5に示す状態変化検出手段34としたこと以外は、前記した第1実施形態に係るユーザ反応推定装置30と同様の構成を備えている。従って、前記したユーザ反応推定装置30と重複する構成については、図示および説明を省略する。
【0072】
<状態変化検出手段>
第2実施形態に係るユーザ反応推定装置が備える状態変化検出手段34は、図5に示すように、視線位置取得手段34aと、視線位置変化算出手段34bと、を備えている。
【0073】
視線位置取得手段34aは、コンテンツ10視聴中におけるユーザUの画像データから、ユーザUの視線位置データを取得するものである。視線位置取得手段34aは、図5に示すように、撮像装置40(図1参照)からコンテンツ10視聴中におけるユーザUの画像データおよび撮像時間(図示省略)が入力されると、当該画像データから矩形等の形でユーザUの両目の領域を認識して視線位置データを抜き出し、この視線位置データおよび撮像時間(図示省略)を視線位置変化算出手段34bに出力する。また同時に、視線位置取得手段34aは、前記した画像データからユーザUの顔の大きさAを抜き出して視線位置変化算出手段34bに出力する(図示省略)。なお、ユーザUの画像データから視線位置データおよびユーザUの顔の大きさAを抜き出す方法は、従来周知の方法を用いればよい。
【0074】
視線位置変化算出手段34bは、コンテンツ10視聴中におけるユーザUの視線位置データおよびユーザUの顔の大きさAから、その視線位置変化を算出するものである。視線位置変化算出手段34bは、本実施形態では、視線位置データを画像データ上での方向(視線ベクトル)とみなし、ユーザUの現在の視線ベクトルと、ユーザUの過去の視線ベクトルと、の差の長さ(視線ベクトルの変化量)から求める。具体的には、ユーザUの両目の白色領域の重心位置(xw,yw)と、肌色および白色領域を除いた画素、すなわち瞳孔および虹彩領域が主となる部分の画素の重心位置(xi,yi)と、を算出し、各重心位置が成すベクトルを視線ベクトルとし、このベクトルを画像上におけるユーザUの顔の大きさAに基づいて正規化したベクトルを視線位置データとして利用する。なお、視線位置変化算出手段34bは、ユーザUの現在および過去の視線位置データを保持するための図示しない記憶手段を備えている。
【0075】
視線位置変化算出手段34bは、図5に示すように、視線位置取得手段34aからユーザUの視線位置データおよびユーザUの顔の大きさAが入力されると、視線位置データからユーザUの両目の白色領域の現在の重心位置(xwc,ywc)、瞳孔および虹彩領域が主となる部分の画素の現在の重心位置(xic,yic)、白色領域の過去の重心位置(xwp,ywp)、瞳孔および虹彩領域が主となる部分の画素の過去の重心位置(xip,yip)、を抽出する。そして、視線位置変化算出手段34bは、下記式(3)によって、ユーザUの視線位置変化M1を算出し、図5に示すように、当該視線位置変化M1および撮像時間(図示省略)を反応判定手段33に出力する。
【0076】
【数3】

【0077】
このように算出した視線位置変化M1は、コンテンツ10を視聴したユーザUの視線位置の変化量、すなわちコンテンツ10に対するユーザUの動揺度合いを示している。
【0078】
第2実施形態に係るユーザ反応推定装置は、このような構成を備えることで、コンテンツ10視聴中におけるユーザUの視線の位置変化の変化量が所定の閾値を超えるか否かを判定することで、ユーザUの身体にセンサ類を直接装着することなく、ユーザUの反応を精度良く的確に行うことができる。
【0079】
[第3実施形態]
以下、第3実施形態に係るユーザ反応推定装置の構成について、図1および図6を参照しながら詳細に説明する。第3実施形態に係るユーザ反応推定装置は、図1に示す状態変化検出手段31を、図6に示す状態変化検出手段35としたこと以外は、前記した第1実施形態に係るユーザ反応推定装置30と同様の構成を備えている。従って、前記したユーザ反応推定装置30と重複する構成については、図示および説明を省略する。
【0080】
<状態変化検出手段>
第3実施形態に係るユーザ反応推定装置が備える状態変化検出手段35は、図6に示すように、頭部位置取得手段35aと、頭部位置変化算出手段35bと、を備えている。
【0081】
頭部位置取得手段35aは、コンテンツ10視聴中におけるユーザUの画像データから、ユーザUの頭部位置データを取得するものである。頭部位置取得手段35aは、図6に示すように、撮像装置40(図1参照)からコンテンツ10視聴中におけるユーザUの画像データおよび撮像時間(図示省略)が入力されると、当該画像データからユーザUの頭部領域を認識して頭部位置データを抜き出し、この頭部位置データおよび撮像時間(図示省略)を頭部位置変化算出手段35bに出力する。なお、ユーザUの画像データから頭部位置データを抜き出す方法は、従来周知の方法を用いればよい。
【0082】
頭部位置変化算出手段35bは、コンテンツ10視聴中におけるユーザUの頭部位置データから、その頭部位置変化を算出するものである。頭部位置変化算出手段35bは、本実施形態では、ユーザUの頭部の現在の重心位置と、ユーザUの頭部の過去の重心位置と、の差(移動量)を求めて頭部位置変化として利用する。なお、頭部位置変化算出手段35bは、ユーザUの複数フレーム分の頭部位置データを保持するための図示しない記憶手段を備えている。
【0083】
頭部位置変化算出手段35bは、図6に示すように、頭部位置取得手段35aからユーザUの頭部位置データが入力されると、当該頭部位置データからユーザUの頭部の現在の重心位置(xhc,yhc)、ユーザUの頭部の過去の重心位置(xhp,yhp)、を抽出する。そして、頭部位置変化算出手段35bは、下記式(4)によって、ユーザUの頭部位置変化M2を算出し、図6に示すように、当該頭部位置変化M2および撮像時間(図示省略)を反応判定手段33に出力する。
【0084】
【数4】

【0085】
このように算出した頭部位置変化M2は、コンテンツ10を視聴したユーザUの頭部位置の変化量、すなわちコンテンツ10に対するユーザUの動揺度合いを示している。
【0086】
第3実施形態に係るユーザ反応推定装置は、このような構成を備えることで、コンテンツ10視聴中におけるユーザUの頭部の位置変化の変化量が所定の閾値を超えるか否かを判定することで、ユーザUの身体にセンサ類を直接装着することなく、ユーザUの反応を精度良く的確に行うことができる。
【0087】
[第4実施形態]
以下、第4実施形態に係るユーザ反応推定装置の構成について、図1および図7を参照しながら詳細に説明する。第4実施形態に係るユーザ反応推定装置は、図1に示す状態変化検出手段31を、図7に示す状態変化検出手段36としたこと以外は、前記した第1実施形態に係るユーザ反応推定装置30と同様の構成を備えている。従って、前記したユーザ反応推定装置30と重複する構成については、図示および説明を省略する。
【0088】
<状態変化検出手段>
第4実施形態に係るユーザ反応推定装置が備える状態変化検出手段36は、図7に示すように、重心位置取得手段36aと、重心位置変化算出手段36bと、を備えている。
【0089】
重心位置取得手段36aは、コンテンツ10視聴中におけるユーザUの画像データから、ユーザUの身体の重心位置データを取得するものである。重心位置取得手段36aは、図5に示すように、撮像装置40(図1参照)からコンテンツ10視聴中におけるユーザUの画像データおよび撮像時間(図示省略)が入力されると、当該画像データからユーザUの重心位置を認識して重心位置データを抜き出し、この重心位置データおよび撮像時間(図示省略)を重心位置変化算出手段36bに出力する。なお、ユーザUの画像データから重心位置データを抜き出す方法は、従来周知の方法を用いればよい。
【0090】
重心位置変化算出手段36bは、コンテンツ10視聴中におけるユーザUの身体の重心位置データから、その重心位置変化を算出するものである。重心位置変化算出手段36bは、本実施形態では、ユーザUの身体の現在の重心位置と、ユーザUの身体の過去の重心位置と、の差(移動量)を求めて重心位置変化として利用する。なお、重心位置変化算出手段36bは、ユーザUの現在および過去の重心位置データを保持するための図示しない記憶手段を備えている。
【0091】
重心位置変化算出手段36bは、図7に示すように、重心位置取得手段36aからユーザUの身体の重心位置データが入力されると、当該重心位置データからユーザUの身体の現在の重心位置(xgc,ygc)、ユーザUの身体の過去の重心位置(xgp,ygp)、を抽出する。そして、重心位置変化算出手段36bは、下記式(5)によって、ユーザUの身体の重心位置変化M3を算出し、図7に示すように、当該重心位置変化M3および撮像時間(図示省略)を反応判定手段33に出力する。
【0092】
【数5】

【0093】
このように算出した重心位置変化M3は、コンテンツ10を視聴したユーザUの身体の重心位置の変化量、すなわちコンテンツ10に対するユーザUの動揺度合いを示している。
【0094】
第4実施形態に係るユーザ反応推定装置は、このような構成を備えることで、コンテンツ10視聴中におけるユーザUの身体の重心の位置変化の変化量が所定の閾値を超えるか否かを判定することで、ユーザUの身体にセンサ類を直接装着することなく、ユーザUの反応を精度良く的確に行うことができる。
【0095】
[第5実施形態]
以下、第5実施形態に係るユーザ反応推定装置30’の構成について、図8および図9を参照しながら詳細に説明する。第5実施形態に係るユーザ反応推定装置30’は、図1に示す撮像装置40および状態変化検出手段31を、図8に示す圧力測定装置60および図9に示す状態変化検出手段37としたこと以外は、前記した第1実施形態に係るユーザ反応推定装置30と同様の構成を備えている。従って、前記したユーザ反応推定装置30と重複する構成については、説明を省略する。
【0096】
<圧力測定装置>
圧力測定装置60は、コンテンツ10視聴中におけるユーザUの体重による圧力を測定するものである。すなわち、圧力測定装置60は、ユーザUの状態を検出するための状態検出装置として機能する。圧力測定装置60の具体例としては、ユーザUが上に乗ることができる圧力センサ等が挙げられる。圧力測定装置60は、図9に示すように、ユーザUの体重による圧力の測定データと、当該圧力を測定した時間(図示省略、以下「測定時間」という)と、を状態変化検出手段37に出力する。
【0097】
<状態変化検出手段>
第5実施形態に係るユーザ反応推定装置30’が備える状態変化検出手段37は、図9に示すように、重心位置取得手段37aと、重心位置変化算出手段37bと、を備えている。
【0098】
重心位置取得手段37aは、コンテンツ10視聴中におけるユーザUの体重による圧力の測定データから、身体の重心位置データを取得するものである。重心位置取得手段37aは、図9に示すように、圧力測定装置60(図8参照)からコンテンツ10視聴中におけるユーザUの体重による圧力の測定データおよび測定時間(図示省略)が入力されると、当該測定データからユーザUの身体の重心位置データを算出し、この重心位置データおよび測定時間(図示省略)を重心位置変化算出手段37bに出力する。なお、ユーザUの体重による圧力の測定データから身体の重心位置データを算出する方法は、従来周知の方法を用いればよい。
【0099】
重心位置変化算出手段37bは、コンテンツ10視聴中におけるユーザUの身体の重心位置データから、その重心位置変化を算出するものである。重心位置変化算出手段37bは、本実施形態では、ユーザUの身体の現在の重心位置と、ユーザUの身体の過去の重心位置と、の差(移動量)を求めて重心位置変化として利用する。なお、重心位置変化算出手段37bは、ユーザUの現在および過去の重心位置データを保持するための図示しない記憶手段を備えている。
【0100】
重心位置変化算出手段37bは、図9に示すように、重心位置取得手段37aからユーザUの身体の重心位置データが入力されると、当該重心位置データからユーザUの身体の現在の重心位置(xpc,ypc)、ユーザUの身体の過去の重心位置(xpp,ypp)、を抽出する。そして、重心位置変化算出手段37bは、下記式(6)によって、ユーザUの身体の重心位置変化M4を算出し、図9に示すように、当該重心位置変化M4および測定時間(図示省略)を反応判定手段33に出力する。
【0101】
【数6】

【0102】
このように算出した重心位置変化M4は、コンテンツ10を視聴したユーザUの身体の重心位置の変化量、すなわちコンテンツ10に対するユーザUの動揺度合いを示している。
【0103】
第5実施形態に係るユーザ反応推定装置30’は、このような構成を備えることで、コンテンツ10視聴中におけるユーザUの重心の位置変化の変化量が所定の閾値を超えるか否かを判定することで、ユーザUの身体にセンサ類を直接装着することなく、ユーザUの反応を精度良く的確に行うことができる。
【0104】
以上、複数の実施形態により本発明に係るユーザ反応推定装置について説明したが、さらに以下のような変更、改変も可能である。
【0105】
例えば、メタデータ12は、図1に示すようにコンテンツ10の各シーンに予め付与されるのではなく、例えば、コンテンツ提供装置20によるコンテンツ10の提供中または提供後に、各シーンに付与しても良い。この場合、コンテンツ10の提供中または提供後に、図1に示す反応判定手段33に対して、放送局側またはユーザU側からネットワーク経由等でメタデータ12を付与する方法等を用いることができる。
【0106】
このような構成を備えるユーザ反応推定装置は、コンテンツ10の各シーンに対して予めメタデータ12を付与する必要がないため、より簡単にユーザUの反応を推定することができる。また、ユーザUがライブ番組等の予めメタデータ12を付与することが難しいコンテンツ10を視聴した場合であっても、その反応を推定することができる。
【0107】
また、前記した各実施形態に係るユーザ反応推定装置では、メタデータ12に定義された反応をユーザUの反応として直接判定しているが、メタデータ12に定義された反応を直接用いずに推定することも可能である。例えば、図1に示すシーン2に「爆笑」というメタデータ12が付与されていた場合に、図示しない同意語データベースによって同意語を検索し、ユーザUが「笑っている」と推定することもできる。
【0108】
また、前記した各実施形態に係るユーザ反応推定装置では、ユーザUの状態変化を表情変化、視線位置変化、頭部位置変化、重心位置変化等の状態変化を一つだけ用いてユーザUの反応を推定しているが、複数の状態変化を用いてユーザUの反応を推定してもよい。この場合は、例えばユーザUの表情変化と重心位置変化を併用し、適当な評価関数を定義してユーザUの反応を多面的に推定することができる。
【0109】
また、ユーザUの表情変化と重心位置変化を併用するとともに、それぞれについて閾値を超えたか否かを判定し、ユーザUの表情変化と重心位置変化のいずれかが閾値を超えた場合に、メタデータ12が定義する反応をユーザUの反応として推定することができる。例えば、閾値の具体的数値が0.5の場合に、ユーザUの表情変化の具体的数値が0.3であり、重心位置変化の具体的数値が0.8であれば、閾値を超えたと判定する。
【0110】
また、前記した各実施形態に係るユーザ反応推定装置では、閾値処理を行うことでユーザUの反応を推定しているが、例えば、閾値処理を行わず、状態変化検出手段によって検出したユーザUの状態変化をユーザUの反応の度合いとして直接用いることもできる。例えば、前記した第1実施形態に係るユーザ反応推定装置30を例に挙げると、仮に図1に示すシーン2の時点におけるユーザUの表情変化Mを、ユーザUがシーン2を視聴して笑っている度合いとして直接用いることもできる。
【符号の説明】
【0111】
10 コンテンツ
11 映像、音声
12 メタデータ
20 コンテンツ提供装置
30 ユーザ反応推定装置
30’ ユーザ反応推定装置
31 状態変化検出手段
31a 表情取得手段
31b 表情変化算出手段
32 メタデータ取得手段
33 反応判定手段
33a 比較手段
33b 閾値格納手段
33c 反応抽出手段
34 状態変化検出手段
34a 視線位置取得手段
34b 視線位置変化算出手段
35 状態変化検出手段
35a 頭部位置取得手段
35b 頭部位置変化算出手段
36 状態変化検出手段
36a 重心位置取得手段
36b 重心位置変化算出手段
37 状態変化検出手段
37a 重心位置取得手段
37b 重心位置変化算出手段
40 撮像装置
50 格納装置
60 圧力測定装置
100 ユーザ反応推定システム
200 ユーザ反応推定システム
S10 状態変化検出ステップ
S20 メタデータ取得ステップ
S30 反応判定ステップ
U ユーザ

【特許請求の範囲】
【請求項1】
シーンごとにメタデータが付与されたコンテンツをユーザに提供するコンテンツ提供装置と前記ユーザの状態を検出する状態検出装置とを用いて、前記コンテンツ提供装置から前記ユーザに提供された前記コンテンツの各シーンに対する前記ユーザの反応を推定するユーザ反応推定装置であって、
前記メタデータは、対応する前記シーンに対して前記ユーザが示すことが期待される前記ユーザの反応を定義したものであり、
前記ユーザが前記コンテンツを視聴しているときに前記状態検出装置で検出された前記ユーザの状態から、当該ユーザの状態変化を検出する状態変化検出手段と、
前記ユーザが前記コンテンツを視聴しているときに、当該コンテンツから前記メタデータを取得するメタデータ取得手段と、
前記状態変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定する反応判定手段と、
を備えることを特徴とするユーザ反応推定装置。
【請求項2】
前記状態検出装置は、前記ユーザを撮像するための撮像装置であり、
前記状態変化検出手段は、前記撮像装置で撮像された画像データから、画像処理によって前記ユーザの顔の表情変化を検出し、
前記反応判定手段は、前記ユーザの顔の表情変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定することを特徴とする請求項1に記載のユーザ反応推定装置。
【請求項3】
前記状態検出装置は、前記ユーザを撮像するための撮像装置であり、
前記状態変化検出手段は、前記撮像装置で撮像された画像データから、画像処理によって前記ユーザの視線の位置変化を検出し、
前記反応判定手段は、前記ユーザの視線の位置変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定することを特徴とする請求項1に記載のユーザ反応推定装置。
【請求項4】
前記状態検出装置は、前記ユーザを撮像するための撮像装置であり、
前記状態変化検出手段は、前記撮像装置で撮像された画像データから、画像処理によって前記ユーザの頭部の位置変化を検出し、
前記反応判定手段は、前記ユーザの頭部の位置変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定することを特徴とする請求項1に記載のユーザ反応推定装置。
【請求項5】
前記状態検出装置は、前記ユーザを撮像するための撮像装置であり、
前記状態変化検出手段は、前記撮像装置で撮像された画像データから、画像処理によって前記ユーザの身体の重心の位置変化を検出し、
前記反応判定手段は、前記ユーザの身体の重心の位置変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定することを特徴とする請求項1に記載のユーザ反応推定装置。
【請求項6】
前記状態検出装置は、前記ユーザの体重による圧力を測定するための圧力測定装置であり、
前記状態変化検出手段は、前記圧力測定装置で測定された圧力の測定データから、前記ユーザの身体の重心の位置変化を検出し、
前記反応判定手段は、前記ユーザの身体の重心の位置変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定することを特徴とする請求項1に記載のユーザ反応推定装置。
【請求項7】
前記メタデータは、前記コンテンツ提供装置による前記コンテンツの提供中または提供後に、前記シーンに付与されることを特徴とする請求項1から請求項6のいずれか一項に記載のユーザ反応推定装置。
【請求項8】
シーンごとにメタデータが付与されたコンテンツの各シーンに対する前記ユーザの反応を推定するユーザ反応推定方法であって、
前記メタデータは、対応する前記シーンに対して前記ユーザが示すことが期待される前記ユーザの反応を定義したものであり、
状態変化検出手段によって、前記ユーザが前記コンテンツを視聴しているときの前記ユーザの状態から、当該ユーザの状態変化を検出するステップと、
メタデータ取得手段によって、前記ユーザが前記コンテンツを視聴しているときに、当該コンテンツから前記メタデータを取得するステップと、
反応判定手段によって、前記状態変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定するステップと、
を行うことを特徴とするユーザ反応推定方法。
【請求項9】
対応するシーンに対してユーザが示すことが期待されるユーザの反応を定義したメタデータがシーンごとに付与されたコンテンツを前記ユーザに提供するコンテンツ提供装置と前記ユーザの状態を検出する状態検出装置とを用いて、前記コンテンツ提供装置から前記ユーザに提供された前記コンテンツの各シーンに対する前記ユーザの反応を推定するために、コンピュータを、
前記ユーザが前記コンテンツを視聴しているときに前記状態検出装置で検出された前記ユーザの状態から、当該ユーザの状態変化を検出する状態変化検出手段、
前記ユーザが前記コンテンツを視聴しているときに、当該コンテンツから前記メタデータを取得するメタデータ取得手段、
前記状態変化の変化量が所定の閾値を超えたか否かを判定し、当該変化量が所定の閾値を超えた場合、その時点で前記ユーザが視聴していた前記シーンに付与された前記メタデータが定義する反応を、前記シーンに対して前記ユーザが示した反応として判定する反応判定手段、
として機能させることを特徴とするユーザ反応推定プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate


【公開番号】特開2011−239158(P2011−239158A)
【公開日】平成23年11月24日(2011.11.24)
【国際特許分類】
【出願番号】特願2010−108683(P2010−108683)
【出願日】平成22年5月10日(2010.5.10)
【出願人】(000004352)日本放送協会 (2,206)
【Fターム(参考)】