説明

映像表示装置

【課題】映像表示装置の用途の拡大に伴って必要となるより複雑な機能を簡単に利用できるようにするため、ユーザが直感的に行える新しい操作方式、ユーザの属性や状況を汲み先回りすることでユーザの負担を軽減する自律動作方式の実現が必要である。
【解決手段】映像表示装置は、1以上のユーザにより操作される映像表示装置であって、1以上のユーザを識別するユーザ識別手段102と、1以上のユーザの位置と動作を検出する手位置・形状検出手段104等と、映像を表示する画面111と、識別された1以上のユーザのうち、検出したユーザの位置と動作により、表示映像の視聴対象である1以上のユーザを判別する視聴状態判別手段107Dと、映像を表示するアプリケーションを制御するアプリケーション制御手段106とを備え、アプリケーション制御手段106は、1以上の視聴対象ユーザにそれぞれ対応し、映像を表示するアプリケーションを制御する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明はTV等の映像表示装置であって、特に、従来のボタンによる入力だけでなく、ユーザの位置・向き、視線、ハンドジェスチャ、ユーザの手・腕の動き等のユーザセンシング情報に基づき制御される映像表示装置に関する。
【0002】
また、本発明は映像表示装置により提供されるアプリケーション・サービスを複数人による操作を前提とし、そのような操作の組合せにより制御する方法に関する。
【0003】
さらに、本発明は映像表示装置の大画面を活かした実物大表示や自然なインタラクションによりあたかもその場所にいるかのような臨場感を醸し出す方式に関する。
【背景技術】
【0004】
大画面化・薄型化に伴い、TVを単に番組や映画などを視聴するだけでなく、複数の情報の同時利用、大量の情報の一覧、実物大の臨場感を利用したコミュニケーション、常に情報を提示する掲示板、壁紙や額縁のような室内装飾、といったような新しい利用方法への可能性が広がりつつある。
【0005】
また家庭内ネットワークの立ち上がりとともに、各機器で検知されたユーザの操作履歴や状態をネットワークを介して共有し総合的にユーザのコンテキスト・状況をセンシングすることも現実味を帯びてきている(例えば、特許文献1参照)。
【0006】
このような状況下で従来の番組や映画を視聴するだけでなく、上記のような新しい利用方法で必要となるより複雑な機能を簡単に利用できるようにするため、直感的に行える新しい操作方式、ユーザセンシング情報に基づきユーザの状況や意図を汲み先回りすることでユーザの明示的な操作量・負担を軽減する自律動作方式の実現が必要となる。
【0007】
また、リビングルームなどの家族の共有空間に設置されるTVの特徴を活かしつつ受身的に視聴するのみでない使い方に対応するために、複数人による操作を前提とした入力方式、操作体系を採用することが望まれる。
【特許文献1】特開2004−246856号公報
【発明の開示】
【発明が解決しようとする課題】
【0008】
本発明は上記課題を解決するためのものであり、その目的とするところは、1以上の視聴対象ユーザにそれぞれ対応し、前記映像を表示するアプリケーションを制御することにより、複数人による直感的な操作が可能な映像表示装置を提供することである。
【0009】
さらに、そのような映像表示装置により提供されるサービス・アプリケーションを制御する方法を提供することにある。
【課題を解決するための手段】
【0010】
上記課題を解決するため、本発明の映像表示装置は、1以上のユーザにより操作される映像表示装置であって、1以上のユーザを識別する識別手段と、1以上のユーザの位置と動作を検出する検出手段と、映像を表示する表示手段と、識別された1以上のユーザのうち、検出したユーザの位置と動作により、表示映像の視聴対象である1以上のユーザを判別する判別手段と、映像を表示するアプリケーションを制御する制御手段とを備え、前記制御手段は、1以上の視聴対象ユーザにそれぞれ対応し、前記映像を表示するアプリケーションを制御することを特徴とする。
【0011】
また、本発明の映像表示装置は、前記制御手段が、1以上の視聴対象ユーザの少なくとも視聴位置に対応し、視聴対象となる映像の表示位置及び又はサイズを修正することを特徴とする。
【0012】
また、本発明の映像表示装置は、ユーザの属性情報を格納するユーザデータベースを備え、前記属性情報には、少なくとも身長情報を含む身体特徴情報が含まれ、前記制御手段は、1以上の視聴対象ユーザの前記属性情報にそれぞれ対応し、前記映像を表示するアプリケーションを制御することを特徴とする。
【0013】
また、本発明の映像表示装置は、前記視聴対象のユーザが立位か座位かのそれぞれの視聴状態を管理する管理手段を備え、前記身体特徴情報には、立位での身長と目の高さ、座位での身長と目の高さ情報が含まれ、前記制御手段は、前記視聴対象ユーザの視聴状態と身体特徴情報に基づき、前記映像を表示するアプリケーションを制御することを特徴とする。
【0014】
また、本発明の映像表示装置は、前記身体特徴情報には、利き目情報、視力情報が含まれ、前記制御手段は、前記視聴対象ユーザの前記利き目情報、視力情報に基づき、前記映像を表示するアプリケーションを制御することを特徴とする。
【発明の効果】
【0015】
本発明の映像表示装置によれば、1以上の視聴対象ユーザにそれぞれ対応し、前記視聴対象ユーザの属性や状況に応じて、前記映像を表示するアプリケーションを制御することにより、前記視聴対象ユーザが複数のモーダルをシームレスに切り替えられるため、PCと比較したときのTVの手軽さが担保された上で、従来の番組や映画の視聴にとどまらない複数人での多様なTVの楽しみ方の基盤が提供される。
【発明を実施するための最良の形態】
【0016】
以下、添付の図面を用いて本発明に係る映像表示装置及び制御方法を実施するための最良の形態について説明する。
【0017】
(実施の形態1)
図1は、本実施の形態における映像表示装置の外観と関連機器とのインタフェースの一例を説明する図である。映像表示装置は、放送番組を受信するためのアンテナのほか、一つまたは複数のユーザ検出カメラなどを含む。ユーザ検出カメラにより撮影された画像情報の解析により検出されるユーザの位置・動きにより映像表示装置を制御する。
【0018】
ジェスチャ入力リモコンを保持したユーザの手の動きや同リモコン上に配置されたボタンの押下といったユーザのリモコン操作に基づき、映像表示装置を制御してもよい。
【0019】
また、図1では示していないが、映像表示装置における複数のスピーカーは映像表示装置の上端と下端、左端と右端というように離れて配置されてもよい。
【0020】
ユーザの属性や位置、アプリケーションの状態などに応じてスピーカー出力を制御すれば、ユーザにより大きな臨場感を与えることが可能である。
【0021】
また、映像表示装置はその他の家電機器、例えばデジタルスチルカメラ、デジタルカムコーダなどと無線、ルータ/ハブなどを介してネットワーク接続されている。
【0022】
映像表示装置は、それらの機器から受信したデジタル情報・操作メニューを画面に提示するとともに、画面に提示されたメニューに対するユーザの操作情報をそれらの機器に送信することができる。
【0023】
さらに、映像表示装置が他の場所に設置された映像表示装置とネットワーク接続することで、映像表示装置を介して、離れた場所にいるユーザ同士が写真や映像などのデジタル情報を共有することができる。
【0024】
なお、映像表示装置により、ユーザ同士が、複数の写真でスライドショーを構成するといった共同作業をすることもできる。
【0025】
ネットワーク接続の手段として、特にインターネットを用いれば、遠方のユーザ同士が情報共有や共同作業をすることができる。
【0026】
(実施の形態2)
図2は、本実施の形態における映像表示装置を有する室内において複数のユーザが位置している状況の一例を示す図である。
【0027】
また、図3は、映像表示装置の機能を示すブロック図であり、図4は、図3のユーザ情報DB(データベース)のデータ構成の概略を説明する図である。また、図5は、映像表示装置の処理の概略を示すフローチャートである。
【0028】
以下、図3の各ブロックの機能を説明する。
ユーザ検出カメラ100は映像表示装置の前方に存在するユーザを撮影する。ユーザ位置検出手段101は、ユーザ検出カメラ100で撮影した複数の映像からユーザ領域の抽出を行った後、複数の映像におけるユーザ領域の対応関係からステレオ視の原理により、ユーザと映像表示装置との相対位置を算出する。ユーザ識別手段102は、顔領域の抽出を行った後、あらかじめ登録された顔画像と抽出した顔画像の照合を行うことで、ユーザを特定するユーザ識別情報を出力する。視線検出手段103はユーザの目の黒目領域の位置に基づきユーザの視線方向を算出する。手位置・形状検出手段104は、ユーザの手領域を抽出した後、手の位置と手の形状があらかじめ規定されたどの形状に合致するか照合して、例えば「グー」「パー」「右選択」「左選択」などの手形状情報を出力する。
【0029】
またジェスチャ入力リモコン105は、配置されたボタンのうちいずれがユーザに押下されているかのボタン状態を出力するボタン入力手段1051、ジェスチャ入力リモコン105を保持するユーザの手の動きを検出するモーションセンサ1052、ジェスチャ識別手段1053から構成される。モーションセンサ1052は移動と回転からなる手の動き情報を出力する。ジェスチャ識別手段1053は、モーションセンサからの出力と、あらかじめ規定された手の動き(ジェスチャ)情報とを照合して、「振る」「回す」「投げる」などのジェスチャ種別情報と操作量を出力する。
【0030】
アプリケーション制御手段106は、ユーザ位置検出手段101が出力するユーザ位置、ユーザ識別手段102が出力するユーザ識別情報、視線検出手段103が出力する視線方向、手位置・形状検出手段104が出力する手位置・手形状情報、ボタン入力手段1051が出力するボタン状態、ジェスチャ識別手段1053が出力するジェスチャ種別情報を入力情報として解釈する。アプリケーション制御手段106は、これらの入力情報に加えて、ユーザ情報DB107A、ユーザ状態管理手段107B、モーダル制御手段107C、視聴状態判別手段107Dからの入力情報により、アプリケーションの制御を行う。
【0031】
ユーザ情報DB107Aは、図4に示すとおり、基本属性情報と身体特徴情報、人間関係情報などを格納する。基本属性情報は例えば氏名、性別、年齢、誕生日、続柄などである。ユーザ状態管理手段107Bは各々のユーザ毎にユーザ状態を管理する。モーダル制御手段107Cは、各々のユーザ毎に該当するモーダルを選択した上で、現在の状態との組み合わせに基づき、次に実行すべき機能、遷移すべき状態を決定する。視聴状態判別手段107Dは、識別された1以上のユーザのうち、少なくとも検出したユーザの位置あるいは動作も鑑みて、表示映像の視聴対象であるユーザを判別する。
【0032】
画面の描画内容の更新を行う場合は、アプリケーション制御手段106は、その描画内容の更新情報を画面描画手段110に出力する。画面描画手段110は描画された画面内容を画面111へ提示する。
【0033】
アプリケーション制御手段106は、基本属性情報に基づいてユーザに提示する情報を選択することができる。これにより、映像表示装置は、例えば、各ユーザの年齢や職業を踏まえて各々に関連する、或いは興味を持つであろうニュースを選択して表示できる。また、図4のユーザを例にとると、松下花子さんの誕生日である12月21日の2週間前になると夫である太郎さんに対して花子さんへの誕生日プレゼントの購入を促すメッセージを表示する、過去のプレゼント履歴やプレゼントのおすすめ候補を表示するなどができる。また、誕生日当日の12月21日には、花子さんへのお祝いメッセージを表示したりすることもできる。
【0034】
また、ユーザ情報DB107Aに格納される身体特徴情報は、立位での身長と目の高さ、座位での身長と目の高さ、利き手、利き目、視力、聴力など、ユーザの姿勢別の身体形状、および視聴能力などを含む。
【0035】
アプリケーション制御手段106は、この身体特徴情報に基づいてユーザの見やすい位置や大きさ、聞きやすい音量で情報を提示することができる。例えば、ユーザが立位であることを認識すると、映像表示装置は、立位での目の高さの情報に基づいて、ユーザの目の高さ位置を中心として情報を表示できる。また、映像表示装置は視力の悪いユーザに対して表示サイズを大きくできる。利き目情報に基づいて表示の微調整を行ってもよい。
【0036】
また、片手でのハンドジェスチャを利き手で行うとすれば、利き手情報に基づいてハンドジェスチャを促すアイコン等の表示位置を決定することができる。すなわち、右利きのユーザに対してはユーザの位置の右寄りに対応する画面上の位置に、左利きのユーザに対してはユーザの位置の左寄り対応する画面上の位置にハンドジェスチャを促すアイコン等を表示することで、より自然なインタラクションを実現することができる。
【0037】
さらに、ユーザ情報DB107Aに格納される人間関係情報は、例えば図4(c)のように該データベースに登録済みのユーザ間の親密度を0.0〜1.0で格納している。アプリケーション制御手段106は、この親密度に基づいて、ユーザ間の情報の共有の可否などを制御することができる。
【0038】
このように、本発明の映像表示装置は、1以上の視聴対象ユーザにそれぞれに対応する映像を表示するアプリケーションを制御する。
【0039】
また、他の場所に設置されネットワーク接続された映像表示装置との連携動作を行うアプリケーションの場合は、データ受信手段108は相手方映像表示装置から送信されてきた操作情報を受信する。等身大表示変換手段109は当該操作情報のうち表示サイズに依存するもの(相手方映像表示装置で撮影された等身大映像など実物大での提示を行うオブジェクトの情報、及びそのオブジェクトに対する操作情報)について提示画面サイズに基づきスケール変換を行う。アプリケーション制御手段106は、入力情報と共に、スケール変換後の操作情報を処理した後、アプリケーションの制御を行う。
【0040】
また、アプリケーション制御手段106は、相手方映像表示装置に対する操作情報の生成を行う。また、アプリケーション制御手段106は、ユーザ識別手段102より入力されたユーザ識別情報に基づいてユーザ情報DB107Aより取得したユーザの大きさ情報、ユーザ位置検出手段101より入力されたユーザ位置情報を等身大情報付加手段112に入力してもよい。入力された操作情報がユーザ検出カメラ100で撮影された等身大映像である場合には、等身大情報付加手段112は、ユーザの大きさ情報とユーザ位置情報に基づき、相手方映像表示装置での等身大表示に必要となる等身大情報を操作情報に付加する。データ送信手段113は等身大情報を付加された操作情報及び等身大映像を相手方映像表示装置に対して送信する。
【0041】
ここで、図5のフローチャートに沿って、映像表示装置の処理の流れを説明する。
まずユーザ検出カメラ100が顔を検出すると、あらかじめ登録されたユーザ情報DB107Aに格納される身体特徴情報との照合により、ユーザ識別手段102はユーザ識別を行う(S201)。そして、識別された各ユーザに対して、ユーザ位置検出手段101はユーザ位置情報を、視線検出手段103は視線方向情報を、手位置・形状検出手段104は手位置・手形状情報をそれぞれ算出する(S202)。そして、S201で識別された1以上のユーザのうち、少なくとも検出したユーザの位置あるいは動作も鑑みて、視聴状態判別手段107Dは表示映像の視聴対象であるユーザを判別する(S203)。
【0042】
例えば、図2に示すユースシーンを例にとると、ユーザAは立位で映像表示装置の近辺を移動中であることから視聴対象ユーザと判別する。ユーザBはソファに座って映像表示装置の方を向いていることから視聴対象ユーザと判別する。ユーザCは立位で映像表示装置に背を向けて当該装置から離れる方向に移動しているので、視聴対象ユーザではないと判別する。
【0043】
視聴対象ユーザと判別されたユーザ数が複数の場合(S204でYES)には、モーダル制御手段107Cは、ユーザ位置情報や現在のアプリケーション情報から、コラボレーション作業の形態を判定する(S205)。
【0044】
コラボレーション作業の形態には、複数人が同時に同じ作業を分担して行う形態と複数人が同時に別々の作業をする形態がある。前者には、さらに一人が主導権を握り、もう一人が助言する形態や、複数人が同じ立場で作業する形態などがある。
【0045】
そして、S202で算出されたユーザ位置情報、視線方向情報、手位置・手形状情報や現在のアプリケーション状態から、モーダル制御手段107Cは、各々のユーザ毎に操作モーダルを判定する(S206)。ここで言う操作モーダルとは、以下に説明する4つの方式、すなわち「ユーザ位置による操作方式」「視線・顔向きによる操作方式」「フリーハンドジェスチャによる操作方式」「ジェスチャ入力リモコンによる操作方式」のいずれかである。操作モーダルが判定されると、対応する入力情報、例えば、フリーハンドジェスチャによる操作方式であれば、「グー」「パー」「右選択」「左選択」などの手形状情報から操作コマンドを生成する(S207)。
【0046】
また、等身大表示が必要なアプリケーションであれば(S208のYES)、等身大表示に必要なスケール情報を取得し(S209)、等身大表示情報を生成する(S210)。
【0047】
そして、アプリケーション制御手段106はS207で生成した操作コマンドと現在のアプリケーションの状態から次に実行すべき機能を決定し(S211)、その機能を実行する(S212)。
【0048】
(実施の形態3)
図6は本実施の形態におけるユーザ位置検出手段101におけるステレオ視の原理に基づくユーザ位置算出方法を示したものである。
【0049】
図6(a)に示すように、ユーザ検出カメラ100が2台一組にして間隔Bをおいて映像表示装置の画面に対して平行に設置され、ユーザ位置検出手段101はそれぞれのカメラで撮影された画像内の対応するユーザ領域の位置のずれを基に、ユーザと映像表示装置の画面との距離Dを算出する。各カメラで撮影された画像内のユーザが写っている領域の抽出は、例えば、あらかじめユーザのいない状態でそれぞれのカメラで撮影した画像を保存しておき、ユーザが現れたときの画像との差分を求めることにより実現できる。また、顔画像検出及び顔画像の照合によりユーザの顔領域を求め、前記顔領域をユーザ領域とすることもできる。
【0050】
図6(b)は二つの画像上の対応するユーザ領域を基にユーザとカメラ設置面(映像表示装置の画面)との距離Dを求めるステレオ視の原理を示したものである。2台のカメラで撮影された画像それぞれで対応するユーザ領域を位置測定対象とすると、その像は二つの画像上に図6(b)に示すように投影される。対応する像の画像上のずれをZとすると、カメラの焦点距離fとカメラの光軸間の距離Bとから、ユーザと映像表示装置との距離Dは、
D=f×B/Z
で求められる。また、映像表示装置の画面に平行な方向のユーザ位置については、画像中のユーザ領域の位置と上記の距離Dを基に求めることができる。このようにして求めた映像表示装置に対するユーザの相対的な位置がユーザ位置検出手段101からアプリケーション制御手段106に入力される。
【0051】
アプリケーション制御手段106は、このユーザ位置情報に基づいて、例えば当該ユーザに提示すべき情報の映像表示装置の画面上の表示位置を決定することで、図7(a)と図7(b)に示すようにユーザが動いても常にユーザから見やすい位置に情報を提示し続けることが可能である。例えば、図7(a)に示すようにユーザが映像表示装置の前方で移動すれば、ユーザの位置に近い画面上の位置に情報を表示するようにすることができる。また、図7(b)に示すようにユーザが映像表示装置に対して近づく、または遠ざかる場合は、アプリケーション制御手段106が情報の表示サイズを縮小または拡大し、ユーザにとって見やすい大きさで表示することができる。特に、ユーザが映像表示装置に対して近づき、表示されている情報に興味を抱いていると判断できる場合には、アプリケーション制御手段106が表示する情報をより詳細なものに設定し、表示してもよい。さらに、図7(c)に示すように、各ユーザの顔の高さ位置に応じて、見やすい高さに情報を表示するようにすることができる。このようにユーザの位置に応じて映像表示装置を操作する方式を、ユーザ位置による操作方式と呼ぶ。
【0052】
(実施の形態4)
図8、図9は本実施の形態における視線検出手段103における視線方向検出方法を示したものである。
【0053】
視線方向は顔の向きと、目の中の黒目部分の方向の組み合わせを基に計算される。そこでまず人物の三次元の顔向きを推定し、次に黒目の向き推定を行い、2つを統合して視線方向を計算する。
【0054】
図8(a)に示すように、視線検出手段103は、ユーザ検出カメラ100で撮影された画像から、まずは顔の顔向きの推定を行う。顔向き推定の方法としては例えば以下に図8(b)および図9(a)、(b)を用いて説明する方法を用いることで推定できる。図8(b)は、全体のフローを示すものである。あらかじめ、検出された顔領域における目・鼻・口などの顔部品特徴点の領域をいくつかの顔向きごとに用意する。図9(a)の例では顔向き正面および左右±20度における顔部品特徴点の領域を用意している。また、各顔部品特徴点周辺領域を切り出したテンプレート画像を用意しておく。
【0055】
まず、ユーザ検出カメラ100が映像表示装置の前方に存在するユーザを撮影し(S401)、撮影画像から顔領域の検出を行う(S402)。次に、検出された顔領域に対し、各顔向きに対応した顔部品特徴点の領域を当てはめ(S403)、各顔部品特徴点の領域画像を切り出す。切り出された領域画像と、あらかじめ用意したテンプレート画像の相関を計算し(S404)、各顔向きの角度を相関の比で重み付けした重み付け和を求め、これを検出顔の顔向きとする(S405)。図9(a)の例では、顔向き+20度に対する相関が0.85、正面向きに対する相関が0.14、−20度に対する相関が0.01であるので、顔向きは20×0.85+0×0.14+−20×0.01=16.8度と算出される。
【0056】
ここでは各顔部品領域を相関計算の対象としたが、これに限らず例えば顔領域全体を相関計算の対象としてもよい。またその他の方法としては、顔画像から目・鼻・口などの顔部品特徴点を検出し、顔部品特徴点の位置関係から顔の向きを計算する方法が知られている。顔部品特徴点の位置関係から顔向きを計算する方法としては、1つのカメラから得られた顔部品特徴点に最も一致するように、あらかじめ用意した顔部品特徴点の三次元モデルを回転・拡大縮小してマッチングし、得られた三次元モデルの回転量から顔向きを計算する方法や、実施の形態3で述べたように2台のカメラにより撮影された画像を基にステレオ視の原理を用いて、左右のカメラにおける顔部品特徴点位置の画像上のずれから各顔部品特徴点の三次元位置を計算し、得られた顔部品特徴点の位置関係から顔の向きを計算する方法がある。例えば両目および口の三次元座標点で張られる平面の法線方向を顔向きとする、などの方法が知られている。
【0057】
視線検出手段103は、顔向きが決定した後、黒目の向き推定を行う。黒目方向は例えば以下の方法を用いることで推定できる。推定方法の概要を図8(b)、図9(b)を用いて説明する。
【0058】
本手法では、視線方向基準面の算出、黒目中心の検出、視線方向の算出の手順で、視線検出を行う。
【0059】
まず、視線方向基準面の算出に関して、本手法における視線方向基準面とは、視線方向を算出する際に基準となる面のことで,顔の左右対称面と同一である。本手法では、目頭が、目尻や口角、眉など他の顔部品に比べて表情による変動が少なく、また誤検出が少ないことを利用し、顔の左右対称面を目頭の3次元位置から算出する。
【0060】
目頭の3次元位置は、ステレオカメラで撮影した2枚の画像に対して、顔検出モジュールと顔部品検出モジュールを用いて目頭を検出し、これらをステレオ計測することで、3次元位置を計測する(S406)。図9(b)に示すように、視線方向基準面は検出した左右の目頭を端点とする線分の垂直二等分面として取得される。
【0061】
次に、黒目中心の検出に関してだが、人が見ているものは、瞳孔から入った光が網膜に届き、電気信号となって脳に伝達されたものである。したがって、視線方向を検出する場合には、瞳孔の動きを見ればよい。しかし、日本人の場合、虹彩が黒または茶色のため、画像上では瞳孔との判別が付きにくい。そこでここでは、瞳孔の中心と黒目(虹彩)の中心がほぼ一致することから、視線方向特徴として黒目中心の検出を行う。黒目中心はまず目尻と目頭を検出し、図9(c−1)のような目尻と目頭を含む目領域から輝度が最小となる領域を、黒目領域として検出する。次に、図9(c−2)のような領域1,2からなる黒目検出フィルタを設定し、領域1,2内の画素の輝度の領域間分散が最大となるような円中心を探索し、これを黒目中心とする。最後に先ほどと同様に、黒目中心の3次元位置をステレオ計測によって取得する(S407)。
【0062】
さらに、視線方向の検出に関してだが、算出した視線方向基準面と、黒目中心の3次元位置を用いて、視線方向を検出する。人の眼球直径は成人の場合はほとんど個人差がないことが知られており、日本人の場合約24mmである。したがって、基準となる方向(たとえば正面)を向いたときの黒目中心の位置が分かっていれば、そこから現在の黒目中心位置までの変位を求めることで視線方向に変換算出することができる。従来手法では基準となる方向を向いた時の黒目中心の位置が既知ではないため、キャリブレーションを必要としていたが、本手法では、正面を向いたときは、左右の黒目中心の中点が顔の中心、すなわち視線方向基準面上に存在することを利用し、左右の黒目中心の中点と視線方向基準面との距離を計測することで視線方向を計算する(S408)。
【0063】
この手法では、視線方向は、顔正面に対する左右方向の回転角θとして取得される。回転角θは、以下の式で求められる。
【0064】
R :眼球半径(12mm)
d :視線方向基準面と黒目中点の距離
【0065】
以上の手順に基づいて算出した顔の三次元向きと、顔における黒目の向きを合わせることで、実空間における視線方向の検出を行うことができる(S409)。
【0066】
アプリケーション制御手段106は、上記の手順で視線検出手段103が検出した視線方向情報に基づいて、例えば当該ユーザに提示すべき情報の映像表示装置の画面上の表示位置を決定する。これにより、本映像表示装置は、ユーザの視線・顔向きが動いても常にユーザから見やすい位置に情報を提示し続けることができる。このようにユーザが視線・顔向き方向を変えることにより映像表示装置を操作する方式を、視線・顔向き方向による操作方式と呼ぶ。
【0067】
(実施の形態5)
図10は本実施の形態における手位置・形状検出手段104における手位置・形状検出方法を示したものである。
【0068】
図10(a)に示すように、ユーザ検出カメラ100で撮影された画像から、まずは人物位置を検出し、人物位置の周辺で手の位置・形状の検出を行う。手位置・形状の推定の方法としては例えば以下の方法を用いることで推定できる。以下、図10(b)を用いて説明する。
【0069】
まずオフライン処理として、手位置・形状検出手段104は検出したい手の学習画像を大量に用意する(S501)。学習画像における照明環境、向きなどの条件は、実際に検出する環境になるべく沿った条件のものを揃える。次に、S501で用意した学習画像から、主成分分析を用いて手の主成分を構成する固有空間を作成する(S502)。また、検出したい手のサンプルとして手のテンプレート画像を用意する。テンプレート画像は用意した手の平均画像でもよいし、グー、パーなど、いくつかの手の画像を用意してもよい。作成した固有空間への射影行列および、手のテンプレート画像を手テンプレートデータベースに格納する(S503)。
【0070】
次に実際の検出を行うオンライン処理について説明する。
まず、ユーザ検出カメラ100が映像表示装置の前方に存在するユーザを撮影し(S504)、撮影画像から顔領域の検出を行う(S505)。
【0071】
S505で顔領域が検出されると、その領域の周辺で手の検出を行う。顔領域の周辺において、用意した手のテンプレートに類似した領域を、手テンプレートデータベースに格納した手テンプレートを用いて走査する(S506)。顔の周辺領域の決定は、顔位置を基準としてあらかじめ設定したサイズの範囲でもよいし、カメラを2つ用いたステレオ視の原理により顔の周辺領域で顔と奥行き距離が近い領域を走査して探索範囲を削減してもよい。マッチングを行うための類似度の計算としては、ここではまず切り出した手の候補領域画像と、手のテンプレート画像をあらかじめ用意した固有空間への射影行列を使って固有空間に射影し、固有空間上での両者の距離を比較する手法を行う。手の主成分を表す空間上で距離を比較することで背景などノイズの影響を低減した検出が可能である。探索領域内で、あらかじめ定めた閾値を満たし、かつ最も手テンプレートに近い距離が得られた領域を手位置とする。また最も距離が近い手テンプレートの形状(例えばグー、パー等)を検出手形状とする(S507)。
【0072】
探索領域内で閾値を満たす領域が無い場合には、手を出していないものとして検出を終了する。
【0073】
この例では手位置・形状の検出にテンプレートマッチングの手法を用いたが、その他の手法、例えばブースティング(Boosting)などの手法を用いてもよい。
【0074】
アプリケーション制御手段106は、この手の位置・形状情報に基づいて、例えば当該ユーザに複数の選択肢と各選択肢に対応した手位置・形状を提示しておき、ユーザの手の位置・形状の変化に応じて対応する選択肢が選ばれたことを判断することができる。このようにユーザが手の形状・位置を変えることにより映像表示装置を操作する方式を、フリーハンドジェスチャによる操作方式と呼ぶ。
【0075】
(実施の形態6)
図11は本実施の形態におけるジェスチャ入力リモコン105による操作方式を示したものである。
【0076】
図11(a)に示すように、ユーザはジェスチャ入力リモコン105を手に把持した状態で、振る、回すなどといったあらかじめ規定された手の動き(ジェスチャ)や、映像表示装置の所望の位置を指すことにより映像表示装置を操作することができる。
【0077】
図11(b)はジェスチャ入力リモコン105の構成を示すものである。該リモコンは、その内部に、該リモコンを把持するユーザの手の動きを検出するモーションセンサ1052を備える。また、該リモコンは、図11(b)に示すようにその表面にボタンを備えてもよい。
【0078】
モーションセンサ1052は、加速度センサ、角加速度センサ(レートジャイロ)、地磁気センサ(電子コンパス)のいずれか、もしくは2つ以上の組み合わせにより構成される。加速度センサは、所定の軸に対する加速度を検知するものであり、例えば図11(b)に示すようにX軸、Y軸、Z軸の直交する3軸の各軸に対して加速度を検知するものである。ユーザが手でジェスチャ入力リモコン105を把持した状態で手首および/または腕を動かし、ジェスチャ入力リモコンの位置および/または姿勢が変更されると、ジェスチャ識別手段1053があらかじめ規定された手の動き(ジェスチャ)のデータと照合を行い、識別結果がジェスチャ識別手段1053からアプリケーション制御手段106に入力される。
【0079】
ここでは、ジェスチャ入力リモコン105の位置および/または姿勢の検出手段として、加速度センサを用いる例を示したが、同様の目的で、角加速度センサ(レートジャイロ)、地磁気センサ(電子コンパス)を利用することができる。
【0080】
アプリケーション制御手段106は、この識別されたジェスチャに基づいて、例えば図12(a)に示すように「回す」というジェスチャに対応して画面をスクロールする、といったアプリケーションの制御を行う。
【0081】
また、モーションセンサ1052に地磁気センサを用いることで、同業者が容易に推測できるように、ユーザが映像表示装置の所望の位置を指した際に、映像表示装置の画面上の対応する位置を算出し、その算出結果をアプリケーション制御手段106に入力することができる。
【0082】
アプリケーション制御手段106は、この映像表示装置の画面上の対応する位置の入力に基づいて、例えば図12(b)に示すようにフォーカスをあてる、またはその位置に対応するアプリケーションを起動するなどのアプリケーションの制御を行う。
【0083】
このようにユーザがジェスチャ入力リモコン105を手に把持した状態で、あらかじめ規定された手の動き(ジェスチャ)や、映像表示装置の所望の位置を指すことにより映像表示装置を操作する方式を、ジェスチャ入力リモコン105による操作方式と呼ぶ。
【0084】
なお、ジェスチャ入力リモコン105の形状は、図11のような平面矩形の長手形状に限らず、平面形状が楕円形などの長手形状でもよく、断面形状も矩形に限らず円形や他の多角形であってもよい。さらに、該リモコンの形状は、図13のような球であってもよい。
【0085】
球状のジェスチャ入力リモコンでは、図13に示すような1つ以上の球状ジェスチャ入力リモコンを、(a−1)拘束された面上で転がす、(a−2)手の中で握って、手首を中心に回す、移動する、(a−3)空中に浮かんだボールを両手あるいは片手で押す、回転させる、ことにより画面上の対象物(GUIのオブジェクト等)をジェスチャに応じて操作することが可能である。これらの操作は、複数人で同じ目的のGUIを協同で操作する場面でも実行されうる。図13(a)に示した球状ジェスチャ入力リモコンの構造として、図13(b)に示すものが考えられる。球状の外形に加えて、モーションセンサ(加速度センサ、角加速度センサ(レートジャイロ)、地磁気センサ(電子コンパス)など)と、握った時の手の力をセンシングする圧力センサ、さらに機器側からの情報を提示する表示機構(LEDなど)、振動用モータ等の球状ジェスチャ入力リモコンの信号を受信側に双方向で通信する仕組み、及び駆動機構、電源を備える。また、図13(b−2)に示すように、空中に浮かぶタイプの球状ジェスチャ入力リモコンの構造として、透明或いは半透明の弾力性のある樹脂の中にヘリウムガスなどを充填し、内部には図13(b−1)に示すようなセンサ群、回転機構、通信機構、表示機構などを備える。LEDやプロジェクタなどの表示機構はシステム側からの状態をフィードバックとしてさりげなく投影する仕組みも兼ねる。
【0086】
これらの球状ジェスチャ入力リモコンを用いた操作系の一例は図14(a)に示すように、ユーザが球状ジェスチャ入力リモコンを手の中に把持し、手首を回転あるいは移動することで、スクリーン内の3次元キャラクタ(アバター)や物体をマリオネットのように操作するといったものである。この場合、キャラクタは、骨格構造のような階層構造で定義し、その先端の並進移動量(X,Y,Zの3自由度)と回転量(X,Y,Zの3自由度)を該球状ジェスチャ入力リモコンの位置を移動することで先端の軌跡として指定する。先端を除く各関節の位置は逆運動学(インバースキネマティックス)などの手法を使って計算で求めることも可能である。これにより、例えば、サファリパークを模した仮想空間を表示するアプリケーションにおいて、該サファリ仮想空間内に表示されている実物大の動物(例えばキリン)にえさを差し出す、といったインタラクションが実現される。すなわち、ユーザが球状ジェスチャ入力リモコンを手の中に把持しながら手をユーザの前方に所定の距離以上差し出す動作をすると、該サファリ仮想空間内に表示されている実物大のキリンの近くにえさが表示され、キリンの口の近くにえさが移動するようにユーザが自身の手を移動させて、キリンの口からの所定の近傍内にえさが移動されると、キリンがえさを食べる、といったインタラクションである。このような映像表示装置の大画面を活かした実物大表示や自然なインタラクションにより、あたかもその場所(サファリパーク)にいるかのような臨場感を醸し出すことができる。また、手中の球状ジェスチャ入力リモコンを軽く握ることで画面上のGUIを掴んで、さらにボールを手中で回転及び移動することでGUIを移動、変形することも可能である。
【0087】
さらにユーザが空中を浮遊する球状ジェスチャ入力リモコンを掴んで或いは回して、画面上のバブル型のGUIを選択、移動することも可能である。この場合、ユーザが実際の球を掴む、回す動作と、そのジェスチャによる画面上のGUIの動作との一体感が臨場感として感じられるところが特徴である。さらに、球状ジェスチャ入力リモコンを用いた操作の別の例として図14(b)に示すように、球状ジェスチャ入力リモコンを映像表示装置に向かって転がす、或いは投げることで、例えばユーザが入力した情報(ボイスメールなど)が所定の相手先に送信される、といったインタラクションが可能である。これにより、従来はGUIのメニューに沿って操作していたものを、球を転がすといった直感的なジェスチャで行うことが可能となり、高齢者や子どもなど従来GUIの複雑な操作が難しかったユーザ層も、該球状ジェスチャリモコンを利用することで容易に操作することが可能である。また、球状ジェスチャ入力リモコンを振る、投げることで、画面上のGUIオブジェクト或いはコンテンツが、例えばユーザが入力した情報(ボイスメールなど)を送受信するように移動してもよい。或いは複数の球状ジェスチャ入力リモコン同士を物理的に近づけたり、接触させる、もしくは交換することで、ボールに予め与えられた属性の融合や交換を実現することで、該球形ジェスチャ入力リモコンを用いた、ユーザの実感を伴った直感的な操作が実現される。この場合、画面上のGUIとしては、メタボールのような球形GUI或いはコンテンツが核融合のように融合或いは分離することでその属性の変化を明示することも可能である。
【産業上の利用可能性】
【0088】
本発明は映像表示装置として、特に、従来のボタンによる入力だけでなく、ユーザの位置・向き、視線、ハンドジェスチャ、ユーザの手・腕の動き等のユーザセンシング情報に基づき制御される映像表示装置として、例えば、リビングルームなどの家族の共有空間に設置されるTVとして利用することができる。
【図面の簡単な説明】
【0089】
【図1】映像表示装置の外観と関連機器とのインタフェースの一例を説明する図
【図2】映像表示装置を有する室内において複数のユーザが位置している状況の一例を示す図
【図3】映像表示装置の主要機能ブロック図
【図4】ユーザ情報DBのデータ構成の概略を説明する図
【図5】映像表示装置の処理の概略を示すフローチャート
【図6】ユーザ位置による操作方法とその実現方法の概略を説明する図
【図7】ユーザ位置による操作方法の動作例を説明する図
【図8】視線・顔向きによる操作方式とその実現方法の概略を説明する図
【図9】視線・顔向きによる操作方式とその実現方法の概略を説明する図
【図10】フリーハンドジェスチャによる操作方式とその実現方法の概略を説明する図
【図11】ジェスチャ入力リモコンによる操作方式とその実現方法の概略を説明する図
【図12】ジェスチャ入力リモコンによる操作の動作例を説明する図
【図13】球状ジェスチャ入力リモコンによる操作方式とその実現方法の概略を説明する図
【図14】球状ジェスチャ入力リモコンによる操作の動作例を説明する図
【符号の説明】
【0090】
100 ユーザ検出カメラ
101 ユーザ位置検出手段
102 ユーザ識別手段
103 視線検出手段
104 手位置・形状検出手段
105 ジェスチャ入力リモコン
106 アプリケーション制御手段
107A ユーザ情報DB
107B ユーザ状態管理手段
107C モーダル制御手段
107D 視聴状態判別手段
108 データ受信手段
109 等身大表示変換手段
110 画面描画手段
111 画面
112 等身大情報付加手段
113 データ送信手段

【特許請求の範囲】
【請求項1】
1以上のユーザにより操作される映像表示装置であって、
1以上のユーザを識別する識別手段と、
1以上のユーザの位置と動作を検出する検出手段と、
映像を表示する表示手段と、
識別された1以上のユーザのうち、検出したユーザの位置と動作により、表示映像の視聴対象である1以上のユーザを判別する判別手段と、
映像を表示するアプリケーションを制御する制御手段とを備え、
前記制御手段は、1以上の視聴対象ユーザにそれぞれ対応し、前記映像を表示するアプリケーションを制御することを特徴とする、映像表示装置。
【請求項2】
前記制御手段は、1以上の視聴対象ユーザの少なくとも視聴位置に対応し、視聴対象となる映像の表示位置及び又はサイズを修正する、請求項1記載の映像表示装置。
【請求項3】
前記映像表示装置は、さらに、ユーザの属性情報を格納するユーザデータベースを備え、
前記属性情報には、少なくとも身長情報を含む身体特徴情報が含まれ、
前記制御手段は、1以上の視聴対象ユーザの前記属性情報にそれぞれ対応し、前記映像を表示するアプリケーションを制御することを特徴とする、請求項2記載の映像表示装置。
【請求項4】
前記映像表示装置は、さらに、前記視聴対象のユーザが立位か座位かのそれぞれの視聴状態を管理する管理手段を備え、
前記身体特徴情報には、立位での身長と目の高さ、座位での身長と目の高さ情報が含まれ、
前記制御手段は、前記視聴対象ユーザの視聴状態と身体特徴情報に基づき、前記映像を表示するアプリケーションを制御することを特徴とする、請求項3記載の映像表示装置。
【請求項5】
前記身体特徴情報には、利き目情報、視力情報が含まれ、
前記制御手段は、前記視聴対象ユーザの前記利き目情報、視力情報に基づき、前記映像を表示するアプリケーションを制御することを特徴とする、請求項3記載の映像表示装置。

【図1】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図10】
image rotate

【図11】
image rotate

【図2】
image rotate

【図9】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate


【公開番号】特開2009−87026(P2009−87026A)
【公開日】平成21年4月23日(2009.4.23)
【国際特許分類】
【出願番号】特願2007−255906(P2007−255906)
【出願日】平成19年9月28日(2007.9.28)
【出願人】(000005821)パナソニック株式会社 (73,050)
【Fターム(参考)】