説明

仮想環境におけるオブジェクトの選択方法

【課題】ジェスチャコマンドに基づく、簡単であり懇親的なユーザインタフェースを提供すること。
【解決手段】本発明は、第1の仮想環境における第1のオブジェクトの選択方法に関し、第1のオブジェクトは、第1の環境内で、閾値未満の値のサイズで表される。第1のオブジェクトの選択をより懇親的にするために、本方法は、・ユーザの指示ジェスチャに関連づけられた方向(120)を推定するステップと、・前記推定された方向(120)に従って、第2のオブジェクト(12)を判定するステップであって、前記第2のオブジェクトは、前記閾値より大きい値のサイズを有する、ステップと、・前記第2の判定されたオブジェクト(12)に従って、前記第1のオブジェクト(112)を選択するステップとを含む。本発明は、選択方法の実装に適合されたマルチメディア端末(18)にも関する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザと仮想環境との間の対話を提供するユーザインタフェースの分野に関し、より詳細には、仮想環境内でユーザを表すアバターの使用に関する。
【背景技術】
【0002】
従来技術によると、たとえば、ユーザを表すアバターを媒介して、ユーザが、遠く離れた人および/またはオブジェクトと対話することを可能にする様々な通信アプリケーションがある。アバターは、仮想世界の中で展開し、アバターに関連づけられたユーザは、実世界で展開する。遠隔エリアに(たとえば、異なる家、異なる町または異なる国に)位置する様々なユーザは次いで、たとえばオンラインゲーム、ソーシャルウェブなど、1つまたは複数の通信アプリケーションを使って、自身のそれぞれのアバターを媒介して通信することができる。各アプリケーションユーザは、自分の発話および/またはジェスチャおよび/または感情を、アプリケーションの他のユーザに伝えるために転記し直すアバターによって表される。ユーザによって使われる通信アプリケーションが、PC(パーソナルコンピュータ)タイプのコンピュータに収容されているとき、アバターの制御は当然ながら、たとえば、仮想世界とのユーザ対話が容易に管理されることを可能にするキーボードおよびマウスなど、簡単であり懇親的な制御装置で実施される。ただし、通信アプリケーションが、たとえば、フラットスクリーン(LCD、プラズマ)タイプまたは投影スクリーンタイプの表示装置に接続されたセットトップボックスにあるとき、ユーザは通常、自分の居間の肘掛椅子またはソファに座っており、コンピュータで使われるような制御装置の使用は、あまり便利ではない。ユーザと自身のアバターとの間の対話はしたがって、指示装置を用いて実施され得る。Gyration Companyによって販売されているようなジャイロ遠隔制御ユニットまたはジャイロマウスは、このような装置の例である。
【発明の概要】
【発明が解決しようとする課題】
【0003】
より懇親的対話が、ユーザに対していかなる装置の操作も要求しないジェスチャ制御インタフェースを使って得られる。こうしたインタフェースタイプでは、デコーダまたはテレビの上に位置づけられた1つまたは複数のカメラがユーザを撮影し、ユーザのジェスチャを取り込み、ジェスチャは、イメージ処理によって分析されて解釈され、関連づけられたコマンドを推論するために、予め定義された語彙により分類される。このユーザインタフェースタイプでは、仮想環境におけるオブジェクトの選択は、どうやっても問題となったままである。実際、テレビ画面上での仮想オブジェクト表現のサイズが縮小されると、指示することによる指定が可能でなくなる。指示の方向の判定が不確実なことにより、概して、指示されるオブジェクトを一義的に検出することができなくなる。
【課題を解決するための手段】
【0004】
本発明の目的は、従来技術のこうした欠点を克服することである。
【0005】
より詳細には、本発明の目的は、特に、ジェスチャコマンドに基づく、簡単であり懇親的なユーザインタフェースを提案することである。
【0006】
本発明は、第1の仮想環境における第1のオブジェクトの選択方法に関し、第1のオブジェクトは、第1の環境内で、閾値未満の値のサイズで表される。本方法は、
・ユーザの指示ジェスチャに関連づけられた方向を推定するステップと、
・推定された方向に従って、第2のオブジェクトを判定するステップであって、第2のオブジェクトは、閾値より大きい値のサイズを有する、ステップと、
・第2の判定されたオブジェクトに従って、第1のオブジェクトを選択するステップとを含む。
【0007】
有利には、第2のオブジェクトは、実環境に属す。
【0008】
ある特定の特性によると、第2のオブジェクトは、第2の仮想環境に属す。
【0009】
具体的特性によると、実環境は、3次元でマップされる。
【0010】
有利には、第1のオブジェクトは、第1のオブジェクトからなるグループに属し、第2のオブジェクトは、第2のオブジェクトからなるグループに属し、第1のオブジェクトの選択は、各第1のオブジェクトと第2のオブジェクトとの間の関連づけを確立するテーブルの使用を含む。
【0011】
別の特性によると、本方法は、ビデオカメラおよび奥行き情報の少なくとも1つの項目を使う、指示ジェスチャの取得ステップを含む。
【0012】
有利には、第2のオブジェクトの判定は、線と、その線が出会う第1の要素との間の交差の算出ステップを含み、線は、その起点として指示ジェスチャを行うユーザの体の部位を、方向として指示ジェスチャに関連づけられた方向を、および配向として指示ジェスチャの配向を有する。
【0013】
ある特定の特性によると、指示ジェスチャの方向は、指示ジェスチャを行うユーザの体の部位の検出によって、および3次元空間における体の部位の前後軸の推定によって判定される。
【0014】
本発明は、取り込まれた画像を表す信号の受信用ユニットと、画像の処理ユニットとを備えるマルチメディア端末にも関し、この画像処理ユニットは、
・ユーザの指示ジェスチャに関連づけられた方向を推定する手段と、
・推定された方向に従って第2のオブジェクトを判定する手段であって、第2のオブジェクトは、閾値より大きい値のサイズを有する、手段と、
・第2の判定されたオブジェクトに従って、第1のオブジェクトを選択する手段であって、第1のオブジェクトは、第1の仮想環境に属し、閾値未満の値を有する、手段とを備える。
【0015】
添付の図面を参照する以下の説明を読むと、本発明がよりよく理解され、他の具体的特徴および利点が明らかになるであろう。
【図面の簡単な説明】
【0016】
【図1】本発明のある特定の実施形態による、ユーザが自身のアバターを仮想世界において制御する実環境を示す図である。
【図2】本発明のある特定の実施形態による、図1のユーザによって実施されるジェスチャの方向の推定方法を示す図である。
【図3】本発明のある特定の実施形態による、本発明の実装のためのマルチメディア端末の構造を図式的に示す図である。
【図4】本発明のある特定の実施形態による、図3のマルチメディア端末において実装される、仮想環境におけるオブジェクトの選択方法を示す図である。
【発明を実施するための形態】
【0017】
図1は、仮想環境を使って、仮想環境内でユーザを表すアバター110を媒介して遠く離れた対話者と通信するユーザ10がいる実環境1を示す。仮想環境は、現実の(たとえば、家、庭、公園、建物、町などの映像)もしくは想像上の環境のどのグラフィック表現にも、またはコンピュータによって生成されたイメージによって生成されたどの環境にも、または現実もしくは想像上の環境のどの投影、たとえばホログラフィにも対応する。図1に関して示す実環境1は、ユーザ10の居間に対応し、ユーザ10は、自分のソファ16に座って表示装置(たとえば、プラズマディスプレイパネルやLCD(液晶ディスプレイ)画面を見ている。ユーザの実環境1に対応するユーザの居間は複数のオブジェクトを備え、具体的には、ソファ16、2つのオーディオスピーカ14、15、ドア13、肘掛椅子12、コーヒーテーブル17、表示装置11、マルチメディア端末18(たとえば、デジタルデコーダ、たとえば、衛星または地上波(地上波デジタルテレビTNT)、ゲームコンソール、マルチメディア電話、PCタブレットなど、xDSLゲートウェイに接続され、または接続されないマルチメディア端末)、カメラに統合され、または統合されない奥行きセンサを装備するカメラ19(たとえば、3D奥行きウェブカメラ)がある。カメラ19は、有線または無線接続によってマルチメディア端末18に接続される。マルチメディア端末18は、有線または無線接続によって表示装置11に接続される。ユーザ10が、自身のアバター110を媒介して遠く離れた対話者と通信することを可能にするアプリケーションは、マルチメディア端末に収容され、通信アプリケーションによって表示されるビデオコンテンツは、表示装置11に表示される。表示装置に表示されるビデオコンテンツは、ユーザ10を表すアバター110が展開する仮想環境100を表す。仮想環境100は、1つまたは複数の仮想オブジェクトを備え、特にドア112およびテレビ画面111がある。有利には、仮想オブジェクトは、現実または想像上のオブジェクトのどのグラフィックまたはホログラフィ表現にも対応し、この実オブジェクトは、当業者に既知のどの手段(たとえば、ビデオカメラ、スチルカメラ)によっても取り込まれ、または画像合成によって生成されている。
【0018】
仮想環境100におけるアバター110の移動は、ユーザ10によって制御される。有利には、アバターの移動の制御は、リモコン130を介し、移動は、方向キー(↑、↓、←、→)の使用、たとえば、マルチメディア端末18によって受信されデコードされる、リモコンによって送信される信号によって指令される。別の形態によると、アバターの移動は、ユーザによって送信される音声コマンドによって制御される。音声コマンドは、マルチメディア端末に統合され、またはマルチメディア端末からデポート(deport)され、有線または無線接続によってマルチメディア端末に接続されたマイクロホン(マイクロホンはたとえば、カメラ19もしくは表示装置11に統合され、またはマイクロホンは分離した装置である)を介してマルチメディア端末18によって受信され、次いでデコードされる。さらに別の形態によると、アバター110の移動は、ユーザによって実施されるジェスチャによって制御される。こうしたジェスチャは、マルチメディア端末18に送信される前に、関連づけられた奥行き情報を抽出するためにカメラ19によって取り込まれて、デコードされ解釈される。
【0019】
アバター110は、仮想環境100において進行する間、仮想環境から仮想オブジェクト、たとえば、ある仮想環境から別の仮想環境に移るため(たとえば、アバターがその中を動き回る建物のある部屋から別の部屋に移るため)のドア112を、またはさらに任意の種類のオブジェクトを選択して、仮想環境内のある場所から別の場所に移動するよう導かれる。ドア112を選択するために、ユーザ10は、実環境1に属す実オブジェクト、たとえば食器棚を、自分の体の任意の部位、たとえば、自分の片方の腕で指示する。ユーザ10によって作り出された指示ジェスチャは、カメラ19によって取り込まれた一連の画像の中でこのカメラ19によって検出される。指示ジェスチャの検出は有利には、コンピュータビジョンにおける検出および分類、たとえば、画像または映像における顔の検出の多数のアプリケーション用に既に広く使われている機械学習技法を用いて実施される。この技法によると、指示ジェスチャを含む画像が、腕を伸ばした人の画像(陽画ともいう)の集合を備える知識ベースの多数の画像(たとえば、10,000枚の画像)、および腕を伸ばした人を表さない画像(陰画ともいう)の大規模集合を備える知識ベースの多数の画像と比較される。この比較を用いて、特徴的属性が、カメラ19によって取り込まれた画像に関して算出され、こうした属性は、予め定義された画像または画像領域の記述子群から選択される。こうした特徴的属性の値の範囲を、腕を伸ばした人達の画像のカテゴリと関連づける基準は、機械学習アルゴリズム、たとえばAdaBoostアルゴリズムによってオフラインで判定される。取り込まれた画像において、この基準が満足される場合、取り込まれた画像は、指示ジェスチャを行う人を表す内容の画像であると解釈される。逆のケースでは、取り込まれた画像は、陰画を含む知識ベースの画像に関連づけられ、取り込まれた画像は、指示ジェスチャを行う人を表す内容の画像ではないと解釈される。実際、取り込まれた画像中でのユーザの画像の位置も画像の寸法も、分かっていない。上述した検出動作はしたがって、副画像の位置およびサイズの集合に対して、カメラ19によって取り込まれた画像の中で、腕を伸ばした人をできれば含むように繰り返されなければならない。
【0020】
取り込まれた画像が、指示ジェスチャを実施する人を表す内容の画像であると解釈されるケースでは、指示ジェスチャ、この場合、図1の例によると伸ばした腕を含む画像部分が、画像分析によって抽出される。上述した、腕を伸ばした人を検出するのに用いられる機械学習技法は、この目的のために再度利用することができるが、今回は腕を伸ばした人の画像中の伸ばした腕の検出を適用する。指示ジェスチャを含む画像部分のピクセルに関連づけられた奥行き情報を用いて、指示ジェスチャに関連づけられた方向が、図2に示すように3D回帰技法を用いて実環境1の3次元(3D)空間内で判定されるが、ここでは分かりやすくするために2次元の空間に制限される。この指示方向推定はたとえば、検出された伸ばした腕に対応する、画像の点に対して線形回帰モードを使って実施される。指示ジェスチャの方向は有利には、指示ジェスチャを実施するユーザ10の体の部位の前後軸に対応する。ユーザの伸ばした腕を表す副画像中で、ユーザの手も、腕の先端を判定するため、すなわち、指示配向を定義するための指示ジェスチャの先端を判定するために、前述したものと同一の機械学習技法によって検出される。3Dジオメトリの簡単な規則の使用によって、算出された回帰線が出会う実環境1の第1の実オブジェクト(指示ジェスチャの判定された方向および指示ジェスチャの判定された配向から、指示ジェスチャの先端に対応する線の起点)と、算出された回帰線との間の交差が判定される。こうするために、実環境1は、たとえば、マッピングアプリケーションの使用によりユーザ10によって、または別の人によって予め3Dにマップされ、すなわち、実環境1の実オブジェクトが識別され、それぞれ実環境の3D空間内で識別子および座標(x、yおよびz)と関連づけて配置される。別の形態によると、実環境は、環境取込み手段(たとえば、奥行きセンサに関連づけられたカメラ)および処理手段、たとえば、実環境の取り込まれた画像を分析する適応型マッピングアプリケーションの使用により、自動的に3Dにマップされる。実環境の3Dマッピングおよび算出された回帰線を用いると、回帰線が出会う第1の実オブジェクトが何であるかを、したがってユーザ10の指示ジェスチャによって指示されるオブジェクトを判定することは容易である。また別の形態によると、どの実オブジェクトにも回帰線が出会わない場合、選択される実オブジェクトは、回帰線に最も近い実オブジェクト、すなわち、回帰線から閾値未満の距離(たとえば、20cm、50cmまたは1m)にある実オブジェクトである。閾値未満の距離の集合は有利には、許容域を形成し、この域は、半径が閾値に等しい、回帰線を囲む円筒の形をとる。有利には、実環境の3Dマップにマップされる実オブジェクトは、指示ジェスチャの方向の判定の不正確さが、指示される実オブジェクトの選択に影響を与えないように、臨界サイズより大きい、すなわち、閾値より大きいサイズである(たとえば、その周囲の平行六面体の3つの寸法のうち最小のものが、所定の値、たとえば40cm、50cmもしくは60cm以上であり、または指示方向に垂直な面におけるオブジェクトの投影の2つの寸法のうちやはり最小のものが、40cm、50cmまたは60cm以上である)。実際、指示ジェスチャの方向を推定するのに用いられるこうした技法から、小さすぎるオブジェクト、すなわち、閾値未満のサイズを有するオブジェクトだけが、こうしたオブジェクトと回帰線との間を交差させることによって確実に判定され得る。閾値は有利には、指示方向の推定が不正確であることを表す情報により判定される。
【0021】
指示ジェスチャによって指示された実オブジェクトが判定され識別されると、今度は実オブジェクトと関連づけられた仮想世界の仮想オブジェクトが、ユーザ10を表すアバター110によって選択される。図1の例によると、ドア112がアバター110によって選択されるが、ユーザは、自分の腕で、ドア112に関連づけられた食器棚12を指示している。第1のオブジェクトともいう、仮想環境の仮想オブジェクトと、第2のオブジェクトともいう、実環境1のオブジェクトとの間の関連づけを生じさせるために、関連づけ(または対応)テーブルが、たとえばユーザ10によって確立される。この関連づけテーブル、たとえばLUT(ルックアップテーブル)タイプのテーブルは有利には、第1のオブジェクトと第2のオブジェクトとの間の1対1の関連づけを確立し、第1のオブジェクトは、別の第1のオブジェクトに関連づけられていない1つまたは複数の第2のオブジェクトに関連づけられる。したがって、ドア112はたとえば、食器棚12およびスピーカ14に関連づけられ、テレビ画面111は、コーヒーテーブル17に関連づけられる。
【0022】
図示しない有利な別の形態によると、ユーザ10は、自分の指示ジェスチャにより、第1の仮想環境100とは異なる第2の仮想環境に属す第2のオブジェクトを指示する。この第2の仮想環境はたとえば、閾値より大きいサイズをそれぞれがもつ仮想オブジェクトを備える合成画像に対応し、それにより、ユーザ10の体の部位を指示することによって仮想オブジェクトが選択されることが可能になる。この第2の仮想環境はたとえば、ビデオプロジェクタによって、実環境1の壁または十分に大きい投影スクリーンに投影される。このような形態の利点は、実環境に対して行われるのとは異なり、第2の仮想環境をマップする必要がないことである。すなわち、第2の仮想環境の2つの仮想オブジェクトは画像合成によって構成されるので、こうしたオブジェクトのそれぞれの位置はデフォルトで分かっており、第2の仮想オブジェクトと回帰線との間の交差の判定は容易であり自動的である。さらに別の形態によると、第2の仮想環境は、第1の仮想環境を投影スクリーンに投影したものであり、投影は、第1の投影された仮想オブジェクト、したがって第2のオブジェクトになるもののサイズが、閾値より大きくなるように行われ、こうすることによってオブジェクトは、指示することによって選択され得る。第1のオブジェクトと第2のオブジェクトとの間の関連づけはしたがって、異なる表示装置(それぞれ、たとえば表示装置11およびビデオプロジェクタ)によって異なるサイズで表示される同じオブジェクトに関しては、必要なくなる。
【0023】
また別の形態によると、ユーザ10は、自分の指示ジェスチャを、音声コマンドを発音することによって、またはリモコンのキーを押すことによって確認する。マルチメディア端末は次いで、確認コマンドが受信されるまでは、指示の方向を判定するために、獲得された画像の分析を開始しない。この形態は、指示ジェスチャを表す画像の検出に必要な画像の分析を最小限にするという利点をもたらす。
【0024】
当然ながら、指示ジェスチャを実施するユーザ10の体の部位は、図1を参照して記載したもの、すなわち腕に限定されるのではなく、ユーザの体のどの部位、たとえば、脚または片方の手の指にも及ぶ。
【0025】
図2は、本発明のある特定の実施形態による、ユーザ10によって実施される指示ジェスチャの方向の推定方法を示す。分かりやすくするために、図2は、体の部位の前後軸の判定結果をグラフによって、また、拡張により、指示ジェスチャの方向を2次元の空間(xおよびy)で示す。有利には、前後軸は、3次元(x、yおよびz)空間内で拡張し、実環境1が3次元空間である。点200は、指示ジェスチャを実施するユーザの体の部位、たとえばユーザの腕に属す点に対応し、こうした点は、カメラ19によって取り込まれた指示ジェスチャの画像から(またはより具体的には、指示ジェスチャを実施する体の部位に対応する内容である画像部分から)、指示ジェスチャを実施するユーザの体の部位を表す画像部分のピクセルそれぞれに関連づけられた奥行き情報を使って判定される。この奥行き情報は、カメラ19に関連づけられた奥行きセンサによって取り込まれ、この情報は有利には、奥行きマップ(またはzマップ)に記録される。点200の3次元配置から、指示ジェスチャの前後軸または方向は、座標(xi、yiおよびzi)を有する点200それぞれの線形回帰または多重線形回帰によって判定されるが、座標ziについては図2に示していない。指示ジェスチャの方向を表す直線20は、2つの式からなる連立方程式によって、
【0026】
【数1】

【0027】
という形で表される。空間座標(xi、yiおよびzi)が判定されている点200のサンプルを使うと、定数a、b、c、d、a’、b’、c’、d’の判定は、点200の最も近くを通る直線、すなわち、直線20への点200の偏位の二乗の和を最小にする直線20を判定することを可能にする最小二乗法の使用により、容易である。
【0028】
当然ながら、ユーザ10の指示ジェスチャの方向を推定するのに用いられる方法は、図2を参照して記載したものに、すなわち、線形回帰によって限定されるのではなく、たとえば、最小中央値二乗による回帰による、またはやはり反復加重最小二乗法に従った回帰による、当業者に公知であるすべての方法に及ぶ。
【0029】
図3は、たとえば、本発明のある特定の実施形態による、図1のマルチメディア端末18に対応するマルチメディア端末3の構造を図式的に示す。
【0030】
端末3は有利には、たとえば、図1の表示装置11に対応する表示装置301に接続される。別の形態によると、端末3は、2つ以上の表示装置、たとえば、テレビ画面およびビデオプロジェクタに接続される。端末3は、プログラムメモリ307、データベース304および動的ユーザインタフェースマネージャ305に接続された中央ユニット302と、オーディオ/ビデオデータがライブ送信されることを可能にする高ビットレートデジタルネットワーク310との通信のためのインタフェース308とを備える。このネットワークはたとえば、標準IEEE1394に準拠するネットワークである。端末3は、ビデオカメラ312との通信を可能にするインタフェース、たとえば、ビデオカメラ312によって送信される取得信号の受信ユニットも備え、ビデオカメラ312は、カメラに統合された奥行きセンサに関連づけられる。また別の形態によると、奥行きセンサは、カメラ312から物理的に分離され、奥行きセンサはたとえば、端末3に統合され、もしくは表示装置301に統合され、または専用周辺装置である。さらに別の形態によると、カメラ312は、端末3に統合された要素である。さらに別の形態によると、カメラ312は、表示装置301に統合される。端末3は、リモコン311から信号を受信するための赤外線信号受信部303、データベースの格納のためのメモリ304、および表示装置301に送信される視聴覚信号の作成のためのオーディオ/ビデオデコード論理309も備える。リモコン311は、ナビゲーションキー↑、↓、→、←、数字キーパッドおよび「OK」キーを装備する。動きセンサを装備する回転式リモコンを使うこともできる。
【0031】
端末3は、しばしばOSD(オンスクリーン表示)回路と呼ばれる、画面上のデータ表示回路306も備える。OSD回路306は、メニュー、ピクトグラム(たとえば、表示されるチャネルに対応する番号)のオンスクリーン表示を可能にし、本発明による、ユーザ10を表す図1のアバター110の表示を可能にするテキストおよびグラフィックスジェネレータである。OSD回路は、1つまたはいくつかのマイクロプロセッサ(またはCPU)および1つまたはいくつかのGPU(グラフィカル処理ユニット)を備える中央ユニット302、ならびにアバター110およびユーザインタフェースの他の任意のグラフィカル構成要素の表示信号を生成する動的ユーザインタフェースマネージャ305から情報を受信する。有利には、GPUは、カメラ312によって取り込まれた画像の処理を実施して、特に、どれが指示ジェスチャを表す内容の画像であるか判定し、逆のケースでは、指示ジェスチャの方向および配向を判定する。奥行きセンサによって取り込まれた奥行き情報は有利には、メモリ307(有利には、GRAM(グラフィカルランダムアクセスメモリ)の形をとる)の一部分に格納された奥行きマップまたはデータベース304に格納される。本発明に特有であるとともにこれ以降で記載する方法のステップを実装するアルゴリズムは、有利にはRAM(ランダムアクセスメモリ)の形をとるメモリ307の別の部分に格納される。電源オンされたとき、また、仮想環境1およびアバター110を表すパラメータがメモリ307のGRAM部分にロードされると、アバターを表すパラメータは、データベース304に格納され、メモリ307のRAM部分または動的ユーザインタフェースマネージャ305に格納された通信アプリケーションの命令は、CPU302によって実行される。
【0032】
端末3が再生することができるマルチメディアドキュメントは、視聴覚ドキュメント、オーディオドキュメント、または画像である。
【0033】
別の形態によると、リモコン311は、視聴者のジェスチャを検出することができる装置、たとえば、奥行きセンサに関連づけられたカメラ312で置き換えられる。ジェスチャは次いで、端末3の、専用または専用でないモジュールによって分析されて、仮想世界1におけるアバター110を移動するためのコマンドに解釈される。別の形態によると、リモコンは、音声コマンドを記録することができるマイクロホンタイプ装置で置き換えられる。音声コマンドを組成する音は次いで、端末3の、専用または専用でないモジュールによって分析されて、仮想世界1におけるアバター110を移動するためのコマンドに翻訳される。
【0034】
図4は、第1の非限定的な特に有利な本発明の実施形態による、マルチメディア端末3で実装されることを意図した、第1の仮想環境における第1のオブジェクトの選択方法を示す。
【0035】
初期化ステップ40中に、端末の様々なパラメータがアップデートされる。
【0036】
次いで、ステップ41中に、実環境内を動き回るユーザの指示ジェスチャに関連づけられた方向が推定される。要求により、実環境は、3次元でマップされ、すなわち、この実環境を組成するオブジェクトは、当業者に公知である任意の方法により3Dマップでモデリングされ、3Dマップは、位置に関係した情報(すなわち、座標)を備え、空間内のオブジェクトのかさばり(すなわち、サイズ)は、実環境を定義する。有利には、指示ジェスチャの方向の推定は、ビデオカメラによる指示ジェスチャの取得、および奥行きセンサによる奥行き情報の項目の取得ステップを含み、奥行き情報は、一方では取り込まれた画像の各ピクセルおよびピクセルグループと、他方ではカメラまたは奥行きセンサとの間の距離を表し、この情報はたとえば、奥行きマップに記録される。別の形態によると、指示ジェスチャの方向は、いくつかのビデオカメラ、たとえば、指示ジェスチャの立体画像を与える2つのカメラから推定され、奥行き情報は次いで、複数のカメラによって取り込まれた画像それぞれの間の差異の算出によって推定される。有利には、指示ジェスチャの方向の判定は、当業者に公知である任意の方法により、指示ジェスチャを実施するユーザの体の部位の前後軸を推定することによって、たとえば線形回帰によって判定される。
【0037】
次いで、ステップ42中に、第2のオブジェクトが、ユーザの指示ジェスチャの推定方向により判定される。第2のオブジェクトは有利には、一方では指示ジェスチャ、指示ジェスチャの方向および指示ジェスチャの配向を実施する体の部位の先端を起点とする線と、他方ではこの線が出会う第2のオブジェクトのうち最初のオブジェクトとの間の交差を算出することによって判定される。第2のオブジェクトは、閾値より大きいサイズであり、閾値は、線との交差の算出によってオブジェクトが判定されなければならない可能性のある最小サイズに対応し、指示ジェスチャの方向の推定は、推定上の不正確を受けやすい。別の形態によると、第2のオブジェクトは、第2のオブジェクトのうち、線の近くにある、すなわち、線の周りの所定の閾値未満の半径内の最初のオブジェクトである。
【0038】
有利には、判定される第2のオブジェクトは、実環境に属す実オブジェクトであり、第2のオブジェクトは、実環境の、マップされるオブジェクトの1つである。別の形態によると、第2のオブジェクトは、第2の仮想環境に属す仮想オブジェクトであり、第2の仮想環境はたとえば、ユーザが動き回る実環境の壁に、または実環境に配置された投影スクリーンに投影され、第1の仮想環境のものとは異なる内容を有する。この別の形態によると、第2のオブジェクトまたは投影された仮想環境のオブジェクトはそれぞれ、前述した閾値より大きいサイズを有する。この別の形態によると、実環境のマッピングは不要である。さらに別の形態によると、第2のオブジェクトは、閾値より大きいサイズで表示される第1の仮想環境の仮想オブジェクトであり、第1のオブジェクトとして知られる、第1の仮想環境のオブジェクトは、ユーザが見る表示装置に、閾値未満のサイズで表示され、または表される。この別の形態によると、実環境のマッピングも不要である。
【0039】
最後に、ステップ43中に、第1のオブジェクトが、第2の判定されたオブジェクトを使って選択される。第1のオブジェクトの選択は、仮想環境の第1のオブジェクトそれぞれと、第2のオブジェクト(実環境、または第2の仮想環境、または第1の仮想環境の第2の表現、またはこうした3つの上記環境に属す)との間の関連づけを表す関連づけ情報の項目を使って実施される。
【0040】
当然ながら、本発明は、上に記載した実施形態に限定されない。
【0041】
具体的には、本発明は、第1の仮想環境内の第1のオブジェクトの選択方法に限定されるのではなく、このような方法を実装するマルチメディア端末、およびこの表示方法を実装するマルチメディア端末を備える表示装置にも及ぶ。本発明は、仮想環境における閾値未満のサイズのオブジェクトの選択を含むアバターの制御方法にも関する。
【符号の説明】
【0042】
1 実環境
10 ユーザ
11 表示装置
3,18 マルチメディア端末
19 カメラ
100 仮想環境
110 アバター
111 テレビ画面
112 ドア
130 リモコン

【特許請求の範囲】
【請求項1】
第1の仮想環境における第1のオブジェクトの選択方法であって、前記第1のオブジェクトは、前記第1の環境内で閾値未満のサイズ値で表され、前記方法は、
・ユーザの指示ジェスチャに関連づけられた方向を推定するステップと、
・前記推定された方向に従って、第2のオブジェクトを判定するステップであって、前記第2のオブジェクトは、前記閾値より大きい値のサイズを有する、ステップと、
・前記第2の判定されたオブジェクトに従って、前記第1のオブジェクトを選択するステップと
を含むことを特徴とする方法。
【請求項2】
前記閾値は、前記方向の前記推定が不正確であることを表す情報に従って判定されることを特徴とする請求項1に記載の方法。
【請求項3】
前記閾値は、前記第1のオブジェクトの境界となるボックスを表す寸法のうち最小のものに対応し、前記最小寸法は、所定の値より大きいことを特徴とする請求項2に記載の方法。
【請求項4】
前記第2のオブジェクトは、実環境に属すことを特徴とする請求項1に記載の方法。
【請求項5】
前記第2のオブジェクトは、第2の仮想環境に属すことを特徴とする請求項1に記載の方法。
【請求項6】
前記実環境は、3次元でマップされることを特徴とする請求項4に記載の方法。
【請求項7】
前記第1のオブジェクトは、第1のオブジェクトからなるグループに属し、前記第2のオブジェクトは、第2のオブジェクトからなるグループに属し、前記第1のオブジェクトの前記選択は、各第1のオブジェクトと第2のオブジェクトとの間の関連づけを確立するテーブルの使用を含むことを特徴とする請求項1乃至6のいずれかに記載の方法。
【請求項8】
前記方法は、ビデオカメラおよび奥行き情報の少なくとも1つの項目を使う、前記指示ジェスチャの取得ステップを含むことを特徴とする請求項1乃至7のいずれかに記載の方法。
【請求項9】
前記第2のオブジェクトの前記判定は、線と、前記線が出会う第1の要素との間の交差の算出ステップを含み、前記線は、その起点として、前記指示ジェスチャを行う前記ユーザの体の部位を、方向として前記指示ジェスチャに関連づけられた前記方向を、および配向として前記指示ジェスチャの配向を有することを特徴とする請求項1乃至8のいずれかに記載の方法。
【請求項10】
前記指示ジェスチャの前記方向は、前記指示ジェスチャを行う前記ユーザの体の部位の検出によって、および3次元空間における体の前記部位の前後軸の推定によって判定されることを特徴とする請求項1乃至9のいずれかに記載の方法。
【請求項11】
取り込まれた画像を表す信号の受信用ユニットと、画像処理に適合された中央ユニットとを備えるマルチメディア端末であって、前記中央ユニットは、
・ユーザの指示ジェスチャに関連づけられた方向を推定する手段と、
・前記推定された方向に従って第2のオブジェクトを判定する手段であって、前記第2のオブジェクトは、閾値より大きい値のサイズを有する、手段と、
・前記第2の判定されたオブジェクトに従って、第1のオブジェクトを選択する手段であって、前記第1のオブジェクトは、第1の仮想環境に属し、前記閾値未満の値のサイズを有する、手段と
を備えたことを特徴とするマルチメディア端末。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate


【公開番号】特開2011−258204(P2011−258204A)
【公開日】平成23年12月22日(2011.12.22)
【国際特許分類】
【外国語出願】
【出願番号】特願2011−126203(P2011−126203)
【出願日】平成23年6月6日(2011.6.6)
【出願人】(501263810)トムソン ライセンシング (2,848)
【氏名又は名称原語表記】Thomson Licensing 
【住所又は居所原語表記】1−5, rue Jeanne d’Arc, 92130 ISSY LES MOULINEAUX, France
【Fターム(参考)】