説明

ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法

【課題】ジェスチャによる操作入力を容易にする技術を提供する。
【解決手段】指示ポイント抽出部10は、ディスプレイを見ながら行われるユーザのジェスチャを撮影した画像からユーザの指示ポイントを抽出する。距離計算部20は、指示ポイントまでの奥行き方向の距離を求める。ジェスチャ認識パラメータ調整部50は、奥行き方向の距離計測の分解能およびディスプレイの3次元表示性能の少なくとも一方にもとづいて、ユーザのジェスチャによる操作入力を認識する際の奥行き方向の検出感度に関するパラメータを調整する。ジェスチャ認識処理部60は、調整されたパラメータのもとで、距離計算部20により計算された指示ポイントまでの奥行き方向の距離を参照して、ユーザのジェスチャによる操作入力を認識する。

【発明の詳細な説明】
【技術分野】
【0001】
この発明は、ジェスチャによる操作入力を処理する装置および方法に関する。
【背景技術】
【0002】
立体映像が視聴できる3次元テレビが一般家庭でも利用できるようになった。また、3次元映像を記録したブルーレイディスクをプレイヤで再生して、3次元ディスプレイに表示して高画質の3次元映像を視聴することも可能になった。ゲーム機においても3次元ディスプレイに接続して3次元映像を用いたゲームアプリケーションをプレイできる。さらに、距離センサを備えたカメラを用いて、ユーザの3次元映像を撮影し、ゲームアプリケーションに取り込むこともある。
【0003】
ゲームアプリケーションの中には、ユーザが身体を用いて操作をしたり、ゲームに参加するタイプのものが増えている。今後、ゲームアプリケーションが3次元化すると、ジェスチャによる入力操作がより多く利用されることが予想される。
【0004】
特許文献1には、ユーザが画面から離れた位置から指示を与えることができるインタフェースを備えた携帯型ゲーム装置が開示されている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】国際公開第10/038822号パンフレット
【発明の概要】
【発明が解決しようとする課題】
【0006】
ユーザのジェスチャによる操作入力を支援するためのジェスチャインタフェースの技術が求められている。システムは、ディスプレイを前にしてユーザがストレスを感じることなくジェスチャを介して操作を入力できるように、ジェスチャを認識する際の検出感度をシステムの性能に合わせて適切なレベルに制御する必要がある。
【0007】
本発明はこうした課題に鑑みてなされたものであり、その目的は、ジェスチャによる操作入力を容易にする技術を提供することにある。
【課題を解決するための手段】
【0008】
上記課題を解決するために、本発明のある態様のジェスチャ操作入力処理装置は、ディスプレイを見ながら行われるユーザのジェスチャを撮影した画像からユーザの指示ポイントを抽出する指示ポイント抽出部と、前記指示ポイントまでの奥行き方向の距離を求める距離計算部と、奥行き方向の距離計測の分解能および前記ディスプレイの3次元表示性能の少なくとも一方にもとづいて、ユーザのジェスチャによる操作入力を認識する際の奥行き方向の検出感度に関するパラメータを調整するパラメータ調整部と、調整されたパラメータのもとで、前記距離計算部により計算された前記指示ポイントまでの奥行き方向の距離を参照して、ユーザのジェスチャによる操作入力を認識するジェスチャ認識処理部とを含む。
【0009】
本発明の別の態様は、ジェスチャ操作入力処理方法である。この方法は、ユーザのジェスチャによる操作入力を支援するインタフェースを備えた3次元ジェスチャ入力システムにおけるジェスチャ操作入力処理方法であって、ディスプレイを見ながら行われるユーザのジェスチャを撮影した画像からユーザの指示ポイントを抽出するステップと、前記指示ポイントまでの奥行き方向の距離を求めるステップと、奥行き方向の距離計測の分解能および前記ディスプレイの3次元表示性能の少なくとも一方にもとづいて、ユーザのジェスチャによる操作入力を認識する際の奥行き方向の検出感度に関するパラメータを調整するステップと、調整されたパラメータのもとで、前記距離計算部により計算された前記指示ポイントまでの奥行き方向の距離を参照して、ユーザのジェスチャによる操作入力を認識するステップとを含む。
【0010】
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
【発明の効果】
【0011】
本発明によれば、ジェスチャによる操作入力が容易に行えるようになる。
【図面の簡単な説明】
【0012】
【図1】3次元ジェスチャ入力システムの構成図である。
【図2】ジェスチャ操作入力処理装置の構成図である。
【図3】図3(a)、(b)は、三角測量型のカメラの距離計測原理と距離分解能を説明する図である。
【図4】図4(a)、(b)は、TOF型のカメラの距離計測原理と距離分解能を説明する図である。
【図5】ディスプレイ装置の前面に設定される仮想的なスクリーンを説明する図である。
【図6】図6(a)〜(e)は、ジェスチャによる操作入力の例を説明する図である。
【図7】ジェスチャの奥行き方向の動き検出の感度を調整するパラメータを説明する図である。
【図8】図2のジェスチャ操作入力処理装置によるZ方向の動き検出の感度に関するパラメータの調整方法を説明するフローチャートである。
【発明を実施するための形態】
【0013】
図1は、3次元ジェスチャ入力システム300の構成図である。3次元ジェスチャ入力システム300は、ゲーム機200、ディスプレイ装置210、およびカメラ220を含む。
【0014】
ゲーム機200は、ゲームアプリケーションなどのコンテンツを実行し、ディスプレイ装置210に映像や操作メニューなどを表示する。ゲーム機200の代わりに、記録媒体に格納されたコンテンツを再生するプレイヤを用いてもよい。
【0015】
ディスプレイ装置210は、2次元表示および/または3次元表示が可能なディスプレイである。ディスプレイ装置210が2次元表示のみが可能である場合、コンテンツを2次元画像として表示するが、3次元表示も可能である場合、ユーザからの指示またはアプリケーションからの指示に応じて、コンテンツを2次元画像または3次元画像として表示する。
【0016】
カメラ220は、ユーザ250のジェスチャを撮影する。カメラ220は、ディスプレイ装置210の上部などに設けられる。カメラ220の設置位置を原点とし、ディスプレイ表面をXY平面とし、ディスプレイ表面に垂直な方向をZ軸とする座標系を考える。カメラ220は、被写体までのZ方向の距離を測定する測距機能を有する。たとえば、カメラ220は、音波や光を被写体に投射し、反射して戻ってくるまでの時間を計ることにより被写体までの距離を測定する距離センサを有してもよく、あるいは、異なる二つの視点から撮影した視差画像から奥行き値を計算する画像処理ユニットを有してもよい。
【0017】
ユーザ250は、ディスプレイ装置210に表示された画像を見ながら、ジェスチャによりゲーム機200に対する操作コマンドを入力する。ディスプレイ装置210がステレオディスプレイのように立体視のために専用メガネ230を有する場合は、ユーザ250は専用メガネ230を装着してディスプレイ装置210の画面を見る。
【0018】
ユーザ250は、手の指などを指示ポイント240a〜cとして3次元空間内で動かすことによって、操作コマンドをゲーム機200に与える。ディスプレイ装置210の画面には、ユーザのジェスチャ入力を支援するために、ゲーム機200が検出した指示ポイント240a〜cの移動軌跡が表示される。
【0019】
ゲーム機200は、カメラ220により撮影されたユーザ250のジェスチャ画像からユーザ250の手の指などの指示ポイント240a〜cを検出し、カメラ220から指示ポイント240a〜cまでの距離を求める。
【0020】
ゲーム機200が指示ポイント240a〜cを検出しやすいように、ユーザは人差し指だけを差し出すようにしてもよい。あるいは、指示ポイント240を画像認識しやすいように、ユーザ250はマーカーが付けられた指キャップを指に付けたり、マーカーが付けられた指示棒を使用してジェスチャを行ってもよい。あるいは、ユーザ250は、3次元座標を検出できる位置センサを搭載したコントローラを手にもってジェスチャを行い、コントローラから無線通信などにより、位置センサが検出した3次元座標をゲーム機200に送信してもよい。
【0021】
ゲーム機200は、ユーザ250の指示ポイント240の3次元空間内での動きに応じて、ユーザが意図した操作コマンドを認識し、操作コマンドを実行する。特に、ゲーム機200は、ユーザ250のジェスチャの奥行き方向の動きを検出することにより、ユーザ250のジェスチャに自由度をもたせて、ジェスチャ入力インタフェースに柔軟性を与えることができる。
【0022】
図2は、ジェスチャ操作入力処理装置100の構成図である。図2に示すジェスチャ操作入力処理装置100の機能構成の一部または全部は、ゲーム機200にハードウェア、ソフトウェアまたはその組み合わせによって実装することができる。ゲーム機200以外に、パーソナルコンピュータ、携帯機器、携帯端末などに実装してもよい。
【0023】
ジェスチャ操作入力処理装置100は、指示ポイント抽出部10、距離計算部20、距離センサ性能取得部30、距離センサデータベース32、ディスプレイ性能取得部40、ディスプレイデータベース42、ジェスチャ認識パラメータ調整部50、仮想スクリーン記憶部52、ジェスチャ認識処理部60、表示制御部70、およびアプリケーション実行部80を有する。
【0024】
指示ポイント抽出部10は、カメラ220が撮影したユーザ250のジェスチャ画像を取得し、ジェスチャ画像からユーザの指示ポイント240を抽出する。指示ポイント240は、ユーザの指の先端部やマーカーが付された箇所であるから、エッジ抽出や画像解析など一般的な画像処理機能を用いて指示ポイント240を画像から抽出することができる。
【0025】
距離計算部20は、指示ポイント240までの奥行き方向の距離を求める。カメラ220が三角測量型の測距機能を有する場合、異なる二つの視点から撮像された視差画像から指示ポイント240までの奥行き方向の距離を求める。カメラ220がアクティブ型レーザ距離計やレーダーなどTOF(time of flight)の距離センサを有する場合、距離計算部20は、指示ポイント240に光を投影してから、その光が指示ポイント240に反射して戻ってくるまでの往復時間をカメラ220から取得して、往復時間に光の速度を乗算することにより、指示ポイント240までの距離を求める。
【0026】
距離センサ性能取得部30は、距離センサデータベース32を参照して、カメラ220の距離センサの分解能に関する情報を取得し、ジェスチャ認識パラメータ調整部50に与える。距離センサの分解能情報には、測定可能な距離の範囲や、距離センサの測距方式が三角測量型であるか、TOF型であるかを示す識別情報などが含まれる。
【0027】
ディスプレイ性能取得部40は、ディスプレイデータベース42を参照して、ディスプレイ装置210の表示性能に関する情報を取得し、ディスプレイ装置210の表示性能情報をジェスチャ認識パラメータ調整部50に与える。表示性能情報には、3次元表示性能に関する情報が含まれる。たとえば、ディスプレイ装置210が、通常の液晶テレビのディスプレイのようにZ方向の表示能力をもたない2Dディスプレイであるか、ステレオ視(両眼立体視)可能なステレオディスプレイであるか、3次元空間を表示可能な3Dディスプレイであるかを示す識別情報が含まれる。
【0028】
ジェスチャ認識パラメータ調整部50は、距離センサ性能取得部30から与えられる距離センサの分解能と、ディスプレイ性能取得部40から与えられるディスプレイの3次元表示性能と、距離計算部20から与えられる指示ポイント240までの測定距離とにもとづいて、ジェスチャ認識する際のパラメータを調整する。ジェスチャ認識の際のパラメータは、特に指示ポイント240の奥行き方向の動きを検出する感度を調整するためのものである。
【0029】
ジェスチャ認識パラメータ調整部50は、奥行き方向の距離計測の分解能が高ければ、指示ポイント240の奥行き方向の動きを検出する粒度を細かくして感度を上げ、逆に、奥行き方向の距離計測の分解能が低ければ、指示ポイント240の奥行き方向の動きを検出する粒度を粗くして感度を下げる。同様に、ディスプレイの3次元表示性能が高ければ、指示ポイント240の奥行き方向の動きを検出する粒度を細かくして感度を上げ、逆に、ディスプレイの3次元表示性能が低ければ、指示ポイント240の奥行き方向の動きを検出する粒度を粗くして感度を下げる。
【0030】
本実施の形態では、ディスプレイ装置210の前面に、仮想的なスクリーンを設定し、指示ポイント240が仮想的なスクリーンを通過することを契機に、指示ポイント240をアクティブ化する。指示ポイント240が仮想的なスクリーンよりユーザから見て手前にある場合は、指示ポイント240は非アクティブとすることで、ユーザが指などで操作入力を与えるときと、与えないときを容易に区別できるようにする。仮想的なスクリーンをディスプレイ装置210の前面に複数設置してユーザが段階的に指を差し入れることで、段階的に操作入力を与えることができるようにしてもよい。仮想スクリーン記憶部52は、そのような仮想的なスクリーンの設置位置や設置間隔などの情報を保持する。
【0031】
ジェスチャ認識パラメータ調整部50は、仮想スクリーン記憶部52に保持された仮想的なスクリーンの設置位置や設置間隔などのパラメータを調整することにより、指示ポイント240の奥行き方向の動きを検出する感度を調整することができる。
【0032】
ジェスチャ認識処理部60は、調整されたパラメータのもとで、距離計算部20により計算された指示ポイント240までの奥行き方向の距離を参照して、3次元空間内のユーザのジェスチャを認識し、操作コマンドを特定する。ジェスチャ認識処理部60は、指示ポイント240までの奥行き方向の距離にもとづいて、指示ポイント240がディスプレイ装置210の前面に設定された仮想的なスクリーンを通過したかどうかを判定し、通過した場合に指示ポイント240をアクティブ化し、ユーザのジェスチャによる操作入力を特定する。表示制御部70は、ジェスチャ認識処理部60がユーザのどのようなジェスチャを認識しているかを示すために、ディスプレイ装置210に指示ポイント240の移動軌跡を表示する。
【0033】
アプリケーション実行部80は、ジェスチャ認識処理部60により特定された操作コマンドを実行し、アプリケーションに反映させる。
【0034】
図3(a)、(b)は、三角測量型のカメラ220の距離計測原理と距離分解能を説明する図である。図3(a)に示すように、三角測量の場合、2台のカメラ220a、220bを用いて異なる視点から視差画像を撮像するか、1台のカメラ220を移動させて視点位置を異ならせて視差画像を撮像することにより、指示ポイント240までの距離dを測定する。三角測量の原理を用いた測距カメラの一例として、ステレオカメラがある。
【0035】
図3(b)のグラフは、三角測量型のカメラ220における、絶対距離dに対する距離分解能Rを示す。グラフの横軸は視点から被写体までの絶対距離dであり、縦軸は三角測量による距離分解能Rである。図3(b)に示すように、三角測量の場合、被写体までの距離が遠く離れるほど、距離分解能Rが低くなり、測定精度は落ちる。逆に被写体までの距離が近いほど、距離分解能Rが高くなり、測定精度は上がる。
【0036】
図4(a)、(b)は、TOF型のカメラ220の距離計測原理と距離分解能を説明する図である。TOF型のカメラ220の場合、被写体に赤外光や超音波を投射し、その反射波を測定することにより、被写体までの距離を測定する。図4(a)に示すように、TOF法では、カメラ220のセンサから出た光が指示ポイント240に当たって反射し、センサに届くまでの往復時間tを測定し、光の速度cを乗算して2で割ることにより、次式のように距離dを求めることができる。
d=t×c/2
【0037】
図4(b)のグラフは、TOF型のカメラ220における、絶対距離dに対する距離分解能Rを示す。図4(b)に示すように、TOF法の場合、被写体までの距離に関係なく、距離分解能Rは一定であり、被写体までの距離が遠く離れても、測定精度は落ちない。
【0038】
三角測量型のカメラ220は被写体までの距離が遠くなると測定精度が落ちるが、二つの視点の間隔をより広げれば、測定精度を上げることができる。一般家庭でディスプレイ装置210にカメラ220を設置することを考えると、視点間隔を広げることには限界があるため、絶対距離に関係なく測定精度が一定であるTOF型のカメラ220を用いた方が有利である。
【0039】
ディスプレイ装置210についてもジェスチャによる操作入力に影響を与える表示能力の違いがある。2次元ディスプレイ、たとえば普通の液晶テレビのディスプレイは、Z方向の表現能力は持たない。このような2次元ディスプレイの場合、ユーザがディスプレイに写し出された自分の姿または指示ポイント240の移動軌跡を見ながら、空中で円を描くと、奥行き方向の距離が一定でない円になることが多い。
【0040】
ステレオ視(両眼立体視)が可能なステレオディスプレイは、Z方向の表現能力を持ち、ユーザは、裸眼または偏光メガネを用いて一組の左右画像を見ることで立体視することができる。たとえば、左右画像を時分割切り替え表示し、液晶シャッターメガネにより、左右の目に交互に左画像/右画像を入力する方式や、パララックスバリアやレンチキュラレンズを用いて、裸眼状態で左右の目にそれぞれ左画像/右画像が見えるようにする方式で立体視が可能である。このようなステレオディスプレイの場合、ユーザがディスプレイを見ながら、空中で円を描くと、ディスプレイ面に平行な円を描くことができる。しかし、ステレオディスプレイは、立体視するためのユーザの視点位置が固定されており、ある視点から一方向に見た立体視しかできず、ユーザの視点位置の変化には追随できないものが多い。
【0041】
インテグラルイメージング方式やホログラム方式などの多視点対応の3次元ディスプレイは、視点位置に応じて異なる左右画像を複数組映し出すことで、異なる視点位置から見ても立体視することができる。このような3次元ディスプレイの場合、ユーザは、どの視点位置から見ても立体視ができることから、あたかも3次元空間に実物があるかのように見え、表示された立体画像を見ながら、奥行き方向の操作をより正確に行うことができる。3次元ディスプレイは、ユーザの視点位置の変化に追随することができ、より自然な立体視が可能である。さらにホログラム方式を使えば、左右画像を実質的に無限組見せることができるので、ほぼ完全な立体視が可能となる。
【0042】
ディスプレイ装置210が、2次元ディスプレイから、ステレオディスプレイ、そして3次元ディスプレイになるにつれて、ユーザがジェスチャにより操作入力する際のZ軸方向の操作精度が上がり、Z方向にリッチなジェスチャをして操作入力することが可能になる。
【0043】
本実施の形態の3次元ジェスチャ入システム300では、カメラ220の距離計測分解能と、ディスプレイ装置210の3次元表示性能に応じて、ジェスチャ認識のパラメータを調整することで、ユーザの操作感を最適化する。
【0044】
図5は、ディスプレイ装置210の前面に設定される仮想的なスクリーンを説明する図である。ディスプレイ装置210に設置されたカメラ220を原点とし、ディスプレイ装置210面をXY平面とし、ディスプレイ装置210面に垂直な奥行き方向をZ軸とする座標系において、カメラ220からの距離dがZ1、Z2(Z1<Z2)の位置にそれぞれ仮想的な第1、第2仮想スクリーン270a、270bが設けられている。
【0045】
ユーザが指などをディスプレイ装置210に向かって差し出し、指示ポイント240がこれらの仮想スクリーンを突き破った場合、指示ポイント240をアクティブにする。仮想スクリーンは、指示ポイント240までの奥行き距離に応じて指示ポイント240をアクティブにする距離スイッチ機能を有する。
【0046】
ユーザが手の指をディスプレイ装置210に向かって差し出し、指示ポイント240の位置のZ座標の値がZ2よりも小さくなったとき、指示ポイント240は第2仮想スクリーン270bを突き破ったと判定され、さらに、指示ポイント240の位置のZ座標の値がZ1よりも小さくなったとき、指示ポイント240は第1仮想スクリーン270aを突き破ったと判定される。
【0047】
たとえば、指示ポイント240が距離Z2の位置にある第2仮想スクリーン270bを突き破った場合、ジェスチャ認識処理部60は、その動作をディスプレイ上のボタンなどを選択する操作であると認識し、指示ポイント240がさらに距離Z1の位置にある第1仮想スクリーン270aを突き破ると、ジェスチャ認識処理部60は、その動作をワープ操作であると認識してもよい。
【0048】
このように奥行き方向の距離に応じて2段階の仮想スクリーンを設けることにより、ジェスチャ認識処理部60は、ユーザのジェスチャの奥行き方向の変化に応じて、異なる操作コマンドを特定することができる。仮想スクリーンの段数をさらに増やせば、突き破る仮想スクリーンの段数に応じてさらに多くの異なる操作コマンドを特定することができる。また、仮想スクリーンの段数を増やせば、奥行き方向の動きの加速度変化を検出して、操作コマンドにさらにバリエーションをもたせることもできる。
【0049】
図6(a)〜(e)は、ジェスチャによる操作入力の例を説明する図である。図6(a)は、指を仮想スクリーンに突っ込んでそこを原点として上下左右に動かしたり、円を描くことにより、相対的なコントロールを入力する例である。たとえば、指が仮想スクリーンを突き破ると、指示ポイント240がアクティブになり、ディスプレイ装置210に表示されたオブジェクトやアイコンが選択され、指示ポイント240を上下左右に動かすことで、画面に表示されたオブジェクトやアイコンを上下左右に動かすことができる。また、ディスプレイ装置210の画面に画像やドキュメントが表示されている場合は、指を上下左右に動かすことで上下左右にスクロールしたり、右回りの円を描くことで拡大、左回りの円を描くことで縮小表示できるようにしてもよい。
【0050】
図6(b)は、指を仮想スクリーンに突っ込み、カメラ220a、220bの視界を横切るように、大きく左右に動かした場合、ジェスチャ認識処理部60は、ユーザのジェスチャをフリック入力と判定し、アプリケーション実行部80は、判定された操作入力にしたがって、たとえば、次の画面に移動したり、連続スクロールを実行したりする。
【0051】
図6(c)、(d)は、ユーザがジェスチャによりピンチ操作を入力する様子を示す。ピンチとは二本の指でつまむような動作をして、指と指の間を広げたり(ピンチアウト)、狭めたりする(ピンチイン)ことである。
【0052】
図6(c)は、左右の2本の指を仮想スクリーンに突っ込み、2本の指の間隔を狭めるジェスチャを行った場合、ジェスチャ認識処理部60は、このジェスチャをピンチイン操作であると判定し、表示制御部70は、表示されている画面を縮小する処理を実行する。
【0053】
図6(d)は、左右の2本の指を仮想スクリーンに突っ込み、2本の指の間隔を広げるジェスチャを行った場合、ジェスチャ認識処理部60は、このジェスチャをピンチアウト操作であると判定し、表示制御部70は、表示されている画面を拡大する処理を実行する。
【0054】
図6(e)は、指示ポイント240がアクティブのときに、さらに指を突き出すと、ジェスチャ認識処理部60は、ワープ操作であると判定する。また、たとえば、指を1本だけを突き出すと、ジェスチャ認識処理部60は、選択/実行ボタンの押し下げと判定するが、2本突き出すと、キャンセルボタンの押し下げであると判定してもよい。
【0055】
図7は、ジェスチャの奥行き方向の動き検出の感度を調整するパラメータを説明する図である。ディスプレイ面をXY平面、ディスプレイ面に垂直な方向をZ軸として、Z=Z1、Z2、Z3(Z1<Z2<Z3)の位置にそれぞれ仮想スクリーン270a、270b、270cが設けられたとする。設定する仮想スクリーンの段数をN、隣り合う仮想スクリーンの間隔をD、各仮想スクリーンのデッドバンド(不感帯)の幅をdとする。
【0056】
段数N、間隔D、およびデッドバンド幅dは、ジェスチャの奥行き方向の動き検出の感度に関するパラメータであり、これらのパラメータを、距離計測分解能と3次元表示性能にもとづいて調整する。また、これらの調整パラメータを奥行き方向の距離Zに依存して変化させてもよい。
【0057】
ディスプレイ装置210が、2次元ディスプレイからステレオディスプレイ、そして、3Dディスプレイへと3次元表示性能が上がるにつれて、ジェスチャ認識パラメータ調整部50は、段数Nを増やし、間隔Dとデッドバンド幅dは減らす。3次元表示性能が高いほど、ユーザはZ方向にリッチな動作をすることができるようになり、Z方向の検出感度を高めても問題がないからである。
【0058】
カメラ220が三角測量型である場合、奥行き方向の距離に応じて段数N、間隔D、およびデッドバンド幅dを変化させる。三角測量法の場合、被写体がカメラ220から遠くなるほど測定精度が落ちるため、カメラ220からの距離が所定の閾値より小さいところでは、段数Nを増やし、間隔Dとデッドバンド幅dは減らしてZ方向の検出感度を上げ、カメラ220からの距離が所定の閾値より大きいところでは、段数Nを減らし、間隔Dとデッドバンド幅dは減らしてZ方向の検出感度を下げる。
【0059】
カメラ220がTOF型である場合、奥行き方向の距離が変わっても測定精度は変わらないため、間隔D、デッドバンド幅dは一定値にするが、TOF型は測定精度が高いため、段数Nを三角測量型の場合よりは増やすことができる。
【0060】
図8は、ジェスチャ操作入力処理装置100によるZ方向の動き検出の感度に関するパラメータの調整方法を説明するフローチャートである。図8に示すフローチャートにおいては、各部の処理手順を、ステップを意味するS(Stepの頭文字)と数字との組み合わせによって表示する。また、Sと数字との組み合わせによって表示した処理で何らかの判断処理が実行され、その判断結果が肯定的であった場合は、Y(Yesの頭文字)を付加して、例えば、(S14のY)と表示し、逆にその判断結果が否定的であった場合は、N(Noの頭文字)を付加して、(S14のN)と表示する。
【0061】
ディスプレイ性能取得部40は、ディスプレイデータベース42からディスプレイ性能、特に3次元表示性能に関するデータを取得する(S10)。ゲーム機200にディスプレイ装置210が接続された時点で、ゲーム機200にはディスプレイ装置210のドライバがインストールされている。ディスプレイ性能取得部40は、ディスプレイ装置210のドライバの情報をもとにディスプレイデータベース42に問い合わせをして、3次元表示性能に関するデータを取得する。あるいは、ディスプレイ装置210のドライバに3次元表示性能に関するデータが含まれていれば、ディスプレイ性能取得部40はドライバから3次元表示性能に関するデータを取り出してもよい。
【0062】
ジェスチャ認識パラメータ調整部50は、調整パラメータである段数N、間隔D、およびデッドバンド幅dの初期値を設定する(S12)。この初期値は、ディスプレイが高度な3次元表示性能をもつことを前提としたデフォールト値である。
【0063】
ディスプレイ性能取得部40は、3次元表示性能に関するデータにもとづいて、ディスプレイ装置210が3次元ディスプレイであるかどうかを判定する(S14)。3次元ディスプレイであれば(S14のY)、段数N、間隔D、およびデッドバンド幅dの初期値を変えることなく、ステップS22に進む。
【0064】
3次元ディスプレイでなければ(S14のN)、ジェスチャ認識パラメータ調整部50は、段数Nを減少させ、間隔Dおよびデッドバンド幅dを増加させる(S16)。次に、ディスプレイ性能取得部40は、ディスプレイ装置210がステレオディスプレイであるかどうかを判定する(S18)。ステレオディスプレイであれば(S18のY)、これ以上、段数N、間隔D、およびデッドバンド幅dの値を変えることなく、ステップS22に進む。
【0065】
ディスプレイ装置210がステレオディスプレイでない、すなわち、2次元ディスプレイである場合(S18のN)、ジェスチャ認識パラメータ調整部50は、さらに段数Nを減少させ、間隔Dおよびデッドバンド幅dを増加させる(S20)。
【0066】
次に、距離センサ性能取得部30は、距離センサデータベース32からカメラ220の距離分解能に関するデータを取得する(S21)。ゲーム機200にカメラ220が接続された時点で、ゲーム機200にはカメラ220のドライバがインストールされている。距離センサ性能取得部30は、カメラ220のドライバの情報をもとに距離センサデータベース32に問い合わせをして、距離分解能に関するデータを取得する。あるいは、カメラ220のドライバに距離分解能に関するデータが含まれていれば、距離センサ性能取得部30はドライバから距離分解能に関するデータを取り出してもよい。
【0067】
距離センサ性能取得部30は、距離分解能に関するデータにもとづいて、カメラ220が三角測量型であるかどうかを判定する(S22)。三角測量型であれば(S22のY)、奥行き方向の距離に応じて段数N、間隔D、およびデッドバンド幅dを異ならせる(S24)。具体的には、カメラ220に近い位置ほど仮想スクリーンの段数Nを増やし、カメラ220から遠くなるほど仮想スクリーンの段数Nを減らす。また、カメラ220に近い位置の仮想スクリーンについては、測定精度が高いため、隣り合うスクリーンの間隔Dを狭くし、デッドバンド幅dも狭くする。カメラ220から遠い位置の仮想スクリーンについては、測定精度が落ちるため、隣り合うスクリーンの間隔Dを広くし、デッドバンド幅dも広くする。
【0068】
カメラ220が三角測量型でない場合(S22のN)、距離センサ性能取得部30は、距離分解能に関するデータにもとづいて、カメラ220がTOF型であるかどうかを判定する(S26)。TOF型であれば(S26のY)、奥行き方向の距離に関係なく、仮想スクリーンの段数N、間隔D、およびデッドバンド幅dは一定にし、仮想スクリーンの総段数Nは増やす(S28)。TOF型でない場合(S26のN)、段数N、間隔D、およびデッドバンド幅dをこれ以上調整せず、ステップS30に進む。
【0069】
ジェスチャ認識パラメータ調整部50は、調整された段数N、間隔D、およびデッドバンド幅dをジェスチャ認識処理部60に供給する(S30)。
【0070】
以上述べたように、本実施の形態の3次元ジェスチャ入力システム300によれば、距離センサの測定分解能とディスプレイの3次元表示性能にもとづいて、ユーザのジェスチャの特に奥行き方向の検出感度を適切に調整することにより、ユーザはストレスを感じることなく、また、システムの性能に応じてジェスチャによる入力を行うことができる。距離センサやディスプレイの組み合わせが変わっても、システム側で自動的に検出感度を調整するため、シームレスで柔軟性に富むジェスチャ入力インタフェースを提供することができる。
【0071】
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
【符号の説明】
【0072】
10 指示ポイント抽出部、 20 距離計算部、 30 距離センサ性能取得部、 32 距離センサデータベース、 40 ディスプレイ性能取得部、 42 ディスプレイデータベース、 50 ジェスチャ認識パラメータ調整部、 52 仮想スクリーン記憶部、 60 ジェスチャ認識処理部、 70 表示制御部、 80 アプリケーション実行部、 100 ジェスチャ操作入力処理装置、 200 ゲーム機、 210 ディスプレイ装置、 220 カメラ、 230 専用メガネ、 240 指示ポイント、 250 ユーザ、 270 仮想スクリーン、 300 3次元ジェスチャ入力システム。

【特許請求の範囲】
【請求項1】
ディスプレイを見ながら行われるユーザのジェスチャを撮影した画像からユーザの指示ポイントを抽出する指示ポイント抽出部と、
前記指示ポイントまでの奥行き方向の距離を求める距離計算部と、
奥行き方向の距離計測の分解能および前記ディスプレイの3次元表示性能の少なくとも一方にもとづいて、ユーザのジェスチャによる操作入力を認識する際の奥行き方向の検出感度に関するパラメータを調整するパラメータ調整部と、
調整されたパラメータのもとで、前記距離計算部により計算された前記指示ポイントまでの奥行き方向の距離を参照して、ユーザのジェスチャによる操作入力を認識するジェスチャ認識処理部とを含むことを特徴とするジェスチャ操作入力処理装置。
【請求項2】
前記パラメータ調整部は、前記指示ポイントを通過させるための奥行き方向に設けられた複数の仮想的なスクリーンの設置数、設置間隔、およびデッドバンドの少なくとも一つを奥行き方向の検出精度に関するパラメータとして調整することを特徴とする請求項1に記載のジェスチャ操作入力処理装置。
【請求項3】
前記ジェスチャ認識処理部は、前記距離計算部により計算された前記指示ポイントまでの奥行き方向の距離にもとづいて、奥行き方向に設定された仮想的なスクリーンをユーザの指示ポイントが通過するかどうかを検出し、通過した場合に、当該指示ポイントをアクティブにしてジェスチャによる操作入力を認識することを特徴とする請求項2に記載のジェスチャ操作入力処理装置。
【請求項4】
前記パラメータ調整部は、前記ディスプレイが3次元表示可能なものである場合、前記ディスプレイが2次元表示可能なものである場合に比べて、前記仮想的なスクリーンの設置数の増加、設置間隔の減少、およびデッドバンドの減少の少なくとも一つの調整を行うことを特徴とする請求項2または3に記載のジェスチャ操作入力処理装置。
【請求項5】
前記パラメータ調整部は、奥行き方向の距離計測がTOF(time of flight)型の測定方法によるものである場合、仮想的なスクリーンの設置数、設置間隔、およびデッドバンドを奥行き方向の距離に対して一定とすることを特徴とする請求項2から4のいずれかに記載のジェスチャ操作入力処理装置。
【請求項6】
前記パラメータ調整部は、奥行き方向の距離計測が三角測量型の測定方法によるものである場合、仮想的なスクリーンの設置数、設置間隔、およびデッドバンドを奥行き方向の距離に対して可変とすることを特徴とする請求項2から5のいずれかに記載のジェスチャ操作入力処理装置。
【請求項7】
ユーザのジェスチャによる操作入力を支援するインタフェースを備えた3次元ジェスチャ入力システムにおけるジェスチャ操作入力処理方法であって、
ディスプレイを見ながら行われるユーザのジェスチャを撮影した画像からユーザの指示ポイントを抽出するステップと、
前記指示ポイントまでの奥行き方向の距離を求めるステップと、
奥行き方向の距離計測の分解能および前記ディスプレイの3次元表示性能の少なくとも一方にもとづいて、ユーザのジェスチャによる操作入力を認識する際の奥行き方向の検出感度に関するパラメータを調整するステップと、
調整されたパラメータのもとで、前記指示ポイントまでの奥行き方向の距離を参照して、ユーザのジェスチャによる操作入力を認識するステップとを含むことを特徴とするジェスチャ操作入力処理方法。
【請求項8】
ディスプレイを見ながら行われるユーザのジェスチャを撮影した画像からユーザの指示ポイントを抽出する機能と、
前記指示ポイントまでの奥行き方向の距離を求める機能と、
奥行き方向の距離計測の分解能および前記ディスプレイの3次元表示性能の少なくとも一方にもとづいて、ユーザのジェスチャによる操作入力を認識する際の奥行き方向の検出感度に関するパラメータを調整する機能と、
調整されたパラメータのもとで、前記指示ポイントまでの奥行き方向の距離を参照して、ユーザのジェスチャによる操作入力を認識する機能とをコンピュータに実現させることを特徴とするプログラム。
【請求項9】
請求項8のプログラムを格納したことを特徴とする記録媒体。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate


【公開番号】特開2012−137989(P2012−137989A)
【公開日】平成24年7月19日(2012.7.19)
【国際特許分類】
【出願番号】特願2010−290717(P2010−290717)
【出願日】平成22年12月27日(2010.12.27)
【出願人】(310021766)株式会社ソニー・コンピュータエンタテインメント (417)
【Fターム(参考)】