説明

情報処理装置およびその制御方法

【課題】 仮想的な手の影を用いた操作とタッチ操作との両方を選択的に用いる場合に、操作者が操作しやすい効果的な表示制御方法を提供する。
【解決手段】 ディスプレイに表示されたオブジェクト画像を操作する情報処理装置であって、
操作者の手の位置および形状を検出する検出手段と、仮想光源および前記操作者の手の位置により定まる前記ディスプレイにおける位置に、前記手の影に相当する仮想画像を表示させる表示制御手段と、前記操作者の手と前記ディスプレイとの距離を計測する計測手段と、前記表示制御手段は、前記距離が所定値以上のときに前記仮想画像を表示させるよう制御する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画面上に表示されたオブジェクト画像を操作するグラフィカルユーザインターフェースに関する。
【背景技術】
【0002】
近年、テーブル型のディスプレイなどが登場し、操作者は、このディスプレイにタッチするなどしてこのディスプレイ上に表示されたオブジェクト画像を操作することができる。
操作者の手が届かないところにあるオブジェクト画像を操作する技術として、仮想的な手の影などを用いて、オブジェクト画像を操作することが知られている。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】Shoemaker,G.,Tang,A.and Booth,In Proc.of UIST'07,pp.53−56(2007)
【特許文献】
【0004】
【特許文献1】特開2010−072840
【特許文献2】特開2010−036731
【特許文献3】特開2009−230168
【特許文献4】特開2007−276615
【特許文献5】特開2007−237986
【特許文献6】特開2004−297766
【発明の概要】
【発明が解決しようとする課題】
【0005】
上述したような仮想的な手の影をポインタとして投影する操作方法より、タッチ操作のほうが、より直感的な操作が可能である。ただし、タッチ操作は、操作できる範囲が手の届く範囲に限られるため、大型ディスプレイなどではタッチ操作と手の影をポインタとする方法とを状況に応じて選択的に利用することが有効である。例えば、近くのオブジェクトに対してはタッチ操作を用い、遠くのオブジェクトに対しては仮想的な手の影を使った操作を行うことが有効である。
【0006】
本発明は上記点に鑑みて成されたものであり、仮想的な手の影を用いた操作とタッチ操作との両方を選択的に用いるような場合に、操作者が操作しやすい効果的な表示制御方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
上記目的を達成するために、請求項1に記載の情報処理装置によれば、ディスプレイに表示されたオブジェクト画像を操作する情報処理装置であって、操作者の手の位置および形状を検出する検出手段と、仮想光源および前記操作者の手の位置により定まる前記ディスプレイにおける位置に、前記手の影に相当する仮想画像を表示させる表示制御手段と、前記操作者の手と前記ディスプレイとの距離を計測する計測手段と、前記表示制御手段は、前記距離が所定値以上のときに前記仮想画像を表示させるよう制御することを特徴とする。
【発明の効果】
【0008】
本発明によれば、仮想的な手の影を用いた操作とタッチ操作との両方を選択的に用いるような場合に、操作者が操作しやすい効果的な表示制御方法を提供できる。特に、操作者の手がディスプレイに近い場合には、仮想的な手の影が操作者による操作の邪魔にならないで済む。
【図面の簡単な説明】
【0009】
【図1】ユーザインタフェース表示装置の機能構成図
【図2】ユーザインタフェース表示装置のフローチャート
【図3】手の影画像の位置を算出する方法を説明する図
【図4】オブジェクトを選択する方法を説明する図
【図5】オブジェクトを選択する方法を説明する図
【図6】距離に応じて手の影画像を変更する様子を説明するた図
【図7】「手とディスプレイとの間の距離」と、「各距離に応じて生成する手の影画像」と「それぞれの距離において、オブジェクトの選択と非選択とを認識させる方法」との対応関係を示す図
【図8】手の影画像として使用される手のグラフィック要素を表す図
【図9】ユーザインタフェース表示装置のフローチャート
【発明を実施するための形態】
【0010】
[実施形態1]
図1は、本発明を適用できる情報処理装置(以後、ユーザインタフェース表示装置と呼ぶ)の機能構成図である。ユーザインタフェース表示装置101は、装置外部のディスプレイ102とカメラ103に接続している。また、ディスプレイ102は、表示画面上に指などの物体が接触した場合に、その画面における接触位置(座標)を示す座標情報を後述する表示部104を経由して検出部105に出力する機能を備える。なお、ここでは、ユーザインタフェース表示装置101は、ディスプレイ102とカメラ103を装置内部に備えていないものとして説明するが、本発明はこれに限らない。例えば、ユーザインタフェース表示装置101は、ディスプレイ102を装置内部に備えていても良いし、カメラ103を装置内部に備えていても良い。カメラ103は、操作者、特に操作者の手を撮影するものである。また、この手の位置や形状は、装置内部の検出部105によって検出される。本実施形態では、カメラ103ではなく、検出部105によって操作者の手の位置や形状の詳細を検出することとするが、本発明はこれに限らない。例えば、カメラ103が上記検出機能を備え、検出部105のほうは検出結果を示す情報だけを取得しても良いであろう。検出部105で検出された手の位置を表す情報(位置情報)は、生成部107および計測部109に出力される。また検出部105で検出された手の形状を示す情報(形状情報)は、認識部106に送られる。なお、上述したように検出部105はディスプレイ102に指が接触した位置を示す座標情報も保持しているため、この座標情報を手の位置を表す補間情報として認識部106に送っても良い。認識部106では、公知の技術により操作者の手の形状を認識し、操作者の指示がどのような操作コマンドであるかを認識することができる。例えば、このジェスチャ認識が「選択状態」、「開放状態」を認識するべき場合には、手の形状は、上記2つの認識結果の何れかに対応付けられることになる。「選択状態」の手の形状とは、何かを掴んでいるような手の形状であり、「開放状態」の手の形状とは、「選択状態」以外の手の形状を設定しておく必要がある。認識部106で認識された操作者の手の形状は、操作部108に送られる。また上記認識部106はジェスチャ認識以外に、後述するタッチ認識も行うことができる。認識部106がタッチ認識をする場合には、検出部105が保持する上記位置情報あるいは上記座標情報に基づいて、手および指の位置を認識し、特定の操作コマンド(単なる座標情報なども含む)が入力されたことを認識する。
【0011】
生成部107では、上記手の位置(位置情報)に応じて、操作者の手の影を模した仮想画像(以下、手の影画像と呼ぶ)を生成する。この生成部107は、手の位置に応じて大きさが異なる手の影画像を生成する。この詳細は後述する。その一方で、もし手の位置がディスプレイ102に所定の距離よりも接近している場合には、この手の影画像を生成しない。なお、この距離判定は後述する計測部109が行う。
【0012】
以下に、手の影画像を生成する場合の生成例を示す。図3は、手の影画像を生成する例を示す図である。まず、ディスプレイ102(図3におけるディスプレイ303)に表示する手の影画像の位置を算出する。本実施形態では、手の影画像を生成するための基準となる仮想光源を設定する。この仮想光源301の位置は、XYZ座標として(A,B,C)とする。また、検出部105が検出する操作者の手の位置302は、XYZ座標として(a,b,c)であるとする。このとき、この2点を通る直線の方程式は、
(x−A)/(a−A)=(y−B)/(b−B)=(z−C)/(c−C) ...(1)
である。このときのxは、X軸上の変数、yはY軸上の変数、zはZ軸上の変数である。
【0013】
ここで、ディスプレイ(303)の高さzをTcと置くと、上記式(1)は
(x−A)/(a−A)=(y−B)/(b−B)=(Tc−C)/(c−C)...(2)
となる。そしてx、yの値を求めると、
x=(Tc−C)/(c−C)*(a−A)+A ...(3)
y=(Tc−C)/(c−C)*(b−B)+B ...(4)
となる。
【0014】
以上から、仮想光源301から出た光が操作者の手を照らしたときの、ディスプレイ上の手の影画像304の座標は、
((Tc−C)/(c−C)*(a−A)+A,(Tc−C)/(c−C)*(b−B)+B,Tc) ...(5)
となる。
【0015】
ここで、ディスプレイ303はテーブル型デバイスであることを想定しているので、ディスプレイ303上では、Z軸は考慮しなくても良い。よって、(5)の3次元座標からZ軸は無視して、
((Tc−C)/(c−C)*(a−A)+A,(Tc−C)/(c−C)*(b−B)+B) ...(6)
の2次元上の位置に手の影画像304を表示すれば良い。ディスプレイ303の高さをTcと、仮想光源の位置(A,B,C)については、設計時に予め決定することが可能である。よって、手の影画像304を表示するべき座標は、上述したような計算によって算出できるであろう。
【0016】
生成部107は、ディスプレイ上に投影する手の影画像304の大きさも決定する。手の影画像の大きさは、操作者の手の大きさを直径Mの球、仮想光源が面積0の点と仮定すると、
手の影の大きさ=M*仮想光源から手の影までの距離/仮想光源から手までの距離...(7)
となる。さらに、式(7)を展開すると、
手の影の大きさ=
M*(((Tc−C)/(c−C)*(a−A))^2+((Tc−C)/(c−C)*(b−B))^2+(C−Tc)^2)^0.5/((A−a)^2+(B−b)^2+(C−c)^2)^0.5=M*(Tc−C)/(c−C) ...(8)
となる。
【0017】
仮に、仮想光源の位置が(300,0,200)であり、操作者の手の位置が(250,0,120)であり、テーブルの高さが70cm、操作者の手が直径10cmの球である場合を考える。このとき、高さ70cmのディスプレイ上に表示される手の影画像の座標は、式(5)により(X=218.75,Y=0,Z=70)となり、その手の影画像の大きさは、式(8)により直径16.25となる。
【0018】
以上の方法によって、生成部107は「手の影画像」を生成し、これをディスプレイ102上に表示させる。
【0019】
操作部108は、認識部106で認識された認識結果と、生成部107で生成された手の影画像に基づき、ディスプレイ102(図3ではディスプレイ303)上に表示されているオブジェクト画像の操作を行う。以下では、このオブジェクト画像をオブジェクトと呼ぶ。このオブジェクトとは、写真や動画や文書などのコンテンツであり、それらを画面上で変形あるいは移動できるような状態で表示している画像に相当する。例えば、認識部106によるジェスチャ認識結果として、操作者の手の形状が「選択状態」に変わったと判断された場合には、手の影画像の下にあるオブジェクトを選択状態にする。さらに、そのときの手の影画像の大きさも内部データとして保持しておく。一方、ジェスチャ認識結果として、操作者の手の形状が「開放状態」に変わったと判断された場合には、上記選択状態にあるオブジェクトを開放する。ここで開放とは、次にそのオブジェクトが選択状態になるまで、現在表示されているディスプレイ上の位置への表示を継続することに相当する。
【0020】
表示部104は、種々の表示制御機能を備えており、特に本実施形態では、ディスプレイ102上に表示されているオブジェクトに重ねるようにして、上述した手の影画像の表示を行う。また、ディスプレイ102から、画面上に指などの物体が接触した位置(座標)を示す座標情報を受信した場合には、この座標情報を検出部105などの他の処理部へ供給する。
【0021】
計測部109は、操作者の手とディスプレイ102との間の距離を計測する。即ち、操作者の手がディスプレイ102にタッチしている状態、タッチしようとしている状態に相当するほど手がディスプレイ102に接近していることを検知する。本実施形態では、上記距離が所定値以上か所定値未満かを判断するものとするが、本発明はこれに限らず、例えば上記距離が所定値より大きいか所定値以下かを判断しても良い。また上記所定値は、操作者の手がディスプレイ102にタッチしようとしているかどうかの判断の分かれ目になる値であり、例えば10cmである。
【0022】
もし、上記距離が所定値以上の場合には、手の位置を表す情報(位置情報)を生成部107に送ると共に、認識部106による認識方法を上述した「ハンドジェスチャ認識」と設定する。即ち、あまりディスプレイ102に手が接近していないのであれば、操作者によるハンドジェスチャを入力コマンドとして受け付けるようにする。このハンドジェスチャ認識とは、カメラ103などの入力機器から取得した手の形状、および手の形状が変化する過程に対応する、何らかの操作コマンドを特定する機能であり、ジェスチャ入力などとも呼ばれる。上記認識技術は公知であるので詳細説明は省略する。
【0023】
一方、もし、上記距離が所定値未満の場合(例えば0cm、あるいは5cmの場合)には、手の位置を表す情報(位置情報)を生成部107には送らず、上記認識部106による認識方法を「タッチ認識」と設定する。生成部107は、手の位置を表す情報(位置情報)が送られないので、手の影画像を生成せず、結果的に、表示部104では手の影画像を表示させないことになる。タッチ認識とは、ディスプレイ102の表面に指などの物体が接触したことおよびその接触位置を検知し、何らかの操作コマンド(単なる座標情報なども含む)を特定する機能であり、タッチ入力などとも呼ばれる。なお、このタッチ入力機能は、タッチパネルディスプレイなどで利用されているものであり、その認識技術は公知であるので詳細説明は省略する。
【0024】
図2は、ユーザインタフェース表示装置101の動作手順を示すフローチャートである。この装置101が起動すると、ステップS201以降の処理を開始する。ステップS201では、カメラ103および検出部105によって、操作者の手の位置・形状を取得する。ステップS202では、計測部109によって、操作者の手の位置とディスプレイとの間の距離を計測する。ステップS203では、計測部109によって、上記操作者の手の位置とディスプレイとの間の距離が所定値以上かどうかを判定する。もし距離が所定値以上であればステップS204に進み、もし距離が所定値未満であればステップS207に進む。ステップS204では、生成部107によって、上述したような方法を用いて、操作者の手の位置から手の影画像を生成する。ステップS205では、ユーザインタフェース表示部104およびディスプレイ102によって、以上で生成された手の影画像が表示される。操作者は、この手の影画像を用いて種々の操作を行うことができる。ステップS206では、認識部106によって、操作者の手の形状に基づいて上述したハンドジェスチャ認識を行う。ステップS207では、認識部106によって、操作者の手がディスプレイ102の画面の何処に接触しているかを示す座標情報に基づいて、上述したタッチ認識を行う。特にここでは、ステップS207におけるタッチ認識が行われる際には、ステップS204、S205による手の影画像の生成と表示が行われない。これにより、タッチしようとしている画面上のオブジェクトが見え難いといった問題を解消できる。ステップS208では、ハンドジェスチャ認識あるいはタッチ認識による認識結果として、装置101が予め準備していた特定コマンドに相当する認識結果が出たかどうか判定する。もし特定コマンドに相当する認識結果が出た場合にはステップS209に進み、出ない場合にはステップS201に戻り、上述した処理を繰り返す。ステップS209では、装置101が特定のコマンドの実行を行い、ステップS201に戻る。この特定コマンドとは、例えば、「オブジェクトの選択」、あるいは「選択中のオブジェクトの開放」、あるいは「オブジェクトの移動」などが相当する。
【0025】
以下では、操作者の手とディスプレイとの間の距離に応じて、上記「手の影画像」を表示するか否かを切り替える具体例を説明する。
【0026】
図4は、上記具体例を示した図である。また、図5は図4のディスプレイを頭上の正面から見た図である。図4(a)と図5(a)は、装置101がハンドジェスチャ認識をしているときの様子を示す。また、図4(b)と図5(b)は、装置101がタッチ認識をしているときの様子を示す。ハンドジェスチャ認識による操作は、主に、操作者401の手が届かない位置にあるオブジェクトを操作したい場合に、操作者が大きな移動をしなくても良いので便利である。一方、タッチ認識による操作は、主に、操作者401の手が届く位置にあるオブジェクトを操作したい場合に、より直感的な操作ができるので便利である。なお、図4、図5では同じ部材には同じ番号を付与している。また、これらの図におけるディスプレイ406は、前述のディスプレイ102に相当するものであり、操作者401は、前述の操作者305に相当するものである。
【0027】
本実施形態において、図4(a)、図5(a)に示すように、ハンドジェスチャ認識をしているときには、操作者401の手403が存在する位置と仮想光源402との位置に基づいて、上述した方法で、手の影画像404を生成する。そして、この手の影画像404は、ディスプレイ406上に表示される。ディスプレイ406には、手の影画像404以外にも、オブジェクト405が表示されている。ハンドジェスチャ認識をしている際には、操作者401は、手403を微少に動かすことで、ポインタの役割となる手の影画像404を大きく動かすことができる。例えば、操作者401がオブジェクト405に重なるように手の影画像404を移動させ、「選択状態」に相当するジェスチャ(例えば何かを掴むようなジェスチャ)を行うと、装置101は「選択状態」を指示するコマンドを入力したと認識する。そして、このオブジェクト405を選択状態とする。また、もし上記選択中に、操作者が手403の位置を移動した場合には、手の影画像404とともにオブジェクト405が移動する。また、もし上記選択中に、操作者が「開放状態」に相当するジェスチャ(例えば掴むジェスチャをやめること)を行うと、装置101は「開放状態」を指示するコマンドを入力したと認識する。そして、この選択中のオブジェクト405を現在の位置に表示したまま、非選択状態に変更する。
【0028】
ここで、操作者の手407とディスプレイ406との距離が所定値未満に近づいたときには、タッチ認識の準備状態に移行する。即ち、この状態のときには、図4(b)、図5(b)に示すように、手の影画像404が非表示となる。また、もし何らかのオブジェクトにタッチしているときには、オブジェクト408のように、タッチされていることが判るような特別の表示を行う。
【0029】
もし、操作者の手407とディスプレイ406との距離が所定値以上に遠ざかったときには、タッチ認識の準備状態を解除し、図4(a)、図5(a)に示すハンドジェスチャ認識の状態に移行する。
【0030】
[実施形態2]
なお、以上では、説明を簡単にするために、「上述した距離に応じて、手の影画像を表示するか、非表示にするかを制御する技術」を説明した。しかしながら、本発明はこれに限らない。例えば、図6に示すように、「上述した距離に応じて、複数の表示方法のいずれか1つで表示するか、非表示にするかを制御する技術」であっても良いであろう。以下に、その一例を簡単に説明する。なお、本実施形態に用いる装置101の機能構成図は、実施形態1で説明した図1の装置101と同様である。よってこれらの説明は省略する。実施形態1と本実施形態とにおいて主に異なる点は、上述した距離に応じて生成部107が生成する手の影画像が多段階である点である。
【0031】
図6は、ディスプレイに近づけた操作者の手と、それに対応する手の影画像の様子を示した図である。図7は、「手とディスプレイとの間の距離」と、「各距離に応じて生成部107が生成する手の影画像」と「それぞれの距離において、オブジェクトの選択と非選択とを認識させる方法」との対応関係を表したものである。図8は、生成部107で生成される手の影画像を詳細に示したものである。図9は、本実施形態においてユーザインタフェース表示装置101が動作する手順を示すフローチャートである。なお、図9では、図2の判定ステップS203と生成ステップS204から、判定ステップS901〜903と生成ステップS904〜S906に置換されている。その他の図2と同じ処理工程については同じ番号を付与し、説明を省略する。なお、以下では距離の比較対象となる境界値として、第1の閾値(実施形態1の所定値に相当)=10cm、第2の閾値=20cm、第3の閾値=30cmとするが、上記各閾値は、それらの大小関係を維持していれば他の数値に変更しても良いであろう。
【0032】
図9において、ステップS901では、計測部109によって、手とディスプレイとの間の距離が30cm以上かどうか判定する。もし、距離が30cm以上であった場合、ステップS904に進む。もし距離が30cm未満のときにはステップS902に進む。
【0033】
ステップS902では、上記距離が20cm以上かどうか判定する。もし距離が20cm以上であった場合にはステップS903に進む。もし距離が20cm未満のときにはステップS903に進む。
【0034】
ステップS903では、上記距離が10cm以上かどうか判定する。もし距離が10cm以上であった場合にはステップS906に進む。もし距離が20cm未満のときにはステップS207に進む。この場合には、図6(d)に示すように、手の影画像は表示されない。
【0035】
ステップS904では、生成部107によって、図6(a)に示すような、操作者の指先から手首までを含む手の影画像(図8の802に相当)を生成する。
【0036】
ステップS905では、生成部107によって、図6(b)に示すような、操作者の指先から手のひらまでを含む手の影画像(図8の803に相当)を生成する。
【0037】
ステップS906では、生成部107によって、図6(c)に示すような、操作者の指先だけを含む手の影画像(図8の804に相当)を生成する。
【0038】
以上の動作を行うことによって、例えば、上記距離が35cm、25cm、15cmのときで、それぞれ異なる手の影画像を表示すると共に、タッチ認識の準備状態(例えば距離5cmのとき)では手の影画像を表示しない。
【0039】
なお、本実施形態では、上記図6(a)〜(d)のそれぞれの表示状態に応じて、図7に示すような、各状態に最適なジェスチャを割当てることとする。これを実現するため、本実施形態における認識部106は、図7に示す6種類の認識(ジェスチャ認識4種類、タッチ認識2種類)の判別が出来る機能を備える。そして、上述した計測部109の計測結果(ステップS901〜S903の判断結果)を受け取ることにより、その距離に適した2種類の認識を行うように動作するものとする。
【0040】
例えば、上記距離が35cmの場合には、認識部106は、認識可能な6種類のうち、「何かを握るジェスチャ」と「握るジェスチャの状態をやめるジェスチャ」の2種類のみを、その時点で認識可能なジェスチャとする。また例えば、上記距離が15cmの場合には、認識部106は、認識可能な6種類のうち、「指を揃えるジェスチャ」と「揃った指を互いに離すジェスチャ」の2種類のみを、その時点で認識可能なジェスチャとする。また例えば、上記距離が5cmの場合には、認識部106は、認識可能な6種類のうち、「画面に物体をタッチするジェスチャ」と「タッチした物体を離すジェスチャ」の2種類のみを、その時点で認識可能なジェスチャとする。以上のように、距離に応じて、そのときに認識可能なジェスチャを絞り込むことにより、認識精度を向上することができ、また認識のための装置の演算負荷なども軽減できる。
【0041】
以上では、実施形態1における所定値を第1の閾値としたとき、上記距離が第1の閾値以上であり第2の閾値未満であるか、上記距離が第2の閾値以上であり第3の閾値未満であるか、上記距離が第3の閾値以上であるかを判断している。そして、上記距離が第1の閾値以上であり第2の閾値未満である場合には第1の仮想画像を表示させ、上記距離が第2の閾値以上であり第3の閾値未満である場合には第2の仮想画像を表示させ、上記距離が第3の閾値以上である場合には第3の仮想画像を表示させる。
【0042】
[変形例]
なお、以上の実施形態では、仮想光源の位置は予め設定していたが、本発明はこれに限らない。例えば、この仮想光源は、操作者の姿勢や、顔の向き、あるいは背の高さに応じて、適宜変更しても構わない。具体的には、本実施形態のユーザインタフェース表示装置101が操作者の頭頂部の位置を検出し、さらに操作者の顔の向きを取得できる機能を備える。そして、頭頂部の位置から顔の向きの反対方向に例えば50cmだけ移動した位置を仮想光源とする。このようにすれば、操作者の身長に合わせて適切な仮想光源が設定される。また、操作者が意図的に顔の向きを変更することによって、仮想光源の位置までもジェスチャ入力によって設定できることになる。
【0043】
なお、上述した各実施形態は、以下の処理を実行することによっても実現される。即ち、上記実施形態の各工程や機能を実現するソフトウェア(制御プログラム)を、ネットワークや記憶媒体を介してシステムに供給し、そのシステムのコンピュータ(またはCPU等)が上記プログラムを読み込んで実行する処理である。上記コンピュータプログラムや、それを記憶したコンピュータ可読記憶媒体も本発明の範疇に含まれる。

【特許請求の範囲】
【請求項1】
ディスプレイに表示されたオブジェクト画像を操作する情報処理装置であって、
操作者の手の位置および形状を検出する検出手段と、
仮想光源および前記操作者の手の位置により定まる前記ディスプレイにおける位置に、前記手の影に相当する仮想画像を表示させる表示制御手段と、
前記操作者の手と前記ディスプレイとの距離を計測する計測手段と、
前記表示制御手段は、前記距離が所定値以上のときに前記仮想画像を表示させるよう制御することを特徴とする情報処理装置。
【請求項2】
更に、前記手の位置および形状に基づいて、前記オブジェクト画像を選択する選択手段と、
前記手の位置および形状に基づいて、前記選択中のオブジェクト画像を開放する開放手段とを備えることを特徴とする請求項1に記載の情報処理装置。
【請求項3】
前記所定値を第1の閾値としたとき、前記表示制御手段は、前記距離が前記第1の閾値以上であり第2の閾値未満である場合には第1の仮想画像を表示させ、前記距離が前記第2の閾値以上であり第3の閾値未満である場合には第2の仮想画像を表示させ、前記距離が前記第3の閾値以上である場合には第3の仮想画像を表示させることを特徴とする請求項1または2のいずれか1項に記載の情報処理装置。
【請求項4】
コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1乃至3のいずれか1項に記載の表示制御装置として機能させるコンピュータプログラム。
【請求項5】
請求項4に記載のコンピュータプログラムを記憶したことを特徴とするコンピュータ可読記憶媒体。
【請求項6】
ディスプレイに表示されたオブジェクト画像を操作する情報処理装置の制御方法であって、
検出手段によって、操作者の手の位置および形状を検出する検出工程と、
表示制御手段によって、仮想光源および前記操作者の手の位置により定まる前記ディスプレイにおける位置に、前記手の影に相当する仮想画像を表示させる表示制御工程と、
計測手段によって、前記操作者の手と前記ディスプレイとの距離を計測する計測工程と、
前記表示制御工程では、前記距離が所定値以上のときに前記仮想画像を表示させるよう制御することを特徴とする制御方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate


【公開番号】特開2012−22458(P2012−22458A)
【公開日】平成24年2月2日(2012.2.2)
【国際特許分類】
【出願番号】特願2010−159010(P2010−159010)
【出願日】平成22年7月13日(2010.7.13)
【出願人】(000001007)キヤノン株式会社 (59,756)
【Fターム(参考)】