情報処理装置、情報処理方法およびプログラム
【課題】情報処理装置、情報処理方法およびプログラムを提供する。
【解決手段】空間上の操作を検出する操作検出部と、前記操作検出部により空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する表示制御部と、を備える、情報処理装置。
【解決手段】空間上の操作を検出する操作検出部と、前記操作検出部により空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する表示制御部と、を備える、情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理方法およびプログラムに関する。
【背景技術】
【0002】
現在、情報処理装置の多くは、ユーザが表示画面に直接接触して画面内に表示されたオブジェクトを操作するためのタッチパネルが搭載されている。タッチパネルを用いることにより、直感的な操作が実現でされ、キーボードやキーパッド等の操作に不慣れなユーザでも容易に操作が行えるメリットがある。
【0003】
また、このような技術に関連し、例えば下記特許文献1には、タッチパネルに直接手を触れることなく操作を行なうことが可能な光学式タッチパネルが開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2010−157189号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
上述したように、特許文献1に記載の光学式タッチパネルなどを搭載することにより、タッチパネルに直接手を触れることなく行なうジェスチャー操作入力が可能であった。
【0006】
しかし、タッチパネルに直接手を触れることなく行なうジェスチャー操作入力のように空間上で操作入力を行う場合、操作可能な空間領域がユーザには分かり難かった。
【0007】
そこで、本開示では、操作が検出される空間領域を表現することが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提案する。
【課題を解決するための手段】
【0008】
本開示によれば、空間上の操作を検出する操作検出部と、前記操作検出部により空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する表示制御部と、を備える情報処理装置が提供される。
【0009】
また、本開示によれば、空間上の操作を検出するステップと、前記検出するステップにより空間上の操作が検出される空間領域を、立体視オブジェクトにより表現するステップと、を含む情報処理方法が提供される。
【0010】
また、本開示によれば、空間上の操作を検出する処理と、前記検出するステップにより空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する処理と、をコンピュータに実行させるプログラムが提供される。
【発明の効果】
【0011】
以上説明したように本開示によれば、操作が検出される空間領域を表現することが可能である。
【図面の簡単な説明】
【0012】
【図1】本実施形態による情報処理装置10の概要を説明するための図である。
【図2】本実施形態による情報処理装置10のブロック構成図である。
【図3】本実施形態によるカメラ17の設定を説明するための概略断面図である。
【図4】本実施形態による情報処理装置10の空間領域Sを示す図である。
【図5】本実施形態による操作入力部15により設定される空間領域Sを示す概略断面図である。
【図6】表現例1を説明するための斜視図である。
【図7】表現例2を説明するための斜視図である。
【図8】表現例3を説明するための斜視図である。
【図9】表現例4を説明するための状態遷移図である。
【図10】表現例4の他の例を説明するための図である。
【図11】表現例5を説明するための斜視図である。
【発明を実施するための形態】
【0013】
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0014】
また、説明は以下の順序で行うものとする。
1.本実施形態による情報処理装置の概要
2.本実施形態による情報処理装置の詳細
2−1.情報処理装置の構成
2−2.空間領域の表現例
3.まとめ
【0015】
このように、本明細書において説明する本開示の技術は、上記項目の「1.本実施形態による情報処理装置の概要」および「2.本実施形態による情報処理装置の詳細」に示す一実施形態により実施され得る。また、本明細書において説明する実施形態による情報処理装置10および情報処理装置20は、
A:空間上の操作を検出する操作検出部(19)と、
B:前記操作検出部により空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する表示制御部(11)と、
を備える。
【0016】
<1.本実施形態による情報処理装置の概要>
まず、図1を参照して、本開示の実施形態による情報処理装置10の概要について説明する。図1は、本実施形態による情報処理装置10の概要を説明するための図である。図1に示すように、情報処理装置10は、表示部13およびカメラ17を備える。
【0017】
ここで、本実施形態による情報処理装置10は、ユーザが立体的に視認できる立体視オブジェクトを提供する。立体視オブジェクトの鑑賞方式としては、視差を設けた左眼用オブジェクトLと右眼用オブジェクトRを鑑賞者に鑑賞させる両目視差方式が普及しつつある。この両目視差方式には、メガネを用いるメガネ方式とメガネを用いない裸眼方式の大きく2種類の方式が挙げられる。裸眼方式には、かまぼこ型の細かなレンズ(レンチキュラーレンズ)を配列させることにより左眼用オブジェクトLと右眼用オブジェクトRの光路を分離するレンチキュラースクリーン方式や、縦のスリット(パララックスバリア)により左眼用オブジェクトLと右眼用オブジェクトRの光路を分離するパララックスバリア方式がある。
【0018】
本実施形態による情報処理装置10は、一例として、両目視差画像を裸眼方式により鑑賞させることで立体視オブジェクトを提供する。よって、図1では、表示部13に左眼用オブジェクトLおよび右眼用オブジェクトRを示し、これらの前方にユーザが知覚する立体視オブジェクト30を示した。情報処理装置10は、空間上のユーザ操作に応じて立体視オブジェクト30を表示制御する。
【0019】
また、本実施形態による情報処理装置10が備えるカメラ17は、表示部13の近傍を撮影する。このようにカメラ17が撮影した撮影画像に基づいて、情報処理装置10は、空間上のユーザ操作を検出する。
【0020】
また、情報処理装置10は、表示部13と一体化した操作入力部15を用いて空間上のユーザ操作を検出してもよい。若しくは、情報処理装置10は、操作入力部15とカメラ17を併用して空間上のユーザ操作を検出してもよいし、複数のカメラや他のセンサを用いてユーザ操作を検出してもよい。
【0021】
このような情報処理装置10によれば、例えば表示部13に写真の2次元画像を表示し、空間上で検出されるユーザ操作に応じ、表示する写真の2次元画像を切り替えることができる。また、情報処理装置10は、表示部13にアイコンやサムネイルなどの操作対象の立体視オブジェクトを表示し、空間上で検出される操作対象の選択操作に応じて表示内容を制御することも可能である。
【0022】
しかし、一般的な情報処理装置には、ユーザ操作を検出可能な空間領域をユーザに伝える手段がないので、ユーザは、当該空間領域を認識すること、および当該空間領域内で適切な操作を行うことが困難であった。
【0023】
そこで、本開示による情報処理装置10は、ユーザ操作を検出可能な空間領域を立体視オブジェクトを用いて表現する。かかる構成により、情報処理装置10によりユーザ操作を検出可能な空間領域をユーザに明示的に認識させることが可能となる。
【0024】
以上、本実施形態による情報処理装置10の概要について説明した。続いて、本実施形態による情報処理装置10の詳細について図面を参照して説明する。
【0025】
<2.本実施形態による情報処理装置の詳細>
[2−1.情報処理装置の構成]
図2は、本実施形態による情報処理装置10のブロック構成図である。図2に示すように、情報処理装置10は、表示制御部11、表示部13、操作入力部15、カメラ17および検出部19を備える。以下、各構成について説明する。
【0026】
表示制御部11は、表示部13に表示する画像を生成する機能を有する。例えば、表示制御部11は、視差がある両目用画像を生成し、表示部13に出力する。
【0027】
また、本実施形態による表示制御部11は、ユーザ操作が検出される空間領域を立体視オブジェクトにより表現する。具体的には、表示制御部11は、空間領域に立体視オブジェクトが知覚されるよう表示制御する。表示制御部11は、空間領域の3次元座標情報を、記憶部(図示せず)または検出部19などから取得し、空間領域の範囲を把握する。
【0028】
また、立体視オブジェクトは、ユーザの位置に応じて歪みや位置ズレが生じる。そこで、表示制御部11は、例えばユーザの顔の位置に応じて、空間領域を表現する立体視オブジェクトの表示制御を行う。ユーザの顔の位置は、例えば表示部13前方に居るユーザの顔を撮影するカメラ(図示せず)により撮影された撮影画像に基づいて検出される。なお、立体視オブジェクトによる空間領域の表現例は、後述する[2−2.空間領域の表現例]において詳細に説明する。
【0029】
表示部13は、表示制御部11から出力されたデータを表示する。例えば、表示部13は、視差のある両目用画像を表示することで、オブジェクトを立体表示する。ここで、立体表示するオブジェクトは、写真や映像でもよいし、操作ボタンやアイコンなどの画像でもよい。また、本実施形態による表示部13が立体表示するオブジェクトは、空間領域の表面部や内部に知覚され、空間領域を表現するパーティクルや波紋状のエフェクトでもよい。
【0030】
また、この表示部13は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイなどの表示装置であってもよい。
【0031】
操作入力部15は、ユーザによる操作指示を受付け、その操作内容を検出部19に出力する。ユーザによる操作指示は、オブジェクトに対する操作の他、ジェスチャー操作による操作指示を含む。また、操作入力部15が、空間上のユーザ操作を検知する近接センサにより実現される場合、操作内容として近接センサの検知結果を出力する。また、この操作部15は、表示部13と一体的に設けられる近接タッチパネルであってもよい。
【0032】
カメラ17は、空間上のユーザ操作を検知するイメージセンサであって、撮影した撮影画像を検出部19に出力する。カメラ17は、表示部13の近傍を撮影できるよう撮影方向が設定される。カメラ17の撮影方向の設定情報は、ユーザ操作を検知する空間領域を示す情報として、記憶部(図示しない)に記憶しておいてもよい。
【0033】
カメラ17の具体的な設定例について図3を参照して説明する。図3は、本実施形態によるカメラ17の設定を説明するための概略断面図である。図3に示すように、例えばカメラ17は、表示部13の前面の空間を下から撮影するよう設定される。これにより、カメラ17は、撮影領域Aにおいて空間上のユーザ操作を撮影することができる。なお、カメラ17は、情報処理装置10に実装されてもよいし、外付けされてもよい。
【0034】
ここで、カメラ17による撮影領域Aのz方向における幅は、図3に示すように表示部13のy方向における各位置において異なるが、本実施形態による情報処理装置10は、ユーザ操作を検出できる空間領域Sを図4に示すように調整してもよい。
【0035】
図4は、本実施形態による情報処理装置10の空間領域Sを示す図である。図4に示すように、情報処理装置10は、表示部13からz方向の距離が表示部13全面において同じ空間を、ユーザ操作を検知できる空間領域Sに設定してもよい。このような空間領域Sは、例えば複数のカメラ17を備えることで設定してもよい。
【0036】
また、このような空間領域Sを、表示部13と一体化した操作入力部15により設定してもよい。ここで、操作入力部15により設定される空間領域Sを示す概略断面図を図5に示す。図5に示すように、操作入力部15が例えば表示部13と一体的に設けられる近接タッチパネルの場合、空間領域Sのz方向における幅は、表示部13のy方向における各位置において同じである。
【0037】
また、情報処理装置10は、図4に示す空間領域Sを、カメラ17および操作入力部15を併用することによって設定してもよい。
【0038】
検出部19は、操作入力部15から入力された操作内容(例えば近接センサによる検知結果)、またはカメラ17から入力された撮影画像に基づいて、空間上のユーザ操作を検出する操作検出部である。また、本実施形態による検出部19は、ユーザ操作を検知できる空間領域Sにユーザの手などの操作体が入ったことや、操作体の3次元位置を検出することができる。
【0039】
操作体の3次元位置は、例えばカメラ17が撮影した撮影画像に基づいて検出部19により検出される。具体的には、検出部19は、撮影画像からユーザの手の形や指先などの操作体を検出し、検出した操作体の撮影画像内におけるXY座標と大きさに基づき3次元座標への変換処理を行い、操作体の3次元位置を検出する。
【0040】
なお、操作体の3次元位置の検出は、撮影画像に基づく場合に限られない。例えば、検出部19は、操作入力部15から入力された操作内容に基づいて操作体の3次元位置を検出してもよい。具体的には、検出部19は、近接センサなどで実現された操作入力部15からの操作内容(例えば近接センサによる検知結果)に基づいて、操作体の3次元位置を検出する。
【0041】
以上、本実施形態による情報処理装置10の構成について詳細に説明した。続いて、表示制御部11による空間領域Sの表現例について図面を参照して説明する。
【0042】
[2−2.空間領域の表現例]
(表現例1)
表現例1は、空間領域Sに入った操作体の周辺に立体視オブジェクトが知覚されるよう表示することで、空間領域Sを表現する。これにより、ユーザは、実際に手を近づけながら空間領域Sを認識することができる。以下、図6を参照して表現例1について説明する。
【0043】
図6は、表現例1を説明するための斜視図である。図6に示すように、検出部19により空間領域Sにユーザの手が入ったことが検出されると、表示制御部11は、ユーザの手の周辺に知覚されるようパーティクル32を立体表示する。ここで、ユーザの手の周辺は、検出部19から出力される操作体の3次元座標に基づいて判断される。
【0044】
なお、パーティクル32の立体表示位置は空間領域Sの内部および外部に散在してもよい。かかる構成によれば、ユーザは、パーティクル32の出現により手の位置が空間領域S内であることを認識することができる。他の例として、パーティクル32は、空間領域S内にのみ立体表示されてもよい。かかる構成によれば、ユーザは、パーティクル32の出現により手の位置が空間領域S内であることを認識すると共に、手の周辺で空間領域S内である領域を認識することができる。このように、前者および後者のいずれの例においても、ユーザはパーティクル32の出現により手の位置が空間領域S内であることを認識できるので、パーティクル32は空間領域Sを表現する立体視オブジェクトとして作用する。
【0045】
また、表示制御部11は、パーティクル32を、ユーザの手が検出された場合に一定時間立体表示し、その後は空間領域Sの表面部近くにユーザの手が移動した場合にのみ立体表示してもよい。また、表示制御部11は、空間領域Sの内部にユーザの手がある間は常に、又は一定時間毎に繰り返し立体表示してもよい。
【0046】
これにより、ユーザは、表示部13の周辺で空間操作することで、空間領域Sの表面部や内部を直感的に把握することができる。
【0047】
(表現例2)
表現例2は、空間領域Sに手が入った場合に、空間領域Sの表面部に立体視オブジェクトが知覚されるよう表示することで、空間領域Sの境目を表現する。これによりユーザは、実際に手を近づけた場合に、どの面から空間領域Sであるかを認識することができる。以下、図7を参照して表現例2について説明する。
【0048】
図7は、表現例2を説明するための斜視図である。図7に示すように、検出部19により空間領域Sにユーザの手が入ったことが検出されると、表示制御部11は、ユーザの手の周辺から波が広がるよう知覚される波紋状のエフェクト34を空間領域Sの表面部に立体表示する。
【0049】
かかる構成によれば、ユーザは、波紋状のエフェクト34の出現により空間領域Sの界面を認識することができるので、波紋状のエフェクト34は空間Sを表現する立体視オブジェクトとして作用する。
【0050】
また、表示制御部11は、波紋状のエフェクト34を、ユーザの手が検出された場合に一定時間立体表示させ、その後は空間領域Sの表面部近くにユーザの手が移動した場合にのみ立体表示させてもよい。また、表示制御部11は、空間領域Sの表面部にユーザの手がある間は常に、又は一定時間毎に繰り返し波紋状のエフェクト34を立体表示させてもよい。
【0051】
これにより、ユーザは、表示部13の周辺で空間操作することで、空間領域Sの界面を直感的に把握することができる。
【0052】
(表現例3)
表現例3は、自動的に空間領域Sの表面部に立体視オブジェクトが知覚されるよう表示することで、空間領域Sの界面を表現する。以下、図8を参照して表現例3について説明する。
【0053】
図8は、表現例3を説明するための斜視図である。図8に示すように、表示制御部11は、空間領域Sの表面部に水面のエフェクト36を立体表示する。表示制御部11は、水面のエフェクト36を、ユーザ操作が検出されるまで常に立体表示させてもよいし、一定時間毎に立体表示させてもよいし、情報処理装置10の電源がONになった場合や、情報処理装置10において空間上の操作入力機能が起動された場合に立体表示させてもよい。
【0054】
かかる構成によれば、ユーザは、水面のエフェクト36の自動的な出現により空間領域Sの界面を認識することができるので、水面のエフェクト36は空間領域Sを表現する立体視オブジェクトとして作用する。
【0055】
これにより、予め定めたタイミングで自動的に空間領域Sが立体視オブジェクトによって表現されるので、ユーザが空間上の操作を実際に行わなくとも、空間領域Sの界面を直感的に把握することができる。
【0056】
(表現例4)
表現例4は、空間領域S内で直接操作可能な立体視オブジェクトを選択した場合に、立体視オブジェクトの周辺にパーティクルを立体表示することで、選択操作のフィードバックを行う。これによりユーザは、空間領域S内で立体視オブジェクトを選択したことを視覚的に認識することができる。以下、図9を参照して表現例4について説明する。
【0057】
図9は、表現例4を説明するための状態遷移図である。図9の左から中央に示すように、検出部19により空間領域Sにユーザの手が入ったことが検出されると、表示制御部11は、ユーザの手の周辺に知覚されるようパーティクル32を立体表示する。
【0058】
上述した操作例1と同様に、パーティクル32は、空間領域Sの内部および外部に散在してもよいし、空間領域S内にのみ立体表示されてもよい。いずれにしても、ユーザはパーティクル32の出現により手の位置が空間領域S内であることを認識することができるので、パーティクル32は空間領域Sを表現する立体視オブジェクトとして作用する。
【0059】
さらに、図9の右に示すように、ユーザの手が立体視オブジェクト36周辺に移動し、選択対象の立体視オブジェクト36を選択する。表示制御部11は、検出部19から検出される操作体(ここでは、ユーザの手)の3次元位置と、立体視オブジェクト36のユーザによる知覚位置が対応する場合、かかる立体視オブジェクト36が選択されたと判断する。なお、立体視オブジェクトは、上述したように、ユーザの位置に応じて歪みや位置ズレが生じる。よって、表示制御部11は、ユーザの顔を撮影した撮影画像に基づいてユーザの顔の位置を認識し、ユーザの顔の位置に応じて立体視オブジェクトを表示制御する。
【0060】
このように、立体視オブジェクト36がユーザにより選択されると、表示制御部11は、さらに立体視オブジェクト36の周辺に選択パーティクル38を立体表示する。
【0061】
かかる構成によれば、ユーザは、選択パーティクル38の出現により手の位置が操作対象の立体視オブジェクト36を選択できたことを認識できる。
【0062】
また、他の例として、立体視オブジェクト36がユーザにより選択された場合、表示制御部11は選択パーティクル38のみ立体表示してもよい。表現例4の他の例を説明するための図を図10に示す。図10に示すように、ユーザが立体視オブジェクト36を選択すると、表示制御部11は、選択された立体視オブジェクト36の周辺に選択パーティクル38を立体表示する。
【0063】
かかる構成によれば、ユーザが操作対象の立体視オブジェクト36を選択した場合に選択パーティクル38のみが出現することで、ユーザは選択操作のフィードバックをより明確に認識できる。
【0064】
(表現例5)
表現例5は、ユーザが検知された場合をトリガにして空間領域Sを立体視オブジェクトにより表現する。これにより、ユーザが不在の間に立体視オブジェクトを表示していることによる無駄な消費電力を削減することができる。以下、図11を参照して表現例5について説明する。
【0065】
図11は、表現例5を説明するための斜視図である。図11に示す情報処理装置20は、上述した実施形態による情報処理装置10に、ユーザを検知するセンサとしてカメラ23を設けた装置である。なお、ユーザを検知するセンサはカメラ23に限られず、例えば赤外線センサでもよい。
【0066】
図11の左側に示すように、カメラ23は情報処理装置20の前方を撮影する。そして、図11の右側に示すように、カメラ23により人が検知されると、表示制御部11は、空間領域Sの表面部に波紋状のエフェクト34を立体表示する。
【0067】
なお、図11では、空間領域Sの界面を表現する立体視オブジェクトとして、表面部に波紋状のエフェクト34を示したが、空間領域Sの界面を表現する立体表示は波紋状のエフェクト34に限られず、例えば図8に示した水面のエフェクト36でもよい。
【0068】
<3.まとめ>
上述したように、本開示の一実施形態に係る情報処理装置10によれば、ユーザ操作が検出される空間領域Sを立体視オブジェクトにより表現することで、ユーザに空間領域Sを認識させることができる。
【0069】
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
【0070】
例えば、空間領域を表現するオブジェクトは、上記表現例1から表現例5に示した画像に限られない。例えば、空間領域に手が入った場合、光が手から広がっていくように知覚されるオブジェクトを立体表示してもよい。
【0071】
また、上記表現例1〜表現例5をそれぞれ組み合わせた表現例も本開示の技術的範囲に含まれる。
【0072】
また、上記実施形態では、本開示による情報処理装置10を、タブレット型のコンピュータにより実現する例を説明したが、本技術はかかる例に限定されない。例えば、本開示による情報処理装置10は、図2を参照して説明した表示制御部11および検出部19を主に有する制御装置でもよい。この場合、かかる制御装置は、表示部13、および操作入力部15を主に有する表示装置を制御する。また、かかる表示装置には、カメラ17が外付けされている。また、かかる制御装置および表示装置を有する情報処理システムも本技術に含まれる。
【0073】
また、本開示による情報処理装置は、ヘッドマウントディスプレイでもよい。この場合、ヘッドマウントディスプレイが備えるカメラにより、ユーザの空間上の操作を撮像する。そして、ヘッドマウントディスプレイが備える表示制御部が、ユーザ操作を検知する空間領域に知覚されるようオブジェクトを立体表示してもよい。
【0074】
また、上述した実施形態による情報処理装置10および情報処理装置20の各構成は、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)といったハードウェア構成により実現してもよい。
【0075】
また、上述した実施形態による情報処理装置10および情報処理装置20の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
【0076】
なお、本技術は以下のような構成も取ることができる。
(1)
空間上の操作を検出する操作検出部と、
前記操作検出部により空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する表示制御部と、
を備える、情報処理装置。
(2)
前記表示制御部は、前記空間領域で検出された操作の操作位置周辺に前記立体視オブジェクトが知覚されるよう表示する、前記(1)記載の情報処理装置。
(3)
前記表示制御部は、前記操作領域の表面部に前記立体視オブジェクトが知覚されるよう表示する、前記(1)または前記(2)に記載の情報処理装置。
(4)
前記表示制御部は、前記操作検出部により前記空間領域内でオブジェクトが選択された場合に、前記立体視オブジェクトが前記オブジェクトの周辺に知覚されるよう表示する、前記(1)から前記(3)のいずれかに記載の情報処理装置。
(5)
前記情報処理装置は、
ユーザを検出するユーザ検出部を備え、
前記表示制御部は、前記ユーザ検出部によりユーザが検出された場合に、前記立体視オブジェクトにより前記空間領域を表現する、前記(1)から前記(4)のいずれかに記載の情報処理装置。
(6)
前記表示制御部は、一定時間ごとに前記立体視オブジェクトを表現する、前記(1)から前記(5)のいずれかに記載の情報処理装置。
(7)
空間上の操作を検出するステップと、
前記検出するステップにより空間上の操作が検出される空間領域を、立体視オブジェクトにより表現するステップと、
を含む、情報処理方法。
(8)
空間上の操作を検出する処理と、
前記検出するステップにより空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する処理と、
をコンピュータに実行させる、プログラム。
(9)
前記空間領域で検出された操作の操作位置周辺に前記立体視オブジェクトが知覚されるよう表示する処理をコンピュータに実行させる、前記(8)記載のプログラム。
(10)
前記操作領域の表面部に前記立体視オブジェクトが知覚されるよう表示する処理をコンピュータに実行させる、前記(8)または前記(9)に記載のプログラム。
(11)
前記空間領域内でオブジェクトが選択される操作が検出された場合に、前記立体視オブジェクトが前記オブジェクトの周辺に知覚されるよう表示する処理をコンピュータに実行させる、前記(8)から前記(10)のいずれかに記載のプログラム。
(12)
ユーザを検出する処理と、
前記ユーザが検出された場合に、前記立体視オブジェクトにより前記空間領域を表現する処理と、
をコンピュータに実行させる、前記(8)から前記(11)のいずれかに記載のプログラム。
(13)
前記立体視オブジェクトを、一定時間ごとに前記空間領域を表現するよう表示する処理をコンピュータに実行させる、前記(8)から前記(12)のいずれかに記載のプログラム。
【符号の説明】
【0077】
10、20 情報処理装置
11 表示制御部
13 表示部
15 操作入力部
17 カメラ
19 検出部
30 立体視オブジェクト
32 パーティクル
34 波紋状のエフェクト
38 選択パーティクル
【技術分野】
【0001】
本開示は、情報処理装置、情報処理方法およびプログラムに関する。
【背景技術】
【0002】
現在、情報処理装置の多くは、ユーザが表示画面に直接接触して画面内に表示されたオブジェクトを操作するためのタッチパネルが搭載されている。タッチパネルを用いることにより、直感的な操作が実現でされ、キーボードやキーパッド等の操作に不慣れなユーザでも容易に操作が行えるメリットがある。
【0003】
また、このような技術に関連し、例えば下記特許文献1には、タッチパネルに直接手を触れることなく操作を行なうことが可能な光学式タッチパネルが開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2010−157189号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
上述したように、特許文献1に記載の光学式タッチパネルなどを搭載することにより、タッチパネルに直接手を触れることなく行なうジェスチャー操作入力が可能であった。
【0006】
しかし、タッチパネルに直接手を触れることなく行なうジェスチャー操作入力のように空間上で操作入力を行う場合、操作可能な空間領域がユーザには分かり難かった。
【0007】
そこで、本開示では、操作が検出される空間領域を表現することが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提案する。
【課題を解決するための手段】
【0008】
本開示によれば、空間上の操作を検出する操作検出部と、前記操作検出部により空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する表示制御部と、を備える情報処理装置が提供される。
【0009】
また、本開示によれば、空間上の操作を検出するステップと、前記検出するステップにより空間上の操作が検出される空間領域を、立体視オブジェクトにより表現するステップと、を含む情報処理方法が提供される。
【0010】
また、本開示によれば、空間上の操作を検出する処理と、前記検出するステップにより空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する処理と、をコンピュータに実行させるプログラムが提供される。
【発明の効果】
【0011】
以上説明したように本開示によれば、操作が検出される空間領域を表現することが可能である。
【図面の簡単な説明】
【0012】
【図1】本実施形態による情報処理装置10の概要を説明するための図である。
【図2】本実施形態による情報処理装置10のブロック構成図である。
【図3】本実施形態によるカメラ17の設定を説明するための概略断面図である。
【図4】本実施形態による情報処理装置10の空間領域Sを示す図である。
【図5】本実施形態による操作入力部15により設定される空間領域Sを示す概略断面図である。
【図6】表現例1を説明するための斜視図である。
【図7】表現例2を説明するための斜視図である。
【図8】表現例3を説明するための斜視図である。
【図9】表現例4を説明するための状態遷移図である。
【図10】表現例4の他の例を説明するための図である。
【図11】表現例5を説明するための斜視図である。
【発明を実施するための形態】
【0013】
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0014】
また、説明は以下の順序で行うものとする。
1.本実施形態による情報処理装置の概要
2.本実施形態による情報処理装置の詳細
2−1.情報処理装置の構成
2−2.空間領域の表現例
3.まとめ
【0015】
このように、本明細書において説明する本開示の技術は、上記項目の「1.本実施形態による情報処理装置の概要」および「2.本実施形態による情報処理装置の詳細」に示す一実施形態により実施され得る。また、本明細書において説明する実施形態による情報処理装置10および情報処理装置20は、
A:空間上の操作を検出する操作検出部(19)と、
B:前記操作検出部により空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する表示制御部(11)と、
を備える。
【0016】
<1.本実施形態による情報処理装置の概要>
まず、図1を参照して、本開示の実施形態による情報処理装置10の概要について説明する。図1は、本実施形態による情報処理装置10の概要を説明するための図である。図1に示すように、情報処理装置10は、表示部13およびカメラ17を備える。
【0017】
ここで、本実施形態による情報処理装置10は、ユーザが立体的に視認できる立体視オブジェクトを提供する。立体視オブジェクトの鑑賞方式としては、視差を設けた左眼用オブジェクトLと右眼用オブジェクトRを鑑賞者に鑑賞させる両目視差方式が普及しつつある。この両目視差方式には、メガネを用いるメガネ方式とメガネを用いない裸眼方式の大きく2種類の方式が挙げられる。裸眼方式には、かまぼこ型の細かなレンズ(レンチキュラーレンズ)を配列させることにより左眼用オブジェクトLと右眼用オブジェクトRの光路を分離するレンチキュラースクリーン方式や、縦のスリット(パララックスバリア)により左眼用オブジェクトLと右眼用オブジェクトRの光路を分離するパララックスバリア方式がある。
【0018】
本実施形態による情報処理装置10は、一例として、両目視差画像を裸眼方式により鑑賞させることで立体視オブジェクトを提供する。よって、図1では、表示部13に左眼用オブジェクトLおよび右眼用オブジェクトRを示し、これらの前方にユーザが知覚する立体視オブジェクト30を示した。情報処理装置10は、空間上のユーザ操作に応じて立体視オブジェクト30を表示制御する。
【0019】
また、本実施形態による情報処理装置10が備えるカメラ17は、表示部13の近傍を撮影する。このようにカメラ17が撮影した撮影画像に基づいて、情報処理装置10は、空間上のユーザ操作を検出する。
【0020】
また、情報処理装置10は、表示部13と一体化した操作入力部15を用いて空間上のユーザ操作を検出してもよい。若しくは、情報処理装置10は、操作入力部15とカメラ17を併用して空間上のユーザ操作を検出してもよいし、複数のカメラや他のセンサを用いてユーザ操作を検出してもよい。
【0021】
このような情報処理装置10によれば、例えば表示部13に写真の2次元画像を表示し、空間上で検出されるユーザ操作に応じ、表示する写真の2次元画像を切り替えることができる。また、情報処理装置10は、表示部13にアイコンやサムネイルなどの操作対象の立体視オブジェクトを表示し、空間上で検出される操作対象の選択操作に応じて表示内容を制御することも可能である。
【0022】
しかし、一般的な情報処理装置には、ユーザ操作を検出可能な空間領域をユーザに伝える手段がないので、ユーザは、当該空間領域を認識すること、および当該空間領域内で適切な操作を行うことが困難であった。
【0023】
そこで、本開示による情報処理装置10は、ユーザ操作を検出可能な空間領域を立体視オブジェクトを用いて表現する。かかる構成により、情報処理装置10によりユーザ操作を検出可能な空間領域をユーザに明示的に認識させることが可能となる。
【0024】
以上、本実施形態による情報処理装置10の概要について説明した。続いて、本実施形態による情報処理装置10の詳細について図面を参照して説明する。
【0025】
<2.本実施形態による情報処理装置の詳細>
[2−1.情報処理装置の構成]
図2は、本実施形態による情報処理装置10のブロック構成図である。図2に示すように、情報処理装置10は、表示制御部11、表示部13、操作入力部15、カメラ17および検出部19を備える。以下、各構成について説明する。
【0026】
表示制御部11は、表示部13に表示する画像を生成する機能を有する。例えば、表示制御部11は、視差がある両目用画像を生成し、表示部13に出力する。
【0027】
また、本実施形態による表示制御部11は、ユーザ操作が検出される空間領域を立体視オブジェクトにより表現する。具体的には、表示制御部11は、空間領域に立体視オブジェクトが知覚されるよう表示制御する。表示制御部11は、空間領域の3次元座標情報を、記憶部(図示せず)または検出部19などから取得し、空間領域の範囲を把握する。
【0028】
また、立体視オブジェクトは、ユーザの位置に応じて歪みや位置ズレが生じる。そこで、表示制御部11は、例えばユーザの顔の位置に応じて、空間領域を表現する立体視オブジェクトの表示制御を行う。ユーザの顔の位置は、例えば表示部13前方に居るユーザの顔を撮影するカメラ(図示せず)により撮影された撮影画像に基づいて検出される。なお、立体視オブジェクトによる空間領域の表現例は、後述する[2−2.空間領域の表現例]において詳細に説明する。
【0029】
表示部13は、表示制御部11から出力されたデータを表示する。例えば、表示部13は、視差のある両目用画像を表示することで、オブジェクトを立体表示する。ここで、立体表示するオブジェクトは、写真や映像でもよいし、操作ボタンやアイコンなどの画像でもよい。また、本実施形態による表示部13が立体表示するオブジェクトは、空間領域の表面部や内部に知覚され、空間領域を表現するパーティクルや波紋状のエフェクトでもよい。
【0030】
また、この表示部13は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイなどの表示装置であってもよい。
【0031】
操作入力部15は、ユーザによる操作指示を受付け、その操作内容を検出部19に出力する。ユーザによる操作指示は、オブジェクトに対する操作の他、ジェスチャー操作による操作指示を含む。また、操作入力部15が、空間上のユーザ操作を検知する近接センサにより実現される場合、操作内容として近接センサの検知結果を出力する。また、この操作部15は、表示部13と一体的に設けられる近接タッチパネルであってもよい。
【0032】
カメラ17は、空間上のユーザ操作を検知するイメージセンサであって、撮影した撮影画像を検出部19に出力する。カメラ17は、表示部13の近傍を撮影できるよう撮影方向が設定される。カメラ17の撮影方向の設定情報は、ユーザ操作を検知する空間領域を示す情報として、記憶部(図示しない)に記憶しておいてもよい。
【0033】
カメラ17の具体的な設定例について図3を参照して説明する。図3は、本実施形態によるカメラ17の設定を説明するための概略断面図である。図3に示すように、例えばカメラ17は、表示部13の前面の空間を下から撮影するよう設定される。これにより、カメラ17は、撮影領域Aにおいて空間上のユーザ操作を撮影することができる。なお、カメラ17は、情報処理装置10に実装されてもよいし、外付けされてもよい。
【0034】
ここで、カメラ17による撮影領域Aのz方向における幅は、図3に示すように表示部13のy方向における各位置において異なるが、本実施形態による情報処理装置10は、ユーザ操作を検出できる空間領域Sを図4に示すように調整してもよい。
【0035】
図4は、本実施形態による情報処理装置10の空間領域Sを示す図である。図4に示すように、情報処理装置10は、表示部13からz方向の距離が表示部13全面において同じ空間を、ユーザ操作を検知できる空間領域Sに設定してもよい。このような空間領域Sは、例えば複数のカメラ17を備えることで設定してもよい。
【0036】
また、このような空間領域Sを、表示部13と一体化した操作入力部15により設定してもよい。ここで、操作入力部15により設定される空間領域Sを示す概略断面図を図5に示す。図5に示すように、操作入力部15が例えば表示部13と一体的に設けられる近接タッチパネルの場合、空間領域Sのz方向における幅は、表示部13のy方向における各位置において同じである。
【0037】
また、情報処理装置10は、図4に示す空間領域Sを、カメラ17および操作入力部15を併用することによって設定してもよい。
【0038】
検出部19は、操作入力部15から入力された操作内容(例えば近接センサによる検知結果)、またはカメラ17から入力された撮影画像に基づいて、空間上のユーザ操作を検出する操作検出部である。また、本実施形態による検出部19は、ユーザ操作を検知できる空間領域Sにユーザの手などの操作体が入ったことや、操作体の3次元位置を検出することができる。
【0039】
操作体の3次元位置は、例えばカメラ17が撮影した撮影画像に基づいて検出部19により検出される。具体的には、検出部19は、撮影画像からユーザの手の形や指先などの操作体を検出し、検出した操作体の撮影画像内におけるXY座標と大きさに基づき3次元座標への変換処理を行い、操作体の3次元位置を検出する。
【0040】
なお、操作体の3次元位置の検出は、撮影画像に基づく場合に限られない。例えば、検出部19は、操作入力部15から入力された操作内容に基づいて操作体の3次元位置を検出してもよい。具体的には、検出部19は、近接センサなどで実現された操作入力部15からの操作内容(例えば近接センサによる検知結果)に基づいて、操作体の3次元位置を検出する。
【0041】
以上、本実施形態による情報処理装置10の構成について詳細に説明した。続いて、表示制御部11による空間領域Sの表現例について図面を参照して説明する。
【0042】
[2−2.空間領域の表現例]
(表現例1)
表現例1は、空間領域Sに入った操作体の周辺に立体視オブジェクトが知覚されるよう表示することで、空間領域Sを表現する。これにより、ユーザは、実際に手を近づけながら空間領域Sを認識することができる。以下、図6を参照して表現例1について説明する。
【0043】
図6は、表現例1を説明するための斜視図である。図6に示すように、検出部19により空間領域Sにユーザの手が入ったことが検出されると、表示制御部11は、ユーザの手の周辺に知覚されるようパーティクル32を立体表示する。ここで、ユーザの手の周辺は、検出部19から出力される操作体の3次元座標に基づいて判断される。
【0044】
なお、パーティクル32の立体表示位置は空間領域Sの内部および外部に散在してもよい。かかる構成によれば、ユーザは、パーティクル32の出現により手の位置が空間領域S内であることを認識することができる。他の例として、パーティクル32は、空間領域S内にのみ立体表示されてもよい。かかる構成によれば、ユーザは、パーティクル32の出現により手の位置が空間領域S内であることを認識すると共に、手の周辺で空間領域S内である領域を認識することができる。このように、前者および後者のいずれの例においても、ユーザはパーティクル32の出現により手の位置が空間領域S内であることを認識できるので、パーティクル32は空間領域Sを表現する立体視オブジェクトとして作用する。
【0045】
また、表示制御部11は、パーティクル32を、ユーザの手が検出された場合に一定時間立体表示し、その後は空間領域Sの表面部近くにユーザの手が移動した場合にのみ立体表示してもよい。また、表示制御部11は、空間領域Sの内部にユーザの手がある間は常に、又は一定時間毎に繰り返し立体表示してもよい。
【0046】
これにより、ユーザは、表示部13の周辺で空間操作することで、空間領域Sの表面部や内部を直感的に把握することができる。
【0047】
(表現例2)
表現例2は、空間領域Sに手が入った場合に、空間領域Sの表面部に立体視オブジェクトが知覚されるよう表示することで、空間領域Sの境目を表現する。これによりユーザは、実際に手を近づけた場合に、どの面から空間領域Sであるかを認識することができる。以下、図7を参照して表現例2について説明する。
【0048】
図7は、表現例2を説明するための斜視図である。図7に示すように、検出部19により空間領域Sにユーザの手が入ったことが検出されると、表示制御部11は、ユーザの手の周辺から波が広がるよう知覚される波紋状のエフェクト34を空間領域Sの表面部に立体表示する。
【0049】
かかる構成によれば、ユーザは、波紋状のエフェクト34の出現により空間領域Sの界面を認識することができるので、波紋状のエフェクト34は空間Sを表現する立体視オブジェクトとして作用する。
【0050】
また、表示制御部11は、波紋状のエフェクト34を、ユーザの手が検出された場合に一定時間立体表示させ、その後は空間領域Sの表面部近くにユーザの手が移動した場合にのみ立体表示させてもよい。また、表示制御部11は、空間領域Sの表面部にユーザの手がある間は常に、又は一定時間毎に繰り返し波紋状のエフェクト34を立体表示させてもよい。
【0051】
これにより、ユーザは、表示部13の周辺で空間操作することで、空間領域Sの界面を直感的に把握することができる。
【0052】
(表現例3)
表現例3は、自動的に空間領域Sの表面部に立体視オブジェクトが知覚されるよう表示することで、空間領域Sの界面を表現する。以下、図8を参照して表現例3について説明する。
【0053】
図8は、表現例3を説明するための斜視図である。図8に示すように、表示制御部11は、空間領域Sの表面部に水面のエフェクト36を立体表示する。表示制御部11は、水面のエフェクト36を、ユーザ操作が検出されるまで常に立体表示させてもよいし、一定時間毎に立体表示させてもよいし、情報処理装置10の電源がONになった場合や、情報処理装置10において空間上の操作入力機能が起動された場合に立体表示させてもよい。
【0054】
かかる構成によれば、ユーザは、水面のエフェクト36の自動的な出現により空間領域Sの界面を認識することができるので、水面のエフェクト36は空間領域Sを表現する立体視オブジェクトとして作用する。
【0055】
これにより、予め定めたタイミングで自動的に空間領域Sが立体視オブジェクトによって表現されるので、ユーザが空間上の操作を実際に行わなくとも、空間領域Sの界面を直感的に把握することができる。
【0056】
(表現例4)
表現例4は、空間領域S内で直接操作可能な立体視オブジェクトを選択した場合に、立体視オブジェクトの周辺にパーティクルを立体表示することで、選択操作のフィードバックを行う。これによりユーザは、空間領域S内で立体視オブジェクトを選択したことを視覚的に認識することができる。以下、図9を参照して表現例4について説明する。
【0057】
図9は、表現例4を説明するための状態遷移図である。図9の左から中央に示すように、検出部19により空間領域Sにユーザの手が入ったことが検出されると、表示制御部11は、ユーザの手の周辺に知覚されるようパーティクル32を立体表示する。
【0058】
上述した操作例1と同様に、パーティクル32は、空間領域Sの内部および外部に散在してもよいし、空間領域S内にのみ立体表示されてもよい。いずれにしても、ユーザはパーティクル32の出現により手の位置が空間領域S内であることを認識することができるので、パーティクル32は空間領域Sを表現する立体視オブジェクトとして作用する。
【0059】
さらに、図9の右に示すように、ユーザの手が立体視オブジェクト36周辺に移動し、選択対象の立体視オブジェクト36を選択する。表示制御部11は、検出部19から検出される操作体(ここでは、ユーザの手)の3次元位置と、立体視オブジェクト36のユーザによる知覚位置が対応する場合、かかる立体視オブジェクト36が選択されたと判断する。なお、立体視オブジェクトは、上述したように、ユーザの位置に応じて歪みや位置ズレが生じる。よって、表示制御部11は、ユーザの顔を撮影した撮影画像に基づいてユーザの顔の位置を認識し、ユーザの顔の位置に応じて立体視オブジェクトを表示制御する。
【0060】
このように、立体視オブジェクト36がユーザにより選択されると、表示制御部11は、さらに立体視オブジェクト36の周辺に選択パーティクル38を立体表示する。
【0061】
かかる構成によれば、ユーザは、選択パーティクル38の出現により手の位置が操作対象の立体視オブジェクト36を選択できたことを認識できる。
【0062】
また、他の例として、立体視オブジェクト36がユーザにより選択された場合、表示制御部11は選択パーティクル38のみ立体表示してもよい。表現例4の他の例を説明するための図を図10に示す。図10に示すように、ユーザが立体視オブジェクト36を選択すると、表示制御部11は、選択された立体視オブジェクト36の周辺に選択パーティクル38を立体表示する。
【0063】
かかる構成によれば、ユーザが操作対象の立体視オブジェクト36を選択した場合に選択パーティクル38のみが出現することで、ユーザは選択操作のフィードバックをより明確に認識できる。
【0064】
(表現例5)
表現例5は、ユーザが検知された場合をトリガにして空間領域Sを立体視オブジェクトにより表現する。これにより、ユーザが不在の間に立体視オブジェクトを表示していることによる無駄な消費電力を削減することができる。以下、図11を参照して表現例5について説明する。
【0065】
図11は、表現例5を説明するための斜視図である。図11に示す情報処理装置20は、上述した実施形態による情報処理装置10に、ユーザを検知するセンサとしてカメラ23を設けた装置である。なお、ユーザを検知するセンサはカメラ23に限られず、例えば赤外線センサでもよい。
【0066】
図11の左側に示すように、カメラ23は情報処理装置20の前方を撮影する。そして、図11の右側に示すように、カメラ23により人が検知されると、表示制御部11は、空間領域Sの表面部に波紋状のエフェクト34を立体表示する。
【0067】
なお、図11では、空間領域Sの界面を表現する立体視オブジェクトとして、表面部に波紋状のエフェクト34を示したが、空間領域Sの界面を表現する立体表示は波紋状のエフェクト34に限られず、例えば図8に示した水面のエフェクト36でもよい。
【0068】
<3.まとめ>
上述したように、本開示の一実施形態に係る情報処理装置10によれば、ユーザ操作が検出される空間領域Sを立体視オブジェクトにより表現することで、ユーザに空間領域Sを認識させることができる。
【0069】
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
【0070】
例えば、空間領域を表現するオブジェクトは、上記表現例1から表現例5に示した画像に限られない。例えば、空間領域に手が入った場合、光が手から広がっていくように知覚されるオブジェクトを立体表示してもよい。
【0071】
また、上記表現例1〜表現例5をそれぞれ組み合わせた表現例も本開示の技術的範囲に含まれる。
【0072】
また、上記実施形態では、本開示による情報処理装置10を、タブレット型のコンピュータにより実現する例を説明したが、本技術はかかる例に限定されない。例えば、本開示による情報処理装置10は、図2を参照して説明した表示制御部11および検出部19を主に有する制御装置でもよい。この場合、かかる制御装置は、表示部13、および操作入力部15を主に有する表示装置を制御する。また、かかる表示装置には、カメラ17が外付けされている。また、かかる制御装置および表示装置を有する情報処理システムも本技術に含まれる。
【0073】
また、本開示による情報処理装置は、ヘッドマウントディスプレイでもよい。この場合、ヘッドマウントディスプレイが備えるカメラにより、ユーザの空間上の操作を撮像する。そして、ヘッドマウントディスプレイが備える表示制御部が、ユーザ操作を検知する空間領域に知覚されるようオブジェクトを立体表示してもよい。
【0074】
また、上述した実施形態による情報処理装置10および情報処理装置20の各構成は、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)といったハードウェア構成により実現してもよい。
【0075】
また、上述した実施形態による情報処理装置10および情報処理装置20の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
【0076】
なお、本技術は以下のような構成も取ることができる。
(1)
空間上の操作を検出する操作検出部と、
前記操作検出部により空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する表示制御部と、
を備える、情報処理装置。
(2)
前記表示制御部は、前記空間領域で検出された操作の操作位置周辺に前記立体視オブジェクトが知覚されるよう表示する、前記(1)記載の情報処理装置。
(3)
前記表示制御部は、前記操作領域の表面部に前記立体視オブジェクトが知覚されるよう表示する、前記(1)または前記(2)に記載の情報処理装置。
(4)
前記表示制御部は、前記操作検出部により前記空間領域内でオブジェクトが選択された場合に、前記立体視オブジェクトが前記オブジェクトの周辺に知覚されるよう表示する、前記(1)から前記(3)のいずれかに記載の情報処理装置。
(5)
前記情報処理装置は、
ユーザを検出するユーザ検出部を備え、
前記表示制御部は、前記ユーザ検出部によりユーザが検出された場合に、前記立体視オブジェクトにより前記空間領域を表現する、前記(1)から前記(4)のいずれかに記載の情報処理装置。
(6)
前記表示制御部は、一定時間ごとに前記立体視オブジェクトを表現する、前記(1)から前記(5)のいずれかに記載の情報処理装置。
(7)
空間上の操作を検出するステップと、
前記検出するステップにより空間上の操作が検出される空間領域を、立体視オブジェクトにより表現するステップと、
を含む、情報処理方法。
(8)
空間上の操作を検出する処理と、
前記検出するステップにより空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する処理と、
をコンピュータに実行させる、プログラム。
(9)
前記空間領域で検出された操作の操作位置周辺に前記立体視オブジェクトが知覚されるよう表示する処理をコンピュータに実行させる、前記(8)記載のプログラム。
(10)
前記操作領域の表面部に前記立体視オブジェクトが知覚されるよう表示する処理をコンピュータに実行させる、前記(8)または前記(9)に記載のプログラム。
(11)
前記空間領域内でオブジェクトが選択される操作が検出された場合に、前記立体視オブジェクトが前記オブジェクトの周辺に知覚されるよう表示する処理をコンピュータに実行させる、前記(8)から前記(10)のいずれかに記載のプログラム。
(12)
ユーザを検出する処理と、
前記ユーザが検出された場合に、前記立体視オブジェクトにより前記空間領域を表現する処理と、
をコンピュータに実行させる、前記(8)から前記(11)のいずれかに記載のプログラム。
(13)
前記立体視オブジェクトを、一定時間ごとに前記空間領域を表現するよう表示する処理をコンピュータに実行させる、前記(8)から前記(12)のいずれかに記載のプログラム。
【符号の説明】
【0077】
10、20 情報処理装置
11 表示制御部
13 表示部
15 操作入力部
17 カメラ
19 検出部
30 立体視オブジェクト
32 パーティクル
34 波紋状のエフェクト
38 選択パーティクル
【特許請求の範囲】
【請求項1】
空間上の操作を検出する操作検出部と、
前記操作検出部により空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する表示制御部と、
を備える、情報処理装置。
【請求項2】
前記表示制御部は、前記空間領域で検出された操作の操作位置周辺に前記立体視オブジェクトが知覚されるよう表示する、請求項1記載の情報処理装置。
【請求項3】
前記表示制御部は、前記操作領域の表面部に前記立体視オブジェクトが知覚されるよう表示する、請求項1に記載の情報処理装置。
【請求項4】
前記表示制御部は、前記操作検出部により前記空間領域内でオブジェクトが選択された場合に、前記立体視オブジェクトが前記オブジェクトの周辺に知覚されるよう表示する、請求項1に記載の情報処理装置。
【請求項5】
前記情報処理装置は、
ユーザを検出するユーザ検出部を備え、
前記表示制御部は、前記ユーザ検出部によりユーザが検出された場合に、前記立体視オブジェクトにより前記空間領域を表現する、請求項1に記載の情報処理装置。
【請求項6】
前記表示制御部は、一定時間ごとに前記立体視オブジェクトを表現する、請求項1に記載の情報処理装置。
【請求項7】
空間上の操作を検出するステップと、
前記検出するステップにより空間上の操作が検出される空間領域を、立体視オブジェクトにより表現するステップと、
を含む、情報処理方法。
【請求項8】
空間上の操作を検出する処理と、
前記検出するステップにより空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する処理と、
をコンピュータに実行させる、プログラム。
【請求項9】
前記空間領域で検出された操作の操作位置周辺に前記立体視オブジェクトが知覚されるよう表示する処理をコンピュータに実行させる、請求項8記載のプログラム。
【請求項10】
前記操作領域の表面部に前記立体視オブジェクトが知覚されるよう表示する処理をコンピュータに実行させる、請求項8に記載のプログラム。
【請求項11】
前記空間領域内でオブジェクトが選択される操作が検出された場合に、前記立体視オブジェクトが前記オブジェクトの周辺に知覚されるよう表示する処理をコンピュータに実行させる、請求項8に記載のプログラム。
【請求項12】
ユーザを検出する処理と、
前記ユーザが検出された場合に、前記立体視オブジェクトにより前記空間領域を表現する処理と、
をコンピュータに実行させる、請求項8に記載のプログラム。
【請求項13】
前記立体視オブジェクトを、一定時間ごとに前記空間領域を表現するよう表示する処理をコンピュータに実行させる、請求項8に記載のプログラム。
【請求項1】
空間上の操作を検出する操作検出部と、
前記操作検出部により空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する表示制御部と、
を備える、情報処理装置。
【請求項2】
前記表示制御部は、前記空間領域で検出された操作の操作位置周辺に前記立体視オブジェクトが知覚されるよう表示する、請求項1記載の情報処理装置。
【請求項3】
前記表示制御部は、前記操作領域の表面部に前記立体視オブジェクトが知覚されるよう表示する、請求項1に記載の情報処理装置。
【請求項4】
前記表示制御部は、前記操作検出部により前記空間領域内でオブジェクトが選択された場合に、前記立体視オブジェクトが前記オブジェクトの周辺に知覚されるよう表示する、請求項1に記載の情報処理装置。
【請求項5】
前記情報処理装置は、
ユーザを検出するユーザ検出部を備え、
前記表示制御部は、前記ユーザ検出部によりユーザが検出された場合に、前記立体視オブジェクトにより前記空間領域を表現する、請求項1に記載の情報処理装置。
【請求項6】
前記表示制御部は、一定時間ごとに前記立体視オブジェクトを表現する、請求項1に記載の情報処理装置。
【請求項7】
空間上の操作を検出するステップと、
前記検出するステップにより空間上の操作が検出される空間領域を、立体視オブジェクトにより表現するステップと、
を含む、情報処理方法。
【請求項8】
空間上の操作を検出する処理と、
前記検出するステップにより空間上の操作が検出される空間領域を、立体視オブジェクトにより表現する処理と、
をコンピュータに実行させる、プログラム。
【請求項9】
前記空間領域で検出された操作の操作位置周辺に前記立体視オブジェクトが知覚されるよう表示する処理をコンピュータに実行させる、請求項8記載のプログラム。
【請求項10】
前記操作領域の表面部に前記立体視オブジェクトが知覚されるよう表示する処理をコンピュータに実行させる、請求項8に記載のプログラム。
【請求項11】
前記空間領域内でオブジェクトが選択される操作が検出された場合に、前記立体視オブジェクトが前記オブジェクトの周辺に知覚されるよう表示する処理をコンピュータに実行させる、請求項8に記載のプログラム。
【請求項12】
ユーザを検出する処理と、
前記ユーザが検出された場合に、前記立体視オブジェクトにより前記空間領域を表現する処理と、
をコンピュータに実行させる、請求項8に記載のプログラム。
【請求項13】
前記立体視オブジェクトを、一定時間ごとに前記空間領域を表現するよう表示する処理をコンピュータに実行させる、請求項8に記載のプログラム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【公開番号】特開2012−256104(P2012−256104A)
【公開日】平成24年12月27日(2012.12.27)
【国際特許分類】
【出願番号】特願2011−127389(P2011−127389)
【出願日】平成23年6月7日(2011.6.7)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】
【公開日】平成24年12月27日(2012.12.27)
【国際特許分類】
【出願日】平成23年6月7日(2011.6.7)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】
[ Back to top ]