説明

情報処理機器、情報処理方法および情報処理プログラム

【課題】意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて機器を使用しながら学習できる情報処理機器、情報処理方法および情報処理プログラムを提供する。
【解決手段】ジェスチャにより操作可能な情報処理機器であって、カメラ102により撮影されたジェスチャ対象を認識するジェスチャ対象認識部211と、認識されたジェスチャ対象がカメラの位置に対して予め定められた開始位置にあるか否かを判定する位置判定部221と、認識されたジェスチャ対象が撮影位置に対して予め定められた開始位置にある場合に、認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させるガイダンス表示制御部224と、を備える。ユーザはジェスチャを容易に入力でき、ジェスチャについて情報処理機器を使用しながら学習でき、使用開始の障壁を低くできる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ジェスチャにより操作可能な情報処理機器、これを用いた情報処理方法およびこれに実行させるための情報処理プログラムに関する。
【背景技術】
【0002】
従来、パソコンや携帯電話機、テレビジョン受像機等の情報処理機器は、液晶ディスプレイ等の表示部と、所定の操作内容や文字を入力するためのキーボード、ボタン、リモコン、マウス、またはタッチパネル等の入力部とによって構成されている。そして、通常は、情報処理機器は、キー操作によって入力された操作内容に応じて所定の処理を実行し、その実行結果を表示部に表示する。
【0003】
近年では、キーボード、マウスまたはタッチパネルの他にも、外部接続されたカメラでユーザを画像認識し、そのユーザの動きに応じて操作内容を自動的に入力する機器が提案されている。人の手の一連の動きは特定の意味を有する場合がある。たとえば、手を左右に動かす動作は「さようなら」を意味し、手を広げて奥から手前に動かす動作は「こちらに来てほしい」を意味する。また、手の動きだけでなく、その他の体の動きにも同様に特定の意味を持たせることができる。このような体の一部による一連の特定の動き(以下、ジェスチャと呼ぶ。)の画像認識で、これに対応する特定の情報を入力(以下、ジェスチャ入力と呼ぶ。)することができる。
【0004】
このような機器を用いる場合には、ユーザは、取扱説明書等を参照して操作内容に対応するジェスチャを覚える必要がある。ユーザは、各ジェスチャを覚えて自身が入力したい操作内容を機器に認識させる。ユーザは正しくジェスチャを行ったつもりでも、意図した通りに機器に入力されなかったり、実際に機器に認識された動作がわからなかったりすることがある。これに対して、認識対象の動作が認識されるまでの認識過程をユーザに対してフィードバックして学習させる方法が提案されている(たとえば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2001−306049号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、特許文献1記載の機器は、手の動きの軌跡を表すビジュアルフィードバック画面を生成するが、操作の説明は画面に表れておらずユーザは取扱説明書等を参照してジェスチャを覚えなくてはならない。一方、特許文献1記載の機器ジェスチャを間違えて入力した際にはユーザは間違えたことを自覚できない。そして、ユーザにとってそのような機器は、使用開始の障壁が高い。また、ユーザへの学習効果を高められていないため、使いやすい機器を提供できない。
【0007】
本発明は、このような事情に鑑みてなされたものであり、意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて機器を使用しながら学習できる情報処理機器、情報処理方法および情報処理プログラムを提供することを目的とする。
【課題を解決するための手段】
【0008】
(1)上記の目的を達成するため、本発明の情報処理機器は、ジェスチャにより操作可能な情報処理機器であって、カメラにより撮影されたジェスチャ対象を認識するジェスチャ対象認識部と、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定する位置判定部と、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させるガイダンス表示制御部と、を備えることを特徴としている。
【0009】
このようにガイダンスを表示することで、ユーザは意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて情報処理機器を使用しながら学習でき、使用開始の障壁を低くできる。
【0010】
(2)また、本発明の情報処理機器は、前記ガイダンス表示制御部が、前記ジェスチャ対象認識部が前記カメラにより撮影されたジェスチャ対象を認識した際に、前記ディスプレイにジェスチャ対象を認識していることを表示させることを特徴としている。これにより、ユーザはジェスチャ対象が認識されたことを知ることができ、ジェスチャを伝えやすくする。
【0011】
(3)また、本発明の情報処理機器は、前記ガイダンス表示制御部が、前記ジェスチャ対象認識部が、前記カメラにより撮影されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあることを認識した際に、前記カメラにより撮影されたジェスチャ対象が前記開始位置にあることを前記ディスプレイに表示させることを特徴としている。これにより、ユーザはジェスチャ対象が開始位置にあることを知ることができ、ジェスチャを伝えやすくする。
【0012】
(4)また、本発明の情報処理機器は、前記ガイダンス表示制御部が、前記ガイダンスとして、前記ジェスチャ対象の移動方向と操作内容とを対応させた指示を表示することを特徴としている。これにより、ユーザは所望の操作を実現するためのジェスチャ対象の移動方向を容易に知ることができる。
【0013】
(5)また、本発明の情報処理機器は、前記認識されたジェスチャ対象の映像を鏡像化処理する鏡像化処理部と、前記鏡像化処理されたジェスチャ対象を前記ディスプレイに表示させるジェスチャ表示制御部と、を更に備えることを特徴としている。このようにジェスチャ対象を鏡像化して表示することで、ディスプレイに対向してジェスチャを行うユーザに違和感を与えないようにすることができる。
【0014】
(6)また、本発明の情報処理機器は、前記ガイダンス表示制御部が、前記撮影されたジェスチャ対象が認識されたことを示す捕捉マーカーを前記ディスプレイの前記予め定められた開始位置に対応する表示位置に表示させることを特徴としている。このような捕捉マーカーの表示により、ユーザはジェスチャの開始位置を知ることができ、そこからのジェスチャと操作内容との対応を学習できる。
【0015】
(7)また、本発明の情報処理機器は、前記認識されたジェスチャ対象が移動した場合に、その移動が前記ガイダンスの指示するいずれの経路に合致するかを判定する移動判定部を更に備え、前記ガイダンス表示制御部は、前記認識されたジェスチャ対象の移動が前記ガイダンスの指示するいずれかの経路に合致する場合には、合致の旨を前記ディスプレイに表示させることを特徴としている。
【0016】
このように、認識されたジェスチャ対象の移動がガイダンスの指示するいずれかの経路に合致する場合には、合致の旨をディスプレイに表示させる。たとえば、実際にジェスチャを行ったときにジェスチャ対象の軌跡を描画し所定操作との合致を示すことで、機器側のジェスチャの受け取り状況を確認しつつ操作内容の入力を完遂でき、ユーザが抱くジェスチャ入力への不安を解消できる。
【0017】
(8)また、本発明の情報処理機器は、前記ガイダンス表示制御部は、前記認識されたジェスチャ対象の移動が前記ガイダンスの指示する経路のいずれにも合わない場合には、不合致の旨を前記ディスプレイに表示させることを特徴としている。これにより、間違った操作内容を入力したときに、実際に認識された動作を明確にでき、ユーザに結果をフィードバックできる。たとえば、ジェスチャに相当する操作内容がないという不合致表示を表示できる。ジェスチャを始めるための手の位置は正しかったが、その後の手の動かし方が悪かったために操作内容の実行まで至らなかったことを、ユーザは理解でき、ジェスチャ入力のための学習が進む。
【0018】
(9)また、本発明の情報処理方法は、ジェスチャにより操作可能な情報処理機器を用いて行う情報処理方法であって、カメラにより撮影されたジェスチャ対象を認識するステップと、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定するステップと、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させるステップと、を含むことを特徴としている。
【0019】
このようにガイダンスを表示することで、ユーザは意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて機器を使用しながら学習でき、使用開始の障壁を低くできる。
【0020】
(10)また、本発明の情報処理プログラムは、ジェスチャにより操作可能な情報処理機器に実行させる情報処理プログラムであって、カメラにより撮影されたジェスチャ対象を認識する処理と、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定する処理と、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させる処理と、を含むことを特徴としている。
【0021】
このようにガイダンスを表示することで、ユーザは意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて情報処理機器を使用しながら学習でき、使用開始の障壁を低くできる。
【発明の効果】
【0022】
本発明によれば、ユーザは意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて情報処理機器を使用しながら学習でき、使用開始の障壁を低くできる。
【図面の簡単な説明】
【0023】
【図1】実施形態1に係る情報処理機器を示す正面図である。
【図2A】実施形態1に係る情報処理機器のハード構成を示すブロック図である。
【図2B】実施形態1に係る情報処理機器の機能的構成を示すブロック図である。
【図3】実施形態1の操作内容、ガイダンス、ジェスチャ判定基準を対応付けたテーブルを示す図である。
【図4A】実施形態1に係る情報処理機器の入力動作を示すフローチャートである。
【図4B】実施形態1に係る情報処理機器の入力動作を示すフローチャートである。
【図5】実施形態1の捕捉マーカーおよびガイダンスの表示例を示す図である。
【図6A】実施形態1に係る情報処理機器の表示動作を示すフローチャートである。
【図6B】実施形態1に係る情報処理機器の表示動作を示すフローチャートである。
【図7】実施形態1に係る情報処理機器の使用場面の一例を示す図である。
【図8】実施形態2に係る情報処理機器を示す正面図である。
【図9】実施形態2の操作内容、ガイダンス、ジェスチャ判定基準を対応付けたテーブルを示す図である。
【図10】実施形態2に係る情報処理機器の使用場面の一例を示す図である。
【発明を実施するための形態】
【0024】
次に、本発明の実施の形態について、図面を参照しながら説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては同一の参照番号を付し、重複する説明は省略する。
【0025】
[第1の実施形態]
(テレビジョン受像機の外観)
図1は、テレビジョン受像機100(情報処理機器)を示す正面図である。以下の例では、情報処理装置の一例としてテレビジョン受像機100を説明しているが、本発明の情報処理装置は必ずしもこれに限定されない。テレビジョン受像機100は、ディスプレイ101、カメラ102を備えている。ディスプレイ101は、液晶、プラズマ、ブラウン管、有機EL等の手段により受信映像やユーザへの視覚情報を表示する。カメラ102は、デジタルデータに変換できる素子で構成されており、ユーザのジェスチャを撮影する。CMOS、CCD等一般的な撮像素子を用いて構成されていればよい。また、カメラ102は、認識精度を上げるため、距離センサ、深度センサ等を備えていてもよい。カメラ102は、ユーザの方向を向いた状態で配置されることが好ましく、たとえばディスプレイ101の表示面と同じ方向に向いて配置される。
【0026】
(ハード構成)
図2Aは、テレビジョン受像機100のハード構成を示すブロック図である。図2Aに示すように、テレビジョン受像機100は、ディスプレイ101、カメラ102、テレビ機能処理部103、カメラIF104、演算部105、メモリ106、記憶部107、グラフィック処理部108および制御部109を備えている。必要な要素を中心に説明し、一般の機能説明は省略する。テレビ機能処理部103は、テレビ放送を受信するチューナや受信データに含まれる動画像のデコード、音声のデコード等を行い、結果をメモリ106に書き込む。
【0027】
カメラIF104は、カメラ102で撮影されたデータを演算部105等が利用できるデータ形式に変換し、メモリ106に書き込む。演算部105は、カメラ102で撮影された映像からジェスチャの対象(たとえば手や目)等を認識し、ジェスチャをコマンドへと変換する処理等を行う。メモリ106は、演算部105が処理する際に一時的にデータを格納する。記憶部107は、メモリ106ほど頻繁に書き換える必要のないデータを格納する。たとえば、コマンドとそれに対応するジェスチャの仕様リスト(後述)を記憶しておく。
【0028】
グラフィック処理部108は、テレビ機能処理部103、演算部105等が処理しメモリ106に書き込んだ表示データをディスプレイ101へ表示するためのデータ変換処理を行う。また、複数の画像の重畳処理や鏡像化処理を行う。制御部109は、機器全体を制御する。
【0029】
(機能的構成)
図2Bは、テレビジョン受像機100の機能的構成を示すブロック図である。上記のカメラIF104、演算部105、メモリ106、記憶部107、グラフィック処理部108および制御部109は、機能的構成としては、ジェスチャ対象認識部211、形状判定部212、鏡像化処理部213、ジェスチャ表示制御部214、位置判定部221、移動判定部222、操作実行部223およびガイダンス表示制御部224に対応する。各部について説明する。
【0030】
ジェスチャ対象認識部211は、カメラで撮影した画像からジェスチャ対象を認識する。ジェスチャ対象とは、ジェスチャを行う物体であり、手、目などの体の一部が該当することが多いがこれらに限られるものではなく、ペンを持った手なども該当しうる。なお、ジェスチャ対象の認識手法には輪郭抽出、背景分離、パターンマッチング等があるが、これらに限定されない。形状判定部212は、ジェスチャ対象の形状を判定する。形状判定することで、映像上で外形を切り出すことが容易になる。形状判定部212で判定された形状をジェスチャ認識の一要素として使用してもよい。具体的には、ジェスチャ対象認識部211が、拡げた手と閉じた手とをそれぞれ異なるジェスチャとして認識する。その場合には、同じ位置、経路であっても、手の形が拡げているのと閉じているのではジェスチャが異なるという基準がとられる。
【0031】
鏡像化処理部213は、形状判定されたジェスチャ対象の映像について外形を切り出し、ジェスチャ対象の映像を鏡像化処理する。ジェスチャ表示制御部214は、鏡像化処理されたジェスチャ対象をディスプレイ101に表示させる。位置判定部221は、認識されたジェスチャ対象がカメラの位置に対して予め定められた開始位置にあるか否かを判定する。認識されたジェスチャ対象が予め定められた終了位置にあるか否かについても同様に判定する。
【0032】
移動判定部222は、ジェスチャ対象の移動がいずれの経路かを判定する。認識されたジェスチャ対象が移動した場合に、その移動がガイダンスの指示するいずれの経路に合致するかを判定する。操作実行部223は、有効になった操作内容を実行する。
【0033】
ガイダンス表示制御部224は、選択可能な操作の内容とジェスチャ対象の移動方向とを対応させたガイダンスを表示する。たとえば、ガイダンス表示制御部224は、撮影されたジェスチャ対象が認識されたことを示す捕捉マーカーをディスプレイ101の予め定められた開始位置に対応する表示位置に表示させる。また、認識されたジェスチャ対象がカメラの位置に対して予め定められた開始位置にある場合に、認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイ101に表示させる。ジェスチャ対象の移動方向と操作内容とを対応させた指示を表示する。
【0034】
ガイダンス表示制御部224は、認識されたジェスチャ対象の移動がガイダンスの指示するいずれかの経路に合致する場合には、合致の旨をディスプレイ101に表示させる。ガイダンス表示制御部224は、認識されたジェスチャ対象の移動がガイダンスの指示する経路のいずれにも合わない場合には、不合致の旨をディスプレイ101に表示させる。
【0035】
(ジェスチャリスト)
図3は、コマンド(操作内容)、ガイダンス、ジェスチャ判定基準を対応付けたテーブルを示す図である。図3に示すテーブルは、各No.のコマンドの内容を表している。このようにコマンドとジェスチャと認識されるためにユーザがとる必要のある行動を対照させたテーブルをジェスチャリストと呼ぶ。通常、テーブルの情報は、メモリ106もしくは記憶部107に格納される。
【0036】
コマンド301は、実際に機器を制御する指令であり、制御部109で解釈され、機器各部が制御される。ガイダンス302は、ディスプレイ101に表示されるガイダンスの一部を示す文字情報表示である。ジェスチャ対象303は、手や目等の具体的なジェスチャ対象である。図3に示す例では、ジェスチャ対象303が手であり、コマンドを入力するジェスチャは手で行われる。手の他に指、目、足等の部分のほか、体全体等がジェスチャ対象となりうる。
【0037】
開始位置304は、ジェスチャ前に、ジェスチャ対象が認識される範囲を示す。開始位置304に示す外側の四角はカメラの撮影範囲であり、内側の四角(斜線入り)はジェスチャ対象303が開始位置にあると認識されうる位置である。たとえば、No.0001のコマンドについては、カメラによる撮影範囲内で手が中央付近に映ればジェスチャの開始が認識される。
【0038】
経路305は、ジェスチャと認識されるために、ジェスチャ対象がとるべき経路である。No.0001のコマンドについては、ジェスチャ対象が撮影範囲内において、中央から下方に移動することでジェスチャが認識される。終了位置306に示す外側の四角はカメラの撮影範囲であり、内側の四角(斜線入り)はジェスチャ対象303が終了位置にあると認識されうる位置を示す。
【0039】
したがって、No.0001のコマンドについては、ジェスチャ対象が撮影範囲の中央下方に映るとジェスチャ終了と認識される。ユーザは停止コマンド(No.0001)をテレビジョン受像機100に伝えたい場合は、ジェスチャ対象である手を、カメラ撮影範囲の中央付近に映るように差し出し、ジェスチャ認識が開始されてから、その手を下方向へ動かす必要がある。このことが図3に示すNo.0001の開始位置304、経路305、終了位置306により表わされている。
【0040】
(入力動作)
図4A、図4Bは、テレビジョン受像機100の入力動作を示すフローチャートである。図4A、図4Bを用いて、ジェスチャを認識してからユーザに使用方法の学習を促すまでの内部処理を説明する。
【0041】
まず、テレビジョン受像機100の電源投入、またはアプリケーションソフト起動等により処理を開始する。この時点ではジェスチャ対象が見つかっていない。次に、カメラの撮影映像からジェスチャ対象を探し(ステップS1)、ジェスチャ対象を認識しているか否かを判断する(ステップS2)。認識していなければステップS1に戻り、ジェスチャ対象を探す。認識していれば、カメラ102で撮影されて格納されているジェスチャ対象の映像をディスプレイ101へ表示するように指示する(ステップS3)。次に、ジェスチャ対象が、ジェスチャリストの開始位置に存在するか否かを判定する(ステップS4)。ジェスチャ対象が開始位置に存在しない場合はステップS1へと戻る。存在する場合は、ジェスチャ対象を捕捉していると判断し、捕捉マーカーとガイダンスの表示を指示する(ステップS5)。捕捉とは、ジェスチャ対象を認識し続けている状況を指す。
【0042】
次に、ジェスチャ対象が動いたか否かを判定する(ステップS6)。動いていなければ、動くまで待機する。動いたときには、ユーザへのガイダンスの必要がなくなったと判断し、ガイダンス消去を指示し、ガイダンスを消去する(ステップS7)。そして、ジェスチャ対象を捕捉しているかを判定する(ステップS8)。捕捉していなければステップS1へ戻る。
【0043】
一方、ジェスチャ対象を捕捉しているときには、ジェスチャ対象の軌跡が、ジェスチャ対象の開始位置に基づいて取られうるジェスチャリストの経路305のいずれかと一致するか否かを判定する。一致していなければ、ジェスチャがリストにない旨を表示し(ステップS10)、ステップS1に戻る。一致していれば、ジェスチャ対象の移動の軌跡を表示するよう指示する。この軌跡を表示することでユーザは、ガイダンスに示された内容と、自分のジェスチャの動きとが一致していることが分かる。
【0044】
次に、ジェスチャ対象が取られた経路305により決まる終了位置306か否かを判定する(ステップS12)。終了位置306ではないと判定されれば、ステップS9に戻る。終了位置306であると判定されれば、ジェスチャ完了として、ジェスチャに対応したコマンドを発行し、コマンドに相当する制御を行い、処理を完了する。
【0045】
(ガイダンス表示)
捕捉マーカーおよびガイダンスについて説明する。図5は、捕捉マーカーおよびガイダンスの表示例500を示す図である。捕捉マーカー501は、ジェスチャ対象が開始位置にあることをユーザに教える印である。このような捕捉マーカー501の表示により、ユーザはジェスチャの開始位置を知ることができ、そこからのジェスチャと操作内容との対応を学習できる。ガイダンスは、ジェスチャ対象が開始位置にあると認識されているときに表示されるものであって、その開始位置から、認識可能なジェスチャおよび発行可能なコマンドの一覧である。すなわち、ジェスチャ対象をどのように動かせば各コマンドと認識されるかを、ユーザに教えるための案内である。
【0046】
図5に示すガイダンスの例では、ジェスチャ対象の移動方向を矢印511〜514で、コマンドの内容を文字情報521〜524で示している。したがって、この表示例では、ジェスチャ対象を上方向に動かせばメニュー表示、下方向に動かせば停止、右方向へ動かせば早送り、左方向に動かせば早戻し、のコマンドが発行される。これにより、ユーザは所望の操作を実現するためのジェスチャ対象の移動方向を容易に知ることができる。これらのジェスチャとコマンドとの対応は、図3に示したジェスチャリストにより決定される。なお、ガイダンスは上記の例に限らず、ユーザに開始位置を伝えられるという目的を達すれば、形状や方法は問わない。
【0047】
(表示動作)
図6A、図6Bは、テレビジョン受像機100の表示動作を示すフローチャートである。図6を用いて、表示に関わる処理を説明する。主として、図4A、図4Bで説明した内部処理を受けて、グラフィック処理部108が行う表示系処理である。
【0048】
まず、テレビジョン受像機100の電源投入等により開始する。テレビジョン受像機100の基本機能による映像をディスプレイ101に表示する。たとえば、放送(電波やIP、オンデマンド等による放送を含む)や録画された映像が表示される(ステップT1)。次に、ジェスチャ対象の表示指示があるか否かを判定する(ステップT2)。表示指示がなければステップT1に戻る。表示指示があれば、カメラで撮影し認識されているジェスチャ対象をディスプレイ101に表示する。
【0049】
このとき、ユーザにとっては、鏡を見ているかのように表示することが、ユーザに違和感を抱かせないために重要であるから、撮影したジェスチャ対象の映像について左右座標を反転させて鏡像化し、基本機能画像に重畳させて表示する(ステップT3)。鏡像化することでジェスチャ対象が鏡に映るようにディスプレイ101に表示される。たとえばユーザが右手を上げれば、画面右側に映る手が上がる。
【0050】
次に、捕捉マーカーとガイダンスの表示指示があるか否かを判定する(ステップT4)。表示指示がない場合はステップT2に戻る。表示指示がある場合は、捕捉マーカーとガイダンスを、すでに表示されている基本機能による映像とジェスチャ対象の表示に重畳して表示する(ステップT5)。そして、ガイダンスの消去指示があるか否かを判定する(ステップT6)。消去指示がなければステップT8へ進む。消去指示があればガイダンスを消去する(ステップT7)。
【0051】
次に、軌跡表示の指示または不合致表示の指示のいずれがなされたかを判定して(ステップT8)、不合致表示の指示であれば不合致表示を表示して(ステップT9)、ステップT11へ進む。軌跡表示の指示があれば、ジェスチャ対象が動いた際の軌跡を表示する(ステップT10)。軌跡の表示としては、たとえばジェスチャ対象が動いた跡を線等で描画する。また、これと同時にガイダンスの表示を消去する。そして、コマンド入力があるか否かを判定する(ステップT11)。この判定は、ジェスチャが完了したか否かの判定となる。コマンド入力がなければ、ステップT10へ戻り軌跡を表示する。コマンド入力があれば、ジェスチャが完了し、コマンド入力されたと判断し、捕捉マーカーと軌跡を消去し(ステップT12)、処理を完了する。
【0052】
(使用場面)
次に、ユーザがテレビジョン受像機100を使用した際の使用場面の一連の流れを説明する。図7は、テレビジョン受像機100の使用場面の一例を示す図である。
【0053】
使用場面P1では、ユーザU1がテレビジョン受像機100を見ている。このときのテレビジョン受像機100の画面は基本機能による映像として放送やビデオ等の映像711が表示されている。次に、使用場面P2ではユーザU1が前方へ手を広げてテレビジョン受像機100にかざすと、カメラ102で撮影されたユーザU1の手の映像とジェスチャ対象の捕捉マーカー712、矢印713と文字情報714で構成されるガイダンスが映像711の上に重畳されて表示される。
【0054】
その後、使用場面P3では、ユーザU1がテレビジョン受像機100に表示された自分の手をガイダンスの「MENU」の文字情報713に重ねるように手を広げたまま上へ上げ、「MENU」の文字情報713に手を重ねている。テレビジョン受像機100の表示は、手の動いた跡の軌跡715が表示され、「MENU」の文字情報713以外のガイダンスが消える。そのまま一定時間(たとえば1秒の設計値)保持すると、使用場面P4に示すようにテレビジョン受像機100のディスプレイ上にユーザU1の意図したとおりにメニュー画面が表示される。
【0055】
このように動作することで、ユーザU1はテレビジョン受像機100を使いながらジェスチャの開始位置を知ることができ、どのようにジェスチャを行えば、意図したコマンドにつながるかを学習できる。そして、実際にジェスチャを行えば軌跡が描画されるので、機器側の受け取り状況を確認しつつコマンド入力まで完遂できる。その結果、ユーザU1は、ジェスチャ入力への不安を解消できる。
【0056】
[第2の実施形態]
上記の実施形態では、ジェスチャにより操作可能な情報処理機器がテレビジョン受像機100であるが、電子書籍端末であってもよい。以下、上記の実施形態1に対する差分を中心に説明する。
【0057】
(電子書籍端末の外観)
図8は、電子書籍端末600を示す正面図である。ディスプレイ601は、液晶、有機EL等の表示手段により、映像を表示する。図8の例では、電子書籍を表示している。カメラ602は、ユーザを撮影する方向(ユーザに対向する方向)に向けて配置され、ディスプレイと同じ向きである。カメラ602は、ユーザおよびユーザのジェスチャを撮影する。
【0058】
(ジェスチャリスト)
図9は、操作内容、ガイダンス、ジェスチャ判定基準を対応付けたテーブルを示す図である。図9を用いて、ジェスチャリストについて説明する。上記の実施形態ではユーザが比較的離れて使用するテレビジョン受像機100である。これに対して、電子書籍端末600は、ユーザが持って使用し、かつ実際の書籍に近い操作性を与えるものであるため、第1の実施形態の場合とはジェスチャリストの内容が大きく異なる。具体的には、ジェスチャリストのコマンドの種類が電子書籍向けになる。また、ジェスチャ対象の手がカメラから近いため、開始位置・終了位置のジェスチャ対象を示す領域が大きくなる。
【0059】
(使用場面)
図10は、電子書籍端末600の使用場面の一例を示す図である。使用場面Q1では、ユーザU2が電子書籍のページを、ジェスチャリストに従ってめくるジェスチャを行っている。電子書籍端末600は、ユーザU2が画面左下に伸ばした手をカメラで撮影して映像処理し、手の映像をディスプレイ601上に表示している。ジェスチャ対象である手が開始位置にあるため、捕捉マーカー712と矢印713および文字情報714によるガイダンスが表示されている。
【0060】
使用場面Q2で、ガイダンスに従いユーザU2が手を右方向へ移動すると、開始位置から動かされた手の軌跡715がディスプレイ601に表示される。さらに、使用場面Q3で、ユーザU2が右方向へ手を動かすと、ジェスチャリストに記載された終了位置にジェスチャ対象の手が到達し、ページ送りのコマンドが実行される。
【0061】
仮に、使用場面Q1において、ガイダンスに従わずジェスチャリストにない経路のジェスチャをユーザU2が行った場合、ディスプレイ601には捕捉マーカー712と手の映像との間には軌跡が表示されない。さらに、ユーザU2が行ったジェスチャに相当するコマンドがないことを、ユーザに対して伝えるための不合致表示811を表示する。これにより、ユーザU2はジェスチャ開始時の手の位置が適当だったこと、および、その後の手の動かし方が不適当だったためにコマンド実行まで至らなかったことが理解でき、ジェスチャ入力のための学習が進む。
【符号の説明】
【0062】
100 テレビジョン受像機(情報処理機器)
101 ディスプレイ
102 カメラ
103 テレビ機能処理部
105 演算部
106 メモリ
107 記憶部
108 グラフィック処理部
109 制御部
211 ジェスチャ対象認識部
212 形状判定部
213 鏡像化処理部
214 ジェスチャ表示制御部
221 位置判定部
222 移動判定部
223 操作実行部
224 ガイダンス表示制御部
301 コマンド
302 ガイダンス
303 ジェスチャ対象
304 開始位置
305 経路
306 終了位置
500 表示例
501 捕捉マーカー
511-514 矢印
521-524 文字情報
600 電子書籍端末
601 ディスプレイ
602 カメラ
711 映像
712 捕捉マーカー
713 矢印
714 文字情報
715 軌跡
811 不合致表示
P1−P4、Q1−Q3 使用場面


【特許請求の範囲】
【請求項1】
ジェスチャにより操作可能な情報処理機器であって、
カメラにより撮影されたジェスチャ対象を認識するジェスチャ対象認識部と、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定する位置判定部と、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させるガイダンス表示制御部と、を備えることを特徴とする情報処理機器。
【請求項2】
前記ガイダンス表示制御部は、前記ジェスチャ対象認識部が前記カメラにより撮影されたジェスチャ対象を認識した際に、前記ディスプレイにジェスチャ対象を認識していることを表示させることを特徴とする請求項1記載の情報処理機器。
【請求項3】
前記ガイダンス表示制御部は、前記ジェスチャ対象認識部が、前記カメラにより撮影されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあることを認識した際に、前記カメラにより撮影されたジェスチャ対象が前記開始位置にあることを前記ディスプレイに表示させることを特徴とする請求項1または請求項2記載の情報処理機器。
【請求項4】
前記ガイダンス表示制御部は、前記ガイダンスとして、前記ジェスチャ対象の移動方向と操作内容とを対応させた指示を表示することを特徴とする請求項1から請求項3のいずれかに記載の情報処理機器。
【請求項5】
前記認識されたジェスチャ対象の映像を鏡像化処理する鏡像化処理部と、
前記鏡像化処理されたジェスチャ対象を前記ディスプレイに表示させるジェスチャ表示制御部と、を更に備えることを特徴とする請求項1から請求項4のいずれかに記載の情報処理機器。
【請求項6】
前記ガイダンス表示制御部は、前記撮影されたジェスチャ対象が認識されたことを示す捕捉マーカーを前記ディスプレイの前記予め定められた開始位置に対応する表示位置に表示させることを特徴とする請求項1から請求項5のいずれかに記載の情報処理機器。
【請求項7】
前記認識されたジェスチャ対象が移動した場合に、その移動が前記ガイダンスの指示するいずれの経路に合致するかを判定する移動判定部を更に備え、
前記ガイダンス表示制御部は、前記認識されたジェスチャ対象の移動が前記ガイダンスの指示するいずれかの経路に合致する場合には、合致の旨を前記ディスプレイに表示させることを特徴とする請求項1から請求項6のいずれかに記載の情報処理機器。
【請求項8】
前記ガイダンス表示制御部は、前記認識されたジェスチャ対象の移動が前記ガイダンスの指示する経路のいずれにも合わない場合には、不合致の旨を前記ディスプレイに表示させることを特徴とする請求項7記載の情報処理機器。
【請求項9】
ジェスチャにより操作可能な情報処理機器を用いて行う情報処理方法であって、
カメラにより撮影されたジェスチャ対象を認識するステップと、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定するステップと、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させるステップと、を含むことを特徴とする情報処理方法。
【請求項10】
ジェスチャにより操作可能な情報処理機器に実行させる情報処理プログラムであって、
カメラにより撮影されたジェスチャ対象を認識する処理と、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定する処理と、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させる処理と、を含むことを特徴とする情報処理プログラム。

【図1】
image rotate

【図2A】
image rotate

【図2B】
image rotate

【図3】
image rotate

【図4A】
image rotate

【図4B】
image rotate

【図5】
image rotate

【図6A】
image rotate

【図6B】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate


【公開番号】特開2011−118725(P2011−118725A)
【公開日】平成23年6月16日(2011.6.16)
【国際特許分類】
【出願番号】特願2009−276213(P2009−276213)
【出願日】平成21年12月4日(2009.12.4)
【出願人】(000005049)シャープ株式会社 (33,933)
【Fターム(参考)】