説明

ヘッドマウントディスプレイ

【課題】ヘッドマウントディスプレイの動作を指示するための操作に関し、操作性に優れたヘッドマウントディスプレイを提供することを目的とする。
【解決手段】ヘッドマウントディスプレイを装着している利用者の顔を構成する部分の中で、利用者が意識して動かすことによって特定の状態となる眉、頬及び口の状態を検知するとともに(S202,S206,S208)、眉、頬及び口のいずれかの状態が特定の状態であることを条件として、検知された状態に対応付けられた動作が、ヘッドマウントディスプレイにおいて実行されるよう、ヘッドマウントディスプレイを制御する(S210)こととした。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、利用者の眼にコンテンツデータにより示されるコンテンツ画像を視認可能に提示し、この利用者にコンテンツ画像を認識させるヘッドマウントディスプレイに関するものである。
【背景技術】
【0002】
利用者の眼にコンテンツデータにより示されるコンテンツ画像を視認可能に提示し、この利用者にコンテンツ画像を認識させるヘッドマウントディスプレイに関する技術が提案されている。例えば、ヘッドマウントディスプレイの操作性を向上させるものとして、ヘッドマウントディスプレイを装着している使用者(利用者)の視線方向、焦点距離、瞳孔の状態、眼底パターン、まぶたの動きをセンサで検出し、センサで取得された情報から、使用者の意志又は状況を判定し、判定結果に基づいて、画像(コンテンツ画像)の表示を行う表示手段における表示動作に関する制御を行う技術が提案されている(例えば、特許文献1参照)。
【特許文献1】特開2008−65169号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
ヘッドマウントディスプレイの動作に関し、利用者が意図する動作を指示する操作を、利用者が手等を介して直接操作するユーザインターフェースを介さず、利用者の身体の瞳孔の状態、眼底パターン、まぶたの動きに基づき行うことができる技術は、ユーザの操作負担を軽減することが可能で、有用な技術である。例えば、製品の生産現場において、ヘッドマウントディスプレイを用いて作業指示を、これを装着する利用者に提示し、この利用者が、製品を組み立てるような場面において、作業中である利用者の両手は、製品の組立作業に利用されており、ヘッドマウントディスプレイを操作することは困難である。
【0004】
このような場面において、上記技術は、ヘッドマウントディスプレイを装着した利用者の、ヘッドマウントディスプレイに対する操作の負担を軽減することができる。ただし、この場合、利用者の意図に合致した動作が、ヘッドマウントディスプレイにおいて正確に実行されることが重要である。例えば、視線方向を人為的に一定方向に固定した状態を保つことは人間にとって苦痛をともなう動作であり、通常、利用者の視線方向は絶えず変化している。さらに、外界からの種々の刺激によっては操作する意図なしに視線方向を変えることもある。したがって、視線方向を検出する方式では利用者が意図したのか、意図しない眼球運動であるのか区別が難しく誤検出が発生する。まぶたの動きも同様であり、通常無意識に瞬きを行ったり、疲れなどにより操作する意図なしにまぶたを閉じることもあり、誤検出が発生し易い。また、瞳孔の状態、眼底パターンは意図的に変化させることは困難である。
【0005】
本発明は、ヘッドマウントディスプレイの動作を指示するための操作に関し、操作性に優れた信頼性の高いヘッドマウントディスプレイを提供することを目的とする。
【課題を解決するための手段】
【0006】
上記従来の課題に鑑みなされた本発明のヘッドマウントディスプレイは、ヘッドマウントディスプレイを装着している利用者の顔を構成する部分の中で、無意識的な動きがほとんどなくかつ利用者が意識して動かすことによって特定の状態となる特定部分の状態を検知するとともに、特定部分の状態が、特定の状態であることを条件として、検知された状態に対応付けられた動作が、ヘッドマウントディスプレイにおいて実行されるよう制御することとしたものである。
【0007】
本発明を反映した第1の課題解決手段は、利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイの動作を制御する制御手段と、前記利用者の顔の特定の部分の状態が、所定の状態であることを検知する検知手段と、を備え、前記検知手段は、前記利用者の眉の状態が所定の状態であると検知し、前記制御手段は、前記検知手段が前記利用者の眉の状態が前記所定の状態であると検知したことを条件として、前記所定の状態に対応付けられた前記動作を制御することを特徴とするヘッドマウントディスプレイである。
【0008】
本発明を反映した第2の課題解決手段は、利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイの動作を制御する制御手段と、前記利用者の顔の特定の部分の状態が、所定の状態であることを検知する検知手段と、を備え、前記検知手段は、前記利用者の頬の状態が所定の状態であると検知し、前記制御手段は、前記検知手段が前記利用者の頬の状態が前記所定の状態であると検知したことを条件として、前記所定の状態に対応付けられた前記動作を制御することを特徴とするヘッドマウントディスプレイである。
【0009】
本発明を反映した第3の課題解決手段は、利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイの動作を制御する制御手段と、前記利用者の顔の特定の部分の状態が、所定の状態であることを検知する検知手段と、を備え、前記検知手段は、前記利用者の口の状態が所定の状態であると検知し、前記制御手段は、前記検知手段が前記利用者の口の状態が前記所定の状態であると検知したことを条件として、前記所定の状態に対応付けられた前記動作を制御することを特徴とするヘッドマウントディスプレイである。
【0010】
第1乃至第3の課題解決手段のヘッドマウントディスプレイによれば、ヘッドマウントディスプレイを装着した利用者が特に意識しなければ、大きな状態変化が生じ難い、眉、頬又は口の状態に基づき、ヘッドマウントディスプレイの動作を制御することができるため、誤動作を抑制しつつ、ヘッドマウントディスプレイの操作性を向上させることができる。
【0011】
なお、第1乃至第3の課題解決手段において、「ヘッドマウントディスプレイの動作」は、例えば、コンテンツデータの選択、利用者の眼への提示に際し実行されるコンテンツデータに対する再生・停止、コンテンツ画像の利用者の眼への提示に係る処理、又は、ヘッドマウントディスプレイへの電源の供給若しくは遮断、その他ヘッドマウントディスプレイにおいて実現される各種動作を含む。また、ヘッドマウントディスプレイは、必ずしも1つの装置である必要はなく、例えば、2つの装置による構成であってもよい。例えば、制御手段を別の装置として構成し、ヘッドマウントディスプレイと所定の信号ケーブルで接続した構成とすることもできる。
【0012】
第4の課題解決手段は、第1乃至第3の課題解決手段のうちいずれか1つのヘッドマウントディスプレイであって、前記検知手段は、前記利用者の顔の特定の部分の特定画像を撮像可能な撮像手段と、前記撮像手段が撮像した前記特定画像を解析する解析手段と、を含み、前記解析手段の解析結果にしたがい、前記利用者の顔の特定の部分の状態が、所定の状態であることを検知することを特徴とする。これによれば、利用者の顔の特定部分の状態を適切に検知することができる。
【0013】
第5の課題解決手段は、第1乃至第3の課題解決手段のうちいずれか1つのヘッドマウントディスプレイであって、前記検知手段は、前記利用者の顔の特定の部分に光を照射可能な発光素子と、前記利用者の顔の特定の部分に照射した前記光が反射した反射光を検出する光検出素子と、を含み、前記光検出素子が検出した反射光の強度が、所定の基準値を逸脱した場合、前記利用者の顔の特定の部分の状態が、所定の状態であることを検知することを特徴とする。これによれば、利用者の顔の特定部分の状態を適切に検知することができる。
【0014】
第6の課題解決手段は、第1乃至第5の課題解決手段のうちいずれか1つのヘッドマウントディスプレイであって、前記制御手段は、前記ヘッドマウントディスプレイの動作として、第1動作及び第2動作を制御し、前記検知手段は、前記利用者の顔の特定の部分の状態が第1の状態である場合、前記所定の状態として前記第1状態を検知し、前記利用者の顔の特定の部分の状態が第2の状態である場合、前記所定の状態として前記第2状態を検知し、前記制御手段は、前記検知手段が前記第1状態であると検知したことを条件として、前記第1状態に対応付けられた前記第1動作を制御し、前記検知手段が前記第2状態であると検知したことを条件として、前記第2状態に対応付けられた前記第2動作を制御することを特徴とする。これによれば、利用者の顔の特定の部分の状態に対して複数の動作を割り当て、複数の動作を制御することができる。
【発明の効果】
【0015】
本発明によれば、ヘッドマウントディスプレイの動作を指示するための操作に関し無意識動作による誤操作が発生しにくく、手を使わずに利用者の意図に応じて信頼性の高い操作を行うことができるヘッドマウントディスプレイを得ることができる。
【発明を実施するための最良の形態】
【0016】
本発明を反映した上記課題解決手段を実施するための実施形態について、図面を用いて以下に詳細に説明する。なお、上記課題解決手段は、以下に記載の構成に限定されるものではなく、同一の技術的思想において種々の構成を採用することができる。例えば、以下の説明では、ヘッドマウントディスプレイ本体と、ヘッドマウントディスプレイ本体にコンテンツ画像を提供する制御ボックスと、を接続して構成されたヘッドマウントディスプレイを例に説明するが、これら各装置を一体の装置として構成することもできる。なお、以下の説明において、ヘッドマウントディスプレイ本体を、単にヘッドマウントディスプレイ(Head Mounted Display/以下、「HMD」という。)という。
【0017】
(ヘッドマウントディスプレイの概要)
図1に、HMDの構成、より具体的には、図1(a)にHMDの上面図、図1(b)にHMDの正面図、図1(c)にHMDの左側面図を示す。また、図2にHMDを利用者が装着した状態を示す。
【0018】
HMD100は、一端に利用者の耳に当たるモダン102A,102Bが取り付けられたテンプル104A,104Bと、テンプル104A,104Bの他端に兆番112A,112Bを介して連結されたヨロイ106A,106Bと、ヨロイ106A,106Bを連結するフロントフレーム108と、フロントフレーム108の中央部に取り付けられ、利用者の鼻に当接する鼻パッド110と、により骨格部が形成されている。ヨロイ106A,106Bに形成された兆番112A,112Bでテンプル104A,104Bを折りたたむことができる。HMD100の骨格部の構成は、例えば、通常の眼鏡と同様であり、HMD100は、利用者に装着された状態において、モダン102A,102Bと、鼻パッド110と、により利用者の顔に支持される(図2参照)。なお、図1(b)において、モダン102A,102B及びテンプル104A,104Bの描画を省略している。
【0019】
HMD100の骨格部には、画像提示装置114が、ヨロイ106A付近に配設された(設けられた)取付部122を介して取り付けられている。画像提示装置114は、ヨロイ106A付近に取付部122を介して取り付けられた状態において、HMD100を装着した利用者の左眼118と略同一の高さとなる位置に配設される。画像提示装置114は、制御ボックス200(図2参照。詳細については後述する図3参照)と、所定の信号ケーブル250(図2参照)を介して接続されている。詳細は後述するが、制御ボックス200は、所定の領域に記憶されたコンテンツデータに対しレンダリング処理を実行し、自装置が備える入出力インターフェース(以下、「I/F」という。)を制御し、レンダリング処理(再生処理)によって得られたコンテンツ画像を含むコンテンツ画像信号を、信号ケーブル250を介して画像提示装置114に出力する。画像提示装置114は、制御ボックス200が出力するコンテンツ画像信号を、図1及び2には描画していない入出力I/Fを介して受信し、これを取得する。そして、コンテンツ画像信号に基づくコンテンツ画像を、ハーフミラー116に向けて光学的に出射する。
【0020】
画像提示装置114から出射されたコンテンツ画像(光線)は、ハーフミラー116で反射し、利用者の左眼118に入射、換言すれば、視認可能に提示(投影)される。これにより、利用者はコンテンツ画像を認識する。ここで、図1(a)において符号120aは、画像提示装置114から出射されたコンテンツ画像に関する光線を示し、符号120bは、ハーフミラー116を反射し、利用者の左眼118に入射する光線を示す。なお、画像提示装置114は、取得したコンテンツ画像信号に応じた光線120a,120bを2次元方向に走査し、その走査された光線120a,120bを利用者の左眼118に導き網膜上にコンテンツ画像を形成する網膜走査型のディスプレイを用いて構成することができる他、液晶ディスプレイ、有機EL(Organic Electroluminescence)ディスプレイその他の装置を用いた構成とすることもできる。
【0021】
画像提示装置114の上面には眉センサ214が取り付けられ、下面には頬センサ216が取り付けられている。また、テンプル104Aには口センサ218が先端に取り付けられたステー124(図1において描画を省略。図2参照)が取り付けられている。眉センサ214、頬センサ216及び口センサ218については、次に記載の「制御ボックスの構成」で説明する。
【0022】
(制御ボックスの構成)
図3に、制御ボックスの構成を示す機能ブロックを示す。なお、制御ボックス200は、例えば、利用者の腰等に取り付け、利用される。制御ボックス200は、自装置の制御を司るCPU202と、各種プログラムを記憶するROM204と、作業領域としてのRAM206と、コンテンツデータ2082及びテーブル2084を記憶する記憶部208と、HMD100との間で各種信号の送受信を行う入出力I/F210と、利用者によって操作され、利用者からの指示を受け付ける操作部212と、を備えている。また、制御ボックス200には、画像提示装置114の上面に取り付けられた眉センサ214と、下面に取り付けられた頬センサ216と、ステー124(図2参照)の先端に取り付けられた口センサ218と、が接続されている。
【0023】
ここで、記憶部208は、例えば、ハードディスクにより構成されている。記憶部208に記憶されるコンテンツデータ2082は、例えば、所定の製品の組立方法について記述された作業指図書を内容とするものである(以下、コンテンツデータが作業指図書である場合を例として説明する。)。テーブル2084は、HMD100に取り付けられた眉センサ214、頬センサ216及び口センサ218によって検知される眉、頬及び口の各状態と、HMD100及び制御ボックス200において実現される各動作と、を対応付けて登録したテーブルである。操作部212は、例えば、キーにより構成され、コンテンツデータの再生開始及び再生終了の指示を受け付ける。
【0024】
また、眉センサ214は利用者の左側の眉の状態(動き)を検知し、頬センサ216は利用者の頬の状態(動き)を検知する。また、口センサ218は利用者の口、より具体的には利用者の唇の状態(形状)を検知する。眉センサ214、頬センサ216及び口センサ218は、例えば、CCD(Charge Coupled Devices)から構成される画像センサ、又は、発光素子及び光検出素子から構成される光電センサを用いることができる。各センサ214,216,218によって検知された状態(画像センサの場合、眉等の状態を示す画像によって示され、光電センサの場合、反射光の強度によって示される。)を含む検知信号は、制御ボックス200に入力され、RAM206上に記憶される。
【0025】
CPU202は、ROM204に記憶されているコンテンツデータ2082を再生(レンダリング)するためのプログラムをRAM206上で実行することで、コンテンツ画像を取得する。そして、ROM204に記憶されている入出力I/F210を制御するためのプログラムをRAM206上で実行し、コンテンツ画像を含むコンテンツ画像信号を、入出力I/F210からHMD100に出力する。また、CPU202は、ROM204に記憶されている解析用プログラム(例えば、パターンマッチングのためのプログラム)を、各センサ214,216,218によって検知され、RAM206に記憶された検知信号及びテーブル2084を用いて、RAM206上で実行することで、利用者の眉、頬及び口の状態について解析する。さらに、CPU202は、ROM204に記憶されているHMD100を制御するためのプログラムをRAM206上で実行し、操作部212によって指示されたHMD100の動作と、解析結果に基づいたHMD100の動作と、を制御する。したがって、CPU202が、コンテンツデータ2082、テーブル2084及び検知信号等の各種データを用い、ROM204に記憶された各種プログラムをRAM206上で実行することにより、各種機能手段(例えば、制御手段及び解析手段)が構成される。
【0026】
図4は、テーブル2084の登録状態を概念的に示す図である。先ず、テーブル2084には、標準状態における利用者の顔画像である標準顔画像が登録されている(図4(a)参照)。標準顔画像には、HMD100の動作は対応付けがなされていない。換言すれば、標準顔画像には、HMD100で進行中の動作を継続する、例えば、再生動作を継続して実行することが対応付けられている。
【0027】
図4(b)は、眉の状態と、HMD100及び制御ボックス200とによって実現される動作との対応について示す図である。「眉を上げた」状態を示す顔画像に、動作「次へ進む」が対応付けられている。例えば、所定のコンテンツ画像が利用者の左眼118に提示されている状態において、利用者が眉を上ると、提示中のコンテンツ画像の次のコンテンツ画像が提示される。より具体的には、第1工程に関する作業指図を内容とするコンテンツ画像が提示されている状態において、第1工程の作業を終えた利用者が、眉を上げると、第2工程に関する作業指図を内容とするコンテンツ画像が提示される。
【0028】
また、「眉を寄せた」状態を示す顔画像に、動作「前に戻る」が対応付けられている。具体的には、第2工程に関する作業指図を内容とするコンテンツ画像が提示されている状態において、利用者が眉を寄せると、第1工程に関する作業指図を内容とするコンテンツ画像が提示される。なお、図1及び図2に示すHMD100において眉センサ214は、利用者の左眉に対向して配設されているため、眉が上がった状態等であるか否かは、左眉の状態に基づき判断される。
【0029】
図4(c)は、頬の状態と、HMD100及び制御ボックス200とによって実現される動作との対応について示す図である。「頬を上げた」状態を示す顔画像に、動作「決定」が対応付けられている。また、「頬を凹ませた」状態を示す顔画像に、動作「取消し」が対応付けられている。例えば、第1工程の作業指図を内容とするコンテンツ画像と、第2工程の作業指図を内容とするコンテンツ画像と、第3工程の作業指図を内容とするコンテンツ画像と、が順次所定の間隔で切り替えられながら表示されている状態において、第2工程の作業指図を内容とするコンテンツ画像が提示されている間に、利用者が頬を上に上げると、第2工程の作業指図を内容とするコンテンツ画像が継続して提示されるコンテンツ画像に決定されるとともに、決定後、頬を凹ませると、この決定が取り消される。なお、頬センサ216についても、眉センサ214同様、利用者の左頬に対向して配設されているため、頬が膨れた状態等であるか否かは、左頬の状態に基づき判断される。
【0030】
図4(d)は、口の状態(形状)と、HMD100及び制御ボックス200とによって実現される動作との対応について示す図である。「え」を発声するときの口の状態を示す顔画像に、提示されるコンテンツ画像の「明るさ調整」が対応付けられている。また、「あ」を発声するときの口の状態を示す画像に、「明るさアップ」が対応付けられている。さらに、「お」を発生するときの口の状態に、「明るさダウン」が対応付けられている。より具体的に説明すると、利用者の左眼118に第1工程の作業指図を内容とするコンテンツ画像が提示されている状態において、利用者が「え」と発声する口の形にすると、明るさ調整用の設定画面が提示される。そして、設定画面が提示された状態で、利用者が「あ」と発声する口の形にすると、明るさが1段階アップする一方、「お」と発声する口の形にすると、明るさが1段階ダウンする。なお、利用者が「あ」又は「お」を、例えば、2回連続して発声する口の形にすると、明るさが2段階、アップ又はダウンする。
【0031】
(制御ボックスによって実行される処理)
図5に、制御ボックス200において実行されるメイン処理のフローを示す。なお、この処理は、HMD100及び制御ボックス200の電源ONを条件として、CPU202がROM204に記憶されたプログラムをRAM206上で実行することで開始される。この処理の実行において、眉センサ214、頬センサ216及び口センサ218によって検知され、制御ボックス200に入力される検知信号、記憶部208に記憶されたコンテンツデータ2082及びテーブル2084が、所定のタイミングで利用される。
【0032】
処理を開始したCPU202は、先ず、制御ボックス200の各構成を初期化するとともに(S100)、各センサ214,216,218を初期化し(S102)、処理をS104に移行する。S104でCPU202は、操作部212を介して利用者がコンテンツデータ2082の再生開始の指示を入力したか否かを判断する。判断の結果、再生開始の指示が入力されていない場合(S104:No)、再生開始の指示が入力されるまで待機する。これに対し、再生開始の指示が入力された場合(S104:Yes)、CPU202は、コンテンツ画像信号出力処理を開始する(S106)。ここで、コンテンツ画像出力処理とは、コンテンツデータ2082を記憶部208からRAM206上に読み出し、コンテンツデータ2082をレンダリングし、レンダリングによって得られたコンテンツ画像を含むコンテンツ画像信号を、入出力I/F210を制御し、HMD100に出力する処理である。
【0033】
S106でコンテンツ画像信号出力処理を開始したCPU202は、各センサ214,216,218のいずれかのセンサから顔動作トリガが検出されたか否かを判断する(S108)。S108について、詳細に説明する。例えば、CPU202は、眉センサ214から制御ボックス200に入力される検知信号に含まれる利用者の眉(左眉)の状態と、標準顔画像(図4(a)参照)の左眉の状態と、の間でパターンマッチング処理を実行し、両者の間でマッチングが取れるか否かを判断する。また、CPU202は、頬センサ216から入力される検知信号に含まれる利用者の頬(左頬)の状態と、標準顔画像(図4(a)参照)の左頬上部の状態と、の間でパターンマッチング処理を実行し、両者の間でマッチングが取れるか否かを判断する。さらに、CPU202は、口センサ218から入力される検知信号に含まれる利用者の口の状態(形状)と、標準顔画像(図4(a)参照)の口の状態(形状)と、の間でパターンマッチング処理を実行し、両者の間でマッチングが取れるか否かを判断する。
【0034】
S108においてマッチングが取れた場合、換言すれば、利用者の眉、頬及び口の状態と、標準画像によって示される左眉等の状態とが一致する場合、CPU202は顔動作トリガが入力されていないと判断し(S108:No)、処理をS112に移行する。これに対し、利用者の眉、頬及び口の状態のいずれか1つでも、標準画像によって示される左眉等の状態に一致しない場合、CPU202は顔動作トリガが入力されたと判断し(S108:Yes)、状態判定処理を実行する(S110)。
【0035】
図6に、S110で実行される状態判定処理のフローを示す。状態判定処理を開始したCPU202は、S108で検出された顔動作トリガが、眉の状態の変化に基づくものであるか否かを判断する(S200)。S200の判断について説明を続けると、CPU202はS108で、利用者の左眉の状態と、標準画像によって示される左眉の状態とが一致する場合、眉の状態の変化に基づくものでないと判断し(S200:No)、処理をS204に移行する一方、両者が一致しない場合、顔動作トリガは眉の状態の変化に基づくものであると判断し(S200:Yes)、処理をS202に移行する。
【0036】
S202でCPU202は、眉センサ214によって制御ボックス200に入力された検知信号に含まれる利用者の左眉の状態が、どのような状態であるかを、再度、パターンマッチング処理を実行し、判定する。S202の判定について具体的に説明すると、CPU202は、眉センサ214によって入力された検知信号に含まる利用者の眉の状態が、テーブル2084に登録された眉の状態(図4(b)参照)のいずれに該当するかを、判定する。判定の結果、例えば、検知信号に含まれる利用者の眉の状態が、上がった状態を示す画像に一致(マッチング)する場合、CPU202は、動作「次へ進む」を特定する。同様に、検知信号に含まれる利用者の眉の状態が、寄った状態を示す画像に一致する場合、CPU202は、動作「前へ戻る」を特定する。CPU202はS202を実行後、処理をS210に移行する。
【0037】
S204でCPU202は、S108で検出された顔動作トリガが、頬の状態の変化に基づくものであるか否かを判断する(S204)。S204の判断について説明を続けると、CPU202は、S108で、利用者の左頬の状態と、標準画像によって示される左頬の状態とが一致する場合、頬の状態の変化に基づくものでないと判断し(S204:No)、処理をS208に移行する一方、両者が一致しない場合、顔動作トリガは頬の状態の変化に基づくものであると判断し(S204:Yes)、処理をS206に移行する。
【0038】
S206でCPU202は、頬センサ216によって制御ボックス200に入力された検知信号に含まれる利用者の左頬の状態が、どのような状態であるかを、パターンマッチング処理を実行し、判定する。S206の判定について具体的に説明すると、CPU202は、頬センサ216によって入力された検知信号に含まる利用者の頬の状態が、テーブル2084に登録された頬の状態(図4(c)参照)のいずれに該当するかを、判定する。判定の結果、例えば、検知信号に含まれる利用者の頬の状態が、上げた状態を示す画像に一致(マッチング)する場合、CPU202は動作「決定」を特定する。同様に、検知信号に含まれる利用者の頬の状態が、凹んだ状態を示す画像に一致する場合、CPU202は、動作「取消し」を特定する。CPU202はS206を実行後、処理をS210に移行する。
【0039】
S208でCPU202は、S108で検出された顔動作トリガが、口の状態(形状)の変化に基づくものであると判断し、口センサ218によって制御ボックス200に入力された検知信号に含まれる利用者の口(唇)の状態が、「え」、「あ」及び「お」のいずれを発生したときのものであるかを、パターンマッチング処理を実行し、判定する。S208の判定について説明を続けると、CPU202は、口センサ218によって入力された検知信号に含まる利用者の口の状態(形状)が、テーブル2084に登録された口の状態(図4(d)参照)のいずれに該当するかを、判定する。判定の結果、例えば、検知信号に含まれる利用者の口の状態が、「え」を発声したときの画像に一致(マッチング)する場合、CPU202は動作「明るさ調整」を特定する。同様に、検知信号に含まれる利用者の口の状態が、「あ」を発声したときの画像に一致する場合、CPU202は動作「明るさアップ」を特定し、「お」を発声したときの画像に一致する場合、CPU202は動作「明るさダウン」を特定する。CPU202はS206を実行後、処理をS210に移行する。
【0040】
S210でCPU202は、S202,S206又はS208で特定された動作が、実行中のコンテンツ画像出力処理において実行されるよう制御する。例えば、第1工程に関する作業指図を内容とするコンテンツ画が提示されている状態において、S202で動作「次へ進む」が特定された場合、CPU202は、第2工程に関する作業指図を内容とするコンテンツ画像が提示されるよう、レンダリング処理を実行し、第2工程に関する作業指図を内容とするコンテンツ画像を含むコンテンツ画像信号を、入出力I/F210からHMD100に出力し、画像提示装置114は、第2工程に関する作業指図を内容とするコンテンツ画像基づくコンテンツ画像を、ハーフミラー116に向けて光学的に出射する。S210を実行後、CPU202は、この状態判定処理を終了し、処理をS112(図5参照)に移行する。
【0041】
説明を図5に戻し、S112でCPU202は、操作部212を介して利用者がコンテンツデータ2082の再生が終了したか否か、換言すれば、コンテンツデータを最後まで処理したか否かを判断する。判断の結果、再生が終了していない場合(S112:No)、処理をS108に移行する一方、再生が終了した場合(S112:Yes)、CPU202は、コンテンツ画像信号出力処理の終了処理を実行し(S114)、このメイン処理を終了する。
【0042】
なお、上記説明では、眉センサ214、頬センサ216及び口センサ218を画像センサで構成した例に基づき説明した。しかし、上述したとおり、各センサ214,216,218を光電センサとすることもできる。この場合、テーブル2084には、HMD100の各動作に対応付けて反射光の強度が登録され、CPU202は、このテーブル2084に登録された強度と、各センサ214,216,218からHMD100に入力される反射光の強度とに基づき、利用者の眉、頬及び口の状態を判定する。図7に、光電センサを採用した場合のテーブル2084への登録状態を、「眉の状態」を例として概念的に示す。なお、図7において、「ハッチングされた長方形」は、利用者の眉を示し、「○」は、発光素子から「光スポット」を示す。
【0043】
例えば、利用者の顔の状態が標準状態であるときの反射光の強度(基準値)が、「眉:80±15(65〜95)」(図7参照)、「頬:120±15(105〜135)」及び「口:100±15(85〜115)」であるとテーブル2084に登録されている場合、眉センサ214、頬センサ216及び口センサ218各々から、反射光の強度が「眉:82」、「頬:118」及び「口:100」であることを含む検知信号が制御ボックス200に、各々入力された場合、CPU202は、S108(図5参照)で顔動作トリガが検出されていないと判断する(S108:No)。
【0044】
また、テーブル2084に、「眉を上げた」状態の変化量として、例えば、変化量の基準値「80±15(65〜95)」を逸脱した「110±14(96≦強度≦124)」と登録されている状態(図7参照)で、眉センサ214から反射光の強度が「眉:115」であることを含む検知信号が入力された場合、CPU202は、S108(図5参照)及びS200(図6参照)の判断を肯定し(S108,S200:Yes)、S202で動作「次へ進む」を特定する。
【0045】
さらに、テーブル2084に、「眉を寄せた」状態の変化量として、例えば、基準値を逸脱した「50±14(36≦強度≦64)」と登録されている状態(図7参照)で、眉センサ214から反射光の強度が「眉:45」であることを含む検知信号が入力された場合、CPU202は、S108(図5参照)及びS200(図6参照)の判断を肯定し(S108,S200:Yes)、S202で動作「拡大」を特定する。
【0046】
また、上記説明では、眉センサ214、頬センサ216及び口センサ218の各々から制御ボックス200に入力される検知信号に含まれる利用者の顔の特定の部分単独の状態と、HMD100の動作とを対応付けた構成に基づき説明した。このような構成の他、次のような構成とすることもできる。例えば、「眉を上げた」状態と、「頬を上げた」状態との組合せ、換言すれば、「眉を上げつつ、頬を上げた」状態に、HMD100の動作、例えば、「早送り」を対応付けた構成とすることもできる。この場合、CPU202は、眉センサ214及び頬センサ216から入力された検知信号に基づき、顔動作トリガが入力されたと判断し(図5のS108:Yes参照)、状態判定処理を実行する(図5のS110。詳細は図6参照)。なお、状態判定処理において、CPU202は、図6のS200の判断を行うとともに、その判断を肯定後(図6S200:Yes参照)、再度、図6のS204と同一の判断を行い、この判断も肯定し、「眉を上げつつ、頬を上げた」状態であると判定できた場合、動作「早送り」を特定する。
【0047】
さらに、上記説明では、例えば、眉センサ214に関し、片方の眉、具体的には、左側の眉の状態(動き)を検知する構成としたが、左右両側の眉の状態を検知する構成とし、左右の眉の状態の組合せ、具体的には、「左側の眉を上げ、右側の眉を下げた」状態に、HMD100の動作、例えば、「縮小」を対応付けた構成とすることもできる。この場合、CPU202は、左右両側の眉センサ214から入力された検知信号に基づき、顔動作トリガが入力されたと判断し(図5のS108:Yes参照)、状態判定処理を実行する(図5のS110。詳細は図6参照)。なお、状態判定処理において、CPU202は、左右両側の眉の状態について、図6のS200の判断を行う。そして、CPU202は、左右両側の眉の状態について、判断を肯定した場合(図6のS200:Yes参照)、「左側の眉を上げ、右側の眉を下げた」状態であると判定し、動作「縮小」を特定する。
【0048】
また、上記説明では、HMD100を装着している利用者の顔を構成する部分の中で、利用者が意識して動かすことによって特定の状態となる特定部分を、特に、眉、頬及び口に限定した。例えば、おでこ又は顎の状態を検知する構成とすることもできる。
【0049】
さらに、HMD100及び制御ボックス200によって実現される動作として、「次へ進む」、「拡大」、「前へ戻る」、「決定」、「取消し」、「明るさ調整」、「明るさアップ」及び「明るさダウン」を例に説明したが、これ以外の動作をテーブル2084に登録することもできる。例えば、複数のコンテンツデータ2082がHDD208に記憶されている状態において「再生するコンテンツデータ2082の選択・確定」に関する動作、又は、コンテンツデータの「再生の開始若しくは停止」に関する動作(上記説明では、操作部212を介して入力される例を説明。再生の開始について図5のS104参照)を、眉、頬又は口の状態に対応付けてテーブル2084に登録してもよい。また、HMD100又は制御ボックス200への「電源の供給又は供給されている電源の遮断」に関する動作を、眉等の所定の状態と対応付けて登録してもよい。
【0050】
(実施形態の構成に基づく有利な効果)
上記実施形態のHMD100と制御ボックス200による構成によれば、HMD100を装着した利用者が意識して動かさないと、その状態が変化しない、眉、頬及び口の状態と、HMD100及び制御ボックス200によって実現される動作とを対応付け登録するとともに、これらの各部の状態をセンシングし、眉、頬及び口の状態が、登録された状態である場合、その状態に対応付けられた動作が実行される構成を採用した。
【0051】
これによれば、利用者が意図しない動作に関する操作指示が制御ボックス200に入力されることを防止しつつ、ハンズフリーの操作を実現することができる。具体的には、利用者は、例えば、所定の製品を組み立てるための第1工程に関する作業指図を内容とするコンテンツ画像を視認している状態において、作業中である自身の両手を介してHMD100又は制御ボックス200を操作することなく、眉を上げるという行為によって、第2工程に関する作業指図を視認し、認識することができる。
【図面の簡単な説明】
【0052】
【図1】(a)乃至(c)は、本発明の実施形態におけるHMDの外観を示す図
【図2】本発明の実施形態におけるHMDを装着した状態を示す図
【図3】本発明の実施形態におけるHMDに接続される制御ボックスの機能ブロックを示す図
【図4】(a)乃至(d)は、本発明の実施形態におけるテーブルの登録状態を概念的に示す図
【図5】本発明の実施形態におけるメイン処理のフローを示す図
【図6】本発明の実施形態における状態判定処理のフローを示す図
【図7】本発明の実施形態における他のテーブルの登録状態(眉の状態に関する登録状態)を概念的に示す図
【符号の説明】
【0053】
100 ヘッドマウントディスプレイ(HMD)
116 画像提示装置
120a,120b 光線(コンテンツ画像)
200 制御ボックス
202 CPU
204 ROM
206 RAM
208 記憶部
2082 コンテンツデータ
2084 テーブル
214 眉センサ
216 頬センサ
218 口センサ

【特許請求の範囲】
【請求項1】
利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、
前記ヘッドマウントディスプレイの動作を制御する制御手段と、
前記利用者の顔の特定の部分の状態が、所定の状態であることを検知する検知手段と、を備え、
前記検知手段は、前記利用者の眉の状態が所定の状態であると検知し、
前記制御手段は、前記検知手段が前記利用者の眉の状態が前記所定の状態であると検知したことを条件として、前記所定の状態に対応付けられた前記動作を制御することを特徴とするヘッドマウントディスプレイ。
【請求項2】
利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、
前記ヘッドマウントディスプレイの動作を制御する制御手段と、
前記利用者の顔の特定の部分の状態が、所定の状態であることを検知する検知手段と、を備え、
前記検知手段は、前記利用者の頬の状態が所定の状態であると検知し、
前記制御手段は、前記検知手段が前記利用者の頬の状態が前記所定の状態であると検知したことを条件として、前記所定の状態に対応付けられた前記動作を制御することを特徴とするヘッドマウントディスプレイ。
【請求項3】
利用者の眼に、コンテンツデータにより示されるコンテンツ画像を視認可能に提示し、前記利用者に前記コンテンツ画像を認識させるヘッドマウントディスプレイであって、
前記ヘッドマウントディスプレイの動作を制御する制御手段と、
前記利用者の顔の特定の部分の状態が、所定の状態であることを検知する検知手段と、を備え、
前記検知手段は、前記利用者の口の状態が所定の状態であると検知し、
前記制御手段は、前記検知手段が前記利用者の口の状態が前記所定の状態であると検知したことを条件として、前記所定の状態に対応付けられた前記動作を制御することを特徴とするヘッドマウントディスプレイ。
【請求項4】
前記検知手段は、
前記利用者の顔の特定の部分の特定画像を撮像可能な撮像手段と、
前記撮像手段が撮像した前記特定画像を解析する解析手段と、を含み、
前記解析手段の解析結果にしたがい、前記利用者の顔の特定の部分の状態が、所定の状態であることを検知することを特徴とする請求項1乃至請求項3のいずれか1項に記載のヘッドマウントディスプレイ。
【請求項5】
前記検知手段は、
前記利用者の顔の特定の部分に光を照射可能な発光素子と、
前記利用者の顔の特定の部分に照射した前記光が反射した反射光を検出する光検出素子と、を含み、
前記光検出素子が検出した反射光の強度が、所定の基準値を逸脱した場合、前記利用者の顔の特定の部分の状態が、所定の状態であることを検知することを特徴とする請求項1乃至請求項3のいずれか1項に記載のヘッドマウントディスプレイ。
【請求項6】
前記制御手段は、前記ヘッドマウントディスプレイの動作として、第1動作及び第2動作を制御し、
前記検知手段は、前記利用者の顔の特定の部分の状態が第1の状態である場合、前記所定の状態として前記第1状態を検知し、前記利用者の顔の特定の部分の状態が第2の状態である場合、前記所定の状態として前記第2状態を検知し、
前記制御手段は、前記検知手段が前記第1状態であると検知したことを条件として、前記第1状態に対応付けられた前記第1動作を制御し、前記検知手段が前記第2状態であると検知したことを条件として、前記第2状態に対応付けられた前記第2動作を制御することを特徴とする請求項1乃至請求項5のいずれか1項に記載のヘッドマウントディスプレイ。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate


【公開番号】特開2010−134057(P2010−134057A)
【公開日】平成22年6月17日(2010.6.17)
【国際特許分類】
【出願番号】特願2008−308045(P2008−308045)
【出願日】平成20年12月2日(2008.12.2)
【出願人】(000005267)ブラザー工業株式会社 (13,856)
【Fターム(参考)】