説明

目視対象物判定装置、目視対象物判定方法および目視対象物判定プログラム

【課題】目視者の目視する対象物を正確に判定すること。
【解決手段】目視者1の画像データを基にして、目視者1の視線1aを検出し、視線1aの先の視点位置1bを算出する。目視対象物判定装置100は、表示装置10に表示される対象物10A〜10Cの特徴を取得する。目視対象物判定装置100は、目視者の視点位置1bおよび対象物10A〜10Cの距離と、各対象物10A〜10Cの特徴とを基にして、各対象物が目視者に目視されているか否かを判定する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、目視対象物判定装置等に関する。
【背景技術】
【0002】
従来、目視者の顔画像から瞳孔の位置などを解析することにより視線の方向を求め、目視者および対象物の距離と視線の方向とを基にして、表示装置上の視点位置を検出する視線検出技術がある。
【0003】
例えば、視線検出技術は、デジタルサイネージ等に表示される各対象物のうち、どの対象物を目視者が目視しているのかを判定する場合に利用される。
【0004】
ここで、目視者の視野は視点位置の点のみではなく、視点周辺の領域を含む。このため、目視者が対象物を目視しているか否かは、対象物が視野に含まれているか否かにより判定することとなる。従来技術では、視点位置から所定の範囲に含まれる対象物を、目視者が目視した対象物と判定する。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2006−204855号公報
【特許文献2】特開2008−226161号公報
【特許文献3】国際公開第2007/069489号
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、上述した従来技術では、目視者の目視する対象物を正確に判定することができないという問題があった。
【0007】
これは、目視者の視点位置と対象物との距離が同じであったとしても、対象物の形状、色等の特徴によって、対象物が目視者の視野に含まれる場合もあれば、含まれない場合もあるためである。このため、従来技術のように視点位置から所定の範囲に含まれているか否かにより対象物を目視しているか否かを判定する技術では、目視者の目視する対象物を正確に判定することはできない。
【0008】
開示の技術は、上記に鑑みてなされたものであって、目視者の目視する対象物を正確に判定することができる目視対象物判定装置、目視対象物判定方法および目視対象物判定プログラムを提供することを目的とする。
【課題を解決するための手段】
【0009】
開示の目視対象物判定装置は、視点位置算出部、特徴取得部、判定部を有する。視点位置算出部は、撮像装置が撮像した目視者の画像データを基にして目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出する。特徴取得部は、表示装置に表示される対象物の特徴を取得する。判定部は、目視者の視点位置および対象物の距離と、当該対象物の特徴とを基にして、対象物が目視者に目視されているか否かを判定する。
【発明の効果】
【0010】
開示の目視対象物判定装置によれば、目視者の目視する対象物を正確に判定することができるという効果を奏する。
【図面の簡単な説明】
【0011】
【図1】図1は、本実施例にかかるシステムの構成を示す図である。
【図2】図2は、本実施例にかかる目視対象物判定装置の構成を示す機能ブロック図である。
【図3】図3は、対象物情報のデータ構造の一例を示す図である。
【図4】図4は、視野特性情報のデータ構造の一例を示す図である。
【図5】図5は、視野角度を説明するための図である。
【図6】図6は、角膜反射法を説明するための図である。
【図7】図7は、視野算出部の算出結果のデータ構造の一例を示す図である。
【図8】図8は、本実施例にかかる目視対象物判定装置の処理手順を示すフローチャートである。
【図9】図9は、目視対象物判定プログラムを実行するコンピュータの一例を示す図である。
【発明を実施するための形態】
【0012】
以下に、本願の開示する目視対象物判定装置、目視対象物判定方法および目視対象物判定プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
【実施例】
【0013】
図1は、本実施例にかかるシステムの構成を示す図である。図1に示すように、このシステムは、撮像装置5、表示装置10、目視対象物判定装置100を有する。
【0014】
撮像装置5は、目視者1を撮影する装置である。撮像装置5は、撮像した目視者1の画像データを目視対象物判定装置100に出力する。撮像装置5は、例えば、カメラや画像センサ等に対応する。
【0015】
表示装置10は、各種の情報を表示する装置である。図1に示す例では、表示装置10は、対象物10A、10B、10Cを表示する。表示装置10は、デジタルサイネージ等の電子掲示版や、ディスプレイなどに対応する。
【0016】
目視対象物判定装置100は、目視者1が目視した対象物を判定する装置である。目視対象物判定装置100は、目視者1の画像データを基にして、目視者1の視線1aを検出し、視線1aの先の視点位置1bを算出する。
【0017】
目視対象物判定装置100は、表示装置10に表示される対象物10A〜10Cの特徴を取得する。目視対象物判定装置100は、目視者の視点位置1bおよび対象物10A〜10Cの距離と、各対象物10A〜10Cの特徴とを基にして、各対象物が目視者に目視されているか否かを判定する。
【0018】
図1に示した目視対象物判定装置100の構成について説明する。図2は、本実施例にかかる目視対象物判定装置の構成を示す機能ブロック図である。図2に示すように、この目視対象物判定装置100は、対象物情報格納部110、視野特性情報格納部120、視点位置算出部130、対象物表示部140を有する。また、目視対象物判定装置100は、特徴取得部150、視野算出部160、判定部170を有する。
【0019】
対象物情報格納部110は、対象物情報を格納する。図3は、対象物情報のデータ構造の一例を示す図である。図3に示すように、この対象物情報は、対象物識別情報、座標、特徴情報を有する。対象物識別情報は、対象物を一意に識別する情報である。座標は、表示画面上の対象物の座標に対応する。
【0020】
特徴情報は、対象物の色情報、コントラスト、文字サイズを含む。このうち、コントラストは、対象物の平均輝度値と、対象物以外の領域の平均輝度値との差に対応する。なお、色情報は、RGB(Red Green Blue)値などの色情報であってもよい。
【0021】
図2の説明に戻る。視野特性情報格納部120は、視野特性情報を格納する。視野特性情報は、対象物の特徴と、視野角度とを対応付けた情報である。図4は、視野特性情報のデータ構造の一例を示す図である。図4に示すように、色情報テーブル120a、コントラストテーブル120b、文字サイズテーブル120cを有する。
【0022】
色情報テーブル120aは、色情報と、視野角度とを対応付けたテーブルである。コントラストテーブル120bは、コントラストと、視野角度とを対応付けたテーブルである。文字サイズテーブル120cは、文字サイズと、視野角度とを対応付けたテーブルである。
【0023】
視野角度について説明する。図5は、視野角度を説明するための図である。図5において、視野角度は、線分2aと線分2cとの角度1Aに対応する。また、視野角度は、線分2aと線分2dの角度1Aに対応する。線分2aは、基準点2bと目視者1とを結ぶ直線である。なお、以下の説明では、基準点と目視者との距離を目視者距離と表記する。目視者距離は、線分2aの長さに対応する。
【0024】
例えば、対象物の特徴により、特定される視野角度が1Aの場合には、かかる特徴により、目視者1が目視可能な範囲は、視野範囲2e×2となる。この視野範囲2e×2に対象物が含まれていれば、目視者1は、該当の対象物を目視したといえる。
【0025】
図2の説明に戻る。視点位置算出部130は、目視者1の画像データを基にして、視線を検出し、表示装置10上の視点位置を算出する処理部である。視点位置算出部130は、視点位置の座標を、判定部170に出力する。また、視点位置算出部130は、目視者距離を算出し、視野算出部160に出力する。
【0026】
視点位置算出部130が視点位置を算出する処理の一例について説明する。視線位置算出部130は、まず、視線を求める。そして、視点位置算出部130は、視線と目視者距離とから、視点位置を算出する。
【0027】
視点位置算出部130が視線を検出する処理について説明する。視点位置算出部130は、例えば、角膜反射法に基づいて視線を検出する。図6は、角膜反射法を説明するための図である。ここでは、光源2を利用して視線を検出する。視線位置算出部130は、図示しない光源を利用してもよい。
【0028】
図6において、光源2は、赤外線を照射する。3aは角膜を示し、3bは瞳孔面を示し、3cは瞳孔中心を示す。3dは角膜曲率中心を示し、3eは視線角度を示す。4は、カメラで撮影した画像に対応するものであり、4aは画面の瞳孔中心の位置を示し、4bは画面の角膜反射領域の中心位置を示す。例えば、視点位置算出部130は、画像4から瞳孔中心の位置4aと角膜反射領域の中心位置4bとを抽出し、位置4aと4bとの間の距離と、角膜曲率半径から視線1aを検出する。
【0029】
視点位置算出部130が目視者距離を算出する処理について説明する。視点位置算出部130は、人物の顔の大きさと、目視者距離とを対応付けた距離テーブルを利用する。視点位置算出部130は、画像データに含まれる目視者1の顔の大きさと、距離テーブルとを比較して、目視者距離を算出する。なお、視点位置算出部130は、他のどのような従来技術を利用して、目視者距離を算出してもよい。例えば、視点位置算出部130は、距離センサなどを利用して、目視者距離を算出してもよい。
【0030】
視点位置算出部130は、目視者距離と、視線とを算出した後に、視点位置を算出する。例えば、視点位置算出部130は、目視者と基準点とを結ぶ直線と、視線ベクトルとのなす角度を求め、求めた角度、視線ベクトル、目視者距離から、表示装置10の視点位置を算出する。
【0031】
対象物表示部140は、対象物情報格納部110の対象物情報に基づいて、対象物を表示装置10に表示させる処理部である。
【0032】
特徴取得部150は、表示装置10に表示された対象物の特徴情報を、対象物情報格納部110から取得する処理部である。特徴取得部150は、表示装置10に表示された対象物の対象物識別情報を、対象物表示部140から取得する。特徴取得部150は、対応物識別情報と、該対応物識別情報に対応する座標、特徴情報とを対応付けて、視野算出部160に出力する。
【0033】
視野算出部160は、特徴情報に基づいて、視野の範囲を算出する処理部である。視野算出部160は、算出結果を判定部170に出力する。図7は、視野算出部の算出結果のデータ構造の一例を示す図である。図7に示すように、算出結果は、対象物識別情報、座標、視野の範囲を有する。
【0034】
視野算出部160が視野の範囲を算出する処理の一例について説明する。視野算出部160は、特徴情報と、図4に示した視野特性情報とを比較して、対象物の特徴に対応する視野角度を判定する。視野算出部160は、対象物の特徴に対する視野角度が複数存在する場合には、複数の視野角度のうち、最大のものを選択する。
【0035】
視野算出部160は、図5に示した線分2aとの角度が、視野角度となるような線分を算出する。例えば、視野算出部160は、図5に示したような線分2c、2dを求め、視線の範囲2e×2を算出する。視野算出部160は、対象物毎に視線の範囲を算出することで、図7に示す算出結果を作成する。本実施例では一例として、算出結果に含める視野の範囲を右半分の範囲2eとする。
【0036】
判定部170は、対象物が目視者に目視されたか否かを判定する処理部である。
【0037】
判定部170の処理について具体的に説明する。判定部170は、視点位置算出部130から視点位置を取得し、視野算出部160から算出結果を取得する。判定部170は、対象物の座標と視点位置との距離を算出し、算出した距離が該当する対象物の視野の範囲に含まれているか否かを判定する。判定部170は、視野の範囲に含まれている場合には、該当する対象物が目視されたと判定する。
【0038】
例えば、対象物10Aを例にして説明する。判定部170は、視点位置の座標から対象物10A座標までの距離が、対象物10Aの視野の範囲X1に含まれていれば、対象物10Aは、目視者1に目視されたと判定する。同様にして、判定部170は、対象物毎に目視されたか否かを判定し、判定結果を外部装置に出力する。
【0039】
次に、本実施例にかかる目視対象物判定装置100の処理手順について説明する。図8は、本実施例にかかる目視対象物判定装置の処理手順を示すフローチャートである。図8に示す処理は、例えば、目視者の画像データを取得したことを契機として実行される。
【0040】
図8に示すように、目視対象物判定装置100は、目視者の画像データを取得し(ステップS101)、視点位置を算出する(ステップS102)。目視対象物判定装置100は、対象物の特徴を取得し(ステップS103)、視野角度を特定する(ステップS104)。
【0041】
目視対象物判定装置100は、視野の範囲を算出し(ステップS105)、目視者が目視した対象物を判定する(ステップS106)。
【0042】
次に、本実施例にかかる目視対象物判定装置100の効果について説明する。目視対象物判定装置100は、表示装置10上の対象物の特徴を基にして、目視者1が目視可能な視点位置からの範囲を特定し、特定した範囲に、該当する対象物が含まれるか否かを判定する。このため、対象物の特徴に応じた目視可能な範囲の変化にも対応して、対象物毎に目視されたか否かを正確に判定することができる。
【0043】
また、目視対象物判定装置100は、対象物の色、コントラスト、文字のサイズに応じて、視野の範囲を算出するので、各種の特徴に応じて最適な視野の範囲を算出することができる。なお、対象物の特徴は上記のものに限らず、対象物の形状や、文字の種類を含んでもよい。例えば、図4に示したテーブルの他に、対象物の形状と視野角度とを対応付けたテーブルや、文字の種別と視野角度とを対応付けたテーブルを記憶させ、目視対象物判定装置は、これらのテーブルを利用して、視野の範囲を算出してもよい。
【0044】
また、本実施例では一例として、視野算出部160は、対象物の特徴に対する視野角度が複数存在する場合には、複数の視野角度のうち、最大のものを選択して、視野の範囲を算出していたが、これに限定されない。例えば、視野算出部160は、状況に応じて、複数の視野角度のうち、最小の視野角度を選択しても良いし、視野角度の平均角度を算出して利用してもよい。
【0045】
視野算出部160は、図4に示した視野特性情報からある特徴の値の視野角度を特定する場合に、該当する特徴の値が存在しない場合には、補間により、視野角度を算出してもよい。例えば、コントラスト「7」に対応する視野角度は、コントラストテーブル120bに存在しないので、視野算出部160は、最小二乗法などを利用して、コントラスト「7」に対応する視野角度を算出してもよい。
【0046】
なお、図4に示した各テーブル120a〜120cは、実験的に求めた値によって生成されたものである。例えば、目視者に表示装置上の基準点を注視してもらい、ある特徴のマーカを順次横に移動させていき、目視者が目視できなくなる位置を合図してもらうことで、各特徴に対応する視野角度を実験的に求める。かかる方法は一例に過ぎず、どのような方法を用いて、各テーブル120a〜120cを生成しても構わない。
【0047】
なお、眼球の中の網膜上に複数種類の視細胞が分布しており、各視細胞では色に対する感度が異なる。そして、青、赤、緑の順に、目視可能な範囲が狭くなることが知られている。このため、色情報テーブル120aでは、青、赤、緑の順に視野角度が小さくなっている。
【0048】
次に、図2に示した目視対象物判定装置100と同様の機能を実現する目視対象物判定プログラムを実行するコンピュータの一例を説明する。図9は、目視対象物判定プログラムを実行するコンピュータの一例を示す図である。
【0049】
図9に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207を有する。そして、各装置201〜207は、バス208に接続される。
【0050】
ハードディスク装置207は、例えば、視点位置算出プログラム207a、特徴取得プログラム207b、判定プログラム207cを有する。CPU201は、各プログラム207a〜207cを読み出して、RAM206に展開する。
【0051】
視点位置算出プログラム207aは、視点位置算出プロセス206aとして機能する。特徴取得プログラム207bは、特徴取得プロセス206bとして機能する。判定プログラム207cは、判定プロセス206cとして機能する。
【0052】
例えば、視点位置算出プロセス206aは、視点位置算出部130に対応する。特徴取得プロセス206bは、特徴取得部150に対応する。判定プロセス206cは、判定部170に対応する。
【0053】
なお、各プログラム207a〜207cについては、必ずしも最初からハードディスク装置207に記憶させておかなくてもよい。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200がこれらから各プログラム207a〜207cを読み出して実行するようにしてもよい。
【0054】
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
【0055】
(付記1)撮像装置が撮像した目視者の画像データを基にして前記目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出する視点位置算出部と、
表示装置に表示される対象物の特徴を取得する特徴取得部と、
前記目視者の視点位置および前記対象物の距離と、当該対象物の特徴とを基にして、前記対象物が、前記目視者に目視されているか否かを判定する判定部と
を有することを特徴とする目視対象物判定装置。
【0056】
(付記2)前記対象物の特徴は、対象物の色、形状、文字の種別、文字の大きさ、コントラストのうち少なくとも一つを含むことを特徴とする付記1に記載の目視対象物判定装置。
【0057】
(付記3)コンピュータが実行する目視対象物判定方法であって、
撮像装置が撮像した目視者の画像データを基にして前記目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出し、
表示装置に表示される対象物の特徴を取得し、
前記目視者の視点位置および前記対象物の距離と、当該対象物の特徴とを基にして、前記対象物が、前記目視者に目視されているか否かを判定する
各処理を実行することを特徴とする目視対象物判定方法。
【0058】
(付記4)前記対象物の特徴は、対象物の色、形状、文字の種別、文字の大きさ、コントラストのうち少なくとも一つを含むことを特徴とする付記3に記載の目視対象物判定方法。
【0059】
(付記5)コンピュータに、
撮像装置が撮像した目視者の画像データを基にして前記目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出し、
表示装置に表示される対象物の特徴を取得し、
前記目視者の視点位置および前記対象物の距離と、当該対象物の特徴とを基にして、前記対象物が、前記目視者に目視されているか否かを判定する
各処理を実行させることを特徴とする目視対象物判定プログラム。
【0060】
(付記6)前記対象物の特徴は、対象物の色、形状、文字の種別、文字の大きさ、コントラストのうち少なくとも一つを含むことを特徴とする付記5に記載の目視対象物判定プログラム。
【符号の説明】
【0061】
5 撮像装置
10 表示装置
100 目視対象物判定装置

【特許請求の範囲】
【請求項1】
撮像装置が撮像した目視者の画像データを基にして前記目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出する視点位置算出部と、
表示装置に表示される対象物の特徴を取得する特徴取得部と、
前記目視者の視点位置および前記対象物の距離と、当該対象物の特徴とを基にして、前記対象物が、前記目視者に目視されているか否かを判定する判定部と
を有することを特徴とする目視対象物判定装置。
【請求項2】
前記対象物の特徴は、対象物の色、形状、文字の種別、文字の大きさ、コントラストのうち少なくとも一つを含むことを特徴とする請求項1に記載の目視対象物判定装置。
【請求項3】
コンピュータが実行する目視対象物判定方法であって、
撮像装置が撮像した目視者の画像データを基にして前記目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出し、
表示装置に表示される対象物の特徴を取得し、
前記目視者の視点位置および前記対象物の距離と、当該対象物の特徴とを基にして、前記対象物が、前記目視者に目視されているか否かを判定する
各処理を実行することを特徴とする目視対象物判定方法。
【請求項4】
コンピュータに、
撮像装置が撮像した目視者の画像データを基にして前記目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出し、
表示装置に表示される対象物の特徴を取得し、
前記目視者の視点位置および前記対象物の距離と、当該対象物の特徴とを基にして、前記対象物が、前記目視者に目視されているか否かを判定する
各処理を実行させることを特徴とする目視対象物判定プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate


【公開番号】特開2013−37591(P2013−37591A)
【公開日】平成25年2月21日(2013.2.21)
【国際特許分類】
【出願番号】特願2011−174399(P2011−174399)
【出願日】平成23年8月9日(2011.8.9)
【出願人】(000005223)富士通株式会社 (25,993)
【Fターム(参考)】