説明

視線認識装置、及び視線認識方法

【課題】 計測対象者の視線挙動の検出精度を向上する。
【解決手段】 視線認識装置は、計測対象者の頭部運動及び眼球運動を検出する検出手段12と、頭部運動及び眼球運動の検出値に基づいて計測対象者の視線軸を演算する演算手段14と、計測対象者の視野領域を撮像して、撮像軸を基準とする撮像画像データを生成する環境撮像カメラ16と、撮像画像データを、視線軸を基準とする視野画像データに射影変換する射影変換部22と、視野画像データに基づいて、計測対象者の視線の挙動を認識する第三処理部40と、を備えている。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、視線挙動や注目対象などを認識するための視線認識装置、及び視線認識方法に関する。
【背景技術】
【0002】
特許文献1に係る装置では、計測対象者の傍に、計測対象者の視野領域を撮像する固定カメラと、計測対象者の眼球運動を検出するセンサと、が設置されており、計測対象者の眼球運動に基づいて、撮像画像における計測対象者の視線の挙動を認識していた。
【特許文献1】特開平6−59804号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
上記の特許文献1に係る装置では、計測対象者の視線挙動(視線位置、注目状態など)の検出精度が低いという問題がある。例えば、計測対象者が姿勢を変えつつ同じ位置を注目する状況では、計測対象者の眼球は運動する。よって、上記装置では、計測対象者が同じ位置を注目しているにも拘らず、計測対象者の眼球の変化に応じて計測対象者の視線位置が変化しているものと判定されてしまう。
【0004】
そこで、本発明は、視線認識装置において、計測対象者の視線挙動の検出精度を向上することを目的とする。
【課題を解決するための手段】
【0005】
上述した目的を達成するために、本発明に係る視線認識装置によれば、計測対象者の頭部運動及び眼球運動を検出する検出手段と、頭部運動及び眼球運動の検出値に基づいて計測対象者の視線軸を演算する演算手段と、計測対象者の視野領域を撮像して、撮像軸を基準とする撮像画像データを生成する撮像手段と、撮像画像データを、視線軸を基準とする視野画像データに射影変換する変換手段と、視野画像データに基づいて、計測対象者の視線の挙動を認識する認識手段と、を備えたことを特徴とする。
【0006】
上述した構成の視線認識装置によれば、頭部運動及び眼球運動の検出値に基づいて計測対象者の視線軸が算出されるため、計測対象者の姿勢変化に対応した視線軸が算出される。そして、視線認識装置は、撮像手段の撮像軸を基準とする撮像画像データを、計測対象者の視線軸を基準とする視野画像データに射影変換してから、この視野画像データに基づいて計測対象者の視線の挙動を認識する。よって、計測対象者の姿勢変化によって検出精度を低下させることなく、計測対象者の視線挙動を認識することができる。なお、視線の挙動とは、例えば、視線の位置、視線の注目状態などである。
【0007】
上述した視線認識装置において、認識手段は、異なる時刻に生成された2つの視野画像データの位置ずれに基づいて、視線が注目状態にあるか否かを判定することが好ましい。この構成によれば、撮像画像データを視野画像データに射影変換しているため、異なる時刻に生成された2つの視野画像データの位置ずれを求めることにより、計測対象者の視線の位置が移動しているか否かを判定する。よって、計測対象者の姿勢変化により検出精度を低下させることなく、計測対象者が注目状態にあるか否かを判定することができる。
【0008】
上述した視線認識装置において、認識手段は、視野画像データにおいて、視線軸に対応する画素の対象物を、計測対象者の視線の位置にある対象物として認識することが好ましい。この構成によれば、計測対象者の姿勢変化により検出精度を低下させることなく、計測対象者の視線の位置にある対象物を認識することができる。また、視線軸を基準とした視野画像データを用いることで、計測対象者からの奥行きを考慮することなく、計測対象者の視線の位置にある対象物を認識することができる。
【0009】
ここで、認識手段が対象物を認識するための一つの方法としては、上述した視線認識装置において、対象物の位置情報に基づいて対象物を視野画像データの画素に関連付ける関連付け手段をさらに備え、認識手段は、視野画像データにおいて、視線軸に対応する画素に関連付けられた対象物を、計測対象者の視線の位置にある対象物として認識してもよい。また、認識手段が対象物を認識するための別の方法としては、視野画像データの特徴量を演算し、特徴量に基づいて計測対象者の視線の位置にある対象物を認識してもよい。
【0010】
上述した目的を達成するために、本発明に係る視線認識方法によれば、計測対象者の頭部運動及び眼球運動を検出する検出ステップと、頭部運動及び眼球運動の検出値に基づいて計測対象者の視線軸を演算する演算ステップと、計測対象者の視野領域を撮像して、撮像軸を基準とする撮像画像データを生成する撮像ステップと、撮像画像データを、視線軸を基準とする視野画像データに射影変換する変換ステップと、視野画像データに基づいて、計測対象者の視線の挙動を認識する認識ステップと、を備えたことを特徴とする。
【発明の効果】
【0011】
本発明に係る視線認識装置によれば、計測対象者の視線挙動の検出精度を向上することができる。
【発明を実施するための最良の形態】
【0012】
以下、図面を参照して、本発明の実施形態に係る視線認識装置について詳細に説明する。本実施形態に係る視線認識装置は、車両に搭載され、計測対象者である運転者の視線の挙動を認識する。なお、以下の説明で、車両中心を原点として、車両の前後方向X、左右方向Y及び上下方向Zに延びる3軸からなる3次元座標系を、視線の挙動の計測における基準座標系としている。
【0013】
図1には、視線認識装置1の全体構成が示されている。視線認識装置1は、物理的には、演算を行うマイクロプロセッサ、マイクロプロセッサに各処理を実行させるためのプログラム等を記憶するROM、演算結果などの各種データを記憶するRAM、画像データを生成するカメラ等を組み合わせて構成されている。また、視線認識装置1は、機能的には、頭部/眼球運動を検出するための頭部/眼球運動検出処理部10と、車両前方の環境を撮像するための環境撮影カメラ16と、カメラ16により生成された画像データを射影変換してから蓄積する第一処理部20と、射影変換後の画像データに外部環境にある対象物を関連付ける第二処理部30と、射影変換後の画像データに基づいて運転者の視線挙動を認識する第三処理部40と、で構成される。
【0014】
頭部/眼球運動検出処理部10は、車室内に設置されて運転者の頭部周辺を撮像する1台のカメラ(検出手段)12と、カメラ12により生成された画像データを処理する1台の演算装置14とで構成される。基準座標系におけるカメラ12の位置は予めキャリブレーションされており、カメラ12の位置の座標値は、演算装置が有するメモリに格納されている。演算装置14は、カメラ12により生成された画像データを取り込んで、画像データを処理することで、運転者の頭部中心位置の座標値と、左右眼球中心位置の座標値とを算出する。また、演算装置14は、運転者の視線の方向のベクトル、即ち、頭部中心位置から左右眼球中心位置の方向に延びる方向ベクトル(以下、視線ベクトルと呼ぶ)を算出する。これらのデータ(以下、視線データと呼ぶ)は、後段の処理で、左右眼球中心位置を始点として視線ベクトルの方向に延びる視線軸を規定するために利用される。頭部/眼球運動検出処理部10は、上述した処理を所定時間ごとに繰り返して、視線データを計測時刻情報と共に第一処理部20に繰り返し送信する。
【0015】
環境撮影カメラ16(撮像手段)は、車両のフロントウィンドウ上部に前方を向いて設置された1台のカメラであり、例えばCCDカメラ、赤外線カメラなどである。基準座標系における環境撮影カメラ16の位置は予めキャリブレーションされており、環境撮影カメラ16の位置の座標値は、射影変換部22が有するメモリに格納されている。環境撮影カメラ16により撮像される車両前方の領域は、通常の運転状態で運転者の視野にある領域であるため、環境撮影カメラ16により運転者の視野領域の画像データが生成される。画像撮像カメラは、画像データ、カメラパラメータ(カメラの焦点距離、レンズの歪み係数、画像中心、空間中のカメラの位置と方向を決める回転行列、平行移動ベクトルなど)、計測時刻情報を第一処理部20に送信する。なお、以下の説明では、撮像画像データ及びカメラパラメータをまとめて撮影データと呼ぶ。
【0016】
次に、第一処理部20について説明する。第一処理部20は、撮像画像データを射影変換する射影変換部22と、射影変換後の画像データを記憶する視野画像蓄積部24とで構成される。
【0017】
射影変換部22では、視線データ及び撮影データを取り込むと、両データに付随する計測時刻情報を比較して、両データが同じタイミングで計測されたことを確認する。そして、射影変換部22は、撮像画像データを、運転者の視線で見た画像データ(以下、視野画像データと呼ぶ)に変換する処理を行う。この変換処理を、図2を参照して説明する。
【0018】
環境撮影カメラ16により撮像された撮像画像データPは、環境撮影カメラ16から前方に延びる撮像軸Aを中心とした領域を撮像した画像データである。射影変換部22は、カメラパラメータに基づいて撮像軸Aを表す直線を算出する。次に、射影変換部22は、視線データに基づいて視線軸Aを表す直線を算出する。そして、射影変換部22は、撮像軸Aを基準とする撮像画像データPを、視線軸Aを基準とする視野画像データPに射影変換するための変換行列を求め、この変換行列を用いて撮像画像データPを構成する各画素を処理して、視野画像データPを得る。この処理により、環境撮影カメラ16により撮像された対象物Oは、視野画像データPにおいて運転者の視線で見た形状に変換される。射影変換部22は、視野画像データPを計測時刻情報と共に視野画像蓄積部24へ送信する。
【0019】
視野画像蓄積部24は、視野画像データを取り込むたびに、視野画像データを計測時刻情報と共にメモリに記憶し、続いて、現計測時刻における視野画像データ及びその計測時刻情報を、視線変化検出部42及び対象存在マップ生成部36に送信する。また、視野画像蓄積部24は、視線変化検出部42から送信要求があったときには、要求された計測時刻の視野画像データを視線変化検出部42に送信する。
【0020】
次に、第二処理部30について説明する。第二処理部30は、車両周辺にある対象物の種別及び位置の情報を有する環境情報学習部32及び環境情報獲得センサ34と、対象物を視野画像に関連付けた対象存在マップを生成する対象存在マップ生成部36とで構成される。
【0021】
環境情報学習部32は、視野画像蓄積部24に蓄積された視野画像データを取り込んで、視野画像データを処理することにより、視野画像データの各領域について特徴量を演算する。そして、環境情報学習部32は、各領域の特徴量に基づいて特定の対象物(路面、レーンマーク、信号機、構造物など)の存在確率、及び対象物の存在位置を算出する。また、環境情報学習部32は、車両前方の空間を基準座標系の各方向に一定間隔ごとに区切って、多数の立方空間のブロックBn(n=1,2,3,・・,k,・・,n)として把握している。環境情報学習部32は、多数のブロックBnのそれぞれについて、当該ブロックBnに存在する対象物の存在確率を関連付ける。例えば、環境情報学習部32は、いずれか1つのブロックBkについて、路面rdの存在確率P(rd|Bk)、レーンマークlmの存在確率P(lm|Bk)、信号機tsの存在確率P(ts|Bk)を関連付ける。環境情報学習部32が、このような処理を行うことで、各ブロックBnごとに各種対象物の存在確率Pを表したデータ集合が得られる。環境情報学習部32は、このデータ集合を対象存在マップ生成部36に送信する。
【0022】
環境情報獲得センサ34では、GPS(GlobalPositioning System)受信装置、地図データベース、レーダ装置などで構成されている。環境情報獲得センサ34は、GPS受信装置により現在地情報が演算されると、地図データベースから現在地周辺の地図情報を抽出する。これにより、環境情報獲得センサ34は、現在地周辺に存在する対象物(路面、レーンマーク、信号機、構造物など)の種別情報と、当該対象物の存在位置情報を取得する。また、環境情報獲得センサ34は、レーダ装置を用いて前方障害物(対象物)の存在位置を算出する。環境情報獲得センサ34は、各対象物の種別情報と存在位置情報を、対象存在マップ生成部36に送信する。
【0023】
対象存在マップ生成部36は、環境情報学習部32から対象物の存在確率のデータ集合を取り込み、さらに環境情報獲得センサ34から対象物の種別情報及び位置情報を取り込むと、次の処理を行う。対象存在マップ生成部36は、視野画像データを格子状に区切って、視野画像データを多数の正方形領域Rnの集合として把握している。また、対象存在マップ生成部36は、前述した多数の立方空間のブロックBnのそれぞれについて、ブロックBnが投影される視野画像上の正方形領域Rnを把握している。対象存在マップ生成部36は、環境情報学習部32からのデータ集合を参照して、各ブロックBnが投影される関係にある正方形領域Rnに、各ブロックBnの対象物の種別情報及び存在確率情報を関連付ける。
【0024】
次に、対象存在マップ生成部36は、環境情報獲得センサ34からの対象物の種別情報及び位置情報に基づいて、視野画像データの各正方形領域Rnに各対象物を投影する。ここで、対象物の存在確率が割り当てられた正方形領域Rnに、同種の対象物が投影された場合には、対象存在マップ生成部36は、その対象物が確実に存在するものと判断し、当該正方形領域Rnにおける存在確率を1に更新する。一方、対象物の存在確率が割り当てられた正方形領域Rnに、同種の対象物が投影されない場合には、対象存在マップ生成部36は、その対象物が存在しないものと判断し、当該正方形領域における存在確率を0に更新する。以上の処理により、対象存在マップが生成される。対象存在マップ生成部36は、対象存在マップを、注目対象判定部48に送信する。
【0025】
次に、第三処理部40について説明する。第三処理部40は、運転者の視線位置の変化を認識する視線変化検出部42と、視線位置変化の認識結果に基づいて注目状態であるか否かを判定する注目状態判定部46と、時間計測タイマ44と、運転者が注目する対象物を判定する注目対象判定部48とで構成される。
【0026】
視線変化検出部42は、視野画像蓄積部24から、現在の計測時刻における視野画像データ及び計測時刻情報を取り込むと、続いて、時間計測タイマ44に設定されている比較用計測時刻を読み出して、比較用計測時刻の情報を視野画像蓄積部24に送信する。ここで、時間計測タイマ44には、比較用計測時刻として、現在の時刻より一定時間前の時刻が設定されている。視野画像蓄積部24は、比較用計測時刻の情報を取り込むと、当該比較用計測時刻と共に格納された視野画像データ(以下、比較用視野画像データと呼ぶ)を読み出して、視線変化検出部42に送信する。視線変化検出部42は、現計測時刻の視野画像データと比較用視野画像データとを比較して、両画像データの位置ずれ量dを算出する。画像データの位置ずれ量dの算出方法について、図3及び図4を参照して説明する。
【0027】
視線変化検出部42は、現計測時刻における視野画像データPを処理することで、基準座標系における3次元位置が既知かつ不変な対象物O(例えば、車体の一部)を検出し、現計測時刻における視野画像データPにおいて対象物Oに対応する画素mを特徴点として抽出する。また、視線変化検出部42は、比較用視野画像データPn−1を同様に処理することで、同じ対象物Oを検出し、比較用視野画像データPn−1において対象物Oに対応する画素mn−1を特徴点として抽出する。そして、視線変化検出部42は、特徴点mの画素位置と特徴点mn−1の画素位置との差分を求め、その差分を現計測時刻の視野画像データと比較用視野画像データのずれ量dとする。ここで、運転者が視線軸Aを変化させたときには、視線軸Aの変化に応じて対象物Oの画素位置が変化するため、ずれ量dは視線軸Aの変化量に応じた値となる。次に、視線変化検出部42は、両画像データのずれ量dを、現計測時刻と比較用計測時刻との時間差分t−tn−1で除算することで、運転者の視線軸Aの移動速度vを算出する。視線変化検出部42は、視線軸Aの移動速度vを、計測時刻情報t及び時間差分t−tn−1と共に注目状態判定部46に送信する。
【0028】
注目状態判定部46は、視線変化検出部42から、視線移動速度v、計測時刻情報t及び時間差分t−tn−1を取り込むと、これらに基づいて運転者が対象物Oを注目しているか否かを判定する処理を行う。注目状態判定部46は、この処理によって、運転者が注目状態にあるか否かを示す注目状態フラグF、及び注目継続時間Tdを取得する。そして、注目状態判定部46は、計測時刻t、注目状態フラグF、注目継続時間Tdを、注目対象判定部48に送信する。
【0029】
注目対象判定部48は、注目状態判定部46から、計測時刻情報t、注目状態フラグF、持続時間Tdを取り込み、さらに対象存在マップ生成部36から対象存在マップを取り込むと、これらの情報に基づいて運転者が注目している対象物を判定する処理を行う。具体的には、注目対象判定部48は、注目状態フラグが1である場合に、対象存在マップにおいて視線軸に対応する中央の正方形領域Rnにおいて存在確率が1である対象物を、運転者が注目する対象物であると判定する。
【0030】
本実施形態の視線認識装置1によれば、頭部運動及び眼球運動の検出値に基づいて運転者の視線軸が算出されるため、運転者の姿勢変化に対応した視線軸が算出される。そして、撮像手段の撮像軸を基準とする撮像画像データを、運転者の視線軸を基準とする視野画像データに射影変換し、この視野画像データに基づいて運転者の視線の挙動を認識する。よって、運転者の姿勢変化により検出精度を低下させることなく、運転者の視線位置や注目状態などを判定することができる。さらには、運転者の姿勢変化により検出精度を低下させることなく、運転者の注目する対象物を判定することができる。
【0031】
また、本実施形態の視線認識装置1では、運転者の視線軸を基準とした視野画像データを用いることで、運転者からの奥行きを考慮することなく、運転者の視線の位置にある対象物を認識することを可能としている。仮に、従来技術のように撮像画像データを用いて運転者の視線の位置にある対象物を認識しようとすると、運転者から対象物までの奥行きを考慮して、撮像画像データにおいて運転者の視線位置に対応する画素領域を特定する必要がある。これに対して、本実施形態のように、運転者の視線軸を基準とした視野画像データを求めれば、視野画像データにおいて視線軸に対応する画素領域を特定することで、運転者からの奥行きを考慮することなく、運転者の視線位置にある対象物を認識することができる。
【0032】
図5を参照して、上述した視線認識装置1が行う処理の流れについて説明する。視線認識装置1は、頭部運動及び眼球運動の検出値から視線データを算出する(S501)と共に、車両前方の撮像画像データを生成する(S502)。次に、視線認識装置1は、撮像軸を基準とする撮像画像データを、視線軸を基準とする視野画像データに射影変換してから、メモリに記憶する(S503)。次に、視線認識装置1は、特徴点のずれ量を求め、運転者が注目状態にあるか否かを判定する(S504)。また同時に、視線認識装置1は、対象存在マップを生成する(S505)。そして、視線認識装置1は、運転者が注目している対象物を認識して、処理を終了する(S506)。なお、上述したステップ501〜ステップ505の処理は、車両の走行中に所定時間ごとに繰り返し行われる。
【0033】
上述したステップ504の処理において、視線挙動を判定する処理について、図6を参照して詳しく説明する。なお、図6に示される視線挙動判定処理は、注目状態判定部46により行われる処理である。
【0034】
注目状態判定部46は、特徴点移動速度vが視線位置停止判定用の閾値thdvを下回っているか否かを判定する(S601)。ここで、特徴点移動速度vが閾値thdvを下回っている場合には、運転者の視線位置がほぼ変化しない状態にあることを判定し、注目状態判定部46は、視線位置の停止時間を表す変数Taに時間差分dtを加算する(S602)。一方、特徴点移動速度vが閾値thdvを上回っている場合には、運転者の視線位置が変化している状態にあることを判定し、注目状態判定部46は、視線位置の停止時間を表す変数Taを0にリセットする(S603)。
【0035】
次に、注目状態判定部46は、視線位置の停止時間を表す変数Taが、注目状態判定用の閾値thdTaを上回っているか否かを判定する(S604)。ここで、変数Taが閾値thdTaを上回っている場合には、運転者がいずれかの対象物を注目している状態にあることを判定して、注目状態フラグF(t)に1を設定すると共に、注目継続時間を表す変数Td(t)に、視線位置が停止する時間を表す変数Taの値を格納する(S605)。一方、視線位置の停止時間を表す変数Taが閾値thdTaを下回っている場合には、運転者が注目状態にないことを判定して、注目状態フラグF(t)に0を設定すると共に、注目継続時間を表す変数Td(t)に0を設定する(S606)。そして、注目状態判定部46は、計測時刻t、注目状態フラグF(t)、注目継続時間Td(t)を、注目対象判定部48に送信する(S607)。
【0036】
また、図5のフローチャートのステップ506の処理において、注目対象を判定する処理について、図7を参照して詳しく説明する。なお、図7に示される注目対象判定処理は、注目対象判定部により行われる処理である。
【0037】
注目対象判定部は、注目状態フラグF(t)が1であるか否かを判定する(S701)。ここで、注目状態フラグF(t)が1である場合には、運転者がいずれかの対象物を注目している状態にあると判定して、運転者が注目する対象物を認識すべくステップ702の処理に進む。ステップ702では、注目対象判定部は、対象存在マップ画像I(t)の中央及びその周囲の領域を、運転者が注目する注目領域として決定する(S703)。次に、注目対象判定部は、注目領域において存在確率P(obj)が1である対象物objを、運転者が注目する対象物Oatn(t)であると判定する(S703)。
【0038】
次に、注目対象判定部48は、現計測時刻tにおける注目対象物Oatn(t)と、前計測時刻tprvにおける注目対象物Oatn(tprv)が同一であるか否かを判定する(S704)。ここで、注目対象物Oatn(t),Oatn(tprv)が同一である場合には、注目状態が依然として継続しているため、前計測時刻における注目継続時間Tatn(tprv)に時間差t−tprvを加算した値を、現計測時刻における注目継続時間Tatn(t)とする(S705)。一方、注目対象物Oatn(t),Oatn(tprv)が異なる場合には、注目対象物Oatn(t)が変化しているため、現計測時刻における注目継続時間Tatn(t)を0にリセットする(S706)。そして、注目対象判定部48は、注目対象物と注目継続時間の情報を外部に出力する(S707)。
【0039】
ステップ701の処理で、注目状態フラグF(t)が1でないと判定された場合には、運転者はいずれの対象物も注目していない状態にあると判定して、注目対象物にNULLを設定し、注目継続時間に0を設定する(S708)。そして、注目対象判定部48は、注目対象物と注目継続時間の情報を外部に出力する(S707)。
【0040】
なお、上述した実施形態の視線認識装置1では、環境撮影カメラ16は1つであるが、他の実施形態では、環境撮影カメラ16を2台以上としてもよい。この場合、射影変換部22は、複数の環境撮影カメラ16のうち、視線軸と撮像軸の内積が最小となる環境撮影カメラ16を選択して、上述した視線挙動を認識する処理を行えばよい。
【0041】
また、上述した実施形態の視線認識装置1では、頭部/眼球運動検出処理部10が有する画像撮像装置を1台としたが、他の実施形態では、画像撮像装置を2台以上としてもよい。この場合、頭部運動及び眼球運動を最もよく撮像した画像撮像装置を選択すればよい。
【図面の簡単な説明】
【0042】
【図1】視線判定装置の概略構成を示す機能ブロック図である。
【図2】撮像画像データの射影変換を説明するための模式図である。
【図3】視線変化の検出を説明するための模式図である。
【図4】視線変化の検出を説明するための模式図である。
【図5】視線認識装置による処理を示すフローチャートである。
【図6】注目状態判定部による処理を示すフローチャートである。
【図7】注目対象認識部による処理を示すフローチャートである。
【符号の説明】
【0043】
1…視線認識装置、10…眼球運動検出処理部、12…カメラ(検出手段)、14…演算装置(演算手段)、16…環境撮影カメラ(撮像手段)、20…第一処理部、22…射影変換部(変換手段)、24…視野画像蓄積部、30…第二処理部(関連付け手段)、32…環境情報学習部、34…環境情報獲得センサ、36…対象物存在マップ生成部、40…第三処理部(認識手段)、42…視線変化検出部、44…時間計測タイマ、46…注目状態判定部、48…注目対象判定部。

【特許請求の範囲】
【請求項1】
計測対象者の頭部運動及び眼球運動を検出する検出手段と、
前記頭部運動及び眼球運動の検出値に基づいて前記計測対象者の視線軸を演算する演算手段と、
前記計測対象者の視野領域を撮像して、撮像軸を基準とする撮像画像データを生成する撮像手段と、
前記撮像画像データを、前記視線軸を基準とする視野画像データに射影変換する変換手段と、
前記視野画像データに基づいて、前記計測対象者の視線の挙動を認識する認識手段と、
を備えたことを特徴とする視線認識装置。
【請求項2】
前記認識手段は、異なる時刻に生成された2つの視野画像データの位置ずれに基づいて、前記視線が注目状態にあるか否かを判定することを特徴とする請求項1に記載の視線認識装置。
【請求項3】
前記認識手段は、前記視野画像データにおいて、前記視線軸に対応する画素の対象物を、前記計測対象者の視線の位置にある対象物として認識することを特徴とする請求項1に記載の視線認識装置。
【請求項4】
前記対象物の位置情報に基づいて前記対象物を前記視野画像データの画素に関連付ける関連付け手段をさらに備え、
前記認識手段は、前記視野画像データにおいて、前記視線軸に対応する画素に関連付けられた対象物を、前記計測対象者の視線の位置にある対象物として認識することを特徴とする請求項3に記載の視線認識装置。
【請求項5】
計測対象者の頭部運動及び眼球運動を検出する検出ステップと、
前記頭部運動及び眼球運動の検出値に基づいて前記計測対象者の視線軸を演算する演算ステップと、
前記計測対象者の視野領域を撮像して、撮像軸を基準とする撮像画像データを生成する撮像ステップと、
前記撮像画像データを、前記視線軸を基準とする視野画像データに射影変換する変換ステップと、
前記視野画像データに基づいて、前記計測対象者の視線の挙動を認識する認識ステップと、
を備えたことを特徴とする視線認識方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate


【公開番号】特開2007−3462(P2007−3462A)
【公開日】平成19年1月11日(2007.1.11)
【国際特許分類】
【出願番号】特願2005−186518(P2005−186518)
【出願日】平成17年6月27日(2005.6.27)
【出願人】(000003207)トヨタ自動車株式会社 (59,920)
【Fターム(参考)】