説明

画像識別装置及びプログラム

【課題】対象物検出の検出性能が低い場合であっても、検出対象物を表わす画像を得ることができるようにする。
【解決手段】対象物検出部26によって、前方撮像装置12によって撮像された画像から、歩行者候補領域を抽出すると共に、各歩行者候補領域の評価値を算出する。運転行動判定部32によって、歩行者候補領域が表わす物体との衝突を回避するためのドライバの運転行動があったか否かを判定する。歩行者画像識別部34によって、抽出された歩行者候補領域の各々について、算出された評価値、及び運転行動判定部32による判定結果に基づいて、歩行者画像であるか否かを識別する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像識別装置及びプログラムに係り、特に、撮像した画像の対象物候補領域が、検出対象物を表わす画像であるか否かを識別する画像識別装置及びプログラムに関する。
【背景技術】
【0002】
従来より、対象物検出部の検出結果とドライバの運転操作および距離画像情報とから教師データの切り出しを行うことで、自動的に教師データを収集する画像処理システムが知られている(特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2008−204102号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記の特許文献1に記載の技術では、対象物検出部が正しく検出したと認めない場合は、教師データに追加されないため、対象物検出部の検出性能が低い場合には有効に機能しない、という問題がある。
【0005】
本発明は、上記の問題点を解決するためになされたもので、対象物検出の検出性能が低い場合であっても、検出対象物を表わす画像を得ることができる画像識別装置及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
上記の目的を達成するために第1の発明に係る画像識別装置は、自車両の前方を撮像する撮像手段と、ドライバが自車両を操作したときの操作状態、又は自車両の走行状態を検出する検出手段と、前記撮像手段によって撮像された画像から、検出対象物を表わす領域の候補である対象物候補領域を抽出すると共に、前記対象物候補領域の前記検出対象物らしさの度合いを表わす評価値を算出する対象物検出手段と、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記検出手段によって検出された前記操作状態又は前記走行状態に基づいて、前記対象物候補領域が表わす物体との衝突を回避するための前記ドライバの運転行動があったか否かを判定する回避行動判定手段と、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値、及び前記回避行動判定手段による前記対象物候補領域に対する判定結果に基づいて、前記対象物候補領域が前記検出対象物を表わす画像であるか否かを識別する識別手段とを含んで構成されている。
【0007】
第2の発明に係るプログラムは、コンピュータを、自車両の前方を撮像する撮像手段によって撮像された画像から、検出対象物を表わす領域の候補である対象物候補領域を抽出すると共に、前記対象物候補領域の前記検出対象物らしさの度合いを表わす評価値を算出する対象物検出手段、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、ドライバが自車両を操作したときの操作状態、又は自車両の走行状態を検出する検出手段によって検出された前記操作状態又は前記走行状態に基づいて、前記対象物候補領域が表わす物体との衝突を回避するための前記ドライバの運転行動があったか否かを判定する回避行動判定手段、及び前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値、及び前記回避行動判定手段による前記対象物候補領域に対する判定結果に基づいて、前記対象物候補領域が前記検出対象物を表わす画像であるか否かを識別する識別手段として機能させるためのプログラムである。
【0008】
第1の発明及び第2の発明によれば、撮像手段によって、自車両の前方を撮像し、検出手段によって、ドライバが自車両を操作したときの操作状態、又は自車両の走行状態を検出する。
【0009】
そして、対象物検出手段によって、撮像手段によって撮像された画像から、検出対象物を表わす領域の候補である対象物候補領域を抽出すると共に、対象物候補領域の検出対象物らしさの度合いを表わす評価値を算出する。回避行動判定手段によって、対象物検出手段によって抽出された対象物候補領域の各々について、検出手段によって検出された操作状態又は走行状態に基づいて、対象物候補領域が表わす物体との衝突を回避するためのドライバの運転行動があったか否かを判定する。
【0010】
そして、識別手段によって、対象物検出手段によって抽出された対象物候補領域の各々について、対象物検出手段によって算出された対象物候補領域の評価値、及び回避行動判定手段による対象物候補領域に対する判定結果に基づいて、対象物候補領域が検出対象物を表わす画像であるか否かを識別する。
【0011】
このように、対象物候補領域の各々について、対象物検出手段によって算出された評価値、及び対象物候補領域が表わす物体との衝突を回避するためのドライバの運転行動があったか否かの判定結果に基づいて、対象物候補領域が検出対象物を表わす画像であるか否かを識別することにより、対象物検出の検出性能が低い場合であっても、検出対象物を表わす画像を得ることができる。
【0012】
第1の発明に係る画像識別装置は、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記検出手段によって検出された自車両の走行状態に基づいて、前記対象物候補領域が表わす物体と自車両との衝突危険度を算出する衝突危険度算出手段を更に含み、前記回避行動判定手段は、前記検出手段によって検出された前記操作状態又は前記走行状態に基づいて、物体との衝突を回避するための前記ドライバの運転行動を検出し、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記衝突危険度算出手段によって算出された前記対象物候補領域に対する衝突危険度が所定値以上であって、かつ、前記ドライバの運転行動を検出した場合、前記対象物候補領域が表わす物体との衝突を回避するための前記ドライバの運転行動があったと判定するようにすることができる。これによって、対象物候補領域が表わす物体との衝突を回避するためのドライバの運転行動があったか否かを精度よく判定することができる。
【0013】
第1の発明に係る識別手段は、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値が第1閾値以上であるとき、前記対象物候補領域が前記検出対象物を表わす画像であると識別し、前記対象物候補領域の前記評価値が第1閾値より小さい第2閾値未満であるとき、前記対象物候補領域が前記検出対象物を表わす画像でないと識別し、前記対象物候補領域の前記評価値が第1閾値未満であって、かつ、第2閾値以上であるとき、前記回避行動判定手段によって前記対象物候補領域が表わす物体との衝突を回避するための前記ドライバの運転行動があったと判定されると、前記対象物候補領域が前記検出対象物を表わす画像であると識別するようにすることができる。これによって、対象物検出手段によって算出された評価値が低い場合であっても、検出対象物を表わす画像を得ることができる。
【0014】
第3の発明に係る画像識別装置は、自車両の前方を撮像する撮像手段と、自車両のドライバの視線方向を計測する計測手段と、前記撮像手段によって撮像された画像から、検出対象物を表わす領域の候補である対象物候補領域を抽出すると共に、前記対象物候補領域の前記検出対象物らしさの度合いを表わす評価値を算出する対象物検出手段と、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記計測手段によって計測されたドライバの視線方向が、前記対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したか否かを判定する視線判定手段と、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値、及び前記視線判定手段による前記対象物候補領域に対する判定結果に基づいて、前記対象物候補領域が前記検出対象物を表わす画像であるか否かを識別する識別手段とを含んで構成されている。
【0015】
第4の発明に係るプログラムは、コンピュータを、自車両のドライバの視線方向を計測する計測手段、自車両の前方を撮像する撮像手段によって撮像された画像から、検出対象物を表わす領域の候補である対象物候補領域を抽出すると共に、前記対象物候補領域の前記検出対象物らしさの度合いを表わす評価値を算出する対象物検出手段、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記計測手段によって計測されたドライバの視線方向が、前記対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したか否かを判定する視線判定手段、及び前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値、及び前記視線判定手段による前記対象物候補領域に対する判定結果に基づいて、前記対象物候補領域が前記検出対象物を表わす画像であるか否かを識別する識別手段として機能させるためのプログラムである。
【0016】
第3の発明及び第4の発明によれば、撮像手段によって、自車両の前方を撮像し、計測手段によって、自車両のドライバの視線方向を計測する。
【0017】
そして、対象物検出手段によって、撮像手段によって撮像された画像から、検出対象物を表わす領域の候補である対象物候補領域を抽出すると共に、対象物候補領域の検出対象物らしさの度合いを表わす評価値を算出する。視線判定手段によって、対象物検出手段によって抽出された対象物候補領域の各々について、計測手段によって計測されたドライバの視線方向が、対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したか否かを判定する。
【0018】
そして、識別手段によって、対象物検出手段によって抽出された対象物候補領域の各々について、対象物検出手段によって算出された対象物候補領域の評価値、及び視線判定手段による対象物候補領域に対する判定結果に基づいて、対象物候補領域が検出対象物を表わす画像であるか否かを識別する。
【0019】
このように、対象物候補領域の各々について、対象物検出手段によって算出された評価値、及びドライバの視線方向が対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したか否かの判定結果に基づいて、対象物候補領域が検出対象物を表わす画像であるか否かを識別することにより、対象物検出の検出性能が低い場合であっても、検出対象物を表わす画像を得ることができる。
【0020】
第3の発明に係る識別手段は、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値が第1閾値以上であるとき、前記対象物候補領域が前記検出対象物を表わす画像であると識別し、前記対象物候補領域の前記評価値が第1閾値より小さい第2閾値未満であるとき、前記対象物候補領域が前記検出対象物を表わす画像でないと識別し、前記対象物候補領域の前記評価値が第1閾値未満であって、かつ、第2閾値以上であるとき、前記視線判定手段によって前記ドライバの視線方向が前記対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したと判定されると、前記対象物候補領域が、前記検出対象物を表わす画像であると識別するようにすることができる。これによって、対象物検出手段によって算出された評価値が低い場合であっても、検出対象物を表わす画像を得ることができる。
【0021】
第3の発明に係る画像識別装置は、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記検出手段によって検出された自車両の走行状態に基づいて、前記対象物候補領域が表わす物体と自車両との衝突危険度を算出する衝突危険度算出手段を更に含み、前記識別手段は、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値、前記視線判定手段による前記対象物候補領域に対する判定結果、及び前記衝突危険度算出手段によって算出された前記対象物候補領域に対する衝突危険度に基づいて、前記対象物候補領域が、前記検出対象物を表わす画像であるか否かを識別するようにすることができる。これによって、対象物候補領域が、検出対象物を表わす画像であるか否かをより精度よく識別することができる。
【0022】
第1の発明に係る画像識別装置は、自車両のドライバの視線方向を計測する計測手段と、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記計測手段によって計測されたドライバの視線方向が、前記対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したか否かを判定する視線判定手段と、を更に含み、前記識別手段は、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値、前記回避行動判定手段による前記対象物候補領域に対する判定結果、及び前記視線判定手段による前記対象物候補領域に対する判定結果に基づいて、前記対象物候補領域が、前記検出対象物を表わす画像であるか否かを識別するようにすることができる。これによって、対象物検出の検出性能が低い場合であっても、検出対象物を表わす画像を得ることができる。
【0023】
上記の視線判定手段を含む第1の発明において、前記識別手段は、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値が第1閾値以上であるとき、前記対象物候補領域が前記検出対象物を表わす画像であると識別し、前記対象物候補領域の前記評価値が第1閾値未満であって、かつ、第1閾値より小さい第2閾値以上であるとき、前記回避行動判定手段によって前記対象物候補領域が表わす物体との衝突を回避するための前記ドライバの運転行動があったと判定され、又は、前記視線判定手段によって前記ドライバの視線方向が前記対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したと判定されると、前記対象物候補領域が前記検出対象物を表わす画像であると識別し、前記対象物候補領域の前記評価値が第2閾値より小さい第3閾値未満であるとき、前記対象物候補領域が前記検出対象物を表わす画像でないと識別し、前記対象物候補領域の前記評価値が第2閾値未満であって、かつ、第3閾値以上であるとき、前記回避行動判定手段によって前記対象物候補領域が表わす物体との衝突を回避するための前記ドライバの運転行動があったと判定され、かつ、前記視線判定手段によって前記ドライバの視線方向が前記対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したと判定されると、前記対象物候補領域が前記検出対象物を表わす画像であると識別するようにすることができる。これによって、対象物検出手段によって算出された評価値が低い場合であっても、検出対象物を表わす画像を得ることができる。
【0024】
上記の対象物検出手段は、前記検出対象物を検出するために予め生成された対象物モデルと前記対象物候補領域とを比較することにより、前記対象物候補領域の前記評価値を算出するようにすることができる。
【0025】
また、上記の画像識別装置は、前記識別手段によって前記検出対象物を表わす画像であると識別された前記対象物候補領域の画像を複数記憶した記憶手段と、前記記憶手段に記憶された前記複数の画像に基づいて、前記対象物モデルを学習する学習手段と、を更に含み、前記対象物検出手段は、前記学習手段によって学習された前記対象物モデルと前記対象物候補領域とを比較することにより、前記対象物候補領域の前記評価値を算出するようにすることができる。これによって、対象物検出の検出性能が低い場合であっても、検出対象物を表わす画像を得て、対象物モデルを学習することができ、対象物検出の検出性能を向上させることができる。
【発明の効果】
【0026】
以上説明したように、本発明の画像識別装置及びプログラムによれば、対象物検出の検出性能が低い場合であっても、検出対象物を表わす画像を得ることができる、という効果が得られる。
【図面の簡単な説明】
【0027】
【図1】本発明の第1の実施の形態に係る対象物検出装置の構成を示す概略図である。
【図2】撮像画像を示すイメージ図である。
【図3】本発明の第1の実施の形態に係る対象物検出装置の対象物検出部の構成を示す図である。
【図4】本発明の第1の実施の形態に係る対象物検出装置のコンピュータにおける歩行者画像収集処理ルーチンの内容を示すフローチャートである。
【図5】本発明の第2の実施の形態に係る対象物検出装置の構成を示す概略図である。
【図6】視線方向の計測方法を説明するための図である。
【図7】本発明の第2の実施の形態に係る対象物検出装置のコンピュータにおける歩行者画像収集処理ルーチンの内容を示すフローチャートである。
【図8】本発明の第3の実施の形態に係る対象物検出装置の構成を示す概略図である。
【図9】本発明の第3の実施の形態に係る対象物検出装置のコンピュータにおける歩行者画像収集処理ルーチンの内容を示すフローチャートである。
【図10】本発明の第3の実施の形態に係る対象物検出装置のコンピュータにおける歩行者画像収集処理ルーチンの内容を示すフローチャートである。
【発明を実施するための形態】
【0028】
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、撮像画像から、歩行者を検出する対象物検出装置に本発明を適用した場合を例に説明する。
【0029】
図1に示すように、第1の実施の形態に係る対象物検出装置10は、車両(図示省略)に取り付けられ、かつ、車両の前方を撮像して画像を生成する前方撮像装置12と、自車両の車速を検出する車速センサ14と、ブレーキペダル及びアクセルペダルの各々の操作量を検出するペダルセンサ16と、ドライバによるステアリングの操作量を検出する操舵センサ18と、前方撮像装置12から得られる撮像画像から歩行者画像を収集して歩行者モデルを学習すると共に、前方撮像装置12から得られる撮像画像から歩行者を表わす領域を検出するコンピュータ20と、コンピュータ20による検出結果を表示する表示装置70とを備えている。
【0030】
前方撮像装置12は、車両の前方を撮像し、画像の画像信号を生成する撮像部(図示省略)と、撮像部で生成された画像信号をA/D変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。前方撮像装置12は、自車両の前方を、所定間隔で繰り返し撮像する。
【0031】
また、車速センサ14、ペダルセンサ16、及び操舵センサ18の各々は、所定間隔で検出値をコンピュータ20に出力する。
【0032】
コンピュータ20は、CPUと、RAMと、後述する歩行者画像収集処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。コンピュータ20は、前方撮像装置12から撮像された画像を取得する画像取得部25と、画像取得部25によって取得した画像から、歩行者候補領域を抽出すると共に、歩行者候補領域内の物体の歩行者らしさを表す評価値を算出する対象物検出部26と、車速センサ14によって検出された自車両の車速を用いて、歩行者候補領域内の物体に対するTTC(Time−to−Collision:衝突余裕時間)を衝突危険度として算出する危険度算出部28と、ペダルセンサ16及び操舵センサ18の出力に基づいて、前方に存在する物体との衝突を回避するための運転行動を検出する回避行動検出部30と、歩行者候補領域内の物体との衝突を回避するための運転行動があったか否かを判定する運転行動判定部32と、各歩行者候補領域について、対象物検出部26で算出された評価値及び運転行動判定部32の判定結果に基づいて、歩行者画像であるか否かを識別する歩行者画像識別部34と、歩行者画像であると識別された歩行者候補領域の画像を、後述する歩行者画像データベース38に記憶させる記憶制御部36と、収集された歩行者画像を記憶した歩行者画像データベース38とを備えている。なお、運転行動判定部32は、回避行動判定手段の一例であり、歩行者画像データベース38が、記憶手段の一例である。
【0033】
画像取得部25は、前方撮像装置12から出力されたアナログ信号に対して適切な画像処理(ガンマ調整、濃度変換、ノイズ除去など)を施して、図2に示すようなデジタル画像を生成する。
【0034】
対象物検出部26は、図3に示すように、画像取得部25によって取得した入力画像から所定領域の画像、すなわちウインドウで囲まれた領域内のウインドウ画像を各々抽出するウインドウ画像抽出部40と、各ウインドウ画像を適切なサイズの画像に変換する画像サイズ変換部42と、各ウインドウ画像について特徴量を抽出する特徴量抽出部44と、特徴量抽出部44により抽出された特徴量と歩行者モデル記憶部58に記憶された歩行者モデルの特徴量とを比較して、各ウインドウ画像内の物体の歩行者らしさを表す評価値を算出する評価値算出部46と、評価値算出部46で算出された評価値に基づいて、歩行者候補領域を抽出する歩行者候補抽出部48とを備えている。
【0035】
ウインドウ画像抽出部40は、入力画像から予め定められたサイズのウインドウ(探索ウインドウと呼称)を1ステップにつき、予め定められた移動量(探索ステップと呼称)だけ移動させながら各ステップ毎に画像を切り取る。ここでは、切り取った画像をウインドウ画像と呼称する。ウインドウ画像のサイズ(すなわち探索ウインドウのサイズ)については、入力画像上に様々なサイズで表れる歩行者を検出するために、複数種類の大きさ及び形状の少なくとも一方が異なるサイズが設定されており、ウインドウ画像抽出部40は、設定されている全てのサイズの探索ウインドウを用いてウインドウ画像を抽出する。
【0036】
画像サイズ変換部42は、ウインドウ画像のサイズを、適切なサイズにするように、所定サイズの画像に変換する。これは、車両近傍に位置する歩行者は画像中では大きく観測され、遠方にいる歩行者は画像中で小さく観測されるため、対象物検出部26が検出可能な大きさなるように、ウインドウ画像のサイズを変更する。
【0037】
特徴量抽出部44は、ウインドウ画像の特徴量を算出する。例えば、特徴量として、エッジ方向のヒストグラム(HOG)を用いる。なお、特徴量として、エッジ特徴、4方向面特徴、ハール特徴などの公知の特徴量を用いてもよい。
【0038】
評価値算出部46は、後述する歩行者モデル記憶部58に記憶された歩行者モデルを参照して、ウインドウ画像の歩行者らしさを表す評価値を算出する。以下では、歩行者モデルとして、SVM(Support Vector Machine)識別器のSVMモデルを用いた場合について説明する。
【0039】
評価値は、特徴量抽出部44で算出されたウインドウ画像の特徴量と歩行者モデルが表わす境界面との距離に応じて、ウインドウ画像の特徴量が特徴空間において境界面から対象物(ポジティブ)側に離れるほど評価値は大きくなり、境界面から非対象物(ネガティブ)側に離れるほど評価値は小さくなる。また、評価値は正規化された値であり、−1〜1の範囲の値をとり、1に近いほど歩行者らしく、−1に近いほど歩行者らしくないことを示す。
【0040】
歩行者候補抽出部48は、評価値が所定値以上となるウインドウ画像を、歩行者候補領域として各々抽出する。
【0041】
一般的には、歩行者らしさの第1閾値Th1を0以上1以下の例えば0.3に設定し、評価値が第1閾値Th1=0.3以上であれば歩行者、第1閾値Th1未満であれば非歩行者画像と識別する。図2では、例として4つの歩行者候補領域21〜24が抽出されており、歩行者候補領域21および歩行者候補領域22は評価値が第1閾値Th1以上であるため実線矩形で歩行者を囲っている。一方、歩行者候補領域23および24については、評価値が−1に近くはないが、第1閾値Th1未満であって、かつ、第2閾値Th2以上(例えば0.1)であり、歩行者らしさが比較的高いため破線矩形で歩行者を囲っている。
【0042】
ここで、歩行者モデルの学習の初期段階では、評価値算出部46を用いた対象物検出部26の検出性能が十分高くないため、歩行者候補領域21、22のような正検出がある一方、歩行者候補領域23のような歩行者に対しても低い評価値を算出し、逆に歩行者候補領域24のように明らかに歩行者でない対象に対しても、−1に比べれば高い評価値を算出してしまう。
【0043】
このため、本実施の形態では、歩行者候補抽出部48によって、評価値が、できるだけ低い閾値(例えば、−0.3)以上となるウインドウ画像を歩行者候補領域として抽出し、後段の歩行者画像識別部34によって、運転行動判定部32の判定結果を用いて、正しい歩行者候補領域であるか否かの識別を行うこととする。
【0044】
危険度算出部28は、対象物検出部26において抽出された歩行者候補領域に基づいて、各歩行者候補領域に対して、当該歩行者候補領域が表わす物体と自車両との距離、当該歩行者候補領域が表わす物体の推定歩行速度及び移動方向を求める。危険度算出部28は、車速センサ14によって検出された自車両の車速と、求めた当該歩行者候補領域が表わす物体と自車両との距離と、当該歩行者候補領域が表わす物体の推定歩行速度及び移動方向とに基づいて、衝突危険度としてTTCを算出する。なお、当該歩行者候補領域が表わす物体と自車両との距離については、当該歩行者候補領域の大きさ及び位置に基づいて、当該歩行者候補領域が表わす物体が存在する位置を推定し、推定した位置に基づいて、自車両との距離を求めるようにすればよい。また、当該歩行者候補領域が表わす物体の推定歩行速度及び移動方向については、対象物検出部26によって前回抽出された当該歩行者候補領域との変化に基づいて、当該歩行者候補領域が表わす物体の推定歩行速度及び移動方向を求めればよい。
【0045】
回避行動検出部30は、ペダルセンサ16によって検出されたブレーキペダルの操作量の変化及びアクセルペダルの操作量の変化に基づいて、アクセルオフあるいはブレーキオンがあったと判断された場合には、ドライバの減速による回避行動が検出されたとする。また、回避行動検出部30は、操舵センサ18によって検出されたステアリングの操作量の変化に基づいて、ドライバによるステアリングの操作があったと判断された場合には、ドライバの操舵による回避行動が検出されたとする。なお、ブレーキペダルの操作量の変化及びアクセルペダルの操作量の変化は、所定時間前からの現時点までのペダルセンサ16の出力の時系列データから得られる。また、ステアリングの操作量の変化は、所定時間前からの現時点までの操舵センサ18の出力の時系列データから得られる。
【0046】
運転行動判定部32は、各歩行者候補領域について、危険度算出部28によって当該歩行者候補領域について算出されたTTCが、閾値(例えば、2秒)以下である場合には、自車両と歩行者候補領域が表わす物体との衝突可能性が高いと判定する。また、運転行動判定部32は、回避行動検出部30によって回避行動が検出された場合には、衝突可能性が高いと判定した歩行者候補領域について、当該候補領域が表わす物体との衝突を回避するための運転行動の変化があったと判定する。
【0047】
TTCが大きな値(例えば8秒)と算出された歩行者候補領域については、この時点で衝突の可能性が高いとは判断されないため、回避行動が検出された場合であっても、当該歩行者候補領域が表わす物体に対する、ドライバの運転行動の変化があったとは判定しない。
【0048】
ここで、本実施の形態の原理について説明する。
【0049】
対象物検出装置10の初期状態においては、対象物検出部26で用いる歩行者モデルは、少ない教師データを用いて学習されているため、十分な検出性能が得られない。しかしながら、この初期段階で必要な教師データは少量であるため、教師データ切り出しのための時間と労力は少ない。
【0050】
次に、対象物検出装置10を搭載した車両が実際に走行すると、対象物検出部26により、歩行者を表わす画像が検出される。その検出された歩行者画像を教師画像とすることで自動的に教師画像データベースが構築できる。
【0051】
しかしながら、初期状態の対象物検出部26では、十分な検出性能が得られないため、未検出となる事例が多く発生する。対象物検出部26は、画像中から検出した歩行者候補領域と、検出すべき歩行者らしさを示す評価値を出力し、一般に評価値が高いほど、歩行者候補領域に誤りが少ない。このため、ある閾値を設定し、その閾値以上の場合に、歩行者候補領域が正しい検出であるとみなすが、十分な検出性能が得られていない状態では、正しく歩行者を表わしている歩行者候補領域に対しても低い評価値になることがある。一方、閾値を低く設定すると、歩行者でない画像も正しい検出とみなしてしまい、そのままでは、教師データに、歩行者とは異なる画像データが追加されてしまう、という問題がある。
【0052】
このため、評価値が多少低い場合には、ドライバの運転行動から、歩行者候補領域が正しい歩行者画像であるかどうかの識別を行う。
【0053】
これは、例えば、車両前方から歩行者候補が検出されたとき、車両と歩行者候補の位置関係及び車両速度から、歩行者との衝突の危険性が高いと判定され、且つ、ドライバがアクセルOFFする、ブレーキを踏むなどの操作をしたときは、前方歩行者との衝突の回避行動をおこしたと認められる。この場合は、対象物検出部26が検出した歩行者候補は正しい検出結果と考えられ、教師データに加えても問題ない。
【0054】
以上説明した原理より、本実施の形態では、歩行者画像識別部34によって、対象物検出部26において抽出された歩行者候補領域の各々に対して、算出された評価値と、運転行動判定部32の判定結果とから、歩行者を表わす画像であるか否かを識別する。歩行者画像識別部34は、歩行者候補領域の各々に対して、当該歩行者候補領域について算出された評価値が第1閾値Th1以上である場合、当該歩行者候補領域は歩行者画像であると識別する。例えば、上記図2に示す歩行者候補領域21、22の評価値は第1閾値Th1以上であるため、歩行者画像であると識別される。
【0055】
また、歩行者画像識別部34は、歩行者候補領域の各々に対して、当該歩行者候補領域について算出された評価値が第1閾値Th1未満であるが、第2閾値Th2以上である場合、運転行動判定部32によって、当該歩行者候補領域に対して運転行動が変化したと判定されていると、当該歩行者歩候補領域が、歩行者画像であると識別し、当該歩行者候補領域に対して運転行動が変化していないと判定されていると、当該歩行者歩候補領域が、歩行者画像でないと識別する。例えば、上記図2に示す歩行者候補領域23,24については、評価値が第1閾値Th1未満、第2閾値Th2以上であるため、運転行動判定部32の判定結果を利用し、歩行者候補領域23に対して運転行動が変化したと考えられるため、歩行者候補領域23は、歩行者画像であると識別される。
【0056】
記憶制御部36は、歩行者画像データベース38に、歩行者画像であると識別された歩行者候補領域(例えば、歩行者候補領域21、22、23)の画像を追加する。
【0057】
また、コンピュータ20は、非歩行者画像を生成する非歩行者画像生成部50と、生成された非歩行者画像を記憶した非歩行者画像データベース52とを更に備えている。
【0058】
非歩行者画像データベース52は、歩行者が存在するような環境において撮像した画像であって、かつ、歩行者を含まない非歩行者画像を記憶しており、例えば、上記図2に示す画像における歩行者が存在しない領域での画像を、非歩行者画像として記憶している。
【0059】
非歩行者画像生成部50は、歩行者画像識別部34の識別結果に基づいて、歩行者が存在しない画像を収集し、収集した画像中から位置・大きさをランダムに変更して切り出すことで、非歩行者画像を生成する。なお、一般的には、歩行者画像データベース38に記憶された歩行者画像の数に対して、数倍から数十倍の数の非歩行者画像を生成し、非歩行者画像データベース52に記憶しておく。
【0060】
また、コンピュータ20は、歩行者画像データベース38に記憶された各歩行者画像、及び非歩行者画像データベース52に記憶された各非歩行者画像から、画像特徴量を各々抽出する特徴量抽出部54と、抽出された画像特徴量に基づいて、歩行者画像及び非歩行者画像を学習して、歩行者モデルを生成する学習部56と、生成された歩行者モデルを記憶する歩行者モデル記憶部58とを更に備えている。
【0061】
特徴量抽出部54は、上述した特徴量抽出部44と同様に、各歩行者画像および各非歩行者画像における画像特徴量を抽出する。
【0062】
学習部56は、上述した評価値算出部46と同様のSVM識別器を用いて学習を行う。ここで、特徴量抽出部54で得られた特徴量xとそれに対応するクラスcの組み合わせからなる学習データの集合をDと表すと、Dは以下の式で表される.
【0063】
【数1】

【0064】
ただし、pは特徴量xの次元数であり、c=1の場合は歩行者、c=−1の場合は非歩行者であることを表している。またnは学習データの数であり、学習に用いた歩行者画像の数及び非歩行者画像の数の合計値となる。
【0065】
この学習データの集合Dを用いたSVM識別器の学習を行い、その結果、歩行者モデルが生成される。具体的には、歩行者画像(ポジティブデータ)及び非歩行者画像(ネガティブデータ)を用いて学習することにより、歩行者モデルが、特徴空間における歩行者と非歩行者との境界面(サポートベクタ)として生成される。
【0066】
また、コンピュータ20は、歩行者画像識別部34によって歩行者画像であると識別された歩行者候補領域を、歩行者の検出結果として、表示装置70に表示させる表示制御部60を更に備えている。表示制御部60は、例えば、上記図2に示すように、前方撮像装置12によって撮像された画像上に、歩行者画像であると識別された歩行者候補領域を示す枠を重畳させて、表示装置70に表示させる。
【0067】
次に、本実施の形態に係る対象物検出装置10の作用について説明する。まず、歩行者を撮像することにより得られた複数の歩行者画像と、歩行者以外を撮像することにより得られた複数の非歩行者画像とを予め用意して、歩行者画像データベース38及び非歩行者画像データベース52に格納し、対象物検出装置10は、歩行者画像データベース38及び非歩行者画像データベース52の歩行者画像及び非歩行者画像に基づいて、学習処理を行い、得られた歩行者モデルを、歩行者モデル記憶部58に記憶する。
【0068】
そして、対象物検出装置10を搭載した車両の走行中に、コンピュータ20において、図4に示す歩行者画像収集処理ルーチンが実行される。なお、歩行者画像収集処理ルーチンは、所定時間毎に繰り返し実行される。
【0069】
まず、ステップ100において、前方撮像装置12から撮像画像を取得し、ステップ102において、車速センサ14、ペダルセンサ16、及び操舵センサ18からの各出力を取得する。
【0070】
そして、ステップ104において、上記ステップ100で取得した撮像画像から得られる各ウインドウ画像に対して、SVM識別器を用いて評価値を算出し、評価値が所定値以上となるウインドウ画像を、歩行者候補領域として抽出する。
【0071】
次のステップ106では、上記ステップ104で抽出された歩行者候補領域の各々について、前回の実行時に抽出された当該歩行者候補領域との変化、及び上記ステップ102で取得した車速とに基づいて、歩行者候補領域が表わす物体に対するTTCを算出する。そして、ステップ108において、上記ステップ102において所定回数前から現時点までに取得された各種操作量の時系列データに基づいて、衝突を回避する回避行動を検出する。
【0072】
次のステップ110では、上記ステップ104で抽出された複数の歩行者候補領域の中から、判定対象の歩行者候補領域を設定する。ステップ112では、上記ステップ104で算出された、判定対象の歩行者候補領域に対する評価値が、第1閾値Th1以上であるか否かを判定する。判定対象の歩行者候補領域に対する評価値が、第1閾値Th1以上である場合には、ステップ118へ移行するが、一方、判定対象の歩行者候補領域に対する評価値が、第1閾値Th1未満である場合には、ステップ114において、判定対象の歩行者候補領域に対する評価値が、第1閾値Th1未満であって、かつ、第2閾値Th2以上であるか否かを判定する。判定対象の歩行者候補領域に対する評価値が、第2閾値Th2未満である場合には、ステップ120へ移行する。一方、判定対象の歩行者候補領域に対する評価値が、第1閾値Th1未満であって、かつ、第2閾値Th2以上である場合には、ステップ116において、判定対象の歩行者候補領域に対するTTCが、所定値以下であって、かつ、上記ステップ108で回避行動が検出されたか否かを判定する。判定対象の歩行者候補領域に対するTTCが、所定値未満である場合、又は上記ステップ108で回避行動が検出されなかった場合には、ステップ120へ移行する。
【0073】
一方、判定対象の歩行者候補領域に対するTTCが、所定値以下であって、かつ、上記ステップ108で回避行動が検出された場合には、歩行者画像であると識別し、ステップ118において、判定対象の歩行者候補領域を、歩行者画像として歩行者画像データベース38に記憶させる。
【0074】
ステップ120では、全ての歩行者候補領域について、上記ステップ110〜118の処理を実行したか否かを判定する。上記ステップ110〜118の処理を実行していない歩行者候補領域が存在する場合には、上記ステップ110へ戻り、上記の処理を実行していない歩行者候補領域を、判定対象として設定する。
【0075】
上記ステップ120において、全ての歩行者候補領域について、上記ステップ110〜118の処理を実行したと判定された場合には、ステップ122において、歩行者の検出結果として、歩行者画像であると識別された歩行者候補領域を示す枠を、撮像画像上に重畳して、表示装置70に表示させて、歩行者画像収集処理ルーチンを終了する。
【0076】
上記の歩行者画像収集処理ルーチンが繰り返し実行されることにより、多数の歩行者画像が収集され、歩行者画像データベース38に記憶される。また、コンピュータ20は、歩行者画像であると識別されなかった画像を収集して、非歩行者画像を多数生成し、非歩行者画像データベース52に記憶させる。
【0077】
そして、コンピュータ20において、歩行者画像データベース38に記憶された歩行者画像、及び非歩行者画像データベース52に記憶された非歩行者画像を用いて、学習処理を行い、歩行者モデルを生成して、歩行者モデル記憶部58に記憶されている歩行者モデルを更新する。
【0078】
そして、対象物検出装置10を搭載した車両の走行中に、コンピュータ20は、更新された歩行者モデルを用いて、前方撮像装置12によって撮像された画像から、歩行者を検出する処理を繰り返し行い、歩行者が検出される毎に、検出結果を表示装置70に表示させる。なお、歩行者モデルの学習が繰り返し行われ、対象物検出部26の検出性能が向上した場合には、対象物検出部26による検出結果を、表示装置70に表示させるようにすればよい。
【0079】
以上説明したように、第1の実施の形態に係る対象物検出装置によれば、歩行者候補領域の各々について、対象物検出部によって算出された評価値、及び歩行者候補領域が表わす物体との衝突を回避するためのドライバの運転行動があったか否かの判定結果に基づいて、歩行者候補領域が歩行者画像であるか否かを識別することにより、対象物検出部の検出性能が低い場合であっても、歩行者画像を得ることができる。
【0080】
画像処理により対象物を検出する場合には、検出したい対象物の画像データ、つまり教師データを非常に多く収集して対象物検出部を学習させる必要がある。従来、この教師データは、人手により画像から切り出していたため、膨大な時間と労力を有していた。一方、本実施の形態によれば、少ない教師データで学習した対象物検出部26の検出結果を用いて教師データを自動で切り出すことができるため、教師データ収集のための労力を大幅に削減することができる。また、自動で切り出した教師データを記憶した教師データベースを用いることで、対象物検出部26の性能向上を容易に実現することができる。
【0081】
また、ドライバの運転行動から、抽出された歩行者候補領域の歩行者らしさを判定でき、誤った教師データを採用することなく、自動的に正しい教師データを収集できる。また、継続的に走行することで、大規模な教師画像データベースを構築でき、それを用いて再学習をおこなうことで、少ない時間と労力で、対象物検出部の検出性能を向上させることが可能となる。
【0082】
また、初期の段階で対象物検出部の検出性能が低く、正検出と認められない歩行者候補領域であっても、対象物検出部により算出される評価値がある水準を満たすか否か、及び衝突回避の運転行動が検出されたか否かに基づいて、歩行者候補領域の歩行者らしさを判定するため、正検出を見過ごすことなく、かつ誤検出を含めることなく、教師画像を収集することができ、教師画像データベースを構築することが可能である。
【0083】
次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
【0084】
第2の実施の形態では、ドライバの視線方向が、抽出された歩行者候補領域に対応する範囲内に停留したか否かの判定結果を用いて、歩行者画像であるか否かを識別している点が、第1の実施の形態と異なっている。
【0085】
図5に示すように、第2の実施の形態に係る対象物検出装置210は、前方撮像装置12と、車室内のステアリングコラムに取り付けられ、かつ、ドライバの顔を撮像するドライバ撮像装置212と、前方撮像装置12から得られる撮像画像から歩行者画像を収集して歩行者モデルを学習すると共に、前方撮像装置12から得られる撮像画像から歩行者を表わす領域を検出するコンピュータ220と、表示装置70とを備えている。
【0086】
ドライバ撮像装置212は、ドライバの顔を含む領域を撮像し、画像の画像信号を生成する撮像部(図示省略)と、撮像部で生成された画像信号をA/D変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。ドライバ撮像装置212は、ドライバの顔を含む領域を、所定間隔で繰り返し撮像する。
【0087】
コンピュータ220は、画像取得部25と、対象物検出部26と、ドライバ撮像装置212によって撮像された顔画像に基づいて、ドライバの視線方向を計測する視線計測部228と、ドライバの視線が、歩行者候補領域が表わす物体を注視しているか否かを判定する対象注視判定部230と、各歩行者候補領域について、対象物検出部26で算出された評価値及び対象注視判定部230の判定結果に基づいて、歩行者画像であるか否かを識別する歩行者画像識別部234と、記憶制御部36と、歩行者画像データベース38と、非歩行者画像生成部50と、非歩行者画像データベース52と、特徴量抽出部54と、学習部56と、歩行者モデル記憶部58と、表示制御部60とを備えている。なお、対象注視判定部230が、視線判定手段の一例である。
【0088】
視線計測部228は、従来既知の画像処理手法を用いて、ドライバの顔画像から、ドライバの視線方向を計測する。ここで、計測されるドライバの視線方向は、図6に示すように視線原点Oeと、z=1の仮想平面との交点(x‘,y’,1)とによって決定されるベクトルpによって表される。
【0089】
対象注視判定部230は、対象物検出部26によって抽出された歩行者候補領域の各々について、ドライバが、当該歩行者候補領域が表わす物体を注視しているかどうかの判定を行う。具体的には、歩行者候補領域の各々について、ドライバの眼の位置(視線原点)と、前方撮像装置12の設置位置及び撮像方向と、ドライバ撮像装置212の設置位置及び撮像方向とに基づいて、歩行者候補領域に対応する視線方向の範囲を算出する。そして、視線計測部228によって計測された視線pと、歩行者候補領域に対応する視線方向の範囲との時間的位置関係を調べる。例えば視線pが、ある一定時間、例えば300ミリ秒(0.3秒)の間、歩行者候補領域に対応する視線方向の範囲内に継続して存在している場合には、ドライバの視線が歩行者候補領域内に停留しており、ドライバは歩行者候補領域が表わす物体を注視したと判断する。
【0090】
歩行者画像識別部234は、対象物検出部26において抽出された歩行者候補領域の各々に対して、算出された評価値と、対象注視判定部230の判定結果とから、歩行者を表わす画像であるか否かを識別する。歩行者画像識別部234は、歩行者候補領域の各々に対して、算出された評価値が第1閾値Th1以上である場合、当該歩行者候補領域は、歩行者画像であると識別する。
【0091】
また、歩行者画像識別部234は、歩行者候補領域の各々に対して、算出された評価値が第1閾値Th1未満であるが、第2閾値Th2以上である場合、対象注視判定部230によって当該歩行者候補領域に対してドライバが注視したと判定されていると、当該歩行者歩候補領域が、歩行者画像であると識別し、当該歩行者候補領域に対してドライバが注視していないと判定されていると、当該歩行者歩候補領域が、歩行者画像でないと識別する。例えば、上記図2に示す歩行者候補領域23,24については、評価値が第1閾値Th1未満、第2閾値Th2以上であるため、対象注視判定部230の判定結果を利用し、歩行者候補領域23に対してドライバが注視したと判定される場合には、歩行者候補領域23は、歩行者画像であると識別される。一方、歩行者候補領域24に対してはドライバが注視していない場合には、歩行者候補領域24は、歩行者画像であると識別されない。
【0092】
次に、第2の実施の形態に係る歩行者画像収集処理ルーチンについて、図7を用いて説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
【0093】
まず、ステップ100において、前方撮像装置12から撮像画像を取得し、ステップ248において、ドライバ撮像装置212からドライバの顔画像を取得する。
【0094】
そして、ステップ104において、上記ステップ100で取得した撮像画像から歩行者候補領域を抽出すると共に、各歩行者候補領域に対する評価値を算出する。
【0095】
次のステップ250では、上記ステップ248で取得した顔画像に基づいて、ドライバの視線方向を計測する。そして、ステップ110では、抽出された複数の歩行者候補領域の中から、判定対象の歩行者候補領域を設定する。ステップ112では、上記ステップ104で算出された、判定対象の歩行者候補領域に対する評価値が、第1閾値Th1以上であるか否かを判定する。ステップ114では、判定対象の歩行者候補領域に対する評価値が、第1閾値Th1未満であって、第2閾値Th2以上であるか否かを判定する。判定対象の歩行者候補領域に対する評価値が、第1閾値Th1未満であって、第2閾値Th2以上である場合には、ステップ252において、判定対象の歩行者候補領域に対応する視線方向の範囲を算出する。次のステップ254では、上記ステップ250で所定回数前から現時点までに計測された視線方向の時系列データと、上記ステップ252で算出した視線方向の範囲とを比較して、ドライバの視線方向が、算出した視線方向の範囲内に所定時間以上停留したか否かを判定する。ドライバの視線方向が、算出した視線方向の範囲内に所定時間以上停留していない場合には、ステップ120へ移行する。
【0096】
一方、ドライバの視線方向が、算出した視線方向の範囲内に所定時間以上停留した場合には、歩行者画像であると識別し、ステップ118において、判定対象の歩行者候補領域を、歩行者画像として歩行者画像データベース38に記憶させる。
【0097】
ステップ120では、全ての歩行者候補領域について、上記ステップ110〜114、252、254、118の処理を実行したか否かを判定する。上記ステップ110〜114、252、254、118の処理を実行していない歩行者候補領域が存在する場合には、上記ステップ110へ戻り、上記の処理を実行していない歩行者候補領域を、判定対象として設定する。
【0098】
上記ステップ120において、全ての歩行者候補領域について、上記ステップ110〜114、252、254、118の処理を実行したと判定された場合には、ステップ122において、歩行者の検出結果として、歩行者画像であると識別された歩行者候補領域を示す枠を、撮像画像上に重畳して、表示装置70に表示させて、歩行者画像収集処理ルーチンを終了する。
【0099】
以上説明したように、第2の実施の形態に係る対象物検出装置によれば、歩行者候補領域の各々について、対象物検出部によって算出された評価値、及びドライバの視線方向が歩行者候補領域に停留したか否かの判定結果に基づいて、歩行者候補領域が歩行者画像であるか否かを識別することにより、対象物検出部の検出性能が低い場合であっても、歩行者画像を得ることができる。
【0100】
なお、上記の実施の形態において、抽出された歩行者候補領域の各々についてTTCを算出し、TTCを更に考慮して、歩行者画像であるか否かを識別するようにしてもよい。例えば、歩行者画像識別部234は、歩行者候補領域の各々に対して、算出された評価値が第1閾値Th1未満であるが、第2閾値Th2以上である場合、対象注視判定部230によって当該歩行者候補領域に対してドライバが注視したと判定され、かつ、当該歩行者候補領域が閾値以上であると、当該歩行者歩候補領域が、歩行者画像であると識別するようにしてもよい。
【0101】
次に、第3の実施の形態について説明する。なお、第1の実施の形態及び第2の実施の形態と同様となる部分については、同一符号を付して説明を省略する。
【0102】
第3の実施の形態では、回避する運転行動があったか否かの判定結果と、ドライバの視線方向が、歩行者候補領域に対応する範囲内に停留したか否かの判定結果とを用いて、歩行者画像であるか否かを識別している点が、第1の実施の形態と異なっている。
【0103】
図8に示すように、第3の実施の形態に係る対象物検出装置310は、前方撮像装置12と、車速センサ14と、ペダルセンサ16と、操舵センサ18と、ドライバ撮像装置212と、前方撮像装置12から得られる撮像画像から歩行者画像を収集して歩行者モデルを学習すると共に、前方撮像装置12から得られる撮像画像から歩行者を表わす領域を検出するコンピュータ320と、表示装置70とを備えている。
【0104】
コンピュータ320は、画像取得部25と、対象物検出部26と、危険度算出部28と、回避行動検出部30と、運転行動判定部32と、視線計測部228と、対象注視判定部230と、各歩行者候補領域について、対象物検出部26で算出された評価値、運転行動判定部32の判定結果、及び対象注視判定部230の判定結果に基づいて、歩行者画像であるか否かを識別する歩行者画像識別部334と、記憶制御部36と、歩行者画像データベース38と、非歩行者画像生成部50と、非歩行者画像データベース52と、特徴量抽出部54と、学習部56と、歩行者モデル記憶部58と、表示制御部60とを備えている。
【0105】
歩行者画像識別部334は、対象物検出部26において抽出された歩行者候補領域の各々に対して、算出された評価値と、運転行動判定部32の判定結果と、対象注視判定部230の判定結果とから、歩行者を表わす画像であるか否かを識別する。歩行者画像識別部334は、歩行者候補領域の各々に対して、算出された評価値が第1閾値Th1以上である場合、当該歩行者候補領域は、歩行者画像であると識別する。
【0106】
また、歩行者画像識別部334は、歩行者候補領域の各々に対して、算出された評価値が第1閾値Th1未満であるが、第2閾値Th2以上である場合、運転行動判定部32によって、当該歩行者候補領域に対して運転行動が変化したと判定されていると、当該歩行者歩候補領域が、歩行者画像であると識別する。また、歩行者画像識別部334は、歩行者候補領域の各々に対して、算出された評価値が第1閾値Th1未満であるが、第2閾値Th2以上である場合、対象注視判定部230によって、当該歩行者候補領域に対してドライバが注視したと判定されていると、当該歩行者歩候補領域が、歩行者画像であると識別する。
【0107】
また、歩行者画像識別部334は、歩行者候補領域の各々に対して、算出された評価値が第2閾値Th2未満であるが、第3閾値Th3(例えば0.01)以上である場合、運転行動判定部32によって、当該歩行者候補領域に対して運転行動が変化したと判定され、かつ、対象注視判定部230によって、当該歩行者候補領域に対してドライバが注視したと判定されていると、当該歩行者歩候補領域が、歩行者画像であると識別する。歩行者画像識別部334は、運転行動判定部32によって当該歩行者候補領域に対して運転行動が変化していないと判定された場合、又は対象注視判定部230によって当該歩行者候補領域に対してドライバが注視していないと判定された場合、当該歩行者歩候補領域が、歩行者画像でないと識別する。
【0108】
例えば、上記図2の歩行者候補領域23については、対象が歩行者であるにも関わらず、評価値が例えば0.01などの値であり、第2閾値Th2未満である。このとき、歩行者候補領域23に対するTTCが所定値以下、例えば2秒であり、かつ、ブレーキにより減速するなどの回避行動が検出され、歩行者候補領域23に対してドライバの運転行動が変化したと判定される。更に、歩行者候補領域23に対して、ドライバが視線を注視したと判定される。この場合、評価値が比較的低い値であっても、第3閾値Th3以上であるため、歩行者候補領域23は、歩行者画像であると識別される。
【0109】
次に、第3の実施の形態に係る歩行者画像収集処理ルーチンを、図9、10を用いて説明する。なお、第1の実施の形態及び第2の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
【0110】
まず、ステップ100において、前方撮像装置12から撮像画像を取得し、ステップ102において、車速センサ14、ペダルセンサ16、及び操舵センサ18からの各出力を取得する。次のステップ248において、ドライバ撮像装置212からドライバの顔画像を取得する。
【0111】
そして、ステップ104において、上記ステップ100で取得した撮像画像から歩行者候補領域を抽出すると共に、各歩行者候補領域に対する評価値を算出する。次のステップ106では、上記ステップ104で抽出された歩行者候補領域の各々について、歩行者候補領域が表わす物体に対するTTCを算出する。そして、ステップ108において、上記ステップ102において所定回数前から現時点までに取得された各種操作量の時系列データに基づいて、衝突を回避する回避行動を検出する。
【0112】
次のステップ250では、上記ステップ248で取得した顔画像に基づいて、ドライバの視線方向を計測する。そして、ステップ110では、抽出された複数の歩行者候補領域の中から、判定対象の歩行者候補領域を設定する。ステップ112では、上記ステップ104で算出された、判定対象の歩行者候補領域に対する評価値が、第1閾値Th1以上であるか否かを判定する。ステップ114において、判定対象の歩行者候補領域に対する評価値が、第1閾値Th1未満であって、第2閾値Th2以上であるか否かを判定する。判定対象の歩行者候補領域に対する評価値が、第2閾値Th2未満である場合には、後述するステップ352へ移行する。一方、判定対象の歩行者候補領域に対する評価値が、第1閾値Th1未満であって、第2閾値Th2以上である場合には、ステップ252において、判定対象の歩行者候補領域に対応する視線方向の範囲を算出する。
【0113】
次のステップ350では、判定対象の歩行者候補領域に対するTTCが、所定値以下であって、かつ、上記ステップ108で回避行動が検出されたか否か、又は、ドライバの視線方向が、算出した視線方向の範囲内に所定時間以上停留したか否かを判定する。判定対象の歩行者候補領域に対するTTCが、所定値未満である場合、又は上記ステップ108で回避行動が検出されなかった場合には、ステップ120へ移行する。また、ドライバの視線方向が、算出した視線方向の範囲内に所定時間以上停留していない場合には、ステップ120へ移行する。
【0114】
一方、判定対象の歩行者候補領域に対するTTCが、所定値以下であって、かつ、上記ステップ108で回避行動が検出された場合、あるいは、ドライバの視線方向が、算出した視線方向の範囲内に所定時間以上停留した場合には、歩行者画像であると識別し、ステップ118へ移行する。
【0115】
ステップ352では、判定対象の歩行者候補領域に対する評価値が、第2閾値Th2未満であって、第3閾値Th3以上であるか否かを判定する。判定対象の歩行者候補領域に対する評価値が、第3閾値Th3未満である場合には、ステップ120へ移行する。一方、判定対象の歩行者候補領域に対する評価値が、第2閾値Th2未満であって、第3閾値Th3以上である場合には、ステップ354において、判定対象の歩行者候補領域に対するTTCが、所定値以下であって、かつ、上記ステップ108で回避行動が検出され、かつ、ドライバの視線方向が、算出した視線方向の範囲内に所定時間以上停留したか否かを判定する。判定対象の歩行者候補領域に対するTTCが、所定値未満である場合、又は上記ステップ108で回避行動が検出されなかった場合には、ステップ120へ移行する。また、ドライバの視線方向が、算出した視線方向の範囲内に所定時間以上停留していない場合には、ステップ120へ移行する。
【0116】
一方、判定対象の歩行者候補領域に対するTTCが、所定値以下であって、かつ、上記ステップ108で回避行動が検出され、かつ、ドライバの視線方向が、算出した視線方向の範囲内に所定時間以上停留した場合には、歩行者画像であると識別し、ステップ118へ移行する。
【0117】
ステップ118において、判定対象の歩行者候補領域を、歩行者画像として歩行者画像データベース38に記憶させる。ステップ120では、全ての歩行者候補領域について、上記ステップ110〜114、252、350〜354、118の処理を実行したか否かを判定する。上記ステップ110〜114、252、350〜354、118の処理を実行していない歩行者候補領域が存在する場合には、上記ステップ110へ戻り、上記の処理を実行していない歩行者候補領域を、判定対象として設定する。
【0118】
上記ステップ120において、全ての歩行者候補領域について、上記ステップ110〜114、252、350〜354、118の処理を実行したと判定された場合には、ステップ122において、歩行者の検出結果として、歩行者画像であると識別された歩行者候補領域を示す枠を、撮像画像上に重畳して、表示装置70に表示させて、歩行者画像収集処理ルーチンを終了する。
【0119】
以上説明したように、第3の実施の形態に係る対象物検出装置によれば、歩行者候補領域の各々について、対象物検出部によって算出された評価値、歩行者候補領域が表わす物体との衝突を回避するためのドライバの運転行動があったか否かの判定結果、及びドライバの視線方向が歩行者候補領域に停留したか否かの判定結果に基づいて、歩行者候補領域が歩行者画像であるか否かを識別することにより、対象物検出部の検出性能が低い場合であっても、歩行者画像を得ることができる。
【0120】
また、ドライバの運転行動および注視行動の両者から、歩行者候補領域が、歩行者らしいと判定された場合は、評価値が比較的低い値であっても、当該歩行者候補領域の画像を正検出として教師画像データベースに登録する。これによって、対象物検出部が十分な検出性能を有していない場合であっても、誤検出、未検出することなく、教師画像を収集することが可能になる。
【0121】
なお、上記の第1の実施の形態〜第3の実施の形態では、すべての歩行者画像及び非歩行者画像を用いて、一括で学習処理を行い、歩行者モデルを生成する場合について説明したが、これに限定されるものではない。例えば、既に生成された歩行者モデルに対して、新たに追加された教師データ(歩行者画像)を用いて歩行者モデルを更新する、公知の逐次型の学習方法を利用しても良い。
【0122】
また、SVM識別器を用いて、歩行者を表わす領域を検出する場合を例に説明したが、これに限定されるものではなく、ニューラルネットワーク(NN:Neural Network)などの従来既知の他の識別手法を用いて、歩行者を表わす領域を検出するようにしてもよい。最近傍法を用いた場合には、歩行者モデルとして、結合係数が学習される。
【0123】
また、ドライバの各種操作量に基づいて、ドライバの回避行動を検出する場合を例に説明したが、これに限定されるものではなく、車速や加速度、角速度などの走行状態を検出して、ドライバの回避行動を検出するようにしてもよい。また、ドライバの各種操作量、及び車両の走行状態の双方に基づいて、ドライバの回避行動を検出するようにしてもよい。
【0124】
また、衝突危険度としてTTCを算出した場合を例に説明したが、これに限定されるものではなく、TTC以外の指標を、衝突危険度として算出するようにしてもよい。
【0125】
また、検出対象物が歩行者である場合を例に説明したが、これに限定されるものではなく、歩行者以外の物体を検出対象物としてもよい。
【0126】
また、対象物検出装置において、歩行者モデルの学習を行う場合を例に説明したが、これに限定されるものではなく、歩行者画像を収集する対象物検出装置とは別の装置で、収集された歩行者画像及び非歩行者画像に基づいて、歩行者モデルの学習を行うようにしてもよい。
【0127】
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムをCDROM等の記憶媒体に格納して提供することも可能である。
【符号の説明】
【0128】
10、210、310 対象物検出装置
12 前方撮像装置
14 車速センサ
16 ペダルセンサ
18 操舵センサ
20、220、320 コンピュータ
26 対象物検出部
28 危険度算出部
30 回避行動検出部
32 運転行動判定部
34、234、334 歩行者画像識別部
38 歩行者画像データベース
46 評価値算出部
48 歩行者候補抽出部
52 非歩行者画像データベース
56 学習部
58 歩行者モデル記憶部
212 ドライバ撮像装置
228 視線計測部
230 対象注視判定部

【特許請求の範囲】
【請求項1】
自車両の前方を撮像する撮像手段と、
ドライバが自車両を操作したときの操作状態、又は自車両の走行状態を検出する検出手段と、
前記撮像手段によって撮像された画像から、検出対象物を表わす領域の候補である対象物候補領域を抽出すると共に、前記対象物候補領域の前記検出対象物らしさの度合いを表わす評価値を算出する対象物検出手段と、
前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記検出手段によって検出された前記操作状態又は前記走行状態に基づいて、前記対象物候補領域が表わす物体との衝突を回避するための前記ドライバの運転行動があったか否かを判定する回避行動判定手段と、
前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値、及び前記回避行動判定手段による前記対象物候補領域に対する判定結果に基づいて、前記対象物候補領域が前記検出対象物を表わす画像であるか否かを識別する識別手段と、
を含む画像識別装置。
【請求項2】
前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記検出手段によって検出された自車両の走行状態に基づいて、前記対象物候補領域が表わす物体と自車両との衝突危険度を算出する衝突危険度算出手段を更に含み、
前記回避行動判定手段は、前記検出手段によって検出された前記操作状態又は前記走行状態に基づいて、物体との衝突を回避するための前記ドライバの運転行動を検出し、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記衝突危険度算出手段によって算出された前記対象物候補領域に対する衝突危険度が所定値以上であって、かつ、前記ドライバの運転行動を検出した場合、前記対象物候補領域が表わす物体との衝突を回避するための前記ドライバの運転行動があったと判定する請求項1記載の画像識別装置。
【請求項3】
前記識別手段は、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値が第1閾値以上であるとき、前記対象物候補領域が前記検出対象物を表わす画像であると識別し、前記対象物候補領域の前記評価値が第1閾値より小さい第2閾値未満であるとき、前記対象物候補領域が前記検出対象物を表わす画像でないと識別し、前記対象物候補領域の前記評価値が第1閾値未満であって、かつ、第2閾値以上であるとき、前記回避行動判定手段によって前記対象物候補領域が表わす物体との衝突を回避するための前記ドライバの運転行動があったと判定されると、前記対象物候補領域が前記検出対象物を表わす画像であると識別する請求項1又は2記載の画像識別装置。
【請求項4】
自車両の前方を撮像する撮像手段と、
自車両のドライバの視線方向を計測する計測手段と、
前記撮像手段によって撮像された画像から、検出対象物を表わす領域の候補である対象物候補領域を抽出すると共に、前記対象物候補領域の前記検出対象物らしさの度合いを表わす評価値を算出する対象物検出手段と、
前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記計測手段によって計測されたドライバの視線方向が、前記対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したか否かを判定する視線判定手段と、
前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値、及び前記視線判定手段による前記対象物候補領域に対する判定結果に基づいて、前記対象物候補領域が前記検出対象物を表わす画像であるか否かを識別する識別手段と、
を含む画像識別装置。
【請求項5】
前記識別手段は、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値が第1閾値以上であるとき、前記対象物候補領域が前記検出対象物を表わす画像であると識別し、前記対象物候補領域の前記評価値が第1閾値より小さい第2閾値未満であるとき、前記対象物候補領域が前記検出対象物を表わす画像でないと識別し、前記対象物候補領域の前記評価値が第1閾値未満であって、かつ、第2閾値以上であるとき、前記視線判定手段によって前記ドライバの視線方向が前記対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したと判定されると、前記対象物候補領域が、前記検出対象物を表わす画像であると識別する請求項4記載の画像識別装置。
【請求項6】
前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記検出手段によって検出された自車両の走行状態に基づいて、前記対象物候補領域が表わす物体と自車両との衝突危険度を算出する衝突危険度算出手段を更に含み、
前記識別手段は、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値、前記視線判定手段による前記対象物候補領域に対する判定結果、及び前記衝突危険度算出手段によって算出された前記対象物候補領域に対する衝突危険度に基づいて、前記対象物候補領域が、前記検出対象物を表わす画像であるか否かを識別する請求項4又は5記載の画像識別装置。
【請求項7】
自車両のドライバの視線方向を計測する計測手段と、
前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記計測手段によって計測されたドライバの視線方向が、前記対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したか否かを判定する視線判定手段と、を更に含み、
前記識別手段は、前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値、前記回避行動判定手段による前記対象物候補領域に対する判定結果、及び前記視線判定手段による前記対象物候補領域に対する判定結果に基づいて、前記対象物候補領域が、前記検出対象物を表わす画像であるか否かを識別する請求項1又は2記載の画像識別装置。
【請求項8】
前記識別手段は、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値が第1閾値以上であるとき、前記対象物候補領域が前記検出対象物を表わす画像であると識別し、前記対象物候補領域の前記評価値が第1閾値未満であって、かつ、第1閾値より小さい第2閾値以上であるとき、前記回避行動判定手段によって前記対象物候補領域が表わす物体との衝突を回避するための前記ドライバの運転行動があったと判定され、又は、前記視線判定手段によって前記ドライバの視線方向が前記対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したと判定されると、前記対象物候補領域が前記検出対象物を表わす画像であると識別し、前記対象物候補領域の前記評価値が第2閾値より小さい第3閾値未満であるとき、前記対象物候補領域が前記検出対象物を表わす画像でないと識別し、前記対象物候補領域の前記評価値が第2閾値未満であって、かつ、第3閾値以上であるとき、前記回避行動判定手段によって前記対象物候補領域が表わす物体との衝突を回避するための前記ドライバの運転行動があったと判定され、かつ、前記視線判定手段によって前記ドライバの視線方向が前記対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したと判定されると、前記対象物候補領域が前記検出対象物を表わす画像であると識別する請求項7記載の画像識別装置。
【請求項9】
前記対象物検出手段は、前記検出対象物を検出するために予め生成された対象物モデルと前記対象物候補領域とを比較することにより、前記対象物候補領域の前記評価値を算出する請求項1〜請求項8の何れか1項記載の画像識別装置。
【請求項10】
前記識別手段によって前記検出対象物を表わす画像であると識別された前記対象物候補領域の画像を複数記憶した記憶手段と、
前記記憶手段に記憶された前記複数の画像に基づいて、前記対象物モデルを学習する学習手段と、を更に含み、
前記対象物検出手段は、前記学習手段によって学習された前記対象物モデルと前記対象物候補領域とを比較することにより、前記対象物候補領域の前記評価値を算出する請求項9記載の画像識別装置。
【請求項11】
コンピュータを、
自車両の前方を撮像する撮像手段によって撮像された画像から、検出対象物を表わす領域の候補である対象物候補領域を抽出すると共に、前記対象物候補領域の前記検出対象物らしさの度合いを表わす評価値を算出する対象物検出手段、
前記対象物検出手段によって抽出された前記対象物候補領域の各々について、ドライバが自車両を操作したときの操作状態、又は自車両の走行状態を検出する検出手段によって検出された前記操作状態又は前記走行状態に基づいて、前記対象物候補領域が表わす物体との衝突を回避するための前記ドライバの運転行動があったか否かを判定する回避行動判定手段、及び
前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値、及び前記回避行動判定手段による前記対象物候補領域に対する判定結果に基づいて、前記対象物候補領域が前記検出対象物を表わす画像であるか否かを識別する識別手段
として機能させるためのプログラム。
【請求項12】
コンピュータを、
自車両のドライバの視線方向を計測する計測手段、
自車両の前方を撮像する撮像手段によって撮像された画像から、検出対象物を表わす領域の候補である対象物候補領域を抽出すると共に、前記対象物候補領域の前記検出対象物らしさの度合いを表わす評価値を算出する対象物検出手段、
前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記計測手段によって計測されたドライバの視線方向が、前記対象物候補領域に対応する視線方向の範囲内に所定時間以上継続して存在したか否かを判定する視線判定手段、及び
前記対象物検出手段によって抽出された前記対象物候補領域の各々について、前記対象物検出手段によって算出された前記対象物候補領域の前記評価値、及び前記視線判定手段による前記対象物候補領域に対する判定結果に基づいて、前記対象物候補領域が前記検出対象物を表わす画像であるか否かを識別する識別手段
として機能させるためのプログラム。

【図1】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図2】
image rotate


【公開番号】特開2012−123642(P2012−123642A)
【公開日】平成24年6月28日(2012.6.28)
【国際特許分類】
【出願番号】特願2010−274016(P2010−274016)
【出願日】平成22年12月8日(2010.12.8)
【出願人】(000003609)株式会社豊田中央研究所 (4,200)
【Fターム(参考)】