説明

車両周辺監視装置

【課題】車両周辺の画像から該車両との接触を回避すべき対象となる歩行者等の対象物を迅速に判定して、運転者への情報提示や車両挙動の制御を行うことができる車両周辺監視装置を提供する。
【解決手段】撮像手段2R,2Lを介して取得した画像から、車両10の周辺に存在する対象物を抽出する対象物抽出手段11と、抽出された対象物のうちから歩行者を抽出する歩行者抽出手段12と、抽出された歩行者の姿勢を判別する姿勢判別手段13と、少なくとも姿勢判別手段13により判別された歩行者の姿勢に関する第1判定処理を含む判定アルゴリズムを実行することにより、抽出された対象物が車両10との接触を回避すべき回避対象であるか否かを判定する回避対象判定手段14と、少なくとも回避対象判定手段14の判定結果に応じて、車両10の機器を制御する車両機器制御手段15とを備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両に搭載されたカメラ等の撮像手段を介して取得した画像から、車両の周辺を監視する車両周辺監視装置に関する。
【背景技術】
【0002】
近年、車両にCCDカメラ等の撮像手段を搭載して周辺を撮像し、撮像された画像から車両の周辺に存在する歩行者等の対象物の位置を検出して衝突の可能性の高い歩行者等の対象物を判定し、運転者への情報の提示等を行う技術が知られている(例えば特許文献1参照)。
【0003】
特許文献1の車両の周辺監視装置においては、2つの赤外線カメラで構成されたステレオカメラが車両に搭載され、2つの赤外線カメラから得られる画像のずれ(視差)に基づいて、車両の周辺に存在する対象物の該車両に対する相対位置が位置データとして検出される。そして、対象物についての位置の時系列データに基づいて該対象物の該車両に対する移動ベクトルが算出され、対象物の位置データと移動ベクトルとに基づいて該車両と衝突する可能性の高い対象物が判定される。
【0004】
このとき、前記車両の周辺監視装置では、車両前方の所定距離(対象物の車両に対する相対速度に応じて定まる領域)内である警報判定領域のうち、車両の走行する車道部分に相当する接近判定領域AR1と、接近判定領域AR1の横方向外側の領域である進入判定領域AR2,AR3とが設定される。そして、接近判定領域AR1に対象物が存在する場合には、該対象物は車道上の歩行者等であり、車両と衝突の可能性が高いと判定される。さらに、進入判定領域AR2,AR3に対象物が存在する場合には、該対象物は路側の歩行者等であり、該対象物の移動ベクトルに基づいて進入衝突判定が行われ、該対象物と車両との衝突の可能性が判定される。これにより、路側を通常に歩行している歩行者については衝突の可能性が低いと判定され、路側から道路を横断しようと移動する歩行者については衝突の可能性が高いと判定されて、運転者への適切な情報提示が行われる。
【0005】
一方、例えば、路側の歩行者が急に車道へ飛び出すことがある。このような場合には、可能な限り迅速に運転者への情報提示や車両挙動の制御が行われることが望ましい。しかしながら、特許文献1の車両の周辺監視装置では、複数の時系列の位置データから算出した移動ベクトルに基づいて、進入判定領域に存在する対象物の衝突の可能性が判定されため、衝突の可能性が高いと判定されるまでに時間を要する。よって、路側の歩行者が急に車道へ飛び出すような場合に、運転者への情報提示や車両挙動の制御を迅速に行うことができないという不都合があった。
【特許文献1】特開2001−6096号公報
【発明の開示】
【発明が解決しようとする課題】
【0006】
本発明は、かかる不都合を解消し、車両周辺の画像から該車両との接触を回避すべき対象となる歩行者を迅速に判定して、運転者への情報提示や車両挙動の制御を行うことができる車両周辺監視装置を提供することを目的とする。
【課題を解決するための手段】
【0007】
かかる目的を達成するために、本発明の車両周辺監視装置は、車両に搭載された撮像手段を介して取得した画像から、該車両の周辺を監視する車両周辺監視装置において、前記撮像手段を介して取得した画像から、前記車両の周辺に存在する対象物を抽出する対象物抽出手段と、前記対象物抽出手段により抽出された対象物のうちから歩行者を抽出する歩行者抽出手段と、前記歩行者抽出手段により抽出された歩行者の姿勢を判別する姿勢判別手段と、少なくとも前記姿勢判別手段により判別された歩行者の姿勢に関する第1判定処理を含む判定アルゴリズムを実行することにより、前記対象物抽出手段により抽出された対象物が、前記車両との接触を回避すべき回避対象であるか否かを判定する回避対象判定手段と、少なくとも前記回避対象判定手段の判定結果に応じて、前記車両の機器を制御する車両機器制御手段とを備えることを特徴とする(第1発明)。
【0008】
前記本発明の車両周辺監視装置において、前記対象物抽出手段により、前記撮像手段を介して取得した画像から前記車両の周辺に存在する対象物が抽出され、前記歩行者抽出手段により、該対象物のうちの歩行者が抽出される。ここで、例えば、路側の歩行者が急に車道へ飛び出すような場合には、運転者への警報等の情報提示や車両挙動の制御等が、可能な限り迅速に行われる必要がある。このため、歩行者の道路の横断を事前に迅速に予測することが望まれる。このとき、一般に、道路を横断しようとする歩行者とそれ以外の歩行者とでは、路側に存在する時点で、体の向きや傾き等に関する姿勢が相違すると考えられる。例えば、歩行者が移動を開始するときや車道に飛び出してくるようなときには、その体幹軸は進行方向に対して傾いており、これに対して、歩行者が停止しているときや道路に沿って移動を継続しているときには、その体幹軸の傾きは十分に小さい。
【0009】
そこで、前記姿勢判定手段は、前記撮像手段を介して取得した画像から、前記歩行者の姿勢を判別する。このように判別された歩行者の姿勢により、例えば道路の横断等の歩行者の挙動を事前に迅速に予測することができる。そして、前記回避対象判定手段の実行する判定アルゴリズムは、前記歩行者の姿勢に関する第1判定処理を含むので、該回避対象判定手段は、対象物が車両との接触を回避すべき回避対象であるか否かを判定する際に、迅速に判定結果を決定することが可能となる。よって、前記車両機器制御手段により、前記回避対象判定手段の判定結果に応じて前記車両の機器を制御することで、前記回避対象に対応して該車両の機器の制御を迅速に行うことができる。
【0010】
具体的には、前記本発明の車両周辺監視装置において、前記車両機器制御手段の制御する機器は、前記車両の運転者に警報を発することが可能な機器を含むことが好ましい(第2発明)。
【0011】
これによれば、前記回避対象判定手段により、前記対象物が回避対象であるか否かが迅速に判定可能なので、前記車両機器制御手段により、該回避対象に対応して、運転者への警報を迅速に発することができる。
【0012】
または、前記本発明の車両周辺監視装置において、前記車両機器制御手段の制御する機器は、前記車両の走行挙動を操作可能な機器を含むことが好ましい(第3発明)。
【0013】
これによれば、前記回避対象判定手段により、前記対象物が回避対象であるか否かが迅速に判定可能なので、前記車両機器制御手段により、該回避対象に対応して、車両の走行挙動を迅速に操作することができる。
【0014】
さらに、前記第1〜第3発明の車両周辺監視装置において、前記対象物抽出手段により抽出された対象物の、前記車両に対する相対位置を逐次検出する相対位置検出手段と、前記姿勢判別手段の判別処理の実行周期よりも長い時間間隔において、前記相対位置検出手段により検出された前記対象物の相対位置の時系列に基づいて、該対象物の前記車両に対する移動方向を表す移動方向特徴量を算出する移動方向特徴量算出手段とを備える場合には、前記回避対象判定手段の実行する判定アルゴリズムは、前記第1判定処理と共に、前記移動方向特徴量算出手段により算出された前記対象物の移動方向特徴量に関する第2判定処理を含み、該第1判定処理は、前記歩行者の姿勢が所定の第1要件を満たすか否かを判定する処理であり、該第2判定処理は、該対象物の移動方向特徴量が所定の第2要件を満たすか否かを判定する処理であり、前記回避対象判定手段は、前記対象物の移動方向特徴量に関する第2判定処理の判定結果が前記第2要件を満たす場合と、該第2判定処理の判定結果が該第2要件を満たさず、且つ、前記歩行者の姿勢に関する第1判定処理の判定結果が前記第1要件を満たす場合とに、前記対象物が回避対象であると判定することが好ましい(第4発明)。
【0015】
これによれば、前記回避対象判定手段が実行する判定アルゴリズムは、前記移動方向特徴量に関する第2判定処理を含むので、信頼性の高い判定結果を決定することが可能となる。ただし、前記移動方向特徴量の算出は、前記姿勢判別手段の判別処理の実行周期よりも長い時間間隔で行われるので、回避対象判定手段の判定結果の決定に時間を要する。一方、前記回避対象判定手段の実行する判定アルゴリズムは、前記歩行者の姿勢に関する第1判定処理も含むので、迅速に判定結果を決定することが可能である。そこで、前記回避対象判定手段は、前記対象物の移動方向特徴量に関する第2判定処理の判定結果が前記第2要件を満たす場合と、該第2判定処理の判定結果が該第2要件を満たさず、且つ、前記歩行者の姿勢に関する第1判定処理の判定結果が前記第1要件を満たす場合とに、前記対象物が回避対象であると判定する。
【0016】
これにより、前記回避対象判定手段は、移動方向特徴量に基づく信頼性の高い判定結果が得られた場合には、該判定結果に基づいて対象物が回避対象であるか否かを判定すると共に、例えば移動方向特徴量を算出するための十分な時間がない場合でも、歩行者の姿勢に基づく迅速な判定結果に基づいて、対象物が回避対象であるか否かを判定することが可能である。よって、対象物が車両との接触を回避すべき回避対象であるか否かをより確実に判定することができる。
【0017】
なお、前記第1要件は、例えば、対象物の移動する方向が自車両に向かってくる方向であるというような要件である。また、前記第2要件は、例えば、対象物が歩行者であり、且つ、該歩行者の姿勢が、自車両の走行する車線の中心側への前傾姿勢であるというような要件である。
【0018】
さらに、前記第4発明の車両周辺監視装置において、前記車両機器制御手段は、前記対象物の移動方向特徴量に関する第2判定処理の判定結果が前記第1要件を満たす場合と、該第2判定処理の判定結果が該第1要件を満たさず、且つ、前記歩行者の姿勢に関する第1判定処理の判定結果が前記第2要件を満たす場合とで、前記車両の機器を互いに異なる形態で制御することが好ましい(第5発明)。
【0019】
すなわち、前記対象物の移動方向特徴量に関する第2判定処理の判定結果が前記第1要件を満たす場合と、該第2判定処理の判定結果が該第1要件を満たさず、且つ、前記歩行者の姿勢に関する第1判定処理の判定結果が前記第2要件を満たす場合とでは、前記回避対象判定手段による最終的な判定結果の信頼性や回避の緊急性等が異なる。よって、前記車両機器制御手段により、各場合毎に前記車両の機器を互いに異なる形態で制御することで、運転者への情報提示や車両挙動の制御をより適切に行うことができる。
【0020】
例えば、前記車両機器制御手段の制御する機器が、前記車両の運転者に警報を発することが可能な機器である場合には、該車両機器制御手段は、各場合毎に異なる警報の仕方で、運転者に警報を発すればよい。
【0021】
また、前記第1〜第5発明の車両周辺監視装置において、前記姿勢判別手段は、前記画像上での前記歩行者の、前記車両の左右方向における対称性を、該歩行者の姿勢を表す特徴量とし、その対称性の度合を判別する手段であることが好ましい(第6発明)。
【0022】
すなわち、一般に、道路を横断しようとする歩行者の姿勢は、車両の走行する車線の中心側への前傾姿勢となる。このとき、車両に搭載された撮像手段を介して取得された画像上において、前記歩行者の頭部を中心として、該歩行者に相当する領域のうちの車線の中心側に近い部分と反対側の部分とでは、対称性の度合が低くなると考えられる。すなわち、前記画像上での前記歩行者の、前記車両の左右方向における対称性は、該歩行者が道路を横断しようとする姿勢であるか否か(前傾姿勢であるか否か)に密接に関わる特徴量である。よって、前記対称性の度合を用いることで、例えば歩行者の姿勢が車両の走行する車線の中心側への前傾姿勢であるか否か等が判るので、道路の横断等の歩行者の挙動が迅速に予測される。従って、前記回避対象判定手段により、前記第1判定処理において、前記姿勢判別手段により判別された前記対称性の度合に基づいて、該歩行者が回避すべき対象であるか否かを判定することで、道路の横断等の歩行者の挙動を迅速に予測して、該歩行者が車両との接触を回避すべき対象であるか否かを迅速に判定することができる。
【0023】
または、前記第1〜第5発明の車両周辺監視装置において、前記姿勢判別手段は、前記歩行者の体幹軸の傾きを、該歩行者の姿勢を表す特徴量とし、その傾きの度合を判別する手段であることが好ましい(第7発明)。
【0024】
すなわち、前記歩行者の体幹軸の傾き(体幹軸の方向や角度)は、該歩行者の体幹軸の傾きに関する姿勢を表す特徴量であり、その傾きの度合から、例えば歩行者の姿勢が車両の走行する車線の中心側への前傾姿勢であるか否か等が判る。このとき、一般に、道路を横断しようとする歩行者の姿勢は、車両の走行する車線の中心側への前傾姿勢(その体幹軸を車両の走行する車線の中心側へ前傾させた姿勢)となるので、前記体幹軸の傾きの度合から、道路の横断等の歩行者の挙動が迅速に予測される。従って、前記回避対象判定手段により、前記第1判定処理において、前記姿勢判別手段により判別された前記体幹軸の傾きの度合に基づいて、該歩行者が回避対象であるか否かを判定することで、道路の横断等の歩行者の挙動を迅速に予測して、該歩行者が車両との接触を回避すべき対象であるか否かを迅速に判定することができる。
【発明を実施するための最良の形態】
【0025】
本発明の一実施形態を添付の図面を参照して説明する。図1は、本実施形態による車両周辺監視装置の機能ブロック図であり、図2は、図1に示した車両周辺監視装置の車両への取り付け態様の説明図であり、図3は、図1の車両周辺監視装置における対象物検出・警報動作を示すフローチャートである。また、図4は、図3の対象物検出・警報動作における処理画像の例示図である。
【0026】
図1,2を参照して、本実施形態の車両周辺監視装置は、CPU(中央演算装置)を備えた電子ユニットである画像処理ユニット1を有する。画像処理ユニット1には、自車両10に搭載された、2つの赤外線カメラ2R,2Lと、自車両10のヨーレートを検出するヨーレートセンサ3と、自車両10の走行速度(車速)を検出する車速センサ4と、自車両10のブレーキの操作を検出するためのブレーキセンサ5とが接続されている。
【0027】
また、画像処理ユニット1には、車両周辺監視装置に備えられた、音声で警報を発するためのスピーカ6と、赤外線カメラ2R,2Lを介して取得される画像を表示し、衝突の可能性が高い対象物を運転者に認識させるための表示装置7とが接続されている。表示装置7は、例えば、自車両10のフロントウィンドウに画像等の情報を表示するHUD(ヘッドアップディスプレイ)7a等を備えている。HUD7aは、自車両10のフロントウィンドウの運転者の前方視界を妨げない位置に画面が表示されるように設けられている。
【0028】
赤外線カメラ2R,2Lは、遠赤外線を検出可能なカメラであり、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。なお、赤外線カメラ2R,2Lは、本発明の撮像手段に相当する。
【0029】
図2に示すように、赤外線カメラ2R,2Lは、自車両10の前部の右側及び左側に、自車両10の車幅方向中心部に対してほぼ対称な位置に配置されている。赤外線カメラ2R,2Lは、2つの2つの赤外線カメラ2R,2Lの光軸が互いに平行であって、且つ、両者の路面からの高さが等しくなるように自車両10に固定されている。
【0030】
画像処理ユニット1は、詳細の図示は省略するが、A/D変換回路、CPU、RAM、ROM、画像メモリ等を含む電子回路により構成され、赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4及びブレーキセンサ5の出力(アナログ信号)がA/D変換回路を介してデジタル信号に変換されて入力される。そして、画像処理ユニット1は、入力されたデータを基に、歩行者等の対象物を検出する処理や、その検出した対象物に関する所定要件が満たされるか否かを判定し、該要件が満たされる場合にスピーカ6や表示装置7を介して運転者に警報を発する処理等を実行する。
【0031】
より詳しくは、画像処理ユニット1は、その機能として、取得された画像から自車両10の周辺に存在する対象物を抽出する対象物抽出手段11と、抽出された対象物のうちから歩行者を抽出する歩行者抽出手段12と、抽出された歩行者の姿勢を判別する姿勢判別手段13と、対象物が自車両10との接触を回避すべき回避対象であるか否かを判定する回避対象判定手段14と、回避対象判定手段14の判定結果に応じて自車両10の機器を制御する車両機器制御手段15とを備えている。また、画像処理ユニット1は、その機能として、対象物の自車両10に対する相対位置を逐次検出する相対位置検出手段16と、対象物の移動方向特徴量を算出する移動方向特徴量算出手段17とを備える。
【0032】
対象物抽出手段11は、赤外線カメラ2R,2Lを介して取得された画像から、自車両10の周辺に存在する対象物を抽出する。具体的には、対象物抽出手段11は、赤外線カメラ2R,2Lを介して取得された画像のうちの所定の基準画像(本実施形態では、赤外線カメラ2Rを介して取得された画像とする)に2値化処理を施して、基準画像内の画素の輝度値が所定閾値以上である2値化領域が抽出する。さらに、対象物抽出手段11は、2値化領域からランレングスデータを作成し、ランレングスデータに基づいてラベリング処理等により対象物を抽出する。
【0033】
相対位置検出手段16は、基準画像上で対象物抽出手段11により抽出された対象物に対応する対象物を赤外線カメラ2Lを介して取得された画像上で探索し、2つの赤外線カメラ2R,2Lから得られる画像上での対象物のずれ(視差)に基づいて、対象物の自車両10に対する距離を検出し、実空間座標に変換して、対象物の車両10に対する相対位置を検出する。なお、画像に基づいて対象物の相対位置を検出する具体的な手法としては、例えば、上述の特許文献1に記載したような手法を用いることができる。
【0034】
移動方向特徴量算出手段17は、相対位置検出手段16により検出された対象物の相対位置の時系列に基づいて、対象物の自車両10に対する移動方向を表す移動方向特徴量を算出する。具体的には、移動方向特徴量算出手段17は、移動方向特徴量として、対象物の自車両10に対する相対位置の時系列データから、対象物の自車両10に対する移動ベクトルを算出する。なお、移動ベクトルの算出には、所定期間分の時系列データを要する。
【0035】
歩行者抽出手段12は、対象物抽出手段11により抽出された対象物のうちから歩行者を抽出する。歩行者を抽出する手法としては、例えば、対象物の縦横比や、対象物の面積と該対象物の外接四角形の面積との比等の、対象物の形状を示す特徴や、対象物の大きさ、グレースケール画像上での輝度分散等の特徴に基づいて、対象物が歩行者であるか否かを判定する手法が用いられる。
【0036】
姿勢判別手段13は、歩行者抽出手段12により抽出された歩行者の体幹軸の傾きを、該歩行者の姿勢を表す特徴量とし、その傾きの度合を判別する。なお、歩行者の体幹軸を算出する手法としては、例えば、まず、取得された画像内の画素の輝度値が所定閾値以上である2値化領域からランレングスデータを作成する。そして、作成されたランレングスデータの各ラインの中点の画素の座標で構成される点列データを算出し、点列データを近似する近似直線を歩行者の体幹軸とする手法を用いる。なお、姿勢判別手段13による判別処理は、逐次(演算処理周期毎に)実行される。
【0037】
回避対象判定手段14は、対象物抽出手段11により抽出された対象物が自車両10との接触を回避すべき回避対象であるか否かを判定する。このとき、回避対象判定手段14の実行する判定アルゴリズムには、姿勢判別手段13により判別された歩行者の姿勢に関する第1判定処理と、移動方向特徴量算出手段17により算出された対象物の移動方向特徴量に関する第2判定処理とが含まれる。
【0038】
車両機器制御手段15は、回避対象判定手段14により回避対象であると判定された対象物について、自車両10の運転者に警報を発する。具体的には、車両機器制御手段15は、スピーカ6を介して音声案内を出力したり、表示装置7に対して例えば赤外線カメラ2Rにより得られる画像を出力し、その画像上で回避対象である歩行者等の対象物を強調して自車両10の運転者に表示する。なお、スピーカ6、表示装置7が、本発明による車両機器制御手段の制御する機器に相当する。
【0039】
次に、本実施形態の車両周辺監視装置の全体的な作動(対象物検出・警報動作)を、図3に示したフローチャートに従って説明する。図3を参照して、画像処理ユニット1は、所定の演算処理周期毎に、STEP001〜STEP020の処理を繰り返して、対象物検出・警報動作を実行する。まず、画像処理ユニット1は、赤外線カメラ2R,2Lの出力信号である赤外線画像を取得して(STEP001)、A/D変換し(STEP002)、グレースケール画像を画像メモリに格納する(STEP003)。なお、赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。右画像と左画像とでは、同一の対象物の画像上での横方向(x方向)の位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
【0040】
次に、画像処理ユニット1は、グレースケール画像のうちの基準画像(本実施形態では赤外線カメラ2Rにより得られた画像とする)に対して、その画像信号を2値化する(STEP004)。すなわち、基準画像の画像信号の輝度値が閾値Ithより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理が行われる。閾値Ithは、実験的に予め決定される値である。
【0041】
図4(a)に、赤外線カメラ2Rによって得られる画像を2値化した画像を例示する。図4(a)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。太い実線で囲まれた領域は、赤外線カメラ2から得られる画像において、輝度レベルが高く(高温で)、画面上に白色として表示される対象物の領域である。なお、図4(a)に示した例は、自車両10の前方の左側に歩行者が存在し、自車両10の前方に他車両が存在しており、歩行者が道路を横断しようとしている例である。
【0042】
次に、画像処理ユニット1は、2値化処理で「白」となった領域(2値化領域)からランレングスデータを作成する(STEP005)。作成されるランレングスデータは、2値化領域を画像の横方向の1次元の連結画素であるラインの集合で表し、該2値化領域を構成する各ランをその始点の座標と、始点から終点までの長さ(画素数)とで示したものである。
【0043】
次に、画像処理ユニット1は、作成されたランレングスデータに基づいて、対象物のラベリングをする(STEP006)ことにより、対象物を抽出する(STEP007)。すなわち、ランレングスデータで表されたラインのうち、画像の縦方向(y方向)に重なる部分のあるランを1つの対象物とみなしてラベル(識別子)を付すことにより、画像内の連結した領域を対象物として抽出する。
【0044】
上述のSTEP005〜007の処理により、図4(a)に示す2値化領域が、図4(b)に例示するように、対象物(2値化対象物)T1〜T6として抽出される。このとき、例えばラベルT1の対象物は、n個のランレングスデータL1〜Lnで示される。なお、抽出される対象物(2値化対象物)には、道路周辺の歩行者以外に、例えば、他車両、電柱や自動販売機等の人工構造物が含まれる。図4(b)の例では、対象物T1は、自車両10の前方の左側に存在する歩行者に対応する2値化対象物であり、対象物T2〜T6は、自車両10の前方に存在する他車両に対応する2値化対象物である。
【0045】
次に、画像処理ユニット1は、抽出された対象物の面積S、重心G、対象物の外接四角形の縦横比ASPECTを算出する(STEP008)。具体的には、対象物T1の面積Sは、各ランレングスデータLi(i=1,...,n)で示されるラインの長さを、対象物T1のn個のランレングスデータについて積算することにより算出する。また、対象物T1の重心Gの座標は、各ランレングスデータLiで示されるラインの長さと、各ランレングスデータLiのラインの中点の座標(x[i],y[i])とをそれぞれ掛け合わせ、更にこれを対象物T1のn個のランレングスデータについて積算したものを、面積Sで割ることにより算出する。また、対象物T1の縦横比ASPECTは、対象物T1の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
【0046】
次に、画像処理ユニット1は、対象物の時刻間追跡、すなわち、画像処理ユニット1の演算周期毎の同一対象物の認識を行う(STEP009)。時刻間追跡処理では、ある演算処理周期の時刻(離散系時刻)kにおけるSTEP007の処理により対象物Aが抽出され、次の演算処理周期の時刻k+1におけるSTEP007の処理により対象物Bが抽出されたとしたとき、それらの対象物A,Bの同一性が判定される。この同一性の判定は、例えば、それらの対象物A,Bの重心G、面積S、縦横比ASPECT等に基づいて行われる。そして、それらの対象物A,Bが互いに同一であると判定された場合に、時刻k+1で抽出した対象物Bのラベルが対象物Aのラベルと同じラベルに変更される。なお、この時刻間追跡処理は、2値化した基準画像について実行される。
【0047】
次に、画像処理ユニット1は、車速センサ4により検出される車速VCARと、ヨーレートセンサ3により検出されるヨーレートYRとを読み込み、ヨーレートYRを時間積分することにより、自車両10の回頭角θrを算出する(STEP010)。
【0048】
一方、STEP009,010の処理に平行して、STEP011〜014では、対象物と自車両10との距離z(自車両10の前後方向の距離)を算出する処理が行われる。この演算はSTEP009,010より長い時間を要するため、STEP009,010より長い周期(例えばSTEP001〜010の実行周期の3倍程度の周期)で実行される。
【0049】
まず、画像処理ユニット1は、基準画像の2値化画像によって追跡される対象物の中の1つを選択してすることにより、基準画像から探索画像R1(対象物を囲む外接四角形の領域全体を探索画像とする)を抽出する(STEP011)。
【0050】
次に、画像処理ユニット1は、参照画像(赤外線カメラ2R,2Lから得られた右画像及び左画像のうちの基準画像でない画像)中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(STEP012)。具体的には、探索画像R1の各頂点座標に応じて、参照画像中に探索領域R2を設定し、探索領域R2内に、座標(x0,y0)を基点(領域の左上の頂点)とした探索画像R1と同一形状の局所領域R3を設定する。そして、基点の座標(x0,y0)を変化させて、探索領域R2内で局所領域R3を移動させながら、局所領域R3と探索画像R1との相関の度合を示す輝度値の絶対差分和(SAD,Sum of Absolute Difference)C(x0,y0)を下記式(1)により算出する。
【0051】
【数1】

ここで、絶対差分和C(x0,y0)は、探索画像R1内の座標(m,n)の画素の輝度値IRと、探索領域R2内の座標(x0,y0)を基点とした局所領域R3内の座標(x0+m,y0+n)の画素の輝度値ILとの差の絶対値を取り、この差の絶対値の探索画像R1及び局所領域R3内の全画素(m=0,...,M-1,n=0,...,N-1)についての総和値を求めたものである。なお、絶対差分和C(x0,y0)の値が小さいほど、探索画像R1と局所領域R3との相関の度合が高いことを示す。これにより、絶対差分和C(x0,y0)が最小となる基点の座標(x0,y0)を求め、この位置の局所領域R3を対応画像R4として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。STEP011〜012の処理により、基準画像中の探索画像R1と、参照画像中の対応画像R4とが抽出される。
【0052】
次に、画像処理ユニット1は、探索画像R1の重心位置と、対応画像R4の重心位置とに基づいて、視差Δd(画素数)を算出する(STEP013)。そして、画像処理ユニット1は、算出された視差Δdを用いて、次式(2)により、自車両10と対象物との距離zを算出する(STEP014)。
【0053】
z=B×F/(Δd×p) …(2)
なお、Bは赤外線カメラ2R,2Lの基線長(光軸の間隔)、Fは赤外線カメラ2R,2Lの焦点距離F、pは画素間隔である。
【0054】
STEP010及びSTEP014の処理の終了後、画像処理ユニット1は、次に、画像内の座標(x,y)及び距離zを、実空間座標に変換して、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP015)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点(自車両10に固定された位置)を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向及びY方向は、それぞれ自車両10の左右方向(車幅方向)、上下方向であり、これらのX方向及びY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、自車両10の前後方向である。そして、実空間位置(X,Y,Z)は、次式(3)(4)(5)により算出される。
【0055】
X=x×z×p/f …(3)
Y=y×z×p/f …(4)
Z=z …(5)
次に、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、STEP010で算出した回頭角θrを用いて、対象物の実空間位置を補正する。(STEP016)。回頭角補正は、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、赤外線カメラ2R,2Lによって得られる画像上では、画像の範囲がx方向にずれるので、これを補正する処理である。なお、以下の説明では、「対象物の実空間位置」は、この回頭角補正を施した対象物の実空間位置を意味する。
【0056】
次に、画像処理ユニット1は、対象物の自車両10に対する移動ベクトルを求める(STEP017)。具体的には、同一対象物についての実空間位置の、所定期間(現在時刻から所定時間前までの期間)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(座標Pv1=(Xv1,Yv1,Zv1))から、現在時刻における該直線上の対象物の位置(座標Pv0=(Xv0,Yv0,Zv0))に向かうベクトルを対象物の移動ベクトルとして求める。なお、近似直線の具体的な算出処理には、上述の特許文献1に記載された手法を用いる。また、この処理において、対象物が検出されてから所定期間分の演算処理周期が経過していないために、対象物の実空間位置の時系列データが不足して移動ベクトルを算出することができない場合には、そのままSTEP018に進む。
【0057】
次に、画像処理ユニット1は、検出した対象物が回避対象(自車両10との接触を回避すべき対象)であるか否かを判定する回避判定処理を行う(STEP018)。なお、回避判定処理については、詳細を後述する。STEP018において、検出した対象物が回避対象でないと判定された場合(STEP018の判定結果がNO)には、STEP001に戻り、上述の処理を繰り返す。また、STEP018において、検出した対象物が回避対象であると判定された場合(STEP018の判定結果がYES)、STEP019の警報出力判定処理へ進む。
【0058】
STEP019では、画像処理ユニット1は、対象物に関する実際の警報を出力するか否かの判定を行なう警報出力判定処理を行う。この警報出力判定処理では、ブレーキセンサ5の出力BRから、運転者による自車両10のブレーキ操作がなされていることが確認され、且つ、自車両10の減速加速度(車速の減少方向の加速度を正とする)が所定の閾値(>0)よりも大きいときには、警報を出力しないと判定される。また、運転者によるブレーキ操作が行なわれていない場合、あるいは、ブレーキ操作が行なわれていても、自車両10の減速加速度が所定の閾値以下である場合には、警報を出力すると判定される。
【0059】
そして、画像処理ユニット1は、警報を出力すると判定した場合(STEP019の判定結果がYES)には、スピーカ6と表示装置7とによる警報を自車両10の運転者に対して発する警報出力処理を実行し(STEP020)、STEP001に戻り、上述の処理を繰り返す。なお、警報出力処理については、詳細を後述する。また、STEP019で警報を出力しないと判定した場合(全ての対象物について警報を出力しないと判定した場合)には、STEP019の判定結果がNOとなり、この場合には、そのままSTEP001に戻り、上述の処理を繰り返す。
【0060】
以上が、本実施形態の車両周辺監視装置の画像処理ユニット1における対象物検出・警報動作である。これにより、自車両10の周辺の赤外線画像と、自車両10の走行状態を示す信号とから、自車両10の前方の歩行者等の対象物が検出され、回避対象である対象物について運転者に警報が発せられる。
【0061】
次に、図5に示すフローチャートを参照して、図3に示したフローチャートのSTEP018における回避判定処理について詳細に説明する。図5は、本実施形態の回避判定処理を示すフローチャートである。回避判定処理は、以下に示す衝突判定処理、接近判定領域内か否かの判定処理、進入衝突判定処理(移動ベクトル又は姿勢による)、歩行者判定処理、及び人工構造物判定処理により、検出した対象物と自車両10との衝突の可能性及び対象物の種類を判定して、該対象物が回避対象であるか否かを判定する処理である。
【0062】
図5を参照して、まず、画像処理ユニット1は、対象物が自車両10に衝突する可能性の度合を判定する処理の1つとして、衝突判定処理を行う(STEP101)。衝突判定処理は、対象物と自車両10とのZ方向の相対速度Vsを求め、両者が高さH以内で相対速度Vsを維持して移動すると仮定して、余裕時間T以内に両者が衝突する可能性があるか否かを判定する処理である。具体的には、対象物の現在のZ方向の座標値(距離)Zv0がVs×T以下で、且つ、対象物の現在のY方向の座標値(高さ)Yv0がH以下である場合に、対象物と自車両10とが衝突する可能性があると判定される。
【0063】
ここで、図6を参照して説明すると、図6は、自車両10の走行する道路を上方から見た図であり、自車両10の前方の領域区分が示されている。図6に示したように、赤外線カメラ2R,2Lで監視可能な領域を太い実線で示す外側の三角形の領域AR0とすると、領域AR0内のZ1(=Vs×T)より自車両10に近い領域が、対象物と自車両10との衝突の可能性がある領域である。なお、高さHは、高さ方向の範囲を規定する所定高さであり、例えば自車両10の車高の2倍程度に設定される。
【0064】
STEP101の判定結果がNOの場合(余裕時間T内に対象物と自車両10とが衝突する可能性がない)には、車両10の操舵やブレーキ操作によって対象物と車両10との衝突を余裕を持って回避しうる状況である。この場合には、STEP108に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
【0065】
STEP101の判定結果がYESの場合(余裕時間T内に対象物と自車両10とが衝突する可能性がある)には、STEP102に進み、対象物が自車両10に接触する可能性の度合を判定する処理の1つとして、画像処理ユニット1は、対象物が接近判定領域AR1内に存在するか否かの判定処理を行う。接近判定領域AR1は、図6に示したように、上述の領域AR0内のZ1より自車両10に近い領域のうちの、自車両10の車幅αの両側に余裕βを加えた幅(α+2β)を有する領域AR1である。なお、接近判定領域AR1も所定高さHを有する。
【0066】
STEP102の判定結果がYESの場合(対象物が接近判定領域AR1内に存在している)には、対象物が現在の実空間位置に留まったとした場合に、該対象物が自車両10と衝突する可能性が高い。この場合には、STEP103に進み、画像処理ユニット1は、対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う。歩行者判定処理は、対象物の形状、大きさ、グレースケール画像上での輝度分散等の特徴から、対象物が歩行者か否かを判定する処理である。なお、歩行者判定処理の具体的な手法としては、例えば、本出願人による特開2003−284057号公報に記載されているような手法を用いることができる。
【0067】
STEP103の判定結果がYESの場合(対象物は歩行者の可能性がある)には、STEP104に進み、更に対象物が歩行者である可能性の判定の信頼性を上げるために、画像処理ユニット1は、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う。人工構造物判定処理は、対象物の画像に、例えば予め登録された人工構造物の形状と一致する等の、歩行者ではないと考えられる特徴が検出された場合に、該対象物を人工構造物と判定し、警報の対象から除外する処理である。
【0068】
STEP104の判定結果がNOの場合(対象物が人工構造物でない)には、STEP107に進み、画像処理ユニット1は、対象物が回避対象であると判定して、回避判定処理を終了する。従って、対象物が接近判定領域AR1に存在し、且つ、対象物が歩行者である可能性が高く、且つ、人工構造物でないと判定された場合には、対象物が回避対象であると判定される。
【0069】
また、STEP103の判定結果がNOの場合(対象物は歩行者の可能性がない)、あるいは、STEP104の判定結果がYESの場合(対象物が人工構造物である)には、STEP108に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
【0070】
一方、STEP102の判定結果がNOの場合(対象物が接近判定領域AR1内に存在しない)には、STEP105に進み、画像処理ユニット1は、対象物が接近判定領域AR1内へ進入して自車両10と衝突する可能性があるか否かを判定する進入衝突判定処理を行う(STEP105〜106)。ここで、図6に示したように、領域AR0内で上述の接近判定領域AR1よりX座標の絶対値が大きい(接近判定領域AR1の横方向外側の)領域AR2,AR3を進入判定領域とする。進入衝突判定処理は、進入判定領域AR2,AR3内にある対象物が、移動することにより接近判定領域AR1に進入して自車両10と衝突するか否かを判定する処理である。なお、進入判定領域AR2,AR3も所定高さHを有する。
【0071】
まず、STEP105で、対象物の移動ベクトルに基づく進入衝突判定処理が行われる。この移動ベクトルに基づく進入衝突判定処理は、本発明の回避対象判定手段の実行する判定アルゴリズムの第2判定処理に相当する。また、対象物が回避対象である(衝突の可能性が高い)と判定する第2要件は、対象物の移動する方向が自車両に向かってくる方向であるという要件である。具体的には、自車両10の前面のXY平面(自車両10の前後方向に垂直な面)と、対象物の移動ベクトルを含む直線との交点のX座標(車幅方向の位置)が、自車両10の車幅αよりも若干広い所定範囲内に存在する場合(対象物が相対的に自車両10に向かってくる場合)に、衝突の可能性が高いと判定される。なお、上述のSTEP017で移動ベクトルが算出できなかった場合には、STEP105の判定結果はNOとする。
【0072】
STEP105の判定結果がYESの場合には、対象物が将来、自車両10と衝突する可能性が高い。そこで、この場合には、STEP108に進み、画像処理ユニット1は、対象物が回避対象であると判定して、回避判定処理を終了する。
【0073】
STEP105の判定結果がNOの場合には、STEP106に進み、姿勢による進入衝突判定処理が行われる。この姿勢による進入衝突判定処理は、本発明の回避対象判定手段の実行する判定アルゴリズムの第1判定処理に相当する。また、対象物が回避対象である(衝突の可能性が高い)と判定する第1要件は、対象物が歩行者であり、且つ、該歩行者の姿勢が、自車両10の走行する車線の中心側への前傾姿勢であるという要件である。なお、姿勢による進入衝突判定処理については、詳細を後述する。STEP106の判定結果がYESの場合には、対象物が将来、自車両10と衝突する可能性が高い。そこで、この場合には、STEP107に進み、画像処理ユニット1は、対象物が回避対象であると判定して、回避判定処理を終了する。また、STEP106の判定結果がNOの場合には、対象物が自車両10と衝突する可能性が低いので、STEP108に進み、画像処理ユニット1は、対象物が回避対象でないと判定して、回避判定処理を終了する。
【0074】
以上が、回避判定処理の詳細である。
【0075】
次に、図3に示したフローチャートのSTEP020における警報出力処理について詳細に説明する。この警報出力処理では、表示装置7に基準画像を表示すると共に、その基準画像中の回避対象である対象物の画像を強調的に表示する。さらに、回避対象である対象物が存在することをスピーカ6から運転者に音声案内する。これにより、回避対象である対象物に対する運転者の注意が喚起される。なお、運転者に対する警報は、スピーカ6および表示装置7のいずれか一方だけで行なうようにしてもよい。
【0076】
このとき、画像処理ユニット1は、上述のSTEP018の回避判定処理において、STEP105の判定結果がYESとなって対象物が回避対象であると判定された場合(以下、CASE1とする)と、STEP106の判定結果がYESとなって対象物が回避対象であると判定された場合(以下、CASE2とする)とで、運転者に対して異なる形態の警報を発する。具体的には、例えば、表示装置7の画像上で回避対象に枠を付けて強調表示する際に、CASE1とCASE2とで異なる色を用いたり、CASE2ではCASE1よりも色を薄くしたり、CASE2ではCASE1より枠を細くする。もしくは、スピーカ6で音声案内する際に、CASE1とCASE2とで音声案内の案内文のパターンを異ならせたり、音声案内の音声の種類(例えば周波数)を異ならせる。もしくは、CASE1ではスピーカ6による音声案内と表示装置7による強調表示との両方を行い、CASE2では表示装置7による強調表示のみを行う。これにより、回避対象の判定結果の信頼性や回避の緊急性等が異なることが運転者に把握されるように、より適切に警報が発せられる。
【0077】
以上が、警報出力処理の詳細である。
【0078】
次に、図5に示したフローチャートのSTEP106における姿勢による進入衝突判定処理について詳細に説明する。姿勢による進入衝突判定処理は、進入判定領域AR2、AR3内にある対象物が歩行者である場合に、該歩行者の姿勢(歩行者の体幹軸の傾きに関する姿勢)に基づいて該歩行者の挙動を予測して、該歩行者が回避対象であるか否か(自車両10との衝突の可能性があるか否か)を判定する処理である。なお、以下の説明では、図4(a)に示した例(自車両10の前方の左側に歩行者が存在し、自車両10の前方に他車両が存在しており、歩行者が道路を横断しようとしている場合)を用いて説明する。
【0079】
STEP106において、まず、歩行者抽出手段12により、検出された対象物のうちから歩行者を抽出する処理が行われる。このとき、対象物の縦横比ASPECTと、対象物の面積SAと該対象物の外接四角形の面積SBとの比SA/SBとが、所定範囲にある場合に、対象物が歩行者であると判定され、該対象物が歩行者として抽出される。なお、前記所定範囲は、対象物が歩行者の上半身や全身に相当する値として予め定められる範囲である。これにより、図4(b)に例示するように、対象物T1〜T6のうちから、枠R1で囲われた対象物T1が歩行者として抽出される。なお、歩行者が抽出されなかった場合には、STEP106の判定結果はNOとなる。また、歩行者を抽出する処理では、例えば、STEP103の歩行者判定処理等で用いられるような他の手法を用いてもよい。
【0080】
次に、歩行者が抽出された場合には、姿勢判別手段13により、抽出された歩行者T1の姿勢を判別する処理が行われる。以下では、図7(a)(b)を参照して説明する。図7(a)(b)には、それぞれ、図4(b)に例示した枠R1で囲まれた領域(歩行者T1が含まれる)が示されている。
【0081】
まず、姿勢判別手段13は、歩行者T1の体幹軸を算出する。具体的には、まず、姿勢判別手段13は、抽出された歩行者T1のランレングスデータL1〜Lnから、各ランレングスデータLiで示されるラインの中点の画素の座標で構成される点列データP_T1を算出する。図7(a)を参照して、歩行者T1として抽出された対象物に相当する2値化領域は、図示のように、n個のランレングスデータL1〜Lnで表される。図7(b)には、ランレングスデータL1〜Lnが示されており、その中点M1〜Mnは、図示のようになる。そして、点列データP_T1は、中点M1〜Mnの座標データ{(X1,Y1),(X2,Y2),...,(Xn,Yn)}で構成される。なお、図7(b)において、座標軸X,Yは図示のように設定されている。このとき、X軸は自車両10の左右方向に平行な軸であり、Y軸は上下方向軸である。
【0082】
次に、姿勢判別手段13は、算出された点列データP_T1を近似する近似直線S1を算出する。このとき、近似法としては、最小二乗法が用いられる。これにより、図7(b)に示したように、近似直線S1=aX+bが算出される。この近似直線S1は、歩行者T1の体幹軸に相当するものである。
【0083】
次に、姿勢判別手段13は、算出された近似直線S1に基づいて、歩行者T1の体幹軸の傾きの度合を判別する。具体的には、本実施形態では、歩行者T1の体幹軸が自車両10の走行する車線の中心側へ前傾しているか否か(歩行者T1の姿勢が自車両10の走行する車線に向かう前傾姿勢であるか否か)が判別される。まず、姿勢判別手段13は、図7(b)に示したように、近似直線S1と上下方向軸Yとのなす角度θ=tan-1aを算出する。次に、姿勢判別手段13は、角度θに基づいて、歩行者T1の体幹軸が自車両10の走行する車線の中心側へ前傾しているか否かを判別する。なお、本実施形態では、角度θは、上下方向軸Y方向を0度とし、上下方向軸Yから自車両10の走行する車線の中心側へ向かう方向を正(図7(b)に示した例では時計回りを正)とするように設定されている。
【0084】
このとき、角度θが閾値θ1以上で閾値θ2以下(0<θ1<θ2)の場合に、自車両10の走行する車線側へ前傾していると判別される。なお、閾値θ1,θ2は、歩行者が移動しているときに、その体幹軸が進行方向に対して一般的に取る角度の範囲を示す値として予め定められる値である。この歩行者T1の姿勢の判別結果に基づいて、道路の横断等の歩行者T1の挙動が事前に迅速に予測される。図7(b)の例では、θ1≦θ≦θ2となり、歩行者T1が自車両10の走行する車線に向かう前傾姿勢であると判別される。これにより、歩行者T1が道路を横断しようとしていることが予測される。
【0085】
次に、回避対象判定手段14により、姿勢判別手段13の歩行者T1の姿勢の判別結果に基づいて、歩行者T1が回避対象であるか否かが判定される。このとき、例えば、歩行者T1が自車両10の走行する車線に向かう前傾姿勢である場合(STEP106の判定結果がYES)には、歩行者T1が道路を横断しようとしていることが予測されることから、STEP107で、対象物が回避対象であると判定される。これにより、例えば、進入判定領域AR2,AR3に存在する歩行者T1が急に車道に飛び出すような場合に、図3のSTEP019〜020の警報出力判定及び警報出力が迅速に行われる。
【0086】
以上の処理により、本実施形態によれば、赤外線カメラ2R,2Lを介して取得される画像から、自車両10の周辺の歩行者のうちの回避対象となる歩行者を迅速に判定して、自車両10の運転者に情報提示を行うことができる。
【0087】
なお、本実施形態では、前述したように、画像処理ユニット1が、その機能として、本発明の対象物抽出手段11と、歩行者抽出手段12と、姿勢判別手段13と、回避対象判定手段14と、車両機器制御手段15と、相対位置検出段16と、移動方向特徴量算出手段17とを含んでいる。より具体的には、図3のSTEP004〜008が対象物抽出手段11に相当し、STEP011〜016が相対位置検出段16に相当し、STEP017が移動方向特徴量算出手段17に相当し、STEP018が回避対象判定手段14に相当し、STEP019〜020が車両機器制御手段15に相当する。さらに、図5のSTEP106における対象物のうちから歩行者を抽出する処理が歩行者抽出手段12に相当し、STEP106における歩行者の姿勢を判別する処理が姿勢判別手段13に相当する。
【0088】
次に、本発明の第2実施形態について説明する。なお、本実施形態は、第1実施形態において、画像処理ユニット1の機能である姿勢判別手段13と回避対象判定手段14との作動のみが相違するものであり、本実施形態における車両周辺監視装置の機能ブロック図は図1と同じである。以下の説明では、第1実施形態と同一の構成については、第1実施形態と同一の参照符号を用いて説明を省略する。
【0089】
本実施形態の車両周辺監視装置において、画像処理ユニット1の機能である姿勢判別手段13は、歩行者抽出手段12により抽出された歩行者の画像上での、自車両10の左右方向における対称性を、該歩行者の姿勢を表す特徴量とし、その対称性の度合を判別する。なお、歩行者の画像上での自車両10の左右方向における対称性を算出する手法としては、例えば、グレースケール画像上で輝度分布に基づいて歩行者の頭部領域を設定し、頭部領域を基準として右領域と左領域とを設定して、右領域と左領域との相関演算により対称性を算出する手法が用いられる。以上説明した以外の構成は、第1実施形態と同じである。
【0090】
次に、本実施形態の車両周辺監視装置の全体的な作動(対象物検出・警報動作)を説明する。なお、本実施形態における車両周辺監視処理の対象物検出・警報動作は、第1実施形態と、回避判定処理における歩行者の姿勢を判別して進入衝突判定を行う処理(図5のSTEP106)のみが相違するものである。本実施形態における回避判定処理のフローチャートは図5と同じであるので、以下の説明では、図5に示したフローチャートを参照して説明する。なお、以下の説明では、第1実施形態と同様に、図4(a)に示した例(自車両10の前方の左側に歩行者が存在し、自車両10の前方に他車両が存在しており、歩行者が道路を横断しようとしている場合)を用いて説明する。
【0091】
STEP106において、まず、第1実施形態と同様に、歩行者抽出手段12により、検出された対象物のうちから歩行者を抽出する処理が行われる。これにより、図4(b)に例示するように、対象物T1〜T6のうちから、枠R1で囲われた対象物T1が歩行者として抽出される。なお、歩行者が抽出されなかった場合には、STEP106の判定結果はNOとなる。
【0092】
次に、歩行者が抽出された場合には、姿勢判別手段13により、抽出された歩行者T1の姿勢を判別する処理が行われる。以下では、図8を参照して説明する。図8には、グレースケール画像上の、図4(b)に例示した枠R1で囲まれた領域(歩行者T1が含まれる)に対応する領域が示されている。
【0093】
まず、姿勢判別手段13は、歩行者T1の画像上での自車両10の左右方向における対称性を算出する。このとき、まず、姿勢判別手段13は、グレースケール画像上で、抽出された歩行者T1の頭部領域TH1を設定する。具体的には、姿勢判別手段13は、グレースケール画像上において、抽出された歩行者T1に対応する領域にプロジェクションエリアを設定し、縦方向の輝度プロジョクション(画素毎の輝度を縦方向に積算した積算輝度の横方向の分布)を算出して、積算輝度が最大ピークを示す横方向座標を検出する。そして、姿勢判別手段13は、検出した横方向座標を中心にして、歩行者T1の頭部位置に相当すると推定される領域を、図8に示したように、頭部領域TH1として設定する。
【0094】
次に、姿勢判別手段13は、図8に示したように、枠R1で囲まれた領域内の頭部領域TH1の下側のうちの左右両側の部分に、右領域TR1と左領域TL1とを設定する。右領域TR1、左領域TL1は、自車両10の前後方向と歩行者の前後方向とが同じである場合(自車両10の進行方向と歩行者の移動方向とがほぼ同じ場合)に、それぞれ、歩行者の右肩、左肩が含まれるように設定される。図8に示した例では、歩行者T1の移動方向は右側(車線の中心側)であり、右領域TR1が車線の中心側に近い部分である。
【0095】
次に、姿勢判別手段13は、右領域TR1を左右反転した画像と、左領域TL1との相関の度合を示す輝度値の絶対差分和を算出する。この絶対差分和は、歩行者T1の画像上での自車両10の左右方向における対称性の度合を表す。
【0096】
次に、姿勢判別手段13は、算出された絶対差分和に基づいて、歩行者T1の画像上での自車両10の左右方向における対称性の度合を判別する。具体的には、本実施形態では、対称性の度合が低いか否か(歩行者T1の姿勢が前傾姿勢であるか否か)が判別される。このとき、算出された絶対差分和が所定値以上(相関の度合が低い)である場合に、対称性の度合が低いと判別する。図8の例では、算出された絶対差分和が所定値以上となり、対称性の度合が低いと判別される。これにより、歩行者T1が車線の中心側又は反対側への前傾姿勢であることが判る。
【0097】
さらに、対称性の度合が低いと判別された場合に、姿勢判別手段13は、右領域TR1と左領域TL1とにおける輝度分布に基づいて、歩行者T1が車線の中心側への前傾姿勢であるか否かを判別する。例えば、姿勢判別手段13は、領域TR1,TL1における輝度の平均値を算出し、車線の中心側の領域における平均値が、反対側の領域における平均値より小さい場合には、歩行者T1が車線の中心側への前傾姿勢であると判別する。図8の例では、車線の中心側の領域は右領域TR1であり、算出された右領域TR1の平均値は左領域TL1の平均値より小さくなり、歩行者T1が自車両10の走行している車線の中心側に向かう前傾姿勢と判別される。これにより、歩行者T1が道路を横断しようとしていることが予測される。
【0098】
次に、回避対象判定手段14により、姿勢判別手段13の歩行者T1の姿勢の判別結果に基づいて、歩行者T1が回避対象であるか否かが判定される。このとき、例えば、歩行者T1が自車両10の走行する車線の中心側への前傾姿勢である場合(STEP106の判定結果がYES)には、歩行者T1が道路を横断しようとしていることが予測されることから、STEP107で、対象物が回避対象であると判定される。これにより、例えば、進入判定領域AR2,AR3に存在する歩行者T1が急に車道に飛び出すような場合に、図3のSTEP019〜STEP020の警報出力判定及び及び警報出力が迅速に行われる。以上説明した以外の作動は、第1実施形態と同じである。
【0099】
以上の処理により、本実施形態によれば、第1実施形態と同様に、赤外線カメラ2R,2Lを介して取得される画像から、自車両10の周辺の歩行者のうちの回避対象となる歩行者を迅速に判定して、自車両10の運転者に情報提示を行うことができる。
【0100】
なお、前記第1及び第2実施形態では、画像処理ユニット1は、STEP018の回避判定処理で、進入衝突判定処理として、対象物の移動ベクトルによる進入衝突判定処理(STEP105)と、歩行者の姿勢による進入衝突判定処理(STEP106)とのいずれもを実行するものとしたが、他の実施形態として、例えば、進入衝突判定処理として、歩行者の姿勢による進入衝突判定処理(STEP106)のみを実行するようにしてもよい。
【0101】
また、前記第1及び第2実施形態では、画像処理ユニット1は、STEP018で回避対象であると判定された対象物について、自車両10の運転者に警報を発するものとしたが、他の実施形態として、例えば、車両10が、車両のステアリング装置、ブレーキ装置、アクセル装置のいずれかをアクチュエータによって操作可能(ひいては車両10の走行挙動を操作可能)なものである場合には、STEP018で回避対象であると判定された対象物との接触を回避するように、もしくは、回避が容易になるように自車両10のステアリング装置、ブレーキ装置、アクセル装置を制御するようにしてもよい。
【0102】
例えば、運転者によるアクセルペダルの必要踏力が、回避対象の対象物が存在しない場合(通常の場合)よりも大きくなるようにアクセル装置を制御して、加速しにくくする。あるいは、回避対象と車両10との接触を回避するために要求されるステアリング装置の操舵方向側へのステアリングハンドルの要求回転力を、反対側へのステアリングハンドルの要求回転力よりも低くして、当該操舵方向側へのステアリングハンドルの操作を容易に行い得るようにする。あるいは、ブレーキ装置のブレーキペダルの踏み込み量に応じた車両10の制動力の増加速度を、通常の場合よりも高くする。このようにすることで、回避対象との接触を避けるための車両10の運転が容易になる。
【0103】
なお、このような自車両10のステアリング装置や、アクセル装置、ブレーキ装置を制御する場合、これらの装置が本発明における車両機器制御手段が制御する機器に相当するものとなる。また、上記のようなステアリング装置の制御と、表示装置7もしくはスピーカ6による警報とは、並行して行うようにしてもよい。
【0104】
また、第1及び第2実施形態では、撮像手段として赤外線カメラを使用したが、例えば通常の可視光線のみ検出可能なCCDカメラ等を使用してもよい。ただし、赤外線カメラを用いることにより、歩行者や走行中の車両等の抽出処理を簡略化することができ、演算装置の演算能力が比較的低いものでも実現可能とすることができる。
【図面の簡単な説明】
【0105】
【図1】本発明の第1実施形態による車両周辺監視装置の機能ブロック図。
【図2】図1に示した車両周辺監視装置の車両への取り付け態様の説明図。
【図3】図1の車両周辺監視装置における対象物検出・警報動作を示すフローチャート。
【図4】図3の対象物検出・警報動作における処理画像の例示図。
【図5】図3の対象物検出・警報動作における回避判定処理のフローチャート。
【図6】図5の回避判定処理における車両前方の領域区分を示す説明図。
【図7】図5の回避判定処理における歩行者の姿勢を判別する処理に関する説明図。
【図8】本発明の第2実施形態の回避判定処理における歩行者の姿勢を判別する処理に関する説明図。
【符号の説明】
【0106】
2R,2L…赤外線カメラ(撮像手段)、10…車両、11…対象物抽出手段、12…歩行者抽出手段、13…姿勢判別手段、14…回避対象判定手段、15…車両機器制御手段、16…相対位置検出段、17…移動方向特徴量算出手段。

【特許請求の範囲】
【請求項1】
車両に搭載された撮像手段を介して取得した画像から、該車両の周辺を監視する車両周辺監視装置において、
前記撮像手段を介して取得した画像から、前記車両の周辺に存在する対象物を抽出する対象物抽出手段と、
前記対象物抽出手段により抽出された対象物のうちから歩行者を抽出する歩行者抽出手段と、
前記歩行者抽出手段により抽出された歩行者の姿勢を判別する姿勢判別手段と、
少なくとも前記姿勢判別手段により判別された歩行者の姿勢に関する第1判定処理を含む判定アルゴリズムを実行することにより、前記対象物抽出手段により抽出された対象物が、前記車両との接触を回避すべき回避対象であるか否かを判定する回避対象判定手段と、
少なくとも前記回避対象判定手段の判定結果に応じて、前記車両の機器を制御する車両機器制御手段とを備えることを特徴とする車両周辺監視装置。
【請求項2】
前記車両機器制御手段の制御する機器は、前記車両の運転者に警報を発することが可能な機器を含むことを特徴とする請求項1記載の車両周辺監視装置。
【請求項3】
前記車両機器制御手段の制御する機器は、前記車両の走行挙動を操作可能な機器を含むことを特徴とする請求項1又は請求項2記載の車両周辺監視装置。
【請求項4】
前記対象物抽出手段により抽出された対象物の、前記車両に対する相対位置を逐次検出する相対位置検出手段と、
前記姿勢判別手段の判別処理の実行周期よりも長い時間間隔において、前記相対位置検出手段により検出された前記対象物の相対位置の時系列に基づいて、該対象物の前記車両に対する移動方向を表す移動方向特徴量を算出する移動方向特徴量算出手段とを備え、
前記回避対象判定手段の実行する判定アルゴリズムは、前記第1判定処理と共に、前記移動方向特徴量算出手段により算出された前記対象物の移動方向特徴量に関する第2判定処理を含み、該第1判定処理は、前記歩行者の姿勢が所定の第1要件を満たすか否かを判定する処理であり、該第2判定処理は、該対象物の移動方向特徴量が所定の第2要件を満たすか否かを判定する処理であり、
前記回避対象判定手段は、前記対象物の移動方向特徴量に関する第2判定処理の判定結果が前記第2要件を満たす場合と、該第2判定処理の判定結果が該第2要件を満たさず、且つ、前記歩行者の姿勢に関する第1判定処理の判定結果が前記第1要件を満たす場合とに、前記対象物が回避対象であると判定することを特徴とする請求項1〜請求項3のうちいずれか1項記載の車両周辺監視装置。
【請求項5】
前記車両機器制御手段は、前記対象物の移動方向特徴量に関する第2判定処理の判定結果が前記第2要件を満たす場合と、該第2判定処理の判定結果が該第2要件を満たさず、且つ、前記歩行者の姿勢に関する第1判定処理の判定結果が前記第1要件を満たす場合とで、前記車両の機器を互いに異なる形態で制御することを特徴とする請求項4記載の車両周辺監視装置。
【請求項6】
前記姿勢判別手段は、前記画像上での前記歩行者の、前記車両の左右方向における対称性を、該歩行者の姿勢を表す特徴量とし、その対称性の度合を判別する手段であることを特徴とする請求項1〜請求項5のうちいずれか1項記載の車両周辺監視装置。
【請求項7】
前記姿勢判別手段は、前記歩行者の体幹軸の傾きを、該歩行者の姿勢を表す特徴量とし、その傾きの度合を判別する手段であることを特徴とする請求項1〜請求項5のうちいずれか1項記載の車両周辺監視装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate


【公開番号】特開2007−279808(P2007−279808A)
【公開日】平成19年10月25日(2007.10.25)
【国際特許分類】
【出願番号】特願2006−101838(P2006−101838)
【出願日】平成18年4月3日(2006.4.3)
【出願人】(000005326)本田技研工業株式会社 (23,863)
【Fターム(参考)】