説明

車両の周辺監視装置

【課題】車両に搭載された撮像手段により得られる画像から、歩行者を含む車両の周辺の対象物を検出して運転者に知らせる。
【解決手段】車両に搭載され、該車両の周辺の画像を取得する撮像手段と、撮像手段により取得された画像から該車両の周辺の物体を特定する物体特定手段と、物体の移動ベクトルを算出する移動ベクトル算出手段と、物体の種別を判定する種別判定手段と、物体が所定対象物でありかつ車両と物体とが所定の位置関係にある場合に運転者に報知をおこなう報知手段と、を備える車両の周辺監視装置を提供する。その種別判定手段は、(i)物体が、車両に到達するまでの到達時間が所定時間以下である第1領域に存在する場合、高演算負荷で判定精度が高い第1種別判定をおこない、(ii)物体が、到達時間が所定時間よりも大きい第2領域に存在する場合、第1種別判定よりも低演算負荷で判定精度が低い第2種別判定をおこなう。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両の周辺監視装置に関し、より具体的には、車両に搭載された撮像手段により得られる画像から、歩行者を含む車両の周辺の対象物を検出して運転者に知らせるための車両の周辺監視装置に関する。
【背景技術】
【0002】
特許文献1は、車両に搭載された撮像手段により得られる画像から、当該車両に衝突するおそれのある対象物を検出するために、当該車両の周辺を監視する周辺監視装置を開示する。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特許第3515926号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に記載の周辺監視装置では、歩行者等の対象物を検出した場合に、表示画面上の検出対象物に対して、それを運転者等に分かりやすく認知させるために、枠を付与したり、その枠の色を可変したり、あるいは警告音発生等によりその存在を強調している。
【0005】
しかし、特許文献1等の従来の周辺監視装置では、検出した対象物の位置に応じて枠色を可変させる、あるいは警告音を発生させる場合、対象物の検出状況、すなわち所定のタイミングでの過去の検出において既に枠が付与されている状態なのか、あるいは警告音が発生されている状態なのか等に関わらず同一の画像処理を実施している。そのため、特に複数の処理を並行して行わなければならいような状況下では、その処理に必要な演算量が圧迫されるおそれがあった。
【0006】
そこで、本発明は、この従来技術の問題を軽減あるいは解消すること、すなわち、車両の周辺監視装置における対象物の検出状態に応じて、適時画像処理を最適に制御し、その検出精度を維持しながら画像処理の演算負荷を軽減させることを目的とする。
【課題を解決するための手段】
【0007】
本発明は、車両の周辺監視装置を提供する。その周辺監視装置は、車両に搭載され、車両の周辺の画像を取得する撮像手段と、撮像手段により取得された画像から車両の周辺の物体を特定する物体特定手段と、物体の移動ベクトルを算出する移動ベクトル算出手段と、物体の種別を判定する種別判定手段と、物体が所定対象物でありかつ車両と物体とが所定の位置関係にある場合に運転者に報知をおこなう報知手段と、を備える。その種別判定手段は、(i)物体が、車両に到達するまでの到達時間が所定時間以下である第1領域に存在する場合、高演算負荷で判定精度が高い第1種別判定をおこない、(ii)物体が、その到達時間が所定時間よりも大きい第2領域に存在する場合、第1種別判定よりも低演算負荷で判定精度が低い第2種別判定をおこなう。
【0008】
本発明によれば、車両から比較的近傍の物体の種別判定精度を上げると同時に、比較的遠い物体の種別判定の演算負荷を下げることにより、車両周辺の所定の物体の検出精度を高く維持しながら画像処理全体の演算負荷を軽減することが可能となる。
【0009】
本発明の一形態によると、種別判定手段は、第1および第2領域に物体が存在し、かつ第1領域に所定数以上の物体が存在する場合、第2領域に存在する物体に対する第2種別判定をおこなわない、あるいは第2種別判定よりも低演算負荷で判定精度が低い第3種別判定をおこなう。
【0010】
本発明の一形態によれば、比較的近傍の複数の物体の種別判定に演算負荷を集中させてその検出精度を上げると同時に、画像処理全体の演算負荷を軽減することが可能となる。
【0011】
本発明の一形態によると、物体に対する到達時間および移動ベクトルから当該物体が車両に到達する可能性が所定値以上であると判定される場合、種別判定手段は当該物体に対する種別の判定をおこなわない。
【0012】
本発明の一形態によれば、車両への接近可能性の大きい物体が検出された場合、その種別判定をおこなうことなく迅速に運転者に警告等による報知をおこなうことが可能となる。
【図面の簡単な説明】
【0013】
【図1】本発明の一実施例に従う、車両の周辺監視装置の構成を示すブロック図である。
【図2】本発明の一実施例に従う、赤外線カメラの取り付け位置を説明するための図である。
【図3】本発明の一実施例に従う、画像処理ユニットにおける処理フローを示す図である。
【図4】本発明の一実施例に従う、車両前方の検出領域を説明するための図である。
【図5】本発明の一実施例に従う、種別判定の処理フローを示す図である。
【図6】本発明の一実施例に従う、別の種別判定の処理フローを示す図である。
【図7】本発明の一実施例に従う、検出領域と報知レベルとの関係を示す図(表)である。
【図8】本発明の一実施例に従う、別の画像処理ユニットにおける処理フローを示す図である。
【図9】本発明の一実施例に従う、別の画像処理ユニットにおける処理フローを示す図である。
【発明を実施するための形態】
【0014】
図面を参照しながら本発明の実施の形態を説明する。図1は、本発明の一実施例に従う、車両の周辺監視装置の構成を示すブロック図である。周辺監視装置は、車両に搭載され、赤外線カメラ1R、1Lと、赤外線カメラ1R、1Lによって撮像された画像データに基づいて車両周辺の物体を検出するための画像処理ユニット12と、その検出結果に基づいて音または音声で警報を発生するスピーカ14と、赤外線カメラの撮像を介して得られた画像を表示すると共に、運転者に車両周辺の対象物を認識させるための表示を行う表示装置16とを備える。なお、ナビゲーション装置を備える車両においては、スピーカ14および表示装置16として、ナビゲーション装置が備える該当機能を利用してもよい。また、赤外線カメラの代わりに他の波長帯(可視光等)を利用するカメラ(CCDカメラ等)を用いてもよい。
【0015】
図1の画像処理ユニット12は、その構成(機能)としてブロック121〜124で示される機能を有する。すなわち、画像処理ユニット12は、赤外線カメラ1R、1Lにより取得された画像から車両の周辺の物体を特定する物体特定手段121と、物体の移動ベクトルを算出する移動ベクトル算出手段122と、物体の種別を判定する種別判定手段123と、スピーカ14および表示装置16による報知レベルを判定する手段124として機能する。報知レベル判定手段124は、物体が所定対象物でありかつ車両と物体とが所定の位置関係にある場合に運転者に報知をおこなうようにスピーカ14および表示装置16を制御する。
【0016】
各ブロックの機能は、画像処理ユニット12が有するコンピュータ(CPU)によって実現される。なお、画像処理ユニット12の構成は、ナビゲーション装置の中に組み込んでもよい。
【0017】
画像処理ユニット12は、ハードウエア構成として、例えば、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM、スピーカ14に対する駆動信号および表示装置16に対する表示信号などを出力する出力回路を備えている。赤外線カメラ1R、1Lの出力信号は、デジタル信号に変換されてCPUに入力されるよう構成される。
【0018】
図2は、本発明の一実施例に従う、図1に示した赤外線カメラの取り付け位置を説明するための図である。赤外線カメラ1R、1Lは、図2に示すように車両10の前部に、車両10の横方向の中心軸に対してほぼ対称な位置に配置され、2つのカメラ1R、1Lの光軸が互いに平行となり、両者の路面からの高さが等しくなるように固定されている。赤外線カメラ1R、1Lは、物体の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。図2の符号2は、表示装置16としてヘッドアップディスプレイ(以下「HUD」という)を用いた場合の表示画面を示している。HUDは、図に示すように、車両10のフロントウインドウの、運転者の前方位置に画面2が表示されるように設けられる。
【0019】
図3は、本発明の一実施例に従う、画像処理ユニット12によって実行される処理フローである。この処理フローは、画像処理ユニット12のCPUがメモリに格納している処理プログラムを呼び出して、所定の時間間隔で実行される。なお、以下の説明では、取得したグレースケール画像を2値化して白黒画像を得る場合を例にとり説明しているが、3値以上の多値化をしてもよい。その場合は、設定するしきい値の数は増えるが、基本的に2値化の場合と同様な処理をすることにより多値化画像を得ることができる。
【0020】
ステップS10において、赤外線カメラ2R、2Lから出力される赤外線画像のアナログ信号を入力し、該アナログ信号をA/D変換によりデジタル化したグレースケール画像をメモリに格納する。なお、ステップS10においては、赤外線カメラ2Rによるグレースケール画像(以下、右画像という)と、赤外線カメラ2Lによるグレースケール画像(以下、左画像という)とが取得される。
【0021】
ステップS11において、右画像を基準画像として2値化処理(輝度が閾値以上の画素を「1(白)」とし、該閾値よりも小さい画素を「0(黒)」とする処理)を行って2値画像を生成する。ステップS12において、最初に2値画像に含まれる各白領域の画像部分をランレングスデータ(2値画像のx(水平)方向に連続する白の画素のラインのデータ)化する。次に、2値画像のy(垂直)方向に重なる部分があるラインを一つの画像部分としてラベリングし、ラベリングした画像部分を物体の画像候補として抽出する。
【0022】
次のステップS13において、車両と物体候補との距離を算出する。具体的には、例えば以下のように算出する。
【0023】
最初に、各物体の画像候補の重心G、面積S、及び外接四角形の縦横比ASPECTを算出する。なお、具体的な算出方法については、例えば特開2004−303219号公報に詳説されているので、ここでは説明を省略する。次に、所定のサンプリング周期毎に赤外線カメラ2R、2Lにより撮像された画像に基づく2値画像から抽出された物体の画像について同一性判定を行い、同一の物体の画像であると判定された画像の位置(重心位置)の時系列データをメモリに格納する(時刻間追跡)。同時に、車速センサにより検出される車速及びヨーレートセンサにより検出されるヨーレートを読み込み、ヨーレートを時間積分することにより、車両10の回頭角を算出する。
【0024】
さらに、基準画像(右画像)の2値画像によって追跡される物体の画像候補の中の一つを選択して、右画像のグレースケール画像から探索画像R1(選択された候補画像の外接四角形で囲まれる領域全体の画像)を抽出する。そして、左画像のグレースケール画像から探索画像R1に対応する画像(以下、対応画像R1´という)を探索する探索領域を設定し、探索画像R1との相間演算を実行して対応画像R1´を抽出する。そして、探索画像R1の重心位置と対応画像R1´の重心位置との差を視差量(画素数)として算出し、得られた視差量に基づいて車両10と物体候補との距離zを算出する。同時に、探索画像の座標(x、y)と距離zを、実空間座標(X、Y、Z)に変換して、探索画像に対応する実空間位置の座標を算出する。なお、実空間座標(X、Y、Z)は、図2の赤外線カメラ2R、2Lの取り付け位置の中点の位置を原点0として、Xを車両10の車幅方向、Yを鉛直方向、Zを車両10の前方方向に設定される。
【0025】
次のステップS14において、物体候補の位置判定をおこなう。図4は、本発明の一実施例に従う、車両前方の検出領域を説明するための図である。図4の三角形の領域20は、車両10の赤外線カメラ2R、2Lで監視可能な領域を示す。領域20は、4つの領域A〜Dに区分けされている。
【0026】
領域AとBは、路上領域であり、車両10の車幅αの両側に余裕β(例えば50〜100cm程度とする)を加えた範囲に対応する領域、言い換えれば車両10の横方向の中心軸の両側に(α/2+β)の幅を有する領域である。この領域A、Bは、物体候補がそのまま存在し続ければ衝突の可能性が高い領域である。
【0027】
領域AとBは、物体候補が車両10に到達するまでの時間TTC(秒)が所定時間T1(秒)以上か以下かを基準に区分けしてある。領域CとDは、いずれも路側領域である。この領域C、Dは、領域A、BよりX座標の絶対値が大きい(領域A、Bの横方向外側の)領域であり、この領域内にある物体候補については、後述する車両10へ向けての侵入衝突の可能性のある領域である。
【0028】
ステップS13において得られた物体候補の距離および実空間座標(X、Y、Z)を図4の監視可能な領域に適用して、物体候補が領域20のA〜Dのいずれの領域に位置するかを判定する。その際、例えば最初に路上領域である領域(A+B)または路側領域である領域(C+D)のいずれにあるか否かを判定する。次に路上領域(A+B)にある場合、領域AまたはBのいずれにあるかを判定する。判定結果に応じてフラグを設定する。例えば、図4に例示されるように、領域A、BC、Dのいずれかに位置するかによって、Area_Flagとしてそれぞれ1、2、4、4を設定する。
【0029】
次のステップS15において、物体候補の移動ベクトルを算出する。具体的には、最初に車両10が回頭することによる画像上の位置ずれを補正する回頭角補正を行う。次に、所定のモニタ期間内に撮像された複数の画像から得られた回頭角補正後の同一の物体候補の実空間位置の時系列データから、物体候補と車両10との相対的な移動ベクトルを算出する。なお、実空間座標(X、Y、Z)及び移動ベクトルの具体的な算出方法については、例えば特開2004−303219号公報に詳説されているので、ここでは説明を省略する。
【0030】
算出された移動ベクトルが図4の領域C、D内を起点とし車両10の方向に向かっている場合、車両10へ向けての侵入衝突の可能性があるので、フラグを設定する。例えば、図4の符号21で指示されるベクトルのように、対象となる物体候補の移動ベクトルについてArea_Flagとして3を設定する。
【0031】
次のステップS16において、物体候補の種別判定をおこなう。図5と図6を参照しながら種別判定について説明する。図5及び図6は、本発明の一実施例に従う、種別判定の処理フローを示す図である。
【0032】
図5のステップS20において、物体候補の車両10への到達可能性が所定値より大きいか否かを判定する。具体的には、例えば図3のステップS14、S15で得られた物体候補の位置、移動ベクトルから、各物体候補が車両10に到達するまでの時間TTCを算出し、その逆数(1/TTC)を到達可能性を示す値ARとする。そのARが所定値よりも大きいか否かを判定する。この判定は、言い換えればTTCが所定時間よりも短いか否かを判定することに相当する。図4の監視可能な領域20を例にとると、TTCが5秒以下の領域Bの中のさらにTTCが小さい(車両10に近い)領域に位置する物体候補の到達可能性が所定値を超えるように設定される。あるいは、図4の移動ベクトル21の大きさが所定の大きさより大きい場合にその物体候補の到達可能性が所定値を超えていると判定される。
【0033】
ステップS20の判定がYesの場合、種別判定の処理を終了して戻る。物体候補と車両10との衝突可能性が大きいので、種別判定の処理を省略して直ちに先のステップに進み速やかに報知等を行うことが望ましいからである。この判定がNoの場合は次のステップS21に進む。
【0034】
ステップS21において、物体候補が第1領域内に存在するか否かを判定する。ここで第1領域は、車両10との衝突可能性が比較的大きい領域を意味する。具体的には、例えば物体候補が図4の領域Bに存在するか否か、言い換えれば物体候補のArea_Flagとして2が設定されているか否かを判定する。この判定がYesの場合は次のステップS22に進み、判定がNoの場合はステップS23に進む。
【0035】
ステップS22において、第1領域内の物体候補に対して第1種別判定をおこなう。第1種別判定は、高演算負荷で判定精度が高い種別判定であり、例えば物体候補が歩行者等の特定の物体に該当するか否かを判定する。その具体的な判定方法は、従来から行われているように、例えば歩行者を対象とする場合は、物体の輝度分散、輝度プロファイル、周期性、または高輝度部分の形状が歩行者の特徴(頭部、肩部、脚部等)に該当するか否か等に応じて歩行者であるか否かを判定する。
【0036】
ステップS23において、物体候補が第2領域内に存在するか否かを判定する。ここで第2領域は、第1領域に比べて車両10との衝突可能性が低い領域を意味する。具体的には、例えば物体候補が図4の領域Aに存在するか否か、言い換えれば物体候補のArea_Flagとして1が設定されているか否かを判定する。この判定がYesの場合は次のステップS24に進み、判定がNoの場合は処理を終了して戻る。
【0037】
ステップS24において、第2領域内の物体候補に対して第2種別判定をおこなう。第2種別判定は、第1種別判定よりも低演算負荷で判定精度が低い種別判定であり、言い換えれば第2種別判定は、第1種別判定よりも簡易な判定である。具体的には、例えば演算量を減らすために小さい所定数の登録パターンとのパターンマッチングにより物体候補の種別を判定する。
【0038】
次に図6の種別判定の処理フローについて説明する。図6の処理フローは図5の処理フローの変形バージョンに当たり、両フローで共通するステップには同じステップ番号を付けている。図6では図5に比べて2つのステップS25、26が追加されている。ステップS20〜S24は図5の場合と同様であるのでここではその内容説明を省略する。
【0039】
図6のステップS25において、第1領域内に所定数以上の物体候補が存在するか否かを判定する。第1領域の意味は図5のステップS21等の場合と同様であり、具体的には、例えば物体候補が図4の領域Bに所定数以上存在するか否か、言い換えればArea_Flagとして2が設定されている物体候補が所定数以上存在するか否かを判定する。所定数は画像処理ユニット12のCPUの演算処理能力等に基づき設定する。この判定がNoの場合は、ステップS24に進み、図5のステップS24で説明した第2領域内の物体候補に対して第2種別判定をおこなう。
【0040】
ステップS25の判定がYesの場合、次のステップS26において、第2領域内の物体候補に対して第3種別判定をおこなうか、あるいは当該判定を省略して終了する。ここで第3種別判定は、第2種別判定よりも低演算負荷で判定精度が低い種別判定であり、より小さい所定数(例えば1、2)の登録パターン(例えば歩行者のみ)とのパターンマッチングにより物体候補の種別を判定する。この判定を採用することにより、衝突の危険性の大きな第1領域内に複数の物体が存在する場合、その種別処理に演算負荷を集中させて早くその画像処理を進めることができる。その結果、運転者への迅速な報知が可能となり、車両と物体との衝突の危険性をより低くすることが可能となる。
【0041】
図3に戻って、ステップS17において、検知された、言い換えれば種別判定された物体の信頼性を判定する。具体的には、過去の種別判定が正しかった、言い換えれば検知すべき物体(例えば歩行者)であると判断された回数や人工構造物あるいは車両と判定された回数から種別判定された物体の信頼性を判定する。
【0042】
次のステップS18において、運転者への報知レベルを判定し報知手段であるスピーカ14または表示装置16に制御信号を送る。図7は、本発明の一実施例に従う、検出領域と報知レベルとの関係を示す図(表)である。図7のInfo_Flagが報知の内容を示すフラグであり、Area_Flagは図4で設定された位置を示すフラグである。
【0043】
Area_Flagが2または3である場合、衝突の危険性が大きいので、Info_Flagとして2を設定し、スピーカ14によって、運転者に注意を喚起するための音(警報)を発する内容の報知判定をおこなう。Area_Flagが1である場合、Info_Flagとして1を設定し、表示装置16に表示された所定の物体画像に枠を付ける内容の報知判定をおこなう。Area_Flagが4ある場合は、物体が車両に向かってくる場合についてのみその物体画像に枠を付ける内容の報知判定をおこなう。このように、物体の位置が図4のZ方向としては同じ位置にあってもX方向での位置の違いにより報知(警告)の内容を切り替える。なお、枠を付ける代わりに、あるいは枠に加えて他の強調表示(高輝度化、点滅、色表示等)を行う内容の判定をおこなってもよい。
【0044】
次に図8と図9を参照して、本発明の一実施例に従う、画像処理ユニットによる処理フローの他の例について説明する。
【0045】
図8の処理フローでは、図3の処理フローと較べて、ステップS15とS16の間に判定ステップS150を追加したことが相違しており、他のステップは図3と同様である。図8のステップS150において、位置が判定され、あるいは移動ベクトルが得られた物体候補の検知が過去の、すなわち所定回数前の検知サイクル(処理サイクル)において既に確定しているか、言い換えれば既に当該物体についての種別判定が確定しているか否かを判定する。この判定がYesの場合、ステップS16〜S18をスキップして処理を終了する(符号22)。このスキップ処理により、既に種別判定がされている所定の物体について、再度その判定処理をおこなうことを回避して、CPUの演算負荷を軽減することが可能となる。
【0046】
図9の処理フローでは、図3の処理フローと較べて、ステップS14を2つのステップS140、144に分けて、両ステップの間に判定ステップS142を追加し、さらに図8の場合と同様にステップS15とS16の間に判定ステップS150を追加したことが相違しており、他のステップは図3と同様である。
【0047】
図9のステップS140において、物体候補の位置判定1をおこなう。ここで、位置判定1は物体候補が図4の領域A、CまたはDに存在するか、言い換えればArea_Flagが1または4の設定がされるかの判定をおこなう。すなわち、最初に物体候補が車両10との衝突の危険性が低い領域に存在するか否かを判定する。
【0048】
次のステップS142において、位置判定がされた物体候補に関して、過去の所定時間(所定検知サイクル)内に音による報知(警告)がされているか否かを判定する。この判定がYesの場合、以降のステップを全てスキップして処理を終了する(符号23)。これは、既に所定時間内に音による報知がされているので、運転者が対象物に対する注意を行っている状態であると考えられ、また、警報が連続することによる煩わしさを低減するためである。これにより、運転者への警報を最適化するとともにCPUの演算負荷を軽減することが可能となる。
【0049】
ステップS142の判定がNoの場合、次のステップS144において、物体候補の位置判定2をおこなう。ここで、位置判定2は物体候補が図4の領域Aに存在する場合に、すなわちArea_Flagの1が設定されている場合に、領域Bに物体候補が存在するか、言い換えればArea_Flagが2の設定がされるかの判定をおこなう。すなわち、物体候補が車両10との衝突の危険性が大きい領域に存在するか否かを判定する。
【0050】
次のステップS15以降は図8の場合と同様であり、ステップS150において物体候補の検知の確定の有無を判定し、その判定がYesの場合、ステップS16〜S18をスキップして処理を終了する(符号23)。
【0051】
以上、本発明の実施の形態について説明したが、本発明はこのような実施形態に限定されることはなく、本発明の趣旨を逸脱しない範囲において改変して用いることができる。
【0052】
例えば、上述した実施例では、図4の監視可能領域をA〜Dの4つの領域に分けているが、その分け方はこれに限られず、Z方向において3分割する等の分け方を採用してもよい。また、X方向での距離が遠い(図4のCとDの領域)程、演算負荷が小さく(精度が低く)なるようにしてもよい。
【符号の説明】
【0053】
1R、1L 赤外線カメラ
2 表示画面(HUD)
10 車両
12 画像処理ユニット
14 スピーカ
16 表示装置
20 赤外線カメラによる監視可能な領域

【特許請求の範囲】
【請求項1】
車両に搭載され、該車両の周辺の画像を取得する撮像手段と、
前記撮像手段により取得された画像から該車両の周辺の物体を特定する物体特定手段と、
前記物体の移動ベクトルを算出する移動ベクトル算出手段と、
前記物体の種別を判定する種別判定手段と、
前記物体が所定対象物でありかつ前記車両と前記物体とが所定の位置関係にある場合に運転者に報知をおこなう報知手段と、を備える車両の周辺監視装置であって、
前記種別判定手段は、(i)前記物体が、前記車両に到達するまでの到達時間が所定時間以下である第1領域に存在する場合、高演算負荷で判定精度が高い第1種別判定をおこない、(ii)前記物体が、前記到達時間が所定時間よりも大きい第2領域に存在する場合、前記第1種別判定よりも低演算負荷で判定精度が低い第2種別判定をおこなう、車両の周辺監視装置。
【請求項2】
前記種別判定手段は、前記第1および第2領域に物体が存在し、かつ前記第1領域に所定数以上の物体が存在する場合、前記第2領域に存在する物体に対する前記第2種別判定をおこなわない、あるいは前記第2種別判定よりも低演算負荷で判定精度が低い第3種別判定をおこなう、請求項1に記載の周辺監視装置。
【請求項3】
前記物体に対する前記到達時間および前記移動ベクトルから当該物体が前記車両に到達する可能性が所定値以上であると判定される場合、前記種別判定手段は当該物体に対する種別の判定をおこなわない、請求項1または2に記載の周辺監視装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate