説明

車両用外界認識装置およびそれを用いた車両システム

【課題】例えば雨天時の傘をさしている歩行者と持っていない歩行者のように、類似した2種類の物体を少ない処理負荷で検出することができる車両用外界認識装置を提供する。
【解決手段】車両用外界認識装置1000は、画像から第一の物体と第二の物体で互いに共通する部分の類似度MT0と、第一の物体の特有な部分の類似度である第一の特有類似度MT1と、第二の物体の特有な部分の類似度である第二の特有類似度MT2を算出して、共通類似度MT0と第一の特有類似度MT1を用いて第一の物体の有無を判定するとともに、共通類似度MT0と第二の特有類似度MT2を用いて第二の物体の有無を判定し、装置全体の処理負荷を軽減する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、カメラ等の画像センサからの情報に基づいて自車周囲の歩行者等の物体を検知する車両用外界認識装置およびそれを用いた車両システムに関する。
【背景技術】
【0002】
交通事故による死傷者数を低減するため、事故を未然に防ぐ予防安全システムの開発が進められている。日本国内においては、歩行者が死亡する事故が交通事故死亡者数全体の約30%を占めており、このような歩行者事故を減少させるために、自車前方の歩行者を検知する予防安全システムが有効である。予防安全システムは、事故の発生する可能性が高い状況下で作動するシステムであり、例えば、自車前方の障害物と衝突する可能性が生じたときには警報によって運転者に注意を促し、衝突が避けられない状況になったときには自動ブレーキによって乗員の被害を軽減するプリクラッシュ・セーフティ・システム等が実用化されている。
【0003】
自車前方の歩行者を検知する方法として、カメラで自車前方を撮像し、撮像された画像から、歩行者の形状パターンを用いて検出するパターンマッチ手法が用いられる。歩行者は様々な服装、形状のパターンが考えられるが、自車の環境を測定することによって歩行者の形状を推定し検出を変える方法が提案されている。
【0004】
例えば、特許文献1には、夜間、雨天といった走行環境を判定し、環境に応じて歩行者テンプレートを変える方式が記載されている。
【0005】
また、特許文献2には、自動車専用道を走行中か否か、あるいは、昼か夜か等の判定結果に応じて、歩行者テンプレートとのマッチング率の閾値を変化させる方法が記載されている。
【0006】
さらに、特許文献3には、歩行者の形状を検出しやすい環境であるかを判定し、その判定結果に基づいて検出判定用閾値を決定する方法が記載されている。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】特開2009−122859号公報
【特許文献2】特開2010−066815号公報
【特許文献3】特開2009−026233号公報
【発明の概要】
【発明が解決しようとする課題】
【0008】
しかしながら、上記方法においては、環境によって検出できない歩行者が存在する。例えば、特許文献1に記載のテンプレートを切り替える方式においては、雨天時であるとして、通常の歩行者用のテンプレートから、傘をさしている歩行者用のテンプレートに切り替えると、雨天時に傘をさしていない歩行者を検出することができないという問題がある。
【0009】
特許文献2、3に記載の環境を認識して検出用閾値を変化させる方式においても、検出用閾値を低下させて検出漏れを減らすと、誤検出が増加してしまうという問題がある。
【0010】
また、様々な歩行者を同時に検出するために複数のテンプレートとのマッチングを常時すべて実行する方法が考えられるが、処理負荷の観点から、現実的でない。
【0011】
上記した問題は、歩行者に限定されるものではなく、車両にとって障害物となりうる物体の全てについて生ずるものである。
【0012】
本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、一部の形状が互いに共通している複数種類の物体を、より小さな処理負荷でそれぞれ検出可能な車両用外界認識装置およびそれを用いた車両システムを提供することである。
【課題を解決するための手段】
【0013】
上記課題を解決する本発明の車両用外界認識装置は、自車周辺を撮影した画像から第一の物体と第二の物体の共通部分の類似度である共通類似度を算出し、画像から第一の物体の特有な部分の類似度である第一の特有類似度を算出し、画像から第二の物体の特有な部分の類似度である第二の特有類似度を算出し、該算出した共通類似度と第一の特有類似度を用いて第一の物体の有無を判定し、該算出した共通類似度と第二の特有類似度を用いて第二の物体の有無を判定することを特徴としている。
【発明の効果】
【0014】
本発明によれば、画像から第一の物体と第二の物体で互いに共通する部分の類似度と、第一の物体の特有な部分の類似度である第一の特有類似度と、第二の物体の特有な部分の類似度である第二の特有類似度を算出して、共通類似度と第一の特有類似度を用いて第一の物体の有無を判定するとともに、共通類似度と第二の特有類似度を用いて第二の物体の有無を判定するので、例えば、第一の物体全体の類似度を算出して第一の物体の有無を判定しかつ第二の物体全体の類似度を算出して第二の物体の有無を判定する処理を行う場合と比較して、第一の物体と第二の物体で互いに共通する部分については、それぞれ類似度を判断する処理を重複して行う必要がなく、かかる共通部分については類似度を判断する処理を一度だけ実行すればよく、装置全体の処理負荷を軽減することができる。
【図面の簡単な説明】
【0015】
【図1】第一実施の形態における車両用外界認識装置のブロック図。
【図2】図1の処理領域設定部における処理の例を示す模式図。
【図3】図1の共通類似度算出部から物体位置算出部までの処理を示すフローチャート。
【図4】図3のエッジ抽出で用いるソーベルフィルタの重みを示す図。
【図5】図1の共通類似度算出部で用いられる局所エッジ判定器の模式図。
【図6】図1の共通類似度算出部による類似度の算出方法を示すブロック図。
【図7】図1の第一の特有類似度算出部および第二の特有類似度算出部における類似度の算出方法を示すブロック図。
【図8】第二実施の形態における車両用外界認識装置のブロック図。
【図9】第二実施の形態における環境推定部の処理を表すフローチャート。
【図10】第二実施の形態における環境推定部の処理を表すフローチャート。
【図11】第三実施の形態における車両用外界認識装置のブロック図。
【図12】第三実施の形態における環境推定部の処理を表すフローチャート。
【図13】第四実施の形態における車両用外界認識装置のブロック図。
【図14】本発明の車両用外界認識装置を用いた車両システムの処理を表すフローチャート。
【図15】本発明の車両用外界認識装置を用いた車両システムの危険度の算出の例を示す模式図。
【発明を実施するための形態】
【0016】
<第一実施の形態>
以下、本発明の第一実施の形態について図面を用いて詳細に説明する。図1は、第一実施の形態における車両用外界認識装置1000のブロック図である。
【0017】
車両用外界認識装置1000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ装置のカメラ1010で撮影した画像内から、一部の形状が互いに共通している複数種類の物体を検出するためのものであり、本実施の形態では、自車の前方を撮像した画像内から傘をさしていない歩行者、および、傘をさしている歩行者を検知するように構成されている。傘をさしていない歩行者、および、傘をさしている歩行者は、その一部である下半身の形状が互いに共通している。
【0018】
車両用外界認識装置1000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。
【0019】
車両用外界認識装置1000は、図1に示すように、画像取得部1011と、処理領域設定部1021と、共通類似度算出部1030と、第一の特有類似度算出部1031と、第二の特有類似度算出部1032と、第一の物体判定部1041と、第二の物体判定部1042と、物体位置算出部1051とを有し、さらに実施例によっては、更に物体位置取得部1111を有する場合がある。
【0020】
画像取得部1011は、自車の前方を撮像可能な位置に取り付けられたカメラ1010から、自車前方を撮影したデータを取り込み、画像IMGSRC[x][y]としてRAM上に書き込む。なお、画像IMGSRC[x][y]は2次元配列であり、x、yはそれぞれ画像の座標を示す。
【0021】
処理領域設定部1021は、画像IMGSRC[x][y]内から歩行者を検出する処理領域23(SX,SY,EX,EY)を設定する。処理の詳細については後述する。
【0022】
以下、共通類似度算出部1030、第一の特有類似度算出部1031、第二の特有類似度算出部1032、第一の物体判定部1041、第二の物体判定部1042は、歩行者を検出する処理領域23(SX,SY,EX,EY)内を探索するように、判定領域31(図5を参照)(SXG[g],SYG[g],EXG[g],EYG[g])を設定し、第一の物体である傘をさしていない歩行者と第2の物体である傘をさしている歩行者を検出する処理を、繰り返し実行する。ここで、gは複数の領域を設定した場合のID番号である。
【0023】
共通類似度算出部1030は、傘をさしていない歩行者、および、傘をさしている歩行者の共通なパターンである、歩行者の下半身のテンプレートTP0との類似度を算出する。共通類似度算出部1030は、歩行者の下半身のテンプレートTP0を有し、画像IMGSRC[x][y]の判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])との類似度MT0を算出する。処理の詳細については後述する。
【0024】
第一の特有類似度算出部1031は、傘をさしていない歩行者の特有のパターンである、歩行者の上半身のテンプレートTP1との類似度を算出する。第一の特有類似度算出部1031は、歩行者の上半身のテンプレートTP1を有し、画像IMGSRC[x][y]の判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])との類似度MT1を算出する。処理の詳細については後述する。
【0025】
第二の特有類似度算出部1032は、傘をさしている歩行者の特有のパターンである、傘を含む歩行者の上半身のテンプレートTP2との類似度を算出する。第二の特有類似度算出部1032は、テンプレートTP2を有し、画像IMGSRC[x][y]の判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])との類似度MT2を算出する。処理の詳細については後述する。
【0026】
第一の物体判定部1041は、共通部分のテンプレートTP0との共通類似度MT0と、傘をさしていない歩行者特有のテンプレートTP1との第一の特有類似度MT1を用いて、傘をさしていない歩行者の有無を判定する。判定は、例えば閾値TH1_MTを用いて、共通類似度MT0と第一の特有類似度MT1とを加算した値が閾値TH1_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT1)>TH1_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH1_MT0と第一の特有類似度の閾値TH1_MT1を用いて、共通類似度MT0が閾値TH1_MT0よりも大きくかつ第一の特有類似度MT1が閾値TH1_MT1よりも大きいという条件を満たす場合、すなわち、
MT0>TH1_MT0、かつ、MT1>TH1_MT1
であれば物体が存在すると判定してもよい。
【0027】
第二の物体判定部1042は、共通部分のテンプレートTP0との共通類似度MT0と、傘をさしている歩行者特有のテンプレートとの第二の特有類似度MT2を用いて、傘をさしている歩行者の有無を判定する。判定は、例えば閾値TH2_MTを用いて、共通類似度MT0と第二の特有類似度MT2とを加算した値が閾値TH2_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT2)>TH2_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH2_MT0と第二の特有類似度の閾値TH2_MT2を用いて、共通類似度MT0が閾値TH2_MT0よりも大きくかつ第二の特有類似度MT2が閾値TH2_MT2よりも大きいという条件を満たす場合、すなわち、
MT0>TH2_MT0、かつ、MT2>TH2_MT2
であれば物体が存在すると判定してもよい。
【0028】
物体位置算出部1051は、第一の物体判定部1041、第二の物体判定部1042にて検出した物体の位置を算出する。物体位置取得部1111を有する場合、物体位置は物体位置取得部1111より取得した物体位置情報を用いる。処理の詳細は後述する。
【0029】
物体位置取得部1111は、自車に搭載されたミリ波レーダやレーザレーダ等の自車周辺の物体を検出するレーダからの検出信号を取得して、自車前方に存在する物体の物体位置(相対距離PYR[b]、横位置PXR[b]、横幅WDR[b])を取得する。ここで、bは複数の物体を検知している場合の各物体のID番号である。これらの物体の位置情報は、レーダの信号を車両用外界認識装置1000に直接入力することによって取得してもよいし、レーダとLAN(Local Area Network)を用いた通信を行うことによって取得してもよい。物体位置取得部1111で検出した物体位置は、処理領域設定部1021にて用いられる。
【0030】
[処理領域設定部]
つぎに、図2を用いて、処理領域設定部1021における処理の内容について説明する。
【0031】
図2は、処理領域設定部の処理の例を示す図である。処理領域設定部1021は、画像IMGSRC[x][y]内で歩行者検知処理を行う処理領域23を選定し、その座標の範囲である、x座標(横方向)の始点SXおよび終点EX、y座標上(縦方向)の始点SYおよび終点EYを求める(SX,SY,EX,EY)。処理領域設定部1021は、物体位置取得部1111からの位置情報を用いてもよく、用いなくてもよい。
【0032】
まず、物体位置取得部1111からの位置情報を用いる場合について説明する。図2(a)は、物体位置取得部1111からの位置情報を用いた場合における処理領域設定部1021の処理の例を示す図である。
【0033】
処理領域設定部1021は、物体位置取得部1111が検出した物体21の相対距離PYR[b]、横位置PXR[b]および横幅WDR[b]から、検出した物体21の画像上での位置を示す物体位置領域22(x座標(横方向)の始点SXB、終点EXB、y座標(縦方向)の始点SYB、終点EYB)を算出する。なお、カメラ画像上の座標と実世界の位置関係を対応付けるカメラ幾何パラメータを、カメラキャリブレーション等の方法によってあらかじめ算出しておき、物体の高さを、例えば180[cm]などあらかじめ仮定しておくことにより、画像上での位置は一意に決まる。
【0034】
また、カメラ1010の取り付けの誤差やレーダとの通信遅れ等の理由により、物体位置取得部1111で検出した物体21の画像上での位置と、カメラ画像に写っている同じ物体21の画像上での位置に違いが生じる場合がある。よって、画像上での物体21の位置を示す物体位置領域22(SXB、EXB、SYB、EYB)に、補正を加えた領域を処理領域23(SX、EX、SY、EY)として算出する。補正は、画像上での物体21の位置を示す物体位置領域22を所定の量だけ拡大したり、移動させたりすることによって行われ、例えば、物体位置領域22の各点SXB、EXB、SYB、EYBの位置を上下左右に所定の画素だけ拡張してもよい。こうして、処理領域23(SX、EX、SY、EY)を得ることができる。なお、複数の領域に対して処理する場合、処理領域23(SX、EX、SY、EY)をそれぞれ生成し、後述する物体検出処理をそれぞれの処理領域23に対して個別に実施する。
【0035】
つぎに、処理領域設定部1021において、物体位置取得部1111からの位置情報を用いずに処理領域23(SX、EX、SY、EY)を設定する処理について説明する。物体位置取得部1111を用いない場合の処理領域23の設定方法は、例えば、領域の大きさを変化させながら画像全体を探索するように複数の領域を設定する方法や、特定の位置、特定の大きさのみに限定して領域を設定する方法がある。特定の位置に限定する場合は、例えば自車速を用いて、自車がT秒後に進んでいる位置に限定する方法がある。
【0036】
図2(b)は、自車速を用いて,自車が2秒後に進んでいる位置を探索する場合の例である。処理領域23の位置、および大きさは、自車が2秒後に進んでいる位置までの相対距離における路面高さ(0cm)、および想定する歩行者21の高さ(本実施の形態では180cm)から、カメラ幾何パラメータを用いて画像IMGSRC[x][y]上のy方向の範囲(SYP、EYP)を求める。なお、x方向の範囲(SXP、EXP)は、制限しなくてもよいし、自車の予測進路等により制限してもよい。こうして、処理領域23(SX、EX、SY、EY)を得ることができる。
【0037】
[類似度算出部]
つぎに、図3、4を用いて、共通類似度算出部1030、第一の特有類似度算出部1031、第二の特有類似度算出部1032、第一の物体判定部1041、第二の物体判定部1042、物体位置算出部1051における処理の流れについて説明する。図3は、車両用外界認識装置の処理を説明するフローチャートである。
【0038】
まず、ステップS301にて、画像IMGSRC[x][y]の処理領域23(SX,SY,EX,EY)から、エッジを抽出する。以下、微分フィルタとしてソーベルフィルタを適用する場合におけるエッジ画像EDGE[x][y]、および、勾配方向画像DIRC[x][y]の算出方法について説明する。
【0039】
ソーベルフィルタは、図4に示すように3×3画素の大きさで、x方向の勾配を求めるx方向フィルタ41とy方向の勾配を求めるy方向フィルタ42の2種類が存在する。画像IMGSRC[x][y]からx方向の勾配を求める場合、画像IMGSRC[x][y]の1画素ごとに、その画素と周囲8画素の計9画素の画素値と、対応する位置のx方向フィルタ41の重みの積和演算を行う。積和演算の結果がその画素におけるx方向の勾配となる。y方向の勾配の算出も同様である。
【0040】
画像IMGSRC[x][y]のある位置(x、y)におけるx方向の勾配の算出結果をdx、y方向の勾配の算出結果をdyとすると、勾配強さ画像DMAG[x][y]および勾配方向画像DIRC[x][y]は以下の式(1)(2)により算出される。
【0041】
DMAG[x][y]=|dx|+|dy| ・・・(1)
DIRC[x][y]=arctan(dy/dx) ・・・(2)
【0042】
なお、勾配強さ画像DMAG[x][y]および勾配方向画像DIRC[x][y]は、画像IMGSRC[x][y]と同じ大きさの2次元配列であり、勾配強さ画像DMAG[x][y]および勾配方向画像DIRC[x][y]の座標(x、y)は画像IMGSRC[x][y]の座標(x、y)に対応する。
【0043】
算出した勾配強さ画像DMAG[x][y]の値とエッジ閾値THR_EDGEを比較し、勾配強さ画像DMAG[x][y]がエッジ閾値THR_EDGEよりも大きい(DMAG[x][y]>THR_EDGE)のであれば1、それ以外、すなわち、勾配強さ画像DMAG[x][y]がエッジ閾値THR_EDGE以下であれば0を、エッジ画像EDGE[x][y]に記憶する。
【0044】
エッジ画像EDGE[x][y]は、画像IMGSRC[x][y]と同じ大きさの2次元配列であり、エッジ画像EDGE[x][y]の座標(x、y)は画像IMGSRC[x][y]の座標(x、y)に対応する。
【0045】
なお、エッジ抽出前に、画像IMGSRC[x][y]から処理領域23(SX、EX、SY、EY)に該当する画像を切り出し、画像中の物体の大きさが所定の大きさになるように拡大・縮小してもよい。本実施の形態では、処理領域設定部1021にて用いた距離情報とカメラ幾何を用い、画像IMGSRC[x][y]内の高さ180[cm]、幅60[cm]の物体が全て16ドット×12ドットの大きさになるように画像を拡大・縮小し、上記エッジを算出する。
【0046】
また、エッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]の算出は、処理領域23(SX、EX、SY、EY)の範囲外は全てゼロとしてもよい。
【0047】
つぎに、ステップS3011にて、エッジ画像EDGE[x][y],およびエッジ方向画像DIRC[x][y]内に歩行者判定を行う判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])を設定する。
【0048】
ステップS301で述べたように,本実施の形態では、カメラ幾何を用い、画像IMGSRC[x][y]内の高さ180[cm]、幅60[cm]の物体が全て16ドット×12ドットの大きさになるように画像を拡大・縮小してエッジ画像EDGE[x][y]を生成している。よって、判定領域31の大きさを16ドット×12ドットとし、エッジ画像EDGE[x][y]内の処理領域23(SX、EX、SY、EY)が16ドット×12ドットより大きい場合は、判定領域31をエッジ画像EDGE[x][y]内に一定の間隔で敷き詰めるように複数設定する。
【0049】
つぎに、g=0として、処理領域設定部1021にて設定された全ての判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])について、以下ステップS302からS306の処理を実行する。
【0050】
まず、ステップS302にて、判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])内のエッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]を用いて、複数種類の物体で互いに共通している部分の類似度である共通類似度を算出する。ここでは、共通類似度算出部1030で、傘をさしていない歩行者と傘をさしている歩行者との共通部分である、歩行者の下半身のパターンとの類似度を求める処理を行い、共通類似度MT0を算出する。処理詳細は後述する。
【0051】
つぎに、ステップS303にて、判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])内のエッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]を用いて、所定の種類の物体が有する物体特有の特徴部分のパターンとの類似度である第一の特有類似度を算出する。ここでは、第一の特有類似度算出部1031で、傘をさしていない歩行者特有の特徴部分である、歩行者の上半身のパターンとの類似度を求める処理を行い、傘をさしていない歩行者の特有な部分の類似度である第一の特有類似度MT1を算出する。処理詳細は後述する。
【0052】
つぎに、ステップS304にて、判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])内のエッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]を用いて、他の種類の物体が有する物体特有の特徴部分のパターンとの類似度である第二の特有類似度を算出する。ここでは、第二の特有類似度算出部1032で、傘をさしている歩行者特有の特徴部分である、歩行者の上半身の形状のパターンとの類似度を求める処理を行い、傘をさしている歩行者特有の特有な部分の類似度である第二の特有類似度MT2を算出する。処理詳細は後述する。
【0053】
つぎに、ステップS305にて、第一の物体判定部1041の処理を行い、第一の判定結果格納用配列DTC1[x][y]の座標(SXG[g],SYG[g])に、物体が存在すると判定された場合には「1」を、そうでない場合には「0」を格納する。
【0054】
さらに、ステップS306も同様に、第二の物体判定部1042の処理を行い、第二の判定結果格納用配列DTC2[x][y]の座標(SXG[g],SYG[g])に、物体が存在すると判定された場合には「1」を、そうでない場合には「0」を格納する。
【0055】
以上の処理を、全ての判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])に対し実行し、最後にステップS307にて、第一の判定結果格納用配列DTC1[x][y]、および、第二の判定結果格納用配列DTC2[x][y]の結果を統合し、物体位置を算出する。処理詳細は後述する。
【0056】
[類似度算出部]
つぎに、図5、6を用いて、共通類似度算出部1030における処理の流れについて説明する。図5は、図1の共通類似度算出部で用いられる局所エッジ判定器の模式図、図6は、図1の共通類似度算出部による類似度の算出方法を示すブロック図である。
【0057】
共通類似度算出部1030の処理を行うステップS302にて、ある判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])について、以下で詳述する識別器61の処理結果で得られる出力を類似度として取り扱う。
【0058】
まず、識別器61を用いて類似度を算出する方法について説明する。
【0059】
画像処理によって所定のパターンとの類似度を算出する方法として、パターンの代表となるテンプレートを複数用意しておき、差分累積演算あるいは正規化相関係演算を行って一致度を求めるテンプレートマッチングによる方法や、ニューラルネットワークなどの識別器を用いてパターン認識を行う方法が挙げられる。
【0060】
いずれの方法を選択するとしても、あらかじめ所定のパターンか否かを決定する指標となるソースのデータベースが必要となる。パターンの様々な状態をデータベースとして蓄えておき、そこから代表となるテンプレートを作成したり識別器を生成したりする。実環境ではパターンに様々な状態が予想されるため、大量のデータベースを用意して、誤判定を少なくすることが必要となってくる。このとき、前者のテンプレートマッチングによる方法の場合、判定漏れを防ぐようにするとテンプレートの数が膨大となるため現実的でない。
【0061】
そこで、本実施の形態では後者の識別器を用いて類似度を算出する方法を採用する。識別器の大きさはソースのデータベースの大きさに依存しない。なお、識別器を生成するためのデータベースを教師データと呼ぶ。
【0062】
本実施の形態で使用する識別器61は、複数の局所エッジ判定器に基づいて、傘をさしていない歩行者と傘をさしている歩行者の共通の特徴部分である、歩行者の下半身の類似度を算出する。
【0063】
まず、局所エッジ判定器51について、図5の例を用いて説明する。局所エッジ判定器51は、エッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]、およびマッチング判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])を入力とし、0か1かの2値を出力する判定器であり、局所エッジ頻度算出部511、および閾値処理部512から構成される。
【0064】
局所エッジ頻度算出部511は、マッチング判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])と同じ大きさのウィンドウ5111内に、局所エッジ頻度算出領域5112を持ち、マッチング判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])とウィンドウ5111の位置関係から、エッジ画像EDGE[x][y]および勾配方向画像DIRC[x][y]内の局所エッジ頻度を算出する位置を設定し、局所エッジ頻度MWCを算出する。
【0065】
局所エッジ頻度MWCは、勾配方向画像DIRC[x][y]の角度値が角度条件5113を満たしており、かつ、対応する位置のエッジ画像EDGE[x][y]が1である画素の総数である。角度条件5113は、図4の例の場合、67.5度から112.5度の間、もしくは、267.5度から292.5度の間であることであり、勾配方向画像DIRC[x][y]の値が一定の範囲であるか否かを判定するものである。
【0066】
閾値処理部512は、あらかじめ定められた閾値THWC#を持ち、局所エッジ頻度算出部511にて算出された局所エッジ頻度MWCが閾値THWC#以上であれば1、それ以外であれば0を出力する。なお、閾値処理部512は、局所エッジ頻度算出部511にて算出された局所エッジ頻度MWCが閾値THWC#以下であれば1、それ以外であれば0を出力してもよい。
【0067】
つぎに、図6を用いて、識別器について説明する。識別器61は、エッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]、および判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])を入力とし、判定領域31内が歩行者の下半身に類似していれば正の値を、類似していなければ負の値を出力する。識別器61は、40個の局所エッジ頻度判定器6101〜6140と、合計部612とから構成される。
【0068】
局所エッジ頻度判定器6101〜6140は、一つ一つの処理は、前述した局所エッジ判定器51と同様であるが、局所エッジ頻度算出領域5112、角度条件5113、閾値THWC#は、それぞれ異なっている。合計部6120は、局所エッジ頻度判定器6101〜6140からの出力に、対応する重みWWC1#〜WWC40#を乗じ、その合計値SCを出力する。
【0069】
識別器61の各局所エッジ頻度判定器6101〜6140のパラメータである局所エッジ頻度算出領域5112、角度条件5113、閾値THWC、また、重みWWC1#〜WWC40#は、識別器61への入力画像が歩行者の下半身であった場合には、合計部612から出力される合計値SCが正の値、歩行者の下半身ではなかった場合には合計値SCが負の値となるように、教師データを用いて調整される。調整には、例えばAdaBoostなどの機械学習の手段を用いてもよいし、手動で行ってもよい。
【0070】
例えば、NPD個の歩行者の下半身の教師データ、およびNBG個の非歩行者の教師データから、AdaBoostを用いてパラメータを決定する手順は以下の通りとなる。なお、以下、局所エッジ頻度判定器をcWC[m]と表す。ここで、mは局所エッジ頻度判定器のID番号である。
【0071】
まず、局所エッジ頻度算出領域5112および角度条件5113が異なる局所エッジ頻度判定器cWC[m]を複数(例えば、100万通り)用意し、それぞれにおいて、局所エッジ頻度MWCの値を全ての教師データから算出し、閾値THWCをそれぞれ決定する。閾値THWCは、歩行者の下半身の教師データと非歩行者の教師データを最も分類することができる値を選択する。
【0072】
つぎに、歩行者の下半身の教師データひとつひとつにwPD[nPD]=1/2NPDの重みを与える。同様に、非歩行者の教師データひとつひとつにwBG[nBG]=1/2NBGの重みを与える。ここで、nPDは歩行者の下半身の教師データのID番号、nBGは非歩行者の教師データのID番号である。そして、k=1として、以下、繰り返し処理を行う。
【0073】
まず、歩行者の下半身・非歩行者全ての教師データの重みの合計が1となるように、重みを正規化する。つぎに、各局所エッジ頻度判定器の誤検知率cER[m]を算出する。誤検知率cER[m]は、局所エッジ頻度判定器cWC[m]において、歩行者の下半身の教師データを局所エッジ頻度判定器cWC[m]に入力した場合の出力が0となったもの、もしくは非歩行者の教師データを局所エッジ頻度判定器cWC[m]に入力した場合の出力が1となったもの、すなわち出力が間違っている教師データの重みの合計である。
全ての局所エッジ頻度判定器の誤検知率cER[m]を算出後、誤検知率が最小となる局所エッジ頻度判定器のID mMin を選択し、最終局所エッジ頻度判定器WC[k]=cWC[mMin]とする。
【0074】
つぎに、各教師データの重みを更新する。更新は、歩行者の下半身の教師データのうち、最終局所エッジ頻度判定器WC[k]を適用した結果が1となったもの、および、非歩行者の教師データのうち最終局所エッジ頻度判定器WC[k]を適用した結果が0となったもの、すなわち出力が正しい教師データの重みに、係数BT[k]=cER[mMin]/(1−cER[mMin])を乗じる。
【0075】
k=k+1とし、kが予め設定した値(例えば、40)になるまで繰り返す。繰り返し処理の終了後に得られる最終局所エッジ頻度判定器WCがAdaBoostにより自動調整された識別器61となる。なお、重みWWC1〜WWC40は1/BT[k]から算出される。
【0076】
つぎに、図7を用いて、第一の特有類似度算出部1031、第二の特有類似度算出部1032における処理の流れについて説明する。図7は、図1の第一の特有類似度算出部および第二の特有類似度算出部における類似度の算出方法を示すブロック図である。
【0077】
第一の特有類似度算出部1031の処理を行うステップS303にて、ある判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])について、識別器611の処理結果得られる出力を第一の特有類似度MT1として取り扱う。識別器611は、識別器61と同じように設計された識別器であるが、教師データとして、傘をさしていない歩行者の上半身を用いている。
【0078】
同様に、第二の特有類似度算出部1032の処理を行うステップS304にて、ある判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])について、識別器612の処理結果得られる出力を第二の特有類似度MT2として取り扱う。識別器612は、識別器61と同じように設計された識別器であるが、教師データとして、傘をさしている歩行者の上半身を用いている。
【0079】
つぎに、物体位置算出部1051の処理について説明する。物体位置算出部1051は、判定結果格納用配列DTC1[x][y]において、「1」が入っている場所をグルーピングし、その中心位置に歩行者が存在すると判定する。グルーピングには、ラベリングなど、公知の技術を用いる。
【0080】
グルーピングされた領域のY座標と、カメラ幾何を用いて、歩行者の身長を180cmと仮定すると、歩行者までの距離を算出することができる。また、グルーピングされた領域のX座標と、カメラ幾何を用いて、歩行者の幅を60cmと仮定すると、自車中央から歩行者がどれだけ横(車幅方向外側)に存在しているかを算出することができる。
【0081】
また、物体位置取得部1111が存在する場合は、上記の方式により算出した位置の周辺に物体情報(PXR[b],PYR[b])が存在する場合は、情報を置き換える。もしくは、物体情報(PXR[b],PYR[b])を、カメラ幾何を用いて判定結果格納用配列DTC1[x][y]へ投影し、各グループの中心位置と投影した物体情報の配列上の距離が所定値以下である場合、物体であると判定し、物体情報(PXR[b],PYR[b])を歩行者の位置とする。判定結果格納用配列DTC2[x][y]についても同様の処理を行う。
【0082】
以上説明したように、車両用外界認識装置1000は、一回に傘をさしていない歩行者と傘をさしている歩行者を同時に検出することができる。さらに、共通類似度算出部1030を有しているため、単純に2種類の歩行者パターンマッチを実行するよりも、処理負荷を低減することができる。
【0083】
例えば、傘をさしていない歩行者の全身用のテンプレートと、傘をさしている歩行者の全身用のテンプレートとを用いてパターンマッチングを行った場合、共通する部分である歩行者の下半身については、重複してマッチング判定が行われ、処理の無駄が発生することとなる。
【0084】
これに対して、車両用外界認識装置1000は、傘をさしていない歩行者と傘をさしている歩行者で共通する特徴部分である歩行者の下半身については、共通する下半身用のテンプレートを用いて類似度を算出し、各歩行者の上半身については、それぞれ傘ありと傘なしの上半身用のテンプレートを用いて類似度を算出しているので、下半身について重複してマッチング判定が行われるのを防ぎ、装置全体の処理負荷を軽減することができる。
【0085】
なお、歩行者の検知に用いる識別器61、611,612は、本実施の形態で説明した方法の例に限定されない。正規化相関を用いたテンプレートマッチング、ニューラルネットワーク識別器、サポートベクターマシン識別器、ベイズ識別器などを用いてもよい。また、エッジを抽出せずに、濃淡画像やカラー画像をそのまま用いて、識別器61,611,612により判定してもよい。
【0086】
また、識別器61,611,612は、様々な歩行者の画像データと、自車にとって衝突の危険がない領域の画像データを教師データとして、AdaBoostなどの機械学習の手段を用いて調整してもよい。特に、実施の形態として車両用外界認識装置1000が物体位置取得部1111を備える場合には、様々な歩行者の画像データと、横断歩道、マンホールやキャッツアイ等、ミリ波レーダやレーザレーダが衝突の危険がないにも関わらず誤検知する領域の画像データを教師データとしてもよい。
【0087】
<第二実施の形態>
つぎに、本発明の車両用外界認識装置の第二実施の形態について、以下に図面を用いて説明する。
【0088】
図8は、第二実施の形態における車両用外界認識装置の構成を示すブロック図である。なお、以下の説明では、上述の第一実施の形態における車両用外界認識装置1000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。
【0089】
本実施の形態において特徴的なことは、自車周辺の環境を推定し、該推定した車両環境に応じて、第一の物体判定手段の判定結果に対する第一の信頼度と第二の物体判定手段の判定結果に対する第二の信頼度を調整する構成としたことである。
【0090】
車両用外界認識装置2000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から予め設定された2種類の物体を検知するためのものであり、本実施の形態では、自車の前方を撮像した画像内から傘をさしていない歩行者、および、傘をさしている歩行者を検知するように構成されている。
【0091】
車両用外界認識装置2000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。
【0092】
車両用外界認識装置2000は、図8に示すように、画像取得部1011と、処理領域設定部1021と、共通類似度算出部1030と、第一の特有類似度算出部1031と、第二の特有類似度算出部1032と、第一の物体判定部1041と、第二の物体判定部1042と、環境推定部2060と、第一の信頼度2061と、第二の信頼度2062と、物体位置算出部2071とを有し、さらに実施の形態によって、ワイパ操作取得部2161と、物体位置取得部1111とを有する。
【0093】
ワイパ操作取得部2161は、運転者による車両のワイパ操作の開始/終了の情報を取得する。この操作情報は、ワイパのON/OFF信号を車両用外界認識装置2000に直接入力することによって取得してもよいし、LAN(Local Area Network)を用いた通信を行うことによって取得してもよい。
【0094】
環境推定部2060は、ワイパ操作取得部2161、第一の物体判定部1041、第二の物体判定部1042、さらに物体位置取得部1111の情報のいずれか1つ以上を用いて、第一の信頼度2061、および、第二の信頼度2062の値を変更する。処理の詳細については後述する。
【0095】
第一の信頼度2061、および、第二の信頼度2062は、値が高いほど信頼度が高いことを表す数値である。これらの値は、環境推定部2060によって変更され、物体位置算出部2071にて用いられる。
【0096】
物体位置算出部2071は、第一の物体判定部1041、第二の物体判定部1042、第一の信頼度2061、第二の信頼度2062を用いて物体位置を算出する。物体位置取得部1111を有する場合、物体位置は物体位置取得部1111より取得した物体位置情報を用いる。処理の詳細は後述する。
【0097】
[環境推定部]
つぎに、図9,10を用いて、環境推定部2060における処理の内容について説明する。図9、10は環境推定部2060の処理の流れを示すフローチャートである。ここでは、2通りの調整方法について説明する。
【0098】
第一に、図9を用いて、ワイパ操作取得部2161の情報を用いた方法について説明する。まず、ステップS91にて、ワイパ操作取得部2161からワイパのON/OFF状態を取得する。つぎに、ステップS92にて、ワイパのON/OFF状態に応じて、図9(b)のテーブル921を参照して第一の信頼度2061、第二の信頼度2062を設定する。
【0099】
このように、ワイパのON/OFF状態に応じて第一の信頼度2061、第二の信頼度2062を変えることにより、例えばワイパがONのときは雨が降っていると予想されるので、第一の信頼度2061よりも第二の信頼度2062を大きく設定し(第一の信頼度2061<第二の信頼度2062)、逆にワイパがOFFのときは雨が降っていないと予想されるので、第一の信頼度2061よりも第二の信頼度2062を小さく設定する(第一の信頼度2061>第二の信頼度2062)。
【0100】
第二に、図10を用いて、第一の物体判定部1041、第二の物体判定部1042を用いた方法について説明する。
【0101】
まず、ステップS101にて、第一の物体判定部1041による第一の物体の過去T秒における検出回数N1をカウントする。ここでは、T=1秒とする。つぎに、ステップS102にて、第二の物体判定部1042による第2の物体の過去T秒における検出回数N2をカウントする。ここでは、T=1秒とする。つぎに、ステップS103にて、以下の条件を満たすかを判定する。ここで、THNはあらかじめ定められた値である。
【0102】
(N1−N2)/(N1+N2)>THN
【0103】
上記条件を満たす場合は、ステップS105へ移行し、第一の信頼度2061、および、第二の信頼度2062をそれぞれr11、r21(r11>r21)と設定する。これにより、傘をさしている歩行者の方が、傘をさしていない歩行者よりも十分に多い場合には、傘をさしている歩行者の信頼度を、傘をさしていない歩行者の信頼度よりも大きく設定される。
【0104】
そして、ステップS103の条件を満たさない場合は、ステップS104へ移行し、以下の条件を満たすかを判定する。ここで、THNはあらかじめ定められた値である。
【0105】
(N2−N1)/(N1+N2)>THN
【0106】
上記条件を満たす場合は、ステップS106へ行き、第一の信頼度2061、および、第二の信頼度2062をそれぞれr12、r22(r12<r22)と設定する。これにより、傘をさしていない歩行者の方が、傘をさしている歩行者よりも十分に多い場合には、傘をさしていない歩行者の信頼度を、傘をさしている歩行者の信頼度よりも大きく設定される。
【0107】
そして、ステップS104の条件を満たさない場合は、ステップS107へ移行し、第一の信頼度2061、および、第二の信頼度2062をそれぞれr13、r23(r13=r23)と設定する。これにより、傘をさしていない歩行者と、傘をさしている歩行者の人数がほぼ等しい場合には、傘をさしていない歩行者の信頼度と傘をさしている歩行者の信頼度が同じに設定される。このように、過去の検出回数を参照することによって、一方の検出頻度が他方に比べ高い場合、信頼度を高める処理を行う。
【0108】
つぎに、物体位置算出部2071における処理の内容について説明する。
【0109】
物体位置算出部2071は、判定結果格納用配列DTC1[x][y]において、「1」が入っている場所をグルーピングし、その中心位置に歩行者が存在すると判定する。グルーピングには、ラベリングなど、公知の技術を用いる。
【0110】
つぎに、過去T秒の検出結果を参照し、各グループが過去に存在した回数DTをカウントする。そして、回数DTと第一の信頼度2061を乗じた値JGを算出し、値JGが所定の閾値THJG以上であれば、そこに歩行者が存在すると判定する。
【0111】
グルーピングされた領域のY座標と、カメラ幾何を用いて、歩行者の身長を180cmと仮定すると、歩行者までの距離を算出することができる。また、グルーピングされた領域のX座標と、カメラ幾何を用いて、歩行者の幅を60cmと仮定すると、自車中央から歩行者がどれだけ横の位置(車幅方向)に存在しているかを算出することができる。
【0112】
また、物体位置取得部1111が存在する場合は、上記の方式により算出した位置の周辺に物体情報(PXR[b],PYR[b])が存在する場合は、情報を置き換える。
【0113】
もしくは、物体情報(PXR[b],PYR[b])を、カメラ幾何を用いて判定結果格納用配列DTC1[x][y]へ投影し、各グループの中心位置と投影した物体情報の配列上の距離が所定値以下である場合、物体であると判定し、物体情報(PXR[b],PYR[b])を歩行者の位置とする。判定結果格納用配列DTC2[x][y]についても同様の処理を行う。
【0114】
以上説明したように、信頼度と過去の検出回数を用いることにより、第一の信頼度、もしくは第二の信頼度が高い場合は対応する物体をすぐに検出することができ、低い場合は検出まで時間を要して、しばらくの間待つこととなる。
【0115】
環境推定部2060が図9に示す第一の形式の場合、ワイパのON/OFFによって傘をさしている歩行者の信頼度を変化させている。よって、傘をさしていない歩行者も、傘をさしている歩行者も物体判定は実行しているが、ワイパがOFFの場合は傘をさしている歩行者が、ワイパがONの場合は傘をさしていない歩行者が、それぞれ最終結果として検出されにくくなる。したがって、誤判定を減らすことができ、歩行者の検出精度を向上させることができる。
【0116】
また、環境推定部2060が図10に示す第二の形式の場合、過去の判定結果の頻度によって傘をさしていない歩行者、および、傘をさしている歩行者のそれぞれの信頼度を変化させている。よって、傘をさしていない歩行者も、傘をさしている歩行者も物体判定は実行しているが、一方の検出回数が十分多くなると、検出回数が少ない方は最終結果として検出されにくくなる。したがって、誤判定を減らすことができ、歩行者の検出精度を向上させることができる。
【0117】
<第三実施の形態>
つぎに、本発明の車両用外界認識装置の第三の実施の形態について、以下に図面を用いて説明する。
【0118】
図11は、車両用外界認識装置3000の実施形態を表すブロック図である。なお、以下の説明では、上述の第一実施の形態の車両用外界認識装置1000、および、第二十子の形態の車両用外界認識装置2000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付し説明を省略する。
【0119】
車両用外界認識装置3000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から予め設定された2種類の物体を検知するためのものであり、本実施の形態では、自車の前方を撮像した画像内から自車の車幅方向に向いている横向きの歩行者、および、自車の前後方向に向いている縦向きの歩行者を検知するように構成されている。
【0120】
車両用外界認識装置3000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。車両用外界認識装置3000は、図11に示すように、画像取得部1011と、処理領域設定部1021と、共通類似度算出部3030と、第一の特有類似度算出部3031と、第二の特有類似度算出部3032と、第一の物体判定部3041と、第二の物体判定部3042と、環境推定部3060と、第一の信頼度2061と、第二の信頼度2062と、物体位置算出部3071と、物体位置取得部1111とを有する。
【0121】
共通類似度算出部3030は、横向きの歩行者、および、縦向きの歩行者の共通なパターンである、歩行者の頭から肩にかけての輪郭テンプレートとの類似度を算出する。共通類似度算出部3030は、歩行者の頭のテンプレートTP0を有し、画像IMGSRC[x][y]の判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP0との類似度MT0を算出する。なお、処理の詳細は、テンプレートTP0が歩行者の頭から肩にかけての輪郭であること以外は上述の共通類似度算出部1030と同様であるため、割愛する。
【0122】
第一の特有類似度算出部3031は、横向きの歩行者の特有のパターンである、横向きの歩行者の肩から下のテンプレートとの類似度を算出する。第一の特有類似度算出部3031は、横向きの歩行者の肩から下の輪郭テンプレートTP1を有し、画像IMGSRC[x][y]の判定領域(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP1との類似度MT1を算出する。なお、処理の詳細は、テンプレートTP1が横向きの歩行者の肩から下の輪郭であること以外は上述の第一の特有類似度算出部1031と同様であるため、割愛する。
【0123】
第二の特有類似度算出部3032は、縦向きの歩行者の特有のパターンである、縦向きの歩行者の肩から下の輪郭テンプレートとの類似度を算出する。第二の特有類似度算出部3032は、縦向きの歩行者の肩から下のテンプレートTP2を有し、画像IMGSRC[x][y]の判定領域(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP2との類似度MT2を算出する。なお、処理の詳細は、テンプレートTP2が縦向きの歩行者の肩から下の輪郭であること以外は上述の第二の特有類似度算出部1032と同様であるため、割愛する。
【0124】
第一の物体判定部3041は、共通部分のテンプレートTP0との共通類似度MT0、および、横向きの歩行者特有のテンプレートTP1との第一の特有類似度MT1を用いて、横向きの歩行者の有無を判定する。判定は、例えば閾値TH1_MTを用いて、共通類似度MT0と第一の特有類似度MT1とを加算した値が閾値TH1_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT1)>TH1_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH1_MT0と第一の特有類似度の閾値TH1_MT1を用いて、共通類似度MT0が閾値TH1_MT0よりも大きくかつ第一の特有類似度MT1が閾値TH1_MT1よりも大きいという条件を満たす場合、すなわち、
MT0>TH1_MT0、かつ、MT1>TH1_MT1
であれば物体が存在すると判定してもよい。
【0125】
第二の物体判定部3042は、共通部分のテンプレートTP0との共通類似度MT0と、縦向きの歩行者特有のテンプレートTP2との第二の特有類似度MT2を用いて、縦向きの歩行者の有無を判定する。判定は、例えば閾値TH2_MTを用いて、共通類似度MT0と第二の特有類似度MT2とを加算した値が閾値TH2_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT2)>TH2_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH2_MT0と第二の特有類似度の閾値TH2_MT2を用いて、共通類似度MT0が閾値TH2_MT0よりも大きくかつ第二の特有類似度MT2が閾値TH2_MT2よりも大きいという条件を満たす場合、すなわち、
MT0>TH2_MT0、かつ、MT2>TH2_MT2
であれば物体が存在すると判定してもよい。
【0126】
環境推定部3060は、物体位置取得部1111からの情報を用いて、物体位置の履歴に基づいて、第一の信頼度2061、および、第二の信頼度2062を調整する処理を行う。この処理について、図12を用いて説明する。
【0127】
まず、ステップS121にて、処理領域設定部1021で選択されている処理対象となった物体の情報(相対距離PYR[b],PXR[b])を取得する。つぎに、ステップS122にて、過去の物体の位置情報の差分、および、自車速から、物体の縦方向の移動速度VY[b]、および、横方向の移動速度VX[b]を算出する。
【0128】
そして、ステップS123にて、以下の条件を満たすかを判定する。ここで、Abs(X)は絶対値算出の演算であり、THVXはあらかじめ定められた所定の値である。例えば、0.5[m/s]と設定する。
【0129】
Abs(VX[b])>Abs(VY[b])
かつ Abs(VX[b])>THVX
【0130】
すなわち、横移動速度が縦移動速度よりも大きく、かつ、絶対値が十分に大きいという条件を満たすか否かが判断される。そして、この条件を満たす場合は、ステップS215へ進み、第一の信頼度2061、および、第二の信頼度2062をそれぞれr11、r21(r11>r21)と設定する。これにより、横向きの歩行者の方が、縦向きの歩行者よりも十分に多い場合には、横向きの歩行者の信頼度が、縦向き歩行者の信頼度よりも大きく設定される。
【0131】
そして、ステップS123の条件を満たさない場合は、ステップS124へ行き、以下の条件を満たすかを判定する。ここで、THVYはあらかじめ定められた所定の値であり、例えば、0.5[m/s]と設定する。
【0132】
Abs(VY[b])>Abs(VX[b])
かつ Abs(VY[b])>THVY
【0133】
すなわち、縦移動速度が横移動速度よりも大きく、かつ、絶対値が十分に大きいという条件を満たすか否かが判断される。そして、この条件を満たす場合は、ステップS126へ移行し、第一の信頼度2061、および、第二の信頼度2062をそれぞれr12、r22(r12<r22)と設定する。これにより、縦向きの歩行者の方が、横向きの歩行者よりも十分に多い場合には、縦向きの歩行者の信頼度が、横向き歩行者の信頼度よりも大きく設定される。
【0134】
そして、ステップS124の条件を満たさない場合は、ステップS127へ移行し、第一の信頼度2061、および、第二の信頼度2062をそれぞれr13、r23(r13=r23)と設定する。これにより、横向きの歩行者と、縦向きの歩行者の人数に大きな差がない場合には、横向きの歩行者の信頼度と縦向きの歩行者の信頼度が同じに設定される。
【0135】
以上説明したように、物体位置情報に基づいて縦向きの歩行者と横向きの歩行者の信頼度を変化させることによって、横方向に移動している物体に対する画像処理では、横向きの歩行者を判定しやすく、縦方向に移動している物体に対する画像処理では、縦向きの歩行者を判定しやすくすることができる。
【0136】
なお、本実施の形態では、環境推定部3060、第一の信頼度2061、第二の信頼度2062、物体位置算出部3071を用いた場合を例に説明したが、これらを用いずに、代わりに上述の第一実施の形態における物体位置算出部1051(図1を参照)を用いてもよい。また、本実施の形態では、環境推定部3060を用いる場合を例に説明したが、代わりに上述の第二の実施形態における環境推定部2060の図10に示す第二の形式を用いることもできる。
【0137】
さらに、コンピュータの処理能力が低い場合、所定の自車速から白線認識などを並列処理する場合、全てのパターンマッチ処理を実行することができないことがある。したがって、例えば、図8に記載の車両用外界認識装置の第二の実施形態、または、図11に記載の車両用外界認識装置の第三の実施形態において、第一の信頼度2061、第二の信頼度2062を参照し、信頼度が高いほうの判定部、および、判定部が参照している共通類似度算出部、特有類似度算出部の処理を優先させ、処理に余裕があるときに、残りの信頼度が低い方の物体判定部、および、判定部が参照している特有類似度算出部の処理を実行するようにしてもよい。
【0138】
以上説明したように、信頼度を設けることによって、処理負荷が大きく全ての処理が実行できない場合に、信頼度に基づいて処理の優先順位を変更し、信頼度が高い物体の判定処理を優先させることができる。
【0139】
<第四実施の形態>
つぎに、本発明の車両用外界認識装置の第四実施の形態について、以下に図面を用いて説明する。図13は、車両用外界認識装置4000の実施形態を表すブロック図である。なお、以下の説明では、上述の第一実施の形態〜第三実施の形態の車両用外界認識装置1000〜3000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。
【0140】
車両用外界認識装置4000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から予め設定された2種類の物体を検知するためのものであり、本実施の形態では、例えば夜間にヘッドライトのロービームによって、自車の前方を撮像した画像内から全身が見えている歩行者と、下半身のみ見えている歩行者の両方を検知するように構成されている。
【0141】
車両用外界認識装置4000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。
【0142】
車両用外界認識装置4000は、図13に示すように、画像取得部1011と、処理領域設定部1021と、共通類似度算出部4030と、第一の特有類似度算出部4031と、第一の物体判定部4041と、第二の物体判定部4042と、物体位置算出部1051とを有し、実施例によっては物体位置取得部1111を有する。
【0143】
共通類似度算出部4030は、全身が見えている歩行者、および、下半身のみ見えている歩行者の共通なパターンである、歩行者の下半身のテンプレートTP0との類似度を算出する。共通類似度算出部4030は、歩行者の下半身のテンプレートTP0を有し、画像IMGSRC[x][y]の判定領域(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP0との類似度MT0を算出する。なお、歩行者の下半身のテンプレートは図5に示すものであり、類似度MT0の算出処理は、上述の第一実施の形態における共通類似度算出部1030と同様であるため、説明は割愛する。
【0144】
第一の特有類似度算出部4031は、全身が見えている歩行者の特有のパターンである、歩行者の上半身のテンプレートTP1との類似度を算出する。第一の特有類似度算出部4031は、歩行者の上半身のテンプレートTP1を有し、画像IMGSRC[x][y]の判定領域(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP1との類似度MT1を算出する。なお、歩行者の上半身のテンプレートTP1は、図7(a)に示すものであり、類似度MT1の算出処理は、上述の第一実施の形態における第一の特有類似度算出部1031と同様であるため、説明は割愛する。
【0145】
第一の物体判定部4041は、共通部分のテンプレートTP0との共通類似度MT0と、全身が見えている歩行者特有のテンプレートTP1との第一の特有類似度MT1を用いて、全身が見えている歩行者の有無を判定する。判定は、例えば閾値TH1_MTを用いて、共通類似度MT0と第一の特有類似度MT1とを加算した値が閾値TH1_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT1)>TH1_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH1_MT0と第一の特有類似度の閾値TH1_MT1を用いて、共通類似度MT0が閾値TH1_MT0よりも大きくかつ第一の特有類似度MT1が閾値TH1_MT1よりも大きいという条件を満たす場合、すなわち、
MT0>TH1_MT0、かつ、MT1>TH1_MT1
であれば物体が存在すると判定してもよい。
【0146】
第二の物体判定部3042は、共通部分のテンプレートとの共通類似度MT0を用いて、下半身のみ見えている歩行者の有無を判定する。判定は、例えば閾値TH2_MTを用いて、共通類似度MT0が閾値TH2_MTよりも大きいという条件を満たす場合、すなわち、
MT0>TH2_MT
であれば、歩行者が存在すると判定する。
【0147】
なお、本実施の形態では、図13に示すように、物体位置算出部1051を用いる場合を例に説明しているが、これを用いずに、代わりに上述の第三の実施の形態における環境推定部3060、第一の信頼度2061、第二の信頼度2062、物体位置算出部3071を用いてもよい。
【0148】
本実施の形態によれば、自車の前方を撮像した画像内から全身が見えている歩行者と、下半身のみ見えている歩行者の両方を、より少ない処理負荷で検知することができる。
【0149】
<第五実施の形態>
つぎに、図14を用いて、プリクラッシュ・セーフティ・システムを例にとり、上述の各実施の形態の車両用外界認識装置によって判定した歩行者に応じて警報を出力する、あるいは自動的にブレーキを制御するといったシステムの動作方法について説明する。
【0150】
図14は、プリクラッシュ・セーフティ・システムの動作方法を示すフローチャートである。
【0151】
最初に、ステップS141において、上記いずれかの車両用外界認識装置によって検知された歩行者の位置情報を、障害物情報(PYO[b]、PXO[b]、WDO[b])として読み込む。
【0152】
つぎに、ステップS142において、検知された各物体の衝突予測時間TTC[i]を、下記の式(3)を用いて演算する。ここで、相対速度VYO[b]は、物体の相対距離PYO[b]を擬似微分することによって求める。
【0153】
TTC[b]=PY[b]÷VY[b] ・・・(3)
【0154】
さらに、ステップS143において、各障害物に対する危険度DRECI[b]を演算する。
【0155】
以下、上述のいずれかの車両用外界認識装置で検知された物体X[b]に対する危険度DRECI[b]の演算方法の例を、図15を用いて説明する。
【0156】
まず、予測進路の推定方法について説明する。図15に示すように、自車位置を原点Oとすると、予測進路は原点Oを通る旋回半径Rの円弧で近似できる。ここで、旋回半径Rは、自車の操舵角α、速度Vsp、スタビリティファクタA、ホイールベースLおよびステアリングギア比Gsを用いて以下の式(4)で表される。
【0157】
R=(1+AV2)×(L・Gs/α) ・・・(4)
【0158】
ここで、スタビリティファクタAとは、その正負が、車両のステア特性を支配するものであり、車両の定常円旋回の速度に依存する変化の大きさを示す指数となる重要な値である。上記式(2)からわかるように、旋回半径Rは、スタビリティファクタAを係数として、自車の速度Vspの2乗に比例して変化する。また、旋回半径Rは車速Vspおよびヨーレートγを用いて式(5)で表すことができる。
【0159】
R=V/γ ・・・(5)
【0160】
つぎに、物体X[b]から、旋回半径Rの円弧で近似した予測進路の中心へ垂線を引き、距離L[b]を求める。
【0161】
さらに、自車幅Hから距離L[b]を引き、これが負値の場合には危険度DRECI[b]=0とし、正値の場合には以下の式(6)によって危険度DRECI[b]を演算する。
【0162】
DRECI[b]= (H−L[b])/H ・・・(6)
【0163】
なお、ステップS141〜S143の処理は、検知した物体数に応じてループ処理を行う構成としている。
【0164】
ステップS144において、ステップS143で演算した危険度DRECI[b]に応じて式(7)の条件が成立している物体を選択し、選択された物体の中で衝突予測時間TTC[b]が最小となる物体bMinを選択する。
【0165】
DRECI[b]≧ cDRECI# ・・・(7)
【0166】
ここで、所定値cDRECI#は、自車に衝突するか否かを判定するための閾値である。
【0167】
つぎに、ステップS145において、選択された物体kの衝突予測時間TTC[bMin]に応じて自動的にブレーキを制御する範囲であるか否かの判定を行う。式(8)が成立している場合にはステップS146に進み、ブレーキ制御を実行して処理を終了する。また、式(8)が非成立の場合にはステップS147に進む。
【0168】
TTC[bMin]≦cTTCBRK# ・・・(8)
【0169】
ステップS147において、選択された物体bMinの衝突予測時間TTC[bMin]に応じて警報を出力する範囲であるか否かの判定を行う。式(9)が成立している場合にはステップS148に進み、警報を出力して処理を終了する。また、式(9)が非成立の場合には、ブレーキ制御、警報ともに実行せずに処理を終了する。
【0170】
TTC[bMin]≦cTTCALM# ・・・(9)
【0171】
以上説明したように、本発明である上述のいずれかの車両用外界認識装置において歩行者と判定された物体に対して、その危険度に応じて上記警報やブレーキ制御を発動させることができる。
【0172】
なお、本発明は、上述の各実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。
【符号の説明】
【0173】
1000 車両用外界認識装置
1011 画像取得部
1021 処理領域設定部
1030 共通類似度算出部
1031 第一の特有類似度算出部
1032 第二の特有類似度算出部
1041 第一の物体判定部
1042 第二の物体判定部
1051 物体位置算出部
1111 物体位置取得部
2000 車両用外界認識装置
2161 ワイパ操作取得部
2060 環境推定部
2061 第一の信頼度
2062 第二の信頼度
2071 物体位置算出部
3000 車両用外界認識装置
3030 共通類似度算出部
3031 第一の特有類似度算出部
3032 第二の特有類似度算出部
3041 第一の物体判定部
3042 第二の物体判定部
3060 環境推定部
4000 車両用外界認識装置
4030 共通類似度算出部
4031 第一の特有類似度算出部
4041 第一の物体判定部
4042 第二の物体判定部

【特許請求の範囲】
【請求項1】
自車周辺から所定の第一の物体と第二の物体を検出する車両用外界認識装置であって、
自車周辺を撮影した画像を取得する画像取得手段と、
前記画像から前記第一の物体と前記第二の物体の共通部分の類似度である共通類似度を算出する共通類似度算出手段と、
前記画像から前記第一の物体の特有な部分の類似度である第一の特有類似度を算出する第一の特有類似度算出手段と、
前記画像から前記第二の物体の特有な部分の類似度である第二の特有類似度を算出する第二の特有類似度算出手段と、
前記共通類似度と前記第一の特有類似度を用いて前記第一の物体の有無を判定する第一の物体判定手段と、
前記共通類似度と前記第二の特有類似度を用いて前記第二の物体の有無を判定する第二の物体判定手段と、
を有することを特徴とする車両用外界認識装置。
【請求項2】
自車周辺の環境を推定し、該推定した環境に応じて、前記第一の物体判定手段の判定結果に対する第一の信頼度と前記第二の物体判定手段の判定結果に対する第二の信頼度を調整する環境推定手段を有することを特徴とする請求項1に記載の車両用外界認識装置。
【請求項3】
前記環境推定手段は、予め設定された期間に一定周期で繰り返し実行された前記第一の物体判定手段と前記第二の物体判定手段の判定処理の判定結果に基づいて前記第一の信頼度と前記第二の信頼度を調整することを特徴とする請求項2に記載の車両用外界認識装置。
【請求項4】
前記環境推定手段は、前記第一の物体判定手段と前記第二の物体判定手段のうち、物体の検出回数の多い方の信頼度が検出回数の少ない方の信頼度よりも高くなるように、前記第一の信頼度と前記第二の信頼度を調整することを特徴とする請求項3に記載の車両用外界認識装置。
【請求項5】
自車前方に存在する物体の物体位置を取得する物体位置取得手段を備え、
前記環境推定手段は、前記物体位置取得手段で取得した物体位置の履歴により前記第一の信頼度と前記第二の信頼度を調整することを特徴とする請求項2に記載の車両用外界認識装置。
【請求項6】
前記第一の信頼度の方が前記第二の信頼度よりも高い場合に、前記第一の特有類似度算出手段と前記第一の物体判定手段の処理を、前記第二の特有類似度算出手段と前記第二の物体判定手段の処理よりも優先し、
前記第二の信頼度の方が前記第一の信頼度よりも高い場合に、前記第二の特有類似度算出手段と前記第二の物体判定手段の処理を、前記第一の特有類似度算出手段と前記第一の物体判定手段の処理よりも優先することを特徴とする請求項2から請求項5のいずれか一項に記載の車両用外界認識装置。
【請求項7】
前記第一の物体判定手段により前記第一の物体が存在すると判定された場合に前記第一の物体の位置を算出し、前記第二の物体判定手段により前記第二の物体が存在すると判定された場合に前記第二の物体の位置を算出する物体位置算出手段を有することを特徴とする請求項1から請求項6のいずれか一項に記載の車両用外界認識装置。
【請求項8】
自車周辺から所定の第一の物体と第二の物体を検出する車両用外界認識装置であって、
自車周辺を撮影した画像を取得する画像取得手段と、
前記画像から前記第一の物体と前記第二の物体の共通部分の類似度である共通類似度を算出する共通類似度算出手段と、
前記画像から前記第一の物体の特有な部分の類似度である第一の特有類似度を算出する第一の特有類似度算出手段と、
前記共通類似度と前記第一の特有類似度を用いて前記第一の物体の有無を判定する第一の物体判定手段と、
前記共通類似度を用いて前記第二の物体の有無を判定する第二の物体判定手段と、
を有する車両用外界認識装置。
【請求項9】
請求項2から請求項8のいずれか一項に記載の車両用外界認識装置を備えた車両システムであって、
前記物体位置検出手段により検出した前記第一の物体の位置および前記第二の物体の位置に応じて前記自車が衝突する危険度を算出する衝突危険度算出手段と、
該衝突危険度算出手段により算出した衝突危険度に応じて自車の衝突を回避する制御を行う制御手段と、
を有することを特徴とする車両システム。
【請求項10】
前記制御手段は、前記第一の物体の位置および第二の物体の位置に基づいて、前記自車が前記第一の物体または前記第2の物体と衝突する衝突予想時間を算出し、該算出した衝突予測時間と予め設定された制動用閾値とを比較して、前記衝突予測時間が前記制動用閾値以下であるときは、前記自車に対する制動制御を行うことを特徴とする請求項9に記載の車両システム。
【請求項11】
前記制御手段は、前記第一の物体の位置および第二の物体の位置に基づいて、前記自車が前記物体と衝突する衝突予想時間を算出し、該算出した衝突予測時間と予め設定された警報用閾値とを比較して、前記衝突予測時間が前記警報用閾値以下であるときは、前記自車の運転者に対する警報制御を行うことを特徴とする請求項9に記載の車両システム。


【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate


【公開番号】特開2012−141740(P2012−141740A)
【公開日】平成24年7月26日(2012.7.26)
【国際特許分類】
【出願番号】特願2010−293471(P2010−293471)
【出願日】平成22年12月28日(2010.12.28)
【出願人】(000001487)クラリオン株式会社 (1,722)
【Fターム(参考)】