車載用物体検知装置
【課題】画像処理の負荷低減と非立体物への誤検知低減を両立する車載用物体検知装置を提供する。
【解決手段】自車70から物体Pまでの距離と自車70の前方画像60に基づいて処理候補Qを選定する。そして、その選定した処理候補Qの距離と前方画像60とに基づいて処理候補Qが予め設定された所定の立体物P1であるかを判定する。これにより、処理負荷の大きい立体物P1を判定するための処理の実行回数を減らし、装置3の処理負荷を低減する。そして、高精度の画像を画像処理することによって立体物P1を判定し、誤検知を低減する。
【解決手段】自車70から物体Pまでの距離と自車70の前方画像60に基づいて処理候補Qを選定する。そして、その選定した処理候補Qの距離と前方画像60とに基づいて処理候補Qが予め設定された所定の立体物P1であるかを判定する。これにより、処理負荷の大きい立体物P1を判定するための処理の実行回数を減らし、装置3の処理負荷を低減する。そして、高精度の画像を画像処理することによって立体物P1を判定し、誤検知を低減する。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、自車との衝突の可能性がある自車前方の物体を検知する車載用物体検知装置に関する。
【背景技術】
【0002】
交通事故による死亡者数は衝突安全と呼ばれる衝突後の乗員保護(エアバッグ、衝突安全ボディ)の導入により減少傾向にあるが、事故件数は自動車の保有台数に比例して増加傾向にあり、これらの事故を低減するためには事故を未然に防ぐ予防安全システムの開発が重要である。予防安全システムは、事故の手前で作動するシステムであり、例えば、自車前方の物体と衝突する可能性が生じたときには警報によって運転者に注意を促し、衝突が避けられない状況になったときには自動ブレーキによって乗員の被害を軽減するプリクラッシュ・セーフティ・システムなどが実用化されている。
【0003】
上記システムにおいては、自車との衝突の可能性がある自車前方の物体を検知する物体検知装置が重要である。例えば特許文献1には、レーザレーダとカメラを用いて、歩行者などレーザビームの反射率が低い低反射率物体の存在を、カメラ画像を用いたパターンマッチングにより判断する方法が記載されている。
【0004】
この方法によれば、車両などレーザビームの反射強度が強い物体の近くに、歩行者など反射強度が低い物体が存在する場合、受光量の閾値が低いことによって車両と歩行者を同一の物体として検知してしまったとしても、画像処理によって車両近傍の歩行者の位置を特定することができる。
【0005】
【特許文献1】特開2007−240314号公報
【発明の開示】
【発明が解決しようとする課題】
【0006】
しかしながら、上記低反射率の物体を検知するために受光量の閾値を下げると、レーダが様々な物体に反応するようになり、画像処理の対象が増えて、装置の処理負荷が増大する。
【0007】
また、閾値を下げたことによって、レーダが路上ペイント、マンホールやキャッツアイなど、自車にとって衝突の可能性が無い物体(以下、非立体物とする)を検知するため、画像処理でこれら非立体物に対する誤検知が発生すると、前述のプリクラッシュ・セーフティ・システムにおいて、衝突の可能性が無いにもかかわらず警報や自動ブレーキが発動し、安全性の低下を招く。
【0008】
プリクラッシュ・セーフティ・システムでは、警報やブレーキは自車と前方の物体との衝突予測時間(Time To Collision)が小さいときに発動するため、衝突予測時間が小さい自車近傍の物体ほど、画像処理による非立体物の誤検知を低減させる必要がある。
【0009】
カメラ画像上では、自車近傍の物体ほど大きく写るため、情報が多い解像度の高い画像を処理すれば誤検知は低減できるが、演算負荷が大きくなる。しかし、車載システムにはハードウェアの制限があるため、演算負荷が大きい手段は使用できない。
【0010】
本発明は上記問題に着目してなされたもので、その目的とするところは、画像処理の負荷低減と非立体物に対する誤検知の低減を両立する車載用物体検知装置を提供することにある。
【課題を解決するための手段】
【0011】
上記課題を解決するための手段である本発明の車載用物体検知装置は、自車から物体までの距離と自車の前方画像に基づいて処理候補を選定し、処理候補の距離と前方画像とに基づいて処理候補が予め設定された所定の立体物であるかを判定する。
【発明の効果】
【0012】
本発明によれば、選択された処理候補について、立体部の判定が行われるので、立体物を判定するための処理の実行回数を減らすことができる。従って、装置全体の処理負荷を低減することができる。そして、立体物を判定するための処理では、より多くの情報量を有する画像を用いて立体物の判断を行うことができ、非立体物に対する誤検知を低減することができる。
【発明を実施するための最良の形態】
【0013】
[第1実施の形態]
以下、本発明の第1の実施形態について図1〜図4を用いて詳細に説明する。図1は、第1実施の形態における車載用物体検知装置100のブロック図である。車載用物体検知装置100は、自動車に搭載されるものであり、図1に示すように、計測装置1、画像取込装置2、制御装置3から構成される。
【0014】
計測装置1は、レーザレーダやミリ波レーダなどを用いて、自車の前方に存在する物体を検知し、自車と物体との相対距離(例えば、車体の前後方向に沿うY軸方向の距離)、物体の横位置(例えば、車幅方向に沿うX軸方向の距離)、及び物体の横幅を計測する装置である。計測装置1の計測結果は、物体情報として制御装置3に入力される。計測装置1は、制御装置3に対して物体情報の信号を直接入力しても良いし、LAN(Local Area Network)を用いた通信によって受け渡してもよい。
【0015】
画像取込装置2は、自車の前方を撮像できる位置に取り付けられており、CCDやCMOSなどの撮像素子を用いて、自車前方を撮影した前方画像としてディジタル値の信号に変換する装置である。ディジタル値の信号は、ディジタル値のまま制御装置3内のRAM上に直接書き込まれても良いし、アナログ信号に変換し制御装置3に入力されても良い。なお、ここで撮影した前方画像には、計測装置1で検知した物体が写っているものとする。
【0016】
制御装置3は、所定の処理がプログラミングされており、あらかじめ定められた周期で繰り返し処理を実行する。制御装置3は、物体情報取得手段31と、画像情報取得手段32と、処理候補選定手段33と、立体物判定手段34を、内部機能として有する。
【0017】
物体情報取得手段31は、計測装置1の検知信号に応じて、自車前方の物体の物体情報(相対距離PY0[i]、横位置PX0[i]、幅WD0[i])を取得する。ここで、iは複数の物体を検知している場合のID番号である。
【0018】
画像情報取得手段32は、画像取込装置2の信号に基づいて自車前方を撮影した前方画像の画像情報IMG[x][y]を取得する。画像情報IMG[x][y]は2次元配列であり、x、yはそれぞれ画像の座標を示す。
【0019】
処理候補選定手段33は、物体情報取得手段31で取得した物体情報(相対距離PY0[i]、横位置PX0[i]、幅WD0[i])と、画像情報取得手段32で取得した画像情報IMG[x][y]に基づいて処理候補を選定し、その選定した処理候補の処理候補情報(相対距離PY1[i]、横位置PX1[i]、幅WD1[i])を演算する。ここで、iは複数の処理候補を選定している場合のID番号である。なお、処理候補の選定方法と、処理候補情報の演算方法については後述する。
【0020】
立体物判定手段34は、処理候補選定手段33で選定した処理候補の処理候補情報(相対距離PY1[i]、横位置PX1[i]、幅WD1[i])と、画像情報取得手段32で取得した画像情報IMG[x][y]に基づいて、処理候補が、例えば人物等の所定の立体物であるか否かを判定し、所定の立体物であると判定された立体物の立体物情報(相対距離PY2[i]、横位置PX2[i]、幅WD2[i])を演算する。ここで、iは複数の立体物を検知している場合のID番号である。なお、立体物の判定方法と、立体物情報の演算方法については後述する。
【0021】
次に、図2を用いて、制御装置3の処理候補選定手段33による処理について説明する。図2は、処理候補選定手段33の処理内容を説明するフローチャートである。
【0022】
まず、ステップS201において、物体情報取得手段31によって取得された物体情報(PY0[i]、PX0[i]、WD0[i])を読み込む。そして、ステップS202において、処理候補数jに0を代入し初期化する。この後、物体情報取得手段31によって取得した物体の数に応じて、以下説明するステップS203〜S206を繰り返す。
【0023】
ステップS203において、物体情報とカメラ幾何モデル(画像上の位置と実際の位置の関係)に基づいて画像上での画像処理領域を設定する。画像処理領域を設定した後は、ステップS204に進み、この画像処理領域内を走査するパターンマッチングなどの画像処理を実行して、画像上における物体を検知する。以後、ステップS204で使う画像処理のアルゴリズムを第1のアルゴリズムと呼ぶ。なお、第1のアルゴリズムの内容については後述する。
【0024】
その後、ステップS205において、画像処理領域内で物体が検知されたか否かの判定を行う。ここで、画像処理領域内にて物体が検知された場合には、ステップS206に進み、当該物体を処理候補として選定し、その物体の相対距離PY1[j]、横位置PX1[j]、幅WD1[j]を処理候補情報として記録し、処理候補数jを1加算する。
【0025】
そして、ステップS203からステップS206までの繰り返し処理の終了後、ステップS207にて、記録された処理候補の処理候補情報(記録された全ての相対距離PY1[j]、横位置PX1[j]、幅WD1[j])を立体物判定手段34に出力して処理を終了する。
【0026】
次に、図3を用いて、制御装置3の立体物判定手段34について説明する。図3は、立体物判定手段34の処理内容を説明するフローチャートである。
【0027】
まず、ステップS301において、処理候補選定手段33で選定された処理候補の処理候補情報(PY1[i]、PX1[i]、WD1[i])を読み込む。そして、ステップS302において、立体物数jに0を代入し初期化する。この後、読み込んだ処理候補の数に応じて、以下に説明するステップS303からステップS306を繰り返す。
【0028】
ステップS303において、処理候補情報とカメラ幾何モデルに基づいて画像上での画像処理領域を設定する。画像処理領域を設定した後は、ステップS304に進み、この画像処理領域内を走査するパターンマッチングなどの画像処理を実行して、画像上における立体物を検知する。以後、ステップS304で使う画像処理のアルゴリズムを第2のアルゴリズムと呼ぶ。なお、第2のアルゴリズムの内容については後述する。
【0029】
その後、ステップS305において、検知対象目的の立体物が検知されたか否かの判定を行う。ここで、当該立体物が検知された場合には、ステップS306に進み、自車と衝突の可能性がある立体物であると判定し、その相対距離PY2[j]、横位置PX2[j]、幅WD2[j]を記録し、立体物数jを1加算する。
【0030】
そして、ステップS303からステップS306までの繰り返し処理の終了後、ステップS307にて、記録された立体物の立体物情報(記録された全ての相対距離PY2[j]、横位置PX2[j]、幅WD2[j])を制御装置3から外部に出力して処理を終了する。
【0031】
次に、図4と図5を用いて、自車と衝突の可能性がある立体物として歩行者を検知する場合を例にとり、第1のアルゴリズムと第2のアルゴリズムの内容について以下に詳細に説明する。
【0032】
まず、画像処理によって歩行者を検知する方法について説明する。歩行者を検知する方法としては、歩行者パターンの代表となるテンプレートを複数用意しておき、差分累積演算あるいは正規化相関係演算を行って一致度を求めるテンプレートマッチングによる方法や、ニューラルネットワークなどの識別器を用いてパターン認識を行う方法が挙げられる。
【0033】
いずれの方法をとるとしても、あらかじめ歩行者か否かを決定する指標となるソースのデータベースが必要となる。様々な歩行者のパターンをデータベースとして蓄えておき、そこから代表となるテンプレートを作成したり識別器を生成したりする。実環境では様々な服装、姿勢、体型の歩行者が存在し、さらにそれぞれ照明や天候などの条件が異なったりするため大量のデータベースを用意して、誤判定を少なくすることが必要となる。
【0034】
このとき、前者のテンプレートマッチングによる方法の場合、判定漏れを防ぐようにするとテンプレートの数が膨大となるため現実的でない。そこで、本実施の形態では後者の識別器を用いて判定する方法を採用する。識別器の大きさはソースのデータベースの大きさに依存しない。なお、識別器を生成するためのデータベースを教師データと呼ぶ。
【0035】
識別器を用いて歩行者か否かを判定する方法を、図4を用いて説明する。ここでは、入力画像50の大きさが縦16ドット、横12ドットの場合について説明する。
【0036】
本実施の形態で使用する識別器5は、画像内の所定の箇所に設置された複数の小領域52[n]内における濃淡勾配の方向と強さに基づいて歩行者か否かを判定する。各小領域52[n]は、画像50内の予め定められた位置で、特定方向の濃淡勾配の強さを合計し出力する。以後、この出力を局所エッジ強度と呼ぶ。
【0037】
まず、入力画像50が入力されると、例えばソーベルフィルタなどのフィルタリング処理部51によりフィルタリング処理が行われ、濃淡勾配の強さと方向を持つ画像50[n]がそれぞれ出力される。そして、各画像50[n]の所定箇所に設置された小領域52[n]内で、算出された濃淡勾配の強さと方向を用いて局所エッジ強度を算出する。
【0038】
具体的には、小領域52[n]内の一つ一つの画素に対応する濃淡勾配の方向を参照し、その方向が小領域52[n]ごとに定められた方向と同一であった画素の、対応する位置の濃淡勾配の強度を合計する。本実施の形態の場合、小領域52[n]を40個設置しているため、局所エッジ強度LEWC[0]〜LEWC[39]の40個の値を得る。
【0039】
次に、各小領域判断処理部53[n]において、各局所エッジ強度を、対応する閾値THWC[0]〜THWC[39]で閾値処理し、「1」か「0」の2値に変換し、対応する重み付け部54[n]で重みWWC[0]〜WWC[39]を乗じ、合計部SUMSC55へ出力する。合計部SUMSC55は、各重み付け部54[n]から入力された40個の値を合計し、最終判断処理部56において最終閾値THSCで閾値処理を行い、「1」か「0」を出力する。
【0040】
識別器5内の各局所エッジ強度LEWC[0]〜LEWC[39]を算出するためのパラメータである小領域52[n]の個数、位置、大きさ、濃淡勾配の方向、小領域判断処理部53「n]における局所エッジ強度の閾値THWC[0]〜THWC[39]、重み付け部54[n]の重みWWC[0]〜WWC[39]、最終判断処理部56の最終閾値THSC等は、識別器5への入力画像50が歩行者であった場合には「1」を、歩行者ではなかった場合には「0」を出力するように、教師データを用いて調整される。調整には、AdaBoostなどの機械学習の手段を用いてもよいし、手動で行ってもよい。
【0041】
例えば、歩行者の教師データの数をNPD、非歩行者の教師データの数をNBGとすると、AdaBoostを用いた上記パラメータの調整方法は以下の通りとなる。
【0042】
以下、ある小領域52の位置、大きさ、濃淡勾配の方向から計算される局所エッジをcLEWC[m]と表す。ここで、mは局所エッジのID番号である。
【0043】
まず小領域50の位置、大きさ、濃淡勾配の方向、がそれぞれ異なる局所エッジ強度を複数(例えば、100万通り)用意し、各局所エッジ強度の値cLEWC[m]を全ての教師データから算出し、それぞれの閾値cTHWC[m]を決定する。閾値cTHWC[m]は、歩行者の教師データと非歩行者の教師データを最も分類することができる値を選択する。
【0044】
次に、歩行者の教師データひとつひとつにwPD[nPD]=1/2NPDの、非歩行者の教師データひとつひとつにwBG[nBG]=1/2NBGの重みを与える。ここで、nPDは歩行者の教師データのID番号、nBGは非歩行者の教師データのID番号である。
【0045】
そして、k=1として、以下、繰り返し処理を行う。まず、歩行者・非歩行者全ての教師データの重みの合計が1となるように、重みを正規化する。次に、各局所エッジの誤検知率cERWC[m]を計算する。
【0046】
誤検知率cERWC[m]は、歩行者の教師データの局所エッジ強度cLEWC[m]を閾値cTHWC[m]で閾値処理した結果が非歩行者となったもの、もしくは非歩行者の教師データの局所エッジ強度cLEWC[m]を閾値cTHWC[m]で閾値処理した結果が歩行者となったもの、すなわち閾値処理した結果が実際と異なる教師データの重みの合計である。
【0047】
全ての局所エッジの誤検知率cERWC[m]を算出後、誤検知率が最小となる局所エッジのID mMin を選択し、LEWC[k]=cLEWC[mMin]、閾値THWC[k]=cTHWC[mMin]とする。
【0048】
次に、各教師データの重みを更新する。更新は、歩行者の教師データの局所エッジ強度LEWC[k]を閾値THWC[k]で閾値処理した結果が歩行者となったもの、もしくは非歩行者の教師データの局所エッジ強度LEWC[k]を閾値THWC[k]で閾値処理した結果が非歩行者となったもの、すなわち閾値処理した結果が正解の教師データの重みに、係数BT[k]=cERWC[mMin]/(1−cERWC[mMin])を乗じて行う。
【0049】
k=k+1とし、kが予め設定した値(例えば、40)になるまで繰り返す。繰り返し処理の終了後に得られる局所エッジLEWC[k]、閾値THWC[k]がAdaBoostにより自動調整された識別器5である。なお,重みWWC[k]=1/BT[k],最終閾値THSC=0.5である。
【0050】
次に、前述の識別器5を用いて、与えられた画像処理領域内の画像から歩行者を検知する方法について説明する。まず、与えられた画像処理領域内の画像に写る歩行者の大きさが、縦16ドット、横12ドットとなるように画像サイズを変換する。画像に歩行者以外の物体が同時に写っているなど、変換後の画像の大きさが16×12ドットより大きくなる場合は、下記の手段にて探索を行う。
【0051】
まず、16×12のウィンドウを変換後の画像の左上に設定し、このウィンドウ内の画像を前述の識別器5にかける。そして、ウィンドウを1ドットずつ右にずらしながら順次識別器5にかけ、ウィンドウが右端に達したらウィンドウを1ドット下に動かして左端に戻し、再び右へ動かしながら、順次識別器5にかける。この探索を、ウィンドウが右下に達するまで繰り返す。この探索の中で、識別器5の出力が1となる場所に歩行者がいることになる。
【0052】
次に、ステップS203の画像処理において用いられる第1のアルゴリズムと、ステップS303の画像処理において用いられる第2のアルゴリズムの内容について説明する。
【0053】
本実施の形態では、入力画像50の大きさを変えた識別器5を4つ用意し、第1のアルゴリズムでは入力画像50の大きさが最も小さい第1の識別器5を、第2のアルゴリズムでは残り3種類である第2〜第4の識別器5を用いる。第2〜第4の識別器5は、入力画像50の大きさが第1の識別器5よりも大きく、第2〜第4の識別器5に移行するに従って漸次大きくなるように設定されている。
【0054】
第1のアルゴリズムでは、ステップS203で処理候補選定手段33によって設定された画像処理領域の画像内に歩行者がいると仮定し、物体との相対距離とカメラ幾何モデルを用いて、歩行者が自車から前方に予め設定された距離だけ離れた位置に存在する場合の画像の大きさと同一の大きさになるように、画像処理領域の画像の画像サイズを変換する。
【0055】
具体的には、自車から前方に40メートルだけ離れた位置にいる歩行者を検知できる第1識別器5を用意し、ステップS203で設定された画像処理領域内の画像を、カメラ幾何モデルを用いて歩行者が自車から前方に40メートルだけ離れた地点にいる場合の画像の大きさと同一の大きさになるように変換して、前述の探索方法により歩行者を検知する。
【0056】
なお、本実施の形態では、歩行者は、自車と自車から前方に40メートルだけ離れた地点との間に存在することを前提としている。従って、ステップS203では、画像処理領域内の画像は、収縮する方向に変換される。
【0057】
そして、歩行者が検知された場合、変換後の画像上における歩行者の検知位置を、変換前の画像上の位置に変換し、カメラ幾何モデルを用いて、処理候補情報(相対距離PY1[i]、横位置PX1[i]、幅WD1[i])を更新する。
【0058】
第2のアルゴリズムでは、ステップS303で設定された画像処理領域の画像内に歩行者がいると仮定し、物体との相対距離とカメラ幾何モデルを用いて、画像内の歩行者を探索するのに最も適している識別器5に対応させるべく、画像処理領域内の画像の画像サイズを変換する。
【0059】
具体的には、自車から前方に10m、20m、30mだけ離れた位置に存在する歩行者を検知できる第2〜第4の識別器5をそれぞれ用意する。そして、処理候補が自車から20mよりも離れた位置にいる場合には、ステップS303で設定された画像処理領域の画像を30m地点の画像の画像サイズに変換し、第4の識別器5を用いて、前述の探索方法により、歩行者を検知する。
【0060】
そして、処理候補が自車から20〜10mの距離にいる場合は、画像処理領域の画像を20m地点の画像の画像サイズに変換し、第3の識別器5を用いて、前述の探索方法により、歩行者を検知する。
【0061】
また、処理候補が自車から10mより近い位置にいる場合は、画像処理領域の画像を10m地点の画像の画像サイズに変換し、第2の識別器5を用いて、前述の探索方法により、歩行者を検知する。
【0062】
ここで、処理候補から歩行者が検知された場合、変換後の画像上における歩行者の検知位置を、変換前の画像上の位置に変換し、カメラ幾何モデルを用いて、立体物情報(相対距離PY2[i]、横位置PX2[i]、幅WD2[i])を更新する。
【0063】
以上の処理の具体的な動作例を、図5を用いて説明する。
【0064】
まず、計測手段1によって検知した物体Pが前方画像60上で特定され、その物体Pを含む画像部分が画像処理領域Aとして設定される(S61)。物体Pの前方画像60上での位置は、計測装置1で検知した物体Pの物体情報とカメラ幾何モデルに基づいて特定される。
【0065】
本実施の形態では、図5(a)に示すように、3つの物体P1(歩行者)、物体P2(マンホール)、物体P3(電柱)が前方画像60上で特定され、その画像部分が画像処理領域A1〜A3として設定される。画像処理領域A1〜A3は、物体P1〜P3の周りを所定の間隔を空けて囲むように設定される。
【0066】
次に、第1のアルゴリズムを用いて、画像処理領域A内の画像に画像処理が行われ、画像処理の結果に応じて処理候補が選定される(S62)。第1のアルゴリズムでは、各画像処理領域A内の画像を変換して、自車から自車前方に40メートルだけ離れた位置に存在する人物の画像の大きさと同一の大きさに縮小し、その縮小した画像に対して探索が行われて、処理候補が選定される。
【0067】
このように、画像処理領域Aの画像を縮小した画像B内で処理候補(歩行者)を探索するので、画像処理領域A内で処理候補を探索するよりも探索範囲を小さくすることができる。従って、制御装置3の処理負荷を小さくすることができ、また、迅速に探索することができる。
【0068】
画像B内で処理候補Qが検知された場合には、その画像B内における処理候補Qの位置を、元の前方画像60上での位置に変換し、対応する物体Pの物体情報から処理候補Qの処理候補情報(PY1[i]、PX1[i]、WD1[i])が更新される。
【0069】
本実施の形態では、図5(b)に示すように、画像処理領域A1〜A3の画像を縮小した画像B1〜B3のうち、画像B1、B2内の領域C1、C2において処理候補Q1、Q2が選定される。そして、処理候補Q1、Q2の位置が、元の前方画像60上での位置(図5(c)を参照)に変換されて、処理候補情報が更新される。
【0070】
そして、処理候補Qの処理候補情報(PY1[i]、PX1[i]、WD1[i])と前方画像60に基づいて、前方画像60内に画像処理領域Dが設定され(S63)、画像処理領域Dの画像に対して第2のアルゴリズムを用いた画像処理が実行され、処理候補Qが予め設定された所定の立体物(歩行者)であるか否かが判定される(S64)。
【0071】
第2のアルゴリズムでは、処理候補との相対距離に応じて10メートル、20メートル、30メートル用の第2〜第4の識別器5を使い分けるので、処理候補との相対距離に応じて処理する画像の大きさが異なる。本実施の形態では、画像処理領域D1、D2のうち、画像処理領域D1内の物体P1が、歩行者であると判定されている。
【0072】
以上説明したように、本実施の形態における車載用物体検知装置100によれば、第1のアルゴリズムで第2のアルゴリズムを実行する範囲を絞ることができ、制御装置3の処理負荷を小さくすることができる。すなわち、最初に処理候補を選定し、その選定された処理候補に対して立体物であるか否かを判定するので、第1のアルゴリズムの画像処理よりも処理負荷の大きい第2のアルゴリズムの画像処理を実行する回数を減らすことができ、結果として、制御装置3の処理負荷を小さくすることができる。
【0073】
そして、処理候補選定手段33では、第1のアルゴリズムによって、前方画像の画像処理領域内の画像を縮小し、その縮小した画像内で処理候補を探索するので、前方画像の画像処理領域内の画像を探索するよりも探索範囲を小さくすることができ、制御装置3の処理負荷を小さくすることができ、また、迅速に探索することができる。
【0074】
そして、立体物判定手段34では、第2のアルゴリズムによって、処理候補選定手段33が処理候補を選択する際に用いる画像よりも、高精度の画像を用いて立体物を判定するので、誤検知を低減することができる。
【0075】
また、立体物判定手段34では、第2のアルゴリズムによって、自車と処理候補との間の相対距離に応じて第2〜第4の識別器5を使い分けるので、近傍の物体ほど誤検知を低減できる。すなわち、自車前方をカメラで撮影した画像では、自車に近い物体ほど画像に大きく写り、多くの情報を得ることができるので、距離に応じて識別器5を使い分けることによって、自車に近い物体ほど多くの情報を使用することができ、その結果、誤検知を減らすことができる。
【0076】
なお、第1のアルゴリズムおよび第2のアルゴリズムで用いる識別器5の数はそれぞれ1つ、3つに限定されず、いくつ用いてもよい。また、各識別器5の入力画像50の大きさは10メートル、20メートル、30メートル、40メートルの距離での大きさに限定されず、どの距離の画像に設定してもよい。さらに、歩行者の検知に用いる識別器5は、本実施例で取り上げた方法に限定されない。ニューラルネットワーク識別器、サポートベクターマシン識別器、ベイズ識別器などを用いてもよい。
【0077】
[第2実施の形態]
次に、本発明の車載用物体検知装置101の別の実施の形態を、図6から10を用いて詳細に説明する。なお、以下の説明では、上述の車載用物体検知装置100と異なる個所のみ詳述し、同様の個所には同一の番号を付し説明を省略する。
【0078】
図6は、別形態の車載用物体検知装置101の実施形態を示すブロック図である。車載用物体検知装置101は、計測装置1、画像取込装置2、制御装置4から構成される。
【0079】
制御装置4は、所定の処理がプログラミングされており、あらかじめ定められた周期で繰り返し処理を実行する。制御装置3との差異がある処理を以下で説明する。
【0080】
予測進路設定手段41は、車速センサ、操舵角センサ、ヨーレートセンサの検知信号に応じて車速Vsp、操舵角α、ヨーレートγなどの自車情報を取得し、この自車情報に応じて自車の予測進路を演算する。
【0081】
これら自車情報の取得には、各センサの信号を制御装置4に直接入力することによって取得しても良いし、センサ信号が他の制御装置に入力されている場合はその制御装置とLAN(Local Area Network)を用いた通信を行うことによって取得しても良い。ここでは、自車の予測進路として旋回半径Rを演算する。なお、旋回半径Rの演算方法については後述する。
【0082】
処理候補選定領域設定手段42は、予測進路設定手段41で取得した自車の予測進路に応じて、処理候補選定手段44が選定処理を実行するための処理候補選定領域を設定する。なお、処理候補選定領域の設定方法については後述する。
【0083】
立体物判定領域設定手段43は、処理候補選定領域設定手段42で取得した処理候補選定領域に応じて、立体物判定手段45が判定処理を実行するための立体物判定領域を設定する。なお、立体物判定領域の設定方法については後述する。
【0084】
処理候補選定手段44は、物体情報取得手段31で取得した物体情報(相対距離PY0[i]、横位置PX0[i]、幅WD0[i])と、画像情報取得手段32で取得した画像情報IMG[x][y]と、処理候補選定領域設定手段42で設定した処理候補選定領域に応じて、処理候補情報(相対距離PY1[i]、横位置PX1[i]、幅WD1[i])を演算する。ここで、iは複数の処理候補を選定している場合のID番号である。なお、処理候補の演算方法については後述する。
【0085】
立体物判定手段45は、画像情報取得手段32で取得した画像の画像情報IMG[x][y]と、処理候補選定手段44で演算した処理候補情報(相対距離PY1[i]、横位置PX1[i]、幅WD1[i])と、立体物判定領域設定手段43で設定した立体物判定領域に応じて、立体物情報(相対距離PY2[i]、横位置PX2[i]、幅WD2[i])を演算する。ここで、iは複数の立体物を検知している場合のID番号である。なお、物体判定の演算方法については後述する。
【0086】
次に、図7を用いて、車載用物体検知装置101の予測進路設定手段41について説明する。図7は、予測進路設定手段41の処理内容を示す模式図である。
【0087】
図7に示すように、自車70の位置を原点Oとすると、予測進路Tは原点Oを通る旋回半径Rの円弧で近似できる。ここで、旋回半径Rは、自車70の操舵角α、速度Vsp、スタビリティファクタA、ホイールベースBおよびステアリングギア比Gsを用いて式(1)で表される。
R=(1+AVsp2)×(B・Gs/α) (1)
【0088】
スタビリティファクタAとは、その正負が、車両のステア特性を支配するものであり、車両の定常円旋回の速度に依存する変化の大きさを示す指数となる重要な値である。式(1)からわかるように、旋回半径Rは、スタビリティファクタAを係数として、自車70の速度Vspの2乗に比例して変化する。また、旋回半径Rは車速Vspおよびヨーレートγを用いて式(2)で表すことができる。
R=Vsp/γ(2)
【0089】
以上説明したように、車速Vsp、操舵角αおよびヨーレートγの自車情報を利用することによって自車70の予測進路を旋回半径Rの円弧で近似することが可能となる。
【0090】
次に、制御装置4の処理候補選定領域設定手段42および立体物判定領域設定手段43について説明する。処理候補選定領域設定手段42は、予測進路設定手段41により設定された予測進路Tに応じて、例えば、図8(a)に示すように、車線幅Wn分の予測進路T上となるように、処理候補選定領域71を設定する。
【0091】
立体物判定領域設定手段43は、処理候補選定領域設定手段42により設定された処理候補選定領域71に応じて、例えば、図8(a)に示すように、自車幅Wc分の予測進路T上となるように、立体物判定領域72を設定する。
【0092】
処理候補選定領域71および立体物判定領域72の設定方法として、上記の例では幅の設定例を述べたが、他の設定方法として、自車70からの距離方向に設定する方法がある。
【0093】
図8(b)は、TTCaとTTCbという時間を設定し、自車70前方の物体との相対距離を相対速度で割ることにより算出される衝突予測時間がTTCa以下の警報領域を処理候補選定領域73、TTCb以下の制動領域を立体物判定領域74とする例である。
【0094】
また、THWaとTHWbという時間を設定し、自車速度とTHWaおよびTHWbから得られる予測位置を用いて、THWaでの到達位置までを処理候補選定領域75、THWbでの到達位置までを立体物判定領域76と設定してもよい。
【0095】
なお、処理候補選定領域71、73、75および立体物判定領域72、74、76の設定方法はこれに限らず、カメラなどの画像取込装置2により得られる画像から自車701の走行レーンを認識するレーン認識装置の認識結果と自車701の予測進路Tが重なる部分としてもよいし、レーダなどの計測装置1により検知された自車70前方の物体の距離に応じて設定してもよい。
【0096】
次に、図9を用いて、制御装置4の処理候補選定手段44について説明する。図9は、処理候補選定手段44の処理内容を示すフローチャートである。
【0097】
まず、ステップS401において、物体情報取得手段31により検知された物体情報(PY0[i]、PX0[i]、WD0[i])を読み込む。次に、ステップS402において、処理候補数jに0を代入し初期化する。この後、読み込んだ物体の数に応じて、以下説明するステップS403からステップS407を繰り返す。
【0098】
ステップS403において、物体が処理候補選定領域設定手段42により設定された処理候補選定領域内であるか否かの判定を行う。物体が処理候補選定領域外であると判断された場合には、次の繰り返し処理に入る。処理候補選定領域内であると判断された場合には、続けてステップS404以降の処理を行う。
【0099】
ステップS404において、物体情報とカメラ幾何モデルに基づいて画像上での画像処理領域を設定する。画像処理領域を設定した後は、ステップS405に進み、この領域内を走査するパターンマッチングなどの画像処理を実行して物体を検知する。
【0100】
ステップS405で使う画像処理のアルゴリズムは上述のステップS204に記載の第1のアルゴリズムと同様である。その後、ステップS406において、物体が検知されたか否かの判定を行う。物体が検知された場合には、ステップS407に進み、処理候補として、パターンマッチの結果に応じて相対距離PY1[j]、横位置PX1[j]、幅WD1[j]を記録し、処理候補数jを1加算する。
【0101】
繰り返し処理の終了後、ステップS408にて、記録された処理候補情報(記録された全ての相対距離PY1[j]、横位置PX1[j]、幅WD1[j])を、立体物判定手段45に出力して処理を終了する。
【0102】
次に、図10を用いて、制御装置4の立体物判定手段45について説明する。
図10は、立体物判定手段45の処理内容を示すフローチャートである。
【0103】
まず、ステップS501において、処理候補選定手段44により選定された処理候補情報(PY1[i]、PX1[i]、WD1[i])を読み込む。つぎに、ステップS502において、立体物数jに0を代入し初期化する。この後、読み込んだ処理候補の数に応じて、以下説明するステップS503からステップS507を繰り返す。
【0104】
ステップS503において、処理候補が立体物判定領域設定手段43により設定された立体物判定領域内に存在するか否かの判定を行う。処理候補が立体物判定領域外にある(ステップS503でNO)と判断された場合には、ステップS507に進み、取得した処理候補(相対距離PY1[i]、横位置PX1[i]、幅WD1[i])を立体物(相対距離PY2[j]、横位置PX2[j]、幅WD2[j])としてそのまま登録し、次の繰り返し処理に入る。一方、処理候補が立体物判定領域内に存在する(ステップS503でYES)と判断された場合には、続けてステップS504以降の処理を行う。
【0105】
ステップS504において、処理候補情報とカメラ幾何モデルに基づいて画像上での画像処理領域を設定する。画像処理領域を設定した後は、ステップS505に進み、この領域内を走査するパターンマッチングなどの画像処理を実行して立体物を検知する。ステップS505で使う画像処理のアルゴリズムは上述のステップS304に記載の第2のアルゴリズムと同様である。
【0106】
その後、ステップS506において、立体物が検知されたか否かの判定を行い、立体物が検知された場合(ステップS506でYES)には、ステップS507に進み、パターンマッチの結果に応じて、立体物の相対距離PY2[j]、横位置PX2[j]、幅WD2[j]を記録し、立体物数jを1加算する。
【0107】
繰り返し処理の終了後、ステップS508にて、記録された立体物の立体物情報(記録された全ての相対距離PY2[j]、横位置PX2[j]、幅WD2[j])を車載用物体検知装置101から外部に出力して処理を終了する。
【0108】
以上説明したように、本実施の形態では、処理候補選定領域と立体物判定領域を設定することによって、画像処理対象を限定し、前述した車載用物体検知装置100よりも処理負荷を軽減することができる。
【0109】
次に、図11を用いて、プリクラッシュ・セーフティ・システムを例にとり、前記の各実施の形態によって得られる立体物情報(相対距離PY2[i]、横位置PX2[i]、幅WD2[i])に応じて警報を出力する、あるいは自動的にブレーキを制御するといった制御システムの動作方法について説明する。
【0110】
図11は、プリクラッシュ・セーフティ・システムの動作方法を示すフローチャートである。最初に、ステップ601において、車載用物体検知装置100もしくは車載用物体検知装置101で演算された立体物情報(相対距離PY2[i]、横位置PX2[i]、幅WD2[i])を読み込む。
【0111】
次に、ステップ602において、検知された各物体の衝突予測時間TTC[i]を式(3)を用いて演算する。ここで、相対速度VY[i]は、物体の相対距離PY[i]を擬似微分することによって求める。
TTC[i]=PY[i]÷VY[i] (3)
【0112】
そして、ステップ603において、各立体物に対する危険度DRECI[i]を演算する。以下、車載用物体検知装置100もしくは車載用物体検知装置101で検知された物体X[i]に対する危険度DRECI[i]の演算方法の例を、図7を用いて説明する。
【0113】
まず、物体X[i]から前述の方法にて得られる予測進路Tの中心へ垂線を引き、物体Xと予測進路Tとの離間距離L[i]を求める。つぎに、自車幅Wcの半分の大きさである幅H(H=Wc/2)から距離L[i]を引き、これが負値の場合には危険度DRECI[i]=0とし、正値の場合には以下の式(4)によって危険度DRECI[i]を演算する。
DRECI[i]= (H−L[i])/H (4)
【0114】
なお、ステップ601〜604の処理は、検知した物体数に応じてループ処理を行う構成としている。
【0115】
ステップ604において、ステップ603で演算した危険度DRECI[i]に応じて以下の式(5)が成立している物体を選択し、選択された物体の中で衝突予測時間TTC[i]が最小となる物体kを選択する。
DRECI[i]≧ cDRECI# (5)
ここで、所定値cDRECI#は、自車70に衝突するか否かを判定するための閾値である。
【0116】
次に、ステップ605において、選択された物体kの衝突予測時間TTC[k]に応じて自動的にブレーキを制御する範囲であるか否かを下記の式(6)を用いて判定する。
TTC[k]≦cTTCBRK# (6)
【0117】
上記の式(6)が成立している場合には物体kが制動領域内に存在するとして、ステップ606に進み、ブレーキ制御を実行して処理を終了する。また、式(6)が非成立の場合には、ステップ607に進む。
【0118】
ステップ607では、選択された物体kの衝突予測時間TTC[k]に応じて警報を出力する範囲であるか否かを下記の式(7)を用いて判定する。
【0119】
TTC[k]≦cTTCALM# (7)
上記の式(7)が成立している場合には物体kが警報領域内に存在するとして、ステップ608に進み、警報を出力して処理を終了する。また、式(7)が非成立の場合には、ブレーキ制御、警報ともに実行せずに処理を終了する。
【0120】
以上説明したように、本発明である車載用物体検知装置100もしくは101より得られる物体情報(相対距離PY2[i]、横位置PX2[i]、幅WD2[i])は、自動ブレーキ、警報といったシステムの動作に関わる危険度DRECI[i]の算出に用いられる重要なパラメータである。
【0121】
本発明は、上記のような実施形態にすることにより、自車近傍の非立体物に対する誤検知を低減し、警報、自動ブレーキの誤動作を防止することができる。
【0122】
なお、本発明は、上述の各実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。
【図面の簡単な説明】
【0123】
【図1】本発明の第1実施の形態における車載用物体検知装置のブロック図。
【図2】第1実施の形態における処理候補選定手段の処理内容を示すフローチャート。
【図3】第1実施の形態における立体物判定手段の処理内容を示すフローチャート。
【図4】第1実施の形態における識別器による歩行者の判定方法を示す模式図。
【図5】第1実施の形態における車載用物体検知装置の動作例を示す図。
【図6】本発明の第2実施の形態における車載用物体検知装置のブロック図。
【図7】第2実施の形態における予測進路設定手段を示す模式図。
【図8】第2実施の形態における処理候補選定領域と立体物判定領域の設定例を示す模式図。
【図9】第2実施の形態における処理候補選定手段の処理内容を示すフローチャート。
【図10】第2実施の形態における立体物判定手段の処理内容を示すフローチャート。
【図11】本発明を適用したプリクラッシュ・セーフティ・システムの動作方法を示すフローチャート。
【符号の説明】
【0124】
100 車載用物体検知装置
1 計測装置
2 画像取込装置
3 制御装置
31 物体情報取得手段
32 画像情報取得手段
33 処理候補選定手段
34 立体物判定手段
101車載用物体検知装置
4 制御装置
41 自車予測進路設定手段
42 処理候補選定領域設定手段
43 立体物判定領域設定手段
44 処理候補選定手段
45 立体物判定手段
【技術分野】
【0001】
本発明は、自車との衝突の可能性がある自車前方の物体を検知する車載用物体検知装置に関する。
【背景技術】
【0002】
交通事故による死亡者数は衝突安全と呼ばれる衝突後の乗員保護(エアバッグ、衝突安全ボディ)の導入により減少傾向にあるが、事故件数は自動車の保有台数に比例して増加傾向にあり、これらの事故を低減するためには事故を未然に防ぐ予防安全システムの開発が重要である。予防安全システムは、事故の手前で作動するシステムであり、例えば、自車前方の物体と衝突する可能性が生じたときには警報によって運転者に注意を促し、衝突が避けられない状況になったときには自動ブレーキによって乗員の被害を軽減するプリクラッシュ・セーフティ・システムなどが実用化されている。
【0003】
上記システムにおいては、自車との衝突の可能性がある自車前方の物体を検知する物体検知装置が重要である。例えば特許文献1には、レーザレーダとカメラを用いて、歩行者などレーザビームの反射率が低い低反射率物体の存在を、カメラ画像を用いたパターンマッチングにより判断する方法が記載されている。
【0004】
この方法によれば、車両などレーザビームの反射強度が強い物体の近くに、歩行者など反射強度が低い物体が存在する場合、受光量の閾値が低いことによって車両と歩行者を同一の物体として検知してしまったとしても、画像処理によって車両近傍の歩行者の位置を特定することができる。
【0005】
【特許文献1】特開2007−240314号公報
【発明の開示】
【発明が解決しようとする課題】
【0006】
しかしながら、上記低反射率の物体を検知するために受光量の閾値を下げると、レーダが様々な物体に反応するようになり、画像処理の対象が増えて、装置の処理負荷が増大する。
【0007】
また、閾値を下げたことによって、レーダが路上ペイント、マンホールやキャッツアイなど、自車にとって衝突の可能性が無い物体(以下、非立体物とする)を検知するため、画像処理でこれら非立体物に対する誤検知が発生すると、前述のプリクラッシュ・セーフティ・システムにおいて、衝突の可能性が無いにもかかわらず警報や自動ブレーキが発動し、安全性の低下を招く。
【0008】
プリクラッシュ・セーフティ・システムでは、警報やブレーキは自車と前方の物体との衝突予測時間(Time To Collision)が小さいときに発動するため、衝突予測時間が小さい自車近傍の物体ほど、画像処理による非立体物の誤検知を低減させる必要がある。
【0009】
カメラ画像上では、自車近傍の物体ほど大きく写るため、情報が多い解像度の高い画像を処理すれば誤検知は低減できるが、演算負荷が大きくなる。しかし、車載システムにはハードウェアの制限があるため、演算負荷が大きい手段は使用できない。
【0010】
本発明は上記問題に着目してなされたもので、その目的とするところは、画像処理の負荷低減と非立体物に対する誤検知の低減を両立する車載用物体検知装置を提供することにある。
【課題を解決するための手段】
【0011】
上記課題を解決するための手段である本発明の車載用物体検知装置は、自車から物体までの距離と自車の前方画像に基づいて処理候補を選定し、処理候補の距離と前方画像とに基づいて処理候補が予め設定された所定の立体物であるかを判定する。
【発明の効果】
【0012】
本発明によれば、選択された処理候補について、立体部の判定が行われるので、立体物を判定するための処理の実行回数を減らすことができる。従って、装置全体の処理負荷を低減することができる。そして、立体物を判定するための処理では、より多くの情報量を有する画像を用いて立体物の判断を行うことができ、非立体物に対する誤検知を低減することができる。
【発明を実施するための最良の形態】
【0013】
[第1実施の形態]
以下、本発明の第1の実施形態について図1〜図4を用いて詳細に説明する。図1は、第1実施の形態における車載用物体検知装置100のブロック図である。車載用物体検知装置100は、自動車に搭載されるものであり、図1に示すように、計測装置1、画像取込装置2、制御装置3から構成される。
【0014】
計測装置1は、レーザレーダやミリ波レーダなどを用いて、自車の前方に存在する物体を検知し、自車と物体との相対距離(例えば、車体の前後方向に沿うY軸方向の距離)、物体の横位置(例えば、車幅方向に沿うX軸方向の距離)、及び物体の横幅を計測する装置である。計測装置1の計測結果は、物体情報として制御装置3に入力される。計測装置1は、制御装置3に対して物体情報の信号を直接入力しても良いし、LAN(Local Area Network)を用いた通信によって受け渡してもよい。
【0015】
画像取込装置2は、自車の前方を撮像できる位置に取り付けられており、CCDやCMOSなどの撮像素子を用いて、自車前方を撮影した前方画像としてディジタル値の信号に変換する装置である。ディジタル値の信号は、ディジタル値のまま制御装置3内のRAM上に直接書き込まれても良いし、アナログ信号に変換し制御装置3に入力されても良い。なお、ここで撮影した前方画像には、計測装置1で検知した物体が写っているものとする。
【0016】
制御装置3は、所定の処理がプログラミングされており、あらかじめ定められた周期で繰り返し処理を実行する。制御装置3は、物体情報取得手段31と、画像情報取得手段32と、処理候補選定手段33と、立体物判定手段34を、内部機能として有する。
【0017】
物体情報取得手段31は、計測装置1の検知信号に応じて、自車前方の物体の物体情報(相対距離PY0[i]、横位置PX0[i]、幅WD0[i])を取得する。ここで、iは複数の物体を検知している場合のID番号である。
【0018】
画像情報取得手段32は、画像取込装置2の信号に基づいて自車前方を撮影した前方画像の画像情報IMG[x][y]を取得する。画像情報IMG[x][y]は2次元配列であり、x、yはそれぞれ画像の座標を示す。
【0019】
処理候補選定手段33は、物体情報取得手段31で取得した物体情報(相対距離PY0[i]、横位置PX0[i]、幅WD0[i])と、画像情報取得手段32で取得した画像情報IMG[x][y]に基づいて処理候補を選定し、その選定した処理候補の処理候補情報(相対距離PY1[i]、横位置PX1[i]、幅WD1[i])を演算する。ここで、iは複数の処理候補を選定している場合のID番号である。なお、処理候補の選定方法と、処理候補情報の演算方法については後述する。
【0020】
立体物判定手段34は、処理候補選定手段33で選定した処理候補の処理候補情報(相対距離PY1[i]、横位置PX1[i]、幅WD1[i])と、画像情報取得手段32で取得した画像情報IMG[x][y]に基づいて、処理候補が、例えば人物等の所定の立体物であるか否かを判定し、所定の立体物であると判定された立体物の立体物情報(相対距離PY2[i]、横位置PX2[i]、幅WD2[i])を演算する。ここで、iは複数の立体物を検知している場合のID番号である。なお、立体物の判定方法と、立体物情報の演算方法については後述する。
【0021】
次に、図2を用いて、制御装置3の処理候補選定手段33による処理について説明する。図2は、処理候補選定手段33の処理内容を説明するフローチャートである。
【0022】
まず、ステップS201において、物体情報取得手段31によって取得された物体情報(PY0[i]、PX0[i]、WD0[i])を読み込む。そして、ステップS202において、処理候補数jに0を代入し初期化する。この後、物体情報取得手段31によって取得した物体の数に応じて、以下説明するステップS203〜S206を繰り返す。
【0023】
ステップS203において、物体情報とカメラ幾何モデル(画像上の位置と実際の位置の関係)に基づいて画像上での画像処理領域を設定する。画像処理領域を設定した後は、ステップS204に進み、この画像処理領域内を走査するパターンマッチングなどの画像処理を実行して、画像上における物体を検知する。以後、ステップS204で使う画像処理のアルゴリズムを第1のアルゴリズムと呼ぶ。なお、第1のアルゴリズムの内容については後述する。
【0024】
その後、ステップS205において、画像処理領域内で物体が検知されたか否かの判定を行う。ここで、画像処理領域内にて物体が検知された場合には、ステップS206に進み、当該物体を処理候補として選定し、その物体の相対距離PY1[j]、横位置PX1[j]、幅WD1[j]を処理候補情報として記録し、処理候補数jを1加算する。
【0025】
そして、ステップS203からステップS206までの繰り返し処理の終了後、ステップS207にて、記録された処理候補の処理候補情報(記録された全ての相対距離PY1[j]、横位置PX1[j]、幅WD1[j])を立体物判定手段34に出力して処理を終了する。
【0026】
次に、図3を用いて、制御装置3の立体物判定手段34について説明する。図3は、立体物判定手段34の処理内容を説明するフローチャートである。
【0027】
まず、ステップS301において、処理候補選定手段33で選定された処理候補の処理候補情報(PY1[i]、PX1[i]、WD1[i])を読み込む。そして、ステップS302において、立体物数jに0を代入し初期化する。この後、読み込んだ処理候補の数に応じて、以下に説明するステップS303からステップS306を繰り返す。
【0028】
ステップS303において、処理候補情報とカメラ幾何モデルに基づいて画像上での画像処理領域を設定する。画像処理領域を設定した後は、ステップS304に進み、この画像処理領域内を走査するパターンマッチングなどの画像処理を実行して、画像上における立体物を検知する。以後、ステップS304で使う画像処理のアルゴリズムを第2のアルゴリズムと呼ぶ。なお、第2のアルゴリズムの内容については後述する。
【0029】
その後、ステップS305において、検知対象目的の立体物が検知されたか否かの判定を行う。ここで、当該立体物が検知された場合には、ステップS306に進み、自車と衝突の可能性がある立体物であると判定し、その相対距離PY2[j]、横位置PX2[j]、幅WD2[j]を記録し、立体物数jを1加算する。
【0030】
そして、ステップS303からステップS306までの繰り返し処理の終了後、ステップS307にて、記録された立体物の立体物情報(記録された全ての相対距離PY2[j]、横位置PX2[j]、幅WD2[j])を制御装置3から外部に出力して処理を終了する。
【0031】
次に、図4と図5を用いて、自車と衝突の可能性がある立体物として歩行者を検知する場合を例にとり、第1のアルゴリズムと第2のアルゴリズムの内容について以下に詳細に説明する。
【0032】
まず、画像処理によって歩行者を検知する方法について説明する。歩行者を検知する方法としては、歩行者パターンの代表となるテンプレートを複数用意しておき、差分累積演算あるいは正規化相関係演算を行って一致度を求めるテンプレートマッチングによる方法や、ニューラルネットワークなどの識別器を用いてパターン認識を行う方法が挙げられる。
【0033】
いずれの方法をとるとしても、あらかじめ歩行者か否かを決定する指標となるソースのデータベースが必要となる。様々な歩行者のパターンをデータベースとして蓄えておき、そこから代表となるテンプレートを作成したり識別器を生成したりする。実環境では様々な服装、姿勢、体型の歩行者が存在し、さらにそれぞれ照明や天候などの条件が異なったりするため大量のデータベースを用意して、誤判定を少なくすることが必要となる。
【0034】
このとき、前者のテンプレートマッチングによる方法の場合、判定漏れを防ぐようにするとテンプレートの数が膨大となるため現実的でない。そこで、本実施の形態では後者の識別器を用いて判定する方法を採用する。識別器の大きさはソースのデータベースの大きさに依存しない。なお、識別器を生成するためのデータベースを教師データと呼ぶ。
【0035】
識別器を用いて歩行者か否かを判定する方法を、図4を用いて説明する。ここでは、入力画像50の大きさが縦16ドット、横12ドットの場合について説明する。
【0036】
本実施の形態で使用する識別器5は、画像内の所定の箇所に設置された複数の小領域52[n]内における濃淡勾配の方向と強さに基づいて歩行者か否かを判定する。各小領域52[n]は、画像50内の予め定められた位置で、特定方向の濃淡勾配の強さを合計し出力する。以後、この出力を局所エッジ強度と呼ぶ。
【0037】
まず、入力画像50が入力されると、例えばソーベルフィルタなどのフィルタリング処理部51によりフィルタリング処理が行われ、濃淡勾配の強さと方向を持つ画像50[n]がそれぞれ出力される。そして、各画像50[n]の所定箇所に設置された小領域52[n]内で、算出された濃淡勾配の強さと方向を用いて局所エッジ強度を算出する。
【0038】
具体的には、小領域52[n]内の一つ一つの画素に対応する濃淡勾配の方向を参照し、その方向が小領域52[n]ごとに定められた方向と同一であった画素の、対応する位置の濃淡勾配の強度を合計する。本実施の形態の場合、小領域52[n]を40個設置しているため、局所エッジ強度LEWC[0]〜LEWC[39]の40個の値を得る。
【0039】
次に、各小領域判断処理部53[n]において、各局所エッジ強度を、対応する閾値THWC[0]〜THWC[39]で閾値処理し、「1」か「0」の2値に変換し、対応する重み付け部54[n]で重みWWC[0]〜WWC[39]を乗じ、合計部SUMSC55へ出力する。合計部SUMSC55は、各重み付け部54[n]から入力された40個の値を合計し、最終判断処理部56において最終閾値THSCで閾値処理を行い、「1」か「0」を出力する。
【0040】
識別器5内の各局所エッジ強度LEWC[0]〜LEWC[39]を算出するためのパラメータである小領域52[n]の個数、位置、大きさ、濃淡勾配の方向、小領域判断処理部53「n]における局所エッジ強度の閾値THWC[0]〜THWC[39]、重み付け部54[n]の重みWWC[0]〜WWC[39]、最終判断処理部56の最終閾値THSC等は、識別器5への入力画像50が歩行者であった場合には「1」を、歩行者ではなかった場合には「0」を出力するように、教師データを用いて調整される。調整には、AdaBoostなどの機械学習の手段を用いてもよいし、手動で行ってもよい。
【0041】
例えば、歩行者の教師データの数をNPD、非歩行者の教師データの数をNBGとすると、AdaBoostを用いた上記パラメータの調整方法は以下の通りとなる。
【0042】
以下、ある小領域52の位置、大きさ、濃淡勾配の方向から計算される局所エッジをcLEWC[m]と表す。ここで、mは局所エッジのID番号である。
【0043】
まず小領域50の位置、大きさ、濃淡勾配の方向、がそれぞれ異なる局所エッジ強度を複数(例えば、100万通り)用意し、各局所エッジ強度の値cLEWC[m]を全ての教師データから算出し、それぞれの閾値cTHWC[m]を決定する。閾値cTHWC[m]は、歩行者の教師データと非歩行者の教師データを最も分類することができる値を選択する。
【0044】
次に、歩行者の教師データひとつひとつにwPD[nPD]=1/2NPDの、非歩行者の教師データひとつひとつにwBG[nBG]=1/2NBGの重みを与える。ここで、nPDは歩行者の教師データのID番号、nBGは非歩行者の教師データのID番号である。
【0045】
そして、k=1として、以下、繰り返し処理を行う。まず、歩行者・非歩行者全ての教師データの重みの合計が1となるように、重みを正規化する。次に、各局所エッジの誤検知率cERWC[m]を計算する。
【0046】
誤検知率cERWC[m]は、歩行者の教師データの局所エッジ強度cLEWC[m]を閾値cTHWC[m]で閾値処理した結果が非歩行者となったもの、もしくは非歩行者の教師データの局所エッジ強度cLEWC[m]を閾値cTHWC[m]で閾値処理した結果が歩行者となったもの、すなわち閾値処理した結果が実際と異なる教師データの重みの合計である。
【0047】
全ての局所エッジの誤検知率cERWC[m]を算出後、誤検知率が最小となる局所エッジのID mMin を選択し、LEWC[k]=cLEWC[mMin]、閾値THWC[k]=cTHWC[mMin]とする。
【0048】
次に、各教師データの重みを更新する。更新は、歩行者の教師データの局所エッジ強度LEWC[k]を閾値THWC[k]で閾値処理した結果が歩行者となったもの、もしくは非歩行者の教師データの局所エッジ強度LEWC[k]を閾値THWC[k]で閾値処理した結果が非歩行者となったもの、すなわち閾値処理した結果が正解の教師データの重みに、係数BT[k]=cERWC[mMin]/(1−cERWC[mMin])を乗じて行う。
【0049】
k=k+1とし、kが予め設定した値(例えば、40)になるまで繰り返す。繰り返し処理の終了後に得られる局所エッジLEWC[k]、閾値THWC[k]がAdaBoostにより自動調整された識別器5である。なお,重みWWC[k]=1/BT[k],最終閾値THSC=0.5である。
【0050】
次に、前述の識別器5を用いて、与えられた画像処理領域内の画像から歩行者を検知する方法について説明する。まず、与えられた画像処理領域内の画像に写る歩行者の大きさが、縦16ドット、横12ドットとなるように画像サイズを変換する。画像に歩行者以外の物体が同時に写っているなど、変換後の画像の大きさが16×12ドットより大きくなる場合は、下記の手段にて探索を行う。
【0051】
まず、16×12のウィンドウを変換後の画像の左上に設定し、このウィンドウ内の画像を前述の識別器5にかける。そして、ウィンドウを1ドットずつ右にずらしながら順次識別器5にかけ、ウィンドウが右端に達したらウィンドウを1ドット下に動かして左端に戻し、再び右へ動かしながら、順次識別器5にかける。この探索を、ウィンドウが右下に達するまで繰り返す。この探索の中で、識別器5の出力が1となる場所に歩行者がいることになる。
【0052】
次に、ステップS203の画像処理において用いられる第1のアルゴリズムと、ステップS303の画像処理において用いられる第2のアルゴリズムの内容について説明する。
【0053】
本実施の形態では、入力画像50の大きさを変えた識別器5を4つ用意し、第1のアルゴリズムでは入力画像50の大きさが最も小さい第1の識別器5を、第2のアルゴリズムでは残り3種類である第2〜第4の識別器5を用いる。第2〜第4の識別器5は、入力画像50の大きさが第1の識別器5よりも大きく、第2〜第4の識別器5に移行するに従って漸次大きくなるように設定されている。
【0054】
第1のアルゴリズムでは、ステップS203で処理候補選定手段33によって設定された画像処理領域の画像内に歩行者がいると仮定し、物体との相対距離とカメラ幾何モデルを用いて、歩行者が自車から前方に予め設定された距離だけ離れた位置に存在する場合の画像の大きさと同一の大きさになるように、画像処理領域の画像の画像サイズを変換する。
【0055】
具体的には、自車から前方に40メートルだけ離れた位置にいる歩行者を検知できる第1識別器5を用意し、ステップS203で設定された画像処理領域内の画像を、カメラ幾何モデルを用いて歩行者が自車から前方に40メートルだけ離れた地点にいる場合の画像の大きさと同一の大きさになるように変換して、前述の探索方法により歩行者を検知する。
【0056】
なお、本実施の形態では、歩行者は、自車と自車から前方に40メートルだけ離れた地点との間に存在することを前提としている。従って、ステップS203では、画像処理領域内の画像は、収縮する方向に変換される。
【0057】
そして、歩行者が検知された場合、変換後の画像上における歩行者の検知位置を、変換前の画像上の位置に変換し、カメラ幾何モデルを用いて、処理候補情報(相対距離PY1[i]、横位置PX1[i]、幅WD1[i])を更新する。
【0058】
第2のアルゴリズムでは、ステップS303で設定された画像処理領域の画像内に歩行者がいると仮定し、物体との相対距離とカメラ幾何モデルを用いて、画像内の歩行者を探索するのに最も適している識別器5に対応させるべく、画像処理領域内の画像の画像サイズを変換する。
【0059】
具体的には、自車から前方に10m、20m、30mだけ離れた位置に存在する歩行者を検知できる第2〜第4の識別器5をそれぞれ用意する。そして、処理候補が自車から20mよりも離れた位置にいる場合には、ステップS303で設定された画像処理領域の画像を30m地点の画像の画像サイズに変換し、第4の識別器5を用いて、前述の探索方法により、歩行者を検知する。
【0060】
そして、処理候補が自車から20〜10mの距離にいる場合は、画像処理領域の画像を20m地点の画像の画像サイズに変換し、第3の識別器5を用いて、前述の探索方法により、歩行者を検知する。
【0061】
また、処理候補が自車から10mより近い位置にいる場合は、画像処理領域の画像を10m地点の画像の画像サイズに変換し、第2の識別器5を用いて、前述の探索方法により、歩行者を検知する。
【0062】
ここで、処理候補から歩行者が検知された場合、変換後の画像上における歩行者の検知位置を、変換前の画像上の位置に変換し、カメラ幾何モデルを用いて、立体物情報(相対距離PY2[i]、横位置PX2[i]、幅WD2[i])を更新する。
【0063】
以上の処理の具体的な動作例を、図5を用いて説明する。
【0064】
まず、計測手段1によって検知した物体Pが前方画像60上で特定され、その物体Pを含む画像部分が画像処理領域Aとして設定される(S61)。物体Pの前方画像60上での位置は、計測装置1で検知した物体Pの物体情報とカメラ幾何モデルに基づいて特定される。
【0065】
本実施の形態では、図5(a)に示すように、3つの物体P1(歩行者)、物体P2(マンホール)、物体P3(電柱)が前方画像60上で特定され、その画像部分が画像処理領域A1〜A3として設定される。画像処理領域A1〜A3は、物体P1〜P3の周りを所定の間隔を空けて囲むように設定される。
【0066】
次に、第1のアルゴリズムを用いて、画像処理領域A内の画像に画像処理が行われ、画像処理の結果に応じて処理候補が選定される(S62)。第1のアルゴリズムでは、各画像処理領域A内の画像を変換して、自車から自車前方に40メートルだけ離れた位置に存在する人物の画像の大きさと同一の大きさに縮小し、その縮小した画像に対して探索が行われて、処理候補が選定される。
【0067】
このように、画像処理領域Aの画像を縮小した画像B内で処理候補(歩行者)を探索するので、画像処理領域A内で処理候補を探索するよりも探索範囲を小さくすることができる。従って、制御装置3の処理負荷を小さくすることができ、また、迅速に探索することができる。
【0068】
画像B内で処理候補Qが検知された場合には、その画像B内における処理候補Qの位置を、元の前方画像60上での位置に変換し、対応する物体Pの物体情報から処理候補Qの処理候補情報(PY1[i]、PX1[i]、WD1[i])が更新される。
【0069】
本実施の形態では、図5(b)に示すように、画像処理領域A1〜A3の画像を縮小した画像B1〜B3のうち、画像B1、B2内の領域C1、C2において処理候補Q1、Q2が選定される。そして、処理候補Q1、Q2の位置が、元の前方画像60上での位置(図5(c)を参照)に変換されて、処理候補情報が更新される。
【0070】
そして、処理候補Qの処理候補情報(PY1[i]、PX1[i]、WD1[i])と前方画像60に基づいて、前方画像60内に画像処理領域Dが設定され(S63)、画像処理領域Dの画像に対して第2のアルゴリズムを用いた画像処理が実行され、処理候補Qが予め設定された所定の立体物(歩行者)であるか否かが判定される(S64)。
【0071】
第2のアルゴリズムでは、処理候補との相対距離に応じて10メートル、20メートル、30メートル用の第2〜第4の識別器5を使い分けるので、処理候補との相対距離に応じて処理する画像の大きさが異なる。本実施の形態では、画像処理領域D1、D2のうち、画像処理領域D1内の物体P1が、歩行者であると判定されている。
【0072】
以上説明したように、本実施の形態における車載用物体検知装置100によれば、第1のアルゴリズムで第2のアルゴリズムを実行する範囲を絞ることができ、制御装置3の処理負荷を小さくすることができる。すなわち、最初に処理候補を選定し、その選定された処理候補に対して立体物であるか否かを判定するので、第1のアルゴリズムの画像処理よりも処理負荷の大きい第2のアルゴリズムの画像処理を実行する回数を減らすことができ、結果として、制御装置3の処理負荷を小さくすることができる。
【0073】
そして、処理候補選定手段33では、第1のアルゴリズムによって、前方画像の画像処理領域内の画像を縮小し、その縮小した画像内で処理候補を探索するので、前方画像の画像処理領域内の画像を探索するよりも探索範囲を小さくすることができ、制御装置3の処理負荷を小さくすることができ、また、迅速に探索することができる。
【0074】
そして、立体物判定手段34では、第2のアルゴリズムによって、処理候補選定手段33が処理候補を選択する際に用いる画像よりも、高精度の画像を用いて立体物を判定するので、誤検知を低減することができる。
【0075】
また、立体物判定手段34では、第2のアルゴリズムによって、自車と処理候補との間の相対距離に応じて第2〜第4の識別器5を使い分けるので、近傍の物体ほど誤検知を低減できる。すなわち、自車前方をカメラで撮影した画像では、自車に近い物体ほど画像に大きく写り、多くの情報を得ることができるので、距離に応じて識別器5を使い分けることによって、自車に近い物体ほど多くの情報を使用することができ、その結果、誤検知を減らすことができる。
【0076】
なお、第1のアルゴリズムおよび第2のアルゴリズムで用いる識別器5の数はそれぞれ1つ、3つに限定されず、いくつ用いてもよい。また、各識別器5の入力画像50の大きさは10メートル、20メートル、30メートル、40メートルの距離での大きさに限定されず、どの距離の画像に設定してもよい。さらに、歩行者の検知に用いる識別器5は、本実施例で取り上げた方法に限定されない。ニューラルネットワーク識別器、サポートベクターマシン識別器、ベイズ識別器などを用いてもよい。
【0077】
[第2実施の形態]
次に、本発明の車載用物体検知装置101の別の実施の形態を、図6から10を用いて詳細に説明する。なお、以下の説明では、上述の車載用物体検知装置100と異なる個所のみ詳述し、同様の個所には同一の番号を付し説明を省略する。
【0078】
図6は、別形態の車載用物体検知装置101の実施形態を示すブロック図である。車載用物体検知装置101は、計測装置1、画像取込装置2、制御装置4から構成される。
【0079】
制御装置4は、所定の処理がプログラミングされており、あらかじめ定められた周期で繰り返し処理を実行する。制御装置3との差異がある処理を以下で説明する。
【0080】
予測進路設定手段41は、車速センサ、操舵角センサ、ヨーレートセンサの検知信号に応じて車速Vsp、操舵角α、ヨーレートγなどの自車情報を取得し、この自車情報に応じて自車の予測進路を演算する。
【0081】
これら自車情報の取得には、各センサの信号を制御装置4に直接入力することによって取得しても良いし、センサ信号が他の制御装置に入力されている場合はその制御装置とLAN(Local Area Network)を用いた通信を行うことによって取得しても良い。ここでは、自車の予測進路として旋回半径Rを演算する。なお、旋回半径Rの演算方法については後述する。
【0082】
処理候補選定領域設定手段42は、予測進路設定手段41で取得した自車の予測進路に応じて、処理候補選定手段44が選定処理を実行するための処理候補選定領域を設定する。なお、処理候補選定領域の設定方法については後述する。
【0083】
立体物判定領域設定手段43は、処理候補選定領域設定手段42で取得した処理候補選定領域に応じて、立体物判定手段45が判定処理を実行するための立体物判定領域を設定する。なお、立体物判定領域の設定方法については後述する。
【0084】
処理候補選定手段44は、物体情報取得手段31で取得した物体情報(相対距離PY0[i]、横位置PX0[i]、幅WD0[i])と、画像情報取得手段32で取得した画像情報IMG[x][y]と、処理候補選定領域設定手段42で設定した処理候補選定領域に応じて、処理候補情報(相対距離PY1[i]、横位置PX1[i]、幅WD1[i])を演算する。ここで、iは複数の処理候補を選定している場合のID番号である。なお、処理候補の演算方法については後述する。
【0085】
立体物判定手段45は、画像情報取得手段32で取得した画像の画像情報IMG[x][y]と、処理候補選定手段44で演算した処理候補情報(相対距離PY1[i]、横位置PX1[i]、幅WD1[i])と、立体物判定領域設定手段43で設定した立体物判定領域に応じて、立体物情報(相対距離PY2[i]、横位置PX2[i]、幅WD2[i])を演算する。ここで、iは複数の立体物を検知している場合のID番号である。なお、物体判定の演算方法については後述する。
【0086】
次に、図7を用いて、車載用物体検知装置101の予測進路設定手段41について説明する。図7は、予測進路設定手段41の処理内容を示す模式図である。
【0087】
図7に示すように、自車70の位置を原点Oとすると、予測進路Tは原点Oを通る旋回半径Rの円弧で近似できる。ここで、旋回半径Rは、自車70の操舵角α、速度Vsp、スタビリティファクタA、ホイールベースBおよびステアリングギア比Gsを用いて式(1)で表される。
R=(1+AVsp2)×(B・Gs/α) (1)
【0088】
スタビリティファクタAとは、その正負が、車両のステア特性を支配するものであり、車両の定常円旋回の速度に依存する変化の大きさを示す指数となる重要な値である。式(1)からわかるように、旋回半径Rは、スタビリティファクタAを係数として、自車70の速度Vspの2乗に比例して変化する。また、旋回半径Rは車速Vspおよびヨーレートγを用いて式(2)で表すことができる。
R=Vsp/γ(2)
【0089】
以上説明したように、車速Vsp、操舵角αおよびヨーレートγの自車情報を利用することによって自車70の予測進路を旋回半径Rの円弧で近似することが可能となる。
【0090】
次に、制御装置4の処理候補選定領域設定手段42および立体物判定領域設定手段43について説明する。処理候補選定領域設定手段42は、予測進路設定手段41により設定された予測進路Tに応じて、例えば、図8(a)に示すように、車線幅Wn分の予測進路T上となるように、処理候補選定領域71を設定する。
【0091】
立体物判定領域設定手段43は、処理候補選定領域設定手段42により設定された処理候補選定領域71に応じて、例えば、図8(a)に示すように、自車幅Wc分の予測進路T上となるように、立体物判定領域72を設定する。
【0092】
処理候補選定領域71および立体物判定領域72の設定方法として、上記の例では幅の設定例を述べたが、他の設定方法として、自車70からの距離方向に設定する方法がある。
【0093】
図8(b)は、TTCaとTTCbという時間を設定し、自車70前方の物体との相対距離を相対速度で割ることにより算出される衝突予測時間がTTCa以下の警報領域を処理候補選定領域73、TTCb以下の制動領域を立体物判定領域74とする例である。
【0094】
また、THWaとTHWbという時間を設定し、自車速度とTHWaおよびTHWbから得られる予測位置を用いて、THWaでの到達位置までを処理候補選定領域75、THWbでの到達位置までを立体物判定領域76と設定してもよい。
【0095】
なお、処理候補選定領域71、73、75および立体物判定領域72、74、76の設定方法はこれに限らず、カメラなどの画像取込装置2により得られる画像から自車701の走行レーンを認識するレーン認識装置の認識結果と自車701の予測進路Tが重なる部分としてもよいし、レーダなどの計測装置1により検知された自車70前方の物体の距離に応じて設定してもよい。
【0096】
次に、図9を用いて、制御装置4の処理候補選定手段44について説明する。図9は、処理候補選定手段44の処理内容を示すフローチャートである。
【0097】
まず、ステップS401において、物体情報取得手段31により検知された物体情報(PY0[i]、PX0[i]、WD0[i])を読み込む。次に、ステップS402において、処理候補数jに0を代入し初期化する。この後、読み込んだ物体の数に応じて、以下説明するステップS403からステップS407を繰り返す。
【0098】
ステップS403において、物体が処理候補選定領域設定手段42により設定された処理候補選定領域内であるか否かの判定を行う。物体が処理候補選定領域外であると判断された場合には、次の繰り返し処理に入る。処理候補選定領域内であると判断された場合には、続けてステップS404以降の処理を行う。
【0099】
ステップS404において、物体情報とカメラ幾何モデルに基づいて画像上での画像処理領域を設定する。画像処理領域を設定した後は、ステップS405に進み、この領域内を走査するパターンマッチングなどの画像処理を実行して物体を検知する。
【0100】
ステップS405で使う画像処理のアルゴリズムは上述のステップS204に記載の第1のアルゴリズムと同様である。その後、ステップS406において、物体が検知されたか否かの判定を行う。物体が検知された場合には、ステップS407に進み、処理候補として、パターンマッチの結果に応じて相対距離PY1[j]、横位置PX1[j]、幅WD1[j]を記録し、処理候補数jを1加算する。
【0101】
繰り返し処理の終了後、ステップS408にて、記録された処理候補情報(記録された全ての相対距離PY1[j]、横位置PX1[j]、幅WD1[j])を、立体物判定手段45に出力して処理を終了する。
【0102】
次に、図10を用いて、制御装置4の立体物判定手段45について説明する。
図10は、立体物判定手段45の処理内容を示すフローチャートである。
【0103】
まず、ステップS501において、処理候補選定手段44により選定された処理候補情報(PY1[i]、PX1[i]、WD1[i])を読み込む。つぎに、ステップS502において、立体物数jに0を代入し初期化する。この後、読み込んだ処理候補の数に応じて、以下説明するステップS503からステップS507を繰り返す。
【0104】
ステップS503において、処理候補が立体物判定領域設定手段43により設定された立体物判定領域内に存在するか否かの判定を行う。処理候補が立体物判定領域外にある(ステップS503でNO)と判断された場合には、ステップS507に進み、取得した処理候補(相対距離PY1[i]、横位置PX1[i]、幅WD1[i])を立体物(相対距離PY2[j]、横位置PX2[j]、幅WD2[j])としてそのまま登録し、次の繰り返し処理に入る。一方、処理候補が立体物判定領域内に存在する(ステップS503でYES)と判断された場合には、続けてステップS504以降の処理を行う。
【0105】
ステップS504において、処理候補情報とカメラ幾何モデルに基づいて画像上での画像処理領域を設定する。画像処理領域を設定した後は、ステップS505に進み、この領域内を走査するパターンマッチングなどの画像処理を実行して立体物を検知する。ステップS505で使う画像処理のアルゴリズムは上述のステップS304に記載の第2のアルゴリズムと同様である。
【0106】
その後、ステップS506において、立体物が検知されたか否かの判定を行い、立体物が検知された場合(ステップS506でYES)には、ステップS507に進み、パターンマッチの結果に応じて、立体物の相対距離PY2[j]、横位置PX2[j]、幅WD2[j]を記録し、立体物数jを1加算する。
【0107】
繰り返し処理の終了後、ステップS508にて、記録された立体物の立体物情報(記録された全ての相対距離PY2[j]、横位置PX2[j]、幅WD2[j])を車載用物体検知装置101から外部に出力して処理を終了する。
【0108】
以上説明したように、本実施の形態では、処理候補選定領域と立体物判定領域を設定することによって、画像処理対象を限定し、前述した車載用物体検知装置100よりも処理負荷を軽減することができる。
【0109】
次に、図11を用いて、プリクラッシュ・セーフティ・システムを例にとり、前記の各実施の形態によって得られる立体物情報(相対距離PY2[i]、横位置PX2[i]、幅WD2[i])に応じて警報を出力する、あるいは自動的にブレーキを制御するといった制御システムの動作方法について説明する。
【0110】
図11は、プリクラッシュ・セーフティ・システムの動作方法を示すフローチャートである。最初に、ステップ601において、車載用物体検知装置100もしくは車載用物体検知装置101で演算された立体物情報(相対距離PY2[i]、横位置PX2[i]、幅WD2[i])を読み込む。
【0111】
次に、ステップ602において、検知された各物体の衝突予測時間TTC[i]を式(3)を用いて演算する。ここで、相対速度VY[i]は、物体の相対距離PY[i]を擬似微分することによって求める。
TTC[i]=PY[i]÷VY[i] (3)
【0112】
そして、ステップ603において、各立体物に対する危険度DRECI[i]を演算する。以下、車載用物体検知装置100もしくは車載用物体検知装置101で検知された物体X[i]に対する危険度DRECI[i]の演算方法の例を、図7を用いて説明する。
【0113】
まず、物体X[i]から前述の方法にて得られる予測進路Tの中心へ垂線を引き、物体Xと予測進路Tとの離間距離L[i]を求める。つぎに、自車幅Wcの半分の大きさである幅H(H=Wc/2)から距離L[i]を引き、これが負値の場合には危険度DRECI[i]=0とし、正値の場合には以下の式(4)によって危険度DRECI[i]を演算する。
DRECI[i]= (H−L[i])/H (4)
【0114】
なお、ステップ601〜604の処理は、検知した物体数に応じてループ処理を行う構成としている。
【0115】
ステップ604において、ステップ603で演算した危険度DRECI[i]に応じて以下の式(5)が成立している物体を選択し、選択された物体の中で衝突予測時間TTC[i]が最小となる物体kを選択する。
DRECI[i]≧ cDRECI# (5)
ここで、所定値cDRECI#は、自車70に衝突するか否かを判定するための閾値である。
【0116】
次に、ステップ605において、選択された物体kの衝突予測時間TTC[k]に応じて自動的にブレーキを制御する範囲であるか否かを下記の式(6)を用いて判定する。
TTC[k]≦cTTCBRK# (6)
【0117】
上記の式(6)が成立している場合には物体kが制動領域内に存在するとして、ステップ606に進み、ブレーキ制御を実行して処理を終了する。また、式(6)が非成立の場合には、ステップ607に進む。
【0118】
ステップ607では、選択された物体kの衝突予測時間TTC[k]に応じて警報を出力する範囲であるか否かを下記の式(7)を用いて判定する。
【0119】
TTC[k]≦cTTCALM# (7)
上記の式(7)が成立している場合には物体kが警報領域内に存在するとして、ステップ608に進み、警報を出力して処理を終了する。また、式(7)が非成立の場合には、ブレーキ制御、警報ともに実行せずに処理を終了する。
【0120】
以上説明したように、本発明である車載用物体検知装置100もしくは101より得られる物体情報(相対距離PY2[i]、横位置PX2[i]、幅WD2[i])は、自動ブレーキ、警報といったシステムの動作に関わる危険度DRECI[i]の算出に用いられる重要なパラメータである。
【0121】
本発明は、上記のような実施形態にすることにより、自車近傍の非立体物に対する誤検知を低減し、警報、自動ブレーキの誤動作を防止することができる。
【0122】
なお、本発明は、上述の各実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。
【図面の簡単な説明】
【0123】
【図1】本発明の第1実施の形態における車載用物体検知装置のブロック図。
【図2】第1実施の形態における処理候補選定手段の処理内容を示すフローチャート。
【図3】第1実施の形態における立体物判定手段の処理内容を示すフローチャート。
【図4】第1実施の形態における識別器による歩行者の判定方法を示す模式図。
【図5】第1実施の形態における車載用物体検知装置の動作例を示す図。
【図6】本発明の第2実施の形態における車載用物体検知装置のブロック図。
【図7】第2実施の形態における予測進路設定手段を示す模式図。
【図8】第2実施の形態における処理候補選定領域と立体物判定領域の設定例を示す模式図。
【図9】第2実施の形態における処理候補選定手段の処理内容を示すフローチャート。
【図10】第2実施の形態における立体物判定手段の処理内容を示すフローチャート。
【図11】本発明を適用したプリクラッシュ・セーフティ・システムの動作方法を示すフローチャート。
【符号の説明】
【0124】
100 車載用物体検知装置
1 計測装置
2 画像取込装置
3 制御装置
31 物体情報取得手段
32 画像情報取得手段
33 処理候補選定手段
34 立体物判定手段
101車載用物体検知装置
4 制御装置
41 自車予測進路設定手段
42 処理候補選定領域設定手段
43 立体物判定領域設定手段
44 処理候補選定手段
45 立体物判定手段
【特許請求の範囲】
【請求項1】
自車と自車前方の物体との距離を計測する計測装置と、自車の前方画像を取り込む画像取込装置と、前記物体の距離に基づき前記前方画像から前記物体の画像を特定し、該物体の画像を用いて前記物体を識別する処理を行う制御装置とを有する車載用物体検知装置であって、
前記制御装置は、
前記物体の距離と前記前方画像とに基づいて処理候補を選定する処理候補選定手段と、
前記処理候補の距離と前記前方画像とに基づいて前記処理候補が予め設定された所定の立体物であるかを判定する立体物判定手段と、
を有することを特徴とする車載用物体検知装置。
【請求項2】
前記処理候補選定手段は、前記物体の距離と前記前方画像とに基づいて前記前方画像内に画像処理領域を設定し、該画像処理領域内の画像に対して画像処理を実行することによって、前記物体から処理候補を選定し、
前記立体物判定手段は、前記処理候補の距離と前記前方画像とに基づいて前記前方画像内に画像処理領域を設定し、該画像処理領域の画像に対して画像処理を実行することによって、前記処理候補が予め設定された所定の立体物であるかを判定することを特徴とする請求項1に記載の車載用物体検知装置。
【請求項3】
前記立体物判定手段によって前記画像処理が実行される画像処理領域内の画像が、前記処理候補選定手段によって前記画像処理が実行される画像処理領域内の画像よりも高精度であることを特徴とする請求項2に記載の車載用物体検知装置。
【請求項4】
前記処理候補選定手段は、前記立体物を自車から前方に予め設定された距離だけ離れた位置に配置した場合の画像の大きさと同一の大きさに前記画像処理領域内の画像を縮小し、該縮小した画像に対して画像処理を実行し、
前記立体物判定手段は、前記立体物を自車から前方に予め設定された距離だけ離れた位置に配置した場合の画像の大きさと同一の大きさに前記画像処理領域内の画像を縮小し、該縮小した画像に対して画像処理を実行することを特徴とする請求項3に記載の車載用物体検知装置。
【請求項5】
前記立体物判定手段が前記画像処理領域内の画像を縮小する縮小率は、前記処理候補選定手段が前記画像処理領域内の画像を縮小する縮小率よりも小さい値に設定されていることを特徴とする請求項4に記載の車載用物体検知装置。
【請求項6】
前記処理候補は、人物の候補であり、
前記所定の立体物は、人物であることを特徴とする請求項1から請求項5のいずれか一項に記載の車載用物体検知装置。
【請求項7】
前記計測装置は、レーダであり、前記画像取込装置は、カメラであることを特徴とする請求項1から請求項6のいずれか一項に記載の車載用物体検知装置。
【請求項8】
前記制御装置は、自車の予測進路を設定する予測進路設定手段と、前記予測進路に応じて処理候補選定領域を設定する処理候補選定領域設定手段と、を有し、
前記処理候補選定手段は、前記物体の距離に基づいて前記処理候補選定領域内に前記物体が存在するか否かを判断し、前記処理候補選定領域内に前記物体が存在すると判断した場合に、前記物体の距離と前記前方画像とに基づいて前記前方画像内に画像処理領域を設定することを特徴とする請求項1から請求項7のいずれか一項に記載の車載用物体検知装置。
【請求項9】
前記処理候補選定領域設定手段は、自車の予測進路上に車線幅分の横幅を有するように前記処理候補選定領域を設定することを特徴とする請求項8に記載の車載用物体検知装置。
【請求項10】
前記処理候補選定領域設定手段は、前記自車の速度と前記予測進路に応じて前記処理候補選定領域を設定することを特徴とする請求項8に記載の車載用物体検知装置。
【請求項11】
前記処理候補選定領域設定手段は、自車と物体の相対距離及び相対速度に基づいて算出される衝突予測時間と前記予測進路に応じて前記処理候補選定領域を設定することを特徴とする請求項8に記載の車載用物体検知装置。
【請求項12】
前記制御装置は、外界認識センサにより自車の走行レーンを認識する走行レーン認識手段を有し、
前記処理候補選定領域設定手段は、前記走行レーン認識手段の認識結果と前記予測進路に応じて前記処理候補選定領域を設定することを特徴とする請求項8に記載の車載用物体検知装置。
【請求項13】
前記制御装置は、前記予測進路に応じて立体物判定領域を設定する立体物判定領域設定手段を有し、
該立体物判定領域設定手段は、前記処理候補の距離に基づいて前記処理候補選定領域内に前記処理候補が存在するか否かを判断し、前記立体物判定領域内に前記処理候補が存在すると判断した場合に、前記処理候補の距離と前記前方画像とに基づいて前記前方画像内に画像処理領域を設定することを特徴とする請求項1から請求項12のいずれか一項に記載の車載用物体検知装置。
【請求項14】
前記立体物判定領域設定手段は、自車の予測進路上に自車幅分の横幅を有するように前記立体物判定領域を設定することを特徴とする請求項13に記載の車載用物体検知装置。
【請求項15】
前記立体物判定領域設定手段は、前記自車の速度と前記予測進路に応じて前記立体物判定領域を設定することを特徴とする請求項13に記載の車載用物体検知装置。
【請求項16】
前記立体物判定領域設定手段は、自車と物体の相対距離及び相対速度に基づいて算出される衝突予測時間と前記予測進路に応じて前記立体物判定領域を設定することを特徴とする請求項13に記載の車載用物体検知装置。
【請求項17】
前記制御装置は、外界認識センサにより自車の走行レーンを認識する走行レーン認識手段を有し、
前記立体物判定領域設定手段は、前記走行レーン認識手段の認識結果と前記予測進路に応じて前記立体物判定領域を設定することを特徴とする請求項13に記載の車載用物体検知装置。
【請求項1】
自車と自車前方の物体との距離を計測する計測装置と、自車の前方画像を取り込む画像取込装置と、前記物体の距離に基づき前記前方画像から前記物体の画像を特定し、該物体の画像を用いて前記物体を識別する処理を行う制御装置とを有する車載用物体検知装置であって、
前記制御装置は、
前記物体の距離と前記前方画像とに基づいて処理候補を選定する処理候補選定手段と、
前記処理候補の距離と前記前方画像とに基づいて前記処理候補が予め設定された所定の立体物であるかを判定する立体物判定手段と、
を有することを特徴とする車載用物体検知装置。
【請求項2】
前記処理候補選定手段は、前記物体の距離と前記前方画像とに基づいて前記前方画像内に画像処理領域を設定し、該画像処理領域内の画像に対して画像処理を実行することによって、前記物体から処理候補を選定し、
前記立体物判定手段は、前記処理候補の距離と前記前方画像とに基づいて前記前方画像内に画像処理領域を設定し、該画像処理領域の画像に対して画像処理を実行することによって、前記処理候補が予め設定された所定の立体物であるかを判定することを特徴とする請求項1に記載の車載用物体検知装置。
【請求項3】
前記立体物判定手段によって前記画像処理が実行される画像処理領域内の画像が、前記処理候補選定手段によって前記画像処理が実行される画像処理領域内の画像よりも高精度であることを特徴とする請求項2に記載の車載用物体検知装置。
【請求項4】
前記処理候補選定手段は、前記立体物を自車から前方に予め設定された距離だけ離れた位置に配置した場合の画像の大きさと同一の大きさに前記画像処理領域内の画像を縮小し、該縮小した画像に対して画像処理を実行し、
前記立体物判定手段は、前記立体物を自車から前方に予め設定された距離だけ離れた位置に配置した場合の画像の大きさと同一の大きさに前記画像処理領域内の画像を縮小し、該縮小した画像に対して画像処理を実行することを特徴とする請求項3に記載の車載用物体検知装置。
【請求項5】
前記立体物判定手段が前記画像処理領域内の画像を縮小する縮小率は、前記処理候補選定手段が前記画像処理領域内の画像を縮小する縮小率よりも小さい値に設定されていることを特徴とする請求項4に記載の車載用物体検知装置。
【請求項6】
前記処理候補は、人物の候補であり、
前記所定の立体物は、人物であることを特徴とする請求項1から請求項5のいずれか一項に記載の車載用物体検知装置。
【請求項7】
前記計測装置は、レーダであり、前記画像取込装置は、カメラであることを特徴とする請求項1から請求項6のいずれか一項に記載の車載用物体検知装置。
【請求項8】
前記制御装置は、自車の予測進路を設定する予測進路設定手段と、前記予測進路に応じて処理候補選定領域を設定する処理候補選定領域設定手段と、を有し、
前記処理候補選定手段は、前記物体の距離に基づいて前記処理候補選定領域内に前記物体が存在するか否かを判断し、前記処理候補選定領域内に前記物体が存在すると判断した場合に、前記物体の距離と前記前方画像とに基づいて前記前方画像内に画像処理領域を設定することを特徴とする請求項1から請求項7のいずれか一項に記載の車載用物体検知装置。
【請求項9】
前記処理候補選定領域設定手段は、自車の予測進路上に車線幅分の横幅を有するように前記処理候補選定領域を設定することを特徴とする請求項8に記載の車載用物体検知装置。
【請求項10】
前記処理候補選定領域設定手段は、前記自車の速度と前記予測進路に応じて前記処理候補選定領域を設定することを特徴とする請求項8に記載の車載用物体検知装置。
【請求項11】
前記処理候補選定領域設定手段は、自車と物体の相対距離及び相対速度に基づいて算出される衝突予測時間と前記予測進路に応じて前記処理候補選定領域を設定することを特徴とする請求項8に記載の車載用物体検知装置。
【請求項12】
前記制御装置は、外界認識センサにより自車の走行レーンを認識する走行レーン認識手段を有し、
前記処理候補選定領域設定手段は、前記走行レーン認識手段の認識結果と前記予測進路に応じて前記処理候補選定領域を設定することを特徴とする請求項8に記載の車載用物体検知装置。
【請求項13】
前記制御装置は、前記予測進路に応じて立体物判定領域を設定する立体物判定領域設定手段を有し、
該立体物判定領域設定手段は、前記処理候補の距離に基づいて前記処理候補選定領域内に前記処理候補が存在するか否かを判断し、前記立体物判定領域内に前記処理候補が存在すると判断した場合に、前記処理候補の距離と前記前方画像とに基づいて前記前方画像内に画像処理領域を設定することを特徴とする請求項1から請求項12のいずれか一項に記載の車載用物体検知装置。
【請求項14】
前記立体物判定領域設定手段は、自車の予測進路上に自車幅分の横幅を有するように前記立体物判定領域を設定することを特徴とする請求項13に記載の車載用物体検知装置。
【請求項15】
前記立体物判定領域設定手段は、前記自車の速度と前記予測進路に応じて前記立体物判定領域を設定することを特徴とする請求項13に記載の車載用物体検知装置。
【請求項16】
前記立体物判定領域設定手段は、自車と物体の相対距離及び相対速度に基づいて算出される衝突予測時間と前記予測進路に応じて前記立体物判定領域を設定することを特徴とする請求項13に記載の車載用物体検知装置。
【請求項17】
前記制御装置は、外界認識センサにより自車の走行レーンを認識する走行レーン認識手段を有し、
前記立体物判定領域設定手段は、前記走行レーン認識手段の認識結果と前記予測進路に応じて前記立体物判定領域を設定することを特徴とする請求項13に記載の車載用物体検知装置。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【公開番号】特開2009−276200(P2009−276200A)
【公開日】平成21年11月26日(2009.11.26)
【国際特許分類】
【出願番号】特願2008−127526(P2008−127526)
【出願日】平成20年5月14日(2008.5.14)
【出願人】(000005108)株式会社日立製作所 (27,607)
【Fターム(参考)】
【公開日】平成21年11月26日(2009.11.26)
【国際特許分類】
【出願日】平成20年5月14日(2008.5.14)
【出願人】(000005108)株式会社日立製作所 (27,607)
【Fターム(参考)】
[ Back to top ]