移動対象物検出装置
【課題】 カメラにより得られる対象物像が画像の端部に接しているような場合において、対象物の相対的な移動方向を誤って検出することを防止できる移動対象物検出装置を提供する。
【解決手段】 カメラ1Rにより得られる基準画像に含まれる対象物像が、基準画像の端部に接するときは、その対象物像の位置を代表する判定点が、対象物像の面積重心Gから、画像の中心に近い外接四角形の端部の点GEに移動され、該移動後の判定点に基づいて対象物の移動方向が検出される。
【解決手段】 カメラ1Rにより得られる基準画像に含まれる対象物像が、基準画像の端部に接するときは、その対象物像の位置を代表する判定点が、対象物像の面積重心Gから、画像の中心に近い外接四角形の端部の点GEに移動され、該移動後の判定点に基づいて対象物の移動方向が検出される。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、互いに離間して配置された2つカメラにより得られる対象物の画像情報に基づいて、対象物の移動方向を検出する移動対象物検出装置に関する。
【背景技術】
【0002】
車両に2つのCCDカメラを搭載し、2つのカメラから得られる画像のずれ、すなわち視差に基づいて、対象物と当該車両との距離を検出し、車両の30〜60m前方の歩行者を検出するようにした横断物の検出装置が従来より知られている(特許文献1)。
【特許文献1】特開平9−226490号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
しかしながら上記従来の装置は、カメラにより得られる画像に基づいて検出した対象物のオプティカルフローの方向をそのまま使用して、衝突の可能性を判定しているため、自車両と対象物との相対距離や車速によっては判定精度が低下するという問題があった。すなわち、例えば対象物の移動速度に比べて車速が大きい場合には、実際には道路の中心に向かって移動している対象物に対応する画像上のオプティカルフローが道路の外側に向かうベクトルとなってとらえられることがあり、誤判定が発生する。
【0004】
そこで、対象物の移動ベクトルを正確に検出するために、カメラにより得られる画像に含まれる対象物像の面積重心を、対象物像の位置を代表する判定点として使用し、判定点の実空間上の位置を示す時系列データを、2つのカメラにより得られる画像に基づいて求めるようにすると、対象物像がカメラにより得られる画像の端部に接する場合には、以下のような問題が発生する。なお、面積重心とは、3次元空間において対象物像が均一な厚さを持つ薄板であると仮定した場合の重心を意味する。
【0005】
すなわち図23(a)に示すように、対象物101が静止しているか若しくは走行中の車両102に向かって移動している場合に、車両102に搭載されたカメラ103により得られる、時刻t=k−2,k−1,kにおける時系列の対象物像101a,101b,101cは、同図(b)にハッチングを付して示すように推移し、面積重心Gは、画像上を左方向へ移動する。この画像(右側のカメラ103により得られる画像)に含まれる対象物像の判定点、すなわち面積重心の位置と、左側のカメラ104により得られる画像に含まれる対象物像(図示せず)の判定点の位置とから視差を算出し、その視差から対象物101と車両102との距離を求め、対象物101の相対移動ベクトルを求めると、対象物101が実際は図24に実線で示すように静止または車両102の進行方向と平行に移動しているにもかかわらず、破線で示すような相対移動ベクトルが得られる。その結果、車両102と衝突する可能性がないのに、可能性ありと誤判定する可能性があった。
【0006】
本発明はこの点に着目してなされたものであり、カメラにより得られる対象物像が画像の端部に接しているような場合において、対象物の相対的な移動方向を誤って検出することを防止できる移動対象物検出装置を提供することを目的とする。
【課題を解決するための手段】
【0007】
上記目的を達成するため請求項1に記載の発明は、互いに離間して配置された2つのカメラにより得られる対象物の画像情報に基づいて、前記対象物の移動方向を検出する移動対象物検出装置において、前記2つのカメラのうち、少なくとも何れか一方のカメラにより得られる対象物像が、画像の端部に接することを判定する画像端部判定手段と、該画像端部判定手段により、画像の端部に接すると判定された対象物像については、該対象物像の位置を代表する判定点を、前記対象物像の面積重心から、前記画像の中心に近い所定点に移動させる判定点移動手段と、該移動後の判定点に基づいて前記対象物の移動方向を検出する移動方向検出手段とを備えることを特徴とする。
【0008】
「前記画像の中心に近い所定点」は、前記画像の中心に近い、前記対象物像及び対応対象物像の端部、または前記画像の中心に近い、前記対象物像及び対応対象物像の外接四角形の端部とする。
前記判定点移動手段は、前記2つのカメラにより得られる画像のうちの一方を基準画像とし、基準画像中の対象物像について前記判定点の移動を行う。また前記判定点移動手段は、前記判定点を移動させた対象物については、過去に取得し、記憶している位置データを、移動後の判定点を用いた位置データに変更することが望ましい。
【0009】
請求項2に記載の発明は、請求項1に記載の移動対象物検出装置において、前記2つのカメラにより得られる対象物の画像情報のうち、前記画像端部判定手段にて画像の端部に接すると判定された対象物の画像情報を基準画像とし、他方を探索画像として相関演算を行うことにより、該対象物の距離を算出する距離算出手段をさらに備え、前記移動方向検出手段は、前記判定点移動手段による移動後の判定点と、前記距離算出手段によって算出された距離とに基づいて、前記対象物の移動方向を検出することを特徴とする。
【0010】
請求項3に記載の発明は、請求項2に記載の移動対象物検出装置において、前記画像端部判定手段により、前記2つのカメラにより得られる対象物像がともに画像の端部に接する判定された場合は、前記距離算出手段は、前記対象物像の表示面積が小さい方の画像を基準画像として用いることを特徴とする。
【0011】
また、互いに離間して配置された2つのカメラにより得られる対象物の画像情報に基づいて、前記対象物までの距離を検出する距離検出装置を構成する場合には、前記2つのカメラのうち、何れか一方のカメラにより得られる画像に含まれる対象物像(OBJR2)に基づいて、他方のカメラにより得られる画像に対して相関演算を実行し、その結果得られた第1の対応対象物像(COBJL2)が、画像の端部に接するときは、その第1の対応対象物像(COBJL2)に基づいて前記一方のカメラにより得られる画像に対して相関演算を実行し、その結果得られた第2の対応対象物像(COBJR2)と、前記第1の対応対象物像(COBJL2)とに基づいて視差を算出し、該算出した視差からその対象物までの距離を算出することが望ましい。
【発明の効果】
【0012】
請求項1に記載の発明によれば、画像の端部に接すると判定された対象物像については、その対象物像の位置を代表する判定点が、対象物像の面積重心から、画像の中心に近い所定点に移動され、該移動後の判定点に基づいて対象物の移動方向が検出されるので、対象物像の面積重心の時系列データから移動方向を検出する場合のような不具合がなく、正確な移動方向を検出することができる。
【発明を実施するための最良の形態】
【0013】
以下本発明の実施の形態を図面を参照して説明する。
(第1の実施形態)
図1は本発明の第1の実施形態にかかる、車両に搭載された移動対象物検出装置の構成を示す図であり、この装置は、遠赤外線を検出可能な2つの赤外線カメラ1R,1Lと、当該車両のヨーレートを検出するヨーレートセンサ5と、当該車両の走行速度(車速)VCARを検出する車速センサ6と、ブレーキの操作量を検出するためのブレーキセンサ7と、これらのカメラ1R,1Lによって得られる画像データの基づいて車両前方の動物等の対象物を検出し、衝突の可能性が高い場合に警報を発する画像処理ユニット2と、音声で警報を発するためのスピーカ3と、カメラ1Rまたは1Lによって得られる画像を表示するとともに、衝突の可能性が高い対象物を運転者に認識させるためのヘッドアップディスプレイ(以下「HUD」という)4とを備えている。
【0014】
カメラ1R、1Lは、図2に示すように車両10の前部に、車両10の横方向の中心軸に対してほぼ対象な位置に配置されており、2つのカメラ1R、1Lの光軸が互いに平行となり、両者の路面からの高さが等しくなるように固定されている。赤外線カメラ1R、1Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
【0015】
画像処理ユニット2は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(Central Processing Unit)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ3の駆動信号、HUD4の表示信号などを出力する出力回路などを備えており、カメラ1R,1L及びセンサ5〜7の出力信号は、ディジタル信号に変換されて、CPUに入力されるように構成されている。
HUD4は、図2に示すように、車両10のフロントウインドウの、運転者の前方位置に画面4aが表示されるように設けられている。
【0016】
図3は画像処理ユニット2における処理の手順を示すフローチャートであり、先ずカメラ1R、1Lの出力信号をA/D変換して画像メモリに格納する(ステップS11,S12,S13)。画像メモリに格納される画像のデータは、輝度情報を含んだグレースケール画像のデータである。図5(a)(b)は、それぞれはカメラ1R,1Lによって得られるグレースケール画像(カメラ1Rにより右画像が得られ、カメラ1Lにより左画像が得られる)を説明するための図であり、ハッチングを付した領域は、中間階調(グレー)の領域であり、太い実線で囲んだ領域が、輝度レベルが高く(高温で)、画面上に白色として表示される対象物の領域(以下「高輝度領域」という)である。右画像と左画像では、同一の対象物の画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
【0017】
図3のステップS14では、右画像を基準画像とし、そのディジタル画像データの2値化、すなわち、実験的に決定される輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。図6に図5(a)の画像を2値化した画像を示す。この図は、ハッチングを付した領域が黒であり、太い実線で囲まれた高輝度領域が白であることを示している。なお、本明細書では、基準画像(右画像)と対をなす画像(左画像)を、「探索画像」という。
【0018】
続くステップS15では、2値化した画像データをランレングスデータに変換する処理を行う。図7(a)はこれを説明するための図であり、この図では2値化により白となった領域を画素レベルでラインL1〜L8として示している。ラインL1〜L8は、いずれもy方向には1画素の幅を有しており、実際にはy方向には隙間なく並んでいるが、説明のために離間して示している。またラインL1〜L8は、x方向にはそれぞれ2画素、2画素、3画素、8画素、7画素、8画素、8画素、8画素の長さを有している。ランレングスデータは、ラインL1〜L8を各ラインの開始点(各ラインの左端の点)の座標と、開始点から終了点(各ラインの右端の点)までの長さ(画素数)とで示したものである。例えばラインL3は、(x3,y5)、(x4,y5)及び(x5,y5)の3画素からなるので、ランレングスデータとしては、(x3,y5,3)となる。
【0019】
ステップS16、S17では、図7(b)に示すように対象物のラベリングをすることにより、対象物を抽出する処理を行う。すなわち、ランレングスデータ化したラインL1〜L8のうち、y方向に重なる部分のあるラインL1〜L3を1つの対象物1とみなし、ラインL4〜L8を1つの対象物2とみなし、ランレングスデータに対象物ラベル1,2を付加する。この処理により、例えば図6に示す高輝度領域が、それぞれ対象物1から4として把握されることになる。
【0020】
ステップS18では図7(c)に示すように、抽出した対象物像の面積重心G、面積S及び破線で示す外接四角形の縦横比ASPECTを算出する。面積Sは、ランレングスデータの長さを同一対象物について積算することにより算出し、縦横比APECTは、図7(c)に示すDyとDxとの比Dy/Dxとして算出し、面積重心Gの座標(xg,yg)は、下記式(1)により算出する。
【数1】
ここで、Sは面積、x(i),y(i)は、対象物像を構成する画素の座標である。なお、面積重心Gの位置は、外接四角形の重心位置で代用してもよい。
【0021】
ステップS19では、対象物の時刻間追跡、すなわちサンプリング周期毎に同一対象物の認識を行う。アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、図8(a)に示すように時刻kで対象物像1,2を抽出した場合において、時刻(k+1)で抽出した対象物像3,4と、対象物像1,2との同一性判定を行う。具体的には、以下の同一性判定条件1)〜3)を満たすときに、対象物像1、2と対象物像3、4とは同一であると判定し、対象物像3、4をそれぞれ1,2というラベルに変更することにより、時刻間追跡が行われる。
【0022】
1)時刻kにおける対象物像i(=1,2)の面積重心位置座標を、それぞれ(xi(k),yi(k))とし、時刻(k+1)における対象物像j(=3,4)の面積重心位置座標を、(xj(k+1),yj(k+1))としたとき、
|xj(k+1)−xi(k)|<Δx
|yj(k+1)−yi(k)|<Δy
であること。ただし、Δx、Δyは、それぞれx方向及びy方向の画像上の移動量の許容値である。
【0023】
2)時刻kにおける対象物像i(=1,2)の面積をSi(k)とし、時刻(k+1)における対象物像j(=3,4)の面積をSj(k+1)としたとき、
Sj(k+1)/Si(k)<1±ΔS
であること。ただし、ΔSは面積変化の許容値である。
【0024】
3)時刻kにおける対象物像i(=1,2)の外接四角形の縦横比をASPECTi(k)とし、時刻(k+1)における対象物像j(=3,4)の外接四角形の縦横比をASPECTj(k+1)としたとき、
ASPECTj(k+1)/ASPECTi(k)<1±ΔASPECT
であること。ただし、ΔASPECTは縦横比変化の許容値である。
【0025】
図8(a)と(b)とを対比すると、各対象物像はその大きさが大きくなっているが、対象物像1と3とが上記同一性判定条件を満たし、対象物像2と4とが上記同一性判定条件を満たすので、対象物像3、4はそれぞれ対象物像1、2に対応すると認識される。このようにして認識された各対象物像の面積重心の位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
なお以上説明したステップS14〜S19の処理は、2値化した基準画像(本実施形態では、右画像)ついて実行する。
【0026】
図3のステップS20では、車速センサ6により検出される車速VCAR及びヨーレートセンサ5より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することより、自車両10の回頭角θr(図18参照)を算出する。
【0027】
一方、ステップS31では、ステップS19,S20の処理と平行して、対象物と自車両10と距離zを算出する処理(図4)を実行する。この演算はステップS19,S20より長い時間を要するため、ステップS19,S20より長い周期(例えばステップS11〜S20の実行周期の3倍程度の周期)で実行される。
【0028】
図4のステップS41では、1)基準画像(右画像)の2値化画像によって追跡される対象物像の中の1つを選択することにより、図9(a)に示すように右画像から対象物像OBJR1(ここでは、外接四角形で囲まれる領域全体を対象物像とする)を抽出し、2)探索画像(左画像)中から対象物像OBJR1に対応する画像(以下「対応対象物像」という)を探索する探索領域を設定し、相関演算を実行する。
【0029】
具体的には、対象物像OBJR1の各頂点座標に応じて探索画像中に図9(b)に示すように、探索領域SL1を設定し、探索領域SL1内で対象物像OBJR1との相関度の高さを示す相関度パラメータC(a,b)を下記式(2)により算出する。相関度パラメータCはその値が小さくなるほど、相関が高いことを示す。なお、この相関演算は、2値画像ではなくグレースケール画像を用いて行う。また同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域SL1より狭い領域SL1a(図9(b)に破線で示す)を探索領域として設定する。
【数2】
ここで、IR(m,n)は、図10に示す対象物像OBJR1内の座標(m,n)の位置の輝度値であり、IL(a+m−M,b+n−N)は、探索領域内の座標(a,b)を基点とした、対象物像OBJR1と同一形状の局所領域LR内の座標(m,n)の位置の輝度値である。
基点の座標(a,b)を変化させて相関度パラメータC(a,b)が最小となる位置及びそのときの相関度パラメータの値(以下「最小値」という)CMINを求める。
【0030】
続くステップS42では、相関度が高いか否か、すなわちステップS41で算出した最小値CMINが、所定閾値CMINTH以下であるか否かをを判別する。CMIN>CMINTHであって、相関度が低いときは、探索画像中に対応対象物像が存在しないと判定する。この場合、視差は算出できないので、距離が定まらない(不定)として(ステップS49)、本処理を終了する。
【0031】
一方CMIN≦CMINTHであって、相関度が高いときは、ステップS43に進む。ステップS43〜S45では、基準画像中の対象物像及び/または探索画像中の対応対象物像が、それぞれの画像の端部に接している(かかっている)か否か応じてケースC0〜C4に場合分けし、距離の算出を行う。
【0032】
図11は、基準画像中の対象物像OBJ1〜OBJ3が、基準画像の端部(以下「画像端」という)WRに接しており、対象物像OBJ4が画像端WRに接していない状態を示している。各対象物像は、前述したようにランレングスデータで把握されているので、同図中に黒丸で示す始点の座標が画像端WRに存在する対象物像は、画像端WRに接していると判定される。同様に、始点座標に長さ(ランレングス)を加算して得られる終点座標が画像端WRに存在する対象物像は、画像端WRに接していると判定される。
【0033】
図12には、基準画像中の対象物像及び探索画像中の対応対象物像がいずれも画像端に接してない場合(ケースC0)と、基準画像中の対象物像が画像端に接していないが、探索画像中の対応対象物像が画像端に接している場合(ケースC2)とが示されている。同図に示すケースC0では、基準画像中の対象物像OBJR1と、相関演算により抽出される対応対象物像COBJL1は、いずれも画像端に接していないので、両者の面積重心Gを用いて視差を算出し、その対象物までの距離zを算出することができる。なお、相関演算は、実際には背景部分を少し含むように対象物像OBJR1より若干広い領域ついて行われるので、対応対象物像COBJL1は、対象物像OBJR1と同一形状の真の対応対象物像OBJL1より少し広い領域として抽出される。
【0034】
一方ケースC2では、対象物像OBJR2は、画像端に接していないが、対象物像OBJR2と同一形状の真の対応対象物像が、実線及び破線によりOBJL2として示すように位置している場合(破線部は、実際には画像として得られない部分を示している)には、相関演算により抽出される対応対象物像COBJL2は、探索画像の画像端に接した状態で抽出される。
なお、図12に示す領域SL1,SL2は、探索領域である。
【0035】
図13(a)は、基準画像中の対象物像OBJR1が画像端に接しており、かつ探索画像中の真の対応対象物像OBJL1が画像端に接していない場合(ケースC1)を示し、同図(b)は、前述したケースC2、すなわち基準画像中の対象物像OBJR2が画像端に接していないが、探索画像中の真の対応対象物像OBJL2が画像端に接している場合を示し、同図(c)は、基準画像中の対象物像OBJR3が画像端に接しており、かつ探索画像中の真の対応対象物像OBJL3も画像端に接しており、かつ基準画像中の対象物像OBJR3の方が真の対応対象物像OBJL3より小さい場合(ケースC3)を示し、同図(d)は、基準画像中の対象物像OBJR4が画像端に接しており、かつ探索画像中の対応対象物像COBJL4も画像端に接しており、かつ基準画像中の対象物像OBJR4の方が真の対応対象物像OBJL4より大きい場合(ケースC4)を示す。図13において、領域SL1〜SL4及びSR1,SR2は、探索領域である。
【0036】
ケースC1では、探索画像に含まれる真の対応対象物像OBJL1が、画像端に接していないため、正しいマッチングが行われて、対応対象物像COBJL1が抽出される。したがって、対象物像OBJR1及び対応対象物像COBJL1の面積重心を用いて視差を算出し、この対象物までの距離する。
【0037】
ケースC2では、基準画像から探索画像への相関演算により抽出される対応対象物像COBJL2と、対象物像OBJR2とは、正しいマッチング関係にない。そこでこの場合には、探索画像から基準画像への相関演算、すなわち対応対象物像COBJL2に対応する対象物像を基準画像中から探索する相関演算を実行する。その結果得られた基準画像中の対応対象物像COBJR2と、探索画像中の対応対象物像COBJL2とは、正しいマッチング関係にあるので、これらの像の面積重心を用いて視差を算出し、この対象物までの距離を算出する。
【0038】
ケースC3では、ケースC1と同様に正しいマッチングが行われるので、対象物像OBJR3及び対応対象物像COBJL3の面積重心を用いて視差を算出し、この対象物までの距離を算出する。
ケースC4では、ケースC2と同様に、基準画像から探索画像への相関演算により抽出される対応対象物像COBJL4と、対象物像OBJR4とは、正しいマッチング関係にない。そこでこの場合も、探索画像から基準画像への相関演算、すなわち対応対象物像COBJL4に対応する対象物像を基準画像中から探索する相関演算を実行する。その結果得られた基準画像中の対応対象物像COBJR4と、探索画像中の対応対象物像COBJL4とは、正しいマッチング関係にあるので、これらの像の面積重心を用いて視差を算出し、この対象物までの距離を算出する。
【0039】
図4に戻り、ステップS43では、基準画像中の対象物像が画像端に接しておらずかつ探索画像中の対応対象物像が画像端に接していないか否か、すなわちケースC0に該当するか否かを判別し、相関演算の結果がケースC0に該当するときは、直ちにステップS48に進んで、視差から距離を算出し、本処理を終了する。
【0040】
相関演算の結果がケースC0に該当しないときは、基準画像中の対象物像が画像端に接しておりかつ探索画像中の対応対象物像が画像端に接しているか否か、すなわちケースC4に該当するか否かを判別し、相関演算の結果がケースC4に該当するときは、上述したように探索画像から基準画像への相関演算を実行する(ステップS46)。次いで相関度が高いか否か、すなわち相関度パラメータの最小値CMINが所定閾値CMINTH以下か否かを判別し(ステップS47)、CMIN>CMINTHであるときは、前記ステップS49に進む。またCMIN≦CMINTHであって相関度が高いときは、前記ステップS48に進んで距離の算出を行う。
【0041】
ステップS44で相関演算の結果がケースC4に該当しないとき、すなわちケースC1〜C3に該当するときは、対応対象物像が画像端に接しているか、すなわちケースC2に該当するか否かを判別し(ステップS45)、ケースC2に該当するときは、前記ステップS46に進む。また、ケースC1またはC3に該当するときは、ステップS45から直ちにステップS48に進む。
【0042】
ステップS48における視差から距離を算出する処理は、以下のように行う。
図14に示すように対象物像OJBR1の面積重心位置と、画像左端との距離dR(画素数)及び対応対象物像COBJL1の面積重心位置と画像左端との距離dL(画素数)を求め、下記式(3)に適用して、自車両10と、対象物との距離zを算出する。
【数3】
ここで、Bは基線長、すなわち図15に示すようにカメラ1Rの撮像素子11Rの中心位置と、カメラ1Lの撮像素子11Lの中心位置との水平方向(x方向)の距離(両カメラの光軸の間隔)、Fはレンズ12R、12Lの焦点距離、pは、撮像素子11R、11L内の画素間隔であり、Δd(=dL−dR)が視差である。
以上のようにして距離zの算出が行われる。
【0043】
図3に戻り、ステップS21では、画像内の座標(x,y)及び式(3)により算出した距離zを下記式(4)に適用し、実空間座標(X,Y,Z)に変換する。ここで、実空間座標(X,Y,Z)は、図16(a)に示すように、カメラ1R、1Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして、図示のように定め、画像内の座標は同図(b)に示すように、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
【数4】
【0044】
ここで、(xc,yc)は、右画像上の座標(x,y)を、カメラ1Rの取り付け位置と、実空間原点Oとの相対位置関係に基づいて、実空間原点Oと画像の中心とを一致させた仮想的な画像内の座標に変換したものである。またfは、焦点距離Fと画素間隔pとの比である。
【0045】
なお、この実空間座標の変換をする際には、前述したステップS31の処理により、基準画像中の対象物像のうち画像端に接していると判定された対象物像(図11に示す例では、対象物像OBJ1〜3)について、図17(a)に示すように、対象物像の位置を代表する判定点を、面積重心Gからより基準画像の中心に近い、外接四角形の端部の点GEに移動させ、該移動後の座標を実空間座標に変換する。すなわち、基準画像の左端に接している対象物像OBJ1については、面積重心G1のy座標と同一のy座標を有し、外接四角形の右端に位置する点GE1に判定点を移動し、基準画像の上端に接している対象物像OBJ2については、面積重心G2のx座標と同一のx座標を有し、外接四角形の下端に位置する点GE2に判定点を移動し、基準画像の右端に接している対象物像OBJ3については、面積重心G3のy座標と同一のy座標を有し、外接四角形の左端に位置する点GE3に判定点を移動する。
【0046】
そしてこのように判定点を移動させた対象物については、過去の位置データも、同様に面積重心Gに対応するデータからより基準画像の中心に近い、外接四角形の端部の点GEに対応するデータに変更する処理を行う。このようにすることにより、後述する相対移動ベクトルの算出に用いる時系列データが、移動後の判定点で統一された時系列データとなり、正確な相対移動ベクトルを求めることができる。
なお、判定点は図17(b)に示すように、外接四角形の端部ではなく、対象物像の端部に位置する点GE1a,GE2a,GE3aに移動させるようにしてもよい。
【0047】
ステップS22では、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う。図18に示すように、時刻kから(k+1)までの期間中に自車両が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、図19に示すようにΔxだけx方向にずれるので、これを補正する処理である。具体的には、下記式(5)に実空間座標(X,Y,Z)を適用して、補正座標(Xr,Yr,Zr)を算出する。算出した実空間位置データ(Xr,Yr,Zr)は、対象物毎に対応づけてメモリに格納する。なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
【数5】
【0048】
ステップS23では、図20に示すように同一対象物について、ΔTの期間内に得られた、回頭角補正後のN個の実空間位置データ(例えばN=10程度)、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める。具体的には、近似直線LMVの方向を示す方向ベクトルL=(lx,ly,lz)(|L|=1)とすると、下記式(6)で表される直線を求める。
【数6】
【0049】
ここでuは、任意の値をとる媒介変数であり、Xav,Yav及びZavは、それぞれ実空間位置データ列のX座標の平均値、Y座標の平均値及びZ座標の平均値である。なお、式(6)は媒介変数uを消去すれば下記式(6a)のようになる。
(X−Xav)/lx=(Y−Yav)/ly=(Z−Zav)/lz
…(6a)
【0050】
図20は、近似直線LMVを説明するための図であり、同図のP(0),P(1),P(2),…,P(N−2),P(N−1)が回頭角補正後の時系列データを示し、近似直線LMVは、この時系列データの平均位置座標Pav(=(Xav,Yav,Zav))を通り、各データ点からの距離の2乗の平均値が最小となるような直線として求められる。ここで各データ点の座標を示すPに付した()内の数値はその値が増加するほど過去のデータであることを示す。例えば、P(0)は最新の位置座標、P(1)は1サンプル周期前の位置座標、P(2)は2サンプル周期前の位置座標を示す。以下の説明におけるD(j)、X(j)、Y(j)、Z(j)等も同様である。
【0051】
より具体的には、平均位置座標Pavから各データ点の座標P(0)〜P(N−1)に向かうベクトルD(j)=(DX(j),DY(j),DZ(j))=(X(j)−Xav,Y(j)−Yav,Z(j)−Zav)と、方向ベクトルLとの内積sを下記式(7)により算出し、この内積sの分散が最大となる方向ベクトルL=(lx,ly,lz)を求める。
s=lx・DX(j)+ly・DY(j)+lz・DZ(j) (7)
【0052】
各データ点の座標の分散共分散行列Vは、下記式(8)で表され、この行列の固有値σが内積sの分散に相当するので、この行列から算出される3つの固有値のうち最大の固有値に対応する固有ベクトルが求める方向ベクトルLとなる。なお、式(8)の行列から固有値と固有ベクトルを算出するには、ヤコビ法(例えば「数値計算ハンドブック」(オーム社)に示されている)として知られている手法を用いる。
【数7】
【0053】
次いで最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正する。具体的には、前記式(6a)にZ座標Z(0)、Z(N−1)を適用することにより、すなわち下記式(9)により、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
【数8】
【0054】
式(9)で算出された位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる。このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
【0055】
図3に戻り、ステップS24では、ステップS23で算出した相対移動ベクトルに基づいて、対象物が自車両10に衝突する可能性が高いか否かを判定し、高い場合には、スピーカ3やHUD4を用いた音声や表示により、運転者への警報を発する処理を実行する。ステップS24実行後は、ステップS11に戻る。
【0056】
以上のように本実施形態では、基準画像中の対象物像が画像端に接しているときは、その対象物像の位置を代表する判定点を、その対象物像の面積重心から寄り基準画像の画像端に近い、その対象物像の外接四角形の端部に位置する点(またはその対象物像の端部に位置する点)に移動させ、移動後の判定点を用いて相対移動ベクトルを算出するようにしたので、対象物の相対移動方向を正確に検出することができる。
【0057】
また例えば図13(b)に示すように、基準画像に含まれる対象物像OBJR2に基づいて、探索画像に対して相関演算を実行し、その結果得られた対応対象物像COBJL2が、画像の端部に接するときは、その対応対象物像COBJL2に基づいて、基準画像に対して相関演算を実行し、その結果得られた対応対象物像COBJR2と、対応対象物像COBJL2とに基づいて視差を算出し、該算出した視差からその対象物までの距離を算出するようにしたので、相関演算により抽出された探索画像中の対応対象物像が画像端に接する場合でも、正確な距離を算出することができる。
【0058】
本実施形態では、画像処理ユニット2が、画像端部判定手段、判定点移動手段、及び移動方向検出手段を構成する。より具体的には、図4のステップS43〜S45が画像端部判定手段に相当し、図4のステップS41,S42,S46,S47及び図3のステップS21が判定点移動手段に相当し、図3のステップS23が移動方向検出手段に相当する。
【0059】
(第2の実施形態)
図21は本発明の第2の実施形態にかかる障害物検出・警報処理のフローチャートである。この処理は、図3に示す処理に、ステップS17aを追加するとともに、図3のステップS31をステップS31aに変更したものである。また図22は、ステップS31aにおける距離算出処理を示すフローチャートであり、この処理は図4に示す処理から、ステップS43,S44及びS47を削除するとともに、ステップS46をステップS46aに変更したものである。以上の点以外は、第1の実施形態と同一である。
【0060】
ステップS17aでは、ステップS17で抽出された対象物のうち、その基準画像中の対象物像が画像端に接するものは、監視対象から除く処理を行う。
ステップS31aでは、図22に示す距離算出処理を実行する。ステップS42で相関度が高いと判別されたときは、相関演算により得られた対応対象物像が探索画像の画像端に接しているか否かを判別し(ステップS45)、接していなければ、視差から距離を算出する(ステップS48)。一方対応対象物像が画像端に接しているときは、この対象物を監視対象から除く処理を行い(ステップS46a)、直ちに本処理を終了する。
【0061】
以上のように本実施形態では、対象物像が基準画像の画像端に接する対象物、及び相関演算により抽出された対応対象物像が探索画像の画像端に接する対象物を監視対象から除くようにしたので、そのような対象物の移動方向及びその対象物までの距離を誤って認識することを防止することができる。
【0062】
本実施形態では、画像処理ユニット2が、画像端部判定手段を構成し、より具体的には、図22のステップS45が画像端部判定手段に相当する。
なお本発明は上述した実施形態に限るものではなく、種々の変形が可能である。例えば、本実施形態では、対象物像を得るためのカメラとして赤外線カメラを使用したが、例えば特開平9−226490号公報に示されるように通常の可視光線のみ検出可能なテレビカメラを使用してもよい。ただし、赤外線カメラを用いることにより、動物あるいは走行中の車両などの抽出処理を簡略化することができ、演算装置の演算能力が比較的低いものでも実現できる。
【図面の簡単な説明】
【0063】
【図1】本発明の一実施形態にかかる移動対象物検出装置の構成を示すブロック図である。
【図2】図1に示すカメラの取り付け位置を説明するための図である。
【図3】図1の画像処理ユニットによる処理の手順を示すフローチャートである。
【図4】図3の距離算出処理を詳細に示すフローチャートである。
【図5】赤外線カメラにより得られるグレースケール画像を説明するために、中間階調部にハッチングを付して示す図である。
【図6】グレースケール画像を2値化した画像を説明するために、黒の領域をハッチングを付して示す図である。
【図7】ランレングスデータへの変換処理及びラベリングを説明するための図である。
【図8】対象物の時刻間追跡を説明するための図である。
【図9】右画像中の探索対象物像と、左画像に設定する探索領域を説明するための図である。
【図10】探索領域を対象とした相関演算処理を説明するための図である。
【図11】対象物像が画像の端部に接する場合を説明するための図である。
【図12】探索画像中の対象物像が画像の端部に接している場合を説明するための図である。
【図13】対象物像が画像の端部に接する4つの場合を説明するための図である。
【図14】視差の算出方法を説明するための図である。
【図15】視差から距離を算出する手法を説明するための図である。
【図16】本実施形態における座標系を示す図である。
【図17】判定点の移動を説明するための図である。
【図18】回頭角補正を説明するための図である。
【図19】車両の回頭により発生する画像上の対象物位置のずれを示す図である。
【図20】相対移動ベクトルの算出手法を説明するための図である。
【図21】本発明の第2の実施形態における、画像処理ユニットによる処理の手順を示すフローチャートである。
【図22】図21の距離算出処理を詳細に示すフローチャートである。
【図23】従来の手法の問題点を説明するための図である。
【図24】従来の手法の問題点を説明するための図である。
【符号の説明】
【0064】
1R、1L 赤外線カメラ(カメラ)
2 画像処理ユニット(画像端部判定手段、判定点移動手段、移動方向検出手段)
5 ヨーレートセンサ
6 車速センサ
【技術分野】
【0001】
本発明は、互いに離間して配置された2つカメラにより得られる対象物の画像情報に基づいて、対象物の移動方向を検出する移動対象物検出装置に関する。
【背景技術】
【0002】
車両に2つのCCDカメラを搭載し、2つのカメラから得られる画像のずれ、すなわち視差に基づいて、対象物と当該車両との距離を検出し、車両の30〜60m前方の歩行者を検出するようにした横断物の検出装置が従来より知られている(特許文献1)。
【特許文献1】特開平9−226490号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
しかしながら上記従来の装置は、カメラにより得られる画像に基づいて検出した対象物のオプティカルフローの方向をそのまま使用して、衝突の可能性を判定しているため、自車両と対象物との相対距離や車速によっては判定精度が低下するという問題があった。すなわち、例えば対象物の移動速度に比べて車速が大きい場合には、実際には道路の中心に向かって移動している対象物に対応する画像上のオプティカルフローが道路の外側に向かうベクトルとなってとらえられることがあり、誤判定が発生する。
【0004】
そこで、対象物の移動ベクトルを正確に検出するために、カメラにより得られる画像に含まれる対象物像の面積重心を、対象物像の位置を代表する判定点として使用し、判定点の実空間上の位置を示す時系列データを、2つのカメラにより得られる画像に基づいて求めるようにすると、対象物像がカメラにより得られる画像の端部に接する場合には、以下のような問題が発生する。なお、面積重心とは、3次元空間において対象物像が均一な厚さを持つ薄板であると仮定した場合の重心を意味する。
【0005】
すなわち図23(a)に示すように、対象物101が静止しているか若しくは走行中の車両102に向かって移動している場合に、車両102に搭載されたカメラ103により得られる、時刻t=k−2,k−1,kにおける時系列の対象物像101a,101b,101cは、同図(b)にハッチングを付して示すように推移し、面積重心Gは、画像上を左方向へ移動する。この画像(右側のカメラ103により得られる画像)に含まれる対象物像の判定点、すなわち面積重心の位置と、左側のカメラ104により得られる画像に含まれる対象物像(図示せず)の判定点の位置とから視差を算出し、その視差から対象物101と車両102との距離を求め、対象物101の相対移動ベクトルを求めると、対象物101が実際は図24に実線で示すように静止または車両102の進行方向と平行に移動しているにもかかわらず、破線で示すような相対移動ベクトルが得られる。その結果、車両102と衝突する可能性がないのに、可能性ありと誤判定する可能性があった。
【0006】
本発明はこの点に着目してなされたものであり、カメラにより得られる対象物像が画像の端部に接しているような場合において、対象物の相対的な移動方向を誤って検出することを防止できる移動対象物検出装置を提供することを目的とする。
【課題を解決するための手段】
【0007】
上記目的を達成するため請求項1に記載の発明は、互いに離間して配置された2つのカメラにより得られる対象物の画像情報に基づいて、前記対象物の移動方向を検出する移動対象物検出装置において、前記2つのカメラのうち、少なくとも何れか一方のカメラにより得られる対象物像が、画像の端部に接することを判定する画像端部判定手段と、該画像端部判定手段により、画像の端部に接すると判定された対象物像については、該対象物像の位置を代表する判定点を、前記対象物像の面積重心から、前記画像の中心に近い所定点に移動させる判定点移動手段と、該移動後の判定点に基づいて前記対象物の移動方向を検出する移動方向検出手段とを備えることを特徴とする。
【0008】
「前記画像の中心に近い所定点」は、前記画像の中心に近い、前記対象物像及び対応対象物像の端部、または前記画像の中心に近い、前記対象物像及び対応対象物像の外接四角形の端部とする。
前記判定点移動手段は、前記2つのカメラにより得られる画像のうちの一方を基準画像とし、基準画像中の対象物像について前記判定点の移動を行う。また前記判定点移動手段は、前記判定点を移動させた対象物については、過去に取得し、記憶している位置データを、移動後の判定点を用いた位置データに変更することが望ましい。
【0009】
請求項2に記載の発明は、請求項1に記載の移動対象物検出装置において、前記2つのカメラにより得られる対象物の画像情報のうち、前記画像端部判定手段にて画像の端部に接すると判定された対象物の画像情報を基準画像とし、他方を探索画像として相関演算を行うことにより、該対象物の距離を算出する距離算出手段をさらに備え、前記移動方向検出手段は、前記判定点移動手段による移動後の判定点と、前記距離算出手段によって算出された距離とに基づいて、前記対象物の移動方向を検出することを特徴とする。
【0010】
請求項3に記載の発明は、請求項2に記載の移動対象物検出装置において、前記画像端部判定手段により、前記2つのカメラにより得られる対象物像がともに画像の端部に接する判定された場合は、前記距離算出手段は、前記対象物像の表示面積が小さい方の画像を基準画像として用いることを特徴とする。
【0011】
また、互いに離間して配置された2つのカメラにより得られる対象物の画像情報に基づいて、前記対象物までの距離を検出する距離検出装置を構成する場合には、前記2つのカメラのうち、何れか一方のカメラにより得られる画像に含まれる対象物像(OBJR2)に基づいて、他方のカメラにより得られる画像に対して相関演算を実行し、その結果得られた第1の対応対象物像(COBJL2)が、画像の端部に接するときは、その第1の対応対象物像(COBJL2)に基づいて前記一方のカメラにより得られる画像に対して相関演算を実行し、その結果得られた第2の対応対象物像(COBJR2)と、前記第1の対応対象物像(COBJL2)とに基づいて視差を算出し、該算出した視差からその対象物までの距離を算出することが望ましい。
【発明の効果】
【0012】
請求項1に記載の発明によれば、画像の端部に接すると判定された対象物像については、その対象物像の位置を代表する判定点が、対象物像の面積重心から、画像の中心に近い所定点に移動され、該移動後の判定点に基づいて対象物の移動方向が検出されるので、対象物像の面積重心の時系列データから移動方向を検出する場合のような不具合がなく、正確な移動方向を検出することができる。
【発明を実施するための最良の形態】
【0013】
以下本発明の実施の形態を図面を参照して説明する。
(第1の実施形態)
図1は本発明の第1の実施形態にかかる、車両に搭載された移動対象物検出装置の構成を示す図であり、この装置は、遠赤外線を検出可能な2つの赤外線カメラ1R,1Lと、当該車両のヨーレートを検出するヨーレートセンサ5と、当該車両の走行速度(車速)VCARを検出する車速センサ6と、ブレーキの操作量を検出するためのブレーキセンサ7と、これらのカメラ1R,1Lによって得られる画像データの基づいて車両前方の動物等の対象物を検出し、衝突の可能性が高い場合に警報を発する画像処理ユニット2と、音声で警報を発するためのスピーカ3と、カメラ1Rまたは1Lによって得られる画像を表示するとともに、衝突の可能性が高い対象物を運転者に認識させるためのヘッドアップディスプレイ(以下「HUD」という)4とを備えている。
【0014】
カメラ1R、1Lは、図2に示すように車両10の前部に、車両10の横方向の中心軸に対してほぼ対象な位置に配置されており、2つのカメラ1R、1Lの光軸が互いに平行となり、両者の路面からの高さが等しくなるように固定されている。赤外線カメラ1R、1Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
【0015】
画像処理ユニット2は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(Central Processing Unit)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ3の駆動信号、HUD4の表示信号などを出力する出力回路などを備えており、カメラ1R,1L及びセンサ5〜7の出力信号は、ディジタル信号に変換されて、CPUに入力されるように構成されている。
HUD4は、図2に示すように、車両10のフロントウインドウの、運転者の前方位置に画面4aが表示されるように設けられている。
【0016】
図3は画像処理ユニット2における処理の手順を示すフローチャートであり、先ずカメラ1R、1Lの出力信号をA/D変換して画像メモリに格納する(ステップS11,S12,S13)。画像メモリに格納される画像のデータは、輝度情報を含んだグレースケール画像のデータである。図5(a)(b)は、それぞれはカメラ1R,1Lによって得られるグレースケール画像(カメラ1Rにより右画像が得られ、カメラ1Lにより左画像が得られる)を説明するための図であり、ハッチングを付した領域は、中間階調(グレー)の領域であり、太い実線で囲んだ領域が、輝度レベルが高く(高温で)、画面上に白色として表示される対象物の領域(以下「高輝度領域」という)である。右画像と左画像では、同一の対象物の画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
【0017】
図3のステップS14では、右画像を基準画像とし、そのディジタル画像データの2値化、すなわち、実験的に決定される輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。図6に図5(a)の画像を2値化した画像を示す。この図は、ハッチングを付した領域が黒であり、太い実線で囲まれた高輝度領域が白であることを示している。なお、本明細書では、基準画像(右画像)と対をなす画像(左画像)を、「探索画像」という。
【0018】
続くステップS15では、2値化した画像データをランレングスデータに変換する処理を行う。図7(a)はこれを説明するための図であり、この図では2値化により白となった領域を画素レベルでラインL1〜L8として示している。ラインL1〜L8は、いずれもy方向には1画素の幅を有しており、実際にはy方向には隙間なく並んでいるが、説明のために離間して示している。またラインL1〜L8は、x方向にはそれぞれ2画素、2画素、3画素、8画素、7画素、8画素、8画素、8画素の長さを有している。ランレングスデータは、ラインL1〜L8を各ラインの開始点(各ラインの左端の点)の座標と、開始点から終了点(各ラインの右端の点)までの長さ(画素数)とで示したものである。例えばラインL3は、(x3,y5)、(x4,y5)及び(x5,y5)の3画素からなるので、ランレングスデータとしては、(x3,y5,3)となる。
【0019】
ステップS16、S17では、図7(b)に示すように対象物のラベリングをすることにより、対象物を抽出する処理を行う。すなわち、ランレングスデータ化したラインL1〜L8のうち、y方向に重なる部分のあるラインL1〜L3を1つの対象物1とみなし、ラインL4〜L8を1つの対象物2とみなし、ランレングスデータに対象物ラベル1,2を付加する。この処理により、例えば図6に示す高輝度領域が、それぞれ対象物1から4として把握されることになる。
【0020】
ステップS18では図7(c)に示すように、抽出した対象物像の面積重心G、面積S及び破線で示す外接四角形の縦横比ASPECTを算出する。面積Sは、ランレングスデータの長さを同一対象物について積算することにより算出し、縦横比APECTは、図7(c)に示すDyとDxとの比Dy/Dxとして算出し、面積重心Gの座標(xg,yg)は、下記式(1)により算出する。
【数1】
ここで、Sは面積、x(i),y(i)は、対象物像を構成する画素の座標である。なお、面積重心Gの位置は、外接四角形の重心位置で代用してもよい。
【0021】
ステップS19では、対象物の時刻間追跡、すなわちサンプリング周期毎に同一対象物の認識を行う。アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、図8(a)に示すように時刻kで対象物像1,2を抽出した場合において、時刻(k+1)で抽出した対象物像3,4と、対象物像1,2との同一性判定を行う。具体的には、以下の同一性判定条件1)〜3)を満たすときに、対象物像1、2と対象物像3、4とは同一であると判定し、対象物像3、4をそれぞれ1,2というラベルに変更することにより、時刻間追跡が行われる。
【0022】
1)時刻kにおける対象物像i(=1,2)の面積重心位置座標を、それぞれ(xi(k),yi(k))とし、時刻(k+1)における対象物像j(=3,4)の面積重心位置座標を、(xj(k+1),yj(k+1))としたとき、
|xj(k+1)−xi(k)|<Δx
|yj(k+1)−yi(k)|<Δy
であること。ただし、Δx、Δyは、それぞれx方向及びy方向の画像上の移動量の許容値である。
【0023】
2)時刻kにおける対象物像i(=1,2)の面積をSi(k)とし、時刻(k+1)における対象物像j(=3,4)の面積をSj(k+1)としたとき、
Sj(k+1)/Si(k)<1±ΔS
であること。ただし、ΔSは面積変化の許容値である。
【0024】
3)時刻kにおける対象物像i(=1,2)の外接四角形の縦横比をASPECTi(k)とし、時刻(k+1)における対象物像j(=3,4)の外接四角形の縦横比をASPECTj(k+1)としたとき、
ASPECTj(k+1)/ASPECTi(k)<1±ΔASPECT
であること。ただし、ΔASPECTは縦横比変化の許容値である。
【0025】
図8(a)と(b)とを対比すると、各対象物像はその大きさが大きくなっているが、対象物像1と3とが上記同一性判定条件を満たし、対象物像2と4とが上記同一性判定条件を満たすので、対象物像3、4はそれぞれ対象物像1、2に対応すると認識される。このようにして認識された各対象物像の面積重心の位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
なお以上説明したステップS14〜S19の処理は、2値化した基準画像(本実施形態では、右画像)ついて実行する。
【0026】
図3のステップS20では、車速センサ6により検出される車速VCAR及びヨーレートセンサ5より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することより、自車両10の回頭角θr(図18参照)を算出する。
【0027】
一方、ステップS31では、ステップS19,S20の処理と平行して、対象物と自車両10と距離zを算出する処理(図4)を実行する。この演算はステップS19,S20より長い時間を要するため、ステップS19,S20より長い周期(例えばステップS11〜S20の実行周期の3倍程度の周期)で実行される。
【0028】
図4のステップS41では、1)基準画像(右画像)の2値化画像によって追跡される対象物像の中の1つを選択することにより、図9(a)に示すように右画像から対象物像OBJR1(ここでは、外接四角形で囲まれる領域全体を対象物像とする)を抽出し、2)探索画像(左画像)中から対象物像OBJR1に対応する画像(以下「対応対象物像」という)を探索する探索領域を設定し、相関演算を実行する。
【0029】
具体的には、対象物像OBJR1の各頂点座標に応じて探索画像中に図9(b)に示すように、探索領域SL1を設定し、探索領域SL1内で対象物像OBJR1との相関度の高さを示す相関度パラメータC(a,b)を下記式(2)により算出する。相関度パラメータCはその値が小さくなるほど、相関が高いことを示す。なお、この相関演算は、2値画像ではなくグレースケール画像を用いて行う。また同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域SL1より狭い領域SL1a(図9(b)に破線で示す)を探索領域として設定する。
【数2】
ここで、IR(m,n)は、図10に示す対象物像OBJR1内の座標(m,n)の位置の輝度値であり、IL(a+m−M,b+n−N)は、探索領域内の座標(a,b)を基点とした、対象物像OBJR1と同一形状の局所領域LR内の座標(m,n)の位置の輝度値である。
基点の座標(a,b)を変化させて相関度パラメータC(a,b)が最小となる位置及びそのときの相関度パラメータの値(以下「最小値」という)CMINを求める。
【0030】
続くステップS42では、相関度が高いか否か、すなわちステップS41で算出した最小値CMINが、所定閾値CMINTH以下であるか否かをを判別する。CMIN>CMINTHであって、相関度が低いときは、探索画像中に対応対象物像が存在しないと判定する。この場合、視差は算出できないので、距離が定まらない(不定)として(ステップS49)、本処理を終了する。
【0031】
一方CMIN≦CMINTHであって、相関度が高いときは、ステップS43に進む。ステップS43〜S45では、基準画像中の対象物像及び/または探索画像中の対応対象物像が、それぞれの画像の端部に接している(かかっている)か否か応じてケースC0〜C4に場合分けし、距離の算出を行う。
【0032】
図11は、基準画像中の対象物像OBJ1〜OBJ3が、基準画像の端部(以下「画像端」という)WRに接しており、対象物像OBJ4が画像端WRに接していない状態を示している。各対象物像は、前述したようにランレングスデータで把握されているので、同図中に黒丸で示す始点の座標が画像端WRに存在する対象物像は、画像端WRに接していると判定される。同様に、始点座標に長さ(ランレングス)を加算して得られる終点座標が画像端WRに存在する対象物像は、画像端WRに接していると判定される。
【0033】
図12には、基準画像中の対象物像及び探索画像中の対応対象物像がいずれも画像端に接してない場合(ケースC0)と、基準画像中の対象物像が画像端に接していないが、探索画像中の対応対象物像が画像端に接している場合(ケースC2)とが示されている。同図に示すケースC0では、基準画像中の対象物像OBJR1と、相関演算により抽出される対応対象物像COBJL1は、いずれも画像端に接していないので、両者の面積重心Gを用いて視差を算出し、その対象物までの距離zを算出することができる。なお、相関演算は、実際には背景部分を少し含むように対象物像OBJR1より若干広い領域ついて行われるので、対応対象物像COBJL1は、対象物像OBJR1と同一形状の真の対応対象物像OBJL1より少し広い領域として抽出される。
【0034】
一方ケースC2では、対象物像OBJR2は、画像端に接していないが、対象物像OBJR2と同一形状の真の対応対象物像が、実線及び破線によりOBJL2として示すように位置している場合(破線部は、実際には画像として得られない部分を示している)には、相関演算により抽出される対応対象物像COBJL2は、探索画像の画像端に接した状態で抽出される。
なお、図12に示す領域SL1,SL2は、探索領域である。
【0035】
図13(a)は、基準画像中の対象物像OBJR1が画像端に接しており、かつ探索画像中の真の対応対象物像OBJL1が画像端に接していない場合(ケースC1)を示し、同図(b)は、前述したケースC2、すなわち基準画像中の対象物像OBJR2が画像端に接していないが、探索画像中の真の対応対象物像OBJL2が画像端に接している場合を示し、同図(c)は、基準画像中の対象物像OBJR3が画像端に接しており、かつ探索画像中の真の対応対象物像OBJL3も画像端に接しており、かつ基準画像中の対象物像OBJR3の方が真の対応対象物像OBJL3より小さい場合(ケースC3)を示し、同図(d)は、基準画像中の対象物像OBJR4が画像端に接しており、かつ探索画像中の対応対象物像COBJL4も画像端に接しており、かつ基準画像中の対象物像OBJR4の方が真の対応対象物像OBJL4より大きい場合(ケースC4)を示す。図13において、領域SL1〜SL4及びSR1,SR2は、探索領域である。
【0036】
ケースC1では、探索画像に含まれる真の対応対象物像OBJL1が、画像端に接していないため、正しいマッチングが行われて、対応対象物像COBJL1が抽出される。したがって、対象物像OBJR1及び対応対象物像COBJL1の面積重心を用いて視差を算出し、この対象物までの距離する。
【0037】
ケースC2では、基準画像から探索画像への相関演算により抽出される対応対象物像COBJL2と、対象物像OBJR2とは、正しいマッチング関係にない。そこでこの場合には、探索画像から基準画像への相関演算、すなわち対応対象物像COBJL2に対応する対象物像を基準画像中から探索する相関演算を実行する。その結果得られた基準画像中の対応対象物像COBJR2と、探索画像中の対応対象物像COBJL2とは、正しいマッチング関係にあるので、これらの像の面積重心を用いて視差を算出し、この対象物までの距離を算出する。
【0038】
ケースC3では、ケースC1と同様に正しいマッチングが行われるので、対象物像OBJR3及び対応対象物像COBJL3の面積重心を用いて視差を算出し、この対象物までの距離を算出する。
ケースC4では、ケースC2と同様に、基準画像から探索画像への相関演算により抽出される対応対象物像COBJL4と、対象物像OBJR4とは、正しいマッチング関係にない。そこでこの場合も、探索画像から基準画像への相関演算、すなわち対応対象物像COBJL4に対応する対象物像を基準画像中から探索する相関演算を実行する。その結果得られた基準画像中の対応対象物像COBJR4と、探索画像中の対応対象物像COBJL4とは、正しいマッチング関係にあるので、これらの像の面積重心を用いて視差を算出し、この対象物までの距離を算出する。
【0039】
図4に戻り、ステップS43では、基準画像中の対象物像が画像端に接しておらずかつ探索画像中の対応対象物像が画像端に接していないか否か、すなわちケースC0に該当するか否かを判別し、相関演算の結果がケースC0に該当するときは、直ちにステップS48に進んで、視差から距離を算出し、本処理を終了する。
【0040】
相関演算の結果がケースC0に該当しないときは、基準画像中の対象物像が画像端に接しておりかつ探索画像中の対応対象物像が画像端に接しているか否か、すなわちケースC4に該当するか否かを判別し、相関演算の結果がケースC4に該当するときは、上述したように探索画像から基準画像への相関演算を実行する(ステップS46)。次いで相関度が高いか否か、すなわち相関度パラメータの最小値CMINが所定閾値CMINTH以下か否かを判別し(ステップS47)、CMIN>CMINTHであるときは、前記ステップS49に進む。またCMIN≦CMINTHであって相関度が高いときは、前記ステップS48に進んで距離の算出を行う。
【0041】
ステップS44で相関演算の結果がケースC4に該当しないとき、すなわちケースC1〜C3に該当するときは、対応対象物像が画像端に接しているか、すなわちケースC2に該当するか否かを判別し(ステップS45)、ケースC2に該当するときは、前記ステップS46に進む。また、ケースC1またはC3に該当するときは、ステップS45から直ちにステップS48に進む。
【0042】
ステップS48における視差から距離を算出する処理は、以下のように行う。
図14に示すように対象物像OJBR1の面積重心位置と、画像左端との距離dR(画素数)及び対応対象物像COBJL1の面積重心位置と画像左端との距離dL(画素数)を求め、下記式(3)に適用して、自車両10と、対象物との距離zを算出する。
【数3】
ここで、Bは基線長、すなわち図15に示すようにカメラ1Rの撮像素子11Rの中心位置と、カメラ1Lの撮像素子11Lの中心位置との水平方向(x方向)の距離(両カメラの光軸の間隔)、Fはレンズ12R、12Lの焦点距離、pは、撮像素子11R、11L内の画素間隔であり、Δd(=dL−dR)が視差である。
以上のようにして距離zの算出が行われる。
【0043】
図3に戻り、ステップS21では、画像内の座標(x,y)及び式(3)により算出した距離zを下記式(4)に適用し、実空間座標(X,Y,Z)に変換する。ここで、実空間座標(X,Y,Z)は、図16(a)に示すように、カメラ1R、1Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして、図示のように定め、画像内の座標は同図(b)に示すように、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
【数4】
【0044】
ここで、(xc,yc)は、右画像上の座標(x,y)を、カメラ1Rの取り付け位置と、実空間原点Oとの相対位置関係に基づいて、実空間原点Oと画像の中心とを一致させた仮想的な画像内の座標に変換したものである。またfは、焦点距離Fと画素間隔pとの比である。
【0045】
なお、この実空間座標の変換をする際には、前述したステップS31の処理により、基準画像中の対象物像のうち画像端に接していると判定された対象物像(図11に示す例では、対象物像OBJ1〜3)について、図17(a)に示すように、対象物像の位置を代表する判定点を、面積重心Gからより基準画像の中心に近い、外接四角形の端部の点GEに移動させ、該移動後の座標を実空間座標に変換する。すなわち、基準画像の左端に接している対象物像OBJ1については、面積重心G1のy座標と同一のy座標を有し、外接四角形の右端に位置する点GE1に判定点を移動し、基準画像の上端に接している対象物像OBJ2については、面積重心G2のx座標と同一のx座標を有し、外接四角形の下端に位置する点GE2に判定点を移動し、基準画像の右端に接している対象物像OBJ3については、面積重心G3のy座標と同一のy座標を有し、外接四角形の左端に位置する点GE3に判定点を移動する。
【0046】
そしてこのように判定点を移動させた対象物については、過去の位置データも、同様に面積重心Gに対応するデータからより基準画像の中心に近い、外接四角形の端部の点GEに対応するデータに変更する処理を行う。このようにすることにより、後述する相対移動ベクトルの算出に用いる時系列データが、移動後の判定点で統一された時系列データとなり、正確な相対移動ベクトルを求めることができる。
なお、判定点は図17(b)に示すように、外接四角形の端部ではなく、対象物像の端部に位置する点GE1a,GE2a,GE3aに移動させるようにしてもよい。
【0047】
ステップS22では、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う。図18に示すように、時刻kから(k+1)までの期間中に自車両が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、図19に示すようにΔxだけx方向にずれるので、これを補正する処理である。具体的には、下記式(5)に実空間座標(X,Y,Z)を適用して、補正座標(Xr,Yr,Zr)を算出する。算出した実空間位置データ(Xr,Yr,Zr)は、対象物毎に対応づけてメモリに格納する。なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
【数5】
【0048】
ステップS23では、図20に示すように同一対象物について、ΔTの期間内に得られた、回頭角補正後のN個の実空間位置データ(例えばN=10程度)、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める。具体的には、近似直線LMVの方向を示す方向ベクトルL=(lx,ly,lz)(|L|=1)とすると、下記式(6)で表される直線を求める。
【数6】
【0049】
ここでuは、任意の値をとる媒介変数であり、Xav,Yav及びZavは、それぞれ実空間位置データ列のX座標の平均値、Y座標の平均値及びZ座標の平均値である。なお、式(6)は媒介変数uを消去すれば下記式(6a)のようになる。
(X−Xav)/lx=(Y−Yav)/ly=(Z−Zav)/lz
…(6a)
【0050】
図20は、近似直線LMVを説明するための図であり、同図のP(0),P(1),P(2),…,P(N−2),P(N−1)が回頭角補正後の時系列データを示し、近似直線LMVは、この時系列データの平均位置座標Pav(=(Xav,Yav,Zav))を通り、各データ点からの距離の2乗の平均値が最小となるような直線として求められる。ここで各データ点の座標を示すPに付した()内の数値はその値が増加するほど過去のデータであることを示す。例えば、P(0)は最新の位置座標、P(1)は1サンプル周期前の位置座標、P(2)は2サンプル周期前の位置座標を示す。以下の説明におけるD(j)、X(j)、Y(j)、Z(j)等も同様である。
【0051】
より具体的には、平均位置座標Pavから各データ点の座標P(0)〜P(N−1)に向かうベクトルD(j)=(DX(j),DY(j),DZ(j))=(X(j)−Xav,Y(j)−Yav,Z(j)−Zav)と、方向ベクトルLとの内積sを下記式(7)により算出し、この内積sの分散が最大となる方向ベクトルL=(lx,ly,lz)を求める。
s=lx・DX(j)+ly・DY(j)+lz・DZ(j) (7)
【0052】
各データ点の座標の分散共分散行列Vは、下記式(8)で表され、この行列の固有値σが内積sの分散に相当するので、この行列から算出される3つの固有値のうち最大の固有値に対応する固有ベクトルが求める方向ベクトルLとなる。なお、式(8)の行列から固有値と固有ベクトルを算出するには、ヤコビ法(例えば「数値計算ハンドブック」(オーム社)に示されている)として知られている手法を用いる。
【数7】
【0053】
次いで最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正する。具体的には、前記式(6a)にZ座標Z(0)、Z(N−1)を適用することにより、すなわち下記式(9)により、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
【数8】
【0054】
式(9)で算出された位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる。このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
【0055】
図3に戻り、ステップS24では、ステップS23で算出した相対移動ベクトルに基づいて、対象物が自車両10に衝突する可能性が高いか否かを判定し、高い場合には、スピーカ3やHUD4を用いた音声や表示により、運転者への警報を発する処理を実行する。ステップS24実行後は、ステップS11に戻る。
【0056】
以上のように本実施形態では、基準画像中の対象物像が画像端に接しているときは、その対象物像の位置を代表する判定点を、その対象物像の面積重心から寄り基準画像の画像端に近い、その対象物像の外接四角形の端部に位置する点(またはその対象物像の端部に位置する点)に移動させ、移動後の判定点を用いて相対移動ベクトルを算出するようにしたので、対象物の相対移動方向を正確に検出することができる。
【0057】
また例えば図13(b)に示すように、基準画像に含まれる対象物像OBJR2に基づいて、探索画像に対して相関演算を実行し、その結果得られた対応対象物像COBJL2が、画像の端部に接するときは、その対応対象物像COBJL2に基づいて、基準画像に対して相関演算を実行し、その結果得られた対応対象物像COBJR2と、対応対象物像COBJL2とに基づいて視差を算出し、該算出した視差からその対象物までの距離を算出するようにしたので、相関演算により抽出された探索画像中の対応対象物像が画像端に接する場合でも、正確な距離を算出することができる。
【0058】
本実施形態では、画像処理ユニット2が、画像端部判定手段、判定点移動手段、及び移動方向検出手段を構成する。より具体的には、図4のステップS43〜S45が画像端部判定手段に相当し、図4のステップS41,S42,S46,S47及び図3のステップS21が判定点移動手段に相当し、図3のステップS23が移動方向検出手段に相当する。
【0059】
(第2の実施形態)
図21は本発明の第2の実施形態にかかる障害物検出・警報処理のフローチャートである。この処理は、図3に示す処理に、ステップS17aを追加するとともに、図3のステップS31をステップS31aに変更したものである。また図22は、ステップS31aにおける距離算出処理を示すフローチャートであり、この処理は図4に示す処理から、ステップS43,S44及びS47を削除するとともに、ステップS46をステップS46aに変更したものである。以上の点以外は、第1の実施形態と同一である。
【0060】
ステップS17aでは、ステップS17で抽出された対象物のうち、その基準画像中の対象物像が画像端に接するものは、監視対象から除く処理を行う。
ステップS31aでは、図22に示す距離算出処理を実行する。ステップS42で相関度が高いと判別されたときは、相関演算により得られた対応対象物像が探索画像の画像端に接しているか否かを判別し(ステップS45)、接していなければ、視差から距離を算出する(ステップS48)。一方対応対象物像が画像端に接しているときは、この対象物を監視対象から除く処理を行い(ステップS46a)、直ちに本処理を終了する。
【0061】
以上のように本実施形態では、対象物像が基準画像の画像端に接する対象物、及び相関演算により抽出された対応対象物像が探索画像の画像端に接する対象物を監視対象から除くようにしたので、そのような対象物の移動方向及びその対象物までの距離を誤って認識することを防止することができる。
【0062】
本実施形態では、画像処理ユニット2が、画像端部判定手段を構成し、より具体的には、図22のステップS45が画像端部判定手段に相当する。
なお本発明は上述した実施形態に限るものではなく、種々の変形が可能である。例えば、本実施形態では、対象物像を得るためのカメラとして赤外線カメラを使用したが、例えば特開平9−226490号公報に示されるように通常の可視光線のみ検出可能なテレビカメラを使用してもよい。ただし、赤外線カメラを用いることにより、動物あるいは走行中の車両などの抽出処理を簡略化することができ、演算装置の演算能力が比較的低いものでも実現できる。
【図面の簡単な説明】
【0063】
【図1】本発明の一実施形態にかかる移動対象物検出装置の構成を示すブロック図である。
【図2】図1に示すカメラの取り付け位置を説明するための図である。
【図3】図1の画像処理ユニットによる処理の手順を示すフローチャートである。
【図4】図3の距離算出処理を詳細に示すフローチャートである。
【図5】赤外線カメラにより得られるグレースケール画像を説明するために、中間階調部にハッチングを付して示す図である。
【図6】グレースケール画像を2値化した画像を説明するために、黒の領域をハッチングを付して示す図である。
【図7】ランレングスデータへの変換処理及びラベリングを説明するための図である。
【図8】対象物の時刻間追跡を説明するための図である。
【図9】右画像中の探索対象物像と、左画像に設定する探索領域を説明するための図である。
【図10】探索領域を対象とした相関演算処理を説明するための図である。
【図11】対象物像が画像の端部に接する場合を説明するための図である。
【図12】探索画像中の対象物像が画像の端部に接している場合を説明するための図である。
【図13】対象物像が画像の端部に接する4つの場合を説明するための図である。
【図14】視差の算出方法を説明するための図である。
【図15】視差から距離を算出する手法を説明するための図である。
【図16】本実施形態における座標系を示す図である。
【図17】判定点の移動を説明するための図である。
【図18】回頭角補正を説明するための図である。
【図19】車両の回頭により発生する画像上の対象物位置のずれを示す図である。
【図20】相対移動ベクトルの算出手法を説明するための図である。
【図21】本発明の第2の実施形態における、画像処理ユニットによる処理の手順を示すフローチャートである。
【図22】図21の距離算出処理を詳細に示すフローチャートである。
【図23】従来の手法の問題点を説明するための図である。
【図24】従来の手法の問題点を説明するための図である。
【符号の説明】
【0064】
1R、1L 赤外線カメラ(カメラ)
2 画像処理ユニット(画像端部判定手段、判定点移動手段、移動方向検出手段)
5 ヨーレートセンサ
6 車速センサ
【特許請求の範囲】
【請求項1】
互いに離間して配置された2つのカメラにより得られる対象物の画像情報に基づいて、前記対象物の移動方向を検出する移動対象物検出装置において、
前記2つのカメラのうち、少なくとも何れか一方のカメラにより得られる対象物像が、画像の端部に接することを判定する画像端部判定手段と、
該画像端部判定手段により、画像の端部に接すると判定された対象物像については、該対象物像の位置を代表する判定点を、前記対象物像の面積重心から、前記画像の中心に近い所定点に移動させる判定点移動手段と、
該移動後の判定点に基づいて前記対象物の移動方向を検出する移動方向検出手段とを備えることを特徴とする移動対象物検出装置。
【請求項2】
前記2つのカメラにより得られる対象物の画像情報のうち、前記画像端部判定手段にて画像の端部に接すると判定された対象物の画像情報を基準画像とし、他方を探索画像として相関演算を行うことにより、該対象物の距離を算出する距離算出手段をさらに備え、
前記移動方向検出手段は、前記判定点移動手段による移動後の判定点と、前記距離算出手段によって算出された距離とに基づいて、前記対象物の移動方向を検出することを特徴とする請求項1に記載の移動対象物検出装置。
【請求項3】
前記画像端部判定手段により、前記2つのカメラにより得られる対象物像がともに画像の端部に接する判定された場合は、前記距離算出手段は、前記対象物像の表示面積が小さい方の画像を基準画像として用いることを特徴とする請求項2に記載の移動対象物検出装置。
【請求項1】
互いに離間して配置された2つのカメラにより得られる対象物の画像情報に基づいて、前記対象物の移動方向を検出する移動対象物検出装置において、
前記2つのカメラのうち、少なくとも何れか一方のカメラにより得られる対象物像が、画像の端部に接することを判定する画像端部判定手段と、
該画像端部判定手段により、画像の端部に接すると判定された対象物像については、該対象物像の位置を代表する判定点を、前記対象物像の面積重心から、前記画像の中心に近い所定点に移動させる判定点移動手段と、
該移動後の判定点に基づいて前記対象物の移動方向を検出する移動方向検出手段とを備えることを特徴とする移動対象物検出装置。
【請求項2】
前記2つのカメラにより得られる対象物の画像情報のうち、前記画像端部判定手段にて画像の端部に接すると判定された対象物の画像情報を基準画像とし、他方を探索画像として相関演算を行うことにより、該対象物の距離を算出する距離算出手段をさらに備え、
前記移動方向検出手段は、前記判定点移動手段による移動後の判定点と、前記距離算出手段によって算出された距離とに基づいて、前記対象物の移動方向を検出することを特徴とする請求項1に記載の移動対象物検出装置。
【請求項3】
前記画像端部判定手段により、前記2つのカメラにより得られる対象物像がともに画像の端部に接する判定された場合は、前記距離算出手段は、前記対象物像の表示面積が小さい方の画像を基準画像として用いることを特徴とする請求項2に記載の移動対象物検出装置。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図19】
【図20】
【図21】
【図22】
【図23】
【図24】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図19】
【図20】
【図21】
【図22】
【図23】
【図24】
【公開番号】特開2006−252566(P2006−252566A)
【公開日】平成18年9月21日(2006.9.21)
【国際特許分類】
【出願番号】特願2006−68492(P2006−68492)
【出願日】平成18年3月14日(2006.3.14)
【分割の表示】特願2000−159640(P2000−159640)の分割
【原出願日】平成12年5月30日(2000.5.30)
【出願人】(000005326)本田技研工業株式会社 (23,863)
【Fターム(参考)】
【公開日】平成18年9月21日(2006.9.21)
【国際特許分類】
【出願日】平成18年3月14日(2006.3.14)
【分割の表示】特願2000−159640(P2000−159640)の分割
【原出願日】平成12年5月30日(2000.5.30)
【出願人】(000005326)本田技研工業株式会社 (23,863)
【Fターム(参考)】
[ Back to top ]