車両の周辺監視装置
【課題】車両の周辺の物体を検出するレーダと、車両の周辺の画像を撮像するカメラと、レーダが検出した物体の位置に対応する、カメラが撮像した対応画像上の所定領域を特定して所定領域内の物体を特定する手段とを備える、車両の周辺監視装置を提供する。
【解決手段】周辺監視装置は、特定された対応画像上の所定領域の移動量の時間変化と、カメラが撮像した画像上での所定物体の移動量の時間変化との位相ずれ量を算出する手段と、位相ずれ量がゼロになるように、レーダまたはカメラの出力信号の位相補正をおこなう位相補正手段と、対応画像上の所定物体に対する所定領域の位置ずれ方向が常に同一方向である場合にレーダまたはカメラの光軸ずれがあると判断し、所定領域の位置ずれ方向が所定物体の移動方向と逆方向である場合にレーダとカメラの同期ずれがあると判断する判断手段と、を有する。
【解決手段】周辺監視装置は、特定された対応画像上の所定領域の移動量の時間変化と、カメラが撮像した画像上での所定物体の移動量の時間変化との位相ずれ量を算出する手段と、位相ずれ量がゼロになるように、レーダまたはカメラの出力信号の位相補正をおこなう位相補正手段と、対応画像上の所定物体に対する所定領域の位置ずれ方向が常に同一方向である場合にレーダまたはカメラの光軸ずれがあると判断し、所定領域の位置ずれ方向が所定物体の移動方向と逆方向である場合にレーダとカメラの同期ずれがあると判断する判断手段と、を有する。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両の周辺監視装置に関し、より具体的には、車両の周辺監視装置におけるレーザとカメラの同期ずれ(位相ずれ)あるいは光軸ずれを検出し補正することに関する。
【背景技術】
【0002】
特許文献1は、歩行者検出装置を開示する。この歩行者検出装置は、スキャン式のレーザレーダと赤外線カメラを併用し、レーザレーダから得られる歩行者候補の検出情報を基に赤外線画像中の歩行者を検出する。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2003−302470号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、レーザレーダと赤外線カメラの出力信号に同期ずれ(位相ずれ)があると、両者の検出範囲(位置)がずれてしまい、レーザレーダの検出情報に対応した赤外線画像中の歩行者を検出することができない場合が生ずる。この同期ずれは、スキャンを伴うレーザレーダによる物体の検出時間(例えば約120ms)が赤外線カメラによる当該物体を含む画像の取得時間(例えば約33ms)よりも長くなってしまうことが原因で生ずる。
【0005】
特許文献1に記載の装置では、このレーザレーダと赤外線カメラの同期ずれに対する補正については何ら考慮していない。
【0006】
また、レーザレーダと赤外線カメラの光軸ずれがある場合にも、両者の検出範囲がずれてしまい、同様にレーザレーダの検出情報に対応した赤外線画像中の歩行者を検出することができない場合が生ずる。
【0007】
したがって、レーザレーダと赤外線カメラの検出範囲のずれが、両者の同期ずれ(位相ずれ)または光軸ずれのいずれに起因しているのかを見極めた上で適切な補正をおこなう必要がある。
【0008】
そこで、本発明は、得られた画像情報からレーザレーダと赤外線カメラの検出範囲のずれが、両者の同期ずれ(位相ずれ)または光軸ずれのいずれに起因しているのかを判別することを目的とする。
【0009】
また、本発明は、レーザレーダと赤外線カメラの同期ずれ(位相ずれ)があることを確認した上で、両者の出力信号の同期ずれ(位相ずれ)を検知し補正することによって、レーダによって特定されたカメラ画像上での所定物体の抽出精度を向上させることを目的とする。
【0010】
さらに、本発明は、レーザレーダと赤外線カメラの光軸ずれがあることを確認した上で、両者の光軸ずれを検知し補正することによって、レーダによって特定されたカメラ画像上での所定物体の抽出精度を向上させることを目的とする。
【課題を解決するための手段】
【0011】
本発明によると、車両の周辺の物体を検出するレーダと、車両の周辺の画像を撮像するカメラと、レーダが検出した物体の位置に対応する、カメラが撮像した対応画像上の所定領域を特定して所定領域内の物体を特定する手段とを備える、車両の周辺監視装置が提供される。その周辺監視装置は、特定された対応画像上の所定領域の移動量の時間変化と、カメラが撮像した画像上での所定物体の移動量の時間変化との位相ずれ量を算出する手段と、位相ずれ量がゼロになるように、レーダまたはカメラの出力信号の位相補正をおこなう位相補正手段と、対応画像上の所定物体に対する所定領域の位置ずれ方向が常に同一方向である場合にレーダまたはカメラの光軸ずれがあると判断し、所定領域の位置ずれ方向が所定物体の移動方向と逆方向である場合にレーダとカメラの同期ずれがあると判断する判断手段と、を有する。
【0012】
本発明によれば、得られた画像情報からレーザレーダと赤外線カメラの検出範囲のずれが、両者の同期ずれ(位相ずれ)または光軸ずれのいずれに起因しているのかを判別することができ、その判別結果に応じて適切な補正をおこなうことができる。その結果レーダによって特定されたカメラ画像上での所定物体の特定(抽出)精度を向上させることが可能となる。
【0013】
本発明の一形態によると、位相ずれ量を算出する手段は、判断手段が同期ずれがあると判断する場合に位相ずれ量を算出する。
【0014】
本発明の一形態によれば、レーザレーダと赤外線カメラの同期ずれ(位相ずれ)があることを確認した上で、両者の出力信号の同期ずれ(位相ずれ)を検知し補正することによって、レーダによって特定されたカメラ画像上での所定物体の抽出精度を向上させることが可能となる。
【0015】
本発明の一形態によると、さらに、対応画像上の所定物体に対する所定領域の位置ずれ量と、カメラの焦点距離とから、レーダとカメラとにおける光軸ずれ量を算出する手段を有し、光軸ずれ量を算出する手段は、判断手段が光軸ずれがあると判断する場合に光軸ずれ量を算出する。
【0016】
本発明の一形態によると、レーザレーダと赤外線カメラの光軸ずれがあることを確認した上で、両者の光軸ずれを検知し補正することによって、レーダによって特定されたカメラ画像上での所定物体の抽出精度を向上させることが可能となる。
【図面の簡単な説明】
【0017】
【図1】本発明の車両の周辺監視装置の構成を示すブロック図である。
【図2】本発明の画像処理ユニットにおける処理フローを示す図である。
【図3】本発明の位置ずれ量算出フローを示す図である。
【図4】本発明の画像上での所定領域と歩行者像を示す図である。
【図5】本発明の所定領域の位置ずれ方向を説明するための図である。
【図6】本発明の所定領域の位置ずれ方向を説明するための図である。
【図7】本発明の光軸ずれ補正のフローを示す図である。
【図8】本発明の位相ずれ補正のフローを示す図である。
【図9】本発明の変化量の時系列データの取得を説明するための図である。
【図10】本発明の変化量の時系列データの取得を説明するための図である。
【図11】本発明の位相ずれ量の算出方法を説明するための図である。
【発明を実施するための形態】
【0018】
図面を参照しながら本発明の実施の形態を説明する。図1は、この発明の一実施形態に従う、車両の周辺監視装置の構成を示すブロック図である。周辺監視装置は、車両に搭載され、レーザレーダ10と、赤外線カメラ12と、赤外線カメラ12によって撮像された画像データに基づいて車両周辺の物体を検出するための画像処理ユニット14と、その検出結果に基づいて音または音声で警報を発生するスピーカ16と、赤外線カメラ12の撮像を介して得られた画像を表示すると共に、運転者に車両周辺の物体を認識させるための表示を行う表示装置18とを備える。
【0019】
なお、レーザレーダ10は、例えばスキャン式レーザレーダが該当し、各方向にスキャンするビームの物体からの反射光を受光することにより、検出点として各方向における物体(候補)の位置(領域)とそれまでの距離を検出する。なお、レーザレーダ10は、他の種類のレーダ(例えばミリ波レーダ等)であってもよい。また、赤外線カメラ12も、赤外線以外の他の波長帯の光(例えば可視光)を利用するカメラであってもよい。したがって、以下の説明では、赤外線カメラ12が撮影したグレースケール画像を対象としているが、これに限定されるものではない。さらに、ナビゲーション装置を備える車両においては、スピーカ16および表示装置18として、ナビゲーション装置が備える該当機能を利用してもよい。
【0020】
図1の画像処理ユニット14は、ブロック141〜147で示される手段(機能)を含む(実行する)。すなわち、画像処理ユニット14は、レーザレーダ10からの信号を受けて車両の周辺の物体の位置を特定する物体位置特定手段141と、赤外線カメラ12が撮影した車両の周辺の画像をグレースケール画像として取得する画像取得手段142と、物体位置特定手段141が特定した物体の位置に対応する、取得された対応するグレースケール画像上の所定領域を特定して当該所定領域内の物体を特定する手段143を含む。なお、物体位置特定手段141は、レーザレーダ10の一部の機能として構成、すなわちレーザレーダ10に一体的に組み込んでもよい。
【0021】
画像処理ユニット14は、さらに、レーザレーダ10により特定された対応画像上の所定領域の移動量の時間変化と、赤外線カメラ12が撮像した画像上での所定物体の移動量の時間変化との位相ずれ量を算出する手段144と、対応画像上の所定物体に対する所定領域の位置ずれ量と、カメラの焦点距離とから、レーダとカメラとにおける光軸ずれ量を算出する手段145と、レーダとカメラの光軸ずれを補正する手段146、位相ずれ量がゼロになるように、レーダまたはカメラの出力信号の位相補正をおこなう位相補正手段147と、対応画像上の所定物体に対する所定領域の位置ずれ方向が常に同一方向である場合にレーダまたはカメラの光軸ずれがあると判断し、所定領域の位置ずれ方向が所定物体の移動方向と逆方向である場合にレーダとカメラの同期ずれがあると判断する判断手段148とを有する。
【0022】
画像処理ユニット14は、さらに、自車両の速度(車速)を検出する車速センサ、加速度センサ、ヨーレート(旋回方向への回転角の変化速度)を検出するヨーレートセンサ等からの検出信号を受けて必要な処理をおこなう機能を有する。
【0023】
各ブロックの機能は、画像処理ユニット14が有するコンピュータ(CPU)によって実現される。なお、画像処理ユニット14の構成は、ナビゲーション装置の中に組み込んでもよい。
【0024】
画像処理ユニット14は、ハードウエア構成として、例えば、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM、スピーカ16に対する駆動信号および表示装置18に対する表示信号などを出力する出力回路を備えている。レーザレーダ10と赤外線カメラ12の出力信号は、デジタル信号に変換されてCPUに入力されるよう構成される。
【0025】
次に、本発明の一実施形態におけるレーダまたはカメラの光軸ずれ補正あるいは位相ずれ補正の方法について説明する。図2は、画像処理ユニット14によって実行される処理フローを示す図である。図2の処理フローは、画像処理ユニット14のCPUがメモリに格納している処理プログラムを呼び出して、所定の時間間隔で実行される。
【0026】
図2のステップS1において、レーザレーダ10によって検出された物体候補の位置(領域)に対応する赤外線カメラ12によって撮像された画像上の所定領域(範囲)の位置と、赤外線カメラ12が撮像した画像上でのその物体候補の位置との位置ずれ量を算出する。
【0027】
図3は、図2のステップS1の位置ずれ量算出フロー(ルーチン)を示す図である。図3のステップS11において、レーザレーダ10からの信号を受けて車両の周辺の所定の物体の位置を特定する。その特定には任意の方法を用いることができるが、例えば以下のようにおこなう。
【0028】
レーザレーダ10としてスキャン式レーザレーダを使用して、その検出点群の幅から物体、例えば歩行者候補の位置を特定する。具体的には、スキャン式レーザレーダでは、各方向にスキャンするビームの物体からの反射光を受光することにより、検出点として各方向における物体までの距離を測定する。レーザレーダの位置を原点としてY軸をレーダの正面方向とする2次元座標系にこれらの検出点の位置をプロットして検出点の集合を得る。これらの検出点の集合から、各検出点の相互の間隔が所定値以下のものを検出点群としてグループ化し、グループ化した検出点群のうち、広がり幅が所定値以下のものを所定の物体候補(例えば歩行者候補)とみなしてその位置を特定する。
【0029】
ステップS12において、赤外線カメラ12の出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール(白黒の濃淡)画像である。対象の温度が高い部分ほど高輝度となる赤外線カメラでは、高輝度部分の明暗値が高い画像データとなり、その温度が低く(低輝度に)なるにつれて明暗値が低い画像データとなる。
【0030】
ステップS13において、取得されたグレースケール画像に所定の物体を検知する範囲となる所定領域を設定する。この所定領域は、ステップS12においてレーザレーダ10によって特定された所定の物体候補の位置(領域)を含む領域である。この所定領域の設定は、任意の方法を用いることができるが、例えば物体の位置として歩行者の位置を特定する場合を例にとると、歩行者候補の位置を含む所定サイズの領域(検出点群)を赤外線カメラ12のカメラ座標系に変換し、グレースケール画像中にマッピング(重畳)して、対応するグレースケール画像上の所定領域として設定する。
【0031】
ステップS14において、画像上での所定の物体を特定する。この特定は、ステップS13において設定された画像上の所定領域を基準としてその領域内あるいはその近傍の領域内においておこなう。この特定は、任意の方法によりおこなうことができるが、例えば、グレースケール画像を2値化処理して得られる白黒画像から対象物を照合する。具体的には、最初に予めメモリに保管している除外対象物の特徴を有するか否かを調べる。除外対象物とは、例えば発熱体ではあるが明らかに形状等が異なる物体(4足動物、車両等)を意味する。除外対象物に該当しない場合、所定の物体の特徴に該当するか否かを調べる。例えば、所定の物体が歩行者である場合、歩行者の頭部の特徴として丸みを帯びた白部が存在し、その下に胴体、脚部の部分に相当する細長い白部が繋がっていること等が含まれる。また、周知のパターンマッチングを利用し、予め保管してある歩行者を表す所定のパターンとの類似度を算出し、その類似度を歩行者であるか否かの判断材料としてもよい。さらに、歩行者の歩行速度はほぼ一定であることから、レーザレーダ10から得られる物体の移動速度の情報を判断材料の1つとして用いてもよい。
【0032】
ステップS15において、所定の物体が特定できたか否かを判定する。この判定がNoの場合は、ステップS19に進み位置ずれ量をゼロに設定して処理を終了する(戻る)。ステップS15での判定がYesの場合、ステップS16に進む。
【0033】
図4を参照しながらステップS16からS18の画像上の所定領域の位置と特定された所定物体の位置との位置ずれ量の算出について説明する。図4は、2値化処理後の白黒画像上の所定領域と所定物体(歩行者)の例を示す図である。なお、図4では線を認識させるために、線の部分を除いて全体が白くなっているが、実際には所定物体である歩行者像22、24の回りの背景部分は黒く表示される。
【0034】
図4において、赤外線カメラ12により取得された2値化処理後の白黒画像20内に所定物体として歩行者像22、24が映っている。(a)の像22は歩行者が静止している場合であり、(b)の像24は歩行者が図の右方向に移動している場合に相当する。符号21、23で指示される枠はレーザレーダ10により歩行者の位置(領域)として特定された所定領域である。(a)の歩行者像22は所定領域21内に収まっており両者の位置ずれは小さいのに対して、(b)における両者の位置ずれは大きくなっている。(b)での位置ずれは、レーダとカメラの同期ずれ(位相ずれ)および光軸ずれのいずれかあるいは双方に起因して生ずる。この同期ずれまたは光軸ずれの切り分けについては後述する。一方(a)の場合は両者の同期ずれおよび光軸ずれがほとんどないか小さい場合に相当する。
【0035】
図3のステップS16において、図4の所定領域21、23の重心を算出する。ステップS17において、歩行者像22、24の重心を算出する。ステップS18において、算出した両者の重心の位置P1とQ1またはP2とQ2の横方向(水平方向)での差分をカメラ画像上でのずれ量d1、d2として算出する。なお、ずれ量を算出するための位置は、重心の位置に限られず他の任意の基準により定まる位置、例えば所定領域および歩行者像の水平方向の最大幅の中点等であってもよい。
【0036】
図2に戻って、ステップS2において、ステップS1において算出された位置ずれ量が所定量よりも大きいか否かを判定する。所定量は同期ずれ補正あるいは光軸ずれ補正が必要か否かを判断するための1つのしきい値として設定される。この判定がNoの場合、処理を終了する。図4の例では、(a)の場合の位置ずれ量d1は所定量よりも小さい場合に相当する。判定がYesの場合、次のステップS3に進む。
【0037】
ステップS3において、画像上の所定物体に対する所定領域の位置ずれ方向を算出する。この算出は、画像上の所定物体の位置に対して所定領域の位置が水平方向での右方向または左方向のいずれ側にずれているかを求める。その際、所定物体の移動方向に対して所定領域の位置が同じ方向あるいは逆方向のいずれにずれているかも求める。具体的には、例えば図3のステップS17において求めた歩行者の重心の位置に対して、ステップS16において求めた所定領域の重心が右方向または左方向のいずれ側にずれているかを求める。同時に、歩行者の重心の移動方向に対して所定領域の重心が同じ方向あるいは逆方向のいずれにずれているかも求める。
【0038】
ステップS4において、画像上の所定物体の位置に対して所定領域の位置が同一方向にずれているか否かを判定する。図5は所定領域の位置ずれ方向を説明するための図である。図5は、図4と同様に2値化処理後の白黒画像20上の所定領域と所定物体(歩行者)を示しており、線を認識させるために、線の部分を除いて全体が白くなっているが、実際には歩行者像の背景部分は黒く表示される。
【0039】
図5(a)の像22は歩行者が静止している場合であり、(b)の像24は歩行者が図の右方向に移動している場合であり、(c)の像25は歩行者が図の左方向に移動している場合にそれぞれ相当する。符号23で指示される枠はレーザレーダ10により歩行者の位置(領域)として特定された所定領域である。図5においては、歩行者が静止あるいは左右に移動した場合のいずれの場合においても所定領域23は歩行者像22、24、25の右側にずれている。したがって、画像上の所定物体(歩行者)の位置に対して所定領域の位置が同一方向にずれている場合に該当する。
【0040】
図5で例示される同一方向への位置ずれは、所定物体(歩行者)の移動の有無にかかわらず定常的に一定割合のずれとして発生するので、レーダまたはカメラの光軸ずれに起因していると判定される。したがって、ステップS4の判定がYesの場合、次のステップS5に進み、光軸ずれ補正をおこなう。この光軸ずれ補正の詳細については後述する。
【0041】
ステップS4の判定がNoの場合、ステップS6に進み、画像上の所定物体の移動方向に対して所定領域の位置が逆方向にずれているか否かを判定する。図6は所定領域の位置ずれ方向を説明するための図である。図6は、図5と同様に2値化処理後の白黒画像20上の所定領域と所定物体(歩行者)を示しており、両図で同一符号は同じ対象を示している。
【0042】
図6においては、(a)の歩行者像22が静止している場合は所定領域23の位置ずれはない。(b)の歩行者像24が右方向に移動した場合は、所定領域23は歩行者像24の左側にずれている。一方、(c)の歩行者像24が左方向に移動した場合は、所定領域23は歩行者像24の右側にずれている。したがって、図6の例は、画像上の所定物体(歩行者)の移動方向に対して所定領域の位置が逆方向にずれている場合に該当する。
【0043】
図6で例示される移動方向に対して逆方向への位置ずれは、主にレーザの出力信号(処理)の遅れに起因しており、レーダとカメラの同期ずれが比較的大きい場合であると判定される。したがって、ステップS6の判定がYesの場合、次のステップS7に進み、位相ずれ補正をおこなう。この位相ずれ補正の詳細については後述する。ステップS6の判定がNoの場合は処理を終了する。
【0044】
次に、図7を参照しながら図2のステップS5の光軸ずれ補正の詳細について説明する。図7は、光軸ずれ補正のフローを示す図である。図7のステップS51において、画像上の所定物体の位置に対して所定領域の位置が同一方向にずれている場合、すなわち上述した図5で例示されるレーダまたはカメラの光軸ずれに起因している位置ずれの場合における位置ずれ量dを取得する。この位置ずれ量dの取得は、図4を用いて説明した位置ずれ量d1、d2の場合と同様に、所定物体および所定領域の重心の位置から求める。
【0045】
ステップS52において、得られたずれ量dが所定量ΔL1よりも大きいか否かを判定する。この判定がNoの場合、光軸のずれ量が小さく許容範囲にあるものとして、その補正を行うことなく処理を終了する。判定がYesの場合、ステップS53において、ずれ量dが所定量ΔL2(>ΔL1)よりも小さいか否かを判定する。この判定がNoの場合、光軸のずれ量(角度)が大きくずれ過ぎた範囲にあるものとして、ステップS55に進み、赤外線カメラ12の光軸に補正では調整できない失陥があると判定する。
【0046】
ステップS53の判定がYesの場合、ステップS54において、レーダとカメラの光軸ずれ角度αを算出する。ずれ角度αは、ステップS51で取得したカメラ画像上でのずれ量dと、カメラの焦点距離fとから(1)式により求めることができる。
α = tan−1(d/f) (1)
【0047】
最後にステップS56において、得られた光軸のずれ角度αに相当する補正をおこなう。その補正方法は、画像処理上での補正あるいは光軸自体の調整等従来からの任意の方法を用いておこなう。
【0048】
次に、図8〜図11を参照しながら図2のステップS7の位相ずれ補正の詳細について説明する。図8は、その位相ずれ補正のフローを示す図である。ステップS71において、同期(位相)ずれ補正をおこなうためのデータ区間を特定するために時系列データを取得とする。位相ずれの補正には、レーダとカメラの位相ずれが比較的大きく発生する期間、すなわちレーダまたはカメラが検出する物体の時間的な位置変化量が比較的大きくレーダとカメラの位相ずれ量が検出しやすい期間においてその位相ずれ量を検出することが検出精度の観点等から好ましい。しかし、例えば車両が一般道を走行している場合、その補正に必要な変化を連続的に安定して観測することは困難である。そこで、例えば以下のような方法により、一定時間にわたってデータが時間的に変化している時系列データを取得する。
【0049】
図9はレーダまたはカメラが検出する物体の時間的な位置変化量が大きい区間A〜Dの部分のみを寄せ集めて、連続する区間A´〜D´を作ることを説明するための図である。図9において、上側に示される時間的な位置変化量が大きい区間A〜Dの各部分を寄せ集めて、図の下側の時間T1における連続する区間A´〜D´を作る。図9における物体の時間的な位置変化量が大きい区間は、例えば車両の旋回中のヨーレート、あるいは加/減速時の車速等、車両状態の変化が大きい場合の車両の走行状態を示す各種検出信号から得ることが望ましい。このように、物体の時間的な位置変化量が大きい区間のみを結合し、その結合した区間でのレーザとカメラの位相ずれ量を検出して補正をおこなうことにより、その補正の精度、信頼度を向上させることが可能となる。
【0050】
図10は、所定量以上の時系列データを取得する他の例を説明するための図である。自車が移動(走行)する車載環境では、静止ターゲットは頻繁に入れ替わるため、一般道で補正に必要な変化を連続的に安定して観測することは困難である。そこで、図10の例では、異なる静止ターゲット(歩行者等)の移動速度をつなげることで時間的に連続したデータを生成する。
【0051】
図10の(a)では車両30の進行方向において3つの静止ターゲット1〜3が存在する。車両30の進行にともない3つの静止ターゲット1〜3は徐々に車両30に近づいてくる。(b)はその場合の車両30の速度変化32と静止ターゲット1〜3の速度変化33を示している。静止ターゲット1〜3の速度変化33は、図示したように、各静止ターゲット1〜3の速度変化A〜Cをつなげることで得ており、車両30の速度変化32に対して対称(負)な関係(グラフ)となる。これにより、車両と静止ターゲットの相対的な速度が変化する区間を得ることができ、図9の場合と同様に、その区間におけるレーザとカメラの位相ずれ量を検出して補正をおこなうことにより、その補正の精度、信頼度を向上させることが可能となる。
【0052】
次に、図8のステップS72において、位相ずれ量を算出する。図11は、位相ずれ量の算出方法を説明するための図である。図11の(a)は図4の(b)の部分を抜き出した2値化後の白黒画像20であり、図4と同じ符号番号を付けてある。図4の説明において既に述べたように、レーザレーダ10により歩行者の位置(領域)として特定された所定領域23は、赤外線カメラ12により取得された2値化処理後の歩行者像24よりもずれて表示される。
【0053】
図11の(b)、(c)は、(a)の場合に対応する白黒画像20上の歩行者像24の移動量の時間変化Aと所定領域23の移動量の時間変化B、B´を示す図である。(b)は、(a)の位置ずれがレーダおよびカメラの同期ずれに起因して生じている場合の時間変化を示す。(c)は(a)の位置ずれがレーダまたはカメラの光軸ずれと両者の同期ずれの双方に起因して生じている場合の時間変化を示す。(b)及び(c)のデータは、例えば上述した図9または図10の例によって得られるような比較的変化の大きい連続した区間における各移動量データを切り出して得られるデータの一部である。
【0054】
(b)のグラフから、所定領域23の移動量変化Bは、歩行者像24の移動量変化AよりもΔT1時間だけ位相(信号の立ち上がり)が遅れていることがわかる。したがって、この場合の位相ずれ量はΔT1となる。この位相ずれ量ΔT1は、(a)の画像上での位置ずれ量d2に対応している。
【0055】
(c)のグラフから、所定領域23の移動量変化B´は、歩行者像24の移動量変化AよりもΔT2時間だけ位相(信号の立ち上がり)が遅れていることがわかる。この場合の位相ずれ量はΔT2となる。同時に光軸ずれに起因する定常的な振幅の偏差ΔP1が観測される。したがって、(c)の場合において、(a)の画像上での位置ずれ量d2は、位相ずれ量ΔT2および振幅の偏差ΔP1に起因して生じている。
【0056】
このように、所定区間(時間)における画像上の所定領域および所定物体像の移動量の時間的な変化をモニターすることで両者の位相ずれ量を得ることができる。この位相ずれ量はレーザレーダ10と赤外線カメラ12の出力信号の同期ずれ量に対応している。なお、2つの移動量変化の立ち上がり時刻のずれを見る代わりに、両者の相互相関係数を求めてあるいは位相限定相関法を利用して、得られる関数の周期から位相ずれ量を求めてもよい。
【0057】
ステップS73において、レーザレーダ10の出力信号の処理と赤外線カメラ12の出力信号の画像処理において、図11(b)、(c)の位相ずれ量ΔT1、ΔT2が無くなる(ゼロになる)ように補正(調整)する。具体的には、例えば赤外線カメラ12の出力信号の立ち上がり時刻を位相ずれ量ΔT1、ΔT2に相当する分だけ遅らせる、あるいは所定のクロック(タイミング)信号に同期して、レーザレーダ10および赤外線カメラ12の出力信号が立ち上がるようにする等の処理をおこなう。
【0058】
以上、本発明の実施の形態について説明したが、本発明はこのような実施形態に限定されることはなく、本発明の趣旨を逸脱しない範囲において改変して用いることができる。
【符号の説明】
【0059】
10 レーザレーダ、
12 赤外線カメラ、
14 画像処理ユニット
16 スピーカ、
18 表示装置、
20 カメラ画像
21、23 レーダで検出された所定領域
22、24、25 歩行者像
30 車両
【技術分野】
【0001】
本発明は、車両の周辺監視装置に関し、より具体的には、車両の周辺監視装置におけるレーザとカメラの同期ずれ(位相ずれ)あるいは光軸ずれを検出し補正することに関する。
【背景技術】
【0002】
特許文献1は、歩行者検出装置を開示する。この歩行者検出装置は、スキャン式のレーザレーダと赤外線カメラを併用し、レーザレーダから得られる歩行者候補の検出情報を基に赤外線画像中の歩行者を検出する。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2003−302470号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、レーザレーダと赤外線カメラの出力信号に同期ずれ(位相ずれ)があると、両者の検出範囲(位置)がずれてしまい、レーザレーダの検出情報に対応した赤外線画像中の歩行者を検出することができない場合が生ずる。この同期ずれは、スキャンを伴うレーザレーダによる物体の検出時間(例えば約120ms)が赤外線カメラによる当該物体を含む画像の取得時間(例えば約33ms)よりも長くなってしまうことが原因で生ずる。
【0005】
特許文献1に記載の装置では、このレーザレーダと赤外線カメラの同期ずれに対する補正については何ら考慮していない。
【0006】
また、レーザレーダと赤外線カメラの光軸ずれがある場合にも、両者の検出範囲がずれてしまい、同様にレーザレーダの検出情報に対応した赤外線画像中の歩行者を検出することができない場合が生ずる。
【0007】
したがって、レーザレーダと赤外線カメラの検出範囲のずれが、両者の同期ずれ(位相ずれ)または光軸ずれのいずれに起因しているのかを見極めた上で適切な補正をおこなう必要がある。
【0008】
そこで、本発明は、得られた画像情報からレーザレーダと赤外線カメラの検出範囲のずれが、両者の同期ずれ(位相ずれ)または光軸ずれのいずれに起因しているのかを判別することを目的とする。
【0009】
また、本発明は、レーザレーダと赤外線カメラの同期ずれ(位相ずれ)があることを確認した上で、両者の出力信号の同期ずれ(位相ずれ)を検知し補正することによって、レーダによって特定されたカメラ画像上での所定物体の抽出精度を向上させることを目的とする。
【0010】
さらに、本発明は、レーザレーダと赤外線カメラの光軸ずれがあることを確認した上で、両者の光軸ずれを検知し補正することによって、レーダによって特定されたカメラ画像上での所定物体の抽出精度を向上させることを目的とする。
【課題を解決するための手段】
【0011】
本発明によると、車両の周辺の物体を検出するレーダと、車両の周辺の画像を撮像するカメラと、レーダが検出した物体の位置に対応する、カメラが撮像した対応画像上の所定領域を特定して所定領域内の物体を特定する手段とを備える、車両の周辺監視装置が提供される。その周辺監視装置は、特定された対応画像上の所定領域の移動量の時間変化と、カメラが撮像した画像上での所定物体の移動量の時間変化との位相ずれ量を算出する手段と、位相ずれ量がゼロになるように、レーダまたはカメラの出力信号の位相補正をおこなう位相補正手段と、対応画像上の所定物体に対する所定領域の位置ずれ方向が常に同一方向である場合にレーダまたはカメラの光軸ずれがあると判断し、所定領域の位置ずれ方向が所定物体の移動方向と逆方向である場合にレーダとカメラの同期ずれがあると判断する判断手段と、を有する。
【0012】
本発明によれば、得られた画像情報からレーザレーダと赤外線カメラの検出範囲のずれが、両者の同期ずれ(位相ずれ)または光軸ずれのいずれに起因しているのかを判別することができ、その判別結果に応じて適切な補正をおこなうことができる。その結果レーダによって特定されたカメラ画像上での所定物体の特定(抽出)精度を向上させることが可能となる。
【0013】
本発明の一形態によると、位相ずれ量を算出する手段は、判断手段が同期ずれがあると判断する場合に位相ずれ量を算出する。
【0014】
本発明の一形態によれば、レーザレーダと赤外線カメラの同期ずれ(位相ずれ)があることを確認した上で、両者の出力信号の同期ずれ(位相ずれ)を検知し補正することによって、レーダによって特定されたカメラ画像上での所定物体の抽出精度を向上させることが可能となる。
【0015】
本発明の一形態によると、さらに、対応画像上の所定物体に対する所定領域の位置ずれ量と、カメラの焦点距離とから、レーダとカメラとにおける光軸ずれ量を算出する手段を有し、光軸ずれ量を算出する手段は、判断手段が光軸ずれがあると判断する場合に光軸ずれ量を算出する。
【0016】
本発明の一形態によると、レーザレーダと赤外線カメラの光軸ずれがあることを確認した上で、両者の光軸ずれを検知し補正することによって、レーダによって特定されたカメラ画像上での所定物体の抽出精度を向上させることが可能となる。
【図面の簡単な説明】
【0017】
【図1】本発明の車両の周辺監視装置の構成を示すブロック図である。
【図2】本発明の画像処理ユニットにおける処理フローを示す図である。
【図3】本発明の位置ずれ量算出フローを示す図である。
【図4】本発明の画像上での所定領域と歩行者像を示す図である。
【図5】本発明の所定領域の位置ずれ方向を説明するための図である。
【図6】本発明の所定領域の位置ずれ方向を説明するための図である。
【図7】本発明の光軸ずれ補正のフローを示す図である。
【図8】本発明の位相ずれ補正のフローを示す図である。
【図9】本発明の変化量の時系列データの取得を説明するための図である。
【図10】本発明の変化量の時系列データの取得を説明するための図である。
【図11】本発明の位相ずれ量の算出方法を説明するための図である。
【発明を実施するための形態】
【0018】
図面を参照しながら本発明の実施の形態を説明する。図1は、この発明の一実施形態に従う、車両の周辺監視装置の構成を示すブロック図である。周辺監視装置は、車両に搭載され、レーザレーダ10と、赤外線カメラ12と、赤外線カメラ12によって撮像された画像データに基づいて車両周辺の物体を検出するための画像処理ユニット14と、その検出結果に基づいて音または音声で警報を発生するスピーカ16と、赤外線カメラ12の撮像を介して得られた画像を表示すると共に、運転者に車両周辺の物体を認識させるための表示を行う表示装置18とを備える。
【0019】
なお、レーザレーダ10は、例えばスキャン式レーザレーダが該当し、各方向にスキャンするビームの物体からの反射光を受光することにより、検出点として各方向における物体(候補)の位置(領域)とそれまでの距離を検出する。なお、レーザレーダ10は、他の種類のレーダ(例えばミリ波レーダ等)であってもよい。また、赤外線カメラ12も、赤外線以外の他の波長帯の光(例えば可視光)を利用するカメラであってもよい。したがって、以下の説明では、赤外線カメラ12が撮影したグレースケール画像を対象としているが、これに限定されるものではない。さらに、ナビゲーション装置を備える車両においては、スピーカ16および表示装置18として、ナビゲーション装置が備える該当機能を利用してもよい。
【0020】
図1の画像処理ユニット14は、ブロック141〜147で示される手段(機能)を含む(実行する)。すなわち、画像処理ユニット14は、レーザレーダ10からの信号を受けて車両の周辺の物体の位置を特定する物体位置特定手段141と、赤外線カメラ12が撮影した車両の周辺の画像をグレースケール画像として取得する画像取得手段142と、物体位置特定手段141が特定した物体の位置に対応する、取得された対応するグレースケール画像上の所定領域を特定して当該所定領域内の物体を特定する手段143を含む。なお、物体位置特定手段141は、レーザレーダ10の一部の機能として構成、すなわちレーザレーダ10に一体的に組み込んでもよい。
【0021】
画像処理ユニット14は、さらに、レーザレーダ10により特定された対応画像上の所定領域の移動量の時間変化と、赤外線カメラ12が撮像した画像上での所定物体の移動量の時間変化との位相ずれ量を算出する手段144と、対応画像上の所定物体に対する所定領域の位置ずれ量と、カメラの焦点距離とから、レーダとカメラとにおける光軸ずれ量を算出する手段145と、レーダとカメラの光軸ずれを補正する手段146、位相ずれ量がゼロになるように、レーダまたはカメラの出力信号の位相補正をおこなう位相補正手段147と、対応画像上の所定物体に対する所定領域の位置ずれ方向が常に同一方向である場合にレーダまたはカメラの光軸ずれがあると判断し、所定領域の位置ずれ方向が所定物体の移動方向と逆方向である場合にレーダとカメラの同期ずれがあると判断する判断手段148とを有する。
【0022】
画像処理ユニット14は、さらに、自車両の速度(車速)を検出する車速センサ、加速度センサ、ヨーレート(旋回方向への回転角の変化速度)を検出するヨーレートセンサ等からの検出信号を受けて必要な処理をおこなう機能を有する。
【0023】
各ブロックの機能は、画像処理ユニット14が有するコンピュータ(CPU)によって実現される。なお、画像処理ユニット14の構成は、ナビゲーション装置の中に組み込んでもよい。
【0024】
画像処理ユニット14は、ハードウエア構成として、例えば、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM、スピーカ16に対する駆動信号および表示装置18に対する表示信号などを出力する出力回路を備えている。レーザレーダ10と赤外線カメラ12の出力信号は、デジタル信号に変換されてCPUに入力されるよう構成される。
【0025】
次に、本発明の一実施形態におけるレーダまたはカメラの光軸ずれ補正あるいは位相ずれ補正の方法について説明する。図2は、画像処理ユニット14によって実行される処理フローを示す図である。図2の処理フローは、画像処理ユニット14のCPUがメモリに格納している処理プログラムを呼び出して、所定の時間間隔で実行される。
【0026】
図2のステップS1において、レーザレーダ10によって検出された物体候補の位置(領域)に対応する赤外線カメラ12によって撮像された画像上の所定領域(範囲)の位置と、赤外線カメラ12が撮像した画像上でのその物体候補の位置との位置ずれ量を算出する。
【0027】
図3は、図2のステップS1の位置ずれ量算出フロー(ルーチン)を示す図である。図3のステップS11において、レーザレーダ10からの信号を受けて車両の周辺の所定の物体の位置を特定する。その特定には任意の方法を用いることができるが、例えば以下のようにおこなう。
【0028】
レーザレーダ10としてスキャン式レーザレーダを使用して、その検出点群の幅から物体、例えば歩行者候補の位置を特定する。具体的には、スキャン式レーザレーダでは、各方向にスキャンするビームの物体からの反射光を受光することにより、検出点として各方向における物体までの距離を測定する。レーザレーダの位置を原点としてY軸をレーダの正面方向とする2次元座標系にこれらの検出点の位置をプロットして検出点の集合を得る。これらの検出点の集合から、各検出点の相互の間隔が所定値以下のものを検出点群としてグループ化し、グループ化した検出点群のうち、広がり幅が所定値以下のものを所定の物体候補(例えば歩行者候補)とみなしてその位置を特定する。
【0029】
ステップS12において、赤外線カメラ12の出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール(白黒の濃淡)画像である。対象の温度が高い部分ほど高輝度となる赤外線カメラでは、高輝度部分の明暗値が高い画像データとなり、その温度が低く(低輝度に)なるにつれて明暗値が低い画像データとなる。
【0030】
ステップS13において、取得されたグレースケール画像に所定の物体を検知する範囲となる所定領域を設定する。この所定領域は、ステップS12においてレーザレーダ10によって特定された所定の物体候補の位置(領域)を含む領域である。この所定領域の設定は、任意の方法を用いることができるが、例えば物体の位置として歩行者の位置を特定する場合を例にとると、歩行者候補の位置を含む所定サイズの領域(検出点群)を赤外線カメラ12のカメラ座標系に変換し、グレースケール画像中にマッピング(重畳)して、対応するグレースケール画像上の所定領域として設定する。
【0031】
ステップS14において、画像上での所定の物体を特定する。この特定は、ステップS13において設定された画像上の所定領域を基準としてその領域内あるいはその近傍の領域内においておこなう。この特定は、任意の方法によりおこなうことができるが、例えば、グレースケール画像を2値化処理して得られる白黒画像から対象物を照合する。具体的には、最初に予めメモリに保管している除外対象物の特徴を有するか否かを調べる。除外対象物とは、例えば発熱体ではあるが明らかに形状等が異なる物体(4足動物、車両等)を意味する。除外対象物に該当しない場合、所定の物体の特徴に該当するか否かを調べる。例えば、所定の物体が歩行者である場合、歩行者の頭部の特徴として丸みを帯びた白部が存在し、その下に胴体、脚部の部分に相当する細長い白部が繋がっていること等が含まれる。また、周知のパターンマッチングを利用し、予め保管してある歩行者を表す所定のパターンとの類似度を算出し、その類似度を歩行者であるか否かの判断材料としてもよい。さらに、歩行者の歩行速度はほぼ一定であることから、レーザレーダ10から得られる物体の移動速度の情報を判断材料の1つとして用いてもよい。
【0032】
ステップS15において、所定の物体が特定できたか否かを判定する。この判定がNoの場合は、ステップS19に進み位置ずれ量をゼロに設定して処理を終了する(戻る)。ステップS15での判定がYesの場合、ステップS16に進む。
【0033】
図4を参照しながらステップS16からS18の画像上の所定領域の位置と特定された所定物体の位置との位置ずれ量の算出について説明する。図4は、2値化処理後の白黒画像上の所定領域と所定物体(歩行者)の例を示す図である。なお、図4では線を認識させるために、線の部分を除いて全体が白くなっているが、実際には所定物体である歩行者像22、24の回りの背景部分は黒く表示される。
【0034】
図4において、赤外線カメラ12により取得された2値化処理後の白黒画像20内に所定物体として歩行者像22、24が映っている。(a)の像22は歩行者が静止している場合であり、(b)の像24は歩行者が図の右方向に移動している場合に相当する。符号21、23で指示される枠はレーザレーダ10により歩行者の位置(領域)として特定された所定領域である。(a)の歩行者像22は所定領域21内に収まっており両者の位置ずれは小さいのに対して、(b)における両者の位置ずれは大きくなっている。(b)での位置ずれは、レーダとカメラの同期ずれ(位相ずれ)および光軸ずれのいずれかあるいは双方に起因して生ずる。この同期ずれまたは光軸ずれの切り分けについては後述する。一方(a)の場合は両者の同期ずれおよび光軸ずれがほとんどないか小さい場合に相当する。
【0035】
図3のステップS16において、図4の所定領域21、23の重心を算出する。ステップS17において、歩行者像22、24の重心を算出する。ステップS18において、算出した両者の重心の位置P1とQ1またはP2とQ2の横方向(水平方向)での差分をカメラ画像上でのずれ量d1、d2として算出する。なお、ずれ量を算出するための位置は、重心の位置に限られず他の任意の基準により定まる位置、例えば所定領域および歩行者像の水平方向の最大幅の中点等であってもよい。
【0036】
図2に戻って、ステップS2において、ステップS1において算出された位置ずれ量が所定量よりも大きいか否かを判定する。所定量は同期ずれ補正あるいは光軸ずれ補正が必要か否かを判断するための1つのしきい値として設定される。この判定がNoの場合、処理を終了する。図4の例では、(a)の場合の位置ずれ量d1は所定量よりも小さい場合に相当する。判定がYesの場合、次のステップS3に進む。
【0037】
ステップS3において、画像上の所定物体に対する所定領域の位置ずれ方向を算出する。この算出は、画像上の所定物体の位置に対して所定領域の位置が水平方向での右方向または左方向のいずれ側にずれているかを求める。その際、所定物体の移動方向に対して所定領域の位置が同じ方向あるいは逆方向のいずれにずれているかも求める。具体的には、例えば図3のステップS17において求めた歩行者の重心の位置に対して、ステップS16において求めた所定領域の重心が右方向または左方向のいずれ側にずれているかを求める。同時に、歩行者の重心の移動方向に対して所定領域の重心が同じ方向あるいは逆方向のいずれにずれているかも求める。
【0038】
ステップS4において、画像上の所定物体の位置に対して所定領域の位置が同一方向にずれているか否かを判定する。図5は所定領域の位置ずれ方向を説明するための図である。図5は、図4と同様に2値化処理後の白黒画像20上の所定領域と所定物体(歩行者)を示しており、線を認識させるために、線の部分を除いて全体が白くなっているが、実際には歩行者像の背景部分は黒く表示される。
【0039】
図5(a)の像22は歩行者が静止している場合であり、(b)の像24は歩行者が図の右方向に移動している場合であり、(c)の像25は歩行者が図の左方向に移動している場合にそれぞれ相当する。符号23で指示される枠はレーザレーダ10により歩行者の位置(領域)として特定された所定領域である。図5においては、歩行者が静止あるいは左右に移動した場合のいずれの場合においても所定領域23は歩行者像22、24、25の右側にずれている。したがって、画像上の所定物体(歩行者)の位置に対して所定領域の位置が同一方向にずれている場合に該当する。
【0040】
図5で例示される同一方向への位置ずれは、所定物体(歩行者)の移動の有無にかかわらず定常的に一定割合のずれとして発生するので、レーダまたはカメラの光軸ずれに起因していると判定される。したがって、ステップS4の判定がYesの場合、次のステップS5に進み、光軸ずれ補正をおこなう。この光軸ずれ補正の詳細については後述する。
【0041】
ステップS4の判定がNoの場合、ステップS6に進み、画像上の所定物体の移動方向に対して所定領域の位置が逆方向にずれているか否かを判定する。図6は所定領域の位置ずれ方向を説明するための図である。図6は、図5と同様に2値化処理後の白黒画像20上の所定領域と所定物体(歩行者)を示しており、両図で同一符号は同じ対象を示している。
【0042】
図6においては、(a)の歩行者像22が静止している場合は所定領域23の位置ずれはない。(b)の歩行者像24が右方向に移動した場合は、所定領域23は歩行者像24の左側にずれている。一方、(c)の歩行者像24が左方向に移動した場合は、所定領域23は歩行者像24の右側にずれている。したがって、図6の例は、画像上の所定物体(歩行者)の移動方向に対して所定領域の位置が逆方向にずれている場合に該当する。
【0043】
図6で例示される移動方向に対して逆方向への位置ずれは、主にレーザの出力信号(処理)の遅れに起因しており、レーダとカメラの同期ずれが比較的大きい場合であると判定される。したがって、ステップS6の判定がYesの場合、次のステップS7に進み、位相ずれ補正をおこなう。この位相ずれ補正の詳細については後述する。ステップS6の判定がNoの場合は処理を終了する。
【0044】
次に、図7を参照しながら図2のステップS5の光軸ずれ補正の詳細について説明する。図7は、光軸ずれ補正のフローを示す図である。図7のステップS51において、画像上の所定物体の位置に対して所定領域の位置が同一方向にずれている場合、すなわち上述した図5で例示されるレーダまたはカメラの光軸ずれに起因している位置ずれの場合における位置ずれ量dを取得する。この位置ずれ量dの取得は、図4を用いて説明した位置ずれ量d1、d2の場合と同様に、所定物体および所定領域の重心の位置から求める。
【0045】
ステップS52において、得られたずれ量dが所定量ΔL1よりも大きいか否かを判定する。この判定がNoの場合、光軸のずれ量が小さく許容範囲にあるものとして、その補正を行うことなく処理を終了する。判定がYesの場合、ステップS53において、ずれ量dが所定量ΔL2(>ΔL1)よりも小さいか否かを判定する。この判定がNoの場合、光軸のずれ量(角度)が大きくずれ過ぎた範囲にあるものとして、ステップS55に進み、赤外線カメラ12の光軸に補正では調整できない失陥があると判定する。
【0046】
ステップS53の判定がYesの場合、ステップS54において、レーダとカメラの光軸ずれ角度αを算出する。ずれ角度αは、ステップS51で取得したカメラ画像上でのずれ量dと、カメラの焦点距離fとから(1)式により求めることができる。
α = tan−1(d/f) (1)
【0047】
最後にステップS56において、得られた光軸のずれ角度αに相当する補正をおこなう。その補正方法は、画像処理上での補正あるいは光軸自体の調整等従来からの任意の方法を用いておこなう。
【0048】
次に、図8〜図11を参照しながら図2のステップS7の位相ずれ補正の詳細について説明する。図8は、その位相ずれ補正のフローを示す図である。ステップS71において、同期(位相)ずれ補正をおこなうためのデータ区間を特定するために時系列データを取得とする。位相ずれの補正には、レーダとカメラの位相ずれが比較的大きく発生する期間、すなわちレーダまたはカメラが検出する物体の時間的な位置変化量が比較的大きくレーダとカメラの位相ずれ量が検出しやすい期間においてその位相ずれ量を検出することが検出精度の観点等から好ましい。しかし、例えば車両が一般道を走行している場合、その補正に必要な変化を連続的に安定して観測することは困難である。そこで、例えば以下のような方法により、一定時間にわたってデータが時間的に変化している時系列データを取得する。
【0049】
図9はレーダまたはカメラが検出する物体の時間的な位置変化量が大きい区間A〜Dの部分のみを寄せ集めて、連続する区間A´〜D´を作ることを説明するための図である。図9において、上側に示される時間的な位置変化量が大きい区間A〜Dの各部分を寄せ集めて、図の下側の時間T1における連続する区間A´〜D´を作る。図9における物体の時間的な位置変化量が大きい区間は、例えば車両の旋回中のヨーレート、あるいは加/減速時の車速等、車両状態の変化が大きい場合の車両の走行状態を示す各種検出信号から得ることが望ましい。このように、物体の時間的な位置変化量が大きい区間のみを結合し、その結合した区間でのレーザとカメラの位相ずれ量を検出して補正をおこなうことにより、その補正の精度、信頼度を向上させることが可能となる。
【0050】
図10は、所定量以上の時系列データを取得する他の例を説明するための図である。自車が移動(走行)する車載環境では、静止ターゲットは頻繁に入れ替わるため、一般道で補正に必要な変化を連続的に安定して観測することは困難である。そこで、図10の例では、異なる静止ターゲット(歩行者等)の移動速度をつなげることで時間的に連続したデータを生成する。
【0051】
図10の(a)では車両30の進行方向において3つの静止ターゲット1〜3が存在する。車両30の進行にともない3つの静止ターゲット1〜3は徐々に車両30に近づいてくる。(b)はその場合の車両30の速度変化32と静止ターゲット1〜3の速度変化33を示している。静止ターゲット1〜3の速度変化33は、図示したように、各静止ターゲット1〜3の速度変化A〜Cをつなげることで得ており、車両30の速度変化32に対して対称(負)な関係(グラフ)となる。これにより、車両と静止ターゲットの相対的な速度が変化する区間を得ることができ、図9の場合と同様に、その区間におけるレーザとカメラの位相ずれ量を検出して補正をおこなうことにより、その補正の精度、信頼度を向上させることが可能となる。
【0052】
次に、図8のステップS72において、位相ずれ量を算出する。図11は、位相ずれ量の算出方法を説明するための図である。図11の(a)は図4の(b)の部分を抜き出した2値化後の白黒画像20であり、図4と同じ符号番号を付けてある。図4の説明において既に述べたように、レーザレーダ10により歩行者の位置(領域)として特定された所定領域23は、赤外線カメラ12により取得された2値化処理後の歩行者像24よりもずれて表示される。
【0053】
図11の(b)、(c)は、(a)の場合に対応する白黒画像20上の歩行者像24の移動量の時間変化Aと所定領域23の移動量の時間変化B、B´を示す図である。(b)は、(a)の位置ずれがレーダおよびカメラの同期ずれに起因して生じている場合の時間変化を示す。(c)は(a)の位置ずれがレーダまたはカメラの光軸ずれと両者の同期ずれの双方に起因して生じている場合の時間変化を示す。(b)及び(c)のデータは、例えば上述した図9または図10の例によって得られるような比較的変化の大きい連続した区間における各移動量データを切り出して得られるデータの一部である。
【0054】
(b)のグラフから、所定領域23の移動量変化Bは、歩行者像24の移動量変化AよりもΔT1時間だけ位相(信号の立ち上がり)が遅れていることがわかる。したがって、この場合の位相ずれ量はΔT1となる。この位相ずれ量ΔT1は、(a)の画像上での位置ずれ量d2に対応している。
【0055】
(c)のグラフから、所定領域23の移動量変化B´は、歩行者像24の移動量変化AよりもΔT2時間だけ位相(信号の立ち上がり)が遅れていることがわかる。この場合の位相ずれ量はΔT2となる。同時に光軸ずれに起因する定常的な振幅の偏差ΔP1が観測される。したがって、(c)の場合において、(a)の画像上での位置ずれ量d2は、位相ずれ量ΔT2および振幅の偏差ΔP1に起因して生じている。
【0056】
このように、所定区間(時間)における画像上の所定領域および所定物体像の移動量の時間的な変化をモニターすることで両者の位相ずれ量を得ることができる。この位相ずれ量はレーザレーダ10と赤外線カメラ12の出力信号の同期ずれ量に対応している。なお、2つの移動量変化の立ち上がり時刻のずれを見る代わりに、両者の相互相関係数を求めてあるいは位相限定相関法を利用して、得られる関数の周期から位相ずれ量を求めてもよい。
【0057】
ステップS73において、レーザレーダ10の出力信号の処理と赤外線カメラ12の出力信号の画像処理において、図11(b)、(c)の位相ずれ量ΔT1、ΔT2が無くなる(ゼロになる)ように補正(調整)する。具体的には、例えば赤外線カメラ12の出力信号の立ち上がり時刻を位相ずれ量ΔT1、ΔT2に相当する分だけ遅らせる、あるいは所定のクロック(タイミング)信号に同期して、レーザレーダ10および赤外線カメラ12の出力信号が立ち上がるようにする等の処理をおこなう。
【0058】
以上、本発明の実施の形態について説明したが、本発明はこのような実施形態に限定されることはなく、本発明の趣旨を逸脱しない範囲において改変して用いることができる。
【符号の説明】
【0059】
10 レーザレーダ、
12 赤外線カメラ、
14 画像処理ユニット
16 スピーカ、
18 表示装置、
20 カメラ画像
21、23 レーダで検出された所定領域
22、24、25 歩行者像
30 車両
【特許請求の範囲】
【請求項1】
車両の周辺の物体を検出するレーダと、車両の周辺の画像を撮像するカメラと、前記レーダが検出した物体の位置に対応する、前記カメラが撮像した対応画像上の所定領域を特定して当該所定領域内の前記物体を特定する手段とを備える、車両の周辺監視装置であって、
特定された前記対応画像上の所定領域の移動量の時間変化と、前記カメラが撮像した画像上での前記所定物体の移動量の時間変化との位相ずれ量を算出する手段と、
前記位相ずれ量がゼロになるように、前記レーダまたは前記カメラの出力信号の位相補正をおこなう位相補正手段と、
前記対応画像上の前記所定物体に対する前記所定領域の位置ずれ方向が常に同一方向である場合に前記レーダまたは前記カメラの光軸ずれがあると判断し、前記所定領域の位置ずれ方向が前記所定物体の移動方向と逆方向である場合に前記レーダと前記カメラの同期ずれがあると判断する判断手段と、
を有する車両の周辺監視装置。
【請求項2】
前記位相ずれ量を算出する手段は、前記判断手段が前記同期ずれがあると判断する場合に前記位相ずれ量を算出する、請求項1に記載の周辺監視装置。
【請求項3】
さらに、前記対応画像上の前記所定物体に対する前記所定領域の位置ずれ量と、前記カメラの焦点距離とから、前記レーダと前記カメラとにおける光軸ずれ量を算出する手段を有し、
当該光軸ずれ量を算出する手段は、前記判断手段が前記光軸ずれがあると判断する場合に前記光軸ずれ量を算出する、請求項1または2に記載の周辺監視装置。
【請求項1】
車両の周辺の物体を検出するレーダと、車両の周辺の画像を撮像するカメラと、前記レーダが検出した物体の位置に対応する、前記カメラが撮像した対応画像上の所定領域を特定して当該所定領域内の前記物体を特定する手段とを備える、車両の周辺監視装置であって、
特定された前記対応画像上の所定領域の移動量の時間変化と、前記カメラが撮像した画像上での前記所定物体の移動量の時間変化との位相ずれ量を算出する手段と、
前記位相ずれ量がゼロになるように、前記レーダまたは前記カメラの出力信号の位相補正をおこなう位相補正手段と、
前記対応画像上の前記所定物体に対する前記所定領域の位置ずれ方向が常に同一方向である場合に前記レーダまたは前記カメラの光軸ずれがあると判断し、前記所定領域の位置ずれ方向が前記所定物体の移動方向と逆方向である場合に前記レーダと前記カメラの同期ずれがあると判断する判断手段と、
を有する車両の周辺監視装置。
【請求項2】
前記位相ずれ量を算出する手段は、前記判断手段が前記同期ずれがあると判断する場合に前記位相ずれ量を算出する、請求項1に記載の周辺監視装置。
【請求項3】
さらに、前記対応画像上の前記所定物体に対する前記所定領域の位置ずれ量と、前記カメラの焦点距離とから、前記レーダと前記カメラとにおける光軸ずれ量を算出する手段を有し、
当該光軸ずれ量を算出する手段は、前記判断手段が前記光軸ずれがあると判断する場合に前記光軸ずれ量を算出する、請求項1または2に記載の周辺監視装置。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【公開番号】特開2011−232139(P2011−232139A)
【公開日】平成23年11月17日(2011.11.17)
【国際特許分類】
【出願番号】特願2010−101898(P2010−101898)
【出願日】平成22年4月27日(2010.4.27)
【出願人】(000005326)本田技研工業株式会社 (23,863)
【Fターム(参考)】
【公開日】平成23年11月17日(2011.11.17)
【国際特許分類】
【出願日】平成22年4月27日(2010.4.27)
【出願人】(000005326)本田技研工業株式会社 (23,863)
【Fターム(参考)】
[ Back to top ]