車両用対象物検出装置、およびその方法
【課題】自車両から見て同一方向に複数の対象物が存在する場合でも対象物の詳細な情報を正確に取得することを可能とする、車両用対象物検出装置、およびその方法を提供する。
【解決手段】車両用対象物検出装置であって、対象物のレーダ情報を取得するレーダ情報取得手段と、画像を撮像する画像撮像手段と、画像撮像手段によって撮像された画像から画像情報を取得する対象となる第1の画像処理領域を設定する第1の画像処理領域設定手段と、自車両から見て同一方向に複数の対象物のレーダ情報が取得された場合、第1の画像処理領域とは異なる第2の画像処理領域を設定する第2の画像処理領域設定手段と、第2の画像処理領域内の画像情報を取得する画像情報取得手段と、レーダ情報と画像情報とに基いて、第2の画像処理領域内の対象物についての詳細な情報を取得する詳細情報取得手段とを備える。
【解決手段】車両用対象物検出装置であって、対象物のレーダ情報を取得するレーダ情報取得手段と、画像を撮像する画像撮像手段と、画像撮像手段によって撮像された画像から画像情報を取得する対象となる第1の画像処理領域を設定する第1の画像処理領域設定手段と、自車両から見て同一方向に複数の対象物のレーダ情報が取得された場合、第1の画像処理領域とは異なる第2の画像処理領域を設定する第2の画像処理領域設定手段と、第2の画像処理領域内の画像情報を取得する画像情報取得手段と、レーダ情報と画像情報とに基いて、第2の画像処理領域内の対象物についての詳細な情報を取得する詳細情報取得手段とを備える。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両に搭載され、自車両の周辺に存在する車両等の対象物を検出するための対象物検出装置、およびその方法の技術分野に関する。
【背景技術】
【0002】
近年、車両走行時における安全性を向上させるべく、衝突軽減装置や車間距離制御装置などの運転支援装置が開発されている。このような運転支援装置では、自車両の周辺に存在する車両等の対象物の詳細な情報を正確に取得することが重要となる。そのため、例えば、特許文献1に記載の物体検出装置では、レーダセンサ等によって取得された情報(以下、レーダ情報と称する)と画像センサ等によって撮像された画像から取得された情報(以下、画像情報と称する)とに基いて対象物の詳細な情報を取得する処理(以下、フュージョン処理と称する)が行われている。
【0003】
ところが、自車両の前方に乗用車が存在し、自車両と当該乗用車との間に二輪車が存在する場合等であって、画像情報で示される画像上では当該乗用車と当該二輪車が重なっている場合は、画像センサ等は、実際は2つの対象物である当該乗用車と当該二輪車とを、1つの対象物として認識することがある。実際は2つの対象物を、1つの対象物として画像センサ等が認識した場合に、レーダ情報と画像情報をフュージョン処理すると、対象物の詳細な情報が正確に得られない問題がある。
【0004】
この問題を解決するために、特許文献2に記載の車両用障害物検出装置では、画像情報で示される画像上で乗用車等と二輪車等が重なっている場合は、当該画像情報は有効なものではないとして、レーダ情報のみによって障害物の判定を行っている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2007−132748号公報
【特許文献2】特開2008−276689号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかし、特許文献2に記載の車両用障害物検出装置では、画像情報で示される画像上で当該乗用車等と当該二輪車等が重なっている場合、すなわち、自車両から見て同一方向に複数の対象物が存在する場合は、画像情報が有効なものではないとして当該画像情報を障害物の判定に用いないため、対象物の詳細な情報を正確に取得できない。
【0007】
本発明は、上記事実に鑑み、自車両から見て同一方向に複数の対象物が存在する場合でも、フュージョン処理によって対象物の詳細な情報を正確に取得することを可能とする、車両用対象物検出装置を提供することを目的とする。
【課題を解決するための手段】
【0008】
上記目的を達成するために、本発明は、以下に述べる特徴を有する。
第1の発明は、自車両周辺の対象物を検出する車両用対象物検出装置であって、自車両周辺の対象物のレーダ情報を取得するレーダ情報取得手段と、自車両周辺の画像を撮像する画像撮像手段と、上記画像撮像手段によって撮像された画像から画像情報を取得する対象となる第1の画像処理領域を設定する第1の画像処理領域設定手段と、上記レーダ情報取得手段によって上記自車両から見て同一方向に複数の対象物のレーダ情報が取得された場合、上記第1の画像処理領域とは異なる第2の画像処理領域を設定する第2の画像処理領域設定手段と、上記第2の画像処理領域設定手段によって設定された第2の画像処理領域内の画像情報を取得する画像情報取得手段と、上記レーダ情報取得手段によって取得されたレーダ情報と、上記画像情報取得手段によって取得された画像情報とに基いて、上記第2の画像処理領域内の対象物についての詳細な情報を取得する詳細情報取得手段とを備える。
【0009】
第2の発明は、上記第1の発明に従属する発明であって、上記第2の画像処理領域設定手段は、上記複数の対象物のうち、上記自車両からの距離が最も短い対象物に対して上記第2の画像処理領域を設定することを特徴とする。
【0010】
第3の発明は、上記第2の発明に従属する発明であって、上記自車両からの距離が最も短い対象物が静止物であることを特徴とする。
【0011】
第4の発明は、上記第3の発明に従属する発明であって、上記第2の画像処理領域設定手段は、上記静止物に対しては、上記静止物に対する第3の画像処理領域を、上記第2の画像処理領域として設定することを特徴とする。
【0012】
第5の発明は、上記第1〜第4の発明のいずれか1つに従属する発明であって、上記第2の画像処理領域設定手段は、上記第2の画像処理領域を上記第1の画像処理領域よりも狭く設定することを特徴とする。
【0013】
第6の発明は、上記第1〜第5の発明のいずれか1つに従属する発明であって、上記自車両から見て同一方向に検出された複数の対象物間の距離が予め定めた第1のしきい値未満である場合に、第2の画像処理領域を設定することを特徴とする。
【0014】
第7の発明は、上記第1〜第6の発明のいずれか1つに従属する発明であって、上記第2の画像処理領域設定手段は、上記自車両と、上記複数の対象物のうち上記自車両から最も近い対象物との距離が、予め定めた第2のしきい値未満である場合に、第2の画像処理領域を設定することを特徴とする。
【0015】
第8の発明は、上記第1〜第7の発明のいずれか1つに従属する発明であって、上記画像情報取得手段は、上記第1の画像処理領域設定手段によって設定された第1の画像処理領域内の画像情報をさらに取得し、上記詳細情報取得手段は、上記レーダ情報取得手段により取得されたレーダ情報と、上記第1の画像処理領域内の画像情報とに基いて、第1の画像処理領域内の対象物についての詳細な情報を取得することを特徴とする。
【0016】
第9の発明は、上記第1〜第8の発明のいずれか1つに従属する発明であって、上記第2の画像処理領域設定手段は、上記レーダ情報取得手段によって取得されたレーダ情報に基いて上記自車両の周辺に複数の対象物が存在すると判定し、かつ、上記複数の対象物が上記第1の画像処理領域内に存在すると判定した場合に、上記第1の画像処理領域内に存在する上記複数の対象物は上記自車両から見て同一方向に存在すると判定することを特徴とする。
【0017】
第10の発明は、上記第1〜第9の発明のいずれか1つに従属する発明であって、上記詳細情報取得手段は、上記レーダ情報取得手段によって取得されたレーダ情報で示される対象物の位置が、上記画像情報取得手段によって取得された画像情報で示される上記対象物の領域内にある場合に、上記レーダ情報と上記画像情報とに基いて上記対象物についての詳細な情報を取得することを特徴とする。
【0018】
自車両周辺の対象物を検出する車両用対象物検出方法であって、自車両周辺の対象物のレーダ情報を取得するレーダ情報取得ステップと、自車両周辺の画像を撮像する画像撮像ステップと、上記画像撮像ステップによって撮像された画像から画像情報を取得する対象となる第1の画像処理領域を設定する第1の画像処理領域設定ステップと、上記レーダ情報取得ステップによって上記自車両から見て同一方向に複数の対象物のレーダ情報が取得された場合、上記第1の画像処理領域とは異なる第2の画像処理領域を設定する第2の画像処理領域設定ステップと、上記第2の画像処理領域設定ステップによって設定された第2の画像処理領域内の画像情報を取得する画像情報取得ステップと、上記レーダ情報取得ステップによって取得されたレーダ情報と、上記画像情報取得ステップによって取得された画像情報とに基いて、上記第2の画像処理領域内の対象物についての詳細な情報を取得する詳細情報取得ステップとを備える。
【発明の効果】
【0019】
本発明によれば、自車両から見て同一方向に複数の対象物が存在する場合でもフュージョン処理によって対象物の詳細な情報を正確に取得することを可能とする、車両用対象物検出装置、およびその方法を提供することができる。
【図面の簡単な説明】
【0020】
【図1】第1の実施形態に係る車両用対象物検出装置の概略構成を示すブロック図
【図2A】画像取得部によって撮像した画像の一例を示した図
【図2B】第1の画像処理領域を設定した画像の一例を示した図
【図2C】第2の画像処理領域を設定した画像の一例を示した図
【図2D】各対象物間の距離が一定以上離れている場合の画像の一例を示した図
【図3】第1の実施形態に係る処理部の処理の流れを示すフローチャート
【図4】第2の実施形態に係る処理部の処理の流れを示すフローチャート
【図5A】レーダ検出部が先行車の先行車を検出する場面の一例を示した図
【図5B】図5Aの状況を画像取得部によって撮像した画像の一例を示した図
【図5C】図5Bの画像に第1の画像処理領域を設定した画像の一例を示した図
【図6】第3の実施形態に係る処理部の処理の流れを示すフローチャート
【図7A】レーダ検出部が障害物ではない対象物を検出する場面の一例を示した図
【図7B】図7Aの状況を画像取得部によって撮像した画像の一例を示した図
【図7C】図7Bの画像に第1の画像処理領域を設定した画像の一例を示した図
【図7D】図7Cの画像に第2の画像処理領域を設定した画像の一例を示した図
【図8A】先行車が自車両に近づいて来る場面の一例を示した図
【図8B】図8Aの状況における先行車のオプティカルフローの一例を示した図
【図8C】画面上の特徴点とオプティカルフローとの関係を示すグラフ
【図9】第4の実施形態に係る処理部の処理の流れを示すフローチャート
【図10】レーダ情報で示される対象物の横位置と画像情報で示される対象物の横幅との関係を示した図
【発明を実施するための形態】
【0021】
(第1の実施形態)
図1は、本発明の第1の実施形態に係る車両用対象物検出装置1の概略構成を示すブロック図である。本実施形態に係る車両用対象物検出装置1は、レーダ検出部11と、画像取得部12と、処理部13とを備えている。処理部13は、画像処理部131、および判定部132を含む。
【0022】
レーダ検出部11は、判定部132に接続されている。レーダ検出部11としては、例えばレーザレーダ、マイクロ波レーダ、ミリ波レーダ、および超音波レーダ等を用いることができる。レーダ検出部11は、電磁波等を自車両の周辺に発信し、自車両の周辺に存在する物体に反射する反射波等を受信することにより、自車両周辺に存在する対象物との距離、相対速度、および当該対象物の存在する方向等を検出する。そして、レーダ検出部11は、自車両周辺に存在する対象物との距離、相対速度、および当該対象物の存在する方向等を検出した結果の情報であるレーダ情報を示す信号(以下、レーダ信号と称する)を判定部132に出力する。なお、本実施形態では、レーダ検出部11は自車両の前方の対象物のレーダ情報を検出するように設置されているものとして説明をするが、本発明の趣旨はこれに限られるものではなく、自車両の後方、側方等の他の方向についても適用可能である。
【0023】
画像取得部12は、画像処理部131と接続されている。画像取得部12は、典型的には、CMOS(Complementary Metal Oxide Semiconductor)、或いはCCD(Charge Coupled Device)を用いて自車両の周囲の画像を撮像するカメラと、当該カメラで撮像された画像を処理する処理回路とで主に構成される。画像取得部12は、自車両の周囲の画像を上記カメラで撮像し、撮像した画像を示す信号(以下、画像信号と称する)を画像処理部131に出力する。なお、本実施形態では、画像取得部12は自車両の前方の画像を取得するように設置されているものとして説明をするが、本発明の趣旨はこれに限られるものではなく、自車両の後方、側方等の他の方向についても適用可能である。
【0024】
画像処理部131は、画像取得部12および判定部132と接続されている。画像処理部131は、画像取得部12から出力される画像信号を受け取る。画像処理部131は、公知の手法を用いて、画像取得部12から受け取った画像信号によって示される画像に画像処理をするための領域(以下、第1の画像処理領域と称する)を設定する。なお、第1の画像処理領域を設定した画像を、以下、画像処理領域設定画像と称する。第1の画像処理領域を設定するための処理の手法の一例としては、画像にエッジ処理等の画像処理を行うことによって、第1の画像処理領域を設定する手法が挙げられる。
【0025】
画像処理部131は、画像処理領域設定画像における第1の画像処理領域内の対象物の横幅、縦幅、および自車両から見た対象物の横位置等を示す画像情報を取得する。また、例えば、パターンマッチング等により、画像から対象物の種類を特定し、特定した対象物の種類の情報を画像情報に含めても良い。画像処理部131は、画像情報を示す信号(以下、画像情報信号と称する)を判定部132に出力する。
【0026】
判定部132は、典型的には、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)などで主に構成されるECU(Electronic Control Unit)である。判定部132は、レーダ検出部11および画像処理部131と接続されている。判定部132は、レーダ検出部11から出力されるレーダ信号、ならびに画像処理部131から出力される画像情報信号をそれぞれ受け取る。
【0027】
判定部132は、受け取ったレーダ信号で示されるレーダ情報と、同じく受け取った画像情報信号で示される画像情報とをフュージョン処理することにより、対象物の詳細な情報を取得する。
【0028】
しかし、単にレーダ情報と第1の画像処理領域の画像情報とをフュージョン処理するだけでは対象物の詳細な情報を正確に取得できない場合がある。単にレーダ情報と第1の画像処理領域の画像情報とをフュージョン処理するだけでは対象物の詳細な情報を正確に取得できない場合について、図2Aおよび図2Bを参照しつつ説明する。
【0029】
図2Aは、自車両から見て同一方向に複数の対象物が存在している状況を、画像取得部12によって撮像した画像を簡略的に示した図である。図2Aの画像に係る状況は、自車両の前方に対象物22が存在し、さらに前方に対象物22より幅等の大きい対象物21が存在する状況である。図2Aの画像に係る状況において、対象物21より幅等の小さい対象物22は、典型的には二輪車であって、対象物22より幅等の大きい対象物21は、典型的には乗用車である。
【0030】
図2Aの画像に係る状況では、レーダ検出部11は、電磁波等を自車両の周辺に発信し、自車両の周辺に存在する物体に反射する反射波等を受信することにより、自車両周辺に存在する対象物22のレーダ情報、および自車両周辺に存在する対象物21のレーダ情報を取得する。そして、レーダ検出部11は、対象物22および対象物21それぞれについてのレーダ情報に係るレーダ信号を判定部132に出力する。
【0031】
同じく図2Aの画像に係る状況では、画像取得部12は、自車両の周囲の画像を上記カメラで撮像し、撮像した画像(すなわち図2A)を示す画像信号を画像処理部131に出力する。画像処理部131は、画像取得部12から受け取った画像信号によって示される図2Aに示す画像に、第1の画像処理領域を設定する。このとき、画像上の対象物としては、対象物22および対象物21が存在しているので、本来であれば対象物22および対象物21それぞれについて第1の画像処理領域を設定する必要がある。しかし、対象物22および対象物21は図2Aに示す画像上では一体となっているため、画像処理部131は、当該画像上で一体となっている対象物22および対象物21を1つの対象物として認識してしまうことがある。画像処理部131は、当該画像上で一体となっている対象物22および対象物21を1つの対象物として認識した場合、当該画像上で一体となっている対象物22および対象物21に対して1つの第1の画像処理領域を設定してしまう。
【0032】
図2Bは、画像上では一体となっている対象物22および対象物21に対して1つの第1の画像処理領域23を設定した場合の画像処理領域設定画像を簡略的に示した図である。上述のように、画像処理部131は、画像処理領域設定画像における第1の画像処理領域23内の対象物の画像情報を取得する。しかし、取得した画像情報は、対象物22および対象物21を1つの対象物として認識した状態で取得した画像情報である。画像処理部131は、対象物22および対象物21を1つの対象物として認識した上で取得した画像情報に係る画像情報信号を判定部132に出力する。一方、画像処理部131が画像上で一体となっている対象物22および対象物21に対して1つの第1の画像処理領域23を設定した場合でも、レーダ検出部11は、上述したように、対象物22および対象物21それぞれについてレーダ情報を取得し、取得したレーダ情報に係るレーダ信号を判定部132に出力する。
【0033】
判定部132は、レーダ検出部11から出力された対象物22および対象物21それぞれについてのレーダ信号、ならびに画像処理部131から出力される対象物22および対象物21を1つの対象物として認識した状態の画像情報信号をそれぞれ受け取る。
【0034】
しかし、受け取った画像情報信号で示される画像情報が対象物22および対象物21を1つの対象物として認識した状態の画像情報であるため、判定部132が、当該画像情報と、受け取ったレーダ信号で示される対象物22および対象物21それぞれについてのレーダ情報とを単にフュージョン処理したとしても、対象物22および対象物21それぞれについての詳細な情報を正確に取得することができない。
【0035】
そこで、本実施形態に係る判定部132は、レーダ情報に基いて、自車両から見て同一方向に複数の対象物が存在するか否かを判定し、自車両から見て同一方向に複数の対象物が存在すると判定した場合は、レーダ情報から算出される自車両との距離が最も短い対象物に対して新たな画像処理領域(以下、第2の画像処理領域と称する)を設定する。本実施形態に係る判定部132は、自車両から見て同一方向に複数の対象物が存在すると判定した場合に、レーダ情報から算出される自車両との距離が最も短い対象物に対して第2の画像処理領域を設定することによって、対象物毎の画像情報を取得することができる。そして、判定部132は、取得した対象物毎の画像情報と、対象物毎のレーダ情報をフュージョン処理することによって、対象物の詳細な情報を取得することができる。第2の画像処理領域を設定する処理の具体的な流れを図2Bおよび図2Cを用いて説明する。
【0036】
判定部132は、受け取ったレーダ信号で示される対象物22および対象物21それぞれについてのレーダ情報に基いて、自車両から見て同一方向に複数の対象物が存在するか否かを判定する。自車両から見て同一方向に複数の対象物が存在するか否かを判定する手法の例としては、画像情報とレーダ情報とを参照して、第1の画像処理領域内に対象物が複数あるか否かを判定することによって判定する手法が挙げられる。すなわち、判定部132が、レーダ情報を参照して、第1の画像処理領域内に対象物が複数あると判定した場合、判定部132は、「自車両から見て同一方向に複数の対象物が存在する」と判定する。一方、判定部132が、レーダ情報を参照して、第1の画像処理領域内の対象物が複数ではないと判定した場合、判定部132は、「自車両から見て同一方向に複数の対象物は存在しない」と判定する。なお、対象物が複数あるかどうかを判定する方法の一例としては、レーダ情報で示される自車両と各対象物との相対速度がそれぞれ異なることに基いて判定する手法が挙げられる。
【0037】
判定部132は、自車両から見て同一方向に複数の対象物が存在すると判定した場合は、レーダ情報から算出される自車両との距離が最も短い対象物に対して第2の画像処理領域を設定する。第2の画像処理領域を設定する際の当該画像処理領域の大きさを決める手法の一例としては、以下のような手法が考えられる。対象物が画像上で占める大きさは、対象物自体の大きさ、自車両と対象物との距離、および各対象物間の距離等で決まる。そこで、まず、自車両から見て同一方向に対象物が複数あると判定部132によって判定される状況を予め想定する。すなわち、対象物が自車両から見て同一方向に複数あると処理部13によって判定される状況は、図2Aの画像に係る状況のような、自車両の前方に対象物22が存在し、そのさらに前方に対象物22より幅等の大きい対象物21が存在する状況であって、自車両との距離が最も短い対象物22に該当する車両は二輪車であると予め想定する。次に、対象物自体の大きさ、および自車両と対象物との距離等と、当該対象物が画像上で占める大きさの関係についての情報を、図示していない記憶装置に予め記憶させておく。そして、判定部132が、「自車両から見て同一方向に複数の対象物が存在する」と判定した場合、レーダ情報で示される自車両と対象物との距離や自車両から見た方向等を参照し、予め記憶させておいた、二輪車が画像上で占める大きさを第2の画像処理領域として設定する手法が考えられる。
【0038】
図2Cは、判定部132は、自車両から見て同一方向に複数の対象物が存在すると判定した場合に、自車両との距離が最も短い対象物22に対して第2の画像処理領域24を設定した画像処理領域設定画像を簡略的に示した図である。判定部132は、第2の画像処理領域内の対象物22の画像情報を取得し、取得した対象物22の画像情報と、対象物22のレーダ情報とをフュージョン処理することにより対象物22の情報を正確に取得する。また、判定部132は、第1の画像処理領域内の対象物21の画像情報を取得し、取得した対象物21の画像情報と、対象物21のレーダ情報とをフュージョン処理することにより対象物21の情報を正確に取得するようにしても良い。
【0039】
一方、判定部132は、自車両から見て同一方向に複数の対象物が存在しないと判定した場合は、第2の画像処理領域を設定することなく、第1の画像処理領域内の対象物の画像情報と当該対象物のレーダ情報とをフュージョン処理することにより当該対象物の詳細な情報を取得する。
【0040】
以上が、第1の実施形態に係る車両用対象物検出装置1の概略構成についての説明である。
【0041】
図3は、本実施形態に係る処理部13の処理の流れを示すフローチャートである。以下、図3に示すフローチャートを参照しながら、処理部13の処理の流れを説明する。
【0042】
画像処理部131は、画像取得部12から出力される画像信号によって示される画像に第1の画像処理領域を設定する(ステップS301)。判定部132は、レーダ検出部11から出力されるレーダ信号によって示されるレーダ情報を参照する(ステップS302)。判定部132は、自車両から見て同一方向に対象物が複数あるかどうかを判定する(ステップS303)。自車両から見て同一方向に対象物が複数あると判定した場合(ステップS303でYES)、判定部132は、自車両との距離が最も短い対象物に対して第2の画像処理領域を設定し(ステップS304)、第2の画像処理領域の画像情報と第2の画像処理領域内の対象物のレーダ情報とをフュージョン処理して第2の画像処理領域内の対象物の詳細な情報を取得し(ステップS305)、処理を終える。自車両から見て同一方向に対象物が複数存在しないと判定した場合(ステップS303でNO)、判定部132は、第1の画像処理領域の画像情報と第1の画像処理領域に係る対象物のレーダ情報とをフュージョン処理して対象物の詳細な情報を取得し(ステップS305)、処理を終える。
【0043】
以上が本実施形態に係る車両用対象物検出装置1の説明である。第1の実施形態に係る車両用対象物検出装置1によれば、第2の画像処理領域を設定することにより、自車両から見て同一方向に対象物が複数存在する場合でも、対象物毎の画像情報を取得することができる。そして、第1の実施形態に係る車両用対象物検出装置1によれば、取得した対象物毎の画像情報と、対象物毎のレーダ情報をフュージョン処理することによって、対象物のそれぞれについての詳細な情報を取得することができる。
【0044】
なお、上記において、自車両から見て同一方向に複数の対象物が存在するか否かを判定する手法の例として、画像情報とレーダ情報とを参照して、第1の画像処理領域内に対象物が複数あるか否かを判定することによって判定する手法を挙げた。しかしながら、自車両から見て同一方向に複数の対象物が存在するか否かを判定する手法に他の手法を用いても良い。自車両から見て同一方向に複数の対象物が存在するか否かを判定する手法の他の例としては、レーダ情報に含まれる、対象物が存在する自車両から見た方向を示す情報に基いて判定する手法が挙げられる。すなわち、仮に、自車両の周辺に2つの対象物(以下、それぞれを対象物T1、対象物T2と称する。)が存在する場合、各対象物のレーダ情報を参照して、自車両から見た対象物T1が存在する方向と、自車両から見た対象物T2が存在する方向とがなす角度を検出し、検出結果である当該角度の絶対値が、予め定めた方向判定しきい値を超えない場合に、判定部132は、「自車両から見て同一方向に複数の対象物が存在する」と判定する。一方、上記検出結果である上記角度の絶対値が、予め定めた方向判定しきい値を超える場合は、判定部132は、「自車両から見て同一方向に複数の対象物は存在しない」と判定する。
【0045】
また、対象物22と対象物21とが一定以上離れている場合の処理について説明する。図2Dは、対象物22と対象物21とが一定以上離れている状況を画像取得部12によって撮像した画像を簡略的に示した図である。図2Dの画像に係る状況は、自車両の前方に対象物22が存在し、さらに前方に対象物22より幅等の大きい対象物21が存在する状況であって、対象物22と対象物21とが一定以上離れている状況である。図2Dの画像で示されるように、対象物22と対象物21とが一定以上離れている場合、自車両から見ると、対象物21は対象物22に隠れる。したがって、画像処理部131は、対象物22に対して1つの第1の画像処理領域23を設定し、判定部132は対象物22の画像情報を取得する。一方、図2Dの画像で示されるように、対象物22と対象物21とが一定以上離れていることによって、図2Dの画像上では対象物21が対象物22に隠れていても、レーダ検出部11は、対象物22および対象物21それぞれについてのレーダ情報を取得し得る。この状況は判定部132が「自車両から見て同一方向に複数の対象物が存在する」と判定する状況であるため、第1の実施形態に係るステップS303からステップS304の処理をそのまま適用すれば、第2の画像処理領域を設定する処理(ステップS304)を行うことになる。しかしながら、上述した図2A〜図2Cに示す状況とは異なり、判定部132は、自車両からの距離が最も短い対象物22についての画像情報のみ取得することから、対象物22のレーダ情報と、対象物22の画像情報とをフュージョン処理することにより対象物22の情報を正確に取得することができる。したがって、対象物22と対象物21とが一定以上離れている場合は、ステップS304の処理は不要になる。そこで、対象物22と対象物21との距離が所定値以上である場合は、ステップS304の処理は行わず、対象物22と対象物21の距離が所定値未満の場合は、ステップS304の処理を行うようにしても良い。具体的には、レーダ情報で示される対象物22と対象物21との距離Lvに予めしきい値Lthを設け、レーダ情報で示される対象物22と対象物21との距離Lvがしきい値Lth未満である場合はステップS304の処理を行い、当該距離Lvがしきい値Lth以上である場合は、ステップS304の処理を行わないとすることが考えられる。なお、予めしきい値Lthを定めるにあたっては、各対象物間の距離だけでなく、自車両と各対象物との距離を考慮して定めても良い。また、対象物の大きさ等も考慮して定めても良い。
【0046】
(第2の実施形態)
次に、判定部132が第2の画像処理領域を設定するか否かを判断するにあたって、自車両と、自車両の前方に存在する対象物との距離を考慮する実施態様について説明する。なお、本実施形態についての説明は、第1の実施形態の説明で付した符号を使用し、上述した実施形態と異なる部分についてのみ説明する。
【0047】
図4は、本実施形態に係る処理部13の処理の流れの一例を示すフローチャートである。本実施形態では、前述した図3に示す第1の実施形態における処理部13の処理の流れを示すフローチャートのステップS303とステップS304の間に、自車両と、自車両からの距離が最も短い対象物との距離Lmが、予め定めたしきい値Lo未満か否かを判定するステップS401を設けている。
【0048】
判定部132は、自車両から見て同一方向に複数の対象物が存在すると判定した場合(ステップS303でYES)、レーダ情報を参照し、自車両と、自車両からの距離が最も短い対象物22との距離Lmが、予め定めたしきい値Lo未満か否かを判定する(ステップS401)。
【0049】
判定部132は、自車両と自車両からの距離が最も短い対象物との距離Lmが、予め定めたしきい値Lo未満である場合(ステップS401でYES)、自車両との距離が最も短い対象物に対して第2の画像処理領域を設定する(ステップS304)。判定部132は、自車両と自車両からの距離が最も短い対象物との距離Lmが、予め定めたしきい値Lo以上である場合(ステップS401でNO)、第2の画像処理領域を設定しない。
【0050】
上記のような処理を行う理由を図5A〜図5Cを参照して説明する。図5Aは、自車両51の前方に対象物53(例えば乗用車等)が存在し、かつ、自車両51と対象物53の間に対象物52(例えば乗用車等)が存在する状況を簡略的に示した図である。図5Bは、図5Aで示される状況を画像取得部12によって撮像した画像を簡略的に示した図である。図5Bは、対象物53は対象物52に隠れてしまい、画像取得部12によって撮像した画像からは対象物52しか認識できないことを示している。画像処理部131は、図5Bに示す画像に対し、対象物52について第1の画像処理領域を設定し、対象物52の画像情報を取得する。図5Cは、画像処理部131が、図5Bに示す画像に対し、対象物52について第1の画像処理領域56を設定した画像処理領域設定画像を簡略的に示した図である。一方、判定部132は、図5Aに示すようにレーダ検出部11が発信した電磁波等の反射波等54を受信することにより、対象物52のレーダ情報を取得する。さらに、自車両51と対象物52との距離Lmが一定以上長い場合、レーダ検出部11は、対象物52の車体と路面の隙間等を通った反射波等55を受信することにより、対象物53のレーダ情報を取得し得る。すなわち、判定部132は、対象物52について画像情報を取得しており、かつ、対象物52と対象物53それぞれのレーダ情報を取得しているので、「自車両51から見て同一方向に対象物が複数存在している」と判定することになる。この場合において、第1の実施形態に係るステップS303からステップS304の処理をそのまま適用すると、自車両から見て対象物52の手前に第2の画像処理領域を設定すべき対象物は存在しないにもかかわらず、判定部132は、第2の画像処理領域を設定してしまうことになる。しかし、本実施形態に係る判定部132によれば、自車両51と対象物52との距離Lmが一定以上長い場合には第2の画像処理領域を設定する処理は行わないので、レーダ検出部11が反射波等55を検出して対象物53のレーダ情報を取得したとしても、不必要な第2の画像処理領域を設定することを防ぐことができる。
【0051】
以上が本実施形態に係る車両用対象物検出装置1の説明である。本実施形態に係る車両用対象物検出装置1によれば、レーダ検出部11が反射波等55を検出して対象物53のレーダ情報を取得したとしても、自車両51と対象物52との距離Lmが一定以上長い場合には第2の画像処理領域を設定する処理をすることなく、自車両からの距離が最も短い対象物の詳細な情報を正確に取得することができる。
【0052】
(第3の実施形態)
次に、判定部132が、第2の画像処理領域を設定するか否かを判断するにあたって、対象物が静止物か否かを考慮する実施態様について説明する。なお、本実施形態についての説明は、上述した実施形態の説明で付した符号を使用し、上述した実施形態と異なる部分についてのみ説明する。
【0053】
図6は、本実施形態に係る処理部13の処理の流れの一例を示すフローチャートである。本実施形態に係るフローチャートでは、第1の実施形態における処理部13の処理の流れを示す図3のフローチャートのステップS303とステップS305の間に、対象物が路面に対して静止しているか否かを判定するステップS601、および路面に対して静止物である対象物(以下、静止物と称する)に対する新たな画像処理領域(以下、第3の画像処理領域と称する)を設定するステップS602を設けている。
【0054】
判定部132は、自車両から見て同一方向に複数の対象物が存在すると判定した場合(ステップS303でYES)、対象物のレーダ情報の速度情報を参照して、対象物が静止物か否かを判定する(ステップS601)。判定部132は、対象物が静止物であると判定した場合(ステップS601でYES)、当該対象物に対して第3の画像処理領域を設定する(ステップS602)。判定部132が、対象物が静止物ではないと判定した場合(ステップS601でNO)、当該対象物に対して第3の画像処理領域を設定しない。判定部132は、当該静止物のレーダ情報とステップS602で設定した第3の画像処理領域の画像情報とをフュージョン処理することより、当該静止物の詳細な情報を取得する。また、判定部132は、第1の画像処理領域の対象物に対しては第1の画像処理領域の画像情報等をフュージョン処理することにより、当該対象物の詳細な情報を取得する。
【0055】
上記のような処理を行う理由を図7A〜図7Dを参照して説明する。図7Aは、自車両71の前方に対象物72(例えば乗用車)が存在し、かつ、自車両71と対象物72との間の路面等に、自車両71にとって障害物ではない対象物73(例えば路上の鉄板やマンホール等)が存在する状況を簡略的に示した図である。図7Bは、図7Aに係る状況を画像取得部12によって撮像した画像を簡略的に示した図である。図7Bは、自車両71と対象物72の位置関係によっては、対象物72および対象物73が画像上で一体となっていることを示している。対象物72および対象物73が画像上で一体となっている場合、画像処理部131は、画像上で一体となっている対象物72および対象物73を1つの対象物として第1の画像処理領域を設定する可能性がある。図7Cは、図7Bに係る画像に第1の画像処理領域74を設定した画像処理領域設定画像を簡略的に示した図である。図7Cは、画像処理部131が、画像上で一体となっている対象物72および対象物73に対して1つの第1の画像処理領域74を設定したことを示している。しかし、判定部132が、対象物72および対象物73を1つの対象物として認識した状態の画像情報と、対象物72および対象物73それぞれについてのレーダ情報とを単にフュージョン処理したとしても、対象物72および対象物73それぞれについての詳細な情報を正確に取得することができない。そこで、本実施形態に係る判定部132では、自車両からの距離が最も短い対象物73が静止物である場合は、当該対象物73に対して第3の画像処理領域を設定することとしている。図7Dは、図7Cに係る画像に第3の画像処理領域75を設定した画像処理領域設定画像を簡略的に示した図である。自車両からの距離が最も短い対象物73が静止物である場合に当該対象物73に対して第3の画像処理領域75を設定するのは、対象物73が静止物であれば、対象物73は自車両71にとって障害物ではないと考えられるためである。本実施形態に係る判定部132によれば、自車両からの距離が最も短い対象物73が静止物である場合は、対象物73に対して第3の画像処理領域75を設定するため、対象物73に対しては第3の画像処理領域75内の対象物73の画像情報等をフュージョン処理することにより、対象物73についての詳細な情報を正確に取得することができる。また、対象物72に対しては第1の画像処理領域74内の対象物72の画像情報等をフュージョン処理することにより、対象物72についての詳細な情報を正確に取得することができる。
【0056】
なお、本実施形態では、対象物が自車両にとって障害物であるか否かを判定するにあたって、当該対象物が静止物であるか否かを判定することとした。しかしながら、路上に止まっている二輪車等を考慮し、対象物が静止物であるか否かの判定に加え、当該対象物が立体物か否かを判定することによって当該対象物が障害物か否かを判定するようにしても良い。すなわち、対象物が静止物、かつ、非立体物である場合に自車両にとって障害物ではないと判定し、対象物が静止物ではない場合もしくは対象物が立体物である場合に自車両にとって障害物であると判定するようにしても良い。
【0057】
対象物が静止物であるか否かを判定する手法としては、自車両の車速測定手段(図示せず)により取得された自車両の車速Vsから自車両と対象物の相対速度Vrを減算した値の絶対値が、予め定めた定数ΔVよりも小さい場合は、当該対象物は静止物であると判定する手法が挙げられる。
【0058】
対象物が非立体物か否かを判定する手法の一例としては、第3の画像処理領域内の画像を処理して第3の画像処理領域内の対象物のオプティカルフローを算出し、算出したオプティカルフローが立体物のオプティカルフローなのか非立体物のオプティカルフローなのかを判定することにより、対象物が非立体物か否かを判定する手法が挙げられる。オプティカルフローの算出手法の一例としては以下の手法が挙げられる。
【0059】
図8Aは、先行車82が自車両81に近づく場面を表した図である。図8Aにおける先行車82’(点線で表す)は、自車両81に近づく前の状態を表し、図8Aにおける先行車82(実線で表す)は、自車両81に近づいた後の状態を表す。図8Aの(A)は、先行車82が自車両81に近づく場面を、車両の進行方向に対して横から垂直方向に見た場合を表した図である。図8Aの(B)は、先行車82’が自車両81に近づく場面を、上空から見た場合を表した図である。自車両81と先行車82’との距離はLで表し、先行車82’が自車両81に近づいた距離をΔLで表す。特徴点83は、先行車82の任意の特徴点の1つを表す。xは、自車両81の走行方向に伸ばした自車両81の中心線を基準とする特徴点83’の横位置を表す。Δxは、先行車82’が距離ΔLだけ自車両に近づいた場合の、特徴点83’の画像上の移動ベクトル、すなわちオプティカルフローを表す。図8Bは、先行車82’が自車両81に近づいた場合のオプティカルフローを表した図である。図8Bにおける先行車82’(点線で表す)は、先行車82’と自車両81との距離がLのときにおける画像上の見え方を表し、図8Bにおける先行車82(実線で表す)は、先行車82’が距離ΔLだけ自車両81に近づいた場合の画像上の見え方を表す。図8B中の各矢印は、先行車82’および先行車82の特徴点の移動ベクトルを示すオプティカルフローを表す。なお、LやΔLは、レーダ情報の距離情報や、相対速度情報から演算する。
【0060】
ここで、オプティカルフローΔxは式(1)で表される。
Δx=(x/L)×ΔL…式(1)
【0061】
図8Cは、式(1)におけるΔxとxとの関係を表したグラフを示した図である。式(1)におけるΔxとxとの関係を、Δxを縦軸、xを横軸にとったグラフで表すと、図8Cに示すように、原点を通る右上がりの直線となる。
【0062】
仮に、オプティカルフローを求める画像上の領域を、対象物が存在する距離の所定の高さに設定している場合において、レーダ検出部11が検出した対象物がマンホールのような非立体物の場合、当該所定の高さに存在していない対象物のオプティカルフローを演算することになるため、図8Cのような直線関係とならない。したがって、オプティカルフローが図8Cに示す関係になっているか否かを判定することにより対象物が立体物か非立体物かを判定することができる。
【0063】
以上、オプティカルフローの原理を利用して対象物が立体物か非立体物かを判定する手法の一例を説明したが、当該手法をより信頼度高く適用するには、図8Cのオプティカルフローのグラフを求める画像処理領域を適切に定める必要がある。自車両から見て同一方向に対象物が複数存在する場合は、この画像処理領域を、自車両からの距離が最も短い対象物に対して設定する第2の画像処理領域とすることで、当該手法の信頼度をより高くすることができる。なお、上記オプティカルフローによって対象物が立体物か否かを判定する手法は、第3の実施形態に限らず、他の実施形態に適用しても良い。
【0064】
また、図6に示す本実施形態に係る判定部132の処理は、判定部132が、対象物が静止物ではないと判定した場合(ステップS601でNO)のフローに、当該対象物に対して二輪車を想定した第2の画像処理領域を設定するステップ(図3等のステップS304に相当)を設け、当該対象物のレーダ情報と、設定した第2の画像処理領域の画像情報とをフュージョン処理して、当該対象物の詳細な情報を取得するようにしても良い。
【0065】
以上が本実施形態に係る車両用対象物検出装置1の説明である。本実施形態に係る車両用対象物検出装置1によれば、自車両から見て同一方向に複数の対象物が存在する場合であって、自車両からの距離が最も短い対象物が静止物である場合は当該静止物に対して第3の画像処理領域を設定するため、第3の画像処理領域についての画像情報と第3の画像処理領域の対象物のレーダ情報とをフュージョン処理して、当該静止物の詳細な情報を正確に取得することができる。また、第1の画像処理領域の対象物に対しては第1の画像処理領域の画像情報等をフュージョン処理することにより、当該対象物の詳細な情報を正確に取得することができる。
【0066】
(第4の実施形態)
次に、判定部132がフュージョン処理をするかどうか判断するにあたって、レーダ情報で示される対象物の横位置情報と、画像情報で示される対象物の横幅情報を考慮する実施態様について説明する。なお、本実施形態についての説明は、上述した実施形態の説明で付した符号を使用し、上述した実施形態と異なる部分についてのみ説明する。
【0067】
図9は、本実施形態に係る処理部13の処理の流れの一例を示すフローチャートである。以下、図9に示すフローチャートを参照しながら、処理部13の処理の流れを説明する。
【0068】
判定部132は、画像情報およびレーダ情報を参照する(ステップS901およびステップS302)。そして、参照したレーダ情報に基いて自車両から見て同一方向に対象物が複数あるかどうかを判定する(ステップS303)。判定部132は、自車両から見て同一方向に対象物が複数あると判定した場合(ステップS303でYES)、レーダ情報で示される、自車両からの距離が最も短い対象物の横位置が、当該対象物の画像情報で示される横幅内に収まっているか否かを判定する(ステップS902)。判定部132は、レーダ情報で示される、自車両からの距離が最も短い対象物の横位置が、画像情報で示される当該対象物の横幅内に収まっていないと判定した場合(ステップS902でNO)、フュージョン処理をしない。判定部132は、レーダ情報で示される、自車両からの距離が最も短い対象物の横位置が、画像情報で示される当該対象物の横幅内に収まっていると判定した場合(ステップS902でYES)、もしくは自車両から見て同一方向に対象物が複数ないと判定した場合(ステップS303でNO)、画像情報等をフュージョン処理する(ステップS305)。
【0069】
上記のような処理を行う理由を図10を参照しつつ説明する。図10は、レーダ情報で示される対象物の横位置と画像情報で示される対象物の横幅との関係を簡略的に示した図である。図10に示す状況は、自車両(図示せず)の前方に対象物101が存在する状況である。
【0070】
図10の(A)〜(C)における横位置102は、レーダ情報から算出される自車両から見た対象物101の横位置を示す。図10の(A)〜(C)にそれぞれにおける横幅103A〜Cは、(A)〜(C)それぞれにおける画像情報から算出される対象物101の横幅を示す。図10の(A)における横幅103Aは、対象物101の横幅が、画像情報によって適切に表されている状態を示す。しかし、車両の色や日光のあたり方等の影響により、画像情報が対象物の横幅を適切に表していない場合がある。図10の(B)における横幅103Bは、実際には1つである対象物101が、画像情報では分断されて2つの対象物であると認識されている状態を示す。図10の(C)における横幅103Cは、画像情報で示される対象物101の横幅が、実際の横幅(すなわち横幅103A)よりも狭く認識されている状態を示す。
【0071】
対象物101の横幅は実際には横幅103Aであるにもかかわらず、横幅103Bもしくは横幅103Cのように実際の横幅とは異なる横幅として認識された場合、処理部13は、対象物の画像情報を正確に取得できていないため、当該画像情報等をフュージョン処理しても、当該対象物の詳細な情報を正確に取得することはできない。
【0072】
そこで、本実施形態に係る判定部132では、自車両から見て同一方向に複数の対象物が存在している場合には、画像情報で示される対象物の横幅情報が対象物の横幅を正確に表している場合にのみフュージョン処理を行うため、対象物101の詳細な情報を正確に取得することができる。
【0073】
以上が本実施形態に係る車両用対象物検出装置1の説明である。本実施形態に係る車両用対象物検出装置1によれば、基となる画像情報が正確な情報である場合にのみフュージョン処理を行うので、対象物の詳細な情報を正確に取得することができる。
【0074】
なお、第1〜第4の実施形態において、処理部13で行う画像処理等が演算遅れを伴う場合、取得した画像情報等が対象物のリアルタイムの状況を反映していないことがある。取得した画像情報等が対象物のリアルタイムの状況を反映していない場合は、フュージョン処理の基となる、画像情報が取得されたタイミングと、レーダ情報が取得されたタイミングが異なることになり、対象物の詳細な情報を正確に取得することができない。そこで、処理部13で行う画像処理等が演算遅れを伴う場合は、演算遅れを考慮してレーダ情報や画像情報等を補正することが考えられる。レーダ情報や画像情報等を補正する手法としては、例えば、対象物の補正後の横位置Xを、対象物の横方向速度Vxと演算遅れの時間を示す定数Δtを乗算した値に、レーダ情報で示される対象物の横位置xを加算して求める手法が挙げられる。なお、対象物の補正後の横位置Xは、自車両と対象物との距離や相対速度等との関係の情報をマップデータとして予め設定してき、当該マップデータに基いて定めても良い。
【0075】
また、第1〜4の実施形態の説明では、説明の便宜上、対象物が2つ存在する状況について説明した。しかしながら、本発明は、対象物が2つ存在する状況だけに適用されるわけではない。例えば、3つ以上の対象物が存在し、当該3つ以上の対象物が画像上で一体となっている場合でも、本発明は適用し得る。すなわち、判定部132は、当該3つ以上の対象物に対してそれぞれ第2の画像処理領域を設定することにより、当該3つ以上の対象物のそれぞれの詳細な情報を正確に取得することができる。
【0076】
以上、本発明の実施形態について説明したが、上述の説明はあらゆる点において本発明の一例にすぎず、その範囲を限定しようとするものではない。また、本発明の範囲を逸脱することなく上記各実施形態を適宜組み合わせることや種々の改良を行うことができることはいうまでもない。例えば、画像情報の有効性を判断するために第4の実施形態の処理を行った後に、第1〜3の実施形態の処理を行うようにしても良い。
【産業上の利用可能性】
【0077】
本発明は、自車両から見て同一方向に複数の対象物が存在する場合でも対象物の詳細な情報を正確に取得することを可能とする、車両用対象物検出装置、およびその方法を提供でき、例えば、自動車などの移動体に搭載される運転支援装置などに利用できる。
【符号の説明】
【0078】
1 車両用対象物検出装置
11 レーダ検出部
12 画像取得部
13 処理部
131 画像処理部
132 判定部
21、22、52、53、72、73、82、82’、101 対象物
23、24、56、74、75 画像処理領域
51、71、81 自車両
54、55 反射波等
83、83’ 対象物の特徴点
102 対象物の横位置
103A〜C対象物の幅情報
【技術分野】
【0001】
本発明は、車両に搭載され、自車両の周辺に存在する車両等の対象物を検出するための対象物検出装置、およびその方法の技術分野に関する。
【背景技術】
【0002】
近年、車両走行時における安全性を向上させるべく、衝突軽減装置や車間距離制御装置などの運転支援装置が開発されている。このような運転支援装置では、自車両の周辺に存在する車両等の対象物の詳細な情報を正確に取得することが重要となる。そのため、例えば、特許文献1に記載の物体検出装置では、レーダセンサ等によって取得された情報(以下、レーダ情報と称する)と画像センサ等によって撮像された画像から取得された情報(以下、画像情報と称する)とに基いて対象物の詳細な情報を取得する処理(以下、フュージョン処理と称する)が行われている。
【0003】
ところが、自車両の前方に乗用車が存在し、自車両と当該乗用車との間に二輪車が存在する場合等であって、画像情報で示される画像上では当該乗用車と当該二輪車が重なっている場合は、画像センサ等は、実際は2つの対象物である当該乗用車と当該二輪車とを、1つの対象物として認識することがある。実際は2つの対象物を、1つの対象物として画像センサ等が認識した場合に、レーダ情報と画像情報をフュージョン処理すると、対象物の詳細な情報が正確に得られない問題がある。
【0004】
この問題を解決するために、特許文献2に記載の車両用障害物検出装置では、画像情報で示される画像上で乗用車等と二輪車等が重なっている場合は、当該画像情報は有効なものではないとして、レーダ情報のみによって障害物の判定を行っている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2007−132748号公報
【特許文献2】特開2008−276689号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかし、特許文献2に記載の車両用障害物検出装置では、画像情報で示される画像上で当該乗用車等と当該二輪車等が重なっている場合、すなわち、自車両から見て同一方向に複数の対象物が存在する場合は、画像情報が有効なものではないとして当該画像情報を障害物の判定に用いないため、対象物の詳細な情報を正確に取得できない。
【0007】
本発明は、上記事実に鑑み、自車両から見て同一方向に複数の対象物が存在する場合でも、フュージョン処理によって対象物の詳細な情報を正確に取得することを可能とする、車両用対象物検出装置を提供することを目的とする。
【課題を解決するための手段】
【0008】
上記目的を達成するために、本発明は、以下に述べる特徴を有する。
第1の発明は、自車両周辺の対象物を検出する車両用対象物検出装置であって、自車両周辺の対象物のレーダ情報を取得するレーダ情報取得手段と、自車両周辺の画像を撮像する画像撮像手段と、上記画像撮像手段によって撮像された画像から画像情報を取得する対象となる第1の画像処理領域を設定する第1の画像処理領域設定手段と、上記レーダ情報取得手段によって上記自車両から見て同一方向に複数の対象物のレーダ情報が取得された場合、上記第1の画像処理領域とは異なる第2の画像処理領域を設定する第2の画像処理領域設定手段と、上記第2の画像処理領域設定手段によって設定された第2の画像処理領域内の画像情報を取得する画像情報取得手段と、上記レーダ情報取得手段によって取得されたレーダ情報と、上記画像情報取得手段によって取得された画像情報とに基いて、上記第2の画像処理領域内の対象物についての詳細な情報を取得する詳細情報取得手段とを備える。
【0009】
第2の発明は、上記第1の発明に従属する発明であって、上記第2の画像処理領域設定手段は、上記複数の対象物のうち、上記自車両からの距離が最も短い対象物に対して上記第2の画像処理領域を設定することを特徴とする。
【0010】
第3の発明は、上記第2の発明に従属する発明であって、上記自車両からの距離が最も短い対象物が静止物であることを特徴とする。
【0011】
第4の発明は、上記第3の発明に従属する発明であって、上記第2の画像処理領域設定手段は、上記静止物に対しては、上記静止物に対する第3の画像処理領域を、上記第2の画像処理領域として設定することを特徴とする。
【0012】
第5の発明は、上記第1〜第4の発明のいずれか1つに従属する発明であって、上記第2の画像処理領域設定手段は、上記第2の画像処理領域を上記第1の画像処理領域よりも狭く設定することを特徴とする。
【0013】
第6の発明は、上記第1〜第5の発明のいずれか1つに従属する発明であって、上記自車両から見て同一方向に検出された複数の対象物間の距離が予め定めた第1のしきい値未満である場合に、第2の画像処理領域を設定することを特徴とする。
【0014】
第7の発明は、上記第1〜第6の発明のいずれか1つに従属する発明であって、上記第2の画像処理領域設定手段は、上記自車両と、上記複数の対象物のうち上記自車両から最も近い対象物との距離が、予め定めた第2のしきい値未満である場合に、第2の画像処理領域を設定することを特徴とする。
【0015】
第8の発明は、上記第1〜第7の発明のいずれか1つに従属する発明であって、上記画像情報取得手段は、上記第1の画像処理領域設定手段によって設定された第1の画像処理領域内の画像情報をさらに取得し、上記詳細情報取得手段は、上記レーダ情報取得手段により取得されたレーダ情報と、上記第1の画像処理領域内の画像情報とに基いて、第1の画像処理領域内の対象物についての詳細な情報を取得することを特徴とする。
【0016】
第9の発明は、上記第1〜第8の発明のいずれか1つに従属する発明であって、上記第2の画像処理領域設定手段は、上記レーダ情報取得手段によって取得されたレーダ情報に基いて上記自車両の周辺に複数の対象物が存在すると判定し、かつ、上記複数の対象物が上記第1の画像処理領域内に存在すると判定した場合に、上記第1の画像処理領域内に存在する上記複数の対象物は上記自車両から見て同一方向に存在すると判定することを特徴とする。
【0017】
第10の発明は、上記第1〜第9の発明のいずれか1つに従属する発明であって、上記詳細情報取得手段は、上記レーダ情報取得手段によって取得されたレーダ情報で示される対象物の位置が、上記画像情報取得手段によって取得された画像情報で示される上記対象物の領域内にある場合に、上記レーダ情報と上記画像情報とに基いて上記対象物についての詳細な情報を取得することを特徴とする。
【0018】
自車両周辺の対象物を検出する車両用対象物検出方法であって、自車両周辺の対象物のレーダ情報を取得するレーダ情報取得ステップと、自車両周辺の画像を撮像する画像撮像ステップと、上記画像撮像ステップによって撮像された画像から画像情報を取得する対象となる第1の画像処理領域を設定する第1の画像処理領域設定ステップと、上記レーダ情報取得ステップによって上記自車両から見て同一方向に複数の対象物のレーダ情報が取得された場合、上記第1の画像処理領域とは異なる第2の画像処理領域を設定する第2の画像処理領域設定ステップと、上記第2の画像処理領域設定ステップによって設定された第2の画像処理領域内の画像情報を取得する画像情報取得ステップと、上記レーダ情報取得ステップによって取得されたレーダ情報と、上記画像情報取得ステップによって取得された画像情報とに基いて、上記第2の画像処理領域内の対象物についての詳細な情報を取得する詳細情報取得ステップとを備える。
【発明の効果】
【0019】
本発明によれば、自車両から見て同一方向に複数の対象物が存在する場合でもフュージョン処理によって対象物の詳細な情報を正確に取得することを可能とする、車両用対象物検出装置、およびその方法を提供することができる。
【図面の簡単な説明】
【0020】
【図1】第1の実施形態に係る車両用対象物検出装置の概略構成を示すブロック図
【図2A】画像取得部によって撮像した画像の一例を示した図
【図2B】第1の画像処理領域を設定した画像の一例を示した図
【図2C】第2の画像処理領域を設定した画像の一例を示した図
【図2D】各対象物間の距離が一定以上離れている場合の画像の一例を示した図
【図3】第1の実施形態に係る処理部の処理の流れを示すフローチャート
【図4】第2の実施形態に係る処理部の処理の流れを示すフローチャート
【図5A】レーダ検出部が先行車の先行車を検出する場面の一例を示した図
【図5B】図5Aの状況を画像取得部によって撮像した画像の一例を示した図
【図5C】図5Bの画像に第1の画像処理領域を設定した画像の一例を示した図
【図6】第3の実施形態に係る処理部の処理の流れを示すフローチャート
【図7A】レーダ検出部が障害物ではない対象物を検出する場面の一例を示した図
【図7B】図7Aの状況を画像取得部によって撮像した画像の一例を示した図
【図7C】図7Bの画像に第1の画像処理領域を設定した画像の一例を示した図
【図7D】図7Cの画像に第2の画像処理領域を設定した画像の一例を示した図
【図8A】先行車が自車両に近づいて来る場面の一例を示した図
【図8B】図8Aの状況における先行車のオプティカルフローの一例を示した図
【図8C】画面上の特徴点とオプティカルフローとの関係を示すグラフ
【図9】第4の実施形態に係る処理部の処理の流れを示すフローチャート
【図10】レーダ情報で示される対象物の横位置と画像情報で示される対象物の横幅との関係を示した図
【発明を実施するための形態】
【0021】
(第1の実施形態)
図1は、本発明の第1の実施形態に係る車両用対象物検出装置1の概略構成を示すブロック図である。本実施形態に係る車両用対象物検出装置1は、レーダ検出部11と、画像取得部12と、処理部13とを備えている。処理部13は、画像処理部131、および判定部132を含む。
【0022】
レーダ検出部11は、判定部132に接続されている。レーダ検出部11としては、例えばレーザレーダ、マイクロ波レーダ、ミリ波レーダ、および超音波レーダ等を用いることができる。レーダ検出部11は、電磁波等を自車両の周辺に発信し、自車両の周辺に存在する物体に反射する反射波等を受信することにより、自車両周辺に存在する対象物との距離、相対速度、および当該対象物の存在する方向等を検出する。そして、レーダ検出部11は、自車両周辺に存在する対象物との距離、相対速度、および当該対象物の存在する方向等を検出した結果の情報であるレーダ情報を示す信号(以下、レーダ信号と称する)を判定部132に出力する。なお、本実施形態では、レーダ検出部11は自車両の前方の対象物のレーダ情報を検出するように設置されているものとして説明をするが、本発明の趣旨はこれに限られるものではなく、自車両の後方、側方等の他の方向についても適用可能である。
【0023】
画像取得部12は、画像処理部131と接続されている。画像取得部12は、典型的には、CMOS(Complementary Metal Oxide Semiconductor)、或いはCCD(Charge Coupled Device)を用いて自車両の周囲の画像を撮像するカメラと、当該カメラで撮像された画像を処理する処理回路とで主に構成される。画像取得部12は、自車両の周囲の画像を上記カメラで撮像し、撮像した画像を示す信号(以下、画像信号と称する)を画像処理部131に出力する。なお、本実施形態では、画像取得部12は自車両の前方の画像を取得するように設置されているものとして説明をするが、本発明の趣旨はこれに限られるものではなく、自車両の後方、側方等の他の方向についても適用可能である。
【0024】
画像処理部131は、画像取得部12および判定部132と接続されている。画像処理部131は、画像取得部12から出力される画像信号を受け取る。画像処理部131は、公知の手法を用いて、画像取得部12から受け取った画像信号によって示される画像に画像処理をするための領域(以下、第1の画像処理領域と称する)を設定する。なお、第1の画像処理領域を設定した画像を、以下、画像処理領域設定画像と称する。第1の画像処理領域を設定するための処理の手法の一例としては、画像にエッジ処理等の画像処理を行うことによって、第1の画像処理領域を設定する手法が挙げられる。
【0025】
画像処理部131は、画像処理領域設定画像における第1の画像処理領域内の対象物の横幅、縦幅、および自車両から見た対象物の横位置等を示す画像情報を取得する。また、例えば、パターンマッチング等により、画像から対象物の種類を特定し、特定した対象物の種類の情報を画像情報に含めても良い。画像処理部131は、画像情報を示す信号(以下、画像情報信号と称する)を判定部132に出力する。
【0026】
判定部132は、典型的には、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)などで主に構成されるECU(Electronic Control Unit)である。判定部132は、レーダ検出部11および画像処理部131と接続されている。判定部132は、レーダ検出部11から出力されるレーダ信号、ならびに画像処理部131から出力される画像情報信号をそれぞれ受け取る。
【0027】
判定部132は、受け取ったレーダ信号で示されるレーダ情報と、同じく受け取った画像情報信号で示される画像情報とをフュージョン処理することにより、対象物の詳細な情報を取得する。
【0028】
しかし、単にレーダ情報と第1の画像処理領域の画像情報とをフュージョン処理するだけでは対象物の詳細な情報を正確に取得できない場合がある。単にレーダ情報と第1の画像処理領域の画像情報とをフュージョン処理するだけでは対象物の詳細な情報を正確に取得できない場合について、図2Aおよび図2Bを参照しつつ説明する。
【0029】
図2Aは、自車両から見て同一方向に複数の対象物が存在している状況を、画像取得部12によって撮像した画像を簡略的に示した図である。図2Aの画像に係る状況は、自車両の前方に対象物22が存在し、さらに前方に対象物22より幅等の大きい対象物21が存在する状況である。図2Aの画像に係る状況において、対象物21より幅等の小さい対象物22は、典型的には二輪車であって、対象物22より幅等の大きい対象物21は、典型的には乗用車である。
【0030】
図2Aの画像に係る状況では、レーダ検出部11は、電磁波等を自車両の周辺に発信し、自車両の周辺に存在する物体に反射する反射波等を受信することにより、自車両周辺に存在する対象物22のレーダ情報、および自車両周辺に存在する対象物21のレーダ情報を取得する。そして、レーダ検出部11は、対象物22および対象物21それぞれについてのレーダ情報に係るレーダ信号を判定部132に出力する。
【0031】
同じく図2Aの画像に係る状況では、画像取得部12は、自車両の周囲の画像を上記カメラで撮像し、撮像した画像(すなわち図2A)を示す画像信号を画像処理部131に出力する。画像処理部131は、画像取得部12から受け取った画像信号によって示される図2Aに示す画像に、第1の画像処理領域を設定する。このとき、画像上の対象物としては、対象物22および対象物21が存在しているので、本来であれば対象物22および対象物21それぞれについて第1の画像処理領域を設定する必要がある。しかし、対象物22および対象物21は図2Aに示す画像上では一体となっているため、画像処理部131は、当該画像上で一体となっている対象物22および対象物21を1つの対象物として認識してしまうことがある。画像処理部131は、当該画像上で一体となっている対象物22および対象物21を1つの対象物として認識した場合、当該画像上で一体となっている対象物22および対象物21に対して1つの第1の画像処理領域を設定してしまう。
【0032】
図2Bは、画像上では一体となっている対象物22および対象物21に対して1つの第1の画像処理領域23を設定した場合の画像処理領域設定画像を簡略的に示した図である。上述のように、画像処理部131は、画像処理領域設定画像における第1の画像処理領域23内の対象物の画像情報を取得する。しかし、取得した画像情報は、対象物22および対象物21を1つの対象物として認識した状態で取得した画像情報である。画像処理部131は、対象物22および対象物21を1つの対象物として認識した上で取得した画像情報に係る画像情報信号を判定部132に出力する。一方、画像処理部131が画像上で一体となっている対象物22および対象物21に対して1つの第1の画像処理領域23を設定した場合でも、レーダ検出部11は、上述したように、対象物22および対象物21それぞれについてレーダ情報を取得し、取得したレーダ情報に係るレーダ信号を判定部132に出力する。
【0033】
判定部132は、レーダ検出部11から出力された対象物22および対象物21それぞれについてのレーダ信号、ならびに画像処理部131から出力される対象物22および対象物21を1つの対象物として認識した状態の画像情報信号をそれぞれ受け取る。
【0034】
しかし、受け取った画像情報信号で示される画像情報が対象物22および対象物21を1つの対象物として認識した状態の画像情報であるため、判定部132が、当該画像情報と、受け取ったレーダ信号で示される対象物22および対象物21それぞれについてのレーダ情報とを単にフュージョン処理したとしても、対象物22および対象物21それぞれについての詳細な情報を正確に取得することができない。
【0035】
そこで、本実施形態に係る判定部132は、レーダ情報に基いて、自車両から見て同一方向に複数の対象物が存在するか否かを判定し、自車両から見て同一方向に複数の対象物が存在すると判定した場合は、レーダ情報から算出される自車両との距離が最も短い対象物に対して新たな画像処理領域(以下、第2の画像処理領域と称する)を設定する。本実施形態に係る判定部132は、自車両から見て同一方向に複数の対象物が存在すると判定した場合に、レーダ情報から算出される自車両との距離が最も短い対象物に対して第2の画像処理領域を設定することによって、対象物毎の画像情報を取得することができる。そして、判定部132は、取得した対象物毎の画像情報と、対象物毎のレーダ情報をフュージョン処理することによって、対象物の詳細な情報を取得することができる。第2の画像処理領域を設定する処理の具体的な流れを図2Bおよび図2Cを用いて説明する。
【0036】
判定部132は、受け取ったレーダ信号で示される対象物22および対象物21それぞれについてのレーダ情報に基いて、自車両から見て同一方向に複数の対象物が存在するか否かを判定する。自車両から見て同一方向に複数の対象物が存在するか否かを判定する手法の例としては、画像情報とレーダ情報とを参照して、第1の画像処理領域内に対象物が複数あるか否かを判定することによって判定する手法が挙げられる。すなわち、判定部132が、レーダ情報を参照して、第1の画像処理領域内に対象物が複数あると判定した場合、判定部132は、「自車両から見て同一方向に複数の対象物が存在する」と判定する。一方、判定部132が、レーダ情報を参照して、第1の画像処理領域内の対象物が複数ではないと判定した場合、判定部132は、「自車両から見て同一方向に複数の対象物は存在しない」と判定する。なお、対象物が複数あるかどうかを判定する方法の一例としては、レーダ情報で示される自車両と各対象物との相対速度がそれぞれ異なることに基いて判定する手法が挙げられる。
【0037】
判定部132は、自車両から見て同一方向に複数の対象物が存在すると判定した場合は、レーダ情報から算出される自車両との距離が最も短い対象物に対して第2の画像処理領域を設定する。第2の画像処理領域を設定する際の当該画像処理領域の大きさを決める手法の一例としては、以下のような手法が考えられる。対象物が画像上で占める大きさは、対象物自体の大きさ、自車両と対象物との距離、および各対象物間の距離等で決まる。そこで、まず、自車両から見て同一方向に対象物が複数あると判定部132によって判定される状況を予め想定する。すなわち、対象物が自車両から見て同一方向に複数あると処理部13によって判定される状況は、図2Aの画像に係る状況のような、自車両の前方に対象物22が存在し、そのさらに前方に対象物22より幅等の大きい対象物21が存在する状況であって、自車両との距離が最も短い対象物22に該当する車両は二輪車であると予め想定する。次に、対象物自体の大きさ、および自車両と対象物との距離等と、当該対象物が画像上で占める大きさの関係についての情報を、図示していない記憶装置に予め記憶させておく。そして、判定部132が、「自車両から見て同一方向に複数の対象物が存在する」と判定した場合、レーダ情報で示される自車両と対象物との距離や自車両から見た方向等を参照し、予め記憶させておいた、二輪車が画像上で占める大きさを第2の画像処理領域として設定する手法が考えられる。
【0038】
図2Cは、判定部132は、自車両から見て同一方向に複数の対象物が存在すると判定した場合に、自車両との距離が最も短い対象物22に対して第2の画像処理領域24を設定した画像処理領域設定画像を簡略的に示した図である。判定部132は、第2の画像処理領域内の対象物22の画像情報を取得し、取得した対象物22の画像情報と、対象物22のレーダ情報とをフュージョン処理することにより対象物22の情報を正確に取得する。また、判定部132は、第1の画像処理領域内の対象物21の画像情報を取得し、取得した対象物21の画像情報と、対象物21のレーダ情報とをフュージョン処理することにより対象物21の情報を正確に取得するようにしても良い。
【0039】
一方、判定部132は、自車両から見て同一方向に複数の対象物が存在しないと判定した場合は、第2の画像処理領域を設定することなく、第1の画像処理領域内の対象物の画像情報と当該対象物のレーダ情報とをフュージョン処理することにより当該対象物の詳細な情報を取得する。
【0040】
以上が、第1の実施形態に係る車両用対象物検出装置1の概略構成についての説明である。
【0041】
図3は、本実施形態に係る処理部13の処理の流れを示すフローチャートである。以下、図3に示すフローチャートを参照しながら、処理部13の処理の流れを説明する。
【0042】
画像処理部131は、画像取得部12から出力される画像信号によって示される画像に第1の画像処理領域を設定する(ステップS301)。判定部132は、レーダ検出部11から出力されるレーダ信号によって示されるレーダ情報を参照する(ステップS302)。判定部132は、自車両から見て同一方向に対象物が複数あるかどうかを判定する(ステップS303)。自車両から見て同一方向に対象物が複数あると判定した場合(ステップS303でYES)、判定部132は、自車両との距離が最も短い対象物に対して第2の画像処理領域を設定し(ステップS304)、第2の画像処理領域の画像情報と第2の画像処理領域内の対象物のレーダ情報とをフュージョン処理して第2の画像処理領域内の対象物の詳細な情報を取得し(ステップS305)、処理を終える。自車両から見て同一方向に対象物が複数存在しないと判定した場合(ステップS303でNO)、判定部132は、第1の画像処理領域の画像情報と第1の画像処理領域に係る対象物のレーダ情報とをフュージョン処理して対象物の詳細な情報を取得し(ステップS305)、処理を終える。
【0043】
以上が本実施形態に係る車両用対象物検出装置1の説明である。第1の実施形態に係る車両用対象物検出装置1によれば、第2の画像処理領域を設定することにより、自車両から見て同一方向に対象物が複数存在する場合でも、対象物毎の画像情報を取得することができる。そして、第1の実施形態に係る車両用対象物検出装置1によれば、取得した対象物毎の画像情報と、対象物毎のレーダ情報をフュージョン処理することによって、対象物のそれぞれについての詳細な情報を取得することができる。
【0044】
なお、上記において、自車両から見て同一方向に複数の対象物が存在するか否かを判定する手法の例として、画像情報とレーダ情報とを参照して、第1の画像処理領域内に対象物が複数あるか否かを判定することによって判定する手法を挙げた。しかしながら、自車両から見て同一方向に複数の対象物が存在するか否かを判定する手法に他の手法を用いても良い。自車両から見て同一方向に複数の対象物が存在するか否かを判定する手法の他の例としては、レーダ情報に含まれる、対象物が存在する自車両から見た方向を示す情報に基いて判定する手法が挙げられる。すなわち、仮に、自車両の周辺に2つの対象物(以下、それぞれを対象物T1、対象物T2と称する。)が存在する場合、各対象物のレーダ情報を参照して、自車両から見た対象物T1が存在する方向と、自車両から見た対象物T2が存在する方向とがなす角度を検出し、検出結果である当該角度の絶対値が、予め定めた方向判定しきい値を超えない場合に、判定部132は、「自車両から見て同一方向に複数の対象物が存在する」と判定する。一方、上記検出結果である上記角度の絶対値が、予め定めた方向判定しきい値を超える場合は、判定部132は、「自車両から見て同一方向に複数の対象物は存在しない」と判定する。
【0045】
また、対象物22と対象物21とが一定以上離れている場合の処理について説明する。図2Dは、対象物22と対象物21とが一定以上離れている状況を画像取得部12によって撮像した画像を簡略的に示した図である。図2Dの画像に係る状況は、自車両の前方に対象物22が存在し、さらに前方に対象物22より幅等の大きい対象物21が存在する状況であって、対象物22と対象物21とが一定以上離れている状況である。図2Dの画像で示されるように、対象物22と対象物21とが一定以上離れている場合、自車両から見ると、対象物21は対象物22に隠れる。したがって、画像処理部131は、対象物22に対して1つの第1の画像処理領域23を設定し、判定部132は対象物22の画像情報を取得する。一方、図2Dの画像で示されるように、対象物22と対象物21とが一定以上離れていることによって、図2Dの画像上では対象物21が対象物22に隠れていても、レーダ検出部11は、対象物22および対象物21それぞれについてのレーダ情報を取得し得る。この状況は判定部132が「自車両から見て同一方向に複数の対象物が存在する」と判定する状況であるため、第1の実施形態に係るステップS303からステップS304の処理をそのまま適用すれば、第2の画像処理領域を設定する処理(ステップS304)を行うことになる。しかしながら、上述した図2A〜図2Cに示す状況とは異なり、判定部132は、自車両からの距離が最も短い対象物22についての画像情報のみ取得することから、対象物22のレーダ情報と、対象物22の画像情報とをフュージョン処理することにより対象物22の情報を正確に取得することができる。したがって、対象物22と対象物21とが一定以上離れている場合は、ステップS304の処理は不要になる。そこで、対象物22と対象物21との距離が所定値以上である場合は、ステップS304の処理は行わず、対象物22と対象物21の距離が所定値未満の場合は、ステップS304の処理を行うようにしても良い。具体的には、レーダ情報で示される対象物22と対象物21との距離Lvに予めしきい値Lthを設け、レーダ情報で示される対象物22と対象物21との距離Lvがしきい値Lth未満である場合はステップS304の処理を行い、当該距離Lvがしきい値Lth以上である場合は、ステップS304の処理を行わないとすることが考えられる。なお、予めしきい値Lthを定めるにあたっては、各対象物間の距離だけでなく、自車両と各対象物との距離を考慮して定めても良い。また、対象物の大きさ等も考慮して定めても良い。
【0046】
(第2の実施形態)
次に、判定部132が第2の画像処理領域を設定するか否かを判断するにあたって、自車両と、自車両の前方に存在する対象物との距離を考慮する実施態様について説明する。なお、本実施形態についての説明は、第1の実施形態の説明で付した符号を使用し、上述した実施形態と異なる部分についてのみ説明する。
【0047】
図4は、本実施形態に係る処理部13の処理の流れの一例を示すフローチャートである。本実施形態では、前述した図3に示す第1の実施形態における処理部13の処理の流れを示すフローチャートのステップS303とステップS304の間に、自車両と、自車両からの距離が最も短い対象物との距離Lmが、予め定めたしきい値Lo未満か否かを判定するステップS401を設けている。
【0048】
判定部132は、自車両から見て同一方向に複数の対象物が存在すると判定した場合(ステップS303でYES)、レーダ情報を参照し、自車両と、自車両からの距離が最も短い対象物22との距離Lmが、予め定めたしきい値Lo未満か否かを判定する(ステップS401)。
【0049】
判定部132は、自車両と自車両からの距離が最も短い対象物との距離Lmが、予め定めたしきい値Lo未満である場合(ステップS401でYES)、自車両との距離が最も短い対象物に対して第2の画像処理領域を設定する(ステップS304)。判定部132は、自車両と自車両からの距離が最も短い対象物との距離Lmが、予め定めたしきい値Lo以上である場合(ステップS401でNO)、第2の画像処理領域を設定しない。
【0050】
上記のような処理を行う理由を図5A〜図5Cを参照して説明する。図5Aは、自車両51の前方に対象物53(例えば乗用車等)が存在し、かつ、自車両51と対象物53の間に対象物52(例えば乗用車等)が存在する状況を簡略的に示した図である。図5Bは、図5Aで示される状況を画像取得部12によって撮像した画像を簡略的に示した図である。図5Bは、対象物53は対象物52に隠れてしまい、画像取得部12によって撮像した画像からは対象物52しか認識できないことを示している。画像処理部131は、図5Bに示す画像に対し、対象物52について第1の画像処理領域を設定し、対象物52の画像情報を取得する。図5Cは、画像処理部131が、図5Bに示す画像に対し、対象物52について第1の画像処理領域56を設定した画像処理領域設定画像を簡略的に示した図である。一方、判定部132は、図5Aに示すようにレーダ検出部11が発信した電磁波等の反射波等54を受信することにより、対象物52のレーダ情報を取得する。さらに、自車両51と対象物52との距離Lmが一定以上長い場合、レーダ検出部11は、対象物52の車体と路面の隙間等を通った反射波等55を受信することにより、対象物53のレーダ情報を取得し得る。すなわち、判定部132は、対象物52について画像情報を取得しており、かつ、対象物52と対象物53それぞれのレーダ情報を取得しているので、「自車両51から見て同一方向に対象物が複数存在している」と判定することになる。この場合において、第1の実施形態に係るステップS303からステップS304の処理をそのまま適用すると、自車両から見て対象物52の手前に第2の画像処理領域を設定すべき対象物は存在しないにもかかわらず、判定部132は、第2の画像処理領域を設定してしまうことになる。しかし、本実施形態に係る判定部132によれば、自車両51と対象物52との距離Lmが一定以上長い場合には第2の画像処理領域を設定する処理は行わないので、レーダ検出部11が反射波等55を検出して対象物53のレーダ情報を取得したとしても、不必要な第2の画像処理領域を設定することを防ぐことができる。
【0051】
以上が本実施形態に係る車両用対象物検出装置1の説明である。本実施形態に係る車両用対象物検出装置1によれば、レーダ検出部11が反射波等55を検出して対象物53のレーダ情報を取得したとしても、自車両51と対象物52との距離Lmが一定以上長い場合には第2の画像処理領域を設定する処理をすることなく、自車両からの距離が最も短い対象物の詳細な情報を正確に取得することができる。
【0052】
(第3の実施形態)
次に、判定部132が、第2の画像処理領域を設定するか否かを判断するにあたって、対象物が静止物か否かを考慮する実施態様について説明する。なお、本実施形態についての説明は、上述した実施形態の説明で付した符号を使用し、上述した実施形態と異なる部分についてのみ説明する。
【0053】
図6は、本実施形態に係る処理部13の処理の流れの一例を示すフローチャートである。本実施形態に係るフローチャートでは、第1の実施形態における処理部13の処理の流れを示す図3のフローチャートのステップS303とステップS305の間に、対象物が路面に対して静止しているか否かを判定するステップS601、および路面に対して静止物である対象物(以下、静止物と称する)に対する新たな画像処理領域(以下、第3の画像処理領域と称する)を設定するステップS602を設けている。
【0054】
判定部132は、自車両から見て同一方向に複数の対象物が存在すると判定した場合(ステップS303でYES)、対象物のレーダ情報の速度情報を参照して、対象物が静止物か否かを判定する(ステップS601)。判定部132は、対象物が静止物であると判定した場合(ステップS601でYES)、当該対象物に対して第3の画像処理領域を設定する(ステップS602)。判定部132が、対象物が静止物ではないと判定した場合(ステップS601でNO)、当該対象物に対して第3の画像処理領域を設定しない。判定部132は、当該静止物のレーダ情報とステップS602で設定した第3の画像処理領域の画像情報とをフュージョン処理することより、当該静止物の詳細な情報を取得する。また、判定部132は、第1の画像処理領域の対象物に対しては第1の画像処理領域の画像情報等をフュージョン処理することにより、当該対象物の詳細な情報を取得する。
【0055】
上記のような処理を行う理由を図7A〜図7Dを参照して説明する。図7Aは、自車両71の前方に対象物72(例えば乗用車)が存在し、かつ、自車両71と対象物72との間の路面等に、自車両71にとって障害物ではない対象物73(例えば路上の鉄板やマンホール等)が存在する状況を簡略的に示した図である。図7Bは、図7Aに係る状況を画像取得部12によって撮像した画像を簡略的に示した図である。図7Bは、自車両71と対象物72の位置関係によっては、対象物72および対象物73が画像上で一体となっていることを示している。対象物72および対象物73が画像上で一体となっている場合、画像処理部131は、画像上で一体となっている対象物72および対象物73を1つの対象物として第1の画像処理領域を設定する可能性がある。図7Cは、図7Bに係る画像に第1の画像処理領域74を設定した画像処理領域設定画像を簡略的に示した図である。図7Cは、画像処理部131が、画像上で一体となっている対象物72および対象物73に対して1つの第1の画像処理領域74を設定したことを示している。しかし、判定部132が、対象物72および対象物73を1つの対象物として認識した状態の画像情報と、対象物72および対象物73それぞれについてのレーダ情報とを単にフュージョン処理したとしても、対象物72および対象物73それぞれについての詳細な情報を正確に取得することができない。そこで、本実施形態に係る判定部132では、自車両からの距離が最も短い対象物73が静止物である場合は、当該対象物73に対して第3の画像処理領域を設定することとしている。図7Dは、図7Cに係る画像に第3の画像処理領域75を設定した画像処理領域設定画像を簡略的に示した図である。自車両からの距離が最も短い対象物73が静止物である場合に当該対象物73に対して第3の画像処理領域75を設定するのは、対象物73が静止物であれば、対象物73は自車両71にとって障害物ではないと考えられるためである。本実施形態に係る判定部132によれば、自車両からの距離が最も短い対象物73が静止物である場合は、対象物73に対して第3の画像処理領域75を設定するため、対象物73に対しては第3の画像処理領域75内の対象物73の画像情報等をフュージョン処理することにより、対象物73についての詳細な情報を正確に取得することができる。また、対象物72に対しては第1の画像処理領域74内の対象物72の画像情報等をフュージョン処理することにより、対象物72についての詳細な情報を正確に取得することができる。
【0056】
なお、本実施形態では、対象物が自車両にとって障害物であるか否かを判定するにあたって、当該対象物が静止物であるか否かを判定することとした。しかしながら、路上に止まっている二輪車等を考慮し、対象物が静止物であるか否かの判定に加え、当該対象物が立体物か否かを判定することによって当該対象物が障害物か否かを判定するようにしても良い。すなわち、対象物が静止物、かつ、非立体物である場合に自車両にとって障害物ではないと判定し、対象物が静止物ではない場合もしくは対象物が立体物である場合に自車両にとって障害物であると判定するようにしても良い。
【0057】
対象物が静止物であるか否かを判定する手法としては、自車両の車速測定手段(図示せず)により取得された自車両の車速Vsから自車両と対象物の相対速度Vrを減算した値の絶対値が、予め定めた定数ΔVよりも小さい場合は、当該対象物は静止物であると判定する手法が挙げられる。
【0058】
対象物が非立体物か否かを判定する手法の一例としては、第3の画像処理領域内の画像を処理して第3の画像処理領域内の対象物のオプティカルフローを算出し、算出したオプティカルフローが立体物のオプティカルフローなのか非立体物のオプティカルフローなのかを判定することにより、対象物が非立体物か否かを判定する手法が挙げられる。オプティカルフローの算出手法の一例としては以下の手法が挙げられる。
【0059】
図8Aは、先行車82が自車両81に近づく場面を表した図である。図8Aにおける先行車82’(点線で表す)は、自車両81に近づく前の状態を表し、図8Aにおける先行車82(実線で表す)は、自車両81に近づいた後の状態を表す。図8Aの(A)は、先行車82が自車両81に近づく場面を、車両の進行方向に対して横から垂直方向に見た場合を表した図である。図8Aの(B)は、先行車82’が自車両81に近づく場面を、上空から見た場合を表した図である。自車両81と先行車82’との距離はLで表し、先行車82’が自車両81に近づいた距離をΔLで表す。特徴点83は、先行車82の任意の特徴点の1つを表す。xは、自車両81の走行方向に伸ばした自車両81の中心線を基準とする特徴点83’の横位置を表す。Δxは、先行車82’が距離ΔLだけ自車両に近づいた場合の、特徴点83’の画像上の移動ベクトル、すなわちオプティカルフローを表す。図8Bは、先行車82’が自車両81に近づいた場合のオプティカルフローを表した図である。図8Bにおける先行車82’(点線で表す)は、先行車82’と自車両81との距離がLのときにおける画像上の見え方を表し、図8Bにおける先行車82(実線で表す)は、先行車82’が距離ΔLだけ自車両81に近づいた場合の画像上の見え方を表す。図8B中の各矢印は、先行車82’および先行車82の特徴点の移動ベクトルを示すオプティカルフローを表す。なお、LやΔLは、レーダ情報の距離情報や、相対速度情報から演算する。
【0060】
ここで、オプティカルフローΔxは式(1)で表される。
Δx=(x/L)×ΔL…式(1)
【0061】
図8Cは、式(1)におけるΔxとxとの関係を表したグラフを示した図である。式(1)におけるΔxとxとの関係を、Δxを縦軸、xを横軸にとったグラフで表すと、図8Cに示すように、原点を通る右上がりの直線となる。
【0062】
仮に、オプティカルフローを求める画像上の領域を、対象物が存在する距離の所定の高さに設定している場合において、レーダ検出部11が検出した対象物がマンホールのような非立体物の場合、当該所定の高さに存在していない対象物のオプティカルフローを演算することになるため、図8Cのような直線関係とならない。したがって、オプティカルフローが図8Cに示す関係になっているか否かを判定することにより対象物が立体物か非立体物かを判定することができる。
【0063】
以上、オプティカルフローの原理を利用して対象物が立体物か非立体物かを判定する手法の一例を説明したが、当該手法をより信頼度高く適用するには、図8Cのオプティカルフローのグラフを求める画像処理領域を適切に定める必要がある。自車両から見て同一方向に対象物が複数存在する場合は、この画像処理領域を、自車両からの距離が最も短い対象物に対して設定する第2の画像処理領域とすることで、当該手法の信頼度をより高くすることができる。なお、上記オプティカルフローによって対象物が立体物か否かを判定する手法は、第3の実施形態に限らず、他の実施形態に適用しても良い。
【0064】
また、図6に示す本実施形態に係る判定部132の処理は、判定部132が、対象物が静止物ではないと判定した場合(ステップS601でNO)のフローに、当該対象物に対して二輪車を想定した第2の画像処理領域を設定するステップ(図3等のステップS304に相当)を設け、当該対象物のレーダ情報と、設定した第2の画像処理領域の画像情報とをフュージョン処理して、当該対象物の詳細な情報を取得するようにしても良い。
【0065】
以上が本実施形態に係る車両用対象物検出装置1の説明である。本実施形態に係る車両用対象物検出装置1によれば、自車両から見て同一方向に複数の対象物が存在する場合であって、自車両からの距離が最も短い対象物が静止物である場合は当該静止物に対して第3の画像処理領域を設定するため、第3の画像処理領域についての画像情報と第3の画像処理領域の対象物のレーダ情報とをフュージョン処理して、当該静止物の詳細な情報を正確に取得することができる。また、第1の画像処理領域の対象物に対しては第1の画像処理領域の画像情報等をフュージョン処理することにより、当該対象物の詳細な情報を正確に取得することができる。
【0066】
(第4の実施形態)
次に、判定部132がフュージョン処理をするかどうか判断するにあたって、レーダ情報で示される対象物の横位置情報と、画像情報で示される対象物の横幅情報を考慮する実施態様について説明する。なお、本実施形態についての説明は、上述した実施形態の説明で付した符号を使用し、上述した実施形態と異なる部分についてのみ説明する。
【0067】
図9は、本実施形態に係る処理部13の処理の流れの一例を示すフローチャートである。以下、図9に示すフローチャートを参照しながら、処理部13の処理の流れを説明する。
【0068】
判定部132は、画像情報およびレーダ情報を参照する(ステップS901およびステップS302)。そして、参照したレーダ情報に基いて自車両から見て同一方向に対象物が複数あるかどうかを判定する(ステップS303)。判定部132は、自車両から見て同一方向に対象物が複数あると判定した場合(ステップS303でYES)、レーダ情報で示される、自車両からの距離が最も短い対象物の横位置が、当該対象物の画像情報で示される横幅内に収まっているか否かを判定する(ステップS902)。判定部132は、レーダ情報で示される、自車両からの距離が最も短い対象物の横位置が、画像情報で示される当該対象物の横幅内に収まっていないと判定した場合(ステップS902でNO)、フュージョン処理をしない。判定部132は、レーダ情報で示される、自車両からの距離が最も短い対象物の横位置が、画像情報で示される当該対象物の横幅内に収まっていると判定した場合(ステップS902でYES)、もしくは自車両から見て同一方向に対象物が複数ないと判定した場合(ステップS303でNO)、画像情報等をフュージョン処理する(ステップS305)。
【0069】
上記のような処理を行う理由を図10を参照しつつ説明する。図10は、レーダ情報で示される対象物の横位置と画像情報で示される対象物の横幅との関係を簡略的に示した図である。図10に示す状況は、自車両(図示せず)の前方に対象物101が存在する状況である。
【0070】
図10の(A)〜(C)における横位置102は、レーダ情報から算出される自車両から見た対象物101の横位置を示す。図10の(A)〜(C)にそれぞれにおける横幅103A〜Cは、(A)〜(C)それぞれにおける画像情報から算出される対象物101の横幅を示す。図10の(A)における横幅103Aは、対象物101の横幅が、画像情報によって適切に表されている状態を示す。しかし、車両の色や日光のあたり方等の影響により、画像情報が対象物の横幅を適切に表していない場合がある。図10の(B)における横幅103Bは、実際には1つである対象物101が、画像情報では分断されて2つの対象物であると認識されている状態を示す。図10の(C)における横幅103Cは、画像情報で示される対象物101の横幅が、実際の横幅(すなわち横幅103A)よりも狭く認識されている状態を示す。
【0071】
対象物101の横幅は実際には横幅103Aであるにもかかわらず、横幅103Bもしくは横幅103Cのように実際の横幅とは異なる横幅として認識された場合、処理部13は、対象物の画像情報を正確に取得できていないため、当該画像情報等をフュージョン処理しても、当該対象物の詳細な情報を正確に取得することはできない。
【0072】
そこで、本実施形態に係る判定部132では、自車両から見て同一方向に複数の対象物が存在している場合には、画像情報で示される対象物の横幅情報が対象物の横幅を正確に表している場合にのみフュージョン処理を行うため、対象物101の詳細な情報を正確に取得することができる。
【0073】
以上が本実施形態に係る車両用対象物検出装置1の説明である。本実施形態に係る車両用対象物検出装置1によれば、基となる画像情報が正確な情報である場合にのみフュージョン処理を行うので、対象物の詳細な情報を正確に取得することができる。
【0074】
なお、第1〜第4の実施形態において、処理部13で行う画像処理等が演算遅れを伴う場合、取得した画像情報等が対象物のリアルタイムの状況を反映していないことがある。取得した画像情報等が対象物のリアルタイムの状況を反映していない場合は、フュージョン処理の基となる、画像情報が取得されたタイミングと、レーダ情報が取得されたタイミングが異なることになり、対象物の詳細な情報を正確に取得することができない。そこで、処理部13で行う画像処理等が演算遅れを伴う場合は、演算遅れを考慮してレーダ情報や画像情報等を補正することが考えられる。レーダ情報や画像情報等を補正する手法としては、例えば、対象物の補正後の横位置Xを、対象物の横方向速度Vxと演算遅れの時間を示す定数Δtを乗算した値に、レーダ情報で示される対象物の横位置xを加算して求める手法が挙げられる。なお、対象物の補正後の横位置Xは、自車両と対象物との距離や相対速度等との関係の情報をマップデータとして予め設定してき、当該マップデータに基いて定めても良い。
【0075】
また、第1〜4の実施形態の説明では、説明の便宜上、対象物が2つ存在する状況について説明した。しかしながら、本発明は、対象物が2つ存在する状況だけに適用されるわけではない。例えば、3つ以上の対象物が存在し、当該3つ以上の対象物が画像上で一体となっている場合でも、本発明は適用し得る。すなわち、判定部132は、当該3つ以上の対象物に対してそれぞれ第2の画像処理領域を設定することにより、当該3つ以上の対象物のそれぞれの詳細な情報を正確に取得することができる。
【0076】
以上、本発明の実施形態について説明したが、上述の説明はあらゆる点において本発明の一例にすぎず、その範囲を限定しようとするものではない。また、本発明の範囲を逸脱することなく上記各実施形態を適宜組み合わせることや種々の改良を行うことができることはいうまでもない。例えば、画像情報の有効性を判断するために第4の実施形態の処理を行った後に、第1〜3の実施形態の処理を行うようにしても良い。
【産業上の利用可能性】
【0077】
本発明は、自車両から見て同一方向に複数の対象物が存在する場合でも対象物の詳細な情報を正確に取得することを可能とする、車両用対象物検出装置、およびその方法を提供でき、例えば、自動車などの移動体に搭載される運転支援装置などに利用できる。
【符号の説明】
【0078】
1 車両用対象物検出装置
11 レーダ検出部
12 画像取得部
13 処理部
131 画像処理部
132 判定部
21、22、52、53、72、73、82、82’、101 対象物
23、24、56、74、75 画像処理領域
51、71、81 自車両
54、55 反射波等
83、83’ 対象物の特徴点
102 対象物の横位置
103A〜C対象物の幅情報
【特許請求の範囲】
【請求項1】
自車両周辺の対象物を検出する車両用対象物検出装置であって、
レーダによって自車両周辺の対象物のレーダ情報を取得するレーダ情報取得手段と、
自車両周辺の画像を撮像する画像撮像手段と、
前記画像撮像手段によって撮像された画像から画像情報を取得する対象となる第1の画像処理領域を設定する第1の画像処理領域設定手段と、
前記レーダ情報取得手段によって前記自車両から見て同一方向に複数の対象物のレーダ情報が取得された場合、前記第1の画像処理領域とは異なる第2の画像処理領域を設定する第2の画像処理領域設定手段と、
前記第2の画像処理領域設定手段によって設定された第2の画像処理領域内の画像情報を取得する画像情報取得手段と、
前記レーダ情報取得手段によって取得されたレーダ情報と、前記画像情報取得手段によって取得された画像情報とに基いて、前記第2の画像処理領域内の対象物についての詳細な情報を取得する詳細情報取得手段とを備える、車両用対象物検出装置。
【請求項2】
前記第2の画像処理領域設定手段は、前記複数の対象物のうち、前記自車両からの距離が最も短い対象物に対して前記第2の画像処理領域を設定することを特徴とする、請求項1に記載の車両用対象物検出装置。
【請求項3】
前記自車両からの距離が最も短い対象物が静止物であることを特徴とする、請求項2に記載の車両用対象物検出装置。
【請求項4】
前記第2の画像処理領域設定手段は、前記静止物に対しては、前記静止物に対する第3の画像処理領域を、前記第2の画像処理領域として設定することを特徴とする、請求項3に記載の車両用対象物検出装置。
【請求項5】
前記第2の画像処理領域設定手段は、前記第2の画像処理領域を前記第1の画像処理領域よりも狭く設定することを特徴とする、請求項1〜4いずれか1つに記載の車両用対象物検出装置。
【請求項6】
前記第2の画像処理領域設定手段は、前記自車両から見て同一方向に検出された複数の対象物間の距離が予め定めた第1のしきい値未満である場合に、第2の画像処理領域を設定することを特徴とする、請求項1〜5いずれか1つに記載の車両用対象物検出装置。
【請求項7】
前記第2の画像処理領域設定手段は、前記自車両と、前記複数の対象物のうち前記自車両から最も近い対象物との距離が、予め定めた第2のしきい値未満である場合に、第2の画像処理領域を設定することを特徴とする、請求項1〜6いずれか1つに記載の車両用対象物検出装置。
【請求項8】
前記画像情報取得手段は、前記第1の画像処理領域設定手段によって設定された第1の画像処理領域内の画像情報をさらに取得し、前記詳細情報取得手段は、前記レーダ情報取得手段により取得されたレーダ情報と、前記第1の画像処理領域内の画像情報とに基いて、第1の画像処理領域内の対象物についての詳細な情報を取得することを特徴とする、請求項1〜7いずれか1つに記載の車両用対象物検出装置。
【請求項9】
前記第2の画像処理領域設定手段は、前記レーダ情報取得手段によって取得されたレーダ情報に基いて前記自車両の周辺に複数の対象物が存在すると判定し、かつ、前記複数の対象物が前記第1の画像処理領域内に存在すると判定した場合に、前記第1の画像処理領域内に存在する前記複数の対象物は前記自車両から見て同一方向に存在すると判定することを特徴とする、請求項1〜8いずれか1つに記載の車両用対象物検出装置。
【請求項10】
前記詳細情報取得手段は、前記レーダ情報取得手段によって取得されたレーダ情報で示される対象物の位置が、前記画像情報取得手段によって取得された画像情報で示される前記対象物の領域内にある場合に、前記レーダ情報と前記画像情報とに基いて前記対象物についての詳細な情報を取得することを特徴とする、請求項1〜9いずれか1つに記載の車両用対象物検出装置。
【請求項11】
自車両周辺の対象物を検出する車両用対象物検出方法であって、
自車両周辺の対象物のレーダ情報を取得するレーダ情報取得ステップと、
自車両周辺の画像を撮像する画像撮像ステップと、
前記画像撮像ステップによって撮像された画像から画像情報を取得する対象となる第1の画像処理領域を設定する第1の画像処理領域設定ステップと、
前記レーダ情報取得ステップによって前記自車両から見て同一方向に複数の対象物のレーダ情報が取得された場合、前記第1の画像処理領域とは異なる第2の画像処理領域を設定する第2の画像処理領域設定ステップと、
前記第2の画像処理領域設定ステップによって設定された第2の画像処理領域内の画像情報を取得する画像情報取得ステップと、
前記レーダ情報取得ステップによって取得されたレーダ情報と、前記画像情報取得ステップによって取得された画像情報とに基いて、前記第2の画像処理領域内の対象物についての詳細な情報を取得する詳細情報取得ステップとを備える、車両用対象物検出方法。
【請求項1】
自車両周辺の対象物を検出する車両用対象物検出装置であって、
レーダによって自車両周辺の対象物のレーダ情報を取得するレーダ情報取得手段と、
自車両周辺の画像を撮像する画像撮像手段と、
前記画像撮像手段によって撮像された画像から画像情報を取得する対象となる第1の画像処理領域を設定する第1の画像処理領域設定手段と、
前記レーダ情報取得手段によって前記自車両から見て同一方向に複数の対象物のレーダ情報が取得された場合、前記第1の画像処理領域とは異なる第2の画像処理領域を設定する第2の画像処理領域設定手段と、
前記第2の画像処理領域設定手段によって設定された第2の画像処理領域内の画像情報を取得する画像情報取得手段と、
前記レーダ情報取得手段によって取得されたレーダ情報と、前記画像情報取得手段によって取得された画像情報とに基いて、前記第2の画像処理領域内の対象物についての詳細な情報を取得する詳細情報取得手段とを備える、車両用対象物検出装置。
【請求項2】
前記第2の画像処理領域設定手段は、前記複数の対象物のうち、前記自車両からの距離が最も短い対象物に対して前記第2の画像処理領域を設定することを特徴とする、請求項1に記載の車両用対象物検出装置。
【請求項3】
前記自車両からの距離が最も短い対象物が静止物であることを特徴とする、請求項2に記載の車両用対象物検出装置。
【請求項4】
前記第2の画像処理領域設定手段は、前記静止物に対しては、前記静止物に対する第3の画像処理領域を、前記第2の画像処理領域として設定することを特徴とする、請求項3に記載の車両用対象物検出装置。
【請求項5】
前記第2の画像処理領域設定手段は、前記第2の画像処理領域を前記第1の画像処理領域よりも狭く設定することを特徴とする、請求項1〜4いずれか1つに記載の車両用対象物検出装置。
【請求項6】
前記第2の画像処理領域設定手段は、前記自車両から見て同一方向に検出された複数の対象物間の距離が予め定めた第1のしきい値未満である場合に、第2の画像処理領域を設定することを特徴とする、請求項1〜5いずれか1つに記載の車両用対象物検出装置。
【請求項7】
前記第2の画像処理領域設定手段は、前記自車両と、前記複数の対象物のうち前記自車両から最も近い対象物との距離が、予め定めた第2のしきい値未満である場合に、第2の画像処理領域を設定することを特徴とする、請求項1〜6いずれか1つに記載の車両用対象物検出装置。
【請求項8】
前記画像情報取得手段は、前記第1の画像処理領域設定手段によって設定された第1の画像処理領域内の画像情報をさらに取得し、前記詳細情報取得手段は、前記レーダ情報取得手段により取得されたレーダ情報と、前記第1の画像処理領域内の画像情報とに基いて、第1の画像処理領域内の対象物についての詳細な情報を取得することを特徴とする、請求項1〜7いずれか1つに記載の車両用対象物検出装置。
【請求項9】
前記第2の画像処理領域設定手段は、前記レーダ情報取得手段によって取得されたレーダ情報に基いて前記自車両の周辺に複数の対象物が存在すると判定し、かつ、前記複数の対象物が前記第1の画像処理領域内に存在すると判定した場合に、前記第1の画像処理領域内に存在する前記複数の対象物は前記自車両から見て同一方向に存在すると判定することを特徴とする、請求項1〜8いずれか1つに記載の車両用対象物検出装置。
【請求項10】
前記詳細情報取得手段は、前記レーダ情報取得手段によって取得されたレーダ情報で示される対象物の位置が、前記画像情報取得手段によって取得された画像情報で示される前記対象物の領域内にある場合に、前記レーダ情報と前記画像情報とに基いて前記対象物についての詳細な情報を取得することを特徴とする、請求項1〜9いずれか1つに記載の車両用対象物検出装置。
【請求項11】
自車両周辺の対象物を検出する車両用対象物検出方法であって、
自車両周辺の対象物のレーダ情報を取得するレーダ情報取得ステップと、
自車両周辺の画像を撮像する画像撮像ステップと、
前記画像撮像ステップによって撮像された画像から画像情報を取得する対象となる第1の画像処理領域を設定する第1の画像処理領域設定ステップと、
前記レーダ情報取得ステップによって前記自車両から見て同一方向に複数の対象物のレーダ情報が取得された場合、前記第1の画像処理領域とは異なる第2の画像処理領域を設定する第2の画像処理領域設定ステップと、
前記第2の画像処理領域設定ステップによって設定された第2の画像処理領域内の画像情報を取得する画像情報取得ステップと、
前記レーダ情報取得ステップによって取得されたレーダ情報と、前記画像情報取得ステップによって取得された画像情報とに基いて、前記第2の画像処理領域内の対象物についての詳細な情報を取得する詳細情報取得ステップとを備える、車両用対象物検出方法。
【図1】
【図2A】
【図2B】
【図2C】
【図2D】
【図3】
【図4】
【図5A】
【図5B】
【図5C】
【図6】
【図7A】
【図7B】
【図7C】
【図7D】
【図8A】
【図8B】
【図8C】
【図9】
【図10】
【図2A】
【図2B】
【図2C】
【図2D】
【図3】
【図4】
【図5A】
【図5B】
【図5C】
【図6】
【図7A】
【図7B】
【図7C】
【図7D】
【図8A】
【図8B】
【図8C】
【図9】
【図10】
【公開番号】特開2012−64026(P2012−64026A)
【公開日】平成24年3月29日(2012.3.29)
【国際特許分類】
【出願番号】特願2010−208317(P2010−208317)
【出願日】平成22年9月16日(2010.9.16)
【出願人】(000003207)トヨタ自動車株式会社 (59,920)
【Fターム(参考)】
【公開日】平成24年3月29日(2012.3.29)
【国際特許分類】
【出願日】平成22年9月16日(2010.9.16)
【出願人】(000003207)トヨタ自動車株式会社 (59,920)
【Fターム(参考)】
[ Back to top ]