説明

物体検出装置、および、物体検出方法

【課題】撮影画像中の物体の物体像を確実に検出することを目的とする技術に関する。
【解決手段】
撮影画像に基づいて、カメラの光軸の実際の方向を示す情報を導出し、カメラの光軸の基準の方向を示す情報とカメラの光軸の実際の方向を示す情報との差に応じて、撮影画像中において検出領域とする範囲を変更する。これにより、物体の物体像の検出領域を撮影画像中の適正な範囲に設定でき、検出対象とすべき物体の物体像を確実に検出できる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両周辺の物体の物体像を検出する技術に関する。
【背景技術】
【0002】
従来、車両に搭載され、光軸の方向が設定されたカメラで撮影された画像中の物体の物体像を検出する技術がある。そして、物体の物体像を検出する場合、検出処理の対象とする検出領域の範囲を撮影画像全体とすると画像処理装置の処理量および処理時間が増加する。そのため、検出領域は撮影画像中の検出対象とする物体の物体像の全体が現れる一部の範囲としていた。
【0003】
なお、本発明と関連する技術を説明する資料としては特許文献1がある。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特許第2701651号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、経年変化などの影響により、車両に搭載されたカメラの光軸の方向が設定当初と比べて変更されることがあった。このような光軸の方向の変更に伴い撮影画像中において検出対象とすべき物体の物体像の全体が検出領域に含まれず、本来検出すべき物体の物体像を検出できない場合があった。
【0006】
また、車両にカメラを搭載する場合、光軸の方向を定めるカメラの設置角度などの基準となるパラメータに基づいて、カメラを車両に搭載するキャリブレーション処理が行われる。キャリブレーション処理は工場などでユーザ(キャリブレーション処理に係る作業を行う作業員等)が手動で行うものである。そして、キャリブレーション処理が実行された場合に、カメラの基準のパラメータ値とカメラの実際のパラメータ値とを比較すると、2つのパラメータ値に差が生じているときがある。このような差の影響で、検出領域に物体の物体像の全体が含まれず、本来検出すべき物体の物体像を検出できない場合があった。
【0007】
本発明は、上記課題に鑑みてなされたものであり、撮影画像中の物体の物体像を確実に検出する技術を提供することを目的とする。
【課題を解決するための手段】
【0008】
上記課題を解決するために、請求項1の発明は、車両に搭載されたカメラの撮影画像を取得する取得手段と、前記撮影画像中の検出領域に存在する物体の物体像を検出する検出手段と、前記カメラの光軸の基準の方向を示す第1情報を記憶する記憶手段と、前記撮影画像に基づいて、前記カメラの光軸の実際の方向を示す第2情報を導出する導出手段と、前記第1情報と前記第2情報との差に応じて、前記撮影画像中において前記検出領域とする範囲を変更する変更手段と、を備える。
【0009】
また、請求項2の発明は、請求項1に記載の物体検出装置において、前記第1情報及び前記第2情報は、時間的に連続して取得される複数の前記撮影画像において前記物体像が移動する軌跡の位置である。
【0010】
また、請求項3の発明は、請求項1に記載の物体検出装置において、前記第1情報及び前記第2情報は、前記撮影画像における消失点の位置である。
【0011】
また。請求項4の発明は、車両に搭載されたカメラの撮影画像を取得する取得手段と、前記撮影画像中の検出領域に存在する物体の物体像を検出する検出手段と、前記カメラの基準の第1パラメータと前記カメラの実際の第2パラメータとの差に応じて、前記撮影画像中において前記検出領域とする範囲を変更する変更手段と、を有する。
【0012】
また、請求項5の発明は、請求項4に記載の物体検出装置において、前記第1パラメータ及び前記第2パラメータは、前記カメラの光軸の方向であり、前記変更手段は、前記検出領域の位置を変更する。
【0013】
また、請求項6の発明は、請求項4に記載の物体検出装置において、前記第1パラメータ及び前記第2パラメータは、前記カメラの画角であり、前記変更手段は、前記検出領域の大きさを変更する。
【0014】
また、請求項7の発明は、(a)車両に搭載されたカメラの撮影画像を取得する工程と、(b)前記撮影画像中の検出領域に存在する物体の物体像を検出する工程と、(c)前記カメラの光軸の基準の方向を示す第1情報を記憶する手段から前記第1情報を取得する工程と、(d)前記撮影画像に基づいて、前記カメラの光軸の実際の方向を示す第2情報を導出する工程と、(e)前記第1情報と前記第2情報との差に応じて、前記撮影画像中において前記検出領域とする範囲を変更する工程と、を備える。
【0015】
また、請求項8の発明は、(a)車両に搭載されたカメラの撮影画像を取得する工程と、(b)前記撮影画像中の検出領域に存在する物体の物体像を検出する工程と、(c)前記カメラの基準の第1パラメータと前記カメラの実際の第2パラメータとの差に応じて、前記撮影画像中において前記検出領域とする範囲を変更する工程と、を有する。
【0016】
また、請求項9の発明は、車両に搭載されたカメラの撮影画像を取得する取得手段と、前記撮影画像中の検出領域に存在する物体の物体像を検出する検出手段と、前記カメラの光軸のズレ量を検出する光軸ズレ検出手段と、前記光軸のズレ量に応じて、前記撮影画像中において前記検出領域とする範囲を変更する変更手段と、を備える。
【0017】
さらに、請求項10は、請求項9に記載の物体検出装置において、前記光軸ズレ検出手段は、前記カメラの光軸の基準の方向を示す第1情報を記憶する記憶手段と、前記撮影画像に基づいて、前記カメラの光軸の実際の方向を示す第2情報を導出する導出手段と、前記第1情報と前記第2情報との差を算出する算出手段を備える。
【発明の効果】
【0018】
請求項1ないし8の発明によれば、第1情報と第2情報との差に応じて、撮影画像中において検出領域とする範囲を変更することで、物体の物体像の検出領域を撮影画像中の適正な範囲に設定でき、検出対象とすべき物体の物体像を確実に検出できる。
【0019】
また、特に請求項2の発明によれば、第1情報及び前記第2情報は、時間的に連続して取得される複数の撮影画像において物体像が移動する軌跡の位置であることで、物体像の移動軌跡の位置に基づいて物体の物体像の検出領域を撮影画像中の適正な位置に設定でき、検出対象とすべき物体の物体像を確実に検出できる。
【0020】
また、特に請求項3の発明によれば、第1情報及び前記第2情報は、前記撮影画像における消失点の位置であることで、物体像の消失点に基づいて物体の物体像の検出領域を撮影画像中の適正な範囲に設定でき、検出対象とすべき物体の物体像を確実に検出できる。
【0021】
また、特に請求項4の発明によれば、カメラの基準の第1パラメータとカメラの実際の第2パラメータとの差に応じて、撮影画像中において検出領域とする範囲を変更することで、カメラの設定パラメータに応じて検出領域を撮影画像中の適正な範囲に設定でき、検出対象とすべき物体の物体像を確実に検出できる。
【0022】
また、特に請求項5の発明によれば、変更手段が、検出領域の位置を変更することで、フロントカメラ51の実際の設置角度を変更することなく、カメラの光軸の方向に応じた検出領域の位置を設定でき、検出対象とすべき物体の物体像を確実に検出できる。
【0023】
さらに、特に請求項6の発明によれば、変更手段が、検出領域の大きさを変更することで、カメラの画角に応じた検出領域の大きさを設定でき、検出対象とすべき物体の物体像を確実に検出できる。
【図面の簡単な説明】
【0024】
【図1】図1は、第1の実施の形態の物体検出システムのブロック図である。
【図2】図2は、車載カメラが車両に配置される位置を示す図である。
【図3】図3は、撮影画像中の検出領域の物体の物体像を検出する状態を示す図である。
【図4】図4は、撮影画像中の検出領域の物体の物体像を検出する状態を示す図である。
【図5】図5は、時間的に連続する複数の撮影画像を一の撮影画像として示した図である。
【図6】図6は、時間的に連続する複数の撮影画像を一の撮影画像として示した図である。
【図7】図7は、基準となる移動軌跡と実際の移動軌跡の撮影画像を示す図である。
【図8】図8は、検出領域の範囲変更を示す図である。
【図9】図9は、第1の実施の形態の画像処理装置の処理フローチャートである。
【図10】図10は、第1の実施の形態の画像処理装置の処理の流れを示す処理フローチャートである。
【図11】図11は、撮影画像中の検出領域の範囲を示す図である。
【図12】図12は、撮影画像中の検出領域の範囲を示す図である。
【図13】図13は、バックカメラの実際の光軸の方向を示す図である。
【図14】図14は、基準となる消失点と実際の消失点とを示す図である。
【図15】図15は、検出領域の範囲変更を示す図である。
【図16】図16は、第2の実施の形態の画像処理装置の処理の流れを示す処理フローチャートである。
【図17】図17は、第2の実施の形態の画像処理装置の処理の流れを示す処理フローチャートである。
【図18】図18は、第3の実施の形態の物体検出システムのブロック図である。
【図19】図19は、フロントカメラの設置に関する基準となるパラメータ値に合わせて車両にフロントカメラが設置された状態を撮影画像により示す図である。
【図20】図20は、フロントカメラの設置に関する基準となるパラメータ値と差が生じた状態でフロントカメラが車両に設置された状態を撮影画像により示す図である。
【図21】図21は、フロントカメラ51の検出領域の調整を示した図である。
【図22】図22は、第3の実施の形態の画像処理装置の処理フローチャートである。
【図23】図23は、車両の検出領域に対応する撮影範囲を示す図である。
【図24】図24は撮影画像中の検出領域を示す図である。
【図25】図25は、車両に設置するフロントカメラを画角の異なるフロントカメラに変更した状態を示す図である。
【図26】図26は、フロントカメラの撮影画像の検出領域を示す図である。
【図27】図27は、検出領域の大きさを変更する処理を示す図である。
【図28】図28は、第4の実施の形態の画像処理装置の処理フローチャートである。
【発明を実施するための形態】
【0025】
以下、図面を参照しつつ本発明の実施の形態について説明する。
【0026】
<1.第1の実施の形態>
<1−1.システム構成>
図1は、物体検出システム120のブロック図である。この物体検出システム120は、車両(本実施の形態では、自動車)に搭載されるものであり、車両9(図2に示す。)の周辺を撮影して画像を生成し、その生成した画像に基づいて、撮影画像中の物体の物体像を検出する。物体検出システム120は、物体像を検出する検出処理を行う画像処理装置100を備えている。この画像処理装置100が検出する物体の物体像は、車両9に接近する物体の物体像である。撮影画像中の一部の領域を検出処理の対象とする検出領域(例えば、図3に示す撮影画像ph1の検出領域SA)として設定し、検出領域内の物体を画像処理装置100が検出する。
【0027】
矩形の領域である検出領域SA内に物体の物体像が検出された場合は、物体像が検出された旨の信号を画像処理装置100が例えばナビゲーション装置のようにディスプレイを有する表示装置20に出力してユーザに報知する。また、画像処理装置100が車両ECU84に信号を出力して車両9のハザードランプ、および、ブレーキランプなどを点滅させて、車両9に接近する他の車両のユーザに車両の接近を報知する。これにより車両9のユーザ(代表的にはドライバ)の安全を確保する。
【0028】
図1に示すように、物体検出システム120は、車両の周囲を撮影するカメラを備えている撮影部5と、撮影部5で取得された撮影画像を処理する画像処理装置100とを主に備えている。
【0029】
撮影部5は車両9に搭載されたカメラであるフロントカメラ51、バックカメラ52、左サイドカメラ53、および、右サイドカメラ54(以下、「カメラ50」ともいう。)を備えている。なお、各カメラの車両9への搭載位置などの説明は後述する。
【0030】
<1−2.画像処理装置>
画像処理装置100は、本体部10が撮影画像中の物体の物体像を検出してその旨の信号を出力する機能を有するECU(Electronic Control Unit)であり、車両の所定の位置に配置される。
【0031】
画像処理装置100の本体部10は、装置全体を制御する制御部1と、撮影部5で取得された撮影画像を処理して物体の物体像を検出する画像処理部3とを主に備えている。
【0032】
画像処理部3は、各種の画像処理が可能なハードウェア回路として構成されており、画像取得部31、物体検出部32、方向導出部33、および、画像送信部34を主な機能として備えている。なお、画像処理部3の各種処理は制御部1の指示信号に基づいて行われる。
【0033】
画像取得部31は、車両9の周辺を撮影する撮影部5のカメラ50で取得された複数の撮影画像をカメラ50から取得する。
【0034】
物体検出部32は、撮影画像中の検出領域SAに存在する物体の物体像を検出する。物体像の検出はエッジ検出により行われ、検出領域SA内のエッジに囲まれた領域に物体の物体像が存在することを検出する。また、物体検出部32は撮影部5により所定時間ごとに撮影される複数の撮影画像において大きさが拡大する物体像を車両9に接近する物体に対応する物体像として検出する。
【0035】
なお、物体検出部32が物体像を検出する検出領域は、撮影画像中の一部の領域となる。撮影画像中の検出領域は、例えば、撮影画像中において車線像を規定する区画線などの実際には平行の線の像が遠近法によって点に収束する(交わる)点である消失点(例えば、図3に示す消失点LP)を含み、消失点から出現する物体の物体像の全体を含む範囲の領域(例えば、図3に示す検出領域SA)に設定される。消失点は、理論的には無限遠点であり、物体の物体像の出現位置ともなる。
【0036】
また、検出領域SAは後述する不揮発性メモリ40に領域データ4bとして記録されており、物体検出部32が物体の物体像を検出する場合に、領域データ4bを画像生成処理を制御する画像制御部11が不揮発性メモリ40から読み出す。
【0037】
方向導出部33は、カメラ50の光軸(図2に示す光軸51a、52a、53a、54a)の方向をカメラ50が撮影した撮影画像に基づいて導出する。つまり、撮影された撮影画像に基づいて実際の光軸の方向を方向導出部33が導出する。カメラ50の光軸の導出処理については後に詳述する。
【0038】
画像送信部34は、画像処理部3で生成された画像情報を通信部41を介して表示装置20に出力する。
【0039】
制御部1は、CPU、RAM、および、ROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す画像制御部11、比較部12は、および、範囲変更部13はこのようにして実現される制御部1の機能のうちの一部を示している。
【0040】
画像制御部11は、画像処理部3によって実行される画像処理を制御する。例えば、検出領域SAの物体の物体像を検出する処理の指示信号を画像制御部11が画像処理部3に出力する。また、画像制御部11は、画像処理部3により生成される画像の生成に必要な各種パラメータなどを指示する。
【0041】
比較部12は、方向導出部33により導出されたカメラ50の光軸の実際の方向と、不揮発性メモリ40に記録された車種別データ4aに含まれるカメラ50の光軸の基準の方向との差を導出する処理を行う。カメラ50の光軸の差の導出処理については後に詳述する。
【0042】
範囲変更部13は、比較部12により導出されたカメラ50の光軸の実際の方向とカメラ50の光軸の基準の方向との差に応じて、撮影画像中において検出領域SAとする範囲を変更する。例えば、経年変化の影響によりカメラ50の現在の設置角度が車両9にカメラ50を設置した当初の設置角度と差が生じている場合、範囲変更部13が撮影画像中において検出領域SAとする範囲を変更する。
【0043】
ここで、カメラ50の設置角度とは、カメラの上下方向(図2に示すXYZ直交座標の±Z方向)の角度であるチルト角、カメラ50の水平方向(図2に示すXYZ直交座標の±X方向および±Y方向のいずれか)の角度であるパン角、および、カメラ50の傾き角度であるロール角の角度である。
【0044】
なお、検出領域SAのデータは不揮発性メモリ40内に領域データ4bとして記録されているため、変更前の領域データ4bの検出領域SAの範囲のデータを変更後の検出領域(例えば、図8に示す検出領域SA1)の範囲のデータに制御部1が書き換える。そして、検出領域の範囲が変更された後に撮影画像中の物体の物体像の検出が行われる場合は、変更後の検出領域SA1の領域データ4bが不揮発性メモリ40から画像制御部11により読み出され、検出領域SA1の範囲で物体の物体像の検出を物体検出部32が行う。
【0045】
また、画像処理装置100の本体部10は、不揮発性メモリ40、通信部41、および、信号入出力部42をさらに備えており、これらは制御部1に接続されている。
【0046】
不揮発性メモリ40は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどで構成されている。不揮発性メモリ40には、車種別データ4aが記憶されている。車種別データ4aは、画像処理部3が画像を生成する際に必要となる車両の種別に応じたカメラ50の設定パラメータ値を含むデータである。例えば、カメラ50の設置角度、カメラ50の設置位置などの情報である。つまり、車種別データ4aは、カメラ50の光軸の設置時における方向を示すデータを含んでいる。このカメラ50の光軸の設置時における方向は、カメラ50の光軸の基準の方向として利用される。
【0047】
したがって、車種別データ4aは、カメラ50の光軸の実際の方向とカメラ50の光軸の基準の方向との差を比較部12が導出する場合に、不揮発性メモリ40から読み出される。
【0048】
また、不揮発性メモリ40には領域データ4bが記憶されている。領域データ4bは、画像処理部3が撮影画像中の物体の物体像を検出する場合に用いられるデータであり、検出領域SAなどのデータを含んでいる。
【0049】
通信部41は、画像処理装置100が表示装置20との間で通信を行うための入出力のインターフェースである。
【0050】
信号入出力部42は、車両9に設けられた各種装置からの信号の入出力を行う際のインターフェースである。
【0051】
シフトセンサ81は、車両9の変速装置のシフトレバーの操作の位置、すなわち、”P(駐車)”,”D(前進)”,”N(中立)”,”R(後退)”などのシフトポジションが入力される。
【0052】
ジャイロセンサ82は、車両9の傾き変化の速度(角速度)の信号を制御部1に出力する。制御部1はジャイロセンサ82から受信した信号により車両9の傾き変化を導出する。
【0053】
操舵角センサ83は、ユーザが操作したステアリングホイールの操作方向を制御部1に出力する。詳細には、操舵角センサ83は、ユーザが操作したステアリングホイールの回転方向、回転角度、及び、回転速度を信号入出力部42を介して制御部1に出力する。
【0054】
車両ECU84は、車両本体の制御を行うECUであり、制御部1からの信号に基づいて、車両9のハザードランプ、および、ブレーキランプの少なくとも一つを点滅させるなどの車両動作の制御を行う。
【0055】
<1−3.撮影部>
次に、画像処理装置100の撮影部5について詳細に説明する。撮影部5は、制御部1に電気的に接続され、制御部1からの信号に基づいて動作する。
【0056】
撮影部5は、車載カメラであるフロントカメラ51、バックカメラ52、左サイドカメラ53、および、右サイドカメラ54を備えている。これらの車載カメラ51、52、53、54はそれぞれ、CCDやCMOSなどの撮像素子を備えており電子的に画像を取得する。
【0057】
図2は、カメラ50が車両9に配置される位置を示す図である。なお、以下の説明においては、方向及び向きを示す際に、適宜、図中に示す3次元のXYZ直交座標を用いる。このXYZ軸は車両9に対して相対的に固定される。ここで、X軸方向は車両9の左右方向に沿い、Y軸方向は車両9の直進方向(前後方向)に沿い、Z軸方向は鉛直方向に沿っている。また、便宜上、+X側を車両9の右側、+Y側を車両9の後側、+Z側を車両9の上側とする。
【0058】
フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向(平面視でY軸方向の−Y側)に略沿って向けられている。バックカメラ52は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸52aは車両9の直進方向の逆方向(平面視でY軸方向の+Y側)に略沿って向けられている。また、左サイドカメラ53は、左のドアミラー93に設けられており、その光軸53aは車両9の左方向(平面視で+X軸方向)に沿って外部に向けられている。さらに、右サイドカメラ54は、右のドアミラー94に設けられており、その光軸54aは車両9の右方向(平面視で−X軸方向)に沿って外部に向けられている。なお、フロントカメラ51やバックカメラ52の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
【0059】
カメラ50のレンズとしては魚眼レンズなどが採用されており、カメラ50は180度以上の画角αを有している。このため、4つの車載カメラ51、52、53、54を利用することで、車両9の全周囲の撮影が可能となっている。
【0060】
<1−4.表示装置>
表示装置20は、ナビゲーション案内を表示するディスプレイを有するナビゲーション装置、音楽のタイトル情報やテレビの映像などを表示するディスプレイを備えたオーディオ装置、ユーザが携帯し車両9内へ持ち込んで使用可能なスマートフォンなどである。
表示装置20は、タッチパネル機能を備えた液晶などのディスプレイ21と、ユーザが操作を行う操作部22と、装置全体を制御する制御部23とを備えている。ディスプレイ21の画面はユーザから視認可能なように、表示装置20は車両のインストルメントパネルなどに設置される。ユーザからの各種の指示は、操作部22とタッチパネルとしてのディスプレイ21とによって受け付けられる。制御部23は、CPU、RAM、および、ROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。
【0061】
表示装置20は、画像処理装置100と通信可能に接続され、画像処理装置100との間で各種の制御信号の送受信や、画像処理装置100で生成された周辺画像の受信が可能となっている。ディスプレイ21には、制御部23の制御により、通常は表示装置20単体の機能に基づく画像が表示されるが、所定の条件下で画像処理装置100により生成された車両の周辺の様子を示す周辺画像が表示される。また、ディスプレイ21に表示される撮影部5により撮影された画像は車両9の周辺領域をほぼリアルタイムに示すことになる。これにより、表示装置20は、画像処理装置100で生成された周辺画像を受信して表示する表示装置としても機能する。
【0062】
また、画像処理部3により検出領域SAに物体の物体像が検出された旨の信号を制御部1から通信部41を介して表示装置20が受信した場合は、車両9に物体が接近している旨の報知(例えば、画像および音声の少なくとも一つを用いた報知)を車両9のユーザに行う。
【0063】
また、表示装置20の操作部22やディスプレイ21によって受け付けられたユーザからの各種の指示は、制御信号として通信部41によって受け付けられて制御部1に入力される。
【0064】
<1−5.検出領域の範囲変更>
次に、撮影画像中における検出領域の範囲変更について説明する。なお、以下では撮影画像中の方向および向きを示す際に、適宜、図中に示す2次元のxy直交座標を用いる。このxy軸は撮影画像に対して相対的に固定される。ここで、x軸方向は撮影画像の左右方向であり、例えば図3の撮影画像ph1(以下、「画像ph1」ともいう。)に向かって右方向(+x方向)に消失点LPが位置している、また、y軸方向は撮影画像の上下方向である。なお、消失点LPの位置は車両9の前方に位置する車線像CLを規定する区画線のライン像ALが点に収束する位置となる。
【0065】
また、検出領域の範囲変更について、以下ではフロントカメラ51の撮影画像の検出領域SAの範囲変更について説明する。ここで、撮影画像中のどの範囲を検出領域とするのかは、車両の走行する外部環境および車両9のユーザに提供するシステムの形態の少なくとも一つに応じて異なり、車両9にカメラ50を設定する際に撮影画像中の任意の一部の領域に設定が可能である。
【0066】
図3および図4は撮影画像中の検出領域SAに存在する物体像を検出する状態を示す図である。図3の画像ph1はフロントカメラ51により撮影された画像であり、画像ph1中の検出領域SAは消失点LPを含む領域である。なお、消失点LPは車線像CLを規定する区画線のライン像ALが点に収束する位置となっている。
【0067】
また、画像ph1は見通しの悪い交差点で車両9のフロントカメラ51に撮影された画像であり、現実の車両9の前方(図2に示す−Y方向)の右方向(+X方向)から車両9に接近する物体の物体像を検出するように検出領域SAが設定されている。なお、画像ph1における検出領域SAには物体の物体像はまだ検出されていない。
【0068】
次に、撮影画像ph2(以下、「画像ph2」ともいう。)は、画像ph1が撮影された後に画像ph1と時間的に連続してフロントカメラ51に撮影された画像である。画像ph2では、消失点LPから出現した物体の物体像である車両像AC1が検出領域SAに存在している。そして、車両像AC1を物体検出部32がエッジ検出により検出する。これにより、物体検出部32は、画像ph2において車両像AC1が存在する範囲である物体領域de1を特定する。
【0069】
図4の撮影画像ph3(以下、「画像ph3」ともいう。)は、画像ph2が撮影された後に画像ph2と時間的に連続してフロントカメラ51に撮影された画像である。画像ph3では、車両像AC2を物体検出部32がエッジ検出により検出する。これにより、物体検出部32は、画像ph3において車両像AC2が存在する範囲である物体領域de2を特定する。画像ph3の物体領域de2は画像ph2の物体領域de1と比べて領域の面積が大きい。これにより、車両像AC2に対応する物体である車両が車両9に接近していることを検出する。このように、物体検出部32は、物体像が存在する範囲である物体領域が、時間的に連続する撮影画像において拡大する場合は、当該物体像が示す物体が車両9に接近していると判断する。
【0070】
図5は、時間的に連続する複数の撮影画像を一の撮影画像に重ねて示した図である。つまり、撮影画像ph11(以下、「画像ph11」ともいう。)は、画像ph2および画像ph3を含む時間的に連続する複数の撮影画像を示している。そして、物体検出部32により検出された検出領域SA内の車両像AC1に対応する物体領域de1、および、車両像AC2に対応する物体領域de2の撮影画像上の位置情報に基づいて、車両9に接近する物体の物体像が移動する軌跡を示す移動軌跡Trを方向導出部33が導出する。
【0071】
フロントカメラ51の光軸が基準の方向にある場合において、時間的に連続して取得される複数の撮影画像に基づいて導出される移動軌跡Trは、基準となる移動軌跡TrSとして利用される。この移動軌跡TrSの位置は実質的にフロントカメラ51の光軸の基準の方向を示す情報となり、予め車種別データ4aとして不揮発性メモリ40に記録される。
【0072】
なお、画像ph11中の車両像AC3および車両像AC4は、車両像AC1および車両像AC2に対応する車両と同一の車両の車両像であり、現実の車両9の前方(図2に示す−Y方向)を右方向(+X方向)から左方向(−X方向)に通過する車両の車両像である。このように画像ph11に向かって右方向(+x方向)から車両像が出現して、画像ph11に向かって左方向(−x方向)に車両像が移動する場合は、検出領域SAの位置を画像ph11に向かって右側(+x側)に設けている。
【0073】
これにより画像ph11に向かって右側(+x側)に位置する消失点LPから出現する物体の物体像を早期に物体検出部32が検出でき、車両9に接近する物体の物体像の情報を車両9の各部に伝達できる。そして、車両9の前方を通過した車両像AC3、および、車両9から遠ざかる車両像AC4は車両との接触の危険性などはないため検出対象とはしない。
【0074】
次に、経年変化などによりカメラの光軸の方向が基準の方向と差が生じている場合について説明する。図6は、時間的に連続する複数の撮影画像を一の撮影画像に重ねて示した図である。なお、図6の画像ph12は図5の画像ph11を撮影した車両9の位置と同じ位置で、異なるタイミングにおいて撮影したものである。
【0075】
また、図6の画像ph12が図5の画像ph11と異なる点は、画像ph12を撮影したフロントカメラ51の光軸の方向が、基準の方向と比べて、車両9の上方向(図2に示す+Z方向)に傾いていることである。そのため、画像ph12の検出領域SAで物体検出部32により検出された車両像AC1に対応する物体領域de11、および、車両像AC2に対応する物体領域de12は、画像ph11の物体領域de1、および、de2と比べて検出領域SAの外縁に近接している。
【0076】
つまり、フロントカメラ51の光軸の上方向(+Z方向)の傾きが更に大きくなれば車両像AC1およびAC2の一部が検出領域SAの領域外となり、車両像AC1およびAC2が物体検出部32に検出されない可能性がある。なお、画像ph12では、車両像AC1およびAC2の移動軌跡Tr1を方向導出部33が導出する。この移動軌跡Tr1の位置は、実際の車両9のフロントカメラ51の光軸の方向を示す情報となる。
【0077】
図7は、基準となる移動軌跡TrSと実際の移動軌跡Tr1とを同一の撮影画像ph0(以下、「画像ph0」ともいう。)中に示す図である。図7には、フロントカメラ51の光軸が基準の方向にある場合の基準の移動軌跡TrSと、光軸が傾いた場合の実際の移動軌跡Tr1とが示されている。光軸が基準である場合の消失点LPは移動軌跡TrSの線上に、光軸が傾いた場合の消失点LP1は移動軌跡Tr1にそれぞれ位置している。
【0078】
基準の移動軌跡TrSと実際の移動軌跡Tr1との差が生じる原因は、現実の車両9のフロントカメラ51の光軸が上下方向(±Z方向)に傾くことである。つまり、移動軌跡TrSの位置がフロントカメラ51の光軸の基準の方向を示す情報に対応し、移動軌跡Tr1の位置がフロントカメラ51の光軸の実際の方向を示す情報に対応する。そして、図7に示すように消失点LP1を含む実際の移動軌跡Tr1の位置は、基準となる移動軌跡TrSよりも画像ph0中の下方(−y方向)位置にある。
【0079】
比較部12は、このような基準となる移動軌跡TrSの位置と実際の移動軌跡Tr1の位置とを比較し、その差に応じて差の値dfを導出する。
【0080】
図8は、検出領域SAの範囲が変更されることを説明する図である。比較部12が導出した移動軌跡の位置の差dfに応じて、範囲変更部13が撮影画像ph12(以下、「画像ph12」ともいう。)の検出領域SAの範囲を変更する。詳細には、検出領域SAの位置を画像ph12中の下方向(−y方向)に移動させ、検出領域SA1の位置に範囲変更部13が変更する。これにより、物体の物体像の検出領域を撮影画像ph12の適正な位置に設定でき、検出対象とする物体の物体像を確実に検出できる。なお、検出領域SAの範囲変更の実施は、単純に比較部12により導出された移動軌跡の位置の差の値に応じて行ってもよいし、比較部12により導出された移動軌跡の位置の差の値が所定の閾値を超える場合に行うようにしてもよい。
【0081】
なお、上述のように検出領域SAの範囲変更を行う場合は、フロントカメラ51の光軸の基準の方向は現実の車両9の車体が直進方向(例えば、−Y方向)に走行、および、停止のいずれかの状態にある場合である。そのため、現実の車両9が直進方向に走行および停止のいずれかの状態にある場合に、撮影画像に基づいてカメラ50の光軸の実際の方向を示す情報を導出することとなる。
【0082】
<1−6.処理フローチャート>
図9および図10は、第1の実施の形態の画像処理装置100の処理の流れを示す処理フローチャートである。画像取得部31は、車両9の撮影部5のカメラ画像を取得して(ステップS101)、ステップS102の処理に進む。
【0083】
ステップS102では、物体検出部32が領域データ4bの検出領域SAの範囲を走査し、領域中の物体像の検出処理を行い(ステップS102)、ステップS103の処理に進む。
【0084】
ステップS103では、時間的に連続する複数の撮影画像に基づいて、車両9に接近する物体の物体像が物体検出部32により検出されるか否かが判断される。車両9に接近する物体の物体像が検出された場合(ステップS103がYes)は、ステップS104の処理に進む。また、車両9に接近する物体の物体像が検出されない場合(ステップS103がNo)は、処理を終了する。処理終了後は図9のステップS101に戻り、図9及び図10に示す処理を繰り返し行う。
【0085】
ステップS104では、時間的に連続して取得される複数の撮影画像において物体の物体像が実際に移動する軌跡である移動軌跡Tr1を方向導出部33が導出する。つまり、フロントカメラ51の光軸の実際の方向を示す情報を、撮影画像に基づいて方向導出部33が導出して(ステップS104)、ステップS105の処理に進む。
【0086】
ステップS105では、方向導出部33が導出した実際の移動軌跡Tr1の画像ph12における位置と、基準となる移動軌跡TrSの位置とを比較部12が比較して両方の差の値dfを導出して(ステップS105)、ステップS106の処理に進む。基準となる移動軌跡TrSは不揮発性メモリ40に記録されている車種別データ4aに含まれている。このため、比較部12は、移動軌跡同士の比較を行う際に不揮発性メモリ40から移動軌跡TrSを取得する。
【0087】
ステップS106では、基準となる移動軌跡TrSと実際の移動軌跡Tr1との差の値dfが所定の閾値を超えている場合(ステップS106がYes)は、ステップS107の処理に進む。なお、ステップS106において、移動軌跡の差dfの値が所定の閾値を超えていない場合(ステップS106がNo)は、処理を終了する。
【0088】
ステップS107では、移動軌跡の差dfに応じて、撮影画像中の検出領域SAの位置を検出領域SA1に変更する処理を範囲変更部13が行う。これにより、物体像の移動軌跡の位置に基づいて物体の物体像の検出領域を撮影画像中の適正な位置に設定でき、検出対象とすべき物体の物体像を確実に検出できる。
<第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態と第1の実施形態との相違点は次のとおりである。第1の実施の形態は、フロントカメラ51における見通しの悪い交差点での車両9へ接近する物体の物体像を検出する場合の検出領域の範囲変更について説明した。これに対して第2の実施の形態では、バックカメラ52において車両9の後方から接近する物体の物体像を検出する場合の検出領域の範囲の変更について説明する。なお、第2の実施の形態においては、物体検出システム120の構成は同一であり、その処理が一部相違する。以下では、処理の相違点を中心に説明する。
【0089】
<2−1.検出領域の範囲変更>
図11および図12は撮影画像中の検出領域SBの範囲を示す図である。図11の撮影画像ph4(以下、「画像ph4」ともいう。)は、バックカメラ52により撮影された画像であり、画像ph4中の検出領域SBは物体の物体像を検出する領域である。また、検出領域SBは消失点LP11を含み、かつ、画像ph4の略中央の範囲が対象の領域である。なお、消失点LP11の位置は車両9が走行する車線像MLを規定する区画線のライン像AL1が点に収束する位置となっている。なお、画像ph4の検出領域SBでは物体の物体像は検出されていない。
【0090】
なお、バックカメラ52により撮影される画像中の消失点の位置は、バックカメラ52が車両9に搭載された際(バックカメラ52の光軸が基準の方向にある場合)に予め取得され、制御部1により不揮発性メモリ40の車種別データ4aの一部として記憶される。このように取得される消失点の位置は、実質的にバックカメラ52の光軸の基準の方向を示す情報となる。以降、図11の画像ph4中の消失点LP11を、バックカメラ52の光軸の基準の方向を示す基準の消失点LP11であるとして説明する。
【0091】
次に、図11の撮影画像ph5(以下、「画像ph5」ともいう。)は、画像ph4が撮影された後に画像ph4と時間的に連続してバックカメラ52に撮影された画像である。画像ph5では、消失点LP11から出現した物体の物体像である車両像AC11が検出領域SBに存在している。そして、車両像AC11を物体検出部32がエッジ検出により検出する。これにより、物体検出部32は、画像ph5において、車両像AC11が存在する範囲である物体領域de21を特定する。
【0092】
図12の撮影画像ph6(以下、「画像ph6」ともいう。)は、画像ph5が撮影された後に画像ph5と時間的に連続してバックカメラ52に撮影された画像である。画像ph6では、車両像AC12を物体検出部32がエッジ検出により検出する。これにより、物体検出部32は、車両像AC12が存在する範囲である物体領域de22を特定する。画像ph6の物体領域de22は画像ph5の物体領域de21と比べて領域の面積が大きい。これにより、車両像AC12に対応する物体である車両が車両9に接近していることを物体検出部32が検出する。
【0093】
次に、経年変化などによりバックカメラ52の光軸の方向が基準の方向と差が生じている場合について説明する。図13は、、図11の画像ph4を撮影した車両9の位置と同じ位置で、異なるタイミングにおいてバックカメラ52により撮影した撮影画像ph7(以下、「画像ph7」ともいう。)を示す図である。
【0094】
画像ph7においては、図11の基準の消失点LP11の位置と比べて、消失点LP12の位置が画像ph7に向かって右方向(+x方向)に移動している。つまり、バックカメラ52の光軸の方向が、基準の方向と比べて、車両9の左側(図2に示す−X方向)に傾いている。これにより、検出領域SBで検出される物体の物体像の大きさによっては、検出領域SB内に含まれず検出対象とすべき物体の物体像が確実に検出されない場合がある。
【0095】
図14は、基準となる消失点LP11と実際の消失点LP12と同一の撮影画像撮影画像ph00(以下、「画像ph00」ともいう。)中に示す図である。図14には、バックカメラ51の光軸が基準の方向にある場合の基準の消失点LP11、および、光軸が傾いた場合の実際の消失点LP12とが示されている。基準となる消失点LP11の位置と実際の消失点LP12の位置とは差が生じており、両者の差の値df1を比較部12が導出する。
【0096】
図15は、検出領域SBの範囲が変更されることを説明する図である。比較部12が導出した消失点の位置との差df1に応じて、範囲変更部13が撮影画像中の検出領域SBの範囲を変更する。詳細には、図14に示すように画像ph7における検出領域SBの位置を画像ph7に向かって右方向(+x方向)に移動させ、検出領域SB1の位置に範囲変更部13が変更する。これにより、物体の物体像の検出領域を撮影画像中の適正な位置に設定でき、検出対象とする物体の物体像を確実に検出できる。なお、検出領域SBの範囲変更の実施は、単純に比較部12により導出された消失点の位置の差の値に応じて行ってもよいし、比較部12により導出された消失点の位置の差の値が所定の閾値を超える場合に行うようにしてもよい。
【0097】
<2−2.処理フローチャート>
図16および図17は、第2の実施の形態の画像処理装置100の処理の流れを示す処理フローチャートである。この処理は第1の実施の形態で説明した処理と一部の処理が相違し、残りの部分の処理が同一の処理である。そのため、処理が相違する点を中心について以下に説明する。
【0098】
ステップS103では、時間的に連続する複数の撮影画像中に基づいて、車両9に接近する物体の物体像が検出されるか否かが判断される。車両9に接近する物体の物体像が検出された場合(ステップS103がYes)は、ステップS104aの処理に進む。
【0099】
ステップS104aでは、画像ph7における実際の消失点LP12を方向導出部33が導出する。つまり、バックカメラ52の光軸の実際の方向を示す情報を、画像ph7に基づいて方向導出部33が導出して(ステップS104)、ステップS105の処理に進む。
【0100】
ステップS105aでは、方向導出部33が導出した実際の消失点LP12の画像ph7における位置と、基準となる消失点LP11の位置とを比較部12が比較して両方の差の値df1を導出して(ステップS105)、ステップS106の処理に進む。基準となる消失点LP11は不揮発性メモリ40に記録されている車種別データ4aに含まれている。このため、比較部12は、消失点同士の比較を行う際に不揮発性メモリ40から基準となる消失点LP11を取得する。
【0101】
ステップS106aでは、基準となる消失点LP11と消失点LP12との差の値df1が所定の閾値を超える場合(ステップS106がYes)は、ステップS107の処理に進む。なお、ステップS106aにおいて、基準となる消失点LP11と消失点LP12との差の値df1が所定の閾値を超えない場合(ステップS106がNo)は、処理を終了する。
【0102】
<第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態と第1の実施形態との相違点は、次のとおりである。第1の実施の形態は、車両9の走行時にフロントカメラ51により撮影された画像に基づいて、フロントカメラ51の基準となる光軸の方向を示す情報と、フロントカメラ51の実際の光軸の方向を示す情報との差の値に基づいて、物体の物体像を検出する検出領域SAの範囲の変更について説明した。これに対して第3の実施の形態では、フロントカメラ51を車両に搭載する際にフロントカメラ51の設置に関する基準となるパラメータ値に対応するフロントカメラ51の基準の光軸の方向と、フロントカメラ51の設置に関する実際のパラメータ値に対応するフロントカメラ51の実際の光軸の方向との差の値に基づいて物体の物体像の検出領域の範囲を変更する。なお、第3の実施の形態においては、物体検出システム120の構成、および、処理が一部相違する。以下では、相違点を中心に説明する。
【0103】
<3−1.システム構成>
図18は第3の実施の形態の物体検出システム120aのブロック図である。第3の実施の形態の物体検出システム120aは第1の実施の形態の物体検出システム120に対して、新たに制御部1aにキャリブレーション部14が設けられている。
【0104】
キャリブレーション部14は、フロントカメラ51の設置に関する基準となるパラメータ値を不揮発性メモリ40の車種別データ4aから取得して、カメラの設置角度等の調整を行うキャリブレーション処理を行う。
【0105】
比較部12aは、キャリブレーション処理で取得されたフロントカメラ51の設置に関する実際のパラメータ値とフロントカメラ51の設置に関する基準となるパラメータ値との差の値を導出する。
【0106】
範囲変更部13aは、フロントカメラ51の設置に関する実際のパラメータ値とフロントカメラ51の設置に関する基準となるパラメータ値との差の値に応じて検出領域の大きさを変更する。
【0107】
<3−2.検出領域の位置変更>
図19は、フロントカメラ51の設置に関する基準となるパラメータ値に合わせて車両9にフロントカメラ51が設置された状態を撮影画像ph8(以下、「画像ph8」ともいう。)により示す図である。図19の画像ph8の略中央の領域は物体の物体像を検出する検出領域SCとなっている。そして、検出領域SC内に存在する三角形の物体である指標MAの像を物体検出部32が検出し、物体領域de101が指標MAの位置に対応している。つまり、画像ph8では、工場などで車両9にフロントカメラ51を設置する作業を行う作業員が、フロントカメラ51の関する基準となるパラメータ値(例えば、フロントカメラ51の車両9への基準となる設置角度)を手動で調整するキャリブレーション処理において、フロントカメラ51の設置に関する基準となるパラメータ値に合わせてフロントカメラ51の設置に関する実際のパラメータ値(例えば、フロントカメラ51の車両9への実際の設置角度)を調整した状態を示している。
【0108】
図20は、フロントカメラ51の設置に関する基準となるパラメータ値(以下、「基準のパラメータ値」ともいう。)とフロントカメラ51の設置に関する実際のパラメータ値(以下、「実際のパラメータ値」ともいう。)との差が生じた状態の撮影画像ph9(以下、「画像ph9」ともいう。)を示す図である。図20の画像ph9の略中央は検出領域SCの領域となっている。そして、画像ph9中に存在する指標MAの像全体が検出領域SCの領域に含まれていない。そのため、物体検出部32は指標MAの像を検出できない。つまり、画像ph9は、工場などで車両9にフロントカメラ51を設置する作業を行う作業員が、実際のパラメータ値を手動で調整するキャリブレーション処理において、基準のパラメータ値と実際のパラメータ値との間に差が生じた状態でフロントカメラ51を車両9に設置したことを示している。
【0109】
図21は、フロントカメラ51の検出領域の調整を示した図である。図21の画像ph9の破線で示す矩形の検出領域SCの画像ph9中の位置は、実際のパラメータ値に対応している。つまり、フロントカメラ51の実際の光軸の方向に対応している。そして、実際のパラメータ値と基準のパラメータ値との差の値である差の値df2を比較部12aが導出する。つまり、差の値df2がフロントカメラ51の基準となる光軸の方向とフロントカメラ51の実際の光軸の方向との差の値に相当する。
【0110】
次に、差の値df2に応じて範囲変更部13aが画像ph9の検出領域SCの位置を異なる位置に変更する。つまり、検出領域SCの位置を画像ph9において上方向(+y方向)の検出領域SC1の位置に変更する。これにより、フロントカメラ51の実際の設置角度を変更することなく、カメラの設定パラメータに応じた検出領域の位置を設置でき、検出対象とすべき物体の物体像を確実に検出できる。
【0111】
なお、検出領域SCの範囲変更の実施は、上述のように比較部12aにより導出された光軸の方向であるパラメータ値の差の値に応じて行ってもよいし、比較部12aにより導出されたパラメータ値の差の値が所定の閾値を超える場合に行うようにしてもよい。
【0112】
また、この第3の実施の形態においては図19〜図21を用いてフロントカメラ51により撮影された画像に基づいてフロントカメラ51の基準となるパラメータ値と実際のパラメータ値との差を導出し、検出領域SCの位置を範囲変更部13aが変更する処理について説明した。しかしながら、実際にキャリブレーション処理を行う際には、フロントカメラ51を用いて画像の撮影を行わずに処理を行ってもよい。
【0113】
つまり、キャリブレーション部14がキャリブレーション処理を行う際、基準のパラメータ値と、フロントカメラ51の実際のパラメータ値とを比較して両者の差の値を比較部12aが導出するようにしてもよい。そして、両者の差の値に基づいて範囲変更部13が撮影画像中の検出領域SCの位置を異なる位置に変更し、変更した検出領域SC1の位置情報を不揮発性メモリ40に領域データ4bとして記録するようにしてもよい。次に説明する処理説明では、フロントカメラ51による撮影画像を用いずに検出領域の範囲変更を行う処理について記載する。
【0114】
<3−3.処理フローチャート>
図22は、第3の実施の形態の画像処理装置100aの処理フローチャートである。画像処理装置100aはキャリブレーション部14によるキャリブレーション処理に伴うフロントカメラ51の設置に関する実際のパラメータ値を取得して(ステップS201)、ステップS202の処理に進む。
【0115】
ステップS202では、キャリブレーション部14が不揮発性メモリ40の車種別データ4aを読み出す。つまり、フロントカメラ51の基準となるパラメータ値を不揮発性メモリ40から読み出して(ステップS202)、ステップS203の処理に進む。
【0116】
ステップS203では、基準のパラメータ値と実際のパラメータ値との差の値を比較部12aが導出して(ステップS203)、ステップS204の処理に進む。
【0117】
ステップS204では、基準のパラメータ値と実際のパラメータ値との差の値が所定の閾値を超えている場合(ステップS204がYes)は、ステップS205の処理に進む。なお、基準のパラメータ値と実際のパラメータ値との差の値が所定の閾値を超えていない場合(ステップS204がNo)の場合は、処理を終了する。
【0118】
ステップS205では、画像ph9の検出領域SCの位置を検出領域SC1の位置に範囲変更部13aが変更する。
【0119】
<第4の実施の形態>
次に、第4の実施の形態について説明する。第4の実施の形態と第3の実施の形態とは構成および処理の一部が相違する。第4の実施の形態と第3の実施形態との相違点は、次のとおりである。第3の実施の形態は、フロントカメラ51の設置に関する基準となるパラメータ値と、フロントカメラ51の設置に関する実際のパラメータ値との差の値に基づいて物体の物体像の検出領域の範囲を変更する処理について説明した。これに対して、第4の実施の形態では、フロントカメラ51の基準となるカメラの画角(以下、「基準の画角」ともいう。)とフロントカメラ51の実際のカメラの画角(以下、「実際の画角」ともいう。)との差の値に基づいて物体の物体像の検出範囲を変更する処理を行う。以下では、相違点を中心に説明する。
【0120】
<4−1.検出領域の範囲変更>
図23は、車両9の検出領域(図24に示す検出領域SD)に対応する撮影範囲sdを示す図である。フロントカメラ51の画角αに対応する撮影範囲sa内には角度θに対応する撮影範囲sdが含まれている。撮影範囲sdは、次に説明する撮影画像(図24に示す撮影画像ph10)中の物体の物体像を検出する検出領域SDに対応している。
【0121】
図24は撮影画像ph10(以下、「画像ph10」ともいう。)中の検出領域SDを示す図である。画像ph10の略中央には矩形の検出領域SDが設けられている。検出領域SD内の物体の物体像は、図21に示した撮影範囲sdの範囲内に存在している。
【0122】
また、複数の画素の集合領域である画像ph10は、例えば1画素が図23のフロントカメラ51の画角α(例えば、画角190度)のうち、画角の約3度の範囲に対応している。そして、図24の検出領域SDの左右方向(±x方向)の全ての画素の角度合計が撮影範囲sdの角度θとなる。このように、撮影範囲sdの角度θに対応する撮影画像中の検出領域SDの範囲の情報は、フロントカメラ51の基準のパラメータ値として車種別データ4aに記録されている。
【0123】
次に、車両9に搭載するカメラの画角αが異なる値の画角(画角β(例えば、画角130度))の場合について説明する。図25は、車両9に設置するフロントカメラ51を画角の異なるフロントカメラ511に変更した状態を示す図である。両方の画角の関係はα>βである。フロントカメラが画角αから画角βのカメラに変更されたことに伴い、車両9aに搭載されたフロントカメラ511の画角βに対応する撮影範囲sbは、画角αに対応する撮影範囲saよりも小さい領域となる。
【0124】
ここで、画角βのフロントカメラ511と画角αのフロントカメラ51とは物体を検出する撮影範囲は同じ範囲(撮影範囲sd)であるが、撮影範囲に対応する検出領域の大きさは異なるものとなる。つまり、画角βのフロントカメラ511と画角αのフロントカメラ51との撮影画像における検出領域の大きさを同じ大きさとすると、画角βのフロントカメラ511の検出領域に対応する撮影範囲は、図25に示す角度θ1に対応する撮影範囲sd1の範囲となり、本来検出対象とすべき角度θに対応する検出領域の範囲である撮影範囲sdのよりも狭い範囲となる。なお、角度θとθ1との関係はθ>θ1である。
【0125】
図26は、画角βのフロントカメラ511の撮影画像ph11(以下、「画像ph11」ともいう。)の検出領域SD1を示す図である。図26の検出領域SD1と図24の検出領域SDは撮影画像中における領域は同じ大きさである。ここで、検出領域SD1と検出領域SDとの違いは、撮影画像中の±x方向の1画素における角度の値である。つまり、図24の画像ph10の検出領域SDでは、例えば1画素に相当する画素PAの対応角度が約3度であったが、図26の画像ph11の検出領域SD1では、1画素に相当する画素SBの対応角度が約1.8度となっている。これにより、撮影画像中の検出領域の大きさが同じ大きさであったとしても、実際の撮影範囲は図23に示す撮影範囲sdと図25に示す撮影範囲sd1との差が生じる。
【0126】
そのため、車両9のキャリブレーション部14がキャリブレーション処理を行う際に、フロントカメラ51のカメラの画角について、基準の画角と実際の画角との間の差の値を比較部12aが導出して、検出領域SDの大きさを変更する。なお、検出領域SDの範囲変更の実施は、上述のように比較部12aにより導出された基準の画角と実際の画角との差の値に応じて行ってもよいし、比較部12aにより導出された基準の画角と実際の画角との差の値が所定の閾値を超える場合に行うようにしてもよい。
【0127】
図27は、検出領域SD1の大きさを変更する処理を示す図である。画像ph11の検出領域SDの1大きさを範囲変更部13aが検出領域SD1よりも領域の面積が大きい検出領域SD2の大きさに変更する。つまり、検出領域SD1の左右方向(±x方向)の領域を拡大する。変更後の検出領域SD2は、図25に示した撮影領域sd1よりも範囲の広い図23に示した撮影範囲sdに対応した領域となる。これにより、カメラの設定パラメータに応じた検出領域の大きさを設定でき、検出対象とすべき物体の物体像を確実に検出できる。
【0128】
<4−2.処理フローチャート>
図28は、第4の実施の形態の画像処理装置100aの処理フローチャートである。図28に示す第4の実施の形態の処理フローチャートは、第3の実施の形態の処理フローチャートと一部が相違し、その他の部分は同一の処理である。以下では相違点を中心に説明する。
【0129】
画像処理装置100aはキャリブレーション部14によるキャリブレーション処理に伴うフロントカメラ511の設置パラメータ値を取得する。つまり、フロントカメラ511の実際の画角の値を画像処理装置100aが取得して(ステップS201a)、ステップS202aの処理に進む。
【0130】
ステップS202aでは、キャリブレーション部14が不揮発性メモリ40の車種別データ4aを読み出す。つまり、フロントカメラ511の基準となる画角の値の情報を読み出して(ステップS202)、ステップS203aの処理に進む。
【0131】
ステップS203aでは、基準の画角と実際の画角との差の値を比較部12aが導出して(ステップS203a)、ステップS204aの処理に進む。
【0132】
ステップS204aでは、基準の画角と実際の画角との差の値が所定の閾値を超えている場合(ステップS204がYes)は、ステップS205の処理に進む。なお、フロントカメラ511の基準の画角と実際の画角との差の値が所定の閾値を超えていない場合(ステップS204aがNo)の場合は、処理を終了する。
【0133】
ステップS205aでは、撮影範囲sd1に対応した検出領域SD1の大きさを撮影範囲sdに対応した検出領域SD2の大きさに範囲変更部13aが変更する。
【0134】
<変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。なお、上記実施の形態で説明した形態、および、以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
【0135】
上記実施の形態では、主にフロントカメラ51、および、バックカメラ52における撮影画像の検出領域の範囲変更について述べたが、フロントカメラ51、および、バックカメラ52以外の左サイドカメラ53、および、右サイドカメラ54についても同様に検出領域の範囲を変更する処理が可能である。また、フロントカメラ51を例とした実施の形態についてバックカメラ52に置き換えて適用することも可能であり、バックカメラ52を例とした実施の形態についてフロントカメラ51に置き換えて適用することも可能である。
【0136】
また、上記第1の実施の形態では画像ph11に向かって右側(+x側)の消失点から出現して車両9に接近する物体の物体像の検出について説明したが、画像ph11に向かって左側(−x側)の消失点から出現して車両9に接近する物体の物体像を検出するようにしてもよい。つまり、画像ph11の検出領域SAと略同じ大きさの検出領域を撮影画像中の消失点を含む領域に設定して物体検出部32が物体像を検出する処理を行うようにしてもよい。
【0137】
また、第1の実施の形態、および、第2の実施の形態では、物体検出部32が物体像を検出する方法としてエッジ検出を主として説明したが、それ以外の方法(例えば、パターンマッチング等)で物体像を検出してもよい。
【0138】
また、第1の実施の形態、および、第2の実施の形態では、カメラ50の光軸の基準の方向は車両9の車体が直進方向(例えば、−Y方向)に走行、および、停止のいずれかの状態にある場合を前提としていた。そのため撮影画像に基づいてカメラ50の光軸の実際の方向を示す情報を導出する場合も、車両9が直進方向に走行および停止のいずれかの状態にある場合に実際の方向を示す情報を導出することとなる。これに対して、車両が直進方向に走行、および、停止のいずれかの状態にない場合は、ジャイロセンサ82および操舵角センサ83の少なくとも一つのセンサの情報から車両9のカメラ50の光軸の基準の方向からのずれ量を制御部1が導出する。そして、当該ずれ量に基づいてカメラ50の光軸の基準の方向を補正し、カメラ50の補正した光軸の基準の方向とカメラ50の光軸の実際の方向との差を比較部12が導出して、検出領域の範囲を範囲変更部13が変更するようにしてもよい。
【0139】
また、上記第1の実施の形態および第2の実施の形態では、時間的に連続する画像が2つの場合について述べたが、時間的に連続する画像が3つ以上の場合についても、物体の物体像の移動軌跡および消失点の少なくとも一つを方向導出部33が導出できる。
【0140】
また、上記第1の実施の形態では、方向導出部33がカメラ50の光軸の方向をカメラ50が撮影した画像に基づいて導出する。そして、比較部12は方向導出部33により導出されたカメラ50の光軸の実際の方向と、不揮発性メモリ40に記録された車種別データ4aに含まれるカメラ50の光軸の基準の方向との差を導出する処理を行って、検出領域SAの範囲の変更を範囲変更部13が行う。このように、検出領域SAの範囲の変更は、カメラ50の光軸のズレ量を検出し、カメラ50の光軸のズレ量に応じて、範囲変更部13が検出領域SAの範囲を変更するようにしてもよい。
【0141】
また、上記第4の実施の形態では、フロントカメラ51の画角が基準とする画角よりも狭い角度となった場合に、当該画角に応じて検出領域を大きくすることについて説明したが、フロントカメラ51の画角が基準とする画角よりも広い角度となった場合に、当該画角に応じて検出領域を小さくする処理を行ってもよい。
【0142】
また、上記第4の実施の形態では、フロントカメラ51の画角に応じて検出領域の大きさを変更する処理について述べたが、フロントカメラ51の画角以外にもフロントカメラ51のレンズの歪みの程度に応じて、検出領域の大きさを変更する処理を行ってもよい。
【符号の説明】
【0143】
1・・・・・制御部
5・・・・・撮影部
10・・・・本体部
11・・・・画像制御部
12・・・・比較部
13・・・・範囲変更部

【特許請求の範囲】
【請求項1】
車両に搭載されたカメラの撮影画像を取得する取得手段と、
前記撮影画像中の検出領域に存在する物体の物体像を検出する検出手段と、
前記カメラの光軸の基準の方向を示す第1情報を記憶する記憶手段と、
前記撮影画像に基づいて、前記カメラの光軸の実際の方向を示す第2情報を導出する導出手段と、
前記第1情報と前記第2情報との差に応じて、前記撮影画像中において前記検出領域とする範囲を変更する変更手段と、
を備えることを特徴とする物体検出装置。
【請求項2】
請求項1に記載の物体検出装置において、
前記第1情報及び前記第2情報は、時間的に連続して取得される複数の前記撮影画像において前記物体像が移動する軌跡の位置であることを特徴とする物体検出装置。
【請求項3】
請求項1に記載の物体検出装置において、
前記第1情報及び前記第2情報は、前記撮影画像における消失点の位置であることを特徴とする物体検出装置。
【請求項4】
車両に搭載されたカメラからの撮影画像を取得する取得手段と、
前記撮影画像中の検出領域に存在する物体の物体像を検出する検出手段と、
前記カメラの基準の第1パラメータと前記カメラの実際の第2パラメータとの差に応じて、前記撮影画像中において前記検出領域とする範囲を変更する変更手段と、
を備えることを特徴とする物体検出装置。
【請求項5】
請求項4に記載の物体検出装置において、
前記第1パラメータ及び前記第2パラメータは、前記カメラの光軸の方向であり、
前記変更手段は、前記検出領域の位置を変更することを特徴とする物体検出装置。
【請求項6】
請求項4に記載の物体検出装置において、
前記第1パラメータ及び前記第2パラメータは、前記カメラの画角であり、
前記変更手段は、前記検出領域の大きさを変更することを特徴とする物体検出装置。
【請求項7】
(a)車両に搭載されたカメラの撮影画像を取得する工程と、
(b)前記撮影画像中の検出領域に存在する物体の物体像を検出する工程と、
(c)前記カメラの光軸の基準の方向を示す第1情報を記憶する手段から前記第1情報を取得する工程と、
(d)前記撮影画像に基づいて、前記カメラの光軸の実際の方向を示す第2情報を導出する工程と、
(e)前記第1情報と前記第2情報との差に応じて、前記撮影画像中において前記検出領域とする範囲を変更する工程と、
を備えることを特徴とする物体検出方法。
【請求項8】
(a)車両に搭載されたカメラの撮影画像を取得する工程と、
(b)前記撮影画像中の検出領域に存在する物体の物体像を検出する工程と、
(c)前記カメラの基準の第1パラメータと前記カメラの実際の第2パラメータとの差に応じて、前記撮影画像中において前記検出領域とする範囲を変更する工程と、
を有することを特徴とする物体検出方法。
【請求項9】
車両に搭載されたカメラの撮影画像を取得する取得手段と、
前記撮影画像中の検出領域に存在する物体の物体像を検出する検出手段と、
前記カメラの光軸のズレ量を検出する光軸ズレ検出手段と、
前記光軸のズレ量に応じて、前記撮影画像中において前記検出領域とする範囲を変更する変更手段と、
を備えることを特徴とする物体検出装置。
【請求項10】
請求項9に記載の物体検出装置において、
前記光軸ズレ検出手段は、
前記カメラの光軸の基準の方向を示す第1情報を記憶する記憶手段と、
前記撮影画像に基づいて、前記カメラの光軸の実際の方向を示す第2情報を導出する導出手段と、
前記第1情報と前記第2情報との差を算出する算出手段と、
を備えることを特徴とする物体検出装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26】
image rotate

【図27】
image rotate

【図28】
image rotate


【公開番号】特開2012−168845(P2012−168845A)
【公開日】平成24年9月6日(2012.9.6)
【国際特許分類】
【出願番号】特願2011−30629(P2011−30629)
【出願日】平成23年2月16日(2011.2.16)
【出願人】(000237592)富士通テン株式会社 (3,383)
【Fターム(参考)】