説明

動画像処理装置、動画像処理システムおよびナビゲーション装置

【課題】車載カメラで撮像された画像からオプティカルフローを検出する場合、検出精度が十分でなかった。
【解決手段】動画像処理装置120は、移動体に搭載された撮像素子で撮像された動画像からオプティカルフローを検出する。オプティカルフロー演算部24は、動画像に含まれるフレームを複数の領域に分割し、領域ごとに異なる条件でオプティカルフローをそれぞれ算出する。パラメータ決定部23は、移動体の状態に応じて、分割の態様および条件の少なくとも一方を適応的に変化させる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、動画像内から衝突する可能性のある対象を検出する動画像処理装置、動画像処理システムおよびナビゲーション装置に関する。
【背景技術】
【0002】
近年、自動車の安全技術が発展してきている。安全技術の一つとして、車両の前方または後方の画像を撮像するカメラを車両に搭載し、そのカメラで撮像された時間方向に前後するフレーム同士を比較してオプティカルフローを検出することにより、画像内から衝突する可能性のある対象を抽出する技術が提案されている。
【0003】
特許文献1は、車速に応じて特定されたフレーム領域について、オプティカルフローを検出する技術を開示する。
【特許文献1】特開2006−178652号公報
【発明の開示】
【発明が解決しようとする課題】
【0004】
車載カメラで撮像された画像からオプティカルフローを検出する場合、参照フレームを最適に設定することが難しく、車両から近距離に位置する低速移動している対象を正しく検出できなかったり、車両から遠距離に位置する対象を検出できないことがあった。たとえば、高速走行中に近距離に位置する歩行者などを検出するとき、その移動方向や移動速度を正しく検出できないことがあった。また、低速走行中に遠距離に位置する歩行者などを検出できない場合があった。
【0005】
本発明はこうした状況に鑑みなされたものであり、その目的は、動画像内から検出対象を精度よく検出することができる動画像処理装置、動画像処理システムおよびナビゲーション装置を提供することにある。
【課題を解決するための手段】
【0006】
本発明のある態様は、移動体に搭載された撮像素子で撮像された動画像からオプティカルフローを検出する動画像処理装置であって、動画像に含まれるフレームを複数の領域に分割し、領域ごとに異なる条件でオプティカルフローをそれぞれ算出する算出部と、移動体の状態に応じて、分割の態様および条件の少なくとも一方を適応的に変化させる。
【0007】
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
【発明の効果】
【0008】
本発明によれば、動画像内から検出対象を精度よく検出することができる。
【発明を実施するための最良の形態】
【0009】
まず、本発明の実施の形態を詳細に説明する前にその概要を説明する。実施の形態は、車両の前方を撮像するカメラを搭載し、そのカメラで撮像した動画像を処理して、歩行者、障害物および前方車両などをオプティカルフローとして検出するものである。そのオプティカルフローをもとに、それらの対象物との衝突危険性をドライバーに報知することが可能となる。ここで、オプティカルフローとは、画像内のある点や図形がつぎの瞬間にどのような方向へ、どの程度の距離、移動するかを示すベクトルである。
【0010】
図1は、自車速度と安全車間距離との関係L1、および前の車両が急ブレーキをかけたときに縮まる車間距離L2を示す図である。図1の縦軸は車間距離(m)を示し、横軸は自車速度(km/h)を示す。第1ラインL1は自車速度に対応する安全車間距離を示す。図1にて第1ラインL1より上の領域は、速度に対して車間距離が十分とられており安全性が高い領域である。第2ラインL2は、前の車両が急ブレーキをかけたときに、ドライバーが危険を察知し、ブレーキをかけたときに縮まる車間距離を示す。図1にて第2ラインL2より下の領域は、ブレーキをかけても間に合わず、衝突する可能性が極めて高い領域である。第1ラインL1と第2ラインL2との間の領域は、ドライバーが適切に対処すれば、衝突を回避可能な領域である。
【0011】
したがって、第2ラインL2より下の領域にある距離に、前の車両、歩行者および障害物などの対象を検出しても基本的に手遅れである。反対に、第1ラインL1よりはるか上の領域にある距離にそのような対象を検出した場合、比較的余裕がある。第1ラインL1の近傍の領域にある距離、および第1ラインL1と第2ラインL2との間の領域にある距離にそのような対象を検出した場合、早期にドライバーに認識させれば衝突を回避することができる。したがって、最も緊急性が高く、最も検出精度が必要な場合といえる。以下、この知見を利用して実施の形態について説明する。
【0012】
まず、実施の形態1の概要について説明する。実施の形態1は、オプティカルフローを検出する際、車両の速度に応じて、対象フレームと参照フレームとのフレーム間隔を適応的に切り換えるものである。具体的には、車両の速度が現在の速度より遅くなるとそのフレーム間隔を狭くし、速度が速くなるとそのフレーム間隔を広くする。なお、カメラは車両に固定されるため、車両の速度は、カメラの移動速度に対応する。
【0013】
図2は、対象フレームと参照フレームとのフレーム間隔を模式的に示した図である。図2の左側に示すように、通常、対象フレームは、時間方向に隣合うフレームを参照フレームとする。すなわち、フレーム間隔T1は一に固定されている。これに対し、図2の右側に示すように、本実施の形態では、対象フレームと参照フレームとのフレーム間隔T1、T2、T3が一の場合もあり、二の場合もあり、三の場合もある。もちろん、それ以上の場合もある。
【0014】
図3は、フレーム間隔の決定基準を説明するための図である。図3は、車両に搭載された後述する図4の撮像素子12で撮像された画像を示す。図1で示したように、車両の速度に応じて、対象物と衝突せずに止まれる距離および衝突を回避できない距離が異なってくる。実施の形態1は、前者と後者の距離を区分するライン付近の距離にある対象を精度よく検出できるよう処理する。
【0015】
実施の形態1は、車両が停止または低速時に、領域Aのオプティカルフローが最も精度よく検出できるよう、上記フレーム間隔を狭く設定する。中速時に、領域Bのオプティカルフローが最も精度よく検出できるよう、上記フレーム間隔を中程度に設定する。高速時に、領域Cのオプティカルフローが最も精度よく検出できるよう、上記フレーム間隔を広く設定する。ここで、低速、中速および高速の区分は、たとえば、0〜40km/h(低速)、40〜80km/h(中速)、80km/h<(高速)のように設定する。それぞれの区分ごとにフレーム間隔を設定しておき、取得した速度が区分を跨ぐとき、フレーム間隔を遷移先の区分のフレーム間隔に切り換える。
【0016】
図3に示すように、速度が速くなるほど、より前方を高精度に検出するようフレーム間隔を広くする方向に設定する。すなわち、速度に応じて、注目領域が領域A、領域B、領域Cと切り換わるようよう設定する。より具体的には、車両の速度が速くなると、注目領域の位置をフレーム内にて遠距離の画像を写す領域の方向に移動させ、速度が遅くなると、注目領域の位置を近距離の画像を写す領域の方向に移動させる。以下、この制御を具体的に実行するための構成および動作について説明する。
【0017】
図4は、実施の形態1の実施例1に係る動画像処理システム500の構成を示す。動画像処理システム500は、撮像部10および動画像処理装置100を備える。撮像部10は、撮像素子12および信号処理部14を有する。動画像処理装置100は、フレームバッファ16、参照フレーム選択部18、ルックアップテーブル19、オプティカルフロー検出部20および後処理部26を有する。オプティカルフロー検出部20は、特徴点抽出部22およびオプティカルフロー演算部24を含む。動画像処理装置100の構成は、ハードウェア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
【0018】
撮像部10は、車両の前方に搭載され、車両前方の動画像を撮像して動画像処理装置100に出力する。撮像素子12は、CCD(Charge Coupled Devices)センサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどが用いられ、入射光を電気信号に変換し、信号処理部14に出力する。
【0019】
信号処理部14は、撮像素子12から入力されるアナログ信号をデジタル信号に変換する。また、平滑化フィルタを備え、動画像処理装置100に対して出力する画像データに対して平滑化処理を施してもよい。また、その他のノイズ除去処理を施してもよい。
【0020】
動画像処理装置100は、撮像部10から入力される画像データからオプティカルフローを検出する。フレームバッファ16は、m(mは自然数)フレーム分、格納する領域を持ち、撮像部10から入力される画像データを一時格納する。領域が溢れた場合、先に入力されたフレームから順番に破棄する。フレームバッファ16に格納された画像フレームは、オプティカルフロー検出部20に順番に出力される。
【0021】
参照フレーム選択部18は、車両内の速度センサから速度情報を取得し、ルックアップテーブル19を参照して、取得した速度情報に関連付けられたフレーム間隔を特定する。そのフレーム間隔をもとに、対象フレームI(t)の参照フレームとすべき、nフレーム過去のフレームI(t−nT)またはnフレーム未来のフレームI(t+nT)を特定し、フレームバッファ16から取得する。なお、Tはフレーム間隔を示し、nは(1≦n≦m−1)の範囲の値をとる整数である。
【0022】
ルックアップテーブル19は、速度情報とフレーム間隔を関連付けて管理する。速度情報とフレーム間隔との関係は、上述した知見をもとに、実験やシミュレーションにより決定された関係に設定される。
【0023】
オプティカルフロー検出部20は、対象フレームI(t)と参照フレームI(t±nT)とを用いて、オプティカルフローを検出する。オプティカルフローを検出するアルゴリズムには勾配法やブロックマッチング法などがあるが、本実施の形態ではいずれかに限定されるものではなく、どのアルゴリズムを用いてもよい。以下の説明では、勾配法の一つであるピラミッド型LK(Lucas-kanade)法を用いる。LK法は、同一物体の局所領域内ではオプティカルフローが一定になると仮定する空間的局所最適化法の一つである。
【0024】
特徴点抽出部22は、フレームバッファ16から入力された対象フレームI(t)内からLK法にもとづき、濃淡の変化が大きい特徴点を所定の数、抽出する。ここでは、解像度の異なる複数の階層で行う。特徴点抽出部22は、抽出した特徴点の座標と輝度情報をオプティカルフロー演算部24に出力する。
【0025】
オプティカルフロー演算部24は、フレームバッファ16から入力された対象フレームI(t)、特徴点抽出部22から入力された特徴点の座標と輝度情報、および参照フレーム選択部18から入力された参照フレームI(t±nT)をもとに、オプティカルフローを算出する。より具体的には、対象フレームI(t)内の特徴点に対応する点を、参照フレームI(t±nT)内で探索する。
【0026】
後処理部26は、オプティカルフロー検出部20から出力されたオプティカルフローに対して所定の後処理を施す。たとえば、入力されるオプティカルフローから、撮像部10自体の移動による成分を差し引く処理を行ってもよい。また、ノイズを除去するため、入力されるオプティカルフローの長さを所定の閾値と比較して、有効とすべきオプティカルフローの長さを制限する処理を行ってもよい。また、オプティカルフロー検出部20から出力されたオプティカルフローの長さの平均値を算出してもよい。ノイズ除去用の閾値は、あらかじめ設定された値でもよいし、当該平均値またはその平均値を調整した値であってもよい。
【0027】
図示しない任意のユーザインタフェースは、後処理部26から出力されたオプティカルフローををもとに危険な対象の出現をユーザに認識させる。たとえば、表示部にオプティカルフローを単純に表示してもよいし、車両との距離に応じて定められる危険とされる長さのオプティカルフローのみを表示してもよい。また、その危険とされる長さのオプティカルフローが発生した場合、スピーカから警告音を発してもよい。さらに、車両の制動系に制御信号を出力してもよい。
【0028】
以下、実施の形態1に係る実施例1について説明する。実施例1は、オプティカルフローの検出をすべてのフレームについて行う例である。
図5は、実施の形態1の実施例1に係る対象フレームと参照フレームとの関係を模式的に示す図である。図5では、対象フレームと参照フレームとのフレーム間隔T3a、T3b、T3cが三に設定されている。ここでは、オプティカルフローの算出がすべてのフレームについて行われている。
【0029】
図6は、実施の形態1の実施例1に係る動画像処理システム500で検出されるオプティカルフローの一例を示す図である。図6中、矢印はオプティカルフローを示す。なお、簡略化のため各対象につき一本、描いている。実際は、各対象につき複数本、検出され、対象の回りに放射状に検出される場合もある。
【0030】
図6(a)は、実施の形態1の実施例1に係る動画像処理システム500で検出される停止時または低速時のオプティカルフローを示す。領域A内の人物のオプティカルフローが検出され、領域Bおよび領域C内の人物のオプティカルフローは検出されない。これは、低速時には対象フレームと参照フレームとの間隔が狭く設定されるため、近距離に位置する対象の動きが精度よく検出されるためである。
【0031】
図6(b)は、実施の形態1の実施例1に係る動画像処理システム500で検出される中速時のオプティカルフローを示す。領域Aおよび領域B内の人物のオプティカルフローが検出され、領域C内の人物のオプティカルフローは検出されない。これは、中速時には対象フレームと参照フレームとの間隔が中程度に設定されるため、中距離に位置する対象の動きが精度よく検出されるためである。図6(b)における領域A内の人物のオプティカルフローの長さが、図6(a)より長くなっている。また、方向もずれている。これは、図6(b)では、領域A内の検出精度が図6(a)より低下したことを示す。
【0032】
図6(c)は、実施の形態1の実施例1に係る動画像処理システム500で検出される高速時のオプティカルフローを示す。領域A、領域Bおよび領域C内の人物のオプティカルフローが検出される。これは、高速時には対象フレームと参照フレームとの間隔が広く設定されるため、遠距離に位置する対象も検出されるためである。図6(c)における領域Aおよび領域B内の人物のオプティカルフローの長さが、図6(b)よりさらに長くなっている。また、方向もさらにずれている。これは、図6(c)では、領域Aおよび領域B内の検出精度が図6(b)より低下したことを示す。
【0033】
したがって、中速時や高速時に、近距離に位置する対象のオプティカルフローに現れるノイズ成分を低減するために、所定の長さを超えるオプティカルフローをノイズとして無効にしてもよい。上述した後処理部26がこの処理を行うことができる。
【0034】
図7は、実施の形態1の実施例1に係る動画像処理装置100の動作を示すフローチャートである。まず、フレームバッファ16は、撮像部10から入力された画像データを格納する(S10)。本動画像処理装置100によりオプティカルフロー検出処理が終了しない場合(S12のN)、参照フレーム選択部18は、車両の現在の速度情報を取得する(S14)。参照フレーム選択部18は、ルックアップテーブル19を参照して、当該速度情報にもとづく参照フレームI(t±nT)を決定する(S16)。
【0035】
特徴点抽出部22は、対象フレームI(t)の特徴点を所定の数、抽出する(S18)。オプティカルフロー演算部24は、当該対象フレームI(t)、そのフレームから抽出された特徴点、および決定された参照フレームI(t±nT)にもとづいて、オプティカルフローを算出する(S20)。つぎに、対象フレームI(t)がインクリメントされる(S22)。そして、ステップS12に遷移する。オプティカルフロー検出処理が終了するまで(S12のY)、ステップS14からステップS22までの処理が繰り返される。
【0036】
以上説明したように実施の形態1の実施例1によれば、車両の速度に応じて、対象フレームと参照フレームとのフレーム間隔を適応的に制御することにより、動画像内から検出対象を精度よく検出することができる。
【0037】
たとえば、上述したLK法を用いてオプティカルフローを検出する場合、約20m先で水平方向速度が15km/hで移動している対象を検出することができるが、上述した図1の知見にしたがえば、実際に45km/h以上で走行中の車両が危険物を発見して安全に停止することが不可能である。
【0038】
これに対し、本実施の形態では、対象フレームと参照フレームとのフレーム間隔を適応的に切り換えることにより、近距離に位置する低速で移動する対象も、遠距離に位置する高速で移動する対象も精度よく検出することができる。すなわち、近距離に位置する低速で移動する対象は、フレーム間隔を狭くすることにより、その動きを精度よく検出することができる。このフレーム間隔で、遠距離に位置する対象のオプティカルフローを検出しようとしても、その動きを検出することが難しい。反対に、遠距離に位置する対象は、フレーム間隔を広くすることにより、その動きを精度よく検出することができる。このフレーム間隔で、近距離に位置する対象のオプティカルフローを検出すると、検出処理が粗くなってしまい、その検出結果はノイジーなものとなる。
【0039】
また、オプティカルフロー検出処理が最適化する結果、処理量を軽減することができ、消費電力も低減することができる。さらに、オプティカルフローの長さが所定の閾値を超えるとき、そのオプティカルフローを無効にする処理を加えれば、ノイズをさらに低減することができる。
【0040】
以下、実施の形態1の実施例2について説明する。実施例2は、撮像素子12で撮像された動画像に含まれるすべてのフレームに対してオプティカルフローの検出を行うのではなく、間欠的に行う例である。
【0041】
図8は、実施の形態1の実施例2に係る対象フレームと参照フレームとの関係を模式的に示す図である。図8では、対象フレームと参照フレームとのフレーム間隔T3a、T3d、T3gが三に設定されている。オプティカルフローの算出が三フレームおきに行われている。
【0042】
図9は、実施の形態1の実施例2に係る動画像処理システム510の構成を示す。実施例2に係る動画像処理システム510の構成は、実施例1に係る動画像処理システム500の構成と基本的に同様である。以下、相違点について説明する。
【0043】
実施例2に係る動画像処理システム510の構成は、実施例1に係る動画像処理システム500の構成に対象フレーム選択部21が追加された構成である。対象フレーム選択部21は、フレームバッファ16内のフレームを間引いて、オプティカルフロー検出部20に出力する。たとえば、N(Nは整数)枚に一枚出力する。Nは、設計者が実験やシミュレーションにより設定される値である。対象フレーム選択部21で選択されなかったフレームは破棄されてもよい。
【0044】
参照フレーム選択部18は、対象フレーム選択部21に連動して動作する。すなわち、対象フレーム選択部21で選択された対象フレームの参照フレームのみを特定して、フレームバッファ16から取得すればよい。
【0045】
図10は、実施の形態1の実施例2に係る動画像処理装置110の動作を示すフローチャートである。図10に示すフローチャートは、図7に示したフローチャートと基本的に同様である。以下、相違点について説明する。ステップS12にて終了判定を行った後、対象フレーム選択部21は、対象フレームI(t)の順番がNの倍数に該当するか否かを判定する(S13)。Nの倍数に該当する場合(S13のY)、ステップS14に遷移し、その対象フレームI(t)のオプティカルフローを算出する。Nの倍数に該当しない場合(S13のN)、その対象フレームI(t)のオプティカルフローを算出せずに、ステップS22に遷移し、対象フレームI(t)をインクリメントする(S22)。
【0046】
以上説明したように実施の形態1の実施例2によれば、実施例1と同様の効果を奏する。さらに、オプティカルフローの検出処理をすべてのフレームに対して行わず、間欠的に行うことにより、演算量を削減することができる。N枚に一枚、処理する場合、演算量を約1/Nに削減することができる。また、Nの値を好適に設定すれば、検出精度に与える影響も限定的である。
【0047】
たとえば、車両速度が60km/h、入力画像のフレームレートが30fps、N=2の場合、オプティカルフローの検出処理に必要な時間に車両が進む距離は、2×60×10^3÷3600÷30≒1.1(m)となり、影響は軽微である。
【0048】
以下、実施の形態1の実施例3について説明する。実施例3は、通常、参照フレームを対象フレームと時間的に連続するフレームに設定し、N枚に一枚の割合で、対象フレームと時間的に連続しないフレーム、すなわち二フレーム以上時間的に離れたフレームに設定するものである。
【0049】
実施の形態1の実施例3に係る動画像処理システムの構成は、実施例1に係る動画像処理システム500の構成と基本的に同様である。参照フレーム選択部18は、固定されたフレーム間隔の参照フレームを選択することを基本動作とし、所定の期間ごとにそのフレーム間隔より広いフレーム間隔の参照フレームを選択する。
【0050】
たとえば、基本動作として対象フレームI(t)の参照フレームを、一フレーム過去のフレームI(t−T)または一フレーム未来のフレームI(t+T)に決定する。N枚に一枚、n(1を除く)フレーム過去のフレームI(t−nT)またはnフレーム未来のフレームI(t+nT)に決定する。Nの値およびフレーム間隔数nの値の少なくとも一方は、ルックアップテーブル19を参照して、入力される速度情報に関連付けられた値に設定してもよい。
【0051】
なお、後処理部26がオプティカルフローの長さの平均値を算出する場合、nフレーム過去のフレームI(t−nT)またはnフレーム未来のフレームI(t+nT)を参照フレームとするオプティカルフローの長さは、上記平均値算出の基礎から外すことが望ましい。
【0052】
図11は、実施の形態1の実施例3に係る動画像処理装置100の動作を示すフローチャートである。図11に示すフローチャートは、図7に示したフローチャートと基本的に同様である。以下、相違点について説明する。ステップS16にて参照フレームの決定処理の前に、参照フレーム選択部18は、対象フレームI(t)の順番がNの倍数に該当するか否かを判定する(S15)。Nの倍数に該当する場合(S15のY)、参照フレーム選択部18は、対象フレームI(t)のn枚前のフレームを参照フレームI(t−nT)に決定する(S16b)。Nの倍数に該当しない場合(S15のN)、参照フレーム選択部18は、対象フレームI(t)の一枚前のフレームを参照フレームI(t−T)に決定する(S16a)。以下、図7と同様に処理する。
【0053】
以上説明したように実施の形態1の実施例3によれば、実施例1と同様の効果を奏する。さらに、フレーム間隔を大きくして検出するフレームと、連続フレームで検出するフレームを混在させることにより、中距離から遠距離の対象におけるオプティカルフローの検出精度を高めるとともに、近距離の対象のオプティカルフローの検出を低ノイズで検出することができる。
【0054】
つぎに、実施の形態2について説明する。まず、実施の形態2の概要について説明する。実施の形態2は、オプティカルフローを検出する際、車両の速度や操舵角に応じて異なる態様で、画像を複数の領域に分割するものである。また、領域ごとにそれぞれ設定された条件でオプティカルフローを算出する。
【0055】
図12は、画像を複数の領域に分割する態様を模式的に示した図である。上述したように、オプティカルフローは時間方向に前後するフレームを用いて算出される。図12の左側は、複数の領域に分割されない、通常の態様を示す。図12の右側は、領域Dと領域Wの二つの領域に分割された態様を示す。この分割態様では領域Dが注目領域となり、残りの領域Wが非注目領域となる。注目領域Dと非注目領域Wについて、それぞれオプティカルフローを検出する。分割の態様、ここでは注目領域Dの位置および大きさは、車両の速度や操舵角に応じて、適応的に切り換えられる。注目領域Dは、図3および図6に示した領域A、領域Bまたは領域Cに相当し、主な検出領域として、車両の速度に応じて変化する領域である。すなわち、高精度な検出が要求される領域である。また、フレーム間隔TD、TWも、車両の速度に応じて、適応的に切り換えられる。領域Dと領域Wとでフレーム間隔TD、TWがそれぞれ異なってもよい。
【0056】
図13は、画像の分割態様の決定基準を説明するための図である。図13の左上の画像は、車両の速度に応じて、注目領域Dの前後方向の位置を決定する様子を示す。すなわち、速度が速い場合、注目領域Dを画像内の上方に移動させ、遅い場合、下方に移動させる。それに応じて、注目領域Dの大きさを制御してもよい。すなわち、速度が速い場合、注目領域Dを画像内の上方に移動させつつ、注目領域Dの大きさを小さくする。反対に、速度が遅い場合、注目領域Dを画像内の下方に移動させつつ、注目領域Dの大きさを大きくする。この注目領域Dの決定方法は、図3および図6で説明した知見に基づく。
【0057】
図13の右上の画像は、操舵角に応じて、注目領域Dの左右の位置を決定する様子を示す。ハンドルが右に切られた場合、注目領域Dを画像内の右方に移動させ、左に切られた場合、左方に移動させる。図13の下の画像は、分離された注目領域Dおよび非注目領域Wを示す。注目領域Dおよび非注目領域Wは、オプティカルフローを算出するための各種パラメータが異なってもよい。当該パラメータには、対象フレームと参照フレームとのフレーム間隔、フレームの解像度、および算出されたオプティカルフローをノイズとして無効と判定するためのノイズ除去用の閾値のうち、少なくとも一つが含まれる。
【0058】
図14は、実施の形態2に係る動画像処理システム520の構成を示す。実施の形態2に係る動画像処理システム520の構成は、実施の形態1に係る動画像処理システム500の構成と共通する部分がある。以下、相違する部分を中心に説明する。
【0059】
まず、撮像部10およびフレームバッファ16の構成は、実施の形態1に係る動画像処理システム500の構成と同様である。参照フレーム選択部18は、車両内の車速センサから速度情報を取得し、ルックアップテーブル19を参照して、取得した速度情報に関連付けられたフレーム間隔を特定する。その際、分割された領域ごとに異なるフレーム間隔を特定してもよい。なお、実施の形態2では、フレーム間隔を必ずしも適応的に制御する必要はなく、フレーム間隔は固定でもよい。
【0060】
ルックアップテーブル19は、速度情報および操舵角情報の少なくとも一方の車両状態と、以下のパラメータを関連付けて管理する。当該パラメータには、注目領域Dの位置、注目領域Dの大きさ、対象フレームと参照フレームとのフレーム間隔、オプティカルフローを算出する際の画像の解像度、および無効にすべきオプティカルフローを判定するための閾値のうち、少なくとも一つが含まれる。これらの関連付けは、上述した知見や以下に示す知見をもとに、実験やシミュレーションにより決定された関係に設定される。
【0061】
注目領域Dのフレーム間隔、位置および大きさの決定基準については上述した。すなわち、車両の速度が速くなるほど、注目領域Dのフレーム間隔を大きくし、注目領域Dの位置を画像内の上方に移動させ、注目領域Dの大きさを小さくする。それに加えて、注目領域Dの上記閾値は、車両の速度が速くなるほど小さくする。これらは、注目領域Dで検出されるオプティカルフローの大きさが比較的小さい、すなわちノイズが少ないという性質にもとづく。なお、注目領域Dの解像度は、速度に関係なく固定でよい。
【0062】
非注目領域Wのフレーム間隔は、速度に関係なく固定でよい。非注目領域Wの形状および大きさは、注目領域Dが分離された残りの領域であるため、注目領域Dの位置および大きさに応じて変化する。非注目領域Wの解像度は、速度が遅くなるほど高くする。非注目領域Wのノイズ除去用の閾値は、速度が速くなるほど大きくする。当該閾値は、ノイズを低減するため近距離ほど大きく設定すべきという知見にもとづく。速度が速くなると注目領域Dが画像内の上方に移動し、速度が遅くなると下方に移動するため、速度が速いとき近距離は非注目領域Wとなり、遅いとき近距離は注目領域Dとなる。
【0063】
注目領域Dと非注目領域Wとの関係では、注目領域Dのフレーム間隔を非注目領域Wより大きくし、注目領域Dの解像度を非注目領域Wより高くし、注目領域Dのノイズ除去用の閾値を非注目領域Wより小さくする。これは、注目領域Dのほうが非注目領域Wより高精度にする必要があるためである。また、精度の低下を抑えつつ全体の演算量を低減するためである。
【0064】
オプティカルフロー検出部20は、特徴点抽出部22、パラメータ決定部23、第1オプティカルフロー演算部24aおよび第2オプティカルフロー演算部24bを備える。オプティカルフロー演算部24を二つ備えるが、これは領域を二つに分割することに対応し、三つ以上に分割する場合、三つ以上のオプティカルフロー演算部24を設ける。
【0065】
特徴点抽出部22は、実施の形態1と同様である。パラメータ決定部23は、車両内の速度センサおよび操舵角センサから、速度情報および操舵角情報を取得し、ルックアップテーブル19を参照して、取得した速度情報および操舵角情報に関連付けられた各種パラメータを取得する。
【0066】
注目領域Dの位置および大きさを取得した場合、第1オプティカルフロー演算部24aに設定し、それに対応した情報を第2オプティカルフロー演算部24bに設定する。注目領域Dおよび非注目領域Wの解像度を取得した場合、第1オプティカルフロー演算部24aおよび第2オプティカルフロー演算部24bに設定する。注目領域Dおよび非注目領域Wのノイズ除去用の閾値を取得した場合、第1閾値判定部28aおよび第2閾値判定部28bに設定する。
【0067】
第1オプティカルフロー演算部24aは、フレームバッファ16から入力された対象フレームI(t)、特徴点抽出部22から入力された特徴点の座標と輝度、および参照フレーム選択部18から入力された参照フレームI(t±nT)をもとに、注目領域Dのオプティカルフローを算出する。第2オプティカルフロー演算部24bは、同様に、非注目領域Wのオプティカルフローを算出する。第2オプティカルフロー演算部24bは、解像度を下げる場合、単純に画素を間引くのではなく、近傍に位置する複数の画素の平均値を用いてもよい。
【0068】
後処理部26は、第1閾値判定部28aおよび第2閾値判定部28bを含む。第1閾値判定部28aは、パラメータ決定部23から設定された閾値と、第1オプティカルフロー演算部24aから入力されたオプティカルフローの大きさを比較し、当該閾値を超えるオプティカルフローを無効にする。第2閾値判定部28bは、パラメータ決定部23から設定された閾値と、第2オプティカルフロー演算部24bから入力されたオプティカルフローの大きさを比較し、当該閾値を超えるオプティカルフローを無効にする。
【0069】
図15は、実施の形態2に係る動画像処理システム520で検出されるオプティカルフローの一例を示す図である。図15(a)は、実施の形態2に係る動画像処理システム520で検出される停止時または低速時のオプティカルフローを示す。注目領域D内のオプティカルフローは、通常のパラメータを用いて算出される。非注目領域W内のオプティカルフローは、フレーム間隔を通常より広げて算出される。ノイズ除去用の閾値は、注目領域D内で大きく、非注目領域W内で小さく設定される。
【0070】
図15(b)は、実施の形態2に係る動画像処理システム520で検出される中速時のオプティカルフローを示す。注目領域D内のオプティカルフローは、フレーム間隔を通常より広げて算出される。非注目領域W内のオプティカルフローは、解像度を低くして算出される。ノイズ除去用の閾値は、注目領域D内で小さく、非注目領域W内で大きく設定される。
【0071】
図15(c)は、実施の形態2に係る動画像処理システム520で検出される高速時のオプティカルフローを示す。注目領域D内のオプティカルフローは、フレーム間隔を中速時よりさらに広げて算出される。非注目領域W内のオプティカルフローは、解像度を中速時よりさらに低くして算出される。ノイズ除去用の閾値は、注目領域D内で小さく、非注目領域W内で中速時よりさらに大きく設定される。
【0072】
図16は、実施の形態2に係る動画像処理装置120の動作を示すフローチャートである。図16に示すフローチャートは、図7に示したフローチャートと基本的に同様である。以下、相違点について説明する。ステップS18にて特徴点を抽出した後、またはそれと並行して、パラメータ決定部23は、車両内の速度センサなどから、速度情報などを取得し、ルックアップテーブル19を参照して、取得した速度情報などに関連付けられた各種パラメータを取得し、分割された領域ごとにパラメーメを決定する(S19)。
【0073】
第1オプティカルフロー演算部24aは、対象フレームI(t)、そのフレームから抽出された特徴点、決定された参照フレームI(t±nT)および決定されたパラメータにもとづいて、第1オプティカルフローを算出する(S20a)。それと並行して、第2オプティカルフロー演算部24bは、同様に、第2オプティカルフローを算出する(S20b)。以下、図7と同様に処理する。
【0074】
以上説明したように実施の形態2によれば、実施の形態1と同様の効果を奏する。さらに、画像を複数の領域に分割し、領域ごとに最適なパラメータを設定することにより、精度を維持しつつ、演算量をさらに低減することができる。たとえば、非注目領域Wの解像度、すなわち処理対象の画素数を削減することにより、演算量を低減することができる。注目領域Dの解像度は下げないため、検出精度は維持される。
【0075】
以上、本発明をいくつかの実施形態をもとに説明した。これらの実施形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
【0076】
上述した実施の形態に係る動画像処理システム500、510、520は、カーナビゲーションシステムと連携して使用することができる。
図17は、実施の形態に係る動画像処理システムと連携したカーナビゲーションシステム700の構成を示す図である。連携の態様として、動画像処理装置100は、カーナビゲーション装置600のユーザインタフェースを利用して、検出結果を外部に報知することができる。たとえば、動画像処理装置100は、カーナビゲーション装置600の表示部を用いてオプティカルフローを表示したり、スピーカから警告音を発することができる。また、動画像処理装置100は、カーナビゲーション装置600の筐体内に設置されてもよい。
【0077】
また、動画像処理装置100で行う処理を、カーナビゲーション装置600に搭載されたプロセッサおよびメモリを用いて行ってもよい。この場合、動画像処理装置100固有のハードウェア資源は必要なくなる。これらの態様によれば、普及率の高いカーナビゲーションシ装置のハードウェア資源を有効に活用して、オプティカルフローを検出することができる。
【0078】
実施の形態では自動車を例に説明したが、移動体であれば、バイク、自転車、電車、船舶および飛行機などにも適用可能である。また、自動車の前方の画像を撮像する例を説明したが、後方や左右の画像を撮像する形態にも適用可能である。
【図面の簡単な説明】
【0079】
【図1】自車速度と安全車間距離との関係、および前の車両が急ブレーキをかけたときに縮まる車間距離を示す図である。
【図2】対象フレームと参照フレームとのフレーム間隔を模式的に示した図である。
【図3】フレーム間隔の決定基準を説明するための図である。
【図4】実施の形態1の実施例1に係る動画像処理システムの構成を示す図である。
【図5】実施の形態1の実施例1に係る対象フレームと参照フレームとの関係を模式的に示す図である。
【図6】図6(a)は、実施の形態1の実施例1に係る動画像処理システムで検出される停止時または低速時のオプティカルフローを示す。図6(b)は、実施の形態1の実施例1に係る動画像処理システムで検出される中速時のオプティカルフローを示す。図6(c)は、実施の形態1の実施例1に係る動画像処理システムで検出される高速時のオプティカルフローを示す。
【図7】実施の形態1の実施例1に係る動画像処理装置の動作を示すフローチャートである。
【図8】実施の形態1の実施例2に係る対象フレームと参照フレームとの関係を模式的に示す図である。
【図9】実施の形態1の実施例2に係る動画像処理システムの構成を示す図である。
【図10】実施の形態1の実施例2に係る動画像処理装置の動作を示すフローチャートである。
【図11】実施の形態1の実施例3に係る動画像処理装置の動作を示すフローチャートである。
【図12】画像を複数の領域に分割する態様を模式的に示した図である。
【図13】画像の分割態様の決定基準を説明するための図である。
【図14】実施の形態2に係る動画像処理システムの構成を示す図である。
【図15】図15(a)は、実施の形態2に係る動画像処理システムで検出される停止時または低速時のオプティカルフローを示す。図15(b)は、実施の形態2に係る動画像処理システムで検出される中速時のオプティカルフローを示す。図15(c)は、実施の形態2に係る動画像処理システムで検出される高速時のオプティカルフローを示す。
【図16】実施の形態2に係る動画像処理装置の動作を示すフローチャートである。
【図17】実施の形態に係る動画像処理システムと連携したカーナビゲーションシステムの構成を示す図である。
【符号の説明】
【0080】
10 撮像部、 12 撮像素子、 14 信号処理部、 16 フレームバッファ、 18 参照フレーム選択部、 19 ルックアップテーブル、 20 オプティカルフロー検出部、 21 対象フレーム選択部、 22 特徴点抽出部、 23 パラメータ決定部、 24 オプティカルフロー演算部、 24a 第1オプティカルフロー演算部、 24b 第2オプティカルフロー演算部、 26 後処理部、 28a 第1閾値判定部、 28b 第2閾値判定部、 100 動画像処理装置、 500 動画像処理システム、 600 カーナビゲーション装置、 700 カーナビゲーションシステム。

【特許請求の範囲】
【請求項1】
移動体に搭載された撮像素子で撮像された動画像からオプティカルフローを検出する動画像処理装置であって、
前記動画像に含まれるフレームを複数の領域に分割し、領域ごとに異なる条件でオプティカルフローをそれぞれ算出する算出部と、
前記移動体の状態に応じて、前記分割の態様および前記条件の少なくとも一方を適応的に変化させる条件決定部と、
を備えることを特徴とする動画像処理装置。
【請求項2】
前記算出部は、前記フレームを注目領域と非注目領域に分割し、
前記条件決定部は、前記移動体の移動速度および操舵角の少なくとも一方に応じて、前記注目領域の位置を移動させることを特徴とする請求項1に記載の動画像処理装置。
【請求項3】
前記条件決定部は、前記移動体の移動速度が速くなると、前記注目領域の位置を前記フレーム内にて遠距離の画像を写す領域の方向に移動させ、前記移動速度が遅くなると、前記注目領域の位置を近距離の画像を写す領域の方向に移動させることを特徴とする請求項2に記載の動画像処理装置。
【請求項4】
前記条件決定部は、前記オプティカルフローを検出するための対象フレームと参照フレームとのフレーム間隔、フレームの解像度、算出されたオプティカルフローの長さからそのオプティカルフローを無効にするか否かを判定するための閾値のうち、少なくとも一つを前記領域ごとに異ならせしめることを特徴とする請求項1から3のいずれかに記載の動画像処理装置。
【請求項5】
移動体に搭載され、動画像を撮像する撮像素子と、
前記撮像素子により撮像された動画像を処理する請求項1から4のいずれかに記載の動画像処理装置と、
を備えることを特徴とする動画像処理システム。
【請求項6】
車両に搭載され、車両周辺の動画像を撮像する撮像素子により撮像された動画像を処理する請求項1から4のいずれかに記載の動画像処理装置と連携し、検出結果を外部に報知することを特徴とするナビゲーション装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate


【公開番号】特開2008−276308(P2008−276308A)
【公開日】平成20年11月13日(2008.11.13)
【国際特許分類】
【出願番号】特願2007−115874(P2007−115874)
【出願日】平成19年4月25日(2007.4.25)
【出願人】(000001889)三洋電機株式会社 (18,308)
【Fターム(参考)】