説明

車両存否判定装置、車両存否判定方法及びプログラム

【課題】画像式車両検知器において、比較的簡単な演算処理で精度の高い車両検出を実現すること。
【解決手段】画像式車両感知器1の制御装置20では、1)カメラ10による撮影画像と所定のテンプレート画像とのパターンマッチングを行ってマッチング率Rを算出し、所定閾値と比較することによる停止車両の検出と、2)フレーム間差分法を用いた移動車両の検出とを行い、双方の検出結果をもとに車両の存否を判断する。また、移動車両の移動速度Vをもとに、当該移動車両の前方の他の車両が存在しないと推定される領域(車両無し推定領域)を判断し、この車両無し推定領域のマッチング率Rの閾値を、停止車両の検出の際に算出された当該領域のマッチング率Rに応じた値に変更する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、撮影画像中の感知領域内の車両の存否を判定する車両存否判定装置等に関する。
【背景技術】
【0002】
道路交通分野では、道路上の交通流を計測する装置として、カメラ画像を用いた画像式車両感知器が利用されている。この画像式車両感知器では、道路上方に設置されたカメラによる撮影画像に対する所定の画像解析処理を行うことで、例えば、青信号点灯中に通過する車両台数や、赤信号点灯中に停車する車両の台数を検出する(例えば、特許文献1参照)。
【特許文献1】特許第3215596号公報
【発明の開示】
【発明が解決しようとする課題】
【0003】
画像式車両感知器における撮影画像の画像解析方法としては、撮影画像と予め定められたテンプレート画像とのパターンマッチング処理を行うことで、撮影画像中の車両の存否を検出する方法が知られている。このとき、テンプレート画像としては、車両が存在しない状態での撮影画像(背景画像)が用いられる。しかしながら、晴れや雨といった天候や、昼や夜といった時間帯によって、撮影画像の各画素の輝度値が変化する。また、ビルや街路樹等の影の形状や大きさの変化や、街灯が点くといったことによっても撮影画像の各画素の輝度値が変化する。このため、テンプレート画像を固定とすると、撮影画像中の車両の検出を誤ることが多く、検出精度の低下の原因となっていた。そこで、環境に応じてテンプレート画像を変更する方法があるが、更新タイミングの判断を適切に行わないと、却って検出精度を低下させる可能性がある。本発明は、上記事情を鑑みてなされたものであり、画像式車両検知器において、比較的簡単な演算処理で精度の高い車両検出を実現することを目的としている。
【課題を解決するための手段】
【0004】
上記課題を解決するための第1の発明は、
上方から俯瞰するカメラ(例えば、図1,2のカメラ10)によって撮影された撮影画像中の感知対象とする画像部分を感知領域として設定する設定手段(例えば、処理部100)と、
前記設定された感知領域を複数の部分領域に分割する分割手段(例えば、処理部100)と、
前記撮影画像の時系列変化を比較解析して前記感知領域内に移動中の車両が存在するか否かを判定する移動車両判定手段(例えば、移動車両検出部110)と、
前記撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して前記複数の部分領域それぞれについてマッチング率を算出するマッチング処理手段(例えば、図2の停止車両検出部130)と、
前記複数の部分領域それぞれについて前記算出されたマッチング率を当該部分領域の所与の閾値と比較することで前記感知領域内に停止中の車両が存在するか否かを判定する停止車両判定手段(例えば、図2の停止車両検出部130)と、
前記移動車両判定手段による判定結果に基づいて、前記複数の部分領域のうち、車両が存在しない部分領域を推定する推定手段(例えば、図2のマッチング閾値変更部140)と、
前記推定された部分領域についての前記マッチング処理手段のマッチング率に基づいて、当該部分領域の前記閾値を更新する閾値更新手段(例えば、図2のマッチング閾値変更部140)と、
前記移動車両判定手段の判定結果及び前記停止車両判定手段の判定結果に基づいて前記感知領域内の車両の存否を判定する車両存否判定手段(例えば、図2の処理部100)と、
を備えた車両存否判定装置(例えば、図1,2の制御装置20)である。
【0005】
また、第7の発明は、
上方から俯瞰するカメラの撮影画像に基づいて、前記撮影画像中の感知領域における車両の存否を判定する車両存否判定方法であって、
前記感知領域を複数の部分領域に分割する分割ステップ(例えば、図15のステップA
1)と、
前記撮影画像の時系列変化を比較解析して前記感知領域内に移動中の車両が存在するか否かを判定する移動車両判定ステップ(例えば、図15のステップA7)と、
前記撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して前記複数の部分領域それぞれについてマッチング率を算出するマッチング処理ステップ(例えば、図17のステップC1)と、
前記複数の部分領域それぞれについて前記算出されたマッチング率を当該部分領域の所与の閾値と比較することで前記感知領域内に停止中の車両が存在するか否かを判定する停止車両判定ステップ(例えば、図17のステップC3)と、
前記移動車両判定ステップによる判定結果に基づいて、前記複数の部分領域のうち、車両が存在しない部分領域を推定する推定ステップ(例えば、図18のステップD5)と、
前記推定された部分領域についての前記マッチング処理のマッチング率に基づいて、当該部分領域の前記閾値を更新する閾値更新ステップ(例えば、図18のステップD7)と、
前記移動車両判定ステップの判定結果及び前記停止車両判定ステップの判定結果に基づいて前記感知領域内の車両の存否を判定する車両存否判定ステップ(例えば、図15のステップA11〜A27)と、
を含む車両存否判定方法である。
【0006】
また、第8の発明は、
コンピュータ(例えば、図1,2の制御装置20)を、
上方から俯瞰するカメラによって撮影された撮影画像中の感知対象とする画像部分を感知領域として設定する設定手段、
前記設定された感知領域を複数の部分領域に分割する分割手段、
前記撮影画像の時系列変化を比較解析して前記感知領域内に移動中の車両が存在するか否かを判定する移動車両判定手段、
前記撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して前記複数の部分領域それぞれについてマッチング率を算出するマッチング処理手段、
前記複数の部分領域それぞれについて前記算出されたマッチング率を当該部分領域の所与の閾値と比較することで前記感知領域内に停止中の車両が存在するか否かを判定する停止車両判定手段、
前記移動車両判定手段による判定結果に基づいて、前記複数の部分領域のうち、車両が存在しない部分領域を推定する推定手段、
前記推定された部分領域についての前記マッチング処理手段のマッチング率に基づいて、当該部分領域の前記閾値を更新する閾値更新手段、
前記移動車両判定手段の判定結果及び前記停止車両判定手段の判定結果に基づいて前記感知領域内の車両の存否を判定する車両存否判定手段、
として機能させるためのプログラム(例えば、図2の車両感知プログラム210)である。
【0007】
この第1、第7、第8の何れかの発明によれば、カメラによる撮影画像の時系列変化を比較解析して、感知領域内に移動中の車両が存在するか否かが判定されるとともに、撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して、感知領域内に停止中の車両が存在するか否かが判定され、移動車両及び停止車両の判定結果に基づいて感知領域内の車両の存否が判定される。停止車両の存否の判定は、感知領域を分割した複数の部分領域それぞれについてマッチング率を算出し、算出したマッチング率を当該部分領域の所与の閾値と比較することで行われる。更に、感知領域内に移動中の車両が存在するか否かの判定結果に基づいて車両が存在しない部分領域が推定され、推定された部分領域についてのマッチング率に基づいて、当該部分領域の閾値が更新される。移動中の車両の前方/後方には、他の車両が存在しない空間(いわゆる、車間)が存在する。従って、この車両が存在しないと推定される部分領域を、移動車両の検出結果をもとに判定し、当該領域に定められているマッチング率の閾値を変更することで、より正確な車両(詳細には、停止車両)の存否の判定が実現される。また、部分領域毎に閾値を変更するため、定常的に固定のテンプレート画像を用いたとしても比較的精度の良い停止車両の存否の判定が実現される。
【0008】
第2の発明は、第1の発明の車両存否判定装置であって、
前記マッチング処理手段が、輝度値の異なる画素ブロックを格子状に配設した画像を前記所定のテンプレート画像として定常的に用いて前記パターンマッチング処理を行う車両存否判定装置である。
【0009】
この第2の発明によれば、パターンマッチング処理は、輝度値の異なる画素ブロックを格子状に配設した画像をテンプレート画像として定常的に用いて行われる。ここで、画素ブロックは、1画素であっても良いし、複数画素で構成されていても良い。また、格子状は、縦方向の格子のみ、横方向の格子のみ、縦横方向の格子の何れであっても良い。テンプレート画像は輝度値が異なる画素ブロックを格子状に配設した画像であるため、天候や昼夜の時間帯等を問わずパターンマッチング処理において一定の停止車両の検出率を得ることができ、テンプレート画像を固定することが可能となる。
【0010】
第3の発明は、第1又は第2の発明の車両存否判定装置であって、
前記マッチング処理手段が、画像中の最大輝度値と最小輝度値との輝度差が、輝度値として取り得る最高輝度値と最低輝度値との輝度差の1/10以下の画像を前記所定のテンプレート画像として定常的に用いて前記パターンマッチング処理を行う車両存否判定装置である。
【0011】
この第3の発明によれば、パターンマッチング処理は、画像中の最大輝度値と最小輝度値との輝度差が、輝度値としてとり得る最高輝度値と最低輝度値との輝度差の1/10以下の画像をテンプレート画像として定常的に用いて行われる。テンプレート画像中の最大輝度値と最小輝度値との輝度差が比較的小さいため、テンプレート画像はエッジ成分を殆ど持たない画像といえる。このため、停止車両の存否判定の精度を一層高めることが可能となる。
【0012】
第4の発明は、第1〜第3の発明の車両存否判定装置であって、
前記移動車両判定手段が、前記撮影画像中の移動車両の位置及び移動速度を判定し、
前記推定手段が、前記移動車両判定手段により判定された移動車両の位置及び移動速度を用いて、前記複数の部分領域のうちの車両が存在しない部分領域を推定する、
車両存否判定装置である。
【0013】
この第4の発明によれば、撮影画像中の移動車両の位置及び移動速度が判定され、この判定された移動車両の位置及び移動速度を用いて、複数の部分領域のうちの車両が存在しない部分領域が推定される。
【0014】
第5の発明は、第1〜第4の何れかの発明の車両存否判定装置であって、
前記車両存否判定手段が、1)前記移動車両判定手段の判定結果が移動車両有りの場合には前記感知領域内に車両が存在すると判定し、2)前記移動車両判定手段の判定結果が移動車両有りから移動車両無しに変わった時から前記停止車両判定手段が停止車両無しと判定するまでの間は、前記感知領域内に車両が存在すると判定し、3)1)及び2)以外の場合には前記感知領域内に車両が存在しないと判定する車両存否判定装置である。
【0015】
この第5の発明によれば、1)移動車両有りの場合には感知領域内に車両が存在すると判定され、2)移動車両有りから移動車両無しに変わったときから、停止車両無しと判定するまでの間は、感知領域内に車両が存在すると判定され、1)、2)以外の場合には感知領域内に車両が存在しないと判定される。
【0016】
第6の発明は、第1〜第5の何れかの発明の車両存否判定装置であって、
前記カメラは、感知対象とする車道又は車線を上方から俯瞰する位置に設けられ、
前記分割手段は、車両通行方向に沿って前記感知領域を複数の部分領域に分割する、
車両存否判定装置である。
【0017】
この第6の発明によれば、カメラは、感知対象とする車道又は車線を上方から俯瞰する位置に設けられ、車両通行方向に沿って感知領域が複数の部分領域に分割される。
【発明の効果】
【0018】
本発明によれば、カメラによる撮影画像の時系列変化を比較解析して、感知領域内に移動中の車両が存在するか否かが判定されるとともに、撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して、感知領域内に停止中の車両が存在するか否かが判定され、移動車両及び停止車両の判定結果に基づいて感知領域内の車両の存否が判定される。停止車両の存否の判定は、感知領域を分割した複数の部分領域それぞれについてマッチング率を算出し、算出したマッチング率を当該部分領域の所与の閾値と比較することで行われる。更に、感知領域内に移動中の車両が存在するか否かの判定結果に基づいて車両が存在しない部分領域が推定され、推定された部分領域についてのマッチング率に基づいて、当該部分領域の閾値が更新される。移動中の車両の前方/後方には、他の車両が存在しない空間(いわゆる、車間)が存在する。従って、この車両が存在しないと推定される部分領域を、移動車両の検出結果をもとに判定し、当該領域に定められているマッチング率の閾値を変更することで、より正確な車両(詳細には、停止車両)の存否の判定が実現される。
【発明を実施するための最良の形態】
【0019】
以下、図面を参照して、本発明の好適な実施形態を説明する。なお、以下では、本発明を、道路の右折レーンを感知対象とする右折感応用画像式車両感知器に適用した場合を説明するが、本発明の適用可能な実施形態がこれに限定されるものではない。
【0020】
[構成]
図1は、交差点における画像式車両感知器1の配置図である。同図によれば、この画像式車両感知器1は、交差点における右折レーンの車両有無を感知する右折感応用画像式車両感知器であり、カメラ10と、制御装置20とを備えて構成される。
【0021】
カメラ10は、道路のそばに設置されたポールの上部に、感知対象である右折レーンを上方から俯瞰して撮影するように設けられている。カメラ10による撮影画像は、随時、制御装置20に出力される。制御装置20は、このポールの下方に設置され、カメラ10による撮影画像をもとに、右折レーンにおける車両の有無を検出する。制御装置20による検出結果は、当該交差点の信号現示を制御する信号制御装置や、所定の通信回線を介して接続された集中管理センタ等に送られる。
【0022】
図2は、制御装置20の内部構成を示すブロック図である。同図によれば、制御装置20は、処理部100と、記憶部200と、通信部300とを備えて構成される。
【0023】
処理部100は、例えばCPU等で実現され、制御装置20の全体制御を行う。また、この処理部100は、移動車両検出部110と、停止車両検出部130と、車両追跡部120と、マッチング閾値変更部140とを有し、カメラ10から入力された撮影画像等に基づいて、車両の有無を判定する車両感知処理を行う。
【0024】
具体的には、車両感知処理では、先ず、撮影画像において、車両検出の対象とする感知領域を設定し、更に、この感知領域を複数の領域に分割して分割領域を設定する。図3(a)に、カメラ10による撮影画像の一例を示す。同図(a)に示すように、撮影画像において、右折レーンが感知領域AR1として設定される。感知領域AR1は、例えば、右折レーンの停止線から交通の上流側30mまでの区間に該当する画像部分として定められる。この感知領域AR1の設定は、基本的には、画像式車両感知器1を設置した際に、カメラ10の撮影画像を視認しながら管理者の操作に従って行うが、画像認識処理によって自動的に行うことにしても良い。更に、この感知領域AR1は、同図(b)に示すように、当該レーンにおける車両の進行方向と略垂直方向に複数の領域(分割領域)AR2に分割される。この分割は、処理部100が自動的に行うが、管理者の操作指示に従って行うことにしても良い。
【0025】
そして、処理部100は、この感知領域AR1内の車両の有無(存否)を検出する。検出結果としては、移動車両/停止車両の別を問わない。具体的には、感知領域AR1内の移動車両及び停止車両の検出を異なる検出方法によって並行して行い、双方の検出結果に基づいて感知領域内の車両の有無を判断する。すなわち、移動車両が検出されている間は、感知結果を車両“有り”と判断する。また、移動車両が検出されたくなった後であっても、停止車両が検出されている間は感知結果を車両“有り”と判断する。そして、移動車両及び停止車両がともに検出されなくなると、感知結果を車両“無し”と判断する。
【0026】
なお、カメラ10による撮影画像は動画像であり、制御装置20には、所定時間Δtの間隔で静止画像として取り込まれる。そして、取り込まれた静止画像である撮影画像は、取り込まれた時刻tと対応付けられて、撮影画像データ群231として蓄積記憶される。
【0027】
移動車両検出部110は、カメラ10から入力された撮影画像をもとに、「フレーム間差分法」によって移動車両を検出する。図4は、フレーム間差分法による移動体の検出原理を説明する図である。フレーム間差分法では、時間的に連続した複数の画像の差分を算出することで画像内の移動体を検出する。すなわち、ある時刻tにおける移動体を検出する場合、この時刻tにおける画像(t)と、その直前の時刻t−1における画像(t−1)との差分画像1を生成する。また、時刻tにおける画像(t)と、その直後の時刻t+1における画像(t+1)の差分画像2を生成する。そして、生成した二つの差分画像1,2の共通画像(共通画素から成る画像)を生成し、この共通画像から、時刻tにおける移動体を検出できる。
【0028】
但し、現在時刻において未来の時刻における画像は得られないので、移動車両検出部110は、1フレーム時間ずれた画像をもとに移動車両の検出を行う。つまり、現在時刻tにおける撮影画像(t)と、1フレーム時間に相当する所定時間Δtだけ過去の時刻t−1における撮影画像(t−1)との差分画像1、及び、撮影画像(t−1)と時刻t−1から所定時間Δtだけ過去の時刻t−2における撮影画像(t−2)との差分画像2を算出する。次いで、この差分画像1,2の共通画像を算出する。そして、算出した共通画像中の感知領域AR1に該当する画像部分から、時刻t−1における移動車両を検出する。
【0029】
また、付加領域に該当する共通画像中の画像部分から、時刻t−1における当該付加領域内の移動車両を検出する。図5は、付加領域AR3を説明する図である。同図に示すように、付加領域AR3は、撮影画像において、右折レーンの一部であって、車両の進行方向とは逆の方向(後方)に感知領域AR1に隣り合って定められた領域である。つまり、付加領域AR3は、これから感知領域AR1に進入しようとする車両が存在し得る領域といえる。
【0030】
車両追跡部120は、移動車両検出部110により検出された移動車両を追跡する。すなわち、移動車両検出部110による感知領域AR1或いは付加領域AR3内の移動車両の検出結果をもとに、時刻tにおける移動車両の位置の変化から移動速度や移動方向を算出し、次の時刻t+1での位置を予測することで移動車両を追跡する。ここで、移動車両の追跡は感知領域AR1或いは付加領域AR3内に存在する移動車両についてのみ行い、感知領域AR1外に出た場合にはその追跡を終了する。
【0031】
車両追跡部120によって追跡されている移動車両についてのデータは、移動車両データ232に格納される。図6に、移動車両データのデータ構成の一例を示す。同図によれば、移動車両データ232は、追跡されている移動車両232aそれぞれについて、現在の位置232bと、移動速度232cと、移動方向232dとを、対応付けて格納している。位置232bは、例えば対応する移動車両の代表点の位置で表現される。移動方向232dは、撮影画像中における移動方向を示すベクトルで表現される。
【0032】
停止車両検出部130は、カメラ10から入力された撮影画像をもとに、「パターンマッチング処理」によって停止車両を検出する。具体的には、撮影画像と予め定められたテンプレート画像とのパターンマッチングを行い、算出されたマッチング率をもとに停止車両の有無を判断する。
【0033】
図7に、テンプレート画像の一例を示す。テンプレート画像は、撮影画像と同サイズの画像であり、車両が無い場合の路面を想定した擬似路面画像である。また、このテンプレート画像は、輝度値が異なる2種類の画素が格子状に配置されて構成されている。配置される2種類の画素の輝度値は、その差が、当該画像においてとり得る輝度値の最高値(最高輝度値)と最低値(最低輝度値)との差の1/10以下となるように定められている。つまり、テンプレート画像では、隣り合う画素の輝度値の差が小さく、エッジ成分が極めて小さい。同図では、最高輝度値が「255」、最小輝度値が「0」であり、輝度値が「10」,「0」それぞれの画素によってテンプレート画像が構成されている。従って、撮影画像とテンプレート画像とのマッチング率は、撮影画像中に車両が存在しないときに高くなり、逆に車両が存在するときには低くなる。
【0034】
なお、テンプレート画像はエッジ成分を殆ど持たない画像であれば良く、例えば隣り合う画素の輝度がグラデーションを描くように変化する画像であっても良い。また、図8(a)に示すように、輝度値が等しい複数の画素で構成される画素ブロックが格子状に配置された画像であっても良いし、同図(b)に示すように、列/行方向に輝度値が同一の画素が並んで配置された画像であっても良い。このテンプレート画像についてのデータは、テンプレート画像データ221に格納されている。
【0035】
図9は、パターンマッチングによる停止車両検出の概要を説明する図である。同図に示すように、撮影画像の分割領域AR2それぞれについて、テンプレート画像の該当する画像部分とのパターンマッチングを行ってマッチング率Rを算出する。そして、分割領域AR2それぞれについて算出したマッチング率Rを所定の閾値と比較し、マッチング率が閾値Rを超えた領域の数が所定数N以上ならば停止車両は“有り”と判断し、それ以外では停止車両は“無し”と判断する。
【0036】
マッチング率Rは式(1)で与えられる。
【数1】

式(1)において、「f[i,j]」は撮影画像の各画素の輝度値、「s[i,j]」はテンプレート画像の各画素の輝度値、「M,N」は撮影画像及びテンプレート画像の画像サイズ(列/行方向の画素の数)である。また、「f」は撮影画像の各画素の輝度値の平均値、「S」はテンプレート画像の各画素の輝度値の平均値である。このマッチング率Rの算出式(1)は、マッチング率算出式データ223として記憶されている。
【0037】
ここで、算出された各分割領域のマッチング率Rは、マッチング結果データ233に格納される。図10に、マッチング結果データ233のデータ構成の一例を示す。同図によれば、マッチング結果データ233は、感知領域を構成する分割領域233aそれぞれについて、算出されたマッチング率233bを対応付けて格納している。
【0038】
また、マッチング率の閾値は、マッチング閾値データ222に格納されている。図11に、マッチング閾値データ222のデータ構成の一例を示す。同図によれば、マッチング閾値データ222は、感知領域を構成する分割領域222aそれぞれについて、マッチング率の閾値222bを対応付けて格納している。
【0039】
移動車両検出部110による移動車両の検出結果及び停止車両検出部130による停止車両の検出結果は、車両検出結果データ234に格納される。図12に、車両検出結果データ234のデータ構成の一例を示す。同図によれば、車両検出結果データ234は、検出対象となる車両の種類234aそれぞれについて、検出結果234bを対応付けて格納している。車両の種類234aは、移動車両及び停止車両である。検出結果234bは、対応する車両が感知領域AR1内に存在するとして検出されているか否かを示す値が格納される。
【0040】
マッチング閾値変更部140は、停止車両検出部130において用いられるマッチング率の「閾値」を変更する。具体的には、移動車両検出部110により検出された移動車両の移動速度をもとに、他の車両が存在しないと推定される分割領域AR2を判定し、この分割領域AR2(車両無し推定領域)の閾値を変更する。
【0041】
道路を走行する車両の前方/後方には、他の車両が存在しない領域(いわゆる、車間)が存在する。この車間距離は、走行速度が速いほど長い。
【0042】
交通工学において、走行する車両が安全に停止できる距離Lは、次式(2)で与えられるとしている。
L=τ・V+V/2d ・・(2)
式(2)において、「V」は信号表示切り替え時の車両の走行速度、「d」はブレーキが効き始めてから停止するまでの平均減速度、「τ」は運転者の反応時間(ブレーキが効き始めるまでの時間)である。図13に、式(2)のグラフを示す。同図では、横軸を距離L、縦軸を走行速度Vとしている。但し、減速度dを0.7[s]、反応時間τを3.0[m/s]としている。この距離Lの算出式(2)は、車両無し推定距離算出式データ224として記憶されている。
【0043】
本実施形態では、この距離Lを、他の車両が存在しないと推定される移動車両の前方の距離(車両無し推定領域)とみなして、車両無し推定領域を判断する。図14は、車両無し推定領域の判断を説明する図である。同図に示すように、感知領域AR1或いは付加領域AR3内の移動車両Cについて、移動速度Vをもとに、式(2)に従って車両無し推定距離Lを算出する。次いで、当該移動車両Cの位置からその進行方向に沿って前方の車両無し推定距離Lまでの範囲に全てが含まれる分割領域AR2を、車両無し推定領域と判断する。ここで、感知領域AR1或いは付加領域AR3内の移動車両は、移動車両追跡部120によって追跡され、その移動速度Vや現在位置が算出されている。また、複数の移動車両Cが追跡されている場合には、それぞれについて車両無し推定領域を判断する。そして、判断した車両無し推定領域それぞれについて、当該領域に定められているマッチング率の閾値を、停止車両検出部130によって算出された当該領域のマッチング率に所定値α(例えば、0.05(5%))を加算した値に更新する。
【0044】
記憶部200は、処理部100が制御装置20を統合的に制御するためのシステムプログラムや、本実施形態の車両感知制御を実現するためのプログラムやデータ等を記憶するとともに、記憶部200の作業領域として用いられ、処理部100が各種プログラムに従って実行した演算結果やフラグデータ等を一時的に記憶する。この記憶部200は、例えばICメモリやハードディスク、ROM、RAM等で実現される。本実施形態では、記憶部200には、プログラムとして車両感知プログラム210が記憶され、データとして、テンプレート画像データ221と、マッチング閾値データ222と、マッチング率算出式データ223と、車両無し推定距離算出式データ224と、撮影画像データ群231と、移動車両データ232と、マッチング結果データ233と、車両検出結果データ234とが記憶される。
【0045】
[処理の流れ]
図15は、車両感知処理の流れを説明するためのフローチャートである。この処理は、処理部100が車両感知プログラム210を実行することで実現される。同図によれば、処理部100は、先ず、撮影画像中に感知領域AR1及び付加領域AR3を設定し、更に、この感知領域AR1を複数の領域に分割して分割領域を設定する(ステップA1)。また、移動車両検出部110が移動車両検出処理を開始し(ステップA3)、停止車両検出部130が停止車両検出処理を開始し(ステップA5)、車両追跡部120が車両追跡処理を開始し(ステップA7)、マッチング閾値変更部140がマッチング閾値変更処理を開始する(ステップA9)。
【0046】
続いて、処理部100は、移動車両検出部110によって移動車両が検出されているかを判断し、検出されているならば(ステップA11:YES)、車両感知結果を“有り”とする(ステップA13)。
【0047】
一方、移動車両が検出されていないならば(ステップA11:NO)、移動車両の検出結果が“有り”から“無し”に変化したか否かを判断する。移動車両の検出結果が“有り”から“無し”に変化したならば(ステップA15:YES)、フラグFを「1」に設定する(ステップA17)。このフラグFは、停止車両の判断結果を車両検出結果としていることを示すフラグであり、移動車両の検出結果が“有り”から“無し”に変化したタイミングで「1」に設定され、その後、停止車両の検出結果が“無し”となると「0」に設定(クリア)される。
【0048】
続いて、停止車両検出部130によって停止車両が検出されているか否かを判断し、検出されているならば(ステップA21:YES)、車両感知結果を“有り”とする(ステップA23)。一方、停止車両が検出されていないならば(ステップA21:NO)、フラグFを「0」に設定し(ステップA25)、車両感知結果を“無し”とする(ステップA27)。
【0049】
また、移動車両の検出結果が“無し”のままならば(ステップA15:NO)、フラグFを判断し、フラグFが「1」ならば(ステップA19:YES)、続いて、停止車両検出部130によって停止車両が検出されているか否かを判断する。停止車両が検出されているならば(ステップA21:YES)、車両感知結果を“有り”とし(ステップA23)、停止車両が検出されていないならば(ステップA21:NO)、フラグFを「0」に設定するとともに(ステップA25)、車両感知結果を“無し”とする(ステップA27)。また、フラグFが「0」ならば(ステップA19:NO)、車両感知結果を“無し”とする(ステップA27)。
【0050】
その後、処理部100は、車両感知処理を終了するか否かを判断し、終了しないならば(ステップA29:NO)、ステップA11に戻り、終了するならば(ステップA:YES)、実行中の各処理を終了した後(ステップA31)、車両感知処理を終了する。
【0051】
図16は、移動車両検出処理のフローチャートである。同図によれば、移動車両検出部110は、所定の時間Δt毎にループAの処理を行う。すなわち、ループAでは、現在時刻tでの撮影画像(t)と、現在時刻tから時間Δtだけ過去の時刻t−1での撮影画像(t−1)との差分画像1を算出する(ステップB1)。また、撮影画像(t−1)と、時刻t−1から時間Δtだけ過去の時刻t−2での撮影画像(t−2)との差分画像2を算出する(ステップB3)。そして、差分画像1,2の共通画像を生成し、この共通画像をもとに、撮影画像中の感知領域AR1内の移動車両の有無を判断する(ステップB5)。ループAはこのように行われる。そして、処理の終了指示がなされると、移動車両検出処理は終了となる。
【0052】
図17は、停止車両検出処理のフローチャートである。同図によれば、停止車両検出部130は、所定の時間Δt毎にループBの処理を行う。すなわち、ループBでは、現在時刻tでの撮影画像(t)について、感知領域を構成する分割領域毎に、テンプレート画像の該当する画像部分とのパターンマッチングを行ってマッチング率Rを算出する(ステップC1)、次いで、分割領域毎に、算出したマッチング率Rを定められた閾値と比較し、比較結果に応じて、撮影画像中の感知領域AR1内の停止車両の有無を判断する(ステップC3)。ループBはこのように行われる。そして、処理の終了指示がなされると、停止車両検出処理は終了となる。
【0053】
図18は、マッチング閾値変更処理のフローチャートである。同図によれば、マッチング閾値変更部140は、所定の時間Δt毎にループCの処理を行う。すなわち、ループCでは、車両追跡部120によって追跡されている移動車両の有無を判断する。追跡されている移動車両があるならば(ステップD1:YES)、当該移動車両の移動速度Vをもとに車両無し推定距離Lを算出する(ステップD3)。次いで、算出した距離Lまでの範囲に含まれる分割領域を判断し、車両無し推定領域とする(ステップD5)。そして、判断した車両無し推定領域それぞれについて、当該領域のマッチング率Rをもとに閾値を変更する(ステップD7)。ループCはこのように行われる。そして、処理の終了指示がなされると、マッチング閾値変更処理は終了となる。
【0054】
[作用/効果]
このように、本実施形態によれば、画像式車両感知器1の制御装置20では、1)カメラ10による撮影画像と所定のテンプレート画像とのパターンマッチングを行ってマッチング率Rを算出し、所定閾値と比較することによる停止車両の検出と、2)フレーム間差分法を用いた移動車両の検出とを行い、双方の検出結果をもとに車両の存否を判断する。また、移動車両の移動速度Vをもとに、当該移動車両の前方の他の車両が存在しないと推定される分割領域(車両無し推定領域)を判断し、この車両無し推定領域のマッチング率Rの閾値を、停止車両の検出の際に算出された当該領域のマッチング率Rに応じた値に変更する。これにより、比較的簡単な演算で精度の高い車両の存否の判定を実現できる。また、マッチング率の閾値を部分領域AR2毎に変更するため、テンプレート画像を固定としても、停止車両の存否判定の精度が比較的良い。更に、テンプレート画像として、輝度差が小さい画素が格子状に配置されてエッジ成分を殆ど持たない画像が用いられるため、停止車両の検出の制度を高めることができる。
【0055】
なお、上述の実施形態では、右折レーンにおける車両の存否を判定することにしたが、直線レーンや右折レーンといった他のレーンの他、交差点間の車線を対象としても良いのは勿論である。
【図面の簡単な説明】
【0056】
【図1】交差点における画像式車両感知器の配置例。
【図2】制御装置の内部構成図。
【図3】撮影画像の一例。
【図4】フレーム間差分法の説明図。
【図5】付加領域の説明図。
【図6】移動車両データのデータ構成例。
【図7】テンプレート画像の一例。
【図8】テンプレート画像の他の例。
【図9】パターンマッチングの説明図。
【図10】マッチング結果データのデータ構成例。
【図11】マッチング閾値データのデータ構成例。
【図12】車両検出結果データのデータ構成例。
【図13】移動速度Vと車間無し推定距離Lとの関係を示すグラフ。
【図14】車両無し推定領域の判断の説明図。
【図15】車両感知処理のフローチャート。
【図16】移動車両検出処理のフローチャート。
【図17】停止車両検出処理のフローチャート。
【図18】マッチング閾値変更処理のフローチャート。
【符号の説明】
【0057】
1 画像式車両感知器
10 カメラ
20 制御装置
100 処理部
110 移動車両検出部、120 車両追跡部
130 停止車両検出部、140 マッチング閾値変更部
200 記憶部
210 車両感知プログラム
221 テンプレート画像データ、222 マッチング閾値データ
223 マッチング率算出式データ、224 車両無し推定距離算出式データ
231 撮影画像データ群、232 移動車両データ
233 マッチング結果データ、234 車両検出結果データ
AR1 感知領域、AR2 分割領域、AR3 付加領域

【特許請求の範囲】
【請求項1】
上方から俯瞰するカメラによって撮影された撮影画像中の感知対象とする画像部分を感知領域として設定する設定手段と、
前記設定された感知領域を複数の部分領域に分割する分割手段と、
前記撮影画像の時系列変化を比較解析して前記感知領域内に移動中の車両が存在するか否かを判定する移動車両判定手段と、
前記撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して前記複数の部分領域それぞれについてマッチング率を算出するマッチング処理手段と、
前記複数の部分領域それぞれについて前記算出されたマッチング率を当該部分領域の所与の閾値と比較することで前記感知領域内に停止中の車両が存在するか否かを判定する停止車両判定手段と、
前記移動車両判定手段による判定結果に基づいて、前記複数の部分領域のうち、車両が存在しない部分領域を推定する推定手段と、
前記推定された部分領域についての前記マッチング処理手段のマッチング率に基づいて、当該部分領域の前記閾値を更新する閾値更新手段と、
前記移動車両判定手段の判定結果及び前記停止車両判定手段の判定結果に基づいて前記感知領域内の車両の存否を判定する車両存否判定手段と、
を備えた車両存否判定装置。
【請求項2】
前記マッチング処理手段が、輝度値の異なる画素ブロックを格子状に配設した画像を前記所定のテンプレート画像として定常的に用いて前記パターンマッチング処理を行う請求項1に記載の車両存否判定装置。
【請求項3】
前記マッチング処理手段が、画像中の最大輝度値と最小輝度値との輝度差が、輝度値として取り得る最高輝度値と最低輝度値との輝度差の1/10以下の画像を前記所定のテンプレート画像として定常的に用いて前記パターンマッチング処理を行う請求項1又は2に記載の車両存否判定装置。
【請求項4】
前記移動車両判定手段が、前記撮影画像中の移動車両の位置及び移動速度を判定し、
前記推定手段が、前記移動車両判定手段により判定された移動車両の位置及び移動速度を用いて、前記複数の部分領域のうちの車両が存在しない部分領域を推定する、
請求項1〜3の何れか一項に記載の車両存否判定装置。
【請求項5】
前記車両存否判定手段が、1)前記移動車両判定手段の判定結果が移動車両有りの場合には前記感知領域内に車両が存在すると判定し、2)前記移動車両判定手段の判定結果が移動車両有りから移動車両無しに変わった時から前記停止車両判定手段が停止車両無しと判定するまでの間は、前記感知領域内に車両が存在すると判定し、3)1)及び2)以外の場合には前記感知領域内に車両が存在しないと判定する請求項1〜4の何れか一項に記載の車両存否判定装置。
【請求項6】
前記カメラは、感知対象とする車道又は車線を上方から俯瞰する位置に設けられ、
前記分割手段は、車両通行方向に沿って前記感知領域を複数の部分領域に分割する、
請求項1〜5の何れか一項に記載の車両存否判定装置。
【請求項7】
上方から俯瞰するカメラの撮影画像に基づいて、前記撮影画像中の感知領域における車両の存否を判定する車両存否判定方法であって、
前記感知領域を複数の部分領域に分割する分割ステップと、
前記撮影画像の時系列変化を比較解析して前記感知領域内に移動中の車両が存在するか否かを判定する移動車両判定ステップと、
前記撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して前記複数の部分領域それぞれについてマッチング率を算出するマッチング処理ステップと、
前記複数の部分領域それぞれについて前記算出されたマッチング率を当該部分領域の所与の閾値と比較することで前記感知領域内に停止中の車両が存在するか否かを判定する停止車両判定ステップと、
前記移動車両判定ステップによる判定結果に基づいて、前記複数の部分領域のうち、車両が存在しない部分領域を推定する推定ステップと、
前記推定された部分領域についての前記マッチング処理のマッチング率に基づいて、当該部分領域の前記閾値を更新する閾値更新ステップと、
前記移動車両判定ステップの判定結果及び前記停止車両判定ステップの判定結果に基づいて前記感知領域内の車両の存否を判定する車両存否判定ステップと、
を含む車両存否判定方法。
【請求項8】
コンピュータを、
上方から俯瞰するカメラによって撮影された撮影画像中の感知対象とする画像部分を感知領域として設定する設定手段、
前記設定された感知領域を複数の部分領域に分割する分割手段、
前記撮影画像の時系列変化を比較解析して前記感知領域内に移動中の車両が存在するか否かを判定する移動車両判定手段、
前記撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して前記複数の部分領域それぞれについてマッチング率を算出するマッチング処理手段、
前記複数の部分領域それぞれについて前記算出されたマッチング率を当該部分領域の所与の閾値と比較することで前記感知領域内に停止中の車両が存在するか否かを判定する停止車両判定手段、
前記移動車両判定手段による判定結果に基づいて、前記複数の部分領域のうち、車両が存在しない部分領域を推定する推定手段、
前記推定された部分領域についての前記マッチング処理手段のマッチング率に基づいて、当該部分領域の前記閾値を更新する閾値更新手段、
前記移動車両判定手段の判定結果及び前記停止車両判定手段の判定結果に基づいて前記感知領域内の車両の存否を判定する車両存否判定手段、
として機能させるためのプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate


【公開番号】特開2009−146337(P2009−146337A)
【公開日】平成21年7月2日(2009.7.2)
【国際特許分類】
【出願番号】特願2007−325731(P2007−325731)
【出願日】平成19年12月18日(2007.12.18)
【出願人】(000001292)株式会社京三製作所 (324)
【Fターム(参考)】