車線内車両検出装置及び車線内車両検出方法
【課題】高速道路の道路表面から所定の高さで設置されたステレオ画像撮像装置により、前方の高速道路を撮像したステレオ画像に基づき、ステレオ画像撮像装置に向かって進行して来る高速道路上の走行車線内の車両を検出して、ほぼリアルタイムで検出した車両の位置・速度を表示する車線内車両検出装置を提供する。
【解決手段】前方の自車線と隣接車線を撮像して基準画像と比較画像を出力するステレオ画像撮像装置と、基準画像と比較画像に基づき、視差画像を生成する視差画像生成部と、車線・車両検出処理部とを備え、車線・車両検出処理部は、基準画像と視差画像に基づき、ステレオ画像撮像装置に向かって進行して来る自車線及び隣接車線内の車両を検出して、検出した車両の位置を、走行車線を表す平面上の2次元位置として表示するとともに、検出した車両の速度と衝突までの時間をも表示する。
【解決手段】前方の自車線と隣接車線を撮像して基準画像と比較画像を出力するステレオ画像撮像装置と、基準画像と比較画像に基づき、視差画像を生成する視差画像生成部と、車線・車両検出処理部とを備え、車線・車両検出処理部は、基準画像と視差画像に基づき、ステレオ画像撮像装置に向かって進行して来る自車線及び隣接車線内の車両を検出して、検出した車両の位置を、走行車線を表す平面上の2次元位置として表示するとともに、検出した車両の速度と衝突までの時間をも表示する。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ステレオ画像に基づき、高速道路上の走行車線内の車両を検出して、ほぼリアルタイムで検出した車両の位置・速度を表示する車両検出技術に関する。
【背景技術】
【0002】
人や物を運ぶ手段の一つである自動車等の車両は、その利便性と快適性から現代社会においてなくてはならない存在となっている。そこで、自動車の持つ優れた点を犠牲にすることなく、自動車による事故を自動的に回避できる技術の開発が、従来より進められている。
【0003】
自動車による事故の一つとして、例えば、高速道路において行われる工事の現場(以下、単に、高速道路工事現場と言う。)に突っ込んでくる自動車による事故がある。統計によると、このような事故は年間300件以上が発生しており、しかも、重大人身事故につながりやすくて、年間50人以上が死亡している。
【0004】
また、このような事故が起きた場合では、高速道路工事現場に突っ込んでくる自動車の運転者が、殆ど居眠り運転をしている。しかし、居眠り運転をしている運転者に警報を出しても、運転者がその警報に気付かなければ、警報を出す意味があまり無いと思われる。
【0005】
そこで、高速道路工事現場で作業している作業員には、自分自身の命を守るために、高速道路工事現場に突っ込んで来る自動車に気付いたら、すぐに逃げる方法しかない。
【0006】
ここで、高速道路工事現場に居る作業員が安全に逃げるための逃げ時間を10秒と設定すると、高速道路を時速100km/h(つまり、秒速27.8m/s)で走っている自動車が、高速道路工事現場に向かって走行して来ることを想定した場合に、高速道路工事現場の約300m先(≒278m=10s×27.8m/s)で自動車を発見して作業員に知らせる必要がある。
【0007】
換言すれば、高速道路工事現場の300m先から、高速道路工事現場に近付いてくる自動車を捕捉(検出)して、高速道路工事現場に居る作業員に知らせることにより、このような事故を未然に防ぐことができる。
【先行技術文献】
【非特許文献】
【0008】
【非特許文献1】實吉敬二著,「ステレオ法による立体画像認識の基礎と車載カメラへの応用」,株式会社トリケップス,2007年
【発明の概要】
【発明が解決しようとする課題】
【0009】
しかし、高速道路工事現場の300m先から高速道路工事現場に近付いてくる自動車を捕捉し続けるのに、つまり、高速道路工事現場の300m先から高速道路上の車線内車両を検出するのに、レーダーでは、遠すぎるという問題、また、視野角が広すぎるという問題がある。
【0010】
そして、300mも距離があると、高速道路にカーブや勾配も存在する場合がある。レーダーでは、特定の方向に存在する物体しか検出できず、高速道路の形状(高速道路上の車線)を検出することができないという問題もある。
【0011】
一方、ステレオカメラによる画像処理技術は、進歩を続けている(非特許文献1参照)。現在では、車載ステレオカメラに関する画像処理技術も盛んに行われている(非特許文献1参照)。
【0012】
本発明は、上述のような事情よりなされたものであり、本発明の目的は、高速道路の道路表面から所定の高さで設置されたステレオ画像撮像装置により、前方の高速道路を撮像したステレオ画像に基づき、ステレオ画像撮像装置に向かって進行して来る高速道路上の走行車線内の車両を検出して、ほぼリアルタイムで検出した車両の位置・速度を表示する車線内車両検出装置及び車線内車両検出方法を提供することにある。
【課題を解決するための手段】
【0013】
本発明は、高速道路上の走行車線内の車両を検出して、検出した車両の位置・速度を表示する車線内車両検出装置に関し、本発明の上記目的は、前方の自車線と隣接車線を撮像して基準画像と比較画像を出力するステレオ画像撮像装置と、前記基準画像と前記比較画像に基づき、視差画像を生成する視差画像生成部と、車線・車両検出処理部とを備え、前記車線・車両検出処理部は、前記基準画像と前記視差画像に基づき、前記ステレオ画像撮像装置に向かって進行して来る自車線及び隣接車線内の車両を検出して、検出した車両の位置を、走行車線を表す平面上の2次元位置として表示するとともに、検出した車両の速度と衝突までの時間をも表示することによって効果的に達成される。
【0014】
また、本発明の上記目的は、前記視差画像生成部は、領域ステレオ法を用いて画像全体に亘る前記視差画像を生成し、前記車線・車両検出処理部は、白線検出処理部と、車線決定処理部と、車線内車両検出処理部と、車両位置速度算出部とを備えることによってより効果的に達成される。
【0015】
また、本発明の上記目的は、前記白線検出処理部は、基準画像と視差画像を連続して8枚ずつ取り込むというステップ、8枚の基準画像を時間平均化するとともに、8枚の視差画像も時間平均化するというステップ、時間平均化された基準画像を所定サイズの領域で移動平均するというステップ、移動平均された基準画像にソーベルフィルタをかけることにより、エッジを検出するというステップ、ソーベルフィルタで検出されたエッジ情報および視差情報に基づき、白線検出用の3次元ウィンドウを設定するというステップ、時間平均化された視差画像に基づき、エッジ方向、基準画像の連続、視差の連続を条件として、エッジ点群をグループ化するというステップ、ハフ変換により、3次元ウィンドウに3次元の直線を見つけるというステップ、及び3次元の直線に含まれるエッジ点群に最小二乗法で直線を当てはめ、直線の位置精度を上げるというステップによる処理を行うことにより、道路面の白線を三次元で検出することによってより効果的に達成される。
【0016】
また、本発明の上記目的は、前記車線決定処理部は、前記白線検出処理部で検出された白線を右車線又は左車線とし、更に、検出された白線の左側又は右側に、一車線の幅分ずつ広げ、前記自車線、前記隣接車線と決定することによってより効果的に達成される。
【0017】
また、本発明の上記目的は、前記車線内車両検出処理部は、決定した車線内で道路表面から所定の高さまでの視差データを抽出するというステップ、視差画像全体を所定の横幅を有する短冊領域に分割するというステップ、分割された各短冊領域について視差ヒストグラムを作成するというステップ、所定の閾値以上の視差データで平面図を構成するというステップ、隣接する視差データをグループ化するというステップ、及び所定の閾値以上の視差データ数があるグループを車線内の車両として検出するというステップによる処理を行うことにより、決定した各車線内の車両を検出することによってより効果的に達成される。
【0018】
また、本発明の上記目的は、車両位置速度算出部は、検出した車線内の車両のうち、その車線で最も近い車両の位置を算出して、その車線を表す平面状の2次元位置として表示するというステップ、及びそれぞれの車線内で検出した車両の位置を時系列に記憶し、その位置の時間変化から速度を算出して表示し、さらに、自車線内の車両について衝突までの時間も算出して表示するというステップによる処理を行うことにより、前記自車線内の車両の位置・速度・衝突までの時間を表示するとともに、前記隣接車線内の車両の位置・速度をも表示することによってより効果的に達成される。
【発明の効果】
【0019】
本発明に係る車線内車両検出装置によれば、高速道路工事現場に突っ込んでくる自動車による人身事故を未然に防ぐことができるという優れた効果を奏する。
【図面の簡単な説明】
【0020】
【図1】本発明に係る車線内車両検出装置の実施形態を示すブロック構成図である。
【図2】本発明において、ステレオ画像撮像装置(ステレオビデオカメラ)の設置方法の一例を説明する模式図である。
【図3】本発明に係る車線内車両検出装置において、基準カメラ又は比較カメラから見た高速道路上の白線の見え方を説明するための模式図である。
【図4】本発明に係る車線内車両検出装置において、ステレオ画像撮像装置により撮像されたステレオ画像(基準画像及び比較画像)の画像例、及び視差画像生成部により生成された視差画像の画像例を示す。
【図5】本発明に係る車線内車両検出装置における車線・車両検出処理部の実施形態を示すブロック構成図である。
【図6】本発明に係る車線内車両検出装置の白線検出処理部の処理流れを示すフロー図である。
【図7】本発明の白線検出処理部でのソーベルフィルタ処理により生成された、エッジ強度画像例とエッジ方向分布例を示す。
【図8】本発明の白線検出処理部で行われる処理に係る白線検出用3次元ウィンドウの一例を示す。
【図9】本発明の白線検出処理部で行われる処理を説明するための図である。
【図10】本発明に係る車線内車両検出装置の車線決定処理部の処理流れを示すフロー図である。
【図11】本発明に係る車線内車両検出装置の車線内車両検出処理部の処理流れを示すフロー図である。
【図12】本発明に係る車線内車両検出装置の車線・車両検出処理部で行われる処理の一画面を示す。
【図13】本発明に係る車線内車両検出装置の車両位置速度算出部の処理流れを示すフロー図である。
【図14】本発明に係る車線内車両検出装置の出力画面例を示す。
【図15】本発明に係る車線内車両検出装置の出力画面例を示す。
【図16】本発明に係る車線内車両検出装置の出力画面例を示す。
【発明を実施するための形態】
【0021】
本発明は、高速道路の道路表面から所定の高さで設置されたステレオ画像撮像装置により、前方の高速道路を撮像したステレオ画像に基づき、ステレオ画像撮像装置に向かって進行して来る高速道路上の走行車線内の車両を検出して、ほぼリアルタイムで検出した車両の位置・速度を表示する車線内車両検出技術に関する。
【0022】
本発明は、高速道路工事現場で発生する、自動車突っ込みによる人身事故を未然に防ぐために、研究開発されたものである。
【0023】
本発明に係る車線内車両検出装置の一構成要素であるステレオ画像撮像装置を、高速道路工事現場の工事区間の開始点(つまり、工事区間とする高速道路上の走行車線の所定の位置)に設置する。より厳密に言うと、本発明では、ステレオ画像撮像装置は、走行車線の所定の位置の道路表面から所定の高さで設置される。
【0024】
本発明では、本発明に係る車線内車両検出装置が設置された高速道路の走行車線(走行レーン)を単に自車線と称する。また、自車線に隣接する高速道路の走行車線を隣接車線と称する。
【0025】
以下、本発明を実施するための形態について、図面を参照しながら詳細に説明する。
【0026】
図1は、本発明に係る車線内車両検出装置の実施形態(以下、単に、「本発明の車線内車両検出装置」、又は「車線内車両検出装置1」とも言う。)を示すブロック構成図である。図1に示すように、車線内車両検出装置1は、ステレオ画像撮像装置10と、視差画像生成部20と、車線・車両検出処理部30とから構成される。
【0027】
図示されていないが、ステレオ画像撮像装置10は、基準画像を撮像する基準画像撮像装置と、比較画像を撮像する比較画像撮像装置と、基準画像撮像装置の光学的な歪みに起因した基準画像の歪み、及び比較画像撮像装置の光学的な歪みに起因した比較画像の歪みを補正する歪補正処理部と、撮像装置の位置的なずれに起因した画像のずれを校正する校正パラメータに基づき、歪み補正された基準画像と比較画像を校正する校正処理部とから構成される。
【0028】
本発明では、ステレオ画像撮像装置10により撮像したステレオ画像、つまり、ステレオ画像撮像装置10により撮像した基準画像と比較画像は、既に歪み補正され、且つ、位置的なずれも校正された基準画像と比較画像である。
【0029】
要するに、図1に示された車線内車両検出装置1では、ステレオ画像撮像装置10から得られた(出力された)基準画像と比較画像は、既に歪み補正され、且つ、位置的なずれも校正された基準画像と比較画像である。
【0030】
以下、説明を簡単にするため、ステレオ画像撮像装置10から得られた、既に歪み補正され、且つ、位置的なずれも校正された基準画像と比較画像を、単に、基準画像と比較画像と称する。
【0031】
車線内車両検出装置1は、ステレオ画像撮像装置10により前方の自車線と隣接車線を撮像したステレオ画像(基準画像と比較画像)、及びステレオ画像から得られた視差画像に基づき、高速道路上の走行車線を示す白線を二つの線として認識し、走行車線を認識した二つの線の間の平面として捉え、ステレオ画像撮像装置10に向かって進行して来る自車線及び隣接車線内の車両を検出して、ほぼリアルタイムで検出した車両の位置を走行車線を表す平面上の二次元位置として表示するとともに、検出した車両の速度と衝突までの時間をも表示するものである。
【0032】
図2は、ステレオ画像撮像装置10の設置方法の一例を説明する模式図である。本発明では、ステレオ画像撮像装置10として、例えば電荷結合素子(CCD)等の固体撮像素子を用いた2台の固体撮像素子ビデオカメラと、歪補正校正処理部とから構成されるステレオビデオカメラを用いる。2台の固体撮像素子ビデオカメラのうち、1台は基準画像撮像装置とし、以下単に基準カメラと言い、もう1台は比較画像撮像装置とし、以下単に比較カメラと言う。
【0033】
図2に示すように、ステレオ画像撮像装置10としてのステレオビデオカメラは、走行車線の所定の位置の道路表面から所定の高さ(1.5m以上)で設置されている。
【0034】
図3は、本発明に係る車線内車両検出装置において、基準カメラ又は比較カメラから見た高速道路上の白線の見え方を説明するための模式図である。図3(A)は、基準カメラ又は比較カメラのカメラ位置が低い場合の高速道路上の白線の見え方を示している。また、図3(B)は、基準カメラ又は比較カメラのカメラ位置が高い場合の高速道路上の白線の見え方を示している。
【0035】
ここで言う「基準カメラ又は比較カメラのカメラ位置」とは、高速道路の道路表面からステレオ画像撮像装置10(ステレオビデオカメラ)の設置位置までの距離(高さ)を意味する。図2に示すように、本発明において、その高さは1.5m以上を有することが好ましい。
【0036】
図3から分かるように、カメラ位置が高い場合(1.5m以上の場合)に、遠方が見え易くなり、白線の傾きも大きくなる。それに対して、カメラ位置が低い場合に、遠方が見え難くなり、また、白線の傾きも小さくなる。
【0037】
要するに、本発明では、300m遠方の車両を確実に検出するために、ステレオビデオカメラを道路表面から1.5m以上の高さに設置することにより(図2参照)、遠くを見やすくするとともに、画像に写る白線の傾きを大きくして、ステレオマッチングの横方向の曖昧さを減少し、白線の視差精度(距離精度)を向上させるようにしている(図3参照)。さらに、本発明では、光軸を概ね水平にし、高速道路に上り下り勾配があっても、どちらも道路面が遠くまで見えるようにする(図2参照)。
【0038】
ここで、ステレオ画像撮像装置10としてステレオビデオカメラを用いた場合の具体例について説明する。
【0039】
基準カメラも、比較カメラも、同じ技術仕様を有する固体撮像素子ビデオカメラを使用する。固体撮像素子ビデオカメラは、望遠レンズが付けられ、外部同期の取れるものである。望遠レンズを付けた固体撮像素子ビデオカメラにより撮像した画像は、歪みが少ないため、基準カメラにより撮像した基準画像も、比較カメラにより撮像した比較画像も、歪補正が不要になる。
【0040】
本具体例では、ステレオビデオカメラは、基準カメラと、比較カメラと、校正パラメータに基づき、基準画像と比較画像を校正する画像校正処理部とから構成される。ここで、校正パラメータは、併進量と比較画像の回転角である。
【0041】
画像校正処理部では、まず、併進量に基づき、基準画像と比較画像をそれぞれ併進させ、更に、比較画像の回転角に基づき、併進された比較画像を回転させる。なお、校正パラメータ(併進量と比較画像の回転角)を求める処理手順は後述する。
【0042】
ここで、固体撮像素子ビデオカメラの好適な具体例として、竹中システムのNC300Aを選択する。このNC300Aは、インターライン転送方式、1/2インチサイズCCD撮像素子、画素数768(H)×494(V)、画素寸法8.4(H)×9.8(V)μm、1/60秒〜1/10000秒可変、インターレース/ノンインターレース、内部同期/外部同期、水平15.734kHz/垂直59.9Hzといった技術仕様を有する。
【0043】
ここで、2台のNC300Aと画像校正処理部とで構成されるステレオビデオカメラの設計パラメータについて説明する。
【0044】
まず、基線長×レンズ焦点距離(Bf値)の決定について説明する。本発明は高速道路工事現場で発生する、自動車突っ込みによる人身事故を防ぐために研究開発されたもので、背景技術で既述したように、作業員が安全に逃げるための逃げ時間を10秒とする場合、高速道路工事現場の約300m先、つまり、本発明に係る車線内車両検出装置の設置場所の約300m先から車両を検出する必要がある。
【0045】
従って、本発明のステレオ画像撮像装置(ステレオビデオカメラ)に、ステレオ画像撮像装置(ステレオビデオカメラ)の300m先まで見えるとの性能、及び30mくらい近くまで追跡できるとの性能が必要である。
【0046】
つまり、本発明では、ステレオビデオカメラの仕様については、30m手前まで見えるようにし(30mで視差100画素(一般的なステレオカメラでの探索幅))、300m先で10画素(1/4サブピクセルで±2m)の精度を確保するように設計する。
【0047】
一般的なステレオビデオカメラでの探索幅(探索範囲)は100画素である。Bf値は3000[m・画素]で、(300m先で視差10画素→±8mの精度)。また、一画素あたりの横幅は8.4×768÷640=10.1μmであるため、よってBf値[m・mm]は30.24になる。
【0048】
次に、レンズ焦点距離と基線長の決定について説明する。
【0049】
本発明のステレオ画像撮像装置(ステレオビデオカメラ)に、300m先で車両の幅(1.7m)が20画素程度で、300m先で1.7×640÷20=54.4mの幅が見えるとの性能が必要である。
【0050】
レンズ焦点距離は、撮像素子の横幅(10.1μm×640=6.46mm)より、6.46×300÷54.4=35.6mmであるため、35mmとする。また、基線長は、Bf値が30.24であることにより、30.24÷35=0.86m(86cm)となる。
【0051】
本発明では、車線内車両検出装置1を用いて自車線及び隣接車線内の車両を検出する前に、ステレオ画像撮像装置10として、ステレオビデオカメラを用いた場合に、予め、校正パラメータ(併進量と比較画像の回転角)を求める必要がある。
【0052】
つまり、ステレオビデオカメラが道路表面から所定の高さで設置された後に、まず、校正パラメータを求めるための処理を行なう必要がある。
【0053】
ステレオビデオカメラの校正パラメータ(併進量と比較画像の回転角)は、次のステップA1〜A7による処理で求める。
ステップA1:
基準カメラに写る水平ライン付近(実際には画面の中心を通るライン)からその下、画面の下半分の1/3までの範囲を水平方向に8つのブロックに分ける。すなわち、基準画像の縦方向の1/2の線(水平線)から、縦方向の1/6に、平行線を引き、この間を8分割する。このようにして、サンプルデータが局在化することを防ぐ。
ステップA2:
それぞれのブロックについて、8×8画素の小領域を各ブロックの左上に取る。
ステップA3:
画素の輝度について、セルフSAD(Self Sum of Absolute Difference)を計算する。本発明で言うセルフSADは、小領域を一画素分右へずらした小領域とのSADを意味する。このようにして、パターンの輝度の変化が大きい小領域を見つける。
ステップA4:
分散(セルフSAD)が所定の閾値より大きければ、その小領域を選択して探索を終了する。一方、分散(セルフSAD)が所定の閾値より小さければ、右方向及び下方向に探索して見つける。ブロックの中で、輝度変化の大きい個所1か所を見つける。
ステップA5:
ステップA4で選択した点(1か所)と同じパターンの小領域を比較画像から見つける。パターン一致度の評価は、SADなどを用い、0.1ピクセル程度のサブピクセル精度でその小領域の位置を求める。
ステップA6:
基準画像・比較画像の対応する領域の縦方向の位置が一致するように、最小二乗法を用いて、校正パラメータ、即ち、併進量と比較画像の回転角を求める。
【0054】
本来、基線長の方向と撮像素子の水平方向を合わせるため、回転は基準画像に対しても行なわなければならないが、基準画像に対する回転角も含めると、比較画像の回転角と干渉して、どちらの回転角も不安定になるので、本発明では、校正パラメータは併進量と比較画像の回転角のみにした。
ステップA7:
ステップA6で得られた校正パラメータ(比較画像の回転角と併進量)を、ステレオビデオカメラの画像校正処理部に記憶しておく。
次に、視差画像生成部20について説明する。図1に示すように、視差画像生成部20は、領域ステレオ法を用いて、ステレオ画像撮像装置10を用いて撮像したステレオ画像(基準画像と比較画像)から画像全体に亘る視差画像を生成する。
【0055】
なお、視差画像生成部20では、既存の領域ステレオ法を用いることにより、基準画像と比較画像から画像全体に亘る視差画像を生成する。
【0056】
図4は、本発明に係る車線内車両検出装置において、ステレオ画像撮像装置により撮像されたステレオ画像(基準画像及び比較画像)の画像例、及び視差画像生成部により生成された視差画像の画像例を示す。
【0057】
図4(A)に、基準カメラ(NC300Aビデオカメラ)で自車線と隣接車線を撮像した基準画像の一例を示す。図4(B)に、比較カメラ(NC300Aビデオカメラ)で自車線と隣接車線を撮像した比較画像の一例を示す。また、図4(C)に、図4(A)の基準画像と図4(B)の比較画像に基づき、視差画像生成部20により生成された視差画像を示す。
【0058】
図5は、本発明に係る車線内車両検出装置における車線・車両検出処理部の実施形態(車線内車両検出装置1における車線・車両検出処理部30)を示すブロック構成図である。図5に示すように、車線・車両検出処理部30は、白線検出処理部310と、車線決定処理部320と、車線内車両検出処理部330と、車両位置速度算出部340とから構成され、ステレオ画像撮像装置10から出力された基準画像と、視差画像生成部20より出力された視差画像に基づき、自車線及び隣接車線内の車両を検出して、検出した車両の位置を平面上の2次元位置として表示するとともに、検出した車両の速度と衝突までの時間をも表示する。
【0059】
図6は、道路面の白線を三次元で検出する白線検出処理部310の処理流れを示すフロー図である。
【0060】
図6に示すように、白線検出処理部310が、まず、基準画像と視差画像を連続して8枚ずつ取り込む(ステップS100を参照)。次に、白線検出処理部310が、特異点を除去するために、取り込んだ8枚の基準画像を時間平均化するとともに、取り込んだ8枚の視差画像も時間平均化する(ステップS110を参照)。
【0061】
次に、白線検出処理部310が、時間平均化された基準画像を所定サイズの領域(例えば、5×5画素の領域)で移動平均する(ステップS120を参照)。
【0062】
ステップS120で行われる処理により、エッジの方向のばらつきが押さえられる。ステップS120では、時間平均化された基準画像を所定サイズの領域(例えば、5×5画素の領域)で平均することにより、1画素ずつずらした元の画像とほぼ同じ画素数の画像を得る。
【0063】
白線検出処理部310では、ステップS110及びステップS120の処理を行なうことにより、基準画像を平均化してぼかすことで、以下の処理をし易くする。
【0064】
次に、白線検出処理部310が、移動平均された基準画像にソーベルフィルタをかけることにより、エッジを検出する(ステップS130を参照)。
【0065】
ステップS130では、エッジを方向(同じ方向でも白→黒、黒→白で符号が違う)情報も含めて検出する。つまり、ステップS130において、ソーベルフィルタで検出されたエッジ情報は、エッジ強度と、エッジの符号を含めたエッジ方向である。
【0066】
図7に本発明の白線検出処理部でのソーベルフィルタ処理により生成された、エッジ強度画像例とエッジ方向分布例を示す。図7(B)は、図7(A)の基準画像にソーベルフィルタをかけて得られたエッジ強度画像である。図7(B)のエッジ強度画像は、明るくなるほど、エッジ強度が大きくなる。
【0067】
また、図7(C)は、図7(A)の基準画像にソーベルフィルタをかけて得られたエッジ方向分布を示すエッジ方向画像である。図7(C)のエッジ方向画像において、黄はエッジ方向0°、赤はエッジ方向60°、紫はエッジ方向120°、青はエッジ方向180°、水色はエッジ方向240°、緑はエッジ方向300°をそれぞれ表す。
【0068】
ステップS130で行われる処理により、周囲より白い部分を検出することになるので、薄い白線でも、検出することができる。
【0069】
次に、白線検出処理部310が、ソーベルフィルタで検出されたエッジ情報および視差情報に基づき、白線検出用の3次元ウィンドウを設定する(ステップS140を参照)。ステップS140では、道路表面上の白線が存在しそうなところ(例えば、車両に沿った前方右側)に、3次元ウィンドウを設定する。また、ステップS140では、道路表面上の白線を取り囲む四角錐体が連続した形で、3次元ウィンドウを設定する。
【0070】
ステップS140で行われる処理により、白線検出処理部310により検出される白線は、道路表面上の白線に限定されることができる。また、ステップS140で行われる処理により、道路表面上にない白線状のもの(例えば、ガードレールなどの白線状のもの)が除去される。
【0071】
次に、白線検出処理部310が、時間平均化された視差画像に基づき、エッジ方向、基準画像の連続、視差の連続を条件として、エッジ点群をグループ化する(ステップS150を参照)。
【0072】
ステップS150では、ソーベルフィルタ処理で得られたエッジ点群に対し、エッジの符号を含めたエッジ方向、点列の連続性(基準画像の連続性)、視差の連続性に基づき、エッジ点群をグループ化する。
【0073】
ここで、視差の連続性を加えることにより、より黒から白へ、道路表面上という場所を見つけ易くして、頑強に白線を検出することができる。
【0074】
次に、白線検出処理部310が、ハフ変換により、3次元ウィンドウに3次元の直線を見つける(ステップS160を参照)。本発明では、3次元として記述された直線(即ち、3次元の直線)が複数存在する平面として道路面を捉えることにより、道路面を三次元的に決定する。
【0075】
ステップS160では、ハフ変換を2回使用することにより、3次元ウィンドウ内にエッジ点群を選ぶ。
【0076】
次に、白線検出処理部310が、3次元の直線に含まれるエッジ点群に最小二乗法で直線を当てはめ、直線の位置精度を上げる(ステップS170を参照)。
【0077】
ステップS170では、ハフ変換で選んだエッジ点群に対し、最小二乗法で直線を当てはめ、直線の位置精度を上げ、最後に、高速道路上の白線の幅が15cmと決められていることを利用して、時間平均化された視差画像から求められる15cmの幅でエッジ方向の符号が変わり、エッジの間が明るいものを白線として検出する。
【0078】
時間平均化された視差画像から絶対的な長さとして15cmが得られるので、高速道路の規格で作られた白線以外のものが検出されることが少なくなる。
【0079】
白線検出処理部310が、手前の白線を構成するエッジ点群データをもとに、順次遠方の白線検出用3次元ウィンドウを設定し、上記の方法で遠方の白線を検出する。これにより、破線状の白線が、たとえ曲がっていても、3次元ウィンドウを下からつないでいくことができる。
【0080】
図8に、本発明の白線検出処理部で設定した白線検出用3次元ウィンドウの一例を示す。図8から分かるように、白線検出処理部310が設定した白線検出用3次元ウィンドウは、白線が存在しうる場所を三次元的に囲むように設置する。
【0081】
また、図9に、本発明の白線検出処理部で行われたエッジ点群をグループ化した結果、及び検出した白線を示す。
【0082】
図10は、車線決定処理部320の処理流れを示すフロー図である。白線検出処理部310で白線が検出された後に、車線決定処理部320は、検出された白線に基づき、自車線と隣接車線を決定する。
【0083】
図10に示すように、車線決定処理部320が、白線検出処理部310で検出された白線を右車線又は左車線とする(ステップS200を参照)。次に、車線決定処理部320が、検出された白線の左側又は右側に、一車線の幅分(3.75m)ずつ広げ、自車線、隣接車線と決定する(ステップS210を参照)。
【0084】
図11は、車線内車両検出処理部330の処理流れを示すフロー図である。車線決定処理部320で自車線と隣接車線が決定された後に、車線内車両検出処理部330が、決定した各車線内の車両を検出する。
【0085】
図11に示すように、車線内車両検出処理部330が、決定した車線内で道路表面から所定(2.5m)の高さまでの視差データを抽出する(ステップS300を参照)。
【0086】
ステップS300では、車線を形成する両側の白線の間に平面を当てはめ、それより上で高さが2.5mまで、さらに2つの白線の間にある視差データを抽出する。ステップS300での処理により、視差データの変化分が走行可能な3次元空間内の視差データの変化の検出に限定される。
【0087】
次に、車線内車両検出処理部330が、視差画像全体を所定の横幅を有する短冊領域に分割する(ステップS310を参照)。
【0088】
ステップS310では、視差画像全体を、横幅が、視差画像を生成する際に用いた領域ステレオ法での領域の幅に一致させ、縦が視差画像の高さとなる短冊領域に分割する。
【0089】
換言すれば、ステップS310では、2次元の視差画像の視差データを、上からみた横軸の1次元の視差データに圧縮する。ここで、車両の横端の位置の視差データを抽出することが重要である。ステップS310での処理により、縦方向の形状が圧縮されて、データ量を減らす効果がある。
【0090】
次に、車線内車両検出処理部330が、分割された各短冊領域について視差ヒストグラムを作成する(ステップS320を参照)。
【0091】
次に、車線内車両検出処理部330が、所定の閾値以上の視差データで平面図を構成する(ステップS330を参照)。
【0092】
ステップS330では、設定した閾値以上のデータ数がある視差dと、当該短冊の横方向の画面上での位置iとから(i−d)空間での立体物の位置を求める。視差空間でデータ処理することにより、距離データに直すときの割り算を含む計算を多数のデータに施さなくて済み、計算時間が短縮される。
【0093】
ステップS320及びステップS330の処理を各短冊領域に対して繰り返し処理することで、車線内にある立体物の分布が求められる。これは上から見た平面図に相当する。
【0094】
図12に、車線・車両検出処理部で行われる処理の一画面を示す。図12に、視差ヒストグラムの平面表示(平面図)も示している。
【0095】
次に、車線内車両検出処理部330が、隣接する視差データをグループ化する(ステップS340を参照)。
【0096】
次に、車線内車両検出処理部330が、所定の閾値以上の視差データ数があるグループを車線内の車両として検出する(ステップS350を参照)。
【0097】
ステップS350では、ある閾値を超えたデータ数のある視差データのグループをその車線内の車として検出する。本発明は、視差データのみで車線内の車両を検出する。
【0098】
図13は、車両位置速度算出部340の処理流れを示すフロー図である。車線内車両検出処理部330で自車線及び隣接車線内の車両が検出された後に、車両位置速度算出部340は、自車線内の車両の位置・速度・衝突までの時間を表示するとともに、隣接車線内の車両の位置・速度をも表示する。
【0099】
図13に示すように、車両位置速度算出部340が、検出した車線内の車両のうち、その車線で最も近い車両の位置を算出して、その車線を表す平面状の2次元位置として表示する(ステップS400を参照)。
【0100】
ステップS400では、車線内車両検出処理部330で得られたグループのうち最も視差が大きいグループをその車線で最も近い車両として距離(車両の位置)を算出して表示する。最後に一点のみの距離を計算することで、視差から距離を算出する計算量が減らせる。上面から見た2本の白線内の平面を走行車線として表示し、この走行車線の平面に、当該車線内にある車両の位置を出力(表示)する。
【0101】
次に、車両位置速度算出部340が、それぞれの車線内で検出した車両の位置を時系列に記憶し、その位置の時間変化から速度を算出して表示し、さらに、自車線内の車両について衝突までの時間も算出して表示する(ステップS410を参照)。
【0102】
図14、図15及び図16に、本発明に係る車線内車両検出装置の出力画面例を示す。
【0103】
図14に、自車線内の車両を検出して、隣接車線内の車両が検出されない場合の例であり、画面上に、自車線の車両の位置・速度・衝突までの時間を表示している。
【0104】
また、図15に、自車線内の車両と隣接車線内の車両の両方を検出した場合の例であり、画面上に、自車線の車両の位置・速度・衝突までの時間を表示しているとともに、隣接車線の車両の位置・速度も表示している。
【0105】
そして、図16は、隣接車線内の車両を検出して、自車線内の車両が検出されない場合の例であり、画面上に、隣接車線の車両の位置・速度を表示している。
【0106】
以上のように、本発明に係る車線内車両検出装置について詳細に説明した。本発明に係る車線内車両検出装置における「視差画像生成部」と「車線・車両検出処理部」については、コンピュータシステムを利用し、ソフトウェア(コンピュータプログラム)により実装されることができ、そして、ASIC(Application Specific Integrated Circuit)、GPU(Graphics Processing Unit)やFPGA(Field Programmable Gate Array)などのハードウェアにより実装されることも勿論できる。
【0107】
本発明に係る車線内車両検出装置は、次の技術特徴を有する。
特徴その1:
道路面の2〜3mの上方に車両の進行方向に向けて設置される、ステレオ画像撮像装置(ステレオビデオカメラ)で撮像したステレオ画像より、高速道路上の走行車線を示す白線を二つの線として認識し、走行車線を二つの線の間の平面として捉える。高速道路が左右に曲がっていても、上下に傾斜があっても、走行車線は、二つの線の間の平面として表現される。
特徴その2:
車両の検出は、ステレオ画像の視差の変化データのグループとして捉え、走行車線の進行方向に垂直な平面の画像データを一次元のデータとして圧縮し、走行している車両は、上記の一次元データ中の視差の変化のデータの大きい点として捉えられる。
特徴その3:
走行車線上に停止している車両は検出せず、遠ざかる車両も検出しない。
特徴その4:
車両の距離(位置)の算出は、ステレオ画像の視差データから行い、他の距離を測定する手段、例えば、レーダー、あるいはレーザー、車両の通過センサーなどの装置を必要としない。
特徴その5:
ステレオ画像撮像装置(ステレオビデオカメラ)からの車両の位置については、300〜30mが、特に正確に車両の距離(位置)を測定する範囲である。
特徴その6:
車両がステレオ画像撮像装置(ステレオビデオカメラ)からの位置、300〜30mの間をステレオビデオカメラに向かって走行してくる間に、警報を音や表示画像上のマーク、点滅光などとして出力する。
特徴その7:
隣接車線についても、隣接車線として区別して走行してくる車両を常に監視している。例え、急に自車線に車両が飛び込んできても、隣接車線上の走行時から、既にその車両の速度を監視しているため、危険度をすぐに算出することができる。
【符号の説明】
【0108】
1 車線内車両検出装置
10 ステレオ画像撮像装置
20 視差画像生成部
30 車線・車両検出処理部
310 白線検出処理部
320 車線決定処理部
330 車線内車両検出処理部
340 車両位置速度算出部
【技術分野】
【0001】
本発明は、ステレオ画像に基づき、高速道路上の走行車線内の車両を検出して、ほぼリアルタイムで検出した車両の位置・速度を表示する車両検出技術に関する。
【背景技術】
【0002】
人や物を運ぶ手段の一つである自動車等の車両は、その利便性と快適性から現代社会においてなくてはならない存在となっている。そこで、自動車の持つ優れた点を犠牲にすることなく、自動車による事故を自動的に回避できる技術の開発が、従来より進められている。
【0003】
自動車による事故の一つとして、例えば、高速道路において行われる工事の現場(以下、単に、高速道路工事現場と言う。)に突っ込んでくる自動車による事故がある。統計によると、このような事故は年間300件以上が発生しており、しかも、重大人身事故につながりやすくて、年間50人以上が死亡している。
【0004】
また、このような事故が起きた場合では、高速道路工事現場に突っ込んでくる自動車の運転者が、殆ど居眠り運転をしている。しかし、居眠り運転をしている運転者に警報を出しても、運転者がその警報に気付かなければ、警報を出す意味があまり無いと思われる。
【0005】
そこで、高速道路工事現場で作業している作業員には、自分自身の命を守るために、高速道路工事現場に突っ込んで来る自動車に気付いたら、すぐに逃げる方法しかない。
【0006】
ここで、高速道路工事現場に居る作業員が安全に逃げるための逃げ時間を10秒と設定すると、高速道路を時速100km/h(つまり、秒速27.8m/s)で走っている自動車が、高速道路工事現場に向かって走行して来ることを想定した場合に、高速道路工事現場の約300m先(≒278m=10s×27.8m/s)で自動車を発見して作業員に知らせる必要がある。
【0007】
換言すれば、高速道路工事現場の300m先から、高速道路工事現場に近付いてくる自動車を捕捉(検出)して、高速道路工事現場に居る作業員に知らせることにより、このような事故を未然に防ぐことができる。
【先行技術文献】
【非特許文献】
【0008】
【非特許文献1】實吉敬二著,「ステレオ法による立体画像認識の基礎と車載カメラへの応用」,株式会社トリケップス,2007年
【発明の概要】
【発明が解決しようとする課題】
【0009】
しかし、高速道路工事現場の300m先から高速道路工事現場に近付いてくる自動車を捕捉し続けるのに、つまり、高速道路工事現場の300m先から高速道路上の車線内車両を検出するのに、レーダーでは、遠すぎるという問題、また、視野角が広すぎるという問題がある。
【0010】
そして、300mも距離があると、高速道路にカーブや勾配も存在する場合がある。レーダーでは、特定の方向に存在する物体しか検出できず、高速道路の形状(高速道路上の車線)を検出することができないという問題もある。
【0011】
一方、ステレオカメラによる画像処理技術は、進歩を続けている(非特許文献1参照)。現在では、車載ステレオカメラに関する画像処理技術も盛んに行われている(非特許文献1参照)。
【0012】
本発明は、上述のような事情よりなされたものであり、本発明の目的は、高速道路の道路表面から所定の高さで設置されたステレオ画像撮像装置により、前方の高速道路を撮像したステレオ画像に基づき、ステレオ画像撮像装置に向かって進行して来る高速道路上の走行車線内の車両を検出して、ほぼリアルタイムで検出した車両の位置・速度を表示する車線内車両検出装置及び車線内車両検出方法を提供することにある。
【課題を解決するための手段】
【0013】
本発明は、高速道路上の走行車線内の車両を検出して、検出した車両の位置・速度を表示する車線内車両検出装置に関し、本発明の上記目的は、前方の自車線と隣接車線を撮像して基準画像と比較画像を出力するステレオ画像撮像装置と、前記基準画像と前記比較画像に基づき、視差画像を生成する視差画像生成部と、車線・車両検出処理部とを備え、前記車線・車両検出処理部は、前記基準画像と前記視差画像に基づき、前記ステレオ画像撮像装置に向かって進行して来る自車線及び隣接車線内の車両を検出して、検出した車両の位置を、走行車線を表す平面上の2次元位置として表示するとともに、検出した車両の速度と衝突までの時間をも表示することによって効果的に達成される。
【0014】
また、本発明の上記目的は、前記視差画像生成部は、領域ステレオ法を用いて画像全体に亘る前記視差画像を生成し、前記車線・車両検出処理部は、白線検出処理部と、車線決定処理部と、車線内車両検出処理部と、車両位置速度算出部とを備えることによってより効果的に達成される。
【0015】
また、本発明の上記目的は、前記白線検出処理部は、基準画像と視差画像を連続して8枚ずつ取り込むというステップ、8枚の基準画像を時間平均化するとともに、8枚の視差画像も時間平均化するというステップ、時間平均化された基準画像を所定サイズの領域で移動平均するというステップ、移動平均された基準画像にソーベルフィルタをかけることにより、エッジを検出するというステップ、ソーベルフィルタで検出されたエッジ情報および視差情報に基づき、白線検出用の3次元ウィンドウを設定するというステップ、時間平均化された視差画像に基づき、エッジ方向、基準画像の連続、視差の連続を条件として、エッジ点群をグループ化するというステップ、ハフ変換により、3次元ウィンドウに3次元の直線を見つけるというステップ、及び3次元の直線に含まれるエッジ点群に最小二乗法で直線を当てはめ、直線の位置精度を上げるというステップによる処理を行うことにより、道路面の白線を三次元で検出することによってより効果的に達成される。
【0016】
また、本発明の上記目的は、前記車線決定処理部は、前記白線検出処理部で検出された白線を右車線又は左車線とし、更に、検出された白線の左側又は右側に、一車線の幅分ずつ広げ、前記自車線、前記隣接車線と決定することによってより効果的に達成される。
【0017】
また、本発明の上記目的は、前記車線内車両検出処理部は、決定した車線内で道路表面から所定の高さまでの視差データを抽出するというステップ、視差画像全体を所定の横幅を有する短冊領域に分割するというステップ、分割された各短冊領域について視差ヒストグラムを作成するというステップ、所定の閾値以上の視差データで平面図を構成するというステップ、隣接する視差データをグループ化するというステップ、及び所定の閾値以上の視差データ数があるグループを車線内の車両として検出するというステップによる処理を行うことにより、決定した各車線内の車両を検出することによってより効果的に達成される。
【0018】
また、本発明の上記目的は、車両位置速度算出部は、検出した車線内の車両のうち、その車線で最も近い車両の位置を算出して、その車線を表す平面状の2次元位置として表示するというステップ、及びそれぞれの車線内で検出した車両の位置を時系列に記憶し、その位置の時間変化から速度を算出して表示し、さらに、自車線内の車両について衝突までの時間も算出して表示するというステップによる処理を行うことにより、前記自車線内の車両の位置・速度・衝突までの時間を表示するとともに、前記隣接車線内の車両の位置・速度をも表示することによってより効果的に達成される。
【発明の効果】
【0019】
本発明に係る車線内車両検出装置によれば、高速道路工事現場に突っ込んでくる自動車による人身事故を未然に防ぐことができるという優れた効果を奏する。
【図面の簡単な説明】
【0020】
【図1】本発明に係る車線内車両検出装置の実施形態を示すブロック構成図である。
【図2】本発明において、ステレオ画像撮像装置(ステレオビデオカメラ)の設置方法の一例を説明する模式図である。
【図3】本発明に係る車線内車両検出装置において、基準カメラ又は比較カメラから見た高速道路上の白線の見え方を説明するための模式図である。
【図4】本発明に係る車線内車両検出装置において、ステレオ画像撮像装置により撮像されたステレオ画像(基準画像及び比較画像)の画像例、及び視差画像生成部により生成された視差画像の画像例を示す。
【図5】本発明に係る車線内車両検出装置における車線・車両検出処理部の実施形態を示すブロック構成図である。
【図6】本発明に係る車線内車両検出装置の白線検出処理部の処理流れを示すフロー図である。
【図7】本発明の白線検出処理部でのソーベルフィルタ処理により生成された、エッジ強度画像例とエッジ方向分布例を示す。
【図8】本発明の白線検出処理部で行われる処理に係る白線検出用3次元ウィンドウの一例を示す。
【図9】本発明の白線検出処理部で行われる処理を説明するための図である。
【図10】本発明に係る車線内車両検出装置の車線決定処理部の処理流れを示すフロー図である。
【図11】本発明に係る車線内車両検出装置の車線内車両検出処理部の処理流れを示すフロー図である。
【図12】本発明に係る車線内車両検出装置の車線・車両検出処理部で行われる処理の一画面を示す。
【図13】本発明に係る車線内車両検出装置の車両位置速度算出部の処理流れを示すフロー図である。
【図14】本発明に係る車線内車両検出装置の出力画面例を示す。
【図15】本発明に係る車線内車両検出装置の出力画面例を示す。
【図16】本発明に係る車線内車両検出装置の出力画面例を示す。
【発明を実施するための形態】
【0021】
本発明は、高速道路の道路表面から所定の高さで設置されたステレオ画像撮像装置により、前方の高速道路を撮像したステレオ画像に基づき、ステレオ画像撮像装置に向かって進行して来る高速道路上の走行車線内の車両を検出して、ほぼリアルタイムで検出した車両の位置・速度を表示する車線内車両検出技術に関する。
【0022】
本発明は、高速道路工事現場で発生する、自動車突っ込みによる人身事故を未然に防ぐために、研究開発されたものである。
【0023】
本発明に係る車線内車両検出装置の一構成要素であるステレオ画像撮像装置を、高速道路工事現場の工事区間の開始点(つまり、工事区間とする高速道路上の走行車線の所定の位置)に設置する。より厳密に言うと、本発明では、ステレオ画像撮像装置は、走行車線の所定の位置の道路表面から所定の高さで設置される。
【0024】
本発明では、本発明に係る車線内車両検出装置が設置された高速道路の走行車線(走行レーン)を単に自車線と称する。また、自車線に隣接する高速道路の走行車線を隣接車線と称する。
【0025】
以下、本発明を実施するための形態について、図面を参照しながら詳細に説明する。
【0026】
図1は、本発明に係る車線内車両検出装置の実施形態(以下、単に、「本発明の車線内車両検出装置」、又は「車線内車両検出装置1」とも言う。)を示すブロック構成図である。図1に示すように、車線内車両検出装置1は、ステレオ画像撮像装置10と、視差画像生成部20と、車線・車両検出処理部30とから構成される。
【0027】
図示されていないが、ステレオ画像撮像装置10は、基準画像を撮像する基準画像撮像装置と、比較画像を撮像する比較画像撮像装置と、基準画像撮像装置の光学的な歪みに起因した基準画像の歪み、及び比較画像撮像装置の光学的な歪みに起因した比較画像の歪みを補正する歪補正処理部と、撮像装置の位置的なずれに起因した画像のずれを校正する校正パラメータに基づき、歪み補正された基準画像と比較画像を校正する校正処理部とから構成される。
【0028】
本発明では、ステレオ画像撮像装置10により撮像したステレオ画像、つまり、ステレオ画像撮像装置10により撮像した基準画像と比較画像は、既に歪み補正され、且つ、位置的なずれも校正された基準画像と比較画像である。
【0029】
要するに、図1に示された車線内車両検出装置1では、ステレオ画像撮像装置10から得られた(出力された)基準画像と比較画像は、既に歪み補正され、且つ、位置的なずれも校正された基準画像と比較画像である。
【0030】
以下、説明を簡単にするため、ステレオ画像撮像装置10から得られた、既に歪み補正され、且つ、位置的なずれも校正された基準画像と比較画像を、単に、基準画像と比較画像と称する。
【0031】
車線内車両検出装置1は、ステレオ画像撮像装置10により前方の自車線と隣接車線を撮像したステレオ画像(基準画像と比較画像)、及びステレオ画像から得られた視差画像に基づき、高速道路上の走行車線を示す白線を二つの線として認識し、走行車線を認識した二つの線の間の平面として捉え、ステレオ画像撮像装置10に向かって進行して来る自車線及び隣接車線内の車両を検出して、ほぼリアルタイムで検出した車両の位置を走行車線を表す平面上の二次元位置として表示するとともに、検出した車両の速度と衝突までの時間をも表示するものである。
【0032】
図2は、ステレオ画像撮像装置10の設置方法の一例を説明する模式図である。本発明では、ステレオ画像撮像装置10として、例えば電荷結合素子(CCD)等の固体撮像素子を用いた2台の固体撮像素子ビデオカメラと、歪補正校正処理部とから構成されるステレオビデオカメラを用いる。2台の固体撮像素子ビデオカメラのうち、1台は基準画像撮像装置とし、以下単に基準カメラと言い、もう1台は比較画像撮像装置とし、以下単に比較カメラと言う。
【0033】
図2に示すように、ステレオ画像撮像装置10としてのステレオビデオカメラは、走行車線の所定の位置の道路表面から所定の高さ(1.5m以上)で設置されている。
【0034】
図3は、本発明に係る車線内車両検出装置において、基準カメラ又は比較カメラから見た高速道路上の白線の見え方を説明するための模式図である。図3(A)は、基準カメラ又は比較カメラのカメラ位置が低い場合の高速道路上の白線の見え方を示している。また、図3(B)は、基準カメラ又は比較カメラのカメラ位置が高い場合の高速道路上の白線の見え方を示している。
【0035】
ここで言う「基準カメラ又は比較カメラのカメラ位置」とは、高速道路の道路表面からステレオ画像撮像装置10(ステレオビデオカメラ)の設置位置までの距離(高さ)を意味する。図2に示すように、本発明において、その高さは1.5m以上を有することが好ましい。
【0036】
図3から分かるように、カメラ位置が高い場合(1.5m以上の場合)に、遠方が見え易くなり、白線の傾きも大きくなる。それに対して、カメラ位置が低い場合に、遠方が見え難くなり、また、白線の傾きも小さくなる。
【0037】
要するに、本発明では、300m遠方の車両を確実に検出するために、ステレオビデオカメラを道路表面から1.5m以上の高さに設置することにより(図2参照)、遠くを見やすくするとともに、画像に写る白線の傾きを大きくして、ステレオマッチングの横方向の曖昧さを減少し、白線の視差精度(距離精度)を向上させるようにしている(図3参照)。さらに、本発明では、光軸を概ね水平にし、高速道路に上り下り勾配があっても、どちらも道路面が遠くまで見えるようにする(図2参照)。
【0038】
ここで、ステレオ画像撮像装置10としてステレオビデオカメラを用いた場合の具体例について説明する。
【0039】
基準カメラも、比較カメラも、同じ技術仕様を有する固体撮像素子ビデオカメラを使用する。固体撮像素子ビデオカメラは、望遠レンズが付けられ、外部同期の取れるものである。望遠レンズを付けた固体撮像素子ビデオカメラにより撮像した画像は、歪みが少ないため、基準カメラにより撮像した基準画像も、比較カメラにより撮像した比較画像も、歪補正が不要になる。
【0040】
本具体例では、ステレオビデオカメラは、基準カメラと、比較カメラと、校正パラメータに基づき、基準画像と比較画像を校正する画像校正処理部とから構成される。ここで、校正パラメータは、併進量と比較画像の回転角である。
【0041】
画像校正処理部では、まず、併進量に基づき、基準画像と比較画像をそれぞれ併進させ、更に、比較画像の回転角に基づき、併進された比較画像を回転させる。なお、校正パラメータ(併進量と比較画像の回転角)を求める処理手順は後述する。
【0042】
ここで、固体撮像素子ビデオカメラの好適な具体例として、竹中システムのNC300Aを選択する。このNC300Aは、インターライン転送方式、1/2インチサイズCCD撮像素子、画素数768(H)×494(V)、画素寸法8.4(H)×9.8(V)μm、1/60秒〜1/10000秒可変、インターレース/ノンインターレース、内部同期/外部同期、水平15.734kHz/垂直59.9Hzといった技術仕様を有する。
【0043】
ここで、2台のNC300Aと画像校正処理部とで構成されるステレオビデオカメラの設計パラメータについて説明する。
【0044】
まず、基線長×レンズ焦点距離(Bf値)の決定について説明する。本発明は高速道路工事現場で発生する、自動車突っ込みによる人身事故を防ぐために研究開発されたもので、背景技術で既述したように、作業員が安全に逃げるための逃げ時間を10秒とする場合、高速道路工事現場の約300m先、つまり、本発明に係る車線内車両検出装置の設置場所の約300m先から車両を検出する必要がある。
【0045】
従って、本発明のステレオ画像撮像装置(ステレオビデオカメラ)に、ステレオ画像撮像装置(ステレオビデオカメラ)の300m先まで見えるとの性能、及び30mくらい近くまで追跡できるとの性能が必要である。
【0046】
つまり、本発明では、ステレオビデオカメラの仕様については、30m手前まで見えるようにし(30mで視差100画素(一般的なステレオカメラでの探索幅))、300m先で10画素(1/4サブピクセルで±2m)の精度を確保するように設計する。
【0047】
一般的なステレオビデオカメラでの探索幅(探索範囲)は100画素である。Bf値は3000[m・画素]で、(300m先で視差10画素→±8mの精度)。また、一画素あたりの横幅は8.4×768÷640=10.1μmであるため、よってBf値[m・mm]は30.24になる。
【0048】
次に、レンズ焦点距離と基線長の決定について説明する。
【0049】
本発明のステレオ画像撮像装置(ステレオビデオカメラ)に、300m先で車両の幅(1.7m)が20画素程度で、300m先で1.7×640÷20=54.4mの幅が見えるとの性能が必要である。
【0050】
レンズ焦点距離は、撮像素子の横幅(10.1μm×640=6.46mm)より、6.46×300÷54.4=35.6mmであるため、35mmとする。また、基線長は、Bf値が30.24であることにより、30.24÷35=0.86m(86cm)となる。
【0051】
本発明では、車線内車両検出装置1を用いて自車線及び隣接車線内の車両を検出する前に、ステレオ画像撮像装置10として、ステレオビデオカメラを用いた場合に、予め、校正パラメータ(併進量と比較画像の回転角)を求める必要がある。
【0052】
つまり、ステレオビデオカメラが道路表面から所定の高さで設置された後に、まず、校正パラメータを求めるための処理を行なう必要がある。
【0053】
ステレオビデオカメラの校正パラメータ(併進量と比較画像の回転角)は、次のステップA1〜A7による処理で求める。
ステップA1:
基準カメラに写る水平ライン付近(実際には画面の中心を通るライン)からその下、画面の下半分の1/3までの範囲を水平方向に8つのブロックに分ける。すなわち、基準画像の縦方向の1/2の線(水平線)から、縦方向の1/6に、平行線を引き、この間を8分割する。このようにして、サンプルデータが局在化することを防ぐ。
ステップA2:
それぞれのブロックについて、8×8画素の小領域を各ブロックの左上に取る。
ステップA3:
画素の輝度について、セルフSAD(Self Sum of Absolute Difference)を計算する。本発明で言うセルフSADは、小領域を一画素分右へずらした小領域とのSADを意味する。このようにして、パターンの輝度の変化が大きい小領域を見つける。
ステップA4:
分散(セルフSAD)が所定の閾値より大きければ、その小領域を選択して探索を終了する。一方、分散(セルフSAD)が所定の閾値より小さければ、右方向及び下方向に探索して見つける。ブロックの中で、輝度変化の大きい個所1か所を見つける。
ステップA5:
ステップA4で選択した点(1か所)と同じパターンの小領域を比較画像から見つける。パターン一致度の評価は、SADなどを用い、0.1ピクセル程度のサブピクセル精度でその小領域の位置を求める。
ステップA6:
基準画像・比較画像の対応する領域の縦方向の位置が一致するように、最小二乗法を用いて、校正パラメータ、即ち、併進量と比較画像の回転角を求める。
【0054】
本来、基線長の方向と撮像素子の水平方向を合わせるため、回転は基準画像に対しても行なわなければならないが、基準画像に対する回転角も含めると、比較画像の回転角と干渉して、どちらの回転角も不安定になるので、本発明では、校正パラメータは併進量と比較画像の回転角のみにした。
ステップA7:
ステップA6で得られた校正パラメータ(比較画像の回転角と併進量)を、ステレオビデオカメラの画像校正処理部に記憶しておく。
次に、視差画像生成部20について説明する。図1に示すように、視差画像生成部20は、領域ステレオ法を用いて、ステレオ画像撮像装置10を用いて撮像したステレオ画像(基準画像と比較画像)から画像全体に亘る視差画像を生成する。
【0055】
なお、視差画像生成部20では、既存の領域ステレオ法を用いることにより、基準画像と比較画像から画像全体に亘る視差画像を生成する。
【0056】
図4は、本発明に係る車線内車両検出装置において、ステレオ画像撮像装置により撮像されたステレオ画像(基準画像及び比較画像)の画像例、及び視差画像生成部により生成された視差画像の画像例を示す。
【0057】
図4(A)に、基準カメラ(NC300Aビデオカメラ)で自車線と隣接車線を撮像した基準画像の一例を示す。図4(B)に、比較カメラ(NC300Aビデオカメラ)で自車線と隣接車線を撮像した比較画像の一例を示す。また、図4(C)に、図4(A)の基準画像と図4(B)の比較画像に基づき、視差画像生成部20により生成された視差画像を示す。
【0058】
図5は、本発明に係る車線内車両検出装置における車線・車両検出処理部の実施形態(車線内車両検出装置1における車線・車両検出処理部30)を示すブロック構成図である。図5に示すように、車線・車両検出処理部30は、白線検出処理部310と、車線決定処理部320と、車線内車両検出処理部330と、車両位置速度算出部340とから構成され、ステレオ画像撮像装置10から出力された基準画像と、視差画像生成部20より出力された視差画像に基づき、自車線及び隣接車線内の車両を検出して、検出した車両の位置を平面上の2次元位置として表示するとともに、検出した車両の速度と衝突までの時間をも表示する。
【0059】
図6は、道路面の白線を三次元で検出する白線検出処理部310の処理流れを示すフロー図である。
【0060】
図6に示すように、白線検出処理部310が、まず、基準画像と視差画像を連続して8枚ずつ取り込む(ステップS100を参照)。次に、白線検出処理部310が、特異点を除去するために、取り込んだ8枚の基準画像を時間平均化するとともに、取り込んだ8枚の視差画像も時間平均化する(ステップS110を参照)。
【0061】
次に、白線検出処理部310が、時間平均化された基準画像を所定サイズの領域(例えば、5×5画素の領域)で移動平均する(ステップS120を参照)。
【0062】
ステップS120で行われる処理により、エッジの方向のばらつきが押さえられる。ステップS120では、時間平均化された基準画像を所定サイズの領域(例えば、5×5画素の領域)で平均することにより、1画素ずつずらした元の画像とほぼ同じ画素数の画像を得る。
【0063】
白線検出処理部310では、ステップS110及びステップS120の処理を行なうことにより、基準画像を平均化してぼかすことで、以下の処理をし易くする。
【0064】
次に、白線検出処理部310が、移動平均された基準画像にソーベルフィルタをかけることにより、エッジを検出する(ステップS130を参照)。
【0065】
ステップS130では、エッジを方向(同じ方向でも白→黒、黒→白で符号が違う)情報も含めて検出する。つまり、ステップS130において、ソーベルフィルタで検出されたエッジ情報は、エッジ強度と、エッジの符号を含めたエッジ方向である。
【0066】
図7に本発明の白線検出処理部でのソーベルフィルタ処理により生成された、エッジ強度画像例とエッジ方向分布例を示す。図7(B)は、図7(A)の基準画像にソーベルフィルタをかけて得られたエッジ強度画像である。図7(B)のエッジ強度画像は、明るくなるほど、エッジ強度が大きくなる。
【0067】
また、図7(C)は、図7(A)の基準画像にソーベルフィルタをかけて得られたエッジ方向分布を示すエッジ方向画像である。図7(C)のエッジ方向画像において、黄はエッジ方向0°、赤はエッジ方向60°、紫はエッジ方向120°、青はエッジ方向180°、水色はエッジ方向240°、緑はエッジ方向300°をそれぞれ表す。
【0068】
ステップS130で行われる処理により、周囲より白い部分を検出することになるので、薄い白線でも、検出することができる。
【0069】
次に、白線検出処理部310が、ソーベルフィルタで検出されたエッジ情報および視差情報に基づき、白線検出用の3次元ウィンドウを設定する(ステップS140を参照)。ステップS140では、道路表面上の白線が存在しそうなところ(例えば、車両に沿った前方右側)に、3次元ウィンドウを設定する。また、ステップS140では、道路表面上の白線を取り囲む四角錐体が連続した形で、3次元ウィンドウを設定する。
【0070】
ステップS140で行われる処理により、白線検出処理部310により検出される白線は、道路表面上の白線に限定されることができる。また、ステップS140で行われる処理により、道路表面上にない白線状のもの(例えば、ガードレールなどの白線状のもの)が除去される。
【0071】
次に、白線検出処理部310が、時間平均化された視差画像に基づき、エッジ方向、基準画像の連続、視差の連続を条件として、エッジ点群をグループ化する(ステップS150を参照)。
【0072】
ステップS150では、ソーベルフィルタ処理で得られたエッジ点群に対し、エッジの符号を含めたエッジ方向、点列の連続性(基準画像の連続性)、視差の連続性に基づき、エッジ点群をグループ化する。
【0073】
ここで、視差の連続性を加えることにより、より黒から白へ、道路表面上という場所を見つけ易くして、頑強に白線を検出することができる。
【0074】
次に、白線検出処理部310が、ハフ変換により、3次元ウィンドウに3次元の直線を見つける(ステップS160を参照)。本発明では、3次元として記述された直線(即ち、3次元の直線)が複数存在する平面として道路面を捉えることにより、道路面を三次元的に決定する。
【0075】
ステップS160では、ハフ変換を2回使用することにより、3次元ウィンドウ内にエッジ点群を選ぶ。
【0076】
次に、白線検出処理部310が、3次元の直線に含まれるエッジ点群に最小二乗法で直線を当てはめ、直線の位置精度を上げる(ステップS170を参照)。
【0077】
ステップS170では、ハフ変換で選んだエッジ点群に対し、最小二乗法で直線を当てはめ、直線の位置精度を上げ、最後に、高速道路上の白線の幅が15cmと決められていることを利用して、時間平均化された視差画像から求められる15cmの幅でエッジ方向の符号が変わり、エッジの間が明るいものを白線として検出する。
【0078】
時間平均化された視差画像から絶対的な長さとして15cmが得られるので、高速道路の規格で作られた白線以外のものが検出されることが少なくなる。
【0079】
白線検出処理部310が、手前の白線を構成するエッジ点群データをもとに、順次遠方の白線検出用3次元ウィンドウを設定し、上記の方法で遠方の白線を検出する。これにより、破線状の白線が、たとえ曲がっていても、3次元ウィンドウを下からつないでいくことができる。
【0080】
図8に、本発明の白線検出処理部で設定した白線検出用3次元ウィンドウの一例を示す。図8から分かるように、白線検出処理部310が設定した白線検出用3次元ウィンドウは、白線が存在しうる場所を三次元的に囲むように設置する。
【0081】
また、図9に、本発明の白線検出処理部で行われたエッジ点群をグループ化した結果、及び検出した白線を示す。
【0082】
図10は、車線決定処理部320の処理流れを示すフロー図である。白線検出処理部310で白線が検出された後に、車線決定処理部320は、検出された白線に基づき、自車線と隣接車線を決定する。
【0083】
図10に示すように、車線決定処理部320が、白線検出処理部310で検出された白線を右車線又は左車線とする(ステップS200を参照)。次に、車線決定処理部320が、検出された白線の左側又は右側に、一車線の幅分(3.75m)ずつ広げ、自車線、隣接車線と決定する(ステップS210を参照)。
【0084】
図11は、車線内車両検出処理部330の処理流れを示すフロー図である。車線決定処理部320で自車線と隣接車線が決定された後に、車線内車両検出処理部330が、決定した各車線内の車両を検出する。
【0085】
図11に示すように、車線内車両検出処理部330が、決定した車線内で道路表面から所定(2.5m)の高さまでの視差データを抽出する(ステップS300を参照)。
【0086】
ステップS300では、車線を形成する両側の白線の間に平面を当てはめ、それより上で高さが2.5mまで、さらに2つの白線の間にある視差データを抽出する。ステップS300での処理により、視差データの変化分が走行可能な3次元空間内の視差データの変化の検出に限定される。
【0087】
次に、車線内車両検出処理部330が、視差画像全体を所定の横幅を有する短冊領域に分割する(ステップS310を参照)。
【0088】
ステップS310では、視差画像全体を、横幅が、視差画像を生成する際に用いた領域ステレオ法での領域の幅に一致させ、縦が視差画像の高さとなる短冊領域に分割する。
【0089】
換言すれば、ステップS310では、2次元の視差画像の視差データを、上からみた横軸の1次元の視差データに圧縮する。ここで、車両の横端の位置の視差データを抽出することが重要である。ステップS310での処理により、縦方向の形状が圧縮されて、データ量を減らす効果がある。
【0090】
次に、車線内車両検出処理部330が、分割された各短冊領域について視差ヒストグラムを作成する(ステップS320を参照)。
【0091】
次に、車線内車両検出処理部330が、所定の閾値以上の視差データで平面図を構成する(ステップS330を参照)。
【0092】
ステップS330では、設定した閾値以上のデータ数がある視差dと、当該短冊の横方向の画面上での位置iとから(i−d)空間での立体物の位置を求める。視差空間でデータ処理することにより、距離データに直すときの割り算を含む計算を多数のデータに施さなくて済み、計算時間が短縮される。
【0093】
ステップS320及びステップS330の処理を各短冊領域に対して繰り返し処理することで、車線内にある立体物の分布が求められる。これは上から見た平面図に相当する。
【0094】
図12に、車線・車両検出処理部で行われる処理の一画面を示す。図12に、視差ヒストグラムの平面表示(平面図)も示している。
【0095】
次に、車線内車両検出処理部330が、隣接する視差データをグループ化する(ステップS340を参照)。
【0096】
次に、車線内車両検出処理部330が、所定の閾値以上の視差データ数があるグループを車線内の車両として検出する(ステップS350を参照)。
【0097】
ステップS350では、ある閾値を超えたデータ数のある視差データのグループをその車線内の車として検出する。本発明は、視差データのみで車線内の車両を検出する。
【0098】
図13は、車両位置速度算出部340の処理流れを示すフロー図である。車線内車両検出処理部330で自車線及び隣接車線内の車両が検出された後に、車両位置速度算出部340は、自車線内の車両の位置・速度・衝突までの時間を表示するとともに、隣接車線内の車両の位置・速度をも表示する。
【0099】
図13に示すように、車両位置速度算出部340が、検出した車線内の車両のうち、その車線で最も近い車両の位置を算出して、その車線を表す平面状の2次元位置として表示する(ステップS400を参照)。
【0100】
ステップS400では、車線内車両検出処理部330で得られたグループのうち最も視差が大きいグループをその車線で最も近い車両として距離(車両の位置)を算出して表示する。最後に一点のみの距離を計算することで、視差から距離を算出する計算量が減らせる。上面から見た2本の白線内の平面を走行車線として表示し、この走行車線の平面に、当該車線内にある車両の位置を出力(表示)する。
【0101】
次に、車両位置速度算出部340が、それぞれの車線内で検出した車両の位置を時系列に記憶し、その位置の時間変化から速度を算出して表示し、さらに、自車線内の車両について衝突までの時間も算出して表示する(ステップS410を参照)。
【0102】
図14、図15及び図16に、本発明に係る車線内車両検出装置の出力画面例を示す。
【0103】
図14に、自車線内の車両を検出して、隣接車線内の車両が検出されない場合の例であり、画面上に、自車線の車両の位置・速度・衝突までの時間を表示している。
【0104】
また、図15に、自車線内の車両と隣接車線内の車両の両方を検出した場合の例であり、画面上に、自車線の車両の位置・速度・衝突までの時間を表示しているとともに、隣接車線の車両の位置・速度も表示している。
【0105】
そして、図16は、隣接車線内の車両を検出して、自車線内の車両が検出されない場合の例であり、画面上に、隣接車線の車両の位置・速度を表示している。
【0106】
以上のように、本発明に係る車線内車両検出装置について詳細に説明した。本発明に係る車線内車両検出装置における「視差画像生成部」と「車線・車両検出処理部」については、コンピュータシステムを利用し、ソフトウェア(コンピュータプログラム)により実装されることができ、そして、ASIC(Application Specific Integrated Circuit)、GPU(Graphics Processing Unit)やFPGA(Field Programmable Gate Array)などのハードウェアにより実装されることも勿論できる。
【0107】
本発明に係る車線内車両検出装置は、次の技術特徴を有する。
特徴その1:
道路面の2〜3mの上方に車両の進行方向に向けて設置される、ステレオ画像撮像装置(ステレオビデオカメラ)で撮像したステレオ画像より、高速道路上の走行車線を示す白線を二つの線として認識し、走行車線を二つの線の間の平面として捉える。高速道路が左右に曲がっていても、上下に傾斜があっても、走行車線は、二つの線の間の平面として表現される。
特徴その2:
車両の検出は、ステレオ画像の視差の変化データのグループとして捉え、走行車線の進行方向に垂直な平面の画像データを一次元のデータとして圧縮し、走行している車両は、上記の一次元データ中の視差の変化のデータの大きい点として捉えられる。
特徴その3:
走行車線上に停止している車両は検出せず、遠ざかる車両も検出しない。
特徴その4:
車両の距離(位置)の算出は、ステレオ画像の視差データから行い、他の距離を測定する手段、例えば、レーダー、あるいはレーザー、車両の通過センサーなどの装置を必要としない。
特徴その5:
ステレオ画像撮像装置(ステレオビデオカメラ)からの車両の位置については、300〜30mが、特に正確に車両の距離(位置)を測定する範囲である。
特徴その6:
車両がステレオ画像撮像装置(ステレオビデオカメラ)からの位置、300〜30mの間をステレオビデオカメラに向かって走行してくる間に、警報を音や表示画像上のマーク、点滅光などとして出力する。
特徴その7:
隣接車線についても、隣接車線として区別して走行してくる車両を常に監視している。例え、急に自車線に車両が飛び込んできても、隣接車線上の走行時から、既にその車両の速度を監視しているため、危険度をすぐに算出することができる。
【符号の説明】
【0108】
1 車線内車両検出装置
10 ステレオ画像撮像装置
20 視差画像生成部
30 車線・車両検出処理部
310 白線検出処理部
320 車線決定処理部
330 車線内車両検出処理部
340 車両位置速度算出部
【特許請求の範囲】
【請求項1】
高速道路上の走行車線内の車両を検出して、検出した車両の位置・速度を表示する車線内車両検出装置であって、
前方の自車線と隣接車線を撮像して基準画像と比較画像を出力するステレオ画像撮像装置と、
前記基準画像と前記比較画像に基づき、視差画像を生成する視差画像生成部と、
車線・車両検出処理部と、
を備え、
前記車線・車両検出処理部は、前記基準画像と前記視差画像に基づき、前記ステレオ画像撮像装置に向かって進行して来る自車線及び隣接車線内の車両を検出して、検出した車両の位置を、走行車線を表す平面上の2次元位置として表示するとともに、検出した車両の速度と衝突までの時間をも表示することを特徴とする車線内車両検出装置。
【請求項2】
前記視差画像生成部は、領域ステレオ法を用いて画像全体に亘る前記視差画像を生成し、
前記車線・車両検出処理部は、白線検出処理部と、車線決定処理部と、車線内車両検出処理部と、車両位置速度算出部とを備える請求項1に記載の車線内車両検出装置。
【請求項3】
前記白線検出処理部は、
基準画像と視差画像を連続して8枚ずつ取り込むというステップ、
8枚の基準画像を時間平均化するとともに、8枚の視差画像も時間平均化するというステップ、
時間平均化された基準画像を所定サイズの領域で移動平均するというステップ、
移動平均された基準画像にソーベルフィルタをかけることにより、エッジを検出するというステップ、
ソーベルフィルタで検出されたエッジ情報および視差情報に基づき、白線検出用の3次元ウィンドウを設定するというステップ、
時間平均化された視差画像に基づき、エッジ方向、基準画像の連続、視差の連続を条件として、エッジ点群をグループ化するというステップ、
ハフ変換により、3次元ウィンドウに3次元の直線を見つけるというステップ、及び
3次元の直線に含まれるエッジ点群に最小二乗法で直線を当てはめ、直線の位置精度を上げるというステップによる処理を行うことにより、道路面の白線を三次元で検出する請求項2に記載の車線内車両検出装置。
【請求項4】
前記車線決定処理部は、前記白線検出処理部で検出された白線を右車線又は左車線とし、更に、検出された白線の左側又は右側に、一車線の幅分ずつ広げ、前記自車線、前記隣接車線と決定する請求項3に記載の車線内車両検出装置。
【請求項5】
前記車線内車両検出処理部は、
決定した車線内で道路表面から所定の高さまでの視差データを抽出するというステップ、
視差画像全体を所定の横幅を有する短冊領域に分割するというステップ、
分割された各短冊領域について視差ヒストグラムを作成するというステップ、
所定の閾値以上の視差データで平面図を構成するというステップ、
隣接する視差データをグループ化するというステップ、及び
所定の閾値以上の視差データ数があるグループを車線内の車両として検出するというステップによる処理を行うことにより、決定した各車線内の車両を検出する請求項4に記載の車線内車両検出装置。
【請求項6】
車両位置速度算出部は、
検出した車線内の車両のうち、その車線で最も近い車両の位置を算出して、その車線を表す平面状の2次元位置として表示するというステップ、及び
それぞれの車線内で検出した車両の位置を時系列に記憶し、その位置の時間変化から速度を算出して表示し、さらに、自車線内の車両について衝突までの時間も算出して表示するというステップによる処理を行うことにより、
前記自車線内の車両の位置・速度・衝突までの時間を表示するとともに、前記隣接車線内の車両の位置・速度をも表示する請求項5に記載の車線内車両検出装置。
【請求項7】
高速道路上の走行車線内の車両を検出して、検出した車両の位置・速度を表示する車線内車両検出方法であって、
前方の自車線と隣接車線をステレオ画像撮像装置で撮像して基準画像と比較画像を取得するステレオ画像取得ステップと、
取得した基準画像と比較画像に基づき、視差画像を生成する視差画像生成ステップと、
車線・車両検出処理ステップと、
を有し、
前記車線・車両検出処理ステップは、前記基準画像と前記視差画像に基づき、前記ステレオ画像撮像装置に向かって進行して来る自車線及び隣接車線内の車両を検出して、検出した車両の位置を、走行車線を表す平面上の2次元位置として表示するとともに、検出した車両の速度と衝突までの時間をも表示することを特徴とする車線内車両検出方法。
【請求項8】
前記視差画像生成ステップは、領域ステレオ法を用いて画像全体に亘る前記視差画像を生成し、
前記車線・車両検出処理ステップは、白線検出処理ステップと、車線決定処理ステップと、車線内車両検出処理ステップと、車両位置速度算出ステップとを有する請求項7に記載の車線内車両検出方法。
【請求項9】
前記白線検出処理ステップは、道路面の白線を三次元で検出するためのステップであり、
基準画像と視差画像を連続して8枚ずつ取り込むというステップ、
8枚の基準画像を時間平均化するとともに、8枚の視差画像も時間平均化するというステップ、
時間平均化された基準画像を所定サイズの領域で移動平均するというステップ、
移動平均された基準画像にソーベルフィルタをかけることにより、エッジを検出するというステップ、
ソーベルフィルタで検出されたエッジ情報および視差情報に基づき、白線検出用の3次元ウィンドウを設定するというステップ、
時間平均化された視差画像に基づき、エッジ方向、基準画像の連続、視差の連続を条件として、エッジ点群をグループ化するというステップ、
ハフ変換により、3次元ウィンドウに3次元の直線を見つけるというステップ、及び
3次元の直線に含まれるエッジ点群に最小二乗法で直線を当てはめ、直線の位置精度を上げるというステップを有する請求項8に記載の車線内車両検出方法。
【請求項10】
前記車線決定処理ステップは、前記白線検出処理ステップで検出された白線を右車線又は左車線とし、更に、検出された白線の左側又は右側に、一車線の幅分ずつ広げ、前記自車線、前記隣接車線と決定する請求項9に記載の車線内車両検出方法。
【請求項11】
前記車線内車両検出処理ステップは、決定した各車線内の車両を検出するためのステップであり、
決定した車線内で道路表面から所定の高さまでの視差データを抽出するというステップ、
視差画像全体を所定の横幅を有する短冊領域に分割するというステップ、
分割された各短冊領域について視差ヒストグラムを作成するというステップ、
所定の閾値以上の視差データで平面図を構成するというステップ、
隣接する視差データをグループ化するというステップ、及び
所定の閾値以上の視差データ数があるグループを車線内の車両として検出するというステップを有する請求項10に記載の車線内車両検出方法。
【請求項12】
車両位置速度算出ステップは、前記自車線内の車両の位置・速度・衝突までの時間を表示するとともに、前記隣接車線内の車両の位置・速度をも表示するためのステップであり、
検出した車線内の車両のうち、その車線で最も近い車両の位置を算出して、その車線を表す平面状の2次元位置として表示するというステップ、及び
それぞれの車線内で検出した車両の位置を時系列に記憶し、その位置の時間変化から速度を算出して表示し、さらに、自車線内の車両について衝突までの時間も算出して表示するというステップを有する請求項11に記載の車線内車両検出方法。
【請求項1】
高速道路上の走行車線内の車両を検出して、検出した車両の位置・速度を表示する車線内車両検出装置であって、
前方の自車線と隣接車線を撮像して基準画像と比較画像を出力するステレオ画像撮像装置と、
前記基準画像と前記比較画像に基づき、視差画像を生成する視差画像生成部と、
車線・車両検出処理部と、
を備え、
前記車線・車両検出処理部は、前記基準画像と前記視差画像に基づき、前記ステレオ画像撮像装置に向かって進行して来る自車線及び隣接車線内の車両を検出して、検出した車両の位置を、走行車線を表す平面上の2次元位置として表示するとともに、検出した車両の速度と衝突までの時間をも表示することを特徴とする車線内車両検出装置。
【請求項2】
前記視差画像生成部は、領域ステレオ法を用いて画像全体に亘る前記視差画像を生成し、
前記車線・車両検出処理部は、白線検出処理部と、車線決定処理部と、車線内車両検出処理部と、車両位置速度算出部とを備える請求項1に記載の車線内車両検出装置。
【請求項3】
前記白線検出処理部は、
基準画像と視差画像を連続して8枚ずつ取り込むというステップ、
8枚の基準画像を時間平均化するとともに、8枚の視差画像も時間平均化するというステップ、
時間平均化された基準画像を所定サイズの領域で移動平均するというステップ、
移動平均された基準画像にソーベルフィルタをかけることにより、エッジを検出するというステップ、
ソーベルフィルタで検出されたエッジ情報および視差情報に基づき、白線検出用の3次元ウィンドウを設定するというステップ、
時間平均化された視差画像に基づき、エッジ方向、基準画像の連続、視差の連続を条件として、エッジ点群をグループ化するというステップ、
ハフ変換により、3次元ウィンドウに3次元の直線を見つけるというステップ、及び
3次元の直線に含まれるエッジ点群に最小二乗法で直線を当てはめ、直線の位置精度を上げるというステップによる処理を行うことにより、道路面の白線を三次元で検出する請求項2に記載の車線内車両検出装置。
【請求項4】
前記車線決定処理部は、前記白線検出処理部で検出された白線を右車線又は左車線とし、更に、検出された白線の左側又は右側に、一車線の幅分ずつ広げ、前記自車線、前記隣接車線と決定する請求項3に記載の車線内車両検出装置。
【請求項5】
前記車線内車両検出処理部は、
決定した車線内で道路表面から所定の高さまでの視差データを抽出するというステップ、
視差画像全体を所定の横幅を有する短冊領域に分割するというステップ、
分割された各短冊領域について視差ヒストグラムを作成するというステップ、
所定の閾値以上の視差データで平面図を構成するというステップ、
隣接する視差データをグループ化するというステップ、及び
所定の閾値以上の視差データ数があるグループを車線内の車両として検出するというステップによる処理を行うことにより、決定した各車線内の車両を検出する請求項4に記載の車線内車両検出装置。
【請求項6】
車両位置速度算出部は、
検出した車線内の車両のうち、その車線で最も近い車両の位置を算出して、その車線を表す平面状の2次元位置として表示するというステップ、及び
それぞれの車線内で検出した車両の位置を時系列に記憶し、その位置の時間変化から速度を算出して表示し、さらに、自車線内の車両について衝突までの時間も算出して表示するというステップによる処理を行うことにより、
前記自車線内の車両の位置・速度・衝突までの時間を表示するとともに、前記隣接車線内の車両の位置・速度をも表示する請求項5に記載の車線内車両検出装置。
【請求項7】
高速道路上の走行車線内の車両を検出して、検出した車両の位置・速度を表示する車線内車両検出方法であって、
前方の自車線と隣接車線をステレオ画像撮像装置で撮像して基準画像と比較画像を取得するステレオ画像取得ステップと、
取得した基準画像と比較画像に基づき、視差画像を生成する視差画像生成ステップと、
車線・車両検出処理ステップと、
を有し、
前記車線・車両検出処理ステップは、前記基準画像と前記視差画像に基づき、前記ステレオ画像撮像装置に向かって進行して来る自車線及び隣接車線内の車両を検出して、検出した車両の位置を、走行車線を表す平面上の2次元位置として表示するとともに、検出した車両の速度と衝突までの時間をも表示することを特徴とする車線内車両検出方法。
【請求項8】
前記視差画像生成ステップは、領域ステレオ法を用いて画像全体に亘る前記視差画像を生成し、
前記車線・車両検出処理ステップは、白線検出処理ステップと、車線決定処理ステップと、車線内車両検出処理ステップと、車両位置速度算出ステップとを有する請求項7に記載の車線内車両検出方法。
【請求項9】
前記白線検出処理ステップは、道路面の白線を三次元で検出するためのステップであり、
基準画像と視差画像を連続して8枚ずつ取り込むというステップ、
8枚の基準画像を時間平均化するとともに、8枚の視差画像も時間平均化するというステップ、
時間平均化された基準画像を所定サイズの領域で移動平均するというステップ、
移動平均された基準画像にソーベルフィルタをかけることにより、エッジを検出するというステップ、
ソーベルフィルタで検出されたエッジ情報および視差情報に基づき、白線検出用の3次元ウィンドウを設定するというステップ、
時間平均化された視差画像に基づき、エッジ方向、基準画像の連続、視差の連続を条件として、エッジ点群をグループ化するというステップ、
ハフ変換により、3次元ウィンドウに3次元の直線を見つけるというステップ、及び
3次元の直線に含まれるエッジ点群に最小二乗法で直線を当てはめ、直線の位置精度を上げるというステップを有する請求項8に記載の車線内車両検出方法。
【請求項10】
前記車線決定処理ステップは、前記白線検出処理ステップで検出された白線を右車線又は左車線とし、更に、検出された白線の左側又は右側に、一車線の幅分ずつ広げ、前記自車線、前記隣接車線と決定する請求項9に記載の車線内車両検出方法。
【請求項11】
前記車線内車両検出処理ステップは、決定した各車線内の車両を検出するためのステップであり、
決定した車線内で道路表面から所定の高さまでの視差データを抽出するというステップ、
視差画像全体を所定の横幅を有する短冊領域に分割するというステップ、
分割された各短冊領域について視差ヒストグラムを作成するというステップ、
所定の閾値以上の視差データで平面図を構成するというステップ、
隣接する視差データをグループ化するというステップ、及び
所定の閾値以上の視差データ数があるグループを車線内の車両として検出するというステップを有する請求項10に記載の車線内車両検出方法。
【請求項12】
車両位置速度算出ステップは、前記自車線内の車両の位置・速度・衝突までの時間を表示するとともに、前記隣接車線内の車両の位置・速度をも表示するためのステップであり、
検出した車線内の車両のうち、その車線で最も近い車両の位置を算出して、その車線を表す平面状の2次元位置として表示するというステップ、及び
それぞれの車線内で検出した車両の位置を時系列に記憶し、その位置の時間変化から速度を算出して表示し、さらに、自車線内の車両について衝突までの時間も算出して表示するというステップを有する請求項11に記載の車線内車両検出方法。
【図1】
【図2】
【図3】
【図5】
【図6】
【図10】
【図11】
【図13】
【図4】
【図7】
【図8】
【図9】
【図12】
【図14】
【図15】
【図16】
【図2】
【図3】
【図5】
【図6】
【図10】
【図11】
【図13】
【図4】
【図7】
【図8】
【図9】
【図12】
【図14】
【図15】
【図16】
【公開番号】特開2011−100174(P2011−100174A)
【公開日】平成23年5月19日(2011.5.19)
【国際特許分類】
【出願番号】特願2009−252539(P2009−252539)
【出願日】平成21年11月3日(2009.11.3)
【出願人】(304021417)国立大学法人東京工業大学 (1,821)
【出願人】(508099922)知能技術株式会社 (6)
【Fターム(参考)】
【公開日】平成23年5月19日(2011.5.19)
【国際特許分類】
【出願日】平成21年11月3日(2009.11.3)
【出願人】(304021417)国立大学法人東京工業大学 (1,821)
【出願人】(508099922)知能技術株式会社 (6)
【Fターム(参考)】
[ Back to top ]