説明

地図情報生成方法、地図情報生成プログラム及び地図情報収集装置

【課題】 従来の地図作成装置においては、地図の作成等に必要な地図上に記載される周辺の情報を効率的に取得することができなかった。本発明は、地図作成に必要な地図上に記載される店舗などの情報、すなわち地図情報を効率的に生成できるようにすることを目的とする。
【解決手段】 撮像手段の移動に伴って撮像される映像データと、この映像データに対応して記録され上記撮像手段の撮像位置に対応して測位される測位情報とを入力し、この入力された映像データ中の検出対象を検出し、この検出された検出対象と上記撮像手段との相対位置情報を算出し、この算出された相対位置情報と上記測位情報とに基づき、検出対象の位置情報を生成するようにした。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は地図情報を生成する技術に関するものである。
【背景技術】
【0002】
従来、地図情報を生成する技術としては、特開平9−269726号公報において、ビデオカメラと高精度測位装置によって道路地図を作成するものが開示されている。この従来技術では、車にビデオカメラと高精度測位装置を積載した装置を利用する。まずビデオカメラによって得られた画像から道路車線を示す白線を検出し、その結果から車両が車線の中心からどの程度ずれた位置を走行しているかを検出する。そして、高精度測位装置によって得られる車両の位置情報と、カメラ画像処理結果によって得られた車両の道路中心からのずれの情報とを利用して、車線の中心における位置情報を求める。これを連続的に処理することで、道路中心の位置情報を算出して、既存の地図情報と照合して地図を補正することが可能となっている。
【0003】
【特許文献1】特開平9−269726号公報
【発明の開示】
【発明が解決しようとする課題】
【0004】
しかしながら、上記特開平9−269726号公報に示されたものは、検出するものは道路の中心線であり、地図の作成等に必要な地図上に記載される周辺の情報を取得することができなかった。
【0005】
本発明は、このような課題を解決するためになされたもので、地図作成に必要な地図上に記載される店舗などの情報、すなわち地図情報を効率的に生成できるようにすることを目的とする。
【課題を解決するための手段】
【0006】
本発明では、撮像手段の移動に伴って撮像される映像データと、この映像データに対応して記録され上記撮像手段の撮像位置に対応して測位される測位情報とを入力し、この入力された映像データ中の検出対象を検出し、この検出された検出対象と上記撮像手段との相対位置情報を算出し、この算出された相対位置情報と上記測位情報とに基づき、検出対象の位置情報を生成するようにしたものである。
【発明の効果】
【0007】
本発明によれば、既存の地図には存在しない地図情報を効率的に生成することができる。
【発明を実施するための最良の形態】
【0008】
実施の形態1.
以下に本発明の実施形態を示す。
図1は本実施形態における地図情報生成のために必要な情報を収集するデータ収集装置の構成を示す構成図である。図において、101はGPSもしくは慣性航法もしくはそれらを複合して構成され自位置を測定する測位手段、102は周囲の風景を撮影するビデオカメラ、103は方位を測定する方位センサである。
これら測位手段101、ビデオカメラ102、方位センサ103は移動体としての車両104に設置されており、これらの機器は正確にその位置関係が計測された上で設置されている。例えば、測位手段101、ビデオカメラ102、方位センサ103は、地平に対して同一垂直線上に中心が配置されるとともに、車両進行方向と水平に設置されている。さらにビデオカメラと方位センサはほとんど接する形で設置されている。方位センサ103は上記車両104の向きや姿勢を計測する。
【0009】
106は上記車両104の車速を検出する車速センサ、105はこの車速センサ106および上記測位手段101、ビデオカメラ102、方位センサ103からの情報を同期記録する記録装置である。この記録装置105と測位手段101、ビデオカメラ102、方位センサ103は信号線により接続されている。
【0010】
次にこの発明における地図情報生成の動作を説明する。ここでは地図情報として、ある検出対象(例えば白線)の位置情報を正確に生成するものを示す。さらにこの位置情報に基づき、地図への対応を行う。
図2は本実施形態における地図情報生成の動作を示すフローチャートである。
まず、以下のようにして情報(データ)収集対象地域の情報(データ)を一括収集する(ステップST201)。車両104によって情報収集対象地域の路上を走行し、データ収集開始すると、測位手段101から例えばNMEA−0183形式の位置情報(緯度、経度、高度などのデータ)、ビデオカメラ102からは映像データ、方位センサ103からは車両104の三軸の角度、角加速度などのデータが出力され、これらの情報(データ)が記録装置105に入力されて記録が始まる。各データの信号のタイミングは入力した時点の記録装置の内部時刻によって同期される。情報収集対象地域でないところでは記録装置105での記録を停止させる。
その後、記録装置105内に記録されたデータをもとに地図情報を生成する。
【0011】
まず、記録装置105内に記録されている映像データを解析して被写体を検出し、その画像座標を取得する(ステップST202:入力ステップ、検出ステップ)。本実施の形態では被写体は例えば道路上の白線とする。映像データからエッジ情報や直線性などの評価を行い被写体を検出する。図3に示すように白線と道路の境界線上の点(以下、対象点と呼ぶ)における座標を検出する。本実施の形態では路上の白線を検出対象とするが、白線以外にも横断歩道や専用レーンを示す矢印などの道路指標や、道路の周囲に存在する店舗の看板、交通標識などでもよいものとする。
【0012】
白線の検知方法としては既知の方法を利用するものとし、本実施の形態では特に言及しないものとする。また、ここで形状を認識してその領域を抽出し、領域内に含まれる文字列を把握した上で、その輪郭線の座標を算出したり、交通標識やチェーン店の看板などのパターンをあらかじめモデルとして記憶しておき、モデルとのマッチングによって交通標識や店舗の種類を特定したりすることが出来る。ここで得られた結果は図4に示すような画像座標系の座標値列とする。
【0013】
次に得られた対象点の画像座標(二次元)から撮影時点のカメラと対象点との相対的な位置(三次元)を算出する(ステップST203:算出ステップ)。例えば路面に存在するものに関してカメラを一台だけ利用する場合には、次のような拘束条件によって相対位置を算出することができる。車両上に設置したカメラの高さは計測により既知とする。このときに対象点の存在する路面とカメラとの高さの関係は特殊な場合を除き一定と仮定できるため、高さは既知のパラメータとなり以下に示す方程式の元(Y)が一つ減り、スケールファクターsを含めて連立三元一次方程式の形にすることが出来る。x,yは画像座標系の座標点を示し、X,Y,Zはカメラを中心としたカメラ座標系(図5に示す)の空間座標を示し、fはカメラの焦点距離を示す。
【0014】
x=sfX/Z ・・・(1)
y=sfY/Z ・・・(2)
1=s/Z ・・・(3)
【0015】
この式を既知の画像座標m(x,y)、焦点距離f、カメラからの高さYを代入して、X,Zについて解くと空間座標(=相対位置)M(X,Y,Z)を求めることが出来る。実際にはカメラの内部行列A、平行移動行列t、回転行列Rを利用してm=A[R,t]Mの関係を用いて計算を行う。ここでは説明を簡単にするために簡易式を用いているが、m=A[R,t]Mの関係式によって計算することももちろん可能である。この場合はA(3×3の行列)の各値をカメラの内部パラメータとよび、この測定をあらかじめ行うことで既知の値とすることが出来る。回転行列Rも3×3の行列であり、三軸それぞれの回転角を計測して入力することが出来る。これを利用して車両走行によるカメラの角度変化時でも計算結果の誤差の軽減に対応することも出来る。tはカメラの原点からの平行移動量を示す3×1の行列である。通常はこの実施形態の場合のように、カメラ座標と原点の位置は一致しているので平行移動量は0とみなすことが出来る。仮にカメラ設置位置がずれている場合、このバラメータを調整してデータ収集環境のキャリブレーションを行うことで、正確にデータ計算をすることが出来る。
【0016】
なお、ここでは路上の道路指標の検出を例にしているが、道路標識や看板などの路上に存在しない物体に関しては2台のカメラを利用して同時撮影された2枚の画像からカメラからの相対的な三次元位置を算出する方法が知られているため、これを利用することも可能である。
【0017】
次にステップST203の処理で得られた相対距離情報と、対象フレームを撮影したときの測位情報を利用して対象点の地理位置を計算する(ステップST204:対象位置情報生成ステップ)。図6にカメラ座標系と地理座標系の関係を示す。図6に示すようにカメラ座標系は地理座標系の縦軸(北半球の場合は北の方向)に対して角度を持っている。また、扱う単位としてはカメラ座標系での単位はメートル、地理座標系の単位は緯度、経度である。
【0018】
カメラ座標系におけるZ軸の方向が車両の進行方向である。これは方位角として方位センサにより取得することが出来る。撮影時のカメラの測位情報は緯度、経度として得ることができるので、カメラ座標の原点Oは地理座標系において図7上部の図に示すような関係になっている。この時点ではカメラ座標と地理座標は平行の関係であると考えている。対象点Mの緯度経度も原点Oの緯度、経度を基にして換算することが出来る。しかしながら実際はカメラ座標系と地理座標系の間には方位角で示す角度があるため、方位角の情報を利用して原点Oを中心にして対象点Mを回転させる。回転後のイメージが図7の下図の図である。回転は2×2行列に広く知られている回転行列を掛け合わせて得ることが出来る。この演算によってカメラ座標系の相対距離で示されていた対象点の座標を地理座標系の座標値に変換することが出来る。このようにして計算された地理座標はハードディスクなどの記録領域に記録される。
【0019】
次に処理しているフレームが最終フレームかどうかを判断する(図2のステップST205)。最終フレームではない場合はステップST202の処理に戻り、最終フレームである場合はステップST206以降の処理、すなわち、上記検出対象を地図上に対応させる処理(地図対応ステップ)を実行する。
ステップST206の処理では記録領域に蓄積された位置情報列を地図上にプロットする。プロット結果は例えば図8に示すようになる。
【0020】
次にプロットした座標をつなぎ合わせて線分化する処理を行う(ステップST207)。線分化は一般的な一次の線形補間で行うことも出来るし、二次以上の曲線補間を行うことも可能である。道路の切れ目のような情報が存在しない部分がある場合は、データが一定値以上はなれていないかを確認し、離れているようであれば線分をそこで分割するという処理を行う。
【0021】
これによって道路上の白線情報を始点、終点、曲率などの情報によってベクトル化することが出来る。このときにベクトル化の対象とする点として、すべての算出された位置情報点を同等に利用するのではなく、車速センサによって映像と同時に得られた車速情報によって利用する点の優先度を変更することで車両の移動による誤差を抑えることが出来、追加する情報の精度を高めることが出来る。たとえば、停止している状態では位置と映像の記録ぶれは生じないため、このときの優先度を例えば5段階中の最高位5に設定する。時速10Km/hまでの取得データは4に設定し、10Km/hから30Km/hまでは3、30Km/hから60Km/hまでは2、60Km/h以上は1とする。この優先度を用いることにより、点列情報を精度よくベクトル化することができる。
【0022】
図9の上部分に示すように単純にプロットした結果を利用して線形補間してベクトル化すると、曲がった線になる場合がある。一方、優先度を利用する場合は、例えば、優先度3のプロット点の信頼線は低いため平均化する際の重み付けの係数を小さい値0.5に設定し、優先度5のところは信頼できるデータとしてそのまま採用するため重み付けの係数を1とし、優先度4のところは0.75とする。これを利用して線分をベクトル化することで信頼性の低い点の情報を落として、信頼性の高い点の情報を採用できるので、図9の下部分に示すように精度高く点列情報をベクトル化することが出来る。
そして、ステップST207においてベクトル化されたデータをステップST208において一つのレイヤーとして管理する。これは一般的な地図ソフトで行われている方式を利用すればよい。
【0023】
以上のようにして、既存の地図には存在しない詳細な情報を新たに生成し、地図上に付加することが出来、地図作成において必要な地図上に乗る店舗などの情報を効率的に生成できる。
【0024】
なお、映像データから認識した物体(例えば交通標識)から文字情報、特徴情報を読み取り、物体の種別を判定して属性を付加し、その属性とともに復元結果を既存の地図上に重ね合わせることで既存の地図にはない情報を付加することも可能であり、より詳細な情報を生成、付加することができる。上記物体は、交通標識の他、看板や建物を示す表示板とし、物体から得られた特徴情報により店舗や建物を識別して、地図に店舗情報を付加することもできる。
【0025】
以上の実施形態中に記載した構成要素はその趣旨を変えない範囲で別の手段と代替することが出来るものとする。
さらに複数のビデオカメラ102を車両104に設置して同時に複数の角度からの画像を取得することも可能である。ビデオカメラ102はラインセンサなどの画像を取得できるものであれば他のもので代替することも可能である。
【0026】
なお、以上の実施形態の説明は地図情報を生成する方法を示すものであるが、計算機で動作するソフトウエアで実現することもできる。
【0027】
実施の形態2.
以下、実施の形態2について説明する。実施の形態1では、一つの車両収集装置にて対象物体を測位する方法について説明した。実施の形態2では、多数の車両や複数のセンサを用いて収集した映像データから対象物を検出し、これらの検出結果を累積した値に閾値処理を施すことで、対象物を高精度に検出・測位する方法について説明する。
【0028】
ここで、対象物とは、収集の対象となっている地図情報のことを意味し、例えば、道路標識、道路上の白線や、横断歩道、道路の周囲に存在する店舗の看板、信号機、電柱、などのことを指すものとする。
【0029】
図10は、実施の形態2に係る地図情報収集装置の構成図である。地図情報収集装置1000は、映像情報・位置情報データベース1001と、対象物情報収集部1002と、地図データベース1003と、対象物情報累積部1004とを備えている。
映像情報・位置情報データベース1001は、映像情報とそれに同期した車両の位置情報を記憶する記憶領域であり、地図情報収集装置1000の内部または外部に設けられた記憶装置に構築される。
対象情報収集部1002は、対象物検出部1005と、対象物測位部1006と、対象物保存部1007とを備えている。
さらに、対象物検出部1005は、画像走査部1010と、類似度計算部1011と、矩形領域マージ部1012と、閾値処理部1013とを備えている。
地図データベース1003は、対象物の緯度・経度・標高の3次元座標と、対象物に関するその他の情報を記憶する記憶領域であり、地図情報収集装置1000の内部または外部に設けられた記憶装置に構築される。
対象物情報累積部1004は、対象物マージ部1008と、閾値処理部1009とを備えている。
【0030】
ここで、本実施の形態に係る構成要素と、実施の形態1に係る構成要素の関係について述べる。まず、映像情報・位置情報データベース1001は、実施の形態1に説明した記録装置105に相当する。また、対象物検出部1005は、実施の形態1に説明した検出ステップ(ステップST202)に相当する処理装置である。また、対象物測位部1006とは、算出ステップ(ステップST203)と対象位置情報生成ステップ(ステップST204)に相当する処理装置である。
【0031】
次に、動作について説明する。本実施の形態に係る地図情報収集装置1000の動作は、映像情報とそれに同期した位置データから対象物を検出・測位して地図データベース1003に保存する対象物情報収集フェイズと、地図データベース1003に保存された対象物の情報を累積する対象物情報累積フェイズと、二つのフェイズから構成される。
【0032】
まず、図11を参照して、対象物情報収集フェイズについて説明する。図11は、対象物情報収集フェイズの動作を示すフローチャートである。初めに、実施の形態1で述べた構成により、GPSとビデオカメラ(あるいはセンサ)を搭載した多数の車両を用いて、道路と周辺情景の映像データと、この映像データに同期した車両の位置情報を収集し、映像情報・位置情報データベース1001に保存する(ステップST1101)。なお、個々の車両における映像データと、映像データに同期した位置情報の収集方法は実施の形態1と同じであるので説明を省略する。
ここで、同一の車両で日を変えて映像データと位置情報データを収集しても良い。また一つの車両に複数のビデオカメラやセンサを搭載して、異なる位置や角度から同一区間の道路の映像情報と測位情報データを収集しても良い。このようにすることで、広範囲の市街地を満遍なくデータ収集を行なうことが可能となる。
また、ステップST1101で収集する映像データは、ビデオカメラで撮影した可視画像に限らず、例えば、ラインスキャンレーザで得られる奥行き映像データや、赤外線カメラによって得られる熱映像データなど、カメラ以外のセンサから得られる映像データでもよい。
【0033】
次に、対象物検出部1005は、映像情報・測位情報データベース1001に保存された多数の映像情報の中から一つを選択する(ステップST1102)。
【0034】
次に、対象物検出部1005は、ステップST1102で選択された映像情報の中から1フレームだけ画像を取得する(ステップST1103)。
【0035】
次に、対象物検出部1005は、ステップST1103にて取得した画像を解析して対象物が写る矩形領域を検出し、同時に矩形領域の類似度を求める(ステップST1104)。例えば、映像情報を基に道路設備管理を行なう場合、対象物検出部1005は、入力画像に写る道路標識や信号機、電柱、等を検出して、それらを取り囲む矩形領域を出力し、またその矩形領域の類似度を算出する。
ここで類似度とは、「ある矩形領域の画像が目的の対象物の画像と類似している度合いを数値的に表現しているもの」と定義する。以下、本実施の形態では、例えば、矩形領域の画像が目的の対象物である可能性が高いほど大きな正の値をとり、また矩形領域の画像が目的の対象物である可能性が低いほど負の値をとるものとする。
類似度の算出方法としては、例えば、テンプレートマッチングを用いて、テンプレート画像と矩形領域の類似度を算出することも可能である。また、対象物の色が特定されている場合には、矩形領域の色と対象物に特定の色との類似度を算出してもよい。また、例えば、参考文献1、2に記載のアルゴリズムを用いることで、高精度かつ高速に対象物の矩形領域を検出して、その類似度を算出することも可能である。
[参考文献1]
Paul A. Viola, Michael J. Jones, “Rapid Object Detection Using a Boosted Cascade of Simple Features”, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), ISSN: 1063-6919, Vol. 1, pp. 511-518, December 2001
[参考文献2]
Paul A. Viola, Michael J. Jones, “Fast and Robust Classification using Asymmetric AdaBoost and a Detector Cascade.” Advances in Neural Information Processing Systems 14, p1311-1318, 2001, MIT Press,
【0036】
ここで、参考文献1および参考文献2に記載の物体検出アルゴリズムを用いた類似度の算出方法について述べる。
【0037】
参考文献1、2においてViola & Jonesらは、Adaboostと呼ばれる学習アルゴリズムを用いて高精度かつ高速に対象物の検出を行った。これは、エッジなどの特徴量の情報に基づいて入力画像が対象物であるか否かを判別する関数(以下、これを判別関数と呼ぶ)の出力を累積し、累積した値の大小に応じて入力画像が対象物か否かの判定を行うものである。この判別関数の出力を累積する式は、以下に示す数式1で与えられる。

【数1】


数式1において、confは判別関数の出力を累積した値であり、xは入力された矩形領域の画像であり、θは検出率を調整するための閾値であり、tは判別関数のインデックスであり、Tは加算する判別関数の総数である。
また、ht(x)は判別関数であり、画像xが対象物の画像である可能性が高ければ正の値を返し、画像xが対象物である可能性が低ければ負の値を返す。例えば、道路標識を検出したい場合、ある判別関数は道路標識に固有の形を検出することで道路標識である可能性の大小を数値化して返し、また、ある判別関数は道路標識に固有の色を検出して目的の道路標識である可能性の大小を数値化して返す。
数式1において、xが目的の対象物の画像である可能性が高いほどconfは大きな正の値をとり、またxが対象物の画像である可能性が低いほどconfは負の値をとる。このため、対象物検出部1005において、数式1に示すconfを類似度として使用することが可能である。
なお、上記の判別関数を求める方法や、閾値θを決定する方法については文献002および文献003に記載されているのでここでは言及しない。
【0038】
以下では、対象物検出部1005が、例えば参考文献1と参考文献2に記載の物体検出アルゴリズムを用いて、対象物の矩形領域とその類似度を算出する方法について説明する。図12は、対象物検出部1005の動作を示すフローチャートである。図12は、図11に示すステップST1104における対象物検出部1005の動作を詳細に説明したものである。
【0039】
まず、画像走査部1010は、ステップST1103で取得した画像を入力として受け取る(ステップST1201)。
次に、画像走査部1010は、異なる大きさの対象物を検出するために、元画像を異なる率で縮小させた画像を複数生成する(ステップST1202)。図14は、画像走査部1010の動作例を示す説明図である。例えば、図14の(a)に示すように、元画像を縮小して異なる大きさの画像を複数生成する。
次に、画像走査部1010は、矩形領域を一ピクセルごとに移動させて、ステップST1202で生成した縮小画像を走査する(ステップST1203)。
【0040】
次に、類似度計算部1011は、ステップST1203で走査した矩形領域の類似度を計算する(ステップST1204)。類似度の計算には、例えば、数式1を用いる。
次に、類似度計算部1011は、入力した矩形領域の類似度が0より大きいか否かを判断する(ステップST1205)。
次に、類似度計算部1011は、入力した矩形領域の類似度が0より大きければ、この矩形領域は対象物の画像であるとみなし、その矩形領域の座標と類似度を保存しておく(ステップST1206)。図15は、対象物の矩形領域の例を示す説明図である。ここで矩形領域の座標とは、図15に示すように、画像座標系XYにおいて矩形領域の位置を指定する四つの座標値x1、x2、y1、y2のことを指す。一方、ステップST1205で、入力した矩形領域の類似度が0より大きくなければ、ステップST1207へ進む。
【0041】
次に、画像走査部1010は、ステップST1202で生成したすべての縮小画像を走査したか否かを判断する(ステップST1207)。まだ走査していない縮小画像があれば、すべての画像を走査するまでステップST1203に戻り、対象物の矩形領域を検出する処理を繰り返す。すべての縮小画像を走査した場合は、ステップST1208に進む。
【0042】
ステップST1203からステップST1207の処理により、通常、図14の(b)に示すように、一つの対象物に対して複数の矩形領域が重なって検出される。そこで、矩形領域マージ部1012は、保存した矩形領域を一つにまとめるために、矩形領域の面積が一定の割合以上重なっている場合、これらの重なった矩形領域をマージして一つの矩形領域を出力する(以下、マージ処理)(ステップST1208)。この際、新しい矩形領域の座標は、複数の矩形領域の座標の類似度による重み付け平均とする。また、新しい矩形領域の類似度は二つの類似度の和とする。
【0043】
図16は、矩形領域マージ部1012の動作例を示す説明図である。図16を用いて、ステップST1208の動作例を説明する。図16(a)に示すように、2次元の画像座標系に矩形領域Aと矩形領域Bと矩形領域Cが検出されたものとする。ここで、矩形領域Aが類似度5を持ち、矩形領域Bが類似度10を持ち、矩形領域Cが類似度10を持つとする。矩形領域Aと矩形領域Bの面積が一定以上重なっているため、これら二つの領域をマージ処理して矩形領域Dを新しく生成する(図16(b))。矩形領域Dの座標は、矩形領域Aと矩形領域Bの類似度によるそれぞれの座標の重み付け平均となる。また、矩形領域Dの類似度は10+5=15と計算される。
ステップST1208の具体的な計算例を以下に示す。図16(a)において、矩形領域Aの座標を(a_x1,a_x2,a_y1,a_y2)とし、矩形領域Bの座標を(b_x1,b_x2,b_y1,b_y2)とする。また、矩形領域Aの類似度をa_confとし、矩形領域Bの類似度をb_confとする。このとき、図16(b)の矩形領域Dの座標(d_x1,d_x2,d_y1,d_y2)は数式2で与えられる。
d_x1 = ( a_conf×a_x1 + b_conf×b_x1)/( a_conf + b_conf)
d_x2 = ( a_conf×a_x2 + b_conf×b_x2)/( a_conf + b_conf)
d_y1 = ( a_conf×a_y1 + b_conf×b_y1)/( a_conf + b_conf)
d_y2 = ( a_conf×a_y2 + b_conf×b_y2)/( a_conf + b_conf)
・・・(数式2)
また、矩形領域Dの類似度d_confは数式3で与えられる。
d_conf= a_conf + b_conf ・・・(数式3)
【0044】
最後に、閾値処理部1013は、ステップST1208において加算された類似度に対して閾値処理を行い、一定の閾値以下の類似度を持つ矩形領域は棄却する(ステップST1209)。閾値処理部1013の動作例を図16の(b)と(c)に示す。図16(b)には、類似度15を持つ矩形領域Dと、類似度10を持つ矩形領域Cが存在する。矩形領域Cの近傍にはその他の矩形領域が存在しなかったため、マージ処理が行われず、類似度は10のままである。このとき、類似度が10以下の矩形領域は棄却する閾値処理を行うとする。この処理で、矩形領域Cは棄却される。一方で、矩形領域Dは類似度が15であるため、棄却されずに残る。この矩形領域Dを閾値処理部1013の出力とする。
通常、対象物の周辺には複数の矩形領域が重なって検出されるため、これらをマージ処理することで類似度を高めることができる。一方、ノイズ等の影響で誤って検出された場合、複数の矩形領域が重なって検出されることは滅多に無く、マージ処理が行われずに、各矩形領域の類似度は低いままである。このため、マージ処理を行って類似度を累積した後に閾値処理を施すことで誤検出を減らすことが可能となる。
【0045】
以上のように、対象物検出部1005は、例えば参考文献1と参考文献2に記載の物体検出アルゴリズムを用いて、入力された画像から対象物を検出して、その矩形領域と類似度を算出することができる。
【0046】
また、対象物検出部1005において、対象物の類似度を計算する方法は、参考文献1、2に記載のアルゴリズムに限らず、目的となる対象物の画像と矩形領域の画像が類似している度合いを数値的に算出することが可能であれば、いずれのアルゴリズムを用いてもよい。
【0047】
再び、図11を用いて、対象物情報収集部1002の動作について説明する。対象物測位部1006は、ステップST1104で検出した対象物の矩形領域の座標(2次元)を用いて、撮影時点のカメラを中心とした対象物の相対的な位置(3次元)を算出する(ステップST1105)。なお、対象物の矩形領域の座標から、対象物の相対的な位置を算出する方法は実施の形態1におけるステップST203の処理と同じであるため、実施の形態2では説明を省略する。
【0048】
次に、対象物測位部1006は、ステップST1105の処理で得られた相対位置情報と、現在処理している対象フレームを撮影したときの測位情報とを利用して対象物の地理座標を計算する(ステップST1106)。なお、対象物の地理座標の計算については、実施の形態1のステップST204の処理と同じであるため、実施の形態2では説明を省略する。
【0049】
次に、対象物保存部1007は、映像情報から検出した対象物の情報を地図データベース1003に保存する(ステップST1107)。ここで対象物の情報とは、例えば、ステップST1106で求めた対象物の地理座標(緯度、経度、標高)や、対象物の類似度、対象物の種類、対象物の大きさ、切り出した対象物の画像等の対象物に関する情報のことを指す。
【0050】
次に、対象物情報収集部1002は、ステップST1103で取得した画像が、ステップST1102で取得した映像情報の最終フレームか否かを判断する(ステップST1108)。もし、ステップST1103で取得した画像が、ステップST1102で取得した映像情報の最終フレームである場合は次のステップST1109に進む。そうでない場合はステップST1103に戻り映像情報から次のフレームを取得して対象物を検出する処理を繰り返す。
【0051】
次に、対象物情報収集部1002は、現在処理を行っている映像情報が、映像情報・測位情報データベース1001に保存されている最後の映像情報か否かを判断する(ステップST1109)。もし、映像情報・測位情報データベース1001に、まだ対象物検出の処理を行っていない映像情報が残っている場合、ステップST1102に戻り次の映像情報に対して処理を行う。また、現在処理を行っている映像情報が、映像情報・測位情報データベース1001に保存されている最後の映像情報である場合、対象物情報収集フェイズの処理を終了する。
【0052】
以上で述べたように、対象物情報収集フェイズでは、対象物情報収集部1002が、多数の車両やセンサで収集した映像情報から対象物を検出し、その位置情報を地図データベース1003に保存する。
【0053】
次に、対象物情報累積フェイズについて説明する。前述した対象物情報収集フェイズでは、例えば二台の車両で同じ対象物の情報を収集した場合、これらは個別に地図データベース1003に保存されていた。そこで、対象物情報累積フェイズでは、同一の地理座標にある複数の対象物は同じものであるとみなし、対象物の情報を一つにまとめる処理を行なう。以下では、図13を用いて、対象物情報累積フェイズの動作手順を説明する。図13は、対象物情報累積フェイズの動作を示すフローチャートである。
【0054】
はじめに、対象物情報累積部1004は、地図データベース1003から一つの対象物を番号順に選択して、該当の対象物の情報を取得する(ステップST1301)。なお、地図データベース1003に保存されている対象物の情報は、保存された日付や位置などの特徴により番号付けされているものとする。
【0055】
次に、対象物マージ部1008は、地図データベース1003を検索して、ステップST1301で選択した対象物の地理座標の近傍にその他の対象物が存在するか否かを調べる(ステップST1302)。もし、ステップST1301で選択した対象物の地理座標の近傍にその他の対象物が見つかった場合、次のステップST1303に進む。また、もし、ステップST1301で選択した対象物の地理座標の近傍にその他の検出された対象物が見つからなかった場合、ステップST1301に戻り、次の対象物の情報を取得する。
【0056】
次に、対象物マージ部1008は、ステップST1301で選択した対象物の情報と、この対象物の地理座標の近傍に存在する対象物の情報を一つにまとめる(ステップST1303)。以下、図17と図18を用いて、ステップST1303の動作例を説明する。
【0057】
まず、図17を用いて、対象物の表現方法について説明する。図17は、対象物が直方体の例を示す説明図である。図17に示すように、対象物を、経度と緯度と標高の3次元空間において、適当な大きさを持つ直方体で表現する。ここで、対象物を表現する直方体の大きさは、実際の対象物の大きさと、対象物情報収集フェイズにおける地理座標の測位精度とによって決定される。例えば、厚さが無視できるほど薄い50cm四方の道路標識を標準偏差2cmの精度で測位した場合、図17に示すように、標準偏差の3倍である6cmを道路標識の大きさに加算して、直方体の大きさを算出する。
【0058】
次に、図18を用いて、対象物の情報を一つにまとめる方法について説明する。図18は、対象物情報累積部1004の動作例を示す説明図である。図18の(a)に示すように、地図データベース1003上の緯度、経度、標高の3次元空間に、対象物Aと対象物Bと対象物Cの三つの対象物があるとする。また、それぞれの対象物は、対象物情報収集フェイズにて計算した類似度の情報も持つ。この例では、対象物Aが類似度5を持ち、対象物Bが類似度10を持ち、対象物Cが類似度5を持つとする。
ここで、対象物Aの地理座標の近傍に対象物Bが存在するか否かを判断するための基準として、例えば、対象物の直方体の重なった体積を利用することが考えられる。例えば、図18の(a)において、対象物Aと対象物Bの体積が一定以上重なっているとする。このとき、対象物Aと対象物Bを一つにまとめ、新しく対象物Dを生成する(以下、マージ処理)。また、地図データベース1003にある対象物Aと対象物Bの情報は削除して、新しく対象物Dの情報を地図データベース1003に保存する。
【0059】
以下に、具体的な計算方法を示す。対象物Aは数式4の6つの平面により囲まれる直方体であるとする。
X=a_x1,X=a_x2,Y=a_y1,Y=a_y2,Z=a_z1,Z=a_z2 ・・・(数式4)
同様に対象物Bは、数式5の6つの平面により囲まれる直方体であるとする。
X=b_x1,X=b_x2,Y=b_y1,Y=b_y2,Z=b_z1,Z=b_z2 ・・・(数式5)
また、対象物Aの類似度をa_confとし、対象物Bの類似度をb_confとする。
このとき、対象物Dの座標(d_x1,d_x2,d_y1,d_y2,d_z1,d_z2)は、対象物Aと対象物Bの座標の類似度による重み付け平均であり、数式6で与えられる。
d_x1 = ( a_conf×a_x1 + b_conf×b_x1)/( a_conf + b_conf)
d_x2 = ( a_conf×a_x2 + b_conf×b_x2)/( a_conf + b_conf)
d_y1 = ( a_conf×a_y1 + b_conf×b_y1)/( a_conf + b_conf)
d_y2 = ( a_conf×a_y2 + b_conf×b_y2)/( a_conf + b_conf)
d_z1 = ( a_conf×a_z1 + b_conf×b_z1)/( a_conf + b_conf)
d_z2 = ( a_conf×a_z2 + b_conf×b_z2)/( a_conf + b_conf)
・・・(数式6)
また、対象物Dの類似度d_confは数式7で与えられる。
d_conf= a_conf + b_conf ・・・(数式7)
図18の(b)に示す例では、数式7により、新しく生成された対象物Dの類似度は15と計算される。一方で、図18の(a)に示す対象物Cは、近傍に対象物が存在しないため、座標の類似度の情報も更新されない。
なお、上記例では、対象物Aの地理座標の近傍に対象物Bが存在するか否かを判断するための基準として、対象物の直方体の重なった体積の割合を利用したが、これに限らずその他の基準を利用しても良い。
【0060】
次に、対象物マージ部1008は、ステップST1301で選択した対象物が、地図データベース1003に保存された最後の対象物か否かを判断する(ステップST1304)。もし、ステップST1301で選択した対象物が地図データベース1003に保存された最後の対象物である場合、ステップST1305に進む。そうでない場合、すなわち、地図データベース1003にまだ選択していない対象物がある場合には、次の対象物を選択する。
【0061】
最後に、閾値処理部1009は、ステップST1303で加算した対象物の類似度に対して閾値処理を施し、一定の閾値以上の類似度を持つ対象物を出力する(ステップST1305)。例えば、図18の(b)において、対象物Aと対象物Bをマージして生成した対象物Dは類似度15を持つ。また、対象物Cは類似度5である。ここで、閾値処理を行って類似度が10以上の対象物を出力するものとすると、類似度15対象物Dだけが対象物として出力され、対象物Cは出力されない。
【0062】
なお、類似度が閾値よりも低い対象物Cのデータは、地図データベース1003から削除しないでそのまま保存しておく。これは、別の車両の情報や別の日に収集した情報によって、対象物Cの近傍に新しいデータが追加される可能性があるからである。例えば、対象物Cの地理座標の近傍に、類似度10を持つ対象物Eが新たに保存されたとする。対象物Cと対象物Eの立方体の体積がある一定の割合以上重なっている場合、対象物Cと対象物Eはマージされて、新しい対象物Fが生成される。このとき、新しい対象物Fは類似度15を持つ。ここで、閾値処理を行って類似度が10以下の対象物を棄却した場合、類似度15を持つ対象物Dと対象物Fは共に出力される。
【0063】
一般に、ある車両で検出された対象物は、別の車両でも検出される可能性が高い。このため、多数の車両やセンサで収集した情報から対象物を検出して類似度を累積していくことで、対象物の類似度をいっそう高めることが可能となる。一方で、本来は対象物で無いのに対象物として誤って検出された物は、他の車両によって再び検出される可能性は低く、類似度が累積される機会は限りなく少ない。このため、累積した類似度に対して閾値処理を行うことで、誤検出を減少させ、精度よく対象物を検出することが可能となる。
【0064】
また、類似度を利用して、検出した対象物の表示を行うインターフェイスを作成し、設備管理に役立てることも可能である。例えば、収集した映像から対象物を検索して、類似度の大きな順に検索結果を表示することも可能である。
更に、対象物の検索結果を類似度の大小に応じて色わけして表示することで、映像から対象物を探す人間の作業を支援することも可能である。
【図面の簡単な説明】
【0065】
【図1】この発明の実施の形態におけるデータ収集装置の構成を示す構成図
【図2】この発明の実施の形態における地図情報生成の動作を示すフローチャート
【図3】被写体の検出の例を示す説明図
【図4】画像座標系の座標値列を説明する説明図
【図5】カメラを中心としたカメラ座標系の空間座標の説明図
【図6】カメラ座標系と地理座標系の関係を示す説明図
【図7】カメラ座標系と地理座標系の関係を示す説明図
【図8】位置情報列の地図へのプロットした例を示す説明図
【図9】位置情報列の点をベクトル化する例を示す説明図
【図10】実施の形態2に係る地図情報収集装置の構成図
【図11】対象物情報収集フェイズの動作を示すフローチャート
【図12】対象物検出部1005の動作を示すフローチャート
【図13】対象物情報累積フェイズの動作を示すフローチャート
【図14】画像走査部1010の動作例を示す説明図
【図15】対象物の矩形領域の例を示す説明図
【図16】矩形領域マージ部1012の動作例を示す説明図
【図17】対象物が直方体の例を示す説明図
【図18】対象物情報累積部1004の動作例を示す説明図
【符号の説明】
【0066】
101 測位手段、102 ビデオカメラ、103 方位センサ、104 車両、105 記録装置、910 映像情報・位置情報データベース、920 類似度計算部、930 対象物領域測位部、940 類似度・測位情報保存部、950 検出結果累積部、960 対象物検出・測位部、970 地図データベース、1000 地図情報収集装置、1001 映像情報・位置情報データベース、1002 対象物情報収集部、1003 地図データベース、1004 対象物情報累積部、1005 対象物検出部、1006 対象物測位部、1007 対象物保存部、1008 対象物マージ部、1009 閾値処理部、1010 画像走査部、1011 類似度計算部、1012 矩形領域マージ部、1013 閾値処理部。

【特許請求の範囲】
【請求項1】
撮像手段の移動に伴って撮像される映像データと、この映像データに対応して記録され上記撮像手段の撮像位置に対応して測位される測位情報とを入力する入力ステップと、
この入力ステップで入力された上記映像データ中の検出対象を検出する検出ステップと、
この検出ステップで検出された上記検出対象と上記撮像手段との相対位置情報を算出する算出ステップと、
この算出ステップで算出された上記相対位置情報と上記入力ステップで入力された上記測位情報とに基づき、上記検出対象の位置情報を生成する対象位置情報生成ステップとを備えたことを特徴とする地図情報生成方法。
【請求項2】
上記対象位置情報生成ステップで生成された検出対象の位置情報に基づいて上記検出対象を地図に対応させる地図対応ステップを備えたことを特徴とする請求項1に記載の地図情報生成方法。
【請求項3】
上記映像データに対応して記録され上記撮像手段の移動速度を示す速度情報を入力し、この速度情報に基づいて上記検出対象の位置情報を補正して上記地図対応ステップにおける検出対象の地図への対応化を行うことを特徴とする請求項2に記載の地図情報生成方法。
【請求項4】
上記検出ステップで検出された検出対象に対応して上記映像データから検出した特徴情報を抽出する特徴情報抽出ステップを備えたことを特徴とする請求項1から3のうちいずれか1項記載の地図情報生成方法。
【請求項5】
撮像手段の移動に伴って撮像される映像データと、この映像データに対応して記録され上記撮像手段の撮像位置に対応して測位される測位情報とを入力する入力ステップと、
この入力ステップで入力された上記映像データ中の検出対象を検出する検出ステップと、
この検出ステップで検出された上記検出対象と上記撮像手段との相対位置情報を算出する算出ステップと、
この算出ステップで算出された上記相対位置情報と上記入力ステップで入力された上記測位情報とに基づき、上記検出対象の位置情報を生成する対象位置情報生成ステップとからなる地図情報生成方法を計算機に実行させる地図情報生成プログラム。
【請求項6】
映像情報と前記映像情報に同期した位置情報を記憶する映像情報・位置情報データベースと、
前記映像情報から対象物を検出し、前記対象物の情報を収集する対象物情報収集部と、
前記対象物情報収集部が収集した前記対象物の情報を記憶する地図データベースと、
前記地図データベースに記憶された前記対象物の情報を累積する対象物情報累積部とを備えた地図情報収集装置。
【請求項7】
前記対象物情報収集部は、
前記映像情報から前記対象物を検出する対象物検出部と、
前記対象物検出部が検出した前記対象物の地理座標を算出する対象物測位部と、
前記対象物測位部が算出した前記対象物の地理座標を前記地図データベースに保存する対象物保存部とを備えていることを特徴とする請求項6記載の地図情報収集装置。
【請求項8】
前記対象物検出部は、
前記映像情報から取得した画像を走査して前記対象物の矩形領域を検出する画像走査部と、
前記画像走査部が検出した前記矩形領域と前記対象物との類似度を算出する類似度計算部と、
前記画像走査部が検出した前記矩形領域のうち、近傍に存在する前記矩形領域をマージ処理した矩形領域を出力すると共に、近傍に存在する前記矩形領域の類似度を累積して前記マージ処理した矩形領域の類似度として出力する矩形領域マージ部と、
前記矩形領域マージ部が出力する前記マージ処理した矩形領域のうち、一定の閾値以上の類似度を有する矩形領域だけを出力する閾値処理部とを備えていることを特徴とする請求項7記載の地図情報収集装置。
【請求項9】
前記対象物情報累積部は、
前記地図データベースに保存された前記対象物のうち、近傍に存在する前記対象物の情報をマージ処理すると共に、近傍に存在する前記対象物の類似度を累積して前記マージ処理した前記対象物の類似度として出力する対象物マージ部と、
前記対象物マージ部が出力する前記マージ処理した対象物のうち、一定の閾値以上の類似度を有する対象物だけを出力する閾値処理部とを備えていることを特徴とする請求項6から請求項8のうちのいずれか1項記載の地図情報収集装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate


【公開番号】特開2006−119591(P2006−119591A)
【公開日】平成18年5月11日(2006.5.11)
【国際特許分類】
【出願番号】特願2005−172646(P2005−172646)
【出願日】平成17年6月13日(2005.6.13)
【出願人】(000006013)三菱電機株式会社 (33,312)
【Fターム(参考)】