計測システムおよび計測方法
【課題】距離計測センサを用いて、観測領域内の移動対象を追跡しつつ、精度よく、対象を識別して分類することが可能な計測装置を提供する。
【解決手段】計測装置100は、対象までの水平方向の距離を計測可能に配置された複数のレーザレンジファインダ10.1〜10.4と、計測結果から、対象の位置および移動速度を推定する追跡モジュール5610と、計測結果に基づいて、対象の形状を表現する特徴ベクトルを算出する特徴抽出演算部5622と、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスに属する確率を事前確率として算出する事前確率計算部5624と、対象が他の対象と同期して移動している同期状態であるかを判別し、算出された事前確率と、同期状態にある対象が各クラスに対応する尤度とに基づいて、対象が属するクラスを判別するラベル割当処理部5628とを含む。
【解決手段】計測装置100は、対象までの水平方向の距離を計測可能に配置された複数のレーザレンジファインダ10.1〜10.4と、計測結果から、対象の位置および移動速度を推定する追跡モジュール5610と、計測結果に基づいて、対象の形状を表現する特徴ベクトルを算出する特徴抽出演算部5622と、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスに属する確率を事前確率として算出する事前確率計算部5624と、対象が他の対象と同期して移動している同期状態であるかを判別し、算出された事前確率と、同期状態にある対象が各クラスに対応する尤度とに基づいて、対象が属するクラスを判別するラベル割当処理部5628とを含む。
【発明の詳細な説明】
【技術分野】
【0001】
この発明は計測システムおよび計測方法に関し、特にたとえば、計測対象の位置および形状を追跡しつつ、計測対象を特定するための、計測システムおよび計測方法に関する。
【背景技術】
【0002】
近年のロボット技術の発展により、これからのロボットには人と共存し協調する役割が求められている。そのためにはロボットに様々な機能、たとえば、環境をロボット自らが判断して理解する機能が必要になる。
【0003】
また、環境知能の技術分野では、ユーザに提供されるサービスを促進し、利便性を最大化するように、環境上のセンサ等が設計される必要がある。その目的のために、健常者のユーザだけでなく、特定のニーズを持ったユーザも広範囲に考慮する必要がある。高齢者またはハンディキャップをもつユーザが、歩行器、手押し車、車椅子などの様々な補助具を使用している場合、たとえば、ショッピングセンターなどにおいては、ユーザを階段またはエスカレーターの代わりに、エレベータを使用するように誘導するというようなニーズも発生する可能性がある。このような場合は、ある環境中で、動いている対象を識別する技術が必要となる。
【0004】
したがって、歩行者検知およびそのトラッキングは広い適用領域において、ポピュラーな研究トピックとなっている。
【0005】
ここで、このような歩行者検知およびそのトラッキングのための方法としては、大きくは、画像認識ベースの技術と、距離センサベースの技術とに分けられる。
【0006】
ここで、距離センサベースの技術は、一般には、混雑している環境での計測も比較的正確に行え、また、直射日光がさすような環境でも安定して計測できる利点がある。このような距離センサベースの技術では、所定の空間内で、そこを移動する人間の位置を追跡するための技術として、距離センサのデータに基づいて、人を検知し追跡する計測装置の一例が、たとえば、特許文献1に開示されている。
【0007】
この特許文献1では、計測装置は、コンピュータを含み、コンピュータには複数のレーザーレンジファインダが接続される。複数のレーザーレンジファインダは、 或る環境に配置され、コンピュータは、レーザーレンジファインダの検出結果に基づいて人を追跡する。たとえば、コンピュータは、パーティクルフィルタを用いて、人の位置および移動速度を推定し、胴体および両腕を3つの円で組み合わせた人形状モデルを用いて、人の身体の方向と腕の動きとを推定する。同様の技術内容は、非特許文献1にも開示されている。
【0008】
また、レーザレンジファインダにより、人間を検知およびトラッキングするに際して、1つの位置に配置されるポールごとに3つ高さのレベル、頭部の高さ、上体の高さ、および脚部の高さに相当するレーザレンジファインダを設置する技術が、非特許文献2に開示されている。
【0009】
また、カルマンフィルタを用いて、人間の脚を追跡し、人間のパターンと人間以外のパターンとを判別する技術が、非特許文献3に開示されている。
【先行技術文献】
【特許文献】
【0010】
【特許文献1】特開2009−168578号公報
【非特許文献】
【0011】
【非特許文献1】D. F. Glas, T. Miyashita, H. Ishiguro, and N. Hagita, ”Laser−based tracking of human position and orientation using parametric shape modeling”, Advanced Robotics, vol. 23, no. 4, pp. 405−428, 2009
【非特許文献2】O. M. Mozos, R. Kurazume, and T. Hasegawa, “Multi−Part people detection using 2D range data”, Int. Journal of Social Robotics, vol. 2, no. 1, pp. 31−40, 2010
【非特許文献3】K. O. Arras, S. Grzonka, M. Luber, and W. Burgard, “Efficient people tracking in laser range data using a multi−hypothesis leg−tracker with adaptive occlusion probabilities,” in Proc. of IEEE Int. Conf. on Robotics and Automation, 2008, pp. 1710−1715
【発明の概要】
【発明が解決しようとする課題】
【0012】
ただし、特許文献1に開示された技術は、距離計測センサによって、被験者の位置、移動速度、身体の向きおよび腕の位置の推定するための技術であって、距離センサのデータに基づいて、検出された対象を識別することを目的としたものではない。
【0013】
また、非特許文献3のような技術はあるものの、移動する対象が複数同時に存在し、かつ、人間および人間以外の対象が観測領域内に存在するような環境で、対象を追跡しつつ、正確に対象を識別するのは、必ずしも容易ではないという問題があった。
【0014】
本発明は、上記のような問題を解決するためになされたものであって、その目的は、距離計測センサを用いて、観測領域内の移動対象を追跡しつつ、精度よく、対象を識別して分類することが可能な計測システムおよび計測方法を提供することである。
【課題を解決するための手段】
【0015】
この発明の1つの局面に従うと、観測領域内で対象の移動を追跡し、対象を分類するための計測システムであって、対象までの水平方向の距離を計測可能に配置された複数の距離計測手段と、複数の距離計測手段によって対象を計測した計測結果を取得する取得手段と、取得手段によって取得された計測結果から、対象の位置および移動速度を推定する追跡手段と、計測結果に基づいて、対象の水平な2次元断面形状の特徴を表現する特徴ベクトルを算出する特徴抽出手段と、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスのうちのいずれのクラスに属するかを判別する判別手段とを備え、判別手段は、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスに属する確率を事前確率として算出する事前確率算出手段と、対象の移動速度および対象間の距離に基づいて、対象が他の対象と同期して移動している同期状態であるかを判別し、事前確率と、同期状態にある対象がクラスに対応する尤度とに基づいて、対象が属するクラスを判別する同期状態検知手段とを含む。
【0016】
好ましくは、特徴ベクトルは、対象の水平な2次元断面形状のサイズと対象の水平な2次元断面形状のアスペクト比とを表現する、請求項1記載の計測システム。
【0017】
好ましくは、同期状態検知手段は、対象のペアの速度ベクトルのなす角と、対象のペアのうちの一方の対象の速度ベクトルと対象のペアの対象間の間隔ベクトルとのなす角とに基づいて、対象のペアが同期状態であるかを判別する。
【0018】
好ましくは、特徴抽出手段は、取得手段によって取得された同時刻における複数の計測結果に所定の間隔のデータを内挿する手段を有する。
【0019】
この発明の他の局面に従うと、観測領域内で対象の移動を追跡し、対象を分類するための計測方法であって、対象までの水平方向の距離を計測可能に配置された複数の距離計測手段によって対象を計測した計測結果を取得するステップと、取得された計測結果から、対象の位置および移動速度を推定するステップと、計測結果に基づいて、対象の水平な2次元断面形状の特徴を表現する特徴ベクトルを算出するステップと、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスのうちのいずれのクラスに属するかを判別するステップとを備え、判別するステップは、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスに属する確率を事前確率として算出するステップと、対象の移動速度および対象間の距離に基づいて、対象が他の対象と同期して移動している同期状態であるかを判別し、事前確率と、同期状態にある対象がクラスに対応する尤度とに基づいて、対象が属するクラスを判別するステップとを含む。
【発明の効果】
【0020】
この発明によれば、複数の距離計測手段により、観測領域内で移動する対象を追跡し、その対象が分類のいずれのクラスに属するかを判別する際に、対象の形状を反映した特徴ベクトルに基づいて判別するので、オクルージョンに対してロバストであって、対象の向きに対しても独立に判別が可能となる。
【0021】
また、この発明によれば、特徴ベクトルによる判別を事前確率として、2つの対象の移動の同期状態による尤度を考慮した事後確率により判別を行うことで、判定の精度を向上させることが可能となる。
【図面の簡単な説明】
【0022】
【図1】実施の形態1の計測システム1000の構成を説明するための図である。
【図2】レーザーレンジファインダの検出高さのレベルと検出対象とを示す図である。
【図3】計測演算装置100のハードウェア構成を説明するためのブロック図である。
【図4】本実施の形態の計測演算装置100において、上述したCPU56がソフトウェアを実行するにより実現する機能を示す機能ブロック図である。
【図5】観測領域に複数の人が存在し、かつ、1つのレーザレンジファインダにより観測がなされる場合を示す概念図である。
【図6】同時に追跡された対象の数と、その観測がなされた時間間隔との関係を示す図である。
【図7】、人HとベビーカートBとが、4つのレーザーレンジファインダ10.1〜10.4により測距される様子を示す概念図である。
【図8】対象X(人H)および対象Y(ベビーカートB)についての特徴ベクトルを示す概念図である。
【図9】判別関数値について、それぞれのクラスH,W,S,Bの正規分布を示す図である。
【図10】同期状態の特定を実行する対象をモデル化して示す図である。
【図11】距離d0以内の範囲で移動する2つの対象について、測距データ(エッジ情報)を示す概念図である。
【図12】追跡モジュール部5610および識別処理モジュール5620が実行する処理を説明するためのフローチャートである。
【図13】識別処理モジュール5620が実行する各対象へのラベルの割り当て処理を説明するためのフローチャートである。
【図14】追跡が実施された場合の1つの場面を示す図である。
【図15】ラベルの割当の結果を示す図である。
【図16】判別された対象のペアについて、各ペアの判別の正確性を示す図である。
【発明を実施するための形態】
【0023】
以下、本発明の実施の形態の計測システムについて、図に従って説明する。なお、以下の実施の形態において、同じ符号を付した構成要素および処理工程は、同一または相当するものであり、必要でない場合は、その説明は繰り返さない。
【0024】
(実施の形態1)
図1は、実施の形態1の計測システム1000の構成を説明するための図である。
【0025】
図1では、たとえば、ショッピングセンターの一部の領域に、4つの距離計測センサ10.1〜10.4を配置した状態を示す。また、計測システム1000においては、対象の追跡および特定処理を実行するための計測演算装置100も配置される。ここで、距離計測センサとしては、非接触で二点間の距離を計る計測機器であればよいが、以下では、距離計測センサ10.1〜10.4は、それぞれ、レーザーレンジファインダであるものとして説明する。
【0026】
図1において、所定の観測領域をショッピングセンターとしたことにより、人間(以下、記号Hで表す)が移動時に使用する補助具として、ベビーカート(以下、記号Bで表す)、ショッピングカート(以下、記号Sで表す)、車椅子(以下、記号Wで表す)を想定する。
【0027】
図1においては、人間HがベビーカートBを押している状態、人間HがショッピングカートSを押している状態、人間Hが他の人間Hと並んで歩行している状態とが例示されている。
【0028】
また、計測演算装置100は、特に限定されないが、汎用のコンピュータで実現することが可能であり、レーザーレンジファインダ10.1〜10.4とは、所定の規格のインターフェイスを介して接続される。図1の例では、1台の計測演算装置100にすべてのレーザーレンジファインダ10.1〜10.4を接続するようにしてあるが、LANのようなネットワークで接続される2台以上のコンピュータで処理を分担するようにしてもよい。その場合には、たとえば、いずれか1台のコンピュータが統括コンピュータとして機能すればよい。
【0029】
さらに、図1の例では、所定の観測領域における対象を追跡するために、4つのレーザーレンジファインダ10.1〜10.4を設けるようにしてあるが、これは単なる例示である。したがって、領域の大きさ、形状、障害物の位置や個数に応じて、レーザーレンジファインダの数は適宜変更される。レーザーレンジファインダ10.1〜10.4は、建物内の所定の観測領域内の移動対象を検出可能な位置に配置され、レーザーレンジファインダ 10.1〜10.4の各々は、少なくとも2つ以上のレーザーレンジファインダ10.1〜10.4の検出領域が重なるように配置される。
【0030】
レーザーレンジファインダ10.1〜10.4は、レーザーを照射し、物体に反射して戻ってくるまでの時間から当該物体ための距離を計測するものである。たとえば、トランスミッタ(図示せず)から照射したレーザーを回転ミラー(図示せず)で反射させて、前方を扇状に一定角度(たとえば、0.5度)ずつスキャンする。
【0031】
ここで、レーザーレンジファインダ10.1〜10.4の計測範囲は、半径Rの半円形状(扇形)で示される。つまり、レーザーレンジファインダ10.1〜10.4は、その正面方向を中心とした場合に、左右について所定の角度、たとえば、90°の方向を所定の距離(R)以内で計測可能である。
【0032】
また、使用しているレーザーは、日本工業規格 JIS C 6802 「レーザー製品の安全基準」におけるクラス1レーザーであり、人の眼に対して影響を及ぼさない安全なレベルであるものとする。
【0033】
[ハードウェアブロック]
図2は、レーザーレンジファインダの検出高さのレベルと検出対象とを示す図である。
【0034】
図2に例示されるように、レーザーレンジファインダ10.1〜10.4は、人間が移動する際の補助具であるベビーカートB、ショッピングカートS、車椅子Wを識別するために、床から52cmの高さのレベルL2での距離測定を行う。さらに、レーザーレンジファインダ10.1〜10.4は、移動対象(歩行者)のトラッキングのために、床から87cmの高さのレベルL1での距離測定を行う。この高さL1は、いずれの補助具についてもその上端に近いレベルであるとともに、対象となる歩行者の胴体を検出可能とするために設定された高さであり、たとえば、日本人の成人の平均身長から算出される。したがって、計測システム1000を設ける場所(地域ないし国)等に応じて、レーザーレンジファインダ10.1〜10.4の測距の高さL1は、適宜変更されてもよい。
【0035】
ここで、図示は省略するが、計測演算装置100の計測結果は、たとえば、被験者とコミュニケーションするロボット(コミュニケーションロボット)などに与えられ、この計測結果を用いて、コミュニケーションロボットは被験者とのコミュニケーションを円滑に実行する、というような構成とすることが可能である。たとえば、コミュニケーションロボットは、被験者の位置を確認して、被験者に近づき、身振りや手振りのような動作(行動)および音声の少なくとも一方によるコミュニケーション行動を実行する。また、被験者が移動する場合には、コミュニケーションロボットはその速度で被験者に並走し、移動しながらコミュニケーションを取ることも可能である。
【0036】
図3は、計測演算装置100のハードウェア構成を説明するためのブロック図である。
【0037】
図3に示されるように、計測演算装置100は、外部記録媒体64に記録されたデータを読み取ることができるドライブ装置52と、バス66に接続された中央演算装置(CPU:Central Processing Unit)56と、ROM(Read Only Memory) 58と、RAM(Random Access Memory)60と、不揮発性記憶装置54と、レーザレンジファインダ10.1〜10.4からの測距データを取込むためのデータ入力インタフェース(以下、データ入力I/F)68とを含んでいる。
【0038】
外部記録媒体64としては、たとえば、CD−ROM、DVD−ROMのような光ディスクやメモリカードを使用することができる。ただし、記録媒体ドライブ52の機能を実現する装置は、光ディスクやフラッシュメモリなどの不揮発性の記録媒体に記憶されたデータを読み出せる装置であれば、対象となる記録媒体は、これらに限定されない。また、不揮発性記憶装置54の機能を実現する装置も、不揮発的にデータを記憶し、かつ、ランダムアクセスできる装置であれば、ハードディスクのような磁気記憶装置を使用してもよいし、フラッシュメモリなどの不揮発性半導体メモリを記憶装置として用いるソリッドステートドライブ(SSD:Solid State Drive)を用いることもできる。
【0039】
このような計測演算装置100の主要部は、コンピュータハードウェアと、CPU56により実行されるソフトウェアとにより実現される。一般的にこうしたソフトウェアは、マスクROMやプログラマブルROMなどにより、計測演算装置100製造時に記録されており、これが実行時にRAM60に読みだされる構成としてもよいし、ドライブ装置52により記録媒体64から読取られて不揮発性記憶装置54に一旦格納され、実行時にRAM60に読みだされる構成としてもよい。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから、一旦、不揮発性記憶装置54にコピーされ、不揮発性記憶装置54からRAM60に読出されてCPU56により実行される構成であってもよい。
【0040】
図3に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分の1つは、不揮発性記憶装置54等の記録媒体に記憶されたソフトウェアである。
【0041】
[システムの機能ブロック]
以下に説明するとおり、本実施の形態の計測演算装置100では、コンピュータがレーザーレンジファインダ10.1〜10.4からの出力(距離データ)に基づいて、パーティクルフィルタを用いて、対象の位置および速度を推定する。
【0042】
図4は、本実施の形態の計測演算装置100において、上述したCPU56がソフトウェアを実行するにより実現する機能を示す機能ブロック図である。
【0043】
なお、図4に示した機能ブロックのうちのCPU56が実現する機能ブロックとしては、ソフトウェアでの処理に限定されるものではなく、その一部または全部がハードウェアにより実現されてもよい。
【0044】
図4を参照して、レーザーレンジファインダ10.1〜10.4からの測距信号は、データキャプチャ処理部5602により制御されてデジタルデータとして入力され、キャプチャデータ記録処理部5604により、たとえば、不揮発性記憶装置54のような記憶装置に格納される。
【0045】
後に詳しく説明するように、計測演算装置100は、さらに、パーティクルフィルタ法を用いて対象の位置の追跡処理を実行するための追跡モジュール部5610と、対象を識別して特定する処理を実行するための識別処理モジュール5620とを含む。
【0046】
追跡モジュール部5610は、対象の時刻tの状態を、対象の動作モデルと前時刻(t−1)の状態およびパーティクルの重みとに基づいて、予測する更新計算部5612と、測距データを記憶装置54から読みだして、パーティクル毎に時刻tの測距データと状態との尤度を計算し、各パーティクルの重みを尤度に基づいて割り当てる重み割当計算部5614と、すべてのパーティクルが表わす対象の状態と重みとから、現在の対象の状態を推定する状態評価計算部5616と、推定された状態と重みに基づいて、パーティクルのリサンプリングを実行するリサンプリング計算部5618とを含む。このような追跡モジュール部5610の動作については、後に、詳しく説明する。
【0047】
識別処理モジュール5620は、測距データから、各対象について、後に説明する特徴ベクトルを抽出する特徴抽出演算部5622と、抽出された特徴ベクトルに基づいて対象の分類のための事前確率を算出する事前確率算出部5624と、対象間の距離と対象の速度ベクトルとに基づいて、同期状態(CQ:Coherence Quality)を検知するCQ検知部5626と、検知された同期状態に応じて、対象に対していずれの分類に属するかのラベルを割り当てるラベル割当処理部5628とを含む。
【0048】
(対象の位置の検出および追跡)
以下では、上述した人を含む対象の位置の検出とその追跡処理について説明する。
【0049】
本アルゴリズムでは、1つの対象ごとに、パーティクルフィルタと呼ばれるパーティクルの集合を1つ関連付けることにより追跡(トラッキング)を実行する。
【0050】
このような追跡においては、対象の観測領域への進入、対象の連続的な追跡、対象の観測領域からの退出のイベントを検知する必要がある。
【0051】
対象の観測領域への侵入は、前時刻までの測距データによる背景モデルと現在のセンサデータとの比較により検知される。背景モデルも、時間とともに更新される。このようにして、前景データ(現時点の対象のデータ)が特定され、このような前景データから、連続したセグメント、すなわち、対象の候補となるパターンが抽出され、このような候補が登録される。
【0052】
追跡の段階では、このような候補の各々に、パーティクルフィルタが割り当てられる。
【0053】
パーティクルフィルタによって、対象の候補Xについて、以下のように表現される状態sX[t]が推定される。
【0054】
【数1】
そして、上記のような対象の候補Xが、所定の期間、たとえば、0.4秒存在し続けた後に、この候補が、有効な対象として登録される。
【0055】
対象の追跡は、パーティクルフィルタを周期的に更新することにより実行される。
【0056】
このようなパーティクルフィルタによる追跡処理では、以下のようなステップが繰り返される。
【0057】
i)更新ステップ
動作モデルにしたがって、各パーティクルの状態が更新される。動作モデルは、追跡処理の対象のダイナミクスを反映したものとなる。
【0058】
ここで、人間の歩行動作は、人間は、立ち止まったり、急に歩く方向を変えたりするために、単純な線型関数や乱雑動作を表すブラウン運動によっては、近似できない。そこで、動作モデルとしては、パーティクルの状態を上述のように、位置と速度であるとした場合に、速度成分にガウスノイズを加え、このような速度にしたがって、位置が移動するとのモデルを採用する。すなわち、たとえば、以下のような式のモデルを採用する。
【0059】
【数2】
ここで、wx、wyは、平均0で、標準偏差σx、σyのガウシアンノイズである。
【0060】
ii)重み割当ステップ
尤度モデルにしたがって、各パーティクルに相対的な尤度を表す重みを割り当てる。ここで、尤度は、以下のように表される。
【0061】
【数3】
なお、尤度モデルについては、後に詳しく説明する。
【0062】
iii)状態評価ステップ
パーティクルの状態の平均として、各対象の状態が算出される。
【0063】
iv)リサンプリングステップ
システムの状態をより正確に反映させるために、パーティクルをその重み比例した確率で、復元抽出して、時刻tにおける新たなパーティクルの集合を得る。なお、リサンプリングの方法としては、SIR(Sampling Importance Resampling)法を用いることができるが、この方法に限定されるものではない。
(尤度モデル)
以下では、上述した尤度モデルについて、簡単に説明する。より詳しい説明は、たとえば、非特許文献1に開示がある。
【0064】
尤度モデルの目的は、上述した尤度を近似するモデルを提供することである。ここで、尤度を計算するに当たり、本実施の形態では、測定の結果得られるのは、複数のレーザレンジファインダによる測定データである。したがって、ロバストな尤度モデルは、センサの測定値に含まれるノイズ、オクルージョンなどに対して、ロバストな尤度の評価を与えうるものでなければならない。
【0065】
レーザレンジファインダからは、対象の位置を評価するために有用な以下のような情報を得ることができる。
【0066】
i)占有情報 : 観測領域内のある点が、ものに占められているか、あるいは、そうでないかを示す情報である。
【0067】
ii)エッジ情報 : 検出された対象のエッジに対応する輪郭線(の一部)の情報である。
【0068】
図5は、観測領域に複数の人が存在し、かつ、1つのレーザレンジファインダにより観測がなされる場合を示す概念図である。
【0069】
図5(a)は、1つのレーザレンジファインダによるスキャンの様子を示す。図5(b)は、占有情報を示す。ここで、黒で示された領域は、ここでは、人の存在のためにレーザレンジファインダからは、影領域(占有領域)とされた領域である。一方、灰色の領域は、レーザレンジファインダからは可視領域(非占有領域)とされた領域である。
【0070】
図5(c)は、エッジ情報を示す。すなわち、所定のスキャン間隔でスキャンした時に、レーザレンジファインダの測定から上記占有領域のエッジとされる点の位置情報である。
【0071】
レーザレンジファインダごとの測定により、領域が「可視領域」「影領域」「観測不能領域」に分割されることで、占有尤度が得られる。ここで、「観測不能領域」とは、そのレーザレンジファインダにとっての背景モデル外の領域である。
【0072】
ここで、影領域は、必ず、エッジの背後に存在することになる。
【0073】
上述した状態を計算するために、以下の式を用いる。
【0074】
【数4】
ここで、NSは、レーザレンジファインダの個数であり、定数pcolは、2つのパーティクルフィルタが、同一の対象を追跡しないようにするために減算される定数である。
【0075】
すなわち、基本的には、影領域にあるときの尤度は、定数psと尤度peとの和を、レーザレンジファインダについて積算することで得られる。ここで、尤度peは、観測されたエッジの背後の所定の距離の位置を中心とする正規分布である。ここでは、この所定の距離として、50cmを採用している。
【0076】
また、定数poは、可視領域にあるときの尤度を表す定数である。ここで、本来であれば、可視領域では、尤度は0とするべきであるものの、種々の誤差により、実際には、可視領域と影領域との境界は、完全に、2値的には分離できないため、演算にエラー耐性を持たせるために、一定の値を有するものとしている。これにより、パーティクルは、影領域外に存在することになっても、直ちには、消滅しない。
【0077】
また、観測領域からの対象の退出については、i)その対象に関連付けられたパーティクルが、所定の値以上に広がってしまった場合や、ii)そのパーティクルフィルタについての尤度の平均が所定の値を下回った場合には、そのパーティクルフィルタは、もはや対象を追跡していないものとして、関連する対象が、登録から削除される。
【0078】
また、後に説明するように、追跡の対象は、所定の時間、たとえば、2秒以上、観測領域内に存在すると、識別されて分類される対象となる。
【0079】
(モデリングと特徴抽出)
以下、上述したような対象の識別と分類について説明する。
【0080】
このような対象の識別のためには、レーザレンジファインダの測距データから、以下に説明するような特徴ベクトルを抽出する。
【0081】
ここで、このような識別の対象は、上述したようなショッピングセンターのような環境では、対象の形状は似通っているものの、対象の軌道は、さまざまな形状を取りうることになる。しかも、一般には、同時に検出される対象の個数に対して、レーザレンジファインダの個数は同数程度である場合が多い。
【0082】
図6は、上述したような追跡方法により同時に追跡された対象の数と、その観測がなされた時間間隔との関係を示す図である。
【0083】
後に説明する実際の実験において、所定の観測領域内では、少なくとも複数の対象が同時に追跡され、多い場合は、6から7個程度が、同時に追跡されている。
【0084】
より詳しくは、観測時間のそれぞれ、25%、29%および22%が、同時に追跡された対象がそれぞれ、1個、2個および3個の期間である。また、観測時間の24%が、同時に追跡された対象が4個以上の期間である。
【0085】
したがって、このような識別のための特徴ベクトルは、以下のような特性を有することが望ましい。
【0086】
第一に、特徴ベクトルは、オクルージョンに対してロバストであることが必要であり、かつ、対象までの距離とは、独立なものでなければならない。
【0087】
第二に、対象の軌道は、大きく変わっていく可能性があるものの、特徴ベクトルは、対象の向きとは、独立なものでなければならない。
【0088】
レーザレンジファインダの測距データをx−y平面(水平平面)に変換した時、距離分解能を100mm以下に設定すると、測距データにより得られる測定サンプル(エッジ情報)は、観測領域内のセグメント(分割領域)として把握される。さらに、以下に説明するように、特徴ベクトルとして、対象の形状の特徴を表現するものを採用するので、生の測定サンプルに対してより均一な分布となるように前処理が施される。すなわち、レーザレンジファインダが扇型にスキャンすることに伴い、同一時刻での生の測定サンプルは、主としてレーザレンジファインダからの距離に応じて、たとえば、10mmから100mmの間隔で存在する。このような場合でも、前処理後の測定サンプルは、所定の間隔、たとえば、10mmごとに1つ存在することとなるように、生の測定サンプルを線型に内挿したものを生成する。
【0089】
このような前処理後の測定サンプルを用いて、対象Xの形状を表現するパラメータにより、特徴ベクトルは、以下のように表現されるものとする。
【0090】
【数5】
したがって、第1成分f1Xは、車椅子WやベビーカートBでは、より大きな値となり、人Hについては、より小さな値となり、ショッピングカートSについては、もっとも小さな値となる。これは、図2に示すように、識別に使用される検出の高さレベルL2での断面積が、ショッピングカートSでは、もっとも小さいからである。すなわち、第1成分は、対象の水平な2次元断面形状のサイズを表現する成分である。
【0091】
第2成分f2Xは、人HおよびベビーカートBについては、比較的広がりを持った分布を持つ。これは、人Hは、服装、年齢、性別などによって、この値がばらつくためであり、ベビーカートBでは、これにバッグがかけられたり、買い物かごが付けられたりするために、値がばらつくことになる。これに比べて、車椅子WやショッピングカードSでは、第2成分のばらつきは小さい。第2成分は、対象の水平な2次元断面形状のアスペクト比に相当する。
【0092】
このような特徴ベクトルは、上述したような特徴ベクトルに対する一般的な要件をいずれも満たしている。
【0093】
すなわち、測定サンプルについては、上述したように、まず、生の測定サンプル間で内挿処理をしているために、仮に、オクルージョンにより対象の一部が影になったとしても、すなわち、生の測定サンプルが存在しない領域があっても、そのことが、特徴ベクトルに与える影響が緩和される。
【0094】
さらに、上述したような前処理を施すことで、測定サンプルが均一に分布することとしているので、特徴ベクトルは、レーザレンジファインダからの距離に独立なものとなり、さらに、第1成分および第2成分は、対象の向きに対しても独立である。
【0095】
なお、特徴ベクトルは、対象の向きに依存せず、かつ、対象の形状の特徴をパラメータで表現したものであれば、上記のような特定の水平面についての断面でのサイズやアスペクト比に相当するパラメータに限定されない。たとえば、レーザレンジファインダの測距を行う水平面の個数を増やした場合には、そのような他の水平面の形状や、さらには、鉛直方向での形状の変化等を考慮に入れることも可能である。したがって、特徴ベクトルは、対象の向きに依存しない対象の形状を表現する複数のパラメータの列として定義される。
【0096】
図7は、図1に示した例において、人HとベビーカートBとが、4つのレーザーレンジファインダ10.1〜10.4により測距される様子を示す概念図である。
【0097】
図8は、図7に示した場合において、対象X(人H)および対象Y(ベビーカートB)についての特徴ベクトルを示す概念図である。
【0098】
図7に示すような測距により、図8において、黒点で示すような測距データが得られたものとする。
【0099】
なお、図8では、生の測距データを示しているので、たとえば、ベビーカートBについては、測定サンプルの欠けた領域がある。ただし、このような領域についても、上述したような前処理後の測定サンプルには、内挿されたデータが生成される。
【0100】
対象X(人H)には、NrX個のサンプルがあり、対象Y(ベビーカートB)には、NrY個の測定サンプルがあるので、これに応じて、特徴ベクトルの第1成分がそれぞれ算出される。
【0101】
さらに、対象Xについては、固有値v1Xおよびv0Xが得られ、対象Yについては、固有値v1Yおよびv0Yが得られるので、これらに基づいて、特徴ベクトルの第2成分がそれぞれ算出される。
(形状に基づく分類のための事前確率)
まず、形状に特徴に基づいた対象の分類を実行する第1段階として、フィッシャーの線型判別(FLD : Fisher Linear Discriminant)を用いる。
【0102】
フィッシャーの線型判別自体は、周知なものであり、たとえば、以下の文献にも開示がある。
【0103】
文献1:R. O. Duda, P. E. Hart, and D. G. Stork, Pattern Classification, 2nd ed. Newyork Wiley, 2001
特徴ベクトルfXに対するフィッシャーの線型判別関数gは、以下のような形式に表現される。
【0104】
【数6】
ここで、wは、重みベクトルであり、bは重みしきい値である。
【0105】
たとえば、分類に含まれるクラスを、クラスeiとクラスejとで表現する。以下の関係が成り立つのであれば、特徴ベクトルは、クラスeiが割り当てられる。
【0106】
【数7】
分類のための事前確率を得るために、フィッシャーの線型判別関数のトレーニングにおいて得られた各クラスの線型判別関数値に正規分布をフィッティングする。
【0107】
図9は、判別関数値について、それぞれのクラスH,W,S,Bの正規分布を示す図である。
【0108】
図9において、たとえば、一点鎖線で示されるような判別関数値を有する対象が観測されたとする。
【0109】
この場合、このようなグラフから、事前確率計算部5624は、対象の分類の事前確率として、対象がベビーカートBである確率P(B)、対象が人Hである確率P(H)、対象が車椅子Wである確率P(W)を、それぞれ、得ることができる。
【0110】
なお、以上の説明では、フィッシャーの線型判別関数を例にとって説明したが、判別関数としては、これに限定されず、特徴ベクトルから、対応する対象がいずれのクラスに属するかを確率として得られるものであれば、他の判別関数を用いることも可能である。
【0111】
(前処理および同期状態の検知)
以下では、CQ検知部5626が、一緒に移動する対象を特定し、同期状態を検知するために、2つの対象について、速度ベクトルおよび間隔ベクトルの関係が調べる方法について説明する。
【0112】
ここで、同期状態には、横並列移動(side by side)と縦列移動(tandem)とがある。
【0113】
図10は、このような同期状態の特定を実行する対象をモデル化して示す図である。
【0114】
図10に示されるように、3つの対象X,Y,Zが、存在するとする。対象Xは、対象Yの後ろに従って動いており、対象Zは、対象Xと隣り合って移動しているものとする。
【0115】
このとき、速度ベクトルおよび間隔ベクトルを以下のように定義する。
【0116】
【数8】
そこで、まず、実測された測距データから、各対象の速度ベクトルおよび間隔ベクトルを取得する手続きについて説明する。
【0117】
追跡処理により得られた対象Xの中心位置の時系列データC0X[t]={c0X[t]}から、スムージング処理された位置の時系列データCX[t]={cX[t]}を以下のような手続きで算出する。
【0118】
すなわち、ノイズの影響を低減するために、以下のようなローパスフィルタによる畳み込み(コンボリューション)演算を実行する。
【0119】
【数9】
さらに、所定の時間間隔、たとえば、Δt=100msecごとに、以下のような平均化を実行し、さらに、スムージングの効果を上げるために、2時間間隔分(2Δt)ごとに速度ベクトルを計算する。
【0120】
【数10】
一方、間隔ベクトルは、スムージング後の位置の各時刻における位置、たとえば、位置cX[t]と位置cY[t]の差として計算される。
【0121】
このようにして計算された速度の大きさは、後に説明する実環境でのテストでは、平均950mm/secで、分散340mm/secであった。
【0122】
以上のようにして、速度ベクトルおよび間隔ベクトルが所定の時間間隔ごとに算出されると、これに基づいて、以下のようにして、同期状態が判定される。
【0123】
以下のような判定は、2つの対象が所定の距離d0以内に存在しており、かつ、それらの速度ベクトルの大きさが所定の大きさV0以上であるような対象のペアに対して実行される。
【0124】
図10に示すようなモデルでは、以下のような条件が成り立つことを意味する。
【0125】
【数11】
図11は、図1で示した例において、このような距離d0以内の範囲で移動する2つの対象について、測距データ(エッジ情報)を示す概念図である。
【0126】
ここでは、一例として、距離d0を1mとし、大きさV0を75mm/secであるものとする。
【0127】
図10においては、対象Xと対象Yとは、同一の方向に移動しているので以下のような式(3)の関係が成り立つ。
【0128】
【数12】
上述した所定の距離の範囲内に存在する2つの対象について、この式(3)のような関係が2つの対象間になり立てば、それらの対象は、一緒に移動しているといえる。
【0129】
このような移動をする2つの対象の組み合わせは、横並列移動(たとえば、H−Hのペア)または縦列移動(たとえば、H−SのペアまたはH−Bのペア)であるので、さらに、2つの対象の間の相対位置を調べれば、いずれの移動モードであるのかが特定できる。
【0130】
たとえば、図10の対象Xと対象Yについては、対象Yの後ろを対象Xが同期して移動している縦列移動モードであるので、対象Xについては、間隔ベクトルdXYは、速度ベクトルVXおよびVYと同方向を向いているので、以下の式(4)が成り立つ。
【0131】
【数13】
このように、対象Xが、他の対象Yの後ろ側を一緒に移動している縦列移動モードを、特に、後方縦列移動モード(記号Rで表す)と呼ぶ。
【0132】
一方、対象Yを基準に式(4)と同様の値を計算すると、間隔ベクトルdYXは、速度ベクトルVXおよびVYと逆方向を向いているので、以下の式(4)´が成り立つ。
【0133】
【数14】
このように、対象Yが、他の対象Xの前側を一緒に移動している縦列移動モードを、特に、前方縦列移動モード(記号Fで表す)と呼ぶ。ただし、分類の判別にあたっては、その絶対値も使用される。
【0134】
また、図10において、対象Xと対象Zとは、横並列移動しているので、間隔ベクトルdXZは、速度ベクトルVXおよびVZと垂直方向を向いているので、以下の式(5)が成り立つ。
【0135】
【数15】
したがって、対象間の距離、対象の移動速度、および上述した式(3)〜(5)の関係をもとにすれば、2つの一緒に移動する対象が、横並列移動モードであって、本実施の形態では、H−Hペアに対応するのか、前方縦列移動モードまたは後方縦列移動モードであって、H−SペアまたはH−Bペアであるのかを特定することが可能となる。
【0136】
(同期状態の判別条件)
なお、現実には、対象は、独立に加速したり、減速したり、あるいは、間隔を変えたりが可能であるので、式(3)〜(5)は、厳密に0または1となることはない。
【0137】
そこで、CQ検知部5626は、式(3)および式(4)(または式(4)´の絶対値)が、ともに、たとえば、0.8以上であれば、そのような2つの対象は、縦列移動モードで移動しており、H−SペアまたはH−Bペアに相当すると判定する。なお、式(4)がなりたつか、式(4)´がなりたつかにより、後方縦列移動モードまたは前方縦列移動モードであるかが判定される。
【0138】
一方、式(5)の値は、人間同士の移動の相対関係で決まるため、縦列移動モードほど、明確な範囲の値をとることがない。そこで、以下の説明では、CQ検知部5626は、式(3)の値が0.8以上であるが、式(4)(または式(4)´の絶対値)が、0.8未満の対象のペアについては、横並列移動モードであって、本実施の形態では、H−Hペアであるものと判別することとする。
【0139】
そして、上記いずれの場合にも該当しない場合は、CQ検知部5626は、対象が独立して移動している状態であると判断する。
【0140】
(事前確率と同期状態(移動モード)との組み合わせによる判別)
対象の分類のクラスを記号eで表し、クラスeは、E={H,W,S,B}のいずれかを意味するものとする。
【0141】
また、同期状態を記号cqで表し、同期状態cqは、{D,S,F,R}のいずれかを意味するものとする。ここで、記号Dは、対象が独立して移動している状態であり、記号Sは、横並列移動モードの状態であり、記号Fは、前方縦列移動モードの状態であり、記号Rは、後方縦列移動モードの状態であることを示す。
【0142】
ベイズ則によれば、同期状態cqであるときに、対象がクラスeに属する事後確率p(e|cq)は、以下の式(6)ように表される。したがって、ラベル割当処理部5628は、対象がいずれのクラスに属するかを、式(7)により判定することが可能である。
【0143】
【数16】
ここで、事前確率P(e)については、上述した特徴ベクトルから導出でき、尤度P(cq|e)については、事前に実験的に複数の対象の実測結果に基づいて、定めておくことが可能である。
【0144】
図12は、以上説明した追跡モジュール部5610および識別処理モジュール5620が実行する処理を説明するためのフローチャートである。
【0145】
図12を参照して、処理が開始されると、追跡モジュール部5610は、パーティクルを初期化する(S100)。ここでは、追跡モジュール部5610は、全ての(特に限定されないが、たとえば、400個)パー ティクルを状態空間に均等にばら撒く。ただし、状態空間は、レーザーレンジファインダ10.1〜10.4で検出可能な領域に対応する。
【0146】
続いて、追跡モジュール部5610は、変数mを初期化する(m=1)(S102)。ただし、変数mは、状態空間に配置されたパーティクルを識別するための変数である。
【0147】
さらに、追跡モジュール部5610は、m番目のパーティクルが表わしている時刻t−1の対象Xの状態smX[t−1]と、パーティクルの重みπmX[t−1]と、動作モデルとから次の状態smX[t]を求める。
【0148】
ただし、上述のとおり、mはパーティクルを個別に識別するための添え字である。
【0149】
動作モデルについては、線形な移動にガウシアンノイズを組み合わせたモデルを用いる。その具体的な例については、上述したとおりである。
【0150】
続いて、追跡モジュール部5610は、変数mをイクリメントする(S106)。そして、変数mが最大値(現在のパーティクルの総数)を超えているかどうかを判断する(S108)。つまり、すべてのパーティクルについて次の状態smX[t]を求めたかどうかを判断する。
【0151】
ステップS108で“NO”であれば、つまり変数mが最大値以下であれば、ステップS104に戻って、次のパーティクルm(←m+1)についての次の状態smX[t]を求める。
【0152】
一方、ステップS081で“YES”であれば、つまり変数mが最大値を超えていれば、すべてのパーティクルmについての次の状態smX[t]を求めたと判断して、追跡モジュール部5610は、ステップS110で、記憶装置54から測距データに基づく占有情報(センサデータと称す)を読み取る。
【0153】
さらに、追跡モジュール部5610は、パーティクルm毎に、時刻tのセンサデータr[t]と状態との尤度を計算する。つまり、ステップS104で推定した状態smX[t]と、センサデータに基づく実際の状態との類似度を算出し(S112)、重みπmX[t]を求める(S114)。
【0154】
尤度については、上述したとおりである。
【0155】
また、ステップS114においては、追跡モジュール部5610は、各パーティクルの重みπmX[t]を、ステップS112で求めた尤度p(r[t]|smX[t])の高さに比例させて求める。たとえば、尤度p(r[t]|smX[t])の最も高いパーティクルから順に、重みπmX[t]を線形的に変化するように決定してもよいし、一定の閾値毎に、重みπmX[t]を段階的に変化するように決定してもよい。
【0156】
続いて、すべてのパーティクルが表わす人の状態smX[t]と重みπmX[t]とから、追跡モジュール部5610は、現在の対象の状態を推定する。特に限定されないが、たとえば、2σπ以上の重みπmX[t]を持つパーティクルmが表わす対象の状態smX[t]を利用して、その平均として現在の対象の状態を推定する。ただし、σπは全パーティクルmの重みπmX[t]についての標準偏差である。
【0157】
以上のようにして、現在までの対象の状態の推定が完了した時点で、識別処理モジュール5620が、対象を分類して、各対象にラベルを割り当てる(S118)。この分類の処理については、後述する。
【0158】
そして、追跡モジュール部5610は、ステップS1116での現在の対象の状態についての推定結果から、パーティクルを重点的にばら撒く位置(領域)と、消去する パーティクルとを決定し、パーティクルのばら撒きと消去とにより復元抽出して、処理をステップS102に復帰させる。つまり、リサンプリング処理が実行される。
【0159】
図13は、ステップS118において、識別処理モジュール5620が実行する各対象へのラベルの割り当て処理を説明するためのフローチャートである。
【0160】
図13を参照して、まず、特徴抽出演算部5622が、測定されたエッジ情報に基づいて、対象の水平な2次元断面形状のサイズと、対象の水平な2次元断面形状のアスペクト比とを表す特徴ベクトルを抽出する(S200)。
【0161】
次に、予め設定された線型判別関数に基づいて、事前確率計算部5624が、特徴ベクトルから得られる判別関数値に基づき、対象が分類の各クラスに属する確率を表す事前確率を計算する(S202)。
【0162】
次に、CQ検知部5626が、複数の対象のうち、所定の距離の範囲内にあり、かつ所定の大きさ以上の速度で移動する対象のペアについて、対象の速度ベクトルおよび間隔ベクトルに基づいて、同期状態を分類する(S204)。
【0163】
次に、ラベル割当処理部5628が、ステップ202に求められた事前確率と、予め実験的に求められている対象のクラスに対する同期状態についての尤度に基づいて、事後確率を求めることで、もっとも事後確率の高いクラスのラベルを対象に割り当てる(S206)。
【0164】
このようにして、パーティクルフィルタを適用して、対象を追跡することができ、特徴ベクトルから対象の識別が可能となる。ただし、1つの対象に対して1のパーティクルフィルタが必要であるため、複数の対象を同時に追跡する場合には、同じ数だけのパーティクルフィルタが必要である。
(実験結果)
以下、以上説明した追跡および識別処理の正確さおよび整合性を実地にチェックした結果について説明する。
【0165】
実験は、ショッピングセンターの入り口ホールにおいて、平日の15時から16時の間で実施された。入口ホールは、バッグ持ったり、カートを押したりする多くの顧客が、行き来する場所である。
【0166】
追跡を実施した領域(観測領域)は、7.5m×8mの矩形領域である。この領域の4隅に、4つのポールを立て、図2に示したように、各ポールにおいて床から高さ52cmと87cmの位置にレーザレンジファインダを固定した。特に、床から52cmの高さは、対象を区別しやすい断面形状が測定できる高さとして設定されたものである。
【0167】
レーザレンジファインダのサンプリングレートは、40Hzであり、角度分解能は、0.25度である。また、レーザレンジファインダから30mmから10mまでの範囲が、測距可能な範囲である。35分間にわたって、レーザレンジファインダによる測距データとともに、ビデオ画像の撮影も同時実施した。ビデオ撮影は、本実施の形態の方法でのラベルの割当の妥当性を、検証するために実施したものである。
【0168】
総数504個の対象が検知され、ビデオ画像によれば、そのうち、391個が人間(H)であり、34個が車椅子(W)であり、48個がショッピングカート(S)であり、31個がベビーカート(B)である。391人の歩行者のうち、2人、3人または4人からなる44のグループあった。
【0169】
図14は、追跡が実施された場合の1つの場面を示す図である。
【0170】
この図の中では、11個の対象が、移動しているものとして追跡されている。このうち、楕円で囲まれているのは、2人で一緒に移動している3つのグループである。あとは、2人の単独の歩行者と、1つのショッピングカートと、ベビーカートを押しながら移動している1人の歩行者がいる。
【0171】
(同期状態を考慮する前の判別結果)
以下では、まず、同期状態を考慮することなく、特徴ベクトルのみに基づいて、対象を判別した結果について説明する。
【0172】
ここでは、判別のためのトレーニングのための対象のサンプルと、実際に判別の性能を評価するための試験動作における対象のサンプルとは、異なるものとする。
【0173】
図15は、ラベルの割当の結果を示す図であり、図15(a)は、特徴ベクトルのみに基づいて、ラベルの割当を行った場合の結果を示す図である。
【0174】
すなわち、この表において、縦方向は、ビデオ画像から確認された対象に現実に割り当てられるべきラベルを示し、横方向は、試験動作において割り当てられたラベルを示す。
【0175】
したがって、試験動作における判別が100%の精度を有するときは、対角方向のみに0でない要素が現れることになる。
【0176】
ただし、図15(a)から明らかなように、特徴ベクトルだけによる判別でもある程度までの判別は可能なものの、現実には、誤ってラベルが割り当てられる場合が相当割合で存在する。
【0177】
図16は、判別された対象のペアについて、各ペアの判別の正確性を示す図である。
【0178】
図16によれば、H−Hペアは、44ペアのうち、35ペアが正しく判別されている。
H−Sペアは、44ペアのうち、43ペアが正しく判別されている。H−Bペアは、24ペアのうち、23ペアが正しく判別されている。
【0179】
したがって、判別ミスは主として、H−Hペアにより発生している。これは、H−Hペアでは、移動速度が極端に小さかったり、あるグループが立ち止まり、方向を変えて、別のグループと合流するというようなことがおこったりするからである。
【0180】
これに対して、H−SペアやH−Bペアは、動作がより規則的であるので、より高い割合で、正しく判別されている。
【0181】
(同期状態を考慮した後の判別結果)
図15(b)は、特徴ベクトルと同期状態との双方を考慮して、ラベルの割当を行った結果を示す図である。
【0182】
同期状態を考慮することで、人Hに対する判別は、成功率が60%から95%まで、向上している。また、車椅子Wについての成功率も、74%から81%まで向上している。
【0183】
特徴ベクトルのみを考慮した場合は、人Hや車椅子Wは、ベビーカートBと誤認識される場合多かったものの、同期状態を考慮することで、このような誤認識が抑制されていることがわかる。
【0184】
以上説明したように、計測演算装置100のように、複数の距離計測センサにより、観測領域内で移動する対象を追跡し、その対象が分類のいずれのクラスに属するかを判別する際に、対象の大きさや形状を反映した特徴ベクトルを導入すると、オクルージョンに対してロバストであって、対象の向きに対しても独立に判別が可能となる。
【0185】
また、このような特徴ベクトルによる判別を事前確率として、2つの対象の移動の同期状態による尤度を考慮した事後確率により判別を行うことで、判定の精度を向上させることが可能となる。
【0186】
今回開示された実施の形態は、本発明を具体的に実施するための構成の例示であって、本発明の技術的範囲を制限するものではない。本発明の技術的範囲は、実施の形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲の文言上の範囲および均等の意味の範囲内での変更が含まれることが意図される。
【符号の説明】
【0187】
10.1〜10.4 レーザーレンジファインダ、52 ドライブ装置、54 不揮発性記憶装置、56 CPU、58 ROM、60 RAM、64 外部記録媒体、66 バス、100 計測演算装置、5602 データキャプチャ処理部、5604 キャプチャデータ記録処理部、5610 追跡モジュール部、5612 更新計算部、5614 重み割当計算部、5616 状態評価計算部、5618 リサンプリング計算部、5620 識別処理モジュール、5622 特徴抽出演算部、5624 事前確率算出部、5626 CQ検知部、5628 ラベル割当処理部。
【技術分野】
【0001】
この発明は計測システムおよび計測方法に関し、特にたとえば、計測対象の位置および形状を追跡しつつ、計測対象を特定するための、計測システムおよび計測方法に関する。
【背景技術】
【0002】
近年のロボット技術の発展により、これからのロボットには人と共存し協調する役割が求められている。そのためにはロボットに様々な機能、たとえば、環境をロボット自らが判断して理解する機能が必要になる。
【0003】
また、環境知能の技術分野では、ユーザに提供されるサービスを促進し、利便性を最大化するように、環境上のセンサ等が設計される必要がある。その目的のために、健常者のユーザだけでなく、特定のニーズを持ったユーザも広範囲に考慮する必要がある。高齢者またはハンディキャップをもつユーザが、歩行器、手押し車、車椅子などの様々な補助具を使用している場合、たとえば、ショッピングセンターなどにおいては、ユーザを階段またはエスカレーターの代わりに、エレベータを使用するように誘導するというようなニーズも発生する可能性がある。このような場合は、ある環境中で、動いている対象を識別する技術が必要となる。
【0004】
したがって、歩行者検知およびそのトラッキングは広い適用領域において、ポピュラーな研究トピックとなっている。
【0005】
ここで、このような歩行者検知およびそのトラッキングのための方法としては、大きくは、画像認識ベースの技術と、距離センサベースの技術とに分けられる。
【0006】
ここで、距離センサベースの技術は、一般には、混雑している環境での計測も比較的正確に行え、また、直射日光がさすような環境でも安定して計測できる利点がある。このような距離センサベースの技術では、所定の空間内で、そこを移動する人間の位置を追跡するための技術として、距離センサのデータに基づいて、人を検知し追跡する計測装置の一例が、たとえば、特許文献1に開示されている。
【0007】
この特許文献1では、計測装置は、コンピュータを含み、コンピュータには複数のレーザーレンジファインダが接続される。複数のレーザーレンジファインダは、 或る環境に配置され、コンピュータは、レーザーレンジファインダの検出結果に基づいて人を追跡する。たとえば、コンピュータは、パーティクルフィルタを用いて、人の位置および移動速度を推定し、胴体および両腕を3つの円で組み合わせた人形状モデルを用いて、人の身体の方向と腕の動きとを推定する。同様の技術内容は、非特許文献1にも開示されている。
【0008】
また、レーザレンジファインダにより、人間を検知およびトラッキングするに際して、1つの位置に配置されるポールごとに3つ高さのレベル、頭部の高さ、上体の高さ、および脚部の高さに相当するレーザレンジファインダを設置する技術が、非特許文献2に開示されている。
【0009】
また、カルマンフィルタを用いて、人間の脚を追跡し、人間のパターンと人間以外のパターンとを判別する技術が、非特許文献3に開示されている。
【先行技術文献】
【特許文献】
【0010】
【特許文献1】特開2009−168578号公報
【非特許文献】
【0011】
【非特許文献1】D. F. Glas, T. Miyashita, H. Ishiguro, and N. Hagita, ”Laser−based tracking of human position and orientation using parametric shape modeling”, Advanced Robotics, vol. 23, no. 4, pp. 405−428, 2009
【非特許文献2】O. M. Mozos, R. Kurazume, and T. Hasegawa, “Multi−Part people detection using 2D range data”, Int. Journal of Social Robotics, vol. 2, no. 1, pp. 31−40, 2010
【非特許文献3】K. O. Arras, S. Grzonka, M. Luber, and W. Burgard, “Efficient people tracking in laser range data using a multi−hypothesis leg−tracker with adaptive occlusion probabilities,” in Proc. of IEEE Int. Conf. on Robotics and Automation, 2008, pp. 1710−1715
【発明の概要】
【発明が解決しようとする課題】
【0012】
ただし、特許文献1に開示された技術は、距離計測センサによって、被験者の位置、移動速度、身体の向きおよび腕の位置の推定するための技術であって、距離センサのデータに基づいて、検出された対象を識別することを目的としたものではない。
【0013】
また、非特許文献3のような技術はあるものの、移動する対象が複数同時に存在し、かつ、人間および人間以外の対象が観測領域内に存在するような環境で、対象を追跡しつつ、正確に対象を識別するのは、必ずしも容易ではないという問題があった。
【0014】
本発明は、上記のような問題を解決するためになされたものであって、その目的は、距離計測センサを用いて、観測領域内の移動対象を追跡しつつ、精度よく、対象を識別して分類することが可能な計測システムおよび計測方法を提供することである。
【課題を解決するための手段】
【0015】
この発明の1つの局面に従うと、観測領域内で対象の移動を追跡し、対象を分類するための計測システムであって、対象までの水平方向の距離を計測可能に配置された複数の距離計測手段と、複数の距離計測手段によって対象を計測した計測結果を取得する取得手段と、取得手段によって取得された計測結果から、対象の位置および移動速度を推定する追跡手段と、計測結果に基づいて、対象の水平な2次元断面形状の特徴を表現する特徴ベクトルを算出する特徴抽出手段と、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスのうちのいずれのクラスに属するかを判別する判別手段とを備え、判別手段は、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスに属する確率を事前確率として算出する事前確率算出手段と、対象の移動速度および対象間の距離に基づいて、対象が他の対象と同期して移動している同期状態であるかを判別し、事前確率と、同期状態にある対象がクラスに対応する尤度とに基づいて、対象が属するクラスを判別する同期状態検知手段とを含む。
【0016】
好ましくは、特徴ベクトルは、対象の水平な2次元断面形状のサイズと対象の水平な2次元断面形状のアスペクト比とを表現する、請求項1記載の計測システム。
【0017】
好ましくは、同期状態検知手段は、対象のペアの速度ベクトルのなす角と、対象のペアのうちの一方の対象の速度ベクトルと対象のペアの対象間の間隔ベクトルとのなす角とに基づいて、対象のペアが同期状態であるかを判別する。
【0018】
好ましくは、特徴抽出手段は、取得手段によって取得された同時刻における複数の計測結果に所定の間隔のデータを内挿する手段を有する。
【0019】
この発明の他の局面に従うと、観測領域内で対象の移動を追跡し、対象を分類するための計測方法であって、対象までの水平方向の距離を計測可能に配置された複数の距離計測手段によって対象を計測した計測結果を取得するステップと、取得された計測結果から、対象の位置および移動速度を推定するステップと、計測結果に基づいて、対象の水平な2次元断面形状の特徴を表現する特徴ベクトルを算出するステップと、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスのうちのいずれのクラスに属するかを判別するステップとを備え、判別するステップは、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスに属する確率を事前確率として算出するステップと、対象の移動速度および対象間の距離に基づいて、対象が他の対象と同期して移動している同期状態であるかを判別し、事前確率と、同期状態にある対象がクラスに対応する尤度とに基づいて、対象が属するクラスを判別するステップとを含む。
【発明の効果】
【0020】
この発明によれば、複数の距離計測手段により、観測領域内で移動する対象を追跡し、その対象が分類のいずれのクラスに属するかを判別する際に、対象の形状を反映した特徴ベクトルに基づいて判別するので、オクルージョンに対してロバストであって、対象の向きに対しても独立に判別が可能となる。
【0021】
また、この発明によれば、特徴ベクトルによる判別を事前確率として、2つの対象の移動の同期状態による尤度を考慮した事後確率により判別を行うことで、判定の精度を向上させることが可能となる。
【図面の簡単な説明】
【0022】
【図1】実施の形態1の計測システム1000の構成を説明するための図である。
【図2】レーザーレンジファインダの検出高さのレベルと検出対象とを示す図である。
【図3】計測演算装置100のハードウェア構成を説明するためのブロック図である。
【図4】本実施の形態の計測演算装置100において、上述したCPU56がソフトウェアを実行するにより実現する機能を示す機能ブロック図である。
【図5】観測領域に複数の人が存在し、かつ、1つのレーザレンジファインダにより観測がなされる場合を示す概念図である。
【図6】同時に追跡された対象の数と、その観測がなされた時間間隔との関係を示す図である。
【図7】、人HとベビーカートBとが、4つのレーザーレンジファインダ10.1〜10.4により測距される様子を示す概念図である。
【図8】対象X(人H)および対象Y(ベビーカートB)についての特徴ベクトルを示す概念図である。
【図9】判別関数値について、それぞれのクラスH,W,S,Bの正規分布を示す図である。
【図10】同期状態の特定を実行する対象をモデル化して示す図である。
【図11】距離d0以内の範囲で移動する2つの対象について、測距データ(エッジ情報)を示す概念図である。
【図12】追跡モジュール部5610および識別処理モジュール5620が実行する処理を説明するためのフローチャートである。
【図13】識別処理モジュール5620が実行する各対象へのラベルの割り当て処理を説明するためのフローチャートである。
【図14】追跡が実施された場合の1つの場面を示す図である。
【図15】ラベルの割当の結果を示す図である。
【図16】判別された対象のペアについて、各ペアの判別の正確性を示す図である。
【発明を実施するための形態】
【0023】
以下、本発明の実施の形態の計測システムについて、図に従って説明する。なお、以下の実施の形態において、同じ符号を付した構成要素および処理工程は、同一または相当するものであり、必要でない場合は、その説明は繰り返さない。
【0024】
(実施の形態1)
図1は、実施の形態1の計測システム1000の構成を説明するための図である。
【0025】
図1では、たとえば、ショッピングセンターの一部の領域に、4つの距離計測センサ10.1〜10.4を配置した状態を示す。また、計測システム1000においては、対象の追跡および特定処理を実行するための計測演算装置100も配置される。ここで、距離計測センサとしては、非接触で二点間の距離を計る計測機器であればよいが、以下では、距離計測センサ10.1〜10.4は、それぞれ、レーザーレンジファインダであるものとして説明する。
【0026】
図1において、所定の観測領域をショッピングセンターとしたことにより、人間(以下、記号Hで表す)が移動時に使用する補助具として、ベビーカート(以下、記号Bで表す)、ショッピングカート(以下、記号Sで表す)、車椅子(以下、記号Wで表す)を想定する。
【0027】
図1においては、人間HがベビーカートBを押している状態、人間HがショッピングカートSを押している状態、人間Hが他の人間Hと並んで歩行している状態とが例示されている。
【0028】
また、計測演算装置100は、特に限定されないが、汎用のコンピュータで実現することが可能であり、レーザーレンジファインダ10.1〜10.4とは、所定の規格のインターフェイスを介して接続される。図1の例では、1台の計測演算装置100にすべてのレーザーレンジファインダ10.1〜10.4を接続するようにしてあるが、LANのようなネットワークで接続される2台以上のコンピュータで処理を分担するようにしてもよい。その場合には、たとえば、いずれか1台のコンピュータが統括コンピュータとして機能すればよい。
【0029】
さらに、図1の例では、所定の観測領域における対象を追跡するために、4つのレーザーレンジファインダ10.1〜10.4を設けるようにしてあるが、これは単なる例示である。したがって、領域の大きさ、形状、障害物の位置や個数に応じて、レーザーレンジファインダの数は適宜変更される。レーザーレンジファインダ10.1〜10.4は、建物内の所定の観測領域内の移動対象を検出可能な位置に配置され、レーザーレンジファインダ 10.1〜10.4の各々は、少なくとも2つ以上のレーザーレンジファインダ10.1〜10.4の検出領域が重なるように配置される。
【0030】
レーザーレンジファインダ10.1〜10.4は、レーザーを照射し、物体に反射して戻ってくるまでの時間から当該物体ための距離を計測するものである。たとえば、トランスミッタ(図示せず)から照射したレーザーを回転ミラー(図示せず)で反射させて、前方を扇状に一定角度(たとえば、0.5度)ずつスキャンする。
【0031】
ここで、レーザーレンジファインダ10.1〜10.4の計測範囲は、半径Rの半円形状(扇形)で示される。つまり、レーザーレンジファインダ10.1〜10.4は、その正面方向を中心とした場合に、左右について所定の角度、たとえば、90°の方向を所定の距離(R)以内で計測可能である。
【0032】
また、使用しているレーザーは、日本工業規格 JIS C 6802 「レーザー製品の安全基準」におけるクラス1レーザーであり、人の眼に対して影響を及ぼさない安全なレベルであるものとする。
【0033】
[ハードウェアブロック]
図2は、レーザーレンジファインダの検出高さのレベルと検出対象とを示す図である。
【0034】
図2に例示されるように、レーザーレンジファインダ10.1〜10.4は、人間が移動する際の補助具であるベビーカートB、ショッピングカートS、車椅子Wを識別するために、床から52cmの高さのレベルL2での距離測定を行う。さらに、レーザーレンジファインダ10.1〜10.4は、移動対象(歩行者)のトラッキングのために、床から87cmの高さのレベルL1での距離測定を行う。この高さL1は、いずれの補助具についてもその上端に近いレベルであるとともに、対象となる歩行者の胴体を検出可能とするために設定された高さであり、たとえば、日本人の成人の平均身長から算出される。したがって、計測システム1000を設ける場所(地域ないし国)等に応じて、レーザーレンジファインダ10.1〜10.4の測距の高さL1は、適宜変更されてもよい。
【0035】
ここで、図示は省略するが、計測演算装置100の計測結果は、たとえば、被験者とコミュニケーションするロボット(コミュニケーションロボット)などに与えられ、この計測結果を用いて、コミュニケーションロボットは被験者とのコミュニケーションを円滑に実行する、というような構成とすることが可能である。たとえば、コミュニケーションロボットは、被験者の位置を確認して、被験者に近づき、身振りや手振りのような動作(行動)および音声の少なくとも一方によるコミュニケーション行動を実行する。また、被験者が移動する場合には、コミュニケーションロボットはその速度で被験者に並走し、移動しながらコミュニケーションを取ることも可能である。
【0036】
図3は、計測演算装置100のハードウェア構成を説明するためのブロック図である。
【0037】
図3に示されるように、計測演算装置100は、外部記録媒体64に記録されたデータを読み取ることができるドライブ装置52と、バス66に接続された中央演算装置(CPU:Central Processing Unit)56と、ROM(Read Only Memory) 58と、RAM(Random Access Memory)60と、不揮発性記憶装置54と、レーザレンジファインダ10.1〜10.4からの測距データを取込むためのデータ入力インタフェース(以下、データ入力I/F)68とを含んでいる。
【0038】
外部記録媒体64としては、たとえば、CD−ROM、DVD−ROMのような光ディスクやメモリカードを使用することができる。ただし、記録媒体ドライブ52の機能を実現する装置は、光ディスクやフラッシュメモリなどの不揮発性の記録媒体に記憶されたデータを読み出せる装置であれば、対象となる記録媒体は、これらに限定されない。また、不揮発性記憶装置54の機能を実現する装置も、不揮発的にデータを記憶し、かつ、ランダムアクセスできる装置であれば、ハードディスクのような磁気記憶装置を使用してもよいし、フラッシュメモリなどの不揮発性半導体メモリを記憶装置として用いるソリッドステートドライブ(SSD:Solid State Drive)を用いることもできる。
【0039】
このような計測演算装置100の主要部は、コンピュータハードウェアと、CPU56により実行されるソフトウェアとにより実現される。一般的にこうしたソフトウェアは、マスクROMやプログラマブルROMなどにより、計測演算装置100製造時に記録されており、これが実行時にRAM60に読みだされる構成としてもよいし、ドライブ装置52により記録媒体64から読取られて不揮発性記憶装置54に一旦格納され、実行時にRAM60に読みだされる構成としてもよい。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから、一旦、不揮発性記憶装置54にコピーされ、不揮発性記憶装置54からRAM60に読出されてCPU56により実行される構成であってもよい。
【0040】
図3に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分の1つは、不揮発性記憶装置54等の記録媒体に記憶されたソフトウェアである。
【0041】
[システムの機能ブロック]
以下に説明するとおり、本実施の形態の計測演算装置100では、コンピュータがレーザーレンジファインダ10.1〜10.4からの出力(距離データ)に基づいて、パーティクルフィルタを用いて、対象の位置および速度を推定する。
【0042】
図4は、本実施の形態の計測演算装置100において、上述したCPU56がソフトウェアを実行するにより実現する機能を示す機能ブロック図である。
【0043】
なお、図4に示した機能ブロックのうちのCPU56が実現する機能ブロックとしては、ソフトウェアでの処理に限定されるものではなく、その一部または全部がハードウェアにより実現されてもよい。
【0044】
図4を参照して、レーザーレンジファインダ10.1〜10.4からの測距信号は、データキャプチャ処理部5602により制御されてデジタルデータとして入力され、キャプチャデータ記録処理部5604により、たとえば、不揮発性記憶装置54のような記憶装置に格納される。
【0045】
後に詳しく説明するように、計測演算装置100は、さらに、パーティクルフィルタ法を用いて対象の位置の追跡処理を実行するための追跡モジュール部5610と、対象を識別して特定する処理を実行するための識別処理モジュール5620とを含む。
【0046】
追跡モジュール部5610は、対象の時刻tの状態を、対象の動作モデルと前時刻(t−1)の状態およびパーティクルの重みとに基づいて、予測する更新計算部5612と、測距データを記憶装置54から読みだして、パーティクル毎に時刻tの測距データと状態との尤度を計算し、各パーティクルの重みを尤度に基づいて割り当てる重み割当計算部5614と、すべてのパーティクルが表わす対象の状態と重みとから、現在の対象の状態を推定する状態評価計算部5616と、推定された状態と重みに基づいて、パーティクルのリサンプリングを実行するリサンプリング計算部5618とを含む。このような追跡モジュール部5610の動作については、後に、詳しく説明する。
【0047】
識別処理モジュール5620は、測距データから、各対象について、後に説明する特徴ベクトルを抽出する特徴抽出演算部5622と、抽出された特徴ベクトルに基づいて対象の分類のための事前確率を算出する事前確率算出部5624と、対象間の距離と対象の速度ベクトルとに基づいて、同期状態(CQ:Coherence Quality)を検知するCQ検知部5626と、検知された同期状態に応じて、対象に対していずれの分類に属するかのラベルを割り当てるラベル割当処理部5628とを含む。
【0048】
(対象の位置の検出および追跡)
以下では、上述した人を含む対象の位置の検出とその追跡処理について説明する。
【0049】
本アルゴリズムでは、1つの対象ごとに、パーティクルフィルタと呼ばれるパーティクルの集合を1つ関連付けることにより追跡(トラッキング)を実行する。
【0050】
このような追跡においては、対象の観測領域への進入、対象の連続的な追跡、対象の観測領域からの退出のイベントを検知する必要がある。
【0051】
対象の観測領域への侵入は、前時刻までの測距データによる背景モデルと現在のセンサデータとの比較により検知される。背景モデルも、時間とともに更新される。このようにして、前景データ(現時点の対象のデータ)が特定され、このような前景データから、連続したセグメント、すなわち、対象の候補となるパターンが抽出され、このような候補が登録される。
【0052】
追跡の段階では、このような候補の各々に、パーティクルフィルタが割り当てられる。
【0053】
パーティクルフィルタによって、対象の候補Xについて、以下のように表現される状態sX[t]が推定される。
【0054】
【数1】
そして、上記のような対象の候補Xが、所定の期間、たとえば、0.4秒存在し続けた後に、この候補が、有効な対象として登録される。
【0055】
対象の追跡は、パーティクルフィルタを周期的に更新することにより実行される。
【0056】
このようなパーティクルフィルタによる追跡処理では、以下のようなステップが繰り返される。
【0057】
i)更新ステップ
動作モデルにしたがって、各パーティクルの状態が更新される。動作モデルは、追跡処理の対象のダイナミクスを反映したものとなる。
【0058】
ここで、人間の歩行動作は、人間は、立ち止まったり、急に歩く方向を変えたりするために、単純な線型関数や乱雑動作を表すブラウン運動によっては、近似できない。そこで、動作モデルとしては、パーティクルの状態を上述のように、位置と速度であるとした場合に、速度成分にガウスノイズを加え、このような速度にしたがって、位置が移動するとのモデルを採用する。すなわち、たとえば、以下のような式のモデルを採用する。
【0059】
【数2】
ここで、wx、wyは、平均0で、標準偏差σx、σyのガウシアンノイズである。
【0060】
ii)重み割当ステップ
尤度モデルにしたがって、各パーティクルに相対的な尤度を表す重みを割り当てる。ここで、尤度は、以下のように表される。
【0061】
【数3】
なお、尤度モデルについては、後に詳しく説明する。
【0062】
iii)状態評価ステップ
パーティクルの状態の平均として、各対象の状態が算出される。
【0063】
iv)リサンプリングステップ
システムの状態をより正確に反映させるために、パーティクルをその重み比例した確率で、復元抽出して、時刻tにおける新たなパーティクルの集合を得る。なお、リサンプリングの方法としては、SIR(Sampling Importance Resampling)法を用いることができるが、この方法に限定されるものではない。
(尤度モデル)
以下では、上述した尤度モデルについて、簡単に説明する。より詳しい説明は、たとえば、非特許文献1に開示がある。
【0064】
尤度モデルの目的は、上述した尤度を近似するモデルを提供することである。ここで、尤度を計算するに当たり、本実施の形態では、測定の結果得られるのは、複数のレーザレンジファインダによる測定データである。したがって、ロバストな尤度モデルは、センサの測定値に含まれるノイズ、オクルージョンなどに対して、ロバストな尤度の評価を与えうるものでなければならない。
【0065】
レーザレンジファインダからは、対象の位置を評価するために有用な以下のような情報を得ることができる。
【0066】
i)占有情報 : 観測領域内のある点が、ものに占められているか、あるいは、そうでないかを示す情報である。
【0067】
ii)エッジ情報 : 検出された対象のエッジに対応する輪郭線(の一部)の情報である。
【0068】
図5は、観測領域に複数の人が存在し、かつ、1つのレーザレンジファインダにより観測がなされる場合を示す概念図である。
【0069】
図5(a)は、1つのレーザレンジファインダによるスキャンの様子を示す。図5(b)は、占有情報を示す。ここで、黒で示された領域は、ここでは、人の存在のためにレーザレンジファインダからは、影領域(占有領域)とされた領域である。一方、灰色の領域は、レーザレンジファインダからは可視領域(非占有領域)とされた領域である。
【0070】
図5(c)は、エッジ情報を示す。すなわち、所定のスキャン間隔でスキャンした時に、レーザレンジファインダの測定から上記占有領域のエッジとされる点の位置情報である。
【0071】
レーザレンジファインダごとの測定により、領域が「可視領域」「影領域」「観測不能領域」に分割されることで、占有尤度が得られる。ここで、「観測不能領域」とは、そのレーザレンジファインダにとっての背景モデル外の領域である。
【0072】
ここで、影領域は、必ず、エッジの背後に存在することになる。
【0073】
上述した状態を計算するために、以下の式を用いる。
【0074】
【数4】
ここで、NSは、レーザレンジファインダの個数であり、定数pcolは、2つのパーティクルフィルタが、同一の対象を追跡しないようにするために減算される定数である。
【0075】
すなわち、基本的には、影領域にあるときの尤度は、定数psと尤度peとの和を、レーザレンジファインダについて積算することで得られる。ここで、尤度peは、観測されたエッジの背後の所定の距離の位置を中心とする正規分布である。ここでは、この所定の距離として、50cmを採用している。
【0076】
また、定数poは、可視領域にあるときの尤度を表す定数である。ここで、本来であれば、可視領域では、尤度は0とするべきであるものの、種々の誤差により、実際には、可視領域と影領域との境界は、完全に、2値的には分離できないため、演算にエラー耐性を持たせるために、一定の値を有するものとしている。これにより、パーティクルは、影領域外に存在することになっても、直ちには、消滅しない。
【0077】
また、観測領域からの対象の退出については、i)その対象に関連付けられたパーティクルが、所定の値以上に広がってしまった場合や、ii)そのパーティクルフィルタについての尤度の平均が所定の値を下回った場合には、そのパーティクルフィルタは、もはや対象を追跡していないものとして、関連する対象が、登録から削除される。
【0078】
また、後に説明するように、追跡の対象は、所定の時間、たとえば、2秒以上、観測領域内に存在すると、識別されて分類される対象となる。
【0079】
(モデリングと特徴抽出)
以下、上述したような対象の識別と分類について説明する。
【0080】
このような対象の識別のためには、レーザレンジファインダの測距データから、以下に説明するような特徴ベクトルを抽出する。
【0081】
ここで、このような識別の対象は、上述したようなショッピングセンターのような環境では、対象の形状は似通っているものの、対象の軌道は、さまざまな形状を取りうることになる。しかも、一般には、同時に検出される対象の個数に対して、レーザレンジファインダの個数は同数程度である場合が多い。
【0082】
図6は、上述したような追跡方法により同時に追跡された対象の数と、その観測がなされた時間間隔との関係を示す図である。
【0083】
後に説明する実際の実験において、所定の観測領域内では、少なくとも複数の対象が同時に追跡され、多い場合は、6から7個程度が、同時に追跡されている。
【0084】
より詳しくは、観測時間のそれぞれ、25%、29%および22%が、同時に追跡された対象がそれぞれ、1個、2個および3個の期間である。また、観測時間の24%が、同時に追跡された対象が4個以上の期間である。
【0085】
したがって、このような識別のための特徴ベクトルは、以下のような特性を有することが望ましい。
【0086】
第一に、特徴ベクトルは、オクルージョンに対してロバストであることが必要であり、かつ、対象までの距離とは、独立なものでなければならない。
【0087】
第二に、対象の軌道は、大きく変わっていく可能性があるものの、特徴ベクトルは、対象の向きとは、独立なものでなければならない。
【0088】
レーザレンジファインダの測距データをx−y平面(水平平面)に変換した時、距離分解能を100mm以下に設定すると、測距データにより得られる測定サンプル(エッジ情報)は、観測領域内のセグメント(分割領域)として把握される。さらに、以下に説明するように、特徴ベクトルとして、対象の形状の特徴を表現するものを採用するので、生の測定サンプルに対してより均一な分布となるように前処理が施される。すなわち、レーザレンジファインダが扇型にスキャンすることに伴い、同一時刻での生の測定サンプルは、主としてレーザレンジファインダからの距離に応じて、たとえば、10mmから100mmの間隔で存在する。このような場合でも、前処理後の測定サンプルは、所定の間隔、たとえば、10mmごとに1つ存在することとなるように、生の測定サンプルを線型に内挿したものを生成する。
【0089】
このような前処理後の測定サンプルを用いて、対象Xの形状を表現するパラメータにより、特徴ベクトルは、以下のように表現されるものとする。
【0090】
【数5】
したがって、第1成分f1Xは、車椅子WやベビーカートBでは、より大きな値となり、人Hについては、より小さな値となり、ショッピングカートSについては、もっとも小さな値となる。これは、図2に示すように、識別に使用される検出の高さレベルL2での断面積が、ショッピングカートSでは、もっとも小さいからである。すなわち、第1成分は、対象の水平な2次元断面形状のサイズを表現する成分である。
【0091】
第2成分f2Xは、人HおよびベビーカートBについては、比較的広がりを持った分布を持つ。これは、人Hは、服装、年齢、性別などによって、この値がばらつくためであり、ベビーカートBでは、これにバッグがかけられたり、買い物かごが付けられたりするために、値がばらつくことになる。これに比べて、車椅子WやショッピングカードSでは、第2成分のばらつきは小さい。第2成分は、対象の水平な2次元断面形状のアスペクト比に相当する。
【0092】
このような特徴ベクトルは、上述したような特徴ベクトルに対する一般的な要件をいずれも満たしている。
【0093】
すなわち、測定サンプルについては、上述したように、まず、生の測定サンプル間で内挿処理をしているために、仮に、オクルージョンにより対象の一部が影になったとしても、すなわち、生の測定サンプルが存在しない領域があっても、そのことが、特徴ベクトルに与える影響が緩和される。
【0094】
さらに、上述したような前処理を施すことで、測定サンプルが均一に分布することとしているので、特徴ベクトルは、レーザレンジファインダからの距離に独立なものとなり、さらに、第1成分および第2成分は、対象の向きに対しても独立である。
【0095】
なお、特徴ベクトルは、対象の向きに依存せず、かつ、対象の形状の特徴をパラメータで表現したものであれば、上記のような特定の水平面についての断面でのサイズやアスペクト比に相当するパラメータに限定されない。たとえば、レーザレンジファインダの測距を行う水平面の個数を増やした場合には、そのような他の水平面の形状や、さらには、鉛直方向での形状の変化等を考慮に入れることも可能である。したがって、特徴ベクトルは、対象の向きに依存しない対象の形状を表現する複数のパラメータの列として定義される。
【0096】
図7は、図1に示した例において、人HとベビーカートBとが、4つのレーザーレンジファインダ10.1〜10.4により測距される様子を示す概念図である。
【0097】
図8は、図7に示した場合において、対象X(人H)および対象Y(ベビーカートB)についての特徴ベクトルを示す概念図である。
【0098】
図7に示すような測距により、図8において、黒点で示すような測距データが得られたものとする。
【0099】
なお、図8では、生の測距データを示しているので、たとえば、ベビーカートBについては、測定サンプルの欠けた領域がある。ただし、このような領域についても、上述したような前処理後の測定サンプルには、内挿されたデータが生成される。
【0100】
対象X(人H)には、NrX個のサンプルがあり、対象Y(ベビーカートB)には、NrY個の測定サンプルがあるので、これに応じて、特徴ベクトルの第1成分がそれぞれ算出される。
【0101】
さらに、対象Xについては、固有値v1Xおよびv0Xが得られ、対象Yについては、固有値v1Yおよびv0Yが得られるので、これらに基づいて、特徴ベクトルの第2成分がそれぞれ算出される。
(形状に基づく分類のための事前確率)
まず、形状に特徴に基づいた対象の分類を実行する第1段階として、フィッシャーの線型判別(FLD : Fisher Linear Discriminant)を用いる。
【0102】
フィッシャーの線型判別自体は、周知なものであり、たとえば、以下の文献にも開示がある。
【0103】
文献1:R. O. Duda, P. E. Hart, and D. G. Stork, Pattern Classification, 2nd ed. Newyork Wiley, 2001
特徴ベクトルfXに対するフィッシャーの線型判別関数gは、以下のような形式に表現される。
【0104】
【数6】
ここで、wは、重みベクトルであり、bは重みしきい値である。
【0105】
たとえば、分類に含まれるクラスを、クラスeiとクラスejとで表現する。以下の関係が成り立つのであれば、特徴ベクトルは、クラスeiが割り当てられる。
【0106】
【数7】
分類のための事前確率を得るために、フィッシャーの線型判別関数のトレーニングにおいて得られた各クラスの線型判別関数値に正規分布をフィッティングする。
【0107】
図9は、判別関数値について、それぞれのクラスH,W,S,Bの正規分布を示す図である。
【0108】
図9において、たとえば、一点鎖線で示されるような判別関数値を有する対象が観測されたとする。
【0109】
この場合、このようなグラフから、事前確率計算部5624は、対象の分類の事前確率として、対象がベビーカートBである確率P(B)、対象が人Hである確率P(H)、対象が車椅子Wである確率P(W)を、それぞれ、得ることができる。
【0110】
なお、以上の説明では、フィッシャーの線型判別関数を例にとって説明したが、判別関数としては、これに限定されず、特徴ベクトルから、対応する対象がいずれのクラスに属するかを確率として得られるものであれば、他の判別関数を用いることも可能である。
【0111】
(前処理および同期状態の検知)
以下では、CQ検知部5626が、一緒に移動する対象を特定し、同期状態を検知するために、2つの対象について、速度ベクトルおよび間隔ベクトルの関係が調べる方法について説明する。
【0112】
ここで、同期状態には、横並列移動(side by side)と縦列移動(tandem)とがある。
【0113】
図10は、このような同期状態の特定を実行する対象をモデル化して示す図である。
【0114】
図10に示されるように、3つの対象X,Y,Zが、存在するとする。対象Xは、対象Yの後ろに従って動いており、対象Zは、対象Xと隣り合って移動しているものとする。
【0115】
このとき、速度ベクトルおよび間隔ベクトルを以下のように定義する。
【0116】
【数8】
そこで、まず、実測された測距データから、各対象の速度ベクトルおよび間隔ベクトルを取得する手続きについて説明する。
【0117】
追跡処理により得られた対象Xの中心位置の時系列データC0X[t]={c0X[t]}から、スムージング処理された位置の時系列データCX[t]={cX[t]}を以下のような手続きで算出する。
【0118】
すなわち、ノイズの影響を低減するために、以下のようなローパスフィルタによる畳み込み(コンボリューション)演算を実行する。
【0119】
【数9】
さらに、所定の時間間隔、たとえば、Δt=100msecごとに、以下のような平均化を実行し、さらに、スムージングの効果を上げるために、2時間間隔分(2Δt)ごとに速度ベクトルを計算する。
【0120】
【数10】
一方、間隔ベクトルは、スムージング後の位置の各時刻における位置、たとえば、位置cX[t]と位置cY[t]の差として計算される。
【0121】
このようにして計算された速度の大きさは、後に説明する実環境でのテストでは、平均950mm/secで、分散340mm/secであった。
【0122】
以上のようにして、速度ベクトルおよび間隔ベクトルが所定の時間間隔ごとに算出されると、これに基づいて、以下のようにして、同期状態が判定される。
【0123】
以下のような判定は、2つの対象が所定の距離d0以内に存在しており、かつ、それらの速度ベクトルの大きさが所定の大きさV0以上であるような対象のペアに対して実行される。
【0124】
図10に示すようなモデルでは、以下のような条件が成り立つことを意味する。
【0125】
【数11】
図11は、図1で示した例において、このような距離d0以内の範囲で移動する2つの対象について、測距データ(エッジ情報)を示す概念図である。
【0126】
ここでは、一例として、距離d0を1mとし、大きさV0を75mm/secであるものとする。
【0127】
図10においては、対象Xと対象Yとは、同一の方向に移動しているので以下のような式(3)の関係が成り立つ。
【0128】
【数12】
上述した所定の距離の範囲内に存在する2つの対象について、この式(3)のような関係が2つの対象間になり立てば、それらの対象は、一緒に移動しているといえる。
【0129】
このような移動をする2つの対象の組み合わせは、横並列移動(たとえば、H−Hのペア)または縦列移動(たとえば、H−SのペアまたはH−Bのペア)であるので、さらに、2つの対象の間の相対位置を調べれば、いずれの移動モードであるのかが特定できる。
【0130】
たとえば、図10の対象Xと対象Yについては、対象Yの後ろを対象Xが同期して移動している縦列移動モードであるので、対象Xについては、間隔ベクトルdXYは、速度ベクトルVXおよびVYと同方向を向いているので、以下の式(4)が成り立つ。
【0131】
【数13】
このように、対象Xが、他の対象Yの後ろ側を一緒に移動している縦列移動モードを、特に、後方縦列移動モード(記号Rで表す)と呼ぶ。
【0132】
一方、対象Yを基準に式(4)と同様の値を計算すると、間隔ベクトルdYXは、速度ベクトルVXおよびVYと逆方向を向いているので、以下の式(4)´が成り立つ。
【0133】
【数14】
このように、対象Yが、他の対象Xの前側を一緒に移動している縦列移動モードを、特に、前方縦列移動モード(記号Fで表す)と呼ぶ。ただし、分類の判別にあたっては、その絶対値も使用される。
【0134】
また、図10において、対象Xと対象Zとは、横並列移動しているので、間隔ベクトルdXZは、速度ベクトルVXおよびVZと垂直方向を向いているので、以下の式(5)が成り立つ。
【0135】
【数15】
したがって、対象間の距離、対象の移動速度、および上述した式(3)〜(5)の関係をもとにすれば、2つの一緒に移動する対象が、横並列移動モードであって、本実施の形態では、H−Hペアに対応するのか、前方縦列移動モードまたは後方縦列移動モードであって、H−SペアまたはH−Bペアであるのかを特定することが可能となる。
【0136】
(同期状態の判別条件)
なお、現実には、対象は、独立に加速したり、減速したり、あるいは、間隔を変えたりが可能であるので、式(3)〜(5)は、厳密に0または1となることはない。
【0137】
そこで、CQ検知部5626は、式(3)および式(4)(または式(4)´の絶対値)が、ともに、たとえば、0.8以上であれば、そのような2つの対象は、縦列移動モードで移動しており、H−SペアまたはH−Bペアに相当すると判定する。なお、式(4)がなりたつか、式(4)´がなりたつかにより、後方縦列移動モードまたは前方縦列移動モードであるかが判定される。
【0138】
一方、式(5)の値は、人間同士の移動の相対関係で決まるため、縦列移動モードほど、明確な範囲の値をとることがない。そこで、以下の説明では、CQ検知部5626は、式(3)の値が0.8以上であるが、式(4)(または式(4)´の絶対値)が、0.8未満の対象のペアについては、横並列移動モードであって、本実施の形態では、H−Hペアであるものと判別することとする。
【0139】
そして、上記いずれの場合にも該当しない場合は、CQ検知部5626は、対象が独立して移動している状態であると判断する。
【0140】
(事前確率と同期状態(移動モード)との組み合わせによる判別)
対象の分類のクラスを記号eで表し、クラスeは、E={H,W,S,B}のいずれかを意味するものとする。
【0141】
また、同期状態を記号cqで表し、同期状態cqは、{D,S,F,R}のいずれかを意味するものとする。ここで、記号Dは、対象が独立して移動している状態であり、記号Sは、横並列移動モードの状態であり、記号Fは、前方縦列移動モードの状態であり、記号Rは、後方縦列移動モードの状態であることを示す。
【0142】
ベイズ則によれば、同期状態cqであるときに、対象がクラスeに属する事後確率p(e|cq)は、以下の式(6)ように表される。したがって、ラベル割当処理部5628は、対象がいずれのクラスに属するかを、式(7)により判定することが可能である。
【0143】
【数16】
ここで、事前確率P(e)については、上述した特徴ベクトルから導出でき、尤度P(cq|e)については、事前に実験的に複数の対象の実測結果に基づいて、定めておくことが可能である。
【0144】
図12は、以上説明した追跡モジュール部5610および識別処理モジュール5620が実行する処理を説明するためのフローチャートである。
【0145】
図12を参照して、処理が開始されると、追跡モジュール部5610は、パーティクルを初期化する(S100)。ここでは、追跡モジュール部5610は、全ての(特に限定されないが、たとえば、400個)パー ティクルを状態空間に均等にばら撒く。ただし、状態空間は、レーザーレンジファインダ10.1〜10.4で検出可能な領域に対応する。
【0146】
続いて、追跡モジュール部5610は、変数mを初期化する(m=1)(S102)。ただし、変数mは、状態空間に配置されたパーティクルを識別するための変数である。
【0147】
さらに、追跡モジュール部5610は、m番目のパーティクルが表わしている時刻t−1の対象Xの状態smX[t−1]と、パーティクルの重みπmX[t−1]と、動作モデルとから次の状態smX[t]を求める。
【0148】
ただし、上述のとおり、mはパーティクルを個別に識別するための添え字である。
【0149】
動作モデルについては、線形な移動にガウシアンノイズを組み合わせたモデルを用いる。その具体的な例については、上述したとおりである。
【0150】
続いて、追跡モジュール部5610は、変数mをイクリメントする(S106)。そして、変数mが最大値(現在のパーティクルの総数)を超えているかどうかを判断する(S108)。つまり、すべてのパーティクルについて次の状態smX[t]を求めたかどうかを判断する。
【0151】
ステップS108で“NO”であれば、つまり変数mが最大値以下であれば、ステップS104に戻って、次のパーティクルm(←m+1)についての次の状態smX[t]を求める。
【0152】
一方、ステップS081で“YES”であれば、つまり変数mが最大値を超えていれば、すべてのパーティクルmについての次の状態smX[t]を求めたと判断して、追跡モジュール部5610は、ステップS110で、記憶装置54から測距データに基づく占有情報(センサデータと称す)を読み取る。
【0153】
さらに、追跡モジュール部5610は、パーティクルm毎に、時刻tのセンサデータr[t]と状態との尤度を計算する。つまり、ステップS104で推定した状態smX[t]と、センサデータに基づく実際の状態との類似度を算出し(S112)、重みπmX[t]を求める(S114)。
【0154】
尤度については、上述したとおりである。
【0155】
また、ステップS114においては、追跡モジュール部5610は、各パーティクルの重みπmX[t]を、ステップS112で求めた尤度p(r[t]|smX[t])の高さに比例させて求める。たとえば、尤度p(r[t]|smX[t])の最も高いパーティクルから順に、重みπmX[t]を線形的に変化するように決定してもよいし、一定の閾値毎に、重みπmX[t]を段階的に変化するように決定してもよい。
【0156】
続いて、すべてのパーティクルが表わす人の状態smX[t]と重みπmX[t]とから、追跡モジュール部5610は、現在の対象の状態を推定する。特に限定されないが、たとえば、2σπ以上の重みπmX[t]を持つパーティクルmが表わす対象の状態smX[t]を利用して、その平均として現在の対象の状態を推定する。ただし、σπは全パーティクルmの重みπmX[t]についての標準偏差である。
【0157】
以上のようにして、現在までの対象の状態の推定が完了した時点で、識別処理モジュール5620が、対象を分類して、各対象にラベルを割り当てる(S118)。この分類の処理については、後述する。
【0158】
そして、追跡モジュール部5610は、ステップS1116での現在の対象の状態についての推定結果から、パーティクルを重点的にばら撒く位置(領域)と、消去する パーティクルとを決定し、パーティクルのばら撒きと消去とにより復元抽出して、処理をステップS102に復帰させる。つまり、リサンプリング処理が実行される。
【0159】
図13は、ステップS118において、識別処理モジュール5620が実行する各対象へのラベルの割り当て処理を説明するためのフローチャートである。
【0160】
図13を参照して、まず、特徴抽出演算部5622が、測定されたエッジ情報に基づいて、対象の水平な2次元断面形状のサイズと、対象の水平な2次元断面形状のアスペクト比とを表す特徴ベクトルを抽出する(S200)。
【0161】
次に、予め設定された線型判別関数に基づいて、事前確率計算部5624が、特徴ベクトルから得られる判別関数値に基づき、対象が分類の各クラスに属する確率を表す事前確率を計算する(S202)。
【0162】
次に、CQ検知部5626が、複数の対象のうち、所定の距離の範囲内にあり、かつ所定の大きさ以上の速度で移動する対象のペアについて、対象の速度ベクトルおよび間隔ベクトルに基づいて、同期状態を分類する(S204)。
【0163】
次に、ラベル割当処理部5628が、ステップ202に求められた事前確率と、予め実験的に求められている対象のクラスに対する同期状態についての尤度に基づいて、事後確率を求めることで、もっとも事後確率の高いクラスのラベルを対象に割り当てる(S206)。
【0164】
このようにして、パーティクルフィルタを適用して、対象を追跡することができ、特徴ベクトルから対象の識別が可能となる。ただし、1つの対象に対して1のパーティクルフィルタが必要であるため、複数の対象を同時に追跡する場合には、同じ数だけのパーティクルフィルタが必要である。
(実験結果)
以下、以上説明した追跡および識別処理の正確さおよび整合性を実地にチェックした結果について説明する。
【0165】
実験は、ショッピングセンターの入り口ホールにおいて、平日の15時から16時の間で実施された。入口ホールは、バッグ持ったり、カートを押したりする多くの顧客が、行き来する場所である。
【0166】
追跡を実施した領域(観測領域)は、7.5m×8mの矩形領域である。この領域の4隅に、4つのポールを立て、図2に示したように、各ポールにおいて床から高さ52cmと87cmの位置にレーザレンジファインダを固定した。特に、床から52cmの高さは、対象を区別しやすい断面形状が測定できる高さとして設定されたものである。
【0167】
レーザレンジファインダのサンプリングレートは、40Hzであり、角度分解能は、0.25度である。また、レーザレンジファインダから30mmから10mまでの範囲が、測距可能な範囲である。35分間にわたって、レーザレンジファインダによる測距データとともに、ビデオ画像の撮影も同時実施した。ビデオ撮影は、本実施の形態の方法でのラベルの割当の妥当性を、検証するために実施したものである。
【0168】
総数504個の対象が検知され、ビデオ画像によれば、そのうち、391個が人間(H)であり、34個が車椅子(W)であり、48個がショッピングカート(S)であり、31個がベビーカート(B)である。391人の歩行者のうち、2人、3人または4人からなる44のグループあった。
【0169】
図14は、追跡が実施された場合の1つの場面を示す図である。
【0170】
この図の中では、11個の対象が、移動しているものとして追跡されている。このうち、楕円で囲まれているのは、2人で一緒に移動している3つのグループである。あとは、2人の単独の歩行者と、1つのショッピングカートと、ベビーカートを押しながら移動している1人の歩行者がいる。
【0171】
(同期状態を考慮する前の判別結果)
以下では、まず、同期状態を考慮することなく、特徴ベクトルのみに基づいて、対象を判別した結果について説明する。
【0172】
ここでは、判別のためのトレーニングのための対象のサンプルと、実際に判別の性能を評価するための試験動作における対象のサンプルとは、異なるものとする。
【0173】
図15は、ラベルの割当の結果を示す図であり、図15(a)は、特徴ベクトルのみに基づいて、ラベルの割当を行った場合の結果を示す図である。
【0174】
すなわち、この表において、縦方向は、ビデオ画像から確認された対象に現実に割り当てられるべきラベルを示し、横方向は、試験動作において割り当てられたラベルを示す。
【0175】
したがって、試験動作における判別が100%の精度を有するときは、対角方向のみに0でない要素が現れることになる。
【0176】
ただし、図15(a)から明らかなように、特徴ベクトルだけによる判別でもある程度までの判別は可能なものの、現実には、誤ってラベルが割り当てられる場合が相当割合で存在する。
【0177】
図16は、判別された対象のペアについて、各ペアの判別の正確性を示す図である。
【0178】
図16によれば、H−Hペアは、44ペアのうち、35ペアが正しく判別されている。
H−Sペアは、44ペアのうち、43ペアが正しく判別されている。H−Bペアは、24ペアのうち、23ペアが正しく判別されている。
【0179】
したがって、判別ミスは主として、H−Hペアにより発生している。これは、H−Hペアでは、移動速度が極端に小さかったり、あるグループが立ち止まり、方向を変えて、別のグループと合流するというようなことがおこったりするからである。
【0180】
これに対して、H−SペアやH−Bペアは、動作がより規則的であるので、より高い割合で、正しく判別されている。
【0181】
(同期状態を考慮した後の判別結果)
図15(b)は、特徴ベクトルと同期状態との双方を考慮して、ラベルの割当を行った結果を示す図である。
【0182】
同期状態を考慮することで、人Hに対する判別は、成功率が60%から95%まで、向上している。また、車椅子Wについての成功率も、74%から81%まで向上している。
【0183】
特徴ベクトルのみを考慮した場合は、人Hや車椅子Wは、ベビーカートBと誤認識される場合多かったものの、同期状態を考慮することで、このような誤認識が抑制されていることがわかる。
【0184】
以上説明したように、計測演算装置100のように、複数の距離計測センサにより、観測領域内で移動する対象を追跡し、その対象が分類のいずれのクラスに属するかを判別する際に、対象の大きさや形状を反映した特徴ベクトルを導入すると、オクルージョンに対してロバストであって、対象の向きに対しても独立に判別が可能となる。
【0185】
また、このような特徴ベクトルによる判別を事前確率として、2つの対象の移動の同期状態による尤度を考慮した事後確率により判別を行うことで、判定の精度を向上させることが可能となる。
【0186】
今回開示された実施の形態は、本発明を具体的に実施するための構成の例示であって、本発明の技術的範囲を制限するものではない。本発明の技術的範囲は、実施の形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲の文言上の範囲および均等の意味の範囲内での変更が含まれることが意図される。
【符号の説明】
【0187】
10.1〜10.4 レーザーレンジファインダ、52 ドライブ装置、54 不揮発性記憶装置、56 CPU、58 ROM、60 RAM、64 外部記録媒体、66 バス、100 計測演算装置、5602 データキャプチャ処理部、5604 キャプチャデータ記録処理部、5610 追跡モジュール部、5612 更新計算部、5614 重み割当計算部、5616 状態評価計算部、5618 リサンプリング計算部、5620 識別処理モジュール、5622 特徴抽出演算部、5624 事前確率算出部、5626 CQ検知部、5628 ラベル割当処理部。
【特許請求の範囲】
【請求項1】
観測領域内で対象の移動を追跡し、前記対象を分類するための計測システムであって、
前記対象までの水平方向の距離を計測可能に配置された複数の距離計測手段と、
前記複数の距離計測手段によって前記対象を計測した計測結果を取得する取得手段と、
前記取得手段によって取得された前記計測結果から、前記対象の位置および移動速度を推定する追跡手段と、
前記計測結果に基づいて、前記対象の水平な2次元断面形状の特徴を表現する特徴ベクトルを算出する特徴抽出手段と、
前記特徴ベクトルに基づいて、前記対象が予め定められた分類の各クラスのうちのいずれのクラスに属するかを判別する判別手段とを備え、
前記判別手段は、
前記特徴ベクトルに基づいて、前記対象が予め定められた分類の各クラスに属する確率を事前確率として算出する事前確率算出手段と、
前記対象の移動速度および前記対象間の距離に基づいて、前記対象が他の対象と同期して移動している同期状態であるかを判別し、前記事前確率と、前記同期状態にある対象が前記クラスに対応する尤度とに基づいて、前記対象が属するクラスを判別する同期状態検知手段とを含む、計測システム。
【請求項2】
前記特徴ベクトルは、前記対象の水平な2次元断面形状のサイズと前記対象の水平な2次元断面形状のアスペクト比とを表現する、請求項1記載の計測システム。
【請求項3】
前記同期状態検知手段は、
前記対象のペアの速度ベクトルのなす角と、前記対象のペアのうちの一方の対象の速度ベクトルと前記対象のペアの対象間の間隔ベクトルとのなす角とに基づいて、前記対象のペアが前記同期状態であるかを判別する、請求項2記載の計測システム。
【請求項4】
前記特徴抽出手段は、前記取得手段によって取得された同時刻における複数の前記計測結果に所定の間隔のデータを内挿する手段を有する、請求項2または3記載の計測システム。
【請求項5】
観測領域内で対象の移動を追跡し、前記対象を分類するための計測方法であって、
前記対象までの水平方向の距離を計測可能に配置された複数の距離計測手段によって前記対象を計測した計測結果を取得するステップと、
前記取得された前記計測結果から、前記対象の位置および移動速度を推定するステップと、
前記計測結果に基づいて、前記対象の水平な2次元断面形状の特徴を表現する特徴ベクトルを算出するステップと、
前記特徴ベクトルに基づいて、前記対象が予め定められた分類の各クラスのうちのいずれのクラスに属するかを判別するステップとを備え、
前記判別するステップは、
前記特徴ベクトルに基づいて、前記対象が予め定められた分類の各クラスに属する確率を事前確率として算出するステップと、
前記対象の移動速度および前記対象間の距離に基づいて、前記対象が他の対象と同期して移動している同期状態であるかを判別し、前記事前確率と、前記同期状態にある対象が前記クラスに対応する尤度とに基づいて、前記対象が属するクラスを判別するステップとを含む、計測方法。
【請求項1】
観測領域内で対象の移動を追跡し、前記対象を分類するための計測システムであって、
前記対象までの水平方向の距離を計測可能に配置された複数の距離計測手段と、
前記複数の距離計測手段によって前記対象を計測した計測結果を取得する取得手段と、
前記取得手段によって取得された前記計測結果から、前記対象の位置および移動速度を推定する追跡手段と、
前記計測結果に基づいて、前記対象の水平な2次元断面形状の特徴を表現する特徴ベクトルを算出する特徴抽出手段と、
前記特徴ベクトルに基づいて、前記対象が予め定められた分類の各クラスのうちのいずれのクラスに属するかを判別する判別手段とを備え、
前記判別手段は、
前記特徴ベクトルに基づいて、前記対象が予め定められた分類の各クラスに属する確率を事前確率として算出する事前確率算出手段と、
前記対象の移動速度および前記対象間の距離に基づいて、前記対象が他の対象と同期して移動している同期状態であるかを判別し、前記事前確率と、前記同期状態にある対象が前記クラスに対応する尤度とに基づいて、前記対象が属するクラスを判別する同期状態検知手段とを含む、計測システム。
【請求項2】
前記特徴ベクトルは、前記対象の水平な2次元断面形状のサイズと前記対象の水平な2次元断面形状のアスペクト比とを表現する、請求項1記載の計測システム。
【請求項3】
前記同期状態検知手段は、
前記対象のペアの速度ベクトルのなす角と、前記対象のペアのうちの一方の対象の速度ベクトルと前記対象のペアの対象間の間隔ベクトルとのなす角とに基づいて、前記対象のペアが前記同期状態であるかを判別する、請求項2記載の計測システム。
【請求項4】
前記特徴抽出手段は、前記取得手段によって取得された同時刻における複数の前記計測結果に所定の間隔のデータを内挿する手段を有する、請求項2または3記載の計測システム。
【請求項5】
観測領域内で対象の移動を追跡し、前記対象を分類するための計測方法であって、
前記対象までの水平方向の距離を計測可能に配置された複数の距離計測手段によって前記対象を計測した計測結果を取得するステップと、
前記取得された前記計測結果から、前記対象の位置および移動速度を推定するステップと、
前記計測結果に基づいて、前記対象の水平な2次元断面形状の特徴を表現する特徴ベクトルを算出するステップと、
前記特徴ベクトルに基づいて、前記対象が予め定められた分類の各クラスのうちのいずれのクラスに属するかを判別するステップとを備え、
前記判別するステップは、
前記特徴ベクトルに基づいて、前記対象が予め定められた分類の各クラスに属する確率を事前確率として算出するステップと、
前記対象の移動速度および前記対象間の距離に基づいて、前記対象が他の対象と同期して移動している同期状態であるかを判別し、前記事前確率と、前記同期状態にある対象が前記クラスに対応する尤度とに基づいて、前記対象が属するクラスを判別するステップとを含む、計測方法。
【図1】
【図3】
【図4】
【図7】
【図8】
【図11】
【図12】
【図13】
【図15】
【図16】
【図2】
【図5】
【図6】
【図9】
【図10】
【図14】
【図3】
【図4】
【図7】
【図8】
【図11】
【図12】
【図13】
【図15】
【図16】
【図2】
【図5】
【図6】
【図9】
【図10】
【図14】
【公開番号】特開2013−64671(P2013−64671A)
【公開日】平成25年4月11日(2013.4.11)
【国際特許分類】
【出願番号】特願2011−204031(P2011−204031)
【出願日】平成23年9月20日(2011.9.20)
【国等の委託研究の成果に係る記載事項】(出願人による申告)平成23年4月1日付け、支出負担行為担当官 総務省大臣官房会計課企画官、研究テーマ「ライフサポート型ロボット技術に関する研究開発」に関する委託研究、産業技術力強化法第19条の適用を受ける特許出願
【出願人】(393031586)株式会社国際電気通信基礎技術研究所 (905)
【Fターム(参考)】
【公開日】平成25年4月11日(2013.4.11)
【国際特許分類】
【出願日】平成23年9月20日(2011.9.20)
【国等の委託研究の成果に係る記載事項】(出願人による申告)平成23年4月1日付け、支出負担行為担当官 総務省大臣官房会計課企画官、研究テーマ「ライフサポート型ロボット技術に関する研究開発」に関する委託研究、産業技術力強化法第19条の適用を受ける特許出願
【出願人】(393031586)株式会社国際電気通信基礎技術研究所 (905)
【Fターム(参考)】
[ Back to top ]