説明

オブジェクト追跡方法及びオブジェクト追跡装置

オブジェクト追跡装置は、映像情報を蓄積する構成としたバッファ部と、映像情報からオブジェクトの位置情報を検出するオブジェクト位置検出部と、位置情報に基づき映像情報中のオブジェクトの領域を検出するオブジェクト領域検出部と、領域内に位置するオブジェクトの特徴量を検出し、位置情報とオブジェクトの特徴量と領域とを蓄積する蓄積部と、位置情報から映像情報中の次フレームのオブジェクトの位置を予測する予測部と、次フレームのオブジェクトの位置に基づき領域が移動しようとする次フレームの予測領域を判定する判定部と、次フレームの予測領域内のオブジェクトの特徴量を照合し、最も類似する領域を出力する照合部と、を含むものである。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、人物や車両などの個々のオブジェクトが互いに交差し或いは隠蔽し合ったりしたときや、或いは環境変動により撮影装置が受けるノイズ等の外乱の悪影響がある場合でさえ、オブジェクトを安定的に追跡することのできるオブジェクト追跡技術に関するものである。
【背景技術】
【0002】
関連するオブジェクト追跡技術については、下記の如き一つの追跡方法が存在する。すなわち、各オブジェクトのテクスチャ等のテンプレートを事前に保存しておき、これらテンプレートを用いて画像フレーム内で探索処理を行い、画像フレーム内においてテンプレートに最も類似する領域を画像フレーム内でオブジェクトが移動した位置と見なし、この処理を連続する入力フレームに対し繰り返し施すことにより、関連オブジェクトを追跡するものである。また、別のオブジェクト追跡方法(非特許文献1参照)が存在する。すなわち、複数のオブジェクトが画像上に現れ、個々のオブジェクトの画像が互いに交差する場合であっても、個々のオブジェクトに対応するテンプレートに基づきテンプレートマッチング処理を行い、複数のオブジェクトが互いに交差する前と複数のオブジェクトが互いに交差した後で、連続態様にてオブジェクトを追跡するものである。
【0003】
また、オブジェクトの追跡時に、ダイナミックフィルタを使用することができ、例えばオブジェクト追跡方法はカルマンフィルタ(非特許文献2参照)を用いることもできる。
【0004】
さらに、オブジェクトの追跡時に、重み付け係数を用いることもできる(特許文献1参照)。すなわち、ダイナミックフィルタ等を使用する場合において、過去の入力値に対し重み付け係数を付与し、ノイズすなわち観測ノイズ等の外乱が招く悪影響を抑えてオブジェクトが追跡できるようにするものである。
【0005】
【非特許文献1】W4:real−time surveillance of people and their activities(人とその活動の実時間監視)、Haritaoglu, I.:Harwood, D.;Davis, L.S.共著、「Pattern Analysis and Machine Intelligence(パターン解析ならびに人工知能)」、IEEE(電気電子学会)会報第22巻,2000年8月8日発行、頁809−830
【非特許文献2】Segmentation and tracking of multiple humans in complex situations(複雑な状況下での複数の人物の区分と追跡) Tao Zhao;Nevatia, R.;Fengjun Lv共著、「Computer Vision and Pattern Recognition(コンピュータによる視覚及びパターン認識)」、2001年度IEEEコンピュータ学会会議議事録CVPR2001.第2巻頁11−194〜11−201
【特許文献1】特開2005−141687号公報(第1図)
【0006】
しかしながら、従来の関連するオブジェクト追跡方法は下記の課題を有することがあった。オブジェクト追跡方法においてオブジェクトのテンプレートを用いて各画像フレーム毎にテンプレートマッチングを行う場合、画像上にオブジェクトが一つしか存在しないとき、そのときはオブジェクトを良好に追跡することができる。しかしながら、オブジェクトの一部が障害物等の悪影響により隠蔽された場合等においては、このオブジェクトの画像を既に保持しているテンプレートと一致させることが困難である。すなわち、テンプレートを用いた照合が確実に行えない可能性がある。複数のオブジェクトが出現し、これら複数のオブジェクトの画像が互いに交差する場合、これらのオブジェクトの画像の交差する部分が小さい場合は、個々のオブジェクトの照合処理を行うことによりオブジェクト追跡処理は依然適切に行うことができる。しかしながら、オブジェクトの画像が大きな領域で互いに重なり合う場合、そのときはテンプレートを確実に照合することは実際困難になる。
【0007】
また、カルマンフィルタを用いて追跡を行う方法は、過度のノイズに左右されやすい。ノイズが過度に大きくなった場合、出力値は正しい値を構成しない。フィルタの動力学が故に、一旦誤った入力値が入力されると、この誤った値の悪影響が続く追跡処理へ波及することになる。その結果、オブジェクトが適切に追跡できない可能性が存在する。
【0008】
また、過去の入力値に対して重み付け係数を調整してノイズの悪影響を低減する方法と共にダイナミックフィルタを使用する場合、そのときは下記の課題を抱えることになる。重み付け係数は過去の入力値に適用するため、特定のノイズを含む入力値が招く悪影響を低城することができる。しかしながら、それぞれの場合においてどのような重み付け係数を付与するか決定するアルゴリズムを展開することは、現実に難しいものである。過去の入力値に固定重み付け係数を付与すると、過去の入力値を平滑化することで得られる入力値を用いることができる。しかしながら、そのときは、ノイズが大きな場合、この悪影響を排除できないという課題が残されることになる。
【発明の開示】
【発明が解決しようとする課題】
【0009】
本発明は、上記課題を解決するためになされたものであり、それ故に人物や車両などのオブジェクトの画像を、これらのオブジェクトが互いに交差しかつ/又はこれらのオブジェクトが一時的に隠蔽され、或いはノイズや環境変動等の外乱が招く悪影響にさらされることのあるシーン状況において、安定的に追跡することのできるオブジェクト追跡方法ならびにオブジェクト追跡装置を提供する目的を有するものである。
【課題を解決するための手段】
【0010】
上記目的を達成するため、本発明によればオブジェクト追跡方法が提供されるが、それは、
映像情報を蓄積する工程と、
映像情報からオブジェクトの位置情報を検出する工程と、
位置情報に基づき映像情報中のオブジェクトの領域を検出する工程と、
その領域内に位置するオブジェクトの特徴量を検出する工程と、
オブジェクトの位置情報と特徴量と領域を蓄積する工程と、
位置情報から映像情報中の次フレームのオブジェクトの位置を予測する工程と、
次フレームのオブジェクトの予測位置に基づき領域が移動しようとする次フレームの予測領域を判定する工程と、
次フレームの予測領域内のオブジェクトの特徴量を照合する工程と、
照合工程における照合結果に基づき、特徴量に最も類似する予測領域範囲をオブジェクト領域として出力する工程とを含むものである。
【0011】
好ましくは、予測方法は、
位置情報に基づき次フレームのオブジェクトの第1の位置を予測する工程と、
前フレームのオブジェクトの位置に基づき次フレームのオブジェクトの第2の位置を予測する工程と、
次フレームのオブジェクトの予測された第1の位置と次フレームのオブジェクトの予測された第2の位置の一方を選択する工程と、
選択工程において選択された次フレームのオブジェクトの予測位置を出力する工程とを含む。
【0012】
本発明によれば、オブジェクト追跡装置もまた提供され、それは、
映像情報を蓄積する構成としたバッファ部と、
映像情報からオブジェクトの位置情報を検出するオブジェクト位置検出部と、
位置情報に基づき映像情報中のオブジェクトの領域を検出するオブジェクト領域検出部と、
領域内に位置するオブジェクトの特徴量を検出し、位置情報とオブジェクトの特徴量とオブジェクトの領域とを蓄積する蓄積部と、
位置情報から映像情報中の次フレームのオブジェクトの位置を予測する予測部と、
次フレームのオブジェクトの予測位置に基づきオブジェクトが移動しようとする次フレームの予測領域を判定する判定部と、
次フレームの予測領域を用いてオブジェクトの特徴量を照合し、照合結果に基づき特徴量に最も類似する予測領域をオブジェクト領域として出力する照合部とを備えるものである。
【0013】
好ましくは、予測部は、
位置情報に基づき次フレームのオブジェクトの第1の位置を予測する第1の予測部と、
前フレームのオブジェクトの位置に基づき次フレームのオブジェクトの第2の位置を予測する第2の予測部と、
次フレームのオブジェクトの予測された第1の位置と次フレームのオブジェクトの予測された第2の位置の一方を選択し、設定値に従って次フレームのオブジェクトの選択された予測位置を出力する予測情報切り替え部とを備える。
【0014】
上記の装置及び方法では、現在の映像フレームから得られるオブジェクトの位置情報にノイズが重畳するような場合でも、ノイズが引き起こす悪影響を排除することができる。
【0015】
好ましくは、第1の位置の予測工程と第2の位置の予測工程は共に動的な予測モデルを構築することで実行する。
【0016】
上記方法では、単一の予測係数を用いるのではなく、入力される観測値の変動に応じて最適な予測モデルを構築し、構築された予測モデルにより次フレームの位置情報を予測することができる。
【0017】
好ましくは、オブジェクト追跡方法はさらに、
オブジェクトの予測位置を判定する工程を含み、
次フレームのオブジェクトの予測された第1の位置と次フレームのオブジェクトの予測された第2の位置を、選択工程における設定値に基づき選択し、
オブジェクトの状態に基づき設定値を決定する。
【0018】
上記方法では、オブジェクトが隠蔽され、オブジェクト同士が交差しているような場合でも、オブジェクトを追加的に提供することができる。
【0019】
好ましくは、オブジェクト追跡方法はさらに、
過去の入力位置情報に対し重み付け値を付与する工程を含み、
重み付け値を有する位置情報を予測工程に用いる。
【0020】
上記方法では、単一の値に基づき予測を行うが、一連の過去の入力情報を用い、さらにそれぞれの過去の入力情報に対して重み付け係数を用いる。それぞれの過去の入力情報に対して重み付け係数を用いて得られた値を入力値として用いるため、特定のノイズが重畳した値の悪影響を低減してこの種の予測を行うことができる。
【0021】
好ましくは、オブジェクト追跡方法はさらに、
オブジェクトの特徴量を判定工程におけるオブジェクトの状態の結果に基づき更新するかどうか決定する工程を含む。
【0022】
上記方法では、個々のオブジェクトの状態の信頼性に対応して特徴量を更新することができる。換言すれば、障害物や隠蔽物や環境変化等が原因でオブジェクトの特徴量が正確に抽出できないような場合に、現フレームにて抽出される特徴量を登録しないような状態を特徴量蓄積部に対し設定する。
【0023】
その結果、信頼性の低い特徴量データを排除することが可能になる。また、複数のオブジェクト同士が重複したり交差したりするような場合であっても、正しい特徴量の抽出ができない場合は、抽出された特徴量を登録しないような状態を設定する。その結果、信頼性の低い特徴量データの登録を排除し、誤処理を低減することができる。
【0024】
本発明によれば、オブジェクト追跡装置もまた提供され、それは、
撮像部から獲得し或いは映像蓄積部から出力された映像情報を蓄積する工程と、
個々のオブジェクトを映像情報について追跡し、映像情報のフレーム毎に個々のオブジェクトの追跡結果を出力する工程と、
個々のオブジェクトの追跡結果に関する個々のオブジェクトの追跡時間を積算する工程と、
個々のオブジェクトの追跡結果に関する情報と追跡積算時間に関する情報と個々のオブジェクトに関する情報とをデータベース部に蓄積する工程と、
データベース部に蓄積された情報を検索する工程とを含むものである。
【0025】
本発明によれば、オブジェクト追跡装置もまた提供され、それは、
撮像部から獲得し或いは映像蓄積部から出力された映像情報を蓄積する蓄積部と、
個々のオブジェクトを映像情報について追跡し、映像情報のフレーム毎に個々のオブジェクトの追跡結果を出力するオブジェクト追跡部と、
個々のオブジェクトの追跡結果についての個々のオブジェクトの追跡時間を積算する追跡時間積算部と、
個々のオブジェクトの追跡結果に関する情報と追跡積算時間に関する情報と個々のオブジェクトに関する情報とを蓄積するデータベース部と、
データベース部に蓄積された情報を検索する検索部とを備えるものである。
【0026】
上記構成ならびに方法にあっては、個々のオブジェクトの識別と特定オブジェクトの位置情報と時間情報とを互いに組み合わせ、個々のオブジェクトの行動軌跡と個々の場所における滞在時間とを算出することができる。また、画面上に出現する全てのオブジェクトについて、軌跡情報及び滞在時間情報に関するデータベースを構築することができる。そこで、構築されたデータベースに基づきオブジェクトの動きに関する検索機能を実現することができる。
【0027】
本発明によれば、オブジェクト追跡方法もまた提供され、それは、
撮像部から獲得し或いは映像蓄積部から出力された複数の映像情報を複数の蓄積部へ蓄積する工程と、
個々のオブジェクトを映像情報について追跡し、映像情報のフレーム毎に個々のオブジェクトの追跡結果を出力する工程と、
個々のオブジェクトの追跡結果に基づき複数の撮像部間で撮像した同一オブジェクトを追跡する工程と、
撮像部間での同一オブジェクトの追跡結果に従い蓄積部の複数の映像情報を切り替える工程と、
切り替え工程にて切り替えられた映像情報を記録する工程とを含むものである。
【0028】
本発明によれば、オブジェクト追跡装置もまた提供され、それは、
撮像部から獲得し或いは映像蓄積部から出力された複数の映像情報を蓄積する複数の蓄積部と、
個々のオブジェクトを映像情報について追跡し、映像情報のフレーム毎に個々のオブジェクトの追跡結果を出力する複数のオブジェクト追跡部と、
個々のオブジェクトの追跡結果に基づき複数の撮像部間で撮像された同一のオブジェクトを追跡する交差オブジェクト追跡部と、
撮像部間での同一のオブジェクトの追跡結果に従い、蓄積部の複数の映像情報を切り替える切り替え部と、
映像切り替え部が切り替える映像情報を記録する記録部とを備えるものである。
【0029】
上記構成ならびに方法にあっては、複数の撮像部が組み込まれたシステム内で特定オブジェクトの一連の動きを監視する場合に、もはやオペレータが複数の撮像部間に跨る特定オブジェクトの動きに応じて手動で映像を切り替えることはなく、複数の撮像部に跨がる特定オブジェクトの動きに応答して映像を自動的に切り替えることができるようになる。また、映像切り替え部は記録装置に接続してあるため、特定応答の動きに関連するような映像だけ記録し、かくして特定オブジェクトに関連する記録処理を行うことができる。
【0030】
好ましくは、オブジェクト追跡方法はさらに、
複数撮像部間でのオブジェクトの追跡精度を改善すべく、各蓄積部の幾何学的キャリブレーションを事前に行う工程と、
蓄積部の個々の幾何学的なキャリブレーションの結果を統合する工程とを含み、
撮像部間に跨がるオブジェクトを追跡する場合に、撮像部間の位置関係を用いてオブジェクトを追跡する。
【0031】
好ましくは、オブジェクト追跡装置はさらに、
撮像部間に跨がるオブジェクトの追跡精度を改善すべく、各蓄積部の幾何学的キャリブレーションを事前に行うキャリブレーション部と、
蓄積部の個々の幾何学的キャリブレーション結果を統合する撮像部間幾何学的位置関係整合部とを備え、
撮像部間に跨がるオブジェクトを追跡する場合に、撮像部間の位置関係を用いてオブジェクトを追跡する。
【0032】
上記構成ならびに方法にあっては、撮像部間の位置関係は撮像部間幾何学的位置関係整合部により把握でき、また撮像部間に跨るオブジェクトの追跡を行うような場合に、オブジェクト追跡装置は撮像部間の位置関係を用いて高い精度でオブジェクトを追跡することができる。
【0033】
本発明によれば、オブジェクト追跡方法も提供され、それは、
撮像部から獲得し或いは映像蓄積部から出力された映像情報を蓄積する工程と、
個々のオブジェクトを映像情報について追跡する工程と、
映像情報のフレーム毎に個々のオブジェクトの追跡結果を出力する工程と、
出力工程において出力された各オブジェクトの追跡領域を用いて記録処理を行う工程と、
設定値を設定する工程とを含み、
設定値に基づき記録処理を行うものである。
【0034】
本発明によれば、オブジェクト追跡装置もまた提供され、それは、
撮像部から獲得し或いは映像蓄積部から出力された映像情報を蓄積する蓄積部と、
個々のオブジェクトを映像情報について追跡し、画像情報のフレーム毎に個々のオブジェクトの追跡結果を出力するオブジェクト追跡部と、
オブジェクト追跡部から出力された各オブジェクトの追跡領域を用いて記録処理を行う記録部と、
設定値を設定する設定部とを備え、
設定値に基づき記録部が記録処理を行うものである。
【0035】
上記構成ならびに方法にあっては、個々のオブジェクトの領域情報を利用するため、注目領域以外の領域の記録処理は行わずに、特定オブジェクトの領域のみ記録することができる。また、記録設定部124の設定値に基づき、特定のオブジェクト領域について低圧縮率かつ高解像度で記録処理を行い、この特定オブジェクト領域以外の領域については高圧縮率かつ低解像度の記録処理を行うことができる。
【発明の効果】
【0036】
上記した如く、本発明は、人物や車両などのオブジェクトが互いに交差したり、互いに隠蔽状態にあったりするようなシーン状況下、或いは外乱ノイズや環境変動が引き起こす悪影響に対し、目標オブジェクトを追跡する方法を提供することができる。換言すれば、オブジェクトの追跡処理において、観測ノイズの影響や信頼性の低い入力値の悪影響を自動的に判別し、かくして信頼性の低い入力値の使用を低減することで、高い信頼性をもって予測を行うことができるようになる。また、後続フレームの位置と領域の両方に関する情報をオブジェクトの追跡を行うべく移動領域に加え前フレームの位置及び領域情報から予測し、オブジェクトの追跡時に算出工程量が低減可能な効果を有するオブジェクト追跡方法を提供することができる。
【発明を実施するための最良の形態】
【0037】
ここで図面を参照し、本発明の実施形態に係るオブジェクト追跡方法及びオブジェクト追跡装置を説明することにする。
【0038】
(実施形態1)
本発明の第1の実施形態のオブジェクト追跡方法を、図1〜図10を用いて説明することにする。
【0039】
図1において、本発明の第1の実施形態に係るオブジェクト追跡方法が実現できるオブジェクト追跡装置1は、フレームバッファ部11と、オブジェクト位置検出部12と、オブジェクト領域検出部13と、特徴量蓄積部17と、移動予測部14と、予測情報切り替え部20と、予測情報蓄積部22と、領域判定部19と、特徴量照合部18と、を含む。フレームバッファ部11は、映像蓄積装置或いは人物の動きを撮像するカメラから出力される映像フレームをそこに蓄積する。オブジェクト位置検出部12は、入力映像フレームから人物や車両等のオブジェクトの画像の位置情報を検出する。オブジェクト領域検出部13は、オブジェクト位置検出部12が検出する位置情報について関連オブジェクトの画像を含む領域を検出する。特徴量蓄積部17は、検出オブジェクトの画像の位置とオブジェクト領域検出部13が獲得した領域内に現存するオブジェクトの衣服の色及びパターンとを蓄積する。位置情報はオブジェクト位置検出部12が検出するが、以前の位置情報は移動予測部14へ入力される。移動予測部14は、個々の入力位置情報について次フレームの移動位置を予測する。予測情報切り替え部20は移動予測部14から出力された次フレームの予測値を切り替え、設定部21の値に従って予測値のいずれか一つを選択する。予測情報蓄積部22は、予測値を保持する。領域判定部19は、予測情報切り替え部20から獲得した次フレームの予測値とオブジェクト位置検出部12から獲得した情報とに基づき、次フレームのオブジェクトの画像の移動領域範囲を判定する。特徴量照合部18は、領域判定部19が獲得した領域内のフレームバッファ部11の情報について特徴量蓄積部17内に蓄積された特徴量を照合し、照合結果が最高の類似度であるような位置を出力する。特徴量は、オブジェクトの特徴の少なくとも一つ、例えばオブジェクトのエッジ情報やオブジェクトの色情報やオブジェクトの頭部位置情報やオブジェクトのテクスチャ情報を意味する。
【0040】
また、図2において、特徴量蓄積部17はパターン蓄積部29と、位置・領域蓄積部23と、位置予測部分蓄積部24と、データベース部28と、を含む。パターン蓄積部29は、オブジェクトの画像の特徴量をそこに蓄積する。位置・領域蓄積部23は、オブジェクトの画像の位置情報と領域情報の両方をそこに蓄積する。位置予測部分蓄積部24は、予測された位置情報をそこに蓄積する。データベース部28は、各保持・蓄積部22,23,24のデータをそこに蓄積する。
【0041】
また、特徴量照合部18は、照合部25と、パターン更新部26と、位置・領域判定部27と、を含む。照合部25は、領域判定部19により検出された領域内においてオブジェクトの画像の特徴量の類似度を互いに照合する。パターン更新部26は照合部25による照合結果を新規オブジェクトの画像の特徴量パターンとして設定し、パターンを更新し、更新されたパターンをパターン蓄積部29に登録する。位置情報判定部27は、照合部25から獲得した照合結果に基づきオブジェクトの画像の位置と領域の両方を判定し、続いて獲得オブジェクト領域情報を出力する。
【0042】
また、図4において、第1の予測部15と第2の予測部16はそれぞれカルマンフィルタ34,39と予測位置算出部35,40とにより構成してある。
【0043】
図5中、オブジェクト位置検出部12は、フレーム間差分処理部133と、エッジ検出処理部134と、位置検出処理部135と、により実現してある。
【0044】
図6において、オブジェクト領域検出部13は、ヒストグラム投影部136と、垂直セグメンテーション部137と、水平セグメンテーション部138と、特徴量抽出部139と、により構成してある。ヒストグラム投影部136は、垂直及び水平方向のエッジ成分のヒストグラムを生成する。垂直セグメンテーション部137は、垂直方向から見たオブジェクトの画像の位置を検出する。水平セグメンテーション部138は、水平方向から見たオブジェクトの画像の位置を検出する。特徴量抽出部139は、オブジェクトの画像の特徴量を抽出する。
【0045】
上記に説明した構成を用いたオブジェクト追跡装置1により実現されるオブジェクト追跡方法について、その追跡動作をここで説明することにする。
【0046】
図8は、上記オブジェクト検出部12の動作を示すものである。このオブジェクト検出部12では、フレームバッファ部11から得られる時系列画像、例えば入力画像n−1_141、入力画像n_142が入力画像として入力される。次に、これらの時間系列画像に対しフレーム差分処理部143によりフレーム間差分処理を行い、フレーム間差分処理画像144を得る。得られたフレーム間差分画像144は、エッジ検出工程処理においてエッジ検出処理部134により処理し、エッジ画像146を得る。さらに、位置検出処理部135はエッジ画像146から位置検出工程処理を行う。
【0047】
位置検出工程処理に従い、例えばエッジ画像146について包絡線137を抽出し、抽出された包絡線137の極値136を位置検出結果148として出力することができる。
【0048】
図9は、前記オブジェクト検出部13の動作を示すものである。オブジェクト位置検出部12により得られた極値136を基点とし、オブジェクト領域検出部13が一定の範囲についてヒストグラム処理を行い、垂直方向のヒストグラム154と水平方向のヒストグラム153を得る。
【0049】
垂直方向のヒストグラム154と水平方向のヒストグラム153に対しそれぞれ垂直方向セグメンテーション138及び水平方向セグメンテーション137を施すことで、領域検出結果159が得られる。次に、領域検出結果159を図10の領域情報161として出力する。また、得られた領域情報161について、オブジェクトの画像が人物に対応する場合は、領域全体の特徴量(色情報とパターン情報)に加え、頭部の下位部分、すなわち胴体部分領域を特徴量領域として代替的に保持することも可能である。頭部と腹部と腕部と足部等をパターンマッチング法等の技術方法により認識できるため、人物における各部位の情報を特徴量として代替的に使用することも可能であることに、留意されたい。上記の例では、フレーム間差分により動オブジェクト領域を獲得していた。さもなくば、個々のオブジェクトの位置情報と領域情報の両方を背景とは異なる前景領域から背景差分法により抽出する仕方で抽出することができ、この抽出領域をオブジェクト領域候補として用い、そこで続く工程処理を実行する。さらに、同じフレーム間差分法と背景差分法の両方を用いることで、オブジェクト位置情報とオブジェクト領域情報の両方を代替的に抽出することができる。上記の例における位置情報の検出方法として、エッジ情報について包絡線を抽出する一種の方法を示した。さもなくば、対象オブジェクトの画像が人物の場合、顔領域を検出してその検出結果を位置情報として用いることも可能である。さらに、顔検出方法として楕円領域を代替的に検出し、その検出結果を代替的に位置情報とすることもできる。
【0050】
また、移動予測部14はカルマンフィルタ部34と予測位置算出部35により構成してある。オブジェクトの画像の位置などの現在の位置をカルマンフィルタに適用すると、カルマンフィルタはパラメータ(X)を算出し、オブジェクトの画像が移動した後の位置を算出する。パラメータXを用いているため、オブジェクトの画像の次の予測位置を算出することができる。
【0051】
移動予測部14では、予測部16がオブジェクト位置検出部12により検出されたオブジェクトの画像の位置を用いて、オブジェクトの画像の次の予測位置を出力する。一方、予測部15は、それまでに移動予測部14が出力した予測位置を用いて、オブジェクトの画像の次の予測位置を出力する。
【0052】
設定部21は、予め設定された値に基づき予測情報切り替え部20に入力される値を選択する。設定例としては、選択された値について算出しておき、予測部16から出力される値について以前獲得した値が閾値以内の値の場合、予測部16により出力された値を設定部21が選択し、この値を予測情報切り替え部20の出力に定める。また、以前獲得した値が闘値を超える場合、設定部21は予測部16が出力する値が以前獲得した値から大きく外れた値に対応すると判定し、予測部15が出力する値を選択し、この選択された値を予測情報切り替え部20の出力に定める。その結果、予測情報切り替え部20の出力は次フレームの位置の予測値に対応し、この値が位置予測部分蓄積部24へ入力される。そこで、次フレームのオブジェクトの画像の位置と領域を検出すると、その特徴量を特徴量照合部18が照合することになるオブジェクトの移動予測範囲を位置予測部分蓄積部24内に保持されている予測値を用いて割り出すことができる。その移動予測範囲について、照合部25により特徴量が照合される。照合の結果、最も高い類似度を有する部分の頭部位置が移動点として判定され、そこでこの領域がオブジェクト領域として判定される。この判定結果は、位置・領域判定部27によりオブジェクト領域情報の結果として出力される。また、特徴量はパターン更新部26により更新され、この更新された特徴量がパターン蓄積部29に蓄積される。また、この工程処理の流れ処理を説明するフローチャートを図7に示す。
【0053】
このような本発明の第1の実施形態によれば、オブジェクトの画像の特徴量を用いてパターンマッチングを行う際に、オブジェクトの画像の位置とオブジェクトが移動する領域の範囲が最適化されるため、パターンマッチングの算出領域を制限することができる。さらに、オブジェクトの画像の位置とオブジェクトが移動する領域を予測する際に、オブジェクトの画像の位置を移動予測部14の予測部16により予測し、その一方で現フレームのオブジェクト検出位置を入力値として用いる。観測対象である位置情報に関する正しい値がノイズの悪影響が原因で得ることができないような場合、次のフレームのオブジェクトの画像の正しい位置と正しい領域を予測することはできない。しかしながら、現在の観測値を入力する予測部16からの予測出力と予測部15からの予測出力の両方を行い、現フレームから得られるオブジェクトの画像の位置情報にノイズが重畳しているような場合に、ノイズが招く悪影響は予測部15により得られた予測位置を用いることで排除され、その一方で予測部15は前フレームに基づきオブジェクトの画像の移動位置を予測した予測値等を入力することで次のフレーム内のオブジェクトの画像の移動位置を予測する。また、オブジェクトの画像の特徴量は逐次更新されるため、信頼性の高い追跡を行うことができる。複数のオブジェクトの画像が出現したときにおいても、個々のオブジェクトの画像を互いに識別することができ、また個々のオブジェクトの画像を別個に追跡することができる。
【0054】
(実施形態2)
次に、図11は本発明の第2の実施形態に係るオブジェクト追跡方法を実現するオブジェクト追跡装置63を示す。
【0055】
第1の実施形態に比べ、第2の実施形態のオブジェクト追跡方法を実現するオブジェクト追跡装置63は、第1の実施形態に記載したオブジェクト追跡装置1を追加的に用いるオブジェクト状態判定部62を含む。オブジェクト状態判定部62は特徴量照合部18により得られたオブジェクト領域と特徴量蓄積部17に蓄積された特徴量とからオブジェクトの状態を判定する。また、設定部12はオブジェクト状態判定部62が設定すべきデータを決定する。図11と図12を参照し、上記構成を用いたオブジェクト追跡装置63の工程処理の説明を行う。
【0056】
オブジェクト追跡装置63では、複数のオブジェクトの画像の位置と領域を逐次入力されたフレームについて検出する。個々のオブジェクトの画像の特徴量を抽出し、抽出された特徴量を特徴量蓄積部57内に蓄積する。オブジェクト状態判定部62は抽出されたオブジェクトの状態を判定し、すなわちオブジェクトが現在どのような状態にあるか判定することのできる機能を有する。複数のオブジェクトの画像が存在する場合、オブジェクト状態判定部62は複数のオブジェクトの画像が互いにどのような状態にあるか判定する。複数のオブジェクトが互いに交差する場合(171)、領域検出結果n−2_172ではオブジェクトA_169とオブジェクトB_170(図12に図示)が検出され、そのときの各オブジェクトの特徴量が特徴量蓄積部57に蓄積され、オブジェクト状態判定部62はオブジェクトA_169、オブジェクトB_170が単独の状態にあると判定する。その後、領域検出結果n−1_173においても、オブジェクトA_169とオブジェクトB_170が同様に検出され、そのときのこれらのオブジェクトの画像の各特徴量が特徴量蓄積部57に蓄積され、オブジェクト状態判定部62はオブジェクトA_169、オブジェクトB_170が単独の状態にあると判定する。その後、領域検出結果n_174では、オブジェクトA_169がオブジェクトB_170と交差した堀合に、検出領域結果n_174において重複部分を生ずる。このとき、オブジェクト状態判定部62はオブジェクトA_169とオブジェクトB_170が交差状態にあると判定する。このとき、事前に設定されていたステップ値に応じて、オブジェクトA_169とオブジェクトB_170が特徴量蓄積部57内に蓄積される場合と、そこに蓄積されない場合の二つの場合が存在する。通常、オブジェクトの画像が互いに交差するときは、これらのオブジェクトの画像の特徴量は更新されない。また、オブジェクト状態判定部62はオブジェクトの画像の状態の変化も検知する。障害物によりオブジェクトが隠蔽された場合(176)、オブジェクトC_168が領域検出結果n−2_177として抽出されたときに、オブジェクト状態判定部62はオブジェクトC_168が単独の状態にあると判定する。領域検出結果n−1_178は、領域検出結果n−2_177と同様である。領域検出結果n_179では、オブジェクトC_168が前フレームに引き続き追跡された領域と同様に獲得された場合、前フレームで検出された領域の大きさと現フレームで検出された領域の大きさとの間の差分が予め設定された閾値よりも大きい場合、オブジェクト状態判定部61はオブジェクトC_168が変化を生じている状態にあると判定する。このとき、事前に設定された設定値に応じて、オブジェクトC_168の特徴量が特徴量蓄積部57に蓄積される場合と、そこに蓄積されない場合とがある。通常、オブジェクトに変化が生じている状態の時は、このオブジェクトの特徴量は更新しないことにする。上記に説明した仕方で獲得したオブジェクトの画像の状態判定結果は、設定部61に入力される。これらの状態判定結果を受け、設定部61は予測部02_55の結果を用いることでこの種の設定処理を行うが、それはオブジェクトが互いに交差し、かつまたオブジェクトの画像が状態を変化しているときに位置検出結果の信頼性が不安定になる場合があるからである。また、オブジェクトの画像が単独の状態にあるか、或いはオブジェクトに変化が生じていないときは、位置検出結果の信頼性は高い場合が多く、設定部61は予測部01_56の結果を用いる設定処理を行う。なお、オブジェクト状態判定部62が代替的に交差の程度、換言すれば領域が互いにどの程度重複しているのかを判定、すなわちオブジェクトが前の状態からどの程度変化したかを判定することができる。そこで、この判定結果が設定部61に入力される。設定部61はこの判定された程度に応じた閾値を代替的に設定し、そこで予測部01_56の値或いは予測部02_55の値を代替的に選択することができる。
【0057】
オブジェクト状態判定部62が各オブジェクトの画像の交差が達成されたと判定すると、検出された複数のオブジェクトがその交差前にどのオブジェクトに対応していたかを目的に、特徴量照合部18はパターン蓄積部29が保持してきた個々のオブジェクトの画像の特徴量を用いて被検出オブジェクトについて照合を行い、類似度を算出する。また、個々のオブジェクトの位置は移動予測部14により予測できるため、この移動予測部14はオブジェクトの画像の移動予測を行うことができる。換言すれば、個々のオブジェクトの画像の移動予測を行ってこれらのオブジェクトが互いに交差する前のオブジェクトの速度及び方向ベクトルを導出しているため、これらのオブジェクトの画像が互いに交差した後に個々のオブジェクトの画像の移動領域が得られる。すなわち、オブジェクトの画像間の対応関係が、導出された移動予測領域とこれらのオブジェクトの画像が互いに交差した後に検出されたオブジェクトの画像に対する個々の特徴量の類似度とに基づき割り出される。
【0058】
上記した如く、特徴量蓄積部17に蓄積された特徴量とオブジェクトの画像の移動予測を用いることで、その交差前の個々のオブジェクトの画像とその交差後の個々のオブジェクトの画像との間の対応関係を高精度で確定することができる。
【0059】
隠蔽の場合、その隠蔽前のオブジェクトの画像と隠蔽後のオブジェクトの画像との間の対応関係が上記方法により確定される。
【0060】
本発明の上記した第2の実施形態によれば、個々のオブジェクトの画像の状態を反映させて個々のオブジェクトの画像の移動を予測することができる。換言すれば、障害物や隠蔽物や環境変化が原因でオブジェクトの画像の位置情報が正確に検出できない場合、現フレームにおいて検出された観測値を使用しない状態を設定部21に対し設定する。その結果、予測情報切り替え部20が移動予測部14による値の選択を制御し、信頼性の低い検出データを排除することができる。また、複数のオブジェクト同士が重複した場合、或いは交差する場合においても、この状態の判定結果が設定部21に設定され、予測情報設定部20が移動予測部14による値の選択を制御し、信頼性の低い検出データの悪影響を低減することができる。
【0061】
(実施形態3)
次に、図13は本発明の第3の実施形態に係るオブジェクト追跡方法を実現するオブジェクト追跡装置を示す。
【0062】
図13において、この第3の実施形態のオブジェクト追跡方法を実現するオブジェクト追跡装置は、映像入力部71と、オブジェクト追跡部72と、追跡時間積算部73と、データベース部74と、検索部75と、を含む。映像入力部71は、カメラから生成された映像から伝送される映像フレームと映像蓄積装置から出力された映像情報とを入力し、そこに蓄積する。カメラは、人の動きの状況を把握し、或いはイベントの発生を監視し、映像を伝送する。オブジェクト追跡部72は、映像入力部71から入力された映像について個々のオブジェクトの画像を追跡し、入力映像のフレーム毎に個々のオブジェクトの画像の追跡結果を出力する。追跡時間積算部73は、オブジェクト追跡部72から出力される個々のオブジェクトの追跡結果についての個々のオブジェクトの画像の追跡時間を積算する。データベース部74は、個々のオブジェクトの画像の追跡結果と積算追跡時間に関する情報と個々のオブジェクトの画像の映像情報とをそこに蓄積する。検索部75は、個々のオブジェクトの画像の追跡結果を内部蓄積したデータベース部74の情報を検索する。
【0063】
図13〜図15を参照するに、上記した構成を用いるオブジェクト追跡装置に関する動作を説明することにする。オブジェクト追跡部72が、映像入力部71により入力された映像について個々のオブジェクトの画像を追跡する。そこで、得られた個々のオブジェクトの追跡情報について、追跡時間積算部73が追跡時間を積算し、オブジェクトの画像の一連の情報をデータベース部74に蓄積する。図14に示す如く、データベース部74に蓄積される情報は、この情報の蓄積に使用するアドレス181と、オブジェクトの番号を示すオブジェクト番号182と、入力ソース183と、時間184と、位置185と、領域186と、特徴量情報187とから構成される。入力ソース183は、上記情報がどの入力ソースから入力されたかを示す情報に対応する。特徴量情報187は、オブジェクトの特徴量情報の蓄積場所を示す。検索部75は、ユーザから入力された検索条件をそこに入力し、データベース部74に蓄積された情報を検索し、検索結果として対応情報を出力する。例えば、図15の画面A_191に示す如く、検出されたオブジェクトA_193が家屋前を俳詣している場合を考えると、オブジェクトA_193の追跡情報及びオブジェクトA_193に関する滞在時間等の時間積算情報の両方がデータベース部74に蓄積される。そこで、ユーザは別の画面B_192に対し選択範囲194を設定し、指定された選択範囲194に対し滞在時間を設定する。換言すれば、オブジェクト追跡装置は設定された範囲について所定時間(例えば、10分以上)に亙り同一オブジェクトの画像が滞在している場合をデータベース部74から検索し、検索結果を出力する。なお、ユーザから入力された検索条件に関してはデータベース部74に蓄積されている情報に基づきどのような検索項目も随意組み含わせることができる。例えば、オブジェクトの画像の様々な検索条件、すなわち特定の領域に対し2人以上の人物が同時に滞在した場合のオブジェクトの画像を検索したり、特定の特徴量(例えば赤色の特徴量)を有するオブジェクトの画像を指定期間内で検索したり、一つの特定領域から別の特定領域へ移動したオブジェクトの画像を検索したりすることが想定できる。
【0064】
本発明の第3の実施形態のこの種オブジェクト追跡装置によれば、個々のオブジェクトの識別と特定のオブジェクトの位置情報及び時間情報を互いに組み合わせることで、個々のオブジェクトの行動軌跡とこれらのオブジェクトのそれぞれの場所における画像の滞在時間を算出することができる。また、画面上に現れる全てのオブジェクトに対し軌跡情報と滞在時間情報に関するデータベースを構築することができる。次に、構築されたデータベースに基づきオブジェクトの画像の動きに関する検索機能を実現することができる。
【0065】
(実施形態4)
次に、本発明の第4の実施形態に係るオブジェクト追跡装置を図16〜図18に示す。図16〜図18において、第4の実施形態のオブジェクト追跡装置は、複数の映像入力部01_81と、映像入力部02_82と、映像入力部n_83と、複数のオブジェクト追跡部84,85,86と、複数カメラ間オブジェクト追跡部87と、映像切り替え部88と、モニタ部89と、記録装置90と、を含む。複数の映像入力部01_81と映像入力部02_82と映像入力部n_83は、カメラから生成された映像から伝送された映像フレームと映像蓄積装置から出力された映像情報とを入力し、そこに蓄積する。カメラは、人の動きの状況を把握し、或いはイベントの発生を監視し、映像を伝送する。複数のオブジェクト追跡部84,85,86は、複数の映像入力部81,82,83から入力された映像について個々のオブジェクトの画像を追跡し、そこで入力映像のフレーム毎に個々のオブジェクトの画像の追跡結果を出力する。複数カメラ間オブジェクト追跡部87は複数のオブジェクト追跡部84,85,86から出力された個々のオブジェクトの追跡結果を入力し、複数カメラ間において同一オブジェクトを追跡する。映像切り替え部88は、複数カメラ間オブジェクト追跡部87により得られる複数カメラ間オブジェクトの追跡結果に従い複数の映像入力部81,82,83の映像を切り替える。モニタ部89は、映像切り替え部88から出力された映像を表示する。記録装置90は、映像切り替え部88の映像をそこに記録する。また、オブジェクト追跡部84,85,86は、オブジェクト領域獲得部91,97と、3次元位置情報獲得部92,98と、オブジェクト色情報獲得部93,99と、頭部位置獲得部94,100と、時間情報生成部95,101と、さらに映像入力番号96,102と、により構成してある。複数カメラ間オブジェクト追跡部87は、3次元位置照合部103と、オブジェクト色情報照合部104と、時間情報照合部105と、カメラ番号情報106と、同一オブジェクト判定部107と、から構成してある。
【0066】
ここで図16〜図18を参照し、上記構成を用いたオブジェクト追跡装置の動作を説明する。個々の映像入力部81,82,83に対応するオブジェクト追跡部84,85,86は、個々の映像入力部81,82,83に対応するオブジェクトの追跡情報を獲得することができる。オブジェクト追跡ブロック84,85,86には、オブジェクトの領域獲得結果を獲得するオブジェクト領域獲得部91,97と、オブジェクトの画像の特徴量の一つであるオブジェクト色情報獲得部93,99と、オブジェクトの画像の位置情報を獲得する頭部位置獲得部94,100と、オブジェクトの画像の軌跡情報とともに付随する時間情報を獲得する時間情報生成部95,101と、個々の映像入力部81,82,83の識別に用いる映像入力番号96,102と、さらにオブジェクトの画像の位置情報を3次元位置情報へ変換する3次元位置情報獲得部92,98と、を備える。これらのオブジェクト追跡部84,85,86は、個々のオブジェクトの画像に関連する情報を獲得する。オブジェクトの3次元位置情報を獲得するため、各映像入力部81,82,83に対し事前にキャリブレーション処理を行い、入力映像間の幾何学的位置関係を導出する。図18に示す如く、映像入力部_01_111,・・・,映像入力部_n_113から入力された映像に対しキャリブレーション部114,115,116が個々のカメラにおけるキャリブレーション処理を行う。得られた内部パラメータと外部パラメータは共にカメラ間幾何学的位置関係整合部117へ入力し、個々の入力映像の幾何学的位置関係を導出する。この工程処理を実行するため、2次元位置情報は3次元位置情報へ変換することができる。得られる3次元位置情報は、世界座標系(すなわち、個々の入力画像の座標系に依存しない座標系)となる。オブジェクト追跡ブロック84,85,86により得られたオブジェクトの各情報は複数カメラ間オブジェクト追跡部87へ入力し、互いに照合し、そこで同一オブジェクトであるか否かの判定を行う。複数のカメラ間を移動してきたオブジェクトの画像が同一であると判定された場合、その時の移動先の映像入力番号を映像切り替え部88へ出力する。映像入力番号を入力した映像切り替え部88は、現映像を受ける映像入力番号の映像に切り替え、モニタ部89に対しモニタ出力を変更する。同様に、映像切り替え部88は映像出力を記録装置90へ切り替える。図20は、入力映像間に跨がる移動とそのときのモニタ映像との間の関係を示すものである。図中、時刻T+1_202にカメラ01_207にオブジェクトA_201が出現するものとしてある。カメラ01_207の映像出力は映像入力部_01_111に繋がっており、この目的に沿って他のカメラが同様に対応する映像入力部に接続されていることを、理解されたい。その時、モニタ部214上には、カメラ01_207が撮像した映像と組み合わせてオブジェクトA_201が表示されている。その後、時刻T+2_203に、オブジェクトA_201がカメラ01_207からカメラ02_208へ移動した場合、複数カメラ間オブジェクト追跡部87はオブジェクトA_201が撮像部01_207から撮像部02_208へ移動した事実を検知し、そこでこの複数カメラ間オブジェクト追跡部87がカメラ02_208に接続されている映像入力部_02_112の番号を映像切り替え部88へ出力する。この番号を受けて、映像切り替え部88はモニタ部89と記録装置90の双方に対し映像を切り替える。同様に、時刻T+3_204において、オブジェクトA_201がカメラ02_208から別のカメラ03_209へ移動した場合、モニタ上に表示される映像はカメラ02_208からカメラ03_209へ切り替わる。その後、オブジェクトA_201の移動に同期してカメラ04_210とカメラ05_211の映像が切り替えられる。
【0067】
本発明の第4の実施形態によれば、複数のカメラを設置したシステム内で特定オブジェクトの一連の動きを監視するような場合、もはやオペレータが複数のカメラ間に跨る特定のオブジェクトの動きに応じて手動で映像を切り替えることはなく、かくして複数カメラに跨がる特定オブジェクトの動きに応答して映像を自動的に切り替えることができるようになる。また、映像切り替え部88は記録装置90に接続してあるため、特定オブジェクトの動きに関するような映像だけを記録することができ、かくして特定のオブジェクトに関する記録を行うことができる。
【0068】
(第5の実施形態)
次に、本発明の第5の実施形態のオブジェクト追跡装置を図19に示す。同図中、第5の実施形態のオブジェクト追跡装置は、映像入力部121と、オブジェクト追跡部122と、記録装置123と、記録設定部124と、を用いて構成してある。映像入力部122はカメラから生成される映像から伝送される映像フレームと映像蓄積装置から出力された映像情報とをその内部に蓄積する。カメラは、人物の動きの状態を把握し、或いはイベントの発生を監視し、映像を伝送する。オブジェクト追跡部122は映像入力部121から入力された映像について個々のオブジェクトの画像を追跡し、入力画像のフレーム毎に個々のオブジェクトの画像の追跡結果を出力する。記録装置123は、オブジェクト追跡部122から出力された個々のオブジェクトの追跡領域を用いることで記録処理を行う。記録設定部124は、記録装置123の設定値を設定して記録装置123の記録機能を変更する。
【0069】
ここで図19と図21を参照し、上記構成を用いたオブジェクト追跡装置についての動作を説明することにする。
【0070】
映像入力部121により入力された映像に対し、オブジェクト追跡部122が個々のオブジェクトの画像を追跡する。そこで、得られた個々のオブジェクトの領域情報が、映像入力部121が入力する映像と組み合わせて記録装置123へ入力される。記録装置123は、入力映像を記録設定部124の設定に従い記録する。記録設定部124は、様々な種類の設定値を設定することができ、すなわち図21のケースA_216に示す如く、オブジェクトA_218の領域内で低圧縮率かつ高画質での記録条件を設定し、オブジェクトA_218の領域以外の領域について高圧縮率かつ低画質での記録条件を設定する。さらに、図21のケースB_217に示す如く、オブジェクトA_218の領域内で庄縮率30%での記録条件を設定し、オブジェクトA_218の領域以外の領域内で圧縮率80%での記録条件を設定する。また、この種の記録条件は、領域内では記録処理を行い、その他の領域では記録処理を全くしない等に設定される。また、上記設定以外に、アラームが入力されたときに、記録処理の設定を有効にすることもできる。例えば、アラームが入力されたときに、オブジェクト領域のみ高画質で記録するよう記録条件を設定することができる。
【0071】
本発明の第5の実施形態に係るオブジェクト追跡装置によれぽ、個々のオブジェクトの領域情報を用いるため、注目領域以外の領域の記録処理は行わず、特定オブジェクトの領域のみ記録することができる。また、記録設定部124の設定に基づき、特定オブジェクトの領域については低圧縮率かつ高解像度で記録処理を行うのに対し、この特定オブジェクト領域以外の領域については高圧縮率かつ低解像度で記録処理を行う。
【産業上の利用可能性】
【0072】
前記した如く、本発明は人物や車両等のオブジェクトが互いに交差し、或いは互いに隠蔽するシーン状況等の下で、或いは外乱ノイズと環境変動が引き起こす悪影響に対し、目標オブジェクトを追跡する方法を提供することができる。換言すれば、オブジェクト追跡工程処理において、観測ノイズが引き起こす悪影響や信頼性の低い入力値が引き起こす悪影響を自動的に判定し、かくして信頼性の低い入力値の使用を減らし、高い信頼性でもって予測が実行できるようにしてある。また、後続フレームの位置及び領域の両方に関する情報をオブジェクト追跡目的に移動領域に加え前フレームの位置及び領域から予測し、オブジェクトの追跡時に計算処理量が低減できる効果を有するオブジェクト追跡方法が提供できるようになる。
【図面の簡単な説明】
【0073】
【図1】本発明の第1の実施形態に係るオブジェクト追跡装置を示すブロック図である。
【図2】本発明の第1の実施形態に係るオブジェクト追跡装置の特徴量蓄積部を示す図である。
【図3】本発明の第1の実施形態におけるオブジェクト追跡装置の特徴量照合部を示す図である。
【図4】本発明の第1の実施形態に係るオブジェクト追跡装置の予測部を示す図である。
【図5】本発明の第1の実施形態に係るオブジェクト追跡装置のオブジェクト位置検出部を示す図である。
【図6】本発朋の第1の実施形態に係るオブジェクト追跡装置のオブジェクト領域検出部を示す図である。
【図7】本発明の第1の実施形態に係るオブジェクト追跡装置の工程動作を説明するフローチャートである。
【図8】本発明の第1の実施形態に係るオブジェクト追跡装置の位置検出工程を示す図である。
【図9】本発明の第1の実施形態に係るオブジェクト追跡装置のオブジェクト領域検出部を示す図である。
【図10】本発明の第1の実施形態に係るオブジェクト追跡装置により得られる領域検出結果の領域情報を示す図である。
【図11】本発明の第2の実施形態に係るオブジェクト追跡装置を示す図である。
【図12】本発明の第2の実施形態に係るオブジェクト追跡装置の動作を説明する説明図である。
【図13】本発明の第3の実施形態に係るオブジェクト追跡装置を示す図である。
【図14】本発明の第3の実施形態に係るオブジェクト追跡装置のデータベース部に蓄積された情報を示す図である。
【図15】データベース部の検索により得られる情報を表示する画面例である。
【図16】本発明の第4の実施形態に係るオブジェクト追跡装置を説明する説明図である。
【図17】本発明の第4の実施形態に係るオブジェクト追跡装置を説明する説明図である。
【図18】本発明の第4の実施形態に係るオブジェクト追跡装置を説明する説明図である。
【図19】本発明の第5の実施形態に係るオブジヱクト追跡装置を説明する説明図である。
【図20】本発明の第5の実施形態に係るオブジェクト追跡装置を説明する説明図である。
【図21】本発明の第5の実施形態に係るオブジェクト追跡装置を説明する説明図である。
【符号の説明】
【0074】
11,51 フレームパッファ部
12,52 オブジェクト位置検出部
13,53 オブジェクト領域検出部
14,54 移動予測部
15,55 第1の予測部
16,56 第2の予測部
17,57 特徴量蓄積部
18,58 特徴量照合部
19,59 領域判定部
20,60 予測情報切り替え部
21,61 設定部
22 予測情報蓄積部
23 位置・領域蓄積部
24 予測位置部分蓄積部
25 照合部
26 パターン更新部
27 位置・領域判定部
28 データベース
62 オブジェクト状態判定部
63 オブジェクト追跡装置
71,121 映像入力部
72,84,85,86,122 オブジェクト追跡部
73 追跡時間積算部
74 データベース部
75 検索部
87 複数カメラ間オブジェクト追跡部
88 映像切り替え部
89 モニタ部
90,123 記録装置
114,115,116 キャリブレーション部
117 カメラ間幾何学的位置関係整合部
91,97 オブジェクト領域獲得部
92,98 3次元位置情報獲得部
93,99 オブジェクト色情報獲得部
94,100 頭部位置獲得部
95,101 時間情報生成部
96,102 映像入力番号
103 3次元位置照合部
104 オブジェクト色情報照合部
105 時間情報照合部
106 カメラ番号情報
107 同一オブジェクト判定部
124 記録設定部
139 特徴量抽出部

【特許請求の範囲】
【請求項1】
映像情報を蓄積する工程と、
前記映像情報からオブジェクトの位置情報を検出する工程と、
前記位置情報に基づき前記映像情報中の前記オブジェクトの領域を検出する工程と、
前記領域内に位置する前記オブジェクトの特徴量を検出する工程と、
前記オブジェクトの前記位置情報と前記特徴量と前記領域とを蓄積する工程と、
前記位置情報から前記映像情報中の次フレームの前記オブジェクトの位置を予測する工程と、
前記次フレームのオブジェクトの予測位置に基づき前記領域が移動しようとする前記次フレームの予測領域を判定する工程と、
前記次フレームの前記予測領域内の前記オブジェクトの特徴量を照合する工程と、
前記照合工程における照合結果に基づき前記特徴量に最も類似する前記予測領域の範囲をオブジェクト領域として出力する工程と、
を含むオブジェクト追跡方法。
【請求項2】
前記予測工程は、
前記位置情報に基づき前記次フレームの前記オブジェクトの第1の位置を予測する工程と、
前フレームの前記オブジェクトの位置に基づき前記次フレームの前記オブジェクトの第2の位置を予測する工程と、
前記次フレームのオブジェクトの予測された第1の位置と前記次フレームのオブジェクトの予測された第2の位置の一方を選択する工程と、
前記選択工程で選択した前記次フレームのオブジェクトの予測位置を出力する工程と、
を含む請求項1記載のオブジェクト追跡方法。
【請求項3】
前記第1の位置の予測工程と前記第2の位置の予測工程は、動的な予測モデルを構築することで行う請求項2記載のオブジェクト追跡方法。
【請求項4】
複数の前記オブジェクトの状態を判定する工程をさらに含み、
前記次フレームのオブジェクトの前記予測された第1の位置と前記次フレームのオブジェクトの予測された前記第2の位置を前記選択工程における設定値に基づき選択し、
前記設定値は前記オブジェクトの状態に基づき決定する請求項2記載のオブジェクト追跡方法。
【請求項5】
過去の前記位置情報に対し重み付け値を付与する工程をさらに含み、
前記重み付け値を有する前記位置情報を前記予測工程に使用する請求項2記載のオブジェクト追跡方法。
【請求項6】
蓄積部内の前記オブジェクトの特徴量を前記判定工程における前記オブジェクトの状態結果に基づき更新するかどうか判定する工程をさらに含む請求項4記載のオブジェクト追跡方法。
【請求項7】
撮像部から獲得し或いは映像蓄積部から出力された映像情報を蓄積する工程と、
個々のオブジェクトを前記映像情報について追跡し、該映像情報のフレーム毎に前記個々のオブジェクトの追跡結果を出力する工程と、
前記個々のオブジェクトの追跡結果について該個々のオブジェクトの追跡時間を積算する工程と、
前記個々のオブジェクトの追跡結果と前記積算追跡時間に関する情報とデータベース部内の前記個々のオブジェクトに関する情報とを蓄積する工程と、
前記データベース部内に蓄積された前記情報を検索する工程と、
を含むオブジェクト追跡方法。
【請求項8】
撮像部から獲得し或いは映像蓄積部から出力された複数の映像情報を複数の蓄積部へ蓄積する工程と、
個々のオブジェクトを前記映像情報について追跡し、該映像情報のフレーム毎に前記個々のオブジェクトの追跡結果を出力する工程と、
複数の撮像部間で撮像された同一のオブジェクトを前記個々のオブジェクトの追跡結果に基づき追跡する工程と、
撮像部間の前記同一オブジェクトの追跡結果に従い、前記蓄積部の複数の映像情報を切り替える工程と、
前記切り替え工程にて切り替えられた映像情報を記録する工程と、
を含むオブジェクト追跡方法。
【請求項9】
撮像部間の前記オブジェクトの追跡精度を改善すべく前記各蓄積部の幾何学的キャリブレーションを事前に行う工程と、
前記蓄積部の個々の幾何学的キャリブレーション結果を統合する工程とをさらに含み、
前記撮像部間に跨がる前記オブジェクトを追跡する場合に、前記撮像部間の位置関係を用いて前記オブジェクトを追跡する請求項8記載のオブジェクト追跡方法。
【請求項10】
撮像部から獲得し或いは映像蓄積部から出力された複数の映像情報を蓄積する工程と、
個々のオブジェクトを前記映像情報について追跡する工程と、
前記映像情報のフレーム毎に前記個々のオブジェクトの追跡結果を出力する工程と、
前記出力工程にて出力された前記オブジェクトのそれぞれの追跡領域を用いて記録処理を行う工程と、
設定値を設定する工程とを含み、
前記設定値に基づき前記記録処理を行うオブジェクト追跡方法。
【請求項11】
映像情報を蓄積する構成としたバッファ部と、
前記映像情報からオブジェクトの位置情報を検出するオブジェクト位置検出部と、
前記位置情報に基づき映像情報中の前記オブジェクトの領域を検出するオブジェクト領域検出部と、
前記領域内に位置する前記オブジェクトの特徴量を検出し、前記オブジェクトの前記位置情報と特徴量と領域とを蓄積する蓄積部と、
前記位置情報から前記映像情報中の次フレームの前記オブジェクトの位置を予測する予測部と、
前記次フレームのオブジェクトの予測位置に基づき、前記領域が移動しようとする前記次フレームの予測領域を判定する判定部と、
前記次フレームの予測領域内の前記オブジェクトの特徴量を照合し、該照合結果に基づき前記特徴量に最も類似する前記予測領域の範囲をオブジェクト領域として出力する照合部と、
を備えるオブジェクト追跡装置。
【請求項12】
前記予測部は、
前記位置情報に基づき前記次フレームの前記オブジェクトの第1の位置を予測する第1の予測部と、
前フレームの前記オブジェクトの位置に基づき前記次フレームの前記オブジェクトの第2の位置を予測する第2の予測部と、
前記次フレームの前記オブジェクトの予測された第1の位置と前記次フレームの前記オブジェクトの予測された第2の位置の一方を選択し、設定値に従い前記オブジェクトの前記選択された予測位置を出力する予測情報切り替え部と、
を備える請求項11記載のオブジェクト追跡装置。
【請求項13】
撮像部から獲得し或いは映像蓄積部から出力された映像情報を蓄積する蓄積部と、
個々のオブジェクトを前記映像情報について追跡し、該映像情報のフレーム毎に前記個々のオブジェクトの追跡結果を出力するオブジェクト追跡部と、
前記個々のオブジェクトの追跡結果について該個々のオブジェクトの追跡時間を積算する追跡時間積算部と、
個々のオブジェクトの追跡結果に関する情報と前記積算追跡時間に関する情報と前記個々のオブジェクトに関する情報とを蓄積するデータベース部と、
前記データベース部内に蓄積された前記情報を検索する検索部と、
を含むオブジェクト追跡装置。
【請求項14】
撮像部から獲得し或いは映像蓄積部から出力された複数の映像情報を蓄積する複数の蓄積部と、
個々のオブジェクトを前記映像情報について追跡し、映像情報のフレーム毎に個々のオブジェクトの追跡結果を出力する複数のオブジェクト追跡部と、
複数の撮像部間で撮像された同一のオブジェクトを前記個々のオブジェクトの追跡結果に基づき追跡する交差オブジェクト追跡部と、
撮像部間の同一オブジェクトの追跡結果に従い前記蓄積部の前記複数の映像情報を切り替える切り替え部と、
前記切り替え部により切り替えられた前記映像情報を記録する記録部と、
を備えるオブジェクト追跡装置。
【請求項15】
前記複数撮像部間での前記オブジェクトの追跡精度を高めるため、前記各映像入力部の幾何学的なキャリブレーションを事前に行うキャリブレーション部と、
前記蓄積部の前記個々の幾何学的なキャリブレーションの結果を統合する撮像部間幾何学的位置関係整合部とをさらに備え、
前記撮像部間に跨る前記オブジェクトを追跡する場合に、前記撮像部間の位置関係を用いて前記オブジェクトを追跡する請求項14記載のオブジェクト追跡装置。
【請求項16】
撮像部から獲得し或いは映像蓄積部から出力された映像情報を蓄積する蓄積部と、
個々のオブジェクトを前記映像情報について追跡し、前記映像情報のフレーム毎に前記個々のオブジェクトの追跡結果を出力するオブジェクト追跡部と、
前記オブジェクト追跡部から出力された前記オブジェクトのそれぞれの追跡領域を用いて記録処理を行う記録部と、
設定値を設定する設定部とを備え、
前記設定値に基づき前記記録部が前記記録処理を行うオブジェクト追跡装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate


【公表番号】特表2009−510541(P2009−510541A)
【公表日】平成21年3月12日(2009.3.12)
【国際特許分類】
【出願番号】特願2008−506879(P2008−506879)
【出願日】平成18年7月20日(2006.7.20)
【国際出願番号】PCT/JP2006/314827
【国際公開番号】WO2007/037065
【国際公開日】平成19年4月5日(2007.4.5)
【出願人】(000005821)パナソニック株式会社 (73,050)
【Fターム(参考)】