説明

物体検知装置、物体検知方法、監視カメラシステム、およびプログラム

【課題】カメラを設置したシーンに対するパラメータを設定して物体と外乱の区別を精度よく行う。
【解決手段】画像データを取得する画像取得部と、画像データを構成する部分領域ごとに特徴量を抽出する特徴抽出部と、対象物体を含まない背景画像データから特徴抽出部により抽出された特徴量を、背景特徴量として部分領域ごとに記憶する背景特徴量記憶部と、部分領域ごとに、抽出された特徴量と背景特徴量とを比較して、部分領域のそれぞれが対象物体であるか否かを判定する第1の物体領域判定部と、第1の物体領域判定部による複数の判定結果に基づいて、部分領域ごとにパラメータを決定するパラメータ決定部と、決定されたパラメータと、第1の物体領域判定部による判定結果とに基づいて、部分領域が対象物体であるか否かを判定する第2の物体領域判定部と、を備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、物体検知装置、物体検知方法、監視カメラシステム、およびプログラムに関し、特にカメラ等の撮像装置により撮影された画像から所定の物体を検知する物体検知装置、物体検知方法、監視カメラシステム、およびプログラムに関する。
【背景技術】
【0002】
近年、セキュリティのために監視カメラの設置が急速に普及している。また、そのようなカメラを使って、不審な人物や物体の侵入を自動的に検知する装置が提案されている。このような物体検知機能に適用可能な技術としては、予め侵入者のいないシーンを背景画像として撮影しておき、入力画像と背景画像との差分から侵入者としての物体領域を検知する方法が知られている。
【0003】
しかしながら、背景で木の葉が揺らいでいたり、水面が揺れていたりするシーンにおいては、侵入した人物や物体を検知するだけでなく、背景部分を誤検知してしまうといった問題があった。このような課題を解決する為に、特許文献1では入力画像と背景画像との差異の時間的な変化を捉え、木の葉の揺らぎを判定する方法が提案されている。また、非特許文献1では入力画像に対応する背景画像だけでなく近傍の背景モデルとの比較も行うことで物体の侵入と外乱とを区別する方法が提案されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2006−107457号公報
【非特許文献】
【0005】
【非特許文献1】Dalley, Migdal and Grimson, “Background Subtraction for Temporally Irregular Dynamic Textures”, Workshop on Applications of Computer Vision, January 2008
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、従来例において精度良く物体を検知し、外乱との区別を行う為には、判定する際のパラメータを適切に定める必要がある。一方、そのようなパラメータの値はカメラを設置したシーンに依存するが、それらを適切かつ簡易に設定する方法は提案されていないという課題がある。
【0007】
上記の課題に鑑み、本発明は、カメラを設置したシーンに最適なパラメータを設定して物体と外乱との区別を精度よく行うことを目的とする。
【課題を解決するための手段】
【0008】
上記の目的を達成する本発明に係る物体検知装置は、
画像データから対象物体を検知する物体検知装置であって、
所定の視点から所定の方向を撮像した画像データを取得する画像取得手段と、
前記画像取得手段により取得された前記画像データを構成する部分領域ごとに特徴量を抽出する特徴抽出手段と、
前記画像取得手段により取得された前記対象物体を含まない背景画像データから前記特徴抽出手段により抽出された特徴量を、背景特徴量として前記部分領域ごとに記憶する背景特徴量記憶手段と、
前記部分領域ごとに、前記特徴抽出手段により抽出された特徴量と、前記背景特徴量とを比較して、当該部分領域のそれぞれが前記対象物体であるか否かを判定する第1の物体領域判定手段と、
前記第1の物体領域判定手段による複数の判定結果に基づいて、部分領域ごとにパラメータを決定するパラメータ決定手段と、
前記パラメータ決定手段により決定された前記パラメータと、前記第1の物体領域判定手段による判定結果とに基づいて、前記部分領域が前記対象物体であるか否かを判定する第2の物体領域判定手段と、
を備えることを特徴とする。
【発明の効果】
【0009】
本発明によれば、カメラを設置したシーンに最適なパラメータを設定して物体と外乱との区別を精度よく行うことが可能となる。
【0010】
更に、画像の部分領域毎に前記パラメータを決定し、物体と外乱の区別を行うようにすることで、一つの撮影シーンに様々な誤検知要因が混在していても物体と外乱の区別を精度よく行うことが可能となる。
【図面の簡単な説明】
【0011】
【図1】第1実施形態に係る物体検知装置の機能構成を示す図。
【図2】第1実施形態に係るパラメータ設定時の処理を示すフローチャート。
【図3】第1の物体領域判定部による判定結果の例を示す図。
【図4】第1実施形態に係る物体検知処理を示すフローチャート。
【図5】第2実施形態に係る物体検知装置の機能構成を示す図。
【図6】第2実施形態に係るパラメータ設定時の処理を示すフローチャート。
【図7】第2実施形態に係る物体検知処理を示すフローチャート。
【発明を実施するための形態】
【0012】
(第1実施形態)
図1を参照して、第1実施形態に係る物体検知装置の機能構成を説明する。画像取得部10は、ビデオカメラ等の撮像部により所定の視点から所定の方向を連続して撮像した画像データを取得する。特徴抽出部20は、画像取得部10により取得された各フレームの画像データから部分領域毎に特徴量を抽出する。第1の物体領域判定部30は、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている背景特徴量とを比較し、特徴量が抽出された部分領域が物体領域であるか否かを判定する。背景モデル記憶部40は、画像取得部10により取得された背景のみの画像データ(背景画像データ)から特徴抽出部20により抽出された特徴量に基づいて構成される背景特徴量を、基準モデルとして記憶する(背景特徴量記憶処理)。
【0013】
判定結果記憶部50は、第1の物体領域判定部30による判定結果を部分領域毎に記憶する。モデル更新部60は、第1の物体領域判定部30および後述の第2の物体領域判定部80による判定結果に基づいて背景モデル記憶部40に記憶されている背景モデルを更新する。統計量算出部70は、判定結果記憶部50に記憶された複数の判定結果から統計量を算出する。
【0014】
第2の物体領域判定部80は、統計量算出部70により算出された統計量に基づいて、第1の物体領域判定部30により物体領域であると判定された部分領域が、物体領域であるかまたは外乱であるかを判定する。パラメータ記憶部90は、第2の物体領域判定部80が判定のために用いるパラメータを部分領域毎に記憶する。
【0015】
物体領域出力部100は、第2の物体領域判定部80により判定された結果を出力する。教示部110は、画像取得部10により取得された画像データから検知対象とする物体を含まない範囲を入力する。統計量記憶部120は、統計量算出部70により算出された統計量を記憶する。パラメータ決定部130は、統計量記憶部120に記憶された統計量に基づいて第2の物体領域判定部80で用いるパラメータを決定する。画像記憶部200は、画像取得部10により取得された画像を記憶する。
【0016】
以下、本実施形態に係る各種動作を説明する。まず、図2のフローチャートを参照して、パラメータ設定時の処理の流れを説明する。
【0017】
まず、ステップS101において、画像取得部10は、ビデオカメラ等の撮像部により撮像された画像データを取得する。取得された画像データは画像記憶部200に所定フレーム分だけ記憶される。
【0018】
ステップS102において、教示部110は、ユーザが教示するパラメータ設定期間を取得する。ステップS101において画像記憶部200に記憶された画像データが不図示の表示装置に表示される。ユーザは表示された画像データを見て検知対象が写っていない範囲がどの時刻からどの時刻までであるかをパラメータ設定期間として教示する。すなわち、背景画像データはユーザにより選択される(選択受付処理)。教示部110は指定された期間を内部メモリに記憶しておく。なお、明らかに検知対象が存在しない状態で撮影が行われていれば、上述したようなユーザによる撮影後の範囲の教示は不要である。
【0019】
次に、ステップS103において、画像記憶部200に記憶された画像データに基づいて背景モデルを初期化する。まず、特徴抽出部20は画像記憶部200に記憶されている最初のフレームの画像データから部分領域画像を取得する。部分領域画像は、例えば、画像データを8×8画素のブロックに分割して、ブロック毎に取得される。そして、部分領域画像の特徴量を抽出する。本実施形態では、特徴量として最も簡単な輝度平均値を用いる。この他にも、部分領域画像内の各画素の輝度値をヒストグラム化したものを特徴量としてもよいし、RGB値やエッジ方向のヒストグラムを特徴量としてもよい。また、部分領域画像にDCT(Discrete Cosine Transform)処理を行った出力値であるDCT係数の一部を特徴量としてもよい。そして、モデル更新部60は特徴抽出部20により抽出された特徴量から部分領域毎に背景モデルを生成し、背景モデル記憶部40に記憶する。即ち、特徴抽出部20で部分領域毎に抽出された輝度平均値が背景モデルとして記憶される。以上の処理が所定フレーム分だけ順次繰り返して行われる。
【0020】
なお、モデル更新部60による第2フレーム以降の処理は、既に生成された背景モデルを更新する処理である。即ち、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている対応する部分領域の特徴量とを、所定の重みを付けて加算する。検知対象が写っていないシーンにおいては基本的には画像が変化しないので各部分領域において類似の特徴量が抽出される。そのため、更新時に背景モデルは大きく変動することはない。但し、背景が変動するような場合には対応できないので、背景モデルの特徴量が大きく変動する場合には部分領域毎に複数の背景モデルを持つように構成してもよい。
【0021】
ステップS104において、第1の物体領域判定部30は、部分領域毎に、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている背景モデルとを比較し、特徴量が抽出された部分領域が物体領域であるか否かを判定する。ここでは、ステップS103の処理で背景モデル初期化に使用された以降の時刻の画像データに基づいて物体領域を判定する。第1の物体領域判定部30は、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている対応する部分領域の特徴量との差分絶対値を算出し、その結果を所定の閾値と比較する。第1の物体領域判定部30は、閾値以上の場合は物体領域であると判定し、閾値未満の場合は背景領域であると判定する。そして、物体領域であると判定された場合「1」として、それ以外の背景領域であると判定された場合「0」として、2値の何れかの値が判定結果記憶部50に部分領域毎に記憶される。また、この際、モデル更新部60は、第1の物体領域判定部30による判定結果に応じて背景モデルを更新する。即ち、背景領域であると判定された場合に、その領域の画像を用いて、ステップS103で説明した方法と同様に背景モデルを更新する。
【0022】
以上の処理が順次繰り返して行われ、判定結果記憶部50では部分領域毎に第1の物体領域判定部30による判定結果が時系列に記憶される。なお、教示部110では検知対象とする物体を含まない画像を教示しているので、ここで物体領域とされた判定結果は全て誤判定である。
【0023】
ステップS105において、統計量算出部70は、判定結果記憶部50に記憶された複数フレームの判定結果から統計量を算出する。本実施形態では、所定フレーム分連続した物体領域の判定結果を、部分領域毎に判定結果記憶部50から取得し、その期間における物体領域と判定された結果の継続時間(フレーム連続数)を統計量として算出する。例えば、10フレーム分の連続した判定結果が得られた時点で物体領域、即ち「1」として記憶された値の継続時間を出力する。図3にその例を示す。図3の数値はある部分領域の10フレーム分の物体領域判定結果であり、「1」は物体領域、「0」は背景領域と判定された結果を表す。また、図3(a)は水面など外乱により誤判定が起こりやすい領域での判定結果の例であり、図3(b)は通常の安定した背景領域での判定結果の例である。このとき、図3(a)の場合は統計量として継続時間「2」を1回、継続時間「1」を3回出力する。また、図3(b)の場合は統計量を出力しない。統計量算出部70は、第1の物体領域判定部30の処理進行に従って順次統計量を算出し、統計量記憶部120に記憶していく。
【0024】
ステップS104の物体領域判定処理とステップS105の統計量算出処理とが、ステップS102で教示された期間に対応するフレーム分だけ順次繰り返して行われる。すなわち、ステップS106において、全フレーム処理されたか否かが判定される。全フレームが処理されたと判定された場合(ステップS106;YES)、ステップS107へ進む。一方、全フレーム処理されていないと判定された場合(ステップS106;NO)、ステップS104へ戻り、次のフレームを処理する。
【0025】
ステップS107において、パラメータ決定部130は、統計量記憶部120に記憶された統計量から第2の物体領域判定部80で用いるパラメータを決定する。本実施形態では、統計量記憶部120に記憶されている継続時間のヒストグラムからパラメータの決定を部分領域毎に行う。まず、継続時間のヒストグラムを正規化する。本実施形態では、10フレーム分の物体領域判定結果から継続時間を得ているので1から10の各継続時間に対するカウント値の総和が1になるように各継続時間のカウント値を割合に変換する。そして、その割合が所定値よりも大きいか小さいかを判定する。そして、割合が所定値を越える最大の継続時間をパラメータとして部分領域毎にパラメータ記憶部90に記憶する。継続時間の占める割合が所定値よりも大きい範囲を後述する第2の物体領域判定部80による処理で「外乱」と判定するようにパラメータを求める。これにより、領域別に頻繁に短時間に発生する誤判定パターンを抑制することができる。即ち、ここでは誤判定パターンを誤判定の発生する継続時間として捉えている。
【0026】
次に図4のフローチャートを参照して、物体検知処理の流れを説明する。
【0027】
ステップS201において、画像取得部10は、画像データを取得し、取得された画像データは画像取得部10の内部メモリに記憶される。
【0028】
ステップS202において、特徴抽出部20は、画像取得部10により取得された画像データから部分領域毎に特徴量を抽出する。特徴抽出は画像取得部10に記憶されている画像データから行うが、前述したパラメータ設定時と同様の処理が行われる。
【0029】
ステップS203において、第1の物体領域判定部30は、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている背景モデルとを比較し、特徴量が抽出された部分領域が物体領域であるか否かを判定する。ここでは前述したパラメータ設定時のステップS104と同様の処理が行われる。
【0030】
ステップS204において、統計量算出部70は、判定結果記憶部50に記憶された複数の判定結果から統計量を算出する。ここでは前述したパラメータ設定時のステップS105と同様の処理が行われるが、算出された統計量は第2の物体領域判定部80に出力される。
【0031】
ステップS205において、第2の物体領域判定部80は、統計量算出部70により算出された統計量に基づいて、第1の物体領域判定部30により物体領域であると判定された部分領域が物体領域であるかまたは外乱であるかを判定する。即ち、第2の物体領域判定部80は、統計量算出部70で求められた物体判定継続時間がパラメータ設定時に求められてパラメータ記憶部90に記憶されているパラメータを越える場合にその領域を「外乱」ではなく「対象物体」であると判定する。判定結果は部分領域毎に第1の物体領域判定部30と同様に物体領域を「1」、外乱を含むそれ以外の背景領域を「0」とした2値画像として第2の物体領域判定部80内のメモリに記憶される。また、この際、モデル更新部60は第2の物体領域判定部80による判定結果に応じて背景モデルを更新する。
【0032】
ステップS206において、物体領域出力部100は、第2の物体領域判定部80による判定結果を出力する。例えば、第2の物体領域判定部80に記憶されている物体領域を表す2値画像を画像データに重畳してディスプレイに表示する。
【0033】
ステップS201からステップS206までの各処理が不図示の制御部によってフレーム毎に順次繰り返して行われるよう制御される。すなわち、ステップS207において、全フレーム処理されたか否かが判定される。全フレームが処理されたと判定された場合(ステップS207;YES)、処理を終了する。一方、全フレーム処理されていないと判定された場合(ステップS207;NO)、ステップS201へ戻る。
【0034】
以上説明したように本実施形態では、検知対象とする物体を含まない画像から物体領域として誤判定された複数フレームの結果から統計量を求め、物体と外乱とを区別するパラメータを決定する。そして、決定されたパラメータを用いて物体領域を判定する。このような構成により、外乱による誤判定を抑制することができる。
【0035】
(第2実施形態)
本実施形態では物体領域判定部による複数の判定結果から第2特徴量を抽出し、検知対象とする物体を含まない画像から抽出された第2特徴量に基づいて機械学習によって物体と外乱を区別するパラメータを決定する例について説明する。
【0036】
図5を参照して、本実施形態に係る物体検知装置の機能構成を説明する。本実施形態では、第1実施形態における統計量算出部70、統計量記憶部120、およびパラメータ決定部130の代わりに、それぞれ第2の特徴抽出部210、第2の特徴量記憶部220、および学習部230を用いる。
【0037】
第2の特徴抽出部210は、判定結果記憶部50に記憶された複数の判定結果から第2特徴量を抽出する。特徴量記憶部220は、第2の特徴抽出部210により抽出された第2特徴量を記憶する。学習部230は、特徴量記憶部220に記憶された第2特徴量から第2の物体領域判定部80で用いるパラメータを機械学習により決定する。
【0038】
以下、本実施形態に係る各種動作を説明する。まず、図6のフローチャートを参照して、パラメータ設定時の処理の流れを説明する。図6のステップS305、ステップS307、および後述の図7のステップS404以外の処理は、第1実施形態で説明した図2および図4における対応する処理と同じである。以下、第1実施形態と異なる部分を詳細に説明する。
【0039】
図6を参照して、本実施形態に係るパラメータ設定処理の流れについて説明する。ステップS301において、画像取得部10はカメラ等の撮像部により撮像された画像データを取得する。
【0040】
ステップS302において、教示部110は、ユーザが教示する検知対象が写っていない範囲をパラメータ設定期間として取得する。次に、ステップS303において、画像記憶部200に記憶された画像データに基づいて背景モデルを初期化する。
【0041】
ステップS304において、第1の物体領域判定部30は、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている背景モデルとを比較し、特徴量が抽出された部分領域が物体領域であるか否かを判定する。
【0042】
ステップS305において、第2の特徴抽出部210は、判定結果記憶部50に記憶された複数フレームの判定結果に基づいて第2特徴量を抽出する。本実施形態では、所定フレーム分連続した物体領域の判定結果を部分領域毎に判定結果記憶部50から取得し、その期間における物体判定結果を結合して特徴ベクトルとして抽出する。例えば、図3(a)に示した物体判定結果が得られた場合は、各フレームの判定結果を結合して、ベクトル(0,1,0,1,1,0,1,0,1,0)を特徴量とする。この他にも、このベクトルをバイナリ値として扱い、10ビットのバイナリパターン「0101101010」を第2特徴量としてもよい。第2の特徴抽出部210は、第1の物体領域判定部30による処理の進行に従って順次特徴量を抽出し、特徴量記憶部220に記憶していく。但し、物体判定結果が「1」を含まない特徴量は出力しない。
【0043】
ステップS304における物体領域判定処理とステップS305における第2の特徴量抽出処理とが、ステップS302において教示された期間に対応するフレーム分だけ順次繰り返して行われる。すなわち、ステップS306において、全フレーム処理されたか否かが判定される。全フレームが処理されたと判定された場合(ステップS306;YES)、ステップS307へ進む。一方、全フレーム処理されていないと判定された場合(ステップS306;NO)、ステップS304へ戻る。
【0044】
ステップS307において、学習部230は、特徴量記憶部220に記憶された第2特徴量から第2の物体領域判定部80で用いられるパラメータを機械学習により決定する。即ち、特徴量記憶部220に記憶されている検知対象とする物体を含まないフレームから得られた、誤判定パターンである特徴ベクトルを外乱クラスの教師サンプルとして機械学習を行い、パラメータを得る。例えば、1クラスSVM(Support Vector Machine)を用いて学習を行う。線形SVMにより学習を行い、求められた重みベクトルおよび閾値をパラメータとして出力し、パラメータ記憶部90に記憶する。なお、機械学習の方法は1クラスSVMに限定されるものではなく、例えば、外乱クラスのサンプルに対して主成分分析を行い、固有ベクトルを用いたパターン認識を行うようにしてもよい。
【0045】
次に図7のフローチャートを参照して、物体検知処理の流れを説明する。ステップS401において、画像取得部10は、画像データを取得する。ステップS402において、特徴抽出部20は、画像取得部10により取得された画像データから部分領域毎に特徴量を抽出する。
【0046】
ステップS403において、第1の物体領域判定部30は、特徴抽出部20により抽出された特徴量と背景モデル記憶部40に記憶されている背景モデルとを比較し、特徴量が抽出された部分領域が物体領域であるか否かを判定する。
【0047】
ステップS404において、第2の特徴抽出部210は、判定結果記憶部50に記憶された複数の判定結果に基づいて第2特徴量を抽出する。
【0048】
ステップS405において、第2の物体領域判定部80は、第2の特徴抽出部210により抽出された特徴量に基づいて、第1の物体領域判定部30により物体領域と判定された部分領域が物体領域であるかまたは外乱であるかを判定する。即ち、第2の物体領域判定部80は、第2の特徴抽出部210により求められた特徴ベクトルとパラメータ記憶部90に記憶されている重みベクトルとの内積を計算する。そして、第2の物体領域判定部80は、その計算結果をパラメータ記憶部90に記憶されている閾値と比較し、閾値を越える場合にその領域を「外乱」ではなく「物体」であると判定する。判定結果は第1実施形態と同様に第2の物体領域判定部80内のメモリに記憶される。
【0049】
ステップS406において、物体領域出力部100は、第2の物体領域判定部80による判定結果を出力する。
【0050】
ステップS401からステップS406までの処理が不図示の制御部によってフレーム毎に順次繰り返して行われるよう制御される。すなわち、ステップS407において、全フレーム処理されたか否かが判定される。全フレームが処理されたと判定された場合(ステップS407;YES)、処理を終了する。一方、全フレーム処理されていないと判定された場合(ステップS407;NO)、ステップS401へ戻る。
【0051】
以上説明したように本実施形態では、第2の特徴抽出部210は、第1の物体領域判定部による複数の判定結果から第2特徴量を抽出する。そして、検知対象とする物体を含まない画像から抽出された第2特徴量に基づいて機械学習によって物体と外乱とを区別するパラメータを決定する。さらに、決定されたパラメータを用いて物体領域を判定する。これにより、外乱による誤判定を抑制することができる。
【0052】
なお、本実施形態では、異なる時刻のフレームから第1の物体領域判定部の判定結果を用いて特徴量を抽出するようにしたが、本発明は非特許文献1で提案されている外乱の判定方法にも適用可能である。即ち、第1の物体領域判定部30において、特徴抽出部20により抽出された特徴量と、対応する部分領域の背景モデルとの判定だけでなく、近傍の背景モデルとの判定も行う。そして、第2の特徴抽出部210において、近傍の背景モデルとの判定結果も用いてそれらの結果を結合した特徴ベクトルを抽出するようにする。
【0053】
また、近傍の背景モデルとの判定を行う代わりに、解像度の異なる背景モデルとの判定によって外乱との判定を行う方法も考えられる。例えば、1画素を最小単位の部分領域として対応する背景モデルを初期化時に作成しておき、背景モデルとの比較を行う。更に、8×8画素のブロックを部分領域とした背景モデルとの比較、16×16画素のブロックを部分領域とした背景モデルとの比較も並行して行う。そして、異なる複数の解像度の判定結果を結合した特徴ベクトルによって外乱との判定を行うようにする。
【0054】
即ち、特徴抽出部20が画像中の複数サイズの部分領域から複数解像度の特徴量を抽出する。そして、背景モデル記憶部40が複数サイズの部分領域に対応する複数の解像度で背景モデルを記憶する。また、第1の物体領域判定部30が、部分領域毎に複数解像度で、特徴抽出部20により抽出された特徴量と背景モデルとを比較して物体領域の判定を行う。そして、第2の特徴抽出部210において、それらの判定結果を結合した特徴ベクトルを抽出するようにする。
【0055】
なお、近傍の背景モデルとの判定や複数解像度で判定を行う方法は、本実施形態で説明した機械学習によるパラメータ決定だけでなく、第1の実施形態で説明した方法にも適用可能である。
【0056】
(第3実施形態)
以上説明した実施形態の応用形態として、監視カメラおよびネットワークを介して接続されている監視サーバで構成される監視カメラシステムにも本発明を適用することができる。ここで、監視サーバは監視カメラにより撮像された画像を記録して、モニタする機能を有する。例えば、第1または第2実施形態で説明した構成要件を監視サーバに組み込み、監視カメラにより撮像された画像データに対して第1または第2実施形態で説明した処理を行う。その他にも、第1または第2実施形態で説明した構成要件を監視カメラに組み込み、監視カメラにより撮像された画像データとともに検知結果を監視サーバに送信して記録する構成も可能である。また、第1または第2実施形態で説明したパラメータ設定時の動作に必要な構成要件を監視サーバに設け、監視サーバに記録された画像データに対してパラメータ設定処理を行い、監視カメラで検知処理を行う構成も可能である。この場合、監視カメラに第1または第2実施形態で説明した物体検知処理の動作に必要な構成要件を設け、監視サーバからパラメータを受け取って監視カメラで検知処理を行う。例えば監視カメラの設置時にパラメータを決定すればよい。
【0057】
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

【特許請求の範囲】
【請求項1】
画像データから対象物体を検知する物体検知装置であって、
所定の視点から所定の方向を撮像した画像データを取得する画像取得手段と、
前記画像取得手段により取得された前記画像データを構成する部分領域ごとに特徴量を抽出する特徴抽出手段と、
前記画像取得手段により取得された前記対象物体を含まない背景画像データから前記特徴抽出手段により抽出された特徴量を、背景特徴量として前記部分領域ごとに記憶する背景特徴量記憶手段と、
前記部分領域ごとに、前記特徴抽出手段により抽出された特徴量と、前記背景特徴量とを比較して、当該部分領域が前記対象物体であるか否かを判定する第1の物体領域判定手段と、
前記第1の物体領域判定手段による複数の判定結果に基づいて、部分領域ごとにパラメータを決定するパラメータ決定手段と、
前記パラメータ決定手段により決定された前記パラメータと、前記第1の物体領域判定手段による判定結果とに基づいて、前記部分領域が前記対象物体であるか否かを判定する第2の物体領域判定手段と、
を備えることを特徴とする物体検知装置。
【請求項2】
前記第1の物体領域判定手段による複数の判定結果に基づいて、前記画像データから前記部分領域ごとに当該部分領域が前記対象物体であるか否かを示す統計量を算出する統計量算出手段をさらに備えることを特徴とする請求項1に記載の物体検知装置。
【請求項3】
前記統計量算出手段は、前記背景画像データから前記第1の物体領域判定手段により前記対象物体であると判定された部分領域を含む、複数フレームの判定結果から前記部分領域ごとに前記統計量を算出し、
前記パラメータ決定手段は、当該統計量に基づいて前記部分領域ごとに前記パラメータを予め決定し、
前記第2の物体領域判定手段は、前記パラメータ決定手段により決定された前記パラメータと、前記画像データから前記統計量算出手段により算出された前記統計量とに基づいて、前記部分領域が前記対象物体であるか否かを判定することを特徴とする請求項2に記載の物体検知装置。
【請求項4】
前記統計量は、前記第1の物体領域判定手段により前記対象物体であると判定された画像データのフレーム連続数であることを特徴とする請求項3に記載の物体検知装置。
【請求項5】
前記部分領域ごとに前記パラメータ決定手段により決定された前記パラメータを記憶するパラメータ記憶手段をさらに備えることを特徴とする請求項1乃至4の何れか1項に記載の物体検知装置。
【請求項6】
前記第1の物体領域判定手段による複数の判定結果に基づいて、前記部分領域ごとに当該部分領域が前記対象物体であるか否かを示す第2特徴量を抽出する第2の特徴抽出手段をさらに備えることを特徴とする請求項1に記載の物体検知装置。
【請求項7】
前記第2の特徴抽出手段は、前記背景画像データから前記第1の物体領域判定手段により前記対象物体であると判定された部分領域を含む複数の判定結果に基づいて前記部分領域ごとに第2特徴量を算出し、
前記パラメータ決定手段は、当該第2特徴量に基づいて前記パラメータを機械学習により予め決定し、
前記第2の物体領域判定手段は、前記パラメータ決定手段により決定された前記パラメータと、前記画像データから前記第2の特徴抽出手段により抽出された前記第2特徴量とに基づいて、前記部分領域が前記対象物体であるか否かを判定することを特徴とする請求項6に記載の物体検知装置。
【請求項8】
前記第2特徴量は、前記第1の物体領域判定手段による複数の判定結果を結合した特徴ベクトルであることを特徴とする請求項7に記載の物体検知装置。
【請求項9】
前記特徴抽出手段は、複数サイズの部分領域から複数の解像度の特徴量を抽出し、
前記背景特徴量記憶手段は、前記特徴抽出手段により抽出された複数サイズの部分領域に対応する複数の解像度の特徴量を背景特徴量として記憶し、
前記第1の物体領域判定手段による判定結果は、前記特徴抽出手段により抽出された前記部分領域の複数の解像度の特徴量と、前記背景特徴量記憶手段に記憶されている対応する解像度における前記部分領域の背景特徴量との比較による判定結果であることを特徴とする請求項1乃至8の何れか1項に記載の物体検知装置。
【請求項10】
前記対象物体を含まない前記背景画像データを選択させる選択受付手段を備えることを特徴とする請求項1乃至9の何れか1項に記載の物体検知装置。
【請求項11】
請求項1乃至10の何れか1項に記載の物体検知装置と、監視カメラをと備える監視カメラシステムであって、
前記パラメータ決定手段は、前記監視カメラの設置時に前記パラメータを決定することを特徴とする監視カメラシステム。
【請求項12】
画像取得手段と、特徴抽出手段と、背景特徴量記憶手段と、第1の物体領域判定手段と、パラメータ決定手段と、第2の物体領域判定手段とを備え、画像データから対象物体を検知する物体検知装置における物体検知方法であって、
前記画像取得手段が、所定の視点から所定の方向を撮像した画像データを取得する画像取得工程と、
前記特徴抽出手段が、前記画像取得工程により取得された前記画像データを構成する部分領域ごとに特徴量を抽出する特徴抽出工程と、
前記背景特徴量記憶手段が、前記画像取得工程により取得された前記対象物体を含まない背景画像データから前記特徴抽出工程により抽出された特徴量を、背景特徴量として前記部分領域ごとに記憶する背景特徴量記憶工程と、
前記第1の物体領域判定手段が、前記部分領域ごとに、前記特徴抽出工程により抽出された特徴量と、前記背景特徴量とを比較して、当該部分領域が前記対象物体であるか否かを判定する第1の物体領域判定工程と、
前記パラメータ決定手段が、前記第1の物体領域判定工程による複数の判定結果に基づいて、部分領域ごとにパラメータを決定するパラメータ決定工程と、
前記第2の物体領域判定手段が、前記パラメータ決定工程により決定された前記パラメータと、前記第1の物体領域判定工程による判定結果とに基づいて、前記部分領域が前記対象物体であるか否かを判定する第2の物体領域判定工程と、
を備えることを特徴とする物体検知方法。
【請求項13】
請求項12に記載の物体検知方法の各工程をコンピュータに実行させるためのプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate


【公開番号】特開2012−89929(P2012−89929A)
【公開日】平成24年5月10日(2012.5.10)
【国際特許分類】
【出願番号】特願2010−232786(P2010−232786)
【出願日】平成22年10月15日(2010.10.15)
【出願人】(000001007)キヤノン株式会社 (59,756)
【Fターム(参考)】