説明

動画オブジェクト検出装置、方法、及びプログラム

【課題】オブジェクトの誤検出と検出漏れとの双方を抑制する。
【解決手段】オブジェクト検出手段12は、動画像のフレーム画像からオブジェクトを検出し、検出したオブジェクトの位置をオブジェクトリスト記憶部14に記憶する。オブジェクト追跡処理手段13は、オブジェクトリスト記憶部14に記憶されたオブジェクトの位置を、そのオブジェクトが検出された時刻以後、複数フレーム間で追跡し、オブジェクトリスト記憶部14に記憶する。また、オブジェクト追跡処理手段13は、オブジェクト検出手段12でオブジェクトが新たに検出されたとき、その新たに検出されたオブジェクトの位置を、オブジェクトが検出されたフレーム画像の時刻よりも前の時刻に遡って複数フレーム間で追跡し、オブジェクトリスト記憶部14に記憶する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、動画オブジェクト検出装置、方法、及びプログラムに関し、更に詳しくは、複数フレームの動画像からオブジェクトを検出する動画オブジェクト検出装置、方法、及びプログラムに関する。
【背景技術】
【0002】
複数フレームの動画像からオブジェクトを検出する技術が知られている。また、あるフレームで検出されたオブジェクトを追跡対象として設定し、後続するフレームにおいてオブジェクトを追跡する技術も知られている。例えば特許文献1には、顔を検出し、検出した顔の領域を追跡することが記載されている。特許文献1では、顔領域検出部は、顔検出アルゴリズムを用いてフレーム単位で顔領域を検出する。トラッキング部は、顔領域履歴記憶部に記録されたフレーム単位の顔領域の検出履歴を参照して、検出された顔領域を連続する複数のフレームにわたって追跡する。トラッキング部は、あるフレームにて顔領域が検出されたときでも、そのフレーム以降の所定数以上の連続するフレームにて当該顔領域が検出されないときは、検出された顔領域を無効と判断する。
【0003】
また、特許文献2には、時系列の動画像を処理し、画像上で重なった移動物体同士を分割して認識する方法が記載されている。特許文献2では、画像処理部は、複数の時系列画像の各画像について、背景画像と比較することで移動物体を認識し、認識された移動物体に識別符号を付与する。画像処理部は、時刻tの画像に含まれる各移動物体の動きベクトルを求める。画像処理部は、時刻t−1の画像に含まれる移動物体上の領域が同じ識別符号を持っていると仮定して、その領域に対応した時刻tでの画像上の領域を動きベクトルに基づいて推定し、両領域間の相関度を求める。画像処理部は、複数の識別符号の各々について求めた相関度の大小関係に基づいて各領域に付与すべき識別符号を決定することで、時刻t−1の画像に含まれている非分離移動物体を分割する。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2009−5239号公報
【特許文献2】特開2002−133421号公報
【特許文献3】特開2010−72723号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1では、顔領域の検出後、その顔領域を未来方向に追跡している。しかし、特許文献1では、画像中に顔が現れたとしても、その顔の領域の追跡が直ちに開始されるとは限らない。例えば顔が隠れたり、正面を向いていなかったり、顔が小さかったりすると、顔を検出することができず、新たな追跡対象が動画像に現れたことを装置が認識することができないことがある。そのような場合、その人物の顔がはっきりと認識されるようになってはじめて追跡処理がスタートすることになり、その人物の登場から顔検出に成功するまでの間の動き情報を捉えることができない。特に、多数の人物が写る画像では、顔の隠れが起こる可能性が高く、検出したい顔領域の検出漏れ顕著になる。
【0006】
特許文献1において、顔検出の判定を甘くすれば、ある程度早い段階から顔を検出することが可能になる。しかしながら、その場合には検出漏れは抑制できるものの誤検出が増加し、装置自体の信頼性が低下するという弊害が生じる。つまり、特許文献1では、誤検出と検出漏れの双方を抑制することはできない。また、特許文献2は、ある時刻までは複数の移動物体同士が画像上で重なっていることで複数の移動物体を分離して検出することができず、ある時刻で画像上の重なりがなくなって複数の移動物体を分離して検出できたときに、過去フレームにおいて重なって検出された移動物体を分離するというものに過ぎない。従って、特許文献2においても、誤検出と検出漏れとの双方を抑制することはできない。
【0007】
上記課題の解決を図る技術として、特許文献3が知られている。特許文献3では、検出手段は、順次に入力される各フレームの画像から、人物と、人物か否か確定できない対象である候補とを検出する。人物追跡手段は、人物を追跡対象とする追跡処理を実行し、追跡対象とされた人物の位置情報を追跡情報として記録する。候補追跡手段は、候補を対象とする追跡処理を実行し、追跡対象とされた候補の位置情報を追跡情報として記録する。変更手段は、検出手段が検出した人物のなかに、候補追跡手段により追跡対象とされている候補と同一の対象と評価される人物が存在すると、候補の位置情報として記録されていた追跡情報を、人物の追跡情報へと変更する。
【0008】
特許文献3では、人物か否かが確定できない対象を“候補”として追跡し、“人物”として検出された対象が、“候補”として追跡されていた対象と同じ対象のとき、候補の追跡情報を人物の追跡情報へと変更する。このようにすることで、誤検出と検出漏れとの双方を抑制できる。しかし、特許文献3では、人物のみならず、人物か否かが確定できない対象も、人物と同様に追跡する必要があり、処理負荷が高いという問題が生じる。特に、人物検出において、人物か否かが確定できない対象の判定基準を甘めに設定すると、本当は人物でない多数の対象を“候補”として追跡する必要が生じ、無駄に追跡処理を行う必要がある分だけ追跡処理の処理負荷が無駄に高くなる。
【0009】
本発明は、上記に鑑み、処理負荷を無駄に上げることなく、オブジェクトの誤検出と検出漏れとの双方を抑制できる動画像オブジェクト検出装置、方法、及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0010】
上記目的を達成するために、本発明は、複数フレームから成る動画像のフレーム画像からオブジェクトを検出し、該検出したオブジェクトの位置をオブジェクトリスト記憶部に記憶するオブジェクト検出手段と、前記オブジェクトリスト記憶部に記憶されたオブジェクトの位置を、当該オブジェクトが検出された時刻以後、複数フレーム間で追跡し、該追跡したオブジェクトの位置をオブジェクトリスト記憶部に記憶する第1の追跡手段と、前記オブジェクト検出手段でオブジェクトが新たに検出されたとき、該新たに検出されたオブジェクトの位置を、当該オブジェクトが検出されたフレーム画像の時刻よりも前の時刻に遡って複数フレーム間で追跡し、該追跡したオブジェクトの位置を前記オブジェクトリスト記憶部に記憶する第2の追跡手段とを含む手段オブジェクト追跡処理手段とを備えたことを特徴とする動画オブジェクト検出装置を提供する。
【0011】
前記オブジェクト検出手段が、1つのフレーム画像に含まれると想定されるオブジェクト数を示す想定登場数をn、1つのオブジェクトが何フレーム分撮影されるかを示す想定有効ショット数をS、オブジェクトの検出確率をP(%)として、1つのフレーム画像から、下記式、
N=(n/S)×(100/P)
で求まるNを整数化した個数だけオブジェクトを検出する構成を採用することができる。
【0012】
上記に代えて、前記オブジェクト検出手段が、1つのフレーム画像から1つのオブジェクトを検出する構成でもよい。
【0013】
前記オブジェクト追跡処理手段が、前記フレーム画像を順次に入力し、現在処理対象とするフレーム画像と、該フレーム画像よりも前の時刻のフレーム画像とに基づいて動きベクトル場を求める動きベクトル場計測手段を更に含み、前記第1の追跡手段が、前記動きベクトル場計測手段で求められた動きベクトル場と、前記オブジェクトリスト記憶部に記憶されたオブジェクトの位置とに基づいて、複数のフレーム間でオブジェクトの位置を追跡し、前記第2の追跡手段が、前記動きベクトル場計測手段で求められた動きベクトル場と、前記オブジェクト検出手段で新たに検出されたオブジェクトの位置とに基づいて、前の時刻に遡ってオブジェクトの位置を追跡する構成を採用することができる。
【0014】
前記動きベクトル場計測手段が、対象フレーム上の動きベクトル計測の対象となる対象画素について、参照フレームを対象フレームに対して動きベクトル検出空間に対応する所定範囲内でずらしつつ、各ずらし量に対して、前記対象画素と該対象画素に対応する参照フレームの画素との相関を表わすスコアの分布である動きベクトル分布を算出する動きベクトル分布算出手段と、前記動きベクトル分布に基づいて、前記対象画素における動きベクトルを検出する動きベクトル検出手段と、前記動きベクトル分布に基づいて、前記検出された動きベクトルが誤計測であるか否かを判定する誤計測判定手段とを含む構成を採用してもよい。
【0015】
前記誤計測判定手段は、前記動きベクトル検出空間の中心位置に対応するずらし量に対して算出された動きベクトル分布におけるスコアと、前記検出された動きベクトルの位置に対応するずらし量に対して算出された動きベクトル分布におけるスコアとが所定の関係を満たすか否かに基づいて、前記検出された動きベクトルが誤計測であるか否かを判定してもよい。誤計測判定手段は、例えばスコア間の差分が所定のしきい値以上であるか否かに基づいて、スコアが所定の関係を満たすか否かを判定することができる。あるいは誤計測判定手段は、スコア間の比率が所定のしきい値以上であるか否かに基づいて、スコアが所定の関係を満たすか否かを判定してもよい。
【0016】
前記誤計測判定手段が、検出された動きベクトルが真の動きベクトルであるときの、前記各ずらし量に対して算出された動きベクトル分布における前記対象画素のスコアを並べたデータを正の教師データとし、検出された動きベクトルが真の動きベクトルではないときの、前記各ずらし量に対して算出された動きベクトル分布における対象画素のスコアを並べたデータを負の教師データとして機械学習を用いて生成された判別器を用い、各ずらし量に対して算出された動きベクトル分布における前記対象画素のスコアを並べたデータを前記判別器に入力したときの該判別器の出力に基づいて誤計測か否かを判定する構成でもよい。
【0017】
前記動きベクトル分布算出手段が、更に、参照フレーム上の前記対象画素に対応する画素について、対象フレームを参照フレームに対して動きベクトル検出空間に対応する所定範囲内でずらしつつ、各ずらし量に対して、前記参照フレーム上の前記対象画素に対応する画素と前記対応画素との相関を表わすスコアの分布である別の動きベクトル分布を算出し、前記動きベクトル検出手段が、更に、前記別の動きベクトル分布に基づいて、前記参照フレーム上の前記対象画素に対応する画素における別の動きベクトルを検出し、前記誤計測判定手段が、前記動きベクトル分布に基づいて前記検出された動きベクトルが誤計測であるか否かを判定するのに代えて、又はこれに加えて、前記動きベクトルと前記別の動きベクトルとの関係に基づいて誤計測であるか否を判定する構成を採用できる。
【0018】
上記の場合、前記誤計測判定手段は、前記動きベクトルと前記別の動きベクトルとが逆ベクトルの関係にないとき、前記検出された動きベクトルが誤計測であると判定してもよい。
【0019】
前記動きベクトル分布算出手段が、更に、前記対象画素について、前記対象フレームを前記対象フレーム自身に対して動きベクトル検出空間に対応する所定範囲内でずらしつつ、各ずらし量に対して、前記対象画素自身の相関を表すスコアの分布である自己動きベクトル分布を更に算出し、前記誤計測判定手段が、前記動きベクトル分布に基づいて前記検出された動きベクトルが誤計測であるか否かを判定するのに代えて、又はこれに加えて、前記検出された動きベクトルの位置に対応するずらし量に対して算出された自己動きベクトル分布におけるスコアに基づいて誤計測であるか否かを判定する構成を採用できる。
【0020】
上記の場合、前記誤計測判定手段は、前記自己動きベクトル分布におけるスコアを所定のしきい値でしきい値処理し、誤計測であるか否かを判定してもよい。
【0021】
前記オブジェクト検出手段が、検出すべきオブジェクトの輪郭形状に対応したフィルタ特性を有する平滑化フィルタを画像に畳み込む処理を繰り返し行うことにより、前記フレーム画像からスケールが異なる複数枚の平滑化画像を生成する平滑化処理手段と、前記複数枚の平滑化画像のうち、スケールが互いに異なる2枚の平滑化画像間の差分画像を、スケールを変えつつ複数枚生成する差分画像生成手段と、前記複数枚の差分画像を合算し合算画像を生成する合算手段と、前記合算画像における画素値に基づいて検出すべきオブジェクトの位置を推定する位置推定手段と、前記フレーム画像から、前記推定された位置の周辺でオブジェクトを検出する照合手段とを含む構成を採用してもよい。
【0022】
前記オブジェクト検出手段が検出すべきオブジェクトの数をMとしたとき、前記位置推定手段が、前記合算画像の画素値を大きい順に並べたときの上位M個又は下位M個の画素の画素位置を、前記オブジェクトの位置として推定してもよい。
【0023】
前記オブジェクト検出手段が、前記複数枚の差分画像の画素値を比較し、最大又は最小の画素値を有する差分画像のスケールに基づいて、検出すべきオブジェクトのサイズを推定するサイズ推定手段を更に備える構成を採用することもできる。
【0024】
前記サイズ推定手段は、前記位置推定手段が推定したオブジェクトの位置の周辺で前記差分画像の画素値を比較してもよい。
【0025】
前記サイズ推定手段が、前記最大又は最小の画素値を有する差分画像の生成元となった2枚の平滑化画像のうちのスケールが小さい方の平滑化画像内のスケールに基づいて前記オブジェクトのサイズを推定する構成でもよい。
【0026】
前記平滑化処理手段がスケールσからσa×k(a及びkは2以上の整数)までのa×k枚の平滑化画像L(x,y,σ)(i=1〜a×k)を生成し、前記差分画像生成手段が、スケールσからσまでのk枚の差分画像G(x,y,σ)(j=1〜k)を、それぞれスケールσの平滑化画像L(x,y,σ)とスケールσj×aの平滑化画像L(x,y,σj×a)との差分に基づいて生成してもよい。この場合、前記差分画像生成手段は、下記式、
G(x,y,σ)=L(x,y,σ)−L(x,y,σj×a
を用いて差分画像G(x,y,σ)を生成してもよい。
【0027】
上記に代えて、前記平滑化処理手段がスケールσからσ(rは3以上の整数)までのr枚の平滑化画像L(x,y,σ)(i=1〜r)を生成し、前記差分画像生成手段が、スケールσからσk−p(pは1以上の整数)までのk−p枚の差分画像G(x,y,σ)(j=1〜k−p)を、それぞれスケールσの平滑化画像L(x,y,σ)とスケールσj+pの平滑化画像L(x,y,σj+p)との差分に基づいて生成してもよい。この場合、前記差分画像生成手段が、下記式、
G(x,y,σ)=L(x,y,σ)−L(x,y,σj+p
を用いて差分画像G(x,y,σ)を生成してもよい。
【0028】
前記オブジェクト検出手段が、前記フレーム画像から動き領域を抽出し動き領域抽出画像を生成する動き領域抽出手段を更に備え、前記平滑化画像生成手段が、前記動き領域抽出画像に対して前記平滑化フィルタを畳み込む構成を採用することもできる。この場合、前記動き領域抽出手段は、各画素が、前記フレーム画像から抽出した動きの量に応じた階調値を有するグレースケール画像を前記動き領域抽出画像として生成してもよい。更に、前記動き領域抽出手段は、前記グレースケール画像に対して所定のコントラスト低減処理を施してもよい。
【0029】
本発明は、また、複数フレームから成る動画像のフレーム画像からオブジェクトを検出し、該検出したオブジェクトの位置をオブジェクトリスト記憶部に記憶するステップと、前記オブジェクトリスト記憶部に記憶されたオブジェクトの位置を、当該オブジェクトが検出された時刻以後、複数フレーム間で追跡し、該追跡したオブジェクトの位置をオブジェクトリスト記憶部に記憶するステップと、前記オブジェクト検出手段でオブジェクトが新たに検出されたとき、該新たに検出されたオブジェクトの位置を、当該オブジェクトが検出されたフレーム画像の時刻よりも前の時刻に遡って複数フレーム間で追跡し、該追跡したオブジェクトの位置を前記オブジェクトリスト記憶部に記憶するステップとを有することを特徴とする動画オブジェクト検出方法を提供する。
【0030】
更に本発明は、コンピュータに、複数フレームから成る動画像のフレーム画像からオブジェクトを検出し、該検出したオブジェクトの位置をオブジェクトリスト記憶部に記憶するステップと、前記オブジェクトリスト記憶部に記憶されたオブジェクトの位置を、当該オブジェクトが検出された時刻以後、複数フレーム間で追跡し、該追跡したオブジェクトの位置をオブジェクトリスト記憶部に記憶するステップと、前記オブジェクト検出手段でオブジェクトが新たに検出されたとき、該新たに検出されたオブジェクトの位置を、当該オブジェクトが検出されたフレーム画像の時刻よりも前の時刻に遡って複数フレーム間で追跡し、該追跡したオブジェクトの位置を前記オブジェクトリスト記憶部に記憶するステップとを実行させるためのプログラムを提供する。
【発明の効果】
【0031】
本発明の動画オブジェクト検出装置、方法、及びプログラムでは、ある時刻のフレーム画像においてオブジェクトが検出されると、検出された時刻よりも後の時刻においてオブジェクトの位置を複数フレーム間で追跡すると共に、オブジェクトが検出された時刻よりも前の時刻に遡って複数フレーム間でオブジェクトの位置を追跡する。オブジェクト検出においてオブジェクトの検出条件を厳しく設定し、オブジェクトらしさが低いオブジェクトはオブジェクトとして検出しないことで、オブジェクトの誤検出を抑制できる。一方で、オブジェクトが検出されたときに、過去フレーム方向にオブジェクトを追跡するため、過去フレームにおいて検出できなかったオブジェクトの位置を推定でき、過去フレーム画像におけるオブジェクトの検出漏れを抑制できる。つまり、本発明においては、オブジェクトの誤検出の抑制と、検出漏れの抑制との双方を実現できる。また、本発明では、特許文献3とは異なり、オブジェクトとは別にオブジェクトの候補を検出し、そのオブジェクトの候補を追跡する必要がないため、処理負荷が無駄に高くなることはない。
【図面の簡単な説明】
【0032】
【図1】本発明の一実施形態の動画オブジェクト検出装置を示すブロック図。
【図2】オブジェクト追跡処理手段を示すブロック図。
【図3】動きベクトル場計測手段の構成例を示すブロック図。
【図4】動きベクトル場計測手段の動作手順を示すフローチャート。
【図5】オブジェクト検出手段の構成例を示すブロック図。
【図6】オブジェクト検出手段の動作手順を示すフローチャート。
【図7】動画オブジェクト検出装置の動作手順を示すフローチャート。
【図8】具体的な処理例を示す図。
【発明を実施するための形態】
【0033】
以下、図面を参照し、本発明の実施の形態を詳細に説明する。図1は、本発明の一実施形態の動画オブジェクト検出装置を示す。動画オブジェクト検出装置10は、フレームメモリ11、オブジェクト検出手段12、オブジェクト追跡処理手段13、及びオブジェクトリスト記憶部14を有する。動画オブジェクト検出装置10は、動画像を構成するフレーム画像を順次に処理し、動画像に含まれるオブジェクトを検出する。動画オブジェクト検出装置10内の各部の機能は、コンピュータシステムが所定のプログラムに従って動作することで実現することができる。あるいは各部の機能は、IC(Integrated Circuit)などで実現することもできる。
【0034】
フレームメモリ11は、動画オブジェクト検出装置10に入力された複数フレームから成る動画像のうちの少なくとも数フレーム分のフレーム画像(フレームデータ)を記憶する。オブジェクト検出手段12は、フレームメモリ11を参照し、フレーム画像からオブジェクトを検出する。オブジェクト検出手段12は、オブジェクトが存在する領域をROI領域(Region of Interest:関心領域)として検出する。
【0035】
オブジェクト検出手段12は、例えばフレーム画像から所定個数のオブジェクトを検出する。オブジェクト検出手段12は、例えば1つのフレーム画像に含まれると想定されるオブジェクト数を示す想定登場数をn、オブジェクトが隠れによる撮影不良フレームを除いて1つのオブジェクトが何フレーム分撮影されるかを示す想定有効ショット数をS、オブジェクトの検出確率をP(%)として、1つのフレーム画像から、下記式、
N=(n/S)×(100/P)
で求まるNを整数化した個数だけオブジェクトを検出する。オブジェクト検出手段12は、例えば上記で計算されたNの小数点以下を切り上げることで整数化を行う。例えば想定登場数nが4、想定有効ショット数Sが数十回、検出確率Pが50%であるとすると、オブジェクト検出手段12は、1つのフレーム画像から1つのオブジェクトを検出すればよい。上記式を用いてNを計算せずに、オブジェクト検出手段12におけるオブジェクトの検出個数を1つと決めてもよい。
【0036】
オブジェクト検出手段12におけるオブジェクトの検出手法は特に問わない。オブジェクト検出手段12は、例えば各フレーム画像に対してテンプレートマッチングを行い、人物や顔(人物の頭部)などの検出対象のオブジェクトを検出する。また、オブジェクト検出手段12は、例えば機械学習により生成された識別器を用いて各フレーム画像から検出対象のオブジェクトを検出してもよい。あるいはオブジェクト検出手段12は、背景画像とフレーム画像との差分からオブジェクトを検出してもよい。オブジェクト検出手段12は、例えば入口ゲートなど、オブジェクトが画像中に登場する際の位置が決まっている場合は、その部分の近傍でのみでオブジェクト検出を行ってもよい。
【0037】
オブジェクトリスト記憶部14は、検出されたオブジェクトについて、どのフレームのどの位置で検出されたかを示す情報を記憶する。オブジェクトリスト記憶部14は、例えばオブジェクトの識別情報(オブジェクトID)と、オブジェクトが検出されたフレーム画像を識別する情報(フレームID)と、画像中のオブジェクトの位置とを対応付けて記憶する。フレームIDには、例えば動画像の開始時刻からの経過時間やフレーム番号などを用いることができる。オブジェクトの位置は、例えばオブジェクトの検出領域を矩形で表わしたときの矩形の始点(左上の頂点)と終点(右下の頂点)との組で表わすことができる。
【0038】
オブジェクト検出手段12は、現在フレームにおいてオブジェクトを検出すると、検出したオブジェクトの位置をオブジェクトリスト記憶部14に記憶する。オブジェクト検出手段12は、例えば検出したオブジェクトに対して識別情報(オブジェクトID)を付与し、付与したオブジェクトIDとフレームIDと画像中のオブジェクトの位置とをオブジェクトリスト記憶部14に追加記憶する。また、新たなオブジェクトが検出された旨を、オブジェクト追跡処理手段13に通知する。
【0039】
オブジェクト追跡処理手段13は、検出済みのオブジェクト、すなわち過去フレームにおいて検出され、オブジェクトリスト記憶部14に記憶されたオブジェクトを、オブジェクトが検出された時刻以後、複数フレーム間で追跡し、現在フレームにおけるオブジェクトの位置を推定する。オブジェクト追跡処理手段13は、推定したオブジェクトの位置をオブジェクトリスト記憶部14に記憶する。また、オブジェクト追跡処理手段13は、新たなオブジェクトが検出された旨の通知を受けると、その新たに検出されたオブジェクトを過去フレーム方向に追跡し、現在フレームよりも前の時刻のフレーム画像におけるオブジェクトの位置を推定する。オブジェクト追跡処理手段13は、推定した過去のフレーム画像におけるオブジェクトの位置をオブジェクトリスト記憶部14に記憶する。
【0040】
図2は、オブジェクト追跡処理手段13を示す。オブジェクト追跡処理手段13は、動きベクトル場計測手段31、第1の追跡手段32、及び第2の追跡手段33を有する。動きベクトル場計測手段31は、フレーム画像を順次に入力し、現在フレーム画像と、現在フレームよりも1つ以上前の過去フレーム画像とに基づいて、動きベクトル場を計測する。動きベクトル場計測手段31は、複数の画素位置で動きベクトルを求める。動きベクトル場計測手段31は、例えばフレーム画像を構成する全ての画素に対して動きベクトルを求める。動きベクトル場計測手段31は、画像を構成する各画素を隣接する複数の画素ずつ複数のブロックに分割し、ブロック単位で動きベクトルを求めてもよい。
【0041】
第1の追跡手段32は、オブジェクトリスト記憶部14に記憶された、過去フレーム画像において検出済みのオブジェクトのそれぞれに対し、現在フレームでのオブジェクトの位置を推定する。第1の追跡手段32は、過去フレーム画像、例えば現在フレームよりも1フレーム前のフレーム画像におけるオブジェクトの位置と、動きベクトル場計測手段31が計測した動きベクトル場とに基づいて、現在フレーム画像におけるオブジェクトの位置を推定する。第1の追跡手段32は、例えば1つ前のフレーム画像におけるオブジェクトの位置に対応する領域内の動きベクトルを平均化し、1つ前のフレーム画像におけるオブジェクトの領域を動きベクトルの平均値だけずらした領域を、現在フレーム画像におけるオブジェクトの位置として推定する。第1の追跡手段32は、推定したオブジェクトの位置をオブジェクトID及びフレームIDと共にオブジェクトリスト記憶部14に記憶する。
【0042】
第2の追跡手段32は、オブジェクト検出手段12が新たに検出したオブジェクトに対し、現在フレームよりも過去のフレーム画像におけるオブジェクトの位置を推定する。第2の追跡手段32は、現在フレームにおいて検出されたオブジェクトの位置と、動きベクトル場計測手段31が計測した動きベクトル場とに基づいて、例えば現在フレームよりも1つ前の過去フレームにおけるオブジェクトの位置を推定する。第2の追跡手段32は、例えば動きベクトルに基づいて、過去フレームにおける各画素のうちで移動先が現在フレーム画像におけるオブジェクトの位置に対応する領域に入る画素位置を特定する。第2の追跡手段32は、特定した過去フレームにおける画素位置の動きベクトルの平均を求め、その平均ベクトルの逆ベクトルを用いて、過去フレームにおけるオブジェクトの位置を推定する。第2の追跡手段32は、推定したオブジェクトの位置をオブジェクトID及びフレームIDと共にオブジェクトリスト記憶部14に記憶する。
【0043】
動きベクトル場計測手段31の具体的な構成例を説明する。図3は、動きベクトル場計測手段31の構成例を示す。動きベクトル場計測手段31は、解像度変換手段40、動きベクトル分布算出手段41、平均化処理手段42、動きベクトル検出手段43、及び誤計測判定手段44を有する。解像度変換手段40は、フレームメモリ11(図1)に記憶されたフレーム画像を、フレーム画像の解像度よりも低い低解像度の画像に変換する。解像度変換手段40は、ある時刻のフレーム画像に対しては1度だけ解像度変換を行えばよい。言い換えれば、解像度変換手段40は、同一フレーム画像に対して解像度変換を複数回行う必要はない。
【0044】
解像度変換には、種々の手法を用いることができる。解像度変換手段40は、例えば解像度変換前のフレーム画像の画素を所定の割合いで間引くことで、画像の解像度を低下させる。あるいは解像度変換手段40は、変換前のフレーム画像の所定画素数分の画素値の平均を求め、求めた平均値を解像度変換後の画像における各画素の画素値とすることで、解像度を低解像度化してもよい。解像度変換手段40は、低解像度化の処理を複数回繰り返して、画像を所望の解像度まで低下させてもよい。例えば解像度を1/2にする処理を3回行って、解像度を1/8まで低下させてもよい。
【0045】
動きベクトル場計測手段31は、解像度変換手段40が変換した画像を用いて動きベクトル場の計測を行う。より詳細には、動きベクトル場計測手段31は、現在時刻のフレーム画像を低解像度化した画像を対象フレームとし、過去フレームの画像を低解像度化した画像を参照フレームとして動きベクトル場の計測を行う。低解像度化した画像を用いて動きベクトル場を計測することで、処理を高速化できる。ただし、低解像度化したことで、処理の高速化と引き換えに動きベクトル場の計測精度は低下する。解像度変換手段40がフレーム画像をどの程度低解像度化するかは、必要とされる演算時間と計測精度とに応じて適宜設定すればよい。画像の低解像度化は必須ではなく、動きベクトル場の計測を、フレーム画像を低解像度化せずに行うことも可能である。つまりフレーム画像の本来の解像度のまま動きベクトル場の計測を行うことも可能である。
【0046】
動きベクトル分布算出手段41は、対象フレームと参照フレームとに基づいて、両者の画素間の相関(類似度)を示す値(スコア)を算出する。動きベクトル分布算出手段41は、対象フレーム上の動きベクトル計測の対象となる対象画素について、参照フレームを対象フレームに対して動きベクトル検出空間に対応する所定範囲内でずらしつつ、各ずらし量に対してスコアを算出する。動きベクトル分布算出手段41は、例えば対象フレームの着目画素(x,y)の周囲に所定ブロックサイズのブロックを設定すると共に、所定範囲でずらした各ずれ量の参照フレームの対応画素(x,y)の周囲に所定ブロックサイズのブロックを設定し、ブロック内の各画素がどの程度一致するかを示すスコアC0を算出する。
【0047】
上記ブロックサイズは、例えば3×3のサイズとすることができる。その場合、動きベクトル分布算出手段41は、着目画素の位置を(x,y)として、対象フレームの(x−1,y−1)から(x+1,y+1)までの各位置の画素と、対象フレームに対してずらした参照画像の(x−1,y−1)から(x+1,y+1)までの各位置の画素とに基づいてスコアC0を算出する。スコアC0は、ブロック内の画素同士の差分絶対値の和(平均絶対値誤差)とすることができる。具体的には、対象フレームの各位置での画素値(階調値)をf(x,y)とし、参照フレームをずらした画像の各位置での画素値をg(x,y)として、下記式1で定義される値をスコアC0とすることができる。
C0=ΣΣ|f(x+p,y+q)−g(x+p,y+q)| …(1)
差分絶対値の和に代えて、平均二乗誤差を用いてもよい。
【0048】
ここで、対象フレームと参照フレームとでは、動画像の撮影時における露出値の変動や、予期しない明るさの変更が生じることも考えられる。そのような場合に、上記式1を用いて画素値の差分の絶対値を求めると、本来差分絶対値が0になるような場合でも、明るさの変動に伴って差分絶対値が0にならないことが考えられる。そのような場合に備えて、対象フレームと参照フレームとにおける明るさの差を補正した上で、スコアC0を計算するようにしてもよい。具体的には、対象フレームにおけるブロック内の画素値の平均fmと、参照フレームをずらした画像におけるブロック内の画素値の平均値gmとを算出し、それらを用いて下記式2でスコアC0を算出してもよい。
C0=ΣΣ|f(x+p,y+q)−fm−g(x+p,y+q)−gm| …(2)
【0049】
上記の式1又は式2で算出されるスコアC0は、画素同士の相関が高いほど値が小さくなる。これに代えて、画素同士の相関が高いほど値が大きくなるようなスコアを用いてもよい。例えば動きベクトル分布算出手段41は、画素値の最大値(最大階調値)からスコアC0を減算した値をスコアC1として算出してもよい。具体的には、画素値が8ビットの階調値で表わされる場合、スコア分布算出部41は、下記式でスコアC1を算出してもよい。
C1=255−C0
以降の説明では、主にベクトル分布算出部41がスコアC1を算出する例を用いて説明するものとする。スコアC0を用いる場合は、以下の説明において、スコアの大小関係を適宜読み替えればよい。
【0050】
動きベクトル分布算出手段41は、動きベクトル検出範囲(探索範囲)に相当する範囲で、水平方向及び垂直方向に参照フレームを対象フレームに対して1画素ずつずらしつつ、ずらし量ごとに、対象フレームの各画素位置に対してスコアC1を算出する。例えば(−2,−2)から(+2,+2)の範囲で動きベクトルを検出するとした場合、動きベクトル分布算出手段41は、参照フレームを水平方向及び垂直方向にそれぞれ±2画素の範囲で1画素ずつずらして、対象フレームの各画素位置に対してスコアC1を算出する。
【0051】
参照フレームを対象フレームに対してずらすための水平方向の座標をhとし、垂直方向の座標をvをとすると、対象フレームに対する参照フレームの画素のずらし量は(h,v)=(k,l)(k,l=−2〜+2の整数)と表わすことができる。ずらし量(h,v)は、25通りの値を持つ。ずらし量(0,0)は、対象フレームと参照フレームとを一致させた場合に対応し、ずらし量(1,0)は、参照フレームを対象フレームに対して水平方向にのみ1画素正の方向にずらした場合に対応する。
【0052】
ここで、各ずらし量(h,v)は、動きベクトル検出空間における動きベクトルとみなすことができる。以下では、ずらし量ごとに求まるスコアC1の分布を、動きベクトル分布Dと呼ぶ。水平方向及び垂直方向にそれぞれ−2から+2の範囲を動きベクトル検出範囲とする場合、25通りの動きベクトル分布D(k,l)が算出されることになる。25通りの動きベクトル分布Dが得られているということは、対象フレームの各画素位置に対して、各ずらし量に対応した25個のスコアC1が算出されているのと等価である。
【0053】
平均化処理手段42は、動きベクトル分布D(k,l)からノイズ成分を除去する。平均化処理手段42は、例えば動きベクトル分布D(k,l)に対して空間的な平均化フィルタ処理を行い、平均化された動きベクトル分布Dm(k,l)を算出する。平均化フィルタのサイズは、例えば3×3のサイズとすることができる。平均化フィルタのサイズは、得たいノイズ除去の程度に応じて適宜設定すればよい。平均化処理手段42が使用するフィルタは平均化フィルタには限定されない。平均化フィルタに代えて、空間的なメディアンフィルタを用いてもよい。
【0054】
動きベクトル検出手段43は、ずらし量の数に対応する数の動きベクトル分布、例えば25通りの動きベクトル分布(平均化された動きベクトル分布Dm(k,l))に基づいて、対象フレームの各画素位置における動きベクトルを検出する。動きベクトル検出手段43は、例えば対象フレームにおける着目画素の位置を(x,y)としたとき、25通りの平均化された動きベクトル分布Dm(k,l)のそれぞれにおける画素位置(x,y)のスコアC1を相互に比較する。動きベクトル検出手段43は、スコアC1が最大となるずらし量(h,v)を求め、そのずらし量を動きベクトルとして検出する。
【0055】
動くベクトル検出手段43は、例えばある画素位置に対して、25通りの平均化された動きベクトル分布Dmの中から、スコアC1が最大となる動きベクトル分布Dmを探す。平均化された動きベクトル分布Dm(−2,2)〜(2,2)のうち、平均化された動きベクトル分布Dm(2,2)におけるスコアC1が最大であったとする。この場合、動きベクトル検出手段43は、そのずらし量に対応する動きベクトル(2,2)を検出する。動きベクトルの検出を、平均化された動きベクトル分布Dm(k,l)を用いて行うことで、ノイズの影響を低減した動きベクトルの検出が可能になる。
【0056】
なお、動きベクトル検出手段43は、解像度変換手段40で変換された画像の解像度に応じて、検出した動きベクトルの大きさを修正する。例えば解像度変換手段40で解像度が1/8に変換されていたときは、検出した動きベクトルの大きさを8倍する。また、動きベクトル検出手段43は、対象フレームと参照フレームとの間の時間差(フレーム間隔)が1でないときは、そのフレーム間隔に応じて検出した動きベクトルの大きさを補正する。例えばフレーム間隔が3のときは、検出した動きベクトルの大きさを1/3倍に修正する。
【0057】
誤計測判定手段44は、動きベクトル分布に基づいて、動きベクトル検出手段43が対象フレームの各画素位置に対して検出した動きベクトルが誤計測であるか否かを判定する。誤計測判定手段44は、例えば動きベクトル検出空間の中央(ずらし量(0,0))に対応する平均化された動きベクトル分布Dm(0,0)におけるスコアC1(以下、スコアC1sとも呼ぶ)と、検出された動きベクトル(そのずらし量)に対応する平均化された動きベクトル分布DmにおけるスコアC1(以下、スコアC1eとも呼ぶ)とが所定の関係を満たすか否かに基づいて、検出された動きベクトルが誤計測であるか否かを判定する。
【0058】
誤計測判定手段44は、例えばスコアC1sとスコアC1eとの差分をしきい値判定し、差分がしきい値よりも小さいとき、動きベクトル検出手段43において動きベクトルが誤計測されたと判定する。あるいは誤計測判定手段44は、スコアC1sとスコアC1eとの比が所定の関係にあるときに、動きベクトル検出手段43において動きベクトルが誤計測されたと判定してもよい。より詳細には、誤計測判定手段44は、αを1より小さい所定の係数として、スコアC1sとスコアC1eとが下記式を満たすとき、誤計測であると判定してもよい。
C1s>C1e×α
上記式における係数αは、要求される計測精度に応じて適宜設定すればよい。
【0059】
誤計測判定手段44が、上記の差分又は比率の関係に基づいて検出された動きベクトルが誤計測であるか否かを判定するのは、次のような理論に基づく。すなわち、スコアC1の算出に際して3×3のような小さなブロックサイズを用いると、フレーム中のノイズにより偶然に現れた動きベクトル検出する可能性が生じる。また、対象フレームにおける着目画素が移動する物体を構成する画素ではなく、その物体の背景に対応する画素である場合、動きベクトルがランダムな方向に発生することがある。そのような場合、検出された動きベクトルの始点位置に相当するずらし量(0,0)のスコアC1と、最大スコアを与えるずらし量のスコアC1との差分はそれほど大きくならない。従って、差分をしきい値処理すること、或いは比率が所定の関係を満たすか否かを判断することで、誤計測か否かの判定を行うことができる。
【0060】
誤計測判定手段44は、誤計測でないと判定したときは、動きベクトル検出手段43が検出した動きベクトルを出力する。誤計測判定手段44は、誤計測と判定すると、その旨を出力する。あるいは誤計測判定手段44は、誤計測と判定したときに、動きベクトル検出手段43で検出された動きベクトルに代えて、動きベクトル(0,0)を出力してもよい。
【0061】
図4は、動きベクトル場計測手段31の動作手順を示している。解像度変換手段40は、フレーム画像を低解像度の画像に変換する(ステップS11)。解像度変換手段40は、例えば対象フレームとして用いる現在フレームの画像が入力されるたびに、そのフレーム画像を低解像度の画像に変換する。参照フレームとして用いる過去フレームの画像については、その過去フレームの画像を対象フレームとして動きベクトルを検出する際に低解像度化した画像を利用すればよい。
【0062】
動きベクトル分布算出手段41は、現在フレームの画像を対象フレーム、過去フレームの画像を参照フレームとして、対象フレームと参照フレームとのずらし量を初期値に設定する(ステップS12)。動きベクトル分布算出手段41は、例えばずらし量(h,v)=(0,0)を初期ずらし量として設定する。動きベクトル分布算出手段41は、対象フレームと参照フレームとを設定したずらし量だけずらし、対象フレームにおける各画素に対してスコアC1を算出する(ステップS13)。言い換えれば、設定したずらし量に対する動きベクトル分布Dを算出する。
【0063】
動きベクトル分布算出手段41は、全てのずらし量に対して動きベクトル分布Dを算出したか否かを判断する(ステップS14)。動きベクトル分布算出手段41は、全てのずらし量に対して動きベクトル分布Dを算出していないと判断すると、ずらし量を変更する(ステップS15)。動きベクトル分布算出手段41は、ずらし量を変更した後にステップS13に戻り、変更したずらし量に対して動きベクトル分布Dを算出する。動きベクトル分布算出手段41は、ステップS14で全てのずらし量に対して動きベクトル分布Dを算出したと判断するまでステップS13〜S15を繰り返し実行し、動きベクトル検出範囲内の各ずらし量に対して動きベクトル分布Dを算出する。
【0064】
平均化処理手段42は、動きベクトル算出部41が算出した各ずらし量に対する動きベクトル分布Dに対して平均化処理を施し、平均化された動きベクトル分布Dmを生成する(ステップS16)。この平均化の処理は省略してもよい。動きベクトル検出手段43は、平均化された動きベクトル分布Dmを用い、対象フレームにおける各画素に対して動きベクトルを検出する(ステップS17)。誤計測判定手段44は、検出された動きベクトルが誤計測であるか否かを判定する(ステップS18)。動きベクトル場計測手段31は、動きベクトル計測結果を出力する(ステップS19)。動きベクトル場計測手段31は、誤計測でないと判定された画素については検出された動きベクトルを出力し、誤計測であると判定された画素については動きベクトルが計測されなかった旨、又は大きさが0の動きベクトルを出力する。
【0065】
ここで、ブロックマッチング法により動きベクトルを検出する際に、ブロックサイズを3×3のように小さくすると、ノイズの影響などにより動きベクトルの誤計測が発生しやすくなる。図3に示す構成の動きベクトル場計測手段31では、誤計測判定手段44が、検出された動きベクトルが誤計測であるか否かを判定する。この誤計測判定手段44を用いることで、動きベクトル検出の際のブロックサイズを例えば3×3のように小さくしても、誤計測の影響を低減することができ、動きベクトルを精度よく検出できる。また、ブロックサイズを小さくした分だけ演算量を低減することができ、その結果、動きベクトルを高速に検出することができる。つまり、動きベクトル検出の精度を落とさずに、処理を高速化することができる。
【0066】
なお、動きベクトル場計測手段31は、各画素位置の周辺の画素位置での動きベクトルの平均を求め、その平均ベクトルを各画素位置の動きベクトルとして出力してもよい。例えば動きベクトル場計測手段31は、ある画素位置について、その画素位置で検出された動きベクトルと、その周辺の画素位置で検出された動きベクトルとの平均を求める。ベクトル場計測手段31は求めた平均ベクトルを、当該画素位置で検出された動きベクトルとして出力することができる。このように複数の画素位置で検出された動きベクトルを平均化する場合、動きベクトルのばらつきを抑えて、より精度よく動きベクトルを計測することができる。
【0067】
また誤計測判定手段44は、スコアC1の差分に基づいて誤計測であるか否かを判定するのに代えて、別の判断基準で誤計測であるか否かを判定してもよい。例えば、動きベクトル分布算出手段41が、上記した動きベクトル分布(第1の動きベクトル分布)に加えて、対象フレームと参照フレームとを入れ替え、過去フレームを対象フレームとし、現在フレームを参照フレームとして別の動きベクトル分布(第2の動きベクトル分布)を算出する。動くベクトル検出手段43は、第1の動きベクトル分布に基づく動きベクトル(第1の動きベクトル)の検出に加えて、第2の動きベクトル分布に基づいて別の動きベクトル(第2の動きベクトル)を検出する。誤計測判定手段44は、第1の動きベクトルと第2の動きベクトルとの関係に基づいて、検出された動きベクトルが誤計測であるか否かを判定してもよい。
【0068】
仮に、第1の動きベクトルが誤計測されたものでないと仮定すると、第1の動きベクトルと第2の動きベクトルとの大きさは同じで、方向は反対方向となると考えられる。つまり、第2の動きベクトルは、第1の動きベクトルの逆ベクトルになると考えられる。誤計測判定手段44は、第1の動きベクトルと第2の動きベクトルとが逆ベクトルの関係にあるか否かを判断し、逆ベクトルの関係にあるときに誤計測ではないと判定する。逆ベクトルの関係にないときは、誤計測と判定する。誤計測判定手段44は、第1の動きベクトルの大きさと第2の動きベクトルの大きさとの差が所定のしきい値以内で、かつ、第1の動きベクトルの方向と、第2の動きベクトルの方向を反転させた方向との差が所定のしきい値以内のときに、両者は逆ベクトルの関係にあると判断することができる。
【0069】
誤計測判定手段44は、上記に代えて、対象フレームの自己相関を求め、求めた自己相関を用いて誤計測か否かを判定してもよい。例えば動きベクトル分布算出手段41は、対象フレームに対して参照フレームをずらしつつ動きベクトル分布を算出するのに加えて、対象フレームに対して対象フレーム自身をずらしつつ動きベクトル分布を算出する。この動きベクトル分布を自己動きベクトル分布と呼ぶこととする。誤計測判定手段44は、動きベクトル検出手段43が動きベクトルを検出すると、検出された動きベクトル(ずらし量)に対応する自己動きベクトル分布のスコアを参照し、そのスコアに基づいて誤計測か否かを判定してもよい。例えばある画素位置に対して検出された動きベクトルが(2,2)のとき、誤計測判定手段44は、ずらし量(2,2)に対応する自己動きベクトル分布における当該座標位置のスコアを参照する。誤計測判定手段44は、例えば自己動きベクトル分布におけるスコアをしきい値処理し、スコアがしきい値以下であれば誤計測ではないと判定し、スコアがしきい値より大きいとき誤計測であると判定する。
【0070】
自己動きベクトル分布を用いた誤計測の判定は、以下の理論に基づく。すなわち、対象フレームのある画素に着目すると、ずらし量0では同一画素間の相関を求めることになるため、自己動きベクトル分布におけるスコアC1の値は大きくなる。一方、着目画素が移動物体などに該当する画素である場合に、対象フレームに対して対象フレーム自身をずらしてスコアを算出すると、両者の間で物体の位置がずれることからスコアC1の値は小さくなると考えられる。つまり、移動物体などに該当する着目画素に対して算出されるスコアC1は、ずらし量0が最大で、ずらし量が大きくなるほどスコアC1の値は小さくなると考えられる。
【0071】
一方、着目画素が背景部分などの単調な部分に対応する場合は、上記とは異なり、ずらし量0で算出されたスコアC1と、対象フレーム自身をずらして算出されたスコアC1とは、それほど差がつかないと考えられる。つまり、単調背景などに該当する着目画素に対して算出されるスコアC1は、ずらし量に依存せず、比較的大きな値を取ると考えられる。自己動きベクトル分布において、ずらし量0以外のずらし量においてスコアC1の値が大きくなるということは、その大きなスコアとなったずらし量において誤計測が起こっている可能性が高いことを意味すると考えられる。そこで、誤計測判定手段44は、検出された動きベクトルに対応するずらし量の自己動きベクトル分布のスコアC1をしきい値処理し、スコアC1の値がしきい値よりも大きいときに、誤計測であると判定できる。
【0072】
別例として、誤計測判定手段44は、機械学習を用いて生成された判別器を用いて誤計測か否かを判定してもよい。誤計測判定手段44は、例えば25通りの動きベクトル分布における各画素位置のスコアを並べたデータ(動きベクトル検出空間のスコア分布)をベクトルデータとして判別器に入力する。判別器は、入力されたデータに対して、誤計測であるか否かを示す信号を出力する。判別器は、動きベクトルが真の動きベクトルであるときの動きベクトル検出空間のスコア分布を正の教師データとし、動きベクトルが誤検出であるときの動きベクトル検出空間のスコア分布を負の教師データとして、正負の教師データを学習することで生成することができる。誤計測判定手段44は、判別器の出力に基づいて、誤計測か否かを判定することができる。
【0073】
上記した誤計測判定の手法は組み合わせて用いてもよい。例えば、スコアの差分に基づいて誤計測か否かを判定する手法と、第1の動きベクトルと第2の動きベクトルとの関係に基づいて誤計測か否かを判定する手法とを組み合わせてもよい。その場合、誤計測判定手段44は、双方の条件がそろったとき、すなわちスコアの差分がしきい値よりも小さく、かつ、第1の動きベクトルと第2の動きベクトルとが逆ベクトルの関係にないときに誤計測と判定してもよい。あるいは、これに代えて、何れか一方の条件が成立したとき、すなわちスコアの差分がしきい値よりも小さいか、又は第1の動きベクトルと第2の動きベクトルとが逆ベクトルの関係にないときに誤計測と判定してもよい。
【0074】
続いて、オブジェクト検出手段12の具体的な構成例を説明する。図5は、オブジェクト検出手段12の構成例を示す。オブジェクト検出手段12は、前処理手段21、平滑化処理手段22、差分画像生成手段23、合算手段24、位置推定手段25、サイズ推定手段26、及び、照合手段27を有する。オブジェクト検出手段12は、動画像内の特定パターン、例えば人物の頭部をオブジェクトとして検出する。以下では、オブジェクト検出手段12が、動画像からオブジェクトを1つ検出するものとして説明を行う。
【0075】
前処理手段21は、解像度変換手段51と動き領域抽出手段52とを有する。解像度変換手段51は、動画像を構成するフレーム画像を所定の解像度に低解像度化する。解像度変換手段51は、例えば画像の解像度を縦横それぞれ1/8倍に変換する。解像度変換手段51が変換する画像の解像度は、動きベクトル場計測手段31(図3)における解像度変換手段40が変換する画像の解像度と同一でもよい。なお、オブジェクト検出手段12と動きベクトル場計測手段31とが別個に解像度変換手段を有している必要はない。両者に共通の解像度変換手段から低解像度化した画像を提供するようにしてもよい。
【0076】
動き領域抽出手段52は、動画像を構成するフレーム画像から動き領域を抽出し動き領域抽出画像を生成する。動き領域の抽出には、例えば背景画像やフレーム間画像の差分を算出するなど任意の手法を用いることができる。動き領域抽出手段52は、抽出された動きの量に応じて、動きがある領域ほど白く(階調値が高く)、動きが少ない領域ほど黒く(階調値が低く)なるようなグレースケール画像を動き領域抽出画像として生成する。動き領域抽出手段52は、例えば階調数256のグレースケール画像に対して所定の関数に従って階調を変換し、白から黒までの階調数を減少させるコントラスト低減処理を実施してもよい。動き領域抽出手段12は、グレースケール画像に代えて、動き領域を白、背景領域を黒にするような2値化画像を動き領域抽出画像として生成してもよい。
【0077】
平滑化処理手段22には、前処理手段21で前処理された画像P(x,y)、すなわち解像度が低解像度化され、動き領域が抽出された画像が入力される。平滑化処理手段22は、平滑化フィルタを画像に畳み込む処理を繰り返し行うことにより、スケールが異なる複数枚の平滑化画像L(x,y,σ)を生成する。
【0078】
平滑化処理手段22は、まず画像P(x,y)に平滑化フィルタを畳み込むことで平滑化画像L(x,y,σ)を生成し、その平滑化画像L(x,y,σ)に更に平滑化フィルタを畳み込むことでスケールσの平滑化画像+(x,y,σ)を生成する。平滑化処理手段22は、以降同様に平滑化フィルタの畳み込みを繰り返し行い、任意のスケールσの平滑化画像L(x,y,σ)から次のスケールσq+1の平滑化画像L(x,y,σq+1)を生成する。
【0079】
平滑化画像L(x,y,σ)におけるスケール番号iは、平滑化フィルタを畳み込んだ回数に相当する。平滑化処理手段22は、例えばスケールが異なるa×k枚(a及びkはそれぞれ2以上の整数)の平滑化画像L(x,y,σ)〜L(x,y,σa×k)を生成する。平滑化処理手段22は、例えばa=2、k=30とすれば2×30=60枚の平滑化画像L(x,y,σ)〜(x,y,σ60)を生成する。
【0080】
平滑化フィルタには、例えばガウシアンフィルタを用いることができる。平滑化フィルタは、例えば検出対象であるオブジェクトの輪郭形状に合わせたフィルタ特性となる3×3オペレータから成る。例えばオブジェクト検出手段12で検出対象とするオブジェクトが人物の頭部であれば、平滑化フィルタとして、人物の頭部の輪郭形状に沿って下側のフィルタ係数が小さくなる特性(オメガ形状)を有するフィルタを用いる。このような平滑化フィルタを用いることで、人物の頭部の輪郭形状を有する領域を強調し、それ以外の領域は抑制された平滑化処理を実現できる。
【0081】
なお、フィルタの形状はオメガ形状には限定されず、例えば特開2003−248824号公報等に記載されたものなど、他の公知技術を適用することも可能である。例えば検出対象のオブジェクトの形状が円形、三角形、四角形などの場合には、それぞれのオブジェクト形状に合わせたフィルタ特性を有する平滑化フィルタを用いて平滑化処理を施せばよい。
【0082】
差分画像生成手段23は、平滑化処理手段22が生成した複数枚の平滑化画像L(x,y,σ)を入力し、スケールが互いに異なる2つの平滑化画像間の差分画像G(x,y,σ)を、スケールを変えつつ複数枚生成する。ここで、差分画像G(x,y,σ)におけるスケール番号jの最大値は、平滑化画像Lにおけるスケールσの最大値(例えばa×k)よりは小さい。差分画像生成手段23は、例えばスケール番号jに応じたスケールだけ離れた平滑化画像間の差分画像を生成する。具体的には、差分画像生成手段23は、例えば下記式3を用いて差分画像G(x,y,σ)を生成することができる。
G(x,y,σ)=L(x,y,σ)−L(x,y,σj×a)・・・(3)
差分画像は、差分値の絶対値であってもよい。
【0083】
上記の式3の定義からわかるように、差分画像G(x,y,σ)は、スケールσの平滑化画像と、スケールσj×aの平滑化画像との差分として定義される。例えばa=2、k=30とすると、差分画像生成手段23は、スケールσとσ、スケールσとσ、スケールσとσ、・・・、スケールσ30とσ60の組み合わせからなる30枚の差分画像G(x,y,σ)〜(x,y,σ30)を生成する。式3に従って差分画像G(x,y,σ)を生成する場合、jは1〜kの値を取る。すなわち、差分画像生成手段23は、k枚の差分画像G(x,y,σ)〜(x,y,σ)を生成する。
【0084】
差分画像生成手段23は、上記に代えて、一定のスケールだけ離れた平滑化画像間の差分を差分画像として生成してもよい。差分画像生成手段23は、例えばスケールσの平滑化画像と、スケールσj+pの平滑化画像(pは1以上の整数)との差分を差分画像(x,y,σ)として生成してもよい。具体的には、差分画像生成手段23は、下記式4を用いて差分画像G(x,y,σ)を生成してもよい。
G(x,y,σ)=L(x,y,σ)−L(x,y,σj+p)・・・(4)
この場合、平滑化画像の枚数をr(r:3以上の整数)枚とすると、jは1〜r−pの値を取る。すなわち差分画像生成手段23は、r−p枚の差分画像G(x,y,σ)〜(x,y,σr−p)を生成する。具体的には、r=60で、p=30の場合、差分画像生成手段23は、スケールσとσ31、スケールσとσ32、スケールσとσ33、・・・、スケールσ30とσ60の組み合わせからなる30枚の差分画像G(x,y,σ)〜(x,y,σ30)を生成する。
【0085】
合算手段24は、差分画像生成手段23が生成した複数枚の差分画像G(x,y,σ)を合算し、合算画像AP(x,y)を生成する。位置推定手段50は、合算画像AP(x,y)における画素値に基づいてオブジェクトの位置を推定する。位置推定手段25は、例えば合算画像AP(x,y)において画素値(差分値を合計した値)が最も大きくなる位置を調べ、その位置をオブジェクトの位置として推定する。
【0086】
サイズ推定手段26は、複数枚の差分画像G(x,y,σ)の画素値を比較し、最大の画素値を有する差分画像のスケールに基づいて、検出すべきオブジェクトのサイズを推定する。サイズ推定手段26は、例えば最大の画素値(差分値)を有する差分画像の生成元となった2枚の平滑化画像のうちのスケールが小さい方の平滑化画像内のスケールに基づいてオブジェクトのサイズを推定する。すなわちサイズ推定手段26は、式3又は式4に従って生成される複数枚の差分画像G(x,y,σ)のうちで、最大の差分値を有するスケールσを求め、求めたスケールσに基づいてオブジェクトの位置を推定する。
【0087】
上記のオブジェクトの位置及びサイズの推定について説明する。平滑化処理手段22は、オブジェクト形状に合わせたフィルタ特性を有する平滑化フィルタを用いて平滑化画像L(x,y,σ)を生成しており、この平滑化画像L(x,y,σ)は、特定の形状を持つ領域が強調され、他の領域が抑制された画像となる。例えば平滑化処理を数十回行ったときでも平滑化画像内にオブジェクトの輪郭成分が残るが、スケールσが大きくなるほど、オブジェクトの領域はボケていくと共に広がっていく。
【0088】
平滑化画像L(x,y,σ)におけるオブジェクトの形状及びサイズは、入力画像内のオブジェクトの形状及びサイズとそれぞれ一致していると仮定する。この平滑化画像L(x,y,σ)でのオブジェクト形状及びサイズの顕著性を算出するために、あるスケールの平滑化画像に対して、そのスケールよりもスケールが大きい平滑化画像を背景として設定する。すなわちスケールσの平滑化画像L(x,y,σ)対して、式3ではスケールσj×aの平滑化画像L(x,y,σj×a)を背景画像として設定し、式4ではスケールσj+pの平滑化画像L(x,y,σj+p)を背景として設定する。そして、式3又は式4に従って、スケールσの平滑化画像と背景画像として設定する平滑化画像との差分画像G(x,y,σ)が、スケールσの平滑化画像L(x,y,σ)におけるオブジェクトの顕著性として算出される。このように差分画像生成手段23においてオブジェクトの顕著性を数値化し、位置推定手段25及びサイズ推定手段26において、差分画像生成手段23において数値化されたオブジェクトの顕著性に基づいて、オブジェクトの位置及びサイズをそれぞれ推定する。
【0089】
ここで、画像内においてオブジェクトが理想形状、すなわちフィルタ特性に最も合致した形状であって、かつ背景にノイズがない差分画像が、他の差分画像に比べて最大の信号を有する。言い換えれば、前処理済みの画像P(x,y)内のオブジェクトを構成する各画素の成分がオブジェクトの領域にほぼ等しくなるまで広がったとき、差分画像G(x,y,σ)内の差分値は最大となる。例えば画像P(x,y)内のオブジェクトが直径10画素の円形画素から構成される場合、複数の差分画像のうちで、j=10の差分画像G(x,y,σ10)(式3ではL(x,y,σ10)−L(x,y,σa×10)、式4ではL(x,y,σ10)−L(x,y,σ10+p))における差分値が、他の差分画像における差分値に比べて大きな値を有することになる。
【0090】
一方で、実際に画像内に映し出されるオブジェクトは、カメラとオブジェクトの位置関係や個体差などに応じて映り方が異なり、オブジェクトの輪郭形状及びサイズは理想形状になるとは限らない。つまり、オブジェクトの輪郭形状及びサイズは変動する。そこで、位置推定手段50は、複数の差分画像G(x,y,σ)を合算した合算画像AP(x,y)を用いてオブジェクトの位置を推定する。このようにすることで、オブジェクトの変動を吸収しながらオブジェクトの位置を推定できる。つまり、サイズが小さいオブジェクトからサイズが大きいオブジェクトに含まれる様々な輪郭形状の変動を持つオブジェクトに対して、平滑化画像を加算した合算画像AP(x,y)から最大値を検出することにより、変動を吸収しながら位置推定を行うことができる。
【0091】
また、上述したように、式3、4におけるスケール番号jは、画像P(x,y)内における検出対象のオブジェクトのサイズに対応するパラメータである。オブジェクトのサイズが小さい場合にはスケール番号jが小さい差分画像G(x,y,σ)から最大値が検出され、オブジェクトのサイズが大きい場合にはスケール番号jが大きい差分画像G(x,y,σ)から最大値が検出される。サイズ推定手段60は、この性質を利用し、複数の差分画像の間で差分値同士を比較し、最大の差分値となる差分画像のスケール番号、すなわち平滑化処理の繰り返し回数からオブジェクトのサイズを推定する。
【0092】
照合手段27は、位置推定手段25から推定されたオブジェクトの位置を入力し、サイズ推定手段26から推定されたオブジェクトのサイズを入力する。照合手段27は、入力されたオブジェクトの位置及びサイズの情報を用いて、入力画像(フレーム画像)からオブジェクトを検出する。より詳細には、照合手段27は、推定された位置の周辺領域をオブジェクトが存在する確率が高い領域として、その周辺領域からオブジェクトを検出する。このとき照合手段27は、サイズ推定手段26で推定されたサイズのオブジェクトを検出する。照合手段27が行うオブジェクト検出には、パターンマッチングやニューラルネットワークを用いたオブジェクト検出など、任意のオブジェクト検出手法を用いることができる。
【0093】
図6は、オブジェクト検出手段12の動作手順を示す。前処理手段21は、フレームメモリ11(図1)からフレーム画像を読み出し、フレーム画像に対して前処理を行う(ステップS21)。すなわち、解像度変換手段51がフレーム画像を所定の解像度にまで低解像度化し、動き領域抽出手段52が低解像度化されたフレーム画像から動き領域を抽出する。前処理手段21は、前処理後の画像、すなわち解像度が低解像度化され、動き領域が白で背景領域が黒となるようにグレースケール化された画像P(x,y)を平滑化処理手段22に入力する。なお、前処理手段21における解像度変換及び動き領域抽出の何れか一方、又は双方を省略しても構わない。双方を省略する場合、フレーム画像を平滑化処理手段22に入力すればよい。
【0094】
平滑化処理手段23は、画像P(x,y)を入力し、画像P(x,y)に平滑化フィルタを畳み込む処理を繰り返すことで、スケールが異なる複数の平滑化画像L(x,y,σ)を生成する(ステップS22)。平滑化処理手段23は、フレーム画像そのものに対して平滑化フィルタを畳み込んでもよい。差分画像生成手段23は、スケールが異なる2つの平滑化画像間の差分を計算し、差分画像G(x,y,σ)を生成する(ステップS23)。差分画像生成手段23は、例えば式3を用いて、a×k枚の平滑化画像L(x,y,σ)からスケール番号1〜kのk枚の差分画像G(x,y,σ)〜(x,y,σ)を生成する。あるいは差分画像生成手段23は、式4を用いて、r枚の平滑化画像L(x,y,σ)からスケール番号1〜r−pのr−p枚の差分画像G(x,y,σ)〜(x,y,σr−p)を生成する。
【0095】
合算手段24は、差分画像生成手段23が生成した複数の差分画像を合算し、合算画像AP(x,y)を生成する(ステップS24)。合算手段24は、例えば差分画像生成手段23で生成されたk枚の差分画像G(x,y,σ)〜(x,y,σ)の各画素値を全て加算する。位置推定手段25は、合算画像AP(x,y)に基づいて、オブジェクトが存在する位置を推定する(ステップS25)。位置推定手段25は、例えば合算画像AP(x,y)を構成する各画素位置の画素値(差分の合算値)を比較し、合算画像において最大の画素値を有する画素位置をオブジェクトの位置として推定する。
【0096】
なお、合算手段24は、全ての差分画像を合算する必要はない。合算手段24は、例えば全k枚の差分画像のうちの任意数、及び任意のスケール番号の差分画像を合算してもよい。合算手段24は、例えば吸収したいサイズ変動幅に応じて、加算処理に用いる差分画像の数(合算する差分画像のスケール)を変更してもよい。例えば、検出対象のオブジェクトの種類に応じて吸収したいサイズ変動幅を設定しておき、あるオブジェクトについては、スケール番号が小さい、具体的にはスケール番号1、2の差分画像G(x,y,σ)、(x,y,σ)を合算から除外して、スケール番号3〜kの差分画像G(x,y,σ)〜(x,y,σ)を合算してもよい。また、合算手段24が、スケール番号1から、kよりも小さい任意のスケール番号までの差分画像(x,y,σ)を合算してもよい。
【0097】
サイズ推定手段26は、複数の差分画像G(x,y,σ)に基づいて、オブジェクトのサイズを推定する(ステップS26)。サイズ推定手段26は、例えばk枚の差分画像間で、位置推定手段25で推定されたオブジェクトの位置の周辺の画素の画素値(差分値)を比較する。サイズ推定手段26は、最大の画素値を与える差分画像のスケールを特定する。あるいはサイズ推定手段26は、推定されたオブジェクトの位置の周辺だけではなく、差分画像の全画素の画素値を比較し、最大の画素値を与える差分画像のスケールを特定してもよい。平滑化処理を行うことで画像内の像はどの程度広がるか(ボケるか)は既知であるため、差分最大を与えるスケールが判明すれば、そのスケール番号に基づいてオブジェクトのサイズが推定できる。また、上述のように検出対象であるオブジェクトは変動するため、サイズ推定手段26は、最も大きい差分値を有する差分画像から推定したサイズ±α(αは所定の値)をオブジェクトのサイズとして推定するようにしてもよい。
【0098】
照合手段27は、推定されたオブジェクトの位置及びサイズを利用して、フレーム画像からオブジェクトを検出する(ステップS27)。例えば照合手段27がパターンマッチングを用いてオブジェクトの検出を行う場合、照合手段27は、推定されたオブジェクトの位置の周辺領域でパターンマッチングを行う。その際、照合手段27は、推定されたオブジェクトのサイズに適合するサイズのパターンを用いてパターンマッチングを行う。照合手段27が、推定されたオブジェクトの位置の周辺で、推定されたサイズのオブジェクトを検出することで、効率のよいオブジェクト検出が可能となる。
【0099】
比較例としてDOG画像を用いたオブジェクト検出を考えると、DOG画像を用いたオブジェクト検出では隣接するスケールの平滑化画像間の差分を全て求める必要があり、生成する必要がある差分画像の枚数が多くなる。図5に示すオブジェクト検出手段12を用いる場合、あるスケールの平滑化画像と、そのスケールから所定スケールだけ離れたスケールの平滑化画像との差分を差分画像として生成すればよく、DOG画像を用いたオブジェクト検出に比して、差分画像の生成枚数を少なくすることができる。このため、効率的に精度良くオブジェクトの位置を推定することができる。また、図5に示す構成のオブジェクト検出手段12では、多重解像度画像を生成しなくてもオブジェクトのサイズの推定することができ、効率的にオブジェクトのサイズを推定することができる。
【0100】
特に、平滑化処理手段22においてa×k枚の平滑化画像L(x,y,σ)〜(x,y,σa×k)を生成し、差分画像生成手段23において、式3を用いて、スケールσの平滑化画像L(x,y,σ)とスケールσa×jの平滑化画像L(x,y,σa×j)との差分を差分画像G(x,y,σ)として求める場合、オブジェクトのサイズの様々な変動に合わせて、オブジェクトの位置を精度よく推定することができる。また、オブジェクトのサイズの推定を精度よく行うことができる。
【0101】
なお、上記の説明では、動き領域抽出手段52が動き領域(オブジェクト)を白、背景領域を黒とするようなグレースケール化処理又は2値化処理を行うものとして説明したが、動き領域抽出手段52の動作はこれには限定されない。例えば動き領域抽出手段52は、動き領域を黒、背景領域を白とするようなグレースケール化処理又は2値化処理を行ってもよい。その場合には、位置推定手段25は、合算画像AP(x,y)において、画素値が最小となる画素位置を、オブジェクトの位置として推定すればよい。また、サイズ推定手段26は、複数の差分画像のうちで最小の画素値(差分値)を与える差分画像のスケールに基づいて、オブジェクトのサイズを推定すればよい。
【0102】
また、上記の説明では、オブジェクト検出手段12が動画像からオブジェクトを1つ検出する例を説明したが、オブジェクト検出手段12において複数のオブジェクトを検出してもよい。例えばオブジェクト検出手段12が検出すべきオブジェクトの数をMとする。その場合、位置推定手段25は、合算画像AP(x,y)の画素値を大きい順に並べ、上位M個の画素位置を、各オブジェクトの位置として推定すればよい。つまり、合算画像AP(x,y)において画素値が大きい順にM個の画素位置をオブジェクトの位置として推定すればよい。サイズ推定手段26は、推定されたM個のオブジェクトの位置の周辺において、最大の画素値を与える差分画像のスケールに基づいて、各オブジェクトのサイズを推定すればよい。
【0103】
オブジェクト検出手段12は、オブジェクト追跡処理手段13の第1の追跡手段32が追跡しているオブジェクトは検出対象から除外する。例えばオブジェクト検出手段12は、第1の追跡処理部32から追跡中のオブジェクトの現在フレームにおける位置を受け取り、追跡中のオブジェクトの位置の画素値を“0”とし、それ以外の位置の画素値を“1”とするマスク画像を生成する。位置推定手手段25は、合算画像AP(x,y)とマスク画像との積を取り、その積を取った画像において画素値が最大となる位置をオブジェクトの位置として推定すればよい。また、サイズ推定手段26は、各差分画像G(x,y,σ)とマスク画像との積を取り、その積を取った各画像において最大の画素値を与えるスケールに基づいてオブジェクトのサイズを推定すればよい。追跡中のオブジェクトの位置をオブジェクト検出の対象から除外する手法は、マスク画像を用いる手法には限定されず、任意の手法でよい。
【0104】
引き続き、動画オブジェクト検出装置10(図1)の全体的な動作手順いついて説明する。図7は、動画オブジェクト検出装置10の動作手順を示す。フレームメモリ11は、順次に入力されるフレーム画像を記憶する(ステップS31)。動きベクトル場計測手段31(図3)は、現在フレーム画像と過去のフレーム画像とに基づいて動きベクトル場を計測する(ステップS32)。動きベクトル場計測手段31は、例えば図4に示す手順に従って動きベクトル場を計測する。
【0105】
第1の追跡手段32は、オブジェクトリスト記憶部14から処理対象のオブジェクトの過去フレーム画像における位置を取得する(ステップS33)。第1の追跡手段32は、過去フレーム画像から現在フレーム画像方向にオブジェクトを追跡し、処理対象のオブジェクトの現在フレーム画像における位置を推定する(ステップS34)。第1の追跡手段32は、ステップS32で求められた動きベクトル場と過去フレーム画像におけるオブジェクトの位置とに基づいて、現在フレームにおけるオブジェクトの位置を推定する。
【0106】
第1の追跡手段32は、推定した現在フレーム画像におけるオブジェクトの位置を、オブジェクトリスト記憶部14に記憶する。第1の追跡手段32は、例えば処理対象のオブジェクトのIDと、現在フレーム画像のフレームIDと、推定したオブジェクトの位置とを関連付けてオブジェクトリスト記憶部14に記憶する。
【0107】
第1の追跡手段32は、オブジェクトリスト記憶部14に未処理のオブジェクトが存在するか否かを判断する(ステップS35)。第1の追跡手段32は、未処理のオブジェクトが存在するときはステップS33に戻り、未処理のオブジェクトの中から1つを選択し、選択したオブジェクトの位置を取得する。
【0108】
第1の追跡手段32は、未処理のオブジェクトがなくなるまでステップS33からステップS35を繰り返し実行し、オブジェクトリスト記憶部14に記憶された各オブジェクトについて、現在フレームにおけるオブジェクトの位置を推定し、推定したオブジェクトリスト記憶部14に記憶する。未処理のオブジェクトがなくなると、過去フレーム画像から現在フレーム画像方向へのオブジェクトの追跡処理が終了する。なお、オブジェクトリスト記憶部14に記憶されたオブジェクトが1つも存在しないときは、ステップS33からステップS35をスキップすればよい。
【0109】
オブジェクト検出手段12は、現在フレーム画像からオブジェクトを所定個数、例えば1つ検出する(ステップS36)。オブジェクト検出手段12は、例えば図6に示す手順に従ってオブジェクトを検出する。オブジェクト検出部12は、オブジェクトを検出したか否かを判断する(ステップS37)。オブジェクト検出部12において、現在フレーム画像からオブジェクトができなかったときは、現在フレーム画像に対する処理を終了する。
【0110】
オブジェクト検出手段12は、オブジェクトを検出すると、その検出したオブジェクトの位置をオブジェクトリスト記憶部14に記憶する(ステップS38)。オブジェクト検出手段12は、例えば現在フレーム画像から検出したオブジェクトに新規オブジェクトIDを割り当て、割り当てたオブジェクトIDと、現在フレーム画像のフレームIDと、検出したオブジェクトの位置とを対応付けてオブジェクトリスト記憶部14に記憶する。
【0111】
オブジェクト検出手段12は、現在フレーム画像において新たなオブジェクトが検出された旨を第2の追跡手段33に通知する。第2の追跡手段33は、現在フレーム画像の時刻よりも以前の時刻に遡ってオブジェクトを追跡し、過去フレームにおけるオブジェクトの位置を推定する(ステップS39)。第2の追跡手段33は、ステップS32で求められた動きベクトル場と現在フレームにおいて検出されたオブジェクトの位置とに基づいて、過去フレームにおけるオブジェクトの位置を推定する。第2の追跡手段33は、例えば所定フレーム数だけ過去方向に遡ってオブジェクトを追跡する。あるいはオブジェクトが追跡できなくなるまで、過去方向に遡ってオブジェクトを追跡してもよい。
【0112】
ところで、仮にステップS32における動きベクトル場の計測を、追跡すべきオブジェクト(追跡中のオブジェクト)の周辺のみで行うものとした場合、過去方向にオブジェクトを追跡するためには、動きベクトル場の再計測が必要になる。この場合、1つのフレーム画像に対する処理を一定の時間以内で終わらせることが困難になると考えられる。動きベクトル場の計測を、追跡中のオブジェクトの周辺のみで行うのではなく、フレーム画像の全体に対して動きベクトル場を計測しけば、動きベクトル場の再計測は不要であり、第2の追跡手段33の追跡処理を余計な時間をかけずに行うことができる。
【0113】
第2の追跡手段33は、推定した過去フレーム画像におけるオブジェクトの位置を、オブジェクトリスト記憶部14に記憶する。第2の追跡手段33は、例えば検出されたオブジェクトのIDと、位置が推定された過去フレーム画像のフレームIDと、推定したオブジェクトの位置とを関連付けてオブジェクトリスト記憶部14に記憶する。第2の追跡手段33は、ステップS36で検出されたオブジェクトが複数あるときは、そのそれぞれに対して過去フレーム画像におけるオブジェクトの位置を推定する。過去方向へのオブジェクトの追跡が終了すると、現在フレーム画像に対する処理が終了する。
【0114】
本実施形態では、ある時刻のフレーム画像においてオブジェクトが検出されると、第1の追跡手段32(図2)がオブジェクトの検出時刻よりも後の時刻のフレーム画像におけるオブジェクトの位置を複数フレーム間で追跡すると共に、第2の追跡手段33が、オブジェクトが検出された時刻よりも前の時刻に遡って複数フレーム間でオブジェクトの位置を追跡する。本実施形態では、ある時刻のフレーム画像において、オブジェクトが例えば画像上で他のオブジェクトや何らかの物体と重なることにより、そのオブジェクトが検出できなかったとしても、その後のフレーム画像においてオブジェクトが検出されたときに、第2の追跡手段33が時間を遡ってオブジェクトを追跡する。このため、ある時刻においてオブジェクトの検出漏れがあったとしても、そのある時刻におけるオブジェクトの位置を後の時刻において推定することができる。
【0115】
本実施形態では、オブジェクトが検出されたときに、そのオブジェクトの過去フレーム画像における位置を時間を遡って追跡するため、各時刻において無理にオブジェクトを検出する必要がない。言い換えれば、各時刻においてオブジェクトの検出漏れが許容される。本実施形態では、各時刻においてオブジェクトの検出漏れを許容することができるため、オブジェクト検出においてオブジェクトの検出条件を厳しく設定することができる。例えば、現在フレーム画像に複数のオブジェクトが存在する場合でも、オブジェクト検出手段12において検出するオブジェクトの数を1つに制限することができる。オブジェクトの検出条件を厳しく設定し、オブジェクトらしさが低いオブジェクトはオブジェクトとして検出しないようにすることで、誤検出を抑制できる。
【0116】
単にオブジェクトの検出条件を厳しく設定するだけであれば、誤検出は抑制できるものの、検出漏れが発生することになる。この検出漏れの発生に対し、本実施形態では、オブジェクト検出時に過去方向にオブジェクトを追跡する第2の追跡手段33を用いる。第2の追跡手段33が、オブジェクトが検出されたときに、過去フレーム方向にオブジェクトを追跡することで、過去フレームにおいて検出できなかったオブジェクトの位置を推定することができる。これにより、過去フレーム画像におけるオブジェクトの検出漏れを補償できる。従って、本実施形態では、オブジェクトの誤検出の抑制と、検出漏れの抑制との双方を実現できる。また、本実施形態では、特許文献3とは異なり、オブジェクトとは別にオブジェクトの候補を検出し、そのオブジェクトの候補を追跡する必要がないため、処理負荷が無駄に高くなることはない。
【0117】
図8は、具体的な処理例を示す。時刻t以前に検出され、オブジェクトリスト記憶部14に記憶されたオブジェクトは存在しないものとする。時刻tのフレーム画像が入力されると、オブジェクト検出手段12は、図7のステップS36でオブジェクトを1つ検出する。時刻tのフレーム画像には2つのオブジェクトが登場している。しかし、紙面向かって左側のオブジェクトは柱に隠れており、オブジェクトらしさを示すオブジェクトの信頼度が低い。オブジェクト検出手段12は、ステップS36において紙面向かった右側のオブジェクトを検出する。このオブジェクトをオブジェクトAとする。
【0118】
オブジェクト検出手段12は、ステップS38でオブジェクトAのオブジェクトIDと、時刻tのフレーム画像のフレームIDと、オブジェクトAの位置とをオブジェクトリスト記憶部14に記憶する。オブジェクト検出手段12はオブジェクトAが検出された旨を第2の追跡手段33に通知する。オブジェクトAは、時刻tのフレーム画像において初めて登場したオブジェクトであり、第2の追跡手段33がステップS39において過去フレーム画像方向へオブジェクトを追跡しても、時刻t以前のフレーム画像にオブジェクトAに対応するオブジェクトは存在しないものとする。
【0119】
時刻t+1のオブジェクト画像が入力されると、動きベクトル場計測手段31は、ステップS32で時刻tのフレーム画像と時刻t+1のフレーム画像とから動きベクトル場を計測する。第1の追跡手段32は、ステップS33で、オブジェクトリスト記憶部14からオブジェクトAの時刻tのフレーム画像における位置を取得する。第1の追跡手段32は、ステップS34で、動きベクトル場におけるオブジェクトAの位置の動きベクトルに基づいて時刻tにおけるオブジェクトAの位置を移動し、時刻t+1におけるオブジェクトAの位置を推定する。オブジェクトリスト記憶部14にはオブジェクトAしか記憶されていないため、オブジェクトAの現在フレームにおける位置の推定が終わると、ステップS36のオブジェクトの検出へと進む。
【0120】
オブジェクト検出手段12は、ステップS36において、時刻t+1のフレーム画像のオブジェクトAの位置として推定された位置を除く部分からオブジェクトの検出を試みる。時刻t+1のフレーム画像には、時刻tのフレーム画像にも含まれていた柱に隠れていたオブジェクトに加えて、柱の前を横切るオブジェクトが登場している。しかし、これらオブジェクトは画像上で柱と重なっていることからオブジェクトの信頼度が低く、オブジェクト検出手段12は、時刻t+1のフレーム画像からはオブジェクトを検出しない。
【0121】
時刻t+2のフレーム画像が入力されると、動きベクトル場計測手段31は、ステップS32で時刻t+1のフレーム画像と時刻t+2のフレーム画像とから動きベクトル場を計測する。第1の追跡手段32は、ステップS33で、オブジェクトリスト記憶部14からオブジェクトAの時刻t+1のフレーム画像における位置を取得する。第1の追跡手段32は、ステップS34で、動きベクトル場におけるオブジェクトAの位置の動きベクトルに基づいて時刻t+1におけるオブジェクトAの位置を移動し、時刻t+2におけるオブジェクトAの位置を推定する。オブジェクトリスト記憶部14にはオブジェクトAしか記憶されていないため、オブジェクトAの現在フレームにおける位置の推定が終わると、ステップS36のオブジェクトの検出へと進む。
【0122】
オブジェクト検出手段12は、ステップS36において、時刻t+2のフレーム画像のオブジェクトAの位置として推定された位置を除く部分からオブジェクトの検出を試みる。時刻t+2のフレーム画像には、時刻t+1のフレーム画像において画像上で柱と重なっていた2つのオブジェクトが柱から離れた位置に存在する。オブジェクト検出手段12は、これら2つのオブジェクトのうちでオブジェクトの信頼度が高い方を検出する。オブジェクト検出手段12は、例えば紙面向かって下側のオブジェクトを検出する。このオブジェクトをオブジェクトBとする。
【0123】
オブジェクト検出手段12は、ステップS38でオブジェクトBのオブジェクトIDと、時刻t+2のフレーム画像のフレームIDと、オブジェクトBの位置とをオブジェクトリスト記憶部14に記憶する。オブジェクト検出手段12はオブジェクトBが検出された旨を第2の追跡手段33に通知する。第2の追跡手段33は、時刻t+2におけるオブジェクトBの位置をステップS32で求められた動きベクトル場に基づいて移動させ、時刻t+1におけるオブジェクトBの位置を推定する。このようにすることで、時刻t+1においてオブジェクト検出手段12で検出できなかった、画像上で柱と重なるオブジェクトBの位置を、オブジェクトリスト記憶部14に記憶することができる。
【0124】
時刻t+3のフレーム画像が入力されると、動きベクトル場計測手段31は、ステップS32で時刻t+2のフレーム画像と時刻t+3のフレーム画像とから動きベクトル場を計測する。第1の追跡手段32は、ステップS33で、オブジェクトリスト記憶部14からオブジェクトAの時刻t+2のフレーム画像における位置を取得する。第1の追跡手段32は、ステップS34で、動きベクトル場におけるオブジェクトAの位置の動きベクトルに基づいて時刻t+2におけるオブジェクトAの位置を移動し、時刻t+3におけるオブジェクトAの位置を推定する。
【0125】
第1の追跡手段32は、オブジェクトリスト記憶部14にはオブジェクトBが未処理のオブジェクトとして残っているため、ステップS35からステップS33に戻り、時刻t+2のフレーム画像におけるオブジェクトBの位置を取得する。第1の追跡手段32は、ステップS34で、動きベクトル場におけるオブジェクBの位置の動きベクトルに基づいて時刻t+2におけるオブジェクトBの位置を移動し、時刻t+3におけるオブジェクトBの位置を推定する。オブジェクトBに対する処理が終わると、オブジェクトリスト記憶部14には未処理のオブジェクトが存在しないため、ステップS36のオブジェクトの検出へと進む。
【0126】
オブジェクト検出手段12は、ステップS36において、時刻t+3のフレーム画像のオブジェクトA及びBの位置として推定された位置を除く部分からオブジェクトの検出を試みる。オブジェクト検出手段12は、時刻t+3のフレーム画像のオブジェクトの信頼度が最も高い位置からオブジェクトを検出する。このオブジェクトをオブジェクトCとする。
【0127】
オブジェクト検出手段12は、ステップS38でオブジェクトCのオブジェクトIDと、時刻t+3のフレーム画像のフレームIDと、オブジェクトCの位置とをオブジェクトリスト記憶部14に記憶する。オブジェクト検出手段12はオブジェクトCが検出された旨を第2の追跡手段33に通知する。第2の追跡手段33は、時刻t+3におけるオブジェクトCの位置をステップS32で求められた動きベクトル場に基づいて移動させ、時刻t+2におけるオブジェクトCの位置を推定する。第2の追跡手段33は、更に時刻t−1、時刻tへと遡って、遡った時刻のフレーム画像におけるオブジェクトCの位置を推定してもよい。
【0128】
オブジェクトリスト記憶部14には、オブジェクトAに対して、時刻t、時刻t+1、時刻t+2、及び時刻t+3の各フレーム画像における位置が記憶される。オブジェクトBに対しては、時刻t+1、時刻t+2、及び時刻t+3の各フレーム画像における位置が記憶される。また、オブジェクトCに対しては、時刻t+2及び時刻t+3の各フレーム画像における位置が記憶される。オブジェクトBについては、その検出時刻は時刻t+2であるものの、未来方向だけでなく過去方向への追跡も行うことで、検出時刻よりも前の時刻t−1におけるオブジェクトBの位置をオブジェクトリスト記憶部14に記憶することができる。また、オブジェクトCについては、その検出時刻t+3よりも前の時刻t+2におけるオブジェクトCの位置をオブジェクトリスト記憶部14に記憶することができる。このように、誤検出の抑制を目的にオブジェクト検出条件を厳しく設定しても、オブジェクトの検出漏れを抑制できる効果がある。
【0129】
なお、上記実施形態では、動きベクトル場計測手段31が対象フレーム画像の全体に対して動きベクトル場を計測するものとして説明したが、これには限定されない。例えばフレーム画像においてオブジェクトが検出されないことが明らかな領域があるような場合には、その領域を動きベクトル場の計測から除外してもよい。また、図7に示す動作手順は例示であり、必ずしもその手順に限定されるわけではない。例えばオブジェクトの追跡に関する処理(ステップS32〜S35)と、オブジェクトの検出(ステップS36)の一部とを並列に行うことも可能である。具体的には、図4における各ステップと、図6におけるステップS24までの処理とを並列に行うことができる。図6のオブジェクトの位置推定(ステップS25)以降の処理については、現在時刻のフレーム画像における追跡中のオブジェクトの位置が求まった後に行えばよい。
【0130】
本実施形態の動画オブジェクト検出装置10は、例えば商店やイベント会場などに設置されたカメラから動画像を入力し、客やイベント参加者などがどのように売り場やイベント会場内を動いたかを記録する用途に適用できる。また、動画像の圧縮において、特定のオブジェクト部分とそれ以外の部分とで圧縮のパラメータを変更して圧縮を行うといった用途に適用することができる。例えばオブジェクトリスト記憶部14に記憶されたオブジェクトの位置に相当する領域の圧縮率を、その他の領域よりも低く設定して圧縮を行うことで、画像全体の圧縮率を上げてファイルサイズを小さく抑えつつも、オブジェクトの領域の情報の欠落を抑えることが可能になる。
【0131】
以上、本発明をその好適な実施形態に基づいて説明したが、本発明の動画オブジェクト検出装置、方法、及びプログラムは、上記実施形態にのみ限定されるものではなく、上記実施形態の構成から種々の修正及び変更を施したものも、本発明の範囲に含まれる。
【符号の説明】
【0132】
10:動画オブジェクト検出装置
11:フレームメモリ
12:オブジェクト検出手段
13:オブジェクト追跡処理手段
21:前処理手段
22:平滑化処理手段
23:差分画像生成手段
24:合算手段
25:位置推定手段
26:サイズ推定手段
27:照合手段
31:動きベクトル場計測手段
32:第1の追跡手段
33:第2の追跡手段
40:解像度変換手段
41:動きベクトル分布算出手段
42:平均化処理手段
43:動きベクトル検出手段
44:誤計測判定手段44
51:解像度変換手段
52:動き領域抽出手段

【特許請求の範囲】
【請求項1】
複数フレームから成る動画像のフレーム画像からオブジェクトを検出し、該検出したオブジェクトの位置をオブジェクトリスト記憶部に記憶するオブジェクト検出手段と、
前記オブジェクトリスト記憶部に記憶されたオブジェクトの位置を、当該オブジェクトが検出された時刻以後、複数フレーム間で追跡し、該追跡したオブジェクトの位置をオブジェクトリスト記憶部に記憶する第1の追跡手段と、前記オブジェクト検出手段でオブジェクトが新たに検出されたとき、該新たに検出されたオブジェクトの位置を、当該オブジェクトが検出されたフレーム画像の時刻よりも前の時刻に遡って複数フレーム間で追跡し、該追跡したオブジェクトの位置を前記オブジェクトリスト記憶部に記憶する第2の追跡手段とを含む手段オブジェクト追跡処理手段とを備えたことを特徴とする動画オブジェクト検出装置。
【請求項2】
前記オブジェクト検出手段が、1つのフレーム画像に含まれると想定されるオブジェクト数を示す想定登場数をn、1つのオブジェクトが何フレーム分撮影されるかを示す想定有効ショット数をS、オブジェクトの検出確率をP(%)として、1つのフレーム画像から、下記式、
N=(n/S)×(100/P)
で求まるNを整数化した個数だけオブジェクトを検出するものであることを特徴とする請求項1に記載の動画オブジェクト検出装置。
【請求項3】
前記オブジェクト検出手段が、1つのフレーム画像から1つのオブジェクトを検出するものであることを特徴とする請求項1に記載の動画オブジェクト検出装置。
【請求項4】
前記オブジェクト追跡処理手段が、前記フレーム画像を順次に入力し、現在処理対象とするフレーム画像と、該フレーム画像よりも前の時刻のフレーム画像とに基づいて動きベクトル場を求める動きベクトル場計測手段を更に含み、
前記第1の追跡手段が、前記動きベクトル場計測手段で求められた動きベクトル場と、前記オブジェクトリスト記憶部に記憶されたオブジェクトの位置とに基づいて、複数のフレーム間でオブジェクトの位置を追跡し、前記第2の追跡手段が、前記動きベクトル場計測手段で求められた動きベクトル場と、前記オブジェクト検出手段で新たに検出されたオブジェクトの位置とに基づいて、前の時刻に遡ってオブジェクトの位置を追跡するものであることを特徴とする請求項1から3何れかに記載の動画オブジェクト検出装置。
【請求項5】
前記動きベクトル場計測手段が、
対象フレーム上の動きベクトル計測の対象となる対象画素について、参照フレームを対象フレームに対して動きベクトル検出空間に対応する所定範囲内でずらしつつ、各ずらし量に対して、前記対象画素と該対象画素に対応する参照フレームの画素との相関を表わすスコアの分布である動きベクトル分布を算出する動きベクトル分布算出手段と、
前記動きベクトル分布に基づいて、前記対象画素における動きベクトルを検出する動きベクトル検出手段と、
前記動きベクトル分布に基づいて、前記検出された動きベクトルが誤計測であるか否かを判定する誤計測判定手段とを含むことを特徴とする請求項4に記載のオブジェクト検出装置。
【請求項6】
前記誤計測判定手段が、前記動きベクトル検出空間の中心位置に対応するずらし量に対して算出された動きベクトル分布におけるスコアと、前記検出された動きベクトルの位置に対応するずらし量に対して算出された動きベクトル分布におけるスコアとが所定の関係を満たすか否かに基づいて、前記検出された動きベクトルが誤計測であるか否かを判定するものであることを特徴とする請求項5に記載のオブジェクト検出装置。
【請求項7】
前記誤計測判定手段が、検出された動きベクトルが真の動きベクトルであるときの、前記各ずらし量に対して算出された動きベクトル分布における前記対象画素のスコアを並べたデータを正の教師データとし、検出された動きベクトルが真の動きベクトルではないときの、前記各ずらし量に対して算出された動きベクトル分布における対象画素のスコアを並べたデータを負の教師データとして機械学習を用いて生成された判別器を用い、各ずらし量に対して算出された動きベクトル分布における前記対象画素のスコアを並べたデータを前記判別器に入力したときの該判別器の出力に基づいて誤計測か否かを判定するものであることを特徴とする請求項5に記載のオブジェクト検出装置。
【請求項8】
前記動きベクトル分布算出手段が、更に、参照フレーム上の前記対象画素に対応する画素について、対象フレームを参照フレームに対して動きベクトル検出空間に対応する所定範囲内でずらしつつ、各ずらし量に対して、前記参照フレーム上の前記対象画素に対応する画素と前記対応画素との相関を表わすスコアの分布である別の動きベクトル分布を算出し、
前記動きベクトル検出手段が、更に、前記別の動きベクトル分布に基づいて、前記参照フレーム上の前記対象画素に対応する画素における別の動きベクトルを検出し、
前記誤計測判定手段が、前記動きベクトル分布に基づいて前記検出された動きベクトルが誤計測であるか否かを判定するのに代えて、又はこれに加えて、前記動きベクトルと前記別の動きベクトルとの関係に基づいて誤計測であるか否を判定するものであることを特徴とする請求項5から7何れかに記載のオブジェクト検出装置。
【請求項9】
前記誤計測判定手段が、前記動きベクトルと前記別の動きベクトルとが逆ベクトルの関係にないとき、前記検出された動きベクトルが誤計測であると判定するものであることを特徴とする請求項8に記載のオブジェクト検出装置。
【請求項10】
前記動きベクトル分布算出手段が、更に、前記対象画素について、前記対象フレームを前記対象フレーム自身に対して動きベクトル検出空間に対応する所定範囲内でずらしつつ、各ずらし量に対して、前記対象画素自身の相関を表すスコアの分布である自己動きベクトル分布を更に算出し、
前記誤計測判定手段が、前記動きベクトル分布に基づいて前記検出された動きベクトルが誤計測であるか否かを判定するのに代えて、又はこれに加えて、前記検出された動きベクトルの位置に対応するずらし量に対して算出された自己動きベクトル分布におけるスコアに基づいて誤計測であるか否かを判定するものであることを特徴とする請求項5から9何れかに記載のオブジェクト検出装置。
【請求項11】
前記誤計測判定手段が、前記自己動きベクトル分布におけるスコアを所定のしきい値でしきい値処理し、誤計測であるか否かを判定するものであることを特徴とする請求項10に記載のオブジェクト検出装置。
【請求項12】
前記オブジェクト検出手段が、
検出すべきオブジェクトの輪郭形状に対応したフィルタ特性を有する平滑化フィルタを画像に畳み込む処理を繰り返し行うことにより、前記フレーム画像からスケールが異なる複数枚の平滑化画像を生成する平滑化処理手段と、
前記複数枚の平滑化画像のうち、スケールが互いに異なる2枚の平滑化画像間の差分画像を、スケールを変えつつ複数枚生成する差分画像生成手段と、
前記複数枚の差分画像を合算し合算画像を生成する合算手段と、
前記合算画像における画素値に基づいて検出すべきオブジェクトの位置を推定する位置推定手段と、
前記フレーム画像から、前記推定された位置の周辺でオブジェクトを検出する照合手段とを含むものであること特徴とする請求項1から11何れかに記載の動画オブジェクト検出装置。
【請求項13】
前記オブジェクト検出手段が検出すべきオブジェクトの数をMとしたとき、前記位置推定手段が、前記合算画像の画素値を大きい順に並べたときの上位M個又は下位M個の画素の画素位置を、前記オブジェクトの位置として推定するものであることを特徴とする請求項12に記載の動画オブジェクト検出装置。
【請求項14】
前記オブジェクト検出手段が、前記複数枚の差分画像の画素値を比較し、最大又は最小の画素値を有する差分画像のスケールに基づいて、検出すべきオブジェクトのサイズを推定するサイズ推定手段を更に備えたことを特徴とする請求項12又は13に記載の動画オブジェクト検出装置。
【請求項15】
前記サイズ推定手段が、前記位置推定手段が推定したオブジェクトの位置の周辺で前記差分画像の画素値を比較するものであることを特徴とする請求項14に記載の動画オブジェクト検出装置。
【請求項16】
前記サイズ推定手段が、前記最大又は最小の画素値を有する差分画像の生成元となった2枚の平滑化画像のうちのスケールが小さい方の平滑化画像内のスケールに基づいて前記オブジェクトのサイズを推定するものであることを特徴とする請求項14又は15に記載の動画オブジェクト検出装置。
【請求項17】
前記平滑化処理手段がスケールσからσa×k(a及びkは2以上の整数)までのa×k枚の平滑化画像L(x,y,σ)(i=1〜a×k)を生成し、前記差分画像生成手段が、スケールσからσまでのk枚の差分画像G(x,y,σ)(j=1〜k)を、それぞれスケールσの平滑化画像L(x,y,σ)とスケールσj×aの平滑化画像L(x,y,σj×a)との差分に基づいて生成するものであることを特徴とする請求項12から16何れかに記載の動画オブジェクト検出装置。
【請求項18】
前記差分画像生成手段が、下記式、
G(x,y,σ)=L(x,y,σ)−L(x,y,σj×a
を用いて差分画像G(x,y,σ)を生成するものであることを特徴とする請求項17に記載の動画オブジェクト検出装置。
【請求項19】
前記平滑化処理手段がスケールσからσ(rは3以上の整数)までのr枚の平滑化画像L(x,y,σ)(i=1〜r)を生成し、前記差分画像生成手段が、スケールσからσk−p(pは1以上の整数)までのk−p枚の差分画像G(x,y,σ)(j=1〜k−p)を、それぞれスケールσの平滑化画像L(x,y,σ)とスケールσj+pの平滑化画像L(x,y,σj+p)との差分に基づいて生成するものであることを特徴とする請求項12から16何れかに記載の動画オブジェクト検出装置。
【請求項20】
前記差分画像生成手段が、下記式、
G(x,y,σ)=L(x,y,σ)−L(x,y,σj+p
を用いて差分画像G(x,y,σ)を生成するものであることを特徴とする請求項19に記載の動画オブジェクト検出装置。
【請求項21】
前記オブジェクト検出手段が、前記フレーム画像から動き領域を抽出し動き領域抽出画像を生成する動き領域抽出手段を更に備え、
前記平滑化画像生成手段が、前記動き領域抽出画像に対して前記平滑化フィルタを畳み込むものであることを特徴とする請求項12から20何れかに記載の動画オブジェクト検出装置。
【請求項22】
前記動き領域抽出手段が、各画素が、前記フレーム画像から抽出した動きの量に応じた階調値を有するグレースケール画像を前記動き領域抽出画像として生成するものであることを特徴とする請求項21に記載の動画オブジェクト検出装置。
【請求項23】
前記動き領域抽出手段が、前記グレースケール画像に対して所定のコントラスト低減処理を施すものであることを特徴とする請求項22に記載の動画オブジェクト検出装置。
【請求項24】
複数フレームから成る動画像のフレーム画像からオブジェクトを検出し、該検出したオブジェクトの位置をオブジェクトリスト記憶部に記憶するステップと、
前記オブジェクトリスト記憶部に記憶されたオブジェクトの位置を、当該オブジェクトが検出された時刻以後、複数フレーム間で追跡し、該追跡したオブジェクトの位置をオブジェクトリスト記憶部に記憶するステップと、
前記オブジェクト検出手段でオブジェクトが新たに検出されたとき、該新たに検出されたオブジェクトの位置を、当該オブジェクトが検出されたフレーム画像の時刻よりも前の時刻に遡って複数フレーム間で追跡し、該追跡したオブジェクトの位置を前記オブジェクトリスト記憶部に記憶するステップとを有することを特徴とする動画オブジェクト検出方法。
【請求項25】
コンピュータに、
複数フレームから成る動画像のフレーム画像からオブジェクトを検出し、該検出したオブジェクトの位置をオブジェクトリスト記憶部に記憶するステップと、
前記オブジェクトリスト記憶部に記憶されたオブジェクトの位置を、当該オブジェクトが検出された時刻以後、複数フレーム間で追跡し、該追跡したオブジェクトの位置をオブジェクトリスト記憶部に記憶するステップと、
前記オブジェクト検出手段でオブジェクトが新たに検出されたとき、該新たに検出されたオブジェクトの位置を、当該オブジェクトが検出されたフレーム画像の時刻よりも前の時刻に遡って複数フレーム間で追跡し、該追跡したオブジェクトの位置を前記オブジェクトリスト記憶部に記憶するステップとを実行させるためのプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate


【公開番号】特開2012−73971(P2012−73971A)
【公開日】平成24年4月12日(2012.4.12)
【国際特許分類】
【出願番号】特願2010−220190(P2010−220190)
【出願日】平成22年9月30日(2010.9.30)
【出願人】(306037311)富士フイルム株式会社 (25,513)
【Fターム(参考)】