説明

人物追跡方法、人物追跡装置および人物追跡プログラム

【課題】本発明は、カメラで捉えた人物の動きを追跡する人物追跡方法に関し、カルメンフィルタなどを用いた追跡処理と比べ軽い処理で人物を追跡する。
【解決手段】各フレーム画像上の頭部を検出し、各フレーム画像上に頭部が検出された人物を特徴づける特徴量を、該各フレーム画像ごとおよび各頭部ごとに算出し、過去のフレーム画像上に頭部が検出された各人物の過去のフレーム画像上の各特徴量と、今回のフレーム画像上に頭部が検出された各人物の今回のフレーム画像上の各特徴量との間の、特徴量どうしの一致の程度を表わす関連度を算出し、各関連度のうちの閾値以上の一致の程度を表わす関連度であってかつ最大の一致の程度を表わす関連度の算出の基になった頭部を同一の人物の頭部である旨、判別する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、カメラで捉えた人物の動きを追跡する人物追跡方法、人物追跡装置および人物追跡プログラムに関する。
【背景技術】
【0002】
人物追跡方法は、追跡開始のための人物検出処理と検出された人物の特徴に着目してその人物を追跡していく処理との2つの処理により構成される。人物検出処理では、背景との差分や時間的な差分を検出したり(特許文献1,2参照)、あるいは人物のある特徴に着目してその特徴が存在するか否かにより人物の検出が行なわれる。また、人物追跡処理では、カルメンフィルタなどを用いた追跡処理が一般的である。このような従来手法の場合、以下の問題点がある。
【0003】
背景差分や時間差分などの差分演算により人物を検出する方法は、その背景や画像の時間変化等に依存し、複雑な背景等の場合は正しい背景画像等が作られず検出能力が低下するおそれがある。
【0004】
また、カルメンフィルタなどを用いた追跡処理は計算量が多く、処理に時間を要する。また、カルメンフィルタなどを正しく作用させるには高いフレームレートが必要であり、このことが処理を一層重くしている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2000−105835号公報
【特許文献2】特開2002−342762号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
本発明は、上記事情に鑑み、カルメンフィルタなどを用いた追跡処理と比べ軽い処理で人物を追跡することのできる人物追跡方法、人物追跡装置および人物追跡プログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
上記目的を達成する本発明の人物追跡方法は、
被計測空間をカメラで撮影することにより生成された所定のフレームレートの動画像を表わす画像データに基づいて、その動画像を構成する複数のフレーム画像のうちの複数の計測対象フレーム画像それぞれについて、各計測対象フレーム画像上の頭部を検出する頭部検出ステップと、
上記画像データに基づいて、各計測対象フレーム画像上に頭部が検出された人物を特徴づける特徴量を、各計測対象フレーム画像ごとおよび各頭部ごとに算出する特徴量算出ステップと、
過去の計測対象フレーム画像上に頭部が検出された各人物の過去の計測対象フレーム画像上の各特徴量と、今回の計測対象フレーム画像上に頭部が検出された各人物の今回の計測対象フレーム画像上の各特徴量との間の、特徴量どうしの一致の程度を表わす関連度を算出する関連度算出ステップと、
今回の計測対象フレーム画像上に検出された頭部のうちの、過去の計測対象フレーム画像上に検出された頭部のうちの第1の頭部を持つ人物の過去の計測対象フレーム画像上の特徴量と今回の計測対象フレーム画像上に検出された各頭部を持つ各人物の該今回の計測対象フレーム画像上の各特徴量との間の各関連度のうちの第1の閾値以上の一致の程度を表わす関連度であってかつ最大の一致の程度を表わす関連度の算出の基になった頭部を、上記第1の頭部を持つ人物と同一の人物の頭部である旨、判別する同一人物判別ステップとを有することを特徴とする。
【0008】
本発明の人物追跡方法は、複数の計測対象フレーム画像それぞれについて頭部を検出し、頭部が検出された人物を特徴づける特徴量と特徴量どうしの関連度とに基づいて複数の計測対象フレーム画像に跨る頭部どうしを対応づける処理を実行するものであり、カルメンフィルタ等を用いるよりも軽い処理で人物を追跡することができる。
【0009】
ここで、本発明の人物追跡方法において、連続する複数の第1の計測対象フレーム画像に亘って互いに同一の第1の人物に属することが判別された頭部が検出され、その第1の人物に属する頭部が途中の1つ又は第2の閾値以下の数だけ連続する複数の計測対象フレーム画像では途切れ、その後、連続する複数の第2の計測対象フレーム画像に亘って同一の第2の人物に属することが判別された頭部が検出された場合に、
上記特徴量算出ステップは、上記複数の第1の計測対象フレーム画像における上記第1の人物の平均的な第1の平均特徴量と、上記複数の第2の計測対象フレーム画像における上記第2の人物の平均的な第2の平均特徴量とを算出するものであり、
上記関連度算出ステップは、上記第1の平均特徴量と上記第2の平均特徴量との間の関連度を算出するものであり、
上記同一人物判別ステップは、上記第1の平均特徴量と上記第2の平均特徴量との間の関連度が第2の閾値以上の一致の程度を表わす関連度である場合に、上記第1の人物と上記第2の人物が同一人物である旨、判別するものであることが好ましい。
【0010】
こうすることにより、頭部の検出漏れや人物が一時的に何かの背後に移動したりなど、計測対象フレーム画像上から一旦消えた場合であっても追跡が可能となる。
【0011】
また、本発明の人物追跡方法において、1つ又は第3の閾値以下の数だけ連続する複数の計測対象フレーム画像にのみ第3の人物の頭部として検出され前後の計測対象フレーム画像にはその頭部に対応する第3の人物の頭部が検出されない場合に、その頭部を、検出された頭部から削除する断片削除ステップをさらに有することが好ましい。
【0012】
この断片削除ステップを設けると、検出された頭部が削除され、一層高精度な追跡が可能となる。
【0013】
ここで、上記特徴量算出ステップは、計測対象フレーム画像上に検出された頭部の画素値のヒストグラムを上記特徴量の1つとして算出するステップであってもよく、また、上記特徴量算出ステップは、計測対象フレーム画像上の頭部が検出された人物の胴体部分の画素値のヒストグラムを上記特徴量の1つとして算出するステップであってもよい。さらに、上記特徴量算出ステップは、今回の計測対象フレーム画像上に検出された頭部の今回の計測対象フレーム画像上の出現位置を変数とする、過去の複数の計測対象フレーム画像上の同一人物の頭部の動きに基づく関数値を上記特徴量の1つとして算出するステップであってもよい。
【0014】
本発明では、このような各種の特徴量を採用することができる。
【0015】
また、本発明の人物追跡装置は、
被計測空間をカメラで撮影することにより生成された所定のフレームレートの動画像を表わす画像データに基づいて、上記動画像を構成する複数のフレーム画像のうちの複数の計測対象フレーム画像それぞれについて、各計測対象フレーム画像上の頭部を検出する頭部検出部と、
上記画像データに基づいて、各計測対象フレーム画像上に頭部が検出された人物を特徴づける特徴量を、各計測対象フレーム画像ごとおよび各頭部ごとに算出する特徴量算出部と、
過去の計測対象フレーム画像上に頭部が検出された各人物の過去の計測対象フレーム画像上の各特徴量と、今回の計測対象フレーム画像上に頭部が検出された各人物の今回の計測対象フレーム画像上の各特徴量との間の、特徴量どうしの一致の程度を表わす関連度を算出する関連度算出部と、
今回の計測対象フレーム画像上に検出された頭部のうちの、過去の計測対象フレーム画像上に検出された頭部のうちの第1の頭部を持つ人物の過去の計測対象フレーム画像上の特徴量と今回の計測対象フレーム画像上に検出された各頭部を持つ各人物の今回の計測対象フレーム画像上の各特徴量との間の各関連度のうちの第1の閾値以上の一致の程度を表わす関連度であってかつ最大の一致の程度を表わす関連度の算出の基になった頭部を、上記第1の頭部を持つ人物と同一の人物の頭部である旨、判別する同一人物判別部とを備えたことを特徴とする。
【0016】
ここで、本発明の人物追跡装置において、連続する複数の第1の計測対象フレーム画像に亘って互いに同一の第1の人物に属することが判別された頭部が検出され、その第1の人物に属する頭部が途中の1つ又は第2の閾値以下の数だけ連続する複数の計測対象フレーム画像では途切れ、その後、連続する複数の第2の計測対象フレーム画像に亘って同一の第2の人物に属することが判別された頭部が検出された場合に、
上記特徴量算出部は、上記複数の第1の計測対象フレーム画像における上記第1の人物の平均的な第1の平均特徴量と、上記複数の第2の計測対象フレーム画像における前記第2の人物の平均的な第2の平均特徴量とを算出するものであり、
上記関連度算出部は、上記第1の平均特徴量と上記第2の平均特徴量との間の関連度を算出するものであり、
上記同一人物判別部が、上記第1の平均特徴量と上記第2の平均特徴量との間の関連度が第2の閾値以上の一致の程度を表わす関連度である場合に、上記第1の人物と上記第2の人物が同一人物である旨、判別するものであることが好ましい。
【0017】
さらに、本発明の人物追跡装置において、1つ又は第3の閾値以下の数だけ連続する複数の計測対象フレーム画像にのみ第3の人物の頭部が検出され前後の計測対象フレーム画像にはその頭部に対応する第3の人物の頭部が検出されない場合に、その頭部を、検出された頭部から削除する断片削除部をさらに備えることが好ましい。
【0018】
ここで、上記特徴量算出部は、計測対象フレーム画像上に検出された頭部の画素値のヒストグラムを上記特徴量の1つとして算出するものであってもよく、また、上記特徴量算出部は、計測対象フレーム画像上の頭部が検出された人物の胴体部分の画素値のヒストグラムを上記特徴量の1つとして算出するものであってもよい。さらに、上記特徴量算出部は、今回の計測対象フレーム画像上に検出された頭部の今回の計測対象フレーム画像上の出現位置を変数とする、過去の複数の計測対象フレーム画像上の同一人物の頭部の動きに基づく関数値を上記特徴量の1つとして算出するものであってもよい。
【0019】
さらに、本発明の人物追跡プログラムは、プログラムを実行する演算装置内で実行され、その演算装置を、
被計測空間をカメラで撮影することにより生成された所定のフレームレートの動画像を表わす画像データに基づいて、上記動画像を構成する複数のフレーム画像のうちの複数の計測対象フレーム画像それぞれについて、各計測対象フレーム画像上の頭部を検出する頭部検出部と、
上記画像データに基づいて、各計測対象フレーム画像上に頭部が検出された人物を特徴づける特徴量を、各計測対象フレーム画像ごとおよび各頭部ごとに算出する特徴量算出部と、
過去の計測対象フレーム画像上に頭部が検出された各人物の過去の計測対象フレーム画像上の各特徴量と、今回の計測対象フレーム画像上に頭部が検出された各人物の今回の計測対象フレーム画像上の各特徴量との間の、特徴量どうしの一致の程度を表わす関連度を算出する関連度算出部と、
今回の計測対象フレーム画像上に検出された頭部のうちの、過去の計測対象フレーム画像上に検出された頭部のうちの第1の頭部を持つ人物の過去の計測対象フレーム画像上の特徴量と今回の計測対象フレーム画像上に検出された各頭部を持つ各人物の今回の計測対象フレーム画像上の各特徴量との間の各関連度のうちの第1の閾値以上の一致の程度を表わす関連度であってかつ最大の一致の程度を表わす関連度の算出の基になった頭部を、上記第1の頭部を持つ人物と同一の人物の頭部である旨、判別する同一人物判別部とを備えた人物追跡装置として動作させることを特徴とする。
【0020】
ここで、本発明の人物追跡プログラムにおいて、連続する複数の第1の計測対象フレーム画像に亘って互いに同一の第1の人物に属することが判別された頭部が検出され、その第1の人物に属する頭部が途中の1つ又は第2の閾値以下の数だけ連続する複数の計測対象フレーム画像では途切れ、その後、連続する複数の第2の計測対象フレーム画像に亘って同一の第2の人物に属することが判別された頭部が検出された場合に、
上記特徴量算出部は、上記複数の第1の計測対象フレーム画像における上記第1の人物の平均的な第1の平均特徴量と、上記複数の第2の計測対象フレーム画像における前記第2の人物の平均的な第2の平均特徴量とを算出するものであり、
上記関連度算出部は、上記第1の平均特徴量と上記第2の平均特徴量との間の関連度を算出するものであり、
上記同一人物判別部が、上記第1の平均特徴量と上記第2の平均特徴量との間の関連度が第2の閾値以上の一致の程度を表わす関連度である場合に、上記第1の人物と上記第2の人物が同一人物である旨、判別するものであることが好ましい。
【0021】
さらに、本発明の人物追跡プログラムにおいて、上記演算装置を、1つ又は第3の閾値以下の数だけ連続する複数の計測対象フレーム画像にのみ第3の人物の頭部が検出され前後の計測対象フレーム画像にはその頭部に対応する第3の人物の頭部が検出されない場合に、その頭部を、検出された頭部から削除する断片削除部をさらに有する人物追跡装置として動作させることが好ましい。
【0022】
ここで、上記特徴量算出ステップは、計測対象フレーム画像上に検出された頭部の画素値のヒストグラムを上記特徴量の1つとして算出するステップであってもよく、また、上記特徴量算出ステップは、計測対象フレーム画像上の頭部が検出された人物の胴体部分の画素値のヒストグラムを上記特徴量の1つとして算出するステップであってもよい。さらに、上記特徴量算出ステップは、今回の計測対象フレーム画像上に検出された頭部の今回の計測対象フレーム画像上の出現位置を変数とする、過去の複数の計測対象フレーム画像上の同一人物の頭部の動きに基づく関数値を上記特徴量の1つとして算出するステップであってもよい。
【発明の効果】
【0023】
以上の本発明によれば、カルメンフィルタなどを用いた追跡処理と比べ軽い処理で人物を追跡することができる。
【図面の簡単な説明】
【0024】
【図1】被計測空間をカメラで撮影している様子を示す模式図である。
【図2】撮影により得られた動画像を構成する複数のフレーム画像を示す図である。
【図3】各フレーム画像上に検出された頭部を丸印で模式的に示した図である。
【図4】各頭部を持つ人物の特徴量を示す図である。
【図5】近似した特徴量による頭部どうしの対応づけを示した図である。
【図6】前後分断対応づけ処理の概念図である。
【図7】前後分断対応づけ処理の処理結果を示す概念図である。
【図8】最終的に得られた、各フレーム画像上の頭部とそれらの頭部どうしの対応づけを示す図である。
【図9】本発明の一実施形態が組み込まれた監視カメラシステムの概略構成図である。
【図10】図9に1つのブロックで示すパーソナルコンピュータの外観斜視図である。
【図11】パーソナルコンピュータのハードウエア構成図である。
【図12】人物追跡方法の一例を示すフローチャートである。
【図13】人物追跡装置の一例を示すブロック図である。
【図14】本実施形態で採用している特徴量一覧を示す図である。
【図15】「頭部」および「胴体」の説明図である。
【図16】ヒストグラムの概念図である。
【図17】ある店舗内の様子を撮影した画像(A)と、頭部の寸法の分布(B)を示した図である。
【図18】撮影画像上の頭部の動き(図18(A))と、頭部寸法(Size)と画像高さ(Y)との間の近似直線(図18(B))とを示す図である。
【図19】トップビューにおける、水平方向(X方向)に移動したときの(9)式に従って描いた曲線と、円を描いた図である。
【図20】トップビューにおける、垂直方向(Y方向)に移動したときの(9)式に従って描いた曲線と、円を描いた図である。
【図21】X方向に等速直線運動をしたときの正規化均等移動距離を示す曲線と、トップビューでの円形(図19参照)を撮影画像上に写像した曲線を示した図である。
【図22】Y方向に等速直線運動をしたときの正規化均等移動距離を示す曲線と、トップビューでの円形(図20参照)を撮影画像上に写像した曲線を示す図である。
【図23】時刻t+1のフレーム画像上に検出された頭部と正規化均等移動距離を示す曲線を示した図である。
【図24】(12)式で求められる比率Rと運動特徴量との関係を示す図である。
【図25】頭部検出ステップの詳細を含む頭部検出方法のフローチャートである。
【図26】図13に1つのブロックで示す頭部検出部の詳細ブロック図である。
【図27】図25に示す頭部検出方法の学習ステップS10の詳細フロー図である。
【図28】多重解像度展開処理の説明図である。
【図29】動画像の差分処理の説明図である。
【図30】フィルタの構造の説明図である。
【図31】各種のフィルタを図解して例示した図である。
【図32】機械学習の概念図である。
【図33】教師画像の概念図である。
【図34】各種フィルタとそれらのフィルタの学習結果を示す概念図である。
【図35】教師画像の重み付けを示す説明図である。
【図36】8×8画素用のフィルタの抽出が終了し、16×16画素のフィルタの学習への移行時の重み付け方法の説明図である。
【図37】画像群生成部の処理を示す模式図である。
【図38】領域統合部における領域統合処理の説明図である。
【発明を実施するための形態】
【0025】
以下、本発明の実施形態について説明する。
【0026】
以下では先ず、本実施形態での処理の概要を説明する。
【0027】
図1は、被計測空間をカメラで撮影している様子を示す模式図である。
【0028】
ここには、被計測空間10に3人の人物11,12,13が存在し、自由に移動している。この被計測空間10は、例えばある1つの店舗内である。また、ここには、この被計測空間10を斜めに見下す位置にカメラ20が設置されている。このカメラ20は、この被計測空間10を撮影して所定のフレームレートの動画像を表わす画像データを生成するカメラである。この被計測空間10に存在する3人の人物11,12,13は、カメラ20により撮影され、そのカメラ20での撮影により得られた画像データに基づいて、各人物11,12,13の頭部11a,12a,13aが写し込まれている、撮影画像上の領域が抽出される。ここではこれを、頭部が検出される、と称する。カメラ20による動画像上での3人の人物11,12,13の位置は刻々と変化し、この被計測空間10内に新たな人物が入り込んだり、あるいはこの被計測空間10内に居た人物がこの被計測空間10外に立ち去ることもある。
【0029】
ここでは、このような環境下で、カメラ20での撮影により得られた画像データに基づいて、人物の頭部の検出、人物の特徴量の算出、特徴量どうしの関連度の算出、等が行なわれ、さらに異なるフレーム画像内に検出された頭部が同一人物に属する頭部であるか否かの判別が行なわれて、被計測空間10内の各人物の動きが追跡される。
【0030】
図2は、カメラでの撮影により得られた動画像を構成する複数のフレーム画像を示す図である。ここには、…,t−4,t−3,t−2,t−1,t,…の各時刻に撮影されたフレーム画像が、それぞれ細長い縦枠で模式的に示されている。
【0031】
尚、ここに示す各フレーム画像は、カメラ20のフレームレートに従ったフレーム画像であってもよく、あるいは、ここでの人物追跡の目的、演算処理量、必要な精度等に応じて、フレームレートに従ったフレーム画像を間引いたものであってもよい、例えば、カメラ20が1秒あたり30枚のフレーム画像を生成するカメラである場合において、図2に縦枠で示すフレーム画像は、9枚おきのフレーム画像、すなわち、1秒あたり3枚のフレーム画像にまで間引いたものであってもよい。
【0032】
図3は、各フレーム画像上に検出された頭部を丸印で模式的に示した図である。
【0033】
例えばt−4の時刻のフレーム画像上には頭部が4つ検出され、t−3の時刻のフレーム画像上には頭部が5つ検出されている。他のフレーム画像についても同様である。
【0034】
図4は、各頭部が持つ人物の特徴量を示す図である。特徴量の求め方については後述する。
【0035】
頭部を表わす各丸印内の模様は、求められた特徴量を模式的に示しており、同一の模様は互いに近似した特徴量が求められたことを示している。
【0036】
図5は、近似した特徴量による頭部どうしの対応づけを示した図である。
【0037】
ここでは、例えばt−4のフレーム画像上の頭部a1の特徴量と、t−3のフレーム画像上の各頭部b1,b2,b3,b4,b5の各特徴量との間で、特徴量どうしの一致の程度を表わす各関連度が求められ、それらの関連度に基づいて、頭部b1,b2,b3,b4,b5の各人物のうちのどの人物が頭部a1の人物と同一の人物であるかが判別され、同一人物であると判別された頭部どうしが対応づけられる。
【0038】
ここで頭部b1,b2,…,b5のうちの頭部a1に対応づけられる頭部は、各2つの頭部のペアa1−b1,a1−b2,a1−b3,a1−b4,a1−b5に関する5つの関連度のうちの、特徴量どうしの一致の程度が最高の関連度を持つ頭部である。さらに、最高の関連度であるだけでは不充分であり、一致の程度がある第1の閾値を越えている必要がある。なぜなら、t−3のフレーム画像上に頭部が1つしか検出されない場合、頭部a1とt−3のフレーム画像上に検出された1つの頭部との関連度が最高ということになるが、t−3のフレーム画像上に検出された1つの頭部はノイズを頭部と誤検出したものである可能性もあるからである。
【0039】
ここでは、t−3のフレーム画像上の5つの頭部b1,b2,…,b5のうちの頭部b2が上記の条件を満足し、頭部a1と対応づけられている。他の頭部どうしの対応づけも同様である。
【0040】
図6は、前後分断対応づけ処理の概念図である。
【0041】
図5を参照して説明したようにして、頭部a2と頭部b3とが対応づけられ、かつ頭部d3と頭部e3が対応づけられたものとする。ただしt−2のフレーム画像上には、a2−b3,d3−e3のいずれにも対応づけられる頭部は検出されていない。このような状況下では、頭部a2に関する特徴量と頭部b3に関する特徴量との平均的な第1の特徴量が算出され、これと同様に頭部d3に関する特徴量と頭部e3に関する特徴量との平均的な第2の平均特徴量が算出され、第1の平均特徴量と第2の平均特徴量との間の関連度が算出され、その関連度がある第3の閾値以上である場合に頭部a2−b3と頭部d3−e3が、同一人物に属する頭部であると判定され、t−2のフレーム画像上の、頭部a2−b3,頭部d3―e3を滑らかに結ぶ線分上にその同一人物に属する頭部c3が存在するものとして頭部c3が追加される。
【0042】
ここで、第3の閾値は、上記の第1の閾値と同じである必要はなく、この状況にふさわしい閾値が定められている。
【0043】
尚、平均特徴量を求めるにあたって前後いくつずつのフレーム画像についての特徴量の平均的な値を求めるか、又は、いくつ連続するフレーム画像まで欠けていた頭部を修復するかは、特に限定されるものではなく、人物追跡の目的や必要な精度等に応じて決められるものである。
【0044】
図7は、前後分断対応づけ処理の処理結果を示す概念図である。
【0045】
ここでは、図6を参照して説明した処理によりt−2のフレーム画像上に頭部c3が存在することが追加され、その頭部c3がその前後のフレーム画像上の頭部a2−b3,d3−e3と同一人物に属する頭部であることの対応づけがなされている。ただし、頭部b5,d5,e1については、他の頭部と対応づけられることなく、単独で存在している。また、頭部b1−c1−d1は、t−3,t−2,t−1の3枚のフレーム画像でのみ対応づけられていて、その前後のフレーム画像には対応づけられていない。ここでは、このような単独に存在する頭部や、連続する一部のフレーム画像にのみ対応づけられている頭部は何らかのノイズ等による誤検出とみなして削除する。
【0046】
図8は、最終的に得られた各フレーム画像上の頭部とそれらの頭部どうしの対応づけを示す図である。
【0047】
ここでは、この図に示すように3人の人物の動きが正確に追跡されている。
【0048】
以上の概要を踏まえ、本発明の実施形態についてさらに説明する。
【0049】
図9は、本発明の一実施形態が組み込まれた監視カメラシステムの概略構成図である。
【0050】
図9に示す監視カメラシステム1の概略構成図には、監視カメラ20と、本発明にいう人物追跡装置の一実施形態として動作するパーソナルコンピュータ30とが示されている。
【0051】
監視カメラ20は、例えばある店舗内を見下すように設置されたものであって、店内の様子を撮影するものである。この監視カメラ20は、パーソナルコンピュータ30に接続されており、動画像を表す画像データをパーソナルコンピュータ30に向けて送信する。尚、以下では、データ上の画像も単に「画像」と称する。
【0052】
パーソナルコンピュータ30は、監視カメラ20から送信されてきた動画像を受け取る。
【0053】
監視カメラ20は本発明の主題ではないため詳細な説明を省略し、以下では、本発明の一実施形態の頭部検出装置として動作するパーソナルコンピュータ30についてさらに説明する。
【0054】
図10は、図9に1つのブロックで示すパーソナルコンピュータ30の外観斜視図、図11は、そのパーソナルコンピュータ30のハードウエア構成図である。
【0055】
ここでは、このパーソナルコンピュータ30のハードウエアおよびOS(Operating System)と、このパーソナルコンピュータ30にインストールされて実行される人物追跡プログラムとにより、本発明の一実施形態としての人物追跡装置が構成されている。
【0056】
このパーソナルコンピュータ30は、外観構成上、本体装置31、その本体装置31からの指示に応じて表示画面32a上に画像を表示する画像表示装置32、本体装置31に、キー操作に応じた各種の情報を入力するキーボード33、および、表示画面32a上の任意の位置を指定することにより、その指定時にその位置に表示されていた、例えばアイコン等に応じた指示を入力するマウス34を備えている。この本体装置31は、外観上、光磁気ディスク(MO)を装填するためのMO装填口31a、およびCDやDVDを装填するためのCD/DVD装填口31bを有する。
【0057】
本体装置31の内部には、図11に示すように、各種プログラムを実行するCPU301、ハードディスク装置303に格納されたプログラムが読み出されCPU301での実行のために展開される主メモリ302、各種プログラムやデータ等が保存されたハードディスク装置303、MO331が装填されてその装填されたMO331をアクセスするMOドライブ304、CDやDVD(ここでは区別せずにCD/DVDと称する)が装填され、その装填されたCD/DVD332をアクセスするCD/DVDドライブ305、および監視カメラ20での撮影により得られた画像データを受信するインターフェース306が内蔵されている。これらの各種要素と、さらに図2にも示す画像表示装置32、キーボード33、およびマウス34は、バス307を介して相互に接続されている。
【0058】
ここで、CD/DVD332には、このパーソナルコンピュータを人物追跡装置として動作させるための人物追跡プログラムが記憶されており、そのCD/DVD332は、CD/DVDドライブ305に装填され、そのCD/DVD332に記憶された人物追跡プログラムがこのパーソナルコンピュータ30にアップロードされてハードディスク303に格納される。このハードディスク装置303に格納された人物追跡プログラムは、このハードディスク装置303から読み出され主メモリ302上に展開されてCPU301で実行されることにより、このパーソナルコンピュータ30が人物追跡装置として動作する。
【0059】
また、ハードディスク装置303には、人物追跡プログラムの他にも、カメラ20による撮影画像に写し込まれた人物頭部の寸法と操作画像上の高さ位置との間の、統計的に平均的な対応関係を算出する処理を実行するためのプログラムや、画像表示装置32の表示画面32aの上に画像を表示し、オペレータの操作に応じて、その画像を縦横独立に変倍したり回転したり一部を切り出したりなど、その画像に様々な画像処理を施すための画像処理プログラムや、後述するような機械学習を行なってフィルタを抽出するためプログラムなど、後述する処理を実現するための各種の支援プログラムも格納されている。
【0060】
図12は、図9〜図11に示すパーソナルコンピュータ30を利用して実施される人物追跡方法の一例を示すフローチャートである。
【0061】
この人物追跡方法は、頭部検出ステップ(S01)、特徴量算出ステップ(S02)、関連度算出ステップ(S03)、同一人物判別ステップ(S04)、および断片削除ステップ(S06)を有し、さらに同一人物判別ステップ(S04)と断片削除ステップ(S06)との間には、前述の図6を参照して説明した処理を実行する状況にあるか否かを判定する判定ステップ(S05)が置かれている。各ステップの詳細説明は後に譲る。
【0062】
図13は、人物追跡装置の一例を示すブロック図である。この人物追跡装置40は、図9〜図11に示すパーソナルコンピュータ30内にアップロードされた人物追跡プログラムがパーソナルコンピュータ30内で実行されることによりそのパーソナルコンピュータ30内に実現されるアルゴリズムであり、頭部検出部41、特徴量算出部42、関連度算出部43、同一人物判別部44、および断片削除部45を有する。
【0063】
図12に示す人物追跡方法との対比では、頭部検出部41、特徴量算出部42、関連度算出部43、同一人物判別部44、および断片削除部45が、それぞれ、図12に示す頭部検出ステップ(S01)、特徴量算出ステップ(S02)、関連度算出ステップ(S03)、同一人物判別ステップ(S04)、および断片削除ステップ(S06)に相当し、制御部46が、判定ステップ(S05)に相当する。
【0064】
尚、パーソナルコンピュータ30内で人物追跡プログラムが実行されたときの人物追跡プログラムの作用は、図13に示す人物追跡装置40の作用と同一であり、ここでは人物追跡プログラムを取り上げての図示および説明は省略する。
【0065】
以下では、図13に示す人物追跡装置40の各部の作用について概括的に説明する。この説明により人物追跡プログラムおよび図12に示す人物追跡方法の各ステップの説明を兼ねるものとする。
【0066】
図13に示す人物追跡装置40を構成する頭部検出部41は、被計測空間をカメラで撮影することにより生成された所定のフレームレートの動画像を表わす画像データに基づいて、その動画像を構成する複数のフレーム画像のうちの複数の計測対象フレーム画像それぞれについて、各計測フレーム画像上の頭部を検出する役割りを担っている。ここでは、頭部の、計測対象フレーム画像上の二次元的な位置と、その頭部の縦横の寸法が検出される。ここで用いているカメラは、図1に示すように、被計測空間を斜めに見下す位置に設置されてその被計測空間を撮影するカメラである。ここでは、「フレーム画像」と「計測対象フレーム画像」とを分けた概念として説明しているが、前述した通り、計測対象フレーム画像はカメラでの撮影で得られた動画像を構成するフレーム画像そのものであってもよく、そのフレーム画像を、例えば3枚おき、10枚おき、30枚おき、等に間引いたものであってもよい。以下では、これらを区別せずに単に「フレーム画像」と称することがある。頭部検出部41における頭部検出処理の詳細説明は後に譲る。
【0067】
また、特徴量算出部42では、上記の画像データに基づいて、フレーム画像上に頭部が検出された人物を特徴づける特徴量が、各フレーム画像ごとおよび各頭部ごとに算出される。
【0068】
また、関連度算出部43では、過去のフレーム画像上に頭部が検出された各人物の過去のフレーム画像上の各特徴量と、今回のフレーム画像上に頭部が検出された各人物の今回のフレーム画像上の各特徴量との間の、特徴量どうしの一致の程度を表わす関連度が算出される。ここで、関連度算出のための「過去のフレーム画像」としては、典型的には、「今回フレーム画像」の「直近の」「過去のフレーム画像」が採用される。但し、「過去のフレーム画像」として、同一人物の頭部であることが判明している場合には、複数の過去のフレーム画像から求めた平均的な特徴量を採用してもよい。
【0069】
また、同一人物判別部44では、今回のフレーム画像上に検出された頭部のうちの、過去のフレーム画像上に検出された頭部のうちの第1の頭部を持つ人物の過去のフレーム画像上の特徴量と今回のフレーム画像上に検出された各頭部を持つ各人物の今回のフレーム画像上の各特徴量との間の各関連度のうちの第1の閾値以上の一致の程度を表わす関連度であってかつ最大の一致の程度を表わす関連度の算出の基になった頭部が、上記の第1の頭部を持つ人物と同一の人物の頭部である旨、判別される。
【0070】
2つの頭部が同一人物の頭部であると判別するにあたっては、前述したように、ノイズ除去等のために、関連度はある閾値(ここでは第1の閾値と表現している)以上の一致の程度を表わしている必要があり、かつ、今回のフレーム画像内に複数の頭部が検出された場合などには、最高の関連度である必要がある。
【0071】
また、断片削除部45では、1つ又は第4の閾値以下の数だけ連続する複数のフレーム画像にのみ第3の人物の頭部が検出され前後のフレーム画像にはその頭部に対応する第3の人物の頭部が検出されない場合に、その頭部が、検出された頭部から削除される。これにより、誤検出された頭部が削除されることになる。尚、ここでは、明細書全体での統一を図るため、ここでの閾値を「第4の閾値」と称している。第4の閾値をどのように設定するかは、本実施形態に沿った人物追跡装置の実際の設計時に、その人物追跡装置の用途等に応じて適宜定められる。
【0072】
さらに、制御部46は、各部の制御を担うほか、「連続する複数の第1のフレーム画像に亘って互いに同一の第1の人物に属することが判別された頭部が検出され、その第1の人物に属する頭部が途中の1つ又は第2の閾値以下の数だけ連続する複数のフレーム画像では途切れ、その後、連続する複数の第2のフレーム画像に亘って同一の第2の人物に属することが判別された頭部が検出される」という条件を満足したか否かを判定する。そしてこの制御部46は、この条件を満足したと判定した場合に、特徴量算出部42、関連度算出部43、および同一人物判別部44に、それぞれ以下の処理を実行させる。
【0073】
すなわち、上記の条件を満足した場合、特徴量算出部42は、上記の複数の第1のフレーム画像における第1の人物の平均的な第1の平均特徴量と、上記複数の第2のフレーム画像における第2の人物の平均的な第2の平均特徴量とを算出する。また、関連度算出部43は、上記の第1の平均特徴量と上記の第2の平均特徴量との間の関連度を算出する。さらに、同一人物判別部44は、上記の第1の平均特徴量と上記の第2の平均特徴量との間の関連度が第3の閾値以上の一致の程度を表わす関連度である場合に、上記第1の人物と上記第2の人物が同一人物である旨、判別する。
【0074】
制御部46は、この判別結果を受けて、対応する頭部が欠落していたフレーム画像上のその頭部の前後の動きに適合する位置に頭部が存在するものとして取扱うよう各部を制御する。こうすることにより、頭部の検出漏れ等があっても回復することができる。
【0075】
また制御部46には、記憶部461が含まれており、この記憶部461には、この人物追跡装置40を動作させるための準備段階で取得した各種データが記憶されている。詳細は後述する。
【0076】
図14は、本実施形態で採用している特徴量一覧を示す図である。
【0077】
図13に示す特徴量算出部42では、フレーム画像上に頭部が検出された人物を特徴づける特徴量が算出されるが、本実施形態では、この特徴量算出部42で算出される特徴量として、「アピアランス特徴量」と「運動特徴量」とを採用している。「アピアランス特徴量」は、1枚1枚のフレーム画像上の特徴を表わすものであり、ここでは、「アピアランス特徴量」として、「頭部ヒストグラム」と「胴体ヒストグラム」を採用している。以下、「頭部ヒストグラム」と「胴体ヒストグラム」および「運動特徴量」について順に説明する。
【0078】
図15は、「頭部」および「胴体」の説明図である。
【0079】
前術したように、図13に示す人物追跡装置40の頭部検出部41では、フレーム画像上の頭部の二次元的な位置と、その頭部の寸法が検出される。
【0080】
そこで、特徴量算出部42では、頭部検出部41で検出した頭部の位置および寸法から頭部の領域が設定される。ここでは、図15に示すように、頭部として幅w×高さhの領域が設定されたものとする。
【0081】
次に、頭部領域の下端からさらに頭部の高さ寸法hの1/3だけ下がった点を上端とし、頭部と上下に並び、かつ頭部と同じ寸法w×hの領域を胴体の領域として設定する。次いで、その頭部の領域内の多数の画素値のヒストグラムからなる「頭部ヒストグラム」および「胴体の領域内の多数の画素の画素値のヒストグラムからなる「胴体ヒストグラム」が算出される。
【0082】
各画素の画素値は、R,G,Bからなる3原色の画素値の組合せで構成されており、ここではヒストグラムの算出に先立って、カメラ20(図1参照)により撮影される被計測空間10の照明変化に起因する影響を低減するために、下記の(1)式に基づいて正規化rgbが求められる。
【0083】
【数1】

【0084】
ここで、R,G,Bは、その画素の、R,G,Bの各色の画素値である。
【0085】
次に、正規化rgbを使って、R,G,Bの各色ごとにヒストグラムが作成される。
【0086】
図16は、ヒストグラムの概念図である。
【0087】
この図16は、R,G,Bの3色のうちの1色、および頭部領域と胴体領域のうちの一方のヒストグラムを代表的に示したものである。ここでは、頭部領域のRのヒストグラムとして説明する。
【0088】
この図16の横軸のm(m=1,2,…,M)は、R色の、(1)式で規格化された値rをさらに量子化した値を示している。例えばrは、0〜255の範囲内の値であり、0〜7をm=1,8〜16をm=2,……,246〜255をm=Mとしたものである。縦軸は、各mの値の出現数(頻度)qを示したものである。ここでは、値mの出現数qをqと表記する。
【0089】
ここでは、頭部領域と胴体領域のそれぞれについて、かつR,G,Bの3色それぞれについて、特徴量としてのヒストグラムが算出される。
【0090】
次に運動特徴量について説明する。
【0091】
図17は、被計測空間の一例である、ある店舗内の様子を撮影した画像(A)と、頭部の寸法の分布(B)を示した図である。
【0092】
図17(A)に示す店舗には、斜め上から店舗内を見下す位置にカメラが設置されており(図1参照)、そのカメラで、店舗内の、時々刻々変化する人の動きが撮影される。図17(A)はそのうちのひと駒の撮影画像である。この撮影画像上に写し出されている人物の頭部は、円形にハッチングを付して示してある。
【0093】
店舗内を斜め上から撮影すると、図17(A)に示すように、カメラに近い場所に居る人物は撮影画像上の下側に、頭部が大きく写し出される。一方、カメラから離れた場所に居る人物は撮影画像上の上側に、頭部が小さく写し出される。
【0094】
図17(B)には、この設置されたカメラで店舗内の多数の場面を撮影して得られた、頭部寸法と撮影画像内の高さ位置との関係が示されている。この図17(B)に示すように、統計的に、寸法の大きな頭部は、撮影画像内の下側に写し出され、寸法の小さな頭部は撮影画像内の上側に写し出される。
【0095】
ここでは、図17(B)に示すように頭部の寸法分布を調査し、その寸法分布を直線で近似し、図中に示すように、近似直線
【0096】
【数2】

【0097】
の傾きKおよびY切片Dを算出しておく。
【0098】
人物が店舗内で、ある一定距離(例えば1.0m)移動したとき、撮影画像内のカメラに近い位置に居る人物は撮影画像上では大きく移動し、カメラから離れた位置に居る人物は同じ1.0m移動しても撮影画像上の移動距離は小さい。そこで、ここでは、頭部の寸法の統計量((2)式)に基づいて、撮影画像上の移動方向および距離と店舗内での実際の移動方向および距離を対応づけている。
【0099】
ここで、後述する頭部検出処理では、人物の頭部を囲う短形の撮影画像上の位置と、その短形の縦と横の寸法が検出される。この図17(B)に示す横軸の「Size」は、その短形の面積、縦軸はその短形の中心点の撮影画像上の高さ位置を示している。ただし、その短形に内接する円(又は楕円)の面積を「Size」としてもよく、あるいは、その短形の縦寸法あるいは横寸法を「Size」としてもよい。また、縦軸の高さ位置Yも、その短形の中心点に限らず、その短形の1つの角など、その短形の撮影画像上の位置を代表する点であればよい。
【0100】
カメラの設置高さ、撮影光軸の方向、撮影レンズの焦点距離等の各種の情報が入手できれば、撮影画像上の位置と店舗内の実際の位置との対応関係を計算することは可能であるが、そのためには、店舗等の被計測空間ごとにカメラの設置高さや撮影方向等を正確に測定して入力する必要があり、カメラを設置するユーザ側に作業負担を強いることとなり、また、正確な測定値が入力される保証もない。そこで、ここでは、上記の通り、撮影画像上の頭部寸法と撮影画像上の高さとの統計的な関係((2)式)を求めて、それを利用することとしたものである。
【0101】
この統計的な関係の求め方は、特に限定されるものではないが、例えば後述する頭部検出処理を使えば、カメラ設置後自動的に求めることができる。また、カメラの設置高さや撮影の向きが変更されたときは、自動的に求め直すことができる。また、一旦求めた後も、頭部のデータ数を増やして精度を更に高めていくことも可能である。
【0102】
本実施形態では、上記の(2)式(図17(B)参照)を算出しておき、さらに以下の演算式に基づいて運動特徴量が算出される。
【0103】
図18は、撮影画像上の頭部の動き(図18(A))と、頭部寸法(Size)と画像高さ(Y)との間の近似直線(図18(B))とを示す図である。
【0104】
ここでは、時刻t−1と時刻tとの間の人物頭部の移動をそのまま継続して時刻t+1に至るものと一旦仮定し、時刻t+1の時点の撮影画像上の頭部位置を予測する。時刻t−1,tにそれぞれ得られた各フレーム画像上の頭部の寸法を、それぞれSize(t−1),Size(t)としたとき、時刻t+1に得られるフレーム画像上の頭部の寸法Size(t+1)を、下記の(3)式に基づいて近似する。
【0105】
【数3】

【0106】
次に、撮影画像上での時刻t+1における頭部の位置を、水平方向の位置X(t+1)と垂直方向の位置Y(t+1)とに分けて算出する。時刻t+1における水平方向の位置X(t+1)は、時刻t−1と時刻tの各フレーム画像上に検出された頭部の水平方向の位置X(t−1),X(t)と頭部のサイズSize(t−1),Size(t)を用い、以下の(4)式により求められる。
【0107】
【数4】

【0108】
ここで、図18(A)に示すように、Size(a)は、時刻t−1の頭部サイズSize(t−1)と時刻tの頭部サイズSize(t)との間の中間の頭部サイズであり、Size(b)は、時刻tの頭部サイズSize(t)と(3)式で算出された時刻t+1の頭部サイズSize(t+1)との中間の頭部サイズである。
【0109】
【数5】

【0110】
【数6】

【0111】
また、時刻t+1における垂直方向の位置は、(2)式,(3)式を用い、以下の(7)式で求められる。
【0112】
【数7】

【0113】
次に、時刻tと時刻t+1との間における頭部の移動方向から画面上の移動角度Dが下記(8)式で求められる。
【0114】
【数8】

【0115】
この移動角度Dは、撮影画像上の人物が実際の店舗内で時刻t−1と時刻tとの間の移動をそのまま時刻t+1まで継続したとき、すなわち等速直線運動のときの撮影画像上での移動方向を示している。前述した通り、撮影画像内の下側に写っている人物は例えば1.0m移動したとき撮影画像上で大きく移動し、撮影画像内の上側に写っている人物は同じ1.0m移動しても撮影画像上では小さくしか移動しない。したがって、(8)式によって求めた、移動方向は、等速直線運動を行なったときの店舗内での移動方向ではなく、撮影画像上の移動方向である。
【0116】
ここで、店舗を真上から眺めたトップビューについて考える。ここでは、このトップビューにおける、下記(9)式を考慮する。
【0117】
【数9】

【0118】
ここで、‘Angle’は、等速直線運動を仮定したときの移動方向との成す角度であり、Dist(Angle)は、時刻tにおける頭部位置を原点としたときの角度Angleの方向の原点からの距離である。ここでは、このDist(Angle)をAngle方向の「均等移動距離」と称する。また、Dist(t−1,t)は、下記(10)式で算出される、時刻t−1と時刻tとの間における頭部の移動距離である。また、sign{cos(Angle)}は、cos(Angle)が正又は0のときに+1、負のときに−1の値を取る関数である。また、α,A,B,Cは各定数であり、例えばα=1.25,A=3,B=2,C=2を採用することができる。
【0119】
【数10】

【0120】
ここで、均等移動距離は、時刻t−1と時刻tとの間での移動方向および移動距離から算出された、時刻t+1の時点での移動推定範囲をあらわしている。この移動推定範囲は、そのまま等速直線運動を続ける場合、同一方向に移動速度を少し速めた場合、移動方向を左右に変更した場合、急に立ち止まったり、あるいは急に逆方向に移動した場合などを含む範囲である。
【0121】
図19は、トップビューにおける、水平方向(X方向)に移動したときの(9)式に従って描いた曲線と、後述する‘拉げ方’を分かり易く示すための円を描いた図である。また図20は、垂直方向(Y方向)に移動したときの同様の図である。
【0122】
図19,図20に示したt,t+1のポイントは、等速直線運動のときの、それぞれ時刻t,t+1における頭部位置、‘Angle’は、(9)式に示す、等速直線運動の進行方向との成す角度である。また、時刻tの頭部位置から‘Angle’の方向に(9)式で算出されるDist(Angle)(均等移動距離)だけ進んだ点の座標を(X1,Y1)とする。
【0123】
次に、(11)式に基づいて、撮影画像上の均等移動距離、すなわち正規化された均等移動距離、normDist(Angle)を求める。
【0124】
【数11】

【0125】
ここで、Dist(Angle)は、(9)式で求められる値である。またSize(Y1)は、トップビューのときの、図19,図20に示す、原点からAngle方向に均等移動距離Dist(Angle)だけ進んだ点(X1,Y1)の高さ方向(Y方向)の座標位置における、(2)式から算出される頭部のサイズである。さらに、Size(t)は時刻tにおける頭部のサイズである。
【0126】
図21は、X方向に等速直線運動をしたときの(11)式で算出される正規化された均等移動距離normDist(Angle)を示す曲線と、トップビューでの円形(図19参照)を、(11)式に倣って変形した曲線を示した図である。また、図22は、Y方向に等速直線運動をしたときの、(11)式で算出される正規化された均等移動距離normDist(Angle)を示す曲線と、トップビューでの円形(図20参照)を(11)式に倣って変形した曲線を示す図である。
【0127】
撮影画像上では、トップビューでの均等移動距離や円形は、撮影画像上に写像すると、図21,図22のように‘拉げた’形状の曲線となる。
【0128】
尚、ここでは、横方向(X方向)と縦方向(Y方向)に等速直線移動する場合を例に挙げて説明したが、実際には、XとYの二次元平面内の任意の方向への等速直線運動が考慮される。
【0129】
図23は、時刻t+1のフレーム画像上に検出された頭部と正規化された(図21のように撮影画像上に写像された)均等移動距離を繋いだ曲線を示した図である。
【0130】
時刻t+1のフレーム画像上には、3つの頭部A,B,Cが検出されたものとする。ここでは、これら3つの頭部A,B,Cのそれぞれについて、時刻tのフレーム画像上の頭部(図23に‘t’の文字を付した原点にある頭部)との結びつきの強さを求めるために、下記の(12)式に従って比率を算出する。ここでは、例示的に頭部Aを取り上げて説明する。頭部Aについての比率Rは、
【0131】
【数12】

【0132】
となる。
【0133】
ここで、Dist(A)は、原点(時刻tにおける頭部位置)と頭部Aとの間の距離であり、normDist(Angle A)は、原点から見た頭部Aの方向(Angle A)の正規化均等移動距離である。
【0134】
尚、実際の演算にあたっては、図19〜図23に示す均等移動距離(又は正規化均等移動距離)を示す曲線を一周に渡って算出する必要はなく、時刻t+1のフレーム画像上で検出された頭部の方向(図23に示す例では頭部A,B,Cの3方向)についてのみ演算が行なわれる。
【0135】
図24は、(12)式で求められる比率Rと運動特徴量との関係を示す図である。この図24に示す例では、比率RがR≦1(図23に示す曲線の内側)のときは、運動特徴量は‘1’であり、R≧1.8のときはほとんど‘0’に近く、1<R<1.8の間は運動特徴量の値はRの値が大きくなるにつれて徐々に低下している。
【0136】
ここでは、等速直線運動を前提にして均等移動距離や正規化均等移動距離を算出しているが、時刻t−1と時刻tとの間で頭部が停止しているとき、あるいはある閾値以下しか移動していないときは、(9)式で算出される曲線に代えて、時刻tにおける頭部位置を中心とする円形の均等移動距離が採用される。これは、停止している頭部については、次の時刻t+1にどの方向へ進むか分らず、全方向を平等に取り扱うためである。追跡を開始すべき人物の頭部がフレーム画像上に最初に検出された場合も、その人物(頭部)の過去の動きが不明のため、円形の均等移動距離が採用される。ただし、円形の均等移動距離を採用した場合であっても、(11)式で算出される正規化均等移動距離は円形にはならずに‘拉げた’曲線となる。
【0137】
以上で運動特徴量の算出方法の説明を終了する。
【0138】
本実施形態では、以上のようにして、頭部ヒストグラム、胴体ヒストグラム、および運動特徴量の3つの特徴量が求められる。
【0139】
図13に示す人物追跡装置40の特徴量算出部42において、上記のようにして3つの特徴量が求められると、関連度算出部43では、それら3つの特徴量を基に、時刻tのフレーム画像上の頭部iと、時刻t+1のフレーム画像上の頭部jとの間の、特徴量どうしの一致の程度を表わす関連度が求められる。
【0140】
頭部iのヒストグラムの各ヒストグラムビン(bin)m(図16の横軸の各区切りm,m=1,2,…,M)のそれぞれの出現数q(縦軸)をqimとし、頭部jのヒストグラムの各ヒストグラムビンmの出現数qをqjmとすると、規格化された3色r,g,bの3色分のヒストグラムを用いて、
【0141】
【数13】

【0142】
が算出される。
【0143】
ここで、Pij1の‘ij’は、時刻tのフレーム画像上のi番目の頭部と時刻t+1のフレーム画像上のj番目の頭部との間の演算であることを表わしており、‘1’は、頭部ヒストグラムと胴体ヒストグラムとを区別し、ここでは頭部ヒストグラムに関する演算であることを表わしている。したがってPij1は、頭部iと頭部jとの間の、頭部ヒストグラム単独での関連度を表わしている。
【0144】
胴体ヒストグラムについても下記(14)式に従って、頭部iの人物の胴体のヒストグラムと頭部jの人物の胴体のヒストグラムとの間の、胴体ヒストグラム単独での関連度を求める。
【0145】
【数14】

【0146】
この(14)式中のqimは、頭部iの人物の胴体のヒストグラムビンmの出現数qであり、qjmは頭部jの人物の胴体ヒストグラムの出現数qである。
【0147】
また、ここでは、時刻tのフレーム画像上に検出された頭部のうちのi番目の頭部である頭部iと、時刻t+1のフレーム画像上に検出された頭部のうちのj番目の頭部である頭部jとの間の運動特徴量の値(図24参照)を、Pij3と表記する。この運動特徴量は、時刻tのフレーム画像上の頭部iと時刻t+1のフレーム画像上の頭部jとの間の、運動に関する単独の関連度を表わしている。
【0148】
次に、下記の(15)式に従って頭部iと頭部jとの間の総合の関連度Pijを算出する。
【0149】
【数15】

【0150】
ここで、Kは、単独の関連度の数であって、ここに示す例ではK=3である。
【0151】
また、Wは、各単独の関連度の重みを表わしている。重みWは、被計測空間の性質等、すなわち、混雑が予想されるか否か、高速に移動可能か否か等に応じて決定される。
【0152】
時刻tのフレーム画像上の頭部iと、時刻t+1のフレーム画像上の全ての頭部j=1,2,3,…のそれぞれとについて(15)式に従って関連度Pijを算出する。図13に示す同一人物判別部では、j=1,2,3,…のうちの最大の関連度Pijを持つ頭部jを特定し、その特定した頭部jに関する関連度Pijがあらかじめ定めておいたある閾値を越える値を有するときに、時刻tのフレーム画像上の頭部iと時刻t+1のフレーム画像上の頭部jが同一人物の頭部である旨、判別する。
【0153】
以上の処理が、時刻tのフレーム画像上の各頭部i=1,2,3,…のそれぞれについて繰り返され、時刻tのフレーム画像上の各頭部i=1,2,3,…と時刻t+1のフレーム画像上の各頭部j=1,2,3,…との間の同一人物の頭部どうしの対応づけが行なわれる。
【0154】
以上の処理が、…,t−2,t−1,t,t+1,t+2,…の各時刻のフレーム画像について繰り返されることにより人物追跡が行なわれる。
【0155】
制御部46の記憶部461には、図17(B)に示す頭部サイズの分布や近似直線Y=K・Size+Dが格納されており、上記の演算中、関連度算出部43で参照される。
【0156】
また、制御部46では、あらかじめ定められた枚数の複数の第1のフレーム画像上に第1の人物の頭部が検出され、あらかじめ定められたある枚数以下のフレーム画像については、その人物の頭部が途切れ、それに続く、あらかじめ定められた複数の第2の複数のフレーム画像上に第2の人物の頭部が写っていたときは、特徴量算出部42に、複数の第1のフレーム画像上の第1の人物についての平均的な特徴量(ここでは平均的な頭部ヒストグラムと平均的な胴体ヒストグラム)と、複数の第2のフレーム画像上の第2の人物についての平均的な特徴量(ここでは平均的な頭部ヒストグラムと平均的な胴体ヒストグラム)を算出させ、関連度算出部43に、それらの平均的な特徴量どうしの関連度を求めさせ、同一人物判別部44に、その関連度がある閾値を越えるか否かを判定させる。閾値を越えたときは、第1の人物と第2の人物は同一人物である旨判別され、頭部が途切れたフレーム画像上の、その前後のフレーム画像上の頭部位置と矛盾しない位置に頭部が存在するものとして、頭部のデータを追加する。
【0157】
また、断片削除部45は、あらかじめ定められた枚数以下の連続するフレーム画像上にのみ出現し、前後のフレーム画像上にはあらわれない人物の頭部を削除する。
【0158】
こうすることにより、人物追跡の精度を向上させることができる。
【0159】
次に、頭部検出処理の一例を説明する。
【0160】
図25は、図12に1つのブロックで示す頭部検出ステップ(S01)の詳細を含む頭部検出方法のフローチャートである。
【0161】
この図25に示す頭部検出方法は、学習ステップS10と、この学習ステップS10を除いた他のステップS21〜S25の集合からなる検出ステップS20とを有する。これら学習ステップS10と検出ステップS20とのうち、検出ステップS20が、図12に示す頭部検出ステップS01に相当する。学習ステップS10は検出ステップS20のための準備のステップである。この学習ステップS10では、厖大な数の画像を使っの機械学習(例えばAba Boostingのアルゴリズムを用いた学習)を行なって、検出ステップS20での頭部検出対象の原画像に作用させる各種のフィルタを抽出するための処理が行なわれる。詳細は後述する。
【0162】
また、検出ステップS20は、学習ステップS10で抽出された各種のフィルタを使って、検出対象の原画像から人物頭部を自動検出するステップであり、画像群生成ステップS21、輝度補正ステップS22、差分画像作成ステップS23、段階的検出ステップS24、および領域統合ステップS25から構成され、段階的検出ステップS24は、さらに、一次評価値算出ステップS241、二次評価値算出ステップS242、および領域抽出ステップS243と、それらの各ステップS241,S242,S243の繰り返しが終了したか否かを判定する判定ステップS244とから構成されている。検出ステップS20を構成する各ステップについても詳細説明は後に譲る。
【0163】
図26は、図13に1つのブロックで示す頭部検出部の詳細ブロック図である。
【0164】
この頭部検出部41は、図9〜図11に示すパーソナルコンピュータ30内にアップロードされた人物追跡プログラムのプログラム部品の1つである頭部検出プログラムがパーソナルコンピュータ30内で実行されることによりそのパーソナルコンピュータ30内に実現されるアルゴリズムであり、画像群生成部110、輝度補正部120、差分画像作成部130、段階的検出部140、領域統合部150、フィルタ記憶部160、および領域抽出演算制御部170を有する。このうちの段階的検出部140は、さらに、一次評価値算出部141、二次評価値算出部142、および領域抽出部143から構成されている。
【0165】
図25に示す頭部検出方法との対比では、図26の頭部検出部41の全体が図25の頭部検出方法における検出ステップS20に相当し、画像群生成部110が画像群生成ステップS21に相当し、輝度補正部120が輝度補正ステップS22に相当し、差分画像作成部130が差分画像作成ステップS23に相当し、段階的検出部140と領域抽出演算制御部170とを合わせた構成が段階的検出ステップS24に相当し、領域統合部150が領域統合ステップS25に相当する。また、記憶部461は、学習ステップS10で抽出された各種のフィルタ(後述する)を格納しておく、図13,図25にも示す記憶部461である。
【0166】
また、段階的検出部140を構成する一次評価値算出部141、二次評価値算出部142、および領域抽出部143は、それぞれ図25に示す頭部検出方法のうちの段階的検出ステップS24を構成する一次評価値算出ステップS241、二次評価値算出ステップS242、および領域抽出ステップS243に相当し、領域抽出演算制御部170は、段階的検出ステップS24を構成する判定ステップS244に相当する。
【0167】
尚、パーソナルコンピュータ30内で頭部検出プログラムが実行されたときの頭部検出プログラムの作用は、図26に示す頭部検出装置の作用と同一であり、ここでは、頭部検出プログラムを取り上げての図示および説明は省略する。
【0168】
以下では、図26に示す頭部検出部41を構成する各部の作用について概括的に説明する。この説明により頭部検出プログラムおよび図25に示す頭部検出方法の検出ステップS20を構成する各ステップの説明を兼ねるものとする。その後、図25に示す頭部検出方法の学習ステップS10の具体的な詳細説明、および頭部検出部41の具体的な詳細説明を行なう。
【0169】
図26に示す頭部検出部41では、二次元的に配列された画素で表現された画像から人物頭部が検出される。
【0170】
記憶部461には、図25に示す頭部検出方法の学習ステップS10で抽出された多数のフィルタが格納されている。これらのフィルタは、画像上の二次元的に広がる所定の広さの領域に作用し人物頭部の輪郭および内部のうちの互いに異なるいずれかの特徴量を算出するフィルタであり、これらのフィルタは、それらのフィルタそれぞれにより算出される各特徴量と人物頭部である確率を表わす一次評価値との対応関係に対応づけられて記憶部461に格納されている。さらにこれらのフィルタは、画像上の領域の広さに対応する画素数が縦横それぞれ1/2の比率で段階的に異なる、複数(ここでは画素数で32×32、16×16、および8×8)の広さの領域にそれぞれ作用する、1つの広さごとに複数のフィルタから構成されている。
【0171】
画像群生成部110では、入力されてきた原画像(フレーム画像)を構成する画素が縦横それぞれ1/2の比率で段階的に間引かれ、原画像と何枚かの間引画像とからなる画像群が生成される。さらに、この画像群生成部110では、1/2の比率で原画像を間引いて生成した画像群のほか、さらに、その原画像に補間演算を施すことにより、その原画像を含む画像群を構成する、その原画像を縦横1/2の比率で間引いて得られた間引画像(画素数は原画像の1/4(縦横それぞれ1/2))の画素数よりも多く、かつ原画像の画素数よりも少ない画素数の範囲内の補間画像が生成され、生成された補間画像について、その補間画像を構成する画素を上記の縦横1/2の比率で段階的に間引くことにより、その補間画像とその補間画像の画素を間引いて得られた間引画像とからなる新たな画像群が生成される。
【0172】
また、輝度補正部120は、画像上の1つの画素を注目画素としたとき、その注目画素を含むある領域内に存在する複数の画素の画素値(輝度値)の平均値と分散を用いてその注目画素の画素値(輝度値)を補正する輝度補正処理を、画像上の各画素をそれぞれ注目画素として画像全体に亘って行なうものである。この輝度補正処理は、画像群生成部110から受け取った画像群を構成する各画像それぞれについて行なわれる。
【0173】
この輝度補正部120における輝度補正処理は、画素によって輝度が大きくばらつく画像を頭部検出対象の画像とする場合に、頭部検出精度の向上に役立つものであり、本実施形態はこの輝度補正部120を備えているが、必ずしも必要な処理ではない。
【0174】
また差分画像作成部130は、図1に示す監視カメラ20からの動画像を入力し、隣接するフレームの差分画像を作成して、その差分画像を、段階的検出部130に渡す役割りを担っている。
【0175】
ここで、段階的検出部140には、輝度補正部120で輝度補正された後の画像が直接に入力されるとともに、さらに、輝度補正部120で輝度補正された画像が差分画像作成部130に入力され、その差分画像作成部130で作成された差分画像も入力される。これは、頭部検出対象の画像として、1枚1枚の静止画像を利用するとともに、差分画像を利用することによって人物頭部の動きの情報も利用して、高精度な頭部検出を行なうためである。
【0176】
段階的検出部140では、先ず一次評価値算出部141により、頭部検出対象の画像上の各領域に複数のフィルタを作用させて複数の特徴量を算出し各フィルタに対応づけられている上述の対応関係(フィルタにより算出される特徴量と人物頭部である確率を表わす一次評価値との対応関係)に基づいて、各特徴量に対応する各一次評価値が求められる。次に、二次評価値算出部142により、一次評価値算出部141で求められた、複数のフィルタに対応する複数の一次評価値を、例えば加算、平均値算出等の演算を用いて総合することにより、その領域に人物頭部が存在する確率を表わす二次評価値が求められる。次いで領域抽出部143では、二次評価値算出部142で求められた二次評価値と閾値とが比較され、閾値を越えて人物頭部が存在する確率が高い領域が抽出される。図26に示す頭部検出部41では、領域抽出部143で領域が抽出されることをもって、人物頭部が検出されることになる。
【0177】
この段階的検出部140では、領域抽出演算制御部170のシーケンス制御を受けて、一次評価値算出部141、二次評価値算出部142、および領域抽出部143が繰り返し動作し、最終的に極めて高い確率で人物頭部が写し出された領域が抽出される。領域抽出演算制御部170は、段階的検出部140を構成する一次評価値算出部141、二次評価値算出部142、および領域抽出部143の動作を以下のように制御する。
【0178】
領域抽出演算制御部170は、先ず、一次評価値算出部141に、画像群生成部110により生成された画像群のうちの相対的に小さい第1の画像に記憶部160に記憶された多数のフィルタのうちの相対的に狭い領域に作用する複数の第1のフィルタを作用させて複数の特徴量を算出させ、前述した対応関係に基づいて各特徴量に対応する各一次評価値を求めさせ、二次評価値算出部142に、一次評価値算出部141で求められた、複数の第1のフィルタに対応する複数の一次評価値を総合させることにより、その領域に人物頭部が存在する確率を表わす二次評価値を求めさせ、領域抽出部143に、二次評価値算出部142で求められた二次評価値と第1の閾値とを比較させてその第1の閾値を越えて人物頭部が存在する確率が高い一次候補領域を抽出させる第1の抽出過程を実行させる。
【0179】
次に、再び一次評価値算出部141に、画像群生成部110により生成された画像群のうちの上記の第1の画像よりも画素数が一段階多い第2の画像の、一次候補領域に相当する領域にフィルタ記憶部160に記憶されたフィルタ群のうちの上記の複数の第1のフィルタよりも一段広い領域に作用する複数の第2のフィルタを作用させて複数の特徴量を算出させ、前述した対応関係に基づいて各特徴量に対応する各一次評価値を求めさせ、再び二次評価値算出部142に、一次評価値算出部141で求められた、複数の第2のフィルタに対応する複数の一次評価値を総合させることにより、当該一次候補領域に人物頭部が存在する確率を表わす二次評価値を求めさせ、再び領域抽出部143に、二次評価値算出部142で求められた二次評価値と第2の閾値とを比較させて第2の閾値を越えて人物頭部が存在する確率が高い二次候補領域を抽出させる第2の抽出過程を実行させる。
【0180】
領域抽出演算制御部170は、以上のような第1の抽出過程および第2の抽出過程を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に、一次評価値算出部141、二次評価値算出部142、および領域抽出部143に繰り返させる。
【0181】
図26の頭部検出部41は、この繰り返しにより領域抽出部143で最終的に領域が抽出されることにより人物頭部が高精度に検出される。
【0182】
ここで、前述したように、画像群生成部110では、補間演算と間引演算とにより1枚の原画像から複数の画像群が生成されるが、領域抽出演算制御部170は、画像群生成部110で生成された複数の画像群(差分画像作成部130では差分画像の画像群が作成されるが、この差分画像作成部130で作成された差分画像の画像群を含む)それぞれに関し、上記の複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に、一次評価算出部141、二次評価算出部142、および領域抽出部143に繰り返させる。
【0183】
これにより、様々の寸法の人物頭部を検出することができる。
【0184】
ここで、領域抽出部143からは、例えば、画像上の人物の顔をほぼ中心に含む第1の領域と、同じ画像上の同じ人物の、髪を含んだ頭部をほぼ中心に含む、上記の第1の領域と比べると一部が重なり一部が外れた第2の領域との双方が人物頭部の領域として抽出されることがある。そこで、図26の頭部検出装置100は、領域統合部150を備え、このような場合に1つの領域に統合する処理を行なっている。具体的には、領域抽出部143で複数の領域が検出された場合におけるそれら複数の領域を、それら複数の領域どうしの重なりの程度に応じて、1つの領域に統合する。更なる詳細については後述する。
【0185】
次に、頭部検出処理に関する実施形態をさらに具体的に説明する。
【0186】
図27は、図25に示す頭部検出方法の学習ステップS10の詳細フロー図である。
【0187】
この図27は、上下2段に示されており、上段は差分をとる前の静止画像1枚1枚を取り扱うフローであり、下段は、差分画像を取り扱うフローである。
【0188】
ここでは先ず教師画像を作成するための多数の画像200が用意される。これらの多数の画像200は、多数枚の静止画像201と、差分画像作成のための動画像202からなる。動画像202の1枚1枚を静止画像201として利用してもよい。これらの画像200は、頭部検出用の原画像の撮影を行なう監視カメラ20(図1参照)での撮影により得ることが好ましいが、それに限られるものではなく、監視カメラ20による撮影とは別に、人物が存在する様々なシーン、および人物が存在しない様々なシーンの画像を収集したものであってもよい。
【0189】
これらの画像200には、アフィン(Affine)変換処理210、多重解像度展開処理220、輝度補正処理230がこの順に施され、動画像202からは差分演算処理240により差分画像が生成され、その後、切出し処理250により教師画像251が生成される。この教師画像251は、1つのシーンにつき、32×32画素の教師画像と、16×16画素の教師画像と、8×8画素の教師画像とからなる教師画像群からなり、多数のシーンについてそれぞれ教師画像群が生成される。
【0190】
以下、先ず、ここまでの各処理について説明する。
【0191】
アフィン変換処理210は、極めて多数の画像を収集することに代えて、1枚の画像を少しずつ変形して多数枚の画像を生成し、これにより、教師画像の基になる画像の数を増やす処理である。ここでは、元々の1枚の画像を−12°、−6°、0°、+6°、+12°だけそれぞれ傾けた画像を作成し、さらに縦方向に1.2倍、1.0倍、0.8倍に伸縮した画像、さらに横方向に1.2倍、1.0倍、0.8倍に伸縮した画像を作成する。これらのうち、傾き0°、縦方向1.0倍、かつ横方向1.0倍の画像は元々の画像そのものである。これらの傾きや伸縮を組み合わせ、元々の1枚の画像から元々の1枚の画像を含め、5×3×3=45枚の画像が作成される。こうすることにより極めて多数の教師画像が作成され、高精度な学習が可能となる。
【0192】
次に多重解像度展開処理220について説明する。
【0193】
図28は、多重解像度展開処理の説明図である。
【0194】
ここには、人物の頭部が写し出されており、既に教師画像のイメージとなっているが、図27の多重解像度展開処理220では教師画像として切り出す前の画像全体について以下に説明する処理が行なわれる。
【0195】
すなわち、図28(A)に示す元の1枚の画像全体をLとし、その画像Lから縦横それぞれ1つおきに画素を間引くことにより縦横それぞれ1/2(面積で1/4)に縮小された画像Lを作成し、これと同様に、画像Lから縦横それぞれ1つおきに画素を間引くことにより縦横それぞれについてさらに1/2(面積でさらに1/4)に縮小された画像Lを作成する。図28(B)には、このようにして作成された、元々の画像Lを含む3枚の画像L,L,Lからなる画像群が逆ピラミッド構造で示されている。
【0196】
次に、輝度補正処理230が行なわれる。
【0197】
この輝度補正処理230では、補正前の画素Xの画素値(輝度値)をXorg、補正後の輝度をXcorとしたとき、
【0198】
【数16】

【0199】
但し、E(Xorg)、σ(Xorg)は、画素Xの近傍(例えば9×9画素)の画素値(輝度値)の、それぞれ平均値と分散である。
に従って補正後の画素値(輝度値)が求められ、この処理を画像全域について行なうことにより輝度補正が行なわれる。
【0200】
この輝度補正は、図28(B)に示す3層の画像L,L,Lのそれぞれについて行なわれる。すなわち、下層の画像L側の画像ほど、元々の画像のシーンからすると広い領域のシーンを利用した輝度補正が行なわれることになる。
【0201】
次に、動画像について差分処理240が行なわれる。
【0202】
図29は、動画像の差分処理の説明図である。
【0203】
図29(A)には、動画像のうちの隣接する2つのフレームの画像が示されており、これら2枚の画像からは、多重解像度展開処理220により、それぞれが3枚の画像L,L,L;L′,L′,L′からなる2つの画像群が作成される(図29(B))。
【0204】
これら2つの画像群を構成する各画像L,L,L;L′,L′,L′には、輝度補正処理230が施された後、差分処理240が行なわれる。
【0205】
この差分処理240では、同じ寸法の画像について、対応する画素ごとの差分値の絶対値が求められ(|L′−L|、i=0,1,2)、図29(C)に示す3枚の差分画像からなる逆ピラミッド型の画像群が作成される。
【0206】
次に切出処理250が行なわれる。
【0207】
この切出処理250は、図28(B)や図29(C)に示すような3層構造の画像から、様々な形態の人物頭部が写し出された領域や人物頭部以外のものが写し出された領域が切り出され、人物頭部が写し出されている領域からは人物頭部が存在する、という教師画像、人物頭部以外のものが写し出されている領域からは人物頭部は存在しない、という教師画像が作成される。
【0208】
教師画像を切り出すにあたっては、図28(B)あるいは図29(C)に示す三層構造の画像のうちの最上層の画像から32×32画素の領域が教師画像として切り出され、これを受けて二層目の画像からは同一部分の16×16画素の領域が切り出され、三層目の画像からは同一部分の8×8画素の領域が切り出される。これら切り出された三層の教師画像は、画像の寸法が異なることにより分解能は異なるものの、画像上の同一部分が切り出されたものである。したがって、教師画像も、図28(B)や図29(C)に示すような、三層構造の逆ピラミッド型の教師画像群となる。
【0209】
ここでは、このような三層構造の教師画像群251が多数作成され、学習に用いられる。
【0210】
次に、それらの教師画像により学習される側のフィルタについて説明する。
【0211】
図30は、フィルタの構造の説明図、図31は各種のフィルタを図解して例示した図である。
【0212】
ここには多数種類のフィルタが用意される。これらのフィルタは、画像上の32×32画素の領域に作用するフィルタと、画像上の16×16画素の領域に作用するフィルタと、画像上の8×8画素の領域に作用するフィルタとに分けられる。これらのフィルタは、学習により抽出されるまでは頭部検出に用いるためのフィルタの候補の地位にある。これらのフィルタ候補のうちの32×32画素の領域に作用するフィルタ候補は図30(A)に示す三層構造の教師画像群のうちの32×32画素の教師画像による学習で選別されて頭部検出に採用すべきフイルタが抽出され、これと同様に、多数のフィルタ候補のうちの16×16画素の領域に作用するフィルタ候補は三層構造の教師画像群のうちの16×16画素の教師画像による学習で選別されて頭部検出に採用すべきフィルタが抽出され、さらに、多数のフィルタ候補のうちの8×8画素の領域に作用するフィルタ候補は、三層構造の教師画像群のうちの8×8画素の教師画像により選択されて頭部検出に採用すべきフィルタが抽出される。
【0213】
図30(B)に示すように、1つのフィルタは、タイプと、層と、6つの画素座標{pt,pt,pt,pt,pt,pt}の属性を持ち、それら6つの画素座標にある画素の画素値(輝度値)をそれぞれ、Xpt0,Xpt1,Xpt2,Xpt3,Xpt4,Xpt5としたとき、
【0214】
【数17】

【0215】
なる演算により、3つの差分値のベクトルが算出される。
【0216】
「タイプ」は、図31にタイプ0〜タイプ8を示すような、大分類を表わしている。例えば、図31左上のタイプ0は、横方向(θ=0°)の方向の差分をとるフィルタであることを表わしており、タイプ1は、縦方向(θ=±90°)の方向の差分をとるフィルタであることを表わしており、タイプ2〜4は、そのタイプごとの方向の差分をとるフィルタであることを表わしている。タイプ5〜8は、図示のような差分演算により各曲線のエッジを検出するフィルタであることを表わしている。また、「層」は、32×32画素の領域に作用するフィルタであるか、16×16画素の領域に作用するフィルタであるか、8×8画素の領域に作用するフィルタであるかの識別標識である。
【0217】
さらに、6つの画素座標{pt,pt,pt,pt,pt,pt}は、例えば8×8画素の領域に作用する場合の8×8=64画素のうちの6つの画素の座標を指定するものである。16×16画素の領域に作用するフィルタ、32×32画素の領域に作用する画素の場合も同様である。
【0218】
上記(17)式による演算は、6つの画素座標{pt,pt,pt,pt,pt,pt}で指定される6つの画素について行なわれ、例えば、図31の左上のタイプ0のうちのさらに最上段のフィルタの場合は、数値0を付した画素の輝度値をX、数値1を付した画素の輝度値をX、数値2を付した画素(ここでは、数値2を付した画素は数値1を付した画素と同一の画素である)の輝度値をX(=X)、数値3を付した画素の輝度値をX、数値4を付した画素(ここでは数値4を付した画素は数値1を付した画素と同一である)の輝度値をX(=X)、数値5を付した画素の輝度値をXとしたとき、
【0219】
【数18】

【0220】
となる。
【0221】
タイプ5の左側のフィルタにも数値0〜5を付してあり、(18)式と同じ演算が行なわれる。
【0222】
これらは例示であり、図31に示す各種のフィルタは、これらの例示と同様の演算を行なうフィルタである。
【0223】
図27に示すように、教師画像群251が作成されると機械学習により、多数のフィルタ候補の中から、頭部検出に採用されるフィルタ270が抽出される。
【0224】
次に、機械学習について説明する。
【0225】
図32は、機械学習の概念図である。
【0226】
これまで説明してきたようにして、多数の教師画像群251が用意されるとともに、多数のフィルタ候補260が用意され、先ずは、それらの教師画像群251のうちの8×8画素の多数の教師画像251Aを使って8×8画素の領域に作用するフィルタ候補260Aの中から頭部検出に用いられるフィルタ270Aが抽出され、次にその抽出結果を反映させながら、16×16画素の多数の教師画像251Bを使って16×16画素の領域に作用するフィルタ候補260Bの中から頭部検出に用いられるフィルタ270Bが抽出され、さらに、その抽出結果を反映させながら、32×32画素の多数の教師画像251Cを使って、32×32画素の領域に作用するフィルタ候補260Cの中から頭部検出に用いられるフィルタ270Cが抽出される。
【0227】
ここでは、機械学習の一例としてAba Boostアルゴリズムが採用されている。このアルゴリズムは既に広範な分野で採用されているものであり、以下では簡単に説明する。
【0228】
図33は、教師画像の概念図である。
【0229】
ここでは、8×8画素の多数枚の教師画像a,b,c,…,mが用意されているものとする。これらの教師画像には、頭部である教師画像と、頭部ではない教師画像が含まれている。
【0230】
図34は、各種フィルタとそれらのフィルタの学習結果を示す概念図である。
【0231】
ここでは、8×8画素の領域に作用する多数種類のフィルタ(この段階ではフィルタ候補)a,b,…,nが用意され、図33に示す多数枚の教師画像を用いて各フィルタa,b,…,nについてそれぞれ学習が行なわれる。
【0232】
図34に示す各グラフは、各フィルタについての学習結果を示している。
【0233】
各フィルタでは、(17)式に示すような三次元ベクトルからなる特徴量が算出されるが、ここでは簡単のため一次元の特徴量として示している。
【0234】
各グラフの横軸は、そのフィルタを使って多数枚の教師画像それぞれについて求めた特徴量の値、縦軸は、そのフィルタを使ったときの頭部である、という正答率を表わしている。この確率は前述した一次評価値として利用される。
【0235】
ここでは、各フィルタa,b,…,nについてそれぞれ一回目の学習を行なった結果、図34に示すような学習結果が表われ、フィルタnを使ったときの正答率が最高であったとする。この場合、先ずはフィルタnを頭部検出用のフィルタとして採用し、2回目の学習はフィルタnを除く他のフィルフタa,b,…について行なわれる。
【0236】
図34(C)に示すように、各教師画像a,b,c,…,mについての一次評価値がx,y,z,zであったとする。
【0237】
図35は、教師画像の重み付けを示す説明図である。
【0238】
一回目の学習では、全ての教師画像a,b,c,…,mについて同一の重み1.0で学習が行なわれるが、2回目の学習では、各教師画像a,b,c,…,mは1回目の学習で最高の正答率を得たフィルタnによる各教師画像ごとの確率x,y,z,zが加味され、正しく判定される確率が高い教師画像ほど重みを下げ、誤って判定される確率の高い教師画像ほど大きな重みが与えられる。この重みは、二回目の学習の各教師画像ごとの正答率に反映される。すなわち、この重みは2回目の学習において、各教師画像をその重みの回数だけ繰り返して学習に利用することと同じである。このようにして2回目の学習を行ない、2回目の学習で最高の正答率を得たフィルタ候補が頭部検出用のフィルタとして抽出される。さらに、その抽出されたフィルタの特徴量の正答率のグラフを利用して各教師画像a,b,c,…,mについての重みが再度修正され、今回抽出されたフィルタを除く、さらに残ったフィルタについて学習が行なわれる。以上が繰り返されて、頭部検出用の、8×8画素の領域に作用する多数のフィルタ270A(図32参照)が抽出される。
【0239】
図36は、8×8画素用のフィルタの抽出が終了し、16×16画素のフィルタの学習への移行時の重み付け方法の説明図である。
【0240】
8×8画素のフィルタの抽出が終了した後、それらのフィルタと、それらのフィルタを1つずつ独立に使ったときの、特徴量と一次評価値との対応関係(例えば図34に示すグラフ)が求められ、1つ1つの教師画像(例えば教師画像a)について8×8画素用の多数のフィルタで得た特徴量から得られる各フィルタごとの一次評価値が加算されて二次評価値が求められる。ここでは、図36に示すように、各教師画像a,b,c,…,mについて、各二次評価値A,B,C,…,Mが求められたものとする。このとき、8×8画素の教師画像a,b,c,…,mのそれぞれに対応する16×16画素の教師画像a,b,c,…,mの重みが、各二次評価値A,B,C,…,Mを使って、全ての画像について平等な1.0から変更され、16×16画素の領域に作用するフィルタの抽出のための学習に利用される。
【0241】
これ以降の16×16画素の領域のフィルタの抽出アルゴリズム、重み付け変更アルゴリズム、32×32画素の領域のフィルタの抽出への移行のアルゴリズム等は全て同様であり、説明は割愛する。
【0242】
以上のようにして、8×8画素の領域に作用する多数のフィルタ270A、16×16画素の領域に作用する多数のフィルタ270B、および32×32の領域に作用する多数のフィルタ270Cからなるフィルタ群270が抽出されるとともに、各フィルタについての特徴量(前述した(17)式のベクトル)と一次評価値との対応関係(グラフ、表、関数式などのいずれでもよい)が求められ、図25、図26に示す記憶部461に格納される。
【0243】
次に、以上のようにして記憶部461に格納されたフィルタを利用した頭部検出処理について説明する。
【0244】
図26に示す画像群生成部110、輝度補正部120、および差分画像作成部130では、学習時における、図27に示す多重解像度展開処理220、輝度補正処理230、差分演算処理240とそれぞれ同様の処理が行なわれる。ただし、画像群生成部110における処理は、前述の多重解像度展開処理220とは多少異なっており、以下において説明する。
【0245】
図37は、図26に示す画像群生成部110の処理を示す模式図である。
【0246】
この画像群生成部110には、図1に示す監視カメラ20での撮影により得られた動画像が入力され、その動画像を構成する1枚1枚の画像について図37に示す処理が行なわれる。
【0247】
ここでは、入力画像である原画像に補間演算処理が施されて、その原画像よりもサイズが少しだけ小さい補間画像1が求められ、さらにその補間画像1よりもサイズが少しだけ小さい補間画像2が求められ、同様にして補間画像3も求められる。
【0248】
原画像と補間画像1との間の画像サイズの比率Sσは、縦横それぞれについて
【0249】
【数19】

【0250】
但し、Nは、原画像を含む補間画像の数(図37に示す例ではN=4)である。
の比率である。
【0251】
このようにして補間画像(図37に示す例では補間画像1,2,3)を作成した後、原画像および補間画像のそれぞれについて縦横それぞれについて1画素おきに間引くことにより縦横それぞれについて1/2のサイズの画像が作成され、縦横それぞれについてさらに1/2のサイズの画像が作成され、もう1つさらに1/2のサイズの画像が作成され、これにより図37に示す例では、1枚の原画像から4層の逆ピラミッド型の画像群が4つ作成される。
【0252】
このようにして多数のサイズの画像を作成することにより、様々なサイズの頭部を抽出することができる。
【0253】
図26の輝度補正部120および差分画像作成部130の処理は、図27を参照して説明した、輝度補正処理230および差分演算処理240と同じであり、重複説明は省略する。
【0254】
図37に示す逆ピラミッド型の画像群は、輝度補正部120における輝度補正処理を受けた後、さらには、差分画像作成部130で差分画像の逆ピラミッド型の画像群に変換された後、段階的検出部140に入力される。この段階的検出部140では、領域抽出演算制御部170によるシーケンス制御を受けながら以下の演算処理が行なわれる。
【0255】
先ず、一次評価値算出部141において、記憶部461から8×8画素の領域に作用する多数のフィルタが読み出され、図37に示す逆ピラミッド型の4層の画像群を構成する各4枚の画像のうちの、サイズが最も小さい画像、および2番目に小さい画像が8×8画素の各フィルタでラスタスキャンされて、順次移動する各領域ごとに特徴量を表わすベクトル((17)式参照)が求められ、各フィルタごとの、特徴量と一次評価値との対応関係(図34参照)が参照されて、その特徴量が一次評価値に換算される。
【0256】
二次評価値算出部142では、8×8画素の領域に作用する多数のフィルタによる多数の一次評価値が互いに加算されて二次評価値が求められ、領域抽出部143ではその二次評価値が所定の第1の閾値以上である(頭部が写されている可能性が高い)一次抽出領域が抽出される。
【0257】
次にその一次抽出領域の位置情報が一次評価値算出部141に伝達され、一次評価値算出部141では、今度は、記憶部461から16×16画素の領域に作用する多数のフィルタが読み出されて、図37に示す逆ピラミッド型の4つの画像群それぞれについて、小さい方から2番目の画像と3番目(大きい方から2番目)の画像上の、領域抽出部143で抽出された一次抽出領域に対応する領域に16×16の画素の領域に作用する各フィルタを作用させて特徴量を算出し、その特徴量を一次評価値に換算する。それらの、16×16画素の領域に作用する多数のフィルタによる多数の一次評価値は二次評価値算出部142において互いに加算されて二次評価値が求められ、その求められた二次評価値が領域抽出部143において第2の閾値と比較されて、上述の一次抽出領域に対応する領域の中から頭部が写されている可能性がさらに高い二次抽出領域が抽出される。この二次抽出領域の位置情報は一次評価値算出部141に伝達され、今度は、その一次評価値算出部141では、記憶部461から32×32画素の領域に作用する多数のフィルタが読み出されて、図37に示す逆ピラミッド型の4つの画像群それぞれを構成する大きい方から2番目の画像と最も大きい画像上の、領域抽出部143で抽出された二次抽出領域に対応する領域に、36×36画素の領域に作用する各フィルタを作用させて特徴量が抽出され、その特徴量が一次評価値に換算される。それらの32×32画素の領域に作用する多数のフィルタによる多数の一次評価値は二次評価値算出部142において互いに加算されて二次評価値が求められ、その求められた二次評価値が領域抽出部143において第3の閾値と比較されて、二次抽出領域に対応する領域の中から頭部が写し込まれていると確信できるレベルの三次抽出領域が抽出される。この三次抽出領域の情報、すなわち、その領域の画像上の位置pos(領域の左上隅の座標(l,t)と右下隅の座標(r,b)と最終的な二次評価値likenessが、図26に示す領域統合部150に入力される。
【0258】
図38は領域統合部150における領域統合処理の説明図である。
【0259】
この領域統合部150は複数の頭部領域(三次抽出領域)H(i=1,…,M)の情報H(pos,likeness)が入力されると、その領域統合部150では、それらの頭部領域情報Hが二次評価値likenessの順に並べ替えられる。ここでは、2つの領域Href,Hについて互いの領域の一部の重なりが認められるものとし、領域
refの方が領域Hよりも二次評価値likenessが高いものとする。
【0260】
領域Hrefの面積をSHref,領域Hの面積をSHx、相互に重なった部分の面積をScrossとしたとき、重なりの比率
【0261】
【数20】

【0262】
が算出され、この比率ρが閾値ρlow以上であったときに、領域統合演算が行なわれる。すなわち、領域Hrefの4隅の座標と領域Hの4隅の座標のうちの対応する座標にその領域のlikenessによる重みが付されて、1つに統合される。
【0263】
例えば、各領域Href,Hの左上隅の左右方向の座標lref,lが、各領域Href,Hの各likenessであるlikeness(ref),likeness(x)を用いて、統合された座標
【0264】
【数21】

【0265】
に変換される。このような演算が位置posを表わす4つの座標
pos=(l,t,r,b)
のそれぞれについて行なわれ、2つの領域Href,Hが1つの領域に統合される。
【0266】
3つ以上の領域が重なっている場合も同様である。
【0267】
本実施形態では、以上の処理により、人物頭部が写されている領域が高精度かつ高速に抽出される。
【0268】
尚、ここで説明した頭部検出処理は、頭部の検出に限らず、例えば顔検出や、その他画像上に多様な形状で写し出されるオブジェクトを検出する場合に共通に利用できる処理である。
【0269】
以下、この頭部検出処理の各種の態様を、オブジェクト検出処理として一般化した表現で、記述しておく。
【0270】
(1)二次元的に配列された画素で表現された画像から特定種類のオブジェクトを検出するオブジェクト検出方法であって、
画像との二次元的に広がる所定の広さの領域に作用し特定種類のオブジェクトの輪郭および内部のうちの互いに異なるいずれかの特徴量を算出する複数のフィルタであって、該複数のフィルタそれぞれにより算出される各特徴量と特定種類のオブジェクトである確率を表わす一次評価値との対応関係に対応づけられてなる複数のフィルタを、オブジェクト検出対象の画像上の前記所定の広さの領域に作用させて複数の特徴量を算出し、前記対応関係に基づいて各特徴量に対応する各一次評価値を求める一次評価値算出ステップと、
前記一次評価値算出ステップで求められた、前記複数のフィルタに対応する複数の一次評価値を総合することにより、当該領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求める二次評価値算出ステップと、
前記二次評価値算出ステップで求められた二次評価値と閾値とを比較して、該閾値を越えて特定種類のオブジェクトが存在する確率が高い領域を抽出する領域抽出ステップとを有し、該領域抽出ステップで領域を抽出することにより特定種類のオブジェクトを検出することを特徴とするオブジェクト検出方法。
【0271】
(2)前記複数のフィルタが、画素数が所定比率で異なる、又は所定比率で段階的に異なる、複数の広さの領域にそれぞれ作用する、1つの広さごとに複数のフィルタからなり、各フィルタそれぞれが、該各フィルタそれぞれに応じた前記対応関係に対応づけられてなるものであり、
オブジェクト検出対象の原画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、原画像と一枚以上の間引画像とからなる画像群を生成する画像群生成ステップを有し、
前記一次評価値算出ステップが、前記画像群生成ステップにより生成された画像群のうちの相対的に小さい第1の画像に相対的に狭い領域に作用する複数の第1のフィルタを作用させて複数の特徴量を算出し、該複数の第1のフィルタそれぞれに対応する前記対応関係に基づいて各特徴量に対応する各一次評価値を求め、前記二次評価値算出ステップが、前記一次評価値算出ステップで求められた、前記複数の第1のフィルタに対応する複数の一次評価値を総合することにより、当該領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求め、前記領域抽出ステップが、前記二次評価値算出ステップで求められた二次評価値と第1の閾値とを比較して該第1の閾値を越えて特定種類のオブジェクトが存在する確率が高い一次候補領域を抽出する第1の抽出過程と、
前記一次評価値算出ステップが、前記画像群生成ステップにより生成された画像群のうちの前記第1の画像よりも画素数が一段階多い第2の画像の、前記一次候補領域に相当する領域に前記複数の第1のフィルタよりも一段広い領域に作用する複数の第2のフィルタを作用させて複数の特徴量を算出させ、該複数の第2のフィルタそれぞれに対応する前記対応関係に基づいて各特徴量に対応する各一次評価値を求め、前記二次評価値算出ステップが、前記一次評価値算出ステップで求められた、前記複数の第2のフィルタに対応する複数の一次評価値を総合することにより、当該一次候補領域に相当する領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求め、前記領域抽出ステップが、前記二次評価値算出ステップで求められた二次評価値と第2の閾値とを比較して該第2の閾値を越えて特定種類のオブジェクトが存在する確率が高い二次候補領域を抽出する第2の抽出過程と
を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返し、前記領域抽出ステップで最終的に領域を抽出することにより特定種類のオブジェクトを検出することを特徴とする(1)記載のオブジェクト検出方法。
【0272】
(3)前記画像群生成ステップが、前記画像群の生成に加え、さらに、前記原画像に補間演算を施すことにより、前記画像群を構成する、該原画像を前記所定比率で間引いて得られた間引画像の画素数よりも多く、かつ該原画像の画素数よりも少ない画素数の範囲内の1つの補間画像、又は該範囲内で画素数が互いに異なる複数の補間画像を生成し、生成した1つ以上の補間画像それぞれについて、当該補間画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、当該補間画像と当該補間画像の画素を間引いて得られた一枚以上の間引画像とからなる新たな画像群を生成するステップであり、
前記一次評価値算出ステップ、前記二次評価値算出ステップ、および領域抽出ステップが、前記画像群生成ステップで生成された複数の画像群それぞれに関し、前記複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことを特徴とする(2)記載のオブジェクト検出方法。
【0273】
(4)特定種類のオブジェクトが写し出された所定寸法の複数の画像および特定種類のオブジェクト以外のものが写し出された該所定寸法の複数の画像からなる、該所定寸法の複数の教師画像と、画像上の該所定寸法の領域に作用し該領域内に存在する特定種類のオブジェクトの輪郭および内部の、互いに異なるいずれかの特徴を抽出するための複数のフィルタ候補とを用意し、機械学習により、前記複数のフィルタ候補の中から複数のフィルタを抽出するとともに、各フィルタに対応する前記対応関係を求める学習ステップをさらに有することを特徴とする(1)記載のオブジェクト検出方法。
【0274】
(5)特定種類のオブジェクトが写し出された所定寸法の複数の画像および特定種類のオブジェクト以外のものが写し出された該所定寸法の複数の画像からなる、該所定寸法の複数の教師画像それぞれを前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、同一シーンであって寸法が異なる複数の教師画像からなる教師画像群を複数作成するとともに、画像上の、教師画像群を構成する複数段階の教師画像の寸法に応じた寸法の領域に作用し、該領域内に存在する特定種類のオブジェクトの輪郭および内部の、互いに異なるいずれかの特徴を抽出するためのフィルタ候補を前記複数段階の寸法それぞれに対応して複数ずつ用意し、機械学習により、各寸法ごとに、前記複数のフィルタ候補の中から複数のフィルタを抽出するとともに、抽出された各フィルタに対応する前記対応関係を求める学習ステップをさらに有することを特徴とする(2)又は(3)記載のオブジェクト検出方法。
【0275】
(6)前記領域抽出ステップで複数の領域が検出された場合における該複数の領域を、該複数の領域どうしの重なりの程度に応じて、1つの領域に統合する領域統合ステップをさらに有することを特徴とする(1)から(5)のうちいずれか1つに記載のオブジェクト検出方法。
【0276】
(7)複数フレームからなる連続画像を取得し、オブジェクト検出対象の画像として用いるための、異なるフレーム間の差分画像を作成する差分画像作成ステップをさらに有することを特徴とする(1)から(6)のうちいずれか1つに記載のオブジェクト検出方法。
【0277】
(8)前記複数のフィルタが、人間の頭部が存在する確率を表わす評価値を生成するフィルタであって、当該オブジェクト検出方法は画像内にあらわれる人間の頭部を検出対象とするものであることを特徴とする(1)から(7)のうちいずれか1つに記載のオブジェクト検出方法。
【0278】
(9)二次元的に配列された画素で表現された画像から特定種類のオブジェクトを検出するオブジェクト検出装置であって、
画像上の二次元的に広がる所定の広さの領域に作用し特定種類のオブジェクトの輪郭および内部のうちの互いに異なるいずれかの特徴量を算出する複数のフィルタを、該複数のフィルタそれぞれにより算出される各特徴量と特定種類のオブジェクトである確率を表わす一次評価値との対応関係に対応づけて記憶しておくフィルタ記憶部と、
オブジェクト検出対象の画像上の前記所定の広さの領域に前記複数のフィルタを作用させて複数の特徴量を算出し前記対応関係に基づいて各特徴量に対応する各一次評価値を求める一次評価値算出部と、
前記一次評価値算出部で求められた、前記複数のフィルタに対応する複数の一次評価値を総合することにより、当該領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求める二次評価値算出部と、
前記二次評価値算出部で求められた二次評価値と閾値とを比較して、該閾値を越えて特定種類のオブジェクトが存在する確率が高い領域を抽出する領域抽出部とを備え、該領域抽出部で領域を抽出することにより特定種類のオブジェクトを検出することを特徴とするオブジェクト検出装置。
【0279】
(10)前記フィルタ記憶部が、画素数が所定比率で異なる、又は所定比率で段階的に異なる、複数の広さの領域にそれぞれ作用する、1つの広さごとに複数のフィルタからなり、各フィルタそれぞれが、該各フィルタそれぞれに応じた前記対応関係に対応づけられてなるフィルタ群を、前記対応関係とともに記憶しておくものであり、
オブジェクト検出対象の原画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、原画像と一枚以上の間引画像とからなる画像群を生成する画像群生成部、および
前記一次評価値算出部に、前記画像群生成部により生成された画像群のうちの相対的に小さい第1の画像に前記フィルタ記憶部に記憶されたフィルタ群のうちの相対的に狭い領域に作用する複数の第1のフィルタを作用させて複数の特徴量を算出させ、該複数の第1のフィルタそれぞれに対応する前記対応関係に基づいて各特徴量に対応する各一次評価値を求めさせ、前記二次評価値算出部に、前記一次評価値算出部で求められた、前記複数の第1のフィルタに対応する複数の一次評価値を総合させることにより、当該領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求めさせ、前記領域抽出部に、前記二次評価値算出部で求められた二次評価値と第1の閾値とを比較させて該第1の閾値を越えて特定種類のオブジェクトが存在する確率が高い一次候補領域を抽出させる第1の抽出過程と、
再び前記一次評価値算出部に、前記画像群生成部により生成された画像群のうちの前記第1の画像よりも画素数が一段階多い第2の画像の、前記一次候補領域に相当する領域に前記フィルタ記憶部に記憶されたフィルタ群のうちの前記複数の第1のフィルタよりも一段広い領域に作用する複数の第2のフィルタを作用させて複数の特徴量を算出させ、該複数の第2のフィルタそれぞれに対応する前記対応関係に基づいて各特徴量に対応する各一次評価値を求めさせ、再び前記二次評価値算出部に、前記一次評価値算出部で求められた、前記複数の第2のフィルタに対応する複数の一次評価値を総合させることにより、当該一次候補領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求めさせ、再び前記領域抽出部に、前記二次評価値算出部で求められた二次評価値と第2の閾値とを比較させて該第2の閾値を越えて特定種類のオブジェクトが存在する確率が高い二次候補領域を抽出させる第2の抽出過程と
を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に、前記一次評価値算出部、前記二次評価値算出部、および領域抽出部に繰り返させる領域抽出演算制御部を備え、前記領域抽出部で最終的に領域を抽出することにより特定種類のオブジェクトを検出することを特徴とする(9)記載のオブジェクト検出装置。
【0280】
(11)前記画像群生成部が、前記画像群の生成に加え、さらに、前記原画像に補間演算を施すことにより、前記画像群を構成する、該原画像を前記所定比率で間引いて得られた間引画像の画素数よりも多く、かつ該原画像の画素数よりも少ない画素数の範囲内の1つの補間画像、又は該範囲内で画素数が互いに異なる複数の補間画像を生成し、生成した1つ以上の補間画像それぞれについて、当該補間画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、当該補間画像と当該補間画像の画素を間引いて得られた一枚以上の間引画像とからなる新たな画像群を生成するものであり、
前記領域抽出演算制御部は、前記画像群生成部で生成された複数の画像群それぞれに関し、前記複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に、前記一次評価算出部、前記二次評価算出部、および領域抽出部に繰り返させるものであることを特徴とする(10)記載のオブジェクト検出装置。
【0281】
(12)前記領域抽出部で複数の領域が検出された場合における該複数の領域を、該複数の領域どうしの重なりの程度に応じて、1つの領域に統合する領域統合部をさらに備えたことを特徴とする(9)から(11)のうちいずれか1つに記載のオブジェクト検出装置。
【0282】
(13)複数フレームからなる連続画像を取得し、オブジェクト検出対象の画像として用いるための、異なるフレーム間の差分画像を作成する差分画像作成部をさらに備えたことを特徴とする(9)から(12)のうちいずれか1つに記載のオブジェクト検出装置。
【0283】
(14)前記フィルタ記憶部が、人間の頭部が存在する確率を表わす評価値を生成する複数のフィルタからなるフィルタ群を記憶するものであって、当該オブジェクト検出装置は画像内にあらわれる人間の頭部を検出対象とするものであることを特徴とする(9)から(13)のうちいずれか1つに記載のオブジェクト検出装置。
【0284】
(15)プログラムを実行する演算装置内で実行され、該演算装置を、二次元的に配列された画素で表現された画像から特定種類のオブジェクトを検出するオブジェクト検出装置として動作させるオブジェクト検出プログラムであって、
前記演算装置を、
画像上の二次元的に広がる所定の広さの領域に作用し特定種類のオブジェクトの輪郭および内部のうちの互いに異なるいずれかの特徴量を算出する複数のフィルタを、該複数のフィルタそれぞれにより算出される各特徴量と特定種類のオブジェクトである確率を表わす一次評価値との対応関係に対応づけて記憶しておくフィルタ記憶部と、
オブジェクト検出対象の画像上の前記所定の広さの領域に前記複数のフィルタを作用させて複数の特徴量を算出し前記対応関係に基づいて各特徴量に対応する各一次評価値を求める一次評価値算出部と、
前記一次評価値算出部で求められた、前記複数のフィルタに対応する複数の一次評価値を総合することにより、当該領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求める二次評価値算出部と、
前記二次評価値算出部で求められた二次評価値と閾値とを比較して、該閾値を越えて特定種類のオブジェクトが存在する確率が高い領域を抽出する領域抽出部とを有し、該領域抽出部で領域を抽出することにより特定種類のオブジェクトを検出するオブジェクト検出装置として動作させることを特徴とするオブジェクト検出プログラム。
【0285】
(16)前記フィルタ記憶部が、画素数が所定比率で異なる、又は所定比率で段階的に異なる、複数の広さの領域にそれぞれ作用する、1つの広さごとに複数のフィルタからなり、各フィルタそれぞれが、該各フィルタそれぞれに応じた前記対応関係に対応づけられてなるフィルタ群を、前記対応関係とともに記憶しておくものであり、
前記演算装置を、
オブジェクト検出対象の原画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、原画像と一枚以上の間引画像とからなる画像群を生成する画像群生成部、および
前記一次評価値算出部に、前記画像群生成部により生成された画像群のうちの相対的に小さい第1の画像に前記フィルタ記憶部に記憶されたフィルタ群のうちの相対的に狭い領域に作用する複数の第1のフィルタを作用させて複数の特徴量を算出させ、該複数の第1のフィルタそれぞれに対応する前記対応関係に基づいて各特徴量に対応する各一次評価値を求めさせ、前記二次評価値算出部に、前記一次評価値算出部で求められた、前記複数の第1のフィルタに対応する複数の一次評価値を総合させることにより、当該領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求めさせ、前記領域抽出部に、前記二次評価値算出部で求められた二次評価値と第1の閾値とを比較させて該第1の閾値を越えて特定種類のオブジェクトが存在する確率が高い一次候補領域を抽出させる第1の抽出過程と、
再び前記一次評価値算出部に、前記画像群生成部により生成された画像群のうちの前記第1の画像よりも画素数が一段階多い第2の画像の、前記一次候補領域に相当する領域に前記フィルタ記憶部に記憶されたフィルタ群のうちの前記複数の第1のフィルタよりも一段広い領域に作用する複数の第2のフィルタを作用させて複数の特徴量を算出させ、該複数の第2のフィルタそれぞれに対応する前記対応関係に基づいて各特徴量に対応する各一次評価値を求めさせ、再び前記二次評価値算出部に、前記一次評価値算出部で求められた、前記複数の第2のフィルタに対応する複数の一次評価値を総合させることにより、当該一次候補領域に特定種類のオブジェクトが存在する確率を表わす二次評価値を求めさせ、再び前記領域抽出部に、前記二次評価値算出部で求められた二次評価値と第2の閾値とを比較させて該第2の閾値を越えて特定種類のオブジェクトが存在する確率が高い二次候補領域を抽出させる第2の抽出過程と
を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に、前記一次評価値算出部、前記二次評価値算出部、および領域抽出部に繰り返させる領域抽出演算制御部をさらに有し、前記領域抽出部で最終的に領域を抽出することにより特定種類のオブジェクトを検出するオブジェクト検出装置として動作させることを特徴とする(15)記載のオブジェクト検出プログラム。
【0286】
(17)前記画像群生成部が、前記画像群の生成に加え、さらに、前記原画像に補間演算を施すことにより、前記画像群を構成する、該原画像を前記所定比率で間引いて得られた間引画像の画素数よりも多く、かつ該原画像の画素数よりも少ない画素数の範囲内の1つの補間画像、又は該範囲内で画素数が互いに異なる複数の補間画像を生成し、生成した1つ以上の補間画像それぞれについて、当該補間画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、当該補間画像と当該補間画像の画素を間引いて得られた一枚以上の間引画像とからなる新たな画像群を生成するものであり、
前記領域抽出演算制御部は、前記画像群生成部で生成された複数の画像群それぞれに関し、前記複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きな画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に、前記一次評価算出部、前記二次評価算出部、および領域抽出部に繰り返させるものであることを特徴とする(16)記載のオブジェクト検出プログラム。
【0287】
(18)前記演算装置を、前記領域抽出部で複数の領域が検出された場合における該複数の領域を、該複数の領域どうしの重なりの程度に応じて、1つの領域に統合する領域統合部をさらに有するオブジェクト検出装置として動作させることを特徴とする(15)から(17)のうちいずれか1つに記載のオブジェクト検出プログラム。
【0288】
(19)前記演算装置を、複数フレームからなる連続画像を取得し、オブジェクト検出対象の画像として用いるための、異なるフレーム間の差分画像を作成する差分画像作成部をさらに有するオブジェクト検出装置として動作させることを特徴とする(15)から(18)のうちいずれか1つに記載のオブジェクト検出プログラム。
【0289】
(20)前記フィルタ記憶部が、人間の頭部が存在する確率を表わす評価値を生成する複数のフィルタからなるフィルタ群を記憶するものであって、当該オブジェクト検出プログラムは画像内にあらわれる人間の頭部を検出対象とするオブジェクト検出装置として動作させるものであることを特徴とする(15)から(19)のうちいずれか1つに記載のオブジェクト検出プログラム。
【0290】
(21)二次元的に配列された画素で表現された画像から特定種類のオブジェクトを検出するオブジェクト検出方法であって、
オブジェクト検出対象の原画像を構成する画素を所定比率で間引くことにより、又は該所定比率で段階的に間引くことより、原画像と一枚以上の間引画像とからなる画像群を生成する画像群生成ステップ、および
前記画像群生成ステップにより生成された画像群のうちの相対的に小さい第1の画像に、画像上の二次元的に広がる領域に作用し該領域内に特定種類のオブジェクトが存在する確率を表わす評価値を生成するフィルタであって、画像上の領域の広さに対応する画素数が前記所定比率で異なる、又は該所定比率で段階的に異なる、複数の広さの領域にそれぞれ作用する複数のフィルタからなるフィルタ群のうちの相対的に狭い領域に作用する第1のフィルタを作用させて所定の第1の閾値を越える評価値が得られる一次候補領域を抽出する第1の抽出過程と、
前記画像群生成ステップにより生成された画像群のうちの前記第1の画像よりも画素数が一段階多い第2の画像の、前記一次候補領域に相当する領域に、前記フィルタ群のうちの前記第1のフィルタよりも一段階広い領域に作用する第2のフィルタを作用させて所定の第2の閾値を越える評価値が得られる二次候補領域を抽出する第2の抽出過程と
を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きい画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことにより、前記原画像中から特定種類のオブジェクトを検出する段階的検出ステップを有することを特徴とするオブジェクト検出方法。
【0291】
(22)前記画像群生成ステップが、前記画像群の生成に加え、さらに、前記原画像に補間演算を施すことにより、前記画像群を構成する、該原画像を前記所定比率で間引いて得られた間引画像の画素数よりも多く、かつ該原画像の画素数よりも少ない画素数の範囲内の1つの補間画像又は該範囲内で画素数が互いに異なる複数の補間画像を生成し、生成した1つ以上の補間画像それぞれについて、当該補間画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、当該補間画像と当該補間画像の画素を間引いて得られた一枚以上の間引画像とからなる新たな画像群を生成するステップであり、
前記段階的検出ステップは、前記画像群生成ステップで生成された複数の画像群それぞれに関し、前記抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きい画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことにより、前記原画像および前記1つ以上の補間画像それぞれの中から特定種類のオブジェクトを検出するステップであることを特徴とする(21)記載のオブジェクト検出方法。
【0292】
(23)1つの広さの領域につき複数種類の、それぞれが、特定種類のオブジェクトの輪郭および内部のうちのいずれかの特徴量を算出するフィルタを用意するとともに、各フィルタにより算出される特徴量と特定種類のオブジェクトである確率を表わす一次評価値との対応関係を用意しておき、
前記段階的検出ステップは、1つの領域に、該領域の広さに応じた複数種類のフィルタを作用させて複数の特徴量を算出し、各特徴量に対応する各一次評価値を求め、複数の一次評価値を総合した二次評価値と閾値とを比較することにより、該領域が特定種類のオブジェクトが存在する候補領域であるか否かを判定するステップであることを特徴とする(21)又は(22)記載のオブジェクト検出方法。
【0293】
(24)前記段階的検出ステップで複数の領域が検出された場合における該複数の領域を、該複数の領域どうしの重なりの程度に応じて、1つの領域に統合する領域統合ステップをさらに有することを特徴とする(21)から(23)のうちいずれか1つに記載のオブジェクト検出方法。
【0294】
(25)複数フレームからなる連続画像を取得し、オブジェクト検出対象の画像として用いるための、異なるフレーム間の差分画像を作成する差分画像作成ステップをさらに有することを特徴とする(21)から(24)のうちいずれか1つに記載のオブジェクト検出方法。
【0295】
(26)前記フィルタ群が、人間の頭部が存在する確率を表わす評価値を生成する複数のフィルタからなり、当該オブジェクト検出方法は画像内にあらわれる人間の頭部を検出対象とするものであることを特徴とする(21)から(25)のうちいずれか1つに記載のオブジェクト検出方法。
【0296】
(27)二次元的に配列された画素で表現された画像から特定種類のオブジェクトを検出するオブジェクト検出装置であって、
画像上の二次元的に広がる領域に作用し該領域内に特定種類のオブジェクトが存在する確率を表わす評価値を生成するフィルタであって、画像上の領域の広さに対応する画素数が所定比率で異なる、又は所定比率で段階的に異なる、複数の広さの領域にそれぞれ作用する複数のフィルタからなるフィルタ群を記憶しておくフィルタ記憶部、
オブジェクト検出対象の原画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、原画像と一枚以上の間引画像とからなる画像群を生成する画像群生成部、および
前記画像群生成部により生成された画像群のうちの相対的に小さい第1の画像に、前記フィルタ記憶部に記憶されたフィルタ群のうちの相対的に狭い領域に作用する第1のフィルタを作用させて所定の第1の閾値を越える評価値が得られる一次候補領域を抽出する第1の抽出過程と、
前記画像群生成部により生成された画像群のうちの前記第1の画像よりも画素数が一段階多い第2の画像の、前記一次候補領域に相当する領域に、前記フィルタ記憶部に記憶されたフィルタ群のうちの前記第1のフィルタよりも一段階広い領域に作用する第2のフィルタを作用させて所定の第2の閾値を越える評価値が得られる二次候補領域を抽出する第2の抽出過程と
を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きい画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことにより、前記原画像中から特定種類のオブジェクトを検出する段階的検出部を備えたことを特徴とするオブジェクト検出装置。
【0297】
(28)前記画像群生成部が、前記画像群の生成に加え、さらに、前記原画像に補間演算を施すことにより、前記画像群を構成する、該原画像を前記所定比率で間引いて得られた間引画像の画素数よりも多く、かつ該原画像の画素数よりも少ない画素数の範囲内の1つの補間画像又は該範囲内で画素数が互いに異なる複数の補間画像を生成し、生成した1つ以上の補間画像それぞれについて、当該補間画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、当該補間画像と当該補間画像の画素を間引いて得られた一枚以上の間引画像とからなる新たな画像群を生成するものであり、
前記段階的検出部は、前記画像群生成部で生成された複数の画像群それぞれに関し、前記抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きい画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことにより、前記原画像および前記1つ以上の補間画像それぞれの中から特定種類のオブジェクトを検出するものであることを特徴とする(27)記載のオブジェクト検出装置。
【0298】
(29)前記フィルタ記憶部が、1つの広さの領域につき複数種類の、それぞれが、特定種類のオブジェクトの輪郭および内部のうちのいずれかの特徴量を算出するフィルタを記憶するとともに、各フィルタにより算出される特徴量と特定種類のオブジェクトである確率を表わす一次評価値との対応関係を記憶するものであり、
前記段階的検出部は、1つの領域に、該領域の広さに応じた複数種類のフィルタを作用させて複数の特徴量を算出し、各特徴量に対応する各一次評価値を求め、複数の一次評価値を総合した二次評価値と閾値とを比較することにより、該領域が特定種類のオブジェクトが存在する候補領域であるか否かを判定するものであることを特徴とする(27)又は(28)記載のオブジェクト検出装置。
【0299】
(30)前記段階的検出部で複数の領域が検出された場合における該複数の領域を、該複数の領域どうしの重なりの程度に応じて、1つの領域に統合する領域統合部をさらに備えたことを特徴とする(27)から(29)のうちいずれか1つに記載のオブジェクト検出装置。
【0300】
(31)複数フレームからなる連続画像を取得し、オブジェクト検出対象の画像として用いるための、異なるフレーム間の差分画像を作成する差分画像作成部をさらに備えたことを特徴とする(27)から(30)のうちいずれか1つに記載のオブジェクト検出装置。
【0301】
(32)前記フィルタ記憶部が、人間の頭部が存在する確率を表わす評価値を生成する複数のフィルタからなるフィルタ群を記憶するものであって、当該オブジェクト検出装置は画像内にあらわれる人間の頭部を検出対象とするものであることを特徴とする(27)から(31)のうちいずれか1つに記載のオブジェクト検出装置。
【0302】
(33)プログラムを実行する演算装置内で実行され、該演算装置を、二次元的に配列された画素で表現された画像から特定種類のオブジェクトを検出するオブジェクト検出装置として動作させるオブジェクト検出プログラムであって、
前記演算装置を、
画像上の二次元的に広がる領域に作用し該領域内に特定種類のオブジェクトが存在する確率を表わす評価値を生成するフィルタであって、画像上の領域の広さに対応する画素数が所定比率で異なる、又は所定比率で段階的に異なる、複数の広さの領域にそれぞれ作用する複数のフィルタからなるフィルタ群を記憶しておくフィルタ記憶部、
オブジェクト検出対象の原画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、原画像と一枚以上の間引画像とからなる画像群を生成する画像群生成部、および
前記画像群生成部により生成された画像群のうちの相対的に小さい第1の画像に、前記フィルタ記憶部に記憶されたフィルタ群のうちの相対的に狭い領域に作用する第1のフィルタを作用させて所定の第1の閾値を越える評価値が得られる一次候補領域を抽出する第1の抽出過程と、
前記画像群生成部により生成された画像群のうちの前記第1の画像よりも画素数が一段階多い第2の画像の、前記一次候補領域に相当する領域に、前記フィルタ記憶部に記憶されたフィルタ群のうちの前記第1のフィルタよりも一段階広い領域に作用する第2のフィルタを作用させて所定の第2の閾値を越える評価値が得られる二次候補領域を抽出する第2の抽出過程と
を含む複数の抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きい画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことにより、前記原画像中から特定種類のオブジェクトを検出する段階的検出部を有するオブジェクト検出装置として動作させることを特徴とするオブジェクト検出プログラム。
【0303】
(34)前記画像群生成部が、前記画像群の生成に加え、さらに、前記原画像に補間演算を施すことにより、前記画像群を構成する、該原画像を前記所定比率で間引いて得られた間引画像の画素数よりも多く、かつ該原画像の画素数よりも少ない画素数の範囲内の1つの補間画像又は該範囲内で画素数が互いに異なる複数の補間画像を生成し、生成した1つ以上の補間画像それぞれについて、当該補間画像を構成する画素を前記所定比率で間引くことにより、又は該所定比率で段階的に間引くことにより、当該補間画像と当該補間画像の画素を間引いて得られた一枚以上の間引画像とからなる新たな画像群を生成するものであり、
前記段階的検出部は、前記画像群生成部で生成された複数の画像群それぞれに関し、前記抽出過程を、相対的に小さい画像に相対的に狭い領域に作用するフィルタを作用させる抽出過程から相対的に大きい画像に相対的に広い領域に作用するフィルタを作用させる抽出過程に向けて順次に繰り返すことにより、前記原画像および前記1つ以上の補間画像それぞれの中から特定種類のオブジェクトを検出するものであることを特徴とする(33)記載のオブジェクト検出プログラム。
【0304】
(35)前記フィルタ記憶部が、1つの広さの領域につき複数種類の、それぞれが、特定種類のオブジェクトの輪郭および内部のうちのいずれかの特徴量を算出するフィルタを記憶するとともに、各フィルタにより算出される特徴量と特定種類のオブジェクトである確率を表わす一次評価値との対応関係を記憶するものであり、
前記段階的検出部は、1つの領域に、該領域の広さに応じた複数種類のフィルタを作用させて複数の特徴量を算出し、各特徴量に対応する各一次評価値を求め、複数の一次評価値を総合した二次評価値と閾値とを比較することにより、該領域が特定種類のオブジェクトが存在する候補領域であるか否かを判定するものであることを特徴とする(33)又は(34)記載のオブジェクト検出プログラム。
【0305】
(36)前記演算装置を前記段階的検出部で複数の領域が検出された場合における該複数の領域を、該複数の領域どうしの重なりの程度に応じて、1つの領域に統合する領域統合部をさらに有するオブジェクト検出装置として動作させることを特徴とする(33)から(35)のうちいずれか1つに記載のオブジェクト検出プログラム。
【0306】
(37)前記演算装置を、複数フレームからなる連続画像を取得し、オブジェクト検出対象の画像として用いるための、異なるフレーム間の差分画像を作成する差分画像作成部をさらに有するオブジェクト検出装置として動作させることを特徴とする(33)から(36)のうちいずれか1つに記載のオブジェクト検出プログラム。
【0307】
(38)前記フィルタ記憶部が、人間の頭部が存在する確率を表わす評価値を生成する複数のフィルタからなるフィルタ群を記憶するものであって、当該オブジェクトプログラムは、前記演算装置を、画像内にあらわれる人間の頭部を検出対象とするオブジェクト検出装置として動作させることを特徴とする(33)から(37)のうちいずれか1つに記載のオブジェクト検出プログラム。
【符号の説明】
【0308】
10 被計測空間
10 監視カメラ
11,12,13 人物
11a〜13a,a1,a2,b1〜b5,c3,d3,d5,e3 頭部
20 カメラ
30 パーソナルコンピュータ
31 本体装置
40 人物追跡装置
41 頭部検出部
42 特徴量算出部
43 関連度算出部
44 同一人物判別部
45 断片削除部
46 制御部
110 画像群生成部
120 輝度補正部
130 差分画像作成部
140 段階的検出部
141 一次評価値算出部
142 二次評価値算出部
143 領域抽出部
150 領域統合部
170 領域抽出演算制御部
200 画像
201 静止画像
202 動画像
210 アフィン変換処理
220 多重解像度展開処理
230 輝度補正処理
240 差分演算処理
250 切出処理
251 教師画像群
251A〜C 教師画像
260 フィルタ候補
270A〜C フィルタ
461 記憶部

【特許請求の範囲】
【請求項1】
被計測空間をカメラで撮影することにより生成された所定のフレームレートの動画像を表わす画像データに基づいて、前記動画像を構成する複数のフレーム画像のうちの複数の計測対象フレーム画像それぞれについて、各計測対象フレーム画像上の頭部を検出する頭部検出ステップと、
前記画像データに基づいて、前記各計測対象フレーム画像上に頭部が検出された人物を特徴づける特徴量を、該各計測対象フレーム画像ごとおよび各頭部ごとに算出する特徴量算出ステップと、
過去の計測対象フレーム画像上に頭部が検出された各人物の該過去の計測対象フレーム画像上の各特徴量と、今回の計測対象フレーム画像上に頭部が検出された各人物の該今回の計測対象フレーム画像上の各特徴量との間の、特徴量どうしの一致の程度を表わす関連度を算出する関連度算出ステップと、
前記今回の計測対象フレーム画像上に検出された頭部のうちの、前記過去の計測対象フレーム画像上に検出された頭部のうちの第1の頭部を持つ人物の該過去の計測対象フレーム画像上の特徴量と前記今回の計測対象フレーム画像上に検出された各頭部を持つ各人物の該今回の計測対象フレーム画像上の各特徴量との間の各関連度のうちの第1の閾値以上の一致の程度を表わす関連度であってかつ最大の一致の程度を表わす関連度の算出の基になった頭部を、前記第1の頭部を持つ人物と同一の人物の頭部である旨、判別する同一人物判別ステップとを有することを特徴とする人物追跡方法。
【請求項2】
連続する複数の第1の計測対象フレーム画像に亘って互いに同一の第1の人物に属することが判別された頭部が検出され、該第1の人物に属する頭部が途中の1つ又は第2の閾値以下の数だけ連続する複数の計測対象フレーム画像では途切れ、その後、連続する複数の第2の計測対象フレーム画像に亘って同一の第2の人物に属することが判別された頭部が検出された場合に、
前記特徴量算出ステップは、前記複数の第1の計測対象フレーム画像における前記第1の人物の平均的な第1の平均特徴量と、前記複数の第2の計測対象フレーム画像における前記第2の人物の平均的な第2の平均特徴量とを算出するものであり、
前記関連度算出ステップは、前記第1の平均特徴量と前記第2の平均特徴量との間の関連度を算出するものであり、
前記同一人物判別ステップは、前記第1の平均特徴量と前記第2の平均特徴量との間の関連度が第3の閾値以上の一致の程度を表わす関連度である場合に、前記第1の人物と前記第2の人物が同一人物である旨、判別するものであることを特徴とする請求項1記載の人物追跡方法。
【請求項3】
1つ又は第4の閾値以下の数だけ連続する複数の計測対象フレーム画像にのみ第3の人物の頭部が検出され前後の計測対象フレーム画像には該頭部に対応する該第3の人物の頭部が検出されない場合に、該頭部を、検出された頭部から削除する断片削除ステップをさらに有することを特徴とする請求項1又は2記載の人物追跡方法。
【請求項4】
前記特徴量算出ステップは、計測対象フレーム画像上に検出された頭部の画素値のヒストグラムを前記特徴量の1つとして算出するステップであることを特徴とする請求項1から3のうちのいずれか1項記載の人物追跡方法。
【請求項5】
前記特徴量算出ステップは、計測対象フレーム画像上の頭部が検出された人物の胴体部分の画素値のヒストグラムを前記特徴量の1つとして算出するステップであることを特徴とする請求項1から4のうちのいずれか1項記載の人物追跡方法。
【請求項6】
前記特徴量算出ステップは、今回の計測対象フレーム画像上に検出された頭部の該今回の計測対象フレーム画像上の出現位置を変数とする、過去の複数の計測対象フレーム画像上の同一人物の頭部の動きに基づく関数値を前記特徴量の1つとして算出するステップであることを特徴とする請求項1から5のうちのいずれか1項記載の人物追跡方法。
【請求項7】
被計測空間をカメラで撮影することにより生成された所定のフレームレートの動画像を表わす画像データに基づいて、前記動画像を構成する複数のフレーム画像のうちの複数の計測対象フレーム画像それぞれについて、各計測対象フレーム画像上の頭部を検出する頭部検出部と、
前記画像データに基づいて、前記各計測対象フレーム画像上に頭部が検出された人物を特徴づける特徴量を、該各計測対象フレーム画像ごとおよび各頭部ごとに算出する特徴量算出部と、
過去の計測対象フレーム画像上に頭部が検出された各人物の該過去の計測対象フレーム画像上の各特徴量と、今回の計測対象フレーム画像上に頭部が検出された各人物の該今回の計測対象フレーム画像上の各特徴量との間の、特徴量どうしの一致の程度を表わす関連度を算出する関連度算出部と、
前記今回の計測対象フレーム画像上に検出された頭部のうちの、前記過去の計測対象フレーム画像上に検出された頭部のうちの第1の頭部を持つ人物の該過去の計測対象フレーム画像上の特徴量と前記今回の計測対象フレーム画像上に検出された各頭部を持つ各人物の該今回の計測対象フレーム画像上の各特徴量との間の各関連度のうちの第1の閾値以上の一致の程度を表わす関連度であってかつ最大の一致の程度を表わす関連度の算出の基になった頭部を、前記第1の頭部を持つ人物と同一の人物の頭部である旨、判別する同一人物判別部とを備えたことを特徴とする人物追跡装置。
【請求項8】
連続する複数の第1の計測対象フレーム画像に亘って互いに同一の第1の人物に属することが判別された頭部が検出され、該第1の人物に属する頭部が途中の1つ又は第2の閾値以下の数だけ連続する複数の計測対象フレーム画像では途切れ、その後、連続する複数の第2の計測対象フレーム画像に亘って同一の第2の人物に属することが判別された頭部が検出された場合に、
前記特徴量算出部は、前記複数の第1の計測対象フレーム画像における前記第1の人物の平均的な第1の平均特徴量と、前記複数の第2の計測対象フレーム画像における前記第2の人物の平均的な第2の平均特徴量とを算出するものであり、
前記関連度算出部は、前記第1の平均特徴量と前記第2の平均特徴量との間の関連度を算出するものであり、
前記同一人物判別部が、前記第1の平均特徴量と前記第2の平均特徴量との間の関連度が第3の閾値以上の一致の程度を表わす関連度である場合に、前記第1の人物と前記第2の人物が同一人物である旨、判別するものであることを特徴とする請求項7記載の人物追跡装置。
【請求項9】
1つ又は第4の閾値以下の数だけ連続する複数の計測対象フレーム画像にのみ第3の人物の頭部が検出され前後の計測対象フレーム画像には該頭部に対応する該第3の人物の頭部が検出されない場合に、該頭部を、検出された頭部から削除する断片削除部をさらに備えたことを特徴とする請求項7又は8記載の人物追跡装置。
【請求項10】
前記特徴量算出部は、計測対象フレーム画像上に検出された頭部の画素値のヒストグラムを前記特徴量の1つとして算出するものであることを特徴とする請求項7から9のうちのいずれか1項記載の人物追跡装置。
【請求項11】
前記特徴量算出部は、計測対象フレーム画像上の頭部が検出された人物の胴体部分の画素値のヒストグラムを前記特徴量の1つとして算出するものであることを特徴とする請求項7から10のうちのいずれか1項記載の人物追跡装置。
【請求項12】
前記特徴量算出部は、今回の計測対象フレーム画像上に検出された頭部の該今回の計測対象フレーム画像上の出現位置を変数とする、過去の複数の計測対象フレーム画像上の同一人物の頭部の動きに基づく関数値を前記特徴量の1つとして算出するものであることを特徴とする請求項7から11のうちのいずれか1項記載の人物追跡装置。
【請求項13】
プログラムを実行する演算装置内で実行され、該演算装置を、
被計測空間をカメラで撮影することにより生成された所定のフレームレートの動画像を表わす画像データに基づいて、前記動画像を構成する複数のフレーム画像のうちの複数の計測対象フレーム画像それぞれについて、各計測対象フレーム画像上の頭部を検出する頭部検出部と、
前記画像データに基づいて、前記各計測対象フレーム画像上に頭部が検出された人物を特徴づける特徴量を、該各計測対象フレーム画像ごとおよび各頭部ごとに算出する特徴量算出部と、
過去の計測対象フレーム画像上に頭部が検出された各人物の該過去の計測対象フレーム画像上の各特徴量と、今回の計測対象フレーム画像上に頭部が検出された各人物の該今回の計測対象フレーム画像上の各特徴量との間の、特徴量どうしの一致の程度を表わす関連度を算出する関連度算出部と、
前記今回の計測対象フレーム画像上に検出された頭部のうちの、前記過去の計測対象フレーム画像上に検出された頭部のうちの第1の頭部を持つ人物の該過去の計測対象フレーム画像上の特徴量と前記今回の計測対象フレーム画像上に検出された各頭部を持つ各人物の該今回の計測対象フレーム画像上の各特徴量との間の各関連度のうちの第1の閾値以上の一致の程度を表わす関連度であってかつ最大の一致の程度を表わす関連度の算出の基になった頭部を、前記第1の頭部を持つ人物と同一の人物の頭部である旨、判別する同一人物判別部とを備えた人物追跡装置として動作させることを特徴とする人物追跡プログラム。
【請求項14】
連続する複数の第1の計測対象フレーム画像に亘って互いに同一の第1の人物に属することが判別された頭部が検出され、該第1の人物に属する頭部が途中の1つ又は第2の閾値以下の数だけ連続する複数の計測対象フレーム画像では途切れ、その後、連続する複数の第2の計測対象フレーム画像に亘って同一の第2の人物に属することが判別された頭部が検出された場合に、
前記特徴量算出部は、前記複数の第1の計測対象フレーム画像における前記第1の人物の平均的な第1の平均特徴量と、前記複数の第2の計測対象フレーム画像における前記第2の人物の平均的な第2の平均特徴量とを算出するものであり、
前記関連度算出部は、前記第1の平均特徴量と前記第2の平均特徴量との間の関連度を算出するものであり、
前記同一人物判別部が、前記第1の平均特徴量と前記第2の平均特徴量との間の関連度が第3の閾値以上の一致の程度を表わす関連度である場合に、前記第1の人物と前記第2の人物が同一人物である旨、判別するものであることを特徴とする請求項13記載の人物追跡プログラム。
【請求項15】
前記演算装置を、1つ又は第4の閾値以下の数だけ連続する複数の計測対象フレーム画像にのみ第3の人物の頭部が検出され前後の計測対象フレーム画像にはその頭部に対応する第3の人物の頭部が検出されない場合に、該頭部を、検出された頭部から削除する断片削除部をさらに有する人物追跡装置として動作させることを特徴とする請求項13又は14記載の人物追跡プログラム。
【請求項16】
前記特徴量算出部は、計測対象フレーム画像上に検出された頭部の画素値のヒストグラムを前記特徴量の1つとして算出するものであることを特徴とする請求項13又は15記載の人物追跡プログラム。
【請求項17】
前記特徴量算出部は、計測対象フレーム画像上の頭部が検出された人物の胴体部分の画素値のヒストグラムを前記特徴量の1つとして算出するものであることを特徴とする請求項13から16のうちのいずれか1項記載の人物追跡プログラム。
【請求項18】
前記特徴量算出部は、今回の計測対象フレーム画像上に検出された頭部の、該今回の計測対象フレーム画像上の出現位置を変数とする、過去の複数の計測対象フレーム画像上の同一人物の頭部の動きに基づく関数値を前記特徴量の1つとして算出するものであることを特徴とする請求項13から17のうちのいずれか1項記載の人物追跡プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26】
image rotate

【図27】
image rotate

【図28】
image rotate

【図29】
image rotate

【図30】
image rotate

【図31】
image rotate

【図32】
image rotate

【図33】
image rotate

【図34】
image rotate

【図35】
image rotate

【図36】
image rotate

【図37】
image rotate

【図38】
image rotate


【公開番号】特開2010−273112(P2010−273112A)
【公開日】平成22年12月2日(2010.12.2)
【国際特許分類】
【出願番号】特願2009−123233(P2009−123233)
【出願日】平成21年5月21日(2009.5.21)
【出願人】(306037311)富士フイルム株式会社 (25,513)
【Fターム(参考)】