説明

物体認識装置および物体認識方法

【課題】識別対象が画像上で変形する場合であっても、その識別対象の認識率を向上させることができる、物体認識装置および物体認識方法を提供する。
【解決手段】物体認識装置1は、記憶部20内に、認識対象の情報を示す監視物体情報210と、カメラ装置のパラメータを示すカメラ情報220を記憶している。そして、物体認識装置1は、監視物体情報210を用いて、監視空間上に検知領域を作成し、その作成した検知領域を、カメラ情報220を用いて、監視画像上の変形検知領域に変換する。物体認識装置1は、変形検知領域の画像情報100について特徴量を抽出し、認識対象の物体か否かを判定する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、物体認識装置および物体認識方法に関する。
【背景技術】
【0002】
監視カメラ等の撮像デバイスが取得した画像情報から特定の物体を認識する方法に関して、従来技術においては、画像上の所定の領域(例えば、認識処理を実行する範囲を示す矩形の領域)から抽出した特徴量を用いて、物体を認識する方法が多数提案されている。
【0003】
例えば、人物認識を実現する技術において、特許文献1には、人物を含む画像と含まない画像で構成される学習サンプルから、アピアランス(物体の外観から読み取れる形状や色の情報)、輪郭情報等の特徴量を抽出し、人物と人物以外を識別する識別器を生成する手段と、この識別器を用いて画像上の所定の領域(矩形の領域)に人物が存在するか否かを認識する手段とを用いて、人物認識を実現する技術が開示されている。
【0004】
また、特許文献2には、認識精度を向上するため、画像上の所定の領域(矩形の領域)を左右の領域に分割し、左半分画像、右半分画像、および全体画像のいずれか1つの画像が人物であると判定された場合に、その画像上の所定の領域内に、人物が存在すると認識する技術が開示されている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2009−181220号公報
【特許文献2】特開2010−108138号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
従来の物体認識の手法では、予め定義した所定の領域(矩形の領域)を画像上で走査し、各画像位置における所定の領域(矩形の領域)内に人物や物体等の認識対象が含まれるか否かを識別する方法が用いられる。この識別を実行する識別器の生成に用いられる多くの学習サンプルでは、人物は直立した姿勢をとるものがほとんどである。そのため、走査した矩形の領域内の人物が、学習サンプルと同様である直立した姿勢である場合には認識率は高い。
【0007】
しかし、実際に監視カメラ等で撮像した物体(人物等)は、カメラの位置、俯角、画角等のカメラパラメータ、物体の大きさやカメラと物体との位置関係等(以下、このカメラや物体自身に関する情報や、カメラと物体との位置関係等を示す情報をまとめて、「監視空間情報」とよぶ)によって、画像上での見え方が異なる。例えば、画像の端では歪みが発生し、カメラの設置の仕方によっては画像の傾き(画像の水平がとれていない状態)が発生する。また、カメラと物体との距離によって、その物体に縮小や拡大等の変形が画像上に生じる。このように歪み等の変形を生じた画像に対して、予め定義した画像上の所定の領域(矩形の領域)を用いる認識方法では、その矩形の領域内の認識対象が学習サンプルに合致する形状とならない限りは、認識できなかったり、誤った認識をしたりするという問題がある。
【0008】
例えば、特許文献1に記載の技術では、直立した姿勢の人物画像を含む学習サンプルから全身の輪郭を学習し識別器を生成する。この生成した識別器を用いた場合、画像上の所定の領域(矩形の領域)で抽出した人物が直立した姿勢である場合は正しく認識できる。しかし、歪みを含んだ画像に対しては、画像上の所定の領域(矩形の領域)で抽出した人物特徴量が不十分なもとのなり、人物と認識できない場合がでてくる。
【0009】
また、特許文献2に記載の技術では、画像上の所定の領域を左右の領域に分割しても、その画像内に含まれる歪み等の変形がそのまま残るため、人物認識に必要な特徴量を抽出できず、認識率が低下するという問題がある。
【0010】
これらの問題を既存の技術を用いて解決しようとする場合に、学習サンプルに歪み等の変形を考慮したデータを含める方法が想定される。しかし、この方法は、カメラや物体の様々な条件に対応した多くのサンプルが必要となることや、認識対象の画像上での見え方(輪郭等)が多様化するため、認識対象でない背景を誤認識する確率が増加する傾向があるため現実的ではない。
【0011】
このような背景に鑑みて本発明がなされたのであり、本発明は、識別対象が画像上で変形する場合であっても、その識別対象の認識率を向上させることができる、物体認識装置および物体認識方法を提供することを課題とする。
【課題を解決するための手段】
【0012】
前記した課題を解決するため、本発明の物体認識装置は、監視対象となる物体自身に関する監視物体情報や、カメラ装置のパラメータに関するカメラ情報が格納される監視空間情報を記憶しており、物体認識装置は、監視物体情報を用いて、監視空間上に検知領域を作成し、その作成した検知領域を、カメラ情報220を用いて、監視画像上の変形検知領域に変換する。そして、物体認識装置は、変形検知領域の画像情報について特徴量を抽出し、認識対象の物体か否かを判定する。
【発明の効果】
【0013】
本発明によれば、識別対象が画像上で変形する場合であっても、その識別対象の認識率を向上させる、物体認識装置および物体認識方法を提供することができる。
【図面の簡単な説明】
【0014】
【図1】本発明の第1の実施形態に係る物体認識装置の構成例を示す機能ブロック図である。
【図2】本発明の第1の実施形態に係る変形検知領域作成部の構成を示す機能ブロック図である。
【図3】監視空間上の検知領域を、監視画像上の変形検知領域に変換する例を示す図である。
【図4】変形検知領域作成部が作成した監視画像上の変形検知領域の例を示す図である。
【図5】本発明の第1の実施形態に係る物体認識部の構成を示す機能ブロック図である。
【図6】本発明の第1の実施形態に係る物体認識装置が行う物体認識処理の流れを示すフローチャートである。
【図7】本発明の第2の実施形態に係る物体認識装置の構成例を示す機能ブロック図である。
【図8】本発明の第2の実施形態に係る認識範囲特定部の構成を示す機能ブロック図である。
【図9】本発明の第2の実施形態に係る認識範囲特定部が行う認識範囲特定処理を説明するための図である。
【図10】本発明の第2の実施形態に係る物体認識装置が行う認識範囲特定処理の流れを示すフローチャートである。
【図11】本発明の第3の実施形態に係る物体認識部の構成を示す機能ブロック図である。
【図12】本発明の第3の実施形態に係る物体認識装置が行う人物認識処理の流れを示すフローチャートである。
【図13】本発明の第3の実施形態に係る人物認識処理の流れを説明するための図である。
【図14】本発明の第4の実施形態に係る物体認識部の構成を示す機能ブロック図である。
【図15】本発明の第4の実施形態に係る人物カウント処理を説明するための図である。
【図16】本発明の第4の実施形態に係る物体認識装置が行う人物カウント処理の流れを示すフローチャートである。
【図17】本発明の第5の実施形態に係る物体認識装置の構成例を示す機能ブロック図である。
【図18】本発明の第5の実施形態に係る人物追跡処理を説明するための図である。
【図19】本発明の第5の実施形態に係る追跡物体認識部の構成を示す機能ブロック図である。
【図20】本発明の第5の実施形態に係る物体認識装置が行う人物追跡処理の流れを示すフローチャートである。
【図21】本発明の第5の実施形態に係る物体認識装置が行う人物追跡処理の流れを示すフローチャートである。
【発明を実施するための形態】
【0015】
次に、本発明を実施するための形態(以下、「実施形態」とよぶ)について、適宜図面を参照しながら詳細に説明する。
【0016】
≪第1の実施形態:物体認識装置≫
先ず、本発明の第1の実施形態に係る物体認識装置1(1a)について説明する。
本発明の第1の実施形態に係る物体認識装置1(1a)は、監視空間1000(図3参照)上にその認識対象を含む領域として後記する図3に示す検知領域1100を作成し、その作成した検知領域1100を、カメラ情報220を用いて、監視画像2000上の変形検知領域2100に変換する。この監視画像2000上の変形検知領域2100は、カメラ装置の各パラメータに関する情報を反映し、図3に示すように、監視画像2000の歪みを考慮した上で作成される。そして、物体認識装置1(1a)は、歪み等で変形した認識対象を含む領域として作成された変形検知領域2100の画像情報100について、特徴量を抽出し、認識対象の物体か否かを判定する。
【0017】
図1は、本発明の第1の実施形態に係る物体認識装置1(1a)の構成例を示す機能ブロック図である。
図1に示すように、本発明の第1の実施形態に係る物体認識装置1(1a)は、制御部10と、記憶部20と、メモリ部30と、入力部40と、出力部50とを含んで構成される。
【0018】
入力部40は、入力インタフェースからなり、不図示のカメラ装置等の撮像デバイスから、撮影された画像情報100を取り込む。
また、出力部50は、出力インタフェースからなり、不図示のモニタ等の表示装置に、制御部10の処理結果を表示させる。
【0019】
記憶部20は、ハードディスクやフラッシュメモリ等の記憶手段からなり、カメラや物体自身に関する情報や、カメラと物体との位置関係等を示す監視空間情報200が記憶される。そして、この監視空間情報200は、監視物体情報210およびカメラ情報220を含んで構成される。
【0020】
監視物体情報210は、認識対象となる人物や物体等に関する情報であり、例えば、認識対象が人物の場合は、人物の幅、身長、足元座標(監視空間内での位置座標)等の情報である。また、認識対象が物体の場合は、その物体(例えば、自動車等や人以外の動物等)の大きさ(縦、横、高さ)等の情報である。なお、この人物や物体の監視物体情報210は、その認識対象を含んだ検知領域(矩形領域)1100を変形検知領域作成部130が作成するために利用される(詳細は後記する)。
【0021】
カメラ情報220は、入力部40が取り込む画像情報100を送信する不図示のカメラ装置の内部パラメータおよび外部パラメータの情報である。ここで、内部パラメータとは、カメラの焦点距離(f)、画像座標の中心(x、y)、レンズ歪み係数(k)、画像座標の縦横比(S)等である。また、外部パラメータとは、世界座標系の原点を基準とした平行移動ベクトル(T)、3行3列の回転ベクトル(R)である。これらの外部パラメータの設定は、例えば、「R.Y.Tsai, “A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV camera and lenses” IEEE Journal of Robotics and Automation, Vol.RA-3, No.4, pp. 323-344, 1987」等の既存の技術を用いて設定することができる。
【0022】
メモリ部30は、RAM(Random Access Memory)等の記憶手段からなり、制御部10が行う物体認識処理の過程で必要な情報等を一時的に記憶する。
【0023】
制御部10は、物体認識装置1(1a)の物体認識処理の制御全般を司り、画像取得部110と、監視空間情報取得部120と、変形検知領域作成部130と、物体認識部140(140a)と、出力処理部150とを含んで構成される。なお、この制御部10の機能は、例えば物体認識装置1(1a)の記憶部20に記憶されたプログラムをCPU(Central Processing Unit)がメモリ部30に展開し実行することで実現される。
【0024】
画像取得部110は、入力部40を介して、カメラ装置等から画像情報100を取得する。
【0025】
監視空間情報取得部120は、記憶部20内の監視空間情報200から、監視物体情報210およびカメラ情報220を取得する。
【0026】
変形検知領域作成部130は、監視空間情報取得部120を介して、監視物体情報210を取得し、認識対象となる人物や物体に関する情報から監視空間1000上の検知領域(矩形領域)1100(後記する図3参照)を作成し、その検知領域1100をカメラ情報220に基づき、監視画像2000上の変形検知領域2100(後記する図3参照)に変換する。なお、変形検知領域作成部130の詳細については、図2〜図4を参照し、後記において説明する。
【0027】
物体認識部140(140a)は、変形検知領域作成部130が作成した変形検知領域2100と、画像取得部110が取得した画像情報100とを受け取り、その変形検知領域2100内の画像情報100から特徴量の抽出を行う。そして、物体認識部140(140a)は、抽出した特徴量を用いて、認識対象である人物や物体であるか否かを判定する。また、物体認識部140(140a)は、その認識結果を出力処理部150に出力する。なお、物体認識部140(140a)の詳細については、図5を参照し、後記において説明する。
【0028】
出力処理部150は、制御部10の物体認識部140が処理した認識結果を、出力部50を介して、表示装置に表示させる。出力処理部150は、例えば、表示装置の監視画像2000上の変形検知領域2100を赤枠等で囲って表示させたり、監視画面上に認識対象となる人物や物体が認識された旨を示すポップアップメッセージを表示させる。また、携帯端末に認識対象となる人物や物体が認識されたことを示す情報(メール等)を送信するようにしてもよい。
【0029】
(変形検知領域作成部130)
次に、本発明の第1の実施形態に係る物体認識装置1(1a)の変形検知領域作成部130の構成について詳細に説明する。図2は、本発明の第1の実施形態に係る変形検知領域作成部130の構成を示す機能ブロック図である。
【0030】
図2に示すように、変形検知領域作成部130は、監視空間検知領域作成部131と画像検知領域変換部132とを含んで構成される。
【0031】
監視空間検知領域作成部131は、監視物体情報210を監視空間情報取得部120から受け取り、監視空間1000での検知領域1100を作成する。この検知領域1100は、監視空間1000上でその空間位置に認識対象となる人物や物体が存在するか否かを物体認識装置1が検知する領域を示す。そして、この検知領域の形状は、認識対象となる人物や物体によって、例えば、矩形、丸形、菱形、五角形等の様々な形状を用いることができるが、以降、本実施形態では、矩形として説明する。
【0032】
監視空間検知領域作成部131は、例えば、人物であれば、監視物体情報210を用いて、認識対象とする人物の幅、身長、足元座標を世界座標で定め、検知領域(矩形領域)1100を作成する。なお、監視空間検知領域作成部131は、認識しようとする特定の人物が入力部40を介して、物体認識装置1(1a)に入力されている場合には、その人物に対応した情報を監視物体情報210から取得する。一方、特定の人物を認識するのではなく、例えば、すべての人物を認識したい場合には、監視空間検知領域作成部131は、人物の幅や身長の異なる、様々な検知領域(矩形領域)1100を作成し、物体認識処理を繰り返すことにより、不特定の人物を認識するようにしてもよい。
【0033】
画像検知領域変換部132は、カメラ情報220を監視空間情報取得部120から受け取り、監視空間検知領域作成部131が作成した検知領域1100を監視画像2000上に変換し、変形検知領域2100を作成する。
【0034】
図3は、監視空間検知領域作成部131が作成した監視空間1000上の検知領域(矩形領域)1100を、画像検知領域変換部132が、監視画像2000上の変形検知領域2100に変換する例を説明するための図である。
【0035】
図3に示すように、監視空間1000は世界座標系で表現されており、世界座標系の原点61は、例えば床面上の任意の点に設定される。また、カメラ装置62は、空間位置63(X,Y,Z)に設置され、カメラ装置62により撮影された監視画像2000は、画像座標系で表現される。そして、監視空間検知領域作成部131は、監視物体情報210から取得した、人物の幅や身長等に基づき、監視空間1000上の監視領域の所定の位置(位置座標)に検知領域(矩形領域)1100を作成する。
【0036】
そして、画像検知領域変換部132は、カメラ情報220から取得した内部パラメータおよび外部パラメータを用いて、検知領域(矩形領域)1100の頂点(矩形の4つの頂点)の世界座標を、監視画像2000上の点に変換して、変形検知領域2100を作成する。
【0037】
この変形検知領域2100は、カメラ装置62の空間位置63や俯角64等に応じて、監視画像2000上での歪みや、縮小、拡大等の度合いが変化する。また、この変形検知領域2100は、監視空間1000上での位置(監視領域)に応じても、監視画像2000上での歪みや、縮小、拡大等の度合いが変化する。
【0038】
次に、画像検知領域変換部132による、変形検知領域2100の作成処理について具体的に説明する。画像検知領域変換部132は、監視空間検知領域作成部131が監視空間1000上に作成した検知領域(矩形領域)1100の頂点座標(図3では矩形の4つの頂点)を、監視画像2000上での画像座標に変換することにより、変形検知領域2100を作成する。
【0039】
以下、画像検知領域変換部132が、カメラ情報220の内部パラメータおよび外部パラメータを用いて、監視空間1000上の任意の点pを、監視画像2000上の画像座標(u,v)へ変換する処理について説明する。
【0040】
まず、(式1)に示すように、点pの世界座標(x,y,z)をカメラ座標(x,y,z)へ変換する。
【0041】
【数1】

【0042】
ここで、Tは、内部パラメータの平行移動ベクトルであり、Rは、3行3列の回転ベクトルである。
【0043】
そして、(式2)に示すように、カメラ座標から画像座標(X,Y)へ変換する。
【0044】
【数2】

【0045】
ここで、fはカメラの焦点距離、(x,y,z)は画像座標の中心を示す。
【0046】
次に、レンズ歪み係数k,k、画像座標の縦横比Sの値を次の(式3)に代入することで、歪みがある場合の画像位置(X,Y)を求める。
【0047】
【数3】

【0048】
そして、上記の(式1)(式2)(式3)から、点pを監視画像2000上に変換した画像座標(u,v)を、次の(式4)により求める。
【0049】
【数4】

【0050】
このように、画像検知領域変換部132は、監視空間1000で作成した検知領域(矩形領域)1100の頂点を、(式1)〜(式4)を用いて、監視画像2000上に変換することにより、監視画像2000上の歪み等の変形に応じた変形検知領域2100を作成することができる。
【0051】
図4は、変形検知領域作成部130が作成した監視画像2000(2000A,2000B)上の変形検知領域2100(2100A,2100B)の例を示す図である。図4(a)および図4(b)は、同じ監視空間1000上の同じ位置の検知領域(矩形領域)1100について、俯角64を変更した場合における、監視画像2000上での変形検知領域2100を示している。図4(a)は、カメラ装置62Aの俯角64Aが30度であり、図4(b)は、カメラ装置62Bの俯角64Bが60度である。監視空間1000上での検知領域(矩形領域)1100の位置が同じであっても、変形検知領域2100A,2100Bの歪み等の変形の度合いや、監視画像2000A,2000B上での画像座標が異なっている。なお、図4(a)および図4(b)では、変形検知領域2100の歪み等の変形を分かりやすく表示するため、表示画面からはみ出した部分についても記載している。
【0052】
また、この変形検知領域作成部130による、変形検知領域2100の作成は、次のようにしてもよい。変形検知領域作成部130は、(式1)〜(式4)を用いた変形検知領域2100の作成処理を、検知領域(矩形領域)1100の作成毎に行わず、監視空間1000の世界座標(x,y,z)と監視画像2000上の画像座標(u,v)とを対応させたルックアップテーブル(参照テーブル)を予め作成しておく。そして、変形検知領域作成部130は、変形検知領域2100の作成に際して、このルックアップテーブルを参照することにより、変換処理を省略し、検知領域(矩形領域)1100と変形検知領域2100との相互変換を高速化する。
【0053】
(物体認識部140)
次に、本発明の第1の実施形態に係る物体認識装置1(1a)の物体認識部140(140a)の構成について詳細に説明する。図5は、本発明の第1の実施形態に係る物体認識部140(140a)の構成を示す機能ブロック図である。
【0054】
図5に示すように、物体認識部140(140a)は、検知領域画像抽出部141と、特徴量抽出部142と、認識処理部143とを含んで構成される。
【0055】
検知領域画像抽出部141は、画像取得部110(図1参照)から、画像情報100を受け取り、その受け取った画像情報100から、変形検知領域作成部130で作成した変形検知領域2100の画像情報100を抽出する。
【0056】
特徴量抽出部142は、検知領域画像抽出部141で抽出した画像情報100を用いて、認識アルゴリズムに応じた所定の特徴量を抽出する。この特徴量は、例えば、「N. Dalal and B. Triggs, “Histograms of Oriented Gradients for Human Detection”, IEEE Computer Vision and Pattern Recognition, pp. 886-893, 2005」に記載されるHOG(Histograms of Oriented Gradients)を利用する。このHOGは、局所領域における輝度勾配をヒストグラム化したものであり、物体の輪郭を得ることができる。また、他の特徴量として、隣接する矩形領域の明度差を用いるHaar-Like特徴や、各画素の輝度値や色等の情報を特徴量として利用することもできる。
【0057】
認識処理部143は、特徴量抽出部142が抽出した特徴量を用いて、人物や物体の認識処理を行う。この認識処理部143が用いる認識アルゴリズムは、例えば、学習サンプルにより生成した識別器を用いる認識方法や、色や模様の類似度を計算する方法のアルゴリズムを用いることができる。類似度を計算する方法では、輝度の残差絶対和(SAD:Sum of Absolute Difference)や輝度の残差二乗和(SSD:Sum of Squared Difference)、正規化相互相関(NCC:Normalized Cross Correlation)がよく使われる。
【0058】
(物体認識装置の物体認識方法)
次に、本発明の第1の実施形態に係る物体認識装置1(1a)が行う物体認識処理について具体的に説明する。
図6は、本発明の第1の実施形態に係る物体認識装置1(1a)が行う物体認識処理の流れを示すフローチャートである。なお、ここでは、識別対象が人物である場合として説明する。
【0059】
先ず、物体認識装置1(1a)の画像取得部110は、入力部40を介して、監視カメラ等の撮像デバイスから画像情報100を取得する(ステップS101)。
【0060】
次に、物体認識装置1(1a)の監視空間情報取得部120は、記憶部20内の監視空間情報200から、監視物体情報210およびカメラ情報220を取得する(ステップS102)。
【0061】
続いて、物体認識装置1(1a)の変形検知領域作成部130は、監視物体情報210を監視空間情報取得部120から受け取り、監視空間1000での検知領域(矩形領域)1100を作成する(ステップS103)。
具体的には、変形検知領域作成部130の監視空間検知領域作成部131は、監視物体情報210に含まれる、人物の幅や、身長等の情報を用いて、検知領域(矩形領域)1100を作成する。
【0062】
そして、変形検知領域作成部130の画像検知領域変換部132は、カメラ情報220を監視空間情報取得部120から受け取り、監視空間1000における監視領域の位置座標(ここでは、認識対象の人物の足元座標)の1つを選択する(ステップS104)。なお、この処理は、監視画像2000の任意の位置に、人物が存在するものとして、対応する監視空間1000の足元座標を走査するために行う処理である。
【0063】
次に、画像検知領域変換部132は、カメラ情報220を用いて、ステップS103で、監視空間検知領域作成部131が作成した検知領域1100を、監視画像2000上の変形検知領域2100に変換する(ステップS105)。
【0064】
続いて、物体認識装置1(1a)の物体認識部140は、変形検知領域2100の画像情報100を用いて、特徴量を抽出する。
具体的には、物体認識部140(140a)の検知領域画像抽出部141は、画像取得部110から監視カメラ等の画像情報100を受け取り、その受け取った画像情報100から、変形検知領域作成部130で作成した変形検知領域2100の画像情報100を抽出する(ステップS106)。そして、物体認識部140の特徴量抽出部142は、検知領域画像抽出部141が抽出した画像情報100を用いて、認識アルゴリズムに応じた所定の特徴量の抽出を行う(ステップS107)。
【0065】
続いて、物体認識部140の認識処理部143は、特徴量抽出部142が抽出した特徴量を用いて認識処理を行い(ステップS108)、その処理結果が認識対象であるか否かを判定する(ステップS109)。ここでは、認識対象である人物であるか否かを、認識処理部143が判定する。
【0066】
次に、ステップS109において、認識処理部143が、認識対象(人物)であると判定した場合(ステップS109→Yes)、認識処理部143は、その情報を出力処理部150に引き渡す。
そして、出力処理部150は、出力部50を介して、不図示の表示装置に表示された監視画像2000に、認識結果を出力する(ステップS110)。ここでは、出力処理部150は、例えば、監視画像2000の変形検知領域2100を赤枠等で示し、人物が認識されたことを表示する。また、出力処理部150は、監視画像2000に加えて、監視空間1000をシミュレーションした画面に、認識対象(人物)が含まれる検知領域(矩形領域)1100を枠として表示させるようにしてもよい。そして、次のステップS111へ進む。
【0067】
一方、ステップS109において、認識処理部143が、認識対象(人物)であると判定しなかった場合は(ステップS109→No)、次のステップS111へ進む。
【0068】
ステップS111において、物体認識部140(認識処理部143)は、監視空間1000における監視領域の位置座標(ここでは、認識対象の人物の足元座標)のすべての処理を終了したか否かを判定する。
【0069】
ここで、まだ処理していない監視領域の位置座標がある場合には(ステップS111→No)、ステップS104に戻り、次の監視領域の位置座標を1つ選択して処理を続ける。一方、監視領域のすべての位置座標での処理を終了した場合には(ステップS111→Yes)、物体認識処理を終了する。
【0070】
このようにすることで、本発明の第1の実施形態に係る物体認識装置1(1a)は、監視画像2000上の変形検知領域2100を用いて、人物や物体の歪み等の変形に適合する形で、特徴量を抽出することができ、認識精度を向上させることができる。
【0071】
≪第2の実施形態:物体認識装置の認識範囲特定処理≫
次に、本発明の第2の実施形態に係る物体認識装置1(1b)(図7参照)の認識範囲特定処理について説明する。本発明の第2の実施形態に係る物体認識装置1(1b)は、監視空間情報200内に監視空間1000における物体の配置を示す監視環境情報230を備え、制御部10内に設けられた認識範囲特定部160が、認識対象が存在し得ない領域を除外して、物体認識処理にとって有効な認識範囲を特定する。このようにすることで、変形検知領域作成部130は、監視空間1000内の監視領域のすべての位置座標を処理せずに、認識範囲特定部160が特定した認識範囲について、検知領域(矩形領域)1100を変形検知領域2100に変換すればよい。
【0072】
図7は、本発明の第2の実施形態に係る物体認識装置1(1b)の構成例を示す機能ブロック図である。図7に示す物体認識装置1(1b)は、図1に示す物体認識装置1(1a)の構成に加えて、記憶部20の監視空間情報200内に、監視環境情報230を備え、また、制御部10内に、認識範囲特定部160を備えている。
【0073】
監視環境情報230は、監視空間1000における物体に配置を示す情報である。例えば、監視空間1000が屋外であれば、壁面や、路面、建物(ビル、家屋)等の配置を示し、屋内であれば、壁面や、通路、机、ロッカー等の配置を示す情報である。
この監視環境情報230は、例えば、表計算ソフトや、CAD等の3D設計ツール、地図システム(ナビゲーションシステム)、GPS(Global Positioning System)等を利用して予め作成され、記憶部20の監視空間情報200に記憶される。
【0074】
次に、認識範囲特定部160は、監視環境情報230を用いて、監視空間1000において、認識対象が存在し得ない領域を除外して、物体認識処理にとって有効な認識範囲を特定する。
【0075】
図8は、本発明の第2の実施形態に係る認識範囲特定部160の構成を示す機能ブロック図である。
図8に示すように、認識範囲特定部160は、監視空間環境作成部161と、画像環境変換部162と、認識範囲区別部163とを含んで構成される。
【0076】
監視空間環境作成部161は、監視空間情報取得部120から受け取った監視環境情報230を用いて、監視空間1000内の壁面や路面等の物体に配置を、世界座標として算出する。
【0077】
画像環境変換部162は、カメラ情報220を監視空間情報取得部120から受け取り、監視空間1000内の物体の配置を、カメラ情報220を用いて、監視画像200上の画像座標に変換する。なお、この処理は、本発明の第1の実施形態の画像検知領域変換部132が行う、監視空間1000上の点を、監視画像2000上の画像座標に変換する処理と同様の処理により行うことができる。このようにすることで、カメラ装置の俯角や空間位置等に応じて、監視環境情報230で示される物体の配置を、正しく監視画像2000上に変換することができる。
【0078】
認識範囲区別部163は、画像環境変換部162により変換された監視画像2000上の領域を区別し、認識対象が存在し得ない領域を除外し、物体認識処理にとって有効な認識範囲を特定する。例えば、人物が存在し得ない壁面の領域を、変形検知領域作成部130(画像検知領域変換部132)が、検索する監視空間1000における監視領域の位置座標から除外することで、物体認識装置1(1b)が処理する認識範囲を特定する。そして、認識範囲区別部163は、特定した認識範囲の情報(図8の認識範囲情報400)を、変形検知領域作成部130に引き渡す。
【0079】
図9は、本発明の第2の実施形態に係る認識範囲特定部160が行う認識範囲特定処理を説明するための図である。
図9(a)に示すように、監視空間1000には、壁面71と路面72とが配置されている。認識範囲特定部160の画像環境変換部162は、監視空間1000上の壁面71および路面72の世界座標を、監視画像2000上の画像座標に変換する。そして、認識範囲区別部163は、認識対象が存在し得ない、壁面71等の外側の領域を除外し、図9(b)に示すように、認識対象である人物や物体(例えば、自動車等)が存在する路面72に特定して、物体認識処理を実行する。
【0080】
(物体認識装置の認識範囲特定処理)
次に、本発明の第2の実施形態に係る物体認識装置1(1b)が行う認識範囲特定処理について具体的に説明する。
図10は、本発明の第2の実施形態に係る物体認識装置1(1b)が行う認識範囲特定処理の流れを示すフローチャートである。
【0081】
なお、この認識範囲特定処理は、図6に示した物体認識処理全体のうち、ステップS103での変形検知領域作成部130による検知領域作成処理の次に実行され、ステップS104において、変形検知領域作成部130が監視領域の位置座標を選択する範囲を限定するための処理である。
【0082】
先ず、認識範囲特定部160の監視空間環境作成部161は、記憶部20内の監視空間情報200から、監視環境情報230を、監視空間環境取得部120を介して受け取る。そして、監視空間情報作成部161は、監視環境情報230の監視空間1000における壁面や、路面、建物(屋外の場合)、壁面や、通路、机、ロッカー(屋内の場合)等の監視空間1000内の物体の配置を世界座標として算出する(ステップS201)。
【0083】
次に、認識範囲特定部160の画像環境変換部162は、カメラ情報220を監視空間情報取得部120から受け取り、ステップS201で算出した監視空間1000内の物体の配置を、カメラ情報220を用いて、監視画像2000上の画像座標に変換する(ステップS202)。
【0084】
続いて、認識範囲特定部160の認識範囲区別部163は、監視画像2000上に変換された物体の配置をその物体が監視画像2000上に占める領域として区別し、認識対象が存在し得ない領域を除外し(図9参照)、物体認識処理にとって有効な認識範囲(領域)を特定する(ステップS203)。
【0085】
このようにすることで、図6のステップS104およびS105において、変形検知領域作成部130は、監視領域の位置座標を選択する範囲を、監視画像2000上で特定された認識範囲(認識範囲情報400)に対応した、監視空間1000上での位置に限定して、変形検知領域2100を作成することができる。
よって、本発明の第2の実施形態に係る物体認識装置1(1b)によれば、監視環境情報230を用いて、認識範囲を特定することにより、物体認識装置1の処理負荷を低減できる。また、監視が不必要な領域での認識処理を行わないことにより、物体認識処理の誤検出の可能性を低下させることができる。
【0086】
≪第3の実施形態:物体認識装置の人物認識処理≫
次に、本発明の第3の実施形態に係る物体認識装置1について説明する。本発明の第3の実施形態に係る物体認識装置1は、本発明の第1の実施形態に係る物体認識装置1(1a)の物体認識処理に加えて、物体認識部140(140c)(図11参照)において、変形検知領域作成部130が作成した変形検知領域2100の画像情報100を、識別器や認識アルゴリズムに適合する形に変換して正規化し、その正規化した画像情報100を用いて特徴量の抽出を行うことを特徴とする。
【0087】
本発明の第3の実施形態に係る物体認識装置1全体の構成は、図1に示した本発明の第1の実施形態に係る物体認識装置1(1a)の構成と同じである。ここでは、物体認識装置1(1a)と同じ機能を有する構成は、同一の名称と符号を付し、説明を省略する。
【0088】
図11は、本発明の第3の実施形態に係る物体認識部140(140c)の構成を示す機能ブロック図である。図5に示した本発明の第1の実施形態に係る物体認識部140(140a)との違いは、検知領域画像抽出部141と特徴量抽出部142との間に、領域正規化部144が設けられ、認識処理部143の代わりに、人物検出部145が設けられていることである。
【0089】
領域正規化部144は、検知領域画像抽出部141が抽出した変形検知領域2100の画像情報100を、識別器や認識アルゴリズムに適合する形、例えば矩形に透視投影変換を行い正規化する。
【0090】
人物検出部145は、特徴量抽出部142が抽出した特徴量に基づいて、学習サンプルから生成した識別器等により、人物か否かを判定する。そして、人物検出部145は、人物であると判定した場合には、その処理結果として、監視画像2000上に、矩形に変換され正規化された人物検知領域を出力処理部150に出力する。
【0091】
(物体認識装置の人物認識処理)
次に、本発明の第3の実施形態に係る物体認識装置1が行う人物認識処理について、図12および図13を参照して詳細に説明する。
図12は、本発明の第3の実施形態に係る物体認識装置1が行う人物認識処理の流れを示すフローチャートである。図13は、本発明の第3の実施形態に係る人物認識処理の流れを説明するための図である。
【0092】
図12のフローチャートにおいて、図6に示した物体認識処理のステップS101〜S105までの処理(変形検知領域の作成処理)は、第1の実施形態と同様であるため、同一のステップ番号を付し説明は省略する。ここでは、第3の実施形態に係る物体認識装置1の物体認識部140(140c)が行うステップS301以降の処理について説明する。
【0093】
図12に示すように、変形検知領域作成部130により、変形検知領域2100が作成されると(ステップS103〜S105)、物体認識部140(140c)の検知領域画像抽出部141は、画像取得部110からカメラ装置等による画像情報100を受け取り、その受け取った画像情報100から、変形検知領域作成部130で作成した変形検知領域2100の画像情報100を抽出する(ステップS301:図13のS301参照)。
【0094】
次に、物体認識部140(140c)の領域正規化部144は、検知領域画像抽出部141で抽出した画像情報100を、識別器や認識アルゴリズムに適合する形(例えば、矩形)に透視投影変換し、正規化する(ステップS302:図13のS302参照)。
【0095】
続いて、物体認識部140(140c)の特徴量抽出部142は、正規化された画像情報100を用いて、認識アルゴリズムに応じた所定の特徴量の抽出を行う(ステップS303:図13のS303参照)。例えば、特徴量抽出部142は、正規化された画像情報100から識別器が利用するHOGや、Haar-Like特徴、色情報等の特徴量を抽出する。
【0096】
そして、物体認識部140(140c)の人物検出部145は、特徴量抽出部142が抽出した特徴量を用いて認識処理を行い(ステップS304:図13のステップS304参照)、その処理結果として認識対象が人物であるか否かを判定する(ステップS305)。例えば、人物検出部145は、学習サンプルから作成した識別器により、人物と人物以外とを認識する。
【0097】
次に、ステップS305において、人物検出部145が、人物であると判定した場合(ステップS305→Yes)、人物検出部145は、その情報を出力処理部150に引き渡す。
そして、出力処理部150は、出力部50を介して、不図示の表示装置に表示された監視画像2000に、認識結果を出力する(ステップS306)。ここでは、出力処理部150は、例えば、監視画像2000の変形検知領域2100を赤枠等で示し、人物が認識されたことを表示する。また、出力処理部150は、監視画像2000に加えて、監視空間1000をシミュレーションした画面に、認識対象(人物)が含まれる検知領域(矩形領域)1100を枠として表示させるようにしてもよい。そして、次のステップS307へ進む。
【0098】
一方、ステップS305において、人物検出部145が、人物であると判定しなかった場合は(ステップS305→No)、次のステップS307へ進む。
【0099】
ステップS307において、物体認識部140(人物検出部145)は、監視空間1000における監視領域の位置座標(認識対象の人物の足元座標)のすべての処理を終了したか否かを判定する。
【0100】
ここで、まだ処理していない監視領域の位置座標がある場合には(ステップS307→No)、ステップS104に戻り、次の監視領域の位置座標を1つ選択して処理を続ける(図13のS104参照)。一方、監視領域のすべての処理を終了した場合には(ステップS307→Yes)、物体認識処理を終了する。
【0101】
このようにすることにより、変形検知領域2100の画像情報100を識別器や認識アルゴリズムに適合する形(例えば、矩形)に透視投影変換し正規化した画像情報100を用いて、人物の特徴量を抽出できる。よって、人物認識率を向上させることができる。
【0102】
なお、本発明の第3の実施形態に係る人物認識処理において、本発明の第2の実施形態に係る認識範囲特定部160を制御部10内に設け、図12に示したステップS104の次に、認識範囲特定部160が、監視領域の位置座標を選択する範囲を、認識対象が存在しない領域を除外した認識範囲に限定するようにしてもよい。
【0103】
≪第4の実施形態:物体認識装置の人物カウント処理≫
次に、本発明の第4の実施形態に係る物体認識装置1について説明する。本発明の第4の実施形態に係る物体認識装置1は、物体認識装置を用いて人の入退室等の人数を数える人物カウント処理を行うことを特徴とする。
【0104】
本発明の第4の実施形態に係る物体認識装置1全体の構成は、図1に示した本発明の第1の実施形態に係る物体認識装置1(1a)の構成と同じである。ここでは、物体認識装置1(1a)と同じ機能を有する構成は、同一の名称と符号を付し、説明を省略する。
【0105】
図14は、本発明の第4の実施形態に係る物体認識部140(140d)の構成を示す機能ブロック図である。図5に示した本発明の第1の実施形態に係る物体認識部140(140a)との違いは、物体認識部140(140a)が備える、検知領域画像抽出部141、特徴量抽出部142、および認識処理部143に加えて、移動方向認識部146と、入退室判定部147とを備えていることである。
なお、本発明の第4の実施形態に係る認識処理部143は、学習サンプルにより生成した識別器を用いる認識方法により人物を識別する。さらに、認識処理部143は、特徴量抽出部142が抽出した特徴量に基づき、その人物の頭部の検出処理を行うようにすることもできる。また、認識処理部143は、この学習サンプルにより生成した識別器を用いる識別方法に加えて、テンプレート照合や、頭部、顔、肌色、作業服の色や模様等を用いて人物認識を行うようにしてもよい。
【0106】
移動方向認識部146は、認識処理部143が認識した人物の移動方向を判定する。移動方向認識部146は、この移動方向の判定を、例えば、認識された人物の頭部の方向(顔の向き)に基づき判定することができる。また、「Cheng Chan, “Multiple object tracking with kernel particle filter”, Computer Vision and Pattern Recognition, 2005, IEEE Computer Society Conference, vol.1, pp. 566- 573, 2005」に記載された Particle filter を用いて、人物を追跡し、移動方向や追跡の連続性で判定するようにすることもできる。
【0107】
入退室判定部147は、移動方向認識部146による人物の移動方向の判定に基づき、人物が入室するか退室するかの判定を行う。そして、入退室判定部147は、その判定結果を、出力処理部150に出力する。
【0108】
図15は、本発明の第4の実施形態に係る人物カウント処理を説明するための図である。図15に示すように、カメラ装置84で撮影した監視画像2000を用いて、所定の出入り口80における、入退室する人物数をカウントする。図15に示すように、退室する人数は2人であり、人物81a,81bで表示される。入室する人数は4人であり、人物81c,81d,81e,81fで表示される。本発明の第4の実施形態に係る物体認識装置1の変形検知領域作成部130は、監視物体情報210とカメラ情報220とを用いて、監視画像2000上の人物の形状に合致した変形検知領域2100a,2100b,2100c,2100d,2100e,2100fを作成する。そして、物体認識部140(140d)がその変形検知領域2100a,2100b,2100c,2100d,2100e,2100fの特徴量を抽出し、人物を認識して、移動方向を判定する。そして、物体認識部140(140d)は、移動方向と出入り口80との関係により、人物81の入退室を判定する。入室であれば、入室人数を「+1」増やし、退室であれば退室人数を「+1」増やす。この処理結果が符号82に示すように表示される。また、物体認識部140は、監視画像2000全体に存在する人数を、人物認識の結果として得ることによりカウントし、符号83に示すように、表示させることもできる。
【0109】
(物体認識装置の人物カウント処理)
次に、本発明の第4の実施形態に係る物体認識装置1が行う人物カウント処理について具体的に説明する。
図16は、本発明の第4の実施形態に係る物体認識装置1が行う人物カウント処理の流れを示すフローチャートである。
本発明の第4の実施形態に係る人物カウント処理は、物体認識部140(140d)が、頭部の特徴量を用いて、人物が存在するか否かを判定し、さらに、頭部の方向(顔の向き)により、人物が入室するか退室するかを判定するものとして説明する。
【0110】
先ず、図6に示した物体認識処理のステップS101〜S105までの処理(変形検知領域の作成処理)は、第1の実施形態と同様であるため、同一のステップ番号を付し説明を省略する。ここでは、第4の実施形態に係る物体認識装置1の物体認識部140(140d)が行う処理について説明する。
【0111】
図16に示すように、変形検知領域作成部130により、変形検知領域2100が作成されると(ステップS105)、物体認識部140(140d)の検知領域画像抽出部141は、画像取得部110から監視カメラ等の画像情報100を受け取り、その受け取った画像情報100から、変形検知領域作成部130で作成した変形検知領域2100の画像情報100を抽出する(ステップS401)。
【0112】
そして、物体認識部140(140d)の特徴量抽出部142は、検知領域画像抽出部141が抽出した画像情報100を用いて、認識アルゴリズムに応じた所定の特徴量の抽出する(ステップS402)。
【0113】
続いて、物体認識部140(140d)の認識処理部143は、特徴量抽出部142が抽出した特徴量を用いて認識処理を行う(ステップS403)。具体的には、認識処理部143は、抽出した特徴量を用いて、人物を認識し、その人物の頭部を検出する。
【0114】
次に、ステップS404において、認識処理部143が、認識対象となる人物の頭部があると判定した場合(ステップS404→Yes)、認識処理部143は、その情報を移動方向認識部146に引き渡し、次のステップS405へ進む。一方、認識処理部143が、人物の頭部がないと判定した場合は、(ステップS404→No)、ステップS409へ進む。
【0115】
次に、ステップS404において、認識処理部143が、人物の頭部があると判定した場合(ステップS404→Yes)、移動方向認識部146は、その頭部の方向(顔の向き)を検出する(ステップS405)。そして、入退室判定部147が、その検出結果として顔の向きから移動方向を判定し(ステップS406)、正面と判定した場合には(ステップS406→Yes)、入室人数を「+1」増やす(ステップS407)。一方、入退室判定部147が、顔の向きを後ろ向き(正面でない)と判定した場合には(ステップS406→No)、退室人数を「+1」増やす(ステップS408)。
そして、ステップS407およびステップS408の処理を終えると、入退室判定部147は、次のステップS409へ進む。
【0116】
ステップS409において、入退室判定部147は、監視空間1000における監視領域の位置座標(ここでは、認識対象の人物の足元座標)のすべての処理を終了したか否かを判定する(ステップS409)。ここで、まだ処理していない監視領域がある場合には(ステップS409→No)、ステップS104に戻り、次の監視領域を1つ選択して処理を続ける。一方、監視領域のすべての処理を終了した場合には(ステップS409→Yes)、次のステップS410へ進む。
【0117】
ステップS410において、出力処理部150は、出力部50を介して、不図示の表示装置に表示された監視画像2000に、処理結果を出力する。ここでは、出力処理部150は、例えば、ステップS105で作成した監視画像2000の変形検知領域2100について、例えば、入室人物を赤枠で示し、退室人物を青枠で表示する。また、出力処理部150は、監視画像2000に加えて、監視空間1000をシミュレーションした画面に、認識対象(人物)が含まれる検知領域(矩形領域)1100のうち、例えば、入室人物の検知領域1100を赤枠で表示させ、退室人物の検知領域1100を青枠で表示させるようにしてもよい。そして、出力処理部150は、ステップS407およびステップS408で算出した、入室人数や退室人数等を画面上に表示させて処理を終える。
【0118】
このように、監視画像2000上の変形検知領域2100を作成することにより、画像上での人物の歪んだ外形に合致した領域の画像情報100を抽出することができ、人物の入退室をより正確に判定し、人物カウントの性能を向上させることができる。
【0119】
なお、本発明の第2の実施形態の構成、および本発明の第3の実施形態の構成を、人物カウント処理に用いることも可能である。第2の実施形態の認識範囲特定部160によれば、物体認識装置1の処理負荷が低減される。また、第3の実施形態の物体認識部140(140c)によれば、人物カウントの性能をさらに向上させることができる。
また、第2の実施形態に係る監視環境情報230を用いて、図15に示す出入り口80に認識範囲を限定して、人物カウント処理を実行すれば、その出入り口80を通過する入退室者の人数を把握することもできる。
【0120】
≪第5の実施形態:物体認識装置の人物追跡処理≫
次に、本発明の第5の実施形態に係る物体認識装置1(1e)による人物追跡処理について説明する。本発明の第5の実施形態に係る物体認識装置1(1e)は、時系列の画像情報100を用いて、所定の人物をフレーム間で追跡(同一人物と連続して認識)するものである。
【0121】
図17は、本発明の第5の実施形態に係る物体認識装置1(1e)の構成例を示す機能ブロック図である。図17に示す物体認識装置1(1e)は、図1に示す物体認識装置1(1a)の構成に加えて、制御部10内に、追跡変形検知領域作成部170および追跡物体認識部180を備える。
【0122】
本発明の第5の実施形態に係る物体認識装置1(1e)は、追跡変形検知領域作成部170が、1つ前のフレームの画像情報100において、認識対象となる人物が認識された監視空間1000上の位置(後記する前フレーム人物空間位置92)を特定し、その前フレーム人物空間位置92の近傍の所定の位置に複数の追跡検知領域1101を作成する(図18(a)参照)。そして、追跡変形検知領域作成部170は、監視空間1000上の複数の追跡検知領域1101それぞれを、監視画像2000上の追跡変形検知領域2101に変換する。そして、追跡物体認識部180が、追跡変形検知領域2101の画像情報100から特徴量を抽出し、前フレームで特定した人物の特徴量と一致する場合に、同一人物がそのフレームに存在すると判定し、その人物が監視空間1000上のその追跡検知領域1101の位置に存在することが検出される。そして、この処理をフレームが終了するまで繰り返す。図18(b)は、最初のフレーム(f)の監視画像2000上で変形検知領域2100が特定され、人物追跡処理により特徴量が一致し同一人物と判定される人物91を、次のフレーム(f)から最後のフレーム(f)まで、追跡することを示している。
以下、図1の物体認識装置1(1a)と同じ構成については、同一の名称と符号を付し、説明を省略する。
【0123】
図17に戻り、追跡変形検知領域作成部170は、認識対象の人物を検知した監視画像2000上の位置に対応した監視空間1000上の監視領域の位置座標に基づき、認識対象となる人物の空間位置(前フレーム人物空間位置92)を特定する。そして、追跡変形検知領域作成部170は、監視空間1000の前フレーム人物空間位置92の近傍の所定の位置に複数の追跡検知領域1101を作成する。続いて、追跡変形検知領域作成部170は、作成した複数の追跡検知領域1101それぞれを、カメラ情報220を用いて、監視画像2000上の追跡変形検知領域2101に変換する。
【0124】
追跡物体認識部180は、前フレームで特定した人物と特徴量が一致するか否かを判定し、同一人物であると判定した場合には、認識対象の人物の監視画像2000上での追跡変形検知領域2101を特定する。そして、追跡物体認識部180は、その情報を出力処理部150に出力する。
【0125】
図19は、本発明の第5の実施形態に係る追跡物体認識部180の構成を示す機能ブロック図である。
図19に示すように、追跡物体認識部180は、追跡検知領域画像抽出部181と、特徴量抽出部142(142e)と、人物特定部182とを含んで構成される。
【0126】
追跡検知領域画像抽出部181は、追跡変形検知領域作成部170が作成した複数の追跡変形検知領域2101のうちの1つを選択し、そのフレームの画像情報100から、選択した追跡変形検知領域2101の画像情報100を抽出する。
【0127】
特徴量抽出部142(142e)は、追跡変形検知領域2101の画像情報100から、特徴量を抽出する。この特徴量の抽出は、例えば、色のヒストグラム、SIFT(Scale-Invariant Feature Transform)、HOG等の特徴量を利用することができる。
【0128】
人物特定部182は、前フレームで抽出された人物の特徴量と、当該フレームで特徴量抽出部142(142e)が抽出した特徴量とを比較し、一致するか否かを判定する。そして、人物特定部182は、前フレームと当該フレームの特徴量が一致する場合には、同一人物であるとして、その追跡変形検知領域2101の情報を、出力処理部150に出力する。
【0129】
(物体認識装置の人物追跡処理)
次に、本発明の第5の実施形態に係る物体認識装置1(1e)が行う人物追跡処理について具体的に説明する。
図20および図21は、本発明の第5の実施形態に係る物体認識装置1(1e)が行う人物追跡処理の流れを示すフローチャートである。
【0130】
先ず、図20に示すように、図6に示したステップS101〜S103と同様の処理を行い、追跡対象となる人物の監視空間1000での検知領域(矩形領域)110を作成する。
【0131】
次に、変形検知領域作成部130は、画像取得部110が取得した画像情報100から最初のフレームの画像情報100を読み込む(ステップS501)。
【0132】
続いて、変形検知領域作成部130および物体認識部140が、図6のステップS104〜S111までの認識対象の物体認識処理を行う(ステップS502)。
【0133】
そして、物体認識部140の認識処理部143により、認識対象の人物が検知されたか否かを判定する(ステップS503)。認識処理部143が認識対象の人物を検知しなかった場合には(ステップS503→No)、変形検知領域作成部130は、次のフレームの画像情報100を読み込み(ステップS504)、ステップS502に戻る。一方、認識処理部143が認識対象の人物を検知した場合には(ステップS504→Yes)、その情報を、追跡変形検知領域作成部170に引き渡す。
【0134】
図21に進み、ステップS505において、追跡変形検知領域作成部170は、ステップS502の処理で、認識処理部143が認識対象の人物を検知した監視空間1000における監視領域の位置情報に基づき、認識対象となる人物の空間位置(前フレーム人物空間位置92)を特定する(ステップS505)。
【0135】
次に、追跡変形検知領域作成部170は、次のフレームの画像情報100を読み込む(ステップS506)。
【0136】
続いて、追跡変形検知領域作成部170は、監視空間1000の前フレーム人物空間位置92の所定の位置に複数の追跡検知領域1101を作成する(ステップS507)。そして、追跡変形検知領域作成部170は、作成した複数の追跡検知領域1101を、カメラ情報220を用いて、監視画像2000上の追跡変形検知領域2101に変換する(ステップS508)。
【0137】
次に、追跡物体認識部180の追跡検知領域画像抽出部181は、追跡変形検知領域作成部170で作成した複数の追跡変形検知領域2101のうちの1つを選択する(ステップS509)。
【0138】
続いて、追跡検知領域画像抽出部181は、そのフレームの画像情報100から、選択した追跡変形検知領域2101の画像情報100を抽出する(ステップS510)。
【0139】
次に、追跡物体認識部180の特徴量抽出部142(142e)は、追跡検知領域画像抽出部181が抽出した追跡変形検知領域2101の画像情報100から、特徴量を抽出する(ステップS511)。
【0140】
そして、人物特定部182は、前フレームで抽出された特徴量と、ステップS511で抽出した当該フレームの特徴量とを比較し、特徴量が一致するか否かを判定する(ステップS512)。ここで、特徴量が一致する場合には(ステップS512→Yes)、次にステップS514に進む。一方、特徴量が一致しない場合には(ステップS512→No)、ステップS513に進む。
【0141】
ステップS513において、人物特定部182は、ステップS508で作成した複数の追跡変形検知領域2101すべてを処理したか否かを判定する。そして、まだ処理していない追跡変形検知領域2101がある場合には(ステップS513→No)、ステップS509に戻り、次の追跡変形検知領域2101を選択する。一方、作成した追跡変形検知領域2101のすべてを処理した場合には(ステップS513→Yes)、次にステップS514に進む。
【0142】
ステップS514において、出力処理部150は、人物特定部182から処理結果を受け取り、不図示の表示装置に表示された監視画像2000に、認識結果を出力する(ステップS514)。ここでは、出力処理部150は、特徴量が前フレームの特徴量と一致する場合には(ステップS512→Yes)、例えば、監視画像2000の追跡変形検知領域2101を赤枠等で示し、前のフレームと同じ人物が認識されたことを表示する。また、出力処理部150は、監視画像2000に加えて、監視空間1000をシミュレーションした画面に、認識対象(人物)が含まれる追跡検知領域1101を枠として表示させるようにしてもよい。一方、出力処理部150は、特徴量が前フレームの特徴量と一致する追跡変形検知領域2101が存在しない場合には(ステップS512→No,ステップS513→Yes)、監視画像2000に追跡変形検知領域2101を表示しない。
【0143】
次に、追跡変形検知領域作成部170は、画像取得部110が取得した画像情報100のすべてのフレームを処理したか否かを判定する(ステップS515)。そして、まだ処理していないフレームがある場合には(ステップS515→No)、ステップS505に戻り、処理を続ける。ここで、追跡変形検知領域作成部170は、ステップS512において、当該フレームの特徴量が前フレームの特徴量と一致する場合には、当該フレームにおける監視画像2000の追跡変形検知領域2101に対応する監視空間1000の追跡検知領域1101を、前フレーム人物空間位置92に置き換えて、ステップS506以降の処理を続ける。また、追跡変形検知領域作成部170は、特徴量が前フレームの特徴量と一致する追跡変形検知領域2101が存在しない場合には(ステップS513→Yes)、前フレームで特定した前フレーム人物空間位置92の情報を更新せず、ステップS506以降の処理を続ける。一方、追跡変形検知領域作成部170は、すべてのフレームを処理したと判定した場合には(ステップS515→Yes)、処理を終える。
【0144】
このようにすることで、監視空間情報200に基づき各フレームで人物の歪みに応じた検知領域1100を作成することにより、追跡用の特徴量を正しく抽出することができるようになるため、人物追跡の性能を向上させることができる。
【符号の説明】
【0145】
1 物体認識装置
10 制御部
20 記憶部
30 メモリ部
40 入力部
50 出力部
92 前フレーム人物空間位置
110 画像取得部
120 監視空間情報取得部
130 変形検知領域作成部
131 監視空間検知領域作成部
132 画像検知領域変換部
140 物体認識部
141 検知領域画像抽出部
142 特徴量抽出部
143 認識処理部
144 領域正規化部
145 人物検出部
146 移動方向認識部
147 入退室判定部
150 出力処理部
160 認識範囲特定部
161 監視空間環境作成部
162 画像環境変換部
163 認識範囲区別部
170 追跡変形検知領域作成部
180 追跡物体認識部
181 追跡検知領域画像抽出部
182 人物特定部
200 監視空間情報
210 監視物体情報
220 カメラ情報
1000 監視空間
1100 検知領域(矩形領域)
1101 追跡検知領域
2000 監視画像
2100 変形検知領域
2101 追跡変形検知領域

【特許請求の範囲】
【請求項1】
監視空間を撮影した画像情報を表示する監視画像上に認識対象が存在するか否かを判定する物体認識装置であって、
前記認識対象となる物体自身の前記監視空間での大きさに関する情報が格納される監視物体情報、および、前記監視空間を撮影するカメラ装置の空間位置や特性を示すパラメータが格納されるカメラ情報が記憶される記憶部と、
前記画像情報を取得する画像取得部と、
前記監視物体情報を用いて、前記監視空間上に前記認識対象の大きさが含まれる領域を示す検知領域を作成し、前記作成した検知領域を、前記カメラ情報に基づき、前記監視画像上での前記認識対象の領域を示す変形検知領域に変換する変形検知領域作成部と、
前記監視画像における前記変形検知領域の前記画像情報について、前記認識対象の特徴量を抽出し、前記抽出した特徴量を用いて、前記認識対象が存在するか否かを判定する物体認識部と、
前記認識対象が存在すると判定された場合に、前記変形検知領域を表示装置に出力する出力処理部と、
を備えることを特徴とする物体認識装置。
【請求項2】
前記記憶部には、さらに、前記監視空間における物体の配置を示す監視環境情報が記憶されており、
前記監視環境情報を参照して、前記監視空間において、前記認識対象が存在し得ない領域を除外して、前記認識対象が存在する前記監視画像の領域を特定する認識範囲特定部をさらに備え、
前記変形検知領域作成部は、前記認識範囲特定部が特定した前記監視画像の領域に対応する前記監視空間の領域において、前記検知領域を作成すること
を特徴とする請求項1に記載の物体認識装置。
【請求項3】
前記物体認識部は、
前記変形検知領域の前記画像情報について、前記カメラ装置の前記パラメータに基づく変形を正規化することにより修正し、前記正規化した画像情報を用いて、前記特徴量を抽出すること
を特徴とする請求項1または請求項2に記載の物体認識装置。
【請求項4】
前記物体認識部は、
前記抽出した特徴量を用いて、前記認識対象が人物であるか否かを判定し、前記認識対象が人物である場合に、当該人物が所定の移動方向を向いているか否かを判定し、前記所定の移動方向に向いていると判定した人物の数をカウントすること
を特徴とする請求項1ないし請求項3のいずれか1項に記載の物体認識装置。
【請求項5】
前記物体認識部が前記認識対象が存在すると判定した前記監視画像の前記変形検知領域に対応する前記監視空間の検知領域を示す前フレーム人物空間位置を特定し、前記特定した前記前フレーム人物空間位置の近傍の所定の領域に、前記検知領域と同じ前記認識対象の大きさが含まれる複数の追跡検知領域を作成し、前記作成した追跡検知領域それぞれを、前記カメラ情報に基づき、前記監視画像上の追跡変形検知領域に変換する追跡変形検知領域作成部と、
前記監視画像における前記追跡変形検知領域それぞれの前記画像情報について、前記認識対象の特徴量を抽出し、前記認識対象が存在すると判定した前フレームにおいて抽出された前記認識対象の特徴量と一致する場合に、同一の前記認識対象であると判定する追跡物体認識部と、
を備えることを特徴とする請求項1ないし請求項4のいずれか1項に記載の物体認識装置。
【請求項6】
監視空間を撮影した画像情報を表示する監視画像上に認識対象が存在するか否かを判定する物体認識装置の物体認識方法であって、
前記物体認識装置は、
前記認識対象となる物体自身の前記監視空間での大きさに関する情報が格納される監視物体情報、および、前記監視空間を撮影するカメラ装置の空間位置や特性を示すパラメータが格納されるカメラ情報が記憶される記憶部を備えており、
前記画像情報を取得するステップと、
前記監視物体情報を用いて、前記監視空間上に前記認識対象の大きさが含まれる領域を示す検知領域を作成し、前記作成した検知領域を、前記カメラ情報に基づき、前記監視画像上での前記認識対象の領域を示す変形検知領域に変換するステップと、
前記監視画像における前記変形検知領域の前記画像情報について、前記認識対象の特徴量を抽出し、前記抽出した特徴量を用いて、前記認識対象が存在するか否かを判定するステップと、
前記認識対象が存在すると判定された場合に、前記変形検知領域を表示装置に出力するステップと、
を実行することを特徴とする物体認識方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate


【公開番号】特開2012−221437(P2012−221437A)
【公開日】平成24年11月12日(2012.11.12)
【国際特許分類】
【出願番号】特願2011−89729(P2011−89729)
【出願日】平成23年4月14日(2011.4.14)
【出願人】(000005108)株式会社日立製作所 (27,607)
【Fターム(参考)】