説明

異常検知装置

【課題】異常時の静止人物を効果的に検出する。
【解決手段】異常検知装置は、監視領域を撮像した監視画像を順次取得する撮像部20と、前記監視画像を処理する制御部22と、前記制御部が異常を検出すると異常信号を出力する出力部23を具備する。制御部22は、監視画像から人物を検出する人物抽出手段220と、人物を時間的に追跡する人物追跡手段221と、人物について略静止している静止人物を検出する静止人物検出手段223と、静止人物の検出中に、当該静止人物を検出したとき既に追跡中となっているその他の人物が追跡できなくなると異常を検出する異常検出手段225と、を有する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、撮像された監視画像を画像解析することにより、監視空間内で発生した異常シーンを検知する異常検知装置に関して、特に複数の人物が関与した異常事態を検知するものに関する。
【背景技術】
【0002】
従来より、各種犯罪について監視カメラ映像から検出したいという要求がある。例えば、強盗犯が有人店舗などに押し入り、金庫に保管されている金品の強奪を試みる際に、店舗の従業員等による外部への通報や抵抗をおそれるあまり、従業員に対して攻撃を与えたり、手足をロープや粘着テープで拘束したりすることで身体の自由を奪うことがある。
【0003】
このように身体の自由を奪われた従業員等の被害者は、犯行後、店舗内に放置されることになるため、通報が遅れることによる強盗事件発生の発覚遅れや、怪我をした被害者の救護遅れなどが危惧される。
【0004】
このため、被害者が上記のような通報操作できない状態であることを自動的に検知し、通報を行う異常検知装置の提案が望まれている。
【0005】
このような異常事態については、監視カメラで得られた画像より得られる被害者の行動から検出することが考えられる。しかし、上記のような被害者の存在を画像処理による行動解析によって検出する場合、被害者がとった行動であるのか、平常時の人物がとった行動であるのかを精度よく識別する必要がある。
【0006】
特許文献1には、異常な行動をとった人物と通常の行動をとった人物とを識別する方法として、「通常の行動パターン」および「異常な行動パターン」を予め記憶し、それらと監視画像中の人物の行動パターンを比較することで、当該人物の行動が正常であるか異常であるかを識別する装置が開示されている。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】特開2004−328622号公報
【発明の概要】
【発明が解決しようとする課題】
【0008】
しかしながら、押し込み強盗によって被害者が拘束される等して、監視空間に放置されたことを検知するとき、被害者のみの行動から異常/正常を識別することが困難な場合がある。例えば、押し込み強盗によって中腰で拘束され動けなくなった人物と中腰で通常に作業をしている人物を識別する場合、これらの人物の行動は共に「中腰状態で動かない」というものになり、これらを識別することは困難である。
【0009】
本発明は、身体の自由を奪われ、その後放置された被害者を精度よく検知する異常検知装置の提供を目的とする。
【課題を解決するための手段】
【0010】
本発明は、監視領域を撮像した監視画像を順次取得する画像取得部と、前記監視画像を処理する制御部と、前記制御部が異常を検出すると異常信号を出力する出力部を具備する異常検知装置であって、前記制御部は、前記監視画像から人物を検出する人物検出手段と、前記人物を時間的に追跡する人物追跡手段と、前記人物について略静止している静止人物を検出する静止人物検出手段と、前記静止人物の検出中に、当該静止人物を検出したとき既に追跡中となっているその他の人物が追跡できなくなると異常を検出する異常検出手段と、を有することを特徴とする。
【0011】
また、人物の外形に対応する人物モデルを記憶する記憶部と、前記人物と前記人物モデルを比較して、当該人物が立位姿勢でないことを検出する姿勢検出手段と、をさらに有し、前記静止人物検出手段は、前記立位姿勢でない人物について前記静止人物を検出することが好適である。
【0012】
また、前記異常検出手段は、前記監視画像から前記その他の追跡中の人物を所定時間以上検出できないと前記その他の人物が追跡できなくなったとすることが好適である。
【0013】
また、前記異常検出手段は、前記その他の追跡中の人物と前記静止人物が静止と検出する前に接触したか否かを判定し、接触していると前記異常を検出することが好適である。
【0014】
また、前記監視領域内に予め設定した重要エリアを記憶する記憶部をさらに有し、前記異常検出手段は、前記その他の追跡中の人物が前記重要エリアに入ったか否かを判定し、入っていると前記異常を検出することが好適である。
【発明の効果】
【0015】
本発明によれば、監視領域内にいる人物が静止状態を継続する人物を残したまま、逃走したことを検出することで、正常な動作として静止している人物と押し込み強盗などによって拘束され放置された人物を区別することが可能である。これにより、放置人物をより正確に検出することができ、誤った異常報知を防止することができる。
【図面の簡単な説明】
【0016】
【図1】監視空間のイメージと異常検知装置の構成を示した模式図である。
【図2】異常検知装置の構成を示すブロック図である。
【図3】姿勢別人物モデルのうち、立位モデルを示す図である。
【図4】姿勢別人物モデルのうち、倒位モデルを示す図である。
【図5】姿勢別人物モデルのうち、屈位モデルを示す図である。
【図6】異常検知の動作を示すフローチャートである。
【発明を実施するための形態】
【0017】
以下、本発明の実施形態について、図面に基づいて説明する。
【0018】
「全体構成」
本実施形態に係る異常検知装置を含み、この異常検知装置にて異常シーンを検知して、警備センタ等へ通報する通報システム1について説明する。
【0019】
図1は、通報システム1の構成と配置のイメージを示した模式図である。
【0020】
通報システム1は、異常検知装置2と、コントローラー3と、センタ装置5を含んで構成される。
【0021】
異常検知装置2は、金庫6などの重要物が設置された部屋を監視空間とし、当該部屋の天井に設置される。異常検知装置2は、監視空間にて発生した異常シーンを検知すると異常信号を出力する。
【0022】
異常検知装置2は、通信線を介してコントローラー3に接続され、コントローラー3は電話回線またはインターネット回線等の広域通信網4を介して遠隔地に設置された警備センタ等のセンタ装置5と接続される。異常検知装置2が出力した異常信号はコントローラー3を介してセンタ装置5に送信される。
【0023】
「異常検知装置の構成」
図2は、異常検知装置2の構成を示したブロック図である。異常検知装置2は、撮像部20、記憶部21、出力部23および制御部22を含んで構成されている。
【0024】
なお、図1においては、異常検知装置2を監視領域の天井に設けたが、撮像部20のみを天井に設け、その他の装置は別の場所に設けてもよい。
【0025】
(撮像部20)
撮像部20は、例えばCCD撮像素子などを利用した監視カメラである。この撮像部20は、通常は監視空間(監視領域)の天井に取り付けられている。また、その撮影は、ビデオ撮影のような連続撮影でもよいが、所定の時間間隔で監視領域を順次撮影することが好ましい。撮影された監視空間の監視画像は順次、制御部22へ出力される。監視画像が撮像される時間間隔は例えば1/5秒である。以下、この撮像の時間間隔で刻まれる時間の単位を時刻と称する。本実施形態において、撮像部20は魚眼レンズを備え、その光軸を鉛直下方に向けて設置されており、監視空間である部屋の全体を撮像する。
【0026】
(記憶部21)
記憶部21は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。フラッシュメモリや,ハードディスクなどを利用してもよい。記憶部21は、各種プログラムや各種データを記憶し、制御部22との間でこれらの情報を入出力する。記憶部21において記憶する各種データには、背景差分処理に必要な背景画像210、追跡人物の姿勢判定に必要な姿勢別の人物モデル211が含まれる。なお、撮影された画像をそのままハードディスクなどの大容量記憶装置に記憶しておいてもよい。
【0027】
姿勢別の人物モデル211は人物の姿勢を立位/倒位/屈位の3つに大分し、各姿勢の人物の形状(外形)をモデリングしたものである。姿勢別の人物モデル211には立位モデル211R、倒位モデル211T、屈位モデル211Kが含まれる。
【0028】
この立位モデル211R、倒位モデル211T、屈位モデル211Kを図3、図4、図5に示す。各モデルは、制御部22が、撮像部20において得られた監視画像から人物領域を抽出し、抽出された人物領域に姿勢別の人物モデル211を当て嵌めることで、撮像されている人物の姿勢を推定する際に利用される。
【0029】
立位モデル211Rは立った姿勢の人物の形状(外形)を模した人物モデル211である。本実施形態において立位モデル211Rは、図3に示すように、長軸長L±αLR、短軸長S±αSRの楕円で定義される。光軸を鉛直下方に向けた撮像部20により撮像された監視画像の座標系においては監視画像の中心からの放射線方向が身長方向となる。±αθRは、体の傾きを考慮するための値であり、立位モデル211Rは、その長軸方向を放射線方向から±αθRの範囲内に限定して配置される。すなわち、画像中心から放射方向に対する、長軸方向のずれ(偏位角)が±αθRの範囲内の人物領域が当て嵌められる。
【0030】
長軸長の基準値Lは平均的な身長に応じて設定され、その変動許容範囲±αLRは体格の個人差により生じる誤差等を吸収可能な範囲に設定される。短軸長の基準値Sは平均的な体の幅に応じて設定され、その変動許容範囲±αSRは体の傾きにより生じる誤差や体格の個人差により生じる誤差等を吸収可能な範囲に設定される。長軸の偏位角の変動許容範囲±αθRは体の傾きにより生じる誤差や立位の姿勢の個人差を吸収可能な範囲に設定される。これらの変動許容範囲は立位とみなせる範囲の形状、傾きの範囲を意味している。
【0031】
記憶部21には、立位モデル211Rとして予め上記のように設定された長軸長L、短軸長S、長軸長の変動許容範囲±αLR、短軸長の変動許容範囲±αSR、長軸の偏位角の変動許容範囲±αθRの各数値が記憶されている。なお、人物の像の大きさは撮像部20と人物の位置関係により変わるため、L、Sは監視画像上の位置ごとに設定し、αLR、αSRはL、Sに対する比率として設定するのがよい。
【0032】
倒位モデル211Tは倒れている姿勢の人物の形状(外形)を模した人物モデル211である。本実施形態において倒位モデル211Tは、図4に示すように、長軸長L±αLT、短軸長S±αSTの楕円で定義される。±αθTは体の傾きを考慮するための値であり、光軸を鉛直下方に向けた撮像部20により撮像された監視画像の座標系において倒位モデル211Tはその長軸方向を放射線の法線方向から±αθTの範囲内に限定して配置される。
【0033】
長軸長の基準値Lは平均的な身長に応じて設定され、その変動許容範囲±αLTは体格の個人差により生じる誤差等を吸収可能な範囲に設定される。短軸長の基準値Sは平均的な体の幅に応じて設定され、その変動許容範囲±αSTは体の傾きにより生じる誤差や体格の個人差により生じる誤差等を吸収可能な範囲に設定される。長軸の偏位角の変動許容範囲±αθTは立位と混同しないように0≦αθT<90°−αθRの範囲に設定される。これらの変動許容範囲は倒位とみなせる範囲の形状、傾きの範囲を意味している。
【0034】
記憶部21には、倒位モデル211Tとして予め上記のように設定された長軸長L、短軸長S、長軸長の変動許容範囲±αLT、短軸長の変動許容範囲±αST、長軸の偏位角の変動許容範囲±αθTの各数値が記憶されている。なお、人物の像の大きさは撮像部20と人物の位置関係により変わるため、L、Sは監視画像上の位置ごとに設定し、αLT、αSTはL、Sに対する比率として設定するのがよい。
【0035】
屈位モデル211Kは屈んだ姿勢の人物の形状(外形)を模した人物モデル211である。本実施形態において屈位モデル211Kは、図5に示すように、長軸長L±αLK、短軸長S±αSKの楕円で定義される。±αθKは、体の傾きを考慮するための値であり、光軸を鉛直下方に向けた撮像部20により撮像された監視画像の座標系において、屈位モデル211Kはその長軸方向を放射線方向から±αθKの範囲内に限定して配置される。すなわち、屈位モデル211Kは、長軸方向が監視画像の放射方向に対し±αθKの範囲内のみに設定される。
【0036】
長軸長の基準値Lは立位モデルの長軸長Lの1/2に設定され、その変動許容範囲±αLKは体格の個人差により生じる誤差等を吸収可能な範囲に設定される。屈位モデル211Kの短軸長の変動許容範囲±αSKは体の傾きにより生じる誤差や体格の個人差により生じる誤差等を吸収可能な範囲に設定される。長軸の偏位角(放射方向からのずれの範囲)の変動許容範囲±αθKは屈んだ姿勢の個人差を吸収可能な範囲に設定される。これらの変動許容範囲は屈位とみなせる範囲の形状、傾きの範囲を意味している。
【0037】
記憶部21には、屈位モデル211Kとして予め上記のように設定された長軸長L、短軸長S、長軸長の変動許容範囲±αLK、短軸長の変動許容範囲±αSK、長軸の偏位角の変動許容範囲±αθKの各数値が記憶されている。なお、人物の像の大きさは撮像部20と人物の位置関係により変わるため、L、Sは監視画像上の位置ごとに設定し、αLK、αSKはL、Sに対する比率として設定するのがよい。
【0038】
(制御部22)
制御部22は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部21からプログラムを読み出して実行することで人物抽出手段220、人物追跡手段221、姿勢検出手段222、静止人物検出手段223、逃走人物検出手段224、異常検出手段225として機能する。
【0039】
ここで、制御部22の各手段については、図6に示す処理フローとともに説明する。
【0040】
(出力部23)
出力部23は、異常信号を異常検知装置の外部へ出力する通信手段である。出力部23は、制御部22の異常検出手段225から異常信号が入力されると、当該異常信号をコントローラー3へ出力する。
【0041】
「異常検知装置2における処理フロー」
図6は、異常検知装置2における異常検出処理を示したフローチャートである。各種のデータ処理は基本的に制御部22において実施される。
【0042】
(S1:初期化)
電源が投入されると、各部が初期化され動作を開始する。初期化には起動直後の監視画像を記憶部21に背景画像210として記憶させる処理を含む。ここで、背景画像については、人が立ち入らない状態において、毎回取得し直すことが好適であるが、ある程度固定的な画面を記憶しておくなど各種の手段を採用することができる。
【0043】
(S2:監視画像取得)
初期化が終了した場合には、監視画像を取得する。すなわち、撮像部20は、監視空間を撮像する度に監視画像を出力し、制御部22はこれを取得する。S2において、現時刻の監視画像が取得され、これが制御部に送られる。
【0044】
(S3:背景差分・ラベリング)
制御部22の人物抽出手段220では、撮像部から送られてきた現時刻における監視画像について背景を除去して、人物領域を抽出し、得られた人物領域をラベリングする。人物抽出手段220は、撮像部20から得られた監視画像と、記憶部21に記憶されている背景画像210を比較し、背景画像210との差分が閾値以上である画素を変化画素として抽出する。なお、差分特徴量として、輝度、色、エッジ強度・方向などを用いることができる。閾値は、事前に決められた規定値を用いてもよいし、動的に変更してもよい。
【0045】
また、差分演算後に正規化相関等による光・影領域の除去、膨張収縮処理によるゴマ塩状ノイズの除去を行うことが望ましい。
【0046】
人物抽出手段220は、変化画素の抽出後、ラベリングを行う。ラベリングは、空間的に接続する画素に同一の番号を振る処理であり、変化画素の塊(集合)ごとに個別の番号が振られることになる。ラベリング後、1つのラベリングがされた領域例えば面積が閾値以下の塊は除去するなど再度ノイズ除去処理を行う。この際の閾値はカメラ設置条件から計算される標準人物サイズなどから決定される。以下、この塊を人物領域と称する。
【0047】
このように、人物抽出手段220は、人物検出手段として機能し、人物領域を抽出することで、監視画像内の人物を検出する。
【0048】
(S4:人物追跡)
人物抽出手段220において得られた人物領域の画像は、人物追跡手段221に送られる。人物追跡手段221は、前時刻までに(前回以前に取得した監視画像において)人物抽出手段220により抽出され、記憶部21に記憶されている各人物領域に関する追跡特徴と、現時刻にて(今回取得した監視画像において)人物抽出手段220により抽出された各人物領域と関連付けることで、人物領域の追跡を実現する。
【0049】
そのために、人物追跡手段221は、監視領域への人物領域の出現が確認される度に、その人物領域の画像特徴を追跡特徴として抽出し、記憶部21に記憶する。そして、記憶部21に記憶されている前時刻までに抽出された人物領域の追跡特徴と、現時刻で抽出された人物領域の追跡特徴を比較し、最も類似していると判断される人物領域と関連付ける。追跡特徴とは、色やエッジのヒストグラム、人物領域の重心位置、外接矩形などである。現時刻で抽出された人物領域が、記憶部21に記憶されている追跡特徴のいずれにも関連付けられなかった場合には、その人物領域は現時刻において新たに出現した人物である、と判定する。
【0050】
記憶部21に記憶されている追跡特徴のうちで、現時刻で抽出された人物領域に関連付けられなかった人物領域がある場合には、その人物領域は、現時刻において入力画像の視野外に移動した、つまりは事務室(監視領域)から退出した人物であると判定し、前時刻の人物領域に退出フラグを立てる。なお、退出した時刻以降において、抽出された人物領域と当該退出した人物が関連付けられたときは、退出した人物が監視領域に戻ってきたと判定し、退出フラグを消去する。
【0051】
(S5:姿勢判定)
次に、姿勢検出手段222は、人物抽出手段220により抽出された人物領域に最も形状が適合する姿勢別の人物モデル211を選出し、選出された姿勢別の人物モデル211に対応する姿勢を人物領域に含まれる人物の姿勢と判定する。なお、複数の人物領域が抽出されている場合、姿勢検出手段222はそれぞれの人物領域に対して姿勢判定を行う。
【0052】
姿勢検出手段222は、人物領域に各人物モデル211を重ね合わせて適合度を算出し、適合度が最も高い姿勢の人物モデル211を選出する。本件では適合度を以下の評価関数で表現する。
(評価関数)=−{(人物領域であって人物モデル領域でない画素)
+γ×(人物モデル領域であって人物領域でない画素)}
【0053】
第1項は、人物領域にも関わらず人物モデルで覆われなかった画素の数、第2項は人物領域でないにも関わらず人物モデルで覆われた画素の数であり、人物領域と人物モデルの適合度をはみ出し画素の数により評価している。評価関数は負の値をとり、その値が大きい方(0に近い方)が人物領域と人物モデルの適合度が高い。
【0054】
γは、第1項と第2項のバランスをとるためのパラメータである。例えば変化画素が抽出されやすいような差分処理の閾値を設定した場合、γの値を大きく設定すればよい。
【0055】
ここで、各人物がとる姿勢は一定ではない上、人物間の位置関係も一定ではなく、また上述したように人物の姿勢には個人差や体の傾きにより生じる誤差等が含まれる。そこで人物領域に対する各姿勢別の人物モデル211の重ね合わせの処理は各パラメータを変更しながら処理を反復し探索的に行われる。但し、リアルタイムで異常検知を行うために、その探索は予め1時刻で処理が終わるように反復回数Nが固定的に規定され、或いは予め1時刻より短い処理時間の規定により反復回数Nが動的に規定される。例えば反復回数Nは1000回と規定される。このとき、限られた反復回数の中で姿勢判定の結果が局所解に陥ることを防ぐために、パラメータの変更をランダムに行うことが好適である。
【0056】
次に、探索時に変更されるパラメータについて説明する。姿勢検出手段222は各人物がとる姿勢が一定ではないことに対応して各姿勢の姿勢別の人物モデル211を複数通り試行する。3種類の姿勢(立位と倒位と屈位)が設定されている本実施形態では、3通りの組み合わせからランダムに選択する。
【0057】
また、姿勢検出手段222は個人差や体の傾きにより生じる誤差に対応して各姿勢の姿勢別の人物モデル211の形状、傾きを変動許容範囲でランダムに微小変更する。形状の変更は長軸長と短軸長を独立して変更することにより行われる。傾きの変更は偏位角を変更することにより行われる。
【0058】
具体的には、姿勢検出手段222は、人物領域内にランダム座標を設定して立位モデル211Rの重心位置Pとし、重心位置Pに応じた長軸長Lと短軸長Sを記憶部21から読み出すとともに許容範囲αLR、αSR、αθRを読み出し、長軸長Lに対して±αLRの範囲でΔLRをランダムに設定し、短軸長Sに対して±αSRの範囲でΔSRをランダムに設定し、長軸偏位角に対して±αθRの範囲でΔθRをランダムに設定する。姿勢検出手段222は、画像中心83と重心位置Pを結ぶ放射線から重心位置Pを中心にΔθRだけ回転した直線を長軸として求め、重心位置Pを中心とし長軸長L+ΔLR、短軸長S+ΔSRの楕円を算出する。
【0059】
同様に、姿勢検出手段222は、倒位モデル211Tの重心位置Pを人物領域内にランダム設定するとともに、変動量ΔLT、ΔST、ΔθTをそれぞれ±αLT、±αST、±αθTの範囲でランダムに設定し、画像中心83と重心位置Pを結ぶ放射線の重心位置Pを通る法線を求め、当該法線から重心位置Pを中心にΔθTだけ回転した直線を長軸とし重心位置Pを中心とする長軸長L+ΔLT、短軸長S+ΔSTの楕円を算出する。
【0060】
さらに、姿勢検出手段222は、上述と同様にして、屈位モデル211Kの重心位置Pを人物領域90内にランダム設定するとともに、変動量ΔLK、ΔSK、ΔθKをそれぞれ±αLK、±αSK、±αθKの範囲でランダムに設定し、画像中心83と重心位置Pを結ぶ放射線から重心位置Pを中心にΔθKだけ回転した直線を長軸とし重心位置Pを中心とする長軸長L+ΔLK、短軸長S+ΔSKの楕円を算出する。
【0061】
この処理により、人物領域に最も適合度の高い人物モデルの姿勢が当該人物領域に含まれる人物の姿勢であると判定する。そして、姿勢検出手段222は、判定結果である人物領域の姿勢を追跡特徴として記憶部21に記憶する。
【0062】
また、人物領域と人物モデルの当て嵌まりのよさを表す上記の評価関数に、時間方向の連続性を導入することもできる。例えば、前時刻の人物モデル領域内の色ヒストグラムを計算しておき、今回の人物モデル領域内の色ヒストグラムとの合致度を上記評価関数に付加して、色がフレーム間で大きく異ならないように楕円を当て嵌めることができる。
【0063】
なお、抽出された1つの人物領域内に複数人物が含まれている場合、人数分だけの人物モデルを各パラメータを変動させながら人物領域に当て嵌めればよい。
【0064】
(S6〜S8:静止判定)
S5において、倒位または屈位姿勢の人物が存在した場合、静止人物検出手段223は、その人物の追跡結果をスキャンバックし、所定時間以上(例えば5分間)に渡ってその姿勢のままで静止状態が継続しているかどうかを判定する。静止人物の判定には以下の基準を用いる。
(i)人物領域の重心位置座標が変化していない(例えば、重心移動量が5画素以下)。
(ii)人物領域の外接矩形の大きさが変化していない(例えば、矩形変化率が5%以下)。
【0065】
(i)、(ii)のいずれに対しても変化分に対する適当な閾値を設定し、差分ノイズ等による微小な変化に過敏にならないようにすることが望ましい。
【0066】
最も単純な判定方法は、一時刻前のフレームにも転倒/屈位姿勢であることを確認した上で、当該フレームから位置と矩形が無変化なことを解析することだが、より安定な検知を実現するために所定時間に渡っての静止を観測することが望ましい。転倒/屈位姿勢が継続しているスパンにおいて追跡結果を遡り、(i)、(ii)の条件を用いてその期間における静止を判定することができる。
【0067】
そして、所定時間以上に渡る静止が観測された場合、S8にて静止人物と判定する。
【0068】
(S9〜S15:逃走人物判定と異常の検出)
S9において、逃走人物検出手段224は、静止人物が存在した場合に、記憶部21の追跡結果を用いて、当該静止人物を除いて過去も含めた全追跡人物領域を順次設定する。そして、設定された静止人物以外の追跡人物領域に対してS10以下の処理を実行する。
【0069】
(S10〜S11:逃走人物の存在確認)
S10において、逃走人物検出手段224は、過去も含めた全人物領域の中から、該人物が静止状態になった時点で存在していた人物領域の存在を確認する。該当する人物領域が存在すればS11へ進み、その人物領域が現在は監視エリアから既に退出しているかを判定する。本実施例では、退出フラグの有無と退出フラグが立った時刻を確認する。このS11の判定において、退出から現時刻までに所定時間以上(例えば1分)が経過している場合に、その人物領域は逃走人物であると判定する。
【0070】
ここで、本実施形態では、さらにS12以降で追加条件をチェックする。
【0071】
(S12〜S13:静止人物との接触と重要物エリアへの立ち入り)
S12において、逃走人物検出手段224は、S11からS12の条件を満たした人物領域(逃走人物)について、監視エリア内に存在したときに静止人物と接触があったことを確認する。特に、静止人物が静止状態となる前に、接触があったかを判定するとよい。この接触したか否かの判断は以下の条件による。
(i)静止人物との距離が一定以下(例えば50センチ)の状態が、所定時間以上(例えば1分)継続した。
【0072】
この条件を満足すれば、静止人物と逃走人物が接触したと判断する。ここで、静止人物の3次元位置は、カメラ設置条件既知のもとで逆透視変換によって計算することができる。例えば前記天井設置の魚眼カメラであれば、人物領域の重心と魚眼中心を結ぶ直線を描き、その直線と人物領域の交点のうち最も魚眼中心に近い点を人物の足元とみなすことができる。足元は床面に存在するものと仮定して、カメラ設置条件を介して3次元空間での足元座標を知ることができる。2つの人物領域について3次元足元座標を計算し、その差分をとれば人物間の実距離がわかる。
【0073】
さらに、接触時の動きに関する条件を追加してもよい。
(ii)接触している間、両者の間に一定以上の動きが観測された。
【0074】
動きを検出するためにはフレーム間差分やオプティカル・フローを利用する。例えばフレーム間差分であれば、接触した両者に重なるウィンドウを設けてその中での差分を所定時間(例えば10秒間)に渡って蓄積し、その量が閾値以上(例えばウィンドウ面積の70%以上)であれば動きありと判定することができる。
【0075】
このように、S12にて接触ありと判定された場合にS10からS11の条件を満たした人物領域を逃走人物であると判定することで、より精度の高い逃走人物の判定ができる。
【0076】
さらに、S13で重要エリア内に立ち入ったという条件を追加してもよい。
【0077】
すなわち、逃走人物検出手段224は、S12にて接触ありと判断された場合、S13にてその人物が重要物エリアに立ち入ったか否かを判定する。重要物エリアとは、例えば金庫を中心とする半径1mのエリアであり、事前に設定し記憶部21に記憶しておけばよい。前述と同様の方法で人物の3次元足元位置を算出し、その位置が重要物エリア内に存在した場合に立ち入っていたとみなす。もちろん、所定時間を設けて(例えば5秒間)、所定時間以上に渡って重要物エリアに存在した場合に重要物エリアに立ち入ったとみなしてもよい。
【0078】
S13にて重要物エリアへの立ち入りを判定した場合にS10からS11の条件を満たした人物領域を逃走人物であると判定する。
【0079】
(S14:異常出力)
異常検出手段225は、逃走人物検出手段224にて逃走人物が判定されると、監視領域に存在していた静止人物を放置人物と判定し異常信号を出力部23へ出力する。
【0080】
(S15:追跡人物の順次設定)
S10〜13の判定で、NOであった場合には、判定の対象になった追跡人物は、強盗犯ではないと判定されたことを意味する。そこで、S15において、静止人物以外の追跡人物がいるかを判定し、いる場合にはS9に戻り、次の追跡人物についての判定を行う。
【0081】
「本実施形態の効果」
変化領域として検出した人物が放置状態(静止状態継続+屈位(倒位)姿勢)となったときに監視領域内に存在していた他の人物が監視領域内からいなくなり、いなくなった状態が所定時間継続(逃亡)したことで強盗犯などの逃走人物を検出する。これにより、放置状態の人物が、「拘束されて動けなくなった人物」であり、「通常の作業をしている人物」ではないと判定することができ、誤判定を防止できる。
【0082】
従って、本実施形態に係る異常検知装置を、監視エリア内に設置することで、被害者が強盗犯によって身体の自由を奪われて通報操作ができない状態のまま放置された場合であっても、そのような異常事態を自動的に検出し、通報を行うことが可能になる。
【符号の説明】
【0083】
1 通報システム、2 異常検知装置、3 コントローラー、4 広域通信網、5 センタ装置、6 金庫、20 撮像部、21 記憶部、22 制御部、23 出力部、83 画像中心、90 人物領域、210 背景画像、211 人物モデル、211K 屈位モデル、211R 立位モデル、211T 倒位モデル、220 人物抽出手段、221 人物追跡手段、222 姿勢検出手段、223 静止人物検出手段、224 逃走人物検出手段、225 異常検出手段。

【特許請求の範囲】
【請求項1】
監視領域を撮像した監視画像を順次取得する画像取得部と、前記監視画像を処理する制御部と、前記制御部が異常を検出すると異常信号を出力する出力部を具備する異常検知装置であって、
前記制御部は、
前記監視画像から人物を検出する人物検出手段と、
前記人物を時間的に追跡する人物追跡手段と、
前記人物について略静止している静止人物を検出する静止人物検出手段と、
前記静止人物の検出中に、当該静止人物を検出したとき既に追跡中となっているその他の人物が追跡できなくなると異常を検出する異常検出手段と、
を有することを特徴とする異常検知装置。
【請求項2】
請求項1に記載の異常検知装置において、
人物の外形に対応する人物モデルを記憶する記憶部と、
前記人物と前記人物モデルを比較して、当該人物が立位姿勢でないことを検出する姿勢検出手段と、をさらに有し、
前記静止人物検出手段は、前記立位姿勢でない人物について前記静止人物を検出することを特徴とする異常検知装置。
【請求項3】
請求項1または2に記載の異常検知装置において、
前記異常検出手段は、
前記監視画像から前記その他の追跡中の人物を所定時間以上検出できないと前記その他の人物が追跡できなくなったとすることを特徴とする異常検知装置。
【請求項4】
請求項1〜3のいずれか1項に記載の異常検知装置において、
前記異常検出手段は、
前記その他の追跡中の人物と前記静止人物が静止と検出する前に接触したか否かを判定し、接触していると前記異常を検出することを特徴とする異常検知装置。
【請求項5】
請求項1〜4のいずれか1項に記載の異常検知装置において、
前記監視領域内に予め設定した重要エリアを記憶する記憶部をさらに有し、
前記異常検出手段は、
前記その他の追跡中の人物が前記重要エリアに入ったか否かを判定し、入っていると前記異常を検出することを特徴とする異常検知装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate


【公開番号】特開2012−212248(P2012−212248A)
【公開日】平成24年11月1日(2012.11.1)
【国際特許分類】
【出願番号】特願2011−76735(P2011−76735)
【出願日】平成23年3月30日(2011.3.30)
【出願人】(000108085)セコム株式会社 (596)
【Fターム(参考)】