説明

監視システム、人物検索方法

【課題】 監視システムにおいて精度の高い人物検索方法を提供する。
【解決手段】画像を録画する監視システムで、録画した画像の画像データに加えて、映像IDと、撮影時刻情報と、撮影位置情報とを記憶する。さらに、録画した画像に撮影された人物の顔特徴量と、着衣情報とを記憶する。ここで、検索対象画像から、顔特徴量と、着衣情報と、撮影時刻情報と、撮影位置情報とを算出する。その撮影時刻情報、撮影位置情報、前記着衣情報のうちいずれかに対する重み値を用いて、検索対象画像と録画した画像に撮影された人物の同一性を判断する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、監視システムと、監視システムにおける人物検索方法に係り、人物検索を高精度に行うことができる監視システムと人物検索方法に関する。
【背景技術】
【0002】
従来から、ホテル、ビル、コンビニエンスストア、金融機関、ダム、又は道路のような不特定多数の人が訪れる施設には、犯罪抑止や事故防止等の目的で、映像監視システムが設置されている。
このような映像監視システムでは、監視対象の人物等をカメラ等の撮像装置で撮影し、その映像を、管理事務所や警備室等の監視センタに伝送する。
監視センタに常駐する監視者は、その映像を監視し、目的や必要に応じて、注意をしたり、あるいは映像を録画・保存する。
【0003】
この映像監視システムで映像の録画・保存をするための記録媒体として、以前は、ビデオテープ等のシーケンシャル・アクセスの記憶媒体が用いられていた。
しかし、近年では、ハードディスクドライブ(HDD)に代表されるランダムアクセス可能な記憶媒体が、映像監視システムに用いられる事例が増えてきている。
ランダムアクセス可能な記憶媒体は、映像の整理がしやすく、繰り返し使用に強いため、普及が進んでいる。
【0004】
さらに、このランダムアクセス可能な記録媒体は、年々、大容量化が進んでいる。
この大容量化により、録画できる映像のデータ量が、飛躍的に増大している。これにより、長時間録画が可能になった。
しかしながら、大量の録画映像を目視でチェックする際の監視者の負担の増加が、問題として顕在化しつつある。
【0005】
そこで、所望の映像をより簡単に見つけ出すための検索機能を備えた映像監視システムが普及しつつある。
この検索機能を備えた映像監視システムにおいては、時刻や外部センサ値の情報を映像とともに記憶する機能を備えていることがある。
外部センサとしては、人感センサ等のアラームがよく用いられている。また、このアラームが出力する値は0又は1の2値であることが多い。実際には、アラームの出力が1になった場合には、その旨と、その時刻とをテキスト情報として記憶することが多い。
このような従来からの検索機能では、人感センサ等のアラームの出力値が1となった際のテキスト情報を検索キーとして、映像を検索するようにしている。
さらに近年では、画像情報を検索キーとする検索機能を備えた監視システムが存在する。
その画像情報を検索キーとする監視システムの一種として、人物検索機能を備えた録画装置が存在する。
【0006】
人物検索機能とは、ある画像中に映っている人物をユーザが指定すると、その人物と同一人物が映っている他の映像を録画装置内から探し出し、ユーザに一覧提示する機能である。
この際、同一人物判定の手掛かりとして、人物の「顔」の画像が使われることが多い。
このような顔の画像から人物を検索する従来のシステムとしては、例えば、特許文献1を参照すると、多数の人物の顔を検索する、人物検索システム、人物追跡システム、人物検索方法、及び人物追跡方法が開示されている(以下、従来技術1とする。)。
従来技術1のような人物検索システムの人物検索機能は、ある特定の人物について、他の時刻あるいは他の場所での挙動の調査や、移動の軌跡の調査などに利用できる。このため、大変有効である。
【0007】
この従来技術1のような、顔の画像を用いた従来の人物検索機能を備えたシステムの一例について、図9と図10を参照して説明する。
以降、説明を容易にするため、ユーザが指定した画像を検索入力画像、検索対象となる録画画像を検索対象画像という。
また、検索の結果、同一人物画像として提示される画像を検索出力画像という。
さらに、検索出力画像をサムネイル表示したものの一覧を、検索出力画像一覧という。
【0008】
まず、図9を参照して、人物検索機能を備えた録画装置201を含んだ、従来の映像監視システムXの制御構成を説明する。
ネットワーク200は、各装置を結ぶ専用線やイントラネット、インターネット等のIPネットワーク等である。
録画装置201は、画像データをHDD等に記憶して録画する録画装置である。また、録画装置201は、人物検索機能を備えている。
撮像装置202は、CCDやCMOS素子等で撮像した画像(動画の映像又は静止画像)にデジタル変換処理を施し、変換された画像データを、ネットワークを介して出力するネットワーク・カメラや監視カメラ等の装置である。
監視端末203は、録画装置201に録画された画像データをネットワークを介して取得し、液晶ディスプレイやCRTのマスターモニタ等である表示部に画面表示する装置である。また、監視端末203は、内蔵されたCPUやプログラムにより、検索入力画像をネットワーク200経由で録画装置201に送信する。また、監視端末203は、録画装置201から送信された検索出力画像一覧を、画面表示することもできる。さらに、監視端末203は、このためのOS(オペレーティング・システム)と、OS上で動作するプログラムであるユーザインタフェイスを備えている。
【0009】
また、録画装置201は、ネットワーク部211、記憶部212、顔領域検出部213、顔特徴量抽出部214、顔特徴量記録部215、及び顔判定部216が、例えば共通のバスにより接続するように構成される。
ネットワーク部211は、LANインターフェイス等であり、ネットワーク200からの入出力を行う処理部である。ネットワーク部211は、撮像装置202から入力される画像データの受信、監視端末203からの映像配信リクエスト、検索入力画像の受信、監視端末203への映像や検索出力画像の送信を行う。
記憶部212は、RAMやROMやHDD等のランダムアクセスが可能な記憶媒体と、そのコントローラを備える部位であり、画像データやその他のデータの記録媒体への読み書きを行う。映像記録の際には、画像データに加え、画像データを再び取り出すためのID(Identification、IDデータ)も併せて記憶媒体に書き込みを行う。
【0010】
顔領域検出部213は、DSP(Digital Signal Processor)やこのDSP用のプログラム等を備える部位である。顔領域検出部213は、入力された画像データに対し、従来の一般的な顔検出のための画像認識処理を用いた顔検出を行う。顔領域検出部213は、映像中の顔の存在の有無判定をし、顔が存在する場合にはその領域の座標算出を行う。
顔特徴量抽出部214は、DSP等を含んで構成される部位であり、顔領域検出部213で検出した顔領域に対して画像認識処理を用いて、顔特徴量算出を行う。ここで顔特徴量とは、例えば、顔の輪郭の形状や方向、皮膚の色、目、鼻、口といった主要構成要素の大きさ、形状、配置関係等を数値化したものを示す。
顔特徴量記録部215は、記憶部212への記憶を行うためのコントローラ等である。顔特徴量記録部215は、顔特徴量抽出部214で算出した顔特徴量を、記憶部212の記録媒体への読み書きを行う。
【0011】
顔判定部216は、DSP等を含んで構成される部位であり、検索の際に検索入力画像中の人物と録画映像中の人物との同一人物判定を行う部位である。
その上で、顔判定部216は、同一人物と判定された録画画像を集めて、検索出力画像一覧を生成する。この判定は、それぞれの画像にて求めた顔特徴量から「顔類似度」と呼ばれる値を算出し、算出した顔類似度と、記憶部212に記憶している所定の閾値との大小関係を基に判定する。
【0012】
図10を参照して、従来の映像監視システムXにおける、録画装置201の人物検索機能を実際にユーザが使用する際の操作について説明する。図10は、監視端末203の表示部に表示されるユーザインタフェイス画面の一例である。
このユーザインタフェイスでは、監視端末203の制御部が、監視端末203のキーボードや専用スイッチやジョグダイヤルやマウス等のポインティングデバイスを含む入力部の入力信号を検知して、ポインタ等を動かして表示する。さらに、監視端末203の制御部は、表示部の画面上に描かれた入力キーであるボタン等をユーザが押下したことを検知して、各処理を行う。
【0013】
以下で、より具体的に、ユーザインタフェイス画面の説明をする。
再生映像表示部301は、再生中の映像を表示する領域である。再生映像表示部301には、監視端末203が、録画装置201からネットワーク200を介して送信されてきた画像データを復号して表示する。
【0014】
再生操作部302は、再生操作をするボタンが表示された領域である。再生操作部302上の各ボタンには、それぞれ固有の再生種類が割当てられている。
再生映像表示部301に表示されている映像に対して、新たな再生命令を与えたい場合には、ユーザは再生操作部302上の再生命令に対応したボタンをポインティングデバイス等で選択してボタンを押下する。監視端末203の制御部は、ユーザインタフェイスにおいてボタンの押下を検出して、各種の再生種類に対応する動作を行う。
たとえば、「左向きの三角が2つ」のボタンは映像の高速巻き戻しを示し、「左向きの三角が1つ」は映像の通常スピードでの巻き戻し再生を示し、「四角」ボタンは映像の停止/一時停止を示し、「右向きの三角が1つ」は映像の通常スピードでの再生を示し、「右向きの三角が2つ」のボタンは映像の高速早送りを示す。
カメラ切替操作部303は、カメラ切り換え操作用のボタンを表示する領域である。カメラ切替操作部303上の各ボタンには、それぞれ録画対象となっているカメラが割当てられており、再生映像表示部301に表示されている映像を、他のカメラの映像に切り替えたい場合に押下する。
【0015】
検索入力画像指定部304は、検索入力画像を表示・指定する領域である。この指定は、検索入力画像指定部304に表示されている「取込」ボタン押下を検知して行う。
監視端末203の制御部は、ユーザが「取込」ボタンを押下したことを検知すると、再生映像表示部301に表示されている画像を、検索入力画像としてサムネイル表示する。
【0016】
検索操作部305は、検索操作部上の「検索」ボタンを押下することで、検索入力画像指定部304に表示された画像にて検索を行うための領域である。この例では図示しないが、この検索操作部305に、日時やカメラの指定をするボタンを備える場合もある。
監視端末203の制御部は、ユーザが「検索」ボタンの押下したことを検知すると、検索入力画像指定部304に表示されている画像(検索入力画像)がある場合は、録画装置201にこの検索用画像に係るフレーム番号をネットワーク200を介して送信する。
録画装置201の制御部は、検索入力画像に係るフレーム番号を受信して、このフレーム番号に係る検索画像を記憶部212から読み出し、上述のように各部を用いて人物検索機能を実行する。そして、検索された人物を含む画像である検索出力画像(とそのフレーム番号)を、ネットワーク200を介して監視端末203に送信する。
【0017】
検索出力画像一覧表示部306は、検索出力画像の一覧をサムネイル表示する領域である。
ここに表示された検索出力画像のいずれかを押下すると、再生映像表示部301の表示映像が押下画像に切り替わる。この切り替わりを頭出しという。
【0018】
以上のように、「顔」を手掛かりとした人物検索機能は、膨大な検索対象画像の中から、目的の人物映像への頭出しが容易にできるため大変便利である。
【0019】
【特許文献1】特開2003−281157号公報
【発明の開示】
【発明が解決しようとする課題】
【0020】
しかしながら、従来技術1のような画像認識技術は、正面方向から映した顔画像に対する認識精度は優れているものの、それ以外の方向から映した顔画像に対する認識精度は低かった。また、画像中における顔の大きさ(解像度)も認識精度に大きく影響し、顔の大きさが小さい場合には、認識精度も低かった。
従って、広角レンズを備え、対象者を斜め上方から小さく映すことの多い映像監視システムにおいては、誤検索、すなわち異なる人物を同一人物と間違って認識したり、同一人物を異なる人物と間違って認識したりする場合がある、すなわち精度が低いという問題があった。
【0021】
本発明は、このような状況に鑑みてなされたものであり、上述の課題を解消することを課題とする。
【課題を解決するための手段】
【0022】
本発明の人物検索方法は、画像を録画する監視システムにおける人物検索方法において、録画した複数の画像の画像データから求められる、撮影時刻情報、撮影位置情報、顔特徴量、及び着衣情報をそれぞれ記憶し、前記撮影時刻情報が近傍か非近傍かの近傍性と、前記着衣情報が同一か非同一かの同一性との条件の組み合わせに対応する時刻+着衣重み設定値、及び前記撮影時刻情報が近傍か非近傍かの近傍性と、前記撮影位置情報が近傍か非近傍かの近傍性との条件の組み合わせに対応する時刻+位置重み設定値、及び前記撮影位置情報が近傍か非近傍かの近傍性と、前記着衣情報が同一か非同一かの同一性との条件の組み合わせに対応する位置+着衣重み設定値の入力を予め受け、前記重み設定値のうち、用いる重み設定値と検索対象画像とについての指定とともに検索の指示を受けたときに、前記録画した画像と前記検索対象画像との間で、前記顔特徴量の差分、指定された前記時刻+着衣重み設定値、又は前記時刻+位置重み設定値、又は前記位置+着衣重み設定値に対応する重みを与えて得られる総合類似度用いて、録画された人物の同一性を判断することを特徴とする。
本発明の監視システムは、撮像装置、録画装置、及び監視端末を備えて画像を録画する監視システムであって、前記録画装置は、前記撮像装置で撮像した画像から顔特徴量を抽出する顔特徴量抽出手段と、前記撮像装置で撮像した画像から着衣特徴量を抽出する着衣特徴量抽出手段と、録画した画像の画像データ、撮影時刻情報、撮影位置情報、前記顔特徴量抽出手段で抽出された顔特徴量、前記着衣特徴量抽出手段で抽出された着衣情報のうち、少なくとも1つ以上を記憶する記憶手段と、前記撮影時刻情報、前記撮影位置情報、及び前記着衣情報のうち、いずれかに対応する重み値を用いて、検索対象画像と前記録画した画像に撮影された人物の同一性を判断する総合判断手段とを備えることを特徴とする。
【発明の効果】
【0023】
本発明によれば、精度を向上させた映像監視システムと人物検索方法を提供することができる。
【発明を実施するための最良の形態】
【0024】
<第1の実施の形態>
〔制御構成〕
図1を参照して、本発明の実施の形態に係る人物検索方法による人物検索機能を備える録画装置101を含む映像監視システムYの制御構成について説明する。
ネットワーク100は、各装置を結ぶ、LAN、光ファイバー、c.link、無線LAN、メッシュネットワーク等のデータ通信可能な回線である。また、ネットワーク100は、専用線、イントラネット、インターネット等のIPネットワーク等を用いてもよい。
録画装置101は画像データをHDD等に記憶して録画する録画装置である。また、録画装置101は、従来技術の録画装置201と同様に顔検索機能を備えており、さらに着衣検出機能を備えている。この着衣検出機能と、顔検出機能とを組み合わせることで、本発明の実施の形態に係る精度を向上させた人物検索方法を提供することができる。この人物検索方法については後述する。
撮像装置102は、撮像装置202と同様な機能をもつ画像撮影用の装置である。
監視端末103は、監視端末203と同様な機能をもつ装置であり、PC/AT互換機やMAC等であるPC(パーソナル・コンピュータ)の記憶部に記憶したプログラムにより実現してもよいし、専用の監視端末装置として実現してもよい。また、監視端末103は、録画装置101の人物検索方法を用いるためのユーザインタフェイスも備えている。
【0025】
録画装置101は、ネットワーク部111、記憶部112(記憶手段)、顔領域検出部113、顔特徴量抽出部114(顔特徴量抽出手段)、顔特徴量記録部115、着衣領域検出部116、着衣特徴量抽出部117(着衣特徴量抽出手段)、着衣特徴量記録部118、撮影時刻記録部119、撮影位置記録部120、総合判定部121(総合判断手段)が、例えば共通のバスにより接続するように構成される。
【0026】
ネットワーク部111は、装置外部からの入出力を行うLANインターフェイス等の処理部である。ネットワーク部111は、撮像装置102が送信する画像データを受信を行う。また、ネットワーク部111は、監視端末103からの映像配信リクエストや検索入力画像の受信を行う。さらに、ネットワーク部111は、監視端末103への画像データや検索出力画像のデータの送信を行う。
記憶部112は、RAMやROMやフラッシュメモリや光ディスクや磁気テープやHDD等の記憶媒体と、インテリジェントなコントローラやCPUやMPU等を備える部位である。記憶部112は、画像(映像)データやその他のデータの記録媒体への読み書きを行う。映像記録の際には、画像データに加え、画像データを再び取り出す為のID(アイデンディフィケーション)、タイムコード、フレーム番号、各種タグデータ、ハッシュデータ等である映像IDについても合わせて、データベース等を用いて書き込みを行う。また、記憶部112は、コントローラやCPUやMPUにより、データベースから映像IDを検索して記憶媒体から読み出し・書き込みを行うこともできる。
顔領域検出部113は、顔領域検出部213と同等の機能を備えるDSPやこのDSP用のプログラム等を含んで構成される。顔領域検出部113は、入力された画像データに対し画像認識技術を用いた顔検出を行う。さらに、顔領域検出部113は、映像中の顔の存在の有無判定をし、顔が存在する場合にはその領域の座標算出を行う。
顔特徴量抽出部114は、顔特徴量抽出部214と同等の機能を備えるDSPを含んで構成される。また、顔特徴量抽出部114が抽出する顔特徴量は、例えば、顔の輪郭の形状や方向、皮膚の色、目や鼻、口といった主要構成要素の大きさ、形状、配置関係等々から、統計的に個人毎に差異が現れるベクトル成分や統計量等を用いることができる。また、本発明の実施の形態に係る顔特徴量抽出部114においては、使用する顔特徴量の種類や数は任意である。さらに、髪の長さや推定骨格(顎の大きさ等)の特徴等から、高い確率で男女を判定することも可能である。
顔特徴量記録部115は、記憶部112への記憶を行うためのコントローラ等を含んで構成される。顔特徴量記録部115は、顔特徴量抽出部114で算出した顔特徴量について、記憶部112の記録媒体への読み書きを行う。
【0027】
着衣領域検出部116は、DSPやこのDSP用のプログラム等を含んで構成され、入力された画像データに対し、画像認識技術を用いた着衣領域の座標算出を行う。この画像認識技術としては、着衣量の算出に用いることができる公知の技術を用いることができる。たとえば、動的プログラミング等を用いて人物の輪郭を抽出し、その輪郭内の色の分布やテクスチャの周波数的な特徴(FFTやウェーブレット変換等を行ったときの周波数分布等)から着衣(服)であると検出するような技術を用いることができる。さらに、着衣領域の座標から、背の高さを推定することができ、大人か子供かについて判定できる。
着衣特徴量抽出部117は、着衣領域検出部116で検出した着衣領域に対して画像認識技術を用いて着衣特徴量算出を行う。ここで着衣特徴量とは、例えば、上述の着衣の色の分布や周波数的な特徴等が挙げられる。また、本発明においては使用する着衣特徴量の種類や数は任意である。また、この着衣特徴量抽出部117は、右前あるいは左前といった特徴、曲線的な服装等である特徴、ワンピース等の特徴についても判定することが可能である。これにより、この着衣を着ている人物が男女のどちらであるか、高い確率で判定できる。
着衣特徴量記録部118は、記憶部112への記憶を行うためのコントローラ等を含んで構成される。着衣特徴量記録部118は、着衣特徴量抽出部117で算出した着衣特徴量について、記憶部112の記録媒体への読み書きを行う。
【0028】
撮影時刻記録部119は、画像が撮影された際の時刻である撮影時刻情報について、記憶部112の記録媒体への読み書きを行う。
この撮影時刻情報は、例えば、GPS(グローバル・ポジショニング・システム)や、ネットワーク部111を介してNTP(ネットワーク・タイム・プロトコル)等を用いることで、正確な時刻を記憶することが好適である。
また、各撮像装置102で基準となる時計の時刻に誤差があった場合、この誤差を計測した上で、「マスタークロック」となる録画装置101の時刻に合わせて補正して記憶する。
【0029】
撮影位置記録部120は、記憶部112への記憶を行うためのコントローラ等を含んで構成される。撮影位置記録部120は、映像の撮影位置情報について、記憶部112の記録媒体への読み書きを行う。撮影位置情報は、例えばカメラのGPS位置情報のような物理的情報であってもよいし、カメラ設置番号のような、別途設けられた位置算出手段への参照情報であってもよい。
【0030】
総合判定部121は、検索の際に検索入力画像中の人物と録画映像中の人物との同一人物判定を行い、同一人物と判定された録画画像を集めて、検索出力画像一覧を生成する。
この判定は、それぞれの画像にて求めた顔特徴量から「顔類似度」と呼ばれる値を算出し、算出した顔類似度に撮影時刻情報と撮影位置情報、後述する着衣情報から求めた重み値を加えた値(以降、総合類似度という。)、あらかじめ設定した所定の閾値等の大小関係において決定する。この顔類似度やその他の処理の詳細については後述する。
また、総合判定部121は、このような判定のために、RAMやレジスタやフラッシュメモリやHDD等の一時的な記憶手段を備えている。
【0031】
なお、総合判定部121の一時的な記憶手段は、記憶部112の特定の領域や、記憶部112の記憶媒体に備えていてもよい。
また、総合判定部121は、制御部が実行するプログラムとして実現されていてもよく、この場合は、一時的な記憶手段は、プログラムの変数の値やファイルとして保持する。
さらに、顔領域検出部113、顔特徴量抽出部114、顔特徴量記録部115、着衣領域検出部116、着衣特徴量抽出部117、着衣特徴量記録部118、撮影時刻記録部119、撮影位置記録部120に関しても、制御部が実行するプログラムとして実現されていてもよい。
この場合は、特徴量抽出等の高速応答性やSIMD(シングル・インストラクション・マルチプル・データ)形式の多大な演算性能が要求される演算(算出)処理を、別の各種DSPやGPU(グラフィック・プロセッシング・ユニット)を備えたチップやボード等で処理するようにしてもよい。
【0032】
この他に、映像監視システムYにおいては、上記の各処理の制御を行うCPU等の制御部を備えている。制御部で実行されるプログラムは、各部をハードウェア資源を使用して実現するために用いられてもよく、記憶部112に記憶されていても、制御部内のROMやフラッシュメモリ等に記憶されていてもよい。
【0033】
〔人物検索方法の精度向上のための手法〕
本発明の発明者は、鋭意実験と検討を繰り返した結果、人物検索機能の性能を高めるためには、同一人物の判定に、撮影時刻情報、撮影位置情報、着衣情報等を加えるのが有効であることを見いだし、本発明を完成するに至った。
具体的には、検索入力画像と検索対象画像との間で、撮影時刻情報、撮影位置情報、着衣情報等を比較することで、同一人物の判定を確実に行うことができる。
ここで、撮影時刻情報、撮影位置情報については、その人物が近場に存在するかどうかの近傍性(時間的、空間的な近さ)を判断する。
着衣情報は、着衣特徴量のベクトル等であり、着衣の特徴によりその人物が同一であるかどうかの同一性を判断する。
この判断結果については、撮影時刻情報、撮影位置情報、着衣情報等に、以下の条件(1)〜(7)を用いて算出した重みの値を適用して判断する。
(1)近傍の時刻において同一着衣の人物は同一人物である可能性が高い
(2)近傍でない時刻においても同一着衣の人物は同一人物である可能性がある
(3)近傍の時刻において非同一着衣の人物は同一人物でない可能性が高い
(4)近傍の時刻、近傍位置の人物は同一人物である可能性が高い
(5)近傍の時刻、非近傍位置の人物は同一人物でない可能性が高い
(6)近傍でない時刻、近傍位置の人物は同一人物である可能性がある
(7)近傍位置、同一着衣の人物は同一人物である可能性がある
この算出した重みを、顔特徴量を用いた同一人物の判断結果に掛け合わせることで、人物検索の検索結果の精度を飛躍的に向上させることが可能となった。
なお、(1)〜(7)の一部を判断するものであっても、人物検索精度を向上させることができる。
【0034】
〔データベース〕
次に、図2を参照して、本発明の実施の形態に係る特徴量データベース801について説明する。
上述のような精度向上のための手法を実現するため、本発明の実施の形態に係る録画装置101では、録画時に、映像ID、顔特徴量、着衣情報、撮影時刻情報、及び撮影位置情報を記憶する。
これらの情報を記憶するために、録画装置101は、記憶部112の記憶部の記憶媒体に、特徴量データベース801を備えている。
特徴量データベース801は、例えば、図2のように表形式で構成することができるが、どのようなものであってもよい。
【0035】
特徴量データベース801の記憶内容のうち、映像ID列811には、映像IDが記憶される。この映像IDとしては、録画時刻を示すタイムコード又はフレーム番号を用いることができる。このフレーム番号は、例えば1つのストリームの先頭からユニークに割り振った番号であり、単調増加する連続値のような値を用いてもよい。
顔特徴量列812は、顔特徴量抽出部114で算出された顔特徴量が記憶される。格納する顔特徴量が複数ある場合にはここは複数列となる。
着衣特徴量列813は、着衣特徴量抽出部117で算出された着衣特徴量が記憶される。格納する着衣特徴量が複数ある場合にはここは複数列となる。
撮影時刻列814は、撮影時刻情報が記憶される。
撮影位置列815は、撮影位置情報が記憶される。GPSの位置情報等もここに記憶される。
【0036】
特徴量データベース801の書き込み又は読み出しについては、記憶部112のCPU等により、例えばSQL等のデータベースのデーモン(バックグラウンド実行プログラム等)又はサービスが実行されている。このデーモン又はサービスは、各構成部位からのコマンドにより、特徴量データベース801の記憶内容について、読み出しや書き込み(格納)や追記等ができる。
【0037】
顔特徴量記録部115は、顔特徴量抽出部114からの入力時に、この特徴量データベース801の最後尾行の次行、すなわち未格納行を書込み行として、映像IDと顔特徴量を格納する。
着衣特徴量記録部118、撮影時刻記録部119、又は撮影位置記録部120は、書込み行となっている行に対して、それぞれ着衣特徴量、撮影時刻、撮影位置を格納する。
また、総合判定部121が実行するプログラムを用いても、特徴量データベース801の各行の読み出し(参照)や書き込み(記憶)が可能である。
【0038】
〔映像録画の際の処理〕
次に、図3を参照して、本発明の実施の形態に係る録画装置101で、実際に映像録画を行う際の処理の流れを説明する。
この映像録画の際に、上述のように撮影時刻情報、撮影位置情報、及び着衣情報についても記憶する。
また、この映像の録画を行う際の処理は、記憶部112のROMやフラッシュメモリやHDD等の記憶媒体に記憶されたプログラム等に従って、各部が協調して実行する。
【0039】
(ステップS701)
ステップS701において、ネットワーク部111は、映像受信処理を行う。
具体的には、ネットワーク部111は、撮像装置102からネットワーク100を介して入力された画像データを受信して、記憶部112へ出力する。
【0040】
(ステップS702)
ステップS702において、記憶部112は、画像データと映像ID記憶処理を行う。
すなわち、記憶部112は、入力された画像データを、HDD等のランダムアクセス可能な記録媒体に記録する。
また、記憶部112は、映像を再び取り出す為の映像IDも生成し、併せて記録する。そして、画像データを顔領域検出部113へ出力する。
以下で、本フローチャートの説明においては、明示的記載がなくとも画像には映像IDを付してあるものとする。
【0041】
(ステップS703)
ステップS703において、顔領域検出部113は、入力された画像データに対し、顔検出処理を行う。
この顔検出処理においては、公知の技術を用いて、映像中の明度や肌色等の色彩やその他の特徴量等を用いて、顔(の画像)を検出して検出値(検出可能性、p、プロバビリティー)を出力することが可能である。
【0042】
(ステップS704)
ステップS704において、総合判定部121は、顔が検出されたかについて判定する。
具体的には、総合判定部121は、所定の閾値を用いて、顔が検出されたか判定する。すなわち、上述の検出値が所定の閾値を超えていた場合はYesと判定し、それ以外の場合はNoと判定する。
Yesの場合は、総合判定部121は、処理をステップS705に進める。
Noの場合は、総合判定部121は、処理をステップS717に進める。
【0043】
(ステップS705)
ステップS705において、顔領域検出部113は、顔領域座標算出処理を行う。
具体的には、顔領域検出部113は、顔が検出された場合には、その領域の座標をピクセルの矩形の座標値等で算出する。
その上で、顔領域検出部113は、算出した座標値を、画像データとともに顔特徴量抽出部114へ出力する。
【0044】
(ステップS706)
ステップS706において、顔特徴量抽出部114は、顔特徴量算出処理を行う。
具体的には、顔特徴量抽出部114は、入力された映像と顔領域座標から得られる顔領域画像に対して顔特徴量を算出する。
顔特徴量抽出部114は、算出した顔特徴量を、画像データとともに顔特徴量記録部115へ出力する。
【0045】
(ステップS707)
ステップS707において、顔特徴量記録部115は、顔特徴量及び映像ID記憶処理を行う。
具体的には、顔特徴量記録部115は、入力された顔特徴量を、記憶部112の特徴量データベース801の顔特徴量列812に記録する。その際、映像IDも併せて映像ID列811に記録する。
そして、顔特徴量記録部115は、画像データを着衣領域検出部116へ出力する。
【0046】
(ステップS708)
ステップS708において、着衣領域検出部116は、入力された画像データに対し着衣検出処理を行う。
この着衣検出処理においては、着衣領域検出部116は、上述したような各種の着衣の検出アルゴリズムを用いて、着衣の検出値を出力する。その際、予め記憶部112に記憶した撮像装置102のホワイトバランスや解像度等の特性により、検出パラメータ等を調整した上で用いるのが好適である。
【0047】
(ステップS709)
ステップS709において、総合判定部121は、着衣が検出されたか判定する。
具体的には、総合判定部121は、着衣の検出値が記憶部112に記憶された所定の閾値よりも大きい場合はYesと判定し、それ以外の場合はNoと判定する。
Yes、すなわち着衣が検出された場合には、総合判定部121は、ステップS710に処理を進める。
No、すなわち着衣が検出されなかった場合は、総合判定部121は、ステップS713に処理を進める。
【0048】
(ステップS710)
ステップS710において、着衣領域検出部116は、着衣領域座標算出処理を行う。
具体的には、着衣領域検出部116は、入力された画像データから着衣の領域の座標値を、映像のピクセルの矩形座標や特定ブロック等の形状やベクトル値や曲線の座標等で算出する。
着衣領域検出部116は、算出した座標値を画像データとともに、着衣特徴量抽出部117へ出力する。
【0049】
(ステップS711)
ステップS711において、着衣特徴量抽出部117は、着衣特徴量算出処理を行う。
具体的には、着衣特徴量抽出部117は、上述の各種のアルゴリズムにて、着衣の領域画像データに対して着衣特徴量を算出する。
また、着衣特徴量抽出部117は、算出した着衣特徴量を、画像データとともに着衣特徴量記録部118へ出力する。
【0050】
(ステップS712)
ステップS712において、着衣特徴量記録部118は、着衣特徴量記憶処理を行う。
具体的には、着衣特徴量記録部118は、入力された着衣特徴量を、記憶部112の特徴量データベース801の着衣特徴量列813のうち、映像IDの一致する行のセルに記憶する。
この処理を行った後で、着衣特徴量記録部118は、処理をステップS715に進める。
【0051】
(ステップS713)
ステップS713において、着衣領域検出部116は、着衣検出なし情報出力処理を行う。
具体的には、着衣領域検出部116は、着衣が検出されなかった場合には、「検出なし」の情報(着衣検出なし情報)を着衣特徴量記録部118へ出力する。
【0052】
(ステップS714)
ステップS714において、着衣特徴量記録部118は、着衣検出なし情報記憶処理を行う。
具体的には、着衣特徴量記録部118は、着衣領域検出部116から「検出なし」の情報を入力された場合には、着衣未検出として特徴量データベース801の着衣特徴量列813のうち、映像IDの一致する行のセルに記録する。
【0053】
(ステップS715)
ステップS715において、撮影時刻記録部119は、撮影時刻記憶処理を行う。
具体的には、撮影時刻記録部119は、記憶部112の特徴量データベース801の撮影時刻列814に、映像の撮影時刻を記憶する。
この撮影時刻としては、システム中で統一された時系列に基づく時刻であればよい。
すなわち、撮像装置102にて映像生成した段階での時刻を使ってもよいし、録画装置で映像受信した段階での時刻を使ってもよいし、ステップS715に到達した段階での時刻を使ってもよい。
また、上述のように、GPS等を用いて正確な時刻を記憶することもできる。
【0054】
(ステップS716)
ステップS716において、撮影位置記録部120は、撮影位置記憶処理を行う。
具体的には、撮影位置記録部120は、映像の撮影位置を記憶部112の特徴量データベース801の撮影位置列815に記録する。
この撮影位置記録部120で使用する撮影位置は、撮像装置102間の相対的な距離の度合がわかるような情報であれば、どのような情報も用いることができる。たとえば、地表平面上のX座標、Y座標、Z座標(高度)等を記録しておくことができる。
また、この映像の撮影位置も、上述のようにGPS等を用いた正確な位置を記憶することができる。
さらに、カメラの相対的な位置を示す符号(又は番号)のようなものを撮影位置の代わりに記録しておいて、実際のカメラの位置は、実際にカメラの物理的な位置を示す情報から算出するようにしてもよい。
【0055】
(ステップS717)
ステップS717において、総合判定部121は、受信待ち状態処理を行う。
ここで、総合判定部121は、次の映像の受信待ち状態となる。具体的には、総合判定部121は、記憶画像データをネットワーク部111が受信していない場合は、受信されるまで待機する。
また、総合判定部121は、監視端末103より録画の終了処理のコマンドを受信したり、図示しない入力部の電源ボタンが押下されたことを検知した場合は、すべての処理を終了して電源をシャットダウンする。
【0056】
なお、ステップS706、S707において、着衣領域検出部116は、顔特徴量記録部115からの顔領域座標も入力するようにすることができる。
この場合は、「顔の下に着衣があることが多い」という条件を使って着衣領域検出の精度を向上させることができるという効果が得られる。
【0057】
また、本発明の実施の形態に係る人物検索方法では、ステップS703において検出される顔数が1個である場合を示した。
しかし、同一映像に複数の人物が映っていて、複数個の顔が検出された場合には、ステップS704〜S716を、検出数の回数分、繰り返すようにすればよい。
【0058】
〔ユーザインタフェイス〕
次に、図4を参照して、本発明の実施の形態に係る人物検索方法をユーザが実行するためのユーザインタフェイス画面について説明する。
本発明の実施の形態に係る録画装置101は、上述のように、映像ID、顔特徴量、着衣特徴量、撮影時刻情報、及び撮影位置情報を記憶している。
この記憶された情報から、監視端末103のユーザインタフェイスを用いて、監視端末103の制御部がユーザの指示を検知し、この指示をコマンドとしてネットワーク100を介して録画装置101に送信する。このコマンドを受信した録画装置101では、人物検索方法を実行することができる。
図4は、監視端末103の表示部に表示されるユーザインタフェイスの画面である。
【0059】
このユーザインタフェイスにおいては、上述の従来の監視端末203と同様に、監視端末103の入力部がユーザの入力を検知して、表示部への表示と各種処理を行う。
ここで、符号が同一の領域は、図10の従来の人物検索機能のユーザインタフェイスと同等の機能を実現するための表示領域である。
本発明の実施の形態に係るユーザインタフェイスにおいては、検索操作部505が用いられている点が、従来のユーザインタフェイスと異なっている。
以下で、この検索操作部505について、更に詳しく説明する。
【0060】
検索操作部505は、ユーザが検索操作部505上の検索ボタンを押下することで、検索入力画像指定部304に表示された画像にて検索を行うことを指示するための領域である。この検索操作部505には、他に、日時やカメラ等の検索の範囲を指定する手段を備えていてもよい(図示しない)。
重み種類選択ボタン511〜513は、同一人物の判断に使用する重みの種類の選択を与えるためのボタンである。
重みの種類は、それぞれ、撮影時刻情報と着衣情報の関係に基づく重み、撮影時刻情報と撮影位置情報の関係に基づく重み、撮影位置情報と着衣情報の関係に基づく重みの3種類の重みを用いることができる。
重みの種類の選択は複数選択が可能になっており、検索ボタン押下時の選択状況が、以下で説明する検索処理に反映されるようになっている。
重み設定ボタン514は、ボタン押下により重み設定画面が起動する。重み設定画面については後述する。
【0061】
次に図5を参照して、本発明の実施の形態に係る人物検索方法を実行するためのユーザインタフェイスにおける、重み設定画面の一例を示す。図5は、図4に示した重み設定ボタン514の押下を検出して、監視端末103の制御部が表示部に表示する画面である。
【0062】
時刻+着衣重み設定表610は、撮影時刻情報と着衣情報の2者の関係に基づく重みの設定を与える領域である。
設定値入力欄611〜614は、重みの設定値を入力する欄である。
重みの設定値は、後述する重みの算出処理で用いる重みの値である。
各重みの設定値としては、例えば、0.0〜2.0までの割合の値を設定可能である。0.0に近い値になると、算出される値が小さくなる。すなわち、0.0で重み付けをしなくなる。
逆に、2.0に近い値になると、算出される値が大きくなる。
このような重みの設定値により調整されて算出された値を適用し、上述の近傍性、すなわち「その人物が同一であるかどうかの同一性」の判断を行う。
【0063】
設定値入力欄611は、入力画像の撮影時刻と対象画像の撮影時刻が近傍であり、かつ、入力画像の人物の着衣と対象画像の人物の着衣が同一である場合の重みの設定値を入力する欄である。
設定値入力欄612は、入力画像の撮影時刻と対象画像の撮影時刻が非近傍であり、かつ、入力画像の人物の着衣と対象画像の人物の着衣が同一である場合の重みの設定値を入力する欄である。
設定値入力欄613は、入力画像の撮影時刻と対象画像の撮影時刻が近傍であり、かつ、入力画像の人物の着衣と対象画像の人物の着衣が非同一である場合の重みの設定値を入力する欄である。
設定値入力欄614は、入力画像の撮影時刻と対象画像の撮影時刻が非近傍であり、かつ、入力画像の人物の着衣と対象画像の人物の着衣が非同一である場合の重みの設定値を、入力する欄である。
以下、この時刻+着衣重み設定表610に入力された重みの設定値群を、時刻+着衣重み設定値とする。
【0064】
同様に、時刻+位置重み設定表620は、撮影時刻情報と撮影位置情報の2者の関係に基づく重みの設定を与える領域である。
設定値入力欄621〜624は重みの設定値を入力する欄である。この重みの設定値についても、上述の設定値入力欄611〜614と同様に0.0〜2.0までの値を設定可能である。
設定値入力欄621は、入力画像の撮影時刻と対象画像の撮影時刻が近傍であり、かつ、入力画像の撮影位置と対象画像の撮影位置が近傍である場合の重みの設定値を、入力する欄である。
設定値入力欄622は、入力画像の撮影時刻と対象画像の撮影時刻が非近傍であり、かつ、入力画像の撮影位置と対象画像の撮影位置が近傍である場合の重みの設定値を、入力する欄である。
設定値入力欄623は、入力画像の撮影時刻と対象画像の撮影時刻が近傍であり、かつ、入力画像の撮影位置と対象画像の撮影位置が非近傍である場合の重みの設定値を、入力する欄である。
設定値入力欄624は、入力画像の撮影時刻と対象画像の撮影時刻が非近傍であり、かつ、入力画像の撮影位置と対象画像の撮影位置が非近傍である場合の重みの設定値を、入力する欄である。
以下、この時刻+位置重み設定表620に入力された重みの設定値群を、時刻+位置重み設定値とする。
【0065】
同様に、位置+着衣重み設定表630は、撮影位置情報と着衣情報の2者の関係に基づく重みの設定値を入力する領域である。
この設定値についても、上述の設定値入力欄611〜614や設定値入力欄621〜624と同様に0.0〜2.0までの値を設定可能である。
設定値入力欄631〜634のうち、631は入力画像の撮影位置と対象画像の撮影位置が近傍であり、かつ、入力画像の人物の着衣と対象画像の人物の着衣が同一である場合の重みの設定値を、入力する欄である。
設定値入力欄632は、入力画像の撮影位置と対象画像の撮影位置が非近傍であり、かつ、入力画像の人物の着衣と対象画像の人物の着衣が同一である場合の重みの設定値を、入力する欄である。
設定値入力欄633は、入力画像の撮影位置と対象画像の撮影位置が近傍であり、かつ、入力画像の人物の着衣と対象画像の人物の着衣が非同一である場合の重みの設定値を、入力する欄である。
設定値入力欄634は、入力画像の撮影位置と対象画像の撮影位置が非近傍であり、かつ、入力画像の人物の着衣と対象画像の人物の着衣が非同一である場合の重みの設定値を、入力する欄である。
以下、この位置+着衣重み設定表630に入力された重みの設定値群を、位置+着衣重み設定値とする。
【0066】
適用ボタン641は、ユーザが押下することで、各設定表に入力した内容を反映するためのボタンである。
閉じるボタン642は、ユーザが押下することで、この設定画面を終了して操作画面に処理を戻すためのボタンである。
監視端末103の制御部は、上述の各ボタンをユーザが押下したことを検知して、それぞれの処理を行う。
【0067】
なお、時刻+着衣重み設定表610、時刻+位置重み設定表620、位置+着衣重み設定表630の各重み設定表においては、撮影時刻情報と撮影位置情報に対して、近傍と非近傍の2区分の入力欄があるように示した。しかし、この区分数を増やしてより細かく設定できるようにしてもよい。
また、本例では各区分を分ける際の閾値を所定の値にしているように説明した。しかし、この区分を分ける閾値に関しても、ユーザが自由に設定できるようにしてもよい。
【0068】
〔人物検索処理〕
次に、図6のタイミングチャートを参照して、本発明の実施の形態に係る人物検索方法を適用した録画装置101と監視端末103とにおける、人物検索処理のネットワーク100を介した情報の送受信の流れについて説明する。以下の情報の送受信の処理は、録画装置101又は監視端末103の制御部等と各部が協調して実行される。
監視端末103は本処理前に、録画装置101からの画像データを入力して、図4に示した表示処理を完了しているものとする。すなわち、検索入力画像指定部304には検索入力画像が表示されている状態である。この際に、監視端末103は、検索入力画像とこれに係るフレーム番号である映像IDも受信している。
ここで、監視端末103は、上述のユーザインタフェイスにおいて、ユーザが検索操作部505の検索ボタンを押下したことを検知して、以下の人物検索処理を始める。
【0069】
(タイミングT101)
タイミングT101において、監視端末103は、検索入力画像送信処理を行う。すなわち、監視端末103は、上述の送信ボタンの押下を検知した場合は、検索入力画像指定部304に表示された検索入力画像の映像IDを、録画装置101に送信する。さらに、チェックボックスの状態等の検索用の付随情報に関しても、録画装置101に送信する。
録画装置101は、この検索入力画像から、検索前処理として、ステップS201において、顔画像を検出する。
【0070】
(タイミングT102)
次に、タイミングT102において、録画装置101は、顔検出なし情報送信処理を行う。
ここでは、録画装置101は、検索前処理で顔画像を検出したかを、ステップS202において判定する。
Yes、すなわち顔画像が検出された場合には、この顔検出なし情報送信処理は行わず、実際の顔特徴量の検索と服装特徴量の検索の処理を行う。
No、すなわち顔画像が検出されなかった場合には、「検出なし」の情報である顔検出なし情報を、監視端末103に送信する。
【0071】
監視端末103は、顔検出なし情報が(顔の)「検出なし」であった場合は、「顔が検出できません」等と表示する。
【0072】
録画装置101は、顔を検出した場合(ステップS202のYes)は、検索入力画像と他の検索操作部505の設定に従って、顔特徴量の検索と着衣特徴量の検索の処理を行う(ステップS203)。
さらに、録画装置101は、重みの設定値や算出された重みの値を用いて実際の検索処理を行い、検索対象画像から検索して見つかった画像である検索出力画像を記憶部112に記憶して蓄積する(ステップS204)。
【0073】
(タイミングT103)
次に、タイミングT103において、録画装置101は、検索出力画像一覧送信処理を行う。
ここでは、録画装置101は、出力する検索出力画像の一覧である検索出力画像一覧を監視端末103に送信する。
【0074】
監視端末103は、この検索出力画像を、表示部に表示されたユーザインタフェイスの検索出力画像一覧表示部306に一覧表示する。
これにより、人物検索処理を終了する。
【0075】
次に、図7と図8A〜Dのフローチャートを参照して、録画装置101と監視端末103における実際の処理について、より具体的に説明する。
まずは、図7を参照して、監視端末103の処理について説明する。
【0076】
〔監視端末103の処理〕
(ステップS901)
ステップS901において、監視端末103の制御部は、検索ボタン押下検知処理を行う。
具体的には、監視端末103の表示部に表示された図4のユーザインタフェイスにおいて、検索操作部505の検索ボタンがポインティングデバイス等を用いてユーザに押下されたことを検知する。
【0077】
(ステップS902)
ステップS902において、監視端末103の制御部は、検索入力画像送信処理を行う。
具体的には、検索入力画像指定部304の検索入力画像の画像データに係る映像IDを、ネットワーク100を介して、録画装置101に対して送信する。この送信のタイミングは、T101である。
この画像データの送信により、録画装置101に対しては人物検索の実行を要求することとなる。これを、検索実行要求とする。
検索実行要求の際には、更に、検索ボタン押下時の重み種類選択ボタン511〜513の選択状況を送信する。これらの情報を、検索付随情報とする。
その後、監視端末103の制御部は、録画装置101からの顔検出なし情報又は検索出力画像一覧を受信するまで待機する。
なお、監視端末103の制御部は、顔検出なし情報と検索画像一覧のいずれも、所定時間受信しない場合には、録画装置101との接続ができない旨の表示をすることもできる。
【0078】
(ステップS903)
ステップS903において、監視端末103の制御部は、録画装置101からの情報を受信し、この情報が顔検出なし情報であるか判定する。
具体的には、T102の顔検出なし情報送信のタイミングで録画装置101より送信された顔検出なし情報を受信したか、又は(顔検出なし情報ではなく)検索出力画像一覧を受信したかについて判定する。
上述のように、顔検出なし情報は、録画装置101にて顔が検出されなかった「検出なし」を示す情報である。また、検索出力画像一覧は、顔が検出されて各種処理を行った後で録画装置101が出力する画像データ等である。
Yes、つまり「検出なし」の場合は、監視端末103の制御部は、処理をステップS906に進める。
No、すなわち検索出力画像であった場合は、監視端末103の制御部は、処理をステップS904に進める。
【0079】
(ステップS904)
ステップS904において、監視端末103の制御部は、検索出力画像一覧受信処理を行う。
具体的には、監視端末103は、タイミングT103で録画装置101から送信された検索出力画像一覧を、ネットワーク100を介して受信する。
【0080】
(ステップS905)
ステップS905において、監視端末103の制御部は、サムネイル一覧表示処理を行う。
具体的には、受信内容を図4に示した検索出力画像一覧表示部306に、サムネイル表示する。
本発明の実施の形態の人物検索方法では、着衣情報や重み付けを用いて条件の絞り込みができるため、従来の人物検索方法よりもこの検索画像を少なく得る(擬陽性、false positiveが少ない)ことが期待できる。
これにより、ユーザの監視負担を減らすことができるという効果が得られる。
【0081】
(ステップS906)
ステップS906において、監視端末103の制御部は、顔検出なし情報を受信した情報を受信した場合、「検出なし」表示処理を行う。
具体的には、監視端末103の制御部は、検索入力画像には顔が検出できなかった旨を、図4の検索出力画像一覧表示部306等にメッセージ表示する。
【0082】
(ステップS907)
ステップS907において、監視端末103の制御部は、ユーザ操作待ち処理を行う。
具体的には、監視端末103の制御部は、表示部のユーザインタフェイスの表示・更新等の処理を行い、検索操作部505に関して次のユーザ操作待ち状態となる。
以上で、監視端末103の処理を終了する。
【0083】
次に、図8A〜図8Dを参照して、録画装置101の行う人物検索処理についてより詳しく説明する。
【0084】
〔録画装置101の人物検索処理〕
(ステップS911)
まず、ステップS911において、録画装置101のネットワーク部111は、検索入力画像受信処理を行う。
具体的には、タイミングT101で監視端末103から送信された検索入力画像(検索入力画像指定部304の画像)の画像データに係る映像IDを、録画装置101のネットワーク部111で受信する。すなわち、検索実行要求を受信する。
ここで、更に、ネットワーク部111は、重み種類選択ボタン511〜513の選択状況等である検索付随情報についても受信する。
ネットワーク部111は、受信された検索入力画像の画像データと付随情報を、総合判定部121へ出力する。
【0085】
(ステップS912)
ステップS912において、総合判定部121は、検索付随情報記憶処理を行う。
具体的には、総合判定部121は、検索付随情報のうち、重み種類選択ボタン511〜513の選択状況と検索入力画像の映像IDを総合判定部121の一時的な記憶手段に記憶し、更に記憶部112へ出力する。
【0086】
(ステップS913)
ステップS913において、記憶部112は、画像データ検索処理を行う。
具体的には、記憶部112は、入力された映像IDから対応する画像、すなわち検索入力画像の画像データを記録媒体から読み出し、総合判定部121へ出力する。
【0087】
(ステップS914)
ステップS914において、総合判定部121は、画像データ出力処理を行う。
具体的には、総合判定部121は、検索入力画像の画像データを一時的な記憶手段に記憶するとともに、顔領域検出部113へ出力する。
【0088】
(ステップS915)
ステップS915において、顔領域検出部113は、顔検出処理を行う。
具体手的には、顔領域検出部113は入力された検索入力画像の画像データに対し顔検出処理を行う。
【0089】
(ステップS916)
ステップS916において、総合判定部121は、顔が検出されたかについて判定する。
ここでは、ステップS704と同様に閾値を用いて判定する。
Yesの場合、すなわち顔が検出された場合には、総合判定部121は、処理をステップS919に進める。
Noの場合、すなわち顔が検出されなかった場合には、総合判定部121は、処理をステップS917に進める。
【0090】
(ステップS917)
ステップS917において、総合判定部121は、「検出なし」の情報を総合判定部121へ出力する。
【0091】
(ステップS918)
ステップS918において、総合判定部121は、「検出なし」情報送信処理を行う。
具体的には、総合判定部121は、タイミングT102において顔検出なし情報をネットワーク部111から送信する。
この顔検出なし情報は、上述のように「検出なし」の情報であり、ネットワーク100を介して、監視端末103が受信する。
この後、総合判定部121は、処理をステップS969に進める。
【0092】
(ステップS919)
ステップS919において、総合判定部121は、顔領域座標算出処理を行う。
すなわち、ステップS705と同様に、顔の領域座標を算出し、算出した座標値を画像データとともに顔特徴量抽出部114へ出力する。
【0093】
なお、タイミングT102の顔検出なし情報送信の代わりに「検出あり」情報をネットワーク部111から送信してもよい。
これにより、監視端末103がこの「検出あり」情報を受信すると、監視端末103の制御部は、ユーザインタフェイスの検索出力画像一覧表示部306に「検索中」といった表示を描画することができる。よって、ユーザが検索結果を待つ際のいらいら感を減じることが可能になる。
【0094】
(ステップS920)
ステップS920において、顔特徴量抽出部114は、顔特徴量算出処理を行う。
すなわち、ステップS706と同様に、顔特徴量抽出部114は入力された画像と顔領域座標から得られる顔領域画像に対して顔特徴量を算出する。そして、算出した顔特徴量を、総合判定部121へ出力する。
【0095】
(ステップS921)
ステップS921において、総合判定部121は、顔特徴量記憶処理を行う。
具体的には、総合判定部121は、入力された顔特徴量を記憶部112の記憶媒体に記憶する。
【0096】
(ステップS922)
ステップS922において、総合判定部121は、重み種類選択ボタン511及び/又は513が選択されているか判定する。
具体的には、総合判定部121は、ステップS911で入力された重み種類選択ボタン511〜513の選択状況において、重み種類選択ボタン511及び/又は513が選択されているかについて判定する。
Yesの場合は、総合判定部121は、ステップS923に処理を進める。
Noの場合は、総合判定部121は、ステップS931に処理を進める。
【0097】
(ステップS923)
ステップS923において、総合判定部121は、検索入力画像の画像データを着衣領域検出部116へ出力する。
【0098】
(ステップS924)
ステップS924において、着衣領域検出部116は、検索入力画像の画像データ対して、着衣検出処理を行う。この着衣検出処理は、ステップS708と同様に行う。
【0099】
(ステップS925)
ステップS925において、総合判定部121は、着衣が検出されたかを判定する。この判定は、ステップS709と同様に行う。
Yesの場合は、総合判定部121は処理をステップS926に進める。
Noの場合は、総合判定部121は処理をステップS929に進める。
【0100】
(ステップS926)
ステップS926において、着衣領域検出部116は、検索入力画像の画像データ対して、着衣領域座標算出処理を行う。
この処理は、ステップS710と同様に行う。すなわち、着衣の領域座標を算出して、算出した座標値を画像とともに着衣特徴量抽出部117へ出力する。
【0101】
(ステップS927)
ステップS927において、着衣特徴量抽出部117は、検索入力画像の画像データ対して、着衣特徴量算出処理を行う。
この処理は、ステップS711と同様に行う。すなわち、着衣特徴量抽出部117は、検索入力画像の画像データと着衣の領域座標から得られる着衣領域画像に対して、着衣特徴量を算出し、算出した着衣特徴量を総合判定部121へ出力する。
これにより、総合判定部121は、着衣を検出したかについての情報である着衣検出情報を「検出あり」として、一次的な記憶手段に記憶する。
【0102】
(ステップS928)
ステップS928において、総合判定部121は、着衣特徴量記憶処理を行う。
具体的には、総合判定部121は、入力された着衣特徴量を、一時的な記憶手段に記憶する。
この処理の後、総合判定部121は、処理をステップS931に進める。
【0103】
(ステップS929)
ステップS929において、着衣領域検出部116は、着衣が検出されなかった場合には、「検出なし」の情報を総合判定部121へ出力する。
【0104】
(ステップS930)
ステップS930において、総合判定部121は、着衣領域検出部116から「検出なし」の情報を入力された場合には、着衣情報を着衣未検出として一時的な記憶手段に記憶する。
【0105】
(ステップS931)
ステップS931において、総合判定部121は、重み種類選択ボタン511及び/又は512が選択されているか判定する。
具体的には、ステップS911で入力された重み種類選択ボタン500〜513の選択状況において、重み種類選択ボタン511及び/又は512が選択されているかを判定する。
Yesの場合、総合判定部121は、処理をステップS932に進める。
Noの場合、総合判定部121は、処理をステップS935に進める。
【0106】
(ステップS932)
ステップS932において、総合判定部121は、検索入力画像の映像IDを撮影時刻記録部119へ出力する。
【0107】
(ステップS933)
ステップS933において、撮影時刻記録部119は、撮影時刻出力処理を行う。
具体的には、撮影時刻記録部119は、入力された映像IDから対応する時刻、すなわち検索入力画像の撮影時刻を、記憶部112の記録媒体から読み出し、総合判定部121へ出力する。
【0108】
(ステップS934)
ステップS934において、総合判定部121は、入力された時刻を一時的な記憶手段に記憶する。
【0109】
(ステップS935)
ステップS935において、総合判定部121は、重み種類選択ボタン512及び/又は513が選択されているか判定する。
具体的には、ステップS911で入力された重み種類選択ボタン511〜513の選択状況において、重み種類選択ボタン512及び/又は513が選択されているかを判定する。
Yesの場合、総合判定部121は、処理をステップS936に進める。
Noの場合、総合判定部121は、処理をステップS939に進める。
【0110】
(ステップS936)
ステップS936において、総合判定部121は、検索入力画像の映像IDを撮影位置記録部120へ出力する。
【0111】
(ステップS937)
ステップS937において、撮影位置出力処理を行う。
具体的には、撮影位置記録部120は、入力された映像IDから対応する位置、すなわち検索入力画像の撮影位置を、記憶部112の記録媒体から読み出し、総合判定部121へ出力する。
【0112】
(ステップS938)
ステップS938において、総合判定部121は、入力された位置を一時的な記憶手段に記憶する。
【0113】
(ステップS939)
ステップS939において、総合判定部121は、記憶部112の記録媒体から、特徴量データベース801を読み出すための、データベース読み出し準備処理を行う。
具体的には、総合判定部121は、データベースのデーモン又はサービスにアクセスして、特徴量データベース801を使用するための各種準備のコマンドを送信する。
【0114】
(ステップS940)
ステップS940において、総合判定部121は、特徴量データベース801の先頭行を参照行にセットする。
参照行は、総合判定部121の一時的な記憶手段に記憶された変数等であり、特徴量データベース801の表を1行づつ読み出すための、行番号を示すカウンタである。
【0115】
(ステップS941)
次に、ステップS941において、総合判定部121は、参照行から映像IDや顔特徴量、着衣特徴量、撮影時刻、撮影位置を読み出して取得する。
【0116】
(ステップS942)
次に、ステップS942において、総合判定部121は、顔類似度算出処理を行う。
具体的には、総合判定部121は、ステップS941で取得した顔特徴量と記憶手段に記憶されている検索入力画像の顔特徴量から、この映像IDをもつ検索対象画像と検索入力画像との顔類似度を算出する。
【0117】
この顔類似度の算出は、顔特徴量数がm個である場合は、例えば以下の式のようにして求められる。
【0118】
【数1】

【0119】
(Σは、合計を表す)。
ここで、FWiは顔特徴量の重要度を示す係数であり、

FWi={fw1, fw2,…,fwm

で表わされる。
FFIiは検索入力画像の顔特徴量であり、

FFIi={ffi1, ffi2,…,ffim

で表わされる。
FFTiは検索対象画像の顔特徴量であり、

FFTi={fft1, fft2,…,fftm

で表わされる。
すなわち、このステップにより、顔特徴量間の距離を計算して顔類似度を算出している。
なお、このような方法以外にも、特徴量の分布関数を用いた統計的な手法や、サポート・ベクター・マシン等の人工知能的な手法を用いて顔類似度を算出することが可能である。
【0120】
(ステップS943)
次に、ステップS943において、総合判定部121は、重み種類選択ボタン511が選択されているか判定する。
具体的には、総合判定部121は、ステップS911で入力された重み種類選択ボタン511〜513の選択状況において、重み種類選択ボタン511が選択されているかを判定する。加えて、着衣情報が着衣未検出の状態であるかについても判定する。
Yesの場合、すなわち、重み種類選択ボタン511が選択されており、着衣未検出の状態でない場合は、総合判定部121は、処理をステップS944に進める。
Noの場合、すなわち、それ以外の場合は、総合判定部121は、処理をステップS948に進める。
【0121】
(ステップS944)
このステップS944〜S947において、総合判定部121は、撮影時刻情報と着衣情報の2者の関係に基づく重みの算出を行う。
まず、ステップS944において、総合判定部121は、着衣類似度算出処理を行う
具体的には、総合判定部121は、ステップS941で取得した着衣特徴量と、一時的な記憶手段に記憶されている検索入力画像の着衣特徴量とを比較し、この映像IDを有する検索対象画像と検索入力画像と着衣類似度を算出する。
着衣類似度の算出は、着衣特徴量の数がn個である場合、以下の式で求められる。
【0122】
【数2】

【0123】
ここでCWiは着衣特徴量の重要度を示す係数であり、
CWi={cw1, cw2,…,cwn
で表わされる。
CFIiは検索入力画像の着衣特徴量であり、
CFIi={cfi1, cfi2,…,cfin
で表わされる。
CFTiは検索対象画像の着衣特徴量であり、
CFTi={cft1, cft2,…,cftn
で表わされる。
なお、この着衣類似度についても、特徴量間の距離を算出している。
この着衣類似度に関しても、特徴量の分布関数を用いたり、サポート・ベクター・マシン等の人工知能的な手法や、統計的な手法を用いて算出することが可能である。
【0124】
(ステップS945)
ステップS945において、総合判定部121は、算出した着衣類似度を所定の閾値と比較して、着衣の同一性について判断する。
この閾値は、使用する着衣特徴量により異なるため、最適なパラメータを予め指定することができる。
判定結果は、一時的な記憶手段に記憶する。
【0125】
(ステップS946)
ステップS946において、総合判定部121は、時刻の近傍性を所定の閾値と比較して判断する。
具体的には、総合判定部121は、ステップS941で取得した撮影時刻と記憶手段に記憶されている検索入力画像の撮影時刻と検索対象画像の撮影時刻との差の絶対値を、時刻の近傍性に係る所定の閾値と比較して判断する。
この所定の閾値としては、例えば、人が歩行したりタクシー等で移動する速度を基にして設定することができる。
この判定結果は、総合判定部121は、一時的な記憶手段に記憶する。
【0126】
(ステップS947)
ステップS947において、総合判定部121は、撮影時刻情報と着衣情報の2者の関係に基づく重みの算出処理を行う。
この算出処理においては、ユーザが時刻+着衣重み設定表610の設定値入力欄611〜614に入力した値を用いて行う。
具体的には、総合判定部121は、時刻の近傍性の判定結果と、図5の時刻+着衣重み設定表610でユーザが入力した値とを掛ける等の処理を行って重みの算出を行う。
この処理の後、総合判定部121は、処理をステップS950へ進める。
【0127】
(ステップS948)
ステップS948において、ステップS911で入力された重み種類選択ボタン511〜513の選択状況において、重み種類選択ボタン511が選択されていない場合、総合判定部121は撮影時刻情報と着衣情報の2者の関係に基づく重みの値を1とする。
また、総合判定部121は、着衣情報が着衣未検出の状態であった場合にも、同様に重みの値を1とする。
【0128】
(ステップS949)
ステップS949において、総合判定部121は、重み種類選択ボタン512が選択されていたかを判定する。
具体的には、ステップS911で入力された重み種類選択ボタン511〜513の選択状況において、ユーザにより重み種類選択ボタン512が選択されていたかを判定する。
Yesの場合は、総合判定部121は、処理をステップS950へ進める。
Noの場合は、総合判定部121は、処理をステップS953へ進める。
【0129】
(ステップS950)
以下、ステップS950〜S952において、総合判定部121は、まず、撮影時刻情報と撮影位置情報の2者の関係に基づく重みの算出を行う。
まず、ステップS950において、総合判定部121は、時刻の近傍性判断処理を行う。
具体的には、総合判定部121は、ステップS941で取得した撮影時刻と、一時的な記憶手段に記憶されている検索入力画像の撮影時刻から、所定の閾値と比較して、時刻の近傍性を判断する。
すなわち、検索対象画像と検索入力画像の撮影時刻との差の値を、所定の閾値と比較して、時刻の近傍性を判断する。
判断した結果は、総合判定部121の一次的な記憶手段に記憶する。
【0130】
(ステップS951)
ステップS951において、総合判定部121は、位置の近傍性判断処理を行う。
ステップS943において、総合判定部121は、ステップS941で取得した撮影位置と記憶手段に記憶されている検索入力画像の撮影位置から位置の近傍性を予め設定した閾値と比較して判断する。
すなわち、総合判定部121は、検索対象画像と検索入力画像の撮影位置の差を所定の閾値と比較して、位置の近傍性を判断する。
判断した結果は、同様に、総合判定部121の一次的な記憶手段に記憶する。
【0131】
なお、上述のステップS950とS951の所定の閾値としては、上述の場合の条件(1)〜(7)を考慮した閾値を用いることができる。
この閾値は、例えば、時刻の閾値としては、同一日や非同一日であるか否か、数時間以内であるか否か等に関する値を用いることができる。
位置の閾値としては、撮影位置の差が実際の距離(所定メートル等)以内であるか、同一建物(駅等)の構内である等の値を用いることができる。
さらに、これらの閾値は、実際のアプリケーションに従って調整して用いることができる。
【0132】
また、複数の離れた位置に、近い時刻で検出された場合は、より「同一人物の可能性が高い」とすることもできる。
【0133】
(ステップS952)
ステップS952において、総合判定部121は、判定された値を用いて、撮影時刻情報と撮影位置情報の2者の関係に基づく重みの算出処理を行う。
この重みの算出は、ユーザにより時刻+位置重み設定表620に入力された値を用いて行う。
具体的には、総合判定部121は、上述のステップS950とステップS951の判定結果を、図5の時刻+位置重み設定表620に適用して、撮影時刻情報と撮影位置情報に基づく重みの算出を行う。
この処理を行った後、総合判定部121は、処理をステップS954に進める。
【0134】
(ステップS953)
ステップS953において、総合判定部121は撮影時刻情報と撮影位置情報の2者の関係に基づく重みの値を1とする。
これは、ステップS911で入力された重み種類選択ボタン511〜513の選択状況において、重み種類選択ボタン512が選択されていない場合である。
【0135】
(ステップS954)
ステップS954において、重み種類選択ボタン513が選択されているか判定する。
具体的には、総合判定部121は、ステップS911で入力された重み種類選択ボタン511〜513の選択状況において、重み種類選択ボタン513が選択されているかを判定する。
Yesの場合、総合判定部121は、処理をステップS955に進める。
Noの場合、総合判定部121は、処理をステップS959に進める。
【0136】
(ステップS955)
以下、ステップS955〜S958において、総合判定部121は撮影位置情報と着衣情報の2者の関係に基づく重みの算出を行う。
まずは、ステップS955において、着衣類似度算出処理を行う。
具体的には、ステップS941で取得した着衣特徴量と記憶手段に記憶されている検索入力画像の着衣特徴量を基に、この映像IDをもつ検索対象画像と検索入力画像との間で、着衣類似度を算出する。
着衣類似度の算出は、ステップS944の方法等と同様に行う。
【0137】
(ステップS956)
ステップS956において、総合判定部121は、着衣の同一性判断処理を行う。
具体的には、総合判定部121は、ステップS945と同様に、算出した着衣類似度を所定の閾値と比較して、着衣の同一性を判断する。
【0138】
(ステップS957)
ステップS957において、位置の同一性判断処理を行う。
具体的には、総合判定部121は、ステップS941で取得した撮影位置と記憶手段に記憶されている検索入力画像の撮影位置から位置の近傍性を、所定の閾値と比較して判断する。
【0139】
(ステップS958)
ステップS958において、総合判定部121は、ステップS958の判定結果について、図5の位置+着衣重み設定表630の値を適用して、撮影位置情報と着衣情報の2者の関係に基づく重みの算出を行う。
【0140】
(ステップS959)
ステップS959において、総合判定部121は撮影位置情報と着衣情報の2者の関係に基づく重みの値を1とする。すなわち、ステップS911で入力された重み種類選択ボタン511〜513の選択状況において、重み種類選択ボタン513が選択されていない場合の重みの値は1となる。
なお、着衣情報が着衣未検出の状態であった場合にも、同様に重みの値を1とする。
【0141】
(ステップS960)
ステップS960において、総合判定部121は、総合類似度を算出する。
具体的には、ステップS942にて算出した顔類似度に対し、それぞれ、ステップS942〜S948、S949〜S953、S954〜S959で算出した各重み値を掛け合わせて、総合類似度の値を算出する。
すなわち、総合類似度の値は:

総合類似度=顔類似度×(時刻+着衣重み設定値)×(時刻+位置重み設定値)×(位置+着衣重み設定値)

のような式により、算出する。
ここで、各重みの設定値群に対しては、上述の閾値による条件を基にした値を適用して計算する。この条件としては、各重み設定の表における位置や時刻の近傍性が、閾値以下か閾値を超えたかについて、上述の(1)〜(7)の条件を用いて判断する。
以上のように、着衣特徴量が直接、総合類似度に反映されるわけではない。
【0142】
(ステップS961)
ステップS961において、総合判定部121は、検索出力画像判断処理を行う。
具体的には、総合判定部121は、算出した総合類似度を所定の閾値と比較して、検索出力画像を出力するか判断する。
【0143】
(ステップS962)
ステップS962において、総合判定部121は、ステップS961で判断をした値が、閾値を上回る値であったかについて判定する。
Yesの場合は、総合判定部121は、処理をステップS963に進める。
Noの場合は、総合判定部121は、処理をステップS964に進める。
【0144】
(ステップS963)
ステップS963において、総合判定部121は、検索対象画像を検索出力画像の1つと判定し、該検索対象画像を映像IDとともに一時的な記憶手段に記憶する。
【0145】
(ステップS964)
ステップS964において、総合判定部121は、参照行を1行下にずらす。
これにより、特徴量データベース801の末尾行(最終行)を超えるまで、次の行を参照することができる。末尾行は、特徴量データベース801の表の最終行である。
【0146】
(ステップS965)
総合判定部121は、参照行が末尾行を超えたかについて判定する。
Yesの場合、総合判定部121は、処理をステップS966に進める。
Noの場合、総合判定部121は、処理をステップS941に戻して、一連の処理を参照行が末尾行を超えるまで同様に繰り返す。
【0147】
(ステップS966)
ステップS966において、総合判定部121は、検索出力画像一覧リスト化処理を行う。
具体的には、総合判定部121は、ステップS965で参照行が末尾行を超えたと判定した場合、一時的な記憶手段に記憶された全ての総合類似度を映像IDとともに取り出す。この上で、総合判定部121は、映像IDの画像データを検索出力画像一覧としてリスト化して、一時的な記憶手段に記憶する。
このリスト化の際に、総合判定部121は、総合類似度、時刻順、カメラ順等の順番になるようにソート処理を実行するようにしてもよい。
【0148】
(ステップS967)
ステップS967において、総合判定部121は、検索出力画像一覧をネットワーク部へ111へ出力する。
【0149】
(ステップS968)
ステップS968において、ネットワーク部111は、入力された検索出力画像一覧をネットワークを介して、監視端末103に送信する。この処理のタイミングは、タイミングT103である。
【0150】
(ステップS969)
ステップS969において、録画装置101は、次の検索実行要求の受信待ち状態となる。
ネットワーク部111は、次の検索実行要求を受信した場合は、処理をステップS911に戻す。ここまでが、録画装置101での処理である。
録画装置101は、この状態にてシャットダウン等を行うと、処理を終了する。
以上により、人物検索処理を終了する。
【0151】
このように構成することで、以下のような効果が得られる。
まず、従来技術1においては、正面方向以外の方向から映した顔画像に対する認識精度は低いという問題があった。また、顔の大きさが小さい場合には、認識精度も低いという問題があった。
これにより、人物検索方法を実用的に用いることが難しいという問題があった。このため、人物検索機能は、本格的には利用されていないという問題があった。
【0152】
しかしながら、本発明の実施の形態に係る人物検索方法においては、顔認識の精度がそれほど高くなくても、精度の高い人物検索方法を提供することができる。
これは、顔特徴量に加えて、服装の特徴である着衣特徴量を用い、さらに時刻・位置・着衣のルールを用い、さらに重み付けの値を算出して適用することにより実現することができる。
これにより、ユーザが所望の人物の映像を、より効率よく簡単に見つけることが可能となる。
よって、監視システムにおいて、人物検索方法を実用的に用いることが可能となる。
【0153】
このように人物検索方法の精度が向上することにより、その時点で録画されている全画像に映された全ての人物について、その人物の含まれている画像を検索することも可能である。
その検索した画像の映像IDを用いることで、位置と時間の情報を得ることができる。
これにより、特定の場所や時間での人の流れについてリサーチを行うことが可能になる。
たとえば、あるビル内での人の動きを検索して、より効率的な店舗の配置等に用いることができる。
また、例えば、遊園地等の遊戯施設内で、入場者がアトラクションを廻る順番等が把握できるため、各アトラクションの値段を適切に設定したり、遊戯施設内の通路を最適化することも可能である。
なお、多数の人物について検索を行う場合は、プライバシーに配慮して、各検索結果については記録を残さずに、各映像IDの移動の情報といった値のみを統計処理することが望ましい。
【0154】
また、従来は、連続的な相関モデル等により人物検索を行う方法が用いられることもあった。ところが、人物検索が用いられる状況は様々であり、連続的な相関モデルによれば、これらの様々な状況に対応できないという問題があった。
これに対して、本発明においては、人物検索における着衣特徴量との関係において、位置や時刻が同一/非同一で単純に条件により場合分けして、それぞれの重みを直接に指定できるようにした。
これにより、様々な状況に対応でき、検索者の意図した検索が可能であるため、使い勝手がよくなるという効果が得られる。
【0155】
なお、本発明の実施の形態においては、検索対象画像は、その時点で録画されている全画像を対象とした場合を説明したが、当然、時刻やカメラ等が限定された画像を対象とすることも可能である。
さらに、特定の性別や年齢(大人か子供か)の対象を検索することも可能である。この性別と年齢は、顔領域や着衣の特徴量から及び背の高さ等から判断することができる。
【0156】
また、本発明の実施の形態においては、録画装置101内で検索出力画像一覧を完全に求めてから監視端末103に送信するようにしたが、ステップS962において、検索出力画像と判定される毎に監視端末103に逐次送信するようにしてもよい。
【0157】
また、本発明の実施の形態においては、検索入力画像中に存在する人物が各1名である場合について示したが、検索入力画像中に複数人が存在する場合には、それぞれの人物に対する検索結果をORした結果をユーザに返すようにしてもよい。
また、この場合、監視端末103の制御部は、複数人が存在する旨をユーザ側に通知し、検索対象とする1名を監視端末103のポインティングデバイス等で指定・選択するようにユーザインタフェイスにより選択させ、ユーザにより選択された1名に対して実施するようにしてもよい。
【0158】
また、説明の簡略化のため、本図においては撮像装置102や監視端末103を、各1台の構成で示した。しかし、これらの装置は、ネットワーク100に複数台、接続することが可能である。
また、本例においては、検索の画像の指定のみを端末で行い、録画と検索とを同一の装置で実行する構成を示した。しかし、録画と検索とについても別々の装置で実行するようにしてもよい。
【0159】
また、本発明の実施の形態においては、ユーザの指示に従い、映像IDを含む検索付随情報のみを監視端末103から録画装置101に送信し、画像データそのものは送信しないような説明をした。しかしながら、監視端末103から画像データそのものを送信して、この画像データを基に、録画装置101が各種検索処理を行うことが可能である。
さらに、本発明の実施の形態においては、検索対象画像は録画された画像から選択するように説明した。しかし、例えば、撮像装置102とは異なる機器により撮影した画像を、検索対象画像とすることもできる。
【0160】
また、上述の映像IDとしては、録画開始時からの経過時間、特定のシグナル(顔特徴量など)を検出した際に割り当てられるユニークな数字のIDを用いてもよい。また、検索用のタグデータ、ハッシュデータ、その他、検索を容易にするための様々な情報を用いることもできる。
また、上述の入力する重みの設定値は、割合の値で与えるように示したが、加算値(又は減算値)のような形式の「重みの重み」のような調整値を用いてもよい。また、重みの設定値に加えて、「重みの重み」の調整値を加えるように構成することもできる。
【0161】
なお、上記実施の形態の構成及び動作は例であって、本発明の趣旨を逸脱しない範囲で適宜変更して実行することができることは言うまでもない。
【図面の簡単な説明】
【0162】
【図1】本発明の実施の形態に係る監視システムYのシステム構成図である。
【図2】本発明の実施の形態に係る顔特徴量や着衣特徴量や撮影時刻や撮影位置を示す特徴量データベース801の構成を示す概念図である。
【図3】本発明の実施の形態に係る録画装置101における、映像録画時の処理の流れを示すフローチャートである。
【図4】本発明の実施の形態に係る監視端末103における、人物検索のためのユーザインタフェイスの例を示す図である。
【図5】本発明の実施の形態に係る監視端末103における、重み設定画面の例を示す図である。
【図6】本発明の実施の形態に係る人物検索方法実行のタイミングチャートである。
【図7】本発明の実施の形態に係る人物検索方法実行時の監視端末103における処理の流れを示すフローチャートである。
【図8A】本発明の実施の形態に係る人物検索方法実行時の録画装置101における処理の流れを示すフローチャートである。
【図8B】本発明の実施の形態に係る人物検索方法実行時の録画装置101における処理の流れを示すフローチャートである。
【図8C】本発明の実施の形態に係る人物検索方法実行時の録画装置101における処理の流れを示すフローチャートである。
【図8D】本発明の実施の形態に係る人物検索方法実行時の録画装置101における処理の流れを示すフローチャートである。
【図9】従来の人物検索機能を備えた監視システムXのシステム構成図である。
【図10】従来の監視端末203における、人物検索のためのユーザインタフェイスの例を示す図である。
【符号の説明】
【0163】
100、200 ネットワーク
101、201 録画装置
102、202 撮像装置
103、203 監視端末
111、211 ネットワーク部
112、212 記憶部
113、213 顔領域検出部
114、214 顔特徴量抽出部
115、215 顔特徴量記録部
116 着衣領域検出部
117 着衣特徴量抽出部
118 着衣特徴量記録部
119 撮影時刻記録部
120 撮影位置記録部
121 総合判定部
216 顔判定部
301 再生映像表示部
302 再生操作部
303 カメラ切替操作部
304 検索入力画像指定部
305、505 検索操作部
306 検索出力画像一覧表示部
511〜513 重み種類選択ボタン
514 重み設定ボタン
610 時刻+着衣重み設定表
611〜614、621〜624、631〜634 設定値入力欄
620 時刻+位置重み設定表
630 位置+着衣重み設定表
641 適用ボタン
642 閉じるボタン
801 特徴量データベース
811 映像ID列
812 顔特徴量列
813 着衣特徴量列
814 撮影時刻列
815 撮影位置列
X、Y 映像監視システム

【特許請求の範囲】
【請求項1】
画像を録画する監視システムにおける人物検索方法において、
録画した複数の画像の画像データから求められる、撮影時刻情報、撮影位置情報、顔特徴量、及び着衣情報をそれぞれ記憶し、
前記撮影時刻情報が近傍か非近傍かの近傍性と、前記着衣情報が同一か非同一かの同一性との条件の組み合わせに対応する時刻+着衣重み設定値、及び
前記撮影時刻情報が近傍か非近傍かの近傍性と、前記撮影位置情報が近傍か非近傍かの近傍性との条件の組み合わせに対応する時刻+位置重み設定値、及び
前記撮影位置情報が近傍か非近傍かの近傍性と、前記着衣情報が同一か非同一かの同一性との条件の組み合わせに対応する位置+着衣重み設定値の入力を予め受け、
用いる重み設定値と検索対象画像とについての指定とともに検索の指示を受けたときに、
前記録画した画像と前記検索対象画像との間で、前記顔特徴量の差分、指定された前記時刻+着衣重み設定値、又は前記時刻+位置重み設定値、又は前記位置+着衣重み設定値に対応する重みを与えて得られる総合類似度用いて、録画された人物の同一性を判断する
ことを特徴とする人物検索方法。
【請求項2】
撮像装置、録画装置、及び監視端末を備えて画像を録画する監視システムであって、
前記録画装置は、
前記撮像装置で撮像した画像から顔特徴量を抽出する顔特徴量抽出手段と、
前記撮像装置で撮像した画像から着衣特徴量を抽出する着衣特徴量抽出手段と、
録画した画像の画像データ、撮影時刻情報、撮影位置情報、前記顔特徴量抽出手段で抽出された顔特徴量、前記着衣特徴量抽出手段で抽出された着衣情報のうち、少なくとも1つ以上を記憶する記憶手段と、
前記撮影時刻情報、前記撮影位置情報、及び前記着衣情報のうち、いずれかに対応する重み値を用いて、検索対象画像と前記録画した画像に撮影された人物の同一性を判断する総合判断手段と
を備えることを特徴とする監視システム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8A】
image rotate

【図8B】
image rotate

【図8C】
image rotate

【図8D】
image rotate

【図9】
image rotate

【図10】
image rotate


【公開番号】特開2009−199322(P2009−199322A)
【公開日】平成21年9月3日(2009.9.3)
【国際特許分類】
【出願番号】特願2008−40117(P2008−40117)
【出願日】平成20年2月21日(2008.2.21)
【出願人】(000001122)株式会社日立国際電気 (5,007)
【Fターム(参考)】