説明

追跡方法、監視システム及びプログラム

【課題】追跡方法、監視システム及びプログラムにおいて、追跡対象が周辺領域に影響を及ぼす場合であっても安定した追跡を行うことを目的とする。
【解決手段】監視領域内の複数の箇所で前記監視領域内の領域を撮影するカメラからの画像データに基づいて、追跡対象の位置を推定した推定結果の分布を用いて前記追跡対象の存在確率を表す第1の多値化画像データを生成し、前記カメラからの画像データに基づいて、前記追跡対象らしさの度合いを表す第2の多値化画像データを生成し、前記第1の多値化画像と前記第2の多値化画像を比較し、比較結果に基づいて前記推定結果を評価して前記推定結果を再構成することで前記追跡対象を追跡し、前記第1及び第2の多値化画像は、いずれもn≧3(nは自然数)を満たすn値化画像である。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、追跡方法、監視システム及びプログラムに係り、特に人等の追跡対象を追跡する追跡方法、監視システム及びプログラムに関する。
【背景技術】
【0002】
データセンタ等、セキュリティレベルの高い施設では、多数の監視カメラを監視領域に対して死角なく配置して監視を行っている。しかし、多数のカメラで人等の追跡対象を同時に監視することは難しい。又、データセンタ等の屋内監視カメラでは、様々なオクルージョンが発生すると共に、カメラからの距離によって人の大きさが違う等の問題があり、従来技術を用いた追跡(又は、トラッキング)や、顔等の特徴抽出による追跡は困難である。
【0003】
そこで、監視領域の見取り図(又は、地図)上に大まかな追跡対象の位置を表示することで、追跡対象の大まかな動きを把握することが提案されている(特許文献1)。
【0004】
又、人のシルエット画像と、シルエット画像をシミュレートしたシミュレーション画像の一致度を尤度としたパーティクルフィルタを各追跡対象に対して構成する方法が提案されている(特許文献2)。屋内監視カメラの場合、画像の予測値を画面上に投影して実画像と比較しながら追跡対象の位置を推定する方法が有用である。しかし、2値化したシルエット画像とシミュレーション画像を用いる場合には、以下のような問題がある。
【0005】
背景差分法やフレーム間差分法によって特定したシルエット画像の領域が必ずしも人領域のみを抽出できるとは限らない。背景差分法による領域抽出を行った場合には、人領域以外の背景領域の変化等が問題になる。例えば、監視領域内で人が作業場所まで移動し、何らかの作業をして立ち去るシーンでは、作業によって物の配置が変化するので、人(即ち、追跡対象)が人領域の周辺領域の状態に影響を及ぼす。例えば、人が椅子に座って作業を行うのであれば、椅子を引く行ためにより椅子周辺の広域に関して背景が変化してしまう。従って、椅子に座った人がその後立ち去った場合にも、作業場所周辺が背景差分により抽出されてしまい、追跡対象である人を追跡できない場合もある。又、フレーム間差分法によって領域抽出を行った場合には、静止した人を抽出することはできず、更に、動きが少ない作業を行っている人の追跡ができない場合もある。
【0006】
このように、どのような方法によってシルエット画像を抽出したとしても、特に様々なオクルージョンが発生する屋内監視カメラを用いた追跡の場合には、人領域だけを確実に抽出することは困難である。つまり、シミュレーション画像として生成されたシルエット画像の誤差が大きい場合には、追跡に失敗する可能性がある。又、シミュレーション画像は過去に予測した状態を元に作成されるが、予測した状態の誤差が大きい場合にはその後の推定に悪影響を与えてしまい、更に予測状態の誤差が大きくなるというスパイラルに陥ることになる。特に、追跡の開始から追跡が安定するまでの期間や、追跡対象がカメラの死角に入り推定が曖昧になる場合に、上記のスパイラルに陥りやすい。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】特開2007−249885号公報
【特許文献2】特許第3664784号公報
【特許文献3】特開平5−216866号公報
【発明の概要】
【発明が解決しようとする課題】
【0008】
従来の監視システムでは、追跡対象が周辺領域に影響を及ぼす場合に安定した追跡を行うことは難しいという問題があった。
【0009】
そこで、本発明は、追跡対象が周辺領域に影響を及ぼす場合であっても安定した追跡を行うことのできる追跡方法、監視システム及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0010】
本発明の一観点によれば、監視領域内の複数の箇所で前記監視領域内の領域を撮影するカメラからの画像データに基づいて、追跡対象の位置を推定した推定結果の分布を用いて前記追跡対象の存在確率を表す第1の多値化画像データを生成するステップと、前記カメラからの画像データに基づいて、前記追跡対象らしさの度合いを表す第2の多値化画像データを生成するステップと、前記第1の多値化画像と前記第2の多値化画像を比較し、比較結果に基づいて前記推定結果を評価するステップと、前記評価に基づいて前記推定結果を再構成することで前記追跡対象を追跡するステップを含み、前記第1及び第2の多値化画像は、いずれもn≧3(nは自然数)を満たすn値化画像であるが提供される。
【0011】
本発明の一観点によれば、監視領域内の複数の箇所で前記監視領域内の領域を観測するカメラからの画像データに基づいて追跡対象を追跡する監視システムであって、前記画像データに基づいて、前記追跡対象の位置を推定した推定結果の分布を用いて前記追跡対象の存在確率を表す第1の多値化画像データを生成する第1の生成手段と、前記画像データに基づいて、前記追跡対象らしさの度合いを表す第2の多値化画像データを生成する第2の生成手段と、前記第1の多値化画像と前記第2の多値化画像を比較し、比較結果に基づいて前記推定結果を評価する評価手段と、前記評価に基づいて前記推定結果を再構成することで前記追跡対象を追跡する追跡手段を備え、前記第1及び第2の多値化画像は、いずれもn≧3(nは自然数)を満たすn値化画像である監視システムが提供される。
【0012】
本発明の一観点によれば、コンピュータに追跡対象の追跡を行わせるプログラムであって、監視領域内の複数の箇所で前記監視領域内の領域を撮影するカメラからの画像データに基づいて、追跡対象の位置を推定した推定結果の分布を用いて前記追跡対象の存在確率を表す第1の多値化画像データを生成する手順と、前記カメラからの画像データに基づいて、前記追跡対象らしさの度合いを表す第2の多値化画像データを生成する手順と、前記第1の多値化画像と前記第2の多値化画像を比較し、比較結果に基づいて前記推定結果を評価する手順と、前記評価に基づいて前記推定結果を再構成することで前記追跡対象を追跡する手順を前記コンピュータに実行させ、前記第1及び第2の多値化画像は、いずれもn≧3(nは自然数)を満たすn値化画像であるプログラムが提供される。
【発明の効果】
【0013】
開示の追跡方法、監視システム及びプログラムによれば、追跡対象が周辺領域に影響を及ぼす場合であっても安定した追跡を行うことができる。
【図面の簡単な説明】
【0014】
【図1】追跡対象が人の場合の監視画面の一例を示す図である。
【図2】一般的な対象追跡フィルタの処理を説明する図である。
【図3】パーティクルフィルタによる追跡を説明する図である。
【図4】複数の追跡対象の追跡方法を説明する図である。
【図5】人の位置を推定するための仮説の評価方法を説明する図である。
【図6】図5の評価方法で用いる画像の一例を示す図である。
【図7】監視領域の見取り図の一例を示す図である。
【図8】本発明の他の実施例における監視システムを説明する図である。
【図9】人の位置推定器をパーティクルフィルタで形成する場合のCPUの動作を説明するフローチャートである。
【図10】監視領域内の人の配置例を示す図である。
【図11】図10の配置例について特定のカメラが撮影した画像例を示す図である。
【図12】更新された人の存在確率分布例を示す図である。
【図13】観測から得られた多値化画像データの例を示す図である。
【図14】人の確率画像データの例を示す図である。
【図15】他者の確率画像データを足し合わせた確率画像データの例を示す図である。
【図16】各仮説の尤度計算に使われる多値化画像データの例を示す図である。
【図17】各背景画像データの更新方法として、人存在確率画像データを使用した背景の更新の一例を示す図である。
【図18】実施例のように多値化画像データを用いることにより追跡対象の追跡が成功する例を示す図である。
【発明を実施するための形態】
【0015】
開示の追跡方法、監視システム及びプログラムでは、追跡対象の位置を推定した推定結果の分布を用いて追跡対象の存在確率を表す多値化画像を生成する。追跡対象の存在確率を表す多値化画像と追跡対象らしさの度合いを表す多値化画像は比較され、比較結果に基づいて推定結果を評価して推定結果を再構成又は補正することで追跡対象を追跡する。尚、多値化画像とは、n≧3(nは自然数)を満たすn値化画像を意味する。
【0016】
例えば、特許文献1のように監視領域の見取り図(又は、地図)上に大まかな追跡対象の位置を表示することで、追跡対象の大まかな動きを把握することができ、監視映像と併用することにより効率良く追跡対象の監視を行うことができる。
【0017】
図1は、追跡対象が人の場合の監視画面の一例を示す図である。図1において、監視画面1は、監視領域の見取り図の表示2、第1カメラの監視映像の表示3、及び第2カメラの監視映像の表示4を含む。この例では、監視領域は部屋であり、部屋の中には机1−Aや椅子1−B等が存在する。見取り図中、第1カメラの位置はC1で示し、第2カメラの位置はC2で示す。見取り図の表示2中、追跡された人の推定位置は多数の黒い点Pで示され、監視画面1がカラー画像の場合には点Pの色により各推定位置での人の存在時間を表すこともできる。
【0018】
追跡対象の存在確率を表す多値化画像と追跡対象らしさの度合いを表す多値化画像の比較結果に基づいて追跡対象の位置の推定結果を評価して追跡対象を追跡することで、追跡対象が周辺領域に影響を及ぼす場合であっても安定した追跡を行うことができる。
【0019】
以下に、開示の追跡方法、監視システム及びプログラムの各実施例を図面と共に説明する。
【実施例】
【0020】
各実施例の理解を容易にするため、先ず、一般的な状態追跡フィルタとパーティクルフィルタ(Particle Filter)を用いた状態追跡フィルタについて、図2と共に説明する。図2は、一般的な対象追跡フィルタの処理を説明する図である。
【0021】
パーティクルフィルタを用いた追跡対象の追跡では、1つの追跡対象毎にフィルタと呼ばれるパーティクルの集合を1つ与えることにより追跡を行う。パーティクルの群によって多数の仮説を保持することで、ロバスト(Robust)な追跡が可能になる。
【0022】
一般的な状態追跡フィルタ11は、図2に示すように、追跡対象の推定状態量(例えば、人の位置)の初期化を行う部分111、時間経過による状態量の変化の予測を行う部分112、観測を行うカメラ(図示せず)等が出力する画像データに画像処理部12が所定の画像処理を施した画像データに基づいて観測による予測値の評価を行う部分113、及び評価による状態量の変化の予測の補正を行う部分114を有する。上記の如き部分112〜114の処理を繰り返すこととにより、追跡対象の状態量を追跡する。
【0023】
しかし、観測が曖昧であり、評価によっては状態量を単一の状態量に補正することが適切ではない場合もある。このような場合には、状態量を確率分布として扱う方法が知られている。パーティクルフィルタは、状態量を確率分布として扱う1つの手法であり、有限個の状態量の仮説を保持し、仮説の分布により確率分布を表している。パーティクルフィルタを用いた追跡の場合、全ての仮説に対して状態量を確率モデルに従って変化させ、各仮説をカメラ等が出力する画像データに基づいて評価する。このような評価の結果を表す評価値により仮説の集合(又は、仮説セット)を再構成又は補正することで、追跡対象の状態量を追跡する。
【0024】
図3は、パーティクルフィルタによる追跡を説明する図である。パーティクルフィルタ21は、図3に示すように、有限個の状態量(例えば、人の位置)の仮説の初期化を行う部分211、全ての仮説に対して時間経過による状態量の変化の予測を行う部分212、観測を行うカメラ(図示せず)等が出力する画像データに画像処理部12が所定の画像処理を施した画像データに基づいて観測による予測値を評価することで各仮説の評価を行う部分213、及び評価による仮説セットの再構成又は補正を行う部分214を有する。上記の如き部分212〜214の処理を繰り返すこととにより、追跡対象の状態量を追跡する。
【0025】
パーティクルフィルタ21を用いる場合、確率分布を表現できる程度の仮説数が必要である。このため、追跡する状態の変数が増加すると、必要なパーティクルの数が指数関数的に増大し、追跡に伴う計算量も同様に増大する。
【0026】
このように、複数の追跡対象を追跡する場合、複数の追跡対象の配置を1つの状態量として扱うと計算量が指数関数的に増加するため、図4に示すように、追跡対象毎に追跡を行う構成にしても良い。図4は、複数の追跡対象の追跡方法を説明する図である。、図4では、説明の便宜上、追跡対象が人であり特定の人hの位置を推定するものとする。
【0027】
図4に示す監視システムは、M(Mは2以上の自然数)台のカメラ31−1〜31−M、M個の画像抽出部32−1〜32−M、及びN(Nは2以上の自然数)個の位置推定器33−1〜33−Nを有する。画像抽出部32−1〜32−Mは、カメラ31−1〜31−Mが出力する画像データから人領域らしき画像を周知の方法で抽出し、人領域らしき画像、即ち、人が存在する確率が一定以上の領域の画像に関する確率画像データを出力する。人領域らしき画像は、例えば人の肌色を検出する等の方法で抽出可能である。人以外の追跡対象の対象領域らしき画像は、追跡対象に固有な形状、色、動き(行動パターンを含む)等の特徴を検出する等の方法で抽出可能である。人の特徴量を用いて人を追跡する方法自体は、例えば上記特許文献2等にて提案されている。人h(1<h<N)の位置は、画像抽出部32−1〜32−Mからの確率画像データに基づいて位置推定器33−hにより推定され、人hの位置の推定分布が求められる。
【0028】
例えば、監視システムの監視領域内で人hが作業場所まで移動し、何らかの作業をして立ち去るシーンでは、作業によって物の配置が変化するので、人(即ち、追跡対象)が人領域の周辺領域の状態に影響を及ぼす。このように、1つの観測(この例ではカメラの出力画像データ)に複数の追跡対象が影響を及ぼすため、本実施例では追跡対象の推定位置を評価する時に他の追跡対象をどのように扱うかを工夫する。具体的には、本実施例では、既に求めた他の人の推定位置に関する推定分布を元に、各画素(又は、複数の画素からなるブロック)が人領域である確率を計算し、その確率に基づいて多値化画像を生成する。この多値化画像に評価する仮説の推定画像を重ね合わせた画像と、観測画像との一致度を評価する。観測画像についても、様々な画像処理結果から計算される、各画素(又は、複数の画素からなるブロック)の人領域らしさの度合いを表す多値化画像を計算して、上記人領域である確率に基づいて生成された多値化画像と比較する。
【0029】
図5は、人hの位置を推定するための仮説の評価方法を説明する図である。図5において、ED1〜EDNは図4の位置推定器33−1〜33−Nで求めた人1〜Nの推定位置の推定分布を示し、Exphは追跡対象である人hの位置の仮説を示す。ステップST1では、例えば前回の推定サイクルで求めた人1〜Nの推定位置の推定分布ED1〜EDNと、人hの仮説Exphとに基づいて監視領域内の人hの存在確率を表す多値化画像(又は、存在確率画像)を計算で求める。ステップST2では、観測画像から人hらしさの度合いを表す多値化画像を計算で求める。ステップST3では、ステップST1で求めた人hの存在確率を表す多値化画像とステップST2で求めた人hらしさの度合いを表す多値化画像を比較し、比較結果に基づいて人hの位置の仮説の尤度を計算で求める。
【0030】
このように、ステップST3は、追跡対象の位置を推定した推定結果の分布を用いて求めた追跡対象の存在確率を表す多値化画像と、追跡対象らしさの度合いを表す多値化画像を比較し、比較結果に基づいて推定結果を評価する。従って、監視領域に関する観測画像データを得る度に追跡対象毎に上記比較結果に基づいて推定結果を評価して推定結果を再構成又は補正することで、推定結果を最適化しながら各対象物を追跡することができる。
【0031】
上記特許文献2では、既に求めた推定結果から得られる2値化画像と観測画像の背景差分等から得られる2値化画像を比較する。しかし、前述したように、2値化画像を用いたのでは、追跡対象を安定に追跡ができない場合がある。これに対し、本実施例では、多値化画像を比較することにより、安定に複数の追跡対象(即ち、複数の人)の追跡が可能となる。尚、上記の如く、本明細書では、多値化画像とはn≧3(nは自然数)を満たすn値化画像、即ち、2値化画像以外の多値化画像を意味するものとする。
【0032】
既に求めた推定結果から人の存在確率を表す多値化画像を求める際には、特許文献2と同様に、注目する追跡対象人物以外の各人物の全ての仮説のシミュレーション画像(又は、予測画像)を生成し、シミュレーション画像を画素(又は、複数画素からなるブロック)毎に加算した多値化画像を生成し、これと注目する追跡対象人物の仮説のシミュレーション画像(ただし、人領域は多値化画像の最大値を有する)を重ね合わせることにより生成しても良い。
【0033】
観測画像から計算される人領域らしさの度合いを表す多値化画像は、背景差分法やフレーム間差分法等により、各画素(又は、ブロック)が背景領域か否か、動領域か否か等の属性を決定することができる。この属性値毎に人らしさの度合いを事前にテーブル等により定義しておくことにより、多値化画像を生成することができる。
【0034】
例えば、背景差分の有無及びフレーム間差分の有無に応じて、各画素(又は、ブロック)の属性を表1のように決定しても良い。表1は、背景差分とフレーム間差分による属性決定の一例を示す。
【0035】
【表1】

【0036】
又、動いている人がいる動領域、静止している人がいる静領域、又は、人がいない背景領域といった、夫々の領域に対して各画素(又は、ブロック)に各属性が観測される条件付確率を表2のように定義しても良い。表2は、領域毎の条件付確率の一例を示す。
【0037】
【表2】

【0038】
ここで、人が動いている確率と静止している確率が夫々0.5であるとすると、動領域であった場合に人領域である尤度は、(0.5×0.7+0.5×0.3)/(0.7+0.3+0.1) = 0.455となる。静領域であった場合に人領域である尤度は、(0.5×0.3+0.5×0.7 )/(0.3+0.7+0.3) = 0.385となる。背景領域であった場合に人領域である尤度は、0.0となる。この尤度の値によって多値化画像を生成することができる。
【0039】
又、観測画像から計算される人領域らしさの度合いを表す多値化画像を生成するのに、離散化せずに連続値として扱うことも可能である。例えば、背景差分とフレーム間差分の差分値から、背景領域である確率を表3及び表4のように定義しても良い。表3は背景領域である確率を示し、表4は動領域である確率及び静領域である確率を示す。表3及び表4において、閾値1〜閾値4は夫々第1〜第4の閾値を示す。
【0040】
【表3】

【0041】
【表4】

【0042】
次に、観測画像から計算される人領域らしさの度合いを表す多値化画像の各画素(又は、ブロック)の値を以下のように計算する。
【0043】
画素値=(背景領域である確率)×(背景領域であった場合に人領域である尤度)
+(動領域である確率)×(動領域であった場合に人領域である尤度)
+(静領域である確率)×(静領域であった場合に人領域である尤度)
この例では、動領域である確率及び静領域である確率を差分値から線形関数を用いて計算しているが、勿論別の関数を用いて動領域である確率及び静領域である確率を計算しても良い。
【0044】
図6は、図5の評価方法で用いる画像の一例を示す図である。図6において、説明の便宜上N=2であり、41−1,41−2は夫々人1,2の存在確率画像を示し、42は追跡対象人物の仮説を示す。43は注目する追跡対象人物以外の他者の存在確率画像を示し、44は仮説43を前提とし、他者の存在確率画像43から求めた人の存在確率画像を示す。人の存在確率画像44は、上記ステップST1で求めた人hの存在確率を表す多値化画像に相当する。一方、45はカメラにより撮影された観測画像を示し、46は観測画像45から抽出された人領域らしさの度合いを表す画像を示す。人領域らしき画像46は、上記ステップST2で求めた人hらしさの度合いを表す多値化画像に相当する。従って、上記ステップST3では、人の存在確率画像44と人領域らしき画像46を比較し、比較結果に基づいて人hの位置の仮説の尤度を計算で求める。
【0045】
生成した多値化画像(44と46)の比較には、例えば正規化相関等を用いても良い。又、人の姿勢に影響されにくい、上端や下端の境界を比較するため、人の上端や下端周辺の画像の上下方向の勾配の値を比較する方法を用いても良い。後者の場合、生成した多値化画像(44と46)の領域の勾配ベクトルを正規化相関等によって比較する。更に、これらの比較方法、或いは、他の比較方法を併用する場合には、異なる比較方法により求めた各尤度を積算した結果を尤度として用いるようにしても良い。
【0046】
本実施例では、追跡対象人物が複数人いる場合に各人を独立に推定(及び追跡)しているが、各人を独立に推定するということは、各人が全く干渉しないということを前提としていることである。しかし、実際には人同士は干渉するため、各人が互いに干渉し合うことを推定に加えれば追跡対象人物の推定位置の精度が更に向上する。この場合、毎回、人同士が干渉していない(即ち、同じ位置にいない)ことを観測しているとみなし、他者の存在確率が高い位置程尤度が低くなるような値を尤度に積算することにより人同士の干渉を加味した尤度の計算を行うことができる。
【0047】
例えば、各仮説が表す座標から一定の半径内を1、それ以外を0とする円形画像データを、追跡対象人物の周辺の人物の全ての仮説に加算した他者存在確率を示す多値化平面地図データを生成し、追跡対象人物の仮説の評価値に、(1−他者存在確率)を積算するようにしても良い。
【0048】
又、監視領域に対してカメラが複数設置されている場合、全てのカメラから得られる画像データを比較する必要はなく、映る可能性があるカメラからの画像データのみを評価しても良い。つまり、追跡対象を捉えているカメラの画像データのみを評価するのではなく、あるカメラは追跡対象を捉えていないという情報も追跡対象の位置の推定に重要な情報として利用する。
【0049】
最小限のカメラからの画像データに対してのみ処理を実行するために、図7に示すように監視領域の見取り図(又は、地図)とカメラの座標とを対応付けたデータベースを用意する。図7は、監視領域の見取り図(又は、地図)の一例を示す図である。この例では、監視領域50は、非監視領域である部屋51−1,51−2の周囲に配置された廊下52及び出入口53で形成されている。尚、監視領域は、屋内に限定されず、屋外、或いは、屋外と屋内の組み合わせであっても良い。例えば、図7のような配置でカメラC10〜C14が監視領域50に設置されている場合、監視領域50を図7に示す如くA〜Mの領域に分割する。この場合、追跡対象人物が各領域A〜Mにいる場合に追跡対象人物を撮影する可能性のあるカメラが特定できるため、表5のように領域毎に追跡対象人物を撮影する可能性のあるカメラの座標の対応付けを示すデータベースを用意する。表5は、地図情報の一例を示し、各領域A〜Mを識別するための領域識別子(ID:Identifier)に対し、各領域A〜Mの左上(即ち、矩形領域の左上の角)のXY座標、各領域A〜Mの右下(即ち、矩形領域の右下の角)のXY座標、及び撮影カメラを示す。この例では、各領域A〜Mが矩形であるため、各領域A〜Mを特定できるような情報は各領域A〜Mの左上のXY座標と右下のXY座標である。これにより、監視領域50のうち、各仮説が所属する領域を撮影する可能性のあるカメラからの画像データを処理すれば良いことがわかる。
【0050】
【表5】

【0051】
又、このように監視領域50に複数のカメラC10〜C14が設置されている場合、同じ人物の位置の推定でも、仮説の位置によって評価するカメラや、カメラの数が異なる可能性がある。このため、ある人物の位置の推定に使用する各カメラに関して、観測無しの場合の尤度の値を予め計算しておき、尤度をこの観測無しの場合の尤度の値で除算して正規化することで、ある人物の位置の推定に使用しないカメラについても、観測無しの尤度を積算したのと同等の結果が得られる。
【0052】
尚、画像処理が背景差分法に基づいている場合、物の移動等による背景の変化への対応が必要となる。ここでは、監視領域内の人の存在確率が求められているため、人が存在する確率が0である領域に対してのみ、背景を更新していくことにより、適切な背景の更新が可能となる。
【0053】
上記実施例では、図5の評価方法を用いた追跡処理が図2〜図4に示す装置部分を含む監視システム、即ち、ハードウェアにより実行される。しかし、追跡処理の少なくとも一部をソフトウェアにより実行するようにしても良い。この場合、追跡処理プログラム(即ち、ソフトウェア)は、コンピュータに追跡処理の手順の少なくとも一部を実行させるか、或いは、コンピュータを監視システムの少なくとも一部を構成する手段として機能させるか、或いは、コンピュータに監視システムの少なくとも一部の機能を実現させるものであれば良い。又、コンピュータは、コンピュータ読み取り可能な記憶媒体に格納されたプログラムを実行しても、コンピュータの外部からダウンロードした追跡処理プログラムを実行しても良いことは言うまでもない。
【0054】
図8は、本発明の他の実施例における監視システムを説明する図である。図8に示す監視システム60は、CPU61、メモリ部62、送受信部63、複数の操作キーを有する操作部64、表示部65、及びカメラ群66がバス68により接続された構成を有し、する。CPU61は、監視システム60全体の動作の制御を司る。メモリ部62は、CPU61が実行するプログラムと、CPU61が行う演算の中間データを含む各種データを格納する半導体記憶装置、ディスク装置等で形成されている。メモリ部62は、監視領域の見取り図(又は、地図)とカメラの座標とを対応付けた上記データベースを格納しても良い。送受信部63は、アンテナ(図示せず)又はインターネット等のネットワーク(図示せず)を介した送受信を行う周知の構成を有し、モデム機能を含む。操作部64は、ユーザが追跡処理に関する指示や追跡対象に関する情報等を監視システム60に入力する際に操作される複数の操作キーを有する。表示部65は、各種操作メニュー、操作キーから入力された情報、処理対象の画像、処理結果の画像等を表示する。尚、操作部64及び表示部65は、タッチパネルの場合のように一体的に設けられていても良い。カメラ群66は、被写体を撮影可能な周知の構成を有し、例えば図7に示すカメラC10〜C14を含む。
【0055】
メモリ部62に格納されている追跡処理プログラムは、少なくともCPU61及びメモリ部62で形成されたコンピュータに追跡処理の手順の少なくとも一部を実行させるか、或いは、コンピュータを図2〜図4に示す装置部分を含む監視システムの少なくとも一部を構成する手段として機能させるか、或いは、コンピュータに監視システムの少なくとも一部の機能を実現させる。追跡処理プログラムを格納するコンピュータ読み取り可能な記憶媒体は、本実施例ではメモリ部62であるが、追跡処理プログラムを格納するコンピュータ読み取り可能な記憶媒体の種類は特に限定されず、半導体記憶装置であっても、ディスク等の磁気記憶媒体、光記憶媒体や光磁気記憶媒体であっても良い。又、コンピュータは、送受信部63を介してコンピュータの外部からダウンロードした追跡処理プログラムを実行しても良い。
【0056】
尚、監視領域の見取り図(又は、地図)とカメラの座標とを対応付けた上記データベースを形成する記憶部(図示せず)が監視システム60の外部に設けられている場合には、CPU61は送受信部63を介して外部のデータベースをアクセスすれば良い。
【0057】
追跡処理は、カメラ群66から得られる画像データから例えば前回の推定サイクルで既に求めた人1〜Nの推定位置の推定分布ED1〜EDNと、人hの仮説Exphとに基づいて監視領域内の人hの存在確率を表す多値化画像(又は、存在確率画像)を計算する手順(上記ステップST1に相当)と、観測画像から人hらしさの度合いを表す多値化画像を計算する手順(上記ステップST2に相当)と、求められた人hの存在確率を表す多値化画像と求められた人hらしさの度合いを表す多値化画像を比較し、比較結果に基づいて人hの位置の仮説の尤度を計算する手順(上記ステップST3に相当)を含む。
【0058】
このような追跡処理のうち、追跡対象の存在確率を示す画像データを計算する手順(ステップST1に相当)と、位置推定器(又は、パーティクルフィルタ)を用いて人hらしさの度合いを表す多値化画像を計算する手順(ステップST2に相当)とを夫々別のプログラム(又は、別のスレッド)にて実行することにより、カメラ群66を形成するカメラの数や追跡するべき人物の数が増加しても計算時間が増大せず、計算量もカメラ数、人数に比例して増加する程度に抑えられる。
【0059】
図9は、図4の人hの位置推定器33−hをパーティクルフィルタで形成する場合のCPU61の動作を説明するフローチャートである。図9に示す処理は、CPU61がメモリ62に格納されたプログラムを実行することにより行われる。図9は、図4のように各人に対してパーティクルフィルタが並列に動作している場合に、これらのパーティクルフィルタのうち人hの位置を推定するパーティクルフィルタの動作に相当する。
【0060】
図9において、ステップS1は注目する追跡対象の人hの全ての仮説に対して経過時間に対する推定位置の更新を行う。ステップS2は、人hを撮影する少なくとも1台のカメラを含むカメラの集合Aを地図情報から取得する。ステップS3は、カメラの集合Saに含まれるカメラcで観測された画像データから人領域らしき多値化画像データOcを取得する。ステップS4は、カメラの集合Saに含まれるカメラcで観測された画像データから人hの存在確率を示す存在確率画像データPhcを生成する。ステップS5は、人h以外の全ての追跡対象人物eについて、カメラの集合Saに含まれる各カメラcで観測された画像データから追跡対象人物eの存在確率を示す存在確率画像データP'ecを取得する。存在確率画像データPhc及び存在確率画像データP'ecは、いずれも多値化画像データである。ステップS6は、カメラの集合Saに含まれる各カメラcに対して、人h以外の全ての追跡対象人物について存在確率画像データP'ecを足し合わせて確率画像データP'Ecを生成する。確率画像データP'Ecは、多値化画像データである。ステップS7は、c∈Saを満たす全てのカメラcについて、確率画像データP'Ecと人領域らしき画像データOcを比較評価し、c∈Saに対する基準尤度lcとする。
【0061】
ステップS8は、未処理の仮説kを仮説の集合K(k∈K)から1つ選択し、尤度を1.0に初期化する。ステップS9は、仮説の位置を撮影するカメラの集合Scを地図情報から取得する。ステップS10は、カメラの集合Scから未選択のカメラcを1つ選択する。ステップS11は、確率画像データP'Ecと選択した仮説から生成した確率画像を足し合わせた確率画像データPkcを生成する。ステップS12は、多値化画像データである確率画像データPkcと人領域らしさの度合いを表す画像データOcを比較評価し、一致度vkcを計算する。ステップS13は、尤度LをL=L×vkc÷lcから求める。
【0062】
ステップS14は、全てのカメラの集合Scに対する処理が終了したか否かを判定し、判定結果がNOであると処理はステップS10へ戻る。一方、ステップS14の判定結果がYESであると、ステップS15は、カメラに依存しない尤度計算があれば計算して求めた尤度Lに掛け合わせる。例えば、ステップS15は上記の如き他者干渉の評価の計算を行うものであり、省略可能である。ステップS16は、全ての仮説に対する処理が終了したか否かを判定し、判定結果がNOであると処理はステップS8へ戻る。ステップS16の判定結果がYESであると、ステップS17は、リサンプリング(Resampling)を行うことで、尤度の重みで仮説の集合Kをランダムに選択し、処理は終了する。
【0063】
次に、図10中ハッチング及び梨地の丸印で示すように監視領域50内に人物が存在しており、カメラC10,C11により人物が図11のように撮影されている場合を例にとって、図9の具体的な処理を説明する。図10は、監視領域内の人の配置例を示す図である。図10中、図7と同一部分には同一符号を付し、その説明は省略する。図11は、図10の配置例について特定のカメラが撮影した画像例を示す図である。ここでは説明の便宜上、ハッチングの丸印で示す人物の位置を推定する例について説明する。
【0064】
ステップS1は、既に推定した人hの位置の全ての仮説に対し、時間変化による仮説の更新を行う。図12は、更新された人の存在確率分布例を示す図である。尚、人hの位置推定器33−hで計算される既に求めた人の位置の推定分布の更新は、人hに関する分布のみである。又、ステップS1は、既に推定した人hの位置及び/又は速度の全ての仮説に対し、時間変化による仮説の更新を行うものであっても良い。
【0065】
ステップS2は、次に人hが撮影されているカメラを探す。人hの分布は、領域A,Bに渡っているため、領域A,Bを写すカメラC10,C11が地図情報から検索される。
【0066】
ステップS3は、選択したカメラ画像処理結果(人領域らしさの度合いを表す多値画像データOc)を取得する。図13は、カメラC10,C11の観測から得られた人領域らしさの度合いを表す多値化画像データの例を示す図である。図13及び後述する図14〜図16において、(a)はカメラC10が撮影した画像に基づく画像データ、(b)はカメラC11が撮影した画像に基づく人領域らしさの度合いを表す多値化画像データを示す。
【0067】
ステップS4は、ステップS2で計算した新しい分布を元に人hの確率画像データ(人hの存在確率を示す多値化画像データPhc)を生成する。図14は、図10中ハッチングで示す人hの確率画像データの例を示す図である。
【0068】
ステップS5は、他の人物の位置推定器が計算したカメラC10,C11に関するステップS4の確率画像データP'ecがあれば取得する。これは、他の人物の位置推定器が非同期で動作している場合には、1回前の推定サイクルの確率画像を取得することで代替する場合もあり、比較的早い周期で計算する場合には1回では人の領域は殆ど変化しないと考えられるからである。
【0069】
ステップS6は、ステップS5で取得した他の人物の確率画像データP'ecを足し合わせた確率画像データP'Ecを生成する。図15は、図10中梨地で示す他者の確率画像データを足し合わせた確率画像データの例を示す図である。
【0070】
ステップS7は、ステップS3で取得した人領域らしさの度合いを表す多値化画像データOcと、ステップS6で生成した確率画像データP'Ecを比較評価して尤度を各カメラについて計算し、計算結果を各カメラで観測されなかった場合の基準尤度lcとする。
【0071】
ステップS8は、仮説を1つ選択し、尤度Lを1.0に初期化する。
【0072】
ステップS9は、選択した仮説の位置が例えば領域Aであれば、選択した仮説の位置を撮影するカメラC10,C11を地図情報から取得する。
【0073】
ステップS10は、未選択のカメラを1つ選択する。ここではカメラC10が先ず選択されるものとする。
【0074】
ステップS11は、選択したカメラについてステップS6で生成した確率画像データP'Ecに、選択した仮説の確率画像データを足し合わた確率画像データPkcを生成する。図16は、各仮説の尤度計算に使われる多値化画像データの例を示す図である。図16において、IM1a,IM1bは図10中ハッチングで示す人の多値化画像データを示し、IM2a,IM2bは図10中梨地で示す他者の多値化画像データを示す。
【0075】
ステップS12は、ステップS11で生成した確率画像データPkcとステップS3で取得した人領域らしさの度合いを表す多値化画像データOcを比較評価して一致度vkcを計算する。
【0076】
ステップS13は、尤度LをL=L×(ステップS12で計算した一致度vkc)/(ステップS7で計算した基準尤度lc)に基づいて計算する。
【0077】
ステップS14は、全てのカメラについて処理が終了していなければ、処理をステップS10へ戻す。
【0078】
ステップS15は、カメラに関係ない、或いは、カメラに依存しない尤度計算があれば計算して尤度Lに積算する。
【0079】
ステップS16は、全ての仮説に対して処理が終了したか否かを判定する。まだ処理していない仮説がありステップS16の判定結果がNOであれば、処理をステップS8へ戻す。
【0080】
ステップS17は、リサンプリング、即ち、仮説セットの再構成(又は、補正)を行って尤度Lの重みで仮説の集合Kをランダムに選択し、処理は終了する。
【0081】
図17は、各背景画像の更新方法として、人の存在確率画像を使用した背景の更新の一例を示す図である。図17において、ステップS21は、全ての人の位置推定器33−1〜33−Nからカメラcについて各人の存在確率画像データが存在すれば取得する。ステップS22は、ステップS21で取得した各人の存在確率画像データを足し合わせてカメラcについて全ての人の存在確率画像データを生成する。ステップS23は、各画素(又は、複数の画素からなるブロック)について、人の存在確率画像データの値が0であれば背景を更新し、背景画像の更新処理は終了する。
【0082】
尚、各画素の更新方法については、背景差分法の研究等により様々な方法が提案されているので、既存の技術を使用可能である。各画素の更新方法としては、保存されている背景の画素値と、最新画像の画素値の重み付け平均により更新する方法等がある。
【0083】
図18は、上記各実施例のように多値化画像データを用いることにより追跡対象の追跡が成功する例を示す図である。図18中、説明の便宜上、各フレームは1つのカメラにより撮影された一定時間毎の画像であり、下方向のフレーム程時間的には新しい。この例では、図18(a)の7つのフレームの画像からもわかるように、監視領域内の追跡対象人物が移動して席に着き、作業を終えて立ち去る様子が示されている。追跡対象人物が行う作業のため、追跡対象人物の席の周辺の背景が変化する。このため、背景差分法によるシルエット画像を使用する場合、図18(b)の各フレームに対応するシルエット画像のうち特に下から2、3番目のフレームに対応するシルエット画像からもわかるように、追跡対象人物が行う作業のため変化してしまった周辺に追跡対象人物が存在すると誤って判断されかねない。これに対し、図18(c)の各フレームに対応する追跡対象人物の存在確率画像からもわかるように、上記各実施例によれば、追跡対象人物が行う作業のため追跡対象人物の席の周辺の背景が変化しても、追跡対象人物を正しく追跡できることが確認された。又、人領域である確率が0の領域だけ背景を学習する仕組みを実装しているので、追跡対象人物が監視領域から立ち去った後には、変化した背景が背景として正しく認識され、背景差分としては検出されなくなることも確認された。尚、図18(c)では、説明の便宜上、カメラの撮影画像に相当する領域に位置の座標を認識しやすくするためのグリッドが表示されている。
【0084】
上記各実施例では、説明の便宜上、追跡対象が人の場合について説明しているが、追跡対象は特に限定されない。例えば、追跡対象は飼育又は監視している生物であっても良い。つまり、追跡対象は、追跡対象に固有な形状、色、動き(行動パターンを含む)等の特徴を検出する等の方法で撮影された画像から抽出可能なものであれば特に限定されない。
【0085】
監視システムの構成は、上記各実施例の構成に限定されず、様々な変形例が可能である。例えば、図4の画像抽出部32−1〜32−M及び位置推定器33−1〜33−Nの処理を全て図8の如き構成を有する単一のコンピュータシステム(又は、サーバ)で実行し、画像抽出部32−1〜32−M及び位置推定器33−1〜33−Nの各々の機能は1プロセス上の別スレッドとして実現するようにしても良い。又、画像抽出部32−1〜32−M及び位置推定器33−1〜33−Nの処理を全て図8の如き構成を有する単一のコンピュータシステムで実行し、画像抽出部32−1〜32−M及び位置推定器33−1〜33−Nの各々の機能は別プロセスとして実現するようにしても良い。更に、画像抽出部32−1〜32−M及び位置推定器33−1〜33−Nの処理を全て図8の如き構成を有する複数のコンピュータシステムで並列処理により実行し、画像抽出部32−1〜32−M及び位置推定器33−1〜33−Nの各々の機能は各コンピュータシステム内では1プロセス上の別スレッドとして実現するようにしても良い。画像抽出部32−1〜32−M及び位置推定器33−1〜33−Nの処理を全て図8の如き構成を有する複数のコンピュータシステムで並列処理により実行し、画像抽出部32−1〜32−M及び位置推定器33−1〜33−Nの各々の機能は各コンピュータシステム内では別プロセスとして実現するようにしても良い。
【0086】
上記各実施例によれば、追跡対象の位置を推定した推定結果の分布を用いて追跡対象の存在確率を表す多値化画像を生成し、追跡対象の存在確率を表す多値化画像と追跡対象らしさの度合いを表す多値化画像との比較結果に基づいて推定結果を評価することで追跡対象を追跡するので、追跡対象が周辺領域に影響を及ぼす場合であっても安定した追跡を行うことができる。又、追跡対象が複数の場合にも各追跡対象を安定に追跡可能である。
【0087】
以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
監視領域内の複数の箇所で前記監視領域内の領域を観測するカメラからの画像データに基づいて、追跡対象の位置を推定した推定結果の分布を用いて前記追跡対象の存在確率を表す第1の多値化画像データを生成するステップと、
前記カメラからの画像データに基づいて、前記追跡対象らしさの度合いを表す第2の多値化画像データを生成するステップと、
前記第1の多値化画像と前記第2の多値化画像を比較し、比較結果に基づいて前記推定結果を評価するステップと、
前記評価に基づいて前記推定結果を再構成することで前記追跡対象を追跡するステップを含み、
前記第1及び第2の多値化画像は、いずれもn≧3(nは自然数)を満たすn値化画像である追跡方法。
(付記2)
前記第1の多値化画像データを生成するステップは、複数の追跡対象の各々に対して前記第1の多値化画像データを生成し、
前記第2の多値化画像データを生成するステップは、前記複数の追跡対象の各々に対して前記第2の多値化画像データを生成し、
前記評価するステップは、前記複数の追跡対象の各々について前記比較結果に基づいて前記推定結果を評価する、付記1記載の追跡方法。
(付記3)
前記第1の多値化画像データを生成するステップは、パーティクルフィルタにより前記第1の多値化画像データを生成する、付記2記載の追跡方法。
(付記4)
前記第1の多値化画像データを生成するステップは、
既に求めた推定結果の分布を利用して前記監視領域内の前記追跡対象の存在確率を表す前記第1の多値化画像を生成し、
注目する追跡対象以外の対象に関しては、前記既に求めた推定分布の重みで予測画像データを最大値まで足し合わせた前記第1の多値化画像を生成し、
前記注目する追跡対象に対しては、ある確率変数の値に対する予測画像の領域に関して最大値に設定することより、前記注目する追跡対象のある確率変数の値に対する前記第1の多値化画像を生成する、付記2記載の追跡方法。
(付記5)
前記第2の多値化画像データを生成するステップは、
背景差分又はフレーム間差分の値から閾値処理により、差分領域又は動領域を抽出し、特徴毎に前記追跡対象の領域らしさの度合いを定義するテーブルに基づいて前記第2の多値化画像データを生成する、付記1乃至3のいずれか1項記載の追跡方法。
(付記6)
前記第2の多値化画像データを生成するステップは、
背景差分及びフレーム間差分を含む複数の特徴量から、前記追跡対象らしさの度合いを計算する数式に基づいて前記第2の多値画像を生成する、付記1乃至3のいずれか1項記載の追跡方法。
(付記7)
各カメラが撮影可能な領域と前記地図データの座標は対応させて予めデータベース化されており、
前記評価するステップは、前記パーティクルフィルタのパーティクルの持つ座標から前記追跡対象を撮影している可能性のあるカメラのみからの画像データを参照して前記パーティクルフィルタの尤度を計算する、付記3記載の追跡方法。
(付記8)
前記第1の多値化画像データを生成するステップと、前記第2の多値化画像データを生成するステップは、互いに別のプログラム又はスレッドがコンピュータに実行させる、付記1乃至7のいずれか1項記載の追跡方法。
(付記9)
監視領域内の複数の箇所で前記監視領域内の領域を観測するカメラからの画像データに基づいて追跡対象を追跡する監視システムであって、
前記画像データに基づいて、前記追跡対象の位置を推定した推定結果の分布を用いて前記追跡対象の存在確率を表す第1の多値化画像データを生成する第1の生成手段と、
前記画像データに基づいて、前記追跡対象らしさの度合いを表す第2の多値化画像データを生成する第2の生成手段と、
前記第1の多値化画像と前記第2の多値化画像を比較し、比較結果に基づいて前記推定結果を評価する評価手段と、
前記評価に基づいて前記推定結果を再構成することで前記追跡対象を追跡する追跡手段を備え、
前記第1及び第2の多値化画像は、いずれもn≧3(nは自然数)を満たすn値化画像である、監視システム。
(付記10)
前記第1の生成手段は、パーティクルフィルタを有する、付記9記載の監視システム。
(付記11)
各カメラが撮影可能な領域と前記監視領域の地図データの座標は対応させて予めデータベース化されており、
前記評価手段は、前記パーティクルフィルタのパーティクルの持つ座標から前記追跡対象を撮影している可能性のあるカメラのみからの画像データを参照して前記パーティクルフィルタの尤度を計算する、付記10記載の監視システム。
(付記12)
コンピュータに追跡対象の追跡を行わせるプログラムであって、
監視領域内の複数の箇所で前記監視領域内の領域を撮影するカメラからの画像データに基づいて、追跡対象の位置を推定した推定結果の分布を用いて前記追跡対象の存在確率を表す第1の多値化画像データを生成する手順と、
前記カメラからの画像データに基づいて、前記追跡対象らしさの度合いを表す第2の多値化画像データを生成する手順と、
前記第1の多値化画像と前記第2の多値化画像を比較し、比較結果に基づいて前記推定結果を評価する手順と、
前記評価に基づいて前記推定結果を再構成することで前記追跡対象を追跡する手順を前記コンピュータに実行させ、
前記第1及び第2の多値化画像は、いずれもn≧3(nは自然数)を満たすn値化画像である、プログラム。
【0088】
以上、開示の追跡方法、監視システム及びプログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。
【符号の説明】
【0089】
11 状態追跡フィルタ
12 画像処理部
21 パーティクルフィルタ
31−1〜31−M,C10〜C14 カメラ
32−1〜32−M 画像抽出部
33−1〜33−N 位置推定器
60 監視システム
61 CPU
62 メモリ部
66 カメラ群

【特許請求の範囲】
【請求項1】
監視領域内の複数の箇所で前記監視領域内の領域を撮影するカメラからの画像データに基づいて、追跡対象の位置を推定した推定結果の分布を用いて前記追跡対象の存在確率を表す第1の多値化画像データを生成するステップと、
前記カメラからの画像データに基づいて、前記追跡対象らしさの度合いを表す第2の多値化画像データを生成するステップと、
前記第1の多値化画像と前記第2の多値化画像を比較し、比較結果に基づいて前記推定結果を評価するステップと、
前記評価に基づいて前記推定結果を再構成することで前記追跡対象を追跡するステップを含み、
前記第1及び第2の多値化画像は、いずれもn≧3(nは自然数)を満たすn値化画像である、追跡方法。
【請求項2】
監視領域内の複数の箇所で前記監視領域内の領域を観測するカメラからの画像データに基づいて追跡対象を追跡する監視システムであって、
前記画像データに基づいて、前記追跡対象の位置を推定した推定結果の分布を用いて前記追跡対象の存在確率を表す第1の多値化画像データを生成する第1の生成手段と、
前記画像データに基づいて、前記追跡対象らしさの度合いを表す第2の多値化画像データを生成する第2の生成手段と、
前記第1の多値化画像と前記第2の多値化画像を比較し、比較結果に基づいて前記推定結果を評価する評価手段と、
前記評価に基づいて前記推定結果を再構成することで前記追跡対象を追跡する追跡手段を備え、
前記第1及び第2の多値化画像は、いずれもn≧3(nは自然数)を満たすn値化画像である、監視システム。
【請求項3】
前記第1の生成手段は、パーティクルフィルタを有する、請求項2記載の監視システム。
【請求項4】
各カメラが撮影可能な領域と前記監視領域の地図データの座標は対応させて予めデータベース化されており、
前記評価手段は、前記パーティクルフィルタのパーティクルの持つ座標から前記追跡対象を撮影している可能性のあるカメラのみからの画像データを参照して前記パーティクルフィルタの尤度を計算する、請求項3記載の監視システム。
【請求項5】
コンピュータに追跡対象の追跡を行わせるプログラムであって、
監視領域内の複数の箇所で前記監視領域内の領域を撮影するカメラからの画像データに基づいて、追跡対象の位置を推定した推定結果の分布を用いて前記追跡対象の存在確率を表す第1の多値化画像データを生成する手順と、
前記カメラからの画像データに基づいて、前記追跡対象らしさの度合いを表す第2の多値化画像データを生成する手順と、
前記第1の多値化画像と前記第2の多値化画像を比較し、比較結果に基づいて前記推定結果を評価する手順と、
前記評価に基づいて前記推定結果を再構成することで前記追跡対象を追跡する手順を前記コンピュータに実行させ、
前記第1及び第2の多値化画像は、いずれもn≧3(nは自然数)を満たすn値化画像である、プログラム。

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図17】
image rotate

【図1】
image rotate

【図6】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図18】
image rotate


【公開番号】特開2011−107839(P2011−107839A)
【公開日】平成23年6月2日(2011.6.2)
【国際特許分類】
【出願番号】特願2009−260340(P2009−260340)
【出願日】平成21年11月13日(2009.11.13)
【出願人】(000005223)富士通株式会社 (25,993)
【Fターム(参考)】