姿勢検知装置および挙動検知装置
【課題】この発明は、被観察者の姿勢を高精度で検知することができる姿勢検知装置を提供することを目的とする。
【解決手段】姿勢検知装置において、被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、3次元人物領域情報から3次元人物領域の高さ、幅および奥行き情報を算出する算出手段、ならびに3次元人物領域の高さに対する幅の比および3次元人物領域の高さに対する奥行きの比に基づいて、被観察者の姿勢を判定する判定手段を備えている。
【解決手段】姿勢検知装置において、被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、3次元人物領域情報から3次元人物領域の高さ、幅および奥行き情報を算出する算出手段、ならびに3次元人物領域の高さに対する幅の比および3次元人物領域の高さに対する奥行きの比に基づいて、被観察者の姿勢を判定する判定手段を備えている。
【発明の詳細な説明】
【技術分野】
【0001】
この発明は、被観察者の姿勢を検知する姿勢検知装置および被観察者の転倒等の挙動を検知する挙動検知装置に関する。
【背景技術】
【0002】
被観察者の転倒を検知する装置として、被観察者をカメラで撮影し、撮影画像から被観察者の動作ベクトルを検出し、検出した動作ベクトルと予め記憶している被観察者の転倒ベクトルとを比較することにより、被観察者が転倒したか否かを判別するものが既に開発されている(特開2002−232870号公報参照)。
【0003】
また、被観察者の転倒を検知する装置として、被観察者をカメラで撮影し、撮影画像と被観察者が存在しないときに撮影された参照画像との差分領域を抽出し、差分領域の面積に基づいて被観察者が転倒したか否かを判別するものが既に開発されている(特開2000−207664号公報参照)。
【0004】
また、観察者が移動状態であるか静止状態を判定する装置として、被観察者をカメラで撮影し、撮影画像から人物領域を抽出し、抽出した人物領域から頭頂部の画像座標を抽出し、被観察者の身長データを用いて頭頂部の画像座標を実世界座標に変換し、得られた頭頂部の実世界座標と所定時間過去の頭頂部の実世界座標との距離を算出し、得られた距離と所定の閾値とを比較することにより、観察者が移動状態であるか静止状態であるかを判定するものが既に開発されている(特開2002−197463号公報参照)。
【特許文献1】特開2002−232870号公報
【特許文献2】特開2000−207664号公報
【特許文献3】特開2002−197463号公報
【発明の開示】
【発明が解決しようとする課題】
【0005】
この発明は、被観察者の姿勢を高精度で検知することができる姿勢検知装置を提供することを目的とする。
【0006】
また、この発明は、被観察者の転倒等の挙動の発生を高精度で検知することができる挙動検知装置を提供することを目的とする。
【課題を解決するための手段】
【0007】
請求項1に記載の発明は、姿勢検知装置において、被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、3次元人物領域情報から3次元人物領域の高さ、幅および奥行き情報を算出する算出手段、ならびに3次元人物領域の高さに対する幅の比および3次元人物領域の高さに対する奥行きの比に基づいて、被観察者の姿勢を判定する判定手段を備えていることを特徴とする。
【0008】
請求項2に記載の発明は、姿勢検知装置において、被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、3次元人物領域情報から被観察者の背筋の向きを算出する算出手段、ならびに被観察者の背筋の向きに基づいて、被観察者の姿勢を判定する判定手段を備えていることを特徴とする。
【0009】
請求項3に記載の発明は、請求項2に記載の姿勢検知装置において、算出手段は、3次元人物領域の高さ方向をY軸とし、幅方向をX軸とし、奥行き方向をZ軸として、3次元人物領域情報を、X−Y平面に射影することにより第1の射影画像を生成するとともに、3次元人物領域情報を、Y−Z平面に射影することにより第2の射影画像を生成する手段、各射影画像毎に、重心を算出し、各射影画像の全座標値を、重心を原点とする座標値に修正する手段、座標値修正後の第1の射影画像から主成分分析を用いて第1主成分の傾きを表す第1のベクトルを算出するとともに、座標値修正後の第2の射影画像から主成分分析を用いて第1主成分の傾きを表す第2のベクトルを算出する手段、ならびに第1のベクトルおよび第2のベクトルを合成することにより、被観察者の背筋の向きを示すベクトルを求め、求めたベクトルから被観察者の背筋の向きを求める手段を備えていることを特徴とする。
【0010】
請求項4に記載の発明は、請求項2に記載の姿勢検知装置において、算出手段は、3次元人物領域の高さ方向をY軸とし、幅方向をX軸とし、奥行き方向をZ軸として、3次元人物領域情報を、X−Y平面に射影することにより第1の射影画像を生成するとともに、3次元人物領域情報を、Y−Z平面に射影することにより第2の射影画像を生成する手段、各射影画像毎に、重心を算出し、各射影画像の全座標値を、重心を原点とする座標値に修正する手段、座標値修正後の第1の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第1の線分の傾きを求めるとともに、座標値修正後の第2の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第2の線分の傾きを求める手段、ならびに第1の線分の傾きおよび第2の線分の傾きに基づいて、被観察者の背筋の向きを求める手段を備えていることを特徴とする。
【0011】
請求項5に記載の発明は、挙動検知装置において、被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、3次元人物領域情報に基づいて被観察者の姿勢を判定する姿勢判定手段、3次元人物領域情報から検知対象の挙動を判定するための挙動判定用データを生成する挙動判定用データ生成手段、姿勢判定手段の判定結果に基づいて、検知対象の挙動が発生した可能性がある期間において、挙動判定用データを蓄積していく蓄積手段、ならびに蓄積手段によって蓄積された挙動判定用データから得られた時系列データと、検知対象の挙動に対応した学習用データから予め作成されているモデルとを比較することにより、検知対象の挙動が発生したか否かを判定する判定手段を備えていることを特徴とする。
【0012】
請求項6に記載の発明は、請求項5に記載の挙動検知装置において、挙動判定用データ生成手段は、3次元人物領域情報から3次元人物領域の高さ、幅および奥行きからなる挙動判定用データを生成するものであり、上記時系列データが、蓄積手段によって蓄積された3次元人物領域の高さ、幅および奥行きの時系列データであり、上記モデルがHMMモデルであることを特徴とする。
【0013】
請求項7に記載の発明は、請求項5に記載の挙動検知装置において、挙動判定用データ生成手段は、3次元人物領域情報から3次元人物領域の高さ、幅および奥行きからなる挙動判定用データを生成するものであり、上記時系列データが、蓄積手段によって蓄積された3次元人物領域の高さ、幅および奥行きから算出された、被観察者の動き量の大きさをシンボル化したデータの時系列データであり、モデルがDPマッチング用のモデルであることを特徴とする。
【発明の効果】
【0014】
この発明によれば、被観察者の姿勢を高精度で検知することができるようになる。また、この発明によれば、被観察者の転倒等の挙動の発生を高精度で検知することができるようになる。
【発明を実施するための最良の形態】
【0015】
以下、図面を参照して、この発明を転倒を検知するための転倒検知装置に適用した場合の実施例について説明する。
【実施例1】
【0016】
〔1〕転倒検知システムの全体的な構成
【0017】
図1は、転倒検知システムの全体的な構成を示している。
転倒検知システムは、被観察者の居室内を撮影するステレオカメラ11、12を備えた転倒検知装置10、転倒検知装置10にネットワーク40を介して接続された監視装置20および転倒検知装置10にネットワーク40を介して接続された移動通信端末30を備えている。
【0018】
転倒検知システムは、被観察者の居室50内を撮像するステレオカメラ11、12を備えた転倒検知装置10、転倒検知装置10にネットワーク40を介して接続された監視装置20および転倒検知装置10にネットワーク40を介して接続された移動通信端末30を備えている。
【0019】
転倒検知装置10は、被観察者の転倒の発生を検知する。ネットワーク40には、複数の被観察者の居室50に対応して設けられた複数の転倒検知装置10が接続されている。監視装置20は監視者が詰めている監視センタに設置されている。監視装置20および移動通信端末30では、各被観察者の居室50を識別可能に表す居室画面が表示されており、転倒検知装置10によって転倒が検知された場合には、そのことが監視装置20および移動通信端末30に通知され、監視装置20および移動通信端末30はアラームなどを発生させるとともに、居室画面上においてどの居室で転倒が検知されたかを表示する。監視者は、この表示を見て、転倒が検知された居室表示を選択すると、監視装置20および移動通信端末30は、転倒を検知した上記転倒検知装置10から当該居室の現在の画像を受信して監視装置20および移動通信端末30に表示する。
【0020】
〔2〕転倒検知処理手順
【0021】
図2は、転倒検知装置10によって実行される転倒検知処理の手順を示している。
初期設定において、転倒判定用データ蓄積期間であることを記憶するフラグFはリセット(F=0)されているものとする。
【0022】
まず、ステレオカメラ11、12から画像(左右画像)を取り込む(ステップS11)。画像を取り込む時間間隔は、ステップS11に戻るタイミングによって異なるが、約200msec程度となる。取得した左右画像に基づいて、3次元の人物領域抽出処理を行なう(ステップS12)。これにより、カメラ座標系での3次元人物領域情報(3次元空間での人物領域プロット群)が得られる。次に、得られた3次元人物領域情報に基づいて、姿勢推定処理を行なう(ステップS13)。つまり、被観察者の現在の姿勢(立位、座位、臥位)を推定する。
【0023】
この後、今回読み込んだフレームに関するデータ群を第1バッファに保存する(ステップS14)。データ群は、時刻情報、入力画像データ、3次元人物領域情報、姿勢推定処理で得られる被観察者の幅、高さ、奥行き情報および姿勢推定結果からなる。第1バッファは、数フレーム分のデータ群を記憶するためのバッファであり、所定フレーム分のデータ群が蓄積されている場合には、1フレーム分の最も古いデータ群が消去されて、新たな1フレーム分のデータ群が蓄積される。
【0024】
次に、フラグFがセットされているか否かを判別する(ステップS15)。フラグFがセットされていないときには、姿勢推定結果の履歴データ等に基づいて転倒判定用データ蓄積期間の開始点であるか否かを判別する(ステップS16)。この判別処理の詳細については、後述する。転倒判定用データ蓄積期間の開始点ではないと判別した場合には、ステップS11に戻る。
【0025】
上記ステップS16において、転倒判定用データ蓄積期間の開始点であると判別した場合には、フラグFをセットした後(ステップS17)、今回取得したフレームに関するデータ群を第2バッファに蓄積する(ステップS18)。この場合には、データ群として、開始点からの経過時間情報(開始点からのフレーム数で表される)が追加される。そして、転倒判定用データ蓄積期間の終了点であるか否かを判別する(ステップS19)。この判別処理の詳細については、後述する。転倒判定用データ蓄積期間の終了点ではないと判別した場合には、ステップS11に戻る。
【0026】
ステップS19からS11に戻った場合には、次のステップS15では、F=1となっているので、ステップS15からステップS18に移行し、第1バッファだけでなく、第2バッファにもデータ群が蓄積される。
【0027】
上記ステップS19において、転倒判定用データ蓄積期間の終了点であると判別した場合には、フラグFをリセットした後(ステップS20)、第2バッファに蓄積されたデータ群に基づいて、転倒判定処理を行なう(ステップS21)。転倒判定処理の結果、転倒ではないと判定された場合には(ステップS22)、ステップS11に戻る。転倒判定処理の結果、転倒であると判定された場合には(ステップS22)、転倒が発生したことを監視装置20等に通知する(ステップS23)。そして、ステップS11に戻る
【0028】
〔3〕図2のステップS12の3次元の人物領域抽出処理
【0029】
図3は、図2のステップS12の3次元人物領域抽出処理の詳細な手順を示している。
【0030】
事前処理として、居室50に被観察者が存在していない状態で、ステレオカメラ11、12のうちの一方のカメラ11によって居室内を撮影した画像を取得し、取得した画像をグレースケール化する。そして、得られた画像を背景画像として、転倒検知装置10の記憶装置に記憶しておく。
【0031】
3次元の人物領域抽出処理では、ステレオカメラ11、12から取得した左右画像のうち、背景画像を撮影したカメラ11から今回取得した画像と、背景画像とを用いて、背景差分法により、2次元人物領域を抽出する。また、ステレオカメラ11、12から取得した2枚の画像から、3次元測量手法により、ピクセル毎に奥行き情報を算出し、3次元空間にプロットできる座標情報(3次元位置情報)を取得する。そして、2次元人物領域情報と3次元位置情報とを重ね合わせることで、3次元空間内での人物領域に相当するデータ(3次元の人物領域情報)を抽出する。
【0032】
具体的には、背景画像を撮影したカメラ11から今回取得した画像を、グレイスケール化する(ステップS31)。
【0033】
ステップS31で得られた画像と予め記憶されている背景画像の対応する画素毎に、画素値の差の絶対値を算出することにより、両画像の差分画像を作成する(ステップS32)。得られた差分画像を2値化することにより、2次元人物領域情報を抽出する(ステップS33)。
【0034】
一方、ステレオカメラ11、12から今回取得した左右画像から、周知のステレオ法を用いて、3次元位置情報を算出する(ステップS34)。上記ステップS33で抽出した2次元人物領域情報と、上記ステップS34で算出した3次元位置情報とに基づいて、3次元人物領域情報を抽出する(ステップS35)。
【0035】
図4は、3次元人物領域情報によって表される3次元の人物領域画像の一例を示している。図4において、直方体101は、X−Y平面、Y−Z平面およびZ−X平面それぞれに平行な面を有しかつ3次元の人物領域に外接する直方体である。直方体101の上側の図(符号102)は、直方体101の上から3次元の人物領域を見た平面図であり、直方体101の右側の図(符号103)は、直方体101の右から3次元の人物領域を見た側面図である。
【0036】
〔4〕図2のステップS13の姿勢推定処理
【0037】
図5は、図2のステップS13の姿勢推定処理の詳細な手順を示している。
【0038】
3次元人物領域抽出処理によって得られた3次元人物領域情報に基づいて、図4に示すように、X−Y平面、Y−Z平面およびZ−X平面それぞれに平行な面を有しかつ3次元の人物領域に外接する直方体101の幅lx 、高さlyおよび奥行きlz(被観察者の幅、高さおよび奥行き)を算出する(ステップS41)。lx は3次元の人物領域のx座標の最大値と最小値との差の絶対値を算出することにより、lyは3次元の人物領域のy座標の最大値と最小値との差の絶対値を算出することにより、lzは3次元の人物領域のz座標の最大値と最小値との差の絶対値を算出することにより、それぞれ求められる。
【0039】
次に、アトペクト比lx /lyおよびlz/lyを算出する(ステップS42)。そして、算出したアトペクト比lx /lyおよびlz/lyと、予め定められた規則とに基づいて、被観察者の姿勢を推定する(ステップS43)。
【0040】
具体的には、次のような規則に基づいて、被観察者の姿勢を推定する。
(a) lx /ly<0.4またはlz/ly<0.4であれば、観察者の姿勢を「立位」と推定する。
(b) lx /ly>1.5またはlz/ly>1.5であれば、観察者の姿勢を「臥位」と推定する。
(c)それ以外であれば、観察者の姿勢を「座位」と推定する。
【0041】
〔5〕図2のステップS16およびステップS19の開始点または終了点判別処理
【0042】
図2のステップS16の開始点判別処理においては、『アスペクト比lx /lyおよびlz/lyのうちの少なくとも一方が0.7以上である状態が1秒(約5フレームに相当)以上継続していること』という開始点条件を満たしているか否かを判別し、開始点条件を満たしている場合には今回取り込まれたフレームが転倒判定用データ蓄積期間の開始点であると判別する。
【0043】
図2のステップS19の終了点判別処理においては、『「アスペクト比lx /lyおよびlz/lyのうちの少なくとも一方が0.7以下である状態が1.4秒(約7フレームに相当)以上継続していること」または「第2バッファに蓄積されているデータ群が所定フレーム数分以上となっていること」または「開始点からの経過時間が、所定時間以上に達していること」』という終了点条件を満たしているか否かを判別し、終了点条件を満たしている場合には今回取り込まれたフレームが転倒判定用データ蓄積期間の終了点であると判別する。
【0044】
〔6〕図2のステップS21の転倒判定処理
【0045】
各種の挙動毎に、事前にモデルを用意しておく。挙動の種類には、この例では、「前向きの転倒」、「しりもち」、「寝転び」および「座る」がある。ここでは、モデルとしては、隠れマルコフモデル(HMM)が用いられている。各挙動毎のモデルは、その挙動に対応した学習データに基づいて作成される。例えば、「前向きの転倒」は、「前向きの転倒」動作の学習データに基づいて作成される。なお、学習データとしては、経過時間情報(開始点からのフレーム数で表される)および被観察者の幅、高さ、奥行き情報(lx,ly,lz)からなる時系列データが用いられる。「前向きの転倒」、「しりもち」、「寝転び」および「座る」の挙動のうち、「前向きの転倒」および「しりもち」が転倒動作に該当する。
【0046】
第2バッファに蓄積されているデータ群のうち、経過時間情報(開始点からのフレーム数で表される)および被観察者の幅、高さ、奥行き情報(lx,ly,lz)を時系列データとし、上記時系列データが再現できる確率(尤度)を、各モデル毎に計算する。そして、最も尤度が高いモデルを求める。最も尤度が高いモデルに対応する挙動が、観察者の挙動となる。この実施例では、転倒を検知したいので、最も尤度が高いモデルが「前向きの転倒」または「しりもち」のモデルである場合には、被観察者が転倒したと判定する。
【0047】
〔7〕姿勢推定処理の変形例
【0048】
上記実施例では、被観察者の幅、高さおよび奥行きから求められたアスペクト比lx /lyおよびlz/lyに基づいて、被観察者の姿勢を推定しているが、被観察者の背筋の向きに相当するベクトル(人物主軸)の向きに基づいて、被観察者の姿勢を推定するようにしてもよい。
【0049】
つまり、図6に示すように、人物主軸QのX−Z平面となす角γ(人物主軸の向き)を求め、次のような規則に基づいて、被観察者の姿勢を推定する。
【0050】
(a)γ>π/2×0.6であれば、観察者の姿勢を「立位」と推定する。
(b)γ<π/2×0.3であれば、観察者の姿勢を「臥位」と推定する。
(c)それ以外であれば、観察者の姿勢を「座位」と推定する。
【0051】
図7は、人物主軸Qの向きと姿勢推定結果の例を示し、図7(a)は「立位」と推定される例を、図7(b)は「座位」と推定される例を、図7(c)は「臥位」と推定される例を、それぞれ示している。
【0052】
以下、人物主軸の向きの求め方について説明する。人物主軸の向きの求め方には第1方法と第2方法とがある。
【0053】
まず、第1方法について説明する。第1方法は、主成分分析を用いて、人物主軸の向きを求める方法である。
【0054】
図8は、人物主軸の向きの算出方法(第1方法)の手順を示している。
【0055】
3次元人物領域情報(人物領域の3次元空間でのプロット群)を、X−Y平面に射影することにより、X軸をU軸、Y軸をV軸とするUV座標系の第1の射影画像を得るとともに、3次元人物領域情報を、Y−Z平面に射影することにより、Z軸をU軸、Y軸をV軸とするUV座標系の第2の射影画像を得る(ステップS51)。次に、各射影画像毎に、重心を算出する(ステップS52)。そして、各射影画像の全座標値を、重心を原点とする座標値に修正する(ステップS53)。
【0056】
次に、座標値修正後の第1の射影画像から主成分分析を用いて固有ベクトル(第1主成分の傾きを表すベクトル)を算出するとともに、座標値修正後の第2の射影画像から主成分分析を用いて固有ベクトル(第1主成分の傾きを表すベクトル)を算出する(ステップS54)。そして、ステップS54で算出された2つの固有ベクトルを合成することにより、人物主軸の向きを示すベクトルを求める(ステップS55)。そして、人物主軸の向きを示すベクトルから人物主軸の向きγを求める(ステップS56)。
【0057】
固有ベクトルの算出方法について説明する。各固有ベクトルの算出方法は同様であるので、第1の固有ベクトルの算出方法について説明する。まず、座標値修正後の第1の射影画像に基づいて、変量uの分散su 、変量vの分散sv および変量u,vの共分散suvを算出する。そして、分散su 、sv および共分散suvを用いて、固有値λを算出する。分散su 、sv および共分散suvを用いて固有値λを算出する方法は、主成分分析において良く知られているのでその詳細を省略する。次に、固有値λを用いて固有ベクトルを算出する。固有値λを用いて固有ベクトルを算出する方法は、主成分分析において良く知られているのでその詳細を省略する。
【0058】
図9は、人物主軸の向きの算出方法(第2方法)の手順を示している。
【0059】
3次元人物領域情報(人物領域の3次元空間でのプロット群)をX−Y平面に射影することにより、第1の射影画像を得るとともに、3次元人物領域情報をY−Z平面に射影することにより、第2の射影画像を得る(ステップS61)。次に、各射影画像毎に、重心を算出する(ステップS62)。そして、各射影画像の全座標値を、重心を原点とする座標値に修正する(ステップS63)。
【0060】
次に、座標値修正後の第1の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第1の線分の傾きを求めるとともに、座標値修正後の第2の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第2の線分の傾きを求める(ステップS64)。そして、ステップS64で求められた2つの線分の傾きに基づいて、人物主軸の向きγを求める(ステップS65)。
【0061】
図10に示すように、第1の射影画像から得られた第1の線分の傾きをα、第2の射影画像から得られた第2の線分の傾きをβとすると、各線分の向きを示す単位ベクトルv1、v2は、次式(1)で表される。
【0062】
v1=(cosα,sinα)
v2=(cosβ,sinβ) …(1)
【0063】
次式(2)に基づいて、v1、v2を合成すると、人物主軸の向きを示すベクトルVが得られる。
【0064】
V=(cosα,sinα+sinβ,cosβ) …(2)
【0065】
人物主軸の向きγは、次式(3)に基づいて、求められる。
【0066】
tanγ=(sinα+sinβ)/(cosα2 +cosβ2 )1/2 …(3)
【0067】
第1の線分および第2の線分の求め方について説明する。各線分の求め方は同様であるので、第1の線分の求め方について説明する。
【0068】
図11は、第1の線分の求め方を示している。
【0069】
まず、ステップS3で得られた第1の射影画像を、図12に示すように、一定間隔を有するY軸に平行な複数の分割線により、射影画像をX軸方向に複数の領域に分割する(ステップS71)。各分割領域毎に人物領域のy座標の最大値と最小値に対応する点を輪郭点Piとして特定する(ステップS72)。
【0070】
輪郭点のうちx座標が最も大きくかつy座標が0に最も近い輪郭点を点Aとし、点Aを含む分割領域を注目領域とする(ステップS73)。図12の例では、点P1が点Aとして特定される。点A以外の輪郭点のうち、点Aと原点を結ぶ直線に最も近い輪郭点を求め、点Bとする(ステップS74)。図12の例では、点Aが点P1である場合には、点P7が点Bとされる。点Aと点Bを結ぶ線分の距離(A−B間距離)を算出して保持する(ステップS75)。
【0071】
次に、注目領域が、輪郭点のうちx座標が最も小さい輪郭点を含む分割領域(最終処理領域)であるか否かを判別する(ステップS76)。現在の注目領域が最終処理領域でなければ、注目領域を、現在の注目領域に対してx座標が小さくなる方向に隣接する分割領域に更新する(ステップS77)。そして、更新された注目領域内において、y座標が最も大きい輪郭点を点Aとする(ステップS78)。そして、ステップS74に戻り、ステップS74以降の処理を再度行なう。
【0072】
上記ステップS76において、現在の注目領域が最終処理領域であると判別された場合には、A−B間の距離が最大である線分を第1の線分として特定する(ステップS79)。図12の例では、点P3と点P9とを結ぶ線分が第1の線分として特定される。
【0073】
〔8〕図2のステップS21の転倒判定処理の変形例
【0074】
各種の挙動毎に、事前に学習モデルを用意しておく。挙動の種類には、この例では、「前向きの転倒」、「しりもち」、「寝転び」および「座る」がある。各挙動毎の学習モデルは、その挙動に対応した学習データに基づいて作成される。例えば、「前向きの転倒」は、「前向きの転倒」動作の学習データに基づいて作成される。なお、学習データとしては、時刻情報および被観察者の幅、高さ、奥行き情報(lx,ly,lz)からなる時系列データが用いられる。学習データに基づいて、複数時点での被観察者の動き量の程度(多、中、少)からなる学習モデルが作成される。「前向きの転倒」、「しりもち」、「寝転び」および「座る」の挙動のうち、「前向きの転倒」および「しりもち」が転倒動作に該当する。
【0075】
図13は、転倒判定処理の手順を示している。図14は、転倒判定処理の手順を模式図で表している。
【0076】
まず、第2バッファに保存されている複数フレーム分の被観察者の幅、高さ、奥行き情報(lx,ly,lz)および時刻情報(図14に時系列データ201で示す)に基づいて、複数時点での単位時間当たりの動き量データ(dlx/dt,dly/dt,dlz/dt)を求める(ステップS111)。
【0077】
時系列データ201における各隣合うフレーム間のlx,ly,lzの差分dlx、dly、dlzを、それらのフレーム間の時間差で除算することにより、複数時点での単位時間当たりの動き量データが得られる。
【0078】
次に、各時点での3種類の動き量データのうちの最大値と、予め設定した2つの閾値に基づいて、各時点での動き量を3種類(多、中、少)にシンボル化する(ステップS112)。これにより、図14に示すような複数時点でのシンボル化データからなるパターン202が得られる。
【0079】
得られたパターン202と各挙動毎の学習モデル(図14に211〜214で示す)との距離(類似度)をDPマッチングにより算出する(ステップS113)。そして、両パターン間の距離が最も短い学習モデルに対応する挙動を、被観察者の挙動として判定する(ステップS114)。この実施例では、転倒を検知したいので、両パターン間の距離が最も短い学習モデルが「前向きの転倒」または「しりもち」の学習モデルである場合には、被観察者が転倒したと判定する。
【0080】
〔9〕検知履歴の活用等
【0081】
監視装置20(図1参照)は、被観察者毎に、現在までの転倒検知回数、転倒検知の発生間隔等から被観察者毎に転倒リスクを評価し、ランキングするようにしてもよい。このランキングは、監視者が自由に設定できるようにしてもよい。また、転倒リスクの高さに応じて、転倒が検知された場合に出力するアラームの種類を変更するようにしてもよい。また、同時に複数の被観察者の転倒が検知された場合には、リスクの高い被観察者の方を優先してその様子を確認できるようにするために、監視装置20において転倒の発生と被観察者の転倒リスクとの両方を表示することが好ましい。
【0082】
上記実施例では、転倒等の挙動検知に関する処理を各転倒検知装置10で行なっているが、監視装置20側で一括して行なうようにしてもよい。ただし、このようにすると、監視装置20に処理負荷が集中し、監視装置20がダウンする可能性がある。このような観点から、転倒等の挙動検知に関する処理を各転倒検知装置10で行うことが好ましい。なお、停電等の発生に備えて、各居室の入り口に転倒検知時に転倒するランプやアラームを設置するとともに、各転倒検知装置10にバッテリーを内蔵させておくことが好ましい。また、遠隔の家族等にも、監視装置20を介さず、挙動検知装置10から直接、通知ができるようにしておくことが好ましい。
【0083】
上記実施例では、転倒検知装置10は3次元人物領域情報を抽出するためにステレオカメラ等の撮像装置を備えているが、これに限定されることなく、転倒検知装置10は、3次元人物領域情報を抽出するために、例えば単眼の撮像装置とレーザレンジファインダーとの組合せ、単眼の撮像装置と複数の超音波センサの組合せ等のように、撮像装置を含んだセンサの組合せを備えていてもよい。
【図面の簡単な説明】
【0084】
【図1】転倒検知システムの全体的な構成を示すブロック図である。
【図2】転倒検知装置10によって実行される転倒検知処理の手順を示すフローチャートである。
【図3】図2のステップS12の3次元の人物領域抽出処理の詳細な手順を示すフローチャートである。
【図4】3次元の人物領域情報に対応する3次元の人物領域画像の一例を示す模式図である。
【図5】図2のステップS13の姿勢推定処理の詳細な手順を示すフローチャートである。
【図6】人物主軸Qおよび人物主軸QのX−Z平面となす角γを示す模式図である。
【図7】人物主軸Qの向きと姿勢推定結果の例を示す模式図である。
【図8】人物主軸の算出方法(第1方法)の手順を示すフローチャートである。
【図9】人物主軸の算出方法(第2方法)の手順を示すフローチャートである。
【図10】第1の射影画像から得られた第1の線分の傾きαと、第2の射影画像から得られた第2の線分の傾きβとを示す模式図である。
【図11】第1の線分の求め方を示すフローチャートである。
【図12】第1の線分の求め方を説明するための模式図である。
【図13】図3のステップS21の転倒判定処理の手順の変形例を示すフローチャートである。
【図14】図13の転倒判定処理の手順を説明するための模式図である。
【符号の説明】
【0085】
10 転倒検知装置
11、12 ステレオカメラ
20 監視装置
30 移動通信端末
40 ネットワーク
【技術分野】
【0001】
この発明は、被観察者の姿勢を検知する姿勢検知装置および被観察者の転倒等の挙動を検知する挙動検知装置に関する。
【背景技術】
【0002】
被観察者の転倒を検知する装置として、被観察者をカメラで撮影し、撮影画像から被観察者の動作ベクトルを検出し、検出した動作ベクトルと予め記憶している被観察者の転倒ベクトルとを比較することにより、被観察者が転倒したか否かを判別するものが既に開発されている(特開2002−232870号公報参照)。
【0003】
また、被観察者の転倒を検知する装置として、被観察者をカメラで撮影し、撮影画像と被観察者が存在しないときに撮影された参照画像との差分領域を抽出し、差分領域の面積に基づいて被観察者が転倒したか否かを判別するものが既に開発されている(特開2000−207664号公報参照)。
【0004】
また、観察者が移動状態であるか静止状態を判定する装置として、被観察者をカメラで撮影し、撮影画像から人物領域を抽出し、抽出した人物領域から頭頂部の画像座標を抽出し、被観察者の身長データを用いて頭頂部の画像座標を実世界座標に変換し、得られた頭頂部の実世界座標と所定時間過去の頭頂部の実世界座標との距離を算出し、得られた距離と所定の閾値とを比較することにより、観察者が移動状態であるか静止状態であるかを判定するものが既に開発されている(特開2002−197463号公報参照)。
【特許文献1】特開2002−232870号公報
【特許文献2】特開2000−207664号公報
【特許文献3】特開2002−197463号公報
【発明の開示】
【発明が解決しようとする課題】
【0005】
この発明は、被観察者の姿勢を高精度で検知することができる姿勢検知装置を提供することを目的とする。
【0006】
また、この発明は、被観察者の転倒等の挙動の発生を高精度で検知することができる挙動検知装置を提供することを目的とする。
【課題を解決するための手段】
【0007】
請求項1に記載の発明は、姿勢検知装置において、被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、3次元人物領域情報から3次元人物領域の高さ、幅および奥行き情報を算出する算出手段、ならびに3次元人物領域の高さに対する幅の比および3次元人物領域の高さに対する奥行きの比に基づいて、被観察者の姿勢を判定する判定手段を備えていることを特徴とする。
【0008】
請求項2に記載の発明は、姿勢検知装置において、被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、3次元人物領域情報から被観察者の背筋の向きを算出する算出手段、ならびに被観察者の背筋の向きに基づいて、被観察者の姿勢を判定する判定手段を備えていることを特徴とする。
【0009】
請求項3に記載の発明は、請求項2に記載の姿勢検知装置において、算出手段は、3次元人物領域の高さ方向をY軸とし、幅方向をX軸とし、奥行き方向をZ軸として、3次元人物領域情報を、X−Y平面に射影することにより第1の射影画像を生成するとともに、3次元人物領域情報を、Y−Z平面に射影することにより第2の射影画像を生成する手段、各射影画像毎に、重心を算出し、各射影画像の全座標値を、重心を原点とする座標値に修正する手段、座標値修正後の第1の射影画像から主成分分析を用いて第1主成分の傾きを表す第1のベクトルを算出するとともに、座標値修正後の第2の射影画像から主成分分析を用いて第1主成分の傾きを表す第2のベクトルを算出する手段、ならびに第1のベクトルおよび第2のベクトルを合成することにより、被観察者の背筋の向きを示すベクトルを求め、求めたベクトルから被観察者の背筋の向きを求める手段を備えていることを特徴とする。
【0010】
請求項4に記載の発明は、請求項2に記載の姿勢検知装置において、算出手段は、3次元人物領域の高さ方向をY軸とし、幅方向をX軸とし、奥行き方向をZ軸として、3次元人物領域情報を、X−Y平面に射影することにより第1の射影画像を生成するとともに、3次元人物領域情報を、Y−Z平面に射影することにより第2の射影画像を生成する手段、各射影画像毎に、重心を算出し、各射影画像の全座標値を、重心を原点とする座標値に修正する手段、座標値修正後の第1の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第1の線分の傾きを求めるとともに、座標値修正後の第2の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第2の線分の傾きを求める手段、ならびに第1の線分の傾きおよび第2の線分の傾きに基づいて、被観察者の背筋の向きを求める手段を備えていることを特徴とする。
【0011】
請求項5に記載の発明は、挙動検知装置において、被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、3次元人物領域情報に基づいて被観察者の姿勢を判定する姿勢判定手段、3次元人物領域情報から検知対象の挙動を判定するための挙動判定用データを生成する挙動判定用データ生成手段、姿勢判定手段の判定結果に基づいて、検知対象の挙動が発生した可能性がある期間において、挙動判定用データを蓄積していく蓄積手段、ならびに蓄積手段によって蓄積された挙動判定用データから得られた時系列データと、検知対象の挙動に対応した学習用データから予め作成されているモデルとを比較することにより、検知対象の挙動が発生したか否かを判定する判定手段を備えていることを特徴とする。
【0012】
請求項6に記載の発明は、請求項5に記載の挙動検知装置において、挙動判定用データ生成手段は、3次元人物領域情報から3次元人物領域の高さ、幅および奥行きからなる挙動判定用データを生成するものであり、上記時系列データが、蓄積手段によって蓄積された3次元人物領域の高さ、幅および奥行きの時系列データであり、上記モデルがHMMモデルであることを特徴とする。
【0013】
請求項7に記載の発明は、請求項5に記載の挙動検知装置において、挙動判定用データ生成手段は、3次元人物領域情報から3次元人物領域の高さ、幅および奥行きからなる挙動判定用データを生成するものであり、上記時系列データが、蓄積手段によって蓄積された3次元人物領域の高さ、幅および奥行きから算出された、被観察者の動き量の大きさをシンボル化したデータの時系列データであり、モデルがDPマッチング用のモデルであることを特徴とする。
【発明の効果】
【0014】
この発明によれば、被観察者の姿勢を高精度で検知することができるようになる。また、この発明によれば、被観察者の転倒等の挙動の発生を高精度で検知することができるようになる。
【発明を実施するための最良の形態】
【0015】
以下、図面を参照して、この発明を転倒を検知するための転倒検知装置に適用した場合の実施例について説明する。
【実施例1】
【0016】
〔1〕転倒検知システムの全体的な構成
【0017】
図1は、転倒検知システムの全体的な構成を示している。
転倒検知システムは、被観察者の居室内を撮影するステレオカメラ11、12を備えた転倒検知装置10、転倒検知装置10にネットワーク40を介して接続された監視装置20および転倒検知装置10にネットワーク40を介して接続された移動通信端末30を備えている。
【0018】
転倒検知システムは、被観察者の居室50内を撮像するステレオカメラ11、12を備えた転倒検知装置10、転倒検知装置10にネットワーク40を介して接続された監視装置20および転倒検知装置10にネットワーク40を介して接続された移動通信端末30を備えている。
【0019】
転倒検知装置10は、被観察者の転倒の発生を検知する。ネットワーク40には、複数の被観察者の居室50に対応して設けられた複数の転倒検知装置10が接続されている。監視装置20は監視者が詰めている監視センタに設置されている。監視装置20および移動通信端末30では、各被観察者の居室50を識別可能に表す居室画面が表示されており、転倒検知装置10によって転倒が検知された場合には、そのことが監視装置20および移動通信端末30に通知され、監視装置20および移動通信端末30はアラームなどを発生させるとともに、居室画面上においてどの居室で転倒が検知されたかを表示する。監視者は、この表示を見て、転倒が検知された居室表示を選択すると、監視装置20および移動通信端末30は、転倒を検知した上記転倒検知装置10から当該居室の現在の画像を受信して監視装置20および移動通信端末30に表示する。
【0020】
〔2〕転倒検知処理手順
【0021】
図2は、転倒検知装置10によって実行される転倒検知処理の手順を示している。
初期設定において、転倒判定用データ蓄積期間であることを記憶するフラグFはリセット(F=0)されているものとする。
【0022】
まず、ステレオカメラ11、12から画像(左右画像)を取り込む(ステップS11)。画像を取り込む時間間隔は、ステップS11に戻るタイミングによって異なるが、約200msec程度となる。取得した左右画像に基づいて、3次元の人物領域抽出処理を行なう(ステップS12)。これにより、カメラ座標系での3次元人物領域情報(3次元空間での人物領域プロット群)が得られる。次に、得られた3次元人物領域情報に基づいて、姿勢推定処理を行なう(ステップS13)。つまり、被観察者の現在の姿勢(立位、座位、臥位)を推定する。
【0023】
この後、今回読み込んだフレームに関するデータ群を第1バッファに保存する(ステップS14)。データ群は、時刻情報、入力画像データ、3次元人物領域情報、姿勢推定処理で得られる被観察者の幅、高さ、奥行き情報および姿勢推定結果からなる。第1バッファは、数フレーム分のデータ群を記憶するためのバッファであり、所定フレーム分のデータ群が蓄積されている場合には、1フレーム分の最も古いデータ群が消去されて、新たな1フレーム分のデータ群が蓄積される。
【0024】
次に、フラグFがセットされているか否かを判別する(ステップS15)。フラグFがセットされていないときには、姿勢推定結果の履歴データ等に基づいて転倒判定用データ蓄積期間の開始点であるか否かを判別する(ステップS16)。この判別処理の詳細については、後述する。転倒判定用データ蓄積期間の開始点ではないと判別した場合には、ステップS11に戻る。
【0025】
上記ステップS16において、転倒判定用データ蓄積期間の開始点であると判別した場合には、フラグFをセットした後(ステップS17)、今回取得したフレームに関するデータ群を第2バッファに蓄積する(ステップS18)。この場合には、データ群として、開始点からの経過時間情報(開始点からのフレーム数で表される)が追加される。そして、転倒判定用データ蓄積期間の終了点であるか否かを判別する(ステップS19)。この判別処理の詳細については、後述する。転倒判定用データ蓄積期間の終了点ではないと判別した場合には、ステップS11に戻る。
【0026】
ステップS19からS11に戻った場合には、次のステップS15では、F=1となっているので、ステップS15からステップS18に移行し、第1バッファだけでなく、第2バッファにもデータ群が蓄積される。
【0027】
上記ステップS19において、転倒判定用データ蓄積期間の終了点であると判別した場合には、フラグFをリセットした後(ステップS20)、第2バッファに蓄積されたデータ群に基づいて、転倒判定処理を行なう(ステップS21)。転倒判定処理の結果、転倒ではないと判定された場合には(ステップS22)、ステップS11に戻る。転倒判定処理の結果、転倒であると判定された場合には(ステップS22)、転倒が発生したことを監視装置20等に通知する(ステップS23)。そして、ステップS11に戻る
【0028】
〔3〕図2のステップS12の3次元の人物領域抽出処理
【0029】
図3は、図2のステップS12の3次元人物領域抽出処理の詳細な手順を示している。
【0030】
事前処理として、居室50に被観察者が存在していない状態で、ステレオカメラ11、12のうちの一方のカメラ11によって居室内を撮影した画像を取得し、取得した画像をグレースケール化する。そして、得られた画像を背景画像として、転倒検知装置10の記憶装置に記憶しておく。
【0031】
3次元の人物領域抽出処理では、ステレオカメラ11、12から取得した左右画像のうち、背景画像を撮影したカメラ11から今回取得した画像と、背景画像とを用いて、背景差分法により、2次元人物領域を抽出する。また、ステレオカメラ11、12から取得した2枚の画像から、3次元測量手法により、ピクセル毎に奥行き情報を算出し、3次元空間にプロットできる座標情報(3次元位置情報)を取得する。そして、2次元人物領域情報と3次元位置情報とを重ね合わせることで、3次元空間内での人物領域に相当するデータ(3次元の人物領域情報)を抽出する。
【0032】
具体的には、背景画像を撮影したカメラ11から今回取得した画像を、グレイスケール化する(ステップS31)。
【0033】
ステップS31で得られた画像と予め記憶されている背景画像の対応する画素毎に、画素値の差の絶対値を算出することにより、両画像の差分画像を作成する(ステップS32)。得られた差分画像を2値化することにより、2次元人物領域情報を抽出する(ステップS33)。
【0034】
一方、ステレオカメラ11、12から今回取得した左右画像から、周知のステレオ法を用いて、3次元位置情報を算出する(ステップS34)。上記ステップS33で抽出した2次元人物領域情報と、上記ステップS34で算出した3次元位置情報とに基づいて、3次元人物領域情報を抽出する(ステップS35)。
【0035】
図4は、3次元人物領域情報によって表される3次元の人物領域画像の一例を示している。図4において、直方体101は、X−Y平面、Y−Z平面およびZ−X平面それぞれに平行な面を有しかつ3次元の人物領域に外接する直方体である。直方体101の上側の図(符号102)は、直方体101の上から3次元の人物領域を見た平面図であり、直方体101の右側の図(符号103)は、直方体101の右から3次元の人物領域を見た側面図である。
【0036】
〔4〕図2のステップS13の姿勢推定処理
【0037】
図5は、図2のステップS13の姿勢推定処理の詳細な手順を示している。
【0038】
3次元人物領域抽出処理によって得られた3次元人物領域情報に基づいて、図4に示すように、X−Y平面、Y−Z平面およびZ−X平面それぞれに平行な面を有しかつ3次元の人物領域に外接する直方体101の幅lx 、高さlyおよび奥行きlz(被観察者の幅、高さおよび奥行き)を算出する(ステップS41)。lx は3次元の人物領域のx座標の最大値と最小値との差の絶対値を算出することにより、lyは3次元の人物領域のy座標の最大値と最小値との差の絶対値を算出することにより、lzは3次元の人物領域のz座標の最大値と最小値との差の絶対値を算出することにより、それぞれ求められる。
【0039】
次に、アトペクト比lx /lyおよびlz/lyを算出する(ステップS42)。そして、算出したアトペクト比lx /lyおよびlz/lyと、予め定められた規則とに基づいて、被観察者の姿勢を推定する(ステップS43)。
【0040】
具体的には、次のような規則に基づいて、被観察者の姿勢を推定する。
(a) lx /ly<0.4またはlz/ly<0.4であれば、観察者の姿勢を「立位」と推定する。
(b) lx /ly>1.5またはlz/ly>1.5であれば、観察者の姿勢を「臥位」と推定する。
(c)それ以外であれば、観察者の姿勢を「座位」と推定する。
【0041】
〔5〕図2のステップS16およびステップS19の開始点または終了点判別処理
【0042】
図2のステップS16の開始点判別処理においては、『アスペクト比lx /lyおよびlz/lyのうちの少なくとも一方が0.7以上である状態が1秒(約5フレームに相当)以上継続していること』という開始点条件を満たしているか否かを判別し、開始点条件を満たしている場合には今回取り込まれたフレームが転倒判定用データ蓄積期間の開始点であると判別する。
【0043】
図2のステップS19の終了点判別処理においては、『「アスペクト比lx /lyおよびlz/lyのうちの少なくとも一方が0.7以下である状態が1.4秒(約7フレームに相当)以上継続していること」または「第2バッファに蓄積されているデータ群が所定フレーム数分以上となっていること」または「開始点からの経過時間が、所定時間以上に達していること」』という終了点条件を満たしているか否かを判別し、終了点条件を満たしている場合には今回取り込まれたフレームが転倒判定用データ蓄積期間の終了点であると判別する。
【0044】
〔6〕図2のステップS21の転倒判定処理
【0045】
各種の挙動毎に、事前にモデルを用意しておく。挙動の種類には、この例では、「前向きの転倒」、「しりもち」、「寝転び」および「座る」がある。ここでは、モデルとしては、隠れマルコフモデル(HMM)が用いられている。各挙動毎のモデルは、その挙動に対応した学習データに基づいて作成される。例えば、「前向きの転倒」は、「前向きの転倒」動作の学習データに基づいて作成される。なお、学習データとしては、経過時間情報(開始点からのフレーム数で表される)および被観察者の幅、高さ、奥行き情報(lx,ly,lz)からなる時系列データが用いられる。「前向きの転倒」、「しりもち」、「寝転び」および「座る」の挙動のうち、「前向きの転倒」および「しりもち」が転倒動作に該当する。
【0046】
第2バッファに蓄積されているデータ群のうち、経過時間情報(開始点からのフレーム数で表される)および被観察者の幅、高さ、奥行き情報(lx,ly,lz)を時系列データとし、上記時系列データが再現できる確率(尤度)を、各モデル毎に計算する。そして、最も尤度が高いモデルを求める。最も尤度が高いモデルに対応する挙動が、観察者の挙動となる。この実施例では、転倒を検知したいので、最も尤度が高いモデルが「前向きの転倒」または「しりもち」のモデルである場合には、被観察者が転倒したと判定する。
【0047】
〔7〕姿勢推定処理の変形例
【0048】
上記実施例では、被観察者の幅、高さおよび奥行きから求められたアスペクト比lx /lyおよびlz/lyに基づいて、被観察者の姿勢を推定しているが、被観察者の背筋の向きに相当するベクトル(人物主軸)の向きに基づいて、被観察者の姿勢を推定するようにしてもよい。
【0049】
つまり、図6に示すように、人物主軸QのX−Z平面となす角γ(人物主軸の向き)を求め、次のような規則に基づいて、被観察者の姿勢を推定する。
【0050】
(a)γ>π/2×0.6であれば、観察者の姿勢を「立位」と推定する。
(b)γ<π/2×0.3であれば、観察者の姿勢を「臥位」と推定する。
(c)それ以外であれば、観察者の姿勢を「座位」と推定する。
【0051】
図7は、人物主軸Qの向きと姿勢推定結果の例を示し、図7(a)は「立位」と推定される例を、図7(b)は「座位」と推定される例を、図7(c)は「臥位」と推定される例を、それぞれ示している。
【0052】
以下、人物主軸の向きの求め方について説明する。人物主軸の向きの求め方には第1方法と第2方法とがある。
【0053】
まず、第1方法について説明する。第1方法は、主成分分析を用いて、人物主軸の向きを求める方法である。
【0054】
図8は、人物主軸の向きの算出方法(第1方法)の手順を示している。
【0055】
3次元人物領域情報(人物領域の3次元空間でのプロット群)を、X−Y平面に射影することにより、X軸をU軸、Y軸をV軸とするUV座標系の第1の射影画像を得るとともに、3次元人物領域情報を、Y−Z平面に射影することにより、Z軸をU軸、Y軸をV軸とするUV座標系の第2の射影画像を得る(ステップS51)。次に、各射影画像毎に、重心を算出する(ステップS52)。そして、各射影画像の全座標値を、重心を原点とする座標値に修正する(ステップS53)。
【0056】
次に、座標値修正後の第1の射影画像から主成分分析を用いて固有ベクトル(第1主成分の傾きを表すベクトル)を算出するとともに、座標値修正後の第2の射影画像から主成分分析を用いて固有ベクトル(第1主成分の傾きを表すベクトル)を算出する(ステップS54)。そして、ステップS54で算出された2つの固有ベクトルを合成することにより、人物主軸の向きを示すベクトルを求める(ステップS55)。そして、人物主軸の向きを示すベクトルから人物主軸の向きγを求める(ステップS56)。
【0057】
固有ベクトルの算出方法について説明する。各固有ベクトルの算出方法は同様であるので、第1の固有ベクトルの算出方法について説明する。まず、座標値修正後の第1の射影画像に基づいて、変量uの分散su 、変量vの分散sv および変量u,vの共分散suvを算出する。そして、分散su 、sv および共分散suvを用いて、固有値λを算出する。分散su 、sv および共分散suvを用いて固有値λを算出する方法は、主成分分析において良く知られているのでその詳細を省略する。次に、固有値λを用いて固有ベクトルを算出する。固有値λを用いて固有ベクトルを算出する方法は、主成分分析において良く知られているのでその詳細を省略する。
【0058】
図9は、人物主軸の向きの算出方法(第2方法)の手順を示している。
【0059】
3次元人物領域情報(人物領域の3次元空間でのプロット群)をX−Y平面に射影することにより、第1の射影画像を得るとともに、3次元人物領域情報をY−Z平面に射影することにより、第2の射影画像を得る(ステップS61)。次に、各射影画像毎に、重心を算出する(ステップS62)。そして、各射影画像の全座標値を、重心を原点とする座標値に修正する(ステップS63)。
【0060】
次に、座標値修正後の第1の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第1の線分の傾きを求めるとともに、座標値修正後の第2の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第2の線分の傾きを求める(ステップS64)。そして、ステップS64で求められた2つの線分の傾きに基づいて、人物主軸の向きγを求める(ステップS65)。
【0061】
図10に示すように、第1の射影画像から得られた第1の線分の傾きをα、第2の射影画像から得られた第2の線分の傾きをβとすると、各線分の向きを示す単位ベクトルv1、v2は、次式(1)で表される。
【0062】
v1=(cosα,sinα)
v2=(cosβ,sinβ) …(1)
【0063】
次式(2)に基づいて、v1、v2を合成すると、人物主軸の向きを示すベクトルVが得られる。
【0064】
V=(cosα,sinα+sinβ,cosβ) …(2)
【0065】
人物主軸の向きγは、次式(3)に基づいて、求められる。
【0066】
tanγ=(sinα+sinβ)/(cosα2 +cosβ2 )1/2 …(3)
【0067】
第1の線分および第2の線分の求め方について説明する。各線分の求め方は同様であるので、第1の線分の求め方について説明する。
【0068】
図11は、第1の線分の求め方を示している。
【0069】
まず、ステップS3で得られた第1の射影画像を、図12に示すように、一定間隔を有するY軸に平行な複数の分割線により、射影画像をX軸方向に複数の領域に分割する(ステップS71)。各分割領域毎に人物領域のy座標の最大値と最小値に対応する点を輪郭点Piとして特定する(ステップS72)。
【0070】
輪郭点のうちx座標が最も大きくかつy座標が0に最も近い輪郭点を点Aとし、点Aを含む分割領域を注目領域とする(ステップS73)。図12の例では、点P1が点Aとして特定される。点A以外の輪郭点のうち、点Aと原点を結ぶ直線に最も近い輪郭点を求め、点Bとする(ステップS74)。図12の例では、点Aが点P1である場合には、点P7が点Bとされる。点Aと点Bを結ぶ線分の距離(A−B間距離)を算出して保持する(ステップS75)。
【0071】
次に、注目領域が、輪郭点のうちx座標が最も小さい輪郭点を含む分割領域(最終処理領域)であるか否かを判別する(ステップS76)。現在の注目領域が最終処理領域でなければ、注目領域を、現在の注目領域に対してx座標が小さくなる方向に隣接する分割領域に更新する(ステップS77)。そして、更新された注目領域内において、y座標が最も大きい輪郭点を点Aとする(ステップS78)。そして、ステップS74に戻り、ステップS74以降の処理を再度行なう。
【0072】
上記ステップS76において、現在の注目領域が最終処理領域であると判別された場合には、A−B間の距離が最大である線分を第1の線分として特定する(ステップS79)。図12の例では、点P3と点P9とを結ぶ線分が第1の線分として特定される。
【0073】
〔8〕図2のステップS21の転倒判定処理の変形例
【0074】
各種の挙動毎に、事前に学習モデルを用意しておく。挙動の種類には、この例では、「前向きの転倒」、「しりもち」、「寝転び」および「座る」がある。各挙動毎の学習モデルは、その挙動に対応した学習データに基づいて作成される。例えば、「前向きの転倒」は、「前向きの転倒」動作の学習データに基づいて作成される。なお、学習データとしては、時刻情報および被観察者の幅、高さ、奥行き情報(lx,ly,lz)からなる時系列データが用いられる。学習データに基づいて、複数時点での被観察者の動き量の程度(多、中、少)からなる学習モデルが作成される。「前向きの転倒」、「しりもち」、「寝転び」および「座る」の挙動のうち、「前向きの転倒」および「しりもち」が転倒動作に該当する。
【0075】
図13は、転倒判定処理の手順を示している。図14は、転倒判定処理の手順を模式図で表している。
【0076】
まず、第2バッファに保存されている複数フレーム分の被観察者の幅、高さ、奥行き情報(lx,ly,lz)および時刻情報(図14に時系列データ201で示す)に基づいて、複数時点での単位時間当たりの動き量データ(dlx/dt,dly/dt,dlz/dt)を求める(ステップS111)。
【0077】
時系列データ201における各隣合うフレーム間のlx,ly,lzの差分dlx、dly、dlzを、それらのフレーム間の時間差で除算することにより、複数時点での単位時間当たりの動き量データが得られる。
【0078】
次に、各時点での3種類の動き量データのうちの最大値と、予め設定した2つの閾値に基づいて、各時点での動き量を3種類(多、中、少)にシンボル化する(ステップS112)。これにより、図14に示すような複数時点でのシンボル化データからなるパターン202が得られる。
【0079】
得られたパターン202と各挙動毎の学習モデル(図14に211〜214で示す)との距離(類似度)をDPマッチングにより算出する(ステップS113)。そして、両パターン間の距離が最も短い学習モデルに対応する挙動を、被観察者の挙動として判定する(ステップS114)。この実施例では、転倒を検知したいので、両パターン間の距離が最も短い学習モデルが「前向きの転倒」または「しりもち」の学習モデルである場合には、被観察者が転倒したと判定する。
【0080】
〔9〕検知履歴の活用等
【0081】
監視装置20(図1参照)は、被観察者毎に、現在までの転倒検知回数、転倒検知の発生間隔等から被観察者毎に転倒リスクを評価し、ランキングするようにしてもよい。このランキングは、監視者が自由に設定できるようにしてもよい。また、転倒リスクの高さに応じて、転倒が検知された場合に出力するアラームの種類を変更するようにしてもよい。また、同時に複数の被観察者の転倒が検知された場合には、リスクの高い被観察者の方を優先してその様子を確認できるようにするために、監視装置20において転倒の発生と被観察者の転倒リスクとの両方を表示することが好ましい。
【0082】
上記実施例では、転倒等の挙動検知に関する処理を各転倒検知装置10で行なっているが、監視装置20側で一括して行なうようにしてもよい。ただし、このようにすると、監視装置20に処理負荷が集中し、監視装置20がダウンする可能性がある。このような観点から、転倒等の挙動検知に関する処理を各転倒検知装置10で行うことが好ましい。なお、停電等の発生に備えて、各居室の入り口に転倒検知時に転倒するランプやアラームを設置するとともに、各転倒検知装置10にバッテリーを内蔵させておくことが好ましい。また、遠隔の家族等にも、監視装置20を介さず、挙動検知装置10から直接、通知ができるようにしておくことが好ましい。
【0083】
上記実施例では、転倒検知装置10は3次元人物領域情報を抽出するためにステレオカメラ等の撮像装置を備えているが、これに限定されることなく、転倒検知装置10は、3次元人物領域情報を抽出するために、例えば単眼の撮像装置とレーザレンジファインダーとの組合せ、単眼の撮像装置と複数の超音波センサの組合せ等のように、撮像装置を含んだセンサの組合せを備えていてもよい。
【図面の簡単な説明】
【0084】
【図1】転倒検知システムの全体的な構成を示すブロック図である。
【図2】転倒検知装置10によって実行される転倒検知処理の手順を示すフローチャートである。
【図3】図2のステップS12の3次元の人物領域抽出処理の詳細な手順を示すフローチャートである。
【図4】3次元の人物領域情報に対応する3次元の人物領域画像の一例を示す模式図である。
【図5】図2のステップS13の姿勢推定処理の詳細な手順を示すフローチャートである。
【図6】人物主軸Qおよび人物主軸QのX−Z平面となす角γを示す模式図である。
【図7】人物主軸Qの向きと姿勢推定結果の例を示す模式図である。
【図8】人物主軸の算出方法(第1方法)の手順を示すフローチャートである。
【図9】人物主軸の算出方法(第2方法)の手順を示すフローチャートである。
【図10】第1の射影画像から得られた第1の線分の傾きαと、第2の射影画像から得られた第2の線分の傾きβとを示す模式図である。
【図11】第1の線分の求め方を示すフローチャートである。
【図12】第1の線分の求め方を説明するための模式図である。
【図13】図3のステップS21の転倒判定処理の手順の変形例を示すフローチャートである。
【図14】図13の転倒判定処理の手順を説明するための模式図である。
【符号の説明】
【0085】
10 転倒検知装置
11、12 ステレオカメラ
20 監視装置
30 移動通信端末
40 ネットワーク
【特許請求の範囲】
【請求項1】
被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、
3次元人物領域情報から3次元人物領域の高さ、幅および奥行き情報を算出する算出手段、ならびに
3次元人物領域の高さに対する幅の比および3次元人物領域の高さに対する奥行きの比に基づいて、被観察者の姿勢を判定する判定手段、
を備えていることを特徴とする姿勢検知装置。
【請求項2】
被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、
3次元人物領域情報から被観察者の背筋の向きを算出する算出手段、ならびに
被観察者の背筋の向きに基づいて、被観察者の姿勢を判定する判定手段、
を備えていることを特徴とする姿勢検知装置。
【請求項3】
算出手段は、
3次元人物領域の高さ方向をY軸とし、幅方向をX軸とし、奥行き方向をZ軸として、3次元人物領域情報を、X−Y平面に射影することにより第1の射影画像を生成するとともに、3次元人物領域情報を、Y−Z平面に投影することにより第2の射影画像を生成する手段、
各射影画像毎に、重心を算出し、各射影画像の全座標値を、重心を原点とする座標値に修正する手段、
座標値修正後の第1の射影画像から主成分分析を用いて第1主成分の傾きを表す第1のベクトルを算出するとともに、座標値修正後の第2の射影画像から主成分分析を用いて第1主成分の傾きを表す第2のベクトルを算出する手段、ならびに
第1のベクトルおよび第2のベクトルを合成することにより、被観察者の背筋の向きを示すベクトルを求め、求めたベクトルから被観察者の背筋の向きを求める手段、
を備えていることを特徴とする請求項2に記載の姿勢検知装置。
【請求項4】
算出手段は、
3次元人物領域の高さ方向をY軸とし、幅方向をX軸とし、奥行き方向をZ軸として、3次元人物領域情報を、X−Y平面に射影することにより第1の射影画像を生成するとともに、3次元人物領域情報を、Y−Z平面に投影することにより第2の射影画像を生成する手段、
各射影画像毎に、重心を算出し、各射影画像の全座標値を、重心を原点とする座標値に修正する手段、
座標値修正後の第1の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第1の線分の傾きを求めるとともに、座標値修正後の第2の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第2の線分の傾きを求める手段、ならびに
第1の線分の傾きおよび第2の線分の傾きに基づいて、被観察者の背筋の向きを求める手段、
を備えていることを特徴とする請求項2に記載の姿勢検知装置。
【請求項5】
被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、
3次元人物領域情報に基づいて被観察者の姿勢を判定する姿勢判定手段、
3次元人物領域情報から検知対象の挙動を判定するための挙動判定用データを生成する挙動判定用データ生成手段、
姿勢判定手段の判定結果に基づいて、検知対象の挙動が発生した可能性がある期間において、挙動判定用データを蓄積していく蓄積手段、ならびに
蓄積手段によって蓄積された挙動判定用データから得られた時系列データと、検知対象の挙動に対応した学習用データから予め作成されているモデルとを比較することにより、検知対象の挙動が発生したか否かを判定する判定手段、
を備えていることを特徴とする挙動検知装置。
【請求項6】
挙動判定用データ生成手段は、3次元人物領域情報から3次元人物領域の高さ、幅および奥行きからなる挙動判定用データを生成するものであり、上記時系列データが、蓄積手段によって蓄積された3次元人物領域の高さ、幅および奥行きの時系列データであり、上記モデルがHMMモデルであることを特徴とする請求項5に記載の挙動検知装置。
【請求項7】
挙動判定用データ生成手段は、3次元人物領域情報から3次元人物領域の高さ、幅および奥行きからなる挙動判定用データを生成するものであり、上記時系列データが、蓄積手段によって蓄積された3次元人物領域の高さ、幅および奥行きから算出された、被観察者の動き量の大きさをシンボル化したデータの時系列データであり、モデルがDPマッチング用のモデルであることを特徴とする請求項5に記載の挙動検知装置。。
【請求項1】
被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、
3次元人物領域情報から3次元人物領域の高さ、幅および奥行き情報を算出する算出手段、ならびに
3次元人物領域の高さに対する幅の比および3次元人物領域の高さに対する奥行きの比に基づいて、被観察者の姿勢を判定する判定手段、
を備えていることを特徴とする姿勢検知装置。
【請求項2】
被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、
3次元人物領域情報から被観察者の背筋の向きを算出する算出手段、ならびに
被観察者の背筋の向きに基づいて、被観察者の姿勢を判定する判定手段、
を備えていることを特徴とする姿勢検知装置。
【請求項3】
算出手段は、
3次元人物領域の高さ方向をY軸とし、幅方向をX軸とし、奥行き方向をZ軸として、3次元人物領域情報を、X−Y平面に射影することにより第1の射影画像を生成するとともに、3次元人物領域情報を、Y−Z平面に投影することにより第2の射影画像を生成する手段、
各射影画像毎に、重心を算出し、各射影画像の全座標値を、重心を原点とする座標値に修正する手段、
座標値修正後の第1の射影画像から主成分分析を用いて第1主成分の傾きを表す第1のベクトルを算出するとともに、座標値修正後の第2の射影画像から主成分分析を用いて第1主成分の傾きを表す第2のベクトルを算出する手段、ならびに
第1のベクトルおよび第2のベクトルを合成することにより、被観察者の背筋の向きを示すベクトルを求め、求めたベクトルから被観察者の背筋の向きを求める手段、
を備えていることを特徴とする請求項2に記載の姿勢検知装置。
【請求項4】
算出手段は、
3次元人物領域の高さ方向をY軸とし、幅方向をX軸とし、奥行き方向をZ軸として、3次元人物領域情報を、X−Y平面に射影することにより第1の射影画像を生成するとともに、3次元人物領域情報を、Y−Z平面に投影することにより第2の射影画像を生成する手段、
各射影画像毎に、重心を算出し、各射影画像の全座標値を、重心を原点とする座標値に修正する手段、
座標値修正後の第1の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第1の線分の傾きを求めるとともに、座標値修正後の第2の射影画像から、原点を通りかつ両端が人物領域の輪郭までのびた線分のうち、その長さが最大となる第2の線分の傾きを求める手段、ならびに
第1の線分の傾きおよび第2の線分の傾きに基づいて、被観察者の背筋の向きを求める手段、
を備えていることを特徴とする請求項2に記載の姿勢検知装置。
【請求項5】
被観察者の撮影画像に基づいて、3次元人物領域情報を抽出する人物領域情報抽出手段、
3次元人物領域情報に基づいて被観察者の姿勢を判定する姿勢判定手段、
3次元人物領域情報から検知対象の挙動を判定するための挙動判定用データを生成する挙動判定用データ生成手段、
姿勢判定手段の判定結果に基づいて、検知対象の挙動が発生した可能性がある期間において、挙動判定用データを蓄積していく蓄積手段、ならびに
蓄積手段によって蓄積された挙動判定用データから得られた時系列データと、検知対象の挙動に対応した学習用データから予め作成されているモデルとを比較することにより、検知対象の挙動が発生したか否かを判定する判定手段、
を備えていることを特徴とする挙動検知装置。
【請求項6】
挙動判定用データ生成手段は、3次元人物領域情報から3次元人物領域の高さ、幅および奥行きからなる挙動判定用データを生成するものであり、上記時系列データが、蓄積手段によって蓄積された3次元人物領域の高さ、幅および奥行きの時系列データであり、上記モデルがHMMモデルであることを特徴とする請求項5に記載の挙動検知装置。
【請求項7】
挙動判定用データ生成手段は、3次元人物領域情報から3次元人物領域の高さ、幅および奥行きからなる挙動判定用データを生成するものであり、上記時系列データが、蓄積手段によって蓄積された3次元人物領域の高さ、幅および奥行きから算出された、被観察者の動き量の大きさをシンボル化したデータの時系列データであり、モデルがDPマッチング用のモデルであることを特徴とする請求項5に記載の挙動検知装置。。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【公開番号】特開2008−146583(P2008−146583A)
【公開日】平成20年6月26日(2008.6.26)
【国際特許分類】
【出願番号】特願2006−336063(P2006−336063)
【出願日】平成18年12月13日(2006.12.13)
【出願人】(000001889)三洋電機株式会社 (18,308)
【Fターム(参考)】
【公開日】平成20年6月26日(2008.6.26)
【国際特許分類】
【出願日】平成18年12月13日(2006.12.13)
【出願人】(000001889)三洋電機株式会社 (18,308)
【Fターム(参考)】
[ Back to top ]