説明

姿勢検出装置、姿勢検出方法、プログラム及び情報記憶媒体

【課題】ユーザの姿勢を検出する場合に、姿勢検出の精度を向上できる姿勢検出装置を提供する。
【解決手段】ユーザを含む画像を撮像する撮像手段と、ユーザの体のいずれかの部位が接触したことを検知する接触検知部材とを備え、撮像した画像に基づいてユーザの姿勢を特定する際に、当該画像を撮像した時点において接触検知部材にユーザが接触しているか否かを示す情報に応じて、当該特定する姿勢の範囲を制限する姿勢検出装置である。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザを撮像して得られる画像に基づいてユーザの姿勢を検出する姿勢検出装置、姿勢検出方法、プログラム及び情報記憶媒体に関する。
【背景技術】
【0002】
従来、人や動物などの姿勢や動作をデジタルデータとしてコンピュータ上に記録するモーションキャプチャ技術がある。このような技術においては、例えば人の身体の所定の箇所に反射マーカーや赤外線マーカー等を付け、この人物をビデオカメラ等の撮像手段により撮像する。そして、撮像された画像を解析して画像中のマーカーの位置を検出することによって、人物の姿勢や動作を特定することができる。また、マーカーを用いずに、撮像した画像を解析して人や動物の身体の各部位(頭、腕、足など)を特定することにより、その姿勢を特定する技術もある。
【発明の開示】
【発明が解決しようとする課題】
【0003】
上記従来例の技術においては、カメラに対する人や動物の向きなどによって、マーカーや体の一部が隠れてしまう場合がある。このような場合、精度よく姿勢を特定できないことがあり得る。
【0004】
本発明は上記実情に鑑みてなされたものであって、その目的の一つは、ユーザの姿勢を検出する場合に、姿勢検出の精度を向上できる姿勢検出装置、姿勢検出方法、プログラム及び情報記憶媒体を提供することにある。
【課題を解決するための手段】
【0005】
本発明に係る姿勢検出装置は、ユーザを含む画像を撮像する撮像手段と、前記ユーザの体のいずれかの部位が接触したことを検知する接触検知部材と、前記撮像した画像に基づいて前記ユーザの姿勢を特定する手段であって、当該画像を撮像した時点において前記接触検知部材に前記ユーザが接触しているか否かを示す情報に応じて、当該特定する姿勢の範囲を制限する姿勢特定手段と、を含むことを特徴とする。
【0006】
また、上記姿勢検出装置において、前記接触検知部材は複数あって、それぞれ所定の位置関係で配置され、前記姿勢特定手段は、前記画像を撮像した時点において前記複数の接触検知部材のそれぞれに前記ユーザが接触しているか否かを示す情報に応じて、前記特定する姿勢の範囲を制限することとしてもよい。
【0007】
さらに、前記複数の接触検知部材は、床上に配置されたシート部材に取り付けられ、それぞれ前記ユーザによって踏まれたことを検知することとしてもよい。
【0008】
また、上記姿勢検出装置は、複数の時点のそれぞれについて前記姿勢特定手段によって特定された前記ユーザの姿勢を示す情報に基づいて、前記ユーザの動作を示す動作データを生成する動作データ生成手段をさらに含むこととしてもよい。
【0009】
また、上記姿勢検出装置は、前記接触検知部材による検知結果を前記ユーザの操作入力として、所定のゲーム処理を実行するゲーム処理実行手段をさらに含み、前記動作データ生成手段によって生成された前記動作データが、前記ゲーム処理の出力に用いられることとしてもよい。
【0010】
また、本発明に係る姿勢検出方法は、撮像手段により撮像されたユーザを含む画像を取得するステップと、前記ユーザの体のいずれかの部位が接触したことを検知する接触検知部材による検知結果を取得するステップと、前記取得した画像に基づいて前記ユーザの姿勢を特定するステップであって、当該画像を撮像した時点において前記接触検知部材に前記ユーザが接触しているか否かを示す情報に応じて、当該特定する姿勢の範囲を制限するステップと、を含むことを特徴とする。
【0011】
また、本発明に係るプログラムは、撮像手段により撮像されたユーザを含む画像を取得する手段、前記ユーザの体のいずれかの部位が接触したことを検知する接触検知部材による検知結果を取得する手段、及び前記取得した画像に基づいて前記ユーザの姿勢を特定する手段であって、当該画像を撮像した時点において前記接触検知部材に前記ユーザが接触しているか否かを示す情報に応じて、当該特定する姿勢の範囲を制限する姿勢特定手段、としてコンピュータを機能させるためのプログラムである。このプログラムは、コンピュータ読み取り可能な情報記憶媒体に記憶されてよい。
【発明を実施するための最良の形態】
【0012】
以下、本発明の一実施形態について、図面を参照しながら説明する。
【0013】
図1は、本発明の一実施形態に係る姿勢検出装置1の全体概要を示す概要図である。姿勢検出装置1は、図1に示すように、コンピュータ11と、操作デバイス12と、エージェントデバイス13と、表示装置14と、を含んで構成される。なお、操作デバイス12及びエージェントデバイス13は、有線又は無線の通信インタフェースによって、コンピュータ11と接続される。
【0014】
コンピュータ11は、例えば家庭用ゲーム機やパーソナルコンピュータ等であって、図2の構成ブロック図に示すように、制御部21と、記憶部22と、表示制御部23と、インタフェース部24と、を含んで構成される。
【0015】
制御部21は、CPU等であって、記憶部22に格納されているプログラムに従って動作する。本実施形態においては、制御部21は、操作デバイス12やエージェントデバイス13から入力される情報に基づいて、ユーザの姿勢の特定を行う。制御部21が実行する処理の具体例については、後述する。
【0016】
記憶部22は、RAMやROM等のメモリ素子や、ハードディスク等のディスクデバイスなどのコンピュータ読み取り可能な情報記憶媒体を含んで構成される。記憶部22には、制御部21によって実行されるプログラムが格納される。また、記憶部22は、制御部21のワークメモリとしても動作する。
【0017】
表示制御部23は、制御部21より出力された画像情報を映像信号に変換し、表示装置14に対して出力する。表示装置14は、例えば家庭用テレビなどであって、表示制御部23の出力する映像信号に基づいて、画面上に映像を表示する。
【0018】
インタフェース部24は、例えばBluetooth(商標)規格に基づく無線通信手段などである。インタフェース部24は、制御部21と、操作デバイス12及びエージェントデバイス13と、の間のデータ送受信を中継する。
【0019】
操作デバイス12は、姿勢検出装置1を利用するユーザUからの指示操作を受け付けて、その内容を示す制御信号をコンピュータ11に出力する。本実施形態において、操作デバイス12は、複数の接触検知部材15を含んで構成される。これら接触検知部材15のそれぞれは、ユーザUの体のいずれかの部位が接触したことを検知する圧力センサ等のセンサを含んでいる。各接触検知部材15は、その検知結果に応じた信号をユーザUの操作入力として一定時間ごとにコンピュータ11に出力する。
【0020】
具体例として、本実施形態における操作デバイス12は、ユーザUが体を動かして遊ぶゲームに用いられるものであって、複数の接触検知部材15が取り付けられたシート部材により構成されるものとする。この操作デバイス12は、床上に置いて使用される。ここで各接触検知部材15は、シート部材上に所定の位置関係で配置され、それぞれユーザUによって踏まれたことを検知する。ユーザUは、操作デバイス12の上でゲームの指示に従って所定のタイミングで各接触検知部材15を踏むことによって、ゲームをプレイする。図3は、このような操作デバイス12の一例を示す図である。図3の例においては、シート部材に4つの接触検知部材15a、15b、15c及び15dが取り付けられている。
【0021】
エージェントデバイス13は、予め内蔵されたプログラム及びコンピュータ11からの情報に基づいて自律的に動作するロボットシステムである。例えばエージェントデバイス13は、人型を模した形状をしており、人の手や足に相当する可動部を備えている。また、エージェントデバイス13は、撮像部16を含んで構成される。
【0022】
撮像部16は、例えば小型のビデオカメラ等であって、ユーザUを含む画像を撮像する。撮像された画像は、インタフェース部24を介してコンピュータ11の制御部21に出力される。エージェントデバイス13は、コンピュータ11からの指示に基づいてユーザUを撮像可能な位置に移動し、撮像部16によりユーザUを撮像する。
【0023】
以下、姿勢検出装置1が実現する機能について説明する。姿勢検出装置1は、機能的に、図4に示すように、ゲーム処理実行部31と、姿勢特定部32と、動作データ生成部33と、を含んで構成される。これらの機能は、例えば制御部21が記憶部22に格納されたプログラムを実行することによって実現できる。このプログラムは、CD−ROMやDVD−ROM等のコンピュータ読み取り可能な情報記憶媒体に格納されて提供されてもよいし、インターネット等の通信ネットワークを介して提供されてもよい。
【0024】
ゲーム処理実行部31は、所定のゲーム処理を実行する。本実施形態においては、ゲーム処理実行部31は以下に説明するようなダンスゲームを実行する。すなわち、ゲーム処理実行部31は、ユーザUに動作内容を案内する画像を表示装置14に表示させる。この画像は時間とともに変化する画像である。ユーザUは、表示装置14に表示される画像の案内に従って、操作デバイス12上であたかもダンスを踊るように各接触検知部材15を所定のタイミングで踏んでいく。このゲーム処理においては、各接触検知部材15がユーザUの足の接触を検知したことを示す検知結果が、ユーザUの操作入力となる。
【0025】
姿勢特定部32は、撮像部16により撮像されたユーザUを含む撮像画像を取得し、取得した撮像画像に基づいてユーザUの姿勢を特定する。この場合において、姿勢特定部32は、姿勢特定の対象となる撮像画像を撮像した時点において各接触検知部材15にユーザUが接触しているか否かを示す情報に応じて、特定される姿勢の範囲を制限する。なお、以下では姿勢特定の対象となるユーザUを含んだ撮像画像を処理対象画像という。図5は、撮像部16により撮像される処理対象画像の一例を示す図である。また、以下では各接触検知部材15による検知結果を示す情報を接触検知情報という。
【0026】
以下、姿勢特定部32が実行する処理の具体例について、説明する。まず姿勢特定部32は、ユーザUによるゲームのプレイに先立って、以下に説明する準備処理を実行する。すなわち、姿勢特定部32は、操作デバイス12を撮像可能な位置にエージェントデバイス13を移動させる。そして、当該位置において撮像部16が撮像した撮像画像に対して、所定のパターン認識処理を行うことにより、撮像画像内における各接触検知部材15の位置を特定する。このような処理を可能にするため、各接触検知部材15は、例えば互いに異なる色で着色されたり、異なる模様が形成されたりすることで、それぞれ識別可能な外観を備えることが望ましい。
【0027】
なお、撮像部16の撮像位置、撮像方向、及びズーム倍率が変化しない場合には、この準備処理は、ゲーム開始前に一度実行されればよい。その後、各接触検知部材15の撮像画像内における位置は変化しないと考えられるからである。一方、エージェントデバイス13がゲーム中に移動したり、撮像部16の撮像方向やズーム倍率が変化したりする場合には、姿勢特定部32は、その都度この準備処理を実行する。
【0028】
さらに姿勢特定部32は、準備処理として、操作デバイス12の撮像画像内における大きさと、予め記憶部22内に記憶された操作デバイス12の実際の大きさ(実寸)の情報と、に基づいて、撮像画像内の物体の大きさと実際の大きさとの比率を算出してもよい。こうすれば、後に処理対象画像内におけるユーザUの体の各部位を特定する際に、画像内においてユーザUの大きさがどの程度になるか推定することができ、処理の効率化を図ることができる。
【0029】
次に姿勢特定部32は、ゲーム実行中に撮像された処理対象画像に基づいて、ユーザUの姿勢を特定する処理を行う。具体的に姿勢特定部32は、処理対象画像内におけるユーザUの体の所定の基準部位(肘や膝などの関節や、頭頂部、手や足の先端部など)の位置を特定する画像解析処理を行う。そして、所定の骨格モデル41を表す骨格モデルデータを用いて、ユーザUの姿勢を特定するマッチング処理を行う。
【0030】
ここで骨格モデル41は、人体の骨格を模した構造体であって、前述した各基準部位に対応する複数の基準点によって構成される。図6は、骨格モデル41と、仮想的な操作デバイス12と、が配置された仮想3次元空間42の一例を示す図である。この骨格モデル41を構成する各基準点の間の位置関係は、人の身体の可動範囲に応じた所定の条件により拘束される。例えば、肘や膝などの関節によって腕や足を曲げることのできる範囲には限界がある。骨格モデルデータは、このような各基準点の位置座標が取りうる値に対する拘束条件を規定するデータを含んでいる。
【0031】
また、図6に示すように、仮想3次元空間42内には視点位置43及び視線方向44が設定される。視点位置43及び視線方向44は、操作デバイス12内の各接触検知部材15が、前述した準備処理によって特定された位置に見えるような位置及び向きに、予め決定される。この視点位置43及び視線方向44は、現実空間における撮像部16の位置及び撮像方向に対応している。
【0032】
マッチング処理は、この仮想3次元空間42に配置された骨格モデル41と、画像解析処理によって得られた処理対象画像内の各基準部位の位置と、をマッチングさせる処理である。具体例として、姿勢特定部32は、前述した骨格モデルデータに含まれる拘束条件の範囲内で、処理対象画像内の各基準部位の位置と、視点位置43から視線方向44を見た場合の骨格モデル41を構成する各基準点の位置と、の差が最も小さくなるように、骨格モデル41を構成する各基準点の位置座標を決定する。このマッチング処理によって決定された各基準点の仮想3次元空間42内の位置座標によって、ユーザUの姿勢が特定される。
【0033】
マッチング処理において、姿勢特定部32は、各基準点の位置座標を決定する際の拘束条件として、骨格モデルデータのほかに、処理対象画像を撮像した時点における各接触検知部材15の接触検知情報を用いる。例えば図5の処理対象画像の例においては、ユーザUは接触検知部材15b及び15cを踏んでいる。そのため、姿勢特定部32は、接触検知部材15b及び15cがユーザUの接触を検知したことを示す接触検知情報を、操作デバイス12から取得している。姿勢特定部32は、この接触検知情報に基づいて、骨格モデル41を構成する各基準点のうち、ユーザUの身体の所定部位(この場合は両足の先端部)に対応する部位が、仮想3次元空間42内において接触検知部材15b及び15cに対応する位置に存在するという条件を設定する。この条件と、予め定められた骨格モデルデータの拘束条件とに基づいて、マッチング処理が実行される。
【0034】
なお、姿勢特定部32は、いずれかの接触検知部材15がユーザUの接触を検知している場合に、例えば処理対象画像の解析結果に基づいて、当該接触検知部材15に接触したユーザUの体の部位がどこかを特定する。また、処理対象画像が撮像された時点の前後の時点について、既に姿勢を特定する処理を実行している場合、当該前後の時点におけるユーザUの姿勢を示す情報に基づいて、各接触検知部材15に接触したユーザUの体の部位を特定してもよい。
【0035】
以上説明したように、姿勢特定部32は、マッチング処理の際の拘束条件として接触検知情報を用いることによって、2次元的な処理対象画像の情報から、比較的精度よくユーザUの各基準部位の位置を仮想3次元空間42内の位置座標として推定することができる。また、処理対象画像内において、例えばユーザUの足の一方など一部の部位が隠れてしまっている場合であっても、隠れてしまっている部位の位置を推定することができる。
【0036】
なお、姿勢特定部32は、ユーザUが各接触検知部材15に接触していることを示す情報だけでなく、ユーザUが各接触検知部材15に接触していないことを示す情報も、ユーザUの姿勢特定に利用してもよい。例えば、いずれの接触検知部材15にもユーザUが接触していないことを示す情報が接触検知情報として得られた場合、その時点においてユーザUはジャンプしていると推定される。この場合、全ての接触検知部材15がユーザUの接触を検知していない状態が続いている時間に応じて、ユーザUの床面からの高さを推定し、拘束条件としてマッチング処理に利用してもよい。
【0037】
また、撮像部16の視野角によっては、ユーザUがジャンプすると、ユーザUの頭部が視野角からはみ出してしまい、処理対象画像内にユーザUの全身が含まれなくなってしまうこともあり得る。このような場合、画像解析処理において存在が想定される体の部位が処理対象画像に全て含まれないため、画像解析処理の精度が悪化するおそれがある。このような場合に、例えば姿勢特定部32は、接触検知情報からユーザUがジャンプ中であることを推定し、これに応じてユーザUの頭部が処理対象画像内に含まれていないと仮定して、処理対象画像の解析を行う。こうすれば、解析の精度を向上できる。
【0038】
なお、姿勢検出装置1は、それぞれ撮像部16を備える複数のエージェントデバイス13を含んでもよい。この場合、複数の撮像部16によって同じユーザUを異なる角度から同時に撮像することにより、コンピュータ11は複数の処理対象画像を取得できる。姿勢特定部32は、各撮像部16の位置及び撮像方向の情報と、複数の処理対象画像のそれぞれに対する画像解析結果と、に基づいて、骨格モデル41を構成する各基準点の仮想3次元空間42内の位置座標を決定する。これにより、姿勢特定部32は、より高い精度でユーザUの姿勢を特定できる。
【0039】
姿勢特定部32がユーザUの姿勢を特定するタイミングは、例えばゲーム処理実行部31によるゲーム処理の進行や、各接触検知部材15の検知結果に応じて決定される。具体例として、姿勢特定部32は、各接触検知部材15による検知結果が変化するタイミングにおけるユーザUの姿勢を特定する。図7は、各接触検知部材15による検知結果の時間変化を示す説明図である。図7において、各接触検知部材15について、実線部はユーザUの接触を検知している状態を、破線部は接触を検知していない状態を、それぞれ表している。図7の例において、各接触検知部材15による検知結果が変化するタイミング(すなわち、各接触検知部材15がユーザUの接触を検知しない状態から検知した状態に遷移したタイミング、あるいはユーザUの接触を検知した状態から検知しない状態に遷移したタイミング)は、時刻t1,t2,t3,t4,t5及びt6で示されている。姿勢特定部32は、これらの時刻における撮像画像を処理対象画像として用いて、ユーザUの姿勢を特定する処理を実行する。こうすれば、ユーザUの姿勢が大きく変化すると推定されるタイミングで、ユーザUの姿勢を特定することができる。
【0040】
また、姿勢特定部32は、所定時間ごとに処理対象画像を取得し、それぞれの時点におけるユーザUの姿勢を特定してもよい。この場合、各接触検知部材15による検知結果が変化しない間は、姿勢特定部32は同じ拘束条件に基づいて処理対象画像の解析を行うことができる。例えば図7の例において、時刻t2及び時刻t3の間の時点においては、ユーザUの両足が接触検知部材15a及び15bを踏んでいるという拘束条件を用いて、ユーザUの姿勢を特定する。このように、姿勢検出装置1は、接触検知部材15による検知結果が変化しない間も所定時間おきにユーザUの姿勢を特定することにより、ユーザUが上半身だけを動かしている場合も、ユーザUの姿勢の変化を特定することができる。
【0041】
また、姿勢特定部32は、ゲーム処理の実行開始後、いずれかの接触検知部材15がユーザUの接触を検知するまでの間は、姿勢特定処理を行わないこととしてもよい。これにより、ユーザUが操作デバイス12の上でゲームのプレイを開始するまで、不要な処理を行うことを避けることができる。また、全ての接触検知部材15がユーザUの接触を検知しない状態が所定時間以上続いた場合にも、姿勢特定処理を行わないこととしてもよい。このような場合、ユーザUがゲームのプレイを中断していることが推定されるからである。
【0042】
動作データ生成部33は、複数の時点のそれぞれについて姿勢特定部32によって特定されたユーザUの姿勢を示す情報に基づいて、ユーザUの動作を示す動作データを生成する。例えば動作データは、前述した各基準点の位置座標の時間変化を示す時系列データであり、これによりユーザUの体の動きが表される。
【0043】
具体例として、動作データ生成部33は、姿勢特定部32によって特定された所定時間ごとのユーザUの姿勢を示す情報を連結することにより、動作データを生成する。また、動作データ生成部33は、複数の時点のそれぞれにおけるユーザUの姿勢を示す情報を用いて補間処理を実行することにより、当該複数の時点の間の時点におけるユーザUの姿勢を示すデータを算出し、算出したデータを動作データに含めてもよい。
【0044】
動作データ生成部33によって生成された動作データは、ゲーム処理実行部31によるゲーム処理の出力として用いられてもよい。例えば、ゲーム処理実行部31は、ユーザUのゲームプレイ中の動きを再現するリプレイデータとしてこの動作データを使用する。この場合、ゲーム処理実行部31は、動作データに基づいて生成されたユーザUの動きを表す画像を、表示装置14に表示させる。これにより、各接触検知部材15に対するユーザUの操作入力だけでは分からないユーザUの上半身の動きなども含めたリプレイデータをユーザに提示することができる。
【0045】
また、本実施形態において、エージェントデバイス13は前述したように人の手や足に対応する可動部を備えている。そこで、姿勢検出装置1は、動作データ生成部33が生成した動作データに基づいてエージェントデバイス13の可動部を制御することにより、エージェントデバイス13にユーザUの動きを再現する動作を実行させてもよい。なお、この場合には、姿勢特定部32が使用する骨格モデル41を構成する複数の基準点は、エージェントデバイス13の可動部に応じて決定されたものであってもよい。また、この場合の各基準点は、エージェントデバイス13の可動部の可動範囲に応じた拘束条件により拘束されることとする。こうすれば、姿勢検出装置1は、エージェントデバイス13の可動部によりユーザUの動きを再現できる範囲で、ユーザUの実際の動きに比較的近い動作データを生成することができる。
【0046】
以上説明した本実施の形態によれば、姿勢検出装置1は、処理対象画像を撮像した時点における各接触検知部材15の検知結果を示す情報を利用することにより、処理対象画像から精度よくユーザUの姿勢を特定することができる。
【0047】
なお、本発明の実施の形態は、以上説明した例に限定されるものではない。例えば、以上の説明においてコンピュータ11の制御部21が実行することとした処理のうち、一部又は全部の処理は、エージェントデバイス13内に搭載されたコンピュータが実行することとしてもよい。
【0048】
また、以上の説明においては、操作デバイス12は床上に配置され、各接触検知部材15はユーザUの足の接触を検知するものとしたが、これに限らず例えば壁面などに配置されて、ユーザUの手など別の部位の接触を検知してもよい。また、以上の説明においては操作デバイス12に複数の接触検知部材15が取り付けられ、各接触検知部材15は単にユーザUが接触しているか否かを示すデータを出力するものとしたが、接触検知部材15はある程度の大きさの範囲を占める部材であって、当該範囲のうちユーザUの体の部位が接触した位置を検知することとしてもよい。こうすれば、操作デバイス12はユーザUの体の部位が接触した位置を精度よく検出でき、特定されるユーザUの姿勢の精度も向上できる。
【0049】
また、上述した例では1人のユーザの姿勢を検出することとしたが、姿勢検出装置1は、同時に複数人のユーザの姿勢を検出してもよい。この場合において、姿勢検出装置1は、単に複数人のユーザの動作データを個別に生成するだけでなく、複数人のユーザの動きを組み合わせた動作データを生成してもよい。例えば姿勢検出装置1は、あるユーザの上半身の動きと、別のユーザの下半身の動きとを組み合わせて動作データを生成する。あるいは、あるユーザの右半身の動きと、別のユーザの左半身の動きとを組み合わせて動作データを生成してもよい。これにより、複数ユーザが協調して一つの動作を実現したり、意外性のある動きを生成したりすることができ、ゲームの娯楽性を高めることができる。
【0050】
また、姿勢検出装置1による姿勢検出の対象となるユーザは、人に限らず、例えば犬や猫などの動物であってもよい。この場合、姿勢検出装置1は動物の身体構造に応じた骨格モデルを予め記憶部22に記憶しておくこととする。このような骨格モデルを用いることにより、上述した処理と同様の処理によって、犬や猫の動きを再現する動作データを生成することができる。この場合において、姿勢検出装置1は動物の形状を模したエージェントデバイス13を備え、このようなエージェントデバイス13に動物の動きを再現する動作を実行させてもよい。また、姿勢検出装置1は、前述した複数人の動きの組み合わせに代えて、人と動物との動きを組み合わせて一つの動作データを生成してもよい。
【0051】
なお、姿勢検出装置1は、骨格モデルを用いてユーザの動きを特定することにより、単にプレイ時間や操作デバイス12に対する操作入力を用いる場合と比較して、ゲームプレイ中におけるユーザの運動量を精度よく見積もることができる。そこで、このような骨格モデルの動きを用いてユーザの運動による消費エネルギーを算出し、ユーザに提示してもよい。また、姿勢検出装置1は、上半身の動きも含めた動作データを生成することで、単に操作デバイス12に対する操作入力を用いる場合と比較して、正確にユーザの動きを把握することができる。そこで、このようなデータを利用して、ユーザがゲームをプレイ中に失敗した箇所などについて、重心移動や理想的な姿勢などをアドバイスする情報を提示してもよい。さらに、姿勢検出装置1はゲームプレイの模範動作を表す動作データを予め記憶しておき、表示装置14に表示させたり、エージェントデバイス13に動作させたりすることで、この模範動作をユーザに提示してもよい。
【図面の簡単な説明】
【0052】
【図1】本発明の実施の形態に係る姿勢検出装置の全体概要を示す概要図である。
【図2】本発明の実施の形態に係る姿勢検出装置の構成例を示すブロック図である。
【図3】操作デバイスの一例を示す図である。
【図4】本発明の実施の形態に係る姿勢検出装置の機能例を示す機能ブロック図である。
【図5】本発明の実施の形態に係る姿勢検出装置により撮像される撮像画像の一例を示す図である。
【図6】仮想3次元空間及び骨格モデルの一例について、概念的に示す説明図である。
【図7】接触検知部材による検知結果の時間変化の一例を示す説明図である。
【符号の説明】
【0053】
1 姿勢検出装置、11 コンピュータ、12 操作デバイス、13 エージェントデバイス、14 表示装置、15 接触検知部材、16 撮像部、21 制御部、22 記憶部、23 表示制御部、24 インタフェース部、31 ゲーム処理実行部、32 姿勢特定部、33 動作データ生成部。

【特許請求の範囲】
【請求項1】
ユーザを含む画像を撮像する撮像手段と、
前記ユーザの体のいずれかの部位が接触したことを検知する接触検知部材と、
前記撮像した画像に基づいて前記ユーザの姿勢を特定する手段であって、当該画像を撮像した時点において前記接触検知部材に前記ユーザが接触しているか否かを示す情報に応じて、当該特定する姿勢の範囲を制限する姿勢特定手段と、
を含むことを特徴とする姿勢検出装置。
【請求項2】
請求項1に記載の姿勢検出装置において、
前記接触検知部材は複数あって、それぞれ所定の位置関係で配置され、
前記姿勢特定手段は、前記画像を撮像した時点において前記複数の接触検知部材のそれぞれに前記ユーザが接触しているか否かを示す情報に応じて、前記特定する姿勢の範囲を制限する
ことを特徴とする姿勢検出装置。
【請求項3】
請求項2に記載の姿勢検出装置において、
前記複数の接触検知部材は、床上に配置されたシート部材に取り付けられ、それぞれ前記ユーザによって踏まれたことを検知する
ことを特徴とする姿勢検出装置。
【請求項4】
請求項1から3までのいずれか一項に記載の姿勢検出装置において、
複数の時点のそれぞれについて前記姿勢特定手段によって特定された前記ユーザの姿勢を示す情報に基づいて、前記ユーザの動作を示す動作データを生成する動作データ生成手段
をさらに含むことを特徴とする姿勢検出装置。
【請求項5】
請求項4に記載の姿勢検出装置において、
前記接触検知部材による検知結果を前記ユーザの操作入力として、所定のゲーム処理を実行するゲーム処理実行手段をさらに含み、
前記動作データ生成手段によって生成された前記動作データが、前記ゲーム処理の出力に用いられることを特徴とする姿勢検出装置。
【請求項6】
撮像手段により撮像されたユーザを含む画像を取得するステップと、
前記ユーザの体のいずれかの部位が接触したことを検知する接触検知部材による検知結果を取得するステップと、
前記取得した画像に基づいて前記ユーザの姿勢を特定するステップであって、当該画像を撮像した時点において前記接触検知部材に前記ユーザが接触しているか否かを示す情報に応じて、当該特定する姿勢の範囲を制限するステップと、
を含むことを特徴とする姿勢検出方法。
【請求項7】
撮像手段により撮像されたユーザを含む画像を取得する手段、
前記ユーザの体のいずれかの部位が接触したことを検知する接触検知部材による検知結果を取得する手段、及び
前記取得した画像に基づいて前記ユーザの姿勢を特定する手段であって、当該画像を撮像した時点において前記接触検知部材に前記ユーザが接触しているか否かを示す情報に応じて、当該特定する姿勢の範囲を制限する姿勢特定手段、
としてコンピュータを機能させるためのプログラム。
【請求項8】
請求項7記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate


【公開番号】特開2008−256532(P2008−256532A)
【公開日】平成20年10月23日(2008.10.23)
【国際特許分類】
【出願番号】特願2007−99091(P2007−99091)
【出願日】平成19年4月5日(2007.4.5)
【出願人】(395015319)株式会社ソニー・コンピュータエンタテインメント (871)
【Fターム(参考)】