説明

画像処理装置、画像処理方法

【課題】 音源としての現実物体が発する現実音を、仮想物体の配置位置を鑑みて適宜変更して提示する為の技術を提供すること。
【解決手段】 現実物体の位置情報、仮想物体の位置情報、視点の位置情報、を用いて、現実物体、仮想物体、視点のそれぞれの位置関係を求め、求めた位置関係が予め定められた条件を満たすか否かを判断する(S402)。満たすと判断した場合には、音データが示す音を調整すべく、音データを調整し(S404)、調整後の音データに基づいた音信号を生成して出力する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、現実空間と仮想空間とを重畳させてユーザに提示するための技術に関するものである。
【背景技術】
【0002】
従来より、複合現実感(MR : Mixed Reality)提示装置が存在する。複合現実感提示装置の例としては、映像表示部、現実映像撮影部、仮想映像生成部、位置姿勢検出部、現実映像と仮想映像とを合成する映像合成部、を備えているものがある。
【0003】
現実映像撮影部は、例えば、頭部装着型ディスプレイ(HMD: Head Mounted Display)に取り付けられた小型のカメラであって、HMD前面の風景を現実映像として撮影する。そして、撮影した現実映像はデータとして、計算機のメモリ内に記録される。
【0004】
位置姿勢検出部は、例えば、位置姿勢センサであり、現実映像撮影部の位置姿勢を検出する。なお、現実映像撮影部の位置姿勢は、磁気を用いた方法や、画像処理を用いた方法によって求めることができる。
【0005】
仮想映像生成部は、三次元モデリングされたCGを、現実空間と同じスケールの仮想空間中に配置し、上記現実映像撮影部の位置姿勢と同じ位置姿勢からその仮想空間のシーンをレンダリングすることで、仮想映像を生成する。
【0006】
映像合成部は、現実映像撮影部によって得られた現実映像上に、仮想映像生成部によって得られた仮想映像を重畳することで、複合現実感映像を生成する。映像合成部の動作例としては、現実映像撮影部によってキャプチャされた現実映像を計算機のビデオメモリに書き込み、その上に仮想映像生成部によって仮想映像を書き込ませる制御動作があげられる。
【0007】
HMDが光学シースルー方式のものである場合、現実映像撮影部は不要である。そして、位置姿勢検出部は、HMDの視点位置姿勢を計測する。また、映像合成部は仮想映像をHMDに送出する。
【0008】
以上のようにして得られる複合現実感映像を、HMD等の映像表示部に表示することで、観察者は、現実空間中に仮想物体が出現したかのような感覚を得ることができる。
【0009】
ここで、仮想物体を「音源」とする場合には、従来技術である3次元音響再生技術を用いて、仮想物体の位置に応じた3次元音響再生を行えば良い(特許文献1)。
【特許文献1】特開平05−336599号公報
【発明の開示】
【発明が解決しようとする課題】
【0010】
従来、仮想空間のシーン中で発せられる音響を3次元音響で提示したり、仮想音を現実空間中で響かせたように現実の音響環境を加味して加工して提示することが行われてきた。しかし、現実音源からの現実音を仮想物体の配置を変更することで変化させ、変化させた現実音を観察者に提示することはできなかった。例えば、遮蔽物としての仮想物体を、音源としての現実物体にかぶせることで、係る音源からの現実音を遮蔽するような体験をさせることはできなかった。
【0011】
本発明は以上の問題に鑑みて成されたものであり、音源としての現実物体が発する現実音を、仮想物体の配置位置を鑑みて適宜変更して提示する為の技術を提供することを目的とする。
【課題を解決するための手段】
【0012】
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
【0013】
即ち、音源としての現実物体が配されている現実空間に重畳する、仮想物体で構成された仮想空間の画像を生成する手段と、
前記仮想空間の画像を出力する手段と、
前記現実物体が発する音を、音データとして取得する取得手段と、
前記取得手段が取得した音データに基づいて音信号を生成し、生成した当該音信号を音出力装置に出力する出力手段と
を有する画像処理装置であって、
前記現実物体の位置情報を取得する手段と、
前記仮想物体の位置情報を取得する手段と、
ユーザの視点の位置情報を取得する手段と、
前記現実物体の位置情報、前記仮想物体の位置情報、前記視点の位置情報、を用いて、前記現実物体、前記仮想物体、前記視点のそれぞれの位置関係を求め、求めた当該位置関係が予め定められた条件を満たすか否かを判断する判断手段と、
前記判断手段が満たすと判断した場合には前記出力手段を制御し、前記取得手段が取得した音データが示す音を調整すべく、当該音データを調整させ、調整後の音データに基づいた音信号を生成して出力させる制御手段と
を備えることを特徴とする。
【0014】
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
【0015】
即ち、音源としての現実物体が配されている現実空間に重畳する、仮想物体で構成された仮想空間の画像を生成する手段と、
前記仮想空間の画像を出力する手段と、
前記現実物体が発する音を、音データとして取得する取得手段と、
前記取得手段が取得した音データに基づいて音信号を生成し、生成した当該音信号を音出力装置に出力する出力手段と
を有する画像処理装置が行う画像処理方法であって、
前記現実物体の位置情報を取得する工程と、
前記仮想物体の位置情報を取得する工程と、
ユーザの視点の位置情報を取得する工程と、
前記現実物体の位置情報、前記仮想物体の位置情報、前記視点の位置情報、を用いて、前記現実物体、前記仮想物体、前記視点のそれぞれの位置関係を求め、求めた当該位置関係が予め定められた条件を満たすか否かを判断する判断工程と、
前記判断工程で満たすと判断した場合には前記出力手段を制御し、前記取得手段が取得した音データが示す音を調整すべく、当該音データを調整させ、調整後の音データに基づいた音信号を生成して出力させる制御工程と
を備えることを特徴とする。
【発明の効果】
【0016】
本発明の構成によれば、音源としての現実物体が発する現実音を、仮想物体の配置位置を鑑みて適宜変更して提示することができる。
【発明を実施するための最良の形態】
【0017】
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つに過ぎない。
【0018】
[第1の実施形態]
図1は、本実施形態に係るシステムのハードウェア構成例を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、コンピュータ100、マイク110、ヘッドフォン109、センサコントローラ105、位置姿勢センサ106a〜106c、HMD104、ビデオカメラ103、により構成されている。
【0019】
先ず、マイク110について説明する。マイク110は周知の如く、周囲の音を収集するためのもので、収集した音を示す信号は音データに変換されてコンピュータ100に入力される。マイク110は、現実空間中の所定の位置に配置しても良いし、現実空間中に配置する「音を発生する現実物体(音源としての現実物体)」の上(現実物体上)に配置しても良い。
【0020】
次に、ヘッドフォン109について説明する。
【0021】
ヘッドフォン109は周知の如く、ユーザの耳を覆い、係る耳に音を供給するための音出力装置である。本実施形態では、ヘッドフォン109は、現実空間中における音ではなく、コンピュータ100から供給された音データに従った音のみを供給することができるのであれば、如何なるものを用いても良い。例えば、周知のノイズキャンセル機能を有するヘッドフォンであっても良い。ノイズキャンセル機能とは周知の通り、ヘッドフォンの装着者に対して現実空間中の音が聞こえないようにする機能であり、単なる密閉によって得られる音の遮蔽よりもいっそうの遮蔽を実現することができる。本実施形態では、通常はマイク110からコンピュータ100に入力された音がそのままヘッドフォン109に出力される。しかし、後述するように、ユーザの視点と、音源としての現実物体と、仮想物体と、の位置関係が予め定められた条件を満たした場合には、マイク110が収集した音をコンピュータ100が調整し、調整後の音をヘッドフォン109に出力する。
【0022】
次に、HMD104について説明する。
【0023】
HMD104には、ビデオカメラ103、位置姿勢センサ106aが取り付けてある。ビデオカメラ103は、現実空間の動画像を撮像するものであり、撮像した各フレームの画像(現実空間画像)は順次、コンピュータ100に送出される。なお、HMD104がステレオ視を可能にする構成を有している場合には、ビデオカメラ103は左右に1台ずつHMD104に設ければよい。
【0024】
位置姿勢センサ106aは、自身の位置姿勢を計測するためのもので、計測した結果は信号としてセンサコントローラ105に送出される。センサコントローラ105は、位置姿勢センサ106aから受けた信号に基づいて、位置姿勢センサ106aの位置姿勢情報を求め、求めた位置姿勢情報はコンピュータ100に送出される。
【0025】
なお、センサコントローラ105には更に、位置姿勢センサ106b、106cも接続されている。位置姿勢センサ106bは、音を発生する現実物体(音源としての現実物体)に取り付けられるもので、位置姿勢センサ106cは、現実空間中の所定の位置に配置される、若しくはユーザが手に把持するものである。位置姿勢センサ106b、106cは何れも位置姿勢センサ106aと同様に、自身の位置姿勢を計測するためのものである。位置姿勢センサ106b、106cはそれぞれ、計測した結果を信号としてセンサコントローラ105に送出する。センサコントローラ105は、位置姿勢センサ106b、106cから受けた信号に基づいてそれぞれ、位置姿勢センサ106b、106cの位置姿勢情報を求め、求めた位置姿勢情報はコンピュータ100に送出される。
【0026】
なお、位置姿勢センサ106a〜106c、センサコントローラ105で構成されるセンサシステムには磁気センサや光学式センサなど、様々なセンサシステムを用いることができる。なお、センサを用いて、対象物の位置姿勢情報を取得するための技術については周知であるので、これについての説明は省略する。
【0027】
また、HMD104には周知の通り表示画面が設けられており、係る表示画面は、HMD104を頭部に装着したユーザの眼前に位置するように設けられている。
【0028】
次に、コンピュータ100について説明する。コンピュータ100は、CPU101、メモリ107,108を有し、それぞれはバス102に接続されている。なお、図1に示したコンピュータ100の構成は、以下の説明で用いる部分だけを示したもので、係る構成のみでコンピュータ100を構成するわけではない。
【0029】
CPU101は、コンピュータ100が行うものとして後述する各処理を、メモリ107に格納されているプログラム111〜114、メモリ108に格納されているデータ122〜129、を用いて実行する。
【0030】
メモリ107には、プログラム111〜114が格納されており、それぞれのプログラム111〜114は、CPU101による処理対象となる。
【0031】
メモリ108には、データ122〜129が格納されており、それぞれのデータ122〜129は、CPU101による処理対象となる。
【0032】
なお、それぞれのメモリ107,108に格納する情報はこれに限定するものではなく、以下の説明において既知の情報として説明するものや、当業者であれば説明せずとも当然用いるものであろう情報についても格納されているものとする。また、メモリ107、108に格納する情報の割り振りについては図1に示した割り振りに限定するものではない。また、メモリ107、108のそれぞれを別個のメモリとするのではなく、1つのメモリとしても良い。
【0033】
プログラム111〜114、データ122〜129のそれぞれについては後述する。
【0034】
また、図1では、マイク110、ヘッドフォン109、センサコントローラ105、HMD104、ビデオカメラ103は何れも、バス102に直接接続されている。しかし実際には、それぞれの機器は不図示のI/F(インターフェース)を介してバス102に接続されているものとする。
【0035】
次に、コンピュータ100が行う処理について、同処理のフローチャートを示す図2〜4を用いて説明する。なお以下の説明で特に触れない限り、各フローチャートに従った処理を実行する主体はCPU101である。
【0036】
図2は、コンピュータ100が行うメインの処理のフローチャートである。
【0037】
図2において、先ずステップS201では、CPU101は、ビデオカメラ103から送出された現実空間画像(現実映像)を取得し、これを現実空間画像データ122としてメモリ108に格納する。
【0038】
次にステップS202では、CPU101は、センサコントローラ105から送出された、位置姿勢センサ106aの位置姿勢情報を取得する。そして、取得した位置姿勢情報に、ビデオカメラ103と位置姿勢センサ106aとの位置姿勢関係を示す関係情報を加えることで、ビデオカメラ103(視点)の位置姿勢情報を求める。そして求めた視点の位置姿勢情報を、カメラ位置姿勢データ123としてメモリ108に格納する。
【0039】
次にステップS203では、CPU101は、メモリ107に格納されている現実音源位置取得プログラム111を実行する。これにより、CPU101は、センサコントローラ105から送出された位置姿勢センサ106bの位置姿勢情報、即ち、音源としての現実物体の位置姿勢情報を取得する。そして、取得した音源としての現実物体の位置姿勢情報を、現実音源位置姿勢データ124としてメモリ108に格納する。
【0040】
次にステップS204では、CPU101は、メモリ108に格納されてる仮想シーンデータ126を読み出し、読み出した仮想シーンデータ126に基づいて、仮想空間を構築する。仮想シーンデータ126には、仮想空間を構成する各仮想物体の配置位置姿勢(位置情報、姿勢情報)や、仮想空間中に配置する光源の種類、光の照射方向、光の色などのデータが含まれている。更に、仮想シーンデータ126には、仮想物体の形状情報も含まれている。形状情報とは、例えば、仮想物体がポリゴンで構成されている場合、ポリゴンの法線ベクトルデータ、ポリゴンの属性やその色、ポリゴンを構成する各頂点の座標値データ、テクスチャマップデータ等を含む情報である。従って、仮想シーンデータ126に基づいて仮想空間を構築することで、仮想空間中に各仮想物体を配置することができる。なお、位置姿勢センサ106cに対応付けられている仮想物体については、位置姿勢センサ106cの位置姿勢で仮想空間中に配置されるものとする。この場合、センサコントローラ105から送出された位置姿勢センサ106cの位置姿勢情報が示す位置姿勢に、位置姿勢センサ106cに対応付けられている仮想物体を配置する。
【0041】
次にステップS205では、CPU101は、メモリ107に格納されている現実音取得プログラム113を実行する。これにより、CPU101は、マイク110から送出された音データを取得する。
【0042】
そしてCPU101は、現実音加工プログラム112を実行する。これにより、CPU101は、現実物体の位置情報、仮想物体の位置情報、視点の位置情報、を用いて、現実物体、仮想物体、視点のそれぞれの位置関係を求める。そしてCPU101は、求めた位置関係が予め定められた条件を満たすか否かを判断し、満たすと判断した場合には、ステップS205で取得した音データを調整する。即ち、係る音データが示す音の音量や音質を、これらの位置情報に基づいて操作する。そして調整後の音データは、現実音再生設定データ127としてメモリ108に格納される。そして、CPU101は、音声再生プログラム114を実行する。これにより、CPU101は、メモリ108に格納した現実音再生設定データ127に基づいた音信号をヘッドフォン109に送出する。ステップS205における処理の詳細については後述する。
【0043】
次に、ステップS206では、CPU101は、ステップS202でメモリ108に格納したカメラ位置姿勢データ123が示す位置姿勢、を有する視点を、ステップS204で構築した仮想空間中に配置する。そして、係る視点から見える仮想空間の画像(仮想空間画像)を生成する。そして生成した仮想空間画像を、CG画像データ128としてメモリ108に格納する。
【0044】
次に、ステップS207では、CPU101は、ステップS201でメモリ108に格納した現実空間画像データ122が示す現実空間画像の上に、ステップS206でメモリ108に格納したCG画像データ128が示す仮想空間画像を重畳させる。なお、現実空間画像上に仮想空間画像を重畳させるための技術については様々なものがあり、本実施形態では何れを用いても良い。そしてCPU101は、生成した合成画像(現実空間画像上に仮想空間画像を重畳させた重畳画像)を、複合現実画像データ129としてメモリ108に格納する。
【0045】
次に、ステップS208では、CPU101は、ステップS207でメモリ108に格納した複合現実画像データ129を、映像信号としてHMD104に対して送出する。これにより、HMD104を頭部に装着したユーザの眼前には、係る合成画像が表示されることになる。
【0046】
次に、CPU101が、不図示の操作部から本処理を終了する指示が入力されたことを検知した、或いは本処理を終了する条件が満たされたことを検知した場合、ステップS209を介して本処理を終了させる。一方、CPU101が何れも検知していない場合には、ステップS209を介してステップS201に処理を戻し、次のフレームの合成画像をユーザに提示すべく、ステップS201以降の処理を行う。
【0047】
次に、上記ステップS205における処理について説明する。
【0048】
図3は、ステップS205における処理の詳細を示すフローチャートである。
【0049】
先ずステップS301では、CPU101は、メモリ107に格納されている現実音取得プログラム113を実行する。これにより、CPU101は、マイク110から送出された音データを取得する。上述のようにマイク110は「音を発生する現実物体(音源としての現実物体)」の上(現実物体上)に配置しても良い。しかしこの場合、マイク110の位置姿勢が位置姿勢センサ106bが計測する位置姿勢とほぼ同じになるように、位置姿勢センサ106bの近傍位置に取り付けることが好ましい。更に、マイク110は、HMD104を頭部に装着するユーザの耳など、ユーザに取り付けても良い。また、マイク110からコンピュータ100内に入力された音データのフォーマットについてはもちろん、コンピュータ100が扱える形式のものであるとする。
【0050】
次にステップS302ではCPU101は、現実音加工プログラム112を実行する。これによりCPU101は、音源としての現実物体の位置情報、仮想物体の位置情報、視点の位置情報、を用いて、現実物体、仮想物体、視点のそれぞれの位置関係を求める。そしてCPU101は、求めた位置関係が予め定められた条件を満たすか否かを判断し、満たすと判断した場合には、ステップS301で取得した音データを調整する。即ち、係る音データが示す音の音量や音質を、これらの位置情報に基づいて操作する。そして調整後の音データは、現実音再生設定データ127としてメモリ108に格納される。ステップS302における処理の詳細については後述する。
【0051】
次にステップS303では、CPU101は、音声再生プログラム114を実行する。これにより、CPU101は、ステップS302でメモリ108に格納した現実音再生設定データ127に基づいた音信号をヘッドフォン109に送出する。なお、仮想物体が音を発するなど、他の音も発生させる場合には、係る音のデータに基づいた音信号を作成し、作成した音信号と現実音再生設定データ127に基づいた音信号とを合成することで得られる合成信号をヘッドフォン109に送出する。
【0052】
そして図3に示したフローチャートに従った処理は終了させ、図2に示したステップS206にリターンする。
【0053】
次に、上記ステップS302における処理の詳細について説明する。
【0054】
図4は、ステップS302における処理の詳細を示すフローチャートである。図4に示したフローチャートが示す処理は、音源としての現実物体、仮想物体、視点のそれぞれの位置関係が予め定められた条件を満たすか否かを判断し、満たすと判断した場合には音データを調整する、という一連の処理の一例である。即ち図4に示したフローチャートの処理では、音源としての現実物体の位置と視点の位置とを結ぶ線分と、仮想物体と、の交点が1以上存在するか否かを判断する。そして係る判断の結果、存在する場合には、係る現実物体から発せられる音が仮想物体によって遮蔽されているものと判断する。そしてこの場合、マイク110から取得した音データが示す音のボリューム(音量)を下げるように、この音データを調整する。
【0055】
図5は、図4のフローチャートに従った処理を実行する場合に想定している現実空間の様子を示す図である。図5では音源としての現実物体502上には位置姿勢センサ106bが配されている。従って、位置姿勢センサ106bが計測する位置姿勢は、位置姿勢センサ106b自身の位置姿勢であると共に、現実物体502の位置姿勢でもある。また、マイク110は、現実空間中の所定の位置(現実物体502から発せられる音を収集可能な位置)に配されている。もちろん、マイク110は、現実物体502上に配しても良い。
【0056】
また、ユーザ501は手に位置姿勢センサ106cを把持している。
【0057】
また、503は板状の仮想物体であり、位置姿勢センサ106cが計測する位置姿勢で配置される(図5では仮想物体503と位置姿勢センサ106cの両方を図示すべく、位置姿勢センサ106cと仮想物体503とはずらして記している)。即ち、ユーザが位置姿勢センサ106cを把持した手を動かすと、位置姿勢センサ106cの位置姿勢も変わるので、これに伴い、仮想物体503の位置姿勢も変化することになり、その結果、ユーザ501は、仮想物体503の位置姿勢を操作することができる。
【0058】
ここで、図5では、現実物体502の位置(即ち、位置姿勢センサ106bが計測した位置)と視点の位置577とを結ぶ線分598は、仮想物体503と、交点599で交差している。この場合、コンピュータ100は、現実物体502から発せられる音が、仮想物体503によって遮蔽されているものと判断する。そしてコンピュータ100は、マイク110から取得した音データが示す音のボリューム(音量)を下げるように、この音データを調整する。そして調整後の音データに基づいた音信号をヘッドフォン109に出力する。これにより、ヘッドフォン109を装着したユーザ501は、「現実物体502から発せられた音が仮想物体503によって遮蔽されたので聞こえる音のボリュームが小さくなった」、と感じることができる。
【0059】
なお、ユーザ501が更に手を動かし、上記交点599が存在しなくなった場合には、音データに対する上記調整処理は行わず、係る音データに基づいた音信号をヘッドフォン109に出力する。これにより、ヘッドフォン109を装着したユーザ501は、現実物体502から発せられた音が仮想物体503に遮蔽されることなく、聞こえる音のボリュームが元に戻った、と感じることができる。
【0060】
図4において、ステップS401では、上記ステップS203で取得した音源としての現実物体の位置姿勢情報から、位置情報を取得する。更に、ステップS202で取得した視点の位置姿勢情報から、位置情報を取得する。そして、音源としての現実物体の位置情報が示す位置と、視点の位置情報が示す位置と、を結ぶ線分を求める。
【0061】
次に、ステップS402では、ステップS401で求めた線分と、上記ステップS204で配置した1以上の仮想物体のそれぞれとの交差判定を行い、線分との交点の有無を判定する。本実施形態では説明を簡単にするために、仮想空間中に配する仮想物体の数は1つとする。
【0062】
ステップS402における処理の結果、仮想空間中に配した仮想物体が、ステップS401で求めた線分と交差する場合には、処理をステップS404に進める。一方、交差しない場合には、処理をステップS403に進める。
【0063】
ステップS403では、マイク110から取得した音データに対しては何もせず、そのまま音信号に変換してヘッドフォン109に送出しても良い。しかし、図4では、マイク110から取得した音データが示す音のボリュームを既定値のボリュームとすべく、この音データを調整する。音データを調整してボリュームを増減させるための技術については周知であるので、これについての説明は省略する。そして、図3のステップS303にリターンする。これにより、調整後の音データに基づいて音信号を生成し、係る音信号をヘッドフォン109に出力することができる。
【0064】
一方、ステップS404では、マイク110から取得した音データが示す音のボリューム(音量)を、予め定められた量だけ下げるように、この音データを調整する。そして、図3のステップS303にリターンする。これにより、調整後の音データに基づいて音信号を生成し、係る音信号をヘッドフォン109に出力することができる。
【0065】
以上説明した処理により、音源としての現実物体から発せられた音が、仮想物体によって遮蔽されたと判断した場合には、係る音のボリュームを下げてから、ユーザに提供する。これにより、ユーザは、仮想物体が音を遮蔽したように感じることができる。
【0066】
なお、本実施形態では、音源としての現実物体の位置と視点の位置とを通る線分と、仮想物体との交差判定を行ったが、代わりに、係る線分を軸とする所定のサイズの領域内に仮想物体の一部若しくは全部が含まれているのか否かを判断するようにしても良い。そして、含まれていると判断した場合には、上記ステップS404における処理を行う。一方、含まれていないと判断した場合には、上記ステップS403における処理を行う。
【0067】
また、本実施形態では、仮想物体表面のどこに交点があるのかについては考慮せず、単に交点があるか否かのみを判定していた。しかし、仮想物体上における交点の位置に応じて、ボリュームを下げる量を異ならせても良い。この場合、例えば、仮想物体の表面を複数の分割領域に分割し、それぞれの分割領域毎にボリュームを下げる量を設定しておく。そして、交点がどの分割領域内に存在するのかを特定することで、特定した分割領域に対応する量だけボリュームを下げる。また、仮想物体の領域の中に音源としての現実物体が含まれるかどうかで、ボリュームを下げる量を変更しても良い。
【0068】
また、仮想物体の材質を示す材質情報を参照し、参照した材質情報に基づいて、ボリュームを下げる量を異ならせてもよい。例えば、交点における材質情報が示す材質の硬度が高いことを示す数値である場合には、ボリュームを下げる量を大きくし、逆に、交点における材質情報が示す材質の硬度が低いことを示す数値である場合には、ボリュームを下げる量を小さくする。
【0069】
また、本実施形態では、音データの調整の一例として、音データが示す音のボリュームを操作していた。しかし、本実施形態は、音の他の要素について変更するようにしても良い。例えば、マイク110から取得した音データが示す音の周波数毎にフィルタをかける(イコライジングする)ようにしても良い。例えば、低周波成分のみを減じたり、逆に高周波成分のみを減じたりすることが可能である。
【0070】
また、仮想物体の材質を示す材質情報を参照し、参照した材質情報に基づいて、音データが示す音の音質を変更するようにこの音データを調整するようにしても良い。
【0071】
また、本実施形態では、仮想物体が、音源としての現実物体から発せられる音を遮蔽する場合を例に取り説明した。しかし拡声器を模した仮想物体を、音源としての現実物体と視点との間に位置させる場合(拡声器において口を付ける部分に相当する、仮想物体の部分が音源としての現実物体の方を向いているとする)、音データが示す音のボリュームを上げるようにしても良い。
【0072】
また、音源としての現実物体の位置は不明であるものの、視点から音源としての現実物体への方向が分かっている場合には、係る方向に直線を延長することで、係る直線と係る仮想物体との交点判定を行えばよい。仮想物体が、音源としての現実物体の奥側にある場合には正確な解とはならない。しかし、特定の条件下(仮想物体が必ずユーザのそばに位置しており、且つ仮想物体とユーザとの間に音源としての現実物体が位置していないことが仮定できるような場合)であれば、ユーザからの音源の方位のみを知る手法を用いることができる。
【0073】
なお、本実施形態では、HMD104にはビデオシースルー方式のものを用いたが、光学シースルー方式のものを用いても良い。その場合、HMD104への音信号の送信については変わらないが、HMD104への画像の送信に関しては上記説明とは若干異なる。即ち、HMD104が光学シースルー方式のものである場合には、HMD104には仮想空間画像のみを送信することになる。
【0074】
また、ビデオカメラ103の位置姿勢情報を取得するためにはセンサシステムを用いた位置姿勢取得方法以外の方法を用いても良い。例えば、現実空間中に指標を配し、係る現実空間をビデオカメラ103が撮像することで得られる画像を用いて、係るビデオカメラ103の位置姿勢情報を求める方法を用いても良い。係る方法は周知の技術である。
【0075】
また、音源としての現実物体の位置情報を取得する場合に、現実物体に位置姿勢センサを取り付ける代わりに、マイクロフォンアレイを用いて、現実物体の位置情報を取得するようにしても良い。
【0076】
[第2の実施形態]
第1の実施形態では、音源としての現実物体を1つとして説明しているが、音源としての現実物体が複数個、現実空間中に配されている場合であっても、第1の実施形態を個々の現実物体に適用すれば良い。
【0077】
即ち、それぞれの音源としての現実物体に対してマイク110を設け、更に、それぞれの現実物体毎に位置姿勢センサ106cを設ける。そしてコンピュータ100は、それぞれの現実物体毎に、第1の実施形態で説明したような処理を行い、最後に、それぞれの現実物体から収集した音を合成してヘッドフォン109に出力する。
【0078】
本実施形態の場合、音取得と音源の位置取得が同時に行われる、すなわち、複数の音源の位置推定と音分離が同時に行えるような、マイクロフォンアレイのようなシステムを用いても良い。
【0079】
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
【0080】
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0081】
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0082】
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【図面の簡単な説明】
【0083】
【図1】本発明の第1の実施形態に係るシステムのハードウェア構成例を示すブロック図である。
【図2】コンピュータ100が行うメインの処理のフローチャートである。
【図3】ステップS205における処理の詳細を示すフローチャートである。
【図4】ステップS302における処理の詳細を示すフローチャートである。
【図5】図4のフローチャートに従った処理を実行する場合に想定している現実空間の様子を示す図である。

【特許請求の範囲】
【請求項1】
音源としての現実物体が配されている現実空間に重畳する、仮想物体で構成された仮想空間の画像を生成する手段と、
前記仮想空間の画像を出力する手段と、
前記現実物体が発する音を、音データとして取得する取得手段と、
前記取得手段が取得した音データに基づいて音信号を生成し、生成した当該音信号を音出力装置に出力する出力手段と
を有する画像処理装置であって、
前記現実物体の位置情報を取得する手段と、
前記仮想物体の位置情報を取得する手段と、
ユーザの視点の位置情報を取得する手段と、
前記現実物体の位置情報、前記仮想物体の位置情報、前記視点の位置情報、を用いて、前記現実物体、前記仮想物体、前記視点のそれぞれの位置関係を求め、求めた当該位置関係が予め定められた条件を満たすか否かを判断する判断手段と、
前記判断手段が満たすと判断した場合には前記出力手段を制御し、前記取得手段が取得した音データが示す音を調整すべく、当該音データを調整させ、調整後の音データに基づいた音信号を生成して出力させる制御手段と
を備えることを特徴とする画像処理装置。
【請求項2】
前記判断手段は、
前記現実物体の位置情報が示す位置と、前記視点の位置情報が示す位置と、を結ぶ線分を求める手段と、
前記線分を軸とする領域内に前記仮想物体の一部若しくは全部が含まれているか否かを判断する手段と
を備えることを特徴とする請求項1に記載の画像処理装置。
【請求項3】
前記線分を軸とする領域内に前記仮想物体の一部若しくは全部が含まれていると前記判断手段が判断した場合には、
前記制御手段は前記出力手段を制御し、前記取得手段が取得した音データが示す音のボリュームを下げるべく、当該音データを調整させ、調整後の音データに基づいた音信号を生成して出力させる
ことを特徴とする請求項2に記載の画像処理装置。
【請求項4】
前記制御手段は更に前記仮想物体の材質情報を参照し、参照した材質情報に基づいて前記出力手段を制御することで、前記取得手段が取得した音データが示す音の音質を変更すべく当該音データを調整させ、調整後の音データに基づいた音信号を生成して出力させることを特徴とする請求項1に記載の画像処理装置。
【請求項5】
前記判断手段は、
前記現実物体の位置情報が示す位置と、前記視点の位置情報が示す位置と、を結ぶ線分を求める手段と、
前記線分と前記仮想物体とに交点が存在するか否かを判断する手段と
を備えることを特徴とする請求項1に記載の画像処理装置。
【請求項6】
前記線分と前記仮想物体とに交点が存在すると前記判断手段が判断した場合には、
前記制御手段は前記出力手段を制御し、前記取得手段が取得した音データが示す音のボリュームを下げるべく、当該音データを調整させ、調整後の音データに基づいた音信号を生成して出力させる
ことを特徴とする請求項5に記載の画像処理装置。
【請求項7】
前記制御手段は更に、前記交点の前記仮想物体上における位置に応じて、前記ボリュームを下げる量を変更することを特徴とする請求項6に記載の画像処理装置。
【請求項8】
前記取得手段は、前記現実物体上に配されたマイクから前記現実物体が発する音を、音データとして取得することを特徴とする請求項1に記載の画像処理装置。
【請求項9】
前記音出力装置はヘッドフォンであり、当該ヘッドフォンは、当該ヘッドフォンの装着者に対して現実空間中の音が聞こえないようにする機能を有していることを特徴とする請求項1に記載の画像処理装置。
【請求項10】
音源としての現実物体が配されている現実空間に重畳する、仮想物体で構成された仮想空間の画像を生成する手段と、
前記仮想空間の画像を出力する手段と、
前記現実物体が発する音を、音データとして取得する取得手段と、
前記取得手段が取得した音データに基づいて音信号を生成し、生成した当該音信号を音出力装置に出力する出力手段と
を有する画像処理装置が行う画像処理方法であって、
前記現実物体の位置情報を取得する工程と、
前記仮想物体の位置情報を取得する工程と、
ユーザの視点の位置情報を取得する工程と、
前記現実物体の位置情報、前記仮想物体の位置情報、前記視点の位置情報、を用いて、前記現実物体、前記仮想物体、前記視点のそれぞれの位置関係を求め、求めた当該位置関係が予め定められた条件を満たすか否かを判断する判断工程と、
前記判断工程で満たすと判断した場合には前記出力手段を制御し、前記取得手段が取得した音データが示す音を調整すべく、当該音データを調整させ、調整後の音データに基づいた音信号を生成して出力させる制御工程と
を備えることを特徴とする画像処理方法。
【請求項11】
コンピュータに請求項10に記載の画像処理方法を実行させるためのプログラム。
【請求項12】
請求項11に記載のプログラムを格納した、コンピュータ読み取り可能な記憶媒体。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate


【公開番号】特開2009−116690(P2009−116690A)
【公開日】平成21年5月28日(2009.5.28)
【国際特許分類】
【出願番号】特願2007−289965(P2007−289965)
【出願日】平成19年11月7日(2007.11.7)
【出願人】(000001007)キヤノン株式会社 (59,756)
【Fターム(参考)】