説明

立体画像の表示システム及び表示方法

【課題】携帯機器から立体ディスプレイに表示された画像を操作する。
【解決手段】立体画像の表示システム及び表示方法は、携帯機器と、視点位置に対応して、仮想物体を含む立体画像を表示する立体ディスプレイ部と、携帯機器と無線ネットワークを介して接続する情報処理機器とを備える。携帯機器は、携帯機器が有するディスプレイ部に含むタッチパネルから、ユーザによる操作を受け付け、受け付けた操作を無線ネットワークを介して情報処理機器へ送信する。情報処理機器は、携帯機器のディスプレイ部の表示面と立体ディスプレイ部の表示面との相対的になす立体角に応じたモードに対応して、携帯機器から受信した操作を解釈し、解釈した結果に応じて、立体ディスプレイ部に表示した仮想物体の状態を更新する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、立体画像への操作を可能とする表示システム及び表示方法に関する。
【背景技術】
【0002】
ディスプレイの外部・周辺の空間座標に、ディスプレイが提示する空間座標を射影させて提示させる拡張現実感(Augmented Reality:AR)技術がある。この技術では、カメラに映った画像マーカーの向きや形から、カメラとマーカーの三次元位置関係を解析して、この三次元視点位置のパラメータにあわせて映像をディスプレイに合成提示する。特許文献1では、このような技術に用いるマーカーの提示方法について述べられている。
【0003】
また、三次元視点位置の直感的な表示には、ステレオ立体視ディスプレイが用いられる。このとき立体空間に対して直感的な操作を行う方法として、特許文献2では、三次元的に物体を選択するための器具の一例が示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2010−32282号公報
【特許文献2】特開2006−302101号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
立体映像のシーンの視聴に用いられる画像には、自己を含めたシーンの全オブジェクトを上から見下ろすような構図(以下、三人称視点と呼ぶ)と、自己の位置から見た構図(以下、一人称視点と呼ぶ)の二種類がある。
【0006】
一般に、一人称視点、すなわち視点位置からの構図を用いると、ユーザの視覚環境を直感的に理解できる。特許文献1にみられる自己位置同定手法によって、ユーザ視点の操作を拡張する方法が示された。しかし、このような環境では、物体への指示操作が主に視点位置からの方向で定義されるため、映像上の物体を選択し、または角度を指示する場合には、奥行方向の直感的な距離指定ができず、奥行き方向に重畳している物体の指示・指定が困難になる。
【0007】
三次元上の物体指定における不定性を改善するために、特許文献2のような三次元マウスなどの奥行きを直接指定する器具が提案されてきた。しかし、三次元マウスは一般に操作可能な空間が限定されているため、背景の山並みなどの超遠方のオブジェクトを含んだ一般的な風景に対しては、奥行を含んだ指示を直観的に行うことが難しい。
【0008】
一方、一人称視点とは異なる三人称視点からの奥行き指示と組み合わせることで、不定性の少ない指示を行うことが出来るようになる。このため、作業画面を複数に分割して、一人称視点と三人称視点の双方を交互に確認しながら作業を行うことが、従来のディスプレイ上の操作では一般的であった。しかし、このような複数視点の切り替えには、ディスプレイを占有して映像を切り替える必要があるため、複数人数で同一の画像を見て行う協調的な環境での直観的な操作には向かない。
【課題を解決するための手段】
【0009】
開示される立体画像の表示システム及び表示方法は、携帯機器と、視点位置に対応して、仮想物体を含む立体画像を表示する立体ディスプレイ部と、携帯機器と無線ネットワークを介して接続する情報処理機器とを備える。携帯機器は、携帯機器が有するディスプレイ部に含むタッチパネルから、ユーザによる操作を受け付け、受け付けた操作を無線ネットワークを介して情報処理機器へ送信する。情報処理機器は、携帯機器のディスプレイ部の表示面と立体ディスプレイ部の表示面との相対的になす角に応じたモードに対応して、携帯機器から受信した操作を解釈し、解釈した結果に応じて、立体ディスプレイ部に表示した仮想物体の状態を更新する。
【0010】
立体画像の表示システム及び表示方法の他の態様は、情報処理機器は、携帯機器のタッチパネルからの操作を受け付ける、立体画像内の操作対象の平面を、携帯機器のディスプレイ部の表示面と立体ディスプレイの表示面との相対的になす立体角に応じた仮想平面として、仮想平面上のグリッドと共に立体ディスプレイに表示する。
【0011】
立体画像の表示システム及び表示方法のさらに他の態様は、情報処理機器は、仮想物体の位置を明示させた仮想平面を携帯機器のディスプレイ部に表示する。
【0012】
立体画像の表示システム及び表示方法のさらに他の態様は、情報処理機器は、立体ディスプレイから携帯機器への方向を視点位置として含み、仮想物体を含む立体画像を立体ディスプレイ部に表示する。
【0013】
立体画像の表示システム及び表示方法のさらに他の態様は、携帯機器のディスプレイ部が、立体ディスプレイ部とは異なる種別の立体視ディスプレイである場合、情報処理機器は、仮想物体を含む立体画像が、視点位置に対応して立体視ディスプレイに表示される内容をシミュレーションし、このシミュレーションの結果を携帯機器のディスプレイ部に表示する。
【発明の効果】
【0014】
本発明によれば、ユーザは、立体の直感的な理解を保持したままで、携帯機器から立体ディスプレイに表示された映像を操作できる。
【図面の簡単な説明】
【0015】
【図1】立体画像の表示システムのハードウェア構成図である。
【図2】携帯機器の構成を示す図である。
【図3】情報処理機器130の構成を示す図である。
【図4】立体画像の合成表示システムの初期化の工程のフロー図である。
【図5】コンテンツ空間での仮想物体の配置を示す模式図である。
【図6】携帯機器の位置同定を行うための一連の作業工程のフロー図である。
【図7】携帯機器に送られるプログラムとマーカーの画像パターンである。
【図8】モードAにおける三次元カーソルの移動とそれに対応する仮想物体の指定を示す図である。
【図9】情報更新処理の一連の処理を示したフロー図である。
【図10】モードAにおいて携帯機器に表示される操作画面の模式図である。
【図11】モードBにおおける三次元カーソルの移動とそれに基づく仮想物体の指定を示す図である。
【図12】モードCにおける操作概略を示す図である。
【図13】実施例2において、携帯機器に表示される操作画面の模式図である。
【図14】実施例3において、シミュレートされる立体ディスプレイの仮想視点位置を示す模式図である。
【図15】実施例4の立体画像の表示システムのハードウェア構成図である。
【図16】実施例4の携帯機器の構成を示す図である。
【図17】実施例4のモードAにおいて携帯機器に表示される操作画面の模式図である。
【図18】実施例4のモードAにおいて仮想物体とディスプレイ表面の関係を示す模式図である。
【図19】実施例4のモードCにおいて操作対象平面を仮想空間上に配置する模式図である。
【図20】実施例4のモードCにおいて操作対象平面を仮想空間上に配置する上面図である。
【図21】実施例5の立体画像の表示システムのハードウェア構成図である。
【発明を実施するための形態】
【0016】
以下、実施例を図面を用いて説明する。
【実施例1】
【0017】
図1に、立体画像(立体映像)の表示システムのハードウェア構成を示す。図1に示すように、複数の方向(それぞれ方向111、112、113とする)に異なる映像を提示する立体ディスプレイ101に、その立体ディスプレイ101の位置座標を他の位置から取得するためのマーカー102が添付されている。このマーカー102を他の位置から撮影した場合、撮影したマーカー102の二次元画像上の形状から、後述の手法で立体ディスプレイ101の位置を基準とした、マーカー102を撮影したカメラの位置と角度を求めることができる。
【0018】
図3に、情報処理機器130の構成を示す。立体ディスプレイ101を駆動する情報処理機器130は、図3に示すようにメモリ131と演算装置132を持ち、立体ディスプレイ101に表示する二次元映像情報を送信する映像出力部134を持ち、無線ネットワーク部133を通じて外部機器と連携を行う。一般的な汎用計算機機である情報処理機器130は、メモリ131に保持されたプログラムに従って演算装置132で計算処理を行い、その結果を映像として立体ディスプレイ101に出力、またはTCP,またはHTTPなどの通信プロトコルを介して外部機器に伝達する。この情報処理機器130は一般的な汎用計算機の機能、すなわち複数のプロセスを切り替えて擬似並列的に実行し、また内部の時計やネットワークを用いることでプロセス間の同期をとりつつ計算処理を行う機能を有する。
【0019】
また、図1に示す無線定点観測カメラ105〜106は、立体ディスプレイ101を含む周辺を撮影し、撮影した立体ディスプレイ101の周辺画像を定期的に情報処理機器130に送信する。立体ディスプレイ101の上部には定点観測カメラ108を設け、立体ディスプレイ101の周辺を広視野角で撮影する。
【0020】
立体ディスプレイ101に対しての、ユーザインタフェースという意味でのインタフェース部となる携帯機器120が存在する。図2に、携帯機器120の構成を示す。携帯機器120は、ユーザによる操作を受け付けるタッチパネルを表面に装備したディスプレイ部121と、周辺状況を撮影するカメラ122、無線ネットワークへのアクセス部123を備え、プログラムを保持し実行するメモリ124と、演算装置125によって駆動する。無線ネットワークアクセス部123から外部プログラムをメモリ124に動的に読み込み、演算装置125で駆動することにより、画面121への出力と、そこからの入力結果を処理して、TCP、HTTPなどの通信プロトコルを介して無線ネットワークに伝える機能を有する。また、プログラムによって動的に生成された映像をディスプレイ部に表示するための映像出力部126と、タッチパネルに接触した指・ペン先などの位置を座標情報として受け取るタッチパネル受信部127を備える。また、指・ペン先などの座標情報は、タッチパネルへの接触から離れるまでの時間と空間変化から分類され、ドラッグ、タップ、二本指で行うズームなどの操作に意味解釈してプログラム内で用いる。これらの解釈区分と分離手法については、これらの情報端末での一般的技術に準じる。また、携帯機器120は、加速度と地磁気から現在の携帯機器120が向いている方向を推定するための加速度センサ128を有する。この携帯機器120は一般的な汎用計算機の機能、すなわちネットワークを通じてプログラムデータを読み込み、複数のプロセスを切り替えて擬似並列的に実行し、また内部の時計やネットワークを用いることでプロセス間の同期をとりつつ計算処理を行う機能を有する。
【0021】
図4は、立体画像の合成表示システムを初期化するための一連の工程を示したフロー図である。工程401では、立体ディスプレイ101と、定点観測カメラ105〜106の位置調整が行われる。本実施例では、立体ディスプレイ101の表示面の中央を原点として、ディスプレイに向かって右向き(X)、ディスプレイに向かって上向き(Y)、ディスプレイに向かって奥の方向(Z)の直交座標系を定義する。また、携帯機器120のディスプレイは、画面垂直方向(上)と画面水平方向(右)と画面奥方向のそれぞれに向けた単位長のベクトルの組を、単位ベクトル140として定義する。このベクトルは携帯機器120の配置によって回転する。
【0022】
情報処理機器130は、定点観測カメラ105〜106が撮影した最新の映像を受信し、受信した定点観測カメラ105〜107の映像中にマーカー102がある場合には、映像中のマーカー102の二次元幾何形状の画像から、マーカー102と定点観測カメラ105、106の三次元位置関係をそれぞれ推定する。この推定値から、立体ディスプレイ101の表示面の中央を原点とした定点観測カメラ105〜106の各々の位置を同定し、同定した位置情報をメモリ131に保持する。
【0023】
マーカーからの三次元位置推定には一般的に利用可能な幾つかの既存技法が存在する。本実施例では、以下の手順で四角形のマーカーと三次元位置情報を抽出する。まず、マーカーの画像を2値化して、画像の黒部分を探し、セグメンテーション処理を行って閉領域に分割する。各閉領域で、一番端の点を最初の頂点とし、この頂点から辿って領域の輪郭を作る。作った輪郭から四角形のマーカーの各頂点を探す。4つの頂点をもつ領域を正面から見た場合の形に変換処理を行い、4角形内の画像を単純化する。この画像とマーカーのパターンとのパターンマッチングを行い、マーカーのパターンとの対応関係が閾値以上である場合には、その画像はマーカーであるとする。4つの頂点を画像上の対応位置に変換する射影行列を計算し、そのパラメータから、撮影したカメラからのマーカーの三次元位置と方向についての推定値を求める。
【0024】
工程402では、定点観測カメラ105〜106に対して、一定期間ごとに撮影を命じる命令を発するためのスレッドを起動する。本実施例の定点観測カメラ105、106は、自発的に一定期間ごとに画像を送信できる機能を持ったネットワークカメラである。情報処理機器130が操作するカメラの場合にも、情報処理機器130に独立なプロセスまたはスレッドを置くことで、同等の操作を行うことができる。
【0025】
工程403では、携帯機器120からのネットワーク接続を受け付けるTCP(またはHTTP)サーバーのスレッドを情報処理機器130が起動する。情報処理機器130に端末機器120が接続した場合の動作については、図6を用いて後述する。
【0026】
図5は立体ディスプレイ101に表示する映像を作成する処理を説明するための、コンテンツ空間での仮想物体の配置を示す模式図である。
【0027】
立体ディスプレイ101に三次元位置情報(表示対象)が配置される仮想的な空間を、立体ディスプレイ101と携帯機器120などの位置を表現する物理的な三次元空間と区別するために、以下ではコンテンツ空間と呼ぶ。この原点座標502は、前述のように立体ディスプレイ101の表示面中心に対応し、立体ディスプレイ101の表示面に相当する面501がZ=0のX‐Y平面となる。図5は、このようなコンテンツ空間を示したものである。コンテンツ空間上に複数の視点位置511〜513を設定し、立体ディスプレイ101の表示面に相当する平面501にコンテンツ空間の三次元座標を射影して、設定した視点位置511〜513の各々に対応する二次元画像を構成する。視点位置毎にそれぞれ得られたこれらの二次元画像を、立体ディスプレイ101からの方向111〜113の各々に向けて表示する。
【0028】
また、このコンテンツ空間内に、ポインタ三次元位置500を示すマーカーを配置する。このポインタの初期位置は、原点位置502、すなわち立体ディスプレイ101の表示面中心にセットする。
【0029】
図6は、立体ディスプレイ101の座標系に対して携帯機器120の位置同定を行うための一連のルーチンを示したものである。携帯機器120が、立体ディスプレイ101からある距離に入り、情報処理機器130の無線ネットワーク部133との間で通信可能になった場合に、携帯機器120は情報処理機器130への接続メッセージを送る(工程601)。情報処理機器130は、図7に示す位置同定用のマーカーのパターン701と、携帯機器120で実行するプログラム702を携帯機器120に送信する(工程602)。工程602においては、ユーザの携帯機器120を介した入力情報を管理する工程901〜916(図9)を実行する情報処理機器130側のプログラムと、携帯機器120に送信したプログラムとの、それぞれ独立のスレッドを起動する。このスレッドの動作に関しては後述する。これらの処理によって、準備が完了する。
【0030】
以下の工程610〜633は、携帯機器120、定点観測カメラ105〜106の各々、および、情報処理機器130が同期された内部タイマで時間的に連携しながら動作する。この各機器のプログラムには、これらの撮影処理が同期するように独立のプロセスまたはスレッドを駆動している。工程610、620、630は、これらのプロセス(スレッド)がそれぞれの機器で同期された時刻まで待機する処理を示す。
【0031】
工程611では、携帯機器120が、702のプログラムを駆動して、位置同定用のマーカー画像701を、携帯機器120のディスプレイ部121に提示する。
【0032】
工程612では、携帯機器120が付属のカメラ122で撮影を行う。工程622では、情報処理機器130がカメラ108で撮影を行う。工程632では、定点観測カメラ105〜106の各々が撮影を行う。なお、工程612、622、632の各撮影は、ほぼ同時刻に行われるように、各機器の同期は調整されている。
【0033】
この撮影処理の後、工程613では、携帯機器120のプログラム702が、この時刻の携帯機器120の加速度センサ128から角度情報を読み取る。工程614では、携帯機器120は、工程612で撮影した画像と工程613で取得した角度情報を情報処理機器130に送信する。
【0034】
工程633では、定点計測カメラ105〜106の各々が撮影した画像を情報処理機器130に送信する。
【0035】
工程614、工程633に対応して、工程623では、情報処理機器130は、携帯機器120が提示しているマーカー701を撮影した定点観測カメラ105〜106の各々の画像を受信する。また、工程613で取得された携帯機器120の角度情報、および、工程612で取得された携帯機器120のカメラ122による画像を取得する。
【0036】
工程624では、情報処理機器130は、定点観測カメラ105〜106の各々が撮影した画像に位置同定用のマーカーのパターン701が撮影されているかどうかのパターン検索処理を行う。マーカー701が写っている場合、幾何形状の射影行列のパラメータを計算して、定点観測カメラ105〜106の各々と携帯機器120との相対位置を推定する。このマーカーパターンの検索処理は、前述したとおりである。
【0037】
また、工程625では、携帯機器120のカメラ122が撮影した画像に位置同定用のマーカーパターン102が写っているかどうかのパターン検索処理を行う。マーカーが写っている場合、幾何形状の射影行列のパラメータを計算して、携帯機器120と立体ディスプレイ101の相対位置を推定する。このマーカーパターン102の検索処理は、前述したとおりである。
【0038】
工程627は、工程624で得られた相対位置と、携帯機器120からの角度情報と、工程625で得られた相対位置を合わせて、他の数値から大きく外れたはずれ値(out lier)を除去したうえで平均化を行い、最終的な相対位置を推定する。
【0039】
工程628では、工程622で撮影されたカメラ108の画像から、顔画像のパターンを検索する。この顔画像を検索するために、以下の一連の処理を行うプログラムルーチンを呼び出して実行する。顔画像から肌の色に近い色相の領域を取り出す。一般的な顔画像について、顔の黒い部分と白い部分を保持したパターン(Haarパターン)をメモリから呼び出し、肌の色に近い色相の領域の近傍に対して、このHaarパターンとパターンマッチングを行う。この結果が閾値以上に類似している領域を顔画像と認識する。カメラ108が設置されている方向と画像領域の関係から、認識された顔画像が存在する立体角を算出して保存する。複数の顔画像が撮影された場合には、定点観測カメラ105〜106からの画像によって得られた情報処理機器130の位置、および立体ディスプレイ101からの方向に最も近い顔画像を、携帯機器120の利用者の顔であると判断して、その位置情報を用いる。
【0040】
この携帯機器120の角度情報と位置情報を用いて、情報更新処理629を行う。情報更新処理629は、後述する図9の工程901〜916において実行される、携帯機器120からの情報更新スレッドのモード選択の参照変数を書き換える処理である。これらの一連の処理が終了した時点で、携帯機器120、定点観測カメラ、情報処理機器130の撮影スレッドは、次の撮影同期時刻になるまで、待機する。
【0041】
図9は、情報更新処理(工程629)の一連の処理を示したフロー図である。このフロー図は、情報処理装置130側で行われる工程902〜905と、携帯機器120側で行われる工程911〜916により構成されている。これらの工程はそれぞれ独立したプロセスまたはスレッドとして連続動作を行っているが、工程629で更新された携帯機器120の角度情報に応じてモードを切り替え、工程903と工程905では現在のモードに応じて異なった処理を行う。
【0042】
まず、モードに依存しない全体のフロー部分の説明を行う。工程901では、工程629で更新された携帯機器120の角度情報に応じてモードの選択を行う。立体ディスプレイ101の面と携帯機器120のディスプレイ121の面の方向が閾値θ以内である場合(すなわち立体ディスプレイ101の表示面と携帯機器120のディスプレイ121の表示面が同じ方向を向いている場合)には、モードAとする。立体ディスプレイ101の表示面と携帯機器120のディスプレイ121の表示面とが、垂直から閾値θ以内である場合(すなわち、立体ディスプレイ101の表示面が鉛直である場合、携帯機器120のディスプレイ121の面が上を向いている)には、モードBとする。またそれ以外の角度の関係である場合には、モードCとする。このように、携帯機器120のディスプレイ121の表示面と立体ディスプレイ101の表示面との相対的な立体角に応じてモードを定義する。
【0043】
工程902は、モードに応じた、携帯機器120に送る画像を作成する手順である。携帯機器120に送る画像はモードに応じて異なり、それぞれのモードA〜Cに対応する画像作成の処理ルーチンを駆動する。この各モードの処理ルーチンの実行内容は後述する。工程903では工程902の処理ルーチンで作成された画像とモードの種別が携帯機器120に送られる。
【0044】
工程911〜916は、携帯機器12側で行われる処理である。工程911では工程903で送った画像とモードの種別の情報を受信する。工程912では、受信した画像を提示する。工程913では以前とモードの種別に変化があったかを調べ、モードの種別に変化があった場合には、工程914でタッチパネルに関する読み取り情報をリセットする。工程915ではタッチパネルへのアクセス状態を調べ、ドラッグ、タップ、ズーム(または操作が行われていなかった)のどの状態であったかを取得して、工程916でこのタッチ状態の情報を情報処理機器130に送信する。
【0045】
情報処理機器130は、工程916で取得されたタッチ状態の情報を工程904で受け取って、工程905でその情報をもとに、立体ディスプレイ101に表示されている映像を更新する。工程905の映像情報の更新処理はより具体的には、タッチ状態(タッチパネルの操作)をモードに応じて解釈して、解釈した操作により映像情報(仮想物体の状態)を更新することである。この画像(映像情報)もモードに応じて異なり、それぞれのモードA〜Cに対応する処理ルーチンで駆動する。この各処理ルーチンの内容は後述する。一連の操作が終了すると、再び工程901に戻り、画面の送信と携帯機器120のタッチパネルの情報取得を行う。
【0046】
工程902と、工程905は、モードの種別によって、携帯機器120からの入力情報の解釈を変えるルーチンである。このモードには前述のようにA〜Cの三種類がある。モードAは、立体ディスプレイ101と携帯機器120のディスプレイ121が同じ方向を向いている場合であるので、ある角度方向にレンダリングされた像がディスプレイ面に射影された位置に合わせて物体を選択するモードである。また、モードBは、ディスプレイ121の面が上を向いている場合であるので、コンテンツ空間内で水平面(X−Z平面)における位置を用いて物体を選択するモードである。また、モードCは、立体ディスプレイ101の表示面と携帯機器120のディスプレイ面121がなす立体角度を用い、携帯機器120のディスプレイ121の表面と平行な面をコンテンツ空間に提示して、この面上での移動、回転、ズーム処理を行うモードである。すなわち、モードに応じて移動、回転、ズーム処理などの操作の対象平面が異なる。
【0047】
これらのモードの切り替えに当たっては、コンテンツの空間上の一つの三次元点を各モードで共有し、この点を中心とした座標を再定義する。
【0048】
モードAの場合に工程902と工程905で行われる操作内容の概略を説明する。携帯ディスプレイ121の位置が立体ディスプレイ101と平行に置かれている場合、モードAでの選択処理が行われる。このモードAでは、携帯機器120のディスプレイ面121と立体ディスプレイ101のディスプレイ面を1対1対応させて、携帯機器120または立体ディスプレイ101のディスプレイ表面に写っている物体を指示する。図8は、モードAにおける三次元カーソルの移動とそれに対応する仮想物体の指定を示す図である。図10に、モードAにおいて、立体ディスプレイ101のディスプレイ表示1001に対応した携帯機器120に表示される操作画面1002の模式図を示す。
【0049】
工程915の操作時には、工程627で求められた立体ディスプレイ101に対する携帯機器120のディスプレイ121の物理空間上の相対的な位置と最も近い方向511に向けて提示されている画像が、携帯機器120のディスプレイ121に提示されている。ユーザは、タッチパネルの位置540を選択する際には、立体ディスプレイ101上に対応付けられた位置550を選択する意図で操作している。
【0050】
この際、立体ディスプレイ101上に提示されるカーソルの射影像550からカーソル500の奥行を含めた位置を求めるために、携帯機器120の位置である視点位置803付近の、立体ディスプレイ101の視点位置511からディスプレイ表面上カーソル550を通った視線方向 (Ray) をたどって仮想物体と衝突した位置を算出する。こうして求められたカーソル位置500を図8に示す。視点位置511から見て立体ディスプレイ101上のカーソルの射影像550を連続的に動かした場合でも、512、513のような他の位置から見た画像においては、必ずしもカーソル500の射影像550がディスプレイ平面101上で連続に移動するとは限らない。
【0051】
工程902A(モードAのときの工程902、以下同様に表記する。)において、情報処理機器130は、携帯機器120の方向に向けて立体ディスプレイ101に提示されている画像(図8の状況では視点511でレンダリングされた画像)の縮小コピーを携帯機器120に送る。工程912において、携帯機器120は送られてきた画像を、保有するディスプレイ121面に提示しているため、工程915において、ユーザはこの画面表面に対してのタッチ操作を行っていると解釈する。
【0052】
工程905Aでは、モードAの条件のもとで、ユーザのタッチパネルへの操作を、立体映像のコンテンツに反映する。ドラッグ処理が行われていた場合には、ドラッグ操作の最終位置対応した、立体ディスプレイ101の位置にカーソル500を表示する。このとき、同カーソルから視線方向(Ray)をたどって衝突した物体の色などを変化させて、その奥行の位置にカーソル500を提示すると同時に、選択候補であるオブジェクト560の色などの表示態様を変えて提示する。タップの処理が行われた場合には、現在のカーソルの位置から選択されているオブジェクト560を選択し、三次元カーソル500の座標をオブジェクト560の中心位置に設定する。また、すでに選択されたオブジェクトがあり、ドラッグ操作が行われていた場合には、選択されているオブジェクトをドラッグ操作の移動距離に相当する分だけX−Y平面状で移動させる。
【0053】
次にモードBの場合に工程902と工程905で行われる操作内容の概略を説明する。携帯機器120のディスプレイ121の面の向きが、地面に水平に(重力方向に対して垂直に)置かれている場合、携帯機器120のディスプレイ面121と立体ディスプレイ101の内部のコンテンツ空間における水平位置(X−Z平面)を一対一対応させて、物体の指定を行う。
【0054】
図11は、モードBにおける三次元カーソルの移動とそれに基づく仮想物体の指定を示す図である。工程902Bにおいて、情報処理機器130は、携帯機器120に画像1102を表示するために、コンテンツ空間のX−Z平面の位置情報を上方から描画1101した時の画像1102を作成する。この画像は、現在の三次元カーソル500の位置を中心とし、携帯機器120のY軸周りの回転角度に合わせて回転させて得られた画像である。また、携帯機器120のディスプレイ121のY軸周りの回転角度に合わせて仮想空間上にグリッド1101を引く。このコンテンツ空間のX−Z平面上にひかれたグリッドと携帯機器120のディスプレイ121上に提示されたX−Y平面の画像は互いに一対一の関係をなすため、工程912において、ユーザはこのX−Z平面に対してのタッチ操作を行っていると解釈する。
【0055】
工程905Bでは、モードBの条件のもとで、ユーザのタッチパネルへの操作を、立体映像のコンテンツに反映する。ズーム操作が行われた場合には、このズーム操作が示す倍率にあわせて画像のサイズとコンテンツ空間のX−Z平面上のグリッドのサイズを変化させ、同一ドラッグによって三次元カーソルを移動できる距離を変化させる。ドラッグ操作が行われた場合には、情報処理機器130は、携帯機器120のディスプレイ121上における移動距離に相当するXZ平面上の移動距離の分だけ三次元カーソル500を移動させる。また、三次元カーソルに相当するX−Z平面の位置に仮想物体(オブジェクト)がある場合には、そのオブジェクトの色などの表示態様を変えることで選択候補を明示的に提示する。選択候補のオブジェクトが選ばれている状況でタップ処理が行われた場合には、選択候補のオブジェクトを選択オブジェクトに指定したと解釈して、現在のカーソルの位置から選択されているオブジェクト560を選択し、三次元カーソル500の座標をオブジェクト560の中心位置に設定する。また、すでに選択されたオブジェクトがあり、ドラッグ操作が行われていた場合には、選択されているオブジェクトをドラッグ操作の移動距離に相当する分だけXZ平面上で移動させる。
【0056】
次にモードCの場合に工程902と工程905で行われる操作内容の概略を図12を用いて説明する。携帯機器120のディスプレイ121の面の向きが、モードA、モードBのどちらでもない場合には、立体ディスプレイ101の座標に対する、携帯機器120のディスプレイ121の面の角度(立体ディスプレイ101の表示面と携帯機器120のディスプレイ121の表示面の相対角度)に合わせた、コンテンツ空間上に仮想平面1200を携帯機器120のディスプレイ121に提示し、その仮想平面1200に対応したインタラクション操作を携帯機器120ののタッチパネルから行う。
【0057】
工程902Cにおいて、情報処理機器130は、携帯機器120の角度と位置の情報から、コンテンツ空間上の三次元カーソル500の座標点を通り、物理空間上の携帯機器120のディスプレイ121面と平行となる平面を定義して、この平面を射影面としてコンテンツ空間の風景を携帯機器120に提示するためにレンダリングする。また、立体映像のコンテンツ空間内に、平面1200に相当する平面上にグリッド1201を描く。
【0058】
工程912において、ユーザはこの指定されたコンテンツ空間内の平面1200に対してのタッチ操作を行っていると解釈する。
【0059】
工程905Cでは、モードCの条件のもとで、ユーザのタッチパネルへの操作を、立体映像のコンテンツに反映する。垂直方向にズーム操作が行われた場合には、このズーム操作が示す倍率にあわせて、携帯機器120のディスプレイ121に提示する画像のサイズとコンテンツ空間の平面上のグリッド1201のサイズを変化させて、同一ドラッグによって三次元カーソル500を移動できる距離を変化させる。ドラッグ操作が行われた場合には、平面1200上でこのドラッグ操作が示す移動距離に相当する移動距離の分だけ三次元カーソル500を移動させる。また、三次元カーソル500に相当する位置に仮想物体(オブジェクト)がある場合には、そのオブジェクトの色などの表示態様を変えることで選択候補を明示的に提示する。選択候補が選ばれている状況でタップ処理が行われた場合には、選択候補となっているオブジェクトを選択する。また、すでに選択されたオブジェクトがあり、ドラッグ操作が行われていた場合には、選択されているオブジェクトをドラッグ操作の移動距離に相当する分だけ平面1200上で移動させる。
【0060】
これらの一連の処理ルーチンによって、モードに合わせて、三次元ディスプレイ内のカーソル500の移動と物体の選択、移動操作が行われる。
【0061】
これらの一連の処理により、本実施例では、立体ディスプレイ101や立体印刷物に対して、ユーザが可搬することが出来るディスプレイを、動的に組み合わせて、ユーザの意図に合わせた視点位置の選択、奥行表現の制御、立体位置の指定操作を効率的に実現される。
【0062】
特に裸眼立体ディスプレイの例など、一つの視点位置での射影行列で表現しきれない立体映像を調整して処理する場合には、視点位置、角度の選択モードの切り替えは煩雑になる。通常のモニタを用いて最大数十視点の映像のすべての構図での印象を確認しながら作業を行うことは、困難であり非能率的でもある。この調整時に直接に立体ディスプレイを用いることで結果に対する直感的な動作が可能になる。
【0063】
また、裸眼立体ディスプレイでは、複数の映像を視聴する視点位置ごとに切り替えて表示するが、複数枚の画像のうちのどれかの映像が混合したかたちで視聴されることがある。この理由から、ディスプレイの表面から大幅に離れた距離の物体を描画しようとすると、二重像が見えたり、映像がぼけたりして、利用者に不快を与えるため、これらの裸眼立体ディスプレイでは使用可能な奥行き距離をディスプレイ面の表面近辺に限定して表示するのが一般的である。また、ディスプレイ面と映像が離れた状況下で映像が視聴困難になる傾向は、裸眼立体方式にのみ限定されているわけではなく、メガネ式立体提示の方法においても、ディスプレイ表面から映像の距離が離れると、本来の画像とのかい離が大きくなるため、映像酔いや疲労などの影響も大きくなる傾向がある。このような立体ディスプレイ特有の疲労や三次元酔いなどが生まれると長時間の作業は難しかったが、本実施例の手法を用いることで、必要な情報が手持ちのディスプレイ座標上に固定して提示されるため、このような立体酔い効果の軽減が期待できる。
【0064】
また、単一視点の通常の映像ディスプレイのように、裸眼立体ディスプレイのディスプレイ面(二次元平面)をタッチパネルとして選択した場合には、視点の位置が異なっていると二次元平面上の指定位置に関連付けられる三次元空間内の位置が変わりうる。通常のモニタでは単一の視点を前提にして、その視点位置と平面上の点を結んだ方向を示すことで一つの直線を示すが、複数の視点方向が同時に提示される立体視ディスプレイにおいて、ディスプレイ表面に対するインタラクションを行うと、どの視点を用いて物体の指定を行っているかを明示化しない限り、指定されているオブジェクトに対する不定性が生まれるが、本実施例においては、そのような不定性を持たずに物体を直感的に指示可能になる。
【実施例2】
【0065】
本実施例では、ある方向から見た画像の作成を行い、その画像を携帯機器120に送る方法を示す。
【0066】
本実施例の各ハードウェアは、実施例1のものと同じである。
【0067】
本実施例では、図13に示すように、実施例1の工程902Cに相当する画像1300の作成において、携帯機器120のディスプレイ121の操作画面として、撮影距離を制御するためのスクロールバー1301(この入力値をDとする)、撮影画角を制御するためのスクロールバー1302(この入力値をAとする)、最終撮影画像を取得するボタン1303を配置する。
【0068】
工程915のタッチパネル操作において、スクロールバー1301が操作され値Dが変化した場合には、工程905Cで行われる仮想平面1200(図12)への射影画像作成において、仮想的な視点位置となる点を仮想平面1200から距離Dに配置して映像の作成を行う。
【0069】
また、工程915のタッチパネル操作において、スクロールバー1302が操作され値Aが変化した場合には、工程905Cで行われる仮想平面1200への射影画像作成において、仮想的な画角を角度Aに変更して映像の作成を行う。
【0070】
また、915のタッチパネル操作において、ボタン1303が押された場合には、距離D画角Aで仮想平面1200に射影したコンテンツ空間の高解像度画像をレンダリングし、作成された画像をメールに添付して、携帯機器120にあらかじめ関連付けられたメールアドレスに送信する。
【実施例3】
【0071】
本実施例では、用いられている立体ディスプレイ101と異なるパラメータの立体ディスプレイを用いた場合に各視点位置から見える映像出力(各視点位置に対応する表示内容)のシミュレーション結果を携帯機器120に送る方法を示す。このようなシミュレーションは、たとえば、複数の異なる視点の映像が重なって見えてしまった場合(クロストークと呼ばれる)に、映像が劣化して見える度合いを判断するために用いることが出来る。
【0072】
図14を用いて説明する。ハードウェアは、実施例1と立体ディスプレイ1400を異にし、その立体ディスプレイ1400が5個の仮想視点1401〜1405を持っているものとする。
【0073】
本実施例では、実施例1の工程902Cに相当する画像の作成において、各視点位置1401〜1405を中心とした5種類の射影像を、仮想平面1200(図12)上に投影して高解像度画像を作成し、それらの重畳映像を作り、実施例2の方法で携帯機器120に関連付けられたメールアドレスに送付する。利用者は送付された画像を見ることによって、位置500にある物体560が、どの程度の立体像のクロストークを生むかを推定することができる。
【実施例4】
【0074】
図15に、本実施例を実現するために必要なハードウェア構成を示す。携帯機器1500以外は、実施例1と同様である。携帯機器1500は、裸眼立体映像を提示できるディスプレイを保有する。携帯機器1500の構成を図16に示す。ディスプレイ1501が、レンチキュラレンズ、パララックスバリアなどの立体視ディスプレイであること以外は、実施例1における携帯機器120と同様である。
【0075】
本実施例の動作工程の大部分は、実施例1と同じ工程である。ただし、定点観測カメラ105〜106の各々から撮影されるマーカー701の携帯機器1500のディスプレイ1501への表示において、ディスプレイ平面上に観測されるように描画することと、各モードにおける携帯機器1500への立体空間の表示において、立体空間の構成を反映するための凹凸情報を伴った立体画像が作成されて、送信される。
【0076】
図17は、実施例1におけるモードA(図10)に対応した画像である。図18は、図17の画像の仮想物体とディスプレイ1501表面の関係を示す模式図である。視点位置1801は、工程628で得られた利用者の顔の視点位置である。ここで、三次元マーカー1740と、三次元仮想物体1760のような各物体のレンダリング処理は、以下のように行う。立体視ディスプレイ1501の提示可能な映像のうち、中心に近いある一つの方向に提示する映像を代表視点とする。この代表視点映像の作成を、視点位置1801を中心として携帯機器1500の立体視ディスプレイ1501の表面1740に相当する仮想空間の平面に向けて投影する射影行列によって行う。他の映像については、この代表視点を基準として立体ディスプレイ各視点の相対的な視点位置を算出する。
【0077】
図19は、実施例1におけるモードC(図12)に対応した、操作対象平面を仮想空間上に配置する模式図である。実施例1と同様の各工程によって、実施例1の平面1200(図12)に相当する平面1900が立体ディスプレイ101に提示される。携帯機器1500の立体視ディスプレイ1501面に画像1902が描画される。この例においては、立体ディスプレイ101上には三次元カーソルの像1941と仮想物体の像1961が、携帯端末の立体視ディスプレイ1501上には、三次元カーソルの像1940と仮想物体の像1960が、それぞれ描画されている。この描画の際の奥行位置の関係を示した上面図が図20である。立体視ディスプレイ1501上に描画された立体像1960と三次元カーソルの像1940は、仮想平面1900と立体像1961と三次元カーソルの像1941の相対位置に等しく配置される。このような表現の実現のために、三次元カーソルの像1940から見た視点位置1801と相対的に等価な位置に仮想視点位置2001を配置する。すなわち、携帯機器1500の立体視ディスプレイ1501の中心から視点位置1801への立体角度と、仮想端末中心から仮想視点位置2001への立体角度が等しく、視点位置1801から携帯機器1500のディスプレイ1501面までの距離と視点位置2001から仮想平面1900までの距離の比率が、携帯機器1500のディスプレイサイズと仮想平面のサイズ(正確にはその上に引かれたグリッドの四角形1901)の比率が同じ位置になるような視点位置である。このとき、立体視ディスプレイ1501の提示可能な映像のうち、中心に近いある一つの方向に提示する映像を代表視点とし、この代表視点映像の作成を、視点位置2001を中心として仮想平面1900に相当する仮想空間の平面に向けて投影する射影行列によって行う。他の映像については、この代表視点を基準として立体ディスプレイ各視点の相対的な視点位置を算出する。
【0078】
このような描画を、立体視ディスプレイ1501を備えた携帯機器1500を用いて行うことで、モードAの場合には立体視ディスプレイ1501が置かれている物理的な空間を基準に立体像が提示され、モードCの場合にはカーソル1940が置かれている仮想的な点1941を基準にして、携帯機器1500の角度に応じた立体像が提示されるようになる。モードAでは、仮想物体の近くにディスプレイ面を自由に配置することが出来るため、細部が視認可能になり、映像酔いの効果も減少できる。またモードCでは、三次元カーソルの固定によって物体の位置を固定して安定した市長ができる一方で、角度を直感的に変化させることも達成できる。
【実施例5】
【0079】
本実施例は、ディスプレイ101に立体ディスプレイを用いずに立体印刷物を用いる方法について述べる。
【0080】
この場合のハードウェア構成例を図21に示す。。2101は立体印刷物を貼り付けた器具であり2111〜2113にそれぞれ異なる映像を投影する。携帯端末2120とその立体角度を取得するために定点観測カメラ2105〜2106の行う一連の動作については、先の実施例の記述に準じる。この映像に対し携帯機器2120で仮想平面の位置を指定して画像を作成するが、工程903での立体ディスプレイの画像の描画処理は行わず、携帯機器2120への画像描画と映像送信のみを行う。
【0081】
これにより、立体印刷物に対して、現在は表示されていない方向からの映像を取得して画像として得ることが出来るようになる。
【0082】
説明した実施形態によれば、ユーザは、立体の直感的な理解を保持したままで、携帯機器から立体ディスプレイに表示された画像を操作できる。また、立体ディスプレイ上の細かい物体や文字などを長時間視聴することによる映像酔いや眼精疲労を軽減する効果と同時に、直観的な動作によって立体的な関係を指定するインタフェースを実現できる。
【符号の説明】
【0083】
101:立体ディスプレイ、102:立体ディスプレイと関連付けられたマーカー、108:カメラ、111〜112:立体ディスプレイが独立に映像を示すことができる方向、120:携帯機器、121:携帯機器のタッチパネルつきディスプレイ、122:携帯機器120のカメラ、123:無線ネットワークアクセス部、130:情報処理機器、131:メモリ、132:演算装置、133:無線ネットワーク部。

【特許請求の範囲】
【請求項1】
ユーザによる操作を受け付けるタッチパネルを有するディスプレイ部および受け付けた前記操作を無線ネットワークを介して送信する無線ネットワークアクセス部を含む携帯機器と、視点位置に対応して、仮想物体を含む立体画像を表示する立体ディスプレイ部と、前記携帯機器と前記無線ネットワークを介して接続し、前記携帯機器の前記ディスプレイ部の表示面と前記立体ディスプレイ部の表示面との相対的になす立体角に応じたモードに対応して、前記携帯機器から受信した前記操作を解釈して、解釈した結果に応じて、前記立体ディスプレイ部に表示した前記仮想物体の状態を更新する情報処理機器とを備えたことを特徴とする立体画像の表示システム。
【請求項2】
請求項1記載の立体画像の表示システムにおいて、前記情報処理機器は、前記携帯機器の前記タッチパネルからの前記操作を受け付ける、前記立体画像内の操作対象の平面を、前記携帯機器の前記ディスプレイ部の表示面と前記立体ディスプレイの表示面との相対的になす立体角に応じた仮想平面として、前記仮想平面上のグリッドと共に前記立体ディスプレイに表示することを特徴とする立体画像の表示システム。
【請求項3】
請求項2記載の立体画像の表示システムにおいて、前記情報処理機器は、前記仮想物体の位置を明示させた前記仮想平面を前記携帯機器の前記ディスプレイ部に表示することを特徴とする立体画像の表示システム。
【請求項4】
請求項1記載の立体画像の表示システムにおいて、前記情報処理機器は、前記立体ディスプレイから前記携帯機器への方向を前記視点位置として含み、前記仮想物体を含む前記立体画像を前記立体ディスプレイ部に表示することを特徴とする立体画像の表示システム。
【請求項5】
請求項1記載の立体画像の表示システムにおいて、前記携帯機器の前記ディスプレイ部が、前記立体ディスプレイ部とは異なる種別の立体視ディスプレイである場合、前記情報処理機器は、前記仮想物体を含む前記立体画像が、前記視点位置に対応して前記立体視ディスプレイに表示される内容をシミュレーションし、該シミュレーションの結果を前記携帯機器の前記ディスプレイ部に表示することを特徴とする立体画像の表示システム。
【請求項6】
携帯機器と、視点位置に対応して、仮想物体を含む立体画像を表示する立体ディスプレイ部と、前記携帯機器と前記無線ネットワークを介して接続する情報処理機器とを備えたシステムによる立体画像の表示方法であって、
前記携帯機器は、該携帯機器が有するディスプレイ部に含むタッチパネルから、ユーザによる操作を受け付け、受け付けた前記操作を無線ネットワークを介して前記情報処理機器へ送信し、
前記情報処理機器は、前記携帯機器の前記ディスプレイ部の表示面と前記立体ディスプレイ部の表示面との相対的になす立体角に応じたモードに対応して、前記携帯機器から受信した前記操作を解釈し、解釈した結果に応じて、前記立体ディスプレイ部に表示した前記仮想物体の状態を更新することを特徴とする立体画像の表示方法。
【請求項7】
請求項6記載の立体画像の表示方法において、前記情報処理機器は、前記携帯機器の前記タッチパネルからの前記操作を受け付ける、前記立体画像内の操作対象の平面を、前記携帯機器の前記ディスプレイ部の表示面と前記立体ディスプレイの表示面との相対的になす立体角に応じた仮想平面として、前記仮想平面上のグリッドと共に前記立体ディスプレイに表示することを特徴とする立体画像の表示方法。
【請求項8】
請求項7記載の立体画像の表示方法において、前記情報処理機器は、前記仮想物体の位置を明示させた前記仮想平面を前記携帯機器の前記ディスプレイ部に表示することを特徴とする立体画像の表示方法。
【請求項9】
請求項6記載の立体画像の表示方法において、前記情報処理機器は、前記立体ディスプレイから前記携帯機器への方向を前記視点位置として含み、前記仮想物体を含む前記立体画像を前記立体ディスプレイ部に表示することを特徴とする立体画像の表示方法。
【請求項10】
請求項6記載の立体画像の表示方法において、前記携帯機器の前記ディスプレイ部が、前記立体ディスプレイ部とは異なる種別の立体視ディスプレイである場合、前記情報処理機器は、前記仮想物体を含む前記立体画像が、前記視点位置に対応して前記立体視ディスプレイに表示される内容をシミュレーションし、該シミュレーションの結果を前記携帯機器の前記ディスプレイ部に表示することを特徴とする立体画像の表示方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate


【公開番号】特開2012−79211(P2012−79211A)
【公開日】平成24年4月19日(2012.4.19)
【国際特許分類】
【出願番号】特願2010−225643(P2010−225643)
【出願日】平成22年10月5日(2010.10.5)
【国等の委託研究の成果に係る記載事項】(出願人による申告)国等の委託研究の成果に係る特許出願(平成22年度 独立行政法人情報通信研究機構「革新的な三次元映像技術による超臨場感コミュニケーション技術の研究開発」委託研究、産業技術力強化法第19条の適用を受ける特許出願)
【出願人】(000005108)株式会社日立製作所 (27,607)
【Fターム(参考)】