説明

増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム及び運営方法

【課題】様々な3次元映像ディスプレイ装置を利用してより深く広く高い空間に自然に表現される3次元映像を提示する。
【解決手段】本発明に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームは、少なくとも一つの3次元ディスプレイ装置を有する多数のディスプレイ装置を互いに連関させて制御する入出力制御部と、ディスプレイ装置の空間設定を収集して3次元立体映像を表現するための物理空間を前記ディスプレイ装置別に分割または共有するようディスプレイ装置別3次元表現空間を設定する事前情報管理部と、ユーザー情報と仮想空間に対する3次元コンテンツを利用してリアルタイムコンテンツ情報を生成するリアルタイム情報制御部と、を有し、入出力制御部はディスプレイ装置別に設定された3次元表現空間情報とユーザー情報に基づいてリアルタイムコンテンツ情報をそれぞれのディスプレイ装置に分配する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム及び運営方法に関するものであって、より詳しくは多数の3次元映像ディスプレイ装置を利用してユーザー周辺の3次元空間に自然な立体映像が提示可能な増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム及び運営方法に関する。
【背景技術】
【0002】
現在、映画及びテレビ分野において大衆化が進んでいる3次元映像提示技術は、一般的に人間が3次元立体感を感じる様々な原因(factor)のうち両眼視差(人間外部環境の3次元物体が両眼の網膜に映る像の差)効果を利用している。しかしながら、この技術はLCDスクリーンのように固定された距離にある映像出力面に両眼視差情報を出力することによって、映像出力面の表裏空間に仮想の深さを持つ映像をユーザーに提示する技術であって、人間の視覚運動構造に相当な疲労感を誘発させる根本的な短所がある。
【0003】
また、映画のようなコンテンツから示される3次元映像提示技術であるインタラクティブホログラムディスプレイ技術は、人間の立体視覚認知特性を完全に収容する理想的なディスプレイ技術であるが、現在の技術レベルではその実現は遠い状況なので、一般の消費者に3次元映像技術に対する誤解と現在の技術に対する失望感を強める副作用がある。
【発明の概要】
【発明が解決しようとする課題】
【0004】
本発明は上記のような問題点を解決するために案出されたものであって、ユーザーの3次元映像視聴による視覚的疲労度を減少させ、自然な3次元空間感を提示できる増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム及び運営方法を提供する。
【0005】
また、本発明の目的は、同種(homogeneous)及び異機種(heterogeneous)の3次元ディスプレイ装置を一つの3次元空間に融合させる増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム及び運営方法を提供する。
【0006】
本発明のまた他の目的は、多数のユーザーが自然な3次元映像を共有できる増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム及び運営方法を提供する。
【課題を解決するための手段】
【0007】
このような課題を解決するために、本発明では同種(homogeneous)及び異機種(heterogeneous)の様々な3次元映像ディスプレイ装置が3次元映像を表現するための物理空間を分割及び共有し、ユーザー情報と分割された空間の情報に基づいてリアルタイムコンテンツ情報を生成して、様々な3次元映像ディスプレイ装置を利用して共にディスプレイする。
【0008】
本発明の一面による増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームは、少なくとも一つの3次元ディスプレイ装置を有する多数のディスプレイ装置を互いに連関させて制御する入出力制御部と、前記ディスプレイ装置の空間設定を収集して3次元立体映像を表現するための物理空間を前記ディスプレイ装置別に分割または共有するようディスプレイ装置別3次元表現空間を設定する事前情報管理部と、ユーザーの両眼6自由度情報と視線方向及び焦点情報を有するユーザー情報と仮想空間に対する3次元コンテンツを利用してリアルタイムコンテンツ情報を生成するリアルタイム情報制御部を有し、前記入出力制御部は前記ディスプレイ装置別に設定された3次元表現空間情報と前記ユーザー情報に基づいて前記リアルタイムコンテンツ情報をそれぞれの前記ディスプレイ装置に分配する。
【0009】
本発明の他面による増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームは、少なくとも一つの3次元ディスプレイ装置を有する多数のディスプレイ装置を互いに連関させて制御する入出力制御部と、前記ディスプレイ装置が表現できる最適の立体空間に対する情報を収集する空間設定収集ユニットと、仮想空間に対する3次元コンテンツを格納する仮想空間3次元コンテンツデータベースと、前記空間設定収集ユニットによって収集された物理空間の情報と仮想空間の情報を3次元空間での相互配置関係にオーサリング(authoring)するオーサリングユニットと、前記オーサリングの結果を前記ディスプレイ装置別最適3次元表現空間設定情報に格納する最適空間設定情報データベースを有する事前情報管理部と、ユーザー情報を抽出するユーザー情報抽出ユニットと、前記ユーザーが多数の場合、前記多数のユーザーの相互関係を管理する多重ユーザー参加支援ユニットと、前記ユーザー情報、前記多数のユーザーの相互関係及び前記仮想空間に対する3次元コンテンツに基づいてリアルタイムコンテンツ情報を生成するリアルタイムコンテンツ情報生成ユニットと、前記ユーザー情報を管理し事前に収集された前記ユーザーの個人情報に基づいて前記ディスプレイ装置別最適3次元表現空間設定情報を修正するユーザー適応型装置及び映像パラメータ制御ユニットを含むリアルタイム情報制御部を有して構成される。
【0010】
本発明のまた他面による増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの運営方法は、少なくとも一つの3次元ディスプレイ装置を有する多数のディスプレイ装置から表現できる最適の立体空間に対する情報を収集するステップと、収集された前記最適の立体空間に対する情報に基づいて3次元立体映像を表現するための物理空間を前記ディスプレイ装置別に分割または共有するようディスプレイ装置別3次元表現空間を設定するステップと、ユーザーの両眼6自由度情報と視線方向及び焦点情報を有するユーザー情報を収集するステップと、仮想空間に対する3次元コンテンツと前記ユーザー情報を利用してリアルタイムコンテンツ情報を生成するステップと、前記ユーザー情報と前記ディスプレイ装置別に設定された3次元表現空間情報に基づいて前記リアルタイムコンテンツ情報をそれぞれの前記ディスプレイ装置に分配するステップを有する。
【発明の効果】
【0011】
本発明によると、一つの3次元ディスプレイ装置を利用して制限的な3次元空間感を表現する限界を克服して、より深く、広く、高い空間に自然に表現される3次元映像を提示することができる。このような3次元映像技術を利用すれば空間感表現の限界を克服した様々な3次元立体コンテンツサービスを可能にするので、3次元ディスプレイプラットフォーム基盤の家電、教育、訓練、医療及び軍事分野などの様々な分野の仮想現実及び混合現実システムを具現するのに活用することができる。
【図面の簡単な説明】
【0012】
【図1】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの全体構成を示すブロック図である。
【図2】両眼視覚映像による3次元客体認識の概念を示す図である。
【図3】それぞれの共用画面(public screen)と着用型3次元ディスプレイ装置において3次元映像を表現するための両眼視差と虚像の位置を示す図である。
【図4】それぞれの共用画面(public screen)と着用型3次元ディスプレイ装置において3次元映像を表現するための両眼視差と虚像の位置を示す図である。
【図5】3次元ディスプレイを通じて表現可能な仮想映像の可視化範囲のエラーを示す例である。
【図6】3次元ディスプレイを通じて表現可能な仮想映像の可視化範囲のエラーを示す例である。
【図7a】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームにおいて3次元映像表現空間の分割及び共有を示す図である。
【図7b】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームにおいて3次元映像表現空間の分割及び共有を示す図である。
【図7c】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームにおいて3次元映像表現空間の分割及び共有を示す図である。
【図8a】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの多重ユーザーに対する応用例を示す例である。
【図8b】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの多重ユーザーに対する応用例を示す例である。
【図8c】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの多重ユーザーに対する応用例を示す例である。
【図9a】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの様々な応用例を示す図である。
【図9b】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの様々な応用例を示す図である。
【図9c】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの様々な応用例を示す図である。
【図9d】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの様々な応用例を示す図である。
【図10a】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの様々な応用例を示す図である。
【図10b】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの様々な応用例を示す図である。
【図10c】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの様々な応用例を示す図である。
【図10d】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの様々な応用例を示す図である。
【図11a】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの様々な応用例を示す図である。
【図11b】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの様々な応用例を示す図である。
【図11c】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの様々な応用例を示す図である。
【図11d】本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの様々な応用例を示す図である。
【発明を実施するための最良の形態】
【0013】
本発明の利点及び特徴、またそれらを達成する方法は図面と共に詳述されている実施の形態を参照すれば明確に理解できる。しかし、本発明は以下に開示される実施の形態に限定されるのではなく、互いに異なる様々な形態で具現され、ただ本実施の形態は本発明の開示が完全になるようにし、本発明の属する技術分野において通常の知識を持つ者に発明の範疇を完全に理解させるために提供され、本発明は請求項の範疇によって定義されるだけである。一方、本明細書で使用された用語は実施の形態を説明するためのものであって、本発明を制限しようとするものではない。本明細書において、単数形は文句中で特に言及しない限り複数形も含む。明細書で使用される“有する(comprises、comprising)”は言及された構成要素、ステップ、動作及び/または素子は一つ以上の他の構成要素、ステップ、動作及び/または素子の存在または追加を排除しない。
【0014】
以下、本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム及び運営方法について図面に沿って詳細に説明する。
【0015】
図1は、本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの全体構成を示すブロック図である。
【0016】
図1に示されたように、本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームは、事前情報管理部100、リアルタイム情報制御部200及び入出力プラットフォーム300の3つのグループで構成される。
【0017】
事前情報管理部100は、最終的に完成される統合された一つの仮想立体空間を構成するために、ハードウェア的な構成要素及びソフトウェア的な構成要素間の関係を事前に設定し、データベース構造に格納及び管理する部分である。このために、事前情報管理部100は入出力装置空間設定収集ユニット110、装置別最適3D表現空間設定情報データベース120、3D映像表現空間分割/共有設定オーサリングユニット130、仮想空間3Dコンテンツデータベース140を有する。
【0018】
仮想空間3Dコンテンツデータベース140は、仮想現実及び混合現実ソフトウェアコンテンツを格納するデータベースを意味し、3D空間に対するモデルデータ、即ち、地形、地物、環境及び相互作用の対象となる客体(object)を有する。
【0019】
このような仮想空間3Dコンテンツデータベース140に格納されたデータを利用して、本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームではユーザーに仮想客体のみで構成された仮想現実空間を提示したり、仮想空間のデジタルコンテンツ客体と現実のユーザー及び物体が相互作用をしながらサービスシナリオを進行させる混合現実システムを具現することができる。
【0020】
入出力装置空間設定収集ユニット110は、本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム内に含まれる特定ディスプレイ装置が表現できる最適の立体空間に対する情報をそれぞれのディスプレイ装置320、330、340から獲得する。この時、ディスプレイ装置は共用ディスプレイ装置、携帯型(モバイル)ディスプレイ装置、個人用着用型ディスプレイ装置を有し、各ディスプレイ装置が表現できる立体空間はVPS(Volume of Public Screen)、VMS(Volume of Mobile Screen)、VpVS(Volume of personal Virtual Screen)を有する。
【0021】
また、入出力装置空間設定収集ユニット110は物理的な空間に設けられている入力センサー装置(例:カメラなどの映像入力装置、位置及び加速度などのセンサー基盤入力装置等)と3次元ディスプレイ装置以外の情報出力装置(サウンド効果出力装置、モノディスプレイ装置など)の設置現況情報をユーザー周辺環境に対する情報として収集する。入力センサー装置と情報出力装置の設置現況情報は、6自由度(例:位置3つ‐x、y、z姿勢3つ‐pitch、yaw、roll)情報及び制御と関連した時間情報などを有する。
【0022】
入出力装置空間設定収集ユニット110は、このように収集した情報を3D映像表現空間分割/共有設定オーサリングユニット130に提供する。
【0023】
3D映像表現空間分割/共有設定オーサリングユニット130は3Dコンテンツモデリングツールであって、GUIを基盤に入出力装置空間設定収集ユニット110によって提供された物理的な空間情報と仮想空間3Dコンテンツデータベース140に格納されている仮想的な空間情報を3次元空間での相互配置関係にオーサリング(authoring)する機能を提供する。これは3D空間モデルでそれぞれの3次元ディスプレイ装置が担当する区域を配置する作業で、担当区域はユーザーが直接手作業で調整したり、該当3次元ディスプレイ装置から最少‐適正‐危険‐最大領域情報(例えば、positive及びnegative parallaxの深さなど)を受信して各ディスプレイ装置が3次元空間を指定された数値で適切に共有及び分割するよう自動配置することができる。
【0024】
このようにそれぞれのディスプレイ装置が表現できる適切な仮想情報の空間関係が定義されれば、定義された空間関係に対する初期設定情報は装置別最適3D表現空間設定情報データベース120に格納される。
【0025】
リアルタイム情報制御部200は、全体システムの運営瞬間毎に参加する単数または複数のユーザーの情報を抽出して、自然な立体空間を提示するために初期値に設定されたパラメータを変更する部分である。ユーザーの情報としては、ユーザーの両眼それぞれの視覚に関連した6自由度情報、視線方向(view vector)及び焦点(focusing)情報を有し、現在ユーザーがどのような種類の入出力装置及びセンサーと相互作用できるかに対する情報もまた有する。リアルタイム情報制御部200は、ユーザー適応型装置及び映像パラメータ制御ユニット210、ユーザー情報抽出ユニット220、多重ユーザー参加支援制御ユニット230及びリアルタイムコンテンツ情報生成ユニット240を有する。
【0026】
ユーザー情報抽出ユニット220は、ユーザーの両眼それぞれの視覚に関連した6自由度(位置、姿勢)情報と視線方向及び焦点情報に基づいて、現在ユーザーが正確にどの空間を観察しているかを追跡して、多数のディスプレイ装置のうち該当する空間の3D立体感を最もよく表現できるディスプレイ装置が該当ユーザーの情報を処理できるようにユーザー適応型装置及び映像パラメータ制御ユニット210に関連情報を伝達する。
【0027】
また、現在ユーザーがどのような種類の入出力装置及びセンサーと相互作用できるかに対する情報を収集してユーザー適応型装置及び映像パラメータ制御ユニット210に伝達することによって、システムが様々なマルチモーダル(multimodal)な入出力情報を個々人のユーザーに分割及び同時に提示する作業を処理することができる。
【0028】
多重ユーザー参加支援制御ユニット230は、一つの物理的な空間に多数のユーザーが増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームを利用する状況を処理する部分であって、この場合、増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームそのものが数セット存在する状況になる。従って、多重ユーザー参加支援制御ユニット230は、多数のユーザーの現在相互作用状態(仮想空間を観察したり相互作用する行為に対する状況情報)を収集して、仮想客体情報を共有したりそれぞれのユーザーが体験できるよう情報を分散処理する。
【0029】
ユーザー適応型装置及び映像パラメータ制御ユニット210は、事前情報管理部100によって初期値に設定されている各ディスプレイ装置の情報分割及び共有処理条件値をユーザー個人の身体的、認知的特性及び個人選好意志に応じて一部値の範囲を調整する役割を担当する。即ち、個人の身体的及び認知的な特性によって立体感を自然に感じる領域に若干の変動があり得るので、個人化された事前情報によって立体空間(例:VPS、VpVS、VMSなど)間での情報の転移境界領域を調整する。
【0030】
リアルタイムコンテンツ情報生成ユニット240は、仮想空間3Dコンテンツデータベース140の情報とユーザー情報抽出ユニット220及び多重ユーザー参加支援制御ユニット230から得たユーザー入力を基準にサービスコンテンツの進行と関連した相互作用イベントを処理して最終出力結果のリアルタイムコンテンツ情報を生成しこれを入出力プラットフォーム300の多重3D立体空間の間の仮想客体情報入出力制御部310に伝達する。
【0031】
入出力プラットフォームグループ300は、様々なディスプレイ装置320、330、340とこれらのディスプレイ装置を制御するための制御部310を有する。
【0032】
多重3D立体空間の間の客体情報入出力制御部310は、リアルタイムコンテンツ情報生成部240の出力結果を多重ユーザー条件と個人に最適化された条件を基準に分割及び共有情報を分離してそれぞれの入出力装置320、330、340に転送する。
【0033】
説明の便宜のため、図1では共用ディスプレイ装置320、携帯型ディスプレイ装置330、個人用着用型ディスプレイ装置340を一つずつ示したが、必ずしもこの3つのディスプレイ装置が備えられなければならないものではなく、本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームは、少なくとも一つの3次元映像ディスプレイ装置を含んで2つ以上のディスプレイ装置を持つディスプレイシステムに適用可能である。また、各ディスプレイ装置が2つ以上備えられるのは言うまでもない。
【0034】
また、図1では多重3D立体空間の間の客体情報入出力制御部310が各ディスプレイ装置320、330、340を直接制御するものと示したが、多重3D立体空間の間の客体情報入出力制御部310と各ディスプレイ装置320、330、340間に各ディスプレイ装置を制御するための個別制御ユニットを設けることもできる。例えば、壁面型ディスプレイ装置及び3Dテレビなど周辺環境に位置したディスプレイ装置を制御する多重共用ディスプレイ装置制御ユニット、ユーザーが携帯しながら移動させることのできる入出力装置を制御する多重携帯型ディスプレイ装置制御ユニット、HMD(Head Mounted Display)やEGD{Eye‐Glasses(type)Display}などの着用型コンピューティング装置(wearable computing device)のように身体に密着して使用できる入出力装置を制御する多重個人用着用型ディスプレイ装置制御ユニットなどを設けることができる。
【0035】
その上に、本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームでは、各ディスプレイ装置320、330、340が多重3D立体空間の間の客体情報入出力制御部310から各ディスプレイ装置320、330、340に該当するユーザー情報、多数のユーザーの現在相互作用状態、リアルタイムコンテンツ情報などが提供され、これを利用して適合した3次元映像を提示することもできる。この場合、各ディスプレイ装置は下記の文献1に開示された多重立体映像混合提示用視覚インターフェイス装置を備えたもの、または下記の文献2に開示された混合現実環境のための顔着用型ディスプレイ装置などを有する。
【先行技術文献】
【特許文献】
【0036】
【特許文献1】大韓民国公開特許第10−2006−0068508号公報
【特許文献2】大韓民国公開特許第10−2008−0010502号公報
【0037】
本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームでディスプレイ装置320、330、340を除いた残りの部分は、例えばコンピュータのような一つの装置10を通じて具現され、必要によっては二つ以上の装置に具現されたり、一部のユニットがディスプレイ装置に含まれる形態に具現されることもできる。例えば、特定の共用ディスプレイ装置がメインディスプレイ装置に動作する場合、増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの各構成部分がメインディスプレイ装置内に具現されることもできる。
【0038】
図2ないし図4は、3D立体映像表現のための両眼視差と虚像の位置を説明する図である。
【0039】
一般的に左右両眼には3次元空間の情報が視差(visual disparity、d)を持つ、独立されて2次元で網膜に映された映像で感知され、脳ではこれを通じて3次元立体空間と3次元客体を認知する(図2を参照)。
【0040】
このような原理を利用した3次元ディスプレイ技術は、一つの物理光学的なスクリーンに2つの左右映像を提示し、それぞれの映像を左右両眼に独立的に伝達されるように分離させる技術(例:偏光フィルター)を使用する。
【0041】
図3は一般的な3Dテレビまたは立体映画館での外部の大型スクリーンを観察する時に、スクリーン上から出力される映像の視差によるnegative(画面から飛び出した領域にある感じ)‐zero(画面と同距離に物体がある感じ)‐positive(画面裏の遠い空間に物体がある感じ)の状況を説明した図である。
【0042】
ここで、VOpはポジティブ視差(positive parallax)領域の仮想物体、VOzはゼロ視差(zero parallax)領域の仮想物体、VOnはネガティブ視差(negative parallax)領域の仮想物体を示し、DpはDnはそれぞれポジティブ視差とネガティブ視差の深さを示す。RPはreal point、VPはvirtual point、dは画面上の距離(zero parallax)を示す。
【0043】
図4は、EGDのようにユーザーの眼に着用したディスプレイ装置の光学部によって仮想のスクリーン(pVS)が一定距離の手前に形成され、これを基準に立体映像が表現される原理を説明した図である。
【0044】
図4でpESはpersonal Eye Screen、OpはOptics、lpVSはleft eye’s personal Virtual Screen、rpVSはright eye’s personal Virtual Screen、pVSはpersonal Virtual Screen(重畳領域)、VOpEはEGDのポジティブ視差領域の仮想物体、VOzEはEGDのゼロ視差領域の仮想物体、VOnEはEGDのネガティブ視差領域の仮想物体、PEはParallel eye vectorで、VOE=VOpE+VOzE+VOnEとなる。
【0045】
図5及び6は、立体ディスプレイを通じて表現可能な仮想映像の可視化範囲とそのエラーの例を示す図である。
【0046】
図5は立体ディスプレイと表現可能な仮想映像の可視化範囲を説明する図である。図5のスクリーン(PS:Public Screen)部分は3Dテレビのコマーシャルの一部であって、サッカーのシュート場面でボールが画面から飛び出す立体感を示しているが、これはnegative parallax技法では実際表現できない非正常的な状況を描写している。
【0047】
即ち、一般的な視聴者の左右両眼の視野を90°と仮定した時、仮想客体(ボール、VO)は視野範囲(EFOV)には入っているが、視聴者の視線と物理的な画面(PS)を基準に定義される映像表現可能空間VVを外れているので、実際には視聴者に見えない領域にある。
【0048】
即ち、理論的にホログラム空間ディスプレイ装置でなければ表現が不可能な空間に映像イメージが存在する状況が演出されている。
【0049】
図6もまた類似した状況を示しているが、視聴者が3Dテレビ画面を図のように斜線方向に見ている場合には、視聴者の視線と物理的画面を基準に定義される映像表現可能空間内に位置する一部仮想客体(VO_3、VO_4)のみが画面から飛び出した空間に位置したものと認知することができ、その他の空間に位置する仮想客体(VO_2ないしVO_0)は、実際視聴者が認知できなくなる。
【0050】
このように映像出力面(例:LCD screen)の存在を基盤とする両眼視覚(binocular vision)型情報ディスプレイを利用した全ての立体映像システムはユーザーが感じる自然な深さ(comfortable depth feeling)の区間が物理光学的な映像面を基準に有限な空間に形成される。よって、仮想のコンテンツ(例:3D映像物)が表現しようとする、より深く、広く、高い空間に対する出力は既存の技術では限界があるしかない。例えば、ユーザーの視点と映像表現の面から定義されるFOV(Field Of View)を外れた部分で物理光学的に表現が不可能な空間はユーザーの認識することのできない領域であったり、過度なimage disparity設定でユーザーに高い視覚的な疲労度を誘発させる。
【0051】
これに対し本願発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームでは、多重及び多数の立体ディスプレイ装置を活用して仮想の立体表現空間を分割及び共有することによって3次元空間感表現の限界を克服することができる。
【0052】
次に、様々な応用例に基づいて本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームによって具現される3次元映像表現方法を説明する。
【0053】
図7aないし図7cは、本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームで3D映像表現空間の分割及び共有を示す図である。
【0054】
図7aないし図7cの実施の形態では壁面型3次元映像ディスプレイ装置と着用型3次元EGD及び/または携帯型ディスプレイ装置を同時に使用する場合の映像表現スクリーンの相対的な活用位置及びそれぞれの3次元空間表現領域を示す。図7aないし図7cでPSはPublic Screen、MSはMobile Screen、VPSはnatural 3D expression Volume of PS、VpVSはnatural 3D expression Volume of pVS、VMSはnatural 3D expression Volume of MS、VOsはVirtual Object on start position、VOeはVirtual Object on end position、VOmはVirtual Object on mobile screenである。
【0055】
図7aに示されたように、一つの3次元映像スクリーンの境界と視聴者の視線の位置及び方向を基準に視覚投影空間(view frustum)を定義することができる。また、一つのスクリーンから出力される両眼視差映像は過度な値の範囲内で視聴者が疲労感を感じない程度の境界値に定義される自然な3次元映像表現空間(VPS、VpVS、MVS)を定義することができる。
【0056】
一般的にpositive parallaxを利用した遠く離れた感じの立体効果は距離が遠くなるほど視聴者の左右両眼視覚の距離(例:IPD‐Inter Pupil Distance、両眼間の距離)値に近づき、人間の立体空間認知特性から見ると距離が遠くなるほど両眼視差効果よりはオーバーラップ(overlap)のような他の要因で深さを認知する。しかし、物体が視聴者の目前に近づくnegative parallaxを利用する場合には両眼視差(d)の絶対値が無限に大きくなり極度の視覚疲労感を誘発させる。よって、一つのスクリーンには自然な立体映像表現空間がpositive領域の距離値(Dp)がnegative領域の距離値(Dn)よりも大きな有限な空間に定義されることができる。ここで、非常に遠くにある客体の表現は完全に平行視覚になるので、positive parallax areaは理論的には無限大になるが、視覚疲労度を勘案して一定の領域に限定する。
【0057】
本願発明の実施の形態によると、多数の3次元ディスプレイ装置を利用して多数の仮想スクリーンを通じて立体映像を表示することによって、上述したような3次元空間感表現の限界を克服することができる。
【0058】
図7aに示されたように、視聴者が壁面型3次元ディスプレイが位置した方向を注視する時に、視聴者とスクリーン(PS)間の距離が遠い場合(Dn1よりも大きい場合)にはEGDを利用した別途のスクリーン(pVS)を通じて視聴者に近い空間に立体映像を提示することができる。
【0059】
図7bは視聴者が左側に視線を移動する場合を示した図であって、視聴者の視点が壁面型3次元ディスプレイの3次元表現空間、即ち外部スクリーン(PS)の領域を外れる場合にも視聴者視点に応じて移動する他の表現空間(VpVS)(着用型3次元EGDの3次元表現空間)を利用して立体情報を提示することができる。
【0060】
図7cは、さらに移動型3次元ディスプレイを使用する場合を示す。視聴者は追加のスクリーン(MS)を表示できる装置を携帯することによって立体映像表現空間を細分化させ、より自然に且つ様々な空間に表現される立体映像情報を体験することができる。特に、図7cのように移動型3次元ディスプレイ装置を使用すれば、一般的なEGD装置が持っている狭い視野角(FOV)問題を解決することができる。
【0061】
図8aないし図8cは本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームで多重ユーザーに対して増強型混合現実3次元映像をディスプレイする応用例を示す図である。
【0062】
図8aはユーザーAが仮想客体の移動経路(画面の外に飛び出す)に応じて自然に3次元空間感を表現できる装置(EGD、携帯型3次元ディスプレイ装置など)を活用して立体コンテンツを体験する状況である。
【0063】
図8bは共用ディスプレイ(PS)から突出される同一な立体映像コンテンツを互いに異なるユーザー(ユーザーB、ユーザーC)がそれぞれ自身の観点で正確な3次元映像を体験する状況である。ユーザーBとユーザーCはそれぞれ自身のEGD、携帯型3次元ディスプレイ装置など)を活用して同一な仮想客体に対して正確な3次元映像を体験することができる。
【0064】
図8cは、本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームに多数のユーザーが参加する複合立体映像体験館の事例を説明している。図8cは、仮想の森のインテリアをした体験空間で仮想の森及び仮想及び実物形態の生命体に対する相互作用を多数のユーザー(ユーザーDないしユーザーK)が様々な入出力装置プラットフォームを通じて経験する状況を示す。図8cに示されたように、ユーザーは壁(wall)中の仮想及び実物を利用した展示空間と立体映像及び入出力相互作用インターフェイス(例:ユーザーの位置追跡及びジェスチャーインターフェイス、音声インターフェイスなど視覚‐聴覚‐触覚‐嗅覚‐味覚装置)を通じて仮想と現実空間とが融合された混合現実型サービスを体験することができる。
【0065】
図9aないし図11dは、本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの様々な応用例を示す図である。
【0066】
図9aに示されたように、ボールがゴールポストを外れて視聴者方向に(3Dテレビ外部に)飛んでくる状況で、図9bに示されたように、3DテレビのVPSからVOnに表現できる最大領域までボールが突出表現されて、立体表現空間転移(境界)領域に近づくと視聴者のEGDのVpVSが活性化される。次に、図9cに示されたように、ユーザー視点の移動に連動されて動くVpVSでボール(VOE1)の移動が表現される(この時、VOE1は視聴者と3Dテレビとの間に定義されるVV領域を外れている)。このように、二つの3次元ディスプレイ装置(3Dテレビ及びEGD)を利用して仮想客体(VOE1)の広い移動範囲を表現することができる。
【0067】
また、図9dではVpVSで表現される他の仮想客体VOE2(例:仮想応援団)がVOE1(ボール)と相互作用(飛んでくるボールを取る)する状況が表現されるものを示している。このように本発明の実施の形態によると、従来には具現できなかった領域の立体映像体験効果が容易に得られる。
【0068】
図10aないし図10dは、本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームを利用した他の応用例を示す図である。
【0069】
図10aないし図10dで提示する応用例は、本発明の実施の形態に係る3次元映像ディスプレイシステムをIPテレビ技術及びUCC技術と融合したサービスの事例であって、視聴者は視聴者が所有し制御できる視聴者周辺の3次元仮想空間のコンテンツを多数のユーザーが共有するテレビ番組内部にアップロードして一緒に共有できるサービスを具現する。
【0070】
図10aに示されたように、視聴者が生成したデジタルコンテンツ(UCC応援広告)をVpVS領域にローディングした後、図10bに示されたように、視聴者がジェスチャーインタラクションでUCCをテレビで表現されるVPSに転送させる命令を入力する。そうすると、図10cに示されたように、テレビが受信したUCC情報は中央サーバーに転送(upload)され、図10dに示されたように、放送でUCC(例:広告)の露出を制御する中央サーバーは視聴者が転送したメッセージを露出制御領域(仮想広告板)に出力する。
【0071】
図11aないし図11dは本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームを利用した他の応用例を示す図である。
【0072】
図11aないし図11dに示される応用例は、本発明の実施例に係る3次元映像ディスプレイシステムとIPテレビ技術を活用した、ユーザー志向型広告技術を融合したサービスの事例である。即ち、テレビ番組の内容展開にリアルタイムで反応するインタラクティブ広告(例:韓国が優勝する場合、電化製品の割引イベント広告の露出)を示し、該当広告の対象物がユーザーの生活環境(lifestyle)に適合するかを体験できるよう、本発明の実施の形態に係る増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームで内蔵された入出力センサー(例:ユーザーの居間空間の3次元情報を抽出する立体情報抽出センサー)及び知識データベースを活用して、仮想使用シミュレーション状況を試演することによってユーザーが広告内容をリアル感高く体験することができる。
【0073】
つまり、図11aに示されたように、中央サーバーはコンテンツから発生される特定イベント(例:サッカーのゴールインの瞬間)に反応して特定広告を露出させる。次に、図11bに示されたように、ユーザーの広告拒否行為がない場合、中央サーバーは広告コンテンツに内蔵された仮想客体に対する追加情報(ロボット掃除機の仮想シミュレーションプログラム)をテレビに転送し、テレビは広告コンテンツに含まれた仮想客体(ロボット掃除機)との相互作用のために活用空間の3D情報が必要なことを認識すれば、テレビに内蔵された3次元空間情報収集装置(3D cam)を利用してテレビ周辺(居間)の3次元空間構造情報をスキャンする。
【0074】
図11cに示されたように、ユーザーが広告コンテンツ(ロボット掃除機)内容の体験を選択すれば、仮想のロボット掃除機がテレビから出力されて居間空間に移動する。この時、仮想ロボット掃除機がテレビのVPS領域を離脱する場合、視聴者のVpVS領域で可視化される。
【0075】
図11dに示されたように、仮想ロボット掃除機は収集された居間の3次元空間情報を基準に衝突検査を行いながら、仮想の製品動作試演をシミュレーションし、視聴者は該当製品を実際に購買した場合の状況を仮想体験した後、製品の購買要否を決定することができる。
【0076】
これと類似した具現可能なシナリオで、ユーザーは着用型衣服、アクセサリー及び家のインテリア用製品の仮想着用及び仮想配置を体験し、広告製品の購入に対する意思決定に利用することができる。
【0077】
以上、本発明について好ましい実施の形態を基準に説明したが、本発明は必ずしも上述した実施の形態に制限されるのではなく発明の要旨と範囲から外れることなく様々な修正や変形が可能である。添付の特許請求の範囲は本発明の要旨に属する限りこのような修正や変形を含む。
【符号の説明】
【0078】
110 入出力装置空間設定収集ユニット
120 装置別最適3D表現空間設定情報DB
130 3D映像表現空間分割/共有設定オーサリングユニット
140 仮想空間3DコンテンツDB
210 ユーザー適応型装置及び映像パラメータ制御ユニット
220 ユーザー情報抽出ユニット
230 多重ユーザー参加支援制御ユニット
240 リアルタイムコンテンツ情報生成ユニット
310 多重3D立体空間の間の仮想客体情報入出力制御部
320 共用ディスプレイ装置
330 携帯型ディスプレイ装置
340 個人用着用型ディスプレイ装置

【特許請求の範囲】
【請求項1】
少なくとも一つの3次元ディスプレイ装置を有する多数のディスプレイ装置を互いに連関させて制御する入出力制御部と、
前記ディスプレイ装置の空間設定を収集して3次元立体映像を表現するための物理空間を前記ディスプレイ装置別に分割または共有するようディスプレイ装置別3次元表現空間を設定する事前情報管理部と、
ユーザーの視線情報を有するユーザー情報と仮想空間に対する3次元コンテンツを利用してリアルタイムコンテンツ情報を生成するリアルタイム情報制御部と、を有し、
前記入出力制御部は前記ディスプレイ装置別に設定された3次元表現空間情報と前記ユーザー情報に基づいて前記リアルタイムコンテンツ情報をそれぞれの前記ディスプレイ装置に分配する増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム。
【請求項2】
前記ユーザーが多数の場合、
前記リアルタイム情報制御部は前記多数のユーザーの相互関係をさらに利用して前記リアルタイムコンテンツ情報を生成し、
前記入出力制御部は前記3次元表現空間情報、前記ユーザー情報及び前記多数のユーザーの相互関係に基づいて前記リアルタイムコンテンツ情報を前記ディスプレイ装置に分配する請求項1に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム。
【請求項3】
前記ユーザー周囲の物理空間に設けられている入力センサー装置と前記ディスプレイ装置でない他の情報出力装置をさらに有し、
前記事前情報管理部は前記入力センサー装置と前記情報出力装置の設置現況情報をさらに収集する請求項1に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム。
【請求項4】
前記事前情報管理部は、
前記3次元表現空間情報と前記仮想空間に対する3次元コンテンツを利用して、設定された物理空間の情報と前記仮想空間の情報を3次元空間での相互配置関係にオーサリング(authoring)し、前記オーサリングの結果を前記ディスプレイ装置別最適3次元表現空間設定情報に格納する請求項1に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム。
【請求項5】
前記オーサリングは、
前記ユーザーによって行なわれたり前記事前情報管理部によって収集された前記ディスプレイ装置の空間設定から自動に行なわれる請求項4に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム。
【請求項6】
前記リアルタイム情報制御部は、
事前に収集された前記ユーザーの個人情報に基づいて前記3次元表現空間情報を修正する請求項1に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム。
【請求項7】
前記ディスプレイ装置別前記3次元表現空間情報は互いに重複される領域を持つように設定される請求項1に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム。
【請求項8】
前記事前情報管理部は、
前記ディスプレイ装置の空間設定を収集する空間設定収集ユニットと、
前記仮想空間に対する3次元コンテンツを格納する仮想空間3次元コンテンツデータベースと、
設定された前記物理空間の情報と前記仮想空間の情報を3次元空間での相互配置関係にオーサリングするオーサリングユニットと、
前記オーサリングの結果を格納する最適空間設定情報データベースと、
を有する請求項1に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム。
【請求項9】
前記リアルタイム情報制御部は、
前記ユーザー情報を抽出するユーザー情報抽出ユニットと、
前記ユーザーが多数の場合、前記多数のユーザーの相互関係を管理する多重ユーザー参加支援ユニットと、
前記ユーザー情報、前記多数のユーザーの相互関係及び前記仮想空間に対する3次元コンテンツに基づいて前記リアルタイムコンテンツ情報を生成するリアルタイムコンテンツ情報生成ユニットと、
前記ユーザー情報を管理し、事前に収集された前記ユーザーの個人情報に基づいて前記ディスプレイ装置別最適3次元表現空間設定情報を修正するユーザー適応型装置及び映像パラメータ制御ユニットと、
を有する請求項8に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム。
【請求項10】
前記入出力制御部は、
ユーザー適応型装置及び映像パラメータ制御ユニットによって修正された前記ディスプレイ装置別最適3次元表現空間設定情報、前記ユーザー情報、前記多数のユーザーの相互関係に基づいて前記リアルタイムコンテンツ情報を前記ディスプレイ装置に分配する請求項9に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム。
【請求項11】
少なくとも一つの3次元ディスプレイ装置を有する多数のディスプレイ装置を互いに連関させて制御する入出力制御部と、
前記ディスプレイ装置が表現できる最適の立体空間に対する情報を収集する空間設定収集ユニットと、仮想空間に対する3次元コンテンツを格納する仮想空間3次元コンテンツデータベースと、前記空間設定収集ユニットによって収集された物理空間の情報と前記仮想空間の情報を3次元空間での相互配置関係にオーサリングするオーサリングユニットと、前記オーサリングの結果を前記ディスプレイ装置別最適3次元表現空間設定情報に格納する最適空間設定情報データベースを有する事前情報管理部と、
ユーザー情報を抽出するユーザー情報抽出ユニットと、前記ユーザーが多数の場合、前記多数のユーザーの相互関係を管理する多重ユーザー参加支援ユニットと、前記ユーザー情報、前記多数のユーザーの相互関係及び前記仮想空間に対する3次元コンテンツに基づいてリアルタイムコンテンツ情報を生成するリアルタイムコンテンツ情報生成ユニットと、前記ユーザー情報を管理し事前に収集された前記ユーザーの個人情報に基づいて前記ディスプレイ装置別最適3次元表現空間設定情報を修正するユーザー適応型装置及び映像パラメータ制御ユニットを含むリアルタイム情報制御部と、
を有する増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム。
【請求項12】
前記ユーザー情報は、
ユーザーの両眼6自由度情報、視線方向、焦点情報及び前記ユーザーが相互作用できる前記ディスプレイ装置を含む入出力装置に対する情報を有する請求項11に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム。
【請求項13】
前記入出力制御部は、
前記ユーザー適応型装置及び映像パラメータ制御ユニットによって修正された前記ディスプレイ装置別最適3次元表現空間設定情報、前記ユーザー情報、前記多数のユーザーの相互関係に基づいて前記リアルタイムコンテンツ情報を前記ディスプレイ装置に分配する請求項11に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム。
【請求項14】
少なくとも一つの3次元ディスプレイ装置を有する多数のディスプレイ装置から表現できる最適の立体空間に対する情報を収集するステップと、
収集された前記最適の立体空間に対する情報に基づいて3次元立体映像を表現するための物理空間を前記ディスプレイ装置別に分割または共有するようディスプレイ装置別3次元表現空間を設定するステップと、
ユーザーの両眼6自由度情報と視線方向及び焦点情報を有するユーザー情報を収集するステップと、
仮想空間に対する3次元コンテンツと前記ユーザー情報を利用してリアルタイムコンテンツ情報を生成するステップと、
前記ユーザー情報と前記ディスプレイ装置別に設定された3次元表現空間情報に基づいて前記リアルタイムコンテンツ情報をそれぞれの前記ディスプレイ装置に分配するステップと、
を有する増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの運営方法。
【請求項15】
前記リアルタイムコンテンツ情報は仮想立体コンテンツに対する情報を有し、
前記分配するステップ以降に、
前記仮想立体コンテンツを前記ディスプレイ装置別に前記仮想空間内に表示するステップをさらに有する請求項14に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの運営方法。
【請求項16】
前記多数のディスプレイ装置は、二人以上の前記ユーザに対してそれぞれ割り当てられた少なくとも一つの携帯型3次元ディスプレイ装置を有し、
前記二人以上のユーザは、それぞれ自身に割り当てられた前記携帯型3次元ディスプレイ装置を通じて3次元映像を獲得できる請求項15に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの運営方法。
【請求項17】
前記多数のディスプレイ装置は、前記ユーザの携帯型3次元ディスプレイ装置を含む2つ以上の3次元ディスプレイ装置を有し、これによって前記2つ以上の3次元ディスプレイ装置の表現領域を連動して前記仮想客体を表示できる請求項15に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの運営方法。
【請求項18】
前記ユーザが所有し制御できる前記ユーザ周囲の3次元仮想空間のコンテンツを前記仮想空間に対する前記リアルタイムコンテンツ情報に加えるステップをさらに有し、これによって前記ユーザ周囲の3次元仮想空間のコンテンツが他のユーザに表示される請求項14に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの運営方法。
【請求項19】
前記ユーザ周囲の3次元仮想空間のコンテンツはユーザ作成コンテンツ(UCC:User Created Contents)を有する請求項18に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの運営方法。
【請求項20】
前記リアルタイムコンテンツ情報にリアルタイムで反応するインタラクティブ広告コンテンツを前記仮想空間に対する前記リアルタイムコンテンツ情報に加えるステップと、
前記増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームに内蔵された入出力センサー及び知識データベースを利用して仮想シミュレーション状況を試演するステップと、
をさらに有する請求項14に記載の増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォームの運営方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7a】
image rotate

【図7b】
image rotate

【図7c】
image rotate

【図8a】
image rotate

【図8b】
image rotate

【図8c】
image rotate

【図9a】
image rotate

【図9b】
image rotate

【図9c】
image rotate

【図9d】
image rotate

【図10a】
image rotate

【図10b】
image rotate

【図10c】
image rotate

【図10d】
image rotate

【図11a】
image rotate

【図11b】
image rotate

【図11c】
image rotate

【図11d】
image rotate


【公開番号】特開2012−128854(P2012−128854A)
【公開日】平成24年7月5日(2012.7.5)
【国際特許分類】
【出願番号】特願2011−267870(P2011−267870)
【出願日】平成23年12月7日(2011.12.7)
【出願人】(596180076)韓國電子通信研究院 (733)
【氏名又は名称原語表記】Electronics and Telecommunications Research Institute
【住所又は居所原語表記】161 Kajong−dong, Yusong−gu, Taejon korea
【Fターム(参考)】