説明

表示制御装置、表示制御方法、およびプログラム

【課題】ユーザの使用感を向上するための表示制御装置、表示制御方法、およびプログラムを提供する。
【解決手段】実空間の動画を含む実空間動画と、実空間の静止画および前記静止画に含まれる実オブジェクトに対応する仮想オブジェクトを含む合成画と、の間で表示装置の表示を遷移させる制御部を備える、表示制御装置。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、表示制御装置、表示制御方法、およびプログラムに関する。
【背景技術】
【0002】
近年、画像認識技術が高度化しており、撮像装置からの入力画像に含まれる実オブジェクト(例えば、看板やビルなどの物体)の位置や姿勢を認識することが可能となっている。このような物体認識の応用例の一つとして、AR(Augmented Reality:拡張現実)アプリケーションが知られている。ARアプリケーションによれば、実空間画像に含まれる実オブジェクトに、実オブジェクトに対応付けられた仮想オブジェクト(例えば、広告情報、ナビゲーション情報、またはゲームのための情報)を重畳することができる。なお、このようなARアプリケーションについては例えば特許文献1に開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特願2010−238098
【発明の概要】
【発明が解決しようとする課題】
【0004】
ここで、撮像機能を有する携帯端末でユーザがARアプリケーションを利用する場合、ユーザは、携帯端末の撮像方向を実オブジェクトに向け続けることにより、実空間画像に仮想オブジェクトが重畳された状態を維持することができる。しかし、撮像方向を実オブジェクトに向け続けることはユーザにとって煩雑である。
【0005】
そこで、本開示ではユーザの使用感を向上することが可能な、新規かつ改良された表示制御装置、表示制御方法、およびプログラムを提案する。
【課題を解決するための手段】
【0006】
本開示によれば、実空間の動画を含む実空間動画と、実空間の静止画および前記静止画に含まれる実オブジェクトに対応する仮想オブジェクトを含む合成画と、の間で表示装置の表示を遷移させる制御部を備える、表示制御装置が提供される。
【0007】
また、本開示によれば、実空間の動画を含む実空間動画と、実空間の静止画および前記静止画に含まれる実オブジェクトに対応する仮想オブジェクトを含む合成画と、の間で表示装置の表示を遷移させる、表示制御方法が提供される。
【0008】
また、本開示によれば、コンピュータを、実空間の動画を含む実空間動画と、実空間の静止画および前記静止画に含まれる実オブジェクトに対応する仮想オブジェクトを含む合成画と、の間で表示装置の表示を遷移させる表示制御装置、として機能させるためのプログラムが提供される。
【発明の効果】
【0009】
以上説明したように本開示に係る表示制御装置、表示制御方法、およびプログラムによれば、ユーザの使用感を向上することが可能である。
【図面の簡単な説明】
【0010】
【図1】本開示によるARシステムの構成を示した説明図である。
【図2】リアルタイム認識画面の具体例を示した説明図である。
【図3】携帯端末のハードウェア構成を示した説明図である。
【図4】第1の実施形態による携帯端末の構成を示した機能ブロック図である。
【図5】リアルタイム認識画面および静止画操作画面の具体的構成
【図6】静止画操作画面の変形例を示した説明図である。
【図7】リアルタイム認識モードにおける携帯端末の動作を示したフローチャートである。
【図8】静止画操作モードにおける携帯端末の動作を示したフローチャートである。
【図9】第2の実施形態による携帯端末の構成を示した機能ブロック図である。
【図10】第3の実施形態による携帯端末の構成を示した機能ブロック図である。
【図11】第4の実施形態によるARシステムを示した説明図である。
【図12】第4の実施形態による携帯端末およびARサーバの構成を示した機能ブロック図である。
【図13】第4の実施形態の第1の動作例を示したシーケンス図である。
【図14】第4の実施形態の第2の動作例を示したシーケンス図である。
【図15】第4の実施形態の第3の動作例を示したシーケンス図である。
【発明を実施するための形態】
【0011】
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0012】
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
【0013】
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.ARシステムの概要
2.各実施形態の説明
2−1.第1の実施形態
2−2.第2の実施形態
2−3.第3の実施形態
2−4.第4の実施形態
3.むすび
【0014】
<<1.ARシステムの概要>>
本開示によるARシステムは、一例として「2−1.第1の実施形態」〜「2−4.第4の実施形態」において詳細に説明するように、多様な形態で実施され得る。また、各実施形態によるARシステムは、
A.実空間の動画を含む実空間動画と、実空間の静止画および当該静止画に含まれる実オブジェクトに対応する仮想オブジェクトを含む合成画と、の間で表示装置の表示を遷移させる制御部(241〜244)、
を備える表示制御装置(携帯端末20、ARサーバ30)を含む。
【0015】
以下では、まず、このような各実施形態において共通するARシステムの基本構成について図1および図2を参照して説明する。
【0016】
図1は、本開示によるARシステムの構成を示した説明図である。図1に示したように、本開示によるARシステムは、撮像機能を有する携帯端末20を含む。この携帯端末20は、実空間画像を撮像し、実空間画像に含まれる実オブジェクトに対応する仮想オブジェクトを実空間画像に重畳してディスプレイ26に表示することができる。
【0017】
例えば、実オブジェクトが図1に示したような駅案内板40である場合、携帯端末20は、駅案内板40を含む実空間画像を撮像することにより、駅案内板40に対応する仮想オブジェクトが重畳されたリアルタイム認識画面をディスプレイ26に表示することが可能である。以下、図2を参照し、リアルタイム認識画面についてより具体的に説明する。
【0018】
図2は、リアルタイム認識画面の具体例を示した説明図である。図2に示したように、リアルタイム認識画面Pは、実オブジェクトである駅案内板40、及び駅案内板40に重畳された仮想オブジェクトであるタイムテーブル52の表示を含む。ユーザは、このような仮想オブジェクトが重畳されたリアルタイム認識画面を視認することにより、実空間からは得られない情報(図2の場合、駅案内板40で案内されていない電車の発着時刻に関する情報)を把握することができる。
【0019】
さらに、ユーザは、表示画面において所定の操作を行うことにより、リアルタイム認識画面に含まれる仮想オブジェクトの表示を変化させることが可能である。例えば、携帯端末20は、図2に示したリアルタイム認識画像Pにおいてユーザにより上下方向のスライド操作が行われた場合、タイムテーブル52内の表示対象を上下方向にスライドさせてもよい。
【0020】
また、1つの実オブジェクトに複数の仮想オブジェクトが対応付けられている場合、携帯端末20は、ユーザ操作に応じて複数の仮想オブジェクトのうちで表示する仮想オブジェクトを切り替えてもよい。例えば、携帯端末20は、図2に示したリアルタイム認識画面Pにおいてユーザにより左右方向のスライド操作が行われた場合、駅案内板40に重畳する仮想オブジェクトを周辺マップや路線図に切り替えてもよい。
【0021】
なお、図1においては、携帯端末20の一例としてスマートフォンを示したが、携帯端末20はスマートフォンに限定されない。例えば、携帯端末20は、PDA(Personal Digital Assistants)、携帯電話、携帯用音楽再生装置、携帯用映像処理装置、または携帯用ゲーム機器であってもよい。さらに、携帯端末20は表示制御装置の一例に過ぎず、表示制御装置はネットワーク側に設けられるサーバであってもよい。
【0022】
また、図1および図2においては、実オブジェクトの一例として駅案内板40を示したが、実オブジェクトは駅案内板40に限定されない。例えば、実オブジェクトは、看板、ビル、乗り物、食品、または玩具などの物体や、QRコードやARマーカーのような識別パターンであってもよい。
【0023】
ところで、上述した仮想オブジェクトを実空間画像に重畳するARアプリケーションは、撮像される実空間画像をリアルタイムで認識することにより実行される場合が多い。このため、ユーザは、携帯端末20の撮像方向を実オブジェクトに向け続けることにより、実空間画像に仮想オブジェクトが重畳されたリアルタイム認識画面を維持することができる。しかし、携帯端末20の撮像方向を実オブジェクトに向け続けることはユーザにとって煩雑である。また、携帯端末20の撮像方向を実オブジェクトに向けた状態では、仮想オブジェクトの表示を変化させるための操作を行い難い。
【0024】
そこで、上記事情を一着眼点にして本開示の実施形態を創作するに至った。本開示の実施形態によれば、携帯端末20の使用感および操作性を向上することが可能である。以下、図3を参照してこのような携帯端末20のハードウェア構成を説明した後、本開示の各実施形態について順次詳細に説明する。
【0025】
(携帯端末のハードウェア構成)
図3は、携帯端末20のハードウェア構成を示した説明図である。図3に示したように、携帯端末20は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、入力装置208と、出力装置210と、ストレージ装置211と、ドライブ212と、撮像装置213と、通信装置215とを備える。
【0026】
CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って無線通信装置20内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。
【0027】
入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。携帯端末20のユーザは、該入力装置208を操作することにより、携帯端末20に対して各種のデータを入力したり処理動作を指示したりすることができる。
【0028】
出力装置210は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データ等を音声に変換して出力する。
【0029】
ストレージ装置211は、本実施形態にかかる携帯端末20の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置211は、CPU201が実行するプログラムや各種データを格納する。
【0030】
ドライブ212は、記憶媒体用リーダライタであり、携帯端末20に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。
【0031】
撮像装置213は、光を集光する撮影レンズおよびズームレンズなどの撮像光学系、およびCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの信号変換素子を備える。撮像光学系は、被写体から発せられる光を集光して信号変換部に被写体像を形成し、信号変換素子は、形成された被写体像を電気的な画像信号に変換する。
【0032】
通信装置215は、例えば、ネットワーク12に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置215は、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
【0033】
なお、ネットワーク12は、ネットワーク12に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク12は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク12は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
【0034】
<<2.各実施形態の説明>>
以上、図1〜図3を参照し、本開示によるARシステムの基本構成を説明した。以下、図4〜図15を参照し、本開示による第1の実施形態〜第4の実施形態について詳細に説明する。
【0035】
<2−1.第1の実施形態>
(携帯端末の構成)
図4は、第1の実施形態による携帯端末20−1の構成を示した機能ブロック図である。図4に示したように、第1の実施形態による携帯端末20−1は、ディスプレイ26と、タッチパネル27と、撮像装置213と、特徴量DB220と、画像認識部224と、仮想オブジェクトDB228と、仮想オブジェクト取得部232と、制御部241と、を備える。
【0036】
ディスプレイ26は、LCDまたはOLEDなどにより構成される表示モジュールである。ディスプレイ26は、制御部241による制御に従って多様な画面を表示する。例えば、ディスプレイ26は、撮像装置213により撮像中の実空間の動画を含むリアルタイム認識画面、または実空間の静止画および当該静止画に含まれる実オブジェクトに対応する仮想オブジェクトの合成画である静止画操作画面などを表示する。ただし、リアルタイム認識画面は、実空間の動画を含む実空間動画の一例に過ぎず、実空間動画は、過去に撮像された実空間の動画を含んでもよい。
【0037】
また、図4においてはディスプレイ26が携帯端末20−1の一部として実装される例を示したが、ディスプレイ26は、携帯端末20−1とは別体に構成されてもよい。また、ディスプレイ26は、ユーザの頭部に装着されるHMD(Head Mounted Display)であってもよい。
【0038】
タッチパネル27は、ディスプレイ26に積層される操作検出部である。タッチパネル27は、ユーザの指やタッチペンなどの操作体の近接または接触を検出することができる。なお、タッチパネル27は操作検出部の一例に過ぎず、携帯端末20−1は、キーボードおよびボタンなどの他の操作用の構成を含んでもよい。
【0039】
撮像装置213は、図3を参照して説明したように、撮像光学系および信号変換素子を備え、制御部241による制御に従って実空間画像(動画または静止画)を撮像する。なお、撮像装置213は、動画撮像用の構成と、静止画撮像用の構成を別個に備えてもよい。
【0040】
特徴量DB220は、実オブジェクトの画像の特徴量データを記憶するデータベースである。具体的には、特徴量DB220においては、各実オブジェクトを識別するための識別情報と、各実オブジェクトの特徴量データが関連付けられる。特徴量データは、例えば、SIFT法またはRandom Ferns法に従って実オブジェクトの学習用画像から決定された特徴量の集合であってもよい。
【0041】
画像認識部224は、撮像装置213により撮像された実空間画像に含まれる実オブジェクト、および当該実オブジェクトの実空間画像における位置および姿勢を認識する。例えば、画像認識部224は、実空間画像から決定される特徴量をデータベース220に記憶されている各実オブジェクトの特徴量と照合することにより、実空間画像に含まれる実オブジェクトを認識する。より具体的には、画像認識部224は、SIFT法またはRandom Ferns法などの特徴量決定法に従って実空間画像内の実オブジェクトの特徴量を決定し、決定した特徴量をデータベース220に記憶されている各実オブジェクトの特徴量と照合する。そして、画像認識部224は、実空間画像内の実オブジェクトの特徴量と最も適合する特徴量と関連付けられている実オブジェクトの識別情報、実空間画像における位置および姿勢を認識する。
【0042】
なお、画像認識部224は、既知の図形若しくは記号、人工マーカ(例えば、バーコード若しくはQRコード)又は自然マーカなどの実オブジェクトを認識し、当該実オブジェクトの実空間画像におけるサイズおよび形状から当該実オブジェクトの位置及び姿勢を認識してもよい。
【0043】
また、上記では、実空間画像に含まれる実オブジェクトを画像処理により認識する例を説明したが、実オブジェクトの認識方法は画像処理に限定されない。例えば、撮像装置213が向けられている方向、および携帯端末20−1の現在位置を検出し、検出結果に基づいて実空間画像に含まれている実オブジェクト、実空間画像における当該実オブジェクトの位置および姿勢を推定することも可能である。
【0044】
仮想オブジェクトDB228は、実オブジェクトに重畳するための仮想オブジェクトを記憶するデータベースである。具体的には、仮想オブジェクトDB228においては、仮想オブジェクトの識別情報、実オブジェクトの識別情報、実オブジェクトからの相対的な表示位置や姿勢を示す設定情報、およびユーザに呈示される仮想オブジェクトが関連付けられる。仮想オブジェクトは、テキスト形式であってもよいし、イメージ形式であってもよい。
【0045】
仮想オブジェクト取得部232は、画像認識部224により認識された実オブジェクトに対応する仮想オブジェクトおよび設定情報を取得する。例えば、仮想オブジェクト取得部232は、画像認識部224により認識された実オブジェクトの識別情報に関連付けられている仮想オブジェクトおよび設定情報を仮想オブジェクトDB228から取得する。
【0046】
制御部241は、携帯端末20−1の動作全般を制御する。例えば、制御部241は、所定の遷移基準に従い、リアルタイム認識モードおよび静止画操作モードを含む複数の動作モードのうちで携帯端末20−1の動作モードを遷移させる。
【0047】
リアルタイム認識モードは、撮像装置213により撮像される実空間の動画に含まれる実オブジェクトをリアルタイムで認識し、実オブジェクトに仮想オブジェクトを重畳してリアルタイム認識画面を生成する動作モードである。一方、静止画操作モードは、撮像装置213により撮像された静止画に仮想オブジェクトを重畳して静止画操作画面を生成する動作モードである。なお、制御部241は、いずれの動作モードにおいても仮想オブジェクトの表示をユーザ操作に基づいて変化させることができる。具体的には、制御部241は、ユーザ操作に基づいて仮想オブジェクトの移動、拡大/縮小やスクロールなどを行うことが可能である。静止画操作モードにおける上記静止画は、動画撮像用の構成により撮像される動画を構成する1フレームであってもよく、または静止画撮像用の構成により撮像される静止画であってもよい。また、上記静止画は、撮像される複数の静止画から合成される1つの静止画であってもよい。例えば、携帯端末20−1が複数の静止画から拡大された静止画を合成する機能(撮像装置の向きを変えながら撮像した複数の静止画から1枚のパノラマ写真を合成するいわゆるスイングパノラマ機能など)を有する場合には、携帯端末20−1は、静止画操作モードにおいて、拡大された1枚の静止画に仮想オブジェクトを重畳することができる。その場合、ユーザ操作もまた、拡大された1枚の静止画上で行われ得る。また、携帯端末20−1は、初期の静止画操作画面では最後に撮像された静止画を表示し、ユーザ操作が撮像装置の動きを遡る方向を指示している場合(スイングの向きとは反対方向へのドラッグなど)に、表示中の静止画に加えて(空間的に隣接した)過去の静止画を画角を拡げるような形でさらに表示してもよい。その場合、ユーザ操作に応じて、仮想オブジェクトを最後に撮像された静止画の領域から過去の静止画の領域へ動かすことも可能となる。このような拡大された静止画の合成は、各画像の内容の解析に基づいて行われてもよく、または各画像の撮像の際にセンサにより計測される撮像装置の位置及び姿勢に基づいて行われてもよい。
【0048】
(リアルタイム認識画面および静止画操作画面の構成例)
ここで、図5を参照し、リアルタイム認識画面および静止画操作画面の具体的構成を説明する。図5に示したように、リアルタイム認識モードにおいて生成されるリアルタイム認識画面P1は、実オブジェクトである駅案内板40、および駅案内板40に重畳された仮想オブジェクトであるタイムテーブル52の表示を含む。ユーザは、リアルタイム認識画面P1を維持するためには、図5に示したように携帯端末20−1の撮像方向を駅案内板40に向け続ける必要がある。
【0049】
一方、静止画操作モードにおいて生成される静止画操作画面P2は、実オブジェクトである駅案内板40、駅案内板40に重畳された仮想オブジェクトであるタイムテーブル52の表示、タブ「Time Table」62、タブ「Area Map」64、およびリターンキー66を含む。
【0050】
制御部241は、タブ「Time Table」62、またはタブ「Area Map」64などに対するユーザ操作に応じて表示する仮想オブジェクトを変化させる。例えば、制御部241は、ユーザによりタブ「Area Map」64が選択されると、駅案内板40に重畳する仮想オブジェクトをタイムテーブル52から周辺マップに変化させる。
【0051】
この静止画操作モードにおいては、図5に示したようにユーザが携帯端末20−1の撮像方向を実オブジェクトに向けていなくても、仮想オブジェクトを含む静止画操作画面P2を表示することができる。このため、ユーザによる携帯端末20−1の使用感、および仮想オブジェクトの表示の操作性を向上することが可能である。
【0052】
なお、リターンキー66は遷移操作ボタンの一例であり、制御部241は、例えばユーザによりリターンキー66が選択されると、動作モードを静止画操作モードからリアルタイム認識モードに遷移させる。
【0053】
図6は、静止画操作画面の変形例を示した説明図である。変形例による静止画操作画面P3は、複数のサムネイル(S1、S2、S3、・・・)、リターンキー66および各サムネイルの付加情報68を含む。制御部241は、この静止画操作画面P3においてサムネイルの選択操作を受け付け、選択されたサムネイルをメインに表示することが可能である。なお、この複数のサムネイルは、リアルタイム認識モードにおいて得られた動画を構成する複数のフレームであってもよい。また、各サムネイルは、図6に示したように、実空間の静止画と仮想オブジェクトの合成画であってもよいし、仮想オブジェクトを含まない実空間の静止画であってもよい。
【0054】
(動作モードの遷移基準)
続いて、制御部241が動作モードを遷移するか否かを判断するための遷移基準について説明する。
【0055】
まず、リアルタイム認識モードから静止画動作モードへの動作モードの遷移基準は、以下の基準のいずれか、または以下の基準の組合せであってもよい。
(1−1)リアルタイム認識モードにおいて画像認識部224により実オブジェクトが認識されたこと。
(1−2)ユーザの指のような操作体がタッチパネル27に接触したこと。
(1−3)操作体がタッチパネル27から離隔したこと。
(1−4)操作体のタッチパネル27への接触または離隔が、実オブジェクトの判定領域内で検出されたこと。
【0056】
したがって、制御部241は、例えば、画像認識部224により実オブジェクトが認識されており、かつ、操作体のタッチパネル27への接触が実オブジェクトの判定領域内で検出された場合に動作モードを静止画動作モードに遷移させてもよい。なお、実オブジェクトの判定領域に関して補足すると、実オブジェクトの判定領域は、実オブジェクトの認識領域に関連する領域であって、実オブジェクトの認識領域を含む領域、または実オブジェクトの認識領域の一部の領域であってもよい。制御部241は、実オブジェクトの判定領域内をユーザにより操作されると、実オブジェクトの認識領域外であっても実オブジェクトが選択されたと判定する。
【0057】
なお、制御部241は、静止画動作モードへの遷移基準が満たされた時点で得られた実空間画像を静止画操作画面の静止画として用いてもよいし、静止画動作モードへの遷移基準が満たされた後に得られた実空間画像を静止画操作画面の静止画として用いてもよい。後者の場合、制御部241は、撮像装置213に静止画撮像用の構成を用いて静止画を撮像することを指示してもよい。
【0058】
次に、静止画動作モードからリアルタイム認識モードへの動作モードの遷移基準は、以下の基準のいずれか、または以下の基準の組合せであってもよい。
(2−1)ユーザの指のような操作体がタッチパネル27に接触したこと。
(2−2)操作体がタッチパネル27から離隔したこと。
(2−3)操作体のタッチパネル27への接触または離隔が、実オブジェクトの判定領域外で検出されたこと。
(2−4)リターンキー66が選択されたこと。
【0059】
したがって、制御部241は、例えば、操作体のタッチパネル27への接触が実オブジェクトの判定領域外で検出された場合に動作モードをリアルタイム認識モードに遷移させてもよい。
【0060】
以上説明したように、第1の実施形態による携帯端末20−1は静止画操作モードを有するので、ユーザが携帯端末20−1の撮像方向を実オブジェクトに向け続けなくても、実空間の静止画に仮想オブジェクトが重畳された静止画操作画面をディスプレイ26に表示させることができる。このため、ユーザによる携帯端末20−1の使用感、および仮想オブジェクトの表示の操作性を向上することが可能である。
【0061】
(携帯端末の動作)
続いて、図7および図8を参照し、第1の実施形態による携帯端末20−1の動作を説明する。図7および図8に示すように、携帯端末20−1は、認識処理プロセスおよびユーザIF系プロセスを並列的に実行することが可能である。
【0062】
図7は、リアルタイム認識モードにおける携帯端末20−1の動作を示したフローチャートである。図7に示したように、リアルタイム認識モードにおいては、まず、撮像装置213から入力される実空間画像が更新されたか否かを画像認識部224が判断する(S
304)。そして、画像認識部224は、実空間画像が更新された場合、実空間画像に含まれる実オブジェクトの認識、および実オブジェクトの姿勢認識を試みる(S308)。S308において実オブジェクトが認識された場合、実オブジェクトに対応する仮想オブジェクトを仮想オブジェクト取得部232が仮想オブジェクトDB228から取得し、仮想オブジェクト取得部232により取得された仮想オブジェクトの表示を制御部241が生成する(S316)。なお、実空間画像が更新されていないと判断された場合(S304/no)、S308において実オブジェクトが認識されなかった場合(S312/no)、またはS316の処理の後には、S304からの処理が繰り返される。
【0063】
一方、S304において実空間画像が更新されたと判断された場合、制御部241は、リアルタイム認識画面における実空間画像を更新する(S404)。また、制御部241は、S316において仮想オブジェクトの表示が生成されると、リアルタイム認識画面における仮想オブジェクトの表示を更新する(S408)。そして、制御部241は、静止画操作モードへの遷移基準が満たされた場合、携帯端末20−1の動作モードを静止画操作モードへ遷移させる(S412)。
【0064】
図8は、静止画操作モードにおける携帯端末20−1の動作を示したフローチャートである。図8に示したように、静止画操作モードにおいては、まず、制御部241が静止画を取得し(S320)、当該静止画に関してS308において認識された実オブジェクトの姿勢情報を読み出す(S324)。なお、静止画操作画面のために新たに静止画が撮像される場合、この新たな静止画に含まれる実オブジェクトの姿勢の認識が行われる。続いて、制御部241は、仮想オブジェクト取得部232により取得される実オブジェクトに対応する仮想オブジェクトの表示を生成する(S328)。
【0065】
一方、S320において静止画が取得された場合(S420)、制御部241は、当該静止画をディスプレイ26に表示する(S424)。また、制御部241は、S328において生成した仮想オブジェクトの表示をディスプレイ26に表示する(S428)。そして、制御部241は、リアルタイム認識モードへの遷移基準が満たされた場合、携帯端末20−1の動作モードをリアルタイム認識モードへ遷移させる(S432)。一方、制御部241は、モード遷移を指示する操作でないユーザ操作が検出された場合、ユーザ操作の内容に応じてアプリケーションの内部状態を変更し(S436)、S424からの処理を繰り返す。
【0066】
<2−2.第2の実施形態>
以上、本開示の第1の実施形態を説明した。続いて、本開示の第2の実施形態を説明する。第1の実施形態では、動作モードの遷移基準としてユーザの指とタッチパネル26との接触または離隔などの明示的な操作を説明したが、第2の実施形態では、さらなる動作モードの遷移基準を提案する。
【0067】
図9は、第2の実施形態による携帯端末20−2の構成を示した機能ブロック図である。図9に示したように、第2の実施形態による携帯端末20−2は、ディスプレイ26と、タッチパネル27と、モーションセンサ28と、撮像装置213と、特徴量DB220と、画像認識部224と、仮想オブジェクトDB228と、仮想オブジェクト取得部232と、制御部242と、を備える。ディスプレイ26、タッチパネル27、撮像装置213、特徴量DB220、画像認識部224、仮想オブジェクトDB228、および仮想オブジェクト取得部232の機能は第1の実施形態で説明した通りであるので、以下では、第1の実施形態と異なる構成について主に説明する。
【0068】
モーションセンサ28は、携帯端末20−2の動きを検出する動きセンサである。モーションセンサ28は、例えば、各々直交するX軸方向、Y軸方向、およびZ軸方向の加速度(Gx、Gy、Gz)を検出する。なお、モーションセンサ28の検出対象は3次元の加速度に限られない。例えば、撮像装置213とモーションセンサ28の位置関係が既知である場合、モーションセンサ28の検出対象は1次元または2次元の加速度であってもよい。また、このようなモーションセンサ28はジャイロセンサであってもよい。
【0069】
制御部242は、第1の実施形態による制御部241の機能の全部または一部に加え、モーションセンサ28による動き検出結果に基づいて動作モードの遷移を制御する機能を有する。以下、この点について具体的に説明する。
【0070】
実際のユースケースでは、ユーザは、リアルタイム認識モードにおいては図5の左部に示したように携帯端末20−2を実オブジェクトに向けて掲げることが想定される。一方、ユーザは、静止画操作モードにおいては図5の右部に示したようにユーザの下向きの視線に正対するように携帯端末20−2を持つことが想定される。すなわち、リアルタイム認識モードにおける携帯端末20−2の位置および姿勢と、静止画操作モードにおける携帯端末20−2の位置および姿勢とは異なると考えられる。
【0071】
このような観点から、第2の実施形態では、モード遷移に際してユーザにより携帯端末20−2に与えられるだろう動きをモード遷移操作として捉えることとし、制御部242は、モーションセンサ28による動き検出結果に基づいて携帯端末20−2の動作モードを遷移させる。
【0072】
例えば、制御部242は、モーションセンサ28による動き検出結果(Gx、Gy、Gz)の各振幅成分が所定時間内に設定値を上回って変化した場合、携帯端末20−2の動作モードを遷移させてもよい。
【0073】
または、制御部242は、モーションセンサ28により第1の動きパターンが検出された場合に動作モードをリアルタイム認識モードから静止画操作モードに遷移させ、第1の動きパターンと異なる第2の動きパターンが検出された場合に動作モードを静止画操作モードからリアルタイム認識モードに遷移させてもよい。ここで、第1の動きパターンは、実際のユースケースに則するように、携帯端末20−2が掲げられた状態からユーザの下向きの視線に正対する状態へ動かされるパターンであってもよい。また、第2の動きパターンは、実際のユースケースに則するように、第1の動きパターンとは逆の動きパターンであってもよい。
【0074】
ただし、遷移基準となる動きパターンは上記の例に限定されず、多様な動きパターンを遷移基準として規定することが可能である。例えば、携帯端末20−2を揺らす動きパターン、回転させる動きパターンなど、多様な動きパターンが遷移基準として規定され得る。
【0075】
また、制御部242は、上述の動きに関する遷移基準と第1の実施形態で説明した遷移基準の論理積または論理和に従って動作モードの遷移を制御してもよい。例えば、制御部242は、ユーザの指がタッチパネル27に接触し(1−2)、かつ、モーションセンサ28により第1の動きパターンが検出された場合に動作モードを静止画動作モードに遷移させてもよい。同様に、制御部242は、ユーザの指がタッチパネル27に接触し(2−1)、かつ、モーションセンサ28により第2の動きパターンが検出された場合に動作モードをリアルタイム認識モードに遷移させてもよい。
【0076】
以上説明したように、第2の実施形態によれば、モード遷移に際してユーザにより携帯端末20−2に与えられるだろう動きを遷移基準として用いることにより、モード遷移のためのユーザ操作の負荷を軽減することが可能である。
【0077】
(補足)
なお、モーションセンサ28により遷移基準を満たす動きが検出された時点で撮像された実空間画像には、ユーザの興味対象の実オブジェクトが含まれていない場合が考えられる。そこで、第2の実施形態による携帯端末20−2は、過去の所定期間に撮像された実空間画像を保持しておき、制御部242は、モーションセンサ28により遷移基準を満たす動きが検出される前の実空間画像を静止画操作画面のための静止画として用いてもよい。特に、動きパターンの開示時の実空間画像を静止画操作画面のための静止画として用いることが効果的である。
【0078】
<2−3.第3の実施形態>
以上、本開示の第2の実施形態を説明した。続いて、本開示の第3の実施形態を説明する。本開示の第3の実施形態では、静止画操作画面により品質の高い静止画を用いるための構成を提案する。
【0079】
図10は、第3の実施形態による携帯端末20−3の構成を示した機能ブロック図である。図10に示したように、第3の実施形態による携帯端末20−3は、ディスプレイ26と、タッチパネル27と、モーションセンサ28と、撮像装置213と、特徴量DB220と、画像認識部224と、仮想オブジェクトDB228と、仮想オブジェクト取得部232と、制御部243と、ブレ測定部250と、を備える。ディスプレイ26、タッチパネル27、モーションセンサ28、撮像装置213、特徴量DB220、画像認識部224、仮想オブジェクトDB228、および仮想オブジェクト取得部232の機能は第2の実施形態で説明した通りであるので、以下では、第2の実施形態と異なる構成について主に説明する。
【0080】
ブレ測定部250は、リアルタイム認識モードにおいて撮像装置213により撮像される実空間の動画をバッファリングし、リアルタイム認識モードから静止画操作モードへの遷移時に、過去Nフレームの各々のブレ量を検出する品質測定部である。ブレ測定部250は、例えば各フレームの画像データを離散コサイン変換により周波数成分に変換し、画像データの周波数成分から各フレームのブレ量を測定してもよい。
【0081】
制御部243は、第2の実施形態による制御部242の機能の全部または一部に加え、静止画操作画面のための静止画の選択機能を有する。例えば、制御部243は、ブレ測定部250による測定結果に基づき、過去Nフレームのうちから最もブレ量の少ない1つのフレームを選択し、選択したフレームを静止画操作画面のための静止画として用いる。かかる構成により、静止画操作画面において品質の良好な静止画を表示することが可能となる。
【0082】
なお、携帯端末20−3は、画像認識部224により各フレームに関して認識された実オブジェクト、および実オブジェクトの姿勢を各フレームの認識結果として保持しておき、制御部243は、選択したフレームに関して保持されている認識結果を用いて静止画操作画面を生成してもよい。
【0083】
<2−4.第4の実施形態>
以上、本開示の第3の実施形態を説明した。続いて、本開示の第4の実施形態を説明する。第1の〜第3の実施形態では携帯端末が単独でARを実現する例を説明したが、本開示の第4の実施形態のように、携帯端末とネットワーク側に配置されたサーバとが共同してARを実現することも可能である。
【0084】
図11は、第4の実施形態によるARシステムを示した説明図である。図11に示したように、第4の実施形態によるARシステムは、携帯端末20−4と、ネットワーク12と、ARサーバ30と、実オブジェクトの一例である駅案内板40を含む。以下、図12を参照し、携帯端末20−4およびARサーバ30の構成を具体的に説明する。
【0085】
図12は、第4の実施形態による携帯端末20−4およびARサーバ30の構成を示した機能ブロック図である。図12に示したように、第4の実施形態による携帯端末20−4は、ディスプレイ26と、タッチパネル27と、モーションセンサ28と、撮像装置213と、特徴量DB220と、画像認識部224と、制御部244と、通信部260と、を備える。ディスプレイ26、タッチパネル27、モーションセンサ28、撮像装置213、特徴量DB220、および画像認識部224については第1〜第3の実施形態で説明した通りであるので、以下では第1〜第3の実施形態と異なる構成について主に説明する。
【0086】
通信部260は、ARサーバ30とのインタフェースであって、ARサーバ30へ情報を送信する送信部、およびARサーバ30から情報を受信する受信部として機能する。通信部260は、例えば、画像認識部224により認識された実オブジェクトに対応する仮想オブジェクトの送信をARサーバ30に要求する。このとき、通信部260は、画像認識部224により認識された実オブジェクトの識別情報をARサーバ30に送信してもよい。そして、通信部260は、上記要求に応じてARサーバ30から送信される仮想オブジェクトを受信する。
【0087】
制御部244は、第2の実施形態による制御部242の機能の全部または一部に加え、通信部260により受信された仮想オブジェクトを静止画に重畳して静止画操作画面を生成する機能を有する。
【0088】
一方、ARサーバ30は、図12に示したように、仮想オブジェクト取得部332と、仮想オブジェクトDB328と、通信部360と、を備える。
【0089】
仮想オブジェクトDB338は、実オブジェクトに重畳するための仮想オブジェクトを記憶するデータベースである。具体的には、仮想オブジェクトDB328においては、仮想オブジェクトの識別情報、実オブジェクトの識別情報、実オブジェクトからの相対的な表示位置や姿勢を示す設定情報、およびユーザに呈示される仮想オブジェクトが関連付けられる。仮想オブジェクトは、テキスト形式であってもよいし、イメージ形式であってもよい。
【0090】
仮想オブジェクト取得部332は、通信部360により受信される実オブジェクトの識別情報に関連付けられている仮想オブジェクトおよび設定情報を仮想オブジェクトDB328から取得する。
【0091】
通信部360は、携帯端末20−4とのインタフェースであって、携帯端末20−4へ情報を送信する送信部、および携帯端末20−4から情報を受信する受信部として機能する。例えば、通信部360は、携帯端末20−4から仮想オブジェクトの送信要求として実オブジェクトの識別情報を受信し、仮想オブジェクト取得部332により取得された仮想オブジェクトおよび設定情報を携帯端末20−4に送信する。
【0092】
以上説明したように、第4の実施形態によれば、ARのための機能の一部をARサーバ30に実装することによりクラウドコンピューティングを実現することができる。なお、第4の実施形態では仮想オブジェクトDB、および仮想オブジェクト取得部の機能をARサーバ30に実装する例を説明したが、ARサーバ30に実装する機能はかかる例に限定されない。例えば、画像認識部および特徴量DBの機能もARサーバ30に実装してもよい。この場合、携帯端末20−4は、撮像装置213により撮像された画像をARサーバ30に送信し、ARサーバ30が、実オブジェクトの認識および仮想オブジェクトの取得を行い、仮想オブジェクトを携帯端末20−4に送信する。
【0093】
さらに、リアルタイム認識画面および静止画操作画面の生成機能をARサーバ30に実装してもよい。この場合、携帯端末20−4は、撮像装置214により撮像された画像をARサーバ30に送信し、ARサーバ30が、実オブジェクトの認識、仮想オブジェクトの取得、および仮想オブジェクトの重畳を行い、仮想オブジェクトが重畳されたリアルタイム認識画面または静止画操作画面を携帯端末20−4に送信してもよい。このようにリアルタイム認識画面および静止画操作画面の生成機能をARサーバ30に実装する場合、ARサーバ30が表示制御装置として機能することとなる。
【0094】
ところで、上記のようなARシステムにおいて、携帯端末20−4が静止画操作モードに遷移する時点でARサーバ30に仮想オブジェクトの送信を要求すると、仮想オブジェクトを受信して表示するまでの待ち時間の発生が懸念される。この点に鑑み、第4の実施形態による携帯端末20−4は、静止画操作モードへの遷移基準が満たされる予兆がある場合に、静止画操作モードへの遷移基準が満たされる前に仮想オブジェクトの送信をARサーバ30に要求する。以下、図13〜図15を参照して具体的に説明する。
【0095】
(第1の動作例)
図13は、第4の実施形態の第1の動作例を示したシーケンス図である。なお、第1の動作例では、リアルタイム認識モードから静止画操作モードへの遷移基準が、ユーザがタッチパネル27をタップしたこと、すなわち、ユーザの指がタッチパネル27に接触した後にタッチパネル27から離隔したことである場合を考える。
【0096】
図13に示したように、リアルタイム認識モードにおいてユーザの指とタッチパネル27との接触が検出された場合(S504)、通信部260は、静止画操作モードへの遷移に先立って仮想オブジェクトの送信をARサーバ30に要求する(S508)。
【0097】
ARサーバ30の仮想オブジェクト取得部332は、携帯端末20−4からの要求に従って仮想オブジェクトDB328から仮想オブジェクトを取得し(S512)、仮想オブジェクト取得部332により取得された仮想オブジェクトを通信部360が携帯端末20−4に送信する(S516)。
【0098】
その後、携帯端末20−4の制御部244は、ユーザの指とタッチパネル27との離隔が検出された場合(S520)、静止画操作モードに遷移して仮想オブジェクトを含む静止画操作画面をディスプレイ26に表示する(S524)。
【0099】
このように、携帯端末20−4は、静止画操作モードへの遷移のためのユーザ操作の一部が検出された場合、静止画操作モードへの遷移に先立って仮想オブジェクトの送信を要求する。かかる構成により、静止画操作モードへの遷移時に円滑に静止画操作画面を表示することが可能となる。なお、制御部244は、当該動作例を適用しても静止画操作画面の表示のための待ち時間が発生する場合、ディスプレイにLoding表示を行ってもよい。
【0100】
(第2の動作例)
図14は、第4の実施形態の第2の動作例を示したシーケンス図である。なお、第2の動作例では、リアルタイム認識モードから静止画操作モードへの遷移基準が、リアルタイム認識モードにおいて画像認識部224により実オブジェクトが認識されたこと、かつ、ユーザがタッチパネル27をタップしたことである場合を考える。
【0101】
図14に示したように、リアルタイム認識モードにおいて画像認識部224により実オブジェクトが認識された場合(S604)、通信部260は、静止画操作モードへの遷移に先立って仮想オブジェクトの送信をARサーバ30に要求する(S608)。
【0102】
ARサーバ30の仮想オブジェクト取得部332は、携帯端末20−4からの要求に従って仮想オブジェクトDB328から仮想オブジェクトを取得し(S612)、仮想オブジェクト取得部332により取得された仮想オブジェクトを通信部360が携帯端末20−4に送信する(S616)。
【0103】
その後、携帯端末20−4の制御部244は、ユーザによりタッチパネル27がタップされた場合(S620)、静止画操作モードに遷移して仮想オブジェクトを含む静止画操作画面をディスプレイ26に表示する(S624)。
【0104】
このように、携帯端末20−4は、静止画操作モードへの遷移のための一部の遷移基準が満たされた場合、静止画操作モードへの遷移に先立って仮想オブジェクトの送信を要求する。かかる構成により、第1の動作例と同様に、静止画操作モードへの遷移時に円滑に静止画操作画面を表示することが可能となる。
【0105】
(第3の動作例)
図15は、第4の実施形態の第3の動作例を示したシーケンス図である。なお、第3の動作例では、リアルタイム認識モードから静止画操作モードへの遷移基準が、ユーザの指がタッチパネルに接触し、かつ、携帯端末20−4の姿勢変化が検出されたことである場合を考える。
【0106】
図15に示したように、ユーザの指とタッチパネル27との接触が検出された場合(S704)、通信部260は、静止画操作モードへの遷移に先立って仮想オブジェクトの送信をARサーバ30に要求する(S708)。
【0107】
ARサーバ30の仮想オブジェクト取得部332は、携帯端末20−4からの要求に従って仮想オブジェクトDB328から仮想オブジェクトを取得し(S712)、仮想オブジェクト取得部332により取得された仮想オブジェクトを通信部360が携帯端末20−4に送信する(S716)。
【0108】
その後、携帯端末20−4の制御部244は、モーションセンサ28により携帯端末20−4の姿勢変化(所定の動きパターン)が検出された場合(S720)、静止画操作モードに遷移して仮想オブジェクトを含む静止画操作画面をディスプレイ26に表示する(S724)。
【0109】
このような第3の動作例においても、第2の動作例と同様に、静止画操作モードへの遷移時に円滑に静止画操作画面を表示することが可能となる。
【0110】
<<3.むすび>>
以上説明したように、本開示による携帯端末20は静止画操作モードを有するので、ユーザが携帯端末20の撮像方向を実オブジェクトに向け続けなくても、実空間の静止画に仮想オブジェクトが重畳された静止画操作画面をディスプレイ26に表示させることができる。このため、ユーザによる携帯端末20の使用感、および仮想オブジェクトの表示の操作性を向上することが可能である。
【0111】
なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
【0112】
例えば、上記では、静止画操作モードへの遷移のトリガとなるユーザ操作の検出例として、タッチパネル27によって検出されるタッチパネル27への操作、モーションセンサ28によって検出される携帯端末20の動きを説明したが、ユーザ操作はかかる例に限定されない。他のユーザ操作の検出例として、ユーザのジェスチャ認識が挙げられる。ユーザのジェスチャは、撮像装置213により取得される画像に基づいて認識することも、他の撮像系により取得される画像に基づいて認識することも可能である。なお、撮像装置213または他の撮像系は、赤外線カメラ、Depthカメラなどの機能によりユーザのジェスチャを撮像してもよい。
【0113】
また、上記実施形態では、表示制御装置が携帯端末20である例を主に説明したが、表示制御装置は、TVやディスプレイ装置など、携帯端末20より比較的大きめの装置であってもよい。例えば、表示制御装置側からユーザを撮像する撮像系を表示制御装置に接続しまたは内蔵した上でユーザの全身を映すことのできる大型のディスプレイを利用することにより、ユーザ自身を映す鏡のような機能を構成し、ユーザ自身に仮想オブジェクトを重畳して当該仮想オブジェクトを操作させるようなARアプリケーションを実現することも可能である。
【0114】
また、本明細書の携帯端末20、またはARサーバ30の処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、携帯端末20、またはARサーバ30の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
【0115】
また、携帯端末20、またはARサーバ30に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した携帯端末20、またはARサーバ30の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
【0116】
また、以下のような構成も本開示の技術的範囲に属する。
(1)
実空間の動画を含む実空間動画と、実空間の静止画および前記静止画に含まれる実オブジェクトに対応する仮想オブジェクトを含む合成画と、の間で表示装置の表示を遷移させる制御部を備える、表示制御装置。
(2)
前記実空間動画は、撮像装置により撮像中の実空間の動画を含む、(1)に記載の表示制御装置。
(3)
前記合成画に含まれる前記仮想オブジェクトの表示はユーザ操作により変化する、(1)または(2)に記載の表示制御装置。
(4)
前記表示制御装置は、前記実空間動画において前記実オブジェクトを認識する認識部をさらに備え、
前記制御部は、前記認識部により前記実オブジェクトが認識された場合に前記表示装置の表示を前記実空間動画から前記合成画に遷移させる、(1)〜(3)のいずれか一項に記載の表示制御装置。
(5)
前記表示制御装置は、ユーザ操作を検出する操作検出部をさらに備え、
前記制御部は、前記操作検出部により所定のユーザ操作が検出された場合に前記表示装置の表示を遷移させる、(1)〜(4)のいずれか一項に記載の表示制御装置。
(6)
前記操作検出部は、前記表示装置上に配置されるタッチパネルに対する前記所定のユーザ操作を検出する、(5)に記載の表示制御装置。
(7)
前記制御部は、前記タッチパネルに対する前記実オブジェクトの判定領域におけるユーザ操作が検出された場合、前記表示装置の表示を前記実空間動画から前記合成画に遷移させる、(6)に記載の表示制御装置。
(8)
前記制御部は、前記タッチパネルに対する前記実オブジェクトの判定領域以外におけるユーザ操作が検出された場合、前記表示装置の表示を前記合成画から前記実空間動画に遷移させる、(7)に記載の表示制御装置。
(9)
前記合成画は遷移操作ボタンを含み、
前記制御部は、前記タッチパネルに対する前記遷移操作ボタンにおけるユーザ操作が検出された場合、前記表示装置の表示を前記合成画から前記実空間動画に遷移させる、(8)に記載の表示制御装置。
(10)
前記操作検出部は前記表示制御装置の動きを検出する動きセンサを含み、
前記制御部は、前記動きセンサにより第1の動きパターンが検出された場合、前記表示装置の表示を前記実空間動画から前記合成画に遷移させる、(5)〜(9)のいずれか一項に記載の表示制御装置。
(11)
前記制御部は、前記動きセンサにより、前記第1の動きパターンと異なる第2の動きパターンが検出された場合、前記合成画を前記実空間動画に遷移させる、(10)に記載の表示制御装置。
(12)
前記表示制御装置は、ネットワーク上のサーバと通信する通信部をさらに備え、
前記通信部は、前記実オブジェクトに対応する前記仮想オブジェクトを前記サーバから受信する、(1)〜(11)のいずれか一項に記載の表示制御装置。
(13)
前記通信部は、前記操作検出部により前記所定のユーザ操作の一部が検出された場合に前記仮想オブジェクトの送信を前記サーバに要求し、
前記制御部は、前記操作検出部により前記所定のユーザ操作の全体が検出された後に前記表示装置の表示を前記合成画に遷移させる、(12)に記載の表示制御装置。
(14)
前記通信部は、前記認識部により前記実オブジェクトが認識された場合に前記仮想オブジェクトの送信を前記サーバに要求し、
前記制御部は、前記操作検出部により前記所定のユーザ操作が検出された後に前記表示装置の表示を前記合成画に遷移させる、(12)に記載の表示制御装置。
(15)
前記表示制御装置は、前記実空間動画を構成する各フレームの品質を測定する品質測定部をさらに備え、
前記制御部は、前記品質測定部による測定結果に基づいて前記実空間の動画を構成する1つのフレームを前記合成画に含める前記静止画として選択する、(1)〜(14)のいずれか一項に記載の表示制御装置。
(16)
実空間の動画を含む実空間動画と、実空間の静止画および前記静止画に含まれる実オブジェクトに対応する仮想オブジェクトを含む合成画と、の間で表示装置の表示を遷移させる、表示制御方法。
(17)
コンピュータを、
実空間の動画を含む実空間動画と、実空間の静止画および前記静止画に含まれる実オブジェクトに対応する仮想オブジェクトを含む合成画と、の間で表示装置の表示を遷移させる表示制御装置、として機能させるためのプログラム。
(18)
前記実空間動画は、撮像装置により撮像中の実空間の動画を含む、(17)に記載のプログラム。
(19)
前記合成画に含まれる前記仮想オブジェクトの表示はユーザ操作により変化する、(17)または(18)に記載のプログラム。
(20)
前記表示制御装置は、前記実空間動画において前記実オブジェクトを認識する認識部をさらに備え、
前記制御部は、前記認識部により前記実オブジェクトが認識された場合に前記表示装置の表示を前記実空間動画から前記合成画に遷移させる、(17)〜(19)のいずれか一項に記載のプログラム。
【符号の説明】
【0117】
20 携帯端末
26 ディスプレイ
27 タッチパネル
28 モーションセンサ
30 ARサーバ
213 撮像装置
220 特徴量DB
224 画像認識部
228、328 仮想オブジェクトDB
232、332 仮想オブジェクト取得部
241〜244 制御部
250 ブレ測定部
260、360 通信部


【特許請求の範囲】
【請求項1】
実空間の動画を含む実空間動画と、実空間の静止画および前記静止画に含まれる実オブジェクトに対応する仮想オブジェクトを含む合成画と、の間で表示装置の表示を遷移させる制御部を備える、表示制御装置。
【請求項2】
前記実空間動画は、撮像装置により撮像中の実空間の動画を含む、請求項1に記載の表示制御装置。
【請求項3】
前記合成画に含まれる前記仮想オブジェクトの表示はユーザ操作により変化する、請求項1に記載の表示制御装置。
【請求項4】
前記表示制御装置は、前記実空間動画において前記実オブジェクトを認識する認識部をさらに備え、
前記制御部は、前記認識部により前記実オブジェクトが認識された場合に前記表示装置の表示を前記実空間動画から前記合成画に遷移させる、請求項1に記載の表示制御装置。
【請求項5】
前記表示制御装置は、ユーザ操作を検出する操作検出部をさらに備え、
前記制御部は、前記操作検出部により所定のユーザ操作が検出された場合に前記表示装置の表示を遷移させる、請求項1に記載の表示制御装置。
【請求項6】
前記操作検出部は、前記表示装置上に配置されるタッチパネルに対する前記所定のユーザ操作を検出する、請求項5に記載の表示制御装置。
【請求項7】
前記制御部は、前記タッチパネルに対する前記実オブジェクトの判定領域におけるユーザ操作が検出された場合、前記表示装置の表示を前記実空間動画から前記合成画に遷移させる、請求項6に記載の表示制御装置。
【請求項8】
前記制御部は、前記タッチパネルに対する前記実オブジェクトの判定領域以外におけるユーザ操作が検出された場合、前記表示装置の表示を前記合成画から前記実空間動画に遷移させる、請求項7に記載の表示制御装置。
【請求項9】
前記合成画は遷移操作ボタンを含み、
前記制御部は、前記タッチパネルに対する前記遷移操作ボタンにおけるユーザ操作が検出された場合、前記表示装置の表示を前記合成画から前記実空間動画に遷移させる、請求項8に記載の表示制御装置。
【請求項10】
前記操作検出部は前記表示制御装置の動きを検出する動きセンサを含み、
前記制御部は、前記動きセンサにより第1の動きパターンが検出された場合、前記表示装置の表示を前記実空間動画から前記合成画に遷移させる、請求項5に記載の表示制御装置。
【請求項11】
前記制御部は、前記動きセンサにより、前記第1の動きパターンと異なる第2の動きパターンが検出された場合、前記合成画を前記実空間動画に遷移させる、請求項10に記載の表示制御装置。
【請求項12】
前記表示制御装置は、ネットワーク上のサーバと通信する通信部をさらに備え、
前記通信部は、前記実オブジェクトに対応する前記仮想オブジェクトを前記サーバから受信する、請求項1に記載の表示制御装置。
【請求項13】
前記通信部は、前記操作検出部により前記所定のユーザ操作の一部が検出された場合に前記仮想オブジェクトの送信を前記サーバに要求し、
前記制御部は、前記操作検出部により前記所定のユーザ操作の全体が検出された後に前記表示装置の表示を前記合成画に遷移させる、請求項12に記載の表示制御装置。
【請求項14】
前記通信部は、前記認識部により前記実オブジェクトが認識された場合に前記仮想オブジェクトの送信を前記サーバに要求し、
前記制御部は、前記操作検出部により前記所定のユーザ操作が検出された後に前記表示装置の表示を前記合成画に遷移させる、請求項12に記載の表示制御装置。
【請求項15】
前記表示制御装置は、前記実空間動画を構成する各フレームの品質を測定する品質測定部をさらに備え、
前記制御部は、前記品質測定部による測定結果に基づいて前記実空間の動画を構成する1つのフレームを前記合成画に含める前記静止画として選択する、請求項1に記載の表示制御装置。
【請求項16】
実空間の動画を含む実空間動画と、実空間の静止画および前記静止画に含まれる実オブジェクトに対応する仮想オブジェクトを含む合成画と、の間で表示装置の表示を遷移させる、表示制御方法。
【請求項17】
コンピュータを、
実空間の動画を含む実空間動画と、実空間の静止画および前記静止画に含まれる実オブジェクトに対応する仮想オブジェクトを含む合成画と、の間で表示装置の表示を遷移させる表示制御装置、として機能させるためのプログラム。
【請求項18】
前記実空間動画は、撮像装置により撮像中の実空間の動画を含む、請求項17に記載のプログラム。
【請求項19】
前記合成画に含まれる前記仮想オブジェクトの表示はユーザ操作により変化する、請求項17に記載のプログラム。
【請求項20】
前記表示制御装置は、前記実空間動画において前記実オブジェクトを認識する認識部をさらに備え、
前記制御部は、前記認識部により前記実オブジェクトが認識された場合に前記表示装置の表示を前記実空間動画から前記合成画に遷移させる、請求項17に記載のプログラム。


【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate


【公開番号】特開2012−212343(P2012−212343A)
【公開日】平成24年11月1日(2012.11.1)
【国際特許分類】
【出願番号】特願2011−78072(P2011−78072)
【出願日】平成23年3月31日(2011.3.31)
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.QRコード
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】