携帯電話端末及び情報処理システム
【課題】オブジェクトを撮影した場所に行った際に、現実空間上の適切な位置に3次元仮想オブジェクトを適切な大きさ及び方向で重ねて表示する。
【解決手段】光学レンズ及び光学レンズを通過した光を画像として取得するカメラ部と、カメラ部で取得された画像を表示する表示部とを備え、またGPS衛星から電波を受信して携帯電話位置情報を取得し、動画像を元に生成される3次元のコンピュータグラフィックスである3次元仮想オブジェクト、動画像が撮影された場所を示す撮影位置情報及び動画像に係る空間情報が対応付けられて格納されているオブジェクトテーブルを備える情報処理サーバに携帯電話位置情報を送信するとともに、送信した携帯電話位置情報に一致する3次元仮想オブジェクト及び動画像に係る空間情報を情報処理サーバから受信し、動画像に係る空間情報と画像に係る空間情報との関係性を利用し、3次元仮想オブジェクトを合成して表示させる。
【解決手段】光学レンズ及び光学レンズを通過した光を画像として取得するカメラ部と、カメラ部で取得された画像を表示する表示部とを備え、またGPS衛星から電波を受信して携帯電話位置情報を取得し、動画像を元に生成される3次元のコンピュータグラフィックスである3次元仮想オブジェクト、動画像が撮影された場所を示す撮影位置情報及び動画像に係る空間情報が対応付けられて格納されているオブジェクトテーブルを備える情報処理サーバに携帯電話位置情報を送信するとともに、送信した携帯電話位置情報に一致する3次元仮想オブジェクト及び動画像に係る空間情報を情報処理サーバから受信し、動画像に係る空間情報と画像に係る空間情報との関係性を利用し、3次元仮想オブジェクトを合成して表示させる。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、現実空間上に仮想のオブジェクトを重ねて表示する携帯電話端末及び情報処理システムに関する。
【背景技術】
【0002】
現在、携帯電話端末は、高機能かつ多機能であり、GPS(Global Positioning System)や各種センサによる位置情報等の取得やカメラによる動画像の撮影が可能となっている。
【0003】
また、拡張現実(Augmented Reality:AR)という技術分野が近年発展している。ARとは、現実の環境の一部に付加情報としてバーチャルな物体(仮想オブジェクト)を電子情報として合成提示することをさす。
【0004】
例えば、利用者が2次元の実写動画像を撮影し、その実写動画像に重畳して動きのあるオブジェクトの3次元CG(Computer Graphics)を表示することで、利用者の目の前にそのオブジェクトがあるように描写することができる(特許文献1)。
【0005】
また、撮影した動画から特定のオブジェクトを選択することで、その選択したオブジェクトを3次元コンピュータグラフィックス(3次元仮想オブジェクト)として描写する技術が実現されている(非特許文献1)。さらに、所定のオブジェクトを360度にわたって撮影した複数の画像から、3次元仮想オブジェクトを生成するサービスがweb上で行われている。
【0006】
また、動画像からフレームごとに特徴点を抽出してその特徴点を時間軸方向に追跡することで平面を検出することにより、当該動画像の3次元空間の形状を算出することも可能となっている(非特許文献2)。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】特開平11−259672号公報
【非特許文献】
【0008】
【非特許文献1】Anton van den Hengel et al., “Video Trace”, ACM Transactions on Graphics, Vol26, No.3, Article86, Publication date: July 2007.
【非特許文献2】Georg Klein et al., “Parallel Tracking and Mapping for Small AR Workspaces”, International Symposium on Mixed and Augmented Reality, 2007
【発明の概要】
【発明が解決しようとする課題】
【0009】
ところで、旅先などで撮影したオブジェクトが、破壊されたり、何らかの理由で消滅したりして、他の利用者が見ることができない状態になることがよくある。このような場合、他の旅行者が撮影した動画などにより、オブジェクトを見ることは可能であるが、旅行先の場所で見るオブジェクトと、過去に撮影された動画で見るオブジェクトとでは大きな差がある。例えば非特許文献1に記載の技術によって動画から3次元仮想オブジェクトを生成したとしても、その3次元仮想オブジェクトが現実空間のどこにあるか、どの方向からどのように見えるのか、といったことはわからない。そのため、オブジェクトを撮影しても、他の人とオブジェクトを撮影した場所で共有することができない、という問題があった。
【0010】
本発明は斯かる点に鑑みてなされたものであり、オブジェクトを撮影した場所に行った際に、現実空間上の適切な位置に3次元仮想オブジェクトを適切な大きさ及び方向で重ねて表示する携帯電話装置及び情報処理サーバを提供することを目的とする。
【課題を解決するための手段】
【0011】
上記課題を解決するために、本発明の携帯電話端末は、光学レンズを備え、光学レンズを通過した光を画像として取得するカメラ部と、カメラ部で取得された画像を表示する表示部と、カメラ部で取得された画像から画像に係る空間情報を算出する制御部と、GPS衛星から電波を受信して携帯電話位置情報を取得するGPS受信部と、動画像を元に生成される3次元のコンピュータグラフィックスである3次元仮想オブジェクト、動画像が撮影された場所を示す撮影位置情報及び動画像に係る空間情報が対応付けられて格納されているオブジェクトテーブルを備える情報処理サーバに、携帯電話位置情報を送信するとともに、送信した携帯電話位置情報に一致する撮影位置情報があった場合に情報処理サーバから送信される3次元仮想オブジェクト及び動画像に係る空間情報を受信するweb通信部と、動画像に係る空間情報と画像に係る空間情報との関係性を利用することにより、3次元仮想オブジェクトを表示画面の上に合成する際の大きさ、方向及び位置を決定し、決定した位置に3次元仮想オブジェクトを合成して表示させる描画部と、を備えるものである。
【0012】
上記構成によれば、現在撮影中の画像に係る空間情報を算出できる。そのため、動画像に係る空間情報と画像に係る空間情報との関係性を利用することで、3次元仮想オブジェクトを表示画面の上に合成する際の大きさ、方向及び位置を決定し、決定した位置に3次元仮想オブジェクトを合成して表示させることができる。
【発明の効果】
【0013】
本発明の携帯電話端末及び情報処理サーバによれば、例えば過去のある時期にオブジェクトを撮影した場所を訪れた場合に、現実空間上の適切な位置に、過去に撮影された3次元仮想オブジェクトを適切な大きさ及び方向で重ねて表示することができる。このため、不特定多数の人が、オブジェクトを撮影した場所を共有できるという効果がある。
【図面の簡単な説明】
【0014】
【図1】本発明の一実施形態に係る情報処理システムを示す概略図である。
【図2】本発明の一実施形態に係る携帯電話端末の構成を示すブロック図である。
【図3】本発明の一実施形態に係る情報処理サーバの構成を示すブロック図である。
【図4】情報処理サーバのオブジェクト処理部を中心とするブロック図である。
【図5】オブジェクトテーブルを示す説明図である。
【図6】オブジェクト登録時の情報処理システムの動作を示すフローチャートである。
【図7】オブジェクト撮影時のユーザAとオブジェクトとの位置関係を示す説明図である。
【図8】カメラ部の視野とオブジェクトとの位置関係を示す説明図である。
【図9】情報処理サーバのタッチパネル部に表示される3次元仮想オブジェクトッ生成画面の一例を示す説明図である。
【図10】情報処理サーバのオブジェクト処理部を中心とするブロック図である。
【図11】オブジェクト登録時の情報処理システムの動作を示すフローチャートである。
【図12】ユーザBの携帯電話端末の表示画面の遷移例を示す説明図である。
【図13】仮想オブジェクト(広告)を示す説明図である。
【発明を実施するための形態】
【0015】
以下、本発明を実施するための一実施形態例(以下、「本例」ということもある。)について下記(1)〜(7)の順序に従って説明する。なお、以下に述べる実施の形態例は、本発明の好適な具体例である。そのため、技術的に好ましい種々の限定が付されている。しかしながら、本発明の範囲は、下記の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。例えば、以下の説明で挙げる各パラメータの数値的条件は好適例に過ぎず、説明に用いた各図における配置関係も概略的なものである。
(1)情報処理システムの全体構成
(2)ユーザAの携帯電話端末の構成
(3)情報処理サーバの構成
(4)オブジェクト登録処理部の構成
(5)オブジェクト登録時の情報処理システムの動作
(6)オブジェクト配信処理部の構成
(7)オブジェクト配信時の情報処理システムの動作
【0016】
<本発明の一実施形態例の説明>
[1.情報処理システムの全体構成]
以下、本発明の一実施形態例を、図1〜図13を参照して説明する。
図1は、本発明の一実施形態に係る情報処理システムの概略図である。
この情報処理システム101は、携帯電話端末103,108及び情報処理サーバ106より構成されており、これらの各要素がパケット網105で相互に接続されている。
【0017】
ユーザA102は、携帯電話端末103を用いて、情報処理サーバ106に登録するための情報を提供する人物である。
携帯電話端末103は、後述するカメラ部で撮影された動画像及びその動画像に関する所定の位置情報を、パケット網105を介して情報処理サーバ106に送信する。このとき、ユーザA102は、GPS(Global Positioning System)衛星からユーザA102の現在位置情報であるユーザA位置情報(携帯電話端末103によって動画像が撮影された位置の情報)を取得する。このユーザA位置情報もパケット網105を介して情報処理サーバ106に送信される。
【0018】
情報処理サーバ106は、携帯電話端末103から送信される様々な情報を、パケット網105を介して取得し、それらの情報に基づいて、携帯電話端末103から送信される動画像に含まれるオブジェクト(家、ビル、木、看板等)の3次元CGである3次元仮想オブジェクトを生成する。携帯電話端末103から送信される様々な情報及び生成した3次元仮想オブジェクトは、データベースに記憶される。
【0019】
また、情報処理サーバ106は、携帯電話端末108に対するユーザB107の操作に基づいてデータベースを検索し、ヒットした情報がある場合は適切な3次元仮想オブジェクトを、パケット網105を介して携帯電話端末108へ送信する。
【0020】
ユーザB107は、携帯電話端末108を用いて、情報処理サーバ106から所定の情報の配信を受ける人物である。
携帯電話端末108は、GPS衛星104からユーザB107の現在位置情報であるユーザB位置情報を取得し、そのユーザB位置情報を、パケット網105を介して情報処理サーバ106に送信する。そして、送信したユーザB位置情報に応じた3次元仮想オブジェクトを情報処理サーバ106から取得する。そして、後述するカメラ部206のレンズを通じて表示部に表示されている風景の所定の位置に3次元仮想オブジェクトを合成表示する。
【0021】
[2.ユーザA,Bの携帯電話端末]
図2は、携帯電話端末103,108の構成を機能的に示したブロック図である。図2は本実施形態例に用いられる機能のみを示している。したがって、通話や電子メール等の本実施形態と関係のない機能の記載は省略している。
【0022】
携帯電話端末103,108は、web通信部202と、記憶部203と、操作部204と、表示部205と、カメラ部206と、描画部207と、GPS受信部208と、姿勢情報取得部209と、制御部210とを含み、これらの各構成要素はデータのやり取りができるように相互に接続されている。
【0023】
GPS受信部208は、GPS衛星104から受信した電波を受信し、携帯電話端末103,108のユーザA位置情報またはユーザB位置情報(緯度、経度等、高さ)を取得する。
【0024】
姿勢情報取得部209は、3軸加速度センサ、ジャイロセンサあるいは電子コンパス等を含み、携帯電話端末103,108の現在の向きを示す情報(以下、「姿勢情報」)を取得する。
【0025】
カメラ部206は、光学レンズや撮像素子等からなり、起動すると、当該光学レンズを通した風景を表示部205に表示する。また、表示部205に表示されているオブジェクトの動画像を撮影し、その動画像を動画像データとして記憶部203に記憶する。なお、カメラ部206は、オートフォーカス機能を実現するために、当該オブジェクトと光学レンズとの間の距離(オブジェクトレンズ間距離)を算出している。
【0026】
制御部210は、携帯電話端末装置の各構成要素の制御等を含む各種の演算処理を行う。
例えば、ユーザA102の携帯電話端末108においては、カメラ部206でのオブジェクト撮影時において、取得中のオブジェクト動画のフレーム毎に特徴点の抽出を行う。ここで、特徴点とは、オブジェクト動画像を構成する各フレームにおける特徴的な座標を意味しており、1フレームの中に複数存在する。一例を挙げると、各フレームにおける角や穴の位置又は面の中心等のある座標が特徴点とされる。なお、オブジェクト動画の各フレームで抽出されたすべての特徴点を、以下では環境特徴点情報という。また、制御部210は、算出した環境特徴点情報、GPS受信部208で取得されたユーザA位置情報、姿勢情報部で取得された姿勢情報及びカメラ部206で算出されたオブジェクトレンズ間距離に基づいて、特定の特徴点の絶対位置座標(以下、「特徴点絶対位置座標」という)を算出する。ただし、特徴点絶対位置座標の詳細については図7,8にて詳述する。また、ユーザB107の携帯電話端末108の制御部210における演算処理については、図11にて後述する。
【0027】
記憶部203は、図示されないROM(Read Only Memory)とRAM(Random Access Memory)を含む。ROMには、制御部210が各部を制御するための制御プログラムや各種の初期設定値等を行うためのアプリケーション用のプログラムコード、動画像データに対して様々な処理を行うためのアプリケーション用プログラムコード、その他、携帯電話端末103,108に搭載される各種のアプリケーション用のプログラムコードなどが記憶されている。
【0028】
web通信部202は、パケット網105を介して情報処理サーバ106とデータのやり取りを行う。
【0029】
表示部205は、オブジェクト動画像データやカメラ部206の光学レンズを通じた風景を表示する液晶ディスプレイである。また、操作部204は、携帯電話端末103,108の図示しない筐体上に設けられているテンキーやジョグダイアルと、それらの操作に応じた操作信号を発生する操作信号発生部等を有している。
【0030】
また、描画部207は、パケット網105上の情報処理サーバ106からパケット網105を介して送信される3次元仮想オブジェクト及びその他の情報に基づいて、表示部205に表示されているカメラ部206から入力される映像の上の所定の位置に3次元仮想オブジェクトを合成表示する。なお、この描画部207は、携帯電話端末108のみが必要とする構成要素であるが、携帯電話端末103が描画部207を備えていてもよいことは言うまでもない。
【0031】
[3.情報処理サーバの構成]
次に、情報処理サーバ106の構成について図3を参照して説明する。
図3は、情報処理サーバ106の構成を機能的に示したブロック図である。
情報処理サーバ106は、大まかには、オブジェクト登録処理部302、オブジェクト配信処理部303及び不揮発性データ記憶部304よりなる。
【0032】
オブジェクト登録処理部302は、ユーザA102の携帯電話端末103から送信される各情報に基づいて3次元仮想オブジェクトを生成し、生成した3次元仮想オブジェクトを不揮発性データ記憶部304に記録する。なお、オブジェクト登録処理部302の内部構成については図4にて後述する。
【0033】
オブジェクト配信処理部303は、ユーザB107の携帯電話端末108から送信されるユーザB位置情報に応じた3次元仮想オブジェクトを不揮発性データ記憶部304から検索し、ヒットした3次元仮想オブジェクトを携帯電話端末108に送信する。なお、オブジェクト配信処理部303の内部構成については図10にて後述する。
【0034】
[4.オブジェクト登録処理部]
次に、図4に基づいて、オブジェクト登録処理部302について説明する。
図4は、オブジェクト登録処理部302及び不揮発性データ記憶部304の構成を機能として示した機能ブロック図である。
【0035】
オブジェクト登録処理部302は、通信部402と、データ取得部403と、オブジェクト生成部404とよりなる。
通信部402は、ユーザA102の携帯電話端末103とパケット網105を介して情報のやり取りを行うものであり、携帯電話端末103から送信されるユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を受信し、受信したこれらの情報をデータ取得部403へ出力する。
【0036】
データ取得部403は、通信部402から入力されたユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を、不揮発性データ記憶部304に用意されたオブジェクトテーブル405の所定の領域に格納するとともに、オブジェクト動画像データ及び環境特徴点情報をオブジェクト生成部404へ出力する。なお、オブジェクトテーブル405の詳細については、図5にて後述する。
【0037】
オブジェクト生成部404は、動画像が表示されているタッチパネル部406に対するユーザの操作に基づいて、ユーザが指示した領域内に含まれる特徴点を環境特徴点情報の中から抽出する。そして、抽出した特徴点に基づいて、当該指定した領域のオブジェクトの3次元仮想オブジェクトをオブジェクト動画像データから生成する(非特許文献1を参照)。こうして生成された3次元仮想オブジェクトは、オブジェクトテーブル405の所定の領域に記憶される。なお、3次元仮想オブジェクトの具体的な生成例については図9に基づいて後述される。
【0038】
次に、オブジェクトテーブル405について図5を参照して説明する。
図5は、オブジェクトテーブル405の一例を示す図である。
オブジェクトテーブルは、「位置情報」フィールドと、「撮影日」フィールドと、「オブジェクト種類」フィールドと、「オブジェクト動画」フィールドと、「環境特徴点情報」フィールドと、「特徴点絶対位置座標」フィールドと、「3次元仮想オブジェクトデータ」フィールドとよりなる。
【0039】
「位置情報」フィールドには、オブジェクト動画を撮影した際にユーザA102がいた位置の緯度・経度・高さを示すユーザA位置情報が格納される。
また、「撮影日」フィールドには、オブジェクト動画を撮影した日を示す情報である撮影日情報が格納される。
また、「オブジェクト種類」フィールドには、オブジェクト動画のオブジェクトの種類を示す情報であるオブジェクト種類情報が格納される。
また、「オブジェクト動画データ」フィールドには、ユーザA102が携帯電話端末103で撮影したオブジェクト動画データが格納される。
【0040】
また、「環境特徴点情報」フィールドには、動画像の環境特徴点情報が格納される。具体的には、「環境特徴点情報」フィールドは、オブジェクト動画像の各フレーム毎の特徴点の情報を保存するために、例えば、所定のフレームの特徴点(x1,y1),(x2,y2),(x3,y3),…(xn,yn)という座標情報を、フレーム毎に保存している。つまり、オブジェクト動画像のフレームの個数がk個あり、各フレーム内に特徴点が平均n個あるとすれば、特徴点の座標情報の数は、k×n個となる。このようなk×n個の特徴点が環境特徴点情報である。
【0041】
また、「特徴点絶対位置座標」フィールドには、動画像の特徴点絶対位置座標が格納される。特徴点絶対位置座標は、(対象特徴点を持つフレーム、そのフレーム内における対象特徴点の位置情報(x,y)、その対象特徴点の絶対位置座標(緯度、経度、高度))といった情報で構成される情報である。例えば、図5に示すオブジェクトテーブル405の「オブジェクト種類」フィールドが建物のレコードである「(15,76,34,35.376000,139.45,0.5)」は、15枚目のフレーム上の座標(x,y)=(76,34)の特徴点の位置を示す絶対位置座標(緯度、経度、高度)が、(35.376000,139.45,0.5)となることを意味している。
【0042】
[5.オブジェクト登録時の情報処理システムの動作]
次に、オブジェクト登録時の情報処理システム101の動作について図6を参照して説明する。
図6は、オブジェクト登録時の情報処理システム101の動作を示すフローチャートである。
【0043】
まず、携帯電話端末103を持ったユーザA102が撮影場所に到着する(ステップS1)。そして、ユーザA102の操作部204に対する指示に基づいて、GPS受信部208では、GPS衛星104から電波が受信され、ユーザA102のユーザA位置情報(緯度・経度・高さ)が取得され(ステップS2)、このユーザA位置情報が記憶部203に記憶される。
【0044】
そして、ユーザA102により撮影が開始されると、カメラ部206では、ユーザA102の操作部204に対する操作に基づいて、オブジェクト動画像データが取得され(ステップS3)、制御部210に出力される。このとき、カメラ部206では、オブジェクトにピントをあわせるために利用されるオブジェクトレンズ間距離も算出され、制御部210に出力されている。
【0045】
制御部210では、カメラ部206から入力されたオブジェクト動画像データから前述の環境特徴点情報が算出される。そして、算出された環境特徴点情報及びオブジェクト動画像データは、記憶部203に記憶される。
【0046】
一方、姿勢情報取得部209では、ステップS3の処理時の携帯電話端末103の姿勢情報が取得され、制御部210に出力される。そして、制御部210では、カメラ部206から入力されるオブジェクトレンズ間距離、記憶部203から読み出す環境特徴点情報及び姿勢情報取得部209から入力される姿勢情報に基づいて、特徴点絶対位置座標が算出され、記憶部203に記憶される。なお、特徴点絶対位置座標の詳細な算出方法については、図7,8を参照して説明する。
【0047】
以上の処理が完了した後、制御部210は、ユーザA位置情報、ステップS3の処理時に不図示の時計により取得され記憶部203に記憶された撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を、記憶部203から読み出し、web通信部202に出力する。そして、web通信部202は、ユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を、パケット網105を介して情報処理サーバ106に送信する(ステップS5)。
【0048】
このweb通信部202から送信されるユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標は、情報処理サーバ106のオブジェクト登録処理部302の通信部402で受信され、データ取得部403に出力される。
【0049】
そして、データ取得部403は、ユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を、オブジェクトテーブル405の「位置情報」フィールド、「撮影日情報」フィールド、「オブジェクト種類情報」フィールド、「オブジェクト動画データ」フィールド、「環境特徴点情報」フィールド及び「特徴点絶対位置座標」フィールドにそれぞれ格納する(ステップS7)。そして、データ取得部403から、オブジェクト動画像データ及び環境特徴点情報がオブジェクト生成部404に出力される。
【0050】
オブジェクト生成部404は、操作部204に対するユーザの操作に基づいて、環境特徴点情報の中からユーザが指示した領域内に含まれる特徴点のみを抽出する。そして、この抽出した特徴点に基づいて、当該指定した領域のオブジェクトの3次元仮想オブジェクトがオブジェクト動画像データから生成される(ステップS8)。このようにして生成された3次元仮想オブジェクトは、オブジェクトテーブル405の「3次元仮想オブジェクト」フィールドに格納され、処理が終了する。
【0051】
次に、制御部210で行われる特徴点絶対位置座標に含まれる絶対位置座標の各パラメータ(図5を参照)の算出処理について図7,8を参照して説明する。
図7(A)は、ユーザA102とオブジェクトとの位置関係を示す斜視図である。
図7(B)は、図7(A)に示す空間の位置I及び位置Oを通る断面図である。
位置Iは、ユーザA102の視点、すなわち携帯電話端末103のカメラ部206を構成する光学レンズの位置である。位置Oは、ユーザA102の視点から見ることが可能なオブジェクト702の任意の一点、本例では環境特徴点情報の中の任意の一つの特徴点とする。角度θは、光学レンズの地面に対する傾き角度であり、姿勢情報取得部209で取得される姿勢情報に含まれる情報である。高度Hは、地面と光学レンズ間の距離であり、GPS受信部208によってGPS衛星104から取得されるユーザA位置情報に含まれる情報である。距離Dは、前述のオブジェクトレンズ間距離であり、カメラ部206によって算出される情報である。
【0052】
これらのパラメータを用いてオブジェクト702の位置Oの高さhを求める式を以下に示す。
h=H−Dcosθ
【0053】
図8は、カメラ部206の視野とオブジェクト702との位置関係を示す説明図である。
カメラ視野は、ユーザA102の携帯電話端末103のカメラ部206で撮影可能な範囲である。カメラ視野におけるRは、携帯電話端末103のカメラ部206の光学レンズの位置Iから撮影できる限界までの距離を示す。角度φは、位置Iと位置Oを結んだ直線と、北の方向軸803とがなす角度であり、姿勢情報取得部209で取得される姿勢情報に含まれる情報である。
【0054】
位置Iの位置を(x:緯度,y:経度)とし、位置Oの位置を(x1:緯度,y1:経度)とすると、位置Iと位置Oの位置関係は以下に示す式のとおりとなる。なお、位置Iにおける緯度x及び経度yは、GPS受信部208によってGPS衛星104から取得されるユーザA位置情報に含まれる情報である。
x1=x−Dsinθsinφ
y1=y+Dsinθcosφ
【0055】
以上に示した3つの式を用いることにより、制御部210は、オブジェクト702の任意の点の絶対位置座標(x1:緯度、y1:経度、h:高さ)を算出している。
【0056】
次に、情報処理サーバ106のオブジェクト生成部404で行われる3次元仮想オブジェクト生成処理(図6のステップS8の処理)について図9を参照して説明する。
図9は、オブジェクト生成部404での3次元仮想オブジェクト生成処理時にタッチパネル部406に表示される表示画面の一例を示す説明図である。なお、本例では、オブジェクト生成部404で生成したい3次元仮想オブジェクトが建物902である場合を例とする。
【0057】
図9(A)は、3次元仮想オブジェクトの元になる動画像の再生画面を示す図である。
まず、情報サーバ側のユーザは、図9(B)に示すように、タッチパネル部406に対して指やペン等で建物902の輪郭に線903,904を引く。すると、オブジェクト生成部404では、環境特徴点情報の中から線903,904に囲まれた領域の特徴点がそれぞれ抽出される。そして、線903に含まれる特徴点に基づいてパーツ905の仮想平面が生成され、線904に含まれる特徴点に基づいてパーツ906の仮想平面が生成される。
【0058】
さらに、この操作が建物902の360度すべての方向に対して行われ、建物902の360度すべての方向の平面が生成される。そして、生成されたすべての平面及びこれらの平面を生成するのに用いた各特徴点間の関係性を利用することにより、3次元仮想オブジェクトが生成される。
【0059】
[6.オブジェクト配信処理部の構成]
次に、オブジェクト配信処理部303の構成について図10を参照して説明する。
図10は、オブジェクト配信処理部303及び不揮発性データ記憶部304の機能的な構成を示すブロック図である。
【0060】
オブジェクト配信処理部303は、通信部1002とオブジェクト検索部1003よりなる。
通信部1002は、ユーザB107の携帯電話端末108とパケット網105を介して情報のやり取りを行うものであり、携帯電話端末108から送信されるユーザB位置情報を受信し、受信したユーザB位置情報をオブジェクト検索部1003に出力する。なお、オブジェクト配信処理部303の通信部1002は、オブジェクト登録処理部302の通信部402と共通であってもよい。
【0061】
オブジェクト検索部1003は、通信部1002から入力されるユーザB位置情報で、オブジェクトテーブル405の「位置情報」フィールドを検索し、該当するレコードの「環境特徴点情報」、「特徴点絶対値座標」及び「3次元仮想オブジェクト」の各フィールドに格納された情報を取得する。取得した情報は、通信部1002を介してパケット網105上の携帯電話端末108に送信される。
【0062】
[7.オブジェクト配信時の情報処理システムの動作]
次に、情報処理システム101のオブジェクト配信時の動作について図11を参照して説明する。
図11は、オブジェクト登録時の情報処理システム101の動作を示すフローチャートである。
【0063】
まず、携帯電話端末108を持ったユーザB107が閲覧場所に到着し(ステップS10)、カメラ部206を起動させる。すると、表示部205には、カメラ部206より取得されたカメラ視野802に含まれる風景が、図12(A)の表示画面1202のように示されるように表示される。
【0064】
ここで、ユーザB107の操作部204に対する指示に基づいて、GPS受信部208では、GPS衛星104から電波が受信され、ユーザB107のユーザB位置情報(緯度・経度・高さ)が取得される(ステップS11)。取得されたユーザB位置情報は、web通信部202に出力される。
【0065】
web通信部202は、入力されたユーザB位置情報を、パケット網105を介して情報処理サーバ106に送信する。そして、情報処理サーバ106のオブジェクト配信処理部303を構成する通信部1002において、携帯電話端末108のweb通信部202から送信されたユーザB位置情報が受信され(ステップS12)、オブジェクト検索部1003に出力される。
【0066】
オブジェクト検索部1003は、オブジェクトテーブル405の「位置情報」フィールド(図5を参照)を、入力されたユーザB位置情報で検索する(ステップS13)。そして、該当するレコードがないと判定された場合は(ステップS13のNO)、処理を終了する。ステップS13で、該当するレコードがあると判定された場合は(ステップS13のYES)、オブジェクト検索部1003は、該当するレコードの「環境特徴点情報」フィールド、「特徴点絶対位置座標」フィールド及び「3次元仮想オブジェクト」フィールドに格納されている環境特徴点情報、特徴点絶対位置座標及び3次元仮想オブジェクトを取得する(ステップS14)。そして、オブジェクト検索部1003で取得された環境特徴点情報、特徴点絶対位置座標及び3次元仮想オブジェクトは、通信部1002を介して携帯電話端末108のweb通信部202に送信される。
【0067】
ここで、制御部210は、3次元仮想オブジェクトの位置とカメラ視野802を比較する(ステップS15)。つまり、現在、カメラ部206が取得している動画像の特徴点を抽出し、この抽出した特徴点と情報処理サーバ106から送信された環境特徴点情報とを比較する。
【0068】
そして、カメラ視野802の範囲内に3次元仮想オブジェクトが存在するか否か、つまり環境特徴点情報の中に抽出された特徴点と一致するものがあるか否かが確認される(ステップS16)。
【0069】
このステップS16において、カメラ視野802の範囲内に3次元仮想オブジェクトが存在しないと判定された場合、すなわち環境特徴点情報の中に抽出された特徴点と一致するものが存在しない場合には(ステップS16のNO)、ステップS15の処理に戻る。
【0070】
カメラ視野802の範囲内に3次元仮想オブジェクトが存在すると判定された場合、すなわち環境特徴点情報の中に抽出された特徴点と一致するものが存在する場合には、抽出された特徴点、ユーザB位置情報及び特徴点絶対位置座標に基づいて、現在、表示部205に表示されている表示画面1202に合成する3次元仮想オブジェクトの大きさ、方向及び位置が、描画部207で決定される。そして、図12(B)に示すように、表示部205に3次元仮想オブジェクト1203が合成表示され(ステップS17)、処理が終了する。
【0071】
次に、ステップS17の処理である、3次元仮想オブジェクトの大きさ、方向及び位置を決定する処理についてより詳細に説明を行う。
まず、大きさを決定する処理について説明する。
ユーザB位置情報(緯度・経度・高さ)と特徴点絶対位置座標に含まれる絶対位置座標(緯度・経度・高さ)を利用して、ユーザBと3次元仮想オブジェクトの間の現実世界での距離が算出される。そして、その距離に応じて3次元仮想オブジェクトの大きさが決定される。
【0072】
次に、方向を決定する処理について説明する。
情報処理サーバから取得した環境特徴点情報(ダウンロードした環境特徴点情報)と、カメラが現在撮影している画像(図12(A)を参照)の環境特徴点情報を比較する。現在の画像にはオブジェクトは存在していないが、地面などの特徴点は取得できる。ダウンロードした環境特徴点情報は、オブジェクトの特徴点以外に地面などの特徴点も含んでいるので、それらを比較し、一致するフレームを算出する。算出したフレームによって、当該フレームにおいてオブジェクトがどのように表示されているのかを判別することができる。これにより、3次元仮想オブジェクトを表示部205上に配置する際の方向が決定される。なお、3次元仮想オブジェクトが配置される表示部205上の位置は、特徴点絶対位置座標に含まれる対象特徴点の位置情報に該当する。
【0073】
以上説明したように、本実施形態によれば、ユーザBがユーザAにより動画像が撮影された場所に行った際に、現実空間が表示されている表示部の適切な位置に3次元仮想オブジェクトを適切な大きさ及び方向で重ねて表示することができる。これにより、不特定多数の人が、オブジェクトを撮影した場所を共有できるという効果がある。
【0074】
なお、上述した実施形態では、生成する3次元仮想オブジェクトが建物である例を示したが、例えば図13に示すように広告の3次元仮想オブジェクトを生成し、表示画面に合成表示することも可能である。なお、3次元オブジェクトは、建物や看板に限られるものではなく、例えば家具、家電及び車等でもよい。
【0075】
また、上述した実施形態では、情報処理サーバのオブジェクトテーブルに格納されているすべての3次元仮想オブジェクトの中から、ユーザBの携帯電話端末108に送信する3次元仮想オブジェクトを決定していた。しかしながら、オブジェクトテーブルに格納されている3次元仮想オブジェクトを撮影日情報及び/またはオブジェクト種類情報で絞り込んだ後に、携帯電話端末108に送信するようにしてもよい。これは、携帯電話端末108から情報処理サーバへユーザB位置情報を送信する際に、撮影日情報及び/またはオブジェクト種類情報も送信しておき、撮影日情報及び/またはオブジェクト種類情報でオブジェクトテーブルのレコードを絞り込むことによって実現できる。
【0076】
また、上述した実施形態では、情報処理サーバにおいてオブジェクトテーブルに格納されている3次元仮想オブジェクトは、ユーザのタッチパネル部に対する操作に基づいて、動画像データから3次元仮想オブジェクトを生成されるものである。しかし、3間オブジェクトは、動画像データの画像解析により、動画像データから自動的に生成されるようにしてもよい。
【0077】
以上、本発明の実施形態の例について説明したが、本発明は上記実施形態例に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含むことはいうまでもない。
【符号の説明】
【0078】
101…情報処理システム、102…ユーザA、103…携帯電話端末、104…GPS衛星、105…パケット網、106…情報処理サーバ、107…ユーザB、108…携帯電話端末、202…web通信部、203…記憶部、204…操作部、205…表示部、206…カメラ部、207…描画部、208…GPS受信部、209…姿勢情報取得部、210…制御部、302…オブジェクト登録処理部、303…オブジェクト配信処理部、304…不揮発性データ記憶部、402…通信部、403…データ取得部、404…オブジェクト生成部、405…オブジェクトテーブル、702…オブジェクト、802…カメラ視野、803…北の方向軸、1002…通信部、1003…オブジェクト検索部
【技術分野】
【0001】
本発明は、現実空間上に仮想のオブジェクトを重ねて表示する携帯電話端末及び情報処理システムに関する。
【背景技術】
【0002】
現在、携帯電話端末は、高機能かつ多機能であり、GPS(Global Positioning System)や各種センサによる位置情報等の取得やカメラによる動画像の撮影が可能となっている。
【0003】
また、拡張現実(Augmented Reality:AR)という技術分野が近年発展している。ARとは、現実の環境の一部に付加情報としてバーチャルな物体(仮想オブジェクト)を電子情報として合成提示することをさす。
【0004】
例えば、利用者が2次元の実写動画像を撮影し、その実写動画像に重畳して動きのあるオブジェクトの3次元CG(Computer Graphics)を表示することで、利用者の目の前にそのオブジェクトがあるように描写することができる(特許文献1)。
【0005】
また、撮影した動画から特定のオブジェクトを選択することで、その選択したオブジェクトを3次元コンピュータグラフィックス(3次元仮想オブジェクト)として描写する技術が実現されている(非特許文献1)。さらに、所定のオブジェクトを360度にわたって撮影した複数の画像から、3次元仮想オブジェクトを生成するサービスがweb上で行われている。
【0006】
また、動画像からフレームごとに特徴点を抽出してその特徴点を時間軸方向に追跡することで平面を検出することにより、当該動画像の3次元空間の形状を算出することも可能となっている(非特許文献2)。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】特開平11−259672号公報
【非特許文献】
【0008】
【非特許文献1】Anton van den Hengel et al., “Video Trace”, ACM Transactions on Graphics, Vol26, No.3, Article86, Publication date: July 2007.
【非特許文献2】Georg Klein et al., “Parallel Tracking and Mapping for Small AR Workspaces”, International Symposium on Mixed and Augmented Reality, 2007
【発明の概要】
【発明が解決しようとする課題】
【0009】
ところで、旅先などで撮影したオブジェクトが、破壊されたり、何らかの理由で消滅したりして、他の利用者が見ることができない状態になることがよくある。このような場合、他の旅行者が撮影した動画などにより、オブジェクトを見ることは可能であるが、旅行先の場所で見るオブジェクトと、過去に撮影された動画で見るオブジェクトとでは大きな差がある。例えば非特許文献1に記載の技術によって動画から3次元仮想オブジェクトを生成したとしても、その3次元仮想オブジェクトが現実空間のどこにあるか、どの方向からどのように見えるのか、といったことはわからない。そのため、オブジェクトを撮影しても、他の人とオブジェクトを撮影した場所で共有することができない、という問題があった。
【0010】
本発明は斯かる点に鑑みてなされたものであり、オブジェクトを撮影した場所に行った際に、現実空間上の適切な位置に3次元仮想オブジェクトを適切な大きさ及び方向で重ねて表示する携帯電話装置及び情報処理サーバを提供することを目的とする。
【課題を解決するための手段】
【0011】
上記課題を解決するために、本発明の携帯電話端末は、光学レンズを備え、光学レンズを通過した光を画像として取得するカメラ部と、カメラ部で取得された画像を表示する表示部と、カメラ部で取得された画像から画像に係る空間情報を算出する制御部と、GPS衛星から電波を受信して携帯電話位置情報を取得するGPS受信部と、動画像を元に生成される3次元のコンピュータグラフィックスである3次元仮想オブジェクト、動画像が撮影された場所を示す撮影位置情報及び動画像に係る空間情報が対応付けられて格納されているオブジェクトテーブルを備える情報処理サーバに、携帯電話位置情報を送信するとともに、送信した携帯電話位置情報に一致する撮影位置情報があった場合に情報処理サーバから送信される3次元仮想オブジェクト及び動画像に係る空間情報を受信するweb通信部と、動画像に係る空間情報と画像に係る空間情報との関係性を利用することにより、3次元仮想オブジェクトを表示画面の上に合成する際の大きさ、方向及び位置を決定し、決定した位置に3次元仮想オブジェクトを合成して表示させる描画部と、を備えるものである。
【0012】
上記構成によれば、現在撮影中の画像に係る空間情報を算出できる。そのため、動画像に係る空間情報と画像に係る空間情報との関係性を利用することで、3次元仮想オブジェクトを表示画面の上に合成する際の大きさ、方向及び位置を決定し、決定した位置に3次元仮想オブジェクトを合成して表示させることができる。
【発明の効果】
【0013】
本発明の携帯電話端末及び情報処理サーバによれば、例えば過去のある時期にオブジェクトを撮影した場所を訪れた場合に、現実空間上の適切な位置に、過去に撮影された3次元仮想オブジェクトを適切な大きさ及び方向で重ねて表示することができる。このため、不特定多数の人が、オブジェクトを撮影した場所を共有できるという効果がある。
【図面の簡単な説明】
【0014】
【図1】本発明の一実施形態に係る情報処理システムを示す概略図である。
【図2】本発明の一実施形態に係る携帯電話端末の構成を示すブロック図である。
【図3】本発明の一実施形態に係る情報処理サーバの構成を示すブロック図である。
【図4】情報処理サーバのオブジェクト処理部を中心とするブロック図である。
【図5】オブジェクトテーブルを示す説明図である。
【図6】オブジェクト登録時の情報処理システムの動作を示すフローチャートである。
【図7】オブジェクト撮影時のユーザAとオブジェクトとの位置関係を示す説明図である。
【図8】カメラ部の視野とオブジェクトとの位置関係を示す説明図である。
【図9】情報処理サーバのタッチパネル部に表示される3次元仮想オブジェクトッ生成画面の一例を示す説明図である。
【図10】情報処理サーバのオブジェクト処理部を中心とするブロック図である。
【図11】オブジェクト登録時の情報処理システムの動作を示すフローチャートである。
【図12】ユーザBの携帯電話端末の表示画面の遷移例を示す説明図である。
【図13】仮想オブジェクト(広告)を示す説明図である。
【発明を実施するための形態】
【0015】
以下、本発明を実施するための一実施形態例(以下、「本例」ということもある。)について下記(1)〜(7)の順序に従って説明する。なお、以下に述べる実施の形態例は、本発明の好適な具体例である。そのため、技術的に好ましい種々の限定が付されている。しかしながら、本発明の範囲は、下記の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。例えば、以下の説明で挙げる各パラメータの数値的条件は好適例に過ぎず、説明に用いた各図における配置関係も概略的なものである。
(1)情報処理システムの全体構成
(2)ユーザAの携帯電話端末の構成
(3)情報処理サーバの構成
(4)オブジェクト登録処理部の構成
(5)オブジェクト登録時の情報処理システムの動作
(6)オブジェクト配信処理部の構成
(7)オブジェクト配信時の情報処理システムの動作
【0016】
<本発明の一実施形態例の説明>
[1.情報処理システムの全体構成]
以下、本発明の一実施形態例を、図1〜図13を参照して説明する。
図1は、本発明の一実施形態に係る情報処理システムの概略図である。
この情報処理システム101は、携帯電話端末103,108及び情報処理サーバ106より構成されており、これらの各要素がパケット網105で相互に接続されている。
【0017】
ユーザA102は、携帯電話端末103を用いて、情報処理サーバ106に登録するための情報を提供する人物である。
携帯電話端末103は、後述するカメラ部で撮影された動画像及びその動画像に関する所定の位置情報を、パケット網105を介して情報処理サーバ106に送信する。このとき、ユーザA102は、GPS(Global Positioning System)衛星からユーザA102の現在位置情報であるユーザA位置情報(携帯電話端末103によって動画像が撮影された位置の情報)を取得する。このユーザA位置情報もパケット網105を介して情報処理サーバ106に送信される。
【0018】
情報処理サーバ106は、携帯電話端末103から送信される様々な情報を、パケット網105を介して取得し、それらの情報に基づいて、携帯電話端末103から送信される動画像に含まれるオブジェクト(家、ビル、木、看板等)の3次元CGである3次元仮想オブジェクトを生成する。携帯電話端末103から送信される様々な情報及び生成した3次元仮想オブジェクトは、データベースに記憶される。
【0019】
また、情報処理サーバ106は、携帯電話端末108に対するユーザB107の操作に基づいてデータベースを検索し、ヒットした情報がある場合は適切な3次元仮想オブジェクトを、パケット網105を介して携帯電話端末108へ送信する。
【0020】
ユーザB107は、携帯電話端末108を用いて、情報処理サーバ106から所定の情報の配信を受ける人物である。
携帯電話端末108は、GPS衛星104からユーザB107の現在位置情報であるユーザB位置情報を取得し、そのユーザB位置情報を、パケット網105を介して情報処理サーバ106に送信する。そして、送信したユーザB位置情報に応じた3次元仮想オブジェクトを情報処理サーバ106から取得する。そして、後述するカメラ部206のレンズを通じて表示部に表示されている風景の所定の位置に3次元仮想オブジェクトを合成表示する。
【0021】
[2.ユーザA,Bの携帯電話端末]
図2は、携帯電話端末103,108の構成を機能的に示したブロック図である。図2は本実施形態例に用いられる機能のみを示している。したがって、通話や電子メール等の本実施形態と関係のない機能の記載は省略している。
【0022】
携帯電話端末103,108は、web通信部202と、記憶部203と、操作部204と、表示部205と、カメラ部206と、描画部207と、GPS受信部208と、姿勢情報取得部209と、制御部210とを含み、これらの各構成要素はデータのやり取りができるように相互に接続されている。
【0023】
GPS受信部208は、GPS衛星104から受信した電波を受信し、携帯電話端末103,108のユーザA位置情報またはユーザB位置情報(緯度、経度等、高さ)を取得する。
【0024】
姿勢情報取得部209は、3軸加速度センサ、ジャイロセンサあるいは電子コンパス等を含み、携帯電話端末103,108の現在の向きを示す情報(以下、「姿勢情報」)を取得する。
【0025】
カメラ部206は、光学レンズや撮像素子等からなり、起動すると、当該光学レンズを通した風景を表示部205に表示する。また、表示部205に表示されているオブジェクトの動画像を撮影し、その動画像を動画像データとして記憶部203に記憶する。なお、カメラ部206は、オートフォーカス機能を実現するために、当該オブジェクトと光学レンズとの間の距離(オブジェクトレンズ間距離)を算出している。
【0026】
制御部210は、携帯電話端末装置の各構成要素の制御等を含む各種の演算処理を行う。
例えば、ユーザA102の携帯電話端末108においては、カメラ部206でのオブジェクト撮影時において、取得中のオブジェクト動画のフレーム毎に特徴点の抽出を行う。ここで、特徴点とは、オブジェクト動画像を構成する各フレームにおける特徴的な座標を意味しており、1フレームの中に複数存在する。一例を挙げると、各フレームにおける角や穴の位置又は面の中心等のある座標が特徴点とされる。なお、オブジェクト動画の各フレームで抽出されたすべての特徴点を、以下では環境特徴点情報という。また、制御部210は、算出した環境特徴点情報、GPS受信部208で取得されたユーザA位置情報、姿勢情報部で取得された姿勢情報及びカメラ部206で算出されたオブジェクトレンズ間距離に基づいて、特定の特徴点の絶対位置座標(以下、「特徴点絶対位置座標」という)を算出する。ただし、特徴点絶対位置座標の詳細については図7,8にて詳述する。また、ユーザB107の携帯電話端末108の制御部210における演算処理については、図11にて後述する。
【0027】
記憶部203は、図示されないROM(Read Only Memory)とRAM(Random Access Memory)を含む。ROMには、制御部210が各部を制御するための制御プログラムや各種の初期設定値等を行うためのアプリケーション用のプログラムコード、動画像データに対して様々な処理を行うためのアプリケーション用プログラムコード、その他、携帯電話端末103,108に搭載される各種のアプリケーション用のプログラムコードなどが記憶されている。
【0028】
web通信部202は、パケット網105を介して情報処理サーバ106とデータのやり取りを行う。
【0029】
表示部205は、オブジェクト動画像データやカメラ部206の光学レンズを通じた風景を表示する液晶ディスプレイである。また、操作部204は、携帯電話端末103,108の図示しない筐体上に設けられているテンキーやジョグダイアルと、それらの操作に応じた操作信号を発生する操作信号発生部等を有している。
【0030】
また、描画部207は、パケット網105上の情報処理サーバ106からパケット網105を介して送信される3次元仮想オブジェクト及びその他の情報に基づいて、表示部205に表示されているカメラ部206から入力される映像の上の所定の位置に3次元仮想オブジェクトを合成表示する。なお、この描画部207は、携帯電話端末108のみが必要とする構成要素であるが、携帯電話端末103が描画部207を備えていてもよいことは言うまでもない。
【0031】
[3.情報処理サーバの構成]
次に、情報処理サーバ106の構成について図3を参照して説明する。
図3は、情報処理サーバ106の構成を機能的に示したブロック図である。
情報処理サーバ106は、大まかには、オブジェクト登録処理部302、オブジェクト配信処理部303及び不揮発性データ記憶部304よりなる。
【0032】
オブジェクト登録処理部302は、ユーザA102の携帯電話端末103から送信される各情報に基づいて3次元仮想オブジェクトを生成し、生成した3次元仮想オブジェクトを不揮発性データ記憶部304に記録する。なお、オブジェクト登録処理部302の内部構成については図4にて後述する。
【0033】
オブジェクト配信処理部303は、ユーザB107の携帯電話端末108から送信されるユーザB位置情報に応じた3次元仮想オブジェクトを不揮発性データ記憶部304から検索し、ヒットした3次元仮想オブジェクトを携帯電話端末108に送信する。なお、オブジェクト配信処理部303の内部構成については図10にて後述する。
【0034】
[4.オブジェクト登録処理部]
次に、図4に基づいて、オブジェクト登録処理部302について説明する。
図4は、オブジェクト登録処理部302及び不揮発性データ記憶部304の構成を機能として示した機能ブロック図である。
【0035】
オブジェクト登録処理部302は、通信部402と、データ取得部403と、オブジェクト生成部404とよりなる。
通信部402は、ユーザA102の携帯電話端末103とパケット網105を介して情報のやり取りを行うものであり、携帯電話端末103から送信されるユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を受信し、受信したこれらの情報をデータ取得部403へ出力する。
【0036】
データ取得部403は、通信部402から入力されたユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を、不揮発性データ記憶部304に用意されたオブジェクトテーブル405の所定の領域に格納するとともに、オブジェクト動画像データ及び環境特徴点情報をオブジェクト生成部404へ出力する。なお、オブジェクトテーブル405の詳細については、図5にて後述する。
【0037】
オブジェクト生成部404は、動画像が表示されているタッチパネル部406に対するユーザの操作に基づいて、ユーザが指示した領域内に含まれる特徴点を環境特徴点情報の中から抽出する。そして、抽出した特徴点に基づいて、当該指定した領域のオブジェクトの3次元仮想オブジェクトをオブジェクト動画像データから生成する(非特許文献1を参照)。こうして生成された3次元仮想オブジェクトは、オブジェクトテーブル405の所定の領域に記憶される。なお、3次元仮想オブジェクトの具体的な生成例については図9に基づいて後述される。
【0038】
次に、オブジェクトテーブル405について図5を参照して説明する。
図5は、オブジェクトテーブル405の一例を示す図である。
オブジェクトテーブルは、「位置情報」フィールドと、「撮影日」フィールドと、「オブジェクト種類」フィールドと、「オブジェクト動画」フィールドと、「環境特徴点情報」フィールドと、「特徴点絶対位置座標」フィールドと、「3次元仮想オブジェクトデータ」フィールドとよりなる。
【0039】
「位置情報」フィールドには、オブジェクト動画を撮影した際にユーザA102がいた位置の緯度・経度・高さを示すユーザA位置情報が格納される。
また、「撮影日」フィールドには、オブジェクト動画を撮影した日を示す情報である撮影日情報が格納される。
また、「オブジェクト種類」フィールドには、オブジェクト動画のオブジェクトの種類を示す情報であるオブジェクト種類情報が格納される。
また、「オブジェクト動画データ」フィールドには、ユーザA102が携帯電話端末103で撮影したオブジェクト動画データが格納される。
【0040】
また、「環境特徴点情報」フィールドには、動画像の環境特徴点情報が格納される。具体的には、「環境特徴点情報」フィールドは、オブジェクト動画像の各フレーム毎の特徴点の情報を保存するために、例えば、所定のフレームの特徴点(x1,y1),(x2,y2),(x3,y3),…(xn,yn)という座標情報を、フレーム毎に保存している。つまり、オブジェクト動画像のフレームの個数がk個あり、各フレーム内に特徴点が平均n個あるとすれば、特徴点の座標情報の数は、k×n個となる。このようなk×n個の特徴点が環境特徴点情報である。
【0041】
また、「特徴点絶対位置座標」フィールドには、動画像の特徴点絶対位置座標が格納される。特徴点絶対位置座標は、(対象特徴点を持つフレーム、そのフレーム内における対象特徴点の位置情報(x,y)、その対象特徴点の絶対位置座標(緯度、経度、高度))といった情報で構成される情報である。例えば、図5に示すオブジェクトテーブル405の「オブジェクト種類」フィールドが建物のレコードである「(15,76,34,35.376000,139.45,0.5)」は、15枚目のフレーム上の座標(x,y)=(76,34)の特徴点の位置を示す絶対位置座標(緯度、経度、高度)が、(35.376000,139.45,0.5)となることを意味している。
【0042】
[5.オブジェクト登録時の情報処理システムの動作]
次に、オブジェクト登録時の情報処理システム101の動作について図6を参照して説明する。
図6は、オブジェクト登録時の情報処理システム101の動作を示すフローチャートである。
【0043】
まず、携帯電話端末103を持ったユーザA102が撮影場所に到着する(ステップS1)。そして、ユーザA102の操作部204に対する指示に基づいて、GPS受信部208では、GPS衛星104から電波が受信され、ユーザA102のユーザA位置情報(緯度・経度・高さ)が取得され(ステップS2)、このユーザA位置情報が記憶部203に記憶される。
【0044】
そして、ユーザA102により撮影が開始されると、カメラ部206では、ユーザA102の操作部204に対する操作に基づいて、オブジェクト動画像データが取得され(ステップS3)、制御部210に出力される。このとき、カメラ部206では、オブジェクトにピントをあわせるために利用されるオブジェクトレンズ間距離も算出され、制御部210に出力されている。
【0045】
制御部210では、カメラ部206から入力されたオブジェクト動画像データから前述の環境特徴点情報が算出される。そして、算出された環境特徴点情報及びオブジェクト動画像データは、記憶部203に記憶される。
【0046】
一方、姿勢情報取得部209では、ステップS3の処理時の携帯電話端末103の姿勢情報が取得され、制御部210に出力される。そして、制御部210では、カメラ部206から入力されるオブジェクトレンズ間距離、記憶部203から読み出す環境特徴点情報及び姿勢情報取得部209から入力される姿勢情報に基づいて、特徴点絶対位置座標が算出され、記憶部203に記憶される。なお、特徴点絶対位置座標の詳細な算出方法については、図7,8を参照して説明する。
【0047】
以上の処理が完了した後、制御部210は、ユーザA位置情報、ステップS3の処理時に不図示の時計により取得され記憶部203に記憶された撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を、記憶部203から読み出し、web通信部202に出力する。そして、web通信部202は、ユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を、パケット網105を介して情報処理サーバ106に送信する(ステップS5)。
【0048】
このweb通信部202から送信されるユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標は、情報処理サーバ106のオブジェクト登録処理部302の通信部402で受信され、データ取得部403に出力される。
【0049】
そして、データ取得部403は、ユーザA位置情報、撮影日情報、オブジェクト種類情報、オブジェクト動画データ、環境特徴点情報及び特徴点絶対位置座標を、オブジェクトテーブル405の「位置情報」フィールド、「撮影日情報」フィールド、「オブジェクト種類情報」フィールド、「オブジェクト動画データ」フィールド、「環境特徴点情報」フィールド及び「特徴点絶対位置座標」フィールドにそれぞれ格納する(ステップS7)。そして、データ取得部403から、オブジェクト動画像データ及び環境特徴点情報がオブジェクト生成部404に出力される。
【0050】
オブジェクト生成部404は、操作部204に対するユーザの操作に基づいて、環境特徴点情報の中からユーザが指示した領域内に含まれる特徴点のみを抽出する。そして、この抽出した特徴点に基づいて、当該指定した領域のオブジェクトの3次元仮想オブジェクトがオブジェクト動画像データから生成される(ステップS8)。このようにして生成された3次元仮想オブジェクトは、オブジェクトテーブル405の「3次元仮想オブジェクト」フィールドに格納され、処理が終了する。
【0051】
次に、制御部210で行われる特徴点絶対位置座標に含まれる絶対位置座標の各パラメータ(図5を参照)の算出処理について図7,8を参照して説明する。
図7(A)は、ユーザA102とオブジェクトとの位置関係を示す斜視図である。
図7(B)は、図7(A)に示す空間の位置I及び位置Oを通る断面図である。
位置Iは、ユーザA102の視点、すなわち携帯電話端末103のカメラ部206を構成する光学レンズの位置である。位置Oは、ユーザA102の視点から見ることが可能なオブジェクト702の任意の一点、本例では環境特徴点情報の中の任意の一つの特徴点とする。角度θは、光学レンズの地面に対する傾き角度であり、姿勢情報取得部209で取得される姿勢情報に含まれる情報である。高度Hは、地面と光学レンズ間の距離であり、GPS受信部208によってGPS衛星104から取得されるユーザA位置情報に含まれる情報である。距離Dは、前述のオブジェクトレンズ間距離であり、カメラ部206によって算出される情報である。
【0052】
これらのパラメータを用いてオブジェクト702の位置Oの高さhを求める式を以下に示す。
h=H−Dcosθ
【0053】
図8は、カメラ部206の視野とオブジェクト702との位置関係を示す説明図である。
カメラ視野は、ユーザA102の携帯電話端末103のカメラ部206で撮影可能な範囲である。カメラ視野におけるRは、携帯電話端末103のカメラ部206の光学レンズの位置Iから撮影できる限界までの距離を示す。角度φは、位置Iと位置Oを結んだ直線と、北の方向軸803とがなす角度であり、姿勢情報取得部209で取得される姿勢情報に含まれる情報である。
【0054】
位置Iの位置を(x:緯度,y:経度)とし、位置Oの位置を(x1:緯度,y1:経度)とすると、位置Iと位置Oの位置関係は以下に示す式のとおりとなる。なお、位置Iにおける緯度x及び経度yは、GPS受信部208によってGPS衛星104から取得されるユーザA位置情報に含まれる情報である。
x1=x−Dsinθsinφ
y1=y+Dsinθcosφ
【0055】
以上に示した3つの式を用いることにより、制御部210は、オブジェクト702の任意の点の絶対位置座標(x1:緯度、y1:経度、h:高さ)を算出している。
【0056】
次に、情報処理サーバ106のオブジェクト生成部404で行われる3次元仮想オブジェクト生成処理(図6のステップS8の処理)について図9を参照して説明する。
図9は、オブジェクト生成部404での3次元仮想オブジェクト生成処理時にタッチパネル部406に表示される表示画面の一例を示す説明図である。なお、本例では、オブジェクト生成部404で生成したい3次元仮想オブジェクトが建物902である場合を例とする。
【0057】
図9(A)は、3次元仮想オブジェクトの元になる動画像の再生画面を示す図である。
まず、情報サーバ側のユーザは、図9(B)に示すように、タッチパネル部406に対して指やペン等で建物902の輪郭に線903,904を引く。すると、オブジェクト生成部404では、環境特徴点情報の中から線903,904に囲まれた領域の特徴点がそれぞれ抽出される。そして、線903に含まれる特徴点に基づいてパーツ905の仮想平面が生成され、線904に含まれる特徴点に基づいてパーツ906の仮想平面が生成される。
【0058】
さらに、この操作が建物902の360度すべての方向に対して行われ、建物902の360度すべての方向の平面が生成される。そして、生成されたすべての平面及びこれらの平面を生成するのに用いた各特徴点間の関係性を利用することにより、3次元仮想オブジェクトが生成される。
【0059】
[6.オブジェクト配信処理部の構成]
次に、オブジェクト配信処理部303の構成について図10を参照して説明する。
図10は、オブジェクト配信処理部303及び不揮発性データ記憶部304の機能的な構成を示すブロック図である。
【0060】
オブジェクト配信処理部303は、通信部1002とオブジェクト検索部1003よりなる。
通信部1002は、ユーザB107の携帯電話端末108とパケット網105を介して情報のやり取りを行うものであり、携帯電話端末108から送信されるユーザB位置情報を受信し、受信したユーザB位置情報をオブジェクト検索部1003に出力する。なお、オブジェクト配信処理部303の通信部1002は、オブジェクト登録処理部302の通信部402と共通であってもよい。
【0061】
オブジェクト検索部1003は、通信部1002から入力されるユーザB位置情報で、オブジェクトテーブル405の「位置情報」フィールドを検索し、該当するレコードの「環境特徴点情報」、「特徴点絶対値座標」及び「3次元仮想オブジェクト」の各フィールドに格納された情報を取得する。取得した情報は、通信部1002を介してパケット網105上の携帯電話端末108に送信される。
【0062】
[7.オブジェクト配信時の情報処理システムの動作]
次に、情報処理システム101のオブジェクト配信時の動作について図11を参照して説明する。
図11は、オブジェクト登録時の情報処理システム101の動作を示すフローチャートである。
【0063】
まず、携帯電話端末108を持ったユーザB107が閲覧場所に到着し(ステップS10)、カメラ部206を起動させる。すると、表示部205には、カメラ部206より取得されたカメラ視野802に含まれる風景が、図12(A)の表示画面1202のように示されるように表示される。
【0064】
ここで、ユーザB107の操作部204に対する指示に基づいて、GPS受信部208では、GPS衛星104から電波が受信され、ユーザB107のユーザB位置情報(緯度・経度・高さ)が取得される(ステップS11)。取得されたユーザB位置情報は、web通信部202に出力される。
【0065】
web通信部202は、入力されたユーザB位置情報を、パケット網105を介して情報処理サーバ106に送信する。そして、情報処理サーバ106のオブジェクト配信処理部303を構成する通信部1002において、携帯電話端末108のweb通信部202から送信されたユーザB位置情報が受信され(ステップS12)、オブジェクト検索部1003に出力される。
【0066】
オブジェクト検索部1003は、オブジェクトテーブル405の「位置情報」フィールド(図5を参照)を、入力されたユーザB位置情報で検索する(ステップS13)。そして、該当するレコードがないと判定された場合は(ステップS13のNO)、処理を終了する。ステップS13で、該当するレコードがあると判定された場合は(ステップS13のYES)、オブジェクト検索部1003は、該当するレコードの「環境特徴点情報」フィールド、「特徴点絶対位置座標」フィールド及び「3次元仮想オブジェクト」フィールドに格納されている環境特徴点情報、特徴点絶対位置座標及び3次元仮想オブジェクトを取得する(ステップS14)。そして、オブジェクト検索部1003で取得された環境特徴点情報、特徴点絶対位置座標及び3次元仮想オブジェクトは、通信部1002を介して携帯電話端末108のweb通信部202に送信される。
【0067】
ここで、制御部210は、3次元仮想オブジェクトの位置とカメラ視野802を比較する(ステップS15)。つまり、現在、カメラ部206が取得している動画像の特徴点を抽出し、この抽出した特徴点と情報処理サーバ106から送信された環境特徴点情報とを比較する。
【0068】
そして、カメラ視野802の範囲内に3次元仮想オブジェクトが存在するか否か、つまり環境特徴点情報の中に抽出された特徴点と一致するものがあるか否かが確認される(ステップS16)。
【0069】
このステップS16において、カメラ視野802の範囲内に3次元仮想オブジェクトが存在しないと判定された場合、すなわち環境特徴点情報の中に抽出された特徴点と一致するものが存在しない場合には(ステップS16のNO)、ステップS15の処理に戻る。
【0070】
カメラ視野802の範囲内に3次元仮想オブジェクトが存在すると判定された場合、すなわち環境特徴点情報の中に抽出された特徴点と一致するものが存在する場合には、抽出された特徴点、ユーザB位置情報及び特徴点絶対位置座標に基づいて、現在、表示部205に表示されている表示画面1202に合成する3次元仮想オブジェクトの大きさ、方向及び位置が、描画部207で決定される。そして、図12(B)に示すように、表示部205に3次元仮想オブジェクト1203が合成表示され(ステップS17)、処理が終了する。
【0071】
次に、ステップS17の処理である、3次元仮想オブジェクトの大きさ、方向及び位置を決定する処理についてより詳細に説明を行う。
まず、大きさを決定する処理について説明する。
ユーザB位置情報(緯度・経度・高さ)と特徴点絶対位置座標に含まれる絶対位置座標(緯度・経度・高さ)を利用して、ユーザBと3次元仮想オブジェクトの間の現実世界での距離が算出される。そして、その距離に応じて3次元仮想オブジェクトの大きさが決定される。
【0072】
次に、方向を決定する処理について説明する。
情報処理サーバから取得した環境特徴点情報(ダウンロードした環境特徴点情報)と、カメラが現在撮影している画像(図12(A)を参照)の環境特徴点情報を比較する。現在の画像にはオブジェクトは存在していないが、地面などの特徴点は取得できる。ダウンロードした環境特徴点情報は、オブジェクトの特徴点以外に地面などの特徴点も含んでいるので、それらを比較し、一致するフレームを算出する。算出したフレームによって、当該フレームにおいてオブジェクトがどのように表示されているのかを判別することができる。これにより、3次元仮想オブジェクトを表示部205上に配置する際の方向が決定される。なお、3次元仮想オブジェクトが配置される表示部205上の位置は、特徴点絶対位置座標に含まれる対象特徴点の位置情報に該当する。
【0073】
以上説明したように、本実施形態によれば、ユーザBがユーザAにより動画像が撮影された場所に行った際に、現実空間が表示されている表示部の適切な位置に3次元仮想オブジェクトを適切な大きさ及び方向で重ねて表示することができる。これにより、不特定多数の人が、オブジェクトを撮影した場所を共有できるという効果がある。
【0074】
なお、上述した実施形態では、生成する3次元仮想オブジェクトが建物である例を示したが、例えば図13に示すように広告の3次元仮想オブジェクトを生成し、表示画面に合成表示することも可能である。なお、3次元オブジェクトは、建物や看板に限られるものではなく、例えば家具、家電及び車等でもよい。
【0075】
また、上述した実施形態では、情報処理サーバのオブジェクトテーブルに格納されているすべての3次元仮想オブジェクトの中から、ユーザBの携帯電話端末108に送信する3次元仮想オブジェクトを決定していた。しかしながら、オブジェクトテーブルに格納されている3次元仮想オブジェクトを撮影日情報及び/またはオブジェクト種類情報で絞り込んだ後に、携帯電話端末108に送信するようにしてもよい。これは、携帯電話端末108から情報処理サーバへユーザB位置情報を送信する際に、撮影日情報及び/またはオブジェクト種類情報も送信しておき、撮影日情報及び/またはオブジェクト種類情報でオブジェクトテーブルのレコードを絞り込むことによって実現できる。
【0076】
また、上述した実施形態では、情報処理サーバにおいてオブジェクトテーブルに格納されている3次元仮想オブジェクトは、ユーザのタッチパネル部に対する操作に基づいて、動画像データから3次元仮想オブジェクトを生成されるものである。しかし、3間オブジェクトは、動画像データの画像解析により、動画像データから自動的に生成されるようにしてもよい。
【0077】
以上、本発明の実施形態の例について説明したが、本発明は上記実施形態例に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含むことはいうまでもない。
【符号の説明】
【0078】
101…情報処理システム、102…ユーザA、103…携帯電話端末、104…GPS衛星、105…パケット網、106…情報処理サーバ、107…ユーザB、108…携帯電話端末、202…web通信部、203…記憶部、204…操作部、205…表示部、206…カメラ部、207…描画部、208…GPS受信部、209…姿勢情報取得部、210…制御部、302…オブジェクト登録処理部、303…オブジェクト配信処理部、304…不揮発性データ記憶部、402…通信部、403…データ取得部、404…オブジェクト生成部、405…オブジェクトテーブル、702…オブジェクト、802…カメラ視野、803…北の方向軸、1002…通信部、1003…オブジェクト検索部
【特許請求の範囲】
【請求項1】
光学レンズを備え、光学レンズを通過した光を画像として取得するカメラ部と、
前記カメラ部で取得された前記画像を表示する表示部と、
前記カメラ部で取得された前記画像から前記画像に係る空間情報を算出する制御部と、
GPS衛星から電波を受信して携帯電話位置情報を取得するGPS受信部と、
過去に撮影した動画像を元に生成される3次元のコンピュータグラフィックスである3次元仮想オブジェクトと、前記動画像が撮影された場所を示す撮影位置情報と、前記動画像に係る空間情報とが対応付けられて格納されているオブジェクトテーブルを備える情報処理サーバに、前記携帯電話位置情報を送信するとともに、前記オブジェクトテーブル内に、前記送信した携帯電話位置情報に一致する前記撮影位置情報があった場合に、前記情報処理サーバから送信される前記3次元仮想オブジェクト及び前記動画像に係る空間情報を受信するweb通信部と、
前記動画像に係る空間情報と前記画像に係る空間情報との関係性を利用することにより、前記3次元仮想オブジェクトを表示画面の上に合成する際の大きさ、方向及び位置を決定し、前記決定した位置に前記3次元仮想オブジェクトを合成して表示させる描画部と
を備える携帯電話端末。
【請求項2】
前記携帯電話位置情報及び前記撮影位置情報は、緯度、経度及び高さを含む情報である
請求項1に記載の携帯電話端末。
【請求項3】
過去に撮影した動画像を元に生成される3次元のコンピュータグラフィックスである3次元仮想オブジェクトと、前記動画像が撮影された場所を示す撮影位置情報と、前記動画像に係る空間情報とが対応付けられて格納されているオブジェクトテーブルと、
携帯電話端末から送信される携帯電話位置情報を受信し、受信した前記携帯電話位置情報と一致する前記撮影位置情報を前記オブジェクトテーブルから検索し、前記携帯電話位置情報に対応する前記撮影位置情報を有する前記3次元仮想オブジェクト及び前記動画像に係る空間情報オブジェクトを、前記携帯電話端末に送信するオブジェクト配信処理部と
を含む情報処理サーバと、
光学レンズを備え、光学レンズを通過した光を画像として取得するカメラ部と、
前記カメラ部で取得された前記画像を表示する表示部と、
前記カメラ部で取得された前記画像から前記画像に係る空間情報を算出する制御部と、
GPS衛星から電波を受信して携帯電話位置情報を取得するGPS受信部と、
前記オブジェクト配信処理部に前記携帯電話位置情報を送信するとともに、前記オブジェクト処理部から送信される前記3次元仮想オブジェクト及び前記動画像に係る空間情報を受信するweb通信部と、
前記動画像に係る空間情報と前記画像に係る空間情報との関係性を利用することにより、前記3次元仮想オブジェクトを表示画面の上に合成する際の大きさ、方向及び位置を決定し、決定した位置に前記3次元仮想オブジェクトを合成して表示させる描画部と
を含む携帯電話端末と
を備える情報処理システム。
【請求項1】
光学レンズを備え、光学レンズを通過した光を画像として取得するカメラ部と、
前記カメラ部で取得された前記画像を表示する表示部と、
前記カメラ部で取得された前記画像から前記画像に係る空間情報を算出する制御部と、
GPS衛星から電波を受信して携帯電話位置情報を取得するGPS受信部と、
過去に撮影した動画像を元に生成される3次元のコンピュータグラフィックスである3次元仮想オブジェクトと、前記動画像が撮影された場所を示す撮影位置情報と、前記動画像に係る空間情報とが対応付けられて格納されているオブジェクトテーブルを備える情報処理サーバに、前記携帯電話位置情報を送信するとともに、前記オブジェクトテーブル内に、前記送信した携帯電話位置情報に一致する前記撮影位置情報があった場合に、前記情報処理サーバから送信される前記3次元仮想オブジェクト及び前記動画像に係る空間情報を受信するweb通信部と、
前記動画像に係る空間情報と前記画像に係る空間情報との関係性を利用することにより、前記3次元仮想オブジェクトを表示画面の上に合成する際の大きさ、方向及び位置を決定し、前記決定した位置に前記3次元仮想オブジェクトを合成して表示させる描画部と
を備える携帯電話端末。
【請求項2】
前記携帯電話位置情報及び前記撮影位置情報は、緯度、経度及び高さを含む情報である
請求項1に記載の携帯電話端末。
【請求項3】
過去に撮影した動画像を元に生成される3次元のコンピュータグラフィックスである3次元仮想オブジェクトと、前記動画像が撮影された場所を示す撮影位置情報と、前記動画像に係る空間情報とが対応付けられて格納されているオブジェクトテーブルと、
携帯電話端末から送信される携帯電話位置情報を受信し、受信した前記携帯電話位置情報と一致する前記撮影位置情報を前記オブジェクトテーブルから検索し、前記携帯電話位置情報に対応する前記撮影位置情報を有する前記3次元仮想オブジェクト及び前記動画像に係る空間情報オブジェクトを、前記携帯電話端末に送信するオブジェクト配信処理部と
を含む情報処理サーバと、
光学レンズを備え、光学レンズを通過した光を画像として取得するカメラ部と、
前記カメラ部で取得された前記画像を表示する表示部と、
前記カメラ部で取得された前記画像から前記画像に係る空間情報を算出する制御部と、
GPS衛星から電波を受信して携帯電話位置情報を取得するGPS受信部と、
前記オブジェクト配信処理部に前記携帯電話位置情報を送信するとともに、前記オブジェクト処理部から送信される前記3次元仮想オブジェクト及び前記動画像に係る空間情報を受信するweb通信部と、
前記動画像に係る空間情報と前記画像に係る空間情報との関係性を利用することにより、前記3次元仮想オブジェクトを表示画面の上に合成する際の大きさ、方向及び位置を決定し、決定した位置に前記3次元仮想オブジェクトを合成して表示させる描画部と
を含む携帯電話端末と
を備える情報処理システム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【公開番号】特開2011−22662(P2011−22662A)
【公開日】平成23年2月3日(2011.2.3)
【国際特許分類】
【出願番号】特願2009−164908(P2009−164908)
【出願日】平成21年7月13日(2009.7.13)
【出願人】(502087507)ソニー エリクソン モバイル コミュニケーションズ, エービー (823)
【Fターム(参考)】
【公開日】平成23年2月3日(2011.2.3)
【国際特許分類】
【出願日】平成21年7月13日(2009.7.13)
【出願人】(502087507)ソニー エリクソン モバイル コミュニケーションズ, エービー (823)
【Fターム(参考)】
[ Back to top ]