説明

画像処理装置、プログラム及び画像処理方法

【課題】目的とする建物又は施設などのオブジェクトを実空間内で見つけることを容易にすること。
【解決手段】実世界に存在するオブジェクトの3次元形状及び位置を記述する3次元モデルを記憶する記憶部と、上記実世界を映した入力画像を取得する入力画像取得部と、上記3次元モデルに含まれるオブジェクトのうちの指定オブジェクトに対応する上記入力画像内の部分画像を加工することにより、上記指定オブジェクトを強調して表示する強調画像を生成する強調処理部と、を備える画像処理装置を提供する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置、プログラム及び画像処理方法に関する。
【背景技術】
【0002】
従来、実世界の地理情報をコンピュータの画面上でユーザに呈示する様々な地理情報サービスが実用化されている。例えば、Web上で公開されている一般的な地図検索サービスを利用すれば、ユーザは、所望の地名、住所又はランドマーク名などに対応する位置を含む地域の地図を手軽に入手することができる。また、地図検索サービスにおいて表示される地図上で、ユーザにより指定されるキーワードに適合する施設にマーク付けすることも可能である。
【0003】
さらに、近年のコンピュータ性能の飛躍的な向上の結果、2次元の平面的な地図だけではなく3次元空間の情報をユーザ端末で扱うことも可能となった。例えば、下記特許文献1は、地図案内装置からの出力画像において、現在位置の周囲の2次元の地図と3次元画像とを並列的に表示することを提案している。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2005−227590号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、指定された位置を俯瞰する3次元画像を単純に表示する手法では、表示される3次元画像の視点と実空間内でのユーザの視点とが異なる。そのため、ユーザが目的とする建物又は施設などを実空間内で見つけ出そうとしても、目に見える実世界の状況と3次元画像とが一致せず、目的とする建物又は施設などを容易に見つけ出せない場合があった。
【0006】
そこで、本発明は、目的とする建物又は施設などのオブジェクトを実空間内で見つけることを容易にする、新規かつ改良された画像処理装置、プログラム及び画像処理方法を提供しようとするものである。
【課題を解決するための手段】
【0007】
本発明のある実施形態によれば、実世界に存在するオブジェクトの3次元形状及び位置を記述する3次元モデルを記憶する記憶部と、上記実世界を映した入力画像を取得する入力画像取得部と、上記3次元モデルに含まれるオブジェクトのうちの指定オブジェクトに対応する上記入力画像内の部分画像を加工することにより、上記指定オブジェクトを強調して表示する強調画像を生成する強調処理部と、を備える画像処理装置が提供される。
【0008】
また、上記強調処理部は、上記指定オブジェクトが動くアニメーションを表現する一連の上記強調画像を生成してもよい。
【0009】
また、上記強調処理部は、上記部分画像のサイズ、形状、色及び明るさのうち少なくとも1つを変更することにより上記強調画像を生成してもよい。
【0010】
また、上記強調処理部は、順位付けされた複数のオブジェクトが指定された場合に、複数の指定オブジェクトの各々に対応する上記部分画像のサイズを各オブジェクトの順位に応じて変化させてもよい。
【0011】
また、上記画像処理装置は、自装置が揺り動かされたことを検出する検出部、をさらに備え、上記強調処理部は、自装置が揺り動かされたことを上記検出部が検出した場合に、上記指定オブジェクトが揺れ動く上記アニメーションを表現する一連の上記強調画像を生成してもよい。
【0012】
また、上記画像処理装置は、自装置が揺り動かされたことを検出する検出部、をさらに備え、上記強調処理部は、第1グループに属する第1の指定オブジェクトと第2グループに属する第2の指定オブジェクトとが指定された場合に、上記第1の指定オブジェクト及び上記第2の指定オブジェクトの双方を第1の手法で強調すると共に、さらに自装置が揺り動かされたことを上記検出部が検出したときには、指定オブジェクトが揺れ動く上記アニメーションを用いる第2の手法で上記第1の指定オブジェクトのみを強調してもよい。
【0013】
また、上記画像処理装置は、自装置の現在位置を計測する測位部と、上記測位部により計測される上記現在位置の周囲の上記3次元モデルに含まれるオブジェクトの特徴点と上記入力画像内の特徴点とを照合することにより、上記3次元モデルに含まれるオブジェクトと上記入力画像に映るオブジェクトとを対応付ける照合部と、をさらに備えてもよい。
【0014】
また、上記照合部は、上記照合の結果として自装置の位置及び姿勢を判定し、上記強調処理部は、上記照合部により判定される位置及び姿勢に応じて上記部分画像を変換して各指定オブジェクトのためのテクスチャを取得し、取得した上記テクスチャを用いて上記強調画像を生成してもよい。
【0015】
また、本発明の別の実施形態によれば、実世界に存在するオブジェクトの3次元形状及び位置を記述する3次元モデルを記憶する記憶部を備える画像処理装置を制御するコンピュータを、上記実世界を映した入力画像を取得する入力画像取得部と、上記3次元モデルに含まれるオブジェクトのうちの指定オブジェクトに対応する上記入力画像内の部分画像を加工することにより、上記指定オブジェクトを強調して表示する強調画像を生成する強調処理部と、として機能させるためのプログラムが提供される。
【0016】
また、上記強調処理部は、上記指定オブジェクトが動くアニメーションを表現する一連の上記強調画像を生成してもよい。
【0017】
また、上記強調処理部は、上記部分画像のサイズ、形状、色及び明るさのうち少なくとも1つを変更することにより上記強調画像を生成してもよい。
【0018】
また、上記強調処理部は、順位付けされた複数のオブジェクトが指定された場合に、複数の指定オブジェクトの各々に対応する上記部分画像のサイズを各オブジェクトの順位に応じて変化させてもよい。
【0019】
また、上記強調処理部は、上記画像処理装置の検出部が自装置が揺り動かされたことを検出した場合に、上記指定オブジェクトが揺れ動く上記アニメーションを表現する一連の上記強調画像を生成してもよい。
【0020】
また、上記強調処理部は、第1グループに属する第1の指定オブジェクトと第2グループに属する第2の指定オブジェクトとが指定された場合に、上記第1の指定オブジェクト及び上記第2の指定オブジェクトの双方を第1の手法で強調すると共に、さらに上記画像処理装置の検出部が自装置が揺り動かされたことを検出したときには、指定オブジェクトが揺れ動く上記アニメーションを用いる第2の手法で上記第1の指定オブジェクトのみを強調してもよい。
【0021】
また、上記プログラムは、上記コンピュータを、上記画像処理装置の測位部により計測される現在位置の周囲の上記3次元モデルに含まれるオブジェクトの特徴点と上記入力画像内の特徴点とを照合することにより、上記3次元モデルに含まれるオブジェクトと上記入力画像に映るオブジェクトとを対応付ける照合部、としてさらに機能させてもよい。
【0022】
また、上記照合部は、上記照合の結果として自装置の位置及び姿勢を判定し、上記強調処理部は、上記照合部により判定される位置及び姿勢に応じて上記部分画像を変換して各指定オブジェクトのためのテクスチャを取得し、取得した上記テクスチャを用いて上記強調画像を生成してもよい。
【0023】
また、本発明の別の実施形態によれば、実世界を映した入力画像を取得するステップと、上記実世界に存在するオブジェクトの3次元形状及び位置を記述する3次元モデルを取得するステップと、上記3次元モデルに含まれるオブジェクトのうちの指定オブジェクトに対応する上記入力画像内の部分画像を加工することにより、上記指定オブジェクトを強調して表示する強調画像を生成するステップと、を含む画像処理方法が提供される。
【発明の効果】
【0024】
以上説明したように、本発明に係る画像処理装置、プログラム及び画像処理方法によれば、目的とする建物又は施設などのオブジェクトを実空間内で見つけることを容易にすることができる。
【図面の簡単な説明】
【0025】
【図1】一実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。
【図2】一実施形態に係る画像処理装置の論理的な構成の一例を示すブロック図である。
【図3】入力画像の一例を示す説明図である。
【図4】3次元モデルの一例について説明するための説明図である。
【図5】一実施形態に係る照合部による照合処理の結果の一例を示す説明図である。
【図6】一実施形態に係る強調処理部による部分画像抽出処理について説明するための説明図である。
【図7】一実施形態に係る強調処理部による強調処理の第1の例について説明するための説明図である。
【図8】一実施形態に係る強調処理部による強調処理の第2の例について説明するための説明図である。
【図9】一実施形態に係る強調処理部による強調処理の第3の例について説明するための説明図である。
【図10】一実施形態に係る画像処理の流れの一例を示すフローチャートである。
【発明を実施するための形態】
【0026】
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付すことにより重複説明を省略する。
【0027】
また、以下の順序にしたがって当該「発明を実施するための形態」を説明する。
1.画像処理装置の構成例
1−1.ハードウェア構成
1−2.論理的な構成
2.強調処理の例
2−1.第1の例
2−2.第2の例
2−3.第3の例
3.画像処理の流れの例
4.まとめ
【0028】
<1.画像処理装置の構成例>
まず、図1〜図6を用いて、本発明の一実施形態に係る画像処理装置の構成の一例を説明する。本明細書において説明する画像処理装置は、例えば、PC(Personal Computer)、スマートフォン、携帯情報端末、デジタルカメラ、車載若しくは携帯型ナビゲーション機器、又はゲーム端末などであってよい。
【0029】
[1−1.ハードウェア構成]
図1は、本実施形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図1を参照すると、画像処理装置100は、CPU(Central Processing Unit)10、RAM(Random Access Memory)12、ROM(Read Only Memory)14、バス16、記憶装置20、撮像装置22、表示装置24、入力装置26、GPS(Global Positioning System)モジュール30、電子コンパス32及び加速度センサ34を備える。
【0030】
CPU10は、画像処理装置100の動作全般を制御する。RAM12は、CPU10により実行されるプログラム及びデータを一時的に記憶する。ROM14は、画像処理装置100の動作のためのプログラムを予め記憶する。バス16は、CPU10、RAM12、ROM14、記憶装置20、撮像装置22、表示装置24、入力装置26、GPSモジュール30、電子コンパス32及び加速度センサ34を相互に接続する。
【0031】
記憶装置20は、ハードディスク又は半導体メモリなどの記憶媒体により構成される。記憶装置20は、着脱可能であってもよい。記憶装置20により記憶されるデータは、画像処理装置100による画像処理の際に外部のデータベースから動的に取得されてもよい。撮像装置22は、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を有するカメラモジュールとして構成される。表示装置24は、例えば、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diode)又はPDP(Plasma Display Panel)などの画面上に画像を表示する。入力装置26は、画像処理装置100のユーザが画像処理装置100に情報を入力するためのボタン、キーパッド、タッチパネル又はポインティングデバイスなどを含む。
【0032】
GPSモジュール30は、GPS衛星から送信されるGPS信号を受信し、画像処理装置100が現在位置する緯度、経度及び高度などを算出する。電子コンパス32は、画像処理装置100が現在向いている方角を検出する。加速度センサ34は、画像処理装置100に加えられる力により生じる加速度を検出する。
【0033】
[1−2.論理的な構成]
図2は、本実施形態に係る画像処理装置100の論理的な構成の一例を示すブロック図である。図2を参照すると、画像処理装置100は、入力画像取得部110、測位部120、記憶部130、照合部140、揺れ検出部150、アプリケーション部160、ユーザインタフェース部170及び強調処理部180を備える。
【0034】
(1)入力画像取得部
入力画像取得部110は、撮像装置22を用いて、実世界を映した一連の入力画像を取得する。そして、入力画像取得部110は、取得した入力画像を照合部140及び強調処理部180へ順次出力する。
【0035】
図3は、入力画像取得部110により取得される入力画像の一例を示す説明図である。図3を参照すると、画像処理装置100を携帯するユーザ(又は画像処理装置100を搭載した車両など)が存在する実空間としての街が映っている。街には、複数の建物又は施設が存在する。このように入力画像に映るオブジェクトは、後に説明するアプリケーション部160における地理情報検索の検索対象、又はナビゲーションにおける案内の対象となり得る。
【0036】
(2)測位部
測位部120は、GPSモジュール30を用いて、画像処理装置100の現在位置を計測する。また、測位部120は、電子コンパス32を用いて、画像処理装置100が現在向いている方角を計測する。そして、測位部120は、計測の結果として得られる画像処理装置100の緯度、経度及び高度などの位置情報並びに方角情報を、照合部140へ出力する。
【0037】
(3)記憶部
記憶部130は、実世界に存在するオブジェクトの3次元形状及び位置を記述する3次元モデルを記憶する。3次元モデルにより記述されるオブジェクトは、例えば、アプリケーション部160が提供する上述したアプリケーション機能の対象とされるオブジェクトを含む。例えば、街に存在するレストラン、オフィス、学校、駅、公共施設並びにランドマークなどのオブジェクトの3次元形状及び位置が、3次元モデルにより記述される。3次元モデルは、例えば、GML(Geography Markup Language)又はGMLをベースとするKMLなどの言語を用いて記述されてよい。
【0038】
図4は、3次元モデルの一例について説明するための説明図である。図4を参照すると、一例としての3次元モデル132が部分的に表現されている。図4の例において、3次元モデル132は、それぞれ建物である9個のオブジェクトB1〜B9に関するデータを含む。3次元モデル132は、これらオブジェクトの各々について、例えば、オブジェクトの識別子(以下、オブジェクトIDという)、建物の名称、並びに建物の形状を構成する頂点の3次元位置及び既定のテクスチャを定義する。実際には、記憶部130により記憶される3次元モデルは、図4に例示したオブジェクト群よりも多数の(より広範囲にわたる地域内の)オブジェクトに関するデータを含んでよい。また、記憶部130は、これらオブジェクトと関連付けて、例えばレストラン又はホテルなどユーザにより利用される施設についてのユーザによる評価などの付加情報を記憶してもよい。
【0039】
(4)照合部
照合部140は、測位部120により計測される現在位置の周囲の3次元モデルに含まれるオブジェクトの特徴点と入力画像内の特徴点とを照合することにより、3次元モデルに含まれるオブジェクトと入力画像に映るオブジェクトとを対応付ける。より具体的には、本実施形態において、照合部140は、まず、画像処理装置100の現在位置の周囲のオブジェクトに関するデータを、測位部120から入力される位置情報及び方角情報に基づいて、記憶部130に記憶されている3次元モデルから抽出する。また、照合部140は、例えばHarris法又はMoravec法などの公知のコーナー検出法に従って、入力画像内に特徴点を設定する。そして、照合部140は、3次元モデルから抽出されたオブジェクト群の特徴点と入力画像内に設定した特徴点とを照合する。それにより、照合部140は、3次元モデルに含まれるオブジェクトと入力画像に映るオブジェクトとの対応を認識することができる。また、照合部140は、照合の結果として、画像処理装置100の詳細な位置及び姿勢を判定してもよい。ここで説明した照合処理により判定される画像処理装置100の位置は、GPSモジュール30を用いて測位部120が計測可能な位置よりも高い精度を有し得る。
【0040】
図5は、照合部140による照合処理の結果の一例を示す説明図である。図5を参照すると、入力画像Im01に映っているオブジェクトのコーナーに三角形で示された多数の特徴点が設定されている。そして、入力画像Im01内のこれら特徴点が、画像処理装置100の特定の位置及び姿勢において、3次元モデル132に含まれるオブジェクトの頂点に適合する。例えば、特徴点FP1は、3次元モデル132のオブジェクトB2の頂点の1つに一致している。このようにして、照合部140は、3次元モデルに含まれるオブジェクトが入力画像内のどの位置に映っているかを認識することができる。
【0041】
(5)揺れ検出部
揺れ検出部150は、加速度センサ34を用いて、画像処理装置100が揺り動かされたことを検出する。そして、揺れ検出部150は、画像処理装置100が揺り動かされたことを検出すると、強調処理部180へ揺れ検出信号を出力する。揺れ検出部150は、例えは、画像処理装置100に加えられる加速度が所定の閾値を上回った場合に、画像処理装置100が揺り動かされたと判定してもよい。
【0042】
(6)アプリケーション部
アプリケーション部160は、地理情報サービスに関連する上で例示したアプリケーション機能を実現する処理ブロックである。アプリケーション部160が提供するアプリケーション機能は、例えば、地理情報検索機能又はナビゲーション機能などであってよい。アプリケーション部160は、例えば、ユーザインタフェース部170にアプリケーション画面を表示させる。また、アプリケーション画面を介して検索キーワードがユーザにより入力されると、アプリケーション部160は、入力された検索キーワードに適合するオブジェクトを記憶部130から検索する。そして、アプリケーション部160は、検索結果として特定された1つ以上のオブジェクトを指定するオブジェクト指定情報を、強調処理部180へ出力する。オブジェクト指定情報は、例えば、ナビゲーションの目的地としてユーザにより選択されるオブジェクトを指定する情報であってもよい。
【0043】
(7)ユーザインタフェース部
ユーザインタフェース部170は、上述したアプリケーション機能を利用するためのユーザインタフェースをユーザに提供する。ユーザインタフェース部170は、例えば、入力装置26を介して、地理情報検索機能のための検索キーワード又はナビゲーションの目的地などのユーザ入力情報を受け付ける。また、ユーザインタフェース部170は、アプリケーション部160により生成されるアプリケーション画面を表示装置24を用いて表示する。さらに、ユーザインタフェース部170は、例えば、後に説明する強調処理部180により生成される強調画像をアプリケーション画面内で表示する。
【0044】
(8)強調処理部
強調処理部180は、3次元モデルに含まれるオブジェクトのうちの1つ以上の指定されるオブジェクト(以下、指定オブジェクトという)に対応する入力画像内の部分画像を加工することにより、上記指定オブジェクトを強調して表示するための強調画像を生成する。本実施形態において、強調処理部180は、例えば、アプリケーション部160からオブジェクト指定情報が入力されると、オブジェクト指定情報により指定オブジェクトが入力画像に映っているか否かを判定する。次に、強調処理部180は、入力画像に映っているオブジェクトが存在する場合には、照合部140による上述した照合の結果に基づいて、当該オブジェクトに対応する入力画像内の領域を認識する。次に、強調処理部180は、認識した領域における部分画像を、指定オブジェクトが強調されるように加工する。ここで強調処理部180により加工され生成された部分画像を、本明細書では強調画像という。そして、強調処理部180は、強調画像を入力画像に重畳することにより出力画像を生成し、生成した出力画像をユーザインタフェース部170により表示させる。
【0045】
図6は、本実施形態に係る強調処理部180による部分画像抽出処理について説明するための説明図である。図6の左上には、入力画像Im01が示されている。ここで、一例として、アプリケーション部160から入力されるオブジェクト指定情報が、入力画像Im01に映るオブジェクトB7を指定しているものとする。図6の右上には、照合部140による照合の結果として認識される、オブジェクトB7に対応する領域R1が示されている。強調処理部180は、入力画像Im01からこのような領域R1の部分画像Im11を抽出する(図6左下参照)。ここで、部分画像Im11には、入力画像Im01に映る動物体が重なっている可能性がある。図6の例では、人間がオブジェクトB7の前面に重なっている。そこで、強調処理部180は、例えば、複数のフレームにわたる部分画像Im11を平均化することにより、動物体の影響を低減させた部分画像Im12を生成する。
【0046】
次節では、このようにして抽出される部分画像から上述した強調画像を生成するための、強調処理部180による強調処理の3つの例を詳細に説明する。
【0047】
<2.強調処理の例>
図7〜図9は、それぞれ、本実施形態に係る強調処理部180による強調処理の一例について説明するための説明図である。
【0048】
[2−1.第1の例]
強調処理の第1の例では、図4に例示した3次元モデル132に含まれるオブジェクトB4及びB7が、オブジェクト指定情報により指定されているものとする。図7を参照すると、第1の例において強調処理部180により生成される出力画像Im21が示されている。出力画像Im21と図3の入力画像Im01とを対比すると、オブジェクトB4及びB7のサイズ(特に、高さ)が画像内で拡大されていることが理解される。このように、強調処理部180は、指定オブジェクトに対応する部分画像のサイズを変更することにより、当該オブジェクトを強調してもよい。その代わりに(又は追加的に)、強調処理部180は、指定オブジェクトに対応する部分画像の形状、色又は明るさを変更することにより、当該オブジェクトを強調してもよい。
【0049】
なお、強調処理部180は、各オブジェクトを強調する強調画像(図7の出力画像Im21内の網掛け部分)を、部分画像のサイズ、形状、色又は明るさを変化させることにより直接的に生成してもよい。その代わりに、例えば、強調処理部180は、部分画像のパースによる歪みを除去して各オブジェクトのテクスチャを取得し、取得したテクスチャを各オブジェクトのポリゴンの表面に貼り付けて強調画像を生成してもよい。部分画像のパースによる歪みは、照合部140により判定される画像処理装置100の(撮像装置22の)位置及び姿勢に応じて当該部分画像をアフィン変換することにより除去され得る。このように取得されるテクスチャを用いることで、例えば、指定オブジェクトの外観のうち入力画像内で他のオブジェクトに隠されている部分についても出力画像内で可視化することができる(例えば、後の図9の例において、他のオブジェクトに隠されている部分が可視化されている)。
【0050】
[2−2.第2の例]
強調処理の第2の例においても、図4に例示した3次元モデル132に含まれるオブジェクトB4及びB7が、オブジェクト指定情報により指定されているものとする。また、一例として、オブジェクトB4及びB7は、レストラン検索の結果として指定されており、各オブジェクトに「店名」及び「評価」という2つの付加情報が関連付けられているものとする。例えば、図8を参照すると、オブジェクトB4の店名は「ABC Cafe」、評価は星2つである。一方、オブジェクトB7の店名は「Bar XYZ」、評価は星3つである。なお、付加情報は、かかる例に限定されず、例えば想定される予算、料理の種類などの任意の情報であってよい。
【0051】
第2の例において、強調処理部180は、まず、第1の例と同様に、指定オブジェクトB4及びB7に対応する部分画像のサイズ(又は形状、色若しくは明るさ)を変更することにより、これら指定オブジェクトを強調する。さらに、強調処理部180は、指定オブジェクトが動くアニメーションを表現する一連の強調画像を生成する。かかるアニメーションは、例えば、オブジェクトが揺れ動くアニメーションである。強調処理部180は、例えば、画像処理装置100が揺り動かされたことを示す揺れ検出信号が揺れ検出部150から入力された場合に、このような指定オブジェクトが揺れ動くアニメーションを生成してよい。
【0052】
図8を参照すると、第2の例において強調処理部180により生成される出力画像Im22、Im23及びIm24が示されている。出力画像Im22では、揺れ検出部150による揺れの検出結果によらず、上述したオブジェクトB4及びB7が、サイズを拡大する手法で共に強調されている。一方、出力画像Im23及びIm24は、画像処理装置100の揺れが検出された場合に表示される画像である。出力画像Im23及びIm24において、評価の高い(星3つ)レストランであるオブジェクトB7のみが、指定オブジェクトを揺り動かすアニメーションを用いる手法で強調されている。
【0053】
このように、指定オブジェクトが動くアニメーションを用いることで、目的とする指定オブジェクトが入力画像内の他のオブジェクトに紛れることがない。そのため、ユーザは、出力画像を参照することで、一目瞭然に目的とするオブジェクトを見つけることができる。なお、オブジェクトが動くアニメーションは、上述した例に限定されず、例えばオブジェクトが伸縮し又は飛び跳ねるようなアニメーションであってもよい。
【0054】
また、上述したように、指定オブジェクトを付加情報(例えば、星の数又は予算の範囲など)に応じて2つ以上のグループに分類し、その分類に応じて異なる手法で段階的にオブジェクトを強調することにより、ユーザに呈示すべき複数の指定オブジェクトとその中でもより注目に値する指定オブジェクト(例えば、星の数の多いレストラン、又はユーザの予算に適合するレストランなど)とを、ユーザが容易に区別し得るように表示することができる。また、ユーザが装置を揺り動かしたことをきっかけとして指定オブジェクトを揺り動かす手法により、より直感的かつユーザにとって憶え易い地理情報の呈示のための効果的なユーザインタフェースが実現される。
【0055】
[2−3.第3の例]
強調処理の第3の例では、オブジェクトB4、B7及びB10が、オブジェクト指定情報により指定されているものとする。また、第2の例と同様、各オブジェクトに「店名」及び「評価」という2つの付加情報が関連付けられているものとする。但し、第3の例においては、「評価」は数値として与えられ、数値の大小に応じたランキングが付与されているものとする。例えば、オブジェクトB4の評価は2.9であり、ランキングは第3位である。オブジェクトB7の評価は3.8であり、ランキングは第2位である。オブジェクトB10の評価は4.2であり、ランキングは第1位である。
【0056】
第3の例において、強調処理部180は、このように順位付けされた複数のオブジェクトが指定された場合に、複数の指定オブジェクトの各々に対応する部分画像のサイズを各オブジェクトの順位に応じて変化させる。図9の例では、出力画像Im25において、オブジェクトB10が最も大きいサイズで表示され、オブジェクトB7は次に大きいサイズで表示され、オブジェクトB4は指定オブジェクトの中で最も小さくなるように縮小されている。
【0057】
このように、オブジェクトに付与されるランキングなどの付加情報に応じてオブジェクトのサイズを変化させることで、指定オブジェクトに関する位置情報に加えて、付加情報をも直感的かつ容易にユーザに理解させることができる。
【0058】
<3.画像処理の流れの例>
図10は、本実施形態に係る画像処理装置100による画像処理の流れの一例を示すフローチャートである。図10を参照すると、まず、入力画像取得部110は、実世界を映した入力画像を取得する(ステップS102)。また、測位部120は、画像処理装置100の現在位置及び方角を計測する(ステップS104)。次に、照合部140は、画像処理装置100の現在位置の周囲のオブジェクトに関するデータを、記憶部130に記憶されている3次元モデルから取得する(ステップS106)。次に、照合部140は、入力画像内に設定した特徴点と取得した3次元モデルに含まれるオブジェクト群の特徴点とを照合する(ステップS108)。次に、強調処理部180は、アプリケーション部160からオブジェクト指定情報が入力されると、オブジェクト指定情報により指定された1つ以上の指定オブジェクトを識別する(ステップS110)。次に、強調処理部180は、指定オブジェクトに対応する入力画像内の領域の部分画像を抽出する(ステップS112)。次に、強調処理部180は、抽出した部分画像を加工することにより、指定オブジェクトを強調する強調画像を生成する(ステップS114)。そして、強調処理部180は、入力画像と生成した強調画像とを重畳することにより、出力画像を生成する(ステップS116)。このように生成された出力画像は、ユーザインタフェース部170を介して表示装置24の画面上に表示される。
【0059】
<4.まとめ>
ここまで、図1〜図10を用いて、本発明の一実施形態について説明した。本実施形態によれば、アプリケーション機能により指定される3次元モデル内の指定オブジェクトに対応する入力画像内の部分画像を加工することにより、指定オブジェクトが強調された強調画像が生成され、表示される。従って、ユーザが利用する画像処理装置100に設けられる撮像装置22の視点からの入力画像に映る自然な外観を保ったまま、指定オブジェクトが強調して表示される。その結果、目的とする建物又は施設などの指定オブジェクトをユーザが実空間内で見つけることが容易となる。
【0060】
また、例えば、指定オブジェクトが動くアニメーションを表現する一連の強調画像を用いることで、目的とするオブジェクトを一目瞭然にユーザに認識させることができる。また、ランキングなどの付加情報を、出力画像内のオブジェクトの変化により直感的かつ容易にユーザに認識させることもできる。
【0061】
また、ユーザが装置を揺り動かしたことをきっかけとして出力画像内で指定オブジェクトを揺り動かすアニメーションを表示することで、ユーザ自身の動きと強調表示との間に関連性を持たせ、地理情報の呈示に際しての直感的かつ分かり易いユーザインタフェースが実現され得る。
【0062】
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
【符号の説明】
【0063】
100 画像処理装置
110 入力画像取得部
120 測位部
130 記憶部
140 照合部
150 揺れ検出部
180 強調処理部


【特許請求の範囲】
【請求項1】
実世界に存在するオブジェクトの3次元形状及び位置を記述する3次元モデルを記憶する記憶部と、
前記実世界を映した入力画像を取得する入力画像取得部と、
前記3次元モデルに含まれるオブジェクトのうちの指定オブジェクトに対応する前記入力画像内の部分画像を加工することにより、前記指定オブジェクトを強調して表示する強調画像を生成する強調処理部と、
を備える画像処理装置。
【請求項2】
前記強調処理部は、前記指定オブジェクトが動くアニメーションを表現する一連の前記強調画像を生成する、請求項1に記載の画像処理装置。
【請求項3】
前記強調処理部は、前記部分画像のサイズ、形状、色及び明るさのうち少なくとも1つを変更することにより前記強調画像を生成する、請求項1に記載の画像処理装置。
【請求項4】
前記強調処理部は、順位付けされた複数のオブジェクトが指定された場合に、複数の指定オブジェクトの各々に対応する前記部分画像のサイズを各指定オブジェクトの順位に応じて変化させる、請求項3に記載の画像処理装置。
【請求項5】
前記画像処理装置は、自装置が揺り動かされたことを検出する検出部、をさらに備え、
前記強調処理部は、自装置が揺り動かされたことを前記検出部が検出した場合に、前記指定オブジェクトが揺れ動く前記アニメーションを表現する一連の前記強調画像を生成する、
請求項2に記載の画像処理装置。
【請求項6】
前記画像処理装置は、自装置が揺り動かされたことを検出する検出部、をさらに備え、
前記強調処理部は、第1グループに属する第1の指定オブジェクトと第2グループに属する第2の指定オブジェクトとが指定された場合に、前記第1の指定オブジェクト及び前記第2の指定オブジェクトの双方を第1の手法で強調すると共に、さらに自装置が揺り動かされたことを前記検出部が検出したときには、指定オブジェクトが揺れ動く前記アニメーションを用いる第2の手法で前記第1の指定オブジェクトのみを強調する、
請求項2に記載の画像処理装置。
【請求項7】
前記画像処理装置は、
自装置の現在位置を計測する測位部と、
前記測位部により計測される前記現在位置の周囲の前記3次元モデルに含まれるオブジェクトの特徴点と前記入力画像内の特徴点とを照合することにより、前記3次元モデルに含まれるオブジェクトと前記入力画像に映るオブジェクトとを対応付ける照合部と、
をさらに備える、請求項1に記載の画像処理装置。
【請求項8】
前記照合部は、前記照合の結果として自装置の位置及び姿勢を判定し、
前記強調処理部は、前記照合部により判定される位置及び姿勢に応じて前記部分画像を変換して各指定オブジェクトのためのテクスチャを取得し、取得した前記テクスチャを用いて前記強調画像を生成する、
請求項7に記載の画像処理装置。
【請求項9】
実世界に存在するオブジェクトの3次元形状及び位置を記述する3次元モデルを記憶する記憶部を備える画像処理装置を制御するコンピュータを、
前記実世界を映した入力画像を取得する入力画像取得部と、
前記3次元モデルに含まれるオブジェクトのうちの指定オブジェクトに対応する前記入力画像内の部分画像を加工することにより、前記指定オブジェクトを強調して表示する強調画像を生成する強調処理部と、
として機能させるためのプログラム。
【請求項10】
前記強調処理部は、前記指定オブジェクトが動くアニメーションを表現する一連の前記強調画像を生成する、請求項9に記載のプログラム。
【請求項11】
前記強調処理部は、前記部分画像のサイズ、形状、色及び明るさのうち少なくとも1つを変更することにより前記強調画像を生成する、請求項9に記載のプログラム。
【請求項12】
前記強調処理部は、順位付けされた複数のオブジェクトが指定された場合に、複数の指定オブジェクトの各々に対応する前記部分画像のサイズを各オブジェクトの順位に応じて変化させる、請求項11に記載のプログラム。
【請求項13】
前記強調処理部は、前記画像処理装置の検出部が自装置が揺り動かされたことを検出した場合に、前記指定オブジェクトが揺れ動く前記アニメーションを表現する一連の前記強調画像を生成する、請求項10に記載のプログラム。
【請求項14】
前記強調処理部は、第1グループに属する第1の指定オブジェクトと第2グループに属する第2の指定オブジェクトとが指定された場合に、前記第1の指定オブジェクト及び前記第2の指定オブジェクトの双方を第1の手法で強調すると共に、さらに前記画像処理装置の検出部が自装置が揺り動かされたことを検出したときには、指定オブジェクトが揺れ動く前記アニメーションを用いる第2の手法で前記第1の指定オブジェクトのみを強調する、
請求項10に記載のプログラム。
【請求項15】
前記コンピュータを、
前記画像処理装置の測位部により計測される現在位置の周囲の前記3次元モデルに含まれるオブジェクトの特徴点と前記入力画像内の特徴点とを照合することにより、前記3次元モデルに含まれるオブジェクトと前記入力画像に映るオブジェクトとを対応付ける照合部、
としてさらに機能させるための、請求項9に記載のプログラム。
【請求項16】
前記照合部は、前記照合の結果として自装置の位置及び姿勢を判定し、
前記強調処理部は、前記照合部により判定される位置及び姿勢に応じて前記部分画像を変換して各指定オブジェクトのためのテクスチャを取得し、取得した前記テクスチャを用いて前記強調画像を生成する、
請求項15に記載のプログラム。
【請求項17】
実世界を映した入力画像を取得するステップと、
前記実世界に存在するオブジェクトの3次元形状及び位置を記述する3次元モデルを取得するステップと、
前記3次元モデルに含まれるオブジェクトのうちの指定オブジェクトに対応する前記入力画像内の部分画像を加工することにより、前記指定オブジェクトを強調して表示する強調画像を生成するステップと、
を含む画像処理方法。



【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate


【公開番号】特開2012−79129(P2012−79129A)
【公開日】平成24年4月19日(2012.4.19)
【国際特許分類】
【出願番号】特願2010−224347(P2010−224347)
【出願日】平成22年10月1日(2010.10.1)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】