説明

目標物認識プログラム及び目標物認識装置

【課題】 画像中に含まれる物体を高精度に認識する画像処理装置を提供する。
【解決手段】 センシング画像を該センシング画像の撮影時刻及び撮影位置の情報とともに取得して、予め記録される時刻と位置によって規定される環境モデルを用いて、取得した上記撮影時刻と撮影位置に基いて環境モデルを算出する。この環境モデルを用いて予め登録しておいた物体形状データから物体画像を生成してセンシング画像から目標物の検索を行う。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、リモートセンシング画像を用いた画像処理装置、プログラムに関する。
【背景技術】
【0002】
リモートセンシング画像中には様々な物体(例えば、航空機、船舶、車両、列車)が存在する。これらの物体を画像中から自動的に抽出、識別、検索することができればリアルタイムで画像から様々な情報を得ることが可能となる。
【0003】
ここで、抽出とは画像中に含まれる物体の位置を特定することである。また、識別とは画像中に含まれる物体の名称を特定することである。認識とは、抽出処理と識別処理によって画像中から物体の位置と物体の名称を特定することである。検索とは物体の名称をキーワードに画像中から該物体の位置を特定することである。
物体の認識は、あらかじめ、認識対象の物体の画像とその名称を格納した画像データベースを用いて物体の形状を記憶した辞書を作成しておき、リモートセンシング画像中に含まれる物体とその辞書に含まれる物体の形状を照合することで行なわれている。
【0004】
画像データベースに含める物体の形状は、リモートセンシング画像中に含まれる物体を人手でくりぬいた画像から作成する。特に、リモートセンシング画像を撮影する時刻等が異なると物体画像もその影響をうけ、物体の影のでき方や、画像コントラストが変動する。このような変動によって物体画像の輝度値も変化するため、物体の識別精度に影響を与える。そこで、あらかじめ様々な時間、場所で撮影したリモートセンシング画像に含まれる物体の画像を用いて物体画像データベースを作成する。
【0005】
一方で、任意の撮影時刻に撮影した物体画像を実際のリモートセンシング画像から採取するのは効率がよくないため、物体の三次元モデル(数値データとして与えられた物体形状)から物体画像を生成する(レンダリング)手法が用いられてきた。一般的に、レンダリングでは、視点の位置、光源位置、材質等の条件を考慮して陰面消去、陰影付け、画像コントラストの調整をおこなうことができる。
【0006】
また、撮影日時と撮影位置情報から、太陽方向、太陽高度を算出する。そして、その太陽方向、太陽高度と、認識対象物体の位置と高さ情報から影の領域を推定し、撮像画像から影を除去する方法もある(例えば、特許文献1参照)。
【0007】
また、撮影日時と撮影位置情報から、太陽方向、太陽高度を算出する。そしてリモートセンシング画像の周波数解析を行い、上記太陽方向、太陽高度に対応する周波数成分をマスクすることで影を除去する方法もある(例えば、特許文献2参照)。
【0008】
【特許文献1】特開平10−269347号公報
【特許文献2】特開2001−266162号公報
【発明の開示】
【発明が解決しようとする課題】
【0009】
上記した、従来の様々な空中画像の属性をもとに作成した物体画像データベースから辞書を作成する方式では、辞書を格納する記憶装置の容量が大きくなったり、処理時間が増大するという問題があった。
【0010】
また、特許文献1に記載の方法では、撮像画像中の物体を補正しているため、認識対象物体の位置と高さ情報が既知であることが要求され、これらの情報が予め分からない場合には適用できなかった。また、特許文献2に記載の方法では影領域を除去するため、認識対象物体の上に影が出来た場合は、認識対象物体自身が影領域として除去されてしまうという問題があった。本発明では、これらの問題を解決する画像処理装置を提供することを目的とする。
【課題を解決するための手段】
【0011】
上記目的を解決するため、本願で開示する発明の概要は以下のとおりである。
センシング画像を該センシング画像の撮影時刻及び撮影位置の情報とともに取得し、予め記録される時刻と位置によって規定される環境モデルを用いて、取得した上記撮影時刻と撮影位置に基いて環境モデルを算出した上で、環境モデルを用いて予め登録しておいた物体形状データから物体画像を生成する。この物体画像を用いてセンシング画像から検索を行い、検索結果を出力する目標物認識プログラム及び装置。
【発明の効果】
【0012】
本発明によれば、撮影日時、場所が異なることによって物体画像にできる変動を考慮して物体識別用の辞書を作成することができるので、物体認識を高精度に行うことができる。
【発明を実施するための最良の形態】
【0013】
以下,この発明の実施形態について図面を参照して詳細に説明する。ここで、本願で「物体」とは地物および移動物体を指し、「移動物体」とは航空機、船舶、車両、列車などを指す。
【実施例1】
【0014】
本実施例においては、衛星や航空機のセンサによって地表面の放射・反射電磁波を測定・記録したリモートセンシング画像を対象として説明する。尚、本願の適応対象としては、衛星や航空機に搭載したセンサで撮影したリモートセンシング画像に限らず、屋外においてセンサの位置と撮影時刻が予めわかり,被写体と撮像部との距離がある程度あり、さまざまな状況において撮像されたセンシング画像であれば適応可能である。特に空間分解能が1m程度の高分解能で物体の周辺や上にできる影の影響が大きく、センシング画像上の物体を認識する上で大きな障害となる状況にある場合には有用である。
【0015】
図1は、本発明における一実施形態における、観測センサや、認識対象物等の位置関係をあらわした図である。観測センサを搭載した人工衛星101が、観測地域103を観測している。観測範囲105が観測センサによって撮影される範囲である。ここでは観測センサは人工衛星に搭載されるとしたが、本発明で用いる撮像画像は飛しょう体(例えば、航空機、気球)や、列車、車両、人等の移動物体に備わっていてもよい。
【0016】
太陽光104は太陽102から観測地域103にむけ照射されている。光源として太陽102を仮定したが、太陽以外の光源でもかまわない。また、複数の光源でもかまわない。太陽光104は認識対象物体106にあたり、認識対象物体によって光が遮られる部分は観測範囲105の上に影107としてうつる。
【0017】
図2は,この発明に係わる画像処理装置の一実施形態を示すブロック構成図である。画像処理装置203は観測センサ201から観測信号を得て、物体認識結果を認識結果表示装置205に出力する装置である。観測センサ201は、例えば都市域や海域などの観測対象を撮影し、観測画像、観測センサの位置、観測対象の位置、観測日時を出力する。
【0018】
観測センサの位置は、例えば、緯度、経度、高度の3組の数値で表現できる。観測センサの位置の取得方法は、GPS(Global Positioning System)による方法がある。観測対象の位置は観測センサが撮影した領域の範囲と、撮影画像の原点から認識対象物体が存在する相対的な位置関係から、認識対象物体の緯度、経度を対応付けすることによって求められる。観測センサが撮影した領域の範囲は、例えば、矩形範囲を想定し北西の緯度、経度と南東の緯度、経度の4つの数値の組みで表現できる。観測日時は観測線さ102が搭載されている装置に内蔵されている時計の時刻を読み取ることで実現できる。
【0019】
撮像はユーザの指示に基づくものであっても、予め定めたルールにのっとって所定期間毎に行われるものであっても良い。また、観測センサ201は、光学系センサのような受動型センサでもかまわないし、合成開口レーダのような能動型センサでもかまわない。また、ハイパースペクトルセンサを用いて、各々の観測波長域ごとに画像生成処理を行う構成にしてもよい。
【0020】
環境情報データベース216は、観測センサの位置、観測対象の位置、観測日時によって変化する環境情報を格納したデータベースである。環境情報とは、例えば太陽高度、太陽方位、気象状況、大気状況である。環境情報生成手段206は、観測センサ202によって得られた観測センサ位置、観測対象位置、観測日時に基づいて、環境情報データベース210を参照して、対象とするデータについての環境情報を生成する。
【0021】
物体形状データベース217は、認識対象物体の三次元モデル(数値データとして与えられた物体形状)と物体の属性等が関連づけられて格納されている。物体画像生成手段207は、環境情報もとに、認識対象物体の画像を生成する。画像の生成方法には、例えばレンダリング手法(高木幹雄・下田陽久「新編画像解析ハンドブック」、東京大学出版会、2004年9月10日、1758〜1794ページ)を用いる。物体形状データベースには、認識対象となりうる物体の形状が格納されている。ユーザが認識対象を限定したい場合には、認識対象物体入力装置215にて認識対象物体の名称を入力し、認識対象物体選択手段213で、認識対象を限定することができる。
【0022】
物体画像生成手段207によって、物体画像を生成する際には、物体画像生成制御手段209によって、物体画像生成の制御パラメータを制御できる。制御パラメータは、例えば、生成する物体の向き、表面の色がある。
【0023】
さらに、物体画像生成手段207によって生成した物体画像を、あらかじめ様々な背景画像を蓄積した背景画像データベース218に保存されている背景画像の上に、背景画像重畳手段219を用いて重ね合わせることもできる。背景画像データベース218に複数の背景画像が登録されている場合は、ユーザが背景画像指定装置220から画像を指定し、背景画像選択手段221で背景画像データベース218から指定した画像を用いるようにする。画像指定の方法は画像ファイル名を直接指定することで実現できる。また、背景画像をプレビューする画面を設けユーザが目視で背景画像を確認するようにしてもよい。背景画像を重畳することにより、背景画像と物体画像の輝度差等も物体識別の特徴量とすることができる。物体特徴学習手段208で背景画像を必要としない場合は、物体画像生成手段207の出力を、直接、物体特徴学習手段208の入力としてもよい。この場合は、物体画像データベース214には背景を含まない物体のみの画像を蓄積しておいてもよい。
【0024】
また、背景画像重畳手段219で生成した物体画像は、物体画像表示手段212によって画面上でユーザが目視確認することができる。その際には、あらかじめ実際のリモートセンシング画像からくりぬいておいた実物体画像を物体画像データベース214に蓄積しておき、これを参照し、目視にて比較検討できる。その結果、生成画像が適切でないとユーザが判断した場合には、物体画像生成制御手段209を用いて再度物体画像を生成する。
【0025】
物体特徴学習手段208は、物体画像生成手段207によって生成された物体画像から物体の認識に有効な物体特徴知識を抽出する。物体特徴知識とは、物体の種別を分類するのに有効な特徴量と、物体の名称の組であたえられる。特徴量としては、物体画像のエッジ強度、周波数特性、輝度分布などがある。
物体認識手段204は、観測画像を走査して特徴量を生成し、その特徴量と物体形状学習手段208によって作成した物体形状知識の特徴量と比較し、最も類似した特徴量に対応する物体の名称を認識結果として出力する。認識結果表示手段205は、物体認識手段204によって認識した結果を画面に表示する。
【0026】
尚、各部は計算機にプログラムを読み込むことで実行されても、一部ハードウェアとの協調によって行われても良い。認識結果表示装置205と物体画像表示装置212とは同じ表示装置で有っても良く、同じ入力装置で209と215、220を兼用することも可能である。
【0027】
図3は、本発明における一実施形態における、物体認識処理フローの一例を示した図である。まず、観測センサ201によって観測地域の観測を行い、観測画像、観測センサ位置、観測対象位置、観測日時を得る(S301)。次に、環境情報生成手段206で、観測センサ位置、観測対象位置、観測日時をもとに、環境情報データベース210を参照して環境情報を生成する(S302)。そして、全ての物体を認識対象とするかユーザが判断する(S303)。全ての物体を認識対象としない場合は、認識対象物体入力装置215から認識対象物体の名称を入力し、物体形状データベース217から認識対象物体の形状のみを、認識対象物体選択手段213にて選択する(S304)。環境情報と物体形状データベース217から物体画像生成手段(207)によって認識対象物体の画像を生成する(S305)。そして背景画像重畳手段219によって背景画像に物体画像を重畳する。上述したように物体特徴学習手段208で背景画像を必要としない場合はスキップすることができる。そして背景画像に重畳した物体画像、もしくは、物体画像を物体画像表示手段212で目視確認する(S306)。
【0028】
そして、S305にて生成物体画像が適切でないとユーザが判断した場合には、制御パラメータを修正し(S306)、その修正した制御パラメータを用いて再度、物体画像を生成する(S303)。S305で適切な物体画像が生成されたとユーザが判断した場合は、物体特徴学習(S307)を行う。物体特徴学習(S307)は、物体画像から物体の特徴を抽出して物体特徴知識を作成する最後に、物体認識(S310)では、物体認識手段(204)が物体形状知識を参照し、観測範囲205内の画像中に含まれる物体を認識し、その結果を表示する(S311)する。
【0029】
上記では、物体認識手段204で物体形状知識を用いて物体を認識すると説明した。当然ながら、認識の用いる知識は形状に限定されず、スペクトル、テクスチャ、輝度分布などの画像特徴量を用いてもよい。また、物体の全長、全幅を用いてもよい。
図4は本発明の一実施形態における物体形状データベース210で用いられるデータ構造の構成例である。物体ID401は物体に固有番号を格納する。属性402には物体の種別を格納する。例えば航空機には“Airplane”、船舶には“Ship”とする。物体名403には物体の名称を格納する。物体認識に物体の全長や全幅が有効な場合は、全長404、全幅405を格納する領域を設け、物体の全長と全幅を格納する。また、認識対象物体の向きによって物体形状が異なって見える場合は、方向406を設け、物体の向きを格納する。飛行機について「左」とあれば、機首が画面の左側に存在するも向きであるであることを意味する。形状パラメータ407には該物体の形状を格納する。物体の形状の表現方法は、曲面を表す関数の集合を用いることができる。もちろん、3次元形状が表現できる他の形式を用いてもよい。例えば、格子状に配置された標高点の集合で表す方法でもかまわない。また、形状に加え、物体表面の材質、色、電磁波の反射・吸収特性を含めることができる。
【0030】
図5は本発明の一実施形態における物体画像生成手段207の処理フローS305の一例を示した図である。まず、認識対象物体形状を、3次元空間上の点の集合(例えば、緯度、経度、高さ)の表現形式へ変換(S501)する。この変換には、例えば形状パラメータ407に観測対象位置を代入することで得られる。形状パラメータ407の空間分解能と観測センサ202から得られた空間分解能が異なる場合は、空間分解能を観測センサ202に合わせる。これにはアフィン変換を用いることができる(高木幹雄・下田陽久「新編画像解析ハンドブック」、東京大学出版会、2004年9月10日、1759〜1764ページ)。
【0031】
次に、射影変換処理(S502)で、3次元空間上の点集合で表現された認識対象物体を、2次元平面に投影し、投影画像を生成する。射影変換は、視点と視線の関係から投影面の交点を求めることで行うことができる(高木幹雄・下田陽久「新編画像解析ハンドブック」、東京大学出版会、2004年9月10日、1764〜1766ページ参照)。
そして、影領域算出(S503)では、環境情報から太陽高度、方位を抽出し、認識対象物体の上や周辺にできる影領域を特定する。地表から高さhの物体に、太陽高度θの太陽光が照射してできる影の長さLは、L=h/tanθであり、影の向きは太陽方位δと反対側となる。任意の地点における、任意の時刻の太陽高度、方位は、理科年表の暦部に記載された値を用いて算出することができる。
【0032】
上記は、物体の上や周辺に出来る影をモデル化するため、環境モデルの出力として太陽方位、太陽高度が出力される場合を想定した。これ以外に環境モデルとして気象モデルを考えることもできる。気象モデルは、位置および日時をインデックスとして、天気を検索することができるデータベースシステムとして実現できる。観測対象位置と観測日時の情報から、気象モデルから観測対象位置の天気情報を抽出し、観測画像の画像輝度を予測する。例えば、観測時の天気が快晴の場合は、雲量を0とみなし観測画像のコントラストを高くする。逆に天気が曇りの場合には、観測画像のコントラストを低くする。
【0033】
また環境モデルとして大気モデルを考えることもできる。観測画像には、認識対象物からの反射信号だけでなく、観測センサ202と認識対象物の間の大気からの放射や減衰の影響も含まれる。これらの影響を除去するための処理を大気補正処理と呼ぶ。大気モデルは、観測日時、観測対象位置を入力すると、大気の補正量を出力するモデルである。大気補正の計算には、観測画像の各画素値から一定値を差し引く方法や、各観測波長域の比演算、などを用いることができる。
【0034】
さらに、陰面消去処理(S504)で、観測センサ202から見えない部分を投影画像から消去する。陰面消去には、Zソート法やZバッファ法(高木幹雄・下田陽久「新編画像解析ハンドブック」、東京大学出版会、2004年9月10日、1782〜1788ページ)を用いることができる。面ごとに奥行きに応じた優先順位をつけ、奥から順に表示することで簡単に陰面消去できる。
【0035】
そして、シェーディング処理(S505)にて、認識対象物体にあたる太陽光線の度合いに応じて陰影を付ける。シェーディングにはUtah近似法(高木幹雄・下田陽久「新編画像解析ハンドブック」、東京大学出版会、2004年9月10日、1789〜1792ページ)を用いることができる。
【0036】
最後に、テクスチャマッピング処理(S506)にて、テクスチャとよばれる木目のような2次元の模様を物体画像に貼り付ける。テクスチャマッピングには、マッピング関数を用いてテクスチャの2次元座標を認識対象物体画像の各画素に対応付けることによって行うことができる(高木幹雄・下田陽久「新編画像解析ハンドブック」、東京大学出版会、2004年9月10日、1792〜1794ページ)。テクスチャは物体表面の材質に応じて設定することができる。材質は、形状パラメータ407の電磁波の反射・吸収特性から求めることができし、予め材質の情報を形状パラメータと共に記憶しておいても良い。
【0037】
図6は本発明の一実施形態における物体画像生成手段207による処理実行に際して表示装置によって表示される、処理画面の例を示す図である。処理画面601は処理に関する情報をユーザに提供したり、ユーザから情報を入力したりする。処理画面601は複数のサブ画面から構成され、ヒューマンインタフェースを提供する。サブ画面602は物体画像生成手段207の入力パラメータで、この例では観測センサ位置、観測対象位置、観測日時が表示されている。サブ画面603は、入力パラメータから算出した太陽方位、太陽高度が表示されている。サブ画面604は現在対象としている物体の名称が表示される。サブ画面604の右端にあるボタンを押すことで他の名称を選択することが可能である。サブ画面605には、現在対象としている物体の方向が表示される。認識対象物体の方向は、通常未知であることが多いので、複数方向の物体画像を自動的に生成する。認識対象物体の方向が既知の場合はサブ画面605の右端にあるボタンを押すことで任意の方向のみを選択して物体画像を生成することが可能である。
【0038】
サブ画面606には、現在対象としている物体に貼り付けるテクスチャが表示される。サブ画面606の右端にあるボタンを押すことで、テクスチャを選択して張り付けることも可能である(S506)。サブ画面607は物体画像生成手段207によって生成された物体画像をユーザが目視で確認するためのもので、物体画像が表示されている。このサブ画面607を見ながら、輝度微調整ボタン610を押して生成した画像の輝度を微調整することもできる。更に、サブ画面609を設けて実観測画像中を表示することとしても良い。ユーザがこの段階で実観測画像中に存在する対象物を少なくとも1つ把握していれば、物体画像生成手段207によって作成された物体画像607と、実観測画像中の物体を並べて表示することで、作成した物体画像の自然さを確認することができる。確認の結果、サブ画面607に表示された物体画像が、サブ画面609に表示された実観測画像中と比較して不自然であるとユーザが判断した場合は、サブ画面606の右端にあるボタンを押して、他のテクスチャを選択して似通った画像に調整することができる。また、輝度調整ボタン610を押して輝度値を微調整することもできる。さらにテクスチャや輝度以外にも、色、反射特性、などを調整できるようにしてもよい。又、認識結果表示S311における結果を実観測画像とともにサブ画面609に表示し、それを参考に修正した物体画像をもって再度物体認識S310を行うフローとすれば、より良い結果を得ることができる。サブ画面611にはユーザが選択した背景画像名が表示されている。サブ画面611の右端にあるボタンを押すことで他の背景画像を指定することができる。選択した背景画像はサブ画面612に表示される。
【0039】
図7は、本発明の一実施形態における物体画像生成手段207によって生成された物体画像の例を示す図である。物体画像701は中緯度地域で撮影されたことを想定した画像である。物体画像702は高緯度地域で撮影されたことを想定した画像である。中緯度地区における観測位置と物体の影、太陽光線の関係を、観測位置と太陽位置を含む鉛直平面上で見た図が710である。物体703に太陽光704が太陽高度θ1(705)であたり、長さL1(705)の影が生成される。同様に低緯度地区における観測位置と物体の影、太陽光線の関係を、観測位置と太陽位置を含む鉛直平面上で見た図が711である。物体706に太陽光線707が太陽高度θ2(708)であたり、長さL2(709)の影が生成される。このように緯度によって太陽高度が変化するため、物体の周辺にできる影の大きさも変化する。物体自身の凹凸によって物体の上にできる影も同様に、緯度によって異なる。
【0040】
図8は、本発明の一実施形態における物体形状学習手段208によって生成された物体形状知識のデータ構造の構成例である。ここで学習は、物体画像から物体の識別に有効な情報(例えば形状)を抽出し、物体形状データベース210の属性と組みにし、物体形状知識として出力することである。801−806に記載の情報は図4の401−406の情報と同じである。特徴量807には物体画像生成手段によって生成された物体の特徴量を格納する。つまり、撮像情報を考慮して特徴量407を補正した値を格納する。本例では、物体の特徴量の表現方法は、エッジ強度の分布を用いた。当然、物体を識別するのに適切な特徴であれば他の表現も用いることができる。例えば、物体画像の輝度分布、スペクトル、テクスチャなどを用いてもよい。
【0041】
図9は、本発明の一実施形態における物体認識手段204の処理フローS308の一例を示した図である。 観測画像は、縦h画素×横w画素の大きさをもち、2次元の配列で表現される。画素(i、j)とは、2次元配列のi列j行目の画素を意味する。まず、変数iを1に初期化し(S901)、変数jを1に初期化する。次に、観測画像の画素(i、j)を中心とする矩形の領域Aをくりぬく(S903)。領域Aの形は円形や楕円等任意の形状とすることができる。また、領域Aの大きさは予め認識対象物体の集合のうち、もっとも大きい物体の大きさとする。そして、領域Aから物体形状特徴Bを抽出する(S904)。この特徴量も物体形状学習手段208で用いた手法と同じ手法を用いて生成する。続いて、物体形状知識に含まれる全ての特徴量と、物体形状特徴Bとを比較し、類似の度合いを計算する(S905)。特徴量同士が最も類似している物体の名称を識別結果として出力する(S906)。変数jの値を一つ増やし(S907)、変数jの値が観測画像幅より小さければS903へ行き、大きければS909へと行く。S909で変数iの値を一つ増やし、S910で変数iの値が観測画像高さより小さければS902へ行き、大きければ終了する。上記の処理によって、観測画像に含まれる認識対象物をみつけることができる。
【0042】
S905で算出する類似の度合いは、特徴量同士のシティブロック距離、ユークリッド距離など、様々な距離尺度を用いて算出することができる。
なお、S906にて、類似の度合いが予め設定した閾値より小さい場合は、識別結果に出力しないようにしてもよい。このようにすることにより、類似の度合いが高いもののみをユーザに提示できるようになる。
【0043】
また、S906にて類似している複数の物体を選んで、それらの物体に対応する複数の名称を出力するようにしてもよい。このようにすることにより、ユーザは物体画像を見ながら、絞り込まれた複数の物体名称の候補から正しい物体名称を選べばよいので、全ての物体名称から物体名称を選ぶ場合に比べ、ユーザの負荷を低減できる。さらに、識別結果を類似の度合いの大きさ順に並び替え、最も高い類似の度合いと、二番目に高い類似の度合いの差が、予め設定した閾値より小さい場合は、識別結果に出力しないようにしてもよい。このことにより、曖昧な認識結果が得られた場合は、認識結果をユーザに提示しないようにできる。
【0044】
図10は、本発明の一実施形態における物体認識手段204によって生成された物体認識結果のデータ構造の構成例である。認識した物体の通し番号が1001に格納される。また、認識した物体の位置の緯度、経度が1002、1003にそれぞれ格納される。属性1004には、認識した物体の属性が格納される。たとえば、“Airplane”,“Ship”など。物体名1005には、認識した物体の名称を格納する。類似度1006には類似の度合いを格納する。物体ID1007には、物体ID401に対応する数値を格納する。
【0045】
図11は本発明の一実施形態における物体認識手段204を実行したときの、処理結果の出力画面の例を示す図である。出力画面1101は処理に関する情報をユーザに提供する。出力画面1101は複数のサブ画面から構成される。サブ画面1102は観測画像中で認識された物体がハイライトされて表示されている。認識された物体が複数ある場合は、マウスなどのポインティングデバイスで、一つの認識した物体を選択すると、その物体を含む画像が、サブ画面1103に表示される。また、サブ画面1104には、S905によってもっとも類似の度合いが高かったと判定された物体種に対応する物体画像が表示される。サブ画面1105には、物体名1005、類似の度合いが数値で表示される。また、サブ画面1106には、サブ画面1104の物体の全長、全幅が表示されている。観測画像の範囲が広い場合は、スクロールバー1107を用いて、ユーザの関心領域に表示画像の領域を移動することができる。また、観測画像の解像度が低く物体画像を確認しにくい拡大・縮小ボタン1108を用いて、サブ画面1102に表示されている観測画像を拡大表示、縮小表示することができる。
【実施例2】
【0046】
図12は,この発明に係わる画像処理装置の一実施形態を示すブロック構成図である。実施例1との差異についてのみ、以下詳細に説明する。
【0047】
観測情報管理DB1218は、観測属性情報(観測センサ位置、観測対象位置、観測日時の3つの数値の組)がすくなくとも1組以上登録されている。物体画像生成手段1211は、観測管理DB1218から一つずつ観測情報を得て、物体形状データベース1219をもとに物体画像を生成する。そして、それらの物体画像から物体特徴学習手段1209を用いて、物体形状知識A1210、物体形状知識B1211、…をあらかじめ生成しておく。物体形状知識選択手段1206は、観測属性情報をキーに、物体形状知識A1207、物体形状知識B1208、…の中から観測属性情報が一致する物体形状知識を選択する。選択された物体特徴知識を用いて、物体認識手段1204は観測センサで観測した画像から物体を認識する。
【0048】
観測センサが航空機、人工衛星などの飛しょう体に搭載され、飛しょう体の運用スケジュール(日時と位置の組)が予め決められている場合は、その運用スケジュールにあわせて、観測情報管理データベースの観測属性情報をつくっておくことができる。
【0049】
上記の説明では、物体画像生成手段207では、物体形状データベース210に含まれる全ての物体の物体画像を生成するとしたが、本発明はこの実施形態に限定されるものではない。例えば、ユーザが指定した物体のみの物体画像を生成してもよい。その場合には予め表示画面に物体形状データベース210に格納される物体画像を提示してユーザの選択を受けるか、ユーザからの入力を受け付ける。そして、S306で選択された物体についてのみ物体画像を生成することとする。
【0050】
また、物体認識手段204では、物体形状知識に含まれる全ての物体との類似の度合いを計算するとしたが、本発明はこの実施形態に限定されるものではない。例えば、ユーザが指定した物体のみとの類似の度合いを計算してもよい。
【0051】
また、本発明に記載されている手段とは別の手段で、観測対象の数値標高モデル(DEM:Digital Elevation Model)が入手可能な場合は、DEMの標高データによって物体画像生成手段207の座標変換S501を行ってもよい。
また、上記の実施例では、静止画を対象に説明したが、動画を対象にして同様の効果を得られる。
【0052】
また、上記の実施例では、地球の表面を観測することを前提に説明したが、本発明はこの実施形態に限定されるものではない。例えば惑星探査用の宇宙船などにおいても適用可能である。
【0053】
また、光源は太陽に限定されない。光源位置、撮影時刻が特定できるものであれば他の恒星、人工光源、反射光、散乱光でもよい。また、単一の光源に限定されない。それぞれの光源の光源位置、撮影時刻が特定できる複数の光源でもよい。
【図面の簡単な説明】
【0054】
【図1】観測センサや、認識対象物等の位置関係をあらわした図である。
【図2】画像処理装置の一実施形態を示すブロック構成図である。
【図3】物体認識処理フローの一例を示した図である。
【図4】物体形状データベース210で用いられるデータ構造の構成例である。
【図5】物体画像生成手段207の処理フローの一例を示した図である。
【図6】物体画像生成手段の処理結果表示画面の例を示す図である。
【図7】物体形状学習手段208によって生成された物体画像の例を示す図である。
【図8】物体形状知識のデータ構造の構成例を示す図である。
【図9】物体認識手段204の処理フローの一例を示す図である。
【図10】物体認識結果のデータ構造の構成例を示す図である。
【図11】物体認識手段の処理結果表示画面の例を示す図である。
【図12】画像処理装置の一実施形態を示すブロック構成図である。
【符号の説明】
【0055】
101…観測センサを搭載した物体、102…太陽、103…観測地域、104…太陽光、105…観測範囲、106…認識対象物体、107…影、201…観測対象、202…
観測センサ、203…画像処理装置、204…物体認識手段、205…認識結果表示手段、206…環境情報生成手段、207…物体画像生成手段、208…物体形状学習手段、209…物体画像生成制御情報入力装置、212…物体画像表示装置、213…認識対象物体選択手段、214…物体画像データベース、215…認識対象物体入力装置、216…環境情報データベース、217…物体形状データベース、218…背景画像データベース、219…背景画像重畳手段、220…背景画像指定装置、221…背景画像選択手段、401…物体ID、402…属性、403…物体名、404…全長、405…全幅、406…方向、407…形状パラメータ、601…処理画面、602…サブ画面、603…サブ画面、604…サブ画面、605…サブ画面、606…サブ画面、607サブ画面、608…サブ画面、609…スクロールバー、610…サブ画面、611…サブ画面、612…サブ画面、701…物体画像、702…物体画像、711…観測位置と物体の影、太陽光線の関係、703…認識対象物体、704…太陽光線、705…太陽高度、706…影の大きさ、712…観測位置と物体の影、太陽光線の関係、707…認識対象物体、708…太陽光線、709…太陽高度、710…影の大きさ、801…物体ID、802…属性、803…物体名、804…全長、805…全幅、806…方向、807…特徴量、1001…認識物体番号、1002…緯度、1003…経度、1004…属性、1005…物体名、1006…類似度、1007…物体ID、1101…出力画面、1102…サブ画面、1103…サブ画面、1104…サブ画面、1105…サブ画面、1106…サブ画面、1107…スクロールバー、1108…拡大・縮小ボタン、1201…観測対象、1202…観測センサ、1203…画像処理装置、1204…物体認識手段、1205…認識結果表示手段、1206…物体特徴知識選択手段、1207…物体特徴知識A、1208…物体特徴知識B、1209…物体特徴学習手段物、1210…物体画像生成制御情報入力装置、1211…物体画像生成手段、1212…物体画像表示装置、1213…環境情報生成手段、1214…認識対象物体選択手段、1215…物体画像データベース、1216…認識対象物体入力装置、1217…環境情報データベース、1218…観測情報管理データベース、1219…物体形状データベース、1220…背景画像データベース、1221…背景画像重畳手段、1222…背景画像選択手段、1223…背景画像指定手段。

【特許請求の範囲】
【請求項1】
センシング画像を該センシング画像の撮影時刻及び撮影位置の情報とともに取得し、
予め記録される時刻と位置によって規定される環境モデルを用いて、取得した上記撮影時刻と撮影位置に基いて環境モデルを算出し、
上記算出された環境モデルを用いて予め登録しておいた物体形状データから物体画像を生成し、
上記センシング画像から上記生成された物体画像を用いた検索を行い、
該検索結果を出力することを特徴とする目標物認識プログラム。
【請求項2】
上記環境モデル光源の位置、方向であって、
該環境モデルを用いて物体の影を生成して上記物体画像の生成を行うことを特徴とする請求項1記載の目標物認識プログラム。
【請求項3】
上記環境モデルは気象モデル、又は、大気モデルであって、
上記環境モデルに基づいた画素値の調整を行って上記物体画像の生成を行うことを特徴とする請求項1又は2に記載の目標物認識プログラム。
【請求項4】
上記物体形状データは該物体の材質情報を含み、
該材質情報に基いて決定されるテクスチャを用いて上記物体画像の生成を行うことを特徴とする請求項1乃至3の何れかに記載の目標物認識プログラム。
【請求項5】
画像背景モデルと、
該画像背景モデルと物体画像を重畳する画像重畳手段と、
該画像重畳手段によって生成した画像を物体形状学習手段の入力とすることを特徴とする請求項1乃至4に記載の画像処理装置。
【請求項6】
予め複数の撮像時刻、撮影位置について、上記環境モデルの算出と上記物体画像の生成を行い、
上記センシング画像と撮影時刻及び撮影位置の情報の取得を行うと、
該撮影時刻及び撮影位置に対応する物体画像を上記予め生成された物体画像中から読み出し、
該検索された物体画像を用いて上記検索を行うことを特徴とする請求項1乃至5の何れかに記載の目標物認識プログラム。
【請求項7】
上記リモートセンシング画像の取得の際に該リモートセンシング画像の撮影時刻のみ取得し、
予め上記センシング画像の撮影位置を撮影時刻と対応づけて記録する記録部から情報を読み出すことで、該撮影時刻から該リモートセンシング画像の撮影位置を求めることを特徴とする請求項1乃至6の何れかに記載の目標物認識プログラム。
【請求項8】
上記生成した物体画像と上記センシング画像中の検索結果とを並べて表示部に表示させることを特徴とする請求項1乃至7の何れかに記載の目標物認識プログラム。
【請求項9】
センシング画像を該センシング画像の撮影時刻及び撮影位置の情報とともに取得する取得部と、
少なくとも1の環境モデルと、物体形状データとを記録する記録部と、
上記環境モデルを用いて、取得した上記撮影時刻と撮影位置における環境モデルを算出し、上記算出された環境モデルを用いて上記物体形状データから物体画像を生成する物体画像生成部と、
上記センシング画像から上記生成された物体画像を用いて物体検索を行い、該検索結果を出力する物体認識部とを有することを特徴とする目標物認識装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate


【公開番号】特開2007−293558(P2007−293558A)
【公開日】平成19年11月8日(2007.11.8)
【国際特許分類】
【出願番号】特願2006−120061(P2006−120061)
【出願日】平成18年4月25日(2006.4.25)
【出願人】(000005108)株式会社日立製作所 (27,607)
【Fターム(参考)】