説明

目標識別装置

【課題】レーダで得られる画像データを対象に、形状や運動が似ている目標間での類識別を実現する目標識別装置を得る。
【解決手段】追尾データとレーダ観測諸元データとに基づいて、目標の運動あるいは姿勢に関する目標パラメータ推定値を推定する目標パラメータ推定器1と、候補目標の3次元形状データである目標別諸元データと、レーダ観測諸元データと、目標パラメータ推定値とに基づいて、候補目標ごとの辞書時系列画像列データを生成する辞書時系列画像列生成器2と、種類不明の目標をレーダで観測して得られた観測時系列画像列データと、辞書時系列画像列データとに基づいて、観測時系列画像列データに含まれる種類不明の目標の種類判別を行う種類判別器3とを備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、レーダで観測した時系列画像データから、目標の種類を決定する類識別問題を対象とし、さらに詳しくは、目標の種類を解として求める目標識別装置に関するものである。
【背景技術】
【0002】
類識別問題の例として、船舶または航空機等の目標の類識別問題について考える。従来より、レーダで観測した時系列画像データから目標の類識別を行う装置がよく知られている(例えば、特許文献1参照)。この特許文献1に開示された従来装置は、辞書画像生成器、目標パラメータ推定器、正規化/重畳処理器、辞書画像選択器、種類判別器、辞書画像ファイル、目標別諸元ファイル、追尾データファイル、レーダ観測諸元ファイル、観測時系列画像列ファイル、種類判別結果ファイルを備えている。
【0003】
次に、特許文献1に開示された従来装置の動作について説明する。まず、辞書画像生成器において、目標別諸元ファイルからの目標の3次元形状データを含む目標別諸元情報を入力として、それぞれの候補目標の様々な姿勢での辞書画像を生成し、辞書画像ファイルに出力する。
【0004】
次に、目標パラメータ推定器おいて、追尾データファイルからの目標の追尾情報を第一の入力とし、レーダ観測諸元ファイルからのレーダ観測諸元情報を第二の入力として、これらの情報に基づき各候補目標の進行方向/姿勢/回転運動等のパラメータである目標パラメータ値を推定もしくは決定し出力する。
【0005】
さらに、辞書画像選択器において、辞書画像ファイルからの複数の辞書画像データを第一の入力とし、目標パラメータ推定器から出力される目標パラメータ値を第二の入力として、これらの情報に基づき種類判別の際に用いる画像を選択し、辞書画像データとして出力する。
【0006】
また、正規化/重畳処理器において、観測時系列画像ファイルからの観測時系列画像列データを入力として、観測時系列画像列データに対し、正規化処理による軸合わせ後、重畳処理により単一の観測画像データを生成し、出力する。
【0007】
次に、種類判別器では、辞書画像選択器から出力される辞書画像データを第一の入力とし、正規化/重畳処理器から出力される観測画像データを第二の入力として、辞書画像データと観測画像データから、輪郭などの特徴量を抽出、もしくは画像の画素強度情報を用いて、それらのマッチングを行い、最も一致する辞書画像を選択して、辞書画像の候補目標を目標種類として出力する。この出力は、従来装置全体の出力となり、種類判別結果ファイルに入力される。
【0008】
上述した特許文献1に開示された従来装置は、時系列画像列に対する正規化/重畳処理により生成された一画像を対象に種類判別を行う装置であったが、それ以外にも、目標の移動ベクトル等の、時系列画像間にまたがる特徴量を用いて種類判別を行う従来装置も提案されている(例えば、特許文献2参照)。この特許文献2に開示された従来装置は、画像抽出器、移動ベクトル抽出器、種類判別器、特徴量辞書ファイル、観測時系列画像列ファイル、種類判別結果ファイルを備えている。
【0009】
次に、特許文献2の従来装置の動作について説明する。まず、画像別特徴量抽出器において、観測時系列画像列ファイルからの観測時系列画像列データを入力とし、観測時系列画像列データの個々の画像に対し、明度等の特徴量を抽出し、画像別特徴量として出力する。
【0010】
次に、移動ベクトル抽出器において、観測時系列画像列ファイルからの観測時系列画像列データを入力とし、オプティカルフロー等の目標(移動体領域)の移動ベクトルを抽出し、出力する。
【0011】
次に、種類判別器において、特徴量辞書ファイルからの特徴量辞書データを第一の入力とし、画像別特徴量抽出器から出力される画像別特徴量を第二の入力とし、移動ベクトル抽出器から出力される移動ベクトルを第三の入力とし、画像別特徴量抽出器から出力された明度等の画像別特徴量と、移動ベクトル抽出器から出力された移動ベクトルと合わせて、種類判別に用いる特徴量とする。
【0012】
さらに、種類判別器において、これらの特徴量に対する主成分分析等の解析で得られた二次的な特徴量に対し、特徴量辞書データに登録されている目標種類ごとの範囲との照らし合わせにより種類判別を行い、結果を種類判別結果として出力する。この出力は、従来装置全体の出力となり、種類判別結果ファイルに入力される。
【0013】
【特許文献1】特開2002-006034号公報
【特許文献2】特開平9-249083号公報
【発明の開示】
【発明が解決しようとする課題】
【0014】
しかしながら、従来技術には次のような課題がある。特許文献1に開示された従来装置では、複数の時系列画像を正規化及び重畳して、種類判別対象となる一画像を生成するため、観測する角度への依存が少ない特徴的部位が強調される反面、角度ごとにあらわれる特徴的部位が類識別の特徴量として有効に用いられず、形状が類似している目標間での類識別が困難という課題があった。
【0015】
一方、特許文献2に開示された従来装置では、時系列に得られた画像列に対し、独立した画像として明度等の特徴量の抽出を行っており、これらの特徴量では画像の順序列を考慮していないため、形状変化情報を有効に活用することができない。また、もう一つの特徴量である移動ベクトルは、目標の動きの把握という観点では有効であるが、目標の微小な部位の形状的変化等は把握できない。したがって、形状や運動の似た目標間でのわずかな差異による種類判別が困難という課題があった。
【0016】
本発明はかかる課題を解決するためになされたものであり、レーダで得られる画像データを対象に、形状や運動が似ている目標間での類識別を実現する目標識別装置を得ることを目的とする。
【課題を解決するための手段】
【0017】
本発明に係る目標識別装置は、目標の位置/速度情報である追尾データと、レーダ観測諸元データとに基づいて、目標の運動あるいは姿勢に関する目標パラメータ推定値を推定する目標パラメータ推定器と、候補目標の3次元形状データである目標別諸元データと、レーダ観測諸元データと、目標パラメータ推定器からの目標パラメータ推定値とに基づいて、候補目標ごとの辞書時系列画像列データを生成する辞書時系列画像列生成器と、種類不明の目標をレーダで観測して得られた観測時系列画像列データと、辞書時系列画像列生成器からの辞書時系列画像列データとに基づいて、観測時系列画像列データに含まれる種類不明の目標の種類判別を行う種類判別器とを備えたものである。
【発明の効果】
【0018】
本発明によれば、レーダで得られる画像データを対象に、目標の微小な形状変化情報を利用して、観測時系列画像列データと辞書時系列画像列データとに基づく類似度比較、または辞書時系列画像列データに基づく種類学習を行い、観測時系列画像列データに含まれる種類不明の目標種別を決定することにより、形状や運動が似ている目標間での類識別を実現する目標識別装置を得ることができる。
【発明を実施するための最良の形態】
【0019】
以下、本発明の目標識別装置の好適な実施の形態につき図面を用いて説明する。
本発明の目標識別装置は、レーダで得られる画像データに含まれている種類不明の目標の種類判別を、観測時系列画像列データと辞書時系列画像列データとに基づく類似度比較、または辞書時系列画像列データに基づく種類学習により特定することを特徴とするものである。
【0020】
実施の形態1.
図1は、本発明の実施の形態1による目標識別装置の構成図である。図1に示す実施の形態1における目標識別装置10は、目標パラメータ推定器1、辞書時系列画像列生成器2、種類判別器3で構成される。
【0021】
また、目標識別装置10との間で入出力を行うデータベースとして、候補目標の形状データである目標別諸元データが蓄積された目標別諸元ファイル11、目標の位置/速度情報である追尾データが蓄積された追尾ファイル12、レーダの観測諸元情報が蓄積されたレーダ観測諸元ファイル13、辞書時系列画像列生成器2で生成された辞書時系列画像列データが記憶される辞書時系列画像列ファイル14、種類判別の対象となる目標をレーダで観測して得られた時系列の画像データである観測時系列画像列データが蓄積された観測時系列画像列ファイル15、および種類判別器3により決定された種類判別結果が記憶される種類判別結果ファイル16を備えている。
【0022】
次に、実施の形態1に係る目標識別装置10の動作について説明する。まず、目標パラメータ推定器1は、目標識別装置10全体の入力として、追尾ファイル12からの追尾情報、およびレーダ観測諸元ファイル13からのレーダ観測諸元情報を読み込む。ここで、レーダ観測諸元情報は、例えば、画像列長、観測時間等を含むものである。さらに、目標パラメータ推定器1は、辞書時系列画像列データ生成及び種類判別に必要な、目標に関するパラメータ推定値である目標パラメータ推定値を推定もしくは決定し、出力する。
【0023】
目標パラメータ推定値としては、各候補目標の進行方向/回転運動等の運動パラメータや、姿勢に関するパラメータが考えられる。なお、目標パラメータ推定値は、辞書時系列画像列データ生成に用いる目標パラメータ推定値である辞書目標パラメータ推定値と、種類判別対象となる観測目標の目標パラメータ推定値である観測目標パラメータ推定値からなる。
【0024】
ここで、辞書目標パラメータ推定値は、レーダで観測済みの候補目標の追尾データや、シミュレーションで生成された追尾データから推定される。また、観測目標パラメータ推定値は、レーダで取得された種類判別対象となる観測目標の追尾データから推定される。観測目標パラメータ推定値は、図1には図示されていないが、目標パラメータ推定器1から種類判別器3に出力される。これにより、種類判別器3は、観測目標パラメータ推定値を用いた種類判別を行うことができる。
【0025】
次に、辞書時系列画像列生成器2は、目標識別装置10全体の入力として目標別諸元ファイル11からの候補目標の形状情報である目標別諸元情報を第一の入力とし、同じく目標識別装置10全体の入力としてレーダ観測諸元ファイル13からのレーダ観測諸元情報を第二の入力とし、目標パラメータ推定器1から出力される辞書目標パラメータ推定値を第三の入力として、辞書時系列画像列データを生成する。
【0026】
辞書時系列画像列生成器2は、辞書目標パラメータ推定値として与えられた辞書目標の進行方向/回転運動等の運動パラメータ、姿勢のパラメータと、レーダ観測諸元情報として与えられた画像列長及び観測時間に基づき、各候補目標に対する辞書時系列画像列データを生成し、辞書時系列画像列ファイル14に出力する。
【0027】
種類判別器3は、観測時系列画像列ファイル15からの種類判別対象の観測時系列画像列データを第一の入力とし、辞書時系列画像列ファイル14からの候補目標ごとの辞書時系列画像列データを第二の入力として、各候補目標の辞書時系列画像列データと観測時系列画像列データとのマッチングを行い、類似度の最大値を候補目標の類似度とする。
【0028】
さらに、種類判別器3は、全候補目標の類似度算出後、最大の類似度を持つ候補目標を目標種類と判定し、結果を種類判別結果として出力する。この出力は、本発明の目標識別装置10全体の出力となり、種類判別結果ファイル16に格納される。
【0029】
なお、個々の画像の類似度は、画像を構成する画素の輝度差や、輝度分布から算出し、画像列全体の類似度は、各画像の類似度の合計や、平均/分散等から算出する方法が考えられる。
【0030】
実施の形態1によれば、レーダ観測画像データを対象に、目標の形状的変化情報を表す画像列単位で、観測画像列と辞書画像列とのマッチングを行うことにより、目標の微小な形状変化に基づく類識別を行うことができ、形状や運動が似ている目標間の識別が可能となる。
【0031】
実施の形態2.
以下、本発明の実施の形態2による目標識別装置を図1、図2に基づいて説明する。図2は、本発明の実施の形態2における辞書時系列画像列生成器2の構成図である。実施の形態2に係る目標識別装置10は、図1に示す構成を備え、辞書時系列画像列生成器2として、図2に示す構成を有する。図2に示すように、辞書時系列画像列生成器2は、辞書領域分割幅決定器21、辞書領域分割器22、シミュレーション画像生成器23、分割領域辞書画像決定器24、および辞書時系列画像列決定器25で構成される。
【0032】
また、辞書時系列画像列生成器2との間で入出力を行うデータベースとして、実施の形態1で説明した目標別諸元ファイル11、レーダ観測諸元ファイル13、辞書時系列画像列ファイル14とともに、シミュレーション画像ファイル17をさらに備えている。
【0033】
次に、実施の形態2の動作について説明する。実施の形態1では、目標パラメータ推定器1で目標の進行方向/回転運動等の運動パラメータや、姿勢に関するパラメータ等、全ての目標パラメータを推定して、これらの目標パラメータ推定値に基づき、辞書時系列画像列生成器2で、辞書時系列画像列を生成する例を示した。
【0034】
これに対して、本実施の形態2では、図2に示すように、辞書領域分割幅決定器21と辞書領域分割器22とシミュレーション画像生成器23において、候補目標が領域の中心に位置する辞書領域を設定後、辞書領域を分割した各分割領域から候補目標を観測したシミュレーション画像データを生成し、さらに、分割領域辞書画像決定器24と辞書時系列画像列決定器25において、目標パラメータ推定器1で推定された目標の運動に関するパラメータに基づき、辞書時系列画像列生成を行う例を示す。
【0035】
辞書領域分割幅決定器21は、目標別諸元ファイル11からの目標別諸元データを入力として、辞書領域の分割幅を決定し、辞書領域分割幅として出力する。目標別諸元データとしては、例えば、目標種類別の回転速度の想定範囲等が考えられる。この場合に、辞書領域分割幅決定器21は、想定範囲から目標の平均回転角速度を見積もり、辞書領域の分割幅として設定する。
【0036】
例えば、回転速度の想定範囲が10〜20度/秒の場合、平均回転角速度を15度/秒と見積もり、分割幅を15度に設定する。なお、これは想定観測時間を1秒とした場合であるが、想定観測時間に比例するように、分割幅を調整する。例えば、想定観測時間が2秒の場合は、分割幅を30度に設定する。また、想定観測時間は、事前にシステムで固定とするか、あるいはレーダ観測諸元ファイルからレーダ観測諸元データとして得る。
【0037】
辞書領域分割器22は、辞書領域分割幅決定器21から出力される辞書領域分割幅を入力とし、辞書領域の分割を行い、辞書領域分割結果を出力する。図3および図4は、本発明の実施の形態2における辞書領域分割器22による辞書領域分割例を示した図である。辞書領域としては、図3のような球面が考えられ、また、図4のような正二十面体でもよい。分割方法としては、分割幅を基準に等角度間隔で分割を行う。
【0038】
シミュレーション画像生成器23は、辞書領域分割器22から出力される辞書領域分割結果と、目標別諸元ファイル11からの目標別諸元データを入力とし、各分割領域から観測した候補目標ごとのシミュレーション画像データを生成し、シミュレーション画像ファイル17に出力する。
【0039】
候補目標の重心は、辞書領域の中心に位置し、各分割領域の中心点から各候補目標を観測した画像を、目標別諸元データとして得られた候補目標の3次元形状データに基づき、シミュレーションで生成する。なお、候補目標の回転軸方向は未定のため、各分割領域において、複数の回転軸方向を想定して、各回転軸方向に対するシミュレーション画像データを生成する。
【0040】
以上の処理は、目標観測時ではなく、事前にバッチ処理として行い、各候補目標に対する全シミュレーション画像データをシミュレーション画像ファイル17にデータベース化して蓄えておく。
【0041】
分割領域辞書画像決定器24は、シミュレーション画像ファイル17からのシミュレーション画像データと、目標パラメータ推定器1から出力される目標パラメータ推定値を入力とし、候補目標ごとに各分割領域の辞書画像を決定し、分割領域辞書画像として出力する。目標パラメータ推定値としては、回転軸方向推定値が与えられる。分割領域辞書画像決定器24は、複数の回転軸方向のシミュレーション画像データの中から、該当する回転軸方向のシミュレーション画像データを選択し、各分割領域の辞書画像である分割領域辞書画像として出力する。
【0042】
辞書時系列画像列決定器25は、分割領域辞書画像決定器24から出力される分割領域辞書画像と、レーダ観測諸元ファイル13からのレーダ観測諸元データを入力とし、複数の分割領域辞書画像からなる辞書時系列画像列を候補目標ごとに生成し、出力する。レーダ観測諸元データとしては、観測画像列の画像列長が与えられる。辞書時系列画像列決定器25は、辞書領域を構成する分割領域辞書画像から、画像列長を満たす、辞書画像の順序列を決定し、辞書画像列とする。画像列の方向は、水平方向、垂直方向、45度方向等が考えられる。
【0043】
なお、上述の実施の形態2においては、辞書領域分割幅決定器21にて、辞書領域分割幅を一つ決定し、全辞書領域を等角度間隔で分割する例を示したが、辞書領域分割幅を辞書領域の位置によって変更してもよい。例えば、分割した辞書領域の面積が均等になるよう、分割する方法が考えられる。
【0044】
図3のような等角度で分割した場合、目標の重心を中心とし、目標の機首方向をX軸、横方向をY軸、高さ方向をZ軸とした座標系を考える。目標を基準としたレーダの方向を、XYZ座標系におけるXY平面内でX軸から反時計回りに図ったアジマス角、およびXY平面からZ軸方向に図ったエレベーション角で定義する。エレベーション角±90度付近では分割領域の面積が小さく、逆に0度付近では大きくなる傾向があり、この面積比の違いは、観測位置の違いによる目標の動きに対する感度差と直結する。
【0045】
すなわち、90度付近では、微小な動きでも隣接する画像間にまたがるのに対し、0度付近では、かなり大きな動きがあった時に隣接画像間にまたがるという違いが出てくる。具体的には、エレベーション角±90度付近のアジマス方向の刻み幅を、0度付近の刻み幅より相対的に大きくする。
【0046】
実施の形態2によれば、目標パラメータの推定を回転軸方向といった運動に関するパラメータのみにし、パラメータ推定精度への依存を最小限に抑えた類識別を実現することができる。
【0047】
さらに、辞書領域分割幅を辞書領域位置によって変更することにより、目標観測位置による目標の動きに対する感度の差を無くし、目標観測位置による精度のばらつきをおさえた類識別を行うことができる。
【0048】
実施の形態3.
以下、本発明の実施の形態3による目標識別装置を図5に基づいて説明する。図5は、本発明の実施の形態3における目標識別装置10の構成図である。実施の形態3における目標識別装置10の構成は、実施の形態1における目標識別装置10の構成を示した図1と比較すると、新たに観測画像列加工器4が付加されている点が異なる。また、目標識別装置10との間で入出力を行うデータベースは、図1と同様である。
【0049】
新たに付加された観測画像列加工器4は、レーダ観測諸元ファイル13からのレーダ観測諸元データと、観測時系列画像列ファイル15からの観測時系列画像列データとの入力に基づいて、観測時系列画像列データを加工して、観測画像列加工データを出力する機能を有する。
【0050】
次に、実施の形態3に係る目標識別装置10の動作について説明する。まず、目標パラメータ推定器1は、実施の形態1同様、追尾ファイル12からの追尾情報、およびレーダ観測諸元ファイル13からのレーダ観測諸元情報を読み込む。そして、目標パラメータ推定器1は、目標パラメータ推定値を推定もしくは決定し、出力する。
【0051】
観測画像列加工器4は、レーダ観測諸元ファイル13からのレーダ観測諸元データと、観測時系列画像列ファイル15からの観測時系列画像列データを入力とする。レーダ観測諸元データとしては、観測時系列画像列の画像列長と観測時間が与えられる。観測時系列画像列の加工を行う条件としては、例えば、観測時間が想定していた観測時間と異なる場合が考えられ、観測画像列加工器4は、観測時間に合わせて観測時系列画像列データを加工する。
【0052】
観測時系列画像列データを加工する第一の方法としては、観測時系列画像列データの長さを伸長する方法がある。例えば、観測時間が想定していた時間より長く、画像間の目標の回転の度合いが大きい場合が考えられる。伸長方法としては、画像列にnull画像(全画素強度が0)を挿入することが考えられる。null画像の挿入位置は、挿入画像数に依存するが、例えば、奇数もしくは偶数番目や、n番目(nは、挿入画像数から算出した正数)を挿入位置とする。
【0053】
観測画像列を加工する第二の方法としては、観測画像列の長さを縮小する方法がある。例えば、観測時間が想定していた時間より短く、画像間の目標の回転の度合いが小さい場合が考えられる。縮小方法としては、画像列から指定した位置の画像を削除することが考えられる。画像の削除位置は、削除画像数に依存するが、例えば、奇数もしくは偶数番目や、n番目(nは、削除画像数から算出した正数)を削除位置とする。観測画像列加工器4は、このようにして加工した観測画像列加工データと加工画像列長を出力する。
【0054】
辞書時系列画像列生成器2は、目標別諸元ファイル11からの目標別諸元情報と、レーダ観測諸元ファイル13からのレーダ観測諸元情報に含まれる観測時間と、目標パラメータ推定器1から出力される辞書目標パラメータ推定値とともに、観測画像列加工器4から出力される加工画像列長をさらに入力として、辞書時系列画像列データを生成し、辞書時系列画像列ファイル14に出力する。
【0055】
すなわち、本実施の形態3における辞書時系列画像列生成器2は、観測画像列加工器4から出力される加工画像列長を加味して辞書時系列画像列データを生成する点が、実施の形態1における辞書時系列画像列生成器2と異なる。
【0056】
種類判別器3は、観測画像列加工器4から出力される観測画像列加工データと、辞書時系列画像列ファイル14からの辞書時系列画像列データを入力として、観測画像列加工データを種類判別対象データとして、種類判別処理を行い、種類判別結果を出力する。この出力は、本発明の目標識別装置10全体の出力となり、種類判別結果ファイル16に格納される。
【0057】
すなわち、本実施の形態3における種類判別器3は、観測画像列加工器4から出力される観測画像列加工データに基づいて、例えば、観測時間が想定していた時間と異なる場合等を加味して種類判別処理を行う点が、実施の形態1における種類判別器3と異なる。
【0058】
なお、本実施の形態3の目標識別装置10に対して、実施の形態2の辞書時系列画像列生成器2を組み合わせる場合は、観測画像列加工器4から辞書時系列画像列決定器25に対して、加工画像列長を出力する。観測時系列画像列の加工を行う条件としては、目標の回転速度が、シミュレーション画像データ生成時に想定した平均回転角速度に比べ速い場合も該当する。
【0059】
実施の形態3によれば、観測時間の変化や、目標の回転運動の変動に合わせて、観測時系列画像列の加工、辞書時系列画像列の生成を行うことにより、目標の観測条件に合わせた類識別を行うことができる。
【0060】
なお、観測時系列画像列加工方法として、観測時系列画像列の伸長及び縮小のいずれかを行う例を示したが、これに限定されない。それ以外にもこれらを組み合わせて、観測時系列画像列を伸長したもの、縮小したもの、加工なしのものを生成し、全てを種類判別対象として、もっとも類似度の高い辞書画像列が見つかったものを、候補目標の評価結果である候補目標評価値としてもよい。観測時系列画像列の長さを様々に調整した画像を組み合わせて種類判別対象とすることにより、目標の回転運動等のパラメータの推定誤差の影響を抑えた類識別が可能となる。
【0061】
実施の形態4.
以下、本発明の実施の形態4による目標識別装置を図1、図6に基づいて説明する。図6は、本発明の実施の形態4における辞書時系列画像列生成器2の構成図である。実施の形態4に係る目標識別装置10は、図1に示す構成を備え、辞書時系列画像列生成器2として、図6に示す構成を有する。図6に示すように、辞書時系列画像列生成器2は、複数辞書領域分割幅決定器21a、辞書領域分割器22、シミュレーション画像生成器23、辞書領域分割幅選択器26、分割領域辞書画像決定器24、辞書時系列画像列決定器25で構成される。
【0062】
実施の形態2における辞書時系列画像列生成器2の構成を示した図2と比較すると、図6の構成は、辞書領域分割幅決定器21の代わりに複数辞書領域分割幅決定器21aが用いられているとともに、新たに辞書領域分割幅選択器26が付加されている点が異なる。
【0063】
複数辞書領域分割幅決定器21aは、目標別諸元データを入力とし、辞書領域の分割幅を複数決定し、辞書領域分割幅候補値として出力する。この複数辞書領域分割幅決定器21aは、実施の形態2で説明した辞書領域分割幅決定器21に対して、複数の辞書領域分割幅を辞書領域分割幅候補値として求める機能をさらに備えた辞書領域分割幅決定器に相当する。
【0064】
また、辞書領域分割幅選択器26は、レーダ観測諸元データと、目標パラメータ推定器1から出力される目標パラメータ推定値と、複数辞書領域分割幅決定器21aから出力される辞書領域分割幅候補値を入力とし、辞書領域分割幅を選択して出力する機能を有する。
【0065】
次に、実施の形態4の動作について説明する。実施の形態2では、辞書領域分割幅決定器21で辞書領域分割幅を一意に決定する例を示したが、本実施の形態4では、辞書領域分割幅決定器21の代わりに用いられている複数辞書領域分割幅決定器21aにおいて、複数の辞書領域分割幅候補値を決定し、辞書領域分割幅選択器26において、複数の辞書領域分割幅候補値の中から適切な辞書領域分割幅の選択を行う例を示す。
【0066】
複数辞書領域分割幅決定器21aは、目標別諸元ファイル11からの目標別諸元データを入力とし、辞書領域の分割幅を複数決定し、辞書領域分割幅候補値として出力する。複数の分割幅の決定方法としては、目標種類別の回転速度の想定範囲内で等間隔に複数生成する方法や、平均回転角速度を中心にある一定間隔で分割幅を増減し、例えば、平均回転角速度15度を中心に5、10、15、20、25度と、複数の分割幅を決定する方法が考えられる。また分割幅候補数は、事前に固定としてもよいし、実行時にユーザが設定してもよい。
【0067】
辞書領域分割器22は、複数の辞書領域分割幅候補値に対し、実施の形態2同様に、辞書領域分割を行い、異なる複数の辞書領域分割幅候補値による複数の辞書領域分割結果である辞書領域分割結果群を出力する。さらに、シミュレーション画像生成器23は、辞書領域分割結果群に対し、実施の形態2と同様に、候補目標ごとにシミュレーション画像データの生成を行い、シミュレーション画像データ群としてシミュレーション画像ファイル17に出力する。
【0068】
辞書領域分割幅選択器26は、レーダ観測諸元ファイル13からのレーダ観測諸元データと、目標パラメータ推定器1から出力される目標パラメータ推定値と、複数辞書領域分割幅決定器21aから出力される辞書領域分割幅候補値を入力とし、辞書領域分割幅を選択して出力する。レーダ観測諸元データとしては観測時間が与えられ、目標パラメータ推定値としては目標の回転速度が与えられる。辞書領域分割幅選択器26は、これらの値から目標の観測時間あたりの回転の度合いを算出し、それに基づき辞書領域分割幅候補値の中から、もっとも値の近い辞書領域分割幅を選択する。
【0069】
分割領域辞書画像決定器24は、シミュレーション画像ファイル17からのシミュレーション画像データ群と、目標パラメータ推定器1から出力される目標パラメータ推定値と、辞書領域分割幅選択器26から出力される辞書領域分割幅を入力とし、シミュレーション画像データ群の中から、指定された辞書領域分割幅のシミュレーション画像データを抽出する。さらに、分割領域辞書画像決定器24は、抽出したシミュレーション画像データの中から、目標パラメータ推定値として与えられた回転軸方向に基づき、候補目標ごとの分割領域辞書画像を決定し出力する。
【0070】
辞書時系列画像列決定器25は、実施の形態2と同様に、分割領域辞書画像決定器24から出力される分割領域辞書画像と、レーダ観測諸元ファイル13からのレーダ観測諸元データを入力とし、複数の分割領域辞書画像からなる候補目標ごとの辞書時系列画像列を生成し、出力する。
【0071】
実施の形態4によれば、観測時間の変化や、目標の回転運動の変動に合わせて、複数の辞書領域分割幅を有する辞書の中から1つの辞書を選択することにより、目標の観測条件に合わせた類識別を行うことができる。
【0072】
なお、辞書領域分割幅候補値の中から辞書領域分割幅を一意に選択する例を示したが、これに限定されない。それ以外にも複数の辞書領域分割幅をそのまま残し、辞書領域分割幅の異なる辞書画像列を種類判別時に用いて、もっとも観測時系列画像列との類似度の高い値を、候補目標の評価結果である候補目標評価値としてもよい。辞書領域分割幅の異なる辞書画像列を種類判別に用いることにより、目標の回転運動等のパラメータの推定誤差の影響を抑えた類識別が可能となる。
【0073】
実施の形態5.
以下、本発明の実施の形態5による目標識別装置を図1、図7に基づいて説明する。図7は、本発明の実施の形態5における種類判別器3の構成図である。実施の形態5に係る目標識別装置10は、図1に示す構成を備え、種類判別器3として、図7に示す構成を有する。図7に示すように、種類判別器3は、種類学習器31および種類算出器32で構成される。
【0074】
次に、実施の形態5の動作について説明する。実施の形態1では、種類判別器3において、辞書時系列画像列と観測時系列画像列とのマッチングにより種類判別を行う例を示したが、本実施の形態5では、種類判別器3を構成する種類学習器31と種類算出器32とを用いて、種類学習を伴った種類判別を行う例を示す。図8は、本発明の実施の形態5における種類学習器31による種類学習と種類算出器32による種類判別の説明図である。
【0075】
まず始めに、種類学習器31により種類学習を行う例を示す。本実施の形態5では、学習手法として、境界線を決定する手法である線形判別法を適用する。線形判別法にはいくつかの手法があるが、ここでは共分散行列に基づく線形判別法を用いる。共分散行列に基づく線形判別法とは、異なる種類のデータ同士はできるだけ離れ、同一種類のデータ同士はなるべく近くに分布するように、全データの中心を表すクラスタ中心を通るベクトルwにデータを射影して判別分析を行う方法である。
【0076】
種類学習器31は、共分散行列に基づく線形判別を行う場合、各データの射影結果yと各種類の平均ベクトルの射影結果yxとを比較し、最も近いyxを持つ種類に射影結果yが属するものと判別する。境界は、wに垂直でクラスタ中心を通る直線として定義される。図8(a)は、線形判別法による種類学習例を示したものである。△は、種類1の候補目標の教師データ、■は、種類2の候補目標の教師データであるとすると、種類学習器31による種類学習により、図8(a)に示したような境界線が決定される。
【0077】
前述の例では、種類学習に共分散行列に基づく線形判別を適用する例を示したが、その他にもサポートベクターマシンなどの高次元データでの有効性が示されている学習手法を適用してもよい。サポートベクターマシンは、全教師データからの距離と方向に基づいて境界となる直線を求める方法であり、距離を最大にし、かつそれぞれの種類ごとに、教師データからみた直線の方向が同じになるような直線を決定する。
【0078】
サポートベクターマシンは、線形判別法の変形手法の一つとして考えられている。前述の共分散行列に基づく線形判別法等の一般的な線形判別法と比較して、サポートベクターマシンは、カーネル関数とよばれる関数の線形和で学習に必要な関数を表すことにより、非線形な境界定義が可能な点で大きく異なる。カーネル関数は、複数種類存在し、学習パラメータにおいて、いずれのカーネルを選択するかを指定する。
【0079】
以上のように、観測時系列画像列データの性質/分布状況等によって、適する種類学習手法は異なるため、それぞれの学習手法の特徴を踏まえた上で、手法の選択を行えばよい。
【0080】
次に、種類学習器31から出力される種類学習結果と、観測時系列画像列データとを入力として、種類算出器32により行う種類判別について説明する。図8(b)は、種類判別を行った例を示している。種類算出器32は、種類学習結果として求められた境界線に基づき、観測時系列画像列データに含まれる種類不明の目標の種類を判別する。
【0081】
図8(b)において、種類1に相当する△が多く属する境界線の上側の領域を種類1の境界領域、逆に、種類2に相当する■が多く属する境界線の下側の領域を種類2の境界領域とする。この場合に、種類算出器32は、種類判別対象である観測時系列画像列データが、いずれの領域に属するかによってその種類を判別する。
【0082】
図8(b)において、黒三角と◇は、それぞれ種類不明の観測データである。種類算出器32は、黒三角の分布が種類1の境界領域にあることから、黒三角が種類1であると判別する。同様に、種類算出器32は、◇の分布が種類2の境界領域にあることから、◇が種類2であると判別する。
【0083】
なお、これらの手法による種類学習及び種類判別は、基本的には種類が2つの場合の境界線を決定する方法であるため、多数の種類を対象として種類判別を行う場合には、例えば、トーナメント方式と呼ばれる方式がある。トーナメント方式では、2種類ずつ全ての種類の組み合わせで種類学習を行い、それぞれの境界線(判別平面)を決定する。次に、判別対象データがどちらの種類に近いかの種類判別を、勝ち残り方式で、複数の種類の組合せに対して行い、最終的に勝ち残った種類を目標の種類とする。
【0084】
実施の形態5によれば、辞書時系列画像列と観測時系列画像列とのマッチングではなく、辞書時系列画像列の種類学習結果に基づいて、観測時系列画像列の種類判別処理を行うことができる。これにより、辞書画像列生成方法や辞書領域分割幅等の辞書生成時のパラメータへの依存度を少なくした種類判別を行うことができる。
【0085】
さらに、このような種類判別処理を用いることにより、例えば、辞書領域分割幅が観測目標の運動と一致していない場合にも、必ずしも類似した画像列が見つからないといった問題を回避することができ、種類不明の目標の種類を判別することができる。
【0086】
実施の形態6.
以下、本発明の実施の形態6による目標識別装置を図1、図9に基づいて説明する。図9は、本発明の実施の形態6における種類判別器3の構成図である。実施の形態6に係る目標識別装置10は、図1に示す構成を備え、種類判別器3として、図9に示す構成を有する。図9に示すように、種類判別器3は、類似度算出パラメータ決定器33、類似度上位辞書画像抽出器34、画像列生成器35、画像列評価器36、および種類決定器37で構成される。
【0087】
次に、実施の形態6の動作について説明する。実施の形態1では、種類判別器3において、辞書時系列画像列全体と観測時系列画像列全体とのマッチングにより種類判別を行う例を示したが、本実施の形態6では、種類判別器3において、観測時系列画像列を構成する個々の画像毎にマッチング処理をした後に、画像列全体の種類判別を行う例を示す。
【0088】
類似度算出パラメータ決定器33は、観測時系列画像列ファイル15からの観測時系列画像列データを入力とし、類似度算出のためのパラメータである類似度算出パラメータを決定して出力する。類似度算出パラメータとしては、類似画像探索対象画像番号と探索領域がある。具体的には、類似画像探索対象画像番号として、観測時系列画像列の全画像の画像番号を指定する。観測時系列画像列の画像列長は、観測時系列画像列データから与えられる。探索領域としては、全分割辞書領域が指定される。
【0089】
類似度上位辞書画像抽出器34は、類似度算出パラメータ決定器33から出力される類似度算出パラメータと、観測時系列画像列ファイル15からの観測時系列画像列データと、辞書時系列画像列ファイル14からの辞書時系列画像列データとを入力とし、類似度上位の辞書画像である類似度上位辞書画像を抽出し、位置情報と類似度情報を含む類似度上位辞書画像情報として出力する。
【0090】
具体的には、類似画像探索対象画像番号として指定された、観測時系列画像列を構成する全観測画像と、全辞書画像との類似度を算出し、各観測画像に対する類似度上位の辞書画像を類似度上位辞書画像として抽出し、それらの辞書領域上の位置情報と、類似の度合いを示す類似度情報を出力する。各観測画像に対する類似度上位辞書画像の抽出数は、固定とする、もしくは実行時に動的に指定可能としてもよい。
【0091】
画像列生成器35は、類似度上位辞書画像抽出器34から出力される類似度上位辞書画像情報を入力とし、類似度上位辞書画像の組合せからなる画像列である類似度上位辞書画像列を生成し、位置情報と類似度情報を含む類似度上位辞書画像列情報として出力する。具体的には、対応する観測画像の順序列にしたがって、全類似度上位辞書画像から、観測時系列画像列の画像列長と等しい画像列を生成する。
【0092】
例えば、各観測画像に対応する類似度上位L個の画像が抽出され、画像列長がKの場合、L個の類似度上位辞書画像列が生成される。位置情報としては、画像列を構成する類似度上位辞書画像の位置番号列が、類似度情報としては、画像列を構成する類似度上位辞書画像の類似度列が出力される。
【0093】
図10は、本発明の実施の形態6における類似度上位画像列生成の例示図である。図10は、類似度上位辞書画像抽出数L=3、観測画像列長K=3とした場合において、ある1つの候補目標について抽出されたそれぞれの類似度上位辞書画像を正方形で表している。さらに、それらの正方形を3つ連ねた線で示したものが、生成された類似度上位画像列に相当する。
【0094】
図10の正方形の中で、斜線で塗られた正方形は、画像番号1の観測画像に対する類似度上位辞書画像を示している。すなわち、この斜線で塗られた正方形は、観測時系列画像列の1番目の観測画像に対して、ある1つの候補目標の辞書画像の中から類似度の高い3つの辞書画像を抽出したものに相当する。同様に、黒塗りの正方形は、画像番号2の観測画像に対する類似度上位辞書画像を示し、白塗りの正方形は、画像番号3の観測画像に対する類似度上位辞書画像を示している。
【0095】
そして、斜線で塗られた正方形、黒塗りの正方形、白塗りの正方形の3つの正方形を順番につなぐことにより、画像列生成器35は、類似度上位辞書画像列を生成することができる。なお、図10では、算出可能な類似度上位辞書画像列のうちの、4例のみを例示しているが、実際は、全組合せに相当するL個の類似度上位辞書画像列を算出して出力する。
【0096】
画像列評価器36は、画像列生成器35から出力される類似度上位辞書画像列情報および辞書時系列画像列ファイル14からの辞書時系列画像列データを入力とし、類似度上位辞書画像列の評価を行い、候補目標の評価結果である候補目標評価値を決定し出力する。類似度上位辞書画像列の評価方法としては、各類似度上位辞書画像列の類似度から算出する類似度評価値や、位置情報に基づく位置評価値から、類似度上位辞書画像列の評価を行う方法が考えられる。
【0097】
位置評価値としては、距離評価値と角度評価値が考えられる。画像列評価器36は、このような位置評価値から、類似度上位辞書画像列を構成する類似度上位辞書画像の位置関係を評価する。具体的には、例えば、各辞書画像間の距離と、隣接画像を結んだ線の直線からのずれの度合いを算出する。連続する辞書画像間の距離の分散から距離評価値を、隣接する3画像間を結ぶ2直線(図10の線分s1と線分s2が該当)のなす角度から角度評価値を求める。画像間の距離の差が少なく、また角度が0に近いほど、評価値が高くなるよう設定する。
【0098】
類似度評価値としては、例えば、各類似度上位辞書画像列を構成する類似度上位辞書画像の類似度の分散、及び類似度合計値を求める。類似度の分散が少なく、合計値が高いほど、評価値が高くなるよう設定する。
【0099】
各類似度上位辞書画像列の評価方法としては、類似度評価値と位置評価値のうち、例えば位置評価値のみから評価を行う方法が考えられる。具体的には、例えば、位置評価値として与えられた距離評価値と角度評価値に対し、角度評価値の降順になるよう類似度上位辞書画像列を並べ、角度評価値の上位から順に、距離評価値と事前に与えられた閾値との比較を行い、距離評価値がしきい値以上で、かつ角度評価値がもっとも上位である類似度上位辞書画像列を抽出する。
【0100】
あるいは、類似度評価値も評価に反映させる方法としては、距離評価値がしきい値以上である角度評価値の上位M個から、類似度評価値がもっとも高い類似度上位辞書画像列を抽出すればよい。その他、これら複数の評価値を変数として持つ関数を設定する等、全評価値を反映するような総評価値を求め、もっとも総評価値が高い類似度上位辞書画像を抽出してもよい。
【0101】
類似度上位辞書画像列の評価を位置評価値に基づいて行う例を、図10を用いて示す。図10に示す4つの類似度上位辞書画像列のうち、もっとも角度評価値が高く、すなわち隣接画像が直線的に位置し、かつ距離評価値も上位である類似度上位辞書画像列として、類似度上位画像G1、G2、G3からなる類似度上位辞書画像列が抽出される。なお、いずれの評価方法を適用した場合においても、画像列評価器36が出力する候補目標評価値としては、類似度評価値、もしくは類似度評価値と角度評価値からなるベクトルのいずれかとする。
【0102】
なお、観測画像列が一定方向に並ぶ画像列であるのに対して、類似度上位辞書画像列は、必ずしも一定方向でなくてもよい。すなわち途中での折り返しが可能である。例えば、図10において、観測画像列の第一画像から第五画像までが、辞書画像の{G2, G3, G2, G1, G2}と対応する場合を考える。
【0103】
この場合、G3とG1で折り返しが発生していると考えられ、目標の振動運動への対応が可能となる。なお想定不可能な運動を表す辞書画像列に対しては、除外できるよう、連続画像間の距離の変動状況を評価指標に組入れる等して、絞込みを行う方法が考えられる。
【0104】
種類決定器37は、画像列評価器36から出力されるそれぞれの候補目標に対する候補目標評価値を入力とし、観測目標の種類判別結果を決定し出力する。具体的には、種類決定器37は、各候補目標の評価値を比較し、もっとも評価値が高い候補目標名を種類判別結果として出力する、あるいは評価値上位の候補目標名を評価値の降順に、順位とともに出力する。
【0105】
実施の形態6によれば、個々の観測画像、辞書画像間の類似度を算出して、類似度の高い画像から辞書画像列を生成することにより、実施の形態1で示した想定される全辞書画像列との類似度算出を行う場合に比べて、類似度算出時の演算量を削減できる。
【0106】
さらに、辞書画像列生成を辞書領域内の隣接画像間で行わずに、観測時系列画像列を構成するそれぞれの観測画像に対する辞書画像の類似度に基づいて辞書画像列を自由に生成した後に、辞書画像間の距離や位置関係を指標として絞り込む。したがって、辞書領域分割幅の直接的な影響を受けることなく、観測時間の変化や、目標の回転運動の変動に合わせて、辞書を生成可能となり、目標の観測条件に合わせた類識別を行うことができる。
【0107】
さらに、画像間での距離の違いを許容することにより、目標の回転運動の加速度変化にも対応可能となる。さらに、辞書画像間の位置関係を角度評価値と距離評価値のみで評価することにより、類似度上位辞書画像列の折り返しが可能となり、目標の振動運動に対応することも可能となる。
【0108】
実施の形態7.
以下、本発明の実施の形態7による目標識別装置を図1、図11に基づいて説明する。図11は、本発明の実施の形態7における種類判別器3の構成図である。実施の形態7に係る目標識別装置10は、図1に示す構成を備え、種類判別器3として、図11に示す構成を有する。図11に示すように、種類判別器3は、近傍領域決定器38、類似度上位辞書画像抽出器34、画像列評価器36、および種類決定器37で構成される。
【0109】
実施の形態6における種類判別器3の構成を示した図9と比較すると、類似度算出パラメータ決定器33の代わりに近傍領域決定器38が用いられているとともに、画像列生成器35が構成要素から削除されている点が異なる。
【0110】
次に、実施の形態7の動作について説明する。実施の形態6では、種類判別器3において、観測時系列画像列を構成する個々の画像ごとにマッチング処理を行った後に、その結果の組合せからなる辞書画像列全体に基づく種類判別を行う例を示した。これに対して、本実施の形態7では、種類判別器3において、観測時系列画像列を構成する画像に対し、画像列を構成する順番にマッチング処理を行うことにより複数の候補を選択して、それらの複数の候補をつなげることにより分岐した画像列を生成し、生成した画像列全体の種類判別を行う例を示す。
【0111】
近傍領域決定器38は、観測時系列画像列ファイル15からの観測時系列画像列データと、類似度上位辞書画像抽出器34から出力される類似度上位辞書画像情報とを入力とし、類似度算出パラメータを決定して出力する処理を繰り返し、類似度上位辞書画像抽出器34から繰り返し出力される類似度上位辞書画像情報をつなぎ合わせることにより、類似度上位辞書画像列情報を生成して出力する。観測時系列画像列データからは、観測時系列画像列長が与えられる。
【0112】
以下、近傍領域決定器38と類似度上位辞書画像抽出器34とによる繰り返し処理手順を示す。まず、近傍領域決定器38は、最初に観測時系列画像列の第一画像に対し、近傍領域として、全辞書領域を設定し、類似度算出パラメータである類似画像探索対象画像番号として第一画像を示す番号を、探索領域として近傍領域、すなわち、全辞書領域を設定し、出力する。この段階では、類似度上位辞書画像情報の入力はなし、もしくはnull情報が入力される。
【0113】
次に、類似度上位辞書画像抽出器34は、近傍領域決定器38から出力される類似度算出パラメータと、観測時系列画像列ファイル15からの観測時系列画像列データと、辞書時系列画像列ファイル14からの辞書時系列画像列データとを入力とし、類似度算出パラメータで指定された近傍領域を探索領域として、類似度上位辞書画像を抽出し、位置情報と類似度情報とを含む類似度上位辞書画像情報として出力する。類似度上位辞書画像の抽出数は、固定とする、もしくは実行時に動的に指定可能としてもよい。
【0114】
次に、再び、近傍領域決定器38は、観測時系列画像列ファイル15からの観測時系列画像列データと、類似度上位辞書画像抽出器から出力される類似度上位辞書画像情報とを入力とし、類似度上位辞書画像情報として入力された、第一観測画像に対する全類似度上位辞書画像の位置情報から、各類似度上位辞書画像の近傍領域を決定し、観測時系列画像列の第二画像に対する類似度上位画像の探索領域として設定し、探索領域と類似度探索画像番号として第二画像を示す番号を出力する。
【0115】
次に、再び、類似度上位辞書画像抽出器34は、近傍領域決定器38から出力される類似度算出パラメータと、辞書時系列画像列データとを入力とし、類似度算出パラメータで指定された探索領域内において、類似度上位辞書画像を抽出し、位置情報と類似度情報とを含む類似度上位辞書画像情報として出力する。
【0116】
以下、近傍領域決定器38と類似度上位辞書画像抽出器34との間において、上記の処理を繰り返し、全観測画像列を構成する画像列に対する類似度上位画像を決定したところで、近傍領域決定器38は、最終的に類似度上位辞書画像列を生成し、出力する。例えば、各観測画像に対応する類似度上位L個の画像が抽出され、画像列長がKの場合、L個の類似度上位辞書画像列が生成される。
【0117】
図12は、本発明の実施の形態7における設定された探索領域及び生成された類似度上位辞書画像列の例示図である。図12は、類似度上位辞書画像抽出数L=3、観測画像列長K=3とした場合において、ある1つの候補目標について抽出されたそれぞれの類似度上位辞書画像を正方形で表している。さらに、それらの正方形を3つ連ねた線で示したものが、生成された類似度上位画像列に相当する。
【0118】
図12の正方形の中で、斜線で塗られた正方形は、画像番号1の観測画像に対する類似度上位辞書画像を示している。すなわち、この斜線で塗られた正方形は、観測時系列画像列の1番目の観測画像に対して、ある1つの候補目標の辞書画像の中から類似度の高い3つの辞書画像を抽出したものに相当する。同様に、黒塗りの正方形は、画像番号2の観測画像に対する類似度上位辞書画像を示し、白塗りの正方形は、画像番号3の観測画像に対する類似度上位辞書画像を示している。
【0119】
画像番号1の観測画像に対する類似度上位辞書画像(斜線で塗られた正方形)の中心点からの距離が、事前に設定された、探索領域の大きさを定義するパラメータである伸縮係数以内である領域(図12の斜線で塗られた正方形を中心とする円内に相当)を画像番号2の観測画像の探索領域とする。
【0120】
画像番号3の観測画像の探索領域は、画像番号2の観測画像の探索領域と同様に、まず、画像番号2の観測画像に対する類似度上位辞書画像(黒塗りの正方形)の中心点からの距離が伸縮係数以内である領域が設定された後に、さらに画像間を結ぶ線分のなす角度がより直線に近くなるように制限される(図12の黒塗りの正方形を中心とする扇形領域に相当)。
【0121】
具体的には、斜線で塗られた正方形と黒塗りの正方形とを結ぶ線分と、黒塗りの正方形と白塗りの正方形とを結ぶ線分とのなす角度が、事前に設定された、探索領域の角度を定義するパラメータである角度係数以内となる領域を画像番号3の観測画像の探索領域とする。以下同様にして、近傍領域決定器38は、後続の探索領域を設定していき、類似度上位辞書画像抽出器34は、探索領域内から類似度上位辞書画像を抽出する処理を繰り返す。
【0122】
そして、近傍領域決定器38は、繰り返し抽出された類似度上位辞書画像から、最終的な類似度上位辞書画像列を決定する。ここで、伸縮係数と角度係数は、事前に設定された固定値とする場合を示したが、実行時に指定可能としてもよい。
【0123】
なお、画像番号3の観測画像以降の探索領域は、必ずしも直線上の一方向ではなく、両方向に設定可能とする。図13は、本発明の実施の形態7における画像番号3の観測画像以降の探索領域の説明図である。図13の黒塗りの正方形が画像番号2の観測画像に対する類似度上位辞書領域とすると、画像番号3の観測画像の探索領域は、図13の白塗りの正方形のように設定する。
【0124】
これにより、画像番号3の観測画像の探索領域は、斜線で塗られた正方形の領域も含めることができる。その結果として、類似度上位画像列の折り返しが許容され、目標の振動運動への対応が可能となる。
【0125】
画像列評価器36は、近傍領域決定器38から出力される類似度上位辞書画像列情報を入力とし、類似度上位辞書画像列の評価を行い、候補目標評価値を決定し出力する。類似度上位辞書画像列の評価は、各類似度上位辞書画像列の類似度から算出する類似度評価値に基づいて行う。類似度評価値としては、実施の形態6同様、例えば、各類似度上位辞書画像列を構成する類似度上位辞書画像の類似度の分散、及び類似度合計値を求める。類似度の分散が少なく、合計値が高いほど、評価値が高くなるよう設定する。類似度上位辞書画像列の類似度評価値のうち、もっとも高い値を該候補目標の候補目標評価値として出力する。
【0126】
種類決定器37は、画像列評価器36から出力されるそれぞれの候補目標に対する候補目標評価値を入力とし、観測目標の種類判別結果を決定し出力する。具体的には、種類決定器37は、各候補目標の評価値を比較し、もっとも評価値が高い候補目標名を種類判別結果として出力する、あるいは評価値上位の候補目標名を評価値の降順に、順位とともに出力する。
【0127】
実施の形態7によれば、各観測画像に対し、画像列の順番にしたがって、対応する類似度上位辞書画像の近傍領域を算出後、近傍領域内の辞書画像のみとの類似度算出を行うことにより、実施の形態6で示した全観測画像と辞書領域内の全辞書画像との間で類似度算出を行う場合に比べて、さらに類似度算出時の演算量を削減できる。
【0128】
さらに、辞書画像列生成を辞書領域内の隣接画像間で行わずに、近傍領域内の辞書画像から類似度に基づいて抽出して生成する。したがって、辞書領域分割幅の直接的な影響を受けることなく、観測時間の変化や、目標の回転運動の変動に合わせて、辞書を生成可能となり、目標の観測条件に合わせた類識別を行うことができる。
【0129】
さらに、近傍領域内で抽出することにより、画像間での距離の違いを許容する形となり、目標の回転運動の加速度変化にも対応可能となる。さらに、近傍領域を一方向でなく、両方向に設定することにより、類似度上位辞書画像列の折り返しが可能となり、目標の振動運動に対応可能となる。
【0130】
なお、上述の実施の形態においては、辞書時系列画像列生成器2と種類判別器3の組合せのいくつかを説明したが、これに限定されるものではない。図1または図5に示した目標識別装置10に対して、図2または図6に示された辞書時系列画像列生成器2と、図7、図9または図11で示された種類判別器3との任意の組合せを適用することが可能である。
【図面の簡単な説明】
【0131】
【図1】本発明の実施の形態1による目標識別装置の構成図である。
【図2】本発明の実施の形態2における辞書時系列画像列生成器の構成図である。
【図3】本発明の実施の形態2における辞書領域分割器による辞書領域分割例を示した図である。
【図4】本発明の実施の形態2における辞書領域分割器による辞書領域分割例を示した図である。
【図5】本発明の実施の形態3における目標識別装置の構成図である。
【図6】本発明の実施の形態4における目標識別装置の構成図である。
【図7】本発明の実施の形態5における種類判別器の構成図である。
【図8】本発明の実施の形態5における種類学習器による種類学習と種類算出器による種類判別の説明図である。
【図9】本発明の実施の形態6における種類判別器の構成図である。
【図10】本発明の実施の形態6における類似度上位画像列生成の例示図である。
【図11】本発明の実施の形態7における種類判別器の構成図である。
【図12】本発明の実施の形態7における設定された探索領域及び生成された類似度上位辞書画像列の例示図である。
【図13】本発明の実施の形態7における画像番号3の観測画像以降の探索領域の説明図である。
【符号の説明】
【0132】
1 目標パラメータ推定器、2 辞書時系列画像列生成器、3 種類判別器、4 観測画像列加工器、10 目標識別装置、11 目標別諸元ファイル、12 追尾ファイル、13 レーダ観測諸元ファイル、14 辞書時系列画像列ファイル、15 観測時系列画像列ファイル、16 種類判別結果ファイル、17 シミュレーション画像ファイル、21 辞書領域分割幅決定器、21a 複数辞書領域分割幅決定器、22 辞書領域分割器、23 シミュレーション画像生成器、24 分割領域辞書画像決定器、25 辞書時系列画像列決定器、26 辞書領域分割幅選択器、31 種類学習器、32 種類算出器、33 類似度算出パラメータ決定器、34 類似度上位辞書画像抽出器、35 画像列生成器、36 画像列評価器、37 種類決定器、38 近傍領域決定器。

【特許請求の範囲】
【請求項1】
目標の位置/速度情報である追尾データと、レーダ観測諸元データとに基づいて、目標の運動あるいは姿勢に関する目標パラメータ推定値を推定する目標パラメータ推定器と、
候補目標の3次元形状データである目標別諸元データと、前記レーダ観測諸元データと、前記目標パラメータ推定器からの目標パラメータ推定値とに基づいて、候補目標ごとの辞書時系列画像列データを生成する辞書時系列画像列生成器と、
種類不明の目標をレーダで観測して得られた観測時系列画像列データと、前記辞書時系列画像列生成器からの前記辞書時系列画像列データとに基づいて、前記観測時系列画像列データに含まれる種類不明の目標の種類判別を行う種類判別器と
を備えたことを特徴とする目標識別装置。
【請求項2】
請求項1に記載の目標識別装置において、
前記レーダ観測諸元データと前記観測時系列画像列データとに基づいて、観測時系列画像列データの長さを伸長して観測画像列加工データを生成し、前記観測画像列加工データの長さである加工画像列長を算出する観測画像列加工器をさらに備え、
前記辞書時系列画像列生成器は、前記目標別諸元データと、前記レーダ観測諸元データと、前記目標パラメータ推定値と、前記観測画像列加工器からの前記加工画像列長とに基づいて、候補目標ごとの辞書時系列画像列データを生成し、
前記種類判別器は、観測画像列加工器からの前記観測画像列加工データと、前記辞書時系列画像列生成器からの辞書時系列画像列データとに基づいて、前記観測画像列加工データに含まれる種類不明の目標の種類判別を行う
ことを特徴とする目標識別装置。
【請求項3】
請求項1に記載の目標識別装置において、
前記レーダ観測諸元データと前記観測時系列画像列データとに基づいて、観測時系列画像列データの長さを縮小して観測画像列加工データを生成し、前記観測画像列加工データの長さである加工画像列長を算出する観測画像列加工器をさらに備え、
前記辞書時系列画像列生成器は、前記目標別諸元データと、前記レーダ観測諸元データと、前記目標パラメータ推定値と、前記観測画像列加工器からの前記加工画像列長とに基づいて、候補目標ごとの辞書時系列画像列データを生成し、
前記種類判別器は、観測画像列加工器からの前記観測画像列加工データと、前記辞書時系列画像列生成器からの辞書時系列画像列データとに基づいて、前記観測画像列加工データに含まれる種類不明の目標の種類判別を行う
ことを特徴とする目標識別装置。
【請求項4】
請求項1ないし3のいずれか1項に記載の目標識別装置において、
前記辞書時系列画像列生成器は、
前記目標別諸元データに基づいて、辞書領域分割幅を決定する辞書領域分割幅決定器と、
前記辞書領域分割幅決定器からの前記辞書領域分割幅に基づいて、辞書領域の分割を行い、辞書領域分割結果を算出する辞書領域分割器と、
前記目標別諸元データと、前記辞書領域分割器からの前記辞書領域分割結果とに基づいて、各分割領域から観測した候補目標ごとの画像データであるシミュレーション画像データを生成するシミュレーション画像生成器と、
前記シミュレーション画像データと、前記目標パラメータ推定器からの前記目標パラメータ推定値とに基づいて、各分割領域の辞書画像である分割領域辞書画像を決定する分割領域辞書画像決定器と、
前記レーダ観測諸元データと、前記分割領域辞書画像決定器からの前記分割領域辞書画像とに基づいて、複数の分割領域辞書画像からなる候補目標ごとの辞書時系列画像列データを決定する辞書時系列画像列決定器と
を備えたことを特徴とする目標識別装置。
【請求項5】
請求項1ないし3のいずれか1項に記載の目標識別装置において、
前記辞書時系列画像列生成器は、
前記目標別諸元データに基づいて、辞書領域分割幅を複数の辞書領域分割幅候補値として決定する辞書領域分割幅決定器と、
前記辞書領域分割幅決定器からの前記複数の辞書領域分割幅候補値に基づいて、辞書領域の分割を行い、辞書領域分割結果群を求める辞書領域分割器と、
前記目標別諸元データと、前記辞書領域分割器からの前記辞書領域分割結果群とに基づいて、辞書領域分割結果群を構成する分割領域から観測した候補目標ごとの画像データであるシミュレーション画像データを生成し、シミュレーション画像データ群を算出するシミュレーション画像生成器と、
前記レーダ観測諸元データと、前記目標パラメータ推定器からの前記目標パラメータ推定値とに基づいて、前記辞書領域分割幅決定器からの前記辞書領域分割幅候補値から辞書領域分割幅を選択する辞書領域分割幅選択器と、
前記シミュレーション画像データ群と、前記目標パラメータ推定器からの前記目標パラメータ推定値と、前記辞書領域分割幅選択器からの前記辞書領域分割幅とに基づいて、前記シミュレーション画像データ群の中からシミュレーション画像データを抽出して、各分割領域の辞書画像である分割領域辞書画像を決定する分割領域辞書画像決定器と、
前記レーダ観測諸元データと、前記分割領域辞書画像決定器からの前記分割領域辞書画像とに基づいて、複数の分割領域辞書画像からなる候補目標ごとの辞書時系列画像列データを決定する辞書時系列画像列決定器と
を備えたことを特徴とする目標識別装置。
【請求項6】
請求項4または5に記載の目標識別装置において、
前記辞書領域分割幅決定器は、辞書領域分割幅を位置によって変更することを特徴とする目標識別装置。
【請求項7】
請求項1ないし6のいずれか1項に記載の目標識別装置において、
前記種類判別器は、
前記辞書時系列画像列データに基づいて種類学習結果を求める種類学習器と、
前記種類学習器からの前記種類学習結果と、前記観測時系列画像列ファイルからの前記観測時系列画像列データとに基づいて、前記観測時系列画像列データに含まれる種類不明の目標の種類判別を行う種類算出器と
を備えたことを特徴とする目標識別装置。
【請求項8】
請求項1ないし6のいずれか1項に記載の目標識別装置において、
前記種類判別器は、
前記観測時系列画像列データを構成するそれぞれの観測画像および類似画像検索領域を特定する類似度算出パラメータを決定する類似度算出パラメータ決定器と、
前記類似度算出パラメータ決定器からの前記類似度算出パラメータと、前記観測時系列画像列ファイルからの前記観測時系列画像列データと、前記辞書時系列画像列ファイルからの前記辞書時系列画像列データとに基づいて、前記観測時系列画像列データを構成するそれぞれの観測画像に対して候補目標ごとに類似度上位の辞書画像を抽出し、位置情報と類似度情報とを含む類似度上位辞書画像情報を生成する類似度上位辞書画像抽出器と、
前記類似度上位辞書画像情報に基づいて、前記観測時系列画像列データの画像列長と等しい画像列となる複数の類似度上位辞書画像列を候補目標ごとに生成し、前記位置情報と前記類似度情報とを含む類似度上位辞書画像列情報を生成する画像列生成器と、
前記画像列生成器からの候補目標ごとの前記複数の類似度上位辞書画像列情報および前記辞書時系列画像列データに基づいて、前記複数の類似度上位辞書画像列の評価を行い、候補目標ごとの候補目標評価値を決定する画像列評価器と、
前記画像列評価器からの前記候補目標評価値に基づいて、前記種類不明の目標の種類判別を行う種類決定器と
を備えたことを特徴とする目標識別装置。
【請求項9】
請求項1ないし6のいずれか1項に記載の目標識別装置において、
前記種類判別器は、
観測画像および類似画像検索領域が特定された類似度算出パラメータと、前記観測時系列画像列ファイルからの前記観測時系列画像列データと、前記辞書時系列画像列ファイルからの前記辞書時系列画像列データとに基づいて、前記観測時系列画像列データを構成するそれぞれの観測画像に対して候補目標ごとに類似度上位の辞書画像を抽出し、位置情報と類似度情報とを含む類似度上位辞書画像情報を生成する類似度上位辞書画像抽出器と、
前記類似度上位辞書画像抽出器からの前記類似度上位辞書画像情報に基づいて類似画像検索領域を特定し、前記観測時系列画像列データを構成するそれぞれの観測画像および前記類似画像検索領域を含む類似度算出パラメータを決定し、決定した前記類似度算出パラメータを類似度上位辞書画像抽出器に対して出力した応答として前記類似度上位辞書画像情報を取得する処理を、前記観測時系列画像列データを構成する画像列長に応じて繰り返し、候補目標ごとに前記画像列長に応じた類似度上位辞書画像列情報を生成する近傍領域決定器と、
前記近傍領域決定器からの候補目標ごとの前記複数の類似度上位辞書画像列情報に基づいて、前記複数の類似度上位辞書画像列の評価を行い、候補目標ごとの候補目標評価値を決定する画像列評価器と、
前記画像列評価器からの前記候補目標評価値に基づいて、前記種類不明の目標の種類判別を行う種類決定器と
を備えたことを特徴とする目標識別装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate