説明

移動体画像追尾装置

【課題】付加センサを追加せず、追尾性能の劣化を改善する。
【解決手段】実施形態の移動体画像追尾装置は、駆動部、カメラセンサ、追尾誤差検出部、角度センサ、角速度センサ、第1計算部、第2計算部、補正追尾誤差検出部、生成部、および制御部を含む。追尾誤差検出部は、画像データから、移動体の視野中心からのずれ量である追尾誤差を検出する。第1計算部は、追尾誤差と角度とを用いて、移動体の位置ベクトルと速度ベクトルを計算する。第2計算部は、角度からカメラセンサの視軸ベクトルを計算する。補正追尾誤差検出部は、視軸ベクトルと位置ベクトルとの関係および速度ベクトルから、追尾誤差検出値が一定であるサンプリング期間よりも短い期間ごとに補正追尾誤差を計算する。生成部は、補正追尾誤差を使用して移動体を追尾するように駆動部を駆動する角速度指令値を生成する。制御部は、角速度指令値と角速度との差がなくなるように駆動部を制御する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明の実施形態は、全方向に渡り移動する目標に対してカメラ等の目標認識センサを追尾させるための移動体画像追尾装置に関する。
【背景技術】
【0002】
近年、空港やプラントなど大型施設、及び発電所や水道施設などのライフラインに関わる施設での保安設備、並びにITSなどの交通情報支援システムなどにおいて、ITVカメラ等を用いて対象物を追跡し、継続した監視や詳細な情報を入手するシステムが多く商品化されている。これらのシステムは、地上設置型だけでなく、プラットホームとして車両、船舶または航空機などを想定し、小型かつ耐振性を考慮した構造で、振動・動揺に対する外乱抑圧を行っている。更に、複数の対象物を順次、追尾できるように、旋回速度を高速化し、対象物への指向を短時間に行えることが重要になってきている。
【0003】
このような移動体画像追尾システムは、カメラセンサから目標の追尾誤差を検出するため、カメラセンサの性能に大きく依存している。つまり、目標をカメラセンサにて撮影した際の追尾誤差が視野内に収まらなければ目標を見失ってしまう。ここで、カメラセンサは、撮影画像から追尾誤差を抽出する画像処理を経るため、撮影間隔、つまりサンプリング時間の高速化が難しく、目標の追尾には遅れが生じてしまう。
【0004】
このため、目標の移動速度が速くなった場合には、カメラの視野外になってしまい、追尾不能になる可能性がある。
【0005】
また、このような移動体画像追尾システムは、全方向に渡り移動する目標に対して追尾するために、ジンバル構造では少なくとも2軸以上を備える必要がある。2軸ジンバルでは、対象物が天頂、もしくは天頂付近を通過する場合にはAZ軸は瞬時に180度回転する必要があり、目標の追尾性能はAZ軸の駆動特性に大きく依存している。さらに、ジンバルの駆動制御系は高サンプリングで実現することが容易であるが、ジンバルの駆動指令は追尾誤差を元に生成されるため、カメラセンサのサンプリングからは必ず遅延を生じてしまう。このため、目標の移動速度が速くなった場合には、ジンバル指令に遅延があるとモータ性能によっては駆動能力の不足により、カメラの視野外になってしまう可能性がある。
【0006】
従来の画像追尾システムでは、画像中の対象物の位置を認識する際に、画像範囲を限定して演算処理を少なくして安定に対象物の位置を捕捉させようとしている。
【0007】
また、目標物からの画像情報が得られなくても目標位置を推定する手法として、測長センサにより目標物と画像追尾システムの距離を測定し、これにより目標位置を推定して補正する方法が提案されている。
【先行技術文献】
【特許文献】
【0008】
【特許文献1】特開2004−286699号公報
【特許文献2】特開2001−317899号公報
【発明の概要】
【発明が解決しようとする課題】
【0009】
このような従来技術において、画像範囲を限定して演算処理を少なくする方法では、カメラのサンプリングを改善することが可能であるが、その代わりにカメラ視野が狭くなり、目標の追尾誤差許容量が小さくなってしまう。このため、目標の移動速度が速くなった場合、目標がカメラの視野外になり、追尾不能になる可能性がある点に対しては改善効果を得ることが難しい。
【0010】
また、目標物と画像追尾システムとの距離を測定し位置を推定する手法では、測長センサを必要とし、測長センサを搭載していない画像追尾システムにとってはコストを増加してしまう。さらに、目標の位置の推定精度は測長精度に依存しており、十分な追尾性能を得るためには非常に高精度な測長センサが必要となってしまう。
【0011】
発明が解決しようとする課題は、付加センサを追加することなく、追尾性能の劣化を改善する移動体画像追尾装置を提供することである。
【課題を解決するための手段】
【0012】
実施形態によれば、移動体画像追尾装置は、駆動部と、カメラセンサと、追尾誤差検出部と、角度センサと、角速度センサと、第1計算部と、第2計算部と、補正追尾誤差検出部と、生成部と、制御部とを含む。駆動部はそれぞれ、垂直方向に向けられ回転自在に支持されるアジマス軸と、このアジマス軸と直交する水平方向に設けられ、回転自在に支持され水平方向の正面から天頂に向け回転が可能なエレベーション軸とにそれぞれ連結され、各々を個別に回転駆動する。カメラセンサは、エレベーション軸に支持され、移動体を撮影して画像データを取得する。追尾誤差検出部は、画像データから、移動体の視野中心からのずれ量である追尾誤差を追尾誤差検出値として検出する。角度センサは、駆動部ごとに、回転軸回りの角度を検出する。角速度センサは、駆動部ごとに、回転軸回りの角速度を検出する。第1計算部は、追尾誤差検出値と角度とを用いて、移動体の位置ベクトルと速度ベクトルを計算する。第2計算部は、角度からカメラセンサの視軸ベクトルを計算する。補正追尾誤差検出部は、視軸ベクトルと位置ベクトルとの関係および速度ベクトルから、追尾誤差検出値が一定であるサンプリング期間よりも短い期間ごとに補正追尾誤差を計算する。生成部は、補正追尾誤差を使用して移動体を追尾するように駆動部を駆動する角速度指令値を生成する。制御部は、角速度指令値と角速度との差がなくなるように駆動部を制御する。
【図面の簡単な説明】
【0013】
【図1】実施形態の移動体画像追尾装置のブロック図。
【図2】図1のジンバル機構を示す図。
【図3】図1の移動体画像追尾装置の補正制御系を示す概略図。
【図4】実施形態のカメラ視野と移動体との追尾誤差を示す図。
【図5】(a)は目標の軌跡と視軸の軌跡の概要を表した図であり、(b)は目標と視軸ベクトルと視軸ベクトルと目標位置ベクトルとの関係を示す図。
【図6】天頂からカメラ視野を2次元平面状に拡大した図。
【図7】図6よりも拡大したカメラ視野と各ベクトルとの関係を示す図。
【図8】カメラからの追尾誤差と補正追尾誤差計算部による補正追尾誤差との関係を表した図。
【発明を実施するための形態】
【0014】
以下、図面を参照しながら本発明の実施形態に係る移動体画像追尾装置について詳細に説明する。なお、以下の実施形態では、同一の番号を付した部分については同様の動作を行うものとして、重ねての説明を省略する。
実施形態の移動体画像追尾装置は、移動体画像追尾機構の制御システムを、画像トラッキングシステムに適用したものである。
【0015】
(第1の実施形態)
本実施形態の移動体画像追尾装置について図1を参照して説明する。本実施形態の移動体画像追尾装置は、第1および第2のジンバル111,121、第1および第2駆動部112,122、第1および第2の角速度センサ113,123、第1および第2の角度センサ114,124、カメラセンサ140、角速度指令生成部150、駆動制御部160、目標位置ベクトル計算部171、視軸ベクトル計算部172、追尾誤差検出部173、目標速度ベクトル計算部174、および補正追尾誤差計算部175を含む。また、駆動制御部160は、第1のサーボ制御部161、および第2のサーボ制御部162を含んでいる。
【0016】
第1のジンバル111は、垂直方向に向けられ回転自由に支持されるアジマス軸110として第1のジンバル軸を中心に回転する。第2のジンバル121は、このアジマス軸と直交する水平方向に設けられ、回転自由に支持されるエレベーション軸120として第2のジンバル軸を中心に回転する。
第1および第2の駆動部112,122は、それぞれ、第1および第2のジンバル111,121を回転駆動する。
第1の角速度センサ113は、第1のジンバル軸を中心に回転する第1のジンバル111の角速度を検出する。第2の角速度センサ124は、第2のジンバル軸を中心に回転する第2のジンバル121の角速度を検出する。
第1の角度センサ114は、第1のジンバル111のジンバル固定部に対する回転角度を検出する。第2の角速度センサ124は、第2のジンバル121の第1のジンバルに対する回転角度を検出する。
【0017】
カメラセンサ140は、第2のジンバル121に支持され、移動体を認識して画像データを得る。
追尾誤差検出部173は、カメラセンサ140から取得した画像データに画像処理を施して追尾誤差検出値を検出する。追尾誤差検出部173は、一般的には2値化により白黒画像にし、移動体の特徴点を抽出することでカメラ視野内の位置が識別され、視野中心からの2方向のずれ量(ΔX、ΔY)を追尾誤差検出値とする。これらの画像処理を含めた処理時間が追尾誤差検出値を得るサンプリング時間となる。追尾誤差検出値については後に図4を参照して説明する。
【0018】
目標位置ベクトル計算部171は、追尾誤差検出部173から取得する2方向の追尾誤差検出値を入力し、第1および第2の角度センサ114,124のそれぞれから角度を入力することで、ジンバル座標系から見た目標の位置ベクトルを得る(図5(b)参照)。
【0019】
目標速度ベクトル計算部174は、目標位置ベクトル計算部171から取得する、目標の位置ベクトルを入力することで、目標の位置ベクトルの時間差分から目標の速度ベクトルを得る。
【0020】
視軸ベクトル計算部172は、第1および第2の角度センサ114,124のそれぞれから角度を入力し、ジンバル姿勢からジンバル内に備えたカメラの視軸ベクトルを得る。視軸ベクトル計算部172は、カメラサンプルの遅延を補正するために、角度に加え第1および第2の角速度センサ113,123のそれぞれから角速度も入力して視軸ベクトルを得る場合もある(第2の実施形態参照)。
【0021】
補正追尾誤差計算部175は、目標位置ベクトル計算部171から取得する目標位置ベクトル、目標速度ベクトル計算部174から取得する目標速度ベクトル、視軸ベクトル計算部172から取得する視軸ベクトルを入力し、目標とカメラとの相対関係の時間変化を考慮して補正した追尾誤差検出値を得る。
【0022】
角速度指令生成部150は、補正追尾誤差計算部175から取得する補正追尾誤差検出値と、第2の角度センサ124により検出されるジンバル姿勢を表す角度検出値θ2とにより、移動体を追尾するようジンバルを駆動する角速度指令値を生成する(例えば後述の[式1]を利用する)。この計算の詳細は後に図3を参照して説明する。
【0023】
駆動制御部160は、角速度指令生成部150で生成された各角速度センサに対応する角速度指令値と、第1および第2の角速度センサ113,123で検出された角速度検出値との差を0にするように制御指令値を計算する。第1および第2のサーボ制御部161,162は、それぞれ第1および第2の角速度センサ113,123に対応し、それぞれ第1および第2駆動部112,122に対応する制御指令値を出力する。
【0024】
次に、本実施形態で使用するジンバル機構について図2を参照して説明する。
第1のジンバル軸はアジマス軸(以下、単に「AZ軸」という)、第2のジンバル軸はエレベーション軸(以下、単に「EL軸」という)である。図1の移動体画像追尾装置は、これらのAZ軸、EL軸が一点において直交する2軸構造を備えた2軸旋回装置である。
【0025】
次に、本実施形態の移動体画像追尾装置の補正制御系について図3を参照して説明する。図3は、AZ軸、EL軸の2軸まとめて表した制御ブロック線図である。
角速度指令生成部150は、追尾誤差検出部173から取得する2方向の追尾誤差と、第1および第2の角度センサ114,124により検出されるジンバル姿勢を表す2軸の角度検出値(θ1、θ2)とにより、目標を追尾するようにジンバルを駆動する次式(1)に示す角速度指令値を生成する。
【数1】

【0026】
を生成する。カメラ画像から取得した2方向の追尾誤差検出値(ΔX、ΔY)から2軸ジンバルの各軸へ角速度を分配する手法の一つとして、追尾誤差と角度に対する角速度指令値の関係式を表すと、次の[式1]のように表される。
【数2】

【0027】
ここで、Kは追尾ゲインである。また、secθは、θに関する正割関数であり、θ=90度で無限大となる。このため天頂や、天頂付近では第1のジンバルに対して非常に大きな角速度指令が発生することとなる。
【0028】
本実施形態にかかる制御では、カメラセンサ140から得られた追尾誤差検出値から直接ではなく、目標位置ベクトル計算部171、目標速度ベクトル計算部174、視軸ベクトル計算部172、そしてこれらから得られる値を用いる補正追尾誤差計算部175から得られる補正追尾誤差検出値に基づいて制御を行う。
【0029】
次に、カメラセンサが取得した画像の視野と移動体追尾について図4を参照して説明する。
図4は、本実施形態にかかるカメラ画像の視野と移動体追尾の概要を示した図である。目標をカメラ視野内で捉えている場合には、カメラ中心からのずれ量として追尾誤差検出値(ΔX,ΔY)が得られる。追尾遅れが生じるため、この追尾誤差検出値はカメラ視野以上には許容でない。追尾誤差検出値は小さいことが望ましいが、追尾誤差検出値が大きくともカメラ視野内に入っている限り、2軸ジンバルを駆動して目標を追尾することができる。
【0030】
次に、目標位置ベクトルと目標速度ベクトル、ならびに視軸ベクトルについて図5、図6、図7を参照して説明する。
図5の(a)および(b)は、目標の軌跡と視軸の軌跡の概要を表した図である。3次元の空間で表すと、2軸ジンバルにより半球状の全方向に渡って視軸を指向することができる。これに対して、典型的な一例として目標が天頂より離れた位置を正面から背面に渡って移動する場合を考える。図5の(a)および(b)は、目標を追尾して、ジンバル姿勢角度が(θ1、θ2)となっている状態を示している。この姿勢が太線で表される視軸ベクトルを形成している。これに対して、×印の位置に目標位置ベクトルを形成している。
【0031】
図6は、天頂方向から2次元平面として拡大して表した図である。この一例では目標が下方より上方へ移動する場合である。目標の追尾においては、追尾誤差からジンバルの角速度指令を生成するため、必ず目標からのずれが発生する。このため、目標視軸ベクトルを中心に形成される視野に対して中心からずれた位置に目標が現れ、追尾誤差が発生している。
【0032】
図7は、カメラ視野をさらに拡大して表した図である。図7では2次元平面として表しているが、目標位置ベクトル(eT_x,eT_y,eT_z)や目標速度ベクトル(d_eT_x,d_eT_y,d_eT_z)、そして視軸ベクトルの単位ベクトル(eE_x,eE_y,eE_z)、ジンバル上カメラの水平方向の単位ベクトル(eX_x,eX_y,eX_z)、ジンバル上カメラの垂直方向の単位ベクトル(eY_x,eY_y,eY_z)はそれぞれ3次元である。
【0033】
目標位置ベクトル計算部171は、追尾誤差検出値(ΔX,ΔY)、ならびにジンバル姿勢を表す2軸の角度検出値(θ1,θ2)とから、ジンバル座標系から見た目標の位置ベクトルeTを計算する。なお、目標の位置ベクトルeTは|eT|=1を満たし、目標速度ベクトルd_eTは|d_eT|=1を満たす。
【0034】
まず、ジンバルの正弦、および余弦を2軸それぞれ、次の[式2]のように表す。
【数3】

【0035】
目標の位置ベクトルeTとジンバル上カメラの視軸ベクトルの単位ベクトルeEとの内積dot_eT_eEが、次の[式3]のように表わされる。
【数4】

【0036】
目標の位置ベクトルeTとジンバル上カメラの水平方向の単位ベクトルeXとの内積dot_eT_eXが、次の[式4]で表される。
【数5】

【0037】
また、目標の位置ベクトルeTとジンバル上カメラの垂直方向の単位ベクトルeYとの内積dot_eT_eYが、次の[式5]で表される。
【数6】

【0038】
これらのベクトルの内積の関係から、目標の位置ベクトルeT(eT_x,eT_y,eT_z)は、次の[式6]で表される。
【数7】

【0039】
目標位置ベクトル計算部171は、目標位置ベクトル計算部で得られた目標位置ベクトルの時間差分から、目標速度ベクトルd_eTを計算する。目標位置ベクトルが、カメラのサンプリングに応じて離散的に得られるとすると、kサンプルと、k−1サンプルの差分から、目標速度ベクトルd_eTは、次の[式7]のように表される。
【数8】

【0040】
この手法とは異なり、カルマンフィルタによって目標速度ベクトルを計算する手法がある。その手法の一例を以下に説明する。
目標速度ベクトル計算部では、目標位置ベクトル計算部で得られた目標位置ベクトルに対して時変カルマンフィルタを適用して目標速度ベクトルd_eTを計算する。例えば一般的な一例として、観測可能である状態量の位置x、そして観測ができない状態量として次式(2)に示される速度、次式(3)に示される加速度を考えると、状態変数は、次式(4)のように表される。
【数9】

【0041】
【数10】

【0042】
この状態変数に関して雑音w[n]、v[n]を伴う離散状態方程式は、次式(5)のようにおくことができる。
【数11】

【0043】
ここで、各行列は、サンプリング時間ΔTとして、次式(6)で表される。
【数12】

【0044】
カルマンフィルタの時間遷移に関する重みQ、観測量に関する重みRとし、初期の状態量x[0]、初期の誤差行列P[0]を、それぞれ次式(7)のようにすると、
【数13】

【0045】
カルマンゲインM[n]、状態量x[n]、誤差行列P[n]の更新則が、次式(8)で表される。
【数14】

【0046】
これに対して時刻の更新は、次式(9)で表される。
【数15】

【0047】
これらの方程式を反復することにより、カルマンフィルタにより状態推定を行うことができる。本実施形態の場合では、一般的な式における観測可能である状態量の位置xの代わりに、目標位置ベクトル(eT_x,eT_y,eT_z)をそれぞれに適用することで、目標速度ベクトル(d_eT_x,d_eT_y,d_eT_z)を得ることが可能となる。カルマンフィルタを適用することで、雑音に対して影響の少ない目標速度ベクトルd_eTを得ることができる。カルマンフィルタによって目標速度ベクトルを計算する手法の一例についての説明はここまでとする。
【0048】
ここからまた図7を参照した説明に戻る。
視軸ベクトル計算部172は、2軸の角度検出値(θ1,θ2)から、視軸ベクトルを計算する。ジンバル上カメラの視軸方向の単位ベクトル(eE_x,eE_y,eE_z)は、次の[式8]で表わされる。
【数16】

【0049】
また、ジンバル上カメラの水平方向の単位ベクトル(eX_x,eX_y,eX_z)は、次の[式9]で表わされる。
【数17】

【0050】
また、ジンバル上カメラの垂直方向の単位ベクトル(eY_x,eY_y,eY_z)は、次の[式10]で表わされる。
【数18】

【0051】
補正追尾誤差計算部175は、目標位置ベクトル計算部171から得られた目標位置ベクトル(eT_x,eT_y,eT_z)、目標速度ベクトル計算部174から得られた目標速度ベクトル(d_eT_x,d_eT_y,d_eT_z)、ならびに視軸ベクトル計算部172から得られた視軸ベクトルの単位ベクトル(eE_x,eE_y,eE_z)、ジンバル上カメラの水平方向の単位ベクトル(eX_x,eX_y,eX_z)、ジンバル上カメラの垂直方向の単位ベクトル(eY_x,eY_y,eY_z)とから、目標とカメラとの相対関係の時間変化を考慮して補正した追尾誤差を計算する。
【0052】
目標位置ベクトルと視軸ベクトルとの関係から、それぞれのベクトルの内積(dot_eT_eE,dot_eT_eX,dot_eT_eY)は次の[式11]で表される。
【数19】

【0053】
これは、[式6]の逆変換となっている。この目標位置ベクトルと視軸ベクトルとの内積から、逆変換により再計算された補正追尾誤差検出値(ΔXr、ΔYr)は次の[式12]で表される。
【数20】

【0054】
このようにして計算された補正追尾誤差を用いて、ΔXにΔXrを代入しΔYにΔYrを代入して[式1]に従い計算された角速度指令値と、第1および第2の角速度センサで検出された角速度検出値との差を0にするように駆動制御部160で制御指令値が計算され、この制御指令値に従いジンバル機構が移動体を追尾するように駆動される。ここで、ジンバル機構は、第1および第2のジンバル111,121と第1および第2の駆動部112,122を含む。
【0055】
次に、本実施形態にかかるカメラサンプル点間補間について図8を参照して説明する。図8は、カメラからの追尾誤差と補正追尾誤差計算部175による補正追尾誤差との関係を表した図である。
太破線のカメラサンプリングであるTcam間隔で得られるカメラからの追尾誤差は、各サンプル点間ではその値が保持されている。追尾特性を改善するためには、ジンバルの角速度指令の生成周期を早く(短く)することが望ましい。そこで、図8では一例としてカメラサンプリング周期の1/3の細破線の補間サンプリングTcmp間隔で補正追尾誤差を算出する場合を考える。Tcam間隔で追尾誤差が得られるため、同間隔で目標位置ベクトルの算出を行うことができる。このサンプル点間を補間するために、ジンバル角度はカメラサンプリングよりも早い補間サンプリングで取得可能であるため、本実施形態にかかる視軸ベクトル計算部172はTcmp間隔でジンバル角度検出値を取得して計算を行う。この視軸ベクトルに対して、補正追尾誤差計算部175では、カメラサンプリング取得時点からTcmp間隔だけ実際の目標は動いていることから、ジンバル角度検出値の取得に対応した目標位置ベクトル(eT_xr,eT_yr,eT_zr)は、カメラサンプリング取得時からの補間サンプリング数n(本一例の1/3周期ではn=0〜2)に応じた線形補間により、次の[式13]のように表すことができる。
【数21】

【0056】
このようにして計算されたジンバル角度検出値の取得に対応した目標位置ベクトル(eT_xr,eT_yr,eT_zr)を用いて、補正追尾誤差計算部175が、[式11]および[式12]に従い補正追尾誤差を計算する。
【0057】
以上の第1の実施形態によれば、カメラサンプリング周期で目標の状態量を更新し、カメラサンプリング周期よりも早い補間サンプリング周期でジンバル角度検出値を取得して姿勢ベクトルを更新し、目標の状態量は補間サンプリング周期に応じて線形補間することで、目標とカメラとの相対関係で決まる追尾誤差を補間補正して計算することが可能となり、カメラサンプリング周期よりも早い周期で追尾誤差を得ることが可能となることから、目標の追尾特性を改善する効果がある。
【0058】
(第2の実施形態)
本実施形態では、移動体画像追尾装置が行うカメラサンプル遅延の補正について説明する。
移動体画像追尾装置は、カメラからの画像に対して画像処理を経て、追尾誤差を取得している。このため、画像処理や信号伝達等により、追尾誤差として取得するまでには遅延が生じてしまう。追尾特性を改善するためには、この遅延の影響を低減することが望ましい。この遅延時間は機器によって固定であるため、事前に把握することが可能である。遅延時間Tdlyとすると、実時間でのジンバル姿勢は、この遅延時間分移動していることになる。そこで、本実施形態にかかる視軸ベクトル計算部172では、ジンバル角度検出値(θ1、θ2)ならびに次式(10)に表されるジンバル角速度検出値を用いて、ジンバルの正弦、および余弦を2軸それぞれ、次の[式14]のように表す。
【数22】

【0059】
【数23】

【0060】
このようにして計算された正弦、および余弦を用いて、[式8]、[式9]および[式10]により視軸ベクトルを計算する。この視軸ベクトルに対して、補正追尾誤差計算部175では、遅延に対応した目標位置ベクトル(eT_xr,eT_yr,eT_zr)は、次の[式15]のように表すことができる。
【数24】

【0061】
このようにして計算されたジンバル角度検出値の取得に対応した目標位置ベクトル(eT_xr,eT_yr,eT_zr)を用いて、[式11]および[式12]に従い補正追尾誤差計算部175が補正追尾誤差を計算する。
【0062】
以上の第2の実施形態によれば、遅延時間分の目標の移動と、視軸の移動とをそれぞれ考慮することで、目標とカメラの相対関係との相対関係で決まる追尾誤差を補正して計算することが可能となり、遅延の影響を低減した追尾誤差を得ることが可能となることから、目標の追尾特性を改善する効果がある。
【0063】
(第3の実施形態)
本実施形態では、移動体画像追尾装置が行うカメラ追尾誤差検出不可能時の補正について説明する。
カメラの視野内に目標を捉えている場合には追尾誤差を得ることが可能であるが、追尾中に目標の移動速度が速くなる場合や移動方向が変わる場合、そしてジンバルが高速に回転している場合には、視野外になってしまい追尾誤差が検出不能になる可能性がある。追尾誤差が取得できない場合には、目標位置ベクトル計算部171での目標位置ベクトルの計算を行うことができなくなる。そこで、本実施形態にかかる補正追尾誤差計算部175では、追尾誤差検出不可能になる前に保持している目標位置ベクトル(eT_x0,eT_y0,eT_z0)、目標速度ベクトル(d_eT_x0,d_eT_y0,d_eT_z0)を用いて、追尾誤差検出不可能になる前のサンプル時からの補間サンプリング数l(エル)に応じた線形補間により、視野外時の予想目標位置ベクトル(eT_xr、eT_yr、eT_zr)は、次式(11)のように表すことができる。
【数25】

【0064】
このようにして計算された追尾誤差検出不能時に対応した目標位置ベクトル(eT_xr、eT_yr、eT_zr)を用いて、[式11]および[式12]に従い補正追尾誤差を計算する。
【0065】
以上の第3の実施形態によれば、目標が視野外に移動してしまった場合に対しても、検出不可能になる前の目標の状態量を用いて、目標の移動と、視軸の移動とをそれぞれ考慮することで、目標とカメラの相対関係との相対関係で決まる追尾誤差を補正して計算することが可能となり、疑似的な追尾誤差を得ることが可能になることから、目標の追尾を復帰させる可能性を高める効果がある。
【0066】
以上に述べた少なくともひとつの実施形態の移動体画像追尾装置によれば、付加センサを追加することなく、カメラのサンプリングで計算した目標の位置・速度ベクトルに対して、サンプル点間のジンバル姿勢に応じた追尾誤差を補間することにより、カメラのサンプリングよりも高サンプリングの追尾誤差を得ることが可能となり、追尾特性を改善することができる。
【0067】
また、目標の位置・速度ベクトル、ならびにジンバル角度・角速度情報を用いて、カメラ処理の遅延時間分だけ目標とジンバル姿勢の相対ベクトルを進めることで、遅延の影響を受けない追尾誤差を得ることが可能となり、追尾特性を改善することができる。
【0068】
さらに、目標がカメラセンサの視野外になってしまい、追尾誤差検出の更新が停止してしまっている場合でも、最終更新時に得られている目標の位置・速度ベクトルと、現在のジンバル角度・角速度情報を用いて、追尾誤差の予測値を得ることが可能となり、目標の視野内への復帰の可能性を高めることができる。
【0069】
またさらに、実施形態の移動体画像追尾装置は、TVカメラやカメラシーカー、そして自動測量器等を搭載したジンバル構造の移動体のカメラ追尾を行う機器において、2軸ジンバル構造での天頂付近でも追尾が可能であり、移動体に搭載される追尾カメラシステムに有効である。
【0070】
なお、本実施形態の移動体画像追尾装置は、2軸ジンバル構造に限定されたものではなく2軸以上のジンバル構造であればよく、例えば3軸ジンバル構造でも同様の補正追尾誤差の計算が可能であることは容易に類推することができる。
【0071】
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【符号の説明】
【0072】
111,121・・・ジンバル、112,122・・・駆動部、113,123・・・角速度センサ、114,124・・・角度センサ、140・・・カメラセンサ、150・・・角速度指令生成部、160・・・駆動制御部、161,162・・・サーボ制御部、171・・・目標位置ベクトル計算部、172…視軸ベクトル計算部、173・・・追尾誤差検出部、174・・・目標速度ベクトル計算部、175・・・補正追尾誤差計算部。

【特許請求の範囲】
【請求項1】
垂直方向に向けられ回転自在に支持されるアジマス軸と、このアジマス軸と直交する水平方向に設けられ、回転自在に支持され水平方向の正面から天頂に向け回転が可能なエレベーション軸とにそれぞれ連結され、各々を個別に回転駆動する2つの駆動部と、
前記エレベーション軸に支持され、移動体を撮影して画像データを取得するカメラセンサと、
前記画像データから、前記移動体の視野中心からのずれ量である追尾誤差を追尾誤差検出値として検出する追尾誤差検出部と、
前記駆動部ごとに、前記回転軸回りの角度を検出する角度センサと、
前記駆動部ごとに、前記回転軸回りの角速度を検出する角速度センサと、
前記追尾誤差検出値と前記角度とを用いて、前記移動体の位置ベクトルと速度ベクトルを計算する第1計算部と、
前記角度から前記カメラセンサの視軸ベクトルを計算する第2計算部と、
前記視軸ベクトルと前記位置ベクトルとの関係および前記速度ベクトルから、前記追尾誤差検出値が一定であるサンプリング期間よりも短い期間ごとに補正追尾誤差を計算する補正追尾誤差検出部と、
前記補正追尾誤差を使用して前記移動体を追尾するように前記駆動部を駆動する角速度指令値を生成する生成部と、
前記角速度指令値と前記角速度との差がなくなるように前記駆動部を制御する制御部と、を具備することを特徴とする移動体画像追尾装置。
【請求項2】
前記補正追尾誤差検出部は、前記移動体の位置ベクトルおよび速度ベクトルから前記画像データを取得するサンプリング間を補間した補間位置ベクトルを計算し、前記画像データを取得する間隔よりも高いサンプリングで該補間位置ベクトルと前記角度から計算される視軸ベクトルとから補間追尾誤差を計算することを特徴とする請求項1に記載の移動体画像追尾装置。
【請求項3】
前記補正追尾誤差検出部は、画像データを取得する際に遅延時間が生じる場合に、前記移動体の位置ベクトルおよび視軸ベクトルを該遅延時間分だけ補正することを特徴とする請求項1または請求項2に記載の移動体画像追尾装置。
【請求項4】
前記補正追尾誤差検出部は、画像データを取得できないサンプリングが存在した場合には、それ以前のサンプリングで更新された位置ベクトルおよび速度ベクトルと、前記角度から計算される視軸ベクトルとから補間追尾誤差を計算することを特徴とする請求項1から請求項3のいずれか1項に記載の移動体画像追尾装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate


【公開番号】特開2012−175157(P2012−175157A)
【公開日】平成24年9月10日(2012.9.10)
【国際特許分類】
【出願番号】特願2011−32086(P2011−32086)
【出願日】平成23年2月17日(2011.2.17)
【出願人】(000003078)株式会社東芝 (54,554)
【Fターム(参考)】