説明

画像処理装置および方法、記録媒体並びにプログラム

【課題】軽い負荷で画像をトラッキングすることができるようにする。
【解決手段】トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、混合率を変化させた場合の和で表される評価値が計算され、評価値が最大になるときの混合率が求められる。評価値が最大になるときの混合率が設定された信頼度に基づいて対象画像に対応する画像が検出される。

【発明の詳細な説明】
【技術分野】
【0001】
本技術は画像処理装置および方法、記録媒体並びにプログラムに関し、特に軽い負荷で画像をトラッキングすることができるようにした画像処理装置および方法、記録媒体並びにプログラムに関する。
【背景技術】
【0002】
デジタルカメラは、被写体を自動的にフォーカスするオートフォーカス機能を有していることが多い。これによりユーザは、カメラを被写体に向け、レリーズスイッチを操作するだけの簡単な操作で、被写体をピントが合った状態で確実に撮影することができる。
【0003】
さらにトラッキング機能が具備されている場合、被写体が移動したとしても、その被写体が自動的にトラッキングされるので、その被写体に対するピントが合った状態で撮影を行うことができる。
【0004】
被写体を自動的にトラッキングする技術としては、例えば非特許文献1に記載された技術がある。
【先行技術文献】
【非特許文献】
【0005】
【非特許文献1】「Ensemble Tracking」 Shai Avidan, Mitsubishi Electric Research Labs, 201 Broadway Cambridge, MA02139, avidan@merl.com
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、非特許文献1に記載の技術は、ブースティングの技術を用いるものであるため、計算量が厖大となり、民生用の画像処理装置であるデジタルカメラに応用することは困難である。
【0007】
本技術はこのような状況に鑑みてなされたものであり、軽い負荷で画像をトラッキングすることができるようにするものである。
【課題を解決するための手段】
【0008】
本技術の一側面は、トラッキングの対象であるオブジェクトを含む対象画像と、第1のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算部と、前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて、第2のフレームの前記対象画像に対応する画像を検出する検出部とを備える画像処理装置である。
【0009】
前記第1のフレームと前記第2のフレームは、奇数フレームと偶数フレームの一方と他方とすることができる。
【0010】
前記第2のフレームのスキャン領域のスキャン画像を前記比較画像とし、前記対象画像と前記スキャン画像の前記信頼度を演算する演算部をさらに備えることができる。
【0011】
前記検出部は、前記対象画像と前記スキャン画像の前記信頼度が最大となる前記スキャン画像を前記対象画像に対応する画像として検出することができる。
【0012】
前記計算部は、前記第1のフレームの基準領域の画像を前記対象画像とし、前記基準領域の前記対象画像を少なくとも一部に含む複数の領域をポジティブ領域とし、前記基準領域の前記対象画像を含まない複数の領域をネガティブ領域とし、前記基準領域の前記対象画像と複数の前記ポジティブ領域の画像との前記信頼度である第1の信頼度を計算し、前記基準領域の前記対象画像と複数の前記ネガティブ領域の画像との前記信頼度である第2の信頼度を計算し、前記第1の信頼度と前記ポジティブ領域の第1の重み係数との積和である第1の積和を計算し、前記第2の信頼度と前記ネガティブ領域の第2の重み係数との積和である第2の積和を計算し、前記第1の積和と前記第2の積和の和を前記評価値として計算することができる。
【0013】
前記第1の重み係数は、定数を前記ポジティブ領域の数で除算した値とし、前記第2の重み係数は、前記定数を前記ネガティブ領域の数で除算した値とすることができる。
【0014】
前記計算部は、前記第2のフレームの前記対象画像に対応する画像の座標に対応する領域であって、前記第2のフレームよりさらに後の第3のフレームの領域の画像を新たな前記対象画像として、前記第3のフレームで前記評価値を計算して、前記評価値が最大になるときの前記混合率を求め、前記検出部は、前記第3のフレームの画像に基づいて前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて、前記第3のフレームよりさらに後の第4のフレームにおいて、前記第3のフレームの新たな前記対象画像に対応する画像を検出することができる。
【0015】
前記対象画像に対応する画像の座標に対応する領域にマーカを表示する表示部をさらに備えることができる。
【0016】
前記対象画像に対応する画像が画面の所定の位置に配置されるようにカメラの位置を駆動する駆動部をさらに備えることができる。
【0017】
前記第1の特徴量は輝度情報とし、前記第2の特徴量は色情報とすることができる。
【0018】
本技術の側面の画像処理方法、記録媒体およびプログラムは、上述した本技術の側面の画像処理装置に対応する画像処理方法、記録媒体およびプログラムである。
【0019】
本技術の側面においては、トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、混合率を変化させた場合の和で表される評価値が計算され、評価値が最大になるときの混合率が求められる。評価値が最大になるときの混合率が設定された信頼度に基づいて対象画像に対応する画像が検出される。
【発明の効果】
【0020】
以上のように、本技術の一側面によれば、軽い負荷で画像をトラッキングすることができる。
【図面の簡単な説明】
【0021】
【図1】本技術のデジタルカメラの構成を示すブロック図である。
【図2】トラッキング処理を説明するフローチャートである。
【図3】領域の切り出しを説明する図である。
【図4】評価値を説明する図である
【図5】スキャンを説明する図である。
【図6】マーカの表示を説明する図である。
【図7】領域の切り出しを説明する図である。
【発明を実施するための形態】
【0022】
図1は、本技術のデジタルカメラ1の構成を示すブロック図である。デジタルカメラ1は、CPU(Central Processing Unit)11、レンズ12、出力部13、入力部14、および記憶部15により構成されている。
【0023】
CPU11は、各種の処理を実行する。レンズ12は被写体を撮像し、その画像データをCPU11に供給する。出力部13は、例えばLCD(Liquid Crystal Display)などにより構成され、レンズ12により撮像された画像を表示する。また出力部13は、スピーカを有し、必要な警告音等を出力する。入力部14は、ユーザにより操作されるレリーズスイッチの他、シャッタスピード、露光時間を調整する部材等により構成される。記憶部15は、撮像された画像データを記憶したり、CPU11が動作するプログラムなどを記憶する。
【0024】
駆動部41は、例えばカメラ1が所定の台(図示せず)に搭載されている状態において、カメラ1を所定の方向にパン、チルトする。
【0025】
CPU11は、取り込み部21、切り出し部22、初期化部23、計算部24、設定部25、演算部26、検出部27、表示部28、フォーカス部29、および判定部30の機能ブロックを有している。各部は必要に応じて信号を授受することが可能である。
【0026】
取り込み部21は、画像の取り込みを行う。切り出し部22は、取り込まれた画像から所定の部分の切り出しを行う。初期化部23は、係数を初期化する。計算部24は、各所の計算を実行する。設定部25は、係数の設定を行う。演算部26は、各所の演算を実行する。検出部27は、位置を検出する。表示部28は、マーカを表示する。フォーカス部29は、フォーカス調整を行う。判定部30は、各種の判定処理を行う。
【0027】
この実施の形態においては、各部はプログラムを実行する場合に機能的に構成されるが、ハードウェアとして構成してもよいことは勿論である。
【0028】
図2は、トラッキング処理を説明するフローチャートである。以下、この図2を参照して、デジタルカメラ1のトラッキング処理について説明する。
【0029】
ステップS1において取り込み部21は、画像を取り込む。すなわちレンズ12が撮像した画像の所定のフレームF1の画像が取り込まれる。この取り込みは、レンズ12により撮像され、記憶部15に記憶された画像から行われる。
【0030】
ステップS2において切り出し部22は、ステップS1の処理で取り込まれたフレームの画像から、オブジェクトを含む領域と含まない領域とを切り出す。オブジェクトとはユーザがトラッキングを希望する対象の画像であり、例えば被写体の顔である。この顔の切り出しについて図3を参照して説明する。
【0031】
図3は、領域の切り出しを説明する図である。図3に示されるように、ステップS1の処理で取り込まれた画像であるフレーム101(フレームF1に対応する)に、オブジェクト102が表示されている。オブジェクト102を含む例えば矩形の領域が基準領域111−0とされる。そして基準領域111−0内の画像が対象画像114とされる。後述するステップS10の処理でマーカ231が、その後のフレーム201(フレームF2に対応する)上に表示されている場合には(後述する図6を参照)、フレーム201上のマーカ231の座標に対応するフレーム101上の領域が基準領域111−0とされる。まだステップS10の処理が実行される前の最初のフレームでは、ユーザが入力部14を操作することで指定した点を中心とする矩形の領域が基準領域111−0とされる。
【0032】
ステップS2では、この基準領域111−0の対象画像114の少なくとも一部を含む領域111−1,111−2,・・・,111−Npが切り出される。すなわちNp個の領域が基準領域111−0の対象画像114を含むポジティブ領域として切り出される。同様に、基準領域111−0の対象画像114を全く含まない領域112−1,112−2,・・・,112−Nnが切り出される。すなわちNn個の領域が基準領域111−0の対象画像114を含まないネガティブ領域として切り出される。
【0033】
次にステップS3において初期化部23は、各領域の重み係数w,wを初期化する。重み係数w,wは、次の式(1)により表される。重み係数wは、ポジティブ領域111−J(J=1,2,・・・,Np)の重み係数であり、重み係数wは、ネガティブ領域112−J(J=1,2,・・・,Nn)の重み係数である。
【0034】
【数1】

【0035】
式(1)で表されるように、ポジティブ領域の重み係数wは、定数Gをポジティブ領域の数Npで除算した値であり、ネガティブ領域の重み係数wは、定数Gをネガティブ領域の数Nnで除算した値である。ポジティブ領域の重み係数wの値は各領域111−Jにおいて同一である。同様に、ネガティブ領域の重み係数wの値は各領域112−Jにおいて同一である。定数GP,の値は、デジタルカメラ1の工場出荷時に予め決定され、設定される。
【0036】
定数GP,の値は、例えばいずれも0.5に設定したり、定数Gの値を0.8とし、定数Gの値を0.2とすることもできる。重み係数w,wのうち、対応する定数がより大きい値に設定された方の重みがより強くなる。定数GP,の値を所定の値に設定することで、重み係数wと重み係数wのバランスを、適宜調整することができる。
【0037】
ステップS4において計算部24は、評価値Eval(K)を計算する。評価値Eval(K)は、式(2)で表される。式(2)における信頼度Confidence(K)は、式(3)で表される。Kは、例えば0乃至256のように、変化される整数値である。
【0038】
【数2】

【数3】

【0039】
すなわち、式(2)では、基準領域111−0の対象画像114と、複数のポジティブ領域111−1,111−2,・・・の画像との信頼度Confidence(K)が第1の信頼度とされる。これが式(2)の右辺の第1項の信頼度Confidence(K)である。基準領域111−0の対象画像114と複数のネガティブ領域112−1,112−2,・・・の画像との信頼度Confidence(K)が第2の信頼度とされる。これが式(2)の右辺の第2項の信頼度Confidence(K)である。第1の信頼度とポジティブ領域111−1,111−2,・・・の第1の重み係数wとの積和が第1の積和とされ、第2の信頼度とネガティブ領域112−1,112−2,・・・の第2の重み係数wとの積和が第2の積和とされる。そして第1の積和と第2の積和の和が評価値Eval(K)とされる。
【0040】
式(3)におけるfeat_Aは、トラッキングする対象であるオブジェクトを含む対象画像114と比較画像の第1の特徴量(例えば輝度情報)のマッチング度であり、feat_Bは、第2の特徴量(例えば色情報)のマッチング度である。Kは、第1の特徴量のマッチング度feat_Aと第2の特徴量のマッチング度feat_Bの混合率を意味する。式(3)から判るように、信頼度Confidence(K)は、比較画像が、対象画像114と一致する確からしさを表しており、その値が大きい程、比較画像が対象画像114と一致する可能性が高い。勿論、輝度情報と色情報以外の特徴量を用いることができる。
【0041】
式(2)における右辺の第1項のΣのtrueは、ポジティブ領域のConfidence(K)だけを積和することを意味する。式(2)における右辺の第1項のポジティブ領域のConfidence(K)を計算する場合において対象画像114と比較される比較画像は、ポジティブ領域111−Jの画像である。同様に、第2項のΣのtrueは、ネガティブ領域のConfidence(K)だけを積和することを意味する。式(2)における右辺の第2項のネガティブ領域のConfidence(K)を計算する場合において対象画像114と比較される比較画像は、ネガティブ領域112−Jの画像である。
【0042】
ステップS5において計算部24は、評価値Eval(K)の値を最大とする混合率Kmを求める。すなわち、混合率Kの値を0乃至256に順次変化させて、評価値Eval(K)の値が計算される。そして257個の評価値Eval(K)の値の中から最大のものが選択され、評価値Eval(K)の値を最大とする混合率Kmが決定される。
【0043】
図4は、評価値を説明する図である。混合率Kの値を0乃至256に順次変化させると、評価値Eval(K)の値は図4に示されるように変化する。図4の例では、評価値Eval(K)の値を最大にする混合率Kは、Kmである。評価値Eval(K)の値を最大にする混合率Kmが、そのフレームのオブジェクト102を含む対象画像114を検出するのに最適な混合率である。ステップS8,S9で後述するように、次のフレームでは、この混合率Kmを用いて信頼度Confidence(K)が演算される。つまり評価値Eval(K)は、最適な混合率Kmを決定するための関数である。
【0044】
そこでステップS6において設定部25は、式(3)の信頼度Confidence(K)に、ステップS5で求められた混合率Kmを設定する。
【0045】
以上のようにしてステップS1乃至S6の処理により、第1のフレームで混合率Kの学習処理が行われた後、続くステップS7乃至S11により第2のフレームでトラッキング処理が行われる。
【0046】
ステップS7において取り込み部21は画像を取り込む。つまりステップS1で取り込まれたフレームF1の次のフレームF2の画像が記憶部15から読み出され、取り込まれる。
【0047】
ステップS8において演算部26は、取り込んだ画像上でスキャン画像をスキャンし、各スキャン画像の信頼度Confidence(K)を演算する。すなわちステップS2の処理で、フレームF1の基準領域111−0の画像が対象画像114として決定されている。現在のフレーム(つまりステップS7で取り込まれたフレームF2)上の所定の位置の、対象画像114に対応する大きさのスキャン領域のスキャン画像が比較画像として抽出され、対象画像114と比較される。そして対象画像114とスキャン画像の間の第1の特徴量のマッチング度feat_Aと第2の特徴量のマッチング度feat_Bが演算される。演算された第1の特徴量のマッチング度feat_Aと第2の特徴量のマッチング度feat_Bを式(3)に適用して、信頼度Confidence(K)が演算される。このときの混合率Kとしては、ステップS6で設定された値Kmが用いられる。
【0048】
図5は、スキャンを説明する図である。図5に示されるように、ステップS7で取り込まれたフレーム201(すなわちフレームF2)上の所定の位置のスキャン領域221−1のスキャン画像222−1が比較画像として抽出され、ステップS2で指定された前のフレームF1の対象画像114と比較される。スキャン領域221−1の大きさは、基準領域111−0と同じ大きさとされている。つまり、スキャン画像222−1は対象画像114と同じ大きさとされている。式(3)の混合率Kの値が最大値Kmに設定された状態で、対象画像211とスキャン画像222−1との信頼度Confidence(K)が演算される。
【0049】
フレーム201上の比較領域は、比較領域211−1,211−2,211−3,・・・と順次移動され、同様の処理が繰り返される。フレーム201上のスキャンする範囲は、フレーム201の全体とすることもできるが、ステップS2で指定された基準領域111−0の座標(すなわち前回のステップS10の処理でマーカ231が表示された座標)を基準として、そこから所定の距離の範囲内とすることもできる。スキャンする範囲を制限した方が計算量を少なくすることができる。
【0050】
ステップS9において検出部27は、信頼度Confidence(K)が最大となる領域を検出する。すなわち、ステップS8の処理で演算された各スキャン領域221−J(J=1,2,・・・)の信頼度Confidence(K)の中から、最も大きな値の信頼度Confidence(K)が選択され、その信頼度Confidence(K)に対応するスキャン領域221−Mが選択される。そして、そのフレーム201(フレームF2)上のスキャン領域221−Mの画像が、フレーム101(フレームF1)上の対象画像114に対応する画像232とされる。つまり、フレーム101上の基準領域111−0の対象画像114が、フレームF2のスキャン領域221−Mに移動し、画像232として表示されているものと判断される(後述する図6を参照)。
【0051】
ステップS10で表示部28は、検出された位置にマーカ231を表示する。図6は、マーカ231の表示を説明する図である。図6においては、スキャン領域221−Mにオブジェクト102を含む画像232が表示されている。そしてスキャン領域221−Mの位置にマーカ231が表示されている。つまり画像232に対してマーカ232が表示されている。フォーカス部29は、マーカ231内に表示されている画像232を基準にフォーカスが合うように、レンズ12を駆動、調整する。ユーザはこのマーカ231を見て、いまどこにフォーカスが合っているのかを確認することができる。
【0052】
ステップS11において判定部30は、トラッキングを終了するかを判定する。ユーザが入力部14を操作して、トラッキングの中止を指令した場合、トラッキング処理は終了される。
【0053】
トラッキングの中止が指令されていない場合、処理はステップS1に戻り、さらに次のフレームF3の画像が取り込まれる。そしてステップS2においてオブジェクトを含む領域を切り出す処理が行われる。最初のフレームF1の場合、まだステップS10の処理が行われていないので、ユーザにより指定された位置に基づいて基準領域111−0が設定された。しかしいまの場合、ステップS10の処理で前回の対象画像114に対応する画像232の座標が判っているので、フレーム201のマーカ231が表示されている領域221−Mに対応する座標の次のフレーム301の領域が新たな基準領域111−0とされ、そこを基準に切り出し処理が行われる。
【0054】
図7は、2回目の領域の切り出しを説明する図である。図7に示されるように、2回目のステップS1の処理で新たに取り込まれたフレーム301(すなわちフレームF3)の領域311−0は、1フレーム前の図6のフレーム201(すなわちフレームF2)上のスキャン領域221−Mに対応する領域である。この領域311−0が新たなフレーム301の基準領域とされ、そこに表示されている画像が新たな対象画像314とされる。切り出し部22は、この新たな基準領域311−0を基準として、新たなポジティブ領域311−1,311−2,・・・と、新たなネガティブ領域312−1,312−2,・・・を切り出す。
【0055】
以下、同様の処理が行われる。すなわち、フレームF2の対象画像114に対応する画像232の座標に対応する領域であって、フレームF2よりさらに後のフレームF3の領域の画像が新たな対象画像314とされ、フレームF3で評価値Eval(K)が計算される。つまり、新たな対象画像314と、新たなポジティブ領域311−1,311−2,・・・、並びに新たなネガティブ領域312−1,312−2,・・・との間における評価値Eval(K)が計算される。
【0056】
さらに計算された評価値Eval(K)が最大になるときの混合率Kmが求められる。そして、フレームF3の画像に基づいて評価値Eval(K)が最大になるときの混合率Kmが設定された信頼度Confidence(K)に基づいて、フレームF3よりさらに後のフレームF4(図示せず)において、フレームF3の新たな対象画像314に対応する画像が検出される。
【0057】
このような処理が、各フレーム毎に繰り返されて、オブジェクト102が移動すると、その移動先をマーカ231がトラッキングし、表示される。ステップS1乃至S6の処理は、連続する奇数フレームと偶数フレームの一方で実行され、ステップS7乃至S11の処理は、他方で実行される。
【0058】
なお、式(2)の右辺の第2項は、省略することも可能である。ただしこの場合、省略しない場合に比べてトラッキングの機能の質は低下する。
【0059】
また、式(3)における正規化処理に代えて、すなわち値256による除算をせずに、(256−K)の代わりに、(1−K)を用いるようにしてもよい。
【0060】
さらにステップS10においてマーカ231を表示させるようにしたが、駆動部41を駆動して、常に、オブジェクト102がフレーム内の所定の位置(例えば中央)に位置するようにカメラ1の位置をパン、チルトして制御することもできる。
【0061】
本技術は、フレーム毎に得られる情報だけを利用しており、例えば動きベクトルのような複数のフレーム間の画像から得られる情報を利用したり、測距装置などを利用していないので、処理が迅速かつ簡単になる。また、本技術は、演算量が少ないので、デジタルカメラの他、ビデオカメラ、監視カメラ、その他の小型で安価な画像処理装置に適用し、リアルタイムでオブジェクトをトラッキングすることができる。
【0062】
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることができる。
【0063】
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、記憶部15に記憶される。
【0064】
なお、本明細書において、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
【0065】
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
【0066】
本技術は、以下のような構成もとることができる。
(1)
トラッキングの対象であるオブジェクトを含む対象画像と、第1のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算部と、
前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて、第2のフレームの前記対象画像に対応する画像を検出する検出部と
を備える画像処理装置。
(2)
前記第1のフレームと前記第2のフレームは、奇数フレームと偶数フレームの一方と他方である
前記(1)に記載の画像処理装置。
(3)
前記第2のフレームのスキャン領域のスキャン画像を前記比較画像とし、前記対象画像と前記スキャン画像の前記信頼度を演算する演算部をさらに備える
前記(1)または(2)に記載の画像処理装置。
(4)
前記検出部は、前記対象画像と前記スキャン画像の前記信頼度が最大となる前記スキャン画像を前記対象画像に対応する画像として検出する
前記(1)、(2)または(3)に記載の画像処理装置。
(5)
前記計算部は、前記第1のフレームの基準領域の画像を前記対象画像とし、前記基準領域の前記対象画像を少なくとも一部に含む複数の領域をポジティブ領域とし、前記基準領域の前記対象画像を含まない複数の領域をネガティブ領域とし、前記基準領域の前記対象画像と複数の前記ポジティブ領域の画像との前記信頼度である第1の信頼度を計算し、前記基準領域の前記対象画像と複数の前記ネガティブ領域の画像との前記信頼度である第2の信頼度を計算し、前記第1の信頼度と前記ポジティブ領域の第1の重み係数のと積和である第1の積和を計算し、前記第2の信頼度と前記ネガティブ領域の第2の重み係数との積和である第2の積和を計算し、前記第1の積和と前記第2の積和の和を前記評価値として計算する
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記第1の重み係数は、定数を前記ポジティブ領域の数で除算した値であり、前記第2の重み係数は、前記定数を前記ネガティブ領域の数で除算した値である
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記計算部は、前記第2のフレームの前記対象画像に対応する画像の座標に対応する領域であって、前記第2のフレームよりさらに後の第3のフレームの領域の画像を新たな前記対象画像として、前記第3のフレームで前記評価値を計算して、前記評価値が最大になるときの前記混合率を求め、
前記検出部は、前記第3のフレームの画像に基づいて前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて、前記第3のフレームよりさらに後の第4のフレームにおいて、前記第3のフレームの新たな前記対象画像に対応する画像を検出する
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記対象画像に対応する画像の座標に対応する領域にマーカを表示する表示部をさらに備える
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記対象画像に対応する画像が画面の所定の位置に配置されるようにカメラの位置を駆動する駆動部をさらに備える
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)
前記第1の特徴量は輝度情報であり、
前記第2の特徴量は色情報である
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11)
トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算ステップと、
前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて前記対象画像に対応する画像を検出する検出ステップと
を含む画像処理方法。
(12)
トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算ステップと、
前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて前記対象画像に対応する画像を検出する検出ステップと
を含む処理をコンピュータに実行させるプログラムが記録されている記録媒体。
(13)
トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算ステップと、
前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて前記対象画像に対応する画像を検出する検出ステップと
を含む処理をコンピュータに実行させるプログラム。
【符号の説明】
【0067】
1 デジタルカメラ, 12 レンズ, 13 出力部, 14 入力部, 15 記憶部, 21 取り込み部, 22 切り出し部, 23 初期化部, 24 計算部, 25 設定部, 26 演算部, 27 検出部, 28 表示部, 29 フォーカス部, 30 判定部

【特許請求の範囲】
【請求項1】
トラッキングの対象であるオブジェクトを含む対象画像と、第1のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算部と、
前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて、第2のフレームの前記対象画像に対応する画像を検出する検出部と
を備える画像処理装置。
【請求項2】
前記第1のフレームと前記第2のフレームは、奇数フレームと偶数フレームの一方と他方である
請求項1に記載の画像処理装置。
【請求項3】
前記第2のフレームのスキャン領域のスキャン画像を前記比較画像とし、前記対象画像と前記スキャン画像の前記信頼度を演算する演算部をさらに備える
請求項2に記載の画像処理装置。
【請求項4】
前記検出部は、前記対象画像と前記スキャン画像の前記信頼度が最大となる前記スキャン画像を前記対象画像に対応する画像として検出する
請求項3に記載の画像処理装置。
【請求項5】
前記計算部は、前記第1のフレームの基準領域の画像を前記対象画像とし、前記基準領域の前記対象画像を少なくとも一部に含む複数の領域をポジティブ領域とし、前記基準領域の前記対象画像を含まない複数の領域をネガティブ領域とし、前記基準領域の前記対象画像と複数の前記ポジティブ領域の画像との前記信頼度である第1の信頼度を計算し、前記基準領域の前記対象画像と複数の前記ネガティブ領域の画像との前記信頼度である第2の信頼度を計算し、前記第1の信頼度と前記ポジティブ領域の第1の重み係数のと積和である第1の積和を計算し、前記第2の信頼度と前記ネガティブ領域の第2の重み係数との積和である第2の積和を計算し、前記第1の積和と前記第2の積和の和を前記評価値として計算する
請求項4に記載の画像処理装置。
【請求項6】
前記第1の重み係数は、定数を前記ポジティブ領域の数で除算した値であり、前記第2の重み係数は、前記定数を前記ネガティブ領域の数で除算した値である
請求項5に記載の画像処理装置。
【請求項7】
前記計算部は、前記第2のフレームの前記対象画像に対応する画像の座標に対応する領域であって、前記第2のフレームよりさらに後の第3のフレームの領域の画像を新たな前記対象画像として、前記第3のフレームで前記評価値を計算して、前記評価値が最大になるときの前記混合率を求め、
前記検出部は、前記第3のフレームの画像に基づいて前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて、前記第3のフレームよりさらに後の第4のフレームにおいて、前記第3のフレームの新たな前記対象画像に対応する画像を検出する
請求項5に記載の画像処理装置。
【請求項8】
前記対象画像に対応する画像の座標に対応する領域にマーカを表示する表示部をさらに備える
請求項5に記載の画像処理装置。
【請求項9】
前記対象画像に対応する画像が画面の所定の位置に配置されるようにカメラの位置を駆動する駆動部をさらに備える
請求項5に記載の画像処理装置。
【請求項10】
前記第1の特徴量は輝度情報であり、
前記第2の特徴量は色情報である
請求項5に記載の画像処理装置。
【請求項11】
トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算ステップと、
前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて前記対象画像に対応する画像を検出する検出ステップと
を含む画像処理方法。
【請求項12】
トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算ステップと、
前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて前記対象画像に対応する画像を検出する検出ステップと
を含む処理をコンピュータに実行させるプログラムが記録されている記録媒体。
【請求項13】
トラッキングの対象であるオブジェクトを含む対象画像と、所定のフレームの前記対象画像と比較される比較領域の画像である比較画像との、第1の特徴量のマッチング度と第2の特徴量のマッチング度を所定の混合率で混合して得られる信頼度の、前記混合率を変化させた場合の和で表される評価値を計算し、前記評価値が最大になるときの前記混合率を求める計算ステップと、
前記評価値が最大になるときの前記混合率が設定された前記信頼度に基づいて前記対象画像に対応する画像を検出する検出ステップと
を含む処理をコンピュータに実行させるプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate


【公開番号】特開2012−203613(P2012−203613A)
【公開日】平成24年10月22日(2012.10.22)
【国際特許分類】
【出願番号】特願2011−67138(P2011−67138)
【出願日】平成23年3月25日(2011.3.25)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】