説明

物体検出装置、物体検出装置の制御方法、およびプログラム

【課題】対象物体の姿勢変動やオクルージョンに対してロバストな検出を可能にする。
【解決手段】フレーム画像を順次取得する画像取得部と、フレーム画像から検出尤度を算出して、当該検出尤度に基づいてフレーム画像から対象物体を検出する検出部と、複数のフレーム画像のそれぞれから対象物体の追跡尤度を算出して、当該追跡尤度に基づいて複数のフレーム画像間で対象物体を追跡する追跡部と、を備える物体検出装置であって、検出部は、画像取得部により取得されたフレーム画像から追跡部により算出される対象物体の追跡尤度と、当該フレーム画像から検出部により算出される対象物体の検出尤度とに基づいて、当該フレーム画像から対象物体を検出する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像から対象物体を検出する物体検出装置、物体検出装置の制御方法、およびプログラムに関する。
【背景技術】
【0002】
予め学習したモデルを用いて画像から対象物体を検出する方法が知られている。非特許文献1では、大量の画像を用意し、画像からHOGと呼ばれる特徴を抽出してSVMを用いて学習し、学習したモデルを用いて対象物体を検出する方法が開示されている。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】Navaneet Dalal and Bill Triggs,“Histogram of Oriented Gradients for Human Detection”,IEEE CVPR2005
【非特許文献2】histograms of oriented gradients for human detetction,N.Dalal,CVPR2005
【非特許文献3】Combined Object Categorization and Segmentation with an Implicit Shape Model,B.Leibe,ECCV2004
【非特許文献4】A Discriminatively Trained,MultiScale,Deformable Part Model,P.Felzenszwalb,CVPR2009
【非特許文献5】H.Grabner,“Online Boosting and Vision”,CVPR2006
【非特許文献6】M.Isard A.Blake,“ICondensation: Unifying low−level and high−level tracking in a stochastic framework”,ECCV1998
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、非特許文献1に記載の方法では、対象物体の姿勢変動やオクルージョンによって検出精度が低下してしまうという課題がある。
【0005】
上記の課題に鑑み、本発明は、対象物体の姿勢変動やオクルージョンに対してロバストな検出を可能にすることを目的とする。
【課題を解決するための手段】
【0006】
上記の目的を達成する本発明に係る物体検出装置は、
フレーム画像を順次取得する画像取得手段と、
前記フレーム画像から検出尤度を算出して、当該検出尤度に基づいて前記フレーム画像から対象物体を検出する検出手段と、
複数のフレーム画像のそれぞれから前記対象物体の追跡尤度を算出して、当該追跡尤度に基づいて複数のフレーム画像間で前記対象物体を追跡する追跡手段と、を備える物体検出装置であって、
前記検出手段は、前記画像取得手段により取得されたフレーム画像から前記追跡手段により算出される前記対象物体の追跡尤度と、当該フレーム画像から前記検出手段により算出される前記対象物体の検出尤度とに基づいて、当該フレーム画像から前記対象物体を検出することを特徴とする。
【発明の効果】
【0007】
本発明によれば、対象物体の姿勢変動やオクルージョンに対してロバストな検出が可能となる。
【図面の簡単な説明】
【0008】
【図1】第1実施形態に係る物体検出装置の構成を示す図。
【図2】第1実施形態に係る物体検出装置の処理手順を示すフローチャート。
【図3】第1実施形態に係る物体検出装置の処理の説明図。
【図4】第2実施形態に係る物体検出装置の構成を示す図。
【図5】第2実施形態に係る物体検出装置の処理手順を示すフローチャート。
【図6】第2実施形態に係る物体検出装置の処理の説明図。
【図7】第3実施形態に係る物体検出装置の構成を示す図。
【図8】第3実施形態に係る物体検出装置の処理手順を示すフローチャート。
【図9】第4実施形態に係る物体検出装置の構成を示す図。
【図10】第4実施形態に係る物体検出装置の処理手順を示すフローチャート。
【発明を実施するための形態】
【0009】
(第1実施形態)
図1を参照して、第1実施形態に係る物体検出装置100の構成を説明する。物体検出装置100は、画像取得部101と、検出部102と、追跡部103と、追跡尤度変換部104と、同一対象判定部105とを備える。各処理部の動作は不図示のCPUにより制御される。
【0010】
画像取得部101は、フレーム画像を順次取得する。画像取得部101は、カメラを用いて撮影したフレーム画像を取得してもよいし、予め撮影し保存されているフレーム画像をメモリから取得してもよい。取得されたフレーム画像は、検出部102および追跡部103へ出力される。
【0011】
検出部102は、画像取得部101から出力されたフレーム画像を取得し、当該取得したフレーム画像から対象物体の検出処理を実行する。検出処理には、HOG+SVMを使用した非特許文献2、ISMを使用した非特許文献3、Latent−SVMを使用した非特許文献4などの公知の技術を使用してもよい。検出処理により得られた検出結果(対象物体の位置情報およびサイズ情報)および対象物体の尤度は、同一対象判定部105へ出力される。
【0012】
追跡部103は、画像取得部101から出力されたフレーム画像を取得し、当該取得したフレーム画像に対して対象物体の追跡処理を実行する。すなわち、複数のフレーム画像のそれぞれから対象物体の追跡尤度を算出して、当該追跡尤度に基づいて複数のフレーム画像間で対象物体を追跡する。追跡処理には、Online Boostingを使用した非特許文献5、Condensationを使用した非特許文献6などの公知の技術を使用してもよい。なお追跡する対象物体は、同一対象判定部105から取得した対象物体の位置情報・サイズ情報に基づいて決定される。追跡処理の結果として得られた対象物体の位置情報・サイズ情報および尤度は、追跡尤度変換部104および同一対象判定部105へ出力される。
【0013】
追跡尤度変換部104は、追跡部103から出力された追跡結果を取得し、当該取得した対象物体の位置情報・サイズ情報および尤度に基づいて、当該尤度を検出部102において使用可能な尤度へ変換する。例えば、両者を比較可能なように正規化変換する。
【0014】
具体的には、図3に示されるように、追跡部103は追跡対象の位置情報・サイズ情報に基づいて、あるスケールの画像310における追跡対象の探索範囲311内の尤度を算出する。この探索範囲311と、検出処理で行う画像ピラミッドの処理範囲312とを対応させて、検出処理での尤度算出処理に追跡対象の尤度が追加されるように、追跡対象の尤度を変換する。なお、画像ピラミッドとは、高解像度の画像から低解像度の画像までのいくつかの異なる解像度の画像の集合として構成されている。追跡尤度変換部104により変換された尤度は、検出部102へ出力される。検出部102は、2フレーム目以降で、追跡尤度変換部104から取得した尤度と、検出処理により得られた画像における対象物体の尤度とを合わせて最終的な尤度を算出して同一対象判定部105へ出力する。最終的な尤度の算出は、正規化された両者の加算値、あるいは両者の平均値などであってもよい。これらが閾値以上である場合に、対象物体であると判定できる。
【0015】
同一対象判定部105は、検出部102から出力された検出結果と、追跡部103から出力された追跡結果とに基づいて、検出結果と追跡結果とが同一の対象物体を表しているか否かを判定する。例えば、式(1)および式(2)に示されるように、検出結果で得られた対象物体の位置情報・サイズ情報と、追跡している対象物体の位置情報・サイズ情報とを比較して、位置が略同一であり、サイズが略同一であると判定された場合、同一の対象物体を表していると判定する。
【0016】
【数1】

【0017】
【数2】

【0018】
また、同一の対象物体を表しているか否かの判定には、位置およびサイズをガウス分布に当てはめて確率的に決定してもよい。検出結果と追跡結果とは1対1の組み合わせになるようにしてもよい。同一対象判定部105により判定された結果が最終的な検出結果となる。また、追跡部103により算出された最終的な追跡尤度と、検出部102により算出された検出尤度との差分が所定の範囲内に収まるか否かによって、同一の対象物体を表しているか否かを判定してもよい。同一の対象物体を表していると判定された場合、その判定結果は追跡部103へ出力され、追跡部103は追跡処理を継続する。一方、同一の対象物体を表していないと判定された場合、すなわち新しく対象物体が追加検出されたような場合、判定結果は追跡部103へ出力される。そして追跡部103は、新たに対象物体の追跡処理を行う。
【0019】
次に図2のフローチャートを参照して、第1実施形態に係る物体検出装置100の処理手順を説明する。なお、フローチャートに従ったプログラムコードは不図示のRAMやROMなどのメモリに格納され、不図示のCPUにより読み出されて実行される。
【0020】
ステップS101において、画像取得部101は、撮影機器や画像ファイルなどからフレーム画像を取得する。取得されたフレーム画像は、検出部102および追跡部103へ出力される。ステップS102において、検出部102は、ステップS101で取得されたフレーム画像から対象物体を検出する処理を実行する。ステップS103において、検出部102は、検出処理により得られた尤度が閾値以上であるか否かを判定する。尤度が閾値以上であると判定された場合(S103;YES)、その位置およびサイズで対象物体が検出されたと判定できるため、ステップS104へ進む。一方、尤度が閾値より小さいと判定された場合(S103;NO)、対象物体が検出されなかったと判定できるため、ステップS101へ戻る。
【0021】
ステップS104において、検出部102は、検出結果を同一対象判定部105へ出力する。ステップS105において、追跡部103は、画像取得部101から取得したフレーム画像に対して対象物体の追跡処理を実行する。追跡対象は、同一対象判定部105から取得した対象物体の位置情報・サイズ情報に基づいて決定される。追跡処理の結果得られた対象の位置情報・サイズ情報および尤度は、追跡尤度変換部104および同一対象判定部105へ出力される。その後、ステップS106へ進む。
【0022】
ステップS106において、追跡尤度変換部104は、追跡部103から取得した追跡結果である対象の位置情報・サイズ情報および尤度に基づいて、当該尤度を、検出部102で使用可能な尤度へ変換する。
【0023】
ステップS107において、追跡尤度変換部104は、ステップS106で変換された尤度を検出部102へ出力する。ステップS108において、追跡部103は、追跡結果を同一対象判定部105へ出力する。
【0024】
ステップS109において、検出部102は、追跡尤度変換部104から得られた尤度と、検出処理により得られた画像中の尤度とを合わせて最終的な尤度を算出する。ステップS110において、検出部102は、最終的な尤度を同一対象判定部105へ出力する。その後、ステップS110へ進む。
【0025】
ステップS111において、同一対象判定部105は、検出部102による検出結果と追跡部103による追跡結果とに基づいて、検出結果と追跡結果とが同一の対象物体を表しているか否かを判定する。例えば、式(1)および式(2)に示されるように、検出結果で得られた対象物体の位置情報・サイズ情報と、追跡している対象物体の位置情報・サイズ情報とを比較して、位置が略同一であり、サイズが略同一であると判定された場合、同一の対象物体を表していると判定する。同一対象判定部105は、判定結果を出力して処理を終了する。以上で図2のフローチャートの各処理が終了する。
【0026】
以上説明したように、本実施形態では、検出部による検出結果に、追跡部の追跡結果を反映させる。そのため本実施形態によれば、2フレーム目以降の検出処理(第2の検出処理)の検出精度が向上し、対象物体の姿勢変動やオクルージョンに対してロバストな検出が可能となる。
【0027】
(第2実施形態)
図4を参照して、第2実施形態に係る物体検出装置200の構成を説明する。物体検出装置200は、画像取得部201と、検出部202と、追跡部203と、検出尤度変換部204と、同一対象判定部205と、を備える。第1実施形態に係る物体検出装置100は追跡尤度変換部104を有しているが、第2実施形態に係る物体検出装置200は、追跡尤度変換部104に代えて検出尤度変換部204を有している。
【0028】
画像取得部201の機能は、画像取得部101の機能と同じなので説明を省略する。
【0029】
検出部202は、画像取得部201から出力されたフレーム画像を取得し、当該取得したフレーム画像から対象物体の検出処理を実行する。検出処理により得られた検出結果(対象物体の位置情報およびサイズ情報)および対象物体の尤度は、検出尤度変換部204および同一対象判定部205へ出力される。
【0030】
追跡部203は、画像取得部201から出力されたフレーム画像を取得し、当該取得したフレーム画像に対して対象物体の追跡処理を実行する。なお追跡する対象物体は、同一対象判定部205から取得した対象物体の位置情報・サイズ情報に基づいて決定される。追跡処理の結果として得られた対象物体の位置情報・サイズ情報および尤度は、同一対象判定部205へ出力される。
【0031】
検出尤度変換部204は、検出部202から出力された検出結果を取得し、当該取得した検出結果である対象物体の位置情報・サイズ情報および尤度に基づいて、当該尤度を追跡部203において使用可能な尤度へ変換する。具体的には、図6に示されるように、検出対象物体の位置情報・サイズ情報に基づいて、あるスケールの画像610の尤度マップ611を決定する。検出尤度変換部204は、検出処理結果から得られる尤度マップ611に対応する範囲612の尤度を抽出し、追跡部203が出力する正規化した尤度範囲に合わせるように尤度を変換する。検出尤度変換部204により変換された尤度は、追跡部203へ出力される。追跡部203は、2フレーム目以降で、検出尤度変換部204から取得した尤度と、追跡処理により得られた画像における対象物体の尤度とを合わせて最終的な尤度を算出して同一対象判定部205へ出力する。
【0032】
同一対象判定部205は、検出部202から出力された検出結果と、追跡部203から出力された追跡結果とに基づいて、検出結果と追跡結果とが同一の対象物体を表しているか否かを判定する。第1実施形態と同様、式(1)および式(2)に示されるように、検出結果で得られた対象物体の位置情報・サイズ情報と、追跡している対象物体の位置情報・サイズ情報とを比較して、位置が略同一であり、サイズが略同一であると判定された場合、同一の対象物体を表していると判定する。
【0033】
次に図5のフローチャートを参照して、第2実施形態に係る物体検出装置200の処理手順を説明する。ステップS501およびステップS502の各処理は、それぞれステップS101およびステップS102の各処理と同様であるため説明を省略する。
【0034】
ステップS503において、検出部202は、検出処理により得られた尤度が閾値以上であるか否かを判定する。尤度が閾値以上であると判定された場合(S503;YES)、その位置およびサイズで対象物体が検出されたと判定できるため、検出結果を検出尤度変換部204へ出力し、ステップS504へ進む。一方、尤度が閾値より小さいと判定された場合(S503;NO)、対象物体が検出されなかったと判定できるため、ステップS501へ戻る。
【0035】
ステップS504において、検出尤度変換部204は、検出部202から出力された検出結果を取得し、当該取得した検出結果である対象物体の位置情報・サイズ情報および尤度に基づいて、当該尤度を追跡部203において使用可能な尤度へ変換する。
【0036】
ステップS505において、検出尤度変換部204は、ステップS504で変換された尤度を追跡部203へ出力する。ステップS506において、検出部202は、検出結果を同一対象判定部205へ出力する。
【0037】
ステップS507において、追跡部203は、画像取得部201から取得したフレーム画像に対して、対象の追跡処理を実行する。追跡対象は同一対象判定部205から取得した対象物体の位置情報・サイズ情報に基づいて決定される。
【0038】
ステップS508において、追跡部203は、検出尤度変換部204から得られた尤度と併せて最終的な尤度を算出し、対象物体の追跡位置を決定する。ステップS509において、追跡部203は、追跡処理の結果得られた対象物体の位置情報・サイズ情報および尤度を、同一対象判定部205へ出力する。
【0039】
ステップS510の処理は、ステップS111の処理と同様であるため説明を省略する。以上で図5のフローチャートの各処理が終了する。
【0040】
以上説明したように、本実施形態では、追跡部の追跡結果に、検出部による検出結果を反映させる。そのため本実施形態によれば、2フレーム目以降の追跡処理(第2の追跡処理)の追跡精度が向上し、対象物体の姿勢変動やオクルージョンに対してロバストな追跡が可能となる。
【0041】
(第3実施形態)
図7を参照して、第3実施形態に係る物体検出装置300の構成を説明する。物体検出装置300は、画像取得部301と、検出部302と、追跡部303と、追跡尤度変換部304と、同一対象判定部305と、検出尤度変換部306と、を備える。第1実施形態に係る物体検出装置100は追跡尤度変換部104を有しており、第2実施形態に係る物体検出装置200は検出尤度変換部204を有していた。第3実施形態に係る物体検出装置300は、追跡尤度変換部304および検出尤度変換部306を両方とも有している。画像取得部301の機能は、画像取得部101の機能と同じなので説明を省略する。
【0042】
検出部302は、画像取得部301から出力されたフレーム画像を取得し、当該取得したフレーム画像から対象物体の検出処理を実行する。検出処理により得られた検出結果(対象物体の位置情報およびサイズ情報)および対象物体の尤度は、検出尤度変換部306および同一対象判定部305へ出力される。
【0043】
追跡部303は、画像取得部301から出力されたフレーム画像を取得し、当該取得したフレーム画像に対して対象物体の追跡処理を実行する。なお追跡する対象物体は、同一対象判定部305から取得した対象物体の位置情報・サイズ情報に基づいて決定される。追跡処理の結果として得られた対象物体の位置情報・サイズ情報および尤度は、追跡尤度変換部304および同一対象判定部305へ出力される。
【0044】
追跡尤度変換部304は、追跡部303から出力された追跡結果を取得し、当該取得した対象物体の位置情報・サイズ情報および尤度に基づいて、当該尤度を検出部302において使用可能な尤度へ変換する。追跡尤度変換部304により変換された尤度は、検出部302へ出力される。検出部302は、2フレーム目以降で、追跡尤度変換部304から取得した尤度と、検出処理により得られた画像における対象物体の尤度とを合わせて最終的な尤度を算出して同一対象判定部305へ出力する。
【0045】
検出尤度変換部306は、検出部302から出力された検出結果を取得し、当該取得した検出結果である対象物体の位置情報・サイズ情報および尤度に基づいて、当該尤度を追跡部303において使用可能な尤度へ変換する。検出尤度変換部306により変換された尤度は、追跡部303へ出力される。追跡部303は、2フレーム目以降で、検出尤度変換部306から取得した尤度と、追跡処理により得られた画像における対象物体の尤度とを合わせて最終的な尤度を算出して同一対象判定部305へ出力する。
【0046】
同一対象判定部305は、検出部302から出力された検出結果と、追跡部303から出力された追跡結果とに基づいて、検出結果と追跡結果とが同一の対象物体を表しているか否かを判定する。第1実施形態と同様、式(1)および式(2)に示されるように、検出結果で得られた対象物体の位置情報・サイズ情報と、追跡している対象物体の位置情報・サイズ情報とを比較して、位置が略同一であり、サイズが略同一であると判定された場合、同一の対象物体を表していると判定する。
【0047】
次に図8のフローチャートを参照して、第3実施形態に係る物体検出装置300の処理手順を説明する。ステップS802乃至ステップS805の各処理と、ステップS806乃至ステップS809の各処理とは、並列に実行される。ステップS801の処理は、ステップS101の処理と同様であるため説明を省略する。
【0048】
ステップS802において、検出部302は、画像取得部301から出力されたフレーム画像を取得し、当該取得したフレーム画像から対象物体の検出処理を実行する。検出処理により得られた検出結果(対象物体の位置情報およびサイズ情報)および対象物体の尤度は、検出尤度変換部306および同一対象判定部305へ出力される。
【0049】
ステップS803において、検出尤度変換部306は、検出部302から出力された検出結果を取得し、当該取得した検出結果である対象物体の位置情報・サイズ情報および尤度に基づいて、当該尤度を追跡部303において使用可能な尤度へ変換する。
【0050】
ステップS804において、検出尤度変換部306は、ステップS803で変換された尤度を追跡部303へ出力する。ステップS805において、検出部302は、追跡尤度変換部304から取得した尤度と、検出処理により得られた画像における対象物体の尤度とを合わせて最終的な尤度を算出して同一対象判定部305へ出力する。
【0051】
一方、ステップS806において、追跡部303は、画像取得部301から出力されたフレーム画像を取得し、当該取得したフレーム画像に対して対象物体の追跡処理を実行する。なお追跡する対象物体は、同一対象判定部305から取得した対象物体の位置情報・サイズ情報に基づいて決定される。追跡処理の結果として得られた対象物体の位置情報・サイズ情報および尤度は、追跡尤度変換部304および同一対象判定部305へ出力される。
【0052】
ステップS807において、追跡尤度変換部304は、追跡部303から出力された追跡結果を取得し、当該取得した対象物体の位置情報・サイズ情報および尤度に基づいて、当該尤度を検出部302において使用可能な尤度へ変換する。
【0053】
ステップS808において、追跡尤度変換部304は、ステップS807で変換された尤度を検出部302へ出力する。ステップS809において、追跡部303は、検出尤度変換部306から取得した尤度と、追跡処理により得られた画像における対象物体の尤度とを合わせて最終的な尤度を算出して同一対象判定部305へ出力する。
【0054】
ステップS810の処理は、ステップS111の処理と同様であるため説明を省略する。以上で図7のフローチャートの各処理が終了する。以上説明したように、本実施形態では、検出処理と追跡処理のそれぞれの処理結果を相互に反映させる相補的な処理を行う。そのため本実施形態によれば、対象物体の姿勢変動やオクルージョンに対してロバストな検出および追跡が可能となる。
【0055】
(第4実施形態)
図9を参照して、第4実施形態に係る物体検出装置400の構成を説明する。物体検出装置400は、画像取得部401と、検出部402と、追跡部403と、追跡尤度変換部404と、同一対象判定部405と、検出尤度変換部406と、追跡尤度分配部407と、検出尤度分配部408とを備える。また検出部402は、複数の検出部を備え、例えば検出部4021と、検出部4022と、検出部4023とを備える。同様に追跡部403は、複数の追跡部を備え、例えば追跡部4031と、追跡部4032と、追跡部4033とを備える。各検出部および追跡部は、それぞれ対象物体の検出対象部位および追跡対象部位ごとに設けることができる。
【0056】
第4実施形態に係る物体検出装置400は、第3実施形態に係る物体検出装置300の構成に加えて、追跡尤度分配部407と、検出尤度分配部408とをさらに備えており、検出部402および追跡部403が、それぞれ1つ以上の検出部および追跡部を有している点が異なる。ここで、本実施形態では3つ検出部および3つの追跡部を有している構成について説明するが、その数は必ずしも3つに限定されない。検出部4021は、対象物体の全体を検出してもよい。検出部4022は、対象物体が人物である場合、人物の顔領域を検出してもよい。そして、検出部4023は、人物の手や足といった人物のパーツ領域を検出してもよい。同様に追跡部4031、追跡部4032、および追跡部4033は、それぞれ各検出部に対応する領域を追跡してもよい。
【0057】
画像取得部401と、検出部402と、追跡部403と、追跡尤度変換部404と、同一対象判定部405と、の各処理は、第3実施形態の対応する各処理部による処理と同様であるため説明を省略する。
【0058】
追跡尤度分配部407は、追跡部403を構成する追跡部4031、追跡部4032、および追跡部4033から出力されて追跡尤度変換部404により変換された各尤度を、検出部402のモデルと追跡部403が追跡している対象のモデルの情報に基づいて、それぞれ検出部402を構成しており且つ各追跡部に対応している検出部4021、検出部4022、および検出部4023へ分配する。追跡尤度分配部407は、例えば、追跡部4031が人物全体を追跡している場合、全身の人物モデルを持つ検出部4021へ尤度を分配する。追跡部4032が人物の顔領域を追跡している場合、人物の顔領域のモデルを持つ検出部4022へ尤度を分配する。追跡部4033が人物の手や足といった人物のパーツを追跡している場合、対応する人物のパーツのモデルを持つ検出部4023へ尤度を分配する。
【0059】
検出尤度分配部408は、検出部402を構成する検出部4021、検出部4022、および検出部4023から出力されて検出尤度変換部406により変換された各尤度を、検出部402のモデルと追跡部403が追跡している対象のモデルの情報に基づいて、それぞれ追跡部403を構成しており且つ各検出部に対応している追跡部4031、追跡部4032、および追跡部4033へ分配する。検出尤度分配部408は、例えば、検出部4021が人物全体を検出している場合、対応する追跡部4031へ尤度を分配する。検出部4022が人物の顔領域を検出している場合、対応する追跡部4032へ尤度を分配する。検出部4023が人物の手や足といった人物のパーツを検出している場合、対応する追跡部4033へ尤度を分配する。
【0060】
次に図10のフローチャートを参照して、第4実施形態に係る物体検出装置400の処理手順を説明する。ステップS1001乃至ステップS1003、ステップS801乃至ステップS803の各処理と同様であるため説明を省略する。ステップS1004において、検出尤度変換部406は、ステップS1003で変換された尤度を検出尤度分配部408へ出力する。
【0061】
ステップS1005において、検出尤度分配部408は、検出部402を構成する検出部4021、検出部4022、および検出部4023から出力されて検出尤度変換部406により変換された各尤度を、検出部402のモデルと追跡部403が追跡している対象のモデルの情報に基づいて、それぞれ追跡部403を構成しており且つ各検出部に対応している追跡部4031、追跡部4032、および追跡部4033へ分配する。
【0062】
ステップS1006において、検出部402は、追跡尤度分配部407から取得した各尤度と、検出処理により得られた画像における対象物体の各尤度とを合わせて最終的な尤度を算出して同一対象判定部305へ出力する。
【0063】
ステップS1007乃至ステップS1008の各処理は、ステップS806乃至ステップS807の各処理と同様であるため説明を省略する。ステップS1009において、追跡尤度変換部404は、ステップS1008で変換された尤度を追跡尤度分配部407へ出力する。
【0064】
ステップS1010において、追跡尤度分配部407は、追跡部403を構成する追跡部4031、追跡部4032、および追跡部4033から出力されて追跡尤度変換部404により変換された各尤度を、検出部402のモデルと追跡部403が追跡している対象のモデルの情報に基づいて、それぞれ検出部402を構成しており且つ各追跡部に対応している検出部4021、検出部4022、および検出部4023へ分配する。
【0065】
ステップS1011において、追跡部303は、検出尤度分配部408から取得した各尤度と、追跡処理により得られた画像における対象物体の各尤度とを合わせて最終的な尤度を算出して同一対象判定部405へ出力する。ステップS1012の処理は、ステップS809の処理と同様であるため説明を省略する。以上で図10のフローチャートの各処理が終了する。
【0066】
以上説明したように、本実施形態では、検出処理と追跡処理のそれぞれの処理結果を、処理対象ごとに対応させて相互に反映させる相補的な処理を行う。そのため本実施形態によれば、対象物体の姿勢変動やオクルージョンに対してロバストな検出および追跡が可能となる。
【0067】
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

【特許請求の範囲】
【請求項1】
フレーム画像を順次取得する画像取得手段と、
前記フレーム画像から検出尤度を算出して、当該検出尤度に基づいて前記フレーム画像から対象物体を検出する検出手段と、
複数のフレーム画像のそれぞれから前記対象物体の追跡尤度を算出して、当該追跡尤度に基づいて複数のフレーム画像間で前記対象物体を追跡する追跡手段と、を備える物体検出装置であって、
前記検出手段は、前記画像取得手段により取得されたフレーム画像から前記追跡手段により算出される前記対象物体の追跡尤度と、当該フレーム画像から前記検出手段により算出される前記対象物体の検出尤度とに基づいて、当該フレーム画像から前記対象物体を検出することを特徴とする物体検出装置。
【請求項2】
前記追跡手段により算出された前記対象物体の追跡尤度を、当該対象物体の位置情報およびサイズ情報に基づいて、前記検出尤度と比較可能な追跡尤度へ変換する追跡尤度変換手段をさらに備えることを特徴とする請求項1に記載の物体検出装置。
【請求項3】
前記追跡手段は、前記画像取得手段により取得されたフレーム画像から前記追跡手段により算出される前記対象物体の追跡尤度と、当該フレーム画像から前記検出手段により算出される前記対象物体の検出尤度とに基づいて、前記対象物体を追跡することを特徴とする請求項1または2に記載の物体検出装置。
【請求項4】
前記検出手段は、前記対象物体の検出対象部位に応じて複数の検出手段を備え、
前記追跡手段は、前記対象物体の追跡対象部位に応じて、前記複数の検出手段のそれぞれに対応する複数の追跡手段を備え、
前記検出手段は、前記画像取得手段により取得されたフレーム画像から前記複数の追跡手段により算出される前記対象物体の複数の追跡尤度と、当該フレーム画像から前記複数の検出手段により算出される前記対象物体の複数の検出尤度とに基づいて、当該フレーム画像から前記対象物体を検出することを特徴とする請求項1乃至3の何れか1項に記載の物体検出装置。
【請求項5】
前記追跡手段は、前記画像取得手段により取得されたフレーム画像から前記複数の追跡手段により算出される前記対象物体の複数の追跡尤度と、当該フレーム画像から前記複数の検出手段により算出される前記対象物体の複数の検出尤度とに基づいて、前記対象物体を追跡することを特徴とする請求項4に記載の物体検出装置。
【請求項6】
フレーム画像を順次取得する画像取得手段と、
前記フレーム画像から検出尤度を算出して、当該検出尤度に基づいて前記フレーム画像から対象物体を検出する検出手段と、
複数のフレーム画像のそれぞれから前記対象物体の追跡尤度を算出して、当該追跡尤度に基づいて複数のフレーム画像間で前記対象物体を追跡する追跡手段と、を備える物体検出装置であって、
前記追跡手段は、前記画像取得手段により取得されたフレーム画像から前記追跡手段により算出される前記対象物体の追跡尤度と、前記フレーム画像から前記検出手段により算出される前記対象物体の検出尤度とに基づいて、前記対象物体を追跡することを特徴とする物体検出装置。
【請求項7】
画像取得手段と、検出手段と、追跡手段とを備える物体検出装置の制御方法であって、
前記画像取得手段が、フレーム画像を順次取得する画像取得工程と、
前記検出手段が、前記フレーム画像から検出尤度を算出して、当該検出尤度に基づいて前記フレーム画像から対象物体を検出する検出工程と、
前記追跡手段が、複数のフレーム画像のそれぞれから前記対象物体の追跡尤度を算出して、当該追跡尤度に基づいて複数のフレーム画像間で前記対象物体を追跡する追跡工程と、
前記検出手段が、前記画像取得工程により取得されたフレーム画像から前記追跡工程により算出される前記対象物体の追跡尤度と、当該フレーム画像から前記検出工程により算出される前記対象物体の検出尤度とに基づいて、当該フレーム画像から前記対象物体を検出する第2の検出工程と、
を有することを特徴とする物体検出装置の制御方法。
【請求項8】
画像取得手段と、検出手段と、追跡手段とを備える物体検出装置の制御方法であって、
前記画像取得手段が、フレーム画像を順次取得する画像取得工程と、
前記検出手段が、前記フレーム画像から検出尤度を算出して、当該検出尤度に基づいて前記フレーム画像から対象物体を検出する検出工程と、
前記追跡手段が、複数のフレーム画像のそれぞれから前記対象物体の追跡尤度を算出して、当該追跡尤度に基づいて複数のフレーム画像間で前記対象物体を追跡する追跡工程と、
前記追跡手段が、前記画像取得工程により取得されたフレーム画像から前記追跡工程により算出される前記対象物体の追跡尤度と、前記フレーム画像から前記検出工程により算出される前記対象物体の検出尤度とに基づいて、前記対象物体を追跡する第2の追跡工程と、
を有することを特徴とする物体検出装置の制御方法。
【請求項9】
請求項7に記載の物体検出装置の制御方法の各工程をコンピュータに実行させるためのプログラム。
【請求項10】
請求項8に記載の物体検出装置の制御方法の各工程をコンピュータに実行させるためのプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate