説明

階層型構成要素ベースの物体認識

【課題】相互に相手を基準に移動可能な任意数の部分からなる可能性のある、イメージ中の物体を認識するための方法を提供する。
【解決手段】オフライン段階では、本発明は一連の例示イメージから単一の物体の部分の相対的な動きを自動的に学習し、単一の物体の部分の記述、部分間の関係、および効率的な検索戦略を組み込んだ、階層型モデルを構築する。これは、例示イメージ中の単一の物体の部分のポーズ変化を解析することによって実行される。ポーズは、物体認識に関する任意の類似性尺度によって取得できる。オンライン段階では、本発明は、階層型モデルを使用して検索イメージ中の物体全体を効率的に見つける。オンライン段階中には、物体の有効なインスタンスのみが見つけられ、すなわち、物体の部分は全体イメージ中ではなく、効率的な検索を容易にしてその後の妥当性検査ステップを不要にする階層型モデル内の物体部分間の関係によって定義される、パラメータスペースの制限された部分でのみ検索される。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、一般にマシンビジョンシステムに関し、より具体的には、相互に相手を基準に移動可能ないくつかの物体の部分からなる物体の視覚的認識に関する。
【背景技術】
【0002】
物体認識とは、多くのコンピュータ・ビジョン・アプリケーションの一部である。物体のイメージを物体のモデルと位置合わせしなければならないことの多い、産業用検査タスクに特に有用である。物体認識プロセスによって得られる変形(ポーズ)は、たとえばピック・アンド・プレース・オペレーション、品質管理、または検査など、様々なタスクに使用することができる。たいていの場合、物体のモデルは物体のイメージから生成される。たとえば3DのCADモデルなどのより複雑なモデルを作成するのには、費用または所要時間がかかりすぎる場合が多いことから、こうした純粋な2D方式が頻繁に使用される。したがって産業用検査タスクでは、通常、物体の2Dモデルをイメージにマッチングさせることに関心が寄せられる。マッチング方法の概説はR7に示されている(添付の参考文献リストを参照のこと)。最も簡単なクラスの物体認識方法は、モデルおよびイメージのグレイ値に基づくものである(R7、R16)。より複雑なクラスの物体認識では、たとえば平均エッジ距離(R6)、ハウスドルフ距離(R20)、または一般化ハフ変換(GHT)(R4)など、マッチングの際に物体のエッジを使用する。
【0003】
上記の方法は、閉塞、クラッタ、任意の照度変化、およびセンサノイズに対する強さ、ならびに高い認識精度およびリアルタイムでの計算など、すべてが高度な産業向けの需要を同時に満たすものではない。フィーチャとしてエッジの方向を使用するR21に示された類似性尺度、ならびに遅い計算、大量のメモリ、およびGHTの限られた精度などの欠点を解消したGHTの修正(R24)は、産業向けの需要を満たすものである。標準的な認識方法との比較も含む広範囲な性能評価(R25)では、これら2つの方法が非常に有利であることが示されている。
【0004】
上記のすべての認識方法は、共通して、見つけられた物体を表す何らかの形の剛体モデルを必要とする。ただし、いくつかのアプリケーションでは、剛体モデルの仮定が満たされない。順応性のある柔軟なマッチング方法(R3、R13、R5)では、医学でたとえば磁気共鳴映像法またはコンピュータ断層撮影法などに対処する際に表れる、変形可能な物体をマッチングさせることが可能である。特にロボット工学の分野では、関節を有する物体を認識するための方法(R11)も使用可能である。
【0005】
実際のところ、品質管理または検査タスクなどの産業用アプリケーションの場合、任意の相互の動き、すなわち距離、向き、および縮尺の変化を示すいくつかの部分からなる物体を見つけることを除いて、弾力性があるかまたは関節を有する物体を見つけることはそれほど重要ではない。これらの変化は潜在的に、いくつかのスタンプを使用するタンポン印刷を適用する場合、または回路基板にトランジスタまたははんだ付けポイントを備え付ける場合など、プロセスが作為的または無作為に、互いに不十分に「位置合わせされた」いくつかの単一の手順に分けられる場合に必ず発生する。図1に物体の一例が示されている。図3には、物体の各部の相互の動き(変化)が示されている。この種の物体を剛体とみなす場合、従来の認識方法では見つけることができないのは明らかである。しかし、個々の部分を別々に見つけようとする場合には、全体のイメージ中の各部分を検索しなければならず、各部分の間の関係は考慮に入れられないため、検索には計算上かなりのコストがかかってしまう。関節を有する物体を考慮に入れると、関節の正確な位置調整はないが、相互の変化はより全般的になる可能性があるため、この問題はほとんど解決することができない。たとえば物体はいくつかの剛体部分からなる場合があるため、弾力性のある物体もこれらの動きをモデル化することができないのは明らかである。1つの可能な解決策は、各モデルがモデルの部分の1つの形状を表すようないくつかのモデルを生成すること、およびこれらのモデルをすべてイメージにマッチングさせることである。ただし、変化が大きい場合は、これは非常に効率が悪く、リアルタイムの計算には適していない。米国特許第6324299号(R1)では、複数の部分を有する物体を位置付けする方法が示されている。第1のステップでは物体の大まかなポーズが決定され、続くステップで、物体の部分の詳細なポーズが計算される。したがって、各部の変化は物体の大まかなポーズを見つけられる程度の小さなものでなくてはならないが、これに対して本発明では、変化は明示的にモデル化されるものであり、任意の形および任意の大きさであってよい。さらに米国特許第6324299号では、本発明で実行されるように変化がトレーニング段階で自動的に学習されることはない。米国特許第6411734号(R2)は、見つけられた物体の各部が、物体の各部のポーズに関する制限などのユーザが指定した要件を満たすものかどうかをチェックすることによって、米国特許第6324299号で提示された方法を拡張するものである。本発明の利点は、物体の各部は有効なポーズの範囲にわたって検索されるだけであり、したがって有効なインスタンスだけが返されるために、このチェックが省略できることである。
【特許文献1】米国特許第6324299号 (R1)
【特許文献2】米国特許第6411734号 (R2)
【特許文献3】欧州特許出願第00120269.6号 (R22)
【非特許文献1】Bajcsy,R., Kovacis,S.,1989. Multi-resolution elastic matching. Computer Version, Graphics, and Image Processing, 46(1): pp.1-21. (R3)
【非特許文献2】Ballard, D.H., 1981. Generalizing the Hough transform to detect arbitrary shapes. Pattern Recognition, 13(2), pp.111-122. (R4)
【非特許文献3】Belongie, S., Malik, J., Puzicha,J., 2002. Shape Matching and Object Recognition Using Shape Contexts, Transactions on Pattern Analysis and Machine Intelligence, 24(4), pp.509-522. (R5)
【非特許文献4】Borgefors, G. 1988. Hierarchical chamfer matching: A parametric edge matching algorithm. IEEE Transactions on Pattern Analysis and Machine Intelligence, 10(6), pp.849-865. (R6)
【非特許文献5】Brown,L.G., 1992. A survey of image registration techniques. ACM Computing Surveys,24(4), pp.325-376. (R7)
【非特許文献6】Chu,Y.J. and Tseng-Hong, L., 1965. On the shortest arborescence of a directed graph. Scientia Sinica,14(10), pp.1396-1400. (R8)
【非特許文献7】Chva'tal,V., 1983. Linear Programming, W.H.Freeman and Company, New York. (R9)
【非特許文献8】Elder,J., 1999. "Are Edges Incomplete?". International Journal of Computer Vision, 34(2/3), pp.97-122. (R10)
【非特許文献9】Hauck, A., Lanser, S., and Zierl, C., 1997. Hierarchical Recognition of Articulated Objects from Single Perspective Views. In: Proc. Computer Vision and Pattern Recognition (CVPR'97), IEEE Computer Society Press, pp.870-883. (R11)
【非特許文献10】Huttenlocher, D.P.,Klanderman, and G.A., Rucklidge,W.J.,1993. Comparing Images using the Hausdorff Distance. IEEE Transactions on Pattern Analysis and Machine Intelligence, 15(9), pp.850-863. (R12)
【非特許文献11】Jain,A.K., Zhong,Y., and Lakshmanan,S., 1996. Object matching using deformable templates. IEEE transactions on pattern analysis and machine intelligence, 18(3), pp.267-277. (R13)
【非特許文献12】Koch,K.R., 1987. Prameterschatzung und Hypothesentests in linearen Modellen. Dummler, Bonn. (R14)
【非特許文献13】Koffka, K., 1935. Principles of Gestalt Psychology. Harcourt Brace, New York. (R15)
【非特許文献14】Lai,S. and Fang,M., 1999. Accurate and fast pattern localization algorithm for automated visual inspection. Real-Time Imaging, 5, pp.3-14. (R16)
【非特許文献15】Lowe, D.G., 1985. Perceptual Organization and Visual Recognition, Kluwer Academics, Boston. (R17)
【非特許文献16】Marr,D., 1982. Vision, W.H.Freeman and Company, San Francisco, CA. (R18)
【非特許文献17】Murtagh,B.A., 1981. Advanced Linear Programming: Computation and Practice, McGraw-Hill, New York. (R19)
【非特許文献18】Rucklidge, W.J., 1997. Efficiently locating objects using the Hausdorff distance. International Journal of Computer Vision, 24(3), pp.251-270. (R20)
【非特許文献19】Steger,C., 2001. Similarity measures for occlusion, clutter, and illumination invariant object recognition. In: Mustererkennung 2001, B.Radig and S.Florczyk (eds), Springer, Berlin, pp.148-154. (R21)
【非特許文献20】Ullman,S., 1979. The interpretation of visual motion. MIT Press, Cambridge, MA. (R23)
【非特許文献21】Ulrich,M., Steger, C., Baumgartner,A., and Ebner,H., 2001. Real-time object recognition in digital images for industrial applications. In: 5th Conference on Optical 3-D Measurement Techniques, Vienna, Austria, pp.308-318. (R24)
【非特許文献22】Ulrich,M., Steger, C., 2001. Empirical performance evalution of object recognition methods. In: Empirical Evaluation Methods in Computer Vision, H.I. Christensen and P.J.Phillips (eds), IEEE Computer Society Press, Los Alamitos, CA, pp.62-76. (R25)
【非特許文献23】Wertheimer,M., 1938. Laws of Organization in Perceptual Forms. In: A Source Book of Gestalt Psychology, W.D.Ellis (ed), Harcourt Brace. (R26)
【非特許文献24】Witkin,A.P. and Tenenbaum,J.M., 1983. On the Role of Structure in Vision. In: Human and Machine Vision, Jacob Beck and Barbara Hope and Azriel Rosenfeld (eds), Academic Press, New York. (R27)
【非特許文献25】Rock, I. and Palmer,S., 1990. The legacy of Gestalt psychology. Scientific American, 263, pp.84-90. (R28)
【発明の概要】
【発明が解決しようとする課題】
【0006】
本発明の目的は、物体が任意の方法で相互に相手を基準に移動できるいくつかの部分からなる、イメージ中の物体を認識するのに使用可能な階層型物体認識モデルを自動的に学習するための方法を提供することである。
【課題を解決するための手段】
【0007】
したがって本発明は、物体各部の相互の動き(変化)が示されたいくつかの例示イメージを使用して物体を自動的に各部に分解し、その変化を解析するものである。好ましい実施形態では、単一の物体の各部が剛体であると想定されるため、変形は見られない。他の好ましい実施形態では、剛体の変換(並進および回転)のみが考慮に入れられる。したがって物体は、イメージ中で任意の位置および向きにある場合に見つけることができる。追加のポーズパラメータ、たとえば縮尺も、簡単な方法で考慮に入れることができる。
【0008】
物体の各部の相互の変化が解析され、剛性物体の各部すべての表現、ならびに各部の関係を考慮しながら各部が互いに相対的に検索される階層型検索方法を含む、階層型モデルを構築する際に使用される。
【0009】
この階層型モデルの生成がオフライン段階と呼ばれ、1回実行しなければならないだけであるため時間は重要でない。しかし時間が重要なオンライン段階では、物体はイメージ中で検索され、階層型モデルが非常に効率的な検索を容易にする。
【0010】
図4の流れ図には、階層型モデル計算の単一ステップが示されている。提案されたアルゴリズムの入力データのみが、物体がたとえば関心領域(ROI)を使用してユーザによって定義される物体のサンプルイメージ(モデルイメージ)、ならびに少なくとも質的に単一物体の各部の相互の動きを記述する何らかの追加の例示イメージである。
【0011】
第1のステップは、モデルイメージ中でROIによって定義された物体を、小さな初期構成要素に分解することである。これらの構成要素は、実際の物体各部と一致する必要がないことに留意されたい。たとえば、イメージエッジの接続された構成要素が分解の基準として使用される場合、結果として図1の例からは、1つの帽子、1つの顔、2本の腕、2つの手、2本の脚、2つの足、上半身の外側の四角形、上半身の内側の四角形、および上半身上に印刷された各文字につき少なくとも1つの構成要素という、構成要素が生じることになる。各初期構成要素について、例示イメージ中でその初期構成要素の検索に使用できる表現が算出される。この表現は初期構成要素モデルと呼ばれ、少なくとも剛体の変換(並進および回転)の下で物体を見つけることができる任意の認識方法を使用して構築することができる。本発明の好ましい実施形態では、イメージエッジに基づいた認識方法が使用される。さらに、産業向けの需要が満たされれば、R21または欧州特許出願第00120269.6号の「物体認識のためのシステムおよび方法(System and method for object recognition)」(R22)に記載された類似性尺度、あるいは修正ハフ変換(R24)が好ましいものとする。
【0012】
各初期構成要素は、すべての例示イメージ中で初期構成要素モデルを使用して検索される。このようにして、各例示イメージ中の各初期構成要素のポーズパラメータが取得される。これらのパラメータが解析され、剛性の物体各部を形成するそれらの初期構成要素がクラスタ化されて、さらに物体各部に対応して最終的に分解される。図1および図3の例では、帽子および顔が各イメージ中で同じ動きを示すことから、1つの剛体部分にクラスタ化される。同じことが、上半身部分を形成するすべての初期構成要素にもあてはまる。これらも1つの剛体部分にクラスタ化される。新しく生成された(クラスタ化された)各部分について、初期構成要素の場合と同じ認識方法を適用することによって表現が算出される。この表現は物体部分モデルと呼ばれる。例示イメージ中で新しく生成された物体の各部を検索する際に使用される。クラスタ化されていない初期構成要素モデルが、変更されずに物体部分モデルとして使用される。したがって、各物体部分は1つの物体部分モデルによって記述される。剛性物体部分の各対間の関係(相対的動き)は、例示イメージのシーケンスを介してポーズパラメータを解析することによって算出され、完全連結有向グラフに格納されるが、ここで頂点は物体の各部を表し、頂点iとjの間のリンクは部分iを基準とした部分jの動き全体を示す。グラフの最も短い樹枝を計算することによって、検索の手間を最小限にするという意味で最適な検索戦略を組み込んだ階層型検索ツリーを確かめることができる。最終的に階層型モデルは、物体部分モデル、物体各部間の関係、および最適な検索戦略で構成される。
【0013】
オンライン段階では、次に階層型モデルを使用して、任意の検索イメージ中の移動可能オブジェクト部分を含む物体全体を検索することができる。これは、選択された類似性尺度の物体部分モデルを使用して、イメージ中の物体各部を検索することによって実行される。全検索範囲内で1つの物体部分だけを検索しなければならないが、残りの物体部分は、検索ツリーとの組合の関係によって確定される非常に限られた検索スペースの中で検索することができる。これにより、物体各部の相対的な動きにもかかわらず、効率的な検索が容易になる。
【0014】
本発明は、添付の図面と共に以下の詳細な説明を読めばよりよく理解されよう。
【図面の簡単な説明】
【0015】
【図1】物体例のモデルイメージおよび自動初期分解のためのユーザ定義の関心領域を示す図である。
【図2】物体例のモデルイメージおよび手動初期分解のためのいくつかのユーザ定義の関心領域を示す図である。
【図3】図1で紹介された物体の各部の相互の動きを示した一連の6つの例示イメージを示す図である。
【図4】階層型モデル計算の単一のステップを示した本発明の好ましい実施形態を示す流れ図である。
【図5】小さな初期構成要素の消去およびマージングを示す図である。
【図6】モデルイメージの連結構成要素を基準として使用し、小さな初期構成要素の消去およびマージングを行った場合の、図1で紹介された物体の自動初期分解の結果を示すイメージである。初期構成要素はそのイメージエッジによって視覚化される。初期構成要素を識別するために、各構成要素に番号が割り当てられている。
【図7】図7aは、隣接するエッジの存在の下に、縮尺スペースにおけるイメージエッジの展開を示すプロットである。
【0016】
図7bは、隣接するエッジを消去した後の図7aのイメージエッジの展開を示すプロットである。
【図8】初期構成要素の自己対称性、初期構成要素間の相互類似性、または初期構成要素の例示イメージ中の他の構造体に対する類似性による、あいまいさを解決するために使用されるネットワークを示す図である。
【図9】図6の初期構成要素に関する類似性行列を表すグラフである。各行列要素には、対応する2つの初期構成要素が同じ剛性物体部分に属する確率が含まれる。この行列は左右対称であるため、上部の三角行列のみが示されている。
【図10】モデルイメージ(太字の境界線)中および3つの例示イメージ(上列のピクチャ)中の相対ポーズからの物体対(長方形および楕円形)間の関係の計算を示す図である。この例では長方形が基準とみなされ、楕円形の相対的動きは、楕円形を長方形によって定義された基準系(中列のピクチャ)に変換することによって計算される。全体の相対的向きは、角度の変化(左下ピクチャ中の円の黒い扇形)を示し、楕円のすべての基準点の任意の向きの最小の囲み長方形は、位置の変化(右下ピクチャ中の太字の長方形)とみなされる。
【図11】階層型モデル生成の結果を示す図である。検索ツリーは、各物体部分に関する相対的検索範囲と共に視覚化される。位置検索範囲は四角形によって視覚化され、角度検索範囲は扇形によって視覚化される。
【発明を実施するための形態】
【0017】
初期分解
本発明の第1のステップでは、物体は初めに小さな構成要素に解体される。これは、自動的またはユーザによって対話的に実行することができる。初期分解が満たさなければならない条件は、剛性物体の各部を少なくとも1つの初期構成要素によって表さなければならないということであり、そうでなければアルゴリズムが後でこの構成要素を分割し、剛性の物体各部を自動的に見つけることができない。したがって、全体のセグメント化が好ましい。ただし、非常に小さな初期構成要素は性質が固有でなくなってしまうが、これは後で示すように、本発明によって考量することができる。
【0018】
ユーザが初期分解を自動的に行うように選択する場合は、物体全体を関心領域(ROI)で定義しなければならない。ROIとは、その後の処理のためにイメージの領域を制限する、任意に形作られたイメージの部分のことである。図1の例では、ROIは物体全体を囲む長方形である。ROIで定義されたイメージ領域は、その後初期分解を実行する際に使用される。このタスクに好適ないくつかのグループ化方法が文献に見られる。本発明の好ましい実施形態では、モデルイメージ中のエッジは、たとえばソーベルフィルタなどのエッジフィルタの振幅に関する閾値を適用することによって抽出される。エッジの連結された構成要素は、個々の初期構成要素として処理される。好ましい実施形態では、ユーザ定義の閾値よりも小さな初期構成要素は、ノイズによるかまたは例示イメージ中で識別するのが困難なことによる無意味な初期構成要素を避けるために、消去されるか隣接する構成要素にマージされる。第1のステップでは、初期構成要素のサイズ、たとえばエッジピクセルの数が計算される。ユーザ定義の閾値よりもサイズが小さい場合、現在の初期構成要素を隣接する構成要素にマージ(組合せ)できるかどうかをチェックしなければならない。マージングが不可能な場合、初期構成要素は消去される。チェックは、現在の初期構成要素中のすべてのエッジピクセルから、ユーザ定義の閾値よりもサイズの大きい他のすべての初期構成要素までの距離を計算することによって実行される。すべてのエッジピクセルから比較される構成要素までの最大距離が閾値よりも小さい場合、これら2つの構成要素が共に属する確率は高い。したがって、現在の初期構成要素は比較される構成要素にマージされる。図5の左上のピクチャに、モデルイメージが示されている。図5の右上のピクチャは、イメージ内にイメージノイズが存在しないという仮定の下でのエッジ抽出ステップの結果である。図5の左下のピクチャは、ある程度のノイズを含む実際のイメージを処理する場合の、エッジ抽出ステップの結果を示す図である。初期分解の第1のステップの結果、7つの独立した構成要素になる。構成要素2、3、4、5、6、および7のサイズはユーザ定義の閾値よりも小さい。図5の右下のピクチャには、消去およびマージングの結果が示されている。構成要素2、3、4、および5は、最大距離dが事前に定義された閾値よりも小さいため、構成要素1に付属している。構成要素6および7は、最大距離dが事前に定義された閾値を超えるため、消去される。図6では、図1で紹介された物体の初期構成要素が視覚化される。
【0019】
前述のように、初期分解を実行するために、他のグループ化方法またはそれらの組合せを本発明に含めることもできる。ゲシュタルト心理学は、視覚領域内でグループ化プロセスを導く一組の原理を発見した(R26、R15、R28)。コンピュータビジョンは、たとえば知覚の編成およびグループ化(R23、R18、R27、R17)の分野で、これらの原理を利用したものである。
【0020】
ユーザが初期分解を手動で実行するように選択した場合、ユーザは1つのROIを指定するだけでなく、各初期構成要素について別々のROIを指定しなければならない。指定されたROI内で抽出されたすべてのエッジは、その後1つの初期構成要素として処理される。したがって、ユーザの以前の知識を利用することができる。図2の例では、ユーザによって合計11のROIが定義されている。選択されたROIは、上半身が1つの剛性物体部分を形成しているとユーザが確信したこと、および頭と顔が1つの剛性物体部分を形成しているかどうかは確信していないことを暗示している。
初期構成要素モデルの生成
次のステップでは、初期構成要素モデルが算出される。本発明の好ましい実施形態では、初期構成要素モデルを算出し、例示イメージ中で初期構成要素を検索するための認識方法として、R21に示された類似性尺度の実施が使用される。この方法では、従来のほとんどの物体認識方法の実施と同様に、認識速度を上げるために帰納的な粗から精への戦略を使用する。これには、モデルイメージと検索イメージの両方のサブサンプリングと共に、両方のイメージの目盛り空間表現につながる適切なイメージ平滑化が含まれる。ただし、好ましくない目盛り空間効果には注意しなければならない。目盛り空間では、初期構成要素のエッジは隣接するエッジの影響を受ける。大きな物体を取り扱うときには、隣接するエッジの影響を受けない物体のエッジが十分に残されていることから依然として適切なマッチングが可能であるため、ほとんどの場合にこれは重要でない。ただし、初期構成要素などの小さな物体を取り扱うときには、初期構成要素中のエッジピクセルの数と隣接するエッジピクセルの数の比が小さくなる、すなわち隣接するエッジの影響が増加するため、何らかの問題が発生する。図7aおよび7bに、目盛り空間効果の原理が示されている。図7aには、2本のエッジを含む1Dのグレイ値プロファイルが示されている。左側のエッジのみが初期構成要素に属しているため、初期構成要素モデル内に示されるのに対して、右側のエッジは隣接エッジを表している。目盛り空間では、隣接エッジによって生じるモデルエッジの妨害が平滑化の度合いに応じて増加する(シグマ)。この問題は、認識方法で目盛り空間表現が使用されなければ避けることができる。ただし、その場合には計算時間の増加につながるので好ましくない。したがって、隣接する妨害エッジをなくすために、初期構成要素エッジの両側のグレイ値が人工的に周囲の領域に連続される。すべての妨害エッジをなくすために、適切な周囲の領域サイズを選択しなければならない。たとえば、2つの連続する打切りステップ内で4つの隣接ピクセルが1つにマージングされる、ステップの合計数がlの方法で、目盛り空間打切りが使用される場合、すべての隣接エッジからの影響を完全になくすために、初期構成要素エッジの両側のグレイ値は、少なくとも2ピクセルずつ連続させなければならない。その結果が図7bに示されている。これでモデルエッジは隣接エッジに妨害されなくなる。他のより高度な方法では、エッジを明示的にモデリングし、その後エッジの周囲でグレイ値を再構築する(R10)。これらは本発明に容易に組み込むことができる。
【0021】
各初期構成要素の妨害エッジが消去された後、初期構成要素モデルが構築される。隣接する初期構成要素が現在の初期構成要素以外に同じ剛性物体部分に属することができるため、(隣接する初期構成要素に属する)隣接エッジは、現在の初期構成要素を基準として同じ位置にある例示イメージにも存在することになる。したがって、各初期構成要素について、あらかじめ隣接エッジを消去することなく、第2の初期構成要素モデルが構築される。これにより、すべてのマッチが例示イメージ中で見つけられる可能性が高くなる。初期構成要素の検索がマッチを重複させるという結果は、以下の項で説明するアルゴリズムを使用して補償されるので、重大なことではない。基本的に、オフライン段階中の誤った肯定または二重のマッチは、マッチがないことに比べて好ましい。
初期構成要素モデルの検索
初期構成要素モデルは、選択された認識方法を使用して各例示イメージで初期構成要素を検索するのに使用される。こうして、各例示イメージ中の各構成要素iのすべてのポーズPが取得される。好ましい実施形態では、位置とは、たとえば初期構成要素内のエッジピクセルの重心などの初期構成要素モデルの任意の基準点のことである。向きとは、モデルイメージ中の初期構成要素の向きのことであり、すなわちモデルイメージ中の各初期構成要素の向きは0°である。ポーズPには、隣接エッジを消去した後に構築された初期構成要素モデルを検索する際に取得されたポーズ、ならびにあらかじめ隣接エッジを消去することなく構築された初期構成要素モデルを検索する際に取得されたポーズが含まれる。
【0022】
小さな初期構成要素を検索する際には、エッジの妨害の問題以外の別の問題も生じる。初期構成要素の自己対称性、初期構成要素間の相互類似性、または初期構成要素の例示イメージ中の他の構造体に対する類似性により、検索結果が固有でない可能性がある。さらに多くの場合、各初期構成要素の検索に2つの初期構成要素モデルが使用されるため、マッチの数が2倍になる。これら2つの問題は、以下の段落に示された同じアルゴリズムを使用して解決することができる。アルゴリズムをできるだけ単純に記述しておくために、2つの初期構成要素モデルを使用する第2の問題については無視する。図1の例では、たとえば左脚は第1の例示イメージ(図3の左上イメージ)で、左脚の正しい位置、右脚の位置、ならびにそれぞれ向き0°および180°の4回見られる(図8参照)。したがって、これらのあいまいさを解決するためには、各構成要素について最も可能性の高いポーズをとることが不可欠である。nを初期構成要素の数とし、Mをモデルイメージ中の構成要素iのポーズとする(i=1、...n)。例示イメージ中の初期構成要素iのマッチkで表されるポーズはEと記述され、ここでk=1、...nであり、nは現在の例示イメージ中の構成要素iのマッチ(見つけられたインスタンス)数である。あいまいさは、各初期構成要素が多くても1つの物理マッチに帰するものであり、各物理マッチが多くても1つの初期構成要素に記するものであるという、2つの制約を考慮しながら、以下の数式を最小にすることで解決される。
【0023】
【数1】

【0024】
物理マッチとは、初期構成要素の例示イメージへの実際のまたは物理的なマッチのことであり、すなわち前述のあいまいさにより、1つの物理マッチが認識方法によって返されたいくつかのマッチによって占有される場合がある。δは、構成要素iのマッチkの変化尺度であり、Ψは、例示イメージ中の構成要素iのマッチkに対する構成要素jのマッチlの相対ポーズを、モデルイメージ中の2つの構成要素の相対ポーズと比較することによって評価する、コスト関数である。例示イメージ中の現在の相対ポーズがモデルイメージ中の相対ポーズと異なれば異なるほど、コスト値は大きくなる。本発明の好ましい実施形態では、Ψは相対位置Δposおよび相対向きΔorient中の差異を考慮に入れるが、位置の差異はピクセルで測定され、向きの差異は度で測定される。2つの測定値をコスト関数Ψに結合できるようにするために、以下の数式を導く2つの測定値の相対的影響の平衡を保たせる平衡係数wが導入される。
【0025】
【数2】

【0026】
任意選択で、Ψを厳密に単調に増加する任意の他の関数にマッピングすることが可能である。好ましい実施形態では、変化を小さくするために有利に働く対数が算出される。各追加パラメータに対して別々の平衡係数を導入することにより、追加のポーズパラメータ(たとえば縮尺)を簡単に含めることができる。
【0027】
数式1の最小化は、見かけの動きに関する対応問題が全体の変化を最小にすることによって解決される、人の知覚の原理に従うものである(R23)。2つの制約を考慮しながら数式1を解くために、問題は、たとえば線形計画法技法を適用することで解決できる2部グラフマッチング問題として公式化される。図8に示されるように、2部グラフの1つのセットNcomp中のノードが初期の構成要素を表し、他のセットNphys中のノードが物理マッチを表す。各マッチは、グラフ中の1つのリンクで表される。マッチが例示イメージ中の同じ物理マッチを指すものかどうかをチェックするために、初期構成要素の自己対称性ならびに初期構成要素間の相互類似性についての情報を考慮しなければならない。この情報は、選択された認識方法の類似性尺度を予備段階で使用して、各初期構成要素をそれ自体および他のすべての構成要素とマッチングさせることによって得られる。これらマッチのポーズを使用して、例示イメージ中の2つのマッチが同じ物理マッチを指しているかどうかを判別することができる。2部グラフ内の各エッジは1つの別々のマッチに対応し、対応するδの値が割り当てられる。これで、最大化(最適化)しなければならない目的関数zが次のように設定できる。
【0028】
【数3】

【0029】
は最適化における未知数であり、初期構成要素iのマッチkが解に含まれる場合はxは1であり、それ以外の場合は0である。マッチ数を最大にしなければならないため、変化δ(最小でなければならない)は重みδmax−δ(最大でなければならない)に変換しなければならず、この式でδmaxは、δmax>δ∀{i,k|1≦i≦n,1≦k≦n}となるような定数値である。さらに、いくつかの制約を示し、最適化に導入しなければならない。
【0030】
【数4】

【0031】
∀は物理的マッチ、ここでは少なくとも2つのxが現物理的マッチに割り当てられる。
最初の2つの制約(数式5および6)は、すべてのxが解において値1または値0のいずれかを有すること、すなわち、初期構成要素iのマッチkが解の一部であるかまたは一部でないか、のいずれかであることを保証するものである。第3の制約(数式7)は、各初期構成要素が多くても1つのマッチに割り当てられることを保証するものである。第4の制約(数式8)は、各物理マッチが多くても1つの初期構成要素に割り当てられることを保証するものである。この線形計画法問題は異なるアルゴリズム、たとえばシンプレックス法によって解決することが可能であり、文献から入手可能である(R9、R19)。各例示イメージのあいまいさが個別に解決される。
初期構成要素のクラスタ化
初期分解は全体のセグメント化につながるため、同じ剛性物体部分に属する初期構成要素は、以前のステップで取得されたポーズパラメータを解析することによって、より大きなクラスタにマージしなければならない。すべての例示イメージにわたって同様の見かけの動きを示す初期構成要素は、一緒にクラスタ化される。
【0032】
第1に、同じ剛性物体部分に属する2つの初期構成要素の2つ1組の確率が計算される。M=(x、y、ψ)、M=(x、y、ψ)、E=(x、y、ψ)、およびE=(x、y、ψ)を、モデルイメージ中および例示イメージ中の2つの初期構成要素のポーズとする。モデルイメージ中の向きが基準とされるため、一般性を失うことなくψおよびψは0に設定される。モデルイメージ中の2つの初期構成要素の相対位置は、Δx=x−xおよびΔy=y−yで表される。例示イメージ中の相対位置ΔxおよびΔyについても同様である。モデルイメージ中および例示イメージ中の相対位置を比較できるようにするために、例示イメージ中の相対位置を以下のように回転させて基準の向きに戻さなければならない。
【0033】
【数5】

【0034】
使用された認識方法がポーズパラメータの精度情報をさらに戻す場合、誤り伝播の法則を使用して相対位置の精度が算出される。それ以外の場合、精度は経験的に指定されるものとする。次に、以下の仮説を示すことができる。
【0035】
【数6】

【0036】
この仮説が正しい確率は、両方の初期構成要素が同じ剛性物体部分に属する確率に対応する。これは、たとえばR14に示されたような仮説試験に関する数式を使用して算出することができる。これはすべての物体対およびすべての例示イメージに対して実行され、対称類似性行列を生み出すものであって、ここに、行iおよび列jで初期構成要素iおよびjが同じ剛性物体部分に属する確率が格納される。好ましい実施形態では、行列中のエントリがすべての例示イメージにおける確率の最小値に対応する。ミスマッチに対してより高い強さを得るために、最小値の代わりに平均値または他の統計値を使用することができる。図9には、図1および図3で与えられた例に関する類似性行列が示されている。帽子と顔が一緒に属している確率、および上半身部分の初期構成要素が剛性物体部分を形成している確率が高いことがわかる。
【0037】
この類似性行列に基づき、たとえば、類似性が最も高い2つのエンティティを残りの類似性の最大値が事前定義された閾値よりも小さくなるまで連続してマージする、2つ1組でのクラスタ化戦略を使用して、初期構成要素がクラスタ化される。他のクラスタ化技法も本発明に簡単に組み込むことができる。
物体部分モデルの生成および検索
前述のように、新しくクラスタ化された構成要素に関する認識方法のモデルが作成され、すべての例示イメージ中で検索される。これにより、新しくクラスタ化された構成要素のポーズとして、クラスタ内の各初期構成要素の単一の初期ポーズの平均を取る際に、誤りが生じるのを防ぐことができる。ただし、この情報を活用して、例示イメージ中で新しくクラスタ化された構成要素の基準点および配向角度について概数値を算出することによって、検索スペースを減らすことができる。このステップの後、各剛性物体部分について物体部分モデルが使用可能であり、各イメージ中の各物体部分に関するポーズパラメータが算出される。
物体部分間の関係の算出
クラスタ化された構成要素のポーズパラメータ、すなわち剛性物体部分が解析され、部分iとjの間の2つ1組の関係が導出される(ここではi=1、...、nおよびj=1、...、nであり、nは物体部分の数である)。そのために、各イメージでは物体部分iのポーズがローカル座標系を定義し、この座標系では物体部分jのポーズが算出される。好ましい実施形態では、すべての例示イメージのローカル座標系において物体部分jのすべての向きを囲む角度範囲は、物体部分iを基準にした物体部分jの角度変化を表す。好ましい実施形態では、対応する位置変化は、すべての例示イメージのローカル座標系において物体部分jの基準点の任意の向きの最小の囲み長方形で記述される。任意の向きの最小の囲み長方形と並んで、たとえば、軸に位置合わせされた最小の囲み長方形、凸閉包、最小の囲み円、または2D平面内の点セットの他の任意の記述など、他の記述を代わりに使用することができる。この原理は、図10に例示されている。
【0038】
角度変化および位置変化に加え、さらに関係情報は、相対角度および相対位置の平均および標準偏差などの統計値を含むことができる。この情報は、整列した各物体対について算出される。全体を検索する労力を最小限にする最適な検索戦略を見つけるためには、物体部分iのポーズがわかっている場合に物体部分jを検索するために費やさなければならない検索労力Ωijを量子化する尺度を定義しなければならない。好ましい実施形態では、検索努力は以下のように定義され、この式で、lijおよびhijはそれぞれ最小の囲み長方形の長さおよび高さであって、部分iを基準にした部分jの位置変化を記述しており、Δψijは対応する角度変化を指定するものである。
【0039】
【数7】

【0040】
検索労力の計算は、選択された物体認識方法に大幅に依存するものであり、個々に適合させなければならない。Ωは左右対称でないこと、すなわちΩijは必ずしもΩjiに等しくないことに留意されたい。例示イメージが変化を完全に、ただし質的にのみカバーしていることは期待できないため、ユーザが選択した許容範囲を適用することによって、lij、hij、およびΔψijに関する値を適合させることができる。
階層型検索ツリーの算出
オンライン段階での本発明の戦略は、選択されたルート物体部分を検索範囲全体にわたって検索し、その後連続して、すでに見つけられた物体部分だけを基準にして残りの部分を検索することである。そのためには、現在の部分が相対的に検索されるすでに見つけられた物体部分のポーズに関して、現在の物体部分の基準点の検索範囲が変換される。検索労力Ωを計算するための数式は、選択された認識方法の計算時間がΩに対応して線形に増加するような方法で構築しなければならない。したがって、オンライン段階での検索時に累積されるΩの合計を最小にして、最適な検索戦略を見つけなければならない。
【0041】
本発明の好ましい実施形態では、グラフ理論アルゴリズムを適用することによって、全体の認識時間を最小にする最適な検索戦略を計算することができる。物体部分は、頂点iとjの間の有向円弧が対応する検索労力Ωijで重み付けされる、グラフ中の頂点と解釈される。したがって、完全連結有向グラフD=(V,A)が取得され、ここでVはサイズ|V|=nの頂点セットを表し、Aは|A|=n(n−1)の円弧セットを表す。各円弧aij∈Aに重みΩijが関連付けられる。Dの樹枝とは、どんな円弧の末端頂点でもないルートと呼ばれる特定の頂点があり、任意の他の頂点vの場合は、末端頂点がvである厳密に1つの円弧があるような、Dのサブツリーのことである。Dの全域樹枝とは、Dのすべての頂点を含む樹枝のことである。したがって、最適な検索戦略を見つける際の問題は、以下のように、Dの全域樹枝H=(V,B)を見つけることと等価である。
【0042】
【数8】

【0043】
グラフ中で最小重みの全域樹枝を見つけるためのアルゴリズムが、R8に記載されている。ルート頂点は、異なる基準を使用して選択することができる。ルート頂点は、オンライン段階でなく検索イメージの全検索範囲内で、他の物体部分を基準とせずに検索される物体部分のみに対応しているため、オンライン段階の認識時間はルート部分の認識時間に大きく依存する。したがって、R21に示された認識方法を使用する場合、大きな部品部分がルート部分であれば、検索のスピードを上げるためにさらに打切りステップが使用できるので好ましい。さらにルート部分は、オンライン段階での検索速度を低下させるオンライン段階でのあいまいさを避けるために、自己対称性または他の物体部分に類似していることがない。これら2つの基準は、本発明によって自動的に評価することができる。好ましい実施形態では、ルート部分は他の決定的役割を果たすものであり、ルート部分がないかまたは高度に閉塞していると物体全体が見つけられないため、オンライン段階での検索中にはルート部分が常に見つけられなければならない。したがって実際には、ユーザが第3の基準を評価しなければならない。代替実施形態では、後で検索するいくつかのルート部分を選択することができる。選択するルート部分の数は、オンライン段階中に物体を見つけるときの基になるユーザ定義の最大レベルの閉塞、ならびに見つけなければならない物体インスタンスのユーザ定義の最大数に依存する。ただし、選択するルート部分の数に応じて計算時間が増加する。
【0044】
図11は、最適な検索戦略の結果を示す図である。ここでは、ルート部分として上半身が選択された。したがって、全検索イメージ中で上半身が検索され、関係を考慮して上半身を基準に左腕が検索され、左腕を基準に左手が検索されるということになる。
【0045】
最終的に階層型モデルは、物体部分モデル、部分間の関係、および最適な検索ストラテジからなる。
階層型モデルの検索
本発明に記載されたステップに従ってオフライン段階で階層型モデルが構築されると、これをオンライン段階で任意の検索イメージ中の物体を検索するのに使用することができる。本発明の好ましい実施形態では、閉塞、クラッタ、任意の照度変化、およびセンサノイズに対する強さ、ならびに高い認識精度およびリアルタイムでの計算などの、この類似尺度の特性を利用するために、(Steger、2001)に示された類似尺度を使用して、検索イメージ中の階層型モデルの物体部分モデルが検索される。階層型モデルの同じ見つけられたインスタンスに属するすべての見つけられたモデル部分のポーズは、階層マッチに格納される。
【0046】
第1のステップでは、検索イメージ中のルート物体部分が検索される。好ましい実施形態では、ルート物体部分の見つけられたそれぞれのインスタンスが、階層マッチの1つの潜在的候補を表す。代替実施形態では、見つからないかまたは閉塞されたルート物体部分のより高度な強さを保証するために、いくつかのルート物体部分が検索される。したがって、各ルート物体部分の見つけられたそれぞれのインスタンスは、階層マッチの1つの潜在的候補を表す。
【0047】
第2のステップでは、各候補について検索ツリーの順に残りの物体部分が検索され、前述のように、物体部分間の関係に従って各物体部分の検索スペースが限られる。
1つの物体部分が見つからない場合、いくつかのストラテジを適用することができる。好ましい実施形態では、検索階層中の見つからない物体部分のすぐ下にある物体部分は、検索階層中で見つからない物体部分のすぐ上にあり、すでに見つかっている物体部分を基準にして検索される。最悪の場合、相対的検索を開始するためにルート物体部分が選択される。本発明の代替実施形態では、検索階層中で見つからない物体部分のすぐ下にある物体部分は、検索労力が最小のすでに見つかっている物体部分を基準にして検索される。本発明の他の代替実施形態では、検索階層中で見つからない物体部分の下にあるすべての物体部分は検索されず、見つからないものとしても扱われる。
【0048】
1つの物体部分が複数回見つかる場合、好ましい実施形態では、現在の階層マッチ候補は見つかった物体部分のマッチ数に従って複製され、物体部分の各マッチは1つの階層マッチ候補に割り当てられる。検索は各階層マッチに対して続けられる。異なる階層マッチ候補中で同じ物体部分インスタンスに関して部分が何回も検索されるのを防ぐために、物体部分マッチは階層マッチ候補とは無関係に別々のリストに格納される。さらに、リスト中の各物体部分が検索されたときに基準となった物体部分が、リストに格納される。各階層マッチ候補は、ポインタを使用してリスト中のそれぞれの物体部分マッチを参照するだけである。検索された物体部分のマッチがすでにリストに格納されており、現在のマッチが検索されたときと同じ物体部分インスタンスを基準にして検索された場合、現在の物体部分は検索されず、リスト中のそれぞれの既存のマッチを指すポインタのみが階層マッチ候補に追加される。認識の速度を上げるために、各潜在的候補マッチの物体部分は一部だけ検索される。好ましい認識方法(R21)と同様に、ほとんどの認識方法は、返されたマッチの品質を評価するスコア値s∈「0;1」を返す。さらにユーザは、マッチが少なくとも返さなければならない最小のスコア値sminを指定することができる。本発明の好ましい実施形態では、各階層マッチについてスコア値sが以下のように計算される。
【0049】
【数9】

【0050】
上式では以下のようになる。
【0051】
【数10】

【0052】
は、認識方法によって介された物体部分iのスコアを示し(物体部分が見つからなかった、すなわちs<sminの場合、sは0に設定される)、fは、単一の物体部分のスコア値の寄与の平衡を保つ重み付け係数である。好ましい実施形態では、fは物体部分iのサイズに比例する。代替実施形態では、ユーザは各物体部分について値fを指定する。好ましい実施形態では、ユーザは階層マッチについて最小スコア値sminを指定する。したがって、以下の条件に合致すればいつでも、jのn物体部分が検索された後に、現在の潜在的階層候補マッチの検索を打切ることができる。
【0053】
【数11】

【0054】
さらに、階層マッチ候補の見つけられたインスタンスは、他の階層マッチ候補と重複しすぎていないかどうかをチェックされる。本発明の好ましい実施形態では、2つの階層マッチ候補間の重複は、両方の階層マッチ候補について、物体部分インスタンスのすべての軸に位置合わせされた最小の囲み長方形のうち、軸に位置合わせされた最小の囲み長方形を決定することによってチェックされる。これら2つの長方形が重複している場合、より精密な重複部分が算出される。第1に、両方の階層マッチ候補について、各物体部分インスタンスの任意の向きの最小の囲み長方形が決定される。長方形が結合されて、各階層マッチ候補について1つずつ2つの領域を取得する。重複部分は、2つの結合された領域の交差部分と2つの結合された領域のうち小さい方との比として計算される。重複がユーザの供給する部分を超える場合、低い方のスコア値を有する階層マッチ候補が削除される。各物体部分に関する任意の向きの最小の囲み長方形の情報は、オフライン段階で算出することができる。オンライン段階で重複をチェックする場合、物体部分マッチのポーズパラメータに従って変換するだけでよく、これによって重複部分の係数計算が容易になる。
【0055】
minを超えるスコアを有する階層マッチ候補は階層マッチと解釈され、検索の結果としてユーザに返される。好ましい実施形態では、戻されたマッチは階層型モデルの見つけられた各インスタンスについてスコア値sを含み、各階層型モデル内で見つけられた各物体部分について、サブピクセルの精密な行および列の座標、配向角度、およびスコア値sを含む。
【0056】
以上、本発明のいくつかの特定の実施形態について詳細に述べてきたが、本発明の精神および範囲を逸脱することなく、好ましい実施形態に対する様々な修正が可能である。したがって、上記の説明は、添付の特許請求の範囲に示された内容を除き、本発明を制限することを意図するものではない。

【特許請求の範囲】
【請求項1】
a)イメージの目盛り空間表現につながるイメージ平滑化と共に検索イメージをサブサンプリングすることにより前記検索イメージ中で階層型モデルのルート物体部分を検索するステップと、
b)次に下位レベルの物体階層中にある物体部分について検索スペースを構築するために、既に見つけられた物体部分のポーズを使用するステップと、前記検索スペースは、前記階層型モデルのより高いレベルにある前記既に見つけられた物体部分のポーズパラメータと、そして前記階層型モデルのより高いレベルにある前記既に見つけられた物体部分と前記次に下位レベルの物体部分との間の前記階層型モデルに記憶されている関係とから計算され、
c)前記検索スペース中で物体部分を検索し、そして階層マッチにおける前記階層型モデルの同じ見つけられたインスタンスに属するすべての見つけられたモデル部分の前記ポーズを記憶するステップと、
d)前記物体部分が見つからなかったかどうかをチェックし、このような物体部分のスコア値を減少された一定値へ設定し、そしてこのような物体部分を見つからないとして扱うステップと、
e)前記モデル階層のすべての物体部分が検索されるかまたは見つからないとみなすまで、ステップb)およびc)を反復するステップと、
f)前記階層型モデルの同じ見つけられたインスタンスに属するすべての見つけられたモデル部分の前記ポーズを含む階層マッチを提供するステップと、
を含む、階層型モデルを使用する物体認識の方法。
【請求項2】
a)イメージの目盛り空間表現につながるイメージ平滑化と共に検索イメージをサブサンプリングすることにより前記検索イメージ中で階層型モデルのルート物体部分を検索するステップと、
b)次に下位レベルの物体階層中にある物体部分について検索スペースを構築するために、既に見つけられた物体部分のポーズを使用するステップと、前記検索スペースは、前記階層型モデルのより高いレベルにある前記既に見つけられた物体部分のポーズパラメータと、そして前記階層型モデルのより高いレベルにある前記既に見つけられた物体部分と前記次に下位レベルの物体部分との間の前記階層型モデルに記憶されている関係とから計算され、
c)前記検索スペース中で物体部分を検索し、そして階層マッチにおける前記階層型モデルの同じ見つけられたインスタンスに属するすべての見つけられたモデル部分の前記ポーズを記憶するステップと、
d)各階層マッチの前記検索された物体部分のスコア値から各階層マッチに対する前記スコア値を計算し、そして定義された最小スコア値に達することができないならば階層マッチに対する前記検索を中止するステップと、
e)前記モデル階層のすべての物体部分が検索されるかまたは見つからないとみなすまで、ステップb)およびc)を反復するステップと、
f)前記階層型モデルの同じ見つけられたインスタンスに属するすべての見つけられたモデル部分の前記ポーズを含む階層マッチを提供するステップと、
を含む、階層型モデルを使用する物体認識の方法。
【請求項3】
前記ステップe)の後に、
前記検索イメージにおける前記階層マッチ間の重複を計算するステップと、2つの階層マッチの重複がユーザ定義の最大値を超えるかどうかをチェックするステップと、超える場合は、スコアの小さい階層マッチ候補を削除するステップと、を実行する、請求項1または2に記載の方法。
【請求項4】
前記ステップd)はさらに、前記検索階層中で見つからない物体部分のすぐ下にある物体部分を、前記見つからない物体部分の下にある前記検索階層において物体部分を検索することなくまた見つからないとみなすステップと、を含む、請求項1または3に記載の方法。
【請求項5】
前記ステップd)はさらに、前記検索階層において前記見つからない物体部分の上に最も近くにある前記既に見つかった物体部分に関連して前記見つからない物体部分のすぐ下にある前記検索階層中の物体部分を検索するステップと、を含む、請求項1または3に記載の方法。
【請求項6】
前記ステップd)はさらに、最小の検索スペースになる前記既に見つかった物体部分に関連して前記見つからない物体部分のすぐ下にある前記検索階層中の物体部分を検索するステップと、を含む、請求項1または3に記載の方法。
【請求項7】
前記ステップc)はさらに、
前記同じ物体部分が複数回見つかったかどうかをチェックするステップと、見つかった場合は、見つかった物体部分インスタンスの数だけ、階層マッチ候補を複製するステップと、
前記物体部分の各マッチを1つの階層マッチ候補に割り当てるステップと、
各階層マッチ候補の検索を続行するステップと、を含む、請求項1から6のいずれかに記載の方法。
【請求項8】
前記物体部分を検索するステップは、グレイ値相関に基づいた物体認識方法を類似性尺度として使用するステップを含む、請求項1から7のいずれかに記載の方法。
【請求項9】
前記物体部分を検索するステップは、幾何学的特徴に基づいた物体認識方法を類似性尺度として使用するステップを含む、請求項1から7のいずれかに記載の方法。
【請求項10】
前記物体認識方法は一般化ハフ変換に基づくものである、請求項9に記載の方法。
【請求項11】
前記物体認識方法はフィーチャとしてエッジ方向を使用する、請求項9に記載の方法。
【請求項12】
前記物体認識方法はハウスドルフ距離に基づくものである、請求項9に記載の方法。
【請求項13】
各階層マッチの前記検索された物体部分のスコア値から各階層マッチに対する前記スコア値を計算する前記ステップは、前記検索された物体部分のスコア値の重み付けされた合計として、各階層マッチのスコア値を計算するステップを含む、請求項2、3または7から12のいずれかに記載の方法。
【請求項14】
前記物体部分のサイズに従って重みが選択される、請求項13に記載の方法。
【請求項15】
ユーザによって重みが選択される、請求項13に記載の方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate


【公開番号】特開2012−212476(P2012−212476A)
【公開日】平成24年11月1日(2012.11.1)
【国際特許分類】
【出願番号】特願2012−178273(P2012−178273)
【出願日】平成24年8月10日(2012.8.10)
【分割の表示】特願2009−27572(P2009−27572)の分割
【原出願日】平成15年8月29日(2003.8.29)
【出願人】(501377162)エムヴイテック・ソフトウェア・ゲーエムベーハー (6)
【Fターム(参考)】