画像認識装置、画像認識方法及びプログラム
【課題】検出率を落とすことなく、被写体の周辺に発生する誤検出を低減できるようにする。
【解決手段】入力画像の尤度に基づいて前記入力画像が認識対象であることを判別する画像判別手段と、前記画像判別手段により判別された入力画像から、重複関係にある領域を抽出する抽出手段と、前記重複領域の重複状態を分類する分類手段と、前記尤度と前記重複状態とに基づいて前記重複領域が認識対象であることを判別する判別手段と、を備えた画像認識装置である。
【解決手段】入力画像の尤度に基づいて前記入力画像が認識対象であることを判別する画像判別手段と、前記画像判別手段により判別された入力画像から、重複関係にある領域を抽出する抽出手段と、前記重複領域の重複状態を分類する分類手段と、前記尤度と前記重複状態とに基づいて前記重複領域が認識対象であることを判別する判別手段と、を備えた画像認識装置である。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は画像認識装置、画像認識方法及びプログラムに関し、特に、画像から人物や車などの特定の被写体又は被写体の一部を検出するために用いて好適な技術に関する。
【背景技術】
【0002】
画像から特定の被写体画像を検出する技術は、画像検索、物体検知、物体認識、物体追跡など様々な分野に応用される。このような技術の例として画像の中から特に顔領域を検出する手法が非特許文献1で提案されている。この手法では、まず入力画像から矩形の小領域(以下、検出ウインドウと呼ぶ)を抽出し、この検出ウインドウ内に顔が含まれているか否かを判定する。判定は、強判別器をカスケード型に接続して構成された判別器に対して検出ウインドウを通すことで行う。全ての強判別器で被写体であると判定された場合に、検出ウインドウ内に顔があると出力し、それ以外の場合には検出ウインドウ内に顔がないと出力する。
【0003】
一方、顔よりも形状変動の大きい人の全身領域の検出に有効な手法として、矩形領域内の勾配を方向毎にヒストグラム化したHOG(Histgrams Of Oriented Gradients)を特徴量として用いる手法が非特許文献2で提案されている。なお、以下の説明では人の全身領域を人体領域と称する。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2010−176504号公報
【特許文献2】特開2004−252940号公報
【非特許文献】
【0005】
【非特許文献1】P. Viola and M. Jones, "Robust Real-time Object Detection". SECOND INTERNATIONAL WORKSHOP ON STATISTICAL AND COMPUTATIONAL THEORIES OF VISION, July 13 2001.
【非特許文献2】N.Dalal and B.Triggs : histgrams of Oriented Gradients for Human Detections(CVPR2005)
【発明の概要】
【発明が解決しようとする課題】
【0006】
以上述べてきた技術では、被写体の形状に類似するが実際には被写体ではない物体や背景を誤検出してしまうという課題がある。特に、人体検出では人体周辺の領域を誤検出しやすい。例えば、人体の一部である肩や足を誤検出してしまうことがある。これは、肩や足の形状が人体の形状(横を向いた人体の形状)に類似するためと考えられる。また、木や山など上方に丸みを帯びた形状をもつ背景の近くに人が重なった場合には、木や山まで含めた領域を人体領域として誤検出してしまうことがある。これは、木や山と人が合わさった形状が人体の形状に類似するためであると考えられる。
【0007】
これら誤検出の周辺には人体領域が存在し、その人体領域については正しく検出が行われる。このため、正しく人体領域を検出した結果と、人体ではない領域を誤検出した結果が重複する場合が多い。そこで、これらの課題に対する先行技術として、特許文献1に示す方法では、重複する検出結果があった場合に、それぞれの尤度を比較して尤度の高い方を被写体として選択するという方法が提案されている。
【0008】
しかしながら、この方法は、重複する検出結果が共に人体を正しく検出する場合にはうまくいかない。例えば、大人の前に子供がいる場合や、2人の人物が隣合わせに並んでおり、1人が他方に対して後ろに離れた距離のところにいる場合などである。これらの状況で特許文献1の手法を適用した場合、正しく検出している人体を誤検出として検出候補から削除してしまうという問題がある。
【0009】
本発明は前述の問題点に鑑み、検出率を落とすことなく、被写体の周辺に発生する誤検出を低減できるようにすることを目的としている。
【課題を解決するための手段】
【0010】
本発明の画像認識装置は、入力画像の尤度に基づいて前記入力画像が認識対象であることを判別する画像判別手段と、前記画像判別手段により判別された入力画像から、重複関係にある重複領域を抽出する抽出手段と、前記重複領域の重複状態を分類する分類手段と、前記尤度と前記重複状態とに基づいて前記重複領域が認識対象であることを判別する判別手段と、を備えたことを特徴とする。
【発明の効果】
【0011】
本発明によれば、重複する検出領域に対し、その重複状態を分類し、分類した重複状態別に重複する領域の尤度を用いて前記重複領域が所望の認識対象であるか否かを判別するようにした。すなわち、夫々の重複状態に最適な判別を行えるようにした。これにより、検出率を落とすことなく、被写体の周辺に発生する誤検出を低減することができる。
【図面の簡単な説明】
【0012】
【図1】本発明の実施形態における画像認識装置の構成例を示すブロック図である。
【図2】本発明の第1の実施形態の処理手順の一例を示すフローチャートである。
【図3】本発明の実施形態における画像内を検出ウインドウが走査する様子を説明する図である。
【図4】本発明の実施形態における人体候補領域の検出結果を示す図である。
【図5】本発明の実施形態における重複領域の抽出を示す図である。
【図6】本発明の実施形態における2つの矩形の重複状態を示す図である。
【図7】本発明の実施形態における重複状態に対応する2領域の位置関係の範囲を示す図である。
【図8】図7の重複状態の画像例を示す図である。
【図9】重複状態の分類と尤度比、大領域、小領域の判別結果の対応表を示す図である。
【図10】本発明の実施形態における検出結果を示す図である。
【図11】本発明の実施形態における判別条件の決定処理手順の一例を示すフローチャートである。
【図12】人体付近で生じる誤検出の例を示す図である。
【図13】角度θに対する領域セット数を示す図である。
【図14】比率Lに対する領域セット数を示す図である。
【図15】高頻度領域セットにおける各パラメータの範囲を示す図である。
【図16】高頻度位置関係を満たす領域セットの画像の例を示す図である。
【図17】画像IDと尤度比の対応を示す図である。
【図18】第2の実施形態の処理手順の一例を示すフローチャートである。
【図19】重複領域が3つの場合の例を示す図である。
【図20】他の実施形態における重複領域と判別処理結果との対応表を示す図である。
【発明を実施するための形態】
【0013】
(第1の実施形態)
以下に説明する実施形態では、画像から人体領域を検出する場合において、重複する候補領域に対し、その重複状態と夫々の候補領域の尤度に基づき人体領域であるか否かを判別する方法について説明する。以下、添付図面を参照して本発明の好適な実施形態を説明する。
【0014】
本実施形態における画像認識装置のブロック構成図を図1に示す。
101は、検出対象となる画像を入力する画像入力部である。102は、入力画像から数段階の縮小画像を生成する縮小画像生成部である。103は、縮小画像に検出ウインドウを設定する検出ウインドウ設定部である。104は、検出ウインドウ内に人体領域があるか否かを判別する第1の画像判別部である。105は、判定結果を元の画像の座標系に変換する判定結果変換部である。106は、判定結果のうち重複する領域を抽出する重複領域抽出部である。107は、重複領域の重複状態の分類を行う重複状態分類部である。108は、重複領域が人体領域であるか判定する第2の画像判別部である。
【0015】
本実施形態の処理の流れを図2のフローチャートで説明する。
まず、ステップS201において画像入力部101にて画像を入力する。そして、ステップS202では、縮小画像生成部102において入力画像を所定の倍率に縮小した画像データを生成する。これは、様々な大きさの人物を検出するために複数サイズの画像データに対して順次検出を行うようにするためである。
【0016】
次に、ステップS203において、ステップS202で生成した縮小画像の中から1枚を設定する。そして、ステップS204では、検出ウインドウ設定部103において、縮小画像に所定の大きさの部分領域を設定する。以降、この部分領域を検出ウインドウと呼ぶ。以降の判定処理はこの検出ウインドウに対して行う。縮小画像の全域を検出対象とするため、検出ウインドウを図3の矢印301で示すように横方向・縦方向に対して数画素刻みで走査を行う。
【0017】
次に、ステップS205では、第1の画像判別部104において、人体の認識モデルを用いて検出ウインドウ内に人体候補領域が含まれるか否かの画像判別処理を行う。この画像判別処理は、検出ウインドウの画像パターンに対し、人体の尤度を出力する認識モデルを適用して尤度を算出し、この尤度に基づき検出ウインドウの判別を行うものであればどのような方法でもよく、特に限定されるものではない。
【0018】
例えば、特許文献2では、検出ウインドウ内の複数領域から認識対象に対する尤度を取得し、これら尤度と予め設定した閾値を比較することで検出ウインドウに認識対象が含まれるか否かを判別する方法が示されており、このような方法を用いれば良い。なお、ステップS205では、検出ウインドウが人体画像であると判別された場合には、縮小画像における検出ウインドウの位置座標と、判別処理において算出する尤度を出力する。
【0019】
次に、ステップS206において、検出ウインドウが縮小画像内を全て走査したか否かを判定する。走査が終了した場合にはステップS207に進み、そうでない場合にはステップS204に戻り、ステップS204からステップS206までの処理を繰り返す。ステップS207においては、全ての縮小画像に対してステップS203からステップS206までの処理を行ったか否かを判定する。全ての縮小画像を処理した場合にはステップS208に進み、そうでない場合にはステップS203に戻り、ステップS207までの処理を繰り返す。ステップS207までの処理において縮小画像における人体候補領域が検出される。
【0020】
次に、ステップS208において、判定結果変換部105にて、ステップS205で出力した縮小画像における人体候補領域の位置座標を元の画像における座標系に変換し出力する。また、以降の処理で使用するため、各人体候補領域に対応する尤度を座標とともに保存する。以上の処理により得られた人体候補領域の例を図4に示す。図4に示す例では、6個の人体候補領域401〜406が検出されている。
【0021】
次に、ステップS209において、重複領域抽出部106にて、人体候補領域のうち領域同士が重なり合う領域の組み合わせ(以下、重複領域セットと呼ぶ)を、ステップS208にて算出した人体候補領域の座標に基づいて抽出する。抽出結果を図5に示す。図5に示す例では、2つの重複領域セット501、502が示されている。なお、本実施形態における重複とは、一部分でも重なれば重複としてもよいし、重なる領域が所定の面積以上の領域を重複するようにしてもよい。本実施形態では、図5に示すように、一方の領域が他方の領域を包含するような位置関係の領域セットを重複領域セットとして抽出している。
【0022】
ステップS210では、重複状態分類部107において、ステップS209で抽出した重複する領域同士がどのように重なり合っているかを示す重複状態を求める。ここで、重複状態とは重複領域同士の位置関係であり、ステップS210では予め定義した位置関係のどれに当てはまるかを分類する。重複領域セットの位置関係は、以下の4パラメータで定義する。また、これらの関係を図6に示す。
・2領域の左上座標を結んだ直線mと画像水平方向のなす角度θ
・大領域の幅Wbに対する直線mの長さMの比率L
・小領域の幅に対する大領域の幅の比率Rw
・小領域の高さに対する大領域の高さの比率Rh
【0023】
本実施形態では、図7に示す対応表を予め用意し、この対応表と上記4つのパラメータに基づいて、注目重複領域セットが重複状態701〜703のどれに分類されるかを決定する。図8に、図7で示す重複状態701〜703における重複領域セットの具体的な位置関係を示す。重複状態701は、人体の肩領域を誤検出する場合に頻繁にあらわれる位置関係である。重複状態702は、人体の足領域を誤検出する場合に頻繁にあらわれる位置関係である。重複状態703は、人体の頭部領域を誤検出する場合に頻繁にあらわれる位置関係である。
【0024】
なお、図7で示す3つの状態以外の重複状態は、データ量が少ないなどの問題から統計的なデータの分析が十分にできていないため、2つの領域はともに人体であると判別する。本実施形態では、図5に示す重複領域セットについて重複状態の分類を行った結果、それぞれ重複状態701に分類されたとして以降の処理を説明する。
【0025】
次に、ステップS211では、重複領域判定部108において、重複領域セットの大領域と小領域の尤度に基づいて、それぞれの領域が人体領域であるか否かを判別する。本実施形態では、図9に示す判別条件に従って大領域と小領域の判別結果を得る。この判別条件では、大領域と小領域の尤度比Rを算出し、この尤度比と閾値Ra、Rbを比較することによりそれぞれの領域の判別結果が決定される。
【0026】
なお、この判別条件については、事前に収集した大量の画像を用いて、重複領域セットの尤度比を統計的に分析することで決定する。この決定方法の詳細については後述する。以上の判別処理により、図5の2つの重複領域セット501、502はそれぞれ、分類901、903に分類されるものとして以降の説明を行う。
【0027】
ステップS211の判別処理により、図5の重複領域のうち、人体候補領域403は誤検出、人体候補領域404は人体領域、人体候補領域405、406はともに人体領域であると判定される。最終的な検出結果の例を図10に示す。人体候補領域を検出した後(図4)の時点では人物1003の肩付近に誤検出が発生しているが、ステップS209〜S211までの処理により誤検出を削除できる。また、この際、人体候補領域403、404と類似する領域関係にある人体候補領域405、406については、人物1004、1005を正しく検出することができる。
【0028】
[判別条件の決定方法]
ステップS211で用いた判別条件の決定方法について、以下では、人体付近に発生する誤検出のうち、高頻度なものを抽出し、その統計的データに基づいて判別条件を決定する方法を説明する。なお、本実施形態における判別条件とは、重複領域から算出する尤度に対して設定する条件(閾値)であるものとする。以下、図11に示すフローチャートに従って説明する。
【0029】
ステップS1101において、人体付近で発生する誤検出を抽出する。ある画像セットに対し、人体検出器(尤度を出力するものであればどのような手法によるものでもよい。)を用いて人体検出を行う。検出結果のうち、人物を正しく検出していてかつ、その人物付近に誤検出が発生する画像だけを抽出する。図12に抽出した画像の例を示す。画像1201は肩付近の領域を、画像1202は足付近の領域を、画像1203は頭部付近の領域を、それぞれ誤検出している。ここで示す例以外にも、人体付近の誤検出は様々なケースで発生する。これらの誤検出の中で、高頻度に発生する誤検出だけを次の処理ステップS1102で抽出する。
【0030】
次に、ステップS1102において、ステップS1101で抽出した人体付近の誤検出について、頻繁に発生する誤検出だけを抽出し、その場合の人体全体の領域と誤検出領域の位置関係(以下、高頻度位置関係と呼ぶ)を取得する。まず、ステップS1101で抽出した領域セットについて、ステップS210で定義した4パラメータ(2領域のなす角度θ、大領域の幅に対する直線mの比率L、幅の比率Rw、高さの比率Rh)を算出する。次に、角度θだけに注目して領域セットのヒストグラムを生成する。ヒストグラムの例を図13に示す。このヒストグラムでは、角度θ1、θ2、θ3の頻度が高い。本実施形態では、最も頻度の高い角度θ1(以下、高頻度角度と呼ぶ)について注目する。
【0031】
次に、前記高頻度角度として決定した角度の範囲に該当する領域セットについて、比率Lに注目し、領域セットのヒストグラムを生成する。生成したヒストグラムの例を図14に示す。このヒストグラムにおいて頻度の高い比率L1を高頻度比率として決定する。次に、同様の手順により高頻度比率L1付近の領域セットについて、比率Rwの高頻度比率Rw1を、更に幅の比率がRw1付近の領域セットについて比率Rhの高頻度比率Rh1を決定する。以上のようにして求めた領域セットの高頻度位置関係θ1、L1、Rw1、Rh1を図15に示す。
【0032】
次に、ステップS1103において、ステップS1101で抽出した領域セットのなかで、上記4つのパラメータがステップS1102で取得した高頻度位置関係を満たすものを抽出する。そして、ステップS1104では、ステップS1103で抽出した領域セットについて、大領域と小領域とがそれぞれ人体を検出したのか、そうではなく誤検出なのか、という検出状況を分類する。この分類項目は、ステップS1103で取得した検出結果に基づいて行う。
【0033】
例えば、2つの重複する検出結果が本実施例で示す高頻度位置関係を満たす場合、図16の画像1601〜1603に示す3通りが代表的な例として確認できる。画像1601は、大領域は人体を検出しているが小領域が肩を誤検出している例、画像1602は、大領域、小領域ともに人体を正しく検出している例、画像1603は、大領域が木を誤検出し、小領域人体を検出している例である。これらの3分類をまとめると、以下のようになる。
分類a.大領域:人体を検出、小領域:誤検出
分類b.大領域:誤検出、小領域:人体を検出
分類c.大領域:人体を検出、小領域:人体を検出
【0034】
なお、この画像分類方法は、評価画像に対して予め人物の正解座標を入力しておけば、自動的に分類を行うことが可能となる。
【0035】
次に、ステップS1105において、ステップS1103で抽出した領域セットについて大領域の尤度と小領域の尤度とから、小領域に対する大領域の尤度比を算出する。そして、ステップS1106において、分類条件を決定する。分類条件は、ステップS1105において算出した尤度比をグラフにプロットして図17に示すグラフを作成し、分類a、b、cを分離する境界線を求めることで決定する。以下、分類aと分類bの分離度をCab、分類bと分類cの分離度をCbc、分類aと分類cの分離度をCac、と定義する。ここで分離度Cは、2つの集合があった場合に、境界により分離できない要素の数h、2つの集合内の全要素数kとした場合に、以下の式(1)で表すことができる。
【0036】
【数1】
【0037】
ここで、h=0の場合、すなわち2つの集合を全て分離できる場合に分離度C=1.0となり、分離度合いが低い程Cの値は低くなる。本実施形態では、式(1)で定義する分離度が、以下の式(2)、(3)を満たす値Th1、Th2を探索し、これを分類条件における閾値とする。
【0038】
【数2】
【0039】
【数3】
【0040】
式(2)、(3)において、Nabは分類aに含まれる画像数と分類bに含まれる画像数との合算値であり、同様にNbcは分類bに含まれる画像数と分類cに含まれる画像数との合算値となる。y(a,i)はある画像iが分類aに含まれる場合に1を返し、そうでない場合に0を返す。同様に、y(b,i)、y(c,i)はそれぞれ画像iが分類bに含まれる場合と分類cに含まれる場合に1を返し、そうでない場合に0を返す。また、L(a,i)は、分類aに含まれる画像iの尤度比であり、L(b,i)、L(c,i)も同様に分類b、cに含まれる画像iの尤度比となる。
【0041】
すなわち、式(2)における和の部分は、分類aに含まれ、その尤度比がkより小さい画像の総数であり、2つの和の部分は、尤度比に対する境界値をkとした場合に、分類a、bそれぞれにおいて正しく分類できない画像総数を意味する。つまり、分数の値は尤度比に対する境界値をkとした場合の分類a、bに対する分離度となる。最終的にはこれを定数c(例えば0.9)と比較し、条件を満たすうち最大の値となるkを閾値Th1として決定する。式(2)を用いれば同様に閾値Th2を決定することができる。
【0042】
なお、ステップS1102において、頻繁に発生する誤検出だけを抽出する理由としては、全ての誤検出で本実施形態の手法を適用した場合、分類数が膨大となり処理が複雑になってしまうためである。また、頻度が低い誤検出については統計的データによる信憑性が得られず、精度を保証することができないという別の理由もある。
【0043】
以上説明した実施形態では、特定の重複関係にある人体候補領域に対し、尤度比を用いて人体候補領域が誤検出であるか否かを判定することで、所望の認識対象である人体領域の検出率を落とさずに誤検出の数を減らすことが可能となる。
【0044】
(第2の実施形態)
第1の実施形態では、ステップS211において、重複領域の尤度比に対して閾値を設定し、その大小関係から重複領域の判定を行った。本実施形態では、この代替方法として重複領域の重複状態を入力とし、重複領域の判定結果を出力する判別器(認識モデル)を用いて判定を行う。以下、第1の実施形態と異なる部分についてのみ説明する。
【0045】
以下、この場合の説明を図18のフローチャートを用いて説明する。なお、図18では、前述の実施形態と同様の処理のステップは同一番号を付与して説明を省略する。
ステップS1801においては、図4に示す人体候補領域401〜406のうち、重複する領域セットを抽出する。そして、この領域から重複状態を表す情報として、ステップS210で定義した4パラメータ(2領域のなす角度θ、大領域の幅に対する直線mの比率L、幅の比率Rw、高さの比率Rh)を算出する。
【0046】
次に、ステップS1802では、ステップS1801において算出した4パラメータ(θ、L、Rw、Rh)と領域セットの尤度を入力とし、領域セットに誤検出が含まれるか否かを出力する判別器を用いて誤検出有無の判定を行う。判別器は、例えばSVM(サポートベクターマシン)のような分類器により、予め用意した大量の画像データに基づき作成したものを用いればよい。
【0047】
なお、分類器として2クラス分類器を使用する場合、以下の3つの2クラス分類器を生成し、これらを順番に適用すればよい。
・ステップS1104の分類aであるか否かを判定する分類器
・ステップS1104の分類bであるか否かを判定する分類器
・ステップS1104の分類cであるか否かを判定する分類器
【0048】
一方、分類器として多クラス分類器を使用する場合には、ステップS1104の分類a、b、cに対応する3つのクラスに分類を行う分類器を作成すればよい。
【0049】
(その他の実施形態)
以上の説明ではステップS209において重複する領域を2つの場合について説明したが、3つ以上の場合においても同様に本提案手法を用いることができる。以下で候補領域が3つの場合の方法を2つ説明する。図19に3つの候補領域の例として領域1901〜1903を示す。
【0050】
1つ目の方法としては、3つのペアを順番に処理し、一度でも誤検出であると判定された領域については、その領域を候補領域から削除し、以降は残っている候補領域のペアだけを処理する。まず、2つの領域同士のペアを作成する。図19では、PAB、PBC、PACの3つのペアが作成される。なお、PABが領域1901と領域1902とのペア、PBCが領域1902と領域1903とのペア、PACが領域1901と領域1903とのペアを示す。
【0051】
次に、3つのペアに対し、本実施形態で示した方法を用いて誤検出領域があるか否の判定処理を行う。そして、1度でも誤検出であると判定された場合、その領域は以降のペアに対する判別処理は実行しないようにする。例えば、PABの判別処理、PBCの判別処理、PCAの判別処理、の順番で判別処理を行う場合に、PABの判別処理において領域1901が誤検出であると判定された場合、この時点で領域1901は誤検出であると判断し、候補領域から削除する。これにより、3番目に行うはずであったPCAの判別処理を省略する。
【0052】
2つ目の方法としては、全てのペアについて誤検出判別処理を行い、その結果を投票することで最終的な判定を行う。まず重複するペアPAB、PBC、PACそれぞれについて、本実施形態で示した方法を用いて重複ペアに対して誤検出判別処理を行う。次に、領域1901〜1903について、誤検出判別処理の結果を投票形式で集計し、この投票結果を最終的な判別結果とする。例えば、集計結果が図20に示すような場合、領域1901は誤検出が2票、人体が0票なので誤検出であると判定し、同様に領域1902、1903は人体領域であると判定することができる。
【0053】
なお、2つ目の方法では、誤検出判別処理の結果を、各領域が人体領域であるか誤検出であるかの2値を出力する場合について説明しているが、誤検出判別処理の結果を人体領域の尤度として出力するようにしてもよい。この場合、出力される尤度を集計し、さらに集計した尤度に対して閾値を設定することにより各領域が人体領域であるか、あるいは誤検出領域であるかを判別することができる。
【0054】
以上より、重複関係にある人体候補領域について、尤度比と重複情報に基づき誤検出の有無を判別する判別器を使用することにより、人体候補領域にある誤検出を特定して候補領域から削除することが可能となる。また、重複関係がある領域が3つ以上の場合についても同様に誤検出領域を判別することができる。
【0055】
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
【符号の説明】
【0056】
101 画像入力部
102 縮小画像生成部
103 検出ウインドウ設定部
104 第1の画像判別部
105 判定結果変換部
106 重複領域抽出部
107 重複状態分類部
108 第2の画像判別部
【技術分野】
【0001】
本発明は画像認識装置、画像認識方法及びプログラムに関し、特に、画像から人物や車などの特定の被写体又は被写体の一部を検出するために用いて好適な技術に関する。
【背景技術】
【0002】
画像から特定の被写体画像を検出する技術は、画像検索、物体検知、物体認識、物体追跡など様々な分野に応用される。このような技術の例として画像の中から特に顔領域を検出する手法が非特許文献1で提案されている。この手法では、まず入力画像から矩形の小領域(以下、検出ウインドウと呼ぶ)を抽出し、この検出ウインドウ内に顔が含まれているか否かを判定する。判定は、強判別器をカスケード型に接続して構成された判別器に対して検出ウインドウを通すことで行う。全ての強判別器で被写体であると判定された場合に、検出ウインドウ内に顔があると出力し、それ以外の場合には検出ウインドウ内に顔がないと出力する。
【0003】
一方、顔よりも形状変動の大きい人の全身領域の検出に有効な手法として、矩形領域内の勾配を方向毎にヒストグラム化したHOG(Histgrams Of Oriented Gradients)を特徴量として用いる手法が非特許文献2で提案されている。なお、以下の説明では人の全身領域を人体領域と称する。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2010−176504号公報
【特許文献2】特開2004−252940号公報
【非特許文献】
【0005】
【非特許文献1】P. Viola and M. Jones, "Robust Real-time Object Detection". SECOND INTERNATIONAL WORKSHOP ON STATISTICAL AND COMPUTATIONAL THEORIES OF VISION, July 13 2001.
【非特許文献2】N.Dalal and B.Triggs : histgrams of Oriented Gradients for Human Detections(CVPR2005)
【発明の概要】
【発明が解決しようとする課題】
【0006】
以上述べてきた技術では、被写体の形状に類似するが実際には被写体ではない物体や背景を誤検出してしまうという課題がある。特に、人体検出では人体周辺の領域を誤検出しやすい。例えば、人体の一部である肩や足を誤検出してしまうことがある。これは、肩や足の形状が人体の形状(横を向いた人体の形状)に類似するためと考えられる。また、木や山など上方に丸みを帯びた形状をもつ背景の近くに人が重なった場合には、木や山まで含めた領域を人体領域として誤検出してしまうことがある。これは、木や山と人が合わさった形状が人体の形状に類似するためであると考えられる。
【0007】
これら誤検出の周辺には人体領域が存在し、その人体領域については正しく検出が行われる。このため、正しく人体領域を検出した結果と、人体ではない領域を誤検出した結果が重複する場合が多い。そこで、これらの課題に対する先行技術として、特許文献1に示す方法では、重複する検出結果があった場合に、それぞれの尤度を比較して尤度の高い方を被写体として選択するという方法が提案されている。
【0008】
しかしながら、この方法は、重複する検出結果が共に人体を正しく検出する場合にはうまくいかない。例えば、大人の前に子供がいる場合や、2人の人物が隣合わせに並んでおり、1人が他方に対して後ろに離れた距離のところにいる場合などである。これらの状況で特許文献1の手法を適用した場合、正しく検出している人体を誤検出として検出候補から削除してしまうという問題がある。
【0009】
本発明は前述の問題点に鑑み、検出率を落とすことなく、被写体の周辺に発生する誤検出を低減できるようにすることを目的としている。
【課題を解決するための手段】
【0010】
本発明の画像認識装置は、入力画像の尤度に基づいて前記入力画像が認識対象であることを判別する画像判別手段と、前記画像判別手段により判別された入力画像から、重複関係にある重複領域を抽出する抽出手段と、前記重複領域の重複状態を分類する分類手段と、前記尤度と前記重複状態とに基づいて前記重複領域が認識対象であることを判別する判別手段と、を備えたことを特徴とする。
【発明の効果】
【0011】
本発明によれば、重複する検出領域に対し、その重複状態を分類し、分類した重複状態別に重複する領域の尤度を用いて前記重複領域が所望の認識対象であるか否かを判別するようにした。すなわち、夫々の重複状態に最適な判別を行えるようにした。これにより、検出率を落とすことなく、被写体の周辺に発生する誤検出を低減することができる。
【図面の簡単な説明】
【0012】
【図1】本発明の実施形態における画像認識装置の構成例を示すブロック図である。
【図2】本発明の第1の実施形態の処理手順の一例を示すフローチャートである。
【図3】本発明の実施形態における画像内を検出ウインドウが走査する様子を説明する図である。
【図4】本発明の実施形態における人体候補領域の検出結果を示す図である。
【図5】本発明の実施形態における重複領域の抽出を示す図である。
【図6】本発明の実施形態における2つの矩形の重複状態を示す図である。
【図7】本発明の実施形態における重複状態に対応する2領域の位置関係の範囲を示す図である。
【図8】図7の重複状態の画像例を示す図である。
【図9】重複状態の分類と尤度比、大領域、小領域の判別結果の対応表を示す図である。
【図10】本発明の実施形態における検出結果を示す図である。
【図11】本発明の実施形態における判別条件の決定処理手順の一例を示すフローチャートである。
【図12】人体付近で生じる誤検出の例を示す図である。
【図13】角度θに対する領域セット数を示す図である。
【図14】比率Lに対する領域セット数を示す図である。
【図15】高頻度領域セットにおける各パラメータの範囲を示す図である。
【図16】高頻度位置関係を満たす領域セットの画像の例を示す図である。
【図17】画像IDと尤度比の対応を示す図である。
【図18】第2の実施形態の処理手順の一例を示すフローチャートである。
【図19】重複領域が3つの場合の例を示す図である。
【図20】他の実施形態における重複領域と判別処理結果との対応表を示す図である。
【発明を実施するための形態】
【0013】
(第1の実施形態)
以下に説明する実施形態では、画像から人体領域を検出する場合において、重複する候補領域に対し、その重複状態と夫々の候補領域の尤度に基づき人体領域であるか否かを判別する方法について説明する。以下、添付図面を参照して本発明の好適な実施形態を説明する。
【0014】
本実施形態における画像認識装置のブロック構成図を図1に示す。
101は、検出対象となる画像を入力する画像入力部である。102は、入力画像から数段階の縮小画像を生成する縮小画像生成部である。103は、縮小画像に検出ウインドウを設定する検出ウインドウ設定部である。104は、検出ウインドウ内に人体領域があるか否かを判別する第1の画像判別部である。105は、判定結果を元の画像の座標系に変換する判定結果変換部である。106は、判定結果のうち重複する領域を抽出する重複領域抽出部である。107は、重複領域の重複状態の分類を行う重複状態分類部である。108は、重複領域が人体領域であるか判定する第2の画像判別部である。
【0015】
本実施形態の処理の流れを図2のフローチャートで説明する。
まず、ステップS201において画像入力部101にて画像を入力する。そして、ステップS202では、縮小画像生成部102において入力画像を所定の倍率に縮小した画像データを生成する。これは、様々な大きさの人物を検出するために複数サイズの画像データに対して順次検出を行うようにするためである。
【0016】
次に、ステップS203において、ステップS202で生成した縮小画像の中から1枚を設定する。そして、ステップS204では、検出ウインドウ設定部103において、縮小画像に所定の大きさの部分領域を設定する。以降、この部分領域を検出ウインドウと呼ぶ。以降の判定処理はこの検出ウインドウに対して行う。縮小画像の全域を検出対象とするため、検出ウインドウを図3の矢印301で示すように横方向・縦方向に対して数画素刻みで走査を行う。
【0017】
次に、ステップS205では、第1の画像判別部104において、人体の認識モデルを用いて検出ウインドウ内に人体候補領域が含まれるか否かの画像判別処理を行う。この画像判別処理は、検出ウインドウの画像パターンに対し、人体の尤度を出力する認識モデルを適用して尤度を算出し、この尤度に基づき検出ウインドウの判別を行うものであればどのような方法でもよく、特に限定されるものではない。
【0018】
例えば、特許文献2では、検出ウインドウ内の複数領域から認識対象に対する尤度を取得し、これら尤度と予め設定した閾値を比較することで検出ウインドウに認識対象が含まれるか否かを判別する方法が示されており、このような方法を用いれば良い。なお、ステップS205では、検出ウインドウが人体画像であると判別された場合には、縮小画像における検出ウインドウの位置座標と、判別処理において算出する尤度を出力する。
【0019】
次に、ステップS206において、検出ウインドウが縮小画像内を全て走査したか否かを判定する。走査が終了した場合にはステップS207に進み、そうでない場合にはステップS204に戻り、ステップS204からステップS206までの処理を繰り返す。ステップS207においては、全ての縮小画像に対してステップS203からステップS206までの処理を行ったか否かを判定する。全ての縮小画像を処理した場合にはステップS208に進み、そうでない場合にはステップS203に戻り、ステップS207までの処理を繰り返す。ステップS207までの処理において縮小画像における人体候補領域が検出される。
【0020】
次に、ステップS208において、判定結果変換部105にて、ステップS205で出力した縮小画像における人体候補領域の位置座標を元の画像における座標系に変換し出力する。また、以降の処理で使用するため、各人体候補領域に対応する尤度を座標とともに保存する。以上の処理により得られた人体候補領域の例を図4に示す。図4に示す例では、6個の人体候補領域401〜406が検出されている。
【0021】
次に、ステップS209において、重複領域抽出部106にて、人体候補領域のうち領域同士が重なり合う領域の組み合わせ(以下、重複領域セットと呼ぶ)を、ステップS208にて算出した人体候補領域の座標に基づいて抽出する。抽出結果を図5に示す。図5に示す例では、2つの重複領域セット501、502が示されている。なお、本実施形態における重複とは、一部分でも重なれば重複としてもよいし、重なる領域が所定の面積以上の領域を重複するようにしてもよい。本実施形態では、図5に示すように、一方の領域が他方の領域を包含するような位置関係の領域セットを重複領域セットとして抽出している。
【0022】
ステップS210では、重複状態分類部107において、ステップS209で抽出した重複する領域同士がどのように重なり合っているかを示す重複状態を求める。ここで、重複状態とは重複領域同士の位置関係であり、ステップS210では予め定義した位置関係のどれに当てはまるかを分類する。重複領域セットの位置関係は、以下の4パラメータで定義する。また、これらの関係を図6に示す。
・2領域の左上座標を結んだ直線mと画像水平方向のなす角度θ
・大領域の幅Wbに対する直線mの長さMの比率L
・小領域の幅に対する大領域の幅の比率Rw
・小領域の高さに対する大領域の高さの比率Rh
【0023】
本実施形態では、図7に示す対応表を予め用意し、この対応表と上記4つのパラメータに基づいて、注目重複領域セットが重複状態701〜703のどれに分類されるかを決定する。図8に、図7で示す重複状態701〜703における重複領域セットの具体的な位置関係を示す。重複状態701は、人体の肩領域を誤検出する場合に頻繁にあらわれる位置関係である。重複状態702は、人体の足領域を誤検出する場合に頻繁にあらわれる位置関係である。重複状態703は、人体の頭部領域を誤検出する場合に頻繁にあらわれる位置関係である。
【0024】
なお、図7で示す3つの状態以外の重複状態は、データ量が少ないなどの問題から統計的なデータの分析が十分にできていないため、2つの領域はともに人体であると判別する。本実施形態では、図5に示す重複領域セットについて重複状態の分類を行った結果、それぞれ重複状態701に分類されたとして以降の処理を説明する。
【0025】
次に、ステップS211では、重複領域判定部108において、重複領域セットの大領域と小領域の尤度に基づいて、それぞれの領域が人体領域であるか否かを判別する。本実施形態では、図9に示す判別条件に従って大領域と小領域の判別結果を得る。この判別条件では、大領域と小領域の尤度比Rを算出し、この尤度比と閾値Ra、Rbを比較することによりそれぞれの領域の判別結果が決定される。
【0026】
なお、この判別条件については、事前に収集した大量の画像を用いて、重複領域セットの尤度比を統計的に分析することで決定する。この決定方法の詳細については後述する。以上の判別処理により、図5の2つの重複領域セット501、502はそれぞれ、分類901、903に分類されるものとして以降の説明を行う。
【0027】
ステップS211の判別処理により、図5の重複領域のうち、人体候補領域403は誤検出、人体候補領域404は人体領域、人体候補領域405、406はともに人体領域であると判定される。最終的な検出結果の例を図10に示す。人体候補領域を検出した後(図4)の時点では人物1003の肩付近に誤検出が発生しているが、ステップS209〜S211までの処理により誤検出を削除できる。また、この際、人体候補領域403、404と類似する領域関係にある人体候補領域405、406については、人物1004、1005を正しく検出することができる。
【0028】
[判別条件の決定方法]
ステップS211で用いた判別条件の決定方法について、以下では、人体付近に発生する誤検出のうち、高頻度なものを抽出し、その統計的データに基づいて判別条件を決定する方法を説明する。なお、本実施形態における判別条件とは、重複領域から算出する尤度に対して設定する条件(閾値)であるものとする。以下、図11に示すフローチャートに従って説明する。
【0029】
ステップS1101において、人体付近で発生する誤検出を抽出する。ある画像セットに対し、人体検出器(尤度を出力するものであればどのような手法によるものでもよい。)を用いて人体検出を行う。検出結果のうち、人物を正しく検出していてかつ、その人物付近に誤検出が発生する画像だけを抽出する。図12に抽出した画像の例を示す。画像1201は肩付近の領域を、画像1202は足付近の領域を、画像1203は頭部付近の領域を、それぞれ誤検出している。ここで示す例以外にも、人体付近の誤検出は様々なケースで発生する。これらの誤検出の中で、高頻度に発生する誤検出だけを次の処理ステップS1102で抽出する。
【0030】
次に、ステップS1102において、ステップS1101で抽出した人体付近の誤検出について、頻繁に発生する誤検出だけを抽出し、その場合の人体全体の領域と誤検出領域の位置関係(以下、高頻度位置関係と呼ぶ)を取得する。まず、ステップS1101で抽出した領域セットについて、ステップS210で定義した4パラメータ(2領域のなす角度θ、大領域の幅に対する直線mの比率L、幅の比率Rw、高さの比率Rh)を算出する。次に、角度θだけに注目して領域セットのヒストグラムを生成する。ヒストグラムの例を図13に示す。このヒストグラムでは、角度θ1、θ2、θ3の頻度が高い。本実施形態では、最も頻度の高い角度θ1(以下、高頻度角度と呼ぶ)について注目する。
【0031】
次に、前記高頻度角度として決定した角度の範囲に該当する領域セットについて、比率Lに注目し、領域セットのヒストグラムを生成する。生成したヒストグラムの例を図14に示す。このヒストグラムにおいて頻度の高い比率L1を高頻度比率として決定する。次に、同様の手順により高頻度比率L1付近の領域セットについて、比率Rwの高頻度比率Rw1を、更に幅の比率がRw1付近の領域セットについて比率Rhの高頻度比率Rh1を決定する。以上のようにして求めた領域セットの高頻度位置関係θ1、L1、Rw1、Rh1を図15に示す。
【0032】
次に、ステップS1103において、ステップS1101で抽出した領域セットのなかで、上記4つのパラメータがステップS1102で取得した高頻度位置関係を満たすものを抽出する。そして、ステップS1104では、ステップS1103で抽出した領域セットについて、大領域と小領域とがそれぞれ人体を検出したのか、そうではなく誤検出なのか、という検出状況を分類する。この分類項目は、ステップS1103で取得した検出結果に基づいて行う。
【0033】
例えば、2つの重複する検出結果が本実施例で示す高頻度位置関係を満たす場合、図16の画像1601〜1603に示す3通りが代表的な例として確認できる。画像1601は、大領域は人体を検出しているが小領域が肩を誤検出している例、画像1602は、大領域、小領域ともに人体を正しく検出している例、画像1603は、大領域が木を誤検出し、小領域人体を検出している例である。これらの3分類をまとめると、以下のようになる。
分類a.大領域:人体を検出、小領域:誤検出
分類b.大領域:誤検出、小領域:人体を検出
分類c.大領域:人体を検出、小領域:人体を検出
【0034】
なお、この画像分類方法は、評価画像に対して予め人物の正解座標を入力しておけば、自動的に分類を行うことが可能となる。
【0035】
次に、ステップS1105において、ステップS1103で抽出した領域セットについて大領域の尤度と小領域の尤度とから、小領域に対する大領域の尤度比を算出する。そして、ステップS1106において、分類条件を決定する。分類条件は、ステップS1105において算出した尤度比をグラフにプロットして図17に示すグラフを作成し、分類a、b、cを分離する境界線を求めることで決定する。以下、分類aと分類bの分離度をCab、分類bと分類cの分離度をCbc、分類aと分類cの分離度をCac、と定義する。ここで分離度Cは、2つの集合があった場合に、境界により分離できない要素の数h、2つの集合内の全要素数kとした場合に、以下の式(1)で表すことができる。
【0036】
【数1】
【0037】
ここで、h=0の場合、すなわち2つの集合を全て分離できる場合に分離度C=1.0となり、分離度合いが低い程Cの値は低くなる。本実施形態では、式(1)で定義する分離度が、以下の式(2)、(3)を満たす値Th1、Th2を探索し、これを分類条件における閾値とする。
【0038】
【数2】
【0039】
【数3】
【0040】
式(2)、(3)において、Nabは分類aに含まれる画像数と分類bに含まれる画像数との合算値であり、同様にNbcは分類bに含まれる画像数と分類cに含まれる画像数との合算値となる。y(a,i)はある画像iが分類aに含まれる場合に1を返し、そうでない場合に0を返す。同様に、y(b,i)、y(c,i)はそれぞれ画像iが分類bに含まれる場合と分類cに含まれる場合に1を返し、そうでない場合に0を返す。また、L(a,i)は、分類aに含まれる画像iの尤度比であり、L(b,i)、L(c,i)も同様に分類b、cに含まれる画像iの尤度比となる。
【0041】
すなわち、式(2)における和の部分は、分類aに含まれ、その尤度比がkより小さい画像の総数であり、2つの和の部分は、尤度比に対する境界値をkとした場合に、分類a、bそれぞれにおいて正しく分類できない画像総数を意味する。つまり、分数の値は尤度比に対する境界値をkとした場合の分類a、bに対する分離度となる。最終的にはこれを定数c(例えば0.9)と比較し、条件を満たすうち最大の値となるkを閾値Th1として決定する。式(2)を用いれば同様に閾値Th2を決定することができる。
【0042】
なお、ステップS1102において、頻繁に発生する誤検出だけを抽出する理由としては、全ての誤検出で本実施形態の手法を適用した場合、分類数が膨大となり処理が複雑になってしまうためである。また、頻度が低い誤検出については統計的データによる信憑性が得られず、精度を保証することができないという別の理由もある。
【0043】
以上説明した実施形態では、特定の重複関係にある人体候補領域に対し、尤度比を用いて人体候補領域が誤検出であるか否かを判定することで、所望の認識対象である人体領域の検出率を落とさずに誤検出の数を減らすことが可能となる。
【0044】
(第2の実施形態)
第1の実施形態では、ステップS211において、重複領域の尤度比に対して閾値を設定し、その大小関係から重複領域の判定を行った。本実施形態では、この代替方法として重複領域の重複状態を入力とし、重複領域の判定結果を出力する判別器(認識モデル)を用いて判定を行う。以下、第1の実施形態と異なる部分についてのみ説明する。
【0045】
以下、この場合の説明を図18のフローチャートを用いて説明する。なお、図18では、前述の実施形態と同様の処理のステップは同一番号を付与して説明を省略する。
ステップS1801においては、図4に示す人体候補領域401〜406のうち、重複する領域セットを抽出する。そして、この領域から重複状態を表す情報として、ステップS210で定義した4パラメータ(2領域のなす角度θ、大領域の幅に対する直線mの比率L、幅の比率Rw、高さの比率Rh)を算出する。
【0046】
次に、ステップS1802では、ステップS1801において算出した4パラメータ(θ、L、Rw、Rh)と領域セットの尤度を入力とし、領域セットに誤検出が含まれるか否かを出力する判別器を用いて誤検出有無の判定を行う。判別器は、例えばSVM(サポートベクターマシン)のような分類器により、予め用意した大量の画像データに基づき作成したものを用いればよい。
【0047】
なお、分類器として2クラス分類器を使用する場合、以下の3つの2クラス分類器を生成し、これらを順番に適用すればよい。
・ステップS1104の分類aであるか否かを判定する分類器
・ステップS1104の分類bであるか否かを判定する分類器
・ステップS1104の分類cであるか否かを判定する分類器
【0048】
一方、分類器として多クラス分類器を使用する場合には、ステップS1104の分類a、b、cに対応する3つのクラスに分類を行う分類器を作成すればよい。
【0049】
(その他の実施形態)
以上の説明ではステップS209において重複する領域を2つの場合について説明したが、3つ以上の場合においても同様に本提案手法を用いることができる。以下で候補領域が3つの場合の方法を2つ説明する。図19に3つの候補領域の例として領域1901〜1903を示す。
【0050】
1つ目の方法としては、3つのペアを順番に処理し、一度でも誤検出であると判定された領域については、その領域を候補領域から削除し、以降は残っている候補領域のペアだけを処理する。まず、2つの領域同士のペアを作成する。図19では、PAB、PBC、PACの3つのペアが作成される。なお、PABが領域1901と領域1902とのペア、PBCが領域1902と領域1903とのペア、PACが領域1901と領域1903とのペアを示す。
【0051】
次に、3つのペアに対し、本実施形態で示した方法を用いて誤検出領域があるか否の判定処理を行う。そして、1度でも誤検出であると判定された場合、その領域は以降のペアに対する判別処理は実行しないようにする。例えば、PABの判別処理、PBCの判別処理、PCAの判別処理、の順番で判別処理を行う場合に、PABの判別処理において領域1901が誤検出であると判定された場合、この時点で領域1901は誤検出であると判断し、候補領域から削除する。これにより、3番目に行うはずであったPCAの判別処理を省略する。
【0052】
2つ目の方法としては、全てのペアについて誤検出判別処理を行い、その結果を投票することで最終的な判定を行う。まず重複するペアPAB、PBC、PACそれぞれについて、本実施形態で示した方法を用いて重複ペアに対して誤検出判別処理を行う。次に、領域1901〜1903について、誤検出判別処理の結果を投票形式で集計し、この投票結果を最終的な判別結果とする。例えば、集計結果が図20に示すような場合、領域1901は誤検出が2票、人体が0票なので誤検出であると判定し、同様に領域1902、1903は人体領域であると判定することができる。
【0053】
なお、2つ目の方法では、誤検出判別処理の結果を、各領域が人体領域であるか誤検出であるかの2値を出力する場合について説明しているが、誤検出判別処理の結果を人体領域の尤度として出力するようにしてもよい。この場合、出力される尤度を集計し、さらに集計した尤度に対して閾値を設定することにより各領域が人体領域であるか、あるいは誤検出領域であるかを判別することができる。
【0054】
以上より、重複関係にある人体候補領域について、尤度比と重複情報に基づき誤検出の有無を判別する判別器を使用することにより、人体候補領域にある誤検出を特定して候補領域から削除することが可能となる。また、重複関係がある領域が3つ以上の場合についても同様に誤検出領域を判別することができる。
【0055】
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
【符号の説明】
【0056】
101 画像入力部
102 縮小画像生成部
103 検出ウインドウ設定部
104 第1の画像判別部
105 判定結果変換部
106 重複領域抽出部
107 重複状態分類部
108 第2の画像判別部
【特許請求の範囲】
【請求項1】
入力画像の尤度に基づいて前記入力画像が認識対象であることを判別する画像判別手段と、
前記画像判別手段により判別された入力画像から、重複関係にある重複領域を抽出する抽出手段と、
前記重複領域の重複状態を分類する分類手段と、
前記尤度と前記重複状態とに基づいて前記重複領域が認識対象であることを判別する判別手段と、
を備えたことを特徴とする画像認識装置。
【請求項2】
前記判別手段は、重複状態に応じて決まる閾値と重複領域における尤度とを比較することにより、重複領域が認識対象であるか否かを出力すること、を特徴とする請求項1記載の画像認識装置。
【請求項3】
前記重複領域の重複状態とは、前記抽出手段により抽出された重複領域同士の位置関係であることを特徴とする請求項2記載の画像認識装置。
【請求項4】
前記位置関係とは、前記重複領域同士の方向、位置ずれ、及び大きさの比であらわされることを特徴とする請求項3記載の画像認識装置。
【請求項5】
入力画像の尤度に基づいて前記入力画像が認識対象であることを判別する画像判別工程と、
前記画像判別工程において判別された入力画像から、重複関係にある重複領域を抽出する抽出工程と、
前記重複領域の重複状態を分類する分類工程と、
前記尤度と前記重複状態とに基づいて前記重複領域が認識対象であることを判別する判別工程と、
を備えたことを特徴とする画像認識方法。
【請求項6】
請求項5記載の画像認識方法の各工程をコンピュータに実行させるためのプログラム。
【請求項1】
入力画像の尤度に基づいて前記入力画像が認識対象であることを判別する画像判別手段と、
前記画像判別手段により判別された入力画像から、重複関係にある重複領域を抽出する抽出手段と、
前記重複領域の重複状態を分類する分類手段と、
前記尤度と前記重複状態とに基づいて前記重複領域が認識対象であることを判別する判別手段と、
を備えたことを特徴とする画像認識装置。
【請求項2】
前記判別手段は、重複状態に応じて決まる閾値と重複領域における尤度とを比較することにより、重複領域が認識対象であるか否かを出力すること、を特徴とする請求項1記載の画像認識装置。
【請求項3】
前記重複領域の重複状態とは、前記抽出手段により抽出された重複領域同士の位置関係であることを特徴とする請求項2記載の画像認識装置。
【請求項4】
前記位置関係とは、前記重複領域同士の方向、位置ずれ、及び大きさの比であらわされることを特徴とする請求項3記載の画像認識装置。
【請求項5】
入力画像の尤度に基づいて前記入力画像が認識対象であることを判別する画像判別工程と、
前記画像判別工程において判別された入力画像から、重複関係にある重複領域を抽出する抽出工程と、
前記重複領域の重複状態を分類する分類工程と、
前記尤度と前記重複状態とに基づいて前記重複領域が認識対象であることを判別する判別工程と、
を備えたことを特徴とする画像認識方法。
【請求項6】
請求項5記載の画像認識方法の各工程をコンピュータに実行させるためのプログラム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図19】
【図20】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図19】
【図20】
【公開番号】特開2013−61802(P2013−61802A)
【公開日】平成25年4月4日(2013.4.4)
【国際特許分類】
【出願番号】特願2011−199880(P2011−199880)
【出願日】平成23年9月13日(2011.9.13)
【出願人】(000001007)キヤノン株式会社 (59,756)
【Fターム(参考)】
【公開日】平成25年4月4日(2013.4.4)
【国際特許分類】
【出願日】平成23年9月13日(2011.9.13)
【出願人】(000001007)キヤノン株式会社 (59,756)
【Fターム(参考)】
[ Back to top ]