説明

顔特徴点検出装置及びその方法

【課題】鼻頂点のように画像的な特徴が少ない顔特徴点の場合にも検出することを可能にする顔特徴点検出装置を提供する。
【解決手段】顔画像を入力する画像入力部12と、探索領域とスケールを決定する探索領域スケール決定部14と、各点の局所的な画像情報から選択される画像特徴点を検出する画像特徴点検出部16と、画像特徴点と対象特徴点の相対位置座標と画像特徴点周辺パターンとを関連付けて記憶した第1の辞書18と、第1の辞書18と画像特徴点周辺パターンとの照合を行なう第1のパターン照合部20と、対象とする特徴点の位置候補を推定する対象特徴点位置推定部22と、第2の辞書24と、第2の辞書24と対象特徴点周辺パターンとの照合を行なう第2のパターン照合部26と、対象特徴点の位置を求める判定部28を備えている。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、顔特徴点検出装置及びその方法に係わり、特に鼻頂点のように画像的な特徴が少ない場合にも検出できるようにしたものに関する。
【背景技術】
【0002】
従来の顔特徴点検出装置には、特許文献1に開示されているように、顔特徴点の候補を円形分離度フィルタで検出した後、画像パターンを用いて検証するものがあった。しかし、前記顔特徴点に画像的な特徴が少なく、近傍に必ず特徴点候補が検出されない場合にはうまく検出することはできなかった。
【0003】
また、特許文献2のように特徴点周辺画像のテンプレートマッチングを用いるものもある。しかし、前記特徴点に画像的な特徴が少ない場合には、パターンがその特徴点に固有のものとはならないため、類似した画像が他の場所にあるなどのためにうまく検出できなかった。
【特許文献1】特許第3279913号公報
【特許文献2】特開平11−203456公報
【発明の開示】
【発明が解決しようとする課題】
【0004】
上記したように、背景技術には顔特徴点に画像的な特徴が少なく、近傍に必ず特徴点候補が検出されない場合にはうまく検出できないという問題点があった。
【0005】
また、単純なテンプレートマッチングでは前記特徴点に画像的な特徴が少ない場合には、パターンがその特徴点に固有のものとはならないため、類似した画像が他の場所にあるなどのためにうまく検出できないという問題点があった。
【0006】
そこで本発明は、上記問題点を解決するためになされたものであって、顔特徴点に画像的な特徴が少なく、近傍に必ず特徴点候補が検出されない場合にも検出を可能とする顔特徴点検出装置及びその方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明は、顔が写った画像を入力する画像入力部と、前記画像から対象特徴点を検出するための探索領域を決定する探索領域決定部と、前記画像の前記探索領域内から画像特徴点を検出する画像特徴点検出部と、複数の学習用顔画像からそれぞれ求めた学習用画像特徴点の周辺パターンに関する情報、及び、前記各学習用画像特徴点と学習用対象特徴点の相対位置座標とを関連付けた第1の辞書を記憶する第1の辞書記憶部と、前記画像特徴点の周辺パターンと類似している前記学習用画像特徴点の周辺パターンを前記第1の辞書内の前記複数の学習用画像特徴点の周辺パターンから選択する第1のパターン照合部と、前記選択された学習用画像特徴点に対応する前記学習用対象特徴点の相対位置座標を抽出する対象特徴点位置推定部と、前記抽出した相対位置座標に基づいて、前記顔画像から前記対象特徴点の周辺パターンを切り出す対象特徴点周辺パターン検出部と、前記複数の学習用顔画像からそれぞれ求めた学習用対象特徴点の周辺パターンに関する情報を含む第2の辞書を記憶する第2の辞書記憶部と、前記対象特徴点の周辺パターンと類似する前記学習用対象特徴点の周辺パターンを前記第2の辞書内の前記複数の学習用対象特徴点の周辺パターンから選択する第2のパターン照合部と、前記画像特徴点の周辺パターンと前記選択された学習用画像特徴点の周辺パターンの類似度と、前記対象特徴点の周辺パターンと前記選択された学習用対象特徴点の周辺パターンの類似度から前記対象特徴点の位置を求める判定部と、を備える顔特徴点検出装置である。
【発明の効果】
【0008】
本発明によれば、鼻頂点などのように特徴点に画像的な特徴が少なく、近傍に必ず画像特徴点候補が検出されない場合にも検出が可能となる。
【発明を実施するための最良の形態】
【0009】
以下、本発明の実施形態について説明する。
【0010】
(第1の実施形態)
本発明の第1の実施形態に係わる顔特徴点検出装置10について図1から図6に基づいて説明する。
【0011】
(1)顔特徴点検出装置10の構成
図1は、本実施形態に係わる顔特徴点検出装置10を示すブロック図である。
【0012】
顔特徴点検出装置10は、処理対象の画像を入力する画像入力部12と、探索領域とスケールを決定する探索領域スケール決定部14と、各点の局所的な画像情報から選択される画像特徴点を検出する画像特徴点検出部16と、画像特徴点と対象特徴点の相対位置座標と画像特徴点周辺パターンとを関連付けて記憶した第1の辞書18と、第1の辞書18と画像特徴点周辺パターンとの照合を行なう第1のパターン照合部20と、対象とする特徴点の位置候補を推定する対象特徴点位置推定部22と、第2の辞書24と、第2の辞書24と対象特徴点周辺パターンとの照合を行なう第2のパターン照合部26と、対象特徴点の位置を求める判定部28を備えている。
【0013】
各部12〜28の各機能は、コンピュータに格納されたプログラムによっても実現できる。
【0014】
(2)顔特徴点検出装置10の処理
次に、図1及び図2を用いて、本実施形態に係わる顔特徴点検出装置10の動作について説明する。なお、図2は、本実施形態に係わる顔特徴点検出装置10の動作を示すフローチャートである。
【0015】
以下の説明は、図3に示すように瞳の2点を基準特徴点として、まずこれらの基準特徴点を検出し、検出された瞳の位置を利用して探索領域とスケールを決定し、その後に対象特徴点である鼻頂点を求める場合である。
【0016】
(2−1)ステップ1
まず、ステップ1において、画像入力部12は、対象となる顔が撮影された画像を入力する。
【0017】
(2−2)ステップ2
次に、ステップ2において、探索領域スケール決定部14は、対象特徴点を検出するための探索領域とスケールを決定する。
【0018】
本実施形態では、上記したように、図3に示すように瞳の2点を基準特徴点として、まずこれらの基準特徴点を検出し、検出された瞳の位置を利用して探索領域とスケールを決定する。
【0019】
瞳検出は、特許文献1に示されている円形分離度フィルタのような画像特徴点検出方法と、パターン照合方法を組み合わせた方法を用いる。以下、順番に説明する。
【0020】
(2−2−1)画像特徴点検出処理
まず、特許文献1に示されている円形分離度フィルタを用いて、上記画像から画像特徴点を検出する。
【0021】
本実施形態においては、画像特徴点検出方法として円形分離度フィルタを用いるが、他の方法であってもよい。例えばコーナー検出方法などでもよい。
【0022】
(2−2−2)パターン照合処理
次に、検出された各画像特徴点に対してパターン照合方法を行なう。
【0023】
各画像特徴点の近傍において、分離度フィルタの半径に応じた局所正規化画像を取得し、この正規化画像と予め瞳画像から作成しておいた辞書との類似度を算出する。類似度の算出には特許文献1と同様に部分空間法を用いる。
【0024】
各画像特徴点において算出された類似度が、所定の閾値を超えるものを基準特徴点候補として残す。
【0025】
次に、基準特徴点候補が、左右瞳として所定の位置条件を満たす組合せを選択する。所定の位置関係とは左右の点を結ぶ線分の距離、角度等である。
【0026】
なお、それらの2点を基準に正規化した画像により、局所正規化画像と同様に予め作成しておいた辞書との類似度を求め、その類似度が所定の閾値を超えることを条件としてもよい。
【0027】
(2−2−3)探索領域とスケールの決定
検出された2点の瞳位置を基準特徴点として、探索領域とスケールを決定する。
【0028】
具体的には、探索領域の中心を左右瞳の中点から垂直方向に瞳間隔edに所定の係数を乗じた距離だけ移動させた位置とし、その幅及び高さに関しても瞳間隔edにそれぞれ所定の係数を乗じたものとする。
【0029】
また、スケールは瞳間隔edを基準に設定する。ここでは瞳間隔edに所定の係数を乗じたものとする。例えば係数を0.1とする。
【0030】
(2−3)ステップ3
次に、ステップ3において、画像特徴点検出部16は、探索領域内の各点(各画素)の局所的な画像情報から、画像特徴点を検出する。例えば、各画素の輝度値からエッジを検出したりする。
【0031】
本実施形態では特許文献1に示されている円形分離度フィルタを用いる。ここで、円形分離度フィルタの半径は、前記で設定したスケールにより決定される。上記したように、ここでは瞳間隔edに所定の係数を乗じたものであり、例えば係数を0.1とする。
【0032】
(2−4)ステップ4
次に、ステップ4において、第1のパターン照合部20は、第1の辞書18を用いて各画像特徴点周辺のパターンの照合を行なう。
【0033】
(2−4−1)正規化
上記のようにした探索領域内で検出した各画像特徴点の周辺パターンのそれぞれについて正規化を行う。この画像特徴点の周辺パターンの正規化は、探索領域スケール決定部14で決定したスケールedを用いて、図4に示すように、画像特徴点を中心としてedに所定の係数を乗じた距離adの範囲の矩形領域をサンプリングして、正規化パターンを取り出す。
【0034】
(2−4−2)類似度の算出
次に、正規化パターンと第1の辞書18との類似度を算出する。類似度は特許文献1に示されている部分空間法により計算する。
【0035】
第1の辞書18は、複数個のクラスから成り、それぞれのクラスには学習された学習用画像特徴点の周辺パターンから生成された1つの部分空間と、学習用対象特徴点との相対座標が記録されている。画像特徴点のそれぞれにおいて、各クラスに属する学習用画像特徴点の周辺パターンの部分空間との類似度をそれぞれ算出する。ここで「対象特徴点」とは、上記したように求めたい鼻頂点である。また、第1の辞書18のクラスは、後から説明するように正規化された座標を格子状に分割することにより、位置(座標)を基準にしてクラスタリングされている。
【0036】
(2−5)ステップ5
次に、ステップ5において、対象特徴点候補位置推定部22では、第1のパターン照合部20において算出された第1の辞書18の各クラス(位置)に対する類似度を利用して対象特徴点の候補位置を推定する。
【0037】
対象特徴点位置の具体的な推定方法は以下の通りである。
【0038】
第1の辞書18の各クラス(位置)には、1つの部分空間と対応する相対座標が記録されている。
【0039】
各クラス(位置)の類似度が所定の閾値を超える場合には、対応する相対位置を用いて対象特徴点の位置を推定し、対象特徴点位置候補とする。
【0040】
図5は、対象特徴点位置を推定する様子を表わす図である。i番目の画像特徴点位置の座標が(xi,yi)、瞳間距離edで正規化された相対座標が(u,v)であるとすると、対象特徴点の推定座標は(xi−u*ed,yi−v*ed)として求められる。
【0041】
(2−6)ステップ6
次に、ステップ6において、第2のパターン照合部26では、対象特徴点候補位置推定部22で推定された各対象特徴点候補位置の周辺パターンのパターン照合を行なう。そのためにまず、上記で求めた対象特徴点の推定座標(候補位置)を中心にしてその周辺パターンを切り出す。
【0042】
次に、その対象特徴点の候補位置の周辺パターンの正規化を行う。この正規化は、上記で説明した画像特徴点周辺パターンと同様に行なう。
【0043】
対象特徴点候補位置の正規化パターンと第2の辞書24との類似度を算出する。類似度の算出には、第1のパターン照合部20と同様に、部分空間法を用いる。第2の辞書24は、学習用対象特徴点の正規化パターンの部分空間を記憶しているが、第1の辞書18と関連付けされている。すなわち、第1の辞書18の各クラス(位置)の正規化パターンのそれぞれと、同一の画像(例えば、同一人物の同一の学習用顔画像)から切り出した学習用対象特徴点の正規化パターンとがリンクされている。そして、第2の辞書24を使用する場合には、第1の辞書18とリンクされている学習用対象特徴点の正規化パターンを用いる。具体的には、対象特徴点の推定座標を算出するために用いた第1の辞書18の正規化パターンとリンクされている学習用対象特徴点の正規化パターンの部分空間とで類似度を求める。
【0044】
(2−7)ステップ7
次に、ステップ7において、判定部28では第1のパターン照合部20における類似度と、第2のパターン照合部26における類似度と、予め学習データより得られた事前確率に基づき算出されるスコアから対象特徴点の位置を決定する。この事前確率については、後から説明する。
【0045】
なお、事前確率に基づき算出されるスコアは、前記相対位置において類似度を算出したクラスに属する学習データの出現確率を所定の演算を施したものである。例えば、他のスコアとバランスをとるために、定数をかけたり、logを計算したりする。
【0046】
そして、第1のパターン照合部20における類似度と、第2のパターン照合部26における類似度と、事前確率に基づき算出されるスコアの3つの和をスコアとし、候補点のうち、スコアが最大になるものを、求めたい対象特徴点とする。
【0047】
(3)第1の辞書18、第2の辞書24
第1の辞書18、第2の辞書24の学習時の動作について、図6を用いて説明する。
【0048】
(3−1)第1の辞書18
予め学習用対象特徴点の位置がわかっている学習用顔画像からの学習データに対して、検出時の動作と同様に学習用画像特徴点を検出する。そのときの学習用対象特徴点との正規化座標ベクトルdも記録しておく。
【0049】
次に、ベクトルdを幾つかのクラスに分割するクラスタリングを行なう。例えば、正規化された座標を格子状に分割することにより、位置(座標)を基準にしてクラスタリングする。
【0050】
また、各学習用画像特徴点の位置で、正規化パターンの切り出しを行なっておく。正規化方法は検出時に図4を用いて説明した方法と同じである。すなわち、学習用画像特徴点の周辺パターンを切り出し、その周辺パターンを上記スケールで正規化する。
【0051】
ベクトルdの各クラス(位置)に対して、対応する正規化パターンからそれぞれ第1の辞書18を作成する。
【0052】
この第1の辞書18は、部分空間法に用いる辞書であり、正規化パターンを特徴ベクトルとして主成分分析を行なうことにより生成する。各クラス(各位置)について属するベクトルdの分布から、そのクラス(位置)の平均座標とその分散等の統計情報を相対位置として記録しておく。
【0053】
そして、それぞれのクラス(位置)に対して、さらに正規化パターンを基準にしてクラスタリングを行なう。この同じクラス(位置)に属する正規化パターンのうち、そのクラス(位置)に属する正規化パターンの割合を事前確率として保持しておく。
【0054】
このように、位置とパターンの二段階のクラスタリングを行なうことで、より辞書をコンパクトにすることができる。
【0055】
(3−2)第2の辞書24
学習用顔画像における学習用対象特徴点の位置でも、学習用対象特徴点の位置を中心にして周辺パターンを切り出し、その後に正規化して正規化パターンを作成しておく。第1の辞書18の各クラスに対応して第2の辞書24を作成する。第2の辞書24は、学習用対象特徴点の正規化パターンの部分空間を記憶しているが、第1の辞書18と関連付けされている。すなわち、第1の辞書18の各クラスの正規化パターンのそれぞれと、同一の画像(例えば、同一人物の同一の学習用顔画像)から切り出した学習用対象特徴点の正規化パターンとがリンクされている。そして、第2の辞書24を使用する場合には、第1の辞書18とリンクされている学習用対象特徴点の正規化パターンを用いる。
【0056】
このとき、必要に応じて学習用対象特徴点パターンのクラスタリングも行なう。パターンのクラスタリングにはk−means法を用いる。
【0057】
(4)効果
このように、第1の実施形態に係わる顔特徴点検出装置10によれば、鼻頂点のように顔特徴点に画像的な特徴が少なく、近傍に必ず画像特徴点候補が検出されない場合にも検出が可能となる。
【0058】
(第2の実施形態)
本発明の第2の実施形態に係わる顔特徴点検出装置100について図7に基づいて説明する。
【0059】
(1)顔特徴点検出装置100の構成
図7は、本実施形態に係わる顔特徴点検出装置100を示すブロック図である。
【0060】
本実施形態に係わる顔特徴点検出装置100は、処理対象の画像を入力する画像入力部112と、探索領域とスケールを決定する探索領域スケール決定部114と、各点の局所的な画像情報から選択される画像特徴点を検出する画像特徴点検出部116Aと、画像特徴点検出部116Aとは異なる画像特徴を検出する画像特徴点検出部116Bと、画像特徴点と対象特徴点の相対位置座標と画像特徴点周辺パターンとを関連付けて記憶した第1の辞書118A、第1の辞書118Bと、第1の辞書118A,Bと画像特徴点周辺パターンとの照合を行なう第1のパターン照合部120A,Bと、対象とする特徴点の位置候補を推定する対象特徴点位置推定部122と、第2の辞書124と、第2の辞書124と対象特徴点周辺パターンとの照合を行なう第2のパターン照合部126と、対象特徴点の位置を求める判定部128を備えている。
【0061】
(2)顔特徴点検出装置100の動作
次に図7を用いて、本実施形態に係わる顔特徴点検出装置100の動作について説明する。本実施形態においては、第1の実施形態と同様、瞳の2点を基準特徴点として、まずこれらの基準特徴点を検出し、検出された瞳の位置を利用して探索領域とスケールを決定し、対象特徴点が鼻頂点である例について述べる。
【0062】
画像入力部112、探索領域スケール決定部114、第2の辞書124、第2のパターン照合部126、判定部128については第1の実施形態と同様である。
【0063】
画像特徴点検出部116A、Bについては、それぞれ別の方法により画像特徴点を検出する。
【0064】
本実施形態では、第1の実施形態で用いた円形分離フィルタによるものと、文献“C. J. Harris and M. Stephens. A combined corner and edge detector. Proc. 4th Alvey Vision Conferences, pages 147-- 151, 1988.”に示されているコーナー検出を用いる。
【0065】
それぞれの画像特徴点検出部116A、Bで得られた画像特徴点候補に対して、それぞれ対応する学習データによって作成された第1の辞書118A、Bを用いて、第1のパターン照合部120A、Bで照合を行なう。
【0066】
ここでの処理は第1の辞書118が異なるだけで、第1の実施形態と同様である。
【0067】
(変形例)
本発明は上記各実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。
【0068】
すなわち、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
【0069】
(1)変更例1
本実施形態では瞳の位置を基準特徴点として利用して探索領域とスケールを定めたが、これに限定されるものではない。
【0070】
例えば、顔領域を矩形として検出し、その位置やサイズを利用する方法もある。
【0071】
また、探索領域とスケールの決定方法も本実施形態で述べたものに限らない。
【0072】
(2)変更例2
本実施形態では対象特徴点として鼻頂点を検出する場合について述べたが、これに限定されるものではない。
【0073】
例えば、定義できる特徴点であればどんな点であっても差し支えない。
【0074】
(3)変更例3
本実施形態ではパターン照合に用いる特徴量として濃淡パターンを用いたが、これに限定されるものではない。
【0075】
例えば、ヒストグラム平坦化を行なったもの、エッジ検出フィルタにより変換したもの、フーリエ変換などの周波数領域の処理を施したものなど、画像から生成される特徴量であればどんなものであっても差し支えない。
【0076】
(4)変更例4
本実施形態ではパターンの正規化方法として、画像(対象)特徴点位置を中心として上下左右に同じ距離分を用いたが、これに限定されるものではない。
【0077】
例えば、中心位置は特徴点位置と必ずしも等しい必要はなく上下左右で範囲が異なっても差し支えない。
【0078】
(5)変更例5
本実施形態では対象特徴点候補位置推定部122における位置推定に、第1の辞書118との類似度が所定の閾値を超えるクラスに対応する相対位置を用いたが、これに限定されるものではない。
【0079】
例えば、類似度が大きい順から所定の数を選択する、それらの平均値を用いるといった方法であっても差し支えない。
【0080】
(6)変更例6
本実施形態では判定部128においてスコアが最大になるものを選択したが、これに限定されるものではない。
【0081】
例えば、複数の候補からのスコアを総合的に判定する方法も考えられる。例えばスコアの値が所定の閾値を超えるものについえてその位置の平均、もしくは重み付平均を求めるといった方法も考えられる。
【0082】
(7)変更例7
本実施形態ではクラスタリング法として、座標を格子状に分割する方法、k−means法を用いたが、これに限定されるものではない。
【0083】
例えば、座標値やパターンなどの多次元データを離散化できる方法であれば差し支えない。
【0084】
(8)変更例8
本実施形態では辞書の作成の際に、画像特徴点位置座標のクラスタリングと、正規化画像パターンのクラスタリングを行なったが、これに限定されるものではない。
【0085】
例えば、顔の向きによるクラスタリングを加えてもよい。
【図面の簡単な説明】
【0086】
【図1】本実施形態に係わる顔特徴点検出装置100の構成を示すブロック図である。
【図2】本実施形態の動作を示すフローチャートである。
【図3】本実施形態における対象特徴点(鼻頂点)の説明図である。
【図4】本実施形態における画像特徴点周辺パターンの正規化の説明図である。
【図5】本実施形態における対象特徴点候補推定方法の説明図である。
【図6】本実施形態における学習時の動作を示すフローチャートである。
【図7】本発明の第2の実施形態に係わる顔特徴点検出装置100の構成を示すブロック図である。
【符号の説明】
【0087】
10 顔特徴点検出装置
12 画像入力部
14 探索領域スケール決定部14
16 画像特徴点検出部
18 第1の辞書
20 第1のパターン照合部
22 対象特徴点位置推定部
24 第2の辞書
26 第2のパターン照合部
28 判定部

【特許請求の範囲】
【請求項1】
顔が写った画像を入力する画像入力部と、
前記画像から対象特徴点を検出するための探索領域を決定する探索領域決定部と、
前記画像の前記探索領域内から画像特徴点を検出する画像特徴点検出部と、
複数の学習用顔画像からそれぞれ求めた学習用画像特徴点の周辺パターンに関する情報、及び、前記各学習用画像特徴点と学習用対象特徴点の相対位置座標とを関連付けた第1の辞書を記憶する第1の辞書記憶部と、
前記画像特徴点の周辺パターンと類似している前記学習用画像特徴点の周辺パターンを前記第1の辞書内の前記複数の学習用画像特徴点の周辺パターンから選択する第1のパターン照合部と、
前記選択された学習用画像特徴点に対応する前記学習用対象特徴点の相対位置座標を抽出する対象特徴点位置推定部と、
前記抽出した相対位置座標に基づいて、前記顔画像から前記対象特徴点の周辺パターンを切り出す対象特徴点周辺パターン検出部と、
前記複数の学習用顔画像からそれぞれ求めた学習用対象特徴点の周辺パターンに関する情報を含む第2の辞書を記憶する第2の辞書記憶部と、
前記対象特徴点の周辺パターンと類似する前記学習用対象特徴点の周辺パターンを前記第2の辞書内の前記複数の学習用対象特徴点の周辺パターンから選択する第2のパターン照合部と、
前記画像特徴点の周辺パターンと前記選択された学習用画像特徴点の周辺パターンの類似度と、前記対象特徴点の周辺パターンと前記選択された学習用対象特徴点の周辺パターンの類似度から前記対象特徴点の位置を求める判定部と、
を備える顔特徴点検出装置。
【請求項2】
前記第1の辞書は複数のクラスからなり、
前記クラスのそれぞれは、前記相対座標による第1のクラスタリングによって分類されたクラスと、前記学習用画像特徴点の周辺パターンの類似性による第2のクラスタリングによって分類されたクラスとからなり、
前記各クラスの学習用画像特徴点の周辺パターンから抽出された特徴量に基づいて生成された部分空間が、前記クラス毎に格納されている、
請求項1記載の顔特徴点検出装置。
【請求項3】
前記判定部は、
前記画像特徴点の周辺パターンと前記選択された学習用画像特徴点の周辺パターンの類似度から算出された第1のスコアと、前記対象特徴点の周辺パターンと前記選択された学習用対象特徴点の周辺パターンの類似度か算出された第2のスコアと、前記事前確率に基づく第3のスコアの和から総合スコアを求め、
前記総合スコアの中で最も総合スコアの値が高い前記学習用画像特徴点に対応する前記学習用対象特徴点の相対位置座標を、前記対象特徴点の位置とする、
請求項2記載の顔特徴点検出装置。
【請求項4】
前記第1の辞書は、
前記複数の学習用画像特徴点の周辺パターンから生成される代表パターン、または、部分空間と、前記相対座標の分布を表わす統計量とを関連付けて格納したものである、
請求項1記載の顔特徴点検出装置。
【請求項5】
前記第2の辞書内に格納された前記学習用対象特徴点に関する情報は、この学習用対象特徴点に関する情報を抽出した前記学習用顔画像から抽出され、かつ、前記第1の辞書に格納された前記学習用画像特徴点の周辺パターンと関連付けられ、
前記第2のパターン照合部は、前記対象特徴点の周辺パターンと、この対象特徴点の周辺パターンと関連づけられた前記学習用対象特徴点の周辺パターンとの類似度を求める、
請求項1記載の顔特徴点検出装置。
【請求項6】
前記第1の辞書を2種類有し、
前記各第1の辞書は、異なる画像特徴点検出方法を用いて、前記複数の学習用画像特徴点がそれぞれ生成されている、
請求項1記載の顔特徴点検出装置。
【請求項7】
顔が写った画像が入力する画像入力ステップと、
前記画像から対象特徴点を検出するための探索領域を決定する探索領域決定ステップと、
前記画像の前記探索領域内から画像特徴点を検出する画像特徴点検出ステップと、
複数の学習用顔画像からそれぞれ求めた学習用画像特徴点の周辺パターンに関する情報、及び、前記各学習用画像特徴点と学習用対象特徴点の相対位置座標とを関連付けて第1の辞書に予め格納する第1の格納ステップと、
前記画像特徴点の周辺パターンと類似している前記学習用画像特徴点の周辺パターンを前記第1の辞書内の前記複数の学習用画像特徴点の周辺パターンから選択する第1のパターン照合ステップと、
前記選択された学習用画像特徴点に対応する前記学習用対象特徴点の相対位置座標を抽出する対象特徴点位置推定ステップと、
前記抽出した相対位置座標に基づいて、前記顔画像から前記対象特徴点の周辺パターンを切り出す対象特徴点周辺パターン検出ステップと、
前記複数の学習用顔画像からそれぞれ求めた学習用対象特徴点の周辺パターンに関する情報を第2の辞書に予め格納する第2の格納ステップと、
前記対象特徴点の周辺パターンと類似する前記学習用対象特徴点の周辺パターンを前記第2の辞書内の前記複数の学習用対象特徴点の周辺パターンから選択する第2のパターン照合ステップと、
前記画像特徴点の周辺パターンと前記選択された学習用画像特徴点の周辺パターンの類似度と、前記対象特徴点の周辺パターンと前記選択された学習用対象特徴点の周辺パターンの類似度から前記対象特徴点の位置を求める判定ステップと、
を備える顔特徴点検出方法。
【請求項8】
顔が写った画像が入力する画像入力機能と、
前記画像から対象特徴点を検出するための探索領域を決定する探索領域決定機能と、
前記画像の前記探索領域内から画像特徴点を検出する画像特徴点検出機能と、
複数の学習用顔画像からそれぞれ求めた学習用画像特徴点の周辺パターンに関する情報、及び、前記各学習用画像特徴点と学習用対象特徴点の相対位置座標とを関連付けて第1の辞書に予め格納する第1の格納機能と、
前記画像特徴点の周辺パターンと類似している前記学習用画像特徴点の周辺パターンを前記第1の辞書内の前記複数の学習用画像特徴点の周辺パターンから選択する第1のパターン照合機能と、
前記選択された学習用画像特徴点に対応する前記学習用対象特徴点の相対位置座標を抽出する対象特徴点位置推定機能と、
前記抽出した相対位置座標に基づいて、前記顔画像から前記対象特徴点の周辺パターンを切り出す対象特徴点周辺パターン検出機能と、
前記複数の学習用顔画像からそれぞれ求めた学習用対象特徴点の周辺パターンに関する情報を第2の辞書に予め格納する第2の格納機能と、
前記対象特徴点の周辺パターンと類似する前記学習用対象特徴点の周辺パターンを前記第2の辞書内の前記複数の学習用対象特徴点の周辺パターンから選択する第2のパターン照合機能と、
前記画像特徴点の周辺パターンと前記選択された学習用画像特徴点の周辺パターンの類似度と、前記対象特徴点の周辺パターンと前記選択された学習用対象特徴点の周辺パターンの類似度から前記対象特徴点の位置を求める判定機能と、
をコンピュータによって実現する顔特徴点検出プログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate


【公開番号】特開2008−146329(P2008−146329A)
【公開日】平成20年6月26日(2008.6.26)
【国際特許分類】
【出願番号】特願2006−332422(P2006−332422)
【出願日】平成18年12月8日(2006.12.8)
【出願人】(000003078)株式会社東芝 (54,554)
【Fターム(参考)】