画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体
【課題】様々な形状に変化する物体であっても、画像上における物体の形状を高精度に検出する。
【解決手段】画像から物体の部位点を検出する部位点検出装置1であって、画像上に部位点に対する基準点を特定する基準点特定部23と、基準点に対する複数のサンプリング点毎に、サンプリング点の画素または画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、基準点に対する特徴量群を抽出する特徴量抽出部26と、複数のサンプリング点の各画素または各画素群から抽出された基準点に対する特徴量群と、基準点に対する部位点の相対位置を示す位置情報との対応関係を示すLRF関数を参照して、特徴量抽出部26が抽出した特徴量群に対応する位置情報を特定する位置情報特定部29と、位置情報特定部29が特定した位置情報の示す位置を物体の部位点とする部位点特定部30とを備える。
【解決手段】画像から物体の部位点を検出する部位点検出装置1であって、画像上に部位点に対する基準点を特定する基準点特定部23と、基準点に対する複数のサンプリング点毎に、サンプリング点の画素または画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、基準点に対する特徴量群を抽出する特徴量抽出部26と、複数のサンプリング点の各画素または各画素群から抽出された基準点に対する特徴量群と、基準点に対する部位点の相対位置を示す位置情報との対応関係を示すLRF関数を参照して、特徴量抽出部26が抽出した特徴量群に対応する位置情報を特定する位置情報特定部29と、位置情報特定部29が特定した位置情報の示す位置を物体の部位点とする部位点特定部30とを備える。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、目や口等の物体の輪郭点や特徴点等の部位点を検出するための画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体に関するものである。
【背景技術】
【0002】
顔画像から、目や口の輪郭点を検出する技術は、顔認証や表情推定のための前段処理や、似顔絵生成などのアプリケーションに応用できるなどの理由から従来から盛んに研究されている。
【0003】
例えば、特許文献1には、ユーザから指定された目や口等の中心点を中心として目や口等の探索範囲を設定し、設定した探索範囲内をスキャンして、色成分等に基づいて目領域や口領域等を抽出する技術が記載されている。また、特許文献1には、抽出した目領域や口領域等の左右の端点を特定し、左右の端点に基づいて目領域や口領域等の上下の端点を探索する探索範囲を設定して上下の端点を抽出することが記載されている。
【0004】
また、特許文献2には、目の輪郭点を抽出する場合、目の左右の端点を基準点とし、基準点に基づいて動的輪郭モデルをフィッティングし、エネルギー最小化により目の輪郭点を抽出することが記載されている。
【0005】
また、顔画像から目や口の輪郭点を検出する手法として形状モデルやテクスチャモデルに基づくフィッティング手法がある。具体的には、非特許文献1、2および特許文献3、4に記載のASM(Active Shape Model)、AAM(Active Appearance Model)、ASAM(Active Structure Appearance Model)等のフィッティング手法がある。
【0006】
ASM、AAMおよびASAMの形状モデルとは、顔の形状やテクスチャを少ないパラメータで表現するモデルのことである。これらは顔特徴点座標情報やテクスチャ情報に対して主成分分析を適用し、それによって得られた基底ベクトルのうち固有値の大きいものだけで顔の特徴点座標を表現させたものである。このことは、少ないデータで顔の形状を表現するだけでなく、顔の形状を保つ拘束条件も持つことができる。このモデルをASMおよびAAMではエネルギー最小化より、ASAMではモデルパラメータ誤差算出より顔画像にフィッティングさせることで、顔の特徴点座標を検出する。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】特開平9−6964号公報(1997年1月10日公開)
【特許文献2】特開2005−339288号公報(2005年12月8日公開)
【特許文献3】特許第4093273号公報(2008年6月4日発行)
【特許文献4】特許第4501937号公報(2010年7月14日発行)
【非特許文献】
【0008】
【非特許文献1】T.F. Cootes, et al、「Active Shape Models - Their Training and Application」、CVIU、Vol.6、No.1、p.38-59、1995年
【非特許文献2】T.F. Cootes, et al、「Active appearance models」、ECCV’98 Vol.II、Freiburg、Germany、1998年
【発明の概要】
【発明が解決しようとする課題】
【0009】
口の形状や目の形状、またそれらの組合せなどにより、顔の表情は多様に変化し,様々なバリエーションがある。そのため、様々な形状に変化する目や口など物体の形状状態を全て予測することは難しい。それゆえ、上述のような従来技術は、目や口の輪郭点などの形状が大きく変化する物体の輪郭点を高精度に検出することが困難である。
【0010】
具体的には、特許文献1に記載の技術では、目や口などの形状が想定している以上に変化して目や口などの輪郭点が探索範囲内に収まっていない場合、輪郭点を正しく検出することができない。一方、多様な口の形状や目の形状をカバーするために、探索範囲を広く設定した場合、特許文献1に記載の技術では探索範囲をスキャンして検出しているため、処理負荷が非常に大きくなる。そのため、特許文献1に記載の技術において、探索範囲を広く設定することは実用的でない。よって、特許文献1に記載の技術は、形状が大きく変化する物体の輪郭点を高精度に検出することが困難である。
【0011】
また、特許文献2に記載の技術では、使用する動的輪郭モデルから、物体の形状がかけ離れている場合、物体の輪郭点の抽出に非常に時間がかかる、もしくは、正しい輪郭点を抽出できない。一方、多様な口の形状や目の形状をカバーするために、様々なモデルを用意した場合、輪郭点の抽出の精度は向上するが、装置が予め記憶するデータサイズが大きくなったり、処理負荷が大きくなったりする。そのため、特許文献2に記載の技術において、様々なモデルを用意することは実用的でない。よって、特許文献2に記載の技術は、形状が大きく変化する物体の輪郭点を高精度に検出することが困難である。
【0012】
また、ASMおよびAAMは探索処理に多くの計算時間がかかるという欠点がある。またAAMは個人ごとの形状モデルを用意する必要があり、他人の顔に対するフィッティング精度が低いという問題もある。
【0013】
また、ASMおよびAAMに対し高速高精度化を実現できたのが、ASAMである。ASAMは、表情変化の少ない顔に関しては顔の形状を拘束条件とすることで高精度な検出結果を得ることができる。しかしながら、ASAMは、口や目などの開閉状態や形状状態が大きく変化する表情に対しては、高精度に検出することができない。これは、ASAMが用いる顔の形状モデルが顔全体の形状を表現したグローバルなモデルであり、目や口など各部位ごとの変化、例えば開閉や形状変化に対する表現を正確にできないためである。
【0014】
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、様々な形状に変化する物体であっても、画像上における物体の形状を高精度に検出するための画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体を実現することにある。
【課題を解決するための手段】
【0015】
本発明に係る画像処理装置は、上記課題を解決するために、画像から物体の部位点を検出する画像処理装置であって、上記画像上に上記部位点に対する基準点を特定する基準点特定手段と、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出手段と、上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出手段が抽出した特徴量群に対応する位置情報を特定する位置情報特定手段と、上記位置情報特定手段が特定した位置情報の示す位置を上記物体の部位点とする検出側部位点特定手段とを備えることを特徴としている。
【0016】
本発明に係る画像処理方法は、上記課題を解決するために、画像から物体の部位点を検出する画像処理方法であって、上記画像上に上記部位点に対する基準点を特定する基準点特定ステップと、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出ステップと、上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出ステップにおいて抽出された特徴量群に対応する位置情報を特定する位置情報特定ステップと、上記位置情報特定ステップにおいて特定された位置情報の示す位置を上記物体の部位点とする部位点特定ステップとを含むことを特徴としている。
【0017】
上記の構成によれば、上記位置情報特定手段は、上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出手段が抽出した特徴量群に対応する位置情報を特定し、上記検出側部位点特定手段は、上記位置情報特定手段が特定した位置情報の示す位置を上記物体の部位点とする。
【0018】
本発明者らは、画像上において、例えば、目や口などの器官を含む領域から抽出した特徴量群と、画像上の基準点に対する器官の輪郭点や特徴点の相対位置との間に相関関係があることを見出した。この知見に基づき、上記特徴量群と上記位置情報との対応関係を示す対応関係情報を参照することにより、形状が変化する物体であっても、画像上における物体の部位点を高精度に検出できることが可能となった。すなわち、上記画像処理装置および上記画像処理方法は、物体の形状が変化した場合であっても、物体の部位点を高精度に検出できるという効果を奏する。
【0019】
また、本発明に係る画像処理装置は、上記画像上において、上記部位点が位置すると考えられる領域を含む範囲内に、上記サンプリング点の位置を特定するサンプリング位置特定手段をさらに備えることが好ましい。
【0020】
また、本発明に係る情報生成装置は、上記課題を解決するために、上記画像処理装置が参照する上記対応関係情報を生成する情報生成装置であって、物体の部位点が撮像されている画像を取得する画像取得手段と、上記画像上に上記部位点に対する上記基準点を特定する基準点特定手段と、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出手段と、上記基準点特定手段が特定した基準点に対する上記部位点の相対位置を示す上記位置情報を生成する位置情報生成手段と、上記特徴量抽出手段が抽出した特徴量群と、上記位置情報生成手段が生成した位置情報との対応関係を示す上記対応関係情報を生成する対応関係情報生成手段とを備えることを特徴としている。
【0021】
また、本発明に係る情報生成方法は、上記課題を解決するために、上記画像処理方法において参照される上記対応関係情報を生成する情報生成方法であって、物体の部位点が撮像されている画像を取得する画像取得ステップと、上記画像上に上記部位点に対する上記基準点を特定する基準点特定ステップと、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出ステップと、上記基準点特定ステップにおいて特定された基準点に対する上記部位点の相対位置を示す上記位置情報を生成する位置情報生成ステップと、上記特徴量抽出ステップにおいて抽出された特徴量群と、上記位置情報生成ステップにおいて生成された位置情報との対応関係を示す上記対応関係情報を生成する対応関係情報生成ステップとを含むことを特徴としている。
【0022】
上記の構成によれば、上記画像取得手段は、上記物体の部位点が撮像されている画像を取得し、上記基準点特定手段は、上記画像上に上記部位点に対する基準点を特定し、上記特徴量抽出手段は、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出し、上記位置情報生成手段は、上記基準点特定手段が特定した基準点に対する上記部位点の相対位置を示す位置情報を生成し、上記対応関係情報生成手段は、上記特徴量抽出手段が抽出した特徴量群と、上記位置情報生成手段が生成した位置情報との対応関係を示す対応関係情報を生成する。
【0023】
そのため、上記画像処理装置が参照する対応関係情報を生成することができるという効果を奏する。上述のように、上記特徴量群と上記位置情報との間には対応関係があるため、生成した対応関係情報を使用することにより、物体の部位点を高精度に検出することができる。
【0024】
また、本発明に係る情報生成装置は、上記対応関係情報生成手段は、回帰分析を用いて上記対応関係情報を生成することが好ましい。
【0025】
また、本発明に係る情報生成装置は、ユーザからの操作指示を受け付ける入力手段と、上記入力手段に入力された操作指示に基づいて、上記画像上における上記物体の部位点を特定する学習側部位点特定手段とをさらに備えることが好ましい。
【0026】
また、本発明に係る情報生成装置は、上記画像取得手段は、上記画像と共に、当該画像に対応付けられている、上記部位点の位置を示す部位点位置情報を取得し、上記部位点位置情報の示す位置に基づいて、上記画像上における上記物体の部位点を特定する学習側部位点特定手段とをさらに備えることが好ましい。
【0027】
なお、上記画像処理装置および上記情報生成装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記画像処理装置および上記情報生成装置の各手段として動作させることにより、上記画像処理装置および上記情報生成装置をコンピュータにて実現させる制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。
【発明の効果】
【0028】
以上のように、本発明に係る画像処理装置は、上記画像上に上記部位点に対する基準点を特定する基準点特定手段と、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出手段と、上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出手段が抽出した特徴量群に対応する位置情報を特定する位置情報特定手段と、上記位置情報特定手段が特定した位置情報の示す位置を上記物体の部位点とする検出側部位点特定手段とを備えている構成である。
【0029】
また、本発明に係る画像処理方法は、上記画像上に上記部位点に対する基準点を特定する基準点特定ステップと、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出ステップと、上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出ステップにおいて抽出された特徴量群に対応する位置情報を特定する位置情報特定ステップと、上記位置情報特定ステップにおいて特定された位置情報の示す位置を上記物体の部位点とする部位点特定ステップとを含む。
【0030】
従って、上記画像処理装置および上記画像処理方法は、物体の形状が変化した場合であっても、物体の部位点を高精度に検出できるという効果を奏する。
【0031】
また、本発明に係る情報生成装置は、物体の部位点が撮像されている画像を取得する画像取得手段と、上記画像上に上記部位点に対する上記基準点を特定する基準点特定手段と、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出手段と、上記基準点特定手段が特定した基準点に対する上記部位点の相対位置を示す上記位置情報を生成する位置情報生成手段と、上記特徴量抽出手段が抽出した特徴量群と、上記位置情報生成手段が生成した位置情報との対応関係を示す上記対応関係情報を生成する対応関係情報生成手段とを備えている構成である。
【0032】
また、本発明に係る情報生成方法は、物体の部位点が撮像されている画像を取得する画像取得ステップと、上記画像上に上記部位点に対する上記基準点を特定する基準点特定ステップと、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出ステップと、上記基準点特定ステップにおいて特定された基準点に対する上記部位点の相対位置を示す上記位置情報を生成する位置情報生成ステップと、上記特徴量抽出ステップにおいて抽出された特徴量群と、上記位置情報生成ステップにおいて生成された位置情報との対応関係を示す上記対応関係情報を生成する対応関係情報生成ステップとを含む。
【0033】
従って、上記画像処理装置が参照する対応関係情報を生成することができるという効果を奏する。
【図面の簡単な説明】
【0034】
【図1】本発明の実施形態を示すものであり、部位点検出装置の要部構成を示すブロック図である。
【図2】階層的フィッティングの概要を示す模式図である。
【図3】本発明の実施形態を示すものであり、LRF学習装置の要部構成を示すブロック図である。
【図4】基準点特定方法および位置情報生成方法の概要を示す模式図である。
【図5】サンプリング位置特定方法および特徴量抽出方法の概要を示す模式図である。
【図6】位置情報と特徴量群との相関関係を示すLRF関数の概要を示す模式図である。
【図7】LRF学習装置の記憶部に格納されるLRF関数を含むLRF情報の一例を示す図である。
【図8】LRF関数に対する入力データである特徴量群と出力データである位置情報との対応関係を示す図である。
【図9】LRF学習装置が実行するLRF学習方法の一例を示す図である。
【図10】LRF学習方法に含まれる各処理の状態を、画像を用いて模式的に示す遷移図である。
【図11】部位点検出装置が実行する部位点検出方法の一例を示す図である。
【図12】部位点検出方法に含まれる各処理の状態を、画像を用いて模式的に示す遷移図である。
【発明を実施するための形態】
【0035】
〔本発明の概要〕
本発明者らは、画像上において、目や口などの器官を含む領域から抽出した特徴量群と、画像上の基準点を原点とする器官の輪郭点や特徴点の位置との間に相関関係があることを見出した。この知見に基づき、回帰分析により上記特徴量群と上記位置との対応関係を示すモデルを作成し、このモデルを使用した検出方法を発明した。
【0036】
この検出方法を用いることによって、事前に想定される表情だけでなく、目や口などが極度に開閉するような表情など、様々な条件でも顔や各器官を正確に検出することができる。以下では、本発明者らが発明した検出方法を、Local Regression Fitting(LRF)検出方法と称し、上記モデルを作成するための学習方法をLRF学習方法と称する。
【0037】
また、本発明者らは、LRF検出方法を従来の顔の大局的な形状を捉えるグローバルフィッティングと組み合わせて用いることが顔や各器官を正確に検出することができる最適な手法であることを発案した。具体的には、ASAM等の学習方法に基づくグローバルなモデルを用いて顔の大局的な形状を捉えるグローバルフィッティングと、LRF学習方法に基づく顔の器官ごとのローカルなモデルを用いて各器官の詳細な形状をそれぞれ捉えるローカルフィッティング(LRF検出方法)とを組み合わせた階層的フィッティングを発案した。
【0038】
階層的フィッティングは、より詳細には、図2に示すように、まず、グローバルフィッティングによって、こめかみ(2箇所)、左右の眉の眉頭および眉尻、両目の目頭および目尻、鼻孔(2箇所)、口角(2箇所)並びに顎先等を検出する。そして、LRF検出方法によって、その他の顔、眉、目、鼻および口の輪郭点を検出する。グローバルフィッティングおよびLRF検出方法によって検出された輪郭点に基づいて、顔および各器官の輪郭を検出する。
【0039】
これにより、グローバルモデルが表現できない表情に対しても、高精度に顔の輪郭を検出することができる。さらに、このような階層構造にすることにより、グローバルフィッティングにより大きな誤検出を減らすとともに、ローカルフィッティングにより表情変化した顔画像でも正確に顔輪郭特徴点を検出することが可能である。
【0040】
以下では、本発明の一実施形態における、LRF検出方法により画像上における物体の輪郭点や特徴点等の部位点を検出する部位点検出装置(画像処理装置)と、LRF学習手法によりモデルを生成するLRF学習装置(情報生成装置)とについて図1から図16に基づいて説明する。なお、以下では、部位点検出装置とLRF学習装置とがそれぞれ別体の装置として説明するが、部位点検出装置およびLRF学習装置は一体の装置であってもよい。
【0041】
〔LRF学習装置の構成〕
まず、LRF学習装置について図3に基づいて説明する。LRF学習装置は、他の装置から取得した画像、または、自装置に搭載されたカメラで撮像した画像において、画像上の基準点に対する物体の部位点の相対位置と、当該部位点に基づく画像上の所定の位置から抽出した特徴量群との対応関係を示すLRF関数(対応関係情報)を生成する装置である。
【0042】
LRF学習装置は、例えば、PC、デジタルカメラ、携帯電話機、PDA(Personal Digital Assistant)、ゲーム機、写真を撮影して印刷する装置、画像を編集する装置などであってよい。
【0043】
本実施形態では、上記対応関係を学習する対象の部位点を有する物体を人間の目や口等としているがこれに限るものではない。例えば、犬や猫等の動物の顔や器官等であってもよいし、携帯電話機やテレビ等であってもよいし、建物や雲等であってもよい。
【0044】
物体の部位点とは、画像上における物体の領域内の点である。具体的には、例えば物体が目の場合、目の輪郭点や瞳点などである。ここで、LRF学習装置が上記対応関係を学習する対象である物体の部位点を学習対象点と称し、学習対象点を有する物体を学習対象物と称する。
【0045】
図3は、LRF学習装置2の要部構成の一例を示すブロック図である。図3に示すように、LRF学習装置2は、制御部16、記憶部17、画像入力部13、操作部(入力手段)14および表示部15を備えている。なお、LRF学習装置2は、他の装置と通信するための通信部、音声入力部、音声出力部等の部材を備えていてもよいが、発明の特徴点とは関係がないため当該部材を図示していない。
【0046】
画像入力部13は、外部の画像提供装置(不図示)から画像を受信するものである。画像提供装置は、保持している画像または取得した画像を他の装置に提供する装置であれば何でもよい。例えば、画像提供装置は、デジタルカメラ、PC、携帯電話機、PDA、ゲーム機、デジタルテレビ、USB(Universal Serial Bus)メモリ等の記憶装置などである。なお、LRF学習装置2は、画像入力部13の代わりに、カメラを搭載していてもよい。
【0047】
操作部14は、ユーザがLRF学習装置2に指示信号を入力し、LRF学習装置2を操作するためのものである。操作部14は、キーボード、マウス、キーパッド、操作ボタンなどの入力機器等で構成されているものであってもよい。また、操作部14と表示部15とが一体となっているタッチパネルであってもよい。また、操作部14は、LRF学習装置2と別体のリモートコントローラ等の遠隔制御装置であってもよい。
【0048】
表示部15は、制御部16の指示に従って画像を表示するものである。表示部15は、制御部16の指示に従って画像を表示するものであればよく、例えば、LCD(液晶ディスプレイ)、有機ELディスプレイ、プラズマディスプレイなどを適用することが可能である。
【0049】
制御部16は、記憶部17から一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、LRF学習装置2が備える各部を統括的に制御するものである。
【0050】
本実施形態では、制御部16は、機能ブロックとして、画像取得部(画像取得手段)21、領域切り出し部22、基準点特定部(基準点特定手段)23、部位点特定部(学習側部位点特定手段)24、サンプリング位置特定部(サンプリング位置特定手段)25、特徴量抽出部(特徴量抽出手段)26、位置情報生成部(位置情報生成手段)27およびLRF関数算出部(対応関係情報生成手段)28を備える構成である。これらの制御部16の各機能ブロック(21〜28)は、CPU(central processing unit)が、ROM(read only memory)等で実現された記憶装置に記憶されているプログラムをRAM(random access memory)等で実現された一時記憶部に読み出して実行することで実現できる。
【0051】
画像取得部21は、画像入力部13を介して入力された画像を取得するものである。画像取得部21は、取得した画像を領域切り出し部22に出力する。なお、記憶部17に画像が記憶されている場合、画像取得部21は、記憶部17から画像を読み出してもよい。
【0052】
領域切り出し部22は、取得した画像から、学習対象点が含まれる領域の画像である学習対象領域画像を所定の学習対象領域画像抽出方法に基づいて抽出するものである。また、領域切り出し部22は、抽出した学習対象領域画像を所定の正規化方法に基づいて正規化し、正規化画像を生成するものである。領域切り出し部22は、生成した正規化画像を基準点特定部23、部位点特定部24およびサンプリング位置特定部25に出力する。
【0053】
具体的には、例えば学習対象物が「目」または「口」の場合、領域切り出し部22は、取得した画像から、顔画像を抽出し、抽出した顔画像を、例えば、100画素×100画素の画像に補正して正規化画像を生成する。
【0054】
ここで、学習対象領域画像抽出方法および正規化方法は、物体の部位点(学習対象点)毎に予め定められていればよく、具体的な方法は任意でよい。また、以下では、正規化画像の元となる、画像取得部21が取得した画像を原画像と称する。
【0055】
基準点特定部23は、領域切り出し部22から正規化画像を取得し、所定の基準点特定方法に基づいて取得した正規化画像上の所定の点を基準点として特定するものである。基準点特定部23は、特定した基準点の正規化画像上における座標である基準座標を位置情報生成部27に出力する。
【0056】
具体的には、図4に示すように、例えば学習対象物が「目」の場合、基準点特定部23は、正規化画像上における目の中心点を基準点として特定する。このとき、基準点特定部23は、正規化画像を表示部15に表示して、ユーザに目の中心点を指定するように指示し、ユーザが指定した点を基準点として特定してもよい。また、基準点特定部23は、領域切り出し部22が顔画像を抽出する際に特定した目の目頭点および目尻点に基づいて、目頭点および目尻点の中点を基準点として特定してもよい。また、基準点特定部23は、原画像に対応付けられているメタデータ(基準点位置情報)を参照して、メタデータで示される目の中心点の位置に基づいて、アフィン変換等により基準点を特定してもよい。この場合、LRF学習装置2が学習を実行する前に、予め、各原画像に対して、原画像上における目の中心点の位置を特定し、特定した目の中心点の位置を示す情報を含むメタデータを原画像に対応付けておくものとする。なお、メタデータに、目の中心点の位置を示す情報に代えて、目の中心点の位置を特定するための情報(例えば、目頭点、目尻点等)が含まれていてもよい。
【0057】
なお、基準点は、正規化画像上の点であればどの点でもよい。すなわち、例えば学習対象物が「目」の場合、目頭点または目尻点を基準点としてもよいし、顔の中心点(正規化画像の中心点)を基準点としてもよいし、正規化画像の左上の端点などを基準点としてもよい。
【0058】
基準点特定方法は、物体の部位点(学習対象点)毎に予め定められていればよく、具体的な方法は任意でよい。
【0059】
部位点特定部24は、領域切り出し部22から正規化画像を取得し、取得した正規化画像上における学習対象点を、操作部14から入力されたユーザの指示に基づいて特定するものである。部位点特定部24は、特定した学習対象点の正規化画像上における座標である部位座標を位置情報生成部27に出力する。
【0060】
具体的には、例えば学習対象点が目の輪郭点である「上瞼点」の場合、部位点特定部24は、正規化画像を表示部15に表示して、ユーザに目の上瞼点を指定するように指示し、ユーザが指定した点を学習対象点として特定する。また、部位点特定部24は、原画像に対応付けられているメタデータ(部位点位置情報)を参照して、メタデータで示される目の上瞼点の位置に基づいて、アフィン変換等により学習対象点を特定してもよい。この場合、LRF学習装置2が学習を実行する前に、予め、各原画像に対して、原画像上における目の上瞼点の位置を特定し、特定した目の上瞼点の位置を示す情報を含むメタデータを原画像に対応付けておくものとする。
【0061】
図4に示す例では、学習対象点として、上瞼点以外に、下瞼点、目頭点および目尻点が特定されている。なお、上瞼点とは、目の輪郭点が形成する上側の円弧の頂点である。また、下瞼点とは、目の輪郭点が形成する下側の円弧の頂点である。
【0062】
サンプリング位置特定部25は、領域切り出し部22から正規化画像を取得し、所定のサンプリング位置特定方法に基づいて、正規化画像上の所定の範囲内に基準点(部位点)に対する複数のサンプリング点を特定する。ここで、上記所定の範囲をサンプリング範囲と称する。
【0063】
サンプリング位置特定方法は、物体の部位点(学習対象点)毎に予め定められていればよく、どのような方法であってもよい。
【0064】
具体的には、サンプリング位置特定部25が特定するサンプリング点はサンプリング範囲内であればどの点でもよい。例えば、サンプリング位置特定部25は、サンプリング範囲内の全画素をサンプリング点としてもよい。サンプリング位置特定部25は、サンプリング範囲内の画素を規則的または不規則的に選択し、選択した画素をサンプリング点としてもよい。また、サンプリング位置特定部25は、サンプリング範囲を複数のブロックに分割し、ブロックの中心点をサンプリング点としてもよい。
【0065】
ここで、上記のサンプリング範囲は、正規化画像上において、学習対象点が位置すると考えられる領域を含む範囲であればどのような範囲であってもよい。例えば、学習対象点が位置すると考えられる領域を含むn画素×m画素の範囲をサンプリング範囲としてもよい。また、学習対象点が位置すると考えられる領域は、正規化画像上における所定の位置、大きさの領域であってよい。例えば、上瞼点が学習対象点の場合、目頭点および目尻点から目の中心点を特定し、目の中心点から上方の所定の範囲を学習対象点が位置すると考えられる領域としてもよい。
【0066】
また、学習対象物が位置すると考えられる領域を含む範囲をサンプリング範囲としてもよい。具体的には、図5に示すように、学習対象物が目の場合、正規化画像において、目があると考えられる領域を覆う範囲をサンプリング範囲としてもよく、例えば、上述のように、目頭点および目尻点から目の中心点を特定し、目の中心点を中心とするi画素×j画素の範囲をサンプリング範囲としてもよい。
【0067】
なお、サンプリング範囲の形状は、i画素×j画素のような矩形に限るものではない。サンプリング範囲の形状は任意でよく、例えば、他の多角形や円形であってもよい。図5に示す例では、目があると考えられる領域を覆う範囲をサンプリング範囲としているため、サンプリング範囲の形状は、矩形から四隅が削り取られた形状となっている。
【0068】
特徴量抽出部26は、所定の特徴量抽出方法に基づいて、サンプリング位置特定部25が特定したサンプリング点毎に、サンプリング点の画素またはサンプリング点の画素を含む画素群から特徴量を抽出する。そして、特徴量抽出部26は、各サンプリング点にそれぞれ対応する複数の特徴量から構成される特徴量群を部位点毎に生成する。
【0069】
換言すると、特徴量抽出部26は、部位点に対応する基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出するものである。
【0070】
ここで、特徴量抽出方法は、物体の部位点(学習対象点)毎に予め定められていればよく、どのような方法であってもよい。
【0071】
具体的には。特徴量抽出部26が抽出する特徴量は任意でよい。例えば、輝度値、エッジ情報、周波数特性(Gabor、Haar等)、輝度勾配特徴量(SIFT、HOG等)またはそれらの組み合わせを特徴量としてもよい。
【0072】
また、特徴量抽出部26は、サンプリング点の画素を含む画素群から特徴量を抽出する場合、画素群に含まれる全画素の値の平均値または中央値に基づいて特徴量を抽出してもよい。また、この場合、特徴量抽出部26は、画素群に含まれる1または複数の画素に基づいて特徴量を抽出してもよい。例えば、特徴量抽出部26は、サンプリング点を中心とする3×3画素の9つの画素を含む画素群から特徴量を抽出する場合、9つの画素の値の平均値または中央値に基づいて特徴量を抽出してもよい。また、特徴量抽出部26は、9つの画素のうちの1または複数の画素に基づいて特徴量を抽出してもよい。
【0073】
また、特徴量抽出部26は、1つのサンプリング点から複数の種類の特徴量を抽出してもよい。例えば、特徴量抽出部26は、1つのサンプリング点の画素または画素群から、輝度値およびHaar値を特徴量としてそれぞれ抽出してもよい。また、特徴量抽出部26は、サンプリング点を中心とする3×3画素の画素群から輝度値を特徴量として抽出すると共に、同じサンプリング点を中心とする4×4画素の画素群から輝度値を特徴量として抽出し、2種類の特徴量を抽出してもよい。
【0074】
図5に示す例では、特徴量抽出部26は、サンプリング点の各画素からHaar値を特徴量として抽出し、特徴量群を生成している。なお、サンプリング位置特定部25は、例えば、サンプリング範囲内に数百個のサンプリング点を設定する。すなわち、特徴量抽出部26は、例えば、数百個の特徴量から成る特徴量群を生成する。
【0075】
位置情報生成部27は、基準点特定部23から基準座標を取得し、部位点特定部24から部位座標を取得する。そして、位置情報生成部27は、所定の位置情報生成方法に基づいて、基準点を原点とする学習対象点の位置を示す位置情報を生成するものである。換言すると、位置情報生成部27は、所定の位置情報生成方法に基づいて、基準点に対する学習対象点の相対位置を示す位置情報を生成する。位置情報生成部27は、生成した位置情報をLRF関数算出部28に出力する。
【0076】
位置情報は、xy座標系または極座標系における座標である。また、基準座標および部位座標は、xy座標系または極座標系のどちらでもよい。
【0077】
ここで、位置情報生成方法は、物体の部位点(学習対象点)毎に予め定められていればよく、どのような方法であってもよい。
【0078】
図4に示す例では、位置情報生成部27は、基準座標および部位座標、並びに、位置情報をxy座標系で表し、部位座標ごとに、部位座標と基準座標との差分を算出し、各学習対象点の位置情報を生成する。すなわち、部位座標を(a,b)、基準座標を(c,d)とすると、位置情報(X,Y)は、(a−c,b−d)で算出される。
【0079】
また、図4では、「LeftX」、「LeftY」がそれぞれ目尻点の位置情報のx座標、y座標を示し、「RightX」、「RightY」がそれぞれ目頭点の位置情報のx座標、y座標を示し、「UpX」、「UpY」がそれぞれ上瞼点の位置情報のx座標、y座標を示し、「DownX」、「DownY」がそれぞれ下瞼点の位置情報のx座標、y座標を示す。
【0080】
LRF関数算出部28は、1つの画像につき、学習対象点毎に、特徴量抽出部26から学習対象点に対する特徴量群を取得し、位置情報生成部27から当該学習対象点に対する位置情報を取得する。そして、LRF関数算出部28は、学習対象点毎に、複数の画像からそれぞれ生成された特徴量群および位置情報に基づいて、当該学習対象点に対する、位置情報と特徴量群との対応関係を示す対応関係情報を生成する。なお、LRF関数算出部28は、対応関係情報を生成する際に、同じ学習対象点に関しては、同一の方法(学習対象領域画像抽出方法、正規化方法、基準点特定方法、サンプリング位置特定方法、特徴量抽出方法および位置情報生成方法が同一)により生成された位置情報および特徴量群を使用するものとする。
【0081】
具体的には、図6に示すように、LRF関数算出部28は、複数の画像からそれぞれ生成された特徴量群および位置情報をプロットし、回帰分析を用いて、位置情報と特徴量群との相関関係を示すLRF関数(対応関係情報)を算出する。なお、図6では、説明の便宜のため、平面で示しているが、実際には、高次元であるため特徴量群と位置情報との対応関係、つまり、LRF関数は超回帰平面で表されるものである。
【0082】
また、図6に示す例では、各学習対象点(目尻点、目頭点、上瞼点および下瞼点)が位置すると考えられる領域を全て含むようにサンプリング範囲を設定し、各学習対象点に対して同じ特徴量群を生成し、同じ基準点を用いて各学習対象点の位置情報を生成しているため、各学習対象点の位置情報に対して1つの特徴量群を対応付けている。ただし、これに限るものではなく、各学習対象点に対して、個別に位置情報および特徴量群を生成し、学習対象点ごとにLRF関数を求めてもよい。
【0083】
図6に示す例では、特徴量群をXとすると、位置情報をYは、Y=AX+Bで表される。ここで、例えば、特徴量群Xがk個のサンプリング点から抽出したm個(m=k×(1つのサンプリング点から抽出される特徴量の種類数))の特徴量から構成されており、位置情報Yがn個の学習対象点のx座標、y座標で構成される場合、特徴量群X=(x1,x2,…,xm)T、位置情報Y=(y1,y2,…,y2n)Tで表される。この場合、係数Aは2n×mの行列であり、係数Bは2n×1の行列で表される。
【0084】
ここで、LRF関数算出部28がもちいる回帰分析は、重回帰やCCAなど回帰分析であれば何でもよい。また、LRF関数算出部28が求めるLRF関数は、図6に示すような線形でもよいし、非線形でもよい。
【0085】
また、LRF関数算出部28は、位置情報と特徴量群との対応関係に基づいて、両者の対応関係を特定する対応関係テーブルを生成してもよい。
【0086】
LRF関数算出部28は、生成したLRF関数に、LRF関数により対応関係が示される位置の部位点および上記の各方法を対応付けたLRF情報を記憶部17に格納する。
【0087】
記憶部17は、制御部16が参照するプログラムやデータ等を格納するものであり、例えば、上記のLRF情報41等を格納している。
【0088】
記憶部17に格納されているLRF情報41について図7に基づいて説明する。図7は、記憶部17に格納されているLRF情報41の一例を示す図である。
【0089】
図7に示すように、LRF情報41は、部位点と、当該部位点に関するLRF関数とが対応付けられている情報である。また、LRF情報41は、部位点と、特徴量群および位置情報をそれぞれ生成するための各方法(学習対象領域画像抽出方法、正規化方法、基準点特定方法、サンプリング位置特定方法、特徴量抽出方法および位置情報生成方法)とが対応付けられている情報である。
【0090】
図7に示す例では、学習対象領域画像抽出方法および正規化方法に関しては、各学習対象点に同じ方法が対応付けられており、その他の方法に関しては、物体毎に、各学習対象点に同じ方法が対応付けられているが、これに限るものではない。学習対象点ごとに、それぞれ異なる方法が対応付けられていてもよい。
【0091】
また、図7に示す例では、LRF関数が部位点毎に対応付けられているがこれに限るものではなく、物体毎にLRF関数が対応付けられていてもよい。例えば、図7に示す例では、物体毎に、学習対象領域画像抽出方法、正規化方法、基準点特定方法、サンプリング位置特定方法および特徴量抽出方法が同じである。つまり、同じ物体であれば、或る画像から抽出された特徴量群Xが部位点に関わらず同じである。この場合、例えば右目に関して、位置情報Y=(y1,y2,…,y10)Tにおいて、y1〜y10をそれぞれ上瞼点の位置情報のx座標、y座標、下瞼点の位置情報のx座標、y座標、目頭点の位置情報のx座標、y座標、目尻点の位置情報のx座標、y座標、瞳点の位置情報のx座標、y座標とすると、右目のLRF関数をY=AX+Bとして表すことができる。なお、A=(A1,A2,…,A5)T、B=(B1,B2,…,B5)Tである。
【0092】
また、図7に示す例では、LRF情報41において、LRF関数に各方法が対応付けられているがこれに限るものではない。図7に示す例では、学習時に、LRF学習装置が各方法を適宜選択してLRF関数を生成する場合を示しているが、学習時と検出時において、各部位点毎に、予め定めた方法を各方法に関して使用する場合、部位点検出装置1およびLRF学習装置2が各部位点毎に予め定めた方法を記憶していればよい(例えば、学習プログラムおよび検出プログラムに組み込まれていればよい)。この場合、LRF情報41において、LRF関数に各方法が対応付けられている必要はなく、LRF情報41は、部位点に対応付けられたLRF関数を示す情報が含まれていればよい。
【0093】
〔部位点検出装置の構成〕
次に、部位点検出装置について図1に基づいて説明する。部位点検出装置は、LRF学習装置が生成したLRF情報に基づいて、他の装置から取得した画像、または、自装置に搭載されたカメラで撮像した画像から、物体の輪郭点や特徴点等の部位点を検出する装置である。
【0094】
部位点検出装置は、例えば、デジタルカメラ、PC、携帯電話機、PDA(Personal Digital Assistant)、ゲーム機、写真を撮影して印刷する装置、画像を編集する装置などであってよい。
【0095】
本実施形態では、検出対象の部位点を有する物体を人間の目や口等としているがこれに限るものではない。例えば、犬や猫等の動物の顔や器官等であってもよいし、携帯電話機やテレビ等であってもよいし、建物や雲等であってもよい。ここで、部位点検出装置が上記検出対象の部位点を検出対象点と称し、検出対象点を有する物体を検出対象物と称する。
【0096】
図1は、部位点検出装置1の要部構成の一例を示すブロック図である。図1に示すように、部位点検出装置1は、制御部11、記憶部12、画像入力部13、操作部(入力手段)14および表示部15を備えている。なお、部位点検出装置1は、他の装置と通信するための通信部、音声入力部、音声出力部等の部材を備えていてもよいが、発明の特徴点とは関係がないため当該部材を図示していない。
【0097】
なお、説明の便宜上、LRF学習装置2に含まれる部材と同一の機能を有する部材には、同一の符号を付し、その説明を一部省略する。
【0098】
記憶部12は、制御部11が参照するプログラムやデータ等を格納するものであり、例えば、LRF学習装置が生成したLRF情報41等を格納している。記憶部12に格納されているLRF情報41は、例えば、図7に示すようなデータであってよい。
【0099】
制御部11は、記憶部12から一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、部位点検出装置1が備える各部を統括的に制御するものである。
【0100】
本実施形態では、制御部11は、機能ブロックとして、画像取得部21、領域切り出し部22、基準点特定部23、サンプリング位置特定部(サンプリング位置特定手段)25、特徴量抽出部26、位置情報特定部(位置情報特定手段)29および部位点特定部(検出側部位点特定手段)30を備える構成である。これらの制御部11の各機能ブロック(21〜23、25、26、29、30)は、CPUが、ROM等で実現された記憶装置に記憶されているプログラムをRAM等で実現された一時記憶部に読み出して実行することで実現できる。
【0101】
画像取得部21は、画像入力部13を介して入力された画像を取得するものである。画像取得部21は、取得した画像を領域切り出し部22に出力する。
【0102】
領域切り出し部22は、記憶部12からLRF情報41を読み出し、LRF情報41において検出対象点に対応付けられている学習対象領域画像抽出方法に基づいて、取得した画像から、検出対象点が含まれる領域の画像である検出対象領域画像を抽出するものである。
【0103】
また、領域切り出し部22は、LRF情報41において検出対象点に対応付けられている正規化方法に基づいて、抽出した検出対象領域画像を正規化し、正規化画像を生成するものである。領域切り出し部22は、生成した正規化画像を基準点特定部23およびサンプリング位置特定部25に出力する。
【0104】
基準点特定部23は、記憶部12からLRF情報41を読み出し、領域切り出し部22から正規化画像を取得する。そして、基準点特定部23は、LRF情報41において検出対象点に対応付けられている基準点特定方法に基づいて、取得した正規化画像上の所定の点を基準点として特定するものである。基準点特定部23は、特定した基準点の正規化画像上における座標である基準座標を部位点特定部30に出力する。
【0105】
サンプリング位置特定部25は、記憶部12からLRF情報41を読み出し、領域切り出し部22から正規化画像を取得し、LRF情報41において検出対象点に対応付けられているサンプリング位置特定方法に基づいて、正規化画像上の所定の範囲内に基準点(部位点)に対する複数のサンプリング点を特定する。
【0106】
特徴量抽出部26は、記憶部12からLRF情報41を読み出し、LRF情報41において検出対象点に対応付けられている特徴量抽出方法に基づいて、基準点に対するサンプリング点毎に、サンプリング点の画素またはサンプリング点の画素を含む画素群から特徴量を抽出する。そして、特徴量抽出部26は、各サンプリング点にそれぞれ対応する複数の特徴量から構成される特徴量群を生成する。
【0107】
位置情報特定部29は、記憶部12からLRF情報41を読み出し、LRF情報41において検出対象点に対応付けられているLRF関数に基づいて、特徴量抽出部26が生成した特徴量群に対応する位置情報を特定するものである。位置情報特定部29は、特定した位置情報を部位点特定部30に出力する。
【0108】
具体的には、図8に示すように、位置情報特定部29は、特徴量抽出部26が生成した特徴量群を入力値としてLRF関数に与え、その出力結果を位置情報とする。
【0109】
部位点特定部30は、基準点特定部23から基準座標を取得し、位置情報特定部29から位置情報を取得する。そして、部位点特定部30は、正規化画像において、基準座標が示す点を原点とする位置情報が示す位置を検出対象点として特定するものである。
【0110】
〔LRF学習方法〕
次に、LRF学習装置2が実行するLRF学習方法について、図9および図10に基づいて説明する。図9は、LRF学習装置2が実行するLRF学習方法の一例を示す図である。図10は、LRF学習方法に含まれる各処理の状態を、画像を用いて模式的に示す遷移図である。
【0111】
図9および図10に示す例では、人間の顔の両目および口の輪郭点に対するLRF関数を生成するものとする。具体的には、右目および左目の目尻点、目頭点、上瞼点、下瞼点および瞳点、並びに、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点を学習対象点とする。なお、上唇(下唇)の上中点とは、上唇(下唇)の中央の上側の輪郭点であり、上唇(下唇)の下中点とは、上唇(下唇)の中央の下側の輪郭点である。
【0112】
また、図9および図10に示す例では、右目、左目および口の中央点をそれぞれの基準点とする。また、サンプリング範囲は、右目、左目および口をそれぞれ覆う範囲に設定する。具体的には、右目、左目および口の中央点(基準点)を中心とした所定範囲をサンプリング範囲とする。
【0113】
図9に示すように、まず、画像取得部21は、画像入力部13を介して入力された画像を取得する(S1)。このときの状態を、図10の状態1に示す。
【0114】
次に、領域切り出し部22は、画像取得部21が取得した画像から、学習対象領域画像抽出方法「G001」(例えば、従来の顔検出方法または顔器官点検出方法)に基づいて、顔画像を検出する(S2)。このときの状態を、図10の状態2に示す。状態2では、検出された顔画像が四角の線で囲われており、検出された顔器官点が白点で示されている。
【0115】
そして、領域切り出し部22は、正規化方法「H001」に基づいて、検出した顔画像を切り出し、切り出した顔画像を正規化して正規化画像を生成する(S3)。このときの状態を、図10の状態3に示す。
【0116】
次に、基準点特定部23は、基準点特定方法「I001」、「I002」、「I003」にそれぞれ基づいて、正規化画像上における右目、左目および口の基準点を特定する(S4)。このときの状態を、図10の状態4に示す。上述のように、状態4では、左右の目の中心および口の中心にそれぞれの基準点が設定されている。
【0117】
次に、部位点特定部24は、正規化画像上において、右目および左目の目尻点、目頭点、上瞼点、下瞼点および瞳点、並びに、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点を学習対象点として特定する(S5)。このときの状態を、図10の状態5に示す。
【0118】
次に、サンプリング位置特定部25は、サンプリング位置特定方法「J001」、「J002」、「J003」にそれぞれ基づいて、正規化画像上の各サンプリング範囲内にそれぞれ複数のサンプリング点を特定する(S6)。そして、特徴量抽出部26は、特徴量抽出方法「K001」、「K002」、「K003」にそれぞれ基づいて、左右の目および口の各サンプリング点の画素または画素群からそれぞれ特徴量群を抽出する(S7)。このときの状態を、図10の状態6に示す。上述のように、状態6では、左右の目および口をそれぞれ覆うように、各器官の中心点を中心とする所定の位置にサンプリング点が設定されている。すなわち、ここでは、右目の目尻点、目頭点、上瞼点、下瞼点および瞳点に対する特徴量群と、左目の目尻点、目頭点、上瞼点、下瞼点および瞳点に対する特徴量群と、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点に対する特徴量群との3つの特徴量群が生成される。換言すると、右目、左目および口の各基準点(中心点)に対して、それぞれ3つの特徴量群が生成される。
【0119】
次に、位置情報生成部27は、位置情報生成方法「L001」、「L002」、「L003」にそれぞれ基づいて、基準点を原点とする学習対象点の位置を示す位置情報を学習対象点毎に生成する(S8)。このときの状態を、図10の状態7に示す。
【0120】
以上の処理を複数の画像に対して行い、画像毎に、各学習対象点に対する特徴量群および位置情報を生成する。
【0121】
LRF関数算出部28は、回帰分析を用いて、複数組の位置情報および特徴量群から、各学習対象点に対するLRF関数をそれぞれ生成する(S9)。そして、LRF関数算出部28は、生成した各学習対象点に対するLRF関数に、それぞれ、使用した各方法(学習対象領域画像抽出方法、正規化方法、基準点特定方法、サンプリング位置特定方法、特徴量抽出方法および位置情報生成方法)を対応付けてLRF情報41を生成し、記憶部12に格納する。
【0122】
〔部位点検出方法〕
次に、部位点検出装置1が実行する部位点検出方法について、図11および図12に基づいて説明する。図11は、部位点検出装置1が実行する部位点検出方法の一例を示す図である。図12は、部位点検出方法に含まれる各処理の状態を、画像を用いて模式的に示す遷移図である。
【0123】
図11および図12に示す例では、部位点検出装置1の記憶部12に図7に示すLRF情報41が格納されているものとする。また、ここでは、人間の顔の右目および左目の目尻点、目頭点、上瞼点、下瞼点および瞳点、並びに、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点を検出するものとする。
【0124】
図11に示すように、まず、画像取得部21は、画像入力部13を介して入力された画像を取得する(S11)。このときの状態を、図12の状態11に示す。
【0125】
次に、領域切り出し部22は、記憶部12からLRF情報41を読み出す。ここで、LRF情報41において、各検出対象点には、全て同じ学習対象領域画像抽出方法「G001」および正規化方法「H001」が対応付けられている。そのため、領域切り出し部22は、学習対象領域画像抽出方法「G001」に基づいて、画像取得部21が取得した画像から、画像を切り出す(S12)。このときの状態を、図12の状態12に示す。状態12では、顔画像および顔器官点が検出され、検出された顔画像が四角の線で囲われており、検出された顔器官点が白点で示されている。
【0126】
そして、領域切り出し部22は、検出した顔画像を切り出し、正規化方法「H001」に基づいて切り出した顔画像を正規化して正規化画像を生成する(S13)。このときの状態を、図12の状態13に示す。
【0127】
次に、基準点特定部23は、記憶部12からLRF情報41を読み出す。ここで、LRF情報41において、右目、左目、口単位で、同じ基準点特定方法「I001」、「I002」、「I003」がそれぞれ対応付けられている。そのため、基準点特定部23は、正規化画像上に、右目の検出対象点の基準点を基準点特定方法「I001」に基づいて特定し、左目の検出対象点の基準点を基準点特定方法「I002」に基づいて特定し、口の検出対象点の基準点を基準点特定方法「I003」に基づいて特定する(S14)。このときの状態を、図12の状態14に示す。図示のように、状態14では、右目、左目、口のそれぞれ中心点が基準点として特定されている。
【0128】
次に、サンプリング位置特定部25は、記憶部12からLRF情報41を読み出す。ここで、LRF情報41において、右目、左目、口単位で、同じサンプリング位置特定方法「J001」、「J002」、「J003」がそれぞれ対応付けられている。そのため、サンプリング位置特定部25は、正規化画像上において、右目の検出対象点のサンプリング点をサンプリング位置特定方法「J001」に基づいて特定し、左目の検出対象点のサンプリング点をサンプリング位置特定方法「J002」に基づいて特定し、口の検出対象点のサンプリング点をサンプリング位置特定方法「J003」に基づいて特定する(S15)。
【0129】
このときの状態を、図12の状態15に示す。図示のように、状態15では、左右の目および口をそれぞれ覆うように、各器官の基準点を中心とする所定の範囲にサンプリング点が設定されている。
【0130】
そして、特徴量抽出部26は、記憶部12からLRF情報41を読み出す。ここで、LRF情報41において、右目、左目、口単位で、同じ特徴量抽出方法「K001」、「K002」、「K003」がそれぞれ対応付けられている。そのため、特徴量抽出部26は、右目の検出対象点のサンプリング点の画素または画素群から、右目の検出対象点の特徴量群を特徴量抽出方法「K001」に基づいて抽出し、左目の検出対象点のサンプリング点の画素または画素群から、左目の検出対象点の特徴量群を特徴量抽出方法「K002」に基づいて抽出し、口の検出対象点のサンプリング点の画素または画素群から、口の検出対象点の特徴量群を特徴量抽出方法「K003」に基づいて抽出する(S16)。
【0131】
すなわち、ここでは、右目の目尻点、目頭点、上瞼点、下瞼点および瞳点に対する特徴量群と、左目の目尻点、目頭点、上瞼点、下瞼点および瞳点に対する特徴量群と、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点に対する特徴量群との3つの特徴量群が生成される。換言すると、右目、左目および口の各基準点(中心点)に対して、それぞれ3つの特徴量群が生成される。
【0132】
次に、位置情報特定部29は、記憶部12からLRF情報41を読み出す。そして、位置情報特定部29は、右目の目尻点、目頭点、上瞼点、下瞼点および瞳点に対応付けられているLRF関数に、これらの検出対象点に対する特徴量群をそれぞれ入力して、右目の目尻点、目頭点、上瞼点、下瞼点および瞳点の位置情報をそれぞれ特定する。また、位置情報特定部29は、左目の目尻点、目頭点、上瞼点、下瞼点および瞳点に対応付けられているLRF関数に、これらの検出対象点に対する特徴量群をそれぞれ入力して、左目の目尻点、目頭点、上瞼点、下瞼点および瞳点の位置情報をそれぞれ特定する。また、位置情報特定部29は、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点に対応付けられているLRF関数に、これらの検出対象点に対する特徴量群をそれぞれ入力して、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点の位置情報をそれぞれ特定する(S17)。
【0133】
最後に、部位点特定部30は、記憶部12からLRF情報41を読み出す。ここで、LRF情報41において、右目、左目、口単位で、同じ位置情報生成方法「L001」、「L002」、「L003」がそれぞれ対応付けられている。そのため、部位点特定部30は、右目の目尻点、目頭点、上瞼点、下瞼点および瞳点の位置情報から、位置情報生成方法「L001」に基づいて、これらの検出対象点の正規化画像上における座標をそれぞれ特定し、左目の目尻点、目頭点、上瞼点、下瞼点および瞳点の位置情報から、位置情報生成方法「L002」に基づいて、これらの検出対象点の正規化画像上における座標をそれぞれ特定し、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点の位置情報から、位置情報生成方法「L003」に基づいて、これらの検出対象点の正規化画像上における座標をそれぞれ特定する(S18)。
【0134】
例えば、右目の目尻点について、右目の基準点(中心点)のX座標値、Y座標値に、目尻点の位置情報の示すX座標値、Y座標値の差分値をそれぞれ加算する。この加算して求めた値であるX座標値、Y座標値が、目尻点の正規化画像上における座標値である。右目の他の部位点、並びに、左目の各部位点および口の各部位点に対しても同様の処理を行い、正規化画像上における右目、左目および口の各部位点の座標を特定する。
【0135】
このときの状態を、図12の状態16に示す。図示のように、状態16では、右目および左目の目尻点、目頭点、上瞼点、下瞼点および瞳点、並びに、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点の正規化画像上における位置(座標)が特定されている。
【0136】
そして、正規化画像上における各部位点の座標値から、例えば、アフィン変換等により、原画像上における各部位点の座標値を算出して、原画像上における各部位点の座標を特定する。
【0137】
〔補足〕
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
【0138】
最後に、部位点検出装置1およびLRF学習装置2の各ブロック、特に制御部11および制御部16は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
【0139】
すなわち、部位点検出装置1およびLRF学習装置2は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである部位点検出装置1およびLRF学習装置2の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、部位点検出装置1およびLRF学習装置2に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
【0140】
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。
【0141】
また、部位点検出装置1およびLRF学習装置2を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
【産業上の利用可能性】
【0142】
本発明は、画像上の物体の所定の部位点を検出する画像処理装置に利用することができる。より好ましくは、形状が多様に変化する物体の所定の部位点を画像から検出する画像処理装置に利用することができる。
【符号の説明】
【0143】
1 部位点検出装置(画像処理装置)
2 LRF学習装置(情報生成装置)
14 操作部(入力手段)
21 画像取得部(画像取得手段)
23 基準点特定部(基準点特定手段)
24 部位点特定部(学習側部位点特定手段)
25 サンプリング位置特定部(サンプリング位置特定手段)
26 特徴量抽出部(特徴量抽出手段)
27 位置情報生成部(位置情報生成手段)
28 LRF関数算出部(対応関係情報生成手段)
29 位置情報特定部(位置情報特定手段)
30 部位点特定部(検出側部位点特定手段)
【技術分野】
【0001】
本発明は、目や口等の物体の輪郭点や特徴点等の部位点を検出するための画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体に関するものである。
【背景技術】
【0002】
顔画像から、目や口の輪郭点を検出する技術は、顔認証や表情推定のための前段処理や、似顔絵生成などのアプリケーションに応用できるなどの理由から従来から盛んに研究されている。
【0003】
例えば、特許文献1には、ユーザから指定された目や口等の中心点を中心として目や口等の探索範囲を設定し、設定した探索範囲内をスキャンして、色成分等に基づいて目領域や口領域等を抽出する技術が記載されている。また、特許文献1には、抽出した目領域や口領域等の左右の端点を特定し、左右の端点に基づいて目領域や口領域等の上下の端点を探索する探索範囲を設定して上下の端点を抽出することが記載されている。
【0004】
また、特許文献2には、目の輪郭点を抽出する場合、目の左右の端点を基準点とし、基準点に基づいて動的輪郭モデルをフィッティングし、エネルギー最小化により目の輪郭点を抽出することが記載されている。
【0005】
また、顔画像から目や口の輪郭点を検出する手法として形状モデルやテクスチャモデルに基づくフィッティング手法がある。具体的には、非特許文献1、2および特許文献3、4に記載のASM(Active Shape Model)、AAM(Active Appearance Model)、ASAM(Active Structure Appearance Model)等のフィッティング手法がある。
【0006】
ASM、AAMおよびASAMの形状モデルとは、顔の形状やテクスチャを少ないパラメータで表現するモデルのことである。これらは顔特徴点座標情報やテクスチャ情報に対して主成分分析を適用し、それによって得られた基底ベクトルのうち固有値の大きいものだけで顔の特徴点座標を表現させたものである。このことは、少ないデータで顔の形状を表現するだけでなく、顔の形状を保つ拘束条件も持つことができる。このモデルをASMおよびAAMではエネルギー最小化より、ASAMではモデルパラメータ誤差算出より顔画像にフィッティングさせることで、顔の特徴点座標を検出する。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】特開平9−6964号公報(1997年1月10日公開)
【特許文献2】特開2005−339288号公報(2005年12月8日公開)
【特許文献3】特許第4093273号公報(2008年6月4日発行)
【特許文献4】特許第4501937号公報(2010年7月14日発行)
【非特許文献】
【0008】
【非特許文献1】T.F. Cootes, et al、「Active Shape Models - Their Training and Application」、CVIU、Vol.6、No.1、p.38-59、1995年
【非特許文献2】T.F. Cootes, et al、「Active appearance models」、ECCV’98 Vol.II、Freiburg、Germany、1998年
【発明の概要】
【発明が解決しようとする課題】
【0009】
口の形状や目の形状、またそれらの組合せなどにより、顔の表情は多様に変化し,様々なバリエーションがある。そのため、様々な形状に変化する目や口など物体の形状状態を全て予測することは難しい。それゆえ、上述のような従来技術は、目や口の輪郭点などの形状が大きく変化する物体の輪郭点を高精度に検出することが困難である。
【0010】
具体的には、特許文献1に記載の技術では、目や口などの形状が想定している以上に変化して目や口などの輪郭点が探索範囲内に収まっていない場合、輪郭点を正しく検出することができない。一方、多様な口の形状や目の形状をカバーするために、探索範囲を広く設定した場合、特許文献1に記載の技術では探索範囲をスキャンして検出しているため、処理負荷が非常に大きくなる。そのため、特許文献1に記載の技術において、探索範囲を広く設定することは実用的でない。よって、特許文献1に記載の技術は、形状が大きく変化する物体の輪郭点を高精度に検出することが困難である。
【0011】
また、特許文献2に記載の技術では、使用する動的輪郭モデルから、物体の形状がかけ離れている場合、物体の輪郭点の抽出に非常に時間がかかる、もしくは、正しい輪郭点を抽出できない。一方、多様な口の形状や目の形状をカバーするために、様々なモデルを用意した場合、輪郭点の抽出の精度は向上するが、装置が予め記憶するデータサイズが大きくなったり、処理負荷が大きくなったりする。そのため、特許文献2に記載の技術において、様々なモデルを用意することは実用的でない。よって、特許文献2に記載の技術は、形状が大きく変化する物体の輪郭点を高精度に検出することが困難である。
【0012】
また、ASMおよびAAMは探索処理に多くの計算時間がかかるという欠点がある。またAAMは個人ごとの形状モデルを用意する必要があり、他人の顔に対するフィッティング精度が低いという問題もある。
【0013】
また、ASMおよびAAMに対し高速高精度化を実現できたのが、ASAMである。ASAMは、表情変化の少ない顔に関しては顔の形状を拘束条件とすることで高精度な検出結果を得ることができる。しかしながら、ASAMは、口や目などの開閉状態や形状状態が大きく変化する表情に対しては、高精度に検出することができない。これは、ASAMが用いる顔の形状モデルが顔全体の形状を表現したグローバルなモデルであり、目や口など各部位ごとの変化、例えば開閉や形状変化に対する表現を正確にできないためである。
【0014】
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、様々な形状に変化する物体であっても、画像上における物体の形状を高精度に検出するための画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体を実現することにある。
【課題を解決するための手段】
【0015】
本発明に係る画像処理装置は、上記課題を解決するために、画像から物体の部位点を検出する画像処理装置であって、上記画像上に上記部位点に対する基準点を特定する基準点特定手段と、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出手段と、上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出手段が抽出した特徴量群に対応する位置情報を特定する位置情報特定手段と、上記位置情報特定手段が特定した位置情報の示す位置を上記物体の部位点とする検出側部位点特定手段とを備えることを特徴としている。
【0016】
本発明に係る画像処理方法は、上記課題を解決するために、画像から物体の部位点を検出する画像処理方法であって、上記画像上に上記部位点に対する基準点を特定する基準点特定ステップと、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出ステップと、上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出ステップにおいて抽出された特徴量群に対応する位置情報を特定する位置情報特定ステップと、上記位置情報特定ステップにおいて特定された位置情報の示す位置を上記物体の部位点とする部位点特定ステップとを含むことを特徴としている。
【0017】
上記の構成によれば、上記位置情報特定手段は、上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出手段が抽出した特徴量群に対応する位置情報を特定し、上記検出側部位点特定手段は、上記位置情報特定手段が特定した位置情報の示す位置を上記物体の部位点とする。
【0018】
本発明者らは、画像上において、例えば、目や口などの器官を含む領域から抽出した特徴量群と、画像上の基準点に対する器官の輪郭点や特徴点の相対位置との間に相関関係があることを見出した。この知見に基づき、上記特徴量群と上記位置情報との対応関係を示す対応関係情報を参照することにより、形状が変化する物体であっても、画像上における物体の部位点を高精度に検出できることが可能となった。すなわち、上記画像処理装置および上記画像処理方法は、物体の形状が変化した場合であっても、物体の部位点を高精度に検出できるという効果を奏する。
【0019】
また、本発明に係る画像処理装置は、上記画像上において、上記部位点が位置すると考えられる領域を含む範囲内に、上記サンプリング点の位置を特定するサンプリング位置特定手段をさらに備えることが好ましい。
【0020】
また、本発明に係る情報生成装置は、上記課題を解決するために、上記画像処理装置が参照する上記対応関係情報を生成する情報生成装置であって、物体の部位点が撮像されている画像を取得する画像取得手段と、上記画像上に上記部位点に対する上記基準点を特定する基準点特定手段と、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出手段と、上記基準点特定手段が特定した基準点に対する上記部位点の相対位置を示す上記位置情報を生成する位置情報生成手段と、上記特徴量抽出手段が抽出した特徴量群と、上記位置情報生成手段が生成した位置情報との対応関係を示す上記対応関係情報を生成する対応関係情報生成手段とを備えることを特徴としている。
【0021】
また、本発明に係る情報生成方法は、上記課題を解決するために、上記画像処理方法において参照される上記対応関係情報を生成する情報生成方法であって、物体の部位点が撮像されている画像を取得する画像取得ステップと、上記画像上に上記部位点に対する上記基準点を特定する基準点特定ステップと、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出ステップと、上記基準点特定ステップにおいて特定された基準点に対する上記部位点の相対位置を示す上記位置情報を生成する位置情報生成ステップと、上記特徴量抽出ステップにおいて抽出された特徴量群と、上記位置情報生成ステップにおいて生成された位置情報との対応関係を示す上記対応関係情報を生成する対応関係情報生成ステップとを含むことを特徴としている。
【0022】
上記の構成によれば、上記画像取得手段は、上記物体の部位点が撮像されている画像を取得し、上記基準点特定手段は、上記画像上に上記部位点に対する基準点を特定し、上記特徴量抽出手段は、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出し、上記位置情報生成手段は、上記基準点特定手段が特定した基準点に対する上記部位点の相対位置を示す位置情報を生成し、上記対応関係情報生成手段は、上記特徴量抽出手段が抽出した特徴量群と、上記位置情報生成手段が生成した位置情報との対応関係を示す対応関係情報を生成する。
【0023】
そのため、上記画像処理装置が参照する対応関係情報を生成することができるという効果を奏する。上述のように、上記特徴量群と上記位置情報との間には対応関係があるため、生成した対応関係情報を使用することにより、物体の部位点を高精度に検出することができる。
【0024】
また、本発明に係る情報生成装置は、上記対応関係情報生成手段は、回帰分析を用いて上記対応関係情報を生成することが好ましい。
【0025】
また、本発明に係る情報生成装置は、ユーザからの操作指示を受け付ける入力手段と、上記入力手段に入力された操作指示に基づいて、上記画像上における上記物体の部位点を特定する学習側部位点特定手段とをさらに備えることが好ましい。
【0026】
また、本発明に係る情報生成装置は、上記画像取得手段は、上記画像と共に、当該画像に対応付けられている、上記部位点の位置を示す部位点位置情報を取得し、上記部位点位置情報の示す位置に基づいて、上記画像上における上記物体の部位点を特定する学習側部位点特定手段とをさらに備えることが好ましい。
【0027】
なお、上記画像処理装置および上記情報生成装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記画像処理装置および上記情報生成装置の各手段として動作させることにより、上記画像処理装置および上記情報生成装置をコンピュータにて実現させる制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。
【発明の効果】
【0028】
以上のように、本発明に係る画像処理装置は、上記画像上に上記部位点に対する基準点を特定する基準点特定手段と、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出手段と、上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出手段が抽出した特徴量群に対応する位置情報を特定する位置情報特定手段と、上記位置情報特定手段が特定した位置情報の示す位置を上記物体の部位点とする検出側部位点特定手段とを備えている構成である。
【0029】
また、本発明に係る画像処理方法は、上記画像上に上記部位点に対する基準点を特定する基準点特定ステップと、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出ステップと、上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出ステップにおいて抽出された特徴量群に対応する位置情報を特定する位置情報特定ステップと、上記位置情報特定ステップにおいて特定された位置情報の示す位置を上記物体の部位点とする部位点特定ステップとを含む。
【0030】
従って、上記画像処理装置および上記画像処理方法は、物体の形状が変化した場合であっても、物体の部位点を高精度に検出できるという効果を奏する。
【0031】
また、本発明に係る情報生成装置は、物体の部位点が撮像されている画像を取得する画像取得手段と、上記画像上に上記部位点に対する上記基準点を特定する基準点特定手段と、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出手段と、上記基準点特定手段が特定した基準点に対する上記部位点の相対位置を示す上記位置情報を生成する位置情報生成手段と、上記特徴量抽出手段が抽出した特徴量群と、上記位置情報生成手段が生成した位置情報との対応関係を示す上記対応関係情報を生成する対応関係情報生成手段とを備えている構成である。
【0032】
また、本発明に係る情報生成方法は、物体の部位点が撮像されている画像を取得する画像取得ステップと、上記画像上に上記部位点に対する上記基準点を特定する基準点特定ステップと、上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出ステップと、上記基準点特定ステップにおいて特定された基準点に対する上記部位点の相対位置を示す上記位置情報を生成する位置情報生成ステップと、上記特徴量抽出ステップにおいて抽出された特徴量群と、上記位置情報生成ステップにおいて生成された位置情報との対応関係を示す上記対応関係情報を生成する対応関係情報生成ステップとを含む。
【0033】
従って、上記画像処理装置が参照する対応関係情報を生成することができるという効果を奏する。
【図面の簡単な説明】
【0034】
【図1】本発明の実施形態を示すものであり、部位点検出装置の要部構成を示すブロック図である。
【図2】階層的フィッティングの概要を示す模式図である。
【図3】本発明の実施形態を示すものであり、LRF学習装置の要部構成を示すブロック図である。
【図4】基準点特定方法および位置情報生成方法の概要を示す模式図である。
【図5】サンプリング位置特定方法および特徴量抽出方法の概要を示す模式図である。
【図6】位置情報と特徴量群との相関関係を示すLRF関数の概要を示す模式図である。
【図7】LRF学習装置の記憶部に格納されるLRF関数を含むLRF情報の一例を示す図である。
【図8】LRF関数に対する入力データである特徴量群と出力データである位置情報との対応関係を示す図である。
【図9】LRF学習装置が実行するLRF学習方法の一例を示す図である。
【図10】LRF学習方法に含まれる各処理の状態を、画像を用いて模式的に示す遷移図である。
【図11】部位点検出装置が実行する部位点検出方法の一例を示す図である。
【図12】部位点検出方法に含まれる各処理の状態を、画像を用いて模式的に示す遷移図である。
【発明を実施するための形態】
【0035】
〔本発明の概要〕
本発明者らは、画像上において、目や口などの器官を含む領域から抽出した特徴量群と、画像上の基準点を原点とする器官の輪郭点や特徴点の位置との間に相関関係があることを見出した。この知見に基づき、回帰分析により上記特徴量群と上記位置との対応関係を示すモデルを作成し、このモデルを使用した検出方法を発明した。
【0036】
この検出方法を用いることによって、事前に想定される表情だけでなく、目や口などが極度に開閉するような表情など、様々な条件でも顔や各器官を正確に検出することができる。以下では、本発明者らが発明した検出方法を、Local Regression Fitting(LRF)検出方法と称し、上記モデルを作成するための学習方法をLRF学習方法と称する。
【0037】
また、本発明者らは、LRF検出方法を従来の顔の大局的な形状を捉えるグローバルフィッティングと組み合わせて用いることが顔や各器官を正確に検出することができる最適な手法であることを発案した。具体的には、ASAM等の学習方法に基づくグローバルなモデルを用いて顔の大局的な形状を捉えるグローバルフィッティングと、LRF学習方法に基づく顔の器官ごとのローカルなモデルを用いて各器官の詳細な形状をそれぞれ捉えるローカルフィッティング(LRF検出方法)とを組み合わせた階層的フィッティングを発案した。
【0038】
階層的フィッティングは、より詳細には、図2に示すように、まず、グローバルフィッティングによって、こめかみ(2箇所)、左右の眉の眉頭および眉尻、両目の目頭および目尻、鼻孔(2箇所)、口角(2箇所)並びに顎先等を検出する。そして、LRF検出方法によって、その他の顔、眉、目、鼻および口の輪郭点を検出する。グローバルフィッティングおよびLRF検出方法によって検出された輪郭点に基づいて、顔および各器官の輪郭を検出する。
【0039】
これにより、グローバルモデルが表現できない表情に対しても、高精度に顔の輪郭を検出することができる。さらに、このような階層構造にすることにより、グローバルフィッティングにより大きな誤検出を減らすとともに、ローカルフィッティングにより表情変化した顔画像でも正確に顔輪郭特徴点を検出することが可能である。
【0040】
以下では、本発明の一実施形態における、LRF検出方法により画像上における物体の輪郭点や特徴点等の部位点を検出する部位点検出装置(画像処理装置)と、LRF学習手法によりモデルを生成するLRF学習装置(情報生成装置)とについて図1から図16に基づいて説明する。なお、以下では、部位点検出装置とLRF学習装置とがそれぞれ別体の装置として説明するが、部位点検出装置およびLRF学習装置は一体の装置であってもよい。
【0041】
〔LRF学習装置の構成〕
まず、LRF学習装置について図3に基づいて説明する。LRF学習装置は、他の装置から取得した画像、または、自装置に搭載されたカメラで撮像した画像において、画像上の基準点に対する物体の部位点の相対位置と、当該部位点に基づく画像上の所定の位置から抽出した特徴量群との対応関係を示すLRF関数(対応関係情報)を生成する装置である。
【0042】
LRF学習装置は、例えば、PC、デジタルカメラ、携帯電話機、PDA(Personal Digital Assistant)、ゲーム機、写真を撮影して印刷する装置、画像を編集する装置などであってよい。
【0043】
本実施形態では、上記対応関係を学習する対象の部位点を有する物体を人間の目や口等としているがこれに限るものではない。例えば、犬や猫等の動物の顔や器官等であってもよいし、携帯電話機やテレビ等であってもよいし、建物や雲等であってもよい。
【0044】
物体の部位点とは、画像上における物体の領域内の点である。具体的には、例えば物体が目の場合、目の輪郭点や瞳点などである。ここで、LRF学習装置が上記対応関係を学習する対象である物体の部位点を学習対象点と称し、学習対象点を有する物体を学習対象物と称する。
【0045】
図3は、LRF学習装置2の要部構成の一例を示すブロック図である。図3に示すように、LRF学習装置2は、制御部16、記憶部17、画像入力部13、操作部(入力手段)14および表示部15を備えている。なお、LRF学習装置2は、他の装置と通信するための通信部、音声入力部、音声出力部等の部材を備えていてもよいが、発明の特徴点とは関係がないため当該部材を図示していない。
【0046】
画像入力部13は、外部の画像提供装置(不図示)から画像を受信するものである。画像提供装置は、保持している画像または取得した画像を他の装置に提供する装置であれば何でもよい。例えば、画像提供装置は、デジタルカメラ、PC、携帯電話機、PDA、ゲーム機、デジタルテレビ、USB(Universal Serial Bus)メモリ等の記憶装置などである。なお、LRF学習装置2は、画像入力部13の代わりに、カメラを搭載していてもよい。
【0047】
操作部14は、ユーザがLRF学習装置2に指示信号を入力し、LRF学習装置2を操作するためのものである。操作部14は、キーボード、マウス、キーパッド、操作ボタンなどの入力機器等で構成されているものであってもよい。また、操作部14と表示部15とが一体となっているタッチパネルであってもよい。また、操作部14は、LRF学習装置2と別体のリモートコントローラ等の遠隔制御装置であってもよい。
【0048】
表示部15は、制御部16の指示に従って画像を表示するものである。表示部15は、制御部16の指示に従って画像を表示するものであればよく、例えば、LCD(液晶ディスプレイ)、有機ELディスプレイ、プラズマディスプレイなどを適用することが可能である。
【0049】
制御部16は、記憶部17から一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、LRF学習装置2が備える各部を統括的に制御するものである。
【0050】
本実施形態では、制御部16は、機能ブロックとして、画像取得部(画像取得手段)21、領域切り出し部22、基準点特定部(基準点特定手段)23、部位点特定部(学習側部位点特定手段)24、サンプリング位置特定部(サンプリング位置特定手段)25、特徴量抽出部(特徴量抽出手段)26、位置情報生成部(位置情報生成手段)27およびLRF関数算出部(対応関係情報生成手段)28を備える構成である。これらの制御部16の各機能ブロック(21〜28)は、CPU(central processing unit)が、ROM(read only memory)等で実現された記憶装置に記憶されているプログラムをRAM(random access memory)等で実現された一時記憶部に読み出して実行することで実現できる。
【0051】
画像取得部21は、画像入力部13を介して入力された画像を取得するものである。画像取得部21は、取得した画像を領域切り出し部22に出力する。なお、記憶部17に画像が記憶されている場合、画像取得部21は、記憶部17から画像を読み出してもよい。
【0052】
領域切り出し部22は、取得した画像から、学習対象点が含まれる領域の画像である学習対象領域画像を所定の学習対象領域画像抽出方法に基づいて抽出するものである。また、領域切り出し部22は、抽出した学習対象領域画像を所定の正規化方法に基づいて正規化し、正規化画像を生成するものである。領域切り出し部22は、生成した正規化画像を基準点特定部23、部位点特定部24およびサンプリング位置特定部25に出力する。
【0053】
具体的には、例えば学習対象物が「目」または「口」の場合、領域切り出し部22は、取得した画像から、顔画像を抽出し、抽出した顔画像を、例えば、100画素×100画素の画像に補正して正規化画像を生成する。
【0054】
ここで、学習対象領域画像抽出方法および正規化方法は、物体の部位点(学習対象点)毎に予め定められていればよく、具体的な方法は任意でよい。また、以下では、正規化画像の元となる、画像取得部21が取得した画像を原画像と称する。
【0055】
基準点特定部23は、領域切り出し部22から正規化画像を取得し、所定の基準点特定方法に基づいて取得した正規化画像上の所定の点を基準点として特定するものである。基準点特定部23は、特定した基準点の正規化画像上における座標である基準座標を位置情報生成部27に出力する。
【0056】
具体的には、図4に示すように、例えば学習対象物が「目」の場合、基準点特定部23は、正規化画像上における目の中心点を基準点として特定する。このとき、基準点特定部23は、正規化画像を表示部15に表示して、ユーザに目の中心点を指定するように指示し、ユーザが指定した点を基準点として特定してもよい。また、基準点特定部23は、領域切り出し部22が顔画像を抽出する際に特定した目の目頭点および目尻点に基づいて、目頭点および目尻点の中点を基準点として特定してもよい。また、基準点特定部23は、原画像に対応付けられているメタデータ(基準点位置情報)を参照して、メタデータで示される目の中心点の位置に基づいて、アフィン変換等により基準点を特定してもよい。この場合、LRF学習装置2が学習を実行する前に、予め、各原画像に対して、原画像上における目の中心点の位置を特定し、特定した目の中心点の位置を示す情報を含むメタデータを原画像に対応付けておくものとする。なお、メタデータに、目の中心点の位置を示す情報に代えて、目の中心点の位置を特定するための情報(例えば、目頭点、目尻点等)が含まれていてもよい。
【0057】
なお、基準点は、正規化画像上の点であればどの点でもよい。すなわち、例えば学習対象物が「目」の場合、目頭点または目尻点を基準点としてもよいし、顔の中心点(正規化画像の中心点)を基準点としてもよいし、正規化画像の左上の端点などを基準点としてもよい。
【0058】
基準点特定方法は、物体の部位点(学習対象点)毎に予め定められていればよく、具体的な方法は任意でよい。
【0059】
部位点特定部24は、領域切り出し部22から正規化画像を取得し、取得した正規化画像上における学習対象点を、操作部14から入力されたユーザの指示に基づいて特定するものである。部位点特定部24は、特定した学習対象点の正規化画像上における座標である部位座標を位置情報生成部27に出力する。
【0060】
具体的には、例えば学習対象点が目の輪郭点である「上瞼点」の場合、部位点特定部24は、正規化画像を表示部15に表示して、ユーザに目の上瞼点を指定するように指示し、ユーザが指定した点を学習対象点として特定する。また、部位点特定部24は、原画像に対応付けられているメタデータ(部位点位置情報)を参照して、メタデータで示される目の上瞼点の位置に基づいて、アフィン変換等により学習対象点を特定してもよい。この場合、LRF学習装置2が学習を実行する前に、予め、各原画像に対して、原画像上における目の上瞼点の位置を特定し、特定した目の上瞼点の位置を示す情報を含むメタデータを原画像に対応付けておくものとする。
【0061】
図4に示す例では、学習対象点として、上瞼点以外に、下瞼点、目頭点および目尻点が特定されている。なお、上瞼点とは、目の輪郭点が形成する上側の円弧の頂点である。また、下瞼点とは、目の輪郭点が形成する下側の円弧の頂点である。
【0062】
サンプリング位置特定部25は、領域切り出し部22から正規化画像を取得し、所定のサンプリング位置特定方法に基づいて、正規化画像上の所定の範囲内に基準点(部位点)に対する複数のサンプリング点を特定する。ここで、上記所定の範囲をサンプリング範囲と称する。
【0063】
サンプリング位置特定方法は、物体の部位点(学習対象点)毎に予め定められていればよく、どのような方法であってもよい。
【0064】
具体的には、サンプリング位置特定部25が特定するサンプリング点はサンプリング範囲内であればどの点でもよい。例えば、サンプリング位置特定部25は、サンプリング範囲内の全画素をサンプリング点としてもよい。サンプリング位置特定部25は、サンプリング範囲内の画素を規則的または不規則的に選択し、選択した画素をサンプリング点としてもよい。また、サンプリング位置特定部25は、サンプリング範囲を複数のブロックに分割し、ブロックの中心点をサンプリング点としてもよい。
【0065】
ここで、上記のサンプリング範囲は、正規化画像上において、学習対象点が位置すると考えられる領域を含む範囲であればどのような範囲であってもよい。例えば、学習対象点が位置すると考えられる領域を含むn画素×m画素の範囲をサンプリング範囲としてもよい。また、学習対象点が位置すると考えられる領域は、正規化画像上における所定の位置、大きさの領域であってよい。例えば、上瞼点が学習対象点の場合、目頭点および目尻点から目の中心点を特定し、目の中心点から上方の所定の範囲を学習対象点が位置すると考えられる領域としてもよい。
【0066】
また、学習対象物が位置すると考えられる領域を含む範囲をサンプリング範囲としてもよい。具体的には、図5に示すように、学習対象物が目の場合、正規化画像において、目があると考えられる領域を覆う範囲をサンプリング範囲としてもよく、例えば、上述のように、目頭点および目尻点から目の中心点を特定し、目の中心点を中心とするi画素×j画素の範囲をサンプリング範囲としてもよい。
【0067】
なお、サンプリング範囲の形状は、i画素×j画素のような矩形に限るものではない。サンプリング範囲の形状は任意でよく、例えば、他の多角形や円形であってもよい。図5に示す例では、目があると考えられる領域を覆う範囲をサンプリング範囲としているため、サンプリング範囲の形状は、矩形から四隅が削り取られた形状となっている。
【0068】
特徴量抽出部26は、所定の特徴量抽出方法に基づいて、サンプリング位置特定部25が特定したサンプリング点毎に、サンプリング点の画素またはサンプリング点の画素を含む画素群から特徴量を抽出する。そして、特徴量抽出部26は、各サンプリング点にそれぞれ対応する複数の特徴量から構成される特徴量群を部位点毎に生成する。
【0069】
換言すると、特徴量抽出部26は、部位点に対応する基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出するものである。
【0070】
ここで、特徴量抽出方法は、物体の部位点(学習対象点)毎に予め定められていればよく、どのような方法であってもよい。
【0071】
具体的には。特徴量抽出部26が抽出する特徴量は任意でよい。例えば、輝度値、エッジ情報、周波数特性(Gabor、Haar等)、輝度勾配特徴量(SIFT、HOG等)またはそれらの組み合わせを特徴量としてもよい。
【0072】
また、特徴量抽出部26は、サンプリング点の画素を含む画素群から特徴量を抽出する場合、画素群に含まれる全画素の値の平均値または中央値に基づいて特徴量を抽出してもよい。また、この場合、特徴量抽出部26は、画素群に含まれる1または複数の画素に基づいて特徴量を抽出してもよい。例えば、特徴量抽出部26は、サンプリング点を中心とする3×3画素の9つの画素を含む画素群から特徴量を抽出する場合、9つの画素の値の平均値または中央値に基づいて特徴量を抽出してもよい。また、特徴量抽出部26は、9つの画素のうちの1または複数の画素に基づいて特徴量を抽出してもよい。
【0073】
また、特徴量抽出部26は、1つのサンプリング点から複数の種類の特徴量を抽出してもよい。例えば、特徴量抽出部26は、1つのサンプリング点の画素または画素群から、輝度値およびHaar値を特徴量としてそれぞれ抽出してもよい。また、特徴量抽出部26は、サンプリング点を中心とする3×3画素の画素群から輝度値を特徴量として抽出すると共に、同じサンプリング点を中心とする4×4画素の画素群から輝度値を特徴量として抽出し、2種類の特徴量を抽出してもよい。
【0074】
図5に示す例では、特徴量抽出部26は、サンプリング点の各画素からHaar値を特徴量として抽出し、特徴量群を生成している。なお、サンプリング位置特定部25は、例えば、サンプリング範囲内に数百個のサンプリング点を設定する。すなわち、特徴量抽出部26は、例えば、数百個の特徴量から成る特徴量群を生成する。
【0075】
位置情報生成部27は、基準点特定部23から基準座標を取得し、部位点特定部24から部位座標を取得する。そして、位置情報生成部27は、所定の位置情報生成方法に基づいて、基準点を原点とする学習対象点の位置を示す位置情報を生成するものである。換言すると、位置情報生成部27は、所定の位置情報生成方法に基づいて、基準点に対する学習対象点の相対位置を示す位置情報を生成する。位置情報生成部27は、生成した位置情報をLRF関数算出部28に出力する。
【0076】
位置情報は、xy座標系または極座標系における座標である。また、基準座標および部位座標は、xy座標系または極座標系のどちらでもよい。
【0077】
ここで、位置情報生成方法は、物体の部位点(学習対象点)毎に予め定められていればよく、どのような方法であってもよい。
【0078】
図4に示す例では、位置情報生成部27は、基準座標および部位座標、並びに、位置情報をxy座標系で表し、部位座標ごとに、部位座標と基準座標との差分を算出し、各学習対象点の位置情報を生成する。すなわち、部位座標を(a,b)、基準座標を(c,d)とすると、位置情報(X,Y)は、(a−c,b−d)で算出される。
【0079】
また、図4では、「LeftX」、「LeftY」がそれぞれ目尻点の位置情報のx座標、y座標を示し、「RightX」、「RightY」がそれぞれ目頭点の位置情報のx座標、y座標を示し、「UpX」、「UpY」がそれぞれ上瞼点の位置情報のx座標、y座標を示し、「DownX」、「DownY」がそれぞれ下瞼点の位置情報のx座標、y座標を示す。
【0080】
LRF関数算出部28は、1つの画像につき、学習対象点毎に、特徴量抽出部26から学習対象点に対する特徴量群を取得し、位置情報生成部27から当該学習対象点に対する位置情報を取得する。そして、LRF関数算出部28は、学習対象点毎に、複数の画像からそれぞれ生成された特徴量群および位置情報に基づいて、当該学習対象点に対する、位置情報と特徴量群との対応関係を示す対応関係情報を生成する。なお、LRF関数算出部28は、対応関係情報を生成する際に、同じ学習対象点に関しては、同一の方法(学習対象領域画像抽出方法、正規化方法、基準点特定方法、サンプリング位置特定方法、特徴量抽出方法および位置情報生成方法が同一)により生成された位置情報および特徴量群を使用するものとする。
【0081】
具体的には、図6に示すように、LRF関数算出部28は、複数の画像からそれぞれ生成された特徴量群および位置情報をプロットし、回帰分析を用いて、位置情報と特徴量群との相関関係を示すLRF関数(対応関係情報)を算出する。なお、図6では、説明の便宜のため、平面で示しているが、実際には、高次元であるため特徴量群と位置情報との対応関係、つまり、LRF関数は超回帰平面で表されるものである。
【0082】
また、図6に示す例では、各学習対象点(目尻点、目頭点、上瞼点および下瞼点)が位置すると考えられる領域を全て含むようにサンプリング範囲を設定し、各学習対象点に対して同じ特徴量群を生成し、同じ基準点を用いて各学習対象点の位置情報を生成しているため、各学習対象点の位置情報に対して1つの特徴量群を対応付けている。ただし、これに限るものではなく、各学習対象点に対して、個別に位置情報および特徴量群を生成し、学習対象点ごとにLRF関数を求めてもよい。
【0083】
図6に示す例では、特徴量群をXとすると、位置情報をYは、Y=AX+Bで表される。ここで、例えば、特徴量群Xがk個のサンプリング点から抽出したm個(m=k×(1つのサンプリング点から抽出される特徴量の種類数))の特徴量から構成されており、位置情報Yがn個の学習対象点のx座標、y座標で構成される場合、特徴量群X=(x1,x2,…,xm)T、位置情報Y=(y1,y2,…,y2n)Tで表される。この場合、係数Aは2n×mの行列であり、係数Bは2n×1の行列で表される。
【0084】
ここで、LRF関数算出部28がもちいる回帰分析は、重回帰やCCAなど回帰分析であれば何でもよい。また、LRF関数算出部28が求めるLRF関数は、図6に示すような線形でもよいし、非線形でもよい。
【0085】
また、LRF関数算出部28は、位置情報と特徴量群との対応関係に基づいて、両者の対応関係を特定する対応関係テーブルを生成してもよい。
【0086】
LRF関数算出部28は、生成したLRF関数に、LRF関数により対応関係が示される位置の部位点および上記の各方法を対応付けたLRF情報を記憶部17に格納する。
【0087】
記憶部17は、制御部16が参照するプログラムやデータ等を格納するものであり、例えば、上記のLRF情報41等を格納している。
【0088】
記憶部17に格納されているLRF情報41について図7に基づいて説明する。図7は、記憶部17に格納されているLRF情報41の一例を示す図である。
【0089】
図7に示すように、LRF情報41は、部位点と、当該部位点に関するLRF関数とが対応付けられている情報である。また、LRF情報41は、部位点と、特徴量群および位置情報をそれぞれ生成するための各方法(学習対象領域画像抽出方法、正規化方法、基準点特定方法、サンプリング位置特定方法、特徴量抽出方法および位置情報生成方法)とが対応付けられている情報である。
【0090】
図7に示す例では、学習対象領域画像抽出方法および正規化方法に関しては、各学習対象点に同じ方法が対応付けられており、その他の方法に関しては、物体毎に、各学習対象点に同じ方法が対応付けられているが、これに限るものではない。学習対象点ごとに、それぞれ異なる方法が対応付けられていてもよい。
【0091】
また、図7に示す例では、LRF関数が部位点毎に対応付けられているがこれに限るものではなく、物体毎にLRF関数が対応付けられていてもよい。例えば、図7に示す例では、物体毎に、学習対象領域画像抽出方法、正規化方法、基準点特定方法、サンプリング位置特定方法および特徴量抽出方法が同じである。つまり、同じ物体であれば、或る画像から抽出された特徴量群Xが部位点に関わらず同じである。この場合、例えば右目に関して、位置情報Y=(y1,y2,…,y10)Tにおいて、y1〜y10をそれぞれ上瞼点の位置情報のx座標、y座標、下瞼点の位置情報のx座標、y座標、目頭点の位置情報のx座標、y座標、目尻点の位置情報のx座標、y座標、瞳点の位置情報のx座標、y座標とすると、右目のLRF関数をY=AX+Bとして表すことができる。なお、A=(A1,A2,…,A5)T、B=(B1,B2,…,B5)Tである。
【0092】
また、図7に示す例では、LRF情報41において、LRF関数に各方法が対応付けられているがこれに限るものではない。図7に示す例では、学習時に、LRF学習装置が各方法を適宜選択してLRF関数を生成する場合を示しているが、学習時と検出時において、各部位点毎に、予め定めた方法を各方法に関して使用する場合、部位点検出装置1およびLRF学習装置2が各部位点毎に予め定めた方法を記憶していればよい(例えば、学習プログラムおよび検出プログラムに組み込まれていればよい)。この場合、LRF情報41において、LRF関数に各方法が対応付けられている必要はなく、LRF情報41は、部位点に対応付けられたLRF関数を示す情報が含まれていればよい。
【0093】
〔部位点検出装置の構成〕
次に、部位点検出装置について図1に基づいて説明する。部位点検出装置は、LRF学習装置が生成したLRF情報に基づいて、他の装置から取得した画像、または、自装置に搭載されたカメラで撮像した画像から、物体の輪郭点や特徴点等の部位点を検出する装置である。
【0094】
部位点検出装置は、例えば、デジタルカメラ、PC、携帯電話機、PDA(Personal Digital Assistant)、ゲーム機、写真を撮影して印刷する装置、画像を編集する装置などであってよい。
【0095】
本実施形態では、検出対象の部位点を有する物体を人間の目や口等としているがこれに限るものではない。例えば、犬や猫等の動物の顔や器官等であってもよいし、携帯電話機やテレビ等であってもよいし、建物や雲等であってもよい。ここで、部位点検出装置が上記検出対象の部位点を検出対象点と称し、検出対象点を有する物体を検出対象物と称する。
【0096】
図1は、部位点検出装置1の要部構成の一例を示すブロック図である。図1に示すように、部位点検出装置1は、制御部11、記憶部12、画像入力部13、操作部(入力手段)14および表示部15を備えている。なお、部位点検出装置1は、他の装置と通信するための通信部、音声入力部、音声出力部等の部材を備えていてもよいが、発明の特徴点とは関係がないため当該部材を図示していない。
【0097】
なお、説明の便宜上、LRF学習装置2に含まれる部材と同一の機能を有する部材には、同一の符号を付し、その説明を一部省略する。
【0098】
記憶部12は、制御部11が参照するプログラムやデータ等を格納するものであり、例えば、LRF学習装置が生成したLRF情報41等を格納している。記憶部12に格納されているLRF情報41は、例えば、図7に示すようなデータであってよい。
【0099】
制御部11は、記憶部12から一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、部位点検出装置1が備える各部を統括的に制御するものである。
【0100】
本実施形態では、制御部11は、機能ブロックとして、画像取得部21、領域切り出し部22、基準点特定部23、サンプリング位置特定部(サンプリング位置特定手段)25、特徴量抽出部26、位置情報特定部(位置情報特定手段)29および部位点特定部(検出側部位点特定手段)30を備える構成である。これらの制御部11の各機能ブロック(21〜23、25、26、29、30)は、CPUが、ROM等で実現された記憶装置に記憶されているプログラムをRAM等で実現された一時記憶部に読み出して実行することで実現できる。
【0101】
画像取得部21は、画像入力部13を介して入力された画像を取得するものである。画像取得部21は、取得した画像を領域切り出し部22に出力する。
【0102】
領域切り出し部22は、記憶部12からLRF情報41を読み出し、LRF情報41において検出対象点に対応付けられている学習対象領域画像抽出方法に基づいて、取得した画像から、検出対象点が含まれる領域の画像である検出対象領域画像を抽出するものである。
【0103】
また、領域切り出し部22は、LRF情報41において検出対象点に対応付けられている正規化方法に基づいて、抽出した検出対象領域画像を正規化し、正規化画像を生成するものである。領域切り出し部22は、生成した正規化画像を基準点特定部23およびサンプリング位置特定部25に出力する。
【0104】
基準点特定部23は、記憶部12からLRF情報41を読み出し、領域切り出し部22から正規化画像を取得する。そして、基準点特定部23は、LRF情報41において検出対象点に対応付けられている基準点特定方法に基づいて、取得した正規化画像上の所定の点を基準点として特定するものである。基準点特定部23は、特定した基準点の正規化画像上における座標である基準座標を部位点特定部30に出力する。
【0105】
サンプリング位置特定部25は、記憶部12からLRF情報41を読み出し、領域切り出し部22から正規化画像を取得し、LRF情報41において検出対象点に対応付けられているサンプリング位置特定方法に基づいて、正規化画像上の所定の範囲内に基準点(部位点)に対する複数のサンプリング点を特定する。
【0106】
特徴量抽出部26は、記憶部12からLRF情報41を読み出し、LRF情報41において検出対象点に対応付けられている特徴量抽出方法に基づいて、基準点に対するサンプリング点毎に、サンプリング点の画素またはサンプリング点の画素を含む画素群から特徴量を抽出する。そして、特徴量抽出部26は、各サンプリング点にそれぞれ対応する複数の特徴量から構成される特徴量群を生成する。
【0107】
位置情報特定部29は、記憶部12からLRF情報41を読み出し、LRF情報41において検出対象点に対応付けられているLRF関数に基づいて、特徴量抽出部26が生成した特徴量群に対応する位置情報を特定するものである。位置情報特定部29は、特定した位置情報を部位点特定部30に出力する。
【0108】
具体的には、図8に示すように、位置情報特定部29は、特徴量抽出部26が生成した特徴量群を入力値としてLRF関数に与え、その出力結果を位置情報とする。
【0109】
部位点特定部30は、基準点特定部23から基準座標を取得し、位置情報特定部29から位置情報を取得する。そして、部位点特定部30は、正規化画像において、基準座標が示す点を原点とする位置情報が示す位置を検出対象点として特定するものである。
【0110】
〔LRF学習方法〕
次に、LRF学習装置2が実行するLRF学習方法について、図9および図10に基づいて説明する。図9は、LRF学習装置2が実行するLRF学習方法の一例を示す図である。図10は、LRF学習方法に含まれる各処理の状態を、画像を用いて模式的に示す遷移図である。
【0111】
図9および図10に示す例では、人間の顔の両目および口の輪郭点に対するLRF関数を生成するものとする。具体的には、右目および左目の目尻点、目頭点、上瞼点、下瞼点および瞳点、並びに、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点を学習対象点とする。なお、上唇(下唇)の上中点とは、上唇(下唇)の中央の上側の輪郭点であり、上唇(下唇)の下中点とは、上唇(下唇)の中央の下側の輪郭点である。
【0112】
また、図9および図10に示す例では、右目、左目および口の中央点をそれぞれの基準点とする。また、サンプリング範囲は、右目、左目および口をそれぞれ覆う範囲に設定する。具体的には、右目、左目および口の中央点(基準点)を中心とした所定範囲をサンプリング範囲とする。
【0113】
図9に示すように、まず、画像取得部21は、画像入力部13を介して入力された画像を取得する(S1)。このときの状態を、図10の状態1に示す。
【0114】
次に、領域切り出し部22は、画像取得部21が取得した画像から、学習対象領域画像抽出方法「G001」(例えば、従来の顔検出方法または顔器官点検出方法)に基づいて、顔画像を検出する(S2)。このときの状態を、図10の状態2に示す。状態2では、検出された顔画像が四角の線で囲われており、検出された顔器官点が白点で示されている。
【0115】
そして、領域切り出し部22は、正規化方法「H001」に基づいて、検出した顔画像を切り出し、切り出した顔画像を正規化して正規化画像を生成する(S3)。このときの状態を、図10の状態3に示す。
【0116】
次に、基準点特定部23は、基準点特定方法「I001」、「I002」、「I003」にそれぞれ基づいて、正規化画像上における右目、左目および口の基準点を特定する(S4)。このときの状態を、図10の状態4に示す。上述のように、状態4では、左右の目の中心および口の中心にそれぞれの基準点が設定されている。
【0117】
次に、部位点特定部24は、正規化画像上において、右目および左目の目尻点、目頭点、上瞼点、下瞼点および瞳点、並びに、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点を学習対象点として特定する(S5)。このときの状態を、図10の状態5に示す。
【0118】
次に、サンプリング位置特定部25は、サンプリング位置特定方法「J001」、「J002」、「J003」にそれぞれ基づいて、正規化画像上の各サンプリング範囲内にそれぞれ複数のサンプリング点を特定する(S6)。そして、特徴量抽出部26は、特徴量抽出方法「K001」、「K002」、「K003」にそれぞれ基づいて、左右の目および口の各サンプリング点の画素または画素群からそれぞれ特徴量群を抽出する(S7)。このときの状態を、図10の状態6に示す。上述のように、状態6では、左右の目および口をそれぞれ覆うように、各器官の中心点を中心とする所定の位置にサンプリング点が設定されている。すなわち、ここでは、右目の目尻点、目頭点、上瞼点、下瞼点および瞳点に対する特徴量群と、左目の目尻点、目頭点、上瞼点、下瞼点および瞳点に対する特徴量群と、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点に対する特徴量群との3つの特徴量群が生成される。換言すると、右目、左目および口の各基準点(中心点)に対して、それぞれ3つの特徴量群が生成される。
【0119】
次に、位置情報生成部27は、位置情報生成方法「L001」、「L002」、「L003」にそれぞれ基づいて、基準点を原点とする学習対象点の位置を示す位置情報を学習対象点毎に生成する(S8)。このときの状態を、図10の状態7に示す。
【0120】
以上の処理を複数の画像に対して行い、画像毎に、各学習対象点に対する特徴量群および位置情報を生成する。
【0121】
LRF関数算出部28は、回帰分析を用いて、複数組の位置情報および特徴量群から、各学習対象点に対するLRF関数をそれぞれ生成する(S9)。そして、LRF関数算出部28は、生成した各学習対象点に対するLRF関数に、それぞれ、使用した各方法(学習対象領域画像抽出方法、正規化方法、基準点特定方法、サンプリング位置特定方法、特徴量抽出方法および位置情報生成方法)を対応付けてLRF情報41を生成し、記憶部12に格納する。
【0122】
〔部位点検出方法〕
次に、部位点検出装置1が実行する部位点検出方法について、図11および図12に基づいて説明する。図11は、部位点検出装置1が実行する部位点検出方法の一例を示す図である。図12は、部位点検出方法に含まれる各処理の状態を、画像を用いて模式的に示す遷移図である。
【0123】
図11および図12に示す例では、部位点検出装置1の記憶部12に図7に示すLRF情報41が格納されているものとする。また、ここでは、人間の顔の右目および左目の目尻点、目頭点、上瞼点、下瞼点および瞳点、並びに、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点を検出するものとする。
【0124】
図11に示すように、まず、画像取得部21は、画像入力部13を介して入力された画像を取得する(S11)。このときの状態を、図12の状態11に示す。
【0125】
次に、領域切り出し部22は、記憶部12からLRF情報41を読み出す。ここで、LRF情報41において、各検出対象点には、全て同じ学習対象領域画像抽出方法「G001」および正規化方法「H001」が対応付けられている。そのため、領域切り出し部22は、学習対象領域画像抽出方法「G001」に基づいて、画像取得部21が取得した画像から、画像を切り出す(S12)。このときの状態を、図12の状態12に示す。状態12では、顔画像および顔器官点が検出され、検出された顔画像が四角の線で囲われており、検出された顔器官点が白点で示されている。
【0126】
そして、領域切り出し部22は、検出した顔画像を切り出し、正規化方法「H001」に基づいて切り出した顔画像を正規化して正規化画像を生成する(S13)。このときの状態を、図12の状態13に示す。
【0127】
次に、基準点特定部23は、記憶部12からLRF情報41を読み出す。ここで、LRF情報41において、右目、左目、口単位で、同じ基準点特定方法「I001」、「I002」、「I003」がそれぞれ対応付けられている。そのため、基準点特定部23は、正規化画像上に、右目の検出対象点の基準点を基準点特定方法「I001」に基づいて特定し、左目の検出対象点の基準点を基準点特定方法「I002」に基づいて特定し、口の検出対象点の基準点を基準点特定方法「I003」に基づいて特定する(S14)。このときの状態を、図12の状態14に示す。図示のように、状態14では、右目、左目、口のそれぞれ中心点が基準点として特定されている。
【0128】
次に、サンプリング位置特定部25は、記憶部12からLRF情報41を読み出す。ここで、LRF情報41において、右目、左目、口単位で、同じサンプリング位置特定方法「J001」、「J002」、「J003」がそれぞれ対応付けられている。そのため、サンプリング位置特定部25は、正規化画像上において、右目の検出対象点のサンプリング点をサンプリング位置特定方法「J001」に基づいて特定し、左目の検出対象点のサンプリング点をサンプリング位置特定方法「J002」に基づいて特定し、口の検出対象点のサンプリング点をサンプリング位置特定方法「J003」に基づいて特定する(S15)。
【0129】
このときの状態を、図12の状態15に示す。図示のように、状態15では、左右の目および口をそれぞれ覆うように、各器官の基準点を中心とする所定の範囲にサンプリング点が設定されている。
【0130】
そして、特徴量抽出部26は、記憶部12からLRF情報41を読み出す。ここで、LRF情報41において、右目、左目、口単位で、同じ特徴量抽出方法「K001」、「K002」、「K003」がそれぞれ対応付けられている。そのため、特徴量抽出部26は、右目の検出対象点のサンプリング点の画素または画素群から、右目の検出対象点の特徴量群を特徴量抽出方法「K001」に基づいて抽出し、左目の検出対象点のサンプリング点の画素または画素群から、左目の検出対象点の特徴量群を特徴量抽出方法「K002」に基づいて抽出し、口の検出対象点のサンプリング点の画素または画素群から、口の検出対象点の特徴量群を特徴量抽出方法「K003」に基づいて抽出する(S16)。
【0131】
すなわち、ここでは、右目の目尻点、目頭点、上瞼点、下瞼点および瞳点に対する特徴量群と、左目の目尻点、目頭点、上瞼点、下瞼点および瞳点に対する特徴量群と、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点に対する特徴量群との3つの特徴量群が生成される。換言すると、右目、左目および口の各基準点(中心点)に対して、それぞれ3つの特徴量群が生成される。
【0132】
次に、位置情報特定部29は、記憶部12からLRF情報41を読み出す。そして、位置情報特定部29は、右目の目尻点、目頭点、上瞼点、下瞼点および瞳点に対応付けられているLRF関数に、これらの検出対象点に対する特徴量群をそれぞれ入力して、右目の目尻点、目頭点、上瞼点、下瞼点および瞳点の位置情報をそれぞれ特定する。また、位置情報特定部29は、左目の目尻点、目頭点、上瞼点、下瞼点および瞳点に対応付けられているLRF関数に、これらの検出対象点に対する特徴量群をそれぞれ入力して、左目の目尻点、目頭点、上瞼点、下瞼点および瞳点の位置情報をそれぞれ特定する。また、位置情報特定部29は、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点に対応付けられているLRF関数に、これらの検出対象点に対する特徴量群をそれぞれ入力して、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点の位置情報をそれぞれ特定する(S17)。
【0133】
最後に、部位点特定部30は、記憶部12からLRF情報41を読み出す。ここで、LRF情報41において、右目、左目、口単位で、同じ位置情報生成方法「L001」、「L002」、「L003」がそれぞれ対応付けられている。そのため、部位点特定部30は、右目の目尻点、目頭点、上瞼点、下瞼点および瞳点の位置情報から、位置情報生成方法「L001」に基づいて、これらの検出対象点の正規化画像上における座標をそれぞれ特定し、左目の目尻点、目頭点、上瞼点、下瞼点および瞳点の位置情報から、位置情報生成方法「L002」に基づいて、これらの検出対象点の正規化画像上における座標をそれぞれ特定し、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点の位置情報から、位置情報生成方法「L003」に基づいて、これらの検出対象点の正規化画像上における座標をそれぞれ特定する(S18)。
【0134】
例えば、右目の目尻点について、右目の基準点(中心点)のX座標値、Y座標値に、目尻点の位置情報の示すX座標値、Y座標値の差分値をそれぞれ加算する。この加算して求めた値であるX座標値、Y座標値が、目尻点の正規化画像上における座標値である。右目の他の部位点、並びに、左目の各部位点および口の各部位点に対しても同様の処理を行い、正規化画像上における右目、左目および口の各部位点の座標を特定する。
【0135】
このときの状態を、図12の状態16に示す。図示のように、状態16では、右目および左目の目尻点、目頭点、上瞼点、下瞼点および瞳点、並びに、口の右口角点および左口角点、並びに、上唇および下唇の上中点および下中点の正規化画像上における位置(座標)が特定されている。
【0136】
そして、正規化画像上における各部位点の座標値から、例えば、アフィン変換等により、原画像上における各部位点の座標値を算出して、原画像上における各部位点の座標を特定する。
【0137】
〔補足〕
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
【0138】
最後に、部位点検出装置1およびLRF学習装置2の各ブロック、特に制御部11および制御部16は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
【0139】
すなわち、部位点検出装置1およびLRF学習装置2は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである部位点検出装置1およびLRF学習装置2の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、部位点検出装置1およびLRF学習装置2に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
【0140】
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。
【0141】
また、部位点検出装置1およびLRF学習装置2を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
【産業上の利用可能性】
【0142】
本発明は、画像上の物体の所定の部位点を検出する画像処理装置に利用することができる。より好ましくは、形状が多様に変化する物体の所定の部位点を画像から検出する画像処理装置に利用することができる。
【符号の説明】
【0143】
1 部位点検出装置(画像処理装置)
2 LRF学習装置(情報生成装置)
14 操作部(入力手段)
21 画像取得部(画像取得手段)
23 基準点特定部(基準点特定手段)
24 部位点特定部(学習側部位点特定手段)
25 サンプリング位置特定部(サンプリング位置特定手段)
26 特徴量抽出部(特徴量抽出手段)
27 位置情報生成部(位置情報生成手段)
28 LRF関数算出部(対応関係情報生成手段)
29 位置情報特定部(位置情報特定手段)
30 部位点特定部(検出側部位点特定手段)
【特許請求の範囲】
【請求項1】
画像から物体の部位点を検出する画像処理装置であって、
上記画像上に上記部位点に対する基準点を特定する基準点特定手段と、
上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出手段と、
上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出手段が抽出した特徴量群に対応する位置情報を特定する位置情報特定手段と、
上記位置情報特定手段が特定した位置情報の示す位置を上記物体の部位点とする検出側部位点特定手段とを備えることを特徴とする画像処理装置。
【請求項2】
上記画像上において、上記部位点が位置すると考えられる領域を含む範囲内に、上記サンプリング点の位置を特定するサンプリング位置特定手段をさらに備えることを特徴とする請求項1に記載の画像処理装置。
【請求項3】
請求項1または2に記載の画像処理装置が参照する上記対応関係情報を生成する情報生成装置であって、
物体の部位点が撮像されている画像を取得する画像取得手段と、
上記画像上に上記部位点に対する上記基準点を特定する基準点特定手段と、
上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出手段と、
上記基準点特定手段が特定した基準点に対する上記部位点の相対位置を示す上記位置情報を生成する位置情報生成手段と、
上記特徴量抽出手段が抽出した特徴量群と、上記位置情報生成手段が生成した位置情報との対応関係を示す上記対応関係情報を生成する対応関係情報生成手段とを備えることを特徴とする情報生成装置。
【請求項4】
上記対応関係情報生成手段は、回帰分析を用いて上記対応関係情報を生成することを特徴とする請求項3に記載の情報生成装置。
【請求項5】
ユーザからの操作指示を受け付ける入力手段と、
上記入力手段に入力された操作指示に基づいて、上記画像上における上記物体の部位点を特定する学習側部位点特定手段とをさらに備えることを特徴とする請求項3または4に記載の情報生成装置。
【請求項6】
上記画像取得手段は、上記画像と共に、当該画像に対応付けられている、上記部位点の位置を示す部位点位置情報を取得し、
上記部位点位置情報の示す位置に基づいて、上記画像上における上記物体の部位点を特定する学習側部位点特定手段とをさらに備えることを特徴とする請求項3または4に記載の情報生成装置。
【請求項7】
画像から物体の部位点を検出する画像処理方法であって、
上記画像上に上記部位点に対する基準点を特定する基準点特定ステップと、
上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出ステップと、
上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出ステップにおいて抽出された特徴量群に対応する位置情報を特定する位置情報特定ステップと、
上記位置情報特定ステップにおいて特定された位置情報の示す位置を上記物体の部位点とする部位点特定ステップとを含むことを特徴とする画像処理方法。
【請求項8】
請求項7に記載の画像処理方法において参照される上記対応関係情報を生成する情報生成方法であって、
物体の部位点が撮像されている画像を取得する画像取得ステップと、
上記画像上に上記部位点に対する上記基準点を特定する基準点特定ステップと、
上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出ステップと、
上記基準点特定ステップにおいて特定された基準点に対する上記部位点の相対位置を示す上記位置情報を生成する位置情報生成ステップと、
上記特徴量抽出ステップにおいて抽出された特徴量群と、上記位置情報生成ステップにおいて生成された位置情報との対応関係を示す上記対応関係情報を生成する対応関係情報生成ステップとを含むことを特徴とする情報生成方法。
【請求項9】
請求項1または2に記載の画像処理装置を動作させるための制御プログラムであって、コンピュータを上記各手段として機能させるための制御プログラム。
【請求項10】
請求項3〜6の何れか1項に記載の情報生成装置を動作させるための制御プログラムであって、コンピュータを上記各手段として機能させるための制御プログラム。
【請求項11】
請求項9および10の少なくとも一方に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
【請求項1】
画像から物体の部位点を検出する画像処理装置であって、
上記画像上に上記部位点に対する基準点を特定する基準点特定手段と、
上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出手段と、
上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出手段が抽出した特徴量群に対応する位置情報を特定する位置情報特定手段と、
上記位置情報特定手段が特定した位置情報の示す位置を上記物体の部位点とする検出側部位点特定手段とを備えることを特徴とする画像処理装置。
【請求項2】
上記画像上において、上記部位点が位置すると考えられる領域を含む範囲内に、上記サンプリング点の位置を特定するサンプリング位置特定手段をさらに備えることを特徴とする請求項1に記載の画像処理装置。
【請求項3】
請求項1または2に記載の画像処理装置が参照する上記対応関係情報を生成する情報生成装置であって、
物体の部位点が撮像されている画像を取得する画像取得手段と、
上記画像上に上記部位点に対する上記基準点を特定する基準点特定手段と、
上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出手段と、
上記基準点特定手段が特定した基準点に対する上記部位点の相対位置を示す上記位置情報を生成する位置情報生成手段と、
上記特徴量抽出手段が抽出した特徴量群と、上記位置情報生成手段が生成した位置情報との対応関係を示す上記対応関係情報を生成する対応関係情報生成手段とを備えることを特徴とする情報生成装置。
【請求項4】
上記対応関係情報生成手段は、回帰分析を用いて上記対応関係情報を生成することを特徴とする請求項3に記載の情報生成装置。
【請求項5】
ユーザからの操作指示を受け付ける入力手段と、
上記入力手段に入力された操作指示に基づいて、上記画像上における上記物体の部位点を特定する学習側部位点特定手段とをさらに備えることを特徴とする請求項3または4に記載の情報生成装置。
【請求項6】
上記画像取得手段は、上記画像と共に、当該画像に対応付けられている、上記部位点の位置を示す部位点位置情報を取得し、
上記部位点位置情報の示す位置に基づいて、上記画像上における上記物体の部位点を特定する学習側部位点特定手段とをさらに備えることを特徴とする請求項3または4に記載の情報生成装置。
【請求項7】
画像から物体の部位点を検出する画像処理方法であって、
上記画像上に上記部位点に対する基準点を特定する基準点特定ステップと、
上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出ステップと、
上記複数のサンプリング点の各画素または各画素群から抽出された上記基準点に対する特徴量群と、上記基準点に対する上記部位点の相対位置を示す位置情報との対応関係を示す対応関係情報を参照して、上記特徴量抽出ステップにおいて抽出された特徴量群に対応する位置情報を特定する位置情報特定ステップと、
上記位置情報特定ステップにおいて特定された位置情報の示す位置を上記物体の部位点とする部位点特定ステップとを含むことを特徴とする画像処理方法。
【請求項8】
請求項7に記載の画像処理方法において参照される上記対応関係情報を生成する情報生成方法であって、
物体の部位点が撮像されている画像を取得する画像取得ステップと、
上記画像上に上記部位点に対する上記基準点を特定する基準点特定ステップと、
上記基準点に対する複数のサンプリング点毎に、当該サンプリング点の画素または当該画素を含む画素群から特徴量を抽出し、抽出した各サンプリング点にそれぞれ対応する複数の特徴量から構成される、上記基準点に対する特徴量群を抽出する特徴量抽出ステップと、
上記基準点特定ステップにおいて特定された基準点に対する上記部位点の相対位置を示す上記位置情報を生成する位置情報生成ステップと、
上記特徴量抽出ステップにおいて抽出された特徴量群と、上記位置情報生成ステップにおいて生成された位置情報との対応関係を示す上記対応関係情報を生成する対応関係情報生成ステップとを含むことを特徴とする情報生成方法。
【請求項9】
請求項1または2に記載の画像処理装置を動作させるための制御プログラムであって、コンピュータを上記各手段として機能させるための制御プログラム。
【請求項10】
請求項3〜6の何れか1項に記載の情報生成装置を動作させるための制御プログラムであって、コンピュータを上記各手段として機能させるための制御プログラム。
【請求項11】
請求項9および10の少なくとも一方に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
【図1】
【図3】
【図6】
【図7】
【図9】
【図11】
【図2】
【図4】
【図5】
【図8】
【図10】
【図12】
【図3】
【図6】
【図7】
【図9】
【図11】
【図2】
【図4】
【図5】
【図8】
【図10】
【図12】
【公開番号】特開2012−256131(P2012−256131A)
【公開日】平成24年12月27日(2012.12.27)
【国際特許分類】
【出願番号】特願2011−127755(P2011−127755)
【出願日】平成23年6月7日(2011.6.7)
【特許番号】特許第4998637号(P4998637)
【特許公報発行日】平成24年8月15日(2012.8.15)
【出願人】(000002945)オムロン株式会社 (3,542)
【Fターム(参考)】
【公開日】平成24年12月27日(2012.12.27)
【国際特許分類】
【出願日】平成23年6月7日(2011.6.7)
【特許番号】特許第4998637号(P4998637)
【特許公報発行日】平成24年8月15日(2012.8.15)
【出願人】(000002945)オムロン株式会社 (3,542)
【Fターム(参考)】
[ Back to top ]