画像処理装置、画像処理方法、画像処理プログラムおよび同プログラムを記録した記録媒体。
【課題】様々なフレーム形状の眼鏡に対応可能な眼鏡モデルを生成して、画像中の眼鏡パターンを除去する画像補正の技術を提供する。
【解決手段】画像処理装置10の前処理部12は、入力された画像データから顔領域を識別・検出する。眼鏡モデル生成部15は、サンプル画像の学習パターンから眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状などのテクスチャを加味した眼鏡モデルを生成する。特徴抽出手段部14は、顔領域に眼鏡モデルを適用し、眼鏡モデルパラメータを抽出する。眼鏡識別部16は、眼鏡の有無を識別する識別パラメータを読み込み、眼鏡モデルパラメータをもって入力画像データ内の眼鏡の有無を判定する。領域抽出部18は、入力画像データを任意の領域に分割する。補間部19は、分割領域のデータから任意のテクスチャを生成し各領域を統合する。この統合結果は出力部20をもって出力される。
【解決手段】画像処理装置10の前処理部12は、入力された画像データから顔領域を識別・検出する。眼鏡モデル生成部15は、サンプル画像の学習パターンから眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状などのテクスチャを加味した眼鏡モデルを生成する。特徴抽出手段部14は、顔領域に眼鏡モデルを適用し、眼鏡モデルパラメータを抽出する。眼鏡識別部16は、眼鏡の有無を識別する識別パラメータを読み込み、眼鏡モデルパラメータをもって入力画像データ内の眼鏡の有無を判定する。領域抽出部18は、入力画像データを任意の領域に分割する。補間部19は、分割領域のデータから任意のテクスチャを生成し各領域を統合する。この統合結果は出力部20をもって出力される。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像中に含まれる眼鏡の有無および眼鏡領域を判断し、眼鏡パターンを精度よく除去する画像処理の技術に関する。
【背景技術】
【0002】
今日のコンピュータビジョンの分野では、生体認証の一つとして顔認証の技術が監視システムやペットロボット、ヒューマンインターフェースなどで頻繁に用いられている。顔認証については、事前に登録しておいた顔画像と入力画像を比較して認識するため、基本的には誤認識の原因となる部分遮蔽や眼鏡や装飾品といった遮蔽物のない顔画像を登録しておく必要がある。
【0003】
そのため眼鏡をかけている人の顔画像登録の際には、眼鏡をかけている時の顔画像と眼鏡をはずした時の顔画像の2種類を登録する必要性が出てくる。顔認証のシステムにおいて、このような二度手間を省き、かつ顔の部分遮蔽による誤認識を軽減するために顔画像内から眼鏡領域のみを除去する技術が必要である。
【0004】
眼鏡除去の処理手順は「前処理部」、「眼鏡モデル生成部」、「眼鏡検出部」、「領域抽出部」、「補間部」の5つに分けることができる。従来の眼鏡除去法の一例としては、パラメトリック眼鏡フレームモデルを用いた手法(非特許文献1参照)がある。この技術は以下の手順で眼鏡領域の除去を行う。即ち、眼鏡をかけた人物の顔画像を入力とし、あらかじめ作成しておいた眼鏡フレームモデルと入力画像のエッジの検出を行い得られた線の情報とを比較し、眼鏡フレーム領域を検出する。次に、検出された眼鏡フレーム領域の輝度値を除去した後、眼鏡フレーム領域の輝度値を周辺領域の肌色部分の輝度値で線形補間する。線形補間した部分に、更に偏差を加算し、平滑化することにより眼鏡除去画像を生成する。
【非特許文献1】齋藤康之、剣持雪子、小谷一孔:「パラメトリックな眼鏡フレームモデルを用いた顔画像内の眼鏡フレーム領域の抽出と除去」,電子情報通信学会論文誌,D−II Vol.J82−D−II No.5 pp.880−890,1999年5月
【非特許文献2】荒木祐一、島田伸敬、白井良明:「背景と顔の方向に依存しない顔の検出と顔方向の推定」、信学技法 Vol.101 No.569 pp.87−94,2002
【非特許文献3】T.F.Cootes,G.J.Edwards,and C.J.Taylor.”Active appearance models”.IEEE TPAMI,VOL.23,NO6,JUN 2001:681−685
【非特許文献4】Nello Cristianini,John Shawe−Taylor,”An Introduction to Support Vector Machines”:And Other Kernel−Based Learning Methods,Cambridge Univ Press 2000:P94〜P97
【非特許文献5】Jian Sun,Lin Liang,Fang Wen,Heung−Yeung Shum:”Image Vectorization using Optimized Gradient Meshes”,ACM Transactions on Graphics,Vol.26,No.3,Article 11,Publication date:July 2007.
【発明の開示】
【発明が解決しようとする課題】
【0005】
しかしながら、従来の眼鏡除去方法には次の問題があった。すなわち、一般に眼鏡フレームの形状や色は様々であるため、眼鏡フレームモデルを作成して、使用しても、眼鏡フレームの誤検出が生じる。これはエッジ抽出により得られた線の情報のみで眼鏡フレームを検出していることや眼鏡のフレームだけのモデルを使用していることに起因していると考えられる。顔画像内からの眼鏡領域除去を実現するためには、エッジ抽出から得られる線の情報から眼鏡のフレーム位置を推定するだけでなく、眼鏡フレームや眼鏡のレンズ内部のテクスチャといった付加情報も必要であると言える。
【0006】
また、眼鏡を含む顔画像を入力としているため、入力画像内に顔が存在し、且つ、眼鏡が含まれるという事前情報がないと、この技術を実際に適応することができない。
【0007】
さらに、検出された眼鏡フレーム領域の輝度値を周辺領域の肌色部分の輝度値で線形補間や平滑化を施しても、眼鏡フレーム領域と隣接するフレーム内側および眼鏡フレーム外側の領域間の境界でコントラストが不連続になり、処理結果画像の見た目が不自然になる可能性があるため、その効果は十分であるとは言えない。
【0008】
そこで、本発明は、様々なフレーム形状の眼鏡に対応可能な眼鏡モデルを生成して、眼鏡パターンを除去することを第1の課題とする。また、眼鏡の有無や顔の存在に関わらず、どのような画像を入力しても眼鏡除去を可能にするための顔の存在、および眼鏡の有無の識別することを第2の課題とする。さらに、眼鏡除去の処理結果が自然に見えるように除去領域を補間することを第3の課題とする。
【課題を解決するための手段】
【0009】
本発明は、前記課題を解決すべく創作された技術的思想であって、請求項1〜8記載の発明は、眼鏡フレームと眼球の形状に加え、テクスチャ情報を考慮して眼鏡領域を検出することで第1の課題を解決している。請求項2.5記載の発明は、撮像画像内おける顔の存在、および眼鏡の有無の識別を可能にすることで第2の課題を解決している。請求項3.6記載の発明は、顔領域を複数の小領域に切り分け、それぞれの領域全体の質感を考慮したテクスチャを含むレイヤーを生成し、合成することで第3の課題を解決している。
【0010】
具体的には、請求項1記載の発明は、人物の撮像画像から眼鏡の有無を識別し、眼鏡パターンを除去した顔画像を生成する画像処理装置であって、サンプル画像の学習パターンから、眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状、および眼鏡フレームと眼球を含む眼鏡フレーム内部のテクスチャを加味した眼鏡モデルを生成する眼鏡モデル生成手段と、入力された前記撮像画像内の顔領域と前記眼鏡モデルとから眼鏡領域の特徴量を抽出する特徴抽出手段と、前記眼鏡領域の特徴量と学習パターンの特徴量とを比較して、前記撮像画像内の眼鏡の有無を判別する眼鏡識別手段と、前記撮像画像を前記顔領域と前記眼鏡領域の特徴量とから任意の領域に分割する領域抽出手段と、前記分割された各領域のデータから任意のテクスチャを生成し、各領域を統合する補間手段とを備え、前記統合結果を出力することを特徴としている。
【0011】
請求項2記載の発明は、前記撮像画像内における顔の有無を識別して、前記顔領域を抽出する前処理手段を備え、前記特徴抽出手段は、前記眼鏡領域の探索を行って、探索の結果得られた眼鏡モデルパラメータを特徴量として抽出するとともに、前記眼鏡識別手段は、データベースに保存された学習パターンの識別パラメータを特徴量として読み込み、前記眼鏡モデルパラメータを用いて、前記撮像画像内の眼鏡の有無を判定することを特徴としている。
【0012】
請求項3記載の発明は、前記領域抽出手段は、前記入力画像データ内における前記眼鏡領域の座標値、眼鏡フレーム領域の座標値および眼球領域の座標値を算出する手段と、前記顔領域を複数の領域に分割して切り分ける手段とを備えるとともに、前記補間手段は、領域抽出手段にて切り分けられた各領域内のオブジェクトの空洞の画素値を埋める手段と、任意の領域のレイヤーを作成する手段と、前記オブジェクトからテクスチャを自動生成して該テクスチャを補正する手段と、複数の前記レイヤーを単一の画像データに変換して統合する手段とを備えることを特徴としている。
【0013】
請求項4記載の発明は、人物の撮像画像から眼鏡の有無を識別し、眼鏡パターンを除去した顔画像を生成する画像処理方法であって、眼鏡モデル生成手段が、サンプル画像の学習パターンから、眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状、および眼鏡フレームと眼球を含む眼鏡フレーム内部のテクスチャを加味した眼鏡モデルを生成する第1ステップと、特徴抽出手段が、入力された前記撮像画像内の顔領域と前記眼鏡モデルとから眼鏡領域の特徴量を抽出する第2ステップと、眼鏡識別手段が、前記眼鏡領域の特徴量と学習パターンの特徴量とを比較して、前記撮像画像内の眼鏡の有無を判別する第3ステップと、領域抽出手段が、前記顔領域と前記眼鏡領域の特徴量とから前記撮像画像を任意の領域に分割する第4ステップと、補間手段が、前記分割された各領域のデータから任意のテクスチャを生成し、各領域を統合する第5ステップと、前記第5ステップの統合結果を出力する第6ステップと、を有することを特徴としている。
【0014】
請求項5記載の発明は、前処理手段において前記撮像画像内の顔の有無を識別して、前記顔領域を抽出するステップをさらに有し、前記第2ステップは、前記眼鏡領域の探索を行って、探索の結果得られた眼鏡モデルパラメータを特徴量として抽出し、前記第3ステップは、データベースに保存された学習パターンの識別パラメータを特徴量として読み込み、前記眼鏡モデルパラメータを用いて、前記撮像画像内の眼鏡の有無を判定することを特徴としている。
【0015】
請求項6記載の発明は、前記第4ステップは、前記入力画像データ内における前記眼鏡領域の座標値、眼鏡フレーム領域の座標値および眼球領域の座標値を算出するステップと、前記顔領域を複数の領域に分割して切り分けるステップとを有する一方、前記第5ステップは、領域抽出手段にて切り分けられた各領域内のオブジェクトの空洞の画素値を埋めるステップと、任意の領域のレイヤーを作成するステップと、前記オブジェクトからテクスチャを自動生成して該テクスチャを補正するステップと、複数の前記レイヤーを単一の画像データに変換して統合するステップとを有することを特徴としている。
【0016】
請求項7記載の発明は、請求項1〜3のいずれか1項に記載の画像処理装置を構成する各手段としてコンピュータを機能させることを特徴とする画像処理プログラムに関する。
【0017】
請求項8記載の発明は、請求項7記載の画像処理プログラムを記録した記録媒体に関する。
【発明の効果】
【0018】
請求項1〜8記載の発明によれば、眼鏡フレームと眼球の形状に加え、テクスチャ情報も考慮して眼鏡領域が検出されるため、様々なタイプの眼鏡に対応でき、また従来手法と比べ、多くの情報量を使用するため結果として誤検出を減らすことが可能となる。
【0019】
特に、請求項2.5記載の発明によれば、撮像画像内おける顔の存在、および眼鏡の有無の識別が可能になるので、眼鏡や顔の有無にかかわらず、任意の画像データを入力できるようになる。
【0020】
また、請求項3.6記載の発明によれば、顔領域を複数の小領域に切り分け、それぞれの領域全体の質感を考慮したテクスチャを含むレイヤーを生成し、合成することにより、全体の自然な感じを損なうことなく、眼鏡パターンを除去した画像処理結果が得られる。
【発明を実施するための最良の形態】
【0021】
以下、本発明の実施の形態について図面を用いて詳細に説明する。図1は、本発明の実施形態に係る画像処理装置の機能ブロック図を示している。この画像処理装置10は、コンピュータにより構成され、画像データ入力部11,前処理部12,第1学習パターン記憶部13,特徴抽出部14,眼鏡モデル生成部15,眼鏡識別部16,第2学習パターン記憶部17,領域抽出部18,補間部19,出力部20を有している。
【0022】
具体的には、前記画像処理装置10は、通常のコンピュータの構成要素、例えばCPU(Central Processor Unit)、メモリ(RAM)、ハードディスクドライブ装置、通信デバイスなどのハードウェア資源を備え、かかるハードウェア資源とインストール済みのソフトウェアとの協働によって前記各機能ブロック11〜20の処理が実行されている。このうち前記学習パターン記憶部13,17は、ハードディスクドライブ装置にデータベースとして構築されている。
【0023】
そして、前記画像処理装置10の全体的な処理を、図2のフローに沿って概略説明すれば、まず、画像データ入力部11は、前記通信デバイスなどで実現され、デジタルカメラなどの撮像手段をもって撮像されたデジタル画像データがネットワーク経由で入力され、この入力された撮像画像データ(以下、入力画像データと略す。)を前処理部12に伝送する(S1)。
【0024】
つぎに、前処理部12は入力画像データと第1学習パターン記憶部13に記憶されているパターンの特徴量とを比較して、顔検出を行い、顔が存在するか否かを識別する(S2)。このとき入力画像内に顔があると識別された場合、顔と思われる部分の切出しを経て特徴抽出部14へ伝送する(S3)。一方、入力画像内に顔が無いと識別された場合には、処理を終了する。
【0025】
特徴抽出部14では、特徴量となる眼鏡モデルパラメータを抽出し、眼鏡識別部16へ送る(S4)。この眼鏡モデルパラメータは、入力された顔領域の画像データと眼鏡モデル生成部15で生成された眼鏡モデルとに基づき生成される。
【0026】
眼鏡識別部16は、特徴抽出部14から伝送された特徴量(眼鏡モデルパラメータ)と第2学習パターン記憶部17に記憶されている識別パラメータを用いて、眼鏡の有無の識別結果を得る(S5)。このとき眼鏡があると判定された場合(S6)には、以降の(S7)〜(S9)の処理を続行する一方、眼鏡が無いと判定された場合には処理を終了する。ここで第2学習パターン記憶部17では、あらかじめ多数の学習画像から学習サンプルを生成し、学習により識別パラメータを生成し、これらを保持しておき、眼鏡識別部16へ伝送している。
【0027】
領域抽出部18では、前処理部12で得られた顔領域の画像データと特徴抽出部14で得られた特徴量(眼鏡モデルパラメータ)からデジタル画像データを複数の領域に分割し、抽出する。(S7)。
【0028】
補間部19では、領域抽出部18で得られた各領域を、図3に示すようにレイヤー化し、各レイヤーのラスタ表現された画像データをベクタ表現に変換し、色の補正を行い、生成されたレイヤーデータを統合した結果をラスタ表現に変換し、出力部20へ伝送する(S8)。出力部20は、伝送された画像データを出力する(S9)。この出力された画像データはモニタなどの表示手段に表示される。以下、前記各機能ブロック11〜20の処理を個別具体的に説明する。
【0029】
(1)前処理部12
前処理部12における処理の実行方法を、図4のフローチャートに示す。前処理部12では入力画像データ内から、顔検出を行って顔領域を切り出す(S10)〜(S12)。この顔検出は非特許文献2に記載された手法でよい。ここでは例えば正面以外の方向を向いている顔でも検出できる顔検出手法を使用する。一般に顔検出においては、事前に多数の学習画像を用いて学習を行い、その学習の結果得られた識別パラメータを学習パターン記憶部に蓄積しておき、顔か否かの識別の際には、その識別パラメータを使用して画像内の顔の有無を識別し、画像内位置を特定する。
【0030】
本発明においても同様に、顔検出(S10)の際には第1学習パターン記憶部13から識別パラメータを読み出し、識別に使用する。第1学習パターン記憶部13は、入力された多数の学習画像から学習を行って、識別パラメータを生成し、保持する機能を持つものとする。
【0031】
次に、入力画像データ内に顔が有ると識別された場合(S11)、顔領域切出し(S12)を行う。顔がないと識別された場合は処理を終了する。顔領域切出し(S12)では、顔領域の画素値を持つ顔領域の画像データと顔領域以外の背景の画素値を持つ背景領域の画像データを生成する。まず、顔領域の画像データと背景領域の画像データの生成のために、入力されたデジタル画像データのコピーを二枚作成する。続いて、顔検出(S10)の結果得られた画像内の顔のパーツである目、鼻、口の座標値情報を使用し、全てのパーツを含む任意の大きさの楕円領域内の画素値を選択する。そして、一方のコピー画像において、選択した楕円領域以外の画素を全て白(または黒)に変換することで顔領域の画像データとする。同様に、他方のコピー画像において、選択した楕円領域内の画素を全て白(または黒)に変換したものを背景領域画像データとする。
【0032】
(2)眼鏡モデル生成部15
眼鏡モデル生成部15における処理のフローチャートを図5に示す。眼鏡モデル生成部15では、眼鏡モデルの生成(S13,S14)および、保持しているデータの出力(S15)を行う。眼鏡モデルの生成処理では「Active Appearance Model」(以下、「AAM」と略す。)を使用する。
【0033】
「AAM」は、アピアランスモデルと呼ばれる統計的なモデルの作成と、モデル探索によるパラメータ調節の2つの工程から構成される生成モデルと未知画像のマッチング手法である。アピアランスモデルの作成工程では、物体の形状を表す特徴点の座標値と見えを表す輝度値の相関をパラメータとして持つ統計的モデルを作成する。モデル探索によるパラメータ調節工程は、生成したアピアランスモデルと入力した未知画像とのイメージ残差を最小化するように生成したアピアランスモデルのパラメータを変化させる最適化問題に帰着し、その最適化問題を解くことで入力未知画像と生成したモデルのマッチングを行うものである。眼鏡モデル生成部15では、「AAM」の第1工程であるアピアランスモデルの作成のみを行う。
【0034】
以下で、アピアランスモデル作成について簡単に概説する。アピアランスモデルは特徴点を配置した学習画像データセットを使用して作成する。まず1枚の学習画像内の特徴点の座標を並べたベクトルを形状ベクトル「x」とし、全学習画像の形状ベクトルの平均形状「x bar」を求める。次に各学習画像において形状を平均形状「x bar」で正規化し、正規化された形状内の輝度値を並べ、テクスチャベクトル「g」を得る。形状ベクトルと同様に、全学習画像のテクスチャベクトルの平均テクスチャ「g bar」を算出する。形状ベクトル「x」とテクチヤベクトル「g」とは式(1)のようにモデル化することができる。
【0035】
【数1】
【0036】
ここで「Qs」,「Qg」は固有ベクトルであり、「c」は形状とテクスチャの両方をコントロールするアピアランスパラメータである。アピアランスパラメータ「c」を用いることで、形状だけでなくテクスチャも表現することができる。また逆に、アピアランスパラメータ「c」が求まれば、形状およびテクスチャを算出することが可能となる。(「AAM」の基本原理については非特許文献3参照)。
【0037】
具体的には、眼鏡をかけた顔画像とその顔画像に図6のように配置された特徴点の座標値を学習画像データとして多数用意し、眼鏡フレームと眼鏡のレンズ内部、眼球の形状とテクスチャから、上記の「x bar」,「g bar」,「Qs」,「Qg」を算出する。ただし、図6中の眼鏡フレーム部分特徴点の画像内の座標を(xf,yf)、レンズ部分特徴点の画像内の座標を(xl,yl)、眼球部分特徴点の画像内の座標を(xe,ye)とする。このとき、形状ベクトル「x」は式(2)であらわすものとする。
【0038】
【数2】
【0039】
学習画像データセットから得られた「x bar」,「g bar」,「Qs」,「Qg」は、アピアランスモデルとしてメモリなどの一時記憶手段に保持しておき、特徴抽出部14へ伝送する。なお、前記アピアランスモデルは、ハードディスクドライブ装置に保存してもよい。
【0040】
(3)特徴抽出部14
特徴抽出部14における処理の実行方法を、図7のフローチャートに示す。特徴抽出部14では、前処理部12から伝送された顔領域の画像データを入力とし、眼鏡モデル生成部15で作成した眼鏡モデルを使用して、最適化問題を解くことで眼鏡領域の探索を行う。探索の結果得られた眼鏡モデルパラメータを特徴量とし、その特徴量と前処理部12から伝送された顔領域データを眼鏡識別部16へ伝送する。
【0041】
具体的には、「AAM」の第2工程であるモデル探索によるパラメータ調節により眼鏡領域の探索を行う(S16)。ここでは画像データ内から眼鏡領域を探索する際には、モデルの形状とテクスチャをあらわすアピアランスパラメータ「c」に加え、顔領域の画像データ内の眼鏡位置、大きさ、回転を考慮した新しいパラメータ「p」を用いる。顔領域の画像データ内の眼鏡と思われる部分の画素値から作成したテクスチャベクトル「gs」と眼鏡モデルを用いて作成したテクスチャベクトル「gm」とのイメージ残差を「r(p)=gs−gm」とし、「r(p)」が最小となるように「p」を変化させ、最適解を求める。得られた最適解から「c」を逆算し、これを眼鏡モデルパラメータとする。ここでの最適化問題の詳細は非特許文献3と同様とする。
【0042】
(4)第2学習パターン記憶部17
第2学習パターン記憶部17では、眼鏡の有無を識別するための識別関数データを生成し、眼鏡識別部16へ伝送する。識別関数データの生成には、「Support Vector Machine(以下、SVMと略す。)」を使用する。「SVM」は2クラスの分類問題を解くためのパターン識別器を構成する手法である。識別器は入力ベクトルを非線形写像によって仮想的な高次特徴空間に写像し、その特徴空間内の2つのクラスの間で汎化能力を最大とする境界となるような超平面として構成される。ここでの「SVM」の基本原理は非特許文献4と同様とする。
【0043】
第2学習パターン記憶部17の処理手順のフローチャートを図8に示す。第2学習パターン記憶部17は、学習サンプル生成部17−1と、識別関数データ生成部17−2とから構成される。学習サンプル生成部17−1では、入力された多数の学習画像から、学習画像と同じ数の学習サンプルを生成する。生成される学習サンプルは、特徴量と所属するクラスを示すラベルから構成される。
【0044】
図8では、ラベル入力前の段階では学習サンプルの枚数「n=0」とする(S19)。学習サンプル生成部17−1には、学習画像として眼鏡を掛けている人物の顔画像と眼鏡を掛けていない人物の顔画像の2種類の画像が入力される(S20)。なお、入力される顔画像は、それぞれ眼鏡を掛けている人物の顔画像の場合は眼鏡ありクラス、眼鏡を掛けていない人物の顔画像の場合は眼鏡無しクラスに属するものとし、眼鏡ありのクラスに属している顔画像のラベルは「y=1」,眼鏡なしのクラスに属している顔画像のラベルは「y=−1」として与えられている。
【0045】
入力された1組の学習画像とラベルに対し、眼鏡モデル生成部15で生成した眼鏡モデルを用いて、特徴抽出部14のパラメータ最適化処理(S16)と同様にモデル探索によるパラメータ調整を行う(S21)。得られた眼鏡モデルパラメータを、その学習画像の特徴量とする。得られた特徴量とラベルのセットを1つの学習サンプル(n=1)とする(S22)。この処理を繰り返し(S23,S24)、用意した全ての学習画像に対して行い、それぞれ特徴量を抽出し、「n←n+1」枚の学習サンプルを生成する。この学習サンプルは、メモリなどの一時記憶手段に記憶しておいてもよい。
【0046】
識別関数データ生成部17−2では、学習サンプル生成部17−1にて生成した学習サンプルを入力とし、「SVM」で学習を行って識別関数データを得る。「SVM」の学習では、l個の特徴量「xi(i=1,2,…,l)」がラベル「y」とともに与えられているとき、識別関数「f(x)」は、式(3)の形で与えられる。この式(3)を解いて最適化する(S25)。
【0047】
【数3】
【0048】
ここで、「α*,β*」は、以下の式(4)の最大化問題の最適解である。
【0049】
【数4】
【0050】
識別関数データ生成部S18では、学習により生成された「α*,β*」および「xi」を識別関数データとして第2学習パターン記憶部17に蓄積する(S26)。なお、式(3)の識別関数は非線形に拡張したものを用いてもよい。
【0051】
(5)眼鏡識別部16
眼鏡識別部16における処理の実行方法を、図9のフローチャートに示す。眼鏡識別部16では、眼鏡の有無の識別処理を行う。眼鏡ありクラスか眼鏡無しクラスかを識別する際には、特徴抽出部14で生成された特徴量と第2学習パターン記憶部17から識別関数データを呼び出し、それらを用いてどちらのクラスに属するかを識別する(S27)。
【0052】
例えば、特徴抽出部14で生成された特徴量を入力「x」とし、式(3)に代入する。「SVM」を用いた識別では未知の入力「x」が与えられたとき、上記識別関数「f(x)」の符号により未知画像の所属するクラスを決める。具体的には、「f(x)≧0」のときは眼鏡ありクラス、「f(x)<0」の時は眼鏡無しクラスとする。ここで入力した特徴量が眼鏡パターンであると判断された場合のみ、データを領域抽出部18へ伝送する。眼鏡パターンはないと判断された場合、処理はここで終了する。なお、識別処理においては、「SVM」以外にも例えば最近傍法、フィッシャーの線形識別法、ニューラルネットワークや部分空間法等を用いてもよい。
【0053】
(6)領域抽出部18
領域抽出部18における処理の実行方法を、図10のフローチャートに示す。領域抽出部18は、眼鏡領域位置算出処理部18−1と領域切出し部18−2から構成される。眼鏡領域位置算出処理部18−1では、特徴抽出部14で得られた眼鏡モデルのパラメータを使用し、眼鏡領域の画像内における位置を算出する(S30)。
【0054】
具体的には、眼鏡モデルパラメータ「c」から逆算し、形状ベクトル「x」を算出する。その後、得られた形状ベクトルのうち眼鏡フレーム部分特徴点の画像内座標値(xf,yf)を眼鏡領域位置として算出する。次に、眼鏡フレーム領域位置として(xf,yf)と(xl,yl)を算出し、眼球領域位置として(xe,ye)を算出する(S31)。
【0055】
次に、領域切出し部18−12の処理(S32〜S34)を、図11を参照して説明する。図11は、領域切出し処理における各領域の説明図である。切り出し処理は、前処理部12の顔領域切出し(S12)と同様に、特定の領域以外の画素値を全て白(または黒)に置き換えた画像データを生成する。まず、図11(a)の顔領域から算出した図11(b)の眼鏡領域を選択し、眼鏡領域の画素値を保存した画像データを眼鏡領域データとし、逆に眼鏡領域以外の画素値を保存し、眼鏡領域内部の画素値を白(または黒)に変更したものを顔ベース領域図11(c)とする(S32)。さらに眼鏡領域から図11(d)に示す眼鏡フレーム領域部分の画素値を保存した画像データを作成し、また眼鏡領域から図11(e)の眼球領域部分の画素値のみを保存した画像データを作成する(S33)。図11(f)のように眼鏡領域からフレーム領域と眼球領域の画素値を白(または黒)にしたものをレンズ領域の画像データとする(S34)。
【0056】
(7)補間部19
補間部19では領域抽出部18で生成された領域ごとにベクタ化し、レイヤー分けを行う。ベクタ化とはラスタ表現と呼ばれるデジタル画像データのような離散値しか取れない画素の集合として記述されている画像データを、ベクタ表現と呼ばれる物体の特徴点や頂点をつないだ線分で記述した連続値を取り得る形式で表現される画像データに変換することである。具体的なベクタ化の手法として、ここではグラデーションメッシュを使用する。グラデーションメッシュとは対象とする物体の形状を網目状に区切り、その網目に沿って色のグラデーションを施すことで物の質感を写実的に表現することを可能にするグラフィック技術である。またグラデーションメッシュによるベクタ化は、非特許文献5のような最適化手法により自動生成させるものとする。
【0057】
以下で非特許文献5におけるグラデーションメッシュの構造について図12を用いて概説する。図12(a)はおのおのの座標がパラメータ「u,v」の関数として表現されるパラメトリック曲面の例であり、以下これをパッチと呼ぶ。非特許文献5にて使用されているファーガソンパッチは式(5)で表現される。
【0058】
【数5】
【0059】
グラデーションメッシュはパッチとメッシュラインから構成され、上記ファーガソンパッチ上の点はメッシュラインを表現するための位置、位置の微分、色、色情報の微分の4種類の情報を持っている。図12(b)はグラデーションメッシュの例であり、点「q」を通る2本の曲線はメッシュラインである。例えば図12(b)中の点「q」の場合、式(6)の位置情報と、式(7)の位置の微分情報、式(8)のRGBカラー情報、式(9)のRGBカラーの微分情報を持っており、グラデーションメッシュは式(10)で表現される。
【0060】
【数6】
【0061】
【数7】
【0062】
【数8】
【0063】
【数9】
【0064】
【数10】
【0065】
また、非特許文献5はベクタ化における最適化は以下の手順で行われる。即ち、まず入力されたラスタ画像内のベクタ化したい領域を均等に分割するなどして、複数のパッチを作成することでメッシュの初期化を行う。今、P個のパッチが生成され、ベクタ化したい画像を「I」としたとき、式(11)のエネルギー関数を最小化することでメッシュが最適化されベクタ化される。
【0066】
【数11】
【0067】
具体的な補間部19における処理手順を図13のフローチャートに示す。補間処理は図13の顔ベースレイヤー作成部19−1とレンズレイヤー作成部19−2と眼球レイヤー作成部19−3とから構成される。各レイヤー作成部19−1〜19−3で作成された情報は全てレイヤー統合処理S43により1枚の画像に合成される。
【0068】
以下、各レイヤー作成部19−1〜19−3の処理を説明する。図14は、図13のフローチャート内の顔ベースレイヤー作成部19−1内の処理を説明するための概念図である。顔ベースレイヤー作成部19−1では、領域抽出部18で作成された顔ベース領域情報を使用し、顔ベース穴埋め処理(S38)により顔ベース領域の領域切出しの際に開いた眼鏡領域の穴を埋め、次に顔ベースベクタ化処理(S39)を行う。
【0069】
具体的には、顔ベース穴埋め処理(S38)は、図14(a)の顔ベース領域内の穴領域との境界の画素の画素値の平均で、眼鏡領域部分の色を補間し、図14(b)のような穴領域も肌と同じ色を持つ画像を生成する。顔ベースベクタ化処理(S39)は、顔ベース領域を前記最適化手法により最適化されたグラデーションメッシュを作成する。図14(c)は最適化により自動作成されたメッシュの形状情報である。このメッシュ上には最適化によりテクスチャも生成される。メッシュ情報とテクスチャの両方の情報を持つ、図14(d)のような生成したベクタ画像を顔ベースレイヤーとし、生成したデータはレイヤー統合処理S43とレンズレイヤー作成部19−2に伝送する。
【0070】
眼球レイヤー作成部19−3では、領域抽出部18で作成された眼球領域の情報を使用し、前記最適化手法を用いて眼球領域ベクタ化処理(S42)を行う。ここで生成したベクタ画像を眼球レイヤーとし、生成したデータはレイヤー統合処理S43とレンズレイヤー作成部19−2に伝送する。
【0071】
レンズレイヤー作成部19−2では、領域抽出部18で作成されたレンズ領域の情報を使用し、前記最適化手法を用いてレンズ領域ベクタ化処理(S40)を行う。ここで生成したベクタ画像をレンズレイヤーとする。次に、生成した顔ベースレイヤーと眼球レイヤーとレンズレイヤーの3つのレイヤーの情報を用いて、レンズレイヤー色補正(S41)を行う。レンズレイヤー色補正(S41)の処理内容を、図15を参照して説明する。生成したレイヤーには図15(a)のようなメッシュと、その交差点であるメッシュポイントを持っている。メッシュポイントは色情報を保持し、メッシュポイント近傍の色の具合を制御することが可能である。まず、レンズレイヤーの外側の輪郭部分のメッシュポイントである図15(b)の顔ベース側メッシュポイントの色を、図15(c)のように対応する顔ベースレイヤー内における同じ座標値の場所の色に置換する。次に、内側の輪郭部分のメッシュポイントである図15(b)の眼球側メッシュポイントの色は、図15(d)のように対応する眼球レイヤー内の同じ座標値の場所の色に置換することで色を制御する。
【0072】
レイヤー統合処理S43では、下から順に、前処理で切出した背景領域、顔ベースレイヤー、レンズレイヤー、眼球レイヤーの順に重ね合わせて一枚のラスタ画像データに変換する。ラスタ画像への変換処理は、ベクタ表現されていた画像を離散の値をとる画像データに変換することである。なお、ベクタ化画像の自動生成については、非特許文献の手法以外に「subdivisionmesh」を用いてもよい。
【0073】
また、本発明は、上記実施形態に限定されるものではなく、例えば前記画像処理装置10の各機能ブロック11〜20としてコンピュータを機能させるプログラムとして構築することもできる。このプログラムは、各機能ブロック11〜20の全ての処理をコンピュータに実行させてもよく、また、その一部の機能をコンピュータに実行させるものであってもよい。
【0074】
このプログラムは、Webサイトなどからのダウンロードによってコンピュータに提供することができる。また、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,Blu−ray Disk(登録商標)などの記録媒体に格納してコンピュータに提供してもよい。この記録媒体から読み出されたプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。
【図面の簡単な説明】
【0075】
【図1】本発明の実施形態に係る画像処理装置の機能ブロック図。
【図2】同 全体処理を示すフローチャート。
【図3】同 補間手段によるレイヤー化の概略図。
【図4】同 前処理部の処理を示すフローチャート。
【図5】同 眼鏡モデル生成部の処理を示すフローチャート。
【図6】同 特徴抽出部の使用する眼鏡モデルの概念図。
【図7】同 特徴抽出部の処理を示すフローチャート。
【図8】同 第2学習パターン記憶部の処理の示すフローチャート。
【図9】同 眼鏡識別部の処理を示すフローチャート。
【図10】同 領域抽出部の処理を示すフローチャート。
【図11】同 領域抽出部の切出し領域の概念図。
【図12】同 補間部部のグラデーションメッシュの構造を示す概念図。
【図13】同 補間部の処理を示すフローチャート。
【図14】同 顔ベースレイヤー作成部内の処理手順を示す概念図。
【図15】同 レンズレイヤー色補正の処理手順を示す概念図。
【符号の説明】
【0076】
10…画像処理装置
11…画像データ入力部
12…前処理部(前処理手段)
13…第1学習パターン記憶部
14…特徴抽出部(特徴抽出手段)
15…眼鏡モデル生成部(眼鏡モデル生成手段)
16…眼鏡識別部(眼鏡識別手段)
17…第2学習パターン記憶部
17−1…学習サンプル生成部
17−2…識別関数データ生成部
18…領域抽出部(領域抽出手段)
18−1…眼鏡領域位置算出部
18−2…領域切出し部
19…補間部(補間手段)
19−1…顔ベースレイヤー作成部
19−2…レンズレイヤー作成部
19−3…眼球レイヤー作成部
20…出力部
【技術分野】
【0001】
本発明は、画像中に含まれる眼鏡の有無および眼鏡領域を判断し、眼鏡パターンを精度よく除去する画像処理の技術に関する。
【背景技術】
【0002】
今日のコンピュータビジョンの分野では、生体認証の一つとして顔認証の技術が監視システムやペットロボット、ヒューマンインターフェースなどで頻繁に用いられている。顔認証については、事前に登録しておいた顔画像と入力画像を比較して認識するため、基本的には誤認識の原因となる部分遮蔽や眼鏡や装飾品といった遮蔽物のない顔画像を登録しておく必要がある。
【0003】
そのため眼鏡をかけている人の顔画像登録の際には、眼鏡をかけている時の顔画像と眼鏡をはずした時の顔画像の2種類を登録する必要性が出てくる。顔認証のシステムにおいて、このような二度手間を省き、かつ顔の部分遮蔽による誤認識を軽減するために顔画像内から眼鏡領域のみを除去する技術が必要である。
【0004】
眼鏡除去の処理手順は「前処理部」、「眼鏡モデル生成部」、「眼鏡検出部」、「領域抽出部」、「補間部」の5つに分けることができる。従来の眼鏡除去法の一例としては、パラメトリック眼鏡フレームモデルを用いた手法(非特許文献1参照)がある。この技術は以下の手順で眼鏡領域の除去を行う。即ち、眼鏡をかけた人物の顔画像を入力とし、あらかじめ作成しておいた眼鏡フレームモデルと入力画像のエッジの検出を行い得られた線の情報とを比較し、眼鏡フレーム領域を検出する。次に、検出された眼鏡フレーム領域の輝度値を除去した後、眼鏡フレーム領域の輝度値を周辺領域の肌色部分の輝度値で線形補間する。線形補間した部分に、更に偏差を加算し、平滑化することにより眼鏡除去画像を生成する。
【非特許文献1】齋藤康之、剣持雪子、小谷一孔:「パラメトリックな眼鏡フレームモデルを用いた顔画像内の眼鏡フレーム領域の抽出と除去」,電子情報通信学会論文誌,D−II Vol.J82−D−II No.5 pp.880−890,1999年5月
【非特許文献2】荒木祐一、島田伸敬、白井良明:「背景と顔の方向に依存しない顔の検出と顔方向の推定」、信学技法 Vol.101 No.569 pp.87−94,2002
【非特許文献3】T.F.Cootes,G.J.Edwards,and C.J.Taylor.”Active appearance models”.IEEE TPAMI,VOL.23,NO6,JUN 2001:681−685
【非特許文献4】Nello Cristianini,John Shawe−Taylor,”An Introduction to Support Vector Machines”:And Other Kernel−Based Learning Methods,Cambridge Univ Press 2000:P94〜P97
【非特許文献5】Jian Sun,Lin Liang,Fang Wen,Heung−Yeung Shum:”Image Vectorization using Optimized Gradient Meshes”,ACM Transactions on Graphics,Vol.26,No.3,Article 11,Publication date:July 2007.
【発明の開示】
【発明が解決しようとする課題】
【0005】
しかしながら、従来の眼鏡除去方法には次の問題があった。すなわち、一般に眼鏡フレームの形状や色は様々であるため、眼鏡フレームモデルを作成して、使用しても、眼鏡フレームの誤検出が生じる。これはエッジ抽出により得られた線の情報のみで眼鏡フレームを検出していることや眼鏡のフレームだけのモデルを使用していることに起因していると考えられる。顔画像内からの眼鏡領域除去を実現するためには、エッジ抽出から得られる線の情報から眼鏡のフレーム位置を推定するだけでなく、眼鏡フレームや眼鏡のレンズ内部のテクスチャといった付加情報も必要であると言える。
【0006】
また、眼鏡を含む顔画像を入力としているため、入力画像内に顔が存在し、且つ、眼鏡が含まれるという事前情報がないと、この技術を実際に適応することができない。
【0007】
さらに、検出された眼鏡フレーム領域の輝度値を周辺領域の肌色部分の輝度値で線形補間や平滑化を施しても、眼鏡フレーム領域と隣接するフレーム内側および眼鏡フレーム外側の領域間の境界でコントラストが不連続になり、処理結果画像の見た目が不自然になる可能性があるため、その効果は十分であるとは言えない。
【0008】
そこで、本発明は、様々なフレーム形状の眼鏡に対応可能な眼鏡モデルを生成して、眼鏡パターンを除去することを第1の課題とする。また、眼鏡の有無や顔の存在に関わらず、どのような画像を入力しても眼鏡除去を可能にするための顔の存在、および眼鏡の有無の識別することを第2の課題とする。さらに、眼鏡除去の処理結果が自然に見えるように除去領域を補間することを第3の課題とする。
【課題を解決するための手段】
【0009】
本発明は、前記課題を解決すべく創作された技術的思想であって、請求項1〜8記載の発明は、眼鏡フレームと眼球の形状に加え、テクスチャ情報を考慮して眼鏡領域を検出することで第1の課題を解決している。請求項2.5記載の発明は、撮像画像内おける顔の存在、および眼鏡の有無の識別を可能にすることで第2の課題を解決している。請求項3.6記載の発明は、顔領域を複数の小領域に切り分け、それぞれの領域全体の質感を考慮したテクスチャを含むレイヤーを生成し、合成することで第3の課題を解決している。
【0010】
具体的には、請求項1記載の発明は、人物の撮像画像から眼鏡の有無を識別し、眼鏡パターンを除去した顔画像を生成する画像処理装置であって、サンプル画像の学習パターンから、眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状、および眼鏡フレームと眼球を含む眼鏡フレーム内部のテクスチャを加味した眼鏡モデルを生成する眼鏡モデル生成手段と、入力された前記撮像画像内の顔領域と前記眼鏡モデルとから眼鏡領域の特徴量を抽出する特徴抽出手段と、前記眼鏡領域の特徴量と学習パターンの特徴量とを比較して、前記撮像画像内の眼鏡の有無を判別する眼鏡識別手段と、前記撮像画像を前記顔領域と前記眼鏡領域の特徴量とから任意の領域に分割する領域抽出手段と、前記分割された各領域のデータから任意のテクスチャを生成し、各領域を統合する補間手段とを備え、前記統合結果を出力することを特徴としている。
【0011】
請求項2記載の発明は、前記撮像画像内における顔の有無を識別して、前記顔領域を抽出する前処理手段を備え、前記特徴抽出手段は、前記眼鏡領域の探索を行って、探索の結果得られた眼鏡モデルパラメータを特徴量として抽出するとともに、前記眼鏡識別手段は、データベースに保存された学習パターンの識別パラメータを特徴量として読み込み、前記眼鏡モデルパラメータを用いて、前記撮像画像内の眼鏡の有無を判定することを特徴としている。
【0012】
請求項3記載の発明は、前記領域抽出手段は、前記入力画像データ内における前記眼鏡領域の座標値、眼鏡フレーム領域の座標値および眼球領域の座標値を算出する手段と、前記顔領域を複数の領域に分割して切り分ける手段とを備えるとともに、前記補間手段は、領域抽出手段にて切り分けられた各領域内のオブジェクトの空洞の画素値を埋める手段と、任意の領域のレイヤーを作成する手段と、前記オブジェクトからテクスチャを自動生成して該テクスチャを補正する手段と、複数の前記レイヤーを単一の画像データに変換して統合する手段とを備えることを特徴としている。
【0013】
請求項4記載の発明は、人物の撮像画像から眼鏡の有無を識別し、眼鏡パターンを除去した顔画像を生成する画像処理方法であって、眼鏡モデル生成手段が、サンプル画像の学習パターンから、眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状、および眼鏡フレームと眼球を含む眼鏡フレーム内部のテクスチャを加味した眼鏡モデルを生成する第1ステップと、特徴抽出手段が、入力された前記撮像画像内の顔領域と前記眼鏡モデルとから眼鏡領域の特徴量を抽出する第2ステップと、眼鏡識別手段が、前記眼鏡領域の特徴量と学習パターンの特徴量とを比較して、前記撮像画像内の眼鏡の有無を判別する第3ステップと、領域抽出手段が、前記顔領域と前記眼鏡領域の特徴量とから前記撮像画像を任意の領域に分割する第4ステップと、補間手段が、前記分割された各領域のデータから任意のテクスチャを生成し、各領域を統合する第5ステップと、前記第5ステップの統合結果を出力する第6ステップと、を有することを特徴としている。
【0014】
請求項5記載の発明は、前処理手段において前記撮像画像内の顔の有無を識別して、前記顔領域を抽出するステップをさらに有し、前記第2ステップは、前記眼鏡領域の探索を行って、探索の結果得られた眼鏡モデルパラメータを特徴量として抽出し、前記第3ステップは、データベースに保存された学習パターンの識別パラメータを特徴量として読み込み、前記眼鏡モデルパラメータを用いて、前記撮像画像内の眼鏡の有無を判定することを特徴としている。
【0015】
請求項6記載の発明は、前記第4ステップは、前記入力画像データ内における前記眼鏡領域の座標値、眼鏡フレーム領域の座標値および眼球領域の座標値を算出するステップと、前記顔領域を複数の領域に分割して切り分けるステップとを有する一方、前記第5ステップは、領域抽出手段にて切り分けられた各領域内のオブジェクトの空洞の画素値を埋めるステップと、任意の領域のレイヤーを作成するステップと、前記オブジェクトからテクスチャを自動生成して該テクスチャを補正するステップと、複数の前記レイヤーを単一の画像データに変換して統合するステップとを有することを特徴としている。
【0016】
請求項7記載の発明は、請求項1〜3のいずれか1項に記載の画像処理装置を構成する各手段としてコンピュータを機能させることを特徴とする画像処理プログラムに関する。
【0017】
請求項8記載の発明は、請求項7記載の画像処理プログラムを記録した記録媒体に関する。
【発明の効果】
【0018】
請求項1〜8記載の発明によれば、眼鏡フレームと眼球の形状に加え、テクスチャ情報も考慮して眼鏡領域が検出されるため、様々なタイプの眼鏡に対応でき、また従来手法と比べ、多くの情報量を使用するため結果として誤検出を減らすことが可能となる。
【0019】
特に、請求項2.5記載の発明によれば、撮像画像内おける顔の存在、および眼鏡の有無の識別が可能になるので、眼鏡や顔の有無にかかわらず、任意の画像データを入力できるようになる。
【0020】
また、請求項3.6記載の発明によれば、顔領域を複数の小領域に切り分け、それぞれの領域全体の質感を考慮したテクスチャを含むレイヤーを生成し、合成することにより、全体の自然な感じを損なうことなく、眼鏡パターンを除去した画像処理結果が得られる。
【発明を実施するための最良の形態】
【0021】
以下、本発明の実施の形態について図面を用いて詳細に説明する。図1は、本発明の実施形態に係る画像処理装置の機能ブロック図を示している。この画像処理装置10は、コンピュータにより構成され、画像データ入力部11,前処理部12,第1学習パターン記憶部13,特徴抽出部14,眼鏡モデル生成部15,眼鏡識別部16,第2学習パターン記憶部17,領域抽出部18,補間部19,出力部20を有している。
【0022】
具体的には、前記画像処理装置10は、通常のコンピュータの構成要素、例えばCPU(Central Processor Unit)、メモリ(RAM)、ハードディスクドライブ装置、通信デバイスなどのハードウェア資源を備え、かかるハードウェア資源とインストール済みのソフトウェアとの協働によって前記各機能ブロック11〜20の処理が実行されている。このうち前記学習パターン記憶部13,17は、ハードディスクドライブ装置にデータベースとして構築されている。
【0023】
そして、前記画像処理装置10の全体的な処理を、図2のフローに沿って概略説明すれば、まず、画像データ入力部11は、前記通信デバイスなどで実現され、デジタルカメラなどの撮像手段をもって撮像されたデジタル画像データがネットワーク経由で入力され、この入力された撮像画像データ(以下、入力画像データと略す。)を前処理部12に伝送する(S1)。
【0024】
つぎに、前処理部12は入力画像データと第1学習パターン記憶部13に記憶されているパターンの特徴量とを比較して、顔検出を行い、顔が存在するか否かを識別する(S2)。このとき入力画像内に顔があると識別された場合、顔と思われる部分の切出しを経て特徴抽出部14へ伝送する(S3)。一方、入力画像内に顔が無いと識別された場合には、処理を終了する。
【0025】
特徴抽出部14では、特徴量となる眼鏡モデルパラメータを抽出し、眼鏡識別部16へ送る(S4)。この眼鏡モデルパラメータは、入力された顔領域の画像データと眼鏡モデル生成部15で生成された眼鏡モデルとに基づき生成される。
【0026】
眼鏡識別部16は、特徴抽出部14から伝送された特徴量(眼鏡モデルパラメータ)と第2学習パターン記憶部17に記憶されている識別パラメータを用いて、眼鏡の有無の識別結果を得る(S5)。このとき眼鏡があると判定された場合(S6)には、以降の(S7)〜(S9)の処理を続行する一方、眼鏡が無いと判定された場合には処理を終了する。ここで第2学習パターン記憶部17では、あらかじめ多数の学習画像から学習サンプルを生成し、学習により識別パラメータを生成し、これらを保持しておき、眼鏡識別部16へ伝送している。
【0027】
領域抽出部18では、前処理部12で得られた顔領域の画像データと特徴抽出部14で得られた特徴量(眼鏡モデルパラメータ)からデジタル画像データを複数の領域に分割し、抽出する。(S7)。
【0028】
補間部19では、領域抽出部18で得られた各領域を、図3に示すようにレイヤー化し、各レイヤーのラスタ表現された画像データをベクタ表現に変換し、色の補正を行い、生成されたレイヤーデータを統合した結果をラスタ表現に変換し、出力部20へ伝送する(S8)。出力部20は、伝送された画像データを出力する(S9)。この出力された画像データはモニタなどの表示手段に表示される。以下、前記各機能ブロック11〜20の処理を個別具体的に説明する。
【0029】
(1)前処理部12
前処理部12における処理の実行方法を、図4のフローチャートに示す。前処理部12では入力画像データ内から、顔検出を行って顔領域を切り出す(S10)〜(S12)。この顔検出は非特許文献2に記載された手法でよい。ここでは例えば正面以外の方向を向いている顔でも検出できる顔検出手法を使用する。一般に顔検出においては、事前に多数の学習画像を用いて学習を行い、その学習の結果得られた識別パラメータを学習パターン記憶部に蓄積しておき、顔か否かの識別の際には、その識別パラメータを使用して画像内の顔の有無を識別し、画像内位置を特定する。
【0030】
本発明においても同様に、顔検出(S10)の際には第1学習パターン記憶部13から識別パラメータを読み出し、識別に使用する。第1学習パターン記憶部13は、入力された多数の学習画像から学習を行って、識別パラメータを生成し、保持する機能を持つものとする。
【0031】
次に、入力画像データ内に顔が有ると識別された場合(S11)、顔領域切出し(S12)を行う。顔がないと識別された場合は処理を終了する。顔領域切出し(S12)では、顔領域の画素値を持つ顔領域の画像データと顔領域以外の背景の画素値を持つ背景領域の画像データを生成する。まず、顔領域の画像データと背景領域の画像データの生成のために、入力されたデジタル画像データのコピーを二枚作成する。続いて、顔検出(S10)の結果得られた画像内の顔のパーツである目、鼻、口の座標値情報を使用し、全てのパーツを含む任意の大きさの楕円領域内の画素値を選択する。そして、一方のコピー画像において、選択した楕円領域以外の画素を全て白(または黒)に変換することで顔領域の画像データとする。同様に、他方のコピー画像において、選択した楕円領域内の画素を全て白(または黒)に変換したものを背景領域画像データとする。
【0032】
(2)眼鏡モデル生成部15
眼鏡モデル生成部15における処理のフローチャートを図5に示す。眼鏡モデル生成部15では、眼鏡モデルの生成(S13,S14)および、保持しているデータの出力(S15)を行う。眼鏡モデルの生成処理では「Active Appearance Model」(以下、「AAM」と略す。)を使用する。
【0033】
「AAM」は、アピアランスモデルと呼ばれる統計的なモデルの作成と、モデル探索によるパラメータ調節の2つの工程から構成される生成モデルと未知画像のマッチング手法である。アピアランスモデルの作成工程では、物体の形状を表す特徴点の座標値と見えを表す輝度値の相関をパラメータとして持つ統計的モデルを作成する。モデル探索によるパラメータ調節工程は、生成したアピアランスモデルと入力した未知画像とのイメージ残差を最小化するように生成したアピアランスモデルのパラメータを変化させる最適化問題に帰着し、その最適化問題を解くことで入力未知画像と生成したモデルのマッチングを行うものである。眼鏡モデル生成部15では、「AAM」の第1工程であるアピアランスモデルの作成のみを行う。
【0034】
以下で、アピアランスモデル作成について簡単に概説する。アピアランスモデルは特徴点を配置した学習画像データセットを使用して作成する。まず1枚の学習画像内の特徴点の座標を並べたベクトルを形状ベクトル「x」とし、全学習画像の形状ベクトルの平均形状「x bar」を求める。次に各学習画像において形状を平均形状「x bar」で正規化し、正規化された形状内の輝度値を並べ、テクスチャベクトル「g」を得る。形状ベクトルと同様に、全学習画像のテクスチャベクトルの平均テクスチャ「g bar」を算出する。形状ベクトル「x」とテクチヤベクトル「g」とは式(1)のようにモデル化することができる。
【0035】
【数1】
【0036】
ここで「Qs」,「Qg」は固有ベクトルであり、「c」は形状とテクスチャの両方をコントロールするアピアランスパラメータである。アピアランスパラメータ「c」を用いることで、形状だけでなくテクスチャも表現することができる。また逆に、アピアランスパラメータ「c」が求まれば、形状およびテクスチャを算出することが可能となる。(「AAM」の基本原理については非特許文献3参照)。
【0037】
具体的には、眼鏡をかけた顔画像とその顔画像に図6のように配置された特徴点の座標値を学習画像データとして多数用意し、眼鏡フレームと眼鏡のレンズ内部、眼球の形状とテクスチャから、上記の「x bar」,「g bar」,「Qs」,「Qg」を算出する。ただし、図6中の眼鏡フレーム部分特徴点の画像内の座標を(xf,yf)、レンズ部分特徴点の画像内の座標を(xl,yl)、眼球部分特徴点の画像内の座標を(xe,ye)とする。このとき、形状ベクトル「x」は式(2)であらわすものとする。
【0038】
【数2】
【0039】
学習画像データセットから得られた「x bar」,「g bar」,「Qs」,「Qg」は、アピアランスモデルとしてメモリなどの一時記憶手段に保持しておき、特徴抽出部14へ伝送する。なお、前記アピアランスモデルは、ハードディスクドライブ装置に保存してもよい。
【0040】
(3)特徴抽出部14
特徴抽出部14における処理の実行方法を、図7のフローチャートに示す。特徴抽出部14では、前処理部12から伝送された顔領域の画像データを入力とし、眼鏡モデル生成部15で作成した眼鏡モデルを使用して、最適化問題を解くことで眼鏡領域の探索を行う。探索の結果得られた眼鏡モデルパラメータを特徴量とし、その特徴量と前処理部12から伝送された顔領域データを眼鏡識別部16へ伝送する。
【0041】
具体的には、「AAM」の第2工程であるモデル探索によるパラメータ調節により眼鏡領域の探索を行う(S16)。ここでは画像データ内から眼鏡領域を探索する際には、モデルの形状とテクスチャをあらわすアピアランスパラメータ「c」に加え、顔領域の画像データ内の眼鏡位置、大きさ、回転を考慮した新しいパラメータ「p」を用いる。顔領域の画像データ内の眼鏡と思われる部分の画素値から作成したテクスチャベクトル「gs」と眼鏡モデルを用いて作成したテクスチャベクトル「gm」とのイメージ残差を「r(p)=gs−gm」とし、「r(p)」が最小となるように「p」を変化させ、最適解を求める。得られた最適解から「c」を逆算し、これを眼鏡モデルパラメータとする。ここでの最適化問題の詳細は非特許文献3と同様とする。
【0042】
(4)第2学習パターン記憶部17
第2学習パターン記憶部17では、眼鏡の有無を識別するための識別関数データを生成し、眼鏡識別部16へ伝送する。識別関数データの生成には、「Support Vector Machine(以下、SVMと略す。)」を使用する。「SVM」は2クラスの分類問題を解くためのパターン識別器を構成する手法である。識別器は入力ベクトルを非線形写像によって仮想的な高次特徴空間に写像し、その特徴空間内の2つのクラスの間で汎化能力を最大とする境界となるような超平面として構成される。ここでの「SVM」の基本原理は非特許文献4と同様とする。
【0043】
第2学習パターン記憶部17の処理手順のフローチャートを図8に示す。第2学習パターン記憶部17は、学習サンプル生成部17−1と、識別関数データ生成部17−2とから構成される。学習サンプル生成部17−1では、入力された多数の学習画像から、学習画像と同じ数の学習サンプルを生成する。生成される学習サンプルは、特徴量と所属するクラスを示すラベルから構成される。
【0044】
図8では、ラベル入力前の段階では学習サンプルの枚数「n=0」とする(S19)。学習サンプル生成部17−1には、学習画像として眼鏡を掛けている人物の顔画像と眼鏡を掛けていない人物の顔画像の2種類の画像が入力される(S20)。なお、入力される顔画像は、それぞれ眼鏡を掛けている人物の顔画像の場合は眼鏡ありクラス、眼鏡を掛けていない人物の顔画像の場合は眼鏡無しクラスに属するものとし、眼鏡ありのクラスに属している顔画像のラベルは「y=1」,眼鏡なしのクラスに属している顔画像のラベルは「y=−1」として与えられている。
【0045】
入力された1組の学習画像とラベルに対し、眼鏡モデル生成部15で生成した眼鏡モデルを用いて、特徴抽出部14のパラメータ最適化処理(S16)と同様にモデル探索によるパラメータ調整を行う(S21)。得られた眼鏡モデルパラメータを、その学習画像の特徴量とする。得られた特徴量とラベルのセットを1つの学習サンプル(n=1)とする(S22)。この処理を繰り返し(S23,S24)、用意した全ての学習画像に対して行い、それぞれ特徴量を抽出し、「n←n+1」枚の学習サンプルを生成する。この学習サンプルは、メモリなどの一時記憶手段に記憶しておいてもよい。
【0046】
識別関数データ生成部17−2では、学習サンプル生成部17−1にて生成した学習サンプルを入力とし、「SVM」で学習を行って識別関数データを得る。「SVM」の学習では、l個の特徴量「xi(i=1,2,…,l)」がラベル「y」とともに与えられているとき、識別関数「f(x)」は、式(3)の形で与えられる。この式(3)を解いて最適化する(S25)。
【0047】
【数3】
【0048】
ここで、「α*,β*」は、以下の式(4)の最大化問題の最適解である。
【0049】
【数4】
【0050】
識別関数データ生成部S18では、学習により生成された「α*,β*」および「xi」を識別関数データとして第2学習パターン記憶部17に蓄積する(S26)。なお、式(3)の識別関数は非線形に拡張したものを用いてもよい。
【0051】
(5)眼鏡識別部16
眼鏡識別部16における処理の実行方法を、図9のフローチャートに示す。眼鏡識別部16では、眼鏡の有無の識別処理を行う。眼鏡ありクラスか眼鏡無しクラスかを識別する際には、特徴抽出部14で生成された特徴量と第2学習パターン記憶部17から識別関数データを呼び出し、それらを用いてどちらのクラスに属するかを識別する(S27)。
【0052】
例えば、特徴抽出部14で生成された特徴量を入力「x」とし、式(3)に代入する。「SVM」を用いた識別では未知の入力「x」が与えられたとき、上記識別関数「f(x)」の符号により未知画像の所属するクラスを決める。具体的には、「f(x)≧0」のときは眼鏡ありクラス、「f(x)<0」の時は眼鏡無しクラスとする。ここで入力した特徴量が眼鏡パターンであると判断された場合のみ、データを領域抽出部18へ伝送する。眼鏡パターンはないと判断された場合、処理はここで終了する。なお、識別処理においては、「SVM」以外にも例えば最近傍法、フィッシャーの線形識別法、ニューラルネットワークや部分空間法等を用いてもよい。
【0053】
(6)領域抽出部18
領域抽出部18における処理の実行方法を、図10のフローチャートに示す。領域抽出部18は、眼鏡領域位置算出処理部18−1と領域切出し部18−2から構成される。眼鏡領域位置算出処理部18−1では、特徴抽出部14で得られた眼鏡モデルのパラメータを使用し、眼鏡領域の画像内における位置を算出する(S30)。
【0054】
具体的には、眼鏡モデルパラメータ「c」から逆算し、形状ベクトル「x」を算出する。その後、得られた形状ベクトルのうち眼鏡フレーム部分特徴点の画像内座標値(xf,yf)を眼鏡領域位置として算出する。次に、眼鏡フレーム領域位置として(xf,yf)と(xl,yl)を算出し、眼球領域位置として(xe,ye)を算出する(S31)。
【0055】
次に、領域切出し部18−12の処理(S32〜S34)を、図11を参照して説明する。図11は、領域切出し処理における各領域の説明図である。切り出し処理は、前処理部12の顔領域切出し(S12)と同様に、特定の領域以外の画素値を全て白(または黒)に置き換えた画像データを生成する。まず、図11(a)の顔領域から算出した図11(b)の眼鏡領域を選択し、眼鏡領域の画素値を保存した画像データを眼鏡領域データとし、逆に眼鏡領域以外の画素値を保存し、眼鏡領域内部の画素値を白(または黒)に変更したものを顔ベース領域図11(c)とする(S32)。さらに眼鏡領域から図11(d)に示す眼鏡フレーム領域部分の画素値を保存した画像データを作成し、また眼鏡領域から図11(e)の眼球領域部分の画素値のみを保存した画像データを作成する(S33)。図11(f)のように眼鏡領域からフレーム領域と眼球領域の画素値を白(または黒)にしたものをレンズ領域の画像データとする(S34)。
【0056】
(7)補間部19
補間部19では領域抽出部18で生成された領域ごとにベクタ化し、レイヤー分けを行う。ベクタ化とはラスタ表現と呼ばれるデジタル画像データのような離散値しか取れない画素の集合として記述されている画像データを、ベクタ表現と呼ばれる物体の特徴点や頂点をつないだ線分で記述した連続値を取り得る形式で表現される画像データに変換することである。具体的なベクタ化の手法として、ここではグラデーションメッシュを使用する。グラデーションメッシュとは対象とする物体の形状を網目状に区切り、その網目に沿って色のグラデーションを施すことで物の質感を写実的に表現することを可能にするグラフィック技術である。またグラデーションメッシュによるベクタ化は、非特許文献5のような最適化手法により自動生成させるものとする。
【0057】
以下で非特許文献5におけるグラデーションメッシュの構造について図12を用いて概説する。図12(a)はおのおのの座標がパラメータ「u,v」の関数として表現されるパラメトリック曲面の例であり、以下これをパッチと呼ぶ。非特許文献5にて使用されているファーガソンパッチは式(5)で表現される。
【0058】
【数5】
【0059】
グラデーションメッシュはパッチとメッシュラインから構成され、上記ファーガソンパッチ上の点はメッシュラインを表現するための位置、位置の微分、色、色情報の微分の4種類の情報を持っている。図12(b)はグラデーションメッシュの例であり、点「q」を通る2本の曲線はメッシュラインである。例えば図12(b)中の点「q」の場合、式(6)の位置情報と、式(7)の位置の微分情報、式(8)のRGBカラー情報、式(9)のRGBカラーの微分情報を持っており、グラデーションメッシュは式(10)で表現される。
【0060】
【数6】
【0061】
【数7】
【0062】
【数8】
【0063】
【数9】
【0064】
【数10】
【0065】
また、非特許文献5はベクタ化における最適化は以下の手順で行われる。即ち、まず入力されたラスタ画像内のベクタ化したい領域を均等に分割するなどして、複数のパッチを作成することでメッシュの初期化を行う。今、P個のパッチが生成され、ベクタ化したい画像を「I」としたとき、式(11)のエネルギー関数を最小化することでメッシュが最適化されベクタ化される。
【0066】
【数11】
【0067】
具体的な補間部19における処理手順を図13のフローチャートに示す。補間処理は図13の顔ベースレイヤー作成部19−1とレンズレイヤー作成部19−2と眼球レイヤー作成部19−3とから構成される。各レイヤー作成部19−1〜19−3で作成された情報は全てレイヤー統合処理S43により1枚の画像に合成される。
【0068】
以下、各レイヤー作成部19−1〜19−3の処理を説明する。図14は、図13のフローチャート内の顔ベースレイヤー作成部19−1内の処理を説明するための概念図である。顔ベースレイヤー作成部19−1では、領域抽出部18で作成された顔ベース領域情報を使用し、顔ベース穴埋め処理(S38)により顔ベース領域の領域切出しの際に開いた眼鏡領域の穴を埋め、次に顔ベースベクタ化処理(S39)を行う。
【0069】
具体的には、顔ベース穴埋め処理(S38)は、図14(a)の顔ベース領域内の穴領域との境界の画素の画素値の平均で、眼鏡領域部分の色を補間し、図14(b)のような穴領域も肌と同じ色を持つ画像を生成する。顔ベースベクタ化処理(S39)は、顔ベース領域を前記最適化手法により最適化されたグラデーションメッシュを作成する。図14(c)は最適化により自動作成されたメッシュの形状情報である。このメッシュ上には最適化によりテクスチャも生成される。メッシュ情報とテクスチャの両方の情報を持つ、図14(d)のような生成したベクタ画像を顔ベースレイヤーとし、生成したデータはレイヤー統合処理S43とレンズレイヤー作成部19−2に伝送する。
【0070】
眼球レイヤー作成部19−3では、領域抽出部18で作成された眼球領域の情報を使用し、前記最適化手法を用いて眼球領域ベクタ化処理(S42)を行う。ここで生成したベクタ画像を眼球レイヤーとし、生成したデータはレイヤー統合処理S43とレンズレイヤー作成部19−2に伝送する。
【0071】
レンズレイヤー作成部19−2では、領域抽出部18で作成されたレンズ領域の情報を使用し、前記最適化手法を用いてレンズ領域ベクタ化処理(S40)を行う。ここで生成したベクタ画像をレンズレイヤーとする。次に、生成した顔ベースレイヤーと眼球レイヤーとレンズレイヤーの3つのレイヤーの情報を用いて、レンズレイヤー色補正(S41)を行う。レンズレイヤー色補正(S41)の処理内容を、図15を参照して説明する。生成したレイヤーには図15(a)のようなメッシュと、その交差点であるメッシュポイントを持っている。メッシュポイントは色情報を保持し、メッシュポイント近傍の色の具合を制御することが可能である。まず、レンズレイヤーの外側の輪郭部分のメッシュポイントである図15(b)の顔ベース側メッシュポイントの色を、図15(c)のように対応する顔ベースレイヤー内における同じ座標値の場所の色に置換する。次に、内側の輪郭部分のメッシュポイントである図15(b)の眼球側メッシュポイントの色は、図15(d)のように対応する眼球レイヤー内の同じ座標値の場所の色に置換することで色を制御する。
【0072】
レイヤー統合処理S43では、下から順に、前処理で切出した背景領域、顔ベースレイヤー、レンズレイヤー、眼球レイヤーの順に重ね合わせて一枚のラスタ画像データに変換する。ラスタ画像への変換処理は、ベクタ表現されていた画像を離散の値をとる画像データに変換することである。なお、ベクタ化画像の自動生成については、非特許文献の手法以外に「subdivisionmesh」を用いてもよい。
【0073】
また、本発明は、上記実施形態に限定されるものではなく、例えば前記画像処理装置10の各機能ブロック11〜20としてコンピュータを機能させるプログラムとして構築することもできる。このプログラムは、各機能ブロック11〜20の全ての処理をコンピュータに実行させてもよく、また、その一部の機能をコンピュータに実行させるものであってもよい。
【0074】
このプログラムは、Webサイトなどからのダウンロードによってコンピュータに提供することができる。また、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,Blu−ray Disk(登録商標)などの記録媒体に格納してコンピュータに提供してもよい。この記録媒体から読み出されたプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。
【図面の簡単な説明】
【0075】
【図1】本発明の実施形態に係る画像処理装置の機能ブロック図。
【図2】同 全体処理を示すフローチャート。
【図3】同 補間手段によるレイヤー化の概略図。
【図4】同 前処理部の処理を示すフローチャート。
【図5】同 眼鏡モデル生成部の処理を示すフローチャート。
【図6】同 特徴抽出部の使用する眼鏡モデルの概念図。
【図7】同 特徴抽出部の処理を示すフローチャート。
【図8】同 第2学習パターン記憶部の処理の示すフローチャート。
【図9】同 眼鏡識別部の処理を示すフローチャート。
【図10】同 領域抽出部の処理を示すフローチャート。
【図11】同 領域抽出部の切出し領域の概念図。
【図12】同 補間部部のグラデーションメッシュの構造を示す概念図。
【図13】同 補間部の処理を示すフローチャート。
【図14】同 顔ベースレイヤー作成部内の処理手順を示す概念図。
【図15】同 レンズレイヤー色補正の処理手順を示す概念図。
【符号の説明】
【0076】
10…画像処理装置
11…画像データ入力部
12…前処理部(前処理手段)
13…第1学習パターン記憶部
14…特徴抽出部(特徴抽出手段)
15…眼鏡モデル生成部(眼鏡モデル生成手段)
16…眼鏡識別部(眼鏡識別手段)
17…第2学習パターン記憶部
17−1…学習サンプル生成部
17−2…識別関数データ生成部
18…領域抽出部(領域抽出手段)
18−1…眼鏡領域位置算出部
18−2…領域切出し部
19…補間部(補間手段)
19−1…顔ベースレイヤー作成部
19−2…レンズレイヤー作成部
19−3…眼球レイヤー作成部
20…出力部
【特許請求の範囲】
【請求項1】
人物の撮像画像から眼鏡の有無を識別し、眼鏡パターンを除去した顔画像を生成する画像処理装置であって、
サンプル画像の学習パターンから、眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状、および眼鏡フレームと眼球を含む眼鏡フレーム内部のテクスチャを加味した眼鏡モデルを生成する眼鏡モデル生成手段と、
入力された前記撮像画像内の顔領域と前記眼鏡モデルとから眼鏡領域の特徴量を抽出する特徴抽出手段と、
前記眼鏡領域の特徴量と学習パターンの特徴量とを比較して、前記撮像画像内の眼鏡の有無を判別する眼鏡識別手段と、
前記撮像画像を前記顔領域と前記眼鏡領域の特徴量とから任意の領域に分割する領域抽出手段と、
前記分割された各領域のデータから任意のテクスチャを生成し、各領域を統合する補間手段とを備え、
前記統合結果を出力することを特徴とする画像処理装置。
【請求項2】
前記撮像画像内における顔の有無を識別して、前記顔領域を抽出する前処理手段を備え、
前記特徴抽出手段は、前記眼鏡領域の探索を行って、探索の結果得られた眼鏡モデルパラメータを特徴量として抽出するとともに、
前記眼鏡識別手段は、データベースに保存された学習パターンの識別パラメータを特徴量として読み込み、前記眼鏡モデルパラメータを用いて、前記撮像画像内の眼鏡の有無を判定する
ことを特徴とする請求項1記載の画像処理装置。
【請求項3】
前記領域抽出手段は、前記撮像画像内における前記眼鏡領域の座標値、眼鏡フレーム領域の座標値および眼球領域の座標値を算出する手段と、前記顔領域を複数の領域に分割して切り分ける手段とを備え、
前記補間手段は、領域抽出手段にて切り分けられた各領域内のオブジェクトの空洞の画素値を埋める手段と、任意の領域のレイヤーを作成する手段と、前記オブジェクトからテクスチャを自動生成して該テクスチャを補正する手段と、複数の前記レイヤーを単一の画像に変換して統合する手段とを備える
ことを特徴とする請求項1または2のいずれか1項に記載の画像処理装置。
【請求項4】
人物の撮像画像から眼鏡の有無を識別し、眼鏡パターンを除去した顔画像を生成する画像処理方法であって、
眼鏡モデル生成手段が、サンプル画像の学習パターンから、眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状、および眼鏡フレームと眼球を含む眼鏡フレーム内部のテクスチャを加味した眼鏡モデルを生成する第1ステップと、
特徴抽出手段が、入力された前記撮像画像内の顔領域と前記眼鏡モデルとから眼鏡領域の特徴量を抽出する第2ステップと、
眼鏡識別手段が、前記眼鏡領域の特徴量と学習パターンの特徴量とを比較して、前記撮像画像内の眼鏡の有無を判別する第3ステップと、
領域抽出手段が、前記顔領域と前記眼鏡領域の特徴量とから前記撮像画像を任意の領域に分割する第4ステップと、
補間手段が、前記分割された各領域のデータから任意のテクスチャを生成し、各領域を統合する第5ステップと、
前記第5ステップの統合結果を出力する第6ステップと、
を有することを特徴とする画像処理方法。
【請求項5】
前処理手段において前記撮像画像内の顔の有無を識別して、前記顔領域を抽出するステップをさらに有し、
前記第2ステップは、前記眼鏡領域の探索を行って、探索の結果得られた眼鏡モデルパラメータを特徴量として抽出し、
前記第3ステップは、データベースに保存された学習パターンの識別パラメータを特徴量として読み込み、前記眼鏡モデルパラメータを用いて、前記撮像画像内の眼鏡の有無を判定する
ことを特徴とする請求項4記載の画像処理方法。
【請求項6】
前記第4ステップは、前記入力画像データ内における前記眼鏡領域の座標値、眼鏡フレーム領域の座標値および眼球領域の座標値を算出するステップと、前記顔領域を複数の領域に分割して切り分けるステップとを有する一方、
前記第5ステップは、領域抽出手段にて切り分けられた各領域内のオブジェクトの空洞の画素値を埋めるステップと、任意の領域のレイヤーを作成するステップと、前記オブジェクトからテクスチャを自動生成して該テクスチャを補正するステップと、複数の前記レイヤーを単一の画像データに変換して統合するステップとを有する
ことを特徴とする請求項4または5のいずれか1項に記載の画像処理装置。
【請求項7】
請求項1〜3のいずれか1項に記載の画像処理装置を構成する各手段としてコンピュータを機能させることを特徴とする画像処理プログラム。
【請求項8】
請求項7記載の画像処理プログラムを記録した記録媒体。
【請求項1】
人物の撮像画像から眼鏡の有無を識別し、眼鏡パターンを除去した顔画像を生成する画像処理装置であって、
サンプル画像の学習パターンから、眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状、および眼鏡フレームと眼球を含む眼鏡フレーム内部のテクスチャを加味した眼鏡モデルを生成する眼鏡モデル生成手段と、
入力された前記撮像画像内の顔領域と前記眼鏡モデルとから眼鏡領域の特徴量を抽出する特徴抽出手段と、
前記眼鏡領域の特徴量と学習パターンの特徴量とを比較して、前記撮像画像内の眼鏡の有無を判別する眼鏡識別手段と、
前記撮像画像を前記顔領域と前記眼鏡領域の特徴量とから任意の領域に分割する領域抽出手段と、
前記分割された各領域のデータから任意のテクスチャを生成し、各領域を統合する補間手段とを備え、
前記統合結果を出力することを特徴とする画像処理装置。
【請求項2】
前記撮像画像内における顔の有無を識別して、前記顔領域を抽出する前処理手段を備え、
前記特徴抽出手段は、前記眼鏡領域の探索を行って、探索の結果得られた眼鏡モデルパラメータを特徴量として抽出するとともに、
前記眼鏡識別手段は、データベースに保存された学習パターンの識別パラメータを特徴量として読み込み、前記眼鏡モデルパラメータを用いて、前記撮像画像内の眼鏡の有無を判定する
ことを特徴とする請求項1記載の画像処理装置。
【請求項3】
前記領域抽出手段は、前記撮像画像内における前記眼鏡領域の座標値、眼鏡フレーム領域の座標値および眼球領域の座標値を算出する手段と、前記顔領域を複数の領域に分割して切り分ける手段とを備え、
前記補間手段は、領域抽出手段にて切り分けられた各領域内のオブジェクトの空洞の画素値を埋める手段と、任意の領域のレイヤーを作成する手段と、前記オブジェクトからテクスチャを自動生成して該テクスチャを補正する手段と、複数の前記レイヤーを単一の画像に変換して統合する手段とを備える
ことを特徴とする請求項1または2のいずれか1項に記載の画像処理装置。
【請求項4】
人物の撮像画像から眼鏡の有無を識別し、眼鏡パターンを除去した顔画像を生成する画像処理方法であって、
眼鏡モデル生成手段が、サンプル画像の学習パターンから、眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状、および眼鏡フレームと眼球を含む眼鏡フレーム内部のテクスチャを加味した眼鏡モデルを生成する第1ステップと、
特徴抽出手段が、入力された前記撮像画像内の顔領域と前記眼鏡モデルとから眼鏡領域の特徴量を抽出する第2ステップと、
眼鏡識別手段が、前記眼鏡領域の特徴量と学習パターンの特徴量とを比較して、前記撮像画像内の眼鏡の有無を判別する第3ステップと、
領域抽出手段が、前記顔領域と前記眼鏡領域の特徴量とから前記撮像画像を任意の領域に分割する第4ステップと、
補間手段が、前記分割された各領域のデータから任意のテクスチャを生成し、各領域を統合する第5ステップと、
前記第5ステップの統合結果を出力する第6ステップと、
を有することを特徴とする画像処理方法。
【請求項5】
前処理手段において前記撮像画像内の顔の有無を識別して、前記顔領域を抽出するステップをさらに有し、
前記第2ステップは、前記眼鏡領域の探索を行って、探索の結果得られた眼鏡モデルパラメータを特徴量として抽出し、
前記第3ステップは、データベースに保存された学習パターンの識別パラメータを特徴量として読み込み、前記眼鏡モデルパラメータを用いて、前記撮像画像内の眼鏡の有無を判定する
ことを特徴とする請求項4記載の画像処理方法。
【請求項6】
前記第4ステップは、前記入力画像データ内における前記眼鏡領域の座標値、眼鏡フレーム領域の座標値および眼球領域の座標値を算出するステップと、前記顔領域を複数の領域に分割して切り分けるステップとを有する一方、
前記第5ステップは、領域抽出手段にて切り分けられた各領域内のオブジェクトの空洞の画素値を埋めるステップと、任意の領域のレイヤーを作成するステップと、前記オブジェクトからテクスチャを自動生成して該テクスチャを補正するステップと、複数の前記レイヤーを単一の画像データに変換して統合するステップとを有する
ことを特徴とする請求項4または5のいずれか1項に記載の画像処理装置。
【請求項7】
請求項1〜3のいずれか1項に記載の画像処理装置を構成する各手段としてコンピュータを機能させることを特徴とする画像処理プログラム。
【請求項8】
請求項7記載の画像処理プログラムを記録した記録媒体。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【公開番号】特開2009−294955(P2009−294955A)
【公開日】平成21年12月17日(2009.12.17)
【国際特許分類】
【出願番号】特願2008−148601(P2008−148601)
【出願日】平成20年6月5日(2008.6.5)
【出願人】(000004226)日本電信電話株式会社 (13,992)
【Fターム(参考)】
【公開日】平成21年12月17日(2009.12.17)
【国際特許分類】
【出願日】平成20年6月5日(2008.6.5)
【出願人】(000004226)日本電信電話株式会社 (13,992)
【Fターム(参考)】
[ Back to top ]