認証装置、認証方法及びプログラム
【課題】精度の高い認証技術を提供する。
【解決手段】認証装置は、認証対象者の顔の3次元情報と2次元情報とを取得し(ステップSP5)、当該3次元情報を認証対象者の顔の形状変化による変動を受けにくい特徴情報に圧縮し、当該特徴情報と2次元情報とを用いて認証動作を行う。特に、所定の写像関係f(hS→dS)を用いて、認証対象者の顔の3次元形状情報hSが、認証対象者の顔の表情変化による変動を受けにくい3次元形状特徴情報dSに変換されて圧縮され、当該3次元形状特徴情報dSを用いて認証動作が行われる。これによれば、顔の表情変化の影響を受けにくい認証動作を行うことが可能となる。
【解決手段】認証装置は、認証対象者の顔の3次元情報と2次元情報とを取得し(ステップSP5)、当該3次元情報を認証対象者の顔の形状変化による変動を受けにくい特徴情報に圧縮し、当該特徴情報と2次元情報とを用いて認証動作を行う。特に、所定の写像関係f(hS→dS)を用いて、認証対象者の顔の3次元形状情報hSが、認証対象者の顔の表情変化による変動を受けにくい3次元形状特徴情報dSに変換されて圧縮され、当該3次元形状特徴情報dSを用いて認証動作が行われる。これによれば、顔の表情変化の影響を受けにくい認証動作を行うことが可能となる。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、顔の認証技術に関する。
【背景技術】
【0002】
近年、ネットワーク技術等の発展によって電子化された様々なサービスが普及し、人に頼らない非対面での本人認証技術の必要性が高まっている。これに伴い、人物の生体特徴によって自動的に個人の識別を行うバイオメトリクス認証技術(生体認証技術)の研究が盛んに行われている。バイオメトリクス認証技術の一つである顔認証技術は、非接触型の認証方法であり、監視カメラによるセキュリティ或いは顔をキーとした画像データベース検索等、様々な分野での応用が期待されている。
【0003】
現在、顔画像より得られる2次元の情報を用いた認証手法においては、顔の有する3次元形状を認証のための補助的な情報として利用することで、認証精度の向上を可能にする手法が提案されている(特許文献1参照)。
【0004】
【特許文献1】特開2004−126738号公報
【発明の開示】
【発明が解決しようとする課題】
【0005】
しかしながら、上記手法は、認証対象者から得られる3次元形状情報(以下、3次元情報とも称する)或いは2次元情報に対して、認証対象者の表情変化等の影響による情報変化を考慮していないため、その認識精度は十分に高いものではないという問題がある。
【0006】
そこで、本発明は上記課題に鑑みてなされたものであり、認証対象者から得られる認証情報(3次元情報又は2次元情報)をそのまま用いる場合よりも、高い精度の認証を行うことが可能な技術を提供することを課題とする。
【課題を解決するための手段】
【0007】
請求項1の発明は、認証装置であって、認証対象者の顔の3次元形状情報を取得する手段と、所定の写像関係を用いて前記3次元形状情報を圧縮した3次元形状特徴情報を生成する圧縮手段と、前記3次元形状特徴情報を用いて前記認証対象者に関する認証動作を行う認証手段とを備え、前記所定の写像関係は、前記3次元形状情報を表現するベクトル空間が、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離されるとき、前記ベクトル空間における任意のベクトルを前記第1の部分空間内のベクトルに変換するものであることを特徴とする。
【0008】
また、請求項2の発明は、請求項1の発明に係る認証装置において、前記3次元形状特徴情報を表現するベクトルの次元数は、前記3次元形状情報を表現するベクトルの次元数よりも低いことを特徴とする。
【0009】
また、請求項3の発明は、請求項1または請求項2の発明に係る認証装置において、前記ベクトル空間は、級内分散と級間分散との大小関係を利用して、前記第1の部分空間と前記第2の部分空間とに仮想的に分離されることを特徴とする。
【0010】
また、請求項4の発明は、請求項1から請求項3のいずれかの発明に係る認証装置において、前記所定の写像関係は、複数の人物をそれぞれその表情を変えて撮像した複数の画像に基づいて取得されることを特徴とする。
【0011】
また、請求項5の発明は、請求項1から請求項4のいずれかの発明に係る認証装置において、前記認証対象者の顔の2次元情報を取得する手段、をさらに備え、前記認証手段は、前記2次元情報をも用いて前記認証対象者に関する認証動作を行うことを特徴とする。
【0012】
また、請求項6の発明は、請求項5の発明に係る認証装置において、前記認証対象者の顔に関する個別モデルを、前記3次元形状情報と前記2次元情報とに基づいて生成する手段と、前記個別モデルのテクスチャ情報を標準化した状態に変換する変換手段とをさらに備え、前記変換手段は、前記個別モデルに設定された各代表点と標準立体モデルにおける各対応標準位置との対応関係を利用して、前記テクスチャ情報を標準化した状態に変換し、前記認証手段は、標準化されたテクスチャ情報をも用いて前記認証対象者に関する認証動作を行うことを特徴とする。
【0013】
また、請求項7の発明は、請求項6の発明に係る認証装置において、前記変換手段は、前記対応関係を利用して、前記テクスチャ情報を前記標準立体モデルに貼り付けたサブモデルを生成し、前記テクスチャ情報を標準化した状態に変換することを特徴とする。
【0014】
また、請求項8の発明は、請求項7の発明に係る認証装置において、前記変換手段は、前記サブモデルの周囲に配置された円筒面に前記サブモデルのテクスチャ情報を投影して、前記テクスチャ情報を標準化した状態に変換することを特徴とする。
【0015】
また、請求項9の発明は、請求項1から請求項8のいずれかの発明に係る認証装置において、前記3次元形状情報は、前記認証対象者の顔の個別モデルに設定された複数の代表点の3次元座標情報を含むことを特徴とする。
【0016】
また、請求項10の発明は、請求項1から請求項8のいずれかの発明に係る認証装置において、前記3次元形状情報は、前記認証対象者の顔の個別モデルに設定された複数の代表点における任意の2点間の距離情報を含むことを特徴とする。
【0017】
また、請求項11の発明は、請求項1から請求項8のいずれかの発明に係る認証装置において、前記3次元形状情報は、前記認証対象者の顔の個別モデルに設定された複数の代表点における任意の3点から形成される3角形が有する角度情報を含むことを特徴とする。
【0018】
また、請求項12の発明は、認証方法であって、認証対象者の顔の3次元形状情報を取得する工程と、前記3次元形状情報を表現するベクトル空間を、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離するとき、前記ベクトル空間における任意のベクトルを前記第1の部分空間内の所定の部分空間のベクトルに変換する所定の写像関係を用いて、前記3次元形状情報を変換し、前記3次元形状情報を3次元形状特徴情報に圧縮する工程と、前記3次元形状特徴情報を用いて前記認証対象者に関する認証動作を行う工程とを含むことを特徴とする。
【0019】
また、請求項13の発明は、コンピュータに、認証対象者の顔の3次元形状情報を取得する手順と、前記3次元形状情報を表現するベクトル空間を、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離するとき、前記ベクトル空間における任意のベクトルを前記第1の部分空間内の所定の部分空間のベクトルに変換する所定の写像関係を用いて、前記3次元形状情報を変換し、前記3次元形状情報を3次元形状特徴情報に圧縮する手順と、前記3次元形状特徴情報を用いて前記認証対象者に関する認証動作を行う手順とを実行させることを特徴とする。
【発明の効果】
【0020】
請求項1から請求項13に記載の発明によれば、所定の写像関係を用いて認証対象者の顔の3次元形状情報を、表情の相違による影響が比較的小さく個人相互間の識別に適した3次元形状特徴情報に圧縮し、当該3次元形状特徴情報を用いて認証動作を行うので、顔の表情変化の影響を受けにくい認証を行うことが可能となる。
【発明を実施するための最良の形態】
【0021】
以下、本発明の実施形態を図面に基づいて説明する。
【0022】
<実施形態>
<概要>
図1は、本発明の実施形態に係る顔認証システム1を示す構成図である。図1に示すように顔認証システム1は、コントローラ10と2台の画像撮影カメラ(以下、単に「カメラ」とも称する)CA1及びCA2とで構成されている。カメラCA1とカメラCA2とは、それぞれ異なる位置から認証対象者HMの顔を撮影できるように配置されている。カメラCA1とカメラCA2とによって認証対象者HMの顔画像が撮影されると、当該撮影により得られる認証対象者HMの外観情報すなわち2種類の顔画像がコントローラ10に通信線を介して送信される。なお、各カメラとコントローラ10との間での画像データの通信方式は有線方式に限定されず、無線方式であってもよい。
【0023】
図2は、コントローラ10の構成概要を示す図である。図2に示されるように、コントローラ10は、CPU2と、記憶部3と、メディアドライブ4と、液晶ディスプレイなどの表示部5と、キーボード6a及びポインティングデバイスであるマウス6bなどの入力部6と、ネットワークカードなどの通信部7とを備えたパーソナルコンピュータなどの一般的なコンピュータで構成される。記憶部3は、複数の記憶媒体、具体的には、ハードディスクドライブ(HDD)3aと、HDD3aよりも高速処理可能なRAM(半導体メモリ)3bとを有している。また、メディアドライブ4は、CD−ROM、DVD(Digital Versatile Disk)、フレキシブルディスク、メモリカードなどの可搬性の記録媒体8からその中に記録されている情報を読み出すことができる。なお、このコントローラ10に対して供給される情報は、記録媒体8を介して供給される場合に限定されず、LAN及びインターネットなどのネットワークを介して供給されてもよい。
【0024】
次に、コントローラ10が備える各種機能について説明する。
【0025】
図3は、コントローラ10が備える各種機能を示すブロック図である。図4は、個人認証部14の詳細な機能構成を示すブロック図である。
【0026】
コントローラ10の備える各種機能は、コントローラ10内のCPU等の各種ハードウェアを用いて所定のソフトウェアプログラム(以下、単に「プログラム」とも称する)を実行することによって、実現される機能を概念的に示すものである。
【0027】
図3に示されるように、コントローラ10は、画像入力部11と顔領域検索部12と顔部位検出部13と個人認証部14と出力部15とを備えている。
【0028】
画像入力部11は、カメラCA1及びCA2によって撮影された2枚の画像をコントローラ10に入力する機能を有している。
【0029】
顔領域検索部12は、入力された顔画像から顔領域を特定する機能を有している。
【0030】
顔部位検出部13は、特定した顔領域から顔の特徴的な部位(例えば、目、眉、鼻、口等)の位置を検出する機能を有している。
【0031】
個人認証部14は、顔の認証を主たる目的として構成され、各個人を顔画像で認証する機能を有している。この個人認証部14の詳細については、次述する。
【0032】
出力部15は、個人認証部14で得られた認証結果を出力する機能を有している。
【0033】
次に、個人認証部14の詳細構成について図4を用いて説明する。
【0034】
図4に示すように、個人認証部14は、3次元再構成部21と最適化部22と補正部23と特徴抽出部24と情報圧縮部25と比較部26とを有している。
【0035】
3次元再構成部21は、入力画像から得られる顔の特徴的な部位の座標から各部位の3次元における座標を算出する機能を有している。この3次元座標算出機能は、カメラパラメータ記憶部27に格納されているカメラ情報を用いて実現される。
【0036】
最適化部22は、算出された3次元座標を用いて3次元モデルデータベース28に格納されている顔の標準的な立体モデル(「標準立体モデル」あるいは「標準モデル」とも称する)から、個別モデルを生成する機能を有している。
【0037】
補正部23は、生成された個別モデルを補正する機能を有している。
【0038】
これらの各処理部21,22,23によって、認証対象者HMに関する情報は、正規化され、相互比較しやすい状態に変換される。また、各処理部の機能によって作成された個別モデルは、認証対象者HMに関する3次元情報と2次元情報との双方を含むものとして形成される。「3次元情報」は、3次元座標値等で構成される立体的構成に関連する情報であり、「2次元情報」は、表面情報(テクスチャ情報)及び/又は平面的な位置情報等で構成される平面的構成に関連する情報である。
【0039】
特徴抽出部24は、上記各処理部21,22,23において作成された個別モデルから3次元情報と2次元情報とを抽出する特徴抽出機能を有している。
【0040】
情報圧縮部25は、特徴抽出部24で抽出された3次元情報と2次元情報とをそれぞれ、顔認証用の適切な顔特徴量に変換することで、顔認証に用いる3次元情報と2次元情報とをそれぞれ圧縮する機能を有している。この情報圧縮機能は、特徴変換辞書記憶部29に格納された情報等を用いて実現される。
【0041】
比較部26は、人物データベース30に予め登録されている登録者(比較対象者)の顔特徴量と、上記各機能部によって得られる認証対象者HMの顔特徴量との類似度を計算し、顔の認証を行う機能を有している。
【0042】
以下では、上述したコントローラ10の各機能によって実現される動作について説明する。
【0043】
<動作>
まず、コントローラ10の全体動作について説明する。
【0044】
図5は、コントローラ10の全体動作を示す図である。図5に示されるように、コントローラ10の動作は、その目的に応じて辞書作成動作PHA1と登録動作PHA2と認証動作PHA3とに分けることができる。
【0045】
辞書作成動作PHA1においては、複数のサンプル顔画像EA1から各サンプル顔画像ごとに3次元情報及び2次元情報EA2を抽出し、これら複数の3次元情報と2次元情報とに基づいて特徴変換辞書EA3を作成する。そして、作成された特徴変換辞書EA3を、特徴変換辞書記憶部29に格納する。
【0046】
登録動作PHA2においては、登録画像EB1から得られる3次元情報及び2次元情報EB2を特徴変換辞書EA3を用いて情報圧縮し、3次元特徴量及び2次元特徴量EB3を取得する。そして、取得した3次元特徴量及び2次元特徴量EB3を、登録顔特徴量として人物データベース30に登録する。
【0047】
認証動作PHA3においては、照合画像EC1から得られる3次元情報及び2次元情報EC2を特徴変換辞書EA3を用いて情報圧縮し、3次元特徴量及び2次元特徴量EB3を取得する。そして、照合画像EC1の3次元特徴量及び2次元特徴量EB3と人物データベース30に登録されている登録顔特徴量とを比較し判定出力する。
【0048】
このように、コントローラ10においては、辞書作成動作PHA1で得られた特徴変換辞書EA3を用いて登録動作PHA2が実行され、そして、登録動作PHA2で得られる登録顔特徴量を用いて認証動作PHA3が実行される。
【0049】
以下では、辞書作成動作PHA1及び登録動作PHA2の各動作が予め終了しているものとして、認証動作PHA3について説明する。
【0050】
具体的には、カメラCA1及びCA2で撮影した所定人物を認証対象者HMとして、実際に顔認証(認証動作PHA3)を行う場合について説明する。ここでは、3次元情報として、カメラCA1,CA2による画像を利用して三角測量の原理によって計測された3次元形状情報を用い、2次元情報としてテクスチャ(輝度)情報を用いる場合を例示する。
【0051】
図6は、コントローラ10の認証動作PHA3のフローチャートである。図7は、顔画像における特徴的な部位の特徴点を示す図である。図8は、2次元画像中の特徴点から三角測量の原理を用いて3次元座標を算出する様子を示す模式図である。なお、図8中の符号G1は、カメラCA1により撮影されコントローラ10に入力された画像G1を示し、符号G2は、カメラCA2により撮影されコントローラ10に入力された画像G2を示している。また、画像G1、G2中の点Q20は、図7における口の右端に相当する。
【0052】
図6に示されるように、コントローラ10は、ステップSP1からステップSP8までの工程において、認証対象者HMの顔を撮影した画像に基づいて、認証対象者HMに関する顔特徴量を取得し、さらにステップSP9からステップSP10の工程を経ることで、顔認証を実現する。
【0053】
まず、ステップSP1において、カメラCA1及びCA2によって撮影された所定の人物(認証対象者)の顔画像(画像G1及び画像G2)が、通信線を介しコントローラ10に入力される。顔画像を撮影するカメラCA1及びカメラCA2は、それぞれ、2次元画像を撮影可能な一般的な撮影装置で構成される。また、当該各カメラCAiの位置姿勢等を示すカメラパラメータBi(i=1,...,N)は既知であり、予めカメラパラメータ記憶部27(図4)に記憶されている。ここで、Nはカメラの台数を示している。本実施形態ではN=2の場合を例示しているが、N≧3としてもよい(3台以上のカメラを用いてもよい)。また、カメラパラメータBiについては後述する。
【0054】
次に、ステップSP2において、カメラCA1及びCA2より入力された2枚の画像(画像G1及び画像G2)それぞれにおいて、顔の存在する領域が検出される。顔領域検出手法としては、例えば、予め用意された標準の顔画像を用いたテンプレートマッチングにより、2枚の画像それぞれから顔領域を検出する手法を採用することができる。
【0055】
次に、ステップSP3において、ステップSP2で検出された顔領域画像の中から、顔の特徴的な部位の位置が検出される。例えば、顔の特徴的な部位としては、目、眉、鼻又は口等が考えられ、ステップSP3においては、図7に示されるような上記各部位の特徴点Q1〜Q23の座標が算出される。特徴部位の検出は、特徴部位の標準的なテンプレートを用いて行うテンプレートマッチングにより検出することができる。また、算出される特徴点の座標は、カメラより入力された画像G1、G2上の座標として表される。例えば、図7における口の右端に相当する特徴点Q20に関して、図8中に示すように、2枚の画像G1,G2のそれぞれにおける座標値が求められる。具体的には、画像G1の左上の端点を原点Oとして、特徴点Q20の画像G1上の座標(x1,y1)が算出される。画像G2においても同様に特徴点Q20の画像G2上の座標(x2,y2)が算出される。
【0056】
また、入力された画像における各特徴点を頂点とする領域内の各画素の輝度値が、当該領域の有する情報(以下、「テクスチャ情報」とも称する)として取得される。各領域におけるテクスチャ情報は、後述のステップSP5等において、標準モデルに貼り付けられる。なお、本実施形態の場合、入力される画像は2枚であるので、各画像の対応する領域内の対応する画素における平均の輝度値を当該領域のテクスチャ情報として用いるものとする。
【0057】
次のステップSP4(3次元再構成工程)では、ステップSP3において検出された各特徴点Qjの各画像Gi(i=1,...,N)における2次元座標Ui(j)と、各画像Giを撮影したカメラのカメラパラメータBiとに基づいて、各特徴点Qjの3次元座標M(j)(j=1,...,m)が算出される。なお、mは特徴点の数を示している。
【0058】
以下、3次元座標M(j)の算出について具体的に説明する。
【0059】
各特徴点Qjの3次元座標M(j)と各特徴点Qjの2次元座標Ui(j)とカメラパラメータBiとの関係は式(1)のように表される。
【0060】
【数1】
【0061】
なお、μiは、スケールの変動分を示す媒介変数である。また、カメラパラメータ行列Biは、予め3次元座標が既知の物体を撮影することにより求められる各カメラ固有の値であり、3×4の射影行列で表される。
【0062】
例えば、上記式(1)を用いて3次元座標を算出する具体的な例として、特徴点Q20の3次元座標M(20)を算出する場合を図8を用いて考える。式(2)は画像G1上の特徴点Q20の座標(x1,y1)と特徴点Q20を3次元空間で表したときの3次元座標(x,y,z)との関係を示している。同様に、式(3)は、画像G2上の特徴点Q20の座標(x2,y2)と特徴点Q20を3次元空間で表したときの3次元座標(x,y,z)との関係を示している。
【0063】
【数2】
【0064】
【数3】
【0065】
上記式(2)及び式(3)中の未知数は、2つの媒介変数μ1、μ2と3次元座標M(20)の3つの成分値x,y,zとの合計5つである。一方、式(2)及び式(3)に含まれる等式の数は6であるため、各未知数つまり特徴点Q20の3次元座標(x,y,z)を算出することができる。また、同様にして、全ての特徴点Qjについての3次元座標M(j)を取得することができる。
【0066】
次のステップSP5では、モデルフィッテングが行われる。この「モデルフィッティング」は、予め準備された一般的(標準的)な顔のモデルである「(顔の)標準モデル」を、認証対象者HMに関する情報を用いて変形することによって、認証対象者HMの顔に関する入力情報が反映された「個別モデル」を生成する処理である。具体的には、算出された3次元座標M(j)を用いて標準モデルの3次元情報を変更する処理と、上記のテクスチャ情報を用いて標準モデルの2次元情報を変更する処理とが行われる。
【0067】
図9は、3次元の顔の標準モデルを示している。
【0068】
図9に示される顔の標準モデルは、頂点データとポリゴンデータとで構成され、3次元モデルデータベース28(図4)として記憶部3等に保存されている。頂点データは、標準モデルにおける特徴部位の頂点(以下、「標準制御点」とも称する)COjの座標の集合であり、ステップSP4において算出される各特徴点Qjの3次元座標と1対1に対応している。ポリゴンデータは、標準モデルの表面を微小な多角形(例えば、三角形)のポリゴンに分割し、ポリゴンを数値データとして表現したものである。なお、図9では、各ポリゴンの頂点が特徴点Qj以外の中間点によっても構成される場合を例示しており、中間点の座標は適宜の補完手法によって得ることが可能である。
【0069】
ここで、標準モデルから個別モデルを構成するモデルフィッティングについて詳述する。
【0070】
まず、標準モデルの各特徴部位の頂点(標準制御点COj)を、ステップSP4において算出された各特徴点に移動させる。具体的には、各特徴点Qjの3次元座標値を、対応する標準制御点COjの3次元座標値として代入し、移動後の標準制御点(以下、「個別制御点」とも称する)Cjを得る。これにより、標準モデルを3次元座標M(j)で表した個別モデルに変形することができる。
【0071】
また、この変形(移動)による各頂点の移動量から、後述のステップSP6において用いられる、標準モデルを基準にした場合の個別モデルのスケール、傾き及び位置を求めることができる。具体的には、標準モデルにおける所定の基準位置と、変形後の個別モデルにおける対応基準位置との間のずれ量によって、個別モデルの標準モデルに対する位置変化を求めることができる。また、標準モデルにおける所定の2点を結ぶ基準ベクトルと、変形後の個別モデルにおける当該所定の2点の対応点を結ぶ基準ベクトルとの間のずれ量によって、個別モデルの標準モデルに対する傾きの変化及びスケール変化を求めることができる。例えば、右目の目頭の特徴点Q1と左目の目頭の特徴点Q2との中点QMの座標と標準モデルにおいて中点QMに相当する点の座標とを比較することによって個別モデルの位置を求めることができ、さらに、中点QMと他の特徴点とを比較することによって個別モデルのスケール及び傾きを算出することができる。
【0072】
次の式(4)は、標準モデルと個別モデルとの間の対応関係を表現する変換パラメータ(ベクトル)vtを示している。式(4)に示すように、この変換パラメータ(ベクトル)vtは、両者のスケール変換指数szと、直交3軸方向における並進変位を示す変換パラメータ(tx,ty,tz)と、回転変位(傾き)を示す変換パラメータ(φ,θ,ψ)とをその要素とするベクトルである。
【0073】
【数4】
【0074】
上述のようにして、認証対象者HMに関する3次元座標M(j)を用いて標準モデルの3次元情報を変更する処理が行われる。
【0075】
その後、テクスチャ情報を用いて標準モデルの2次元情報を変更する処理も行われる。具体的には、入力画像G1,G2における各領域のテクスチャ情報が、3次元の個別モデル上の対応する領域(ポリゴン)に貼り付け(マッピング)られる。なお、立体モデル(個別モデル等)上でテクスチャ情報が貼り付けられる各領域(ポリゴン)は「パッチ」とも称せられる。
【0076】
以上のようにして、モデルフィッティング処理(ステップSP5)が行われる。
【0077】
次のステップSP6においては、標準モデルを基準にして個別モデルの補正が行われる。本工程では、3次元情報に関する位置(アライメント)補正と、2次元情報に関するテクスチャ補正とが実行される。
【0078】
アライメント(顔向き)補正は、上記ステップSP5において求められる標準モデルを基準にした際の個別モデルのスケール、傾き及び位置を基にして行われる。より詳細には、標準モデルを基準にした際の標準モデルと個別モデルとの関係を示す変換パラメータvt(式(4)参照)を用いて個別モデルの個別制御点を座標変換することで、標準モデルの姿勢と同じ姿勢を有する3次元顔モデルを作成することができる。すなわち、このアライメント補正によって、認証対象者HMに関する3次元情報を適切に正規化することができる。
【0079】
次に、テクスチャ補正について説明する。テクスチャ補正においては、テクスチャ情報の正規化が行われる。
【0080】
テクスチャ情報の正規化は、個別モデルの各個別制御点(特徴点)と標準モデルにおける各対応点(対応標準位置)との対応関係を求めてテクスチャ情報を標準化する処理である。これによって、個別モデルにおける各パッチのテクスチャ情報を、パッチ形状の変化(具体的には、顔の表情の変化)および/または顔の姿勢の変化の影響を受けにくい状態に変更することができる。
【0081】
ここでは、個別モデルにおける各パッチのテクスチャ情報を(当該個別モデルの作成に用いた)元の標準モデルに貼り付けた立体モデルを、サブモデルとして、当該個別モデルとは別個に生成する場合を例示する。サブモデルに貼り付けられた各パッチのテクスチャ情報は、当該各パッチの形状および顔の姿勢が正規化された状態を有している。
【0082】
詳細には、個別モデルの各個別制御点(特徴点)を元の標準モデルにおける各対応点に移動させた上で認証対象者に関するテクスチャ情報を標準化する。また、より詳細には、個別モデルにおける各パッチ内の各画素の位置を当該パッチの個別制御点Cjの3次元座標に基づいて正規化し、元の標準モデルにおいて対応するパッチ内の対応する位置に個別モデルの各画素の輝度値(テクスチャ情報)を貼り付ける。なお、当該サブモデルに貼り付けられたテクスチャ情報は、後述の類似度計算処理(ステップSP9)のうち、テクスチャ情報に関する比較処理に用いられる。
【0083】
図10は、所定パッチにおけるテクスチャ情報の正規化を示す概念図である。この図10を用いて、テクスチャ情報の正規化について、より詳細に説明する。
【0084】
例えば、或る個別モデルにおけるパッチKK2と元の標準モデルにおけるパッチHYとが対応しているとする。このとき、個別モデルにおけるパッチKK2内の位置γK2は、パッチKK2の個別制御点Cj(j=J1、J2、J3)のうちの異なる2組の点を結ぶ独立したベクトルV21,V22の線形和で表現される。また、標準モデルにおけるパッチHY内の位置γHYは、当該ベクトルV21,V22の線形和における各係数と同じ係数を用いて、対応ベクトルV01,V02の線形和で表現される。これにより、両位置γK1,γHYとの対応関係が求められ、パッチKK2内における位置γK2のテクスチャ情報を、パッチHY内の対応する位置γHYに貼り付けることが可能となる。このようなテクスチャ情報の貼り付け処理を個別モデルのパッチKK2内の全テクスチャ情報について実行すると、個別モデルにおけるパッチ内のテクスチャ情報が、サブモデルにおけるパッチ内のテクスチャ情報に変換され、正規化された状態で得られることになる。
【0085】
このサブモデルにおける顔の2次元情報(テクスチャ情報)は、顔の姿勢変動および顔の表情変化等による影響を受けにくいという特質を有している。例えば、同一人物に関する2つの個別モデルにおける姿勢および表情が互いに異なる場合、上述のテクスチャ情報の正規化を行わないときには、両個別モデルにおけるパッチの対応関係(例えば、図10において、本来はパッチKK1とパッチKK2とが対応すること)等を正確に得ることができず、別人物であるとして誤判定する可能性が高くなる。これに対して、上述のテクスチャ情報の正規化を行えば、顔の姿勢が統一され、各パッチの対応位置関係をより正確に得ることができるので、姿勢変化による影響を受けにくくなる。また、上述のテクスチャ情報の正規化によれば、顔の表面を構成する各パッチの形状は、標準モデルにおける各対応パッチの形状と同一になる(図10参照)ため、各パッチの形状が統一(正規化)され、表情変化による影響を受けにくくなる。例えば、微笑している人物の個別モデルは、笑っていない(無表情の)標準モデルを用いることによって、笑っていない状態のサブモデルに変換されて標準化される。これによれば、微笑によるテクスチャ情報の変化(例えば、ほくろの位置の変化)の影響が抑制される。このように、上述の正規化されたテクスチャ情報は、個人認証に有効な情報となる。
【0086】
また、サブモデルに貼り付けられたテクスチャ情報は、比較しやすいように、図11に示すような投影画像にさらに変更することもできる。
【0087】
図11は、テクスチャ補正されたテクスチャ情報、すなわち、サブモデルに貼り付けられたテクスチャ情報を、当該サブモデルの周囲に配置した円筒面に投影した画像である。この投影画像のテクスチャ情報は、正規化されており形状および姿勢に依存しないという特質を有しているため、個人識別に用いる情報として非常に有用である。
【0088】
以上のようにステップSP6においては、認証対象者HMに関する3次元情報と2次元情報とが、正規化された状態で生成される。
【0089】
次のステップSP7(図6)においては、認証対象者HMの特徴を表す情報として、3次元形状情報(3次元情報)とテクスチャ情報(2次元情報)とが抽出される。
【0090】
3次元情報としては、個別モデルにおけるm個の個別制御点Cjの3次元座標ベクトルが抽出される。具体的には、式(5)に示されるように、m個の個別制御点Cj(j=1,...,m)の3次元座標(Xj,Yj,Zj)を要素とするベクトルhS(以下、「3次元座標情報」とも称する)が3次元情報(3次元形状情報)として抽出される。
【0091】
【数5】
【0092】
また、2次元情報としては、個人認証にとって重要な情報となる顔の特徴的な部分つまり個別制御点付近のパッチ又はパッチのグループ(局所領域)が有するテクスチャ(輝度)情報(以下、「局所2次元情報」とも称する)が抽出される。ここでは、テクスチャ情報(局所2次元情報)として、上述のサブモデルにマッピングされた情報が用いられる。
【0093】
局所2次元情報は、例えば、正規化後の特徴的な部位の個別制御点を示す図17中のグループGR(個別制御点C20、C22及びC23を頂点とするパッチR1と個別制御点C21、C22及びC23を頂点とするパッチR2)から構成される領域、又は、単に一つのパッチからなる領域等の各局所領域が有する各画素の輝度情報として構成される。局所2次元情報h(k)(k=1,...,L;Lは局所領域数)は、それぞれ、当該局所領域内の画素数をn、各画素の輝度値をBR1,...,BRnとすると、式(6)のようなベクトル形式で表される。また、局所2次元情報h(k)をL個の局所領域について集めた情報は、総合的な2次元情報であるとも表現される。
【0094】
【数6】
【0095】
以上のように、ステップSP7においては、認証対象者HMの特徴を表す情報として、3次元形状情報(3次元情報)とテクスチャ情報(2次元情報)とが抽出される。
【0096】
次のステップSP8においては、ステップSP7で抽出された情報を、認証に適した状態に変換する次述の情報圧縮処理が行われる。
【0097】
情報圧縮処理は、3次元形状情報hS及び各局所2次元情報h(k)のそれぞれに対して辞書作成動作PHA1で得られた各々の特徴変換辞書EA3を用いて行われる。以下では、3次元形状情報hSに対する情報圧縮処理と、局所2次元情報h(k)に対する情報圧縮処理とについて、この順序で説明する。
【0098】
3次元形状情報hSに対して行われる情報圧縮処理は、3次元形状情報hSが表す情報空間を、顔の形状変化(表情変化)による影響を受けにくく且つ個人相互間を大きく分離することが可能な部分空間へと変換する処理である。
【0099】
このような情報圧縮処理として、ここでは、3次元形状情報用の変換行列(以下、「3次元情報変換行列」とも称する)Atを利用するものを想定する。この3次元情報変換行列Atは、個人内のばらつき(級内分散α)に比べて個人間のばらつき(級間分散β)を大きくする部分空間に3次元形状情報hSを射影させるとともに、当該3次元形状情報hSのベクトルサイズ(ベクトルの次元数)SZ1(=3×m)を値SZ0に低減させる変換行列である。そして、この3次元情報変換行列Atを用いた式(7)で表されるような変換を行うことによって、3次元形状情報hSで表される情報空間を、3次元特徴量dSで表される部分空間(特徴空間)に変換(射影)することができる。
【0100】
【数7】
【0101】
3次元情報変換行列Atの機能について詳述する。
【0102】
3次元情報変換行列Atは、3次元形状情報hSから、個人識別性の高い情報を選択する機能、すなわち情報圧縮機能を有している。
【0103】
具体的には、3次元情報変換行列Atは、3次元形状情報hSに関する複数の主成分ベクトルのうち、後述の主成分ベクトルIX1(図12参照)等のような、顔の表情変化による影響を受けにくく且つ個人相互間を大きく分離する主成分ベクトル(比較的大きな比率F(次述)を有する主成分ベクトル)を選択して、3次元形状情報hSを3次元特徴量dSに圧縮する機能を有している。
【0104】
このような主成分ベクトルは、3次元形状情報hSの各主成分ベクトルへの射影成分に関する級内分散と級間分散との大小関係を利用して選択される。
【0105】
より詳細には、まず、3次元形状情報hSに関する複数の主成分ベクトルのうち、級内分散αと級間分散βとの比率F(=β/α)の大きい主成分ベクトルがSZ0個選択される。そして、3次元形状情報を表現するベクトルhSは、当該選択されたSZ0個の主成分ベクトルで表現されるベクトル空間内のベクトルdSへと変換される。3次元情報変換行列Atによる変換後のベクトルdSによれば、個人内での表情変化等による顔の形状変動(変化)に影響されることを防止しつつ、個人間の相違を顕著に表現することができる。なお、3次元情報変換行列Atの取得手法については次述する。
【0106】
また、この情報圧縮処理は、所定の写像関係f(hS→dS)を用いて3次元形状情報hSを変換して、当該3次元形状情報hSを3次元特徴量(3次元形状特徴情報)dSに圧縮する処理であるとも言える。
【0107】
ここで、3次元情報変換行列Atの取得手法について図12を参照しながら説明する。3次元情報変換行列Atは、辞書作成動作PHA1で予め取得され、特徴変換辞書EA3に格納されている情報である。また、図12は、辞書作成動作PHA1を示すフローチャートである。
【0108】
辞書作成動作PHA1では、複数人の様々な表情を示すサンプル顔画像について上述のステップSP1〜SP7と同様の処理を実行することによって、全てのサンプル顔画像について各サンプル顔画像の3次元情報及び2次元情報が抽出される(ステップSP21)。
【0109】
例えば、人物一人ずつにつき喜び、怒り、驚き、悲しみ、恐怖などの様々な表情を表す20の顔画像を集めることを100人について繰り返して2000種類の顔画像をサンプル画像として収集する。そして、各サンプル画像についてステップSP1〜SP7の処理を実行することによって、2000種類のサンプル画像のそれぞれについて3次元情報及び2次元情報を抽出することができる。
【0110】
そして、ステップSP22において、これら複数の3次元情報に基づいて統計的手法によって3次元形状情報用の変換行列(3次元情報変換行列)Atと、これら複数の2次元情報に基づいて2次元情報用の変換行列(以下、「2次元情報変換行列」とも称する)Aw(k)とが作成される。ここでは、3次元情報変換行列Atの作成について説明し、2次元情報変換行列Aw(k)の作成については後述する。
【0111】
3次元情報変換行列Atの作成は、主成分分析後に級内分散と級間分散とを考慮して特徴選択を行う手法MAを用いて行われる。
【0112】
より詳細には、図13〜図16を用いて説明する。図13〜図16は、各人物(HM1、HM2、HM3)の3次元形状情報hSを構成する主成分ベクトルIXγ(γ=1,...,3×m)のうちの所定の主成分ベクトル(IX1〜IX4)への射影状況を説明するために、各サンプル画像についての3次元形状情報hSの分布状況を模式的に示す図である。これらの図においては、或る人物の或る表情が1つの点で表現され、同一人物に係る点は同一の楕円内に収まるものとして表現されている。なお、上述したように、実際には多数(例えば100人以上)の人物についてサンプル画像を撮影することが好ましいが、ここでは、図示の簡略化のため、3人の人物についての様々な表情のサンプル画像を取得した場合を例示する。
【0113】
図13に示すように、各人物の各表情に対応する3次元形状情報(ベクトル)hSの主成分ベクトルIX1への射影成分を想定する。このとき、主成分ベクトルIX1への射影成分に関して、個人内のばらつきである級内分散αと個人間のばらつきである級間分散βとをそれぞれ求める。なお、図13等において、各点から主成分ベクトルへ向けて伸びる片矢印は、当該主成分ベクトルIX1への「射影」を表現しており、破線の両矢印および実線の両矢印は、それぞれ、射影成分に関する級内分散αと級間分散βとを模式的に示すものである。
【0114】
同様に、他の主成分ベクトルIX2,IX3,IX4,IX5,...についても、その射影成分に関する級内分散αと級間分散βとを求める(図14〜図16)。
【0115】
そして、3次元形状情報hSに関する複数の主成分ベクトルのうち、級内分散αと級間分散βとの比率F(=β/α)が大きいものから順にSZ0個の主成分ベクトルを選択する。
【0116】
ここでは簡単化のため、各主成分ベクトルIXγが、それぞれ、第γ番目(γ=1,,...,3×m)の成分(以下「対応成分」とも称する)のみを1としそれ以外をゼロとする単位ベクトルで構成されるものとする。
【0117】
この場合、上記の変換行列Atは、上記において選択されたSZ0個の主成分ベクトルIXqのそれぞれの対応成分(第q成分)をベクトルhSから抽出し、選択されなかった(3×m−SZ0)個の主成分ベクトルの各対応成分をベクトルhSから抽出しないものとして構成される。
【0118】
図13〜図16に示される主成分ベクトルIX1〜IX4を相互に比較すると、級内分散αと級間分散βとの比率(F=β/α)の最も大きい主成分ベクトルは、主成分ベクトルIX1である。したがって、上述の手法MAを用いた変換行列Atの作成においては、主成分ベクトルIX1〜IX4の中ではまず主成分ベクトルIX1が選択される。そして、変換行列Atは、当該主成分ベクトルIX1の対応成分(第1番目の成分)をベクトルhSの中から抽出するように構成される。
【0119】
また、級内分散αと級間分散βとの比率Fが主成分ベクトルIX1の次に大きい主成分ベクトルは、主成分ベクトルIX3である。この場合、変換行列Atは、当該主成分ベクトルIX3の対応成分をもベクトルhSの中から抽出するように構成される。
【0120】
同様にして、比率Fが比較的大きなSZ0個の主成分ベクトルを選択するとともに、当該選択した主成分ベクトルの対応成分を選択するような変換行列Atが生成される。
【0121】
一方、図14および図16に示されるように、主成分ベクトルIX2,IX4に関する比率Fは比較的小さな値になる。この場合、当該主成分ベクトルIX2,IX4は選択されず、したがって、変換行列Atは、当該主成分ベクトルIX2,IX4の対応成分をベクトルhSから抽出しないように構成される。
【0122】
このように、変換行列Atは、全主成分ベクトルの中から選択されたSZ0個の主成分ベクトルの対応成分のみを抽出し、非選択の主成分ベクトルの対応成分を抽出しないように構成される。また、変換行列Atは、縦方向のサイズがSZ0であり横方向のサイズが(3×m)である行列である。すなわち、3次元形状に関する情報量は(3×m)からSZ0へと圧縮されることになる。
【0123】
なお、上記においては、複数の主成分ベクトルの中から所定数(SZ0個)の主成分ベクトルを選択する場合を例示しているが、これに限定されず、比率Fに関する閾値FThを定め、当該閾値FThよりも大きな比率Fを有する主成分ベクトルを複数の主成分ベクトルの中から選択し、選択した主成分ベクトルを用いて変換行列Atを構成するようにしてもよい。
【0124】
以上のようにして作成された変換行列Atは、3次元形状情報hSで表される情報空間を、3次元形状情報hS内の顔の形状変化(表情変化)による影響を受けにくい情報であるとともに個人間の分離を大きくする情報(特徴情報)が表す部分空間へと変換することを可能にする。
【0125】
ここで、3次元形状情報hSのベクトル空間を、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離することを想定すると、上記の写像関係f(hS→dS)は、人物の顔の3次元形状を表現するベクトル空間における任意のベクトルを第1の部分空間内のベクトルに変換するものであると表現できる。
【0126】
このように、複数の人物について様々な表情で撮像した複数の画像をサンプル画像として収集し、当該複数のサンプル画像に基づいて上記の写像関係f(hS→dS)、(ここでは3次元情報変換行列At)を取得することができる。
【0127】
次に、局所2次元情報h(k)に対する情報圧縮処理について説明する。
【0128】
局所2次元情報h(k)は、当該局所領域内における画素の輝度値の集合であるから、その情報量(次元数)は3次元形状情報hSに比べて膨大となる。このため、本実施形態の局所2次元情報h(k)に関する情報圧縮処理では、KL展開を用いた圧縮と2次元情報変換行列Aw(k)を用いた圧縮との2段階の圧縮処理が行われる。
【0129】
局所2次元情報h(k)は、複数のサンプル顔画像から予め取得される当該局所領域の平均情報(ベクトル)have(k)と、複数のサンプル顔画像をKL展開することによって予め算出される当該局所領域の固有ベクトルのセットで表現される行列P(k)(次述)とを用いて式(8)のように基底分解された形式で表すことができる。この結果、局所2次元顔情報量(ベクトル)c(k)が、局所2次元情報h(k)についての圧縮情報として取得される。
【0130】
【数8】
【0131】
上述のように式(8)中の行列P(k)は、複数のサンプル顔画像から算出される。具体的には、行列P(k)は、複数のサンプル顔画像をKL展開することによって求められる複数の固有ベクトルのうち、固有値の大きい数個の固有ベクトル(基底ベクトル)のセットとして求められる。これらの基底ベクトルは、基底ベクトルデータベース26に記憶されている。顔画像についてのより大きな特徴を示す固有ベクトルを基底ベクトルとしてその顔画像を表現することによれば、顔画像の特徴を効率的に表現することが可能となる。
【0132】
例えば、図17に示されているグループGRからなる局所領域の局所2次元情報h(GR)を基底分解された形式で表現する場合を考える。当該局所領域の固有ベクトルのセットPが、3つの固有ベクトルP1、P2及びP3によってP=(P1,P2,P3)と表現されているとすると、局所2次元情報h(GR)は、当該局所領域の平均情報have(GR)と固有ベクトルのセットP1,P2,P3を用いて式(9)のように表される。平均情報have(GR)は、様々なサンプル顔画像についての複数の局所2次元情報(ベクトル)を対応要素ごとに平均して得られるベクトルである。なお、複数のサンプル顔画像は、適度なばらつきを有する標準的な複数の顔画像を用いればよい。
【0133】
【数9】
【0134】
また、上記式(9)は、顔情報量c(GR)=(c1,c2,c3)Tによって元の局所2次元情報を再現することが可能であることを示している。すなわち、顔情報量c(GR)は、グループGRからなる局所領域の局所2次元情報h(GR)を圧縮した情報といえる。
【0135】
次に、2次元情報変換行列Aw(k)を用いて、局所2次元顔情報量c(GR)が表す特徴空間を個人間の分離を大きくするような部分空間へと変換する処理が行われる。より詳細には、式(10)に表されるようにベクトルサイズSZ2の局所2次元顔情報量c(GR)をベクトルサイズSZ3の局所2次元特徴量d(GR)に低減させる2次元情報変換行列Aw(GR)を用いて、局所2次元顔情報量c(GR)で表される特徴空間を局所2次元特徴量d(GR)で表される部分空間に変換することができ、個人間の情報の相違が顕著になる。
【0136】
【数10】
【0137】
なお、2次元情報変換行列Aw(k)は、上述の3次元情報変換行列Atと同様に、辞書作成動作PHA1で予め取得され、特徴変換辞書EA3に格納されている情報である。
【0138】
具体的には、辞書作成動作PHA1では、全てのサンプル顔画像について局所領域ごとに局所2次元情報が抽出され(ステップSP21)、ステップSP22において、当該局所2次元情報h(k)をKL展開することによって得られる局所2次元顔情報量C(k)に基づいて2次元情報用の変換行列(以下、「2次元情報変換行列」とも称する)Aw(k)が作成される。2次元情報変換行列Aw(k)の作成は、上述の手法MAを用いて、局所2次元顔情報量C(k)が表す特徴空間の各成分の中から、級内分散αと級間分散βの比率(F=β/α)の大きい成分をSZ3個選び出すことによって行われる。
【0139】
また、上述した局所2次元情報h(GR)について行った情報圧縮処理と同様の処理を他の全ての局所領域にも実行することによって、各局所領域についての局所2次元顔特徴量d(k)を取得することができる。
【0140】
上記ステップSP8を経て取得される3次元顔特徴量dSと局所2次元顔特徴量d(k)とを組み合わせた顔特徴量dは、ベクトル形式で式(11)のように表すことができる。
【0141】
【数11】
【0142】
以上に述べたステップSP1〜SP8の工程において、入力される認証対象者HMの顔画像から当該対象者の顔特徴量dが取得される。
【0143】
そして、次のステップSP9〜SP10においては、この顔特徴量dを用いて所定人物の顔認証が行われる。
【0144】
具体的には、認証対象者HM(認証対象物)と比較対象者(比較対象物)との類似度である総合類似度Reが算出され(ステップSP9)、その後、この総合類似度Reに基づく認証対象者HMと比較対象者との比較(判定)動作等(ステップSP10)が行われる。この総合類似度Reは、3次元顔特徴量dSから算出される3次元類似度ReSと、局所2次元顔特徴量d(k)から算出される局所2次元類似度Re(k)とに加えて、3次元類似度ReSと局所2次元類似度Re(k)との重みを規定する重み付け係数(以下、単に「重み係数」とも称する)を用いて算出される。なお、本実施形態における重み係数WT及びWSは、予め決定されている所定の値を用いる。
【0145】
ステップSP9では、人物パラメータデータベース28に予め登録されている比較対象者の顔特徴量(比較特徴量)と、上記ステップSP1〜ステップSP8を経て算出された認証対象者HMの顔特徴量との類似性の評価が行われる。具体的には、登録されている顔特徴量(比較特徴量)(ReSM及びRe(k)M)と認証対象者HMの顔特徴量(ReSI及びRe(k)I)との間で類似度計算が実行され、3次元類似度ReSと局所2次元類似度Re(k)とが算出される。
【0146】
なお、この実施形態においては、顔認証動作において比較の対象とされる人物(比較対象者)についての顔特徴量は、上述のとおり認証動作PHA3(図6)に先立って実行される図18の登録動作PHA2において予め取得されている。
【0147】
具体的には、登録動作PHA2では、図18に示されるように1人又は複数人の比較対象者のそれぞれに関して上述のステップSP1〜ステップSP8と同様の処理が実行され各比較対象者の顔特徴量dが取得され、ステップSP31において、当該顔特徴量dが人物パラメータデータベース28に予め記憶(登録)される。
【0148】
ここで、登録動作PHA2におけるステップSP1〜ステップSP8の動作を簡単に説明すると、ステップSP1〜ステップSP5において、比較対象者の顔に関する入力情報が反映された個別モデルが生成され、次のステップSP6において、標準モデルを基準にして当該個別モデルの3次元情報に関する位置補正と、サブモデルを用いた2次元情報に関するテクスチャ補正とが実行される。そして、ステップSP7において、比較対象者の特徴を表す情報として、3次元形状情報(3次元情報)とテクスチャ情報(2次元情報)とが抽出される。詳細には、3次元形状情報は個別モデルから抽出され、テクスチャ情報はサブモデルから抽出される。次のステップSP8においては、ステップSP7で抽出された情報を、認証に適した状態に変換する情報圧縮処理が行われ、比較対象者の顔特徴量dが取得される。
【0149】
さて、認証対象者HMと比較対象者との3次元類似度ReSは、式(12)に示されるように対応するベクトル同士のユークリッド距離ReSを求めることによって取得される。
【0150】
【数12】
【0151】
また、局所2次元の類似度Re(k)は、式(13)に示されるように対応する局所領域同士における特徴量の各ベクトル成分ごとのユークリッド距離Re(k)を求めることによって取得される。
【0152】
【数13】
【0153】
そして、式(14)に示されるように、3次元の類似度ReSと局所2次元の類似度Re(k)とを、重み係数WT及びWSを用いて合成し、認証対象者HM(認証対象物)と比較対象者(比較対象物)との類似度である総合類似度Reを取得することができる。
【0154】
【数14】
【0155】
次に、ステップSP10においては、総合類似度Reに基づいて認証判定が行われる。認証判定は、顔照合(Verification)の場合と顔識別(Identification)の場合とで、その手法が以下のように異なる。
【0156】
顔照合では、入力された顔(認証対象者HMの顔)が特定の登録者であるか否かが判定されればよいため、特定登録者つまり比較対象者の顔特徴量(比較特徴量)と認証対象者HMの顔特徴量との類似度Reを一定の閾値と比較することで、認証対象者HMと比較対象者との同一性が判定される。詳細には、類似度Reが一定の閾値TH1よりも小さいときに認証対象者HMが比較対象者と同一人物であると判定される。
【0157】
一方、顔識別は、入力された顔(認証対象者HMの顔)が誰のものであるかを判定するものである。この顔識別では、登録されている人物の顔特徴量と認証対象者HMの顔の特徴量との類似度を全て算出して、認証対象者HMと各比較対象者との同一性をそれぞれ判定する。そして、複数の比較対象者のうち最も高い同一性を有する比較対象者を認証対象者HMと同一人物であると判定する。詳細には、認証対象者HMと複数の比較対象者のそれぞれとの各類似度Reのうち、最小の類似度Reminに対応する比較対象者が、認証対象者HMと同一人物であると判定される。
【0158】
以上のように、コントローラ10においては、所定の写像関係f(hS→dS)を用いて、認証対象者の顔の3次元形状情報hSが、認証対象者の顔の表情変化による変動を受けにくく且つ個人の識別性が高い3次元形状特徴情報dSに変換されて圧縮され、当該3次元形状特徴情報dSを用いて認証動作が行われるので、顔の表情変化の影響を受けにくい高精度の認証動作を行うことが可能となる。
【0159】
<変形例>
以上、この発明の実施の形態について説明したが、この発明は、上記に説明した内容に限定されるものではない。
【0160】
例えば、上記実施形態においては、顔の個別モデルにおける各個別制御点の3次元座標(3次元座標情報)を3次元形状情報として用いていたがこれに限定されない。具体的には、個別モデルにおけるm個の個別制御点(代表点)Cj(j=1,...,m)の任意の2点間を結ぶ直線の長さ、換言すれば、任意の2点間の距離(単に「距離情報」とも称する)を3次元形状情報hSに用いてもよい。
【0161】
詳細には、図19を用いて説明する。図19は、個別制御点を結ぶ直線を示す図である。例えば、図19に示されるように、個別モデルにおける個別制御点Cj(j=J4)と他の各個別制御点Cj(j:J4以外)とを結ぶ直線の長さDS1、DS2、DS3等を、3次元形状情報hSの要素(成分)として用いることができる。この場合、3次元形状情報hSは式(15)のように表され、その次元数は、m×(m−1)/2となる。任意の2つの個別制御点Cj間の長さ(距離)は、当該2つの個別制御点の各3次元座標から算出することができる。
【0162】
【数15】
【0163】
そして、情報圧縮処理(ステップSP8)において、このような3次元形状情報(ベクトル)hSを構成する各要素(距離情報)の中から、顔の表情変化による影響を受けにくく且つ個人相互間の分離を大きくする要素である距離情報(比率Fの大きい情報)を、識別性の高い距離情報として選択するような変換Atによって、3次元特徴量dSが生成される。
【0164】
以上のようにして、「距離情報」を3次元形状情報hSとして用いることもできる。
【0165】
あるいは、個別モデルにおけるm個の個別制御点(代表点)Cj(j=1,...,m)の任意の3点から形成される3角形が有する3つの角度(単に「角度情報」とも称する)を3次元形状情報hSとして用いてもよい。
【0166】
詳細には、図20を用いて説明する。図20は、3つの個別制御点から形成される三角形を示す図である。例えば、図20に示されるように、個別モデルにおける個別制御点Cj(j=J4)、Cj(j=J5)及びCj(j=J6)の3点から形成される3角形が有する3つの角度AN1、AN2、AN3を3次元形状情報hSの要素として用いることができる。この場合、3次元形状情報hSは式(16)のように表され、その次元数は、m×(m−1)×(m−2)/2となる。また、任意の3つの個別制御点Cjによって形成される三角形の3つの角度は、当該三角形を形成する3つの個別制御点の各3次元座標から算出することができる。
【0167】
【数16】
【0168】
あるいは、3次元形状情報の要素として上記に例示した3次元座標情報、距離情報、又は角度情報を組合せた情報を3次元形状情報hSに用いてもよい。
【0169】
また、上記実施形態においては、パッチ内の各画素の輝度値を2次元情報としていたが、各パッチが有する色合いを2次元情報として用いてもよい。
【0170】
また、上記実施形態においては、1回の撮影によって得られる顔特徴量dを用いて類似度計算を行っていたがこれに限定されない。具体的には、認証対象者HMの撮影を2度行い、2回の撮影で得られる顔特徴量同士の類似度を算出することで、取得した顔特徴量の値が妥当であるか否かを判断することができる。これにより、取得した顔特徴量の値が不適当であった場合、再度撮影をやり直すことができる。
【0171】
また、上記実施形態では、ステップSP6において変換行列Atを決定する手法として手法MAを用いていたがこれに限定されず、例えば、所定の特徴空間から級間分散と級内分散との比率が大きくなるような射影空間を求めるMDA(Multiple Discriminant Analysis)法、或いは、所定の特徴空間から級間分散と級内分散との差が大きくなるような射影空間を求めるEM(Eigenspace Method)法を用いてもよい。
【0172】
また、上記実施形態においては、複数台のカメラより入力される複数の画像を用いて顔の3次元形状情報を取得しているがこれに限定されない。具体的には、図21に示されるようなレーザ光出射部L1とカメラLCAとから構成される3次元形状測定器を用いてレーザ光出射部L1の照射するレーザの反射光をカメラLCAによって計測することにより、認証対象者HMの顔の3次元形状情報を取得してもよい。但し、上記実施形態のようにカメラ2台を含む入力装置を用いて3次元の形状情報を取得する手法によれば、レーザ光を用いる入力装置に比べて、比較的簡易な構成で3次元の形状情報を取得することができる。
【0173】
また、上記実施形態では、情報圧縮用の写像関係f(hS→dS)として、線形変換(式(7)参照)で表現されるものを例示したが、これに限定されず、非線形変換で表現されるものであってもよい。
【0174】
また、上記実施形態においては、式(14)に示すように、3次元形状情報だけでなく、テクスチャ情報をも用いて認証対象者と登録者との同一性を判定しているが、これに限定されず、3次元形状情報だけを用いて認証対象者と登録者との同一性を判定してもよい。ただし、認証精度向上のためには、テクスチャ情報をも用いることが好ましい。
【図面の簡単な説明】
【0175】
【図1】本発明の実施形態に係る顔認証システムの適用例を示す構成図である。
【図2】コントローラの構成概要を示す図である。
【図3】コントローラが備える各種機能を示すブロック図である。
【図4】個人認証部の詳細な機能構成を示すブロック図である。
【図5】画像正規化部のさらに詳細な機能構成を示すブロック図である。
【図6】認証動作を示すフローチャートである。
【図7】顔画像における特徴的な部位の特徴点を示す図である。
【図8】2次元画像中の特徴点から3次元座標を算出する模式図である。
【図9】3次元の顔の標準モデルを示している図である。
【図10】所定パッチにおけるテクスチャ情報の正規化を示す概念図である。
【図11】テクスチャ情報を示す図である。
【図12】辞書作成動作を示すフローチャートである。
【図13】3次元形状情報の射影状態を示す模式図である。
【図14】3次元形状情報の射影状態を示す模式図である。
【図15】3次元形状情報の射影状態を示す模式図である。
【図16】3次元形状情報の射影状態を示す模式図である。
【図17】正規化後の特徴的な部位の個別制御点を示す図である。
【図18】登録動作を示すフローチャートである。
【図19】個別制御点を結ぶ直線を示す図である。
【図20】3つの個別制御点から形成される三角形を示す図である。
【図21】レーザ光出射部とカメラとから構成される3次元形状測定器を示す図である。
【符号の説明】
【0176】
1 顔認証システム
10 コントローラ
11 画像入力部
12 顔領域検索部
13 顔部位検出部
14 個人認証部
15 出力部
CA1 カメラ
CA2 カメラ
【技術分野】
【0001】
本発明は、顔の認証技術に関する。
【背景技術】
【0002】
近年、ネットワーク技術等の発展によって電子化された様々なサービスが普及し、人に頼らない非対面での本人認証技術の必要性が高まっている。これに伴い、人物の生体特徴によって自動的に個人の識別を行うバイオメトリクス認証技術(生体認証技術)の研究が盛んに行われている。バイオメトリクス認証技術の一つである顔認証技術は、非接触型の認証方法であり、監視カメラによるセキュリティ或いは顔をキーとした画像データベース検索等、様々な分野での応用が期待されている。
【0003】
現在、顔画像より得られる2次元の情報を用いた認証手法においては、顔の有する3次元形状を認証のための補助的な情報として利用することで、認証精度の向上を可能にする手法が提案されている(特許文献1参照)。
【0004】
【特許文献1】特開2004−126738号公報
【発明の開示】
【発明が解決しようとする課題】
【0005】
しかしながら、上記手法は、認証対象者から得られる3次元形状情報(以下、3次元情報とも称する)或いは2次元情報に対して、認証対象者の表情変化等の影響による情報変化を考慮していないため、その認識精度は十分に高いものではないという問題がある。
【0006】
そこで、本発明は上記課題に鑑みてなされたものであり、認証対象者から得られる認証情報(3次元情報又は2次元情報)をそのまま用いる場合よりも、高い精度の認証を行うことが可能な技術を提供することを課題とする。
【課題を解決するための手段】
【0007】
請求項1の発明は、認証装置であって、認証対象者の顔の3次元形状情報を取得する手段と、所定の写像関係を用いて前記3次元形状情報を圧縮した3次元形状特徴情報を生成する圧縮手段と、前記3次元形状特徴情報を用いて前記認証対象者に関する認証動作を行う認証手段とを備え、前記所定の写像関係は、前記3次元形状情報を表現するベクトル空間が、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離されるとき、前記ベクトル空間における任意のベクトルを前記第1の部分空間内のベクトルに変換するものであることを特徴とする。
【0008】
また、請求項2の発明は、請求項1の発明に係る認証装置において、前記3次元形状特徴情報を表現するベクトルの次元数は、前記3次元形状情報を表現するベクトルの次元数よりも低いことを特徴とする。
【0009】
また、請求項3の発明は、請求項1または請求項2の発明に係る認証装置において、前記ベクトル空間は、級内分散と級間分散との大小関係を利用して、前記第1の部分空間と前記第2の部分空間とに仮想的に分離されることを特徴とする。
【0010】
また、請求項4の発明は、請求項1から請求項3のいずれかの発明に係る認証装置において、前記所定の写像関係は、複数の人物をそれぞれその表情を変えて撮像した複数の画像に基づいて取得されることを特徴とする。
【0011】
また、請求項5の発明は、請求項1から請求項4のいずれかの発明に係る認証装置において、前記認証対象者の顔の2次元情報を取得する手段、をさらに備え、前記認証手段は、前記2次元情報をも用いて前記認証対象者に関する認証動作を行うことを特徴とする。
【0012】
また、請求項6の発明は、請求項5の発明に係る認証装置において、前記認証対象者の顔に関する個別モデルを、前記3次元形状情報と前記2次元情報とに基づいて生成する手段と、前記個別モデルのテクスチャ情報を標準化した状態に変換する変換手段とをさらに備え、前記変換手段は、前記個別モデルに設定された各代表点と標準立体モデルにおける各対応標準位置との対応関係を利用して、前記テクスチャ情報を標準化した状態に変換し、前記認証手段は、標準化されたテクスチャ情報をも用いて前記認証対象者に関する認証動作を行うことを特徴とする。
【0013】
また、請求項7の発明は、請求項6の発明に係る認証装置において、前記変換手段は、前記対応関係を利用して、前記テクスチャ情報を前記標準立体モデルに貼り付けたサブモデルを生成し、前記テクスチャ情報を標準化した状態に変換することを特徴とする。
【0014】
また、請求項8の発明は、請求項7の発明に係る認証装置において、前記変換手段は、前記サブモデルの周囲に配置された円筒面に前記サブモデルのテクスチャ情報を投影して、前記テクスチャ情報を標準化した状態に変換することを特徴とする。
【0015】
また、請求項9の発明は、請求項1から請求項8のいずれかの発明に係る認証装置において、前記3次元形状情報は、前記認証対象者の顔の個別モデルに設定された複数の代表点の3次元座標情報を含むことを特徴とする。
【0016】
また、請求項10の発明は、請求項1から請求項8のいずれかの発明に係る認証装置において、前記3次元形状情報は、前記認証対象者の顔の個別モデルに設定された複数の代表点における任意の2点間の距離情報を含むことを特徴とする。
【0017】
また、請求項11の発明は、請求項1から請求項8のいずれかの発明に係る認証装置において、前記3次元形状情報は、前記認証対象者の顔の個別モデルに設定された複数の代表点における任意の3点から形成される3角形が有する角度情報を含むことを特徴とする。
【0018】
また、請求項12の発明は、認証方法であって、認証対象者の顔の3次元形状情報を取得する工程と、前記3次元形状情報を表現するベクトル空間を、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離するとき、前記ベクトル空間における任意のベクトルを前記第1の部分空間内の所定の部分空間のベクトルに変換する所定の写像関係を用いて、前記3次元形状情報を変換し、前記3次元形状情報を3次元形状特徴情報に圧縮する工程と、前記3次元形状特徴情報を用いて前記認証対象者に関する認証動作を行う工程とを含むことを特徴とする。
【0019】
また、請求項13の発明は、コンピュータに、認証対象者の顔の3次元形状情報を取得する手順と、前記3次元形状情報を表現するベクトル空間を、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離するとき、前記ベクトル空間における任意のベクトルを前記第1の部分空間内の所定の部分空間のベクトルに変換する所定の写像関係を用いて、前記3次元形状情報を変換し、前記3次元形状情報を3次元形状特徴情報に圧縮する手順と、前記3次元形状特徴情報を用いて前記認証対象者に関する認証動作を行う手順とを実行させることを特徴とする。
【発明の効果】
【0020】
請求項1から請求項13に記載の発明によれば、所定の写像関係を用いて認証対象者の顔の3次元形状情報を、表情の相違による影響が比較的小さく個人相互間の識別に適した3次元形状特徴情報に圧縮し、当該3次元形状特徴情報を用いて認証動作を行うので、顔の表情変化の影響を受けにくい認証を行うことが可能となる。
【発明を実施するための最良の形態】
【0021】
以下、本発明の実施形態を図面に基づいて説明する。
【0022】
<実施形態>
<概要>
図1は、本発明の実施形態に係る顔認証システム1を示す構成図である。図1に示すように顔認証システム1は、コントローラ10と2台の画像撮影カメラ(以下、単に「カメラ」とも称する)CA1及びCA2とで構成されている。カメラCA1とカメラCA2とは、それぞれ異なる位置から認証対象者HMの顔を撮影できるように配置されている。カメラCA1とカメラCA2とによって認証対象者HMの顔画像が撮影されると、当該撮影により得られる認証対象者HMの外観情報すなわち2種類の顔画像がコントローラ10に通信線を介して送信される。なお、各カメラとコントローラ10との間での画像データの通信方式は有線方式に限定されず、無線方式であってもよい。
【0023】
図2は、コントローラ10の構成概要を示す図である。図2に示されるように、コントローラ10は、CPU2と、記憶部3と、メディアドライブ4と、液晶ディスプレイなどの表示部5と、キーボード6a及びポインティングデバイスであるマウス6bなどの入力部6と、ネットワークカードなどの通信部7とを備えたパーソナルコンピュータなどの一般的なコンピュータで構成される。記憶部3は、複数の記憶媒体、具体的には、ハードディスクドライブ(HDD)3aと、HDD3aよりも高速処理可能なRAM(半導体メモリ)3bとを有している。また、メディアドライブ4は、CD−ROM、DVD(Digital Versatile Disk)、フレキシブルディスク、メモリカードなどの可搬性の記録媒体8からその中に記録されている情報を読み出すことができる。なお、このコントローラ10に対して供給される情報は、記録媒体8を介して供給される場合に限定されず、LAN及びインターネットなどのネットワークを介して供給されてもよい。
【0024】
次に、コントローラ10が備える各種機能について説明する。
【0025】
図3は、コントローラ10が備える各種機能を示すブロック図である。図4は、個人認証部14の詳細な機能構成を示すブロック図である。
【0026】
コントローラ10の備える各種機能は、コントローラ10内のCPU等の各種ハードウェアを用いて所定のソフトウェアプログラム(以下、単に「プログラム」とも称する)を実行することによって、実現される機能を概念的に示すものである。
【0027】
図3に示されるように、コントローラ10は、画像入力部11と顔領域検索部12と顔部位検出部13と個人認証部14と出力部15とを備えている。
【0028】
画像入力部11は、カメラCA1及びCA2によって撮影された2枚の画像をコントローラ10に入力する機能を有している。
【0029】
顔領域検索部12は、入力された顔画像から顔領域を特定する機能を有している。
【0030】
顔部位検出部13は、特定した顔領域から顔の特徴的な部位(例えば、目、眉、鼻、口等)の位置を検出する機能を有している。
【0031】
個人認証部14は、顔の認証を主たる目的として構成され、各個人を顔画像で認証する機能を有している。この個人認証部14の詳細については、次述する。
【0032】
出力部15は、個人認証部14で得られた認証結果を出力する機能を有している。
【0033】
次に、個人認証部14の詳細構成について図4を用いて説明する。
【0034】
図4に示すように、個人認証部14は、3次元再構成部21と最適化部22と補正部23と特徴抽出部24と情報圧縮部25と比較部26とを有している。
【0035】
3次元再構成部21は、入力画像から得られる顔の特徴的な部位の座標から各部位の3次元における座標を算出する機能を有している。この3次元座標算出機能は、カメラパラメータ記憶部27に格納されているカメラ情報を用いて実現される。
【0036】
最適化部22は、算出された3次元座標を用いて3次元モデルデータベース28に格納されている顔の標準的な立体モデル(「標準立体モデル」あるいは「標準モデル」とも称する)から、個別モデルを生成する機能を有している。
【0037】
補正部23は、生成された個別モデルを補正する機能を有している。
【0038】
これらの各処理部21,22,23によって、認証対象者HMに関する情報は、正規化され、相互比較しやすい状態に変換される。また、各処理部の機能によって作成された個別モデルは、認証対象者HMに関する3次元情報と2次元情報との双方を含むものとして形成される。「3次元情報」は、3次元座標値等で構成される立体的構成に関連する情報であり、「2次元情報」は、表面情報(テクスチャ情報)及び/又は平面的な位置情報等で構成される平面的構成に関連する情報である。
【0039】
特徴抽出部24は、上記各処理部21,22,23において作成された個別モデルから3次元情報と2次元情報とを抽出する特徴抽出機能を有している。
【0040】
情報圧縮部25は、特徴抽出部24で抽出された3次元情報と2次元情報とをそれぞれ、顔認証用の適切な顔特徴量に変換することで、顔認証に用いる3次元情報と2次元情報とをそれぞれ圧縮する機能を有している。この情報圧縮機能は、特徴変換辞書記憶部29に格納された情報等を用いて実現される。
【0041】
比較部26は、人物データベース30に予め登録されている登録者(比較対象者)の顔特徴量と、上記各機能部によって得られる認証対象者HMの顔特徴量との類似度を計算し、顔の認証を行う機能を有している。
【0042】
以下では、上述したコントローラ10の各機能によって実現される動作について説明する。
【0043】
<動作>
まず、コントローラ10の全体動作について説明する。
【0044】
図5は、コントローラ10の全体動作を示す図である。図5に示されるように、コントローラ10の動作は、その目的に応じて辞書作成動作PHA1と登録動作PHA2と認証動作PHA3とに分けることができる。
【0045】
辞書作成動作PHA1においては、複数のサンプル顔画像EA1から各サンプル顔画像ごとに3次元情報及び2次元情報EA2を抽出し、これら複数の3次元情報と2次元情報とに基づいて特徴変換辞書EA3を作成する。そして、作成された特徴変換辞書EA3を、特徴変換辞書記憶部29に格納する。
【0046】
登録動作PHA2においては、登録画像EB1から得られる3次元情報及び2次元情報EB2を特徴変換辞書EA3を用いて情報圧縮し、3次元特徴量及び2次元特徴量EB3を取得する。そして、取得した3次元特徴量及び2次元特徴量EB3を、登録顔特徴量として人物データベース30に登録する。
【0047】
認証動作PHA3においては、照合画像EC1から得られる3次元情報及び2次元情報EC2を特徴変換辞書EA3を用いて情報圧縮し、3次元特徴量及び2次元特徴量EB3を取得する。そして、照合画像EC1の3次元特徴量及び2次元特徴量EB3と人物データベース30に登録されている登録顔特徴量とを比較し判定出力する。
【0048】
このように、コントローラ10においては、辞書作成動作PHA1で得られた特徴変換辞書EA3を用いて登録動作PHA2が実行され、そして、登録動作PHA2で得られる登録顔特徴量を用いて認証動作PHA3が実行される。
【0049】
以下では、辞書作成動作PHA1及び登録動作PHA2の各動作が予め終了しているものとして、認証動作PHA3について説明する。
【0050】
具体的には、カメラCA1及びCA2で撮影した所定人物を認証対象者HMとして、実際に顔認証(認証動作PHA3)を行う場合について説明する。ここでは、3次元情報として、カメラCA1,CA2による画像を利用して三角測量の原理によって計測された3次元形状情報を用い、2次元情報としてテクスチャ(輝度)情報を用いる場合を例示する。
【0051】
図6は、コントローラ10の認証動作PHA3のフローチャートである。図7は、顔画像における特徴的な部位の特徴点を示す図である。図8は、2次元画像中の特徴点から三角測量の原理を用いて3次元座標を算出する様子を示す模式図である。なお、図8中の符号G1は、カメラCA1により撮影されコントローラ10に入力された画像G1を示し、符号G2は、カメラCA2により撮影されコントローラ10に入力された画像G2を示している。また、画像G1、G2中の点Q20は、図7における口の右端に相当する。
【0052】
図6に示されるように、コントローラ10は、ステップSP1からステップSP8までの工程において、認証対象者HMの顔を撮影した画像に基づいて、認証対象者HMに関する顔特徴量を取得し、さらにステップSP9からステップSP10の工程を経ることで、顔認証を実現する。
【0053】
まず、ステップSP1において、カメラCA1及びCA2によって撮影された所定の人物(認証対象者)の顔画像(画像G1及び画像G2)が、通信線を介しコントローラ10に入力される。顔画像を撮影するカメラCA1及びカメラCA2は、それぞれ、2次元画像を撮影可能な一般的な撮影装置で構成される。また、当該各カメラCAiの位置姿勢等を示すカメラパラメータBi(i=1,...,N)は既知であり、予めカメラパラメータ記憶部27(図4)に記憶されている。ここで、Nはカメラの台数を示している。本実施形態ではN=2の場合を例示しているが、N≧3としてもよい(3台以上のカメラを用いてもよい)。また、カメラパラメータBiについては後述する。
【0054】
次に、ステップSP2において、カメラCA1及びCA2より入力された2枚の画像(画像G1及び画像G2)それぞれにおいて、顔の存在する領域が検出される。顔領域検出手法としては、例えば、予め用意された標準の顔画像を用いたテンプレートマッチングにより、2枚の画像それぞれから顔領域を検出する手法を採用することができる。
【0055】
次に、ステップSP3において、ステップSP2で検出された顔領域画像の中から、顔の特徴的な部位の位置が検出される。例えば、顔の特徴的な部位としては、目、眉、鼻又は口等が考えられ、ステップSP3においては、図7に示されるような上記各部位の特徴点Q1〜Q23の座標が算出される。特徴部位の検出は、特徴部位の標準的なテンプレートを用いて行うテンプレートマッチングにより検出することができる。また、算出される特徴点の座標は、カメラより入力された画像G1、G2上の座標として表される。例えば、図7における口の右端に相当する特徴点Q20に関して、図8中に示すように、2枚の画像G1,G2のそれぞれにおける座標値が求められる。具体的には、画像G1の左上の端点を原点Oとして、特徴点Q20の画像G1上の座標(x1,y1)が算出される。画像G2においても同様に特徴点Q20の画像G2上の座標(x2,y2)が算出される。
【0056】
また、入力された画像における各特徴点を頂点とする領域内の各画素の輝度値が、当該領域の有する情報(以下、「テクスチャ情報」とも称する)として取得される。各領域におけるテクスチャ情報は、後述のステップSP5等において、標準モデルに貼り付けられる。なお、本実施形態の場合、入力される画像は2枚であるので、各画像の対応する領域内の対応する画素における平均の輝度値を当該領域のテクスチャ情報として用いるものとする。
【0057】
次のステップSP4(3次元再構成工程)では、ステップSP3において検出された各特徴点Qjの各画像Gi(i=1,...,N)における2次元座標Ui(j)と、各画像Giを撮影したカメラのカメラパラメータBiとに基づいて、各特徴点Qjの3次元座標M(j)(j=1,...,m)が算出される。なお、mは特徴点の数を示している。
【0058】
以下、3次元座標M(j)の算出について具体的に説明する。
【0059】
各特徴点Qjの3次元座標M(j)と各特徴点Qjの2次元座標Ui(j)とカメラパラメータBiとの関係は式(1)のように表される。
【0060】
【数1】
【0061】
なお、μiは、スケールの変動分を示す媒介変数である。また、カメラパラメータ行列Biは、予め3次元座標が既知の物体を撮影することにより求められる各カメラ固有の値であり、3×4の射影行列で表される。
【0062】
例えば、上記式(1)を用いて3次元座標を算出する具体的な例として、特徴点Q20の3次元座標M(20)を算出する場合を図8を用いて考える。式(2)は画像G1上の特徴点Q20の座標(x1,y1)と特徴点Q20を3次元空間で表したときの3次元座標(x,y,z)との関係を示している。同様に、式(3)は、画像G2上の特徴点Q20の座標(x2,y2)と特徴点Q20を3次元空間で表したときの3次元座標(x,y,z)との関係を示している。
【0063】
【数2】
【0064】
【数3】
【0065】
上記式(2)及び式(3)中の未知数は、2つの媒介変数μ1、μ2と3次元座標M(20)の3つの成分値x,y,zとの合計5つである。一方、式(2)及び式(3)に含まれる等式の数は6であるため、各未知数つまり特徴点Q20の3次元座標(x,y,z)を算出することができる。また、同様にして、全ての特徴点Qjについての3次元座標M(j)を取得することができる。
【0066】
次のステップSP5では、モデルフィッテングが行われる。この「モデルフィッティング」は、予め準備された一般的(標準的)な顔のモデルである「(顔の)標準モデル」を、認証対象者HMに関する情報を用いて変形することによって、認証対象者HMの顔に関する入力情報が反映された「個別モデル」を生成する処理である。具体的には、算出された3次元座標M(j)を用いて標準モデルの3次元情報を変更する処理と、上記のテクスチャ情報を用いて標準モデルの2次元情報を変更する処理とが行われる。
【0067】
図9は、3次元の顔の標準モデルを示している。
【0068】
図9に示される顔の標準モデルは、頂点データとポリゴンデータとで構成され、3次元モデルデータベース28(図4)として記憶部3等に保存されている。頂点データは、標準モデルにおける特徴部位の頂点(以下、「標準制御点」とも称する)COjの座標の集合であり、ステップSP4において算出される各特徴点Qjの3次元座標と1対1に対応している。ポリゴンデータは、標準モデルの表面を微小な多角形(例えば、三角形)のポリゴンに分割し、ポリゴンを数値データとして表現したものである。なお、図9では、各ポリゴンの頂点が特徴点Qj以外の中間点によっても構成される場合を例示しており、中間点の座標は適宜の補完手法によって得ることが可能である。
【0069】
ここで、標準モデルから個別モデルを構成するモデルフィッティングについて詳述する。
【0070】
まず、標準モデルの各特徴部位の頂点(標準制御点COj)を、ステップSP4において算出された各特徴点に移動させる。具体的には、各特徴点Qjの3次元座標値を、対応する標準制御点COjの3次元座標値として代入し、移動後の標準制御点(以下、「個別制御点」とも称する)Cjを得る。これにより、標準モデルを3次元座標M(j)で表した個別モデルに変形することができる。
【0071】
また、この変形(移動)による各頂点の移動量から、後述のステップSP6において用いられる、標準モデルを基準にした場合の個別モデルのスケール、傾き及び位置を求めることができる。具体的には、標準モデルにおける所定の基準位置と、変形後の個別モデルにおける対応基準位置との間のずれ量によって、個別モデルの標準モデルに対する位置変化を求めることができる。また、標準モデルにおける所定の2点を結ぶ基準ベクトルと、変形後の個別モデルにおける当該所定の2点の対応点を結ぶ基準ベクトルとの間のずれ量によって、個別モデルの標準モデルに対する傾きの変化及びスケール変化を求めることができる。例えば、右目の目頭の特徴点Q1と左目の目頭の特徴点Q2との中点QMの座標と標準モデルにおいて中点QMに相当する点の座標とを比較することによって個別モデルの位置を求めることができ、さらに、中点QMと他の特徴点とを比較することによって個別モデルのスケール及び傾きを算出することができる。
【0072】
次の式(4)は、標準モデルと個別モデルとの間の対応関係を表現する変換パラメータ(ベクトル)vtを示している。式(4)に示すように、この変換パラメータ(ベクトル)vtは、両者のスケール変換指数szと、直交3軸方向における並進変位を示す変換パラメータ(tx,ty,tz)と、回転変位(傾き)を示す変換パラメータ(φ,θ,ψ)とをその要素とするベクトルである。
【0073】
【数4】
【0074】
上述のようにして、認証対象者HMに関する3次元座標M(j)を用いて標準モデルの3次元情報を変更する処理が行われる。
【0075】
その後、テクスチャ情報を用いて標準モデルの2次元情報を変更する処理も行われる。具体的には、入力画像G1,G2における各領域のテクスチャ情報が、3次元の個別モデル上の対応する領域(ポリゴン)に貼り付け(マッピング)られる。なお、立体モデル(個別モデル等)上でテクスチャ情報が貼り付けられる各領域(ポリゴン)は「パッチ」とも称せられる。
【0076】
以上のようにして、モデルフィッティング処理(ステップSP5)が行われる。
【0077】
次のステップSP6においては、標準モデルを基準にして個別モデルの補正が行われる。本工程では、3次元情報に関する位置(アライメント)補正と、2次元情報に関するテクスチャ補正とが実行される。
【0078】
アライメント(顔向き)補正は、上記ステップSP5において求められる標準モデルを基準にした際の個別モデルのスケール、傾き及び位置を基にして行われる。より詳細には、標準モデルを基準にした際の標準モデルと個別モデルとの関係を示す変換パラメータvt(式(4)参照)を用いて個別モデルの個別制御点を座標変換することで、標準モデルの姿勢と同じ姿勢を有する3次元顔モデルを作成することができる。すなわち、このアライメント補正によって、認証対象者HMに関する3次元情報を適切に正規化することができる。
【0079】
次に、テクスチャ補正について説明する。テクスチャ補正においては、テクスチャ情報の正規化が行われる。
【0080】
テクスチャ情報の正規化は、個別モデルの各個別制御点(特徴点)と標準モデルにおける各対応点(対応標準位置)との対応関係を求めてテクスチャ情報を標準化する処理である。これによって、個別モデルにおける各パッチのテクスチャ情報を、パッチ形状の変化(具体的には、顔の表情の変化)および/または顔の姿勢の変化の影響を受けにくい状態に変更することができる。
【0081】
ここでは、個別モデルにおける各パッチのテクスチャ情報を(当該個別モデルの作成に用いた)元の標準モデルに貼り付けた立体モデルを、サブモデルとして、当該個別モデルとは別個に生成する場合を例示する。サブモデルに貼り付けられた各パッチのテクスチャ情報は、当該各パッチの形状および顔の姿勢が正規化された状態を有している。
【0082】
詳細には、個別モデルの各個別制御点(特徴点)を元の標準モデルにおける各対応点に移動させた上で認証対象者に関するテクスチャ情報を標準化する。また、より詳細には、個別モデルにおける各パッチ内の各画素の位置を当該パッチの個別制御点Cjの3次元座標に基づいて正規化し、元の標準モデルにおいて対応するパッチ内の対応する位置に個別モデルの各画素の輝度値(テクスチャ情報)を貼り付ける。なお、当該サブモデルに貼り付けられたテクスチャ情報は、後述の類似度計算処理(ステップSP9)のうち、テクスチャ情報に関する比較処理に用いられる。
【0083】
図10は、所定パッチにおけるテクスチャ情報の正規化を示す概念図である。この図10を用いて、テクスチャ情報の正規化について、より詳細に説明する。
【0084】
例えば、或る個別モデルにおけるパッチKK2と元の標準モデルにおけるパッチHYとが対応しているとする。このとき、個別モデルにおけるパッチKK2内の位置γK2は、パッチKK2の個別制御点Cj(j=J1、J2、J3)のうちの異なる2組の点を結ぶ独立したベクトルV21,V22の線形和で表現される。また、標準モデルにおけるパッチHY内の位置γHYは、当該ベクトルV21,V22の線形和における各係数と同じ係数を用いて、対応ベクトルV01,V02の線形和で表現される。これにより、両位置γK1,γHYとの対応関係が求められ、パッチKK2内における位置γK2のテクスチャ情報を、パッチHY内の対応する位置γHYに貼り付けることが可能となる。このようなテクスチャ情報の貼り付け処理を個別モデルのパッチKK2内の全テクスチャ情報について実行すると、個別モデルにおけるパッチ内のテクスチャ情報が、サブモデルにおけるパッチ内のテクスチャ情報に変換され、正規化された状態で得られることになる。
【0085】
このサブモデルにおける顔の2次元情報(テクスチャ情報)は、顔の姿勢変動および顔の表情変化等による影響を受けにくいという特質を有している。例えば、同一人物に関する2つの個別モデルにおける姿勢および表情が互いに異なる場合、上述のテクスチャ情報の正規化を行わないときには、両個別モデルにおけるパッチの対応関係(例えば、図10において、本来はパッチKK1とパッチKK2とが対応すること)等を正確に得ることができず、別人物であるとして誤判定する可能性が高くなる。これに対して、上述のテクスチャ情報の正規化を行えば、顔の姿勢が統一され、各パッチの対応位置関係をより正確に得ることができるので、姿勢変化による影響を受けにくくなる。また、上述のテクスチャ情報の正規化によれば、顔の表面を構成する各パッチの形状は、標準モデルにおける各対応パッチの形状と同一になる(図10参照)ため、各パッチの形状が統一(正規化)され、表情変化による影響を受けにくくなる。例えば、微笑している人物の個別モデルは、笑っていない(無表情の)標準モデルを用いることによって、笑っていない状態のサブモデルに変換されて標準化される。これによれば、微笑によるテクスチャ情報の変化(例えば、ほくろの位置の変化)の影響が抑制される。このように、上述の正規化されたテクスチャ情報は、個人認証に有効な情報となる。
【0086】
また、サブモデルに貼り付けられたテクスチャ情報は、比較しやすいように、図11に示すような投影画像にさらに変更することもできる。
【0087】
図11は、テクスチャ補正されたテクスチャ情報、すなわち、サブモデルに貼り付けられたテクスチャ情報を、当該サブモデルの周囲に配置した円筒面に投影した画像である。この投影画像のテクスチャ情報は、正規化されており形状および姿勢に依存しないという特質を有しているため、個人識別に用いる情報として非常に有用である。
【0088】
以上のようにステップSP6においては、認証対象者HMに関する3次元情報と2次元情報とが、正規化された状態で生成される。
【0089】
次のステップSP7(図6)においては、認証対象者HMの特徴を表す情報として、3次元形状情報(3次元情報)とテクスチャ情報(2次元情報)とが抽出される。
【0090】
3次元情報としては、個別モデルにおけるm個の個別制御点Cjの3次元座標ベクトルが抽出される。具体的には、式(5)に示されるように、m個の個別制御点Cj(j=1,...,m)の3次元座標(Xj,Yj,Zj)を要素とするベクトルhS(以下、「3次元座標情報」とも称する)が3次元情報(3次元形状情報)として抽出される。
【0091】
【数5】
【0092】
また、2次元情報としては、個人認証にとって重要な情報となる顔の特徴的な部分つまり個別制御点付近のパッチ又はパッチのグループ(局所領域)が有するテクスチャ(輝度)情報(以下、「局所2次元情報」とも称する)が抽出される。ここでは、テクスチャ情報(局所2次元情報)として、上述のサブモデルにマッピングされた情報が用いられる。
【0093】
局所2次元情報は、例えば、正規化後の特徴的な部位の個別制御点を示す図17中のグループGR(個別制御点C20、C22及びC23を頂点とするパッチR1と個別制御点C21、C22及びC23を頂点とするパッチR2)から構成される領域、又は、単に一つのパッチからなる領域等の各局所領域が有する各画素の輝度情報として構成される。局所2次元情報h(k)(k=1,...,L;Lは局所領域数)は、それぞれ、当該局所領域内の画素数をn、各画素の輝度値をBR1,...,BRnとすると、式(6)のようなベクトル形式で表される。また、局所2次元情報h(k)をL個の局所領域について集めた情報は、総合的な2次元情報であるとも表現される。
【0094】
【数6】
【0095】
以上のように、ステップSP7においては、認証対象者HMの特徴を表す情報として、3次元形状情報(3次元情報)とテクスチャ情報(2次元情報)とが抽出される。
【0096】
次のステップSP8においては、ステップSP7で抽出された情報を、認証に適した状態に変換する次述の情報圧縮処理が行われる。
【0097】
情報圧縮処理は、3次元形状情報hS及び各局所2次元情報h(k)のそれぞれに対して辞書作成動作PHA1で得られた各々の特徴変換辞書EA3を用いて行われる。以下では、3次元形状情報hSに対する情報圧縮処理と、局所2次元情報h(k)に対する情報圧縮処理とについて、この順序で説明する。
【0098】
3次元形状情報hSに対して行われる情報圧縮処理は、3次元形状情報hSが表す情報空間を、顔の形状変化(表情変化)による影響を受けにくく且つ個人相互間を大きく分離することが可能な部分空間へと変換する処理である。
【0099】
このような情報圧縮処理として、ここでは、3次元形状情報用の変換行列(以下、「3次元情報変換行列」とも称する)Atを利用するものを想定する。この3次元情報変換行列Atは、個人内のばらつき(級内分散α)に比べて個人間のばらつき(級間分散β)を大きくする部分空間に3次元形状情報hSを射影させるとともに、当該3次元形状情報hSのベクトルサイズ(ベクトルの次元数)SZ1(=3×m)を値SZ0に低減させる変換行列である。そして、この3次元情報変換行列Atを用いた式(7)で表されるような変換を行うことによって、3次元形状情報hSで表される情報空間を、3次元特徴量dSで表される部分空間(特徴空間)に変換(射影)することができる。
【0100】
【数7】
【0101】
3次元情報変換行列Atの機能について詳述する。
【0102】
3次元情報変換行列Atは、3次元形状情報hSから、個人識別性の高い情報を選択する機能、すなわち情報圧縮機能を有している。
【0103】
具体的には、3次元情報変換行列Atは、3次元形状情報hSに関する複数の主成分ベクトルのうち、後述の主成分ベクトルIX1(図12参照)等のような、顔の表情変化による影響を受けにくく且つ個人相互間を大きく分離する主成分ベクトル(比較的大きな比率F(次述)を有する主成分ベクトル)を選択して、3次元形状情報hSを3次元特徴量dSに圧縮する機能を有している。
【0104】
このような主成分ベクトルは、3次元形状情報hSの各主成分ベクトルへの射影成分に関する級内分散と級間分散との大小関係を利用して選択される。
【0105】
より詳細には、まず、3次元形状情報hSに関する複数の主成分ベクトルのうち、級内分散αと級間分散βとの比率F(=β/α)の大きい主成分ベクトルがSZ0個選択される。そして、3次元形状情報を表現するベクトルhSは、当該選択されたSZ0個の主成分ベクトルで表現されるベクトル空間内のベクトルdSへと変換される。3次元情報変換行列Atによる変換後のベクトルdSによれば、個人内での表情変化等による顔の形状変動(変化)に影響されることを防止しつつ、個人間の相違を顕著に表現することができる。なお、3次元情報変換行列Atの取得手法については次述する。
【0106】
また、この情報圧縮処理は、所定の写像関係f(hS→dS)を用いて3次元形状情報hSを変換して、当該3次元形状情報hSを3次元特徴量(3次元形状特徴情報)dSに圧縮する処理であるとも言える。
【0107】
ここで、3次元情報変換行列Atの取得手法について図12を参照しながら説明する。3次元情報変換行列Atは、辞書作成動作PHA1で予め取得され、特徴変換辞書EA3に格納されている情報である。また、図12は、辞書作成動作PHA1を示すフローチャートである。
【0108】
辞書作成動作PHA1では、複数人の様々な表情を示すサンプル顔画像について上述のステップSP1〜SP7と同様の処理を実行することによって、全てのサンプル顔画像について各サンプル顔画像の3次元情報及び2次元情報が抽出される(ステップSP21)。
【0109】
例えば、人物一人ずつにつき喜び、怒り、驚き、悲しみ、恐怖などの様々な表情を表す20の顔画像を集めることを100人について繰り返して2000種類の顔画像をサンプル画像として収集する。そして、各サンプル画像についてステップSP1〜SP7の処理を実行することによって、2000種類のサンプル画像のそれぞれについて3次元情報及び2次元情報を抽出することができる。
【0110】
そして、ステップSP22において、これら複数の3次元情報に基づいて統計的手法によって3次元形状情報用の変換行列(3次元情報変換行列)Atと、これら複数の2次元情報に基づいて2次元情報用の変換行列(以下、「2次元情報変換行列」とも称する)Aw(k)とが作成される。ここでは、3次元情報変換行列Atの作成について説明し、2次元情報変換行列Aw(k)の作成については後述する。
【0111】
3次元情報変換行列Atの作成は、主成分分析後に級内分散と級間分散とを考慮して特徴選択を行う手法MAを用いて行われる。
【0112】
より詳細には、図13〜図16を用いて説明する。図13〜図16は、各人物(HM1、HM2、HM3)の3次元形状情報hSを構成する主成分ベクトルIXγ(γ=1,...,3×m)のうちの所定の主成分ベクトル(IX1〜IX4)への射影状況を説明するために、各サンプル画像についての3次元形状情報hSの分布状況を模式的に示す図である。これらの図においては、或る人物の或る表情が1つの点で表現され、同一人物に係る点は同一の楕円内に収まるものとして表現されている。なお、上述したように、実際には多数(例えば100人以上)の人物についてサンプル画像を撮影することが好ましいが、ここでは、図示の簡略化のため、3人の人物についての様々な表情のサンプル画像を取得した場合を例示する。
【0113】
図13に示すように、各人物の各表情に対応する3次元形状情報(ベクトル)hSの主成分ベクトルIX1への射影成分を想定する。このとき、主成分ベクトルIX1への射影成分に関して、個人内のばらつきである級内分散αと個人間のばらつきである級間分散βとをそれぞれ求める。なお、図13等において、各点から主成分ベクトルへ向けて伸びる片矢印は、当該主成分ベクトルIX1への「射影」を表現しており、破線の両矢印および実線の両矢印は、それぞれ、射影成分に関する級内分散αと級間分散βとを模式的に示すものである。
【0114】
同様に、他の主成分ベクトルIX2,IX3,IX4,IX5,...についても、その射影成分に関する級内分散αと級間分散βとを求める(図14〜図16)。
【0115】
そして、3次元形状情報hSに関する複数の主成分ベクトルのうち、級内分散αと級間分散βとの比率F(=β/α)が大きいものから順にSZ0個の主成分ベクトルを選択する。
【0116】
ここでは簡単化のため、各主成分ベクトルIXγが、それぞれ、第γ番目(γ=1,,...,3×m)の成分(以下「対応成分」とも称する)のみを1としそれ以外をゼロとする単位ベクトルで構成されるものとする。
【0117】
この場合、上記の変換行列Atは、上記において選択されたSZ0個の主成分ベクトルIXqのそれぞれの対応成分(第q成分)をベクトルhSから抽出し、選択されなかった(3×m−SZ0)個の主成分ベクトルの各対応成分をベクトルhSから抽出しないものとして構成される。
【0118】
図13〜図16に示される主成分ベクトルIX1〜IX4を相互に比較すると、級内分散αと級間分散βとの比率(F=β/α)の最も大きい主成分ベクトルは、主成分ベクトルIX1である。したがって、上述の手法MAを用いた変換行列Atの作成においては、主成分ベクトルIX1〜IX4の中ではまず主成分ベクトルIX1が選択される。そして、変換行列Atは、当該主成分ベクトルIX1の対応成分(第1番目の成分)をベクトルhSの中から抽出するように構成される。
【0119】
また、級内分散αと級間分散βとの比率Fが主成分ベクトルIX1の次に大きい主成分ベクトルは、主成分ベクトルIX3である。この場合、変換行列Atは、当該主成分ベクトルIX3の対応成分をもベクトルhSの中から抽出するように構成される。
【0120】
同様にして、比率Fが比較的大きなSZ0個の主成分ベクトルを選択するとともに、当該選択した主成分ベクトルの対応成分を選択するような変換行列Atが生成される。
【0121】
一方、図14および図16に示されるように、主成分ベクトルIX2,IX4に関する比率Fは比較的小さな値になる。この場合、当該主成分ベクトルIX2,IX4は選択されず、したがって、変換行列Atは、当該主成分ベクトルIX2,IX4の対応成分をベクトルhSから抽出しないように構成される。
【0122】
このように、変換行列Atは、全主成分ベクトルの中から選択されたSZ0個の主成分ベクトルの対応成分のみを抽出し、非選択の主成分ベクトルの対応成分を抽出しないように構成される。また、変換行列Atは、縦方向のサイズがSZ0であり横方向のサイズが(3×m)である行列である。すなわち、3次元形状に関する情報量は(3×m)からSZ0へと圧縮されることになる。
【0123】
なお、上記においては、複数の主成分ベクトルの中から所定数(SZ0個)の主成分ベクトルを選択する場合を例示しているが、これに限定されず、比率Fに関する閾値FThを定め、当該閾値FThよりも大きな比率Fを有する主成分ベクトルを複数の主成分ベクトルの中から選択し、選択した主成分ベクトルを用いて変換行列Atを構成するようにしてもよい。
【0124】
以上のようにして作成された変換行列Atは、3次元形状情報hSで表される情報空間を、3次元形状情報hS内の顔の形状変化(表情変化)による影響を受けにくい情報であるとともに個人間の分離を大きくする情報(特徴情報)が表す部分空間へと変換することを可能にする。
【0125】
ここで、3次元形状情報hSのベクトル空間を、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離することを想定すると、上記の写像関係f(hS→dS)は、人物の顔の3次元形状を表現するベクトル空間における任意のベクトルを第1の部分空間内のベクトルに変換するものであると表現できる。
【0126】
このように、複数の人物について様々な表情で撮像した複数の画像をサンプル画像として収集し、当該複数のサンプル画像に基づいて上記の写像関係f(hS→dS)、(ここでは3次元情報変換行列At)を取得することができる。
【0127】
次に、局所2次元情報h(k)に対する情報圧縮処理について説明する。
【0128】
局所2次元情報h(k)は、当該局所領域内における画素の輝度値の集合であるから、その情報量(次元数)は3次元形状情報hSに比べて膨大となる。このため、本実施形態の局所2次元情報h(k)に関する情報圧縮処理では、KL展開を用いた圧縮と2次元情報変換行列Aw(k)を用いた圧縮との2段階の圧縮処理が行われる。
【0129】
局所2次元情報h(k)は、複数のサンプル顔画像から予め取得される当該局所領域の平均情報(ベクトル)have(k)と、複数のサンプル顔画像をKL展開することによって予め算出される当該局所領域の固有ベクトルのセットで表現される行列P(k)(次述)とを用いて式(8)のように基底分解された形式で表すことができる。この結果、局所2次元顔情報量(ベクトル)c(k)が、局所2次元情報h(k)についての圧縮情報として取得される。
【0130】
【数8】
【0131】
上述のように式(8)中の行列P(k)は、複数のサンプル顔画像から算出される。具体的には、行列P(k)は、複数のサンプル顔画像をKL展開することによって求められる複数の固有ベクトルのうち、固有値の大きい数個の固有ベクトル(基底ベクトル)のセットとして求められる。これらの基底ベクトルは、基底ベクトルデータベース26に記憶されている。顔画像についてのより大きな特徴を示す固有ベクトルを基底ベクトルとしてその顔画像を表現することによれば、顔画像の特徴を効率的に表現することが可能となる。
【0132】
例えば、図17に示されているグループGRからなる局所領域の局所2次元情報h(GR)を基底分解された形式で表現する場合を考える。当該局所領域の固有ベクトルのセットPが、3つの固有ベクトルP1、P2及びP3によってP=(P1,P2,P3)と表現されているとすると、局所2次元情報h(GR)は、当該局所領域の平均情報have(GR)と固有ベクトルのセットP1,P2,P3を用いて式(9)のように表される。平均情報have(GR)は、様々なサンプル顔画像についての複数の局所2次元情報(ベクトル)を対応要素ごとに平均して得られるベクトルである。なお、複数のサンプル顔画像は、適度なばらつきを有する標準的な複数の顔画像を用いればよい。
【0133】
【数9】
【0134】
また、上記式(9)は、顔情報量c(GR)=(c1,c2,c3)Tによって元の局所2次元情報を再現することが可能であることを示している。すなわち、顔情報量c(GR)は、グループGRからなる局所領域の局所2次元情報h(GR)を圧縮した情報といえる。
【0135】
次に、2次元情報変換行列Aw(k)を用いて、局所2次元顔情報量c(GR)が表す特徴空間を個人間の分離を大きくするような部分空間へと変換する処理が行われる。より詳細には、式(10)に表されるようにベクトルサイズSZ2の局所2次元顔情報量c(GR)をベクトルサイズSZ3の局所2次元特徴量d(GR)に低減させる2次元情報変換行列Aw(GR)を用いて、局所2次元顔情報量c(GR)で表される特徴空間を局所2次元特徴量d(GR)で表される部分空間に変換することができ、個人間の情報の相違が顕著になる。
【0136】
【数10】
【0137】
なお、2次元情報変換行列Aw(k)は、上述の3次元情報変換行列Atと同様に、辞書作成動作PHA1で予め取得され、特徴変換辞書EA3に格納されている情報である。
【0138】
具体的には、辞書作成動作PHA1では、全てのサンプル顔画像について局所領域ごとに局所2次元情報が抽出され(ステップSP21)、ステップSP22において、当該局所2次元情報h(k)をKL展開することによって得られる局所2次元顔情報量C(k)に基づいて2次元情報用の変換行列(以下、「2次元情報変換行列」とも称する)Aw(k)が作成される。2次元情報変換行列Aw(k)の作成は、上述の手法MAを用いて、局所2次元顔情報量C(k)が表す特徴空間の各成分の中から、級内分散αと級間分散βの比率(F=β/α)の大きい成分をSZ3個選び出すことによって行われる。
【0139】
また、上述した局所2次元情報h(GR)について行った情報圧縮処理と同様の処理を他の全ての局所領域にも実行することによって、各局所領域についての局所2次元顔特徴量d(k)を取得することができる。
【0140】
上記ステップSP8を経て取得される3次元顔特徴量dSと局所2次元顔特徴量d(k)とを組み合わせた顔特徴量dは、ベクトル形式で式(11)のように表すことができる。
【0141】
【数11】
【0142】
以上に述べたステップSP1〜SP8の工程において、入力される認証対象者HMの顔画像から当該対象者の顔特徴量dが取得される。
【0143】
そして、次のステップSP9〜SP10においては、この顔特徴量dを用いて所定人物の顔認証が行われる。
【0144】
具体的には、認証対象者HM(認証対象物)と比較対象者(比較対象物)との類似度である総合類似度Reが算出され(ステップSP9)、その後、この総合類似度Reに基づく認証対象者HMと比較対象者との比較(判定)動作等(ステップSP10)が行われる。この総合類似度Reは、3次元顔特徴量dSから算出される3次元類似度ReSと、局所2次元顔特徴量d(k)から算出される局所2次元類似度Re(k)とに加えて、3次元類似度ReSと局所2次元類似度Re(k)との重みを規定する重み付け係数(以下、単に「重み係数」とも称する)を用いて算出される。なお、本実施形態における重み係数WT及びWSは、予め決定されている所定の値を用いる。
【0145】
ステップSP9では、人物パラメータデータベース28に予め登録されている比較対象者の顔特徴量(比較特徴量)と、上記ステップSP1〜ステップSP8を経て算出された認証対象者HMの顔特徴量との類似性の評価が行われる。具体的には、登録されている顔特徴量(比較特徴量)(ReSM及びRe(k)M)と認証対象者HMの顔特徴量(ReSI及びRe(k)I)との間で類似度計算が実行され、3次元類似度ReSと局所2次元類似度Re(k)とが算出される。
【0146】
なお、この実施形態においては、顔認証動作において比較の対象とされる人物(比較対象者)についての顔特徴量は、上述のとおり認証動作PHA3(図6)に先立って実行される図18の登録動作PHA2において予め取得されている。
【0147】
具体的には、登録動作PHA2では、図18に示されるように1人又は複数人の比較対象者のそれぞれに関して上述のステップSP1〜ステップSP8と同様の処理が実行され各比較対象者の顔特徴量dが取得され、ステップSP31において、当該顔特徴量dが人物パラメータデータベース28に予め記憶(登録)される。
【0148】
ここで、登録動作PHA2におけるステップSP1〜ステップSP8の動作を簡単に説明すると、ステップSP1〜ステップSP5において、比較対象者の顔に関する入力情報が反映された個別モデルが生成され、次のステップSP6において、標準モデルを基準にして当該個別モデルの3次元情報に関する位置補正と、サブモデルを用いた2次元情報に関するテクスチャ補正とが実行される。そして、ステップSP7において、比較対象者の特徴を表す情報として、3次元形状情報(3次元情報)とテクスチャ情報(2次元情報)とが抽出される。詳細には、3次元形状情報は個別モデルから抽出され、テクスチャ情報はサブモデルから抽出される。次のステップSP8においては、ステップSP7で抽出された情報を、認証に適した状態に変換する情報圧縮処理が行われ、比較対象者の顔特徴量dが取得される。
【0149】
さて、認証対象者HMと比較対象者との3次元類似度ReSは、式(12)に示されるように対応するベクトル同士のユークリッド距離ReSを求めることによって取得される。
【0150】
【数12】
【0151】
また、局所2次元の類似度Re(k)は、式(13)に示されるように対応する局所領域同士における特徴量の各ベクトル成分ごとのユークリッド距離Re(k)を求めることによって取得される。
【0152】
【数13】
【0153】
そして、式(14)に示されるように、3次元の類似度ReSと局所2次元の類似度Re(k)とを、重み係数WT及びWSを用いて合成し、認証対象者HM(認証対象物)と比較対象者(比較対象物)との類似度である総合類似度Reを取得することができる。
【0154】
【数14】
【0155】
次に、ステップSP10においては、総合類似度Reに基づいて認証判定が行われる。認証判定は、顔照合(Verification)の場合と顔識別(Identification)の場合とで、その手法が以下のように異なる。
【0156】
顔照合では、入力された顔(認証対象者HMの顔)が特定の登録者であるか否かが判定されればよいため、特定登録者つまり比較対象者の顔特徴量(比較特徴量)と認証対象者HMの顔特徴量との類似度Reを一定の閾値と比較することで、認証対象者HMと比較対象者との同一性が判定される。詳細には、類似度Reが一定の閾値TH1よりも小さいときに認証対象者HMが比較対象者と同一人物であると判定される。
【0157】
一方、顔識別は、入力された顔(認証対象者HMの顔)が誰のものであるかを判定するものである。この顔識別では、登録されている人物の顔特徴量と認証対象者HMの顔の特徴量との類似度を全て算出して、認証対象者HMと各比較対象者との同一性をそれぞれ判定する。そして、複数の比較対象者のうち最も高い同一性を有する比較対象者を認証対象者HMと同一人物であると判定する。詳細には、認証対象者HMと複数の比較対象者のそれぞれとの各類似度Reのうち、最小の類似度Reminに対応する比較対象者が、認証対象者HMと同一人物であると判定される。
【0158】
以上のように、コントローラ10においては、所定の写像関係f(hS→dS)を用いて、認証対象者の顔の3次元形状情報hSが、認証対象者の顔の表情変化による変動を受けにくく且つ個人の識別性が高い3次元形状特徴情報dSに変換されて圧縮され、当該3次元形状特徴情報dSを用いて認証動作が行われるので、顔の表情変化の影響を受けにくい高精度の認証動作を行うことが可能となる。
【0159】
<変形例>
以上、この発明の実施の形態について説明したが、この発明は、上記に説明した内容に限定されるものではない。
【0160】
例えば、上記実施形態においては、顔の個別モデルにおける各個別制御点の3次元座標(3次元座標情報)を3次元形状情報として用いていたがこれに限定されない。具体的には、個別モデルにおけるm個の個別制御点(代表点)Cj(j=1,...,m)の任意の2点間を結ぶ直線の長さ、換言すれば、任意の2点間の距離(単に「距離情報」とも称する)を3次元形状情報hSに用いてもよい。
【0161】
詳細には、図19を用いて説明する。図19は、個別制御点を結ぶ直線を示す図である。例えば、図19に示されるように、個別モデルにおける個別制御点Cj(j=J4)と他の各個別制御点Cj(j:J4以外)とを結ぶ直線の長さDS1、DS2、DS3等を、3次元形状情報hSの要素(成分)として用いることができる。この場合、3次元形状情報hSは式(15)のように表され、その次元数は、m×(m−1)/2となる。任意の2つの個別制御点Cj間の長さ(距離)は、当該2つの個別制御点の各3次元座標から算出することができる。
【0162】
【数15】
【0163】
そして、情報圧縮処理(ステップSP8)において、このような3次元形状情報(ベクトル)hSを構成する各要素(距離情報)の中から、顔の表情変化による影響を受けにくく且つ個人相互間の分離を大きくする要素である距離情報(比率Fの大きい情報)を、識別性の高い距離情報として選択するような変換Atによって、3次元特徴量dSが生成される。
【0164】
以上のようにして、「距離情報」を3次元形状情報hSとして用いることもできる。
【0165】
あるいは、個別モデルにおけるm個の個別制御点(代表点)Cj(j=1,...,m)の任意の3点から形成される3角形が有する3つの角度(単に「角度情報」とも称する)を3次元形状情報hSとして用いてもよい。
【0166】
詳細には、図20を用いて説明する。図20は、3つの個別制御点から形成される三角形を示す図である。例えば、図20に示されるように、個別モデルにおける個別制御点Cj(j=J4)、Cj(j=J5)及びCj(j=J6)の3点から形成される3角形が有する3つの角度AN1、AN2、AN3を3次元形状情報hSの要素として用いることができる。この場合、3次元形状情報hSは式(16)のように表され、その次元数は、m×(m−1)×(m−2)/2となる。また、任意の3つの個別制御点Cjによって形成される三角形の3つの角度は、当該三角形を形成する3つの個別制御点の各3次元座標から算出することができる。
【0167】
【数16】
【0168】
あるいは、3次元形状情報の要素として上記に例示した3次元座標情報、距離情報、又は角度情報を組合せた情報を3次元形状情報hSに用いてもよい。
【0169】
また、上記実施形態においては、パッチ内の各画素の輝度値を2次元情報としていたが、各パッチが有する色合いを2次元情報として用いてもよい。
【0170】
また、上記実施形態においては、1回の撮影によって得られる顔特徴量dを用いて類似度計算を行っていたがこれに限定されない。具体的には、認証対象者HMの撮影を2度行い、2回の撮影で得られる顔特徴量同士の類似度を算出することで、取得した顔特徴量の値が妥当であるか否かを判断することができる。これにより、取得した顔特徴量の値が不適当であった場合、再度撮影をやり直すことができる。
【0171】
また、上記実施形態では、ステップSP6において変換行列Atを決定する手法として手法MAを用いていたがこれに限定されず、例えば、所定の特徴空間から級間分散と級内分散との比率が大きくなるような射影空間を求めるMDA(Multiple Discriminant Analysis)法、或いは、所定の特徴空間から級間分散と級内分散との差が大きくなるような射影空間を求めるEM(Eigenspace Method)法を用いてもよい。
【0172】
また、上記実施形態においては、複数台のカメラより入力される複数の画像を用いて顔の3次元形状情報を取得しているがこれに限定されない。具体的には、図21に示されるようなレーザ光出射部L1とカメラLCAとから構成される3次元形状測定器を用いてレーザ光出射部L1の照射するレーザの反射光をカメラLCAによって計測することにより、認証対象者HMの顔の3次元形状情報を取得してもよい。但し、上記実施形態のようにカメラ2台を含む入力装置を用いて3次元の形状情報を取得する手法によれば、レーザ光を用いる入力装置に比べて、比較的簡易な構成で3次元の形状情報を取得することができる。
【0173】
また、上記実施形態では、情報圧縮用の写像関係f(hS→dS)として、線形変換(式(7)参照)で表現されるものを例示したが、これに限定されず、非線形変換で表現されるものであってもよい。
【0174】
また、上記実施形態においては、式(14)に示すように、3次元形状情報だけでなく、テクスチャ情報をも用いて認証対象者と登録者との同一性を判定しているが、これに限定されず、3次元形状情報だけを用いて認証対象者と登録者との同一性を判定してもよい。ただし、認証精度向上のためには、テクスチャ情報をも用いることが好ましい。
【図面の簡単な説明】
【0175】
【図1】本発明の実施形態に係る顔認証システムの適用例を示す構成図である。
【図2】コントローラの構成概要を示す図である。
【図3】コントローラが備える各種機能を示すブロック図である。
【図4】個人認証部の詳細な機能構成を示すブロック図である。
【図5】画像正規化部のさらに詳細な機能構成を示すブロック図である。
【図6】認証動作を示すフローチャートである。
【図7】顔画像における特徴的な部位の特徴点を示す図である。
【図8】2次元画像中の特徴点から3次元座標を算出する模式図である。
【図9】3次元の顔の標準モデルを示している図である。
【図10】所定パッチにおけるテクスチャ情報の正規化を示す概念図である。
【図11】テクスチャ情報を示す図である。
【図12】辞書作成動作を示すフローチャートである。
【図13】3次元形状情報の射影状態を示す模式図である。
【図14】3次元形状情報の射影状態を示す模式図である。
【図15】3次元形状情報の射影状態を示す模式図である。
【図16】3次元形状情報の射影状態を示す模式図である。
【図17】正規化後の特徴的な部位の個別制御点を示す図である。
【図18】登録動作を示すフローチャートである。
【図19】個別制御点を結ぶ直線を示す図である。
【図20】3つの個別制御点から形成される三角形を示す図である。
【図21】レーザ光出射部とカメラとから構成される3次元形状測定器を示す図である。
【符号の説明】
【0176】
1 顔認証システム
10 コントローラ
11 画像入力部
12 顔領域検索部
13 顔部位検出部
14 個人認証部
15 出力部
CA1 カメラ
CA2 カメラ
【特許請求の範囲】
【請求項1】
認証装置であって、
認証対象者の顔の3次元形状情報を取得する手段と、
所定の写像関係を用いて前記3次元形状情報を圧縮した3次元形状特徴情報を生成する圧縮手段と、
前記3次元形状特徴情報を用いて前記認証対象者に関する認証動作を行う認証手段と、
を備え、
前記所定の写像関係は、前記3次元形状情報を表現するベクトル空間が、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離されるとき、前記ベクトル空間における任意のベクトルを前記第1の部分空間内のベクトルに変換するものであることを特徴とする認証装置。
【請求項2】
請求項1に記載の認証装置において、
前記3次元形状特徴情報を表現するベクトルの次元数は、前記3次元形状情報を表現するベクトルの次元数よりも低いことを特徴とする認証装置。
【請求項3】
請求項1または請求項2に記載の認証装置において、
前記ベクトル空間は、級内分散と級間分散との大小関係を利用して、前記第1の部分空間と前記第2の部分空間とに仮想的に分離されることを特徴とする認証装置。
【請求項4】
請求項1から請求項3のいずれかに記載の認証装置において、
前記所定の写像関係は、複数の人物をそれぞれその表情を変えて撮像した複数の画像に基づいて取得されることを特徴とする認証装置。
【請求項5】
請求項1から請求項4のいずれかに記載の認証装置において、
前記認証対象者の顔の2次元情報を取得する手段、
をさらに備え、
前記認証手段は、前記2次元情報をも用いて前記認証対象者に関する認証動作を行うことを特徴とする認証装置。
【請求項6】
請求項5に記載の認証装置において、
前記認証対象者の顔に関する個別モデルを、前記3次元形状情報と前記2次元情報とに基づいて生成する手段と、
前記個別モデルのテクスチャ情報を標準化した状態に変換する変換手段と、
をさらに備え、
前記変換手段は、前記個別モデルに設定された各代表点と標準立体モデルにおける各対応標準位置との対応関係を利用して、前記テクスチャ情報を標準化した状態に変換し、
前記認証手段は、標準化されたテクスチャ情報をも用いて前記認証対象者に関する認証動作を行うことを特徴とする認証装置。
【請求項7】
請求項6に記載の認証装置において、
前記変換手段は、前記対応関係を利用して、前記テクスチャ情報を前記標準立体モデルに貼り付けたサブモデルを生成し、前記テクスチャ情報を標準化した状態に変換することを特徴とする認証装置。
【請求項8】
請求項7に記載の認証装置において、
前記変換手段は、前記サブモデルの周囲に配置された円筒面に前記サブモデルのテクスチャ情報を投影して、前記テクスチャ情報を標準化した状態に変換することを特徴とする認証装置。
【請求項9】
請求項1から請求項8のいずれかに記載の認証装置において、
前記3次元形状情報は、前記認証対象者の顔の個別モデルに設定された複数の代表点の3次元座標情報を含むことを特徴とする認証装置。
【請求項10】
請求項1から請求項8のいずれかに記載の認証装置において、
前記3次元形状情報は、前記認証対象者の顔の個別モデルに設定された複数の代表点における任意の2点間の距離情報を含むことを特徴とする認証装置。
【請求項11】
請求項1から請求項8のいずれかに記載の認証装置において、
前記3次元形状情報は、前記認証対象者の顔の個別モデルに設定された複数の代表点における任意の3点から形成される3角形が有する角度情報を含むことを特徴とする認証装置。
【請求項12】
認証方法であって、
認証対象者の顔の3次元形状情報を取得する工程と、
前記3次元形状情報を表現するベクトル空間を、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離するとき、前記ベクトル空間における任意のベクトルを前記第1の部分空間内の所定の部分空間のベクトルに変換する所定の写像関係を用いて、前記3次元形状情報を変換し、前記3次元形状情報を3次元形状特徴情報に圧縮する工程と、
前記3次元形状特徴情報を用いて前記認証対象者に関する認証動作を行う工程と、
を含むことを特徴とする認証方法。
【請求項13】
コンピュータに、
認証対象者の顔の3次元形状情報を取得する手順と、
前記3次元形状情報を表現するベクトル空間を、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離するとき、前記ベクトル空間における任意のベクトルを前記第1の部分空間内の所定の部分空間のベクトルに変換する所定の写像関係を用いて、前記3次元形状情報を変換し、前記3次元形状情報を3次元形状特徴情報に圧縮する手順と、
前記3次元形状特徴情報を用いて前記認証対象者に関する認証動作を行う手順と、
を実行させることを特徴とするプログラム。
【請求項1】
認証装置であって、
認証対象者の顔の3次元形状情報を取得する手段と、
所定の写像関係を用いて前記3次元形状情報を圧縮した3次元形状特徴情報を生成する圧縮手段と、
前記3次元形状特徴情報を用いて前記認証対象者に関する認証動作を行う認証手段と、
を備え、
前記所定の写像関係は、前記3次元形状情報を表現するベクトル空間が、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離されるとき、前記ベクトル空間における任意のベクトルを前記第1の部分空間内のベクトルに変換するものであることを特徴とする認証装置。
【請求項2】
請求項1に記載の認証装置において、
前記3次元形状特徴情報を表現するベクトルの次元数は、前記3次元形状情報を表現するベクトルの次元数よりも低いことを特徴とする認証装置。
【請求項3】
請求項1または請求項2に記載の認証装置において、
前記ベクトル空間は、級内分散と級間分散との大小関係を利用して、前記第1の部分空間と前記第2の部分空間とに仮想的に分離されることを特徴とする認証装置。
【請求項4】
請求項1から請求項3のいずれかに記載の認証装置において、
前記所定の写像関係は、複数の人物をそれぞれその表情を変えて撮像した複数の画像に基づいて取得されることを特徴とする認証装置。
【請求項5】
請求項1から請求項4のいずれかに記載の認証装置において、
前記認証対象者の顔の2次元情報を取得する手段、
をさらに備え、
前記認証手段は、前記2次元情報をも用いて前記認証対象者に関する認証動作を行うことを特徴とする認証装置。
【請求項6】
請求項5に記載の認証装置において、
前記認証対象者の顔に関する個別モデルを、前記3次元形状情報と前記2次元情報とに基づいて生成する手段と、
前記個別モデルのテクスチャ情報を標準化した状態に変換する変換手段と、
をさらに備え、
前記変換手段は、前記個別モデルに設定された各代表点と標準立体モデルにおける各対応標準位置との対応関係を利用して、前記テクスチャ情報を標準化した状態に変換し、
前記認証手段は、標準化されたテクスチャ情報をも用いて前記認証対象者に関する認証動作を行うことを特徴とする認証装置。
【請求項7】
請求項6に記載の認証装置において、
前記変換手段は、前記対応関係を利用して、前記テクスチャ情報を前記標準立体モデルに貼り付けたサブモデルを生成し、前記テクスチャ情報を標準化した状態に変換することを特徴とする認証装置。
【請求項8】
請求項7に記載の認証装置において、
前記変換手段は、前記サブモデルの周囲に配置された円筒面に前記サブモデルのテクスチャ情報を投影して、前記テクスチャ情報を標準化した状態に変換することを特徴とする認証装置。
【請求項9】
請求項1から請求項8のいずれかに記載の認証装置において、
前記3次元形状情報は、前記認証対象者の顔の個別モデルに設定された複数の代表点の3次元座標情報を含むことを特徴とする認証装置。
【請求項10】
請求項1から請求項8のいずれかに記載の認証装置において、
前記3次元形状情報は、前記認証対象者の顔の個別モデルに設定された複数の代表点における任意の2点間の距離情報を含むことを特徴とする認証装置。
【請求項11】
請求項1から請求項8のいずれかに記載の認証装置において、
前記3次元形状情報は、前記認証対象者の顔の個別モデルに設定された複数の代表点における任意の3点から形成される3角形が有する角度情報を含むことを特徴とする認証装置。
【請求項12】
認証方法であって、
認証対象者の顔の3次元形状情報を取得する工程と、
前記3次元形状情報を表現するベクトル空間を、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離するとき、前記ベクトル空間における任意のベクトルを前記第1の部分空間内の所定の部分空間のベクトルに変換する所定の写像関係を用いて、前記3次元形状情報を変換し、前記3次元形状情報を3次元形状特徴情報に圧縮する工程と、
前記3次元形状特徴情報を用いて前記認証対象者に関する認証動作を行う工程と、
を含むことを特徴とする認証方法。
【請求項13】
コンピュータに、
認証対象者の顔の3次元形状情報を取得する手順と、
前記3次元形状情報を表現するベクトル空間を、表情の相違による影響が比較的小さく個人相互間の識別に適した第1の部分空間と、表情の相違による影響が比較的大きく個人相互間の識別に適さない第2の部分空間とに仮想的に分離するとき、前記ベクトル空間における任意のベクトルを前記第1の部分空間内の所定の部分空間のベクトルに変換する所定の写像関係を用いて、前記3次元形状情報を変換し、前記3次元形状情報を3次元形状特徴情報に圧縮する手順と、
前記3次元形状特徴情報を用いて前記認証対象者に関する認証動作を行う手順と、
を実行させることを特徴とするプログラム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図10】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図19】
【図20】
【図21】
【図9】
【図11】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図10】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図19】
【図20】
【図21】
【図9】
【図11】
【公開番号】特開2007−58401(P2007−58401A)
【公開日】平成19年3月8日(2007.3.8)
【国際特許分類】
【出願番号】特願2005−241034(P2005−241034)
【出願日】平成17年8月23日(2005.8.23)
【出願人】(000001270)コニカミノルタホールディングス株式会社 (4,463)
【Fターム(参考)】
【公開日】平成19年3月8日(2007.3.8)
【国際特許分類】
【出願日】平成17年8月23日(2005.8.23)
【出願人】(000001270)コニカミノルタホールディングス株式会社 (4,463)
【Fターム(参考)】
[ Back to top ]