説明

映像に基づいたフォトリアリスティックな3次元の顔モデリング方法及び装置

【課題】 映像に基づいたフォトリアリスティックな3次元の顔モデリング方法及び装置を提供する。
【解決手段】 描写された多角形のメッシュモデルによって表現される3次元のフォトリアリスティックな顔モデル生成方法において、入力映像の正面及び側面の顔映像内の顔特徴を検出する段階と、特定顔の3次元形状を決定するために、検出された顔特徴を利用して初期モデルを変形させて3次元の顔モデルを生成する段階と、入力映像からフォトリアリスティックなテクスチャを生成する段階と、前記テクスチャを前記3次元モデル上にマッピングする段階と、を含むことを特徴とする3次元の顔モデリング方法。これにより、デジタルカメラのように相対的に高価ではない装置を利用してデータを獲得し、可能な限り自動化を具現して、完全でない入力データから望ましく実際の人間らしい顔のモデ
リング方法を提供する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は映像処理に係り、特に、映像からフォトリアリスティックな(photorealistic)3次元の顔(または顔面)モデリングを行うために映像(image:一般的な像であって、像が形成された媒体には依存しない)に基づいたフォトリアリスティックな3次元の顔モデリングを行う方法及びそのための装置に関する。
【背景技術】
【0002】
フォトリアリスティック(Photorealistic;写真上の写実性)な3次元の人間顔モデルを自動的に生成する技術は、長期間コンピュータグラフィック分野で極めて重要な課題として残っていた。この技術により可能となる事実感のある人間の顔モデルにより仮想現実空間、コンピューターゲーム、画像会議及びアニメーションの製作のような多様な応用が開発することができる。
【0003】
たとえ複雑な被写体から精密な3次元の形状を捕らえられることのできるレーザースキャナー及び構造光を利用した距離測定器のような装置が存在するが、そのコストが極めて高くて使用し難い。一方、コンピュータを利用したインタラクティブな(interactive;対話型の)顔モデリング技術は多くの努力及び専門性を要求する。そのために、一般的なパソコンユーザーにより容易にフォトリアリスティックな人間顔のモデルを生成させるために、この分野に数多くの努力が競走されてきた。言い換えれば、それほど高価ではない装置(デジタルカメラのような装置)を利用してデータを獲得し、ユーザーが生成作業の全般を制御するが、これと共に可能なかぎり自動化を実現して、完全でない入力データからでも望ましい結果が生成できるロバストな(robust)方法(アルゴリズム)を開発することが課題であった。
【0004】
自動的に顔モデルを復元するシステムは、3次元の顔形状データに使われたソースデータを基準にして幾つかのカテゴリーに大別することができる。以前の開発者はレーザースキャナーまたは光学装置を利用してデータが獲得できる技術を開発した。この方法の問題点は、一般的に装備が高価であり、使用し難い点である。
【0005】
また、正面及び側面映像から顔モデルを生成するための多くの努力と競走がされてきた。しかし、2つの映像間即ち2枚の映像画面の間に厳格な直交関係を得ることは特殊な補助器具を使用していない一般的な携帯用カメラを利用する場合、困難である。したがって、相異なる角度から直接獲得された形状情報は矛盾する部分があり、この部分に対する解決策がまだ提示されていない。
【0006】
あるシステムは、ユーザーによって指定された数個の映像内の特徴点に依存して顔モデルを生成することができるが、この過程は多くの時間及び努力を必要とする。
【0007】
他の解決法のうち、光流及びステレオ法を利用する方法が完全な自動復元過程に向かう最も進歩された方法と見える。しかし、この装置の結果顔モデルには深刻なノイズを含み、顔表面が不自然な変形を示す場合もある。
顔モデルに所望していない結果を生じることを防止し、結果のロバスト性(robustoness)を増加させるために、ある人はモーフィングされうる(morphable; 形態要素となり得る)顔モデルを使用する。前記顔モデルは限定された数の特徴点だけを用いて前記顔モデルを復元された3次元点またはソース画像に整合させるか、前記顔モデルの形状復元のために、モデルに基づいた束合調整技法(model-based bundle adjustment)を使用する。このような問題解決法は特徴点の集合の稠密度に大きく依存する。
【0008】
ステレオ復元法を利用した正確なモデルを獲得するための他の方法は、顔形状の復元を、意図された付加的な制限に適合する変形可能な顔モデルに制限するものである。しかし、これはモデルの精密度を劣化させることになるる。
【0009】
ある人は深さ情報に対する従来技術によって、ただ正面顔画像からモデルを構成しようとするが、その結果、顔モデルの品質は写真上の写実性(Photorealistic)を失う。
【0010】
顔モデリングの重要な論点のうち1つは、顔特徴を自動的に抽出し出すことである。外貌に基づいた顔特徴のモデリング、人間の肉眼注視に基づいたアルゴリズム、特定エッジ及び低い輝度画素パターンの検索、形態演算子(morphological operator)などの技法を利用した多様な顔特徴の検出方法が提案されてきた。このような技術分野が明確に発展されてきたことは事実であるが、人間らしさを基準とする顔分析アルゴリズムを生成す
るために、精密度及びロバスト性の観点より性能を向上させるためにはまだ多くの研究が行われなければならない。
【発明の開示】
【発明が解決しようとする課題】
【0011】
本発明の目的は、2つの映像(正面及び側面映像)または3つの映像(正面映像、正面隣接映像、側面映像)から3次元の人間顔モデル復元を行うために、画像に基づいたフォトリアリスティックな3次元の顔モデリング方法及び装置を提供するところにある。
【課題を解決するための手段】
【0012】
前記技術的課題を解決するための本発明による、映像に基づいたフォトリアリスティックな3次元の顔モデリング方法は、描写された多角形メッシュモデルによって表現される3次元のフォトリアリスティックな顔モデル生成方法において、(a)入力映像の正面及び側面顔映像内の顔特徴を検出する段階と、(b)特定顔の3次元形状を決定するために、前記検出された顔特徴を利用して初期モデルを変形させて3次元の顔モデルを生成する段階と、(c)入力映像からフォトリアリスティックなテクスチャ(texture: 肌理)を生成する段階と、(d)前記テクスチャを前記3次元モデル上にマッピング(mapping: 配図)する段階と、を含むことを特徴とする。
【0013】
前記(a)段階は、入力映像の正面及び側面顔映像内の顔特徴を検出することを行う。前記(b)段階は、正面及び正面隣接映像から顔深さ情報を生成する段階をさらに含み、特定顔の3次元形状を決定するために、前記顔特徴を利用して初期モデルを変形させ、前記顔深さ情報を利用して前記変形された3次元の顔モデルを適合させることが望ましい。
【0014】
前記(a)段階の正面顔特徴検出は、皮膚領域を検出する段階と、顔領域を検出する段階と、目の境界ボックスを検出する段階と、眼球の虹彩を検出する段階と、正面顔映像を正規化する段階と、目の外郭を検出する段階と、眉を検出する段階と、唇の外郭を検出する段階と、鼻の外郭を検出する段階と、あごを検出する段階と、頬の外郭を検出する段階と、を含んでいる。
【0015】
前記正面顔映像の正規化段階は、2つの虹彩の中心間を結ぶ線を水平にして回転させ、所定の映像解像度に正規化することが望ましい。
【0016】
前記(a)段階の側面顔の特徴検出は、顔領域を検出する段階と、側面曲線を検出する段階と、基準点を検出する段階と、耳の外郭線を検出する段階と、を含むことが望ましい。
【0017】
前記正面及び正面隣接映像から深さ情報を抽出する段階は、正面映像内の映像特徴点を決定する段階と、特徴点に対してモデルに基づくルーカス・カナダの追跡(Lucas−Kanade tracking)を行って前記正面隣接映像内に相応する点を捜し出す段階と、整合した対応点を利用してデータ補間を行って充分にデータ点が補充されたディスパリティマップ(disparity map; 不釣合い図)を得る段階と、前記ディスパリティマップを深さ情報に変換する段階と、を含んでいる。
【0018】
前記ディスパリティマップを深さ情報に変換する段階は、最大ディスパリティ値と最小ディスパリティ値の差を得る段階と、前記の差分値を顔幅で除算して所定の定数値を乗算することによって係数を決定する段階と、測定されたディスパリティ値から最小ディスパリティ値を差引いて得られた値を乗算することによって与えられた画素の深度値を得る段階と、を含んでいる。
【0019】
前記(b)段階の初期顔モデルに適合する方法は、3次元初期顔モデルの顔特徴曲線上の特徴点の長さ比を利用して、映像で検出された特徴曲線を初期顔(3D generic head)内で定義される特徴に相応する2次元の点に変換する段階と、前記映像特徴及び前記初期3次元のメッシュモデル特徴点間の対応性を利用して、3段階放射形基盤関(RBF:Radial Basis Function)基盤のモーフィング作業を行って前記3次元の顔メッシュモデルを変形する段階と、を含むことが望ましい。
【0020】
前記(c)段階は、入力映像上で相異なる照明条件の違いによるズレまたはカメラ間の色バランスのズレを色補償する段階と、写真上の3次元モデル極点及び写像された2次元点間の整合に基づいて共通のUV平面(public UV plane)上に正面及び側面映像を写像して、正面及び側面テクスチャを生成する段階と、多重解像度のスプラインアルゴリズムを利用して正面と側面のテクスチャ及び人工テクスチャを混合してテクスチャを完成する段階と、を含んでいる。
【0021】
前記技術的課題を解決するための本発明による映像に基づいたフォトリアリスティックな3次元の顔モデリング装置は、描写された多角形のメッシュモデルによって表現される3次元のフォトリアリスティックな顔モデル生成装置において、入力映像の正面及び側面顔映像の顔特徴を検出する顔特徴検出部と、前記検出された顔特徴を利用して所定の初期モデルを変形させて3次元の顔モデルを生成する顔モデル変形部と、入力映像からフォトリアリスティックなテクスチャを生成するテクスチャ生成部と、前記テクスチャを前記顔モデル変形部で生成された3次元の顔モデルにマッピングするマッピング部と、を含むことを特徴とする。
【0022】
前記顔モデルのバリエーションとしては、正面及び正面隣接映像から顔深さ情報を抽出する深さ情報生成部をさらに有し、前記顔特徴検出部で検出された顔特徴と前記深さ情報生成部で生成された顔深さ情報を利用して所定の初期モデルを変形させて3次元の顔モデルを生成することを含んでいる。
【0023】
前記顔特徴検出部は、正面顔の特徴を検出する正面顔の特徴検出部と、側面顔の特徴を検出する側面顔の特徴検出部と、を含んでいる。前記正面顔の特徴検出部は皮膚領域を検出する皮膚領域検出部と、顔領域を検出する顔領域検出部と、目の境界ボックスを検出する目の境界ボックス検出部と、虹彩を検出する虹彩検出部と、正面顔映像を正規化する正面顔正規化部と、を含んでいる。
【0024】
前記正面顔の特徴検出部は、目の外郭線を検出する目の外郭線の検出部と、眉を検出する眉検出部と、唇の外郭線を検出する唇の外郭線検出部と、鼻の外郭線を検出する鼻の外郭線検出部と、あご及び頬の外郭線を検出するあご及び頬の外郭線検出部のうち少なくとも1つをさらに有することが望ましい。
【0025】
前記側面顔の特徴検出部は、側面顔領域を検出する側面顔領域検出部と、側面曲線を検出する側面曲線検出部と、基準点を検出する基準点検出部と、耳の外郭線を検出する耳の外郭線の検出部と、を含むことが望ましい。
【0026】
深さ情報生成部は、正面映像内の映像特徴点を決定して前記正面隣接映像内で前記特徴点に相応する点を捜し出す特徴点検出部と、整合した一致点を利用してデータ補間を行って充分にデータ点が補充されたディスパリティマップを得るマップ獲得部と、前記ディスパリティマップを深さ情報に変換する深さ情報変換部と、を含んでいる。
【0027】
前記顔モデルのバリエーションとしては、3次元の初期顔モデルの顔特徴曲線上の特徴点の長さ比を利用して、映像で検出された特徴曲線を初期顔(3D generic head)内で定義される特徴に相応する2次元点に変換する2次元点変換部と、前記映像特徴及び前記初期3次元のメッシュモデル特徴点間の対応性を利用して、3段階RBF基盤のモーフィング作業を行って前記3次元顔メッシュモデルを変形する顔メッシュモデル変形部を含んでいる。
【0028】
前記テクスチャ生成部は、入力映像上で相異なる照明条件の違いによる色バランスのズレまたはカメラ間の色のバランスのズレを色補償する入力映像補償部と、写真上の3次元モデル極点及び写像された2次元点間の整合に基づいて共通UV平面上に正面及び側面映像を写像して、正面及び側面テクスチャを生成する正面/側面テクスチャ生成部と、多重解像度のスプラインアルゴリズムを利用して正面と側面のテクスチャ及び人工テクスチャを混合してテクスチャを完成するテクスチャ完成部を含んでいる。
【0029】
そして、前記発明をコンピュータで実行させるためのプログラムを記録したコンピュータ可読記録媒体を提供する。
【発明の効果】
【0030】
本発明による映像に基づいたフォトリアリスティックな3次元の顔モデリング方法及び装置によれば、デジタルカメラのような比較的には高価ではない装置を利用してデータを獲得し、可能な限り自動化を実現し、完全でない入力データから望ましい結果が生成できるロバスト性を有する方法を提供する。すなわち、顔特徴を自動的に抽出し、人間らし
い顔分析方法を提供する。
【発明を実施するための最良の形態】
【0031】
以下、図面を参照して本発明の最良の実施例を説明する。
【0032】
まず、本発明による映像に基づいたフォトリアリスティックな3次元の顔モデリング方法及び装置の全体的な概要を説明し、前記本発明の細部内容に該当する顔特徴検出、顔モデル変形、テクスチャ生成及びステレオ映像対を利用した3次元復元を説明する。
【0033】
本発明によるシステムは、2枚または3枚の顔写真を利用する。すなわち、2枚の顔写真を利用する時には、正面写真及び側面写真を利用し、3枚の顔写真を利用する時には、正面写真、正面隣接写真及び側面写真を利用してフォトリアリスティックな3次元の多角形顔モデルを生成する。
【0034】
映像取得条件は単純である。すなわち、映像輝度の良好な対応及びシャープネス及び顔領域の十分な照度であれば良い。
【0035】
図1は、本発明による映像に基づいたフォトリアリスティックな3次元の顔モデリング方法を示したフローチャートである。そして、図2は、モデル生成作業をより具体的に写真と共に示した図である。
【0036】
図1及び図2に示されたように、モデル生成作業は、次のような段階を含む。最初に、自動の正面顔特徴検出及び半自動の側面顔の特徴検出が行われる(100段階)。第2に、初期3次元の顔モデルを変形して正面顔特徴と適合させる(120段階)。そして、自動でモデル基盤のステレオ整合が行われて正面写真の深さマップを獲得すれば、モデルはさらに変形されて側面特徴及び予測されたステレオ深さマップの何れとも適合させる(140段階)。最終的に、モデルテクスチャが正面及び側面写真から生成されるが、この時、顔モデルを構成する多角形の内のいくつかの多角形には人工皮膚が生成される(160段階)。次いで、前記生成されたテクスチャは前記整合した顔モデルにマッピングされて3次元の顔モデルを生成する(180段階)。
【0037】
モデル変形をするために深さマップ及び側面特徴の両方を使用することは同じような作業の反復であると見られうる。しかし、深さマップは幾何学的な情報に対する膨大で、かつ詳細なる情報を提供し、これは最終モデルがさらに写実的に見えるようにする効果をもたらす。
【0038】
もし正面隣接映像が提供されなければ、本発明による3次元の顔モデリング方法は単純に前記正面隣接映像に関連した段階を省略して進めることができ、この場合にも合理的な結果が得られる。
【0039】
本発明による3次元の顔モデリング方法で、新しいモデルは初期モデルの変形により生成される。すなわち、初期モデルを被験者の入力データに合致させることによって特定顔を生成する。初期モデル(図2では、一般メッシュとする)は人間顔が有する普遍的な特徴点に基づき構成される顔モデルであると考えられるが、この情報が顔モデリング方法の自動化工程及び顔モデリング方法のロバスト性を容易に実現する。図3に示されたような初期モデルは虹彩及び顔部分を除いても7,138個の頂点及び14,096個の三角形を含む。
【0040】
初期モデルは標準正面の方に配置される。すなわち、X軸は右側で左側方向であり、Z軸は目の注視方向であり、Y軸は下部で上部方向を示すので、右手方向の座標フレームを形成する。このような軸方向は特別に説明がなければ、本明細書で共通的に使う。図4は、典型的な正面、正面隣接及び側面入力映像を示したものである。
【0041】
図5は、本発明による映像に基づいたフォトリアリスティックな3次元の顔モデリング装置の構成を示したブロック図であって、当該装置は、顔特徴検出部500、顔モデル変形部510、テクスチャ生成部520及びマッピング部530を含んでおり、深さ情報生成部540をさらに有することが望ましい。
【0042】
前記顔特徴検出部500は、入力映像の正面及び側面顔映像の顔特徴を検出する。前記顔モデル変形部510は前記検出された顔特徴を利用して所定の初期モデルを変形させて3次元の顔モデルを生成する。また、前記顔モデル変形部510は前記深さ情報生成部540をさらに有する場合には、前記顔特徴検出部500で検出された顔特徴と前記深さ情報生成部540で生成された顔深さ情報とを利用して所定の初期モデルを変形させて3次元の顔モデルを生成する。
【0043】
前記テクスチャ生成部520は、入力映像からフォトリアリスティックなテクスチャを生成する。前記テクスチャは必要に応じて人工テクスチャであっても良い。前記マッピング部530は前記テクスチャを前記顔モデル変形部510で生成された3次元の顔モデルにマッピングする。前記深さ情報生成部540は正面及び正面隣接映像から顔深さ情報を抽出する。
1.顔特徴検出
【0044】
図6に示されたように、前記顔特徴検出部500は正面顔の特徴を検出する正面顔の特徴検出部600及び側面顔の特徴を検出する側面顔特徴検出部650を含んで構成されている。
1.1 正面顔特徴の検出
【0045】
正面顔の特徴検出部600は、図7に示されたように、皮膚領域を検出する皮膚領域検出部700、顔領域を検出する顔領域検出部705、目の境界ボックスを検出する目の境界ボックス検出部710、虹彩を検出する虹彩検出部715及び正面顔映像を正規化する正面顔正規化部720を含んでなる。
また、前記正面顔の特徴検出部600は、必要に応じて目の外郭線を検出する目の外郭線検出部725、眉を検出する眉の検出部730、唇の外郭線を検出する唇の外郭線検出部735、鼻の外郭線を検出する鼻の外郭線検出部740及びあご及び頬の外郭線を検出するあご及び頬の外郭線検出部745のうち少なくとも1つをさらに具備することが望ましい。
【0046】
まず、正面特徴検出に対して説明する。図8及び図9は、正面顔特徴検出をより詳細に示したフローチャートであって、皮膚領域検出(800段階)、顔領域検出(810段階)、目の境界ボックス検出(820段階)、虹彩検出(830段階)、正面顔映像正規化(840段階)、目の外郭線の検出(900段階)、眉の検出(910段階)、口(唇)の外郭線検出(920段階)、鼻の外郭線検出(930段階)、顔輪郭(あご及び頬)の外郭線検出(940段階)段階に区分される。
【0047】
各段階は、以前段階が成功的に行われたことを仮定し、以前に検出された特徴の適当な精密度を要求する。このような目的のために、特徴検出が不正確であれば、ユーザーは各段階を行った後、特徴検出の不正確性を手作業で補正することが可能である。
1.1.1 皮膚検出
【0048】
正規化されたr−g色差の色空間内の事前に学習された最大確率ベイジアン分類器(maximum likelihood Bayesian classifier)が皮膚色モデリング及び検出のために使われる。正規化されたr−g色空間が選択される理由は、これがRGB空間から高速で容易に変換され、ベイジアンML分類器(maximum likelihood Bayesian classifier)を利用して皮膚色モデリングを良好に行う性能を有するためである。
当該学習は2つの統計値
−及びを収集することによって行われ、学習映像の顔及び非顔領域から求めた皮膚及び非皮膚のヒストグラムから計算される。皮膚確率映像は、入力フレームの各画素に対してこのような測定を行うことによって構成される。
【数1】



【0049】
プリオリ(priori)な皮膚及び非皮膚確率が同一であると仮定する場合、これはベイジアン最大確率基準(maximum likelihood Bayesian criteria)を満足する。結果的に得られる皮膚確率映像が顔領域追跡に使われる。
1.1.2 顔領域の検出
【0050】
図12Aは、図7の顔領域検出部705を示した詳細部ブロック図であって、顔領域初期化部1230、楕円安定化部1240及び顔領域決定部1250を含んでいる。
【0051】
前記顔領域初期化部1230は皮膚色を帯びた連結構成要素のうち最大要素を顔領域に初期化する。前記楕円安定化部1240は前記初期化された顔領域に基づいて楕円の境界点を楕円が安定化されるまで移動させて楕円を初期化及び変形させる。前記顔領域決定部1250は前記安定化された楕円が接してなる境界方形を顔領域として決定する。
【0052】
図12Bは、顔領域検出を示したフローチャートである。顔領域は適切な楕円に検出され、本発明では変形可能な楕円モデルに基づいた技法が使われる。図13に示されたように、初期楕円モデルは、適当な顔位置で初期化される(1200段階)。前記顔位置は皮膚色で連結された最大成分、または最も大きい2つの成分がほぼ同じサイズを有する場合には2つのうちにさらに映像中心部に近い成分が当該モデルになる。
【0053】
前記初期化された顔領域に基づいて楕円の境界点を楕円が安定化されるまで移動させて、楕円を初期化及び回転させる(1210段階)。これをより具体的に次に説明する。
【0054】
楕円境界に位置した多数の方形プローブ(probe: 検査針点)が楕円境界上での皮膚色画素の分散を測定し、モデルの変形を制御する。各プローブの移動は次の規則を適用して決定される。
【0055】
まず、次の2つの値を計算する。
【数2】



【0056】
ここで、Ninsideはプローブ及び楕円の両方の内部に位置する皮膚画素数であり、Noutsideはプローブ内及び楕円外部に位置する皮膚画素数であり、Sはプローブの面積である。この時、プローブが顔領域の内部に存在するならば、PinとPoutは大きい値を有し、顔領域の外部に存在すれば、小さな値を有する。楕円が顔領域の境界に位置すれば、Pinは大きい値を、Poutは小さな値を示す。
【0057】
もし、Pin<TInであれば(TInは閾値)、プローブは速度VInを有して内部に移動する。また、Pout>Tout(Toutは閾値)であれば、プローブは速度Voutで外部に移動する。すなわち、もしプローブ内部の隣接領域に皮膚画素がほぼ存在していなければ、プローブは顔領域の外側に存在するので、現位置で内部に移動し、もしプローブ内部及び外部に存在する皮膚画素数が十分であれば、プローブは皮膚上に存在するので、現位置で外部に移動する。
【0058】
モデル変形の一段階は、あらゆるプローブの離隔を計算して再配置されたプローブの中心に楕円を再近似する過程を含む。楕円は固定した方向(垂直長軸)を有するように限定される。このようにして前記安定化された楕円の境界方形を顔領域として決定する(1220段階)。
【0059】
図10及び図11は、顔領域検出の幾つかの結果を例示するが、ここで、小さな楕円が初期領域であり、大きい楕円が検出された結果である。
1.1.3 目の境界ボックスの検出
【0060】
図14Aは、図7の目の境界ボックス検出部710の細部構成を示した図であって、ボケ映像生成部1450、映像二値化部1460、目候補検索部1470及び目の境界ボックス決定部1480を含んでなる。
【0061】
前記滲み映像生成部1450は、低域通過フィルタリングを通じてボケた映像を生成する。前記映像二値化部1460は元の映像からボケた映像を引いた映像の各画素で自分と周辺画素値の平均値を求めて新しい映像を生成し、所定の閾値を利用して前記新しい映像を二値化して表現する。前記目候補検索部1470は前記映像二値化部で二値化して表現された映像に連結されたセグメントを目の候補として探し出す。前記目の境界ボックス決定部1480は前記目の候補検索部で探し出した目候補を形状、サイズ及び相対的位置基準で評価して目の境界ボックスを決定する。
【0062】
図14Bは、目の境界ボックス検出を示したフローチャートである。
【0063】
低域通過フィルタリングを通じてボケた映像を生成する(1400段階)。元の映像で前記ボケた映像を差引いた映像を取得する(1410段階)。前記取得された映像の各画素で自分と周辺画素との平均値を求めて新しい映像を生成し、所定の閾値を利用して前記新しい映像をニ値化する(1420段階)。連結されたセグメントを目の候補として捜し出す(1430段階)。形状、サイズ及び相対的な位置基準で前記候補を評価して目の境界ボックスを決定する(1440段階)。
【0064】
これをより細部的に説明すれば、次のようである。本発明による目の境界ボックス及び虹彩検出は数個のスケールで顔映像の赤色チャンネル内の目形状と類似した領域の検出及び目サイズの変異を検出するのに基づく。赤色チャンネルが選択される理由は、虹彩、甚だしくは明るい目(青色、緑色)の場合においても、赤色成分は低い値を示すのに対して、虹彩及び周囲皮膚は相対的に高い赤色成分を示すためである。また、実験結果、赤色チャンネルを利用するのが階調映像に基づいた方法を利用することに比べて良好な結果を提供することが明らかになった。
【0065】
まず、元の赤色チャンネルが前処理されて前記段階で検出された楕円の境界方形による顔部分だけを保存し、固定された幅を有するようにスケーリング(sacling)される。赤色チャンネルの輝度値もこの段階で最大範囲に拡張される。
【0066】
第2に、変異映像Vn,α(x、y)が数式3を利用して計算されるが、ここで、変異映像は各地点が目に該当する確率を示す。
【数3】



【0067】
ここで、p、rは画素位置であり、Iは前処理以後の赤色チャンネル映像であり、Rn,x,yは(x,y)地点に中心をおいた(x n 5)サイズを有する方形であり、Pn,rはrに中心をおいた(n x n/2)サイズを有する楕円であり、はスケーリング係数である。nは目特徴の予想されたサイズを表わす。
【0068】
変異映像は4個のn及びαの組み合わせのために計算されて顔検出段階で発生しうるエラーを減少させ、目形状の多様な変化に対処できるようにする。図15及び図16は、相異なる係数の組み合わせから求められた結果を参照するためのものである。組み合わせは、次のように表せる。
・n = OPTIMAL_FACE_WIDTH / 30, ;
・n = OPTIMAL_FACE_WIDTH / 25, ;
・n = OPTIMAL_FACE_WIDTH / 30, ;
・n = OPTIMAL_FACE_WIDTH / 25, ;
【0069】
第3に、閾値に該当する変異映像内の連結された成分は形状、サイズ及び相手位置の基準を満足するか否かがテストされて最適に整合する目の境界ボックスを獲得する。相異なる変異映像から求められた結果は、次のような戦略で併合される。
【0070】
第1段階.最小スケールから始まる(前記のような1番目構成)
【0071】
第2段階.もし目候補が現在の検索領域内に存在するならば、
a)もし以前スケールに候補が全然検出されなかったとすれば、目を現在候補として設定し、段階3に進む。
b)もし候補が既に発見されたとすれば、現在スケール候補を以前候補と比較する。もしこれらのサイズ及び位置が急変されないならば、目を現在スケールの候補に更新する。
【0072】
第3段階.次のスケール(より大きいスケール)を選択して第2段階に進む。
【0073】
検出結果は、図17に示されたような目の境界ボックスである。
1.1.4 目の虹彩の検出
【0074】
虹彩検出は、赤色チャンネル映像内の目の境界ボックスの内部で虹彩を検出する。
【0075】
図18Aは、図7の虹彩検出部715の構成を示したブロック図であって、ハイライト探索部1860、虹彩初期化部1870、虹彩中心/半径測定部1880及び虹彩決定部1890を含んでなる。
【0076】
前記ハイライト探索部1860は前記目の境界ボックス内の赤色チャンネル映像の最大輝度値を有する画素の数を閾値と比較することによってハイライトの存在を評価する。前記虹彩初期化部1870はハイライトが存在しなければ、最も暗い画素の質量重心点を虹彩中心に初期化し、ハイライトが存在すれば、ハイライト周囲のハイコントラスト領域の中心点を虹彩中心に初期化する。前記虹彩中心/半径測定部1880は虹彩中心に位置した初期円を拡張しながら円上の画素の傾斜度のサイズを測定するが、前記初期虹彩中心の周りの隣接画素に対して測定作業を繰り返す。前記虹彩決定部1890は最大測定値を有する虹彩中心及び半径を虹彩中心及び虹彩半径として決定する。
【0077】
図18Bは、前記虹彩の中心及び半径検出を示したフローチャートである。前記目の境界ボックス内の赤色チャンネル映像の最大輝度値を有する画素数を閾値と比較することによってハイライトの存在を評価する(1800段階)。ハイライトが発見されなければ、最も暗い画素の質量重心点を虹彩中心として初期化する(1820段階)。ハイライトが存在する場合、ハイライト周囲のハイコントラスト領域の中心点を虹彩中心として初期化する(1810段階)。
【0078】
虹彩中心に位置した初期円を拡張し、円上の画素の傾斜度のサイズを測定する(1830段階)。前記初期虹彩の中心周囲の隣接画素に対して測定作業を繰り返す(1840段階)。最大測定値を有する虹彩中心及び虹彩半径の位置を最終結果として選択する(1850段階)。
【0079】
これをより詳細に説明する。まず、虹彩中心が概略的に予測された後、虹彩半径の検出段階で精密に精製される。
【0080】
虹彩中心の予測段階で、もし目の境界ボックス内にハイライトが全然存在しないならば、虹彩中心は最も暗い画素の質量中心として初期化される。一方、ハイライトが存在する場合には、虹彩中心はハイライト周囲のハイコントラスト領域の中心として初期化される。虹彩中心検出は前記段階で事前処理された赤色チャンネル映像で行われるが、次の段階を経る。
1)3x3中間値フィルタを利用して目領域をフィルタリングしてノイズを除去する。
2)目の境界ボックス内の最大輝度値を有する画素数を所定の閾値と比較することによってハイライトの存否を判断する。
3)虹彩中心を検出する(目にハイライトの存否によって異なる方法が使われる)。
a)虹彩内に強いハイライトが発見されれば、目の境界ボックスの中心領域はテンプレート整合方法を利用してスキャニングされる。固定半径を有する円形テンプレートが検索領域内に順次に移動し、各位置で次のような条件目録が点検されて虹彩中心を検出する。
i)検索窓内部の局所的最小値(dLocalMinVal)は検索窓内部の局所的最大値(dLocalMaxVal)と似すぎてはならない(暗い画素及びハイライトの何れも検索窓内に存在することを確実視)。
ii)dLocalMinValは十分に暗くならねばならない。
iii)dLocalMaxValは十分に明るくならねばならない。
このような条件が満足されるあらゆる地点を平均化して前記地点の重心を虹彩中心として決定する。
4)強いハイライトが発見されない時:
a)5x5最小関数が目領域に適用されて弱いハイライトを除去する。
b)目領域は数式4と共にコンボリュ−ションされる。
【数4】



【0081】
したがって、コンボリュ−ションが行われる間に処理されたブロックの中心部分には大きい加重値が割当てられるが、境界部分には負数の加重値が割当てられる。パラメータcは正の加重値が割当てられた領域の半径を制御する。
c)最も暗い点(所定の閾値と比較されて)が平均化されて虹彩中心を検出する。
虹彩中心(xc,yc)が初期化され、次の段階を経て虹彩中心周囲の各画素位置(x,y)に対して精密に補正された虹彩中心を探す(虹彩半径Rもこの過程で検出される)。
1)(xc,yc)近辺のあらゆる(x,y)に対して次の計算を行う。
a)R=Min{R}ないしR=Max{R}に対して
i)中心(x,y)に位置し、半径R−1を有する円の左境界及び右境界に位置す る画素の強度の和を計算する。上端部分及び下端部分はまぶたによって識別さ れやすいので、使われない。
ii)中心(x,y)に位置し、半径Rを有する円の左境界及び右境界に位置する 画素の強度の和を計算する。すなわち、上面部分及び下面部分は使用されな い。
iii)2つの和の差(D(R,x,y))を計算する。
b)D(R,x,y)の最大値を選択し、これに相応するRをRmax(x,y)とし て記録する。
2)あらゆる(x,y)の中央にD(Rmax(x,y),x,y)の最大値を選択し、こ れに相応する(x,y)を虹彩の中心として、Rmax(x,y)を虹彩半径として 選択する。図19は、虹彩検出の幾つかの結果を示す。
1.1.5 顔映像の正規化
【0082】
虹彩検出が行われた後、顔の映像は虹彩中心間の線分が厳蜜に水平になるように回転される。顔境界ボックスも顔サイズ及び2つの虹彩の中心間の距離間比率に対する事前知識を利用して調節される。それにより、入力映像は切断されて顔領域だけを含むようになり、特定幅を有するようにスケーリング(Scaling)される。
1.1.6 目の外郭線の検出
【0083】
目の外郭線は上部の目の外郭線及び下部目の外郭線それぞれのための2つの多項式曲線によって近似化される。図20は、目の外郭線の検出で近似化を示したフローチャートである。虹彩中心及び半径によって検索領域をあらかじめ決定する(2000段階)。前記検索領域内部の赤色チャンネル映像内の垂直位置の各水平スキャンライン(horizontal scan line)に対して、局所的最小値または輝度が急変する画素であって、左側及び右側まぶた点を選択する(2010段階)。残留する点のうち、最も左側及び右側に位置した点を目のコーナーとして選択する(2020段階)。前記目のコーナーを連結する線分上の点を利用して最小自乗法を利用して上部目の外郭線の曲線を推定する(2030段階)。検出された目のコーナー及び虹彩の下部点を利用して下部目の外郭線の曲線を推定する(2040段階)。
【0084】
これをより詳細に説明する。目の外郭線モデルは2つの多項式よりなっているが、これは上部まぶた(x及びy何れに対しても3次式)及び下部まぶた(x及びy何れに対しても2次式)のための多項式である。虹彩中心及び半径が予測された以後に、上部まぶたが低強度画素の領域(白目及び皮膚間の境界)に近似される。下部まぶたはこれ以上検出される必要がなく、直接的に虹彩の下部点及び目のコーナーとして近似化される。
【0085】
まず、上部まぶたを検出する以前に、赤色チャンネルの目の映像が中間値フィルタリング(median filtering)され、ガウシアン平滑化(Gaussian smoothing)されてノイズレベルを抑制する。まぶた点をのための検索領域も虹彩中心及び半径によって事前定義される。
【0086】
第2に、上部まぶた点を検出するために、次のようなアルゴリズムが使われる。
1)検索領域内の各垂直地点に対して、
2)もし現在の垂直地点で虹彩が皮膚で覆われているならば(この線分での平均強度が閾値より大きければ)、段階1に進んで次の垂直地点に対してさらにテストを行う。
3)左側虹彩の境界から左側目の境界ボックス境界まで、現在線分内の画素強度をスキャンして局所的最小値または輝度が急増する領域(図21参照)を捜し出す。この地点が上部まぶたの左側位置に相応する。
4)右側に対しても同じ処理を行なう。すなわち、右側虹彩境界から右側目の境界ボックス境界まで、現在線分内の画素強度をスキャンして局所的最小値または輝度が急増する領域(図21参照)を捜し出す。この地点が上部まぶたの右側位置に相応する。
【0087】
前記のようなアルゴリズムは上部まぶた上に位置すると推定される点の集合を提供する。エラーによって検出される点を排除するために、次のような過程が目の境界ボックスの左側及び右側半分に対して適用される。
1)ヒュー変換(Hough Transformation)を利用して点を線分に近似化する。
2)望ましい方向を有して自分に近接な点数が最大になる線分を選択する。
3)予測された線分から極めて離隔された点を除去する。
【0088】
残った点のうち、左側末端及び右側末端に位置する点が目のコーナーとして選択され、目のコーナーを連結する線分上に位置する点は上部まぶた曲線を予測するために使われる(図22参照)。
1.1.7 眉の検出
【0089】
垂直眉の位置は額領域の画素(H(y))を数式5により定義されるインテグラル投影(integral projection)した結果のうち最小値を出力する位置と推定される(図23参照)。
【数5】



【0090】
ここで、Face(y)は(x,y)が顔楕円内に存在する条件を満足するxの集合、Wdt(y)はy地点での顔楕円の幅、gray(x,y)は映像位置(x,y)での階調値の強度である。
【0091】
もし発見された垂直眉の位置が目から極めて遠く離隔されているならば、これは顔サイズ及び虹彩中心位置によって所定の値に設定される。それにより、眉の境界ボックスも眉位置に対する統計的な情報から決定される(図24参照)。
【0092】
その後、3次多項式が近似化されて眉を表示する。まず、眉方形内の各垂直セグメントによって、階調値が所定の値より大きい地点を眉点として収集する。それにより、眉曲線がこの平均地点を利用して計算される(図25参照)。
1.1.8 唇の外郭線の検出
【0093】
前記唇の外郭線の検出は上部及び下部唇検出よりなる。図26は上部及び下部唇の検出を示したフローチャートである。
【0094】
前記上部及び下部唇検出は、次のような過程を通じてなる。まず、口の方形を初期化する(2600段階)。非皮膚色画素のモーメントを分析することによって初期方形をより精密な境界ボックスに縮少させる(2610段階)。唇関数映像を構成して、精製された境界ボックス内の画素を利用して画素が唇または皮膚に属する確率を測定する(2620段階)。高い唇関数値を有する画素の2次中心モーメントを測定することによって楕円を有して、唇の外郭線を初期化する(2630段階)。外力及び内力によって唇の外郭線を動的に移動させる(2640段階)。前記移動結果点に多項式を近似させて曲線表現式を生成する(2650段階)。
【0095】
前記外力は、唇と皮膚との境界地点に境界点を移動させる力であり、前記内力は内部形状力及び内部平滑化力よりなる。前記内部形状力は外郭線形状を楕円に近くする力であり、前記内部平滑化力は前記境界外部に極めて外れる単一点を抑制する力である。
【0096】
これをより詳細に説明する。唇の外郭線の検出の最初段階は、適当に正確な境界方形を推定することである。この過程は次の段階を通じて行われる。1)人に固有な皮膚色ヒストグラムが皮膚検出段階で生成される。2)所望の口の位置に中心をおいた方形として初期境界方形が設定される。3)現在方形内部にその人に固有な皮膚色ヒストグラム値のうち低い値を有する画素の質量中心及び2次モーメントを計算し続けて、唇ボックスを精密に補正する(図27参照)。
【0097】
精密修正作業は数回反復されるが(例えば、約6回反復)、一般的に適当な精密度の唇境界ボックス計算には十分である。
【0098】
次の段階で、唇関数映像を生成して画素色が唇または皮膚色に属する確率を測定する。前記の二色の範疇は何れも2次元ガウシアン確率密度関数によって(r=R/G、b=B/G)空間内で表現される。唇境界ボックス内の皮膚ヒストグラムの少ない値が唇色範疇を計算するのに使われる。2つの範疇の色が計算された後、唇関数映像が数式6を利用して構成される。
【数6】



【0099】
ここで、pl(r(x,y),b(x,y))は画素位置(x,y)での唇色を範疇とする確率密度値であり、ps(r(x,y),b(x,y))は皮膚色を範疇とする確率密度値であり、α1、α2は2つの係数である。したがって、 lip_func(x、y)は唇の範疇に属する画素の確率及び皮膚の範疇に属する画素の確率間の差を表す。
【0100】
第3段階は、高い唇関数値を有した画素の2次中心モーメントを計算することによって楕円を利用した唇の外郭線の近似化を行うことである。
【0101】
それにより、第4段階で、唇関数映像上に反復的アルゴリズムを利用して精密な唇の外郭線が生成できる。このような唇の外郭線は楕円境界上に同じ間隔に離隔された角度を有し、サンプリングされた点を含む閉じた多角形として初期化されうる(唇関数映像及び初期化された唇の外郭線点に対しては図28を参照する)。各反復段階で、外郭線点piは単純規則の集合によって移動する。移動を決定する力の方向は本実施例ではvcであり(図29参照)、そのサイズFiは数式7のように3つの力の和として決定される。
【数7】



を満足する。
【0102】
また、pi-1、pi、pi+1は3つの時計周り方向に連続的な外郭線点である。あらゆるk*は正の所定の係数である。特別な場合はksmの場合であるが、これは外郭線点の位置及び移動方向によって異なる(他の係数は定数)。
【0103】
実は、前記アルゴリズムをコーナー(corner:角部)にも整合させるために、
Fism(楕円制限として、後述)は唇コーナー点に対してはFiに少なく寄与すべきである。
【0104】
したがって、この場合、ksmは事前反復段階で発見された楕円コーナー近くの点に対してはより小さな値を有する。唇の外郭線のより低い部分は上部に比べてさらに平滑であり、これもksm計算に適用される。
【0105】
ここで、fはこの地点piでの唇関数映像内の値であり、Tは所定の閾値であり、vp、vnは現在地点piから以前及び後続外郭線点に向かうベクトルであり(図29参照)、vcは楕円の中心からpiに向かった正規化された方向であり、は、vpを時計周り方向に(/2ほど回転させて生成される。
【0106】
要約すれば、Fidataは外郭線の生長または縮少を制御し、piでの実際データと合致させる力である。
【0107】
Fiformは外郭線の形状が楕円と類似になるように力を加える。このような力が広域外郭線形状に影響を及ぼさせるために、vn及びvpが次の(以前)点の数個の平均から取られる。
【0108】
Fismは一点も過度に外部に位置しなくすることによって外郭線の平滑度を制御する。
前記アルゴリズムは約30回繰り返した後、終結される。唇の外郭線更新の一段階が図30に現れる。この後、多項式(上部及び下部唇の4次)が反復結果点を近似して曲線表現式を生成する。
1.1.9 鼻の外郭線の検出
【0109】
鼻の外郭線の検出段階は鼻側面検出を含む。図31は、鼻の外郭線の検出段階での鼻側面検出を示したフローチャートである。前記鼻側面検出は次の通りになる。まず、所定の検索領域内のエッジ映像上で所定の形状のテンプレートを整合する(3100段階)。大きい整合値を有する検出された候補のうち対称条件を満足する対を選択して鼻翼面位置として決定する(3110段階)。各鼻側面を多項式曲線によって表現するが、前記曲線は検出された鼻翼面テンプレート及び所定の係数で鼻翼面及び目のコーナー間に補間された3点に合致する(3120段階)。結局、所定の補間係数を使用して前記鼻先と低い鼻の曲面が位置する(3130段階)
【0110】
これをより詳細に説明する。映像条件及び照明条件に関係なく使用できる汎用的な鼻検出技法を開発することは極めて難解である。もちろん、正面で照明が照らし、映像のシャープネスが良好である場合、このような過程は問題点にならない。その理由は鼻領域が大きい、識別可能なエッジパターンを有するためである。しかし、ある場合には(写真がボケるか、照明が方向性のない場合)鼻エッジ領域がノイズが多く、パターンを識別し難くなる。この場合、方向を有したエッジマップテンプレート(mapping template)を利用して鼻側面を検出すれば、相異なる範疇の映像にも良好なロバスト性を提供する。このようなアルゴリズムは次の段階を行って具現されうる。
1)鼻領域映像(水平に虹彩中心間、垂直に目下端部から口境界ボックスの上端部まで)は切断され、固定解像度にスケーリングされる。
2)中間値フィルタが適用されてノイズ除去及びエッジ情報保護を同時に行なう。
3)エッジ傾斜度映像がプリウィットエッジ(Prewitt edge)検出器を利用して計算される。
4)鼻翼面の方向テンプレートが鼻領域に整合して鼻側面を検出する。
鼻翼面テンプレートは固定されたサイズの典型的な鼻側面形状を表現する(図32参照)。整合適合度は鼻翼面テンプレートに属する画素のエッジサイズの和で測定されるが、合算する時、テンプレート接線方向とエッジ方向との正接(tangent)の絶対値で加重値の和を求める(同じ方向である時、最大の加重値を付与)。最大10%の整合適合度位置で鼻候補を形成し、候補集合の対(左側及び右側翼面候補)がテストされて最も望ましい鼻位置を決定する(図33参照)。この時、3つの条件がテストされる。
【0111】
まず、重畳条件:類似した高さを有さねばならない。第2に、分離条件:x方向で近接し過ぎてはならない。第3に、x方向への対称性:x方向から顔中心までの差が大き過ぎてはならない。
【0112】
このような過程を経た後、4次多項式が図34にマーキングされた6個の点に整合される。前記6個の点のうち点1、2、3が所定の位置で検出されたテンプレートからサンプリングされ、残りの点は所定の係数を利用して鼻テンプレートと目方形間に補間される。検出されたテンプレート及び目方形間に所定の位置に置かれた幾つかの点に合致される(図34参照)。
【0113】
前記のような方法は画質及び照明条件が顕著に異なる映像から非常に良好なロバストで精密度の高い結果が得られる。鼻の外郭線検出の実施例は図35に示される。鼻先は2面翼テンプレートセンターの中間点である。そして、低い鼻曲線(図38、図39参照)は所定の係数を利用して2つの鼻面の間に位置する。
1.1.10 あご及び頬の外郭線の検出
【0114】
図36Aは、図7のあご及び頬の外郭線検出部745の細部構成を示したブロック図であって、傾斜度計算部3640、あご及び頬の外郭線拡張部3650及びあご及び頬の外郭線決定部3660を含んでなる。
【0115】
前記傾斜度計算部3640は赤色チャンネル映像上の傾斜度ベクトル場を計算する。前記あご及び頬の外郭線拡張部3650はあご下部点で連結される2つの多項式曲線で構成された顔領域内に初期外郭線テンプレートを位置させ、曲線の接線に合致する強いエッジに接するまであご及び頬の外郭線を外部に拡張する。前記あご及び頬の外郭線決定部3660は前記あご及び頬の外郭線が接線方向に合致する強いエッジに接するようになれば、前記あご及び頬の外郭線拡張を中止してその結果をあご及び頬の外郭線として決定する。
【0116】
図36Bは、あご及び頬の外郭線の検出を示したフローチャートであり、前記あご及び頬の外郭線の検出は、次の通りになる。
【0117】
まず、赤色チャンネル映像上の傾斜度ベクトル場を計算する(3600段階)。あご下部点で連結される2個の多項式曲線で構成された顔領域内に初期外郭線テンプレートを位置させる(3610段階)。曲線の接線方向を有した強いエッジに接するまで、あご及び頬の外郭線を外部に拡張する(3620段階)。前記あご及び頬の外郭線が重要輝度バレーに到達すれば、前記あご及び頬の外郭線拡張を中止する(3630段階)。
【0118】
これをより詳細に説明する。あご及び頬の外郭線は相互底点で連結されて連続した曲線を形成する2個の4次多項式で表現される。また、これらは上部末端部で固定されたY座標を有する。この曲線は多数のセクション(section)に分割される(図37参照)
。検出過程は次の段階よりなる。
1)エッジ映像及びあご曲線が次のように初期化される。
a)水平及び垂直エッジイメージが次を利用して生成される。
i)元の赤色チャンネル映像がOPTIMAL_FACE_WIDTHに合う
ようにスケーリングされ、ガウシアン平滑化を経た後、中間値フィルタを経
る。
ii)ソベルエッジ(Sobel edge)検出器を適用する。
b)下端点、左上端点及び右上端点の3つの点から左側及び右側曲線は同じ対称
形状に初期化される。このような3つの点は検出された目及び唇位置に対す
る既存知識を利用して決定される。
2)曲線は反復過程を経て精密に補正される。反復段階毎の過程は、次のようなも
のである。
a)各セクションiに対して(1ないしNまで、ここで、Nは総セクション数)
i)整合適合度は0に設定される。
ii)セクションi内の各サンプリング点(x,y)に対して:もし(x,y)
での曲線接線及び映像エッジ方向間の角度が60度より小さく、
(x,y)でのエッジサイズが所定の閾値より大きければ、整合適合度を
増加させる。
iii)もし、整合適合度が与えられたさらに他の閾値より小さければ、曲線
セクションが曲線法線ベクトルによって外部に移動し、そうでない
場合、そのセクションは内部に若干移動する。
b)曲線をあらゆるセクションに再近似させる。これは曲線セクションが大きい
輝度のエッジに会うまで曲線の垂直方向と平行に外部に拡張されることを意味
する(あご合致過程の中間段階に対して図38参照)。しかし、曲線の下部の
セクションもこれらが非常に大きい輝度バレー(significant−brightness
valley)に到達する時には、外部に移動することを停止せねばならないが、こ
れは下部あご領域でエッジは一般的に非常に弱いためである。したがって、次
のような決定規則を下部に適用することも可能である。
c)下部曲線部分iの各セクションに対して次のように行われる。
i)整合適合度は0に設定される。
ii)セクションiの画素(x,y)の平均光度を計算する
(CurBrt(i))。
iii)このセクションを曲線の法線に沿って外部に移動させ、さらに平均輝
度値を計算する(MovedBrt(i))。iv)もし、
MovedBrt(i)<CurBrt(i)であれば、このセクション
は外部に移動し、そうでなければ、これは内部に少し移動して陰
影領域内に存在する。
【0119】
正面映像のあらゆる検出された特徴が図39に表示される。アルゴリズムは相異な種類の映像及び照明条件に対しても自動で動作してロバストである。
1.2 側面顔特徴の検出
【0120】
図40は、前記側面顔の特徴検出部650は側面顔領域を検出する側面顔領域検出部4000、側面曲線を検出する側面曲線検出部4020、基準点を検出する基準点検出部4040及び耳の外郭線を検出する耳の外郭線の検出部4060を含んでなる。
【0121】
前記側面顔領域検出部4000は画素を皮膚及び非皮膚画素に分類し、最大皮膚色の連結成分を側面顔領域として選択する。
【0122】
前記側面曲線検出部4020は正面映像から類推された特定な境界ボックス内の最右側の顔領域の境界外郭線を側面曲線に検出する。
【0123】
前記耳の外郭線の検出部4060は曲線テンプレートを側面映像と整合して耳位置を初期化した後、初期化された耳テンプレートを外郭線追跡アルゴリズムに変形させて正確な耳境界を捜し出す。
【0124】
図41は、側面顔の特徴検出を示したフローチャートである。側面特徴の検出は一般的に次のような段階で構成される。側面顔領域の検出する(4100段階)。側面曲線を検出する(4110段階)。次いで、側面基準点を検出する(4120段階)。特徴点の検出(額、鼻、唇、あご、首など)を通じて側面曲線はこれらによってセグメント化される(segmented)意味あるセクションに分離することができる。最後に、耳の外郭線を検出する(4130段階)。
【0125】
このような過程が行われる間、後続段階は先行段階の結果を検討する。そして、中間結果が後続処理過程でエラーを有していると発見されれば、本アルゴリズムは自動で以前段階に戻って、さらに多くの映像情報でエラーを訂正する。
【0126】
現在、側面特徴の検出のためにユーザーの相互作用が多少必要とされる。まず、ユーザーは顔が十分に大きくなく、背景が複雑で、皮膚色の物体を含んでいるならば、顔境界方形を元の映像内に定義する必要がある。しかし、これは一般的な場合ではない。
【0127】
ほぼ全てのテスト映像で顔領域は完全自動で検出することができる。第2に、顔上端、顔背面、目点及び唇点は統計的知識によって初期位置が設定され、ユーザーの相互作用により補正が必要とされることがある。
1.2.1 顔領域の検出
【0128】
顔領域の検出は画素を皮膚及び非皮膚画素に分類する。次いで、最大皮膚色の連結成分として前記顔領域を選択する。最も大きい2つの成分が類似したサイズを有する場合、映像中心により近いものを前記顔領域として選択する。
【0129】
これをより詳細に説明する。正面映像処理と類似に、ここでも正規化されたr−g色空間及び学習された皮膚色モデルを使用して皮膚及び非皮膚画素を判断する。皮膚色の最も大きい連結成分または最も大きい2つの成分が類似したサイズを有する場合にさらに映像中心に近い成分を顔領域として選択する。
【0130】
ある場合には、鼻領域が顔領域と連結されていない場合もある(図42参照)。このような失敗状況を隣接した皮膚色連結成分を検討することによって検出できる。鼻及び顔領域は相互併合されて1つの連結された成分を構成する。他の2つの失敗状況は照明が強過ぎる場合(図43参照)と、照明が暗過ぎるか、あごひげがある場合にあご領域を完全に検出できない場合である(図44参照)。第1失敗は、鼻先が検出された後、鼻ブリッジ追跡(noise bridge tracking)過程を行うことによって識別されうる。第2失敗は、あご及び首点が検出された以後に判断されうる。より詳細なる説明に対しては特徴点の検出を参照する。
【0131】
皮膚検出が失敗したと識別された後、ピラミッドに基づいた領域セグメント化アルゴリズムに依存して顔領域を検出する。このようなセグメント化アルゴリズムの入力映像は元の映像のHSV変換での1つのチャンネルである。このチャンネルは鼻ブリッジ近くで皮膚を背景と区分する性能に基づいて選択される。
1.2.2 側面曲線の検出
【0132】
正面映像から類推された特定境界ボックス内の最右側顔領域の境界外郭線を側面曲線として検出する。
【0133】
顔領域が皮膚検出を通じて検出されれば、側面曲線が顔のユーザーによって特定境界ボックス内の最右側の顔領域画素として検出される。このような過程は、次のようなものである。
1)は皮膚検出の二値化結果(1は画素が皮膚に属することを意味し、0は逆を意
味する)、及び検出された顔領域(連結された成分)である。
2)ユーザーは手動で顔境界ボックスを指定する(ほぼ全ての場合、必要でない)。
3)側面外郭線の概略的近似値を探す。本アルゴリズムは側面関数はx=
x(y)を構成するが、ここで、yは垂直方向に変化し、xは顔境界ボックス
内のy行内の外郭線のx座標に対応する。この行内に皮膚画素が存在していな
い場合、x(y)は0に設定される。
4)側面関数は1次元のガウシアンフィ
ルタ(Gaussian filter)を利用して平滑化されて無作為ノイズを除去する
(側面関数の一例を見るためには、図45を参照)。
【0134】
本映像は切断されて側面関数だけを含み、後続する処理を容易にするために固定された高さにスケーリングされる。
1.2.3 特徴点の検出
【0135】
側面曲線の中心点は側面関数の形状を分析することによって検出される。
1)鼻先は側面関数の全域最大値である。鼻先が検出された以後、鼻ブリッジの一
部を直線の線分として近似するが、この時、鼻先より上部の強いエッジ画素を利
用する。そして、鼻ブリッジに沿って皮膚を背景と分離する作業が元の映像のH
SV変換での相異なるチャンネルに対して検討される。さらに、もし鼻ブリッジ
線分が側面曲線と離隔し続けられれば、皮膚検出の第1失敗事例として認識され、
本アルゴリズムは領域セグメント化アルゴリズムを利用して顔領域を検出するた
めに戻る。
2)額上部点(今後、「額上端」という)が最上端の皮膚画素である。
3)側面関数x=x(y)の上部(額上端から鼻先まで)を7次多項式を利用して
近似化する(図46参照)。それにより、多項式に対して下端から上端までスキ
ャンして多項式の第1微分値が固定された閾値より小さな地点を探す。この点が
鼻ブリッジの上端である。
4)部分別線形近似化を側面関数の下部(鼻先より低い部分)で行う。
a)線分セグメントの方向が関数の最初3個の点から計算される。
b)連続的な点から現在セグメントまでの距離を計算する。
c)もし計算された距離が大き過ぎれば(固定された閾値より大きければ)、新
しいセグメント化を始め、段階a)に進行する。
d)段階a)に進行する。
5)ある先決定された領域内で、線分セグメントの交差点のうち、隣接セグメント
間の角度が非常に大きい(約90度)点を探す。この点が「下部鼻点」である
(図46参照)。
6)「下部鼻点」より低い点に対して、適応型直線近似アルゴリズムから計算され
た線分セグメントを有して側面関数を近似化する。このアルゴリズムの各段階は
次のように行われる。あご及び首点は適応型ポリライン合致(adaptive
polyline fitting)アルゴリズム結果から検出される(図47に表示された3
点参照)。もしあごが鼻先と近過ぎれば、皮膚検出が失敗したと考え(前記第2
の場合)、本アルゴリズムはさらに戻って顔領域を再検出する。
7)上部及び下部唇中心点は極めて探し難いが、特に映像撮影条件に多くの変化が
ある場合にはさらにそうである。したがって、平均的な顔サイズから判断して中
心点の合理的な近似化を提供する(図48参照)。図面でのいくつかのセグメン
トは後述する。
a)lは「下部鼻点」から首開始点までの垂直距離である。
b)a=0.225*l
c)b=0.125*l
d)c=0.125*l
【0136】
中心点が発見された後、これら間の側面曲線セグメントが多項式を利用して近似化される。顔の背面及び上端面は、目と共に検出されず、人間顔の合理的な比率で予測される。このようなあらゆる特徴の結果が図49に示されている。
1.2.4 耳の外郭線の検出
【0137】
図50は、耳の外郭線の検出を示したフローチャートである。耳の外郭線の検出のためには、まず、曲線テンプレートを側面映像と整合して耳位置を初期化する(5000段階)。次いで、前記初期化された耳テンプレートを外郭線追跡アルゴリズムに変形させて正確な耳境界を探し出す(5020段階)。
【0138】
図51は、前記耳初期化を示したフローチャートである。図51を参照して耳初期化を説明する。
【0139】
耳テンプレートの変換ベクトルを決定し、元の映像を回転させて鼻ブリッジ上端からあご点までの線分を厳格に垂直にし、前記線分セグメントの長さが所定の値になるようにスケーリングする(5100段階)。耳のための検索領域を定義する(5110段階)。検索領域内の顔領域と髪の毛領域境界とを曲線テンプレートと整合して、2個の曲線から類似した形状を有するセグメントを探し出す(5120段階)。もし整合したセグメントの長さが所定の閾値より小さい場合、エッジ検出器で検出したエッジと耳テンプレートとを整合して類似した形状を有するセグメントを検出する(5130段階)。テンプレートセグメントから整合した映像点への変換ベクトルを最小自乗アルゴリズムを利用して計算する(5140段階)。
【0140】
これをより具体的に説明する。耳の検出は2つの段階に大別される。第1段階で、曲線テンプレート(図52)を色またはエッジ情報と整合し、そのテンプレートを変形して局所的映像情報と合致させる。詳細なる説明は次の通りである。
【0141】
耳初期化段階で、まず、元の映像の方向及びスケールを正規化する。鼻ブリッジ上端及びあご点の2個の基準点が選択されて正規化を行う。元の映像は回転されてこの2つの点を連結するセグメントを垂直にし、その以後にスケーリングされてこれら間の距離が固定された値を含ませる。予め定めておいた方形を耳のための検索領域として正規化された映像内に配置する。正規化された映像、補正点及び検索領域のために図53を参照する。
【0142】
耳テンプレートを望ましい初期化位置に配置するための変換ベクトルを発見しようとする。最初、皮膚検出結果を利用する。一般的に、皮膚領域の境界は一部地点における耳境界と一致する(いくつかの例は図54参照)。曲線傾斜度情報の類似性に基づいてテンプレート及び皮膚領域境界間で単純な曲線整合(curve matching)アルゴリズムを行ってこのような2個の曲線上のセグメントのうちよく整合するセグメントを発見する。それにより、変換ベクトルが最小自乗法を利用して整合したセグメントと共に予測される。図55を参照して色情報を利用した耳初期化の結果を調べる。皮膚領域境界内のテンプレートと整合するセグメントは図面では赤色で表示される。
【0143】
ある場合には、皮膚領域境界が耳境界と接しない場合もある(一般的に頭の長さが短過ぎるか、照明が強過ぎる場合であるが、例示のために図56を参照する)。アルゴリズムは整合したセグメントの測定された長さ及び検索領域内の変換された耳テンプレートの位置を測定して自動的にこのような失敗を曲線整合段階で検出する。それにより、地域エッジ情報(local edge information)を利用して耳を初期化できる。
【0144】
まず、Nevatia−Babuエッジ検出器が使われて階調映像からのエッジ情報を抽出するのに使われる。長いエッジセグメントはテストされ、そのうち最適の1つだけが正確に耳テンプレートと整合すると判断される。この場合、顔領域情報を利用するのに使われたのと同じ曲線整合アルゴリズムが使われる。次のような相対的因子が相互結合されて整合に対する評価に使われる。すなわち、前記相対的因子はエッジセグメント内の整合した長さ及びセグメントに基づいた、検索領域内の耳テンプレートの位置である。
【0145】
実験で、顔領域に基づいたアルゴリズムと比較する時、エッジに基づいた耳初期化がよりロバストであるが、耳境界上の初期セグメントを検索するのにおいて、十分に正確でない。それで、この方法は顔領域に基づいた方法に対する補完的な方法としてだけ使われ、全体アルゴリズムのロバスト性を向上させる。エッジに基づいた耳初期化の例示も図53に示されている。
【0146】
第2段階は、耳境界と整合するように変換されたテンプレートを変形するのである。既に初期化段階でいくつかの耳境界点を獲得したので(顔領域境界またはNevatia−Babuエッジからのセグメント)、単純な外郭線追跡技法(contour following scheme)を適用してテンプレートを耳に合致させる。詳細なる過程は次のようである。
1)既に映像耳境界と整合した耳テンプレート上の点から始めて、この点を
Contnとして保存するが、ここで、Contは耳テンプレート(サンプリング
された2次元の点リスト)であり、nはこの目録内の点のインデックスである。
2)それにより、次のような制限条件を満足する第1点を探す:Contn及び
Contnext間のあるテンプレート点は点集合
に最小自乗分方法で合致された線分から十分に離隔される。
nextは最小限n+5でなければならない。もしnextがテンプレートの最
後点に到達すれば、外郭線の追跡が終結される。
3)Contnに中心をおいて、Contn以後のセグメントを回転させて、
ContnからContnextまでのセグメントを映像エッジ情報と整合させて最大
整合値を提供する最適角度を求める。もしその角度範囲で正確な整合がおき
なければ、本アルゴリズムはエラー報告して終結する。
4)発見された最適角度を利用してContn以後にあらゆるテンプレート点を回
転し、n=nextに設定し、段階1に進む。
【0147】
セグメント及び映像間の整合評価は2種の情報を組み合わせることによって計算される。情報のうち1つは、局所的エッジ強度(local edge strength)であって、セグメントによる強度差の和と計算される。他の情報は、セグメント類似性であって、特定セグメント画素の強度値の和が以前セグメントに対して計算された値と極めて差がついてはならない。このような2種の因子によって判断する時、もし評価値が極めて劣悪であれば
この整合が誤ったと判断する。
【0148】
このような外郭線追跡アルゴリズムは耳上端と下端から2回実行される。本アルゴリズムがエラー報告と共に終結されれば、初期化結果が直接的に使われる(これは一般的に耳が髪の毛によって隠されるために発生するが、これは図57に示された通りである)。
【0149】
耳下端のためには、テンプレート長さが耳境界と整合するのに十分でない場合があるために、テンプレートのテールを長いセグメントに交替する。耳の実質下端位置は整合
したテンプレートによってエッジ強度を研究することによって求められる。ある映像で、耳境界は下端位置に到達した後、上端に向かって進む。このような場合も論理的エッジ情報を利用して検出されるが、結果として提供される耳境界には図57で示されたような上端に向かったテール(tail)を含みうる。
2.顔モデルの変形
【0150】
この時点で、正面及び側面写真(図58参照)及び/または3次元ステレオ深さマップから抽出された完壁な構成の顔特徴を有する。前記ステレオ深さ抽出は後述する。
【0151】
図59は、図5の顔モデル変形部510の構成を示したブロック図であって、2次元点変換部5900及び顔メッシュモデル変形部5950を具備する。図60は、前記顔モデル変形部510での初期モデル変形を示したフローチャートである。
【0152】
まず、2次元点変換部5900を通じて、3次元初期顔モデルの顔特徴曲線上の特徴点の長さ比を利用して、映像で検出された特徴曲線を初期顔(3D generic head)内で定義される特徴に相応する2次元点に変換する(6000段階)。次いで、顔メッシュモデル変形部5950を通じて、前記映像特徴及び前記初期3次元メッシュモデル特徴点間の一致性を利用して、3段階RBF基盤のモーフィング作業を行って前記3次元顔メッシュモデルを変形する(6050段階)。
【0153】
前記3段階RBF基盤のモーフィング作業は、次のようになる。まず、離隔されたモデル特徴点のXとY座標をそれらの相応するイメージ特徴点として設定し、Z座標は初期メッシュ内に残すことによって、正面特徴のRBF補間を適用する。次いで、正面特徴がそれらの地点に残るように制限しながら側面特徴のY座標を考慮して側面映像のスケールを調節し、顔側面特徴はRBF補間のための入力として使われる。最後に、RBF補間があらゆる利用可能な特徴を使用して行われる。
【0154】
深さ情報復旧過程で獲得された3次元点は、初期モデルの頂点が深さ情報から取得されたそれらの3次元地点に移動するようにRBFに基づいたモーフィングを行うことが望ましい。
【0155】
これをより詳細に説明する。検出された顔特徴は初期モデルを変形するのに使われる。前記変形されたモデルを入力映像に合致させる。前記作業を行うために、まず、特徴検出段階で獲得された顔特徴を初期モデル内のあらかじめ指定された特徴に相応する点による置換に変換し、データ補間アルゴリズムを利用してそのモデル内の頂点を移動させて初期モデル変形を行う。検出された特徴(曲線及び点)及びモデル頂点間の対応関係は事前に手動で設定されねばならない。前記対応関係は一回だけ行えば、特定初期モデルのために固定されたまま維持されるので、ユーザーが介入する必要がない。
【0156】
次に、1つの特徴曲線のための一致度を設定するための過程が後述される。まず、モデル上の重要頂点及び顔特徴曲線によって分散された位置が図61に示される。入力映
像で検出された顔特徴曲線に該当する初期モデル上の顔特徴が示されており、両曲線上で同じ長さの比率で特徴点がサンプリングされる。側面特徴に対してこの過程が繰り返されて、モデル上の特徴点の2次元の置換の2つの集合を生成する。
【0157】
次に、相応する映像特徴点による重要頂点の3次元置換を決定する。最も簡単な方
法は単純にx及びy置換を正面特徴から抽出し、側面特徴からz置換を抽出することである。しかし、この方法は望ましい結果が提供できない。その理由は、幾つかの正面特徴(あご下部、上端部及び後顔部分など)y位置情報が欠如され、正面及び側面特徴位置が相反するためである。データ衝突は顔の方向が変化するか、顔表情が変化するために(たとえ小さな表情の変化でも避けられない)発生するが、このような場合は入力映像が同時に撮影されない場合に発生する。はなはだしくは正面及び側面映像が同時に撮影されたものであっても、それらは一般的に標準正面及び側面映像でない。例えば、2つのカメラ
の光軸を正確に相互垂直にすることは非常に難しい。
【0158】
このような問題点を解決するために、3段階モーフィング過程が利用され、この過程はRBF数接近法に基づく。
2.1. RBFデータ補間
【0159】
まず、データ補間技法を簡略に紹介する。作業を行うために、RBF接近法を利用する。初期入力で、2個の対応するデータ集合及びを有していれば、次のようなを全体3次元空間の変形関数として決定できる。この時、2個の集合はそれぞれ変形過程実行以前及び以後の3次元サンプリングを表現する。
【数8】



【0160】



【数9】



【0161】



2.2 3段階の変形過程
【0162】
モデル変形方法の詳細なる段階は次のようである。
1)まず、RBF補間法を正面顔の特徴に適用する。移動するモデル特徴点のX及
びY座標が相応する映像特徴位置に対応し、Z座標は初期モデルと同一に維持さ
れる。この段階で、モデルと映像間顔特徴の整合が正確に行われるが、この過程
には精密なテクスチャマッピングが必要である。
2)側面特徴を利用してRBF補間が行われる。側面キーポイントのY座標及びZ
座標が相応する側面映像位置に設定され、X座標が初期モデルと同様に残る。こ
の過程ではあらゆるモデル頂点に対するZ値を決定するだけである。鼻先、鼻ブ
リッジ上端及び唇で発生されうる正面及び側面特徴間の不一致問題は側面特徴曲
線をスケーリングして変換してY座標が相応する変形されたモデル点と整合させ
ることによって解決される。
3)最終的に、全てのキーポイントは最終頭形を決定するためにRBF補間入力と
して使用される。この段階で側面キーポイントは、段階2)の補間モデルでの中
に残る。正面キー点に対して、段階2)の結果によってZ座標を設定し、X及び
Y座標が段階1)結果に設定される。次いで、正面隣接映像が使用可能であれば、
RBF補間をさらに行って、ステレオ情報から再構成された3次元点を取るもの
として働かせることができる。生成されたモデルに対する幾つかの例示が図62
に示されている。
3.テクスチャの生成
【0163】
顔モデルのための高品質テクスチャを生成することはモデル適合(model fitting)より重要である。その理由は、テクスチャが形状自体よりモデルの視覚的認識にさらに大きい影響を及ぼすためである。正面と側面顔テクスチャはモデルにマッピングされるが、多重解像度を有するスプラインテクスチャ組み合わせ技法(multi−resolution spline txture combination scheme)が使われて相異なる写真を結合するのに使用されている。また、あごまたはあご骨によって隠された首部分及び耳の後部のように写真で隠された部分のために合成テクスチャを生成する。
【0164】
図63は、図5のテクスチャ生成部520の構成を示したブロック図であって、入力映像補償部6300、正面/側面テクスチャ生成部6320及びテクスチャ完成部6340を含んで構成されている。図64は、テクスチャ生成を示したフローチャートである。図63及び図64を参照してテクスチャ生成を説明する。
【0165】
まず、入力映像補償部6300を通じて、入力映像上に色補正を行って相異なる照明条件またはカメラ間の色バランスのズレを色補償する(6400段階)。次に、正面/側面テクスチャ生成部6320で写真上の3次元モデルの極点及び写像された2次元点間の整合に基づいて共通UV平面上に正面及び側面映像を写像して、正面及び側面テクスチャを生成する(6420段階)。それにより、テクスチャ完成部6040を通じて、多重解像度のスプラインアルゴリズムを利用して正面、側面及び人工テクスチャを混合してテクスチャを完成する(6440段階)。これをより詳細に説明すれば、次のようである。
3.1 テクスチャ座標マッピング及びテクスチャの生成
【0166】
相異なる角度から生成されたテクスチャを結合するために、モデル頂点のテクスチャ座標を含む共通UV平面を生成する必要がある。この平面は各点が3次元モデル位置と対応する2次元平面である。平面はを有する正規化された座標空間である。
【0167】
テクスチャ座標空間上にモデル頂点が均等に分布させるためにUV平面は球状マッピングを利用して生成されるが、その理由は人間の顔が球状と類似した形状を有するためである。直接生成された空間は今後、手作業によって補間されてUV平面上の重畳問題を解決する(耳領域で発生されうる)。UV平面は個別的なモデルに対して不変であるので、初期対応関係が設定されれば、これ以上、ユーザーが介入する必要がない。
【0168】
テクスチャされたモデルを生成するために、顔映像をUV平面上にマッピングする必要がある。モデルは映像特徴に合致されるために、モデル頂点及び映像位置間の一致度を求めることができる。したがって、映像座標をUV平面内のテクスチャ座標に容易にマッピングできるが、その理由は、モデル変形過程でこの2つの関係が既に整合されたためである。
【0169】
結果的に、UV平面上で得られるテクスチャはそれぞれ正面及び側面映像として図65及び図66に示される。テクスチャ座標も絵の上に重畳されて示される。
3.3 テクスチャの混合
【0170】
この段階で、UV平面内の正面及び側面テクスチャ映像は耳のための人工皮膚テクスチャと共に混合されて単一映像を生成する。前記映像は3次元モデルの表面にレンダリングされる。UV平面内の各点で、数式10のように混合された映像内でのその点の色が計算できる。
【数10】



【0171】



【0172】
テクスチャ混合の加重値は多重解像度スプラインアルゴリズムを利用して生成される。ガウシアンピラミッド分解(Gaussian pyramid decomposition)に基づいて、公知された映像混合アルゴリズムはにじみまたは映像の劣化なく映像間の軟らかい変化を可能にする。また、あらゆる形状の混合境界を利用することもできる。
3.4 人工皮膚テクスチャ
【0173】
側面映像内の隣接領域の色統計に基づいて、あご及び首領域を満たすために人工テクスチャを生成する。余り登場しない色は捨てられ、このような領域内の各画素に対しクリッピングされた色統計を考慮してその色が選択される。このような過程が行われた以後に、ガウシアン平滑化技法が適用されて不規則なむらを除去する。
【0174】
最終テクスチャが図67に示される。また、数個のテクスチャされたモデルが図55に示される。耳の後面が重畳されたテクスチャにマッピングされないという点に注意する(図68の最後の2個の絵はそれぞれ人工耳テクスチャを使用及び使用していない場合の耳部分を図示する)。
4.ステレオ映像対を利用した3次元復元
【0175】
ほぼ全ての場合に、正面映像または追加的な側面映像だけを利用して3次元復元を行えば、望ましい結果を生成しうる。対象となる映像が初期顔モデルと顕著に差が出る顔形状である場合、このようなアルゴリズムは正常に動作できない。
【0176】
このような場合のために顔モデルを精密に補正するために、ステレオ分析に基づいたモジュールがシステムに統合される。多少相異なる角度で獲得された2個またはそれ以上の顔映像が特殊なステレオ復元アルゴリズムを利用して分析されて顔の可視部分に精密な3次元情報が生成できる。このような目的で獲得されたステレオ対の例示は図69に示されている。
【0177】
図70は、図5の深さ情報生成部540の構成を示したブロック図であって、特徴点検出部7000、マップ獲得部7020及び深さ情報変換部7040を含んで構成されている。図71は、正面及び正面隣接映像から深さ情報を生成する過程を示したフローチャートである。図70及び図71を参照して深さ情報生成を説明する。
【0178】
まず、特徴点検出部7000を通じて、正面映像内の映像特徴点を決定し(7100段階)、前記特徴点に対してモデルに基づいたルーカス・カナダの追跡を行って前記正面隣接映像内の相応する点を探し出す(7110段階)。
【0179】
次いで、ディスパリティ(disparity)獲得部7020を通じて、整合した一致点を利用してデータ補間を行って密集したディスパリティマップを獲得する(7120段階)。最後に、深さ情報変換部7040を通じて、前記ディスパリティマップを深さ情報に変換する(7130段階)。
【0180】
前記ディスパリティマップを深さ情報への変換は、最大ディスパリティ値から最小ディスパリティ値を引いた差分として獲得する。次いで、前記差分を顔幅で除算し、所定の定数値を乗算することによって係数を決定する。その後、前記係数及び測定されたディスパリティ値で最小ディスパリティ値を減算した値を乗算することによって与えられた画素の深度値を獲得する。これをより具体的に説明すれば、次のようである。
4.1 ステレオ映像対からのディスパリティの予測
【0181】
特徴追跡を利用したステレオ整合を説明する。3次元客体復元の主要概念は「ステレオ
整合」である。すなわち、ステレオ映像に存在する同じ点を探し出す過程である。こ
の過程が行われた後で、3次元位置が復元されうる。
【0182】
基本アイディアの単純性にもかかわらず、一般的にステレオ整合は極めて複雑な過程である。多くの相異なる映像に対してステレオマッチングを行う過程で多くの問題点が発生する。その上、ステレオ整合は計算量においても極めて複雑な過程であるが、その理由は完全な整合を行うためにはステレオ映像を通じて全ての可能な一致点を探索して行く過程を行わねばならないためである。
【0183】
しかし、顔モデリングの特定応用例で、次のアイディアを適用して整合結果が獲得できる。ステレオ対(正面及び近接正面)の視野角がそれほど相異なっていないために、ステレオ整合過程をステレオ映像間の対象追跡作業のように処理できるので、特徴追跡アルゴリズムが利用されうる。
【0184】
ほぼ全ての特徴追跡アルゴリズムは第1映像上で選択された個別点の集合に対して動作する。これらの目的は、連続的な映像でこのような点の位置を追跡することである。この場合に、追跡及び整合過程は同じ過程である。完全な点対点のエピポーラ整合(point−by−point epipolar matching)と比較する時、特徴追跡アルゴリズムに副整合が発生されうるが、直交化過程を経る必要はなくなる。全ての点は相互独立的に処理され、全てのエピポーラ構成に適用することができる(したがって、補正されていないカメラにも適用される)。
【0185】
このような理由のために、実施例で特徴追跡を利用してステレオ整合過程を行う。使われる追跡アルゴリズムは次に説明される。
【0186】
A(x,y)及びB(x,y)を2個の2次元階調映像という。第1映像の一点A(px,py)を考慮する。特徴追跡の目的は、A(px,py)及びB(px+vx,py+vy)が類似になるようにする第2映像の点B(px+vx,py+vy)を探し
出すことである。ベクトルv=[vxvy]は映像速度であり、点[px,py]での光流とも呼ばれる。映像速度vを点[px,py]の近辺(2(x+1)×(2(y+1)の残留関数(を最小化するベクトルとして定義する。
【数11】



【0187】
前記のような残留関数を最小化する速度(voptと保存)が次のような標準ルーカス・カナダ方程式を利用して求めることができる。
【数12】



ここで、次の数式が満足される。
【数13】



【数14】



【数15】



【数16】



【0188】
3次元復元作業を行った後で、前記のようなモデル適合アルゴリズム(model fitting Algorithm)を適用して初期モデルを変形させる。
【産業上の利用可能性】
【0189】
本発明によるフォトリアリスティックな3次元の人間顔モデルの自動的な生成技術はコンピュータグラフィック分野で使用可能である。仮想現実空間、コンピュータゲーム、画像会議及びアニメーション製作のような多様な応用分野がフォトリアリスティックな人間顔モデルにより開発されうる。
【図面の簡単な説明】
【0190】
【図1】本発明による映像に基づいたフォトリアリスティックな3次元の顔モデリング方法を示したフローチャートである。
【図2】モデル生成作業をより具体的に写真と共に示した図である。
【図3】初期顔モデルの正面図及び側面図を示す図面である。
【図4】典型的な入力映像を示す正面映像、正面隣接映像及び側面映像を示す図である。
【図5】本発明による映像に基づいたフォトリアリスティックな3次元の顔モデリング装置の構成をブロック図で示した図である。
【図6】顔特徴検出部の細部構成を示した図である。
【図7】正面顔の特徴検出部の細部構成を示した図である。
【図8】正面顔特徴検出をより詳細に示したフローチャートである。
【図9】正面顔特徴検出をより詳細に示したフローチャートである。
【図10】皮膚領域映像及び顔領域検出の例示である(さらに小さな楕円が初期領域であり、さらに大きい楕円が検出された結果)。
【図11】皮膚領域映像及び顔領域検出の他の例示を示す図面である。
【図12A】顔領域検出部の細部構成を示したブロック図である。
【図12B】顔領域検出を示したフローチャートである。
【図13】顔領域検出法の楕円モデルを示す図面である。
【図14A】目の境界ボックス検出部の構成を示したブロック図である。
【図14B】目の境界ボックス検出を示したフローチャートである。
【図15】目の典型的バリエーション映像の例示を示す図面である。
【図16】目の典型的バリエーション映像の他の例示を示す図面である。
【図17】目の境界ボックス検出の結果を示す図面である。
【図18A】虹彩検出部の構成を示したブロック図である。
【図18B】虹彩の中心及び半径検出を示したフローチャートである。
【図19】検出された虹彩の例示を示す図面である。
【図20】目の外郭線の検出で近似化を示したフローチャートである。
【図21】目領域の水平方向への赤色チャンネル強度値を示す図面である(目の外郭線の検出のために使われる)。
【図22】目の外郭線の検出のために検出された点及び近似した目の外郭線を示す図面である。
【図23】垂直眉位置の検出を示す図面である。
【図24】眉境界ボックスを示す図面である。
【図25】検出された眉を示す図面である。
【図26】上部及び下部唇の検出を示したフローチャートである。
【図27】唇の方形を反復的に精巧に整える過程を示す図面である。
【図28】初期化された唇点を唇関数映像上で示した図面である。
【図29】唇の外郭線点に適用される力を示す図面である。
【図30】唇の外郭線変形の一段階を示す図面である。
【図31】鼻の外郭線の検出段階での鼻側面検出を示したフローチャートである。
【図32】鼻側面テンプレートを示す図面である。
【図33】映像で検出された鼻側面候補を示す図面である。
【図34】鼻曲線の主要特徴点の配置を示す図面である。
【図35】検出された鼻曲線を示す図面である。
【図36A】図7のあご及び頬の外郭線検出部の構成を示したブロック図である。
【図36B】あご及び頬の外郭線検出を示したフローチャートである。
【図37】あご及び頬変形モデルを示す図面である。
【図38】あごモデル近似過程を示す図面である。
【図39】正面映像でのあらゆる検出された特徴を示す図面である。
【図40】側面顔の特徴検出部のより詳細なる構成を示したブロック図である。
【図41】側面顔の特徴検出を示したフローチャートである。
【図42】側面顔領域の検出が失敗した場合を示す図面である(皮膚及び鼻の分離)。
【図43】側面顔領域の検出が失敗した場合を示すさらに他の図面である(鼻領域が不完全)。
【図44】側面顔領域の検出が失敗した場合を示すさらに他の図面である(皮膚領域が不完全)。
【図45】典型的な側面関数を示す図面である。
【図46】鼻ブリッジ上端及び鼻下部点の検出を示す図面である。
【図47】あご及び首基準点を検出することを示す図面である。
【図48】唇基準点を予測することを示す図面である。
【図49】自動的に検出された側面特徴の結果(耳を含まない)を示す図面である。
【図50】耳の外郭線の検出をフローチャートで示した図である。
【図51】耳初期化を示したフローチャートである。
【図52】側面耳検出のための曲線テンプレートを示す図面である。
【図53】耳検出の初期化(正規化された映像、校正点及び検索領域)を示す図面である。
【図54】耳領域近くの顔領域で皮膚と髪の毛領域の境界を示す図面である。
【図55】色情報を利用した耳初期化結果を示す図面である(赤色セグメントが耳テンプレートと整合する)。
【図56】色情報だけを利用して側面耳検出に失敗した場合、耳のエッジ情報を利用した耳初期化結果を示す図面である。
【図57】側面耳検出結果を示す図面である。
【図58】モデル変形のための入力顔の特徴曲線を示す図面である。
【図59】図5の顔モデル変形部の構成を示したブロック図である。
【図60】顔モデル変形部での初期モデル変形を示したフローチャートである。
【図61】正面顔の特徴曲線で抽出された主要点を示す図面である。
【図62】初期(上部行)及び変形された(下部行)顔モデルを示す図面である。
【図63】図5のテクスチャ生成部の構成を示したブロック図である。
【図64】テクスチャ生成を示したフローチャートである。
【図65】UV平面上の正面テクスチャ映像を示す図面である。
【図66】UV平面上の側面テクスチャ映像を示す図面である。
【図67】入力映像と合成テックスから得られた最終テクスチャを示す図面である。
【図68】テクスチャされたモデルと合成耳テクスチャとを利用して向上した結果を示す図面である。
【図69】顔映像のステレオ対の例示を示す図面である。
【図70】図5の深さ情報生成部の構成を示したブロック図である。
【図71】正面及び正面隣接映像から深さ情報を生成する過程を示したフローチャートである。

【特許請求の範囲】
【請求項1】
多角形メッシュモデルによって表現される3次元のフォトリアリスティックな顔モデル生成方法において、
(a)入力映像(image)の正面及び側面顔映像内の顔特徴を検出する段階と、
(b)前記検出された顔特徴を利用して初期モデルを変形させて3次元の顔モデルを生成する段階と、
(c)入力映像からフォトリアリスティックなテクスチャ(texture)を生成する段階と、
(d)前記テクスチャを前記3次元モデル上にマッピングする段階と、を含むことを特徴とする3次元顔モデル生成方法。
【請求項2】
前記(b)段階は、
正面及び正面隣接画像から顔深さ情報を生成する段階をさらに具備し、
特定顔の3次元形状を決定するために、前記顔特徴を利用して初期モデルを変形させ、前記顔深さ情報を利用して前記変形された3次元顔モデルを整合させることを特徴とする請求項1に記載の3次元顔モデル生成方法。
【請求項3】
前記(c)段階のテクスチャは、
人工テクスチャを共に使用する段階をさらに具備することを特徴とする請求項1に記載の3次元顔モデル生成方法。
【請求項4】
前記(a)段階の正面顔特徴検出は、
皮膚領域を検出する段階と、
顔領域を検出する段階と、
目の境界ボックスを検出する段階と、
虹彩を検出する段階と、
正面顔映像を正規化する段階と、を含むことを特徴とする請求項1に記載の3次元顔モデル生成方法。
【請求項5】
前記(a)段階の正面顔特徴検出は、
目の外郭線を検出する段階と、
眉を検出する段階と、
唇の外郭線を検出する段階と、
鼻の外郭線を検出する段階と、
あご及び頬の外郭線を検出する段階のうち少なくとも1つを含むことを特徴とする請求項1に記載の3次元顔モデル生成方法。
【請求項6】
前記皮膚領域検出は、
映像画素をr−g色空間内の皮膚または非皮膚画素に分類する事前訓練された最大確率ベイジアン分類器(maximum likelihood Bayesian classifier)によって行われることを特徴とする請求項4に記載の3次元顔モデル生成方法。
【請求項7】
前記顔領域検出は、
(1)皮膚色を帯びた連結構成要素のうち最大要素を顔領域に初期化する段階と、
(2)前記初期化された顔領域に基づいて楕円の境界点を楕円が安定化されるまで移動させて楕円を初期化及び変形させる段階と、
(3)前記安定化された楕円の境界の方形を顔領域と決定する段階と、を含むことを特徴とする請求項4に記載の3次元顔モデル生成方法。
【請求項8】
前記(1)段階は、
2個の最大構成要素が類似したサイズを有する場合、映像中心にさらに近いことを選択する段階であることを特徴とする請求項7に記載の3次元顔モデル生成方法。
【請求項9】
前記(2)段階は、
前記初期化された顔領域に基づいて楕円境界点の中心に位置した方形プローブを定義する段階と、
プローブ及び楕円内部に位置する皮膚画素数を計算する段階と、
前記計算された皮膚画素数が所定の閾値より小さければ、前記境界点を所定の距離ほど内部に移動させる段階と、
前記計算された皮膚画素数が所定の閾値より小さくなければ、プローブと外部楕円に位置した皮膚画素数を計算する段階と、
計算値が所定の閾値より大きければ、前記境界点を所定の距離ほど外部に移動させて楕円を初期化及び変形させる段階と、を含むことを特徴とする請求項7に記載の3次元顔モデル生成方法。
【請求項10】
前記目の境界ボックス検出は、
低域通過フィルタリングを通じてボケた映像を生成する段階と、
元の映像から前記ボケた映像を引いた映像を獲得する段階と、
前記獲得された映像の各画素でそれ自体と周辺画素との平均値を求めて新しい映像を生成し、所定の閾値を利用して前記新しい映像をニ値化する段階と、
連結されたセグメントを目候補として探し出す段階と、
形状、サイズ及び相対的な位置基準で前記候補を評価して目の境界ボックスを決定する段階と、を含むことを特徴とする請求項4に記載の3次元顔モデル生成方法。
【請求項11】
前記虹彩検出段階の虹彩検出は、
赤色チャンネル映像内の目の境界ボックスの内部で虹彩を検出することを特徴とする請求項4に記載の3次元顔モデル生成方法。
【請求項12】
前記虹彩の中心及び半径検出は、
前記目の境界ボックス内の赤色チャンネル映像の最大輝度値を有する画素数を閾値と比較することによってハイライトの存在を評価する段階と、
ハイライトが発見されなければ、最も暗い画素の質量重心点を虹彩中心に初期化する段階と、
ハイライトが存在する場合、ハイライト周囲のハイコントラスト領域の中心点を虹彩中心に初期化する段階と、
虹彩中心に位置した初期円を拡張し、円上の画素の傾斜度のサイズを測定する段階と、
前記初期虹彩円を拡張し、円上の画素の傾斜度のサイズを測定する作業を繰り返す段階と、
最大測定値を有する虹彩中心及び虹彩半径の位置を最終結果として選択する段階と、を含むことを特徴とする請求項11に記載の3次元顔モデル生成方法。
【請求項13】
前記正面顔映像正規化段階は、
虹彩中心間の線が水平になるように回転し、所定の映像解像度に変換して正規化することを特徴とする請求項4に記載の3次元顔モデル生成方法。
【請求項14】
目の外郭線の検出段階は、
目の外郭線は上部の目の外郭線及び下部の目の外郭線それぞれのための2つの多項式曲線によって近似化され、前記近似化は、
虹彩中心及び半径によって検索領域をあらかじめ決定する段階と、
前記検索領域内部の赤色チャンネル映像内の垂直位置の各水平スキャンラインに対して、局所的最小値または輝度が急変する画素として左側及び右側まぶた点を選択する段階と、
検出されたまぶた点のうち、最も左側及び右側に位置した点を目のコーナーとして選択する段階と、
前記目のコーナーを連結する線分の上部にある点を利用して最小自乗法を利用して上部目の外郭線曲線を推定する段階と、
検出された目のコーナー及び虹彩の下部点を利用して下部目の外郭線曲線を推定する段階と、を含むことを特徴とする請求項5に記載の3次元顔モデル生成方法。
【請求項15】
前記眉検出段階は、
多項式曲線によって近似させて眉を検出し、
前記多項式曲線は前記目の境界ボックス上部の所定の領域内で適応的ニ値化を行った以後に暗い画素を近似化することを特徴とする請求項5に記載の3次元顔モデル生成方法。
【請求項16】
前記唇の外郭線の検出段階は、
上部及び下部唇検出よりなり、
前記上部及び下部唇検出は、
口の方形を初期化する段階と、
非皮膚色画素の1次及び2次モーメントを利用して初期方形をより精密な境界ボックスに縮少させる段階と、
唇関数映像を構成して、精製された境界ボックス内の画素を利用して画素が唇または皮膚に属する確率を測定する段階と、
高い唇関数値を有する画素の2次中心モーメントを測定することによって楕円で唇の外郭線を初期化する段階と、
外力及び内力によって唇の外郭線を動的に移動させる段階と、
前記移動結果点に多項式を近似させて曲線表現式を生成する段階と、を行ってなされることを特徴とする請求項5に記載の3次元顔モデル生成方法。
【請求項17】
前記外力は、
唇と皮膚との境界地点に境界点を移動させる力であり、
前記内力は内部形状力及び内部平滑化力よりなり、
前記内部形状力は外郭線形状を楕円に近くする力であり、
前記内部平滑化力は前記境界の外部に外れすぎる単一点を抑制する力を含む所定の因子によって決定されることを特徴とする請求項16に記載の3次元顔モデル生成方法。
【請求項18】
前記鼻の外郭線の検出段階は、
鼻側面検出を含み、前記鼻側面検出は、
所定の検索領域内のエッジ映像上で所定の形状のテンプレートを整合した段階と、
大きい整合値を有する検出された候補のうち対称条件を満足する対を選択して鼻翼面位置として決定する段階と、
各鼻側面を多項式曲線によって表現するが、前記曲線は検出された鼻翼面テンプレート及び所定の係数で鼻翼面及び目のコーナー間に補間された3点に合致される段階と、を行ってなることを特徴とする請求項5に記載の3次元顔モデル生成方法。
【請求項19】
あご及び頬の外郭線の検出段階は、
赤色チャンネル映像上の傾斜度ベクトル場を計算する段階と、
あご下部点で連結される2個の多項式曲線で構成された顔領域内に初期外郭線テンプレートを位置させる段階と、
曲線の接線方向に合致する強いエッジに接するまであご及び頬の外郭線を外部に拡張する段階と、
前記あご及び頬の外郭線が接線方向に合致する強いエッジに接すれば、前記あご及び頬の外郭線の拡張を中止する段階と、を含むことを特徴とする請求項5に記載の3次元顔モデル生成方法。
【請求項20】
前記(a)段階の側面顔の特徴検出は、
顔領域を検出する段階と、
側面曲線を検出する段階と、
基準点を検出する段階と、
耳の外郭線を検出する段階と、を含むことを特徴とする請求項1に記載の3次元顔モデル生成方法。
【請求項21】
前記顔領域検出段階は、
画素を皮膚及び非皮膚画素に分類する段階と、
最大皮膚色の連結成分として前記顔領域を選択する段階と、を含むことを特徴とする請求項20に記載の3次元顔モデル生成方法。
【請求項22】
前記顔領域選択段階は、
最も大きい2つの成分が類似したサイズを有した場合、映像中心により近いものを前記顔領域として選択する段階であることを特徴とする請求項21に記載の3次元顔モデル生成方法。
【請求項23】
前記側面曲線を検出する段階は、
正面映像から類推された特定境界ボックス内の最右側の顔領域の境界外郭線を側面曲線として検出することを特徴とする請求項20に記載の3次元顔モデル生成方法。
【請求項24】
前記耳の外郭線の検出は、
曲線テンプレートを側面映像と整合して耳位置を初期化する段階と、
初期化された耳テンプレートを外郭線追跡アルゴリズムに変形させて正確な耳境界を探し出す段階と、を含むことを特徴とする請求項20に記載の3次元顔モデル生成方法。
【請求項25】
前記耳初期化は、
元の映像を回転させて鼻ブリッジ上端からあご点までの線分を厳格に垂直にし、前記線分セグメントの長さが所定値になるようにスケーリングする段階と、
耳のための検索領域を定義する段階と、
検索領域内の顔領域と髪の毛領域境界とを曲線テンプレートと整合して、2個の曲線が合致される部分曲線と定義されるセグメントを探し出す段階と、
もし整合したセグメントの長さが所定の閾値より小さい場合、エッジ検出器で検出したエッジと耳テンプレートを整合で類似した形状を有するセグメントを検出する段階と、
テンプレートセグメントから整合した映像点への変換ベクトルを最小自乗アルゴリズムを利用して計算する段階と、を含むことを特徴とする請求項20に記載の3次元顔モデル生成方法。
【請求項26】
前記正面及び正面隣接映像から深さ情報を生成する段階は、
正面映像内の映像特徴点を決定する段階と、
特徴点に対してモデルに基づいたルーカス・カナダ追跡を行って前記正面隣接映像内の相応する点を探し出す段階と、
整合した一致点を利用してデータ補間を行って稠密なディスパリティマップを獲得する段階と、
前記ディスパリティマップを深さ情報に変換する段階と、を含むことを特徴とする請求項2に記載の3次元顔モデル生成方法。
【請求項27】
前記ディスパリティマップを深さ情報に変換する段階は、
最大ディスパリティ値から最小ディスパリティ値を引いた差分として獲得する段階と、
前記差分を顔幅で除算し、所定の定数値を乗算することによって係数を決定する段階と、
前記係数及び測定されたディスパリティ値で最小ディスパリティ値を減算した値を乗算することによって与えられた画素の深度値を獲得する段階と、を含むことを特徴とする請求項26に記載の3次元顔モデル生成方法。
【請求項28】
前記(b)段階の初期モデル変形は、
3次元初期顔モデルの顔特徴曲線上の特徴点の長さ比を利用して、映像で検出された特徴曲線を初期顔内で定義される特徴に相応する2次元点に変換する段階と、
前記映像特徴及び前記初期3次元メッシュモデル特徴点間の一致性を利用して、3段階RBF(Radial Basis Function)基盤のモーフィング作業(morphing)を行って前記3次元顔メッシュモデルを変形する段階と、を含むことを特徴とする請求項1に記載の3次元顔モデル生成方法。
【請求項29】
前記3段階RBF基盤のモーフィング作業は、
モデル特徴点のX及びY座標をそれらの相応するイメージ特徴点に設定し、Z座標は初期メッシュ内に残すことによって正面特徴のRBF補間を適用する段階と、
側面特徴を考慮して側面映像のスケールを調節し、X座標が初期モデルでその位置に残っている間、側面特徴をRBF補間に対する入力として使用する段階と、
前記Z座標を利用して正面と側面特徴に対してRBF補間を遂行する段階と、を含むことを特徴とする請求項28に記載の3次元顔モデル生成方法。
【請求項30】
深さ情報復旧過程で獲得された3次元点は、
初期モデルの頂点が深さ情報から取得されたそれらの3次元地点に移動するようにRBFに基づいたモーフィングを行うことを特徴とする請求項29に記載の3次元顔モデル生成方法。
【請求項31】
前記(c)段階は、
入力映像に色補正を行って相異なる照明条件またはカメラ間の色バランスのズレを色補償する段階と、
写真上の3次元モデル極点及び写像された2次元点間の整合に基づいて共通UV平面(public UV plane)上に正面及び側面映像を写像して、正面及び側面テクスチャを生成する段階と、
多重解像度のスプラインアルゴリズム(spline aogorithm)を利用して正面、側面及び人工テクスチャを混合してテクスチャを完成する段階と、を含むことを特徴とする請求項1に記載の3次元顔モデル生成方法。
【請求項32】
描写された多角形メッシュモデルによって表現される3次元のフォトリアリスティックな顔モデル生成装置において、
入力映像の正面及び側面顔映像の顔特徴を検出する顔特徴検出部と、
前記検出された顔特徴を利用して所定の初期モデルを変形させて3次元の顔モデルを生成する顔モデル変形部と、
入力映像からフォトリアリスティックなテクスチャを生成するテクスチャ生成部と、
前記テクスチャを前記顔モデル変形部で生成された3次元の顔モデルにマッピングするマッピング部と、を含むことを特徴とする3次元顔モデル生成装置。
【請求項33】
前記顔モデル変形部は、
正面及び正面隣接映像から顔深さ情報を抽出する深さ情報生成部をさらに具備し、
前記顔特徴検出部で検出された顔特徴と前記深さ情報生成部で生成した顔深さ情報とを利用して所定の初期モデルを変形させて3次元の顔モデルを生成することを特徴とする請求項32に記載の3次元顔モデル生成装置。
【請求項34】
前記テクスチャ生成部のテクスチャは、
人工テクスチャを共に使用する機能をさらに具備することを特徴とする請求項32に記載の3次元顔モデル生成装置。
【請求項35】
前記顔特徴検出部は、
正面顔の特徴を検出する正面顔の特徴検出部と、
側面顔の特徴を検出する側面顔の特徴検出部と、を含むことを特徴とする請求項32に記載の3次元顔モデル生成装置。
【請求項36】
前記正面顔の特徴検出部は、
皮膚領域を検出する皮膚領域検出部と、
顔領域を検出する顔領域検出部と、
目の境界ボックスを検出する目の境界ボックス検出部と、
虹彩を検出する虹彩検出部と、
正面顔映像を正規化する正面顔正規化部と、を含むことを特徴とする請求項35に記載の3次元顔モデル生成装置。
【請求項37】
前記皮膚領域検出部は、
映像画素をr−g色空間内の皮膚または非皮膚画素に分類する事前訓練された最大確率ベイジアン分類器によって行われることを特徴とする請求項36に記載の3次元顔モデル生成装置。
【請求項38】
前記顔領域検出部は、
皮膚色を帯びた連結構成要素のうち最大要素を顔領域に初期化する顔領域初期化部と、
前記初期化された顔領域に基づいて楕円の境界点を楕円が安定化されるまで移動させて楕円を初期化及び変形させる楕円安定化部と、
前記安定化された楕円の境界方形を顔領域と決定する顔領域決定部と、を含むことを特徴とする請求項36に記載の3次元顔モデル生成装置。
【請求項39】
前記目の境界ボックス検出部は、
低域通過フィルタリングを通じてボケた映像を生成するにじむ映像生成部と、
元の映像で前記ボケた映像を引いた映像の各画素で自分と周辺画素との平均値を求めて新しい映像を生成し、所定の閾値を利用して前記新しい映像をニ値化する映像ニ値化部と、
前記映像ニ値化部でニ値化された映像で連結されたセグメントを目候補として探し出す目候補検索部と、
前記目候補検索部で捜し出した目候補を形状、サイズ及び相対的位置基準で評価して目の境界ボックスを決定する目の境界ボックス決定部と、を含むことを特徴とする請求項36に記載の3次元顔モデル生成装置。
【請求項40】
前記虹彩検出部の虹彩検出は、
赤色チャンネル映像内の目の境界ボックス内部で虹彩を検出することを特徴とする請求項36に記載の3次元顔モデル生成装置。
【請求項41】
前記虹彩検出部は、
前記目の境界ボックス内の赤色チャンネル映像の最大輝度値を有する画素数を閾値と比較することによって、ハイライトの存在を評価するハイライト探索部と、
ハイライトが存在しなければ、最も暗い画素の質量重心点を虹彩中心に初期化し、ハイライトが存在すれば、ハイライト周囲のハイコントラスト領域の中心点を虹彩中心に初期化する虹彩初期化部と、
虹彩中心に位置した初期円を拡張しながら円上の画素の傾斜度のサイズを測定するが、前記初期虹彩中心周囲の隣接画素に対して測定作業を繰り返す虹彩中心/半径測定部と、
最大測定値を有する虹彩中心及び半径を虹彩中心及び虹彩半径と決定する虹彩決定部と、を具備することを特徴とする請求項40に記載の3次元顔モデル生成装置。
【請求項42】
前記正面顔映像正規化部は、
虹彩中心間の線が水平になるように回転し、所定の映像解像度に変換して正規化することを特徴とする請求項36に記載の3次元顔モデル生成装置。
【請求項43】
前記正面顔の特徴検出部は、目の外郭線を検出する目の外郭線の検出部と、眉を検出する眉検出部と、唇の外郭線を検出する唇の外郭線検出部と、鼻の外郭線を検出する鼻の外郭線検出部と、あご及び頬の外郭線を検出するあご及び頬の外郭線検出部のうち少なくとも1つをさらに具備することを特徴とする請求項35に記載の3次元顔モデル生成装置。
【請求項44】
目の外郭線の検出部は、
目の外郭線は上部目の外郭線及び下部目の外郭線それぞれのための2つの多項式曲線によって近似化されることを特徴とし、
前記近似化は、
虹彩中心及び半径によって検索領域をあらかじめ決定する手段と、
前記検索領域内部の赤色チャンネル映像内の垂直位置の各水平スキャンラインに対して、局所的最小値または輝度が急変する画素として左側及び右側まぶた点を選択する手段と、
検出されたまぶた点のうち、最も左側及び右側に位置した点を目のコーナーとして選択する手段と、
前記目のコーナーを連結する線分の上部にある点を利用して最小自乗法を利用して上部目の外郭線曲線を推定する手段と、
検出された目のコーナー及び虹彩の下部点を利用して下部目の外郭線曲線を推定する手段と、を含む請求項43に記載の3次元顔モデル生成装置。
【請求項45】
前記眉検出部は、
多項式曲線によって近似させて眉を検出し、
前記多項式曲線は前記目の境界ボックス上部の所定の領域内で適応的ニ値化を行った以後に暗い画素を近似化することを特徴とする請求項43に記載の3次元顔モデル生成装置。
【請求項46】
前記唇の外郭線検出部は、
上部及び下部唇を検出し、前記上部及び下部唇検出は、
口の方形を初期化する手段と、
非皮膚色画素の1次及び2次モーメントを利用して初期方形をより精密な境界ボックスに縮少させる手段と、
唇関数映像を構成して、生成された境界ボックス内の画素を利用して画素が唇または皮膚に属する確率を測定する手段と、
高い唇関数値を有する画素の2次中心モーメントを測定することによって楕円で唇の外郭線を初期化する手段と、
外力及び内力によって唇の外郭線を動的に移動させる手段と、
前記移動結果点に多項式を近似させて曲線表現式を生成する手段と、を行ってなることを特徴とする請求項43に記載の3次元顔モデル生成装置。
【請求項47】
前記鼻の外郭線検出部は、
鼻側面検出を含み、前記鼻側面検出は、
所定の検索領域内のエッジ映像上で所定の形状のテンプレートを整合した手段と、
大きい整合値を有する検出された候補のうち対称条件を満足する対を選択して鼻翼面位置として決定する手段と、
各鼻側面を多項式曲線によって表現するが、前記曲線は検出された鼻翼面テンプレート及び所定の係数で鼻翼面及び目のコーナー間に補間された3点に合致される手段と、を行ってなることを特徴とする請求項43に記載の3次元顔モデル生成装置。
【請求項48】
あご及び頬の外郭線検出部は、
赤色チャンネル映像上の傾斜度ベクトル場を計算する傾斜度計算部と、
あご下部点で連結される2個の多項式曲線で構成された顔領域内に初期外郭線テンプレートを位置させ、曲線の接線に合致する強いエッジに接するまであご及び頬の外郭線を外部に拡張するあご及び頬の外郭線拡張部と、
前記あご及び頬の外郭線が接線方向に合致する強いエッジに接するようになれば、前記あご及び頬の外郭線拡張を中止してその結果をあご及び頬の外郭線と決定するあご及び頬の外郭線決定部と、を含むことを特徴とする請求項43に記載の3次元顔モデル生成装置。
【請求項49】
前記側面顔の特徴検出部は、
側面顔領域を検出する側面顔領域検出部と、
側面曲線を検出する側面曲線検出部と、
基準点を検出する基準点検出部と、
耳の外郭線を検出する耳の外郭線の検出部と、を含むことを特徴とする請求項36に記載の3次元顔モデル生成装置。
【請求項50】
前記側面顔領域検出部は、
画素を皮膚及び非皮膚画素に分類する皮膚画素分類部と、
最大皮膚色の連結成分を側面顔領域として選択する側面顔領域選択部と、を含むことを特徴とする請求項49に記載の3次元顔モデル生成装置。
【請求項51】
前記側面曲線検出部は、
正面映像から類推された特定境界ボックス内の最右側顔領域の境界外郭線を側面曲線として検出することを特徴とする請求項49に記載の3次元顔モデル生成装置。
【請求項52】
前記耳の外郭線の検出部は、
曲線テンプレートを側面映像と整合して耳位置を初期化する耳位置初期化部と、
初期化された耳テンプレートを外郭線追跡アルゴリズムに変形させて正確な耳境界を探し出す耳境界検出部と、を含むことを特徴とする請求項49に記載の3次元顔モデル生成装置。
【請求項53】
深さ情報生成部は、
正面映像内の映像特徴点を決定して前記正面隣接映像内で前記特徴点に相応する点を探し出す特徴点検出部と、
整合した一致点を利用してデータ補間を行って稠密なディスパリティマップを獲得するマップ獲得部と、
前記ディスパリティマップを深さ情報に変換する深さ情報変換部と、を含むことを特徴とする請求項33に記載の3次元顔モデル生成装置。
【請求項54】
前記顔モデル変形部は、
3次元初期顔モデルの顔特徴曲線上の特徴点の長さ比を利用して、映像で検出された特徴曲線を初期顔(3D generic head)内で定義される特徴に相応する2次元点に変換する2次元点変換部と、
前記映像特徴及び前記初期3次元メッシュモデル特徴点間の一致性を利用して、3段階RBF基盤のモーフィング作業を行って前記3次元顔メッシュモデルを変形する顔メッシュモデル変形部と、を含むことを特徴とする請求項32に記載の3次元顔モデル生成装置。
【請求項55】
前記テクスチャ生成部は、
入力映像上に色補正を行って相異なる照明条件またはカメラ間の色バランスのズレを色補償する入力映像補償部と、
写真上の3次元モデル極点及び写像された2次元点間の整合に基づいて共通UV平面上に正面及び側面映像を写像して、正面及び側面テクスチャを生成する正面/側面テクスチャ生成部と、
多重解像度のスプラインアルゴリズムを利用して正面、側面及び人工テクスチャを混合してテクスチャを完成するテクスチャ完成部と、を含むことを特徴とする請求項32に記載の3次元顔モデル生成装置。
【請求項56】
請求項1ないし請求項31のうち何れか1項に記載の発明をコンピュータで実行させるためのコンピュータプログラムを記録したコンピュータ可読記録媒体。

【図1】
image rotate



【図5】
image rotate



【図6】
image rotate



【図7】
image rotate



【図8】
image rotate



【図9】
image rotate



【図12A】
image rotate



【図12B】
image rotate



【図13】
image rotate



【図14A】
image rotate



【図14B】
image rotate



【図15】
image rotate



【図18A】
image rotate



【図18B】
image rotate



【図20】
image rotate



【図21】
image rotate



【図26】
image rotate



【図29】
image rotate



【図31】
image rotate



【図36A】
image rotate



【図36B】
image rotate



【図37】
image rotate



【図40】
image rotate



【図41】
image rotate



【図50】
image rotate



【図51】
image rotate



【図59】
image rotate



【図60】
image rotate



【図63】
image rotate



【図64】
image rotate



【図70】
image rotate



【図71】
image rotate



【図2】
image rotate



【図3】
image rotate



【図4】
image rotate



【図10】
image rotate



【図11】
image rotate



【図16】
image rotate



【図17】
image rotate



【図19】
image rotate



【図22】
image rotate



【図23】
image rotate



【図24】
image rotate



【図25】
image rotate



【図27】
image rotate



【図28】
image rotate



【図30】
image rotate



【図32】
image rotate



【図33】
image rotate



【図34】
image rotate



【図35】
image rotate



【図38】
image rotate



【図39】
image rotate



【図42】
image rotate



【図43】
image rotate



【図44】
image rotate



【図45】
image rotate



【図46】
image rotate



【図47】
image rotate



【図48】
image rotate



【図49】
image rotate



【図52】
image rotate



【図53】
image rotate



【図54】
image rotate



【図55】
image rotate



【図56】
image rotate



【図57】
image rotate



【図58】
image rotate



【図61】
image rotate



【図62】
image rotate



【図65】
image rotate



【図66】
image rotate



【図67】
image rotate



【図68】
image rotate



【図69】
image rotate


【公開番号】特開2005−78646(P2005−78646A)
【公開日】平成17年3月24日(2005.3.24)
【国際特許分類】
【出願番号】特願2004−251160(P2004−251160)
【出願日】平成16年8月30日(2004.8.30)
【出願人】(390019839)三星電子株式会社 (8,520)
【Fターム(参考)】