説明

仮想顔モデル変形装置及び仮想顔モデル変形プログラム

【課題】効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得する。
【解決手段】撮影された被写体の顔の表情に対応させて仮想顔モデルの表情を変形させる仮想顔モデル変形装置において、前記被写体の顔から予め設定された複数の特徴点の位置情報を入力する入力部と、予め蓄積される複数の学習用の顔画像から得られた表情の変形データを用いて、前記入力部により入力された複数の特徴点の位置情報に対応する変形データを推定する変形推定部と、前記変形推定部により推定された変形データを予め設定される複数の仮想顔モデルの集合から選択された仮想顔モデルと組み合わせて仮想顔モデルの表情を変形させる変形部とを有することにより、上記課題を解決する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、仮想顔モデル変形装置及び仮想顔モデル変形プログラムに係り、特に効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得するための仮想顔モデル変形装置及び仮想顔モデル変形プログラムに関する。
【背景技術】
【0002】
従来、コンピュータグラフィックス(CG)やコンピュータアニメーション等の業界では、三次元のコンピュータモデルが頻繁に使用されている。多くの三次元CGモデル(仮想3次元モデル)は、物体(人物も含む)の表面形状を「メッシュ」(多角形の立体的な網)により記述し、輝度・色等の表面の見える部分を「テクスチャ」という画像情報により記述する。
【0003】
また、従来のCGソフトウェアを用いて三次元モデルをレンダリングすると、「メッシュ」の見える部分に「テクスチャ」を貼り付けることで、ほぼ任意の照明条件下で任意の角度から見た物体の見え方を静止画又は動画(アニメーション)として再現することができる。
【0004】
しかしながら、CGモデルでは、表情を演じる人物の顔を自然に見えるように再現することが難しく、また、顔の表情に伴う動き(動的変形)は特に自然に再現しにくいといった問題がある。
【0005】
そこで、静止画や動画に三次元CGモデルを用いてCGキャラクタの表情を制作する場合、目的の表情に相当する顔形状メッシュを幾つかの基底表情(無表情を含む)に相当するメッシュの線形組み合わせ(「ブレンド・シェイプ、blend shape」)として近似する手法が使用されている。また、無表情から目的の表情(満表情)まで動的に変動していく動画シーケンスを制作する場合には、各フレーム毎に同一の基底表情のブレンド・シェイプとして近似する手法がよく使用されている。
【0006】
ここで、ブレンド・シェイプとは、ベースとなる表情と、その表情と異なる複数の表情のオブジェクトを用意し、ベースに対して所定の度合いで混合することにより表情を生成する手法である。
【0007】
また、CGソフトウェアにより再現された顔表情の自然性を向上させるために、表情を演じた出演者(被写体)の顔をカメラ等により撮影して得られる静止画又は動画から、表情に伴った顔の変形を学習し、CGモデルに移行してCGキャラクタで表情を再現する手法が研究されている(例えば、非特許文献1、2参照。)。
【非特許文献1】Raouzaiouら、Parameterized Facial Expression Synthesis Based on MPEG−4、EURASIP Journal on Applied Signal Processing 10,1021−1038,2002.
【非特許文献2】Zhangら、Geometry−Driven Photorealistic Facial Expression Synthesis、IEEE Transactions on Visualization and Computer Graphics,vol.12,no.1,48−60,2006.
【発明の開示】
【発明が解決しようとする課題】
【0008】
ところで、上述したように出演者等の被写体が顔で演じた表情を三次元CGモデルで近似して自然に再現するためには、予め出演者毎に顔における多数の特徴点の位置や動きを自動的に抽出しなければならない。一方、手動で出演者の多数の特徴点の位置を指定するには手間がかかり、リアルタイムでの動作は不可能となる。
【0009】
ここで、上述した非特許文献1に示されている手法では、多数の特徴点の位置と動きから顔の三次元モデルを変形させて表情を再現する場合に、モデルを変形させるためのパラメータを作業者等が手動で調整している。また、非特許文献2に示されている手法でも、多数の特徴点を作業者等が手動で調整し、モデルの表情を生成するシステムについて開示されている。したがって、何れも作業者の手間がかかると共に、作業者の設定次第で精度が異なるため、高精度な結果を得ることができない。
【0010】
また、上述したように、動的に変動していく顔の表情を近似する場合には、各フレーム毎に、固定した幾つかの基底表情メッシュのブレンド・シェイプを合成する手法を用いる。その結果、フレーム毎にブレンド・シェイプ組み合わせの係数が変わるが、全フレームでの近似は同一基底表情の組み合わせとなってしまうため、高精度な表現を再現することができない。
【0011】
本発明は、上述した問題点に鑑みなされたものであり、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得するための仮想顔モデル変形装置及び仮想顔モデル変形プログラムを提供することを目的とする。
【課題を解決するための手段】
【0012】
上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。
【0013】
請求項1に記載された発明は、撮影された被写体の顔の表情に対応させて仮想顔モデルの表情を変形させる仮想顔モデル変形装置において、前記被写体の顔から予め設定された複数の特徴点の位置情報を入力する入力部と、予め蓄積される複数の学習用の顔画像から得られた表情の変形データを用いて、前記入力部により入力された複数の特徴点の位置情報に対応する変形データを推定する変形推定部と、前記変形推定部により推定された変形データを予め設定される複数の仮想顔モデルの集合から選択された仮想顔モデルと組み合わせて仮想顔モデルの表情を変形させる変形部とを有することを特徴とする。
【0014】
請求項1記載の発明によれば、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得することができる。
【0015】
請求項2に記載された発明は、前記変形推定部は、予め設定される複数のモデルの複数の表情に対応した基底メッシュ変形データを有する変形データベースを用いて前記位置情報に近似する変形データを推定することを特徴とする。
【0016】
請求項2記載の発明によれば、メッシュの頂点を基準にして、変形データを推定することができ、この変形データを用いて被写体の表情に対応した仮想顔モデルの表情を高精度に変形させることができる。
【0017】
請求項3に記載された発明は、前記変形推定部は、前記入力部により入力される被写体の顔の表情に対応した特徴点の位置ベクトルから、前記モデルの無表情のときの位置ベクトルを差分して得られる入力特徴点の変形ベクトルを、ある画像フレームにおける部分空間上に射影することで射影係数を求め、前記射影係数により変形データを生成することを特徴とする。
【0018】
請求項3記載の発明によれば、射影係数を用いて変形データを生成することで、部分空間に属する成分のみが残り、部分空間に直交する成分は除去することができる。そのため、効率的かつ高精度に仮想顔モデルの変形に必要な変形データを取得することができる。
【0019】
請求項4に記載された発明は、前記変形部は、前記特徴点の位置情報に近似するように前記変形データと仮想顔モデルのメッシュデータを組み合わせて仮想顔モデルの表情を変形させることを特徴とする。
【0020】
請求項4記載の発明によれば、効率的かつ高精度に仮想顔モデルをより自然な表情に変形させることができる。
【0021】
請求項5に記載された発明は、前記変形部は、前記予め設定される複数の仮想顔モデルを表情に伴う動的変形の時系列データの使用数を調整することを特徴とする。
【0022】
請求項5記載の発明によれば、装置の性能や出力結果の品質の度合い、所望する処理速度等に応じて詳細に調整することができる。これにより、高精度な変形データを取得することができる。
【0023】
請求項6に記載された発明は、撮影された被写体の顔の表情に対応させて仮想顔モデルの表情を変形させる仮想顔モデル変形プログラムにおいて、コンピュータに、前記被写体の顔から予め設定された複数の特徴点の位置情報を入力する入力処理と、予め蓄積される複数の学習用の顔画像から得られた表情の変形データを用いて、前記入力処理により入力された複数の特徴点の位置情報に対応する変形データを推定する変形推定処理と、前記変形推定処理により推定された変形データを予め設定される複数の仮想顔モデルの集合から選択された仮想顔モデルと組み合わせて仮想顔モデルの表情を変形させる変形処理とを実行させる。
【0024】
請求項6記載の発明によれば、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得することができる。また、実行プログラムをコンピュータにインストールすることにより、容易に所定の表情に変形させた仮想顔モデルを取得することができる。
【発明の効果】
【0025】
本発明によれば、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得することができる。
【発明を実施するための最良の形態】
【0026】
<本発明の概要>
本発明は、例えば、ある番組の出演者等の実際の人物(被写体)の顔等における少数の特徴点の位置情報を動的に顔特徴点追跡装置により取得し、その位置情報に基づいて、複数の学習用三次元顔モデル(基底表情)のブレンド・シェイプとして出演者の表情に伴った変形を近似し、別の仮想三次元モデルの顔の表情を変形させて静止画又は動画(アニメーション)等で出力する。
【0027】
ここで、ブレンド・シェイプ組み合わせの係数の値を定めるには、出演者等の顔画像から抽出された特徴点と、それぞれと略同一の位置における三次元モデルのメッシュ頂点との誤差(近似誤差)を最小化する。更に、本発明は、ブレンド・シェイプの係数のみならず、基底表情も動的に変形していくことにより、近似誤差を更に減少する。
【0028】
<実施形態>
以下、本発明を実施するための最良の形態について図面を用いて詳細に説明する。
【0029】
<仮想顔モデル変形システム>
図1は、本実施形態における仮想顔モデル変形システムの一構成例を示す図である。図1に示す仮想顔モデル変形システム10は、実際の人物(被写体)の顔を撮影する撮像部としてのカメラ11と、顔特徴点追跡装置12と、仮想顔モデル変形装置13とを有するよう構成されている。また、本発明に係る仮想顔モデル変形装置13は、入力部21と、変形推定部22と、変形データベース23と、変形部24と、表示用仮想3次元顔モデル集合部25と、表示部26と、出力部27とを有するよう構成されている。
【0030】
図1に示すカメラ11は、例えば番組出演者等の被写体31の顔を含む画像を取得して顔の動画像を取得する。また、カメラ11は、撮影された被写体31の動画像を顔特徴点追跡装置12に出力する。
【0031】
顔特徴点追跡装置12は、カメラ11により撮影された動画像の時間的連続性を用いて、顔の検出、追跡、及び認識を行い、顔の特徴点を取得する。具体的には、撮影された動画像に対してGaborウェーブレット係数等の特徴を用いて予め設定された可変テンプレートとのテンプレートマッチングを行う。なお、このマッチング処理は、同じデータ表現で動画像全てに対して処理を行う。
【0032】
また、顔特徴点追跡装置12は、動画像から顔の部分を抽出し、抽出した顔に対して特徴点を抽出する。ここで、図2は、抽出される顔の特徴点の一例を示す図である。図2に示す特徴点の一例では、撮影した被写体31の顔領域から眉間、目元、目尻、鼻先、口先、口元からなる9点を特徴点32−1〜32−9として抽出している。なお、特徴点の場所や数等については特にこれに制限されない。
【0033】
また、顔特徴点追跡装置12は、多重解像度でのマッチング機能を有していてもよく、この場合には低解像度から高解像度までのマッチングを行い、重み付き推定を行うことにより、信頼性が低いデータの影響を減少させることができる。また、顔特徴点追跡装置12は、ロバスト推定を行い、時間・空間的フィルタリングとBayes推定により、フレーム数分のマッチング情報を積分し、その結果を特徴点の座標を位置情報として出力する。
【0034】
なお、顔特徴点追跡装置12における顔の特徴点の取得については、例えば既存の顔特徴点追跡手法(例えば、サイモン・クリピングデルら、「動画像の顔検出・追跡・認識への統一されたアプローチ」、電子情報通信学会、信学技報 PRMU98−200(1999年1月))等を用いることができる。
【0035】
上述した顔特徴点追跡装置12によりカメラ11で撮影中の被写体の顔画像における幾つかの特徴点の位置情報を仮想顔モデル変形装置13に出力する。
【0036】
なお、仮想顔モデル変形装置13に入力する特徴点の位置情報等は、例えば、被写体31の撮影中にリアルタイムに入力してもよく、また外部蓄積装置等に動画として一時的に蓄積しておき仮想顔モデル変形装置13での処理を実行したい所定のタイミングで仮想顔モデル変形装置13に入力してもよい。更に、他の装置等を用いて上述以外の手法で得られた特徴点の位置情報等を入力してもよい。
【0037】
仮想顔モデル変形装置13において、入力部21は、顔画像の各特徴点の位置情報を入力すると、その位置情報(座標情報)を変形推定部22に出力する。
【0038】
変形推定部22は、入力部21から得られる顔画像の各特徴点の座標と変形データベース23に予め蓄積されている複数の学習用の顔画像から得られる変形データ(基底メッシュ変形データ、サブサンプル変形データ)等を用いて、撮影された顔画像の表情に対し、後述する仮想3次元顔モデルの表情を近似(一致も含む)させるための適切な変形データの推定を行う。なお、変形データベース23の詳細については後述する。また、変形推定部22は、変形に対する推定パラメータ(変形データ)を変形部24に出力する。
【0039】
また、変形部24は、予め蓄積されている複数の仮想顔モデル(CGモデル)毎に形状メッシュ情報及びテクスチャ情報等を有する表示用仮想3次元顔モデル集合部25から予め使用者等により選択された任意の仮想3次元顔モデルの形状メッシュに上述した変形推定部22で推定された変形データを組み合わせて、仮想3次元顔モデルの表情を変形する。
【0040】
具体的には、変形部24は、各特徴点の座標に近似するように変形データと仮想顔モデルを組み合わせて仮想顔モデルの表情を変形させる。これにより、効率的かつ高精度に仮想顔モデルをより自然な表情に変形させることができる。なお、変形部24は、予め設定される複数の仮想顔モデルを表情に伴う動的変形の時系列データの使用数を調整してもよい。これにより、装置の性能や出力結果の品質の度合い、所望する処理速度等に応じて詳細に調整することができ、高精度な変形データを取得することができる。
【0041】
また、変形部24は、変形された仮想3次元顔モデルの顔画像データをメッシュ及びテクスチャ情報と共に表示部26に出力して表示部28から表示させたり、顔画像データを所定のフォーマット形式のファイルで蓄積部27に蓄積させたり、顔画像データを出力部28に出力して出力部28から画像ファイルとして出力させることができる。
【0042】
なお、上述した変形推定部22及び変形部24における具体的な処理の詳細については後述する。
【0043】
表示部26は、変形部24から得られた変形された仮想3次元顔モデルの顔画像を直接表示したり、メッシュ及びテクスチャ情報を用いてディスプレイ等にレンダリング(数値データとして与えられた物体や図形に関する情報を計算により画像化)して得られる仮想3次元顔モデルの顔画像を表示する。また、蓄積部27は、変形部24から得られる画像データ等を蓄積する。また、出力部28は、変形部24から得られる画像データ等を所定のフォーマット形式のファイルで出力する。
【0044】
これにより、被写体31の顔画像の表情に対応させて予め設定された表示用仮想3次元顔モデルの表情を変形して表示させることができる。したがって、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得することができる。
【0045】
なお、上述の入力部21や出力部28は、例えば、ソケット通信等の通信インタフェースにより外部装置等とのデータの送受信を実施することができ、表示部26は、コンピュータに接続するディスプレイ等で実施することができる。
【0046】
<変形データベース23について>
次に、上述した変形データベース23について具体的に説明する。図3は、変形データベースの構築までの処理の流れを説明するための一例の図である。図3では、学習データとして学習用メッシュ変形データ41を用いる。これは、例えばある所定人数(M人)の出演者(実際の人物)等がE個(種類)の表情(例えば、「笑顔」、「悲しみ」、「驚き」の場合にはE=3)を演じた顔の三次元モデル(顔形状メッシュ)の無表情から満表情(所定の表情)までの同一フレーム数のシーケンスから構成されている。
【0047】
また、図3の例では、例えばシーケンスの長さ(フレーム数)は、F+1フレーム(0フレーム〜Fフレーム)であり、図3に示す最初のフレーム(0フレーム)には顔が無表情に映っており、最後のフレーム(Fフレーム)まで表情が滑らかにフル(満表情)に変形していくものとする。
【0048】
ここで変形データベース23を構築するには、まず、各表情のフレーム毎に全人物(1〜M)のメッシュ頂点座標の平均情報42を取得する。これにより、E個のシーケンスp(1),…,p(E)を求める。そして、シーケンスp(1),…,p(E)のメッシュ情報から幾つかの頂点の座標をサブサンプル43として抽出(サンプリング)することにより、シーケンスq(1),…,q(E)を求める。なお、抽出するメッシュ頂点は、顔特徴点追跡装置12から入力される特徴点(入力特徴点)と最も近い頂点を選択する(理想的には、メッシュ頂点と、特徴点の位置とは一致することが好ましい)。
【0049】
したがって、最終的な変形データベース23は、各表情(1〜E)におけるメッシュシーケンス(基底メッシュ変形データ)p(1),…p(E)とサブサンプルされたシーケンス(サブサンプル変形データ)q(1),…q(E)から構成される。
【0050】
<変形推定部22及び変形部24について>
次に、上述した変形推定部22及び変形部24について具体的に説明する。図4は、本実施形態における変形推定部と変形部の処理の流れを説明するための一例の図である。変形推定部22は、入力部21からの各特徴点の座標と、変形データベース23における変形データ群を用い、入力特徴点ベクトルrから無表情のときのベクトルr[0]を差分し、あるフレームjにおけるサブサンプル変形データq(1)[j]−q[0],…,q(E)[j]−q[0]が張る部分空間に射影する。これにより、射影係数α(1),…,α(E)を求める。なお、q[0]=q(1)[0]=…=q(E)[0]は、無表情のときのサブサンプル変形データを示している。
【0051】
次に、上述の処理で得られた射影係数α(1),…,α(E)を用いて、フレームjでの基底メッシュ変形データp(1)[j]−p[0],…,p(E)[j]−p[0]の重み付き線形組み合わせ変形分を計算((α(1)×(p(1)[j]−p[0])×…×α(E)(p(E)[j]−p[0])))し、この計算結果を変形データとして変形部24に出力する。なお、p[0]=p(1)[0]=…=p(E)[0]は、無表情のときの基底メッシュ変形データを示している。
【0052】
次に、変形部24は、表示用仮想3次元顔モデルのメッシュs[0]に変形推定部22から得られる変形データを加算して(組み合わせて)変形させ、その結果として、変形された表示用メッシュsを出力する。なお、メッシュs[0]は、無表情の状態にあることを示している。
【0053】
ここで、図5は、基底表情として使用される変形データのフレーム位置の設定を説明するための一例の図である。図5に示すように、入力特徴点の変形ベクトル|r−r[0]|の大きさにより、基底メッシュの変形データを使用するフレーム番号jを設定する。
【0054】
出力表情の近似は、入力特徴点の変形ベクトル|r−r[0]|が小さい場合には、基底メッシュ変形データのフレームJのブレンド・シェイプ組み合わせとなり、|r−r[0]|が充分大きい場合には、その大きさに相当する基底メッシュ変形データのフレームJ<=j<=Fのブレンド・シェイプ組み合わせとなる。
【0055】
ここで、上述までの実施形態の処理の手順を更に具体的に説明する。例えば、基底表情を固定する場合の処理においては、まず、予めオフラインでE個(種類)の基本表情を演じた顔の形状(CGモデルのメッシュ)の変形データを集め、同一長さ(フレーム数)のシーケンスに調整して、基底メッシュ変形データp(1),…,p(E)として変形データベース23に格納する。各シーケンスにおいて、最初に顔が無表情の状態で時間が経つにつれて表情が大きく現れてくる。このとき、サブサンプルとして上述した顔特徴点追跡装置12から入力される顔画像の各特徴点の位置に最も近いメッシュ頂点のみをp(1),…,p(E)の各フレームから抽出し、サブサンプル変形データq(1),…,q(E)として変形データベース23に格納しておく。
【0056】
変形推定部22では、入力する特徴点の座標ベクトルrから、出演者の顔が無表情の時の値r[0]を引くことにより求めた入力特徴点の変形ベクトルr−r[0]を、あるフレームjでのサブサンプル変形データq(1)[j]−q[0],…,q(E)[j]−q[0]が張る部分空間に射影する。これにより、入力特徴点の変形ベクトルr−r[0]に対して、この部分空間に属する成分のみが残る(部分空間に直交する成分は除去される)。なお、射影の結果としては、係数α(1),…,α(E)を求める。ここで、
Q[j]=[q(1)[j]−q[0]…q(E)[j]−q[0]]
とすると、
α=(Q[j]Q[j])−1Q[j](r−r[0])
として求めることができる。なお、q(0)=q(1)[0]=…=q(E)[0]は無表情の時のサブサンプル変形データを示している。
【0057】
また、上述の処理で得られた射影係数α(1),…,α(E)を用い、フレームjでの基底メッシュ変形データp(1)[j]−p[0],…,p(E)[j]−p[0]の重み付き線形組み合わせを計算し、その計算結果を変形データとして変形部24に出力する。なお、p[0]=p(1)[0]=…=p(E)[0]は無表情の時の基底メッシュ変形データを示している。
【0058】
変形部24は、表示用仮想3次元顔モデルのメッシュs[0]に変形推定部22から得られる変形データを加算して(組み合わせて)変形させ、その結果として得られるメッシュsを出力する。なお、s[0]は無表情の状態にあることを示している。ここで、
P[j]=[p(1)[j]−p[0] … p(E)[j]−p[0]]
とすると、出力する変形されたメッシュは、
s=s[0]+α(1)(p(1)[j]−p[0])+…+α(E)(p(E)[j]−p[0])=s[0]+P[j]α.
として求めることができる。
【0059】
ここで、学習データの中に基底表情として使用するフレームjを選択するには複数の可能性がある。例えば、j=F(学習データの「満表情」を示す最後のフレーム)に固定した場合、各フレームでの出力メッシュ変形分s−s[0]はp(1)[F]−p[0],…,p(E)[F]−p[0]の組み合わせとなり、これは通常のブレンド・シェイプ方法に相当する。なお、計算量を重視する場合には、これが最良な選択となる。
【0060】
一方、入力特徴点が無表情から満表情まで変形するにつれて、フレームjも変わる可能性があれば、結果の近似誤差を減少することができる。しかしながら、フレームjを小さく設定すると、変形ベクトルp()[j]−p[0]、又はq()[j]−q[0]も小さくなり、ノイズが比較的大きくなってしまう。したがって、本実施形態では、図5に示すように、変形ベクトルが充分大きくなるフレーム(フレームJ)とする)以降の変形データを使用する。
【0061】
なお、フレームj>=Jを選択する方法の一つとして、例えば、入力特徴点の変形ベクトルr−r[0]の大きさに相当するフレームjを次のアルゴリズムにより設定する。
【0062】
j=(int)(k*|r−r[0]|;
if (j<J) j:=J;
ここでは、定数のk(勾配)は、システムのパラメータ等に依存するので、実験等により設定する。
【0063】
したがって、上述したように、出力表情の近似は、入力特徴点の変形ベクトル|r−r[0]|が小さい場合には、基底メッシュ変形データのフレームJのブレンド・シェイプ組み合わせとなり、|r−r[0]|が充分大きい場合には、その大きさに相当する基底メッシュ変形データのフレームJ<=j<=Fのブレンド・シェイプ組み合わせとなる。
【0064】
なお、メモリ等の容量や処理計算量等によって、この2つの例(変形データのフレームJ<=j<=Fを使用する例と、フレームJ=Fのみを使用する例)以外の別の設定方法もある。例えば、図5に示された基底ベクトルの幾つかだけを用いることは、全てを用いることにより計算量が軽くなる。
【0065】
したがって、変形部24は、予め設定される複数の仮想顔モデルを表情に伴う動的変形の時系列データの使用数を調整する。これにより、装置の性能や出力結果の品質の度合い、所望する処理速度等に応じて詳細に調整することができる。これにより、高精度な変形データを取得することができる。
【0066】
逆に、J<=j<=Fの全てのフレームでの変形データの組み合わせをとると近似誤差が最小となるが、計算量が重くなる。したがって、所望する条件に応じて任意に設定することができる。
【0067】
上述したように、本実施形態によれば、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得することできる。
【0068】
<仮想顔モデル変形プログラム>
ここで、仮想顔モデル変形装置13は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、マウスやキーボード、ポインティングデバイス等の入力装置、画像やデータを表示する表示部、並びに外部と通信するためのインタフェースを備えたコンピュータによって構成することができる。
【0069】
したがって、仮想顔モデル変形装置13に備えた入力部21、変形推定部22、変形部24、表示部26、及び出力部27における各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現可能となる。また、これらのプログラムは、磁気ディスク(フロッピィーディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記録媒体に格納して頒布することもできる。
【0070】
つまり、上述した各構成における処理をコンピュータに実行させるための実行プログラム(仮想顔モデル変形プログラム)を生成し、例えば、汎用のパーソナルコンピュータやサーバ等にそのプログラムをインストールすることにより、仮想顔モデル変形処理を実現することができる。
【0071】
<ハードウェア構成>
ここで、本発明における実行可能なコンピュータのハードウェア構成例について図を用いて説明する。図6は、本発明における仮想顔モデル変形処理が実現可能なハードウェア構成の一例を示す図である。
【0072】
図6におけるコンピュータ本体には、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、メモリ装置55と、各種制御を行うCPU(Central Processing Unit)56と、ネットワーク接続装置57とを有するよう構成されており、これらはシステムバスBで相互に接続されている。
【0073】
入力装置51は、使用者等が操作するキーボード及びマウス等のポインティングデバイスやマイク等の音声入力デバイス等を有しており、使用者等からのプログラムの実行等、各種操作信号を入力する。出力装置52は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイや音声を出力するスピーカ等を有し、CPU56が有する制御プログラムによりプログラムの実行経過や結果等を表示又は音声出力することができる。
【0074】
ここで、本発明において、コンピュータ本体にインストールされる実行プログラムは、例えば光ディスク等の記録媒体58等により提供される。プログラムを記録した記録媒体58は、ドライブ装置53にセット可能であり、記録媒体58に含まれる実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。
【0075】
補助記憶装置54は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。
【0076】
メモリ装置55は、CPU56により補助記憶装置54から読み出された実行プログラム等を格納する。なお、メモリ装置55は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。
【0077】
CPU56は、OS(Operating System)等の制御プログラム、メモリ装置55に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現することができる。また、CPU56は、プログラムの実行中に必要な各種情報を補助記憶装置54から取得することができ、またCPU56は、処理結果等を格納することもできる。
【0078】
ネットワーク接続装置57は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。
【0079】
上述したようなハードウェア構成により、特別な装置構成を必要とせず、低コストで効率的に仮想顔モデル変形処理を実現することができる。また、プログラムをインストールすることにより、容易に所定の表情に変形させた仮想顔モデルを取得することができる。
【0080】
<仮想顔モデル変形処理手順>
次に、本発明における実行プログラム(仮想顔モデル変形プログラム)による仮想顔モデル変形処理手順についてフローチャートを用いて説明する。図7は、本実施形態における仮想顔モデル変形処理手順の一例を示すフローチャートである。
【0081】
図7において、上述したようにカメラ等により撮影された出演者等の被写体の顔画像から、顔特徴点追跡装置等を用いて処理することで得られる顔の各特徴点の位置情報としての座標情報を含む動画像を入力する(S01)。次に、入力した各特徴点の座標情報から上述した変形データベース23等を用いて入力した顔の各特徴点の座標に対応する変形データを推定する(S02)。
【0082】
次に、予め設定される複数の仮想顔モデルの集合から表示用の仮想顔モデルを選択し(S03)、更に必要に応じて動画像に対して動的変形の時系列データをどの程度使用するか、その使用数を調整する(S04)。また、S01の処理にて入力した顔の特徴点の座標と近似(一致含む)するように仮想顔モデルに変形データを組み合わせて仮想顔モデルの表情を変形し(S05)、変形された仮想顔モデルをディスプレイ等の表示部に表示する(S06)。
【0083】
なお、上述したS06の処理の代わりに、変形された仮想顔モデルを所定のフィーマット形式のファイルを生成し、蓄積部に蓄積してもよく、外部装置に出力してもよい。
【0084】
上述したように、本発明によれば、効率的かつ高精度に所定の表情に変形させた仮想顔モデルを取得することができる。具体的に説明すると、顔のCGモデルに表情を演じさせる従来の技術に比べて、本発明は、出演者(被写体)の顔において追跡される特徴点の位置に基づき、CGモデル(仮想顔モデル)で出演者の表情を近似させることにより,直接CGモデルを詳細に調整して表情を制作するよりも、より自然に見えると共に手間がかからなくなる。
【0085】
また、予め設定される複数のモデルの複数の表情に対応した基底メッシュ変形データを有する変形データベースを用いて変形データを推定することにより、メッシュの頂点を基準にして、変形データを推定することができ、この変形データを用いて被写体の表情に対応した仮想顔モデルの表情を高精度に変形させることができる。また、射影係数等を用いて変形データを生成することで、部分空間に属する成分のみが残り、部分空間に直交する成分は除去することができる。そのため、効率的かつ高精度に仮想顔モデルの変形に必要な変形データを取得することができる。
【0086】
また、CGソフトウェアがよく提供する「ブレンド・シェイプ」という幾つか固定したCGモデルの形状を組み合わせる機能を用いて、表情に伴う動的変形の時系列データを組み合わせることにより表情の近似誤差を減少することができる。更に、動的変形の時系列データをどの程度使用するか調整することにより、目盛りや計算量を調整することができる。
【0087】
なお、上述した実施形態は、3次元モデルに適用可能であるが、これに限定されず、例えば2次元モデル等についても適用可能である。また、本発明は、コンピュータグラフィックス(CG)やコンピュータアニメーション等の技術分野に広く適用することができる。
【0088】
以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
【図面の簡単な説明】
【0089】
【図1】本実施形態における仮想顔モデル変形システムの一構成例を示す図である。
【図2】抽出される顔の特徴点の一例を示す図である。
【図3】変形データベースの構築までの処理の流れを説明するための一例の図である。
【図4】本実施形態における変形推定部と変形部の処理の流れを説明するための一例の図である。
【図5】基底表情として使用される変形データのフレーム位置の設定を説明するための一例の図である。
【図6】本発明における仮想顔モデル変形処理が実現可能なハードウェア構成の一例を示す図である。
【図7】本実施形態における仮想顔モデル変形処理手順の一例を示すフローチャートである。
【符号の説明】
【0090】
10 仮想顔モデル変形システム
11 カメラ
12 顔特徴点追跡装置
13 仮想顔モデル変形装置
21 入力部
22 変形推定部
23 変形データベース
24 変形部
25 表示用仮想3次元顔モデル集合部
26 表示部
27 出力部
31 被写体
41 学習用メッシュ変形データ
42 全人物のメッシュ頂点座標の平均情報
43 サブサンプル
51 入力装置
52 出力装置
53 ドライブ装置
54 補助記憶装置
55 メモリ装置
56 CPU
57 ネットワーク接続装置
58 記録媒体

【特許請求の範囲】
【請求項1】
撮影された被写体の顔の表情に対応させて仮想顔モデルの表情を変形させる仮想顔モデル変形装置において、
前記被写体の顔から予め設定された複数の特徴点の位置情報を入力する入力部と、
予め蓄積される複数の学習用の顔画像から得られた表情の変形データを用いて、前記入力部により入力された複数の特徴点の位置情報に対応する変形データを推定する変形推定部と、
前記変形推定部により推定された変形データを予め設定される複数の仮想顔モデルの集合から選択された仮想顔モデルと組み合わせて仮想顔モデルの表情を変形させる変形部とを有することを特徴とする仮想顔モデル変形装置。
【請求項2】
前記変形推定部は、
予め設定される複数のモデルの複数の表情に対応した基底メッシュ変形データを有する変形データベースを用いて前記位置情報に近似する変形データを推定することを特徴とする請求項1に記載の仮想顔モデル変形装置。
【請求項3】
前記変形推定部は、
前記入力部により入力される被写体の顔の表情に対応した特徴点の位置ベクトルから、前記モデルの無表情のときの位置ベクトルを差分して得られる入力特徴点の変形ベクトルを、ある画像フレームにおける部分空間上に射影することで射影係数を求め、前記射影係数により変形データを生成することを特徴とする請求項1又は2に記載の仮想顔モデル変形装置。
【請求項4】
前記変形部は、
前記特徴点の位置情報に近似するように前記変形データと仮想顔モデルのメッシュデータを組み合わせて仮想顔モデルの表情を変形させることを特徴とする請求項1乃至3の何れか1項に記載の仮想顔モデル変形装置。
【請求項5】
前記変形部は、
前記予め設定される複数の仮想顔モデルを表情に伴う動的変形の時系列データの使用数を調整することを特徴とする請求項1乃至4の何れか1項に記載の仮想顔モデル変形装置。
【請求項6】
撮影された被写体の顔の表情に対応させて仮想顔モデルの表情を変形させる仮想顔モデル変形プログラムにおいて、
コンピュータに、
前記被写体の顔から予め設定された複数の特徴点の位置情報を入力する入力処理と、
予め蓄積される複数の学習用の顔画像から得られた表情の変形データを用いて、前記入力処理により入力された複数の特徴点の位置情報に対応する変形データを推定する変形推定処理と、
前記変形推定処理により推定された変形データを予め設定される複数の仮想顔モデルの集合から選択された仮想顔モデルと組み合わせて仮想顔モデルの表情を変形させる変形処理とを実行させる仮想顔モデル変形プログラム。

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate


【公開番号】特開2009−75880(P2009−75880A)
【公開日】平成21年4月9日(2009.4.9)
【国際特許分類】
【出願番号】特願2007−244361(P2007−244361)
【出願日】平成19年9月20日(2007.9.20)
【出願人】(000004352)日本放送協会 (2,206)
【Fターム(参考)】