説明

複雑なおよび/または変形可能なオブジェクトの表現および着用できるオブジェクトの仮想フィッティング

特定されたシーン状態の下で、複雑なおよび/または変形可能なオブジェクトは、多数の異なるシーン状態のそれぞれのために、それぞれのシーン状態の下でオブジェクトを示すオブジェクト(34)のビューと、それぞれのビューにおいてオブジェクトの投影およびオブジェクトの所望の外観に対応する所定のテクスチャマップ間にマッピングを特定する関連したテクスチャマップ・マッピング情報とを含むデータベース(16)において、所定のシーン状態を用いて所定のシーン状態に類似するシーン状態の下でオブジェクトを示す第1のビューを検索することによって、一方では必要な計算能力と他方では現実的な表現の印象との間の改良されたトレードオフによって表される。その後、第2のビューは、第1のビューを所定のシーン状態に適合することによって作られ、さらに、テクスチャマップ・マッピング情報に基づいて、オブジェクトは、第2のビューにおいてオブジェクト(34)の検索が所定のテクスチャマップ(40、58)に対応するようにテクスチャされる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、複雑なおよび/または変形可能なオブジェクトの表現および例えば衣類などの着用できるオブジェクトの仮想フィッティングに関する。
【背景技術】
【0002】
拡張現実アプリケーションは、特に、リアルビデオマテリアルを有するコンピュータ生成のオブジェクトを融合することを含む。そのために、例えば、リアルオブジェクトの照明状態、正確な位置および方位または幾何学的な変形は、アーティフィシャルオブジェクトがシーンの自然整数部分であるように、コンピュータ生成の仮想オブジェクトによって前記オブジェクトを交換しまたは補充するためにビデオシーケンス中で推定される。大部分の拡張現実アプリケーションは、1つまたはいくつかのカメラによってキャプチャされる現在および瞬間的な環境が、個々の情報およびオブジェクトによって補充され、さらに、ユーザの現在の運動または要求に依存している、インタラクティブな解決策である。これは、アーティフィシャルオブジェクトを共有表現に組み込む観点から、例えば運動、変形、照明に関して、シーンを分析する観点から、両方とも厳しいリアルタイム能力を必要とする。これは、特に、例えば織物、ヘアーなど、込み入った幾何学および/または変形可能なまたは弾性特性を有するオブジェクトによって困難になる。例えば衣類、眼鏡、宝石およびヘアースタイルの仮想フィッティングなど、用途によっては、それは、全て、さらに、現実的で生きているような動的な表現に依存し、それは、ほとんどの場合に大変な努力を必要としさらにリアルタイム要求に矛盾する。
【0003】
仮想鏡アプリケーションは、例えば、P. Eisert, P. Fechteler and J. Rurainsky: ”Virtual Mirror: Real−Time Tracking of Shoes in Augmented Reality Environments”, Proc of Int. Conf. on Image Processing (ICIP 2007), San Antonio, Texas, 2007、A. Hilsmann and P. Eisert: ”Tracking and Retexturing Cloth for Real−Time Virtual Clothing Applications”, Proc. Mirage 2009 − Computer Vision/Computer Graphics Collaboration Techniques and Applications, Rocquencourt, France, May 2009によって表されている。ユーザは、カメラによって撮影され、ディスプレイ上に彼自身/彼女自身を見ることができ、それは、リアルタイムにコンピュータ生成の衣類において鏡機能を取る。このために、彼女/彼のポーズおよび運動は、推定され、さらに、仮想衣類は、彼/彼女が実際にそれを着用しているかのように、鏡像においてそれが現れるように、ビデオフレームにおいて彼女/彼の身体上に描かれる。現実的な印象を提供するために、仮想衣類は、ユーザの運動の全てに追随しなければならなく、さらに、折り目およびマテリアル特性の現実的な低減を呈しなければならない。
【0004】
例えば織物および衣類などの多くの自由度を有する仮想オブジェクトを分析して表すさまざまな考えられるアプローチがあるが、それは、リアルタイム能力に関して苦しむかまたはあまり現実的でない表現を提案する。アーティフィシャルオブジェクトは、例えば(形状、色、マテリアル、反射、運動および変形)などそれらの物理的特性に関してモデル化されうり、それのパラメータは、シーンまたはカメラ・ピクチャから推定され、さらに、コンピュータ・グラフィック法を用いて最後的に表される。ここで、表現の自然らしさは、モデリングの精度に依存し、さらに、現実的な表現は、しばしば数千の自由度を有し、それは、推定に多くの努力を必要とする。そのため、この表現において、高コスト処理を有する高品質(多くのパラメータ)および非常に限られたリアリズムを有するリアルタイム解決策の間の困難なトレードオフがある。
【0005】
一方では、適切な推定法およびより正確なモデリングを用いて高品質を達成する現実的な表現を有することは可能である。衣類のために、形状は、例えば、いくつかのカメラ斜視図から3D再構成によって得られうる。これは、D. Pritchard and W. Heidrich: Cloth Motion Capture”, Proc. of Eurographics (Eurographics 2003), Seiten 263−271, 2003、R. White, D. Forsyth and J. Vasanth: Capturing Real Folds in Cloth”, EECS Department, University of California, Berkley, 2006、D. Bradley, T. Popa, A. Sheffer, W. Heidrich and T. Boubekeur: ”Markerless Garment Capture”, ACM Transactions on Graphics (SIGGRAPH), Los Angeles, CA, 2008およびM. Vlasic, I. Baran, W. Matusik and J. Popovic. Articulated Mesh Animation from Multi−View Silhouettes”, SIGGRAPH 2008, Los Angeles, CA, 2008によって表されている。この文書において、例えば折り目など、詳細の全てを有する織物の正確な3D形状は、再構成される。しかしながら、難しくて込み入ったカメラ・セットアップが必要とされ、そのような詳細な3Dモデルを計算することは、多くの計算時間を必要として、ここ数年においてリアルタイムに実施されることができない。
【0006】
一方では、例えばリアルタイムにかつより簡単なキャプチャリングユニットで仮想衣類などを表すことへのアプローチがある。しかしながら、これらも、衣類の新しいコンピュータ生成の部分を表す代わりに、例えばJ. Pilet, V. Lepetit and P. Fua: ”Augmenting Deformable Objects in Real−TIme”, International Symposium on Mixed and Augmented Reality. Vienna Austria, 2005、およびA.Hilsmann and P. Eisert: ”Optical Flow Based Tracking and Retexturing of Garments”, Proc. of Int. Conf. on Image Processing (ICIP 2008), San Diego, CA, 2008によるバージョンにおいて、衣類のしばしば四角い小さいセクションをリテクスチャすることを目的としてだけである。あるいは、表されることは、人が適切な方法で彼自身/彼女自身を位置付けることを必要とするように、http://www.iconnicholson.com/nrf07/のバージョンにおいてのように、コンピュータ生成の衣類であるが、人に沿って運動せず、このように、双方向性およびリアリズムが失われる。
【0007】
したがって、リアルタイム能力を有する複雑なコンピュータ生成のオブジェクトの現実的な外観の互換性を可能にするスキームの必要性がある。いくらかさらに一般に言い換えれば、一方では適度な計算能力と他方ではオブジェクトの現実的な印象との間のより良好なトレードオフを可能にする複雑なおよび/または変形可能なオブジェクトを示すためのスキームの必要性がある。
【先行技術文献】
【非特許文献】
【0008】
【非特許文献1】P. Eisert, P. Fechteler and J. Rurainsky:”Virtual Mirror: Real−Time Tracking of Shoes in Augmented Reality Environments”, Proc of Int. Conf. on Image Processing(ICIP 2007), San Antonio, Texas, 2007
【非特許文献2】A. Hilsmann and P. Eisert: ”Tracking and Retexturing Cloth for Real−Time Virtual Clothing Applications”, Proc. Mirage 2009 − Computer Vision/Computer Graphics Collaboration Techniques and Applications, Rocquencourt, France, May 2009
【非特許文献3】D. Pritchard and W. Heidrich: Cloth Motion Capture”, Proc. of Eurographics (Eurographics 2003), Seiten 263−271, 2003
【非特許文献4】R. White, D. Forsyth and J. Vasanth: Capturing Real Folds in Cloth”, EECS Department, University of California, Berkley, 2006
【非特許文献5】D. Bradley, T. Popa, A. Sheffer, W. Heidrich and T. Boubekeur: ”Markerless Garment Capture”, ACM Transactions on Graphics (SIGGRAPH), Los Angeles, CA, 2008
【非特許文献6】M. Vlasic, I. Baran, W. Matusik and J. Popovic. Articulated Mesh Animation from Multi−View Silhouettes”, SIGGRAPH 2008, Los Angeles, CA, 2008
【非特許文献7】J. Pilet, V. Lepetit and P. Fua: ”Augmenting Deformable Objects in Real−TIme”, International Symposium on Mixed and Augmented Reality. Vienna Austria, 2005
【非特許文献8】A.Hilsmann and P. Eisert: ”Optical Flow Based Tracking and Retexturing of Garments”, Proc. of Int. Conf. on Image Processing (ICIP 2008), San Diego, CA, 2008
【非特許文献9】http://www.iconnicholson.com/nrf07/
【発明の概要】
【発明が解決しようとする課題】
【0009】
したがって、本発明の目的は、スキームが上述の改良されたトレードオフを可能にする、複雑なおよび/または変形可能なオブジェクトを示すためのスキームと着用できるオブジェクトの仮想フィッティングを可能するスキームとを提供することである。
【課題を解決するための手段】
【0010】
この目的は、請求項1または請求項10に記載の装置によって、さらに、請求項14または請求項15に記載の方法によって達成される。
【0011】
本発明の中心となる概念は、特定のシーン状態の下で、複雑なおよび/または変形可能なオブジェクトが一方では適度な計算能力と他方では現実的な表現の印象との間の改良されたトレードオフによって表されうり、多数の異なるシーン状態のそれぞれのために、それぞれのシーン状態の下でオブジェクトを示すオブジェクトのビューとそれぞれのビューに対するオブジェクトの投影およびオブジェクトの所望の外観に対応するテクスチャマップ間のマッピングを特定する関連したテクスチャマップ・マッピング情報とを含むデータベースを用いるときに、さらに、前記データベースにおいて、所定のシーン状態に類似するシーン状態の下でオブジェクトを示すビューを検索すること、その後に前記ビューを所定のシーン状態に適合すること、および、テクスチャマップ・マッピング情報に基づいてオブジェクトをテクスチャすることを含む。このアプローチは、生きているようなビューがデータベースに格納されうるように、大量の計算能力を初期設定段階に必要とするプロセスおよび/または計算を早めることを可能にする一方で、検索することおよび適合することに関して残りの複雑さは、低く保たれうり、その理由は、前記処理が所定のシーン状態から偏差をブリッジするだけであるかまたは所定のシーン状態に適合のために提供されるだけであるからであり、さらに、その結果、後の適合がおそらくリアルタイムにおいて実行されうるように、適合においてできたエラーが計算に関してできた簡略化のため結果に目に見える効果をほとんど及ぼさなかったからである。したがって、現実への表現の近さは、分解される必要はなく、その理由は、充分な時間および計算能力が、現実への近さを保証するためにデータベースに含まれるビューを作ることで費やされうるからである。例えば、データベースにおいて格納されるビューは、実際のカメラ・ショットから得られることができた。しかしながら、オブジェクトの3Dモデルの込み入って複雑なシミュレーションから得られるビューも、明らかに可能であり、その理由は、処理が初期設定段階において起こるからである。
【0012】
認識された姿勢において身体に着けられうるオブジェクトの表現に関するアプリケーションに関して、本発明の中心となる概念は、データベース中で、認識された姿勢に類似する姿勢においてオブジェクトを示すビューを検索し、さらに、前記ビューを認識された姿勢に適合するように、ビューが多数の異なる姿勢において身体に着けられうるオブジェクトを示し、身体に着けられうるオブジェクトの多数のビューを有するデータベースが用いられるときに、複雑なおよび/または変形可能なオブジェクトが、認識された姿勢において、一方では適度な計算能力と他方では表現の現実的な印象との間の改良されたトレードオフによって表されうる。すでに述べたように、このアプローチは、初期設定段階に大量の計算能力を必要とするプロセスおよび/または計算を早めることを可能にし、その結果、生きているようなビューは、データベースにおいて格納されうるが、検索することおよび適合することに関して残り複雑さが低く保たれうり、その理由は、前記処理が所定のシーン状態から偏差をブリッジするだけであるかまたは所定のシーン状態に適合のために提供されるだけであるからであり、さらに、その結果、後の適合がおそらくリアルタイムにおいて実行されうるように、適合においてできたエラーが計算に関してできた簡略化のため結果に目に見える効果をほとんど及ぼさなかったからである。
【0013】
本発明の実施形態によれば、シーン状態は、所望の二次元表現またはビューにおいてオブジェクトの位置が依存するもの、すなわち、例えば、シーン・ショットにおいてオブジェクトの三次元位置、例えば身体に着けられるオブジェクトの場合において腕および脚の姿勢などオブジェクトの姿勢、および、例えば身体測定などオブジェクトの測定である。類似するシーン状態の下でオブジェクトを示すデータベースから得られるビューを所定のシーン状態に適合するために、オブジェクトの近似形状の簡単なパラメータ化可能な3Dモデルが用いられうる。したがって、データベースのために必要な記憶容量は低いままである。一方、パラメータ化可能な3Dモデルおよび所定のシーン状態に対する適合のためのその再パラメータ化のための計算費用は、大変な努力を必要とせず、その理由は、パラメータ化可能な3Dモデルによるオブジェクトの近似形状の記載が完全に充分であり、さらに、例えば折り目の低減など、さもなければ計算的に高価な方法で処理されなければならなかった詳細が、データベース中でビューおよび/またはテクスチャマップ・マッピング情報中に含まれるからである。
【0014】
さらなる実施形態によれば、データベース中のオブジェクトのビューをリテクスチャすることも可能であり、データベースは、3Dモデルまたはオブジェクト点の表面をテクスチャマップにマップするテクスチャマッピングを含み、前記テクスチャマップを介して、ピクセルに関連付けられる表面部位は、テクスチャマップ値が割り当てられ、データベースのビューにおいてピクセルに関連付けられさらにテクスチャ非依存またはテクスチャレス、オブジェクトの単色反射率分布を表す輝度値で重み付けられ、前記反射率分布はそれにもかかわらずそれぞれの姿勢においてオブジェクトの照明方向および散乱特性を考慮し、テクスチャマップから所望のテクスチャを有する所望の外観を有するオブジェクトを提供する。したがって、再構成のために必要な計算は、輝度重み付けと結合してテクスチャマップ・データの安価なインデックス付けに限られ、それは、オブジェクトのおそらく複雑な構造を考慮して、初期設定段階においてすでに決定されている。
【0015】
このように本発明の実施形態は、例えば衣類およびヘアースタイルなどのオブジェクトの表現を可能にし、それは、それの高品質な自然な表現を提供するとともに、仮想オブジェクトのリアルタイム処理を可能にする。
【0016】
本発明の好適な実施形態は、添付図面に関連して以下にさらに詳細に説明される。
【図面の簡単な説明】
【0017】
【図1】図1は、実施形態による複雑なおよび/または変形可能なオブジェクトを表すための装置のブロック図を示す。
【図2】図2は、例えば、実施形態による、図1の装置によって、実行されうるように、複雑なおよび/または変形可能なオブジェクトを表す方法のフローチャートを示す。
【図3】図3は、実施形態による図2のテクスチャリングおよび/またはリテクスチャリングおよびシーン状態適合を説明するためのスケッチを示す。
【図4】図4は、実施形態による着用できるオブジェクトの仮想フィッティングのための装置を示す。
【発明を実施するための形態】
【0018】
図1は、複雑なおよび/または変形可能なオブジェクトを表すための装置の実施形態を示し、前記装置は、10で一般に示される。装置は、検索ユニット12、アダプタ14およびデータベース、任意に、テクスチャラー62を含む。
【0019】
データベース16は、それに格納されるオブジェクトの多数のビューを有し、それらは、多数の異なるシーン状態の下でオブジェクトを示す。後述するように、データベース16中で、ビューごとに、ビューが撮影された下で対応するシーン状態を格納することが可能である。さらに、ビューごとに、サブピクセルに対して正確であるオブジェクト・デマケーションを表すセグメンテーション・マスクが格納されうる。さらなる典型的な詳細が後述される。
【0020】
検索ユニット12は、所定のシーン状態を用いることによって、データベース16において1つ以上の第1または予備ビューを検索するように構成され、前記ビューは、所定のシーン状態に類似するシーン状態の下でオブジェクトを示す。アダプタ14は、次に、新しいビューを作るように構成され、それは、予備ビューを所定のシーン状態に適合することによって、所望の表現を表す。所望の表現を作ることに任意に貢献することができる任意に提供されたテクスチュラー62は、さらに以下に詳細に取り組まれる。
【0021】
オブジェクトは、衣類またはヘアースタイル、すなわち、多数の自由度を有するオブジェクトであってもよく、それらは、現実的にシミュレーションすることが困難であり、または、現実的な表現を計算することを必要とする計算能力が高い。以下に、例えば、オブジェクトが衣類であると仮定される。しかしながら、この点で、これらの特定の説明でさえ一般に複雑なおよび/または変形可能なオブジェクトを表現するだけである点に留意すべきである。
【0022】
所定のシーン状態およびデータベース16中でビューがオブジェクトを示す下で異なるシーン状態は、例えば、オブジェクトの位置、オブジェクトの姿勢および/またはオブジェクトの測定によって定義されうる。換言すれば、所定のシーン状態は、所定の値を有し、さらに、データベース16において多数のビューは、オブジェクトの位置、オブジェクトの姿勢または変形、またはオブジェクトの測定のための異なる値の下でオブジェクトのビューを含む。オブジェクトが衣類である場合、例えば、オブジェクトの位置は、例えば、衣類の着用者の位置によって定義され、オブジェクトの姿勢は、腕および/または脚の姿勢によって、または、一般に、衣類の着用者の全体の姿勢によって定義され、さらに、オブジェクトの測定は、衣類の着用者の身体測定によって定義される。換言すれば、データベース16は、そこにおいて格納される関連したシーン状態を有する多数のビューを有することができ、それは、さまざまな位置において、さまざまな姿勢において、および、衣類の着用者のためのさまざまな身体測定で衣類を示す。
【0023】
データベース16中に格納されるビューは、得られたかもしれない実際のショット、すなわちオブジェクトの物理的な実施形態のカメラ・ショットである。しかしながら、もちろん、データベース16中のビューが3Dシミュレーションによって得られることも可能である。シミュレーションのために必要な高い費用は、データベース16を作るためにすなわち初期設定段階の間に発生するだけであり、したがって、リアル−タイムアプリケーションに矛盾しない。
【0024】
すでに述べられたように、検索ユニット12は、ビュー16の中で、所定のシーン状態に類似するシーン状態の下でオブジェクトを示す1つまたはいくつかを選択する。類似性は、いかなる適切な距離測定によっても定量化されうる。その後、前記アダプタ14は、このように得られるビューを所定のシーン状態に適合する。そのために、アダプタ14は、データベース16において格納されさらにそこにおいて含まれる個々のビューに関連付けられる情報を用いることができる。例えば、シーン状態に加えて、データベース16においてビューは、それらに関連付けられる上述したセグメンテーション情報を有することもでき、セグメンテーション情報は、それぞれのシーン状態に関するそれぞれのビューのどのピクセルが実際にオブジェクトに属するかさらにいずれがバックグラウンドだけを表すかを示す。さらに、データベース16中のビューは、おそらくテクスチャ非依存の方法で格納され、それによると、例えば、一様な表面色、例えば白または他のいかなる中間色のためのピクチャを生じるために、ピクチャが撮られるときに、それぞれのビューにおいてオブジェクトの色および輝度の変更が変更テクスチャに基づいて減算される。さらに、データベース16中のビューは、それに関連付けられる幾何学情報、すなわちそれぞれのビューへのオブジェクトの投影のピクセルまたは他の細分割部を有する深さおよび距離の値の関連を可能にする情報またはそれぞれのビューへのオブジェクトの投影を有する横に変更する深さおよび/または距離の関連を有することができる。この場合、したがって、ビューは、異なるシーン状態を有する、または、さまざまなシーン状態の下でオブジェクトの近似モデルの微細構造を表すテクスチャを有するオブジェクトの何らかの距離イメージを表す。
【0025】
このように、検索されたビューおよび所定の位置間のオブジェクトの位置に関する偏差は、回転、並進運動、姿勢適合、変形またはそれらの組み合わせによって、アダプタの部分において修正されうる。以下の実施形態において、可能性は、アダプタ14が予備ビューを所定のシーン状態を有するビューに適合するために所定のシーン状態に適合のためのオブジェクトの近似形状のパラメータ化可能な3Dモデルを用いるに従って後述する。パラメータ情報は、それがそれぞれのビューに関連付けられるように、データベース中に格納されうり、または、それがインデックス付けのために用いられる所定のシーン状態から生じることができる。もちろん、両方の可能性の組み合わせも、可能である。
【0026】
追加としてまたは二者択一的に、テクスチャマップ・マッピング情報は、データベース中にあってもよく、すなわち、情報が、それぞれのビューにおいてオブジェクトの投影とオブジェクトの表面を表しさらに所望のテクスチャに対応するコンテンツで満たされうるテクスチャマップとの間のマッピングを可能にする。マッピングは、3Dオブジェクトの表面およびテクスチャマップ間の明確なマッピングの迂回路を介して、データベース中で定義されうる。3Dモデルの表面位置でまたは上でピクセルの関連または投影は、データベース16中に前もって決定されまたは格納されることもでき、または、所望のビューにビューの適合の間にオンラインで起こることもできる。
【0027】
本発明の実施形態による図1の装置の動作モードがさらに詳細に記載される前に、所定のシーン状態またはさまざまなシーン状態が例えば照明の入射方向を含む照明状況によって追加としてまたは二者択一的に定義されまたは異なる点に留意すべきである。このように、図2は、例えば、図1の装置によって、実行されうるように、複雑なおよび/または変形可能なオブジェクトを表す方法を示す。
【0028】
第1の方法ステップ32は、データベース16において、所定のシーン状態に類似するシーン状態の下でオブジェクトを示すビューを検索することを含む。図1の場合において、検索32は、検索ユニット12によって実行される。オブジェクトが身体に着けられうる例えば身に着けられうるオブジェクトであり、さらに、所定のシーン状態が部屋内の位置、姿勢および/または着用できるオブジェクトの着用者のための1つまたはいくつかの身体測定であることが、例として仮定される。換言すれば、シーン状態は、空間位置、姿勢および/または着用者の1つまたはいくつかの身体測定に関する1つまたはいくつかの変数の値を含み、定義される距離の測定は、ステップ32において、関連した値が同じ変数のために距離の測定によって定義される距離を最小化するという、データベース16のビューの中のビューの選択を許容する。ステップ32において、1つのビューだけの代わりに二つ以上ビューのどのビューが所定のシーン状態として類似するシーン状態の下でオブジェクトを示すかをデータベース16から決定することも可能である。シーン状態のベクトル空間において、所定のシーン状態から最も小さい距離をもたらす、そのビューまたはそれらのビューを選択することは可能である。換言すれば、データベース16は、所定のシーン状態を表すベクトルへの前記ベクトルの距離に応じて、その成分がシーン状態を表すいくつかのベクトルのために、その中で最も類似するビューがステップ32において選択されるビューを含む。その成分が最も類似するシーン状態を表すいくつかのビューが選択された場合において、それらは、所定のシーン状態を表すベクトルへのベクトルの距離に応じて、重み付け方法において1つのビューに融合される。
【0029】
図3は、例えば、さまざまなシーン状態のいずれかのためにデータベース16からのビューを示す。図3において、オブジェクトは、例えばスカート34である。図3は、部屋内の特定の位置または場所、スカート(図示せず)の着用者のビューイング方向の特定の方位、おそらく特定の脚の姿勢、および、おそらく特定の腹部または胴囲のためのスカート34のビューを示す。図3において左側に示されるビューは、実際のスカートのカメラ・ショットによって、または、高コストのシミュレーションによって得られうる。ビューのピクセル36は、図3において局所的に示されるだけである。前記ピクセルごとに、輝度値があり、それは、いわばスカート34の単色の織物に対して、テクスチャ非依存またはテクスチャレスの方法で、視点に投影される光のための反射性を示し、前記反射性は、次々に、織物の散乱特性、織物表面の通常のローカル方位によっても、用いられる照明状況によっても特定される。これは、ピクチャが撮られるときに、存在するテクスチャを意味し、または、ピクセル36の輝度に対するその効果は、単色のスカートの外観を生じるためにすでに減算されている。
【0030】
図3において、スカート34は、線画において表される。このように、等高線は、スカートを表すピクセル36を包囲する。データベースは、例えばピクチャが撮られるときにバックグラウンド存在を表す、周囲のピクセルを含みまたはそこにおいて格納することが可能である。この場合、ピクセルに正確であるシルエットの記載のために、セグメンテーション・マスクは、ビューに加えてデータベース中に格納されうり、前記セグメンテーション・マスクは、透明度値がオブジェクトを表すかまたはフォアグラウンド(例えばピクセル36)に属するかどうか、または、それがバックグラウンドに属するかどうかを、例えば透明度値によって、値のピクセルごとに示す。
【0031】
さらに、図3の実施形態によれば、それぞれのピクセル36は、それに関連付けられるテクスチャマップ位置を有することができ、それは、図3において矢印38によって示されるように、テクスチャマップ40に関するビューにおいてスカート34のピクセルの位置を示し、それは、次々に、スカート34の基礎をなしている織物の領域パラメータ化に対応し、または、織物表面のマップ投影をマップ平面に表す。例えば、テクスチャマップ投影は、太陽系座標によって定義されうる。図3において、ビュー38のピクセル36によって言及されるテクスチャマップ40の領域42は、ハッチングされることを示し、さらに、図3から集められうるように、前記領域42が中断されまたは非連続的であること、さらに、例えば、スカート34のビューに存在する折り目46の低減により見えず、したがって、ビューのいかなるピクセルにも関連付けられない互いの間にギャップ44を有することは可能である。データベースがマッピング38を直接的に表す情報を含むことは可能である。しかしながら、テクスチャマップ・マッピング情報が間接的にマッピング38を定義することも、すなわちオブジェクトの近似形状の以下に説明の3Dモデルの表面をテクスチャマップにマップすることによって、可能である。
【0032】
すでに上述のように、データベース16中のビューは、実際のショットから得られうる。例えば、スカート34をはいた人は、さまざまな位置、方位および姿勢において撮影される。上述の輝度値が再構成されるピクセル値からの実際のショットを撮る1台のカメラに加えて、それぞれのショットにおいて人の現在の位置、方位および姿勢を再構成し、したがってそれぞれのショットの基礎をなしているシーン状態を決定することを可能にするのに役立つさらなるものが用いられうる。スカートのプロトタイプは、含むことができる。上述のデータ投影の再構成を簡略化するパターン、すなわち個々のピクセルを有するテクスチャマップ・ベクトルの関連を含む。一旦これが起こると、上述のように、個々のショットのピクセル値は、前に言及されたテクスチャ非依存の相似値が生じるように、テクスチャ修正されうる。
【0033】
上述の情報に加えて、図3の実施形態によるビューごとにパラメータ化可能な3Dモデルもあり、前記パラメータ化可能な3Dモデルは、オブジェクトまたはスカート(34)の近似形状を表す。図3において、例えば、そのような簡略化3Dモデルの投影の輪郭は、一点鎖線によってスカート34のビューに取り込まれ、ここでこの3Dモデルは、例えば、円錐台の側面領域である。3Dモデルのパラメータ定義に関する情報は、モデルがポテンシャルパラメータ設定の下でできるだけスカート34の形状に近づくように、定義されてもよい。前記情報は、それが情報の個々の部分に関連付けられるように、データベース16中に明示的に格納されうり、または、それはそれぞれのビューが関連付けられるシーン状態から暗に生じることができる。明確な表示がパラメータ情報に関して基礎をなすシーン状態を補充する組み合わせを有することも可能である。しかしながら、3Dモデルをパラメータ化することに関する情報は、モデルが、一方ではポテンシャルパラメータ設定の下でスカート34の形状にできるだけ近づくように、他方では対応するビューにおいてオブジェクトまたはそのシルエットを完全に含むために十分大きく選択されるように、定義さてもよい。3Dモデルのパラメータ設定に関する情報は、3Dモデルが、適合した方法で、または回転および翻訳によって、ビューまたはシーン状態の全てのために相互に転送可能であってもよく、すなわち、特にそれぞれのビューへのそれぞれのビューに関連付けられる位置においてモデルの投影がビューまたはシーン状態の全てのためにビューにおいてオブジェクトまたはそのシルエットを完全に含むような方法において、3Dモデルがシーン状態の全てに共通であるように、定義されてもよい。したがって、3Dモデルの形状は、共有するシーン状態の全てのためにデータベース16中に格納されうる一方で、位置だけは、シーン状態のそれぞれのために特に個々に格納される。しかしながら、さまざまなビューのための3Dモデルが個々に形づくられることも可能である。例えば、3Dモデルは、グリッドモデルであってもよい。表面ノードまたは領域の数は、ビュー全体と同じでありうる。この場合、グリッドモデルがさまざまなビューのために異なることは可能でもあるが、3Dモデルのノードまたはユニット領域は、それらがシーン状態の定義範囲全体に連続的に変化するように選択される。例えば、初期設定段階の間、3Dモデルは、独立してではなく、正確にちょうど今言及された第2の状態の下で選択される。
【0034】
図3の例示的な場合において、3Dモデルは、比較的に簡単であるが、スカートの折り目46の低減が少なくとも部分的に再生されうるように、パラメータ化が設計されることも可能である。3Dモデルの目的は、以下の記載から集められうる。それもそこで述べられるように、さらに、3Dモデルは任意である。図3の実施形態の代わりの実施によれば、パラメータ化可能な3Dモデルは省略される。
【0035】
オブジェクトの近似形状を表すパラメータ化可能な3Dモデル48は、データベース16のビューの全てによっても登録される。ステップ52において、3Dモデル48に関する関連した3D点は、ステップ32において選択されるビューのピクセル36に関連付けられる。一方では3Dモデル表面に関する点の関連および他方ではデータベース16のそれぞれのビューのピクセルを介して、さまざまなビューを有する所属が、3Dモデルの点間に決定されうり、その所属は、データベース中のシーン状態を所望のシーン状態に適合する次のステップ54において、ステップ32において選択される、いくつかのビューの場合において連続的なフェードオーバーおよび融合のために利用されうる。特に、ステップ54は、データベース16からステップ32において得られたビューを、パラメータ化可能なモデル48を用いることによってスカート34の所望のシーン状態に適合することを含む。これは、データベース16中のビューからの3Dモデルが所望の姿勢、位置などに移行できるように、3Dモデルを回転し、変位し、スケーリングしまたは変形することによって達成されうる。より正確に言うと、ピクセル36は、ステップ52において、モデル48の表面において幾何学点に最初に関連付けられる。関連仕様は、観測器を対向している表面点上へピクセル36の投影を単に提供する。関連仕様は、ステップ52においてオンラインで計算されてもよい。あるいは、関連仕様は、ステップ52においてデータベースから読み出されるだけである。いくつかのビューの場合において、このように「テクスチャされる」3Dモデルは、回転、変位、スケーリングまたは変形によるステップ54において、所望の姿勢、位置に転送され、さらに、そこで共有ビューにマージされ、転送およびマージのために、モデル表面において点を有する個々のビューからのピクセルの関連を利用することが可能である。結果として生じるビューは、所望のシーン状態に適合される。
【0036】
3Dモデル48がスカート34の幾何学の大まかな近似だけを表すので、アニメーション、変形および表現は、低い効果で実現されうり、そのため、分析および合成に関するリアルタイム要求は、満たされうる。現実的な表現のために必要である詳細、例えば折り目の低減、マテリアル構造または詳細の豊富なシルエットは、データベース16中にイメージによっておよび存在しうるいかなるセグメンテーション・マスクによっても表される。
【0037】
図3の例示的な場合において、モデルは、人が運動するときに、織物のコース運動をシミュレートするために、変形パラメータに加えて動的な運動モデリングを含むこともできる。この場合も、微小変形は、ステップ32において関連した姿勢パラメータから決定されたデータベース16のビューによって表されうる。
【0038】
したがって、ステップ52の結果は、選択されたビューのシーン状態に適合されるスカート34の近似の3Dモデル48である。
【0039】
ステップ52は、特にそれぞれのビューにオブジェクトの投影に関連付けられる深さおよび幾何学情報が用いられるという点で、ステップ32において選択されるビューがオブジェクトまたはスカート(34)を表す下でシーン状態を、所定のシーン状態に適合することを可能にする。ステップ54において、ビューがスカート34を所定のシーン状態に表す下でシーン状態に適合するために、アダプタ14がステップ32のビューからスカート34を並進的に相殺し、回転しまたは傾斜しまたは延長しまたは圧縮することは、3Dモデルによって可能である。ステップ54の結果は、関連した輝度値またはテクスチャマップ位置を維持するとともに、最終的に、他の位置にステップ32において決定される予備ビューの規則的に配列されたピクセル位置の横変位またはひずみである。
【0040】
ステップ52および54が比較的小さい計算量を必要とすることは、この点でさらに強調されるべきである。3Dモデルの複雑さの程度が、上述のように、変動することができる場合であっても、所定のシーン状態に対する適合に関する計算出費は、最も複雑な計算がステップ32において選択されるビューにおいてピクセル位置を変位するために抑止されるので、それにかかわりなく低いままである。反射状態および折り目46の低減の形状は、シミュレートされる必要がなく計算される必要がない。それらは、データベースから引き継がれ続ける。軽微なシーン状態偏差だけが相殺されなければならないので、ユーザのための簡略化は、後に明白である。
【0041】
ステップ32において、2つ以上のビューがデータベースから得られうることはさらに留意されるべきである。この場合、ステップ52および54は、特に、例えば、適合されるビューの次の融合を有するビューのそれぞれのために実行される。同じことがステップ56に当てはまり、それは後述される。
【0042】
ステップ56において、(リ)テクスチャリングは、テクスチャマップ・マッピング情報に基づいて、または、テクスチャマップ42に対するモデル表面のテクスチャマッピングおよびビューの輝度値に基づいて実行される。図3の場合において、例えば、テクスチャまたはパターン58は、所望のビューまたは表現においてスカート34をテクスチャするために用いられる例によって示される。図1の装置において任意であるとして表されるテクスチャラー62は、ステップ56のために、ピクセル36に関連付けられた例えばノードまたは三角形などの表面部位を、所望のテクスチャ58が入れられるテクスチャマップ42の位置に関連付けるために、データベース16からテクスチャマップ・マッピング情報を用い、言及されるそれぞれのテクスチャマップ値は、それぞれの表面部位に関連付けられるピクセル36の輝度値で重み付けられる。このように、所定のシーン状態の下でオブジェクトまたはスカート34示す所望のビューが生じ、前記所望のビューは、図2において参照番号64によって示される。別の表現で言うと、ピクセル36を有するテクスチャマップ値の関連は、図3の現在記載されている実施形態において間接的に達成され、その理由は、ピクセルがすでにステップ52において3Dモデルの表面点に関連付けられ、さらに、前記点が所望のシーン状態に適合を経由してステップ54において変位されているからである。したがって、後の点は、それらに関連付けられるデータベース16中のそれぞれのビューから輝度値も間接的に有し、さらに、それらも、それらに関連付けられるテクスチャマップ58から、すなわちデータベース16を用いることによって、それぞれのテクスチャマップ値も有し、それは、また、3Dモデルパラメータに加えて、それぞれのビューのためのマッピングを含み、そして、そのマッピングは、見ることができさらにオブジェクトの投影に重なるテクスチャマップ上に3Dモデルの表面の部分をマップする。
【0043】
ステップ54および56が交換されうることは留意すべきである。ステップ56は、ステップ52の前に実行されてもよい。さらに、補間がステップ54において生じたピクセル変位を規則的なピクセルアレイに再転送するために所望のビュー64を得るために起こりうることは、以前に明示的に指摘されていない。さらに、パラメータ化可能な3Dモデルの代わりに、アプローチが、個々のピクセル36のためにどの深さ情報値がデータベース16中に含まれるかに基づいて、輪郭48を用いることによって、適合されうることに留意すべきである。それらは、例えばランタイム測定プロセスなどによって、初期設定段階、例えばカメラ・キャプチャリング距離イメージにおいてほど早期に特定のカメラによって検出されうる。この場合、ステップ52は、データベース16から深さ情報値を読み取って、それらを個々のピクセルに関連付けるだけで、深さ情報値をピクセルに関連付けることに制限される。
【0044】
このように、ステップ56の結果は、所定のシーン状態の下でオブジェクトのビューである。上述のように、ステップ32において決定されるいくつかのビューは、用いられうる。この場合、所望のビュー64は、例えば、所望のテクスチャリングを含む関連したピクセル値からの距離のピクセル的な平均またはそれでの重み付けによって得られる。ステップ56に追従するいくつかのビューから生じる点の不定期なクラウドに基づいて、ステップ52〜56を受けたいくつかのビューの場合において規則的なピクセル配列上に前に言及された補間を達成することは可能である。
【0045】
図4に関して、図1の表現装置10のアプリケーションは、例えば身に着けられうる例えばドレス102のような身体に着けられうるオブジェクトの仮想フィッティングのための装置100との関連で以下に説明される。例えば、図4の装置100は、例えばカメラなどのキャプチャリングデバイス104と、姿勢認識器106と、表現装置10と、フューザー108とを含む。任意に、装置100は、カメラ104が彼/彼女をキャプチャする遠近感からディスプレイ110上の彼自身/彼女自身をユーザー112が見る表示デバイス110を含むが、ディスプレイ100に、ユーザ112は、重ね合わされたピクチャ、すなわち、所望のドレス102が人112上に重ね合わされるカメラ104のビューを示される。姿勢認識器106は、図4に示されるように、前に述べられる所定のシーン状態すなわち位置、アライメントおよび/またはユーザ112の姿勢を決定するためのカメラ104によって得られるショットを用いる。追加としてまたは二者択一的に、姿勢認識器106は、人112の身体測定を決定することができる。しかしながら、前記身体測定は、例えばキーボードのように、図4に示されない適切な入力装置を介して、人112によって入力されてもよい。さらに、姿勢認識器106がカメラ104によって撮られるカメラ・ショットを用いることさえなく所定のシーン状態または現在のシーン状態を認識することは可能である。例えば、姿勢認識器106は、3D測定システム例えばトライアンギュレーション・システム、ランタイムカメラまたは姿勢認識のためのその他を用いる。あるいは、姿勢認識器106は、カメラ104に加えて、複数のショットから、所定のまたは現在のシーン状態、すなわち位置、アライメントおよび/または人112の姿勢を決定するために、さまざまな方向からシーンおよび/または人112をキャプチャしまたは観察する1つ以上のさらなるカメラを用いることができる。
【0046】
上述のように、表現装置10は、その後、姿勢認識器106によって所定のシーン状態において所望の着用できるオブジェクト102の所望のビューおよび/または所望の表現を決定する。
【0047】
次に、フューザー108は、合成されたイメージを形成するために着用できるオブジェクト102のビューで、カメラ・ピクチャ104を融合するように構成され、このように合成される前記画像は、図4に示されるように、ディスプレイ110に表示されうる。
【0048】
図4の装置は、リアルタイムにおいて作動しおよび/またはフレームごとに融合されたフレームを生成するように構成されうる。そのために、姿勢認識器106、表現装置110およびフューザー108は、例えば、それぞれのフレームのためにまたは少しのフレームのために上述のステップまたはプロセスを実行するように構成されうり、後者の場合、フューザー108は、例えば、それぞれ、装置10から表現を有する融合によって得られた、先行する合成されたフレームおよび後の合成されたフレームから割り込まれたフレームを補完することである。
【0049】
図2および図3に関して、アプローチは、どのテクスチャマップ・マッピング情報がテクスチャマップ上へオブジェクト投影のマッピング38を間接的に定義したかに従って、すなわち3Dモデル48の表面部位をマップ42にマップすることによって、上に述べられている。変形例は、マッピング38がデータベース16に明示的に格納されるということである。第1の方法ステップ32において、所定のシーン状態に類似するシーン状態の下でオブジェクトを示すビューを、データベース16において、検索する。前記ピクセル36のそれぞれのために、輝度値があり、それは、テクスチャの非依存またはテクスチャレスの方法で、いわばスカート34の単色の織物にために、視点に投影される光のための反射性を示す。さらに、テクスチャマップ40に関するビューにおいてスカート34のピクセルの位置を示すテクスチャマップ位置および/またはテクスチャマップ座標は、それぞれのピクセル36に関連付けられる。マップ投影は、例えば、テクスチャ座標によって定義されうる。前に言及された情報に加えて、データベース16においてビューごとに、オブジェクトまたはスカート34の近似形状を表すパラメータ化可能な3Dモデルもある。適合ビューのために、上述の説明と異なって、ステップ52は、モデル表面部位およびピクセル間の相互の関連を含まないかもしれないが、ステップ52において、ステップ32において選択されるビューのピクセル36は、スカートまたはオブジェクト34の近似形状のパラメータ化可能なモデル48に基づいて、それらに関連付けられうり、深さ情報値は、例えばカメラ位置からそれぞれのピクセルのそれぞれのオブジェクト点間の距離の近似測定を示す。その関連は、以下の通りに発生しうる。アダプタ14は、ステップ32において選択されるビューに対応する前に言及された3Dモデルを計算することができ、さらに、距離値がピクセルに対応する位置で3Dモデル48によって呈したスカート34のそれぞれのピクセル36に関連付ける。実際にスカートを表すが、3Dモデルの投影48の外側に位置されうるスカート34のポテンシャル・ピクセルのために、供給は、適切な方法で外側に挿入される3Dモデルの深さ情報値のために可能である。そのようなピクセルは、例えば、輪郭48中でスカート34で最も近いピクセルの深さ情報値を得る。あるいは、モデルは、それが完全にシルエットを囲むように選択されることができ、さらに、ピクセルに正確であるその輪郭は、セグメンテーション・マスクによって定義されうる。したがって、ステップ52の結果は、スカート34の深さイメージであり、前記深さイメージは、関連したシーン状態を有するスカート34のオブジェクトを示す。前記深さ情報値に基づいて、アダプタ14は、ビューがスカート34を所定のシーン状態に表す下でシーン状態を適合するために、ステップ54においてステップ32のビューからスカート34を並進的に相殺し、回転し、傾動しまたは延長しまたは圧縮する。ステップ54の結果は、関連した輝度値またはテクスチャマップ・ベクトルを維持するとともに、最終的に、他の位置にステップ32において決定される予備ビューの規則的に配列されたピクセル位置の横変位またはひずみである。反射状態および折り目46の低減の形状は、シミュレートされる必要がなくて、この実施形態において計算される必要もない。ステップ56は、ピクセル36に関連付けられるテクスチャマップ位置および輝度値に基づいて(リ)テクスチャリングを含む。ステップ56のために、テクスチャラー62は、テクスチャ58をピクセル36に関連付けるためにテクスチャマップ位置を用い、そこにおいて、それぞれのテクスチャマップ・ベクトルが向けられるそれぞれのテクスチャマップ値は、ピクセル36の輝度値で重み付けられる。このように、所定のシーン状態の下でオブジェクトまたはスカート34を示す所望のビューがつくられる。
【0050】
このように先に述べた実施形態は、複雑なおよび/または変形可能なオブジェクト例えば衣類などの表現を可能にする。この表現は、シーンを分析して合成するために用いられうる。高い表現品質を確実にする間にリアルタイムに処理することが可能である。これらの特性は、オフラインの前処理ステップに対する計算費用のシフトによって、および、テストオブジェクトの実際のビデオおよびピクチャの利用によって、使用可能である。それらの特性の全てに関して正確にオブジェクトをモデル化する代わりに、一実施形態は、例えば、カメラを用いてトレーニング段階の間、照明においてさまざまな表現的な運動、変形または変化を受けたオブジェクトをキャプチャすることを提供する。このビデオ・ベースのプロセスが一度だけ起こるので、高コストの捕捉システムおよび分析法は利用されうる。さらに、簡略化処理のために、適切なテストオブジェクトが設計されうり、そこにおいて、シェーディングのような情報およびテクスチャの方位における変化が直ちに抽出されうる。検索は、後ほどリテクスチャリング方法(56を参照)によって、所望の外観に適合されうる。リアルタイムアプリケーションにおいて、新しいビューは、適切なおよび速いイメージ補間(52および54を参照)によって多数のテスト・ショットから作られうり、それは、テスト・ショットは、高レベルの自然らしさを有し、その理由は、それらが実際のショットから計算され、さらに、その結果、例えばさまざまなポーズに対して例えば折り目などの詳細において豊富である領域におけるシェーディングに関する情報の全ておよびテクスチャの方位における変化が含まれるからである。例えば衣類などの複雑な変形可能なオブジェクトは、大きな自由度を含み、イメージにおいて、検出することとポテンシャル運動および変形状態の全てを格納することとが可能でない。したがって、イメージ情報に加えて、一実施形態によれば、オブジェクトの粗い3D幾何学が、再構成され、さらに、例えば多角形ネットワークによって表される。このモデル(48を参照)は、近似形状を表し、したがって、コンパクトな方法で記載されうり、急速に活気づけられ、さらに、新しいポーズおよびビューを差し込むために用いられうる。両方の前に言及された実施形態の概念は、近似モデル(48を参照)をドミナント運動、変形または相互関係/変化のために利用することにあり、さらに、ピクチャ/ビデオベースの方法によって、例えばシェーディングおよびテクスチャの方位における変化などの詳細を加える。正確なシルエットは、わずかにより大きいモデル(48を参照)上の透明的なテクスチャによって実現されうる。衣類を表すために、例えば、幾何学は、彼/彼女の腕および脚と同様に着用者の身体の形状を概略的に表すことができ、それの運動は、リアルタイムに、ポーズの推定のためのまたは人体トラッキング(106を参照)のためのアルゴリズムによって推定されうる。いかなる一定のポーズのためにも、ビューは、トレーニング段階(図4において10を参照)から相似イメージから差し込まれうり、そこに格納されるポーズに関する小さい違いが、幾何学(52および54を参照)によって修正される。オフラインステップにおいて生成されるビデオ・ベースの表現が正しいシェーディング、新しいテクスチャ、パターンおよびアプリケーションに加えて表面に関して方位情報を含むこともでき、例えば実際のショットから、明示的にモデルでなけければならないことはなく、詳細を正しく適用することができる。
【0051】
上述の実施形態の重要な利点は、相互関係の可能性と同様に高度な自然度およびリアリズムを有する拡張現実アプリケーションにおいて、複雑なオブジェクト、例えば衣類、ヘアスタイル、宝石または眼鏡のリアルタイム表現を実現する可能性にある。
【0052】
さらに、さらなる利点は、最終用途のためのハードウェアが、例えばわずかのカメラしか必要とされない事実によって、簡略化されうることであり、その理由は、詳細情報がオフラインのステップにおいて一度限りに得られうり、したがって、費用がコンテンツ作製ステップにシフトされるからである。したがって、上述の実施形態は、大衆市場のための解決策として適切である。
【0053】
上述の実施形態は、例えば、仮想フィッティングルームとして適用されるために用いられうり、そこにおいて、ユーザは、実質的に衣類を設計して試着する。さらに、上述の実施形態は、新しいヘアースタイルまたは眼鏡の高度な可視化のためにさらに宝石および腕時計を表すために使用されうる。
【0054】
同時に、上述の実施形態は、自然の高品質の方法において仮想オブジェクトを表すとともに、リアルタイムにおいて処理されうる例えば衣類およびヘアースタイルなどのオブジェクトの表現を可能にする。
【0055】
上述の説明は、ビューがテクスチャ非依存の方法においてデータベース16に格納されると述べ、それによれば、同一の表面色、例えば白または他のいかなる自然色のためのショットを得るために、ピクチャが撮られるとともに、オブジェクトの色および/または輝度変更が、変更テクスチャのためそれぞれのビューにおいてすでに減算されている。これは、必ずしもそうであるというわけではない。むしろ、例えばピクセル溶解された方法において、それらに関連付けられるデテクスチャリング情報を有することが、データベース16においてビューにとって可能であり、それは、ビューに適用されるときに、例えばピクセル的な乗算または減算によって、オブジェクト(34)のテクチャされていない単色の表現を生じる。さらに、デテクスチャリングは、オンラインで実行されてもよい。
【0056】
特に、状況に応じて、本発明のスキームがソフトウェアにおいて実施されうる点に留意すべきである。実施は、対応する方法が実行されるように、プログラム可能なコンピュータシステムと協動することができる、電子的に可読の制御信号を有するデジタル記憶媒体、特にディスクまたはCDにおいて実行することができる。そのため、本発明は、一般に、コンピュータプログラム製品がコンピュータ上で実行されるときに、本発明の方法を実行するための機械可読のキャリアに格納されたプログラムコードを有するコンピュータプログラム製品にある。したがって、換言すれば、本発明は、コンピュータプログラムがコンピュータ上で実行されるときに、その方法を実行するためのプログラムコードを有するコンピュータプログラムとして実現されうる。

【特許請求の範囲】
【請求項1】
所定のシーン状態の下で複雑なおよび/または変形可能なオブジェクトを表すための装置であって、
前記所定のシーン状態によって、多数の異なるシーン状態のそれぞれのためにそれぞれのシーン状態の下でオブジェクトを示すオブジェクト(34)のビューを示すデータベース(16)において前記所定のシーン状態に類似するシーン状態の下でオブジェクト(34)を示す第1のビューと前記それぞれのビューにおいてオブジェクト点間のマッピングおよび前記オブジェクトの所望の検索に対応する所定のテクスチャマップを特定する関連したテクスチャマップ・マッピング情報とを検索するための検索ユニット(12)、
前記第1のビューを前記所定のシーン状態に適合するとともに第2のビューを作るためのアダプタ(14)、および
前記第2のビューにおいて前記オブジェクト(34)の前記検索が前記所定のテクスチャマップ(40、58)に対応するように、前記テクスチャマップ・マッピング情報に基づいて前記オブジェクト(34)をテクスチャするように構成されるテクスチャラー(62)を含む、装置。
【請求項2】
前記所定のシーン状態は、前記オブジェクト(34)の位置、前記オブジェクト(34)の姿勢、前記オブジェクト(34)の変形および/または前記オブジェクトの測定のための所定の値を含み、さらに、前記データベース(16)において前記オブジェクト(34)の多数のビューは、前記オブジェクト(34)の位置、前記オブジェクト(34)の姿勢、前記オブジェクト(34)の変形および/または前記オブジェクトの測定のための値を含む、請求項1に記載の装置。
【請求項3】
前記アダプタ(14)は、前記第1のビューを前記所定のシーン状態に適合するために、前記第1のビューにおいて前記オブジェクト点に深度情報を関連付け、さらに、前記所定のシーン状態および前記第1のビューが前記オブジェクト(34)を示す第2の状態間の偏差を補正するために前記深度情報を用いるように構成される、請求項2に記載の装置。
【請求項4】
前記アダプタ(14)は、前記オブジェクトを表す前記第1のビューのピクセル(36)を、前記データベース(16)において前記第1のビューに関連付けられるパラメータ情報によって定義される前記オブジェクト(34)の近似形状のパラメータ化可能な3Dモデルの表面部位に関連付け、さらに、前記所望のシーン状態に対応するために前記3Dモデルを変形して移動するように構成される、請求項2または請求項3に記載の装置。
【請求項5】
前記アダプタ(14)は、前記オブジェクトの前記位置、前記オブジェクトの前記姿勢および/または前記オブジェクトの前記測定のための前記所定の値を用いるとともに前記パラメータ情報を決定するように構成される、請求項4に記載の装置。
【請求項6】
前記テクスチャマップ・マッピング情報は、前記情報が前記3Dモデルの表面および前記定義されたテクスチャマップ間にテクスチャマッピングを定義するという点で、前記オブジェクト点間の前記マッピングおよび前記所定のテクスチャマップを間接的に特定し、さらに、前記テクスチャラ(62)は、前記テクスチャマッピングに基づいて、前記所定のテクスチャマップからテクスチャマップ値を前記3Dモデルの前記表面部位に関連付け、さらに、前記オブジェクト(34)の前記所望の検索が前記第2のビューにもたらされるように、それを前記表面部位に関連付けられる前記第1のビューの前記ピクセルの輝度値で重み付けるように構成される、請求項4または請求項5に記載の装置。
【請求項7】
前記オブジェクトは、1枚の衣類であり、さらに、前記所定のシーン状態は、人の腕の姿勢、脚の姿勢、胴の姿勢および/または身体測定のための所定の値を含み、さらに、前記データベース(16)において複数のビューは、人の腕の姿勢、脚の姿勢、胴の姿勢および/または身体測定のための異なる値を含む前記オブジェクトのビューを含む、前の請求項のいずれかに記載の装置。
【請求項8】
前記オブジェクトは、ヘアースタイルであり、さらに、前記所定のシーン状態は、人の頭の姿勢のための所定の値を含み、さらに、前記データベース(16)において前記オブジェクト(34)の前記多数のビューは、人の頭の姿勢の異なる値を含む前記オブジェクトのビューを含む、前の請求項のいずれかに記載の装置。
【請求項9】
前記データベース(16)において前記オブジェクト(34)の前記ビューは、テクスチャされていない単色方法において前記オブジェクト(34)を示し、または、前記ビューに適用される場合、前記オブジェクト(34)のテクスチャされていない単色表現を生じる関連したデテクスチャリング情報を含む、前の請求項のいずれかに記載の装置。
【請求項10】
身体に着けられうるオブジェクトの仮想フィッティングのための装置であって、
人のデフォルト・ビューを作るためのキャプチャリングデバイス(104)、
前記デフォルト・ビューにおいて前記人の姿勢を認識するための姿勢認識装置(106)、
認識される前記姿勢によって、前記人の多数の異なる姿勢の中の前記身体に着けられうる前記オブジェクトを示す前記身体に着けられうる前記オブジェクトの多数のビューを含むデータベース(16)において、認識される前記姿勢に類似する人の姿勢の下で前記身体に着けられうる前記オブジェクトを示す第1のビューを検索するための検索ユニット(12)、
前記第1のビューを認識される前記姿勢に適合することによって第2のビューを作るためのアダプタ(14)、および
それらの身体において、前記人が前記身体に着けられうる前記オブジェクトを着用する状態において前記人の合成されたビューを形成するために前記デフォルト・ビューおよび前記第2のビューを融合するためのフューザー(108)を含む、装置。
【請求項11】
前記身体に着けられうる前記それぞれのオブジェクトの多数のビューは、人の異なる姿勢において前記身体に着けられうる前記それぞれのオブジェクトを示し、前記身体に着けられうる複数のオブジェクトのそれぞれのために前記データベース(16)中に含まれ、
前記アダプタ(14)は、前記身体に着けられうる前記それぞれのオブジェクトの近似形状のパラメータ化可能な3Dモデルの表面部位を、前記着用できるオブジェクトを表す前記第1のビューのピクセル(36)に関連付けるように構成され、前記パラメータ化可能な3Dモデルが、前記身体に着けられうる前記それぞれのオブジェクトに関連付けられ、さらに、前記身体に着けられうる複数のオブジェクトの、前記身体に着けられうる、他のオブジェクトの他の3Dモデルとは異なり、さらに、前記アダプタ(14)は、認識される前記姿勢に対応するために前記3Dモデルの前記パラメータを適合するように構成され、
前記身体に着けられうる前記それぞれのオブジェクトの前記3Dモデルの表面と、前記身体に着けられうる前記それぞれのオブジェクトの所望の検索に対応し、さらに、前記身体に着けられうる前記複数のオブジェクトの、前記身体に着けられうる、他のオブジェクトの他のテクスチャマップと異なる、前記身体に着けられうる前記それぞれのオブジェクトのそのようなテクスチャマップとの間の関連したテクスチャマッピングは、前記ビューに関して前記データベース(16)中に含まれ、さらに
前記装置は、前記オブジェクト(34)の前記所望の検索が前記第2のビューをもたらすように、前記テクスチャマップからテクスチャマップ値を前記テクスチャマッピングに基づいて前記3Dモデルの前記表面部位に関連付けるために、さらに、それを前記表面部位に関連付けられる前記第1のビューの前記ピクセルの輝度値で重み付けるために、テクスチャラー(62)をさらに含む、請求項10に記載の装置。
【請求項12】
前記キャプチャリングデバイスは、ビデオカメラおよび前記姿勢認識装置(106)であり、前記検索ユニット(12)、前記アダプタ(14)および前記フューザー(108)は、リアルタイムに前記ビデオカメラの一連のショットを処理するように構成される、請求項10または請求項11に記載の装置。
【請求項13】
前記一連のショットは、不完全であり、さらに、前記フューザー(108)は、補間によって前記一連のショットから割り込まれたショットを形成するように構成される、請求項12に記載の装置。
【請求項14】
所定のシーン状態の下で複雑なおよび/または変形可能なオブジェクトを表す方法であって、
前記所定のシーン状態によって、多数の異なるシーン状態のそれぞれのためにそれぞれのシーン状態の下でオブジェクトを示すオブジェクト(34)のビューを示すデータベース(16)において前記所定のシーン状態に類似するシーン状態の下でオブジェクト(34)を示す第1のビューと前記それぞれのビューにおいてオブジェクト点間のマッピングおよび前記オブジェクトの所望の検索に対応する所定のテクスチャマップを特定する関連したテクスチャマップ・マッピング情報とを検索するステップ、
前記第1のビューを前記所定のシーン状態に適合するとともに第2のビューを作るステップ、および
前記第2のビューにおいて前記オブジェクト(34)の前記検索が前記所定のテクスチャマップ(40、58)に対応するように、前記テクスチャマップ・マッピング情報に基づいて前記オブジェクトをテクスチャするステップを含む、方法。
【請求項15】
前記身体に着けられうるオブジェクトの仮想フィッティングの方法であって、
人のデフォルト・ビューを作るステップ、
前記デフォルト・ビューにおいて前記人の姿勢を認識するステップ、
認識される前記姿勢によって、前記人の多数の異なる姿勢の中の前記身体に着けられうる前記オブジェクトを示す前記身体に着けられうる前記オブジェクトの多数のビューを含むデータベース(16)において、認識される前記姿勢に類似する人の姿勢の下で前記身体に着けられうる前記オブジェクトを示す第1のビューを検索するステップ、
前記第1のビューを認識される前記姿勢に適合することによって第2のビューを作るステップ、および
それらの身体において、前記人が前記身体に着けられうる前記オブジェクトを着用する状態において前記人の合成されたビューを形成するために前記デフォルト・ビューおよび前記第2のビューを融合するステップを含む、方法。
【請求項16】
コンピュータプログラムがコンピュータ上で実行されるときに、請求項14または請求項15に記載の方法を実行するためのプログラムコードを含むコンピュータプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate


【公表番号】特表2013−501284(P2013−501284A)
【公表日】平成25年1月10日(2013.1.10)
【国際特許分類】
【出願番号】特願2012−523277(P2012−523277)
【出願日】平成22年7月23日(2010.7.23)
【国際出願番号】PCT/EP2010/060734
【国際公開番号】WO2011/015470
【国際公開日】平成23年2月10日(2011.2.10)
【出願人】(591037214)フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ (259)
【Fターム(参考)】