説明

3D表面形状をキャプチャーするための方法およびシステム

【課題】変形表面のキャプチャーを高解像度で得る。
【解決手段】シーンの3D画像データをキャプチャーするシステムにおいて、各々が互いに異なる波長の光を照射し、キャプチャーすべきシーンを照明するよう構成された三つの光源と、前記シーンから反射された前記光源からの光を受光するよう構成され、各光源から受光された光を分離し、前記三つの光源ごとにキャプチャーされた前記画像に関するデータを出力する第一ビデオカメラと、前記シーンの第一デプスマップをキャプチャーするよう構成されたデプスセンサと、前記第一ビデオカメラからデータを受信し、該データを処理して前記三つの光源ごとにキャプチャーされた前記画像から得られた法線領域に関するデータを取得する解析ユニットにおいて、前記法線領域に関する前記データを前記第一デプスマップのデータに合成して、前記シーンの3D画像データをキャプチャーする前記解析ユニットとを備える。

【発明の詳細な説明】
【関連出願】
【0001】
この出願は、2011年5月9日に提出された英国特許出願第1107716.1号の優先権を主張するものであり、その全内容は、参照によってここに組込まれる。
【技術分野】
【0002】
本発明の実施形態は、一般に、3D画像データをキャプチャーするための方法およびシステムに関する。
【背景技術】
【0003】
変形表面のキャプチャーは、グラフィックス、医用画像、展開構造の解析といった様々な応用を目的としてますます重要になっている。空間領域および時間領域の双方で高解像度形状を得る実用的な方法が必要である。
【図面の簡単な説明】
【0004】
ここで、以下の実施形態を参照しながら本発明を説明する。
【図1】図1は、本発明の実施形態で用いられるシステムである。
【図2】図2は、図1のシステムで用いられる解析ユニットの図である。
【図3】図3は、本発明の実施形態で用いられる較正方法のフローチャートである。
【図4】図4は、本発明の実施形態で用いられる再構成方法のフローチャートである。
【図5】図5(a)乃至(f)は、図3に関して説明される較正手順を用いて得られた画像である。
【図6】図6(a)は図4に関して説明された方法を用いて得られた法線マップ、図6(b)は色度を変えない方法を用いて得られた法線マップ、図6(c)は図6(a)と図6(b)との間の差を示す図である。
【図7】図7(a)乃至(f)は、図3および図4に関して述べられた方法を用いた多色シーム(seem)の再構成を示す。
【図8】図8は、図3および図4に関して述べられた方法を用いたシーンの再構成を示す。
【図9】図9(a)は、図4の方法を用いて法線誤差に適用されたノイズの効果、図9(b)は、デプス誤差に適用されたノイズの効果である。
【図10】図10(a)乃至(j)は、既知のレンダリング画像の定量分析を示す。
【図11】図11(a)は再構成する画像であり、図11(b)乃至(e)は、図11(a)の画像の再構成を示す。
【図12】図12(a)は2色の入力画像、図12(b)は入力画像の法線マップ、図12(c)は様々な仮セグメンテーション、図12(d)は図12(c)の仮セグメンテーションの結果画像を示す。
【図13】図13は、本発明のさらに別の実施形態で用いられる再構成方法を示すフローチャートである。
【図14】図14は、本発明のさらに別の実施形態で用いられる較正方法を示すフローチャートである。
【図15】図15は、図14の較正方法を実現するアルゴリズムを示すフローチャートである。
【図16】図16は、様々な再構成画像の色度の変化とセグメント化の問題を示す図である。
【図17】図17は、入力画像および本発明の実施形態の方法を用いた入力画像の再構成を示す。
【図18】図18は、既知のレンダリング画像の定量分析の画像を示す。
【図19】図19は、負対数尤度のプロットおよび色度に対するBIC値の結果を示す。
【図20】図20は、本発明のさらに別の実施形態で用いられるシステムを示す。
【図21】図21は、本発明の実施形態に係る較正方法で使用される較正ボードを示す。
【図22】図22は、本発明のさらに別の実施形態で用いられる較正方法を示すフローチャートである。
【図23】図23は、本発明のさらに別の実施形態で用いられる再構成方法を示すフローチャートである。
【図24】図24は、デプス画像における空間平滑化に応じた時間的ノイズのプロットである。
【図25】図25は、本発明の実施形態に係る方法を用いて再構成された面のスライスを示すプロットである。
【図26】図26は、本発明の実施形態で用いられる再構成処理によって生成された画像を示す。
【図27】図27は、デプスセンサからの出力、フォトメトリックステレオからの出力、および合成出力を用いる再構成サービスの画像を示す。
【図28】図28(a)乃至(d)は、本発明の実施形態で用いられる較正ボードの概略図を示す。
【発明を実施するための形態】
【0005】
一実施形態によれば、シーンの3D画像データをキャプチャーするシステムは、
各々が互いに異なる波長の光を照射し、キャプチャーすべきシーンを照明するよう構成された三つの光源と、
前記シーンから反射された前記光源からの光を受光するよう構成され、各光源から受光された光を分離し、前記三つの光源ごとにキャプチャーされた前記画像に関するデータを出力する第一ビデオカメラと、
前記シーンの第一デプスマップをキャプチャーするよう構成されたデプスセンサと;
前記第一ビデオカメラからデータを受信し、該データを処理して前記三つの光源ごとにキャプチャーされた前記画像より得られた法線領域に関するデータを取得し、前記法線領域に関する前記データを前記第一デプスマップのデータと合成することにより、前記シーンの3D画像データをキャプチャーする解析ユニットとを備える。
【0006】
また一実施形態によれば、法線領域に関するデータは、ピクセルごとに視認されるシーン内の固形オブジェクトの表面に鉛直なベクトルの方向である。これらは第一ビデオカメラによるフォトメトリックステレオ測定によって決定される予測法線方向である。また別の実施形態によれば、法線領域に関するデータは、法線領域から第二深度マップを減じた統合法線領域である。
【0007】
三つの光源と記載したが、三つよりも多くの光源を用いてもよい。
【0008】
デプスセンサは多様な形態をとることができる。代表的なものとしては、第一ビデオカメラと三つの光源とを組み合わせることにより生成される周波数解像度よりも、2Dフーリエ空間においてもっと低い周波数解像度を有するデプスマップを生成するデプスセンサがある。第一ビデオカメラを三つの光源と組み合わせて協働させることで、いわゆるフォトメトリックステレオ法を用いた法線領域を生成する。このような方法により、2Dフーリエ空間において十分高い周波数解像度を有する画像が生成される。言い換えれば、この組み合わせによって、撮像中のシーンのディテールを豊富に含んだデプスマップに変換できる法線領域が生成される。また別の実施形態によれば、フォトメトリックステレオ法で生成される周波数解像度よりも、もっと低い2Dフーリエ空間における周波数解像度を有するデプスマップを生成するデプスセンサが用いられる。
【0009】
また一実施形態によれば、前記デプスセンサは前記第一ビデオカメラと、第二ビデオカメラと、相関ユニットとを備え、前記第二ビデオカメラは前記第一ビデオカメラから空間的に分離されており、前記相関ユニットは前記第一および第二ビデオカメラから受信した前記データを相互に関連させることにより前記シーンのデプスマップを生成するよう構成されている。このタイプのデプスセンサは二視野のステレオデプスセンサである。別の実施形態によれば、パターンを該シーンに投影するよう構成されたプロジェクタと、前記シーンに投影された該パターンの画像をキャプチャーするよう構成されたカメラとを備えた画像符号化式デプスセンサが用いられ、該解析ユニットは第二デプスマップを生成するよう構成されている。さらに別の実施形態によれば、デプスセンサはタイムオブフライトセンサである。
【0010】
さらに別の実施形態によれば、動的シーンの3D画像データを生成する方法であって、この方法は
三つの異なる方向から照射された前記シーンの該第一カメラによりキャプチャーされた映像データを含むフォトメトリック画像データであって、照明方向ごとにキャプチャーされた前記画像データに分離可能であるフォトメトリック画像データを第一ビデオカメラから受信する工程と、
デプスセンサから前記シーンの第一デプスマップのデータを示すデータを受信する工程と、
前記第一ビデオカメラから受信したデータを解析して、法線領域に関するデータを供給する工程とを備え、さらに前記方法は前記法線領域に関する前記データと前記第一デプスマップに関する前記データとを合成して前記シーンの前記3D画像データを生成する工程を備える。
【0011】
また一実施形態によれば、画像となる前記シーンがLambertian撮像モデルに従って光を反射することを想定して、前記第一ビデオカメラからの前記データが解析され、
【数1】

【0012】
ここでc,c,cをそれぞれ前記三つの方向から前記シーンを照明してキャプチャーした画像内のある画素について測定した輝度とするとき、c=[cが成立し、nは前記画素の表面に対する法線を表すベクトル、Vは前記表面および前記カメラの照明に対する結合応答を表す行列、Lは前記三つの照明光の方向を決める行列である。前記三つの異なる方向の照明は異なる色の光であってもよい。一実施形態によれば、これらの光は赤、緑、青である。赤、緑、青の光を識別可能なフィルターシステムを第一ビデオカメラに設けてもよい。これにより、三つの照明方向からのデータをリアルタイムでキャプチャー可能となり、そのデータを分離することで各照明方向からのデータを別々に解析できる。
【0013】
また一実施形態によれば、較正工程をさらに備え、M=VLの場合、該較正工程がMを決定するよう構成されている。しかし、さらに別の実施形態によれば、VおよびLは別々に決定される。行列Lは、システムやシーンの変化とは独立して決定できる。しかし、通常では行列Vはシーンごとに決定される。行列Vが一度決定されれば、シーン途中で再計算する必要はない。
【0014】
一実施形態によれば、画素ごとにVが決定される。さらに別の実施形態によれば、Nが1以上一シーン内の画素数未満の整数である場合、行列VがN個となるよう較正中に複数の行列Vがシーンごとに決定される。さらに別の実施形態においては、前記行列VaΕ1,.......,NがRANSACアルゴリズムを用いて決定される。N個の色度はユーザによって決定されてもよい。また一実施形態によれば、システム自体が自動的にNを決定しても良い。例えば、モデル選択法に基づいてNを決定してもよい。適切なモデル選択法の例として、ベイズ情報量基準、赤池情報量基準、最小記述長基準がある。
【0015】
行列Vは異なる方法で決めることができる。一実施形態によれば、前記第一ビデオカメラから受信された前記データは、前記三つの照明方向それぞれについて二つの異なる照射条件からなる六つの異なる条件下で照明された前記シーンの画像データを含み、前記六つの異なる条件下での前記データを解析することにより、画素ごとに前記行列Vが決定される。さらに別の実施形態によれば、前記三つの異なる照明方向からの前記データを解析し、かつ前記デプスセンサからのデータより前記表面法線を計算することによって、画素ごとに前記行列Vが決定される。
【0016】
さらに別の実施形態によれば、前記解析工程が、該第一ビデオカメラおよび該デプスセンサからフレーム単位でデータ受信する工程と、前記観察されたシーンを一定の色度の領域にセグメント化する工程とを備え、一定の色度の領域のそれぞれに前記行列Vからなる行列が指定される。該セグメント化工程はマルコフ確率場ネットワークを用いて行われる。
【0017】
また一実施形態によれば、前記第二デプスマップに関する前記データを前記第一デプスマップのデータと合成して前記シーンの3D画像データを生成する工程は、前記第二マップに関する前記データをノイズレベルでブラー処理する工程と、ブラーに起因する前記第二デプスマップの前記法線の回転を計算する工程と、該回転を前記第二デプスマップと同一のノイズレベルでブラー処理された前記第一デプスマップの前記法線に適用する工程とを含む。
【0018】
さらに別の実施形態によれば、前記方法は、
それぞれが互いに異なる波長の光を照射するよう構成された三つの光源により、キャプチャーすべき前記シーンを照明することで前記フォトメトリック画像データをキャプチャーする工程と、
前記シーンから反射された前記光源からの光を受光するよう構成された第一ビデオカメラを用いて前記シーンの画像をキャプチャーし、前記光源ごとに前記シーンから反射された前記光を分離する工程とをさらに備える。
【0019】
前記第二デプスマップに関する前記データを前記第一デプスマップのデータに位置合わせするための較正データを取得する工程を含む較正工程を追加で設けてもよく、該較正データを取得する工程は、既知の3次元レリーフを有する既知のパターンを有する較正ボードの画像データをキャプチャーする工程を備える。
【0020】
各実施形態において、較正ボードは少なくとも一つの特徴があり、該少なくとも一つの特徴は、該較正ボード上に形成された2Dパターンおよび該ボードの3Dレリーフの双方における切れ目を規定する行、点、または形から選ばれる。
【0021】
また一実施形態によれば、その特徴が共通特徴となるよう、3Dレリーフにおける切れ目は2Dパターンにおける切れ目と同じ位置に存在する。さらに別の実施形態によれば、2Dパターンにおいて切れ目あるいは境界によって規定される特徴が、3Dレリーフにおける特徴の位置を規定する、もしくはその位置によって規定される場合、その特徴は互いに対応する特徴である。例えば、3Dレリーフにおいてにおける特徴は円であり、2Dパターンにおける特徴がその円の中心であってよく、その反対であってもよい。ある実施形態において、互いに対応する特徴とは、形状とその形状の中心であり、もしくは焦点とその焦点に対応する楕円、円弧、または円である。
【0022】
二つのセンサのうち少なくとも一つのセンサがデータをキャプチャーして3D画像を生成するために用いられる場合、二つのセンサからの画像データを合成する必要があるときは、いつでもこのような較正ボードを用いることができる。
【0023】
このように、二つの異なるセンサからの画像を合成する必要がある場合、このボードはどのような種類のシステムとも併用でき、上述した装置に限られることはない。該較正ボードは少なくとも一つの特徴を有し、該少なくとも一つの特徴は、該較正ボード上に形成された2Dパターンと該ボードの3Dレリーフとの双方における切れ目を規定する線、点、または形状より選択される。
【0024】
各実施形態において、少なくとも一つの共通特徴を備えた較正ボードが提供され、該共通特徴は、該較正ボード上に形成された2Dパターンおよび該ボードの3Dレリーフの双方における切れ目に対応する線、点、または形状より選択される。
【0025】
また一実施形態によれば、該共通特徴は複数の共通点を備え、2D画像内の線の勾配における切れ目と、較正ボードのレリーフにおける点として切れ目との双方が存在する場合に該共通点が設けられる。
【0026】
また一実施形態によれば、前記点は線の角部に配され、該線は2D画像内の線であり、較正ボードのレリーフにおける切れ目を規定している。該線は閉じた形状の一部であればよく、該閉じた形状は該較正ボードから凹んでいるか突出している。実施形態によっては、較正ボードの一部が凹み、他の部分が突出するよう、前記閉じた形状が較正ボードに対して変化するような外郭を有していてもよい。また、ボードの2D画像とボードの3Dレリーフとにおいて識別可能な少なくとも一つのコーナーが形成される場合、前記形状は多角形であってもよく、曲線的な辺を持っていてもよい。
【0027】
さらに別の実施形態によれば、勾配の切れ目は閉じた形状の一部を構成しない線上に形成され、たとえば、その線は較正ボードの辺まで伸びているか、あるいは何か別の方法によって開いている。
【0028】
さらに別の実施形態によれば、ボード内に開口が設けられ、較正ボードの該開口の境界が、較正ボードの平面内の線に沿って測定された線の勾配において切れ目のある線を有するよう、該角部を含む形状がボードから切り取られ、
さらに別の実施形態によれば、共通特徴はボードの3Dレリーフにおけるエッジを構成する線である。これら線はボードの角部を削ることによって簡単に形成される。
【0029】
また一実施形態によれば、較正ボードは、正方形がいくつか除外された市松模様のパターンを有する。較正ボードは2Dパターンを含み、該パターンは二色以上で構成される。
【0030】
さらに別の実施形態によれば、そのパターンは二レベル以上のレリーフおよびマップを有し、較正ボード上に段状のレリーフパターンを配する。
【0031】
さらに別の実施形態によれば、二つのセンサを用いてキャプチャーされた画像データを位置合わせする方法が提供され、前記センサの少なくとも一つは3D画像データに関するデータをキャプチャーし、前記方法は、
少なくとも一つの特徴を有する較正ボードを設ける工程であって、該少なくとも一つの特徴は、該較正ボード上に形成された2Dパターンと該ボードの3Dレリーフとの双方における切れ目を規定する線、点、または形状のうち一つから選択される工程と、
前記第一および第二センサからの前記画像データ内に、該少なくとも一つの特徴を配置する工程とを備える。
【0032】
さらに別の実施形態として、三つ以上のセンサが設けられる。
【0033】
またさらに別の実施形態によれば、一方のセンサはデプスセンサである。例えば、タイムオブフライトセンサ、あるいはパターンを該シーンに投影するよう構成されたプロジェクタと、前記シーンに投影された該パターンの画像をキャプチャーするよう構成されたカメラとを備えるデプスセンサである。他方のセンサは通常のカメラでよく、ビデオカメラでもスチルカメラでもよい。
【0034】
本発明の実施形態はハードウェアあるいは汎用コンピュータのソフトウェアとして実装できる。さらに本発明の実施形態はハードウェアとソフトウェアの組合せとして実装できる。また本発明の実施形態は、単一の処理装置としても、あるいは分散ネットワーク処理装置としても実装できる。
【0035】
本発明の実施形態はソフトウェとして実装できるため、本発明の実施形態は、適当なキャリア媒体を介して汎用コンピュータに提供されるコンピュータコードを含むものである。キャリア媒体は、フロッピー(登録商標)ディスク、CD−ROM、磁気装置、あるいはプログラム可能なメモリ装置などの記憶媒体、例えば電気信号、光学信号、マイクロ波信号といった信号などの過渡媒体を含むものである。
【0036】
図1は本発明の一実施形態を被写体1を撮像するのに使用したシステムの概略である。被写体は3つの異なる光源3,5,7によって照明される。この実施形態では、これら三つの光源がそれぞれ異なる三色の光を発することができる。ここでは、赤、緑、青の色を、これら三色を識別できるビデオカメラを得ることができるので、選択することとする。しかしながら、ビデオカメラで識別できる色を発光できるものであれば、どのような色を発光する光源であってもよい。また、可視光外の放射光源も使用することができる。色の正確な濃淡または発光の周波数はビデオカメラに依る。一実施形態では、光源は複数のプロジェクタであり、場面(シーン)がそれぞれのプロジェクタからのそれぞれの発光色で照明されるよう複数のフィルターを設ける。また、さらに別の実施形態では、被写体を照明するのにLEDが用いられる。
【0037】
一実施形態において、光源光は、カメラ内のセンサによりキャプチャーされた周波数に、それぞれのセンサが0から255の範囲の色をキャプチャーされるように調整される。この範囲より外の色が決定されると、サチュレーションが起こることがあり、その場合、生成される3−D画像に誤差が生じる。
【0038】
この実施形態において、背景の光がデータに影響するのを最小にするために、システムは屋内屋外においても暗部に設置される。三つの光源3,5,7は被写体1の周りに横方向に配置され、フロア位置から被写体1の高さまでの間の数段階に縦方向に置かれる。ある実施形態においては、光源3,5,7は三角形に配置される。一配置例では、三角形配置された光源は隣り合う光源の間隔が1から3メートルであり、他の配置例では、隣り合う光源の間隔が1.5メートルから2.5メートルである。光源は被写体1に向けられている。
【0039】
三光源3,5,7の角度は、被写体1を中心にその回転面においておよそ30度の間隔で設けられる。角度間隔が大きいほど方向に依存する色はよりはっきりと変化する。光源が離れすぎていると、被写体1のへこんだ形の部分の識別が難しくなる。これは、そのような部分でつくられる影は被写体のさらに大きな部分に拡大され、データの解析をさらに難しくするからである。好ましくは、被写体1の各部分が三つのすべての光源3,5,7で照明される。
【0040】
第二光源5の縦方向下に位置するカメラ9は、三つの光源3,5,7で照明されながら、移動する被写体1を記録するために用いられる。光源が三角に配置される実施形態においては、カメラ9はその三角形の面の内部に設置されてもよい。
【0041】
カメラ9は異なった色の複数の画像を分離することができる。これは、カメラ内のフィルター機構によりなされる。こうして、カメラ9は三つのすべての光源からの照明を利用して被写体1の画像をキャプチャーすることができ、それぞれの光源からの反射光を順次識別することができる。したがって、赤、緑、青の光源からのそれぞれの反射光を用いて画像を生成することができる。
【0042】
一実施形態において、第一ビデオカメラは生画像データを出力する。例えばMPEGのようなデータ圧縮機構は使用されない。画像データの圧縮により、再構成された3D画像に影響が現れる可能性がある。
【0043】
図1の配置には第二カメラ11も含まれている。第一カメラ9は、フォトメトリックステレオデータを収集するために使われる。第一および第二カメラは二視点ステレオデータを収集するために一緒に使用される。光源が三角形に配置されている場合、第一カメラ9と第二カメラ11はともに三角形内部に設けられる。ある配置例においては、その二台のカメラの間隔は0.25から1メートルであり、さらに別の配置例においては、その二台のカメラの間隔はおよそ0.5メートルである。
【0044】
二視点ステレオデータを収集する場合、カメラ9と11はそれぞれの光源3,5,7から受け取った光を識別しようとはしない。二台のカメラを使用した3−D画像のキャプチャーは、一般に二視点ステレオと呼ばれ、よく知られているので、これ以上の説明は割愛する。
【0045】
カメラ9と11でキャプチャーされたデータは解析部13に供給される。解析部13は、三光源3,5,7に接続されている。解析部13は第一および第二カメラ9および11から受け取ったデータの相関をとる相関部の機能を果たす。
【0046】
図2はシステム解析部の可能な基本構造を示す。解析部13は、プログラム25を実行する処理部23を有する。解析部13は、さらに記憶装置27を有する。記憶装置27は、図1の二つのカメラ9、11から受け取ったデータを解析し、光源3,5,7の照明を制御するためのプログラム25で用いられるデータを記憶する。解析部13はさらに入力モジュール11と出力モジュール33を有する。入力モジュール31はカメラ入力部35に接続されている。カメラ入力部35は二つのカメラ9、11からのデータを受け取る。カメラ入力部35はカメラから単に直接データを受け取ってもよいし、または、外部記憶媒体またはネットワークからデータを受け取ってもよい。
【0047】
出力モジュール33にはディスプレイ37が接続されている。ディスプレイ37はカメラ入力部35から受け取ったカメラデータからキャプチャーされた3D画像を表示する。ディスプレイ27の代わりに、出力モジュール33がファイルまたはインターネット等を介して出力を行ってもよい。
【0048】
使用時において、解析部13はカメラ入力部33を介してカメラデータを受け取る。処理部23で実行されるプログラム25は、3D画像データを生成するために記憶装置27に記憶されたデータを使ってカメラデータを解析する。そのデータは出力モジュール33を介してディスプレイ37に出力される。
【0049】
最初に、図3のフローチャートを参照して較正方法を説明する。ステップS101において、一つのカメラと三光源のそれぞれを順次使って、較正被写体の複数の位置について較正ボードの画像を撮影する。
【0050】
この方法は、(較正および再構成ともに)Lambertian反射率モデルを前提としている。図1を参照し、スペクトル反射率関数ρ(λ)および単位法線
【数2】

【0051】
を持つ平面1を、1方向およびスペクトル分布S(λ)を持つ光源3により照明するとき、スペクトル感度u(λ)を持つセンサ9により観測される輝度cは次の式で求められる。
【数3】

【0052】
ここで、
【数4】

【0053】
であり、ijは、表面の色度、入射光色およびセンサのスペクトル感度を表し、αは表面のアルベド反射率を規定する。
【0054】
これは、モノクロシーンにおいて、表面のアルベドが変化しようとも、υijはシーン全体にわたって一定であることを意味する。3D画像をキャプチャーするには、関与の如何を問わず、面法線の方向と大きさを導き出すことが重要である。したがって、スケーリングされたアルベド反射率法線
【数5】

【0055】
は、コンパクトネスに用いられ、これから
【数6】

【0056】
を再正規化により復元することができる。
【0057】
図1の三光源3,5,7がシーンを照明すると仮定すると、その結果得られるRGB画像c=[cは次式で求められる。
【数7】

【0058】
ここで、v=[υ0j υ1j υ2jであり、光線jに対する平面1とセンサ9の結合応答を表す。
【0059】
新しい入力画像を所与とし、LとVがいずれも可逆であることを条件として、法線マップは、
【数8】

【0060】
を用いて再構成することができる。
【0061】
使用される三光源3,5,7が一つの直線上にない場合、Lは可逆である。理論的には、カメラ内の各センサ9は光源3,5,7の一つに応答するのみである。Vは対角であって、ゆえに可逆である。しかし実際には、スペクトル分布が重なると、センサと光源において異なったチャネル間でクロストークが起こる。
【0062】
赤、緑、青の光を使った結果は、先頭対角に沿って大きな値をもち、クロストークによりその他の領域では小さな値をもつV行列となる。このため、Vは可逆に適する。Vは異なる色度の面ごとに変化するが、フォトメトリックシステムの較正はLとVの推定に換算することができる。
【0063】
ステップS103においてLを推定するには、ステップS101でのキャプチャーのように、順次点灯された各々の光源により任意のいくつかの方向で撮像された較正ボードからのデータを使用する。そのとき、(既知の)ボードの法線が使われる。
【0064】
これにより、各列のスケーリングファクタに従ってLを推定できる(c,n)対の集合が得られる。ここで、Lは方向を定めるのみであるので、このスケーリングファクタは無視できる。この段階では、アルゴリズムの多視点ステレオ部分を較正し、カメラの相対位置も計算できる。
【0065】
Vの推定は、シーンの材料特性に依存し、異なる色度の平面ごとに変わるので、さらに複雑な問題となる。図5はVの較正に使われる6つの画像Iw1,Iw2,Iw3,Ic1,Ic2,Ic3を示す。これらの画像はステップS105でキャプチャーされる。
【0066】
ここで、シーンの形状は6画像のそれぞれで不変とする。各々の光源は順次、まず白色光そして画像キャプチャーに使われる色に点灯される。
【0067】
すでに算出された照明方向と組み合わされた白色照明のもとでの3画像Iw1,Iw2,Iw3によれば、標準フォトメトリックステレオにより、各画素がnの値を持つ法線マップを作成することができる。
【0068】
このマップは、閾値処理によって検出される、入力画像において陰になったり、正反射を呈するもの以外のすべての画素における推定を含む。
【0069】
次の3画像Ic1;Ic2;Ic3のそれぞれにより、V行列の一つの列の推定が各画素でなされる。たとえば、Ic1を使って、第一光源のみオンの場合、式(2)は以下のように換算することができる。
【数9】

【0070】
c、nおよびlは既知であるので、vのすべての要素を算出することができる。
【0071】
上記の実施形態ではステップS107においてVが各画素において推定される。これにより、マルチスペクトル・フォトメトリックステレオは多色シーンに拡張される。
【0072】
較正画像において各画素の夫々の較正行列が推定されると、較正シーンにおけるN個の支配的な色を最良に表現するN個の較正行列が決定される。
【0073】
一実施形態において、これはステップS109においてRANSACに基づくアプローチを用いてなされる。ここでは、算出された行列から任意に一つが仮定として選ばれる。そして、較正シーンにおけるそれをサポートする行列の数を調べる。仮定に対するサポートを測定するために、最大照明での画像がI=Ic1+Ic2+Ic3に基づいて合成される。
【0074】
したがって、式(2)から、既算の法線マップと照明方向n、Lにそって仮定された行列Vpを用いて同じ画面が生成される。数学的に、二つの合成された画像が十分近似であるなら、以下の式が満たされる場合、画素は仮定の行列Vpをサポートする。
【数10】

【0075】
ここで、τは閾値であり、cはIからの画素値である。
【0076】
これが、各回で最大のサポートを持つ仮定を維持しながら一定の回数繰り返される。そして、最終的な較正行列は、最終仮定をサポートするすべての画素についてVの平均をとることで発見される。最初の較正行列が選ばれると、それをサポートするすべての画素は取り除かれ、この処理がシーンにおいて次に支配的な色度が見つかるまで繰り返される。そして、N個の較正行列が復元されるまで、これは繰り返される。ここでNは入力として与えられる。
【0077】
3D画像の再構成を図4を参照して説明する。
【0078】
あるシーンの画像は、ステップS201において異なる三色の光源でそのシーンを照明しながら、時間の経過だけシーンのビデオデータを得ることで再構成できる。このデータは較正について説明したのと同様に処理され、そして、ビデオデータの各フレーム毎に、それぞれのカメラからの照明によるデータは決定される。このようにして、各画素ごとにCが得られる。
【0079】
次にステップS205において、画像は、各画素でどの較正行列を使うか決定するためにセグメント化される。この実施形態では、下記のユナリー項およびペアワイズ項を持つマルコフ確率場(MRF)フレームワークにおいてセグメント化は設定される。入力画像で影にならないノードが画素ごとに存在する。そして、エッジが4つ以内の近隣画素によるノードの間に加えられる。
【0080】
ステレオ再構成からのデプスマップは平滑化され、各画素の法線nはそれから算出される。入力画面は各画素で平滑化画像値cを与えるのと同じ量だけ平滑化される。そして、行列Vを使うユナリー項は以下の式で与えられる。
【数11】

【0081】
これにより、復元されたステレオ領域と同様の低周波特性を有する法線マップを生成する較正行列が選ばれるようになる。
【0082】
一実施形態において、ペアワイズ項のためにポッツモデルが用いられる。ここでは、同一ラベルを共用する近隣画素にはコストはかけられないが、異なるラベルを持つ場合はコストγが発生する。コストγはsobelフィルターとしきい値処理により見つかった入力画像のエッジマップにより調整される。エッジ上にない画素には、γは大きく、エッジ上の画素には、γは小さい。
【0083】
一実施形態において、MRFに対する最大事後(MAP)解がツリー再重み付けメッセージパッシングアルゴリズムを使用して推定され、指定されたラベルに基づいて再構成がなされる。二つの領域の境界では画素混合が起こる場合があり、セグメント化における僅かな誤差によりアーチファクトが生じる可能性がある。これを少なくとも部分的には緩和するために、領域境界の一方の側のバンド画素において、境界に対し垂直に法線を補間する。
【0084】
上記手順に基づく方法は、ステップS207において法線領域を生成し、非常に正確な高周波数情報をもたらすが、それは面を形成するために統合されなければならないために、僅かな較正誤差や想定モデルからのシーンのずれが大きな低周波誤差につながることがある。
【0085】
より正確な低周波測定を提供するために、ステップS209において、各フレームで粗い形状を再構成するカメラ9、11からのデータを用いた二視点ステレオシステムがこの実施形態に基づいた方法では使われる。任意の多視ステレオアルゴリズムがこの段階では使用できる。一実施形態に基づく方法では、後にフォトメトリックステレオによって復元される理由から、細かいディテールを復元する試みでなく、頑強性を規定するアルゴリズムを選択する。一例では7x7ウインドウに合致する差分の二乗和(SSD)が使われた。正規化相互相関(NCC)を使うこともできる。
【0086】
ステップ209においてステレオデプスが推定されると、ステップ207において得られた法線領域の高周波ディテールとステップ209のデプスマップの低周波情報がステップS211において組み合わされる。
【0087】
法線領域から低周波バイアスを取り除くため、平滑化されたバージョンが、ガウス分散σで法線マップをブラー処理し、再正規化することにより作成される。この平滑化バージョンからのそれぞれの法線と元の法線領域の間の回転が記録され、そして画素ごとに、同じ量で平滑化されたステレオデプスマップのバージョンから算出された法線領域に適用される。
【0088】
分散σを変化させることで、法線領域からの情報がステレオデプスマップからの情報により置き換えられる低いカットオフ周波数が変更される。一実施形態において、法線領域からの面を得るためにエネルギー最小化アプローチが用いられる。これにより、変更された法線マップにより高周波数ディテールを規定しつつ、全体の形がデプスマップと整合すること保証する。
【0089】
上記技術を説明するために、上記技術で構成された法線マップを図6(a)に示す。図6(b)は最終ステップのデプスマップの合成を使わなかった法線マップを、また図6(c)はその二つの法線マップの度合いの違いを示す。
【0090】
上記技術が多色シーンを対象とする場合を示すために、緑と白のクッションを含む困難なシーケンスを処理した。較正はNを3として行った。入力画像および得られたセグメント化を図7に示す。
【0091】
図7(a)は入力画像を示す。図7(b)はステップS205に関して述べられたセグメント化を示す。図7(c)はステップS207で得られた、平滑化されたデプス法線を示す。図7(d)は一つの較正行列を使って推定された法線を示す。図7(e)は三つの較正行列を使って推定された法線を示す。図7(f)は一つの較正行列を使った再構成を示す。図7(g)は三つの較正行列を使った再構成を示す。図7(h)はセグメント化が失敗した入力画像を示す。図7(i)は失敗したセグメント化を示す。図7(j)はセグメント化が失敗した後の再構成を示す。
【0092】
クッションのパターン周辺のセグメント化が正確な時は、手の周辺は不正確になってしまう。手の周辺の折り目はわれわれのステレオアルゴリズムで解像できる詳細の限界であり、そのため得られた法線に基づくセグメント化はノイズが多いことを証明できる。ステレオアルゴリズムからの平滑化法線を図7(c)に示す。比較として同じシーンを一つの較正行列で復元した法線マップが図7(d)、三つの較正行列を使用したものが図7(e)に示される。一つのみの較正行列が全体のシーンで使われた場合、手は不正確に復元される(図7(f))。一方、我々の新規技術を用いた場合、法線、したがって形状は正確に推定される(図7(g))。
【0093】
図7に示す画像は300フレームシーケンスからの二コマである。大多数のフレームにおいて、セグメント化は一般に質的によい結果をもたらす程度に十分正確である。図7(h)にあるようないくつかのコマにおいて、シャドウイングによりセグメント化に失敗し、指先を正確にセグメント化するのに失敗する。図7(j)ではアーチファクトを呈する形状が得られたものが示されているが、このような不具合は稀である。再構成されたフレームが図8に示されている。
【0094】
この提案のキャプチャーシステムは、動的シーンをキャプチャーするのに用いられるようデザインされ、入力の各フレームごとに個々の形状を計算する。いくつかのシーケンスがシステムの頑強性と結果品質を示すためにキャプチャーされた。シーケンスのいくつかの静止画像が図8に示されている。
【0095】
図8において、左から右にそれぞれの列に、入力画像、ステレオ再構成、統合された法線領域、統合された法線領域の新規な視界、ステレオ情報が含まれた時の最終結果、最終結果の同じ新規な視界が示されている。法線領域の統合は正面から見た場合はよい結果をもたらすが、新しい角度から見た場合、低周波ゆがみが見られる。これらのゆがみはステレオからの低周波情報を用いて最終結果において取り除かれる。
【0096】
第二の列に示されるステレオ結果にはディテール部がほとんどないが、全体としては正しい形状が示されている。第二および第三の列では純粋にフォトメトリックシステムで得られたものと比較可能な程度の結果が示されている。ここでは、元の方向に近い位置から見られた場合は納得いく結果だが、新しい視点からなされると低周波ゆがみがわかる。
【0097】
最後の二列の合成結果は高周波ディテールを維持しながら低周波ゆがみを取り除いたことを示している。フォトメトリック法線マップからの中周波数を含むので、時間的なフリッカーもこの合成結果において、純粋なステレオ結果よりも、かなり目立たなくなっている。
【0098】
これらシーケンスの画像サイズは1600×1200である。フレームあたり平均して、コンプリートなアルゴリズム実行時間は16秒であり、ほとんどの時間は、CUDAによるステレオ再構成の4秒と、シングルスレッドC++による法線領域統合の9秒の2つの部分で費やされる。
【0099】
下地の真のデータに対するアプローチの精度を示す目的で、合成画像について一連の実験を行った。公衆利用可能な高解像度モデルをOpenGLでレンダリングした。拡散アルベドをモデルの半分に適用し、残りの半分を3つの異なるソリッドカラーを用いてレンダリングした。モデル全体で一様な白反射アルベドが存在した。入力画像例を図10aに示す。較正はターゲットボードをレンダリングし、これから、カメラと光源位置を推定することで行われる。
【0100】
先ず、画像にノイズを加えないで再構成を行った。下地の真の法線と復元された法線との間の誤差が、図10cに示される。色度一定の領域における誤差は、正反射のみによるものである。一方、未変更の半分においては、色度の変化により導入される、変化する誤差レベルが存在する。これらは、ひげや唇の周辺でもっとも顕著である。法線が補間された2画素の境界により色度の異なる領域間の境界においては誤差が発生してしまう。
【0101】
図10(c)に示される法線誤差結果とともに1つの較正行列を仮定し、フォトメトリックステレオ法を用いて較正を実行した。このアプローチは、モデルの自然な部分について正確な較正を推定し、現実施形態の方法に非常に良く似た結果を生みだす。しかしながら、これはシーンにおける多数の色度に対処することができない。
【0102】
自然画像には、いくらかのセンサノイズがあるので、各画素の各カラーチャネルに6の標準偏差を持ったガウス雑音を独立して加えることによってこれをシミュレートした。このノイズが法線に伝播し、図10(d)に示される誤差をもたらす。
【0103】
上記の結果は、高周波のディテールがフォトメトリックステレオによって復元されていることを示しているが、低周波誤差に関する情報を明らかにしていない。復元された法線領域を統合する場合、図10(g)に示されるように、復元されたデプス値と下地の実の値との間には大きな相違がある。図10(h)に示すように、ステレオ推定されたデプスマップと法線マップとを合成することでこの誤差は縮小される。しかし、図10(j)において強調するように、カメラに正対しておらずカメラに対して平行な顔の側面には、依然としてかなりの誤差がある。システムにカメラを追加すれば、この問題を解決する一助となる筈である。しかし、これではシステムの複雑性増加のコストに悩まされるであろう。
【0104】
ステレオ再構成からの低周波情報の導入もまた、法線の精度改善の一助となる。これは主として、小領域群にわたる恒常的な反射により引き起こされた誤差を削減することによるものであった。誤差マップを図10(e)および図10(f)に示す。ステレオデータの平滑化によってわずかにアーチファクトが引き起こされるが、再構成すると、これらを見るのは非常に難しいことが分かる(図10(i))。デプス誤差および法線誤差の計算結果をテーブル1に示す。
【数12】

【0105】
使用されるブラーカーネルの分散(σ)を変更することにより、フォトメトリック情報とステレオ情報の間のカットオフ周波数を変更することの影響を調べた。
【0106】
図9aおよび9bは、再構成誤差についてこのパラメータを変更する影響を示している。図9(a)は法線誤差に対するσの影響を示しており、図9(b)はデプス誤差に対するσの影響を示している。σを増加させることで、ステレオデプスマップに代わるフォトメトリック法線マップから、より大きな使用周波数範囲がもたらされる。
【0107】
カットオフ周波数を高くし、σを非常に小さくした場合、法線領域の高周波情報が失われ、大きな法線誤差が発生する。σが増加するにつれて最適条件に達し、過度にディテールを平滑化することなく法線領域におけるあらゆる低周波バイアスが低周波ステレオによって取り除かれる。この点を越えると、当該誤差は、おのずと法線領域の値の方に後戻りしてゆっくりと増加する。
【0108】
予想に反して、σを増加させることは、若干、デプス誤差を縮小する。これは、全体的な形、つまり超低周波成分がこの統合方法によって抑制されるからであって、ステレオデプスマップに代わるフォトメトリック法線領域から得られるのは中域周波数であることがその理由である。ステレオ再構成は単に二視点に基づくものであることから、サブ画素レベルで正確さを期すことは非常に困難である。したがって、いくらかの中波誤差が存在する。これは、法線領域が修正可能である。中波誤差は後続フレームとの間の表面のフリッカーとして現れるので、これは動的なシーンを再構成する場合に特に重要である。実際のシーケンスにおいて、この時間的なフリッカーを取り除くには、σの値をおよそ30とすれば十分であった。
【0109】
実施形態に従う方法およびシステムにおいて、急速に変形する表面の高解像度形状のキャプチャーのためのマルチスペクトル・フォトメトリックステレオ法が提供される。また、多数の色度を含んだシーンにまでマルチスペクトルのフォトメトリックステレオを拡大することにより、以前の方法よりも広範囲な被写体に対するフォトメトリック較正を可能にする新規な較正技術が示される。マーカーを必要とせず、二視点ステレオ方式により、低周波情報が提供される。上記の方法およびシステムは、顔および布の変形を対象とし、わずか2つのカメラと3つの光源しか用いないという困難なシーケンスの3Dキャプチャーに用いることができる。上記の方法では、フォトメトリック結果から低周波バイアスを取り除きつつ、高レベルのディテールを維持する。
【0110】
上記の実施形態に従う方法およびシステムは、3つの異なる色の光源によるマルチスペクトル・フォトメトリックステレオを用い、単一のRGB画像で3つの光線方向をキャプチャーする。これは、フォトメトリックステレオが映像シーケンスの各フレームに対して実行され、入力映像と同じフレームレートで高解像度形状を生成することを可能にする。上記の方法およびシステムは、マーカーの使用を要しない。すなわち、再構成される被写体に別体のアーチファクトが付加されない。また、この方法およびシステムは、リアルタイムの多色シーンのキャプチャーに適用することができる。本発明の実施形態に従う方法は、較正シーンにおけるすべての表面のフォトメトリック特性の推定により、マルチスペクトル・フォトメトリックステレオ構成の較正を可能にする。さらに、この較正は、多数の色度を含んだシーンに対してマルチスペクトル・フォトメトリックステレオが適用されることを可能にする。
【0111】
本発明に従うシステムおよび方法によれば、わずか2つのカメラおよび3つのパッシブ光源を用いて高品質の結果を達成することが可能になる。
【0112】
次に、本発明の更なる別の実施形態に従う方法を述べる。
【0113】
本実施形態に従うシステムは、図1および2を参照して説明したものと同じハードウェアを用いる。不必要な反復説明を回避するため、同じ特徴を表わすために同じ参照数字を用いる。
【0114】
第1の実施形態で説明した方法との関係で述べると、この実施形態で説明される方法では多数の色を持つ被写体に対応することができる。当該実施形態の方法は、先の実施形態に関して説明したものと同様であって、法線推定が行なわれる前に、入力画像は一定の色度の領域にセグメント化される。
【0115】
図11aは、後に再構成される入力画像を示している。図11bは、二視点ステレオから復元された低解像度形状を示している。これは、図1に示した2つのカメラを用いて得られる。図11cは、一定の色度を仮定して推定された法線マップを示している。図11dは、以下の実施形態で説明される方法を用いて推定された法線マップを示している。図11eは、図11dの法線マップと図11bのステレオ画像とを合成することにより得られた高品質形状を示している。
【0116】
一方、当該さらに別の実施形態に従う方法では、低解像度ステレオデプスマップが各画素において平滑化された法線方向を計算するために構築される。この低解像度ステレオデプスマップは、2つのカメラ9および11(図1)を用いて構築される。シーンには、Nの色度があると仮定する。シーンのNの色度の各々に関して、任意の画素における平滑化された法線は、異なる色を予測する。これを例えば図12に示す。図12aは、2つの色を含むパッチの発明を示している。これに対応する画像の法線マップが図12bに示される。図12cは、この場合において可能な仮のセグメント化を示す。図12dは、図12cのセグメント化の結果として得られる画像推定を示す。
【0117】
平滑化された法線から生成された画像が観察画像にできるだけ厳密に一致することを保証することにより、有効なセグメント化を見つけることができる。この実施形態では、セグメント化処理において次の2つの制約が課される。
【0118】
1.観察画像および平滑化法線マップの生成の尤度が最大化されること。
【0119】
2.色度が局所的に一定であること。
【0120】
第1の制約を履行するために、尤度項が導出される。この実施形態では、第2の制約を履行しつつセグメント化を行なうためにマルコフ確率場(MRF)が用いられる。
【0121】
図13は、本発明の実施形態に従う方法を用いて3D画像を再構成するために必要なステップを示すフローチャートである。
【0122】
第1の実施形態に関し、3つの異なる色の光で被写体または移動する被写体を照明しながら、ステップS401において、映像データが収集される。ステップSS403において、1つのカメラからの映像データの各フレームごとに、各光源からの照明による画像データを分離する。
【0123】
Lambertian反射率モデルを用い、3つの離れた点光源が単位法線nおよびアルベドαで表面を照明し、環境光はないものと仮定して、観察される表面の輝度は、
【数13】

【0124】
により与えられる。ここで、c、lおよびvは全て長さが3の列ベクトルである。CはRGB画像輝度を表わし、lは光線iの方向を規定し、vは光線iに対するセンサと表面の結合応答である。
【0125】
行列Vは、表面の色度、光のスペクトル分布、およびカメラセンサのスペクトル感度の組み合わせをモデル化する。色度が異なる領域で変化するのはこの行列である。表面αのアルベドは0と1の間の値であって、表面で反射された入射光線の割合に等しい。この実施形態において、画像の各チャネルは、各画素ごとで分散σの付加的な白色ガウス雑音により悪くなり、cは、通常、
【数14】

【0126】
で分配されることを仮定している。
【0127】
観察された画像値c、ならびにVとLの推定を所与として、nの最尤推定値は、
【数15】

【0128】
により与えられる。
【0129】
観察画像および法線対(c,n)の尤度は、行列Vにより規定される色度を所与とし、ベイズのルールを用いて、
【数16】

【0130】
により見つけることができる。
【0131】
この実施形態において、表面法線P(n|V)に関して一定のプライア(prior)を仮定している。P(c|n,V)は表面のアルベドαを考慮することなく表現することはできない。これは未知であるから外に出して、
【数17】

【0132】
となる。
【0133】
この実施形態において、プライアP(α|n,V)は0から1の範囲で一定となる。(x)を用いることにより、
【数18】

【0134】
が与えられる。
【0135】
この新しい座標系のX軸が線VLnと平行となるように座標系を選ぶことによって、
【数19】

【0136】
のように書くことができる。
【0137】
ここで、c=[cr0r1r2は新しい回転座標系におけるcである。αに依存しない項を積分からすべて削除し、コンパクトネスについてのb=|VLn|を用いることにより、
【数20】

【0138】
が与えられる。
【0139】
これはまとめることができ、
【数21】

【0140】
が与えられる。
【0141】
ここで、
【数22】

【0142】
であり、Erf()は誤差関数である。オリジナルの座標系において、cr0およびdは、
【数23】

【0143】
および
【数24】

【0144】
から与えられる。
【0145】
直観的に、cr0は線VLnに沿った距離に対応し、dは、ノイズによるこの線に垂直な変位に対応する。αについての一定のプライアにより、2つの誤差関数を含んだ項は0と|VLn|の間でほぼ一定であり、それ自体は、実用上の目的では定数として扱うことができる。
【0146】
ステップS405において新たなシーンの異なる色度へのセグメント化を行なうために、マルコフ確率場(MRF)が構築される。各ノードは、入力画像における画素に対応し、4近傍内の隣接画素の各々のノードに接続される。各ノードには、シーンにおけるN色度のうちの1つに対応するラベルaΕ1,.......,Nが割り当てられる。色度が局所的に一定でなければならないという制約は、ペアワイズ項に対してポッツモデルを用いることにより行われ、ラベルを共有する隣接画素にはコストが割り当てられず、異なるラベルにはコストが割り当てられる。ユナリー項(unary term)は、前章で導出した尤度から与えられる。1組のN行列VaΕ1,.......,Nを所与として、ラベルaをとる画素のユナリー項は、P(c|n,V)から与えられる。ここで、nは、ステレオデプスマップから推定された平滑化法線マップから得られ、cは、入力画像の平滑化されたバージョンから得られた画像輝度である。平滑化は、ステレオアルゴリズムでは復元しえない細かい幾何学的ディテールによる高周波変動を取り除くのに用いることができる。
【0147】
セグメント境界が領域境界に厳密に追随していることを保証するために、画像のエッジマップが計算され、エッジマップにおけるエッジと交差する、グラフ内エッジのポットコストがγ/100にセットされる。
【0148】
ひとたびMRFが構築されると、ツリー再重み付けメッセージパッシングアルゴリズムを用いてMRFが解かれ、ステップS407において、関連するVとともに(9)式を用いて各画素ごとの法線がそれぞれ推定される。そしてステップS411において、この密な法線マップは、第1の実施形態に関して述べた方法が用いることにより、ステップS409で得られた低解像度ステレオマップと合成される。
【0149】
図14は、本発明の実施形態に従う較正方法のフローチャートを示している。
【0150】
シーンという用語は、被写体あるいはシステムから見た被写体の配列にあたるものとして用いる。被写体は静止していてもよいし、静止していなくてもよい。
【0151】
本較正手順において、画像の再構成に必要なパラメータが推定される。このパラメータは2つのグループに分割することができる。
【0152】
グループ1−フォトメトリックパラメータ、すなわちNおよびVaΕ1,.......,N。ここで、Nは異なる色度の数、VaΕ1,.......,Nは、表面の色度、光のスペクトル分布、カメラセンサのスペクトル感度の組合せをモデル化する行列である。
【0153】
グループ2−光線方向行列L、画像ノイズσ、カメラ固有および外因性のパラメータを含むシステムパラメータ。
【0154】
グループ1のパラメータは各シーンについて推定する必要があるが、グループ2パラメータは一度推定するだけでよい。
【0155】
ステップS301では、視野内で回転し平行移動するチェッカーボード・パターンの画像をキャプチャーすることにより、固有および外因性のカメラパラメータの推定が行なわれる。
【0156】
ステップS303では、標準的な方法を用いてLの推定が行なわれる。すなわち、一度に1つの光線をONにして同チェッカーボード・パターンを回転し、(c,n)対の組が得て、これから最小自乗技術を用いてLを推定することができる。σを推定するために一定の照明下で数枚の静止シーンの画像を得る。該画像の全域にわたる画素の平均の分散としてσが推定される。
【0157】
NおよびVaΕ1,.......,Nを推定するための手順は3つの部分に分割することができる。
【0158】
1.各画素におけるVの個々の推定。
【0159】
2.N個の支配的色度、すなわちVaΕ1,.......,Nの推定。ただし、Nは所与とする。
【0160】
3.モデル順序選択問題としてのNの選択。
【0161】
この実施形態による方法において、画素ごとのVを推定するために、ステップS305における画像のうちの1つにおいて各光源をオンにすることにより、3つの画像I,IおよびIが取得される。ここでは、シーン形状は3つの画像にわたって不変であるものとする。
【0162】
ステップS307においてステレオ再構成が行なわれて低解像度法線マップが与えられる。ステップS307において得られた法線マップおよびステップS303において先に計算された光線方向を所与として、ステップS305においてキャプチャーされた3つの画像の各々により、各画素における行列Vの1列を推定することができる。
【0163】
1色のカラー光線、例えばIで照明することにより、次のようになる。
【数25】

【0164】
c、n、およびlは既知であることから、vのすべての要素を、Vにおけるすべての列にわたって一定であるスケーリングファクタαに至るまで計算することができる。ステレオ法線マップでは高周波形状を復元しえないという現実に対処すべく、この処理が行なわれる前に、3つの画像の各々は平滑化される。
【0165】
この手順は、実際のところ各画素におけるαV(Vではない)を復元する。しかしながら、Vのスケールは再構成において重要ではない。したがって、有効な法線を所与として予測することができる最大のcの値が255以下となるように各V行列をスケーリングしてもよい。カメラの露出およびゲイン設定の調節により、実行の際にサチュレーションが起こらないことを確実にすることができる。
【0166】
各画素について個々の較正行列が推定されると、この実施形態に従う方法において、Nすなわちシーンに存在する色度の数と、シーンにおけるNの支配的色度のフォトメトリック特性であるVaΕ1,.......,Nとが決定される。
【0167】
最初に、Nが既知であると仮定して、できるだけはっきりとシーンをあらわすVaΕ1,.......,Nが選ばれる。一実施形態において、RANSACに基づいたアプローチが用いられる。ここで、ステップS309において計算されたV行列のうちの1つが仮定として任意に選ばれ、これをサポートする較正シーン内の画素数が調べられる。仮定に対するサポートを測定するために、十分なマルチスペクトル照明Irgb下の画像がIrgb=I+I+Iによって合成される。この合成された画像からの画素輝度cおよび先に計算された法線を用いることにより、仮定のV行列を所与として、この(c,n)対の尤度を式(15)を用いて計算することができる。尤度がしきい値τを超える場合には、画素が仮定の行列をサポートしており、超えない場合にはサポートしていない。
【0168】
これは、一定回数繰り返され、各回で最大のサポートを持つ仮定を保持する。その後、最終的な較正行列は、最終的な仮定をサポートするすべての画素についてのVの平均により求められる。第1較正行列が選ばれると、それをサポートした画素がすべて削除され、当該処理が繰り返され、当該シーンにおいて次に最も支配的な色度が求められる。本処理は、Nの較正行列が復元されるまで繰り返される。ステップS311におけるNの異なる値についても、処理が繰り返される。これについては、図15を参照してより詳しく説明する。
【0169】
上記の手順では、Nが既知であるとしたが、ここでは異なる。Nの選択は、Nを増加させることによる、入力画像を表現するモデルの能力の増加が、モデルの複雑性の増加とのトレードオフとなる場合のモデル選択問題であると見ることができる。
【0170】
この実施形態に従う方法では、情報理論的選択法が用いられる。以下で説明するように、オーバーフィッティングの可能性を低減するためにベイズ情報量基準(BIC)が用いられる。
【0171】
aΕ1,.......,Nを推定するためにRANSAC段階が実行されると、(ステップS405に関して説明した)再構成におけるMRFを解決することができ、画像内の各画素において正確なV用いることができる。
【0172】
画素の観点での非依存性を前提として、完全な画像の尤度は画素尤度の積である。したがって、BICスコアを次式を用いて計算することができる。
【数26】

【0173】
ここで、nは画像における画素数、mはNを1だけ増加する場合の追加のモデル・パラメータの数(本例では9)である。BICスコアが最低となるNの値が選ばれる。実際上、この処理は、各Nに対するしきい値τの5つの値について繰り返され、すべてのNおよびτにおいて最低のBICスコアが用いられる。
【0174】
本較正方法を実現するアルゴリズムを、図15を参照して説明する。
【0175】
ステップS501において、I、I、I、L、σ、およびステレオデプスマップを取得する。これらを取得する1つの方法については図14を参照して説明した。
【0176】
ステップS503では、図14において説明したように各画素のVが推定される。
【0177】
ステップS505では、Nおよびτの値の範囲が設定される。通常、N=1をNの最小値として、Nmaxの値およびτmin、τmaxが設定される。典型的に、τの増加量が設定される。
【0178】
ステップS507において、Nとτの両方がそれらの最小値に設定される。ステップS509では、行列Vが1からNまでのすべての値について推定される。これは、図14を参照して説明したように行われる。次に、ステップS511において、図13を参照して説明したように画像がセグメント化される。最終的に、ステップS513においてBICが計算される。
【0179】
ステップS515において、τがその最大値に達していないならばτはインクリメントされる。τがその最大値に達するまで、ステップS509からS513の処理が繰り返される。
【0180】
ステップS519では、Nがその最大値に達したかが判定され、達していない場合、τはその最小値にセットされ、Nが1だけインクリメントされ、ステップS509からS513のサイクルがτのすべての値について繰り返される。
【0181】
上記に続いて、VaΕ1,.......,Nの仮の値がNおよびτのすべての値に関してテストされ、最良のBICスコアを持つ値が選択される。
【0182】
次に、上記の方法を用いる再構成のいくつかの例を説明する。
【0183】
上記の方法は、多色のシーンに用いることができるが、色度が均一のシーンにも適用可能である。
【0184】
上記の実施形態に従う再構成を説明するために、緑と白のクッションを含む多色シーンを処理した。較正が行なわれてN=3が選択される結果となった(クッションの2つの色度およびこれを保持する手の色度)。
【0185】
処理結果が図16に示される。図16aは、1つの色度のみがシーン全体について仮定され、手の復元が不正確となった結果を示している。一方、図13乃至15に関して説明した方法を用いることによって、図16bに示すように法線(つまり形状)が正確に推定される。
【0186】
図16cは入力画像を示しており、図16dは、図16cの画像の不適切なセグメント化を示している。このセグメント化は、強いシャドウイングによって失敗している画像生成結果の形状にはアーチファクトが生じている(図16e参照)。
【0187】
図17は、図13乃至15を参照して述べた方法を用いた場合の写真撮影の静止画を示している。
【0188】
図17において入力画像は左手側の画像である。左から右の順で、次の5枚の画像は、(i)ステレオ再構成、(ii)統合法線領域、(iii)統合法線領域の新規な視界、(iv)ステレオ情報を一度含めた最終結果、(v)ステレオ結果群を含めた新規な最終結果を示している。上段はN=1、中央の段はN=2、下段はN=3に対応する。
【0189】
2番目と3番目の列は、純粋なフォトメトリックシステムによって達成されたものと遜色のない結果を示しており、これはオリジナルの視線方向に接近して見た場合には納得のいくものであるが、低周波変形を含んでいる。これは、別の視点からレンダリングした時に明白になる。最後の2列の合成結果においては、高周波のディテールを維持しつつ、上記の低周波変形は取り除かれている。
【0190】
これらシーケンスの画像サイズは1600_1200であり、コンプリートなアルゴリズムの平均実行時間は1フレーム当たり16秒である。ほとんどの時間は、CUDAによるステレオ再構成(4秒)と、シングルスレッドC++による法線領域統合(9秒)の2つの部分で費やされる。セグメント化の平均時間はおよそ2秒である。
【0191】
下地の真のデータに対するアプローチの精度を示す目的で、合成画像について一連の実験を行った。公衆利用可能な高解像度モデルをOpenGLでレンダリングした。拡散アルベドをモデルの半分に適用し、残りの半分を3つの異なるソリッドカラーを用いてレンダリングした。モデル全体で一様な白反射アルベドが存在した。入力画像例を図18aに示す。
【0192】
図18において、色度の変動を全く想定していない既知の方法を用いて計算した場合の法線誤差を示す。図18cは、低周波データの追加のない本提案手法を用いた場合の法線誤差を示している。図18dは、低周波データが追加された後の法線誤差を示している。図18eは、図18cの法線領域を統合した後のデプス情報における誤差を示しており、図18fは、図18dの法線領域を統合した後の、低周波データを含むデプス誤差を示している。図18gは、最終的な再構成画像である。
【0193】
先ず、画像にノイズを加えないで再構成を行った。下地の真の法線と復元された法線との間の誤差が、図18cに示される。色度一定の領域における誤差は、正反射または領域境界によるものである。一方、未変更の半分においては、色度の変化により導入される、変化する誤差レベルが存在する。
【0194】
復元された法線領域が統合される場合、復元されたデプスと下地の実の値との間には、法線推定における若干のバイアスに起因して、図18eに示すように大きな相違がある。ステレオ推定されたデプスマップと法線マップとを合成することにより、図18fに示すようにこの誤差は大幅に削減される。
【0195】
画像をシミュレートするために、6の標準偏差をもつノイズガウス雑音を各画素の各カラーチャネルに対し個々に加え、上記の実験を繰り返した。デプス誤差および法線誤差の計算結果をテーブル1に示す。本方法は正確に法線方向を推定しており、ステレオ再構成と組み合わせた場合、同様に正確なデプスが与えられることがわかる。
【数27】

【0196】
テーブル1では、色度が一定であると仮定することが大きな誤差につながっている。一方、ステレオデータは正確なデプスを提供するが、形状が過度に平滑化されており、このことが法線推定を不正確にしている。本提案の再構成方法は正確に法線方向を推定しているが、依然として、ステレオデータの追加が、デプス結果における低周波バイアスの除去を助けている。
【0197】
上記すべての実験において、NはBIC基準を用いるモデル選択によって推定された。しかしながら、他の基準を用いることが可能である。さらに別の実施形態において、負対数尤度を用いることができる。
【0198】
これを図19に示す。同図には、負対数尤度と、N(シーンにおける色の数)の増加に伴うBIC値の結果がプロットされている。N=5における下側の2つの線は、主に4つの色度を持った合成顔画像のものであり、N=5における上側の2つの線は、主に2つの色度がある実物クッションのデータのものである。両方の場合において、これらプロットは100回の実行の平均値であって、破線は負対数尤度、実線はBIC値を示している。
【0199】
上記の両方の場合において、正確なNが選ばれていることがわかる。また、上記の両方の場合において、対数尤度の縮小率は、正確なN値を越えて急速に減少する。
【0200】
上記の実施形態は、多視ステレオ再構成の利用により、複数の色度を含んだシーンにマルチスペクトルのフォトメトリックステレオを適用するためのシステムを提供する。フォトメトリック特性が較正シーンにおける各画素において推定されることを可能にする較正技術が示される。上記実施形態では、そのようなシーンの色度の数の自動推定がモデル選択アプローチを用いて行なわれる。上記較正情報を所与として、新規画像を一定色度の領域にセグメント化し、密な法線マップ推定を生成することができる。2つのカメラおよび3つの光源のみが必要でありながら、高品質の結果を生じるシステムを示した。
【0201】
上記の実施形態に従うシステムおよび方法は、変形表面の形状をキャプチャーするためのマルチスペクトル・フォトメトリックステレオ技術を提供する。新規なフォトメトリック較正技術は、区分的に複数の一定色度を含んだシーンの較正を可能にする。実施形態において、この方法は、画素ごとのフォトメトリック特性を推定し、シーンにおける支配的な色度を推定するためにRANSACに基づいたアプローチを用いる。さらに別の実施形態では、尤度項が作成され、表面法線、画像輝度、およびフォトメトリック特性が紐付けられる。これは、組み立てられるシーン中の色度の数をモデル推定問題として推定することを可能にする。較正中に存在する色度の数を自動的に推定するためにベイズ情報量基準が適用される。
【0202】
実施形態に従うシステムでは、2−カメラ・ステレオシステムが低解像度形状を提供するので、新しい画像を一定色度の領域にセグメント化するために尤度項を用いることが可能になる。一実施形態において、このセグメント化は、マルコフ確率場フレームワークで実行され、正確なフォトメトリック特性が各画素で用いられることを可能にし、密な法線マップを推定することが可能になる。
【0203】
本発明の実施形態に従う方法は、区分的に複数の一定色度を持った被写体に適用することが可能なマルチスペクトル・フォトメトリックステレオのための新規な較正技術を提供する。さらに、幾つかの実施形態において、この方法は、較正中に存在する色度の数の自動推定を可能にする。
【0204】
上記実施形態では、2つのカメラを用いて低解像度ステレオ画像を提供することを説明し、フォトメトリックステレオからのデータを向上するために低解像度画像を用いるという見地で上記実施形態を説明した。以下に述べる実施形態に従う方法およびシステムにおいては、フォトメトリックステレオデータがデプスセンサ測定を向上させるために用いられる。
【0205】
この特定の実施形態では、低解像度デプス測定がデプスセンサを用いて行なわれる。それは、キャプチャーするシーン上にパターンを投影することにより動作する「アクティブ照明デプスセンサ」と呼ばれる。2つのカメラを用いるもののような他のデプスセンサ、あるいはタイムオブフライト・デプスセンサを用いることが可能である。
【0206】
図20は本発明のさらに別の実施形態に従うシステムを示している。このシステムは被写体601の画像化に用いられる。該システムは有色の3つの光源603、605および607を備える。光源の構成は、図1に関して説明したものと同じである。各光源は、異なる色で被写体601を照明する。特定の実施形態において、色は赤、緑および青色である。
【0207】
該システムは、カメラ611を含む。これは、ビデオカメラであって、異なる色を識別するように構成される。したがって、このカメラは、3つの光源からの照明を用いて被写体601の画像を得ることができ、赤色光、緑色光、青色光の個々の照明からのデータを抽出することができる。
【0208】
図20のシステムは、デプスセンサを含む。特にこの実施形態において、デプスセンサはアクティブ光デプスセンサである。このアクティブ光デプスセンサは、赤外線投光器615を用いて近赤外スペクトルで既知のパターンをシーン上に投影する、光線符号化(Light Coding)と呼ばれる方法を用いる。該システムは、被写体601によって変形した投影パターンを観察するための赤外線カメラ609を備える。この観察された変形パターンは、デプスを推論するのに用いられ、デプスマップを作成することができる。
【0209】
図20の当該システムは、デプスセンサからの出力とフォトメトリックステレオとを合成する。先の実施形態のように、フォトメトリックステレオからの出力を解析するために、Lambertianイメージングモデルが仮定される。
【0210】
ここで、方向lを持った光源と、スペクトルのリアクタンス関数ρ(λ)および単位法線
【数28】

【0211】
を持つ表面を照明するスペクトル分布S(λ)とを所与として、スペクトル感度u(λ)を持ったセンサによって観察される輝度cは、
【数29】

【0212】
により与えられる。
【0213】
ここで、
【数30】

【0214】
であって、αは表面のアルベドを規定し、vijは、表面の色度、入射光線色およびセンサのスペクトル感度をあらわす。これは、単色のシーンについては、アルベドが変化してもvijがシーン全体にわたって一定であることを意味する。このアルベドの観点では、スケーリングされた法線
【数31】

【0215】
がコンパクトネスに用いられ、
【数32】

【0216】
は、再正規化により、これから復元することができる。
【0217】
前の実施形態に関して、シーンを照明する3つの光線が与えられると、生成されるRGB画像c=[cは、
【数33】

【0218】
により与えられる。
【0219】
ここで、vj=[v0j1j2jは、光線jに対する表面とセンサの結合応答を表わす。
【0220】
前の実施形態に関し、新規の入力画像が与えられると、
【数34】

【0221】
により法線マップを再構成することができる。
【0222】
この実施形態に従う方法では、フォトメトリックの設定を較正するために、行列M=VLを発見しなければならない。この較正について、図22のフローチャートを参照して説明する。
【0223】
この実施形態に従う方法では、フォトメトリックステレオに、デプスセンサからのデータを合成する。両方法を用いて収集された画像間のアライメント支援のために、レジストレーション手順が用いられる。この実施形態において、レジストレーション手順は、図21に示すような較正被写体621を用いる。較正被写体621は、チェッカーボード623を含む。正方形625のうちのいくつかは取り除かれている。
【0224】
使用されるデプスカメラの種類に依存して、デプス画像およびフォトメトリック画像の位置が、そもそも合っているかもしれない。しかし、そうでない場合、2つの間でレジストレーションが行なわれなければならない。チェッカーボード621において、正方形のうちのいくつかは取り除かれている。暗背景を用いてチェッカーボードの画像がキャプチャーされる。この方法によって生成されたデプス画像は、切り取られた正方形の境界においてきれいなコーナーを持たないかもしれない。これは、コーナー局所化アプローチの失敗をもたらす。パターンに線をフィッティングし、コーナー位置の推定としてその交点を用いることにより、ロバストな結果を得ることができる。
【0225】
アライメントが完了すると、較正処理を実行することができる。ステップS701において、1つのカメラおよび3つの光源の各々を順番に用い、被写体の画像を得る。ステップS703では、デプスセンサを用いて被写体のデプスマップが取得される。このデータにより、各画素のnを推定することが可能である。
【0226】
ステップS707では、(c,n)対を用い、RANSACに基づいたアルゴリズムによってMをロバストに推定する。線形系c=Mnの解決によるMの推定は上記3つの対で十分である。しかしながら、この3つの対は同じ色度を持つ表面上の点からもたらされなければならない。また、これは先天的に分からない。
【0227】
したがって、3点を任意に選んでMを推定し、ステップS709において、他のすべての対の各対について、
【数35】

【0228】
であるかを調べることにより、サポートを測定する。
【0229】
ここで、τはしきい値であり、cは画素値である。Mが良い推定である場合、それは、法線マップから正確に画像カラーを予測する。さらに、RANSAC終了条件を満たすまで、(c,n)対の組がランダムに選ばれる。そしてステップS713において、最後のMをサポートするすべての対から最小2乗アプローチを用いてMの推定がなされる。
【0230】
上記のように、法線nはデプスカメラ測定から導出される。較正技術は単一のフレームまたはシーケンスに適用することができるが、Mの推定が適切になされるワイドレンジの法線方向が保証されなければならない。
【0231】
Mの推定がなされた後に、当該シーンに他の色度が存在する場合、ステップS713において、最初の推定をサポートしたすべての対を先ず全て削除して別のMが推定されうる。これにより、存在している色は区分上一定であるという前提の下で、多色のシーンを取り扱うことが可能になる。
【0232】
この実施形態に従う方法を用いた再構成処理を図23を参照して説明する。
【0233】
フォトメトリックステレオを使用する先の実施形態のように、ステップS801では、移動する被写体を3つの異なる色の光源で照明しながら映像データが収集される。ステップS803では、単一のカメラを用い、映像データの各フレームについて、各光線からの照明による画像データが分離される。
【0234】
ステップS805では、異なる色の領域にディテールがセグメント化される。このステップは、各画素におけるnを推定するにはどのM行列を用いるかを決定するために行なわれる。セグメント化は、入力画像において陰にならない各画素が1つのノードを持つ、マルコフ確率場(MRF)フレームワークで構成される。4近傍内の隣接画素に対応するノード間にはエッジが付加される。
【0235】
デプスセンサによるデプス画像は平滑化され、該デプス画像から各画素における法線nが計算される。入力画像は、同じ量で平滑化されて各画素には平滑化された画像値cが与えられ、行列Mを用いるためのユナリー項が、
【数36】

【0236】
によって与えられる。
【0237】
これによって、デプス画像と同様の低周波特性を持った法線マップを生成する較正行列が選ばれるようになる。
【0238】
この実施形態において、ペアワイズ項にポッツモデルが用いられ、ラベルを共有する隣接の画素にはコストが割り当てられず、異なるラベルを持つ場合にコストγが割り当てられる。コストγは、Sobelフィルタリングおよび閾値化により求めた入力画像のエッジマップによって調整される。エッジ上でない画素についてはγの値は大きく、エッジ上の画素についてはγの値は小さい。ツリー再重み付けメッセージパッシングアルゴリズムを用いて、MRFに対する最大事後確率(MAP)解が推定される。これにより、ステップS807において法線領域を作成することが可能になる。
【0239】
ステップS809において、デプスセンサからのデプス画像が決定される。これから3Dメッシュが作成される。較正被写体621を用いて得られた較正情報を用いることにより、このメッシュはフォトメトリックステレオ装置の座標系に変換され、フォトメトリックステレオ・カメラの視点から見たデプス画像がレイトレーシングを用いて生成される。このアプローチは、同じ解像度のデプス画像とフォトメトリックステレオ画像を合成したり、より高い解像度のカラー画像とデプス画像を合成するのに適している。
【0240】
ステップS809で得られたデプス画像の値が、ステップS807の法線領域から得られた画像上に投影されると、これら2つの種類の情報が合成される。
【0241】
まず、ステップS807で得られた法線領域の低周波バイアスは、法線領域のブラー異形がデプスマップのブラー異形から計算された法線と一致するように各法線を回転することで削除される。その後、ステップS809で生成されたデプスおよびステップS807で生成された法線の両方に表面をフィッティングさせるエネルギー関数最適化により、形状が推定される。
【0242】
上記の技術を例証するために、(位置合わせ済の)組み合わせカラーカメラを持つアクティブ光デプスセンサを用いて次の実験が行なわれた。同カメラは、アクティブ光デプスセンサとは独立してカラー画像を検出することができる。該アクティブ照明デプスセンサおよびカラーカメラは、デプス領域とカラー領域の両方に640×480の解像度を持つ。また、異なる色の光源の提供する3つの投光器をセンサの周囲に三角配置した。デプスカメラは近赤外線領域で動作することから、付加的な光源はこれに干渉しない。第2の高解像度カメラとして1600×1200の解像度を持つグラスホッパーカメラを用いた。カラーカメラを持つアクティブ照明デプスセンサから30fpsの平均レートでデプス画像およびカラー画像をキャプチャーした。平均処理時間はシングルスレッドのC++を用いて1フレーム当たり6秒であった。
【0243】
時間的なフリッカーを測定するために、静的シーンの30回の再構成を実行し、30フレームすべてにおいて正常に再構成された各画素の推定デプス値の標準偏差を計算した。これを3つのシーンに対して実行し、平均結果を計算した。
【0244】
図24はデプス画像の空間平滑化に応じた時間的ノイズを示している。斜線部分は、標準偏差の結果の半分に等しい。フォトメトリックデータの使用により、平滑化の必要なしに時間的ノイズを低減することができる。上部の曲線は、デプスセンサからのそのままの結果を示し、下部の曲線は、デプスとフォトメトリックステレオの合成を示している。時間的ノイズ値は、各デプス画像に個々に適用されたガウスカーネルのサイズの関数として示される。空間平滑化がほとんどない場合、付加的なフォトメトリック情報は、時間的ノイズの大きさを著しく縮小する。十分な平滑化によりフリッカーは低減されるが、細かいディテールも削除されてしまう。一方、フォトメトリックデータの追加は、ノイズを低減しつつ、ディテールを向上する。時間的平滑化は使用されないことに留意されたい。
【0245】
上記の実験は、再構成における時間的変動のみを調べるものであり、システムの絶対精度に関する情報は与えられない。これを調べるために、既知の平面を再構成した。また、最小2乗推定を用いて、結果点集合に面をフィッティングした。この面による各再構成点の平均偏差を測定し、再構成精度のメトリックに用いた。デプス情報のみを用いる場合、最良フィッティング面への平均絶対誤差は1.6mmであった。フォトメトリック情報を含めることにより、この誤差は1.2mmに低減した。
【0246】
この結果を図25に示す。図25において、滑らかな線は、フォトメトリックステレオを合成したデプスからの結果を示し、他方の線は、デプスカメラからのそのままの結果を示している。フォトメトリックステレオは高周波ノイズを平滑化することができるが、低周波のゆがみは低減しない。
【0247】
フォトメトリックステレオの導入により動的シーンの再構成がもたらされるという質的改善を示すために、数枚のフェイスシーケンスをキャプチャーした。図26は再構成の例を示している。図26(a)は、デプスカメラのみからの結果を示し、図26(b)は、図26(c)に示される画像を用いてフォトメトリックステレオと合成したデプスカメラからの結果を示している。なお、図26(c)の画像は、複合カラーカメラからのものとした。フォトメトリックステレオの追加により、最初の再構成に見られるものよりもノイズが低減されると共に細かいディテールに分解されていることがわかる。このシーンについて、2つの較正行列が求められた。これらは、シャツをモデルするものと、皮膚をモデル化するものである。
【0248】
図27において、当初の視点からレンダリングされた再構成表面を左の列に示し、新規視点からレンダリングされた再構成表面を2番目の右の列に示す。図27のaおよびbはデプスデータのみによる再構成、図27のcおよびdはフォトメトリックデータのみによる再構成を示しており、ディテールは細かいが低周波のゆがみが出ている。図27のeおよびfは、フォトメトリックステレオとデプスマップの合成による最終結果を示しており、細かいディテールと正確な包括的形状の両方が維持されている。
【0249】
高解像度カメラを用いてデプスカメラを増強すれば、再構成の品質が得られる。フォトメトリック再構成そのままでは図27dに見られるように低周波ゆがみが引き起こされることから、デプスカメラ情報は常に重要である。
【0250】
上記の実施形態に従う方法およびシステムは、フォトメトリックステレオがデプスカメラ出力におけるノイズを低減することができると共に細かいディテールの解像度の獲得を可能にすることを示している。このアプローチの付加的装置要件は3つの異なる色を持った光源であり、これは控えめなものである。さらに別の実施形態は、高解像度カメラを追加するものであり、より細かいディテールの復元を可能にする。
【0251】
上記の方法およびシステムは、画像ベースのフォトメトリックステレオを用いてデプスカメラ出力を増強する。デプスカメラによって生成された測定結果は高周波ノイズを含んでおり、その削減にはフォトメトリックステレオが適切である。複合カラーカメラを持つアクティブ照明デプスセンサを用いる技術について示す。しかし、タイムオブフライトセンサのような種々様々のデプスセンシングデバイスが適用可能である。複合カラーカメラを用いることにより再構成の改善がみられ、より高度な解像度カメラを付加的に導入することによりさらなる改善が達成される。該方法は、再構成の質的改善ならびに時間的ノイズの量的削減を示す。
【0252】
上記は、アクティブ照明デプスセンサおよび複合カラーカメラ・システムによって提供されるデプスカメラの使用に主に焦点を当てるものであった。しかし、三角測量に基づくタイムオブフライト・カメラのような他種のデプスカメラを用いることができる。これは、高周波ノイズを持つ低解像度レンジ画像を生成する。上記の方法では、デプスカメラからの出力を増強するためにフォトメトリックステレオが用いられ、これにより(1)出力における高周波ノイズを低減し、(2)デプスカメラ単独の場合よりも細かいディテールを復元する。
【0253】
フォトメトリックステレオを選ぶ動機づけは、包括的形状(つまり低周波成分)の誤差が導入される傾向があるものの、正確な高周波データを提供するその誤差特性にある。デプスカメラからの正確な低周波情報とフォトメトリックステレオからの正確な高周波情報とを合成することにより、より正確な再構成がもたらされる。フレーム毎に形状を生成する目的において、マルチスペクトル・フォトメトリックステレオが用いられる。ここで、個別の方向からシーンを照明するための3つの異なる色の光源を用いることにより、単一画像において3つの光線方向がキャプチャーされる。これにより動的シーンのキャプチャーが可能である。
【0254】
異なるカメラあるいはセンサによってキャプチャーされた画像データの位置合わせに用いることが可能な較正ボードを図21に示した。上記新規な較正ボードは上述の特定の実施形態に制限されず、2つの異なるカメラあるいはセンサによってキャプチャーされた画像の位置合わせが要求される任意のシステムに用いることができる。図21の較正ボードでは、2Dパターン(つまりチェッカーボード正方形の角)において勾配線にはいずれも切れ目があり、いくつかの正方形の除去により3Dレリーフにおける点には切れ目がある。2D画像の勾配線における切れ目および3D画像における切れ目の両方に共通の点がある。共通点(あるいはこれに代わる点)に加え、正方形それ自体または正方形をなす境界線の少なくとも1つをアライメントに用いることができる。
【0255】
さらに、この種の較正ボードを変形することも可能である。図28に、いくつかの可能な変形を示す。図28(a)のように、シェイプ903を較正ボード901から切り抜く。この較正ボード901は第1の色を持っており、削除されるシェイプ903はカラーおよびレリーフにおける変化を与える。一実施形態では、シェイプ903の境界は2D画像および3Dレリーフにおける共通の特徴としてアライメントに用いられる。シェイプ903の境界の一部のみを用いてもよい。
【0256】
シェイプ903には、2D画像内の点905および907によって形成される2つの切れ目がある。これらの2点は、2D画像の勾配線および3D画像における切れ目を表わすことから共通点をなしており、2D画像データおよび3D画像データの両方において容易に認識することができる。さらに別の実施形態では、シェイプ903の境界線。
【0257】
図28(b)は、図21のチェッカーボード配列の更なる変形を示す。較正ボード911からシェイプ913が取り除かれている。このシェイプ913は開口するように較正ボード911のコーナーから切り取られている。この場合においても、端点915および917の2点、すなわち2Dパターンに境界を定める勾配線による切れ目が形成される。
【0258】
重ねて、先のとおり、共通点915および917をアライメントに用いることができる。すなわち、シェイプ913の境界を成す1以上の線をアライメントに用いることができる。さらに別の実施形態では、コーナー919がボード911からカットされる。このコーナーの境界線は、当該ボード上の2D画像における切れ目ならびに該ボードの3Dレリーフにおける切れ目を表わすことから、共通の特徴としてアライメントに用いられる。
【0259】
更なる変形を図28(c)に示す。同図は、較正ボード921から切り抜かれた2つの正方形923および925を示している。正方形923(および925)のコーナー927のそれぞれは端点を与える。これらは、3Dレリーフおよびボードの2D画像を構成する勾配線の両方における不連続点であって、所要の共通点を与える。シェイプ923および925のそれら自体をアライメントに用いることができ、コーナー927は2Dパターンと3Dレリーフの間に共通の特徴を与える。
【0260】
更なる変形を図28(d)に示す。ボード931はカットアウト円933を持っている。この円形のシェイプ933の境界を共通の特徴として用いることができる。あるいは円933によって規定される中心935を共通の特徴として用いてもよい。一実施形態では、円933の境界は2D画像において用いられ、円935の中心は2つのセンサを位置合わせするために3D画像において用いられる。
【0261】
シェイプはさらに変形することができる。例えば、楕円937あるいは楕円の切片をアライメントに用いることが可能であり、また、楕円または楕円の切片の焦点939をアライメント用の共通点あるいは対応点のいずれかに用いることも可能である。
【0262】
上述した種々の較正ボードは、例えば画像符号化デプスセンサのようなデプスセンサを用いるシステムや、標準的なカメラを備えたタイムオブフライトセンサのように、あらゆるシステムの位置合わせに用いることができる。上記標準のカメラは、フォトメトリックステレオ測定用に構成する必要はない。
【0263】
図28に示した例は、較正ボードから単にパターンをカットするものである。しかしながら、較正ボードからパターンを凹ませたり、突出させたり、パターンのある部分が較正ボードから突出し、他の部分が較正ボードから引っ込むように較正ボードに対してある角度に曲げてパターンを配置するなど、より複雑なアレンジが可能である。
【0264】
いくつかの実施形態を説明したが、これらの実施形態は例示のみを目的としており、発明の範囲を制限することは意図していない。実際には、本明細書で説明した新規の方法およびシステムは他の様々な形で具体化することができ、また発明の要旨から逸脱しない範囲で、本明細書で説明した方法およびシステムの構造における様々な省略、置換、および変更を行ってもよい。添付の特許請求の範囲およびその均等物は、発明の範囲および要旨に含まれうる構造あるいは改良に及ぶことが意図される。

【特許請求の範囲】
【請求項1】
シーンの3D画像データをキャプチャーするシステムであって:
各々が互いに異なる波長の光を照射し、キャプチャーすべきシーンを照明するよう構成された三つの光源と;
前記シーンから反射された前記光源からの光を受光するよう構成され、各光源から受光された光を分離し、前記三つの光源ごとにキャプチャーされた前記画像に関するデータを出力する第一ビデオカメラと;
前記シーンの第一デプスマップをキャプチャーするよう構成されたデプスセンサと;
前記第一ビデオカメラからデータを受信し、該データを処理して前記三つの光源ごとにキャプチャーされた前記画像から得られた法線領域に関するデータを取得する解析ユニットにおいて、前記法線領域に関する前記データを前記第一デプスマップのデータに合成して、前記シーンの3D画像データをキャプチャーする前記解析ユニットとを備えるシステム。
【請求項2】
前記デプスセンサは前記第一ビデオカメラと、第二ビデオカメラと、相関ユニットとを備え、前記第二ビデオカメラは前記第一ビデオカメラから空間的に分離されており、前記相関ユニットは前記第一および第二ビデオカメラから受信した前記データを関連づけて前記シーンのデプスマップを生成するよう構成されている、請求項1に記載のシステム。
【請求項3】
該デプスセンサは、パターンを該シーンに投影するよう構成されたプロジェクタと、前記シーンに投影された該パターンの画像をキャプチャーするよう構成されたカメラとを備え、該解析ユニットは第二デプスマップを生成するよう構成されている、請求項1に記載のシステム。
【請求項4】
該デプスセンサはタイムオブフライトセンサを備える、請求項1に記載のシステム。
【請求項5】
動的シーンの3D画像データを生成する方法であって、
三つの異なる方向から照明された前記シーンの該第一カメラによりキャプチャーされた映像データを含むフォトメトリック画像データであって、照明方向ごとにキャプチャーされた前記画像データに分離可能であるフォトメトリック画像データを第一ビデオカメラから受信する工程と、
デプスセンサから前記シーンの第一デプスマップのデータを示すデータを受信する工程と、
前記第一ビデオカメラから受信したデータを解析して、法線領域に関するデータを供給する工程とを備え、更に前記方法は前記法線領域に関する前記データと前記第一デプスマップに関する前記データとを合成して前記シーンの前記3D画像データを生成する工程を備える方法。
【請求項6】
画像となる前記シーンがLambertian撮像モデルに従って光を反射することを想定して、前記第一ビデオカメラからの前記データが解析され、
【数1】

ここで、c,c,cをそれぞれ前記三つの方向から前記シーンを照明してキャプチャーした画像内のある画素について測定した輝度とするとき、c=[cが成立し、nは前記画素の表面に対する法線を表すベクトル、Vは前記表面および前記カメラの照明に対する結合応答を表す行列、Lは前記三つの照明光の方向を決める行列である、請求項5に記載の方法。
【請求項7】
較正工程をさらに備え、M=VLの場合、該較正工程がMを決定するよう構成されている、請求項6に記載の方法。
【請求項8】
較正工程をさらに備え、M=VLの場合、該較正工程がVおよびLを決定するよう構成されている、請求項6に記載の方法。
【請求項9】
画素ごとにVが決定される、請求項8に記載の方法。
【請求項10】
Nを1以上でシーン内の画素数未満の整数である場合、行列VがN個となるよう較正中にシーンごとに複数の行列Vが決定される、請求項9に記載の方法。
【請求項11】
前記行列VaΕ1,.......,NがRANSACアルゴリズムを用いて決定される、請求項10に記載の方法。
【請求項12】
モデル選択法に基づいて前記Nが自動的に決定される、請求項10に記載の方法。
【請求項13】
前記第一ビデオカメラから受信された前記データは、前記三つの照明方向それぞれについて二つずつの異なる照射条件からなる六つの異なる条件下で照明された前記シーンの画像データを含み、前記六つの異なる条件下での前記データを解析することにより、画素ごとに前記行列Vが決定される、請求項9に記載の方法。
【請求項14】
前記三つの異なる照明方向からの前記データを解析し、かつ前記デプスセンサからのデータより前記表面法線を計算することによって、画素ごとに前記行列Vが決定される、請求項9に記載の方法。
【請求項15】
前記解析工程は、該第一ビデオカメラおよび該デプスセンサからのフレーム単位でのデータ受信する工程と、前記観察されたシーンを一定の色度の領域にセグメント化する工程とを備え、一定の色度の領域のそれぞれに前記行列Vからなる行列が指定される、請求項10に記載の方法。
【請求項16】
該セグメント化工程はマルコフ確率場ネットワークを用いて行われる、請求項15に記載の方法。
【請求項17】
前記第二デプスマップに関する前記データを前記第一デプスマップのデータと合成して前記シーンの3D画像データを生成する工程は、前記第二マップに関する前記データをノイズレベルでブラー処理する工程と、ブラーに起因する前記第二デプスマップの前記法線の回転を計算する工程と、該回転を前記第二デプスマップと同一のノイズレベルでブラー処理された前記第一デプスマップの前記法線に適用することとを含む、請求項5に記載の方法。
【請求項18】
請求項5に記載の動的シーンの3D画像データを生成する方法であって:
それぞれが互いに異なる波長の光を照射するよう構成された三つの光源により、キャプチャーすべき前記シーンを照明することで前記フォトメトリック画像データをキャプチャーする工程と、
前記シーンから反射された前記光源からの光を受光するよう構成された第一ビデオカメラを用いて前記シーンの画像をキャプチャーし、前記光源ごとに前記シーンから反射された前記光を分離する工程とをさらに備える。
【請求項19】
前記第二デプスマップに関する前記データを前記第一デプスマップのデータに位置合わせするための較正データを取得する工程をさらに備え、該較正データを取得する工程は、少なくとも一つの特徴を有する較正ボードの画像データをキャプチャーする工程を含み、該少なくとも一つの特徴は、該較正ボード上に形成された2Dパターンと該ボードの3Dレリーフとの双方における切れ目を規定する行、点、または形から選ばれる、請求項18に記載の方法。
【請求項20】
請求項5に記載の前記方法を実行するようコンピュータを制御するためのコンピュータ読み取り可能な命令を記憶する記憶媒体。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26】
image rotate

【図27】
image rotate

【図28】
image rotate


【公開番号】特開2012−248183(P2012−248183A)
【公開日】平成24年12月13日(2012.12.13)
【国際特許分類】
【外国語出願】
【出願番号】特願2012−107495(P2012−107495)
【出願日】平成24年5月9日(2012.5.9)
【出願人】(000003078)株式会社東芝 (54,554)
【Fターム(参考)】