画像処理装置および画像処理方法
【課題】オクルージョン領域の奥行き情報を精度良く求めること。
【解決手段】複数の視点で被写体を撮像して得られた複数の画像間で、各画素の対応関係を検出する対応関係検出手段31と、前記対応関係が検出された画素の奥行き情報を含む奥行きマップを作成する奥行きマップ作成手段32と、オクルージョン領域とその周囲領域とからなる画像参照領域を決定する画像参照領域決定手段34と、前記画像参照領域内の部分画像の特徴量に基づいて、前記画像参照領域を複数のクラスタに分割する領域分割手段35と、前記奥行きマップにおける注目クラスタの奥行き情報、および、注目クラスタの特徴量に基づいて選択した他のクラスタの奥行き情報のうち、少なくとも一方の奥行き情報に基づいて、オクルージョン領域の奥行き情報を算出するオクルージョン奥行き情報算出手段36と、算出された奥行き情報を奥行きマップに追加する奥行きマップ更新手段37を備えた。
【解決手段】複数の視点で被写体を撮像して得られた複数の画像間で、各画素の対応関係を検出する対応関係検出手段31と、前記対応関係が検出された画素の奥行き情報を含む奥行きマップを作成する奥行きマップ作成手段32と、オクルージョン領域とその周囲領域とからなる画像参照領域を決定する画像参照領域決定手段34と、前記画像参照領域内の部分画像の特徴量に基づいて、前記画像参照領域を複数のクラスタに分割する領域分割手段35と、前記奥行きマップにおける注目クラスタの奥行き情報、および、注目クラスタの特徴量に基づいて選択した他のクラスタの奥行き情報のうち、少なくとも一方の奥行き情報に基づいて、オクルージョン領域の奥行き情報を算出するオクルージョン奥行き情報算出手段36と、算出された奥行き情報を奥行きマップに追加する奥行きマップ更新手段37を備えた。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、複数の視点から撮像して得られた3D画像の奥行き情報マップを作成する際に、オクルージョン領域の奥行き情報を精度良く求めることができる画像処理装置および画像処理方法に関する。
【背景技術】
【0002】
複数の撮像系を備えた3Dデジタルカメラがユーザに提供されている。3Dデジタルカメラで撮影して得られた3D画像は、その3Dデジタルカメラに実装された3Dモニタや、3Dビューワーと呼ばれる広画面の3Dモニタ装置により立体視可能にして表示することができるほか、3Dプリントシステムによりプリント媒体に立体視可能にして印刷することができる。また、より高画質の3D画像をユーザに提示するため、複数視点から撮像して任意の仮想視点から見た場合の3D画像を作成する画像処理が知られている。
【0003】
特許文献1には、複数の異なる視点の画像から2枚以上の奥行きマップを生成し、これらの奥行きマップをもとに仮想視点から見た仮想視点奥行きマップを生成する構成が開示されている。ある一つの視点から見えない領域(オクルージョン領域)の奥行き情報を他の視点の情報で補間し、奥行き情報が決定されない画素については、周囲の画素の奥行き情報で線形補間し、さらに平滑化処理を行う。仮想奥行きマップをもとに、多視点画像(実視点画像)の画素を並べ変えて再構成することで、仮想視点画像を作成する。
【0004】
特許文献2には、オクルージョンが発生した場合は、オクルージョンが発生していない視点で撮像された画像データを参照して、被写体の位置情報を取得する構成が開示されている。
【0005】
特許文献3には、物体の輪郭線を検出し、オクルージョン領域の視差を推定する際に輪郭部分が不連続となるようにする構成が開示されている。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特許第3593466号公報
【特許文献2】特開2004−246667号公報
【特許文献3】特開平9−27969号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
3D画像には、一方の視点からは撮像されたが他方の視点からは撮像されなかった領域(いわゆる「オクルージョン領域」)が存在する。3D画像から任意の中間仮想視点の3D画像を精度良く作成するためには、このオクルージョン領域の奥行き情報を精度良く求めることが求められる。
【0008】
特許文献1に記載の構成では、オクルージョン領域の奥行き情報を単に周囲の画素の奥行き情報を用いて線形補間するだけなので、オクルージョン領域とは異なる被写体に対応する奥行き情報を用いて補間された場合、奥行き情報の誤差が大きくなるという問題がある。特許文献2に記載の構成にも同様の問題がある。
【0009】
また、特許文献2に記載の実施例では、オクルージョン処理に3つ以上のカメラが必要であり、二眼のカメラには不向きである。
【0010】
また、特許文献3に記載の構成では、画像全体から輪郭を求めるので、演算量が多く、また、領域分割の精度が悪い。
【0011】
本発明はこのような事情に鑑みてなされたもので、複数の視点で被写体をそれぞれ撮像して得られた画像の奥行き情報マップを作成する際に、オクルージョン領域の奥行き情報を精度良く求めることができる画像処理装置および画像処理方法を提供することを目的とする。
【課題を解決するための手段】
【0012】
前記目的を達成するために、本発明は、複数の視点で被写体をそれぞれ撮像して得られた複数の画像を入力する画像入力手段と、前記複数の画像間で各画素の対応関係を検出する対応関係検出手段と、前記対応関係が検出された画素の奥行き情報を算出して、該奥行き情報を含む奥行きマップを作成する奥行きマップ作成手段と、前記対応関係が検出されなかったオクルージョン画素に対応する領域をオクルージョン領域として、前記オクルージョン領域と該オクルージョン領域を囲む周囲領域とからなる画像参照領域を決定する画像参照領域決定手段と、前記画像参照領域内の部分画像の特徴量に基づいて、前記画像参照領域を複数のクラスタに分割する領域分割手段と、前記各クラスタに注目し、前記奥行きマップにおける注目クラスタの前記奥行き情報、および、前記注目クラスタの前記特徴量に基づいて選択した他の前記クラスタの前記奥行き情報のうち、少なくとも一方の奥行き情報に基づいて、前記注目クラスタ内の前記オクルージョン画素の奥行き情報を算出するオクルージョン奥行き情報算出手段と、前記オクルージョン画素の前記奥行き情報を前記奥行きマップに追加する奥行きマップ更新手段と、を備えたことを特徴とする画像処理装置を提供する。
【0013】
即ち、オクルージョン領域とそのオクルージョン領域を囲む周囲領域とからなる画像参照領域を、その画像参照領域内の部分画像の特徴量に基づいて複数のクラスタに分割し、各クラスタに注目して、各注目クラスタの奥行き情報と、部分画像の特徴量に基づいて選択した他のクラスタの奥行き情報とのうち、少なくとも一方の奥行き情報に基づいて、各注目クラスタのオクルージョン領域の奥行き情報を算出するようにしたので、線形補間によりオクルージョン領域の奥行き情報を単純に補間する従来の画像処理装置と比較して、オクルージョン領域の周囲の情報のうちオクルージョン領域とは無関係な情報が排除される一方でオクルージョン領域に繋がる有効な情報が反映されることになり、オクルージョン領域の奥行き情報の精度が向上する。また、各クラスタごとに特徴量や奥行きマップを参照すればよいので、計算量が少なくて済み、処理の高速化が可能となる。
【0014】
なお、奥行き情報は、視点(実視点または仮想視点)からの実際の奥行き値である必要はなく、奥行きに対応した情報であればよい。例えば、符号付視差量を奥行き情報として用いることができる。また、視差量以外に可変パラメータがある場合には、符号付き視差量とその可変パラメータとの組み合わせにより奥行き情報を表してもよい。つまり、奥行きマップ更新後に、立体視表示、立体視プリント作成、あるいは他の画像処理で扱いやすい形式で表せばよい。
【0015】
また、奥行き情報は、1画素ごとに算出する必要はなく、一定数の画素からなる画素群ごとに算出してもよい。
【0016】
本発明の一態様では、前記領域分割手段は、前記特徴量として、前記部分画像の色、輝度、空間周波数およびテクスチャのうち少なくともひとつに基づいて、前記画像参照領域の分割を行う。
【0017】
なお、色としては、色相、彩度など各種の色情報を用いることができる。空間周波数は、例えば、輝度の空間周波数を用いてもよいし、特定色(例えば緑)成分の空間周波数を用いてもよい。
【0018】
本発明の一態様では、前記オクルージョン奥行き情報算出手段は、前記各クラスタごとに、前記対応関係が検出された画素の奥行き情報の平均値を算出し、該平均値を前記オクルージョン画素の奥行き情報とする。
【0019】
即ち、各クラスタごとの平均値算出により、高速且つ適切に、オクルージョン領域内の奥行き情報を算出できる。
【0020】
本発明の一態様では、前記オクルージョン奥行き情報算出手段は、前記注目クラスタ内に前記対応関係が検出された画素がある場合には、前記注目クラスタ内の前記奥行き情報の平均値を、前記注目クラスタ内の前記オクルージョン画素の奥行き情報とし、前記注目クラスタ内に前記対応関係が検出された画素がない場合には、前記画像参照領域内の前記複数のクラスタのうちで前記特徴量が前記注目クラスタの前記特徴量に最も近いクラスタを選択し、その選択したクラスタ内の前記奥行き情報の平均値を、前記注目クラスタ内の前記オクルージョン画素の奥行き情報とする。
【0021】
即ち、クラスタ内に非オクルージョン画素がない場合でも、特徴的に似ているクラスタの奥行き情報が利用されるので、オクルージョン領域内の奥行き情報を精度良く求めることができる。
【0022】
本発明の一態様では、前記オクルージョン奥行き情報算出手段は、前記各クラスタごとに前記奥行き情報の分布を示す分布情報を算出し、該分布情報に基づいて前記オクルージョン画素の奥行き情報を算出する。
【0023】
即ち、各クラスタ内で奥行き情報が平坦でなく傾斜がある場合でも、オクルージョン領域内の奥行き情報を精度良く求めることができる。
【0024】
本発明の一態様では、前記画像参照領域決定手段は、前記オクルージョン領域の外周に、前記オクルージョン領域の幅に対して一定の比率の幅を有する前記周囲領域を設定する。
【0025】
即ち、簡単且つ適切に画像参照領域を決定することができる。
【0026】
本発明の一態様では、前記画像参照領域決定手段は、前記オクルージョン領域の外周に、前記オクルージョン領域の幅に対して一定の比率の幅を有する前記周囲領域を設定する。
【0027】
即ち、オクルージョン領域の幅に応じて、精度良く、オクルージョン領域内の奥行き情報を求めることができる。
【0028】
また、本発明は、複数の視点で被写体をそれぞれ撮像して得られた複数の画像間で各画素の対応関係を検出する対応関係検出ステップと、前記対応関係が検出された画素の奥行き情報を算出して、該奥行き情報を含む奥行きマップを作成する奥行きマップ作成ステップと、前記対応関係が検出されなかったオクルージョン画素に対応する領域をオクルージョン領域として、前記オクルージョン領域と該オクルージョン領域を囲む周囲領域とからなる画像参照領域を決定する画像参照領域決定ステップと、前記画像参照領域内の部分画像の特徴量に基づいて、前記画像参照領域を複数のクラスタに分割する領域分割ステップと、前記各クラスタに注目し、前記奥行きマップにおける注目クラスタの前記奥行き情報、および、前記注目クラスタの前記特徴量に基づいて選択した他の前記クラスタの前記奥行き情報のうち、少なくとも一方の奥行き情報に基づいて、前記注目クラスタ内の前記オクルージョン画素の奥行き情報を算出するオクルージョン奥行き情報算出ステップと、前記オクルージョン画素の前記奥行き情報を前記奥行きマップに追加する奥行きマップ更新ステップと、を含むことを特徴とする画像処理方法を提供する。
【発明の効果】
【0029】
本発明によれば、複数の視点でそれぞれ撮像して得られた画像の奥行き情報マップを作成する際に、オクルージョン領域の奥行き情報を精度良く求めることができる。
【図面の簡単な説明】
【0030】
【図1】本発明に係る画像処理装置の一例の構成を示すブロック図
【図2】視差量および奥行き情報の説明に用いる説明図
【図3】画像処理の一例の流れを示すフローチャート
【図4】入力された左画像および右画像の一例を示す説明図
【図5】画像間の対応関係検出の説明に用いる説明図
【図6】奥行きマップ作成の説明に用いる説明図
【図7】オクルージョン領域検出の説明に用いる説明図
【図8】画像参照領域決定の説明に用いる説明図
【図9】領域分割の説明に用いる説明図
【図10】オクルージョン領域における奥行き情報算出の説明に用いる説明図
【図11】奥行きマップ更新の説明に用いる説明図
【図12】オクルージョン奥行き情報算出の第1の例の説明に用いる説明図
【図13】オクルージョン奥行き情報算出の第2の例の説明に用いる説明図
【図14】オクルージョン奥行き情報算出の第3の例の説明に用いる説明図
【図15】画像参照領域決定の例の説明に用いる説明図
【発明を実施するための形態】
【0031】
以下、添付図面に従って、本発明の実施形態について、詳細に説明する。
【0032】
図1は、本発明に係る画像処理装置の一例の全体構成を示すブロック図である。
【0033】
図1において、画像処理装置2は、指示入力手段21、データ入出力手段22、CPU23、記憶手段24、および、表示手段25を含んで構成されている。また、CPU23は、対応関係検出手段31、奥行きマップ作成手段32、オクルージョン領域検出手段33、画像参照領域決定手段34、領域分割手段35、オクルージョン奥行き情報算出手段36、奥行きマップ更新手段37、および、仮想視点画像作成手段38を有する。
【0034】
指示入力手段21は、指示を入力するための入力デバイスである。例えば、キーボード、ポインティングデバイスなどによって構成される。
【0035】
データ入出力手段22は、各種のデータを入力および出力するための入出力デバイスである。本例では、特に、画像データ(以下単に「画像」という)の入力と、仮想視点画像および奥行きマップの出力とに用いられる。データ入出力手段22は、例えば、メモリカードなどのリムーバブルな記録メディアからのデータ入力およびその記録メディアへのデータ出力を行う記録メディアインタフェースや、ネットワークからのデータ入力およびそのネットワークへのデータ出力を行うネットワークインタフェースによって構成される。
【0036】
本例では、データ入出力手段22により、複数の視点で被写体をそれぞれ撮像して得られた複数の2D画像(「単視点画像」ともいう)からなる3D画像(「複数視点画像」ともいう)が入力される。
【0037】
奥行きマップは、3D画像を構成する複数の2D画像のうち少なくとも一方について、画素の奥行き情報を画素の位置に対応付けて示すデータである。各画素の奥行き情報は、各画素の視差量に対応する。視差量については後に詳説する。
【0038】
CPU(Central Processing Unit)23は、画像処理装置2の各部を制御するとともに、画像処理を実行する。
【0039】
対応関係検出手段31は、3D画像を構成する複数の2D画像間で、各画素の対応関係を検出する。つまり、視点が異なる複数の2D画像間で、画素と画素との対応付けを行う。
【0040】
奥行きマップ作成手段32は、対応関係が検出された画素(以下「非オクルージョン画素」という)の奥行き情報を算出して、その奥行き情報を含む奥行きマップを作成する。
【0041】
オクルージョン領域検出手段33は、対応関係が検出されなかった画素(以下「オクルージョン画素」という)の領域をオクルージョン領域として検出する。対応関係が検出された非オクルージョン画素の領域は、非オクルージョン領域である。
【0042】
画像参照領域決定手段34は、オクルージョン画素の奥行き情報を算出するために部分画像を参照する画像参照領域であって、オクルージョン領域とオクルージョン領域を囲む周囲領域とからなる画像参照領域を決定する。なお、具体例については後に詳説する。
【0043】
領域分割手段35は、画像参照領域内の部分画像の特徴量に基づいて、画像参照領域を複数のクラスタに分割する。なお、具体例については後に詳説する。
【0044】
オクルージョン奥行き情報算出手段36は、オクルージョン領域内の画素(オクルージョン画素)の奥行き情報を算出する。具体的には、各クラスタに順次注目し、奥行きマップにおける注目クラスタ内の非オクルージョン画素の奥行き情報、および、注目クラスタの特徴量に基づいて選択した他のクラスタ内の奥行き情報のうち、少なくとも一方の奥行き情報に基づいて算出する。なお、具体例についは後に詳説する。
【0045】
奥行きマップ更新手段37は、オクルージョン画素の奥行き情報を奥行きマップに追加することで、奥行きマップの更新を行う。
【0046】
仮想視点画像作成手段38は、実視点画像(即ちデータ入出力手段22に入力された3D画像)、および、更新された奥行きマップに基づいて、任意の仮想視点から見た場合の3D画像(仮想視点画像)を作成する。
【0047】
記憶手段24は、各種のデータを記憶する記憶デバイスであり、不揮発性メモリまたはディスクを含んで構成されている。
【0048】
表示手段25は、液晶表示デバイスなどの表示デバイスである。本例の表示手段25は、画像処理装置2の操作者とのユーザインタフェースに用いられるものであり、立体視表示可能でなくてもよい。
【0049】
次に、視差量および奥行き情報について、図2を用いて説明する。
【0050】
図2において、3Dデジタルカメラ1は、複数の撮像系11L、11Rを備える。各撮像系11L、11Rは、ズームレンズ、フォーカスレンズおよび絞りを有する撮影光学系と、CCDセンサなどの撮像素子を有する。なお、発明の理解を容易にするため、3Dデジタルカメラ1にて、基線長SB(撮像系11L、11Rの光軸の間隔)、及び、輻輳角θc(撮像系11L、11Rの光軸同士が成す角度)は、固定であるものとして説明する。
【0051】
複数の撮像系11L、11Rにより、同一の被写体91(本例では球)を複数の視点から撮像することで、複数の2D画像(左画像92L及び右画像92R)が生成される。生成された2D画像92L、92Rは、同一の被写体91が投影された被写体像93L、93Rを、それぞれ含んでいる。これらの2D画像92L、92Rを、立体視表示可能なモニタ60で重ね合わせて表示することで、すなわち3D表示することで、3D画像94が再生される。観察者95は、モニタ60上の3D画像94を両眼96L、96Rから観察する。そうすると、観察者95には被写体91の虚像97が飛び出して見える。尚、図2では、光軸間の交点99(クロスポイント)よりも近い位置に被写体91が存在したので虚像97が手前側に飛び出して見えるが、交点99よりも遠い位置に被写体が存在した場合には虚像が奥側に引き込んで見える。
【0052】
図2に示すように被写体距離Sが交点99までの距離よりも小さい範囲内では、被写体距離Sが小さいほど、3D画像94上で被写体像93L、93Rの中心座標XLF、XRFの差分|XLF−XRF|が大きくなる。すなわち、被写体距離Sが小さいほど、2D画像92L、92R間で対応画素同士が離れる。ここで、差分|XLF−XRF|はx座標のみであり、これを視差量APとして表す。つまり、基線長SB及び輻輳角θcが決まっていれば、交点99よりも前では被写体距離Sが小さいほど、APが大きくなり、観察者95が体感する虚像97の飛び出し量ADも大きくなる。
【0053】
各2D画像における画素の奥行き情報は、基線長SB、輻輳角θcおよび焦点距離が定まっていれば、視差量APを用いて表すことができる。例えば、交点99よりも前に被写体91がある場合には、視差量APに正の符号を付した値が奥行き情報となり、交点99よりも後に被写体91がある場合には、視差量APに負の符号を付した値が奥行き情報となる。交点99に対応する奥行き情報は0(ゼロ)である。この場合、奥行き情報が正の場合には、値が大きいほど飛び出し量ADが大きくなり、奥行き情報が負の場合、絶対値が大きいほど引き込み量が大きくなる。
【0054】
なお、奥行き情報は、被写体距離Sにも対応するので、被写体距離Sを用いて表すことも可能である。
【0055】
また、基線長SB及び輻輳角θcが一定である場合を例に説明したが、輻輳角θcが可変である構造の場合には、輻輳角θc及び被写体距離Sに応じて、飛び出し量ADが変化する。また、輻輳角θcに加えて基線長SBも可変である構造の場合には、基線長SB及び輻輳角θc及び被写体距離Sに応じて、飛び出し量ADが変化する。また、基線長SB及び輻輳角θcが一定であっても、2D画像92L、92R間で画素ずらしを行って視差量APを変更した場合には、飛び出し量ADも変わってくる。
【0056】
図3は、画像処理装置2における画像処理の一例の流れを示すフローチャートである。
【0057】
ステップS1にて、データ入出力手段22により、3D画像を入力する。3D画像は、3Dデジタルカメラ1により複数の視点で被写体をそれぞれ撮像して得られた複数の2D画像92L、92Rからなる。以下では、図4に示す左画像92Lおよび右画像92Rが入力されたものとして説明する。
【0058】
ステップS2にて、対応関係検出手段31により、2D画像92L、92R間で、各画素の対応関係を検出する。例えば、図5に示すように、右画像92Rの各画素R1、R2に注目するとともに、右画像92Rの各注目画素R1、R2にそれぞれ対応する左画像の対応画素L1、L2を検出する。なお、左画像92L中の画素LR1、LR2は、右画像92Rの注目画素R1、R2を単純に投影した位置にある画素である。
【0059】
ステップS3にて、奥行きマップ作成手段32により、対応関係が検出された画素(非オクルージョン画素)の奥行き情報を算出して、その奥行き情報を含む奥行きマップを作成する。図6(A)にて、画素L1の奥行き情報を矢印p1で示し、画素L2の奥行き情報を矢印p2で示した。ここで、p1はL1−LR1間のベクトル、p2はL2−LR2間のベクトルに相当する。本例における奥行き情報は、実際には、符号付きの視差量として、符号と絶対値とで表される。図6(B)は、左画像92Lを右画像92Rに投影するマップを、矢印の配列で模式的に示したもので、左画像92Lの奥行きマップと呼ばれる。図6(B)に示すように、奥行きマップは各画素の奥行き情報を各画素の位置に対応付けた情報であるといえる。本例における奥行きマップは、実際には、符号付き視差量の配列で表される。なお、左画像92Lの奥行きマップ作成を例に説明したが、右画像92Rの奥行きマップも同様に作成する。
【0060】
ステップS4にて、オクルージョン領域検出手段33により、図7に示すように、オクルージョン領域80L、80Rを検出する。即ち、2D画像92L、92R間で対応関係を検出できなかったオクルージョン画素の領域80L、80Rを、オクルージョン領域とする。左画像92Lのオクルージョン領域80Lは図2の右撮像系11Rからは見えなかった領域であり、右画像92Rのオクルージョン領域80Rは図2の左撮像系11Rからは見えなかった領域である。
【0061】
ステップS5にて、画像参照領域決定手段34により、図8に示すように、オクルージョン領域80Lとオクルージョン領域80Lを囲む帯状の周囲領域82Lとからなる画像参照領域84Lを決定する。なお、左画像92Lの画像参照領域84Lを例に説明したが、右画像92Rの画像参照領域も同様に決定される。
【0062】
ステップS6にて、領域分割手段35により、図9に示すように、画像参照領域84L内の部分画像の特徴量に基づいて、画像参照領域84Lを複数のクラスタC1〜C4(分割領域)に分割する。領域分割手段35は、例えば、色、輝度、空間周波数およびテクスチャのうち少なくともひとつに基づいて、画像参照領域84Lを複数のクラスタC1〜C4に分割する。なお、色としては、色相、彩度など各種の色情報を用いることができる。空間周波数は、例えば、輝度の空間周波数を用いてもよいし、特定色(例えば緑)成分の空間周波数を用いてもよい。
【0063】
ステップS7にて、オクルージョン奥行き情報算出手段36により、オクルージョン領域80L(PA1、PA2およびPA3)内の奥行き情報を算出する。図10において、オクルージョン領域PA1、PA2およびPA3のうち、PA1とPA2は左画像92L中の樹の部分画像を構成する画素であり奥行き情報であり、PA3は左画像92L中の人の部分画像を構成する画素である。
【0064】
オクルージョン奥行き情報算出手段36は、具体的には、画像参照領域84L内の各クラスタC1,C2,C3,C4に順次注目し、次のようにして奥行き情報を算出する。まず、図9のクラスタC1に注目し、クラスタC1内には既に奥行き情報が検出された画素(即ち右画像92Rの画素との対応関係が検出された非オクルージョン画素)があるので、その奥行き情報に基づいて、クラスタC1内の図10に示すオクルージョン部分領域PA1、PA2の奥行き情報を算出する。なお、具体的な計算例は、後に詳説する。次に、図9のクラスタC2に注目し、クラスタC2内には既に奥行き情報が検出された画素があるので、その奥行き情報に基づいて、クラスタC2内の図10に示すオクルージョン部分領域PA3の奥行き情報を算出する。なお、図9のクラスタC3,C4にはオクルージョン領域がないので、ここでは奥行き情報の算出は不要である。
【0065】
なお、注目クラスタ内にオクルージョン画素のみが存在する場合には、注目クラスタの部分画像の特徴量に基づいて選択した他のクラスタの奥行き情報に基づいて、注目クラスタ内のオクルージョン領域の奥行き情報を算出すればよい。このような場合の例は、後に詳細に説明する。
【0066】
ステップS8にて、奥行きマップ更新手段37により、奥行きマップを更新する。図11は、左画像92Lの奥行きマップを、矢印の配列で模式的に示したものである。即ち、オクルージョン領域80Lの図11では矢印で表した奥行き情報を、奥行きマップに追加する。前述のように、本例では、実際には、符号付き視差量の配列により奥行きマップが表される。
【0067】
ステップS9にて、仮想視点画像作成手段38により、実視点画像(即ち、ステップS1でデータ入出力手段22により入力された3D画像)、および、更新された奥行きマップに基づいて、任意の仮想視点から見た場合の3D画像(仮想視点画像)を作成する。
【0068】
作成された仮想視点画像は、3D表示や3Dプリントに用いられる。即ち、図示省略の3Dモニタ装置(3Dビューワー)で立体視表示したり、図示省略の3Dプリント装置でプリント媒体に立体視可能にして印刷したりする際に用いられる。
【0069】
更新された奥行きマップおよび仮想視点画像は、記憶手段24に記憶された後、データ入出力手段22により出力される。例えば、リムーバブルメディアに記録される。また、例えば、図示を省略したネットワークに出力される。
【0070】
次に、オクルージョン奥行き情報算出の具体例について、詳説する。
【0071】
まず、オクルージョン奥行き情報算出の第1の例を説明する。
【0072】
図12に、奥行きマップの一例の一部を示す。図12の左側が更新前の状態であり、右側が更新後の状態である。図12に示すように、本例のオクルージョン奥行き情報算出手段36は、各クラスタC11、C12ごとに、既に奥行き情報が検出された複数の非オクルージョン画素(図中左側の数字付きの画素)の平均値を算出し、その平均値を各クラスタ内の奥行き情報が検出されていないオクルージョン画素(図中左側の‘?’マーク付き画素)の奥行き情報に決定する。例えば、クラスタC11では、平均値が「+3」なので、オクルージョン画素の奥行き情報に「+3」を設定する。また、クラスタC12では、平均値が「−6」なので、オクルージョン画素の奥行き情報に「−6」を設定する。
【0073】
本例によれば、画像特徴量に基づいて分割した各クラスタごとにオクルージョン領域内の各画素の奥行き情報を決定するので、オクルージョン領域における奥行き情報の精度が向上する。
【0074】
なお、非オクルージョン画素がないクラスタにおけるオクルージョン画素の奥行き情報算出については、注目クラスタの特徴量に基づいて選択した他のクラスタの奥行き情報に基づいて算出する。その具体例については、次の第2の例で説明する。公知の他の方法を用いてもよい。
【0075】
次に、オクルージョン奥行き情報算出の第2の例を説明する。
【0076】
図13に、奥行きマップの一例の一部を示す。図13の左側が更新前の状態であり、右側が更新後の状態である。図13にて、クラスタC21、C23、C24には、それぞれ既に奥行き情報が検出された複数の非オクルージョン画素が存在し、奥行き情報の平均値がそれぞれ「3」、「8」、「−4」である。クラスタC22は、非オクルージョン画素が存在しない。本例のオクルージョン奥行き情報算出手段36は、注目クラスタ内に非オクルージョン画素が存在する場合には、注目クラスタ内の奥行き情報の平均値を、その注目クラスタ内のオクルージョン画素の奥行き情報に決定する。本例では、クラスタC21、C23、C24におけるオクルージョン画素の奥行き情報を、それぞれ「3」、「8」、「−4」に設定する。その一方で、オクルージョン奥行き情報算出手段36は、注目クラスタ内に非オクルージョン画素が存在しない場合には、画像参照領域内の複数のクラスタのうちで部分画像の特徴量が注目クラスタの特徴量に最も近いクラスタ内の奥行き情報の平均値を、注目クラスタ内のオクルージョン画素の奥行き情報に決定する。本例では、クラスタC22におけるオクルージョン画素の奥行き情報を、特徴量が最も近いクラスタC21の奥行き情報の平均値である「3」に決定する。例えば、色が最も近いクラスタを選択する。色および輝度の両方に基づいて選択してもよい。テクスチャに基づいて選択してもよい。輝度や特定色成分の高周波成分(即ち空間周波数)に基づいて選択してもよい。
【0077】
本例によれば、非オクルージョン画素がないクラスタについては、部分画像の特徴量が最も近いクラスタ内の奥行き情報の平均値を用いてオクルージョン画素の奥行き情報を決定することで、オクルージョン領域の奥行き情報の精度を向上させることができる。
【0078】
次に、オクルージョン奥行き情報算出の第3の例を説明する。
【0079】
図14に、奥行きマップの一例の一部を示す。図14の左側が更新前の状態であり、右側が更新後の状態である。図14にて、クラスタC31,C32には、それぞれ既に奥行き情報が検出された非オクルージョン画素が存在するけれども、その奥行き情報はクラスタ内で傾斜している。オクルージョン奥行き情報算出手段36は、各クラスタC31、C32ごとに非オクルージョン領域における奥行き情報の分布を示す分布情報を算出し、その分布情報に基づいて各クラスタC31,C32内のオクルージョン画素の奥行き情報を算出する。例えば、各クラスタC31,C32ごとに、水平方向H、垂直方向V、斜め方向Sのうち少なくともひとつの方向にて奥行き情報の傾きを検出し、その傾きに応じてオクルージョン画素の奥行き情報を算出する。
【0080】
本例によれば、クラスタ内で非オクルージョン画素の奥行きが傾斜している場合でも、オクルージョン領域における奥行き情報を適切に算出することができる。
【0081】
なお、非オクルージョン画素がないクラスタにおけるオクルージョン画素の奥行き情報算出については、注目クラスタの特徴量に基づいて選択した他のクラスタの奥行き情報に基づいて算出すればよい。
【0082】
また、各クラスタごとに、非オクルージョン画素の奥行き情報に傾斜があるか否かを判定し、傾斜が閾値未満(または傾斜が無い)と判定した場合には、第1の例にて説明したように、各クラスタごとの非オクルージョン画素の奥行き情報の平均値を、オクルージョン画素の奥行き情報としてもよい。
【0083】
次に、画像参照領域決定の具体例について、説明する。
【0084】
図15は、画像参照領域決定の第1の例の説明に用いる説明図である。図15に示すように、本例の画像参照領域決定手段34は、オクルージョン領域80の外周に、一定の幅を有する帯状の周囲領域82を設定する。即ち、画像参照領域84をオクルージョン領域80から一定の幅で拡張するようにして領域決定を行う。例えば、図15にて、水平方向Hの拡張幅αと垂直方向Vの拡張幅βとは、同じ(α=β)である。
【0085】
奥行き情報の精度向上の観点からは、拡張幅α、βをオクルージョン領域80の形状に応じて変更することが、より好ましい。例えば、図15にて、オクルージョン領域80の水平方向Hの幅をWh、垂直方向Vの幅をWvとしたとき、α=Wh/2,β=Wv/2とする。即ち、オクルージョン領域80の幅(Wh,Wv)に対して一定の比率の幅(α,β)を有する周囲領域82を設定する。オクルージョン領域80と周囲領域82とで面積を略1:1にすると、より好ましい。
【0086】
また、2視点で撮像した場合を例に説明したが、本発明は3視点以上の場合に適用できることは、言うまでもない。
【0087】
また、いわゆるコンピュータ装置で画像処理を行う場合を例に説明したが、本発明はこのような場合に特に限定されない。例えば、3Dデジタルカメラ、3Dビューワー、3Dプリント装置など各種の装置に適用できる。
【0088】
本発明は、本明細書において説明した例や図面に図示された例には限定されず、本発明の要旨を逸脱しない範囲において、各種の設計変更や改良を行ってよいのはもちろんである。
【符号の説明】
【0089】
2…画像処理装置、21・・・指示入力手段、22…データ入出力手段、23…CPU、31…対応関係検出手段、32…奥行きマップ作成手段、33…オクルージョン領域検出手段、34…画像参照領域決定手段、35…領域分割手段、36…オクルージョン奥行き情報算出手段、37…奥行きマップ更新手段
【技術分野】
【0001】
本発明は、複数の視点から撮像して得られた3D画像の奥行き情報マップを作成する際に、オクルージョン領域の奥行き情報を精度良く求めることができる画像処理装置および画像処理方法に関する。
【背景技術】
【0002】
複数の撮像系を備えた3Dデジタルカメラがユーザに提供されている。3Dデジタルカメラで撮影して得られた3D画像は、その3Dデジタルカメラに実装された3Dモニタや、3Dビューワーと呼ばれる広画面の3Dモニタ装置により立体視可能にして表示することができるほか、3Dプリントシステムによりプリント媒体に立体視可能にして印刷することができる。また、より高画質の3D画像をユーザに提示するため、複数視点から撮像して任意の仮想視点から見た場合の3D画像を作成する画像処理が知られている。
【0003】
特許文献1には、複数の異なる視点の画像から2枚以上の奥行きマップを生成し、これらの奥行きマップをもとに仮想視点から見た仮想視点奥行きマップを生成する構成が開示されている。ある一つの視点から見えない領域(オクルージョン領域)の奥行き情報を他の視点の情報で補間し、奥行き情報が決定されない画素については、周囲の画素の奥行き情報で線形補間し、さらに平滑化処理を行う。仮想奥行きマップをもとに、多視点画像(実視点画像)の画素を並べ変えて再構成することで、仮想視点画像を作成する。
【0004】
特許文献2には、オクルージョンが発生した場合は、オクルージョンが発生していない視点で撮像された画像データを参照して、被写体の位置情報を取得する構成が開示されている。
【0005】
特許文献3には、物体の輪郭線を検出し、オクルージョン領域の視差を推定する際に輪郭部分が不連続となるようにする構成が開示されている。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特許第3593466号公報
【特許文献2】特開2004−246667号公報
【特許文献3】特開平9−27969号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
3D画像には、一方の視点からは撮像されたが他方の視点からは撮像されなかった領域(いわゆる「オクルージョン領域」)が存在する。3D画像から任意の中間仮想視点の3D画像を精度良く作成するためには、このオクルージョン領域の奥行き情報を精度良く求めることが求められる。
【0008】
特許文献1に記載の構成では、オクルージョン領域の奥行き情報を単に周囲の画素の奥行き情報を用いて線形補間するだけなので、オクルージョン領域とは異なる被写体に対応する奥行き情報を用いて補間された場合、奥行き情報の誤差が大きくなるという問題がある。特許文献2に記載の構成にも同様の問題がある。
【0009】
また、特許文献2に記載の実施例では、オクルージョン処理に3つ以上のカメラが必要であり、二眼のカメラには不向きである。
【0010】
また、特許文献3に記載の構成では、画像全体から輪郭を求めるので、演算量が多く、また、領域分割の精度が悪い。
【0011】
本発明はこのような事情に鑑みてなされたもので、複数の視点で被写体をそれぞれ撮像して得られた画像の奥行き情報マップを作成する際に、オクルージョン領域の奥行き情報を精度良く求めることができる画像処理装置および画像処理方法を提供することを目的とする。
【課題を解決するための手段】
【0012】
前記目的を達成するために、本発明は、複数の視点で被写体をそれぞれ撮像して得られた複数の画像を入力する画像入力手段と、前記複数の画像間で各画素の対応関係を検出する対応関係検出手段と、前記対応関係が検出された画素の奥行き情報を算出して、該奥行き情報を含む奥行きマップを作成する奥行きマップ作成手段と、前記対応関係が検出されなかったオクルージョン画素に対応する領域をオクルージョン領域として、前記オクルージョン領域と該オクルージョン領域を囲む周囲領域とからなる画像参照領域を決定する画像参照領域決定手段と、前記画像参照領域内の部分画像の特徴量に基づいて、前記画像参照領域を複数のクラスタに分割する領域分割手段と、前記各クラスタに注目し、前記奥行きマップにおける注目クラスタの前記奥行き情報、および、前記注目クラスタの前記特徴量に基づいて選択した他の前記クラスタの前記奥行き情報のうち、少なくとも一方の奥行き情報に基づいて、前記注目クラスタ内の前記オクルージョン画素の奥行き情報を算出するオクルージョン奥行き情報算出手段と、前記オクルージョン画素の前記奥行き情報を前記奥行きマップに追加する奥行きマップ更新手段と、を備えたことを特徴とする画像処理装置を提供する。
【0013】
即ち、オクルージョン領域とそのオクルージョン領域を囲む周囲領域とからなる画像参照領域を、その画像参照領域内の部分画像の特徴量に基づいて複数のクラスタに分割し、各クラスタに注目して、各注目クラスタの奥行き情報と、部分画像の特徴量に基づいて選択した他のクラスタの奥行き情報とのうち、少なくとも一方の奥行き情報に基づいて、各注目クラスタのオクルージョン領域の奥行き情報を算出するようにしたので、線形補間によりオクルージョン領域の奥行き情報を単純に補間する従来の画像処理装置と比較して、オクルージョン領域の周囲の情報のうちオクルージョン領域とは無関係な情報が排除される一方でオクルージョン領域に繋がる有効な情報が反映されることになり、オクルージョン領域の奥行き情報の精度が向上する。また、各クラスタごとに特徴量や奥行きマップを参照すればよいので、計算量が少なくて済み、処理の高速化が可能となる。
【0014】
なお、奥行き情報は、視点(実視点または仮想視点)からの実際の奥行き値である必要はなく、奥行きに対応した情報であればよい。例えば、符号付視差量を奥行き情報として用いることができる。また、視差量以外に可変パラメータがある場合には、符号付き視差量とその可変パラメータとの組み合わせにより奥行き情報を表してもよい。つまり、奥行きマップ更新後に、立体視表示、立体視プリント作成、あるいは他の画像処理で扱いやすい形式で表せばよい。
【0015】
また、奥行き情報は、1画素ごとに算出する必要はなく、一定数の画素からなる画素群ごとに算出してもよい。
【0016】
本発明の一態様では、前記領域分割手段は、前記特徴量として、前記部分画像の色、輝度、空間周波数およびテクスチャのうち少なくともひとつに基づいて、前記画像参照領域の分割を行う。
【0017】
なお、色としては、色相、彩度など各種の色情報を用いることができる。空間周波数は、例えば、輝度の空間周波数を用いてもよいし、特定色(例えば緑)成分の空間周波数を用いてもよい。
【0018】
本発明の一態様では、前記オクルージョン奥行き情報算出手段は、前記各クラスタごとに、前記対応関係が検出された画素の奥行き情報の平均値を算出し、該平均値を前記オクルージョン画素の奥行き情報とする。
【0019】
即ち、各クラスタごとの平均値算出により、高速且つ適切に、オクルージョン領域内の奥行き情報を算出できる。
【0020】
本発明の一態様では、前記オクルージョン奥行き情報算出手段は、前記注目クラスタ内に前記対応関係が検出された画素がある場合には、前記注目クラスタ内の前記奥行き情報の平均値を、前記注目クラスタ内の前記オクルージョン画素の奥行き情報とし、前記注目クラスタ内に前記対応関係が検出された画素がない場合には、前記画像参照領域内の前記複数のクラスタのうちで前記特徴量が前記注目クラスタの前記特徴量に最も近いクラスタを選択し、その選択したクラスタ内の前記奥行き情報の平均値を、前記注目クラスタ内の前記オクルージョン画素の奥行き情報とする。
【0021】
即ち、クラスタ内に非オクルージョン画素がない場合でも、特徴的に似ているクラスタの奥行き情報が利用されるので、オクルージョン領域内の奥行き情報を精度良く求めることができる。
【0022】
本発明の一態様では、前記オクルージョン奥行き情報算出手段は、前記各クラスタごとに前記奥行き情報の分布を示す分布情報を算出し、該分布情報に基づいて前記オクルージョン画素の奥行き情報を算出する。
【0023】
即ち、各クラスタ内で奥行き情報が平坦でなく傾斜がある場合でも、オクルージョン領域内の奥行き情報を精度良く求めることができる。
【0024】
本発明の一態様では、前記画像参照領域決定手段は、前記オクルージョン領域の外周に、前記オクルージョン領域の幅に対して一定の比率の幅を有する前記周囲領域を設定する。
【0025】
即ち、簡単且つ適切に画像参照領域を決定することができる。
【0026】
本発明の一態様では、前記画像参照領域決定手段は、前記オクルージョン領域の外周に、前記オクルージョン領域の幅に対して一定の比率の幅を有する前記周囲領域を設定する。
【0027】
即ち、オクルージョン領域の幅に応じて、精度良く、オクルージョン領域内の奥行き情報を求めることができる。
【0028】
また、本発明は、複数の視点で被写体をそれぞれ撮像して得られた複数の画像間で各画素の対応関係を検出する対応関係検出ステップと、前記対応関係が検出された画素の奥行き情報を算出して、該奥行き情報を含む奥行きマップを作成する奥行きマップ作成ステップと、前記対応関係が検出されなかったオクルージョン画素に対応する領域をオクルージョン領域として、前記オクルージョン領域と該オクルージョン領域を囲む周囲領域とからなる画像参照領域を決定する画像参照領域決定ステップと、前記画像参照領域内の部分画像の特徴量に基づいて、前記画像参照領域を複数のクラスタに分割する領域分割ステップと、前記各クラスタに注目し、前記奥行きマップにおける注目クラスタの前記奥行き情報、および、前記注目クラスタの前記特徴量に基づいて選択した他の前記クラスタの前記奥行き情報のうち、少なくとも一方の奥行き情報に基づいて、前記注目クラスタ内の前記オクルージョン画素の奥行き情報を算出するオクルージョン奥行き情報算出ステップと、前記オクルージョン画素の前記奥行き情報を前記奥行きマップに追加する奥行きマップ更新ステップと、を含むことを特徴とする画像処理方法を提供する。
【発明の効果】
【0029】
本発明によれば、複数の視点でそれぞれ撮像して得られた画像の奥行き情報マップを作成する際に、オクルージョン領域の奥行き情報を精度良く求めることができる。
【図面の簡単な説明】
【0030】
【図1】本発明に係る画像処理装置の一例の構成を示すブロック図
【図2】視差量および奥行き情報の説明に用いる説明図
【図3】画像処理の一例の流れを示すフローチャート
【図4】入力された左画像および右画像の一例を示す説明図
【図5】画像間の対応関係検出の説明に用いる説明図
【図6】奥行きマップ作成の説明に用いる説明図
【図7】オクルージョン領域検出の説明に用いる説明図
【図8】画像参照領域決定の説明に用いる説明図
【図9】領域分割の説明に用いる説明図
【図10】オクルージョン領域における奥行き情報算出の説明に用いる説明図
【図11】奥行きマップ更新の説明に用いる説明図
【図12】オクルージョン奥行き情報算出の第1の例の説明に用いる説明図
【図13】オクルージョン奥行き情報算出の第2の例の説明に用いる説明図
【図14】オクルージョン奥行き情報算出の第3の例の説明に用いる説明図
【図15】画像参照領域決定の例の説明に用いる説明図
【発明を実施するための形態】
【0031】
以下、添付図面に従って、本発明の実施形態について、詳細に説明する。
【0032】
図1は、本発明に係る画像処理装置の一例の全体構成を示すブロック図である。
【0033】
図1において、画像処理装置2は、指示入力手段21、データ入出力手段22、CPU23、記憶手段24、および、表示手段25を含んで構成されている。また、CPU23は、対応関係検出手段31、奥行きマップ作成手段32、オクルージョン領域検出手段33、画像参照領域決定手段34、領域分割手段35、オクルージョン奥行き情報算出手段36、奥行きマップ更新手段37、および、仮想視点画像作成手段38を有する。
【0034】
指示入力手段21は、指示を入力するための入力デバイスである。例えば、キーボード、ポインティングデバイスなどによって構成される。
【0035】
データ入出力手段22は、各種のデータを入力および出力するための入出力デバイスである。本例では、特に、画像データ(以下単に「画像」という)の入力と、仮想視点画像および奥行きマップの出力とに用いられる。データ入出力手段22は、例えば、メモリカードなどのリムーバブルな記録メディアからのデータ入力およびその記録メディアへのデータ出力を行う記録メディアインタフェースや、ネットワークからのデータ入力およびそのネットワークへのデータ出力を行うネットワークインタフェースによって構成される。
【0036】
本例では、データ入出力手段22により、複数の視点で被写体をそれぞれ撮像して得られた複数の2D画像(「単視点画像」ともいう)からなる3D画像(「複数視点画像」ともいう)が入力される。
【0037】
奥行きマップは、3D画像を構成する複数の2D画像のうち少なくとも一方について、画素の奥行き情報を画素の位置に対応付けて示すデータである。各画素の奥行き情報は、各画素の視差量に対応する。視差量については後に詳説する。
【0038】
CPU(Central Processing Unit)23は、画像処理装置2の各部を制御するとともに、画像処理を実行する。
【0039】
対応関係検出手段31は、3D画像を構成する複数の2D画像間で、各画素の対応関係を検出する。つまり、視点が異なる複数の2D画像間で、画素と画素との対応付けを行う。
【0040】
奥行きマップ作成手段32は、対応関係が検出された画素(以下「非オクルージョン画素」という)の奥行き情報を算出して、その奥行き情報を含む奥行きマップを作成する。
【0041】
オクルージョン領域検出手段33は、対応関係が検出されなかった画素(以下「オクルージョン画素」という)の領域をオクルージョン領域として検出する。対応関係が検出された非オクルージョン画素の領域は、非オクルージョン領域である。
【0042】
画像参照領域決定手段34は、オクルージョン画素の奥行き情報を算出するために部分画像を参照する画像参照領域であって、オクルージョン領域とオクルージョン領域を囲む周囲領域とからなる画像参照領域を決定する。なお、具体例については後に詳説する。
【0043】
領域分割手段35は、画像参照領域内の部分画像の特徴量に基づいて、画像参照領域を複数のクラスタに分割する。なお、具体例については後に詳説する。
【0044】
オクルージョン奥行き情報算出手段36は、オクルージョン領域内の画素(オクルージョン画素)の奥行き情報を算出する。具体的には、各クラスタに順次注目し、奥行きマップにおける注目クラスタ内の非オクルージョン画素の奥行き情報、および、注目クラスタの特徴量に基づいて選択した他のクラスタ内の奥行き情報のうち、少なくとも一方の奥行き情報に基づいて算出する。なお、具体例についは後に詳説する。
【0045】
奥行きマップ更新手段37は、オクルージョン画素の奥行き情報を奥行きマップに追加することで、奥行きマップの更新を行う。
【0046】
仮想視点画像作成手段38は、実視点画像(即ちデータ入出力手段22に入力された3D画像)、および、更新された奥行きマップに基づいて、任意の仮想視点から見た場合の3D画像(仮想視点画像)を作成する。
【0047】
記憶手段24は、各種のデータを記憶する記憶デバイスであり、不揮発性メモリまたはディスクを含んで構成されている。
【0048】
表示手段25は、液晶表示デバイスなどの表示デバイスである。本例の表示手段25は、画像処理装置2の操作者とのユーザインタフェースに用いられるものであり、立体視表示可能でなくてもよい。
【0049】
次に、視差量および奥行き情報について、図2を用いて説明する。
【0050】
図2において、3Dデジタルカメラ1は、複数の撮像系11L、11Rを備える。各撮像系11L、11Rは、ズームレンズ、フォーカスレンズおよび絞りを有する撮影光学系と、CCDセンサなどの撮像素子を有する。なお、発明の理解を容易にするため、3Dデジタルカメラ1にて、基線長SB(撮像系11L、11Rの光軸の間隔)、及び、輻輳角θc(撮像系11L、11Rの光軸同士が成す角度)は、固定であるものとして説明する。
【0051】
複数の撮像系11L、11Rにより、同一の被写体91(本例では球)を複数の視点から撮像することで、複数の2D画像(左画像92L及び右画像92R)が生成される。生成された2D画像92L、92Rは、同一の被写体91が投影された被写体像93L、93Rを、それぞれ含んでいる。これらの2D画像92L、92Rを、立体視表示可能なモニタ60で重ね合わせて表示することで、すなわち3D表示することで、3D画像94が再生される。観察者95は、モニタ60上の3D画像94を両眼96L、96Rから観察する。そうすると、観察者95には被写体91の虚像97が飛び出して見える。尚、図2では、光軸間の交点99(クロスポイント)よりも近い位置に被写体91が存在したので虚像97が手前側に飛び出して見えるが、交点99よりも遠い位置に被写体が存在した場合には虚像が奥側に引き込んで見える。
【0052】
図2に示すように被写体距離Sが交点99までの距離よりも小さい範囲内では、被写体距離Sが小さいほど、3D画像94上で被写体像93L、93Rの中心座標XLF、XRFの差分|XLF−XRF|が大きくなる。すなわち、被写体距離Sが小さいほど、2D画像92L、92R間で対応画素同士が離れる。ここで、差分|XLF−XRF|はx座標のみであり、これを視差量APとして表す。つまり、基線長SB及び輻輳角θcが決まっていれば、交点99よりも前では被写体距離Sが小さいほど、APが大きくなり、観察者95が体感する虚像97の飛び出し量ADも大きくなる。
【0053】
各2D画像における画素の奥行き情報は、基線長SB、輻輳角θcおよび焦点距離が定まっていれば、視差量APを用いて表すことができる。例えば、交点99よりも前に被写体91がある場合には、視差量APに正の符号を付した値が奥行き情報となり、交点99よりも後に被写体91がある場合には、視差量APに負の符号を付した値が奥行き情報となる。交点99に対応する奥行き情報は0(ゼロ)である。この場合、奥行き情報が正の場合には、値が大きいほど飛び出し量ADが大きくなり、奥行き情報が負の場合、絶対値が大きいほど引き込み量が大きくなる。
【0054】
なお、奥行き情報は、被写体距離Sにも対応するので、被写体距離Sを用いて表すことも可能である。
【0055】
また、基線長SB及び輻輳角θcが一定である場合を例に説明したが、輻輳角θcが可変である構造の場合には、輻輳角θc及び被写体距離Sに応じて、飛び出し量ADが変化する。また、輻輳角θcに加えて基線長SBも可変である構造の場合には、基線長SB及び輻輳角θc及び被写体距離Sに応じて、飛び出し量ADが変化する。また、基線長SB及び輻輳角θcが一定であっても、2D画像92L、92R間で画素ずらしを行って視差量APを変更した場合には、飛び出し量ADも変わってくる。
【0056】
図3は、画像処理装置2における画像処理の一例の流れを示すフローチャートである。
【0057】
ステップS1にて、データ入出力手段22により、3D画像を入力する。3D画像は、3Dデジタルカメラ1により複数の視点で被写体をそれぞれ撮像して得られた複数の2D画像92L、92Rからなる。以下では、図4に示す左画像92Lおよび右画像92Rが入力されたものとして説明する。
【0058】
ステップS2にて、対応関係検出手段31により、2D画像92L、92R間で、各画素の対応関係を検出する。例えば、図5に示すように、右画像92Rの各画素R1、R2に注目するとともに、右画像92Rの各注目画素R1、R2にそれぞれ対応する左画像の対応画素L1、L2を検出する。なお、左画像92L中の画素LR1、LR2は、右画像92Rの注目画素R1、R2を単純に投影した位置にある画素である。
【0059】
ステップS3にて、奥行きマップ作成手段32により、対応関係が検出された画素(非オクルージョン画素)の奥行き情報を算出して、その奥行き情報を含む奥行きマップを作成する。図6(A)にて、画素L1の奥行き情報を矢印p1で示し、画素L2の奥行き情報を矢印p2で示した。ここで、p1はL1−LR1間のベクトル、p2はL2−LR2間のベクトルに相当する。本例における奥行き情報は、実際には、符号付きの視差量として、符号と絶対値とで表される。図6(B)は、左画像92Lを右画像92Rに投影するマップを、矢印の配列で模式的に示したもので、左画像92Lの奥行きマップと呼ばれる。図6(B)に示すように、奥行きマップは各画素の奥行き情報を各画素の位置に対応付けた情報であるといえる。本例における奥行きマップは、実際には、符号付き視差量の配列で表される。なお、左画像92Lの奥行きマップ作成を例に説明したが、右画像92Rの奥行きマップも同様に作成する。
【0060】
ステップS4にて、オクルージョン領域検出手段33により、図7に示すように、オクルージョン領域80L、80Rを検出する。即ち、2D画像92L、92R間で対応関係を検出できなかったオクルージョン画素の領域80L、80Rを、オクルージョン領域とする。左画像92Lのオクルージョン領域80Lは図2の右撮像系11Rからは見えなかった領域であり、右画像92Rのオクルージョン領域80Rは図2の左撮像系11Rからは見えなかった領域である。
【0061】
ステップS5にて、画像参照領域決定手段34により、図8に示すように、オクルージョン領域80Lとオクルージョン領域80Lを囲む帯状の周囲領域82Lとからなる画像参照領域84Lを決定する。なお、左画像92Lの画像参照領域84Lを例に説明したが、右画像92Rの画像参照領域も同様に決定される。
【0062】
ステップS6にて、領域分割手段35により、図9に示すように、画像参照領域84L内の部分画像の特徴量に基づいて、画像参照領域84Lを複数のクラスタC1〜C4(分割領域)に分割する。領域分割手段35は、例えば、色、輝度、空間周波数およびテクスチャのうち少なくともひとつに基づいて、画像参照領域84Lを複数のクラスタC1〜C4に分割する。なお、色としては、色相、彩度など各種の色情報を用いることができる。空間周波数は、例えば、輝度の空間周波数を用いてもよいし、特定色(例えば緑)成分の空間周波数を用いてもよい。
【0063】
ステップS7にて、オクルージョン奥行き情報算出手段36により、オクルージョン領域80L(PA1、PA2およびPA3)内の奥行き情報を算出する。図10において、オクルージョン領域PA1、PA2およびPA3のうち、PA1とPA2は左画像92L中の樹の部分画像を構成する画素であり奥行き情報であり、PA3は左画像92L中の人の部分画像を構成する画素である。
【0064】
オクルージョン奥行き情報算出手段36は、具体的には、画像参照領域84L内の各クラスタC1,C2,C3,C4に順次注目し、次のようにして奥行き情報を算出する。まず、図9のクラスタC1に注目し、クラスタC1内には既に奥行き情報が検出された画素(即ち右画像92Rの画素との対応関係が検出された非オクルージョン画素)があるので、その奥行き情報に基づいて、クラスタC1内の図10に示すオクルージョン部分領域PA1、PA2の奥行き情報を算出する。なお、具体的な計算例は、後に詳説する。次に、図9のクラスタC2に注目し、クラスタC2内には既に奥行き情報が検出された画素があるので、その奥行き情報に基づいて、クラスタC2内の図10に示すオクルージョン部分領域PA3の奥行き情報を算出する。なお、図9のクラスタC3,C4にはオクルージョン領域がないので、ここでは奥行き情報の算出は不要である。
【0065】
なお、注目クラスタ内にオクルージョン画素のみが存在する場合には、注目クラスタの部分画像の特徴量に基づいて選択した他のクラスタの奥行き情報に基づいて、注目クラスタ内のオクルージョン領域の奥行き情報を算出すればよい。このような場合の例は、後に詳細に説明する。
【0066】
ステップS8にて、奥行きマップ更新手段37により、奥行きマップを更新する。図11は、左画像92Lの奥行きマップを、矢印の配列で模式的に示したものである。即ち、オクルージョン領域80Lの図11では矢印で表した奥行き情報を、奥行きマップに追加する。前述のように、本例では、実際には、符号付き視差量の配列により奥行きマップが表される。
【0067】
ステップS9にて、仮想視点画像作成手段38により、実視点画像(即ち、ステップS1でデータ入出力手段22により入力された3D画像)、および、更新された奥行きマップに基づいて、任意の仮想視点から見た場合の3D画像(仮想視点画像)を作成する。
【0068】
作成された仮想視点画像は、3D表示や3Dプリントに用いられる。即ち、図示省略の3Dモニタ装置(3Dビューワー)で立体視表示したり、図示省略の3Dプリント装置でプリント媒体に立体視可能にして印刷したりする際に用いられる。
【0069】
更新された奥行きマップおよび仮想視点画像は、記憶手段24に記憶された後、データ入出力手段22により出力される。例えば、リムーバブルメディアに記録される。また、例えば、図示を省略したネットワークに出力される。
【0070】
次に、オクルージョン奥行き情報算出の具体例について、詳説する。
【0071】
まず、オクルージョン奥行き情報算出の第1の例を説明する。
【0072】
図12に、奥行きマップの一例の一部を示す。図12の左側が更新前の状態であり、右側が更新後の状態である。図12に示すように、本例のオクルージョン奥行き情報算出手段36は、各クラスタC11、C12ごとに、既に奥行き情報が検出された複数の非オクルージョン画素(図中左側の数字付きの画素)の平均値を算出し、その平均値を各クラスタ内の奥行き情報が検出されていないオクルージョン画素(図中左側の‘?’マーク付き画素)の奥行き情報に決定する。例えば、クラスタC11では、平均値が「+3」なので、オクルージョン画素の奥行き情報に「+3」を設定する。また、クラスタC12では、平均値が「−6」なので、オクルージョン画素の奥行き情報に「−6」を設定する。
【0073】
本例によれば、画像特徴量に基づいて分割した各クラスタごとにオクルージョン領域内の各画素の奥行き情報を決定するので、オクルージョン領域における奥行き情報の精度が向上する。
【0074】
なお、非オクルージョン画素がないクラスタにおけるオクルージョン画素の奥行き情報算出については、注目クラスタの特徴量に基づいて選択した他のクラスタの奥行き情報に基づいて算出する。その具体例については、次の第2の例で説明する。公知の他の方法を用いてもよい。
【0075】
次に、オクルージョン奥行き情報算出の第2の例を説明する。
【0076】
図13に、奥行きマップの一例の一部を示す。図13の左側が更新前の状態であり、右側が更新後の状態である。図13にて、クラスタC21、C23、C24には、それぞれ既に奥行き情報が検出された複数の非オクルージョン画素が存在し、奥行き情報の平均値がそれぞれ「3」、「8」、「−4」である。クラスタC22は、非オクルージョン画素が存在しない。本例のオクルージョン奥行き情報算出手段36は、注目クラスタ内に非オクルージョン画素が存在する場合には、注目クラスタ内の奥行き情報の平均値を、その注目クラスタ内のオクルージョン画素の奥行き情報に決定する。本例では、クラスタC21、C23、C24におけるオクルージョン画素の奥行き情報を、それぞれ「3」、「8」、「−4」に設定する。その一方で、オクルージョン奥行き情報算出手段36は、注目クラスタ内に非オクルージョン画素が存在しない場合には、画像参照領域内の複数のクラスタのうちで部分画像の特徴量が注目クラスタの特徴量に最も近いクラスタ内の奥行き情報の平均値を、注目クラスタ内のオクルージョン画素の奥行き情報に決定する。本例では、クラスタC22におけるオクルージョン画素の奥行き情報を、特徴量が最も近いクラスタC21の奥行き情報の平均値である「3」に決定する。例えば、色が最も近いクラスタを選択する。色および輝度の両方に基づいて選択してもよい。テクスチャに基づいて選択してもよい。輝度や特定色成分の高周波成分(即ち空間周波数)に基づいて選択してもよい。
【0077】
本例によれば、非オクルージョン画素がないクラスタについては、部分画像の特徴量が最も近いクラスタ内の奥行き情報の平均値を用いてオクルージョン画素の奥行き情報を決定することで、オクルージョン領域の奥行き情報の精度を向上させることができる。
【0078】
次に、オクルージョン奥行き情報算出の第3の例を説明する。
【0079】
図14に、奥行きマップの一例の一部を示す。図14の左側が更新前の状態であり、右側が更新後の状態である。図14にて、クラスタC31,C32には、それぞれ既に奥行き情報が検出された非オクルージョン画素が存在するけれども、その奥行き情報はクラスタ内で傾斜している。オクルージョン奥行き情報算出手段36は、各クラスタC31、C32ごとに非オクルージョン領域における奥行き情報の分布を示す分布情報を算出し、その分布情報に基づいて各クラスタC31,C32内のオクルージョン画素の奥行き情報を算出する。例えば、各クラスタC31,C32ごとに、水平方向H、垂直方向V、斜め方向Sのうち少なくともひとつの方向にて奥行き情報の傾きを検出し、その傾きに応じてオクルージョン画素の奥行き情報を算出する。
【0080】
本例によれば、クラスタ内で非オクルージョン画素の奥行きが傾斜している場合でも、オクルージョン領域における奥行き情報を適切に算出することができる。
【0081】
なお、非オクルージョン画素がないクラスタにおけるオクルージョン画素の奥行き情報算出については、注目クラスタの特徴量に基づいて選択した他のクラスタの奥行き情報に基づいて算出すればよい。
【0082】
また、各クラスタごとに、非オクルージョン画素の奥行き情報に傾斜があるか否かを判定し、傾斜が閾値未満(または傾斜が無い)と判定した場合には、第1の例にて説明したように、各クラスタごとの非オクルージョン画素の奥行き情報の平均値を、オクルージョン画素の奥行き情報としてもよい。
【0083】
次に、画像参照領域決定の具体例について、説明する。
【0084】
図15は、画像参照領域決定の第1の例の説明に用いる説明図である。図15に示すように、本例の画像参照領域決定手段34は、オクルージョン領域80の外周に、一定の幅を有する帯状の周囲領域82を設定する。即ち、画像参照領域84をオクルージョン領域80から一定の幅で拡張するようにして領域決定を行う。例えば、図15にて、水平方向Hの拡張幅αと垂直方向Vの拡張幅βとは、同じ(α=β)である。
【0085】
奥行き情報の精度向上の観点からは、拡張幅α、βをオクルージョン領域80の形状に応じて変更することが、より好ましい。例えば、図15にて、オクルージョン領域80の水平方向Hの幅をWh、垂直方向Vの幅をWvとしたとき、α=Wh/2,β=Wv/2とする。即ち、オクルージョン領域80の幅(Wh,Wv)に対して一定の比率の幅(α,β)を有する周囲領域82を設定する。オクルージョン領域80と周囲領域82とで面積を略1:1にすると、より好ましい。
【0086】
また、2視点で撮像した場合を例に説明したが、本発明は3視点以上の場合に適用できることは、言うまでもない。
【0087】
また、いわゆるコンピュータ装置で画像処理を行う場合を例に説明したが、本発明はこのような場合に特に限定されない。例えば、3Dデジタルカメラ、3Dビューワー、3Dプリント装置など各種の装置に適用できる。
【0088】
本発明は、本明細書において説明した例や図面に図示された例には限定されず、本発明の要旨を逸脱しない範囲において、各種の設計変更や改良を行ってよいのはもちろんである。
【符号の説明】
【0089】
2…画像処理装置、21・・・指示入力手段、22…データ入出力手段、23…CPU、31…対応関係検出手段、32…奥行きマップ作成手段、33…オクルージョン領域検出手段、34…画像参照領域決定手段、35…領域分割手段、36…オクルージョン奥行き情報算出手段、37…奥行きマップ更新手段
【特許請求の範囲】
【請求項1】
複数の視点で被写体をそれぞれ撮像して得られた複数の画像を入力する画像入力手段と、
前記複数の画像間で各画素の対応関係を検出する対応関係検出手段と、
前記対応関係が検出された画素の奥行き情報を算出して、該奥行き情報を含む奥行きマップを作成する奥行きマップ作成手段と、
前記対応関係が検出されなかったオクルージョン画素に対応する領域をオクルージョン領域として、前記オクルージョン領域と該オクルージョン領域を囲む周囲領域とからなる画像参照領域を決定する画像参照領域決定手段と、
前記画像参照領域内の部分画像の特徴量に基づいて、前記画像参照領域を複数のクラスタに分割する領域分割手段と、
前記各クラスタに注目し、前記奥行きマップにおける注目クラスタの前記奥行き情報、および、前記注目クラスタの前記特徴量に基づいて選択した他の前記クラスタの前記奥行き情報のうち、少なくとも一方の奥行き情報に基づいて、前記注目クラスタ内の前記オクルージョン画素の奥行き情報を算出するオクルージョン奥行き情報算出手段と、
前記オクルージョン画素の前記奥行き情報を前記奥行きマップに追加する奥行きマップ更新手段と、
を備えたことを特徴とする画像処理装置。
【請求項2】
前記領域分割手段は、前記特徴量として、前記部分画像の色、輝度、空間周波数およびテクスチャのうち少なくともひとつに基づいて、前記画像参照領域の分割を行うことを特徴とする請求項1に記載の画像処理装置。
【請求項3】
前記オクルージョン奥行き情報算出手段は、前記各クラスタごとに、前記対応関係が検出された画素の奥行き情報の平均値を算出し、該平均値を前記オクルージョン画素の奥行き情報とすることを特徴とする請求項1または2に記載の画像処理装置。
【請求項4】
前記オクルージョン奥行き情報算出手段は、前記注目クラスタ内に前記対応関係が検出された画素がある場合には、前記注目クラスタ内の前記奥行き情報の平均値を、前記注目クラスタ内の前記オクルージョン画素の奥行き情報とし、前記注目クラスタ内に前記対応関係が検出された画素がない場合には、前記画像参照領域内の前記複数のクラスタのうちで前記特徴量が前記注目クラスタの前記特徴量に最も近いクラスタを選択し、その選択したクラスタ内の前記奥行き情報の平均値を、前記注目クラスタ内の前記オクルージョン画素の奥行き情報とすることを特徴とする請求項1または2に記載の画像処理装置。
【請求項5】
前記オクルージョン奥行き情報算出手段は、前記各クラスタごとに前記奥行き情報の分布を示す分布情報を算出し、該分布情報に基づいて前記オクルージョン画素の奥行き情報を算出することを特徴とする請求項1または2に記載の画像処理装置。
【請求項6】
前記画像参照領域決定手段は、前記オクルージョン領域の外周に、一定の幅を有する帯状の前記周囲領域を設定することを特徴とする請求項1ないし5のうちいずれか1項に記載の画像処理装置。
【請求項7】
前記画像参照領域決定手段は、前記オクルージョン領域の外周に、前記オクルージョン領域の幅に対して一定の比率の幅を有する前記周囲領域を設定することを特徴とする請求項1ないし5のうちいずれか1項に記載の画像処理装置。
【請求項8】
複数の視点で被写体をそれぞれ撮像して得られた複数の画像間で各画素の対応関係を検出する対応関係検出ステップと、
前記対応関係が検出された画素の奥行き情報を算出して、該奥行き情報を含む奥行きマップを作成する奥行きマップ作成ステップと、
前記対応関係が検出されなかったオクルージョン画素に対応する領域をオクルージョン領域として、前記オクルージョン領域と該オクルージョン領域を囲む周囲領域とからなる画像参照領域を決定する画像参照領域決定ステップと、
前記画像参照領域内の部分画像の特徴量に基づいて、前記画像参照領域を複数のクラスタに分割する領域分割ステップと、
前記各クラスタに注目し、前記奥行きマップにおける注目クラスタの前記奥行き情報、および、前記注目クラスタの前記特徴量に基づいて選択した他の前記クラスタの前記奥行き情報のうち、少なくとも一方の奥行き情報に基づいて、前記注目クラスタ内の前記オクルージョン画素の奥行き情報を算出するオクルージョン奥行き情報算出ステップと、
前記オクルージョン画素の前記奥行き情報を前記奥行きマップに追加する奥行きマップ更新ステップと、
を含むことを特徴とする画像処理方法。
【請求項9】
前記特徴量として、前記部分画像の色、輝度、空間周波数およびテクスチャのうち少なくともひとつに基づいて、前記画像参照領域の分割を行うことを特徴とする請求項8に記載の画像処理方法。
【請求項10】
前記オクルージョン奥行き情報算出ステップにて、前記各クラスタごとに、前記対応関係が検出された画素の奥行き情報の平均値を算出し、該平均値を前記オクルージョン画素の奥行き情報とすることを特徴とする請求項8または9に記載の画像処理方法。
【請求項11】
前記オクルージョン奥行き情報算出ステップにて、前記注目クラスタ内に前記対応関係が検出された画素がある場合には、前記注目クラスタ内の前記奥行き情報の平均値を、前記注目クラスタ内の前記オクルージョン画素の奥行き情報とし、前記注目クラスタ内に前記対応関係が検出された画素がない場合には、前記画像参照領域内の前記複数のクラスタのうちで前記特徴量が前記注目クラスタの前記特徴量に最も近いクラスタを選択し、その選択したクラスタ内の前記奥行き情報の平均値を、前記注目クラスタ内の前記オクルージョン画素の奥行き情報とすることを特徴とする請求項8または9に記載の画像処理方法。
【請求項12】
前記オクルージョン奥行き情報算出ステップにて、前記各クラスタごとに前記奥行き情報の分布を示す分布情報を算出し、該分布情報に基づいて前記オクルージョン画素の奥行き情報を算出することを特徴とする請求項8または9に記載の画像処理方法。
【請求項13】
前記画像参照領域決定ステップにて、前記オクルージョン領域の外周に、一定の幅を有する帯状の前記周囲領域を設定することを特徴とする請求項8ないし12のうちいずれか1項に記載の画像処理方法。
【請求項14】
前記画像参照領域決定ステップにて、前記オクルージョン領域の外周に、前記オクルージョン領域の幅に対して一定の比率の幅を有する前記周囲領域を設定することを特徴とする請求項8ないし12のうちいずれか1項に記載の画像処理方法。
【請求項1】
複数の視点で被写体をそれぞれ撮像して得られた複数の画像を入力する画像入力手段と、
前記複数の画像間で各画素の対応関係を検出する対応関係検出手段と、
前記対応関係が検出された画素の奥行き情報を算出して、該奥行き情報を含む奥行きマップを作成する奥行きマップ作成手段と、
前記対応関係が検出されなかったオクルージョン画素に対応する領域をオクルージョン領域として、前記オクルージョン領域と該オクルージョン領域を囲む周囲領域とからなる画像参照領域を決定する画像参照領域決定手段と、
前記画像参照領域内の部分画像の特徴量に基づいて、前記画像参照領域を複数のクラスタに分割する領域分割手段と、
前記各クラスタに注目し、前記奥行きマップにおける注目クラスタの前記奥行き情報、および、前記注目クラスタの前記特徴量に基づいて選択した他の前記クラスタの前記奥行き情報のうち、少なくとも一方の奥行き情報に基づいて、前記注目クラスタ内の前記オクルージョン画素の奥行き情報を算出するオクルージョン奥行き情報算出手段と、
前記オクルージョン画素の前記奥行き情報を前記奥行きマップに追加する奥行きマップ更新手段と、
を備えたことを特徴とする画像処理装置。
【請求項2】
前記領域分割手段は、前記特徴量として、前記部分画像の色、輝度、空間周波数およびテクスチャのうち少なくともひとつに基づいて、前記画像参照領域の分割を行うことを特徴とする請求項1に記載の画像処理装置。
【請求項3】
前記オクルージョン奥行き情報算出手段は、前記各クラスタごとに、前記対応関係が検出された画素の奥行き情報の平均値を算出し、該平均値を前記オクルージョン画素の奥行き情報とすることを特徴とする請求項1または2に記載の画像処理装置。
【請求項4】
前記オクルージョン奥行き情報算出手段は、前記注目クラスタ内に前記対応関係が検出された画素がある場合には、前記注目クラスタ内の前記奥行き情報の平均値を、前記注目クラスタ内の前記オクルージョン画素の奥行き情報とし、前記注目クラスタ内に前記対応関係が検出された画素がない場合には、前記画像参照領域内の前記複数のクラスタのうちで前記特徴量が前記注目クラスタの前記特徴量に最も近いクラスタを選択し、その選択したクラスタ内の前記奥行き情報の平均値を、前記注目クラスタ内の前記オクルージョン画素の奥行き情報とすることを特徴とする請求項1または2に記載の画像処理装置。
【請求項5】
前記オクルージョン奥行き情報算出手段は、前記各クラスタごとに前記奥行き情報の分布を示す分布情報を算出し、該分布情報に基づいて前記オクルージョン画素の奥行き情報を算出することを特徴とする請求項1または2に記載の画像処理装置。
【請求項6】
前記画像参照領域決定手段は、前記オクルージョン領域の外周に、一定の幅を有する帯状の前記周囲領域を設定することを特徴とする請求項1ないし5のうちいずれか1項に記載の画像処理装置。
【請求項7】
前記画像参照領域決定手段は、前記オクルージョン領域の外周に、前記オクルージョン領域の幅に対して一定の比率の幅を有する前記周囲領域を設定することを特徴とする請求項1ないし5のうちいずれか1項に記載の画像処理装置。
【請求項8】
複数の視点で被写体をそれぞれ撮像して得られた複数の画像間で各画素の対応関係を検出する対応関係検出ステップと、
前記対応関係が検出された画素の奥行き情報を算出して、該奥行き情報を含む奥行きマップを作成する奥行きマップ作成ステップと、
前記対応関係が検出されなかったオクルージョン画素に対応する領域をオクルージョン領域として、前記オクルージョン領域と該オクルージョン領域を囲む周囲領域とからなる画像参照領域を決定する画像参照領域決定ステップと、
前記画像参照領域内の部分画像の特徴量に基づいて、前記画像参照領域を複数のクラスタに分割する領域分割ステップと、
前記各クラスタに注目し、前記奥行きマップにおける注目クラスタの前記奥行き情報、および、前記注目クラスタの前記特徴量に基づいて選択した他の前記クラスタの前記奥行き情報のうち、少なくとも一方の奥行き情報に基づいて、前記注目クラスタ内の前記オクルージョン画素の奥行き情報を算出するオクルージョン奥行き情報算出ステップと、
前記オクルージョン画素の前記奥行き情報を前記奥行きマップに追加する奥行きマップ更新ステップと、
を含むことを特徴とする画像処理方法。
【請求項9】
前記特徴量として、前記部分画像の色、輝度、空間周波数およびテクスチャのうち少なくともひとつに基づいて、前記画像参照領域の分割を行うことを特徴とする請求項8に記載の画像処理方法。
【請求項10】
前記オクルージョン奥行き情報算出ステップにて、前記各クラスタごとに、前記対応関係が検出された画素の奥行き情報の平均値を算出し、該平均値を前記オクルージョン画素の奥行き情報とすることを特徴とする請求項8または9に記載の画像処理方法。
【請求項11】
前記オクルージョン奥行き情報算出ステップにて、前記注目クラスタ内に前記対応関係が検出された画素がある場合には、前記注目クラスタ内の前記奥行き情報の平均値を、前記注目クラスタ内の前記オクルージョン画素の奥行き情報とし、前記注目クラスタ内に前記対応関係が検出された画素がない場合には、前記画像参照領域内の前記複数のクラスタのうちで前記特徴量が前記注目クラスタの前記特徴量に最も近いクラスタを選択し、その選択したクラスタ内の前記奥行き情報の平均値を、前記注目クラスタ内の前記オクルージョン画素の奥行き情報とすることを特徴とする請求項8または9に記載の画像処理方法。
【請求項12】
前記オクルージョン奥行き情報算出ステップにて、前記各クラスタごとに前記奥行き情報の分布を示す分布情報を算出し、該分布情報に基づいて前記オクルージョン画素の奥行き情報を算出することを特徴とする請求項8または9に記載の画像処理方法。
【請求項13】
前記画像参照領域決定ステップにて、前記オクルージョン領域の外周に、一定の幅を有する帯状の前記周囲領域を設定することを特徴とする請求項8ないし12のうちいずれか1項に記載の画像処理方法。
【請求項14】
前記画像参照領域決定ステップにて、前記オクルージョン領域の外周に、前記オクルージョン領域の幅に対して一定の比率の幅を有する前記周囲領域を設定することを特徴とする請求項8ないし12のうちいずれか1項に記載の画像処理方法。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【公開番号】特開2011−60216(P2011−60216A)
【公開日】平成23年3月24日(2011.3.24)
【国際特許分類】
【出願番号】特願2009−212163(P2009−212163)
【出願日】平成21年9月14日(2009.9.14)
【出願人】(306037311)富士フイルム株式会社 (25,513)
【Fターム(参考)】
【公開日】平成23年3月24日(2011.3.24)
【国際特許分類】
【出願日】平成21年9月14日(2009.9.14)
【出願人】(306037311)富士フイルム株式会社 (25,513)
【Fターム(参考)】
[ Back to top ]