説明

立体画像生成装置、立体画像生成方法、プログラム、および記録媒体

【課題】消失点位置を推定できる場合は、消失点に基づいて画像の奥行モデルを生成し、消失点位置を推定できない場合は、顕著度に基づいて画像の奥行モデルを生成することにより、より自然な奥行感のある立体画像を生成可能とする。
【解決手段】立体画像生成装置1は、処理対象画像から消失点を推定する消失点推定部20と、消失点推定部20により消失点が推定できたか否かに基づいて異なる奥行モデルを生成する奥行モデル生成部30と、奥行モデル生成部30により生成した奥行モデルと処理対象画像と想定視聴条件情報とに基づいて、右眼提示画像と左眼提示画像を生成する視点画像生成部40とを備える。奥行モデル生成部30は、消失点推定部20により消失点が推定できた場合、消失点に基づいて奥行モデルを生成し、また、消失点推定部20により消失点が推定できなかった場合、処理対象画像内の各画素の顕著度に基づいて奥行モデルを生成する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、2D画像に対して両眼立体情報を付加し、3D画像を生成する立体画像生成装置、立体画像生成方法、プログラム、及び記録媒体に関する。
【背景技術】
【0002】
近年、3DTV(3D Television)の普及と3Dデジタル放送の開始により、家庭において3D映像を視聴する環境が整いつつある。しかし、3D映像の再生環境の整備に伴い、3D映像のコンテンツ不足が指摘されている。こうしたコンテンツ不足の解消へのアプローチとして、2D画像に対して人工的に両眼立体情報を付加し、3D画像を生成する2D/3D変換(2D to 3D conversion)が注目されている。
【0003】
2D/3D変換を実現する手法として、例えば、特許文献1に示す手法が知られている。この特許文献1には、基本となる3種類の画像の奥行値を示す基本奥行モデルを備え、入力画像のパターンによって、3種類の基本奥行モデルの合成比を変えて、入力画像の奥行モデルを生成し、生成した奥行モデルと入力画像とから、左眼/右眼へ提示する画像を生成する立体画像生成装置が開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特許第4214976号明細書(特開2005−151534号公報)
【非特許文献】
【0005】
【非特許文献1】J. Shi and C. Tomasi, “Good Features to Track,” 9th IEEE Conference on Computer Vision and Pattern Recognition, June 1994
【非特許文献2】B. D. Lucas and T. Kanade, “An iterative image registration technique with an application to stereo vision,” Proceedings of the 1981 DARPA Imaging Understanding Workshop (pp.121-130), 1981
【非特許文献3】CG−ARTS協会,ディジタル画像処理 第2版,2009
【非特許文献4】太田登 著, 色彩工学 第2版, 東京電機大学出版局,2001
【非特許文献5】L. Itti, C. Koch, E. Niebur, “A Model of Saliency-Based Visual Attention for Rapid Scene Analysis,” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 20, No.11, pp.1254-1259, Nov 1998.
【非特許文献6】A. Telea, “An image inpainting technique based on the fast marching method,” Journal of Graphics Tools 9 (2004), pp.25-36.
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、特許文献1に開示されている立体画像生成装置では、想定した基本奥行モデルに合致しない画像の奥行モデルを表現することが困難である。例えば、画面外に消失点がある場合、3種類の基本奥行モデルの合成比を変更しても表現することができないという問題がある。このため、自然な奥行感のある立体映像を生成することができなかった。
【0007】
本発明は、上述のような問題点を解決するためになされたものであって、幾何的な奥行手掛かりにより消失点位置を推定できる場合は、消失点に基づいて画像の奥行モデルを生成し、幾何的な奥行手掛かりにより消失点位置を推定できない場合は、人の視覚特性に基づいた画像内の誘目性を表す顕著度に基づいて画像の奥行モデルを生成することにより、より自然な奥行感のある立体画像を生成可能とする立体画像生成装置、立体画像生成方法、プログラム、及び記録媒体を提供することを目的とする。
【課題を解決するための手段】
【0008】
上記課題を解決するために、本発明の第1の技術手段は、2D画像に両眼立体情報を付加し、3D画像を生成する立体画像生成装置であって、処理対象画像から消失点を推定する消失点推定手段と、該消失点推定手段により消失点が推定できたか否かに基づいて異なる奥行モデルを生成する奥行モデル生成手段と、該奥行モデル生成手段により生成した奥行モデルと前記処理対象画像と想定視聴条件情報とに基づいて、右眼提示画像と左眼提示画像を生成する視点画像生成手段とを備え、前記奥行モデル生成手段は、前記消失点推定手段により消失点が推定できた場合、前記消失点に基づいて奥行モデルを生成し、また、前記消失点推定手段により消失点が推定できなかった場合、前記処理対象画像内の各画素の顕著度に基づいて奥行モデルを生成することを特徴としたものである。
【0009】
第2の技術手段は、第1の技術手段において、処理対象画像から所定の画像サイズの縮小画像を生成する縮小画像生成手段を備え、前記縮小画像を、前記消失点推定手段と前記奥行モデル生成手段の入力とし、該奥行モデル生成手段により生成した前記縮小画像の奥行モデルから前記処理対象画像と同一画像サイズの拡大奥行モデルを生成する拡大奥行モデル生成手段を備えることを特徴としたものである。
【0010】
第3の技術手段は、第1の技術手段において、前記奥行モデル生成手段により生成した処理対象画像の奥行モデルを空間方向に平滑化し、該空間方向に平滑化された前記処理対象画像の奥行モデルと、該処理対象画像よりも過去の比較対象画像の時空間方向に平滑化された奥行モデルとに基づいて、前記処理対象画像の奥行モデルを時間方向に平滑化し、前記処理対象画像の時空間方向に平滑化された奥行モデルを生成する時空間方向平滑化手段を備えることを特徴としたものである。
【0011】
第4の技術手段は、第1〜第3のいずれか1の技術手段において、前記想定視聴条件情報は、前記3D画像を表示するディスプレイの画素ピッチ、該ディスプレイの画像サイズ、視聴者から前記ディスプレイまでの距離、前記3D画像の奥行量を表す視差範囲、左右の仮想視点間の距離である基線長を含むことを特徴としたものである。
【0012】
第5の技術手段は、第1〜第4のいずれか1の技術手段において、前記処理対象画像内の各画素の顕著度は、注目画素とその周辺画素との色差が大きい箇所、あるいは、注目画素と画像全体との色差が大きい箇所、あるいは、注目画素を含む局所領域とその周辺領域との色差が大きい箇所ほど高く算出されることを特徴としたものである。
【0013】
第6の技術手段は、第5の技術手段において、前記奥行モデル生成手段は、前記消失点推定手段により消失点が推定できなかった場合、前記処理対象画像内の各画素の顕著度が高い箇所が手前側になるように奥行モデルを生成することを特徴としたものである。
【0014】
第7の技術手段は、第1〜第6のいずれか1の技術手段において、前記消失点推定手段は、前記処理対象画像内の直線情報から該処理対象画像の消失点を推定するフレーム内消失点推定手段と、前記処理対象画像と該処理対象画像よりも過去の比較対象画像と該比較対象画像における消失点の位置とに基づいて、前記処理対象画像の消失点を推定するフレーム間消失点推定手段とを備えたことを特徴としたものである。
【0015】
第8の技術手段は、第7の技術手段において、前記処理対象画像と前記比較対象画像との間でシーンチェンジがあったか否かを検出するシーンチェンジ検出手段を備え、該シーンチェンジ検出手段によりシーンチェンジが検出された場合、前記フレーム内消失点推定手段が選択され、前記シーンチェンジ検出手段によりシーンチェンジが検出されない場合、前記フレーム間消失点推定手段が選択されることを特徴としたものである。
【0016】
第9の技術手段は、第8の技術手段において、前記比較対象画像の消失点の位置を含む消失点情報を記憶する記憶手段を備え、該記憶手段に前記比較対象画像の消失点情報が記憶されている場合、前記フレーム間消失点推定手段が選択され、前記記憶手段に前記比較対象画像の消失点情報が記憶されていない場合、前記フレーム内消失点推定手段が選択されることを特徴としたものである。
【0017】
第10の技術手段は、第7〜第9のいずれか1の技術手段において、前記比較対象画像は、前記処理対象画像の1つ前の画像であることを特徴としたものである。
【0018】
第11の技術手段は、2D画像に両眼立体情報を付加し、3D画像を生成する立体画像生成装置による立体画像生成方法であって、前記立体画像生成装置が、処理対象画像から消失点を推定する消失点推定ステップと、該消失点推定ステップにて消失点が推定できたか否かに基づいて異なる奥行モデルを生成する奥行モデル生成ステップと、該奥行モデル生成ステップにて生成した奥行モデルと前記処理対象画像と想定視聴条件情報とに基づいて、右眼提示画像と左眼提示画像を生成する視点画像生成ステップとを備え、前記奥行モデル生成ステップは、前記消失点推定ステップにて消失点が推定できた場合、前記消失点に基づいて奥行モデルを生成し、また、前記消失点推定ステップにて消失点が推定できなかった場合、前記処理対象画像内の各画素の顕著度に基づいて奥行モデルを生成することを特徴としたものである。
【0019】
第12の技術手段は、コンピュータに、第11の技術手段における立体画像生成方法を実行させるためのプログラムである。
【0020】
第13の技術手段は、第12の技術手段におけるプログラムを記録したコンピュータ読み取り可能な記録媒体である。
【発明の効果】
【0021】
本発明によれば、幾何的な奥行手掛かりにより消失点位置を推定できる場合は、消失点に基づいて画像の奥行モデルを生成することにより、幾何的な奥行手掛かりによる奥行感を強調した立体画像を生成することができる。
また、本発明によれば、幾何的な奥行手掛かりにより消失点位置を推定できない場合は、人の視覚特性に基づいた画像内の誘目性を表す顕著度から画像の奥行モデルを生成することにより、人の注目する部分の奥行感を強調した立体画像を生成することができる。
【図面の簡単な説明】
【0022】
【図1】本発明の実施形態に係る立体画像生成装置の構成例を示すブロック図である。
【図2】本発明の実施形態に係る立体画像生成装置のフレーム単位の動作例を説明するためのフロー図である。
【図3】輝度ヒストグラムに基づくシーンチェンジ検出の概略図である。
【図4】本発明の実施形態に係るシーンチェンジ検出部の構成例を示すブロック図である。
【図5】本発明の実施形態に係るシーンチェンジ検出部の動作例を説明するためのフロー図である。
【図6】本発明の実施形態に係る消失点推定部の構成例を示すブロック図である。
【図7】本発明の実施形態に係る消失点推定部の動作例を説明するためのフロー図である。
【図8】本発明の実施形態に係るフレーム内消失点推定部の動作例を説明するためのフロー図である。
【図9】図8のフローに対応した画像の一例を示す図である。
【図10】ハフ変換による直線検出を説明するための概略図である。
【図11】本発明の実施形態に係るフレーム間消失点推定部の動作例を説明するためのフロー図である。
【図12】図11のフローに対応した画像の一例を示す図である。
【図13】同一シーン内において、フレーム内消失点推定手段、フレーム間消失点推定手段の適用される範囲の一例を示す図である。
【図14】本発明の実施形態に係る奥行モデル生成部の構成例を示すブロック図である。
【図15】本発明の実施形態に係る奥行モデル生成部の動作例を説明するためのフロー図である。
【図16】本発明の実施形態に係る画面内に消失点がある場合の基本奥行モデルの一例を示す図である。
【図17】本発明の実施形態に係る画面外に消失点がある場合の基本奥行モデルの一例を示す図である。
【図18】本発明の実施形態に係る消失点に基づいた奥行モデルを求める過程の一例を示す図である。
【図19】本発明の実施形態に係る顕著度に基づいた奥行モデルを求める過程の一例を示す図である。
【図20】視点画像を生成するためのカメラ(視点)配置の俯瞰図である。
【図21】本発明の実施形態に係る視点画像生成部の構成例を示すブロック図である。
【図22】本発明の実施形態に係る視点画像生成部の動作例を説明するためのフロー図である。
【図23】本発明の実施形態に係る視点画像を生成する過程の一例を示す図である。
【図24】交差方向、及び開散方向の視差ベクトルを示す図である。
【図25】本発明の実施形態に係る奥行モデル生成部の変形例を示すブロック図である。
【図26】本発明の実施形態に係る奥行モデル生成部の変形例における顕著度に基づく奥行モデル作成手段の動作例を説明するためのフロー図である。
【図27】本発明の実施形態に係る顕著度に基づいた奥行モデル(変形例)を求める過程の一例を示す図である。
【図28】本発明の実施形態に係る顕著度に基づいた奥行モデル(変形例)において、基準となる奥行モデルの変形例の一例と対応する奥行モデルの一例を示す図である。
【図29】本発明の実施形態に係る立体画像生成装置(第一の変形例)の構成例を示すブロック図である。
【図30】本発明の実施形態に係る立体画像生成装置(第の一変形例)のフレーム単位の動作例を説明するためのフロー図である。
【図31】本発明の実施形態に係る立体画像生成装置(第二の変形例)の構成例を示すブロック図である。
【図32】本発明の実施形態に係る立体画像生成装置(第二の変形例)のフレーム単位の動作例を説明するためのフロー図である。
【図33】本発明の実施形態に係る時空間方向平滑化部の構成例を示すブロック図である。
【図34】本発明の実施形態に係る時空間方向平滑化部の動作例を説明するためのフロー図である。
【発明を実施するための形態】
【0023】
以下、図面を参照しながら本発明の実施形態について詳しく説明する。なお、図面において同じ機能を有する部分については同じ符号を付し、繰り返しの説明は省略する。
図1は、本発明に係る立体画像生成装置の概略構成例を示すブロック図である。図中、1は立体画像生成装置を示す。立体画像生成装置1は、シーンチェンジ検出部10、消失点推定部20、奥行モデル生成部30、及び視点画像生成部40を備えている。また、図2は、本発明に係る立体画像生成装置1のフレーム単位の動作例を説明するためのフロー図である。
【0024】
図2において、まず、図1の立体画像生成装置1は、入力された時刻tの画像(以降、処理対象画像F(t)ともいう)をシーンチェンジ検出部10、消失点推定部20、奥行モデル生成部30、及び視点画像生成部40へ出力する(図2のステップS11)。
【0025】
(シーンチェンジ検出部10について)
図1のシーンチェンジ検出部10は、本発明のシーンチェンジ検出手段に相当し、入力された処理対象画像F(t)と、処理対象画像F(t)より一つ前に入力された画像(以降、比較対象画像F(t−1)ともいう)から所定の画像特徴量を算出し、算出した画像特徴量の類似度を比較して、時系列に連続する画像の区分点(シーンチェンジ)を検出し、処理対象画像F(t)においてシーンチェンジの有無を表すシーンチェンジ情報S(t)を消失点推定部20、および奥行モデル生成部30へ出力する(図2のステップS12)。ここで、所定の画像特徴量の一例として、画像の輝度値の出現頻度を表す輝度ヒストグラムに基づくシーンチェンジ検出について図3〜図5に基づき説明する。
【0026】
図3に示すように、輝度ヒストグラムに基づくシーンチェンジ検出は、処理対象画像F(t)と比較対象画像F(t−1)からそれぞれの輝度ヒストグラムH(t)とH(t−1)を算出し、算出した輝度ヒストグラムの類似度d(H(t), H(t−1))と所定の閾値とを比較して、処理対象画像F(t)においてシーンチェンジの有無を判定するというものである。
【0027】
図4に示すように、シーンチェンジ検出部10は、輝度ヒストグラム生成部101、バッファ102、ヒストグラム類似度算出部103、およびシーンチェンジ判定部104で構成されている。図5は、シーンチェンジ検出部10の動作例を説明するためのフロー図である。図5において、図4の輝度ヒストグラム生成部101は、入力された処理対象画像F(t)から輝度情報を取得し、取得した輝度情報から輝度値の出現頻度を表す輝度ヒストグラムH(t)を算出し、その算出結果(輝度ヒストグラムH(t))をバッファ102、ヒストグラム類似度算出部103へ出力する(図5のステップS21)。
【0028】
図4のバッファ102は、処理対象画像F(t)の1つ後の画像F(t+1)におけるシーンチェンジ検出のために、処理対象画像F(t)の輝度ヒストグラムH(t)を記憶する(図5のステップS22)。図4のヒストグラム類似度算出部103は、入力された処理対象画像F(t)の輝度ヒストグラムH(t)と、バッファ102より読みだした比較対象画像F(t−1)の輝度ヒストグラムH(t−1)から類似度d(H(t), H(t−1))を式(1)により算出し、その算出結果をシーンチェンジ判定部104へ出力する(図5のステップS23)。
【0029】
【数1】

【0030】
ここで、式(1)において、Wは画像の1ライン毎のピクセル数を表し、Hは画像のライン数を表し、vは輝度値を表し、Vは輝度値の階調数を表し、H(v|t)は時刻tにおける画像F(t)上の輝度値vの出現頻度を表す。また、式(1)において、類似度d(H(t), H(t−1))のとる値の範囲は0〜2となり、値が0に近いほどヒストグラムの形状が似ており、値が2に近いほどヒストグラムの形状が異なることを表す。
【0031】
図4のシーンチェンジ判定部104は、入力されたヒストグラムの類似度d(H(t), H(t−1))と、所定の閾値dthとで閾値判定を行い、式(2)により処理対象画像F(t)においてシーンチェンジの有無を表すシーンチェンジ情報S(t)を設定し、外部へ出力する(図5のステップS24)。
【0032】
【数2】

【0033】
つまり、シーンチェンジ判定部104は、類似度d(H(t), H(t−1))が閾値dthより小さい場合、シーンチェンジが無いと判定し、シーンチェンジ情報S(t)に「0」を設定する。それ以外の場合は、シーンチェンジが有ると判定し、シーンチェンジ情報S(t)に「1」を設定する。
【0034】
以上、シーンチェンジ検出部10によれば、処理対象画像F(t)と、比較対象画像F(t−1)から所定の画像特徴量を算出し、算出した画像特徴量の類似度を比較することで、時系列に連続する画像の区分点(シーンチェンジ)を検出することができる。
【0035】
(消失点推定部20について)
図1に戻って、消失点推定部20は、本発明の消失点推定手段に相当し、入力された処理対象画像F(t)のシーンチェンジ情報S(t)と、消失点推定部20の内部で記憶している一つ前の消失点情報VP(t−1)に基づいて消失点の推定手段(画像内の直線から消失点位置を推定するフレーム内消失点推定手段、画像間の特徴点の対応関係と前フレームの消失点位置から現フレームにおける消失点位置を推定するフレーム間消失点推定手段)を選択し、選択した消失点推定手段により入力された処理対象画像F(t)から消失点の位置を推定して、その結果を記述した消失点情報VP(t)を奥行モデル生成部30へ出力する(図2のステップS13)。ここで「消失点」とは、3次元空間において平行な2直線を平面に射影(投影)すると、それらの線が必ず1点に収束する点のことである。
【0036】
続いて、本実施形態における消失点推定部20について詳細に説明する。図6に示すように、消失点推定部20は、切替部201,切替部202、フレーム内消失点推定部21、フレーム間消失点推定部22、バッファ203、およびバッファ204で構成されている。また、図6のフレーム内消失点推定部21は、エッジ検出部211、直線検出部212、および消失点同定部213で構成されている。このフレーム内消失点推定部21は、本発明のフレーム内消失点推定手段に相当し、処理対象画像F(t)内の直線情報から処理対象画像F(t)の消失点を推定する。また、図6のフレーム間消失点推定部22は、特徴点検出部221、対応点算出部222、変換行列算出部223、および消失点位置算出部224で構成されている。このフレーム間消失点推定部22は、本発明のフレーム間消失点推定手段に相当し、処理対象画像F(t)と処理対象画像F(t)よりも過去の比較対象画像F(t−1)と比較対象画像F(t−1)における消失点の位置とに基づいて、処理対象画像F(t)の消失点を推定する。図7は、消失点推定部20の動作例を説明するためのフロー図である。
【0037】
図7において、図6の消失点推定部20は、入力されたシーンチェンジ情報S(t)、およびバッファ204より読み出した一つ前の消失点情報VP(t−1)に基づいて消失点推定手段を選択する(図7のステップS31)。具体的には、シーンチェンジが有る場合(「S(t)=1」)、もしくは、消失点情報VP(t−1)が、前フレームに消失点が無いことを示す場合、つまり、消失点情報VP(t−1)が「vp_num=0」の場合(図7のステップS31においてYes)、図6の切替部201は画像の入力先を、図6の切替部202は消失点情報の出力元を、フレーム内消失点推定部21へそれぞれ切り替え(図7のステップS32)、その後、フレーム内消失点推定部21は、画像内の直線から消失点位置を推定し、その結果(消失点情報VP(t))を出力する(図7のステップS33)。
【0038】
(フレーム内消失点推定部21について)
ここで、フレーム内消失点推定部21について詳細に説明する。図8は、フレーム内消失点推定部21の動作例を説明するためのフロー図である。図9は、図8のフローに対応した画像例を示す図である。図8のステップS331において、図6のエッジ検出部211は、入力された処理対象画像F(t)(図9(A)を参照)から直線検出に用いるエッジ点情報Edge(t)を算出する。具体的には、まず、色成分(例えば、RGB(Red(赤)、Green(緑)、Blue(青)))毎に微分オペレータを適用し、x方向、y方向における各色成分iの勾配ベクトルG(x,y|t)=(ΔGix(t), ΔGiy(t))(i=1,2,3)を算出する。なお、i=1、2、3は、それぞれ、R成分、G成分、B成分である。
【0039】
続いて、エッジ検出部211は、式(3)の演算を、座標(x,y)の画素毎に行うことで、エッジ強度E(x,y|t)を算出する。
【0040】
【数3】

【0041】
続いて、エッジ検出部211は、式(4)の演算を、座標(x,y)の画素毎に行うことで、エッジ強度E(x,y|t)から局所的にエッジ強度が極大値となる座標をエッジ点として抽出し、その結果を記述したエッジ点情報Edge(t)を直線検出部212へ出力する。
【0042】
【数4】

【0043】
つまり、エッジ検出部211は、座標(x,y)を中心とした窓サイズW1×W2の範囲内で、エッジ強度E(x,y|t)が極大値となる場合(Local Maxima)、エッジ点Edge(x,y|t)に「1」、それ以外はエッジ点Edge(x,y|t)に「0」を設定する。ここで、W1はx方向の窓のサイズ、W2はy方向の窓のサイズを表す。
【0044】
図8のステップS332に進んで、図6の直線検出部212は、入力されたエッジ点情報Edge(t)にハフ変換を適用して直線情報L(t)(図9(B)を参照)を取得する。ここで、ハフ変換による直線検出に関して図10に基づいて説明する。なお、図10(A)において、ある直線L上にある特徴点A,B,Cを、エッジ検出部211において得られた「Edge(x,y|t)=1」となるエッジ点とする。まず、ハフ変換では、図10(A)に示す画像空間上の直線Lを極座標表現(ρ、θ)を用いて表現する。ρは画像空間の原点から直線Lへ引いた垂線の距離を表し、θはその垂線が画像空間のx軸となす角度を表す。なお、ρの範囲はρ≧0であり、θの範囲は0≦θ<2πである。
【0045】
図10(A)の画像空間上にある特徴点A,B,Cを通過する直線Lは、パラメータ(ρ00)を用いて式(5)によって表される。
【0046】
【数5】

【0047】
また、特徴点A,B,Cをそれぞれ通過する直線群は、パラメータ空間へ写像すると、図10(B)においてパラメータ空間上の曲線a,曲線b,曲線cとして表現される。つまり、パラメータ空間上で、曲線a、曲線b、曲線cの交点(ρ00)が、特徴点A,B,Cを通過する直線Lとして検出される。
【0048】
以上のように「Edge(x,y|t)=1」となるエッジ点に対して、ハフ変換を適用し、パラメータ空間上で所定の閾値以上の曲線が交差し、かつ交差数の多い順にNL個の極座標(ρs,θs)(s=1,・・・,NL)を直線Lsとして抽出し、その極座標(ρs,θs)を記述したデータを直線情報L(t)とする。なお、NLの範囲は0≦NL≦NLmaxである。ここで、NLmaxは抽出する直線数の上限値を表す所定の定数である。また、上記直線抽出の条件を満たさず、直線が検出されない場合は、NL=0となる。
【0049】
再び図8に戻って、図6の消失点同定部213は、入力された直線情報L(t)から直線数NLを取得し、直線数NLと所定の閾値と大小関係を比較し、ステップS334〜ステップS335の処理によって消失点の位置推定を行うか否かを決定する(ステップS333)。直線数NLが閾値ThL(≧2)より小さい場合(または以下の場合)(ステップS333においてNo)、消失点の推定に十分な幾何的な奥行手掛かりが無いと判定し、ステップS336へ進む。また、直線数NLが閾値ThL(≧2)以上の場合(または大きい場合)(ステップS333においてYes)、消失点同定部213は、消失点の推定に十分な幾何的な奥行手掛かりがあると判定し、入力された直線情報L(t)から、直線を表す角度θに関して式(6)、式(7)の条件を満たす直線Li(i=1,・・・, NL)と直線Lj (j=1,・・・, NL)を選び、その交点Pij(i≠j)を式(8)の行列演算によって算出し、交点情報を取得する(ステップS334)。なお、直線の交点を求める際に、一度選んだ直線Liと直線Lj同士の重複演算はしないものとする。なお、式(6)の条件は選んだ二直線が平行でないことを表し、式(7)の条件は水平方向(|θ−π|≒π/2)近傍、及び垂直方向(|θ−π|≒0、または|θ−π|≒π)近傍の直線でないことを表す。
【0050】
【数6】

【数7】

【数8】

【0051】
続いて、消失点同定部213は、取得した直線の交点Pijの分布モデルを、式(9)に示すKc個のガウス分布の混合モデルGMM(Gaussian Mixture Model)を用いて表されると仮定し、EM(Expectation−Maximization)アルゴリズムによって、分布モデルのパラメータ(wi,μi,Σi)(i=1,・・・,Kc)を取得し、消失点の位置を決定する(ステップS335)。
【0052】
【数9】

【0053】
なお、式(9)において、P(x)は、ベクトルx(交点Pijの座標)が出現する確率を表す。Kcはクラス数(ガウス分布の個数)を表し、wiはクラスiのガウス分布の重み係数を表し、重み係数の総和は1となる。また、μiはクラスiの平均ベクトル(クラスiの重心座標)を表し、Σiはクラスiの共分散行列を表し、Dはベクトルxの次元数を表す。式(9)中のN(x|μi,Σi)は、クラスiのガウス分布(正規分布)を表し、平均ベクトルμi、共分散行列Σiを用いて表現される。つまり、消失点同定部213は、重み係数wiが大きい上位N(≧1)クラスの分布の平均ベクトルμi(重心座標)を、消失点位置と定める。以降、簡単化のため、消失点の数をN=1として説明するが、これに限定されるものではない。
【0054】
続いて、消失点同定部213は、ステップS333またはステップS335の結果に基づいて、図9(C)に示すように消失点情報VP(t)を設定する(ステップS336)。なお、消失点情報VP(t)は、例えば、表1のデータとして表現される。
【0055】
【表1】

【0056】
表1において、消失点情報VP(t)は、時刻t(又は、画像のフレームに付した番号(フレーム番号)でもよい)を表す「vp_time」、検出した消失点の数を表す「vp_num」、及び検出したn個の消失点の位置「vp_pos[n]」を表すリストによって示される。
【0057】
再び図7のステップS31に戻って、シーンチェンジが無く(「S(t)=0」)、かつ、消失点情報VP(t−1)が、前フレームに消失点が有ることを示す場合(消失点情報VP(t−1)の「vp_num>0」)(ステップS31においてNo)、図6の切替部201は画像の入力先を、図6の切替部202は消失点情報の出力元を、フレーム間消失点推定部22へそれぞれ切り替え(ステップS34)、その後、フレーム間消失点推定部22は、入力された処理対象画像F(t)とバッファ203で記憶した1つ前の画像F(t−1)から画像間の特徴点の対応関係を求め、その対応関係と、一つ前の消失点情報VP(t−1)より処理対象画像F(t)における消失点位置を推定し、その結果(消失点情報VP(t))を出力する(ステップS35)。すなわち、消失点推定部20は、比較対象画像F(t−1)の消失点の位置を含む消失点情報VP(t−1)を記憶する記憶手段(図6のバッファ204)を備え、前フレームに消失点が有るか否かは、この記憶手段に前フレームの消失点情報VP(t−1)が記憶されており、この消失点情報VP(t−1)が「vp_num>0」であるか否かで判定される。
【0058】
(フレーム間消失点推定部22について)
ここで、フレーム間消失点推定部22の詳細について説明する。図11は、フレーム間消失点推定部22の動作例を説明するためのフロー図である。また、図12は、図11のフローに対応した画像例を示す図である。図11のステップS351において、図6の特徴点検出部221は、図12(A)に示すように、入力された処理対象画像F(t)と一つ前の画像F(t−1)との画像間の対応関係を求めるために用いるNK個の特徴点Ks(s=1,・・・,NK)を検出し、その特徴点Ksの座標(xKs,t,yKs,t)を記述した特徴点情報K(t)を図6の対応点算出部222へ出力する(ステップS351)。
【0059】
なお、特徴点とは、画素間の色や輝度の変化等に基づいて被写体のエッジの一部や頂点として抽出される点である。例えば、画素(x,y)を中心とした局所領域Sの範囲内のx方向、y方向の輝度の勾配ベクトルGi(x,y)(i=x,y)を用いて表される二次モーメント行列A(式(10))の第一固有値λ1、及び第二固有値λ2を求め、式(11)に示す条件を満たす画素(x,y)を特徴点として検出する。
【0060】
【数10】

【数11】

【0061】
つまり、二次モーメント行列Aの第一固有値λ1、及び第二固有値λ2のうち小さい方の固有値が所定の閾値λthより大きい(または以上)場合に特徴点とするものである(例えば、非特許文献1を参照)。なお、式(10)において係数w(u,v)は、画素(x,y)からx方向にu,y方向にvだけ離れた画素(x+u,y+v)に関する重み係数を表し、例えば、式(12)の条件を満たすように定めた、局所領域Sの範囲内の2次ガウス分布の値を正規化した値を用いる。
【0062】
【数12】

【0063】
図11のステップS352に進んで、図6の対応点算出部222は、図12(B)に示すように、入力された処理対象画像F(t)と、バッファ203より読み出した一つ前の画像F(t−1)と、ステップS351で取得した処理対象画像F(t)の特徴点情報K(t)とに基づいて、処理対象画像F(t)の各特徴点Ks(s=1,・・・,NK)が一つ前の画像F(t−1)上にある位置(xKs,t -1,yKs,t -1)をオプティカルフローにより算出し、その特徴点Ksの時刻t,時刻t−1における位置を記述した対応点情報Q(t,t−1)を図6の変換行列算出部223へ出力する(ステップS352)。
【0064】
なお、処理対象画像F(t)の各特徴点Ksが一つ前の画像F(t−1)上にある位置(xKs,t-1,yKs,t-1)は、例えば、式(13)に示す勾配法によるオプティカルフローの拘束条件を(xKs,t-1,yKs,t-1)について解くことで取得できる(例えば、非特許文献2を参照)。
【0065】
【数13】

【0066】
ここで、式(13)において、Gi(x,y|t)(i=x,y,t)は画像F(t)の輝度に関するx方向、y方向、t方向(時間方向)の勾配ベクトルを表し、Sは特徴点Ksを中心とする所定サイズの局所領域を表す。
【0067】
図11のステップS353に進んで、図6の変換行列算出部223は、ステップS352で取得した対応点情報Q(t,t−1)から、特徴点Ks(s=1,・・・,NK)を一つ前の画像F(t−1)上の位置から、処理対象画像F(t)上の位置へ射影する変換行列Hを算出し、その変換行列Hを記述した情報を図6の消失点位置算出部224へ出力する(ステップS353)。なお、2枚の画像間(F(t),F(t−1))の対応関係は、変換行列Hを用いて式(14)で表すことができる(例えば、非特許文献3を参照)。この式(14)において、記号「〜」は同値関係を表し、定数倍の違いを許して等しいことを意味する。
【0068】
【数14】

【0069】
また、変換行列Hは、一般的な変換を表現することができるため、射影変換と呼ばれる。ここで、画像間の対応関係を平行移動として表現できると仮定すると、式(14)は、式(15)として表現される。
【0070】
【数15】

【0071】
式(15)中の係数tx、tyはそれぞれx方向、y方向への移動量を表す。また、画像間の対応関係を平行移動、回転、拡大・縮小を含めたアフィン変換として表現できると仮定すると、式(14)は、式(16)として表現される。
【0072】
【数16】

【0073】
式(16)中の係数a,b,c,dは拡大・縮小、及び回転を表し、係数tx、tyは式(15)と同様である。なお、式(14)、式(15)、式(16)における変換行列Hの各係数hij(i,j=1,2,3)は、各変換モデルの拘束条件と対応点情報Q(t,t−1)から導かれる連立方程式を最小二乗法により解くことで算出する。なお、十分な対応点数が無く、変換行列Hを算出できない場合は、所定の変換行列Hを用いる。
【0074】
図11のステップS354に進んで、図6の消失点位置算出部224は、「時刻tにおける消失点の位置は、一つ前の画像F(t−1)上の消失点位置を、図6の変換行列算出部223で算出した変換行列Hを用いて、処理対象画像F(t)上へ射影した位置にある」と仮定して、時刻tの消失点位置を算出し(ステップ354)、その結果に基づいて消失点情報VP(t)を設定する(ステップS355)。画像F(t−1)上の消失点を変換行列Hにより画像F(t)上に射影したときの画像例を図12(C)に示す。
【0075】
再び図7のステップS36に戻って、図6のバッファ203は、1つ前の画像F(t−1)を削除し、入力された処理対象画像F(t)を記憶する。また、図6のバッファ204は、1つ前の消失点情報VP(t−1)を削除し、フレーム内消失点推定部21、または、フレーム間消失点推定部22より入力された消失点情報VP(t)を記憶して、処理対象画像F(t)における消失点推定の処理を終了する(ステップS36)。
【0076】
以上、本実施形態の消失点推定部20によれば、図13に示すように、同一シーン(空間方向、時間方向に相関のある時系列画像群)において、先頭フレームF(t)から同一シーン内で最初に消失点が検出されるフレームF(t+k−1)までは、フレーム内消失点推定手段(フレーム内消失点推定部21)により消失点を推定し、同一シーン内で最初に消失点が検出されるフレームF(t+k−1)の次フレームF(t+k)から同一シーン内の最終フレームF(t+N)までは、フレーム間消失点推定手段(フレーム間消失点推定部22)により消失点を推定するため、フレーム単位にフレーム内消失点推定手段により消失点を推定する場合と比べて、カメラワークにロバストでかつ、消失点の揺れを抑制し安定した消失点の推定が可能となる。
【0077】
(奥行モデル生成部30について)
再び図2に戻って、図1の奥行モデル生成部30は、本発明の奥行モデル生成手段に相当し、消失点推定部20により消失点が推定できたか否かに基づいて異なる奥行モデルを生成する。つまり、奥行モデル生成部30は、消失点情報VP(t)に基づいて、奥行モデルの作成手段(消失点位置から奥行モデルを作成する第1の奥行モデル作成手段、人の視覚特性に基づいた画像内の誘目性を表す顕著度から奥行モデルを作成する第2の奥行モデル作成手段)を選択し、選択した奥行モデル作成手段により、処理対象画像F(t)における各画素の奥行値を設定し、各画素の奥行値を表す奥行モデルD(t)を視点画像生成部40へ出力する(図2のステップS14)。
【0078】
続いて、本実施形態における奥行モデル生成部30について詳細に説明する。図14に示すように、奥行モデル生成部30は、切替部301、切替部302、領域分割部303、距離算出部304、顕著度算出部305、および奥行値設定部306で構成されている。図15は、奥行モデル生成部30の動作例を説明するためのフロー図である。
【0079】
図15において、図14の奥行モデル生成部30は、入力された消失点情報VP(t)に基づいて奥行モデル作成手段を選択する(ステップS41)。つまり、現フレームに消失点が有る場合(消失点情報VP(t)の「vp_num>0」)(ステップS41においてYes)、図14の切替部301は画像の入力先を領域分割部303へ、図14の切替部302は奥行値設定部306へ入力するデータの出力元を距離算出部304へそれぞれ切り替え、消失点に基づく第1の奥行モデル作成手段が選択される(ステップS42)。
【0080】
ステップS43に進んで、図14の距離算出部304は、消失点情報VP(t)の消失点の座標と各画素の座標との距離Dist(x,y)を算出し、その結果を記述した距離情報Dist(t)を奥行値設定部306へ出力する(ステップS43)。具体的には、消失点の座標と各画素の座標との距離Dist(x,y)は、式(17)、式(18)、式(19)のいずれかに基づいて算出される。なお、式(17)、式(18)、式(19)中のΔx、Δyはそれぞれ各画素と消失点とのx方向の距離、y方向の距離を表す。
【0081】
【数17】

【数18】

【数19】

【0082】
ここで、画面内に消失点VPがある場合の、それぞれ式(17)、式(18)、式(19)に基づく距離情報Dist(t)の一例を図16に示す。図16(A)は、画面内に消失点VPがある一例を表す。図16(B)のBD1aは式(17)、図16(C)のBD1bは式(18)、図16(D)のBD1cは式(19)に基づく距離情報Dist(t)を表している。また、画面外に消失点VPがある場合の、それぞれ式(17)、式(18)、式(19)に基づく距離情報Dist(t)の一例を図17に示す。図17(A)は、画面外に消失点VPがある一例を表す。図17(B)のBD2aは式(17)、図17(C)のBD2bは式(18)、図17(D)のBD2cは式(19)に基づく距離情報Dist(t)を表している。なお、図16及び図17において。白い部分が最も近く、黒くなるにつれて遠くなるものとする。
【0083】
ステップS44に進んで、図14の領域分割部303は、処理対象画像F(t)を領域分割(クラスタリング)により、特徴量が類似する(特徴量の値が予め定めた範囲内となる)複数の画素の集合(領域;クラス)に分割する。例えば、領域分割部303は、特徴量空間でのクラスタリングにより画像を複数の領域へ分割する。特徴量空間によるクラスタリングとは、画像空間の各画素を特徴量空間(例えば、色、エッジ、動きベクトル)に写像し、その特徴量空間においてK-means法、Mean-Shift法、又はK最近傍探索法(近似K最近傍探索法)などの手法により行うクラスタリングである。特徴量空間でのクラスタリング処理の終了後、各領域の代表値となる画素値(例えば平均値)により、そのクラス内の画素について、元の画像空間における画素値を置き換え、各領域に対して領域を識別するラベルを各領域内の全画素に付与し、その結果を記述した領域情報R(t)を奥行値設定部306へ出力する(ステップS44)。
【0084】
ステップS45に進んで、図14の奥行値設定部306は、入力された距離情報Dist(t)と領域情報R(t)に基づいて、各画素の奥行値を設定する。具体的には、式(20)に示すように、領域情報R(t)が示す各領域内にある画素の距離Dist(x,y)の平均値をスケーリングし、基準となる奥行値Dbase(x,y)だけシフトした値を各画素の奥行値D(x,y)として設定する(ステップS45)。
【0085】
【数20】

【0086】
なお、式(20)において、Dmaxは奥行値の上限値、Dminは奥行値の下限値、Distmaxは距離情報Dist(t)の最大値、Distminは距離情報Dist(t)の最小値、Dbase(x,y)は各画素の奥行値の基準値(最遠景とする奥行値)を調整するための所定の定数である。ここで、消失点に基づいた奥行モデルの一例を図18に示す。図18において、画像Aは処理対象画像F(t)の一例を表し、画像Bは領域分割部303において求めた処理対象画像F(t)の領域分割結果(領域分割情報R(t))の一例を表し、画像Cは処理対象画像F(t)の消失点VPの一例を表し、画像Dは距離算出部304において求めた処理対象画像F(t)の距離情報Dist(t)の一例を表し、画像Eは奥行値設定部306において、画像Bの領域分割情報R(t)と画像Dの距離情報Dist(t)に基づいて求めた奥行モデルの一例である。図18の画像Eにおいて、明るい部分が手前であることを表し、暗い部分が奥であることを表す。
【0087】
再び図15のステップS41に戻って、現フレームに消失点が無い場合(消失点情報VP(t)の「vp_num=0」)(ステップS41においてNo)、図14の切替部301は画像の入力先を顕著度算出部305へ、図14の切替部302は奥行値設定部306へ入力するデータの出力元を顕著度算出部305へそれぞれ切り替え、顕著度に基づく奥行モデル作成手段が選択される(ステップS46)。
【0088】
図14の顕著度算出部305は、入力された処理対象画像F(t)から、人の視覚特性に基づいた画像内の誘目性を表す顕著度M(t)を算出する(ステップS47)。人が注目しやすい部分の例としては、注目画素とその周辺画素との色差が大きい箇所(局所的な色差)、注目する画素と画像全体との色差が大きい箇所、あるいは注目画素を含む局所領域とその周辺領域との色差が大きい箇所(大局的な色差)がある。色差とは、色の知覚的な相違を定量的に表したものであり、色差を評価する色空間として、均等色空間(uniform color space)であるCIELAB色空間(CIE 1976 L*a*b*空間ともいう)を用いる。人の視覚特性に基づき、式(21)により各画素の顕著度M(x,y)を算出する。
【0089】
【数21】

【数22】

【数23】

【0090】
ここで、式(21)において、ΔElocalは局所的な色差を表し、ΔEglobalは大局的な色差を表し、係数α、βは所定の重み係数を表す。つまり、式(21)は顕著度を局所的な色差と大局的な色差との線形和によって表わしている。なお、局所的な色差ΔElocalは式(22)、大局的な色差ΔEglobalは式(23)によって算出される。また、式(22)、式(23)において、L*は明度指数、a*は赤−緑の知覚色度、b*は黄−青の知覚色度を表す。なお、色差を評価する色空間は、CIELUV色空間(CIE 1976 L*u*v*色空間ともいう)を用いてもよい。なお、式(22)中の係数w(u,v)は、式(12)と同一であるため、説明を省略する。
【0091】
ステップS48に進んで、図14の奥行値設定部306は、入力された顕著度M(t)に基づいて、式(24)の演算により各画素の奥行値を設定し、その結果を記述した奥行モデルD(t)を出力する(ステップS48)。
【0092】
【数24】

【0093】
式(24)において、Dmaxは奥行値の上限値、Dminは奥行値の下限値、Mmaxは顕著度M(t)の最大値、Mminは顕著度M(t)の最小値、Dbase(x,y)は各画素の奥行値の基準値(最遠景とする奥行値)を調整するための所定の定数である。つまり、式(24)により各画素の顕著度M(x,y)をスケーリングし、基準となる奥行値Dbase(x,y)だけシフトした値を各画素の奥行値D(x,y)として設定する。ここで、顕著度に基づいた奥行モデルの一例を図19に示す。図19において、画像Aは処理対象画像F(t)の一例を表し、画像Bは顕著度算出部305において求めた処理対象画像F(t)の顕著度M(t)の一例を表し、画像Cは基準となる奥行モデル(Dbase)の一例を表し、画像Dは奥行値設定部306において、画像Cの奥行モデル(Dbase)に画像Bの顕著度M(t)を合成して作成した奥行モデルの一例である。
【0094】
図19の画像Bにおいて、明るい部分(白)が人の注目しやすい部分(誘目性が高い)を表し、暗い部分(黒)が人の注目しにくい部分(誘目性が低い)を表す。また、図19の画像Dにおいて、明るい部分が手前であることを表し、暗い部分が奥であることを表す。図19の画像Dに示すように、顕著度に基づく奥行モデル作成手段は、基準となる奥行の面上(Dbase)に、スケーリングした顕著度を重畳し、注目する領域とその周辺領域との相対的な奥行の違いを強調することによって、疑似的な奥行感を知覚させるものである。
【0095】
顕著度に基づいて奥行モデルを生成する場合には、基準となる奥行の面上に、顕著度の高い(誘目性が高い)部分の奥行が手前側に、顕著度の低い(誘目性が低い)部分の奥行が奥側となるように設定する。これにより、注目する領域とその周辺領域との相対的な奥行の違いが強調され、擬似的な奥行感を知覚させることができる。換言すれば、注目領域の顕著度が周辺領域の顕著度よりも高い場合には、周辺領域に対して相対的に奥行が手前になるように設定される。また、注目領域の顕著度が周辺領域の顕著度と同等の場合には、相対的に同じ奥行になるように設定される。また、注目領域の顕著度が周辺領域の顕著度よりも低い場合には、周辺領域に対して相対的に奥行が奥になるように設定される。
【0096】
以上のように、奥行モデル生成部30によれば、幾何的な奥行手掛かりにより消失点位置を推定できる場合は、消失点に基づいて画像の奥行モデルを作成することで、幾何的な奥行手掛かりのによる奥行感を強調する奥行モデルを作成することができる。また、幾何的な奥行手掛かりにより消失点位置を推定できない場合は、人の視覚特性に基づいた画像内の誘目性を表す顕著度から画像の奥行モデルを作成することで、人の注目する部分の奥行感を強調する奥行モデルを作成することができる。
【0097】
(視点画像生成部40について)
再び図2に戻って、図1の視点画像生成部40は、本発明の視点画像生成手段に相当し、予め設定された想定視聴条件情報に基づいて、奥行モデルD(t)が表す各画素の奥行値から、基準画像F(t)(入力画像;処理対象画像)上の各画素と視点画像Fi(t)(i=l,r;Fr:右眼提示画像、Fl:左眼提示画像)上の対応する画素までのずれ量を表す視差ベクトル(シフト量)を算出し、基準画像F(t)上の画素と、対応する算出した視差ベクトルに基づいて、各視点画像Fi(t)(i=l,r)を生成する(ステップS15)。
【0098】
ここで、「想定視聴条件情報」とは、視聴者に提示する立体画像(左眼提示画像、右眼提示画像)を生成するための情報であり、立体画像を表示するディスプレイの画素ピッチ(画素間距離)μ、ディスプレイの画像サイズ、視聴者と立体画像を表示するディスプレイまでの距離(想定視距離)f、立体画像の奥行量を表す視差範囲(視差ベクトルの範囲)、基線長t(視点画像Fr(t)の仮想右視点Crと視点画像Fl(t)の仮想左視点Cl間の距離)を表す。
【0099】
この想定視聴条件情報に基づいた視点画像を生成するためのカメラ(視点)配置の一例の俯瞰図を図20に示す。図20の例では、平行法による立体画像の撮影を想定し、仮想右視点Cr上のカメラと仮想左視点Cl上のカメラが基準視点Cc上のカメラとx軸方向に平行に配置され、それぞれのカメラは3次元空間上にある注目点Pを観測しているとする。また基準視点Ccの画像面Ic上に投影された注目点Pの位置をXc、仮想左視点Clの画像面Il上に投影された注目点Pの位置をXl、仮想右視点Crの画像面Ir上に投影された注目点Pの位置をXrとする。図20において、各視点と対応する画像面までの距離(焦点距離、あるいは視距離)f、視点から注目点Pまでのz方向の距離Z、基準視点Ccと各仮想視点(Cr,Cl)までのx方向の距離t/2を用いて各画像面上に投影された注目点Pの位置XlとXc,XrとXcの幾何的な関係は、それぞれ式(25)、(26)によって表される。
【0100】
【数25】

【数26】

【0101】
以上から、基準画像F(t)上の画素と視点画像Fi(t)(i=l,r)上の対応する画素までのずれ量を表す視差ベクトル(シフト量)di(i=l,r)は、式(25)、(26)を変形した式(27)、(28)によって導出される。
【0102】
【数27】

【数28】

【0103】
なお、式(27)、(28)中の変数μは、画素ピッチを表す。つまり、基準画像F(t)と相対奥行値である奥行モデルD(t)と奥行モデルD(t)を絶対奥行値Zへ変換する関数(Z=z(D(t)))が与えられれば、式(27)、式(28)に基づいて、各視点画像Fi(t)(i=l,r)を生成することができる。
【0104】
以下では、上記考え方に基づき視点画像生成部40について説明する。図21は、視点画像生成部40の構成例を示すブロック図である。また、図22は、視点画像生成部40の動作例を説明するためのフロー図である。また、図23は、視点画像生成部40における視点画像の生成例を説明するための図である。まず、図21に示すように、視点画像生成部40は、視差ベクトル算出部401、テクスチャシフト部402、ギャップフィリング部(オクルージョン補償部ともいう)403、及びフローティングウィンドウ重畳部404で構成されている。
【0105】
図22において、図21の視差ベクトル算出部401は、入力された想定視聴条件情報と奥行モデルD(t)と奥行モデルD(t)を絶対奥行値へ変換する関数(Z=z(D(t)))とに基づいて、式(27)、式(28)から基準画像F(t)上の各画素と各視点画像Fi(t)上の対応する画素までの視差ベクトルdi(i=l,r)を算出し、その結果をテクスチャシフト部402へ出力する(図22のステップS51)。なお、視差ベクトルの算出方法は、式(27)、式(28)に基づいて各画素の視差ベクトルを算出するほかに、図23(B)のLUTに示すように、予め想定視聴条件情報に基づいて設定した奥行値(相対奥行値)から視差ベクトルを導くルックアップテーブルを用いて算出してもよい。ここで、図23(B)中の視差ベクトル(シフト量)の開散方向、交差方向について図24を用いて説明する。図24において、ある注目点をPとし、右眼から見てディスプレイ面に投影される注目点PをPr、左眼から見てディスプレイ面に投影される注目点PをPlとする。このとき、開散方向の視差ベクトルは、図24の(A)に示すように、ある注目点Pは、ディスプレイ面の後方に位置し、ディスプレイ面上のPrからPlへの視差ベクトル、あるいはPlからPrへの視差ベクトルの値が正となる場合である。同様に、交差方向の視差ベクトルは、図24の(B)に示すように、ある注目点Pはディスプレイ面の前方に位置し、ディスプレイ面上のPrからPlへの視差ベクトル、あるいはPlからPrへの視差ベクトルの値が負となる場合である。また、視差ベクトルの値がゼロの場合は、注目点Pはディスプレイ面上に位置する。
【0106】
続いて、図21のテクスチャシフト部402は、基準画像F(t)の各画素(x,y)を、対応する視差ベクトルdi(i=l,r)に基づいて、各視点画像Fi(t)(i=l,r)と対応する画素(u,v)の画素値として設定し、生成した視点画像をギャップフィリング部403へ出力する(図22のステップS52)。なお、画素値を設定するときは、視差ベクトルの値が開散方向側(例えば、図23(B)のLUT上のd2)の値を有する画素からテクスチャシフトを行う。
【0107】
例えば、図23(A)において、基準画像iF、奥行モデルiDより仮想左視点の視点画像Fl(t)(左眼提示画像)を生成する場合を考える。なお、奥行モデルiDは、白部分の奥行値がD1であり、黒部分の奥行値がD2で表されるとする。このとき、図23(B)のLUTに基づいてテクスチャシフトを行うと、まず、図23(A)の奥行値D2を有するレイヤL2の各画素を開散方向へd2だけシフトする。その後、図23(A)の奥行値D1を有するレイヤL1の各画素を交差方向へd1だけシフトすると、画面の左端/右端に位置しない欠損領域Gs1と画面の左端/右端に位置する欠損領域Gl1を有する視点画像oF1が得られる。ここで、欠損領域(オクルージョン領域)とは、図23(A)の視点画像oF1において、それぞれ基準画像上に対応する画素がないため、画素値が設定されていない領域を表す。
【0108】
続いて、図21のギャップフィリング部403は、入力された視点画像Fi(t)(i=l,r)において、画面端に位置しない欠損領域(例えば、図23(A)の視点画像oF1のGs1)の画素を、欠損領域周辺に位置する画素群から補間し、補間後の視点画像Fi(t)(i=l,r)をフローティングウィンドウ重畳部404へ出力する(図22のステップS53)。なお、欠損領域の画素の補間方法は、例えば、線形補間、メディアンフィルタ、もしくは公知の画像修復方法(例えば、非特許文献6参照)を用いる。
【0109】
続いて、フローティングウィンドウ重畳部404は、入力された視点画像Fi(t)(i=l,r)の両方のうち、画面端に位置する欠損領域(例えば、図23(A)の視点画像oF1のGl1)において、欠損領域の幅の最大値W1を取得する。続いて、それぞれの視点画像の右端、左端へ幅W2(=αW1)のフローティングウィンドウ(黒帯)を挿入し、その結果を出力する(図22のステップS54)。なお、W2は、W1を所定の定数αでスケーリングした値である。また、フローティングウィンドウ挿入後の視点画像は、例えば図23(A)の視点画像oF2である。図23(A)の視点画像oF2では、画面の左端、及び右端にフローティングウィンドウfw1、fw2がそれぞれ挿入されている。なお、フローティングウィンドウを挿入する理由は、左眼/右眼に提示される画像において、ある対象の位置や形状などが極端に異なる場合(例えば、生成した視点画像において画面の左端/右端に位置する欠損領域)、一つの対象として両眼視することができないことが原因で発生する左右の網膜像を交互に知覚する視野闘争を抑制するためである。
【0110】
このように、本実施形態によれば、幾何的な奥行手掛かりにより消失点位置を推定できる場合は、消失点に基づいて画像の奥行モデルを生成することにより、幾何的な奥行手掛かりによる奥行感を強調した立体画像を生成することができる。また、幾何的な奥行手掛かりにより消失点位置を推定できない場合は、人の視覚特性に基づいた画像内の誘目性を表す顕著度から画像の奥行モデルを生成することにより、人の注目する部分の奥行感を強調した立体画像を生成することができる。
【0111】
(奥行モデル生成部30の変形例(奥行モデル生成部30a))
上記実施形態において、奥行モデル生成部30では、顕著度に基づく奥行モデル作成手段の一例として、式(24)により各画素の顕著度M(x,y)をスケーリングし、基準となる奥行値Dbase(x,y)だけシフトした値を各画素の奥行値D(x,y)として設定する場合について説明したが、本発明はこれに限定されない。例えば、奥行モデル生成部30を、図25に示すように切替部301を取り除き、画像F(t)が領域分割部303、顕著度算出部305へ入力されるように構成を変更してもよい。つまり、奥行モデル生成部30aは、切替部302、領域分割部303、距離算出部304、顕著度算出部305、および奥行値設定部306で構成される。
【0112】
この場合の顕著度に基づく奥行モデル作成手段の動作例について、図25に基づいて説明する。なお、消失点に基づく奥行モデル作成手段の動作は、図15のステップS42〜S45と同一の処理のため、ここでの説明を省略する。
【0113】
まず、図25の顕著度算出部305は、図15のステップS47と同様の処理によって、処理対象画像F(t)より顕著度M(t)を算出し、その結果を奥行値設定部306へ出力する(図26のステップS47′)。続いて、図25の領域分割部303は、図15のステップS44と同様の処理によって、処理対象画像F(t)を領域分割し、その結果を記述した領域情報R(t)を奥行値設定部306へ出力する(図26のステップS48′)。
【0114】
その後、図25の奥行値設定部306は、入力された顕著度M(t)と領域情報R(t)に基づいて、式(29)に示すように、領域情報R(t)が示す各領域内にある画素の顕著度M(x,y)の平均値をスケーリングし、基準となる奥行値Dbase(x,y)だけシフトした値を各画素の奥行値D(x,y)として設定する(図26のステップS49′)。
【0115】
【数29】

【0116】
なお、式(29)において、Dmaxは奥行値の上限値、Dminは奥行値の下限値、Mmaxは顕著度M(t)の最大値、Mminは顕著度M(t)の最小値、Dbase(x,y)は各画素の奥行値の基準値(最遠景とする奥行値)を調整するための所定の定数である。ここで、変形例における顕著度に基づいた奥行モデルの一例を図27に示す。図27において、画像Aは処理対象画像F(t)の一例を表し、画像Bは領域分割部303において求めた処理対象画像F(t)の領域分割結果(領域情報M(t))の一例を表し、画像Cは顕著度算出部305において求めた処理対象画像F(t)の顕著度M(t)を表し、画像Dは基準となる奥行モデル(Dbase)の一例を表し、画像Eは奥行値設定部306において、画像Bの領域情報R(t)と画像Cの顕著度M(t)と画像Dの基準となる奥行モデル(Dbase)に基づいて求めた奥行モデルの一例である。図27の画像Cにおいて、明るい部分(白)が人の注目しやすい部分(誘目性が高い)を表し、暗い部分(黒)が人の注目しにくい部分(誘目性が低い)を表す。また、図27の画像Eにおいて、明るい部分が手前であることを表し、暗い部分が奥であることを表す。なお、基準となる奥行モデル(Dbase)に関して、図27の画像Dでは、同一の奥行値をもつ平面を一例として挙げたが、これに限定されない。例えば、下記の式(30)に示す平面方程式を予め定めて、各画素の座標(x,y)によって基準となる奥行値Dbase(x,y)を設定してもよい。式(30)によって表される基準となる奥行モデルの一例を図28の画像Aに示す。図28の画像Aは、奥行が下端に近いほど手前となり上端に近いほど奥となるように式(30)の係数a,b,cを設定した基準となる奥行モデルである。図28の画像Aを、図25の画像Dの代わりに入力した場合に作成される奥行モデルD(t)の結果を図28の画像Bに示す。
【0117】
【数30】

【0118】
以上のように奥行モデル生成部30aは、幾何的な奥行手掛かりにより消失点位置を推定できない場合は、人の視覚特性に基づいた画像内の誘目性を表す顕著度と、画像の領域分割結果(領域情報)に基づいて、領域毎に均一の奥行値を設定することで、奥行の前後関係の誤りを抑制した奥行モデルを生成することができる。
【0119】
(シーンチェンジ検出部10の変形例)
上記実施形態において、シーンチェンジ検出部10では、シーンチェンジ検出に用いる画像特徴量として、輝度ヒストグラムを用いる場合について説明したが、本発明はこれに限定されない。例えば、輝度ヒストグラムの代わりに、各色成分の出現頻度を表すカラーヒストグラム、フレーム間差分の平均誤差、動きベクトルの分布を画像特徴量として用いてもよい。
【0120】
(エッジ検出部211の変形例)
上記実施形態において、エッジ検出部211では、画像空間において局所的にエッジ強度が極大となる点(Local Maxima)をエッジ点として抽出するエッジ検出について説明したが、本発明はこれに限られない。例えば、Canny Edge detectionなどの公知のエッジ検出手法を用いてもよい。また、微分オペレータ(エッジ検出器)として、ソーベルフィルタ(Sobel filter)、プリューウィットフィルタ(Prewitt filter)、LoGフィルタ(Lapracian of Gaussian)、DoGフィルタ(Difference of Gaussian)、などの公知の手法を用いてもよい。
【0121】
(消失点同定部213の変形例)
上記実施形態において、消失点同定部213では、混合モデルに用いる分布モデルとしてガウス分布を用いる場合について説明したが、本発明はこれに限られない。例えば、分布モデルには指数型分布族(ラプラス分布、ベータ分布、ベルヌーイ分布など)を用いてもよい。また、消失点同定部213は、混合モデルに用いるクラス数Kcを予め定めた値とし、次の一例のように値を決定してもよい。消失点同定部213は、クラス数Kcに予め定めたクラス数Kc′を設定し、K-means法により、クラスタリングを行う。その後、消失点同定部213は、クラス間距離が所定閾値以下(または未満)を満たすクラスCiとクラスCjがある場合は、クラスCiとクラスCjとを併合して、新たなクラスCk′とする処理を行う。消失点同定部213は、この処理を、クラス数が一定値へ収束するまで繰り返すことにより、クラス数Kc(≦Kc′)を決定する。なお、消失点同定部213が交点の分布モデルの推定に用いる手法は、混合モデルなどのパラメトリックの推定手法に限定されず、Mean−shift法、K−means法、K最近傍探索法(近似K最近傍探索法)などのノンパラメトリックの推定手法であってもよい。
【0122】
(領域分割部303の変形例)
上記実施形態において、領域分割部303では、特徴量空間でのクラスタリングを行う場合について説明したが、本発明はこれに限らず、画像空間でのクラスタリングを行ってもよい。画像空間でのクラスタリングとは、特徴量空間に写像せず、元の画像空間において、画素間、または領域を構成する画素群(領域)間の類似度を基に、領域分割を実施する手法である。例えば、領域分割部303は、(a)画素結合法、(b)領域成長法(Region Growing法ともいう)、(c)領域分割統合法(Split&Merge法ともいう)の手法により、画像空間でのクラスタリングを行ってもよい。
【0123】
(顕著度算出部305の変形例)
上記実施形態において、顕著度算出部305が局所的な色差および大局的な色差に基づいて顕著度を算出する場合について説明したが、本発明はこれに限定されず、局所的な色差(式(21)中の第一項ΔElocal)、または、大局的な色差(式(21)中の第二項ΔEglobal)のいずれか一方の指標に基づいて顕著度を算出してもよい。また、赤−緑の知覚色度a*、黄−青の知覚色度b*を用いずに、明度指数であるL*のみを用いて色差を算出してもよい。この場合は、人の視覚特性において、明るさの対比(コントラスト差)が大きい箇所が誘目性の高いことを表す。また、局所的な色差ΔElocal、および大局的な色差ΔEglobalは、CIE方式に基づいて明度の差ΔL*、クロマの差ΔC*、色相の差ΔH*を用いて、それぞれ式(31)、式(32)によって求めてもよい(例えば、非特許文献4を参照)。
【0124】
【数31】

【数32】

【0125】
なお、式(31)の係数w(u,v)は、式(12)と同一である。また、式(31)および式(32)中の係数l、c、hは所定の重み係数である。また、顕著度の求め方は、色差に限定されず、色差、エッジ勾配、動きベクトルなど複数の画像特徴量に基づいて顕著度を算出してもよい(例えば、非特許文献5を参照)。
【0126】
(立体画像生成装置1の第一の変形例)
上記実施形態において、立体画像生成装置1のシーンチェンジ検出部10、消失点推定部20、及び奥行モデル生成部30で入出力の画像サイズは、入力画像F(t)と同一の画像サイズと仮定して説明してきたが、これに限定されない。例えば、演算量の低減、メモリサイズの低減を図るために、シーンチェンジ検出部10、消失点推定部20、及び奥行モデル生成部30に入力する画像を、予め所定の画像サイズへ縮小し、奥行モデル生成部30より出力される奥行モデルを入力画像サイズへ拡大する処理を追加して実施してもよい。つまり、立体画像生成装置1の第一の変形例(立体画像生成装置2)は、図29に示すように、縮小処理部50、シーンチェンジ検出部10、消失点推定部20、奥行モデル生成部30、拡大処理部60、視点画像生成部40によって構成される。縮小処理部50は、本発明の縮小画像生成手段に相当し、入力画像F(t)から所定の画像サイズの縮小画像を生成する。そして、生成された縮小画像は、消失点推定部20と奥行モデル生成部30に入力される。拡大処理部60は、本発明の拡大奥行モデル生成手段に相当し、奥行モデル生成部30により生成された縮小画像の奥行モデルから入力画像F(t)と同一画像サイズの拡大奥行モデルを生成する。
【0127】
上記立体画像生成装置2の動作例について、図30に基づいて説明する。なお、図29のシーンチェンジ検出部10、消失点推定部20、奥行モデル生成部30、及び視点画像生成部40の各動作(図30のステップS63、ステップS64、ステップS65、ステップS67)はそれぞれ前述の図1に示した立体画像生成装置1のシーンチェンジ検出部10、消失点推定部20、奥行モデル推定部30、及び視点画像生成部40の各動作(前述の図2のステップS12、ステップS13、ステップS14、ステップS15)と同一であるため説明を省略する。
【0128】
図30において、まず、図29の立体画像生成装置2は、入力された時刻tの画像を縮小処理部50、及び視点画像生成部40へ出力する(図30のステップS61)。
【0129】
図29の縮小処理部50は、入力された処理対象画像F(t)を予め定められた画像サイズへ縮小し、縮小画像Fd(t)をシーンチェンジ検出部10、消失点推定部20、及び奥行モデル生成部30へ出力する(図30のステップS62)。なお、画像の縮小は、例えば、ニアレストネイバ法、バイリニア法、バイキュービック法のいずれかの方法を用いて行う。
【0130】
図29の拡大処理部60は、入力された奥行モデルD(t)を入力画像F(t)の画像サイズへ拡大し、拡大奥行モデルDu(t)を視点画像生成部40へ出力する(図30のステップS66)。なお、奥行モデルの拡大は、例えば、ニアレストネイバ法、バイリニア法、バイキュービック法のいずれかを用いて行う。
【0131】
上記立体画像生成装置2によれば、入力画像より小さい画像サイズの縮小画像を用いてシーンチェンジ検出処理、消失点推定処理、奥行モデル生成処理を行うため、図1の立体画像生成装置1に比べて、メモリサイズの低減、演算量の低減を図ることができる。
【0132】
(立体画像生成装置1の第二の変形例)
上記実施形態において、立体画像生成装置1では、幾何的な奥行手掛かりにより消失点位置を推定できる場合は、消失点に基づき画像の奥行モデルを生成し、幾何的な奥行手掛かりにより消失点位置を推定できない場合は、人の視覚特性に基づいた画像内の誘目性を表す顕著度に基づいて画像の奥行モデルを生成している。そのため、奥行モデル生成手段が切り替わる前後のフレームにおいて、時間方向に奥行モデルが異なるため、視差(奥行)の変化が大きくなると考えられる。また、同様にシーンチェンジが発生する前後のフレームにおいても、時間方向に奥行モデルが異なるため、視差(奥行)の変化が大きくなると考えられる。そこで、立体画像生成装置1の第二の変形例(図31の立体画像生成装置3)では、時間方向の視差の変化を低減するために、奥行モデルを時空間方向に平滑化する時空間方向平滑化部70を、奥行モデル生成部30と視点画像生成部40の間に設ける。つまり、立体画像生成装置3は、図31に示すように、シーンチェンジ検出部10、消失点推定部20、奥行モデル生成部30、時空間方向平滑化部70、及び視点画像生成部40によって構成される。この時空間方向平滑化部70は、本発明の時空間方向平滑化手段に相当し、図32に示すように、空間方向平滑化部701、時間方向平滑化部702、及びバッファ703によって構成される。時空間方向平滑部70は、奥行モデル生成部30により生成した処理対象画像F(t)の奥行モデルD(t)を空間方向に平滑化し、空間方向に平滑化された画像F(t)の奥行モデルDs(t)と、画像F(t)よりも過去の比較対象画像F(t−1)の時空間方向に平滑化された奥行モデルDt(t−1)とに基づいて、画像F(t)の奥行モデルDs(t)を時間方向に平滑化し、画像F(t)の時空間方向に平滑化された奥行モデルDt(t)を生成する。
【0133】
上記立体画像生成装置3の動作例について、図33、図34に基づいて説明する。なお、図31のシーンチェンジ検出部10、消失点推定部20、奥行モデル生成部30、及び視点画像生成部40の各動作(図33のステップS72、ステップS73、ステップS74、ステップS76)はそれぞれ前述の図1に示した立体画像生成装置1のシーンチェンジ検出部10、消失点推定部20、奥行モデル推定部30、及び視点画像生成部40の各動作(前述の図2のステップS12、ステップS13、ステップS14、ステップS15)と同一であるため説明を省略する。
【0134】
(時空間方向平滑化部70について)
図31の時空間方向平滑化部70は、入力された処理対象画像F(t)の奥行モデルD(t)に関して、時空間方向に平滑化処理を行い、その結果(平滑化奥行モデルDt(t)を出力する(図33のステップS75)。
【0135】
具体的には、図32の空間方向平滑部701は、水平方向、垂直方向、または垂直方向、水平方向の順に1次元の平滑化フィルタにより空間方向に奥行モデルD(t)を平滑化し、その結果(奥行モデルDs(t))を時間方向平滑部702へ出力する(図34のステップS81)。なお、1次元の平滑化フィルタは、例えば、1次元のガウシアンフィルタを用いる。
【0136】
図32の時間方向平滑部702は、入力された空間方向に平滑化された奥行モデルDs(t)と、バッファ703に記憶された前フレームの平滑化奥行モデルDt(t−1)とに基づいて、下記の式(33)により平滑化奥行モデルDt(t)を生成し、その結果をバッファ703、及び外部へ出力する(図34のステップS82)。なお、式(33)中の係数αは、0〜1の間の所定の値である。
【0137】
【数33】

【0138】
図32のバッファ703は、前フレームの平滑化奥行モデルDt(t−1)を削除し、入力された現フレームの平滑化奥行モデルDt(t)を記憶する(図34のステップS83)。
【0139】
上記立体画像生成装置3によれば、時空間方向に奥行モデルを平滑化することにより、奥行モデル生成手段が切り替わる前後のフレーム、及びシーンチェンジが発生する前後のフレームにおいて、視差(奥行)の変化を低減することができる。
【0140】
以上、本発明に係る立体画像生成装置の各実施形態を中心に説明してきたが、本発明は、立体画像生成装置1による立体画像生成方法の形態とすることもできる。また、この立体画像生成方法をコンピュータに実行させるためのプログラムの形態としてもよい。
【0141】
つまり、上述した実施形態における立体画像生成装置1の一部をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、立体画像生成装置1に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
【0142】
また、上述した実施形態における立体画像生成装置1の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。立体画像生成装置1の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
【0143】
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
【符号の説明】
【0144】
1、2、3…立体画像生成装置、10…シーンチェンジ検出部、20…消失点推定部、21…フレーム内消失点推定部、22…フレーム間消失点推定部、30…奥行モデル生成部、40…視点画像生成部、50…縮小処理部、60…拡大処理部、70…時空間方向平滑化部、101…輝度ヒストグラム生成部、102,203,204、703…バッファ、103…ヒストグラム類似度算出部、104…シーンチェンジ判定部、201,202,301,302…切替部、211…エッジ検出部、212…直線検出部、213…消失点同定部、221…特徴点検出部、222…対応点算出部、223…変換行列算出部、224…消失点位置算出部、303…領域分割部、304…距離算出部、305…顕著度算出部、306…奥行値設定部、401…視差ベクトル算出部、402…テクスチャシフト部、403…ギャップフィリング部、404…フローティングウィンドウ重畳部、701…空間方向平滑部、702…時間方向平滑化部。

【特許請求の範囲】
【請求項1】
2D画像に両眼立体情報を付加し、3D画像を生成する立体画像生成装置であって、
処理対象画像から消失点を推定する消失点推定手段と、
該消失点推定手段により消失点が推定できたか否かに基づいて異なる奥行モデルを生成する奥行モデル生成手段と、
該奥行モデル生成手段により生成した奥行モデルと前記処理対象画像と想定視聴条件情報とに基づいて、右眼提示画像と左眼提示画像を生成する視点画像生成手段とを備え、
前記奥行モデル生成手段は、前記消失点推定手段により消失点が推定できた場合、前記消失点に基づいて奥行モデルを生成し、また、前記消失点推定手段により消失点が推定できなかった場合、前記処理対象画像内の各画素の顕著度に基づいて奥行モデルを生成することを特徴とする立体画像生成装置。
【請求項2】
処理対象画像から所定の画像サイズの縮小画像を生成する縮小画像生成手段を備え、
前記縮小画像を、前記消失点推定手段と前記奥行モデル生成手段の入力とし、該奥行モデル生成手段により生成した前記縮小画像の奥行モデルから前記処理対象画像と同一画像サイズの拡大奥行モデルを生成する拡大奥行モデル生成手段を備えることを特徴とする請求項1に記載の立体画像生成装置。
【請求項3】
前記奥行モデル生成手段により生成した処理対象画像の奥行モデルを空間方向に平滑化し、該空間方向に平滑化された前記処理対象画像の奥行モデルと、該処理対象画像よりも過去の比較対象画像の時空間方向に平滑化された奥行モデルとに基づいて、前記処理対象画像の奥行モデルを時間方向に平滑化し、前記処理対象画像の時空間方向に平滑化された奥行モデルを生成する時空間方向平滑化手段を備えることを特徴とする請求項1に記載の立体画像生成装置。
【請求項4】
前記想定視聴条件情報は、前記3D画像を表示するディスプレイの画素ピッチ、該ディスプレイの画像サイズ、視聴者から前記ディスプレイまでの距離、前記3D画像の奥行量を表す視差範囲、左右の仮想視点間の距離である基線長を含むことを特徴とする請求項1〜3のいずれか1項に記載の立体画像生成装置。
【請求項5】
前記処理対象画像内の各画素の顕著度は、注目画素とその周辺画素との色差が大きい箇所、あるいは、注目画素と画像全体との色差が大きい箇所、あるいは、注目画素を含む局所領域とその周辺領域との色差が大きい箇所ほど高く算出されることを特徴とする請求項1〜4のいずれか1項に記載の立体画像生成装置。
【請求項6】
前記奥行モデル生成手段は、前記消失点推定手段により消失点が推定できなかった場合、前記処理対象画像内の各画素の顕著度が高い箇所が手前側になるように奥行モデルを生成することを特徴とする請求項5に記載の立体画像生成装置。
【請求項7】
前記消失点推定手段は、前記処理対象画像内の直線情報から該処理対象画像の消失点を推定するフレーム内消失点推定手段と、前記処理対象画像と該処理対象画像よりも過去の比較対象画像と該比較対象画像における消失点の位置とに基づいて、前記処理対象画像の消失点を推定するフレーム間消失点推定手段とを備えることを特徴とする請求項1〜6のいずれか1項に記載の立体画像生成装置。
【請求項8】
前記処理対象画像と前記比較対象画像との間でシーンチェンジがあったか否かを検出するシーンチェンジ検出手段を備え、該シーンチェンジ検出手段によりシーンチェンジが検出された場合、前記フレーム内消失点推定手段が選択され、前記シーンチェンジ検出手段によりシーンチェンジが検出されない場合、前記フレーム間消失点推定手段が選択されることを特徴とする請求項7に記載の立体画像生成装置。
【請求項9】
前記比較対象画像の消失点の位置を含む消失点情報を記憶する記憶手段を備え、該記憶手段に前記比較対象画像の消失点情報が記憶されている場合、前記フレーム間消失点推定手段が選択され、前記記憶手段に前記比較対象画像の消失点情報が記憶されていない場合、前記フレーム内消失点推定手段が選択されることを特徴とする請求項8に記載の立体画像生成装置。
【請求項10】
前記比較対象画像は、前記処理対象画像の1つ前の画像であることを特徴とする請求項7〜9のいずれか1項に記載の立体画像生成装置。
【請求項11】
2D画像に両眼立体情報を付加し、3D画像を生成する立体画像生成装置による立体画像生成方法であって、
前記立体画像生成装置が、処理対象画像から消失点を推定する消失点推定ステップと、
該消失点推定ステップにて消失点が推定できたか否かに基づいて異なる奥行モデルを生成する奥行モデル生成ステップと、
該奥行モデル生成ステップにて生成した奥行モデルと前記処理対象画像と想定視聴条件情報とに基づいて、右眼提示画像と左眼提示画像を生成する視点画像生成ステップとを備え、
前記奥行モデル生成ステップは、前記消失点推定ステップにて消失点が推定できた場合、前記消失点に基づいて奥行モデルを生成し、また、前記消失点推定ステップにて消失点が推定できなかった場合、前記処理対象画像内の各画素の顕著度に基づいて奥行モデルを生成することを特徴とする立体画像生成方法。
【請求項12】
コンピュータに、請求項11に記載の立体画像生成方法を実行させるためのプログラム。
【請求項13】
請求項12に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26】
image rotate

【図27】
image rotate

【図28】
image rotate

【図29】
image rotate

【図30】
image rotate

【図31】
image rotate

【図32】
image rotate

【図33】
image rotate

【図34】
image rotate


【公開番号】特開2013−5025(P2013−5025A)
【公開日】平成25年1月7日(2013.1.7)
【国際特許分類】
【出願番号】特願2011−131255(P2011−131255)
【出願日】平成23年6月13日(2011.6.13)
【出願人】(000005049)シャープ株式会社 (33,933)
【Fターム(参考)】