多視点画像符号化装置、多視点画像復号装置、多視点画像符号化方法及び多視点画像復号方法
【課題】符号化時に奥行き画像を用いず、処理コストが増加しない。
【解決手段】第1の視点の画像である第1視点画像と第2の視点の画像である第2視点画像との間で、画像領域単位毎に視差情報を生成する視差情報生成部と、前記第2視点画像を、異なるフレームの第2視点画像との間で視点内予測符号化して第1のデータを生成する視点内予測符号化部と、前記視差情報に基づいて前記第1視点画像との間で視点間予測符号化して第2のデータを生成する視点間予測符号化部と、を備える。
【解決手段】第1の視点の画像である第1視点画像と第2の視点の画像である第2視点画像との間で、画像領域単位毎に視差情報を生成する視差情報生成部と、前記第2視点画像を、異なるフレームの第2視点画像との間で視点内予測符号化して第1のデータを生成する視点内予測符号化部と、前記視差情報に基づいて前記第1視点画像との間で視点間予測符号化して第2のデータを生成する視点間予測符号化部と、を備える。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化方法及び多視点画像復号方法に関する。
【背景技術】
【0002】
近年、立体画像ディスプレイ及び立体画像コンテンツの普及が進みつつある。立体画像ディスプレイでは、2眼式の立体画像ディスプレイが広く用いられている。2眼式の立体画像ディスプレイの方式の一つにアクティブシャッター方式がある。アクティブシャッター方式の立体画像ディスプレイは、左眼用画像と右眼用画像を時分割で交互にスクリーンに表示させる。一方、観賞者が装着する液晶シャッターメガネは、左眼と右眼に対応したシャッターを、それぞれ左眼用画像、右眼用画像を表示するタイミングに同期させて開閉する。これにより、左眼は左眼用画像のみ、右眼は右眼用画像のみを見ることが可能となる。その結果、鑑賞者は、ディスプレイに表示された画像について立体感を知覚することができる。
【0003】
立体画像を表示・鑑賞するためには、上記の通り左眼用と右眼用の2視点分の画像データが必要になる。従って、立体画像の画像データは、従来の平面画像の画像データと比べると情報量が約2倍に増加する。これを効率よく圧縮・記録するための符号化方式として、国際標準であるITU−T H.264、及びAdvanced Video Coding(ISO/IEC 14496−10)のAnnex Hとして、Multi−view Video Coding(以下、MVCと記す)が規定されている。MVCは、多視点の動画像を効率よく圧縮するための符号化方式である。MVCは、例えば3D(3次元;three dimension)映画などの立体映像をBlu−ray Discに格納する際の符号化方式として採用されている。
【0004】
上記のような、左眼用画像と右眼用画像の2視点の画像を表示する2眼式の立体画像ディスプレイの普及が進む一方で、多眼式の立体画像ディスプレイの普及も期待されている。多眼式の立体画像ディスプレイは、スクリーン面から発する光の方向を制御するための光学的な機構を備える。多眼式の立体画像ディスプレイは、この機構により、左眼用画像を左眼にのみ、右眼用画像を右眼にのみ見せる。そのため、多眼式の立体画像ディスプレイでは、アクティブシャッター方式で使用するようなメガネは不要となる。さらに、多眼式の立体画像ディスプレイでは、2視点を超える視点数での画像表示、すなわち観賞位置の移動に伴う観賞画像の変化を再現させることも可能となる。このような光学的な機構の例としてはパララクスバリアやレンティキュラレンズなどがある。これらの機構では、その構造と加工の精細度により、観賞可能な視点数が決定される。現状では、5視点や8視点などの多眼式立体画像ディスプレイが実用化されている。
【0005】
多眼式の立体画像ディスプレイを使用すると、視点が2視点に限定されないため、立体画像の観賞における自由度や自然さが向上するという利点がある。しかし一方で、視点数が増えることによって、必要となる画像のデータ量が増加するため、記録や伝送にかかるコストが増大するという問題がある。
【0006】
この問題に対して、特許文献1では、複数の視点画像を符号化すると共に、複数の視点画像から生成した奥行き情報も符号化し、両者を含む符号化ストリームを生成する画像符号化装置が開示されている。奥行き画像を利用することで、入力された視点画像から、入力にない仮想視点の画像を生成することができるため、多視点画像を効率よく伝送または蓄積することができる。
ここで、特許文献1記載の技術では、視差補償予測符号化方式が利用されている。視差補償予測符号化方式は、撮影視点が異なることにより生じる視差を画像から抽出し、視差を補償して予測符号化を行うものである。視差補償予測符号化方式は、前述のMVCでも導入されている技術である。
【0007】
視差補償予測符号化方式における視差の抽出は、ブロックマッチングにより行われる。ブロックマッチングとは、対象画像を所定サイズで分割したブロックごとに、参照画像との比較で最も一致度の高いブロックを探索する処理である。特許文献2には、ブロックマッチングを複数画像間に適用して視差ベクトルを検出する符号化方式が開示されている。
【先行技術文献】
【特許文献】
【0008】
【特許文献1】特開2010−157823号公報
【特許文献2】特開平6−98312号公報
【発明の概要】
【発明が解決しようとする課題】
【0009】
しかしながら、奥行き情報は符号化装置において常に利用可能であるとは限らない。符号化装置において奥行き情報が利用できない場合、特に処理能力の低い符号化装置では、奥行き画像を生成するための演算処理の負荷が大きくなる。その結果、画像符号化のリアルタイム処理が困難となる。奥行き画像が予め用意される場合であっても、奥行き画像を格納するためのメモリ空き容量を確保する必要があるため、特に小型の端末にとってはコスト増加の一因となる。また、複数の視点画像に加えて奥行き画像も符号化・伝送するため、伝送回線の帯域が充分確保できない場合に、データ伝送の遅延やそれに伴う待ち時間の増加などを生じ、サービスの使い勝手の低下を招くことになる。
つまり、符号化時に奥行き画像を用いると、処理コストが増加するという問題があった。
【0010】
本発明は、上記の問題点に鑑みてなされたものであり、符号化時に奥行き画像を用いず、処理コストが増加しない多視点画像符号化装置、多視点画像復号装置、多視点画像符号化方法及び多視点画像復号方法を提供する。
【課題を解決するための手段】
【0011】
(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、第1の視点の画像である第1視点画像と第2の視点の画像である第2視点画像との間で、画像領域単位毎に視差情報を生成する視差情報生成部と、前記第2視点画像を、異なるフレームの第2視点画像との間で視点内予測符号化して第1のデータを生成する視点内予測符号化部と、前記視差情報に基づいて前記第1視点画像との間で視点間予測符号化して第2のデータを生成する視点間予測符号化部と、を備えることを特徴とする多視点画像符号化装置である。
【0012】
(2)また、本発明の一態様は、上記の多視点画像符号化装置において、第1のデータと第2のデータのデータ量に関する情報に基づいて、前記画像領域毎に前記第1の符号化データ又は前記第2の符号化データのいずれかを、当該画像領域の符号化データとして選択する符号化データ生成部を備えることを特徴とする。
【0013】
(3)また、本発明の一態様は、上記の多視点画像符号化装置において、前記画像領域の符号化データには、当該領域の視差情報が含まれることを特徴とする。
【0014】
(4)また、本発明の一態様は、上記の多視点画像符号化装置において、前記符号化データ生成部は、前記視差情報を符号化して符号化視差情報を生成し、前記符号化データと前記符号化視差情報を出力することを特徴とする。
【0015】
(5)また、本発明の一態様は、上記の多視点画像符号化装置において、前記第1のデータ及び前記第2のデータは、前記画像領域毎に生成され、前記第1のデータ及び前記第2のデータに前記視差情報が含まれないことを特徴とする。
【0016】
(6)また、本発明の一態様は、符号化された第1視点画像を復号する第1視点画像復号部と、符号化された第2視点画像を復号すると共に、第1視点画像と第2視点画像間の視差情報を抽出する第2視点画像復号部と、前記第2視点画像復号部によって抽出された視差情報に基づいて奥行き画像を生成する奥行き画像生成部と、を備えることを特徴とする多視点画像復号装置である。
【0017】
(7)また、本発明の一態様は、上記の多視点画像復号装置において、前記奥行き画像生成部は、
前記視差情報と、前記第1の視点に配置された第1撮像部と前記第2の視点に配置された第2撮像部との間の撮像部間距離、及び前記第1撮像部及び第2撮像部と被写体との間の撮影距離とに基づいて、画像領域単位の代表奥行き値を算出する代表奥行き値算出部と、複数の前記代表奥行き値に基づいて補間を行うことにより、奥行き画像を生成する奥行きマッピング部と、を備えることを特徴とする。
【0018】
(8)また、本発明の一態様は、多視点画像符号化装置における方法であって、視差情報生成部が、第1の視点の画像である第1視点画像と第2の視点の画像である第2視点画像との間で、画像領域単位毎に視差情報を生成する視差情報生成過程と、視点内予測符号化部が、前記第2視点画像を、異なるフレームの第2視点画像との間で視点内予測符号化して第1の符号化データを生成する視点内予測符号化過程と、前記視差情報に基づいて前記第1視点画像との間で視点間予測符号化して第2の符号化データを生成する視点間予測符号化過程と、を備えることを特徴とする多視点画像符号化方法である。
【0019】
(9)また、本発明の一態様は、多視点画像復号装置における方法であって、第1視点画像復号部が、符号化された第1視点画像を復号する第1視点画像復号過程と、第2視点画像復号部が、符号化された第2視点画像を復号すると共に、第1視点画像と第2視点画像間の視差情報を抽出する第2視点画像復号過程と、奥行き画像生成部が、前記第2視点画像復号部によって抽出された視差情報に基づいて奥行き画像を生成する奥行き画像生成過程と、を備えることを特徴とする多視点画像復号方法である。
【発明の効果】
【0020】
本発明によれば、符号化時に奥行き画像を用いず、処理コストが増加しない。
【図面の簡単な説明】
【0021】
【図1】本発明の第1の実施形態に係る多視点画像符号化システムを示す概念図である。
【図2】本実施形態に係る多視点画像符号化装置の構成を示す概略ブロック図である。
【図3】本実施形態に係る視差情報生成部の構成を示す概略ブロック図である。
【図4】本実施形態に係る多視点画像符号化装置の構成を示す概略ブロック図である。
【図5】本実施形態に係る非基準視点画像符号化部の構成を示す概略ブロック図である。
【図6】本実施形態に係る符号化データ生成部が生成する符号化データの構造の一例を示す図である。
【図7】本実施形態に係るスライスのデータ構成の例を説明する説明図である。
【図8】多視点画像符号化装置の内部処理手順を示すフローチャートである。
【図9】本実施形態に係る多視点画像復号装置の構成を示す概略ブロック図である。
【図10】本実施形態に係る非基準視点画像復号部の構成を示す概略ブロック図である。
【図11】本実施形態に係る奥行き画像生成部の構成を示す概略ブロック図である。
【図12】本実施形態に係る代表奥行き値算出部における代表奥行き値算出処理を説明する説明図である。
【図13】本実施形態に係る撮影距離を示す説明図である。
【図14】本実施形態に係る多視点画像復号装置の内部処理手順を示すフローチャートである。
【発明を実施するための形態】
【0022】
(第1の実施形態)
以下、図面を参照しながら本発明の第1の実施形態について詳しく説明する。図1は、本実施形態に係る多視点画像処理システムを示す概念図である。
図示する例では、多視点画像処理システムAは、撮像機器1及び表示機器2を具備する。
【0023】
撮像機器1は、複数の撮像部11−1(第1の視点)、11−2(第2の視点)を有する。撮像機器1は、撮像部11−1、11−2を用いて撮像し、それぞれ基準視点画像(第1視点画像)及び非基準視点画像(第2視点画像)を撮像する。撮像機器1は、撮像した基準視点画像及び非基準視点画像に基づいて、符号化ストリームを生成する。ここで、符号化ストリームとは、基準視点画像及び非基準視点画像を圧縮符号化した一連のデータ列を表す。
表示機器2は、撮像機器1で生成された符号化ストリームを復号し(解凍処理を含む)立体画像情報を生成する。表示機器2は、生成した立体画像情報が示す立体画像を表示部24に表示する。なお、図1では、撮像機器1は、小型のディジタルカメラに実装されており、2視点のものを示したが、本発明の実施形態は、これに限定されない。
【0024】
図2は、撮像機器1の構成を示す概略ブロック図である。撮像機器1は、撮像部11−1、11−2、撮影制御部12、多視点画像符号化装置13、通信部14を含んで構成される。
撮像部11−1、11−2は、画像を撮像する。撮像部11−1、11−2は、異なる視点から同一視野角内の画像を撮像する。撮像部11−1、11−2は、それぞれが異なる視点に対応する。基準視点は、多視点画像データを生成する際の基準となる視点であり、撮像部11−1が設けられた点である。非基準視点は、基準視点とは別の視点であり、撮像部11−2が設けられた点である。撮像部11−1、11−2は、撮影制御部12から焦点距離を設定され、設定された焦点距離となるようにレンズを調整する。撮像部11−1、11−2は、撮像した画像データを撮影制御部12に出力する。
【0025】
撮影制御部12は、撮像部11−1、11−2の各々から入力された画像データに基づいて、基準視点画像(第1視点画像)、非基準視点画像(第2視点画像)を生成する。ここで、基準視点画像とは、撮像部11−1が基準視点から撮像した画像である。非基準視点画像とは、撮像部11−2が非基準視点から撮像した画像である。
【0026】
撮影制御部12は、撮像部間距離Bや、焦点距離(撮影距離)L等を含む撮影条件情報を生成する。ここで、撮像部間距離Bとは、予め定められた撮像部11−1、11−2の間の距離である。また、焦点距離Lとは、撮影制御部12が設定した撮像部11−1、11−2と被写体との距離である。撮影制御部12は、基準視点画像、非基準視点画像、及び撮影条件情報を多視点画像符号化装置13に出力する。
【0027】
多視点画像符号化装置13は、撮影制御部12から入力された基準視点画像、非基準視点画像に基づいて、視差情報を生成する。多視点画像符号化装置13は、非基準視点画像を予め定めた大きさの画像領域単位毎に視点内予測符号化すると共に、視差情報に基づいて非基準視点画像と基準視点画像との間で視点間予測符号化する。多視点画像符号化装置13は、非基準視点画像を視点内予測符号化又は視点間予測符号化することにより符号化非基準視点画像を生成する。多視点画像符号化装置13は、基準視点画像及び撮影条件情報を符号化することにより、符号化基準視点画像、及び符号化撮影条件情報を生成する。符号化多視点画像符号化装置13は、符号化基準視点画像、符号化非基準視点画像、及び符号化撮影条件情報を通信部14に出力する。なお、多視点画像符号化装置13の詳細については後述する。
【0028】
通信部14は、多視点画像符号化装置13から入力された符号化基準視点画像、符号化非基準視点画像、及び符号化撮影条件情報を含む符号化ストリームを生成する。通信部14は、生成した符号化ストリームを表示機器2に送信する。
【0029】
図3は、表示機器2の構成を示す概略ブロック図である。表示機器2は、通信部21、多視点画像復号装置22、画像処理部23、及び表示部24を含んで構成される。
通信部21は、撮像機器1から送信された符号化ストリームを受信する。通信部21は、符号化ストリームから符号化基準視点画像、符号化非基準視点画像、及び符号化撮影条件情報を抽出する。通信部21は、抽出した符号化基準視点画像、符号化非基準視点画像、及び符号化撮影条件情報を多視点画像復号装置22に出力する。符号化ストリームの送信は、インターフェースを介する有線又は無線伝送手段により行う。無線による伝送には赤外線を用いるものを含む。
【0030】
多視点画像復号装置22は、通信部21から入力された符号化基準視点画像、符号化非基準視点画像、及び符号化撮影条件情報を復号し、基準視点画像、非基準視点画像、及び撮影条件情報を生成する。また、多視点画像復号装置22は、非基準視点画像及び撮影条件情報に基づいて非基準視点画像に対応する奥行き画像を生成する。多視点画像復号装置22は、生成した基準視点画像、非基準視点画像、奥行き画像、及び撮影条件情報を画像処理部23に出力する。なお、多視点画像復号装置22の詳細については後述する。
【0031】
画像処理部23は、多視点画像復号装置22から入力された基準視点画像、非基準視点画像、奥行き画像、及び撮影条件情報に基づいて、表示部24に表示させる立体画像情報を生成する。立体画像情報を生成する際、画像処理部23は、図示しない操作手段や制御手段からの指示に応じて、基準視点画像や非基準視点画像とは異なる視点に対応する仮想視点画像を生成する。仮想視点画像を生成する際は、奥行き画像を利用して、基準視点画像および非基準視点画像の各画素値に基づいて仮想視点画像を生成する。画像処理部23は、基準視点画像、非基準視点画像、生成した仮想視点画像から、2視点以上の画像を含んで構成される立体画像情報を生成し、生成した立体画像情報を表示部24に出力する。
表示部24は、画像処理部23から入力された立体画像情報に基づいて、立体画像を表示面に表示する。
【0032】
図4は、本実施形態に係る多視点画像符号化装置13の構成を示す概略ブロック図である。
多視点画像符号化装置13は、視点画像符号化部13A及び撮影条件情報符号化部134を含んで構成される。
視点画像符号化部13Aは、撮影制御部12から入力された基準視点画像及び非基準視点画像を含む多視点画像を符号化する。この際、視点画像符号化部13Aは、基準視点画像及び非基準視点画像を符号化単位領域毎に符号化する。ここで、符号化単位領域とは、基準視点画像及び非基準視点画像を分割した領域である。また、符号化単位領域とは、例えば8X8画素から構成される単位に分割した矩形の領域のことである。基準視点画像及び非基準視点画像は、複数の符号化単位領域の組み合わせで構成される。視点画像符号化部13Aは、符号化基準視点画像、及び符号化非基準視点画像を通信部14に出力する。
撮影条件情報符号化部134は、撮影制御部12から入力された撮影条件情報を符号化し、符号化撮影条件情報を生成する。撮影条件情報符号化部134は、生成した符号化撮影条件情報を通信部14に出力する。
【0033】
視点画像符号化部13Aは、基準視点画像符号化部131、視差情報生成部132、及び非基準視点画像符号化部133を含んで構成される。
基準視点画像符号化部131は、撮影制御部12から入力された基準視点画像を符号化単位領域毎に圧縮符号化する。基準視点画像符号化部131は、基準視点画像を視点内予測符号化方式により圧縮符号化し、符号化基準視点画像を生成する。ここで、視点内予測符号化方式とは、単一視点の画像データのみに基づいて画像データを圧縮符号化する符号化方式である。視点内予測符号化方式では、画面内予測及び動き補償・予測を行って画像データを圧縮符号化する。基準視点画像符号化部131は、圧縮符号化した符号化基準視点画像(第1の符号化データ)を復号して基準視点画像を生成する。基準視点画像符号化部131は、生成した基準視点画像を非基準視点画像符号化部133に出力する。基準視点画像符号化部131は、生成した符号化基準視点画像を通信部14に出力する。
【0034】
視差情報生成部132は、撮影制御部12から入力された基準視点画像と非基準視点画像とに基づいて、基準視点画像と非基準視点画像との間の視差を示す視差情報を生成する。
具体的には、視差情報生成部132は、非基準視点画像内の対象ブロック(例えば8画素×8画素の画像ブロック)と最も類似度の高い基準視点画像内の画像ブロックを探索する(類似ブロック探索処理と呼ぶ)。類似ブロック探索処理は、例えば、ブロックマッチングにより行うことができる。視差情報生成部132は、類似ブロック探索処理を行った結果得られた、画像ブロックと対象ブロックとの間の画像上の距離(ベクトル)を算出する。
視差情報生成部132は、算出したベクトルの水平方向の成分を、前記2つの画像間の視差を表す視差情報として抽出する。視差情報生成部132は、抽出した視差情報を非基準視点画像符号化部133へ出力する。
【0035】
非基準視点画像符号化部133は、撮影制御部12から入力された非基準視点画像を符号化単位領域毎に圧縮符号化する。非基準視点画像符号化部133は、非基準視点画像を、基準視点画像符号化部131から入力された基準視点画像を参照して視点間予測符号化方式により圧縮符号化する。ここで、視点間予測符号化方式とは、ある視点(ここでは、非基準視点)から撮像した画像データを、別の視点(ここでは、基準視点)から撮像した画像データを参照して圧縮符号化する符号化方式である。視点間予測符号化方式では、視差補償・予測を行って画像データを圧縮符号化する。非基準視点画像符号化部133は、視差補償・予測を行う際に、後述するように、視差情報生成部132から入力される視差情報を用いて視差補償・予測を行う。非基準視点画像符号化部133は、生成した符号化非基準視点画像(第2の符号化データ)を通信部14に出力する。
【0036】
図5は、非基準視点画像符号化部133の構成を示す概略ブロック図である。
非基準視点画像符号化部133は、視点内予測符号化部1331、視点間予測符号化部1332、及び符号化データ生成部1333を含んで構成される。
視点内予測符号化部1331は、撮影制御部12から入力された非基準視点画像に基づいて、同一視点内で動き補償・予測を行う。具体的には、視点内予測符号化部1331は、処理対象のブロックにおける非基準視点画像の画素値を抽出する。視点内予測符号化部1331は、その内部に記録した過去の非基準視点画像の対応する処理対象のブロックの画素値を抽出する。
【0037】
視点内予測符号化部1331は、抽出するブロックを1画素ずつ移動させながら、現在の非基準視点画像の画素値から、抽出した過去の非基準視点画像の画素値を減算した値を計算する。視点内予測符号化部1331は、計算した値が最も小さくなるブロックの移動量である(視点内予測情報)を決定する。視点内予測符号化部1331は、探索した結果に基づいて、現在の非基準視点画像の画素値から、抽出した過去の非基準視点画像の画素値を減算した値(視点内残差画像ブロックと呼ぶ)を生成する。なお、視点内残差画像ブロックを生成する際には、過去だけでなく、未来の画像(時間的に後に入力される非基準視点画像)を参照して計算してもよい。また、視点内予測符号化部1331は、同一視点内での動き補償・予測の他に、同一画像内での画面内予測によって視点内残差画像ブロックを生成してもよい。視点内予測符号化部1331は、生成した視点内残差画像ブロックを離散コサイン変換(Discrete Cosine Transform;DCT)、及び量子化することで、視点内予測誤差を生成する。視点内予測符号化部1331は、視点内予測誤差及びそれに対応する視点内予測情報を符号化データ生成部1333に出力する。
【0038】
視点間予測符号化部1332は、基準視点画像符号化部131から入力された基準視点画像、撮影制御部12から入力された非基準視点画像、及び視差情報生成部132から入力された視差情報に基づいて、視点間で視差補償・予測を行う。具体的には、視点間予測符号化部1332は、処理対象のブロックにおける非基準視点画像の画素値を抽出する。視点間予測符号化部1332は、処理対象のブロックにおける視差情報であって、視差情報生成部132から入力された視差情報が示すブロックにおいて、基準視点画像の画素値を抽出する。視点間予測符号化部1332は、抽出した非基準視点画像の画素値から、抽出した基準視点画像の画素値を減算する。視点間予測符号化部1332は、以上の処理の結果、処理対象ブロックに対応する減算後の画素値で構成される画像ブロックである視点間残差画像ブロックを生成する。
【0039】
なお、視点間予測符号化部1332は、残差画像ブロックの生成を行う際の基準視点画像として、基準視点画像符号化部131によって一度符号化し、その後復号された基準視点画像を使用する。これは、復号装置側での視差補償の結果を符号化装置における結果と一致させ、符号化誤差の伝播による符号化画像の品質劣化を回避するためである。
視点間予測符号化部1332は、生成した視点間残差画像ブロックを離散コサイン変換(Discrete Cosine Transform;DCT)、及び量子化することで、視点間予測誤差を生成する。視点間予測符号化部1332は、生成した視点間予測誤差を符号化データ生成部1333に出力する。
【0040】
符号化データ生成部1333は、視点内予測符号化部1331から入力された視点内予測誤差及び視点間予測符号化部1332から入力された視点間予測誤差に基づいて、符号化データを生成する。具体的には、符号化データ生成部1333は、視点内予測誤差と視点間予測誤差のうち、符号量が少ないと判定した予測誤差を選択する。符号化データ生成部1333は、選択した予測誤差、視差情報(視点間符号化の場合)、視点内動きベクトル(視点内符号化の場合)、及び符号化タイプ情報を含む符号化非基準視点画像を生成する。ここで、符号化タイプ情報とは、符号量が少ないと判定して選択した予測誤差を生成する際に用いた符号化方法を示す情報であり、視点内予測符号化又は視点間予測符号化のいずれかを示す。また、符号化データ生成部1333は、視差情報生成部132から入力された視差情報を符号化して符号化視差情報を生成する。符号化データ生成部1333は、生成した符号化非基準視点画像(符号化視差情報を含む)を通信部14へ出力する。
【0041】
図6は、符号化データ生成部1333が生成する符号化非基準視点画像の構造の一例を示す図である。図示する例では、画像(ピクチャ)P1は、撮像部11−1、又は11−2が撮像した画像である。ピクチャP1は、16画素×16画素で構成される画像領域(マクロブロックと呼ぶ)の集合として表されている。マクロブロックを一次元方向(例えばX方向)に複数連結したものをスライスと呼ぶ。図示する例では、スライスs1が、符号s1を付したピクチャP1内の画像領域に対応する。
【0042】
符号s1を付したスライスは、マクロブロックB1、B2、B3、・・・を含んでいる。符号S1を付した符号化データは、スライスs1に対応する符号化データであり、ヘッダH1に続いてマクロブロックB1の符号化データ(B11、B12、B13)、マクロブロックB2の符号化データ(B21、B22、B23)、・・・が連続して構成されている。各マクロブロックの符号化データは、3つのサブデータから構成される。第1のサブデータは符号化タイプ(視点内予測/視点間予測)を示す情報である。視点内予測は、より詳細には画面内予測と動き予測に分けられるが、ここでは説明を簡便にするため、両者を包含する符号化タイプとして視点内予測と記す。第2のサブデータは予測情報(動きベクトル/視差情報)である。第3のサブデータは予測誤差(視点内/視点間)を示すデータである。マクロブロックの符号化データは、上記の3種のサブデータから構成される。
【0043】
マクロブロックの符号化データは、第1のサブデータ、第2のサブデータ、第3のサブデータの順に並んで構成されている。例えば、マクロブロックB1に対応する符号化データは、符号B11を付した符号化タイプ情報(視点内予測)、符号B12を付した予測情報(視点内)、符号B13を付した予測誤差(視点内)の順に並んで構成される。マクロブロックB2に対応する符号化データは、符号B21を付した符号化タイプ情報(視点間予測)、符号B22を付した予測情報(視差情報)、符号B23を付した予測誤差(視点間)の順に並んで構成される。なお、上記B1を符号化した際の視点内予測が画面内予測(動き予測を用いない)の場合など、予測情報(動きベクトル)に該当する情報が生成されない場合は、予測情報B12は省略される。すなわち、上記第2のサブデータは符号化データに含まれない場合もある。
【0044】
符号化データ生成部1333は、上記の符号化データの他に、符号P2を付した符号化視差情報(第2符号化データ)を生成する。ここで、符号化視差情報とは、視差情報を1ピクチャ分連結させた視差マップの符号化データであり、符号化ブロック毎の視差情報(v1、v2、v3・・・と呼ぶ)からなる符号化データである。
【0045】
図7は、スライスのデータ構成の例を説明する説明図である。スライスに対応する符号化データは、例えば、図7(a)〜(c)に示す構造をとり得る。なお、図7(a)〜(c)では、図6で示したヘッダは省略してある。図7(a)〜(c)全てに共通して、先頭のマクロブロックは視点内予測符号化された符号化データ、2番目に続くマクロブロックは視点間予測符号化された符号化データでそれぞれ構成された符号化データの例を示している。
図7(a)は、本実施形態における符号化データaを示す。符号化データaには、非基準視点画像のマクロブロック符号化データB1aの中に符号B11aを付した符号化タイプ(視点内予測)、符号B12aを付した符号化単位領域毎の視差情報、符号B13aを付した視点内予測情報(視点内動きベクトル)、及び符号B14aを付した視点内予測誤差が含まれる。符号化データaには、それに続いて、符号B21aを付した符号化タイプ(視点間予測)、B22aを付した符号化単位領域毎の視差情報、及び符号B23aを付した視点間予測誤差が含まれる。符号化データaを受信した表示機器2は、符号化データaがマクロブロック毎に視差情報を含んでいるため、受信した符号化データをマクロブロック毎に復号しながら、マクロブロック毎の視差情報を逐次抽出・復号することができる。
【0046】
図7(b)は、非基準視点画像のスライスの符号化データbとスライスが含まれるピクチャの視差情報P2を別のデータとしたデータ構造の例である。非基準視点画像のマクロブロック符号化データB1bには、符号B11bを付した符号化タイプ(視点内予測)、符号B12bを付した視点内予測情報(視点内動きベクトル)、符号B13bを付した視点内予測誤差が含まれる。それに続いて、符号B21bを付した符号化タイプ(視点間予測)、符号B22bを付した視差情報(視点間視差ベクトル)、符号B23bを付した視点間予測誤差が含まれる。視差情報はさらに、符号P2を付した符号化視差情報として独立したデータを構成する。
このように構成した非基準視点画像符号化データbは、例えばMVCのような従来の符号化方式で規定される符号化データ構造との互換性があり、既存の復号装置で復号することが可能である。
【0047】
図7(c)は、非基準視点画像のスライスの符号化データcとスライスが含まれるピクチャの視差情報P2を別のデータ単位とした図7(b)とは別のデータ構造の例である。非基準視点画像のマクロブロック符号化データB1cには、符号B11cを付した符号化タイプ(視点内予測)、符号B12cを付した視点内予測情報(視点内動きベクトル)、符号B13cを付した視点内予測誤差が含まれる。それに続いて、符号B21cを付した符号化タイプ(視点間予測)、符号B21cを付した視点間予測誤差が含まれる。一方視差情報は、符号P2を付した符号化視差情報として独立したデータを構成する。
【0048】
このように構成された非基準視点画像の符号化データcは、視点内予測符号化で符号化されたマクロブロックに関しては、画像を復元するために必要な情報が、非基準視点画像の符号化データcの中に全て含まれる。一方、視点間予測符号化で符号化されたマクロブロックに関しては、画像を復元するために必要な視差情報が、非基準視点画像の符号化データcの中には含まれない。従って、視点間予測符号化されたマクロブロックを復号する際には、一旦、視差情報P2(視差マップ)から該当位置の視差情報v1、v2…を抽出した後で、視差補償を含めた復号処理を行う必要がある。一方、符号化データbの構造と比べると、非基準視点画像の符号化データcに視差情報が含まれない分、伝送する符号量を削減できる。
【0049】
図8は、本実施形態に係る多視点画像符号化装置13の内部処理手順を示すフローチャートである。
まず、基準視点画像、非基準視点画像、撮影条件情報が入力される(ステップS01)。各入力データは、各処理部において次の通り処理される。
基準視点画像符号化部131は、入力された基準視点画像を、視点内予測符号化により圧縮符号化する(ステップS02)。このとき、圧縮符号化された符号化基準視点画像は、非基準視点画像の符号化用に一旦復号し、基準視点画像として復元しておく。そして、符号化された基準視点画像データを、装置外部へ出力する(ステップS03)。
視差情報生成部132は、入力された基準視点画像および非基準視点画像に基づいて、基準視点画像と非基準視点画像間の視差情報を生成する(ステップS04)。
非基準視点画像符号化部133は、入力された非基準視点画像を、同一視点内の画像との間で視点内予測符号化して視点内予測符号化データを生成する(ステップS05)。また、非基準視点画像符号化部133は、基準視点画像符号化部から得られる復元された基準視点画像と、視差情報生成部132から得られる視差情報とに基づいて、入力された非基準視点画像を、基準視点画像との間で視点間予測符号化することにより圧縮符号化して視点間予測符号化データを生成する(ステップS06)。
さらに、非基準視点画像符号化部133は、生成した視点内予測符号化データと視点間予測符号化データのサイズを比較し、サイズの小さいデータを、符号化非基準視点画像データとして装置外部へ出力する(ステップS07、ステップS08)。
一方、撮影条件情報符号化部134は、入力された撮影条件情報を符号化し(ステップS09)、装置外部へ出力する(ステップS10)。
【0050】
図9は、多視点画像復号装置22の構成を示す概略ブロック図である。図示する例では、多視点画像復号装置22は、視点画像復号部22A、撮影条件情報復号部223、奥行き画像生成部224を含んで構成される。視点画像復号部22Aは、基準視点画像復号部221及び非基準視点画像復号部222を含んで構成される。
基準視点画像復号部221は、通信部21から入力された符号化基準視点画像を復号することで、基準視点画像を生成する。基準視点画像復号部221は、生成した基準視点画像を画像処理部23及び非基準視点画像復号部222に出力する。
【0051】
非基準視点画像復号部222は、基準視点画像復号部221から入力された基準視点画像及び通信部21から入力された符号化非基準視点画像に基づいて、非基準視点画像を生成する。非基準視点画像復号部222は、生成した非基準視点画像を画像処理部23に出力する。また、非基準視点画像復号部222は、符号化非基準視点画像に含まれる符号化視差情報を抽出する。非基準視点画像復号部222は、抽出した符号化視差情報を復号して視差情報を生成する。非基準視点画像復号部222は、生成した視差情報を奥行き画像生成部224に出力する。なお、非基準視点画像復号部の詳細については後述する。
撮影条件情報復号部223は、通信部21から入力された符号化撮影条件情報を復号し、撮影条件情報を生成する。撮影条件情報復号部223は、生成した撮影条件情報を奥行き画像生成部224及び画像処理部23に出力する。
【0052】
奥行き画像生成部224は、非基準視点画像復号部222から入力された視差情報及び撮影条件情報復号部223から入力された撮影条件情報に基づいて、非基準視点画像に対応する奥行き画像を生成する。奥行き画像の生成処理の詳細については後述する。
【0053】
(非基準視点画像復号部の構成)
図10は、非基準視点画像復号部222の構成を示す概略ブロック図である。非基準視点画像復号部222は、符号化データ判別部2221、視点内予測復号部2222、視点間予測復号部2223、及び切替部2221a、2221bを含んで構成される。
【0054】
符号化データ判別部2221は、通信部21から入力された符号化非基準視点画像から、第1のサブデータ、第2のサブデータ、第3のサブデータを抽出する。符号化データ判別部2221は、抽出した第1のサブデータが示す符号化タイプ情報に基づいて符号化データ判別部2221と、視点内予測復号部2222又は視点間予測復号部2223と、の間を接続する。つまり、符号化データ判別部2221は、符号化タイプが視点内予測であった場合は、符号化データ判別部2221と、視点内予測復号部2222とを、切替部2221aを介して接続させる。符号化データ判別部2221は、符号化タイプが視点内予測であった場合は、符号化データ判別部2221と、視点間予測復号部2223とを、切替部2221aを介して接続させる。
【0055】
符号化データ判別部2221は、第1のサブデータが視点内予測・動き予測の符号化タイプであった場合、すなわち第2のサブデータが視点内動きベクトルであった場合は、視点内動きベクトルを視点内予測復号部2222に出力する。符号化データ判別部2221は、第1のサブデータが視点間予測の符号化タイプであった場合、すなわち第2のサブデータが視差情報であった場合は、視差情報を視点間予測復号部2223に出力する。
【0056】
符号化データ判別部2221は、第1のサブデータが視点内予測(画面内予測または動き予測)の符号化タイプであった場合、すなわち第3のサブデータが視点内予測誤差であった場合は、視点内予測誤差を視点内予測復号部2222に出力する。符号化データ判別部2221は、第1のサブデータが視点間予測の符号化タイプであった場合、すなわち第3のサブデータが視点間予測誤差であった場合は、視点間予測誤差を視点間予測復号部2223に出力する。
符号化データ判別部2221は、符号化視差情報を符号化データから抽出する。符号化データ判別部2221は、抽出した符号化視差情報を復号する。符号化データ判別部2221は、復号された視差情報を視点間予測復号部2223及び画像処理部23に出力する。
【0057】
視点内予測復号部2222は、符号化データ判別部2221から入力された視点内予測誤差を、画面内予測の結果または視点内動きベクトルに基づいて復号し、非基準視点画像を生成する。具体的には、視点内予測復号部2222は、画面内予測または動き予測による視点内予測誤差に対して逆量子化、逆DCTを行い、視点内残差画像ブロックを生成する。視点内予測復号部2222は、視点内残差画像ブロックの各画素値に、画面内予測の際に利用した周辺の画素値、または視点内動きベクトルが示すブロックに対応する過去の非基準視点画像の各画素値を加えることにより、ブロック化した非基準視点画像を生成する。なお、過去の非基準視点画像は、視点内予測復号部2222内または図示しない画像格納用フレームメモリに保存されている。視点内予測復号部2222は、生成した、ブロック化した非基準視点画像を切替部2221bを介して画像処理部23に出力する。
【0058】
視点間予測復号部2223は、符号化データ判別部2221から入力された、視点間予測誤差及び視差情報に基づいて復号し、非基準視点画像を生成する。具体的には、視点間予測復号部2223は、視点間予測誤差に対して逆量子化、逆DCTを行い、視点間残差画像ブロックを生成する。視点間予測復号部2223は、視点間残差画像ブロックの各画素値に、基準視点画像復号部221から入力された、視差情報が示す基準視点画像の対応する各画素値を加算することにより、ブロック化した非基準視点画像を生成する。視点間予測復号部2223は、生成した、ブロック化した非基準視点画像を切替部2221bを介して画像処理部23へ出力する。
【0059】
(奥行き画像生成部の構成)
図11は、奥行き画像生成部224の構成を示す概略ブロック図である。奥行き画像生成部224は、距離情報抽出部2241、代表奥行き値算出部2242、及び奥行き値マッピング部2243を含んで構成される。
距離情報抽出部2241は、撮影条件情報復号部223で復元された撮影条件情報の中から、撮像部間距離B及び撮影距離Lを抽出する。距離情報抽出部2241は、抽出した撮像部間距離B及び撮影距離Lを代表奥行き値算出部2242へ出力する。
【0060】
代表奥行き値算出部2242は、非基準視点画像復号部222、又は符号化データ判別部2221から入力された視差情報と、距離情報抽出部2241から入力された撮像部間距離B及び撮影距離Lとに基づいて、マクロブロック毎に一つの代表奥行き値を算出する。代表奥行き値の算出方法については後述する。
奥行き値マッピング部2243は、代表奥行き値算出部2242によって得られた代表奥行き値に基づいて、ブロックを構成する各画素の奥行き値を算出し、奥行き画像に変換する。奥行き値マッピングの処理については後述する。
【0061】
(代表奥行き値算出処理)
奥行き画像生成部224は、式1を用いて代表奥行き値Zを算出する。
Z=LxB/(v+B) …〔式1〕
ここで、vは視差値を、Lは撮影距離を、Bは撮像部間隔を、Zは代表奥行き値を表す。
【0062】
図12は、奥行き値と視差情報が示す視差との関係を説明する説明図である。ここでは、2つの視点、すなわち撮像部41A、41B(それぞれ、撮像部11−1、11−2に対応する)と、2つの被写体、すなわち42A、42Bとが、図示する位置関係にある場合について説明する。被写体42A上の点43Aは、撮像部41A、41Bから撮影距離Lだけ離れた平面40上の位置PL1及びPR1に投影される。同様に、被写体42B上の点43Bは、位置PL2、PR2に投影される。
平面40が観賞時のスクリーン面に相当するとみなすと、位置PL1は、点43Aの左視点画像上の対応する画素を意味する。同様に、位置PR1は、点43Aの右視点画像上の対応する画素を意味する。また、位置PL2は、被写体42B上の点43Bに関する左視点画像上の対応する画素を意味する。位置PR2は、被写体42B上の点43Bに関する右視点画像上の対応する画素を意味する。
【0063】
2つの撮像部41A、41Bの間の距離をB、撮像部41A、41Bの撮影距離をL、撮像部41A、41Bから点43A、43Bまでの距離(代表奥行き値)をそれぞれZ1、Z2とする。被写体42Aに対応する撮像部41Aの視点から見た画像と撮像部41Bの視点から見た画像との間の視差をd1とする。被写体42Bに対応する撮像部41Aの視点から見た画像と撮像部41Bの視点から見た画像との間の視差をd2とする。視差d1、撮像部間距離B、撮影距離L、及び代表奥行き値Z1との間には、〔式2〕の関係が成り立つ。同様に、視差d2、撮像部間距離B、撮影距離L、及び代表奥行き値Z2との間には、〔式3〕の関係が成り立つ。
B:Z1=d1:(L−Z1) …〔式2〕
B:Z2=d2:(Z2−L) …〔式3〕
【0064】
〔式2〕、〔式3〕は、〔式1〕をそれぞれ被写体42A上の点43A、及び被写体42B上の点43Bに適用したものである。つまり〔式2〕ではv=d1、〔式3〕ではv=d2となる。ここで、視差vを、平面40上の右視点画像の対応する点と左視点画像の対応する点の距離として定義する。視差vは、d1が正の値、視差d2が負の値をとるものと定義する。つまり、被写体が平面40より撮像部に近いときに視差vは正の値をとり、被写体が平面40より撮像部に遠いときに視差vは負の値をとる。視差vは、所定のブロック単位で算出されている。視差vを算出するブロック単位に関しては、多視点画像符号化装置13において、このブロック単位を視点間予測符号化方式の処理単位と同じサイズに設定しておくことにより、非基準視点画像復号部222で生成した視差を、そのまま非基準視点画像に関する視差として扱うことができる。
【0065】
図13は、撮影距離を説明する説明図である。図13(a)は本実施形態で採用する平行法撮影における撮影距離を示している。平行法とは、2つの撮像部41A、41Bの光軸を平行にして撮影する方法である。平行法では、撮影距離は焦点距離と等しくなる。
なお、立体画像の撮影は、平行法撮影に限られない。図13(b)は交差法撮影における撮影距離を示す図である。交差法とは、2つの撮像部41A、41Bの光軸が前方で交差するようにして撮影する方法である。交差法撮影の場合、撮像部41A、41Bから光軸の交差点(クロスポイント)までの距離を撮影距離Lに相当するとみなす。
【0066】
(奥行き値マッピング処理)
奥行き値マッピング部2243は、代表奥行き値算出部2242によって算出された代表奥行き値に基づいて、ブロックを構成する画素単位の奥行き値を決定する。具体的には、奥行き値マッピング部2243は、代表奥行き値を、ブロックの中心に位置する画素の奥行き値と定める。奥行き値マッピング部2243は、当該ブロックの中心以外の画素に関しては、隣接する上下左右のブロックの代表奥行き値と、当該ブロックの代表奥行き値とを用いて線形補間を行い、各画素位置に対応した奥行き値を求める。このようにして、ブロック内の各画素の奥行き値を計算し、奥行き画像を生成する(方法(a)と呼ぶ)。
【0067】
なお、奥行き値マッピング部2243による画素単位の奥行き値決定の方法としては、前述のような方法に限定されず、以下の方法に従って決定してもよい。例えば、奥行き値マッピング部2243は、(b)隣接する左右のブロックの代表奥行き値との間で線形補間を行い、各画素位置に対応した奥行き値を求める。;(c)隣接する上下のブロックの代表奥行き値との間で線形補間を行い、各画素位置に対応した奥行き値を求める。;(d)代表奥行き値でブロック内一様の奥行き値とする。
【0068】
上記の方法(b)〜(d)の選択については、例えば、以下のようにする。対応する視点画像内の領域において公知の方法によりエッジ検出を行い、垂直方向のエッジ(被写体と背景の境界)が表れている場合は、左右方向の奥行き変化が大きいと推測されるため方法(b)を選択する。同様に視点画像内の対応する領域において水平方向のエッジが表れている場合は、上下方向の奥行き変化が大きいと推測されるため方法(c)を選択する。対応する視点画像の領域内にエッジがなく、かつブロックサイズが小さい(例えば2×2画素、4×4画素)場合には、方法(d)を選択する。
なお、〔式1〕で得られる奥行き値Zは、LやBが実距離を意味するのと同様に、撮像部から被写体までの物理的な距離を表わしている。画素単位の奥行き値を生成する際には、このZを、画素値を表わす数値範囲(例えば0〜255)に変換する。その方法としては、撮影時の距離レンジを表す情報(例えば、画像に含まれる全ての被写体に関するカメラからの距離の最小値と最大値)を撮影条件情報に含めておき、その距離レンジに対応するZの数値範囲を、所定の数値範囲(0〜255)で表わすように変換して、画素単位の奥行き値を得る。
【0069】
図14は、本実施形態に係る多視点画像復号装置22の内部処理手順を示すフローチャートである。
まず、多視点画像符号化装置13により符号化されたデータである、符号化基準視点画像、符号化非基準視点画像、符号化撮影条件情報が入力される(ステップS21)。各入力データは、各処理部において次の通り処理される。
基準視点画像復号部221は、入力された符号化基準視点画像を復号して基準視点画像を生成し(ステップS22)、生成した基準視点画像を装置外部へ出力する(ステップS23)。
非基準視点画像復号部222は、入力された符号化非基準視点画像を復号して、基準視点と非基準視点間の視差情報を抽出する(ステップS24)。また、抽出した視差情報を利用しながら符号化非基準視点画像に含まれるその他の符号化データを復号して非基準視点画像を生成し(ステップS25)、生成した非基準視点画像を装置外部へ出力する(ステップS26)。
撮影条件情報復号部223は、符号化撮影条件情報を復号して撮影条件情報を生成し(ステップS27)、生成した撮影条件情報を装置外部へ出力する(ステップS28)。
奥行き画像生成部224は、非基準視点画像復号部222から得られる視差情報と、撮影条件情報復号部223から得られる撮影条件情報とに基づいて、非基準視点画像に対応する奥行き画像を生成し(ステップS29)、生成された奥行き画像を装置外部へ出力する(ステップS30)。
【0070】
上記のように本実施形態では、視差情報生成部132は、撮像部11−1が撮像した基準視点画像と、撮像部11−2が撮影した非基準視点画像との間で、画像領域単位ごとに視差情報を生成する。視点内予測符号化部1331は、非基準視点画像を、同一画像内または過去のフレームを用いて視点内予測符号化する。視点間予測符号化部1332は、視差情報に基づいて基準視点画像と非基準視点画像の間で視点間予測符号化する。これにより、本実施形態では奥行き画像の符号化・伝送を行わずに複数の視点画像を符号化できる。
【0071】
また、符号化データ生成部1333は視点内予測符号化したデータのデータ量と、視点間予測符号化したデータのデータ量と、に基づいて符号化データを生成する。これにより、視点内予測符号化したデータと視点間予測符号化したデータのうちよりデータ量の小さな符号化方式を用いて符号化データを生成できる。
【0072】
また、本実施形態では、視点内予測符号化したデータ及び視点間予測符号化したデータは、画像データ毎に生成され、視点内予測符号化したデータ及び視点間予測符号化したデータ毎に視差情報が含まれる。これにより、復号時に、符号化単位毎に逐次奥行き情報を生成することができる。
【0073】
また、本実施形態では、符号化データ生成部1333は、視差情報を、符号化データとは別の符号化視差情報として生成するものを含む。これにより、生成される符号化非視点画像は、例えばMVCのような従来の符号化方式で規定される符号化データ構造との互換性があり、既存の復号装置で復号することが可能となる。
【0074】
また、本実施形態では、視点内予測符号化したデータ及び視点間予測符号化したデータは、画像データ毎に生成され、視点内予測符号化したデータ及び視点間予測符号化したデータ毎に視差情報が含まれない。これにより、符号化データ量を削減することができる。
【0075】
また、本実施形態では、符号化された基準視点画像を復号する基準視点画像復号部221と、符号化された非基準視点画像を復号すると共に、基準視点画像と非基準視点画像の符号化単位の視差情報を抽出する非基準視点画像復号部222と、非基準視点画像復号部222によって抽出された視差情報と、撮影条件情報復号部223によって復号された撮影条件情報とに基づいて、非基準視点画像に対応する奥行き画像を生成する奥行き画像生成部224と、を備える。これにより、奥行き画像を用いて立体画像を生成・表示することが可能となる。
【0076】
また、本実施形態では、奥行き画像生成部224は、視差情報と、撮像部11−1と撮像部11−2との間の撮像部間距離、及び撮像部11−1又は撮像部11−2と被写体との間の撮影距離とから、予め定めた大きさの画像領域単位の代表奥行き値を算出する代表奥行き値算出部2242と、代表奥行き値に基づいて画像領域単位の奥行き画像を生成する奥行き値マッピング部2243と、を備える。これにより、奥行き画像を用いて立体画像を生成・表示することが可能となる。
【0077】
また、本実施形態では、上記のような符号化装置および復号装置の構成をとることにより、奥行き画像自体を符号化・伝送せずに視差情報から奥行き画像を生成する。したがって、奥行き画像を利用した仮想視点画像の生成を可能にするとともに、奥行き画像の符号化に必要な演算コストおよび符号量を削減することができ、装置の小型化・低コスト化および伝送路や記録メディアの利用効率を高めることを可能にする。
【0078】
なお、多視点画像復号装置22は、基準視点画像、非基準視点画像、奥行き画像、及び撮影条件情報を画像処理部23へ出力する。基準視点画像および非基準視点画像に関してはそのまま立体画像の表示のための画像データとして使用される。一方、奥行き画像および撮影条件情報は、図示しない視点画像生成部によって、もともと符号化装置に入力されていない中間視点位置に対応する視点画像である仮想視点画像の生成に利用される。なお、この視点画像生成部は、多視点画像復号装置22の中に含まれるよう構成してもよい。
【0079】
なお、上記の実施形態に係る基準視点画像の符号化処理では、視点内予測符号化によって符号化データを生成するため、生成された符号化データは従来の単一視点用の符号化方式で生成したデータと同等である。従って、本発明による基準視点画像の符号化データは従来の単一視点用の画像復号装置(例えば、符号化方式の国際規格であるH.264に従う画像復号装置)で復号することが可能である。
【0080】
なお、非基準視点画像の符号化処理に関しては、作成された視差情報(視差値)は、従来技術のように視点画像間のブロックマッチング等で生成した視差値と同等の情報であり、視差値に基づく視差補償予測符号化処理は同一の方法が適用できる。従って、本発明による非基準視点画像の符号化データは、従来の多視点画像用の画像復号装置(例えば、多視点画像符号化方式の国際規格であるMVCに従う画像復号装置)で復号することが可能である。
【0081】
このように、多視点画像符号化装置13(視点画像符号化部13A)によって生成される符号化基準視点画像及び符号化非基準視点画像は、既存の画像復号装置で復号して画像として再生できる。すなわち、多視点画像符号化装置13によって生成される符号化基準視点画像及び符号化非基準視点画像は、データの互換性を維持している。
【0082】
なお、各符号化データは、それぞれが直接、多視点画像復号装置22に入力されて与えられてもよい。
【0083】
なお、基準視点画像および非基準視点画像を符号化する際の符号化処理単位のブロックサイズは、前述の8画素×8画素サイズに限らず、16画素×16画素、4画素×4画素、2画素×2画素などのサイズでもよい。また、縦横の画素数が同数でなくともよく、例えば16画素×8画素、8画素×16画素、8画素×4画素、4画素×8画素などのサイズでもよい。これらのサイズは、各視点画像に含まれる被写体の大きさや、画像の複雑さなどに応じて最適なサイズを選択してもよい。
【0084】
なお、図2に示したように、本実施の形態では視点画像が基準視点画像と非基準視点画像との2つであるケースを例に挙げているが、視点画像が3つ以上の場合でも、多視点画像符号化装置、多視点画像復号装置を構成することができる。例えば視点画像が3つの場合は、1つの視点画像を基準視点として扱って視点内予測符号化方式により圧縮符号化し、残りの2つの視点画像は非基準視点の視点画像として視点間予測符号化方式により圧縮符号化する。あるいは、基準視点の視点画像が2つで、残りの1つの視点画像のみ非基準視点の視点画像としてもよい。視点画像が3つを超える場合も、同様の考え方を適用することができる。
【0085】
なお、多視点画像符号化装置13、および多視点画像復号装置22の各機能要素、特に基準視点画像符号化部131、視差情報生成部132、非基準視点画像符号化部133、撮影条件情報符号化部134、基準視点画像復号部221、非基準視点画像復号部222、奥行き画像生成部224、および撮影条件情報復号部223は、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(central processing unit)を用いてソフトウェア的に実現してもよい。
【0086】
なお、多視点画像符号化装置13及び多視点画像復号装置22は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。なお、上述した機能を実現するソフトウェアである多視点画像符号化装置13および画像復号装置2の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記各装置に供給し、そのコンピュータ(またはCPUやMPU(microprocessor unit))が記録媒体に記録されているプログラムコードを読み出し実行するようにしてもよい。
【0087】
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM(compact disc read−only memory)/MO(magneto−optical)/MD(Mini Disc)/DVD(digital versatile disk)/CD−R(CD Recordable)等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM(Erasable Programmable Read−Only Memory)/EEPROM(Electrically Erasable and Programmable Read−Only Memory)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。
【0088】
また、多視点画像符号化装置13および多視点画像復号装置22を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN(local area network)、ISDN(Integrated Services Digital Network)、VAN(value−added network)、CATV(community antenna television)通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE(Institute of Electric and Electronic Engineers)1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asynchronous Digital Subscriber Loop)回線等の有線でも、IrDA(infrared data association)やリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(high data rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。
【0089】
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
【0090】
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
【符号の説明】
【0091】
A・・・多視点画像処理システム、1・・・撮像機器、2・・・表示機器、11−1、11−2・・・撮像部、12・・・撮影制御部、13・・・多視点画像符号化装置、13A・・・視点画像符号化部、14・・・通信部、21・・・通信部、22・・・多視点画像復号装置、22A・・・視点画像復号部、23・・・画像処理部、24・・・表示部、131・・・基準視点画像符号化部、132・・・視差情報生成部、133・・・非基準視点画像符号化部、134・・・撮影条件情報符号化部、223・・・撮影条件情報復号部、1331・・・視点内予測符号化部、1332・・・視点間予測符号化部、1333・・・符号化データ生成部、221・・・基準視点画像復号部、222・・・非基準視点画像復号部、223・・・撮影条件情報復号部、224・・・奥行き画像生成部、2221・・・符号化データ判別部、2221a、2221b・・・切替部、2222・・・視点内予測復号部、2223・・・視点間予測復号部、2241・・・距離情報抽出部、2242・・・代表奥行き値算出部、2243・・・奥行き値マッピング部
【技術分野】
【0001】
本発明は、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化方法及び多視点画像復号方法に関する。
【背景技術】
【0002】
近年、立体画像ディスプレイ及び立体画像コンテンツの普及が進みつつある。立体画像ディスプレイでは、2眼式の立体画像ディスプレイが広く用いられている。2眼式の立体画像ディスプレイの方式の一つにアクティブシャッター方式がある。アクティブシャッター方式の立体画像ディスプレイは、左眼用画像と右眼用画像を時分割で交互にスクリーンに表示させる。一方、観賞者が装着する液晶シャッターメガネは、左眼と右眼に対応したシャッターを、それぞれ左眼用画像、右眼用画像を表示するタイミングに同期させて開閉する。これにより、左眼は左眼用画像のみ、右眼は右眼用画像のみを見ることが可能となる。その結果、鑑賞者は、ディスプレイに表示された画像について立体感を知覚することができる。
【0003】
立体画像を表示・鑑賞するためには、上記の通り左眼用と右眼用の2視点分の画像データが必要になる。従って、立体画像の画像データは、従来の平面画像の画像データと比べると情報量が約2倍に増加する。これを効率よく圧縮・記録するための符号化方式として、国際標準であるITU−T H.264、及びAdvanced Video Coding(ISO/IEC 14496−10)のAnnex Hとして、Multi−view Video Coding(以下、MVCと記す)が規定されている。MVCは、多視点の動画像を効率よく圧縮するための符号化方式である。MVCは、例えば3D(3次元;three dimension)映画などの立体映像をBlu−ray Discに格納する際の符号化方式として採用されている。
【0004】
上記のような、左眼用画像と右眼用画像の2視点の画像を表示する2眼式の立体画像ディスプレイの普及が進む一方で、多眼式の立体画像ディスプレイの普及も期待されている。多眼式の立体画像ディスプレイは、スクリーン面から発する光の方向を制御するための光学的な機構を備える。多眼式の立体画像ディスプレイは、この機構により、左眼用画像を左眼にのみ、右眼用画像を右眼にのみ見せる。そのため、多眼式の立体画像ディスプレイでは、アクティブシャッター方式で使用するようなメガネは不要となる。さらに、多眼式の立体画像ディスプレイでは、2視点を超える視点数での画像表示、すなわち観賞位置の移動に伴う観賞画像の変化を再現させることも可能となる。このような光学的な機構の例としてはパララクスバリアやレンティキュラレンズなどがある。これらの機構では、その構造と加工の精細度により、観賞可能な視点数が決定される。現状では、5視点や8視点などの多眼式立体画像ディスプレイが実用化されている。
【0005】
多眼式の立体画像ディスプレイを使用すると、視点が2視点に限定されないため、立体画像の観賞における自由度や自然さが向上するという利点がある。しかし一方で、視点数が増えることによって、必要となる画像のデータ量が増加するため、記録や伝送にかかるコストが増大するという問題がある。
【0006】
この問題に対して、特許文献1では、複数の視点画像を符号化すると共に、複数の視点画像から生成した奥行き情報も符号化し、両者を含む符号化ストリームを生成する画像符号化装置が開示されている。奥行き画像を利用することで、入力された視点画像から、入力にない仮想視点の画像を生成することができるため、多視点画像を効率よく伝送または蓄積することができる。
ここで、特許文献1記載の技術では、視差補償予測符号化方式が利用されている。視差補償予測符号化方式は、撮影視点が異なることにより生じる視差を画像から抽出し、視差を補償して予測符号化を行うものである。視差補償予測符号化方式は、前述のMVCでも導入されている技術である。
【0007】
視差補償予測符号化方式における視差の抽出は、ブロックマッチングにより行われる。ブロックマッチングとは、対象画像を所定サイズで分割したブロックごとに、参照画像との比較で最も一致度の高いブロックを探索する処理である。特許文献2には、ブロックマッチングを複数画像間に適用して視差ベクトルを検出する符号化方式が開示されている。
【先行技術文献】
【特許文献】
【0008】
【特許文献1】特開2010−157823号公報
【特許文献2】特開平6−98312号公報
【発明の概要】
【発明が解決しようとする課題】
【0009】
しかしながら、奥行き情報は符号化装置において常に利用可能であるとは限らない。符号化装置において奥行き情報が利用できない場合、特に処理能力の低い符号化装置では、奥行き画像を生成するための演算処理の負荷が大きくなる。その結果、画像符号化のリアルタイム処理が困難となる。奥行き画像が予め用意される場合であっても、奥行き画像を格納するためのメモリ空き容量を確保する必要があるため、特に小型の端末にとってはコスト増加の一因となる。また、複数の視点画像に加えて奥行き画像も符号化・伝送するため、伝送回線の帯域が充分確保できない場合に、データ伝送の遅延やそれに伴う待ち時間の増加などを生じ、サービスの使い勝手の低下を招くことになる。
つまり、符号化時に奥行き画像を用いると、処理コストが増加するという問題があった。
【0010】
本発明は、上記の問題点に鑑みてなされたものであり、符号化時に奥行き画像を用いず、処理コストが増加しない多視点画像符号化装置、多視点画像復号装置、多視点画像符号化方法及び多視点画像復号方法を提供する。
【課題を解決するための手段】
【0011】
(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、第1の視点の画像である第1視点画像と第2の視点の画像である第2視点画像との間で、画像領域単位毎に視差情報を生成する視差情報生成部と、前記第2視点画像を、異なるフレームの第2視点画像との間で視点内予測符号化して第1のデータを生成する視点内予測符号化部と、前記視差情報に基づいて前記第1視点画像との間で視点間予測符号化して第2のデータを生成する視点間予測符号化部と、を備えることを特徴とする多視点画像符号化装置である。
【0012】
(2)また、本発明の一態様は、上記の多視点画像符号化装置において、第1のデータと第2のデータのデータ量に関する情報に基づいて、前記画像領域毎に前記第1の符号化データ又は前記第2の符号化データのいずれかを、当該画像領域の符号化データとして選択する符号化データ生成部を備えることを特徴とする。
【0013】
(3)また、本発明の一態様は、上記の多視点画像符号化装置において、前記画像領域の符号化データには、当該領域の視差情報が含まれることを特徴とする。
【0014】
(4)また、本発明の一態様は、上記の多視点画像符号化装置において、前記符号化データ生成部は、前記視差情報を符号化して符号化視差情報を生成し、前記符号化データと前記符号化視差情報を出力することを特徴とする。
【0015】
(5)また、本発明の一態様は、上記の多視点画像符号化装置において、前記第1のデータ及び前記第2のデータは、前記画像領域毎に生成され、前記第1のデータ及び前記第2のデータに前記視差情報が含まれないことを特徴とする。
【0016】
(6)また、本発明の一態様は、符号化された第1視点画像を復号する第1視点画像復号部と、符号化された第2視点画像を復号すると共に、第1視点画像と第2視点画像間の視差情報を抽出する第2視点画像復号部と、前記第2視点画像復号部によって抽出された視差情報に基づいて奥行き画像を生成する奥行き画像生成部と、を備えることを特徴とする多視点画像復号装置である。
【0017】
(7)また、本発明の一態様は、上記の多視点画像復号装置において、前記奥行き画像生成部は、
前記視差情報と、前記第1の視点に配置された第1撮像部と前記第2の視点に配置された第2撮像部との間の撮像部間距離、及び前記第1撮像部及び第2撮像部と被写体との間の撮影距離とに基づいて、画像領域単位の代表奥行き値を算出する代表奥行き値算出部と、複数の前記代表奥行き値に基づいて補間を行うことにより、奥行き画像を生成する奥行きマッピング部と、を備えることを特徴とする。
【0018】
(8)また、本発明の一態様は、多視点画像符号化装置における方法であって、視差情報生成部が、第1の視点の画像である第1視点画像と第2の視点の画像である第2視点画像との間で、画像領域単位毎に視差情報を生成する視差情報生成過程と、視点内予測符号化部が、前記第2視点画像を、異なるフレームの第2視点画像との間で視点内予測符号化して第1の符号化データを生成する視点内予測符号化過程と、前記視差情報に基づいて前記第1視点画像との間で視点間予測符号化して第2の符号化データを生成する視点間予測符号化過程と、を備えることを特徴とする多視点画像符号化方法である。
【0019】
(9)また、本発明の一態様は、多視点画像復号装置における方法であって、第1視点画像復号部が、符号化された第1視点画像を復号する第1視点画像復号過程と、第2視点画像復号部が、符号化された第2視点画像を復号すると共に、第1視点画像と第2視点画像間の視差情報を抽出する第2視点画像復号過程と、奥行き画像生成部が、前記第2視点画像復号部によって抽出された視差情報に基づいて奥行き画像を生成する奥行き画像生成過程と、を備えることを特徴とする多視点画像復号方法である。
【発明の効果】
【0020】
本発明によれば、符号化時に奥行き画像を用いず、処理コストが増加しない。
【図面の簡単な説明】
【0021】
【図1】本発明の第1の実施形態に係る多視点画像符号化システムを示す概念図である。
【図2】本実施形態に係る多視点画像符号化装置の構成を示す概略ブロック図である。
【図3】本実施形態に係る視差情報生成部の構成を示す概略ブロック図である。
【図4】本実施形態に係る多視点画像符号化装置の構成を示す概略ブロック図である。
【図5】本実施形態に係る非基準視点画像符号化部の構成を示す概略ブロック図である。
【図6】本実施形態に係る符号化データ生成部が生成する符号化データの構造の一例を示す図である。
【図7】本実施形態に係るスライスのデータ構成の例を説明する説明図である。
【図8】多視点画像符号化装置の内部処理手順を示すフローチャートである。
【図9】本実施形態に係る多視点画像復号装置の構成を示す概略ブロック図である。
【図10】本実施形態に係る非基準視点画像復号部の構成を示す概略ブロック図である。
【図11】本実施形態に係る奥行き画像生成部の構成を示す概略ブロック図である。
【図12】本実施形態に係る代表奥行き値算出部における代表奥行き値算出処理を説明する説明図である。
【図13】本実施形態に係る撮影距離を示す説明図である。
【図14】本実施形態に係る多視点画像復号装置の内部処理手順を示すフローチャートである。
【発明を実施するための形態】
【0022】
(第1の実施形態)
以下、図面を参照しながら本発明の第1の実施形態について詳しく説明する。図1は、本実施形態に係る多視点画像処理システムを示す概念図である。
図示する例では、多視点画像処理システムAは、撮像機器1及び表示機器2を具備する。
【0023】
撮像機器1は、複数の撮像部11−1(第1の視点)、11−2(第2の視点)を有する。撮像機器1は、撮像部11−1、11−2を用いて撮像し、それぞれ基準視点画像(第1視点画像)及び非基準視点画像(第2視点画像)を撮像する。撮像機器1は、撮像した基準視点画像及び非基準視点画像に基づいて、符号化ストリームを生成する。ここで、符号化ストリームとは、基準視点画像及び非基準視点画像を圧縮符号化した一連のデータ列を表す。
表示機器2は、撮像機器1で生成された符号化ストリームを復号し(解凍処理を含む)立体画像情報を生成する。表示機器2は、生成した立体画像情報が示す立体画像を表示部24に表示する。なお、図1では、撮像機器1は、小型のディジタルカメラに実装されており、2視点のものを示したが、本発明の実施形態は、これに限定されない。
【0024】
図2は、撮像機器1の構成を示す概略ブロック図である。撮像機器1は、撮像部11−1、11−2、撮影制御部12、多視点画像符号化装置13、通信部14を含んで構成される。
撮像部11−1、11−2は、画像を撮像する。撮像部11−1、11−2は、異なる視点から同一視野角内の画像を撮像する。撮像部11−1、11−2は、それぞれが異なる視点に対応する。基準視点は、多視点画像データを生成する際の基準となる視点であり、撮像部11−1が設けられた点である。非基準視点は、基準視点とは別の視点であり、撮像部11−2が設けられた点である。撮像部11−1、11−2は、撮影制御部12から焦点距離を設定され、設定された焦点距離となるようにレンズを調整する。撮像部11−1、11−2は、撮像した画像データを撮影制御部12に出力する。
【0025】
撮影制御部12は、撮像部11−1、11−2の各々から入力された画像データに基づいて、基準視点画像(第1視点画像)、非基準視点画像(第2視点画像)を生成する。ここで、基準視点画像とは、撮像部11−1が基準視点から撮像した画像である。非基準視点画像とは、撮像部11−2が非基準視点から撮像した画像である。
【0026】
撮影制御部12は、撮像部間距離Bや、焦点距離(撮影距離)L等を含む撮影条件情報を生成する。ここで、撮像部間距離Bとは、予め定められた撮像部11−1、11−2の間の距離である。また、焦点距離Lとは、撮影制御部12が設定した撮像部11−1、11−2と被写体との距離である。撮影制御部12は、基準視点画像、非基準視点画像、及び撮影条件情報を多視点画像符号化装置13に出力する。
【0027】
多視点画像符号化装置13は、撮影制御部12から入力された基準視点画像、非基準視点画像に基づいて、視差情報を生成する。多視点画像符号化装置13は、非基準視点画像を予め定めた大きさの画像領域単位毎に視点内予測符号化すると共に、視差情報に基づいて非基準視点画像と基準視点画像との間で視点間予測符号化する。多視点画像符号化装置13は、非基準視点画像を視点内予測符号化又は視点間予測符号化することにより符号化非基準視点画像を生成する。多視点画像符号化装置13は、基準視点画像及び撮影条件情報を符号化することにより、符号化基準視点画像、及び符号化撮影条件情報を生成する。符号化多視点画像符号化装置13は、符号化基準視点画像、符号化非基準視点画像、及び符号化撮影条件情報を通信部14に出力する。なお、多視点画像符号化装置13の詳細については後述する。
【0028】
通信部14は、多視点画像符号化装置13から入力された符号化基準視点画像、符号化非基準視点画像、及び符号化撮影条件情報を含む符号化ストリームを生成する。通信部14は、生成した符号化ストリームを表示機器2に送信する。
【0029】
図3は、表示機器2の構成を示す概略ブロック図である。表示機器2は、通信部21、多視点画像復号装置22、画像処理部23、及び表示部24を含んで構成される。
通信部21は、撮像機器1から送信された符号化ストリームを受信する。通信部21は、符号化ストリームから符号化基準視点画像、符号化非基準視点画像、及び符号化撮影条件情報を抽出する。通信部21は、抽出した符号化基準視点画像、符号化非基準視点画像、及び符号化撮影条件情報を多視点画像復号装置22に出力する。符号化ストリームの送信は、インターフェースを介する有線又は無線伝送手段により行う。無線による伝送には赤外線を用いるものを含む。
【0030】
多視点画像復号装置22は、通信部21から入力された符号化基準視点画像、符号化非基準視点画像、及び符号化撮影条件情報を復号し、基準視点画像、非基準視点画像、及び撮影条件情報を生成する。また、多視点画像復号装置22は、非基準視点画像及び撮影条件情報に基づいて非基準視点画像に対応する奥行き画像を生成する。多視点画像復号装置22は、生成した基準視点画像、非基準視点画像、奥行き画像、及び撮影条件情報を画像処理部23に出力する。なお、多視点画像復号装置22の詳細については後述する。
【0031】
画像処理部23は、多視点画像復号装置22から入力された基準視点画像、非基準視点画像、奥行き画像、及び撮影条件情報に基づいて、表示部24に表示させる立体画像情報を生成する。立体画像情報を生成する際、画像処理部23は、図示しない操作手段や制御手段からの指示に応じて、基準視点画像や非基準視点画像とは異なる視点に対応する仮想視点画像を生成する。仮想視点画像を生成する際は、奥行き画像を利用して、基準視点画像および非基準視点画像の各画素値に基づいて仮想視点画像を生成する。画像処理部23は、基準視点画像、非基準視点画像、生成した仮想視点画像から、2視点以上の画像を含んで構成される立体画像情報を生成し、生成した立体画像情報を表示部24に出力する。
表示部24は、画像処理部23から入力された立体画像情報に基づいて、立体画像を表示面に表示する。
【0032】
図4は、本実施形態に係る多視点画像符号化装置13の構成を示す概略ブロック図である。
多視点画像符号化装置13は、視点画像符号化部13A及び撮影条件情報符号化部134を含んで構成される。
視点画像符号化部13Aは、撮影制御部12から入力された基準視点画像及び非基準視点画像を含む多視点画像を符号化する。この際、視点画像符号化部13Aは、基準視点画像及び非基準視点画像を符号化単位領域毎に符号化する。ここで、符号化単位領域とは、基準視点画像及び非基準視点画像を分割した領域である。また、符号化単位領域とは、例えば8X8画素から構成される単位に分割した矩形の領域のことである。基準視点画像及び非基準視点画像は、複数の符号化単位領域の組み合わせで構成される。視点画像符号化部13Aは、符号化基準視点画像、及び符号化非基準視点画像を通信部14に出力する。
撮影条件情報符号化部134は、撮影制御部12から入力された撮影条件情報を符号化し、符号化撮影条件情報を生成する。撮影条件情報符号化部134は、生成した符号化撮影条件情報を通信部14に出力する。
【0033】
視点画像符号化部13Aは、基準視点画像符号化部131、視差情報生成部132、及び非基準視点画像符号化部133を含んで構成される。
基準視点画像符号化部131は、撮影制御部12から入力された基準視点画像を符号化単位領域毎に圧縮符号化する。基準視点画像符号化部131は、基準視点画像を視点内予測符号化方式により圧縮符号化し、符号化基準視点画像を生成する。ここで、視点内予測符号化方式とは、単一視点の画像データのみに基づいて画像データを圧縮符号化する符号化方式である。視点内予測符号化方式では、画面内予測及び動き補償・予測を行って画像データを圧縮符号化する。基準視点画像符号化部131は、圧縮符号化した符号化基準視点画像(第1の符号化データ)を復号して基準視点画像を生成する。基準視点画像符号化部131は、生成した基準視点画像を非基準視点画像符号化部133に出力する。基準視点画像符号化部131は、生成した符号化基準視点画像を通信部14に出力する。
【0034】
視差情報生成部132は、撮影制御部12から入力された基準視点画像と非基準視点画像とに基づいて、基準視点画像と非基準視点画像との間の視差を示す視差情報を生成する。
具体的には、視差情報生成部132は、非基準視点画像内の対象ブロック(例えば8画素×8画素の画像ブロック)と最も類似度の高い基準視点画像内の画像ブロックを探索する(類似ブロック探索処理と呼ぶ)。類似ブロック探索処理は、例えば、ブロックマッチングにより行うことができる。視差情報生成部132は、類似ブロック探索処理を行った結果得られた、画像ブロックと対象ブロックとの間の画像上の距離(ベクトル)を算出する。
視差情報生成部132は、算出したベクトルの水平方向の成分を、前記2つの画像間の視差を表す視差情報として抽出する。視差情報生成部132は、抽出した視差情報を非基準視点画像符号化部133へ出力する。
【0035】
非基準視点画像符号化部133は、撮影制御部12から入力された非基準視点画像を符号化単位領域毎に圧縮符号化する。非基準視点画像符号化部133は、非基準視点画像を、基準視点画像符号化部131から入力された基準視点画像を参照して視点間予測符号化方式により圧縮符号化する。ここで、視点間予測符号化方式とは、ある視点(ここでは、非基準視点)から撮像した画像データを、別の視点(ここでは、基準視点)から撮像した画像データを参照して圧縮符号化する符号化方式である。視点間予測符号化方式では、視差補償・予測を行って画像データを圧縮符号化する。非基準視点画像符号化部133は、視差補償・予測を行う際に、後述するように、視差情報生成部132から入力される視差情報を用いて視差補償・予測を行う。非基準視点画像符号化部133は、生成した符号化非基準視点画像(第2の符号化データ)を通信部14に出力する。
【0036】
図5は、非基準視点画像符号化部133の構成を示す概略ブロック図である。
非基準視点画像符号化部133は、視点内予測符号化部1331、視点間予測符号化部1332、及び符号化データ生成部1333を含んで構成される。
視点内予測符号化部1331は、撮影制御部12から入力された非基準視点画像に基づいて、同一視点内で動き補償・予測を行う。具体的には、視点内予測符号化部1331は、処理対象のブロックにおける非基準視点画像の画素値を抽出する。視点内予測符号化部1331は、その内部に記録した過去の非基準視点画像の対応する処理対象のブロックの画素値を抽出する。
【0037】
視点内予測符号化部1331は、抽出するブロックを1画素ずつ移動させながら、現在の非基準視点画像の画素値から、抽出した過去の非基準視点画像の画素値を減算した値を計算する。視点内予測符号化部1331は、計算した値が最も小さくなるブロックの移動量である(視点内予測情報)を決定する。視点内予測符号化部1331は、探索した結果に基づいて、現在の非基準視点画像の画素値から、抽出した過去の非基準視点画像の画素値を減算した値(視点内残差画像ブロックと呼ぶ)を生成する。なお、視点内残差画像ブロックを生成する際には、過去だけでなく、未来の画像(時間的に後に入力される非基準視点画像)を参照して計算してもよい。また、視点内予測符号化部1331は、同一視点内での動き補償・予測の他に、同一画像内での画面内予測によって視点内残差画像ブロックを生成してもよい。視点内予測符号化部1331は、生成した視点内残差画像ブロックを離散コサイン変換(Discrete Cosine Transform;DCT)、及び量子化することで、視点内予測誤差を生成する。視点内予測符号化部1331は、視点内予測誤差及びそれに対応する視点内予測情報を符号化データ生成部1333に出力する。
【0038】
視点間予測符号化部1332は、基準視点画像符号化部131から入力された基準視点画像、撮影制御部12から入力された非基準視点画像、及び視差情報生成部132から入力された視差情報に基づいて、視点間で視差補償・予測を行う。具体的には、視点間予測符号化部1332は、処理対象のブロックにおける非基準視点画像の画素値を抽出する。視点間予測符号化部1332は、処理対象のブロックにおける視差情報であって、視差情報生成部132から入力された視差情報が示すブロックにおいて、基準視点画像の画素値を抽出する。視点間予測符号化部1332は、抽出した非基準視点画像の画素値から、抽出した基準視点画像の画素値を減算する。視点間予測符号化部1332は、以上の処理の結果、処理対象ブロックに対応する減算後の画素値で構成される画像ブロックである視点間残差画像ブロックを生成する。
【0039】
なお、視点間予測符号化部1332は、残差画像ブロックの生成を行う際の基準視点画像として、基準視点画像符号化部131によって一度符号化し、その後復号された基準視点画像を使用する。これは、復号装置側での視差補償の結果を符号化装置における結果と一致させ、符号化誤差の伝播による符号化画像の品質劣化を回避するためである。
視点間予測符号化部1332は、生成した視点間残差画像ブロックを離散コサイン変換(Discrete Cosine Transform;DCT)、及び量子化することで、視点間予測誤差を生成する。視点間予測符号化部1332は、生成した視点間予測誤差を符号化データ生成部1333に出力する。
【0040】
符号化データ生成部1333は、視点内予測符号化部1331から入力された視点内予測誤差及び視点間予測符号化部1332から入力された視点間予測誤差に基づいて、符号化データを生成する。具体的には、符号化データ生成部1333は、視点内予測誤差と視点間予測誤差のうち、符号量が少ないと判定した予測誤差を選択する。符号化データ生成部1333は、選択した予測誤差、視差情報(視点間符号化の場合)、視点内動きベクトル(視点内符号化の場合)、及び符号化タイプ情報を含む符号化非基準視点画像を生成する。ここで、符号化タイプ情報とは、符号量が少ないと判定して選択した予測誤差を生成する際に用いた符号化方法を示す情報であり、視点内予測符号化又は視点間予測符号化のいずれかを示す。また、符号化データ生成部1333は、視差情報生成部132から入力された視差情報を符号化して符号化視差情報を生成する。符号化データ生成部1333は、生成した符号化非基準視点画像(符号化視差情報を含む)を通信部14へ出力する。
【0041】
図6は、符号化データ生成部1333が生成する符号化非基準視点画像の構造の一例を示す図である。図示する例では、画像(ピクチャ)P1は、撮像部11−1、又は11−2が撮像した画像である。ピクチャP1は、16画素×16画素で構成される画像領域(マクロブロックと呼ぶ)の集合として表されている。マクロブロックを一次元方向(例えばX方向)に複数連結したものをスライスと呼ぶ。図示する例では、スライスs1が、符号s1を付したピクチャP1内の画像領域に対応する。
【0042】
符号s1を付したスライスは、マクロブロックB1、B2、B3、・・・を含んでいる。符号S1を付した符号化データは、スライスs1に対応する符号化データであり、ヘッダH1に続いてマクロブロックB1の符号化データ(B11、B12、B13)、マクロブロックB2の符号化データ(B21、B22、B23)、・・・が連続して構成されている。各マクロブロックの符号化データは、3つのサブデータから構成される。第1のサブデータは符号化タイプ(視点内予測/視点間予測)を示す情報である。視点内予測は、より詳細には画面内予測と動き予測に分けられるが、ここでは説明を簡便にするため、両者を包含する符号化タイプとして視点内予測と記す。第2のサブデータは予測情報(動きベクトル/視差情報)である。第3のサブデータは予測誤差(視点内/視点間)を示すデータである。マクロブロックの符号化データは、上記の3種のサブデータから構成される。
【0043】
マクロブロックの符号化データは、第1のサブデータ、第2のサブデータ、第3のサブデータの順に並んで構成されている。例えば、マクロブロックB1に対応する符号化データは、符号B11を付した符号化タイプ情報(視点内予測)、符号B12を付した予測情報(視点内)、符号B13を付した予測誤差(視点内)の順に並んで構成される。マクロブロックB2に対応する符号化データは、符号B21を付した符号化タイプ情報(視点間予測)、符号B22を付した予測情報(視差情報)、符号B23を付した予測誤差(視点間)の順に並んで構成される。なお、上記B1を符号化した際の視点内予測が画面内予測(動き予測を用いない)の場合など、予測情報(動きベクトル)に該当する情報が生成されない場合は、予測情報B12は省略される。すなわち、上記第2のサブデータは符号化データに含まれない場合もある。
【0044】
符号化データ生成部1333は、上記の符号化データの他に、符号P2を付した符号化視差情報(第2符号化データ)を生成する。ここで、符号化視差情報とは、視差情報を1ピクチャ分連結させた視差マップの符号化データであり、符号化ブロック毎の視差情報(v1、v2、v3・・・と呼ぶ)からなる符号化データである。
【0045】
図7は、スライスのデータ構成の例を説明する説明図である。スライスに対応する符号化データは、例えば、図7(a)〜(c)に示す構造をとり得る。なお、図7(a)〜(c)では、図6で示したヘッダは省略してある。図7(a)〜(c)全てに共通して、先頭のマクロブロックは視点内予測符号化された符号化データ、2番目に続くマクロブロックは視点間予測符号化された符号化データでそれぞれ構成された符号化データの例を示している。
図7(a)は、本実施形態における符号化データaを示す。符号化データaには、非基準視点画像のマクロブロック符号化データB1aの中に符号B11aを付した符号化タイプ(視点内予測)、符号B12aを付した符号化単位領域毎の視差情報、符号B13aを付した視点内予測情報(視点内動きベクトル)、及び符号B14aを付した視点内予測誤差が含まれる。符号化データaには、それに続いて、符号B21aを付した符号化タイプ(視点間予測)、B22aを付した符号化単位領域毎の視差情報、及び符号B23aを付した視点間予測誤差が含まれる。符号化データaを受信した表示機器2は、符号化データaがマクロブロック毎に視差情報を含んでいるため、受信した符号化データをマクロブロック毎に復号しながら、マクロブロック毎の視差情報を逐次抽出・復号することができる。
【0046】
図7(b)は、非基準視点画像のスライスの符号化データbとスライスが含まれるピクチャの視差情報P2を別のデータとしたデータ構造の例である。非基準視点画像のマクロブロック符号化データB1bには、符号B11bを付した符号化タイプ(視点内予測)、符号B12bを付した視点内予測情報(視点内動きベクトル)、符号B13bを付した視点内予測誤差が含まれる。それに続いて、符号B21bを付した符号化タイプ(視点間予測)、符号B22bを付した視差情報(視点間視差ベクトル)、符号B23bを付した視点間予測誤差が含まれる。視差情報はさらに、符号P2を付した符号化視差情報として独立したデータを構成する。
このように構成した非基準視点画像符号化データbは、例えばMVCのような従来の符号化方式で規定される符号化データ構造との互換性があり、既存の復号装置で復号することが可能である。
【0047】
図7(c)は、非基準視点画像のスライスの符号化データcとスライスが含まれるピクチャの視差情報P2を別のデータ単位とした図7(b)とは別のデータ構造の例である。非基準視点画像のマクロブロック符号化データB1cには、符号B11cを付した符号化タイプ(視点内予測)、符号B12cを付した視点内予測情報(視点内動きベクトル)、符号B13cを付した視点内予測誤差が含まれる。それに続いて、符号B21cを付した符号化タイプ(視点間予測)、符号B21cを付した視点間予測誤差が含まれる。一方視差情報は、符号P2を付した符号化視差情報として独立したデータを構成する。
【0048】
このように構成された非基準視点画像の符号化データcは、視点内予測符号化で符号化されたマクロブロックに関しては、画像を復元するために必要な情報が、非基準視点画像の符号化データcの中に全て含まれる。一方、視点間予測符号化で符号化されたマクロブロックに関しては、画像を復元するために必要な視差情報が、非基準視点画像の符号化データcの中には含まれない。従って、視点間予測符号化されたマクロブロックを復号する際には、一旦、視差情報P2(視差マップ)から該当位置の視差情報v1、v2…を抽出した後で、視差補償を含めた復号処理を行う必要がある。一方、符号化データbの構造と比べると、非基準視点画像の符号化データcに視差情報が含まれない分、伝送する符号量を削減できる。
【0049】
図8は、本実施形態に係る多視点画像符号化装置13の内部処理手順を示すフローチャートである。
まず、基準視点画像、非基準視点画像、撮影条件情報が入力される(ステップS01)。各入力データは、各処理部において次の通り処理される。
基準視点画像符号化部131は、入力された基準視点画像を、視点内予測符号化により圧縮符号化する(ステップS02)。このとき、圧縮符号化された符号化基準視点画像は、非基準視点画像の符号化用に一旦復号し、基準視点画像として復元しておく。そして、符号化された基準視点画像データを、装置外部へ出力する(ステップS03)。
視差情報生成部132は、入力された基準視点画像および非基準視点画像に基づいて、基準視点画像と非基準視点画像間の視差情報を生成する(ステップS04)。
非基準視点画像符号化部133は、入力された非基準視点画像を、同一視点内の画像との間で視点内予測符号化して視点内予測符号化データを生成する(ステップS05)。また、非基準視点画像符号化部133は、基準視点画像符号化部から得られる復元された基準視点画像と、視差情報生成部132から得られる視差情報とに基づいて、入力された非基準視点画像を、基準視点画像との間で視点間予測符号化することにより圧縮符号化して視点間予測符号化データを生成する(ステップS06)。
さらに、非基準視点画像符号化部133は、生成した視点内予測符号化データと視点間予測符号化データのサイズを比較し、サイズの小さいデータを、符号化非基準視点画像データとして装置外部へ出力する(ステップS07、ステップS08)。
一方、撮影条件情報符号化部134は、入力された撮影条件情報を符号化し(ステップS09)、装置外部へ出力する(ステップS10)。
【0050】
図9は、多視点画像復号装置22の構成を示す概略ブロック図である。図示する例では、多視点画像復号装置22は、視点画像復号部22A、撮影条件情報復号部223、奥行き画像生成部224を含んで構成される。視点画像復号部22Aは、基準視点画像復号部221及び非基準視点画像復号部222を含んで構成される。
基準視点画像復号部221は、通信部21から入力された符号化基準視点画像を復号することで、基準視点画像を生成する。基準視点画像復号部221は、生成した基準視点画像を画像処理部23及び非基準視点画像復号部222に出力する。
【0051】
非基準視点画像復号部222は、基準視点画像復号部221から入力された基準視点画像及び通信部21から入力された符号化非基準視点画像に基づいて、非基準視点画像を生成する。非基準視点画像復号部222は、生成した非基準視点画像を画像処理部23に出力する。また、非基準視点画像復号部222は、符号化非基準視点画像に含まれる符号化視差情報を抽出する。非基準視点画像復号部222は、抽出した符号化視差情報を復号して視差情報を生成する。非基準視点画像復号部222は、生成した視差情報を奥行き画像生成部224に出力する。なお、非基準視点画像復号部の詳細については後述する。
撮影条件情報復号部223は、通信部21から入力された符号化撮影条件情報を復号し、撮影条件情報を生成する。撮影条件情報復号部223は、生成した撮影条件情報を奥行き画像生成部224及び画像処理部23に出力する。
【0052】
奥行き画像生成部224は、非基準視点画像復号部222から入力された視差情報及び撮影条件情報復号部223から入力された撮影条件情報に基づいて、非基準視点画像に対応する奥行き画像を生成する。奥行き画像の生成処理の詳細については後述する。
【0053】
(非基準視点画像復号部の構成)
図10は、非基準視点画像復号部222の構成を示す概略ブロック図である。非基準視点画像復号部222は、符号化データ判別部2221、視点内予測復号部2222、視点間予測復号部2223、及び切替部2221a、2221bを含んで構成される。
【0054】
符号化データ判別部2221は、通信部21から入力された符号化非基準視点画像から、第1のサブデータ、第2のサブデータ、第3のサブデータを抽出する。符号化データ判別部2221は、抽出した第1のサブデータが示す符号化タイプ情報に基づいて符号化データ判別部2221と、視点内予測復号部2222又は視点間予測復号部2223と、の間を接続する。つまり、符号化データ判別部2221は、符号化タイプが視点内予測であった場合は、符号化データ判別部2221と、視点内予測復号部2222とを、切替部2221aを介して接続させる。符号化データ判別部2221は、符号化タイプが視点内予測であった場合は、符号化データ判別部2221と、視点間予測復号部2223とを、切替部2221aを介して接続させる。
【0055】
符号化データ判別部2221は、第1のサブデータが視点内予測・動き予測の符号化タイプであった場合、すなわち第2のサブデータが視点内動きベクトルであった場合は、視点内動きベクトルを視点内予測復号部2222に出力する。符号化データ判別部2221は、第1のサブデータが視点間予測の符号化タイプであった場合、すなわち第2のサブデータが視差情報であった場合は、視差情報を視点間予測復号部2223に出力する。
【0056】
符号化データ判別部2221は、第1のサブデータが視点内予測(画面内予測または動き予測)の符号化タイプであった場合、すなわち第3のサブデータが視点内予測誤差であった場合は、視点内予測誤差を視点内予測復号部2222に出力する。符号化データ判別部2221は、第1のサブデータが視点間予測の符号化タイプであった場合、すなわち第3のサブデータが視点間予測誤差であった場合は、視点間予測誤差を視点間予測復号部2223に出力する。
符号化データ判別部2221は、符号化視差情報を符号化データから抽出する。符号化データ判別部2221は、抽出した符号化視差情報を復号する。符号化データ判別部2221は、復号された視差情報を視点間予測復号部2223及び画像処理部23に出力する。
【0057】
視点内予測復号部2222は、符号化データ判別部2221から入力された視点内予測誤差を、画面内予測の結果または視点内動きベクトルに基づいて復号し、非基準視点画像を生成する。具体的には、視点内予測復号部2222は、画面内予測または動き予測による視点内予測誤差に対して逆量子化、逆DCTを行い、視点内残差画像ブロックを生成する。視点内予測復号部2222は、視点内残差画像ブロックの各画素値に、画面内予測の際に利用した周辺の画素値、または視点内動きベクトルが示すブロックに対応する過去の非基準視点画像の各画素値を加えることにより、ブロック化した非基準視点画像を生成する。なお、過去の非基準視点画像は、視点内予測復号部2222内または図示しない画像格納用フレームメモリに保存されている。視点内予測復号部2222は、生成した、ブロック化した非基準視点画像を切替部2221bを介して画像処理部23に出力する。
【0058】
視点間予測復号部2223は、符号化データ判別部2221から入力された、視点間予測誤差及び視差情報に基づいて復号し、非基準視点画像を生成する。具体的には、視点間予測復号部2223は、視点間予測誤差に対して逆量子化、逆DCTを行い、視点間残差画像ブロックを生成する。視点間予測復号部2223は、視点間残差画像ブロックの各画素値に、基準視点画像復号部221から入力された、視差情報が示す基準視点画像の対応する各画素値を加算することにより、ブロック化した非基準視点画像を生成する。視点間予測復号部2223は、生成した、ブロック化した非基準視点画像を切替部2221bを介して画像処理部23へ出力する。
【0059】
(奥行き画像生成部の構成)
図11は、奥行き画像生成部224の構成を示す概略ブロック図である。奥行き画像生成部224は、距離情報抽出部2241、代表奥行き値算出部2242、及び奥行き値マッピング部2243を含んで構成される。
距離情報抽出部2241は、撮影条件情報復号部223で復元された撮影条件情報の中から、撮像部間距離B及び撮影距離Lを抽出する。距離情報抽出部2241は、抽出した撮像部間距離B及び撮影距離Lを代表奥行き値算出部2242へ出力する。
【0060】
代表奥行き値算出部2242は、非基準視点画像復号部222、又は符号化データ判別部2221から入力された視差情報と、距離情報抽出部2241から入力された撮像部間距離B及び撮影距離Lとに基づいて、マクロブロック毎に一つの代表奥行き値を算出する。代表奥行き値の算出方法については後述する。
奥行き値マッピング部2243は、代表奥行き値算出部2242によって得られた代表奥行き値に基づいて、ブロックを構成する各画素の奥行き値を算出し、奥行き画像に変換する。奥行き値マッピングの処理については後述する。
【0061】
(代表奥行き値算出処理)
奥行き画像生成部224は、式1を用いて代表奥行き値Zを算出する。
Z=LxB/(v+B) …〔式1〕
ここで、vは視差値を、Lは撮影距離を、Bは撮像部間隔を、Zは代表奥行き値を表す。
【0062】
図12は、奥行き値と視差情報が示す視差との関係を説明する説明図である。ここでは、2つの視点、すなわち撮像部41A、41B(それぞれ、撮像部11−1、11−2に対応する)と、2つの被写体、すなわち42A、42Bとが、図示する位置関係にある場合について説明する。被写体42A上の点43Aは、撮像部41A、41Bから撮影距離Lだけ離れた平面40上の位置PL1及びPR1に投影される。同様に、被写体42B上の点43Bは、位置PL2、PR2に投影される。
平面40が観賞時のスクリーン面に相当するとみなすと、位置PL1は、点43Aの左視点画像上の対応する画素を意味する。同様に、位置PR1は、点43Aの右視点画像上の対応する画素を意味する。また、位置PL2は、被写体42B上の点43Bに関する左視点画像上の対応する画素を意味する。位置PR2は、被写体42B上の点43Bに関する右視点画像上の対応する画素を意味する。
【0063】
2つの撮像部41A、41Bの間の距離をB、撮像部41A、41Bの撮影距離をL、撮像部41A、41Bから点43A、43Bまでの距離(代表奥行き値)をそれぞれZ1、Z2とする。被写体42Aに対応する撮像部41Aの視点から見た画像と撮像部41Bの視点から見た画像との間の視差をd1とする。被写体42Bに対応する撮像部41Aの視点から見た画像と撮像部41Bの視点から見た画像との間の視差をd2とする。視差d1、撮像部間距離B、撮影距離L、及び代表奥行き値Z1との間には、〔式2〕の関係が成り立つ。同様に、視差d2、撮像部間距離B、撮影距離L、及び代表奥行き値Z2との間には、〔式3〕の関係が成り立つ。
B:Z1=d1:(L−Z1) …〔式2〕
B:Z2=d2:(Z2−L) …〔式3〕
【0064】
〔式2〕、〔式3〕は、〔式1〕をそれぞれ被写体42A上の点43A、及び被写体42B上の点43Bに適用したものである。つまり〔式2〕ではv=d1、〔式3〕ではv=d2となる。ここで、視差vを、平面40上の右視点画像の対応する点と左視点画像の対応する点の距離として定義する。視差vは、d1が正の値、視差d2が負の値をとるものと定義する。つまり、被写体が平面40より撮像部に近いときに視差vは正の値をとり、被写体が平面40より撮像部に遠いときに視差vは負の値をとる。視差vは、所定のブロック単位で算出されている。視差vを算出するブロック単位に関しては、多視点画像符号化装置13において、このブロック単位を視点間予測符号化方式の処理単位と同じサイズに設定しておくことにより、非基準視点画像復号部222で生成した視差を、そのまま非基準視点画像に関する視差として扱うことができる。
【0065】
図13は、撮影距離を説明する説明図である。図13(a)は本実施形態で採用する平行法撮影における撮影距離を示している。平行法とは、2つの撮像部41A、41Bの光軸を平行にして撮影する方法である。平行法では、撮影距離は焦点距離と等しくなる。
なお、立体画像の撮影は、平行法撮影に限られない。図13(b)は交差法撮影における撮影距離を示す図である。交差法とは、2つの撮像部41A、41Bの光軸が前方で交差するようにして撮影する方法である。交差法撮影の場合、撮像部41A、41Bから光軸の交差点(クロスポイント)までの距離を撮影距離Lに相当するとみなす。
【0066】
(奥行き値マッピング処理)
奥行き値マッピング部2243は、代表奥行き値算出部2242によって算出された代表奥行き値に基づいて、ブロックを構成する画素単位の奥行き値を決定する。具体的には、奥行き値マッピング部2243は、代表奥行き値を、ブロックの中心に位置する画素の奥行き値と定める。奥行き値マッピング部2243は、当該ブロックの中心以外の画素に関しては、隣接する上下左右のブロックの代表奥行き値と、当該ブロックの代表奥行き値とを用いて線形補間を行い、各画素位置に対応した奥行き値を求める。このようにして、ブロック内の各画素の奥行き値を計算し、奥行き画像を生成する(方法(a)と呼ぶ)。
【0067】
なお、奥行き値マッピング部2243による画素単位の奥行き値決定の方法としては、前述のような方法に限定されず、以下の方法に従って決定してもよい。例えば、奥行き値マッピング部2243は、(b)隣接する左右のブロックの代表奥行き値との間で線形補間を行い、各画素位置に対応した奥行き値を求める。;(c)隣接する上下のブロックの代表奥行き値との間で線形補間を行い、各画素位置に対応した奥行き値を求める。;(d)代表奥行き値でブロック内一様の奥行き値とする。
【0068】
上記の方法(b)〜(d)の選択については、例えば、以下のようにする。対応する視点画像内の領域において公知の方法によりエッジ検出を行い、垂直方向のエッジ(被写体と背景の境界)が表れている場合は、左右方向の奥行き変化が大きいと推測されるため方法(b)を選択する。同様に視点画像内の対応する領域において水平方向のエッジが表れている場合は、上下方向の奥行き変化が大きいと推測されるため方法(c)を選択する。対応する視点画像の領域内にエッジがなく、かつブロックサイズが小さい(例えば2×2画素、4×4画素)場合には、方法(d)を選択する。
なお、〔式1〕で得られる奥行き値Zは、LやBが実距離を意味するのと同様に、撮像部から被写体までの物理的な距離を表わしている。画素単位の奥行き値を生成する際には、このZを、画素値を表わす数値範囲(例えば0〜255)に変換する。その方法としては、撮影時の距離レンジを表す情報(例えば、画像に含まれる全ての被写体に関するカメラからの距離の最小値と最大値)を撮影条件情報に含めておき、その距離レンジに対応するZの数値範囲を、所定の数値範囲(0〜255)で表わすように変換して、画素単位の奥行き値を得る。
【0069】
図14は、本実施形態に係る多視点画像復号装置22の内部処理手順を示すフローチャートである。
まず、多視点画像符号化装置13により符号化されたデータである、符号化基準視点画像、符号化非基準視点画像、符号化撮影条件情報が入力される(ステップS21)。各入力データは、各処理部において次の通り処理される。
基準視点画像復号部221は、入力された符号化基準視点画像を復号して基準視点画像を生成し(ステップS22)、生成した基準視点画像を装置外部へ出力する(ステップS23)。
非基準視点画像復号部222は、入力された符号化非基準視点画像を復号して、基準視点と非基準視点間の視差情報を抽出する(ステップS24)。また、抽出した視差情報を利用しながら符号化非基準視点画像に含まれるその他の符号化データを復号して非基準視点画像を生成し(ステップS25)、生成した非基準視点画像を装置外部へ出力する(ステップS26)。
撮影条件情報復号部223は、符号化撮影条件情報を復号して撮影条件情報を生成し(ステップS27)、生成した撮影条件情報を装置外部へ出力する(ステップS28)。
奥行き画像生成部224は、非基準視点画像復号部222から得られる視差情報と、撮影条件情報復号部223から得られる撮影条件情報とに基づいて、非基準視点画像に対応する奥行き画像を生成し(ステップS29)、生成された奥行き画像を装置外部へ出力する(ステップS30)。
【0070】
上記のように本実施形態では、視差情報生成部132は、撮像部11−1が撮像した基準視点画像と、撮像部11−2が撮影した非基準視点画像との間で、画像領域単位ごとに視差情報を生成する。視点内予測符号化部1331は、非基準視点画像を、同一画像内または過去のフレームを用いて視点内予測符号化する。視点間予測符号化部1332は、視差情報に基づいて基準視点画像と非基準視点画像の間で視点間予測符号化する。これにより、本実施形態では奥行き画像の符号化・伝送を行わずに複数の視点画像を符号化できる。
【0071】
また、符号化データ生成部1333は視点内予測符号化したデータのデータ量と、視点間予測符号化したデータのデータ量と、に基づいて符号化データを生成する。これにより、視点内予測符号化したデータと視点間予測符号化したデータのうちよりデータ量の小さな符号化方式を用いて符号化データを生成できる。
【0072】
また、本実施形態では、視点内予測符号化したデータ及び視点間予測符号化したデータは、画像データ毎に生成され、視点内予測符号化したデータ及び視点間予測符号化したデータ毎に視差情報が含まれる。これにより、復号時に、符号化単位毎に逐次奥行き情報を生成することができる。
【0073】
また、本実施形態では、符号化データ生成部1333は、視差情報を、符号化データとは別の符号化視差情報として生成するものを含む。これにより、生成される符号化非視点画像は、例えばMVCのような従来の符号化方式で規定される符号化データ構造との互換性があり、既存の復号装置で復号することが可能となる。
【0074】
また、本実施形態では、視点内予測符号化したデータ及び視点間予測符号化したデータは、画像データ毎に生成され、視点内予測符号化したデータ及び視点間予測符号化したデータ毎に視差情報が含まれない。これにより、符号化データ量を削減することができる。
【0075】
また、本実施形態では、符号化された基準視点画像を復号する基準視点画像復号部221と、符号化された非基準視点画像を復号すると共に、基準視点画像と非基準視点画像の符号化単位の視差情報を抽出する非基準視点画像復号部222と、非基準視点画像復号部222によって抽出された視差情報と、撮影条件情報復号部223によって復号された撮影条件情報とに基づいて、非基準視点画像に対応する奥行き画像を生成する奥行き画像生成部224と、を備える。これにより、奥行き画像を用いて立体画像を生成・表示することが可能となる。
【0076】
また、本実施形態では、奥行き画像生成部224は、視差情報と、撮像部11−1と撮像部11−2との間の撮像部間距離、及び撮像部11−1又は撮像部11−2と被写体との間の撮影距離とから、予め定めた大きさの画像領域単位の代表奥行き値を算出する代表奥行き値算出部2242と、代表奥行き値に基づいて画像領域単位の奥行き画像を生成する奥行き値マッピング部2243と、を備える。これにより、奥行き画像を用いて立体画像を生成・表示することが可能となる。
【0077】
また、本実施形態では、上記のような符号化装置および復号装置の構成をとることにより、奥行き画像自体を符号化・伝送せずに視差情報から奥行き画像を生成する。したがって、奥行き画像を利用した仮想視点画像の生成を可能にするとともに、奥行き画像の符号化に必要な演算コストおよび符号量を削減することができ、装置の小型化・低コスト化および伝送路や記録メディアの利用効率を高めることを可能にする。
【0078】
なお、多視点画像復号装置22は、基準視点画像、非基準視点画像、奥行き画像、及び撮影条件情報を画像処理部23へ出力する。基準視点画像および非基準視点画像に関してはそのまま立体画像の表示のための画像データとして使用される。一方、奥行き画像および撮影条件情報は、図示しない視点画像生成部によって、もともと符号化装置に入力されていない中間視点位置に対応する視点画像である仮想視点画像の生成に利用される。なお、この視点画像生成部は、多視点画像復号装置22の中に含まれるよう構成してもよい。
【0079】
なお、上記の実施形態に係る基準視点画像の符号化処理では、視点内予測符号化によって符号化データを生成するため、生成された符号化データは従来の単一視点用の符号化方式で生成したデータと同等である。従って、本発明による基準視点画像の符号化データは従来の単一視点用の画像復号装置(例えば、符号化方式の国際規格であるH.264に従う画像復号装置)で復号することが可能である。
【0080】
なお、非基準視点画像の符号化処理に関しては、作成された視差情報(視差値)は、従来技術のように視点画像間のブロックマッチング等で生成した視差値と同等の情報であり、視差値に基づく視差補償予測符号化処理は同一の方法が適用できる。従って、本発明による非基準視点画像の符号化データは、従来の多視点画像用の画像復号装置(例えば、多視点画像符号化方式の国際規格であるMVCに従う画像復号装置)で復号することが可能である。
【0081】
このように、多視点画像符号化装置13(視点画像符号化部13A)によって生成される符号化基準視点画像及び符号化非基準視点画像は、既存の画像復号装置で復号して画像として再生できる。すなわち、多視点画像符号化装置13によって生成される符号化基準視点画像及び符号化非基準視点画像は、データの互換性を維持している。
【0082】
なお、各符号化データは、それぞれが直接、多視点画像復号装置22に入力されて与えられてもよい。
【0083】
なお、基準視点画像および非基準視点画像を符号化する際の符号化処理単位のブロックサイズは、前述の8画素×8画素サイズに限らず、16画素×16画素、4画素×4画素、2画素×2画素などのサイズでもよい。また、縦横の画素数が同数でなくともよく、例えば16画素×8画素、8画素×16画素、8画素×4画素、4画素×8画素などのサイズでもよい。これらのサイズは、各視点画像に含まれる被写体の大きさや、画像の複雑さなどに応じて最適なサイズを選択してもよい。
【0084】
なお、図2に示したように、本実施の形態では視点画像が基準視点画像と非基準視点画像との2つであるケースを例に挙げているが、視点画像が3つ以上の場合でも、多視点画像符号化装置、多視点画像復号装置を構成することができる。例えば視点画像が3つの場合は、1つの視点画像を基準視点として扱って視点内予測符号化方式により圧縮符号化し、残りの2つの視点画像は非基準視点の視点画像として視点間予測符号化方式により圧縮符号化する。あるいは、基準視点の視点画像が2つで、残りの1つの視点画像のみ非基準視点の視点画像としてもよい。視点画像が3つを超える場合も、同様の考え方を適用することができる。
【0085】
なお、多視点画像符号化装置13、および多視点画像復号装置22の各機能要素、特に基準視点画像符号化部131、視差情報生成部132、非基準視点画像符号化部133、撮影条件情報符号化部134、基準視点画像復号部221、非基準視点画像復号部222、奥行き画像生成部224、および撮影条件情報復号部223は、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(central processing unit)を用いてソフトウェア的に実現してもよい。
【0086】
なお、多視点画像符号化装置13及び多視点画像復号装置22は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。なお、上述した機能を実現するソフトウェアである多視点画像符号化装置13および画像復号装置2の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記各装置に供給し、そのコンピュータ(またはCPUやMPU(microprocessor unit))が記録媒体に記録されているプログラムコードを読み出し実行するようにしてもよい。
【0087】
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM(compact disc read−only memory)/MO(magneto−optical)/MD(Mini Disc)/DVD(digital versatile disk)/CD−R(CD Recordable)等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM(Erasable Programmable Read−Only Memory)/EEPROM(Electrically Erasable and Programmable Read−Only Memory)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。
【0088】
また、多視点画像符号化装置13および多視点画像復号装置22を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN(local area network)、ISDN(Integrated Services Digital Network)、VAN(value−added network)、CATV(community antenna television)通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE(Institute of Electric and Electronic Engineers)1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asynchronous Digital Subscriber Loop)回線等の有線でも、IrDA(infrared data association)やリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(high data rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。
【0089】
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
【0090】
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
【符号の説明】
【0091】
A・・・多視点画像処理システム、1・・・撮像機器、2・・・表示機器、11−1、11−2・・・撮像部、12・・・撮影制御部、13・・・多視点画像符号化装置、13A・・・視点画像符号化部、14・・・通信部、21・・・通信部、22・・・多視点画像復号装置、22A・・・視点画像復号部、23・・・画像処理部、24・・・表示部、131・・・基準視点画像符号化部、132・・・視差情報生成部、133・・・非基準視点画像符号化部、134・・・撮影条件情報符号化部、223・・・撮影条件情報復号部、1331・・・視点内予測符号化部、1332・・・視点間予測符号化部、1333・・・符号化データ生成部、221・・・基準視点画像復号部、222・・・非基準視点画像復号部、223・・・撮影条件情報復号部、224・・・奥行き画像生成部、2221・・・符号化データ判別部、2221a、2221b・・・切替部、2222・・・視点内予測復号部、2223・・・視点間予測復号部、2241・・・距離情報抽出部、2242・・・代表奥行き値算出部、2243・・・奥行き値マッピング部
【特許請求の範囲】
【請求項1】
第1の視点の画像である第1視点画像と第2の視点の画像である第2視点画像との間で、画像領域単位毎に視差情報を生成する視差情報生成部と、
前記第2視点画像を、異なるフレームの第2視点画像との間で視点内予測符号化して第1の符号化データを生成する視点内予測符号化部と、
前記視差情報に基づいて前記第1視点画像との間で視点間予測符号化して第2の符号化データを生成する視点間予測符号化部と、
を備えることを特徴とする多視点画像符号化装置。
【請求項2】
第1のデータと第2のデータのデータ量に関する情報に基づいて、前記画像領域毎に前記第1の符号化データ又は前記第2の符号化データのいずれかを、当該画像領域の符号化データとして選択する符号化データ生成部
を備えることを特徴とする請求項1に記載の多視点画像符号化装置。
【請求項3】
前記画像領域の符号化データには、当該領域の視差情報が含まれることを特徴とする請求項1又は2に記載の多視点画像符号化装置。
【請求項4】
前記符号化データ生成部は、前記視差情報を符号化して符号化視差情報を生成し、前記符号化データと前記符号化視差情報を出力することを特徴とする、請求項1又は2に記載の多視点画像符号化装置。
【請求項5】
前記第1のデータ及び前記第2のデータは、前記画像領域毎に生成され、前記第1のデータ及び前記第2のデータに前記視差情報が含まれない
ことを特徴とする請求項1又は2に記載の多視点画像符号化装置。
【請求項6】
符号化された第1視点画像を復号する第1視点画像復号部と、
符号化された第2視点画像を復号すると共に、第1視点画像と第2視点画像間の視差情報を抽出する第2視点画像復号部と、
前記第2視点画像復号部によって抽出された視差情報に基づいて奥行き画像を生成する奥行き画像生成部と、
を備えることを特徴とする多視点画像復号装置。
【請求項7】
前記奥行き画像生成部は、
前記視差情報と、前記第1の視点に配置された第1撮像部と前記第2の視点に配置された第2撮像部との間の撮像部間距離、及び前記第1撮像部及び第2撮像部と被写体との間の撮影距離とに基づいて、画像領域単位の代表奥行き値を算出する代表奥行き値算出部と、
複数の前記代表奥行き値に基づいて補間を行うことにより、奥行き画像を生成する奥行きマッピング部と、
を備えることを特徴とする請求項6に記載の多視点画像復号装置。
【請求項8】
多視点画像符号化装置における方法であって、
視差情報生成部が、第1の視点の画像である第1視点画像と第2の視点の画像である第2視点画像との間で、画像領域単位毎に視差情報を生成する視差情報生成過程と、
視点内予測符号化部が、前記第2視点画像を、異なるフレームの第2視点画像との間で視点内予測符号化して第1の符号化データを生成する視点内予測符号化過程と、
視点間予測符号化部が、前記視差情報に基づいて前記第1視点画像との間で視点間予測符号化して第2の符号化データを生成する視点間予測符号化過程と、
を備えることを特徴とする多視点画像符号化方法。
【請求項9】
多視点画像復号装置における方法であって、
第1視点画像復号部が、符号化された第1視点画像を復号する第1視点画像復号過程と、
第2視点画像復号部が、符号化された第2視点画像を復号すると共に、第1視点画像と第2視点画像間の視差情報を抽出する第2視点画像復号過程と、
奥行き画像生成部が、前記第2視点画像復号部によって抽出された視差情報に基づいて奥行き画像を生成する奥行き画像生成過程と、
を備えることを特徴とする多視点画像復号方法。
【請求項1】
第1の視点の画像である第1視点画像と第2の視点の画像である第2視点画像との間で、画像領域単位毎に視差情報を生成する視差情報生成部と、
前記第2視点画像を、異なるフレームの第2視点画像との間で視点内予測符号化して第1の符号化データを生成する視点内予測符号化部と、
前記視差情報に基づいて前記第1視点画像との間で視点間予測符号化して第2の符号化データを生成する視点間予測符号化部と、
を備えることを特徴とする多視点画像符号化装置。
【請求項2】
第1のデータと第2のデータのデータ量に関する情報に基づいて、前記画像領域毎に前記第1の符号化データ又は前記第2の符号化データのいずれかを、当該画像領域の符号化データとして選択する符号化データ生成部
を備えることを特徴とする請求項1に記載の多視点画像符号化装置。
【請求項3】
前記画像領域の符号化データには、当該領域の視差情報が含まれることを特徴とする請求項1又は2に記載の多視点画像符号化装置。
【請求項4】
前記符号化データ生成部は、前記視差情報を符号化して符号化視差情報を生成し、前記符号化データと前記符号化視差情報を出力することを特徴とする、請求項1又は2に記載の多視点画像符号化装置。
【請求項5】
前記第1のデータ及び前記第2のデータは、前記画像領域毎に生成され、前記第1のデータ及び前記第2のデータに前記視差情報が含まれない
ことを特徴とする請求項1又は2に記載の多視点画像符号化装置。
【請求項6】
符号化された第1視点画像を復号する第1視点画像復号部と、
符号化された第2視点画像を復号すると共に、第1視点画像と第2視点画像間の視差情報を抽出する第2視点画像復号部と、
前記第2視点画像復号部によって抽出された視差情報に基づいて奥行き画像を生成する奥行き画像生成部と、
を備えることを特徴とする多視点画像復号装置。
【請求項7】
前記奥行き画像生成部は、
前記視差情報と、前記第1の視点に配置された第1撮像部と前記第2の視点に配置された第2撮像部との間の撮像部間距離、及び前記第1撮像部及び第2撮像部と被写体との間の撮影距離とに基づいて、画像領域単位の代表奥行き値を算出する代表奥行き値算出部と、
複数の前記代表奥行き値に基づいて補間を行うことにより、奥行き画像を生成する奥行きマッピング部と、
を備えることを特徴とする請求項6に記載の多視点画像復号装置。
【請求項8】
多視点画像符号化装置における方法であって、
視差情報生成部が、第1の視点の画像である第1視点画像と第2の視点の画像である第2視点画像との間で、画像領域単位毎に視差情報を生成する視差情報生成過程と、
視点内予測符号化部が、前記第2視点画像を、異なるフレームの第2視点画像との間で視点内予測符号化して第1の符号化データを生成する視点内予測符号化過程と、
視点間予測符号化部が、前記視差情報に基づいて前記第1視点画像との間で視点間予測符号化して第2の符号化データを生成する視点間予測符号化過程と、
を備えることを特徴とする多視点画像符号化方法。
【請求項9】
多視点画像復号装置における方法であって、
第1視点画像復号部が、符号化された第1視点画像を復号する第1視点画像復号過程と、
第2視点画像復号部が、符号化された第2視点画像を復号すると共に、第1視点画像と第2視点画像間の視差情報を抽出する第2視点画像復号過程と、
奥行き画像生成部が、前記第2視点画像復号部によって抽出された視差情報に基づいて奥行き画像を生成する奥行き画像生成過程と、
を備えることを特徴とする多視点画像復号方法。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【公開番号】特開2013−85064(P2013−85064A)
【公開日】平成25年5月9日(2013.5.9)
【国際特許分類】
【出願番号】特願2011−222724(P2011−222724)
【出願日】平成23年10月7日(2011.10.7)
【出願人】(000005049)シャープ株式会社 (33,933)
【Fターム(参考)】
【公開日】平成25年5月9日(2013.5.9)
【国際特許分類】
【出願日】平成23年10月7日(2011.10.7)
【出願人】(000005049)シャープ株式会社 (33,933)
【Fターム(参考)】
[ Back to top ]