説明

再生装置および再生プログラム

【課題】 2次元画像およびその画素毎の奥行き情報が所定のフォーマットで規格された記録媒体に記録されている際に、その2次元画像および奥行き情報に基づいて2次元画像および3次元画像を切替再生する。
【解決手段】 DVDビデオ規格に準拠する記録媒体9に記録された多重化ストリームから第1のビットストリームを分離して2次元画像を再生する情報分離化器102およびビデオ復号器103と、多重化ストリームから第2のビットストリームを分離して2次元画像の奥行きに関する情報を再生する情報分離化器102、ビデオ復号器103、および奥行き情報取り出し器104と、再生した2次元画像およびその2次元画像の奥行きに関する情報に基づいて3次元画像を生成する視野変換器106および立体画像表示器105と、を備えた再生装置100。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、所定の規格にフォーマット化された記録媒体に記録された、2次元画像の所定単位毎に求められた当該2次元画像の奥行きに関する情報を再生するための再生装置および再生プログラムに関する。
【背景技術】
【0002】
従来、例えば、特許文献1には、左右一対の撮像カメラにより撮像された対象物体に関するステレオ画像(一対の並んだ2次元画像;左眼画像、右眼画像)において相関関数等により互いに対応付けられた一対の画素点間の視差ベクトルを求め、この視差ベクトルに基づいて、ステレオ画像から対象物体までの距離を求める装置が開示されている。
【0003】
すなわち、この特許文献1によれば、例えば左眼画像の注目点の右眼画像上の投影線であるエピポーラ線の方向およびこのエピポーラ線に直交する方向を求める。
【0004】
そして、求めたエピポーラ線の方向およびその直交方向それぞれに基づくエピポーラ線方向探索範囲および直交方向探索範囲から構成された左眼画像上の2次元探索範囲を決定し、左眼画像上の2次元探索範囲内のある点の座標およびこの点に対応する右眼画像上の対応点の座標の差分を、その点の視差ベクトルとして求める。この視差ベクトルを、左眼画像上の2次元探索範囲内における全ての点において求め、求めた視差ベクトルを用いてステレオ画像から対象物体までの距離、言い換えれば、ステレオ画像上に表示された対象物体の奥行き情報を算出している。
【0005】
算出したステレオ画像から対象物体までの距離(奥行き情報)により、対象物体を立体画像、すなわち、3次元画像として表示することが可能になる。
【0006】
上述した3次元映像を作成する際に必要な2種類の2次元映像に対応する2種類のビデオデータを記録する際の技術として、特許文献2には、映像信号のメインビデオストリームとして、2種類のビデオデータの内の一方のビデオデータを格納し、この一方のビデオデータから例えばMPEG(Motion Picture Experts Group)予測符号化等により作成された他方のビデオデータを、映像信号におけるプライベートストリーム、ユーザーエリア等の任意の使用可能領域に補助データとして記録することにより、立体映像表示に必要な2種類のビデオデータを記録する方式が開示されている。
【特許文献1】特開2000−28356号公報
【特許文献2】特開平9−327041号公報
【発明の開示】
【発明が解決しようとする課題】
【0007】
しかしながら、特許文献1および2に開示された技術等の従来の技術においては、2次元ビデオデータから3次元映像を生成するために必要なその2次元映像(2次元ビデオデータ)を構成する2次元画像の奥行き情報が、所定のフォーマットで規格化された記録媒体に対し、その規格化されたフォーマットに対し互換性を保持した状態で、且つ切替再生(2次元映像または3次元映像として効率的に切替る再生)できるように記録するための具体的な記録方式は開発されてはおらず、したがって、その具体的な記録方式により記録された奥行き情報を利用して3次元画像を生成する再生方式を開発したいという要望が生じていた。
【0008】
本発明は上述した事情に鑑みてなされたものであり、2次元画像およびその画素毎の奥行き情報が所定のフォーマットで規格された記録媒体に記録されている際に、その2次元画像および奥行き情報に基づいて2次元画像および3次元画像を切替再生できる再生装置および再生プログラムを提供することをその目的とする。
【課題を解決するための手段】
【0009】
請求項1記載の発明は、上記課題を解決するため、所定の規格にフォーマット化された記録媒体に記録されており、2次元画像を前記記録媒体のフォーマットに準拠する圧縮符号化フォーマットにより圧縮符号化して成る第1のビットストリームと、前記2次元画像の所定単位毎に求められた当該2次元画像の奥行きに関する情報をフォーマット化して成る第2のビットストリームとが多重化された多重化ストリームを再生する再生装置であって、前記多重化ストリームから前記第1のビットストリームを分離して前記2次元画像を再生する手段と、前記多重化ストリームから前記第2のビットストリームを分離して前記2次元画像の奥行きに関する情報を再生する手段と、前記再生した2次元画像および当該2次元画像の奥行きに関する情報に基づいて3次元画像を生成する手段とを備えたことを要旨とする。
【0010】
請求項2記載の発明は、上記課題を解決するため、所定の規格にフォーマット化された記録媒体に記録されており、2次元画像を前記記録媒体のフォーマットに準拠する圧縮符号化フォーマットにより圧縮符号化して成るビデオストリームと、このビデオストリームにおける前記圧縮符号化フォーマットにおいて設定される任意使用領域に格納された前記2次元画像の奥行きに関する情報とが多重化されて構成された多重化ストリームを再生する再生装置であって、前記多重化ストリームから前記ビットストリームを分離して前記2次元画像を再生する手段と、前記分離したビットストリームにおける前記任意使用領域に格納された前記2次元画像の奥行きに関する情報を再生する手段と、前記再生した2次元画像および当該2次元画像の奥行きに関する情報に基づいて3次元画像を生成する手段とを備えたことを要旨とする。
【0011】
請求項3記載の発明は、上記課題を解決するため、前記2次元画像は、2次元映像を構成する複数のフレーム画像であり、前記奥行き情報は、前記2次元映像を構成する各フレーム画像における前記所定単位としての画素毎の画素値であり、前記2次元映像を構成する各フレーム画像における前記画素毎の奥行き情報を表す画素値は、前記記録媒体のフォーマットに準拠する圧縮符号化フォーマットにより各フレーム画像内において差分符号化する第1の圧縮符号化処理、ランレングス符号化する第2の圧縮符号化処理、前記各フレーム画像と該各フレーム画像の時間軸上における未来および過去の内の少なくとも一方のフレーム画像とから予測符号化する第3の圧縮符号化処理、および前記各フレーム画像内の直交変換を用いて符号化する第4の圧縮符号化処理の内の少なくとも何れか1つの圧縮符号化処理により圧縮符号化されて前記記録媒体に記録されており、前記奥行きに関する情報を再生する手段は、前記第1〜第4の圧縮符号化処理の内の少なくとも何れか1つの圧縮符号化処理により圧縮符号化処理された前記各フレーム画像の前記画素毎の奥行き情報を表す画素値を、その少なくとも何れか1つの圧縮符号化処理に対応する復号化処理により復号化して前記2次元画像の奥行きに関する情報を再生する手段を備えたことを要旨とする。
【0012】
請求項4記載の発明は、上記課題を解決するため、所定の規格にフォーマット化された記録媒体に記録されており、2次元画像を前記記録媒体のフォーマットに準拠する圧縮符号化フォーマットにより圧縮符号化して成る第1のビットストリームと、前記2次元画像の所定単位毎に求められた当該2次元画像の奥行きに関する情報をフォーマット化して成る第2のビットストリームとが多重化された多重化ストリームを再生するためのコンピュータが実行可能な再生プログラムであって、前記コンピュータに、前記多重化ストリームから前記第1のビットストリームを分離して前記2次元画像を再生する処理と、前記多重化ストリームから前記第2のビットストリームを分離して前記2次元画像の奥行きに関する情報を再生する処理と、前記再生した2次元画像および当該2次元画像の奥行きに関する情報に基づいて3次元画像を生成する処理とをそれぞれ実行させることを要旨とする。
【0013】
請求項5記載の発明は、上記課題を解決するため、所定の規格にフォーマット化された記録媒体に記録されており、2次元画像を前記記録媒体のフォーマットに準拠する圧縮符号化フォーマットにより圧縮符号化して成るビデオストリームと、このビデオストリームにおける前記圧縮符号化フォーマットにおいて設定される任意使用領域に格納された前記2次元画像の奥行きに関する情報とが多重化されて構成された多重化ストリームを再生するためのコンピュータが実行可能な再生プログラムであって、前記コンピュータに、前記多重化ストリームから前記ビットストリームを分離して前記2次元画像を再生する処理と、前記分離したビットストリームにおける前記任意使用領域に格納された前記2次元画像の奥行きに関する情報を再生する処理と、前記再生した2次元画像および当該2次元画像の奥行きに関する情報に基づいて3次元画像を生成する処理とをそれぞれ実行させることを要旨とする。
【0014】
請求項6記載の発明は、上記課題を解決するため、前記2次元画像は、2次元映像を構成する複数のフレーム画像であり、前記奥行き情報は、前記2次元映像を構成する各フレーム画像における前記所定単位としての画素毎の画素値であり、前記2次元映像を構成する各フレーム画像における前記画素毎の奥行き情報を表す画素値は、前記記録媒体のフォーマットに準拠する圧縮符号化フォーマットにより各フレーム画像内において差分符号化する第1の圧縮符号化処理、ランレングス符号化する第2の圧縮符号化処理、前記各フレーム画像と該各フレーム画像の時間軸上における未来および過去の内の少なくとも一方のフレーム画像とから予測符号化する第3の圧縮符号化処理、および前記各フレーム画像内の直交変換を用いて符号化する第4の圧縮符号化処理の内の少なくとも何れか1つの圧縮符号化処理により圧縮符号化されて前記記録媒体に記録されており、前記奥行きに関する情報を再生する処理は、前記第1〜第4の圧縮符号化処理の内の少なくとも何れか1つの圧縮符号化処理により圧縮符号化処理された前記各フレーム画像の前記画素毎の奥行き情報を表す画素値を、その少なくとも何れか1つの圧縮符号化処理に対応する復号化処理により復号化して前記2次元画像の奥行きに関する情報を再生する処理を含むことを要旨とする。
【発明の効果】
【0015】
請求項1および4記載の発明によれば、記録媒体に記録された多重化ストリームを、一体に多重化記録された奥行き情報を用いることなく再生することにより、第1のビットストリームに基づく2次元画像を再生することができる。そして、第1のビデオストリームを、一体に多重化記録された奥行き情報を用いて再生することにより、2次元画像および奥行き情報から生成された3次元画像に切り替えて再生することができる。
【0016】
請求項2および5記載の発明によれば、2次元画像を記録媒体のフォーマットに準拠する圧縮符号化フォーマットにより圧縮符号化してビットストリームを生成し、2次元画像の奥行きに関する情報を、生成したビットストリームにおける圧縮符号化フォーマットにおいて設定される任意使用領域に格納して奥行き情報付きのビットストリームを生成し、多重化により記録媒体に記録している。
【0017】
したがって、図示しない再生装置においては、記録媒体に記録された多重化ストリームを、一体に多重化記録された奥行き情報を用いることなく再生することにより、多重化ストリームに基づく2次元画像を再生することができる。そして、多重化ストリームを、一体に多重化された奥行き情報を用いて再生することにより、2次元画像および奥行きに関する情報から生成された3次元画像に切り替えて再生することができる。
【0018】
特に、請求項3および6に記載した発明によれば、2次元映像を構成する各フレーム画像における画素毎の奥行き情報を表す画素値が第1〜第4の圧縮符号化処理の内の少なくとも何れか1つの圧縮符号化処理により圧縮符号化されている際に、その少なくとも何れか1つの圧縮符号化処理に対応する復号化処理により2次元映像を構成する各フレーム画像における画素毎の奥行き情報を再生することができる。
【発明を実施するための最良の形態】
【0019】
以下、本発明を実施するための最良の形態である複数の実施形態を図面を参照して説明する。
【0020】
なお、本発明に係る各実施形態においては、2次元映像およびこの2次元映像から得られた3次元映像再生に必要な奥行き情報を、規格化されたフォーマットとしてDVD(Digital Versatile Disk)ビデオ規格に準拠したフォーマットに互換性を有する状態で記録媒体(メディア)に記録するための記録装置および記録プログラムと、このようにして記録された2次元映像および奥行き情報を再生する再生装置および再生プログラムについて説明する。そして、本発明に係る記録装置およびプログラムに対応する記録フォーマットは、上記DVDビデオ規格準拠フォーマットに限定されるものではなく、2次元映像を再生できる仕組み(ハードウェア構成およびソフトウェア構成の何れも含む)を有するアプリケーションプログラムのフォーマットや他の記録媒体のフォーマットに対してDVDビデオ規格用フォーマットと同様に応用できるものである。
【0021】
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る記録装置200の概略構成を示すブロック図であり、図2は、本実施形態の記録装置200の映像記録対象である物体(対象物体)OBに対する記録装置200の配置関係を示す図である。
【0022】
図1および図2に示すように、記録装置200は、撮像レンズL1およびL2をそれぞれ有し、対象物体OBの左右の2次元映像{ビデオデータ(映像用ビットストリーム)}である左眼動画像および右眼動画像をそれぞれ撮像するための左右一対の撮像カメラ1Aおよび1Bを備えている。この撮像カメラ1Aおよび1Bの撮像レンズL1AおよびL1Bは、人間の両眼の間隔に相当する固定あるいは可変の間隔を空けて所定方向に沿って左右に同一の高さで並置されており、各撮像レンズL1AおよびL1Bは、互いに共通に設定された固定あるいは可変の焦点距離を有している。すなわち、撮像カメラ1Aおよび1Bは、その撮像レンズL1AおよびL1Bの光軸が同一平面上に含まれ、且つそれぞれの撮像領域が同一平面上に位置するように2次元的に配置されている。
【0023】
また、記録装置200は、撮像カメラ1Aおよび1Bによりそれぞれ撮像された2次元映像の内の少なくともどちらか一方(本実施形態では、撮像カメラ1Bにより撮像された2次元映像)を圧縮するビデオ圧縮器2と、撮像カメラ1Aおよび1Bによりそれぞれ撮像された各フレーム画像(左眼画像、右眼画像)間の見え方の違い(視差)を表す物理量(視差ベクトル:視差方向および視差量)を抽出する視差ベクトル抽出器3とを備えている。
【0024】
さらに、記録装置200は、視差ベクトル抽出器3により抽出された視差ベクトルの大きさを算出し、算出した視差ベクトルの大きさを用いて、3次元映像生成に必要な左眼画像および右眼画像の奥行きに関する情報(奥行き情報)を算出する奥行き情報算出器4と、この奥行き情報算出器4により算出された奥行き情報をフォーマット化する奥行き情報フォーマット器5とを備えている。この奥行き情報フォーマット器5によりフォーマット化された奥行き情報は、設定に応じてビデオ圧縮器2に送られて圧縮されるか、直接、後述する情報多重化器8に送られて多重化されるようになっている。
【0025】
記録装置200は、対象物体OBの周囲の音(音声等)を取得するマイクロフォン(以下、マイクとする)6と、このマイク9により取得された周囲音に対応するオーディオ信号を、DVDビデオ規格に準拠する圧縮フォーマットであるMPEGフォーマット(MPEGオーディオ)により圧縮するオーディオ圧縮器7とを備えている。
【0026】
さらに、記録装置200は、ビデオ圧縮器2により圧縮化されたビデオデータ、オーディオ圧縮器7により圧縮化されたオーディオデータ、および奥行き情報を多重化することにより、DVDビデオ規格に準拠するフォーマットのデータを生成する情報多重化器8と、DVDビデオ規格に準拠する記録媒体9と、情報多重化器8により多重化されたDVDビデオ規格に準拠するフォーマットのデータを記録媒体9に記録する記録器10とを備えている。
【0027】
そして、記録装置200は、撮像カメラ1Aおよび1B、ビデオ圧縮器2、視差ベクトル抽出器3、奥行き情報算出器4、奥行き情報フォーマット器5、マイク6、オーディオ圧縮器7、情報多重化器8、および記録器10にそれぞれ接続されており、装置全体を制御する制御部11を備えている。すなわち、この制御部11は、撮像カメラ1Aおよび1Bの撮像動作、ビデオ圧縮器2の圧縮処理、視差ベクトル抽出器3の視差ベクトル抽出処理、奥行き情報算出器4の奥行き情報算出処理、奥行き情報フォーマット器5のフォーマット化処理、マイク6の周囲音取得処理、オーディオ圧縮器7の圧縮処理、情報多重化器8の多重化処理、および記録器10の記録処理をそれぞれ制御するようになっている。
【0028】
視差ベクトル抽出器3は、左右一対の撮像カメラ1Aおよび1Bによりそれぞれ同一タイミングで撮像された対象物体OBの左眼画像Plおよび右眼画像Prを受け取り、受け取った左眼画像Plの各画素(ピクセル)および右眼画像Prの対応する各画素の間の対応付けを所定の評価関数(例えば、特開平9−33249号公報に開示された評価関数)を用いて行うようになっている。
【0029】
ここで、上述したように、左右一対の撮像カメラ1Aおよび1Bは、その撮像レンズL1AおよびL1Bの光軸OlおよびOrが所定の間隔(図3(a)ではBとして表す)を空けて同一平面(例えば、本実施形態では、図3(a)に示すように、同一のX−Z平面)に含まれるように配置されており、対象物体OBの左眼画像Plおよび右眼画像Prは、図3(a)に示すように、対象物体OBの手前側(撮像カメラ側)において同一のX−Y平面に含まれるように得られる。
【0030】
撮像カメラ1Aおよび1Bのそれぞれの光軸が同一のX−Z平面上に正しく配置される限り、左眼画像Plの各点(画素)に対応する右眼画像Pr間の点(画素)の探索は、例えば左眼画像Plの各画素の右眼画像Pr上への投影線であるエピポーラ線である走査線上のみ行えばよい。しかしながら、実際には、右眼画像Pr上の走査線上に対応画素が1画素分も誤差なく配置されていることはむしろ少ない。
【0031】
そこで、本実施形態では、視差ベクトル抽出器3は、左眼画像Pl上の各画素に対応する右眼画像Pr上の各画素、すなわち、左眼画像Plおよび右眼画像Pr間の対応画素を、左眼画像Pl上の各画素の右眼画像Pr上の投影線であるエピポーラ線方向{本実施形態の場合、撮像レンズL1AおよびL1Bの光軸OlおよびOrが同一のX−Z平面に含まれているため、エピポーラ線方向に加えて、そのエピポーラ線方向に直交する垂直方向}に沿って対応画素探索および探索された対応画素間の視差ベクトル抽出処理を行う。
【0032】
ここで、視差ベクトル抽出器3の対応画素探索処理および探索された対応画素間の視差ベクトル算出処理について、図2、図3(a)および(b)を参照して説明する。
【0033】
例えば、図3(a)に示すように、対象物体OBにおける予め判別されている点、あるいは非常に判別しやすい特徴点(座標(x,y,z))が、左眼画像Plには点R(Xl,Yl)に、右眼画像Prには点S(Xr,Yr)に存在していたとする。左眼画像Pl上の点Rの右眼画像Pr上におけるエピポーラ線はEPr、右眼画像Pr上の点Sの左眼画像Pl上におけるエピポーラ線はEPlとしてそれぞれ表される。
【0034】
このとき、撮像カメラ1Aおよび1Bのそれぞれの光軸が同一のX−Z平面上に配置されているため、点RのY座標Ylおよび点SのY座標Yrはそれぞれ等しくなり、エピポーラ線EPrおよびエピポーラ線EPlの方向は、点Rおよび点Sを結ぶ直線の方向D1(以下、エピポーラ線EPの方向D1とする)として求めることができる。
【0035】
本実施形態において、撮像カメラ1Aおよび1Bの高さ方向(Y軸方向)への設置誤差が無視でき、撮像カメラ1Aおよび1Bそれぞれの光軸OlおよびOrが同一のX−Z平面上に略正確に配置されているとした場合、エピポーラ線EPの方向D1は、図3(a)に示すように、略X軸に平行である。したがって、例えば、左眼画像Plの点R(Xl,Yl)に対応する右眼画像Pr上の対応点S(Xr,Yr)の探索は、左眼画像Plおよび右眼画像Pr上に設定される、エピポーラ線EPの方向D1に沿った幅ΔEおよびエピポーラ線EPの方向に直交する方向に沿った幅ΔTにより構成される探索範囲Wにおいて実行される。
【0036】
具体的には、探索範囲W上における左眼画像Plの点R(Xl,Yl)を含むその近傍に小ブロック(例えば、水平4画素、垂直2画素の画素ブロック)を設定し、この小ブロックの各画素の画素値{例えば、輝度信号(Y信号)用の8ビット、色差信号(Cb信号、Cr信号)用の4ビットずつの合計16ビットで表される}と探索範囲W上における右眼画像Prの各点に対応する各小ブロックの各画素の画素値(上記16ビット)との差や和、あるいは差の2乗和等を評価パラメータとし、この評価パラメータが最小値になる右眼画像Pr上の点を、左眼画像Plの点R(Xl,Yl)の対応点として求める。なお、本実施形態の場合、この対応点が点S(Xr,Yr)となる。
【0037】
撮像カメラ1Aおよび1Bの高さ方向(Y軸方向)への設置誤差を考慮した結果、例えばエピポーラ線EPの方向D1がX軸から角度θだけ例えば下方に傾斜していた場合(図3(c)においてエピポーラ線EPの方向D1’として表す)には、水平探索範囲とtanθの積で計算される範囲分垂直方向の探索範囲を拡大することにより、たとえ撮像カメラ1Aおよび1Bの高さ方向へ設置誤差が生じていた場合でも、左眼画像Plの点R(Xl,Yl)に対応する右眼画像Pr上の点S(Xr,Yr)を正確に抽出することができる。
【0038】
このようにして左眼画像Plの点R(Xl,Yl)に対応する右眼画像Pr上の点S(Xr,Yr)を抽出した後、視差ベクトル抽出器3は、左眼画像Plの点R(Xl,Yl)と対応点S(Xr,Yr)との差分をとり、得られた結果を、点P(Xl,Yl)における視差ベクトルV(Xl−Xr,Yl−Yr)として表す。この視差ベクトルを、左眼画像Plにおける探索範囲W内の全てのマクロブロック(MB:本実施形態では、水平方向16画素×垂直方向16画素の画素ブロックとする)内の全ての点について、上述した点R(Xl,Yl)における抽出方法と同一の方法により求める。視差ベクトル抽出器3は、上述した処理を左眼画像Pl全体に亘って行い、この結果、左眼画像Plおよび右眼画像Pr上の全ての対応点に関する全ての視差ベクトルVを抽出し、抽出した全ての視差ベクトルVを奥行き情報算出器4に送出する。
【0039】
奥行き情報算出器4は、送出されてきた各視差ベクトルVを受け取り、受け取った各視差ベクトルの大きさ(奥行き方向の距離、以下、奥行き情報とする)を計算する。そして、奥行き情報算出器4は、例えば、水平4画素、垂直2画素(4×2)の小ブロックを設定して探索を行い、この小ブロック単位の各視差ベクトルの位置情報{水平位置(X)、垂直位置(Y)、奥行き情報(Z)}として奥行き情報フォーマット器5へ送る。
【0040】
奥行き情報フォーマット器5は、送られた各小ブロックの奥行き情報の値を、各小ブロックを構成する各画素に対してたとえば8ビットのデータ(以下、奥行きデータとする)として展開する。例えば、奥行き情報フォーマット器5は、各小ブロックを構成する画素それぞれに対し、対応する小ブロックに設定された同一の奥行きデータ値や奥行きデータ値の画素単位の平均値を設定することも可能である。また、奥行き情報フォーマット器5は、隣接する小ブロックの画素それぞれに設定されるデータ値を、例えばローパスフィルタを介して平滑化処理(小ブロック間で奥行きデータ値が滑らかに繋がる処理)を施すこともできる。
【0041】
このようにして得られた左眼画像Plの各画素の奥行きデータに基づいて、奥行き情報フォーマット器5は、その奥行きデータを例えばラスタ順(左上画素から右下画素へ走査される順番)に並べてフォーマット化する。このフォーマット化された奥行きデータは、ビデオ圧縮器2に送信される。
【0042】
ここで、DVDビデオフォーマットの概略を図4に示す。
【0043】
図4に示すように、DVDビデオフォーマットでは、DVDビデオ規格に準拠する記録媒体の記録層がVolume spaceとして設定されており、このVolume spaceがVolume and File structure19、DVD-video zone20、およびDVD-others zone21に分かれている。DVD-video zone(DVDビデオゾーン)20には、DVDビデオの再生に必要な全てのファイルとして、1つのVMG(Video Manager)22および複数(n個)のVTS(Video Title Set)23a1〜23anが格納されている。VMG22は、VMGI(Video Manager Information:ビデオマネージャーインフォメーション)等、後続するVTS23a1〜23anの識別情報や様々な情報自体のスタートアドレスやエンドアドレス、どこのビデオストリームから再生を開始するか等の情報が含まれている。
【0044】
DVD-others zone21は、DVDビデオ規格に準拠するDVDビデオフォーマットにおいて自由使用領域として設定された領域である。
【0045】
各VTS23a1〜23anは、再生されるべきオーディオデータ(オーディオビットストリーム、以下、単にオーディオストリームとも記載する)およびビデオデータ(ビデオビットストリーム、以下、単にビデオストリームとも記載する)のアドレス情報や識別情報等の制御データ(Control Data)が格納されたフィールド24と、このControl Dataフィールド24の後に格納されたVOBS(Video Object Set:ビデオオブジェクトセット)25というビデオストリームおよびオーディオストリームが多重化されたMPEG(Motion Picture Experts Group)ストリームのセット(コンテンツ)とから構成されており、このVOBS25は、複数のVOB26(Video Object)という小単位のMPEGストリームから構成されている。
【0046】
各VOB26は、さらに細分化された複数のセル(CELL)27という単位から構成されている。このCELL27は、再生単位を表し、固有のID番号が付与されている。各CELL27は、さらに複数のVOBU(Video Object Unit:ビデオオブジェクトユニット)28から構成されている。この各VOBU28がMPEGストリームのGOP(Group of Pictures:グループオブピクチャズ)に相当する構造となっており、再生時間長として0.4〜1.0秒程度を有している。このGOPは、後述するMPEG2における予測符号化のための構造であり、I-picture (Iピクチャ:フレーム内予測符号化画像)から次のIピクチャまでのグループ{P-pictures(Pピクチャズ:複数の順方向予測符号化画像)およびB-Pictures(Bピクチャズ:複数の双方向予測符号化画像)}を意味し、例えば蓄積用記録媒体では、一般に15ピクチャズ(15画像)のグループとして構成される。
【0047】
各VOBU28には、MPEG多重化された別個のストリームデータであるNV_PACK29、A_PACK30、V_PACK31、およびD_PACK32がそれぞれ時分割多重化により格納されており、先頭のNV_PACK29にはストリームサーチ情報等がパック化(例えば、トランスポートパケット単位でパック化)されている。また、A_PACK30には、圧縮符号化されたオーディオデータがパック化されており、V_PACK31には、圧縮符号化されたビデオデータがパック化されている。
【0048】
上述したように、D_PACK32は時分割されており、複数のD_PACK32により各フレームレイヤ33を構成する。各フレームレイヤ33は、先頭に2ビットのスタートコード(Start Code)34を有しており、例えば16進で000001FFから始まるように設定されている。これは、後述するデータ符号化処理として、ランレングス符号化処理、離散コサイン変換(DCT:Discrete Cosine Transform)処理、および/または可変長符号化処理(VLC:Variable length Coding)を行った場合においても、その符号化されたデータから区別するために、スタートコード34は、16進で000001FFから始まる特殊なデータとして設定されている。
【0049】
本実施形態においては、撮像カメラ1Bにより撮像された右眼画像Prは、ビデオ圧縮器2に伝送され、このビデオデータは、撮像された2次元画像(右眼画像Pr)は、図4に示すDVDビデオフォーマットに準拠する圧縮フォーマットであるMPEG圧縮フォーマットによりビデオ圧縮器2において圧縮符号化され、ビットストリーム(MPEGビデオストリーム)として情報多重化器8に送信される。また、マイク6により収集された周囲音に対応するオーディオ信号は、図4に示すDVDビデオフォーマットに準拠するMPEGオーディオフォーマットによりオーディオ圧縮器7において圧縮符号化されオーディオデータ(MPEGオーディオストリーム)として情報多重化器8に送信される。
【0050】
情報多重化器8では、送信されてきたビデオデータ(MPEGビットストリーム)およびオーディオデータ(MPEGオーディオストリーム)が前掲図4に示すDVDビデオフォーマットに従ってパック化および多重化される。この結果、上記DVDビデオフォーマットに対応するMPEG多重化トランスポートデータが生成される。生成されたMPEG多重化トランスポートデータは、記録器10に送られ、この記録器10の処理により、DVDビデオ規格に準拠した記録媒体9に記録される。
【0051】
ここで、ビデオ圧縮器2における圧縮符号化処理の規格の一例であるMPEGについて簡単に説明する。
【0052】
MPEGは、1988年、ISO/IEC JTC1/SC2(国際標準化機構/国際電気標準化会合同技術委員会1/専門部会2、現在のSC29)に設立された動画像符号化標準を検討する組織の名称(Moving Pictures Expert Group)の略称である。MPEG1(MPEGフェーズ1)は1.5Mbps程度の蓄積メディアを対象とした圧縮方式の標準で、静止画圧縮符号化を目的としたJPEGと、ISDNのテレビ会議やテレビ電話の低転送レート用の動画像圧縮を目的としたH.261(CCITT SGXV、現在のITU-T SG15で標準化)との基本的な技術を受け継ぎ、蓄積メディア用に新しい圧縮符号化技術を導入したものである。これらは1993年8月、ISO/IEC 11172 として成立している。
【0053】
MPEG2(MPEGフェーズ2)は、通信や放送等の多様なアプリケーションに対応できる汎用圧縮符号化技術の標準として、1994年11月ISO/IEC 13818、H.262として成立している。
【0054】
MPEGは幾つかの技術を組み合わせて設計されており、特に時間領域における冗長性除去用の予測符号化技術{フレーム内予測符号化(フレーム間差分符号化)技術、動き補償技術}と、周波数領域における冗長性除去用の離散コサイン変換技術とが組み合わされている。
【0055】
すなわち、予測符号化技術におけるフレーム間差分符号化技術は、ビデオデータにおける連続する2つのフレーム画像が互いに類似していることを利用して、その2つのフレーム画像の差分をとり、この差分情報を符号化することにより、時間冗長部分を削除する技術である。
【0056】
予測符号化技術の動き補償技術における予測方向は、過去、未来、過去および未来の双方の3モードが存在する。またこの3モードは、16画素×16画素のマクロブロック(MB)単位で切り替えて使用することができる。予測方向は、例えば入力画像として与えられたフレーム画像(ピクチャ)のタイプによって決定される。
【0057】
上述したように、MPEGの予測符号化されたフレームには、データ量の異なる3種類の画像(ピクチャ)が存在する。
【0058】
すなわち、過去のフレーム画像からの順方向のフレーム間予測符号化を行うモードと、予測をせずにマクロブロック内の画素を独立で符号化するモードとをマクロブロック毎に切り替えて符号化されているのがPピクチャである。
【0059】
また、過去のフレーム画像からの順方向のフレーム間予測符号化を行うモードと、未来のフレーム画像から逆方向のフレーム間予測符号化を行うモードと、過去および未来の2つのフレーム画像から双方向のフレーム間予測符号化を行うモードと、予測をせずにマクロブロック内の画素を独立で符号化するモードとをマクロブロック毎に切り替えて符号化されているのがBピクチャである。
【0060】
そしてフレーム画像内の全てのマクロブロックの画素がマクロブロック毎にそれぞれ独立してフレーム内符号化されているのがIピクチャである。
【0061】
すなわち、動き補償技術は、フレーム画像間の動き領域(動きベクトル)を、マクロブロック毎のパターンマッチングにより半画素(ハーフピクセル)精度で検出し、検出した動きベクトル分だけシフトしてから、上記フレーム間予測符号化を行う技術である。動きベクトルは、水平方向と垂直方向が存在し、この動きベクトルの符号化データは、予測開始位置を示すMC(Motion Compensation)モード情報と共にマクロブロックの付加情報として伝送することができる。
【0062】
離散コサイン変換技術(DCT技術)は、余弦関数を積分核とした積分変換を有限空間へDCT(離散変換)する直交変換する技術であり、このDCTを用いてフレーム画像の画素値を周波数領域のデータに変換してフレーム画像内の高周波成分をカットすることができる。
【0063】
図5は、上述したMPEGによる圧縮符号化処理を実行するための符号化装置の一例を示すブロック図である。
【0064】
図5に示すように、符号化装置50は、圧縮符号化対象となるビデオデータ(フレーム単位の動画像)がそれぞれ入力される減算処理用の演算器51および動き補償予測器52と、上述した離散変換処理用のDCT器53と、量子化処理を行う量子化器54と、可変長符号化処理を行うVLC器55と、バッファ56と、符号量に基づくフィードバック制御を行うための符号量制御器57とを備えている。
【0065】
また、符号化装置50は、逆量子化処理を行うための逆量子化器58と、逆DCTを行う逆DCT器59と、加算処理用の演算器60と、画像蓄積用の画像メモリ61とを備えている。
【0066】
図5に示す符号化装置50によれば、演算器51に入力されたビットストリーム(MPEGビデオストリーム)VSにおけるN番目のフレーム画像は、この演算器51により、後述する動き補償予測器52により動き補償されたリファレンス(参照)用復号化画像(N−1番目のフレーム画像)との差分が演算され(フレーム間差分符号化処理)、得られた差分画像は、DCT器53に送信される。DCT器53では、送信されてきた差分画像が周波数領域の画像データに変換される。すなわち、DCT器53では、送信されてきた差分画像は、マクロブロック4分割した8×8のDCTブロックに分割され、それぞれのDCTブロック毎に2次元DCT処理が実行される。ここで、一般に、ビデオデータは、低周波数帯域の成分が多く高周波数帯域の成分が少ないため、DCT処理後の画像データ(各DCT係数ブロック)は、低周波数帯域に集中する。
【0067】
DCT処理により得られた画像データ(各DCT係数ブロック)は、量子化器54に送られて量子化される。
【0068】
すなわち、量子化器54において、各DCT係数ブロックは、8×8のマトリクスとして表された2次元周波数値の各セルの値を視覚特性(人間の視覚的認識特性)に基づいて重み付けし、且つ例えばフレーム単位、あるいはマクロブロック単位で指定された全体をスカラー倍するための量子化スケール値により乗算されて得られた量子化値により構成された8×8の量子化マトリクスに基づいて対応するセル同士で除算される。この結果、8×8のDCT係数データにおける右下のデータ(高周波数帯域係数)は0となり、高周波数帯域のデータを除去することができる。
【0069】
このようにして、高周波数帯域のデータが除去された量子化データ(各8×8の量子化データブロック)は、VLC器55および逆量子化器58にそれぞれ送られる。
【0070】
VLC器55では、ブロック毎に可変長符号化処理が行われる。
【0071】
ここで、各8×8量子化データブロックの一番左上のセルは、DCT後の定数項に相当し、波形全体の平均値、言い換えれば直流成分(DC成分)を表しており、残りのセルは、交流成分(高次成分)に相当する。
【0072】
このとき、VLC器55において、各量子化データブロックにおける左上のセルの直流成分は、予測符号化の1つである差分PCM{Differential Pulse Code Modulation)}により予測符号化される。また、交流成分を構成する残りのセル(交流成分)は、低周波数域(左上側)から高周波数域(右下)に向かって、その左上側および右下側を結ぶ対角線に直交する方向に沿ってジグザグスキャン(Zigzag Scan)により順番に読み出され、一列に整列される。このジグザグスキャンにより読み出され一列に整列されたデータにおける後ろの部分のデータは、高周波成分に相当しており、0が連続して発生している。
【0073】
そこで、VLC器55では、例えば連続している0のラン長および0以外の有効なデータ値を1つの事象とし、出現確率の高いデータ値から符号長の短い符号が割り当てられることにより、ハフマン符号化される。また、動き補償予測器52により得られた動きベクトルもVLC器55に送られてハフマン符号化される。
【0074】
このようにしてハフマン符号化された符号化データ(動きベクトルの符号化データが付加されている)、すなわち、符号化装置50によりMPEG圧縮符号化された差分画像のMPEGビデオストリームVSは、一時的にバッファ56に蓄積され、所定の転送レートにより出力される。このとき、出力されたMPEGビデオストリームVSにおけるマクロブロック毎の発生符号量を表すデータは、符号量制御器57に送信され、この符号量制御器57において、送信されてきた発生符号量データと目標となる符号量との間の誤差符号量が求められる。この誤差符号量は、量子化器54にフィードバックされ、フィードバックされた誤差符号量に基づいて、量子化器54において量子化スケール値が調整される。この結果、MPEG圧縮符号化後のMPEGビデオストリームVSの符号化量に応じて最適な量子化スケール値を設定することができる。
【0075】
一方、量子化器54から逆量子化器58に送られた各8×8量子化データブロックは、量子化器54の量子化処理と逆の処理を行うことにより逆量子化され、得られたDCT係数ブロックは、逆DCT器59において逆DCT処理が施され、この結果、差分画像が得られる。得られた差分画像は、演算器60に送られ、この演算器60において動き補償予測器52から送られた動き補償されたリファレンス用復号化画像(前フレーム画像)に加算され、加算されたフレーム画像、すなわち、入力されたN番目のフレーム画像に相当する再生用フレーム画像は、次に入力されるN+1番目のフレーム画像に対するリファレンス用復号化画像として画像メモリ61に蓄積される。
【0076】
動き補償予測器52においては、今回の入力フレーム画像(例えばN番目のフレーム画像)と画像メモリ61に蓄積された前回のフレーム画像(例えばN−1番目のフレーム画像)との間でマクロブロック毎のパターンマッチング処理が実行され、この結果得られた動きベクトルだけシフトされた前回のフレーム画像がリファレンス用復号化画像として演算器51および60にそれぞれ送信される。
【0077】
以上述べたように、符号化装置50に入力されたビデオデータは、MPEG技術、すなわち、時間領域の予測符号化処理(フレーム差分符号化、動き補償)、周波数領域の圧縮符号化処理(離散コサイン変換)、および可変長符号化処理(ハフマン符号化)により圧縮符号化される。
【0078】
一方、図6は、図5に示す符号化装置50により圧縮符号化されたビデオデータを復号して再生する復号化装置70を示すブロック図である。
【0079】
図6に示すように、復号化装置70は、符号化装置50により圧縮符号化されたMPEGビデオストリームVSが入力されるバッファ71と、可変長復号化処理を行うVLD(Variable length Decoding)器72と、逆量子化処理を行うための逆量子化器73と、逆DCTを行う逆DCT器74と、加算処理用の演算器75と、動き補償予測器76と、画像メモリ77とを備えている。
【0080】
図6に示す復号化装置70によれば、入力されたMPEGビデオストリーム(例えば、N番目のフレーム画像に対応するものとする)VSは、バッファ71に蓄積(バッファリング)され、VLD器72に入力される。
【0081】
VLD器72において、MPEGビデオストリームVSは、可変長復号化処理され、直流成分のデータおよび交流成分のデータがそれぞれ得られる。直流成分のデータは、8×8量子化データブロックの一番左上のセルに配置され、交流成分のデータは、その8×8の量子化ブロックの残りのセルに対して、上述した低周波数域(左上側)から高周波数域(右下)へのジグザグスキャンにより順番に配置される。なお、このVLD器72においては、符号化された動きベクトルも復号化され、この動きベクトルは、動き補償予測器76に送信される。
【0082】
このようにして得られた各8×8量子化データブロックは、逆量子化器73により量子化器54の量子化処理と逆の処理を行うことにより逆量子化される。逆量子化により得られたDCT係数ブロックは、逆DCT器74において逆DCT処理が施され、この結果、入力されたMPEGビデオストリームVSに相当する差分画像が得られる。
【0083】
得られた差分画像は、演算器75に送られ、この演算器75において動き補償予測器76から送られた動き補償されたリファレンス用復号化画像(前回再生されたフレーム画像)に加算され、加算されたフレーム画像、すなわち、入力されたN番目のフレーム画像に相当する再生用フレーム画像(復号化データ)は、図示しない再生装置を用いて再生される。また、この再生用フレーム画像は、次に入力されるN+1番目のフレーム画像に対するリファレンス用復号化画像として画像メモリ77に蓄積される。
【0084】
動き補償予測器76においては、今回の入力フレーム画像(例えばN番目のフレーム画像)と画像メモリ77に蓄積された前回再生されたフレーム画像(例えばN−1番目のフレーム画像)との間でマクロブロック毎のパターンマッチング処理が実行され、この結果得られた動きベクトルだけシフトされた前回再生されたフレーム画像がリファレンス用復号化画像として演算器75に送信される。
【0085】
以上述べたように、符号化装置50により符号化され、復号化装置70に入力されたMPEGビデオストリームVSは、復号化装置70により再生用フレーム画像として復号化される。
【0086】
本実施形態の記録装置200における例えばビデオ圧縮器2に対して圧縮符号化装置50の構成および/または機能を持たせることにより、奥行き情報フォーマット器5から送られた奥行きデータを圧縮符号化することができる。そして、図示しない再生装置に対して復号化装置70の構成および/または機能を持たせることにより、記録装置200により圧縮符号化されたMPEGビデオストリームVSから対応するフレーム画像を再生することができる。
【0087】
ここで、符号化装置50により生成されるMPEGビデオストリームVSの階層構造(シンタックス)の概略構成を図7に示す。
【0088】
図7に示すように、MPEGビデオストリームVSは、6つの階層(レイヤ)から構成されており、その最上位のレイヤであるシーケンスレイヤは、図8(a)にテーブルT1として示すシンタックスを有している。なお、このテーブルT1を含む後述するMPEGビデオストリームVSのシンタックスは、MPEGビットストリームVSからデータエレメントを抽出するために使用される復号化装置70側でのシンタックスである。符号化装置50側でのシンタックスは、復号化装置70側でのシンタックスからif文やwhile文等の条件文を省略したシンタックスとなる。
【0089】
図8(a)に示すように、シーケンスレイヤにおけるvideo_sequence()におけるNext_Start_codeは、MPEGビットストリーム中に記述されているスタートコードを探すための関数であり、do{ }while構文は、while文によって定義されている条件が真である間、do文の{ }内の関数に基づいて記述されたデータエレメントをMPEGビットストリーム中から抽出するための構文である。したがって、このシーケンスレイヤにおいては、while文で記述されたシーケンスヘッダコード(Sequence_header_code)の条件が真である間、シーケンスヘッダ(Sequence_header)関数に基づいて記述されたデータエレメントをMPEGビットストリーム中から抽出し、while文で記述されたGOPレイヤ(group_of_picturesレイヤ)のグループスタートコード(Group_start_code)の条件が真である間、GOPレイヤの関数に基づいて記述されたデータエレメントを、抽出したデータエレメントからさらに抽出するデコード方法を表している。
【0090】
シーケンスヘッダは、画面のフォーマット等を指定するためのレイヤであり、図8(b)にテーブルT2として示すシンタックスを有している。
【0091】
GOPレイヤは、図9にテーブルT3として示すシンタックス構造を有しており、図9における“user_data”として示すように、ユーザによりビデオデータやオーディオデータとは関係のない任意のデータを格納することができるユーザデータ領域UD1(図7参照)が設定されている。
【0092】
GOPレイヤの下位階層であり抽出対象のデータエレメントを規定するPictureレイヤは、図10にテーブルT4として示すシンタックス構造を有しており、図10における“user_data”として示すように、ユーザによりビデオデータやオーディオデータとは関係のない任意のデータを格納することができるユーザデータ領域UD2(図7参照)が設定されている。
【0093】
Pictureレイヤの下位階層であり抽出対象のデータエレメントを規定するSliceレイヤは、マクロブロックの帯を表しており、図11にテーブルT5として示すシンタックス構造を有している。
【0094】
また、Sliceレイヤの下位階層であり抽出対象のデータエレメントを規定するMacroblock(マクロブロック)レイヤは、図12にテーブルT6として示すシンタックス構造を有している。通常のMPEGのフレーム内予測符号化におけるマクロブロック(MB)としては、Y信号用の4つの8×8のDCTブロックおよび色差信号(CbおよびCr)用の2つの8×8のDCTブロックを使用するため、そのシンタックスにおけるif文(macroblock_pattern)におけるfor文の繰り返し範囲が“for(i=0;i<6;i++)”と設定されている。
【0095】
さらに、マクロブロックレイヤの下位階層であり抽出対象のデータエレメント(8×8の小ブロック)を規定するブロックレイヤは、図13にテーブルT7として示すシンタックス構造を有している。
【0096】
すなわち、ビデオ圧縮器2に入力されたビデオデータ(右眼画像Pr)は、ビデオ圧縮器2の図5に示すMPEG圧縮符号化処理により圧縮符号化され、図7〜図13に示す構造を有するMPEGビデオストリームVSが生成される。
【0097】
次に、本実施形態における奥行きデータをDVDビデオフォーマットに準拠するMPEG圧縮符号化フォーマットに互換性を有するように記録する処理について説明する。
【0098】
本実施形態では、ビデオ圧縮器2は、奥行き情報フォーマット器5から送られてきた各画素の8ビットの奥行きデータを、次の(1)〜(4)の内の何れかのデータフォーマットに基づいて、例えば右眼画像Prに基づくMPEG圧縮符号化されたビデオデータ(MPEGビデオストリーム)VSにおけるユーザデータ領域UD1および/またはユーザデータ領域UD2に格納し、奥行きデータを含むMPEGビデオストリームVSを情報多重化器6へ送信するように構成されている。
【0099】
(1)左上画素の奥行きデータから右下画素の奥行きデータへ向かう順番(ラスタ順番)に並ぶように格納するフォーマット
(2)各画素の奥行きデータの値が同じ値を示す場合に、その同じ値を示す画素数(ラン長)を7ビットで表すデータおよびその同一となるデータ値が並ぶように圧縮符号化して格納するフォーマット
(3)各画素の奥行きデータを8ビットのグレースケール画像(Y信号)に見立てて、上述したMPEG圧縮符号化におけるIピクチャ画像と同じようにフレーム内予測符号化して格納するフォーマット
(4)(3)のフレーム内符号化に加えて、上述したMPEG圧縮符号化におけるPピクチャ画像用およびBピクチャ画像用の順方向フレーム間予測符号化および双方向フレーム間挿入予測符号化して格納するフォーマット
例えば、(2)のフォーマットにおいては、図4に示すように、各フレームレイヤ33は、スタートコード34に続いて、1ビットの奥行きデータ有効フラグ(DE)35を有しており、この奥行きデータ有効フラグ35に“1”が設定されている場合には、後に続く奥行きデータは有効となる。
【0100】
一方、奥行きデータ有効フラグ35に“0”が設定されている場合には、後に続く奥行きデータは無効となり、対応するフレームレイヤ33の奥行きは全ての画素において全く変化がないものとなり、各画素の奥行きデータは、後述するOFFSET値に均一にセットされることになる。
【0101】
フレームレイヤ33は、奥行きデータ有効フラグ35に続いて、7ビットの予約(Reserved)フィールド36と、各画素の奥行きデータに対して付加するための8ビットのオフセット(OFFSET)値を格納するためのフィールドOFFSET37とを有している。
【0102】
このOFFSET37には、−127〜+127までの値(8ビット)がオフセット値として格納されるようになっており、後述するピクセルレイヤに格納され、オフセットが付加された奥行きデータの値が255(8ビットで表現できる最大値)を超えるような場合(オーバーフロー)には、その都度リミッタ機能により奥行きデータのデータ幅を8ビットに抑えることが可能になっている。
【0103】
例えば、奥行きデータ有効フラグ35に“0”が設定され、且つOFFSET37にも“0”が設定されている場合、たとえ後述する各データフィールド(ピクセルレイヤ)に何らかの奥行きデータ値が格納されていたとしても、全ての画素の奥行きデータ値が“0”と判断されることになる。
【0104】
そして、フレームレイヤ33は、フィールドOFFSET37に続いて、各画素(ピクセル)の奥行きデータを格納するためのフィールド(ピクセルレイヤ38)を有している。
【0105】
ピクセルレイヤ38は、同一の奥行きデータが連続する画素数をランレングスとして8ビットで表すためのNumOfSkipPixelフィールド38aと、その同一の奥行きデータを−128から+127の値として8ビットで表すフィールド(ZP)38bとから構成されている。
【0106】
例えば、“100”という奥行きデータを有する画素が例えば行方向に4画素連続している場合、この4画素それぞれにピクセルレイヤを割り当てて奥行きデータをZPフィールド38bに格納するのではなく、1つのピクセルレイヤ38のNumOfSkipPixelフィールド38aに連続画素数(ランレングス)である“4”を格納し、対応するZPフィールド38bに対して奥行きデータ値である“100”を格納することにより、奥行きデータ“100”を4画素分連続して格納した場合と同様のデータを圧縮して格納することができる。なお(2)のフォーマットの応用として、隣接する画素の奥行きデータは非常に似ていることが多いので、隣接画素の差分をとり、隣接画素数および差分結果である差分データを、それぞれピクセルレイヤ38のNumOfSkipPixelフィールド38aおよびZPフィールド38bに格納することも可能であり、奥行きデータをさらに圧縮して符号化効率を向上させることが可能になる。
【0107】
なお、(3)のデータフォーマットにおいては、各画素の奥行きデータを8ビットのグレースケール画像(Y信号)とみなしているため、色差信号がない。したがって、通常のMPEGのフレーム内予測符号化におけるマクロブロック(MB)として、Y信号用の4つの8×8のDCTブロックおよび色差信号(CbおよびCr)用の2つの8×8のDCTブロックを合計6個のDCTブロックを使用する(図12のテーブルT6のfor文の繰り返し範囲“for(i=0;i<6;i++)”参照)のに対し、本実施形態では、各画素の奥行きデータである8ビットのグレースケール画像は、Y信号用の4つの8×8のDCTブロックを用いてフレーム内予測符号化されるため、上記for文の繰り返し範囲は、“for(i=0;i<4;i++)”と設定される。
【0108】
具体的に述べれば、図10にテーブルT4として示すように、MPEGビットストリームのピクチャレイヤにおいて、スライスレイヤ(Slice関数)により定義されるデータエレメント抽出処理に移行する前の最後のif文に、「ユーザデータスタートコード(user_data_start_code)を送った後に、ユーザデータ(user_data)を8ビット単位で記録することが出来る仕組み」が定義されている。
【0109】
詳細に説明すれば、一般に、MPEGビットストリームにおいては、ユーザデータスタートコード(user_data_start_code)は、スライスレイヤにより定義されるデータエレメント抽出処理に移行する前では、“0x000001B2”と定義されている。すなわち、本実施形態に係るビデオ圧縮器2は、MPEGビデオストリームVSとして、ユーザコードを情報多重化器8に送信し、続いてユーザデータ領域UD1あるいはUD2内で、本実施形態における認証に用いる関数値の存在を示す、予め一意に識別可能なコード(識別コード)である例えば0x0f0f0f0f2428fdaaのコードを送信する。この識別コードは、他の装置やアプリケーションでユーザデータ(user_data)を使用する場合に、そのユーザデータを識別する目的で記録するもので、その識別コードの値は特別に意味を有していない。そして、ビデオ圧縮器2は、識別コードに続いて、図4に示すフレームレイヤ構造として構成された各画素の奥行きデータを、MPEGビデオストリームVSにおける例えばピクチャレイヤのユーザデータ領域UD2にラスタ順で格納するようになっている。
【0110】
このようにして、各画素の奥行きデータがユーザデータ領域UD1またはUD2に格納されたMPEGビデオストリームVSは、情報多重化器8に送信され、図4に示すDVDビデオフォーマットに従って、オーディオ圧縮器7から送信されたオーディオデータ(MPEGオーディオストリームAS)と図4に示すDVDビデオフォーマットに従って多重化され、この多重化されたデータストリーム(MPEG多重化トランスポートストリームTS)は、記録器10により、DVDビデオフォーマットに準拠した記録媒体9に記録される。
【0111】
以上述べたように、本実施形態に係る記録装置200によれば、2次元映像から得られた3次元映像生成用の各画素の奥行き情報を、DVDビデオフォーマットに準拠するMPEG圧縮符号化処理により圧縮符号化されたMPEGビデオストリームVSにおけるユーザ任意使用領域であるユーザデータ領域UD1あるいはUD2に格納することができる。そして、このように奥行き情報が一体化されたMPEGビデオストリームをMPEGオーディオストリームと多重化し、MPEG多重化トランスポートストリームTSとしてDVDビデオフォーマットに準拠した記録媒体9に記録することができる。
【0112】
このため、図示しない再生装置においては、記録媒体9に記録されたMPEG多重化トランスポートストリームTSを、一体に多重化記録された奥行き情報を用いることなく再生することにより、MPEGビデオストリームVSおよびMPEGオーディオストリームASに基づく2次元映像およびオーディオ信号をそれぞれ再生することができる。そして、記録媒体9に記録されたMPEG多重化トランスポートストリームTSを、一体に多重化記録された奥行き情報を用いて再生することにより、奥行き情報およびMPEGビデオストリームVSに基づく3次元映像およびMPEGオーディオストリームASに基づくオーディオ信号をそれぞれ再生することができる。
【0113】
したがって、本実施形態に係る記録装置200によれば、再生装置側において、記録媒体9に記録された奥行き情報の使用/不使用の切り替えにより2次元映像および3次元映像の切り替え再生を可能にする記録システムを構築することができ、この記録装置200により記録媒体9に記録された2次元映像および3次元映像の再生効率を向上させることができる。
【0114】
(第2の実施の形態)
図14は、本発明の第2の実施の形態に係る記録装置200Aの概略構成を示すブロック図である。本実施形態における記録装置200Aにおいては、ビデオ圧縮器および情報多重化器の処理が図1に示す記録装置200と異なるため、その異なる処理について説明する。
【0115】
本実施形態に係る記録装置200Aにおいては、奥行き情報フォーマット器5から送られてきた各画素の8ビットの奥行きデータは、直接、あるいはビデオ圧縮器2Aにより上記(2)のランレングス符号化による圧縮符号化されたフレームレイヤ毎のデータ、(3)によりフレーム内予測符号化されたデータ、あるいは(4)のフレーム間挿入予測符号化により圧縮符号化されたデータ、ビデオ圧縮器2AによりMPEG圧縮符号化されたMPEGビデオストリームVSとは異なるビットストリームとして情報多重化器8Aに送信される。また、上記MPEGビデオストリームVSおよびオーディオ圧縮器7によりMPEG圧縮符号化されたMPEGオーディオストリームASも、それぞれ情報多重化器8Aに送信される。
【0116】
情報多重化器8Aは、送信されてきた左眼画像Plの各画素の奥行きデータに対応するデータを、DVDビデオフォーマット(図4参照)におけるD_PACK32のデータ内容(例えば、2kB)として、MPEGビデオストリームVSに対応するV_PACK31およびMPEGオーディオストリームASに対応するA_PACK30等と多重化することにより、奥行きデータをDVDビデオフォーマット化する。
【0117】
このようにして、各画素の奥行きデータが多重化されたMPEG多重化トランスポートストリームTSは、記録器10により、DVDビデオフォーマットに準拠した記録媒体9に記録される。
【0118】
以上述べたように、本実施形態に係る記録装置200Aによれば、2次元映像から得られた3次元映像生成用の各画素の奥行き情報を、DVDビデオフォーマットに従った多重化処理により、そのDVDビデオフォーマットに対応する各フレームレイヤ33における各ピクセルレイヤに格納して奥行き情報が一体化されたMPEG多重化トランスポートストリームTSを生成し、生成されたMPEG多重化トランスポートストリームTSをDVDビデオフォーマットに準拠した記録媒体9に記録することができる。
【0119】
このため、第1実施形態と同様に、図示しない再生装置においては、記録媒体9に記録されたMPEG多重化トランスポートストリームTSを、一体に多重化記録された奥行き情報を用いることなく再生することにより、MPEGビデオストリームVSおよびMPEGオーディオストリームASに基づく2次元映像およびオーディオ信号をそれぞれ再生することができる。そして、MPEG多重化トランスポートストリームTSを、一体に多重化記録された奥行き情報を用いて再生することにより、奥行き情報およびMPEGビデオストリームVSに基づく3次元映像およびMPEGオーディオストリームASに基づくオーディオ信号をそれぞれ再生することができる。
【0120】
したがって、本実施形態に係る記録装置200Aにおいても、第1実施形態と同様の効果である、記録媒体9に記録された2次元映像および3次元映像の再生効率の向上という効果を得ることができる。
【0121】
なお、第1および第2の実施形態の変形例として、情報多重化器は、生成した例MPEG多重化トランスポートストリームTSのシステムレイヤ(図15のテーブルT8参照)における“トランスポートデータフラグ(transport_private_data_flag)”に“1”を立てて、プライベートデータ(private_data)が存在することを明示し、続いて、データ長がトランスポートパケットをはみ出さないという制限の下で、MPEG多重化トランスポートストリームTSのtransport_private_data_lengthに設定したデータ長のプライベートデータフィールドにprivate_dataとして各画素の奥行きデータを格納し、記録媒体9に記録することもできる。
【0122】
また、第1および第2の実施形態の変形例に係る記録装置は、ストリーム識別情報(stream_id)にプライベートストリーム(private_stream)を設定して専用のパケットを宣言し、この専用のパケットとして確保されたフィールド(プライベートストリームフィールド)に奥行きデータをパック化し、記録器10を介して記録媒体9にフレーム画像毎に記録することも可能である。
【0123】
(第3の実施の形態)
図16は、本発明の第3の実施の形態に係る記録装置200Bの概略構成を示すブロック図である。本実施形態における記録装置200Bにおいては、ビデオ圧縮器および情報多重化器の処理が図14に示す記録装置200Aと異なるため、その異なる処理について説明する。
【0124】
本実施形態に係る記録装置200Bにおいては、奥行き情報フォーマット器5から送られてきた各画素の8ビットの奥行きデータは、直接、あるいはビデオ圧縮器2Aにより上記(2)のランレングス符号化による圧縮符号化されたフレームレイヤ毎のデータ、(3)によりフレーム内予測符号化されたデータ、あるいは(4)のフレーム間挿入予測符号化により圧縮符号化されたデータ、ビデオ圧縮器2AによりMPEG圧縮符号化されたMPEGビデオストリームVSとは異なるデータストリームとして情報多重化器8Bに送信される。また、上記MPEGビデオストリームVSおよびオーディオ圧縮器7によりMPEG圧縮符号化されたMPEGオーディオストリームASも、それぞれ情報多重化器8Bに送信される。
【0125】
本実施形態に係る情報多重化器8Bは、送信されてきた左眼画像Plの各画素の奥行きデータに対応するデータを、図4に示すDVDビデオフォーマットにおけるD_PACK32ではなく、図17に示すように、DVDビデオ規格に準拠するDVDビデオフォーマットにおいて自由使用領域として設定された領域であるDVD-others zone21のデータ内容としてDVD−video zone20とリンクして多重化している。
【0126】
DVD-others zone21は、1つのDVMG(D-Video Manager)82および複数(n個)のDVTS(D-Video Title Set)83a1〜83anから構成されている。DVMG82は、ビデオマネージャーインフォメーション等、後続するDVTS83a1〜83anの識別情報や様々な情報自体のスタートアドレスやエンドアドレス、どこのビデオストリームから再生を開始するか等の情報が記述されている。
【0127】
各DVTS83a1〜83anは、再生されるべきオーディオデータやビデオデータ(ビデオストリーム)のアドレス情報や識別情報等の制御データ(Control Data)が格納されたフィールドDVTSI84と、このDVTSI84の後に格納されたDVOBS(D-Video Object Set:ビデオオブジェクトセット)85というビデオストリームおよびオーディオストリームが多重化されたMPEG(Motion Picture Experts Group)ストリームのセット(コンテンツ)とから構成されており、このDVOBS85は、複数のDVOB86(D-Video Object)という小単位のMPEGストリームから構成されている。
【0128】
各DVOB86は、さらに細分化された複数のセル(DCELL)87という単位から構成されている。このDCELL87は、再生単位を表し、固有のID番号が付与されている。各DCELL87は、さらに複数のDVOBU(D-Video Object Unit:ビデオオブジェクトユニット)88から構成されている。
【0129】
本実施形態においては、この各DVOB88が第2の実施の形態における、各画素の奥行きデータが各ピクセルレイヤ38のデータとして格納されたフレームレイヤ33を数フレーム分グループ化して構成されている。
【0130】
すなわち、本実施形態に係る情報多重化器8Bは、奥行き情報フォーマット器5から送信されてきたフレーム画像毎の各画素の奥行きデータからフレームレイヤ33を生成し、生成した複数のフレーム画像に対応する複数のフレームレイヤ33をグループ化してDVDビデオフォーマットにおけるDVOBU88を生成することにより、奥行きデータをDVDビデオフォーマット化する。
【0131】
このようにして、各画素の奥行きデータが多重化されたMPEG多重化トランスポートストリームTSは、記録器10により、DVDビデオフォーマットに準拠した記録媒体9に記録される。
【0132】
本実施形態においても、第1および第2実施形態と同様に、図示しない再生装置においては、記録媒体9に記録された多重化データを、記録媒体9におけるDVD-others zone21に対応するエリアに記録された奥行き情報を用いることなく再生することにより、MPEGビデオストリームVSおよびMPEGオーディオストリームASに基づく2次元映像およびオーディオ信号をそれぞれ再生することができる。そして、記録媒体9におけるDVD-others zone21に対応するエリアに記録された奥行き情報を用いてMPEG多重化トランスポートストリームTSの再生処理を行うことにより、奥行き情報およびMPEGビデオストリームVSに基づく3次元映像およびMPEGオーディオストリームASに基づくオーディオ信号をそれぞれ再生することができる。
【0133】
したがって、本実施形態に係る記録装置200Bにおいても、第1および第2実施形態と同様の効果である、記録媒体9に記録された2次元映像および3次元映像の再生効率の向上という効果を得ることができる。
【0134】
特に、本実施形態では、DVD-others zone21に格納された奥行きデータをDVD-video zone20に格納されたビデオデータと同一のデータ構造とし、DVD-others zone21のDVOB86、DCELL87、およびDVOB88に対応するフレーム枚数(再生長時間)を、DVD-video zone20のVOB26、CELL27、およびVOB28に対応するフレーム枚数(再生長時間)と等しく設定することにより、サーチ等の記録媒体9に記録されたデータに対するアクセス性を高めることができる。
【0135】
このようにDVDビデオ規格に準拠したフォーマットで、DVD-video zone20およびDVD-others zone21の内の何れか一方に、2次元映像に対応する各フレーム画像の各画素の奥行き情報を格納しておくことにより、2次元映像および3次元映像をDVDビデオ規格互換で記録媒体9に記録することができる。
【0136】
(第4の実施の形態)
図18は、本発明の第4の実施の形態に係る記録装置200Cの概略構成を示すブロック図である。
【0137】
本実施形態における記録装置200Cは、コンピュータグラフィックス(CG)技術をベースにして、既存の2次元画像に対応する画像データから新たな2次元画像データ、あるいは全く新たな2次元画像データを例えばフレーム単位で生成する2次元画像生成機能(モジュール)91aおよび信号処理によりオーディオ信号を生成するオーディオ信号生成機能(モジュール)91bを有するコンピュータ91を備えており、このコンピュータ91は、視差ベクトル抽出器3、ビデオ圧縮器2、およびオーディオ圧縮器7にそれぞれ接続されている。
【0138】
コンピュータ91は、図示しないメモリを内蔵しており、このメモリに内蔵されたプログラム(ソフトウェア)により2次元画像生成機能91aおよびオーディオ信号生成機能91bがそれぞれ起動される。
【0139】
2次元画像生成機能91aによりCG技術に基づいて生成された2次元画像データ(CG画像データ)は、小サイズの単位(例えば、ポリゴン)毎にその位置情報および奥行き情報をそれぞれ有している。
【0140】
すなわち、本実施形態によれば、コンピュータ91の2次元画像生成機能91aは、CG技術によりフレーム単位の2次元画像データを順次生成し、ビデオデータ(ビデオストリーム)としてビデオ圧縮器2にそれぞれ送信するとともに、各2次元画像データのポリゴン単位毎の位置情報{水平位置(X)、垂直位置(Y)、奥行き情報(Z)}を奥行き情報フォーマット器5に送信するようになっている。
【0141】
そして、オーディオ信号生成機能91bは、元の素材となるオーディオ信号を加工して、あるいは全く新たなオーディオ信号を生成してオーディオ圧縮器7に送信するようになっている。
【0142】
なお、ビデオ圧縮器2、奥行き情報フォーマット器5、オーディオ圧縮器7、情報多重化器8、および記録器10の処理については、第1の実施形態の記録装置200の対応する構成要素と略同一であるため、その説明は省略する。
【0143】
すなわち、本実施形態によれば、コンピュータ91の2次元画像生成機能91aにより生成された各2次元画像データのポリゴン単位毎の位置情報{水平位置(X)、垂直位置(Y)、奥行き情報(Z)}は、順次奥行き情報フォーマット器5Aに送信される。
【0144】
このとき、奥行き情報フォーマット器5Aでは、送られた各ポリゴンの位置情報および各小ブロック{(4×2)の画素範囲}の位置情報の比較結果に応じて、各ポリゴンの奥行き情報の値が、各小ブロックの奥行き情報の値に変換され、第1の実施形態と同様に、変換された各小ブロックを構成する各画素に対してたとえば8ビットの奥行きデータとして展開される。
【0145】
この他の処理は、第1実施形態と同様である。
【0146】
すなわち、本実施形態によれば、撮像カメラを用いることなく2次元映像およびその奥行き情報を生成することができ、生成した奥行き情報を、MPEGビデオストリームと一体化してMPEGオーディオストリームと多重化し、MPEG多重化トランスポートストリームTSとしてDVDビデオフォーマットに準拠した記録媒体9に記録することができる。
【0147】
このため、第1実施形態と同様の効果である、記録媒体9に記録された2次元映像および3次元映像の再生効率の向上という効果を得ることができる。
【0148】
(第5の実施の形態)
図19は、本発明の第5の実施の形態に係る記録装置200Dの概略構成を示すブロック図である。
【0149】
本実施形態における記録装置200Dは、第4実施形態と同等の機能構成および接続関係を有するコンピュータ91および奥行き情報フォーマット器5Aを備えている。なお、ビデオ圧縮器2A、オーディオ圧縮器7、情報多重化器8A、および記録器10の処理については、第2の実施形態の記録装置200Aの対応する構成要素と略同一であるため、その説明は省略する。
【0150】
すなわち、本実施形態においても、第4の実施形態と同様に、コンピュータ91の2次元画像生成機能91aにより生成された各2次元画像データのポリゴン単位毎の位置情報は、順次奥行き情報フォーマット器5Aに送信される。
【0151】
このとき、奥行き情報フォーマット器5Aでは、送られた各ポリゴンの位置情報および各小ブロック{(4×2)の画素範囲}の位置情報の比較結果に応じて、各ポリゴンの奥行き情報の値が、各小ブロックの奥行き情報の値に変換され、変換された各小ブロックを構成する各画素に対してたとえば8ビットの奥行きデータとして展開される。
【0152】
この他の処理は、第2実施形態と同様である。
【0153】
すなわち、本実施形態によれば、撮像カメラを用いることなく2次元映像およびその奥行き情報を生成することができる。そして、生成した奥行き情報を、DVDビデオフォーマットに従った多重化処理により、そのDVDビデオフォーマットに対応する各フレームレイヤ33における各ピクセルレイヤに格納して奥行き情報が一体化されたMPEG多重化トランスポートストリームTSを生成し、生成したMPEG多重化トランスポートストリームTSをDVDビデオフォーマットに準拠した記録媒体9に記録することができる。
【0154】
このため、第2実施形態と同様の効果である、記録媒体9に記録された2次元映像および3次元映像の再生効率の向上という効果を得ることができる。
【0155】
(第6の実施の形態)
図20は、本発明の第6の実施の形態に係る記録装置200Eの概略構成を示すブロック図である。
【0156】
本実施形態における記録装置200Eは、第4実施形態と同等の機能構成および接続関係を有するコンピュータ91および奥行き情報フォーマット器5Aを備えている。なお、ビデオ圧縮器2A、オーディオ圧縮器7、情報多重化器8B、および記録器10の処理については、第3の実施形態の記録装置200Bの対応する構成要素と略同一であるため、その説明は省略する。
【0157】
すなわち、本実施形態においても、第4の実施形態と同様に、コンピュータ91の2次元画像生成機能91aにより生成された各2次元画像データのポリゴン単位毎の位置情報は、順次奥行き情報フォーマット器5Aに送信される。
【0158】
このとき、奥行き情報フォーマット器5Aでは、送られた各ポリゴンの位置情報および各小ブロック{(4×2)の画素範囲}の位置情報の比較結果に応じて、各ポリゴンの奥行き情報の値が、各小ブロックの奥行き情報の値に変換され、変換された各小ブロックを構成する各画素に対してたとえば8ビットの奥行きデータとして展開される。
【0159】
この他の処理は、第3実施形態と同様である。
【0160】
すなわち、本実施形態によれば、撮像カメラを用いることなく2次元映像およびその奥行き情報を生成することができる。次いで、生成した奥行き情報からフレームレイヤ33を生成し、生成した複数のフレーム画像に対応する複数のフレームレイヤ33をグループ化してDVDビデオフォーマットにおけるDVOBU88を生成して奥行き情報をDVDビデオフォーマット化する。そして、各画素の奥行き情報が多重化されたMPEG多重化トランスポートストリームTSをDVDビデオフォーマットに準拠した記録媒体9に記録することができる。
【0161】
したがって、本実施形態に係る記録装置200Eにおいても、第3実施形態と同様の効果である、記録媒体9に記録された2次元映像および3次元映像の再生効率の向上という効果を得ることができる。
【0162】
(第7の実施の形態)
図21は、本発明の第7の実施の形態に係る再生装置100の概略構成を示すブロック図である。この再生装置100は、本発明に係る第1乃至第6実施形態に係る記録装置200、200A〜200Eおよびその変形例の内の何れか1つの記録媒体9に記録されたMPEG多重化トランスポートストリームTSに基づいて2次元映像および3次元映像を切り替え再生できる装置である。
【0163】
すなわち、再生装置100は、記録媒体9にアクセスしてその記録媒体9に記録されたデータを読み取り再生することができる再生器101と、この再生器101に接続されたパケット分離用の情報分離化器102と、この情報分離化器102に接続されており、例えば図6に示す復号化装置の構成を有するビデオ復号器103と、このビデオ復号器103に接続された奥行きデータ取り出し用の奥行き情報取り出し器104とを備えている。
【0164】
さらに、再生装置100は、所定の立体表示方式により立体映像(3次元動画像)を表示可能な立体画像表示器105と、この立体画像表示器105の立体表示方式に対応する立体画像(視差画像)を生成するための視野変換器106とを備えている。
【0165】
そして、再生装置100は、情報分離化器102に接続されたオーディオデータ復号用のオーディオ復号器107と、このオーディオ復号器107により復号化されたオーディオ信号を再生するためのスピーカ108とを備えている。
【0166】
再生装置100は、再生器101、情報分離化器102、ビデオ復号器103、奥行き情報取り出し器104、立体画像表示器105、視野変換器106、およびオーディオ復号器107にそれぞれ接続されており、装置全体を制御するコントローラ109を備えている。
【0167】
次に、本実施形態に係る再生装置100の全体動作について説明する。
【0168】
この再生装置100によれば、第1実施形態で説明した記録方法により記録媒体9に記録されたMPEG多重化トランスポートストリームTSは、再生器101により記録媒体9から読み取られ、再生器101により読み取られたMPEG多重化トランスポートストリームTSは、情報分離化器102に送られ、この情報分離化器102において、MPEG多重化ストリームTSからMPEGビデオストリームVSのパケットおよびMPEGオーディオストリームASのパケットがそれぞれ分離される。
【0169】
情報分離化器102により分離されたMPEGビデオストリームVSのパケットは、ビデオ復号器103に受信され、このビデオ復号器103において、前掲図5に示した方法により、受信されたMPEGビデオストリームVSのパケットが復号化されて復号化データ(再生用フレーム画像)が生成される。
【0170】
さらに、ビデオ復号器103において、MPEGビデオストリームVSのユーザデータ領域UD1あるいはUD2に格納されたユーザデータが読み出され、この読み出されたユーザデータから、奥行き情報取り出し器104により、例えば図4や図17のフレームレイヤのフォーマットで記録された奥行きデータが取り出される。なお、ユーザデータがMPEG多重化トランスポートストリームTSにおけるD_PACK32、プライベートデータフィールド、もしくはプライベートストリームフィールドに格納されている場合には、情報分離化器102によってユーザデータが読み出されて奥行き情報取り出し器104により奥行きデータが取り出される。
【0171】
ビデオ復号器103により生成された再生用フレーム画像および奥行き情報取り出し器104により取り出された奥行きデータは、それぞれ視野変換器106にそれぞれ受信される。
【0172】
視野変換器106においては、受信された再生用フレーム画像および奥行き情報取り出し器104により取り出された奥行きデータに基づいて、立体画像表示器105の立体表示方式に対応する視差画像が生成され、生成された視差画像は、立体画像表示器105により立体表示される。
【0173】
一方、情報分離化器102により分離されたMPEGオーディオストリームASのパケットは、オーディオ復号器107により復号化されて復号化データ(オーディオ信号)が再生され、生成されたオーディオ信号は、スピーカ108により再生される。
【0174】
次に、本実施形態における視野変換器106の視差画像生成処理について説明する。
【0175】
視差画像を生成するには、CGにおける座標系の変換方法として視野変換方式を用いる。この視野変換方式は、視点座標系への変換式により、視点を変えた画像を得ることができるものであり、2次元画像およびその奥行き情報を入手することができれば、その奥行き情報を用いて自由な視点から見た画像(立体画像)を生成することができる。
【0176】
例えば、図1に示す撮像カメラ1Bの1Aあるいは1BのレンズL1AあるいはL1Bの光軸上の主点に対応する視点の座標を(x,y,z)、対象物体OBの特徴点に対応する注視点の座標を(x,y,z)とする。また、視点および注視点間の距離を(x,y,z)とすると、この視点および注視点間距離(x,y,z)は、下式
=x−x
=y−y
=z−z
として表される。
【0177】
このとき、本実施形態に係る視野変換方式では、最初に平行移動により原点の位置を動かして注視点Oを直交座標系(x,y,z)の原点に設定する。この変換をTとする。この変換Tは、単に(−x,−y,−z)だけの平行移動を表す変換である。次に、回転により座標値の向きを変える。図22に示すように、直交座標系(x,y,z)の原点(注視点)Oから点O方向へのベクトルは、原点Oからz軸のベクトルをまずα角だけy軸を中心に回転させ、次にβ角だけx軸を中心に回転させる。実際には、点Oの座標値を動かすので回転方向が逆になる。
【0178】
ここで、
変換T:y軸に-α回転
変換T:x軸に-β回転
として表される。ここで、αは、点Oをxy平面に投影した投影点O’と原点Oとを結ぶ線とZ軸との間の角度であるので、sinαおよびcosαは、それぞれ下式
【数1】

として表される。
【0179】
また、βは、原点Oおよび点Oの間の長さ(x+y1/2と点Oおよび投影点O’間の長さyにより、下式
【数2】

として表される。
【0180】
最後の変換として、xy平面に対するz軸の正方向が原点Oから視点側になるような(x,y,z)座標系(図22参照)から、xy平面に対するz軸の正方向が原点Oから視点とは反対の方向側、すなわち、視点から見て原点Oを介してxy平面の向こう側(視点からの目の方向)のz軸方向が正になるようにする変換Tを行う。これは単にz→−zにするだけである。これら変換T〜Tの4つの変換マトリクスを掛け合わせると、視点座標の変換マトリクスは
【数3】

として表される。
【0181】
例えば、立体画像表示器105の立体表示方式が後述するパララックスバリアを用いた2眼式立体表示方式であれば、視野変換器106は、奥行き情報取り出し器104により取り出された奥行きデータに基づいて設定できるαを上記変換マトリクスTを表す式に代入し、βおよびγは0に設定することにより、視差を有する右眼画像および左眼画像を生成することができる。
【0182】
また、立体画像表示器105の立体表示方式が後述するIP(Integral Photography:インテグラルフォトグラフィー、あるいはインテグラルイメージングともいう)を用いた方式であれば、視野変換器106は、複数のレンズアレイを構成するそれぞれのレンズ位置に対応した撮像カメラで対象物体を撮像して得られた複数の要素画像に基づいて、それぞれの要素画像の大きさと共に上記視点座標の変換マトリクスTを用いて計算することにより、立体画像データを生成することができる。このようにして生成した立体画像データを、立体画像表示器105に伝送し、立体画像再生を行うように公正されている。
【0183】
ここで立体画像表示方式のうち、代表的なパララックスバリア方式とIP方式の説明をする。パララックスバリア方式は、例えば液晶によって実現することができる。すなわち、パララックスバリア方式は、2枚の液晶パネルを積層して構成されており、図23に示すように、細いスリット状の一定周期の開口部110aが形成された一方の液晶パネル(液晶遮光バリア)110と、所定の視点(左眼、右眼)から見てその裏側に適当な間隔をおいて対向配置され、その液晶遮光バリア側のスクリーンに、左眼画像および右眼画像(LおよびR)が上記開口部と同一周期の交互に配置され、かつその反対側の面にバックライト111がその長手方向に沿って設置された他方の液晶パネル112とを備える方式である。
【0184】
このパララックスバリア方式によれば、ユーザの所定の視点から、液晶遮光バリア110の開口部を通して左眼画像および右眼画像を見た場合、右眼には右眼画像が、左眼には左眼画像がそれぞれ分離された状態で知覚できるように構成されている。この構成により、ユーザは、その右眼および左眼にそれぞれ認識された異なる左眼画像および右眼画像に基づいて、合成画像の結像位置が右眼・左眼画像位置(スクリーン位置)から変化し、立体画像として知覚することができる。
【0185】
しかしながら、眼のピントは常に液晶パネル112のスクリーン上に合わされているにも係わらず、結像位置がスクリーンとは異なる位置に知覚されるため、生理学的な不自然さを伴う恐れがあり、ユーザの疲労や映像酔い等が発生する可能性も生じていた。そこで、近年は、5つの立体視の生理的要因、すなわち、輻輳調節矛盾(輻輳点とピントのあう位置の矛盾)、両眼視差(ある物体を見る際に、人間の左右の眼はそれぞれ違った方向から見る2つの異なる像を捕らえている性質)、ピント調節(見る対象からの距離の変化に伴って水晶体の厚さをコントロールしてレンズの厚みを変えるような性質)、輻輳(遠近の変化により眼球が内側に回転したり外側へ回転したりする動きを伴うという性質)、および運動視差(ユーザが自分で動いたり見る角度を変えたりすることで像の違いを見る性質)をそれぞれ満たすような立体画像表示方式も提案されている。
【0186】
提案された中でも有望な方式として、Lippmannが1908年に発表した方式が上記IP方式である。IP方式は、2次元的に配列したレンズアレイ(フライアイレンズ、蝿の目レンズ、複眼レンズなどともいう)を利用して表示対象物体の奥行き情報を取得するものである。1990年代に入ると、従来の写真乾板による記録を電子技術で置き換えることにより、IP方式により動画を生成する技術が開発され、さらに、文献(NHK放送技術研究所「3次元映像の基礎」)の研究者の手により、屈折率分布レンズアレイ{GRIN(Gradient Index)レンズアレイともいう}とハイビジョンカメラとを用いて表示対象(被写体)を撮像してレンズアレイに対応する要素画像群を取得しながら、各要素画像を液晶ディスプレイにリアルタイムに伝送して表示し、フライアイレンズにより空間上に立体画像(3次元映像)として結像することに成功し、IP方式による3次元テレビジョン放送の実現可能性が示された。
【0187】
図24は、IP方式の立体画像結像原理を説明するものであり、図24(a)に示すように、撮影時に微小な要素レンズ121を多数並べてIPレンズアレイ122としてのGRINレンズアレイを構成しており、要素レンズ121毎に結像された撮像対象物体OB1の像は、集光レンズ123を介してハイビジョンカメラ124に要素画像として結像され、このカメラ124により一括して撮影される。そして、再生時においては、図24(b)に示すように、カメラからの映像は、表示器である例えば液晶ディスプレイ(LCD:Light Crystal Display)125により再現され、全ての要素レンズ121の光が1点に集合して、全体として1方向から見た再生像を作成する。
【0188】
微小な要素レンズを2次元に配置することにより水平および垂直方向の運動視差を作り出すことも可能であり、水平方向に並べれば水平方向のみの視差を持たせることも可能である。
【0189】
本実施形態においてIP方式に対応する視差画像を生成表示するために、視野変換器106は、複数の要素レンズを経由して見えた複数の要素画像を、奥行き情報取り出し器104により取り出された奥行きデータに基づいて上述した視点変換によりそれぞれ作成し、作成した要素画像を配列することにより、あたかも図24の(a)の構成で撮像したかのように立体画像表示器105における液晶ディスプレイに対してその要素画像配列を表示することにより、立体視再生を実現することができる。実際にIP方式に対応する立体画像表示器105は、図25に示すように、液晶ディスプレイ125と、複数の要素レンズ121から構成されたIPレンズアレイ(例えばGRINレンズアレイ)122とを備え、その液晶ディスプレイ125およびレンズアレイ121を近接して対向配置して構成されている。すなわち、立体画像表示器105は、2次元映像を表示する構成と略同一の構成を有する薄型ディスプレイとして設計されている。
【0190】
一方、コントローラ109の制御に応じて、再生装置105の視野変換器106は奥行きデータを用いて視野変換処理を行わないことも可能であり、この場合、立体画像表示器105は、コントローラ109の制御に応じて、ビデオ復号器103から送られた再生用フレーム画像(2次元画像)をフレーム毎に順次表示するようになっている。
【0191】
以上述べたように、本実施形態に係る再生装置100によれば、記録媒体9に記録された奥行き情報の使用/不使用の切り替えにより2次元映像および3次元映像を切り替え再生することができ、記録媒体9に記録された2次元映像および3次元映像の再生効率を向上させることができる。
【0192】
また、本実施形態では、奥行き情報から立体視するデータを作成しているため、従来のように片眼画像のみが劣化することを防止して、立体視を行うユーザの満足度を向上させることができる。
【0193】
なお、第1乃至第6の実施の形態およびその変形例では、記録器10は、奥行き情報が多重化されたMPEG多重化トランスポートストリームTSを記録媒体9に記録したが、本発明はこの構成に限定されるものではない。例えば、図26に示すように、本変形例に係る記録装置200Fにおける記録器10Aは、情報多重化器8から送信されてきたMPEGトランスポートストリームTSを、通信(放送)用パケット化器130を介して通信または放送用のフォーマットにしたがってパケット化し、通信/放送用フォーマットでパケット化されたストリームを、フォーマットに対応する通信網(あるいは放送網)131を介して伝送してもよい。
【0194】
また、第7実施形態では、再生装置100は、その再生器101により記録媒体9に記録されたMPEG多重化トランスポートストリームTSを記録媒体9から読み取って再生処理を行ったが、本発明はこの構成に限定されるものではない。例えば、図27に示すように、本変形例に係る再生装置100Aは、通信網(あるいは放送網)131を介して伝送されてきた、通信/放送用フォーマットでパケット化されたストリームを受信してパケットを解除する。そして、再生装置100Aは、解除したデータを情報分離化器102に送り、この情報分離化器102において、MPEG多重化トランスポートストリームTSからMPEGビデオストリームVSのパケットおよびMPEGオーディオストリームASのパケットをそれぞれ分離し、以下、上述した再生処理(図21乃至図25参照)を実行することも可能である。
【0195】
本変形例によれば、記録媒体9からMPEG多重化トランスポートストリームTSを読み取るのではなく、通信網(放送網)131を介して伝送されるストリームについても、このストリームを読み取り、読み取ったストリームに対応する2次元あるいは3次元映像等を再生することもできる。
【0196】
(第8の実施の形態)
図28(a)は、本発明の第8の実施の形態に係る記録用プログラムがインストールされた少なくとも1台のメモリ内蔵型コンピュータ(汎用コンピュータ、マイクロコンピュータ等も含む)150を示す図である。
【0197】
図28(a)に示すように、コンピュータ150は、図1に示した一対の撮像カメラ1Aおよび1B、マイク6、ならびに記録媒体9に対してそれぞれ接続されている。なお、図28(b)に示すコンピュータの処理手順は、図1に示すハードウェアブロック構成要素(ビデオ圧縮器2、視差ベクトル抽出器3、奥行き情報算出器4、奥行き情報フォーマット器5、オーディオ圧縮器7、情報多重化器8、および記録器10)それぞれの処理機能に対応しているため、処理の流れを簡単に説明する。
【0198】
すなわち、図28(b)に示すように、コンピュータ150は、メモリ150aに記録された記録用プログラムに従って、左右一対の撮像カメラ1Aおよび1Bによりそれぞれ同一タイミングで撮像された所定時間分の対象物体OBの左眼画像Plおよび右眼画像Prを入力し、メモリ150aに記憶する(ステップS110)。
【0199】
次いで、コンピュータ150は、図1に示す視差ベクトル抽出器3に対応する処理を実行することにより、第1実施形態で説明したように、エピポーラ線方向およびそのエピポーラ線方向に直交する方向に基づいて設定した探索範囲内の全てのマクロブロック内の全ての対応点に関する視差ベクトルVを抽出する(ステップS120)。
【0200】
続いて、コンピュータ150は、図1に示す奥行き情報算出器4に対応する処理を実行することにより、第1実施形態で説明したように、ステップS120の処理により抽出した各視差ベクトルの大きさを計算し小ブロック単位の各視差ベクトルの位置情報{水平位置(X)、垂直位置(Y)、奥行き情報(Z)}を生成する(ステップS130)。
【0201】
そして、コンピュータ150は、図1に示す奥行き情報フォーマット器5に対応する処理を実行することにより、各小ブロックの奥行き情報の値を各画素の奥行きデータとしてフォーマット化する(ステップS140)。
【0202】
次いで、コンピュータ150は、図1に示すビデオ圧縮器2に対応する処理を実行することにより、例えば右眼画像PrをMPEG圧縮符号化してMPEGビデオストリームVSを生成するとともに、ステップS140の処理により得られた各画素の8ビットの奥行きデータを、第1実施形態で説明した(1)〜(4)の内の何れかのデータフォーマットに基づいて、MPEGビデオストリームVSにおけるユーザデータ領域UD1/UD2、MPEG多重化トランスポートストリームTSにおけるD_PACK32、プライベートデータフィールド、あるいはプライベートストリームフィールドの内の何れかに格納する(ステップS150)。
【0203】
ステップS110〜S150の処理と並行して、コンピュータ150は、図1に示すオーディオ圧縮器7に対応する処理を実行することにより、マイク6により収集されたオーディオ信号をMPEG圧縮符号化してMPEGオーディオストリームASを生成する(ステップS160)。
【0204】
続いて、コンピュータ150は、図1に示す情報多重化器8に対応する処理を実行することにより、MPEGビデオストリームVSおよびMPEGオーディオストリームASを図4に示すDVDビデオフォーマットに従って多重化する(ステップS170)。
【0205】
そして、コンピュータ150は、多重化により生成されたデータストリーム(MPEG多重化トランスポートストリームTS)を、所定の単位(例えば、DVDビデオ規格に対応する2kB単位)で記録媒体9に記録するか、あるいは、仮にコンピュータ150が所定の通信フォーマットを有する通信網や放送網に接続されている場合、多重化により生成されたMPEG多重化トランスポートストリームTSを所定の通信フォーマットに対応するパケットに変換して通信網や放送網を介して伝送する(ステップS180)。
【0206】
続いて、コンピュータ150は、撮像カメラ1Aおよび/または1Bから画像データ(フレーム画像データ)が入力されてくるか否か判断しており(ステップS190)、この判断の結果YESの場合には、ステップS110の処理に戻ってステップS110以降の処理を継続して行う。
【0207】
一方、ステップS190の判断の結果NOの場合には、コンピュータ150は、処理を終了する。
【0208】
すなわち、本実施形態に係る記録プログラムによれば、コンピュータ150に対して、各画素の奥行きデータをMPEGビデオストリームVSのユーザデータ領域UD1またはUD2に格納させ、そのMPEGビデオストリームVSをMPEGオーディオストリームASと多重化させて記録媒体9に記録させることができる。このため、第1実施形態と同様に、記録媒体9に記録された奥行き情報の使用/不使用の切り替えにより2次元映像および3次元映像の切り替え再生が可能になり、2次元映像および3次元映像の再生効率を向上させることができる。
【0209】
(第9の実施の形態)
図29(a)は、本発明の第9の実施の形態に係る再生用プログラムがインストールされた少なくとも1台のメモリ内蔵型コンピュータ(汎用コンピュータ、マイクロコンピュータ等も含む)160を示す図である。
【0210】
図29(a)に示すように、コンピュータ160は、図21に示した記録媒体9、立体画像表示器105、およびスピーカ108に対してそれぞれ接続されている。なお、図29(b)に示すコンピュータの処理手順は、図21に示すハードウェアブロック構成要素(再生器101、情報分離化器102、ビデオ復号器103、奥行き情報取り出し器104、視野変換器106、およびオーディオ復号器107)それぞれの処理機能に対応しているため、処理の流れを簡単に説明する。
【0211】
すなわち、図29(b)に示すように、コンピュータ160は、メモリ160aに記録された再生用プログラムに従って、記録媒体9に記録されたMPEG多重化トランスポートストリームTSを再生するか、あるいはコンピュータ160が所定の通信フォーマットを有する通信網や放送網に接続されている場合、その通信網や放送網から伝送されてきたMPEG多重化トランスポートストリームTS(所定の通信フォーマットでフォーマット化されている)を受信する(ステップS210)。
【0212】
次いで、コンピュータ160は、図21に示す情報分離化器102に対応する処理を実行することにより、第7実施形態で説明したように、MPEG多重化ストリームTSからMPEGビデオストリームVSのパケットおよびMPEGオーディオストリームASのパケットをそれぞれ分離する(ステップS220)。なお、ストリームTSが所定の通信フォーマットでパケット化されている場合には、この通信フォーマットのパケットを解除してから、ステップS220の処理を実行する。
【0213】
続いて、コンピュータ160は、図21に示すビデオ復号器103に対応する処理を実行することにより、第7実施形態で説明したように、分離されたMPEGビデオストリームVSのパケットを復号化して復号化データ(再生用フレーム画像)を生成するとともに、MPEGビデオストリームVSのユーザデータ領域UD1あるいはUD2に格納されたユーザデータを読み出す(ステップS230)。
【0214】
なお、ユーザデータがMPEG多重化トランスポートストリームTSにおけるD_PACK32、プライベートデータフィールド、もしくはプライベートストリームフィールドに格納されている場合には、コンピュータ160は、ステップS220の処理において、そのMPEG多重化トランスポートストリームTSにおける対応する格納領域からユーザデータを読み出す。
【0215】
そして、コンピュータ160は、図21に示す奥行き情報取り出し器104に対応する処理を実行することにより、第7実施形態で説明したように、ステップS230の処理により読み出したユーザデータから、例えば図4や図17のフレームレイヤのフォーマットで記録されたマクロブロック毎の奥行きデータを取り出す(ステップS240)。次いで、コンピュータ160は、再生用フレーム画像および奥行きデータに基づいて、立体画像表示器105の立体表示方式に対応する視差画像を生成し(ステップS250)、生成した視差画像を立体画像表示器105により立体表示する(ステップS260)。
【0216】
一方、コンピュータ160は、ステップS220の処理により分離したMPEGオーディオストリームASのパケットを復号化し(ステップS270)、復号化データ(オーディオ信号)としてスピーカ108により再生する(ステップS280)。
【0217】
コンピュータ160は、記録媒体9に再生対象となる画像データ(フレーム画像データ)が依然として記録されているか否か、あるいは通信網(放送網)から画像データがコンピュータ160に入力されてくるか否かを判断しており(ステップS290)、この判断の結果YESの場合には、ステップS210の処理に戻ってステップS210以降の処理を継続して行う。
【0218】
一方、ステップS290の判断の結果NOの場合には、コンピュータ160は、処理を終了する。
【0219】
すなわち、本実施形態に係る再生プログラムによれば、第6実施形態と同様に、記録媒体9に記録された奥行き情報の使用/不使用の切り替えにより2次元映像および3次元映像の切り替え再生が可能になり、2次元映像および3次元映像の再生効率を向上させることができる。
【0220】
なお、第6および第8実施形態において、立体画像表示器105の立体映像表示方式として、IP方式およびパララックスバリア方式について説明したが、本発明はこの方式に限定されるものではなく、レンチキュラーレンズ方式、超多眼方式、偏向眼鏡を用いた2眼方式、アナグリフ方式等、立体知覚できる方式であれば、何れの方式も適用できる。また、本発明では、奥行きデータを含むMPEG多重化トランスポートストリームを必ずしも記録媒体に記録する必要はなく、図26に示したように、通信網や放送網等の様々な伝送媒体を経由してMPEG多重化トランスポートストリームを伝送することが可能である。したがって、この場合には、記録装置は伝送装置として使用される。また、図27に示したように、本発明に係る再生装置を、通信網や放送網等の様々な伝送媒体を経由してMPEG多重化トランスポートストリームを受信する受信装置として用いることも可能である。
【0221】
また、第1〜第8実施形態に係る記録媒体は、3次元映像表示用の奥行き情報を記録しているという媒体特有の効果を有しているため、複数の立体映像(3次元映像)再生方法に対応して3次元映像の再生を可能にするシステムを好適に実現することができる。
【0222】
さらに、本発明に係る記録媒体における“媒体”という定義は、データを記録できる媒体という狭義な媒体を表すだけでなく、データ伝送用の媒体である電磁波、光等の物理的媒体等も含む概念である。また、記録媒体に記録されている情報は、記録されていない状態での、電子ファイルなどのデータ自身も含むものとする。
【0223】
そして、映像データの奥行き情報は、フレーム画像毎に記録するように説明したが、本発明においては、約0.5秒毎、あるいは約1秒毎に記録する構成でもよい。その場合には、MPEGのGOPレイヤに用意されたユーザデータ領域に記録されたユーザデータを用いることで実現できる。
【0224】
また、上記各実施形態では、ビデオデータおよびオーディオデータをそれぞれ圧縮符号化して多重化したが、オーディオデータを用いずに、ビデオデータを中心に多重化してもよい。また、オーディオデータやビデオデータに限らず、他のサブピクチャや制御情報等のデータを多重化してよいことも当然である。
【0225】
さらに、上記各実施形態では、奥行きデータを例えば左目画像の画素毎に求めたが、本発明はこの構成に限定されるものではなく、画素以外の単位毎に奥行きデータを求めてもよい。
【0226】
なお、第7の実施形態および第8の実施形態においてコンピュータにインストールされたプログラムは、このコンピュータがアクセス可能なCD―ROM、DVD−ROM等の各種の記録媒体からコンピュータ内にインストールしてもよく、あるいは、上記通信網を介して伝送されてきたプログラムをコンピュータ内にインストールしてもよい。
【図面の簡単な説明】
【0227】
【図1】本発明の第1の実施の形態に係る記録装置の概略構成を示すブロック図である。
【図2】本発明における第1の実施形態の記録装置の映像記録対象である物体に対する記録装置の配置関係を示す図である。
【図3】(a)は、本発明の第1の実施の形態に係る右眼画像、左眼画像、対象物体、およびエピポーラ線をそれぞれ示す斜視図であり、(b)は、図3(a)に示される右眼画像および左眼画像上に設定される探索範囲を示す図である。
【図4】DVDビデオフォーマットの概略を示す図。
【図5】MPEGによる圧縮符号化処理を実行するための符号化装置の一例を示すブロック図である。
【図6】図5に示す符号化装置により圧縮符号化されたビデオデータを復号して再生する復号化装置を示すブロック図である。
【図7】図5に示す符号化装置により生成されるMPEGビデオストリームVSの階層構造の概略構成を示す図である。
【図8】(a)は、図7に示すシーケンスレイヤのシンタックスを示す図であり、(b)は、シーケンスヘッダのシンタックスを示す図である。
【図9】GOPレイヤのシンタックスを示す図である。
【図10】pictureレイヤのシンタックスを示す図である。
【図11】sliceレイヤのシンタックスを示す図である。
【図12】Macroblockレイヤのシンタックスを示す図である。
【図13】ブロックレイヤのシンタックスを示す図である。
【図14】本発明の第2の実施の形態に係る記録装置の概略構成を示すブロック図である。
【図15】MPEG多重化トランスポートストリームのシステムレイヤのシンタックスを示す図である。
【図16】本発明の第3の実施の形態に係る記録装置の概略構成を示すブロック図である。
【図17】本発明の第3の実施の形態に係るDVDビデオフォーマットの概略を示す図である。
【図18】本発明の第4の実施の形態に係る記録装置の概略構成を示すブロック図である。
【図19】本発明の第5の実施の形態に係る記録装置の概略構成を示すブロック図である。
【図20】本発明の第6の実施の形態に係る記録装置の概略構成を示すブロック図である。
【図21】本発明の第7の実施の形態に係る再生装置の概略構成を示すブロック図である。
【図22】本発明の第7の実施形態における視野変換方式を説明するための座標系を示す図である。
【図23】本発明の第7の実施形態に係る立体表示方式の一例であるパララックスバリア方式を概略的に説明するための図である。
【図24】(a)は、本発明の第7の実施形態に係る立体表示方式の一例である撮影時におけるIP方式を概略的に説明するための図であり、(b)は、表示時におけるIP方式を概略的に説明するための図である。
【図25】本発明の第7の実施形態に係る立体表示方式としてIP方式を適用した図21に示す立体画像表示器の概略構成を示す図である。
【図26】本発明の第1〜第6実施形態の変形例に係る記録装置の概略構成を示すブロック図である。
【図27】本発明の第7の実施の形態の変形例に係る再生装置の概略構成を示すブロック図である。
【図28】(a)は、本発明の第8の実施の形態に係る記録用プログラムがインストールされたメモリ内蔵型コンピュータを含むシステムの概略構成を示す図であり、(b)は、図28(a)に示すコンピュータの処理手順を概略的に示すフローチャートである。
【図29】(a)は、本発明の第9の実施の形態に係る再生用プログラムがインストールされたメモリ内蔵型コンピュータを含むシステムの概略構成を示す図であり、(b)は、図29(a)に示すコンピュータの処理手順を概略的に示すフローチャートである。
【符号の説明】
【0228】
1A,1B 撮像カメラ
2,2A ビデオ圧縮器
3 視差ベクトル抽出器
4 奥行き情報算出器
5,5A 奥行き情報フォーマット器
6 マイク
7 オーディオ圧縮器
8,8A,8B 情報多重化器
9 記録媒体
10 記録器
11 制御部
91 コンピュータ
100,100A 再生装置
101 再生器
102 情報分離化器
103 ビデオ復号器
104 奥行き情報取り出し器
105 立体画像表示器
106 視野変換器
107 オーディオ復号器
108 スピーカ
109 コントローラ
130 通信(放送)用パケット化器
131 通信(放送)網
140 通信(放送)用パケット解除器
150,160 コンピュータ
150a,160a メモリ
200,200A〜200F記録装置

【特許請求の範囲】
【請求項1】
所定の規格にフォーマット化された記録媒体に記録されており、2次元画像を前記記録媒体のフォーマットに準拠する圧縮符号化フォーマットにより圧縮符号化して成る第1のビットストリームと、前記2次元画像の所定単位毎に求められた当該2次元画像の奥行きに関する情報をフォーマット化して成る第2のビットストリームとが多重化された多重化ストリームを再生する再生装置であって、
前記多重化ストリームから前記第1のビットストリームを分離して前記2次元画像を再生する手段と、
前記多重化ストリームから前記第2のビットストリームを分離して前記2次元画像の奥行きに関する情報を再生する手段と、
前記再生した2次元画像および当該2次元画像の奥行きに関する情報に基づいて3次元画像を生成する手段と、
を備えたことを特徴とする再生装置。
【請求項2】
所定の規格にフォーマット化された記録媒体に記録されており、2次元画像を前記記録媒体のフォーマットに準拠する圧縮符号化フォーマットにより圧縮符号化して成るビデオストリームと、このビデオストリームにおける前記圧縮符号化フォーマットにおいて設定される任意使用領域に格納された前記2次元画像の奥行きに関する情報とが多重化されて構成された多重化ストリームを再生する再生装置であって、
前記多重化ストリームから前記ビットストリームを分離して前記2次元画像を再生する手段と、
前記分離したビットストリームにおける前記任意使用領域に格納された前記2次元画像の奥行きに関する情報を再生する手段と、
前記再生した2次元画像および当該2次元画像の奥行きに関する情報に基づいて3次元画像を生成する手段と、
を備えたことを特徴とする再生装置。
【請求項3】
前記2次元画像は、2次元映像を構成する複数のフレーム画像であり、前記奥行き情報は、前記2次元映像を構成する各フレーム画像における前記所定単位としての画素毎の画素値であり、
前記2次元映像を構成する各フレーム画像における前記画素毎の奥行き情報を表す画素値は、前記記録媒体のフォーマットに準拠する圧縮符号化フォーマットにより各フレーム画像内において差分符号化する第1の圧縮符号化処理、ランレングス符号化する第2の圧縮符号化処理、前記各フレーム画像と該各フレーム画像の時間軸上における未来および過去の内の少なくとも一方のフレーム画像とから予測符号化する第3の圧縮符号化処理、および前記各フレーム画像内の直交変換を用いて符号化する第4の圧縮符号化処理の内の少なくとも何れか1つの圧縮符号化処理により圧縮符号化されて前記記録媒体に記録されており、
前記奥行きに関する情報を再生する手段は、前記第1〜第4の圧縮符号化処理の内の少なくとも何れか1つの圧縮符号化処理により圧縮符号化処理された前記各フレーム画像の前記画素毎の奥行き情報を表す画素値を、その少なくとも何れか1つの圧縮符号化処理に対応する復号化処理により復号化して前記2次元画像の奥行きに関する情報を再生する手段を備えたことを特徴とする請求項1または2記載の再生装置。
【請求項4】
所定の規格にフォーマット化された記録媒体に記録されており、2次元画像を前記記録媒体のフォーマットに準拠する圧縮符号化フォーマットにより圧縮符号化して成る第1のビットストリームと、前記2次元画像の所定単位毎に求められた当該2次元画像の奥行きに関する情報をフォーマット化して成る第2のビットストリームとが多重化された多重化ストリームを再生するためのコンピュータが実行可能な再生プログラムであって、
前記コンピュータに、
前記多重化ストリームから前記第1のビットストリームを分離して前記2次元画像を再生する処理と、
前記多重化ストリームから前記第2のビットストリームを分離して前記2次元画像の奥行きに関する情報を再生する処理と、
前記再生した2次元画像および当該2次元画像の奥行きに関する情報に基づいて3次元画像を生成する処理と、
をそれぞれ実行させることを特徴とする再生プログラム。
【請求項5】
所定の規格にフォーマット化された記録媒体に記録されており、2次元画像を前記記録媒体のフォーマットに準拠する圧縮符号化フォーマットにより圧縮符号化して成るビデオストリームと、このビデオストリームにおける前記圧縮符号化フォーマットにおいて設定される任意使用領域に格納された前記2次元画像の奥行きに関する情報とが多重化されて構成された多重化ストリームを再生するためのコンピュータが実行可能な再生プログラムであって、
前記コンピュータに、
前記多重化ストリームから前記ビットストリームを分離して前記2次元画像を再生する処理と、
前記分離したビットストリームにおける前記任意使用領域に格納された前記2次元画像の奥行きに関する情報を再生する処理と、
前記再生した2次元画像および当該2次元画像の奥行きに関する情報に基づいて3次元画像を生成する処理と、
をそれぞれ実行させることを特徴とする再生プログラム。
【請求項6】
前記2次元画像は、2次元映像を構成する複数のフレーム画像であり、前記奥行き情報は、前記2次元映像を構成する各フレーム画像における前記所定単位としての画素毎の画素値であり、
前記2次元映像を構成する各フレーム画像における前記画素毎の奥行き情報を表す画素値は、前記記録媒体のフォーマットに準拠する圧縮符号化フォーマットにより各フレーム画像内において差分符号化する第1の圧縮符号化処理、ランレングス符号化する第2の圧縮符号化処理、前記各フレーム画像と該各フレーム画像の時間軸上における未来および過去の内の少なくとも一方のフレーム画像とから予測符号化する第3の圧縮符号化処理、および前記各フレーム画像内の直交変換を用いて符号化する第4の圧縮符号化処理の内の少なくとも何れか1つの圧縮符号化処理により圧縮符号化されて前記記録媒体に記録されており、
前記奥行きに関する情報を再生する処理は、前記第1〜第4の圧縮符号化処理の内の少なくとも何れか1つの圧縮符号化処理により圧縮符号化処理された前記各フレーム画像の前記画素毎の奥行き情報を表す画素値を、その少なくとも何れか1つの圧縮符号化処理に対応する復号化処理により復号化して前記2次元画像の奥行きに関する情報を再生する処理を含むことを特徴とする請求項4または5記載の再生プログラム。


【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26】
image rotate

【図27】
image rotate

【図28】
image rotate

【図29】
image rotate


【公開番号】特開2006−191357(P2006−191357A)
【公開日】平成18年7月20日(2006.7.20)
【国際特許分類】
【出願番号】特願2005−1365(P2005−1365)
【出願日】平成17年1月6日(2005.1.6)
【出願人】(000004329)日本ビクター株式会社 (3,896)
【Fターム(参考)】