説明

記録装置、記録方法、再生装置、再生方法、プログラム、および記録再生装置

【課題】撮影に用いられた複数のカメラの情報を再生側の装置に提供することができるようにする。
【解決手段】本技術の一側面の記録装置は、第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化し、Non-base viewビデオストリームを構成する各ピクチャのSEIとして、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含む前記SEIを記録する符号化部と、Base viewビデオストリームと、前記SEIが記録されたNon-base viewビデオストリームとを記録媒体に記録させる記録制御部とを備える。

【発明の詳細な説明】
【技術分野】
【0001】
本技術は、特に、撮影に用いられた複数のカメラの情報を再生側の装置に提供することができるようにした記録装置、記録方法、再生装置、再生方法、プログラム、および記録再生装置に関する。
【背景技術】
【0002】
近年、立体視が可能な画像を収録した3Dコンテンツが注目されている。3Dコンテンツのビデオデータには、左目用の画像(L画像)と右目用の画像(R画像)のデータが含まれる。L画像に写る被写体とR画像に写る被写体には、視差に相当するずれがある。
【0003】
例えば視差が設定されたL画像とR画像を交互に表示し、アクティブシャッタメガネをかけたユーザの左目と右目にそれぞれ届けることによって、被写体を立体的に認識させることが可能になる。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2007−280516号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
ユーザが知覚する視差が視聴環境によって異なるため、常に最適な視差で視聴させることは難しい。例えば、表示デバイス上における表示画像の大きさによっても最適な視差は異なるし、視聴距離によっても最適な視差は異なる。
【0006】
L画像とR画像から撮影時におけるカメラの位置等を推定し、それに合わせて視差を調整することも試みられているが、撮影時の状況を再生側で完全に復元することは困難である。
【0007】
本技術はこのような状況に鑑みてなされたものであり、撮影に用いられた複数のカメラの情報を再生側の装置に提供することができるようにするものである。
【課題を解決するための手段】
【0008】
本技術の第1の側面の記録装置は、第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化し、Non-base viewビデオストリームを構成する各ピクチャのSEIとして、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含む前記SEIを記録する符号化部と、Base viewビデオストリームと、前記SEIが記録されたNon-base viewビデオストリームとを記録媒体に記録させる記録制御部とを備える。
【0009】
第1のカメラと第2のカメラは、それぞれ、レンズを少なくとも有する。レンズに取り込まれた光の光電変換を行う撮像素子として、第1のカメラ用の撮像素子と第2のカメラ用の撮像素子がそれぞれ設けられるようにしてもよいし、1つの撮像素子が第1のカメラと第2のカメラにより共有して用いられるようにしてもよい。
【0010】
第1のカメラと第2のカメラは、記録装置の内部に設けられるものであってもよいし、記録装置の外部に設けられるものであってもよい。記録装置の外部に設けられる場合、第1のカメラと第2のカメラにより撮影された画像は、有線、または無線の通信によって記録装置に供給される。
【0011】
左目用の画像を撮影する前記第1のカメラと、右目用の画像を撮影する前記第2のカメラとをさらに設けることができる。この場合、前記符号化部には、前記第1のカメラで撮影された左目用の画像を前記Base viewビデオストリームとして符号化させ、前記第2のカメラで撮影された右目用の画像を前記Non-base viewビデオストリームとして符号化させることができる。
【0012】
前記符号化部には、前記光軸間隔の情報として、2つの値を含む情報を記録させることができる。この場合、前記第1のカメラと前記第2のカメラの光軸間隔は、前記2つの値のうちの一方の値を他方の値で除算することによって表される。
【0013】
前記符号化部には、前記輻輳角の情報として、2つの値を含む情報を記録させることができる。この場合、前記第1のカメラと前記第2のカメラの輻輳角は、前記2つの値のうちの一方の値を他方の値で除算することによって表される。
【0014】
本技術の第2の側面の再生装置は、第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化することによって得られたBase viewビデオストリームと、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含むSEIが各ピクチャのSEIとして記録されたNon-base viewビデオストリームとを復号する復号部を備える。
【0015】
前記SEIに基づいて、前記Base viewビデオストリームを復号して得られた画像と、前記Non-base viewビデオストリームを復号して得られた画像との視差を調整し、表示させる表示制御部をさらに設けることができる。
【0016】
前記表示制御部には、前記Base viewビデオストリームを復号して得られた画像を左目用の画像として表示させ、前記Non-base viewビデオストリームを復号して得られた画像を右目用の画像として表示させることができる。
【0017】
本技術の第3の側面の記録再生装置は、第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化し、Non-base viewビデオストリームを構成する各ピクチャのSEIとして、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含む前記SEIを記録する符号化部と、Base viewビデオストリームと、前記SEIが記録されたNon-base viewビデオストリームとを記録媒体に記録させる記録制御部と、前記記録媒体に記録された前記Base viewビデオストリームと前記Non-base viewビデオストリームとを復号する復号部とを備える。
【発明の効果】
【0018】
本技術によれば、撮影に用いられた複数のカメラの情報を再生側の装置に提供することができる。
【図面の簡単な説明】
【0019】
【図1】本技術の一実施形態に係る記録再生システムの構成例を示す図である。
【図2】H.264/MPEG-4 MVCについて説明する図である。
【図3】基線長と輻輳角について説明する図である。
【図4】記録装置の構成例を示すブロック図である。
【図5】Non-base viewビデオストリームのデータ構造を示す図である。
【図6】user_data_unregistered SEIのシンタクスを示す図である。
【図7】mdp_idを示す図である。
【図8】BASELINE LENGTH pack()を示す図である。
【図9】CONVERGENCE ANGLE pack()を示す図である。
【図10】記録装置の記録処理について説明するフローチャートである。
【図11】再生装置の構成例を示すブロック図である。
【図12】再生装置の再生処理について説明するフローチャートである。
【図13】図12のステップS23において行われる視差調整処理について説明するフローチャートである。
【図14】輻輳角、基線長、視差の関係について説明する図である。
【図15】視差の調整について説明する図である。
【図16】記録再生システムの構成例を示すブロック図である。
【図17】記録再生システムの他の構成例を示すブロック図である。
【図18】コンピュータの構成例を示すブロック図である。
【発明を実施するための形態】
【0020】
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.記録再生システムについて
2.記録装置について
3.再生装置について
4.変形例
【0021】
<記録再生システムについて>
図1は、本技術の一実施形態に係る記録再生システムの構成例を示す図である。
【0022】
図1の記録再生システムは、記録装置1、再生装置2、および表示装置3から構成される。再生装置2と表示装置3は、HDMI(High Definition Multimedia Interface)ケーブルなどのケーブル4を介して接続される。
【0023】
記録装置1は3D画像の撮影と記録が可能なビデオカメラである。記録装置1の前面には、記録装置1から被写体に向かって右側の位置にレンズ11Rが設けられ、左側の位置にレンズ11Lが設けられる。記録装置1の内部には、レンズ11Rにより取り込まれた光に基づいてR画像を生成するための光学系を有する右目用のカメラと、レンズ11Lから取り込まれた光に基づいてL画像を生成するための光学系を有する左目用のカメラが設けられる。
【0024】
記録装置1は、R画像とL画像をH.264/MPEG-4 MVC(Multi-view Video coding)によって符号化し、AVCHD(Advanced Video Codec High Definition)などの記録フォーマットに従って内部の記録媒体に記録する。
【0025】
ここで、H.264/MPEG-4 MVCについて図2を参照して説明する。H.264/MPEG-4 MVCでは、Base viewビデオストリームと呼ばれるビデオストリームと、Non-base viewビデオストリームと呼ばれるビデオストリームが定義されている。
【0026】
Base viewビデオストリームは、L画像とR画像のうちの例えばL画像をH.264/AVCによって符号化することによって得られたストリームである。図2の縦方向の矢印で示すように、Base viewのピクチャには、他のviewのピクチャを参照画像とする予測符号化が許されていない。
【0027】
一方、Non-base viewのピクチャには、Base viewのピクチャを参照画像とする予測符号化が許されている。例えばL画像をBase viewにするとともにR画像をNon-base viewとして符号化を行った場合、その結果得られるR画像のビデオストリームであるNon-base viewビデオストリームのデータ量は、L画像のビデオストリームであるBase viewビデオストリームのデータ量に比較して少なくなる。
【0028】
なお、H.264/AVCでの符号化であるから、図2の横方向の矢印で示すように、Base viewのピクチャについて、時間方向の予測符号化が行われている。また、Non-base viewのピクチャについても、view間の予測とともに、時間方向の予測符号化が行われている。Non-base viewのピクチャを復号するには、符号化時に参照先とした、対応するBase viewのピクチャの復号が先に終了している必要がある。
【0029】
記録装置1により撮影されたL画像とR画像の符号化は、このようなH.264/MPEG-4 MVCによって行われる。記録装置1においては、L画像とR画像の符号化時、L画像の撮影に用いられた左目用のカメラとR画像の撮影に用いられた右目用のカメラとのカメラの状況に関する情報であるカメラ情報が、Non-base viewビデオストリームに記録される。
【0030】
カメラ情報には例えば以下の内容を表す情報が含まれる。
1. カメラ光軸間隔(基線長)[mm]
2. 輻輳角[度]
3. 35mm換算焦点距離[mm]
【0031】
図3に示すように、基線長は、レンズ11Rの光軸位置である位置PRと、レンズ11Lの光軸位置である位置PLの距離(mm)である。輻輳角は、被写体の位置を位置Pとして、位置Pと位置PRを結ぶ直線と、位置Pと位置PLを結ぶ直線との角度である。
【0032】
35mm換算焦点距離は、撮影時における左目用のカメラと右目用のカメラの35mm換算の焦点距離(mm)である。
【0033】
後述するように、記録装置1は、Non-base viewビデオストリームのuser_data_unregistered SEIの中にMDP(Modified DV pack Meta)と呼ぶデータ構造を定義し、そのデータ構造を用いてカメラ情報を記録する。user_data_unregistered SEIは任意のユーザデータであり、各ピクチャに付加される。MDPは、撮影時にリアルタイムで記録される付加情報である。
【0034】
図1の再生装置2は、AVCHDによって記録されたビデオデータの再生が可能なプレーヤである。再生装置2は、記録装置1により撮影され、記録装置1の内部の記録媒体に記録された3DビデオのデータをUSB(Universal Serial Bus)ケーブルやHDMIケーブルなどを介して取り込み、再生する。
【0035】
再生装置2は、Base viewビデオストリームを再生して得られたL画像と、Non-base viewビデオストリームを再生して得られたR画像の視差を、撮影時にNon-base viewビデオストリームに記録されたカメラ情報を用いて調整する。表示装置3の表示デバイスに表示したときに最適な視差になるように、視差の調整には、適宜、表示装置3の表示デバイスのサイズなどの情報も用いられる。
【0036】
再生装置2は、視差を調整したL画像とR画像をケーブル4を介して表示装置3に出力し、交互に表示させる。表示装置3はステレオ画像の表示に対応したTVである。表示装置3には、LCD(Liquid Crystal Display)などよりなる表示デバイスが設けられる。
【0037】
このように、L画像とR画像の撮影に用いられたカメラの情報をNon-base viewビデオストリームに記録しておくことによって、記録装置1は、撮影時におけるカメラの設置位置等の状況を再生装置2に提供することができる。
【0038】
再生装置2は、Non-base viewビデオストリームに記録されたカメラ情報を参照することによって、撮影時におけるカメラの状況を知ることができる。また、再生装置2は、L画像とR画像の視差を撮影時におけるカメラの状況に応じて調整することによって、記録装置1と被写体の位置関係を再現することが可能となり、見やすい画像をユーザに提供することができる。
【0039】
<記録装置について>
[記録装置の構成]
図4は、記録装置1の構成例を示すブロック図である。記録装置1は、カメラ部21、記録部22、および記録媒体23から構成される。
【0040】
カメラ部21は、右目用カメラ31Rと左目用カメラ31Lから構成される。
【0041】
右目用カメラ31Rは、レンズ11Rと撮像素子12Rから構成され、レンズ11Rによって取り込まれた光の光電変換を撮像素子12Rにおいて行う。右目用カメラ31Rは、光電変換を行うことによって得られたビデオ信号に対してA/D変換などの処理を施し、R画像のデータを出力する。
【0042】
左目用カメラ31Lは、レンズ11Lと撮像素子12Lから構成され、レンズ11Lによって取り込まれた光の光電変換を撮像素子12Lにおいて行う。左目用カメラ31Lは、光電変換を行うことによって得られたビデオ信号に対してA/D変換などの処理を施し、L画像のデータを出力する。
【0043】
記録部22は、MVCエンコーダ41、カメラ情報取得部42、および記録制御部43から構成される。
【0044】
MVCエンコーダ41は、右目用カメラ31Rにより撮影されたR画像と左目用カメラ31Lにより撮影されたL画像をH.264/MPEG-4 MVCによって符号化する。MVCエンコーダ41は、Base viewビデオエンコーダ51、Non-base viewビデオエンコーダ52、および統合部53から構成される。右目用カメラ31Rから出力されたR画像のデータはNon-base viewビデオエンコーダ52に入力され、左目用カメラ31Lから出力されたL画像のデータはBase viewビデオエンコーダ51とNon-base viewビデオエンコーダ52に入力される。
【0045】
Base viewビデオエンコーダ51は、左目用カメラ31Lにより撮影されたL画像をH.264/AVCによって符号化し、Base viewビデオストリームを統合部53に出力する。
【0046】
Non-base viewビデオエンコーダ52は、右目用カメラ31Rにより撮影されたR画像を、適宜、左目用カメラ31Lにより撮影されたL画像を参照画像として用いて符号化し、Non-base viewビデオストリームを生成する。
【0047】
また、Non-base viewビデオエンコーダ52は、Non-base viewビデオストリームの各ピクチャのSEIとして、カメラ情報取得部42から供給された基線長、輻輳角、35mm換算焦点距離を表すuser_data_unregistered SEIを付加する。カメラ情報取得部42からは、カメラ部21から取得されたカメラ情報である右目用カメラ31Rと左目用カメラ31Lの基線長、輻輳角、35mm換算焦点距離の情報が供給されてくる。
【0048】
図5は、Non-base viewビデオストリームのデータ構造を示す図である。
【0049】
図5Aは、1つのGOP(Group Of Picture)に含まれるピクチャのうちの先頭のピクチャのデータを格納するAccess Unitのデータ構造を示す図である。H.264/AVCにおいて、1つのAccess Unitには1ピクチャ分のデータが格納される。
【0050】
図5Aに示すように、Non-base viewの先頭のピクチャのデータを格納するAccess Unitは、View and dependency representationデリミタ、Subset SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)、SEI(Supplemental Enhancement Information)、およびSliceから構成される。
【0051】
View and dependency representationデリミタはAccess Unitの先頭を表す。Subset SPSには、シーケンス全体の符号化に関する情報が含まれ、PPSには、Access Unitにデータが格納されるピクチャの符号化に関する情報が含まれる。SEIは付加情報であり、MVC_scalable_nesting SEI、user_data_unregistered SEIなどの各種のSEIメッセージが含まれる。
【0052】
図5Aの例においては、例えば再生時に表示する字幕の視差の情報(Offset metadata)のuser_data_unregistered SEIが含まれている。カメラ情報取得部42により取得された基線長、輻輳角、35mm換算焦点距離の情報は、字幕の視差の情報のuser_data_unregistered SEIとは異なるuser_data_unregistered SEIとして記録される。
【0053】
SEIに続くSliceが、1GOPの先頭のピクチャ(R画像)のデータである。Sliceに続けて、Filler Data、End of Sequence、End of streamが含まれることもある。
【0054】
図5Bは、1つのGOPに含まれるピクチャのうちの2番目以降のピクチャのデータを格納するAccess Unitのデータ構造を示す図である。図5Bに示すように、1GOPの2番目以降のピクチャのデータを格納するAccess Unitは、View and dependency representationデリミタとSliceから構成される。PPS、SEI等の情報が含まれることもある。
【0055】
なお、Base viewビデオエンコーダ51により生成されるBase viewビデオストリームのAccess Unitのデータ構造は、基線長、輻輳角、35mm換算焦点距離を表すuser_data_unregistered SEIが記録されない点を除いて、図5に示すデータ構造と基本的に同じデータ構造を有する。
【0056】
図6は、基線長、輻輳角、35mm換算焦点距離に関するMDPを格納するuser_data_unregistered SEIのシンタクスを示す図である。
【0057】
2行目のuuid_iso_iec_11578は128ビットのフィールドであり、“17ee8c60-f84d-11d9-8cd6-0800200c9a66”が設定される。
【0058】
3行目のTypeIndicatorは32ビットのフィールドであり、SEIメッセージが伝送するユーザデータの種類を表す。“0x4D 44 50 4D”はMDPを表す。TypeIndicatorが“0x4D 44 50 4D”である場合に5行目以降のModifiedDVPackMeta()が設定される。ModifiedDVPackMeta()にはnumber_of_modified_dv_pack_entriesとone_modified_dv_pack()が含まれる。
【0059】
6行目のnumber_of_modified_dv_pack_entriesは8ビットのフィールドであり、user_data_unregistered SEIに含まれるone_modified_dv_pack()の数を表す。one_modified_dv_pack()にはmdp_idとmdp_dataが含まれる。
【0060】
9行目のmdp_idは8ビットのフィールドであり、このフィールドが含まれるone_modified_dv_pack()の種類を表す。
【0061】
図7は、mdp_idを示す図である。図7に示すように、mdp_idが0x20であることは、one_modified_dv_pack()がBASELINE LENGTH pack()であることを表す。BASELINE LENGTH pack()は、基線長の情報をmdp_dataとして含むone_modified_dv_pack()である。
【0062】
mdp_idが0x21であることは、one_modified_dv_pack()がCONVERGENCE ANGLE pack()であることを表す。CONVERGENCE ANGLE pack()は、輻輳角の情報をmdp_dataとして含むone_modified_dv_pack()である。
【0063】
なお、35mm換算焦点距離については、既存のConsumer Camera2 Pack()内のFOCAL_LENGTHにより表される。Consumer Camera2 Pack()は、mdp_idが0x71のone_modified_dv_pack()である。
【0064】
図6の10行目のmdp_dataは32ビットのフィールドであり、基線長、輻輳角、35mm換算焦点距離のうちのいずれかを表す。mdp_dataとして固定値が常に設定されるようにしてもよい。
【0065】
なお、ModifiedDVPackMeta()には下記のルールが適用される。
・emulation prevention bytesを含めて、1つのModifiedDVPackMeta()のサイズは255 bytes以下である。
・1ピクチャには、ModifiedDVPackMeta()を含む複数のuser_data_unregistered SEIメッセージを付加してはいけない。
・complementary fieldペアの最初のフィールドにModifiedDVPackMeta()を含むuser_data_unregistered SEIメッセージがない場合、2番目のフィールドにもModifiedDVPackMeta()を含むuser_data_unregistered SEIメッセージを含めてはいけない。
【0066】
また、Base viewとNon-base viewのそれぞれにおいて、mdp_dataの合計が255バイト以下であり、user_data_unregistered_SEIの合計が511バイト以下とする。
【0067】
図8は、BASELINE LENGTH pack()を示す図である。
【0068】
BASELINE LENGTH pack()にはmdp_id、mdp_data1、およびmdp_data2が含まれる。BASELINE LENGTH pack()のmdp_idは、上述したように0x20である。
【0069】
mdp_data1とmdp_data2は、それぞれ16ビットのフィールドであり、mdp_data1とmdp_data2の2つの値により、mm単位の基線長が表される。基線長(baseline length [mm])は下式(1)により表される。
baseline length [mm] = mdp_data1/mdp_data2 ・・・ (1)
【0070】
2つの値を用いて基線長を表すようにすることにより、1mm以下の距離を表すことが可能になる。なお、mdp_data1 = mdp_data2 = 0xFFFFである場合、そのことは、基線長が不明、あるいはno informationを表す。
【0071】
図9は、CONVERGENCE ANGLE pack()を示す図である。
【0072】
CONVERGENCE ANGLE pack()にはmdp_id、mdp_data1、およびmdp_data2が含まれる。CONVERGENCE ANGLE pack()のmdp_idは、上述したように0x21である。
【0073】
mdp_data1とmdp_data2は、それぞれ16ビットのフィールドであり、mdp_data1とmdp_data2の2つの値により、度単位の輻輳角が表される。輻輳角(convergence angle [degree])は下式(2)により表される。輻輳角は0度以上、180度未満である。
convergence angle [degree] = mdp_data1/mdp_data2 ・・・ (2)
【0074】
2つの値を用いて輻輳角を表すようにすることにより、1度以下の角度を表すことが可能になる。なお、mdp_data1 = mdp_data2 = 0xFFFFである場合、そのことは、輻輳角が不明、あるいはno informationを表す。
【0075】
図4のNon-base viewビデオエンコーダ52は、このようにして基線長、輻輳角、35mm換算焦点距離の情報を記録したNon-base viewビデオストリームを統合部53に出力する。
【0076】
統合部53は、Base viewビデオエンコーダ51から供給されたBase viewビデオストリームと、Non-base viewビデオエンコーダ52から供給されたNon-base viewビデオストリームを統合し、H.264/MPEG-4 MVCの符号化データとして記録制御部43に出力する。
【0077】
カメラ情報取得部42は、基線長、輻輳角、35mm換算焦点距離の情報を例えばカメラ部21から取得し、Non-base viewビデオエンコーダ52に出力する。
【0078】
記録制御部43は、MVCエンコーダ41から供給された符号化データを例えばAVCHDに従って記録媒体23に記録させる。
【0079】
記録媒体23は、フラッシュメモリやハードディスクなどよりなり、記録制御部43による制御に従って符号化データを記録する。記録装置1の筐体に設けられたスロットに挿入されたメモリカードが記録媒体23として用いられるようにしてもよい。記録媒体23に記録された符号化データは、USBケーブルなどによって記録装置1が再生装置2に接続されたとき、再生装置2に転送される。
【0080】
[記録装置の動作]
ここで、図10のフローチャートを参照して、記録装置1の記録処理について説明する。図10の処理は、右目用カメラ31Rにより撮影されたR画像と左目用カメラ31Lにより撮影されたL画像が記録部22に入力されたときに開始される。
【0081】
ステップS1において、MVCエンコーダ41は、カメラ部21から入力された画像をH.264/MPEG-4 MVCを用いて符号化する。すなわち、Base viewビデオエンコーダ51は、左目用カメラ31Lにより撮影されたL画像をH.264/AVCによって符号化し、Base viewビデオストリームを生成する。また、Non-base viewビデオエンコーダ52は、右目用カメラ31Rにより撮影されたR画像を、L画像を参照画像として適宜用いて符号化し、Non-base viewビデオストリームを生成する。
【0082】
ステップS2において、カメラ情報取得部42は、現在の基線長、輻輳角、35mm換算焦点距離の情報をカメラ部21から取得する。
【0083】
ステップS3において、Non-base viewビデオエンコーダ52は、Non-base viewの各ピクチャのuser_data_unregistered SEIに、基線長を表すBASELINE LENGTH pack()、輻輳角を表すCONVERGENCE ANGLE pack()、35mm換算焦点距離を表すConsumer Camera2 Pack()を記録する。Base viewビデオエンコーダ51により生成されたBase viewビデオストリームと、Non-base viewビデオエンコーダ52により生成され、BASELINE LENGTH pack()、CONVERGENCE ANGLE pack()、Consumer Camera2 Pack()が記録されたNon-base viewビデオストリームは統合部53により統合され、記録制御部43に供給される。
【0084】
ステップS4において、記録制御部43は、統合部53から供給されたH.264/MPEG-4 MVCの符号化データを記録媒体23に記録する。
【0085】
ステップS5において、MVCエンコーダ41は、カメラ部21からの入力画像が存在するか否かを判定し、存在すると判定した場合、ステップS1以降の処理を繰り返す。ステップS1乃至S4の処理が、各ピクチャの画像データを対象として行われる。一方、カメラ部21において撮影が終了され、入力画像が存在しないとステップS5において判定した場合、処理を終了させる。
【0086】
以上の処理により、記録装置1は、ステレオ画像の撮影に用いられたカメラの基線長、輻輳角、35mm換算焦点距離の情報をNon-base viewの各ピクチャの符号化データに記録することができ、カメラ情報を再生装置2に提供することができる。
【0087】
また、記録装置1は、カメラ情報をBase viewビデオストリームには記録しないで、Non-base viewビデオストリームに記録することによって、Base viewビデオストリームを再生してL画像(2D画像)のみの表示を再生装置2に行わせることができる。Base viewビデオストリームはH.264/AVCによって符号化されたストリームであるため、H.264/AVCに対応した機器であれば、既存の再生装置であっても、記録装置1から取り込んだビデオデータを再生することが可能になる。
【0088】
以上においては、基線長、輻輳角、35mm換算焦点距離の情報をNon-base viewビデオストリームに記録するものとしたが、輻輳角を固定値として基線長の情報のみを記録するようにしてもよいし、基線長を固定値として輻輳角の情報のみを記録するようにしてもよい。また、35mm換算焦点距離の情報のみを記録するようにしてもよい。
【0089】
右目用カメラ31Rと左目用カメラ31Lの設置状況に関する、基線長、輻輳角以外の情報を記録するようにしてもよい。
【0090】
<再生装置について>
[再生装置の構成]
以上のようにして記録装置1により撮影され、記録媒体23に記録されたH.264/MPEG-4 MVCの符号化データを再生する再生装置2について説明する。
【0091】
図11は、再生装置2の構成例を示すブロック図である。再生装置2は、取得部101、再生部102、および表示制御部103から構成される。
【0092】
取得部101は、H.264/MPEG-4 MVCの符号化データである3DビデオのデータをUSBケーブルなどを介して記録装置1から取得し、出力する。取得部101から出力された3Dビデオのデータは、MVCデコーダ111のBase viewビデオデコーダ121とNon-base viewビデオデコーダ122に入力される。記録装置1から取り込まれた3Dビデオのデータが再生装置2内の記録媒体に一度記録され、その記録媒体から、3Dビデオのデータが取得部101により取得されるようにしてもよい。
【0093】
再生部102は、MVCデコーダ111とカメラ情報抽出部112から構成される。MVCデコーダ111は、3DビデオのデータをH.264/MPEG-4 MVCによって復号する。MVCデコーダ111は、Base viewビデオデコーダ121とNon-base viewビデオデコーダ122から構成される。
【0094】
Base viewビデオデコーダ121は、取得部101から供給された3Dビデオに含まれるBase viewビデオストリームをH.264/AVCによって復号し、L画像を出力する。Base viewビデオデコーダ121から出力されたL画像はNon-base viewビデオデコーダ122と表示制御部103に供給される。
【0095】
Non-base viewビデオデコーダ122は、取得部101から供給された3Dビデオに含まれるNon-base viewビデオストリームを、適宜、Base viewビデオデコーダ121により復号されたL画像を参照画像として復号し、R画像を出力する。Non-base viewビデオデコーダ122から出力されたR画像は表示制御部103に供給される。
【0096】
カメラ情報抽出部112は、Non-base viewビデオデコーダ122により復号の対象になっているNon-base viewの各ピクチャのuser_data_unregistered SEIから、基線長を表すBASELINE LENGTH pack()、輻輳角を表すCONVERGENCE ANGLE pack()、35mm換算焦点距離を表すConsumer Camera2 Pack()を取得する。
【0097】
カメラ情報抽出部112は、BASELINE LENGTH pack()に含まれる2つの値に基づいて上式(1)の計算を行うことによって基線長を求め、CONVERGENCE ANGLE pack()に含まれる2つの値に基づいて上式(2)の計算を行うことによって輻輳角を求める。また、カメラ情報抽出部112は、Consumer Camera2 Pack()から35mm換算焦点距離を特定する。カメラ情報抽出部112は、基線長、輻輳角、35mm換算焦点距離の情報を表示制御部103に出力する。
【0098】
表示制御部103は、Base viewビデオデコーダ121から供給されたL画像と、Non-base viewビデオデコーダ122から供給されたR画像の視差を、カメラ情報抽出部112により取得された基線長、輻輳角、35mm換算焦点距離の情報を用いて調整する。表示制御部103は、表示装置3と通信を行うことによって、表示装置3の表示デバイスのサイズなどの情報を表示装置3から取得し、視差の調整に用いる。
【0099】
表示制御部103は、表示装置3の表示デバイスに表示したときに最適な視差になるように視差を調整したL画像とR画像を表示装置3に出力し、表示させる。
【0100】
[再生装置の動作]
ここで、図12のフローチャートを参照して、再生装置2の再生処理について説明する。図12の処理は、例えば、3Dビデオのデータが取得部101から再生部102に入力されたときに開始される。
【0101】
ステップS21において、MVCデコーダ111は、取得部101から入力された3DビデオのデータをH.264/MPEG-4 MVCを用いて復号する。すなわち、Base viewビデオデコーダ121は、Base viewビデオストリームをH.264/AVCによって復号する。また、Non-base viewビデオデコーダ122は、Non-base viewビデオストリームを、Base viewビデオデコーダ121により復号されたL画像を参照画像として適宜用いて復号する。
【0102】
Base viewビデオデコーダ121によりBase viewビデオストリームの復号が行われることによって得られたL画像と、Non-base viewビデオデコーダ122によりNon-base viewビデオストリームの復号が行われることによって得られたR画像は表示制御部103に供給される。
【0103】
ステップS22において、カメラ情報抽出部112は、Non-base viewの各ピクチャのuser_data_unregistered SEIから、BASELINE LENGTH pack()、CONVERGENCE ANGLE pack()、Consumer Camera2 Pack()を抽出する。カメラ情報抽出部112は、BASELINE LENGTH pack()に基づいて求めた基線長、CONVERGENCE ANGLE pack()に基づいて求めた輻輳角、Consumer Camera2 Pack()から取得した35mm換算焦点距離の情報を表示制御部103に出力する。
【0104】
ステップS23において、表示制御部103は視差調整処理を行う。視差調整処理については図13のフローチャートを参照して後述する。
【0105】
ステップS24において、表示制御部103は、視差を調整したL画像とR画像を表示装置3に出力し、表示させる。
【0106】
ステップS25において、MVCデコーダ111は、復号する符号化データが存在するか否かを判定し、存在すると判定した場合、ステップS21以降の処理を繰り返す。ステップS21乃至S24の処理が、各ピクチャの符号化データを対象として行われる。一方、全ての符号化データの復号が終了したことから、符号化データが存在しないとステップS25において判定した場合、処理を終了させる。
【0107】
次に、図13のフローチャートを参照して、図12のステップS23において行われる視差調整処理について説明する。
【0108】
ステップS31において、表示制御部103は、表示装置3と通信を行い、表示装置3の表示デバイスのサイズを取得する。表示装置3の表示デバイスのサイズが、再生装置2に対してユーザにより直接設定されるようにしてもよい。
【0109】
ステップS32において、表示制御部103は、表示装置3の表示デバイス面からユーザまでの距離である視聴距離を表示装置3から取得する。視聴距離が、再生装置2に対してユーザにより直接設定されるようにしてもよい。
【0110】
ユーザが知覚する視差の量は視聴距離によっても変化する。従って、視聴距離を取得できる場合、その情報をも用いることによってより精密に視差を調整することが可能になる。以下においては、視聴距離を考慮しないで視差を調整する場合について説明する。
【0111】
ステップS33において、表示制御部103は、視差を調整しない場合の、表示装置3の表示デバイス上でのL画像とR画像の視差を求める。
【0112】
ステップS34において、表示制御部103は、表示デバイス上でのL画像とR画像の視差が閾値を超えているか否かを判定する。
【0113】
表示デバイス上でのL画像とR画像の視差が閾値を超えていないとステップS34において判定した場合、ステップS35において、表示制御部103は、L画像とR画像をそのまま、視差を調整することなく表示装置3に出力し、表示させる。
【0114】
一方、表示デバイス上でのL画像とR画像の視差が閾値を超えているとステップS34において判定した場合、ステップS36において、表示制御部103は、L画像とR画像の視差が小さくなるように、L画像とR画像を表示デバイス上において水平方向にシフトし、表示させる。その後、図12のステップS23に戻り、それ以降の処理が行われる。
【0115】
図14は、輻輳角、基線長、視差の関係について説明する図である。
【0116】
図14に示す被写体面上のうち、破線矢印#1で示す範囲が左目用カメラ31Lにより撮影される範囲であり、破線矢印#2で示す範囲が右目用カメラ31Rにより撮影される範囲である。αは輻輳角を表し、Bは基線長を表す。Fは被写体距離を表す。
【0117】
表示デバイス上での視差を算出する場合、表示制御部103は、まず、フォーカス位置の画像(被写体の画像)が、左目用カメラ31Lと右目用カメラ31Rによってどの程度水平方向にずれて撮影が行われているかを求める。水平方向のずれ量が、実線矢印#3で示す差が視差Xになる。
【0118】
左目用カメラ31Lと右目用カメラ31Rの撮像素子の横幅が35mmであると想定したときの視差量[mm]を求めることができれば、表示デバイスの横幅の情報から、表示デバイス上での視差量を計算することが可能になる(ステップS33)。表示デバイス上での視差量が閾値を超えている場合、表示制御部103は、視差が小さくなるようにL画像とR画像を水平方向にシフトする(ステップS36)。
【0119】
ここで、図15に示すように、左目用カメラ31Lと右目用カメラ31Rの2台のカメラが平行に配置されている場合(輻輳角α=0)を考える。このとき、基線長と視差は等しくなる。
【0120】
また、フレームサイズをx、35mm換算焦点距離をfとすると、水平画角qが下式(3)により求められる。
tan(q/2) = x/2f ・・・ (3)
【0121】
水平画角qと被写体距離F[m]から、水平方向の撮影範囲D[m]が求められる。撮影範囲D[m]を1920ピクセルの解像度で撮影するものとすると、ピクセル換算した視差の大きさは1920×(B/D)[ピクセル]となる。視差Bは、左目用カメラ31Lの撮影範囲D[m]と右目用カメラ31Rの撮影範囲D[m]の差である。
【0122】
ここで、35mm換算焦点距離と被写体距離については、AVCHDのModified DV pack metaで既に定義されているため、これを用いることが可能である。35mm換算焦点距離は上述したようにFOCAL_LENGTHにより表され、被写体距離(フォーカス位置)はFOCUSにより表される。
【0123】
表示装置3の表示デバイスの水平方向のサイズをS[m]とすると、表示デバイス上での視差に相当する長さは、S×(B/D)[m]となる。この値が閾値を超える場合は、画像を水平方向にシフトして視差を緩和することにより、L画像とR画像を適切な視差で表示させることが可能になる。
【0124】
以上の処理により、再生装置2は、L画像とR画像を最適な視差で表示させることが可能になる。
【0125】
<変形例>
変形例1.
図16は、記録再生システムの構成例を示すブロック図である。図16の記録装置1には、カメラ部21、記録部22、記録媒体23の他に、再生部102と表示制御部103が設けられる。すなわち、図16の記録装置1は、記録装置としての機能だけでなく、再生装置としての機能をも有している。
【0126】
図16の構成を有する記録装置1においては、3Dビデオの撮影が行われるとともに、撮影によって得られた3Dビデオの再生が図12を参照して説明したようにして行われる。記録装置1により再生されたL画像とR画像は表示装置3に出力され、表示される。記録装置1と表示装置3は例えばHDMIケーブルによって接続される。
【0127】
変形例2.
図17は、記録再生システムの他の構成例を示すブロック図である。図17の記録装置1には、カメラ部21、記録部22、記録媒体23が設けられ、再生装置2には取得部101と再生部102が設けられる。表示装置3には表示制御部103が設けられる。
【0128】
すなわち、図17の再生装置2は、記録装置1から取り込んだ3DビデオをH.264/MPEG-4 MVCによって復号する機能は有しているが、図11の再生装置2とは異なり、復号によって得られたL画像とR画像の視差を調整する機能は有していない。L画像とR画像の視差の調整は、表示装置3において行われることになる。
【0129】
図17の構成を有する記録装置1においては、3Dビデオの撮影が行われ、撮影によって得られた3Dビデオが再生装置2に転送される。
【0130】
再生装置2の取得部101は3Dビデオのデータを記録装置1から取得し、再生部102は、取得部101により取得された3DビデオのデータをH.264/MPEG-4 MVCによって復号する。再生部102は、復号して得られたL画像とR画像を、Non-base viewビデオストリームのuser_data_unregistered SEIから取得した基線長、輻輳角、35mm換算焦点距離の情報とともに表示装置3に出力する。
【0131】
表示装置3の表示制御部103は、再生装置2から供給されたL画像とR画像の視差を、再生装置2から供給された基線長、輻輳角、35mm換算焦点距離の情報に基づいて、図13を参照して説明したようにして調整し、視差を調整したL画像とR画像を表示する。この場合、視差の調整に用いる表示デバイスのサイズなどの情報は、視差の調整を行う表示装置3にとって既知の情報となる。
【0132】
変形例3.
以上においては、L画像の撮影に用いられたカメラとR画像の撮影に用いられたカメラのカメラ情報をH.264/MPEG-4 MVCのNon-base viewビデオストリームに記録するものとしたが、カメラ情報を、Side by side方式でL画像とR画像を記録した1つのストリームに記録することも可能である。
【0133】
Side by side方式のL画像とR画像の符号化方式には例えばH.264 AVCが用いられる。カメラ情報は、例えば、AVCストリームのuser_data_unregistered_SEI()に記録される。
【0134】
[コンピュータの構成例]
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
【0135】
図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
【0136】
CPU(Central Processing Unit)151、ROM(Read Only Memory)152、RAM(Random Access Memory)153は、バス154により相互に接続されている。
【0137】
バス154には、さらに、入出力インタフェース155が接続されている。入出力インタフェース155には、キーボード、マウスなどよりなる入力部156、ディスプレイ、スピーカなどよりなる出力部157が接続される。また、入出力インタフェース155には、ハードディスクや不揮発性のメモリなどよりなる記憶部158、ネットワークインタフェースなどよりなる通信部159、リムーバブルメディア161を駆動するドライブ160が接続される。
【0138】
以上のように構成されるコンピュータでは、CPU151が、例えば、記憶部158に記憶されているプログラムを入出力インタフェース155及びバス154を介してRAM153にロードして実行することにより、上述した一連の処理が行われる。
【0139】
CPU151が実行するプログラムは、例えばリムーバブルメディア161に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部158にインストールされる。
【0140】
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
【0141】
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
【0142】
[構成の組み合わせ例]
本技術は、以下のような構成をとることもできる。
【0143】
(1)
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化し、Non-base viewビデオストリームを構成する各ピクチャのSEIとして、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含む前記SEIを記録する符号化部と、
Base viewビデオストリームと、前記SEIが記録されたNon-base viewビデオストリームとを記録媒体に記録させる記録制御部と
を備える記録装置。
【0144】
(2)
左目用の画像を撮影する前記第1のカメラと、
右目用の画像を撮影する前記第2のカメラと
をさらに備え、
前記符号化部は、
前記第1のカメラで撮影された左目用の画像を前記Base viewビデオストリームとして符号化し、
前記第2のカメラで撮影された右目用の画像を前記Non-base viewビデオストリームとして符号化する
前記(1)に記載の記録装置。
【0145】
(3)
前記符号化部は、前記光軸間隔の情報として、2つの値を含む情報を記録し、
前記第1のカメラと前記第2のカメラの光軸間隔は、前記2つの値のうちの一方の値を他方の値で除算することによって表される
前記(1)または(2)に記載の記録装置。
【0146】
(4)
前記符号化部は、前記輻輳角の情報として、2つの値を含む情報を記録し、
前記第1のカメラと前記第2のカメラの輻輳角は、前記2つの値のうちの一方の値を他方の値で除算することによって表される
前記(1)乃至(3)のいずれかに記載の記録装置。
【0147】
(5)
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化し、
Non-base viewビデオストリームを構成する各ピクチャのSEIとして、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含む前記SEIを記録し、
Base viewビデオストリームと、前記SEIが記録されたNon-base viewビデオストリームとを記録媒体に記録させる
ステップを含む記録方法。
【0148】
(6)
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化し、
Non-base viewビデオストリームを構成する各ピクチャのSEIとして、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含む前記SEIを記録し、
Base viewビデオストリームと、前記SEIが記録されたNon-base viewビデオストリームとを記録媒体に記録させる
ステップを含む処理をコンピュータに実行させるプログラム。
【0149】
(7)
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化することによって得られたBase viewビデオストリームと、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含むSEIが各ピクチャのSEIとして記録されたNon-base viewビデオストリームとを復号する復号部を備える
再生装置。
【0150】
(8)
前記SEIに基づいて、前記Base viewビデオストリームを復号して得られた画像と、前記Non-base viewビデオストリームを復号して得られた画像との視差を調整し、表示させる表示制御部をさらに備える
前記(7)に記載の再生装置。
【0151】
(9)
前記表示制御部は、
前記Base viewビデオストリームを復号して得られた画像を左目用の画像として表示させ、
前記Non-base viewビデオストリームを復号して得られた画像を右目用の画像として表示させる
前記(7)または(8)に記載の再生装置。
【0152】
(10)
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化することによって得られたBase viewビデオストリームと、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含むSEIが各ピクチャのSEIとして記録されたNon-base viewビデオストリームとを復号する
ステップを含む再生方法。
【0153】
(11)
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化することによって得られたBase viewビデオストリームと、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含むSEIが各ピクチャのSEIとして記録されたNon-base viewビデオストリームとを復号する
ステップを含む処理をコンピュータに実行させるプログラム。
【0154】
(12)
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化し、Non-base viewビデオストリームを構成する各ピクチャのSEIとして、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含む前記SEIを記録する符号化部と、
Base viewビデオストリームと、前記SEIが記録されたNon-base viewビデオストリームとを記録媒体に記録させる記録制御部と
前記記録媒体に記録された前記Base viewビデオストリームと前記Non-base viewビデオストリームとを復号する復号部と
を備える記録再生装置。
【符号の説明】
【0155】
1 記録装置, 2 再生装置, 3 表示装置, 21 カメラ部, 22 記録部, 23 記録媒体, 101 取得部, 102 再生部, 103 表示制御部

【特許請求の範囲】
【請求項1】
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化し、Non-base viewビデオストリームを構成する各ピクチャのSEIとして、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含む前記SEIを記録する符号化部と、
Base viewビデオストリームと、前記SEIが記録されたNon-base viewビデオストリームとを記録媒体に記録させる記録制御部と
を備える記録装置。
【請求項2】
左目用の画像を撮影する前記第1のカメラと、
右目用の画像を撮影する前記第2のカメラと
をさらに備え、
前記符号化部は、
前記第1のカメラで撮影された左目用の画像を前記Base viewビデオストリームとして符号化し、
前記第2のカメラで撮影された右目用の画像を前記Non-base viewビデオストリームとして符号化する
請求項1に記載の記録装置。
【請求項3】
前記符号化部は、前記光軸間隔の情報として、2つの値を含む情報を記録し、
前記第1のカメラと前記第2のカメラの光軸間隔は、前記2つの値のうちの一方の値を他方の値で除算することによって表される
請求項1に記載の記録装置。
【請求項4】
前記符号化部は、前記輻輳角の情報として、2つの値を含む情報を記録し、
前記第1のカメラと前記第2のカメラの輻輳角は、前記2つの値のうちの一方の値を他方の値で除算することによって表される
請求項1に記載の記録装置。
【請求項5】
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化し、
Non-base viewビデオストリームを構成する各ピクチャのSEIとして、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含む前記SEIを記録し、
Base viewビデオストリームと、前記SEIが記録されたNon-base viewビデオストリームとを記録媒体に記録させる
ステップを含む記録方法。
【請求項6】
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化し、
Non-base viewビデオストリームを構成する各ピクチャのSEIとして、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含む前記SEIを記録し、
Base viewビデオストリームと、前記SEIが記録されたNon-base viewビデオストリームとを記録媒体に記録させる
ステップを含む処理をコンピュータに実行させるプログラム。
【請求項7】
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化することによって得られたBase viewビデオストリームと、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含むSEIが各ピクチャのSEIとして記録されたNon-base viewビデオストリームとを復号する復号部を備える
再生装置。
【請求項8】
前記SEIに基づいて、前記Base viewビデオストリームを復号して得られた画像と、前記Non-base viewビデオストリームを復号して得られた画像との視差を調整し、表示させる表示制御部をさらに備える
請求項7に記載の再生装置。
【請求項9】
前記表示制御部は、
前記Base viewビデオストリームを復号して得られた画像を左目用の画像として表示させ、
前記Non-base viewビデオストリームを復号して得られた画像を右目用の画像として表示させる
請求項8に記載の再生装置。
【請求項10】
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化することによって得られたBase viewビデオストリームと、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含むSEIが各ピクチャのSEIとして記録されたNon-base viewビデオストリームとを復号する
ステップを含む再生方法。
【請求項11】
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化することによって得られたBase viewビデオストリームと、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含むSEIが各ピクチャのSEIとして記録されたNon-base viewビデオストリームとを復号する
ステップを含む処理をコンピュータに実行させるプログラム。
【請求項12】
第1のカメラで撮影された画像と第2のカメラで撮影された画像をH.264/MPEG-4 MVCによって符号化し、Non-base viewビデオストリームを構成する各ピクチャのSEIとして、前記第1のカメラと前記第2のカメラの光軸間隔の情報、輻輳角の情報、および、焦点距離の情報のうちの少なくともいずれかを含む前記SEIを記録する符号化部と、
Base viewビデオストリームと、前記SEIが記録されたNon-base viewビデオストリームとを記録媒体に記録させる記録制御部と、
前記記録媒体に記録された前記Base viewビデオストリームと前記Non-base viewビデオストリームとを復号する復号部と
を備える記録再生装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate


【公開番号】特開2012−249137(P2012−249137A)
【公開日】平成24年12月13日(2012.12.13)
【国際特許分類】
【出願番号】特願2011−120187(P2011−120187)
【出願日】平成23年5月30日(2011.5.30)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】