説明

画像処理装置および画像処理方法

【課題】安全かつ快適な視聴が可能な3D画像を生成することができるようにする。
【解決手段】通信部34は、3D画像の符号化データと、その3D画像の視差を表す視差情報を少なくとも含む3D画像のビットストリームを取得する。CPU31は、3D画像の再生時刻を指定する。CPU41は、視差情報に基づいて、再生時刻が連続する3D画像どうしの視差の差分が所定の閾値以下となるために視差の調整が必要な前ストリームおよび後ストリームの範囲である再エンコード範囲を決定する。編集部47は、再エンコード範囲の画像データの視差を調整する。本発明は、例えば、3D画像を編集する編集装置に適用することができる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置および画像処理方法に関し、特に、安全かつ快適な視聴が可能な3D画像を生成することができるようにした画像処理装置および画像処理方法に関する。
【背景技術】
【0002】
例えば、3D画像に、2D画像と3D画像を識別するための情報や、適切な表示を行うための撮影方法の情報を付加することが考案されている。また、3D画像のうちの、2D画像の表示に用いられる画像を示すフラグを3D画像に付加することも考案されている(例えば、特許文献1参照)。
【0003】
ところで、3D画像が商用コンテンツである場合、その3D画像は、撮影時および編集時に、製作者により、視聴時の安全性や快適性が配慮されて作成される。
【0004】
具体的には、製作者は、視聴環境として映画館を想定する場合、映画館のスクリーンのサイズ、座席の位置等を想定し、その映画館で視聴者が3D画像を快適に視聴できるように、3D画像を作成する。例えば、図1に示すように、製作者が、所定のスクリーン幅のスクリーンが設置された映画館を視聴環境として想定した場合、最大両眼視差量がスクリーン幅の1%となるように、3D映画が撮影される。
【0005】
なお、このように、最大両眼視差量がスクリーン幅の1%であるように撮影された3D映画は、視聴者の両目の幅がスクリーン幅の1%以上となるスクリーン幅のスクリーンが設置された映画館で視聴されると、3D映画の両眼視差量が、視聴者が視認可能な視聴者の両目の幅以下となる。従って、このような映画館では、視聴者は、より快適に3D映画を視聴することができる。
【0006】
例えば、視聴者の両目の幅が5cmであるとすると、スクリーン幅が226inch(500cm)以下であれば、より快適に視聴することができる。また、視聴者の両目の幅が6.5cmであるとすると、スクリーン幅が294inch(650cm)以下であれば、より快適に視聴することができる。
【0007】
また、製作者は、商用コンテンツとしての3D画像を編集する場合、編集後の編集点の前後で両眼視差量の変化が急激にならないように、編集作業時に両眼視差量を調整する。
【0008】
以上のように、3D画像が商用コンテンツである場合、その3D画像は、撮影時および編集時に、製作者により、視聴時の安全性や快適性が配慮されて作成されるので、制作者が想定した視聴環境では、3D画像を快適に視聴することができる。
【先行技術文献】
【特許文献】
【0009】
【特許文献1】国際公開第2010/067810号パンフレット
【発明の概要】
【発明が解決しようとする課題】
【0010】
しかしながら、3D画像が商用コンテンツではない場合、3D画像の扱いに不慣れな素人が、視聴時の安全性や快適性を配慮して、3D画像を編集することは困難である。
【0011】
また、3D画像が商用コンテンツである場合であっても、撮影時刻が不連続になる特殊再生(例えば、ハイライト再生、ダイジェスト再生、スキップ再生、リピート再生など)が行われる場合、両眼視差量の変化が急激になる。その結果、視聴者は不快感やストレスを覚える。また、視聴者の安全上の問題が発生する場合もある。
【0012】
本発明は、このような状況に鑑みてなされたものであり、安全かつ快適な視聴が可能な3D画像を生成することができるようにするものである。
【課題を解決するための手段】
【0013】
本発明の第1の側面の画像処理装置は、3D画像データと前記3D画像データの視差を表す視差情報とを取得する取得手段と、前記視差情報に基づいて、前記3D画像データの再生タイミングが連続する3D画像データどうしの視差の差分が所定の閾値以下となるために前記3D画像データの視差の調整が必要な範囲である調整範囲を決定する決定手段と、前記決定手段により決定された前記調整範囲の前記3D画像データの視差を調整する調整手段とを備える画像処理装置である。
【0014】
本発明の第1の側面の画像処理方法は、本発明の第1の側面の画像処理装置に対応する。
【0015】
本発明の第1の側面においては、3D画像データと前記3D画像データの視差を表す視差情報とが取得され、前記視差情報に基づいて、前記3D画像データの再生タイミングが連続する3D画像データどうしの視差の差分が所定の閾値以下となるために前記3D画像データの視差の調整が必要な範囲である調整範囲が決定され、決定された前記調整範囲の前記3D画像データの視差が調整される。
【0016】
本発明の第2の側面の画像処理装置は、3D画像データを用いて、前記3D画像データの視差を検出する検出手段と、前記3D画像データと、前記3D画像データの視差を表す視差情報とを伝送する伝送手段とを備える画像処理装置である。
【0017】
本発明の第2の側面の画像処理方法は、本発明の第2の側面の画像処理装置に対応する。
【0018】
本発明の第2の側面においては、3D画像データを用いて、前記3D画像データの視差が検出され、前記3D画像データと、前記3D画像データの視差を表す視差情報とが伝送される。
【0019】
なお、第1および第2の側面の画像処理装置は、コンピュータにプログラムを実行させることにより実現することができる。
【0020】
また、第1および第2の側面の画像処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、または、記録媒体に記録して、提供することができる。
【発明の効果】
【0021】
本発明の第1の側面によれば、安全かつ快適な視聴が可能な3D画像を生成することができる。
【0022】
本発明の第2の側面によれば、安全かつ快適な視聴が可能な3D画像を生成するための情報を伝送することができる。
【図面の簡単な説明】
【0023】
【図1】スクリーン幅と最大両眼視差量の関係の一例を示す図である。
【図2】本発明を適用した画像処理装置としての撮影装置の一実施の形態の構成例を示すブロック図である。
【図3】付加情報の例を示す図である。
【図4】両眼視差量の上限値と下限値の設定について説明する図である。
【図5】両眼視差量の上限値と下限値の設定について説明する他の図である。
【図6】スクリーン幅と57画素に相当するスクリーン上の長さとの関係を示す図である。
【図7】両眼視差量の上限値と撮影条件の関係について説明する図である。
【図8】焦点距離と画角の関係を示す図である。
【図9】両眼視差量の上限値、両眼視差量の下限値、水平解像度、スクリーン幅、および両眼間隔の関係を示す図である。
【図10】両眼視差量の関係を示す図である。
【図11】図2の撮影装置による生成処理を説明するフローチャートである。
【図12】本発明を適用した画像処理装置としての編集装置の一実施の形態の構成例を示すブロック図である。
【図13】再エンコード範囲の決定方法を説明する図である。
【図14】両眼視差量の第1の調整方法を説明する図である。
【図15】両眼視差量の第2の調整方法を説明する図である。
【図16】図12の編集装置による編集処理を説明するフローチャートである。
【図17】スクリーン幅と両眼視差量の上限値の関係の例を示す図である。
【図18】コンピュータの一実施の形態の構成例を示す図である。
【発明を実施するための形態】
【0024】
<一実施の形態>
[撮影装置の一実施の形態の構成例]
図2は、本発明を適用した画像処理装置としての撮影装置の一実施の形態の構成例を示すブロック図である。
【0025】
図2の撮影装置10は、撮影部11、エンコーダ12、付加情報生成部13、およびストリーム生成部14により構成される。撮影装置10は、3D画像を撮影して符号化し、その3D画像の両眼視差量を表す情報等を付加して、出力する。
【0026】
具体的には、撮影装置10の撮影部11(撮影手段)は、カメラの光軸が平行になるように左右方向に並べて配置された2台のカメラ(図示せず)を備える。2台のカメラは、それぞれ、平行法で撮影を行う。撮影部11は、その結果得られる2枚の画像のうちの一方の画像を左目用の画像とし、他方の画像を右目用の画像とする。撮影部11は、左目用の画像と右目用の画像をシフトすることにより、奥行き方向の位置を無限遠から手前に移動させた3D画像を生成する。
【0027】
なお、撮影部11は、平行法で撮影された左目用の画像と右目用の画像をシフトするのではなく、2台のカメラのレンズとイメージャの位置関係にオフセットを与えて撮影(シフト撮影)を行わせることにより、3D画像を生成することもできる。
【0028】
撮影部11は、生成された3D画像をエンコーダ12および付加情報生成部13に供給する。また、撮影部11は、3D画像の撮影条件、撮影時刻などを付加情報生成部13に供給する。
【0029】
エンコーダ12(符号化手段)は、撮影部11から供給される3D画像に対して、MVC(Multiview Video Coding)、AVC(Advanced Video Coding)、MPEG2(Moving Picture Experts Group phase 2)等の方式で符号化を行う。エンコーダ12は、符号化の結果得られる符号化データをストリーム生成部14に供給する。
【0030】
付加情報生成部13は、撮影部11から供給される3D画像、3D画像の撮影条件、撮影時刻や、ユーザ入力等に基づいて、符号化データに付加する情報である付加情報を生成する。付加情報としては、例えば、3D画像の撮影条件を表す撮影条件情報、3D画像の両眼視差量を表す視差情報、3D画像の視聴環境として想定する視聴環境を表す想定視聴環境情報などがある。付加情報生成部13は、生成された付加情報をストリーム生成部14に供給する。
【0031】
ストリーム生成部14(出力手段)は、エンコーダ12から供給される符号化データに、付加情報生成部13から供給される付加情報を付加してビットストリームを生成する。このとき、ストリーム生成部14は、付加情報を、対応する符号化データに多重化してビットストリームを生成してもよいし、対応する符号化データとは異なるファイルデータとしてビットストリームを生成するようにしてもよい。ストリーム生成部14は、生成されたビットストリームを出力する。
【0032】
[付加情報の説明]
図3は、付加情報の例を示す図である。
【0033】
図3の例では、付加情報は、撮影条件情報、視差情報、および想定視聴環境情報により構成される。撮影条件情報は、両眼視差量の上限値とタイムスタンプにより構成される。両眼視差量の上限値とは、撮影部11において撮影される3D画像の両眼視差量の上限値、即ち無限遠の点に対する両眼視差量である。
【0034】
なお、両眼視差量とは、3D画像を構成する左目用の画像と右目用の画像の対応する点の左右方向の位置のずれ量を表す画素数である。ここでは、左目用の画像に対して右目用の画像が右側にある場合、即ち3D画像の奥行方向の位置が奥側にある場合、ずれ量は正の値となり、左目用の画像に対して右目用の画像が左側にある場合、即ち3D画像の奥行き方向の位置が手前側にある場合、ずれ量は負の値となるものとする。
【0035】
両眼視差量の上限値は、例えば、撮影部11により設定されて付加情報生成部13に入力され、付加情報生成部13において撮影条件情報として生成される。
【0036】
なお、撮影条件情報には、両眼視差量の上限値そのものではなく、両眼視差量の上限値を算出可能な代替パラメータが含まれるようにしてもよい。
【0037】
また、撮影条件情報には、両眼視差量の下限値が含まれるようにしてもよい。両眼視差量の下限値は、両眼視差量の上限値と同様に撮影部11において設定され、撮影部11は、最も手前側の位置に対応する3D画像の両眼視差量が両眼視差量の下限値になるように3D画像を撮影する。撮影条件情報に両眼視差量の下限値が含まれる場合には、撮影部11が両眼視差量の下限値を付加情報生成部13に入力し、付加情報生成部13は、その両眼視差量の下限値を撮影条件情報として生成する。
【0038】
タイムスタンプは、撮影条件情報が付加される3D画像の撮影時刻の、その撮影条件情報に対応する3D画像の撮影時刻に対するオフセットである。このタイムスタンプは、撮影部11から入力される撮影時刻等に基づいて生成される。
【0039】
視差情報は、最大両眼視差量、最小両眼視差量、および注視領域の両眼視差量により構成される。最大両眼視差量とは、3D画像の両眼視差量の最大値であり、最小両眼視差量とは、3D画像の両眼視差量の最小値である。また、注視領域とは、3D画像内において注目する領域である。
【0040】
なお、視差情報には、最大両眼視差量、最小両眼視差量、および注視領域の両眼視差量だけでなく、それらの両眼視差量に対応する3D画像内の位置を表す情報が含まれるようにしてもよい。この位置を表す情報としては、両眼視差量に対応する3D画像内の点を含む矩形の対角および左上と右下の頂点の座標や、両眼視差量に対応する3D画像内の点を含む円の中心座標と半径などを用いることができる。
【0041】
最大両眼視差量、最小両眼視差量、および注視領域の両眼視差量は、例えば、付加情報生成部13(検出手段)により3D画像を用いてブロックマッチングや特徴点抽出等の手法を用いて検出され、視差情報として生成される。
【0042】
なお、注視領域は、ユーザ入力に応じて決定されてもよいし、自動的に検出されてもよい。注視領域が自動的に検出される場合には、例えば、顔認識や人物認識等の組み合わせにより主要な人物の領域が注視領域として検出される。また、被写体抽出のための画像認識、画像の構造解析やシーン認識の組み合わせ等により、視聴者が注目すると推測される被写体の領域が注視領域として検出されたり、フォーカスがあっている被写体、面積の大きい被写体、両眼視差量の最頻値、即ち支配的な両眼視差量を有する被写体などの領域が注視領域として検出されてもよい。
【0043】
また、視差情報には、最大両眼視差量、最小両眼視差量、および注視領域の両眼視差量が有効であるか無効であるかを表すフラグが含まれるようにしてもよい。この場合、付加情報生成部13は、例えば、3D画像の撮影条件が所定の条件である場合、エンコーダ12において符号化前に何等かの編集が行われた場合、または両眼視差量の検出にエラーが発生した場合、注視領域の両眼視差量が無効であることを表すフラグを生成する。
【0044】
想定視聴環境情報としては、上限スクリーン幅および想定両眼間隔が生成される。上限スクリーン幅は、ユーザが想定する視聴環境におけるスクリーン幅の上限値であり、最大両眼視差量が必ず想定両眼間隔以下になるスクリーン幅の上限値である。この上限値は、付加情報生成部13において両眼視差量の上限値が所定値(例えば、5cm)に仮定され、以下の式(1)の演算が行われることにより、生成される。
【0045】
【数1】

【0046】
なお、式(1)における両眼視差量の上限値として、実際の両眼視差量の上限値が設定される場合、両眼視差量の上限値の両眼視差量を有する被写体が存在すると、その被写体の両眼視差量を大きくすることができないため、実際に設定される両眼視差量の上限値より大きい値を仮定することが望ましい。
【0047】
想定両眼間隔とは、ユーザが想定する視聴者の両眼間隔である。想定両眼間隔は、ユーザ入力に応じて生成される。なお、3DC安全ガイドラインなどでは、平均的な成人の両眼間隔は6.5cm、子供の両眼間隔は5cmであると言われており、子供の視聴を考慮すると、想定両眼間隔としては、5cmが設定されることが望ましい。また、規格等により想定両眼間隔が固定値にされる場合には、想定視聴環境情報として想定両眼間隔が生成されなくてもよい。
【0048】
なお、想定視聴環境情報には、上限スクリーン幅ではなく、ユーザ入力に応じてユーザが想定する視聴環境におけるスクリーン幅そのものが含まれるようにしてもよい。
【0049】
また、付加情報は、例えばフレーム単位の3D画像に対して生成される。なお、エンコーダ12において3D画像がMPEG2等の方式で符号化される場合、付加情報は、GOP単位の3D画像に対して生成されてもよい。この場合、付加情報を用いる装置(例えば、後述する編集装置)は、タイムスタンプを参照して、GOP単位の3D画像に対して生成された付加情報を補間することによりフレーム単位の3D画像に対する付加情報を生成し、その付加情報を用いる。
【0050】
図4および図5は、両眼視差量の上限値と下限値の設定について説明する図である。なお、図4では、説明の便宜上、左目用の画像と右目用の画像が合成されて表示されている。
【0051】
図4Aに示すように、人間の目は外側にはほとんど開かない。従って、安全かつ快適に視聴可能な3D画像の両眼視差量は、視聴者の両眼間隔以下である必要がある。但し、スクリーン幅が大きい場合には、そのスクリーン幅の1%乃至2%まで許容可能である。よって、両眼視差量の上限値としては、ユーザが想定する視聴者の両眼間隔、または、ユーザが想定する視聴環境におけるスクリーン幅の1%乃至2%の大きい方が設定される。
【0052】
また、図4Bに示すように、3D安全ガイドライン等では、安全かつ快適に視聴可能な3D画像の両眼視差量は、輻輳角が、両眼視差量が0であるときの輻輳角+1度となる両眼視差量以上であると言われている。具体的には、図5に示すように、両眼間隔が5cm乃至6.5cmであり、スクリーンから視聴者の目までの距離である視聴距離が、標準視聴距離、即ちスクリーンの高さの3倍であり、スクリーンの縦横比が16:9であり、水平解像度が1920画像である場合、両眼視差量が0であるときの輻輳角γ+1度である輻輳角βに対応する両眼視差量は、−約57画素である。従って、両眼視差量の下限値は、−約57画素が設定される。図6は、スクリーン幅と57画素に相当するスクリーン上の長さとの関係を示す図である。
【0053】
次に、図7を参照して、両眼視差量の上限値と撮影部11における撮影条件の関係について説明する。
【0054】
両眼視差量の上限値は、図7に示すカメラ光軸間隔、輻輳点距離での撮影範囲、および3D画像の水平解像度を用いて、以下の式(2)で表される。
【0055】
【数2】

【0056】
なお、カメラ光軸間隔とは、2台のカメラの光軸の水平方向の間隔である。また、輻輳点距離での撮影範囲とは、両眼視差量が0である点である輻輳点を2台のカメラで撮影するときの撮影距離である輻輳点距離を撮影距離として撮影したときに、各カメラが撮影可能な水平方向の範囲である。
【0057】
輻輳点距離は、以下の式(3)により求められ、輻輳点距離での撮影範囲は、以下の式(4)により求められる。
【0058】
【数3】

【数4】

【0059】
なお、輻輳角は、2台のカメラで輻輳点を撮影するときの2台のカメラの光軸のなす角である。また、式(4)における画角とは、輻輳点距離での撮影範囲の画角である。この画角は、輻輳点距離を35mmフィルムのSLR(Single Lens Reflex)カメラまたはDSLR(Digital Single Lens Reflex)カメラの焦点距離に換算することにより求めたり、焦点距離とイメージャのサイズから求めることができる。図8は、35mm判SLRカメラまたは35mmフルサイズDSLRカメラの焦点距離と画角の関係を示す図である。
【0060】
以上のように、両眼視差量の上限値とカメラ光軸間隔の関係は、式(2)で表されるので、撮影部11において、両眼視差量の上限値が設定される場合、その両眼視差量の上限値、輻輳点距離での撮影範囲、および水平解像度を用いて上述した式(2)が演算されることにより、カメラ光軸間隔が求められる。そして、撮影部11において、カメラ光軸間隔が、求められたカメラ光軸間隔に調整される。
【0061】
図9は、両眼視差量の上限値、両眼視差量の下限値、水平解像度、スクリーン幅、および両眼間隔の関係を示す図である。図10は、両眼視差量の上限値、最大両眼視差量、注視領域の両眼視差量、最小両眼視差量、および両眼視差量の下限値の関係を示す図である。
【0062】
[撮影装置の処理の説明]
図11は、図2の撮影装置10によるビットストリームを生成する生成処理を説明するフローチャートである。この生成処理は、例えば、ユーザが3D画像の撮影を指示したとき、開始される。
【0063】
図11のステップS11において、撮影部11は、3D画像を生成し、エンコーダ12おおよび付加情報生成部13に供給する。また、撮影部11は、3D画像の撮影条件、撮影時刻などを付加情報生成部13に供給する。
【0064】
ステップS12において、エンコーダ12は、撮影部11から供給される3D画像をMVC、AVC、MPEG2等の方式で符号化し、その結果得られる符号化データをストリーム生成部14に供給する。
【0065】
ステップS13において、付加情報生成部13は、撮影部11から供給される3D画像、3D画像の撮影条件、撮影時刻や、ユーザ入力等に基づいて、付加情報を生成する。付加情報生成部13は、生成された付加情報をストリーム生成部14に供給する。
【0066】
ステップS14において、ストリーム生成部14は、エンコーダ12から供給される符号化データに、付加情報生成部13から供給される付加情報を付加してビットストリームを生成し、出力する。そして、処理は終了する。
【0067】
以上のように、撮影装置10は、3D画像を用いて視差情報を検出し、その視差情報を符号化データとともに出力する。従って、符号化データの再生や編集を行う装置において、視差情報に基づいて、再生時刻が連続する3D画像の両眼視差量の差分が所定の閾値以下となる、安全かつ快適な視聴が可能な3D画像を生成することができる。
【0068】
また、符号化データとともに視差情報が出力されるので、符号化データの再生や編集を行う装置において、符号化データを復号して視差情報を得る必要がない。従って、符号化データの再生や編集を行う装置は、再生や編集により両眼視差量の調整が必要な範囲を復号するだけで、再生時刻が連続する3D画像の両眼視差量の差分が所定の閾値以下となる、安全かつ快適な視聴が可能な3D画像を生成することができる。その結果、符号化データの再生や編集を行う装置は、少ない画像処理負荷で、安全かつ快適な3D画像を視聴者に提供することができる。
【0069】
[編集装置の構成例]
図12は、本発明を適用した画像処理装置としての編集装置の一実施の形態の構成例を示すブロック図である。
【0070】
図12の編集装置30は、図2の撮影装置10から出力された3D画像のビットストリームを、編集に必要な最小限の範囲だけ復号することにより、編集後の3D画像が安全かつ快適に視聴可能な3D画像となるように編集を行う。
【0071】
具体的には、編集装置30のCPU(Central Processing Unit)31は、ノースブリッジ32に接続される。CPU31は、例えば、HDD(Hard disk Drive)37に記憶されているデータの読み出しなどの処理を制御したり、CPU41が実行する編集処理を制御するためのコマンドを生成し、出力したりする。
【0072】
ノースブリッジ32は、PCIバス(Peripheral Component Interconnect/Interface)35に接続される。ノースブリッジ32は、例えば、CPU31の制御に基づいて、サウスブリッジ36を介して、HDD37に記憶されているデータの供給を受け、PCIバス35、PCIブリッジ38を介して、メモリ39に供給する。また、ノースブリッジ32は、メモリ33とも接続されており、CPU31の処理に必要なデータを授受する。さらに、ノースブリッジ32は、通信部34とも接続されており、他の装置と通信するデータを授受する。
【0073】
メモリ33は、CPU31が実行する処理に必要なデータを保存する。サウスブリッジ36は、HDD37のデータの書き込みおよび読み出しを制御する。通信部34は、ノースブリッジ32から供給されるデータを他の装置に送信したり、他の装置から受信したデータをノースブリッジ32に供給したりする。HDD37には、撮影装置10から受信された3D画像のビットストリームが編集用素材として記憶される。
【0074】
PCIブリッジ38は、メモリ39のデータの書き込みおよび読み出しを制御する。また、PCIブリッジ38は、デコーダ43乃至45への符号化データの供給、CPU41への付加情報の供給、およびストリームスプライサ46へのビットストリームの供給を制御する。さらに、PCIブリッジ38は、PCIバス35およびコントロールバス40のデータの授受を制御する。
【0075】
メモリ39は、PCIブリッジ38の制御に基づいて、HDD37より読み出された編集用素材であるビットストリームや、ストリームスプライサ46から供給される編集後のビットストリームを記憶する。
【0076】
CPU41は、ノースブリッジ32、PCIバス35、PCIブリッジ38、および、コントロールバス40を介して、CPU31から供給されたコマンドにしたがって、PCIブリッジ38、デコーダ43乃至45、ストリームスプライサ46、編集部47、および、エンコーダ48が実行する処理を制御する。メモリ42は、CPU41の処理に必要なデータを記憶する。
【0077】
デコーダ43およびデコーダ44(復号手段)は、CPU41の制御に基づいて、PCIブリッジ38から供給される符号化データを、図2のエンコーダ12の符号化方式に対応する方式で復号し、復号の結果得られる3D画像の画像データを編集部47に供給する。デコーダ45は、ストリームスプライサ46から供給される編集後のビットストリームをエンコーダ12やエンコーダ48における符号化方式に対応する方式で復号し、出力する。
【0078】
ストリームスプライサ46は、CPU41の制御に基づいて、PCIブリッジ38から供給されるビットストリームと、エンコーダ48から供給される符号化データを含むビットストリームを結合し、編集後のビットストリームを生成する。ストリームスプライサ46は、編集後のビットストリームをデコーダ45に供給したり、PCIブリッジ38を介して、メモリ39に供給して保存させる。
【0079】
編集部47は、CPU41の制御に基づいて、デコーダ43またはデコーダ44から供給される3D画像の画像データを結合する。このとき、編集部47(調整手段)は、再生時刻が連続する3D画像の画像データの注視領域の両眼視差量の差分が所定の閾値以下となるように、3D画像の画像データの注視領域の両眼視差量を調整する。編集部47は、結合の結果得られる画像データを編集後データとしてエンコーダ48に供給する。
【0080】
エンコーダ48は、CPU41の制御に基づいて、編集部47から供給される編集後データを、エンコーダ12における符号化方式と同様の方式で符号化し、その結果得られる符号化データを、ストリームスプライサ46に出力する。
【0081】
次に、編集装置30の動作について説明する。
【0082】
通信部34(取得手段)は、撮影装置10から出力されるビットストリームを取得し、ノースブリッジ32に供給する。ノースブリッジ32は、CPU31の制御に基づいて、通信部34から供給されるビットストリームを、サウスブリッジ36を介してHDD37に供給し、記憶させる。
【0083】
サウスブリッジ36は、CPU31の制御により、図示しない操作入力部から供給されたユーザの操作入力を基に、HDD37から、編集により接続する2つのビットストリームのうちの前方のビットストリーム(以下、前ストリームという)および後方のビットストリーム(以下、後ストリームという)を読み出す。読み出された前ストリームと後ストリームは、CPU31の制御により、ノースブリッジ32、PCIバス35、および、PCIブリッジ38を介してメモリ39に供給され、記憶される。また、CPU31(指定手段)は、編集点を示す情報と、編集開始を示すコマンドを、ノースブリッジ32、PCIバス35、PCIブリッジ38、および、コントロールバス40を介して、CPU41に供給する。
【0084】
なお、編集点を示す情報は、前フレームおよび後フレームの一方における他方を接続する位置を示す情報であり、この情報により、編集後のビットストリームにおける3D画像の再生時刻が決定される。従って、編集点を示す情報は、編集後のビットストリームにおける3D画像の再生時刻を指定する情報である。
【0085】
CPU41(決定手段)は、CPU31から供給された編集点を示す情報と、前ストリームおよび後ストリームに含まれる付加情報を基に、再生時刻が連続する3D画像どうしの注視領域の両眼視差量の差分が所定の閾値以下となるために両眼視差量の調整が必要な前ストリームおよび後ストリームの範囲を、再エンコード範囲として決定する。
【0086】
そして、PCIブリッジ38は、CPU41の制御に基づいて、メモリ39に記憶されている前ストリームのうち、再エンコード範囲の符号化データと、その符号化データの復号の際に必要となる符号化データをデコーダ43に供給する。また、PCIブリッジ38は、CPU41の制御に基づいて、メモリ39に記憶されている後ストリームのうち、再エンコード範囲の符号化データと、その符号化データの復号の際に必要となる符号化データをデコーダ44に供給する。
【0087】
また、このとき、PCIブリッジ38は、CPU41の制御に基づいて、メモリ39に記憶されている編集点までの前ストリームのうちの再エンコード範囲ではない部分と、編集点以降の後ストリームのうちの再エンコード範囲ではない部分を、ストリームスプライサ46に供給する。
【0088】
デコーダ43およびデコーダ44は、CPU41の制御に基づいて、PCIブリッジ38から供給される符号化データを、図2のエンコーダ12の符号化方式に対応する方式で復号する。そして、デコーダ43およびデコーダ44は、復号されて得られた再エンコード範囲の3D画像の画像データを編集部47に供給する。
【0089】
編集部47は、CPU41の制御に基づいて、デコーダ43から供給される3D画像の画像データと、デコーダ44から供給される3D画像の画像データを接続する。なお、このとき、編集部47は、CPU41の制御に基づいて、再生時刻が連続する3D画像どうしの注視領域の両眼視差量の差分が所定の閾値以下となるように、3D画像の画像データの注視領域の両眼視差量を調整する。編集部47は、接続された3D画像の画像データを編集後データとして、エンコーダ48に供給する。
【0090】
エンコーダ48は、CPU41の制御に基づいて、編集部47から供給された編集後データを、図2のエンコーダ12と同様の方式で符号化する。エンコーダ48は、その結果得られる符号化データをストリームスプライサ46に供給する。
【0091】
ストリームスプライサ46は、CPU41の制御に基づいて、エンコーダ48から供給された符号化データに、注視領域の両眼視差量が調整後の注視領域の両眼視差量に更新された付加情報を付加し、再エンコード範囲のビットストリームを生成する。ストリームスプライサ46は、CPU41の制御に基づいて、生成された再エンコード範囲のビットストリームと、PCIブリッジ38から供給されたビットストリームとを接続し、編集後のビットストリームを生成する。
【0092】
そして、ストリームスプライサ46は、CPU41の制御に基づいて、編集後のビットストリームをPCIブリッジ38に供給して、メモリ39に保存させる。また、ストリームスプライサ46は、CPU41の制御に基づいて、編集後のビットストリームをデコーダ45に供給して復号させ、図示せぬディスプレイなどに出力させる。
【0093】
図示しない操作入力部から、編集後のビットストリームの保存が指令された場合、PCIブリッジ38は、CPU31の制御に基づいて、メモリ39に保存されている編集後のビットストリームを読み出す。読み出された編集後のビットストリームは、CPU31の制御により、PCIバス35およびノースブリッジ32を介して、サウスブリッジ36に供給され、HDD37に供給されて保存される。
【0094】
[両眼視差量の調整の説明]
図13は、再エンコード範囲の決定方法を説明する図である。
【0095】
なお、図13において、横軸は、3D画像の再生時刻を表し、縦軸は、両眼視差量を表している。
【0096】
図13に示すように、撮影時刻が不連続になる編集点における前ストリームの注視領域の両眼視差量と後ストリームの注視領域の両眼視差量の差(ギャップ)が所定の閾値より大きい場合、CPU41は、前ストリームの再生時刻が編集点より前の区間の注視領域の両眼視差量と、後ストリームの再生時刻が編集点より後の区間の注視領域の両眼視差量を取得する。そして、CPU41は、取得された前ストリームと後ストリームの注視領域の両眼視差量に基づいて、再エンコード範囲を決定する。
【0097】
このように、再エンコード範囲の決定には、前ストリームと後ストリームの注視領域の両眼視差量を認識する必要があるが、撮影装置10から出力されるビットストリームでは、符号化データに注視領域の両眼視差量が付加されているので、編集装置30は、両眼視差量を検出するために符号化データを復号する必要がない。従って、編集装置30は、再エンコード範囲の符号化データを復号するだけで、再生時刻が連続する3D画像どうしの注視領域の両眼視差量の差分が所定の閾値以下となるように、両眼視差量を調整することができる。
【0098】
図14は、両眼視差量の第1の調整方法を説明する図であり、図15は、両眼視差量の第2の調整方法を説明する図である。なお、図14において、図14Aは、視聴者が知覚する3D画像の奥行方向の位置を示しており、図14Bは、3D画像を構成する左目用の画像と右目用の画像を合成した画像を示している。このことは、図15においても同様である。
【0099】
図14に示すように、両眼視差量の第1の調整方法は、左目用の画像と右目用の画像を水平方向にシフトさせる方法である。図14の例では、左目用の画像を右方向にシフトし、右目用の画像を左方向にシフトすることにより、両眼視差量が小さくされている。これにより、視聴者は、両眼視差量が調整される前に比べて、手前側にある家、木、および猫を知覚する。
【0100】
なお、第1の調整方法では、左目用の画像と右目用の画像が水平方向にシフトされるので、左目用の画面と右目用の画面の左端部または右端部の画像がなくなる。従って、左目用の画像と右目用の画像が拡大されたり、所定の画像が挿入されたりすることにより、左端部または右端部の画像が補間される。なお、左目用の画像と右目用の画像が拡大される場合、両眼視差量が変化するため、その変化が考慮されて左目用の画像と右目用の画像がシフトされる。
【0101】
図15に示すように、両眼視差量の第2の調整方法は、左目用の画像と右目用の画像に基づいて新たな左目用の画像と右目用の画像を生成する方法である。この方法では、3D画像の両眼視差量を変化させるだけでなく、3D画像の両眼視差量を圧縮することもできる。
【0102】
具体的には、図15の例では、新たな左目用の画像において、家の位置が、元の左目用の画像内の家の位置より右方向に移動し、木の位置が、元の左目用の画像内の木の位置より右方向に家の移動量より大きく移動し、猫の位置が、元の左目用の画像内の家の位置より右方向に家の移動量より小さく移動している。また、新たな右目用の画像において、家の位置が、元の右目用の画像内の家の位置より左方向に移動し、木の位置が、元の右目用の画像内の木の位置より左方向に家の移動量より大きく移動し、猫の位置が、元の右目用の画像内の家の位置より左方向に家の移動量より小さく移動している。従って、3D画像の両眼視差量を小さくするとともに、圧縮することができる。その結果、視聴者は、両眼視差量が調整される前に比べて、木、家、猫の順に大きい距離だけ手前側にある木、家、および猫を知覚する。即ち、視聴者は、両眼視差量が調整される前に比べて、奥行方向の位置が圧縮され、手前側にある3D画像を知覚する。
【0103】
[編集装置の処理の説明]
図16は、図12の編集装置30による編集処理を説明するフローチャートである。この編集処理は、例えば、HDD37に編集用素材として記録されたビットストリームの編集の開始がユーザにより指示されたとき、開始される。
【0104】
図16のステップS30において、サウスブリッジ36は、CPU41の制御により、図示しない操作入力部から供給されたユーザの操作入力を基に、HDD37から前ストリームおよび後ストリームを読み出す。この前ストリームおよび後ストリームは、ノースブリッジ32、PCIバス35、および、PCIブリッジ38を介して、メモリ39に供給され、記憶される。また、CPU31は、編集点を示す情報と、編集開始を示すコマンドを、ノースブリッジ32、PCIバス35、PCIブリッジ38、および、コントロールバス40を介して、CPU41に供給する。
【0105】
ステップS31において、CPU41は、CPU31から供給された編集点を示す情報を基に、メモリ39に記憶されている前ストリームおよび後ストリームに付加情報として含まれる視差情報のうちの注視領域の両眼視差量を読み出す。
【0106】
ステップS32において、CPU41は、前ストリームの編集点の注視領域の両眼視差量と後ストリームの編集点の注視領域の両眼視差量を比較する。
【0107】
ステップS33において、CPU41は、前ストリームの編集点の注視領域の両眼視差量と後ストリームの編集点の注視領域の両眼視差量の差分が所定の閾値以上であるかどうかを判定する。所定の閾値とは、例えば、輻輳角の1度に対応する両眼視差量である。
【0108】
ステップS33で前ストリームの編集点の注視領域の両眼視差量と後ストリームの編集点の注視領域の両眼視差量の差分が所定の閾値以上であると判定された場合、処理はステップS34に進む。ステップS34において、CPU41は、前ストリームと後ストリームに付加情報として含まれる想定視聴環境情報のうちの上限スクリーン幅に基づいて、その上限スクリーン幅より小さい幅を、ユーザが想定するスクリーン幅として設定する。
【0109】
ステップS35において、CPU41は、スクリーン幅に対応する両眼視差量の上限値を決定する。具体的には、CPU41は、上述した式(1)において、3D画像の水平解像度、想定視聴環境情報に含まれる想定両眼間隔、ステップS33で設定されたスクリーン幅を代入して演算を行うことにより、スクリーン幅に対応する両眼視差量の上限値を決定する。
【0110】
ステップS36において、CPU41は、CPU31から供給された編集点を示す情報と、前ストリームおよび後ストリームに含まれる視差情報を基に、再エンコード範囲と再エンコード範囲の調整後の両眼視差量を決定する。
【0111】
ステップS37において、CPU41は、再エンコード範囲の調整後の両眼視差量が、-57画素以上ステップS35で決定された両眼視差量の上限値以下である許容範囲内であるかどうかを判定する。
【0112】
ステップS37で再エンコード範囲の調整後の両眼視差量が許容範囲内であると判定された場合、PCIブリッジ38は、CPU41の制御に基づいて、メモリ39に記憶されている前ストリームのうち、再エンコード範囲の符号化データと、その符号化データの復号の際に必要となる符号化データをデコーダ43に供給する。また、PCIブリッジ38は、CPU41の制御に基づいて、メモリ39に記憶されている後ストリームのうち、再エンコード範囲の符号化データと、その符号化データの復号の際に必要となる符号化データをデコーダ44に供給する。また、PCIブリッジ38は、CPU41の制御に基づいて、メモリ39に記憶されている編集点までの前ストリームのうちの再エンコード範囲ではない部分と、編集点以降の後ストリームのうちの再エンコード範囲ではない部分を、ストリームスプライサ46に供給する。そして、処理はステップS39に進む。
【0113】
一方、ステップS37で再エンコード範囲の調整後の両眼視差量が許容範囲内ではないと判定された場合、ステップS38において、CPU41は、スクリーン幅を再設定する。
【0114】
具体的には、上述した式(1)で求められるスクリーン幅と両眼視差量の上限値の関係は、例えば、図17に示すようになる。なお、図17では、3D画像の水平解像度が1920画素であるものとしている。図17に示すように、スクリーン幅が小さいほど、両眼視差量の上限値は大きくなる。従って、CPU41は、再エンコード範囲の調整後の両眼視差量が許容範囲内になるようにユーザが想定するスクリーン幅を小さくする。
【0115】
そして、PCIブリッジ38は、CPU41の制御に基づいて、メモリ39に記憶されている前ストリームのうち、再エンコード範囲の符号化データと、その符号化データの復号の際に必要となる符号化データをデコーダ43に供給する。また、PCIブリッジ38は、CPU41の制御に基づいて、メモリ39に記憶されている後ストリームのうち、再エンコード範囲の符号化データと、その符号化データの復号の際に必要となる符号化データをデコーダ44に供給する。また、PCIブリッジ38は、CPU41の制御に基づいて、メモリ39に記憶されている編集点までの前ストリームのうちの再エンコード範囲ではない部分と、編集点以降の後ストリームのうちの再エンコード範囲ではない部分を、ストリームスプライサ46に供給する。そして、処理はステップS39に進む。
【0116】
ステップS39において、デコーダ43およびデコーダ44は、CPU41の制御に基づいて、PCIブリッジ38から供給される符号化データを、図2のエンコーダ12の符号化方式に対応する方式で復号する。そして、デコーダ43およびデコーダ44は、復号の結果得られる3D画像の画像データを編集部47に供給する。
【0117】
ステップS40において、編集部47は、CPU41の制御にしたがって、ステップS36で決定された調整後の両眼視差量に基づいて、デコーダ43およびデコーダ44から供給される3D画像の画像データの注視領域の両眼視差量を調整し、調整後の画像データを接続する。編集部47は、その結果得られる3D画像の画像データを編集後データとして、エンコーダ48に供給する。
【0118】
ステップS41において、エンコーダ48は、CPU41の制御に基づいて、編集部47から供給された編集後データを再エンコードする。エンコーダ48は、その結果得られる符号化データをストリームスプライサ46に供給する。
【0119】
ステップS42において、ストリームスプライサ46は、CPU41の制御に基づいて、エンコーダ48から供給された符号化データに、注視領域の両眼視差量が調整後の注視領域の両眼視差量に更新された付加情報を付加し、再エンコード範囲のビットストリームを生成する。なお、ステップS38の処理が行われた場合には、付加情報のうちの上限スクリーン幅も、ステップS38で再設定されたスクリーン幅に更新される。
【0120】
ステップS43において、ストリームスプライサ46は、CPU41の制御に基づいて、生成された再エンコード範囲のビットストリームと、PCIブリッジ38から供給されたビットストリームとを接続し、編集後のビットストリームを生成する。
【0121】
一方、ステップS33で前ストリームの編集点の注視領域の両眼視差量と後ストリームの編集点の注視領域の両眼視差量の差分が所定の閾値以上ではないと判定された場合、PCIブリッジ38は、CPU41の制御に基づいて、メモリ39に記憶されている編集点までの前ストリームと編集点以降の後ストリームをストリームスプライサ46に供給する。そして、ステップS44において、ストリームスプライサ46は、CPU41の制御に基づいて、PCIブリッジ38から供給される編集点までの前ストリームと編集点以降の後ストリームを接続し、編集後のビットストリームを生成する。
【0122】
編集後のビットストリームはメモリ39に保存されたり、デコーダ45で復号されたりする。メモリ39に保存された編集後のビットストリームは、ユーザの指示に応じてHDD37に供給され、保存される。また、デコーダ45で復号された結果得られる画像データは、図示せぬディスプレイなどに出力され、その結果3D画像が表示される。
【0123】
以上のように、編集装置30は、少なくとも視差情報と符号化データを含むビットストリームを取得し、その符号化データに対応する3D画像の再生時刻を指定し、視差情報に基づいて再エンコード範囲を決定し、再エンコード範囲の3D画像の両眼視差量を調整する。これにより、編集装置30は、再生時刻が連続する3D画像の両眼視差量の差分が所定の閾値以下となる、安全かつ快適な視聴が可能な3D画像を生成することができる。
【0124】
また、ビットストリームに符号化データとともに視差情報が含まれているので、編集装置30は、符号化データを復号して視差情報を得る必要がない。従って、編集装置30は、再エンコード範囲を復号するだけで、再生時刻が連続する3D画像の両眼視差量の差分が所定の閾値以下となる、安全かつ快適な視聴が可能な3D画像を生成することができる。その結果、編集装置30は、少ない画像処理負荷で、安全かつ快適な3D画像を視聴者に提供することができる。
【0125】
なお、図16のステップS37における許容範囲は、撮影条件情報に対応する範囲、即ち両眼視差量の下限値以上両眼視差量の上限値以下の範囲であってもよい。また、編集装置30は、調整後の両眼視差量が許容範囲内ではない場合、前ストリームに対応する画像データにフェードアウトを施したり、後ストリームに対応する画像データにフェードインを施したりすることで、編集点の両眼視差量の差分が視聴者に知覚されにくくすることもできる。
【0126】
また、編集装置30は、視差情報として注視領域の両眼視差量の位置情報が含まれる場合、その位置情報に基づいて、前ストリームの編集点の注視領域と後ストリームの編集点の注視領域の距離を求め、その距離が大きい場合には、両眼視差量の調整を行わないようにしてもよい。
【0127】
さらに、想定視聴環境情報として、上限スクリーン幅と想定両眼間隔の代わりに、ユーザが想定する視聴環境において安全かつ快適に視聴できる両眼視差量の範囲が付加するようにしてもよい。この場合、その両眼視差量の範囲が、ステップS37における許容範囲とされる。
【0128】
また、上述した説明では、編集装置30は、再生時刻が連続する3D画像の注視領域の両眼視差量が所定の閾値の範囲内になるように、両眼視差量の調整を行なったが、再生時刻が連続する3D画像の最大両眼視差量、最小両眼視差量、または最大両眼視差量と最小両眼視差量の中間値が所定の閾値の範囲内になるように、両眼視差量の調整を行うようにしてもよい。
【0129】
さらに、撮影装置10から送信されるビットストリームに含まれる付加情報を用いる装置としては、ビットストリームを編集する編集装置30のほか、ビットストリームに対して撮影時刻が不連続になる特殊再生(例えば、ハイライト再生、ダイジェスト再生、スキップ再生、リピート再生、不連続な時刻に撮影された3D画像の連続再生など)を行う再生装置がある。
【0130】
また、撮影装置10から送信されるビットストリームに含まれる符号化データは、動画像の符号化データであっても静止画像の符号化データであってもよい。撮影装置10から送信されるビットストリームに含まれる符号化データが静止画像の符号化データである場合、ビットストリームに含まれる付加情報を用いる装置としては、例えば、スライドショー表示を行う装置がある。
【0131】
また、本実施の形態では、付加情報が符号化データに付加(記述)されたが、付加情報は、画像データ(又はビットストリーム)と別に伝送(記録)されてもよい。また、付加情報は画像データ(又はビットストリーム)と連結されるようにしてもよい。
【0132】
なお、本実施の形態では、「連結」を以下のように定義する。「連結」とは、画像データ(又はビットストリーム)と付加情報とが互いにリンクされている状態を指す。連結対象の画像データと付加情報とは、別の伝送路で伝送されてもよい。また、連結対象の画像データ(又はビットストリーム)と付加情報とは、互いに別の記録媒体(又は同一の記録媒体内の別々の記録エリア)に記録されてもよい。なお、画像データ(又はビットストリーム)と付加情報とをリンクさせる単位は、例えば、符号化処理単位(1フレーム、複数フレーム等)にすることができる。
【0133】
[本発明を適用したコンピュータの説明]
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
【0134】
そこで、図18は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
【0135】
プログラムは、コンピュータに内蔵されている記録媒体としての記憶部208やROM(Read Only Memory)202に予め記録しておくことができる。
【0136】
あるいはまた、プログラムは、リムーバブルメディア211に格納(記録)しておくことができる。このようなリムーバブルメディア211は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブルメディア211としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
【0137】
なお、プログラムは、上述したようなリムーバブルメディア211からドライブ210を介してコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵する記憶部208にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
【0138】
コンピュータは、CPU(Central Processing Unit)201を内蔵しており、CPU201には、バス204を介して、入出力インタフェース205が接続されている。
【0139】
CPU201は、入出力インタフェース205を介して、ユーザによって、入力部206が操作等されることにより指令が入力されると、それに従って、ROM202に格納されているプログラムを実行する。あるいは、CPU201は、記憶部208に格納されたプログラムを、RAM(Random Access Memory)203にロードして実行する。
【0140】
これにより、CPU201は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU201は、その処理結果を、必要に応じて、例えば、入出力インタフェース205を介して、出力部207から出力、あるいは、通信部209から送信、さらには、記憶部208に記録等させる。
【0141】
なお、入力部206は、キーボードや、マウス、マイク等で構成される。また、出力部207は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
【0142】
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
【0143】
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
【符号の説明】
【0144】
10 撮影装置, 11 撮影部, 12 エンコーダ, 13 付加情報生成部, 14 ストリーム生成部, 30 編集装置, 31 CPU, 34 通信部, 41 CPU, 43,44 デコーダ, 47 編集部

【特許請求の範囲】
【請求項1】
3D画像データと前記3D画像データの視差を表す視差情報とを取得する取得手段と、
前記視差情報に基づいて、前記3D画像データの再生タイミングが連続する3D画像データどうしの視差の差分が所定の閾値以下となるために前記3D画像データの視差の調整が必要な範囲である調整範囲を決定する決定手段と、
前記決定手段により決定された前記調整範囲の前記3D画像データの視差を調整する調整手段と
を備える画像処理装置。
【請求項2】
符号化された前記3D画像データを復号する復号手段
をさらに備え、
前記取得手段は、符号化された前記3D画像データと前記視差情報を取得し、
前記復号手段は、前記調整範囲の符号化された前記3D画像データを復号し、
前記調整手段は、前記復号手段による復号の結果得られる前記調整範囲の前記3D画像データの視差を調整する
請求項1に記載の画像処理装置。
【請求項3】
前記取得手段は、前記3D画像データ、前記視差情報、および前記3D画像データの視聴環境として想定する視聴環境を表す想定視聴環境情報を取得し、
前記決定手段は、前記想定視聴環境情報に基づいて、前記3D画像データの視差が、前記3D画像データの視聴環境として想定する視聴環境に対応する所定の範囲内になるように、前記調整範囲を決定する
請求項1に記載の画像処理装置。
【請求項4】
前記取得手段は、前記3D画像データ、前記視差情報、および前記3D画像データの撮影条件を表す撮影条件情報を取得し、
前記決定手段は、前記撮影条件情報に基づいて、前記3D画像データの視差が、前記撮影条件に対応する所定の範囲内になるように、前記調整範囲を決定する
請求項1に記載の画像処理装置。
【請求項5】
前記再生タイミングを指定する指定手段
をさらに備える
請求項1に記載の画像処理装置。
【請求項6】
画像処理装置が、
3D画像データと前記3D画像データの視差を表す視差情報とを取得する取得ステップと、
前記視差情報に基づいて、前記3D画像データの再生タイミングが連続する3D画像データどうしの視差の差分が所定の閾値以下となるために前記3D画像データの視差の調整が必要な範囲である調整範囲を決定する決定ステップと、
前記決定ステップの処理により決定された前記調整範囲の前記3D画像データの視差を調整する調整ステップと
を含む画像処理方法。
【請求項7】
3D画像データを用いて、前記3D画像データの視差を検出する検出手段と、
前記3D画像データと、前記3D画像データの視差を表す視差情報とを伝送する伝送手段と
を備える画像処理装置。
【請求項8】
前記3D画像データを符号化する符号化手段
をさらに備え、
前記伝送手段は、前記符号化手段により符号化された前記3D画像データと、前記視差情報とを伝送する
請求項7に記載の画像処理装置。
【請求項9】
前記伝送手段は、前記3D画像データと、前記視差情報と、前記3D画像データの視聴環境として想定する視聴環境を表す想定視聴環境情報とを伝送する
請求項7に記載の画像処理装置。
【請求項10】
撮影を行うことにより、前記3D画像データを取得する撮影手段
をさらに備え、
前記伝送手段は、前記3D画像データと、前記視差情報と、前記3D画像データの撮影条件を表す撮影条件情報とを伝送する
請求項7に記載の画像処理装置。
【請求項11】
画像処理装置が、
3D画像データを用いて、前記3D画像データの視差を検出する検出ステップと、
前記3D画像データと、前記3D画像データの視差を表す視差情報とを伝送する伝送ステップと
を含む画像処理方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate


【公開番号】特開2012−54862(P2012−54862A)
【公開日】平成24年3月15日(2012.3.15)
【国際特許分類】
【出願番号】特願2010−197556(P2010−197556)
【出願日】平成22年9月3日(2010.9.3)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】