説明

3次元ビデオの品質予測システム

【課題】予測ピクチャ品質レーティングを求める方法を提供する。
【解決手段】一般に3次元イメージの左及び右サブコンポーネントを比較して3次元イメージでの視差測定を行う(22、24)。次に、組合せのために視差測定からのデータを用いて、3次元イメージの左及び右サブコンポーネントを2次元イメージに組合せ(融合)する(42、44)。2次元イメージと元の3次元イメージの比較に関する品質情報とに基づいて、予測品質測定値を発生する(60、90)。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、一般に、イメージの品質予測に関し、特に、3次元(立体)ビデオの本質的品質を予測する品質予測システムに関する。
【背景技術】
【0002】
立体に基づく3D(3次元)技術を現在用いているテレビジョン放送局、映画などの業界では、種々の品質保証及び品質問題に直面している。アーティファクト及び欠陥を処理することに、より多くのユーザが悩んでいる。さらに、3次元ビデオは、現在人気が上昇しているが、いくらかの視聴者にとっては視覚的に不快なものである。なお、不快さは、典型的には、3Dイメージの立体(左及び右)イメージの間の水平の視差の量に関連している。
【0003】
2次元ビデオの制作設定において、ビデオに対する指示、予測、警告、視覚的不快及び欠陥の原因を求めるのに現在の技術が利用可能である。たとえ異なるやり方であっても、これら技術のいくつかを用いて、3Dイメージの右イメージ及び左イメージに関する測定値を種々に組合せして測定を行っている。例えば、技術は、進歩しており、3Dイメージを形成する右及び左の2Dイメージを別々に測定し、次に、右及び左の品質結果を平均化する。他の例として、3Dビデオ品質(アセスメント)評価にテクトロニクス社製PQA600型を用い、左ビューのビデオ品質評価のために、未処理の左(基準)ビデオに対して処理済みの左(テスト)ビデオを測定し、右ビューについても同じ測定を行う。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2011−223582号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかし、3Dビデオを既存の2Dビデオから発生することが増えてきている。さらに、シネマ用の3D映画をブルーレイDVDなどで再利用するなど、ビデオ装置(コーデックなどの処理及び捕捉)の開発研究や他のアプリケーションのために、他の3D処理も行われている。現在、立体ビデオの本質的品質を直接予測する完全な基準システムが存在しない。
【0006】
そこで、本発明は、従来技術の上述及びその他の制限を解決するものである。
【課題を解決するための手段】
【0007】
本発明の態様は、次の通りである。
(1)基準3次元ビデオに対する試験3次元ビデオの品質を予測する品質予測システムであって; 左コンポーネント及び右コンポーネントを含む試験3次元ビデオを受ける第1入力手段と;左コンポーネント及び右コンポーネントを含む基準3次元ビデオを受ける第2入力手段と;上記試験3次元ビデオの上記右コンポーネントに対する上記試験3次元ビデオの上記左コンポーネントの比較に関する第1視差情報を発生する第1アナライザと;上記基準3次元ビデオの上記右コンポーネントに対する上記基準3次元ビデオの上記左コンポーネントの比較に関する第2視差情報を発生する第2アナライザと;上記第1アナライザからの上記視差情報を用いて上記試験3次元ビデオの上記左コンポーネント及び上記右コンポーネントを組合せて、融合した2次元試験ビデオを生成する第1融合器と;上記第2アナライザからの上記視差情報を用いて上記基準3次元ビデオの上記左コンポーネント及び上記右コンポーネントを組合せて、融合した2次元基準ビデオを生成する第2融合器と;上記2次元基準ビデオを上記2次元試験ビデオと比較して、第1予測品質評価値を発生する品質アナライザと;上記品質アナライザに結合し、上記第1及び第2アナライザからの得た情報により上記第1予測品質評価値を変調して、上記基準3次元ビデオに対する上記試験3次元ビデオの比較の予測品質評価値を発生する概要(summary)手段とを具えた3次元ビデオの品質予測システム。
(2)態様1による品質予測システムであって、上記第1視差情報は、上記基準3次元ビデオの上記右コンポーネントに対する上記基準3次元ビデオの上記左コンポーネントの比較に関連した不一致データである。
(3)態様1による品質予測システムであって、上記第1視差情報は、上記基準3次元ビデオの上記右コンポーネントに対する上記基準3次元ビデオの上記左コンポーネントの比較に関連した視差データである。
(4)態様1による品質予測システムであって、上記第1及び第2アナライザから得た上記情報は、上記試験3次元ビデオ及び上記基準3次元ビデオから夫々得た第1及び第2深さマップ情報である。
(5)態様1による品質予測システムであって、上記第1融合器は、上記試験3次元ビデオの上記左及び右コンポーネントを組合せて上記融合した2次元試験ビデオを生成する際に、上記第1視差情報を補正オフセットとして用いる。
(6)態様1による品質予測システムであって、上記第1融合器は、上記融合済み2次元試験ビデオを生成する際に、上記試験3次元ビデオの上記左及び右コンポーネントに等しい重み付けを適用する。
(7)態様1による品質予測システムであって、上記第1融合器は、上記融合済み2次元試験ビデオを生成する際に、1の相補的手法を用いて、上記試験3次元ビデオの上記左及び右コンポーネントに異なる重み付けを割り当てる。
(8)態様1による品質予測システムであって、上記概要手段は、少なくとも1つのCIECAM02カラー・アピアランス座標からのコンポーネントを含む知覚差ベクトルを発生する。
(9)態様8による品質予測システムであって、上記概要手段は、上記試験又は基準3次元ビデオの少なくとも1つの知覚した深さからのコンポーネントを含む上記知覚差ベクトルを発生する。
(10)態様8による品質予測システムであって、上記概要手段は、融合限界と上記第1及び第2視差情報との比較分析から得たコンポーネントを含む上記視覚差ベクトルを発生する。
(11)態様8による品質予測システムであって、上記概要手段は、閉塞(occlusion)から得たコンポーネントを含む上記知覚差ベクトルを発生する。
(12)態様8による品質予測システムであって、上記概要手段は、不一致データ分析から得たコンポーネントを含む上記知覚差ベクトルを発生する。
(13)態様8による品質予測システムであって、上記概要手段、注意分析から得たコンポーネントを含む上記知覚差ベクトルを発生する。
【図面の簡単な説明】
【0008】
【図1】本発明の実施例による立体ビデオ用の完全な基準となる本質的な品質予測器(システム)のブロック図である。
【図2】図1の立体ビデオ用の完全な基準となる本質的な品質予測システムの追加的な詳細を示すブロック図である。
【図3】立体イメージを比較するのに用いることができる処理を示す例示的な流れ図である。
【図4】図3に示す2つの別々のイメージを組合せて作成した単一の融合イメージの例を示す図である。
【図5】本発明の実施例に用いる3次元イメージの標準ビューのプレーン観察深さ及び観察角度を示す基準イメージの図である。
【発明を実施するための形態】
【0009】
本発明の概念においては、予測ピクチャ品質レーティング(評価)を行う方法を提供する。一般的に、視差測定は、3次元イメージで行い、3次元イメージの左及び右のサブコンポーネントを比較する。次に、組み合わせのため、視差測定からのデータを用いて、3次元イメージの左及び右のサブコンポーネントを2次元イメージに組合せる(融合する)。この2次元イメージに基づいて予測品質測定を行うが、これは、元の3次元イメージに関する品質情報を含んでいる。
【0010】
本発明の他の概念は、基準立体ビデオに対する試験立体ビデオの品質を予測する品質予測システムを提供する。この予測システムは、試験3次元イメージ及び基準3次元イメージを受ける入力手段を含んでいる。これら3次元イメージ・ビデオの左及び右のコンポーネントは、比較器により別々に比較され、視差測定が行われる。融合器は、比較によるデータを用いて、3次元イメージの左及び右の要素を2次元イメージに夫々組合せる。次に、ピクチャ品質アナライザを用いて、2次元イメージに基づくピクチャ品質予測、即ち、測定を行う。さらに、概要(summary)ファシリティ(手段)は、品質予測システムの最終出力内に3次元比較の情報を含める。
【実施例】
【0011】
今まで放送に用いた立体ビデオ表現の最も一般的な方法は、(公知のMPEG−2又はH.264標準を用いて)並んで伝送された、又は、分離された別々のチャネル(マルチビュー・ビデオ・コーディング、即ち、H.264のMVC)で伝送された左右又は上下のビデオ・ビューを分離する。代わりに、他のチャネルの対応する深さマップも有する一つのチャネルで(即ち、1つのチャネルで2つのチャネル分の伝送ができるように、MVCの適応が可能ならば)2Dフレームを伝送してもよい。前者の方法(左及び右を分離する方法)を用いて、本発明のシステムの概要を説明するが、後者の方法(2Dフレーム+チャネルの深さによるビデオ表現)でも本発明の要旨を用いて測定ができる。
【0012】
本発明の実施例は、2Dの現在の解決法と両立性のある予測品質レーティングを行うスケール調整可能な(高精度に対するイメージ分解能、フレーム・レート、実時間が調整可能な)方法を提供する。すなわち、フレーム当たり及びシーケンス当たりが1つのスカラー測定基準、即ち、DMOS予測となり、3D試験ビデオ及び3D基準ビデオの間の本質的な差平均オピニオン・スコアが得られる。
【0013】
図1は、本発明の実施例による立体ビデオ用の完全な基準である本質的品質予測器(予測システム)10のブロック図である。品質予測器10は、3Dイメージ即ち3Dビデオである基準イメージ及び試験イメージ用の2つの分離入力手段12及び14を有する。本願を通して、用語「3Dイメージ」(単数又は複数)の用いる際には、静的イメージ及びビデオ(動的)イメージの両方を含むことを理解されたい。3Dイメージの各々は、図示の如く、左コンポーネント及び右コンポーネントの両方を含む。
【0014】
一般的な意味で、詳細に後述するように、最初の測定は、アナライザである評価(アセスメント)ブロック22、24の各々にて3Dイメージの各々に対して別々に行う。次に、基準イメージ及び試験イメージの各々の左コンポーネント及び右コンポーネントの各々を、融合したイメージに夫々組合せる。特に、基準イメージの左イメージ及び右イメージを融合器42にて組合せて、融合された基準イメージ52を発生し、試験イメージの左イメージ及び右イメージを融合器44にて組合せて、融合された試験イメージ54を発生する。この融合処理は、融合されたイメージ52、54を発生するのに、評価ブロック22、24の各々からのデータ(視差情報)を用いる。
【0015】
融合された基準イメージ52及び試験イメージ54は、2D品質アナライザ60の入力として供給される。この2D品質アナライザ60は、いくつかの実施例において、上述のテクトロニクス社製PQA600型、又は同様な機能を有するアナライザでもよい。アナライザ60の出力は、概要(summary)ファシリティ(手段)90に伝送される。さらに、概要ファシリティ90は、評価ブロック22、24からも入力を受ける。これら評価ブロック22、24は、3D試験イメージ及び3D基準イメージの3D状態に関する情報を概要ファシリティ90に提供する。次に、概要ファシリティ90は、3D立体イメージの予測したピクチャ品質レーティング(評価)の出力を発生する。この品質レーティングは、立体ビデオを分析するのに有用なDMOS(差平均オピニオン・スコア:Difference Mean Opinion Score)レーティング又は他のレーティングの如きものである。
【0016】
図2は、図1の立体ビデオ用の完全な基準の本質的な品質予測器(システム)の実施例200の詳細を示すブロック図である。
【0017】
品質予測器200は、3D基準イメージ入力212と3D試験イメージ入力214を受ける。これら3D入力を視差測定ブロック222、224に夫々供給する。左コンポーネント部分及び右コンポーネント部分に分かれて受けていない場合に、測定ブロック222には、分離器(入力手段)226が含まれ、この分離器226が基準イメージ入力212を左コンポーネント部分及び右コンポーネント部分に分ける。いくつかの場合に、分離は、(H.264MVCの如く)通常である。他の場合に、左チャネルは、基準イメージ入力212の左又は上の部分から取られ、右チャネルは、入力フレームの残りである。測定ブロック224は、試験イメージ214用の類似の分離器(入力手段)228を含んでいる。分離が完了すると、全部で4つのビデオ・チャネルである基準左、規準右、試験左、試験右が生じる。
【0018】
イメージ212、214の各々の左要素及び右要素は、視差測定ブロック(アナライザ)232、234に夫々入力する。これら視差測定ブロック232、234を用いて、3Dイメージ212、214のフレーム毎の視差及び不一致(ミスマッチ)を測定する。図3は、視差測定ブロック232、234で生じる処理の例を示す。
【0019】
図3は、立体イメージの左フレーム及び右フレームの例から視差データ・イメージ及び不一致データ・イメージを作成する処理300の例を示す流れ図である。処理300において、3Dイメージは、左イメージ312及び右イメージ314に既に分離している。図3に示す左イメージ312及び右イメージ314が図2の基準3Dイメージ又は試験3Dイメージの一方のみである点がここでは重要である。すなわち、図3に示す処理は、基準イメージ及び試験イメージの両方に対して行う処理であるが、図示する処理は、立体イメージ(基準イメージ及び試験イメージ)の一方のみの処理である。
【0020】
インターネットのwww.research.microsoft.comから入手可能なマイクロソフト・テクニカル・レポートMSR−TR−2001−81であるダニエル・スチャステイン及びリチャード・スゼリスキの論文「高密度2フレーム立体一致アルゴリズムの分類及び評価(A Taxonomy and Evaluation of Dense Two-Frame Stereo Correspondence Algorithms)」(以下、テクニカル・レポートと言う)には、3次元イメージの空間的視差を測定する一般的な方法が記載されている。視差測定を行う際の一般的な処理ステップは、次のa〜dとなる。すなわち、a)ローカル・ベースで各イメージの部分の空間的マッチングを表す測定値を定量化する。b)かかる定量化から局部的な結果を集計する。c)視差を計算し/正規化する。d)視差を洗練する。
【0021】
オプション処理316、318において、左イメージ312及び右イメージ314を先ず垂直方向にダウン・サンプルする。例えば、イメージ312、314が標準HDビデオ・フレームのように垂直方向に1080ピクセルを有し水平方向に1920ピクセルを有すると、各イメージは、10×1920ピクセル・イメージにダウン・サンプルされる。これは、1対のイメージ(左及び右)を生成し、各イメージが正確に10水平ラインを有し、各水平ラインが1920ピクセルの長さとなる。
【0022】
他の1組のオプション処理320、322においては、垂直ダウン・サンプルされたイメージのラインが同様に短いラインに水平方向にダウン・サンプルされる。これは、例えば、立体イメージを評価するモニタの表示の幅が1920ピクセル未満の場合に、適切である。イメージを特定数のピクセルにダウン・サンプルする代わりに、所定の百分率、例えば、元の長さの70%の長さにダウン・サンプルしてもよい。垂直及び水平の両方向でのかかるダウン・サンプルは、システムの計算速度と全体の測定の精度との間でのトレードオフである。
【0023】
1対の処理326、328は、双方向IIRロウパス・フィルタを用いることにより、双方向IIRロウパス・フィルタ処理されたイメージを各々から減算することにより、元のイメージ又はダウン・サンプルされたイメージにてアンシャープ・マスク処理(マスキング)を行う。かかる双方向IIRロウパス・フィルタは、参照文献である米国特許出願公開第2008/0152257号明細書「ビデオ空間スケール、オフセット及びクロッピングの測定装置及び測定方法(Measuremnt Apparatus and Method of Measurement of Video Spatial Scale, Offset and Cropping)」及び米国特許出願公開第2010/0226592号明細書「イメージ位置合わせの方法及びシステム(Methods and Systems for Image Registration)」に記載されている。ここで用いる双方向IIRフィルタのフィルタ係数は、a1=1−b0である。この結果は、イメージの各々又は垂直にダウン・サンプルされたイメージ・ラインにDCライン(低周波)ラインが生じる。
【0024】
次に、処理330にて、例えば、変調された左及び右のイメージの間の差の絶対値を用いて、処理326、328からのアンシャープ・マスクされたイメージを組合せる。例えば、矩形差、相互相関、若しくは位相又はウェーブレット位相分析を用いることにより、他の技術も同様に用いることができる。実質的に、左及び右のイメージを異なる相対シフトにて比較し、局部的なマッチングの定量化の結果が各シフトとなる。
【0025】
処理340は、処理330からの差値を、上述の双方向IIRロウパス・フィルタに通過させて、連続的な局所平均を生成する。次の処理350は、視差計算/最適化を行う。典型的には、これは、イメージ部分毎のベスト・マッチを行うことにより、迅速に実行できる。例えば、立体一致がピクセルの密度で測定されると、視差計算をピクセル毎に実行できる。しかし、全てのピクセル・シフトを計算した後に、いくつかのアプリケーションではうまくいかないと思える分、シフトのグループを「滑らかさ」又は不連続性について評価できる。ノイズ、メジアン又は他のフィルタによるフィルタ処理を用いてもよい。
【0026】
処理300のこの段階にて、処理350の出力から、視差マップ又はイメージ360と、不一致マップ又はイメージ370を生成する。まず、処理350の出力の各列に対して、最小エラー値を選択し、そのデータ値を不一致イメージ370のピクセルとしてコード化する。不一致イメージ370の最上ラインは、処理350の出力の各列における最小値の選択から作り、垂直ダウン・サンプル処理316、318を補償するために、更に107回繰り返す。すなわち、不一致イメージ370の最初の108ラインが同じである。これは、元のイメージ312、314がダウン・サンプルされても、不一致イメージ370及び元の立体イメージ312、314が同じ寸法となることを確実にする。全ての最小エラー値が選択された後、これら値は、不一致イメージ370用の最大イメージ・コントラスト用に正規化される。この不一致イメージ370は、立体イメージの特定部分の3次元深さ知覚を観察者がうまく生じるかの表現として影響する。すなわち、不一致イメージ370にて明るい領域として現れる不一致の高いレベルは、観察者の頭脳内で右イメージ312及び左イメージ314がうまく融合するという課題を観察者が持っていることを示す。
【0027】
また処理350からのデータ出力から、視差イメージ360が生じる。視差イメージ360内の各ピクセルは、上述のように求まる最小エラーとするために各ピクセルが水平ラインに沿ってシフトしなければならないピクセルの数を表す。すなわち、それとは異なり、全ての列内での実際の最小比較値を得て不一致イメージ370を作る場合には、最長値が現れる各列のライン数に対応するシフトを視差イメージ360内でプロットして、視差イメージ360を作る。シフトは、本実施例にてライン数に関連し、シフト=ライン数×シフト増分+初期シフトとなる。不一致イメージ370と同様に、ラインを更に107回繰り返して視差イメージ360を作るので、そのサイズが元の左イメージ312及び右イメージ314に一致する。
【0028】
3Dビデオでの時間に伴う深さの変化の高レートと深さの極値とは、視覚的不快さに関連することが知られている。同様に、左右の不一致部分は、視覚的不快さの原因になる。よって、更に後述するように、この情報を立体イメージ品質の最終的予測の要因とすることが適切である。
【0029】
再び図2を参照する。視差測定ブロック232、234が視差データ及び不一致データを発生するように示してあるが、これら視差データ及び不一致データを図3に示す如きイメージに必ずしも生成する必要はない。
【0030】
次に、処理(融合器)242及び244の各々にて、基準フレーム212及び試験フレーム214の視差測定値を用いて、融合されたフレーム252、254を夫々生成する。融合されたイメージの例を図4に示す。ここで、融合されたイメージ410は、図3の個別の左イメージ312が右イメージ314と融合され、イメージ360のように示され計算された視差測定値を更に用いた最終結果である。融合の証が現れている融合フレーム410の特定領域420及び430を留意されたい。
【0031】
ビデオの各部分に対して、図3の処理300にて生成された視差マップを補正オフセットとして用いて、特定の基準3Dイメージ212又は試験3Dイメージ214の左又は右のチャネルを整合させる。よって、左及び右のフレームの重み付けされた和として実現された2つの「クロス・フェード」により、位置合わせ済みの左及び右のフレームが「融合」される。名目上は、クロス・フェードは、左及び右が等しく重み付けされる。すなわち、例えば、融合されたイメージ252が次のようにピクセルで構成される。
融合された[ピクセル]=左[ピクセル+オフセット(視差)×0.5]×0.5+左[ピクセル−オフセット(視差)×0.5]×0.5
【0032】
しかし、図2の融合された基準イメージ252(又は融合された試験イメージ254)の融合は、必ずしも等しい必要がない。すなわち、オプションとして、直接ユーザ制御又は注意(アテンション)モデル帰還を用いて、右又は左の目の優先度をモデル化できる。例えば、注意モデル(後述する)は、左目内の近い対象により左目が優位となり、又は、いくつかの注意を引く領域がこれに対抗することを定める。左目がより優位ならば、それにより、上述の0.5の重み付けを増やし、右目用には1の相補的重み付けを用いる。同様に、重み付けを右目が優位な場合にも適用できる。図4の融合したイメージ410は、同じ重み付けの左イメージ312及び右イメージ314(図3)を用いる融合フレームのルミナンス部分の例を示す。
【0033】
融合した基準イメージ252及び試験イメージ254を2Dビデオ品質予測システム(品質アナライザ)260に入力する。このビデオ品質予測システム260は、DMOSの単位で予測本質品質データを最終的に発生する。しかし、ビデオ品質予測システム260は、知覚差応答の有用な中間結果も生成する。これら応答は、CIECAM02{a,b}単位を用いて、百分率知覚コントラスト差と共に、オプションとしてカラー知覚差に関して得られる。CIECAM02は、CIEテクニカル・コミティー8−01が2002年に発行した既知の「カラー管理システム用のカラー・アピアランス・モデル(Color Appearance Modeling for Color Management Systems)」である。
【0034】
ビデオ品質予測システム260は、基準表示モデル262及び試験表示モデル264と共に基準ビュー・モデル266及び試験ビュー・モデル268の如く、予測結果を発生する種々のモデルを更に含んでいる。これらモデルを用いて、評価対象のビデオの観察条件に基づいて知覚出力を調整する。
【0035】
知覚差予測システム280は、基準イメージ212及び試験イメージ214の間の差の予測を行う際に、種々のモデル262、264、266及び268からの出力を得る。オプションの注意モデルは、イメージ212、214自体のフレーム内に生じる作用に基づいて最終出力予測スコアを変調する機能がある。最終的に、概要測定モジュール(概要手段)290は、上述の知覚差予測システム280が発生した情報の全てと共に、視差測定システム232、234が発生した試験不一致データと共に、1対の深さマップを組合せて、システム200の出力として、立体イメージ品質レーティングの最終予測を発生する。なお、1対の深さマップの一方が基準ビデオ用で、他方が試験ビデオ用である。
【0036】
上述のように、概要測定モジュール290が用いる1組の要因は、図5を参照して説明する発生器272、274の夫々が発生する基準深さマップ及び試験深さマップである。
【0037】
図5は、1対のオフセットされた左目及び右目からの相対距離での表示角度の例の図的参考図500である。参考図500において、左目L及び右目Rは、距離Seだけ離れるように設定されている。図5に示すように、各表示深さでの左目及び右目からのラインの交差角度は、夫々の幾何学的配置で決まる。参考図500において、3つの深さ面が示されている。これら深さ面は、標準深さ面Vdと、Vdの距離の1/2での深さ面1/2Vdと、2倍の深さ面2Vdとである。観察する任意の深さ面での任意の点にて、左目及び右目からの視線がその点にて交差しなければならない。これら視線は、種々の点にて表示面とも交差する。視界の左ラインと基準としての表示面との交差を用いて、視界の右ラインと表示面との交差をオフセットOsとして測定できる。よって、Osは、特定深さでの点に対する左イメージ及び右イメージの間の水平シフトを表す。図5において、右目に関して、Osiが無限大の点に対するシフトを表し、Os2が観察距離の2倍での点に対するシフトを表し、Oshが観察距離の半分での点に対するシフトを表す。表示面上での点に対して、Os=0であることに注意されたい。
【0038】
この関係から、右及び左の分離を深さの関数として求めることができ、逆も同様である。左(又は右)中央ラインに沿った点に対して、同様な三角形により数学的関係は次のように非常に簡単になる。
Os=Se×(深さ-Vd)/深さ・・・(式1)
【0039】
この簡単な関係は、中央ラインに対して小さな角度の他の点に対しても良好に近似できる。左(又は右)中央ラインから外れた点を含むOs用の一般的な等式は、平面スクリーン表示用の1/cos(左角度)の関数を次のように用いる。
Os=Se×(深さ-Vd)/(深さ×cos(左角度))・・・(式2)
この関係を視差(Os)及び深さの間の変換に用いることができる。
【0040】
本質的には、適切な設定の際、表示は、表示スクリーン表面(観察距離又は1Vd)と一致する面、観察者からの距離の1/2(1/2Vd)、観察距離の2倍の面(2Vd)及び無限の面を示す。Seよりも大きい視差(Os)は、「無限の向こう」である深さに対応する。この大きな視差が与えられた対象物は、一般に、典型的な観察者ではOsがSeを超える量に対応する不快を起こす。
【0041】
このSeの超過と共にパーヌム野(Panum's area)/ボリューム限界(融合限界)の他の違反は、知覚差ベクトルでの余分なコンポーネントとして、図2の立体ビデオ200用の完全な基準としての本質的な予測器でのDMOS計算に配慮(オプションとして)できる。例えば、上述の知覚差ベクトルの1つのコンポーネントとして深さの差を捉えるが、融合限界を超える視差量(不一致差で考慮された部分における)は、同様にDMOS計算での要因にできる。
【0042】
図5からの要因を用いて、対応する基準イメージ212及び試験イメージ214用の基準深さマップ及び試験深さマップを図2に示すように発生できる。深さマップに影響する要因には、イメージのサイズ(表示モデルから得る)、表示面からの距離(ビュー・モデルから得る)、基準イメージ212及び試験イメージ214の各々の左及び右のイメージの間の視差がある。次に、この試験深さマップを概要測定ブロック290に与えて、品質レーティングの標準2D予測からの既発生済みの予測を変調する。
【0043】
深さマップ差(試験−基準)及び不一致マップ差は、図2の概要の測定モジュール290により2D知覚差(CIECAM02{{a,b}}単位を用いた%知覚コントラスト差と、オプションとしてのカラー知覚差)と組合されると共に、米国特許第6829005号明細書に記載の如き技術を用いてDMOSに変換される。いくつかの実施例において、最悪のトレーニング・シーケンスからの対応値により、各知覚差(深さ及び不一致を含む)コンポーネントが正規化される。米国特許第6829005号明細書に記載のDMOS知覚方法が知覚コントラスト差のみを用いて、非常に悪いビデオの例の知覚コントラスト差に正規化する(ITU−RBT.500のシミュレーション最悪トレーニング)のに対して、この方法では、各最悪ビデオ応答によって各知覚差コンポーネントを正規化することによってベクトルを生成できる。例えば、深さで主要エラーを有する最悪のDMOSでのビデオ例(品質が劣悪であると見なせる試験ビデオ)を用いて、深さ差を正規化できる。米国特許第6829005号明細書に記載の如き技術を用いて、正規化された差ベクトルの長さを次に測定して、Sカーブ非直線性に合わせてもよい。他の実施例において、平均に正規化するよりもSカーブ非直線性に応じて、知覚差コンポーネントの各々を別々に処理してもよい。
【0044】
2Dビデオ品質予測システム260は、DMOS予測を生じる際の中間ステップとして、知覚差ベクトルを発生する。知覚差ベクトルの発生にて多数の要因を考慮するが、例としては後述のようなものである。この知覚差ベクトルは、以下の如きいくつかのコンポーネントを含んでいる。
知覚差ベクトル={pad,pbd,pcd,pdd,ped,pmd}
なお、
pad=CIECAM02カラー・アピアランス座標aでの差
pbd=CIECAM02カラー・アピアランス座標bでの差
pcd=百分率変化の単位での知覚コントラストでの差
pdd=百分率変化の単位での知覚深さでの差
ped=融合限界(深さの単位で)を超えた視差の量での差
pmd=閉塞(occlusion)からの左対右イメージの不一致、過度の融合限界、不一致欠陥、不一致ラミネーション(lamination)等での差
である。
【0045】
pddの一例は、
pdd=100%×(試験深さ−基準深さ)/基準深さ
である。
【0046】
さらに、2Dビデオ品質予測システム260が発生した知覚差ベクトルを用いると、米国特許第6829005号明細書などに記載の技術を用いて、DMOS予測を行う種々の方法がある。DMOS予測を行う例は、次のようになる。
DMOS=Sカーブ(ベクトル長(トレーニング正規化(知覚差ベクトル))
ここで、
トレーニング正規化({pad,pbd,pcd,pdd,ped,pmd}) = {(pad-JNDa)/(tpad-JNDa), (pbd-JNDb)/(tpbd-JNDb), (pcd-JNDc)/(tpcd-JNDc), (pdd-JNDd)/(tpdd-JNDd), (ped-JNDe)/(tped-JNDe), (pmd-JNDm)/(tpmd-JNDm) }
JNDa=CIECAM02a次元での丁度際立つ差であり、(例えば)約0.025
JNDb=CIECAM02b次元での丁度際立つ差であり、(例えば)約0.025
JNDc=知覚コントラスト用の丁度際立つ差であり、(例えば)約0.1%
JNDd=深さ、観察条件及び内容による丁度際立つ差であり、(例えば)約0
JNDe=深さ超過融合JNDd用の丁度際立つ差
JNDm=不一致用の丁度際立つ差であり、ほぼ、視差に変換されたJNDd
tpad=pad用の最悪トレーニング結果
tpbd=pdb用の最悪トレーニング結果
tpcd=pcd用の最悪トレーニング結果
tpdd=pdd用の最悪トレーニング結果
tped=peb用の最悪トレーニング結果
tpmd=pmd用の最悪トレーニング結果
【0047】
さらに、2Dビデオ品質予測システム260において、DMOS予測を発生する際に、知覚応答の任意の組合せを用いることができる。例えば、単にpcdを用い、0を他のコンポーネントに割り当てて、既存のテクトロニクスのPQADMOS結果に単に合わせて、ルミナンスのみのDMOSを計算できる。
【0048】
[上述の装置及び方法の変形]
図1及び図2に示した本発明の実施例の利点は、精度及び頑強性と、速度、複雑さ及び実現都合とのバランスである。さらに一層精度の高いバージョンは、著しく計算コストが高く複雑でもよければ、実現できる。この方法のバージョンにおいて、図2に示す4つのビデオ・チャネル(基準左、基準右、試験左、試験右)を先ず知覚応答(ルミナンス用の%知覚コントラストと、オプションとしてのカラー用CIECAM02{{a,b}})に変換する。これは、ビデオの本質的品質レーティングの予測を行うシングル・エンド(基準なし)バージョンにより達成できる。これは、4つの入力ビデオ・チャネルの各々の代わりに、基準入(又は、等価的に、基準時空的な適応フィルタの出力)用の全ての黒を用いる。次に、これら4つの知覚応答を用いて、上述の知覚及び不一致測定値を発生する。処理の残りは、同じか又は類似である。
【0049】
精度の改善は、主に、イメージが融合したイメージの融合の予測程度に由来する。この変動は、うまくいった融合の視覚的精度、マスキング及び他の要因を考慮したためである。
【0050】
上述の主要方法についての他の判断には、図3を参照して説明した視差の反復計算を含む。2Dビデオ品質予測システム260に用いる表示サイズ及び観察距離の情報を用いて、視差及び深さの間での変換を行う。これには、ヒステリシス処理も含む。よって、パーヌム野(ボリューム)、視差変化のレート(両眼連動レートに関連する深さ変化レートによる)に基づいて視差レンジ限界を設定する。
【0051】
散乱に基づく欠陥により「散乱」されるオプションの注意モデル284を更新して、追加の散乱として深さ差及び不一致差を含むようにしてもよい。これは、校正重み付け(一応は、知覚コントラスト差散乱)を用いて、これら差を単に加算して実現できる。実質的に、注意モデルの目的は、空間及び時間での各位置にて注意を引く可能性を見積もることである。深さ差(基準3Dビデオに対する試験)を伴う領域に注意を引く可能性は、一般的に、この差の大きさに比例する。これは、不一致差でも同様である。
【0052】
上述のように、ここで説明したのと同じ又は類似の方法を用いて、{左、右}ビデオ及び{2D、深さ}ビデオ表現の両方も測定できる。すなわち、{2D、深さ}ビデオでは、視差測定及び融合ステップを省略できる。また、不一致を0に設定する。または、深さイメージに基づくレンダリング(DIBR)方法の如き方法の空間アプリケーションを用いて、不一致を見積もることができる。例えば、閉塞による不一致を次のように迅速に見積もることができる。
1)大きな深さ勾配を検索する。
2)DIBR(又は類似の方法)を用いて、局部的な(サブ・イメージ)左及び右ビューの見積りを行う。
3)図3を参照して説明したのと同じ又は類似の方法を用いて、これらの間の不一致を計算する。
【0053】
本発明の特定実施例について説明したが、本発明の要旨は、これら実施例に限定されるものではないことが明らかであろう。本発明の要旨を逸脱することなく、種々の変形変更が可能である。
【符号の説明】
【0054】
10 予測システム
12 第2入力手段
14 第1入力手段
22 評価ブロック(第2アナライザ)
24 評価ブロック(第1アナライザ)
42 第2融合器
44 第1融合器
60 2D品質アナライザ
90 概要ファシリティ(概要手段)
200 品質予測器
222、224 視差測定ブロック
226 分離器(第2入力手段)
228 分離器(第1入力手段)
232 視差測定ブロック(第2アナライザ)
234 視差測定ブロック(第1アナライザ)
242 第2融合器
244 第1融合器
260 2Dビデオ品質予測システム(品質アナライザ)
262 基準表示モデル
264 試験表示モデル
266 基準ビュー・モデル
268 試験ビュー・モデル
272、274 発生器
280 知覚差予測システム
284 注意モデル
290 概要測定モジュール(概要手段)
316、318 垂直ダウン・サンプル処理
320、322 水平ダウン・サンプル処理
326、328 双方向IIRアンシャープ・マスキング処理
330 差の絶対値処理
340 双方向IIR局所平均処理
350 視差計算/最適化処理

【特許請求の範囲】
【請求項1】
基準3次元ビデオに対する試験3次元ビデオの品質を予測する品質予測システムであって、
左コンポーネント及び右コンポーネントを含む試験3次元ビデオを受ける第1入力手段と、
左コンポーネント及び右コンポーネントを含む基準3次元ビデオを受ける第2入力手段と、
上記試験3次元ビデオの上記右コンポーネントに対する上記試験3次元ビデオの上記左コンポーネントの比較に関する第1視差情報を発生する第1アナライザと、
上記基準3次元ビデオの上記右コンポーネントに対する上記基準3次元ビデオの上記左コンポーネントの比較に関する第2視差情報を発生する第2アナライザと、
上記第1アナライザからの上記視差情報を用いて上記試験3次元ビデオの上記左コンポーネント及び上記右コンポーネントを組合せて、融合した2次元試験ビデオを生成する第1融合器と、
上記第2アナライザからの上記視差情報を用いて上記基準3次元ビデオの上記左コンポーネント及び上記右コンポーネントを組合せて、融合した2次元基準ビデオを生成する第2融合器と、
上記2次元基準ビデオを上記2次元試験ビデオと比較して、第1予測品質評価値を発生する品質アナライザと、
上記品質アナライザに結合し、上記第1及び第2アナライザからの得た情報により上記第1予測品質評価値を変調して、上記基準3次元ビデオに対する上記試験3次元ビデオの比較の予測品質評価値を発生する概要手段と
を具えた3次元ビデオの品質予測システム。

【図1】
image rotate

【図2】
image rotate

【図5】
image rotate

【図3】
image rotate

【図4】
image rotate


【公開番号】特開2012−227916(P2012−227916A)
【公開日】平成24年11月15日(2012.11.15)
【国際特許分類】
【出願番号】特願2012−69525(P2012−69525)
【出願日】平成24年3月26日(2012.3.26)
【出願人】(391002340)テクトロニクス・インコーポレイテッド (234)
【氏名又は名称原語表記】TEKTRONIX,INC.
【Fターム(参考)】