説明

画像シーケンスの関心領域に基づくアーティファクト低減のためのシステム及び方法

画像内のアーティファクトを低減するシステム及び方法は、ユーザ・フィードバックを効率的に取り入れ、ユーザの努力を最小化し、及び適応して画像を処理するようにする。例示的な一実施形態によると、方法は、アルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、前記第2の領域を示した第2のフレームを表示するステップと、前記第2の領域内の第3の領域を定める第1のユーザ入力を受信するステップと、前記アルゴリズムを実行して前記第2の領域内であって前記第3の領域以外のアーティファクトを除去するステップと、を含む。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、概してデジタル画像処理及びディスプレイ・システムに関し、より詳細には、特にユーザ・フィードバックを効率的に組み込み、ユーザの努力を最小化し及び適応して画像を処理する、画像内のアーティファクトを低減するシステム及び方法に関する。
【背景技術】
【0002】
画像アーティファクトは、デジタル画像又はフィルム内の画像シーケンスのような画像の処理中に気付かれる。一般的なアーティファクト現象はバンディング(誤った輪郭としても知られる)であり、強度及び色レベルの変化する筋(band)が画像の元の円滑な線形遷移領域で表示されるものである。色補正、スケーリング、色空間変換及び圧縮のような処理は、バンディング効果を導入しうる。バンディングは、画像が人間により作り出され高周波数成分及び最小雑音を有するアニメーション素材で最も高頻度に見られる。限られた帯域幅のどんな処理も、エイリアス、「リンギング」又はバンディングをやむを得ず生じてしまう。
【0003】
既存の画像処理システムは、標準的に低レベル特徴に基づき画像を処理する。このようなシステムでは、大部分の人間の相互作用は、処理パラメータの初期設定を含む。処理の後、結果はユーザ/オペレータにより評価される。所望の結果が達成されない場合、新しいパラメータが用いられ画像を再処理してもよい。ビデオ処理では、膨大な数のフレームを処理する必要があるため、この手法は甚大な努力を必要とする。既存のビデオ処理システムでは、同じ初期設定が、通常全てのビデオ・フレームに適用される。しかしながら、処理中にエラーが生じた場合、処理は取り消され、ユーザは新しいパラメータを再入力することにより処理を再開しうる。これらの種類の既存のシステムは、最適ではなく、ユーザにとって非常に不便でありうる。さらに、これらのシステムは、ユーザ・フィードバック情報を処理の実行中に適切に取り入れることができない。
【0004】
したがって、画像内のアーティファクトを低減する、前述の問題を解決するシステム及び方法が必要である。本願明細書に記載される本発明は、上述の及び/又は他の問題を解決し、画像内のアーティファクトを低減する、特にユーザ・フィードバックを効率的に組み込み、ユーザの努力を最小化し、画像を適応して処理するシステム及び方法を提供する。
【発明の概要】
【0005】
本発明の一態様によると、複数のフレームを有する動画を処理する方法が開示される。例示的な実施形態によると、この方法は、アルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、前記第2の領域を示した第2のフレームを表示するステップと、前記第2の領域内の第3の領域を定める第1のユーザ入力を受信するステップと、前記アルゴリズムを実行して前記第2の領域内であって前記第3の領域以外のアーティファクトを除去するステップと、を含む。
【0006】
本発明の別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、アルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、前記第2の領域を示した第2のフレームを表示するステップと、第3の領域を定める第1のユーザ入力を受信するステップと、前記アルゴリズムを実行して前記第2の領域及び前記第3の領域により形成される結合領域内のアーティファクトを除去するステップと、を含む。
【0007】
本発明の更に別の態様によると、複数のフレームを有する動画を処理するシステムが開示される。例示的な実施形態によると、システムは、第1の手段であって、アルゴリズムを有するデータを格納するメモリ等、第2の手段であって、前記アルゴリズムを実行し第1のフレームの第1の領域内のアーティファクトを除去し、該第1の領域の外側の領域は影響を受けない、プロセッサ等、を備える。前記第2の手段は、前記第1のフレームに続く第2のフレームの第2の領域を識別し、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する。前記第2の手段は、前記第2の領域を示した第2のフレームを表示させる。前記第2の手段は、前記第2の領域の内側の第3の領域を定める第1のユーザ入力を受信し、前記アルゴリズムを実行して前記第2の領域内であって前記第3の領域以外のアーティファクトを除去する。
【0008】
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別のシステムが開示される。例示的な実施形態によると、システムは、第1の手段であって、アルゴリズムを有するデータを格納するメモリ等、第2の手段であって、前記アルゴリズムを実行し第1のフレームの第1の領域内のアーティファクトを除去し、該第1の領域の外側の領域は影響を受けない、プロセッサ等、を備える。前記第2の手段は、前記第1のフレームに続く第2のフレームの第2の領域を識別し、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する。前記第2の手段は、前記第2の領域を示した第2のフレームを表示させる。前記第2の手段は、前記第2の領域の内側の第3の領域を定める第1のユーザ入力を受信し、前記アルゴリズムを実行して前記第2の領域及び前記第3の領域により形成される結合領域内のアーティファクトを除去する。
【0009】
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、第1の領域を示したフレームを表示するステップであって、該第1の領域は前のフレームからトラッキングされる、前記ステップと、前記第1の領域内の第2の領域を定めるユーザ入力を受信するステップと、アルゴリズムを実行して前記第1の領域内であって前記第2の領域以外のアーティファクトを除去するステップと、を含む。
【0010】
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、第1の領域を示したフレームを表示するステップであって、該第1の領域は前のフレームからトラッキングされる、前記ステップと、前記第1の領域内の第2の領域を定めるユーザ入力を受信するステップと、アルゴリズムを実行して前記第1の領域及び前記第2の領域により形成される結合領域内のアーティファクトを除去するステップと、を含む。
【0011】
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、第1のアルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、前記第2の領域を示した第2のフレームを表示するステップと、前記第2の領域の内側の第3の領域を定めるユーザ入力を受信するステップと、前記第1のアルゴリズムと異なる第2のアルゴリズムを実行して前記第2の領域内であって前記第3の領域以外のアーティファクトを除去するステップと、を含む。
【0012】
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、第1のアルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、前記第2の領域を示した第2のフレームを表示するステップと、前記第2の領域の内側の第3の領域を定めるユーザ入力を受信するステップと、前記第1のアルゴリズムと異なる第2のアルゴリズムを実行して前記第2の領域及び前記第3の領域により形成される結合領域内のアーティファクトを除去するステップと、を含む。
【0013】
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、第1のパラメータを用いてアルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、前記第2の領域を示した第2のフレームを表示するステップと、前記第2の領域の内側の第3の領域を定める第1のユーザ入力を受信するステップと、前記第1のパラメータと異なる第2のパラメータを用いて前記アルゴリズムを実行して前記第2の領域内であって前記第3の領域以外のアーティファクトを除去するステップと、を含む。
【0014】
本発明の更に別の態様によると、複数のフレームを有する動画を処理する別の方法が開示される。例示的な実施形態によると、方法は、第1のパラメータを用いてアルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、前記第2の領域を示した第2のフレームを表示するステップと、第3の領域を定める第1のユーザ入力を受信するステップと、前記第1のパラメータと異なる第2のパラメータを用いて前記アルゴリズムを実行して前記第2の領域及び前記第3の領域により形成される結合領域内のアーティファクトを除去するステップと、を含む。
【0015】
本発明の実施形態の以下の記載を添付の図面とともに参照することにより、本発明の上述の及び他の特徴及び利点並びにそれらを達成する方法は一層明らかになり、本発明は良好に理解されるだろう。
【図面の簡単な説明】
【0016】
【図1】本発明の例示的な実施形態による画像内のアーティファクトを低減するシステムのブロック図である。
【図2】本発明の例示的な実施形態による図1のスマート・カーネルの更なる詳細を提供するブロック図である。
【図3】本発明の例示的な実施形態による画像内のアーティファクトを低減するステップを示すフローチャートである。
【図4】本発明の例示的な実施形態による最初に選択された関心領域を示す図である。
【図5】本発明の例示的な実施形態によりどのようにユーザが関心領域を修正するかを示す図である。
【図6】本発明の別の例示的な実施形態によりどのようにユーザが関心領域を修正するかを示す図である。
【発明を実施するための形態】
【0017】
本願明細書に説明される適例は本発明の好適な実施形態を示し、これらの適例は本発明の範囲をいかなる方法によっても限定すると見なされない。
【0018】
図中の要素は種々の形式のハードウェア、ソフトウェア又はそれらの組み合わせで実施されてもよいことが理解される。望ましくは、これらの要素は、ハードウェア及びソフトウェアの組み合わせで、1又は複数の適切にプログラムされた汎用装置に実施される。該汎用装置は、プロセッサ、メモリ及び入力/出力インタフェースを含みうる。
【0019】
本願明細書の記載は、本発明の原理を説明する。したがって、当業者は種々のアレンジを考案できることが理解される。これらのアレンジは、本願明細書に明示的に記載又は示されないが本発明の原理を具現化し本発明の精神と範囲に包含される。
【0020】
本願明細書に記載された全ての例及び条件文は、教育上の目的で、読者が本発明の原理及び発明者により考案された概念を理解するのを助け、技術を促進させるためであり、これらの特に記載された例及び条件に限定されないものと考えられるべきである。
【0021】
さらに、本発明の原理、態様及び実施形態、並びにそれらの特定の例を引用する本願明細書の全ての記載は、それらの構造的及び機能的等価物の両方を包含すると考えられる。さらに、このような等価物は、現在知られている等価物及び将来に開発される等価物、つまり任意の開発される要素であって同一の機能を実行するものを構造に関係なく包含すると考えられる。
【0022】
したがって、例えば、当業者により、本願明細書で提示されるブロック図は本発明の原理を具現化する説明のための回路の概念図を提示するものであることが理解される。同様に、どんなフローチャート、フロー図、状態遷移図、擬似コード等も種々の処理を表し、コンピュータ可読媒体に実質的に表現されてもよく、したがってコンピュータ又はプロセッサにより実行されてもよく、該コンピュータ又はプロセッサが明示されているか否かを問題としないことが理解される。
【0023】
図中に示された種々の要素の機能は、専用ハードウェア及び適切なソフトウェアと関連してソフトウェアを実行可能なハードウェアの使用を通じて提供されうる。プロセッサにより提供される場合、機能は、単一の専用プロセッサにより、単一の共有プロセッサにより又は複数の個別のプロセッサであって一部が共有されうるものにより提供されてもよい。さらに、用語「プロセッサ」又は「制御部」の明示的な使用は、ソフトウェアを実行可能なハードウェアを排他的に表すと考えられるべきではなく、デジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを格納する読み出し専用メモリ(「ROM」)、ランダム・アクセス・メモリ(「RAM」)及び不揮発性記憶装置を黙示的に包含するがこれらに限定されない。
【0024】
他のハードウェア、つまり従来及び/又はカスタムのものも含まれてもよい。同様に、図中に示されるどんなスイッチも単に概念的なものである。それらの機能は、プログラム・ロジックの動作を通じて、専用ロジックを通じて、プログラム制御及び専用ロジックの相互作用を通じて、又は手動でも実行されてもよく、特定の技術は文脈から更に詳細に理解されるように実施者により選択可能である。
【0025】
本願の特許請求の範囲では、特定の機能を実行する手段として表現された任意の要素は該機能を実行するどんな方法も包含すると考えられ、例えば(a)回路要素の組み合わせであって該機能を実行するもの、(b)任意の形式のソフトウェアであって、したがってファームウェア、マイクロコード等であって該ソフトウェアを実行して該機能を実行する適切な回路と組み合わされたものを含む。特許請求の範囲により定められる本発明は、種々の記載された手段により提供される機能が請求項の請求する方法で組み合わされ一緒にされるという事実にある。したがって、これらの機能を提供しうるどんな手段も本願明細書に示された手段と等価であると考えられる。
【0026】
大部分の既存の画像処理技術は画像ピクセルのレベルで動作し、低レベルの特徴、例えば明度及び色情報等を用いる。これらの技術の殆どは、空間的相関に基づく統計的モデルを用いて良好な結果を達成する。画像の複数のフレームが利用可能な場合、画像処理結果を向上させるためにフレーム相関を用いることもできる。しかしながら、画像処理は低レベルの画像特徴に基づくので、画像処理は多くの場合、存在するアーティファクトを除去することができないばかりか、更なるアーティファクトを画像に導入してしまう。意味内容(セマンティック・コンテンツ)に基づく画像処理は依然として今日も課題である。
【0027】
関心領域(Region of interest:ROI)に基づく画像処理は、アーティファクト又は変更の必要な望ましくない特徴を有する画像の特定領域に画像処理を適用する。画像の一部を選択的に処理することにより、ROIは伝統的な画像処理技術よりも良好な結果を達成できる。しかしながら、どのように関心領域をロバスト且つ効率的な方法で識別するかという未解決の問題が依然として存在する。自動的な手法は、色、輝度情報を用い、特定の特徴又は該特徴の変化を分割又は検出する。一式の特徴に基づき画像が領域に分類され、大部分の特徴を有する領域は関心領域として分類される。デジタルの中間物又はデジタル・ビデオ処理では、領域検出は、アーティファクト、例えばちらつき及びぼけ等を回避するためにフレームに渡って一貫している必要がある。領域は、多くの場合、方形又は多角形として定められる。幾つかのアプリケーション、例えば領域に基づく色補正及び2D画像からの奥行きマップ回復(recovery)等では、領域の境界はピクセル的な精度で正確に定められる必要がある。
【0028】
セマンティック・オブジェクトは領域のセットであり、セマンティックの意味(semantic meaning)を人間に提示する。標準的に、領域のセットは一般的な低レベルの特徴を共有する。例えば、空の領域は飽和した青い色を有するだろう。車の領域は同様の動きを有するだろう。しかしながら、時には、セマンティック・オブジェクトは低レベルの特徴において明らかな類似性を有しない領域を含む。したがって、セマンティック・オブジェクトを生成するために領域のセットをグループ化することは、多くの場合、所望の目的を達成できない。これは、人間の脳の処理とコンピュータに基づく画像処理との間の根本的な相違から生じる。人間はセマンティック・オブジェクトを識別するために知識を用いるが、コンピュータに基づく画像処理は低レベルの特徴に基づく。セマンティック・オブジェクトの使用は、ROIに基づく画像処理を多くの点で有意に向上する。しかしながら、セマンティック・オブジェクトを効率的に識別する方法は困難である。
【0029】
本発明の原理によると、人間の知識とコンピュータに基づく画像処理を統合して良好な結果を達成する解決策(例えば、半自動又はユーザ支援型手法)が提供される。この方法では、人間の相互作用はコンピュータに基づく画像処理に知的指針を提供でき、それにより良好な結果を達成する。人間とコンピュータは異なる分野で活動するので、どのように人間の知識をコンピュータにマッピングし、人間の相互作用の効率を最大化するかという課題がある。人的資源のコストは増大しており、一方でコンピュータの処理能力のコストは減少している。したがって、人間の相互作用とコンピュータに基づく画像処理を統合する効率的なツールは、良好な画像品質を生成し低コストの利益を有することが必要などんなビジネスにとっても非常に貴重なツールである。
【0030】
現在、殆どのソフトウェア・ツールは、グラフィック・ユーザ・インタフェースを処理パラメータの初期設定のために提供し、最終処理が開始される前に結果をプレビューする。ユーザは、結果が満足のいくものではなく同一の処理を再び繰り返すときは、常に停止できる。しかしながら、これら現在のシステムでは、ユーザ・フィードバックを分析し及びそれにシステムを適応することにより処理を向上させるフィードバック機構が存在しない。したがって、ユーザがしきりに新しいパラメータ・セットで処理を再開する場合には、ユーザ相互作用は非常に非効率になる。
【0031】
図、特に図1を参照すると、本発明の例示的な実施形態による画像内のアーティファクトを低減するシステム100のブロック図が示される。図1では、走査装置103は、フィルム・プリント104、例えばカメラのオリジナル・ネガフィルムを走査してデジタル・フォーマット、例えばCineonフォーマット又はSMPTE DPXファイルにするために設けられてもよい。走査装置103は、例えばテレシネ又はフィルム、例えばビデオ出力を有するArriLocPro(登録商標)等からビデオ出力を生成する任意の装置を有してもよい。代替として、撮影後の編集作業又はデジタル・シネマ(例えば、既にコンピュータ可読形式のファイル)からのデジタル・フィルム画像106を表すファイルを直接用いることもできる。コンピュータ可読ファイルの可能性のあるソースは、AVID(登録商標)エディタ、DPXファイル、D5テープ等である。
【0032】
走査されたフィルム・プリントは、ポストプロセス装置102、例えばコンピュータに入力される。ポストプロセス装置102は種々の知られたいかなるコンピュータ・プラットフォームにも実装され、1又は複数の中央処理装置(CPU)のようなハードウェア、ランダム・アクセス・メモリ(RAM)及び/又は読み出し専用メモリ(ROM)のようなメモリ110、並びにキーボード、カーソル制御装置(例えば、マウス、ジョイスティック等)及びディスプレイ装置のような入力/出力(I/O)ユーザ・インタフェース112を有する。コンピュータ・プラットフォームは、オペレーティング・システム及びマイクロ命令コードも有する。本願明細書に記載される種々の処理及び機能は、マイクロ命令コードの一部又はソフトウェア・アプリケーション・プログラムの一部(又はそれらの組み合わせ)のいずれかであってもよく、それらはオペレーティング・システムを介して実行される。さらに、種々の他の周辺装置は、コンピュータ・プラットフォームに、種々のインタフェース及びバス構造、例えばパラレル・ポート、シリアル・ポート又はユニバーサル・シリアル・バス(USB)等により接続されてもよい。他の周辺装置は、1又は複数の追加の記憶装置124及びフィルム・プリンタ128を有してもよい。フィルム・プリンタ128は、フィルム126の改訂又はマークアップ版、例えばフィルムの立体像版を印刷するために用いられてもよい。ポストプロセス装置102は、圧縮フィルム130も生成してもよい。
【0033】
代替として、既にコンピュータ可読形式のファイル/フィルム・プリント106(例えばデジタル・シネマ、これは例えば外付けハードディスク・ドライブ124に格納されてもよい)は、ポストプロセス装置102に直接入力されてもよい。本願明細書で用いられる用語「フィルム」は、フィルム・プリント又はデジタル・シネマのどちらも表すことができることに留意する。
【0034】
ソフトウェア・プログラムは、メモリ110内に格納された誤差拡散モジュール114を有し、画像内のアーティファクトを低減する。誤差拡散モジュール114は雑音又は信号生成器116を有し、信号を生成して画像内のアーティファクトをマスクする。雑音信号は、白色雑音、ガウス雑音、異なるカットオフ周波数フィルタで変調された白色雑音等でありうる。トランケーション・モジュール118が設けられ、画像のブロックの量子化誤差を特定する。誤差拡散モジュール114は、誤差分布モジュール120も有する。誤差分布モジュール120は、量子化誤差を近隣のブロックに分布するよう構成される。
【0035】
トラッキング・モジュール132が設けられ、シーンの数フレームを通じて1つのROIをトラッキングする。トラッキング・モジュール132は、マスク生成器134を有する。マスク生成器134は、所与のビデオ・シーケンスの各画像又はフレームのためにバイナリ・マスクを生成する。バイナリ・マスクは、画像内の定められたROIから、例えばROIを囲むように線が引かれたユーザの入力した多角形により又は自動検出アルゴリズム若しくは機能により生成される。バイナリ・マスクは、ピクセル値1又は0を有する画像である。ROI内の全てのピクセルは値1を有し、他のピクセルは値0を有する。トラッキング・モジュール132は、トラッキング・モデル136を有する。トラッキング・モデル136は、ROIのトラッキング情報をある画像から別の画像へと、例えば所与のビデオ・シーケンスのフレーム間で推定する。
【0036】
トラッキング・モジュール132は、スマート・カーネル138を更に有する。スマート・カーネル138は、ユーザ・フィードバックを解釈して実際の画像内容に適応するよう動作する。例示的な実施形態によると、スマート・カーネル138は、画像処理アルゴリズム及びそれに対応するパラメータをユーザの入力及び画像内に内在する領域の分析に基づき自動的に修正し、それにより良好な画像処理結果を提供する。この方法で、本発明は、ユーザの操作を簡略化し、システム100が満足のいく結果を生成できなかったときに処理を再開しなければならないユーザの負荷を軽減できる。画像の処理を該画像の実際の内容及びユーザ・フィードバックに適応させることにより、本発明は一層効率的な画像処理を強靱且つ優れた画像品質とともに提供する。スマート・カーネル138に関する更なる詳細は、本願明細書に後述される。図1には、エンコーダ122も設けられる。エンコーダ122は、出力画像を任意の知られた圧縮規格、例えばMPEG1、MPEG2、MPEG4、H.264等にエンコードする。
【0037】
図2を参照すると、ブロック図は、本発明の例示的な実施形態による図1のスマート・カーネル138の更なる詳細を提供する。本発明の原理によると、ユーザ・インタフェース112によって、ユーザがスマート・カーネル138に入力できるようにする。また、ユーザ・インタフェース112は、直感的に理解できるユーザ・インタフェースであり、画像処理の詳細な知識を有しないユーザが効率的に操作することができる。特に、ユーザ・インタフェース112は、ユーザに、画像処理が満足のいく結果を生成できなかった問題のある領域(つまり、関心領域)を識別させる。
【0038】
図2に示されるように、スマート・カーネル138は画像分析モジュール140、修正アルゴリズム・モジュール142及び修正パラメータ・モジュール144を有する。例示的な実施形態によると、ユーザが画像処理後に満足のいかない関心領域(ROI)を識別すると、スマート・カーネル138は、ユーザ・フィードバック情報を受信し、内部パラメータ及び処理ステップをそれに応答して修正できる。スマート・カーネル138の機能は次の通りである。
【0039】
先ず、画像分析モジュール140は、前述のユーザ・フィードバック情報に基づき画像内容を分析し、不満足な処理結果を有する1又は複数の関心領域を特徴付ける(つまり、定める)。1又は複数の関心領域が分析されると、スマート・カーネル138は、アルゴリズム及び/又はパラメータをモジュール142及び144をそれぞれ介して修正できる。例えば、幾つかの領域トラッキング・アルゴリズムは、システム100により用いられ、関心領域を定める1又は複数の領域のセットをトラッキングしうる(例えば、輪郭に基づくトラッカー、特徴点に基づくトラッカー、テクスチャに基づくトラッカー、色に基づくトラッカー等)。トラッキングされる領域の特徴(つまり、画像分析モジュール140の出力結果)に依存して、修正アルゴリズム・モジュール142は、最も適切なトラッキング方法を設計選択に従い選択する。例えば、初期の関心領域が人の顔であるが、後にユーザが関心領域(ROI)の修正を人の髪を追加することにより決めた場合、スマート・カーネル138の修正アルゴリズム・モジュール142は、色に基づくトラッカーから輪郭に基づくトラッカーに切り替えることができる(つまり、顔と髪とがもはや同種の色ではない場合)。
【0040】
さらに、修正アルゴリズム・モジュール142がトラッキング・アルゴリズムを変更しない場合でも、上述のように、スマート・カーネル138の修正パラメータ・モジュール144は、トラッキング・パラメータを変更すると決定してもよい。例えば、初期の関心領域が青い空であり、ユーザが後に関心領域(ROI)を白い雲を青い空に追加することにより修正すると決定した場合、修正アルゴリズム・モジュール142は、色に基づくトラッカーを使い続けてもよいが、修正パラメータ・モジュール144はトラッキング・パラメータを変更して青と白の両方を(つまり青のみに代えて)トラッキングしてもよい。図2に示されるように、スマート・カーネル138からの出力は画像処理(つまり、トラッキング処理)のためにブロック146で提供される。
【0041】
図3を参照すると、フローチャート300は、本発明の例示的な実施形態による画像内のアーティファクトを低減するステップを説明する。例及び説明を目的として、図3のステップは、図1のシステム100の特定の要素に関連して記載される。しかしながら、図3のステップは、スマート・カーネル138により上述のように進められることが直感的に理解される。図3のステップは、単なる例であり、本発明の用途をいかなる方法によっても限定することを意図しない。
【0042】
ステップ310で、ユーザは初期の関心領域(ROI)をビデオ・シーケンスの所与のフレーム内で選択する。例示的な実施形態によると、ユーザは、トラッキング・エラーが存在する初期のROIの外形を描くために、ステップ310でマウス及び/又はユーザ・インタフェース112の他の要素を用いることができる。図4は、ステップ310で選択されうる例示的なROI(つまり、R)を示す。図4に表された簡易なユーザ・インタフェースは、ステップ310でユーザにROIを直感的に識別させる。本発明の原理によると、ステップ310で選択された(及び後続のフレームのために修正されうる)ROIは、除去される必要のある(例えば、トラッキング・アルゴリズムを介してマスキング信号を用いて)アーティファクトが存在する領域を表す。
【0043】
ステップ320で、ROI(このROIのどんな修正も含む)は、所与のビデオ・シーケンスの次のフレームまでトラッキングされる。例示的な実施形態によると、ROIをトラッキングするために、2Dアフィン運動モデルがステップ320で用いられうる。トラッキングのモデル化は次のように表現できる。
x’=ax+by+c
y’=ax+by+c (1)
ここで、(x,y)は前のフレーム内のトラッキング領域R内のピクセル位置であり、(x’,y’)は現在のフレーム内のトラッキング領域R’内の対応するピクセル位置であり、(a,b,c,a,b,c)は一定係数である。前のフレーム内の領域Rが与えられると、現在のフレーム内の領域R’の最良の一致は、強度差の二乗平均誤差を最小化することにより見つけることができる。
【0044】
例示的な実施形態によると、ステップ320のトラッキング処理は、ROIからアーティファクトを除去し(例えばマスキング信号を介して)、同時にフレームの残りの領域に影響を与えないように設計されたアルゴリズムの一部である。特に、システム100は、フレームの所与のビデオ・シーケンス内のアーティファクトをトラッキング及び除去するよう設計される。効率的にアーティファクトを除去するために、ROIが識別され、マスキング信号がその特定領域に追加されてアーティファクトをマスクする。システム100は多数のフレームにわたりROIをトラッキングするために動き情報を用いる。
【0045】
ステップ330で、ステップ320のトラッキング結果はユーザによる評価のために表示される。ステップ340で、ユーザは現在のROIを修正する選択肢を提供される。例示的な実施形態によると、ユーザは、ステップ340で、1又は複数の領域を現在のROIに追加及び/又はそれから除去することを、彼/彼女がステップ330で表示されたトラッキング結果の中にトラッキング・エラーを検出したか否かに基づいて決定する。
【0046】
ステップ340での決定が肯定的である場合、処理フローはステップ350へ進む。ステップ350で、1又は複数の領域は、ユーザ・インタフェース112を介したユーザ入力に応答して現在のROIに追加及び/又はそれから除去される。図5に示す例では、ユーザが領域R’をトラッキング領域R’から除去することを選択している。図6に示す例では、ユーザが領域R’をトラッキング領域R’に追加することを選択している。
【0047】
ステップ350から又はステップ340での決定が否定的である場合、処理フローはステップ360へ進む。ステップ360で、トラッキング処理が停止されるべきか否かに関する決定が行われる。例示的な実施形態によると、ステップ360で、ユーザは、彼/彼女の判断で、1又は複数の所定の入力をユーザ・インタフェース112を介して提供することにより、トラッキング処理を手動で停止できる。代替として、トラッキング処理は、所与のビデオ・シーケンスの終わりに達したときにステップ360で停止してもよい。
【0048】
ステップ360での決定が否定的である場合、処理フローはステップ370へ進む。ステップ370で、処理は所与のビデオ・シーケンス内の次のフレームに進む。ステップ370から、処理フローは上述したようなステップ320へループ・バックする。ステップ340及び350でユーザがROIを修正することを選択したとすると、ステップ320で、修正されたROIは所与のビデオ・シーケンス内の次のフレームまでトラッキングされる。例えば、図5で、領域R’がユーザにより識別された場合、領域は、ステップ320で上述されたのと同一の処理により次のフレームのR’の領域内でトラッキングされるだろう。したがって、フレームに対する最終的なトラッキング領域は、次のように表現される。
【0049】
【数1】

ここで、最終的なトラッキング領域Rは、領域R’から領域R’内のピクセルを除去したものである。
【0050】
同様に、図6の例では、領域Rがユーザにより追加され、領域は、ステップ320で上述されたのと同一の処理により次のフレームのR’領域内でトラッキングされるだろう。したがって、フレームに対する最終的なトラッキング領域は、次のように表現される。
【0051】
【数2】

ここで、最終的なトラッキング領域Rは、領域R’に領域R’内のピクセルが追加されたものである。図3のステップは、ステップ360で肯定的な決定が行われるまで繰り返されてもよい。この場合には、ステップ380で、最終的なROIは所与のビデオ・シーケンス内のトラッキングされたフレームのそれぞれに対して生成(及び格納)される。ステップ390で処理は終了する。特に本発明の前述の原理がどのように実施されうるかについて検討された例は、本願の種々の従属請求項に表現される。また、これらの従属請求項の主題は、参照されることによりそれらの全体が本願明細書の本文に組み込まれる。
【0052】
ユーザがROIを識別するのを助けるために、現在のROIは明確にマーク付けされる。例えば、ROIは赤のような特定の所定の色で表示され、ユーザ入力に応答してユーザにより選択可能であってもよい。ユーザ入力はユーザ・インタフェースのキーを押下することにより生成されてもよい。特定の所定の色は、同一の又は異なるユーザ入力に応答して除去されうる。ROIが特定の所定の色で表示されるとき、ROI内に含まれる領域は、ユーザによりROIから除外されるべきであると識別され、特定の所定の色と異なるユーザの選択した色で表示されるべきである。ユーザにより指定された領域がROIの外側にあるとき又はROIと重なり合っている場合、ROIの外側の部分は、ROIと結合され新たなROIを形成するものと考えられ、特定の所定の色で表示されるべきである。特定の所定の色が除去されるとき、削除された領域を示すために選択された色も除去される。
【0053】
上述のように、本発明は、ユーザ・フィードバックを効率的に取り入れ、ユーザの努力を最小化し及び適応して画像を処理する、画像内のアーティファクトを低減するシステム及び方法を提供する。特に、システム100は、トラッキング領域及び誤りのある領域を自動的に更新し、ユーザ・フィードバック情報を効果的に用いて、強靱な領域トラッキングを達成する。ユーザは、トラッキング・エラーを有する領域を定めるだけでよく、システム100は自動的に該情報をトラッキング処理に取り入れる。
【0054】
本発明は好適な設計を有するとして記載されたが、本発明は本開示の精神及び範囲の中で更に修正することができる。したがって、本願は、本発明の一般的な原理を用いた本発明のどんな変形、使用又は適応も包含することを意図する。さらに、本願は、本開示からのそのような逸脱も、本発明の属する分野の知られている又は慣行に包含されるとして、及び添付の特許請求の範囲の制限の範囲内に包含されるとして、包含することを意図する。

【特許請求の範囲】
【請求項1】
複数のフレームを有する動画を処理する方法であって、
アルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、
前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、
前記第2の領域を示した第2のフレームを表示するステップと、
前記第2の領域内の第3の領域を定める第1のユーザ入力を受信するステップと、
前記アルゴリズムを実行して前記第2の領域内であって前記第3の領域以外のアーティファクトを除去するステップと、
を含む、前記方法。
【請求項2】
前記第2のフレームに続く第3のフレームの第4の領域を識別するステップであって、該第4の領域は前記第2のフレームの第2の領域から前記第3の領域を除いたものに対応する、前記ステップと、
前記アルゴリズムを実行し、前記第3のフレームの前記第4の領域内のアーティファクトを除去するステップと、
を更に含む、請求項1に記載の方法。
【請求項3】
前記第3の領域を、前記第3の領域以外の前記第2の領域と別に表示し、それによりユーザにどの部分が前記アルゴリズムの実行に含まれるかを識別させるステップ、
を更に含む、請求項1に記載の方法。
【請求項4】
前記アルゴリズムの実行に含まれるべき前記第3の領域を識別する第2のユーザ入力を受信するステップと、
前記第3の領域の表示を除去するステップと、
を更に含む、請求項3に記載の方法。
【請求項5】
前記第1の領域は複数の領域を有し、前記第3の領域は前記第2の領域を表す複数の領域のうちの1つの一部である、
請求項1に記載の方法。
【請求項6】
前記アルゴリズムの実行に含まれるべき第4の領域を識別するステップ、
を更に含む、請求項1に記載の方法。
【請求項7】
前記第3の領域を、前記第4の領域と前記第3の領域以外の前記第2の領域とは別に表示し、それによりユーザにどの部分が前記アルゴリズムの実行に含まれるかを識別させるステップ、
を更に含む、請求項6に記載の方法。
【請求項8】
複数のフレームを有する動画を処理する方法であって、
アルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、
前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、
前記第2の領域を示した第2のフレームを表示するステップと、
第3の領域を定める第1のユーザ入力を受信するステップと、
前記アルゴリズムを実行して前記第2の領域と前記第3の領域により形成される結合領域内のアーティファクトを除去するステップと、
を含む、前記方法。
【請求項9】
前記第2のフレームに続く第3のフレームの第4の領域を識別するステップであって、該第4の領域は前記結合領域に対応する、前記ステップと、
前記アルゴリズムを実行して前記第3のフレームの前記第4の領域内のアーティファクトを除去するステップと、
を更に含む、請求項8に記載の方法。
【請求項10】
前記第2のフレームに続く第3のフレームの第4の領域を識別するステップであって、該第4の領域は前記結合領域に対応する、前記ステップと、
前記結合領域内の第5の領域を定める第2のユーザ入力を受信するステップと、
前記アルゴリズムを実行して前記結合領域内であって前記第3のフレームの前記第5の領域以外のアーティファクトを除去するステップと、
を更に含む、請求項8に記載の方法。
【請求項11】
複数のフレームを有する動画を処理するシステムであって、
アルゴリズムを有するデータを格納する第1の手段と、
前記アルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去する第2の手段であって、前記第1の領域の外側の領域は影響を受けない、前記手段と、
を備え、
前記第1のフレームに続く第2のフレームの第2の領域を識別し、
前記第2のフレームの第2の領域は、前記第1のフレームの第1の領域に対応し、
前記第2の手段は、前記第2の領域を示した第2のフレームを表示させ、
前記第2の手段は、前記第2の領域内の第3の領域を定める第1のユーザ入力を受信し、
前記第2の手段は、前記アルゴリズムを実行して前記第2の領域内であって前記第3の領域以外のアーティファクトを除去する、
前記システム。
【請求項12】
前記第2の手段は、前記第2のフレームに続く第3のフレームの第4の領域を識別し、該第4の領域は前記第2のフレームの前記第2の領域から前記第3の領域を除いたものに対応し、
前記第2の手段は、前記アルゴリズムを実行して前記第3のフレームの前記第4の領域内のアーティファクトを除去する、
請求項11に記載のシステム。
【請求項13】
前記第2の手段は、前記第3の領域を、前記第3の領域以外の前記第2の領域と別に表示させ、それによりユーザにどの部分が前記アルゴリズムの実行に含まれるかを識別させる、
請求項11に記載のシステム。
【請求項14】
前記第2の手段は、前記アルゴリズムの実行に含まれるべき前記第3の領域を識別する第2のユーザ入力を受信し、
前記第2の手段は、前記第3の領域の表示を除去する、
請求項13に記載のシステム。
【請求項15】
前記第1の領域は、複数の領域を有し、
前記第3の領域は、前記第2の領域を表す複数の領域のうちの1つの一部である、
請求項11に記載のシステム。
【請求項16】
前記第2の手段は、前記アルゴリズムの実行に含まれるべき第4の領域を識別する、
請求項11に記載のシステム。
【請求項17】
前記第2の手段は、更に、前記第3の領域を、前記第4の領域と前記第3の領域以外の前記第2の領域とは別に表示させ、それによりユーザにどの部分が前記アルゴリズムの実行に含まれるかを識別させる、
請求項16に記載のシステム。
【請求項18】
複数のフレームを有する動画を処理するシステムであって、
アルゴリズムを有するデータを格納する第1の手段と、
前記アルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去する第2の手段であって、該第1の領域の外側の領域は影響を受けない、前記手段と、を備え、
前記第2の手段は、前記第1のフレームに続く第2のフレームの第2の領域を識別し、
前記第2のフレームの第2の領域は、前記第1のフレームの第1の領域に対応し、
前記第2の手段は、前記第2の領域を示した第2のフレームを表示させ、
前記第2の手段は、第3の領域を定める第1のユーザ入力を受信し、
前記第2の手段は、前記アルゴリズムを実行して前記第1の領域及び前記第3の領域により形成される結合領域内のアーティファクトを除去する、
前記システム。
【請求項19】
前記第2の手段は、前記第2のフレームに続く第3のフレームの第4の領域を識別し、該第4の領域は前記結合領域に対応し、
前記第2の手段は、前記アルゴリズムを実行して前記第3のフレームの前記第4の領域内のアーティファクトを除去する、
請求項18に記載のシステム。
【請求項20】
前記第2の手段は、前記第2のフレームに続く第3のフレームの第4の領域を識別し、該第4の領域は前記結合領域に対応し、
前記第2の手段は、前記結合領域内の第5の領域を定める第2のユーザ入力を受信し、
前記第2の手段は、前記アルゴリズムを実行して前記結合領域内であって前記第3のフレームの前記第5の領域以外のアーティファクトを除去する、
請求項18に記載のシステム。
【請求項21】
複数のフレームを有する動画を処理するシステムであって、
アルゴリズムを有するデータを格納するよう動作するメモリと、
前記アルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するよう動作するプロセッサであって、該第1の領域の外側の領域は影響を受けない、前記プロセッサと、
を備え、
前記プロセッサは前記第1のフレームに続く第2のフレームの第2の領域を識別し、
前記第2のフレームの第2の領域は、前記第1のフレームの第1の領域に対応し、
前記プロセッサは、前記第2の領域を示した第2のフレームを表示させ、
前記プロセッサは、前記第2の領域の内側の第3の領域を定める第1のユーザ入力を受信し、
前記プロセッサは、前記アルゴリズムを実行して前記第2の領域内であって前記第3の領域以外のアーティファクトを除去する、
前記システム。
【請求項22】
前記プロセッサは、前記第2のフレームに続く第3のフレームの第4の領域を識別し、
前記第4の領域は、前記第2のフレームの第2の領域から前記第3の領域を除いたものに対応し、
前記プロセッサは、前記アルゴリズムを実行して前記第3のフレームの前記第4の領域内のアーティファクトを除去する、
請求項21に記載のシステム。
【請求項23】
前記プロセッサは、前記第3の領域を、前記第3の領域以外の前記第2の領域と別に表示させ、それによりユーザにどの部分が前記アルゴリズムの実行に含まれるかを識別させる、
請求項21に記載のシステム。
【請求項24】
前記プロセッサは、前記アルゴリズムの実行に含まれるべき前記第3の領域を識別する第2のユーザ入力を受信し、
前記プロセッサは、前記第3の領域の表示を除去する、
請求項23に記載のシステム。
【請求項25】
前記第1の領域は、複数の領域を有し、
前記第3の領域は、前記第2の領域を表す複数の領域のうちの1つの一部である、
請求項21に記載のシステム。
【請求項26】
前記プロセッサは、前記アルゴリズムの実行に含まれるべき第4の領域を識別する、
請求項21に記載のシステム。
【請求項27】
前記プロセッサは、更に、前記第3の領域を、前記第4の領域と前記第3の領域以外の前記第2の領域とは別に表示させ、それによりユーザにどの部分が前記アルゴリズムの実行に含まれるかを識別させる、
請求項26に記載のシステム。
【請求項28】
複数のフレームを有する動画を処理するシステムであって、
アルゴリズムを有するデータを格納するよう動作するメモリと、
前記アルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するよう動作するプロセッサであって、前記第1の領域の外側の領域は影響を受けない、前記プロセッサと、
を備え、
前記プロセッサは、前記第1のフレームに続く第2のフレームの第2の領域を識別し、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応し、
前記プロセッサは、前記第2の領域を示した前記第2のフレームを表示させ、
前記プロセッサは、第3の領域を定める第1のユーザ入力を受信し、
前記プロセッサは、前記アルゴリズムを実行して前記第2の領域及び前記第3の領域により形成される結合領域内のアーティファクトを除去する、
前記システム。
【請求項29】
前記プロセッサは、前記第2のフレームに続く第3のフレームの第4の領域を識別し、該第4の領域は前記結合領域に対応し、
前記プロセッサは、前記アルゴリズムを実行して前記第3のフレームの前記第4の領域内のアーティファクトを除去する、
請求項28に記載のシステム。
【請求項30】
前記プロセッサは、前記第2のフレームに続く第3のフレームの第4の領域を識別し、該第4の領域は前記結合領域に対応し、
前記プロセッサは、前記結合領域内の第5の領域を定める第2のユーザ入力を受信し、
前記プロセッサは、前記アルゴリズムを実行して前記結合領域内であって前記第3のフレームの前記第5の領域以外のアーティファクトを除去する、
請求項28に記載のシステム。
【請求項31】
複数のフレームを有する動画を処理する方法であって、
第1の領域を示したフレームを表示するステップであって、該第1の領域は前のフレームからトラッキングされる、前記ステップと、
前記第1の領域内の第2の領域を定めるユーザ入力を受信するステップと、
アルゴリズムを実行して前記第1の領域内であって前記第2の領域以外のアーティファクトを除去するステップと、
を含む、前記方法。
【請求項32】
複数のフレームを有する動画を処理する方法であって、
第1の領域を示したフレームを表示するステップであって、該第1の領域は前のフレームからトラッキングされた、前記ステップと、
第2の領域を定めるユーザ入力を受信するステップと、
アルゴリズムを実行して前記第1の領域及び前記第2の領域により形成される結合領域内のアーティファクトを除去するステップと、
を含む、前記方法。
【請求項33】
複数のフレームを有する動画を処理する方法であって、
第1のアルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、
前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、
前記第2の領域を示した第2のフレームを表示するステップと、
前記第2の領域内の第3の領域を定めるユーザ入力を受信するステップと、
前記第1のアルゴリズムと異なる第2のアルゴリズムを実行して、前記第2の領域内であって前記第3の領域以外のアーティファクトを除去するステップと、
を含む、前記方法。
【請求項34】
複数のフレームを有する動画を処理する方法であって、
第1のアルゴリズムを実行して第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、
前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、
前記第2の領域を示した第2のフレームを表示するステップと、
第3の領域を定めるユーザ入力を受信するステップと、
前記第1のアルゴリズムと異なる第2のアルゴリズムを実行して前記第2の領域及び前記第3の領域により形成される結合領域内のアーティファクトを除去するステップと、
を含む、前記方法。
【請求項35】
複数のフレームを有する動画を処理する方法であって、
第1のパラメータを用いてアルゴリズムを実行し、第1のフレームの第1の領域内のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、
前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、
前記第2の領域を示した第2のフレームを表示するステップと、
前記第2の領域の内側の第3の領域を定めるユーザ入力を受信するステップと、
前記第1のパラメータと異なる第2のパラメータを用いて前記アルゴリズムを実行し、前記第2の領域内であって前記第3の領域以外のアーティファクトを除去するステップと、
を含む、前記方法。
【請求項36】
複数のフレームを有する動画を処理する方法であって、
第1のパラメータを用いてアルゴリズムを実行し、第1のフレームの第1の領域のアーティファクトを除去するステップであって、該第1の領域の外側の領域は影響を受けない、前記ステップと、
前記第1のフレームに続く第2のフレームの第2の領域を識別するステップであって、該第2のフレームの第2の領域は前記第1のフレームの第1の領域に対応する、前記ステップと、
前記第2の領域を示した第2のフレームを表示するステップと、
第3の領域を定める第1のユーザ入力を受信するステップと、
前記第1のパラメータと異なる第2のパラメータを用いて前記アルゴリズムを実行し、前記第2の領域及び前記第3の領域により形成される結合領域内のアーティファクトを除去するステップと、
を含む、前記方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate


【公表番号】特表2013−502147(P2013−502147A)
【公表日】平成25年1月17日(2013.1.17)
【国際特許分類】
【出願番号】特願2012−524680(P2012−524680)
【出願日】平成21年8月12日(2009.8.12)
【国際出願番号】PCT/US2009/004612
【国際公開番号】WO2011/019330
【国際公開日】平成23年2月17日(2011.2.17)
【出願人】(501263810)トムソン ライセンシング (2,848)
【氏名又は名称原語表記】Thomson Licensing 
【住所又は居所原語表記】1−5, rue Jeanne d’Arc, 92130 ISSY LES MOULINEAUX, France
【Fターム(参考)】