説明

ビデオの3−D情報および他の情報用の一元管理データベース

【課題】ビデオの3−D情報および他の情報用の一元管理データベースのための方法および装置を提供する。
【解決手段】オブジェクトおよび音声の追加、削除を含むビデオの編集のために照会および使用されうる、カメラデータ、光データ、音声データ、オブジェクトデータ、深度データ、注記データ等のビデオメタデータを、一元管理データベースが格納する。一元管理データベースに記録されているメタデータは大衆に公開されており、投稿者メタデータを受け付けることができる。

【発明の詳細な説明】
【技術分野】
【0001】
(関連出願への相互参照)
本願は、2010年10月25日出願の米国特許出願第12/911,688号(代理人整理番号90619−786152(008000US)、旧026340−008000US))の継続出願であり、その利益を主張し、その全体を、あらゆる目的のために本願明細書に援用する。
【背景技術】
【0002】
本発明は、一般に、ビデオメタデータの記録および共有に関し、より詳細には、3−D画像の生成、適切な光および音声効果を用いたシーンに対するオブジェクトの追加または削除、注記の提供、シーンの編集に使用される、カメラデータ、光データ、音声データ、オブジェクトデータ、深度データ、注記データなどのビデオメタデータを記録する一元管理サーバに関する。このメタデータは、ビデオに関わる関係者によって、あるいはインターネットユーザなどの無関係の投稿者によって提供されうる。
【発明の概要】
【発明が解決しようとする課題】
【0003】
ビデオ作成技術では、現在のところ、潜在的にキャプチャされたメタデータを記録したり、これを利用可能にすることができない。
【0004】
また、ビデオ編集技術は手動で行われることが多く、例えば、ブルーバックの背景で撮影したオブジェクトの必要な光質を推定して、このオブジェクトを既存のビデオに挿入している。
【課題を解決するための手段】
【0005】
本発明の一実施形態は、ビデオ識別子を含む、ディスプレイに表示させるビデオデータを受信するステップと、サーバに記録されており、前記ビデオデータをキャプチャしたカメラに対する光源の位置を記述するビデオ光位置メタデータを含むビデオメタデータを、前記ビデオメタデータを識別する前記ビデオ識別子を使用して、前記サーバに照会するステップと、前記サーバから前記ビデオメタデータを受信し、前記受信したビデオ光位置メタデータにより前記ビデオデータを編集して、前記ビデオ光位置メタデータと整合させて前記ビデオデータに光を再適用する編集済みビデオデータを生成するステップと、前記ディスプレイに前記編集済みビデオデータを出力するステップと、を有する方法を対象としている。
【0006】
本発明の別の実施形態は、ビデオメタデータを使用してシーンを編集する方法を対象としており、前記メタデータは、光データ、音声データ、カメラデータ、オブジェクト切り出しデータ、深度マップデータ、および注記データを含む。
【0007】
本発明の例示の実施形態は、前記ビデオデータからオブジェクトを削除する方法を対象としており、前記ビデオデータの残り部分の前記光位置メタデータと整合する、前記削除するオブジェクトの背景を決定するために、前記ビデオ光位置メタデータが適用される。
【0008】
本発明の例示の実施形態は、前記ビデオデータにオブジェクトを追加する方法を対象としており、前記追加するオブジェクトが前記光源によって照らされているように見えるように、前記追加するオブジェクトに前記ビデオ光位置メタデータが適用される。
【0009】
本発明の例示の実施形態は、方法を対象としており、前記ビデオデータの前記編集は、同じシーンに対して2台以上のカメラによってキャプチャした前記ビデオデータを結合して、三次元画像を表現するための立体画像の対を生成するために、前記カメラデータと前記位置データとを解析する。
【0010】
本発明の例示の実施形態は、方法を対象としており、前記ビデオの前記編集は前記ビデオから音声を削除し、前記削除する音声が前記音声データと整合するように、前記ビデオメタデータが適用される。
【0011】
本発明の例示の実施形態は、方法を対象としており、前記削除するオブジェクトを識別するためにオブジェクト切り出しデータ、深度マップデータおよび注記データが使用される。
【0012】
本発明の例示の実施形態は、ディスプレイに表示させる、ビデオ識別子を含むビデオデータを受信し、ビデオメタデータを識別する前記ビデオ識別子を使用して、前記サーバに前記ビデオメタデータを照会し、前記サーバから前記ビデオメタデータを受信し、受信したビデオ光位置メタデータにより前記ビデオデータを編集して、前記ビデオ光位置メタデータと整合させて前記ビデオデータに光を再適用する編集済みビデオデータを生成するプレーヤと、前記ビデオデータをキャプチャしたカメラに対する光源の位置を記述する前記ビデオ光位置メタデータを含む前記ビデオメタデータを記録するサーバと、前記編集済みビデオを表示するためのディスプレイと、を有するシステムを対象としている。
【0013】
本発明の例示の実施形態は、映画メタデータデータベースを改訂する方法に関し、前記方法は、第1の投稿者からビデオシーン用の第1のメタデータ投稿を受信するステップと、前記第1のメタデータ投稿をビデオメタデータデータベースに記録するステップと、前記第1のメタデータ投稿を受信した後に、第2の投稿者からビデオシーン用の第2のメタデータ投稿を受信するステップと、前記第2のメタデータ投稿が前記第1のメタデータ投稿よりも正確であることを決定するステップと、前記ビデオメタデータデータベースに記録されている前記第1のメタデータ投稿の少なくとも一部を、前記第2のメタデータ投稿で置換するステップと、を有する。
【図面の簡単な説明】
【0014】
【図1】例示の実施形態による、ビデオメタデータ用の一元管理データベースシステムのブロック図である。
【図2】例示の実施形態による、一元管理データベースに記録されているビデオメタデータのタイプおよび構造のブロック図である。
【図3】例示の実施形態による、ビデオメタデータがキャプチャおよび記録される場所と時点のセッティングを示す設定の例である。
【図4】3D画像を生成するために、所定時間に収集される2つの2−D画像の組合せを示す図である。
【図5A】例示の実施形態によるシーンの図である。
【図5B】例示の実施形態による、要素が追加および削除されている図5Aのシーンの図である。
【図6】例示の実施形態による、ビデオにオブジェクトを追加するプロセスフローである。
【図7】例示の実施形態による、ビデオからオブジェクトを削除するプロセスフローである。
【図8】例示の実施形態による、シーンを編集するプロセスフローである。
【図9】本発明の実施形態と使用するために適したコンピュータシステムの例である。
【発明を実施するための形態】
【0015】
本発明の性質および利点については、添付の図面を参照することにより更に深く理解することができる。添付の図面においては、同様の構成要素または特徴には、同じ参照符号が付されていることがある。
【0016】
ここで図面を使用して、本発明に係る異なる実施形態を示す。図面は、実施形態の特定の例であり、実施形態を限定するものと解釈すべきではなく、例示的な形態および手順を示すものである。
【0017】
コンパクトディスクに記録されている音楽アルバムはアルバム識別子を含んでおり、このアルバム識別子を使用して、一元管理音楽アルバムデータベースに照会し、アルバム名、個々の曲名、アーティスト情報などの音楽アルバムメタデータにアクセスすることができる。その後、この音楽アルバムメタデータがユーザまたは聞き手に表示されうる。同様に、ビデオも、ビデオメタデータの照会に使用できるビデオ識別子によって識別することができる。ビデオメタデータは、音楽メタデータよりもはるかに大量のデータを含み、ビデオの編集や3−D画像の生成などの異なる目的に使用することができる。このため、ビデオの3−D情報および他の情報用の一元管理データベースのための技術が求められている。ビデオメタデータは、愛好家が自分で編集するか、ビデオプレーヤが映画をリアルタイムに編集するために、愛好家やビデオプレーヤによってアクセスされうる。
【0018】
ビデオメタデータ用の一元管理データベースにより、ユーザまたは視聴者が、有益なビデオ情報を提供するメタデータを照会し、これを受信して、ビデオを、元のビデオの特性と整合するように編集または表示することが可能となる。例えば、シーンに追加したオブジェクトに対して、残りのシーンの光を記述しているビデオメタデータに従って、光を再適用(リライト:relight)すること、あるいは再度光をあてることができる。一元管理データベースは、注記データと、ビデオの作製に関わる関係者あるいは無関係の投稿者から提供されるデータとを格納してもよい。
【0019】
シーン内のオブジェクトに対するカメラの位置およびカメラの移動と、これらの移動とに関するビデオメタデータにより、三次元画像およびビデオの生成が可能となる。また、光および音声メタデータにより、適切な光および音声効果によるオブジェクトおよび音声の追加と削除とが可能となる。また、ビデオメタデータにより、明るさ、コントラストなどのビデオの各種属性の編集が可能となる。また、オブジェクトメタデータを使用して、シーン内のオブジェクトおよびキャラクタが識別されてもよく、これらは、編集に、あるいは注記の提供に使用されうる。3−D効果を更に拡張したり、ビデオ編集を支援するために、深度メタデータ、オブジェクト切り出しデータおよび他のビデオメタデータが使用されうる。
【0020】
例示の実施形態では、所定期間におけるシーン内のオブジェクトに対するカメラの移動を記述するメタデータを使用して2つの画像が生成され、これらの画像の一方は前の時点のオブジェクトの画像であり、もう一方はわずかに後の時点の同じオブジェクトの画像である。この2つの画像は、わずかに異なっており、三次元画像の基礎となる立体画像の対を生成するために、メタデータと一緒に使用されて、カメラおよびシーン内の他のオブジェクトに対するオブジェクトの移動が決定される。別の実施形態では、光の種類、光の強度およびシーンに対する光源の位置などの光データにより、デジタル処理によって生成されるオブジェクトなどの新しいオブジェクトを、適切な光でシーンに追加することが可能となる。また、新しいオブジェクトをシーンに追加して、新しい音声を適切に作り出すための音声データを組み込むこともできる。シーンからオブジェクトまたは音声を削除したり、あるいは、シーンの光および音質を編集するために、同様の技術を使用することができる。
【0021】
別の実施形態では、未知の形状のオブジェクトに光を再適用して、基準画像の組(そのオブジェクトは静止しているが、照明光源が回転している)から、当該オブジェクトのビジュアルハル(visual hull)を生成することができる。この技術では、オブジェクトの複数の基準画像(複数の静止写真など)を結合して、合成画像が生成される。各基準画像内では、光源がわずかに異なる場所に移動される。その後、この基準画像の組が併合されて、光源の位置、および異なる光条件下でのオブジェクトの反射率に関する情報を格納する合成画像ファイルが生成される。この光メタデータによって、オブジェクトがどのように光に応答するかをマップし、オブジェクトに仮想的に光を再適用することが可能となる。この合成画像は画像を表示し、光源を画像内で移動可能にし、光源の移動をアニメーション化して示す。この技術により、色、テクスチャ、マークを鮮明化することができる。例示の実施形態では、合成画像を生成するために、多項式テクスチャマップが使用される。別の実施形態では、合成画像はパラメトリック写真である。オブジェクトに光を再適用するために、双方向反射率分布関数を使用することができる。
【0022】
また、オブジェクトのビジュアルハルは、シルエットからの形状復元法を使用する幾何学的近似法によって決定できる。これらの方法は、任意の視点におけるオブジェクトのシルエットが、3−D空間内の円錐に再投影するという事実を利用するものである。オブジェクトによって占有される全ての空間は、円錐内に存在している必要がある。全ての可能な視点から全ての円錐を交差させた後に、本発明者らはオブジェクトの形状の慎重な概算を取得し、これはビジュアルハルと呼ばれる。
【0023】
例示の実施形態では、ビデオは、高ダイナミックレンジレンダリングによりキャプチャされる。この方式では、シーンが、高ダイナミックレンジでキャプチャされたのち、低コントラスト比で詳細を維持するために後から結合される。例えば、1つのシーンが、ダイナミックレンジの高いカメラとダイナミックレンジの低いカメラの2台のカメラで記録されうる。同じシーンのビデオが、より詳しい詳細を示すために、後で結合されうる。
【0024】
例示の実施形態では、ビデオメタデータが、ビデオマッティングプロセスで使用される。フィルムベースのブルーバックマッティング技術は、広く普及しているが、厳密に制御された均一な色の背景を使用する必要がある。しかし、自然画像マッティングなどの他の技術では、オブジェクトの輪郭を定義すれば、前景のオブジェクトを通常の画像から抽出できることがわかっている。ビデオメタデータはオブジェクトの輪郭を識別することができ、追加処理を行うことでオブジェクト自体を識別することができる。別の実施形態では、オプティカルフロー技術を使用して、前景、背景および未知の領域を詳細に描写する手描きのトリマップを、時間にわたって適用することができる。これらの技術は、前景のオブジェクトの識別を補助するためにメタデータを使用しうる。
【0025】
一元管理データベースは、ビデオのキャプチャに関わる関係者によって提供されるメタデータを使用して作製されうる。例えば、ビデオの撮影に関わる製作会社が、自社のカメラによってキャプチャされ、自社の文書から利用可能なメタデータを、一元管理データベースに直接提供してもよい。カメラおよび他の装置の位置が、トラッキングデバイスによってキャプチャされうる。別の実施形態では、一元管理データベースは、投稿者の入力を受け付けもよく、この場合、投稿者は、ビデオの撮影と無関係の者でもよい。ビデオの視聴者などのビデオの撮影と無関係の者が、シーン内のキャラクタやオブジェクトを識別するメタデータなどのメタデータを、データベースに提供することができる。例示の実施形態では、投稿者は、インターネットを介してメタデータを提供することができる。ビデオのメタデータは、例えば「wiki」フォーマットを使用してコミュニティによって編成されうる。メタデータは、投稿者のコミュニティによって編成され、更新されうる。ビデオメタデータwikiは、どのユーザも編集することができる。このため、個々の投稿されたものは、コミュニティがより正確であると判断した、後の投稿されたものに置き換えられうる。
【0026】
この説明は、例示のみを行うものであり、本発明の範囲、利用可能性または構成を限定することを意図するものではない。逆に、以下の実施形態の説明は、当業者に、本発明の実施形態を実装するための実施可能な説明を与えるものである。本発明の趣旨ならびに範囲から逸脱することなく、要素の機能および構成をさまざまに変更することができる。
【0027】
このため、各種実施形態では、適宜、さまざまな手順または構成要素を省略したり、置き換えたり、追加することができる点を強調する必要がある。例えば、代替の実施形態では、方法が記載した順序と異なる順序で実行され、さまざまなステップを追加、省略したり組み合わせてもよい点に留意すべきである。また、特定の実施形態に関して記載した特徴を、さまざまな他の実施形態に組み合わせてもよい。実施形態の異なる態様および要素を、同様に組み合わせてもよい。
【0028】
また、以下のシステム、方法およびソフトウェアが個々にあるいは集合的に、より大きなシステムの構成要素でもよく、その場合、本発明の適用を変更するために、他の手順が優先されても、何らかの方法で変更されてもよいことを理解すべきである。また、以下の実施形態の前、間、後、あるいはそれと同時に、複数のステップが必要とされてもよい。
【0029】
図1は、例示の実施形態による、ビデオメタデータ用の一元管理データベースシステム100のブロック図である。データベース104は、3−D情報や他のビデオ情報などのビデオメタデータを含むデータ106を記録するための一元管理サーバである。ビデオメタデータは、カメラデータ、光データ、音声データ、オブジェクトデータおよび深度データを含んでも良い。また、ビデオメタデータは、製作または編集データ、クレジット情報および注記データを含んでもよい。例示の実施形態では、ビデオメタデータは、投稿者によって提供されたデータを含んでもよい。また、データ106は、複数台のカメラの位置およびビデオ、ならびに立体画像の対を記述するデータなどの三次元データを含んでもよい。
【0030】
データベース104に記録されているデータ106は、サーバ102を介してアクセスされうる。サーバ102は、ウェブサーバ、FTPサーバ、サーバホスティングAPI、あるいは、ネットワーク112に接続され、ネットワーク112を介してデータを提供するサーバなどである。例示の実施形態において、ネットワーク112は、インターネット、イントラネット、エクストラネット、モバイルネットワークまたは電気通信網などである。プレーヤ110は、ディスプレイ108に送られて表示されうるビデオデータを処理する。
プレーヤ110は、デジタルビデオディスク(DVD)プレーヤ、3−Dプロセッサ、ゲームコンソール、ハンドヘルドデバイス、携帯電話、またはビデオデータを処理して表示させることができる任意のデバイスなどである。プレーヤ110によって処理されたビデオ情報は、ディスプレイ108に表示される。プレーヤ110は、ディスプレイ108に接続されうる。ディスプレイ108は、テレビ、プラズマスクリーン、携帯電話、コンピュータスクリーン、画面付きのポータブル演算デバイス、またはビデオを表示可能な任意のデバイスなどである。
プレーヤ110は、ネットワーク112を介してサーバ102と通信しうる。プレーヤ110は、プレーヤ110が処理しているビデオに関連するデータ106について、サーバ102に照会し、データベース104にアクセスしうる。
例示の実施形態では、プレーヤ110は、プレーヤ110が再生しており、ビデオ識別子によって識別されるビデオに関連するビデオメタデータにアクセスするために、サーバ102にビデオ識別子を送信する。プレーヤ110は、データベース104またはサーバ102から取得したビデオメタデータを、ディスプレイ108に送信しうる。例示の実施形態では、プレーヤ110は、サーバ102から受信したビデオメタデータを処理して、ビデオを拡張または編集しうる。
例示の実施形態では、プレーヤ110は、データディスク114からビデオデータを取得しうる。データディスク114は、データベース104に記録されているデータ106の一部を格納しており、ビデオデータと、サーバ102への照会に使用されるおよびビデオ識別子とを格納していてもよい。プレーヤ110は、データディスク114に記録されているデータと、データベース104から取得したデータとを同時に表示することができる。また、データ106には、ダウンロードまたはストリーミングされるデータが含まれてもよい。
【0031】
例示の実施形態では、個々の投稿者116が、ネットワーク112を介してサーバ102と通信して、ビデオメタデータの投稿を提供することができる。投稿者116は、ビデオの作成と関係のない個々の視聴者でも、ビデオの作成に直接関わっている関係者でもよい。投稿者116は、サーバ102と通信することによって(例えばウェブインタフェイスを介して投稿を提供することによって)、メタデータを追加することができる。メタデータ投稿は、後から取り出すことができるようにデータベース104に記録されうる。提供されたメタデータは、プレーヤ110あるいは他の投稿者116によって取得されうる。例示の実施形態では、データベース104に記録されているデータ106は、ネットワーク112を介して、例えばウェブサイトのインターネットユーザからアクセス可能でもよい。メタデータは、一般のインターネットユーザ、または事前に選択されているインターネットユーザの集合に公開されている、すなわち、これらのユーザからアクセス可能でもよい。
例示の実施形態では、投稿者116は、注記またはコメントを提供することができる。注記およびコメントは、ビデオの所定の時間の特定のシーンに関するものでも、ビデオ全体について記述するものでもよい。投稿者116は、シーン内のオブジェクトを識別するメタデータ、または、光、音声および他のデータを識別するメタデータなどを提供することができる。また、サーバ102にデータを直接入力するなど、データベース104にデータを投稿する他の方法も存在してもよい。例示の実施形態では、ビデオメタデータの投稿は、推定または近似であり、後からより正確なデータに置き換えられてもよい。
【0032】
図2は、例示の実施形態による、一元管理データベース200に記録されているビデオメタデータのタイプおよび構造のブロック図である。一元管理サーバによって記録されている3Dおよびビデオメタデータ201は、カメラデータ202、光データ204、音声データ206、オブジェクト切り出しデータ208、深度マップデータ210および注記データ211を含んでもよい。ビデオメタデータは、1フレームの粒度で記録されうる。ビデオメタデータは粗くてもよく、例示の実施形態では、最小粒度は1フレームである。
【0033】
例示の実施形態では、カメラデータ202は、時間データ212を含んでもよい。時間データ212は、特定のシーン、フレームまたはビデオがキャプチャされた正確な時点または複数の時点を示すことができる。時間データ212は、日、月、時、分、秒および年を示すことができる。また、時間データ212は、タイムゾーンデータ、季節データ、ビデオの長さ、およびビデオの残り時間を含んでもよい。時間データ212は、映画のシーンの長さ、ビデオのチャプタを記述するなど、ビデオおよびフレームを相互に解析するために使用されてもよく、他のメタデータと一緒に使用されてもよい。
【0034】
別の実施形態では、カメラデータ202は、レンズパラメータデータ214を含んでもよい。レンズパラメータデータ214は、カメラのレンズがビデオまたは画像をキャプチャした際のその属性を記述するものであってもよい。例えば、レンズパラメータデータ214は、レンズのズーム、アパーチャのサイズすなわち開口、シャッタ速度(存在する場合)、レンズが広角またはマクロかどうか、画像安定機能の状態、レンズのブランドおよびモデル、ならびに他のレンズパラメータおよび構成などを記述することができる。シーンの編集により、そのシーンが、同様のパラメータを有するレンズで撮影されたように見えるように、レンズパラメータデータ214が解析されうる。
【0035】
例示の実施形態では、カメラデータ202は、仕様データ216を含んでもよい。仕様データ216は、カメラがビデオまたは画像をキャプチャした際のその属性を記述するものであってもよい。例えば、仕様データ216は、ホワイトバランス、ISO、フレームレート、ガンマ、シャープネス、明るさ、コントラスト、データ圧縮形式、カメラのブランドおよびモデル、ならびに他の設定を含んでもよい。仕様データ216は、カメラの設定、およびセンサの品質を記述するものでもよい。シーンの編集により、そのシーンが、同様の設定を有するカメラで撮影されたように見えるように、仕様データ216が解析されうる。
【0036】
別の実施形態では、カメラデータ202は、位置データ218を含んでもよい。位置データ218は、カメラがビデオデータをキャプチャした際の、カメラの位置について記述することができる。例えば、位置データ218は、GPSデータ、経度および緯度の座標でも、住所や場所の名称(例えば、「セントラルパーク」)などの特定の場所を記述するデータでもよい。位置データ218は、「崖の背後10フィート」など、他のオブジェクトに対する位置を記述してもよい。位置データ218は、ピントをあわせたオブジェクトに対してなど、シーンの内外に存在するオブジェクトに対して記述されても、あるいは、シーンに対して記述されてもよい。例えば、位置データ218は、カメラとシーン内のオブジェクトとの両方が、特定の方向に特定の速度で動いていることを記述してもよい。
【0037】
また、カメラデータ202は、視点データ220を含んでもよい。視点データ220は、特定の位置でのカメラの視点を記述することができる。例えば、視点データ220は、カメラが向いている方向および角度を記述することができる。視点データ220は、カメラのX軸、Y軸およびZ軸における角度を記述することができる。このようなデータは、カメラの高さ、カメラが向いている方向、カメラが上下のいずれを向いているかを記述してもよい。視点データ220は、複数の方法で記述することができ、例えば、東西南北の値、あるいは、角度または回転度によって記述することができる。
【0038】
上記のカメラデータ202は、所定の期間キャプチャされうる。例えば、カメラの位置データ218と視点データ220とが所定の期間キャプチャされ、移動を示すために時間データ212と組み合わせられうる。また、レンズパラメータデータ214、カメラ仕様データ216などの他のカメラデータ点が所定期間キャプチャされて、例えば、10分の映画でこれらのパラメータがどう変化したかが記録されてもよい。時間ベースのデータから、カメラの速度および加速度222を得ることができる。例えば、カメラを、特定の速度および加速度でA点からB点に移動したのち、別の速度および加速度でB点からC点に移動して測定することができる。また、カメラデータ202が、複数台のカメラを記述してもよい。例えば、2台以上のカメラの位置および設定が経時的に記録されてもよい。
【0039】
3Dおよびビデオメタデータ201は、光データ204を含むことができる。光データ204は時間データ224を含むことができ、このデータは、カメラの時間データ212のフォーマットと似ているが、光源に対するものである。時間データ224は、特定の時点の光源を記述しており、後からシーンを編集するのに光源をトラッキングするために使用されうる。また、時間データ224は、フレームのシーケンス内の特定のフレームに対して光源を記述することもできる。例えば、時間データは、光源の経時的な変化をトラッキングすることができる。例示の実施形態では、光データ204は位置データ226を含むことができ、このデータは、カメラの位置データ218のフォーマットと似ているが、光源に対するものである。位置データ226は、光源の位置を記述しており、後からシーンを編集するために使用されうる。例えば、位置データ224は、経度および緯度の座標で記述されても、あるいは、GPSデータによって記述されてもよい。位置データ224は、シーンに対する位置でも、シーンの内外のオブジェクトに対する位置でもよい。例えば、光源は、主カメラの背後10フィート、左10フィートのように記述されうる。
【0040】
光データ204は、強度データ228、種類データ230および視点データ232を含んでもよい。強度データ228は、特定の光源の明るさまたはワット数を記述することができる。タイプデータ228は、光の種類、ならびに光源の他の品質を記述することができ、これには、プールライトの色、温度、焦点、サイズ、スロー長、暗さレベル、焦点があっているオブジェクト、シャッタ、遮光ドア、他のデバイスなどの任意のマスキングデバイスの使用がある。視点データ232は、ある位置における光源の視点を、カメラの視点データ220と同様のフォーマットで記述することができる。視点データ232は、カメラの視点データ220のフォーマットと同様に、光源の角度および方向を記述することができる例示の実施形態では、視点データ232は、X軸、Y軸およびZ軸で記述されてもよい。各種の光データ204が時間データ224と組み合わされて、速度および加速度を求めるなど、光源が経時的に解析されうる。また、光データ204が、複数の光源を記述してもよい。例えば、2以上の光源の位置および属性が、経時的に記録されてもよい。また、光データ204は、例えば合成画像、多項式テクスチャマップまたはパラメトリック写真を生成するなど、固定のオブジェクトに対する光源の位置を記述することもできる。また、光データ204は、高ダイナミックレンジのレンダリングデータも記述することができる。
【0041】
また、3Dおよびビデオメタデータ201は、音声データ206を含むことができる。音声データ206は、ビデオ内の音声を記述することができる。例示の実施形態では、音声データ206は、カメラの時間データ212と同様のフォーマットの時間データ234を含む。時間データ234は、役者の口、車のクラクションの位置などの音源、または録音デバイスを経時的に記録することができる。時間データ234は、音源と録音デバイスとの両方を記述することができる。また、時間データ234は、フレームのシーケンス内の特定のフレームに対して音源または記録デバイスを記述することもできる。例示の実施形態では、音声データ206は、カメラの位置データ218と同様のフォーマットの位置データ236を含むことができる。位置データ236は、マイクロフォン等の記録デバイス、あるいは音源の位置を記述することができる。位置データ236は、GPS座標データ、経度および緯度で、あるいは、シーン内の他のオブジェクトに対して記述することができる。音声データ206は、カメラの視点データ220のフォーマットと同様の視点データ238を含むことができる。音声視点データ238は、例えばX軸、Y軸およびZ軸で測定された音源の角度および方向を記述する。例えば、音声視点データ238と音声位置データ236とは、音源が主カメラの背後の上から来ていることを示すことができる。例示の実施形態では、音声データ206は、音声属性データ240を含んでもよい。音声特性データ240は、記録された音声の質を記述することができ、例えば、ピッチ、ラウドネス、位相、方向、距離、音色、音声がモノラル、ステレオ、サラウンドサウンドのいずれか、エコー、あるいは他の音声出力設定などである。また、音声特性データ240は、録音デバイスの特性も記述することができる。各種の音声データ206が時間データ234と組み合わされて、速度および加速度を求めるなど、音源または録音デバイスが経時的に解析されうる。また、音声データ202は、複数の音源または録音デバイスを記述することもできる。例えば、2台以上のマイクロフォンの位置および特性が、経時的に記録されてもよい。また、音声データ206は、曲名、アーティスト、サウンドトラックおよびスコアデータ、著作権、再生中の音符、再生中の楽器および歌詞など、音楽について記述してもよい。また、音声データ206は、例えばサブタイトルなど、音声の内容を記述することもできる。例示の実施形態では、一部の音声は、ナレーションの声など発生源を持たないものがある。また、音声データ206は、言語データを記述したり、2.1オーディオシステム、5.1オーディオシステムおよび7.1オーディオシステムなど、複数のスピーカシステムへの出力方法をマップすることもできる。
【0042】
また、3Dおよびビデオメタデータ201は、オブジェクト切り出しデータ208を含むことができる。オブジェクト切り出しデータ208は、シーン内の特定のオブジェクトを記述および識別することができる。例えば、オブジェクト切り出しデータ208は、二次元シーン内の特定の黄色のピクセルの集まりが、黄色の電話であることを記述することができる。このようなオブジェクト切り出しデータは、画像処理の結果得られても、あるいは、デジタルビデオがレンダリングされる前の元の三次元のオブジェクトから推定されてもよい。例示の実施形態では、個々の投稿者が、ビデオを視聴して、ビデオ内のオブジェクトを識別するデータを一元管理データベースに提供することができる。例えば、ビデオの視聴者が、ビデオ内のオブジェクトを識別して、その識別情報を一元管理ビデオメタデータデータベースにアップロードすることができる。オブジェクトは、名前、年齢、略歴、生年月日および他のデータによって識別されることができる。オブジェクト切り出しデータ208は、シーンからオブジェクトを削除したり、シーンにオブジェクトを追加したり、またはシーンを編集するために使用されうる。また、オブジェクト切り出しデータ208が、複数のオブジェクトを記述してもよい。オブジェクト切り出しデータ208は、オブジェクトの輪郭の識別など、ユーザが投稿したオブジェクトの識別情報を含むことができる。また、ビジュアルハルも記述しうる。
【0043】
3Dおよびビデオメタデータ201は、深度マップデータ210を含むことができる。深度マップデータ210は、カメラに対するシーンのオブジェクトの距離を識別する。例えば、深度マップデータ210は、シーン内の木が100メートル離れているが、カップは100センチメートルしか離れていないことを記述しうる。例示の実施形態では、深度データ210は、複数台のカメラからキャプチャまたは挿間されても、投稿者によって追加されてもよい。深度マップデータ210は、3−D画像の表現時に、あるいは、シーンの編集時に使用されうる。深度マップデータ210は、複数のオブジェクトを記述することができる。
【0044】
また、3Dおよびビデオメタデータ201は、注記データ211を含むことができる。注記データ211は、シーン、ビデオセグメントまたはシーン内のオブジェクトの注記、コメント、記述、概要および説明を含むことができる。注記データ211は、ビデオを作製した関係者によって提供されても、ビデオの製作と無関係の投稿者によって提供されてもよい。注記データ211は、一元管理データベースに照会することによって、視聴者に提示されうる。また、3Dおよびビデオメタデータ201は、メタデータを編成するための他の形式および手段を有してもよい。
【0045】
また、3Dおよびビデオメタデータ201は、コンポジショニングデータ213を含むことができる。コンポジショニングデータ213は、複数のレイヤを組み合わせて生成されるビデオをサポートする。例えば、コンポジショニングデータ213は、シーンの背景および前景を別個の層として記述することができ、これらが後から結合されて最終的なビデオが生成される。このため、前景からオブジェクトを削除する場合、背景を記述するコンポジショニングデータ213を使用してシーンを編集することができる。例示の実施形態では、3Dおよびビデオメタデータ201は、双方向反射率分布関数データと、シーンに含まれないオブジェクトおよび設定を記述するデータとも含んでもよい。
【0046】
図3は、例示の実施形態による、ビデオメタデータがキャプチャおよび記録される場所のセッティング300の例である。このセッティングでは、破線の長方形で示すシーン302が、第1のカメラ304がキャプチャしている画像またはビデオの寸法を表している。シーン302の前景では、人物306がシーン302の右端に向って走っている。人物306に続いて、野獣307が、シーン302の右に向って、人物306よりも高速で移動している。人物306および野獣307の若干背後に、静止している木308が存在する。シーン302の背景には、同じく静止している太陽309が存在し、シーン302内のオブジェクト(人物306、野獣307および木308)を照らしている。
【0047】
また、2つの光源310,312も、シーンを照明している。各光源310,312は、位置が異なり、シーン302からの距離も、傾きの角度も、高さも異なる。また、これらの光源310,312は、ワット数、タイプ、光効果および他の光属性および設定も同様に異なってもよい。光源310はシーンの右に移動している。
【0048】
第1のカメラ304もシーン302の右端に移動している。第1のカメラ304は、人物306または野獣307と同じ速度で移動しても、異なる速度で移動してもよい。第2のカメラ305は、第1のカメラ304とわずかに異なる角度から、同じシーン302をキャプチャしている。第2のカメラ305は、位置と角度とが異なり、静止している。また、第2のカメラ305は、高さが異なっても、異なるレンズパラメータおよびカメラの設定を使用してもよい。
【0049】
マイクロフォンなどの2台の記録デバイス314,316が音源を記録する。2台の記録デバイス314,316は、異なる位置に存在しても、高さが異なっていても、異なる視点および角度に位置していても、異なる設定を使用してもよい。記録デバイス314,316は、人物306または野獣307などのさまざまな音源からの音声を録音しうる。記録デバイス314,316と音源306,307とは、時間と共に移動してもよい。この例では、記録デバイス316が右に移動している。
【0050】
このセッティング300は、ビデオメタデータによって記述されうるデータの種類を示す。例えば、カメラメタデータは、シーン302内のオブジェクトに対する第1のカメラ304の位置を記述することができる。また、メタデータは、第1のカメラ304の移動を、時間データと位置データとを使用して、速度および加速度などの属性によって記述することができる。また、カメラメタデータは、第1のカメラ304およびシーン302内のオブジェクトに対する、第2のカメラ305の位置と、その経時的な場所も記述することができる。視点メタデータは、例えばX軸、Y軸およびZ軸における、カメラ304,305の角度、高さおよび回転を記述することができる。また、カメラメタデータは、ビデオを録画しているカメラ304,305とレンズとの設定および属性も記録することができる。
【0051】
光メタデータは、一般に、光源310,312および太陽309の互いに対する位置と、シーン302内のオブジェクトに対する位置とを記述することができる。時間データと位置データとは、光源310,312および太陽309の移動と、速度および加速度などの属性とを決定するために使用されうる。また、光メタデータは、光源309,310,312の、光の種類および強度などの属性および設定もキャプチャすることができる。また、光メタデータは、太陽309などの自然光源、反射、または間接光源もキャプチャすることができる。
【0052】
音声メタデータは、一般に、記録デバイス314,316および音源306,307の互いに対する位置と、シーン302内のオブジェクトに対する位置とを記述することができる。例えば、足音が、人物306が踏んでいる地面から到来することが決定されうる。時間データと位置データとは、第2の記録デバイス216および音源306,307の移動と、速度および加速度などの属性とを決定するために使用されうる。また、音声メタデータは、感度など、記録デバイス314,316の特性もキャプチャすることができる。
【0053】
オブジェクト切り出しデータは、シーン302内のオブジェクトを識別することができる。例えば、オブジェクト切り出しデータは、人物306、野獣307、木308および太陽309を相互に認識することが可能である。また、オブジェクト切り出しデータは、人物306の腕や脚など、各オブジェクトの要素も記述することができる。オブジェクト切り出しデータは、例えば、人物306と野獣307とがシーン302を走っているときに人物306と野獣307とを認識するなど、所定期間にわたってオブジェクトをトラッキングしてもよい。深度マップデータは、記録しているカメラからのオブジェクトの距離を記述することができる。例えば、深度マップは、人物306と野獣307の両方がカメラから20フィート離れており、木308がカメラから300フィート離れていることを示すことができる。
【0054】
図4は、3D画像を生成するために、所定時間に収集される2つの2−D画像の組合せを示す図である。左の画像402は、時点Tにおける人物のオブジェクトの画像である。左画像404は、時点T+Δにおける同じ人物のオブジェクトの画像である。オブジェクトが時間Δの間に移動したので、左の画像402と右の画像404とはわずかに異なる。画像402と画像404とは、三次元画像を生成するための立体画像の対として使用されうる。例示の実施形態では、三次元画像を生成するために、ビデオメタデータが使用されうる。例えば、三次元の画像を適切に生成するために、位置データ、時間データおよびオブジェクトデータが使用され、シーン内のオブジェクトと、その移動の方向とが識別されうる。また、カメラに対する、シーン内のオブジェクトの速度および加速度が使用されてもよい。例えば、50マイル/時で移動している車に搭載されたカメラが、時速55マイルで同じ方向に移動している電車を撮影している場合、電車は前に進んでいるが、背景が二次元のまま表示されるように、3次元効果を表示させる必要がある。
【0055】
例示の実施形態では、同じシーンを撮影する2台以上のカメラからの2つの画像を結合することによっても、2つの立体画像を作成することができる。例えば、ビデオメタデータが、同じシーンを撮影している2台のカメラが20°離れていることを示すことができる。ビデオメタデータを使用することにより、この2台のカメラから立体画像の対を挿間することができる。例示の実施形態では、オブジェクト切り出しデータ、深度データなどのビデオメタデータが使用され、三次元画像が生成されうる。離間角度は小さくてもよく、3台以上のカメラと組み合わせて複数の3−D画像を生成することもできる。
【0056】
例示の実施形態では、二次元のビデオを三次元のビデオに変換するプロセスも、ビデオメタデータを解析してもよい。例えば、シーン内のオブジェクトを識別し、三次元レンダリングを較正するために、光データとカメラデータとが考慮されうる。また、オブジェクトデータと深度データとを使用して、三次元に投射する必要のあるオブジェクトが識別されてもよい。
【0057】
図5Aは、例示の実施形態によるシーン507の図である。このシーンでは野獣502が人物504を追いかけている。背景に、静止している木506と、シーンを照らしている太陽508とが存在する。例示の実施形態では、撮影されたシーンに関するメタデータが、ビデオメタデータ用の一元管理データベースに記録されうる。
【0058】
図5Bは、例示の実施形態による、要素が追加および削除されている図5Aのシーンの図である。一元管理データベースと共に記録されているメタデータを使用して、シーンまたはビデオが編集されうる。この例では、元のシーン507の人物504が、現在のシーン508では削除されている。シーンからオブジェクトを適切に削除するために、ビデオメタデータが使用されうる。例示の実施形態では、時間情報と位置情報とを使用して、別の時点におけるこのシーンの画像を特定することによって、シーン内の削除した人物504の背景の内容が判断または決定されうる。例えば、以前のフレームが、人物504が存在しない同じ背景を含んでおり、この以前のフレームのカメラの位置および視点が同じであり、光データも同じであることをメタデータが示しており、この背景を、新しいシーン508にそのまま適用することができる。例示の実施形態では、以前のフレームが、(例えば、カメラまたはレンズパラメータ、あるいは光データまたは位置データが異なるなど)質がわずかに異なる背景を含むことを、ビデオメタデータが示すことがある。この場合、メタデータを使用して、以前のフレームが、現在のフレームのビデオメタデータの設定に最も近くなり、これと適合するように調整されうる。例えば、以前のフレームでは新しいシーン508よりも光源が1つ少ない場合、ビデオメタデータを使用して、前のシーンの背景が、シミュレートした追加の光源を用いて光が再適用されうる。別の実施形態では、わずかに異なる視点から撮影された同じ背景が、位置メタデータを使用して編集されて、新しいシーン508に適合するように外挿されてもよい。また、光データとカメラデータとを使用して、影を削除し、オブジェクトを削除した後に残った空洞が適切に埋められてもよい。また、オブジェクト切り出しデータと深度マップデータとは、シーンから削除するオブジェクトの識別を支援しうる。
【0059】
音声データを使用して、走っている人物504の音声など、オブジェクトが発する音声が削除されうる。例示の実施形態では、削除する人物の足が着地する時点に対応する音声が、ビデオから削除されうる。例示の実施形態では、人物504に関連する音源に関する音声データが、識別されて削除されうる。
【0060】
また、左に向って走る小人514がシーンに追加されている。ビデオメタデータは、シーンにオブジェクトを追加するためにも使用することができる。例えば、シーンに追加するオブジェクトがコンピュータによって生成される場合、カメラ、光および音声に対応するビデオメタデータを使用して、元のシーン507と同様の光で照らされ、同様の装置および同様の条件で記録されたように見えるように、新しいオブジェクトがレンダリングされうる。また、新しいオブジェクト514が発する音声が、同じ記録デバイスによって記録されたかのように、既存のサウンドトラックと一致するように処理されうる。
【0061】
新しいシーン508の太陽516が、発光量が多くなるように調整されてもよい。例示の実施形態では、シーンに光が再適用される。ここで、太陽516である光源を記述するメタデータが、明るく調整されうる。このような調整では、シーン508に光を再適用するために、深度データ、オブジェクト切り出しデータ、他のデータなどの他のメタデータも呼び出されうる。
【0062】
図6は、例示の実施形態による、ビデオにオブジェクトを追加するプロセスフローである。操作602において、サーバに対して、ビデオメタデータの照会が行われる。ビデオメタデータに対するサーバへの照会には、ビデオ識別子が含まれうる。例示の実施形態では、ビデオ識別子は、一意なビデオメタデータエントリを識別する一意の英数字文字列またはGUIDなどである。操作604において、ビデオメタデータが受信される。操作606において、受信したビデオメタデータを参照して、ビデオに追加しようとするオブジェクトが編集される。例示の実施形態では、光データを使用して、オブジェクトが適切に光で照らされうる。例えば、光データに定義されている光源が、新しいオブジェクトを照らす光を発しているように見えるように、新しいオブジェクトが編集されうる。また、新しいオブジェクトが、音声データに対して比較されうる音声を発してもよい。その場合、新しいオブジェクトが発する音声が元の記録デバイスによって記録されたかのように、ビデオの音声に新しいオブジェクトの音声が組み込まれうる。この新しい音声は、サラウンドサウンド特性を維持することができる。オブジェクトデータと深度データとを使用して、視点または陰影効果を保持するなど、ビデオ内の他のオブジェクトのコンテキストに新しいオブジェクトが配置されうる。また、新たに追加されたオブジェクトは、ビデオメタデータデータベースにも追加されうる。操作608において、新しいオブジェクトがビデオに追加される。
【0063】
図7は、例示の実施形態による、ビデオからオブジェクトを削除するプロセスフローである。操作702において、サーバに対して、ビデオメタデータの照会が行われる。ビデオメタデータに対するサーバへの照会には、ビデオ識別子が含まれうる。例示の実施形態では、ビデオ識別子は、一意なビデオメタデータエントリを識別する一意の英数字文字列またはGUIDなどである。操作704において、ビデオメタデータが受信される。操作706において、ビデオからオブジェクトが削除される。例示の実施形態では、このオブジェクトはメタデータを使用して識別されうる。例えば、オブジェクトデータ、深度データ、コンポジショニングデータまたは注記データが、二次元または三次元表示のピクセル群など、シーン内の特定のオブジェクトを識別することができる。操作708において、オブジェクトを削除した後に残された空き領域が埋められる。ビデオが、残りのシーンと整合する新しい背景を用いて編集されうる。例えば、削除するオブジェクトの背景を、ビデオの以前のフレームから決定することができる。正確に置換を行うことができない場合には、カメラ、光、コンポジショニングおよび他のメタデータを使用して、背景が外挿されうる。例示の実施形態では、削除するオブジェクトが発する音声を削除するためにも、メタデータが解析されうる。例えば、特定の対話または音声が削除するオブジェクトに関連している場合、これらがサウンドトラックから削除されうる。
【0064】
例示の実施形態では、ビデオメタデータを利用して前景のオブジェクトを識別するビデオマッティング技術を使用することで、シーンから削除すべきオブジェクトが識別されてもよい。
【0065】
図8は、例示の実施形態による、シーンを編集するプロセスフローである。操作802において、サーバに対して、ビデオメタデータの照会が行われる。ビデオメタデータに対するサーバへの照会には、ビデオ識別子が含まれうる。例示の実施形態では、ビデオ識別子は、一意なビデオメタデータエントリを識別する一意の英数字文字列またはGUIDなどである。操作804において、ビデオメタデータが受信される。操作806において、ビデオメタデータを使用してビデオが編集される。ビデオの編集では、編集内容がビデオに均一かつ矛盾なく適用されるように、ビデオメタデータが解析しうる。例えば、光の調整がビデオ内の全てのオブジェクトに適用され、オブジェクトデータ、深度データなどの要因が考慮されうる。
【0066】
例示の実施形態では、合成画像、パラメトリック画像または多項式テクスチャマッピングを使用して、シーンに光が再適用されうる。ビデオメタデータを使用して、画像およびビデオの高ダイナミックレンジのレンダリングを実現することができる。また、オブジェクトの輪郭に光を再適用するために、ビジュアルハルを記述しているビデオメタデータが処理されうる。シーンに対し、同じシーンを記述している異なる時点のメタデータを使用して光が再適用されうる。例えば、メタデータが、昼間と夜間に同じシーンを記述することができる。夜間のデータを使用して、昼間のシーンに光が再適用されて夜間のシーンが生成されうる。
【0067】
図9は、本発明の実施形態と使用するために適したコンピュータシステムの例である。このブロック図は、パーソナルコンピュータ、ビデオゲームコンソールおよび関連するディスプレイ(例えば、図1のサーバ102およびプレーヤ110)、個人情報端末または本発明の実施形態を実施するために適切な他のデジタルデバイスなどのコンピュータシステム1300を示す。コンピュータシステム1300は、ソフトウェアアプリケーション、および任意選択でオペレーティングシステムを実行するための中央処理装置(CPU)1305を備える。CPU1305は、1つ以上の同種または異種の処理コアから構成されうる。メモリ1310は、CPU1305によって使用されるアプリケーションおよびデータを記録する。ストレージ1315は、アプリケーションおよびデータのための不揮発性ストレージおよびその他のコンピュータ可読媒体を提供し、固定ディスクドライブ、リムーバブルディスクドライブ、フラッシュメモリデバイス、CD−ROM、DVD−ROM、ブルーレイ、HD−DVD、またはその他の光ストレージデバイスのほか、信号伝送および記録媒体などを備えうる。ユーザ入力デバイス1320は、一人以上のユーザからのユーザ入力をコンピュータシステム1300に伝達するものであり、その例として、キーボード、マウス、ジョイスティック、タッチパッド、タッチスクリーン、静止カメラ、ビデオカメラおよび/またはマイクロフォンなどが挙げられる。ネットワークインタフェース1325は、コンピュータシステム1300が、電子通信ネットワークを介して他のコンピュータシステムと通信できるようにし、これには、ローカルエリアネットワーク、あるいはインターネット等の広域ネットワークを介した有線通信または無線通信などが挙げられる。音声プロセッサ1330は、CPU1305、メモリ1310および/またはストレージ1315によって提供される命令および/またはデータからアナログまたはデジタルの音声出力を生成するように適合されている。CPU1305、メモリ1310、データストレージ1315、ユーザ入力デバイス1320、ネットワークインタフェース1325および音声プロセッサ1330などのコンピュータシステム1300の構成要素は、1本以上のデータバス1335を介して接続されている。
【0068】
データバス1335およびコンピュータシステム1300の構成要素に、グラフィックサブシステム1340が更に接続されている。グラフィックサブシステム1340は、グラフィック処理装置(GPU)1345およびグラフィックメモリ1350を備える。グラフィックメモリ1350は、出力画像のピクセルごとにピクセルデータを記録するために使用されるディスプレイメモリ(例えば、フレームバッファ)を備える。グラフィックメモリ1350は、GPU1345と同じデバイスに一体化されても、別個のデバイスとしてGPU1345と接続されても、メモリ1310内に実装されてもよい。ピクセルデータは、CPU1305からグラフィックメモリ1350に直接提供されうる。別の実施形態では、CPU1305は、所望の出力画像を定義しているデータおよび/または命令をGPU1345に提供し、GPU1345が、これらから1つ以上の出力画像のピクセルデータを生成する。所望の出力画像を定義しているデータまたは命令は、メモリ1310および/またはグラフィックメモリ1350に記録されうる。一実施形態では、GPU1345は、シーンの形状、照明、陰影、テクスチャリング、移動および/またはカメラパラメータを定義する命令およびデータから、出力画像のピクセルデータを生成するための3Dレンダリング機能を備える。GPU1345は、シェーダープログラムを実行することができる1つ以上のプログラム可能な実行ユニットを更に備えうる。
【0069】
グラフィックサブシステム1340は、グラフィックメモリ1350からの画像をディスプレイ装置1355に表示させるために、ピクセルデータを周期的に出力する。ディスプレイ装置1355はコンピュータシステム1300からの信号を受けて、視覚的情報を表示することができる装置であればどのようなものであってもよく、CRT、LCD、プラズマディスプレイおよびOLEDディスプレイなどを備える。コンピュータシステム1300は、ディスプレイ装置1355にアナログまたはデジタルの信号を提供しうる。
【0070】
各種実施形態によれば、CPU1305は、1つ以上の処理コアを有する1つ以上の汎用マイクロプロセッサである。別の実施形態は、メディアアプリケーションおよびインタラクティブエンタテインメントアプリケーションなどの高度にパラレルであり、演算量の多いアプリケーションに特に適合されたマイクロプロセッサアーキテクチャを備えた1つ以上のCPUを使用して実装することができる。
【0071】
上記の方法、システムおよびデバイスは単に例示に過ぎないという点に留意すべきである。各種実施形態では、適宜、さまざまな手順または構成要素を省略したり、置き換えたり、追加することができる点を強調する必要がある。例えば、別の実施形態では、方法が記載した順序と異なる順序で実行され、さまざまなステップを追加、省略したり組み合わせてもよい点に留意すべきである。また、特定の実施形態に関して記載した特徴を、さまざまな他の実施形態に組み合わせてもよい。実施形態の異なる態様および要素を、同様に組み合わせてもよい。また、技術は進歩するため、構成要素の多くは例であり、本発明の範囲を限定するものと解釈されるべきでないという点を強調する必要がある。
【0072】
実施形態を完全に理解できるように、本説明において特に詳細に記載した。しかし、このような特定の事項がなくても実施形態を実施することができることは、当業者であれば理解するであろう。例えば、実施形態を曖昧にするのを避けるために、公知の回路、プロセス、アルゴリズム、構造および技術については不要な詳細な記載を行わなかった。
【0073】
また、実施形態が、フローチャートまたはブロック図として図示されるプロセスとして記載することができる点に留意されたい。これらはそれぞれ、操作を逐次的なプロセスとして記載するものであるが、操作の多くは、並列に実行したり、あるいは同時に実行することができる。また、操作の順序を並び替えることもできる。図示されていない追加のステップがプロセスに含まれてもよい。
【0074】
また、ここに開示するように、「メモリ」または「メモリユニット」との用語は、データを記録するための1つ以上のデバイスを表すことができ、これには、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気RAM、コアメモリ、磁気ディスク記録媒体、光メモリ媒体、フラッシュメモリデバイス、あるいは、情報を記録するための他のコンピュータ可読媒体などがある。「コンピュータ可読媒体」との用語は、ポータブルまたは固定ストレージデバイス、光ストレージデバイス、無線チャネル、シムカード、その他のスマートカード、あるいは、命令またはデータを記録、格納または実行することができる他の各種媒体を含むが、これらに限定されない。
【0075】
更に、実施形態は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、またはその任意の組合せによって実装することができる。ソフトウェア、ファームウェア、ミドルウェアまたはマイクロコードにおいて実装される場合、必要なタスクを実行するためのプログラムコードまたはコードセグメントが、記録媒体などのコンピュータ可読媒体に記録されうる。プロセッサが必要なタスクを実行しうる。
【0076】
いくつかの実施形態を記載したが、本発明の趣旨を逸脱しない範囲で、さまざまな変更、代替の構造および均等物を使用することができることを、当業者は認めるであろう。例えば、上記の要素が、単に、より大きなシステムの構成要素であり、他の規則が優先されても、本発明の用途を変更するために、別の方法で変更されてもよい。また、上記の要素の前、間、またはその後に実行される複数のステップを考察することができる。したがって、上記の説明は、本発明の範囲を限定するものとして解釈すべきではない。
【符号の説明】
【0077】
100 一元管理データベースシステム
102 サーバ
104 データベース
106 データ
108 ディスプレイ
110 プレーヤ
112 ネットワーク
114 データディスク
116 投稿者
200 一元管理データベース
201 ビデオメタデータ
202 カメラデータ
204 光データ
206 音声データ
208 データ
210 深度マップデータ
211 注記データ
212 時間データ
214 レンズパラメータデータ
216 記録デバイス
218 位置データ
220 視点データ
222 加速度
224 位置データ
226 位置データ
240 音声特性データ
300 セッティング
302 シーン
304 カメラ
305 カメラ
306 音源
307 野獣
308 木
309 太陽
310 光源
314 記録デバイス
1300 コンピュータシステム
1310 メモリ
1315 データストレージ
1320 ユーザ入力デバイス
1325 ネットワークインタフェース
1330 音声プロセッサ
1335 データバス
1340 グラフィックサブシステム
1350 グラフィックメモリ
1355 ディスプレイ装置

【特許請求の範囲】
【請求項1】
ビデオ識別子を含む、ディスプレイに表示させるビデオデータを受信するステップと、
サーバに記録されており、前記ビデオデータをキャプチャしたカメラに対する光源の位置を記述するビデオ光位置メタデータを含むビデオメタデータを、前記ビデオメタデータを識別する前記ビデオ識別子を使用して、前記サーバに照会するステップと、
前記サーバから前記ビデオメタデータを受信し、前記受信したビデオ光位置メタデータにより前記ビデオデータを編集して、前記ビデオ光位置メタデータと整合させて前記ビデオデータに光を再適用する編集済みビデオデータを生成するステップと、
前記ディスプレイに前記編集済みビデオデータを出力するステップと、を有する方法。
【請求項2】
前記ビデオメタデータは、光データ、音声データ、カメラデータ、オブジェクト切り出しデータ、深度マップデータ、コンポジションデータ、および注記データを含む請求項1に記載の方法。
【請求項3】
前記ビデオデータの前記編集は前記ビデオデータからオブジェクトを削除し、前記ビデオデータの残り部分の前記光位置メタデータと整合する、前記削除するオブジェクトの背景を決定するために、前記ビデオ光位置メタデータが適用される請求項1に記載の方法。
【請求項4】
前記ビデオデータの前記編集は前記ビデオデータにオブジェクトを追加し、前記追加するオブジェクトが前記光源によって照らされているように見えるように、前記追加するオブジェクトに前記ビデオ光位置メタデータが適用される請求項1に記載の方法。
【請求項5】
前記ビデオデータの前記編集は、前記ビデオデータを光で照らすために、前記ビデオ光位置メタデータを前記光源に関して解析することによって、前記ビデオデータに光を再適用する請求項1に記載の方法。
【請求項6】
前記ビデオデータの前記編集は、同じシーンに対して2台以上のカメラによってキャプチャした前記ビデオデータを結合して、三次元画像を表現するための立体画像の対を生成するために、前記カメラデータと前記位置データとを解析する請求項2に記載の方法。
【請求項7】
前記ビデオの前記編集は前記ビデオから音声を削除し、前記削除する音声が前記音声データと整合するように、前記ビデオメタデータが適用される請求項2に記載の方法。
【請求項8】
前記削除するオブジェクトを識別するためにオブジェクト切り出しデータ、深度マップデータおよび注記データが使用される請求項3に記載の方法。
【請求項9】
ディスプレイに表示させる、ビデオ識別子を含むビデオデータを受信し、前記ビデオ識別子を使用して、サーバにビデオメタデータを照会し、前記サーバから前記ビデオメタデータを受信し、受信したビデオ光位置メタデータにより前記ビデオデータを編集して、前記ビデオ光位置メタデータと整合させて前記ビデオデータに光を再適用する編集済みビデオデータを生成するプレーヤと、
前記ビデオデータをキャプチャしたカメラに対する光源の位置を記述する前記ビデオ光位置メタデータを含む前記ビデオメタデータを記録するサーバと、
前記編集済みビデオを表示するためのディスプレイと、を有するシステム。
【請求項10】
前記ビデオメタデータは、光データ、音声データ、カメラデータ、オブジェクト切り出しデータ、深度マップデータ、および注記データを含む請求項9に記載のシステム。
【請求項11】
前記プレーヤは、前記ビデオデータからオブジェクトを削除するために前記ビデオデータを編集し、前記ビデオデータの残り部分の前記光位置メタデータと整合する、前記削除するオブジェクトの背景を決定するために、前記ビデオ光位置メタデータが適用される請求項9に記載のシステム。
【請求項12】
前記プレーヤは、前記ビデオデータにオブジェクトを追加するために前記ビデオデータを編集し、前記追加するオブジェクトが前記光源によって照らされているように見えるように、前記追加するオブジェクトに前記ビデオ光位置メタデータが適用される請求項9に記載のシステム。
【請求項13】
前記プレーヤは、前記ビデオデータを光で照らすために、前記ビデオ光位置メタデータを前記光源に関して解析することによって、前記ビデオデータに光を再適用する請求項9に記載のシステム。
【請求項14】
前記プレーヤは、同じシーンに対して2台以上のカメラによってキャプチャした前記ビデオデータを結合して、三次元画像を表現するための立体画像の対を生成するために、前記カメラデータと前記位置データとを解析することにより前記ビデオデータを編集する請求項10に記載のシステム。
【請求項15】
前記プレーヤは、前記ビデオから音声を削除するために前記ビデオデータを編集し、前記削除する音声が前記音声データと整合するように、前記ビデオメタデータが適用される請求項10に記載のシステム。
【請求項16】
前記プレーヤは、オブジェクト切り出しデータ、深度マップデータおよび注記データを解析して、前記削除するオブジェクトを識別する請求項11に記載のシステム。
【請求項17】
第1の投稿者からビデオの第1のメタデータ投稿を受信するステップと、
前記第1のメタデータ投稿をビデオメタデータデータベースに記録するステップと、
前記第1のメタデータ投稿を受信した後に、第2の投稿者からビデオの第2のメタデータ投稿を受信するステップと、
前記第2のメタデータ投稿が、前記ビデオの記述において前記第1のメタデータ投稿よりも正確であると決定するステップと、
前記ビデオメタデータデータベースに記録されている前記第1のメタデータ投稿の少なくとも一部を、前記第2のメタデータ投稿で置換するステップと、を有する方法。
【請求項18】
前記第1の投稿者および前記第2の投稿者はインターネットユーザである請求項17に記載の方法。
【請求項19】
前記ビデオメタデータデータベースに記録されている前記メタデータは、インターネットユーザがアクセス可能である請求項17に記載の方法。
【請求項20】
前記ビデオメタデータデータベースに記録されている前記メタデータは、カメラデータ、光データ、音声データ、オブジェクト切り出しデータ、深度マップデータ、および注記データを含む請求項17に記載の方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5A】
image rotate

【図5B】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate


【公開番号】特開2012−94144(P2012−94144A)
【公開日】平成24年5月17日(2012.5.17)
【国際特許分類】
【出願番号】特願2011−232857(P2011−232857)
【出願日】平成23年10月24日(2011.10.24)
【出願人】(310021766)株式会社ソニー・コンピュータエンタテインメント (417)
【Fターム(参考)】