説明

オーディオ及びビデオデータのディスプレイ装置及びディスプレイ方法と該方法を行うプログラムが記録された記録媒体

【書類】
オーディオ及びビデオデータのディスプレイ装置及びディスプレイ方法と該方法を行うプログラムが記録された記録媒体を提供する。
MPV(ミュージックフォトビデオ)フォーマットによって記述されるマルチメディアデータのディスプレイ装置は、ユーザが選択した資産が単一のオーディオデータと少なくとも1以上のビデオデータとより構成される資産であるか否かを確認し、オーディオデータとビデオデータとをディスプレイするための参照情報を抽出した後、参照情報を用いてオーディオデータを抽出してディスプレイし、オーディオデータがディスプレイされる間に所定のディスプレイ方法によって参照情報から少なくとも1以上のビデオデータを抽出して順次にディスプレイすることを特徴とする。


【発明の詳細な説明】
【技術分野】
【0001】
本発明はオーディオ及びビデオデータのディスプレイ装置及びディスプレイ方法と該方法を記録した記録媒体に係り、より詳細には、マルチメディアデータのうち、オーディオデータとビデオデータとをMPV(マルチフォトビデオ又はミュージックフォトビデオ)フォーマットの形に管理し、これをユーザに提供することである。
【背景技術】
【0002】
MPVは、Optical Storage Technology Association(光保存装置の製造会社が作った協会:以下‘OSTA’と称する)で2002年に発表したマルチメディアタイトルの業界標準規格であって、多様な形の音楽、写真、ビデオデータをユーザにより便利に提供するか、前記マルチメディアデータを操作して処理可能にするための標準規格である。MPVについての定義及びその他の標準規格については、OSTAの公式ウェブサイト(www.osta.org)を通じて提供されて利用しうる。
【0003】
最近には、パソコンを用いてデジタル写真、ビデオ、デジタルオーディオ、テキストなどのメディアデータを処理して、再生した。そして、前記メディアコンテンツを生成する装置、例えば、デジタルカメラ、デジタルカムコーダ、デジタルオーディオ再生器(MP3、WMAなどのデジタルオーディオデータを再生する装置)などの使用が多くなるにつれて多種のメディアデータが大量に生成されている。
【0004】
しかし、このように大量生成されているマルチメディアデータを管理するためにパソコンを主に使用してきて、これにより、ユーザのファイル基盤経験(File−based user experience)を要求するようになる難点が生じた。また、特定製品でマルチメディアデータが生成される時、属性データ、データ再生順序、再生方法などもそれぞれのマルチメディアデータ別に生成される場合があるが、これをパソコンと連結すれば、属性データをなくして、原本データのみ移動する。すなわち、家電製品、パソコン、及びデジタルコンテンツ生成装置間にデータとデータとの属性についての相互連動性(Inter−operability)が非常に脆弱である。
【0005】
前記相互連動性が脆弱な点について、例を挙げて説明する。デジタルカメラを使用して写真をキャプチャし、キャプチャされた写真をデジタルカメラで確認するためにスライドショー機能を使用しつつ決定された属性スライドショー順序、写真間の時間間隔、パノマラ機能を使用しつつ決定された属性撮影された写真間の関係、連写機能を使用しつつ決定された属性などのデータが原本データの実際画像データと共に保存される。この際、前記デジタルカメラにAVケーブルを使用してテレビに画像を伝送すれば、それぞれの属性が表現されたマルチメディアデータをユーザが見られるようになる。しかし、USB(ユニバーサルシリアルバス)ケーブルを通じてパソコンに連結すれば、原本データのみコンピュータに伝送され、それぞれの属性をいずれも失うようになる。
【0006】
前記の例に現れたようにデジタルカメラで保存された属性データ、すなわち、メタデータについてのパソコンの相互連動性が非常に脆弱であると見なし得る。または、デジタルカメラの機能に対するパソコンの相互連動性がないとも見なし得る。
【0007】
このようなデジタル機器間のデータに対する相互−連動性の脆弱を補強するために、MPV標準が進行しているものである。
【0008】
MPVスペックは、光学ディスク、メモリカード、コンピュータハードディスクのような記録媒体(または装置)に保存されるか、インターネットプロトコルにより交換されるデジタル写真、ビデオ、オーディオなどのマルチメディアデータの集合を処理し、再生(Playback)するためのマニフェスト(Manifest)、メタデータ及びプラクティスを定義している。
【0009】
MPVは、現在OSTA(Optical Storage Technology Association)とI3A(International Imaging Industry Association)で標準化を進行しており、前記MPVは、オープンスペック(Open specification)であり、デジタル写真やビデオ、デジタルオーディオ、テキストなどの集合の処理、交換、再生を容易にすることを主目的とする。
【0010】
MPVは、MPVコアスペック(MPV Core−Spec.0.90WD)とプロファイルに大別される。
【0011】
コアは、コレクション、メタデータ、識別(Identification)のような3種の基本要素からなりうる。
【0012】
コレクションには、ルートメンバーとしてマニフェストを有しており、メタデータ、アルバム、表示資産(Marked Asset)、資産リスト(Asset List)などがある。この際、資産は、MPVフォーマットによって記述されたマルチメディアデータを意味するが、ここには2種がある。まず、シンプルメディア資産(Simple media asset)があり、デジタル写真、ビデオ、デジタルオーディオ、文書などがその例に該当する。そして、複合メディア資産(Composite media asset)があり、デジタル写真+デジタルオーディオ(StillWithAudio)、連続撮影デジタル写真(StillMultishotSequence)、パノマラ撮影デジタル写真(StillPanoramaSequence)などがここに該当する。図1は、前記した内容の例を表している。
【0013】
メタデータは、XMLフォーマットによって、識別のために下記のような5種の識別子がある。
【0014】
1.LastURL:該当資産のパス名とファイル名(Path to the object)
2.InstanceID:各資産ごとに唯一のID(unique per object:例、Exif2.2)
3.DocumentID:原本データと変更されたデータとにいずれも同一
4.ContentID:該当資産が特定の目的のために使われる度に生成
5.id:メタデータ内でのローカル変数
一方、プロファイルは、全て7種であって、基本プロファイル(Basic profile)、プレゼンテーションプロファイル(Presentation profile)、キャプチャ/編集プロファイル(Capture/Edit profile)、記録プロファイル(Archive profile)、インターネットプロファイル(Internet profile)、印刷プロファイル(Printing profile)、コンテナプロファイル(Container profile)などがある。
【0015】
すなわち、MPVは、ユーザの意図通り記録媒体に記録された各種マルチメディアデータが再生されるようにXML(Extensible Markup Language)メタデータを用いて多様なファイル連結(association)を管理するなどの機能を支援し、特にJPEG、MP3、WMA、WMV、MPEG−1、MPEG−2、MPEG−4を支援し、デジタルカメラフォーマットであるAVI及びクイックタイム(QuickTime)MJPEGビデオを支援し、MPV規格ディスクは、ISO9660レベル1、Jolietと互換性があり、マルチセッションCD、DVD、メモリカード、ハードディスク及びインターネットとも互換されることによって、ユーザをしてさらに多様なマルチメディアデータの管理及び処理を可能ならしめる。
【発明の開示】
【発明が解決しようとする課題】
【0016】
しかし、MPVフォーマットについての標準において標準で定義されていない多様なマルチメディアデータの形態、すなわち、新たな形態の資産が必要となり、前記マルチメディアデータを提供する機能の追加が要請されている。
【課題を解決するための手段】
【0017】
本発明では、現在MPVフォーマットが提案している多様な形のマルチメディアデータに加えて新たなマルチメディアデータに関する形態を提案し、MPVフォーマットによって記述されるマルチメディアデータをユーザにより多様に提供する方法を提案することによって、多様な種類のマルチメディアデータの活用をさらに多様にしようとすることである。
【0018】
前記目的を達成するための本発明の実施によるMPV(Music Photo Video)フォーマットによって記述されるオーディオ及びビデオデータのディスプレイ装置は、ユーザが選択した資産が単一のオーディオデータと少なくとも1以上のビデオデータとより構成される資産であるか否かを確認し、前記オーディオデータと前記ビデオデータとをディスプレイするための参照情報を抽出した後、前記参照情報を用いて前記オーディオデータを抽出してディスプレイし、前記オーディオデータがディスプレイされる間、所定のディスプレイ方法によって前記参照情報から少なくとも1以上の前記ビデオデータを抽出して順次にディスプレイすることを特徴とする。この際、望ましくは、前記ディスプレイ方法は、前記オーディオデータがディスプレイされる間に前記それぞれのビデオデータの再生時間を指定するためのディスプレイ時間情報と前記オーディオデータ及び前記ビデオデータの再生時に発生する音量の大きさを調節するための音量制御情報とによってディスプレイされることを含む。
【0019】
前記目的を達成するための本発明の実施によるMPV(Music Photo Video)フォーマットによって記述されるオーディオ及びビデオデータのディスプレイ装置は、ユーザが選択した資産が単一のビデオデータと少なくとも1以上のオーディオデータとより構成される資産であるか否かを確認し、前記ビデオデータと前記オーディオデータとをディスプレイするための参照情報を抽出した後、前記参照情報を用いて前記ビデオデータを抽出してディスプレイし、前記ビデオデータがディスプレイされる間に所定のディスプレイ方法によって前記参照情報から少なくとも1以上の前記オーディオデータを抽出して順次にディスプレイすることを特徴とする。この際、望ましくは、前記ディスプレイ方法は、前記ビデオデータがディスプレイされる間に前記それぞれのオーディオデータの再生時間を指定するためのディスプレイ時間情報と前記オーディオデータの再生時に発生する音量の大きさを調節するための音量制御情報によってディスプレイされることを含む。
【0020】
前記目的を達成するための本発明の実施によるMPVフォーマットによって記述されるオーディオ及びビデオデータのディスプレイ方法は、ユーザが選択した資産が単一のオーディオデータと少なくとも1以上のビデオデータとより構成される資産であるか否かを確認する第1ステップと、前記オーディオデータとビデオデータとをディスプレイするための参照情報を抽出する第2ステップと、前記参照情報を用いて前記オーディオデータを抽出してディスプレイする第3ステップと、前記オーディオデータがディスプレイされる間に所定のディスプレイ方法によって前記参照情報から少なくとも1以上の前記ビデオデータを抽出して順次にディスプレイする第4ステップと、を含むことを特徴とする。
【0021】
この際、望ましくは、前記ディスプレイ方法は、前記オーディオデータがディスプレイされる間に前記それぞれのビデオデータの再生時間を指定するためのディスプレイ時間情報と前記オーディオデータ及び前記ビデオデータの再生時に発生する音量の大きさを調節するための音量制御情報とによってディスプレイされることを含む。この際、前記ディスプレイ時間情報は、前記ビデオデータを再生し始める開始時点情報と前記ビデオデータの再生時間を示す再生時間情報とを含む。
【0022】
また、望ましくは、前記第4ステップは、前記オーディオデータの再生時間を指定するための第1時間情報と前記少なくとも1以上のビデオデータの再生時間を指定するための第2時間情報とを同期化する第4−1ステップと、前記オーディオデータの再生時に発生する音量の大きさを調節するための第1音量制御情報と前記少なくとも1以上のビデオデータの再生時に発生する音量の大きさを調節するための第2音量制御情報とを抽出する第4−2ステップと、前記時間情報と前記音量制御情報とを用いて前記オーディオデータと前記ビデオデータとをディスプレイ媒体を通じて提供する第4−3ステップと、を含む。
【0023】
前記目的を達成するための本発明の実施によるMPVフォーマットによって記述されるオーディオ及びビデオデータのディスプレイ方法は、ユーザが選択した資産が単一のビデオデータと少なくとも1以上のオーディオデータとより構成される資産であるか否かを確認する第1ステップと、前記ビデオデータとオーディオデータをとディスプレイするための参照情報を抽出する第2ステップと、前記参照情報を用いて前記ビデオデータを抽出してディスプレイする第3ステップと、前記ビデオデータがディスプレイされる間に所定のディスプレイ方法によって前記参照情報から少なくとも1以上の前記オーディオデータを抽出して順次にディスプレイする第4ステップと、を含むことを特徴とする。
【0024】
この際、望ましくは、前記ディスプレイ方法は、前記ビデオデータがディスプレイされる間に前記それぞれのオーディオデータの再生時間を指定するためのディスプレイ時間情報と前記ビデオデータ及び前記オーディオデータの再生時に発生する音量の大きさを調節するための音量制御情報とによってディスプレイされることを含む。この際、前記ディスプレイ時間情報は、前記オーディオデータを再生し始める開始時点情報と前記オーディオデータの再生時間を示す再生時間情報とを含む。
【0025】
また、望ましくは、前記第4ステップは、前記ビデオデータの再生時間を指定するための第1時間情報と前記少なくとも1以上のオーディオデータの再生時間を指定するための第2時間情報とを同期化する第4−1ステップと、前記ビデオデータの再生時に発生する音量の大きさを調節するための第1音量制御情報と前記少なくとも1以上のオーディオデータの再生時に発生する音量の大きさを調節するための第2音量制御情報とを抽出する第4−2ステップと、前記時間情報と前記音量制御情報とを用いて前記ビデオデータと前記オーディオデータとをディスプレイ媒体を通じて提供する第4−3ステップと、を含むことを特徴とする。
【0026】
前記目的を達成するために、本発明の実施によるMPVフォーマットによって記述されるオーディオ及びビデオデータをディスプレイするプログラムが記録された記録媒体は、ユーザが選択した資産が単一のオーディオデータと少なくとも1以上のビデオデータとより構成される資産であるか否かを確認し、前記オーディオデータと前記ビデオデータとをディスプレイするための参照情報を抽出した後、前記参照情報を用いて前記オーディオデータを抽出してディスプレイし、前記オーディオデータがディスプレイされる間に所定のディスプレイ方法によって前記参照情報から少なくとも1以上の前記ビデオデータを抽出して順次にディスプレイすることを特徴とする。
【0027】
また、前記目的を達成するために、本発明の実施によるMPVフォーマットによって記述されるオーディオ及びビデオデータをディスプレイするプログラムが記録された記録媒体は、ユーザが選択した資産が単一のビデオデータと少なくとも1以上のオーディオデータとより構成される資産であるか否かを確認し、前記ビデオデータと前記オーディオデータとをディスプレイするための参照情報を抽出した後、前記参照情報を用いて前記ビデオデータを抽出してディスプレイし、前記ビデオデータがディスプレイされる間に所定のディスプレイ方法によって前記参照情報から少なくとも1以上の前記オーディオデータを抽出して順次にディスプレイすることを特徴とする。
【発明を実施するための最良の形態】
【0028】
以下、添付された図面を参照して本発明の一実施形態によるMPVフォーマットによって記述されるオーディオ及びビデオデータのディスプレイ装置及び方法を説明すれば次の通りである。
【0029】
一方、本発明ではMPVフォーマットによるマルチメディアデータを提供するためにXML(eXtensible Markup Language)を用いており、以下XML−スキーマ(schema)によって記述する。
【0030】
本発明ではOSTAで提案していない‘AudioWithVideo’資産と、‘VideoWithAudio’資産を提示することによって、さらに多様なマルチメディアデータを提供している。前記2種の新たな資産についての定義と使用例などを説明すれば次の通りである。以下で、‘smpv’と‘mpv’は、XMLでのネームスペースを示すが、‘smpv’は、本発明で新たに提案するエレメントに対するネームスペースを示し、‘mpv’は、OSTAで提案しているエレメントに対するネームスペースを示す。
【0031】
1.AudioWithVideo資産
AudioWithVideo資産は、単一のオーディオ資産に少なくとも1以上のビデオ資産を結合した形態の資産であって、XMLで記述される場合に<AudioWithVideo>エレメントと称しうる。例えば、ユーザが1つの音楽を聞きつつ、少なくとも1以上の動画像コンテンツを鑑賞するケースに該当する。この際、複数の動画像コンテンツが再生される時間間隔を調節でき、動画像コンテンツから出る音量と前記音楽から出る音量とを相互調節することもできる。
【0032】
前記オーディオ資産とビデオ資産もXMLで記述される文書(file)ではエレメントと取扱われる。この際、前記オーディオ資産は、<smpv:AudioPart>と<mpv:Audio>、前記ビデオ資産は、<smpv:VideoPart>と<mpv:Video>とで示し得る。
【0033】
前記<AudioPart>エレメントは、オーディオ資産の一部を示す。前記<AudioPart>エレメントの下位エレメントとして<SMPV:start>、<SMPV:stop>、<SMPV:dur>を定義しうるが、前記3種の下位エレメントのうち少なくとも1つ以上は必ずその値が指定されねばならない。
【0034】
<SMPV:start>エレメントは、<xs:element name=“SMPV:start” type=“xs:long” minOccurs=“0”/>のように定義されうるが、参照されるオーディオ資産の全体時間のうち、一部に対する開始時点を‘秒(second)’単位で表す。もし、如何なる値も与えられていなければ、開始時間は、<SMPV:stop>、<SMPV:dur>の値に基づいて[SMPV:start]=[SMPV:stop]−[SMPV:dur]のように計算される。<SMPV:stop>または<SMPV:dur>の値が指定されないと、<SMPV:start>の値は0となる。
【0035】
<SMPV:stop>エレメントは、<xs:elementname=“SMPV:stop” type=“xs:long” minOccurs=“0”/>のように定義されうるが、参照されるオーディオ資産の全体時間のうち、一部に対して終了地点を‘秒(second)’単位で表す。もし如何なる値も与えられていなければ、終了時間は<SMPV:start>、<SMPV:dur>の値に基づいて[SMPV:stop]=[SMPV:start]+[SMPV:dur]のように計算される。<SMPV:dur>の値が指定されずに、<SMPV:start>の値が指定されれば、<SMPV:stop>の値は参照される資産の終了時間になる。一方、<SMPV:start>の値が指定されず、<SMPV:dur>の値が指定されれば、<SMPV:stop>の値は<SMPV:dur>値になる。
【0036】
<MPV:dur>エレメントは、<xs:element name=“SMPV:dur” type=“xs:long” minOccurs=“0”/>のように定義されうるが、参照されるオーディオ資産の全体時間のうち、実際に再生される時間を示す。もし、<SMPV:dur>の値が与えられていなければ、[SMPV:dur]=[SMPV:stop]−[SMPV:start]のような方法で計算されうる。
【0037】
前記<VideoPart>エレメントは、ビデオ資産の一部を示す。<VideoPart>エレメントを定義する方法は、前記<AudioPart>エレメントの方法を同一に適用しうる。
【0038】
図2では、‘AudioWithVideo’資産の構造を概略的に説明している。
【0039】
図2で図示した<AudioWithVideo>エレメントのダイアグラムを見れば、<AudioWithVideo>エレメントは、‘mpv’と‘smpv’とを各々ネームスペース(namespace)とする複数のエレメントからなっていることが分かる。
【0040】
ここで、‘mpv’をネームスペースとするエレメントについての説明は、MPV規格に対して提案しているOSTAのホームページ‘www.osta.org’に記述されているので省略する。したがって、以下では‘smpv’をネームスペースとするエレメントについて順次に説明する。
【0041】
(1)<AudioPartRef>
<AudioPartRef>エレメントは、<AudioPart>エレメントを参照する。
【0042】
(2)<VideoPartRef>
<VideoPartRef>エレメントは、<VideoPart>エレメントを参照する。
【0043】
(3)<VideoWithAudioRef>
<VideoWithAudioRef>エレメントは、<VideoWithAudio>エレメントを参照するが、図3では、前記<VideoWithAudioRef>エレメントを簡略に記述している。
【0044】
(4)<AudioWithVideoRef>
<AudioWithVideoRef>エレメントは、<AudioWithVideo>エレメントを参照するが、図4では前記<AudioWithVideoRef>エレメントを簡略に記述している。
【0045】
(5)<VideoDurSeq>
<VideoDurSeq>エレメントの値は、それぞれのビデオデータの再生時間を示す。この際、単位は秒であり、相対的な時間値を示す。再生される時間は小数点単位でも示しうる。<VideoDurSeq>エレメントの値が設定されていない場合には、再生時間が設定されていないと判断し、該当ビデオデータの総再生時間を<VideoDurSeq>エレメントの値と見なす。
【0046】
一方、該当ビデオデータの総再生時間は、ビデオ資産で参照されるビデオデータの参照形態(reference type)によって決定されうる。
【0047】
すなわち、該当ビデオデータの総再生時間は、前記参照形態が‘VideoRef’ならば、参照されるビデオデータの総再生時間となる。もし、前記参照形態が‘VideoPartRef’ならば、参照される<VideoPart>エレメントの属性値を用いて該当ビデオデータの総再生時間が得られる。また、前記参照形態が‘AudioWithVideoRef’である場合には、参照される<AudioWithVideo>エレメントでオーディオデータについての参照形態を確認せねばならない。すなわち、オーディオデータについての参照形態が‘AudioRef’である場合には、該当ビデオデータの総再生時間は、前記オーディオデータの総再生となり、オーディオデータについての参照形態が‘AudioPartRef’である場合には、参照される<AudioPart>エレメントの属性値を用いて該当ビデオデータの総再生時間が得られる。もし、前記参照形態が‘VideoWithAudioRef’である場合には、参照される<VideoWithAudio>エレメントからビデオ資産だけ抽出し、抽出されたビデオ資産で‘VideoRef’として参照されるビデオデータの総再生時間を該当ビデオデータの総再生時間とする。
【0048】
<VideoDurSeq>エレメントの値についての説明を要約すれば次の通りである。
VideoDurSeq=<clock−value>(“;”<clock−value>); [式1]
clock−value=(<seconds>|<unknown−dur>) [式2]
unknown−dur=the empty string [式3]
seconds=<decimalnumber>(.<decimalnumber>). [式4]
[式1]は、<VideoDurSeq>エレメント値は‘clock−value’により示し、ビデオデータが2以上である場合には、”;”を用いてそれぞれのビデオデータの再生時間を区別するということを意味する。
【0049】
[式2]は、前記[式1]で‘clock−value’値は、‘seconds’で示すか、‘unknown−dur’で表すということを意味する。
【0050】
[式3]は、前記[式2]で‘unknown−dur’は、前記‘clock−value’値を設定していないことを意味する。
【0051】
[式4]は、前記[式2]で‘seconds’値は、10進数で示し、小数点を用いて該当ビデオデータの再生時間を示すということを意味する。
【0052】
例えば、前記‘clock−value’値が‘7.2’である場合は、該当ビデオデータの再生時間が7.2秒であることを示す。他の例として、前‘clock−value’値が、‘2;10.9’である場合は、該当ビデオデータは2個があるが、最初のビデオデータの再生時間は、2秒であり、2番目のビデオデータの再生時間は、10.9秒であることを示す。さらに他の例として、前記‘clock−value’値が‘;,5.6’である場合は、該当ビデオデータが2個あるが、最初のビデオデータの再生時間は設定されていないので、最初のビデオデータは、該当コンテンツの総再生時間の間に再生され、2番目のビデオデータの再生時間は、5.6秒であることを示す。図5では、前記<VideoDurSeq>エレメントを簡略に記述している。
【0053】
(6)<StartSeq>
<StartSeq>エレメントの値は、それぞれのビデオデータの再生時の再生開始時点を示す。この際、単位は、秒(second)であり、それぞれのビデオデータが再生開始時点に基づいて相対的な時間値を示す。再生開始時点は、小数点単位でも示し得る。例えば、<StartSeq>エレメントの値が設定されていない場合には、該当値を0秒と見なす。すなわち、該当ビデオデータが再生開始時点から再生し始める。もし、<StartSeq>エレメントの値が該当ビデオデータの総再生時間より大きい場合には、該当ビデオデータの再生が終了された後に再生される結果となるので、このような場合には、<StartSeq>エレメントの値を‘0’と見なす。
【0054】
もし、前記<VideoDurSeq>エレメントと前記<StartSeq>エレメントとが<AudioWithVideo>エレメント内でいずれも定義された場合に、前記<VideoDurSeq>エレメント値と前記<StartSeq>エレメント値とを加算した値が再生しようとするビデオデータの総再生時間より同じか、小さくなければならない。もし、そうでない場合には、<VideoDurSeq>エレメント値は、該当ビデオデータの総再生時間から、前記<StartSeq>エレメント値を差し引いた値とする。図6では、前記<StartSeq>エレメントを簡略に記述している。
【0055】
(7)<VideoVolumeSeq>
<VideoVolumeSeq>エレメント値は、該当ビデオデータの音量大きさを百分率で示す。したがって、<VideoVolumeSeq>エレメント値が0である場合には、該当ビデオデータに対する音量も0となる。もし、<VideoVolumeSeq>エレメント値が設定されていない場合には、該当ビデオデータの元の音量で再生される。
【0056】
複数のビデオデータが再生される場合には、再生されるビデオデータの数ほど<VideoVolumeSeq>エレメント値が設定されるが、もし単一の値(single value)のみ設定された場合には、再生されるあらゆるビデオデータの音量は設定された前記単一の値(single value)に再生される。図7では、前記<VideoVolumeSeq>エレメントを簡略に記述している。
【0057】
(8)<AudioVolume>
<AudioVolume>エレメント値は、該当オーディオデータの音量大きさを百分率で示す。もし、<AudioVolume>エレメント値が設定されていない場合には、<AudioVolume>エレメント値を100と見なす。図8では、前記<AudioVolume>エレメントを簡略に記述している。
【0058】
図9は、<AudioWithVideo>エレメントのタイプについてのダイアグラムを要約した例示図である。
【0059】
前記で記述したエレメントを用いてAudioWithVideo資産を提供する方法を例として挙げる。
【0060】
例1)
<SMPV:AudioWithVideo>
<AudioRef>A0007</AudioRef>
<VideoRef>V1205</VideoRef>
<VideoRef>V1206</VideoRef>
<SMPV:StartSeq>;3</SMPV:StartSeq>
</SMPV:AudioWithVideo>
前記例1)では、‘A0007’値で参照される1個のオーディオ資産と各々‘V1205’と‘V1206’値で参照される2個のビデオ資産を用いてAudioWithVideo資産を再生する方法を示している。前記例1)の場合<StartSeq>エレメント値を見れば、‘V1205’値で参照されるビデオ資産に対しては値が設定されていないので、該当値を0秒と見なす。すなわち、‘V1205’値で参照されるビデオ資産は、‘A0007’値で参照されるオーディオ資産が再生開始時点から‘V1206’値で参照されるビデオ資産が再生されるまで再生する。一方、‘V1206’値で参照されるビデオ資産に対しては値が3に設定されたので、‘V1206’値で参照されるビデオ資産は‘V1206’値で参照されるビデオ資産の開始から3秒が経つ時点から再生し始める。
【0061】
例2)
<SMPV:AudioWithVideo>
<AudioRef>A0001</AudioRef>
<VideoRef>V1001</VideoRef>
<VideoRef>V1002</VideoRef>
<VideoRef>V1003</VideoRef>
<SMPV:VideoDurSeq>2;;10</SMPV:VideoDurSeq>
<SMPV:StartSeq>;3;0</SMPV:StartSeq>
<SMPV:VideoVolumeSeq>50</SMPV:VideoVolumeSeq>
<SMPV:AudioVolume>50</SMPV:AudioVolume>
</SMPV:AudioWithVideo>
前記例2)では、‘A0001’値で参照される1個のオーディオ資産と各々‘V1001’、‘V1002’、‘V1003’値で参照される3個のビデオ資産を用いてAudioWithVideo資産を再生する方法を表している。前記例2)の場合、‘V1001’値で参照されるビデオ資産は、2秒間再生される。そして、‘V1002’値で参照されるビデオ資産は前記‘V1001’値で参照されるビデオ資産の再生が終了した後に‘V1002’値で参照されるビデオ資産の開始から3秒が経つ時点から再生し始める。そして、‘V1003’値で参照されるビデオ資産は、前記‘V1002’値で参照されるビデオ資産の再生が終了した後に10秒間再生される。
【0062】
一方、前記3個のビデオ資産の音量は、いずれも原音量の50%ほど再生され、前記オーディオ資産の音量も原音量の50%ほど再生される。
【0063】
例3)
<SMPV:AudioWithVideo>
<AudioRef>A0001</AudioRef>
<VideoPartRef>VP1001</VideoPartRef>
<AudioWithVideoRef>AV1002</AudioWithVideoRef>
</SMPV:AudioWithVideo>
前記例3)では、‘A0001’値で参照される1個のオーディオ資産と‘VP1001’で参照されるVideoPart資産と、‘AV1002’値で参照されるAudioWithVideo資産を用いてAudioWithVideo資産を再生することを表している。
【0064】
2.‘VideoWithAudio’資産
‘VideoWithAudio’資産は、単一のビデオ資産(video asset)に少なくとも1以上のオーディオ資産を結合した形態の資産であって、XMLで記述される場合に‘VideoWithAudio’エレメントと称しうる。前記オーディオ資産とビデオ資産ともXMLで記述される文書ではエレメントと取扱われる。この際、前記オーディオ資産は、‘smpv:AudioPart’と‘mpv:Audio’で示し、前記ビデオ資産は、‘smpv:VideoPart’と‘mpv:Video’で示し得る。
【0065】
図10では、‘VideoWithAudio’エレメントの構造を概略的に説明している。前記図10で図示した<VideoWithAudio>エレメントのダイアグラムを見れば、<VideoWithAudio>エレメントは、‘mpv’と‘smpv’とを各々ネームスペースとする複数のエレメントからなっていることが分かる。
【0066】
ここで、‘mpv’をネームスペースとするエレメントについての説明は、MPV規格について提案しているOSTAのホームページ‘www.Osta.org’に記述されているので省略する。したがって、以下では、‘smpv’をネームスペースとするエレメントについて順次に説明する。一方、AudioWithVideo資産についての説明で既に記述した内容は省略する。
【0067】
(1)<AudioDurSeq>
<AudioDurSeq>エレメントの値は、それぞれのオーディオデータの再生時間を示す。この際、単位は秒であり、相対的な時間値を示す。再生時間は、小数点単位でも示し得る。<AudioDurSeq>エレメントの値が設定されていない場合には、再生時間が設定されていないと見て該当オーディオデータの総再生時間を<AudioDurSeq>エレメントの値と見なす。<AudioDurSeq>エレメントの値についての説明を要約すれば次の通りである。
AudioDurSeq=<clock−value>(“;”<clock−value>); [式5]
clock−value=(<seconds>|<unknown−dur>) [式6]
unknown−dur=the empty string [式7]
seconds=<decimalnumber>(.<decimalnumber>). [式8]
[式5]で<AudioDurSeq>エレメント値は、‘clock−value’により示し、オーディオデータが2以上である場合には、”;”を用いてそれぞれのオーディオコンテンツの再生時間を区別するということを意味する。
【0068】
[式6]は、前記[式5]で‘clock−value’値は、‘seconds’で示すか、‘unknown−dur’で示すということを意味する。
【0069】
[式7]は、前記[式6]で‘unknown−dur’は、前記‘clock−value’値を設定していないということを意味する。
【0070】
[式8]は、前記[式6]で‘seconds’値は、10進数で示し、小数点を用いて該当オーディオデータの再生時間を示すということを意味する。
【0071】
例えば、前記‘clock−value’値が‘12.2’である場合は、該当オーディオデータの再生時間が12.2秒であることを示す。他の例として前記‘lock−value’値が‘20;8.9’である場合に該当オーディオデータは2個があるが、最初のオーディオデータの再生時間は20秒であり、2番目のオーディオデータの再生時間は、8.9秒であることを示す。さらに他の例として前記‘clock−value’値が‘;56.5’である場合に、該当オーディオデータは2個があるが、最初のオーディオデータの再生時間は設定されていないので、最初のオーディオデータは、該当オーディオデータの総再生時間の間に再生され、2番目のオーディオデータの再生時間は56.5秒であることを示す。図11では、前記<AudioDurSeq>エレメントを簡略に記述している。
【0072】
(2)<AudioVolumeSeq>
AudioVolumeSeq>エレメント値は、該当オーディオデータの音量大きさを百分率で表す。もし、<AudioVolumeSeq>エレメント値が設定されていない場合には、該当オーディオデータの元の音量で再生される。
【0073】
複数のオーディオデータが再生される場合には、再生されるオーディオデータの数ほど<AudioVolumeSeq>エレメント値が設定されるが、もし単一の値(single value)のみ設定された場合には、再生されるあらゆるオーディオデータの音量は設定された前記単一の値で再生される。図12では、前記<AudioVolumeSeq>エレメントを簡略に記述している。
【0074】
(3)<VideoVolume>
<VideoVolume>エレメント値は、該当ビデオデータの音量大きさを百分率で示す。もし、<VideoVolume>エレメント値が設定されていない場合には、<VideoVolume>エレメント値を100と見なす。すなわち、該当ビデオデータの原音量で再生される。図13では、前記<VideoVolume>エレメントを簡略に記述している。
【0075】
図14は、前記<VideoWithAudio>エレメントのタイプについてのダイアグラムを要約した例示図である。
【0076】
一方、本発明では資産の参照のための参照グループを定義しうる。
【0077】
すなわち、オーディオ資産を参照(reference)するための‘AudioRefGroup’とビデオ資産を参照するための‘VideoRefGroup’を定義しうる。
【0078】
この際、前記AudioRefGroupには、<mpv:AudioRef>エレメントと、<SMPV:AudioPartRef>エレメントとが含まれる。
【0079】
また、前記VideoRefGroupには、<mpv:VideoRef>エレメントと、<SMPV:VideoPartRef>エレメントと、<SMPV:VideoWithAudioRef>エレメントと、<SMPV:AudioWithVideoRef>エレメントとが含まれる。図15及び図16では、前記‘AudioRefGroup’グループと前記‘VideoRefGroup’グループとについて記述している。
【0080】
図17は、本発明の実施による‘AudioWithVideo’資産を再生する過程を示すフローチャートである。
【0081】
ユーザがMPVフォーマットによって記述されたファイルを実行させうるソフトウェアを実行させ、特定のアルバムにある‘AduioWithVideo’資産を選択する(S1700)。次いで、スレッド(thread)または子プロセッサ(child processor)が生成されて各々オーディオ資産についての情報とビデオ資産についての情報とを収集する。
【0082】
すなわち、ユーザが選択した‘AudioWithVideo’資産を構成するオーディオ資産についての参照情報を抽出する(S1705)。そして、前記参照情報を用いて資産目録(asset list)から前記オーディオ資産に関する情報を抽出する(S1710)。この際、前記オーディオ資産の再生時間情報とボリューム情報とを得る(S1715、S1720)。
【0083】
一方、他のスレッドまたは子プロセッサでは、まず前記オーディオ資産と結合されるビデオ資産目録を抽出し(S1725)、前記資産目録からあらゆるビデオ資産に関する情報を抽出する(S1730)。次いで、前記情報を用いてビデオ資産を再生するためのシナリオ、すなわち、それぞれのビデオデータの順序及び再生時間を決定する(S1735)。前記S1735ステップで前記オーディオ資産と結合されるあらゆるビデオ資産のシナリオが決まるとしても、あらゆるビデオ資産の総再生時間が前記オーディオ資産の再生時間より長くなることもある。したがって、このような場合には、前記オーディオ資産の再生時間に合わせて前記ビデオ資産の総再生時間を決定するが、この際、前記S1715ステップで得たオーディオ資産の再生時間情報を利用する(S1740)。したがって、前記オーディオ資産の再生時間以後に再生される一部のビデオ資産は再生されないこともある。前記S1740ステップを終えれば、それぞれのビデオデータから発生する音量の大きさが調節される(S1745)。
【0084】
前記‘AudioWithVideo’資産をディスプレイするために前記‘AudioWithVideo’資産を構成するオーディオ資産とビデオ資産についての情報をいずれも得るならば、前記情報を用いて前記‘AudioWithVideo’資産を示すコンテンツを再生する(S1750)。
【0085】
図18は、本発明の実施によるオーディオ及びビデオデータをディスプレイする装置のブロックダイアグラムであって、図17に示されている過程を行う。
【0086】
図18に示される装置1800は、確認部1810と抽出部1820とを備える。確認部1810は、ユーザによる入力を受信し、前記ユーザにより選択された資産がオーディオデータとビデオデータとを含んでいるかを確認する。次いで、抽出部1820は、オーディオデータとビデオデータとをディスプレイするための参照情報を抽出し、前記参照情報を用いて抽出されたオーディオデータを出力する。次いで、抽出部1820は、前記参照情報からビデオデータを抽出して前記オーディオデータが出力される間に前記ビデオデータをディスプレイする。前記ビデオデータは、既定の方法によって順次にディスプレイされうる。
【0087】
一方、MPVフォーマットにより提供されるマルチメディアデータはXML文書の形態に記述されて示し得るが、XML文書に適用されるスタイルシート(style sheets)によって前記XML文書は、複数のアプリケーション文書に変換されうる。本発明では、XML文書をHTML文書に変換するスタイルシートを適用してブラウザーを通じてユーザがオーディオ及びビデオデータを管理可能にしているが、その他にもWML(Wireless Markup Language)、cHTML(Compact HTML)文書に変換するスタイルシートを適用してPDA(Personal Digital Assistants)、セルラーホン、スマートホンのようなモバイル端末機を通じてユーザがMPVフォーマットにより記述されるオーディオ及びビデオデータに対する接近が可能である。
【産業上の利用可能性】
【0088】
本発明によってオーディオデータとビデオデータとが結合された新たな形のマルチメディアデータ資産をユーザに提供することによって、ユーザはMPVフォーマットで記述されるさらに多様なマルチメディアデータを生成して利用できる効果がある。
【0089】
前述した本発明は、本発明が属する技術分野で当業者によって本発明の技術的思想を外れない範囲内で色々な置換、変形及び変更が可能なので、前述した実施形態及び添付された図面に限定されるものではない。
【図面の簡単な説明】
【0090】
【図1】MPV(ミュージックフォトビデオ)スペックで記述している資産の種類を示す例示図である。
【図2】本発明の実施による‘AudioWithVideo’資産の構造を概略的に示している例示図である。
【図3】本発明の実施による<VideoWithAudioRef>エレメントを簡略に記述している例示図である。
【図4】本発明の実施による<AudioWithVideoRef>エレメントを簡略に記述する例示図である。
【図5】本発明の実施による<VideoDurSeq>エレメントを簡略に記述する例示図である。
【図6】本発明の実施による<StartSeq>エレメントを簡略に記述する例示図である。
【図7】本発明の実施による<VideoVolumeSeq>エレメントを簡略に記述する例示図である。
【図8】本発明の実施による<AudioVolume>エレメントを簡略に記述する例示図である。
【図9】本発明の実施による<AudioWithVideo>エレメントのタイプについてのダイアグラムを要約した例示図である。
【図10】本発明の実施による‘VideoWithAudio’資産の構造を概略的に示している例示図である。
【図11】本発明の実施による<AudioDurSeq>エレメントを簡略に記述する例示図である。
【図12】本発明の実施による<AudioVolumeSeq>エレメントを簡略に記述する例示図である。
【図13】本発明の実施による<VideoVolume>エレメントを簡略に記述する例示図である。
【図14】本発明の実施による<VideoWithAudio>エレメントのタイプについてのダイアグラムを要約した例示図である。
【図15】本発明の実施によるAudioRefGroupグループを簡略に記述する例示図である。
【図16】本発明の実施によるVideoRefGroupグループを簡略に記述する例示図である。
【図17】本発明の実施による‘AudioWithVideo’資産を再生する過程を示すフローチャートである。
【図18】本発明の実施によるオーディオ及びビデオデータをディスプレイする装置のブロックダイアグラムである。

【特許請求の範囲】
【請求項1】
MPV(ミュージックフォトビデオ)フォーマットによって記述されるマルチメディアデータのディスプレイ装置において、
ユーザが選択した資産(アセット)が単一のオーディオデータと少なくとも1以上のビデオデータとより構成される資産であるか否かを確認し、前記オーディオデータと前記ビデオデータとをディスプレイするための参照情報を抽出した後、前記参照情報を用いて前記オーディオデータを抽出してディスプレイし、前記オーディオデータがディスプレイされる間に所定のディスプレイ方法によって前記参照情報から少なくとも1以上の前記ビデオデータを抽出して順次にディスプレイすることを特徴とするオーディオ及びビデオデータのディスプレイ装置。
【請求項2】
前記ディスプレイ方法は、前記オーディオデータがディスプレイされる間に前記それぞれのビデオデータの再生時間を指定するためのディスプレイ時間情報と前記オーディオデータ及び前記ビデオデータの再生時に発生する音量の大きさを調節するための音量制御情報によってディスプレイされることを含むことを特徴とする請求項1に記載のオーディオ及びビデオデータのディスプレイ装置。
【請求項3】
MPVフォーマットによって記述されるマルチメディアデータのディスプレイ装置において、
ユーザが選択した資産が単一のビデオデータと少なくとも1以上のオーディオデータとより構成される資産であるか否かを確認し、前記ビデオデータと前記オーディオデータとをディスプレイするための参照情報を抽出した後、前記参照情報を用いて前記ビデオデータを抽出してディスプレイし、前記ビデオデータがディスプレイされる間に所定のディスプレイ方法によって前記参照情報から少なくとも1以上の前記オーディオデータを抽出して順次にディスプレイすることを特徴とするオーディオ及びビデオデータのディスプレイ装置。
【請求項4】
前記ディスプレイ方法は、前記ビデオデータがディスプレイされる間に前記それぞれのオーディオデータの再生時間を指定するためのディスプレイ時間情報と前記オーディオデータの再生時に発生する音量の大きさを調節するための音量制御情報によってディスプレイされることを含むことを特徴とする請求項3に記載のオーディオ及びビデオデータディスプレイ装置。
【請求項5】
MPVフォーマットによって記述されるマルチメディアデータのディスプレイ方法において、
ユーザが選択した資産が単一のオーディオデータと少なくとも1以上のビデオデータとより構成される資産であるか否かを確認する第1ステップと、
前記オーディオデータとビデオデータとをディスプレイするための参照情報を抽出する第2ステップと、
前記参照情報を用いて前記オーディオデータを抽出してディスプレイする第3ステップと、
前記オーディオデータがディスプレイされる間に所定のディスプレイ方法によって前記参照情報から少なくとも1以上の前記ビデオデータを抽出して順次にディスプレイする第4ステップと、を含むことを特徴とするオーディオ及びビデオデータのディスプレイ方法。
【請求項6】
前記ディスプレイ方法は、前記オーディオデータがディスプレイされる間に前記それぞれのビデオデータの再生時間を指定するためのディスプレイ時間情報と前記オーディオデータ及び前記ビデオデータの再生時に発生する音量の大きさを調節するための音量制御情報によってディスプレイされることを含むことを特徴とする請求項5に記載のオーディオ及びビデオデータのディスプレイ方法。
【請求項7】
前記ディスプレイ時間情報は、前記ビデオデータを再生し始める開始時点情報と前記ビデオデータの再生時間を示す再生時間情報とを含むことを特徴とする請求項6に記載のオーディオ及びビデオデータのディスプレイ方法。
【請求項8】
前記第4ステップは、前記オーディオデータの再生時間を指定するための第1時間情報と前記少なくとも1以上のビデオデータの再生時間を指定するための第2時間情報とを同期化する第4−1ステップと、
前記オーディオデータの再生時に発生する音量の大きさを調節するための第1音量制御情報と前記少なくとも1以上のビデオデータの再生時に発生する音量の大きさを調節するための第2音量制御情報とを抽出する第4−2ステップと、
前記時間情報と前記音量制御情報とを用いて前記オーディオデータと前記ビデオデータとをディスプレイ媒体を通じて提供する第4−3ステップと、を含むことを特徴とする請求項5に記載のオーディオ及びビデオデータのディスプレイ方法。
【請求項9】
MPVフォーマットによって記述されるマルチメディアデータのディスプレイ方法において、
ユーザが選択した資産が単一のビデオデータと少なくとも1以上のオーディオデータとより構成される資産であるか否かを確認する第1ステップと、
前記ビデオデータとオーディオデータとをディスプレイするための参照情報を抽出する第2ステップと、
前記参照情報を用いて前記ビデオデータを抽出してディスプレイする第3ステップと、
前記ビデオデータがディスプレイされる間に所定のディスプレイ方法によって前記参照情報から少なくとも1以上の前記オーディオデータを抽出して順次にディスプレイする第4ステップと、を含むことを特徴とするオーディオ及びビデオデータのディスプレイ方法。
【請求項10】
前記ディスプレイ方法は、前記ビデオデータがディスプレイされる間に前記それぞれのオーディオデータの再生時間を指定するためのディスプレイ時間情報と前記ビデオデータ及び前記オーディオデータの再生時に発生する音量の大きさを調節するための音量制御情報とによってディスプレイされることを含むことを特徴とする請求項9に記載のオーディオ及びビデオデータのディスプレイ方法。
【請求項11】
前記ディスプレイ時間情報は、前記オーディオデータを再生し始める開始時点情報と前記オーディオデータの再生時間を示す再生時間情報とを含むことを特徴とする請求項10に記載のオーディオ及びビデオデータのディスプレイ方法。
【請求項12】
前記第4ステップは、前記ビデオデータの再生時間を指定するための第1時間情報と前記少なくとも1以上のオーディオデータの再生時間を指定するための第2時間情報とを同期化する第4−1ステップと、
前記ビデオデータの再生時に発生する音量の大きさを調節するための第1音量制御情報と前記少なくとも1以上のオーディオデータの再生時に発生する音量の大きさを調節するための第2音量制御情報とを抽出する第4−2ステップと、
前記時間情報と前記音量制御情報とを用いて前記ビデオデータと前記オーディオデータとをディスプレイ媒体を通じて提供する第4−3ステップと、を含むことを特徴とする請求項9に記載のオーディオ及びビデオデータのディスプレイ方法。
【請求項13】
MPVフォーマットによって記述されるマルチメディアデータのディスプレイのためのプログラムが記録された記録媒体において、
前記プログラムは、ユーザが選択した資産が単一のオーディオデータと少なくとも1以上のビデオデータとより構成される資産であるか否かを確認し、前記オーディオデータと前記ビデオデータとをディスプレイするための参照情報を抽出した後、前記参照情報を用いて前記オーディオデータを抽出してディスプレイし、前記オーディオデータがディスプレイされる間に所定のディスプレイ方法によって前記参照情報から少なくとも1以上の前記ビデオデータを抽出して順次にディスプレイすることを特徴とする記録媒体。
【請求項14】
MPVフォーマットによって記述されるマルチメディアデータのディスプレイのためのプログラムが記録された記録媒体において、
前記プログラムは、ユーザが選択した資産が単一のビデオデータと少なくとも1以上のオーディオデータとより構成される資産であるか否かを確認し、前記ビデオデータと前記オーディオデータとをディスプレイするための参照情報を抽出した後、前記参照情報を用いて前記ビデオデータを抽出してディスプレイし、前記ビデオデータがディスプレイされる間に所定のディスプレイ方法によって前記参照情報から少なくとも1以上の前記オーディオデータを抽出して順次にディスプレイすることを特徴とする記録媒体。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate


【公表番号】特表2007−506388(P2007−506388A)
【公表日】平成19年3月15日(2007.3.15)
【国際特許分類】
【出願番号】特願2006−527905(P2006−527905)
【出願日】平成16年9月10日(2004.9.10)
【国際出願番号】PCT/KR2004/002309
【国際公開番号】WO2005/029490
【国際公開日】平成17年3月31日(2005.3.31)
【出願人】(503447036)サムスン エレクトロニクス カンパニー リミテッド (2,221)
【Fターム(参考)】