説明

伝送装置

【課題】SMPTE302M規格では、HD−SDI信号に多重化されている映像に対する音声の遅延時間を示す情報を、映像データおよび音声データとともに伝送することについては規定されていない。つまり、通常、MPEG−2TSデータを受信する受信装置等では、映像に対する音声の遅延時間を把握することはできない。
【解決手段】HD−SDI信号に多重化されている映像データと音声データとをMPEG−2TSデータに多重化するために、音声データをSMPTE302M形式の音声パケットデータに変換する。この時、音声データの記映像データに対する遅延時間に関する遅延情報を音声パケットデータの未使用領域に格納して、SMPTE302M形式の音声パケットデータに変換する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、映像データと音声データとを多重して伝送する伝送装置に関し、特に、映像に対する音声の遅延時間に関する情報を映像データおよび音声データとともに伝送する伝送装置に関する。
【背景技術】
【0002】
従来、映像データと音声データとを多重化して送信するための規格として、MPEG(Moving Picture Experts Group)が存在する。また、HD(High Definition)映像を伝送するためのHD−SDI(Serial Digital Interface)信号にAES(Audio Engineering Society)音声を多重化するための規格として、ARIB(社団法人電波産業会:Association of Radio Industries and Businesses)が定めたARIB−STD BTA S−006B(非特許文献1)、およびSMPTE(米国映画テレビ技術者協会:Society of Motion Picture and Television Engineers)が定めたSMPTE299M規格が存在する。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】社団法人電波産業会、「1125/60方式HDTVビット直列インタフェースにおけるデジタル音声規格 標準規格 BTA S−006B」、1125/60方式スタジオシステム 標準規格、平成10年3月17日、p.133−160
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、HD−SDI信号に多重化されている非圧縮音声であるAES音声をMPEG−2 part1 System規格に準拠したMPEG−2TransportStream形式(以下、「MPEG−2TS」と略す)で伝送する場合、通常はSMPTE302M規格に準拠したPacketized Elementary Stream(以降「PES」と略す)で伝送する。
【0005】
しかしながら、この規格では、HD−SDI信号に多重化されている映像に対する音声の遅延時間を示す情報を、映像データおよび音声データとともに伝送することについては規定されていない。つまり、通常、MPEG−2TSデータを受信する受信装置等では、映像に対する音声の遅延時間を把握することはできない。よって、従来では、受信装置等において映像や音声を再生し、目視によって映像と音声のずれを補正する等の方法を採っていた。
【0006】
また、例えば、音声の遅延時間を示す情報を、映像データおよび音声データとは異なるPID(パケット識別子:Packet Identifier)のMPEG−2TSデータとして受信装置等に送信する方法も考えられる。しかし、この場合、映像データおよび音声データと、遅延情報との関連付けを別途行う必要があり、伝送データ量も多くなる。
【0007】
そこで、本発明は上記課題を解決し、SMPTE302M規格に準拠しつつ、伝送データを受信する装置において映像に対する音声の遅延時間が把握可能な伝送装置を提供することを目的とする。
【課題を解決するための手段】
【0008】
上記課題を解決するために、本発明は、映像データと音声データとが多重化されたHD−SDI信号から前記映像データと前記音声データとを抽出する抽出手段と、前記映像データを、MPEG−2TS形式で多重化可能な形式の映像パケットデータに変換する映像データ変換手段と、前記音声データを、SMPTE302M形式の音声パケットデータに変換する音声データ変換手段と、前記映像パケットデータと前記音声パケットデータとを多重化することでMPEG−2TS形式に変換して送信する送信手段と、を有し、前記音声データ変換手段は、前記映像データに対する前記音声データの遅延時間に関する遅延情報を前記音声パケットデータの未使用領域に格納して、SMPTE302M形式の音声パケットデータに変換することを特徴とする伝送装置を提案する。
【0009】
この構成によれば、SMPTE302M規格に準拠しつつ、映像に対する音声の遅延時間に関する情報を、伝送装置から外部の装置に送信することができる。これにより、受信側の装置では映像に対する音声の遅延時間を把握し、例えば音声と映像とのずれを補正して再生すること等が可能となる。また、映像に対する音声の遅延時間に関する情報を送信するために、映像データおよび音声データ以外の余分なデータを送信する必要もないため、伝送データ量が増加することもない。
【発明の効果】
【0010】
以上のように、本発明によれば、SMPTE302M規格に準拠しつつ、映像に対する音声の遅延時間に関する情報を、伝送装置から他の装置に送信することが可能である。これにより、受信側の装置において映像と音声との間の遅延量を把握し、映像と音声との再生タイミングの調整が可能となる。
【図面の簡単な説明】
【0011】
【図1】映像システムの構成例を示す図である。
【図2】Embedded−Audioの音声制御パケットの構造を示す図である。
【図3】音声制御パケットの各構成の詳細を示す図である。
【図4】音声遅延情報データの詳細を示す図である。
【図5】SMPTE302M形式のPESデータの構成を示す図である。
【図6】SMPTE302M AES3 data Headerの構成を示す図である。
【図7】d10〜d12およびd25のビットの組み合わせにより表現可能な音声遅延量を示す図である。
【図8】伝送装置100における処理の流れを示すフロー図である。
【図9】受信装置200における処理の流れを示すフロー図である。
【発明を実施するための形態】
【0012】
以下、本発明の実施形態について、図面を参照しながら説明する。なお、以下の説明において参照する各図では、他の図と同等部分は同一符号によって示される。
【0013】
(伝送システムの構成)
図1は、本実施形態に係る伝送システムの構成例を示す図である。本実施形態に係る伝送システムは、伝送装置100と受信装置200とを含んで構成される。伝送装置100は、受信したHD−SDI信号から映像データおよび音声データを分離し、分離した映像データおよび音声データをMPEG−2TS形式に変換して受信装置200に送信する。また、受信装置200は、伝送装置100から受信するMPEG−2TS形式のデータから映像データおよび音声データを分離し、分離した映像データおよび音声データをHD−SDI信号に多重可能なEmbedded−Audioデータに変換する。
【0014】
なお、以下に説明する伝送装置100および受信装置200は、図示しないCPU(Central Processing Unit)、RAM(Random Access Memory)等のメモリ、ハードディスク等の記憶装置、ネットワークインターフェイス等の一般的なコンピュータの構成と同様の構成により実現される。また、伝送装置100および受信装置200の各構成の機能は、例えば、各装置のCPUがハードディスク等に記憶されているプログラムを読み出して実行することにより、もしくは、例えば、FPGA(Field Programmable Gate Array)においてシーケンサロジックをカスタム設計することに実現される機能である。また、映像データ、音声データ、音声制御パケット等の各データは、各装置のハードディスクやRAM等に記憶されるデータである。
【0015】
(伝送装置100の構成)
伝送装置100は、抽出部110と、映像データ変換部120と、音声データ変換部130と、送信部140と、遅延情報取得部150と、を有する。
【0016】
抽出部110は、映像データと音声データとが多重化されたHD−SDI信号から映像データと音声データとを抽出する。本実施形態においては、抽出部110で受信するHD−SDI信号は、外部の装置から受信される信号であり、音声データであるEmbedded−Audioデータが多重化されている信号である。つまり、抽出部110は、HD−SDI信号から、映像データと、Embedded−Audioデータとを抽出する。
【0017】
映像データ変換部120は、抽出部110で抽出された映像データを、MPEG−2TS形式で多重化可能な形式の映像パケットデータに変換する。映像データ変換部120は、具体的には、映像ES処理部121において、抽出部110で抽出された映像データを任意のES(Elementary Stream)形式に変換する。「任意のES形式に変換する」とは、具体的には、例えばH.264圧縮符号化を行い、ES形式のデータ(以下、適宜、「映像ESデータ」という。)を生成することが該当する。そして、映像データ変換部120は、映像PES処理部122において、このESデータをMPEG−2 part1 System規格に準拠したPESデータ(以下、適宜、「映像PESデータ」という。)に変換する。
【0018】
音声データ変換部130は、抽出部110で抽出された音声データを、SMPTE302M形式の音声パケットデータに変換する。音声データ変換部130は、具体的には、音声ES処理部131において、抽出部110で抽出されたEmbedded−AudioデータをESデータ(以下、適宜、「音声ESデータ」という。)に変換する。さらに、音声データ変換部130は、音声PES処理部132において、このESデータをパケット化してSMPTE302M規格に準拠したPESデータ(以下、適宜、「音声PESデータ」という。)に変換する。
【0019】
また、音声データ変換部130は、抽出部110で抽出された映像データに対する音声データの遅延時間に関する遅延情報を、音声パケットデータの未使用領域に格納する。本実施形態においては、遅延情報は、HD−SDI信号に多重化されているEmbedded−Audioの音声制御パケットに含まれている情報の少なくとも一部である。具体的には、本実施形態における遅延情報は、HD−SDI信号に多重化されているEmbedded−Audioの音声制御パケットに含まれる音声遅延情報データであるUDW4の3〜5ビット目およびUDW5の9ビット目である。この点については、後に詳述する。
【0020】
また、伝送装置100は、さらに遅延情報を取得する遅延情報取得部150をさらに有していてもよい。そして、音声データ変換部130は、遅延情報取得部150において取得された遅延情報を音声パケットデータ(例えば、音声PESデータ)の未使用領域に格納するようになっていてもよい。具体的には、例えば、外部の装置からの送信やユーザからの入力を受け付けること等によって、遅延情報取得部150において遅延情報を取得するようになっていてもよい。
【0021】
送信部140は、映像データ変換部120において変換された映像データ(例えば、映像PESデータ)と、音声データ変換部130において変換された音声データ(例えば、音声PESデータ)と、を多重化することでMPEG−2TS形式に変換して送信する。なお、映像PESデータと音声PESデータとを多重化してMPEG−2TS形式に変換する処理は、具体的には、TS−Mux処理部141において実行される。
【0022】
(受信装置200の構成)
受信装置200は、TS−Demux処理部211と、映像PES処理部221と、映像ES処理部222と、音声PES処理部231と、音声ES処理部232と、を有する。
【0023】
TS−Demux処理部211は、伝送装置100の送信部140から送信されるMPEG−2TS形式のデータにおいて多重化されている映像データおよび音声データを抽出する。TS−Demux処理部211は、具体的には、受信したMPEG−2TSデータから映像PESデータおよびSMPTE302M規格に準拠した音声PESデータを抽出する。
【0024】
映像PES処理部221は、TS−Demux処理部211で抽出された映像PESデータを映像ESデータに変換する。
【0025】
映像ES処理部222は、映像ESデータを、HD−SDI信号に多重可能な映像データ形式に変換する。「HD−SDI信号に多重可能な映像データ形式に変換する」とは、具体的には、例えば、H.264圧縮復号化を行うことが該当する。
【0026】
音声PES処理部231は、TS−Demux処理部211で抽出された音声PESデータを音声ESデータに変換する。
【0027】
音声ES処理部232は、音声ESデータを、HD−SDI信号に多重可能な音声データ形式に変換する。「HD−SDI信号に多重可能な音声データ形式に変換する」とは、付帯的には、例えば、Embedded−Audioデータに変換することが該当する。
【0028】
また、受信装置200は、映像ES処理部222および音声ES処理部232においてそれぞれ変換された映像データおよび音声データをHD−SDI信号に多重化して他の装置に送信する。
【0029】
(伝送装置100の動作)
ここで、本発明の特徴である伝送装置100の音声データ変換部130における動作について説明する。
【0030】
本実施形態において、音声データ変換部130にて音声PESデータの未使用領域に格納される遅延情報は、HD−SDI信号に多重されたEmbedded−Audioの音声制御パケットに格納されている音声遅延情報データの一部である。
【0031】
図2は、Embedded−Audioの音声制御パケットの構造を示す図である。なお、Embedded−Audioの音声制御パケットについては、ARIB−STD BTA S−006B規格およびSMPTE299規格に規定されているので、ここでは簡単に説明する。
【0032】
Embedded−Audioの音声制御パケットは、「ADF」、「DID」、「DBN」、「DC」、「UDW」、「CS」の各データで構成されている。図3は、音声制御パケットの各構成の詳細を示す図である。
【0033】
「ADF」は、補助データフラグと呼ばれ、音声制御パケットの開始を示すデータである。また、ADFは、“000h”、“3FFh”、“3FFh”の連続する3ワードで構成するユニーク・コードである。
【0034】
「DID」は、データ識別ワードと呼ばれ、この値によって後述するUDWの種類が示される。なお、Embedded−Audioの音声制御パケットでは、音声グループごとにユニーク・コードが割り当てられている。
【0035】
「DBN」は、データブロック番号ワードと呼ばれ、同一DIDを有する音声制御パケットの順番を示すが、未使用でもよい。なお、Embedded−Audioの音声制御パケットでは、
“200h”(未使用)にすることになっている。
【0036】
「DC」は、データカウントワードと呼ばれ、後述する「UDW」のワード数を示す。また、「CS」は、チェックサムワードと呼ばれる。CSの値は、DIDからUDWに含まれる最後のワードまでの下位9ビットの総和における下位9ビットである。
【0037】
「UDW」は、ユーザデータワードと呼ばれ、Embedded−Audioデータの制御情報が格納されている。音声制御パケットにおいては、UDWは11ワードの固定長である。以下では、UDWの11ワードを、パケットの先頭からUDW0、UDW1、・・・UDW9、UDW10と示す。また、Embedded−Audioの音声遅延情報データは、「UDW」のUDW3〜8に格納されている。
【0038】
図4は、音声遅延情報データの詳細を示す図である。上述したように、音声遅延情報データは、「UDW」のUDW3〜8に格納されている。UDW3〜5は、DEL1−2、つまり、チャンネル1と2の音声データについての遅延情報であり、UDW6〜8は、DEL3−4、つまり、チャンネル3と4の音声データについての遅延情報である。
【0039】
図4に示されるd0〜d25(UDW3の2〜10ビット目、UDW4の10ビット、およびUDW5の0〜9ビット目)の26ビットが音声遅延情報データである。また、d0〜d25で表される音声遅延情報データは、映像に対する音声の相対遅延量を示すものであり、音声のサンプリング間隔の倍数として26ビットの2の補数で表される。例えば、音声のサンプリング周波数が48KHzの場合は、表現できる音声遅延時間は約±350秒となる。また、d0〜d25で表される相対遅延量が正の値である場合は、映像が音声よりも進んでいることを意味し、負の値である場合は、音声のほうが映像よりも進んでいることを意味する。
【0040】
ここで、本実施形態の伝送装置100の音声データ変換部130は、この音声遅延情報データのうち、d10〜d12(UDW4の3〜5ビット目)およびd25(UDW5の9ビット目(最上位ビット))を遅延情報として、音声パケットデータ(音声PESデータ)の未使用領域に格納する。
【0041】
図5を用いて音声パケットデータ(音声PESデータ)の未使用領域について詳細に説明する。図5は、SMPTE302M形式のPESデータの構成を示す図である。なお、このSMPTE302M形式については、ISO/IEC13818−1にて規定されているので、ここでは簡単に説明する。
【0042】
「MPEG−2 PES Header」は、MPEG−2 part1 System規格に準じた構成をとる。また、「SMPTE302M AES3 data Payload」は、実際の音声データそのものが格納される領域である。
【0043】
また、「SMPTE302M AES3 data Header」は、図6に示すような構成をとる。「audio_packet_size」は、図5の「SMPTE302M AES3 Payload」のデータ数(バイト)を16ビットで表したものである。「number_channels」は、伝送する音声のチャンネル数を2ビットで表したものである。
【0044】
「channel_identification」は、伝送する音声の全チャネルに対し、音声PESデータが先頭チャネルの何番目のチャネルで伝送される音声PESデータであるかを8ビットで表すものである。「bits_per_sample」は、伝送する音声のサンプリングビット数を2ビットで表すものである。
【0045】
「alignment bits」は、SMPTE302M AES3 data Headerの長さを調整する(バイト・アライメント)のための未使用領域であり、長さは4ビットである。SMPTE302M規格では“0000b”を格納することになっているが、本実施形態では、この未使用領域であるalignment bitsに、遅延情報が格納される。また、本実施形態では、alignment bitsに格納する遅延情報として、図4に示す音声遅延情報データのうちのUDW4のd10〜d12およびUWD5のd25の計4ビットである。このd10〜d12およびd25の4ビットを遅延情報として採用した理由は、以下の通りである。
【0046】
例えば、音声のサンプリング周波数が48KHzの場合は、d10〜d12およびd25の各ビットで表現される遅延量は以下の通りである。

d25:符号(+/−)
d12:約85.33ms
d11:約42.67ms
d10:約21.33ms

よって、d10〜d12およびd25のビットの組み合わせにより表現可能な音声遅延量は、図7に示すように、約−150〜+150ms(ミリ秒)となる。これは、映像数フレーム分の遅延量に当たる。近年の映像・音声の伝送装置では、映像と音声の遅延によるズレは、映像の数フレーム程度である。また、人間が認識できる映像と音声のズレ(遅延量)は、個人差はあるが、おおよそ1フレーム程度である。
【0047】
つまり、d10〜d12およびd25によって表現される映像の数フレーム分の遅延量によって受信装置200において映像と音声とのズレが補正されるのであるが、この遅延量は、ユーザに映像と音声とのズレによる違和感を与えないように補正するには十分な遅延量であると考えられる。そこで、本実施形態では、実施の伝送システムの運用における遅延時間と人間の感覚とを考慮し、数フレーム分の遅延量を表現可能なd10〜d12、および遅延量の正負を表すd25を用いることとした。
【0048】
なお、d13〜d24のいずれかの値が“0”でない場合(すなわち、“1”である場合)、映像と音声との間の遅延量は数フレーム以上であるということなので、その場合には、より上位のビット(例えば、d11〜d13等)の値を音声PESデータの未使用領域に格納する遅延情報として採用してもよい。
【0049】
(受信装置200の動作)
伝送装置100の送信部140では、音声データ変換部130で遅延情報が格納されて生成された音声PESデータが、映像データ変換部120で生成された映像PESデータとともに多重化されてMPEG−2TS形式に変換された後、受信装置200に送信される。そして、受信装置200では、TS−Demux処理部211において音声PESデータがMPEG−2TSデータから抽出された後、音声PES処理部231において、音声PESデータが音声ESデータ(SMPTE302M PESパケット)に変換される。
【0050】
さらに、受信装置200の音声ES処理部232において音声ESデータをEmbedded−Audioデータに変換する際、音声PESデータの「alignment bits」に格納されている4ビットの遅延情報の値を、それぞれ、Embedded−Audioデータの音声遅延情報データ(UDW3〜5)のd10〜d12およびd25の値とする。また、この時、音声遅延情報データ(UDW3〜5)のd0〜d9の下位ビットの値は“0”とする。d9以下の下位ビットによって表現可能な遅延時間は−10.6〜+10.6msであり、人間が認識できる音声遅延時間に対し非常に小さいため、無視しても運用上は問題ない。つまり、結果的に、伝送装置100で受信されたHD−SDI信号に格納されていたd0〜d9で示される遅延時間分は、映像と音声の再生時の遅延補正においては無視されることになるが、映像と音声を視聴するユーザは映像と音声のズレはほとんど感じないと考えられる。
【0051】
(伝送装置100の処理フロー)
図8は、伝送装置100における処理の流れを示すフロー図である。
【0052】
抽出部110において、HD−SDI信号が受信される(ステップS101)。さらに、受信されたHD−SDI信号から映像データおよび音声データ(Embedded−Audioデータ)が抽出される(ステップS102)。
【0053】
ステップS102で抽出された映像データは、映像データ変換部120の映像ES処理部121において、H.264圧縮符号化が行われることで映像ESデータに変換される(ステップS103)。さらに、映像データ変換部120の映像PES処理部122において、映像ESデータがMPEG−2 part1 System規格に準拠した映像PESデータに変換される(ステップS104)。
【0054】
一方で、ステップS102で抽出された音声データは、音声データ変換部130の音声ES処理部131において音声ESデータに変換される(ステップS105)。さらに、この音声ESデータは、音声データ変換部130の音声PES処理部132において音声PESデータに変換される(ステップS106)。
【0055】
そして、音声データ変換部130の音声PES処理部132において、HD−SDI信号に多重化されている音声制御パケットの音声遅延情報データの一部(UDW3〜5のd10〜d12およびd25)が抽出され、音声PESデータの「alignment bits」に格納される(ステップS107)。
【0056】
最後に、送信部140のTS−Mux処理部141において、映像PESデータと音声PESデータとが多重化されてMPEG−2TS形式に変換され、受信装置200に送信される(ステップS108)。
【0057】
(受信装置200の処理フロー)
図9は、受信装置200における処理の流れを示すフロー図である。
【0058】
TS−Demux処理部211において、MPEG−2TSデータが受信される(ステップS201)。そして、受信されたMPEG−2TSデータから映像PESデータおよび音声PESデータが抽出される(ステップS202)。
【0059】
映像PES処理部221において、映像PESデータが映像ESデータに変換される(ステップS203)。そして、映像ES処理部222において、映像ESデータについてH.264圧縮復号化が実行されることにより、映像ESデータがHD−SDI信号に多重可能な形式に変換される(ステップS204)。
【0060】
一方で、音声PES処理部231において、音声PESデータの「alignment bits」から遅延情報が抽出される(ステップS205)。そして、音声PES処理部231において、音声PESデータが音声ESデータに変換される(ステップS206)。
【0061】
さらに、音声ES処理部232において、この音声ESデータがHD−SDI信号に多重可能な形式(Embedded−Audio形式)に変換される(ステップS207)。この際、Embedded−Audio音声制御パケットの音声遅延情報データのUDW3〜5のd10〜d12およびd25にはステップS205で抽出された遅延情報の値が格納され、音声遅延情報データの他のビットには“0”が格納される(ステップS208)。
【0062】
そして、映像データ、音声データ、および音声制御パケットがHD−SDI信号に多重化されて外部の再生装置等に送信される(ステップS209)。
【0063】
以上のように、伝送装置において、従来では音声PESデータにおいて未定義となっている領域に遅延情報を格納して伝送することで、運用上、支障とならない精度の音声にかかる遅延情報を受信側の装置に認識させることが可能となる。また、本実施形態の遅延情報の伝送方法によれば、SMPTE規格やARIB規格等に準じたHD−SDI信号への音声データ多重方式、および非圧縮音声のPESデータ化に則している。従って、従来のMPEG−2TS方式に準じた伝送装置や受信装置での互換性が損なわれることがなく、従来の伝送装置や受信装置に適用可能である。
【0064】
(付記)
以上に、本発明に係る実施形態について詳細に説明したことからも明らかなように、上述の実施形態の一部または全部は、以下の各付記のようにも記載することができる。しかしながら、以下の各付記は、あくまでも、本発明の単なる例示に過ぎず、本発明は、かかる場合のみに限るものではない。
【0065】
(付記1)
映像データと音声データとが多重化されたHD−SDI(Serial Digital Interface)信号から前記映像データと前記音声データとを抽出する抽出手段と、
前記映像データを、MPEG(Moving Picture Experts Group)−2TS(Transport Stream)形式で多重化可能な形式の映像パケットデータに変換する映像データ変換手段と、
前記音声データを、SMPTE(Society of Motion Picture and Television Engineers)302M形式の音声パケットデータに変換する音声データ変換手段と、
前記映像パケットデータと前記音声パケットデータとを多重化することでMPEG−2TS形式に変換して送信する送信手段と、を有し、
前記音声データ変換手段は、前記映像データに対する前記音声データの遅延時間に関する遅延情報を前記音声パケットデータの未使用領域に格納して、SMPTE302M形式の音声パケットデータに変換することを特徴とする伝送装置。
【0066】
(付記2)
前記遅延情報は、前記HD−SDI信号に多重化されているEmbedded−Audioの音声制御パケットに含まれている情報の少なくとも一部であることを特徴とする付記1に記載の伝送装置。
【0067】
この構成によれば、例えば、HD−SDI信号に多重化されている音声制御パケットに含まれている情報であって、映像に対する音声の遅延時間を示す情報を利用して、SMPTE302M規格に準拠しつつ、映像に対する音声の遅延時間を示す情報を伝送装置から外部の装置に送信することができる。
【0068】
(付記3)
前記遅延情報は、前記HD−SDI信号に多重化されているEmbedded−Audioの音声制御パケットに含まれる音声遅延情報データであるUDW4の3〜5ビット目およびUDW5の9ビット目であることを特徴とする付記2に記載の伝送装置。
【0069】
この構成によれば、伝送装置からのデータを受信する装置において、一般的に人間が認識可能範囲の映像と音声のずれを補正することが可能である。これにより、映像および音声を視聴するユーザに映像と音声のずれを感じさせないようにすることが可能である。
【0070】
(付記4)
前記遅延情報を取得する遅延情報取得手段をさらに有し、
前記音声データ変換手段は、前記遅延情報取得手段において取得された遅延情報の少なくとも一部を前記音声パケットデータの未使用領域に格納することを特徴とする付記1に記載の伝送装置。
【0071】
この構成によれば、伝送装置は、外部の装置や伝送装置のユーザの入力から遅延情報を取得し、その遅延情報の少なくとも一部を音声パケットの未使用領域に格納して他の装置に送信することが可能である。
【0072】
(付記5)
映像データと音声データとが多重化されたMPEG−2TS形式のデータであって前記映像データに対する前記音声データの遅延時間に関する遅延情報が前記音声データの一部に格納されているMPEG2−TS形式のデータを受信する受信装置であって、
前記MPEG−2TS形式データから前記映像データと前記音声データとを抽出するTS処理手段(例えば、図1のTS−Demux処理部211)と、
前記映像データを、HD−SDI(Serial Digital Interface)信号に多重化可能な形式の映像データに変換する映像データ処理手段(例えば、図1の映像PES処理部(受信側)221および映像ES処理部(受信側)222)と、
前記音声データを、HD−SDI信号に多重化可能な形式の音声データに変換する音声データ処理手段(例えば、図1の音声PES処理部(受信側)231および音声ES処理部(受信側)232)と、を有し、
前記音声データ処理手段は、前記TS処理手段において抽出された前記音声データから前記遅延情報を抽出し、抽出した前記遅延情報をHD−SDI信号に多重可能なパケットである前記音声データについての制御パケット(例えば、図2に示される音声制御パケット)に格納することを特徴とする受信装置。
【0073】
この構成によれば、例えば、MPEG2−TSデータに多重化されている映像データと音声データとをHD−SDI信号によって受信装置から受信する他の装置において、映像と音声との時間的なずれを補正して再生すること等が可能となる。これにより、映像と音声を視聴するユーザに両者のずれによる違和感を与えないようにすることができる。
【0074】
(付記6)
映像データと音声データとが多重化されたHD−SDI(Serial Digital Interface)信号から前記映像データと前記音声データとを抽出する抽出ステップ(例えば、図8のステップS101〜S102)と、
前記映像データを、MPEG(Moving Picture Experts Group)−2TS(Transport Stream)形式で多重化可能な形式の映像パケットデータに変換する映像データ変換ステップ(例えば、図8のステップS103〜S104)と、
前記音声データを、SMPTE(Society of Motion Picture and Television Engineers)302M形式の音声パケットデータに変換する音声データ変換ステップ(例えば、図8のステップS105〜S106)と、
前記映像パケットデータと前記音声パケットデータとを多重化することでMPEG−2TS形式に変換して送信する送信ステップ(例えば、図8のステップS107〜S108)と、を有し、
前記音声データ変換ステップにおいて、前記映像データに対する前記音声データの遅延時間に関する遅延情報を前記音声パケットデータの未使用領域に格納することを特徴とする伝送方法。
【0075】
この構成によれば、SMPTE302M規格に準拠しつつ、映像に対する音声の遅延時間を示す情報を伝送装置から外部の装置に送信することができる。これにより、受信側の装置では映像に対する音声の遅延時間を把握し、例えば音声と映像とのずれを補正して再生すること等が可能となる。また、映像に対する音声の遅延時間を示す情報を送信するために、映像データおよび音声データ以外の余分なデータを送信する必要もないため、伝送データ量を増加させることもない。
【符号の説明】
【0076】
100 伝送装置
110 抽出部
120 映像データ変換部
121 映像ES処理部(送信側)
122 映像PES処理部(送信側)
130 音声データ変換部
131 音声ES処理部(送信側)
132 音声PES処理部(送信側)
140 送信部
141 TS−Mux処理部
150 遅延情報取得部
200 受信装置
211 TS−Demux処理部
221 映像PES処理部(受信側)
222 映像ES処理部(受信側)
231 音声PES処理部(受信側)
232 音声ES処理部(受信部)

【特許請求の範囲】
【請求項1】
映像データと音声データとが多重化されたHD−SDI(Serial Digital Interface)信号から前記映像データと前記音声データとを抽出する抽出手段と、
前記映像データを、MPEG(Moving Picture Experts Group)−2TS(Transport Stream)形式で多重化可能な形式の映像パケットデータに変換する映像データ変換手段と、
前記音声データを、SMPTE(Society of Motion Picture and Television Engineers)302M形式の音声パケットデータに変換する音声データ変換手段と、
前記映像パケットデータと前記音声パケットデータとを多重化することでMPEG−2TS形式に変換して送信する送信手段と、を有し、
前記音声データ変換手段は、前記映像データに対する前記音声データの遅延時間に関する遅延情報を前記音声パケットデータの未使用領域に格納して、SMPTE302M形式の音声パケットデータに変換することを特徴とする伝送装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate


【公開番号】特開2011−239009(P2011−239009A)
【公開日】平成23年11月24日(2011.11.24)
【国際特許分類】
【出願番号】特願2010−106159(P2010−106159)
【出願日】平成22年5月6日(2010.5.6)
【出願人】(000001122)株式会社日立国際電気 (5,007)
【Fターム(参考)】