説明

再生装置

【課題】字幕のような副画像表示を主画像の表示期間全体にわたって実時間で表示することができる再生技術を提供する。
【解決手段】図形情報および図形情報を表示する図形情報表示時刻を記憶する図形情報バッファと、表示画像を記憶する画像メモリと、時刻情報を入力する時刻情報入力端子と、時刻情報入力端子から入力された時刻情報と図形情報表示時刻とが一致した際に図形情報バッファから画像メモリへ情報の複写を行う図形情報複写手段とを設ける。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、映像表示に同期して文字や図形などの副画像情報を表示することのできる再生技術に関するものである。
【背景技術】
【0002】
文字情報である副画像情報を映像等の主画像とは別に符号化しておき、主画像の再生時に副画像を重畳して実時間で再生する技術が従来より知られている。(例えば、特許文献1参照)
また、字幕やカラオケの歌詞などの副画像データの復号処理と画像データや音声データ等の主画像への重畳処理が実時間で実行できない場合には、副画像データの重畳処理を適当に間引いて(コマ落とし)同期を補正する技術が従来より知られている。(例えば、特許文献2参照)
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開平6−314092号公報
【特許文献2】特開平11−75155号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1は、字幕等の副画像の主画像への重畳を実時間で処理できることが前提の技術について開示されており、何等かの理由で字幕等の副画像の主画像への重畳を実時間で処理できない場合の対処方法については何ら開示されていない。
【0005】
一方、特許文献2では、副画像データの重畳処理を適当に間引いて(コマ落とし)同期を補正することにより字幕等の副画像の主画像への重畳の実時間での処理を保証しようとしている。しかしながら、このような処理では、副画像の表示が所々で抜け落ちるため、主画像の視聴において見苦しくなる場合がある。
【0006】
本発明の目的は、字幕のような副画像表示を主画像の表示期間全体にわたって実時間で表示することができる再生技術を提供することにある。
【課題を解決するための手段】
【0007】
上記問題を解決するために、本発明は、図形情報および上記図形情報を表示する図形情報表示時刻を記憶する図形情報バッファと、表示画像を記憶する画像メモリーと、時刻情報を入力する時刻情報入力端子と、上記時刻情報入力端子から入力された時刻情報と、上記図形情報表示時刻とが一致した際に、図形情報バッファから画像メモリーへ情報の複写を行う図形情報複写手段とを有することを特徴とする副画像表示装置を提供する。
【発明の効果】
【0008】
本発明によれば、字幕のような副画像表示を主画像の表示期間全体にわたって実時間で表示することができる。
【図面の簡単な説明】
【0009】
【図1】副画像生成部のブロック図
【図2】図形情報バッファに入力するデータの構造図
【図3】カラーパレットバッファに入力するデータの構造図
【図4】再生装置のブロック図
【図5】ディスク上のファイルの構造図
【図6】字幕情報ファイルの例を示す図
【図7】グラフィックデータの生成例を示す図
【図8】副画像生成部のブロック図
【図9】データバッファに入力するデータの構造図
【発明を実施するための形態】
【0010】
以下、本発明を適用した実施例について説明する。
【実施例1】
【0011】
図4は、本発明を適用した実施例である再生装置のブロック図である。 光ピックアップ402は、光ディスク401から信号を読み出す。再生信号処理回路403は、光ピックアップ402が読み出した信号に所定の復調処理を行い、データを再生する。出力制御部404は、再生信号処理回路403が再生したデータを所定のタイミングで出力する。サーボ部405は、光ディスク401の回転速度や光ピックアップ402の位置制御を行う。ドライブ制御部406は、サーボ部405および再生信号処理回路403を制御する。PCR検出部407は、再生されたデータ中からPCRの値を検出する。
【0012】
また、音声デコーダ408は、再生されたデータのうち音声データをデコードし、音声信号を音声出力端子409に出力する。映像デコーダ410は、再生されたデータのうち映像データをデコードして主画像の映像信号を字幕信号合成回路411に出力する。字幕信号合成部411は、映像デコーダ410でデコードされた主画像の映像信号に副画像生成部413で生成された副画像の映像信号を重畳して映像信号を生成し、映像出力端子に出力する。副画像生成部413は、副画像を映像信号として字幕信号合成部411に出力する。詳細については後述する。
【0013】
なお、この再生装置は、CPU等で構成されるシステム制御部414によって装置全体が制御される。リモコン受信部415はリモコン(図示せず)からの信号を受信し、ネットワーク制御部416は外部のネットワーク417との接続を制御するものである。メモリー418は、ネットワーク417を介してダウンロードしたデータや光ディスク401から再生したデータを保存するものであり、また、字幕の表示位置、表示サイズ、表示色などの表現方法も必要に応じてあらかじめ保存しておくことができる。
【0014】
出力制御部404、サーボ部405、ドライブ制御部406、PCR検出部407、副画像生成部413及びネットワーク制御部416は、ハードウェアとして電子回路等で構成して上述の機能を実行させることとしてもよいし、ソフトウェアとしてシステム制御部414がプログラムを実行することで上述の機能を実行させることとしてもよい。
【0015】
次に、再生装置が光ディスク401からのデータを再生する際の動作を以下に説明する。
【0016】
光ディスク401が再生装置に装着されると、システム制御部414はこれを検知し、光ディスク401上のファイル管理情報の読み出しを開始する。具体的には、システム制御部414は、ドライブ制御部406に対してファイル管理情報が記録されている光ディスク401上のセクターのデータ読み出しを指示する。ドライブ制御部406は、光ディスク401上の指定されたセクターのデータを読み出すために、サーボ部405を制御し、光ディスクの回転速度および光ピックアップ402の位置を制御する。光ピックアップ402により読み出された信号は、再生信号処理回路403によって所定の復調処理および誤り訂正処理などが施され、セクター単位のデータ列として信号処理回路403上のメモリー(図示せず)に蓄えられる。ドライブ制御部406は、指定されたセクターのデータが用意されると、再生信号処理回路403上のメモリーから読み出しを行い、システム制御部414へデータを出力する。システム制御部414は、読み出されたデータの解析を行い、ファイル管理情報を取得する。
【0017】
ここで、ファイル管理情報は、例えばUDF(Universal Disk Format)に代表されるファイル管理システムに準拠して、光ディスク401上の所定の位置に記録されている。ファイル管理情報は、光ディスク上に記録されている各情報をファイルとして管理する。具体的には、各ファイルのファイル識別子(ファイル名)、記録開始セクター番号、ファイル長、付加情報などが記録されている。
【0018】
ファイル管理情報が読み出された後、システム制御部414は、光ディスク401の再生に必要なファイルを読み出しをドライブ制御部406に指示することで、ドライブ制御部406は上述の制御を行って所望のセクターからデータを読み出し、再生する。そして、再生されたデータをシステム制御部414で順次解析する。
【0019】
図1に、図4の再生装置が持つ副画像生成部413のブロック図を示す。 システム制御部414からの字幕文字列情報は端子101から入力される。PCR検出部407からのPCR値は端子102から入力される。図形情報バッファ103は字幕文字列情報を蓄える図形情報バッファである。タイミング制御部104は図形バッファ103から変換部105へ字幕文字列情報を出力するタイミングを制御する。変換部105は字幕文字列情報に基づいてピクセルごとの図形情報に変換する。変換された図形情報は、画像メモリー106内に展開される。カラーパレットバッファ107は、カラーパレット情報を蓄える。タイミング制御部108は、カラーパレットバッファ107からカラーパレット109にカラーパレット情報を出力するタイミングを制御する。カラーパレット109は、画像メモリー105から出力されるピクセルごとの図形情報に色情報を付加し、副画像出力端子110に出力する。
【0020】
上述の通り、副画像生成部413はシステム制御部414が実行するプログラムに置き換えてもよいが、その際、図形情報バッファ103、画像メモリー106及びカラーパレットバッファ107は、システム制御部414が使用するメモリー(図示せず)を利用すればよい。
【0021】
副画像生成部413では、システム制御部414が生成した字幕文字列情報を主画像に重ねて表示できる図形情報に変換し、色情報が付加される。以下、その手順について説明する。
【0022】
まず、字幕文字列情報について説明する。 図2は、図形情報バッファ103に入力される字幕文字列情報のデータの構造を示す。 表示時刻情報201は、33ビットのビット長であり、90kHzの分解能を持つ。表示位置情報202は、図形情報の画面上の表示開始座標を示す。また、表示サイズ情報203は、図形情報の縦横のサイズを示している。ピクセルデータ204は、各ピクセルの表示形態の集合体であり、1ピクセルあたり1バイト(8ビット)で表される。
【0023】
例えば、各ピクセルの表示形態をピクセルデータ204として持つことにより、図7のように、透明色で示されるピクセル701、半透明の黒色のピクセル702、黒色のピクセル703といったピクセルの集合で主画像上に文字を表示することができる。
【0024】
図7の例では、「C」の文字を黒色で小さく表示している。透明なピクセルの上に、「C」の文字が黒色で示されるとともに、文字の輪郭は半透明の黒色に変換される。文字の輪郭を半透明にすることにより、映像と重ね合わせた際に、文字が不自然になることを防ぐことができる。また、輪郭を白色にすることにより、文字を目立たせるなどの処理も可能である。
【0025】
字幕文字列情報は、光ディスク401上に記録されている字幕情報ファイル507あるいはネットワーク417を介して取得した字幕情報ファイルに基づいてシステム制御部414が作成する。
【0026】
次に、字幕情報ファイル507について説明する。 図6に字幕情報ファイル507の一例を示す。 字幕情報ファイル507には、コンテンツのタイトル601や言語名602、フォント名603などの基本情報と、実際に表示を行うための字幕文字列606が含まれている。また、各字幕文字列には、その文字列の表示を行う表示開始時刻604と表示を継続する表示期間605が記述されている。
【0027】
なお、図6には図示していないが、各字幕文字列の表示を規定するための、表示位置、表示サイズ、表示色などの情報も字幕情報ファイル507に含めることも出来る。表示位置、表示サイズ、表示色などの情報が字幕情報ファイル507に含まれていない場合には、メモリー418内に予め記憶されている表示方法でシステム制御部114が表示位置、表示サイズ、表示色などを設定する。
【0028】
また、必要に応じて、章や段落の切れ目が分かるような情報を字幕情報ファイル507に含めてもよい。これにより、再生時に早送り動作やスキップ動作を行った場合にも、容易に字幕情報ファイル507中の字幕データの位置を求めることが出来る。
【0029】
字幕情報ファイル507中の字幕文字列606は、システム制御部114によって字幕文字列情報に変換される。この際、システム制御部114は、メモリー418に予め記憶されている各文字の形状を記憶したフォント情報を参照する。
【0030】
本実施例では、フォント情報はシステム制御部414からアクセスされるメモリー418に予め記憶されているものとして説明するが、このような手順に限定されるものではなく、例えば、光ディスク401上にファイルとして記録しておき、これを再生してメモリー418上に記憶させておくことによって実現することとしてもよい。光ディスク401に記録されているフォント情報を利用することとすれば、各光ディスク毎にフォント形状を切り替えることが出来る。
【0031】
また、フォント情報を、ネットワーク417を介してダウンロードし、メモリー418に記憶させておくこととしてもよい。こうすることにより、所望のフォント形状を選択することができる。
【0032】
フォント情報取得方法にかかわらず、フォント情報をシステム制御部414が利用できる構成であれば、文字列情報から図形情報への変換が可能になる。
【0033】
次に、字幕情報ファイル507について説明する。 図5は、光ディスク401に記録されているファイル構造を示す図である。DVRディレクトリ中のプレイリストの数やファイル名などの情報が書かれたinfo.dvrファイル501、メニュー表示を行うプログラムを記録したmenu.java(登録商標)ファイル502、映像の再生位置や順序およびマーク位置などの情報が記録されたプレイリストファイル503、ストリームファイル上の再生開始点とそのパケット位置などの情報を記録したクリップ情報504、映像や音声などの情報パケットが記録されたストリームファイル505及び副画像情報のデコード処理を行うプログラムを記録したsubtitle.javaファイル506とともに字幕情報ファイル507が光ディスク401に記録されている。なお、字幕情報ファイル507は、ネットワーク417を介してダウンロードして取得することとしてもよい。
【0034】
次に、カラーパレットバッファ106に入力される色情報としてのカラーパレット情報について説明する。 図3は、カラーパレット情報の構造を示す図である。表示時刻情報301は、図形情報バッファ103に入力される表示時刻情報201と同等のものである。カラーパレット数302は、カラーパレット情報中に含まれるカラーパレットの数を示している。カラーパレット303には、256種類のカラーパレットのうち、変更するカラーパレットのみを指定する。これにより、使用しないカラーパレットや変更を行わないカラーパレットの情報を指定する必要がない。
【0035】
ここで、カラーパレットは、前述の図形情報がピクセルごとに何色に対応するかの変換テーブルであり、システム制御部114が生成する。カラーパレットも、上述のフォント情報と同様に、予め再生装置が記憶しておいてもよいし、光ディスク401から取得してもよいし、ネットワーク417を介してダウンロードして取得してもよい。
【0036】
なお、図形情報は、1ピクセルあたり1バイト(8ビット)が割り当てられており、256種類の値を取り得る。従って、カラーパレット情報には、最大256種類のカラーパレットを指定することができ、各カラーパレットにはRGB各8ビットの色情報と、透明度を示す8ビットのアルファ値を指定する。なお、1ピクセル当たり32ビット割り当てれば、1677万色のいわゆるフルカラーとすることもできる。
【0037】
次に、字幕情報ファイル507に基づいてシステム制御部414が字幕文字列情報を生成し、生成された字幕文字列情報を副画像生成部413で図形情報に変換する手順について説明する。
【0038】
字幕情報ファイル507から図形情報を生成する際には、まず、システム制御部414が光ディスク401上から字幕情報ファイル507を読み出し、字幕情報ファイル507の解析を行う。
【0039】
字幕情報ファイル507の解析では、字幕情報ファイル507内に記載されている情報、あるいはメモリー418に記憶されている表現方法にしたがい、フォントの選択やフォントサイズの指定、表示色の選択などを行い、図2に示した字幕文字列情報を生成する。
【0040】
字幕文字列情報は、図6の文字列606ごとに生成される。図2の表示時刻201は、図6の開始時間604および表示期間605に従って生成される。図6の文字列606は、図2のピクセルデータに変換される。また、図2の表示座標202と表示位置203は、システム制御部414がメモリー418から取得した表示位置および表示サイズなどの情報から算出する。
【0041】
以上のようにして生成された字幕文字列情報は図形情報バッファ103に蓄積される。そして、蓄積された字幕文字列情報に基づき変換部105でピクセルごとの図形情報に変換される、
なお、上記実施例では、図形情報は字幕情報ファイル507中の文字列606及びフォント603に基づいて生成しているが、例えば、図形情報自体を字幕情報ファイルとして光ディスク401に記録しておくこともできる。この場合、ランレングス圧縮などによりデータ量の削減を行うこともできる。また、グラフィックデータを生成するようなプログラムをファイルとして光ディスク401に記録しておき、システム制御部414でこのプログラムを実行することにより図形情報を生成してもよい。いずれの場合にも、図形情報として表示時刻、表示位置、表示サイズの情報とともに図形情報バッファ103に入力する。
【0042】
一方、字幕文字列情報の入力に平行して、カラーパレットバッファ106には、図3のカラーパレット情報が入力される。基本的に、各字幕文字列情報に対応してカラーパレット情報が必要となるが、字幕の色の変更がない場合には、カラーパレット情報の更新は不要である。逆に、カラーパレット情報のみを変更することにより、表示されている字幕文字列に様々な効果を与えることも可能である。例えば、カラーパレット情報中の透明度(α値)を徐々に変化させることにより、文字のフェードイン・フェードアウトの処理が可能である。また、いわゆるカラオケの字幕のように、文字の色を徐々に変化させることも可能である。このような処理では、例えば、カラーパレット情報を0.1秒毎に変化させればよく、少しずつ変化させたカラーパレット情報を表示時刻情報を0.1秒ずつ変化させてカラーパレットバッファ106に入力すればよい。
【0043】
また、一旦画像メモリー106に図形情報が展開されると、ずっとその図形情報が出力されつづけることになるので、字幕文字列の表示期間が終了した時点で、図形情報を削除する必要がある。本実施例では、字幕文字列の表示期間の終了がタイミング制御部104で分かるので、表示期間の終了に伴って、表示した文字列のピクセルデータと同じ位置で同じサイズの無色透明なデータを画像メモリー106に上書きすることとする。詳細については後述する。
【0044】
ここで、光ディスク401に記録されているファイルについて説明する。 図5は、光ディスク401に記録されているファイルの構造を示す図である。
【0045】
まず、ストリームファイル505について説明する。 映像情報は、画像情報圧縮技術の一つであるMPEG2方式でデータ量が削減され、トランスポートストリーム形式に変換されて、ストリームファイル505として光ディスク401に記録される。MPEG2は、NTSC形式の画像やハイビジョンに代表される高画質のHD画像に対しても優れたデータ量削減を行うことが出来、原画像に対して1/10〜1/50程度にデータ量を削減することが出来る。例えば、NTSC形式の画像では6Mbps程度、HD画像でも20Mbps程度のデータ量で十分な画質を得ることが出来る。MPEG2による画像圧縮は、DVDをはじめとする画像蓄積や、ディジタル放送などにも広く用いられている。
【0046】
ここでは、MPEG2形式を例にとって説明するが、もちろん他の画像圧縮方法を用いてデータを符号化しても差し支えない。
【0047】
映像と同様に、音声情報に関しても、音声圧縮技術を用いてデータ量圧縮を行なう。音声圧縮技術には、MPEG1オーディオやBSデジタル放送で用いられるAAC形式など様々な圧縮技術がある。また、音声情報は映像情報に比べてデータ量が少ないため、圧縮を行わないリニアPCM形式でデータを記録することも可能である。
【0048】
上記のように符号化された映像情報および音声情報は、伝送や蓄積が容易なように、トランスポートストリームとして多重化し、一つのストリームファイル505として記録する。具体的には、ストリームファイル505は188バイトのパケットの集合体である。各パケットにはパケット識別のためのPID(パケットID)が付加されている。このPIDにより、音声デコーダ408や映像デコーダ410は、再生時に容易に映像パケット、音声パケット等の分別を行うことが出来る。
【0049】
さらに、各PIDの関係を表したPMT(Program Map Table)やPAT(Program Allocation Table)、時刻情報を表すPCR(Program Clock Reference)などのパケットも多重化する。このようにして情報の多重化を行ったトランスポートストリームは、ストリームファイル505として光ディスク上に記録しておく。
【0050】
なお、ストリームファイル505に、映像・音声のほか、字幕情報や図形情報、制御コマンドなどの各種情報パケットを多重化することとしてもよい。
【0051】
次に、クリップ情報ファイル504について説明する。 前述のように、映像情報はMPEG2形式の画像圧縮を行った上で記録をしている。MPEG2形式では、連続した画像の相関性を用いてデータ量削減を行っている。具体的には、連続した画像間で変化のない部分の情報は再送せずに、直前の画像のデータをそのまま使用するような処理を行っている。そのため、変化分のみが符号化された画像データでは、そのデータから全画素の情報を復号できないという欠点がある。したがって、早送りやスキップ操作などで再生を開始できる画像は、全画素が符号化された画像のみである。
【0052】
一般的に、MPEG2形式での画像圧縮は、15枚程度の画像を組にして圧縮を行うことが多い。この画像の組をGOP(Group Of Pictures)と呼ぶ。このGOPの先頭から再生を行えば、即座に画像の再生を行うことが出来る。
【0053】
クリップ情報ファイル504には、このGOP先端のパケット位置を、その画像の符号化時刻(Presentation Time Stampの値に対応)とともに記録しておく。これにより、サーチやスキップで再生を開始する位置が容易に検索できる。
【0054】
クリップ情報ファイル504は、トランスポートストリームファイルと一対一に対応している。例えば、01000.m2tsというトランスポートストリームファイルに対応して、01000.clpiというクリップ情報ファイルを記録しておけば、ファイル間の対応が容易に識別できる。
【0055】
次に、プレイリストファイル503について説明する。 プレイリストファイル503は、トランスポートストリームファイルの再生順序を規定する情報が記録されたファイルである。プレイリストファイルには、再生を行うストリームファイルのファイル識別子、再生開始時刻、再生終了時刻などの情報の組がプレイアイテム情報として一組ないし複数組記録されている。再生時には、指定されたプレイリストファイル中のプレイアイテム情報にしたがい、ストリームファイルが順次再生される。
【0056】
以下、光ディスク401を再生する際の動作を説明する。 再生開始時には、まず、メニュー表示プログラム502が読み出され実行が行われる。メニュー表示プログラム502は、光ディスク401に記録されているコンテンツの選択や各種設定を行うことが出来るようなメニューを表示するようにプログラムされている。ユーザーは、表示されたメニュー画面より、コンテンツの選択を行ない、再生を指示する。
【0057】
ユーザーによって所定のコンテンツの再生が指示されると、システム制御部414の制御の下、指定されたコンテンツに対応した字幕情報ファイル507およびそれをデコード処理するプログラムのファイル506を予め読み出し、メモリー418に記憶する。
【0058】
次いで、システム制御部414では、ダウンロードした字幕デコードプログラムの実行を行う。具体的には、システム制御部414が持つメモリー(図示せず)に記憶されているフォント情報を用いて、同時にダウンロードされている字幕文字ファイルに基づいて字幕文字列情報を生成する。字幕文字列情報の生成方法は、上述の通りである。生成された字幕文字列情報は、副情報表示部413内の図形情報バッファ103に入力される。
【0059】
また、システム制御部414は、字幕文字列の表示開始時刻と表示期間から、字幕文字列の消去時刻を計算し、文字列を消去するためのピクセルデータと消去を行う時刻情報を持つ字幕文字列情報を生成し、副情報表示部413内の図形情報バッファ103に入力する。
【0060】
さらには、グラフィックデータを表示するために必要なカラーパレット情報も生成し、副情報表示部のカラーパレットバッファ106に入力する。
【0061】
なお、字幕デコードプログラムは、光ディスク401からダウンロードされ、システム制御部414で実行されるとして説明したが、これは限定されるものではない。例えば、予めシステム制御部414内のROMに字幕デコードプログラムを記憶しておき実行を行ってもよいし、ネットワーク417を介してダウンロードを行い、実行するように構成してもよい。
【0062】
同様に、字幕文字列情報も、光ディスク401に記録されている字幕情報ファイル507に基づいて生成するのではなく、ネットワーク417を介してダウンロードした字幕情報に基づいて生成するように構成してもよい。また、字幕情報ファイル507が光ディスク401上に個別のファイルとして記録されている例を示したが、字幕情報を、映像ストリームや音声ストリームとともに多重化し、出力制御部404からの出力をシステム制御部414で取得するような構成にしてもよい。
【0063】
字幕文字列情報、カラーパレット情報が副画像生成部413に入力された、指示されたコンテンツの再生を開始する。コンテンツの再生のために、指定されたコンテンツに対応したプレイリストファイル503がシステム制御部414の制御の下、光ディスク401上から読み出す。プレイリストファイル503中には、一つないし複数のプレイアイテム情報が記録されており、プレイアイテム情報に対応したストリームファイル505の読み出しが行われ、プレイアイテム情報に指定されたパケット番号のパケットから読み出しが行われる。具体的には、読み出しを行うパケットの記録されているセクターの情報を読み出すよう、システム制御部414がドライブ制御部406に指示を行う。ドライブ制御部406は、指示されたセクターの読み出しが行えるように、サーボ部405を制御し、ディスク回転速度および光ピックアップの位置を制御する。光ピックアップ402により、光ディスク401から信号が読み出されると、再生信号処理部403により、誤り訂正処理、データの並び替えなどの信号処理が行われ、セクターデータとして出力制御部404に入力される。出力制御部404は、システム制御部414により指定されたパケット番号のパケットから順番に、各パケットに付加されたタイムスタンプに応じた時刻にパケットを出力する。
【0064】
出力制御部404から出力されたMPEGパケットは、PCR検出部407、音声デコーダ408、映像デコーダ410に入力される。各パケットにはパケット種別を判別する13ビットのPID(Packet ID)が含まれており、これによりPCRパケット、音声データパケット、映像データパケットなどの種類が判別される。これにより、各デコーダは、所望のパケットのみをデコード(復調)することが出来る。
【0065】
また、再生するストリームファイル505内のストリームデータには、PCR(Program Clock Reference)と呼ばれる時刻情報が含まれており、この時刻情報に同期して映像および音声の出力が行われる。PCR検出部407には、このPCRパケットが入力され、ストリーム中の時刻情報が取得される。映像デコーダ410および音声デコーダ408には、このPCR値(時刻情報)が入力され、このPCR値を基準として映像および音声のデコード処理を行う。また、PCR値は、副画像生成部413にも入力され、字幕の表示タイミングの制御にも使用される。
【0066】
映像デコーダ410では、入力された映像ストリームをデコードする。映像ストリームには、毎秒30枚のフレーム画像が含まれており、各画像には、画像の表示時刻を示すPTS(Presentation Time Stamp)の情報が含まれている。映像デコーダ内では、PCR検出部から入力されたPCR時刻と、デコードしたフレーム画像のPTSとが比較され、一致した時点で画像データが映像合成回路411に入力される。音声データも同様に音声デコーダ408によりデコードされ、デコードした音声フレームデータのPTSが、PCR時刻に一致した時点で、音声出力端子409に出力される。
【0067】
映像デコーダ410による映像信号の出力に平行して、副画像生成部413から副画像情報の出力が行われる。
【0068】
ここで、副画像生成部413におけるデータの表示について説明する。
【0069】
副画像生成部413では、システム制御部414から入力された字幕文字列情報の表示時刻(PTS)に変換部105で図形情報に変換し、出力されるように制御される。具体的には、入力されたピクセルデータの表示時刻201と、PCR検出部407から入力されたPCR値とがタイミング制御部104にて比較され、一致した時点で、ピクセルデータ204が変換部105へ転送され、図形情報に変換して画像メモリー106へ出力される。このとき、図形情報の画像メモリー106上のアドレスは、字幕文字列情報の表示座標情報202およびサイズ情報203から計算される。同様に、カラーパレットバッファ106へ入力されたカラーパレット情報も表示時刻がPCR値と一致した時点でカラーパレット109へコピーされる。これにより、図形情報バッファ103およびカラーパレットバッファ106へ入力されたデータが、所定のタイミングで画像メモリー106およびカラーパレット109へ反映される。
【0070】
画像メモリー106上のデータは、ピクセル毎に順次読み出され、カラーパレット109によりRBGの各色の輝度およびアルファ値の示す透明度のデータに変換され、副画像の映像信号として出力端子109から出力される。
【0071】
副画像生成部413の出力端子109から出力された副画像の映像信号と、前述の映像デコーダ410から出力される主画像の映像信号は、映像合成回路411に入力され、合成された映像信号として、再生装置の映像出力端子412から外部のディスプレイに出力され、表示される。
【0072】
以上の処理により、字幕が、映像および音声と同期して出力される。
【0073】
ここで、図形情報バッファ103およびカラーパレットバッファ106へのデータ入力自体は、それぞれの表示時刻とは無関係に行うことが出来る。例えば、字幕情報の生成処理をコンテンツの再生前に全て行っておき、図形情報バッファ103およびカラーパレットバッファ106へ入力しておくことも可能である。図形情報バッファおよびカラーパレットバッファには、それぞれタイミング制御部104および108が設けられており、バッファへ入力されたデータをPTSおよびPCRにしたがい、所定のタイミングで出力することが可能である。これにより、字幕情報の生成処理を、光ディスク401の再生と同期して行う必要はなくなるので、字幕の生成処理を実時間で行う必要はなくなる。一般に、字幕の表示処理で実時間処理が要求されるのは表示タイミングの調整であり、字幕の生成処理自体は実時間処理が要求されない。
【0074】
なお、図1に示した副画像生成部413では、図形情報バッファ103とカラーパレットバッファ107を独立したメモリーとして構成し、それぞれのデータを別々のタイミング制御部104および108)により画像メモリー106とカラーパレット109へコピーしていたが、これは限定されるものではない。例えば、図8に示したように、バッファメモリー801を共用し、タイミング制御部802により変換部105にピクセルデータを振り分け、カラーパレット情報をカラーパレット109に振り分けてデータを転送するように構成してもよい。この場合、図9に示したようなデータ構造で字幕文字列情報を生成し、バッファメモリー801へこの字幕文字列情報を書き込めばよい。
【0075】
以上説明したように、本実施例では、字幕の生成処理を実時間で行う必要がなくなるため、高速な処理を行うための専用ソフトウェアが不要となる。これにより、例えば、javaに代表される汎用のソフトウェアで字幕でコード処理のプログラムを作成し、光ディスク401上に記録しておくことが出来る。したがって、システム制御部414内にjava等の汎用プログラム実行環境さえ準備しておけば、光ディスク401上のコンテンツに応じて字幕生成処理のプログラムを変更することもでき、高度な字幕処理を行うことも可能となる。もちろん、字幕以外の表示を行うことも可能である。
【0076】
また本実施例では、時刻情報入力端子から入力された時刻情報と、上記図形情報表示時刻とが一致した際に、字幕を出力するので、所定の時刻に字幕の表示を行うことが可能である。したがって、再生中のストリームの時刻とは独立して図形情報を予め生成することができるため、字幕の生成を実時間で行う必要がなく、システム制御部414の負担を軽減することが出来る。そのため、字幕生成の処理を低速のCPUを使用した環境や、汎用のソフトウェア実行環境を用いて行うことが出来る。さらには、字幕処理の実行時間に制限が少ないので、字幕処理プログラムの開発が容易であり、かつ、字幕の表示に問題を来すことが少なくなる。
【符号の説明】
【0077】
101 データ入力端子
102 時刻情報入力端子
103 図形情報バッファ
104、107 タイミング制御部
105 変換部
106 画像メモリー
107 カラーパレットバッファ
108 カラーパレット
109 副画像出力端子
401 光ディスク
402 光ピックアップ
403 再生信号処理回路
404 出力制御部
405 サーボ部
406 ドライブ制御部
407 PCR検出部
408 音声デコーダ
409 音声出力端子
410 映像デコーダ
411 映像合成回路
412 映像出力端子
413 副画像生成部
414 システム制御部
415 リモコン受信部
416 ネットワーク制御部
417 ネットワーク
418 メモリー

【特許請求の範囲】
【請求項1】
主画像の映像信号に副画像の映像信号を重畳して、該重畳した映像を表示手段に表示させる再生装置において、
前記主画像の映像信号の表示時間情報を取得する取得手段と、
前記副画像の映像信号と前記副画像の映像信号の表示時間情報とを生成して記憶する副画像生成手段と、を備え、
前記取得手段が取得した表示時間情報と前記副画像生成手段が記憶している表示時間情報とが一致した場合に、前記副画像生成手段が前記副画像の映像信号を出力して、該出力された副画像の映像信号を前記主画像の映像信号に重畳して前記表示手段に出力することを特徴とする再生装置。
【請求項2】
請求項1記載の再生装置において、
前記副画像の映像信号を、主画像のデータが記録されている記録媒体に記録されている副画像のデータに基づいて生成することを特徴とする再生装置。
【請求項3】
請求項1記載の再生装置において、
副画像のデータをネットワークを介して取得し、前記取得した副画像のデータに基づいて前記副画像の映像信号を生成することを特徴とする再生装置。
【請求項4】
請求項1記載の再生装置において、
前記副画像生成手段は、副画像のデータと前記副画像の映像信号の表示時間情報とを記憶する図形情報バッファと、前記副画像のデータを前記副画像の映像信号に変換する変換部と、前記変換した副画像の映像信号を記憶する画像メモリーと、を備え、
前記主画像の映像信号の表示時間情報と前記副画像の映像信号の表示時間情報とが一致した際に、前記図形情報バッファから前記変換部へ前記副画像のデータを転送し、前記変換部で生成した副画像の映像信号を前記画像メモリーへ転送することを特徴とする再生装置。
【請求項5】
請求項4記載の再生装置において、
前記副画像生成手段は、色情報と前記副画像の映像信号の表示時間情報とを記憶するメモリーと、
前記色情報を前記画像メモリーから出力される前記副画像の映像信号に反映させるカラーパレット手段と、を備え、
前記主画像の映像信号の表示時間情報と前記副画像の映像信号の表示時間情報とが一致した際に、前記画像メモリーから前記副画像の映像信号を前記カラーパレット手段に転送し、前記副画像の映像信号に前記色情報を反映させることを特徴とする再生装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate


【公開番号】特開2012−75116(P2012−75116A)
【公開日】平成24年4月12日(2012.4.12)
【国際特許分類】
【出願番号】特願2011−226346(P2011−226346)
【出願日】平成23年10月14日(2011.10.14)
【分割の表示】特願2009−211244(P2009−211244)の分割
【原出願日】平成16年3月1日(2004.3.1)
【出願人】(000005108)株式会社日立製作所 (27,607)
【Fターム(参考)】