説明

コンテンツ提供システム、コンテンツ生成装置、コンテンツ再生装置及びコンテンツ提供方法

【課題】コンテンツを配信する際に、コンテンツの内容に合致した体感情報を付加して配信し、再生側でコンテンツ再生時に体感情報に基づく演出効果を実現する。
【解決手段】コンテンツ生成・配信装置10は、複数種類の体感情報を数値化し登録しておき、その登録情報を参照して、映像・音声コンテンツに対し、種類、付加期間、量等を指定した体感情報を生成し、コンテンツにその体感情報を付加して通信回線20を通じてコンテンツ受信再生装置30に配信する。コンテンツ受信再生装置30は、体感情報付コンテンツを受信して映像・音声情報と体感情報を取り出し、映像・音声情報を再生出力する一方で、映像・音声に同期して指定された種類の体感を指定期間に渡って指定量に基づいて再生出力する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、例えば映像・音声にサービス情報を付加したコンテンツを生成し提供するコンテンツ提供システムに関する。
【背景技術】
【0002】
昨今、ブロードバンドの普及により、通信回線を利用して映像・音声によるコンテンツを配信するIP(Internet Protocol)放送やビデオオンデマンドサービスが盛んになってきている。中には、双方向のゲームサービスのように、通信回線を介してユーザのアクションに映像の再生を連携させるサービスもある。
【0003】
一方、遊園地や映画館等の娯楽施設では、映像・音声と同期して椅子や床を振動させる装置を用いることで、一般家庭では味わえない、よりリアリティのある体感(bodily sensation)が楽しめるようになっている。そこで、一般家庭において、映像・音声の再生時に娯楽施設で味わえる、臨場感溢れる体感を簡単に楽しめるシステムの実現が要望されている。
【0004】
尚、特許文献1には、放送番組のコンテンツを再生する際に、そのコンテンツの映像・音声に合わせて外部機器を連動させる仕組みが記載されている。この文献に記載される仕組みでは、映像・音声に知覚または感覚の程度を表す感性情報(sensitivity information)を対応付けた放送番組(コンテンツ)を生成してコンテンツ再生装置に送る。コンテンツ再生装置に、家庭内ネットワークを介して呈示用の外部装置を接続しておき、コンテンツ再生時に、映像・音声に対応付けられた感性情報に基づいて呈示機器を連動させ、これによって高臨場感を演出するようになされている。この仕組みは、映像・音声の場面に合わせて感性情報を送るようにしているが、感性情報は、例えば明るい、暗い、暑い、寒いといった知覚または感覚の程度を表す情報ですぎないことから、必ずしもコンテンツ製作者の意図に沿った演出がなされるとは限らない。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2003−324402号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
以上のように、従来から配信されたコンテンツの再生時に、娯楽施設で味わえるような臨場感溢れる体感を簡単に楽しむことのできるシステムの実現が求められている。
【0007】
本発明は上記事情を考慮してなされたもので、映像・音声によるコンテンツを配信する際に、コンテンツの内容に合致した体感を与えるように指示することができ、これによって再生側でコンテンツを再生する際に指示された体感の演出効果を与えることのできるコンテンツ提供システム、コンテンツ生成装置、コンテンツ再生装置及びコンテンツ提供方法を提供することを目的とする。
【課題を解決するための手段】
【0008】
上記目的を達成するために、本発明に係るコンテンツ提供システムは、以下のように構成される。
【0009】
(1)コンテンツ生成装置で生成された、映像情報、音声情報の少なくともいずれか一方によるメイン情報を含むコンテンツをコンテンツ再生装置に提供するコンテンツ提供システムであって、前記コンテンツ生成装置は、ユーザに与える体感の特性を数値化することによって体感素材を生成する体感素材生成手段と、前記メイン情報の再生に同期して前記体感素材の再生を指示する指示情報を生成する指示情報生成手段と、前記指示情報を前記体感素材に付加することによって体感情報を生成する体感情報生成手段と、前記体感情報を前記メイン情報に付加することによって体感情報付のコンテンツを生成するコンテンツ生成手段とを備え、前記コンテンツ再生装置は、前記体感情報付のコンテンツから前記メイン情報と前記体感情報とを分離する情報分離手段と、前記メイン情報を再生するメイン情報再生手段と、前記前記体感情報から体感素材及び指示情報を抽出する抽出手段と、前記指示情報に基づいて体感素材を再生する体感再生手段とを備える態様とする。
【0010】
また、本発明に係るコンテンツ生成装置は、以下のように構成される。
【0011】
(2)ユーザに与える体感の特性を数値化することによって体感素材を生成する体感素材生成手段と、映像情報、音声情報の少なくともいずれか一方によるメイン情報の再生に同期して前記体感素材の再生を指示する指示情報を生成する指示情報生成手段と、前記指示情報を前記体感素材に付加することによって体感情報を生成する体感情報生成手段と、前記体感情報を前記メイン情報に付加することによって体感情報付のコンテンツを生成するコンテンツ生成手段とを備える態様とする。
【0012】
(3)(2)の構成において、前記体感素材生成手段は、複数種類の体感それぞれの特性を数値化した体感素材を蓄積しておく蓄積手段を備える態様とする。
【0013】
(4)(2)の構成において、前記指示情報生成手段は、前記指示情報として、体感の種類、再生期間、量の少なくともいずれかを指示する態様とする。
【0014】
(5)(2)の構成において、前記コンテンツ生成手段は、前記メイン情報がMPEG2−TS(Moving Picture Export Group 2 − Transport Stream)構造であるとき、前記体感情報をPAT(Program Association Table)、PMT(Program Map Table)、PES(Packetized Elementary Stream)のいずれかのパケットの配下に配置し、配置したパケットのヘッダに前記体感情報が含まれることを示す識別情報を挿入する態様とする。
【0015】
また、本発明に係るコンテンツ再生装置は、以下のように構成される。
【0016】
(6)(2)のコンテンツ生成装置で生成された体感情報付のコンテンツを再生するコンテンツ再生装置において、前記体感情報付のコンテンツから前記メイン情報と前記体感情報を分離する情報分離手段と、前記メイン情報を再生するメイン情報再生手段と、前記体感情報から体感素材及び指示情報を抽出し、前記指示情報に基づいて体感素材を再生する体感再生手段とを備える態様とする。
【0017】
また、本発明に係るコンテンツ提供方法は、以下のように構成される。
【0018】
(7)映像情報、音声情報の少なくともいずれか一方によるメイン情報を含むコンテンツを提供するコンテンツ提供方法であって、前記コンテンツの生成は、ユーザに与える体感の特性を数値化することによって体感素材を生成し、前記メイン情報の再生に同期して前記体感素材の再生を指示する指示情報を生成し、前記指示情報を前記体感素材に付加することによって体感情報を生成し、前記体感情報を前記メイン情報に付加することによって体感情報付のコンテンツを生成する態様とし、前記コンテンツの再生は、前記体感情報付のコンテンツから前記メイン情報と前記体感情報とを分離し、前記メイン情報を再生すると共に、前記前記体感情報から体感素材及び指示情報を抽出し、前記指示情報に基づいて体感素材を再生する態様とする。
【発明の効果】
【0019】
本発明によれば、映像・音声によるコンテンツを配信する際に、コンテンツの内容に合致した体感情報を付加して配信することができ、これによって再生側でコンテンツを再生する際に体感情報に基づく演出効果を実現することのできるコンテンツ提供システム、コンテンツ生成装置、コンテンツ再生装置及びコンテンツ提供方法を提供することができる。
【図面の簡単な説明】
【0020】
【図1】本発明に係るコンテンツ提供システムの一実施形態を示すブロック図。
【図2】上記実施形態において、映像・音声コンテンツの生成プロセスを示すブロック図。
【図3】上記実施形態の映像・音声コンテンツのTS基本体系を示す概念図。
【図4】上記実施形態の体感情報を付加した場合のTS体系を示す概念図。
【図5】上記実施形態の体感情報として用いる体感情報パラメータの例を示す図。
【図6】上記実施形態の体感情報として用いる体感情報エレメンタリーの例を示す図。
【発明を実施するための形態】
【0021】
以下、図面を参照して本発明の実施の形態を詳細に説明する。
【0022】
図1は本発明に係るコンテンツ提供システムの一実施形態を示すブロック図である。図1において、コンテンツ生成・配信装置10は、映像・音声情報に体感情報を付加したコンテンツを生成して蓄積しておき、通信回線(IPネットワーク等)20に接続されるコンテンツ受信再生装置30からのコンテンツ配信要求に応じて、要求された体感情報付のコンテンツを配信する。コンテンツ受信再生装置30は、配信コンテンツを受信して映像・音声情報と体感情報とを分離し、それぞれの情報を再生する。
【0023】
以下、個々の構成について順次説明する。
【0024】
まず、コンテンツ生成・配信装置10において、体感情報生成部11は、一般的なオーサリング装置を利用したもので、体感の特性が与えられると、その特性を数値化(サンプリング)し、例えば図5に示すパラメータテーブル(項目、実行フラグ、値)、図6に示すエレメンタリーテーブル(方向(X,Y,Z)、量(大・中・小・無))の少なくともいずれかを生成して、体感素材蓄積部12に蓄積する。
【0025】
コンテンツ生成部13は、制作者から体感情報付のコンテンツを生成するように指示を受けると、映像・音声情報蓄積部14から制作者が指定する映像・音声情報を読み出し、制作者の操作入力に従って、例えばタイムチャートに沿ったサムネイルによる再生編集を行う。この再生編集において、制作者の操作により、予め体感素材蓄積部13に蓄積されている複数種類の体感素材の中から任意の体感素材を選択し、選択された体感素材のパラメータテーブル(項目、実行フラグ、値)、エレメンタリーテーブル(方向(X,Y,Z)、量(大・中・小・無))の所定の項目に演出の内容を順次指定入力していくことで、任意の再生区間に対する体感情報を生成する。そして、生成された体感情報を対象となった映像・音声情報に付加することで、体感情報付コンテンツを生成する。この体感情報付コンテンツはコンテンツ蓄積部15に蓄積される。尚、新たな体感素材を利用したい場合には、体感情報生成部11によって新たな体感素材から生成される体感情報を用いる。
【0026】
上記体感情報の項目指定の仕方については、例えば、パラメータ指定において、方向を指定したい場合には、方向の項目にフラグ「1」をセットし、その値として体感情報エレメンタリー内の方向に関する数値指定を行うことで、前後・左右・上下に振動を起こさせるための方向が登録される。また、振動、見る、聴く、臭い、味、気温、湿度等の五感に関する情報を特定したい場合には、五感の項目にフラグ「1」をセットし、予めリストアップされた感覚のいずれかを指定することで、振動、見る、聴く、臭い、味、気温、湿度等それぞれの対応する番号が登録される。
【0027】
その他、個々の体感情報の再生期間については、期間の項目にフラグ「1」をセットし、映像・音声情報のタイムチャートに沿って開始ポイントと終了ポイントとを指定することで登録される。量を指定したい場合には、量の項目にフラグ「1」をセットし、その値として体感情報エレメンタリー内の量(大・中・小・無)に関する指定を行うことで、対応する番号が登録される。生成された体感情報に基づいて演出効果を実現する装置情報としては、装置情報の項目に「1」をセットし、例えばタイプ1、タイプ7等のように分類情報を選択することで登録される。
【0028】
上記体感情報の生成において、受信側で再現可能か否かの上下限値の判定も併せて行う。体感素材の数値化にあたっては、映像・音声情報に含まれるレート、各種時刻情報、PCR(プログラム時刻基準値)、PTS(プレゼンテーションタイムスタンプ)、DTS(デコーディングタイムスタンプ)の少なくとも1つを参照してサンプリング値の決定を行う。体感素材は予め規定された体感内容に応じて個別に数値化される。映像・音声の再生内容を参照しつつ一連の体感情報が不要となった時点で終了ポイントとする。開始ポイントと終了ポイントの指定は、映像・音声の再生開始から終了までとしても、途中から部分的に指定するようにしてもよい。
【0029】
映像・音声の再生内容の参照は、ディスプレイ、スピーカ等の提示装置(図示せず)にて行う。体感素材の数値化にあたっては、映像・音声との親和性を考慮し、前述のように、体感情報パラメータと体感情報エレメンタリーの少なくとも1つを用いて体系化しておくとよい。
【0030】
上記コンテンツ生成部13では、映像・音声情報に体感情報を付加するために、選択された映像・音声情報のストリーム構造を解析し、映像・音声情報中に存在するオーディオ・ビデオの提示時刻を与えるPTS(Presentation Time Stamp)、復号開始時刻を与えるDTS(Decoding Time Stamp)、PCR(Program Clock Reference)の少なくとも1つと連動する形で体感情報を多重化する。
【0031】
この際、連動にあたっては、必要な情報を生成、数値化された体感情報を補正して最適化しても良く、PCR値(プログラム時刻基準値)の変更、PCRパケットの位置変更を行って多重化するとよい。映像・音声情報に体感情報が多重化されたコンテンツはコンテンツ蓄積部15に蓄積するか、配信処理部16に送られる。
【0032】
配信処理部16では、コンテンツ受信再生装置30から要求のあった体感情報付コンテンツをコンテンツ生成部13あるいはコンテンツ蓄積部15から取得し、通信回線20を介し、要求元のコンテンツ受信再生装置30に配信する。ここで、体感情報付コンテンツがTSパケットの場合、4バイトのタイムスタンプ(以降、TTSという)を付加した後、サービスに不要なNULL等のパケットを排除して送出する。このように不要なパケットを削除して伝送することは、通信回線20への負荷が軽減されることになり、有効である。PTSは27MHzのクロックにより生成する。
【0033】
一方、コンテンツ受信再生装置30において、コンテンツ取得部31では、通信回線20を介して、コンテンツ生成・配信装置10から配信された体感情報付コンテンツの情報を受け取り、映像・音声情報と体感情報に選別する。選別された映像・音声情報は映像・音声情報再生部32にて再生処理されて提示処理部33に送られ、体感情報は体感情報再生部34で再生されて体感制御部35に送られる。
【0034】
この際、体感情報再生部34に送られる情報として、映像・音声情報と同期をとるために、必要に応じて映像・音声情報の全部または一部を与えるとよい。また、体感情報に含まれるパラメータあるいはエレメンタリー情報等を自装置の特性に合わせて補正するとよい。
【0035】
上記映像・音声情報再生部32では、コンテンツ取得部31で取得されたコンテンツから映像・音声情報だけを取り込み、再生可能な情報であるかのチェックを行い、必要に応じて適正化を行った上で再生して提示処理部33に送る。ここで、コンテンツが暗号化されている場合、復号処理を行う。適正化は、体感情報の全部あるいは一部が存在した場合には不要な部分を削除し、体感情報の影響で映像・音声情報が提示処理部33に悪影響を及ぼす可能性がある場合には補正する。適正化の内容を必要に応じて提示処理部33に指示するとよい。提示処理部33は、映像・音声情報再生部32で再生された映像・音声情報を受け取り、ディスプレイ、スピーカ等の提示装置(図示せず)にそれぞれの信号形式に変換して出力する。
【0036】
一方、上記体感情報再生部34では、コンテンツ取得部31で取得されたコンテンツから体感情報を受け取り(必要に応じて映像・音声情報の全部また一部も受け取る)、体感情報の内容と映像・音声情報との対応を解析して、体感発生装置(図示せず)を駆動制御する体感制御部35に送る。体感制御部35が複数あってそれぞれ異なる体感発生装置を管理している場合には、体感情報再生部34において、再生された体感情報の内容に対応する体感制御部35に体感情報解析結果を送る。各体感制御部35は、接続されている体感発生装置に体感情報解析結果に応じた駆動制御信号を送る。これによって、体感発生装置を映像・音声の再生に同期して駆動させることができ、制作者が意図した期間に任意の体感を提供することが可能となる。
【0037】
尚、体感制御部35において、体感発生装置の特性あるいは設定に合わせて体感情報解析結果に基づく駆動制御信号を補正するとよい。
【0038】
上記体感制御部35では、体感情報再生部34から体感情報解析結果である数値化された情報に基づいて体感発生装置の駆動制御を行う。例えば、前後左右上下の動作情報の場合、サンプリング周期に基づく数値情報による細かな前後上下左右の振動動作を行う。風向き、風速情報の場合でも細かな間隔で制御を行なう。これよりリアルな体感を与えることができる。再生の際、自装置の特性あるいは、設定に合わせて体感情報を補正するとよい。
【0039】
尚、上記実施形態では、コンテンツ生成・配信装置10とコンテンツ受信再生装置30とを通信回線20を介して接続したシステム構成としたが、コンテンツ生成部分とコンテンツ再生部分を1つの端末装置内に同居させてもよい。また、各機能に分かれて記載されたものは合体させてもよい。
【0040】
上記構成において、体感情報付コンテンツを生成する手順について説明する。
【0041】
図2はTS形式の映像・音声情報の生成プロセスを示すブロック図である。図2において、映像情報、音声情報はそれぞれ映像符号化処理部41、音声符号化処理部42でそれぞれ圧縮符号化された後、多重化処理部44に送られる。この多重化処理部44では、圧縮符号化された映像情報、音声情報を、それぞれ例えばMPEG2−TS形式のパケット構造による信号に変換し、映像パケット及び音声パケットを順次配列することで両者を多重化する。このようにして生成された映像・音声情報の多重化信号は映像・音声情報蓄積部12に蓄積される。このとき、映像符号化処理部41では、STC(System Time Clock)生成部43からSTCを受け取り、当該STCからPTS(Presentation Time Stamp)/DTS(Decoding Time Stamp)を生成して映像符号化データに埋め込む。音声符号化処理部42では同じくSTCを受け取り、当該STCからPTSを生成し、当該PTSを音声符号化データに埋め込む。多重化処理部44では、同じくSTCを受け取り、当該STCに基づくPCR(Program Clock Reference)の挿入、PCRの値変更、PCRパケットの位置変更等を行なう。
【0042】
上記プロセスにて生成された映像・音声多重化信号のTS基本体系は、図3に示すように、TS(Transport Stream)、PAT(Program Association Table)、PMT(Program Map Table)の階層構造となっており、PMTの下に映像(Video)、音声(Audio)、PCR等のPES(Packetized Elementary Stream)パケットが配置される。映像パケットのヘッダにはPTS/DTSが挿入され、音声パケットのヘッダにはPTSが挿入される。
【0043】
一方、コンテンツ生成部13では、上記映像・音声多重化信号のMEPG2−TS構造を利用して体感情報を埋め込む。具体的には、図4に示すように、体感情報パラメータは、TS内のいずれの位置(TS、PAT、PMTそれぞれの配下)に配置すればよい。体感情報エレメンタリー(数値化情報)はヘッダにPTS/DTSを挿入してPMTの下に配置し、PMTのヘッダに体感情報エレメンタリーが含まれる識別情報を挿入しておく。識別情報としては、例えばストリームタイプ、エレメンタリーPIDを利用することができる。
【0044】
尚、PESヘッダのオプションは、ITU-T勧告H.222.に従う。PESパケット内のストリーム識別子は、ARIB STD-B32 2.1版の補助ストリーム(0xF9)、メタデータストリーム(0xFC)、拡張ストリームID(0xFD)、未定義(0xFC)の少なくとも1つを利用するようにしてもよい。
【0045】
上記構成によるコンテンツ生成・配信システムによれば、任意の演出効果を実現する体感情報を数値化し、例えばMPEG2−TS等の既存のフォーマット構造を利用して、映像・音声符号化データに多重した構造で配信することができるので、受信側においても体感情報付コンテンツを取得した場合に、映像・音声情報と体感情報を簡単に振り分けることができ、しかも映像・音声に同期して任意の体感情報を再生することができる。
【0046】
また、コンテンツ生成・配信装置10から配信される体感情報付コンテンツは、体感情報受信機能を持たない従来のMPEG-2 Systems対応装置であっても、映像・音声情報については再生することができ、体感情報による影響を受けないようにすることができる。
【0047】
尚、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。例えば、上記実施形態では、同時に録画可能な番組数を2つとしたが、それ以上の番組数であっても同様に実施可能である。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成を削除してもよい。さらに、異なる実施形態例に亘る構成要素を適宜組み合わせてもよい。
【符号の説明】
【0048】
10…コンテンツ生成・配信装置、11…体感情報生成部、12…体感情報蓄積部、13…コンテンツ生成部、14…映像・音声蓄積部、15…コンテンツ蓄積部、16…配信処理部、20…通信回線、30…コンテンツ受信再生装置、31…コンテンツ取得部、32…映像・音声情報再生部、33…提示処理部、34…体感情報再生部、35…体感情報制御部、41…映像符号化処理部、42…音声符号化処理部、43…STC(System Time Clock)生成部、44…多重化処理部。

【特許請求の範囲】
【請求項1】
コンテンツ生成装置で生成された、映像情報、音声情報の少なくともいずれか一方によるメイン情報を含むコンテンツをコンテンツ再生装置に提供するコンテンツ提供システムであって、
前記コンテンツ生成装置は、
ユーザに与える体感の特性を数値化することによって体感素材を生成する体感素材生成手段と、
前記メイン情報の再生に同期して前記体感素材の再生を指示する指示情報を生成する指示情報生成手段と、
前記指示情報を前記体感素材に付加することによって体感情報を生成する体感情報生成手段と、
前記体感情報を前記メイン情報に付加することによって体感情報付のコンテンツを生成するコンテンツ生成手段と
を備え、
前記コンテンツ再生装置は、
前記体感情報付のコンテンツから前記メイン情報と前記体感情報とを分離する情報分離手段と、
前記メイン情報を再生するメイン情報再生手段と、
前記前記体感情報から体感素材及び指示情報を抽出する抽出手段と、
前記指示情報に基づいて体感素材を再生する体感再生手段と
を備えるコンテンツ生成・配信システム。
【請求項2】
ユーザに与える体感の特性を数値化することによって体感素材を生成する体感素材生成手段と、
映像情報、音声情報の少なくともいずれか一方によるメイン情報の再生に同期して前記体感素材の再生を指示する指示情報を生成する指示情報生成手段と、
前記指示情報を前記体感素材に付加することによって体感情報を生成する体感情報生成手段と、
前記体感情報を前記メイン情報に付加することによって体感情報付のコンテンツを生成するコンテンツ生成手段と
を備えるコンテンツ生成装置。
【請求項3】
前記体感素材生成手段は、複数種類の体感それぞれの特性を数値化した体感素材を蓄積しておく蓄積手段を備える請求項2記載のコンテンツ生成装置。
【請求項4】
前記指示情報生成手段は、前記指示情報として、体感の種類、再生期間、量の少なくともいずれかを指示する請求項2記載のコンテンツ生成装置。
【請求項5】
前記コンテンツ生成手段は、前記メイン情報がMPEG2−TS(Moving Picture Export Group 2 − Transport Stream)構造であるとき、前記体感情報をPAT(Program Association Table)、PMT(Program Map Table)、PES(Packetized Elementary Stream)のいずれかのパケットの配下に配置し、配置したパケットのヘッダに前記体感情報が含まれることを示す識別情報を挿入する請求項1記載のコンテンツ生成装置。
【請求項6】
請求項2記載のコンテンツ生成装置で生成された体感情報付のコンテンツを再生するコンテンツ再生装置において、
前記体感情報付のコンテンツから前記メイン情報と前記体感情報を分離する情報分離手段と、
前記メイン情報を再生するメイン情報再生手段と、
前記体感情報から体感素材及び指示情報を抽出し、前記指示情報に基づいて体感素材を再生する体感再生手段と
を備えるコンテンツ再生装置。
【請求項7】
映像情報、音声情報の少なくともいずれか一方によるメイン情報を含むコンテンツを提供するコンテンツ提供方法であって、
前記コンテンツの生成は、ユーザに与える体感の特性を数値化することによって体感素材を生成し、前記メイン情報の再生に同期して前記体感素材の再生を指示する指示情報を生成し、前記指示情報を前記体感素材に付加することによって体感情報を生成し、前記体感情報を前記メイン情報に付加することによって体感情報付のコンテンツを生成するものとし、
前記コンテンツの再生は、前記体感情報付のコンテンツから前記メイン情報と前記体感情報とを分離し、前記メイン情報を再生すると共に、前記前記体感情報から体感素材及び指示情報を抽出し、前記指示情報に基づいて体感素材を再生するものとするコンテンツ提供方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate


【公開番号】特開2010−246094(P2010−246094A)
【公開日】平成22年10月28日(2010.10.28)
【国際特許分類】
【出願番号】特願2010−28020(P2010−28020)
【出願日】平成22年2月10日(2010.2.10)
【出願人】(000003078)株式会社東芝 (54,554)
【Fターム(参考)】