説明

音声処理装置、及び音声処理方法

【課題】操作負担を軽減する。
【解決手段】実施形態の音声処理装置は、音声変換手段と、発話判定手段と、処理判定手段と、実行手段と、を備える。音声変換手段は、入力された音声から、当該音声で発せられた内容を示した文字列情報に変換する。発話判定手段は、前記入力された音声を分析して、当該音声が発せられた際のユーザの発話の様式を判定する。処理判定手段は、前記発話の様式に基づいて、実行する処理を判定する。実行手段は、前記処理判定手段により判定された処理を、前記文字列情報を用いて実行する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明の実施形態は、音声処理装置、及び音声処理方法に関する。
【背景技術】
【0002】
従来から、ユーザが携帯するモバイル機器等のコンピュータも高性能化する傾向にある。そして、ユーザがコンピュータを快適に利用するためには、インタフェースが重要となる。そこで、近年、コンピュータに様々なセンサを内蔵し、これらセンサの検出結果をユーザの操作等として利用する技術が提案されている。
【0003】
例えば、コンピュータが、ユーザの音声に対して音声認識処理を施すことで、生成された音声命令に従って処理を行う技術が提案されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特表平11−506845号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、ユーザが発話する際、発話の様式には様々な種類がある。従来技術において、発話の様式を制限することで音声認識を向上させる等の技術は提案されているが、発話の様式の違いをユーザのインタフェースとして利用することは考慮されていない。
【0006】
本発明は、上記に鑑みてなされたものであって、ユーザの発話の様式の違いに基づいて実行する処理を異ならせる音声処理装置、及び音声処理方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
実施形態の音声処理装置は、音声変換手段と、発話判定手段と、処理判定手段と、実行手段と、を備える。音声変換手段は、入力された音声から、当該音声で発せられた内容を示した文字列情報に変換する。発話判定手段は、前記入力された音声を分析して、当該音声が発せられた際のユーザの発話の様式を判定する。処理判定手段は、前記発話の様式に基づいて、実行する処理を判定する。実行手段は、前記処理判定手段により判定された処理を、前記文字列情報を用いて実行する。
を備える音声処理装置
【図面の簡単な説明】
【0008】
【図1】図1は、実施形態にかかる情報処理装置の外観を模式的に示す図である。
【図2】図2は、実施形態にかかる情報処理装置の構成の一例を示すブロック図である。
【図3】図3は、実施形態にかかる情報処理装置で実行されるプログラムで実現される機能構成を示した図である。
【図4】図4は、実施形態にかかる情報処理装置が、認識された発話の様式が通常の抑揚の場合に行う処理の例を示した図である。
【図5】図5は、実施形態にかかる情報処理装置が認識された発話の様式が抑揚のない場合に行う処理の例を示した図である。
【図6】図6は、実施形態にかかる情報処理装置における全体的な処理の手順を示すフローチャートである。
【発明を実施するための形態】
【0009】
実施の形態として、音声処理装置を情報処理装置に適用した例について説明する。図1は、本実施形態にかかる情報処理装置の外観を模式的に示す図である。この情報処理装置100は、表示画面を備えた情報処理装置であり、例えばスレート端末(タブレット端末)や電子書籍リーダ、デジタルフォトフレーム等として実現されている。
【0010】
情報処理装置100は、薄い箱状の筐体Bを備え、この筐体Bの上面に表示部111が配置されている。表示部111は、ユーザによってタッチされた表示画面上の位置を検知するためのタッチセンサ112を備えている。
【0011】
また、情報処理装置100は、筐体Bの上面に、外部環境の音声を収集するためのマイクロフォン113を備えている。このマイクロフォン113から入力されたアナログの音声は、内部の処理により音声(オーディオ)信号に変換される。さらには、情報処理装置100は、筐体Bの上面に、各種ボタンスイッチ114が配置されている。これらボタンスイッチ114を押下することで、様々な操作を行うことができる。
【0012】
図2は、実施形態にかかる情報処理装置100の構成の一例を示すブロック図である。図2に示すように、情報処理装置100は、上述した表示部111、タッチセンサ112、マイクロフォン113、ボタンスイッチ114の他、CPU210(Central Processing Unit)、ROM211(Read Only Memory)、RAM212(Random Access Memory)、記憶部213、計時部214、ジャイロセンサ215、通信I/F216を備える。
【0013】
CPU210は、情報処理装置100の動作を中央制御する。具体的には、CPU210は、ROM211や記憶部213に記憶された各種プログラムを読み出し、RAM212の作業領域に展開して順次実行することで、バスラインを介して接続する情報処理装置100の各部に制御信号を出力する。ROM211は、各種プログラムや設定データを記憶する。RAM212は、CPU210の作業領域を提供する。記憶部213は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記憶装置であり、CPU210が実行するアプリケーションプログラム、文字、動画像、静止画像、音声などの各種データを読み書き可能に記憶する。計時部214は、RTC(Real Time Clock)機能およびネットワークを介して時刻の同期を行う機能を有し、時刻の同期および計時を行う。計時部214が同期および計時した時刻はCPU10に通知される。
【0014】
ジャイロセンサ215(ジャイロスコープ)は、MEMS技術を用いた振動型の角速度センサなどであり、XYZの3軸方向の情報処理装置100の姿勢を検出し、検出結果をCPU210へ出力する。通信I/F216は、CPU210の制御の下、所定の通信プロトコルに従い、有線又は無線の通信を行うインタフェースである。例えば、通信I/F216は、CPU210の制御の下、ルータ等を介した無線LANの通信を行う。
【0015】
ここで、CPU210が音声処理プログラムを順次実行することで実現する機能構成について説明する。図3は、情報処理装置100で実行されるプログラムで実現される機能構成を示した図である。図3に示すように、情報処理装置100は、音声認識部301と、発話様式判定部302と、動作対象抽出部303と、処理判定部304と、処理実行部305と、入力部306と、出力部307と、を備える。これら機能構成は、動作対象キーワードリスト記憶部308と、対応リスト記憶部309と、を用いる。なお、動作対象キーワードリスト記憶部308、及び対応リスト記憶部309は、図2の記憶部213内に設けられている。
【0016】
音声認識部301は、マイクロフォン113に入力された音声から、当該音声で発せられた内容を自然言語で示したテキストデータ(文字列情報)に変換する。
【0017】
発話様式判定部302は、マイクロフォン113に入力された音声に対して信号処理解析(分析)して、当該音声が発せられた際のユーザの発話の様式を判定する。発話様式判定部302は、ユーザの発話の様式として、予め定められた音を基準として、入力された音声が、抑揚の無い声、抑揚の激しい声、高い声、低い声、かすれ声、及びささやき声のうち、いずれであるかを判定する。なお、判定される発話の様式は、1つ又は複数であっても良い。
【0018】
動作対象キーワードリスト記憶部308は、処理実行部305で処理の対象として用いられるキーワードを記憶する。キーワードとしては、例えば、記憶部213に記憶されている音楽データの曲名や、演奏者の名前等でもよい。
【0019】
動作対象抽出部303は、音声認識部301により変換されたテキストデータから、処理実行部305で実行される処理の対象となるキーワード(識別情報)を抽出する。このキーワードとしては、例えば、音楽データの曲名や、演奏者の名前等の検索キーワードなどが考えられる。さらには、情報処理装置100に記憶されているファイル名や、メタデータなどであっても良い。これら検索キーワード、ファイル名、又はメタデータなどのキーワードが、処理実行部305による処理の対象として判定される。なお、音声認識部301により変換されたテキストデータから、キーワードを抽出する際に、記憶されているファイル名等と同一である必要はなく、所定の基準以上類似しているものであればよい。
【0020】
また、動作対象抽出部303は、変換されたテキストデータから、処理対象として判定されなかった部分、又は処理対象として判定されなかった部分から先頭と末尾の助詞を取り除いたテキストを、処理対象となるキーワードとして抽出しても良い。
【0021】
対応リスト記憶部309は、ユーザの発話の様式と、実行する処理と、を対応付けて記憶する。なお、対応リスト記憶部309は、実行する処理と対応付ける対象を、ユーザの発話の様式のみに制限するものではない。例えば、対応リスト記憶部309において、動作対象抽出部303において抽出された検索キーワードと、実行する処理と、を対応付けても良い。他の例としては、検索キーワードと、ユーザの発話の様式と、実行する処理と、を対応付けても良い。なお、対応リスト記憶部309が記憶する対応関係は、情報処理装置100の出荷時に予め登録したものでも良いし、ユーザが事後的に自由に登録したものでも良い。
【0022】
処理判定部304は、発話様式判定部302により判定された発話の様式に基づいて、変換されたテキストデータから抽出された識別情報を利用する処理を判定する。本実施形態にかかる処理判定部304は、対応リスト記憶部309に記憶された対応関係に基づいて判定する。例えば、処理判定部304は、ユーザの発話の様式と、対応リスト記憶部309で対応付けられていた処理を、処理実行部305で実行される処理として判定する。
【0023】
また、処理判定部304は、発話の様式のみを判定の基準として用いるのではなく、動作対象抽出部303により抽出されたキーワードと、対応リスト記憶部309で対応付けられている処理を、実行する処理として判定しても良い。
【0024】
さらに、本実施形態にかかる処理判定部304は、発話様式判定部302により判定された発話の様式、及び動作対象抽出部303により抽出されたキーワードと、対応リスト記憶部309で対応付けられている処理を、処理実行部305が実行する処理として判定しても良い。
【0025】
本実施形態にかかる処理判定部304は、判定された処理として、当該処理を行うアプリケーションを特定してもよい。この場合、処理実行部305が、特定されたアプリケーションの起動制御を行い、当該アプリケーションに対して処理の実行を要求する。
【0026】
処理実行部305は、動作対象抽出部303により抽出されたキーワードを用いて、処理判定部304により判定された処理を実行する。なお、処理対象として用いる情報は、動作対象抽出部303により抽出されたキーワードに制限するものではなく、例えば音声認識部301により変換されたテキストデータに基づく情報であってもよい。
【0027】
本実施形態にかかる処理実行部305は、処理判定部304により特定されたアプリケーションを起動し、当該アプリケーションに対して処理の実行を要求すると共に、当該アプリケーションに対してキーワードを受け渡す。
【0028】
なお、本実施形態にかかる処理実行部305は、処理判定部304により判定された処理と、動作対象抽出部303により抽出されたキーワードと、を表示部111に表示するだけでも良い。さらに、このような表示を行って、処理を実行するための許可をユーザに促しても良い。
【0029】
入力部306は、通信I/F216等やジャイロセンサ215等から入力された入力情報を、処理実行部305に出力する。出力部307は、処理実行部305から出力された情報を表示部111に表示制御したり、外部装置に通信I/F216を介して送信しても良い。
【0030】
上述した構成で実現される情報処理装置100で行われる処理について説明する。例えば、ユーザが「○○××(歌手)、キョク1(曲名)」と発話したものとする。この場合、情報処理装置100が、マイクロフォン113により当該発話の入力処理を行い、当該発話に基づいた処理を行う。この発話に基づいた処理としては例えば、音楽再生などが考えられる。
【0031】
ところで、従来から、音声認識により得られたテキストを用いて、データベース検索を自動的に実行する情報処理装置が存在していた。つまり、ユーザが何語かを発話すると、これら発話の内容を認識し、テキストデータに変換し、当該テキストデータを検索キーワードとして用いて、検索を行う技術が存在する。このような従来技術では、行われる処理がWeb検索に一意に設定されていたため、処理に自由度がなかった。上述した例では、「○○××(歌手)、キョク1(曲名)」を検索キーワードとした検索結果が表示されるに留まっていた。
【0032】
そこで、本実施形態にかかる情報処理装置100では、音声認識からテキストを生成する際に、発話の様式を認識し、認識した発話の様式に基づいて処理を切り替えることとした。
【0033】
図4は、認識された発話の様式が通常の抑揚の場合に、情報処理装置100が行う処理の例を示した図である。図4に示すように、情報処理装置100のマイクロフォン113が入力した音声に基づいて、音声認識部301がテキストデータ「○○××(歌手) キョク1(曲名)」に変換すると共に、発話様式判定部302が音声から、発話の様式として通常の抑揚である(矢印で示したように起伏に富んでいる)と判定したものとする。この場合、処理判定部304が、通常の抑揚と、対応リスト記憶部309で対応付けられている、Web検索を、実行する処理として判定する。これにより、実行処理部305が、Webブラウザを起動する。当該Webブラウザは、動作対象抽出部303により抽出された「○○××(歌手)」と「キョク1(曲名)」とが検索キーワードとして設定された検索画面401を表示する。その後、情報処理装置100はタッチセンサ112が、開始ボタン402の押下を受け付けることで、Webブラウザによる検索が開始される。
【0034】
図5は、認識された発話の様式が抑揚のない場合に、情報処理装置100が行う処理の例を示した図である。図5に示すように、情報処理装置100のマイクロフォン113が入力した音声に基づいて、音声認識部301がテキストデータ「○○××(歌手) キョク2(曲名)」に変換すると共に、発話様式判定部302が音声から、発話の様式として抑揚がない(矢印で示したようにフラット)と判定したものとする。この場合、処理判定部304が、抑揚がない場合と、対応リスト記憶部309で対応付けられている、音楽アプリケーション(楽曲プレーヤー)による曲の再生を、実行する処理として判定する。これにより、実行処理部305が、音楽アプリケーション501を起動する。当該音楽アプリケーションの表示画面501では、動作対象抽出部303により抽出された「○○××(歌手)」と「キョク1(曲名)」とに基づいた音楽データが選択された状態で表示される。その後、音楽アプリケーションが、選択された音楽データを自動再生する。
【0035】
他の例としては、情報処理装置100のマイクロフォン113が入力した音声に基づいて、音声認識部301がテキストデータ「○○××(歌手) キョク3(曲名)」に変換すると共に、発話様式判定部302が音声から、ささやき声と判定したものとする。このささやき声であるか否かの判定は、例えばNAM(Non-Audible Murmur)技術を用いることで実現可能とする。
【0036】
そして、処理判定部304が、ささやき声と、対応リスト記憶部309で対応付けられている、動画投稿サイトの検索、再生を、実行する処理として判定する。これにより、実行処理部305が、Webブラウザを起動する。そして当該Webブラウザを起動する際に、接続先として動画投稿サイトのURLを設定する。その後、実行処理部305がWebブラウザ上に表示された動画投稿サイトに対して、動作対象抽出部303により抽出された「○○××(歌手)」及び「キョク3(曲名)」を検索キーワードとして受け渡す。これにより、ささやき声で入力された発話内容を検索キーワードとして、動画投稿サイトで検索、再生を行うことができる。
【0037】
このように、本実施形態にかかる情報処理装置100は、発話の様式により処理を異ならせることに制限するものではなく、動作対象抽出部303により抽出されたキーワードに従って、処理実行部305が処理を異ならせても良い。例えば、キーワードとして「うえーーー」が認識された際、「うえ」をトリガーとして処理実行部305が上スクロールを開始し、語尾「え」を伸ばしているのが継続している間、処理実行部305が上スクロールし続ける処理を行う。
【0038】
他の例として「したーーー」が認識された際、「した」をトリガーとして処理実行部305が下スクロールを開始し、語尾「た」を伸ばしているのが継続している間、処理実行部305が、下スクロールし続ける処理を行う。なお、発話延ばしていることの検出は、HMM(隠れマルコフモデル)を用いることで可能なものとして、説明を省略する。なお、これらの処理は、上述した発話の様式と組み合わせても良い。
【0039】
この発話様式によるコマンドの入力はあらゆる言語に適用できる。例えば英語の場合、「upperrrrrrr」が認識された際、「up」をトリガーとして処理実行部305が上スクロールを開始し、語尾「r」を伸ばしているのが継続している間、処理実行部305が上スクロールし続ける処理を行う。また、下スクロールする場合も同様に、「lowerrrr」と語尾「r」を伸ばしている間、下スクロールが継続するものとする。
【0040】
次に、本実施形態にかかる情報処理装置100における、全体的なの処理について説明する。図6は、本実施形態にかかる情報処理装置100における上述した処理の手順を示すフローチャートである。なお、図6に示す処理を行う際、情報処理装置100による音声認識の準備が完了しているものとする。
【0041】
まず、情報処理装置100のマイクロフォン113が、ユーザの発話を音声信号として入力処理する(ステップS601)。次に、音声認識部301が、入力処理された音声信号を音声認識し、認識結果が含まれたテキストデータ(以下、認識結果テキストデータ)を生成する(ステップS602)。
【0042】
一方、発話様式判定部302が、音声信号から、ユーザの発話様式を判定する(ステップS603)。
【0043】
そして、動作対象抽出部303が、ステップS602で生成された認識結果テキストデータから、処理の対象となるキーワード等を抽出する(ステップS604)。
【0044】
また、処理判定部304が、発話様式から実行する処理を特定する(ステップS605)。その際、実行する処理を行うためのアプリケーションを特定する。また、起動するアプリケーションがWebブラウザの場合には、接続先のURLも特定しても良い。
【0045】
その後、処理実行部305が、特定された処理に対応するアプリケーションを起動する(ステップS606)。そして、処理実行部305が、起動したアプリケーション上で、抽出されたキーワードを用いて処理を実行する(ステップS607)。その後、処理実行部305が、処理結果を、表示部111に表示する(ステップS608)。
【0046】
上述した処理により、発話様式に従った処理がなされることになり、ユーザが処理を実行する際の操作負担を軽減することができる。なお、上述した処理手順に制限するものではなく、各ステップの順序を入れ替えても良い。例えば、ステップS602より先にステップS603を実行しても良いし、ステップS602及びステップS603を同時に実行しても良い。
【0047】
また、本実施形態にかかる情報処理装置100は、上述した処理に制限するものではなく様々な態様が考えられる。例えば、発話様式が所定の様式の場合には、発話した内容をテキストとしてメモする処理などを行っても良い。
【0048】
また、情報処理装置100では、アプリケーションを起動した後に、発話の態様に基づいて処理を切り替えても良い。例えば、ブログの文章を音声入力する場合、発話様式に従って入力文字の大きさや色やフォントを変更することが考えられる。
【0049】
また、ユーザの発話様式に従って、情報処理装置100で実行する処理としては、どのような処理を行っても良いが、Web検索、楽曲再生、楽曲検索、お気に入り閲覧、ブログ執筆、メール閲覧、動画投稿サイトの閲覧、電子ブックの閲覧、アプリ検索、カメラ起動、カメラ撮影、インターネット回線を介した電話などを実行しても良い。
【0050】
(第1の実施形態の変形例)
なお、音声認識結果テキストデータから抽出されるキーワードに音声コマンドが含まれていても良い。そこで、本変形例にかかる情報処理装置100の動作対象抽出部303では、テキストデータから、音声コマンドを抽出する例とする。例えば、楽曲「楽曲A」を音声コマンドで再生したい時、ユーザが「楽曲Aを再生」と抑揚のない声で発話すればよい。この場合、対応リスト記憶部309で“再生”というキーワード及び抑揚のない声が、音楽アプリケーション(楽曲プレーヤー)と、対応付けられているものとする。そして、記憶部213に“楽曲A”という楽曲が存在すれば、楽曲Aを楽曲プレーヤーで再生できる。
【0051】
一方、抑揚のある発話はWeb検索と対応リスト記憶部309に予め設定しておく。これにより、「楽曲A 再生」と抑揚のある発話で行った場合、音声コマンドが含まれていても、本実施形態にかかる情報処理装置100では、Web検索を優先して行うことになる。
【0052】
本実施形態にかかる発話様式判定部302の判定対象となる発話様式は上述した声に制限するものではなく、他の発話態様を判定基準として用いても良い。例えば、声の高さが上がり続ける発話や、声の高さが下がり続ける発話などを判定基準として用いても良い。
【0053】
このように、発話内容のみならず発話の仕方からも、音声コマンド意図を判定するので、より適切にユーザが意図したコマンドを実行することができる。
【0054】
本変形例では、発話の態様と、ユーザの発話に基づく音声コマンドと、を組み合わせることとした。これにより、従来の情報処理装置では、当該処理を特定するために上位から階層を辿って実行する処理を選択していたが(例えば、[メニュー]->[プレーヤー]->[再生選択]->[再生])、音声コマンドと発話の態様との組み合わせで、実行する処理を特定できるため、従来技術と比べて、実行する処理の特定精度を向上させることができる。
【0055】
本実施形態及び変形例では、ユーザは発話の態様を異ならせるだけで、情報処理装置100で実行する処理を指定できる。これにより、情報処理装置100において、ユーザが意図しない処理を行うことを軽減できる。これにより、便利な音声コマンド処理を行うことができる。
【0056】
さらには、ユーザが、水気のある場所(例えばキッチン)に、情報処理装置100を配置し、当該情報処理装置100に対して実行する処理を特定する場合に、発話の態様で実行する処理を切り替えることができるため、操作性を向上させることができる。
【0057】
本実施形態及び変形例の情報処理装置で実行される音声処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
【0058】
また、本実施形態の情報処理装置で実行される音声処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の情報処理装置で実行される音声処理プログラムプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
【0059】
なお、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。
【符号の説明】
【0060】
100…情報処理装置、111…表示部、112…タッチセンサ、113…ボタンスイッチ、113…マイクロフォン、114…ボタンスイッチ、211…ROM、212…RAM、213…記憶部、214…計時部、215…ジャイロセンサ、216…通信I/F、301…音声認識部、302…発話様式判定部、303…動作対象抽出部、304…処理判定部、305…実行処理部、305…処理実行部、306…入力部、307…出力部、308…動作対象キーワードリスト記憶部、309…対応リスト記憶部

【特許請求の範囲】
【請求項1】
入力された音声から、当該音声で発せられた内容を示した文字列情報に変換する音声変換手段と、
前記入力された音声を分析して、当該音声が発せられた際のユーザの発話の様式を判定する発話判定手段と、
前記発話の様式に基づいて、実行する処理を判定する処理判定手段と、
前記処理判定手段により判定された処理を、前記文字列情報を用いて実行する実行手段と、
を備える音声処理装置。
【請求項2】
前記ユーザの発話の様式と、実行する処理と、を対応付けて記憶する記憶手段をさらに備える、
請求項1に記載の音声処理装置。
【請求項3】
前記音声変換手段により変換された前記文字列情報から、前記実行手段で実行される前記処理の対象となる識別情報を抽出する対象抽出手段を、さらに備え、
前記実行手段は、前記対象抽出手段により抽出された前記識別情報を、前記処理に用いる、
請求項1又は2に記載の音声処理装置。
【請求項4】
前記処理判定手段は、前記処理を実行するアプリケーションを判定し、
前記実行手段として、前記処理判定手段により判定されたアプリケーションを起動し、当該アプリケーションに対して前記文字列情報を受け渡す、
請求項1乃至3のいずれか1つに記載の音声処理装置。
【請求項5】
前記発話判定手段は、ユーザの発話の様式として、抑揚の無い声、抑揚の激しい声、高い声、低い声、かすれ声、及びささやき声のうち、いずれか1つを判定する、
請求項1乃至4のいずれか1つに記載の音声処理装置。
【請求項6】
音声処理装置で実行される音声処理方法であって、
音声変換手段が、入力された音声から、当該音声で発せられた内容を示した文字列情報に変換する音声変換ステップと、
発話判定手段が、前記入力された音声を分析して、当該音声が発せられた際のユーザの発話の様式を判定する発話判定ステップと、
処理判定手段が、前記発話の様式に基づいて、実行する処理を判定する処理判定ステップと、
実行手段が、前記処理判定ステップにより判定された処理を、前記文字列情報を用いて実行する実行ステップと、
を含む音声処理方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate


【公開番号】特開2012−215673(P2012−215673A)
【公開日】平成24年11月8日(2012.11.8)
【国際特許分類】
【出願番号】特願2011−80026(P2011−80026)
【出願日】平成23年3月31日(2011.3.31)
【出願人】(000003078)株式会社東芝 (54,554)
【Fターム(参考)】