説明

言語処理装置

【課題】
入力言語の設定の手間を省く。
【解決手段】
入力部(14)は、文字画像を含む映像を認識部(16)に入力する。認識部(16)は、入力部(149からの映像の文字画像を認識し、この文字画像に対応する文字情報、及びその言語を示す言語情報を出力する。ユーザは、言語選択手段(12)により出力言語を選択する。言語処理部(18)は、認識手段(16)で認識された文字情報を出力言語に機械翻訳する。出力部(20)は、言語処理部(18)の翻訳結果を出力する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、言語を別の言語に変換、即ち翻訳する言語処理装置に関する。
【背景技術】
【0002】
近年、自然言語処理技術の発展に伴い、様々な言語処理装置が開発されている。図5は、言語を変換する機械翻訳の従来の言語処理装置の概略構成ブロック図を示す。言語処理装置40は、言語選択部42と、入力部44と、言語処理部46と、翻訳結果出力部48とを具備する。言語選択部42は、入力言語と出力言語を選択する選択画面を表示し、ユーザはその画面上で,入力言語又は出力言語を指定する。入力部44により翻訳対象の言語(の文章)が言語処理部46に入力される。言語処理部46は、入力部44により入力された文章を言語選択部42で選択された入力言語及び出力言語に従い翻訳する。翻訳結果出力部48は、言語処理部46で翻訳された翻訳文を出力する。
【0003】
図6は、図5に示す言語処理装置の動作フローチャートである。入力部44が、言語処理を行いたい任意の言語Xの文章を取り込み、言語処理部46に供給する(S11)。言語処理部46は、形態素解析により、入力文の単語を決定する(S12)。ステップS12の単語決定処理は、文字列のどこからどこまでが単語で、その品詞は何かを決定する処理である。
【0004】
言語処理部46は、構文解析により、ステップS2で得られた品詞の係り受けを確定する(S13)。例えば、「Aさんと東京に行く」の「Aさん」は「行く」に係り、「東京と神奈川に行く」の「東京」は「神奈川」に係るといった内容である。ステップS13により、構文解析の結果を木構造で表した構文木Xを得ることが出来る。
【0005】
言語処理部46は次に、ステップS13の処理で得られた構文木Xに入力言語Xと出力言語Yとの間で予め定められた規則を適用し、別の言語Yの構文木Yを得る(S14)。言語処理部46は、ステップS14で得られた構文木Yを用いて、言語Yの文章を生成する(S15)。
【0006】
言語処理部46は、このようにして生成された言語Yの文章を翻訳結果出力部48に供給し、翻訳結果出力部48は、外部に出力する(S16)。
【0007】
以上の処理により、任意の言語Xを他の任意の言語Yに翻訳できる。一般的に、ステップS12からS15までの処理が、機械翻訳と呼ばれる。
【0008】
従来の言語処理装置における言語選択方法には、言語処理装置が現在の位置情報を取得し、取得した位置の使用言語を選択するというものがある(特許文献1,2参照。)。
【特許文献1】特開2003−114887号公報
【特許文献2】特開2005−190278号公報
【発明の開示】
【発明が解決しようとする課題】
【0009】
従来の言語処理装置では、出力言語を位置情報から決定できる。しかし、入力言語は、ユーザが言語処理装置を使用する際に手動で選択する必要があった。また、仮に現在位置の言語を入力言語とした場合、出力言語を簡易に選択する手段又は方法が望まれる。
【0010】
本発明は、このような要望を満たす言語処理装置を提示することを目的とする。
【課題を解決するための手段】
【0011】
本発明に係る言語処理装置は、文字画像を含む映像を入力する入力手段と、前記映像から前記文字画像を認識し、前記文字画像に対応する文字情報、及びその言語を示す言語情報を出力する認識手段と、装置の操作画面表示用言語を選択する言語選択手段と、前記認識手段で認識された前記文字情報を機械翻訳する言語処理手段と、前記言語処理手段の翻訳結果を出力する出力手段とを具備し、前記言語選択手段で選択された言語を入力言語又は出力言語とすることを特徴とする。
【0012】
本発明に係る言語処理装置は、音声を入力する入力手段と、前記音声を認識し、前記音声に対応する文字情報、及びその言語を示す言語情報を出力する認識手段と、装置の操作画面表示用言語を選択する言語選択手段と、前記認識手段で認識された前記文字情報を機械翻訳する言語処理手段と、前記言語処理手段の翻訳結果を出力する出力手段とを具備し、前記言語選択手段で選択された言語を入力言語又は出力言語とすることを特徴とする。
【発明の効果】
【0013】
本発明によれば、文字認識又は音声認識により言語も同時に認識するので、入力言語の事前設定が不要になり、ユーザの負担が軽減される。また、複数種類の入力言語に同時対応出来る。
【発明を実施するための最良の形態】
【0014】
以下、図面を参照して、本発明の実施例を詳細に説明する。
【0015】
図1は、デジタルビデオカメラに適用された本発明の一実施例の概略構成ブロック図を示す。本実施例は、デジタルビデオで撮影した文字を別言語に翻訳し、翻訳結果を再生映像に重畳表示する機能を提供する。
【0016】
本実施例の言語処理装置10は、言語選択部12と、映像入力部14と、認識部16と、言語処理部18と、翻訳結果出力部20とを具備する。言語選択部12は、出力言語を選択する選択画面を表示し、ユーザはその画面上で出力言語を指定する。出力言語は、通常、メニュー表示言語である。
【0017】
映像入力部14により被写体の映像(例えば、都市風景等の映像)が言語処理装置10の認識部16に入力される。認識部16は、映像入力部14により入力された映像から文字部分を抽出し、言語と文字を認識する。認識部16は、光学文字認識用に、入力言語として指定される可能性のある複数の言語の文字データベースを具備する。認識部16は、抽出された文字部分を該当する文字データベースとマッチングして個々の文字とその言語を認識し、認識結果の文字情報と、画面上の表示位置と、言語を示す言語情報を言語処理部18に出力する。
【0018】
言語処理部18は、認識部16からの言語情報で指定される言語を入力言語として、認識部16からの文字を、言語選択部12で選択される出力言語に機械翻訳する。機械翻訳結果は、画面上の表示位置の情報とともに、翻訳結果出力部20に供給される。
【0019】
翻訳結果出力部20は、言語処理部18からの翻訳結果を、言語処理部18からの表示位置に表示されるように、映像入力部14の入力対象の映像信号に合成する。合成映像信号は、液晶表示パネル又は電子ビューファインダに表示される。
【0020】
図2は、本実施例の動作フローチャートを示す。映像入力部14により、言語処理を行いたい任意の文字(言語X)を含む映像を取り込み、認識部16に供給する(S1)。
【0021】
認識部16は、入力画像のパターン認識により、文字画像部分を抽出する(S2)。認識部16は更に、抽出した文字画像と内蔵辞書内の言語とのパターンマッチングを行うことで、文字画像から入力言語Xを特定し、文字列を取得し(S3)。認識部16は、このようにして得られた文字列と入力言語情報(入力言語Xを示す情報)を言語処理部18に供給する。
【0022】
言語処理部18は、認識部16からの入力言語情報に基づく形態素解析により、認識部16からの文字列を単語に分解し、品詞を決定する(S4)。言語処理部18はまた、構文解析により、ステップS4で得られた単語の品詞の係り受けを確定し、構文解析の結果を木構造で表した構文木Xを生成する(S5)。言語処理部18は次に、ステップS5の構文解析処理で得られた構文木Xに入力言語Xと出力言語Yとの間で予め定められた規則を適用し、別の言語Yの構文木Yを得る(S14)。なお、ユーザは,言語選択部12により、出力言語Yを予め選択している。出力言語Yは、通常、ユーザが日常、使用する言語であり、ビデオカメラに装備される場合には,ビデオカメラのメニューの表示言語でもある。言語処理部18は、ステップS6で得られた構文木Yを用いて、言語Yの文章(翻訳文)を生成する(S7)。
【0023】
言語処理部18は、このようにして生成された言語Yの文章を翻訳結果出力部20に供給する。翻訳結果出力部20は、映像信号と混合する混合器(図示せず)に、表示位置のタイミングで言語Yの文章の画像データを供給する(S8)。
【0024】
以上の処理により、映像に含まれる文字を、その言語Xを自動決定した上で、他の任意の言語Yに翻訳できる。即ち、ユーザが手動で入力言語を選択する手間を軽減できる。複数の言語の入力に対応するためには、認識部16でのパターン認識に多大な時間がかかることが予想されるが、言語処理装置10が現在位置情報を基に、現地の言語を優先的に選択することで、認識時間を短縮できる。
【0025】
図3は、本実施例のメニュー表示言語を選択する画面の一例を示す。図3(a)は、日本語を選択した場合であり、同(b)は、英語を選択した場合をそれぞれ示す。
【0026】
図4は、実際に韓国で撮影した映像に対する本実施例の表示結果例を示す。撮影映像を再生する際に、本実施例の言語処理装置10が機能する。メニュー言語が日本語に設定されている場合、モニタ画面には(a)に示すように日本語の翻訳文が重畳標示される。他方、メニュー言語が英語に設定されている場合、モニタ画面には(b)に示すように英語の翻訳文が重畳標示される。
【0027】
図7は、実際に韓国語を入力音声とした本実施例の表示結果例を示す。入力された音声に対する出力を行う際に、本実施例の言語処理装置10が機能する。メニュー言語が日本語に設定されている場合、モニタ画面には(a)に示すように日本語の翻訳文が表示される。他方、メニュー言語が英語に設定されている場合、モニタ画面には(b)に示すように英語の翻訳文が表示される。ここで、出力は音声出力としても良い。また、入力音声がメニュー言語に設定している言語と同様であった場合、従来技術にある位置情報検出の結果から出力言語を決定することが有効であることは言うまでもない。
【図面の簡単な説明】
【0028】
【図1】本発明の一実施例の概略構成ブロック図である。
【図2】本実施例の動作フローチャートである。
【図3】本実施例を実装したデジタルビデオカメラのメニュー表示言語選択画面例である。
【図4】本実施例を実装したデジタルビデオカメラによる再生画面例である。
【図5】従来の言語処理装置の概略構成ブロック図である。
【図6】従来例の動作フローチャートである。
【図7】本実施例を実装した翻訳機による再生画面例である。
【符号の説明】
【0029】
10:言語処理装置
12:言語選択部
14:入力部
16:認識部
18:言語処理部
20:翻訳結果出力部
40:言語処理装置
42:言語選択部
44:入力部
46:言語処理部
48:翻訳結果出力部

【特許請求の範囲】
【請求項1】
文字画像を含む映像を入力する入力手段と、
前記映像から前記文字画像を認識し、前記文字画像に対応する文字情報、及びその言語を示す言語情報を出力する認識手段と、
装置の操作画面表示用言語を選択する言語選択手段と、
前記認識手段で認識された前記文字情報を機械翻訳する言語処理手段と、
前記言語処理手段の翻訳結果を出力する出力手段
とを具備し、前記言語選択手段で選択された言語を入力言語又は出力言語とすることを特徴とする言語処理装置。
【請求項2】
前記認識手段が、前記文字画像の表示位置を示す情報を出力し、
前記出力手段は、前記映像の前記表示位置に対応する位置に前記文字情報を重畳する手段を含む
ことを特徴とする請求項1に記載の言語処理装置。
【請求項3】
前記言語処理手段は、前記認識手段で認識された前記文字情報を前記言語選択手段で選択された言語に機械翻訳することを特徴とする請求項1又は2に記載の言語処理装置。
【請求項4】
音声を入力する入力手段と、
前記音声を認識し、前記音声に対応する文字情報、及びその言語を示す言語情報を出力する認識手段と、
装置の操作画面表示用言語を選択する言語選択手段と、
前記認識手段で認識された前記文字情報を機械翻訳する言語処理手段と、
前記言語処理手段の翻訳結果を出力する出力手段
とを具備し、前記言語選択手段で選択された言語を入力言語又は出力言語とすることを特徴とする言語処理装置。


【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate