説明

最適翻訳文選択装置、翻訳文選択モデル学習装置、方法、及びプログラム

【課題】複数の翻訳器から得られる翻訳候補から、ベイズリスク最小化基準により、所望の翻訳評価尺度を最適化できるような翻訳候補を選択することができるようにする。
【解決手段】第2翻訳制御部48によって、複数の翻訳器43A〜43Cから、入力された翻訳元言語の文に対する複数の翻訳文候補を取得する。第2特徴量算出部49によって、取得された翻訳文候補の各々について、予め定められた翻訳評価尺度と相関する複数の特徴量を算出する。翻訳文スコア計算部50によって、複数の翻訳文候補の各々について、学習された最適翻訳文選択モデルを用いて、翻訳文スコアを計算し、最適翻訳文選択部51によって、複数の翻訳文候補から、最適翻訳文を選択する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、最適翻訳文選択装置、翻訳文選択モデル学習装置、方法、及びプログラムに係り、特に、複数の翻訳文候補から最適翻訳文を選択する最適翻訳文選択装置、方法、及びプログラム、並びに、翻訳文選択モデルを学習する翻訳文選択モデル学習装置、方法、及びプログラムに関する。
【背景技術】
【0002】
機械翻訳あるいは音声認識装置において、通常、最適な解(機械翻訳あるいは音声認識の結果)としては、装置の内部で定義されたスコア(例えばルールの重要度スコアや統計モデルの確率)を基準とし、スコアが最大あるいは最小となる解を利用することが一般的である。これとは別に、「ベイズリスク最小化基準」と呼ばれる異なった基準を用いる最適解選択方法が広く知られており、音声認識での応用例(非特許文献1)や、機械翻訳での応用例(非特許文献2)が知られている。
【0003】
「ベイズリスク最小化基準」を用いる最適解選択方法は、一般には解探索後の複数個の解によって構成される解空間に対して、装置の内部モデルでなく、解空間からある一個の解を選択したときの「ベイズリスク」(期待損失とも呼ぶ)を解選択基準とし、ベイズリスクを最小とするような解を最適解として選択する、という方法である。
【0004】
非特許文献3では、ある単一の翻訳装置の複数翻訳候補からベイズリスク最小化基準によって最適解を選択する方法を提案している。ベイズリスクとは、選択された解に対する損失関数の期待値であり、損失関数の設計によってさまざまな尺度に関して最適な解選択を行うことができることがベイズリスク最小化基準の特徴である。上記の非特許文献1の音声認識での応用例では単語誤り率が損失関数に組み込まれ、上記の非特許文献2の機械翻訳での応用例では翻訳評価尺度BLEUなどが損失関数に組み込まれている。
【0005】
機械翻訳においては、翻訳装置の構成として規則を利用するもの、用例を利用するもの、統計量を利用するものなどがあり、さらに翻訳対象分野の設定による得意・不得意がある。このため、単一の翻訳装置AおよびBによって大量の文書を翻訳した場合に、文書全体では翻訳装置Aの方が平均的によい翻訳が可能であったとしても、部分的には翻訳装置Bの方がよい翻訳をすることもあり得る。従って、複数の装置の出力から最適な翻訳候補を選択することにより、全体の翻訳の正確さを向上させることが期待できる。非特許文献4では、複数の翻訳装置から出力される複数の翻訳候補から最適な翻訳方法を選択する方法が提案されている。
【先行技術文献】
【非特許文献】
【0006】
【非特許文献1】Vaibhava Goeland William Byrne. 2000. Minimum bayes-risk automatic speech recognition. Computer Speech and Language, 14(2):115-135.
【非特許文献2】Shankar Kumar, Wolfgang Macherey, Chris Dyer, and Franz Och. 2009. Efficient minimum error rate training and minimum bayesrisk decoding for translation hypergraphs and lattices. In Proc. ACL.
【非特許文献3】T. Joachims. 2006. Training linear SVMsin linear time. In KDD.
【非特許文献4】Adria de Gispert, Sami Virpioja, Mikko Kurimo, and Willliam Byrne. 2009. MBR combination of translation hypotheses from alternative morphological decompositions. In NAACL 2009.
【発明の概要】
【発明が解決しようとする課題】
【0007】
上記の非特許文献4に記載の方法では、仮説空間内で頻出する単語や句をより多く含む翻訳候補を多数決的に選択しているため、ベイズリスクを計算しておらず、所望の翻訳評価尺度を最大にするような柔軟な候補選択を行うことができない、という問題がある。
【0008】
また、従来のベイズリスク最小化では、単一の翻訳器の翻訳候補を利用していたため、解(翻訳候補)同士は同じ特徴量空間内にあり、それぞれが特徴量空間内で比較可能であった。このため、複数の翻訳器から出力される翻訳候補を利用する場合には、最適解を選択するための単一の特徴量空間への写像が自明でなく、複数の翻訳器からの翻訳結果の相互比較および選択への応用方法が自明でない。
【0009】
本発明は、上記の事情を鑑みてなされたもので、複数の翻訳器から得られる翻訳候補から、ベイズリスク最小化基準により、所望の翻訳評価尺度を最適化できるような翻訳候補を選択することができる最適翻訳文選択装置、翻訳文選択モデル学習装置、方法、及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0010】
上記の目的を達成するために第1の発明に係る最適翻訳文選択装置は、翻訳元言語の文を翻訳先言語の文の候補に翻訳する1つ以上の翻訳器から、入力された前記翻訳元言語の文に対する前記翻訳先言語の文の複数の候補を取得する翻訳候補取得手段と、前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、予め定められた翻訳評価尺度と相関する複数の特徴量を算出する特徴量算出手段と、前記特徴量算出手段によって算出された前記翻訳先言語の文の複数の候補の各々の前記複数の特徴量と、前記複数の特徴量の各々について予め学習された重みとに基づいて、前記翻訳先言語の文の複数の候補から、前記翻訳先言語の最適翻訳文を選択する最適翻訳文選択手段と、を含んで構成されている。
【0011】
第2の発明に係る最適翻訳文選択方法は、翻訳候補取得手段によって、翻訳元言語の文を翻訳先言語の文の候補に翻訳する1つ以上の翻訳器から、入力された前記翻訳元言語の文に対する前記翻訳先言語の文の複数の候補を取得するステップと、特徴量算出手段によって、前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、予め定められた翻訳評価尺度と相関する複数の特徴量を算出するステップと、最適翻訳文選択手段によって、前記特徴量算出手段によって算出された前記翻訳先言語の文の複数の候補の各々の前記複数の特徴量と、前記複数の特徴量の各々について予め学習された重みとに基づいて、前記翻訳先言語の文の複数の候補から、前記翻訳先言語の最適翻訳文を選択するステップと、を含む。
【0012】
第1の発明及び第2の発明によれば、翻訳候補取得手段によって、翻訳元言語の文を翻訳先言語の文の候補に翻訳する1つ以上の翻訳器から、入力された前記翻訳元言語の文に対する前記翻訳先言語の文の複数の候補を取得する。特徴量算出手段によって、前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、予め定められた翻訳評価尺度と相関する複数の特徴量を算出する。
【0013】
そして、最適翻訳文選択手段によって、前記特徴量算出手段によって算出された前記翻訳先言語の文の複数の候補の各々の前記複数の特徴量と、前記複数の特徴量の各々について予め学習された重みとに基づいて、前記翻訳先言語の文の複数の候補から、前記翻訳先言語の最適翻訳文を選択する。
【0014】
このように、1以上の翻訳器からの複数の候補について、翻訳評価尺度と相関する複数の特徴量を算出し、各特徴量について学習された重みを用いることにより、複数の翻訳器から得られる翻訳文候補から、ベイズリスク最小化基準により、所望の翻訳評価尺度を最適化できるような翻訳候補を選択することができる。
【0015】
第3の発明に係る翻訳文選択モデル学習装置は、翻訳元言語の文と翻訳先言語の正解文との対訳を含む学習データを記憶する記憶手段と、前記翻訳元言語の文を前記翻訳先言語の文の候補に翻訳する1つ以上の翻訳器から、前記学習データの前記翻訳元言語の文に対する前記翻訳先言語の文の複数の候補を取得する翻訳候補取得手段と、前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、予め定められた翻訳評価尺度と相関する複数の特徴量を算出する特徴量算出手段と、前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、前記学習データの前記翻訳先言語の正解文に基づいて、前記翻訳評価尺度を示す値を算出する評価手段と、前記翻訳先言語の文の複数の候補の各々について算出された前記複数の特徴量及び前記翻訳評価尺度を示す値に基づいて、前記複数の特徴量の各々に対する重みを含む翻訳文選択モデルを学習する学習手段と、を含んで構成されている。
【0016】
第4の発明に係る翻訳文選択モデル学習方法は、翻訳候補取得手段によって、翻訳元言語の文を翻訳先言語の文の候補に翻訳する1つ以上の翻訳器から、翻訳元言語の文と翻訳先言語の正解文との対訳を含む学習データの前記翻訳元言語の文に対する前記翻訳先言語の文の複数の候補を取得するステップと、特徴量算出手段によって、前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、予め定められた翻訳評価尺度と相関する複数の特徴量を算出するステップと、評価手段によって、前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、前記学習データの前記翻訳先言語の正解文に基づいて、前記翻訳評価尺度を示す値を算出するステップと、学習手段によって、前記翻訳先言語の文の複数の候補の各々について算出された前記複数の特徴量及び前記翻訳評価尺度を示す値に基づいて、前記複数の特徴量の各々に対する重みを含む翻訳文選択モデルを学習するステップと、を含む。
【0017】
第3の発明及び第4の発明によれば、翻訳候補取得手段によって、翻訳元言語の文を翻訳先言語の文の候補に翻訳する1つ以上の翻訳器から、学習データの前記翻訳元言語の文に対する前記翻訳先言語の文の複数の候補を取得する。特徴量算出手段によって、前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、予め定められた翻訳評価尺度と相関する複数の特徴量を算出する。
【0018】
そして、評価手段によって、前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、前記学習データの前記翻訳先言語の正解文に基づいて、前記翻訳評価尺度を示す値を算出する。学習手段によって、前記翻訳先言語の文の複数の候補の各々について算出された前記複数の特徴量及び前記翻訳評価尺度を示す値に基づいて、前記複数の特徴量の各々に対する重みを含む翻訳文選択モデルを学習する。
【0019】
このように、1以上の翻訳器からの複数の候補について、翻訳評価尺度と相関する複数の特徴量を算出すると共に、翻訳評価尺度を示す値を算出し、各特徴量に対する重みを学習することにより、複数の翻訳器から得られる翻訳文候補から、ベイズリスク最小化基準により、所望の翻訳評価尺度を最適化できるような翻訳候補を選択するモデルを学習することができる。
【0020】
第1の発明に係る最適翻訳文選択装置は、上記第3の発明に係る翻訳文選択モデル学習装置を更に含み、前記最適翻訳文選択手段は、前記翻訳文選択モデル学習装置によって学習された前記翻訳文選択モデルの前記複数の特徴量の各々に対する前記重みを用いて、前記翻訳先言語の文の複数の候補から、前記翻訳先言語の最適翻訳文を選択するようにすることができる。
【0021】
上記の複数の特徴量は、前記翻訳先言語の文の候補間における、前記文の長さの合致度及び前記文の語順の合致度の少なくとも一方を含むようにすることができる。
【0022】
第5の発明に係るプログラムは、コンピュータを、上記の最適翻訳文選択装置又は翻訳文選択モデル学習装置の各手段として機能させるためのプログラムである。
【発明の効果】
【0023】
以上説明したように、本発明の最適翻訳文選択装置、方法、及びプログラムによれば、1以上の翻訳器からの複数の候補について、翻訳評価尺度と相関する複数の特徴量を算出し、各特徴量について学習された重みを用いることにより、複数の翻訳器から得られる翻訳文候補から、ベイズリスク最小化基準により、所望の翻訳評価尺度を最適化できるような翻訳候補を選択することができる、という効果が得られる。
【0024】
本発明の翻訳文選択モデル学習装置、方法、及びプログラムによれば、1以上の翻訳器からの複数の候補について、翻訳評価尺度と相関する複数の特徴量を算出すると共に、翻訳評価尺度を示す値を算出し、各特徴量に対する重みを学習することにより、複数の翻訳器から得られる翻訳文候補から、ベイズリスク最小化基準により、所望の翻訳評価尺度を最適化できるような翻訳候補を選択するモデルを学習することができる、という効果が得られる。
【図面の簡単な説明】
【0025】
【図1】本発明の第1の実施の形態に係る最適翻訳文選択装置の構成を示す概略図である。
【図2】並行コーパスの日本語文ファイルの例を示す図である。
【図3】並行コーパスの英文文ファイルの例を示す図である。
【図4】翻訳器から出力された翻訳文候補の出力の例を示す図である。
【図5】翻訳器から出力された翻訳文候補の出力の例を示す図である。
【図6】翻訳器から出力された翻訳文候補の出力の例を示す図である。
【図7】特徴量つき候補文集合ファイルの例を示す図である。
【図8】特徴量つき候補文集合に対して翻訳評価尺度の値を付与した学習データの例を示す図である。
【図9】最適翻訳文選択モデルのファイルの例を示す図である。
【図10】各翻訳文候補に対する翻訳文スコアの計算結果を示す図である。
【図11】本発明の第1の実施の形態に係る最適翻訳文選択装置におけるモデル学習処理ルーチンの内容を示すフローチャートである。
【図12】本発明の第1の実施の形態に係る最適翻訳文選択装置における最適翻訳文選択処理ルーチンの内容を示すフローチャートである。
【図13】本発明の第2の実施の形態に係る最適翻訳文選択装置を含むシステム構成を示す概略図である。
【発明を実施するための形態】
【0026】
以下、図面を参照して本発明の実施の形態を詳細に説明する。
【0027】
〔第1の実施の形態〕
<システム構成>
本発明の第1の実施の形態に係る最適翻訳文選択装置100は、翻訳元言語の入力文と翻訳先言語の正しい出力文との対訳を含む学習データが入力され、最適翻訳文選択モデルを学習する。また、最適翻訳文選択装置100は、入力された翻訳元言語の入力文に対して複数の翻訳器から得られた複数の翻訳文候補から、学習した最適翻訳文選択モデルを用いて、最適な翻訳文候補を選択する。この最適翻訳文選択装置100は、CPUと、RAMと、後述するモデル学習処理ルーチン及び最適翻訳文選択処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。図1に示すように、最適翻訳文選択装置100は、入力部10と、演算部20と、出力部30とを備えている。
【0028】
入力部10は、キーボードなどの入力装置から入力された学習データとして、相互が対訳となっている文書集合(以下、並行コーパスと呼ぶ)を受け付ける。また、入力部10は、キーボードなどの入力装置から、翻訳したい翻訳元言語の入力文を受け付ける。なお、入力部10は、ネットワーク等を介して外部から入力されたものを受け付けるようにしてもよい。
【0029】
並行コーパスは対訳文対が自明な構造のファイルである。本実施の形態においては、日本語(翻訳元言語)の入力文と英語(翻訳先言語)の正解翻訳文とが、1行に1文ずつ記載され、かつ同じ行数に対応する日本語文・英文は対訳として対応がとれている。例えば、並行コーパスは、図2に示すような「日本語文ファイル」と図3に示すような「英文ファイル」との2つのファイルによって構成されている。
【0030】
図2及び図3の例では、日本語、英語ともすでに単語に分割された状態であるが、単語分割が事前に行われていない並行コーパスを利用する場合には、別途、単語分割(あるいは形態素解析)ツールを利用して単語分割を行うようにすればよい。日本語の形態素解析ツールは茶筌(ChaSen)、MeCabなどが広く知られており、英語ではPennTreebankと呼ばれる言語コーパスとともに配布されている単語分割ツールがよく用いられるが、本発明は特定の単語分割手法に依存しない。
【0031】
演算部20は、学習データ記憶部41、第1翻訳制御部42、複数の翻訳器43A〜43C、第1特徴量算出部44、学習データ作成部45、学習部46、最適翻訳文選択モデル記憶部47、第2翻訳制御部48、第2特徴量算出部49、翻訳文スコア計算部50、及び最適翻訳文選択部51を備えている。なお、第1翻訳制御部42及び第2翻訳制御部48は、翻訳候補取得手段の一例であり、学習データ作成部45が、評価手段の一例である。
【0032】
学習データ記憶部41は、入力部10により受け付けた並行コーパスを記憶する。
【0033】
第1翻訳制御部42は、並行コーパスの日本語側のファイルから、翻訳元の各入力文を取り出して、翻訳器43A〜43Cの各々に出力し、翻訳器43A〜43Cの各々から、翻訳元の入力文毎に、翻訳文候補を取得する。
【0034】
翻訳器43A〜43Cは、各々異なった統計モデルによって算出されるスコアに基づいて、翻訳元の入力文に対する翻訳文候補を各々決定して、第1翻訳制御部42に出力する。翻訳器43A〜43Cについては、周知技術で実現され、第1翻訳制御部42と翻訳の入出力を接続可能であることを除き、特定の機能を要しない。翻訳器43A〜43Cの各々からは0以上の翻訳文候補を受信したものとし、その合計数をNoutputとする。
【0035】
本実施の形態では、例えば、翻訳器43A〜43Cはそれぞれ最大100個の翻訳候補を生成するように設定されている。翻訳器43A〜43Cの生成した翻訳文候補の例を、図4、図5、図6にそれぞれ示す。翻訳器が異なるため、翻訳文候補の出力はそれぞれ異なっているが、図4、5では先頭が文ID(0から始まる非負の整数)を表し、翻訳文候補が1行ずつ翻訳器のスコアの降順に出力されている。図6では文の区切りが記号"===="によって与えられている。
【0036】
ここで、本実施の形態に係る最適翻訳文を選択する原理について説明する。
【0037】
最適翻訳文の選択は、ベイズリスク最小化基準に従って行う。具体的には、以下の(1)式のように、入力文fに対してベイズリスクを最小化するような最適翻訳文e0を選択する。L(e´|e;θ)はパラメータθの元での翻訳文候補eに対する翻訳文候補e´の損失であり、N(f)は入力文fに対する翻訳文候補の集合であり、eはN(f)の各翻訳文候補を表す。
【0038】
【数1】

【0039】
例えば、損失関数に、「翻訳文候補間の単語の異なり数」を組み込む場合を考えると、上記(1)式により、「相互の単語異なり数が少ない」、すなわち、「翻訳文候補集合の中で多数を占める単語で構成される」翻訳文候補を選択することになる。
【0040】
ここで、確率p(e|f)は入力文fから翻訳文候補eを得る条件付き確率であって、通常は翻訳器のスコアを利用する。しかし、本実施の形態では、各翻訳器43A〜43Cのスコアが異なった統計モデルによって算出されていて単純に比較が可能でないことを考慮して、p(e|f)は一様分布であると仮定する。また、損失関数Lは、以下の(2)式のように、複数の特徴量の線形結合によって表現可能であると仮定する。
【0041】
【数2】

【0042】
以上により、本実施の形態におけるベイズリスク最小化は以下の(3)式のように定式化される。
【0043】
【数3】

【0044】
本実施の形態では、上記(3)式で用いる特徴量(各Lk)として、翻訳器43A〜43Cに依存せず、かつ所望の翻訳評価尺度と相関する、2つの翻訳候補(e´とe)の比較によって得られる実数の値を用いる。また、特徴量の線形結合によって得られる上記(3)式のベイズリスク最小化による翻訳文候補選択のモデルを、最適翻訳文選択モデルと呼ぶ。最適翻訳文選択モデルのパラメータは特徴量の線形結合重みであり、特徴量の線形結合重みが、上記(3)の結果が所望の翻訳評価尺度(例えば翻訳自動評価尺度BLEU)を最大化するような値に調整される。本実施の形態では、以下に説明するように、学習データの入力文に対する翻訳結果とその翻訳結果に対する評価結果とを用いて、最適翻訳文選択モデルのパラメータを学習(最適化)する。
【0045】
また、上記図4、5、6に示すように、それぞれの翻訳出力には翻訳器のスコア情報が詳細に記録されているが、本実施の形態では、この情報を利用せずとも最適翻訳文の選択を可能にすることを特徴とするため、本実施の形態では、翻訳出力から翻訳文候補のみを抽出して利用する。
【0046】
第1特徴量算出部44は、学習データの入力文毎に、Noutput個の翻訳文候補を相互に比較し、各翻訳文候補ごとの複数の特徴量を算出する。本実施の形態では、複数の特徴量として、2つの翻訳文候補の比較によって得られるK個の実数値特徴量Lk(e´|e)を算出する。特徴量は翻訳文候補同士の一致度や不一致度を表すような値であり、例えば、「他の翻訳文候補との単語(あるいは部分単語列)一致率」、「他の翻訳文候補との語順一致率」、「他の翻訳文候補との単語数の比」などが特徴量として考えられる。また、翻訳文候補の相互比較によるものではないが、特徴量として、「どの翻訳器から出力された翻訳文候補であるかを指す離散特徴量」を利用してもよい。これによって、翻訳器ごとの優劣(後述の学習によって自動的に重みが調整される)を損失関数に盛り込むことも可能となる(この場合比較対象となる翻訳文候補eとは無関係な特徴量値が得られる)。
【0047】
単語・部分単語列・語順一致率については、異なる単語・部分単語列ごとの大量の特徴量を定義してもよいし、文全体で平均をとってもよい。また、これらの特徴量を組み合わせた別の特徴量を定義してもよい。なお、翻訳器ごとに単語の定義が異なり適切な対応がとれない場合は、第1特徴量算出部44で単語区切りのやり直しなどの処理を行い、より正確な比較を行うようにすればよい。
【0048】
本実施の形態では、一例として、第1特徴量算出部44は、各文IDごとの翻訳文候補(翻訳器ごとに最大100候補×翻訳器数)をすべて抽出し、さらに各翻訳文候補ごとに、下記1.〜6.の特徴量を算出する。下記の特徴量の各々は、翻訳評価尺度BLEU及びRIBESの何れかの構成要素であり、本実施の形態での最適化の目標となる翻訳評価尺度BLEUとRIBESの和と相関する。なお、翻訳評価尺度BLEUについては、参考文献(Kishore Papineni, Salim Roukos, Todd Ward, and Wei Jing Zhu. 2002. BLEU: a method for automatic evaluation of machine translation. In Proc. ACL, pages 311-318.)記載に記載されているものと同様であるため、説明を省略する。また、翻訳評価尺度RIBESについては、下記の参考文献2に記載されているものと同様であるため、説明を省略する。
[参考文献2] 平尾努,磯崎秀樹,Kevin Duh,須藤克仁,塚田元,永田昌明, RIBES: 順位相関に基づく翻訳の自動評価法, 言語処理学会 第17回年次大会発表論文集, pp.1115--1118, 2011.
【0049】
1. 同一文に対する他の全翻訳候補との単語1 グラム合致率の平均
2. 同一文に対する他の全翻訳候補との単語2 グラム合致率の平均
3. 同一文に対する他の全翻訳候補との単語3 グラム合致率の平均
4. 同一文に対する他の全翻訳候補との単語4 グラム合致率の平均
5. 同一文に対する他の全翻訳候補に対する長さのペナルティ(Brevity Penalty) の平均
6. 同一文に対する他の全翻訳候補に対するケンドールの順位相関係数(0から1の間に正規化)の平均
【0050】
ここで、単語nグラムとは連続するn個の単語の並びのことを指す用語であり、当該分野で広く使われている。上記1.から5.は、機械翻訳の分野で広く用いられている翻訳評価尺度BLEUで利用されている評価指標を比較対象の翻訳文候補の数(同一文IDの全翻訳文候補数−1)で平均化したものである。上記6.は翻訳評価尺度RIBESで利用している順位相関係数の平均である。
【0051】
また、第1特徴量算出部44は、学習データの入力文毎に、複数の翻訳文候補に対して、算出された特徴量を付与して、特徴量つき候補文集合とする。例えば、上記の特徴量と翻訳文候補を合わせて、図7に示すような特徴量つき候補文集合(ファイル)が作成される。
【0052】
学習データ作成部45は、Noutput個の翻訳文候補から最適な翻訳文を選択するための最適翻訳文選択モデルを学習するために、学習データ(翻訳元言語と翻訳先言語の並行コーパス)の翻訳元言語の入力文について得られた特徴量つき候補文集合に対して、「正解」として、各翻訳文候補について翻訳評価値を付与して、翻訳文候補毎に翻訳評価値が付与された特徴量つき候補文集合を、学習データとして作成する。この翻訳評価値は、学習データの翻訳先言語の正解翻訳文を参照訳として算出される値であり、広く知られる評価指標としてはBLEU、TER(翻訳誤り率)、WER(単語誤り率)などがあるが、本発明は特定の評価指標によらない。
【0053】
本実施の形態では、一例として、翻訳評価尺度BLEU(通称sentence−level BLEUと呼ばれる文単位での評価)と翻訳評価尺度RIBESの数値を翻訳評価値として利用して、特徴量つき候補文集合に対してBLEUとRIBESの和の値を付与し、後段の学習部46のための学習データとしてファイルに記録する。学習データの例を図8に示す。上記図7の特徴量つき候補文集合との違いは、各翻訳候補文に対応する各行の先頭のスコア部である。
【0054】
学習部46は、学習データ作成部45において作成された学習データをもとに、最適翻訳文選択モデルとして、各特徴量に対する重みを学習する。最適翻訳文選択モデルとしては、翻訳評価値が最大(あるいは最小)のものを正例、その他のものを負例として学習されたサポートベクタマシン(SVM)などの判別・分類モデル、Ranking SVM(上記の非特許文献3参照)など2個の翻訳文候補の翻訳評価値の上下関係を学習するモデル、サポートベクタ回帰(SVR)のように翻訳評価値そのものを推定するモデル、などを利用することができる。
【0055】
本実施の形態では、一例として、順位付けモデルとしてのRanking SVMを用いる。Ranking SVMは2つのサンプル点の特徴量の差に対して、サンプル点のどちらの順位が高いかを2値判別するという、サポートベクトルマシン(SVM)を利用した学習手法である。本実施の形態では翻訳評価値BLEUとRIBESの和の値の大小関係を学習する。BLEUは値が大きいほうが優れるという評価であるため、評価値が大きいほうのサンプルを判別するように学習する。
【0056】
学習部46によって学習された最適翻訳文選択モデルとして、各特徴量に対する重みが、最適翻訳文選択モデル記憶部47に格納される。例えば、Ranking SVMを学習した結果生成された、図9に示す最適翻訳文選択モデルファイルが、最適翻訳文選択モデル記憶部47に格納される。上記図9の最終行が、学習された最適翻訳文選択モデルのパラメータ(各特徴量に対する重み)を表す。
【0057】
第2翻訳制御部48は、入力部10により受け付けた翻訳元の少なくとも1つの入力文を、翻訳器43A〜43Cの各々に出力し、翻訳器43A〜43Cから、Noutput個の翻訳文候補を取得する。
【0058】
なお、翻訳器が0個の翻訳文候補を出力した場合は「当該翻訳器は翻訳不能であった」と解釈され、もしNoutput=0であれば、どの翻訳器も入力文に対して翻訳文候補が生成できなかったこととなるため、出力部30からの出力も「翻訳不能」となる。その際の出力については「入力文をそのまま出力する」「翻訳不能であったという応答を出力する」などが考えられる。
【0059】
第2特徴量算出部49は、入力された翻訳元の入力文毎に、Noutput個の翻訳文候補を相互に比較し、第1特徴量算出部44と同様に、各翻訳文候補ごとの複数の特徴量を算出する。算出する複数の特徴量は、第1特徴量算出部44と同一である。また、第2特徴量算出部49は、翻訳元の入力文毎に、複数の翻訳文候補に対して、算出された特徴量を付与して、特徴量つき候補文集合とする。
【0060】
翻訳文スコア計算部50は、最適翻訳文選択モデル記憶部47に記憶された最適翻訳文選択モデルを利用して、特徴量つき候補文集合の各翻訳文候補について、翻訳文スコアを計算する。
【0061】
Ranking SVMを用いる場合、各翻訳文候補(s)に対し、翻訳文スコア(score(s))は、以下の(4)式に従って算出される。
【0062】
【数4】

【0063】
ここで、wiはi番目の次元の特徴量の重み、fiはsのi番目の次元の特徴量である。このscore(s)は学習時に用いたBLEUとRIBESの和の値とは関係のない実数値であり、翻訳文候補間相互の優劣を決定するためだけに用いられる(値の大きい翻訳文候補が優れている)。本実施の形態では、このスコアを自然数の順位に直さず、図10に示す翻訳文スコアファイルの形式で、次段の最適翻訳文選択部51に渡す。
【0064】
なお、学習部46によって学習された最適翻訳文選択モデルを利用すると、評価値が最大かどうかを学習した場合、順位関係を学習した場合、評価値の回帰モデルとして学習した場合のいずれでも、翻訳文候補ごとに翻訳文スコアが得られる。
【0065】
最適翻訳文選択部51は、翻訳文スコア計算部50で計算された翻訳文スコアに基づいて、特徴量つき候補文集合から最適な翻訳文を選択し、出力部30へ渡す。上記(3)式で表されるベイズリスク最小化による最適な翻訳文を選択するように、翻訳文スコアが最大となる翻訳文候補を選択する。
【0066】
本実施の形態の例では、特徴量つき候補文集合ファイルと翻訳文スコアファイルは同じ行の内容が相互に対応するものであるため、容易に各入力文に対する翻訳文スコア最大の翻訳候補文を選択することが可能である。上記図7に示す特徴量つき候補文集合ファイル及び上記図9に示す翻訳文スコアファイルを例とした場合、その中では先頭行の12:85207023 が最大であるため,"in the following , the first f theta lens 17 and the second f theta lens 18 with respect to the main scanning plane of the inclination angle α 1 , α 2 will be described." が最適な翻訳文として選択され、出力部30に渡される。他の入力文に対してもそれぞれ翻訳文スコアが最大となる翻訳候補文が選択され、出力される。なお、上記では、記載の簡略化のため、特徴量つき候補文集合として、学習時の例を用いて説明したが、実際には、学習時の学習データと、最適翻訳文を選択するときの入力文とは異なる。
【0067】
また、選択される最適な翻訳文は、入力文ごとに1候補のみでもよいし、複数の候補を出力してもよい。また、翻訳不能であったり、非常にスコアが小さく翻訳結果として不適切と考えられる場合は、翻訳不能として翻訳候補を出力しないようにしてもよい。
【0068】
最適翻訳文選択部51で選択された最適な翻訳文候補が、最終的な翻訳結果として出力部30により出力される。出力の形態については特に規定しないが、ディスプレイなどへの出力、ネットワークを介した外部計算機等への出力が例として考えられる。
【0069】
<最適翻訳文選択装置の作用>
次に、本実施の形態に係る最適翻訳文選択装置100の作用について説明する。まず、対訳として対応がとれている日本語文ファイルと英語の正しい翻訳文の英文ファイルとからなる並行コーパスが、最適翻訳文選択装置100に入力されると、最適翻訳文選択装置100によって、入力された並行コーパスが、学習データ記憶部41へ格納される。そして、最適翻訳文選択装置100によって、図11に示すモデル学習処理ルーチンが実行される。
【0070】
まず、ステップS101において、学習データ記憶部41から並行コーパスを取得する。そして、ステップS102において、並行コーパスの日本語文ファイルから、入力文を1つずつ取り出し、翻訳器43A〜43Cの各々に、取り出した入力文を入力し、翻訳器43A〜43Cの各々から出力される翻訳文候補を取得する。
【0071】
ステップS103では、上記ステップS102において取得した各翻訳文候補について、複数の特徴量を算出して、特徴量つき候補文集合とする。次のステップS104では、各翻訳文候補について、並行コーパスの英文ファイル内の対応する文(正しい翻訳文)を用いて、翻訳評価値を算出する。
【0072】
そして、ステップS105において、特徴量つき候補文集合に対して、上記ステップS104で算出した翻訳評価値を付与し、学習データとしてファイルに記録する。ステップS106では、上記ステップ105で得られた学習データに基づいて、最適翻訳文選択モデルの各特徴量に対する重みを学習し、ステップS107において、学習結果を、最適翻訳文選択モデル記憶部47に格納して、モデル学習処理ルーチンを終了する。
【0073】
また、キーボードなどの入力装置から、翻訳したい日本語文ファイルが、最適翻訳文選択装置100に入力されると、最適翻訳文選択装置100によって、入力された日本語文ファイルの一文ごとに、図12に示す最適翻訳文選択処理ルーチンが実行される。
【0074】
まず、ステップS111において、翻訳元言語(日本語)の入力文を受け付け、ステップS112で、上記ステップ111で受け付けた入力文を、翻訳器43A〜43Cの各々に入力し、翻訳器43A〜43Cの各々から出力される翻訳文候補を取得する。
【0075】
ステップS113では、上記ステップS112において取得した各翻訳文候補について、複数の特徴量を算出して、特徴量つき候補文集合とする。ステップS114では、上記ステップS113で算出された特徴量、及び最適翻訳文選択モデル記憶部47に記憶されている各特徴量に対する重みに基づいて、上記(4)式に従って、各翻訳文候補について、翻訳文スコアを算出する。
【0076】
そして、ステップS115において、上記ステップS114で算出された翻訳文スコアが最大となる翻訳文候補を、最適な翻訳文として選択し、ステップS116で、選択した最適な翻訳文を出力部30により出力して、最適翻訳文選択処理ルーチンを終了する。
【0077】
<実験結果>
次に、本実施の形態で説明した最適翻訳文の選択方法について実験を行った結果を説明する。上記図3、図4に示す並行コーパスを用いて、英語から日本語への特許文(1,000文)の翻訳実験を行った。比較対象として、3つの個別の翻訳器による翻訳結果を用いた。
【0078】
標準的な評価尺度BLEUでは、3つの個別の翻訳器による翻訳結果について計算される評価尺度の1,000文での平均が、35.87、34.20、24.23となるときに、本実施の形態での選択方法により選択された最適翻訳文については、評価尺度の平均が、36.65となった。このように、およそ1ポイント向上したことが分かった。
【0079】
評価尺度RIBESでは、3つの個別の翻訳器による翻訳結果について計算された評価尺度の1,000文での平均が、76.87、75.93、67.68となるときに、本実施の形態での選択方法により選択された最適翻訳文については、評価尺度の平均が、77.50となった。およそ0.6ポイント向上したことが分かった。
【0080】
なお、上記非特許文献4のconsensus decodingと呼ばれる方法で得られた最適な翻訳文については、評価尺度BLEUの平均を計算すると35.45となり、評価尺度RIBESの平均を計算すると76.25となり、いずれも個別の翻訳器の最大値を下回る結果となった。
【0081】
以上説明したように、本実施の形態に係る最適翻訳文選択装置によれば、複数の翻訳器からの複数の翻訳文候補について、翻訳評価尺度と相関する複数の特徴量を算出すると共に、翻訳評価尺度を算出し、各特徴量に対する重みを含む最適翻訳文選択モデルを学習することにより、複数の翻訳器から得られる翻訳文候補から、ベイズリスク最小化基準により、所望の翻訳評価尺度を最適化できるような翻訳文候補を選択するモデルを学習することができる。
【0082】
また、複数の翻訳器からの複数の翻訳文候補について、翻訳評価尺度と相関する複数の特徴量を算出し、最適翻訳文選択モデルとして各特徴量について学習された重みを用いることにより、複数の翻訳器から得られる翻訳文候補から、ベイズリスク最小化基準により、所望の翻訳評価尺度を最適化できるような翻訳文候補を選択することができる。
【0083】
また、それぞれ特性が異なり、かつ、入力文の内容によって有利不利がある複数の翻訳器により出力される複数の翻訳文候補から、統計的に最適なものを選択することにより、最終的な翻訳精度を向上させることができる。
【0084】
また、各翻訳器の内部設計に依存せず、所望の翻訳評価尺度と相関する特徴量を利用する。これによって、複数の翻訳器からの翻訳結果を単一の特徴量空間において比較できるようにし、各翻訳器がどのような構成・技術によって翻訳しているかによらず、さまざまな翻訳器の出力を利用できる。また、目的とする指標(例えば翻訳の自動評価尺度)と相関する特徴量を利用することで、所望の指標を最適化するようなそれら特徴量の写像を効果的に学習し、その結果として、よりよい翻訳候補選択が可能になる。
【0085】
また、各翻訳器にどのようなものを使っても動作させることができる。各翻訳器に求められるのは、入力文に対して0個以上の翻訳文候補を出力することのみであって、統計翻訳器である必要もない。
【0086】
〔第2の実施の形態〕
次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
【0087】
第2の実施の形態では、外部の翻訳器を用いて、翻訳文候補を取得している点が、第1の実施の形態と異なっている。
【0088】
図13に示すように、第2の実施の形態に係る最適翻訳文選択装置100は、ネットワーク202を介して、複数の翻訳装置200に接続されている。複数の翻訳装置200は、各々異なる翻訳器を備えている。各翻訳装置200は、最適翻訳文選択装置100から送信された翻訳元の入力文について、翻訳器による翻訳処理を行い、入力文に対する翻訳文候補を、ネットワーク202を介して最適翻訳文選択装置100へ送信する。
【0089】
なお、各翻訳装置200と最適翻訳文選択装置100との間の入出力はsshやrshなどのリモートシェルや、共有された外部記憶装置を介して行うことができる。
【0090】
なお、第2の実施の形態に係る最適翻訳文選択装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。
【0091】
以上説明したように、第2の実施の形態に係る最適翻訳文選択装置によれば、ネットワークを介して接続された外部の複数の翻訳装置から出力される複数の翻訳文候補について、翻訳評価尺度と相関する複数の特徴量を算出し、最適翻訳文選択モデルとして各特徴量について学習された重みを用いることにより、複数の翻訳器から得られる翻訳文候補から、ベイズリスク最小化基準により、所望の翻訳評価尺度を最適化できるような翻訳文候補を選択することができる。
【0092】
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
【0093】
例えば、翻訳評価尺度に相関する特徴量の他に、各翻訳器のスコアを、特徴量として更に利用するようにしてもよい。
【0094】
また、特徴量として、数値化可能なものであれば、実数、多値整数、2値などを値とする他の特徴量を用いてもよい。
【0095】
また、最適翻訳文選択モデルの学習を、最適翻訳文選択装置とは別の装置において行うようにしてもよい。この場合には、最適翻訳文選択モデルの学習を行う学習装置は、学習データ記憶部41、第1翻訳制御部42、第1特徴量算出部44、学習データ作成部45、学習部46、及び最適翻訳文選択モデル記憶部47を備えていればよい。
【0096】
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
【符号の説明】
【0097】
10 入力部
20 演算部
30 出力部
41 学習データ記憶部
42 第1翻訳制御部
43A、43B、43C 翻訳器
44 第1特徴量算出部
45 学習データ作成部
46 学習部
47 最適翻訳文選択モデル記憶部
48 第2翻訳制御部
49 第2特徴量算出部
50 翻訳文スコア計算部
51 最適翻訳文選択部
100 最適翻訳文選択装置
200 翻訳装置

【特許請求の範囲】
【請求項1】
翻訳元言語の文を翻訳先言語の文の候補に翻訳する1つ以上の翻訳器から、入力された前記翻訳元言語の文に対する前記翻訳先言語の文の複数の候補を取得する翻訳候補取得手段と、
前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、予め定められた翻訳評価尺度と相関する複数の特徴量を算出する特徴量算出手段と、
前記特徴量算出手段によって算出された前記翻訳先言語の文の複数の候補の各々の前記複数の特徴量と、前記複数の特徴量の各々について予め学習された重みとに基づいて、前記翻訳先言語の文の複数の候補から、前記翻訳先言語の最適翻訳文を選択する最適翻訳文選択手段と、
を含む最適翻訳文選択装置。
【請求項2】
翻訳元言語の文と翻訳先言語の正解文との対訳を含む学習データを記憶する記憶手段と、
前記翻訳元言語の文を前記翻訳先言語の文の候補に翻訳する1つ以上の翻訳器から、前記学習データの前記翻訳元言語の文に対する前記翻訳先言語の文の複数の候補を取得する翻訳候補取得手段と、
前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、予め定められた翻訳評価尺度と相関する複数の特徴量を算出する特徴量算出手段と、
前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、前記学習データの前記翻訳先言語の正解文に基づいて、前記翻訳評価尺度を示す値を算出する評価手段と、
前記翻訳先言語の文の複数の候補の各々について算出された前記複数の特徴量及び前記翻訳評価尺度を示す値に基づいて、前記複数の特徴量の各々に対する重みを含む翻訳文選択モデルを学習する学習手段と、
を含む翻訳文選択モデル学習装置。
【請求項3】
請求項2記載の翻訳文選択モデル学習装置を更に含み、
前記最適翻訳文選択手段は、前記翻訳文選択モデル学習装置によって学習された前記翻訳文選択モデルの前記複数の特徴量の各々に対する前記重みを用いて、前記翻訳先言語の文の複数の候補から、前記翻訳先言語の最適翻訳文を選択する請求項1記載の最適翻訳文選択装置。
【請求項4】
前記複数の特徴量は、前記翻訳先言語の文の候補間における、前記文の長さの合致度及び前記文の語順の合致度の少なくとも一方を含む請求項1又は3記載の最適翻訳文選択装置。
【請求項5】
翻訳候補取得手段によって、翻訳元言語の文を翻訳先言語の文の候補に翻訳する1つ以上の翻訳器から、入力された前記翻訳元言語の文に対する前記翻訳先言語の文の複数の候補を取得するステップと、
特徴量算出手段によって、前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、予め定められた翻訳評価尺度と相関する複数の特徴量を算出するステップと、
最適翻訳文選択手段によって、前記特徴量算出手段によって算出された前記翻訳先言語の文の複数の候補の各々の前記複数の特徴量と、前記複数の特徴量の各々について予め学習された重みとに基づいて、前記翻訳先言語の文の複数の候補から、前記翻訳先言語の最適翻訳文を選択するステップと、
を含む最適翻訳文選択方法。
【請求項6】
翻訳候補取得手段によって、翻訳元言語の文を翻訳先言語の文の候補に翻訳する1つ以上の翻訳器から、翻訳元言語の文と翻訳先言語の正解文との対訳を含む学習データの前記翻訳元言語の文に対する前記翻訳先言語の文の複数の候補を取得するステップと、
特徴量算出手段によって、前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、予め定められた翻訳評価尺度と相関する複数の特徴量を算出するステップと、
評価手段によって、前記翻訳候補取得手段によって取得された前記翻訳先言語の文の複数の候補の各々について、前記学習データの前記翻訳先言語の正解文に基づいて、前記翻訳評価尺度を示す値を算出するステップと、
学習手段によって、前記翻訳先言語の文の複数の候補の各々について算出された前記複数の特徴量及び前記翻訳評価尺度を示す値に基づいて、前記複数の特徴量の各々に対する重みを含む翻訳文選択モデルを学習するステップと、
を含む翻訳文選択モデル学習方法。
【請求項7】
請求項6記載の翻訳文選択モデル学習方法の各ステップを更に含み、
前記最適翻訳文選択手段によって選択するステップは、前記翻訳文選択モデル学習方法によって学習された前記翻訳文選択モデルの前記複数の特徴量の各々に対する前記重みを用いて、前記翻訳先言語の文の複数の候補から、前記翻訳先言語の最適翻訳文を選択する請求項6記載の最適翻訳文選択方法。
【請求項8】
前記複数の特徴量は、前記翻訳先言語の文の候補間における、前記文の長さの合致度及び前記文の語順の合致度の少なくとも一方を含む請求項5又は7記載の最適翻訳文選択方法。
【請求項9】
コンピュータを、請求項1、請求項3、及び請求項4の何れか1項記載の最適翻訳文選択装置の各手段、又は請求項2記載の翻訳文選択モデル学習装置の各手段として機能させるためのプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate


【公開番号】特開2013−89116(P2013−89116A)
【公開日】平成25年5月13日(2013.5.13)
【国際特許分類】
【出願番号】特願2011−230784(P2011−230784)
【出願日】平成23年10月20日(2011.10.20)
【出願人】(000004226)日本電信電話株式会社 (13,992)
【Fターム(参考)】