説明

双対分解を用いた組み合わせモデル型アライナ

【課題】機械翻訳において用いる、並列翻訳文中の単語を対応付けるための方法、システムおよび装置。
【解決手段】トレーニング時間中に動作するコンポーネントを備え、コンポーネントは、一対の言語の、正しく翻訳された文対よりなる並列コーパス402を含む。他のトレーニング時間コンポーネントは、対応付けモデルコンポーネント404であり、並列コーパス402から文対を受信し、対応付けされた並列コーパスを生成する。該並列コーパスは、句抽出コンポーネント406により受信され、句抽出器は、翻訳された句および対応するスコアのスニペットを含む、句テーブル408を生成する。翻訳時間コンポーネントは、句テーブル408のデータから生成される翻訳モデル422を含み、言語モデル420、および、言語モデル420や翻訳モデル422を用い、入力テキスト426から翻訳済み出力テキスト428を生成する機械翻訳コンポーネント424を含む。

【発明の詳細な説明】
【技術分野】
【0001】
(関連出願の相互参照)
本願は、35U.S.C.§119(e)に基づき、2010年12月17日出願の米国出願第61/424,608号の出願日の効果を主張する。この優先権出願の開示内容は、本願の開示内容の一部とみなされ、参照により本願に含まれる。
【背景技術】
【0002】
本明細書は統計的機械翻訳における単語の対応付けに関する。
単語(word)の対応付けは、文(sentence)対中の対応する単語を識別する、統計的機械翻訳(MT)における主要な機械学習タスクである。MTシステムの大半は、文fの単語を、その翻訳文eの単語に対応付ける有向マルコフ対応付けモデルを採用する。
【0003】
教師なし単語対応付けは、一般的に、文fを、その翻訳文eを条件として生成するマルコフプロセスとしてモデル化される。fからeを生成する同様のモデルは、異なる対応付けを予測する。
【0004】
システムは通常2つの有向モデルによる予測を組み合わせ、このうち一方がfをeに対応付け、他方がeをfに対応付ける。統計的機械翻訳システムは、2つの有向モデルによる予測を組み合わせる。この組み合わせにより、エラーを減少させ、有向モデルの1対多の構造的制約を緩和することができる。最も一般的な組み合わせの方法は、対応(alignment)の和集合(union)および積集合(intersection)を形成する方法、または、grow−diag−final等のヒューリスティック手続きを適用する方法である(これは、例えば、Franz Josef Och, Christopher Tillman, and Hermann Ney, Improved alignment models for statistical machine translation, in Proceedings of the Conference on Empirical Methods in Natural Language Processing, 1999に記載されている)。
【発明の概要】
【0005】
本明細書は、2つの有向アライナを明示的に単一の結合モデルに組み合わせる図式モデルの構成および使用方法を説明する。推論は、有向モデルの効率的な推論アルゴリズムを再利用する双対分解により行うことができる。組み合わせモデルは1対1の句(phrase)制約を実施し、対応付けの品質を向上させる。
【0006】
本明細書の主題の1つまたは複数の実施例の詳細は、添付の図面および以下の説明を参照して明らかになる。また、本主題の他の特徴、態様および利点についても、明細書、図面および特許請求の範囲より明らかになる。
【図面の簡単な説明】
【0007】
【図1】英語と中国語の単純な文対に対する双方向図式モデルのグラフ構成を示す図である。
【図2】双方向モデルをどのように2つの非循環モデルに分解するかを示す図である。
【図3】木構造を有する部分グラフGaをどのように等価の鎖構造を有するモデルに最適化によりマッピングするかを示す図である。
【図4】機械翻訳システムにおける双方向モデルの位置を示す図である。図面中の同一の参照記号は同一の構成要素を示す。
【発明を実施するための形態】
【0008】
(イントロダクション)
本明細書は、アライナの組み合わせに対する、モデルベースの代替案であり、2つの有向対応付けモデルの相反する予測を、これら2つの有向対応付けモデルをより大規模な図式モデル中に埋め込むことにより解消する代替案を説明する(以下「双方向モデル」と称する)。
【0009】
双方向モデルにおける潜在変数は、2つの有向マルコフ対応付けモデルにおける潜在変数の真の上位集合である。このモデルの構成およびポテンシャルは2つの有向モデル間の不一致を許容し、一致を与える。さらに、双方向モデルは、1対1の句対応付け構造を実施し、これにより、句対応付けモデル、同期ITG(Inversion Transduction Grammar)モデルおよび最新の教師ありモデルに示されるのと同様の構造的利点を得る。
【0010】
双方向モデルでは、モデルグラフ中に辺のサイクルが多く存在するため、推論を計算することができない。しかし、近似推論法の1つとして、双対分解を用いることができる。組み合わせモデル空間を探索するため、潜在的なマルコフ対応付けモデルの効率的なシーケンスアルゴリズムを、繰り返し適用することができる。この近似が収束した場合、完全モデルによる最適性の証明を得たことになる。
【0011】
アライナの組み合わせに対するこのモデルベースのアプローチは、対応付けおよび句抽出の品質を向上させる。
【0012】
(モデル定義)
双方向モデルは、頂点(vertex)集合Vおよび辺(edge)集合Dにより定義される図式モデルであり、文eおよびその翻訳文fの長さを条件として構築される。各頂点はモデル変数Vに対応し、各無向辺は変数の対(V,V)に対応する。各頂点は、対応する頂点ポテンシャル関数v(v)を有し、この関数は実数値を有するポテンシャルをVの採り得る値vのそれぞれに対し割り当てる。同様に、各辺は、1対の値を有する、対応するポテンシャル関数μij(v,v)を有する。モデル変数に対する完全な割り当てvのモデルによる確率はVとインデックス付けされ、頂点および辺のポテンシャルを考慮に入れたものである。
【数1】

【0013】
双方向モデルは、2つの有向隠れマルコフ対応付けモデル、および、これらの埋め込まれたモデルによる予測を単一の対称単語対にする追加の構成を含む。以下のパラグラフでは、まず有向モデルを説明し、それから、2つの有向モデルを結合双方向モデルに組み合わせる追加構成を説明する。
【0014】
(隠れマルコフ対応付けモデル)
ここでは、従来の隠れマルコフ対応付けモデルを説明する(これは、例えば、Stephan Vogel, Hermann Ney, and Christoph Tillmann, HMM−Based Word, Alignment in Statistical Translation, in Proceedings of the 16th Conference on Computational Linguistics, 1996に記載されている)。本モデルは、単語シーケンスeを条件とする単語シーケンスfを生成する。従来、eの単語はiとインデックス付けされ、fはjとインデックス付けされる。P(f|e)は潜在対応ベクトルaにより定義され、ここで、a=iはeの単語位置iがfの単語位置jに対応づけられることを示す。
【数2】

【0015】
上式(2)において、放射モデルMは、単語の種類による、学習済み多項分布を示す。遷移モデルDは、遷移距離による多項式であり、ヌル対応は例外として扱われる。
【数3】

c(i‘−i)は符号付き距離による学習済み分布であり、iからの、可能性のある遷移に対して正規化されている。
【0016】
条件付き多項式Mのパラメータ、遷移モデルcおよびヌル遷移パラメータpoはすべて、文を対応付けたコーパスから期待値最大化アルゴリズムにより学習可能である。
【0017】
所与の文対(e,f)に対するモデルによる単語対応ベクトルの最大確率は、標準ビタビアルゴリズムを、時間O(|e|・|f|)において、隠れマルコフモデルに対して用いることにより、正確に算出することができる。
【0018】
対応ベクトルaは、単語対応リンクの集合Aに明らかに変換可能である。
={(i,j):a=i,i≠0}.
【0019】
このように構築された集合Aは常に1対多である。多数の位置jを同一のiに対応付けることも可能だが、各jは、集合中に最大1回のみ出現する。
【0020】
上記説明はeからfを生成する有向モデルを定義した。同様に構成された、fからeを生成するモデルを定義することも可能である。対応のベクトルをbとし、b=jはfの単語位置jはeの単語位置iに対応付けられるものとする。そして、P(e,b|f)も式(2)同様に定義できるが、eとfとが入れ替わる。2つのモデルの遷移分布および放出分布は、モデルの生成方向f→eまたはe→fを示すサブスクリプトにより区別される。
【数4】

【0021】
ベクトルbは1対多対応リンクの集合と解釈できる:各値iは最大1回のみ集合中に出現する。
={(i,j):b=j,j≠0}.
【0022】
(アライナ組み合わせのモデル)
以下に説明するように、アライナを組み合わせることにより、双方向モデルを作成することができる。これは、2つの有向アライナのすべてのランダム変数およびアライナ間の一致を促して差異を解消する追加構成を含む図式モデル中に、アライナを埋め込むことにより実現できる。
【0023】
双方向モデルは、観測対象の単語シーケンスeおよびf、ならびに上に定義された対応変数aおよびbの2つのベクトルを含む。
【0024】
eおよびfの単語の種類および長さは常に観測対象の文対により固定されるため、変数aおよびbのみを用いて同一のモデルを定義することができる。この場合、a,fおよびe間のエッジポテンシャルは、aの頂点ポテンシャル
【数5】

にコンパイルされ、fおよびeにより定義され、いずれのbについても同様である。
【数6】

【数7】

【0025】
図1は、英語と中国語の単純な文対に対する双方向図式モデルのグラフ構成を示す図である。変数a、bおよびc(以下に説明)は、図中、ラベルにより示される。
【0026】
aおよびb間のエッジポテンシャルは式(2)の遷移モデルをエンコードする。
【数8】

【数9】

【0027】
さらに、ランダムビット行列cは、組み合わせアライナの出力をエンコードする。
【数10】

【0028】
各ランダム変数
【数11】

は、aおよびbに接続している。これらコヒーレンスエッジが、有向モデルの対応変数を、組み合わせ空間のブーリアン変数に接続する。これらの辺により、モデルが変数a、bおよびcの3つの集合をエンコードし、さらに、文対のコヒーレント対応解析をエンコードすることが可能になる。図1はモデルのグラフ構成を図示する。
【0029】
(コヒーレンスポテンシャル)
コヒーレンスエッジのポテンシャルは、学習されず、また、データセット中のいかなるパターンも表わさない。代わりに、これらは、整数値を有する有向変数aおよびb、ならびにブーリアン値を有する組み合わせ変数cの整合性を促す固定関数である。
【0030】
変数の割り当てa=iを考えると、i=0はfがヌル対応であり、i>0はfがeに対応付けられることを示す。コヒーレンスポテンシャルは、変数割り当てa=iといずれかのi‘:0<i’ ≦|e|の変数ci‘jとの間に、以下の関係性を成立させる。
・i=0(ヌル対応)の場合、すべてのci‘j=0
・i>0の場合、cij=1

【数12】

の場合のみ、ci’j>0
・i‘≠iに対しci’j=1を割り当てることは、コストe−αを要し、αは学習済定数である(例:0.3)
【0031】
この効果のパターンは、各辺において、ポテンシャル関数μ(c)でエンコードすることができる。これらのエッジポテンシャル関数はそれぞれ変数aに対して整数値iを採り、ci‘jに対してバイナリ値kを採る。
【数13】

bおよびc間の辺のポテンシャル
【数14】

も同様に定義される。
【0032】
(モデルプロパティ)
行列cは、双方向モデルにより生成される最終的な対応と解釈され、ここでaおよびbは無視する。このように、有向モデルの1対多の制約が緩和される。しかし、どのように単語が対応付けられるかについての情報はすべてaおよびbの頂点および辺のポテンシャルにより表わされる。コヒーレンスエッジおよびリンク行列cは、有向モデル間の矛盾を解消し、両者間で情報のやり取りを行うのみである。
【0033】
有向対応は双方向モデルのコンポーネントとしてそのまま維持されるため、潜在的有向マルコフ対応付けモデルに対する、レキシカライズド遷移モデル(これは、例えば、Xiaodong He, Using word−dependent transition models in HMM based word alignment for statistical machine, in ACL Workshop on Statistical Machine Translation, 2007に記載されている)、拡張調整コンテキスト(これは、例えば、Jamie Brunning, Adria de Gispert, and William Byrne, Context−dependent alignment models for statistical machine translation, in Proceedings of the North American Chapter of the Association for Computational Linguistics, 2009に記載されている)、および外部情報(これは、例えば、進藤裕之、藤野昭典、永田昌明、Word alignment with synonym regularization, in Proceedings of the Association for Computational Linguistics, 2010に記載されている)等を含む拡張や洗練化は、容易に双方向モデルへの組み込みが可能である。
【0034】
(a,b,c)に対するいずれの非ゼロ確率の割り当てに対しても、cは、最大フレーズ長を3とする1対1の句対応をエンコードする必要がある。すなわち、一方の文中の何れの単語も、他方の文中の最大3語に対し対応付けることができ、これらの語は隣接する必要がある。この制約は、式(7)のエッジポテンシャルにより、直接実施される。
【0035】
(モデル推論)
一般的に、閉路を有さない図式モデルは、効率的かつ正確な推論アルゴリズムを実現させる。しかし、残念ながら、双方向モデルには無数の閉路が含まれる。インデックス(i,j)および(i‘,j’)の対毎に、グラフ中に以下の閉路が存在することになる:
ij→b→cij‘→aj’
i‘j’→bi‘→ci’j→a→cij
【0036】
j−1およびaの間ならびにbi−1およびbの間の辺を介して、追加の閉路がグラフ中に存在する。
【0037】
選択されたエッジポテンシャル関数のために、句の対応付けに対する非ゼロ確率割り当ての空間が制限され、双方向モデルにおける推論は、NP困難として知られる一般的な句の対応付けの問題の例である。
【0038】
(双対分解)
図式モデル全体がループを有する一方、2つの重なり合う、閉路を有さない部分グラフが存在する。一方の部分グラフGが変数aおよびcに対応するすべての頂点を含む。他方の部分グラフGは変数bおよびcの頂点を含む。グラフ中の各辺は正確に2つの部分グラフのいずれか一方に属する。
【0039】
双対分解推論アプローチにより、この部分グラフ構造の利用が実現する(例えば、Alexander M. Rush, David Sontag, Michael Collins, and Tommi Jaakkola, On dual decomposition and linear programming relaxations for natural language processing, in Proceedings of the Conference on Empirical Methods in Natural Language Processing, 2010を参照)。特に、正確な推論を、繰り返し、部分グラフ問題に適用し、部分グラフ問題のポテンシャルを調整して、完全問題の制約を反映させることができる。双対分解の技術は近年係り受け解析において最新の性能を見せている(例えば、Terry Koo, Alexander M. Rush, Michael Collins, Tommi Jaakkola, and David Sontag, Dual decomposition for parsing with non−projective head automata, in Proceedings of the Conference on Empirical Methods in Natural Language Processing, 2010を参照)。
【0040】
(双対問題の定式化)
双方向モデルの双対分解推論手続きを説明するにあたり、まず、双方向図式モデルでの推論問題を、推論の算出を可能にする2つの重複した部分グラフを用いて再度定義する。c(a)を、Gに関連付けられたcのコピーとし、c(b)を、Gに関連付けられたコピーとする。また、f(a,c(a))をGに対する割り当ての対数尤度とし、g(b,c(b))をGに対する割り当ての対数尤度とする。さらに、Iを、cのすべての(i,j)に対する添字集合とする。そして、双方向モデルに対する最大尤度割り当てを、以下を最適化することにより決定する。
【数15】

これにより:
【数16】

【0041】
この最適化問題のラングランジアン緩和はL(a,b,c(a),c(b),u)=
【数17】

【0042】
したがって、元の問題は、以下のように書き換えることができる。
【数18】

そして、最大および最少の順番を入れ替えることにより、元の最適化問題の上解となる双対問題を形成することができる。この場合、双対問題を2項に分解され、これらはそれぞれ非循環部分グラフに対して局所的である。
【数19】

【0043】
図2は、双方向モデルをどのように2つの非循環モデルに分解するかを示す図である。2つのモデルはいずれもcのコピーを含む。変数は図中にラベルとして示されている。
【0044】
従来同様、2つの分離した最大化問題の推論を繰り返すことにより、uを算出することができる。
【0045】
(部分グラフ推論)
固定のuの式(9)の評価には、直鎖型図式モデルのビタビアルゴリズムのみが必要である。すなわち、標準HMM(隠れマルコフモデル)アライナにより最大尤度対応を決定するのに用いるのと同様のアルゴリズムを採用することができる。
【0046】
変数aおよびc(a)を含む式(9)の最初の部分を検討する。
【数20】

【0047】
標準HMMアライナ推論では、頂点ポテンシャルはバイレキシカル確率P(f|e)に相当する。これらの項は、f(a,c(a))に含まれている。
【0048】
目的の追加の項を、直鎖モデルの頂点ポテンシャルに組み込むことも可能である。a=iの場合、式(7)に定義されるエッジポテンシャルによると、cij=1である。したがって、a=iを設定することで、対応する頂点ポテンシャル
【数21】

およびexp(u(i,j))が式(10)に加えられる。i‘≠iの場合、aおよびci’j間のエッジポテンシャルにより、式(10)に対し何も寄与しないci‘j=0か、または、およびexp(u(i’,j)−α)を寄与するci‘j=1のいずれかとなる。したがって、aの割り当ておよびのすべてのci’jの最適割り当ての最終的な効果を、以下の単一ポテンシャルV(i)において得ることができる:
【数22】

【0049】
図3は、木構造を有する部分グラフGをどのように等価の鎖構造を有するモデルに、a=1に対しci‘jを最適化することによりマッピングするかを示す図である。
【0050】
このポテンシャルの定義により、式(10)に定義されるソース側の部分グラフ推論問題を、ポテンシャル関数Vおよびμ(a)のみを含む単純な直鎖モデルに崩すことができる。したがって、一般的な木構造の図式モデルのソルバーよりも、高度に最適化された直鎖推論の実施を用いることができる。図3は、この変換を図示する。
【0051】
等価のアプローチにより、以下の評価が可能になる。
【数23】

【0052】
(双対分解アルゴリズム)
固定のuに対しての式(9)を効率的に評価する能力を備えることにより、双方向モデルの完全双対分解アルゴリズムを定義し、式(9)を最適化するuを探索することができる。例えば、劣勾配降下により、そのようなuを繰り返し探索することができる。また、繰り返し数とともに劣化する学習レートを用いてもよい。実際には、初期学習レートをαに設定することが好ましい。完全双対分解最適化手続きを、アルゴリズム1として以下に規定する。
【0053】
アルゴリズム1が収束すると、式(10)を最適化するc(a)の値と式(11)を最適化するc(b)の値とが同一となるuが決定されたことになる。したがって、元の最適化問題、すなわち式(8)に対する解である。双対問題は元の問題に対する上解であるから、この解は式(8)に対して最適である。
アルゴリズム1 双方向モデルの双対分解推論アルゴリズム
for t = 1 to max iterations do
【数24】

【数25】

【0054】
(収束および早期停止)
双対分解アルゴリズムは、収束時に正確な推論方法を与える。(この最適性の証明は、確率伝播、サンプリングまたは擬似焼きなまし等の他の近似推論アルゴリズムからは得られない。)アルゴリズム1が収束しない場合であっても、アルゴリズムの出力は対応として解釈してよい。アルゴリズムから生成されたuの値に基づき、c(a)およびc(b)の最適値を、式(10)および式(11)からそれぞれ求めることができる。これらの対応は異なることもあるが、完全に独立したアライナよりも、より類似する可能性が高い。これらの対応は、(和をとるなどして)手続き的に組み合わせる必要があるものの、その類似性ゆえに、組み合わせ手続きの重要性は低下する。
【0055】
(推論プロパティ)
双対分解アルゴリズムに最大繰り返し数nが設定され、各繰り返しはシーケンスモデルの最適化を行うのみであるため、推論手続きは、全体で、元の有向アライナによる評価よりも定数倍のみ計算コストが高い。
【0056】
さらに、uの値は文対に対して特定のものである。したがって、このアプローチは、分散アライナの実装における独立した有向モデルと比較しても、追加の通信オーバーヘッドを要さない。メモリ要件は基準値とほぼ同一である:uを、処理中に、文対毎に記憶する必要があるが、対応が推論されれば、直ちに破棄してよい。
【0057】
1対1の句対応を生成する他のアプローチは、総じてコストが高い。特に、ITGモデルは時間O(|e|・|f|)を要するのに対し、アルゴリズム1はO(n・(|f||e|+|e||f|))のみ要する。
【0058】
(機械翻訳システムコンテキスト)
図4は、機械翻訳システムにおける双方向モデルの位置を示す図である。
機械翻訳システムは、トレーニング時間中に動作するコンポーネントおよび翻時間中に動作するコンポーネントを備える。
【0059】
トレーニング時間コンポーネントは、一対の言語の、正しく翻訳されたとみなされる文対よりなる並列コーパス402を含む。他のトレーニング時間コンポーネントは、対応付けモデルコンポーネント404であり、これは、並列コーパス402から文対を受信し、この文対から、対応付けされた並列コーパスを生成する。この並列コーパスは、句抽出コンポーネント406により受信される。双方向モデルは対応付けモデルコンポーネント404の一部であり、上記のように、文対中の単語間の対応を生成するのに用いられる。句抽出器は、翻訳された句および対応するスコアのスニペットを含むデータセットである、句テーブル408を生成する。
【0060】
翻訳時間コンポーネントは、句テーブル408のデータから生成される翻訳モデル422を含む。翻訳時間コンポーネントは、さらに、言語モデル420、および、言語モデル420や翻訳モデル422を用いて、入力テキスト426から翻訳済み出力テキスト428を生成する機械翻訳コンポーネント424(例:統計的機械翻訳エンジン(コンピュータ、データおよびソフトウェアのシステム))を含む。
【0061】
本明細書に記載の主題および機能動作の実施例は、デジタル電子回路、コンピュータソフトウェアまたはファームウェアの具体的な実施例、コンピュータハードウェア(本明細書中に開示の構造およびその構造的等価物を含む)、またはこれらの1つまたは複数を組み合わせることにより、実現できる。本明細書に記載の主題の実施例は、1つまたは複数のコンピュータプログラム、具体的には、データ処理装置により実行される、またはデータ処理装置の動作を制御する具体的なプログラムキャリア上にエンコードされた、1つまたは複数のコンピュータプログラム指示文のモジュール、として実現できる。これに代えて、またはこれに加えて、プログラム指示文を、機械的に生成され、データ処理装置により実行される情報を対応の受信装置に送信するためにエンコードする電気、光学または電磁波信号等の人工的に生成した伝播信号上にエンコードしてもよい。コンピュータ記憶媒体は、機械可読記憶装置、機械可読記憶基盤、ランダムまたはシリアルアクセスメモリ装置、またはこれらの1つまたは複数の組み合わせでよい。
【0062】
「データ処理装置」という用語は、データを処理する装置、デバイスおよび機器のすべての種類を含み、さらに、例として、プログラマブルプロセッサ、コンピュータ、またはマルチプルプロセッサまたはコンピュータ等を含む。また、装置には、特定用途向け論理回路も含まれ、これは、例えば、FPGA(Field Programmable Gate Array)やASIC(Application−Specific Integrated Circuit)である。さらに、ハードウェアに加えて、装置には、対象となるコンピュータプログラムの実行環境を作るコードが含まれ、これは、例えば、プロセッサファームウェアを構成するコード、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはこれらの1つまたは複数の組み合わせである。
【0063】
コンピュータプログラム(「プログラム」、「ソフトウェア」、「ソフトウェアアプリケーション」、「スクリプト」、または「コード」と称する)は、コンパイラ言語、インタプリタ言語、宣言型言語、手続き型言語等、どの言語で記述してもよく、スタンドアローンのプログラムとして、または、モジュール、コンポーネント、サブルーチン、およびこれ以外の、コンピュータ環境に適したユニットの形式で用いることができる。コンピュータプログラムは、ファイルシステム中のファイルに対応することが好ましいが、これは必須ではない。プログラムは、他のプログラムまたはデータを保持するファイルの一部(例えば、マークアップ言語文書に記憶された1つまたは複数のスクリプト)、対象プログラム専用の単一ファイル、または複数の連携ファイル(例えば、1つまたは複数のモジュール、サブプログラム、コードの一部等を記憶するファイル)に記憶させることができる。また、プログラムは、1つのコンピュータまたは複数のコンピュータ上で実行して用いてよく、これらのコンピュータは、1箇所に設置しても、複数個所に分布させて通信ネットワークにより相互に接続してもよい。
【0064】
本明細書に記載のプロセスおよび論理フローは、1つまたは複数のコンピュータプログラムを実行し、入力データにより動作し、出力を生成する機能を実行する、1つまたは複数のプログラマブルコンピュータにより実現できる。また、これらのプロセスまたは論理フローを、FPGA(Field Programmable Gate Array)およびASIC(Application−Specific Integrated Circuit)等の、特定用途向け論理回路により実行してもよく、または、装置を、これら特定用途向け論理回路として実現してもよい。
【0065】
コンピュータプログラムの実行に適したコンピュータとは、例えば、汎用または特定用途向けマイクロプロセッサ、またはこれらの両方、または他の中央処理装置を含む。通常、中央処理装置は、読み取り専用メモリまたはランダムアクセスメモリ、またはこれらの両方から、指示またはデータを受信する。コンピュータの必須要素は、指示を実現または実行する中央処理装置と、指示およびデータを記憶する1つまたは複数の記憶装置である。通常、コンピュータには、さらに、例えば、磁気、光磁気または光学ディスク等の、データを記憶するマス記憶装置を含むか、または、当該マス記憶装置に対しデータの送受信を行うことができるよう機能的に接続されているか、またはこれらの両方でもよい。しかし、コンピュータは、これらのデバイスを備える必要はない。さらに、コンピュータを、例として、携帯電話機、PDA(Personal Digital Assistant)、携帯型音声または映像再生装置、ゲームコンソール、GPS(Global Positioning System)受信機、または携帯型記憶装置(例:USB(Universal Serial Bus)フラッシュドライブ)等に埋め込んでもよい。
【0066】
コンピュータプログラム指示文およびデータを記憶するのに適したコンピュータ読み取り可能な媒体には、すべての種類の不揮発性メモリ、メディア、およびメモリデバイスが含まれ、これには、例えば、EPROM,EEPROMおよびフラッシュ等の半導体メモリデバイス、内臓ハードディスクまたは外付けディスク等の磁気ディスク、光磁気ディスク、ならびにCD−ROMおよびDVD−ROMディスクが含まれる。プロセッサ及びメモリは、特定用途向け論理回路により補強、または特定用途向け論理回路に組み込むことができる。
【0067】
ユーザとの相互のやり取りを可能にするため、本明細書に記載の主題の実施例は、ユーザに向けて情報を表示するための表示装置(例:CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)モニタ)、キーボード、およびポインティングデバイス(例:ユーザがコンピュータに対し入力を行うことのできるようにするマウスまたはトラックボール)を備えるコンピュータ上で実現可能である。ユーザとの相互のやり取りを、他の種類のデバイスを用いて行うことも可能である。例えば、ユーザへのフィードバックは、視覚フィードバック、聴覚フィードバック、または触覚フィードバック等どのような形式の感覚フィードバックを用いてもよい。また、ユーザからの入力についても、楽音、音声、および触覚入力等どのような形でもよい。さらに、コンピュータは、例えば、ユーザのクライアントデバイス上のウェブブラウザから受信された要求に応じてウェブページを当該クライアントデバイスに送信する等、ユーザの使用するデバイスと文書の送受信を行うことにより、ユーザとやり取りを行うことができる。
【0068】
本明細書は、特定の実現例の詳細を多く含んでいるが、これは保護の対象となる発明の範囲を権利範囲を限定するものと解釈されるべきものではなく、特定の発明の、特定の実施例に特化した特徴の説明と解釈されるべきである。本明細書中別々の実施例のコンテキストにおいて記載した特定の特徴は、組み合わせにより、単一の実施例として実現してもよい。一方、単一の実施例のコンテキストで記載された様々な特徴も、複数の実施例として別々に実現してもよく、また、適宜組み合わせて実現してもよい。さらに、上記の特徴は特定の組み合わせにおいて動作するように記載されその旨の主張もあるが、記載のある組み合わせから1つまたは複数の特徴を抽出し、当該記載の組み合わせを部分的な組み合わせ、または部分的な組み合わせの変更例としてもよい。
【0069】
同様に、図面中の動作は特定の順序において描かれているが、これは、所望の結果を得るために、動作を図示の特定の順序において行うこと、または順番に行うこと、図示の動作をすべて行うことを要件とするものと理解されるべきものではない。特定の場合に、マルチタスクや並列処理が有利となることもある。さらに、上記の実施例における様々なシステムコンポーネントの分離は、すべての実施例においてそのような分離が要件であると解釈されるべきものではなく、また、記載のプログラムコンポーネントおよびシステムの全般は、単一のソフトウェア製品に統合すること、または複数のソフトウェア製品にパッケージ化することが可能であることに留意されたい。
【0070】
本主題の特定の実施例を説明した。他の実施例も、以下の請求の範囲によりその権利範囲が定められる。例えば、請求の範囲に記載の動作を異なる順序で行って、所望の結果を得ることもできる。一例として、所望の結果を得るために、必ずしも図示の順序または順番において処理を行う必要はない。実現例によっては、マルチタスクや並列処理が有利な場合もある。

【特許請求の範囲】
【請求項1】
文の対に対する2つの有向対応付けモデルを表わすデータを受信し、前記対の一方の文は第1言語であり、前記対の他方の文は異なる第2の言語であり、
前記2つの有向対応付けモデルから組み合わせ双方向対応付けモデルを導出し、
前記双方向対応付けモデルを評価し、前記双方向対応付けモデルの評価から前記文の対に対する対応を導出することを特徴とする方法。
【請求項2】
前記双方向モデルは、前記2つの有向対応付けモデルと前記埋め込まれたモデルによる予測を単一の対称単語対応に変換する追加の構成とを埋め込むことを特徴とする請求項1記載の方法。
【請求項3】
前記双方向対応付けモデルを評価して対応の解を生成することを特徴とする請求項2記載の方法。
【請求項4】
前記双方向対応付けモデルを評価して対応の解を生成することを特徴とする請求項1記載の方法。
【請求項5】
前記双方向対応付けモデルを評価して2つの対応の解を生成し、第1の解は前記第1の言語から前記第2の言語への方向である第1の方向での対応付けモデルであり、第2の解は前記第2の言語から前記第1の言語への方向である第2の方向での対応付けモデルであり、
前記文の対に対する対応は、第1の対応付けモデルと第2の対応付けモデルとを組み合わせて導出することを特徴とする請求項4記載の方法。
【請求項6】
前記双方向モデルは、前記2つの有向対応付けモデルと前記埋め込まれたモデルによる予測を単一の対称単語対応に変換する追加の構成とを埋め込むことを特徴とする請求項5記載の方法。
【請求項7】
前記2つの有向対応付けモデルはそれぞれ隠れマルコフ対応付けモデルであることを特徴とする請求項6記載の方法。
【請求項8】
前記2つの有向対応付けモデルはそれぞれ隠れマルコフ対応付けモデルであることを特徴とする請求項1記載の方法。
【請求項9】
コンピュータプログラムがエンコードされた非一時的コンピュータ記憶媒体であり、前記プログラムは、1つまたは複数のコンピュータにより実行された際に、前記1つまたは複数のコンピュータに以下の動作を行わせる:
文の対に対する2つの有向対応付けモデルを表わすデータを受信し、一方の文は第1言語であり、他方の文は異なる第2の言語であり、
前記2つの有向対応付けモデルから組み合わせ双方向対応付けモデルを導出し、
前記双方向対応付けモデルを評価し、前記双方向対応付けモデルの評価から前記文の対に対する対応を導出することを特徴とするコンピュータ記憶媒体。
【請求項10】
前記双方向モデルは、前記2つの有向対応付けモデルと前記埋め込まれたモデルによる予測を単一の対称単語対応に変換する追加の構成とを埋め込むことを特徴とする請求項9記載のコンピュータ記憶媒体。
【請求項11】
前記双方向対応付けモデルを評価して対応の解を生成することを特徴とする請求項10記載のコンピュータ記憶媒体。
【請求項12】
前記双方向対応付けモデルを評価して対応の解を生成することを特徴とする請求項9記載のコンピュータ記憶媒体。
【請求項13】
前記双方向対応付けモデルを評価して2つの対応の解を生成し、第1の解は前記第1の言語から前記第2の言語への方向である第1の方向での対応付けモデルであり、第2の解は前記第2の言語から前記第1の言語への方向である第2の方向での対応付けモデルであり、
前記文の対に対する対応は、第1の対応付けモデルと第2の対応付けモデルとを組み合わせて導出することを特徴とする請求項12記載のコンピュータ記憶媒体。
【請求項14】
前記双方向モデルは、前記2つの有向対応付けモデルと前記埋め込まれたモデルによる予測を単一の対称単語対応に変換する追加の構成とを埋め込むことを特徴とする請求項13記載のコンピュータ記憶媒体。
【請求項15】
前記2つの有向対応付けモデルはそれぞれ隠れマルコフ対応付けモデルであることを特徴とする請求項14記載のコンピュータ記憶媒体。
【請求項16】
前記2つの有向対応付けモデルはそれぞれ隠れマルコフ対応付けモデルであることを特徴とする請求項9記載のコンピュータ記憶媒体。
【請求項17】
動作可能な指示を記憶する1つまたは複数のコンピュータおよび1つまたは複数の記憶装置を有するシステムであり、前記指示は、前記1つまたは複数のコンピュータにより実行された際に、前記1つまたは複数のコンピュータに以下の動作を行わせる:
文の対に対する2つの有向対応付けモデルを表わすデータを受信し、一方の文は第1言語であり、他方の文は異なる第2の言語であり、
前記2つの有向対応付けモデルから組み合わせ双方向対応付けモデルを導出し、
前記双方向対応付けモデルを評価し、前記双方向対応付けモデルの評価から前記文の対に対する対応を導出することを特徴とするシステム。
【請求項18】
前記双方向モデルは、前記2つの有向対応付けモデルと前記埋め込まれたモデルによる予測を単一の対称単語対応に変換する追加の構成とを埋め込むことを特徴とする請求項17記載のシステム。
【請求項19】
前記双方向対応付けモデルを評価して対応の解を生成することを特徴とする請求項18記載のシステム。
【請求項20】
前記双方向対応付けモデルを評価して対応の解を生成することを特徴とする請求項17記載のシステム。
【請求項21】
前記双方向対応付けモデルを評価して2つの対応の解を生成し、第1の解は前記第1の言語から前記第2の言語への方向である第1の方向での対応付けモデルであり、第2の解は前記第2の言語から前記第1の言語への方向である第2の方向での対応付けモデルであり、
前記文の対に対する対応は、第1の対応付けモデルと第2の対応付けモデルとを組み合わせて導出することを特徴とする請求項20記載のシステム。
【請求項22】
前記双方向モデルは、前記2つの有向対応付けモデルと前記埋め込まれたモデルによる予測を単一の対称単語対応に変換する追加の構成とを埋め込むことを特徴とする請求項21記載のシステム。
【請求項23】
前記2つの有向対応付けモデルはそれぞれ隠れマルコフ対応付けモデルであることを特徴とする請求項22記載のシステム。
【請求項24】
前記2つの有向対応付けモデルはそれぞれ隠れマルコフ対応付けモデルであることを特徴とする請求項17記載のシステム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate


【公開番号】特開2012−138085(P2012−138085A)
【公開日】平成24年7月19日(2012.7.19)
【国際特許分類】
【外国語出願】
【出願番号】特願2011−274598(P2011−274598)
【出願日】平成23年12月15日(2011.12.15)
【出願人】(305029922)グーグル・インク (25)
【Fターム(参考)】