説明

Fターム[5B091CA00]の内容

機械翻訳 (6,566) | 言語処理技術 (1,358)

Fターム[5B091CA00]の下位に属するFターム

文解析 (1,092)
変換・文生成 (261)

Fターム[5B091CA00]に分類される特許

1 - 5 / 5


【課題】一般的な教師あり学習に用いられる素性よりも、コンパクトかつ高精度の縮約素性を生成する。
【解決手段】原素性重要度計算部141で、ベースモデル構築部12により正解データから学習して構築されたベースモデル22と未解析データ24とを用いて、未解析データ24の入力に対するベースモデル22の最尤出力に対して、未解析データから抽出された原素性各々が与える影響を示す重要度を、複数の原素性各々について計算する。原素性選択部142で、重要度が0の原素性を排除して、残りの原素性を選択する。原素性融合部143で、選択した原素性集合から、同じ重要度となる原素性を一つの縮約素性としてまとめ上げて、縮約素性集合を生成する。原素性重要度追加部144で、原素性の重要度に関する素性を生成して、縮約素性集合に追加する。 (もっと読む)


【課題】英文で記載された文章の時制の正誤の自動解析をコーパスを収容したデータベースにより行う言語解析システム及び言語解析方法の提供。
【解決手段】データベースから文章を抽出しこれを構成する単語又は句に品詞タグを与える上で、動詞のうち、習慣的動作を表すものではない動作動詞についてはこれを示す動作動詞タグを与え、動作動詞と、動詞のタグを与えられた単語に関する複数の素性と、の相関についての分類器を得ておく。少なくとも解析部において、英語で記載された解析対象の文章の品詞を推定し素性について素性ベクトルに変換する。分類器に素性ベクトルを与えて動詞について動作動詞であり且つ単純現在であるときを文章の時制誤りとする。 (もっと読む)


【課題】学習結果としてのn−gram言語モデルのデータ量を抑制し、効率的にアクセス可能な技術を提供する。
【解決手段】言語モデルの圧縮装置1は、言語モデル記憶部5にn−gram言語モデルを記憶する。データ構造変換部3は、言語モデル記憶部5に記憶されたn−gram言語モデルのデータ配列中、(n+1)−gramの最初の位置を示すポインタを固定バイト表現に変換し、変換データ記憶部6に記憶させる。ポインタ表現の圧縮部4は、変換データ記憶部6に記憶されたn−gram言語モデルの木構造に仮想的なルートノードを設けることでトライ(trie)と擬制し、前記ポインタをLOUDS表現に圧縮変換する。ここで圧縮変換されたデータを圧縮データ記憶部7に記憶させる。この記憶部7は、主に計算機の記憶装置(RAM)を用いる。 (もっと読む)


【課題】 サブワード単位の複雑度が反映されるサブワード言語モデルの複雑度を測定すること。
【解決手段】 サブワード言語モデルMSLおよびテキストラインwを記憶する記憶手段と、サブワード言語モデルMSLにおいて、テキストラインwおよびこのテキストラインwに対応するサブワード系列sに対する複雑度を演算して、この演算結果を条件付複雑度U(w,s|MSL)として出力する条件付複雑度演算手段と、サブワード言語モデルMSL自体の複雑度を演算して、この演算結果を自己複雑度U(MSL)として出力する自己複雑度演算手段と、条件付複雑度演算手段によって出力された条件付複雑度U(w,s|MSL)および自己複雑度演算手段によって出力された自己複雑度U(MSL)を入力値とする関数f(U(w,s|MSL),U(MSL))を演算して、この演算結果を出力する複雑度演算手段とを備える。 (もっと読む)


【課題】使用言語の異なる端末装置使用者間においてメールを送受信する場合に、それぞれの使用言語で作成し受信した電子メールを自動翻訳して送受信しうる携帯通信端末装置を提供する。
【解決手段】使用者により言語を選択する言語選択手段4と、電子メールの使用言語を解析する言語解析手段2と、電子メールのデータを所望の言語に翻訳するメール翻訳手段8とを備え、送信メールの言語を解析し言語選択手段4で選択した受信相手の言語に自動的に翻訳して送信し、受信メールの言語を解析し言語選択手段4で選択した自己の言語に自動的に翻訳して受信することにより、使用言語の異なる端末使用者間でメールの送受信を行った場合、それぞれの使用言語により電子メールのやり取りを行うことができる。 (もっと読む)


1 - 5 / 5