説明

文脈依存性推定装置、発話クラスタリング装置、方法、及びプログラム

【課題】対話データについて、文脈に依存している度合いを推定することができるようにする。
【解決手段】特徴量抽出部30によって、複数の発話の時系列である対話データから、各発話の特徴量を抽出する。CRPクラスタリング部31によって、抽出された各発話の特徴量に基づいて、CRPの手法を用いて、複数の発話をクラスタリングする。無限HMMクラスタリング部32によって、抽出された各発話の特徴量に基づいて、無限HMMの手法を用いて、複数の発話をクラスタリングする。文脈依存度算出部23によって、CRPのクラスタリング結果及び無限HMMのクラスタリング結果に基づいて、発話の文脈依存度を算出する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、文脈依存性推定装置、発話クラスタリング装置、方法、及びプログラムに係り、特に、対話データについて、発話をクラスタリングする文脈依存性推定装置、発話クラスタリング装置、方法、及びプログラムに関する。
【背景技術】
【0002】
特定の対話ドメイン(ここで、ドメインとは対話システムが扱う対話内容・分野・ジャンルを表す。たとえば、フライト予約や会議室予約)における対話システムを構築する場合、当該ドメインの対話データを収集し、研究者や開発者が、その対話ドメインの対話をモデル化する必要がある。たとえば、語彙のセットは何がよいかといったものや、どのような種類の発話を扱うべきかといったことを決める。
【0003】
対話システム構築において特に重要とされるのは、後者の発話の種類(対話行為タイプ、発話行為タイプとも呼ばれる)を決めるフェーズであり、非特許文献1に示されるように多くの研究がある。
【0004】
しかしながら、こういった研究では対話行為の種類を人間が事前に決定している。一般に、どのような発話がドメインに存在し、どのくらいの対話行為数が必要かを決定するには、専門家の詳細な分析が必要で、コストが高い。そこで、発話をクラスタリングし、どのような発話のまとまりがあるか、いくつくらいの対話行為数が必要かを、データから自動的に求める手法が知られている(非特許文献2)。
【0005】
非特許文献2の手法は、中華料理店過程(Chinese Restaurant Process、CRP)と呼ばれる手法を用いて、発話のクラスタリングを行い、最適な対話行為数を推定している。本手法は、対話中の発話を独立のものと見なし、クラスタリングを実施し、同時に、クラスタ数(すなわち、対話行為数)を決定している。
【0006】
なお、クラスタ数を事前に決定しない方法はCRP以外にもいくつかあり、たとえば Affinity Propagationと呼ばれる手法や、X−Meansと呼ばれる手法が知られている(非特許文献3、非特許文献4)。また、クラスタ数を事前に決定する手法(たとえば、K−Means)を繰り返し用いて、最適なクラスタ数を発見することも可能である。たとえば、ある評価セットについて、クラスタ数を少しずつ増やして、最も高いクラスタリング精度が得られるクラスタ数を最適とする。ここで、精度はクラスタリング評価で一般的なpurityやF値(F−measure)などを用いればよい。
【先行技術文献】
【非特許文献】
【0007】
【非特許文献1】A. Stolcke, N. Coccaro, R. Bates, P. Taylor, C. V. Ess-Dykema,K. Ries, E. Shriberg, D. Jurafsky, R. Martin, and M. Meteer,“ Dialogue act modelingfor automatic tagging and recognition of conversational speech, ”Computational Linguistics, vol. 26, no. 3, pp. 339-373, 2000.
【非特許文献2】N. Crook, R. Granell, and S. Pulman,“ Unsupervised classification of dialogue acts using a Dirichlet process mixture model, ” in Proc. SIGDIAL, 2009, pp. 341-348.
【非特許文献3】Clustering by Passing Messages Between Data Points. Brendan J. Frey and Delbert Dueck, Science 315, 972--976, 2007.
【非特許文献4】Dan Pelleg and Andrew Moore: X-means: Extending K-means with Efficient Estimation of the Number of Clusters. In Proc. ICML, 2000.
【発明の概要】
【発明が解決しようとする課題】
【0008】
上記の非特許文献2に記載の手法では、クラスタリングに際して、対話中の発話を独立のものと見なしている。しかし、対話データは連続した発話からなるのが通例である。従来技術では、このような対話に重要な文脈情報を使っておらず、クラスタリングの精度や対話行為数の推定が十分でない。
【0009】
たとえば、「はい」は、肯定と相槌の両方の可能性が有り、文脈からでないと肯定及び相槌のいずれであるかを判断できないが、従来技術では同じものとして扱ってしまう。
【0010】
加えて、ドメイン中の発話がどの程度文脈に依存するのかを知ることは対話システムを構築する上で有用であるが、従来技術では発話を独立なものと見なしているため、そのような知見は得られない。
【0011】
本発明は、上記の事情を鑑みてなされたもので、対話データについて、文脈に依存している度合いを推定することができる文脈依存性推定装置、方法、及びプログラムを提供することを第1の目的とする。また、対話データについて、文脈を考慮して発話を精度良くクラスタリングすることができる発話クラスタリング装置及び方法を提供することを第2の目的とする。
【課題を解決するための手段】
【0012】
上記の目的を達成するために本発明に係る文脈依存性推定装置は、複数の発話の時系列である対話データから、各発話の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、前記複数の発話をクラスタリングする第1クラスタリング手段と、前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、前記発話の文脈情報を用いて、前記複数の発話をクラスタリングする第2クラスタリング手段と、前記第1クラスタリング手段によるクラスタリング結果、及び前記第2クラスタリング手段によるクラスタリング結果に基づいて、文脈に依存している度合いを推定する推定手段と、を含んで構成されている。
【0013】
本発明に係る文脈依存性推定方法は、特徴量抽出手段、第1クラスタリング手段、第2クラスタリング手段、及び推定手段を含む文脈依存性推定装置における文脈依存性推定方法であって、前記文脈依存性推定装置は、前記特徴量抽出手段によって、複数の発話の時系列である対話データから、各発話の特徴量を抽出し、前記第1クラスタリング手段によって、前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、前記複数の発話をクラスタリングし、前記第2クラスタリング手段によって、前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、前記発話の文脈情報を用いて、前記複数の発話をクラスタリングし、前記推定手段によって、前記第1クラスタリング手段によるクラスタリング結果、及び前記第2クラスタリング手段によるクラスタリング結果に基づいて、文脈に依存している度合いを推定することを特徴とする。
【0014】
本発明によれば、特徴量抽出手段によって、複数の発話の時系列である対話データから、各発話の特徴量を抽出する。そして、第1クラスタリング手段によって、前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、前記複数の発話をクラスタリングする。第2クラスタリング手段によって、前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、前記発話の文脈情報を用いて、前記複数の発話をクラスタリングする。
【0015】
そして、推定手段によって、前記第1クラスタリング手段によるクラスタリング結果、及び前記第2クラスタリング手段によるクラスタリング結果に基づいて、文脈に依存している度合いを推定する。
【0016】
このように、発話の文脈情報を用いずに、発話をクラスタリングすると共に、発話の文脈情報を用いて発話をクラスタリングすることにより、対話データについて、文脈に依存している度合いを推定することができる。
【0017】
本発明に係る前記第1クラスタリング手段は、CRP(Chinese Restaurant Process)に従って、前記複数の発話をクラスタリングし、前記第2クラスタリング手段は、無限HMM(Hidden Markov Model)に従って、前記対話データの発話間の遷移情報を用いて前記複数の発話をクラスタリングするようにすることができる。
【0018】
本発明に係る前記第2クラスタリング手段は、前記特徴量抽出手段によって抽出された各発話の特徴量に、前記発話の文脈情報として該発話の直前の発話の特徴量を付加した付加特徴量を各々生成し、前記生成された各発話の前記付加特徴量に基づいて、前記複数の発話をクラスタリングするようにすることができる。
【0019】
上記の対話データは、特定のドメインに関する対話データであり、前記推定手段は、以下の式に従って、前記特定のドメインにおける前記発話の文脈依存度を推定するようにすることができる。
【0020】
【数1】

【0021】
ただし、クラスタ数C1は、前記第1クラスタリング手段によってクラスタリングされたクラスタ数であり、クラスタ数C2は、前記第2クラスタリング手段によってクラスタリングされたクラスタ数である。
【0022】
上記の対話データは、異なる2つのドメインに関する対話データであり、前記第1クラスタリング手段は、各ドメインについて、前記ドメインに関する対話データの複数の発話を各々クラスタリングし、前記第2クラスタリング手段は、各ドメインについて、前記ドメインに関する対話データの複数の発話を各々クラスタリングし、前記推定手段は、各ドメインについて、前記発話の文脈依存度を推定すると共に、以下の式に従って、前記ドメインの文脈依存比を推定するようにすることができる。
【0023】
【数2】

【0024】
本発明に係る前記推定手段は、以下の式に従って、前記第1クラスタリング手段によってクラスタリングされたクラスタCの文脈依存度を推定するようにすることができる。
【0025】
【数3】

【0026】
ただし、C’は、前記第2クラスタリング手段によってクラスタリングされたクラスタの集合であり、cは、C’の要素であるクラスタである。
【0027】
また、上記のクラスタの文脈依存度を推定する推定手段は、前記第1クラスタリング手段によってクラスタリングされた各クラスタの文脈依存度を推定すると共に、以下の式に従って、前記第1クラスタリング手段によってクラスタリングされたクラスタの平均文脈依存度を推定するようにすることができる。
【0028】
【数4】

【0029】
ただし、c’’は、Cの要素であるクラスタである。
【0030】
本発明に係る発話クラスタリング装置は、入力された複数の発話の時系列である対話データを受け付ける入力手段と、前記入力手段により受け付けた前記対話データを記憶する対話データ記憶手段と、前記対話データから、各発話の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、無限HMM(Hidden Markov Model)に従って、前記対話データの発話間の遷移情報を用いて前記複数の発話をクラスタリングする無限HMMクラスタリング手段と、を含んで構成されている。
【0031】
本発明に係る発話クラスタリング方法は、入力手段、対話データ記憶手段、特徴量抽出手段、及び無限HMMクラスタリング手段を含む発話クラスタリング装置における発話クラスタリング方法であって、前記発話クラスタリング装置は、前記入力手段によって、入力された複数の発話の時系列である対話データを受け付け、前記入力手段により受け付けた前記対話データを対話データ記憶手段に記憶し、特徴量抽出手段によって、前記対話データから、各発話の特徴量を抽出し、前記無限HMMクラスタリング手段によって、前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、無限HMM(Hidden Markov Model)に従って、前記対話データの発話間の遷移情報を用いて前記複数の発話をクラスタリングする。
【0032】
本発明に係る発話クラスタリング装置は、入力された複数の発話の時系列である対話データを受け付ける入力手段と、前記入力手段により受け付けた前記対話データを記憶する対話データ記憶手段と、前記対話データから、各発話の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段によって抽出された各発話の特徴量に、前記発話の文脈情報として該発話の直前の発話の特徴量を付加した付加特徴量を各々生成する文脈情報付加手段と、前記文脈情報付加手段によって生成された各発話の付加特徴量に基づいて、CRP(Chinese Restaurant Process)に従って、前記複数の発話をクラスタリングするCRPクラスタリング手段と、を含んで構成されている。
【0033】
本発明に係る発話クラスタリング方法は、入力手段、対話データ記憶手段、特徴量抽出手段、文脈情報付加手段、及びCRPクラスタリング手段を含む発話クラスタリング装置における発話クラスタリング方法であって、前記発話クラスタリング装置は、前記入力手段によって、入力された複数の発話の時系列である対話データを受け付け、前記入力手段により受け付けた前記対話データを前記対話データ記憶手段に記憶し、前記特徴量抽出手段によって、前記対話データから、各発話の特徴量を抽出し、前記文脈情報付加手段によって、前記特徴量抽出手段によって抽出された各発話の特徴量に、前記発話の文脈情報として該発話の直前の発話の特徴量を付加した付加特徴量を各々生成し、前記CRPクラスタリング手段によって、前記文脈情報付加手段によって生成された各発話の付加特徴量に基づいて、CRP(Chinese Restaurant Process)に従って、前記複数の発話をクラスタリングする。
【0034】
本発明に係るプログラムは、コンピュータを、上記の文脈依存性推定装置の各手段として機能させるためのプログラムである。
【発明の効果】
【0035】
以上説明したように、本発明の文脈依存性装置、方法、及びプログラムによれば、発話の文脈情報を用いずに、発話をクラスタリングすると共に、発話の文脈情報を用いて発話をクラスタリングすることにより、対話データについて、文脈に依存している度合いを推定することができる、という効果が得られる。
また、本発明の発話クラスタリング装置及び方法によれば、対話データについて、文脈を考慮して発話を精度良くクラスタリングすることができる、という効果が得られる。
【図面の簡単な説明】
【0036】
【図1】本発明の第1の実施の形態に係る文脈依存性推定装置の構成を示す概略図である。
【図2】本発明の第1の実施の形態に係る文脈依存性推定装置における文脈依存性推定処理ルーチンの内容を示すフローチャートである。
【図3】対話データの一例を示す図である。
【図4】対話行為の例を示す図である。
【図5】対話データの一例を示す図である。
【図6】対話行為の例を示す図である。
【図7】本発明の第2の実施の形態に係る文脈依存性推定装置の構成を示す概略図である。
【図8】本発明の第2の実施の形態に係る文脈依存性推定装置における対話データについて、文脈に依存している度合いを推定するフローチャートである。
【図9】本発明の第3の実施の形態に係る文脈依存性推定装置の構成を示す概略図である。
【発明を実施するための形態】
【0037】
以下、図面を参照して本発明の実施の形態を詳細に説明する。
【0038】
〔第1の実施の形態〕
<システム構成>
本発明の第1の実施の形態に係る文脈依存性推定装置100は、特定のドメインに関連する複数の発話の時系列である対話データが入力され、文脈依存性を推定して出力する。この文脈依存性推定装置100は、CPUと、RAMと、後述する文脈依存度推定処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。図1に示すように、文脈依存性推定装置100は、入力部10と、演算部20と、出力部28とを備えている。
【0039】
入力部10は、入力された対話データとして、特定のドメインに関連する複数の対話データを受け付ける。各対話データは複数の発話の時系列からなる。例えば、対話データは、対話システムと人間との対話データ、又は人間同士の対話データであり、データは自然言語のテキストや音声認識結果など、時系列的に順次処理できる自然言語のデータである。
【0040】
演算部20は、対話データ記憶部21、発話クラスタリング部22、及び文脈依存度算出部23を備えている。なお、文脈依存度算出部23が、推定手段の一例である。
【0041】
対話データ記憶部21は、入力部10により受け付けた複数の対話データを記憶する。
【0042】
発話クラスタリング部22は、特徴量抽出部30、CRPクラスタリング部31、及び無限HMMクラスタリング部32を備えている。なお、CRPクラスタリング部31が、第1クラスタリング手段の一例であり、無限HMMクラスタリング部32が、第2クラスタリング手段の一例である。
【0043】
特徴量抽出部30は、入力された対話データにおける各発話から特徴量を抽出する。例えば、bag−of−wordsの特徴量を抽出する。bag−of−wordsとは自然言語処理でよく用いられる特徴量であり、単語の頻度付き集合のことである。この集合を得るために、特徴量抽出部30は、形態素解析を用い(本実施の形態ではChaSenを使用)、各発話について、bag−of−wordsの特徴量を求める。なお、低頻度語はクラスタリングに悪影響を及ぼす可能性があるため、各ドメインの全データについて、10回以上出現している単語のみを特徴量としてもよい。また、上記集合の各単語として標準形の単語を用いる。特徴量として、内容語のみの頻度を用いたり、機能語のみの頻度を用いたりするようにしてもよい。
【0044】
CRPクラスタリング部31は、特徴量抽出部30によって抽出された各発話の特徴量に基づいて、CRPの手法を用いて、対話データの各発話をクラスタリングする。
【0045】
CRPは、データから自動的にクラスタ数を決定する手法であり、下記の手続きでクラスタリングを行う。CRPにおいて、データ(すなわち、発話)は客と呼ばれ、クラスタはテーブルと呼ばれる。
【0046】
まず、最初の客は最初のテーブルに配置される。そして、次の客(ci) は、すでに客がついたテーブル(tj)に座るか、新しいテーブル(tnew; new は新しいテーブルのインデックス) に、以下の(1)式で表される確率で座る。
【0047】
【数5】

【0048】
ここで、‘n(tj)’はtjについている客の数を返す関数であり、Nはこれまでにテーブルについた客の数である。また、αは、客が新しいテーブルにつく度合いを示すハイパーパラメタであり、αが大きければ大きいほどクラスタ数が多くなる。ヒューリスティクスとして、想定されるおおよそのクラスタ数の逆数がαに用いられる(たとえば、想定されるクラスタ数が100なら0.01)。P(ci|tj)はci がtjから生成される確率である。この確率は以下の(2)式に従って計算する。
【0049】
【数6】

【0050】
ここで、Wは特徴量の集合であり、count(*,w)は客またはテーブルにおいて、特徴量wが何回生起したかを表す。βは確率0を防ぐためのハイパーパラメタであり、十分小さい数であればよい。たとえば、0.00001などである。P(ci|tnew)には一様分布を用いる。すべての客を順番に配置した後、ギブスサンプリングという手法で客を再配置していく。これは、客を一人そのテーブルから離し、上記処理によって別テーブル(新しいテーブルも含む)か、自分が元いたテーブルに再度配置させるものであり、この再配置を、すべての客について最適な配置が求まるまで何度も繰り返す。客の配置が変わらなくなるか、各データにつき1000回といった十分な回数のサンプリングが行われたら、収束したとみなし、そのときの客のテーブルにおける配置を、クラスタリング結果とする。
【0051】
このように、CRPクラスタリング部31は、各発話の特徴量に基づいて、上記のようにCRPの手法を用いて、発話(客)を複数のクラスタ(テーブル)にクラスタリングし、クラスタ数、及び各発話と該発話の属するクラスタの情報とを出力する。
【0052】
無限HMMクラスタリング部32は、特徴量抽出部30によって抽出された各発話の特徴量に基づいて、無限HMMの手法を用いて、発話をクラスタリングする。
【0053】
本実施の形態では、無限HMMと呼ばれる手法により、文脈情報を用いて発話のクラスタリングを行う。そして、その際にクラスタ数が自動的に決定されるようにする。
【0054】
無限HMMの手法は、データからパラメタを推定するノンパラメトリックベイズの手法の一つであり、時系列的なデータを扱うHMMを、無限の状態が扱えるようにしたものである。無限の状態が扱えるということの意味は、状態数が予め定まっていないということを指し、状態数はデータ依存で決定される。無限HMMの詳細は、非特許文献(Y. Teh, M. Jordan, M. Beal, and D. Blei, “ Sharing clusters among related groups: Hierarchical Dirichlet processes, ”in Proc. NIPS, 2004.)に記載されている。
【0055】
本実施の形態では、この無限HMMを用いることで、文脈情報を用いた発話のクラスタリングを行い、同時に、対話行為数を推定する。無限HMMでは、発話のシーケンスをモデル化する。すなわち、各状態から発話が出力され、次の状態に遷移するモデルである。状態間の遷移(すなわち、発話集合間の遷移)を扱うため、文脈情報(特に、直前の発話の情報)を用いていると考えることができる。なお、HMMでは複数の状態が接続されているため、必ずしも直前の発話のみに依存してクラスタリングがされているわけではないことに注意する。
【0056】
ここで、無限HMMを用いたクラスタリング手法について説明する。無限HMMはCRPに似た処理によってクラスタリングを行うため、ここでも、データを客と呼び、クラスタをテーブルと呼んで、説明する。
【0057】
無限HMMでは、客ciは、すでに客の着いているテーブルtjか、新しいテーブル(tj=new)に、以下の(3)式で表される確率に従って座る。
【0058】
【数7】

【0059】
ここで、tcはcの着席しているテーブルを表す。無限HMMでは、客には順序があり、ciの前と後の客を、それぞれci−1とci+1とする。これは、対話データ中の発話に順序があることに該当する。
【0060】
P(tj,tk)はテーブル間の遷移確率であり、以下の(4)式で求められる。
【0061】
【数8】

【0062】
ここで、αは客が新しいテーブルに着く度合いを表すハイパーパラメタであり、Kはすでに客がいるテーブル数を表す。transitions(tj,tk)はtjからtkの遷移数であり、γは確率0を避けるためのハイパーパラメタである。十分小さい数であればよい。たとえば、0.00001などである。客が新しいテーブルに着く確率は、以下の(5)式で表される。
【0063】
【数9】

【0064】
ここで、P(ci|tnew)には一様分布を用いる。
【0065】
CRPの時と同様、ギブスサンプリングを用いて客の配置を最適化し、最終的に得られた客の配置をクラスタリングの結果とする。上記のように、客は、自分の前の客の着いているテーブルを見て自分の着くべきテーブルを決めており、無限HMMでは、文脈情報を用いてクラスタリングを行っている。
【0066】
このように、無限HMMクラスタリング部32は、各発話の特徴量に基づいて、上記のように無限HMMの手法を用いて、発話(客)を複数のクラスタ(テーブル)にクラスタリングし、クラスタ数、及び各発話と該発話の属するクラスタの情報とを出力する。
【0067】
文脈依存度算出部23は、以下に説明するように、文脈に依存している度合いを示す、発話の文脈依存度及びクラスタの文脈依存度を算出する。
【0068】
CRPを用いたクラスタリング結果は文脈を見ない場合の結果であり、無限HMMを用いたクラスタリング結果は文脈を見た場合の結果である。よって、このクラスタ数(推定対話行為数)の違いを見ることで、ドメインにおいてどれほど発話が文脈に依存しているかを計算できる。具体的には、文脈依存度算出部23は、以下の(6)式に従って、対話データのドメインに関する発話の文脈依存度を算出する。
【0069】
【数10】

【0070】
また、CRPを用いたクラスタリングによるクラスタと無限HMMを用いたクラスタリングによるクラスタとを比較することで、どのような発話がより文脈に依存しているかを知ることができる。具体的には、CRPを用いたクラスタリングによる各クラスタの各データ(発話)が、無限HMMを用いたクラスタリングによる各クラスタにどのように割り振られたかを調べることで実現できる。CRPの1つのクラスタの各データが、無限HMMのクラスタのうち一つまたは少量のものにのみ割り振られているとすれば、そのクラスタの発話はそれほど文脈依存ではないと言える。しかし、CRPの1つのクラスタの各データが、無限HMMの多くのクラスタに割り振られているとすれば、それは文脈に大きく依存したクラスタであると言える。
【0071】
そこで、文脈依存度算出部23は、CRPクラスタリング部31によるクラスタリング結果の各クラスタCの文脈依存度を、以下の(7)式に従って算出する。
【0072】
【数11】

【0073】
ここで、C’ は無限HMMクラスタリング部32によるクラスタリング結果のクラスタの集合であり、cは、クラスタの集合C’の各要素(クラスタ)である。P(c)は以下の(8)式に従って求められる。
【0074】
【数12】

【0075】
上記(7)式は、情報理論におけるエントロピーの式と同様であり、CRPのクラスタ内のデータ(発話)が、無限HMMの多くのクラスタに散らばっている場合に大きな値を取る。これによって、各クラスタの文脈依存度を求めることができる。すなわち、この値が大きければ、そのクラスタに含まれる発話は文脈依存性が高いと考えられ、これらの発話を分析することで、文脈依存の発話に頑健な対話システムの構築につなげることが可能となる。
【0076】
たとえば、CRPのあるクラスタに属する複数の発話が、無限HMMの多くのクラスタに対応していたとすると、そのクラスタにおける発話は、表面上については似ているが、文脈によって意味が異なる可能性が高い。
【0077】
そのような発話のみを取り上げて集中的に分析することにより、文脈に応じてユーザ発話を高精度に理解できる対話システムの理解部につなげることができる。
【0078】
また、全クラスタの文脈依存度の平均を取ることで、全体の文脈依存度も計算でき、分析に利用することができる。そこで、文脈依存度算出部23は、以下の(9)式に従って、平均文脈依存度を算出する。
【0079】
【数13】

【0080】
ここで、c’’はCRPクラスタリング部31によるクラスタリング結果におけるクラスタ集合Cの各要素である。
【0081】
出力部28は、文脈依存度算出部23によって算出された、発話の文脈依存度、クラスタの文脈依存度、及び平均文脈依存度を出力する。
【0082】
<文脈依存性推定装置の作用>
次に、本実施の形態に係る文脈依存性推定装置100の作用について説明する。まず、あるドメインに関する複数の発話の時系列が対話データとして文脈依存性推定装置100に複数入力されると、文脈依存性推定装置100によって、入力された複数の対話データが、対話データ記憶部21へ格納される。そして、文脈依存性推定装置100によって、図2に示す文脈依存性推定処理ルーチンが実行される。
【0083】
まず、ステップS101において、複数の対話データの全ての発話について、bag−of−wordsの特徴量を抽出する。そして、ステップS102において、上記ステップS101において抽出された各発話の特徴量に基づいて、CRPの手法を用いたクラスタリングにより、各発話を複数のクラスタに分類する。
【0084】
次のステップS103では、上記ステップS101において抽出された各発話の特徴量に基づいて、無限HMMの手法を用いたクラスタリングにより、各発話を複数のクラスタに分類する。
【0085】
そして、ステップS104では、上記ステップS102のクラスタリング結果におけるクラスタ数と、上記ステップS103のクラスタリング結果におけるクラスタ数とに基づいて、上記(6)式に従って、当該ドメインに関する発話の文脈依存度を算出する。
【0086】
ステップS105では、上記ステップS102のクラスタリング結果における各クラスタに属するデータ(発話)と、上記ステップS103のクラスタリング結果における各クラスタに属するデータ(発話)とに基づいて、上記(7)式に従って、CRPの手法を用いたクラスタリングによる各クラスタCの文脈依存度を算出する。また、算出した各クラスタの文脈依存度に基づいて、上記(9)式に従って、CRPの手法を用いたクラスタリングによる各クラスタの平均文脈依存度を算出する。
【0087】
そして、ステップS106において、上記ステップS104、105の算出結果を出力して、文脈依存度算出処理ルーチンを終了する。
【0088】
<実施例>
以下に、実施例を示す。対話システムと人間との対話データと、人間同士の対話データをクラスタリングする例を用いて説明する。なお、ここで用いるデータは、チャットインタフェースを通して集められたデータであり、テキスト対話のデータである。
【0089】
対話システムと人間との対話データは、対話システムと人間とが会話したデータであり、全部で1000個の対話データである。対話の中で、システムと人間は動物の好き嫌いについて議論している。
【0090】
このドメインをAnimal Discussion(AD)ドメインと呼ぶこととする。対話例を図3に示す。上記図3では、Uがユーザ発話を表わしSがシステム発話を表わしている。括弧内は本ドメインにおける対話行為タイプである。本ドメインでは、図4に示すような29の対話行為が人手によって定義されている。
【0091】
各対話行為の詳細については、非特許文献(東中竜一郎, 堂坂浩二, 磯崎秀樹, ”対話システムにおける共感と自己開示の効果”, 言語処理学会第15 回年次大会発表論文集, pp.446-449, 2009.)に詳細が記載されている。
【0092】
また、人間同士の対話データは、聞き役対話を集めたものである。このドメインをAttentive Listening(AL)ドメインと呼ぶこととする。聞き役対話とは、二者が聞き役と話し役に分かれて、一方が聞き役となって話し役の話を聞くという対話である。人間同士の対話データとして、このような対話データを、1260個収集した。対話例を図5に示す。上記図5では、Sは話し役を表わし、Lは聞き役を表わす。括弧内は本ドメインにおける対話行為タイプであり、図6に示すような38の対話行為が人手によって定義されている。
【0093】
各対話行為の詳細については、非特許文献(T. Meguro, R. Higashinaka, Y. Minami, and K. Dohsaka, “Controlling listening-oriented dialogue using partially observable Markov decision processes, ” in Proc. COLING, 2010, pp. 761-769.)に詳細が記載されている。
【0094】
また、比較対象として、K−meansというクラスタリング手法を用いた。K−meansは、事前にクラスタ数が分かっている場合に用いられるクラスタリング手法の代表的なものであ。これは、まず、ランダムにクラスタを作成し、EMアルゴリズムの枠組みによって、クラスタを局所最適な解が得られるまでアップデートしていく手法である。
【0095】
ADドメインとALドメインのデータに対し、K−means、CRP、及び無限HMMの各々の手法を用いてクラスタリングを行い、対話行為数を推定する実験を行った。ここで、K−meansは対話行為数を推定できない手法であるため、直接的な比較はできない。そこで、K−meansについては、人手で正解の対話行為数を与え、発話のクラスタリングを行った。対話行為数が予め分かっている状態で、クラスタリングを行うため、非常に強力なベースラインと見なせる。
【0096】
ギブスサンプリングの計算コストが比較的高いため、実験に際しては、各ドメインからランダムに抽出した50個の対話データずつを対象とした。ADドメインの対話データは2894個の発話データであり、ALドメインの対話データは、2470個の発話のデータであった。人手で付与した対話行為によれば、これらのサブセットの中には、それぞれ、27種類の対話行為、33種類の対話行為が含まれていた。
【0097】
クラスタリングを行う前に、形態素解析を用い(本実験ではChaSenを使用した)、各発話について、bag−of−wordsの特徴量を求めた。ただ、低頻度語はクラスタリングに悪影響を及ぼす可能性があるため、各ドメインの全データについて、10回以上出現している単語のみを特徴量とし、単語は標準形を用いた。
【0098】
クラスタリングの評価は、データに人手で付与された正解の対話行為ラベルと対照することで行った。
【0099】
評価尺度としては、purityとF−measureを用いた。どちらもクラスタリング評価の一般的な指標である。purityは一つのクラスタにどの程度同じ対話行為の発話が入っているかを表し、F−measureは、データのペアに着目し、同じクラスタにあるべきペアがどの程度正しく同じクラスタに入っているかを定量化する。purityは以下の(10)式で計算される。
【0100】
【数14】

【0101】
ここで、C={c1,・・・,cK}はクラスタの集合であり、D={d1,・・・,dN} は対話行為の集合であり、Nはデータ数(発話数)である。
【0102】
F−measureは、以下の(11)式に従って算出される。
【0103】
【数15】

【0104】
ここで、TP、FP、FNは、それぞれtrue positive、false positive、false negativeを表す。true positiveは、同じ対話行為である発話のペアが同じクラスタに入っている回数であり、false positiveは異なる対話行為である発話のペアが同じクラスタに入っている回数であり、false negativeは同じ対話行為である発話のペアが異なったクラスタに入っている回数である。
【0105】
K−meansがランダムな初期値に依存すること、CRPと無限HMMが確率的に動作することなどから、本実験ではそれぞれのクラスタリング手法で100回クラスタリングを行い、その平均値を求めた。CRPと無限HMMについては、αには0.1を、βとγには0.01を用いた。ギブスサンプリングのイタレーション数は100とした。つまり、すべての客は100回ずつ再配置された。
【0106】
以下の表1にADドメインの発話のクラスタリング結果を示す。
【0107】
【表1】

*は、K−meansに対してt検定により1%の有意水準で差があることを示す。+は、CRPに対してt検定により1%の有意水準で差があることを示す。
また、以下の表2に、ALドメインの発話のクラスタリング結果を示す。
【0108】
【表2】

【0109】
上記の結果から分かるように、無限HMMは、他の手法よりもクラスタリング性能が良い。すなわち、発話のクラスタリングに文脈情報を利用することが有用であることが分かった。
【0110】
また、無限HMMのクラスタ数は、ADドメインで約143個、ALドメインで38個となっており、これが、自動的に推定された対話行為数である。
【0111】
CRPで推定された対話行為数の方が人手で与えた個数に近い。このことから、人間が対話行為を付与するという行為は、発話を独立のものと見なしてなされていると推測できる。しかしながら、本実験の結果によれば、人手による正解の対話行為数より、文脈を考慮した場合の対話行為数の方が多い。このことは、文脈を鑑みれば、人手による対話行為数が少なすぎる可能性を示唆していると考えられる。つまり、対話システムの設計者からすれば、文脈をより考慮した対話行為を加えるなど、対話行為の再設計の指針としてとらえることができ、その指針に沿って対話行為を設計し直すことで、より適切にユーザ発話を処理できる対話システムにつなげることが可能となると考えられる。
【0112】
また、発話の文脈依存度を算出すると、ADドメインに対する発話の文脈依存度は143.62/35.03=4.099である。そして、ALドメインに対する文脈依存度は、 38.00/29.28=1.298である。このことから、ADドメインの発話の方が、ドメインにおける文脈依存性が高いと判断できる。また、各ドメインにおける文脈依存度を比較して、後述する文脈依存比を算出すると、ADドメインはALドメインの4.099/1.298=3.158倍、ドメイン依存の対話行為が多いことが、客観的な数値として分かった。
【0113】
以上説明したように、本実施の形態に係る文脈依存性推定装置によれば、発話の文脈情報を考慮しないCRPの手法を用いて、対話データの発話をクラスタリングすると共に、発話の文脈情報を考慮した無限HMMの手法を用いた、対話データの発話をクラスタリングし、発話のクラスタリング結果を比較することにより、あるドメインの対話データについて、文脈依存度を推定することができる。
【0114】
また、発話のクラスタリングにおいて発話の文脈情報を考慮することにより、発話のクラスタリングの性能が向上するため、どのような発話がドメインに存在するかが一目で分かるようになり、対話システム構築が容易になる。さらに、ドメイン中の発話の文脈依存度を数値として算出できるため、対話データのドメインの深い理解につながる。たとえば、文脈依存度が高い発話が多いドメインだということが分かれば、システムの理解部において文脈情報をより多く持つといった改善が可能となる。
【0115】
〔第2の実施の形態〕
次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
【0116】
第2の実施の形態では、文脈情報を付加した発話の特徴量に基づいて、CRPの手法を用いたクラスタリングを行っている点が、第1の実施の形態と異なっている。
【0117】
図7に示すように、第2の実施の形態に係る文脈依存性推定装置200の発話クラスタリング部222は、特徴量抽出部30、CRPクラスタリング部31、文脈情報付加部231、及びCRPクラスタリング部232を備えている。なお、CRPクラスタリング部31が、第1クラスタリング手段の一例であり、CRPクラスタリング部232が、第2クラスタリング手段の一例である。
【0118】
文脈情報付加部231は、特徴量抽出部30によって抽出された各発話の特徴量に対して、文脈情報として、直前の発話の特徴量を付加して、付加特徴量を各々生成する。例えば、発話1、・・・、発話Nがあり、それぞれの特徴量を、特徴量1、・・・、特徴量Nとすると、各発話の特徴量に、前発話の特徴量を付加したもの、つまり、{開始記号、 特徴量1}、{特徴量1、特徴量2}、・・・、{特徴量N−1、特徴量N}を、各発話の付加特徴量として生成する。これによって、特徴量(ベクトル)の次元が2倍となる。
【0119】
CRPクラスタリング部232は、文脈情報付加部231によって生成された各発話の付加特徴量に基づいて、CRPクラスタリング部31と同様に、CRPを用いて、発話をクラスタリングする。
【0120】
文脈依存度算出部23は、CRPクラスタリング部31によるクラスタリング結果におけるクラスタ数、及びCRPクラスタリング部231によるクラスタリング結果におけるクラスタ数に基づいて、上記(6)式と同様の式に従って、文脈依存度を算出する。
【0121】
また、文脈依存度算出部23は、CRPクラスタリング部31によるクラスタリング結果における各クラスタのデータ、及びCRPクラスタリング部231によるクラスタリング結果における各クラスタのデータに基づいて、上記(7)式と同様の式に従って、RPクラスタリング部31によるクラスタリング結果の各クラスタCの文脈依存度を算出する。また、文脈依存度算出部23は、上記(9)式と同様の式に従って、CRPクラスタリング部31によるクラスタリング結果のクラスタの平均文脈依存度を算出する
【0122】
次に、第2の実施の形態における文脈依存性推定処理ルーチンについて、図8を用いて説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
【0123】
まず、ステップS101において、複数の対話データの全ての発話について、特徴量を抽出する。そして、ステップS102において、上記ステップS101において抽出された各発話の特徴量に基づいて、CRPの手法を用いたクラスタリングにより、各発話を複数のクラスタに分類する。
【0124】
次のステップS201では、上記ステップS101において抽出された各発話の特徴量に対して、それぞれ直前の発話の特徴量を付加して、付加特徴量を各発話について生成する。
【0125】
そして、ステップS202において、上記ステップS201において生成された各発話の付加特徴量に基づいて、CRPの手法を用いたクラスタリングにより、各発話を複数のクラスタに分類する。
【0126】
そして、ステップS104では、上記ステップS102のクラスタリング結果におけるクラスタ数と、上記ステップS202のクラスタリング結果におけるクラスタ数とに基づいて、上記(6)式と同様の式に従って、当該ドメインに関する発話の文脈依存度を算出する。
【0127】
ステップS105では、上記ステップS102のクラスタリング結果における各クラスタに属するデータ(発話)と、上記ステップS202のクラスタリング結果における各クラスタに属するデータ(発話)とに基づいて、上記(7)式と同様の式に従って、上記ステップS102でのクラスタリングによる各クラスタCの文脈依存度を算出する。また、算出した各クラスタの文脈依存度に基づいて、上記(9)式と同様の式に従って、上記ステップS102でのクラスタリングによる各クラスタの平均文脈依存度を算出する。
【0128】
そして、ステップS106において、上記ステップS104、105の算出結果を出力して、文脈依存度算出処理ルーチンを終了する。
【0129】
以上説明したように、本実施の形態に係る文脈依存性推定装置によれば、発話の文脈情報を考慮しないCRPの手法を用いて、対話データの発話をクラスタリングすると共に、文脈情報として直前の発話の特徴量を付加した付加特徴量を用いて、対話データの発話をクラスタリングし、発話のクラスタリング結果を比較することにより、あるドメインの対話データについて、文脈依存度を推定することができる。
【0130】
〔第3の実施の形態〕
次に、第3の実施の形態について説明する。
【0131】
第3の実施の形態では、複数のドメインの各々に対する対話データについて、それぞれ発話のクラスタリングを行って、ドメインの文脈依存比を算出している点が、第1の実施の形態及び第2の実施の形態と異なっている。以下では、複数のドメインの各ドメインの文脈依存度を算出する方法として、第1の実施の形態と同様の方法を用いる場合を例に説明を行うが、各ドメインの文脈依存度を算出する方法として、第2の実施の形態と同様の方法を用いるようにしてもよい。
【0132】
図9に示すように、第3の実施の形態に係る文脈依存性推定装置300は、入力部10A、10Bと、演算部20と、出力部28とを備えている。
【0133】
入力部10Aは、入力された対話データとして、ドメインAに関連する複数の対話データを受け付ける。入力部10Bは、入力された対話データとして、ドメインAとは異なるドメインBに関連する複数の対話データを受け付ける。
【0134】
演算部20は、対話データ記憶部21A、21B、発話クラスタリング部22A、22B、文脈依存度算出部23A、23B、文脈依存比算出部323を備えている。
【0135】
対話データ記憶部21Aは、入力部10Aにより受け付けた複数の対話データを記憶する。対話データ記憶部21Bは、入力部10Bにより受け付けた複数の対話データを記憶する。
【0136】
発話クラスタリング部22AのCRPクラスタリング部31は、特徴量抽出部30によって抽出されたドメインAの対話データの各発話の特徴量に基づいて、CRPの手法を用いて、ドメインAについて、発話をクラスタリングする。発話クラスタリング部22BのCRPクラスタリング部31は、特徴量抽出部30によって抽出されたドメインBの各発話の特徴量に基づいて、CRPの手法を用いて、ドメインBについて、発話をクラスタリングする。
【0137】
発話クラスタリング部22Aの無限HMMクラスタリング部32は、特徴量抽出部30によって抽出されたドメインAの対話データの各発話の特徴量に基づいて、無限HMMの手法を用いて、ドメインAについて、発話をクラスタリングする。発話クラスタリング部22Bの無限HMMクラスタリング部32は、特徴量抽出部30によって抽出されたドメインBの対話データの各発話の特徴量に基づいて、無限HMMの手法を用いて、ドメインBについて、発話をクラスタリングする。
【0138】
文脈依存度算出部23Aは、上記の(6)式に従って、ドメインAに関する発話の文脈依存度を算出する。文脈依存度算出部23Bは、上記の(6)式に従って、ドメインBに関する発話の文脈依存度を算出する。
【0139】
文脈依存比算出部323は、算出したドメインAに関する発話の文脈依存度及びドメインBに関する発話の文脈依存度に基づいて、以下の(12)式に従って、ドメインAとドメインBの文脈依存比を算出する。
【0140】
【数16】

【0141】
また、文脈依存度算出部23Aは、ドメインAについて、発話クラスタリング部22AのCRPクラスタリング部31によるクラスタリング結果の各クラスタCの文脈依存度を、上記の(7)式に従って算出する。文脈依存度算出部23Bは、ドメインBについて、発話クラスタリング部22BのCRPクラスタリング部31によるクラスタリング結果の各クラスタCの文脈依存度を算出する。
【0142】
文脈依存度算出部23Aは、ドメインAについて、上記の(9)式に従って、平均文脈依存度を算出する。文脈依存度算出部23Bは、ドメインBについて、上記の(9)式に従って、平均文脈依存度を算出する。
【0143】
なお、第3の実施の形態に係る文脈依存性推定装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。
【0144】
このように、各ドメインについて発話の文脈依存度を算出して比較することにより、ドメインの文脈依存比を算出することができる。
【0145】
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
【0146】
例えば、対話全体の文脈を考慮しないクラスタリング手法として、CRPの手法を用いた場合を例に説明したが、対話全体の文脈を考慮しないクラスタリング手法であればこれに限定するものではない。例えば、K−Means、Affinity Propagation、X−Meansといった方法を用いて、発話のクラスタリングを行ってもよい。
【0147】
なお、クラスタ数を自動的に決定し、文脈情報を用いて発話のクラスタリングを行う手法は、対話全体の文脈を考慮しない従来のクラスタリング手法に比べて、発話間の関係を考慮できるため、クラスタリングの精度が高いという利点がある。
【0148】
第1の実施の形態に記載の入力部10、対話データ記憶部21、特徴量抽出部30、および無限HMMクラスタリング部32を取り出して、発話クラスタリング装置として機能させることができる。同様に、第2の実施の形態に記載の入力部10、対話データ記憶部21、特徴量抽出部30、文脈情報付加部231、およびCRPクラスタリング部232を取り出して、発話クラスタリング装置として機能させることができる。クラスタ数を自動的に決定し、文脈情報を用いて発話のクラスタリングを行うことで、高精度なクラスタリングが可能になるという利点がある。
【0149】
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
【符号の説明】
【0150】
10、10A、10B 入力部
20 演算部
21、21A、21B 対話データ記憶部
22、22A、22B、222発話クラスタリング部
23、23A、23B 文脈依存度算出部
30 特徴量抽出部
31、232 CRPクラスタリング部
32 無限HMMクラスタリング部
100、200、300 文脈依存性推定装置
231 文脈情報付加部
323 文脈依存比算出部

【特許請求の範囲】
【請求項1】
複数の発話の時系列である対話データから、各発話の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、前記複数の発話をクラスタリングする第1クラスタリング手段と、
前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、前記発話の文脈情報を用いて、前記複数の発話をクラスタリングする第2クラスタリング手段と、
前記第1クラスタリング手段によるクラスタリング結果、及び前記第2クラスタリング手段によるクラスタリング結果に基づいて、文脈に依存している度合いを推定する推定手段と、
を含む文脈依存性推定装置。
【請求項2】
前記第1クラスタリング手段は、CRP(Chinese Restaurant Process)に従って、前記複数の発話をクラスタリングし、
前記第2クラスタリング手段は、無限HMM(Hidden Markov Model)に従って、前記対話データの発話間の遷移情報を用いて前記複数の発話をクラスタリングする請求項1記載の文脈依存性推定装置。
【請求項3】
前記第2クラスタリング手段は、前記特徴量抽出手段によって抽出された各発話の特徴量に、前記発話の文脈情報として該発話の直前の発話の特徴量を付加した付加特徴量を各々生成し、前記生成された各発話の前記付加特徴量に基づいて、前記複数の発話をクラスタリングする請求項1記載の文脈依存性推定装置。
【請求項4】
前記対話データは、特定のドメインに関する対話データであり、
前記推定手段は、以下の式に従って、前記特定のドメインにおける前記発話の文脈依存度を推定する請求項1〜請求項3の何れか1項記載の文脈依存性推定装置。
【数1】


ただし、クラスタ数C1は、前記第1クラスタリング手段によってクラスタリングされたクラスタ数であり、クラスタ数C2は、前記第2クラスタリング手段によってクラスタリングされたクラスタ数である。
【請求項5】
前記対話データは、異なる2つのドメインに関する対話データであり、
前記第1クラスタリング手段は、各ドメインについて、前記ドメインに関する対話データの複数の発話を各々クラスタリングし、
前記第2クラスタリング手段は、各ドメインについて、前記ドメインに関する対話データの複数の発話を各々クラスタリングし、
前記推定手段は、各ドメインにつて、前記発話の文脈依存度を推定すると共に、以下の式に従って、前記ドメインの文脈依存比を推定する請求項4記載の文脈依存性推定装置。
【数2】

【請求項6】
前記推定手段は、以下の式に従って、前記第1クラスタリング手段によってクラスタリングされたクラスタCの文脈依存度を推定する請求項1〜請求項3の何れか1項記載の文脈依存性推定装置。
【数3】


ただし、C’は、前記第2クラスタリング手段によってクラスタリングされたクラスタの集合であり、cは、C’の要素であるクラスタである。
【請求項7】
前記推定手段は、前記第1クラスタリング手段によってクラスタリングされた各クラスタの文脈依存度を推定すると共に、以下の式に従って、前記第1クラスタリング手段によってクラスタリングされたクラスタの平均文脈依存度を推定する請求項6記載の文脈依存性推定装置。
【数4】


ただし、c’’は、Cの要素であるクラスタである。
【請求項8】
特徴量抽出手段、第1クラスタリング手段、第2クラスタリング手段、及び推定手段を含む文脈依存性推定装置における文脈依存性推定方法であって、
前記文脈依存性推定装置は、
前記特徴量抽出手段によって、複数の発話の時系列である対話データから、各発話の特徴量を抽出し、
前記第1クラスタリング手段によって、前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、前記複数の発話をクラスタリングし、
前記第2クラスタリング手段によって、前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、前記発話の文脈情報を用いて、前記複数の発話をクラスタリングし、
前記推定手段によって、前記第1クラスタリング手段によるクラスタリング結果、及び前記第2クラスタリング手段によるクラスタリング結果に基づいて、文脈に依存している度合いを推定する
ことを特徴とする文脈依存性推定方法。
【請求項9】
入力された複数の発話の時系列である対話データを受け付ける入力手段と、
前記入力手段により受け付けた前記対話データを記憶する対話データ記憶手段と、
前記対話データから、各発話の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、無限HMM(Hidden Markov Model)に従って、前記対話データの発話間の遷移情報を用いて前記複数の発話をクラスタリングする無限HMMクラスタリング手段と、
を含む発話クラスタリング装置。
【請求項10】
入力された複数の発話の時系列である対話データを受け付ける入力手段と、
前記入力手段により受け付けた前記対話データを記憶する対話データ記憶手段と、
前記対話データから、各発話の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段によって抽出された各発話の特徴量に、前記発話の文脈情報として該発話の直前の発話の特徴量を付加した付加特徴量を各々生成する文脈情報付加手段と、
前記文脈情報付加手段によって生成された各発話の付加特徴量に基づいて、CRP(Chinese Restaurant Process)に従って、前記複数の発話をクラスタリングするCRPクラスタリング手段と、
を含む発話クラスタリング装置。
【請求項11】
入力手段、対話データ記憶手段、特徴量抽出手段、及び無限HMMクラスタリング手段を含む発話クラスタリング装置における発話クラスタリング方法であって、
前記発話クラスタリング装置は、
前記入力手段によって、入力された複数の発話の時系列である対話データを受け付け、
前記入力手段により受け付けた前記対話データを対話データ記憶手段に記憶し、
特徴量抽出手段によって、前記対話データから、各発話の特徴量を抽出し、
前記無限HMMクラスタリング手段によって、前記特徴量抽出手段によって抽出された各発話の特徴量に基づいて、無限HMM(Hidden Markov Model)に従って、前記対話データの発話間の遷移情報を用いて前記複数の発話をクラスタリングする
ことを特徴とする発話クラスタリング方法。
【請求項12】
入力手段、対話データ記憶手段、特徴量抽出手段、文脈情報付加手段、及びCRPクラスタリング手段を含む発話クラスタリング装置における発話クラスタリング方法であって、
前記発話クラスタリング装置は、
前記入力手段によって、入力された複数の発話の時系列である対話データを受け付け、
前記入力手段により受け付けた前記対話データを前記対話データ記憶手段に記憶し、
前記特徴量抽出手段によって、前記対話データから、各発話の特徴量を抽出し、
前記文脈情報付加手段によって、前記特徴量抽出手段によって抽出された各発話の特徴量に、前記発話の文脈情報として該発話の直前の発話の特徴量を付加した付加特徴量を各々生成し、
前記CRPクラスタリング手段によって、前記文脈情報付加手段によって生成された各発話の付加特徴量に基づいて、CRP(Chinese Restaurant Process)に従って、前記複数の発話をクラスタリングする
ことを特徴とする発話クラスタリング方法。
【請求項13】
コンピュータを、請求項1〜請求項7の何れか1項記載の文脈依存性推定装置の各手段として機能させるためのプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate


【公開番号】特開2013−45363(P2013−45363A)
【公開日】平成25年3月4日(2013.3.4)
【国際特許分類】
【出願番号】特願2011−184054(P2011−184054)
【出願日】平成23年8月25日(2011.8.25)
【出願人】(000004226)日本電信電話株式会社 (13,992)
【Fターム(参考)】