説明

トピック可視化装置、トピック可視化方法、トピック可視化プログラムおよびそのプログラムを記録した記録媒体

【課題】データ集合を可視化した際に最適なトピックモデルを基に、そのデータ集合を可視化する技術を提供する。
【解決手段】トピック可視化装置は、文書座標集合47、トピック座標集合48、単語出現確率集合49から帰属度を推定し記憶手段に格納する帰属度推定部21と、帰属度集合46、文書座標集合47、トピック座標集合48、単語出現確率集合49から文書座標集合47とトピック座標集合48とを推定し記憶手段に格納する配置部22と、入力データ45として文書集合を受け付けて単語出現確率集合49を推定し記憶手段に格納するトピックモデル推定部23と、帰属度の推定、文書座標集合47とトピック座標集合48との推定、単語出現確率集合49の推定の一連の処理を繰り返し、文書集合に対して文書座標集合47、トピック座標集合48、単語出現確率集合49が最適化した場合に文書座標集合47を出力する可視化部24とを備える。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、文書データの集合である文書データ集合など、各データが離散値のベクトルとして表現することが可能なデータが与えられたときに、そのデータに内在するトピックと共に、データ集合を可視化するトピック可視化装置、トピック可視化方法、トピック可視化プログラムおよびそのプログラムを記録した記録媒体に関する。
【背景技術】
【0002】
近年、大量の文書を示す文書データ集合(単に文書集合という)が電子的に蓄積されている。それぞれの文書は、その内容として数多くの単語を含んでいる。1つの文書を文書名(タイトル)で代表して指し示すように、1つの文書を2次元平面または3次元空間の位置座標を示す点により表示することによって可視化する技術が知られている(例えば、非特許文献1、非特許文献2参照)。
【0003】
電子的に蓄積された多くの文書(文書集合)を、多数の点として一度に可視化することができれば、その対象とする文書集合のそれぞれの文書の内容をたとえ詳細に知らなくても、膨大な数の文書集合の全体的な特徴を瞬時に理解することが可能になる。また、Web空間等に蓄積された文書集合をブラウジングする際に、検索対象の文書群を一度に可視化することができれば、膨大な文書集合の中から、目的の文書を直感的に検索することが可能になる。
【0004】
非特許文献1に記載された可視化法は、可視化対象とする2つのデータ間の類似度などの関連性をもとに、例えば文書データ集合等のデータ集合を可視化する方法である。また、非特許文献2に記載された可視化法は、可視化対象とするデータのトピックを考慮して推定された確率モデル(トピックモデル)を予め前処理によって用意しておき、このトピックモデルを利用して推定される出力結果(データ集合の座標)をもとに、可視化するものである。非特許文献2に記載された可視化法において、数万もの文書から作成された数万語の単語群をデータとして、トピックモデルを用いて推定した文書集合の位置座標を2次元平面上に可視化した結果の一例を図8に示す。
【0005】
図8において、各点は1つの単語の座標、大きな語句はトピックの平均の座標を表し、いくつかの単語の例を表示している。全体的には大きな五角形の頂点と、その頂点を結ぶ直線(実際には曲線)上に、多くの点(多くの単語)が配置されている。各頂点に集まっている点(単語)は、クラスタを形成している。これら五角形の頂点に集まっている点(単語)は、そのトピックにおける典型的な単語を示している。例えば、化学で使われる単語「ACTIVATED」は、トピック「chemistry」が示す領域の頂点(図8において最上部)に位置している。一方、五角形の中心付近に近づくにつれて集まっている点(単語)は、より一般的な単語となる傾向がある。
【0006】
また、図8において、すべての2つのクラスタ間に点(ドット)による曲線が張られている。このような曲線上にある単語は2つのトピックを持った単語である。例えば、図8において最下部の2つのクラスタ間に張られた曲線の中央付近の単語「DEPOSITS」には、「堆積」、「預金」という2つの異なる意味がある。つまり、単語「DEPOSITS」は、トピック「geology(地学)」に関する文書においては、通常、「堆積」の意味で用いられており、トピック「banking(金融)」に関する文書においては、通常、「預金」の意味で用いられている。そのため、この2次元平面上では、対象とする文書集合に含まれる単語「DEPOSITS」の座標位置は、トピック「geology(地学)」を典型的に示すクラスタと、トピック「banking(金融)」を典型的に示すクラスタとの間に張られた曲線の中央付近となっている。
【非特許文献1】山田武士、斉藤和巳、上田修功、「クロスエントロピー最小化に基づくネットワークデータの埋め込み」、情報処理学会論文誌、vol.44、pp.2401-2408(2003)
【非特許文献2】岩田具治、斉藤和巳、上田修功、「パラメトリック埋め込み法によるクラス構造の可視化」、情報処理学会論文誌、vol.46、pp.2337-2346(2005)
【発明の開示】
【発明が解決しようとする課題】
【0007】
しかしながら、非特許文献1に記載された可視化方法では、可視化対象とするデータが文書の場合におけるトピックなど、そのデータ(例えば、文書データ)に内在する隠れた構造(例えば、トピック)を考慮していないという問題点がある。なお、データに内在する「隠れた構造」と反対の意味の「明白な構造」とは、例えば、文書データの場合には、それぞれの文書データに予め付与された明白なラベル(その文書の内容を示す「分野」などのラベル)のことをいう。一方、このようなラベルは、例えば、Web上の文書データ等、取り扱うデータによっては、常に与えられているものではない。例えば、Web上の文書データであっても、その文書を構成する特徴的な単語によって、当該文書データに、どのようなラベルが付与されるべきか推定することは可能である。この場合、分類を行う利用者が予め定めた複数のラベルのうち、対象とする文書にとって最適であろうと推定されたラベルが、「隠れた構造」に相当することとなる。
【0008】
また、非特許文献2に記載された方法では、トピックを考慮しているものの、理想的なトピックモデルを予め推定して用意しておく段階(前処理)と、この予め推定されたトピックモデルを用いて推定された(忠実に変換された)データ集合の座標を可視化する段階(本処理)とが存在している。つまり、この方法では、トピックモデルの推定ステップと、トピックモデルを用いて可視化用のデータの座標を推定するステップとが分離されている。このため、この方法では、厳密には、前処理段階では、トピックモデルを利用して推定されたデータ集合の座標(結果)を所望の可視化結果として生じさせるような最適なトピックモデル(原因)を得られないという問題点がある。
【0009】
そこで、本発明は、以上のような問題点に鑑みてなされたものであり、対象とするデータ集合を可視化したときに最適なトピックモデルをもとにして、そのデータ集合を可視化することのできるトピック可視化装置、トピック可視化方法、トピック可視化プログラムおよびそのプログラムを記録した記録媒体を提供することを目的とする。
【課題を解決するための手段】
【0010】
本発明は、前記課題を解決するために創案されたものであり、請求項1に記載のトピック可視化装置は、意味が付与された記号単位から成る系列を内容として含むデータであって前記記号単位を離散値のベクトルとして表現することが可能なデータを、前記データの集合において予め定められた複数のトピックのうち前記データに内在するトピックと共に、予め定められた空間において可視化するトピック可視化装置において、可視化対象とする前記データの集合、前記空間において前記データの位置を示すデータ座標の集合、前記空間においてトピックの位置を示すトピック座標の集合、前記データのトピックにおいて前記データ座標の集合で扱う各記号単位が前記トピックにおいて出現する確率であるトピックモデルの集合、および、前記データのトピックにおいて前記データ座標の集合で扱う各記号単位が前記予め定められた複数のトピックのうちどのトピックに帰属するかを表す帰属度の集合を記憶した記憶手段と、前記記憶手段に記憶されている、前記データ座標の集合、前記トピック座標の集合および前記トピックモデルの集合について入力をそれぞれ受け付け、前記帰属度を推定し、前記記憶手段に更新して格納する帰属度推定処理手段と、前記記憶手段に記憶されている、前記帰属度の集合、前記データ座標の集合、前記トピック座標の集合および前記トピックモデルの集合について入力を受け付け、前記入力として受け付けた各集合に対して前記データ座標の集合および前記トピック座標の集合を最適化させるために予め定められた目的関数により、前記データ座標の集合および前記トピック座標の集合を推定し、前記記憶手段に更新して格納する配置処理手段と、前記記憶手段に記憶されている、可視化対象とする前記データの集合について入力を受け付け、前記受け付けた前記データの集合により、前記トピックモデルの集合を推定し、前記記憶手段に更新して格納するトピックモデル推定処理手段と、前記帰属度を推定する処理と、前記データ座標の集合および前記トピック座標の集合を推定する処理と、前記トピックモデルの集合を推定する処理との一連の処理を繰り返すことで、前記データの集合に対して、前記データ座標の集合、前記トピック座標の集合および前記トピックモデルの集合が最適化した場合に、前記記憶手段に記憶されている前記データ座標の集合を出力する可視化処理手段とを備えることを特徴とする。
【0011】
また、前記課題を解決するために、請求項3に記載のトピック可視化方法は、意味が付与された記号単位から成る系列を内容として含むデータであって前記記号単位を離散値のベクトルとして表現することが可能なデータを、前記データの集合において予め定められた複数のトピックのうち前記データに内在するトピックと共に、予め定められた空間において可視化するために、可視化対象とする前記データの集合、前記空間において前記データの位置を示すデータ座標の集合、前記空間においてトピックの位置を示すトピック座標の集合、前記データのトピックにおいて前記データ座標の集合で扱う各記号単位が前記トピックにおいて出現する確率であるトピックモデルの集合、および、前記データのトピックにおいて前記データ座標の集合で扱う各記号単位が前記予め定められた複数のトピックのうちどのトピックに帰属するかを表す帰属度の集合を記憶した記憶手段と、帰属度推定処理手段と、配置処理手段と、トピックモデル推定処理手段と、可視化処理手段とを備えたトピック可視化装置におけるトピック可視化方法であって、前記トピック可視化装置が、前記帰属度推定処理手段によって、前記記憶手段に記憶されている、前記データ座標の集合、前記トピック座標の集合および前記トピックモデルの集合について入力をそれぞれ受け付け、前記帰属度を推定し、前記記憶手段に更新して格納する帰属度推定処理ステップと、前記配置処理手段によって、前記記憶手段に記憶されている、前記帰属度の集合、前記データ座標の集合、前記トピック座標の集合および前記トピックモデルの集合について入力を受け付け、前記入力として受け付けた各集合に対して前記データ座標の集合および前記トピック座標の集合を最適化させるために予め定められた目的関数により、前記データ座標の集合および前記トピック座標の集合を推定し、前記記憶手段に更新して格納する配置処理ステップと、前記トピックモデル推定処理手段によって、前記記憶手段に記憶されている、可視化対象とする前記データの集合について入力を受け付け、前記受け付けた前記データの集合により、前記トピックモデルの集合を推定し、前記記憶手段に更新して格納するトピックモデル推定処理ステップと、前記可視化処理手段によって、前記帰属度を推定する処理と、前記データ座標の集合および前記トピック座標の集合を推定する処理と、前記トピックモデルの集合を推定する処理との一連の処理を繰り返すことで、前記データの集合に対して、前記データ座標の集合、前記トピック座標の集合および前記トピックモデルの集合が最適化した場合に、前記記憶手段に記憶されている前記データ座標の集合を出力する可視化処理ステップとを含んで実行することを特徴とする。
【0012】
請求項1に記載のトピック可視化装置、または、請求項3に記載のトピック可視化方法によれば、トピック可視化装置は、記憶手段に、可視化対象とするデータの集合、データ座標の集合、トピック座標の集合、トピックモデルの集合、および、帰属度の集合を記憶する。ここで、トピック可視化装置が可視化対象とするデータは、例えば、文書データ、購買データ、遺伝子配列データなど離散値のベクトルとして表現することが可能なデータである。つまり、可視化対象とするデータは、連続値のベクトルとして表現されるものではない。なお、連続値のベクトルは、確率分布の概念を連続値の場合に拡張したものであって、確率変数の分布が確率密度関数を用いて記述されるベクトルである。トピック可視化装置において可視化対象とするデータは、例えば、文書データの場合、「意味が付与された記号単位」とは単語を指し、「トピック」とは、例えば、クラス、ジャンル、ラベル等を指す。そして、トピック可視化装置は、帰属度推定処理手段によって、帰属度を推定し、配置処理手段によって、データ座標の集合およびトピック座標の集合を推定する。ここで、データ座標の集合およびトピック座標の集合を推定するとは、データ集合を可視化するときの配置を推定することを指す。そして、トピック可視化装置は、トピックモデル推定処理手段によって、トピックモデルの集合を推定する。ここで、トピックモデルとは、可視化対象とするデータが例えば文書データであれば、トピックが内在する文書データにおいて各単語が出現する確率(単語出現確率)のことを指す。そして、トピック可視化装置は、帰属度の推定、配置の推定およびトピックモデルの推定の一連の処理を、データの集合に対して、その配置とトピックモデルの推定が最適化されるまで繰り返し、可視化処理手段によって、最適になったときのデータ座標の集合を出力する。ここで、繰り返しにより「最適になったとき」とは、データを可視化するときの配置およびその時点のトピックモデルの計算値が、入力であるデータの集合をどのくらい尤もらしく説明できているかを表す尤度が収束したときのことを意味する。なお、最適になったか否かの判別はトピックモデル推定処理手段により行うことができる。
【0013】
また、請求項2に記載のトピック可視化装置は、請求項1に記載のトピック可視化装置において、前記帰属度推定処理手段が、前記帰属度として、前記データ座標がトピックに帰属する確率として推定されるトピック帰属確率と、前記トピックモデルの集合から推定されるトピック帰属度との双方を考慮した帰属度を推定して前記記憶手段に更新して格納し、前記トピックモデル推定処理手段が、前記データの集合と共に前記記憶手段にその時点で記憶されている前記帰属度の集合について入力を受け付け、前記受け付けた帰属度で前記データの集合に重みをつけることにより、前記トピックモデルの集合を推定して前記記憶手段に更新して格納することを特徴とする。
【0014】
また、請求項4に記載のトピック可視化方法は、請求項3に記載のトピック可視化方法において、前記トピック可視化装置が、前記帰属度推定処理ステップにて、前記帰属度推定処理手段によって、前記帰属度として、前記データ座標がトピックに帰属する確率として推定されるトピック帰属確率と、前記トピックモデルの集合から推定されるトピック帰属度との双方を考慮した帰属度を推定して前記記憶手段に更新して格納し、前記トピックモデル推定処理ステップにて、前記トピックモデル推定処理手段によって、前記データの集合と共に前記記憶手段にその時点で記憶されている前記帰属度の集合について入力を受け付け、前記受け付けた帰属度で前記データの集合に重みをつけることにより、前記トピックモデルの集合を推定して前記記憶手段に更新して格納することを特徴とする。
【0015】
請求項2に記載のトピック可視化装置、または、請求項4に記載のトピック可視化方法によれば、トピック可視化装置は、帰属度推定処理手段によって、推定する帰属度として、データ座標がトピックに帰属する確率と、トピックモデルから推定されるトピック帰属度との双方を考慮した帰属度を推定する。そして、トピック可視化装置は、トピックモデル推定処理手段によって、データの集合と共に受け付けた帰属度でデータの集合に重みをつけることにより、トピックモデルの集合を推定する。つまり、トピック可視化装置は、第一に、推定すべき帰属度において、従来のように座標がトピックに帰属する確率だけを帰属度として単純に用いるのではなく、トピックモデルをも反映させる。第二に、トピック可視化装置は、推定すべきトピックモデルにおいて、従来とは異なるこの特徴的な帰属度で重み付けをする。したがって、帰属度の推定、配置の推定およびトピックモデルの推定の一連の処理を繰り返すことで、データ集合を可視化するときの配置と共に最適化されたトピックモデルは、次の二点で、従来と比べてより最適となる。第一に、座標がトピックに帰属する確率だけを帰属度として単純に用いる場合と比較して最適なトピックモデルを求めることができる。第二に、トピックモデルを帰属度で重み付けを行わない場合と比較して、最適なトピックモデルを求めることが可能となる。
【0016】
また、請求項5に記載のトピック可視化プログラムは、請求項1または請求項2に記載のトピック可視化装置を構成する各手段として、コンピュータを機能させることを特徴とする。このように構成されることにより、このプログラムをインストールされたコンピュータは、このプログラムに基づいた各機能を実現することができる。
【0017】
また、請求項6に記載のコンピュータ読み取り可能な記録媒体は、請求項5に記載のトピック可視化プログラムが記録されたことを特徴とする。このように構成されることにより、この記録媒体を装着されたコンピュータは、この記録媒体に記録されたプログラムに基づいた各機能を実現することができる。
【発明の効果】
【0018】
本発明によれば、対象とするデータ集合を可視化したときに最適なトピックモデルをもとにして、そのデータ集合を可視化することができる。その結果、このようにデータ集合を可視化することによって、膨大なデータ集合の全体的特徴を理解することや、ブラウジングしながら直感的に目的のデータを検索することが可能になる。
【発明を実施するための最良の形態】
【0019】
以下、本発明を実施するための最良の形態(以下、「実施形態」という)について図面を参照して説明する。
【0020】
[トピック可視化装置の構成の概要]
図1は、本発明の実施形態に係るトピック可視化装置の構成を示すブロック図である。
トピック可視化装置1は、内容を離散値のベクトルとして表現することが可能なデータを、そのデータに内在するトピックと共に、予め定められた空間において可視化するものである。ここで、データとは、意味が付与された記号単位から成る系列を内容として含むものであり、例えば、文書データ、購買データ、遺伝子配列データなどである。例えば、文書データの場合、意味が付与された記号単位とは単語を指し、トピックとは、データの集合において予め定められており、例えば、クラス、ジャンル、ラベル等を指す。以下では、簡単のためデータを文書データとして説明する。このトピック可視化装置1は、図1に示すように、演算手段2と、入力手段3と、記憶手段4と、出力手段5とを備えている。各手段2〜5はバスライン11に接続されている。
【0021】
演算手段2は、例えば、CPU(Central Processing Unit)およびRAM(Random Access Memory)から構成される主制御装置である。この演算手段2は、図1に示すように、帰属度推定部21と、配置部22と、トピックモデル推定部23と、可視化部24と、メモリ25とを含んで構成される。演算手段2は、記憶手段4から、帰属度推定プログラム41、配置プログラム42、トピックモデル推定プログラム43、および可視化プログラム44をそれぞれ読み込み、メモリ25に格納し、実行することで、前記した帰属度推定部21と、配置部22と、トピックモデル推定部23と、可視化部24とをそれぞれ実現する。なお、これら帰属度推定部21、配置部22、トピックモデル推定部23および可視化部24の詳細は後記する。
【0022】
入力手段3は、例えば、キーボード、マウス、ディスクドライブ装置などから構成される。記憶手段4は、例えば、一般的なハードディスク装置などから構成され、プログラム格納部40aと、データ格納部40bと、を含む。
【0023】
プログラム格納部40aには、演算手段2で用いられるプログラムとして、帰属度推定プログラム41と、配置プログラム42と、トピックモデル推定プログラム43と、可視化プログラム44と、を記憶させておくことが可能である。また、データ格納部40bには、演算手段2で用いられる各種データとして、入力データ45、帰属度集合46、文書座標集合47、トピック座標集合48、単語出現確率集合49を記憶する。ここで、入力データ45は入力手段3を介して入力され、記憶手段4のデータ格納部40bに記憶される構成とすることが可能である。また、帰属度集合46、文書座標集合47、トピック座標集合48、単語出現確率集合49は、演算手段2の演算処理結果を示すデータであり、その詳細については後記する。
【0024】
出力手段5は、例えば、グラフィックボード(出力インタフェース)およびそれに接続されたモニタである。モニタは、例えば、液晶ディスプレイ等から構成され、可視化を行った結果等を表示する。
【0025】
[トピック可視化装置で扱うデータの概要]
(入力データ45)
文書集合で扱うすべての単語の語彙数をWとする。文書集合は、N個の文書(文書データ)からなる。文書に含まれる総単語数はM個である。文書に含まれるM個の総単語には、例えば、日本語であれば「は」、英語であれば「a」のように、文書中に何度も出現する単語が含まれている。文書に含まれるこれらの単語は、W個の語彙数のすべての単語のうちのいずれかの単語である。これらの内容を式(1)および式(2)のように定式化する。文書集合のうち、n番目(1≦n≦N)の文書wn(以下、第n文書wnあるいは単に文書wnという)を、式(1)のように、長さMnの単語系列として表現する。式(1)において、wn mは、第n文書wnにおいてm番目(1≦m≦Mn)に出現した単語を示す。また、式(1)で示した文書wnの集合を式(2)で示す。この式(2)で示された文書集合Cが入力データ45として与えられる。
【0026】
【数1】

【0027】
(文書座標集合47)
文書集合Cに含まれるそれぞれの文書(文書データ)を、その文書(文書データ)のトピックにより文書間の関係(文書データ間の関係)が理解されるように可視化する空間としてD次元空間を定義する。Dは、一般に2または3である。ここで、トピックは、例えば、クラス、ジャンル、ラベル等を示し、文書データの構造を直感的に理解させることのできるものであり、データと共に埋め込まれるクラスやベクトルで表すことが可能である。このD次元空間において、文書wnの位置を示す座標xn(以下、文書座標xnという)を式(3)で示す。また、式(3)で示した文書座標xnの集合Xを式(4)で示す。この式(4)で示された文書座標集合Xは、推定する必要がある未知パラメータであり、文書座標集合47として計算される。
【0028】
【数2】

【0029】
(トピック座標集合48)
D次元空間において、文書間の関係(文書データ間の関係)がその文書(文書データ)のトピックにより理解されるように可視化される際に、z番目のトピックz(以下、単にトピックzという、1≦z≦Z)の位置を示す座標φz(以下、トピック座標φzという)を式(5)で示す。また、式(5)で示したトピック座標φzの集合Φを式(6)で示す。式(6)においてZは、トピックの総数である。この式(6)で示されたトピック座標集合Φは、推定する必要がある未知パラメータであり、トピック座標集合48として計算される。
【0030】
【数3】

【0031】
(単語出現確率集合49)
D次元空間において、文書間の関係(文書データ間の関係)がその文書(文書データ)のトピックにより理解されるように可視化される際に、その文書(文書データ)のトピックzにおいて、文書集合で扱う各単語(語彙数W)がどれくらいの確率で現れているかを示す指標θz(文書集合で前提とするトピックzが内在する全文書において、文書集合で扱う各単語が出現する確率(トピックモデル)、以下、単語出現確率θzという)を式(7)で示す。式(7)においてθz wはトピックzにおいて第w番目(1≦w≦W)の単語が出現する確率を表す。単語出現確率θzは、語彙数Wと同数の要素を有し、式(8)に示すように、各要素の確率の総和は1に正規化されている。なお、第w番目の単語(1≦w≦W)は、前記した単語wn mのいずれかに対応する。すなわち、第w番目の単語とは、第n文書wnにおいてm番目(1≦m≦Mn)に出現した単語のいずれかに対応している。
【0032】
【数4】

【0033】
また、式(7)で示した単語出現確率θzの集合Θを式(9)で示す。式(9)においてZは、トピックの総数である。この式(9)で示された単語出現確率集合Θは、推定する必要がある未知パラメータであり、単語出現確率集合49として計算される。
【0034】
【数5】

【0035】
(帰属度集合46)
帰属度は、文書集合Cにおいて前記した式(1)で示された第n文書wn(1≦n≦N)の長さMnの単語系列として出現したm番目(1≦m≦Mn)の単語が、どのトピックzに帰属するかを表し、推定する必要がある未知パラメータである。本実施形態で用いる帰属度は、文書座標がトピックに帰属する確率として推定されるトピック帰属度(以下、トピック帰属確率という)と、式(9)で示された単語出現確率集合Θから推定されるトピック帰属度との双方を考慮したものである。ここで、トピック帰属確率は、式(3)で示された文書座標xnと式(6)で示されたトピック座標集合Φとの両方の座標を用いることで、その文書座標xnがトピックzに帰属する確率として推定される。採用すべきトピック帰属確率(関数)としては、文書座標xnとトピック座標φzとのユークリッド距離が近ければ、そのトピックzに属する確率は高くなり、逆に、遠ければそのトピックzに属する確率は低くなるものを用いる。
【0036】
ここでは、入力として、文書座標、トピック座標集合をとるトピック帰属確率(関数)の一例として、式(10)に示すトピック帰属確率P(z|xn,Φ)を採用した。式(10)において、‖・‖はユークリッド距離を表す。
【0037】
【数6】

【0038】
式(10)に示すトピック帰属確率P(z|xn,Φ)と単語出現確率集合Θから推定されるトピック帰属度との双方を考慮した帰属度の一例として、式(11)に示す帰属度qn m zを採用した。なお、

は式(8)およびその説明で定義したものである。この式(11)で示された帰属度qn m zは、長さMnの単語系列を有した第n文書wnを文書集合Cに亘って走査した総単語について求められるが、単語出現確率θzが語彙数Wと同数の要素を有しているので、実質的には語彙数Wとトピックの総数Zとの積の個数の集合が求められる。この帰属度qn m zの集合は、推定する必要がある未知パラメータであり、帰属度集合46として計算される。
【0039】
【数7】

【0040】
[トピック可視化装置の処理の概要]
(処理の全体の流れ)
図2は、図1に示したトピック可視化装置による処理の流れを示すフローチャートである。まず、トピック可視化装置1は、入力データ45(文書集合C)を読み込む(ステップS1)。次に、トピック可視化装置1は、文書座標集合47(文書座標集合X)、トピック座標集合48(トピック座標集合Φ)、単語出現確率集合49(単語出現確率集合Θ)、をランダムに初期化する(ステップS2)。つまり、文書座標集合47、トピック座標集合48、単語出現確率集合49のそれぞれの初期状態は、集合の各要素がランダムな値(例えば、0)を有した集合として設定される。続いて、トピック可視化装置1は、帰属度推定部21において帰属度集合46(帰属度qn m zの集合)を計算する処理(ステップS3:帰属度推定処理ステップ)、配置部22において文書座標集合47およびトピック座標集合48を計算する処理(ステップS4:配置処理ステップ)、トピックモデル推定部23において単語出現確率集合49を計算する処理(ステップS5:トピックモデル推定処理ステップ)を一連の演算処理として、この一連の演算処理を、目的関数が収束するまで繰り返し(ステップS6:No)、目的関数が収束したときに、可視化部24により、そのときの文書座標集合47(文書座標集合X)を出力する(ステップ7:可視化処理ステップ)。このとき出力される文書座標集合47は、D次元空間において、文書間の関係(文書データ間の関係)がその文書(文書データ)のトピックにより理解されるように可視化される配置座標のデータである。
【0041】
(目的関数)
ステップS6において値の収束が判別される目的関数は、「文書座標集合47、トピック座標集合48、単語出現確率集合49が、どのくらい入力データ45を尤もらしく説明できているかを表す尤度」を示す関数である。つまり、「目的関数が収束するまで繰り返す」とは、「それぞれ計算された文書座標集合47、トピック座標集合48、単語出現確率集合49の計算された時点における推定値が、どのくらい入力データ45を尤もらしく説明できているかを表す尤度が収束するまで繰り返す」ことを意味する。ここで、尤度が収束した状態、すなわち、尤度が高くなる状態とは、D次元空間に可視化した際に、例えば、次の(1)〜(3)のような状態になることである。(1)帰属度が高いトピックの位置の近くに文書が配置されている状態、(2)トピックが似ている文書同士が近くに配置されている状態、(3)トピックの典型的な単語の出現確率が高くなっている状態。
【0042】
この尤度計算において、例えば、入力データ45、文書座標集合47、トピック座標集合48および単語出現確率集合49を目的関数の入力とする場合には、一例として、式(12)に示すL(X,Φ,Θ|C)を尤度として採用することができる。式(12)において、P(z|xn,Φ)は、前記した式(10)のトピック帰属確率である。
【0043】
【数8】

【0044】
[トピック可視化装置の構成の詳細]
次に、演算手段2の各部の構成の詳細を説明する。以下ではEMアルゴリズム(Expectation−Maximization algorithm)に基づいて帰属度推定(ステップS3)、配置(ステップS3)、トピックモデル推定(ステップS5)を行う場合について記述する。なお、EMアルゴリズムは、ステップS3〜S5までの一連の処理で推定された各未知パラメータを入力として式(12)で示される尤度L(X,Φ,Θ|C)の収束条件が満たされるまで(尤度Lが最大化するまで)、Eステップ(Expectation step)とMステップ(Maximization step)との2つの手順を繰り返すアルゴリズムである。
【0045】
<帰属度推定部>
図3は、図1に示した帰属度推定部の構成を示す機能ブロック図である。帰属度推定部(帰属度推定処理手段)21は、記憶手段4に記憶されている文書座標集合47、トピック座標集合48、単語出現確率集合49について入力をそれぞれ受け付け、帰属度を推定し、記憶手段4に更新して格納するものである。このために、帰属度推定部21は、図3に示すように、パラメータ読込部211と、帰属度計算部212と、帰属度書込部213とを備えている。
【0046】
パラメータ読込部211は、文書座標集合47と、トピック座標集合48と、単語出現確率集合49とを読み込み、帰属度計算部212に出力する。
【0047】
帰属度計算部212は、各文書wn(n=1,…,N)に含まれるMn個の単語系列の各単語(m=1,…,Mn)がどのトピック(z=1,…,Z)に帰属するかを表す帰属度を計算する。本実施形態では、帰属度計算部212は、文書座標集合47と、トピック座標集合48と、単語出現確率集合49の入力を受け付け、前記した式(11)により帰属度qn m zを計算する。
【0048】
帰属度書込部213は、帰属度計算部212で算出された帰属度qn m zの集合を帰属度集合46として記憶手段4に格納する。
【0049】
<配置部>
図4は、図1に示した配置部の構成を示す機能ブロック図である。配置部(配置処理手段)22は、記憶手段4に記憶されている、帰属度集合46、文書座標集合47、トピック座標集合48、単語出現確率集合49について入力を受け付け、入力として受け付けた各集合に対して文書座標集合47およびトピック座標集合48を最適化させるために予め定められた目的関数により、文書座標集合47およびトピック座標集合48を推定し、記憶手段4に更新して格納するものである。このために、配置部22は、図4に示すように、パラメータ読込部221と、配置計算部222と、配置書込部223とを備えている。
【0050】
パラメータ読込部221は、帰属度集合46と、文書座標集合47と、トピック座標集合48と、単語出現確率集合49とを読み込み、配置計算部222に出力する。
【0051】
配置計算部222は、入力として受け付けた各データを用いて、文書座標集合47とトピック座標集合48とを推定する。配置計算部222は、「推定した文書座標集合47およびトピック座標集合48が、入力として受け付けた各データをどのくらい尤もらしく説明できているか」を表す尤度を最大にするような文書座標集合47とトピック座標集合48とを求める。本実施形態では、配置計算部222は、例えば、前記した式(12)に示す尤度L(X,Φ,Θ|C)の下界である式(13)の目的関数Q(X,Φ)を最大にするような文書座標集合47(文書座標集合X)とトピック座標集合48(トピック座標集合Φ)とを、準ニュートン法などの最適化法を用いて求めることとした。
【0052】
【数9】

【0053】
式(13)において、α、β、γはハイパーパラメータである。式(13)に示す目的関数Q(X,Φ)は、入力として、帰属度集合46、文書座標集合47、トピック座標集合48、単語出現確率集合49をとり、「推定した文書座標集合47およびトピック座標集合48」の現在値(推定値)が、入力として受け付けたデータ(帰属度集合46(帰属度qn m zの集合)、文書座標集合47(文書座標集合X)、トピック座標集合48(トピック座標集合Φ)、単語出現確率集合49(単語出現確率集合Θ))を、どのくらい尤もらしく説明できているかを表す関数である。
【0054】
配置書込部223は、配置計算部222で算出された文書座標xnおよびトピック座標φzの各集合を、文書座標集合47およびトピック座標集合48として記憶手段4に格納する。
【0055】
<トピックモデル推定部>
図5は、図1に示したトピックモデル推定部の構成を示す機能ブロック図である。トピックモデル推定部(トピックモデル推定処理手段)23は、記憶手段4に記憶されている、可視化対象とする入力データ45(文書集合)ついて入力を受け付け、受け付けた入力データ45により、トピックモデルの集合として単語出現確率集合49を推定し、記憶手段4に更新して格納するものである。このために、トピックモデル推定部23は、図5に示すように、パラメータ読込部231と、トピックモデル計算部232と、トピックモデル書込部233とを備えている。
【0056】
パラメータ読込部231は、入力データ45と、帰属度集合46とを読み込み、トピックモデル計算部232に出力する。
【0057】
トピックモデル計算部232は、入力データ45と、帰属度集合46とを用いて、各トピック(z=1,…,Z)について、文書集合Cで扱うすべての単語(語彙数W:w=1,…,W)の出現確率(単語出現確率θz w)を計算する。本実施形態では、トピックモデル計算部232は、一例として、式(14)に示すように、指示関数I(A)を、前記した式(11)に示す帰属度qn m zで重みをつけて数えることにより、単語出現確率

を計算する。式(14)において、指示関数I(A)は、Aが真ならばI(A)=1、偽ならばI(A)=0となる。なお、「w」を一文字で単独で表記したときには、1〜Wまでの整数を意味するが、「w」を下付き文字と共に表記した場合には、前記した式(1)の文書または単語を意味する。
【0058】
【数10】

【0059】
トピックモデル書込部233は、トピックモデル計算部232で算出された単語出現確率

の集合を、単語出現確率集合49として記憶手段4に格納する。
【0060】
本実施形態では、トピックモデル計算部232は、前記した式(12)の目的関数が収束したか否かを判別することとする。判別の結果、収束していなければ、トピックモデル計算部232が、帰属度推定部21、配置部22、トピックモデル推定部23による一連の処理を繰り返す制御を行う。一方、判別の結果、収束していれば、トピックモデル計算部232が、可視化を行うように可視化部24に指示を送る。
【0061】
<可視化部>
可視化部(可視化処理手段)24は、帰属度推定部21、配置部22、トピックモデル推定部23による一連の処理を繰り返すことで、入力データ45に対して、文書座標集合47、トピック座標集合48および単語出現確率集合49が最適化した場合に、記憶手段4に記憶されている文書座標集合47を出力手段5に出力するものである。これにより、出力手段5は、入力データ45の可視化結果を表示する。
【0062】
なお、トピック可視化装置1は、一般的なコンピュータを、トピック可視化装置1を構成する前記した各手段として機能させるプログラム(トピック可視化プログラム)により動作させることで実現することができる。このプログラムは、通信回線を介して提供することも可能であるし、CD−ROM等の記録媒体に書き込んで配布することも可能である。このプログラムをインストールされたコンピュータは、CPUが、ROM等に格納されたこのプログラムをRAMに展開することにより、トピック可視化装置1と同等の効果を奏することができる。
【0063】
本実施形態によれば、文書集合を可視化したときに最適な単語出現確率集合49(トピックモデル)をもとにして、その文書集合を可視化することができる。その結果、このように文書集合を可視化することによって、電子的に蓄積された膨大な文書集合の全体的特徴を理解することや、Webデータをブラウジングしながら直感的に目的の文書データを検索することが可能になる。
【0064】
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、その趣旨を変えない範囲で実施することができる。例えば、トピック可視化装置1が、前記したステップS6において値の収束を判別するための目的関数としては、式(12)の尤度(関数)に限定されるものではない。代わりに、返される値が事後確率など同等の性質を持つ関数を用いることも可能である。
【0065】
また、本実施形態では、トピックモデル計算部232が、前記した式(12)の目的関数が収束したか否かを判別することとしたが、これに限定されず、帰属度推定部21、配置部22、トピックモデル推定部23のいずれか、あるいは、これらと同等な別の図示しない判別部がこの制御を行うようにしてもよい。
【0066】
また、本実施形態では、トピック可視化装置1の帰属度推定部21、配置部22、トピックモデル推定部23の行う各処理について、EMアルゴリズムに基づいて記述したが、代わりに、マルコフ連鎖モンテカルロ法等を用いることも可能である。また、本実施形態では、簡単のためデータを文書データとして説明したが、離散データであれば、購買データや遺伝子配列データ(DNA塩基配列)など任意のデータに適用可能である。
【実施例】
【0067】
本発明によるデータ集合の可視化の効果を確認するために、本実施形態に係るトピック可視化装置1によって、データ集合の一例として文書集合を2次元空間へ可視化する実験を行った。本実施形態に係るトピック可視化装置1によるトピック可視化方法(以下、PLSVと呼ぶ)との比較例として、従来法である「MDS」、「Isomap」、「PLSA」、「PLSA+PE」をそれぞれ用いた。
【0068】
<比較手法>
「MDS(Multi-dimensional scaling:多次元尺度法)」は、2データ間の距離をできるだけ保存するように可視化空間へ埋め込む線形可視化法である。
【0069】
「Isomap」は、近傍グラフのグラフ間距離を保存するように可視化空間へ埋め込む非線形埋め込み可視化法である。なお、Isomapの詳細については、「Tenenbaum, J., de Silva, V. and Langfword, J.:A global geometric framework for nonlinear dimensionality reduction, Science, Vol. 290, pp.2319-2323(2000)」に記載されている。
【0070】
「PLSA(Probabilistic Latent Semantic Analysis)」は、2次元単体トピック空間へデータを埋め込む方法である。
【0071】
「PLSA+PE」は、PLSAによりトピック空間へデータを埋め込んだ後、PE(Parametric Embedding:パラメトリック埋め込み法)によってトピック帰属度を保存するように2次元空間へ埋め込む手法である。PEの詳細については、非特許文献2に記載されている。
【0072】
<入力データ>
可視化対象とする入力データとして、3種類の文書データ「NIPS」、「20News」、「EachMovie」を用いた。
【0073】
「NIPS」データは、2001年から2003年までの国際会議NIPS(The Neural Information Processing Systems)で発表された593文書(文書データ)から成る。それぞれの文書は、13の研究分野(ラベル)、すなわち13個のトピックに分類されている。
【0074】
「20News」データは、20Newsgroupsコーパス(The 20 Newsgroups data set)に含まれる1000文書から成る。それぞれの文書(文書データ)は、20の議論グループ(ラベル)、すなわち20のトピックに分類されている。
【0075】
「EachMovie」データは、7180ユーザによる764の映画の評点データである。それぞれの映画は10のジャンル(ラベル)、すなわちトピックに分類されている。
【0076】
<k近傍法による比較結果>
評価手法として、可視化空間でのk近傍法(k-nearest neighbor algorithm、k-NN)の正答率を用いた。本実施例のトピック可視化方法(PLSV)と、従来法との比較結果を図6のグラフに示す。図6のグラフにおいて、横軸は最近傍のデータ数(neighbors)を示し、縦軸は正答率(accuracy)を示す。
【0077】
図6(a)のグラフは、「NIPS」データを可視化した場合の結果を示し、図6(b)のグラフは、「20News」データを可視化した場合の結果を示し、図6(c)のグラフは、「EachMovie」データを可視化した場合の結果を示している。各グラフにおいて、同じラベル(トピック)のデータが可視化空間において近くに配置されていれば、正答率(accuracy)は高くなる。図6(a)〜図6(c)の各グラフに示すように、すべての種類の可視化対象データにおいて、本実施例のトピック可視化方法(PLSV)は、正答率が最も高い。したがって、PLSVによると、入力されたデータの本質的な特徴を保存して2次元空間に可視化できていることがわかる。
【0078】
<可視化結果の例>
図7は、入力データとして、「NIPS」データを用いた場合の各方法による可視化結果を示す。図7(a)は、本実施例のトピック可視化方法(PLSV)による可視化結果である。また、図7(b)〜図7(e)は、「MDS」、「Isomap」、「PLSA」、「PLSA+PE」のそれぞれの従来法による可視化結果である。図7(a)〜図7(e)のそれぞれの可視化結果において、丸印等の個々の点が1つの文書(文書データ)を表している。これら個々の点には、文書の13の研究分野に対応した13個の形状や濃淡(実験結果はカラーである)で区別されており、これらが文書データのラベル(トピック)を表している。例えば、比較的濃い丸印「AA」は、その文書が“アルゴリズム&アーキテクチャ”の分野に属していることを示し、比較的薄い丸印「VM」は、“ビジョン(マシーン)”の分野を示す。
【0079】
図7(a)に示すように、本実施例(PLSV)による可視化結果では、同じラベルのデータが近くに集まっている。つまり、同じ形状かつ同じ濃度(カラー)の点(文書データ)は密集し、13種類の形状や濃淡を有した点(文書データ)は、種類ごとに(トピックごとに)、2次元平面内のほぼ定まった領域に割り振られていることがわかる。一方、図7(b)に示す「MDS」や図7(c)に示す「Isomap」による可視化結果では、異なるラベルのデータが混在している。また、図7(d)に示す「PLSA」では、三角形の領域全体のうち、縁部(辺や頂点)に多くの点(文書データ)が集まってしまっており、2次元空間で文書データのトピック構造をうまく表現することができていない。また、図7(e)に示す「PLSA+PE」による可視化結果では、異なるラベルのデータが混在している度合いが、本実施例(PLSV)に比べて、若干大きい。
【図面の簡単な説明】
【0080】
【図1】本発明の実施形態に係るトピック可視化装置の構成を示すブロック図である。
【図2】図1に示したトピック可視化装置による処理の流れを示すフローチャートである。
【図3】図1に示した帰属度推定部の構成を示す機能ブロック図である。
【図4】図1に示した配置部の構成を示す機能ブロック図である。
【図5】図1に示したトピックモデル推定部の構成を示す機能ブロック図である。
【図6】本実施形態に係るトピック可視化方法(PLSV)による可視化結果の正答率を従来法と比較して示すグラフである。
【図7】本実施形態に係るトピック可視化方法(PLSV)による可視化結果を従来法と比較して示す図である。
【図8】従来法による可視化結果を示す図である。
【符号の説明】
【0081】
1 トピック可視化装置
2 演算手段
3 入力手段
4 記憶手段
5 出力手段
11 バスライン
21 帰属度推定部(帰属度推定処理手段)
211 パラメータ読込部
212 帰属度計算部
213 帰属度書込部
22 配置部(配置処理手段)
221 パラメータ読込部
222 配置計算部
223 配置書込部
23 トピックモデル推定部(トピックモデル推定処理手段)
231 パラメータ読込部
232 トピックモデル計算部
233 トピックモデル書込部
24 可視化部(可視化処理手段)
25 メモリ
40a プログラム格納部
40b データ格納部
41 帰属度推定プログラム
42 配置プログラム
43 トピックモデル推定プログラム
44 可視化プログラム
45 入力データ
46 帰属度集合
47 文書座標集合
48 トピック座標集合
49 単語出現確率集合

【特許請求の範囲】
【請求項1】
意味が付与された記号単位から成る系列を内容として含むデータであって前記記号単位を離散値のベクトルとして表現することが可能なデータを、前記データの集合において予め定められた複数のトピックのうち前記データに内在するトピックと共に、予め定められた空間において可視化するトピック可視化装置において、
可視化対象とする前記データの集合、前記空間において前記データの位置を示すデータ座標の集合、前記空間においてトピックの位置を示すトピック座標の集合、前記データのトピックにおいて前記データ座標の集合で扱う各記号単位が前記トピックにおいて出現する確率であるトピックモデルの集合、および、前記データのトピックにおいて前記データ座標の集合で扱う各記号単位が前記予め定められた複数のトピックのうちどのトピックに帰属するかを表す帰属度の集合を記憶した記憶手段と、
前記記憶手段に記憶されている、前記データ座標の集合、前記トピック座標の集合および前記トピックモデルの集合について入力をそれぞれ受け付け、前記帰属度を推定し、前記記憶手段に更新して格納する帰属度推定処理手段と、
前記記憶手段に記憶されている、前記帰属度の集合、前記データ座標の集合、前記トピック座標の集合および前記トピックモデルの集合について入力を受け付け、前記入力として受け付けた各集合に対して前記データ座標の集合および前記トピック座標の集合を最適化させるために予め定められた目的関数により、前記データ座標の集合および前記トピック座標の集合を推定し、前記記憶手段に更新して格納する配置処理手段と、
前記記憶手段に記憶されている、可視化対象とする前記データの集合について入力を受け付け、前記受け付けた前記データの集合により、前記トピックモデルの集合を推定し、前記記憶手段に更新して格納するトピックモデル推定処理手段と、
前記帰属度を推定する処理と、前記データ座標の集合および前記トピック座標の集合を推定する処理と、前記トピックモデルの集合を推定する処理との一連の処理を繰り返すことで、前記データの集合に対して、前記データ座標の集合、前記トピック座標の集合および前記トピックモデルの集合が最適化した場合に、前記記憶手段に記憶されている前記データ座標の集合を出力する可視化処理手段と、
を備えることを特徴とするトピック可視化装置。
【請求項2】
前記帰属度推定処理手段は、前記帰属度として、前記データ座標がトピックに帰属する確率として推定されるトピック帰属確率と、前記トピックモデルの集合から推定されるトピック帰属度との双方を考慮した帰属度を推定して前記記憶手段に更新して格納し、
前記トピックモデル推定処理手段は、前記データの集合と共に前記記憶手段にその時点で記憶されている前記帰属度の集合について入力を受け付け、前記受け付けた帰属度で前記データの集合に重みをつけることにより、前記トピックモデルの集合を推定して前記記憶手段に更新して格納する、
ことを特徴とする請求項1に記載のトピック可視化装置。
【請求項3】
意味が付与された記号単位から成る系列を内容として含むデータであって前記記号単位を離散値のベクトルとして表現することが可能なデータを、前記データの集合において予め定められた複数のトピックのうち前記データに内在するトピックと共に、予め定められた空間において可視化するために、
可視化対象とする前記データの集合、前記空間において前記データの位置を示すデータ座標の集合、前記空間においてトピックの位置を示すトピック座標の集合、前記データのトピックにおいて前記データ座標の集合で扱う各記号単位が前記トピックにおいて出現する確率であるトピックモデルの集合、および、前記データのトピックにおいて前記データ座標の集合で扱う各記号単位が前記予め定められた複数のトピックのうちどのトピックに帰属するかを表す帰属度の集合を記憶した記憶手段と、帰属度推定処理手段と、配置処理手段と、トピックモデル推定処理手段と、可視化処理手段とを備えたトピック可視化装置におけるトピック可視化方法であって、
前記トピック可視化装置は、
前記帰属度推定処理手段によって、前記記憶手段に記憶されている、前記データ座標の集合、前記トピック座標の集合および前記トピックモデルの集合について入力をそれぞれ受け付け、前記帰属度を推定し、前記記憶手段に更新して格納する帰属度推定処理ステップと、
前記配置処理手段によって、前記記憶手段に記憶されている、前記帰属度の集合、前記データ座標の集合、前記トピック座標の集合および前記トピックモデルの集合について入力を受け付け、前記入力として受け付けた各集合に対して前記データ座標の集合および前記トピック座標の集合を最適化させるために予め定められた目的関数により、前記データ座標の集合および前記トピック座標の集合を推定し、前記記憶手段に更新して格納する配置処理ステップと、
前記トピックモデル推定処理手段によって、前記記憶手段に記憶されている、可視化対象とする前記データの集合について入力を受け付け、前記受け付けた前記データの集合により、前記トピックモデルの集合を推定し、前記記憶手段に更新して格納するトピックモデル推定処理ステップと、
前記可視化処理手段によって、前記帰属度を推定する処理と、前記データ座標の集合および前記トピック座標の集合を推定する処理と、前記トピックモデルの集合を推定する処理との一連の処理を繰り返すことで、前記データの集合に対して、前記データ座標の集合、前記トピック座標の集合および前記トピックモデルの集合が最適化した場合に、前記記憶手段に記憶されている前記データ座標の集合を出力する可視化処理ステップと、
を含んで実行することを特徴とするトピック可視化方法。
【請求項4】
前記トピック可視化装置は、
前記帰属度推定処理ステップにて、前記帰属度推定処理手段によって、前記帰属度として、前記データ座標がトピックに帰属する確率として推定されるトピック帰属確率と、前記トピックモデルの集合から推定されるトピック帰属度との双方を考慮した帰属度を推定して前記記憶手段に更新して格納し、
前記トピックモデル推定処理ステップにて、前記トピックモデル推定処理手段によって、前記データの集合と共に前記記憶手段にその時点で記憶されている前記帰属度の集合について入力を受け付け、前記受け付けた帰属度で前記データの集合に重みをつけることにより、前記トピックモデルの集合を推定して前記記憶手段に更新して格納する、
ことを特徴とする請求項3に記載のトピック可視化方法。
【請求項5】
請求項1または請求項2に記載のトピック可視化装置を構成する各手段として、コンピュータを機能させることを特徴とするトピック可視化プログラム。
【請求項6】
請求項5に記載のトピック可視化プログラムが記録されたことを特徴とするコンピュータ読み取り可能な記録媒体。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate


【公開番号】特開2009−271874(P2009−271874A)
【公開日】平成21年11月19日(2009.11.19)
【国際特許分類】
【出願番号】特願2008−124169(P2008−124169)
【出願日】平成20年5月12日(2008.5.12)
【出願人】(000004226)日本電信電話株式会社 (13,992)
【Fターム(参考)】