説明

信号識別装置の学習データの選択方法

【課題】競合学習型ニューラルネットの学習に用いる学習データを適正化することにより、信号識別装置のカテゴリの分類精度を高める。
【解決手段】機器Xの動作により生じる振動成分を含んだ対象信号の特徴量を用いて機器Xの異常の有無を競合学習型ニューラルネットワーク1により判断する。学習データ記憶部6にはカテゴリが正常とみなされる複数個のデータからなるデータセットが格納されており、このデータセットで競合学習型ニューラルネットワーク1を学習させる。学習データ選択部4は、学習後の競合学習型ニューラルネットワーク1の出力層のうち発火したニューロンの重みベクトルと各データの乖離度をそれぞれ求める。データセットのデータから求めた乖離度の平均値が平均閾値より小さくかつ乖離度の分散値が分散閾値より小さくなるまで、乖離度が規定の乖離度閾値以上であるデータをデータセットから削除する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、競合学習型ニューラルネットワークを用いて振動成分を含む対象信号を分類する信号識別装置において、集めたデータの中から競合学習型ニューラルネットワークの学習に適した学習データを選び出す信号識別装置の学習データの選択方法に関するものである。
【背景技術】
【0002】
従来から、ニューラルネットワーク(ニューロコンピュータ)の分類機能を利用することにより、振動成分を含む対象信号を分類する技術が知られている。この種の技術は、音声の認識や機器が正常に動作しているか機器に異常が生じているかを判定する異常監視装置などに用いられている。たとえば、この種の技術を採用した異常監視装置では、機器の動作音や機器の振動をセンサ部(トランスデューサ)により電気信号に変換してセンサ部の出力を対象信号に用い、対象信号について複数個のパラメータからなる特徴量を抽出し、この特徴量をニューラルネットワークで分類する技術が種々提案されている。
【0003】
ニューラルネットワークには種々の構成が知られており、たとえば、競合学習型ニューラルネットワーク(自己組織化マップ=SOM)を用いて特徴量のカテゴリを分類することが提案されている。競合学習型ニューラルネットワークは、入力層と出力層との2層からなるニューラルネットワークであり、学習モードと検査モードとの2動作を行う。
【0004】
学習モードでは、教師信号を用いずに学習データを与える。学習データにカテゴリを与えておけば、出力層のニューロンにカテゴリを対応付けることができ、同種のカテゴリに属するニューロンからなるクラスタを形成することができる。したがって、学習モードでは、出力層のニューロンのクラスタにカテゴリを示すクラスタリングマップを対応付けることができる。
【0005】
検査モードでは、分類しようとする特徴量(入力データ)を学習済みの競合学習型ニューラルネットワークに与え、クラスタリングマップにおいて発火したニューロンが属するクラスタのカテゴリをクラスタリングマップに照合することによって、入力データのカテゴリを分類することができる(たとえば、特許文献1参照)。
【特許文献1】特開2004−354111号公報
【発明の開示】
【発明が解決しようとする課題】
【0006】
ところで、競合学習型ニューラルネットワークでは、教師信号を用いていないから、学習モードにおいて入力される学習データのカテゴリの精度により、検査モードの際のカテゴリの分類の精度が決定される。すなわち、学習モードにおいて使用する学習データとして適正なものを採用する必要があるが、学習データの選別には適切な基準が存在しない。したがって、競合学習型ニューラルネットワークにおける出力層の1つのニューロンが複数のカテゴリの学習データで発火する場合が生じる。言い換えると、適切な学習データを用いて学習しなければ、発火したときにカテゴリを決定できないニューロンが出力層に含まれるという問題が生じる。
【0007】
本発明は上記事由に鑑みて為されたものであり、その目的は、競合学習型ニューラルネットの学習に用いる学習データを適正化することにより、信号識別装置のカテゴリの分類精度を高める信号識別装置の学習データの選択方法を提供することにある。
【課題を解決するための手段】
【0008】
請求項1の発明は、振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、特徴抽出部により抽出した特徴量を入力データとし学習データを用いてあらかじめ学習したカテゴリに従って入力データを分類する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークによる分類結果を出力する出力部と、単一のカテゴリに分類されることが期待される複数個のデータからなるデータセットのうち学習データとして採用するデータを選択する学習データ選択部とを備える信号識別装置における学習データの選択方法であって、前記データーセットを用いて競合学習型ニューラルネットワークの学習を行うことにより競合学習型ニューラルネットワークにおける出力層の各ニューロンにそれぞれ重み係数の組を要素とする重みベクトルを設定した後、学習データ選択部において、前記データセットの各データと競合学習型ニューラルネットワークの出力層のうち発火したニューロンの重みベクトルとの差分ベクトルの大きさを乖離度として各データについて求め、乖離度の平均値と分散値とがそれぞれに対して規定した平均閾値以上かつ分散閾値以上であるときに乖離度が規定の乖離度閾値以上になるデータをデータセットから削除するデータ選別処理を行い、データセットに含まれるデータから求められる乖離度の平均値が平均閾値より小さくかつ乖離度の分散値が分散閾値より小さくなるまでデータ選別処理を行う処理を繰り返すことを特徴とする。
【0009】
この方法によれば、データセットに含まれるデータについて期待されるカテゴリへの帰属の程度を評価することができ、他のカテゴリに帰属する可能性のあるデータを除外することができる。つまり、学習に用いるデータセットのうち競合学習型ニューラルネットワークの出力層の各ニューロンに設定した重みベクトルとの乖離度が大きいデータについてはデータセットから削除するから、期待するカテゴリに帰属しないカテゴリ違いのデータやデータセットを構成するデータを収集する際に突発的に雑音として混入するデータなどをデータセットから除去することができ、学習データとして用いるデータセットに含まれるデータのカテゴリの精度を高めることができる。つまり、入力データを分類する際の精度を高めることができる。
【0010】
請求項2の発明は、振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、特徴抽出部により抽出した特徴量を入力データとし学習データを用いてあらかじめ学習したカテゴリに従って入力データを分類する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークによる分類結果を出力する出力部と、単一のカテゴリに分類されることが期待される複数個のデータからなるデータセットのうち学習データとして採用するデータを選択する学習データ選択部とを備える信号識別装置における学習データの選択方法であって、前記データーセットを用いて競合学習型ニューラルネットワークの学習を行うことにより競合学習型ニューラルネットワークにおける出力層の各ニューロンにそれぞれ重み係数の組を要素とする重みベクトルを設定した後、学習データ選択部において、競合学習型ニューラルネットワークの出力層の各ニューロンごとに他のニューロンとの間の重みベクトルのユークリッド距離について最小値と総和とのいずれか一方を求め、求めた最小値と総和との一方が規定の閾値以上であるときにそのニューロンを発火させたすべてのデータをデータセットから削除するカテゴリ選別処理を行い、競合学習型ニューラルネットワークの出力層のすべてのニューロンについてカテゴリ選別処理を行った後、前記データセットの各データと競合学習型ニューラルネットワークの出力層のうち発火したニューロンの重みベクトルとの差分ベクトルの大きさを乖離度として各データについて求め、乖離度の平均値と分散値とがそれぞれに対して規定した平均閾値以上かつ分散閾値以上であるときに乖離度が規定の乖離度閾値以上になるデータをデータセットから削除するデータ選別処理を行い、データセットに含まれるデータから求められる乖離度の平均値が平均閾値より小さくかつ乖離度の分散値が分散閾値より小さくなるまでデータ選別処理を行う処理を繰り返すことを特徴とする。
【0011】
この方法によれば、請求項1の発明と同様にデータ選別処理を行うから請求項1の発明と同様の作用を奏する上に、カテゴリ選別処理を行うことによりカテゴリ違いのデータによって発火したニューロンについては、そのニューロンを発火させたデータを削除することで、期待されるカテゴリとは異なるカテゴリのデータが学習データに用いられるのを防止することができる。言い換えると、カテゴリの異なるデータにより発火したニューロンが、期待されるカテゴリのニューロンと誤認されることを回避できる。
【0012】
請求項3の発明は、振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、特徴抽出部により抽出した特徴量を入力データとし学習データを用いてあらかじめ学習したカテゴリに従って入力データを分類する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークによる分類結果を出力する出力部と、単一のカテゴリに分類されることが期待される複数個のデータからなるデータセットのうち学習データとして採用するデータを選択する学習データ選択部とを備える信号識別装置における学習データの選択方法であって、学習データ選択部において、データセットに含まれるすべてのデータについて相互間のユークリッド距離を求め、データセットの全データを対象にして求めたユークリッド距離の平均値および分散値を第1の平均値および第1の分散値とし、データセットから着目する1個のデータを除外した残りのデータを対象にして求めたユークリッド距離の平均値および分散値を第2の平均値および第2の分散値とし、第1の平均値と第2の平均値との差分が規定の第1の閾値以上、かつ第1の分散値と第2の分散値との差分が規定の第2の閾値以上、かつ第2の平均値が第1の平均値以下、かつ第2の分散値が第1の分散値以下という条件を満たすときに、着目した1個のデータをデータセットから削除するデータ除去処理を行い、データセットに含まれるすべてのデータについて削除するデータがなくなるまでデータ除去処理を行う処理を繰り返すことを特徴とする。
【0013】
請求項1、請求項2の発明では、競合学習型ニューラルネットワークをデータセットに含まれるデータで学習させているが、この方法によれば、データセットに含まれるデータを用いて競合学習型ニューラルネットワークを学習させる必要がなく、データセットに含まれるデータ自身を用いて学習データとしての適否を評価することができるから、データセットに含まれるデータのうちで学習データとして使用するデータを選択する際に競合型ニューラルネットワークを動作させる必要がなく、少ない処理負荷で学習データを短時間で選別することができる。また、請求項1、請求項2の発明と同様に、学習データから期待するカテゴリに帰属しないカテゴリ違いのデータや突発的に雑音として混入するデータなどをデータセットから削除することができるから、入力データを分類する際の精度を高めることができる。
【発明の効果】
【0014】
本発明の方法によれば、データセットに含まれるデータについて期待されるカテゴリへの帰属の程度を評価して他のカテゴリに帰属する可能性のあるデータを除外することができるという利点がある。その結果、期待するカテゴリに帰属しないカテゴリ違いのデータやデータセットを構成するデータを収集する際に突発的に雑音として混入するデータなどをデータセットから除去することができ、学習データとして用いるデータセットに含まれるデータのカテゴリの精度を高め、入力データを分類する際の精度を高めることができるという利点がある。
【発明を実施するための最良の形態】
【0015】
以下に説明する実施形態では、機器の動作によって得られる対象信号の特徴量によって機器の動作が正常か異常かを判別する異常監視装置に本発明の技術を採用する例を示す。つまり、信号識別装置として異常監視装置を例示する。また、機器としてはモータのような動力源を備える設備機器を想定するが、機器の種類はとくに問わない。
【0016】
(実施形態1)
本実施形態で説明する信号識別装置は、図1に示すように、教師なしの競合学習型ニューラルネットワーク(以下、単に「ニューラルネット」と呼ぶ)1を用いている。ニューラルネット1は、図2に示すように、それぞれ入力層11と出力層12との2層からなり、出力層12の各ニューロンN2が入力層11のすべてのニューロンN1とそれぞれ結合された構成を有している。ニューラルネット1は、逐次処理型のコンピュータで適宜のアプリケーションプログラムを実行することにより実現する場合を想定しているが、専用のニューロコンピュータを用いることも可能である。
【0017】
ニューラルネット1の動作には、学習モードと検査モードとがあり、学習モードにおいて適宜の学習データを用いて学習した後に、検査モードにおいて実際の対象信号から生成した複数のパラメータからなる特徴量(入力データ)のカテゴリを分類する。
【0018】
入力層11のニューロンN1と出力層12のニューロンN2との結合度(重み係数)は可変であり、学習モードにおいて、学習データをニューラルネット1に入力することによりニューラルネット1を学習させ、入力層11の各ニューロンN1と出力層12の各ニューロンN2との重み係数を決める。言い換えると、出力層12の各ニューロンN2には、入力層11の各ニューロンN1との間の重み係数を要素とする重みベクトルが対応付けられる。したがって、重みベクトルは入力層11のニューロンN1と同数の要素を持ち、入力層11に入力される特徴量のパラメータの個数と重みベクトルの要素の個数とは一致する。
【0019】
一方、検査モードでは、カテゴリを判定すべき入力データをニューラルネット1の入力層11に与えると、出力層12のニューロンN2のうち、重みベクトルと入力データとのユークリッド距離が最小であるニューロンN2が発火する。学習モードにおいて出力層12のニューロンN2にカテゴリが対応付けられていれば、発火したニューロンN2の位置のカテゴリによって入力データのカテゴリを知ることができる。
【0020】
出力層12のニューロンN2には、たとえば6×6個の領域を有する2次元のクラスタリングマップ5の各領域に一対一に対応付けられている。したがって、学習モードにおいて、クラスタリングマップ5の各領域に学習データのカテゴリを対応付けておけば、入力データにより発火したニューロンN2に対応するカテゴリをクラスタリングマップ5により知ることができるから、クラスタリングマップ5はニューラルネット1による分類結果を出力する出力部として機能する。
【0021】
クラスタリングマップ5の各領域(実質的には出力層12の各ニューロンN2)には後述する手順でカテゴリを対応付ける。また、本実施形態では、説明を簡単にするために、ニューラルネット1で分類すべきカテゴリは正常と異常との2種類としており、本実施形態では、学習モードにおいて正常のカテゴリの学習データのみを入力する。出力層12の各ニューロンN2のカテゴリには、学習データのカテゴリが反映され、多数個(たとえば、150個)の学習データを与えると、類似度の高いカテゴリがクラスタリングマップ5上で近い位置に配置される。つまり、特徴量の似通った学習データが発火させるニューロンN2は、クラスタリングマップ5の上で近い位置に配置される。
【0022】
したがって、出力層12のニューロンN2のうち同種のカテゴリに属する学習データに対応して発火したニューロンN2は、クラスタリングマップ5上で近い位置に集まりニューロンN2の集合からなるクラスタを形成する。学習モードでニューラルネット1に与えられる学習データは学習データ記憶部6に格納されており、必要に応じて学習データ記憶部6から読み出されてニューラルネット1に与えられる。
【0023】
ところで、ニューラルネット1により分類する対象信号は、機器Xから得られる電気信号であって、たとえば、機器Xの動作音を検出するマイクロホン2aと、機器Xの動作時に生じる振動を検出する振動センサ2bとの少なくとも一方からなるセンサ部2の出力を用いる。センサ部2の構成は機器Xの種類に応じて適宜に選択され、マイクロホン2a、振動センサ2bのほか、TVカメラ、匂いセンサなどの各種のセンサを単独または組み合わせて用いることができる。あるいはまた、機器Xが発生する信号を取り出して対象信号に用いることも可能である。センサ部2は機器Xの動作により生じる対象信号を取り込むから、信号入力部として機能する。
【0024】
センサ部2で得られた電気信号である対象信号は、特徴抽出部3に与えられ対象信号の特徴量が抽出される。本実施形態では、センサ部2から特徴抽出部3に与えられる対象信号は振動成分を含む信号であって、特徴抽出部3に入力されることにより対象信号の振動成分を表す複数のパラメータを持つ特徴量が抽出される。
【0025】
特徴抽出部3では、機器Xが発生する対象信号から同じ条件で特徴量を抽出するために、まず機器Xの動作に同期したタイミング信号(トリガ信号)を用いたり、対象信号の波形の特徴(たとえば、ひとまとまりの対象信号の開始点と終了点)を用いたりすることによって、対象信号の切り出し(セグメンテーション)を行った後、適宜の単位時間ごとの信号に分割し、単位時間毎に特徴量を抽出する。したがって、特徴抽出部3はセンサ部2から与えられる対象信号を一時的に記憶するバッファを備える。また、特徴抽出部3では、必要に応じて周波数帯域を制限するなどして、ノイズを低減させる前処理を行う。さらに、センサ部2から出力される対象信号をデジタル信号に変換する機能も備える。
【0026】
説明を簡単にするために、ここでは、セグメンテーションを行った後の対象信号の振動成分から複数の周波数成分(周波数帯域ごとのパワー)を抽出し、各周波数成分をパラメータとして特徴量に用いるものとして説明する。周波数成分の抽出には、FFT(高速フーリエ変換)の技術、あるいは多数個のバンドパスフィルタからなるフィルタバンクを用いる。どの周波数成分を特徴量に用いるかは、対象とする機器Xや抽出しようとする異常に応じて適宜に選択される。
【0027】
特徴抽出部3から単位時間毎に得られた特徴量は、特徴量の抽出のたびにニューラルネット1に与えられる。また、特徴量は学習データとしても用いるために学習データ記憶部6にも格納される。学習データ記憶部6はFIFO(先入れ先出し)であって、最大で、たとえば150個の特徴量が学習データとして保持されるようになっている。
【0028】
以下では、本発明の特徴である学習データ選択部4について説明する。学習データ記憶部6には正常のカテゴリに分類されることが期待される多数個の学習データが格納されるが、学習データ記憶部6に格納されている学習データは機器Xを動作させることにより収集したものであるから、学習データを収集した時点で機器Xが正常な動作であったか否かは必ずしも保証されておらず、また環境音や突発的な雑音が学習データに混入している可能性もある。したがって、各学習データに対応付けたカテゴリは、必ずしも適正であるとは限らない。
【0029】
そこで、本実施形態では、学習データ選択部4を設け、学習データ記憶部6に格納されたデータをニューラルネット1に与えたときの結果を評価し、その評価によって学習データ記憶部6に格納されているデータから学習に適したデータを選別することにより、適正な学習データのみが学習データ記憶部6に残るようにしている。
【0030】
ここでは、学習データ記憶部6に格納されているデータの集合をデータセットと呼び、データセットを構成している各データはそれぞれ特定のカテゴリ(つまり、正常のカテゴリ)に分類されることが期待されているものとする。つまり、各データにはカテゴリが対応付けられているものとする。データセットは、学習データ記憶部6に格納されたデータの全体であることを想定しているが、学習データ記憶部6に複数のデータセットを格納してもよい。また、データセットを構成するデータの個数は学習データ記憶部6に格納可能な範囲内で任意である。
【0031】
本実施形態では、学習データ選択部4において、図3に示す手順の処理を行うことにより、学習データ記憶部6に格納されたデータセットから学習データとしては不適なデータを削除する。すなわち、まずニューラルネット1を学習モードとして、学習データ記憶部6に格納されているデータセットに含まれるすべてのデータを用いてニューラルネット1の学習を行う(S1)。この処理によって、ニューラルネット1の出力層12における各ニューロンN2にはそれぞれ重みベクトルが設定される。
【0032】
次に、学習データ選択部4では、ニューラルネット1に与えたデータセットの各データとニューラルネット1の出力層12の各ニューロンN2のうち発火したニューロンN2との乖離度を各データについて求める(S2)。つまり、乖離度は、ニューラルネット1に与えた入力データ(ベクトル)と、当該入力データにより発火したニューロンN2に対応付けた重みベクトルとの差分ベクトルの大きさを反映する値であって、入力データを[X]、発火したニューロンN2の重みベクトルを[Wwin]とすれば([a]はaがベクトルであることを意味している)、乖離度Yは次式で定義される。
Y=([X]/X−[Wwin]/Wwin)([X]/X−[Wwin]/Wwin)
ここにTは転置を表し、角付き括弧を付与していないX,Wwinは各ベクトルのノルムを表す。各ベクトルの要素をノルムで除算していることにより、乖離度Yは正規化されている。
【0033】
上述のように、各データごとに乖離度が求められるから、データの個数分の乖離度が得られる。得られた乖離度については平均値と分散値とを求め(S3)、平均値を規定した平均閾値と比較し、分散値を規定した分散閾値と比較する(S4)。平均閾値および分散閾値はそれぞれ使用者が適宜に設定する。ここで、乖離度の平均値が平均閾値より小さく、また乖離度の分散値が分散閾値よりも小さければ、カテゴリが適正に設定されているものとして学習モードを終了する(S5)。
【0034】
一方、乖離度の平均値が平均閾値以上または分散値が分散閾値以上であるときには、カテゴリが適正ではないデータが学習データに混入しているものと判断し、データセットに含まれる各データを1個ずつ選択し(S6)、選択したデータについて求めた乖離度を規定の乖離度閾値と比較する(S7)。乖離度が乖離度閾値以下の場合には当該データを学習データとして採用し、乖離度が乖離度閾値以上である場合には当該データをデータセットから削除する(S8)。ステップS6〜S9の処理はデータセットに含まれるすべてのデータについて行う(S9)。
【0035】
上述したステップS1〜S9の処理はデータ選別処理と呼び、データ選別処理は、データセットに含まれるデータから求められる乖離度の平均値が平均閾値より小さくなり、かつ乖離度の分散値が分散閾値より小さくなるまで繰り返される。つまり、ステップS4において学習モードの終了(S5)に分岐するまで繰り返される。
【0036】
上述したデータ選別処理を行うことにより、正常のカテゴリのデータ群から逸脱するデータをデータセットから除外することができる。また、正常のカテゴリに属さないデータや環境音あるいは雑音により生じたデータを除去したデータによってニューラルネット1の学習が行われるから、学習モードの終了時点ではニューラルネット1が適正なデータで学習されていることになる。その結果、検査モードにおいて入力データを精度よく分類することが可能になる。
【0037】
なお、上述した例では、カテゴリを正常のみとしたが、他のカテゴリであってもよく、また複数のカテゴリについて学習させる場合には、各データセットのデータを1種類のカテゴリに対応付けてあればよい。したがって、1種類のカテゴリに対応付けた複数のデータセットを用い、各データセットごとに上述した学習を行えば複数のカテゴリについてニューラルネット1の学習を行うことができる。
【0038】
(実施形態2)
実施形態1は、学習時における入力データとニューラルネット1において発火したニューロンN2との関係のみを評価しているが、本実施形態はニューラルネット1の出力層12においてカテゴリの類似するニューロンN2の距離が近くに配置されることに着目し、出力層12のニューロンN2の関係についても評価を行うものである。
【0039】
学習データ記憶部6に格納されたデータセットを用いてニューラルネット1を学習させるのは実施形態1と同様である。図4に示すように、ニューラルネット1の学習後に(S1)、学習データ選択部4では、ニューラルネット1の出力層12のすべてのニューロンN2を対象として、他のニューロンN2との重みベクトルのユークリッド距離を求める(S2)。ここで、実際の演算にあたっては2つのニューロンN2の重みベクトルの差分の2乗をユークリッド距離に代用する(つまり、符号を無視するためにユークリッド距離の2乗を用いる)。
【0040】
次に、各ニューロンN2ごとに、求めたユークリッド距離(ユークリッド距離の2乗)の最小値と総和との一方を求める(S3)。各ニューロンN2について、ユークリッド距離の2乗が最小になるニューロンN2はカテゴリの類似の程度がもっとも高いニューロンN2を意味しており、またユークリッド距離の2乗の総和が最小になることはカテゴリの類似の程度の高いニューロンが分散せずに集中して存在していることを意味する
したがって、各ニューロンN2について、ステップS3で求めた最小値または総和を規定した閾値と比較し(S5)、閾値以上であるときにはカテゴリが適切に設定されていないニューロンN2であるとみなして、当該ニューロンN2を発火させたデータをすべてデータセットから削除する(S6)。ステップS5、S6の処理をカテゴリ選別処理と呼び、カテゴリ選別処理をニューラルネット1の出力層12のすべてのニューロンN2について行う(S4,S7)。ステップS6においてデータセットからデータを削除した場合には、残されたデータからなるデータセットを用いてステップS1の学習が再度行われる(S8)。
【0041】
また、ステップS6においてデータセットからデータを削除しなかった場合には、実施形態1と同様のデータ選別処理を行い(S9〜S17)、カテゴリが逸脱しているデータをデータセットから除去する。
【0042】
本実施形態の方法を採用すれば、ニューラルネット1の出力層12におけるニューロンN2のカテゴリの近接度によってデータセットのデータを評価するから、正常のカテゴリに属するニューロンN2が分散することがなく、クラスタリングマップ13において正常のカテゴリに属するニューロンN2の存在位置を集中させることができる。さらに、カテゴリ選別処理を前処理として、カテゴリの曖昧なデータをデータセットから取り除いた後に、実施形態1と同様のデータ選別処理を行うから、正常のカテゴリに属していない環境音や雑音により生じたデータも除去され、実施形態1よりもさらに適正なデータによる学習が可能になる。実施形態1と同様にカテゴリは正常のみではなく、他のカテゴリであってもよく、複数のカテゴリについて学習させることも可能である。他の構成および動作は実施形態1と同様である。
【0043】
(実施形態3)
上述した実施形態1、実施形態2ではニューラルネット1を学習させ、出力層12のニューロンN2に重みベクトルを対応付けた後に、カテゴリの評価を行うようにしているが、本実施形態では、学習データ記憶部6に格納されているデータセット自身を評価することにより、学習に用いるデータを適正化する技術を例示する。
【0044】
本実施形態では、図5に示すように、学習データ選択部4において、まず学習データ記憶部6に格納されているデータセットに含まれるすべてのデータについて相互間のユークリッド距離を求める(S1)。ユークリッド距離は、符号を無視するために実際にはデータ間の差の2乗を用いる。
【0045】
次に、データセットの全データを対象にしてユークリッド距離(ユークリッド距離の2乗)の平均値および分散値を求め、それぞれ第1の平均値と第1の分散値とする(S2)。さらに、データセットから着目する1個のデータを除外し(S3)、残りのデータを対象にしてユークリッド距離(ユークリッド距離の2乗)の平均値および分散値を求め、それぞれ第2の平均値と第2の分散値とする(S4)。ここで、除外したデータが同じカテゴリに属している場合には、第1の平均値と第2の平均値との差は小さく、第1の分散値と第2の分散値との差も小さいと推定できる。
【0046】
そこで、第1の平均値と第2の平均値との差分と、第1の分散値と第2の分散値との差分とを求め(S5)、各差分のうちの一方でも各差分について規定した第1および第2の閾値以上であれば除外したデータは適正ではないと推定することができる(S6)。ただし、この条件が満たされる場合でも、適正なデータである可能性も残されているから、さらに第2の平均値が第1の平均値以下(S7)、かつ第2の分散値が第1の分散値以下(S8)という条件を満たすときに、除外したデータは正常のカテゴリに属していないデータであると判断してデータセットから削除する(S9)。ステップS6〜S8のいずれか1つでも条件が満たされない場合には、除外したデータを削除せず、学習に適したデータとみなす。ステップS3〜S9の処理をデータ除去処理と呼ぶ。
【0047】
ステップS9においてデータが削除された場合には、第2の平均値および第2の分散値を第1の平均値および第1の分散値に読み替え(S10)、ステップS3に戻って別のデータを除外し、すべてのデータについてデータ除去処理を繰り返す(S11)。さらに、ステップS9においてデータを削除した場合には、ステップS1に戻って上述の処理を繰り返し、削除されるデータがなくなるまでデータ除去処理を繰り返す(S12)。
【0048】
上述の処理により学習データ記憶部6に格納されたデータセットについて評価し、削除するデータがなくなれば、データセットのデータが適正化されたとみなして、ニューラルネット1の学習に用いる(S13)。
【0049】
本実施形態では、ニューラルネット1の学習前にデータセットに含まれるデータについて学習用のデータとしての適否を評価するから、実施形態1、実施形態2で説明した方法のように、ニューラルネット1を学習モードで何度も動作させる必要がなく、処理負荷を低減することができる。なお、本実施形態の他の構成および動作は実施形態1、2と同様であり、実施形態1、2の方法と本実施形態の方法とを組み合わせて用いることも可能である。
【図面の簡単な説明】
【0050】
【図1】本発明の各実施形態に共通するブロック図である。
【図2】同上に用いるニューラルネットの概略構成図である。
【図3】実施形態1の動作説明図である。
【図4】実施形態2の動作説明図である。
【図5】実施形態3の動作説明図である。
【符号の説明】
【0051】
1 ニューラルネット(競合学習型ニューラルネットワーク)
2 信号入力部
2a マイクロホン
2b 振動センサ
3 特徴抽出部
4 学習データ選択部
5 クラスタリングマップ(出力部)
6 学習データ記憶部
11 入力層
12 出力層
N1 ニューロン
N2 ニューロン
X 機器

【特許請求の範囲】
【請求項1】
振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、特徴抽出部により抽出した特徴量を入力データとし学習データを用いてあらかじめ学習したカテゴリに従って入力データを分類する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークによる分類結果を出力する出力部と、単一のカテゴリに分類されることが期待される複数個のデータからなるデータセットのうち学習データとして採用するデータを選択する学習データ選択部とを備える信号識別装置における学習データの選択方法であって、前記データーセットを用いて競合学習型ニューラルネットワークの学習を行うことにより競合学習型ニューラルネットワークにおける出力層の各ニューロンにそれぞれ重み係数の組を要素とする重みベクトルを設定した後、学習データ選択部において、前記データセットの各データと競合学習型ニューラルネットワークの出力層のうち発火したニューロンの重みベクトルとの差分ベクトルの大きさを乖離度として各データについて求め、乖離度の平均値と分散値とがそれぞれに対して規定した平均閾値以上かつ分散閾値以上であるときに乖離度が規定の乖離度閾値以上になるデータをデータセットから削除するデータ選別処理を行い、データセットに含まれるデータから求められる乖離度の平均値が平均閾値より小さくかつ乖離度の分散値が分散閾値より小さくなるまでデータ選別処理を行う処理を繰り返すことを特徴とする信号識別装置の学習データの選択方法。
【請求項2】
振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、特徴抽出部により抽出した特徴量を入力データとし学習データを用いてあらかじめ学習したカテゴリに従って入力データを分類する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークによる分類結果を出力する出力部と、単一のカテゴリに分類されることが期待される複数個のデータからなるデータセットのうち学習データとして採用するデータを選択する学習データ選択部とを備える信号識別装置における学習データの選択方法であって、前記データーセットを用いて競合学習型ニューラルネットワークの学習を行うことにより競合学習型ニューラルネットワークにおける出力層の各ニューロンにそれぞれ重み係数の組を要素とする重みベクトルを設定した後、学習データ選択部において、競合学習型ニューラルネットワークの出力層の各ニューロンごとに他のニューロンとの間の重みベクトルのユークリッド距離について最小値と総和とのいずれか一方を求め、求めた最小値と総和との一方が規定の閾値以上であるときにそのニューロンを発火させたすべてのデータをデータセットから削除するカテゴリ選別処理を行い、競合学習型ニューラルネットワークの出力層のすべてのニューロンについてカテゴリ選別処理を行った後、前記データセットの各データと競合学習型ニューラルネットワークの出力層のうち発火したニューロンの重みベクトルとの差分ベクトルの大きさを乖離度として各データについて求め、乖離度の平均値と分散値とがそれぞれに対して規定した平均閾値以上かつ分散閾値以上であるときに乖離度が規定の乖離度閾値以上になるデータをデータセットから削除するデータ選別処理を行い、データセットに含まれるデータから求められる乖離度の平均値が平均閾値より小さくかつ乖離度の分散値が分散閾値より小さくなるまでデータ選別処理を行う処理を繰り返すことを特徴とする信号識別装置の学習データの選択方法。
【請求項3】
振動成分を含む対象信号を取り込む信号入力部と、対象信号について複数のパラメータからなる特徴量を抽出する特徴抽出部と、特徴抽出部により抽出した特徴量を入力データとし学習データを用いてあらかじめ学習したカテゴリに従って入力データを分類する競合学習型ニューラルネットワークと、競合学習型ニューラルネットワークによる分類結果を出力する出力部と、単一のカテゴリに分類されることが期待される複数個のデータからなるデータセットのうち学習データとして採用するデータを選択する学習データ選択部とを備える信号識別装置における学習データの選択方法であって、学習データ選択部において、データセットに含まれるすべてのデータについて相互間のユークリッド距離を求め、データセットの全データを対象にして求めたユークリッド距離の平均値および分散値を第1の平均値および第1の分散値とし、データセットから着目する1個のデータを除外した残りのデータを対象にして求めたユークリッド距離の平均値および分散値を第2の平均値および第2の分散値とし、第1の平均値と第2の平均値との差分が規定の第1の閾値以上、かつ第1の分散値と第2の分散値との差分が規定の第2の閾値以上、かつ第2の平均値が第1の平均値以下、かつ第2の分散値が第1の分散値以下という条件を満たすときに、着目した1個のデータをデータセットから削除するデータ除去処理を行い、データセットに含まれるすべてのデータについて削除するデータがなくなるまでデータ除去処理を行う処理を繰り返すことを特徴とする信号識別装置の学習データの選択方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate


【公開番号】特開2008−59080(P2008−59080A)
【公開日】平成20年3月13日(2008.3.13)
【国際特許分類】
【出願番号】特願2006−232575(P2006−232575)
【出願日】平成18年8月29日(2006.8.29)
【出願人】(000005832)松下電工株式会社 (17,916)