情報処理装置及び方法
【課題】 入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置において、特徴量間の組合せの相性を考慮し、入力データの分類に適した特徴量を選択すること。
【解決手段】 入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置であって、
前記複数の特徴量を組合せることにより複数の組合せを生成する生成手段と、前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出手段と、前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を得る第二の算出手段とを有することを特徴とする。
【解決手段】 入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置であって、
前記複数の特徴量を組合せることにより複数の組合せを生成する生成手段と、前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出手段と、前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を得る第二の算出手段とを有することを特徴とする。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択する情報処理装置および、情報処理方法などに関する。
【背景技術】
【0002】
外観検査などの情報処理装置において、検査対象物を撮影した画像から画素値の平均や分散といった多数の特徴量群を抽出し、良否判定(良品と不良品の2クラス判別)するといった手法がある。しかし、多数の特徴量を全て使うと、特徴の次元が高次になってしまい、特有の次元において発生する問題(次元の呪い等)や、冗長な特徴量を抽出することによる処理時間の増大が発生してしまう。
【0003】
よって、適切な特徴量を選択することにより、特有の次元において発生する問題を起りにくくし、演算処理を高速化させることができる手法が重要視されつつある。
【0004】
以下に、非特許文献1に開示されている手法について説明する。非特許文献1では、特徴量それぞれに対して分離度を評価するための評価値を求め、その評価値の良い順に特徴量を選ぶ手法が開示されている。具体的には、ベイズ誤り確率推定値やクラス内分散・クラス間分散比を用いて、選択基準を決定する特徴選択手法がある。
【0005】
ベイズ誤り確率推定値について詳細に述べる。例えば2クラス問題の場合、2つのクラスをw1、w2とし、観測される特徴をx0=[x1,x2,・・・,xK,・・・,xN]とするときxKがw1、w2に属する確率をそれぞれP(w1|xK)、P(w2|xK)と表す。このときベイズ誤り確率推定値は
【0006】
【数1】
【0007】
で表され、これを全ての特徴量に関して求める。ベイズ誤り確率推定値は小さいほど、2クラスをより分離できる。よって、ベイズ誤り確率推定値が小さい順に特徴量を選択する。
【0008】
次に、クラス内分散・クラス間分散比について詳細に述べる。例えば2クラス問題の場合、2つのクラスをw1、w2とし、観測される特徴をx0=[x1,x2,・・・,xK,・・・,xN]とするとき、特徴量xkに関するクラス内分散・クラス間分散比を求める。またクラスwiに属するパターンの集合をAiとし、Aiに含まれるパターン数をni、クラスwiに属するパターンのxkの平均をmiとする。さらに、全パターン数をn、全パターンのxkの平均をmとする。このとき
【0009】
【数2】
【0010】
は、
【0011】
【数3】
【0012】
【数4】
【0013】
のように表せるので、クラス内分散・クラス間分散比は
【0014】
【数5】
【0015】
で表すことができる。このようにしてクラス内分散・クラス間分散比を求め、値が大きい順に特徴量を選択する。
【0016】
また非特許文献2に示されている手法は、遺伝子選択の分野において、特徴量を2個ずつ組合せて、2次元の特徴空間で評価して、特徴量を2個ずつ選択する手法である。2個ずつ特徴量を組合せる手法は、1個ずつ特徴量を選択するより精度の良い特徴選択が可能であると述べられている。
【先行技術文献】
【非特許文献】
【0017】
【非特許文献1】石井健一郎,上田修功,前田英作,村瀬洋,“わかりやすいパターン認識”,オーム社,東京,1998.
【非特許文献2】Trond Hellem Bo and Inge Jonassen,”New feature subset selection procedures for classification of expression profiles,”Genome Biology 2002年,第3巻(vol.3),no.4:research.
【発明の概要】
【発明が解決しようとする課題】
【0018】
しかしながら、前記のベイズ誤り確率推定値や一次元のクラス内分散・クラス間分散比により1個ずつ特徴選択を行う非特許文献1の手法は、特徴量間の組合せの相性を考慮して特徴量を評価しているわけではない。よって、結果として特有の次元において発生する問題を引き起こしやすくし、冗長な特徴量を抽出することによって演算処理速度を落とすことになるという課題があった。同様に、非特許文献2の手法は、あらかじめ組合せる数を設定し、特徴量の組合せを選択するものであり、特徴量間の組合せの相性を考慮して特徴量を評価しているわけではない。
【0019】
そこで本発明は、前述した課題を鑑みてなされたものであり、入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置において、特徴量間の組合せの相性を考慮し、入力データの分類に適した特徴量を選択することを目的とする。
【課題を解決するための手段】
【0020】
上述の目的の課題を解決するために、本発明の情報処理装置は、入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置であって、前記複数の特徴量を組合せることにより複数の組合せを生成する生成手段と、前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出手段と、前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を得る第二の算出手段とを有することを特徴とする。
【発明の効果】
【0021】
本発明によれば、特徴量間の組合せの相性を考慮し、入力データの分類に適した特徴量を選択することが出来る。
【図面の簡単な説明】
【0022】
【図1】第一の実施形態における情報処理装置の構成を示した図である。
【図2】第一の実施形態における情報処理装置101の情報処理を示すフローチャートである。
【図3】表面粗し加工を施したゴム板の表面を撮影し切り出した128×128画素のグレースケール画像の例を示す図である。
【図4】第二の実施形態における複数の特徴量を抽出する具体的な処理を示した図である。
【図5】n=2の場合における第二の評価値算出のアルゴリズムの概念を示した図である。
【図6】n=3の場合における第二の評価値算出のアルゴリズムの概念を示した図である。
【図7】第一の実施形態におけるスコア算出の処理フローチャートを示した図である。
【図8】第二の実施形態における情報処理装置101の情報処理を示すフローチャートである。
【図9】第二の実施形態におけるスコア算出の処理フローチャートを示した図である。
【図10】第三の実施形態における情報処理装置101の情報処理を示すフローチャートである。
【図11】第三の実施形態における第二の評価値を算出する処理の概要を示す図である。
【図12】第四の実施形態における処理フローを示す図である。
【図13】第四の実施形態におけるステップ1203の処理の詳細を示す図である。
【図14】1クラスw1のパターンがプロットされた特徴空間を示す図である。
【発明を実施するための形態】
【0023】
(第一の実施形態)
以下、図面を用いて第一の実施形態を詳細に説明する。
【0024】
図1は、第一の実施形態における情報処理装置の構成を示した図である。
【0025】
101は、本実施形態における外観検査のための情報処理を行う情報処理装置101である。情報処理装置101は、CPU(セントラルプロセッシングユニット)、RAM(ランダムアクセスメモリ)、HDD(ハードディスクドライブ)などから構成される。CPUは、外観検査のためのコンピュータプログラムを実行し、HDD、RAMには、外観検査のためのコンピュータプログラムおよびデータが格納される。
【0026】
102は、本実施形態において外観検査の対象となる検査対象物102である。検査対象物102は、例えば、工業製品に利用されるゴム板などである。ゴム板の表面には、凹凸やキズがあることがあり、外観検査によってこれらが検出され、良品と不良品とに分別される。
【0027】
103は、本実施形態において検査対象物102を撮像するための撮像装置103である。撮像装置103は、検査対象物102の表面のビデオ映像(画像パターン)を取得可能なビデオカメラなどから構成され、取得したビデオ映像を情報処理装置101に送信する。情報処理装置101は、送信されたビデオ映像を用いて外観検査のための情報処理を行う。
【0028】
104は、外観検査の検査結果を表示するための表示装置104である。表示装置104はモニタなどから構成され、情報処理装置101から送信される外観検査の結果を表示する。
【0029】
図2は、本実施形態における情報処理装置101の情報処理を示すフローチャートである。本実施形態では検査対象物102を撮影した画像を用いてパーツの良否判定(良品と不良品との2クラス判別)を行う外観検査において説明する。
【0030】
本実施形態における外観検査では、良品と不良品とを分別する2クラスが存在し、入力画像パターンから複数の階層画像を生成し、生成された複数の階層画像から複数の特徴量を抽出し、抽出された複数の特徴量から外観検査に適した特徴量を選択する。
【0031】
以下に図2のフローの概要を示す。なお、図2のフローで示す各処理は、情報処理装置101によりなされるものである。また、各処理の詳細については後述する。
(ステップ201)ステップ201では、撮像装置103から取得された入力画像パターンから、外観検査に用いる複数の特徴量の抽出を行う。
(ステップ202)ステップ202では、情報処理装置101が複数の組合せを生成する生成手段として機能し、ステップ201で抽出された複数の特徴量を用いて、n個(n≧2)ずつの特徴量の組合せを生成する。
(ステップ203)ステップ203では、情報処理装置101が入力画像データの分類への適合を評価する第一の評価値を算出する第一の算出手段として機能し、ステップ202において設定されたn個ずつの特徴量による複数の組合せそれぞれに対して第一の評価値を算出する。本実施形態における第一の評価値は、外観検査に適していることを示すものである。このとき、それぞれの特徴量に対して、その特徴量において第一の評価値が最も良い特徴量の組合せ(n個の特徴量からなる組合せ)を決定する。
(ステップ204)ステップ204では、情報処理装置101が第二の算出手段として機能し、複数の第一の評価値同士を比較することにより、入力画像データの分類への適合を評価する第二の評価値を計算する。
(ステップ205)ステップ205では、第二の評価値に基づくスコアを算出し、特徴選択基準を決定する。
(ステップ206)ステップ206では、さらにスコアが最も良い特徴量とステップ204で組合せた特徴量の組合せ(n個の特徴量の組合せ)を選択し、選択した以外の特徴量に対しては特徴選択基準で特徴選択を繰り返す。
【0032】
以下に図2の各処理の詳細について述べる。
【0033】
(ステップ201の処理の詳細(複数の特徴量の抽出))
ステップ201の処理の詳細について述べる。
【0034】
図3は、検査対象物102の一例である表面粗し加工を施したゴム板の表面を撮影し切り出した128×128画素のグレースケール画像の例を示す図である。
【0035】
図3(a)から(e)に正常なゴム板の表面を示し、(f)から(j)に異常なゴム板の表面を示す。(a)から(e)のような画像パターンを正常パターンとし、(f)から(j)のような画像パターンを異常パターンとする。(f)と(g)は、黒いスポット状のムラがあるパターンであり、(h)は、全体的にグラデーションがあるパターンであり、(i)は、白いスポット状のムラがあるパターンであり、(j)は、コントラストが一部低くなっているパターンである。本ステップでは、このようなパターンの特徴を表した複数の特徴量を算出する。
【0036】
図4は、本実施形態における複数の特徴量を抽出する具体的な処理を示した図である。
【0037】
本実施形態では、入力画像パターンとしてpn個の画像パターンを用いるが、これらの画像パターンに対し欠陥を強調するために、周波数ドメインへの変換手法であるウェーブレット変換を用いる。
【0038】
特に、図4は、ウェーブレット変換ひとつであるハール・ウェーブレット変換を示したものである。まず変換前の入力パターンに対して四種類のフィルターを用いて内積演算を行う。その結果、四種類のパターン、縦方向高周波成分抽出パターン(HL)、対角方向高周波成分抽出パターン(HH)、横方向高周波成分抽出パターン(LH)、低周波成分抽出パターン(LL)が生成される。縦方向高周波成分抽出パターンの生成方法を具体的に示す。図4のように入力パターンの4つの画素
【0039】
【数6】
【0040】
を縦方向高周波成分抽出パターンの画素の値とする。このような計算を4画素ずつすべての画像領域においてこれをオーバーラップすることなく行い、縦方向高周波成分抽出パターンを作る。対角方向高周波成分抽出パターンでは、
【0041】
【数7】
【0042】
を、横方向高周波成分パターンでは
【0043】
【数8】
【0044】
を、低周波成分抽出パターンでは
【0045】
【数9】
【0046】
をフィルターとして用いる。
【0047】
結果的に四種類のパターンを解像度二分の一で作り出す。さらに低周波成分抽出パターンから次のレベルのハール・ウェーブレット変換を行い、さらに解像度二分の一にした四種類のパターンを作り出すというように階層的に低い周波数へと変換していく。変換前のパターンは128×128画素なので、1回の変換で64×64画素、2回目の変換で、32×32画素、以降、16×16画素、8×8画素、4×4画素、2×2画素となり、最後の7回目の変換で1×1画素のパターンが生成される。つまり、最後に1×1画素の、縦方向高周波成分抽出パターン、対角方向高周波成分抽出パターン、横方向高周波成分抽出パターン、低周波成分抽出パターンが得られる。よって変換前のパターンを含めて1+4×7=29種類のパターンが得られる。
【0048】
このようにして得られた各階層のパターンそれぞれから、全画素値の最大値、平均、分散、尖度、歪度、相乗平均、といった6種類のマクロな特徴量を抽出する。マクロな特徴量として、画素値の平均を式5に、分散を式6に、尖度を式7に、歪度を式8、相乗平均を式9に示す。ただし、画像のサイズは縦a画素、横b画素の画像の縦i番目。横j番目の画素値をp(i,j)とし、pをヒストグラムで表したときのそれぞれのビンにおける番号をk、値をXk、度数をMkで表す。
【0049】
【数10】
【0050】
【数11】
【0051】
【数12】
【0052】
【数13】
【0053】
【数14】
【0054】
ハール・ウェーブレット変換を行っていない変換前の入力パターン、ハール・ウェーブレット変換をかけた各階層画像の29種類の画像から、最大値、及び式5から式9で示した6つの特徴量を抽出する。つまり計29種類の画像からマクロな特徴量を6種類ずつ抽出する。結果的に入力パターンごとに29×6=174個(以下N個とする)の特徴量を抽出する。なお入力パターンとして用いるpn個の全パターンからN個ずつの特徴量を抽出する。
【0055】
今回はハール・ウェーブレット変換を用いる手法について述べたが、その他のウェーブレット変換、エッジ抽出、フーリエ変換、ガボール変換といったその他の変換手法を用いても良い。またマクロな特徴量としてコントラスト、最大から最小を引いた値、標準偏差といったその他の統計量を用いても良い。以上の処理により、入力画像パターンから複数の特徴量を抽出することが出来る。
【0056】
(ステップ202:n個ずつ特徴量を組合せる)
ステップ202では、特徴量を1個ずつではなく、n個ずつ特徴量を組合せて選ぶ。組合せる個数nは、ユーザーの指示などに基づき決定してもよいし、また、検査対象物102ごとにあらかじめ設定しておいてもよい。入力画像パターンから抽出した特徴量の数がN個である場合、n個ずつ特徴量を組合せるので、NCn通りの組合せを生成する。
【0057】
(ステップ203:n個の特徴量の組合せそれぞれに対して第一の評価値を算出)
ステップ203の詳細について説明する。ステップ203では、ステップ202で生成されたNCn通りの組合せそれぞれに対して、第一の評価値を算出する。
【0058】
本実施形態における第一の評価値とは、当該n個の特徴量の組合せが、入力データの分類の判定に適しているか否かを評価するための評価値である。例えば、第一の評価値は、検査対象物102が良品か不良品かを判定する際に用いる特徴量の組合せとして適しているか否かを示している。
【0059】
本実施形態における良品と不良品の2クラス問題の場合、第一の評価値の一つとしてn次元のベイズ誤り確率推定値がある。ここで2つのクラスそれぞれをw1、w2とし、n個の特徴をもつベクトルをX=[x1,・・・,xn]tとするときxがw1、w2に属する確率の分布、つまりw1とw2におけるn次元のヒストグラムを生成し、このヒストグラムをそれぞれP(w1|x)、P(w2|x)と表す。よってベイズ誤り確率推定値は、
【0060】
【数15】
【0061】
で表される。この確率推定値の計算をn個の特徴量の組合せそれぞれに対して行う。ここで算出されるベイズ誤り確率推定値は、一次元の場合と同様に、値が低いほど良品と不良品との分類に適している組合せとみなすことが出来る。
【0062】
なお、以上の説明では、2クラス問題の場合について述べたが、ベイズ誤り確率推定値は多クラスについても適用可能である。
【0063】
次に、第一の評価値の別の例として、ベイズ誤り確率推定値の代わりにクラス内分散・クラス間分散比を用いる場合についても説明する。例えば2クラス問題の場合、2つのクラスをw1、w2とし、観測される特徴をX=[x1,・・・,xn]tとするとき、特徴ベクトルxに関するクラス内分散・クラス間分散比を求める。ここでクラスw1に属するパターンの集合をAiとし、Aiに含まれるパターン数をpni、クラスw1に属するパターンのxの平均をmiとする。また、全パターン数をpn、全パターンのxの平均ベクトルをmとする。よって、
【0064】
【数16】
【0065】
は、
【0066】
【数17】
【0067】
【数18】
【0068】
のように表すことができる。よって、クラス内分散・クラス間分散比は
【0069】
【数19】
【0070】
で表すことができる。このようにしてクラス内分散・クラス間分散比を求め、第一の評価値とする。
【0071】
なお、以上の説明では、2クラス問題の場合について述べたが、クラス内分散・クラス間分散比は多クラスについても適用可能である。本実施形態では、分類間の分離度を評価できるベイズ誤り確率推定値、クラス内分散・クラス間分散比を第一の評価値として用いたが、分類への適合を評価することができる評価値であれば、どのような評価値を用いてもよい。
【0072】
(ステップ204:第一の評価値同士の比較結果(判定結果)から第二の評価値を算出)
ステップ204では、複数の特徴量の組合せにおける第一の評価値同士を比較することにより、複数の特徴量それぞれに対して、入力データの分類に適しているか否かを評価するための第二の評価値を算出する。
【0073】
以下に、第二の評価値の算出について詳細に説明する。
【0074】
まず、1つの特徴量に注目し、その特徴量を含む組合せの中で第一の評価値が最も良い組合せを求める。第一の評価値としてベイズ誤り確率推定値を用いている場合、ベイズ誤り確率推定値が最も低い特徴量の組合せを求める。
【0075】
そして、第一の評価値が最も良い組合せの特徴量の第二の評価値に対して、所定の値を加算する。そして他の特徴量に対しても順に注目し、第一の評価値が最も良い組合せの特徴量の第二の評価値に対して、所定の値を加算する。このように、全ての特徴量に対して注目し、注目した特徴量に対して最も良い組合せの特徴量の第二の評価値に、所定の値を加算する。
図5は、n=2の場合における第二の評価値算出の概念を示した図である。
図6は、n=3の場合における第二の評価値算出の概念を示した図である。
【0076】
まず、図5を用いてn=2における第二の評価値算出のアルゴリズムの概念について説明する。図5では、例として、特徴量がA、B、C、Dの4種類である場合について説明する。
【0077】
最初に、特徴量Aに注目した場合、特徴量Aとの組合せでB、C、Dの中、最も第一の評価値が低くなる(Bayes=0.08)(良品と不良品との分類に適している)特徴量は、Bである。よって、特徴量Bは他の特徴量よりも特徴量Aとの組合せにおいて良品と不良品との分類に適しているとみなせるため、特徴量Bの第二の評価値に対して値1を加算する。
【0078】
同様に、特徴量Bに注目した場合、特徴量Cは他の特徴量よりも特徴量Bとの組合せにおいて、良品と不良品との分類に適しているとみなせる(Bayes=0.003)ため、特徴量Cの第二の評価値に対して値1を加算する。
【0079】
同様の処理を、特徴量Cについて行うと、特徴量Bの第二の評価値に対して値1が加算される。最後に、特徴量Dに注目すると、特徴量Bと、特徴量Cとに組合せた場合の第一の評価値が最も低い(Bayes=0.05)。つまり、特徴量Dに関しては、良品と不良品との分類に最も適している組合せが、特徴量Bと特徴量Cとの二種類あるため、特徴量Bと特徴量Cとの第二の評価値それぞれに対して値0.5が加算される。また、特徴量Dに対し特徴量BとCを組合せて、3個の特徴量の組合せとしてもよい。以上の処理により、第二の評価値については、特徴量Aは0、特徴量Bは2.5、特徴量Cは1.5、特徴量Dは0、となる。つまり、分類に最も適している組合せと判定された回数が多いほど第二の評価値が高くなる。
【0080】
次に、図6を用いてn=3における第二の評価値算出のアルゴリズムの概念を説明する。基本的には、n=2のときの場合と同様の処理がなされる。特徴量Aに注目した場合、図6に示すように、特徴量Aとの組合せにおいて最も良品と不良品との分類に適している特徴量は、特徴量D、特徴量Fである(Bayes=0.001)。従って、特徴量Dの第二の評価値に対して、値1を加算し、特徴量Fの第二の評価値に対して値1を加算する。同様の処理をすべての特徴量の組合せに対して行うことにより、すべて特徴量の対して第二の評価値が算出される。
【0081】
(ステップ205:第二の評価値に基づく関数でスコアを算出し、選択基準を決定)
ステップ205では、第二の評価値(Lnとする)に基づく関数で、特徴量を選択する基準となるスコアを求める。このとき本実施形態では、
score=Ln (式13)
のような関数でスコアを算出するが、第二の評価値が大きくなればなるほどスコアが大きくなるような関数であれば良い。なおこのスコアの算出はN個(選択対象となっている特徴量の種類)の特徴量ごとに求める。
【0082】
(ステップ206:n個ずつ特徴量を選択)
ステップ206では、ステップ205で求めたスコアが最も良い、つまりスコアが最も大きい特徴量とステップ204で組合せとした特徴量の組合せでn個の特徴量を選択し、選択した以外の特徴量に対して先に述べた特徴選択基準で選択を繰り返す。
例えば、図5で示した例の場合、第二の評価値はそれぞれ特徴量Aでは0、Bでは2.5、Cでは1.5、Dでは0であるので最も第二の評価値の高い特徴量Bを最初に選ぶ。
また、特徴量Bとの組合せに対応する特徴量Cも同時に選ぶ。
【0083】
次に、第二の評価値が2番目に高い特徴量Cを選ぶが、既に選ばれているため、次の特徴量を選ぶ。特徴量Cと組合せとした特徴量はBを選ぶが、既に選ばれているため、次の特徴量を選ぶ。次の第二の評価値は0となるため、第一の評価値、つまりベイズ誤り確率推定値が低い順に特徴量を選ぶ。特徴量Aに注目すると、第一の評価値が最も低いのは特徴量Bの0.08である。また特徴量Dに注目すると、第一の評価値が最も低いのは特徴量BとCとの0.05である。特徴量Aに注目したときのほうが、第一の評価値が低いので、特徴量Aを先に選び、その次に特徴量Dを選ぶ。
【0084】
このようにして最終的に組合せの良い予め定めた所定のm個の特徴量を選択する。
【0085】
入力パターンからのN個の特徴抽出はトレーニングパターンを用いるのでオフラインで行うことが可能で、オンラインの処理では、テストパターンに対してm個の特徴量抽出のみ行えば良いので、演算処理を高速化させることができる。また、特徴量の組合せを考慮したm個の特徴量を選択しているので、従来の第一の評価値のみを考慮した特徴選択手法と比べて、最終的に選択するm個の特徴量の数を減らして同等の性能を維持することができる。
【0086】
上述のようなスコア算出方法により、多様な特徴量群から特徴量の組合せ間を考慮した特徴量の選択をオフラインで選択できる。この結果、特有の次元において発生する問題を起りにくくし、演算処理を高速化させることができる。
【0087】
最後に、これまで述べた本実施形態におけるスコア算出の処理について説明する。図7は、本実施形態におけるスコア算出の処理フローチャートを示した図である。図7の処理は、N個(選択対象となる特徴量の種類)の特徴量から2個ずつ特徴量を選択するときについて述べたものである。
【0088】
(ステップ701:Bayesijを算出,Lni=0(i=1,・・・,N,J=i+1,・・・,N))
最初に、ステップ701では、全ての組合せの第一の評価値、つまりベイズ誤り確率推定値Bayesを求める。N個の特徴量から2個ずつ特徴量を選択する。ベイズ誤り確率推定値Bayesijのiは一つ目の特徴量を示し、jは二つ目の特徴量を示す。iは1からNに変え、jはiと同じ特徴量を選ばないようにi+1からNの間に変える。よってNC2通りの組合せが生成される。またこのとき全ての第二の評価値の初期値をLni=0(i=1,・・・,N)に設定する。
【0089】
(ステップ702:初期値iの設定)
ステップ702では、一つ目の特徴量i=1に設定し、徐々に値を変えて特徴量をかえる。
【0090】
(ステップ703:
【0091】
【数20】
【0092】
とkを算出)
【0093】
ステップ703では、特徴量iを固定し特徴量jを可変として、第一の評価値、つまりベイズ誤り確率推定値の最小値とベイズ誤り確率推定値が最小となるときのjを求める。このときのjをkとする。ここで特徴量iと特徴量kを2つの特徴量のセットとする。
【0094】
(ステップ704:Lnk=Lnk+1)
ステップ704では、特徴量kの第二の評価値Lnkに対して1加える。
【0095】
(ステップ705:i=N、ステップS16:i=i+1)
iの値がNとなれば、ステップ707に進み、iの値がNより小さければ、ステップS706に進む。
【0096】
(ステップ706:i=i+1)
ステップ706では、iに1加え、ステップ703に戻る。
【0097】
(ステップ707:scorei=Lni(i=1,・・・,N))
ステップ707では、それぞれの特徴の第二の評価値Lnをスコアとし、これを基にステップS13で決めたセットごとに特徴量を選択する。
【0098】
(第2の実施形態)
本実施形態の処理の流れを図8のフローチャートで説明する。本実施形態が第一の実施形態と異なる点は、第一の実施形態における図2のステップ205が、図8のステップ805に変更されていることである。よって、第一の実施形態と異なる点であるステップ805の処理のみ説明する。なお、第一の実施形態と同様、本実施形態の処理は、図1の情報処理装置101が行うものである。
【0099】
(ステップ805:第一の評価値と第二の評価値に基づくスコアを算出し特徴選択基準を決定)
ステップ805では、第一の実施形態と異なり、第二の評価値だけでなく、第一の評価値と第二の評価値との両方に基づいて特徴選択基準を決定する。第一の評価値と第二の評価値に基づく関数でスコアを求め、特徴選択基準を決定する。このとき、以下に示す式14のような関数でスコアを算出するが、ベイズ誤り確率推定値が小さくなればなるほどスコアが大きくなり、第二の評価値が大きくなればなるほどスコアが大きくなるような関数であれば他の関数を用いてもよい。
【0100】
【数21】
【0101】
式14では第一の評価値であるベイズ誤り確率推定値Bayesと第二の評価値Lnが0になることがあるので、非零値a、bを加えている。例えば特徴量の数が1000個存在するとすると、特徴量ごとの第一の評価値Bayesは最小で0、最大で1であり、また第二の評価値Lnは最小で0、最大で1000であり、この場合、a=1程度、b=0.001程度が適当である。
【0102】
本実施形態におけるスコア算出関数により、特徴量の評価と特徴量間の組合せの評価を考慮した特徴選択が可能になる。よって、必要な特徴量のみの選択が可能になり、特有の次元において発生する問題を起りにくくし、演算処理を高速化させることができる。
【0103】
最後にこれまで述べた本実施形態のスコア算出アルゴリズムを図9に示す。図7と同様に図9はN個の特徴量から2個ずつ特徴量を選択するときについて述べたものである。ここでも、図7とフローチャートと異なるステップ908のみを説明する。
【0104】
(ステップ908:
【0105】
【数22】
【0106】
)
【0107】
ステップ908では、ステップ903で求めた第一の評価値Bayesと第二の評価値Lnを用いた関数をスコアとし第一の実施形態と同様にステップ903で求めた特徴量のセットごとに特徴量を選択する。
【0108】
(第3の実施形態)
本実施形態における処理を図10のフローチャートで説明する。本実施形態が第二の実施形態と異なる点は、第2の実施形態を示す図8のステップ804がステップ1004に変更されていることである。よって、第二の実施形態と異なる点であるステップ10004のみを説明する。また第一の実施形態にも第3の実施形態の手法を適用できるが、ここでは説明を省略する。なお、第二の実施形態と同様、本実施形態の処理は、図1の情報処理装置101が行うものである。
【0109】
(ステップ1004)
本実施形態では、複数の第一の評価値それぞれに対してあらかじめ設定された評価基準との適合度合いを判定する。そして、当該適合度合いがより大きい第一の評価値の前記組合せ特徴を構成する特徴量の第二の評価値に対してより多く所定の値の加算を行い、第二の評価値を算出する。
【0110】
図11は、本実施形態における第二の評価値算出のアルゴリズムの概要を示した図である。
【0111】
本実施形態では、第一の実施形態および第二の実施形態と同様に、全ての特徴量の組合せに対して第一の評価値(ここではベイズ誤り確率推定値)を求める。
【0112】
例えば、第一の実施形態の図5と同様に、特徴量A、B、C、Dがある場合、特徴量を少なくとも2個以上同時に組合せるが、特徴量AからDに対して第一の評価値が最も良い特徴量に第二の評価値に値1加算する。特徴量Aに注目した場合、特徴量Aを含む組合せに対して第一の評価値が最も良い、つまりベイズ誤り確率推定値最も低い(Bayes=0.08)のは特徴量Bである。よって特徴量Bに対して第二の評価値に値1加算する。第1の実施形態、第2の実施形態と同様に、以上の処理を全ての特徴量に対して行う。
【0113】
本実施形態では、第一の実施形態および、第二の実施形態と異なり、特徴量AからDに対して第一の評価値が二番目に良い特徴量に対して第二の評価値に値w(0<w<1)加算する。特徴量Aに注目した場合、特徴量Aを含む組合せに対して特徴量Aの第一の評価値が二番目に優れた、つまりベイズ誤り確率推定値が二番目に低い(Bayes=0.1)特徴量は特徴量Cである。よって特徴量Cに対して第二の評価値に値w加算する。第一の評価値が悪くなるにつれて第二の評価値に対して加算する値を小さくしても良い。図11では二番目に優れた特徴量に対して第二の評価値に加算していく。次に特徴量Bに注目した場合、特徴量Bを含む組合せに対して特徴量Bの第一の評価値が二番目に優れた、つまりベイズ誤り確率推定値が二番目に低い(Bayes=0.05)特徴量は特徴量Dである。よって特徴量Dに対して第二の評価値に値w加算する。また特徴量Cに注目した場合、特徴量Cを含む組合せに対して特徴量Cの第一の評価値が二番目に優れた、つまりベイズ誤り確率推定値が二番目に低い(Bayes=0.05)特徴量は特徴量Dである。よって特徴量Dに対して第二の評価値に値w加算する。なお特徴量Dに注目した場合、特徴量Dを含む組合せに対して第一の評価値が最も良い、つまりベイズ誤り確率推定値最も低い(Bayes=0.05)特徴量は特徴量BとCの二つである。よって第一の評価値が二番目に良い特徴量に関して第二の評価値に所定の値を加算しない。結果的に加算した値の第二の評価値合計値は、特徴量Aでは0、Bでは2.5、Cでは1.5+w、Dでは2wとなる。これにより、精度の高い第二の評価値の算出が可能となる。
【0114】
以上説明したように、本実施形態における第二の評価値算出方法により、精度の良い第二の評価値が算出可能になり、より組合せ相性の良い特徴選択が可能になる。必要な特徴量のみを選択することが可能になり、その結果、特有の次元において発生する問題を起りにくくし、演算処理を高速化させることができる。
【0115】
(第四の実施形態)
上記実施形態では、クラスw1とw2のパターンの値が既知な2クラス問題において、クラスw1、w2とをより分離できる評価値を選択した。
【0116】
しかし、実際には、クラスw1のパターンの値のみが既知で、クラスw2のパターンの値が未知である場合が考えられる。例えば、良品検査において、不良品のパターンの値は未知であり、良品のパターン値のみが既知である場合である。そこで、本実施形態では、クラスw1のパターンのみで算出可能な分離度合いを示す評価値を用いた処理を行う。
【0117】
以下では、クラスw1のパターンのみで算出可能な評価値について説明する。
クラスw2に対するクラスw1の分離度合い示す評価値として、クラスw1の分布密度が考えられる。仮に、クラスw1の分布が密である場合、特徴空間内でクラスw1の分布が発散する範囲が狭くなり、クラスw1とクラスw2の分布が重なる可能性は低くなる。逆に、特徴空間内でクラスw1の分布が発散する範囲が広くなり、クラスw1とクラスw2の分布が重なる可能性が高くなる。
【0118】
以上説明したように、w1の分布密度に応じて重なるパターン数は変化するが、クラスw1の分布が密である場合でも、重なりがある場合には、クラスw1が密であるため分布内の多くのパターンが重なる。また、クラスw1の分布が疎である場合でも、もし重なりがある場合には、クラスw1の分布が疎であるため重なるパターンは少ない。
【0119】
しかしながら、一般的には、w1の分布が密であるほうが、クラスw1とクラスw2とで重なるパターン数は少なくなる。よって、クラスw1のパターンの分布がより密になる特徴量の方が、クラスw1とクラスw2とを分離する特徴量として優れていることになる。
【0120】
本実施形態では、クラスw1のパターンの分布を表す評価値として、クラスw1のパターンの重心から最も離れているパターンのユークリッド距離を用いる。また、重心からのすべてのパターンへのユークリッド距離の標準偏差を評価値として用いることも可能である。また、マンハッタン距離等の他の距離概念を用いても良い。
【0121】
以下で、本実施形態における処理フローを説明する。
【0122】
図12は、本実施形態における処理フローを示す図である。本実施形態が第二の実施形態と異なる点は、第二の実施形態を示す図8のステップ803がステップ1203に変更されていることである。よって、第二の実施形態と異なる点であるステップ1203のみを説明する。なお、第二の実施形態と同様、本実施形態の処理は、図1の情報処理装置101が行うものである。
【0123】
図13は、本実施形態におけるステップ1203の処理の詳細を示す図である。以下で、図13に沿って、ステップ1203における処理の詳細を説明する。尚、ステップ1301はステップ1202に対応するので説明を省く。
【0124】
(ステップ1302:特徴量ごとに所定のクラスw1のみの全パターンを正規化)
ステップ1302では、各特徴量の標準偏差でクラスw1のパターンすべてを特徴量ごとに正規化する。本実施形態では、n次元の特徴空間におけるユークリッド距離で特徴量を評価する必要があるためである。
【0125】
(ステップ1303:n個の特徴量の組合せそれぞれに対してn次元の特徴空間に所定の1クラスw1のパターンのみをプロット)
次に、ステップ1303では、生成されたn個の特徴量の組合せそれぞれに対して、n次元の特徴空間に1クラスw1のパターンをプロットする。
【0126】
図14は、n=2である場合に、1クラスw1のパターンがプロットされた特徴空間を示す図である。
【0127】
(ステップ1304:所定の1クラスw1のパターンの重心を算出)
ステップ1304では、特徴空間にプロットされたパターンの重心Gを求める。
【0128】
(ステップ1305:発散度を第一評価値とし、n個の特徴量の組合せそれぞれに対しても第一評価値を算出)
ステップ1305では、n次元の特徴空間において、ステップ1304で求めた重心Gから最も離れているパターンとのユークリッド距離dmaxを求め、このユークリッド距離を発散度とする。もしくは重心Gからの各パターンへのユークリッド距離diのすべてのパターンへのdiの標準偏差を発散度とする。以上の処理で算出された発散度を、上記実施形態と同様に第一の評価値とする。
【0129】
尚、発散度はベイズ誤り確率推定値と同様に小さいほどクラスを分離する特徴量として優れている。よって、n次元の特徴空間におけるユークリッド距離を発散度として、ベイズ誤り確率推定値と同様に、第一の評価値として扱うことが可能である。本実施形態によれば、1クラスのみのデータから、特徴量選択が可能となる。
【0130】
尚、以上の説明では、1クラス問題について述べたが、本実施形態は多クラス問題にも適用可能である。あるクラスが他のクラスとの分離している度合いを示すのにn次元の特徴空間において重心から最も離れているパターンのユークリッド距離、を発散度として利用することが可能である。
【0131】
(他の実施形態)
上記実施形態では外観検査においての利用を述べたが、本発明は、顔認識や動画像を含むマルチモーダル多次元データ等のパターン識別問題において用いる特徴量を、多様な特徴量の中から選択する場合にも用いることができる。なお、その他のパターン認識やデータマイニングの分野で用いることも可能である。
【0132】
また、上記実施形態では,ベイズ誤り確率推定値などを用いて各特徴量を評価し、特徴量を選択した。このようにあらかじめ識別器を通す前に特徴量を評価するという手法はフィルター法と呼ばれる。これに対し,実際に良品不良品などを識別する識別器を通してその性能を評価して特徴量を用いるか用いないかを決める手法はワッパー法と呼ばれる。ワッパー法は識別結果を見ているためにフィルター法と比べて性能は良いが、計算時間が膨大にかかるという欠点がある。そこで、膨大な特徴量数に対してワッパー法を効率的に行うために,計算が高速なフィルター法で特徴量を絞り込んでおく手法が提案されている。特徴量を絞り込んでおくことにより、ワッパー法のみを用いる場合よりも計算時間を短縮することが出来る。上記実施形態の手法は、ワッパー法を第二の選択手段として、ワッパー法と組合せて行うことも可能である。
【0133】
また、上記実施形態における処理は、CDROM等の記録媒体に記録されたコンピュータプログラムをコンピュータによって処理することにより、実現することが可能である。
【技術分野】
【0001】
本発明は、入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択する情報処理装置および、情報処理方法などに関する。
【背景技術】
【0002】
外観検査などの情報処理装置において、検査対象物を撮影した画像から画素値の平均や分散といった多数の特徴量群を抽出し、良否判定(良品と不良品の2クラス判別)するといった手法がある。しかし、多数の特徴量を全て使うと、特徴の次元が高次になってしまい、特有の次元において発生する問題(次元の呪い等)や、冗長な特徴量を抽出することによる処理時間の増大が発生してしまう。
【0003】
よって、適切な特徴量を選択することにより、特有の次元において発生する問題を起りにくくし、演算処理を高速化させることができる手法が重要視されつつある。
【0004】
以下に、非特許文献1に開示されている手法について説明する。非特許文献1では、特徴量それぞれに対して分離度を評価するための評価値を求め、その評価値の良い順に特徴量を選ぶ手法が開示されている。具体的には、ベイズ誤り確率推定値やクラス内分散・クラス間分散比を用いて、選択基準を決定する特徴選択手法がある。
【0005】
ベイズ誤り確率推定値について詳細に述べる。例えば2クラス問題の場合、2つのクラスをw1、w2とし、観測される特徴をx0=[x1,x2,・・・,xK,・・・,xN]とするときxKがw1、w2に属する確率をそれぞれP(w1|xK)、P(w2|xK)と表す。このときベイズ誤り確率推定値は
【0006】
【数1】
【0007】
で表され、これを全ての特徴量に関して求める。ベイズ誤り確率推定値は小さいほど、2クラスをより分離できる。よって、ベイズ誤り確率推定値が小さい順に特徴量を選択する。
【0008】
次に、クラス内分散・クラス間分散比について詳細に述べる。例えば2クラス問題の場合、2つのクラスをw1、w2とし、観測される特徴をx0=[x1,x2,・・・,xK,・・・,xN]とするとき、特徴量xkに関するクラス内分散・クラス間分散比を求める。またクラスwiに属するパターンの集合をAiとし、Aiに含まれるパターン数をni、クラスwiに属するパターンのxkの平均をmiとする。さらに、全パターン数をn、全パターンのxkの平均をmとする。このとき
【0009】
【数2】
【0010】
は、
【0011】
【数3】
【0012】
【数4】
【0013】
のように表せるので、クラス内分散・クラス間分散比は
【0014】
【数5】
【0015】
で表すことができる。このようにしてクラス内分散・クラス間分散比を求め、値が大きい順に特徴量を選択する。
【0016】
また非特許文献2に示されている手法は、遺伝子選択の分野において、特徴量を2個ずつ組合せて、2次元の特徴空間で評価して、特徴量を2個ずつ選択する手法である。2個ずつ特徴量を組合せる手法は、1個ずつ特徴量を選択するより精度の良い特徴選択が可能であると述べられている。
【先行技術文献】
【非特許文献】
【0017】
【非特許文献1】石井健一郎,上田修功,前田英作,村瀬洋,“わかりやすいパターン認識”,オーム社,東京,1998.
【非特許文献2】Trond Hellem Bo and Inge Jonassen,”New feature subset selection procedures for classification of expression profiles,”Genome Biology 2002年,第3巻(vol.3),no.4:research.
【発明の概要】
【発明が解決しようとする課題】
【0018】
しかしながら、前記のベイズ誤り確率推定値や一次元のクラス内分散・クラス間分散比により1個ずつ特徴選択を行う非特許文献1の手法は、特徴量間の組合せの相性を考慮して特徴量を評価しているわけではない。よって、結果として特有の次元において発生する問題を引き起こしやすくし、冗長な特徴量を抽出することによって演算処理速度を落とすことになるという課題があった。同様に、非特許文献2の手法は、あらかじめ組合せる数を設定し、特徴量の組合せを選択するものであり、特徴量間の組合せの相性を考慮して特徴量を評価しているわけではない。
【0019】
そこで本発明は、前述した課題を鑑みてなされたものであり、入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置において、特徴量間の組合せの相性を考慮し、入力データの分類に適した特徴量を選択することを目的とする。
【課題を解決するための手段】
【0020】
上述の目的の課題を解決するために、本発明の情報処理装置は、入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置であって、前記複数の特徴量を組合せることにより複数の組合せを生成する生成手段と、前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出手段と、前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を得る第二の算出手段とを有することを特徴とする。
【発明の効果】
【0021】
本発明によれば、特徴量間の組合せの相性を考慮し、入力データの分類に適した特徴量を選択することが出来る。
【図面の簡単な説明】
【0022】
【図1】第一の実施形態における情報処理装置の構成を示した図である。
【図2】第一の実施形態における情報処理装置101の情報処理を示すフローチャートである。
【図3】表面粗し加工を施したゴム板の表面を撮影し切り出した128×128画素のグレースケール画像の例を示す図である。
【図4】第二の実施形態における複数の特徴量を抽出する具体的な処理を示した図である。
【図5】n=2の場合における第二の評価値算出のアルゴリズムの概念を示した図である。
【図6】n=3の場合における第二の評価値算出のアルゴリズムの概念を示した図である。
【図7】第一の実施形態におけるスコア算出の処理フローチャートを示した図である。
【図8】第二の実施形態における情報処理装置101の情報処理を示すフローチャートである。
【図9】第二の実施形態におけるスコア算出の処理フローチャートを示した図である。
【図10】第三の実施形態における情報処理装置101の情報処理を示すフローチャートである。
【図11】第三の実施形態における第二の評価値を算出する処理の概要を示す図である。
【図12】第四の実施形態における処理フローを示す図である。
【図13】第四の実施形態におけるステップ1203の処理の詳細を示す図である。
【図14】1クラスw1のパターンがプロットされた特徴空間を示す図である。
【発明を実施するための形態】
【0023】
(第一の実施形態)
以下、図面を用いて第一の実施形態を詳細に説明する。
【0024】
図1は、第一の実施形態における情報処理装置の構成を示した図である。
【0025】
101は、本実施形態における外観検査のための情報処理を行う情報処理装置101である。情報処理装置101は、CPU(セントラルプロセッシングユニット)、RAM(ランダムアクセスメモリ)、HDD(ハードディスクドライブ)などから構成される。CPUは、外観検査のためのコンピュータプログラムを実行し、HDD、RAMには、外観検査のためのコンピュータプログラムおよびデータが格納される。
【0026】
102は、本実施形態において外観検査の対象となる検査対象物102である。検査対象物102は、例えば、工業製品に利用されるゴム板などである。ゴム板の表面には、凹凸やキズがあることがあり、外観検査によってこれらが検出され、良品と不良品とに分別される。
【0027】
103は、本実施形態において検査対象物102を撮像するための撮像装置103である。撮像装置103は、検査対象物102の表面のビデオ映像(画像パターン)を取得可能なビデオカメラなどから構成され、取得したビデオ映像を情報処理装置101に送信する。情報処理装置101は、送信されたビデオ映像を用いて外観検査のための情報処理を行う。
【0028】
104は、外観検査の検査結果を表示するための表示装置104である。表示装置104はモニタなどから構成され、情報処理装置101から送信される外観検査の結果を表示する。
【0029】
図2は、本実施形態における情報処理装置101の情報処理を示すフローチャートである。本実施形態では検査対象物102を撮影した画像を用いてパーツの良否判定(良品と不良品との2クラス判別)を行う外観検査において説明する。
【0030】
本実施形態における外観検査では、良品と不良品とを分別する2クラスが存在し、入力画像パターンから複数の階層画像を生成し、生成された複数の階層画像から複数の特徴量を抽出し、抽出された複数の特徴量から外観検査に適した特徴量を選択する。
【0031】
以下に図2のフローの概要を示す。なお、図2のフローで示す各処理は、情報処理装置101によりなされるものである。また、各処理の詳細については後述する。
(ステップ201)ステップ201では、撮像装置103から取得された入力画像パターンから、外観検査に用いる複数の特徴量の抽出を行う。
(ステップ202)ステップ202では、情報処理装置101が複数の組合せを生成する生成手段として機能し、ステップ201で抽出された複数の特徴量を用いて、n個(n≧2)ずつの特徴量の組合せを生成する。
(ステップ203)ステップ203では、情報処理装置101が入力画像データの分類への適合を評価する第一の評価値を算出する第一の算出手段として機能し、ステップ202において設定されたn個ずつの特徴量による複数の組合せそれぞれに対して第一の評価値を算出する。本実施形態における第一の評価値は、外観検査に適していることを示すものである。このとき、それぞれの特徴量に対して、その特徴量において第一の評価値が最も良い特徴量の組合せ(n個の特徴量からなる組合せ)を決定する。
(ステップ204)ステップ204では、情報処理装置101が第二の算出手段として機能し、複数の第一の評価値同士を比較することにより、入力画像データの分類への適合を評価する第二の評価値を計算する。
(ステップ205)ステップ205では、第二の評価値に基づくスコアを算出し、特徴選択基準を決定する。
(ステップ206)ステップ206では、さらにスコアが最も良い特徴量とステップ204で組合せた特徴量の組合せ(n個の特徴量の組合せ)を選択し、選択した以外の特徴量に対しては特徴選択基準で特徴選択を繰り返す。
【0032】
以下に図2の各処理の詳細について述べる。
【0033】
(ステップ201の処理の詳細(複数の特徴量の抽出))
ステップ201の処理の詳細について述べる。
【0034】
図3は、検査対象物102の一例である表面粗し加工を施したゴム板の表面を撮影し切り出した128×128画素のグレースケール画像の例を示す図である。
【0035】
図3(a)から(e)に正常なゴム板の表面を示し、(f)から(j)に異常なゴム板の表面を示す。(a)から(e)のような画像パターンを正常パターンとし、(f)から(j)のような画像パターンを異常パターンとする。(f)と(g)は、黒いスポット状のムラがあるパターンであり、(h)は、全体的にグラデーションがあるパターンであり、(i)は、白いスポット状のムラがあるパターンであり、(j)は、コントラストが一部低くなっているパターンである。本ステップでは、このようなパターンの特徴を表した複数の特徴量を算出する。
【0036】
図4は、本実施形態における複数の特徴量を抽出する具体的な処理を示した図である。
【0037】
本実施形態では、入力画像パターンとしてpn個の画像パターンを用いるが、これらの画像パターンに対し欠陥を強調するために、周波数ドメインへの変換手法であるウェーブレット変換を用いる。
【0038】
特に、図4は、ウェーブレット変換ひとつであるハール・ウェーブレット変換を示したものである。まず変換前の入力パターンに対して四種類のフィルターを用いて内積演算を行う。その結果、四種類のパターン、縦方向高周波成分抽出パターン(HL)、対角方向高周波成分抽出パターン(HH)、横方向高周波成分抽出パターン(LH)、低周波成分抽出パターン(LL)が生成される。縦方向高周波成分抽出パターンの生成方法を具体的に示す。図4のように入力パターンの4つの画素
【0039】
【数6】
【0040】
を縦方向高周波成分抽出パターンの画素の値とする。このような計算を4画素ずつすべての画像領域においてこれをオーバーラップすることなく行い、縦方向高周波成分抽出パターンを作る。対角方向高周波成分抽出パターンでは、
【0041】
【数7】
【0042】
を、横方向高周波成分パターンでは
【0043】
【数8】
【0044】
を、低周波成分抽出パターンでは
【0045】
【数9】
【0046】
をフィルターとして用いる。
【0047】
結果的に四種類のパターンを解像度二分の一で作り出す。さらに低周波成分抽出パターンから次のレベルのハール・ウェーブレット変換を行い、さらに解像度二分の一にした四種類のパターンを作り出すというように階層的に低い周波数へと変換していく。変換前のパターンは128×128画素なので、1回の変換で64×64画素、2回目の変換で、32×32画素、以降、16×16画素、8×8画素、4×4画素、2×2画素となり、最後の7回目の変換で1×1画素のパターンが生成される。つまり、最後に1×1画素の、縦方向高周波成分抽出パターン、対角方向高周波成分抽出パターン、横方向高周波成分抽出パターン、低周波成分抽出パターンが得られる。よって変換前のパターンを含めて1+4×7=29種類のパターンが得られる。
【0048】
このようにして得られた各階層のパターンそれぞれから、全画素値の最大値、平均、分散、尖度、歪度、相乗平均、といった6種類のマクロな特徴量を抽出する。マクロな特徴量として、画素値の平均を式5に、分散を式6に、尖度を式7に、歪度を式8、相乗平均を式9に示す。ただし、画像のサイズは縦a画素、横b画素の画像の縦i番目。横j番目の画素値をp(i,j)とし、pをヒストグラムで表したときのそれぞれのビンにおける番号をk、値をXk、度数をMkで表す。
【0049】
【数10】
【0050】
【数11】
【0051】
【数12】
【0052】
【数13】
【0053】
【数14】
【0054】
ハール・ウェーブレット変換を行っていない変換前の入力パターン、ハール・ウェーブレット変換をかけた各階層画像の29種類の画像から、最大値、及び式5から式9で示した6つの特徴量を抽出する。つまり計29種類の画像からマクロな特徴量を6種類ずつ抽出する。結果的に入力パターンごとに29×6=174個(以下N個とする)の特徴量を抽出する。なお入力パターンとして用いるpn個の全パターンからN個ずつの特徴量を抽出する。
【0055】
今回はハール・ウェーブレット変換を用いる手法について述べたが、その他のウェーブレット変換、エッジ抽出、フーリエ変換、ガボール変換といったその他の変換手法を用いても良い。またマクロな特徴量としてコントラスト、最大から最小を引いた値、標準偏差といったその他の統計量を用いても良い。以上の処理により、入力画像パターンから複数の特徴量を抽出することが出来る。
【0056】
(ステップ202:n個ずつ特徴量を組合せる)
ステップ202では、特徴量を1個ずつではなく、n個ずつ特徴量を組合せて選ぶ。組合せる個数nは、ユーザーの指示などに基づき決定してもよいし、また、検査対象物102ごとにあらかじめ設定しておいてもよい。入力画像パターンから抽出した特徴量の数がN個である場合、n個ずつ特徴量を組合せるので、NCn通りの組合せを生成する。
【0057】
(ステップ203:n個の特徴量の組合せそれぞれに対して第一の評価値を算出)
ステップ203の詳細について説明する。ステップ203では、ステップ202で生成されたNCn通りの組合せそれぞれに対して、第一の評価値を算出する。
【0058】
本実施形態における第一の評価値とは、当該n個の特徴量の組合せが、入力データの分類の判定に適しているか否かを評価するための評価値である。例えば、第一の評価値は、検査対象物102が良品か不良品かを判定する際に用いる特徴量の組合せとして適しているか否かを示している。
【0059】
本実施形態における良品と不良品の2クラス問題の場合、第一の評価値の一つとしてn次元のベイズ誤り確率推定値がある。ここで2つのクラスそれぞれをw1、w2とし、n個の特徴をもつベクトルをX=[x1,・・・,xn]tとするときxがw1、w2に属する確率の分布、つまりw1とw2におけるn次元のヒストグラムを生成し、このヒストグラムをそれぞれP(w1|x)、P(w2|x)と表す。よってベイズ誤り確率推定値は、
【0060】
【数15】
【0061】
で表される。この確率推定値の計算をn個の特徴量の組合せそれぞれに対して行う。ここで算出されるベイズ誤り確率推定値は、一次元の場合と同様に、値が低いほど良品と不良品との分類に適している組合せとみなすことが出来る。
【0062】
なお、以上の説明では、2クラス問題の場合について述べたが、ベイズ誤り確率推定値は多クラスについても適用可能である。
【0063】
次に、第一の評価値の別の例として、ベイズ誤り確率推定値の代わりにクラス内分散・クラス間分散比を用いる場合についても説明する。例えば2クラス問題の場合、2つのクラスをw1、w2とし、観測される特徴をX=[x1,・・・,xn]tとするとき、特徴ベクトルxに関するクラス内分散・クラス間分散比を求める。ここでクラスw1に属するパターンの集合をAiとし、Aiに含まれるパターン数をpni、クラスw1に属するパターンのxの平均をmiとする。また、全パターン数をpn、全パターンのxの平均ベクトルをmとする。よって、
【0064】
【数16】
【0065】
は、
【0066】
【数17】
【0067】
【数18】
【0068】
のように表すことができる。よって、クラス内分散・クラス間分散比は
【0069】
【数19】
【0070】
で表すことができる。このようにしてクラス内分散・クラス間分散比を求め、第一の評価値とする。
【0071】
なお、以上の説明では、2クラス問題の場合について述べたが、クラス内分散・クラス間分散比は多クラスについても適用可能である。本実施形態では、分類間の分離度を評価できるベイズ誤り確率推定値、クラス内分散・クラス間分散比を第一の評価値として用いたが、分類への適合を評価することができる評価値であれば、どのような評価値を用いてもよい。
【0072】
(ステップ204:第一の評価値同士の比較結果(判定結果)から第二の評価値を算出)
ステップ204では、複数の特徴量の組合せにおける第一の評価値同士を比較することにより、複数の特徴量それぞれに対して、入力データの分類に適しているか否かを評価するための第二の評価値を算出する。
【0073】
以下に、第二の評価値の算出について詳細に説明する。
【0074】
まず、1つの特徴量に注目し、その特徴量を含む組合せの中で第一の評価値が最も良い組合せを求める。第一の評価値としてベイズ誤り確率推定値を用いている場合、ベイズ誤り確率推定値が最も低い特徴量の組合せを求める。
【0075】
そして、第一の評価値が最も良い組合せの特徴量の第二の評価値に対して、所定の値を加算する。そして他の特徴量に対しても順に注目し、第一の評価値が最も良い組合せの特徴量の第二の評価値に対して、所定の値を加算する。このように、全ての特徴量に対して注目し、注目した特徴量に対して最も良い組合せの特徴量の第二の評価値に、所定の値を加算する。
図5は、n=2の場合における第二の評価値算出の概念を示した図である。
図6は、n=3の場合における第二の評価値算出の概念を示した図である。
【0076】
まず、図5を用いてn=2における第二の評価値算出のアルゴリズムの概念について説明する。図5では、例として、特徴量がA、B、C、Dの4種類である場合について説明する。
【0077】
最初に、特徴量Aに注目した場合、特徴量Aとの組合せでB、C、Dの中、最も第一の評価値が低くなる(Bayes=0.08)(良品と不良品との分類に適している)特徴量は、Bである。よって、特徴量Bは他の特徴量よりも特徴量Aとの組合せにおいて良品と不良品との分類に適しているとみなせるため、特徴量Bの第二の評価値に対して値1を加算する。
【0078】
同様に、特徴量Bに注目した場合、特徴量Cは他の特徴量よりも特徴量Bとの組合せにおいて、良品と不良品との分類に適しているとみなせる(Bayes=0.003)ため、特徴量Cの第二の評価値に対して値1を加算する。
【0079】
同様の処理を、特徴量Cについて行うと、特徴量Bの第二の評価値に対して値1が加算される。最後に、特徴量Dに注目すると、特徴量Bと、特徴量Cとに組合せた場合の第一の評価値が最も低い(Bayes=0.05)。つまり、特徴量Dに関しては、良品と不良品との分類に最も適している組合せが、特徴量Bと特徴量Cとの二種類あるため、特徴量Bと特徴量Cとの第二の評価値それぞれに対して値0.5が加算される。また、特徴量Dに対し特徴量BとCを組合せて、3個の特徴量の組合せとしてもよい。以上の処理により、第二の評価値については、特徴量Aは0、特徴量Bは2.5、特徴量Cは1.5、特徴量Dは0、となる。つまり、分類に最も適している組合せと判定された回数が多いほど第二の評価値が高くなる。
【0080】
次に、図6を用いてn=3における第二の評価値算出のアルゴリズムの概念を説明する。基本的には、n=2のときの場合と同様の処理がなされる。特徴量Aに注目した場合、図6に示すように、特徴量Aとの組合せにおいて最も良品と不良品との分類に適している特徴量は、特徴量D、特徴量Fである(Bayes=0.001)。従って、特徴量Dの第二の評価値に対して、値1を加算し、特徴量Fの第二の評価値に対して値1を加算する。同様の処理をすべての特徴量の組合せに対して行うことにより、すべて特徴量の対して第二の評価値が算出される。
【0081】
(ステップ205:第二の評価値に基づく関数でスコアを算出し、選択基準を決定)
ステップ205では、第二の評価値(Lnとする)に基づく関数で、特徴量を選択する基準となるスコアを求める。このとき本実施形態では、
score=Ln (式13)
のような関数でスコアを算出するが、第二の評価値が大きくなればなるほどスコアが大きくなるような関数であれば良い。なおこのスコアの算出はN個(選択対象となっている特徴量の種類)の特徴量ごとに求める。
【0082】
(ステップ206:n個ずつ特徴量を選択)
ステップ206では、ステップ205で求めたスコアが最も良い、つまりスコアが最も大きい特徴量とステップ204で組合せとした特徴量の組合せでn個の特徴量を選択し、選択した以外の特徴量に対して先に述べた特徴選択基準で選択を繰り返す。
例えば、図5で示した例の場合、第二の評価値はそれぞれ特徴量Aでは0、Bでは2.5、Cでは1.5、Dでは0であるので最も第二の評価値の高い特徴量Bを最初に選ぶ。
また、特徴量Bとの組合せに対応する特徴量Cも同時に選ぶ。
【0083】
次に、第二の評価値が2番目に高い特徴量Cを選ぶが、既に選ばれているため、次の特徴量を選ぶ。特徴量Cと組合せとした特徴量はBを選ぶが、既に選ばれているため、次の特徴量を選ぶ。次の第二の評価値は0となるため、第一の評価値、つまりベイズ誤り確率推定値が低い順に特徴量を選ぶ。特徴量Aに注目すると、第一の評価値が最も低いのは特徴量Bの0.08である。また特徴量Dに注目すると、第一の評価値が最も低いのは特徴量BとCとの0.05である。特徴量Aに注目したときのほうが、第一の評価値が低いので、特徴量Aを先に選び、その次に特徴量Dを選ぶ。
【0084】
このようにして最終的に組合せの良い予め定めた所定のm個の特徴量を選択する。
【0085】
入力パターンからのN個の特徴抽出はトレーニングパターンを用いるのでオフラインで行うことが可能で、オンラインの処理では、テストパターンに対してm個の特徴量抽出のみ行えば良いので、演算処理を高速化させることができる。また、特徴量の組合せを考慮したm個の特徴量を選択しているので、従来の第一の評価値のみを考慮した特徴選択手法と比べて、最終的に選択するm個の特徴量の数を減らして同等の性能を維持することができる。
【0086】
上述のようなスコア算出方法により、多様な特徴量群から特徴量の組合せ間を考慮した特徴量の選択をオフラインで選択できる。この結果、特有の次元において発生する問題を起りにくくし、演算処理を高速化させることができる。
【0087】
最後に、これまで述べた本実施形態におけるスコア算出の処理について説明する。図7は、本実施形態におけるスコア算出の処理フローチャートを示した図である。図7の処理は、N個(選択対象となる特徴量の種類)の特徴量から2個ずつ特徴量を選択するときについて述べたものである。
【0088】
(ステップ701:Bayesijを算出,Lni=0(i=1,・・・,N,J=i+1,・・・,N))
最初に、ステップ701では、全ての組合せの第一の評価値、つまりベイズ誤り確率推定値Bayesを求める。N個の特徴量から2個ずつ特徴量を選択する。ベイズ誤り確率推定値Bayesijのiは一つ目の特徴量を示し、jは二つ目の特徴量を示す。iは1からNに変え、jはiと同じ特徴量を選ばないようにi+1からNの間に変える。よってNC2通りの組合せが生成される。またこのとき全ての第二の評価値の初期値をLni=0(i=1,・・・,N)に設定する。
【0089】
(ステップ702:初期値iの設定)
ステップ702では、一つ目の特徴量i=1に設定し、徐々に値を変えて特徴量をかえる。
【0090】
(ステップ703:
【0091】
【数20】
【0092】
とkを算出)
【0093】
ステップ703では、特徴量iを固定し特徴量jを可変として、第一の評価値、つまりベイズ誤り確率推定値の最小値とベイズ誤り確率推定値が最小となるときのjを求める。このときのjをkとする。ここで特徴量iと特徴量kを2つの特徴量のセットとする。
【0094】
(ステップ704:Lnk=Lnk+1)
ステップ704では、特徴量kの第二の評価値Lnkに対して1加える。
【0095】
(ステップ705:i=N、ステップS16:i=i+1)
iの値がNとなれば、ステップ707に進み、iの値がNより小さければ、ステップS706に進む。
【0096】
(ステップ706:i=i+1)
ステップ706では、iに1加え、ステップ703に戻る。
【0097】
(ステップ707:scorei=Lni(i=1,・・・,N))
ステップ707では、それぞれの特徴の第二の評価値Lnをスコアとし、これを基にステップS13で決めたセットごとに特徴量を選択する。
【0098】
(第2の実施形態)
本実施形態の処理の流れを図8のフローチャートで説明する。本実施形態が第一の実施形態と異なる点は、第一の実施形態における図2のステップ205が、図8のステップ805に変更されていることである。よって、第一の実施形態と異なる点であるステップ805の処理のみ説明する。なお、第一の実施形態と同様、本実施形態の処理は、図1の情報処理装置101が行うものである。
【0099】
(ステップ805:第一の評価値と第二の評価値に基づくスコアを算出し特徴選択基準を決定)
ステップ805では、第一の実施形態と異なり、第二の評価値だけでなく、第一の評価値と第二の評価値との両方に基づいて特徴選択基準を決定する。第一の評価値と第二の評価値に基づく関数でスコアを求め、特徴選択基準を決定する。このとき、以下に示す式14のような関数でスコアを算出するが、ベイズ誤り確率推定値が小さくなればなるほどスコアが大きくなり、第二の評価値が大きくなればなるほどスコアが大きくなるような関数であれば他の関数を用いてもよい。
【0100】
【数21】
【0101】
式14では第一の評価値であるベイズ誤り確率推定値Bayesと第二の評価値Lnが0になることがあるので、非零値a、bを加えている。例えば特徴量の数が1000個存在するとすると、特徴量ごとの第一の評価値Bayesは最小で0、最大で1であり、また第二の評価値Lnは最小で0、最大で1000であり、この場合、a=1程度、b=0.001程度が適当である。
【0102】
本実施形態におけるスコア算出関数により、特徴量の評価と特徴量間の組合せの評価を考慮した特徴選択が可能になる。よって、必要な特徴量のみの選択が可能になり、特有の次元において発生する問題を起りにくくし、演算処理を高速化させることができる。
【0103】
最後にこれまで述べた本実施形態のスコア算出アルゴリズムを図9に示す。図7と同様に図9はN個の特徴量から2個ずつ特徴量を選択するときについて述べたものである。ここでも、図7とフローチャートと異なるステップ908のみを説明する。
【0104】
(ステップ908:
【0105】
【数22】
【0106】
)
【0107】
ステップ908では、ステップ903で求めた第一の評価値Bayesと第二の評価値Lnを用いた関数をスコアとし第一の実施形態と同様にステップ903で求めた特徴量のセットごとに特徴量を選択する。
【0108】
(第3の実施形態)
本実施形態における処理を図10のフローチャートで説明する。本実施形態が第二の実施形態と異なる点は、第2の実施形態を示す図8のステップ804がステップ1004に変更されていることである。よって、第二の実施形態と異なる点であるステップ10004のみを説明する。また第一の実施形態にも第3の実施形態の手法を適用できるが、ここでは説明を省略する。なお、第二の実施形態と同様、本実施形態の処理は、図1の情報処理装置101が行うものである。
【0109】
(ステップ1004)
本実施形態では、複数の第一の評価値それぞれに対してあらかじめ設定された評価基準との適合度合いを判定する。そして、当該適合度合いがより大きい第一の評価値の前記組合せ特徴を構成する特徴量の第二の評価値に対してより多く所定の値の加算を行い、第二の評価値を算出する。
【0110】
図11は、本実施形態における第二の評価値算出のアルゴリズムの概要を示した図である。
【0111】
本実施形態では、第一の実施形態および第二の実施形態と同様に、全ての特徴量の組合せに対して第一の評価値(ここではベイズ誤り確率推定値)を求める。
【0112】
例えば、第一の実施形態の図5と同様に、特徴量A、B、C、Dがある場合、特徴量を少なくとも2個以上同時に組合せるが、特徴量AからDに対して第一の評価値が最も良い特徴量に第二の評価値に値1加算する。特徴量Aに注目した場合、特徴量Aを含む組合せに対して第一の評価値が最も良い、つまりベイズ誤り確率推定値最も低い(Bayes=0.08)のは特徴量Bである。よって特徴量Bに対して第二の評価値に値1加算する。第1の実施形態、第2の実施形態と同様に、以上の処理を全ての特徴量に対して行う。
【0113】
本実施形態では、第一の実施形態および、第二の実施形態と異なり、特徴量AからDに対して第一の評価値が二番目に良い特徴量に対して第二の評価値に値w(0<w<1)加算する。特徴量Aに注目した場合、特徴量Aを含む組合せに対して特徴量Aの第一の評価値が二番目に優れた、つまりベイズ誤り確率推定値が二番目に低い(Bayes=0.1)特徴量は特徴量Cである。よって特徴量Cに対して第二の評価値に値w加算する。第一の評価値が悪くなるにつれて第二の評価値に対して加算する値を小さくしても良い。図11では二番目に優れた特徴量に対して第二の評価値に加算していく。次に特徴量Bに注目した場合、特徴量Bを含む組合せに対して特徴量Bの第一の評価値が二番目に優れた、つまりベイズ誤り確率推定値が二番目に低い(Bayes=0.05)特徴量は特徴量Dである。よって特徴量Dに対して第二の評価値に値w加算する。また特徴量Cに注目した場合、特徴量Cを含む組合せに対して特徴量Cの第一の評価値が二番目に優れた、つまりベイズ誤り確率推定値が二番目に低い(Bayes=0.05)特徴量は特徴量Dである。よって特徴量Dに対して第二の評価値に値w加算する。なお特徴量Dに注目した場合、特徴量Dを含む組合せに対して第一の評価値が最も良い、つまりベイズ誤り確率推定値最も低い(Bayes=0.05)特徴量は特徴量BとCの二つである。よって第一の評価値が二番目に良い特徴量に関して第二の評価値に所定の値を加算しない。結果的に加算した値の第二の評価値合計値は、特徴量Aでは0、Bでは2.5、Cでは1.5+w、Dでは2wとなる。これにより、精度の高い第二の評価値の算出が可能となる。
【0114】
以上説明したように、本実施形態における第二の評価値算出方法により、精度の良い第二の評価値が算出可能になり、より組合せ相性の良い特徴選択が可能になる。必要な特徴量のみを選択することが可能になり、その結果、特有の次元において発生する問題を起りにくくし、演算処理を高速化させることができる。
【0115】
(第四の実施形態)
上記実施形態では、クラスw1とw2のパターンの値が既知な2クラス問題において、クラスw1、w2とをより分離できる評価値を選択した。
【0116】
しかし、実際には、クラスw1のパターンの値のみが既知で、クラスw2のパターンの値が未知である場合が考えられる。例えば、良品検査において、不良品のパターンの値は未知であり、良品のパターン値のみが既知である場合である。そこで、本実施形態では、クラスw1のパターンのみで算出可能な分離度合いを示す評価値を用いた処理を行う。
【0117】
以下では、クラスw1のパターンのみで算出可能な評価値について説明する。
クラスw2に対するクラスw1の分離度合い示す評価値として、クラスw1の分布密度が考えられる。仮に、クラスw1の分布が密である場合、特徴空間内でクラスw1の分布が発散する範囲が狭くなり、クラスw1とクラスw2の分布が重なる可能性は低くなる。逆に、特徴空間内でクラスw1の分布が発散する範囲が広くなり、クラスw1とクラスw2の分布が重なる可能性が高くなる。
【0118】
以上説明したように、w1の分布密度に応じて重なるパターン数は変化するが、クラスw1の分布が密である場合でも、重なりがある場合には、クラスw1が密であるため分布内の多くのパターンが重なる。また、クラスw1の分布が疎である場合でも、もし重なりがある場合には、クラスw1の分布が疎であるため重なるパターンは少ない。
【0119】
しかしながら、一般的には、w1の分布が密であるほうが、クラスw1とクラスw2とで重なるパターン数は少なくなる。よって、クラスw1のパターンの分布がより密になる特徴量の方が、クラスw1とクラスw2とを分離する特徴量として優れていることになる。
【0120】
本実施形態では、クラスw1のパターンの分布を表す評価値として、クラスw1のパターンの重心から最も離れているパターンのユークリッド距離を用いる。また、重心からのすべてのパターンへのユークリッド距離の標準偏差を評価値として用いることも可能である。また、マンハッタン距離等の他の距離概念を用いても良い。
【0121】
以下で、本実施形態における処理フローを説明する。
【0122】
図12は、本実施形態における処理フローを示す図である。本実施形態が第二の実施形態と異なる点は、第二の実施形態を示す図8のステップ803がステップ1203に変更されていることである。よって、第二の実施形態と異なる点であるステップ1203のみを説明する。なお、第二の実施形態と同様、本実施形態の処理は、図1の情報処理装置101が行うものである。
【0123】
図13は、本実施形態におけるステップ1203の処理の詳細を示す図である。以下で、図13に沿って、ステップ1203における処理の詳細を説明する。尚、ステップ1301はステップ1202に対応するので説明を省く。
【0124】
(ステップ1302:特徴量ごとに所定のクラスw1のみの全パターンを正規化)
ステップ1302では、各特徴量の標準偏差でクラスw1のパターンすべてを特徴量ごとに正規化する。本実施形態では、n次元の特徴空間におけるユークリッド距離で特徴量を評価する必要があるためである。
【0125】
(ステップ1303:n個の特徴量の組合せそれぞれに対してn次元の特徴空間に所定の1クラスw1のパターンのみをプロット)
次に、ステップ1303では、生成されたn個の特徴量の組合せそれぞれに対して、n次元の特徴空間に1クラスw1のパターンをプロットする。
【0126】
図14は、n=2である場合に、1クラスw1のパターンがプロットされた特徴空間を示す図である。
【0127】
(ステップ1304:所定の1クラスw1のパターンの重心を算出)
ステップ1304では、特徴空間にプロットされたパターンの重心Gを求める。
【0128】
(ステップ1305:発散度を第一評価値とし、n個の特徴量の組合せそれぞれに対しても第一評価値を算出)
ステップ1305では、n次元の特徴空間において、ステップ1304で求めた重心Gから最も離れているパターンとのユークリッド距離dmaxを求め、このユークリッド距離を発散度とする。もしくは重心Gからの各パターンへのユークリッド距離diのすべてのパターンへのdiの標準偏差を発散度とする。以上の処理で算出された発散度を、上記実施形態と同様に第一の評価値とする。
【0129】
尚、発散度はベイズ誤り確率推定値と同様に小さいほどクラスを分離する特徴量として優れている。よって、n次元の特徴空間におけるユークリッド距離を発散度として、ベイズ誤り確率推定値と同様に、第一の評価値として扱うことが可能である。本実施形態によれば、1クラスのみのデータから、特徴量選択が可能となる。
【0130】
尚、以上の説明では、1クラス問題について述べたが、本実施形態は多クラス問題にも適用可能である。あるクラスが他のクラスとの分離している度合いを示すのにn次元の特徴空間において重心から最も離れているパターンのユークリッド距離、を発散度として利用することが可能である。
【0131】
(他の実施形態)
上記実施形態では外観検査においての利用を述べたが、本発明は、顔認識や動画像を含むマルチモーダル多次元データ等のパターン識別問題において用いる特徴量を、多様な特徴量の中から選択する場合にも用いることができる。なお、その他のパターン認識やデータマイニングの分野で用いることも可能である。
【0132】
また、上記実施形態では,ベイズ誤り確率推定値などを用いて各特徴量を評価し、特徴量を選択した。このようにあらかじめ識別器を通す前に特徴量を評価するという手法はフィルター法と呼ばれる。これに対し,実際に良品不良品などを識別する識別器を通してその性能を評価して特徴量を用いるか用いないかを決める手法はワッパー法と呼ばれる。ワッパー法は識別結果を見ているためにフィルター法と比べて性能は良いが、計算時間が膨大にかかるという欠点がある。そこで、膨大な特徴量数に対してワッパー法を効率的に行うために,計算が高速なフィルター法で特徴量を絞り込んでおく手法が提案されている。特徴量を絞り込んでおくことにより、ワッパー法のみを用いる場合よりも計算時間を短縮することが出来る。上記実施形態の手法は、ワッパー法を第二の選択手段として、ワッパー法と組合せて行うことも可能である。
【0133】
また、上記実施形態における処理は、CDROM等の記録媒体に記録されたコンピュータプログラムをコンピュータによって処理することにより、実現することが可能である。
【特許請求の範囲】
【請求項1】
入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置であって、
前記複数の特徴量を組合せることにより複数の組合せを生成する生成手段と、
前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出手段と、
前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を得る第二の算出手段とを有することを特徴とする情報処理装置。
【請求項2】
更に、前記第二の評価値に基づき、前記複数の特徴量から前記入力データの分類に用いる特徴量を選択する選択手段を有することを特徴とする請求項1に記載の情報処理装置。
【請求項3】
更に、前記第二の評価値に基づき、前記複数の特徴量から前記入力データの分類に用いる特徴量を選択するための選択基準を設定する設定手段を有することを特徴とする請求項1に記載の情報処理装置。
【請求項4】
前記入力データは、外観検査の対象である検査対象物を撮像した入力画像データであり、
前記第一の評価値と前記第二の評価値とは、前記検査対象物が良品であるか否かを評価するための評価値であることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
【請求項5】
前記第一の評価値は、前記入力データの分類の分離度を評価する評価値であることを特徴とする請求項2に記載の情報処理装置。
【請求項6】
前記第一の評価値は、前記入力データの分類のベイズ誤り確率推定値であることを特徴とする請求項5に記載の情報処理装置。
【請求項7】
前記第二の算出手段は、前記複数の組合せそれぞれに対する前記第一の評価値同士を比較することにより、
前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を算出することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
【請求項8】
前記第一の評価値は、前記入力データの分類のクラス内分散・クラス間分散比であることを特徴とする請求項5に記載の情報処理装置。
【請求項9】
前記第二の算出手段は、
前記第一の評価値に基づき、前記組合せごとに前記入力データの分類に適している特徴量を抽出し、
前記抽出された回数に基づき、前記複数の特徴量それぞれに対して前記第二の評価値を算出することを特徴とする請求項1に記載の情報処理装置。
【請求項10】
前記設定手段は、前記第一の評価値と前記第二の評価値とに基づいて、前記選択基準を設定することを特徴とする請求項3に記載の情報処理装置。
【請求項11】
前記第二の算出手段は、
前記第一の評価値それぞれに対してあらかじめ設定された評価基準との適合度を判定し、当該判定結果に基づき、前記第二の評価値を算出することを特徴とする請求項1に記載の情報処理装置。
【請求項12】
前記第一の評価値は、前記複数の特徴量の特徴空間における前記入力データの発散度であることを特徴とする請求項1に記載の情報処理装置。
【請求項13】
更に、前記選択手段により選択された特徴量から、前記入力データの識別器を用いて特徴量を選択する第二の選択手段を有することを特徴とする請求項2に記載の情報処理装置。
【請求項14】
入力データの分類に用いる特徴量を選択するための情報処理装置であって、
前記複数の特徴量を組合せることにより複数の組合せを生成する生成手段と、
前記複数の組合せそれぞれの前記入力データの分類への適合を評価する第一の評価値から、各特徴量の分類への適合を示す第二の評価値を得る取得手段と、
前記第二の評価値に基づいて、前記入力データの分類に用いる特徴量を選択する選択手段とを有することを特徴とする情報処理装置。
【請求項15】
入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理方法であって、
生成手段が、前記複数の特徴量を組合せることにより複数の組合せを生成する生成工程と、
第一の算出手段が、前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出工程と、
第二の算出手段が、前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を算出する第二の算出工程とを有することを特徴とする情報処理方法。
【請求項16】
コンピュータを、
入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置であって、
前記複数の特徴量を組合せることにより複数の組合せを生成する生成手段と、
前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出手段と、
前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を算出する第二の算出手段とを有する情報処理装置として機能させるためのコンピュータプログラム。
【請求項1】
入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置であって、
前記複数の特徴量を組合せることにより複数の組合せを生成する生成手段と、
前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出手段と、
前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を得る第二の算出手段とを有することを特徴とする情報処理装置。
【請求項2】
更に、前記第二の評価値に基づき、前記複数の特徴量から前記入力データの分類に用いる特徴量を選択する選択手段を有することを特徴とする請求項1に記載の情報処理装置。
【請求項3】
更に、前記第二の評価値に基づき、前記複数の特徴量から前記入力データの分類に用いる特徴量を選択するための選択基準を設定する設定手段を有することを特徴とする請求項1に記載の情報処理装置。
【請求項4】
前記入力データは、外観検査の対象である検査対象物を撮像した入力画像データであり、
前記第一の評価値と前記第二の評価値とは、前記検査対象物が良品であるか否かを評価するための評価値であることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
【請求項5】
前記第一の評価値は、前記入力データの分類の分離度を評価する評価値であることを特徴とする請求項2に記載の情報処理装置。
【請求項6】
前記第一の評価値は、前記入力データの分類のベイズ誤り確率推定値であることを特徴とする請求項5に記載の情報処理装置。
【請求項7】
前記第二の算出手段は、前記複数の組合せそれぞれに対する前記第一の評価値同士を比較することにより、
前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を算出することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
【請求項8】
前記第一の評価値は、前記入力データの分類のクラス内分散・クラス間分散比であることを特徴とする請求項5に記載の情報処理装置。
【請求項9】
前記第二の算出手段は、
前記第一の評価値に基づき、前記組合せごとに前記入力データの分類に適している特徴量を抽出し、
前記抽出された回数に基づき、前記複数の特徴量それぞれに対して前記第二の評価値を算出することを特徴とする請求項1に記載の情報処理装置。
【請求項10】
前記設定手段は、前記第一の評価値と前記第二の評価値とに基づいて、前記選択基準を設定することを特徴とする請求項3に記載の情報処理装置。
【請求項11】
前記第二の算出手段は、
前記第一の評価値それぞれに対してあらかじめ設定された評価基準との適合度を判定し、当該判定結果に基づき、前記第二の評価値を算出することを特徴とする請求項1に記載の情報処理装置。
【請求項12】
前記第一の評価値は、前記複数の特徴量の特徴空間における前記入力データの発散度であることを特徴とする請求項1に記載の情報処理装置。
【請求項13】
更に、前記選択手段により選択された特徴量から、前記入力データの識別器を用いて特徴量を選択する第二の選択手段を有することを特徴とする請求項2に記載の情報処理装置。
【請求項14】
入力データの分類に用いる特徴量を選択するための情報処理装置であって、
前記複数の特徴量を組合せることにより複数の組合せを生成する生成手段と、
前記複数の組合せそれぞれの前記入力データの分類への適合を評価する第一の評価値から、各特徴量の分類への適合を示す第二の評価値を得る取得手段と、
前記第二の評価値に基づいて、前記入力データの分類に用いる特徴量を選択する選択手段とを有することを特徴とする情報処理装置。
【請求項15】
入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理方法であって、
生成手段が、前記複数の特徴量を組合せることにより複数の組合せを生成する生成工程と、
第一の算出手段が、前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出工程と、
第二の算出手段が、前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を算出する第二の算出工程とを有することを特徴とする情報処理方法。
【請求項16】
コンピュータを、
入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置であって、
前記複数の特徴量を組合せることにより複数の組合せを生成する生成手段と、
前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出手段と、
前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を算出する第二の算出手段とを有する情報処理装置として機能させるためのコンピュータプログラム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【公開番号】特開2010−102690(P2010−102690A)
【公開日】平成22年5月6日(2010.5.6)
【国際特許分類】
【出願番号】特願2009−183717(P2009−183717)
【出願日】平成21年8月6日(2009.8.6)
【出願人】(000001007)キヤノン株式会社 (59,756)
【Fターム(参考)】
【公開日】平成22年5月6日(2010.5.6)
【国際特許分類】
【出願日】平成21年8月6日(2009.8.6)
【出願人】(000001007)キヤノン株式会社 (59,756)
【Fターム(参考)】
[ Back to top ]