説明

ニューラルネットワークのトレーニング方法

【課題】本発明は人工ニューラルネットワーク(NN)をトレーニングする方法(30)を提供する。
【解決手段】前記方法(30)は:トレーニングするNNの出力を選択し、NNのニューロンの出力を前記選択した出力のためのNNの入力層に接続することによりNNを初期化するステップ;NNに学習させるデータセットを用意するステップ;並びに、前記用意したデータセットの入力ベクトルをNNの第1の中間層に、又はNNに中間層がなければNNの出力層に適用することにより前記用意したデータセットをNNに適用して学習させるステップ;及び、NNの各層における前記選択した出力のための少なくとも1のニューロンが、入力ベクトルに対する付随出力の生成を学習しうるか否かを決定するステップを含んでなる。NNの1層におけるどのニューロンも入力ベクトルに対する前記付随出力の生成を学習できなければ、その層における全ての他のニューロンが学習できなかった付随出力を学習するために、その層に新規ニューロンが追加される。新規ニューロンは、トレーニングされる出力と関連する次の層において全てのニューロンと接続する出力を有する。出力ニューロンが入力ベクトルを学習できなければ、別のニューロンが同一層に追加され、現状の出力ニューロン及び全ての入力はこれに接続される。このニューロンは、古い出力が学習できなかった入力を学習する。追加ニューロンは次の層に追加される。このニューロンへの入力はNNの古い出力及び次の層への新規追加ニューロンである。


Notice: Undefined index: DEJ in /mnt/www/gzt_disp.php on line 298

【特許請求の範囲】
【請求項1】
人工ニューラルネットワークをトレーニングするための方法であって、前記方法は、
(i)トレーニングするニューラルネットワークの出力を選択し、前記ニューラルネットワークのニューロンの出力を前記選択した出力のためのニューラルネットワークの入力層に接続することにより前記ニューラルネットワークを初期化するステップ;
(ii)前記ニューラルネットワークに学習させるデータセットを用意するステップ;並びに、
(iii)前記用意したデータセットの入力ベクトルを前記ニューラルネットワークの第1の中間層に、又は前記ニューラルネットワークに中間層がなければ前記ニューラルネットワークの出力層に適用することにより前記用意したデータセットを前記ニューラルネットワークに適用して学習させるステップ、及び、前記ニューラルネットワークの各層における前記選択された出力のための少なくとも1のニューロンが、入力ベクトルに対する付随出力の生成を学習しうるか否かを決定するステップを含んでなり、ここに:
前記ニューラルネットワークの各層における前記選択された出力が前記入力ベクトルに対する前記付随出力の生成を学習できれば、及び学習するために前記用意したデータセットよりも多くの入力ベクトルが存在するならば、次の入力ベクトルに対してステップ(iii)を繰り返し、さもなければ、トレーニングすべき出力がまだあるならば前記ニューラルネットワークの次の出力に対してステップ(i)から(iii)を繰り返し;
前記ニューラルネットワークの前記選択された出力に対する中間層のニューロンが前記入力ベクトルに対する付随出力の生成を学習できなければ、前記選択された出力に対してその層の全ての他のニューロンが学習できなかった前記付随出力を学習するためにその層に新規ニューロンが追加され、学習すべき前記データセットの入力ベクトルがまだあるならばステップ(iii)を繰り返し、さもなければ、トレーニングすべき出力がまだあるならば前記ニューラルネットワークの次の出力に対してステップ(i)から(iii)を繰り返し;
前記ニューラルネットワークの前記選択された出力に対する出力ニューロンが前記入力ベクトルに対する付随出力の生成を学習できなければ、その出力ニューロンは前記ニューラルネットワークの中間層のニューロンとなり、出力ニューロンが学習できなかった前記付随出力を学習するために新規ニューロンがこの中間層に追加され、前記選択された出力に対して前記ニューラルネットワークに新規ニューロンが追加され、学習すべきデータセットの入力ベクトルがまだあるならばステップ(iii)を繰り返し、さもなければ、トレーニングすべき出力がまだあるならば前記ニューラルネットワークの次の出力に対してステップ(i)から(iii)を繰り返す、
方法。
【請求項2】
人工ニューラルネットワークをトレーニングする方法であって、
(i)前記ニューラルネットワークが学習するデータセットを準備するステップ;
(ii)トレーニングするニューラルネットワークの出力を選択することによりニューラルネットワークを初期化し、選択した出力に対して前記ニューラルネットワークの出力ニューロンを前記ニューラルネットワークの入力層の入力ニューロンに接続するステップ;
(iii)前記準備したデータセットの入力ベクトルを前記ニューラルネットワークの第1の中間層に、又は前記ニューラルネットワークに中間層がなければ前記ニューラルネットワークの出力層に適用することにより前記準備したデータセットが学習されるよう前記ニューラルネットワークに適用するステップ、並びに、前記ニューラルネットワークの各層内に選択された出力に対する少なくとも1のニューロンが前記入力ベクトルに付随する出力の生成を学習しうるか否かを決定するステップを含んでなり、ここに:
前記ニューラルネットワークの各層内において選択された出力に対する少なくとも1のニューロンが前記入力ベクトルに付随する出力の生成を学習しうるならば、及び前記準備された学習データセットの入力ベクトルがまだあるならば、次の入力ベクトルに対してステップ(iii)を繰り返し、さもなければトレーニングする出力がまだあるならば前記ニューラルネットワークの次の出力に対してステップ(ii)及び(iii)を繰り返し;
前記ニューラルネットワークの選択された出力に対する中間層内に前記入力ベクトルに付随する出力の生成を学習しうるニューロンがなければ、前記選択された出力に対するその層のいずれのニューロンによっても学習され得ない前記付随する出力を学習するためにその層に新しいニューロンが追加され、並びに、学習するデータセットがまだあるならば次の入力ベクトルに対してステップ(iii)を繰り返し、さもなければトレーニングする出力がまだあるならば前記ニューラルネットワークの次の出力に対してステップ(ii)及び(iii)を繰り返し;
前記ニューラルネットワークの選択された出力に対する出力ニューロンが前記入力ベクトルに付随する出力の生成を学習できなければ、その出力ニューロンは前記ニューラルネットワークの中間層のニューロンとなり、前記出力ニューロンによっって学習されなかった前記付随する出力を学習するためにこの中間層に新しいニューロンが追加され、前記選択された出力に対して前記ニューラルネットワークに新しい出力ニューロンが追加され、並びに、学習すべきデータセットの入力ベクトルがまだあるならばステップ(iii)を繰り返し、さもなければ、トレーニングする出力がまだあるならば前記ニューラルネットワークの次の出力に対してステップ(ii)及び(iii)を繰り返す、
方法。
【請求項3】
前記ニューラルネットワークの前記ニューロンは、線形閾値ゲート(LTGs)である、請求項1又は2に記載の方法。
【請求項4】
前記ステップ(iii)において、LTGが入力ベクトルに対して関連付けられる出力の生成を学べるか否かを決定することは、重みとLTGの閾値との関係が、LTGが以前に学んだものを解とするか否かを決定することである、請求項3に記載の方法。
【請求項5】
前記関係は制約条件であり、入力ベクトル及びLTGの重みベクトルは、ニューラルネットワークの選択された出力に基づくLTGの閾値との関係を形成する、請求項4に記載の方法。
【請求項6】
制約条件の学習は、LTGの制約条件セットに制約条件を追加しうることである、請求項5に記載の方法。
【請求項7】
LTGの制約条件セットに制約条件を追加しうるためには、全ての制約条件に解決が存在しなければならない、請求項6に記載の方法。
【請求項8】
前記ニューラルネットワークを初期化するステップは、さらに、出力LTGの制約条件セットが空となるように出力LTGの制約条件セットをクリアするステップを含む、請求項3に記載の方法。
【請求項9】
請求項1から8のいずれかに記載の方法であって、前記ニューラルネットワークにより学習されるデータセットを準備する前記ステップは、前記データセットがトレーニングのために前記ニューラルネットワークに提示される前に、前記データセットを所定のデータフォーマットに変換するステップ;前記データセットがトレーニングのために前記ニューラルネットワークに提示される前に、前記データセット内に何らかの不一致が存在するか否かを決定するステップ;並びに、前記データセットがトレーニングのために前記ニューラルネットワークに提示される前に、ゼロ入力ベクトルが前記データセット内に使用可能であるか否かを決定し、ゼロ入力ベクトルが前記データセット内に使用可能であればゼロ入力ベクトルが最初にトレーニングされるために前記ニューラルネットワークに提示されるよう前記データセットを順序づけるステップ、の任意の順番で実施されうる各ステップをを含んでなる、方法
【請求項10】
前記所定のデータフォーマットはバイナリ又は浮動小数点データフォーマットである、請求項9に記載の方法。
【請求項11】
ニューラルネットワークにデータセットが提示される以前にデータセットに何らかの不一致があるか否かを決定する前記ステップは、異なる出力を生じる2以上の同一の入力ベクトルがあるか否かを決定することを含む、請求項9又は10に記載の方法。
【請求項12】
異なる出力を生じる2以上の同一の入力ベクトルがあるか否かが決定されるならば、ただ1つの入力ベクトルが用いられる、請求項11に記載の方法。
【請求項13】
前記データセットがトレーニングのために前記ニューラルネットワークに提示される前に並び替えられる前記ステップは、前記データセットの入力ベクトルを、1を出力するもの及び0を出力するものの2つのセットに並び替えるステップ、及び、前記2つのセットの一方を最初にトレーニングするために選択するステップ、自己組織化マップ(SOM)により前記データを並び替えるステップ、及び/又は任意の他の適切な方法を用いて前記データを並び替えるステップ、を含んでなる、請求項9から12のいずれかに記載の方法。
【請求項14】
ソートしたデータから、データがトレーニングのためにニューラルネットワークに提示される前に、各入力層に対して単一のリストが生成される、請求項13に記載の方法。
【請求項15】
請求項5に記載の方法であって、ステップ(iii)に係る層内のいかなる他のLTGによっても学習され得ない制約条件を学習するために新規なLTGが当該層に追加されるならば、前記新規なLTGは前記ニューラルネットワークの選択された出力に寄与する次層内の全てのLTGに接続され、前記新規なLTGからの入力を受け取る前記次層内のLTGの制約条件セットは前記新規なLTGからの入力を受け付けのために更新され;前記新規なLTGを有する層が前記ニューラルネットワークの第1層でないならば、前記新規なLTGは前記ニューラルネットワークの選択された出力に寄与する先行層内の全てのLTGからの入力に接続されてこれを受信し;前記新規なLTGの制約条件セットはその層内の以前の最後のLTGの改変された制約条件セットのコピー及びその層内のいかなる他のLTGによっても学習され得なかった制約条件を含むように更新される、方法。
【請求項16】
請求項5又は請求項15に記載の方法であって、ステップ(iii)に係る前記ニューラルネットワークに新規な出力LTGが追加されるならば、前記新規な出力LTGは前記中間層内のLTGからの入力に接続されてこれを受信し;前記中間層が前記ニューラルネットワークの第1層ではないならば、前記中間層内の前記新規な出力LTGは前記ニューラルネットワークの選択された出力に寄与する先行層内の全てのLTGに接続されてこれを受信し;前記中間層に追加された前記新規なLTGの制約条件セットはその層内の以前の最後のLTGの改変された制約条件セットのコピー及びその層内のいかなる他のLTGによっても学習され得なかった制約条件を含むように更新され;前記新規な出力LTGは以前の出力LTGによって学習され得なかったものに従って所定の論理関係内にその入力を結合する、方法。
【請求項17】
ステップ(iii)に従って新たな出力LTGがニューラルネットワークに追加されるときに、この新たな出力LTGへの入力間に生じる論理関係は、論理OR、論理AND又は任意の他の適切な論理関係である、請求項16に記載の方法。
【請求項18】
以前の出力LTGによって学び得なかった入力ベクトルが出力1を生成するならば論理ORが用いられ、以前の出力LTGによって学び得なかった入力ベクトルが出力0を生成するならば論理ANDが用いられる、請求項17に記載の方法。
【請求項19】
トレーニング中にニューラルネットワークの層内に新規なニューロンを追加するための方法であって、前記新規なニューロンは、選択された出力に対するその層内の他のニューロンが学習されるデータセットの入力ベクトルに付随する関係を学習しえないときに前記ニューラルネットワークに追加され、前記方法は、
その層内のニューラルネットワークの選択された出力に寄与する以前の最後のニューロンからの改変された全てのデータのコピー及びその層内のいかなる他のニューロンによっても学習され得なかった関係で前記新規なニューロンを更新するステップと;
前記新規なニューロンからの入力を受け取るよう前記出力ニューロンを更新するステップと、を含んでなる、
方法。
【請求項20】
ニューラルネットワークのニューロンはLTGである、請求項19に記載の方法。
【請求項21】
前記関係は、重みとLTGの閾値との関係である、請求項20に記載の方法。
【請求項22】
前記関係は制約条件であり、データセットの入力ベクトル及びLTGの重みベクトルはニューラルネットワークの出力に基づくLTGの閾値との関係を形成する、請求項20又は21に記載の方法。
【請求項23】
バイナリフォーマットデータセット以外のデータセットをニューラルネットワークにより学習されるバイナリフォーマットデータセットに変換するための方法であって、
(i)前記データセットの各属性をバイナリで提示するためのビット数を別個に決定するステップ、
(ii)計算式:範囲=(最大−最小)+1を用いて前記データセットの属性の範囲を計算し、ステップ(i)で決定したビット数を用いて前記データセットの属性の範囲をコード化するステップを含む、
方法。
【請求項24】
請求項1又は2のニューラルネットワークのトレーニング法に従ってトレーニングされるデータを準備するための、請求項23に記載の方法の使用。
【請求項25】
前記データセットの入力ベクトルを2の群にソートするステップ、1を出力するものを0を出力するものと分離するステップ、並びに、ニューラルネットワークにより最初に学ばれる、前記2の群の1を選択するステップを含んでなる、ニューラルネットワークによりトレーニングされるデータセットを並び替える方法。
【請求項26】
請求項1又は2のニューラルネットワークのトレーニング法に従ってトレーニングされるデータを並び替えるための、請求項25に記載の方法の使用。
【請求項27】
入力ベクトルがニューロンによって既知であるか未知であるかを決定する方法であって、前記入力ベクトルから制約条件及びその補空間を構築するステップ;前記制約条件及び補空間を交互に前記ニューロンの制約条件セットに追加するステップ;いずれかの場合に解があるか否かを決定するために前記制約条件セットを試験するステップであって、前記制約条件又はその補空間に解がなければ前記入力ベクトルは前記ニューロンに既知であることが決定され、前記制約条件及びその補空間が交互に前記制約条件セットに追加されるときに解があるばらば、前記入力ベクトルは前記ニューロンによって既知ではないことが決定されるステップ、を含んでなる、方法。
【請求項28】
前記制約条件セットは、LTGニューロンから構築されるニューラルネットワークのニューロンの制約条件セットである、請求項27に記載の方法。
【請求項29】
請求項1又は2のニューラルネットワークのトレーニング法に従ってトレーニングされるニューラルネットワークの未知入力ベクトルの出力を決定するための、請求項27に記載の方法。
【請求項30】
前記データセットに依存して未知入力ベクトルのデフォルト出力は1又は0にセットされる、請求項3のニューラルネットワークのトレーニング方法に従ってトレーニングされるニューラルネットワークのLTGの未知入力ベクトルを決定するための、請求項27に記載の方法の使用。
【請求項31】
制約条件セットの最小活性化体積(MAV)を決定するための方法であって、
(i)前記制約条件セット内に残る制約条件を変化させずに前記制約条件セットからそれぞれの制約条件を一度に1つ除去するステップ;
(ii)前記除去した制約条件セットの補空間を前記制約条件セットに追加するステップ;
(iii)解があるか否かを調べるために新規な制約条件セットをテストするステップを含んでなり、ここに:
解があるならば、MAVを定義する制約条件セットに最初の制約条件が追加され、前記制約条件セットに追加された前記補空間は除去され、最初の制約条件が前記制約条件セットに戻され、前記制約条件セット内にまだ制約条件があるならば、ステップ(i)から(iii)を繰り返し、さもなければ前記MAVは前記MAVを定義する制約条件セットの範囲内に保持される制約条件のセットとし;
解がないならば、前記制約条件セットに追加された前記制約条件の補空間は除去され、最初の制約条件が前記制約条件セットに戻され、前記制約条件セットにテストする制約条件がまだあるならば、ステップ(i)から(iii)を繰り返し、さもなければ前記MAVは前記MAVを定義する前記制約条件セットの範囲内に保持される制約条件のセットとする、
方法。
【請求項32】
前記制約条件セットは、LTGニューロンから構築されるニューラルネットワークのニューロンの制約条件セットである、請求項31に記載の方法。
【請求項33】
請求項1又は2のニューラルネットワークのトレーニング法に従ってトレーニングされるニューラルネットワークにおいて、各LTGに対するMAVを決定するための、請求項32に記載の方法の使用。
【請求項34】
添付図を参照して実質的に記載される、人工ニューラルネットワークをトレーニングするための方法。
【請求項35】
添付図を参照して実質的に記載される、トレーニング期間にニューラルネットワークの層にニューロンを追加する方法。
【請求項36】
添付図を参照して実質的に記載される、バイナリフォーマットデータセット以外のデータセットを、ニューラルネットワークにより学ばれるバイナリフォーマットデータセットに変換する方法。
【請求項37】
添付図を参照して実質的に記載される、ニューラルネットワークによりトレーニングされるデータセットをソートする方法。
【請求項38】
添付図を参照して実質的に記載される、制約条件セットが既知又は道であるかを決定する方法。
【請求項39】
添付図を参照して実質的に記載される、制約条件セットの最小活性化体積(MAV)を決定する方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10a】
image rotate

【図10b】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14a】
image rotate

【図14b】
image rotate

【図14c】
image rotate

【図14d】
image rotate

【図14e】
image rotate

【図14f】
image rotate

【図14g】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20a】
image rotate

【図20b】
image rotate

【図20c】
image rotate

【図20d】
image rotate

【図20e】
image rotate

【図21】
image rotate


【公表番号】特表2009−516246(P2009−516246A)
【公表日】平成21年4月16日(2009.4.16)
【国際特許分類】
【出願番号】特願2008−539194(P2008−539194)
【出願日】平成18年11月15日(2006.11.15)
【国際出願番号】PCT/AU2006/001708
【国際公開番号】WO2007/056803
【国際公開日】平成19年5月24日(2007.5.24)
【出願人】(508143638)