説明

ニューラルネットワーク設計方法及びプログラム

【課題】ニューラルネットワーク設計方法及びプログラムにおいて、RNN回路の結線の値を決定するための計算量及び計算時間を削減可能とすることを目的とする。
【解決手段】RNN回路の入力ベクトルb (t)と出力ベクトルy (t)から行列A(t)を決定することで入出力の整合がとれる結線aij(t)の値を決定して記憶部に記憶し、前記結線aij(t)が決定された前記RNN回路を使用して互いに異なるサンプル点を通る複数の局所近似解を計算すると共に、複数の局所近似解を接続して大域近似解を計算して出力する手順をコンピュータに実行させるように構成する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、物理モデルに適用可能なニューラルネットワークを設計するニューラルネットワーク設計方法、及び、コンピュータにニューラルネットワークを設計させるプログラムに関する。本発明は、このようなプログラムを格納したコンピュータ読み取り可能な記憶媒体にも関する。
【背景技術】
【0002】
リカレントニューラルネットワーク(RNN:Recurrent Neural Network)は、ロボットの動作等に適用するために開発されたニューラルネットワークであるが、ロボットの動作のみならず、歩数計や音声解析装置等の様々な電子装置等の物理モデルに対して適用可能である。RNN自体は、例えば非特許文献1等にて提案されている。
【0003】
RNNは、ニューロンと結線からなるネットワークであり、ニューロンと入出力の結線との関係式は図1のように与えられる。図1において、εiは遅れパラメータ、yi, yjはニューロンの状態量、Cijは重み係数、tは時間を表し、ニューロンの状態量を表すyiをニューロンと同一視する場合もある。
【0004】
図1の関係式の拡張として、図2のような関係式も考えられる。図2は、図1の構成に加え、値giがニューロンyiに入力されることを示し、値giはこのRNN回路のニューロン以外で求められた値である。
【0005】
図3は、RNN回路の一例を説明する図である。入力データbi(t)と出力データyi(t),i=1,2,3が与えられたとき、入出力の整合がとれるように結線aij(t)の値を学習し決定することを考える。この例では、遅れのパラメータεi=1,i=1,2,3であるものとする。
【0006】
図3に示すRNN回路のbi(t)、yi(t)、aij(t)の関係は、以下の式(1)で示すように行列を用いた方程式で表され、入力データbi(t)と出力データyi(t)から結線の値aij(t)を決定することは、入力ベクトルb (t)と出力ベクトルy (t)から行列A(t)を決定することと同じになる。
【0007】
【数1】

【先行技術文献】
【特許文献】
【0008】
【特許文献1】特許第4459597号
【特許文献2】特表2006−507605号公報
【特許文献3】特開2004−185620号公報
【特許文献4】特表2006−501579号公報
【特許文献5】特開平7−56881号公報
【非特許文献】
【0009】
【非特許文献1】永嶋史朗、「双線形時間遅れニューラルネットワークによるロボットソフトウェアシステム」、日本ロボット学会誌、Vol.24, No.6, pp.53-64, 2006
【発明の概要】
【発明が解決しようとする課題】
【0010】
しかし、上記の方法では、全ての時間tに対し行列A(t)を計算する必要があるので、RNN回路の結線の値を決定するための計算量が非常に多く計算時間が非常にかるため、現実的な方法ではないというという問題があった。
【0011】
そこで、本発明は、RNN回路の結線の値を決定するための計算量及び計算時間を削減可能なニューラルネットワーク設計方法及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0012】
本発明の一観点によれば、コンピュータによるニューラルネットワーク設計方法であって、設計対象となるリカレントニューラルネットワーク(RNN:Recurrent Neural Network)回路の入力データbi(t)と出力データyi(t)が与えられたとき(iは1以上の自然数)、n個の入力データとn個の出力データを並べることによって得られる入力ベクトルb (t)と出力ベクトルy (t)から行列A(t)を決定することで入出力の整合がとれる結線aij(t)の値を決定して記憶部に記憶する決定手順と、前記決定手順は、n個の出力ベクトルを並べた行列をY(t)、n個の入力ベクトルb(t)を並べた行列をB(t)とすると、全ての時間tに対して行列Y(t)が0でない場合、前記行列Y(t)は逆行列を持つので前記行列A(t)を決定して前記RNN回路の結線aij(t)の値を決定し、
【数2】

前記結線aij(t)が決定された前記RNN回路を使用して互いに異なるサンプル点を通る複数の局所近似解を計算すると共に、前記複数の局所近似解を接続して大域近似解を計算して出力する出力手順とを前記コンピュータに実行させることを特徴とするニューラルネットワーク設計方法が提供される。
【0013】
本発明の一観点によれば、コンピュータによるニューラルネットワークを設計させるプログラムであって、設計対象となるリカレントニューラルネットワーク(RNN:Recurrent Neural Network)回路の入力データbi(t)と出力データyi(t)が与えられたとき(iは1以上の自然数)、n個の入力データとn個の出力データを並べることによって得られる入力ベクトルb (t)と出力ベクトルy (t)から行列A(t)を決定することで入出力の整合がとれる結線aij(t)の値を決定して記憶部に記憶する決定手順と、前記決定手順は、n個の出力ベクトルを並べた行列をY(t)、n個の入力ベクトルb(t)を並べた行列をB(t)とすると、全ての時間tに対して行列Y(t)が0でない場合、前記行列Y(t)は逆行列を持つので前記行列A(t)を決定して前記RNN回路の結線aij(t)の値を決定し、
【数3】

前記結線aij(t)が決定された前記RNN回路を使用して互いに異なるサンプル点を通る複数の局所近似解を計算すると共に、前記複数の局所近似解を接続して大域近似解を計算して出力する出力手順とを前記コンピュータに実行させることを特徴とするプログラムが提供される。
【発明の効果】
【0014】
開示のニューラルネットワーク設計方法及びプログラムによれば、RNN回路の結線の値を決定するための計算量及び計算時間を削減可能となる。
【図面の簡単な説明】
【0015】
【図1】ニューロンと入出力の結線との関係式を説明する図である
【図2】図1の関係式の拡張を説明する図である。
【図3】RNN回路の一例を説明する図である。
【図4】本発明の一実施例におけるニューラルネットワーク設計方法を、RNN回路の結線を学習する場合について示すブロック図である。
【図5】本発明の一実施例におけるニューラルネットワーク設計方法を、結線が学習されたRNN回路に対して与えられた入力データに対する出力データを決定する場合について示すブロック図である。
【図6】式(7)で与えられた軌跡データを示す図である。
【図7】式(8)で与えられた軌跡データを示す図である。
【図8】局所近似型RNN方式によりA(t)を計算する処理を説明するフローチャートである。
【図9】局所近似解を生成する処理を説明するフローチャートである。
【図10】式(7)の2≦t≦4の軌跡を表す図である。
【図11】式(24)の局所近似解を表す図である。
【図12】接続RNN方式で用いる関数を説明する図である。
【図13】接続RNN方式で用いる関数を説明する図である。
【図14】接続RNN方式を用いた局所近似解の接続処理を説明するフローチャートである。
【図15】大域近似解y(t)を表す図である。
【図16】コンピュータシステムの一例をより詳細に示すブロック図である。
【発明を実施するための形態】
【0016】
開示のニューラルネットワーク設計方法及びプログラムでは、RNN回路の出力ベクトルそのものを出力するのではなく、簡略化して局所的な近似解を出力するように上記の式(1)の行列A(t)を学習(又は、記憶)する方式(以下、局所近似型RNN方式と言う)を用いる。設計対象となるRNN回路の入力データbi(t)と出力データyi(t)が与えられたとき(iは1以上の自然数)、n個の入力データとn個の出力データを並べることによって得られる入力ベクトルb (t)と出力ベクトルy (t)から行列A(t)を決定することで入出力の整合がとれる結線aij(t)の値を決定する。又、いくつかの領域で得られた局所近似解を接続し、大域近似解を得る方式(以下、接続RNN方式と言う)を用いる。結線aij(t)が決定されたRNN回路を使用して互いに異なるサンプル点を通る複数の局所近似解を計算すると共に、複数の局所近似解を接続して大域近似解を計算して出力する。こらら2つの方式(局所近似型RNN方式及び接続RNN方式)を用いることで、大域的な近似解の出力ベクトルを生成する。
【0017】
以下に、開示のニューラルネットワーク設計方法及びプログラムの各実施例を図面と共に説明する。
【実施例】
【0018】
先ず、上記の式(1)とは異なる行列A(t)を決定方法について説明する。式(2)に示すように、n個の出力ベクトルが与えられたとき、式(3)のような入力ベクトルb (t)とn個の出力ベクトルy (t) の整合性がとれるように、行列A(t)を決定することを考える。ここで、nは複数、即ち、2以上の自然数である。
【0019】
【数4】

【0020】
【数5】

【0021】
以下の式(4)のようにn個の出力ベクトルを並べてできる行列をY(t)、n個の入力ベクトルb(t)を並べてできる行列をB(t)とすると、上記の関係式(3)から方程式(5)が導き出せる。
【0022】
【数6】

【0023】
【数7】

【0024】
この結果、全ての時間tに対して行列Y(t)が0でない場合(即ち、det(Y(t))≠0)、行列Y(t)は逆行列を持つので、式(6)に示すように、上記の関係式(5)からA(t)を決定することができ、元のRNN回路の結線aij(t)の値を決定することができる。
【0025】
【数8】

【0026】
しかし、上記の方法では、全ての時間tに対し行列Y(t)が0でないこと(即ち、det(Y(t))≠0)を確認し、行列Y(t)の逆行列を計算する必要があるので、RNN回路の結線の値を決定するための計算量が比較的多く、計算時間がかかる。
【0027】
図4及び図5は、本発明の一実施例におけるニューラルネットワーク設計方法を説明するブロック図である。図4及び図5は、プログラムを実行することでニューラルネットワーク設計処理を行うコンピュータシステム(又は、情報処理装置)を示すブロック図である。この例では、コンピュータシステムは、パーソナルコンピュータ(PC:Personal Computer)等の汎用コンピュータで形成可能である。
【0028】
図4は、PCで入力データと出力データを記憶するために、設計対象となるRNN回路の結線を学習(又は、記憶)する場合を示し、図5は、PCにおいて結線が学習されたRNN回路に対し、入力データが与えられたとき、その入力データに対する出力データを求めて決定する場合を示す。図4及び図5において、PCはCPU(Central Processing Unit)101と、メモリ等で形成可能な記憶部102を有する。記憶部102は、入力データ(又は、入力データファイル)及び出力データ(又は、出力データファイル)を格納する。
【0029】
例えば、ロボット(図示せず)の移動軌跡を計算する場合、ロボットに設置された加速度センサ(図示せず)から、3次元空間の軌跡データを 周知の方法で計算することができる。そこで、図4において、記憶部102は、時刻データ(t)が記録されている入力データファイルと、加速度センサ等からのデータに基づいて計算された3次元空間の軌跡データ又は軌跡のログ(x(t),y(t),z(t))が記録されている出力データファイルを格納している。又、図4の記憶部102は、局所近似型RNN方式のプログラムを格納しており、CPU101はこのプログラムと記憶部102に格納された入出力データファイルを使用してRNN回路の結線の値を計算する。
【0030】
図5において、与えられる入力データは、時刻データ(t)、中心位置情報 (x(ti),y(ti),z(ti)) (i=1,...m)、及び接続位置情報(x(tj),y(tj),z(tj)) (j=1,...,n)が含まれる。中心位置情報とは、局所近似解の中心位置となる時刻と3次元空間の位置情報である。又、接続位置情報とは、局所近似解を接続する時刻と3次元空間の位置情報である。図4において結線の学習(又は、記憶)が行われたRNN回路を使用することで、図5のCPU101は各中心位置を通る局所近似解を計算する。又、図5において、CPU101は、記憶部102に格納されている接続RNN方式のプログラムを使用して、接続位置において各局所近似解を接続し、大域近似解を計算して出力する。このようにして図5のCPU101から出力される出力データ(即ち、大域近似解)は、例えば3次元空間の軌跡データを含み、この軌跡データをロボットに入力することにより、ロボットを軌跡データで表される軌跡上を走行するように制御することができる。
【0031】
次に、1つの具体例について説明する。例えば、説明の便宜上、以下の式(7)及び式(8)に示すような、加速度センサの出力データから計算された2次元空間の軌跡データ(x(t),y(t))のファイルがあるものとする。
【0032】
【数9】

【0033】
【数10】

【0034】
加速度センサからの出力は、単位時間毎のデジタルデータであるため、上記の2次元空間の軌跡データ(x(t),y(t))は、このデジタルデータを連続時間のアナログデータに変換したものに相当する。上記の式(7)及び式(8)で与えられた軌跡データをグラフ化すると、夫々図6及び図7のようになる。図6は上記の式(7)で与えられた軌跡データを示す図であり、図7は上記の式(8)で与えられた軌跡データを示す図である。図6及び図7において、縦軸はy座標、横軸はx座標示す。
【0035】
時刻tを入力データとし、図6及び図7の2つの軌跡データを出力するような学習方法を、先ず従来の手法を用いる比較例から説明する。この比較例の場合、入力行列B(t)は、式(9)のようになり、出力行列Y(t)は式(10)のようになる。
【0036】
【数11】

【0037】
【数12】

【0038】
Y(t)は、0≦t≦6の範囲(実際には全ての実数値)で無限回微分可能であるが、t=0でY(t)は逆行列をも持たないため、0<t≦6の全てのtに対し、上記の式(6)から(2×2行列の)A(t)を計算することができる。ここで、A(t)を求めるための上記の式(6)の計算量(掛け算の回数)を説明する。tの値を1つ固定するとき、Y(t)の逆行列を求めるときに7回、Y(t)の逆行列とdY(t)/dt-B(t)の掛け算のときに8回、合計で15回の掛け算を必要とする。例えば、tの単位を秒とし、加速度センサの記録間隔を20msとすると、6秒間で300個のサンプル点を取ることができる。
【0039】
全てのサンプル点に対し、上記の式(6)からA(t)を計算するときの計算量は、300×15=4500回となる。加速度センサの記録間隔が短く、軌跡の開始時刻と停止時刻の間隔が長い場合等には、より計算量が多くなる。
【0040】
次に、上記の具体例に対し、局所近似型RNN方式を適用して学習する方法を、図8と共に説明する。図8は、局所近似型RNN方式によりA(t)を計算する処理を説明するフローチャートである。先ず、ステップST1で中心位置情報t0と保障する次数mを決定する。局所近似は、t0を中心とした近傍で生成され、m次近似まで保障される。中心位置情報と次数の決め方は、学習させる入出力情報に応じて様々な方法が使用可能であるが、この具体例では、中心位置情報を等間隔にt0=1,3,5と3点選び、次数を3に設定する。一般に、中心位置情報を増やし、次数を上げると近似も良くなるが、計算量はその分多くなる。又、中心位置情報t0を決定するときに、Y(t0)が逆行列を持つことが必要な条件となる。
【0041】
図8において、ステップST2で、Y(t0)の逆行列と以下の式(11)のようなY(t)、B(t)のテイラー展開(Tailor Expansion)を次数m=3まで計算する。
【0042】
【数13】

【0043】
以下の式(12)はt0=1,3,5を中心とするY(t)の次数m=3までのテイラー展開を表し、以下の式(13)はt0=1, 3, 5を中心とするB(t)のテイラー展開を表す。
【0044】
【数14】

【0045】
【数15】

【0046】
図8において、ステップST3で、Y(t0)の逆行列とY(t)、B(t)のテイラー展開を用いて以下の生成式(14)よりAkを求め、A(t)を計算する。ここで、中心位置情報t0=1, 3, 5と次数m=3という今回の条件でのA(t)を求めるための式(14)の計算量(掛け算の回数)を計算して上記比較例の場合と比較する。
【0047】
【数16】

【0048】
局所近似型RNN方式によりA(t)を計算する処理の場合、t0の値を1つ固定するとき、Y(t0)の逆行列を求めるときに7回、A0を求めるときに8回、A1を求めるときに20回、A2を求めるときに28回、合計して63回の掛け算を必要とする。この例では、中心位置情報はt0=1, 3, 5の3点あることから、全ての中心位置情報での計算量は63×3=189回となる。この結果、上記比較例の場合の計算量を比較すると、局所近似型RNN方式は上記比較例に比べて0.042倍の計算量で済むことがわかる。このような計算量の減少は、上記比較例のサンプル点の個数に対し、中心位置情報の個数が大幅に減少していることに起因する。尚、上記の式(14)の(☆)印で示す部分の計算量は考慮していない。これは、加速度センサの記録間隔がこの例のように20msと等間隔である場合には、逐次的な更新が可能であるからである。
【0049】
上記更新方法を、以下の式(15)と共に説明する。Δt=20msとした場合、tの次のt+Δtに対するA(t+Δt)の値は、上記の式(15)の更新方法で計算できる。
【0050】
【数17】

【0051】
上記の式(15)中、太線の下線で示す項には、予め計算した値を保存しておき使用する。式(15)の更新方法では、tの値での計算結果と太線の下線部分の値を足し合わせることにより、t+Δtの値での計算結果を得ることができる。又、この更新方法においては、掛け算が使用されていない。
【0052】
次に、上記の如く、局所近似型RNN方式を用いることでA(t)を求める際の計算量が減る理由を説明する。
【0053】
上記比較例のようにA(t)を求める場合、tの値を1つ固定するとき、Y(t)の逆行列を求めるときに7回、Y(t)の逆行列とdY(t)/dt-B(t)の掛け算のときに8回、合計で15回の掛け算を必要とする。例えば、tの単位を秒とし、加速度センサの記録間隔を20msとすると、6秒間で300個のサンプル点を取ることができる。全てのサンプル点に対し、上記の式(6)からA(t)を計算するときの計算量は、以下に示すように300×15=4500回となる。
【0054】
【数18】

【0055】
これに対し、局所近似型RNN方式によりA(t)を求める場合、t0の値を1つ固定するとき、Y(t)の逆行列を求めるときに7回、A0を求めるときに8回、A1を求めるときに20回、A2を求めるときに28回、合計して63回の掛け算を必要とする。この例では、中心位置情報はt0=1, 3, 5の3点あることから、以下に示すように全ての中心位置情報での計算量は63×3=189回となる。この結果、上記比較例の場合の計算量を比較すると、局所近似型RNN方式は上記比較例に比べて0.042倍の計算量で済むことがわかる。
【0056】
【数19】

【0057】
次にA(t), B(t)を用いて局所近似解を生成する方法を、図9と共に説明する。図9は、局所近似解を生成する処理を説明するフローチャートである。先ず、ステップST11では、以下の式(17)のような初期値を設定する。
【0058】
【数20】

【0059】
ステップST12では、以下の生成式(18)を用いて上記の初期値を通るような局所近似解を作成する。
【0060】
【数21】

求めるm次局所近似解を以下の式(19)に示す。
【0061】
【数22】

【0062】
上記の具体例で計算したA(t), Y(t), B(t)を用いて、中心位置情報t0=1, 3, 5での式(20)、式(21)及び式(22)の初期値を持つ近似解を、上記の生成式(19)を用いて作成すると、以下の式(23)、式(24)及び式(25)の局所近似解が得られる。
【0063】
【数23】

【0064】
【数24】

【0065】
【数25】

【0066】
【数26】

【0067】
【数27】

【0068】
【数28】

【0069】
上記の式(23)の局所近似解は上記の式(20)の初期値を持ち、上記の式(24)の局所近似解は上位式(21)の初期値を持ち、上記の式(25)の局所近似解は上記の式(22)の初期値を持つ。又、式(23)の局所近似解は、上記の式(7)の0≦t≦2の軌跡と一致し、式(25)の局所近似解は上記の式(7)の4≦t≦6の軌跡と一致する。又、式(24)の局所近似解は、上記の式(7)の2≦t≦4の軌跡の次数3までのテイラー展開となっている。
【0070】
図10は、上記の式(7)の2≦t≦4の軌跡を表す図であり、図11は、上記の式(24)の局所近似解を表す図である。図10及び図11において、縦軸はy座標、横軸はx座標を示す。図10と図11との比較からもわかるように、図11の局所近似解は図10の軌跡を良く近似していることが確認された。
【0071】
次に、接続RNN方式について説明する。接続RNN方式は、上記の如く得られたいくつかの局所近似解を接続して大域近似解を作成する手法である。接続RNN方式は、図12に示す如き関数から図13に示す如き関数を作成し、図13の関数を用いて局所近似解を接続する。図12及び図13は、接続RNN方式で用いる関数を説明する図であり、縦軸はy座標、横軸はx座標を示す。図13の関数は、a1より小さい点、又は、a4より大きい点に対して0の値をとり、a2〜a3の間で1の値をとる。又、図13の関数は、a1〜a2、a3〜a4の間は0〜1の値をとる。
【0072】
上記の具体例の場合を例に取ると、局所近似型RNN方式で求めた上記の式(23)、式(24)及び式(25)の関数を、接続RNN方式で接続する。図14は、接続RNN方式を用いた局所近似解の接続処理を説明するフローチャートである。先ず、ステップST21で、接続位置情報を設定する。接続位置としてt=-0.4, 0, 1.8, 2.2, 3.8, 4.2, 6, 6.4とし、以下の式(26)で表される関数を作成する。
【0073】
【数29】

【0074】
そして、ステップST22で、上記の式(26)で表される関数を用いて局所近似解を接続する。先ず、上記の式(26)の関数を正規化することにより、以下の式(27)で表される関数を求める。
【0075】
【数30】

【0076】
上記の式(27)で表される関数を用いることで、以下の式(28)のように上記の式(23)、式(24)及び式(25)で表される関数を接続し、大域近似解y(t)を求める。
【0077】
【数31】

【0078】
図15は、大域近似解y(t)を表す図である。図15において、縦軸はy座標、横軸はx座標を夫々任意単位で示す。図15に示す大域近似解y(t)は、図6に示す上記の式(7)で与えられた軌跡データと殆ど同じであり、求められた大域近似解y(t)が上記の式(7)の真の関数に近いことが確認された。
【0079】
図16は、コンピュータシステムの一例をより詳細に示すブロック図である。図16に示すコンピュータシステム100は、CPU101、記憶部102、インタフェース(I/F)103、入力装置104、及び表示部105がバス106により接続された構成を有する。CPU101は、記憶部102に格納されたプログラムを実行することによりコンピュータシステム100全体を制御する。記憶部102は、半導体記憶装置、磁気記録媒体、光記録媒体、光磁気記録媒体等で形成可能であり、上記のプログラムや各種データを格納すると共に、CPU101が実行する演算の中間結果や演算結果等を一時的に格納する一時メモリとしても機能する。I/F103は、記憶部102に格納するプログラムやデータをネットワーク(図示せず)から受信することができる。入力装置104は、キーボード等により形成可能である。表示部105は、ディスプレイ等により形成可能である。入力装置104及び表示部105は、タッチパネルのように入力装置と表示部の両方の機能を有する入出力装置で形成しても良い。
【0080】
CPU101は、記憶部102に格納されたプログラムを実行することにより、コンピュータシステム100をニューラルネットワークを設計する装置として機能させる。プログラムは、CPU101に少なくともニューラルネットワークの設計処理の手順を実行させるものであっても良く、記憶部102を含む適切なコンピュータ読み取り可能な記憶媒体に格納されていても良い。又、プログラムは、CPU101に少なくとも上記局所近似型RNN方式と上記接続RNN方式を用いて大域的な近似解の出力ベクトルを生成する処理を実行させるものであっても良い。つまり、CPU101にこのような大域的な近似解の出力ベクトルを生成する処理を実行させるプログラムは、CPU101にニューラルネットワークの設計処理の手順を実行させるプログラムに対してプラグイン可能な構成としても良い。
【0081】
尚、上記実施例では、RNN回路が一例としてロボットに適用されているが、開示の方法で設計されるRNN回路はロボットの駆動回路等に限定されず、各種装置の制御回路や音声解析回路等を含む各種物理モデルに対して適用可能であることは言うまでもない。
【0082】
上記の如く、局所近似型RNN方式は全てのtに対しA(t)を求める必要がないので、計算量を大幅に減少できる。又、局所近似型RNN方式に接続RNN方式を組み合わせることにより、大域近似解を得ることが可能となる。
【0083】
以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
コンピュータによるニューラルネットワーク設計方法であって、
設計対象となるリカレントニューラルネットワーク(RNN:Recurrent Neural Network)回路の入力データbi(t)と出力データyi(t)が与えられたとき(iは1以上の自然数)、n個の入力データとn個の出力データを並べることによって得られる入力ベクトルb (t)と出力ベクトルy (t)から行列A(t)を決定することで入出力の整合がとれる結線aij(t)の値を決定して記憶部に記憶する決定手順と、
前記決定手順は、n個の出力ベクトルを並べた行列をY(t)、n個の入力ベクトルb(t)を並べた行列をB(t)とすると、全ての時間tに対して行列Y(t)が0でない場合、前記行列Y(t)は逆行列を持つので前記行列A(t)を決定して前記RNN回路の結線aij(t)の値を決定し、
【数32】

前記結線aij(t)が決定された前記RNN回路を使用して互いに異なるサンプル点を通る複数の局所近似解を計算すると共に、前記複数の局所近似解を接続して大域近似解を計算して出力する出力手順と
を前記コンピュータに実行させることを特徴とする、ニューラルネットワーク設計方法。
(付記2)
前記出力手順は、前記RNN回路に入力される中心位置情報及び接続位置情報に基づいて、前記結線aij(t)が決定された前記RNN回路を使用して前記中心位置情報が示す各サンプル点を通る局所近似解を計算すると共に、前記接続位置情報が示す時刻の接続位置において各局所近似解を接続して大域近似解を計算することを特徴とする、付記1記載のニューラルネットワーク設計方法。
(付記3)
前記出力手順は、A(t), B(t)を用いて局所近似解を生成する際に、以下の式で表される初期値を設定し、
【数33】

ことを特徴とする、付記2記載のニューラルネットワーク設計方法。
(付記4)
前記出力手順は、前記中心位置情報が示す各サンプル点を中心とした近傍で、m次近似まで保障された局所近似解を算出することを特徴とする、付記2又は3記載のニューラルネットワーク設計方法。
(付記5)
コンピュータによるニューラルネットワークを設計させるプログラムであって、
設計対象となるリカレントニューラルネットワーク(RNN:Recurrent Neural Network)回路の入力データbi(t)と出力データyi(t)が与えられたとき(iは1以上の自然数)、n個の入力データとn個の出力データを並べることによって得られる入力ベクトルb (t)と出力ベクトルy (t)から行列A(t)を決定することで入出力の整合がとれる結線aij(t)の値を決定して記憶部に記憶する決定手順と、
前記決定手順は、n個の出力ベクトルを並べた行列をY(t)、n個の入力ベクトルb(t)を並べた行列をB(t)とすると、全ての時間tに対して行列Y(t)が0でない場合、前記行列Y(t)は逆行列を持つので前記行列A(t)を決定して前記RNN回路の結線aij(t)の値を決定し、
【数34】

前記結線aij(t)が決定された前記RNN回路を使用して互いに異なるサンプル点を通る複数の局所近似解を計算すると共に、前記複数の局所近似解を接続して大域近似解を計算して出力する出力手順と
を前記コンピュータに実行させることを特徴とする、プログラム。
(付記6)
前記出力手順は、前記RNN回路に入力される中心位置情報及び接続位置情報に基づいて、前記結線aij(t)が決定された前記RNN回路を使用して前記中心位置情報が示す各サンプル点を通る局所近似解を計算すると共に、前記接続位置情報が示す時刻の接続位置において各局所近似解を接続して大域近似解を計算することを特徴とする、付記5記載のプログラム。
(付記7)
前記出力手順は、A(t), B(t)を用いて局所近似解を生成する際に、以下の式で表される初期値を設定し、
【数35】

ことを特徴とする、付記6記載のプログラム。
(付記8)
前記出力手順は、前記中心位置情報が示す各サンプル点を中心とした近傍で、m次近似まで保障された局所近似解を算出することを特徴とする、付記6又は7記載のプログラム。
【0084】
以上、開示のニューラルネットワーク設計方法及びプログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。
【符号の説明】
【0085】
100 コンピュータシステム
101 CPU
102 記憶部
103 I/F
104 入力装置
105 表示部

【特許請求の範囲】
【請求項1】
コンピュータによるニューラルネットワークを設計させるプログラムであって、
設計対象となるリカレントニューラルネットワーク(RNN:Recurrent Neural Network)回路の入力データbi(t)と出力データyi(t)が与えられたとき(iは1以上の自然数)、n個の入力データとn個の出力データを並べることによって得られる入力ベクトルb (t)と出力ベクトルy (t)から行列A(t)を決定することで入出力の整合がとれる結線aij(t)の値を決定して記憶部に記憶する決定手順と、
前記決定手順は、n個の出力ベクトルを並べた行列をY(t)、n個の入力ベクトルb(t)を並べた行列をB(t)とすると、全ての時間tに対して行列Y(t)が0でない場合、前記行列Y(t)は逆行列を持つので前記行列A(t)を決定して前記RNN回路の結線aij(t)の値を決定し、
【数36】

前記結線aij(t)が決定された前記RNN回路を使用して互いに異なるサンプル点を通る複数の局所近似解を計算すると共に、前記複数の局所近似解を接続して大域近似解を計算して出力する出力手順と
を前記コンピュータに実行させることを特徴とする、プログラム。
【請求項2】
前記出力手順は、前記RNN回路に入力される中心位置情報及び接続位置情報に基づいて、前記結線aij(t)が決定された前記RNN回路を使用して前記中心位置情報が示す各サンプル点を通る局所近似解を計算すると共に、前記接続位置情報が示す時刻の接続位置において各局所近似解を接続して大域近似解を計算することを特徴とする、請求項1記載のプログラム。
【請求項3】
前記出力手順は、A(t), B(t)を用いて局所近似解を生成する際に、以下の式で表される初期値を設定し、
【数37】

ことを特徴とする、請求項2記載のプログラム。
【請求項4】
前記出力手順は、前記中心位置情報が示す各サンプル点を中心とした近傍で、m次近似まで保障された局所近似解を算出することを特徴とする、請求項2又は3記載のプログラム。
【請求項5】
コンピュータによるニューラルネットワーク設計方法であって、
設計対象となるリカレントニューラルネットワーク(RNN:Recurrent Neural Network)回路の入力データbi(t)と出力データyi(t)が与えられたとき(iは1以上の自然数)、n個の入力データとn個の出力データを並べることによって得られる入力ベクトルb (t)と出力ベクトルy (t)から行列A(t)を決定することで入出力の整合がとれる結線aij(t)の値を決定して記憶部に記憶する決定手順と、
前記決定手順は、n個の出力ベクトルを並べた行列をY(t)、n個の入力ベクトルb(t)を並べた行列をB(t)とすると、全ての時間tに対して行列Y(t)が0でない場合、前記行列Y(t)は逆行列を持つので前記行列A(t)を決定して前記RNN回路の結線aij(t)の値を決定し、
【数38】

前記結線aij(t)が決定された前記RNN回路を使用して互いに異なるサンプル点を通る複数の局所近似解を計算すると共に、前記複数の局所近似解を接続して大域近似解を計算して出力する出力手順と
を前記コンピュータに実行させることを特徴とする、ニューラルネットワーク設計方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate


【公開番号】特開2013−8325(P2013−8325A)
【公開日】平成25年1月10日(2013.1.10)
【国際特許分類】
【出願番号】特願2011−142232(P2011−142232)
【出願日】平成23年6月27日(2011.6.27)
【出願人】(000005223)富士通株式会社 (25,993)