画像などの既存の位相情報を有するデータ配列を処理するためのニューラルネットワーク及び該ネットワーク使用方法
相対的な位相情報を有するデータ配列を処理するためのニューラルネットワークであって、人工ニューラルネットワークのノットに対応するセル(Ki)のn次元配列を備え、前記セルのそれぞれが、前記セル(Ki)に直接隣接するとともに該セル(Ki)の近傍を形成する周囲のセル(Kj)に対する結合を備え、前記セル(Ki)のそれぞれが、前記周囲のセルに直接隣接する1つのセルへの各結合のためのインプットを備えるとともに、1つ若しくはそれ以上の前記直接隣接するセル(Kj)への結合のためのアウトプットを備え、前記セル(Ki)と前記直接隣接するセルの間の前記結合が重み(wij)により決定され、前記セルのそれぞれが、前記セル(Ki)の活性値或いは活性化関数(Ai)として定義される内部値により特徴付けられ、前記セル(Ki)のそれぞれが、信号処理を実行することによりセルのアウトプット信号(ui)を作り出し、セル(Ki)の前記出力信号(ui)が前記直接隣接するセルの入力値の関数であり、セルのそれぞれが、対応するセルの開始値であり、前記ニューラルネットワークの特定数の相互作用的処理段階の後に、セル(Ki)の内部値或いは出力値(ui)を、一意的に関連付けられたデータ・レコード(Pi)のための新たに得られた値(Ui)としてみなすことにより、処理が行われることを特徴とするニューラルネットワークである。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、相対的な位相情報(pertinent topology)を有するデータの配列を処理するためのニューラルネットワーク、データベースのデータ間の関係を認識するためのアルゴリズム、及び該ニューラルネットワーク及び該アルゴリズムに基づく画像パタン認識のための方法に関する。
本発明は、相対的位相情報を有するデータの配列を処理するためのニューラルネットワークに関する。このニューラルネットワークは、該ニューラルネットワークのノットに対応するセル(Ki)のn次元配列を備え、前記セルのそれぞれが、前記セル(Ki)に直接隣接するとともに該セル(Ki)の近傍を形成する周囲のセル(Kj)に対する結合を備え、(a)前記セル(Ki)のそれぞれが、前記周囲のセル(Kj)に直接隣接する1つのセルへの各結合のためのインプットを備え、(b)前記セル(Ki)のそれぞれが、1つ若しくはそれ以上の前記直接隣接するセル(Kj)への結合のためのアウトプットを備え、(c)前記セル(Ki)と前記直接隣接するセルの間の前記結合が重み(wij)により決定され、(d)前記セルのそれぞれが、前記セル(Ki)の活性値或いは活性化関数(Ai)として定義される内部値により特徴付けられ、(e)前記セル(Ki)のそれぞれが、セルのアウトプット信号(ui)を作り出すとともに変換関数と称される信号処理関数にしたがって信号処理を実行可能であり、(f)前記変換関数がセル(Ki)の前記出力信号(ui)を前記セル(Ki)の活性値或いは活性化関数(Ai)の関数として定義し、
該変換関数がセル(Ki)の前記活性値或いは活性化関数(Ai)を前記セル(Ki)の前記出力信号(ui)と等しくする恒等関数を更に備え、(g)入力データ・レコード(Pi)のn次元データベースが前記ニューラルネットワークにより計算され、該n次元データベースにおいて、前記データ・レコード(Pi)が対応するn次元空間に投影されたときの該データ・レコードの相対位置がデータ・レコード(Pi)の関連特性であり、前記データベースの前記データ・レコード(Pi)が前記n次元空間の点の配列により表現可能であり、該点のそれぞれが前記点の列において、前記データベースの前記データ・レコード(Pi)に対して一意的に定義された位置を有し、前記データベースの前記データ・レコード(Pi)のそれぞれが更に少なくとも1つ或いは1若しくはそれ以上の変数を備え、該変数が1つの特定の値(Ui)を備え、(h)前記データ・レコード(Pi)のそれぞれが、前記ニューラルネットワークを形成するセルの前記n次元配列のセル(Ki)に対して一意的に関連付けられ、該セル(Ki)が、セル(Ki)のn次元配列において、点の前記n次元配列における点により表される対応するデータ・レコード(Pi)と同じ位置を有し、(i)前記データ・レコード(Pi)それぞれの前記変数の前記値(Ui)が、前記ニューラルネットワークの開始値とみなされ、前記一意的に関連付けられたセル(Ki)の前記開始活性値(Ai)或いは前記開始出力値(ui)とされ、(j)前記ニューラルネットワークの特定数の相互作用的処理段階の後の前記セル(Ki)の前記活性値(Ai)或いは前記出力値(ui)が、前記一意的に関連付けられたデータ・レコード(Pi)のための前記新たな値(Ui)としてみなされることを特徴とする。
【背景技術】
【0002】
本発明は人工知能並びに計算ユニットを備えるとともに単純なプロセスを実行可能な装置の分野に適用できる。このようなプロセスとして、学習プロセス、演繹プロセス、収集或いは入力されたデータを分析することにより、最初は一見して明らかでなかったデータ・レコード間の特定の関係を、発見又は調査する認知プロセス、或いは音声、パタン、図、文字、又はこれに類するものが、更に処理されるために認識される認識プロセスが挙げられる。
【0003】
上記のプロセスは、装置を収集又は入力されたデータに対する特定の反応、或いは単なる分類についての決定を行うことが可能な状態にする上で有用である。このデータは例えば、更に利用されるために収集或いは入力される。
【0004】
実際、データがレコードの形式をとり、該レコードが、特定数の変数の関連する値により特定されるようなデータベースにおいて、データ・レコード間の関係はいわゆる「教師なしアルゴリズム(non-supervised algorithms)」を用いて調査可能である。
【0005】
既知の教師なしアルゴリズムとしては例えば、いわゆる自己組織化マップ(SOM、Self Organising Map)が挙げられる。自己組織化マップは、アウトプットとして、特定数のユニットを備えるグリッドを提供する。各ユニットはセルにより個別化され、各グリッドに、特定数のデータ・レコードが収集される。データ・レコードは、データ・レコードの特定のプロトタイプに属する。SOMは既知のアルゴリズムであり、「Self Organising Maps」(T. Kohonen著、Springe Verlag、ベルリン、ハイデルベルグ、1995年)、或いは「Reti neurali artificiali e sistemi sociali complessi」(Massimo Buscema、Semeion Group著、1999年、Edizioni Franco Angeli s.r.l.、ミラノ、イタリア、チャプター12)に詳しく説明されている。
【0006】
このクラスタリングは、レコード間の類似性に関する情報を提供し、データの分類を行ったり、或いは関係を認識したりすることを可能にする。認識された関係は、マシンにより使用され、マシンは、どのようにタスクを実行するか、或いはタスクが実行される必要がある場合には、どのような種類のタスクが実行されなければならないかを決定する。
【0007】
しかしながらこのアルゴリズムは、データ・レコード間の特定の種類の関係を認識するためにはあまり適さない。特に、データ・レコードの配列におけるデータ・レコード間の相対的位置、或いはn次元空間、特に2次元或いは3次元空間におけるデータ・レコードの分布がデータ・レコードの関連特性であるときには、このアルゴリズムは有用ではない。更に、データ・レコードはプロセスの受動的要素である。
【0008】
様々な種類の従来の人工ニューラルネットワークが使用可能である。この人工ニューラルネットワークは、ノットにより特徴付けられる。ノットはプロセシング・セルであり、ネットワークを形成するように相互に結合される。人工ニューラルネットワークは脳の神経回路の構造を模擬している。ニューラルネットワークの各ノットは、人工のニューロンである。ノットは複数の層に配される。最も単純な形態においては、ノットからなる入力層は、ノットからなる出力層と結合される。ノットの数は、データ・レコード或いはデータベースの変数の数に通常対応している。生体組織においては、ニューロンは3つの主要な部分からなる。すなわち、ニューロン細胞体、インプットを受信するためのデンドライドと呼ばれる枝分かれ部分、及びニューロンのアウトプットを他のニューロンのデンドライドに伝達するアクソンである。アクソンは、一連の活動電位、或いはニューロンの電位に基づく電流の波により情報を伝達する。このプロセスはネット値により表される伝播法則としてモデル化される。ニューロンは、そのシナプスにおいて、該ニューロンに作用する全ての興奮性及び抑制性効果の和を求めることにより信号を収集する。興奮性効果が支配的である場合には、ニューロンが発火し、情報を発信するシナプスを介してその他のニューロンへこのメッセージを送る。この意味において、ニューロンの関数は単純な閾値関数としてモデル化できる。人工ニューラルネットワークにおいては、同様のモデルが用いられ、各ノットは、以前のノットの層に属する一部或いは全てのノットのアウトプットと接続されたインプットと、以後のノットの層に属する一部或いは全てのノットと接続されたアウトプットを備える。或るノットのインプットに接続されたその他のノットのアウトプットにより励起される興奮或いは抑制レベルは、重みにより定義される結合強度により決定される。或るノットに入力された信号の和が特定の閾値を超えると、このノットは発火し、このノットのアウトプットは信号を送信する。ノットの内部状態或いは値は、活性化関数として定義される。
【0009】
このような従来の種類の人工ニューラルネットワークを用いてデータを処理する場合、データは入力層のノットに提供され、処理結果は、出力層のノットのアウトプットに提供される。人工ニューラルネットワークの構造をより詳しく理解するためには、「Reti neurali artificiali e sistemi sociali complessi」(Massimo Buscema、Semeion Group著、Semeion Centro ricerche、Franco Angeli Milano、1999年、第1巻、ISBN 88−464−1682−1)を参照されたい。結合強度を定義する重みを決定するために、人工ニューラルネットワークはトレーニング・プロセスを受ける。トレーニング・プロセスにおいては、データベースのデータが入力される。このデータは、処理後のアウトプット・データが既知である。ネットワークは、インプット・データを既知のアウトプット・データと併せて提供され、与えられたインプット及びアウトプット・データが重みにより適合されるように、結合の重みが計算される。
【0010】
相対的位相情報を有するデータベースの処理においては、データはn次元空間における点として射影できる。n次元空間においては、データを表す点の相対的位置は、データ自体の関連特性である。例えば、画像を構成するピクセルの2次元配列について、上記の従来のアルゴリズムは位相的特性を考慮しない。この場合の位相的特性としては、例えば、画像内のピクセルのその他のピクセルに対する位置が挙げられる。また、従来のアルゴリズムにおいては、各ピクセルに対する処理が並行して行われることはない。
【0011】
いわゆるセル・オートマータ(cellular automata)或いはこれを改良したセルラ・ニューラルネットワーク(cellular neural network)を用いてこのような問題を解決する試みがなされてきた。米国特許第5,140,670号及び「Cellular Neural Networks:Application」(Leon O. Chua、Ling Yang著、I.E.E.E.Trans.On Circuit & Systema、第35巻、1988年10月、No.10、米国ニューヨーク州ニューヨーク)は、いわゆるセル・オートマータ及びニューラルネットワークを組み合わせたものを開示している。セル・オートマータ及びニューラルネットワークを組み合わせたものは、上記の特徴を備える。この新たな種類の情報処理システムは、ニューラルネットワークと同様に、大規模な非線形アナログ回路であり、その回路はリアルタイムに信号を処理する。セル・オートマータと同様にこのシステムは、一定間隔で配されたサーキット・クローンの集合、すなわちセルを備える。セルは、直接には最も近接するセルを介してのみ互いに通信する。セル同士は、セルラ・ニューラルネットワークの連続時間ダイナミクスの伝播効果により、直接は接続されず、互いに間接的に影響を及ぼし合う。セルラ・ニューラルネットワークはフィードバック及びフィードフォワード操作を実行できる。これらオペレータはセルラ・ニューラルネットワークの動的動作を定義する。セル間の結合は均一且つ局所的である。これは、セルラ・ニューラルネットワークが、そのフィードバック及びフィードフォワード・オペレータのテンプレートにより特徴付け可能であることを意味する。これらのオペレータは、クローニング・テンプレート(cloning template)と呼ばれる定数或いは係数の正方行列である。クローニング・テンプレートはセルラ・ニューラルネットワークの動的法則を定義する。よって、セルラ・ニューラルネットワークにおいては、異なる種類のオペレータが使用可能であり、これらオペレータは、予め定められるとともに処理されるべきデータ配列のデータの特定の値に対して独立している。各オペレータが具体的に定義されることにより、データの特定のオペレーションが実行される。このようなオペレーションは、データ或いはデータ間の関係の特徴を抽出或いは明瞭化するために実行される。通常、遺伝子と呼ばれるこれらオペレータ・テンプレートのライブラリが用意され、ここから1若しくはそれ以上のテンプレートを選択して使用することにより、所望のデータ処理が実行される。つまり、例えば2次元画像の場合、エッジを検出及び明瞭化するために1つのオペレータ或いは遺伝子が用意され、鮮明化等のために別のオペレータ或いは遺伝子が用意されてもよい。これらオペレータはその後、データを処理するために用いられ、アウトプット画像にこれらオペレータの効果を組み合わせた効果がもたらされる。
【0012】
【特許文献1】米国特許第5,140,670号公報
【発明の開示】
【発明が解決しようとする課題】
【0013】
上述のように、既知のセル・オートマータは、データが位相的関係を有することを考慮するが、オペレータは定数により形成され、処理されるデータの値から完全に独立している。セル・オートマータのこの効果をニューラルネットワークと比較すると、ノットの層を直接取囲むノットのアウトプットからノットのインプットへの信号伝播を定義する重みは予め定められているとともに、ニューラルネットワークを構成するノットの活性値或いはアウトプット値に対応するノットの内部値に対して独立していることがわかる。その位相的関係及びその値によって定まるデータ配列に含まれる本質的の情報は、失われるか或いは全く考慮されない。
【0014】
本発明は、セルラ・ニューラルネットワーク或いはセル・オートマータの構造上の利点と、オペレータを動的に定義する利点を併せ持つとともに、データ配列を構成するデータの値の間の関係に本質的に含まれる情報を考慮する改良された人工ニューラルネットワークを提供する。
【0015】
本発明は特に、セルラ・ニューラルネットワークの構造を有するとともに、画像を構成するピクセルの値の間の関係に関する情報を失うことなく、画像データの並行処理を可能にする新たな人工ニューラルネットワークを提供する。
【課題を解決するための手段】
【0016】
本発明は上記の課題を、以下のようなニューラルネットワークを用いて解決する。すなわち、人工ニューラルネットワークのノットに対応するセル(Ki)のn次元配列を備え、前記セルのそれぞれが、前記セル(Ki)に直接隣接するとともに該セル(Ki)の近傍を形成する周囲のセル(Kj)に対する結合を備え、(a)前記セル(Ki)のそれぞれが、前記周囲のセル(Kj)に直接隣接する1つのセルへの各結合のためのインプットを備え、(b)前記セル(Ki)のそれぞれが、1つ若しくはそれ以上の前記直接隣接するセル(Kj)への結合のためのアウトプットを備え、(c)前記セル(Ki)と前記直接隣接するセルの間の前記結合が重み(wij)により決定され、(d)前記セルのそれぞれが、前記セル(Ki)の活性値或いは活性化関数(Ai)として定義される内部値により特徴付けられ、(e)前記セル(Ki)のそれぞれが、セルのアウトプット信号(ui)を作り出すとともに変換関数と称される信号処理関数にしたがって信号処理を実行可能であり、(f)前記変換関数がセル(Ki)の前記出力信号(ui)を前記セル(Ki)の活性値或いは活性化関数(Ai)の関数として定義し、該変換関数がセル(Ki)の前記活性値或いは活性化関数(Ai)を前記セル(Ki)の前記出力信号(ui)と等しくする恒等関数を更に備え、(g)入力データ・レコード(Pi)のn次元データベースが前記ニューラルネットワークにより計算され、該n次元データベースにおいて、前記データ・レコード(Pi)が対応するn次元空間に投影されたときの該データ・レコードの相対位置がデータ・レコード(Pi)の関連特性であり、前記データベースの前記データ・レコード(Pi)が前記n次元空間の点の配列により表現可能であり、該点のそれぞれが前記点の列において、前記データベースの前記データ・レコード(Pi)に対して一意的に定義された位置を有し、前記データベースの前記データ・レコード(Pi)のそれぞれが更に少なくとも1つ或いは1若しくはそれ以上の変数を備え、該変数が1つの特定の値(Ui)を備え、(h)前記データ・レコード(Pi)のそれぞれが、前記ニューラルネットワークを形成するセルの前記n次元配列のセル(Ki)に対して一意的に関連付けられ、該セル(Ki)が、セル(Ki)のn次元配列において、点の前記n次元配列における点により表される対応するデータ・レコード(Pi)と同じ位置を有し、(i)前記データ・レコード(Pi)それぞれの前記変数の前記値(Ui)が、前記ニューラルネットワークの開始値とみなされ、前記一意的に関連付けられたセル(Ki)の前記開始活性値(Ai)或いは前記開始出力値(ui)とされ、(j)前記ニューラルネットワークの特定数の相互作用的処理段階の後の前記セル(Ki)の前記活性値(Ai)或いは前記出力値(ui)が、前記一意的に関連付けられたデータ・レコード(Pi)のための前記新たな値(Ui)としてみなされ、(k)前記特定数の相互作用的処理段階のそれぞれの段階に対して、前記セル(Ki)のそれぞれ及び直接隣接するセル(Kj)の間の結合を定義する重み(wij)が、前記セル(Ki)に直接隣接する前記セル(Kj)に一意的に関連付けられたデータ・レコード(Pj)それぞれの変数の現在値(Uj)の関数として決定され、前記関数が学習関数或いは法則と称され、(l)現在の活性値(Ai)、或いは前記一意的に関連付けられたデータ・レコード(Pi)のための前記現在の新たな値(Ui)とみなされる前記ニューラルネットワークの処理段階の後の前記セル(Kj)それぞれの出力値(Ui)が、前記対応する重み(wij)により重みを付加される前記直接隣接するセル(Kj)の前記現在の出力値(Uj)の関数として決定され、該関数が前記直接隣接するセル(Kj)と前記セル(Ki)の結合を定義することを特徴とする人工ニューラルネットワークである。
【0017】
本発明は更に、上記の人工ニューラルネットワークの変更形態として、前記現在の活性値(Ai)、或いは前記一意的に関連付けられたデータ・レコード(Pi)のための現在の新たな値(Ui)としてみなされる前記ニューラルネットワークの処理段階の後の前記セル(Ki)の出力値(ui)を、前記直接隣接するセル(Kj)と前記セル(Ki)の結合を定義する前記重み(wij)の関数として決定することにより前記ニューラルネットワークが変更され、該関数(wij)がいわゆる活性化関数或いは法則であることを特徴とする。
本発明は更に、前記現在の活性値(Ai)、或いは前記一意的に関連付けられたデータ・レコード(Pi)のための前記現在の新たな値(Ui)としてみなされる前記ニューラルネットワークの処理段階の後の前記セル(Ki)それぞれの前記出力値(ui)が、前記直接隣接するセル(Kj)の前記現在の出力値(uj)と前記直接隣接するセル(Kj)と前記セル(Ki)の結合を定義する対応する重み(wij)の関数として決定され、該関数がいわゆる活性化関数或いは法則であることを特徴とする。
本発明は更に、前記特定数の相互作用的処理段階の各処理段階において、前記セル(Ki)のそれぞれと前記直接隣接するセル(Kj)の間の結合を定義する前記重み(wij)が、前記セル(Ki)に直接隣接するセル(Kj)に一意的に関連付けられたデータ・レコード(Pj)の変数の前記現在の値(Uj)及び前記セル(Ki)に一意的に関連付けられたデータ・レコード(Pi)の変数の現在の値(Ui)の関数として決定されることを特徴とする。
【0018】
データベースが2次元画像のピクセルにより形成されている場合、上記のニューラルネットワークは、本発明にしたがって画像処理を行うためのマシンとして実施される。
更なる改良点は以下の詳細な説明において説明されるとともに、以下の請求の範囲に示される。
本発明の人工ニューラルネットワークは以下の理論的基礎に基づく。
【0019】
現象は例えば、吸収或いは放射される電磁的周波数により計測可能な空間―時間の組のそれぞれとして定義される。したがって、視覚的現象はこのような現象全体の1つのサブセットである。サブセットは、観察したい周波数に基づいて選択される。視覚的現象は、相対的位相情報を有する現象である。いかなる現象も、モデルにより先験的に決定される要素を用いて分析可能である。或いは、現象は最小要素間に存在する関係を示す。現象の要素はいずれも、最小要素の明示的或いは暗示的合成である。よってモデルの要素を、最小要素内に存在する情報を減少させるインデックスとみなすことができる。モデルの要素が、最小要素及び最小要素の局所的な相互作用に存在する特性の一部を無視することが可能となるから、このように情報を減少させることは重要である。視覚的現象或いは相対的位相情報を有するその他の現象を分析する上で、モデルの要素により情報が減らされることは重要である。平均値のようなインデックス、及び平均値に基づくその他の任意のインデックス或いは変数は、合成される最小単位の位相的特性を維持しない。例えば、非常に稀な場合を除いては、2つの直角三角形の平均値は、直角三角形を生成しない。
【0020】
更に、科学的知識の対象として観察可能な現象は全て、相対的位相情報を有する。形状は理論上等方性の空間に存在するという事実により、全ての形状はその位相情報とともに、その形状の具体的な関連性を示す。いかなる種類の科学的モデルも、全ての現象に対して、現象の最小要素の相互作用を用いてその現象の内在的なモデルを現れさせることを目的としている。ある現象の最小要素を発見すると、科学的モデルは、この要素に数式を提供する。この式を用いて、最小要素は相互作用する。この式により、現象の最小要素が、現象自体をその形態的或いは動的複雑性を維持しながら再構築可能であるならば、この式は最小要素が作り出したモデルの適切なメタ・モデル(変化後のモデル)であるといえる。再構築による検証のほかには、科学的作用を検証する手段はない。
【0021】
科学的知識の対象となるためには、全ての現象は数量的に特徴付け可能でなければならない。すなわち、現象の最小要素及びこれら要素の関係が数値により表現可能でなければならないということである。物理学的視点から、この数値は「力(forces)」及び/又は加えられた力の「結果(results)」を表す。特定の数式内でのこれら数値間の相互作用により、メタ・モデル(すなわち数式)が、解明すべき現象と類似のモデルを作り出すために用いる手段を、再構築により検証することが可能にする。よって、科学的知識の目的は、現象に暗示的に存在する数学的関数を特定することである。この数学的関数が比較的複雑である場合、すなわち高度に非線形である場合、知覚した現象を、質的特徴を備えた現象としてみなさなければならない。質的特徴とは、単に量的効果のみに簡略化できない特徴である。質的特徴を備えた現象に内在する関数は複雑であるが、質的特徴も知覚的な効果であることに変わりはない。よって、全ての現象の量的要素はその現象の高度に量的な非線形性の知覚的効果であるといえる。自然界に存在する全ての現象が高度に非線形な動力学にしたがって展開することを考慮すると、質的効果が非常に一般的に知覚されるから、現象の質は現象自体に内在すると考えがちである。しかし、実際には量と質の間に差異は存在しない。質とは、量がその性能を表現する方法であるといえる。
【0022】
相対的位相情報を有する全ての現象において、その現象の独自性及び一体性は、該現象の空間―時間結合によりもたらされる。これはすなわち、現象の全ての最小要素が、他の最小要素と連続しているとともに、特定の力により直接或いは間接的に結合されているということである。分析対象である現象の最小要素それぞれの量的値は、この力の作用の結果である。したがって、相対的位相情報を有する現象においては、最小要素と局所的な近傍のその他の最小要素を接続する力は、現象全体の空間―時間結合を説明するのに十分なものである。
【0023】
次元Dの空間において最小要素p1、p2、・・・pMを備える現象Pについて、D=2の場合を例に考える。最小要素それぞれの局所的近傍Nが、直接取囲む最小要素の第1層から形成されると仮定する。この直接取囲む最小要素を、グラディエント1と称する。尚数字「1」はステップを示している。2次元空間において、局所的近傍はその後、N=8の最小要素により形成される。これにより現象Pは、M個の要素を備えるマトリックスにより表現可能となる。
【0024】
【数1】
【0025】
このマトリックスにおいて、最小要素px,yのそれぞれは量的値を備える。量的値としては例えば、反射体が反射可能な光量が挙げられる。この値を以下のように表す。
【0026】
【数2】
【0027】
要素px,yはその局所的近傍Nとの結合も有する。最小要素と局所的近傍Nの最小要素との結合の力を、以下のように表す。
【0028】
【数3】
【0029】
よって、以下の式が得られる。
【0030】
【数4】
【0031】
この式から以下の式が導かれる。
【0032】
【数5】
【0033】
つまり、最小要素px,yそれぞれの量的値は、該最小要素を取囲む8つの最小要素の量的値と、該最小要素と該最小要素を取囲む要素を結合する力の関数である。これを、より分析的に表すと以下のようになる。
【0034】
【数6】
【0035】
x=1、y=1から開始して、n番目の段階それぞれのu[n]x+k,y+zについて、上記でuxyについて計算したのと同じ関数f(・)を再帰的に置き換えていくと、インデックスxC及びyRに容易に到達できる。これは、各要素px,yの量的値がその他全ての要素から導かれることを示している。
【0036】
以上からからわかるように、現象Pの最小要素と、その局所的近傍の最小要素の間の結合強度を定義することにより、現象P全体の全体的な結合強度も定義できる。
【0037】
現象Pが動的な動作をする場合にのみこの状態が得られることが明らかである。よって、相対的位相情報を有する現象は常に一時的なプロセス或いは一時的なプロセスの部分的な結果であるといえる。
【0038】
相対的位相情報を有する現象を特徴付ける局所的結合と時間ダイナミクスの概念を組み合わせることにより、これら現象が同時に並行且つ順次的な動作をするといえる。この種の非同期的並行処理は形式化可能である。
【0039】
2次元(D=2)平面において相対的位相情報を備え、その要素が一辺の最小辺長がLである矩形の要素により、この2次元平面を一種類のタイル状に分割するような現象Pについて考える。この状態において、互いから距離が離れた現象Pの2つの最小要素により、互いにリプリコルな影響を及ぼすために用いられる関数を評価可能である。現象Pの最小要素のそれぞれが、そのグラディエント1(g=1)の局所的近傍に直接結合されていると仮定すると、以下の式にしたがって、各最小要素の時刻tそれぞれにおいて信号伝播が起こる。
【0040】
【数7】
【0041】
ただし式7において、I(t)は最小要素pf Pの数を示す。I(t)はT番目の一時的サイクルにおいてリファレンス最小要素の信号から影響を受ける。これらの式は、任意の次元Dの現象Pの最小要素の信号の伝播関数を表す。
【0042】
更に、時間遅延Δtを定義することも可能である。時間遅延Δtを用いて、最も離れた最小要素は互いに影響を与える。
【0043】
D=2により表される2次元平面において、上記の2つの最小要素Px1,y1及びPx2,y2が既知であるとき、時間遅延は以下の式により表される。
【0044】
【数8】
【0045】
更に、相対的位相情報を有する現象は最小要素及びこれら最小要素間の局所的結合により形成される。最小要素のそれぞれは、その現象内で占める位置及び各瞬間において例えばその現象の特徴的効果(例えば、反射体から反射或いは放射される光の量)を示す量的値により定義される。このことは以下の式により表される。
【0046】
【数9】
【0047】
ただし式9において、uは量的値、x,y,z,...Dは位置を、tは時刻を示す。
【0048】
局所的結合のそれぞれは、最小要素がそれぞれの時刻において直接隣接する他の最小要素と互いに及ぼす影響の強さを示す。したがって、それぞれの局所的結合は、該局所的結合により結合される最小要素の位置、及び各時刻における量的値により定義される。このことは以下の式により表される。
【0049】
【数10】
【0050】
ただし式10において、wは量的値、x,y,Dsはソース最小要素の位置、Tは時刻、k,z,...Ddはターゲット最小要素を示す。
【0051】
以上を考慮すると、結合のアクティブ・マトリックス(active matrix)は、以下の式のシステムにより定義可能である。
【0052】
【数11】
【0053】
式(4a)及び式(4b)は、最小要素と現象を構成する結合の、誘引要素への進化を表す。誘引要素は解の群である。いずれの式も2つの退化型の(degenerated)方法において使用可能である。第1の方法は以下の式により表される。
【0054】
【数12】
【0055】
この場合現象の最小要素は、結合の関数としてのみ進化する。この進化は、この最小要素の最初の或いは開始時の量的値から開始することにより行われる。このような値は、プロセスのインパルスの唯一の効果を有する。この進化の1つの特徴は、結合の進化を制御するプロセスが、結合空間内で起こることである(式(4b)参照、この空間において最小要素の進化のためのソルーションが見出される。)
【0056】
よって、この場合、最小要素の開始値は、結合の進化に対する単純な制約として機能する。この結合は各要素に動的に値を提供するから、このようなプロセスの誘引要素を動作させることにより、最小要素が、排他的関連性を有する要素として新たに定義される。このような排他的関連性を有する要素は、この最小要素の開始値と、隣接する最小要素の開始値の間の動的交渉により生み出される。
【0057】
第2の退化型の方法は次の式により表される。
【0058】
【数13】
【0059】
この場合最小要素の値のみが進化して、最小要素の結合は変更されない。この結合は、進化的プロセスの制限として機能する。
【0060】
電磁気的或いは視覚的現象を例とした相対的位相情報を有する現象の上記のような分析もまた明らかに、既知のニューラルネットワーク、特にセルラ・ニューラルネットワークと同じ制限を受ける。従来のネットワークは、相対的位相情報を有する現象の構造には完全には適合するものではなかった。これは、最小要素の相互作用及び量的値の間の関係が考慮されず、相互作用が所定のモデル(すなわちオペレータ・テンプレート)により記述されるだけであるからである。一方で、本発明の人工ニューラルネットワークは、データベースのデ−タ・レコードにより形成される最小要素の量的値の相互関係、及び最小要素間の相互作用を考慮することにより現象の構造をより忠実に再現する。
【0061】
以下では、本発明のニューラルネットワークのセル或いはノットの間の相互作用と個々のセルあるいはノットの量的値が関連付けられる方法を記述するための法則の異なる群を詳しく説明する。個々のセル或いはノットの量的値とはすなわち、内部値、活性値、或いは出力値である。
【0062】
本発明はデータベースのデータ間の関係を認識するためのアルゴリズムに関する。このアルゴリズムは、より効率的且つ迅速、正確に、データベースのデータ間の関係を明瞭化する。
【0063】
本発明のアルゴリズムは、相対的位相情報を有するデータベースのデータ間の関係を認識するためのアルゴリズムに関する。このデータは、次のような種類のデータである。すなわち、データ・レコードの配列におけるデータ・レコードの相対的位置或いはN次元空間(特に2次元或いは3次元空間)におけるデータ・レコードの分布が、データ・レコードの関連特性であり、データ・レコードがセル或いは点の配列として表現可能であり、各点がデータベースのデータ・レコードに一意的に関連付けられるとともに該配列内に他のデータ・レコードのセル或いは点に対して一意的に定義された位置を有し、各データ・レコードに対して少なくとも1つの或いはそれ以上の変数が更に関連付けられ、該変数のそれぞれが特定の値を備えるような種類のデータである。本発明のアルゴリズムは、データベースのデータ・レコードを表すセル或いは点の配列内のセル或いは点のそれぞれが、人工ニューラルネットワークのユニット或いはノットとみなされ、(a)前記データベースのセル或いは点により形成されるユニット或いはノットのそれぞれが、連続的にターゲット・ユニット或いはノットとして定義され、ターゲット・ユニット或いはノットのそれぞれと、少なくともその他のユニット或いはノットのそれぞれとの間の結合が定義され、該その他のユニット或いはノットが、データベースのその他のセル或いは点により形成されるとともに、対応するターゲット・ユニット或いはノットに対して少なくともグラディエント1であり、(b)データベースのユニット或いはノットのそれぞれの新たな出力値が、連続的にターゲット・ユニット或いはノットとして定義され、該ターゲット・ユニット或いはノットが、前記人工ニューラルネットワークの前記学習法則或いは関数の群、前記活性化法則或いは関数の群、或いは前記学習法則或いは関数の群と前記活性化法則或いは関数の群の両方を用いて、前記ターゲット・ユニット或いはノットに結合されたユニット或いはノットの実際のアウトプット及び前記ターゲット・ユニット或いはノットの実際のアウトプットの関数として計算され、(c)前記ユニット或いはノットそれぞれの前記実際のアウトプットが、前記人工ニューラルネットワークのユニット或いはノットとみなされるセル或いは点により表されるデータ・レコードのそれぞれと関連付けられる変数の値或いは複数の変数の値として定義され、(d)前記ターゲット・ユニット或いはノットの前記新たなアウトプットが、前記ターゲット・ユニット或いはノットに対応するデータ・レコードの配列を構成するセル或いは点に関連付けられた前記データ・レコードの前記変数或いは複数の変数の新たな値としてみなされ、(e)データ・レコードの前記配列のセル或いは点の少なくとも一部或いは全てに対して、ターゲット・ユニット或いはノットの新たなアウトプットを計算する前記段階を実行することにより、データ・レコードの新たな配列が計算され、セル或いは点のそれぞれのデータ・レコードが、前記少なくとも1つの変数の新たな値、或いは前記複数の変数の新たな値を備え、前記新たな値が、前記段階にしたがった人工ニューラルネットワークの第1計算サイクルの結果であり、前記計算サイクルが予め定められた特定回数実行されるまで、及び/又は前記変数の最初の値若しくはデータ・レコードの前記最初の配列の前記変数と、データ・レコードの前記配列の1若しくは複数の変数の値の間の誤差或いは不一致が、直前のサイクルにおいて計算された誤差或いは不一致にしたがって最大許容可能な程度に達せられない限り、及び/又は連続するサイクルにおいて計算された連続するデータ・レコードの配列内のデータ・レコードの変数の値或いは複数の変数の値の差が、所定の最大率を下回らない限り、データ・レコードの連続する新たな配列のそれぞれに対して、前記計算サイクルが予め定められた特定回数反復されることを特徴とする。
【0064】
既知の学習関数或いは法則からなる群の異なる多数の群、既知の活性化関数或いは法則からなる群の異なる多数の群、或いはこれらを組み合わせたものを用いると、データ・レコード間の特定の種類の関係を強化或いは明瞭化できる。
【0065】
本発明は更に、学習関数或いは法則の第1群、活性化関数或いは法則の第1群、若しくはこれらを組み合わせたものが提供される該第1加工段階、学習関数或いは法則の第2群、活性化関数或いは法則の第2群、若しくはこれらを組み合わせたものが提供される第2加工段階、及び、2つ以上の加工段階が行われる場合には、学習関数或いは法則の更に別の群、活性化関数或いは法則の更に別の群、若しくはこれらを組み合わせたものが提供される更に別の加工段階において、データ・レコードの配列が、前記アルゴリズムを用いて、少なくとも2回或いはそれ以上の加工を受け、前記第2若しくはそれ以上の加工段階において、第2若しくはそれ以上の異なる群を用いるデータ・レコードの配列が用いられ、学習或いは活性化法則又は関数、若しくはこれらを組み合わせたものの第2或いはそれ以上の異なる群を備えるアルゴリズムが用いられる前記第2若しくはそれ以上の段階において用いられるデータ・レコードの配列が、データ・レコードの配列の前記第1加工段階、或いは、前記第2若しくはそれ以上の段階以前の加工段階から個別にもたらされたデータ・レコードの配列であることを特徴とするアルゴリズムを提供する。
【0066】
しかしながら、次のような特殊な場合には、ターゲット・データ・レコードに関連するセル或いは点により実際に形成されるユニット或いはノットに対して、少なくともグラディエント1であるデータ・レコードに関連するセル或いは点に対応するユニット或いはノットが、上記実際のターゲット・データ・レコードに関連するセル或いは点を空間的に直接取囲むユニット或いはノットである必要はない。つまり、データ・レコードの2次元或いは3次元配列において、前記ターゲット・データ・レコードのセル或いは点に対してグラディエント1であるデータ・レコードに関するセル或いは点が、前記ターゲット・データ・レコードに関連するデータ・レコード配列内のセル或いは点を直接取り囲むデータ・レコード配列のセル或いは点に関連するデータ・レコードにより形成される場合である。
本発明は更に、前記アルゴリズムにより計算されたデータ・レコードの新たな配列が、学習関数或いは法則の1つの群のみに基づく場合、前記ターゲット・データ・レコードそれぞれの前記新たなアウトプットが、前記ターゲット・データ・レコードに関連するターゲット・ユニット或いはノットそれぞれと、前記ターゲット・データ・レコードのセル或いは点に対してグラディエント1であるデータ・レコードのセル或いは点により表されるユニット或いはノットとの結合を特徴付ける新たな重みの関数として定義され、前記学習法則或いは関数の群が、前記結合の前記新たな重みを、以前の計算サイクルにおいて計算或いは定義された以前の重みの関数として、並びに前記ターゲット・データ・レコードのセル或いは点に関連するユニット或いはノットの実際のアウトプット、及び少なくともグラディエント1のデータ・レコード、若しくは前記実際のターゲット・データ・レコードのセル或いは点を直接取り囲むセル或いは点のデータ・レコードのセル或いは点に関連するユニット或いはノットの実際のアウトプットの関数として定義することを特徴とする。
【0067】
活性化関数の群を用いても同様の結果が得られる。活性化関数は、前記ターゲット・データ・レコードに関連するセル或いは点に対応するターゲット・ユニット或いはノットの新たなアウトプットを定義し、該定義が、前記ターゲット・ユニット或いはノットへのネット・インプットに基づいて行われ、該ネット・インプットが前記データ・レコードに対して少なくともグラディエント1であるデータ・レコードに関連するセル或いは点に対応するユニット或いはノットのアウトプット、特に前記ターゲット・データ・レコードのセル或いは点を直接取囲むデータ・レコード配列のセル或いは点に対応するユニット或いはノットのアウトプットの関数である。
【0068】
学習フェーズは、各結合の重みに対して固定された所定の値から開始し、一方で前記ユニット或いはノットの開始値が前記重みと、前記周囲のノット或いはユニットの値の関数である所定の関数にしたがって、すなわち前記人工ニューラルネットワークの特定のユニット或いはノットを表すセル或いは点を直接取囲む配列内のセル或いは点に対応するデータ・レコードにしたがって変更される。
【0069】
新たなデータ配列は次のように構築される。セル或いは点の配列としてデータ・レコードが表現されるとき、データ・レコードのそれぞれが、その他のデータ・レコードに対して一定位置を有する。一方で、その最初の値と、配列内の周囲のセルに関連するデータ・レコードの最初の値の関数として、各データ・レコードの値は変更される。
【0070】
新たなサイクルは、以下のように実行される。データ・レコードを表す点のそれぞれが、人工ニューラルネットワークのユニット或いはノットとして設定され、ユニット間の結合それぞれに対して重みが定義され、特定の関数にしたがって各ユニット或いはノットのアウトプットとしての新たな値が計算される。
【0071】
多数の異なる種類或いは構造の既知の人工ニューラルネットワークが使用可能である。この人口ニューラルネットワークは、重みを定義するための既知の及び/又は新たな学習関数、及び各ユニット或いはノットに関連するデータ・レコードの新たな値を計算するための複数の関数を用いる。
【0072】
人工ニューラルネットワークのノット間の結合の重みが、少なくとも各サイクルにおいて一定しており、よって各結合について一定であるから、本発明のアルゴリズムには、内部のノイズが事実上存在しない。データベースのデータのノイズによってのみ、ノイズが発生する。
【0073】
学習法則或いは関数の群の複数の例、既知の活性化法則或いは関数の群、及びこれらを組み合わせたものを、いくつかの例を挙げて以下で詳しく説明する。
【0074】
以下の詳しい例において、人工ニューラルネットワークの結合の重みを決定する複数の学習法則、或いは人工ニューラルネットワークを構成するユニット或いはノットのアウトプット(データ・レコードの新たな値に対応する)を計算するための複数の関数が、データ・レコードの特定の種類の特徴を強化するために有用であることを説明する。
【0075】
本発明のアルゴリズムを用いると、簡単且つ効率的に、デジタル或いはデジタル化された画像を評価して、この画像の特定の特徴を認識或いは明瞭化することができる。このような評価としては、組織の区別、画像パタン識別、及びコントラストの改良を例示できる。
【0076】
本発明のアルゴリズムは特に、画像パタン認識、具体的には、異なる種類の構造を有する材料からなる組織、特に生体を構成する組織を認識するために使用可能である。このとき同時に、放射線画像、超音波画像或いは磁気共鳴画像の撮像又はこれに類するものが行われる。
【0077】
以下の詳細な説明に示すように、本発明のアルゴリズムを用いると、組織の種類を明らかにすること及び/又は画像診断において造影剤の替わりとすることが可能である。
【0078】
特に、明らかにされる或いは強化される情報の種類は、最初の画像のピクセル配列が形成するニューラルネットワーク構造に適用される学習及び/又は活性化法則の群の種類により決定される。基本的に、これら法則の群により得られる効果は、超音波撮像、放射線撮像、核磁気共鳴撮像におけるコントラストを増強する物質(例えば造影剤)を用いて得られる効果と同様である。
【0079】
学習及び/又は活性化法則の群の選択によっても、明らかにされる情報の種類を変更することが可能である。一般的にこれら法則を2つの系統に分けることができる。この2つの系統を図3の系統図に示す。以下の詳細な説明において示すように、これら2つの系統にはそれぞれ名前がつけられている。
【0080】
法則の第1の系統は、重み進化及びユニット活性化を行い、デジタル或いはデジタル化されたソース画像から特徴を抽出する。これら特徴とは例えば、生体画像内の組織の種類、或いは組織などの物体の構造である。これにより、血管造影画像における血管狭窄部の有無を認識することが可能になる。
【0081】
第2の系統には基本的に、重み最適化を実行する法則が属する。重み最適化の後、更にユニット活性化が行われる。この種の法則は、画像の異なる領域の間にエッジを見出して、境界を認識するのに適する。このような境界としては例えば、生体組織の画像内の異なる種類の組織の間の境界が挙げられる。
【0082】
本発明のアルゴリズムを適用できる分野は上記の例のほかにも存在する。別の例として、遺伝子間の関係或いは依存性を、その遺伝子の一般的な作用に関して評価することができる。
【0083】
本発明はまた、デジタル或いはデジタル化画像の画像パタンを認識する方法に関する。
【0084】
特に、本発明は、生体組織のデジタル或いはデジタル化画像内の異なる組織を認識及び区別する方法に関する。このような画像として、例えば、デジタル化された放射線或いは超音波画像、又は磁気共鳴画像などの診断画像が挙げられる。
【0085】
ここで説明する例は、特にデータ・レコードの2次元配列に関して説明されるが、本発明のアルゴリズム及び方法は、2次元空間に限らず、データ・レコードの3次元或いはN次元配列にも適用可能である。
【発明を実施するための最良の形態】
【0086】
以下の詳細な説明において、図面を参照しつつ本発明のいくつかの実施例にしたがって本発明のアルゴリズム及び該アルゴリズムの使用方法を説明する。
【0087】
図1に示すごとく、データ・レコードの2次元配列は、矩形セルの配列として図式化される。各セルは、Piとして示される(iは自然数)。中央部の9つの矩形セルP7、P8、P9、P12、P13、P14及びP17、P18、P19は実線で描かれている。一方で、その他の周囲のセルは、破線で描かれている。これは、この配列が図示されている配列から拡大可能であることを示す。
【0088】
配列を構成するセルのそれぞれは、データ・レコードを表すセルである。データ・レコードは、配列内に該データ・レコードと一意的に関連付けられたセルを有することにより、配列内に一意的に関連付けられた位置を有する。データ・レコードのセルそれぞれのデータ・レコードのその他のセルに対する相対的位置は、対応するデータ・レコードの関連特性である。各セルのデータ・レコードのそれぞれは、値Uiを備える。尚、iは自然数であり、値Uiは、データ・レコードの1つの変数のみのパラメータ値であっても、或いはデータ・レコードを備えるベクトル、若しくは異なる変数の群のパラメータ値であってもよい。上記のような構造を、相対的位相情報を有するデータベースという。このようなデータベースにおいては、データ・レコードの値がデータ・レコードの関連特性であるだけでなく、データ・レコードの値がデータベースのデータ・レコードのn次元空間における射影に占める相対的位置、或いはデータベースのデータ・レコードのn次元マトリックスにおける配置の関連特性でもある。データ・レコードのn次元マトリックスは、このような射影を単に異なる形式で示したものにすぎない。
【0089】
例えば、デジタル或いはデジタル化された画像は、ピクセルの2次元配列である。各ピクセルはデータ・レコードの配列内の1つのデータ・レコードを表す。ピクセルの相対位置は、画像データの関連情報に属する各ピクセルの関連特性である。ピクセルの値は、グレースケール画像においては、単に明度を表す値であり、一方でカラー画像においては、少なくとも2つのパラメータ(具体的には色彩と明度)を備えるベクトルである。カラー画像を作成するために実際に使用されている技術においては、このベクトルは少なくとも3つのパラメータ或いは変数を備える。このような技術として、いわゆるHVS或いはRGBなどのカラー画像の符号化法が例示できる。
【0090】
図2は、本発明のアルゴリズムにしたがった、セルの2次元配列を人工ニューラルネットワークのセル或いはノットの配列に変換することにより、2次元配列のデータ・レコードを処理するための段階を示す。図中の矩形は図1の最初のセルPiとの関連を示し、矩形内部の円Kiは各セルPiから人工ニューラルネットワークのセル或いはノットの配列のユニット或いはノットKiへの変換或いは関連付けを示す。
【0091】
結合の矢印wijはニューラルネットワークのユニット或いはノットKi及びKjの間の結合を表す。図2は図1の中央の9つのセルのみを示す。実際のターゲット・データ・レコードに対応するセルである中央のセルP13に向かう矢印は実線で示されている。一方で、周辺のセルへの結合を示す矢印は破線で示されている。本発明のアルゴリズムにより明らかに使用されるこれら周辺のセルへの結合のメカニズムは、中央の単一のセルP13について述べたように、本発明のアルゴリズムが動作する方法の記述から、個別にもたらされる。結合の両側に矢印が描かれているのは、周辺のセルに対して単一の中央のセルP13が動作する方法を記述することにより、この実際の中央のセルP13が、別のセルに対しては周辺のセルとなり、この別のセルが中央のセルとなることを表している。
【0092】
本発明のアルゴリズムをセルの配列に適用することにより、このアルゴリズムはセルの配列を構成するセルを1つずつ処理する。或るセルをその時点の中央のセルとして特定するとともに、それに対応する周辺のセル及びこの中央のセルと周辺のセルの間の関連する結合を特定する度に、このような処理が行われる。その時点で中央のセルとして特定されたセルについてこのような計算が終了すると、隣接するセルが新たな中央のセルとして定義されるとともに、この新たな中央のセルの周辺のセルが、対応する結合とともに周辺のセルとして新たに特定される。その後、この新たな中央のセルと、対応する結合を備える新たな周辺のセルに対して計算が行われる。このメカニズムは反復され、この配列の全てのセルについてアルゴリズムによる計算が行われると反復が終了する。そして人工ニューラルネットワークの第1計算サイクルが完了する。以降のサイクルは基本的に第1サイクルと同様であるが、以降のサイクルは、それ以前のサイクルにおいてアルゴリズムにより処理されたセルの配列に対して適用されるという点で相違している。
【0093】
図13は本発明の人工ニューラルネットワークのセル或いはノットを示す概略図である。各ノット或いはセルKiはインプットを備え、このインプットにおいて、ノット或いはセルKiは他のノットKjからの出力信号ujを受信する。更に、各ノット或いはセルKiはアウトプットuiを備える。アウトプットuiは、1若しくはそれ以上のその他のノット或いはセルKjのインプットと結合される。各セル或いはノットのアウトプットuiは内部値Ai或いはノットKiの状態すなわち活性値の関数である。活性値の関数は、恒等関数であってもよい。すなわち、Ai=uiであってもよい。
【0094】
本発明の人工ニューラルネットワークにおいて、各ノット或いはセルKiはそのノット或いはセルの初期化値或いは活性値、若しくは初期化出力値uiを備えてもよい。この場合、図1、図2、及び図13の例に示すごとく、ノットKiの内部値或いは活性値Ai若しくはノットKiの最初の出力値uiのための初期化値は、データ・レコードPiの値uiと等しい値として設定される。上述のごとく、データ・レコードPiは、ノットKiと一意的に関連付けられている。ノット或いはセルKiのそれぞれは、更に、算出値Uinのためのアウトプットを備える。値Uinは、一連の特定の数mの処理サイクルのうちn番目の処理サイクルが終了後のデータ・レコードPiのための値である。計算された新たな値Uinは、n番目のサイクルが実行された後のノット或いはセルKiの内部値或いは活性値Ain、若しくはn番目のサイクルが実行された後のノット或いはセルKiの出力値Uinと対応する。
【0095】
図2に示すごとく、本発明の人工ニューラルネットワークは、ノット或いはセルKiとノット或いはセルKiに直接隣接するノット或いはセルKjの間にのみ直接的な結合を備える。ノット或いはセルKjの群は、ノット或いはセルKiの局所的近傍(local neighbourhood)、すなわちグラディエント1(gradient 1)のノット或いはセルとして定義される。グラディエント1とは、基準となるノット或いはセルKiの位置と、ノット或いはセルKiの局所的近傍を形成するノット或いはセルKjの群の位置の間の段階的な差を表す。この定義は直感的に理解可能な定義として広く用いられている定義である。配列を構成する要素に対して、離散的な位置のみが与えられているような離散化された配列においては、基準となる要素を定義すると、基準となる要素の位置から、任意の方向にステップ1異なる位置を有する要素の群により、グラディエント1の近傍が形成される。以上は最も単純な例である。グラディエント1との語は、より一般的な意味においては、空間的座標だけではなく、n次元データベースが射影される任意の種類の空間についても言及できる。
【0096】
ノットKiと局所的近傍のノットKjの間の結合は、これら結合の強度により定義される。結合の強度は、これら局所的近傍のノットの信号がこれらノットに結合される基準となるノットKiに送られるとき、重みwji或いはwijにより量的に与えられる。重みwji或いはwijは、ノットKiの局所的近傍であるノット或いはセルKjのアウトプットを乗ぜられる。上で述べたように、基準ノットKiへ入力される重みを付加されたこれらの信号は、内部状態Aiに影響を与えて、出力信号uiを送信する或いは送信を禁止するか、若しくは出力信号uiの値を変更する。
【0097】
上で述べたように、このようなニューラルネットワークは処理の基礎として、ノット或いはセルの値だけではなく、これらをノット或いはセルの間の関係、及びこれらノット或いはセルの値とこれらの関係の間の相互作用も考慮する。
【0098】
上記で1つの極端な例を一般的に論じたが、このうちの1つの例においては、ノット或いはセルKiの内部値Ai或いは出力値uiの最初の又は開始時の量的値Uiから開始して、ノット或いはセルKiの内部値Ai或いは出力値uiの進化が、結合wjiのみの関数として考慮される。量的値Uiは対応するノットKiに一意的に関連付けられたデータ・レコードPiの値である。この初期の又は開始時の値Uiはプロセスのインパルスの唯一の効果を有する。この進化の特徴の1つは、結合wjiの進化を制御する段階が結合の空間において起こることである(式4b)。この空間において、ノット或いはセルの進化に対して解が求められる。ノット或いはセルKiの開始値は、結合wijの進化に対する単純な制約として機能する。これら結合はノット或いはセルの値を動的に提供する。よって、このようなプロセスの誘引要素(actracting element)は、任意のノット或いはセルKiを限定的な関係を有する要素として新たに定義することである。この限定的な関係を有する要素は、ノット或いはセルKiの開始値Ui或いは局所的近傍を形成する隣接するノット或いはセルKjの開始値Ujの間の動的交渉により作り出される。
【0099】
結合を量的に定義する重みwjiは、局所的近傍Kj及び/又は基準ノットKiの内部値の関数である。
【0100】
上記で一般的に論じた第2の極端な例においては、活性値Ai及びAj、或いは出力値ui及びujとしてのノット或いはセルの値のみが進化する。一方で、重みwjiにより表されるノット或いはセルの結合は一定に保たれる。この結合は進化プロセスの制約として機能する。
【0101】
ノットの重みwji及び値uiを決定する方法は、式の群により与えられる。この式は、法則とも呼ばれる。
【0102】
一般的に、重みの量的値を定義する式は、学習法則と呼ばれ、一方でノットの内部状態、活性値、或いは出力値を、基準ノット及びその局所的近傍を形成する隣接するノットの出力値の関数として変更する式は、活性化法則と呼ばれる。
【0103】
上記で説明したように、学習法則或いは関数の群のみを考慮して計算が実行されてもよい。学習法則或いは関数は、結合の新たな重みwijを中央のセル及び周囲のセルのアウトプットの関数として定義することにより、実際の中央のセルPiの新たなアウトプットを計算する。中央のセル及び周囲のセルのアウトプットとは、これらセルに対応するデータ・レコードの1つの変数或いは複数の変数の値である。中央のセルの新たなアウトプットはその後、中央のセルの1若しくは複数の変数の1若しくは複数の新たな値として設定される。中央のセルのこの新たなアウトプットは、周囲のセルのアウトプットの関数である。周囲のセルのアウトプットとは、これら周囲のセルに対応するデータ・レコードの1若しくは複数の変数の値或いは、本発明のアルゴリズムにより計算された新たな重みの値である。
【0104】
第1サイクルの計算の間、人工ニューラルネットワークのノットKi及びKjとして使用されるセルPiとPjの間の結合の重みwijは全て、特定の1つの値に等しい値に設定される。この値は例えば、1或いは0.0001などの任意の値として定められる。
【0105】
この重みにしたがって、実際の中央のセルPi(図2のセルP13)の値は、周囲のセルPjの値及び結合wijの重みの関数として変更される。セルP13は人工ニューラルネットワークのユニット或いはノットK13として機能する。セルPjもまた、人工ニューラルネットワークのノットKjとして設定される。図2においてノットKjは、セル及びノットP7、P8、P9、P12、P14並びにP17、P18、P19、及びK7、K8、K9、K12、K14並びにK17、K18、K19である。
【0106】
ユニット或いはノットKiの新たなアウトプットを計算する別の方法として、活性化関数或いは法則の群を用いる方法がある。活性化関数或いは法則は、中央のノットK13のアウトプットをセルPj(図2におけるP7、P8、P9、P12、P14、及びP17、P18、P19)のデータ・レコードの値Uj(図2におけるU7、U8、U9、U12、U14、及びU17、U18、U19)の関数として定義する。セルPjは中央のセルPiを取囲むセルであり、中央のセルPiはユニット或いはノットKiに対応するとともに、重みwijの関数として活性化される。この場合新たな重みwijは計算されない。
【0107】
結合に対する新たな重みwijを計算する学習法則の特定の群と、各サイクルにおける新たな出力値を計算する活性化法則の特定の群を用いて、複合的な計算を行ってもよい。
【0108】
したがって、1つのサイクルが完了するまでに、新たなアウトプット、すなわちデータ・レコードの配列内の各データ・レコードのための変数の新たな値及び結合のための新たな重みが計算されている。これらのデータ・レコードの1若しくは複数の変数の新たな値及び結合の重みの新たな値はいずれも、続く計算サイクルにおいて用いられる。
【0109】
図2の例に示すごとく、関数により周囲のノットK7、K8、K9、K12、K14及びK17、K18、K19のアウトプットU7、U8、U9、U12、U14及びU17、U18、U19を用いて、ノットK13のネット・インプットが定義される。アウトプットU7、U8、U9、U12、U14及びU17、U18、U19は中央のセルP13を取囲む関連するセルP7、P8、P9、P12、P14、及びP17、P18、P19及び関連するノットK13の値に対応する。アウトプットの以前の値と本発明のアルゴリズムにより計算された新たな値の差異に基づく更に別の関数が提供される。この関数は、中央のノットKi(図2におけるK13)と周囲のノットKj(図2におけるK7、K8、K9、K12、K14、及びK17、K18、K19)の間の結合のための新たな重みwijを定義する。
【0110】
第1サイクルの最後、つまり全てのセルが上記の手順に従って処理された後には、セルの新たな配列が構築されている。この新たな配列においては、データ・レコードはそのセルを維持しているとともに、各データ・レコードは、1若しくは複数の変数のための上記のごとく第1サイクルにおいて計算された新たな値を備える。またこのとき、結合のための新たな重みも既に計算されている。
【0111】
第2サイクルは、データ・レコードのこの新たな配列を用いて実行される。第2サイクルにおいては、第1サイクル或いは以前のサイクルにおいて、セルに対応する人工ニューラルネットワークのノットのアウトプットとして計算されたデータ・レコードの値、及び上記のように第1或いは以前のサイクルにおいて計算されているセルに対応するノット間の結合のための新たな重みが用いられる。第2或いはそれ以降のサイクルにおいては、ノットの新たなアウトプット及びデータ・レコードの新たな値が計算され、これによりデータ・レコードの新たな配列が形成される。この新たな配列においては、データ・レコードは、更新された値を備える。同様に、ノット間の結合のための対応する新たな値が計算され、アルゴリズムの以降のサイクルが提供されるか、或いは必要である場合には、これらサイクルにおいて用いられる。
【0112】
以降のサイクルの数(n)は、固定されたパラメータとして決定されてもよい。若しくは、反復回数は、データ・レコードの新たな配列の値と最初の値についての誤差或いは逸脱(deviance)の計算により決定されてもよい。この計算においては、最大誤差或いは逸脱が設定される。この計算は、人工ニューラルネットワークの分野における通常の誤差或いは逸脱の計算を用いて行われてもよい。
【0113】
別の重要な点として、データ・レコードの変数のための一連の新たな値の差がモニタされ、一連のサイクルにおけるこの新たな値の差が、有意な差ではなくなったときに、アルゴリズムの反復が停止される。値の差が有意ではないとはすなわち、この差が所定の値より小さいことをいう。値の差が有意ではないとはまた、新たな値と以前の値にほとんど差がないことをいう。ほとんど差がないか否かは、データ・レコードの変数の値及びデータ・レコードの種類にしたがって判断される。データ・レコードの種類を考慮するのは、極小さな差が、ある場合においてはデータ・レコードの情報に対して大きな影響を及ぼすこともある一方で、その他の場合においてはそれほど大きな影響を及ぼさないこともあるからである。
【0114】
以下では、人工ニューラルネットワークのノットのアウトプット、すなわち対応するデータ・レコードの値を更新するとともに、結合の重みを更新するための法則の例を示す。この法則或いは関数に名前を付して、特定の法則の説明において法則を識別しやすくする。
【0115】
明らかにされる或いは強化される情報の種類は、元の画像のピクセル配列により形成されるニューラルネットワーク構造に適用される学習及び/又は活性化法則の群の種類により決定される。基本的に、得られる効果は、超音波、放射線、核磁気共鳴、或いはこれに類する撮像方法における造影剤のようなコントラストを増強する材料を用いて得られる効果と同様である。
【0116】
学習及び/又は活性化法則の特定の群を選択することにより、強化される情報の種類は更に変更可能である。一般的にこれら法則の群を2つの系統に分けられる。2つの系統は図3の系統図に示されている。この系統図において、法則の異なる群は、以下で説明する名前により識別されている。
【0117】
第1の系統には、基本的に重み最適化を行う法則が分類される。重み最適化は、更に、ユニット活性化と組み合わされてもよい。この種の法則は、画像の異なる領域間のエッジを見出し、境界を特定するのに役立つ。境界とは例えば、生体画像における異なる種類の組織の間の境界である。
【0118】
一般的な種類の群の法則は、オートマータ法則(Automata Rule、A或いはAR)と呼ばれる。これら法則は、最適化された重みを決定するための関数、すなわち学習法則を備える。以下の2つの群の法則を用いることができる。
【0119】
【数14】
【0120】
ただし式14において、σ:アルゴリズムの画像の差異に対する感度を向上或いは低下させるための使用者により自由に定義可能なパラメータ、Rij:i番目のユニットからj番目のユニットまでの距離、Ui:人工ニューラルのノットKiに変換された単一のセルPiの値、添え字i:中央のセル或いはノット、添え字j:前記中央のセル或いはノットを直接取囲むセル或いはノットとする。
【0121】
図3に示すごとく、この一般的な法則を特殊化或いは強化して、異なる法則の群を得ることも可能である。
【0122】
上記のオートマータ法則は、各ターゲットすなわちノット又はセルKiと、局所的近傍のノット又はセルKjのそれぞれの間の結合強度を、これらノット又はセルの異なる値uiとujの差の非線形射影として定義する。よって基準ノット又はセルKiのそれぞれは、8つの対称な重みwjiにより、グラディエント1の局所的近傍であるノット又はセルKjと結合される。全ての2次元データベース(例えば2次元画像)はマトリックスにより形成される。このマトリックスにおいて、マトリックスを構成する要素のそれぞれは、自立的ユニットとして、その局所的近傍と結合される。局所的近傍とは、マトリックスの基準要素に直接隣接する要素である。データの2次元マトリックス配列(例えば画像)は、マトリックスの各要素と局所的近傍の要素の間の特定数の対称な結合により更に結合される。
【0123】
上記の式により定義される結合wjiの量的強度値は、制約を形成する。これにより、結合強度のアクティブ・マトリクスからなる形態のデータ配列(例えば画像)は各セル又はノットの初期化値に進化を引き起こす。この進化は、所定のn番目の処理サイクルが終了するまで、ナチュラル・アクトラクタ(natural actractor)に向かって継続される。
【0124】
第II群の法則は、一般的に制約充足(CS、Constraint Satisfaction)と呼ばれる。CSは以下のような様々な変更例に展開できる。
【0125】
(II.1.)いわゆるCS XORは次の式により表される。
【0126】
【表1】
【0127】
【数15】
【0128】
ただし式15において、Ui:中央のノットKiのアウトプットとする。Uiはまた、i番目のノット或いはセルのインプットと初期化段階とを組み合わせたものとしても定義される。この定義は、ニューラルネットワークを実行する第1段階において、i番目のユニットが出力値として、デジタル化されたソース画像の対応するピクセルの値を備えることを強調する傾向にある。明らかに、ニューラルネットワークの開始段階において、この出力値はi番目のノット或いはセルに起因しなければならず、またこの出力値はインプットとしてみなされる。以降の計算サイクルにおいて、各ノット或いはセルの値は本発明のアルゴリズムにより変更され、特定回数の反復が完了したときには、i番目のノット或いはセルの値は入力画像のi番目のピクセルの値に対応しているか或いは関連付けられている。更に、式15において、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【0129】
(II.2)いわゆるCS ANDは次の式により表される。
【0130】
【表2】
【0131】
【数16】
【0132】
式16における文字の定義は、式15と同様である。この活性化関数と、式15の関数の相違点は、αiを計算するための関数が、α2として定義される項を備えることである。この項は式16において、活性化されたノットKiを除く全てのノットのアウトプットの平均の関数として定義される。
【0133】
(II.3)いわゆるCS CONTESTは次の式により表される。
【0134】
【表3】
【0135】
【数17】
【0136】
式17における文字の定義は、式15及び16の活性化関数(1)及び(2)の例と同様である。
上記の例との相違点は、Neti<0である場合に、項αiが異なる方法で計算されることである。
【0137】
(II.4)いわゆるHIGH CS XORは次の式により表される。
【0138】
【数18】
【0139】
式18における文字の定義は、式15及び16の活性化関数(1)及び(2)の例と同様である。ノットKiのネット・インプットNetiを計算するための関数が、上記の例と異なる。上記の式より明らかなように、この場合、結合の重みwijに関数α2が適用される。
中央のノットKiのアウトプットUiの更新値αiを計算するための関数は、活性化関数の第1の例と同一である。
【0140】
(II.5)いわゆるHIGH CS ANDは次の式により表される。
【0141】
【数19】
【0142】
式19の一連の式と、High CS XORと呼ばれる活性化関数(4)及びCS ANDと呼ばれる活性化関数(2)を比較すると明らかなように、式19の関数は、High CS XOR とCS ANDを組み合わせたものである。
【0143】
(II.6)いわゆるHIGH CS CONTESTは次の式により表される。
【0144】
【数20】
【0145】
この場合の関数も、上記の活性化関数、すなわちCS CONTESTと呼ばれる活性化関数(3)とHigh CS XORと呼ばれる活性化関数(4)を組み合わせた関数である。
【0146】
上述の異なる法則の群は、1つの共通した一般的概念にしたがっている。2次元画像の例を用いて説明したように、基本的概念は、マトリックスの各ピクセルを、各ピクセルの明度により真或いは偽となる仮説とみなすことである。また、このシステムは、各ピクセルとその局所的近傍の間の局所的結合を継承している。この結合の強度は、重みを用いて表現され、この重みは、上記のオートマータ法則を用いて計算される。結合のアクティブ・マトリックスの進化の間、この結合は制約として機能する。上記の式によるシステムのコストの関数は、マトリックスの各仮説を真とすることを試みることにより、各ピクセルの明度を最大とすることである。このプロセスの間、それ以前に既に計算されている結合を定義する重みは、制約として機能する。
上記したことの例として、特定の境界線内のピクセルの動作を以下に示す。
【0147】
【表4】
【0148】
CSと呼ばれる法則の群とも異なる更に別の特殊な法則の群は、IAC(Interaction and Activation Competition)と呼ばれる第IIIの法則の群である。
【0149】
【数21】
【0150】
中央のノットKiのネット・インプットNetiは結合の重みwijが正か負かに基づいてネット・インプットを計算する2つの異なる関数の合計として定義される。具体的には、関数ecci及びiniiは同一であり、重みが正或いは負の結合に関連付けられるインプットが異なるのみである。この相違が、2つの関数ecci及びiniiにより表現されている。Netiのこれら2つの要素について、要素ecciは興奮或いは強化に関連付けられ、iniiは抑制に関連付けられる。ネット・インプットNetiはecci及びiniiを組み合わせたものであり、Netiにおいて、ecci及びiniiはそれぞれ、パラメータα及びパラメータβにより乗ぜられる。これら2つのパラメータは、重みが正の結合と、重みが負の結合のネット・インプットNetiへの影響を決定する。
【0151】
更に、活性化パラメータActiがノットKiへのネット・インプットNetiの関数として提供される。
このパラメータを用いて、ノットKiのアウトプットUiの更新値αiを計算する2つの異なる関数のうち1つが選択される。この選択は、Actiが正であるか負であるかに基づいて行われる。強化と抑制はαiを計算するための2つの関数に明らかに起因する。これは、これら関数にパラメータとしてActiが存在するからである。
これら関数には以下の表現が用いられる。
Max及びMinは、活性化法則の上限及び下限として定義される。
Decayは、各ユニットの時間にしたがった通常のディケイ値として定義される関数である。
Restは、各ユニットに対するデフォルト値として定義される。
ノットKiの新たな出力値は、特定の指数関数により定義される。この指数関数は、この例の活性化関数の興奮及び抑制メカニズムを増強する。
【0152】
一般的にピクセルの配列により形成される画像が、処理されるデータベースである場合、上記の式は、結合のアクティブ・マトリックスを定義する。このマトリックスにおいては、各ピクセルは、他のピクセルから、興奮及び抑制のインパルスを動的に受信するとともにこれに対応してその内部状態を変更するエージェントである。上記の式によるシステムは、エージェント・ピクセル間の集合的自動調整システムとして定義される。高い明度を有するピクセルが自らを支持する傾向にある一方で、その他のピクセルの明度がより低い値まで低下される。各エージェント・ピクセルとその局所的近傍の間の結合の一定した重みは、各ピクセル間の通信を調節する制約として機能する。この通信は、メッセージを励起及び抑制することにより形成される。進化は、個々のステップにより、元の画像の変換を引き起こす。元の画像においては、急激に明度が変化しているピクセルは、孤立状態とされ、その明度が低い値まで低下される。よって、システム全体は、画像内に存在するエッジを強調するというタスクのための特別な関数を用いることなく、このタスクを実行できる。ピクセルが互いに競合している場所においては、ある種の壁が視覚化される。この壁は、異なる図形間の壁として通常認識される。上記の法則からなるシステムの利点は、局所的自動調整(local auto-coordination)に起因したエッジ検出効果を有することである。更に、適応閾値フィルタとしての機能が現れる。各エッジについて、1つの直線が提供される。この直線の太さは、画像がそれぞれの領域において示す局所的明度の差に対応する。
【0153】
上記の法則の群とは異なるPixel Mexican Hat PmHと呼ばれる群(第IV群である)は以下の式により表される。
【0154】
【数22】
【0155】
式22における文字の定義は、上記のIACと呼ばれる第III群における定義と同様である。
比較的特殊化された群II.1乃至II.6、III、及びIVと、ARと呼ばれる一般的な法則の群の相違点は、重み最適化だけでなく、ユニット活性化も実行されることである。
【0156】
この法則の群は、局所的閾値及び適応閾値を有する拡大レンズとして機能する。画像にもたらされる効果として、全てのピクセル間の明度に関する対立が最小限であると同時に、各ピクセルが一定且つ均一な明度を有しながら、これら全てのピクセルが強調される。これにより、通常目視できないエッジを照らし出すという視覚的効果が得られる。
【0157】
法則の第2の系統は、重み進化及びユニット活性化を行い、デジタル或いはデジタル化されたソース画像から特徴を抽出する。これら特徴とは例えば、生体画像内の組織の種類、或いは組織などの物体の構造である。これにより、血管造影画像における血管狭窄部の有無を認識することが可能になる。
【0158】
学習及び活性化法則の群の2つの下位集団が提供される。
【0159】
第1に、第V群として示されるいわゆるCM(Contractive map)は、学習フェーズ及び再生フェーズを備える再循環ニューラルネットワーク(recirculation neural network)として定義可能である。(詳しくは、「Reti neurali artificiali e sistemi sociali complessi」(Massimo Buscema、Semeion Group著、Semeion Centro ricerche、Franco Angeli Milano、第1巻、Edizione Franco Angeli Milano、1999年を参照。)
【0160】
CMと呼ばれる法則の第V群は、以下の関数を備える。
【0161】
【数23】
【0162】
グレースケール画像のみについていうと、各ピクセルの値、すなわち対応するユニットそれぞれのアウトプットは、グレースケール・レベルの数で除算される。
【0163】
256のグレースケール・レベルが存在する場合には、各ピクセルの値はこの数により除算される。この除算の解の整数部分のみを考慮すると、この除算により、ピクセルすなわちユニットが属する分類の数を表す数が減少されるとともに余りがもたらされる。この余りは変数remにより示される。
【0164】
この種の操作により、ユニットすなわちピクセルが属する分類の数を減少させることができる。よって、これら分類に均一な色彩或いはグレー・レベルを付与することにより、各分類を、出力画像として視覚化することが可能である。余りすなわちremの値を更に用いて、色彩或いはグレー・レベルの強度が変更される。例えば、ピクセル或いはユニットの4つの分類を考えると、各分類は例えば、赤、緑、青、黄の色彩、或いは4つのグレー・レベルを付与される。各ピクセルの余りを用いると、各色彩を、例えば暗い赤から、明るい又は薄い赤までなどのように変化させることができる。これにより、同じ分類の出力画像のピクセルを更に変化させることが可能になる。
【0165】
rem関数は、ユニットのアウトプット及び出力画像のピクセルに与えられる値を、特定の値の範囲内で調節する関数であるといえる。この範囲は、quot関数により定義される各分類を特徴付ける。
【0166】
quot及びrem関数は、カラー・ピクセルに対応するピクセル値にも適用できる。この場合、ピクセル値は通常、3つのパラメータを有するベクトルである。これらパラメータとしては例えば、カラー・ピクセルの値のRGB定義、或いはHSV、若しくはこれに類するものが挙げられる。
【0167】
上記の式から明らかなように、ピクセル値及び対応するニューラルネットワークに変換されたユニットの出力値は初めに正規化される。これにより、出力値を0以上1以下の範囲に維持することが可能になる。
【0168】
quot関数及び対応するrem関数により分類の定義が行われる間、出力値は再び非正規化される。すなわち、0以上1以下の範囲から、元の範囲に再スケール設定される。
【0169】
quot関数による関数の分類及びrem関数による調節を用たり、或いはニューラルネットワークのユニットの出力値を非正規化することなく、且つニューラルネットワークのユニットの値或いは出力画像の上記したピクセル値と相関したグレースケール或いは色彩スケールを定義することにより、「CM true color」と定義される変更された法則を得ることが可能である。これに対して、その他の法則は、quot関数による分類のみが適用される場合には「CM quot」、rem関数がquot関数と併せて適用される場合には「CM quot+rem」と定義される。
【0170】
ピクセルの配列からなる画像の例についていうと、上記の法則の群の基本的な概念は、処理が各ピクセルの初期化値から開始され、この値がサイクルを通して不変の値であることである。進化は、結合を定義する重みに対して起こり、各処理サイクルにおいて、各ピクセルが、この重みの関数として明度の新たな値をとる。この重みは、現在の瞬間におけるピクセルを特徴付ける。基準ピクセルとその局所的近傍のピクセルの間の結合は、双方向性の結合である。各ピクセルは、別のピクセルと通信するための第1の結合、及びこの別のピクセルからの通信を受信するための第2の結合を備える。
【0171】
結合を定義する重みの進化法則は、この決定性の法則の群に属し、重みはほぼゼロに等しい値により初期化される。
【0172】
各処理サイクルの各ピクセルの明度の新たな値は、重みの空間内において定義される。よって各ピクセルの値のそれぞれは、そのピクセルとそのピクセルの局所的近傍の結合を定義する重みにより定義される。
【0173】
更に別の法則の群、すなわち第VI群は、Local Sine LSとして定義される。この群も、法則の群の上記の第2の系統に属する。
【0174】
Local sineと呼ばれる群には、2つの異なる群が存在する。これらはそれぞれ、Local Sine 1 LS1及びLocal Sine 2 LS2と呼ばれる。これら2つの群は1つの式についてのみ異なり、これらの群は以下の式により表される。
【0175】
【数24】
【0176】
式24における文字の定義は、第I乃至第Vの法則の群における定義と同様である。ただし、Dijはi番目のユニットとj番目のユニットの間の或る種の距離、αは標準偏差を表す。
【0177】
上述のごとく、学習法則或いは活性化法則のただ1つの群、或いは学習法則及び活性化法則の群の両方を用いて、データ・レコード配列に本発明のアルゴリズムを適用してもよい。
【0178】
図にも示される以下に示す例から明らかなように、異なる種類の学習法則、活性化法則、或いはこれらを組み合わせたものの群はそれぞれ異なるアウトプットをもたらす。これらアウトプットは、配列内のデータ・レコード間の特定の関係を、他の関係よりも強化する。
【0179】
本発明のアルゴリズムは、教師なしアルゴリズムの一種であるが、データ・レコードの配列を、アクティブ人工ニューラルネットワークに変換する。このニューラルネットワークは、学習或いは活性化法則又は関数にしたがって、教師あり或いは教師なしのいずれかの方法で動作する。いずれの場合も、教師なしマッピング・アルゴリズムには通常起こらない学習フェーズが存在する。
【0180】
任意の種類の既知の或いは新規な人工ニューラルネットワークを用いて、本発明のアルゴリズムの原理を動作させることが可能である。この原理は、この人工ニューラルネットワークの構造から独立している。
【0181】
更に、データ・レコードの配列に対して、特定の既知の学習法則の群にしたがって第1学習フェーズを用いた後に、第1回目に活性化関数の第1の群を用いることも可能である。
このようにして得られる結果であるデータ・レコードの配列に対して、再度本発明のアルゴリズムを用いた計算を行うことが可能である。ここでは、第1回目と同じ或いは異なる学習法則、及び異なる群の活性化法則を選択する。このようにして、本発明に係る2つアルゴリズムを連続して用いることにより、データ・レコードの元の配列を加工することができる。これら2つのアルゴリズムは、学習法則及び/又は活性化法則の群に関連する異なるアルゴリズムである。
【0182】
第1計算サイクル及び第2計算サイクルにおいて用いられる法則の異なる群は、必ずしも法則のただ1つの系統に属さなくてもよい。一方で、両方の系統の学習及び活性化法則の群を組み合わせて、2、3、或いはそれ以上のステージを有するデジタル或いはデジタル化された画像を加工するためのアルゴリズムとしてもよい。
【0183】
本発明のアルゴリズムの有効性を、いくつかの実際の例を用いて示す。この例において、データ・レコードの配列は、デジタル画像或いはデジタル化された画像の画像データにより形成される。図1及び図2に示す概略的な例の各セル或いは点Piは、強度パラメータにより形成される。強度パラメータとはすなわち、ピクセルのグレー・レベルに影響を与えるパラメータである。
【0184】
これらの例は、カラー画像に対しても実施可能である。この場合、各ピクセルの値は、ベクトルの形態をとったパラメータの群により定義される。これらのパラメータは、強度と色彩を定義する。
【0185】
図4Aは従来の技術により撮像されたマンモグラフィを示す。図4Bは図4Aの拡大図である。従来のアナログ・タイプの画像を、スキャナを用いてデジタル化するとともに本発明のアルゴリズムを用いて処理した。
【0186】
図4Cは図4Bのマンモグラフィを上記のように処理した画像である。この画像においては、本発明のアルゴリズムは、上述のCMと呼ばれる学習法則及び活性化法則のみを用いて適用された。図4Cより明らかなように、法則CMはコントラストを増強し、明確な境界線を定義することにより、均一な強度或いはグレースケール・レベルを有する画像領域を明らかに示す効果を有する。均一な強度或いはグレースケール・レベルは、強度或いはグレースケール・レベルの特定の範囲内で強度或いはグレー・レベルの離散的スケールとして定義される。
【0187】
図4B及び図4Cを比較すると明らかなように、図4Bにおける小節或いは血管新生が多く起こっている領域が、本発明のアルゴリズムを用いた処理により強調されることにより、図4Cにおいてはこの領域の境界線が鮮明に描かれている。図5A乃至図5Cは、この小節の位置する領域の拡大図であり、本発明のアルゴリズムを用いて従来のマンモグラフィを処理することにより提供される画像領域の境界線が明瞭に示されている。本発明のアルゴリズムを用いた処理により得られる画像は、アナログのマンモグラフィから得られるよりも多くの情報を抽出することができる。実際、アナログ画像においては、胸部の周縁部が画像の背景と明確に区別できないが、図4Cから明らかなように、本発明のアルゴリズムは、背景と胸部の画像をより明瞭に区別する境界線を設定可能である。これは、特に顕微鏡手術による低侵襲性の介入などの介入が行われなければならない場合に、小節の位置を測定する上で重要である。
【0188】
上記のCMと呼ばれる関数の群のみを用いて本発明のアルゴリズムをアナログ画像に適用すると、特定領域の画像の白黒が反転する。また、この関数の群は、コントラストを増強するための群であるから、異なる画像領域が明瞭に識別された非常に離散化された画像を作り出す。
【0189】
図4D及びこれに対応する拡大図である図5Dは、図4C及び図5Cのアナログ画像を本発明のアルゴリズムを用いて2重に処理することにより得られる画像を示す。
【0190】
この場合、第1処理は、上記のCMと呼ばれる関数の群のみを用いるアルゴリズムのみを使用して行われる。画像データ、すなわちこの処理により得られる画像データの配列は、更に、学習及び活性化関数を組み合わせたものを用いた本発明のアルゴリズムを使用して処理される。学習及び活性化関数とは、具体的には、上記のオートマータ法則AR及び上記のIACと呼ばれる関数の群である。
【0191】
最初に、図4C及び図5Cに示す画像と、図4B及び図5Bに示す画像の一部について、白黒反転していることがわかる。特に、背景が黒から白に変わっている。更に、元のアナログのマンモグラフィ画像(図4B及び図5B)においては、小節が白く表されている。画像のより縮小された状態での離散化も可能である。また、小節の内部構造が区別化を受けて、その重要な構造がより強調される。一方で、図4C及び図5Cにおいては、白黒反転していることを除いては元のマンモグラフィにおけるこの構造の外観は区別化されなかった。
【0192】
図6Aはバクテリアのアナログ画像である。この画像は電子顕微鏡を用いて撮影された。図6B乃至図6Fは、図6Aの画像を、様々な既知の画像パタン認識アルゴリズムを用いて処理することにより得られる画像を示す。図6Gは、図6Aの画像を本発明のアルゴリズムを用いて処理することにより得られる画像を示す。ここで、本発明のアルゴリズムには、上記のARと呼ばれる法則の群及びIACと呼ばれる進化法則の群のみが用いられている。
【0193】
本発明のアルゴリズムにより得られる画像の独自性及び利点は、図6Gの画像と図6B乃至図6Fの画像を比較すると明らかである。特定の群の学習法則が、どのようにコントラストを増強し、異なる画像領域に対して明瞭な境界を設定するのかに注目することが重要である。
【0194】
図7A乃至図7Cについても、同様の効果が観察できる。図7Aは心室のデジタル画像を示す。図7BはSnakeと呼ばれる既知の画像認識アルゴリズムにより処理された画像を示す。図7Cは、上記のCMと呼ばれる法則の群のみを用いる本発明のアルゴリズムを使用して図7Aの画像を処理することにより得られる画像を示す。画像領域の境界は明瞭且つ明確であり、これら領域が画像内で十分に区別されている。
【0195】
コントラストを明瞭化するとともに異なる画像領域に対して明確な境界線を設定し、画像領域を区別化する本発明のアルゴリズムの機能は、優れた効果を有する。図8A乃至図8Eの画像を比較するとこの効果が理解できる。
【0196】
図8A乃至図8Dは、転移部分の超音波画像を示す。これら画像はいわゆる造影剤を注入した瞬間から異なる期間をおいた瞬間に撮像された画像である。造影剤とはすなわち、血管の動作をより明瞭にすることが可能な物質である。造影剤のこのような機能は、造影剤が、超音波ビームを非線形に反射することにより得られる。すなわち、衝突ビームの基本周波数と異なる周波数にこの超音波ビームが反射される。このときの周波数は通常衝突ビームの基本周波数の第2高調波である。
【0197】
図8Aは造影剤が撮像領域内に注入される前の瞬間に撮像された画像である。
図8Bは造影剤が撮像領域に既に達している動脈相において撮像された画像である。
図8Cは図8A及び図8Bと同一の領域の画像であり、動脈及び静脈相が均衡状態である瞬間に撮像された画像である。
図8Dは造影剤の注入の後遅い時期における瞬間に撮像された画像である。
図8Dにおいて、白色の円は、周囲の画像と比して暗いスポットとして現れた転移を示す。
図8Eは、図8Aの画像を処理して得られる画像であり、撮像領域に造影剤を注入する前に、上記のCMと呼ばれる関数の群を用いる本発明のアルゴリズムにより処理された画像である。
【0198】
転移がどのように強調されるかを、特に図8Dの白色の円により囲まれた転移について説明する。又、白色の円内の大きなスポットの上に位置する小さな点及び大きなスポットの右側に位置する小さなスポットが、明確に強調される。図8B乃至図8Dのそれぞれの画像において、異なる白色の円により囲まれる領域内に、これらスポットは、異なる現われ方をしている。図8Aのもとの画像においては、大きなスポットとドットはいずれも見づらく、事実上小さなドットは組織変化として非常に識別しにくい。
【0199】
したがって、本発明に係るアルゴリズムを用いたデジタル或いはデジタル化された画像の処理は、信頼性及び正確性の高い造影剤を用いた撮像を代替できる。つまり撮像中に侵襲性の介入を回避できるから、このことは非常に重要な利点である。更に、撮像中に造影剤を使用する場合、造影剤を患者の体内に注入する特殊な医療助手の存在が欠かせない。造影剤による撮像(超音波撮像の分野においては、ハーモニック撮像とも呼ばれる)は比較的時間の掛かる撮像方法である。これは、造影剤の注入後一定時間を置かなければ造影剤が撮像する組織に到達しないからである。更に、造影剤が撮像する組織にいつ到達するかを予測することは困難であり、撮像する組織内に造影剤が存在する正しい瞬間に画像を全く撮れないこともある。本発明のアルゴリズムによると、造影剤を用いた撮像に関する困難な点や欠点を全て克服できる。上記で示した最も重要なものの他にも、このような困難な点や欠点は多く存在する。このことは、造影剤を用いて撮像(特にリアルタイム画像の撮像)するために撮像装置に多くの準備が必要な画像診断の分野の専門家には理解できる。
【0200】
図9A乃至図9Dは肺の放射線画像のアナログ画像を示す。上記のCMと呼ばれる関数の群のみを用いた本発明のアルゴリズムにしたがって図9Aの画像を処理することにより得られる画像(図9C)と、上記のCMと呼ばれる関数の群とIACと呼ばれる関数の群を組み合わせたものを用いた本発明のアルゴリズムにしたがって図9Aの画像を処理することにより得られる画像(図9D)を、図9Aのアナログ放射線画像、及びベスト・フィルタ(best filter)と呼ばれる既知のフィルタリング・アルゴリズムにしたがって図9Aの画像を処理することにより得られる画像を比較する。
【0201】
図9に示す画像を比較することにより、上記で繰り返し説明した本発明のアルゴリズムの効果が理解できる。特に図9Dの画像は、肺内のフィラメント構造がどのように強調されるかを示している。この場合、図9Cの過度に粗く離散化された画像は、このフィラメント構造を強調できていない。これに対して、図9Dにおいては、肺下半分の黒色の影としてフィラメント構造が描かれている。図9Aの画像においてはフィラメント構造が示されているのに対して、図9Bの画像はフィラメント構造を示していない。図9Cの画像においては、フィラメント構造が現われてはいるが、この画像領域の区別が明確であるが粗雑すぎる。
【0202】
図10は、図10A、図10B、及び図10Cに示す3つの画像からなる。これらの横に並べられた画像は、マンモグラフィに関する画像である。
左側の図10Aの画像は元のマンモグラフィである。右側の図10Cの画像は元のマンモグラフィであり、いくつかの小節が、白色の点で強調するか或いは白色の円で囲むかされて識別されている。左側の図10Aの画像と右側の図10Cの画像を比較すると、小節の画像と周囲の画像領域との差が非常にわずかであることがわかる。中央の図10Bの画像は、上記のHigh CSと呼ばれる活性化法則の群のみを用いた本発明のアルゴリズムにしたがって図10Aに示すデジタル化画像を処理することにより得られる画像である。
【0203】
このような処理により得られた画像においては、肉眼で識別可能な小節に加えて、図10A及び図10Cの元の画像において肉眼では見えなかった多数の小節が、明瞭に強調されている。
【0204】
図11A乃至図11Eは風景の画像であり、診断用画像ではない。元の画像の相対的な構造を維持することにより画像領域を区別化するときの本発明のアルゴリズムの正確性を示す目的で、これらの画像が選択されている。相対的な構造を維持するとはすなわち、本発明のアルゴリズムを用いてこの画像を処理した後も、画像内に描かれたオブジェクトが依然として識別可能であるということである。
【0205】
図11Aは前景にボートが配された海景を示す。
この画像は、デジタルカメラなどのデジタル技術により得られる画像であっても、アナログ技術を用いて得られた画像をスキャナなどの手段によりデジタル化した画像であってもよい。
【0206】
図11B及び図11Cは、図11Aの画像を異なる2つの既知の画像加工アルゴリズムを用いて処理することにより得られる画像を示す。図11B及び図11Cの画像においては、この風景画像の被写体がほとんど識別できないことが明らかである。
【0207】
図11Dは図11Aの画像を、上記のIACと呼ばれる関数の群のみを用いた本発明のアルゴリズムにしたがって処理することにより得られる画像を示す。図11Bおよび図11Cの画像と比較してこの画像においては、元の画像の被写体が格段によく認識できる。また、異なる画像領域がよく区別化されており、よりよく認識できる。
【0208】
図11Eは、上記のCMと呼ばれる関数の群と、上記のIACと呼ばれる関数の群を組み合わせて用いた本発明のアルゴリズムにしたがって図11Aの画像を処理することにより得られる画像を示す。この処理の結果として、ビューアに対して特定のインパクトを有する画像領域が強調される。つまり、海に対して背景の陸地と前景のボートが強調される。
【0209】
更に、本発明のアルゴリズムは、人工ニューラルネットワークなどの他のアルゴリズム或いはその他の予測アルゴリズムと組み合わせて用いられてもよい。予測アルゴリズムは、組織の種類或いは画像を構成する材料の構造を認識するようにトレーニング及びテストされる。
【0210】
この場合、元のデジタル或いはデジタル化画像の画像データを、画像認識アルゴリズム提供する代わりに、トレーニング及びテストするための受動的情報として画像データ配列を用いる。このデータは、上記のいずれか1つの形態の本発明に係るアルゴリズムを用いて既に処理されているデータであってもよい。
【0211】
予測の精度を向上させるためには、元の画像の画像データを本発明のアルゴリズムを用いて処理する手順を、複数回実行してもよい。このとき、各回で、学習関数又は法則の異なる群、活性化関数又は法則の異なる群、或いはこれらの異なる組み合わせを用いる。もしくは、元の画像の画像データを本発明のアルゴリズムを用いて処理する手順を、一連の処理段階により実行してもよい。この場合、処理段階のそれぞれにおいて、学習関数又は法則の異なる群、活性化関数又は法則の異なる群、或いはこれらの異なる組み合わせを用いる。各処理により得られる画像データに対して予測アルゴリズムを適用し、その後各
予測結果が互いに組み合わされるか或いは比較されてもよい。
【0212】
図12A乃至図12Jは、異なる法則の群或いはこれらを組み合わせたものを用いた本発明の方法にしたがって同一のソース画像を加工した例を示す。
【0213】
図12Aは大腿動脈の放射線画像のソース画像を示す。
このソース画像において、符号(1)、(2)及び(3)により示される円と2つの楕円は、血管の特定部分を囲んでいる。この部分においては血管狭窄部の存在が予測される。円(1)で示す血管狭窄部がソース画像においても明らかである一方、楕円(2)及び(3)で囲んだ領域は、明らかな情報を提供していない。
【0214】
図12Bに示す第1の画像は、rem関数を用いる第V群の法則を使用した本発明の方法により得られる画像である。この画像では、動脈の右枝の狭窄部(2)及び(3)がより鮮明に観察できるのと同時に、矩形(4)で示す中心枝が明確に現われている。動脈枝内部の構造はあまり鮮明ではない。
【0215】
図12Cはquotのみを用いたCMと呼ばれる第V群の法則にしたがってソース画像を加工することにより得られる画像を示す。4種類のグレー・レベルにより異なる領域が示されている。4種類のグレー・レベルとは、3つのグレー・レベル、及び白である。quotにより分類される領域は、これ以上細かい構造を示さない。いずれの場合も、狭窄部(1)、(2)、(3)、及び(4)はいずれも出力画像において識別されている。
【0216】
図12Dはquot及びrem関数の両方を考慮して第V群の法則を適用して得られる結果を示す。この場合、図12Cの画像の4つのグレー・レベルのうちの1つのグレースケール(図12Aのグレースケール)を備える4つの画像領域が、rem関数により調整される。異なるグレー・レベルを備えるこれら4つの画像領域は更に、rem関数により調整される。これにより構造が識別可能となる。狭窄部(1)、(2)、(3)、及び(4)は以前の画像よりも鮮明である。
【0217】
図12Eはtrue color optionを用いるとともに、例Vのソース画像を加工した結果を示す。この加工においては、加工されたピクセル値は、0以上1以下の範囲内に正規化された状態に維持される。またこの場合、動脈の狭窄部(1)、(2)、(3)及び(4)が認識可能である。
【0218】
図12Fは第1の選択肢にしたがったローカル・サイン(local sine)・アルゴリズムを用いてソース画像を加工することにより得られる画像を示す。この場合もまた、符号(1)、(2)、(3)、及び(4)で示す位置に血管狭窄部が存在することが明瞭に表されている。
【0219】
図12G乃至図12Jの4つの図は、2つの加工段階の組み合わせにより図12Aのソース画像を加工して得られる画像を示す。2つの加工段階のそれぞれは、例V或いはVIの法則の群を用いて実行される。
【0220】
図12Gは、初めに例VIの第2の選択肢にしたがった法則の群、すなわちLS2と呼ばれる法則の群を用いて加工を行った後に、第1加工段階により得られる出力画像を第2加工段階に提供し、第2加工段階においてRem及びQuot関数を使用したCMと呼ばれる第Vの法則の群を用いて加工を行うことにより得られる画像を示す。
【0221】
図12Hは、図12Gの画像を得るために実行した加工の変更例を用いて得られる画像を示す。この変更例においては、例VIの第2の選択肢、すなわちLS2と呼ばれる法則の群を用いて得られた出力画像は、更に、例VすなわちCMと呼ばれる法則の群を用いて加工される。CMを用いた加工においては、rem関数のみが用いられる。
【0222】
図12Iは、図12Hの場合と同様の方法によりソース画像を加工した画像を示す。ここでは、第2加工段階は、rem関数のみを用いて例Vの法則の群により実行される。
【0223】
図12Jは、図12G乃至図12Iを参照して説明した2つの加工段階を実行する例の更に別の変更例である。ここでは、True Colour Variantを使用して第2加工段階に例Vの法則の群が適用される。
【0224】
全ての画像をグレースケール・パレットで示したが、色彩を指定し、画像上の異なる複数の領域を1つの色彩に関連付けることにより、人工的に彩色された画像を得ることも可能である。このような画像は、本発明の方法にしたがった加工により識別される、画像の異なる領域及び異なるオブジェクトの区別を強調できる。
【0225】
更に、上記の例において、本発明のアルゴリズムは画像データ配列に対して適用した例に限られているが、画像データ配列の分野の他にも本発明のアルゴリズムは適用可能である。これは、任意の種類のデータベースに本発明の方法による処理は適用可能であるからである。ただし、本発明の方法により処理可能なデータベースのデータは、点或いはセルの配列として表現可能であり、該点或いはセルのそれぞれがデータベースのデータ・レコードに一意的に関連付けられ、その他の点或いはセルに対する該点或いはセルそれぞれの配列における相対的位置が、この点に関連するデータ・レコードの関連特性である種類のデータでなければならない。これにより、データベースのデータ・レコード間の任意の関係を明らかにすることが可能になる。
【図面の簡単な説明】
【0226】
【図1】データ・レコードを表すセルの2次元配列を示す概略図であり、各セルは、例えばデジタル或いはデジタル化された画像の点(或いはピクセル)を概略的に表す。
【図2】図1の中央部に配される9個の点或いはセルを人工ニューラルネットワークのユニット或いはノットに変換する過程を示す図である。
【図3】ニューラルネットワーク、特にデジタル画像のピクセルにより形成されるニューラルネットワークのための学習及び活性化法則の異なる系統を示す図である。
【図4】図4A、図4B、図4C及び図4Dは、順にマンモグラフィ、拡大されたマンモグラフィ、本発明に係る画像パタン認識方法及びCMと呼ばれる特定の学習法則にしたがってデジタル化されたマンモグラフィ、本発明に係る画像パタン認識方法及びIACと呼ばれる別の学習法則にしたがってデジタル化されたマンモグラフィを示す図である。
【図5】図5A、図5B、図5C及び図5Dは順に、図4Aと同一の図、図4B、図4C、及び図4Dの拡大図である。
【図6】図6Aはバクテリアの写真、図6B、図6C、図6D、図6E、及び図6Fは、既知のパタン認識方法にしたがって処理されたデジタル化画像、図6Gは本発明の方法にしたがって人工ニューラルネットワークのためのオートマータ法則を用いて処理されたデジタル化画像を示す図であり、該オートマータ法則は、IACと呼ばれるコントラスト増強のための法則である。
【図7】図7A、図7B、及び図7Cは順に、心室のデジタル写真、既知のパタン認識方法にしたがってデジタル化された写真、CMと呼ばれる本発明の方法にしたがってデジタル化された写真を示す図である。
【図8】図8A、図8B、図8C、図8D、及び図8Eは、転移が存在する同一の身体部分の超音波画像を示す図であり、図8A乃至図8Dは順に、造影剤を使用しない画像、造影剤を使用した動脈相の画像、造影剤を使用した平衡相(balance phase)の画像、造影剤を使用した後期相の画像、造影剤を使用せずに、本発明の方法により処理した同じ身体部分の画像を示す。
【図9】図9A、図9B、図9C、及び図9Dは順に、肺の放射線画像、「ベスト・フィルタ(best filter)」と呼ばれる既知のアルゴリズムにしたがって図8Aの画像をデジタル化した画像、CMと呼ばれる法則を用いて本発明の方法にしたがって図8Aの画像を処理した画像、IACと呼ばれる自動的法則を備える本発明に係る方法にしたがって図8Aの画像を処理した画像を示す図である。
【図10】図10A、図10B、図10C、及び図10Dは順に、マンモグラフィ、既知のパタン認識方法により図10Aのマンモグラフィを処理した画像、High CSと呼ばれる自動的法則を用いるとともに本発明の方法にしたがって図10Aのマンモグラフィを処理した画像を示す図である。
【図11】図11Aは通常の写真、図11B及び図11Cは図11Aの写真を2つのそれぞれ異なる既知のパタン認識方法により処理した画像、図11D及び図11Eは図11Aの写真をそれぞれIAC及びIACとCMを組み合わせた法則を備える本発明の方法にしたがって処理した画像を示す図である。
【図12A】大腿動脈の位置する解剖学的領域の放射線画像である。
【図12B】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12C】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12D】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12E】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12F】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12G】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12H】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12I】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12J】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図13】本発明に係るニューラルネットワークの一般的なセル或いはノットを示すブロック線図である。
【技術分野】
【0001】
本発明は、相対的な位相情報(pertinent topology)を有するデータの配列を処理するためのニューラルネットワーク、データベースのデータ間の関係を認識するためのアルゴリズム、及び該ニューラルネットワーク及び該アルゴリズムに基づく画像パタン認識のための方法に関する。
本発明は、相対的位相情報を有するデータの配列を処理するためのニューラルネットワークに関する。このニューラルネットワークは、該ニューラルネットワークのノットに対応するセル(Ki)のn次元配列を備え、前記セルのそれぞれが、前記セル(Ki)に直接隣接するとともに該セル(Ki)の近傍を形成する周囲のセル(Kj)に対する結合を備え、(a)前記セル(Ki)のそれぞれが、前記周囲のセル(Kj)に直接隣接する1つのセルへの各結合のためのインプットを備え、(b)前記セル(Ki)のそれぞれが、1つ若しくはそれ以上の前記直接隣接するセル(Kj)への結合のためのアウトプットを備え、(c)前記セル(Ki)と前記直接隣接するセルの間の前記結合が重み(wij)により決定され、(d)前記セルのそれぞれが、前記セル(Ki)の活性値或いは活性化関数(Ai)として定義される内部値により特徴付けられ、(e)前記セル(Ki)のそれぞれが、セルのアウトプット信号(ui)を作り出すとともに変換関数と称される信号処理関数にしたがって信号処理を実行可能であり、(f)前記変換関数がセル(Ki)の前記出力信号(ui)を前記セル(Ki)の活性値或いは活性化関数(Ai)の関数として定義し、
該変換関数がセル(Ki)の前記活性値或いは活性化関数(Ai)を前記セル(Ki)の前記出力信号(ui)と等しくする恒等関数を更に備え、(g)入力データ・レコード(Pi)のn次元データベースが前記ニューラルネットワークにより計算され、該n次元データベースにおいて、前記データ・レコード(Pi)が対応するn次元空間に投影されたときの該データ・レコードの相対位置がデータ・レコード(Pi)の関連特性であり、前記データベースの前記データ・レコード(Pi)が前記n次元空間の点の配列により表現可能であり、該点のそれぞれが前記点の列において、前記データベースの前記データ・レコード(Pi)に対して一意的に定義された位置を有し、前記データベースの前記データ・レコード(Pi)のそれぞれが更に少なくとも1つ或いは1若しくはそれ以上の変数を備え、該変数が1つの特定の値(Ui)を備え、(h)前記データ・レコード(Pi)のそれぞれが、前記ニューラルネットワークを形成するセルの前記n次元配列のセル(Ki)に対して一意的に関連付けられ、該セル(Ki)が、セル(Ki)のn次元配列において、点の前記n次元配列における点により表される対応するデータ・レコード(Pi)と同じ位置を有し、(i)前記データ・レコード(Pi)それぞれの前記変数の前記値(Ui)が、前記ニューラルネットワークの開始値とみなされ、前記一意的に関連付けられたセル(Ki)の前記開始活性値(Ai)或いは前記開始出力値(ui)とされ、(j)前記ニューラルネットワークの特定数の相互作用的処理段階の後の前記セル(Ki)の前記活性値(Ai)或いは前記出力値(ui)が、前記一意的に関連付けられたデータ・レコード(Pi)のための前記新たな値(Ui)としてみなされることを特徴とする。
【背景技術】
【0002】
本発明は人工知能並びに計算ユニットを備えるとともに単純なプロセスを実行可能な装置の分野に適用できる。このようなプロセスとして、学習プロセス、演繹プロセス、収集或いは入力されたデータを分析することにより、最初は一見して明らかでなかったデータ・レコード間の特定の関係を、発見又は調査する認知プロセス、或いは音声、パタン、図、文字、又はこれに類するものが、更に処理されるために認識される認識プロセスが挙げられる。
【0003】
上記のプロセスは、装置を収集又は入力されたデータに対する特定の反応、或いは単なる分類についての決定を行うことが可能な状態にする上で有用である。このデータは例えば、更に利用されるために収集或いは入力される。
【0004】
実際、データがレコードの形式をとり、該レコードが、特定数の変数の関連する値により特定されるようなデータベースにおいて、データ・レコード間の関係はいわゆる「教師なしアルゴリズム(non-supervised algorithms)」を用いて調査可能である。
【0005】
既知の教師なしアルゴリズムとしては例えば、いわゆる自己組織化マップ(SOM、Self Organising Map)が挙げられる。自己組織化マップは、アウトプットとして、特定数のユニットを備えるグリッドを提供する。各ユニットはセルにより個別化され、各グリッドに、特定数のデータ・レコードが収集される。データ・レコードは、データ・レコードの特定のプロトタイプに属する。SOMは既知のアルゴリズムであり、「Self Organising Maps」(T. Kohonen著、Springe Verlag、ベルリン、ハイデルベルグ、1995年)、或いは「Reti neurali artificiali e sistemi sociali complessi」(Massimo Buscema、Semeion Group著、1999年、Edizioni Franco Angeli s.r.l.、ミラノ、イタリア、チャプター12)に詳しく説明されている。
【0006】
このクラスタリングは、レコード間の類似性に関する情報を提供し、データの分類を行ったり、或いは関係を認識したりすることを可能にする。認識された関係は、マシンにより使用され、マシンは、どのようにタスクを実行するか、或いはタスクが実行される必要がある場合には、どのような種類のタスクが実行されなければならないかを決定する。
【0007】
しかしながらこのアルゴリズムは、データ・レコード間の特定の種類の関係を認識するためにはあまり適さない。特に、データ・レコードの配列におけるデータ・レコード間の相対的位置、或いはn次元空間、特に2次元或いは3次元空間におけるデータ・レコードの分布がデータ・レコードの関連特性であるときには、このアルゴリズムは有用ではない。更に、データ・レコードはプロセスの受動的要素である。
【0008】
様々な種類の従来の人工ニューラルネットワークが使用可能である。この人工ニューラルネットワークは、ノットにより特徴付けられる。ノットはプロセシング・セルであり、ネットワークを形成するように相互に結合される。人工ニューラルネットワークは脳の神経回路の構造を模擬している。ニューラルネットワークの各ノットは、人工のニューロンである。ノットは複数の層に配される。最も単純な形態においては、ノットからなる入力層は、ノットからなる出力層と結合される。ノットの数は、データ・レコード或いはデータベースの変数の数に通常対応している。生体組織においては、ニューロンは3つの主要な部分からなる。すなわち、ニューロン細胞体、インプットを受信するためのデンドライドと呼ばれる枝分かれ部分、及びニューロンのアウトプットを他のニューロンのデンドライドに伝達するアクソンである。アクソンは、一連の活動電位、或いはニューロンの電位に基づく電流の波により情報を伝達する。このプロセスはネット値により表される伝播法則としてモデル化される。ニューロンは、そのシナプスにおいて、該ニューロンに作用する全ての興奮性及び抑制性効果の和を求めることにより信号を収集する。興奮性効果が支配的である場合には、ニューロンが発火し、情報を発信するシナプスを介してその他のニューロンへこのメッセージを送る。この意味において、ニューロンの関数は単純な閾値関数としてモデル化できる。人工ニューラルネットワークにおいては、同様のモデルが用いられ、各ノットは、以前のノットの層に属する一部或いは全てのノットのアウトプットと接続されたインプットと、以後のノットの層に属する一部或いは全てのノットと接続されたアウトプットを備える。或るノットのインプットに接続されたその他のノットのアウトプットにより励起される興奮或いは抑制レベルは、重みにより定義される結合強度により決定される。或るノットに入力された信号の和が特定の閾値を超えると、このノットは発火し、このノットのアウトプットは信号を送信する。ノットの内部状態或いは値は、活性化関数として定義される。
【0009】
このような従来の種類の人工ニューラルネットワークを用いてデータを処理する場合、データは入力層のノットに提供され、処理結果は、出力層のノットのアウトプットに提供される。人工ニューラルネットワークの構造をより詳しく理解するためには、「Reti neurali artificiali e sistemi sociali complessi」(Massimo Buscema、Semeion Group著、Semeion Centro ricerche、Franco Angeli Milano、1999年、第1巻、ISBN 88−464−1682−1)を参照されたい。結合強度を定義する重みを決定するために、人工ニューラルネットワークはトレーニング・プロセスを受ける。トレーニング・プロセスにおいては、データベースのデータが入力される。このデータは、処理後のアウトプット・データが既知である。ネットワークは、インプット・データを既知のアウトプット・データと併せて提供され、与えられたインプット及びアウトプット・データが重みにより適合されるように、結合の重みが計算される。
【0010】
相対的位相情報を有するデータベースの処理においては、データはn次元空間における点として射影できる。n次元空間においては、データを表す点の相対的位置は、データ自体の関連特性である。例えば、画像を構成するピクセルの2次元配列について、上記の従来のアルゴリズムは位相的特性を考慮しない。この場合の位相的特性としては、例えば、画像内のピクセルのその他のピクセルに対する位置が挙げられる。また、従来のアルゴリズムにおいては、各ピクセルに対する処理が並行して行われることはない。
【0011】
いわゆるセル・オートマータ(cellular automata)或いはこれを改良したセルラ・ニューラルネットワーク(cellular neural network)を用いてこのような問題を解決する試みがなされてきた。米国特許第5,140,670号及び「Cellular Neural Networks:Application」(Leon O. Chua、Ling Yang著、I.E.E.E.Trans.On Circuit & Systema、第35巻、1988年10月、No.10、米国ニューヨーク州ニューヨーク)は、いわゆるセル・オートマータ及びニューラルネットワークを組み合わせたものを開示している。セル・オートマータ及びニューラルネットワークを組み合わせたものは、上記の特徴を備える。この新たな種類の情報処理システムは、ニューラルネットワークと同様に、大規模な非線形アナログ回路であり、その回路はリアルタイムに信号を処理する。セル・オートマータと同様にこのシステムは、一定間隔で配されたサーキット・クローンの集合、すなわちセルを備える。セルは、直接には最も近接するセルを介してのみ互いに通信する。セル同士は、セルラ・ニューラルネットワークの連続時間ダイナミクスの伝播効果により、直接は接続されず、互いに間接的に影響を及ぼし合う。セルラ・ニューラルネットワークはフィードバック及びフィードフォワード操作を実行できる。これらオペレータはセルラ・ニューラルネットワークの動的動作を定義する。セル間の結合は均一且つ局所的である。これは、セルラ・ニューラルネットワークが、そのフィードバック及びフィードフォワード・オペレータのテンプレートにより特徴付け可能であることを意味する。これらのオペレータは、クローニング・テンプレート(cloning template)と呼ばれる定数或いは係数の正方行列である。クローニング・テンプレートはセルラ・ニューラルネットワークの動的法則を定義する。よって、セルラ・ニューラルネットワークにおいては、異なる種類のオペレータが使用可能であり、これらオペレータは、予め定められるとともに処理されるべきデータ配列のデータの特定の値に対して独立している。各オペレータが具体的に定義されることにより、データの特定のオペレーションが実行される。このようなオペレーションは、データ或いはデータ間の関係の特徴を抽出或いは明瞭化するために実行される。通常、遺伝子と呼ばれるこれらオペレータ・テンプレートのライブラリが用意され、ここから1若しくはそれ以上のテンプレートを選択して使用することにより、所望のデータ処理が実行される。つまり、例えば2次元画像の場合、エッジを検出及び明瞭化するために1つのオペレータ或いは遺伝子が用意され、鮮明化等のために別のオペレータ或いは遺伝子が用意されてもよい。これらオペレータはその後、データを処理するために用いられ、アウトプット画像にこれらオペレータの効果を組み合わせた効果がもたらされる。
【0012】
【特許文献1】米国特許第5,140,670号公報
【発明の開示】
【発明が解決しようとする課題】
【0013】
上述のように、既知のセル・オートマータは、データが位相的関係を有することを考慮するが、オペレータは定数により形成され、処理されるデータの値から完全に独立している。セル・オートマータのこの効果をニューラルネットワークと比較すると、ノットの層を直接取囲むノットのアウトプットからノットのインプットへの信号伝播を定義する重みは予め定められているとともに、ニューラルネットワークを構成するノットの活性値或いはアウトプット値に対応するノットの内部値に対して独立していることがわかる。その位相的関係及びその値によって定まるデータ配列に含まれる本質的の情報は、失われるか或いは全く考慮されない。
【0014】
本発明は、セルラ・ニューラルネットワーク或いはセル・オートマータの構造上の利点と、オペレータを動的に定義する利点を併せ持つとともに、データ配列を構成するデータの値の間の関係に本質的に含まれる情報を考慮する改良された人工ニューラルネットワークを提供する。
【0015】
本発明は特に、セルラ・ニューラルネットワークの構造を有するとともに、画像を構成するピクセルの値の間の関係に関する情報を失うことなく、画像データの並行処理を可能にする新たな人工ニューラルネットワークを提供する。
【課題を解決するための手段】
【0016】
本発明は上記の課題を、以下のようなニューラルネットワークを用いて解決する。すなわち、人工ニューラルネットワークのノットに対応するセル(Ki)のn次元配列を備え、前記セルのそれぞれが、前記セル(Ki)に直接隣接するとともに該セル(Ki)の近傍を形成する周囲のセル(Kj)に対する結合を備え、(a)前記セル(Ki)のそれぞれが、前記周囲のセル(Kj)に直接隣接する1つのセルへの各結合のためのインプットを備え、(b)前記セル(Ki)のそれぞれが、1つ若しくはそれ以上の前記直接隣接するセル(Kj)への結合のためのアウトプットを備え、(c)前記セル(Ki)と前記直接隣接するセルの間の前記結合が重み(wij)により決定され、(d)前記セルのそれぞれが、前記セル(Ki)の活性値或いは活性化関数(Ai)として定義される内部値により特徴付けられ、(e)前記セル(Ki)のそれぞれが、セルのアウトプット信号(ui)を作り出すとともに変換関数と称される信号処理関数にしたがって信号処理を実行可能であり、(f)前記変換関数がセル(Ki)の前記出力信号(ui)を前記セル(Ki)の活性値或いは活性化関数(Ai)の関数として定義し、該変換関数がセル(Ki)の前記活性値或いは活性化関数(Ai)を前記セル(Ki)の前記出力信号(ui)と等しくする恒等関数を更に備え、(g)入力データ・レコード(Pi)のn次元データベースが前記ニューラルネットワークにより計算され、該n次元データベースにおいて、前記データ・レコード(Pi)が対応するn次元空間に投影されたときの該データ・レコードの相対位置がデータ・レコード(Pi)の関連特性であり、前記データベースの前記データ・レコード(Pi)が前記n次元空間の点の配列により表現可能であり、該点のそれぞれが前記点の列において、前記データベースの前記データ・レコード(Pi)に対して一意的に定義された位置を有し、前記データベースの前記データ・レコード(Pi)のそれぞれが更に少なくとも1つ或いは1若しくはそれ以上の変数を備え、該変数が1つの特定の値(Ui)を備え、(h)前記データ・レコード(Pi)のそれぞれが、前記ニューラルネットワークを形成するセルの前記n次元配列のセル(Ki)に対して一意的に関連付けられ、該セル(Ki)が、セル(Ki)のn次元配列において、点の前記n次元配列における点により表される対応するデータ・レコード(Pi)と同じ位置を有し、(i)前記データ・レコード(Pi)それぞれの前記変数の前記値(Ui)が、前記ニューラルネットワークの開始値とみなされ、前記一意的に関連付けられたセル(Ki)の前記開始活性値(Ai)或いは前記開始出力値(ui)とされ、(j)前記ニューラルネットワークの特定数の相互作用的処理段階の後の前記セル(Ki)の前記活性値(Ai)或いは前記出力値(ui)が、前記一意的に関連付けられたデータ・レコード(Pi)のための前記新たな値(Ui)としてみなされ、(k)前記特定数の相互作用的処理段階のそれぞれの段階に対して、前記セル(Ki)のそれぞれ及び直接隣接するセル(Kj)の間の結合を定義する重み(wij)が、前記セル(Ki)に直接隣接する前記セル(Kj)に一意的に関連付けられたデータ・レコード(Pj)それぞれの変数の現在値(Uj)の関数として決定され、前記関数が学習関数或いは法則と称され、(l)現在の活性値(Ai)、或いは前記一意的に関連付けられたデータ・レコード(Pi)のための前記現在の新たな値(Ui)とみなされる前記ニューラルネットワークの処理段階の後の前記セル(Kj)それぞれの出力値(Ui)が、前記対応する重み(wij)により重みを付加される前記直接隣接するセル(Kj)の前記現在の出力値(Uj)の関数として決定され、該関数が前記直接隣接するセル(Kj)と前記セル(Ki)の結合を定義することを特徴とする人工ニューラルネットワークである。
【0017】
本発明は更に、上記の人工ニューラルネットワークの変更形態として、前記現在の活性値(Ai)、或いは前記一意的に関連付けられたデータ・レコード(Pi)のための現在の新たな値(Ui)としてみなされる前記ニューラルネットワークの処理段階の後の前記セル(Ki)の出力値(ui)を、前記直接隣接するセル(Kj)と前記セル(Ki)の結合を定義する前記重み(wij)の関数として決定することにより前記ニューラルネットワークが変更され、該関数(wij)がいわゆる活性化関数或いは法則であることを特徴とする。
本発明は更に、前記現在の活性値(Ai)、或いは前記一意的に関連付けられたデータ・レコード(Pi)のための前記現在の新たな値(Ui)としてみなされる前記ニューラルネットワークの処理段階の後の前記セル(Ki)それぞれの前記出力値(ui)が、前記直接隣接するセル(Kj)の前記現在の出力値(uj)と前記直接隣接するセル(Kj)と前記セル(Ki)の結合を定義する対応する重み(wij)の関数として決定され、該関数がいわゆる活性化関数或いは法則であることを特徴とする。
本発明は更に、前記特定数の相互作用的処理段階の各処理段階において、前記セル(Ki)のそれぞれと前記直接隣接するセル(Kj)の間の結合を定義する前記重み(wij)が、前記セル(Ki)に直接隣接するセル(Kj)に一意的に関連付けられたデータ・レコード(Pj)の変数の前記現在の値(Uj)及び前記セル(Ki)に一意的に関連付けられたデータ・レコード(Pi)の変数の現在の値(Ui)の関数として決定されることを特徴とする。
【0018】
データベースが2次元画像のピクセルにより形成されている場合、上記のニューラルネットワークは、本発明にしたがって画像処理を行うためのマシンとして実施される。
更なる改良点は以下の詳細な説明において説明されるとともに、以下の請求の範囲に示される。
本発明の人工ニューラルネットワークは以下の理論的基礎に基づく。
【0019】
現象は例えば、吸収或いは放射される電磁的周波数により計測可能な空間―時間の組のそれぞれとして定義される。したがって、視覚的現象はこのような現象全体の1つのサブセットである。サブセットは、観察したい周波数に基づいて選択される。視覚的現象は、相対的位相情報を有する現象である。いかなる現象も、モデルにより先験的に決定される要素を用いて分析可能である。或いは、現象は最小要素間に存在する関係を示す。現象の要素はいずれも、最小要素の明示的或いは暗示的合成である。よってモデルの要素を、最小要素内に存在する情報を減少させるインデックスとみなすことができる。モデルの要素が、最小要素及び最小要素の局所的な相互作用に存在する特性の一部を無視することが可能となるから、このように情報を減少させることは重要である。視覚的現象或いは相対的位相情報を有するその他の現象を分析する上で、モデルの要素により情報が減らされることは重要である。平均値のようなインデックス、及び平均値に基づくその他の任意のインデックス或いは変数は、合成される最小単位の位相的特性を維持しない。例えば、非常に稀な場合を除いては、2つの直角三角形の平均値は、直角三角形を生成しない。
【0020】
更に、科学的知識の対象として観察可能な現象は全て、相対的位相情報を有する。形状は理論上等方性の空間に存在するという事実により、全ての形状はその位相情報とともに、その形状の具体的な関連性を示す。いかなる種類の科学的モデルも、全ての現象に対して、現象の最小要素の相互作用を用いてその現象の内在的なモデルを現れさせることを目的としている。ある現象の最小要素を発見すると、科学的モデルは、この要素に数式を提供する。この式を用いて、最小要素は相互作用する。この式により、現象の最小要素が、現象自体をその形態的或いは動的複雑性を維持しながら再構築可能であるならば、この式は最小要素が作り出したモデルの適切なメタ・モデル(変化後のモデル)であるといえる。再構築による検証のほかには、科学的作用を検証する手段はない。
【0021】
科学的知識の対象となるためには、全ての現象は数量的に特徴付け可能でなければならない。すなわち、現象の最小要素及びこれら要素の関係が数値により表現可能でなければならないということである。物理学的視点から、この数値は「力(forces)」及び/又は加えられた力の「結果(results)」を表す。特定の数式内でのこれら数値間の相互作用により、メタ・モデル(すなわち数式)が、解明すべき現象と類似のモデルを作り出すために用いる手段を、再構築により検証することが可能にする。よって、科学的知識の目的は、現象に暗示的に存在する数学的関数を特定することである。この数学的関数が比較的複雑である場合、すなわち高度に非線形である場合、知覚した現象を、質的特徴を備えた現象としてみなさなければならない。質的特徴とは、単に量的効果のみに簡略化できない特徴である。質的特徴を備えた現象に内在する関数は複雑であるが、質的特徴も知覚的な効果であることに変わりはない。よって、全ての現象の量的要素はその現象の高度に量的な非線形性の知覚的効果であるといえる。自然界に存在する全ての現象が高度に非線形な動力学にしたがって展開することを考慮すると、質的効果が非常に一般的に知覚されるから、現象の質は現象自体に内在すると考えがちである。しかし、実際には量と質の間に差異は存在しない。質とは、量がその性能を表現する方法であるといえる。
【0022】
相対的位相情報を有する全ての現象において、その現象の独自性及び一体性は、該現象の空間―時間結合によりもたらされる。これはすなわち、現象の全ての最小要素が、他の最小要素と連続しているとともに、特定の力により直接或いは間接的に結合されているということである。分析対象である現象の最小要素それぞれの量的値は、この力の作用の結果である。したがって、相対的位相情報を有する現象においては、最小要素と局所的な近傍のその他の最小要素を接続する力は、現象全体の空間―時間結合を説明するのに十分なものである。
【0023】
次元Dの空間において最小要素p1、p2、・・・pMを備える現象Pについて、D=2の場合を例に考える。最小要素それぞれの局所的近傍Nが、直接取囲む最小要素の第1層から形成されると仮定する。この直接取囲む最小要素を、グラディエント1と称する。尚数字「1」はステップを示している。2次元空間において、局所的近傍はその後、N=8の最小要素により形成される。これにより現象Pは、M個の要素を備えるマトリックスにより表現可能となる。
【0024】
【数1】
【0025】
このマトリックスにおいて、最小要素px,yのそれぞれは量的値を備える。量的値としては例えば、反射体が反射可能な光量が挙げられる。この値を以下のように表す。
【0026】
【数2】
【0027】
要素px,yはその局所的近傍Nとの結合も有する。最小要素と局所的近傍Nの最小要素との結合の力を、以下のように表す。
【0028】
【数3】
【0029】
よって、以下の式が得られる。
【0030】
【数4】
【0031】
この式から以下の式が導かれる。
【0032】
【数5】
【0033】
つまり、最小要素px,yそれぞれの量的値は、該最小要素を取囲む8つの最小要素の量的値と、該最小要素と該最小要素を取囲む要素を結合する力の関数である。これを、より分析的に表すと以下のようになる。
【0034】
【数6】
【0035】
x=1、y=1から開始して、n番目の段階それぞれのu[n]x+k,y+zについて、上記でuxyについて計算したのと同じ関数f(・)を再帰的に置き換えていくと、インデックスxC及びyRに容易に到達できる。これは、各要素px,yの量的値がその他全ての要素から導かれることを示している。
【0036】
以上からからわかるように、現象Pの最小要素と、その局所的近傍の最小要素の間の結合強度を定義することにより、現象P全体の全体的な結合強度も定義できる。
【0037】
現象Pが動的な動作をする場合にのみこの状態が得られることが明らかである。よって、相対的位相情報を有する現象は常に一時的なプロセス或いは一時的なプロセスの部分的な結果であるといえる。
【0038】
相対的位相情報を有する現象を特徴付ける局所的結合と時間ダイナミクスの概念を組み合わせることにより、これら現象が同時に並行且つ順次的な動作をするといえる。この種の非同期的並行処理は形式化可能である。
【0039】
2次元(D=2)平面において相対的位相情報を備え、その要素が一辺の最小辺長がLである矩形の要素により、この2次元平面を一種類のタイル状に分割するような現象Pについて考える。この状態において、互いから距離が離れた現象Pの2つの最小要素により、互いにリプリコルな影響を及ぼすために用いられる関数を評価可能である。現象Pの最小要素のそれぞれが、そのグラディエント1(g=1)の局所的近傍に直接結合されていると仮定すると、以下の式にしたがって、各最小要素の時刻tそれぞれにおいて信号伝播が起こる。
【0040】
【数7】
【0041】
ただし式7において、I(t)は最小要素pf Pの数を示す。I(t)はT番目の一時的サイクルにおいてリファレンス最小要素の信号から影響を受ける。これらの式は、任意の次元Dの現象Pの最小要素の信号の伝播関数を表す。
【0042】
更に、時間遅延Δtを定義することも可能である。時間遅延Δtを用いて、最も離れた最小要素は互いに影響を与える。
【0043】
D=2により表される2次元平面において、上記の2つの最小要素Px1,y1及びPx2,y2が既知であるとき、時間遅延は以下の式により表される。
【0044】
【数8】
【0045】
更に、相対的位相情報を有する現象は最小要素及びこれら最小要素間の局所的結合により形成される。最小要素のそれぞれは、その現象内で占める位置及び各瞬間において例えばその現象の特徴的効果(例えば、反射体から反射或いは放射される光の量)を示す量的値により定義される。このことは以下の式により表される。
【0046】
【数9】
【0047】
ただし式9において、uは量的値、x,y,z,...Dは位置を、tは時刻を示す。
【0048】
局所的結合のそれぞれは、最小要素がそれぞれの時刻において直接隣接する他の最小要素と互いに及ぼす影響の強さを示す。したがって、それぞれの局所的結合は、該局所的結合により結合される最小要素の位置、及び各時刻における量的値により定義される。このことは以下の式により表される。
【0049】
【数10】
【0050】
ただし式10において、wは量的値、x,y,Dsはソース最小要素の位置、Tは時刻、k,z,...Ddはターゲット最小要素を示す。
【0051】
以上を考慮すると、結合のアクティブ・マトリックス(active matrix)は、以下の式のシステムにより定義可能である。
【0052】
【数11】
【0053】
式(4a)及び式(4b)は、最小要素と現象を構成する結合の、誘引要素への進化を表す。誘引要素は解の群である。いずれの式も2つの退化型の(degenerated)方法において使用可能である。第1の方法は以下の式により表される。
【0054】
【数12】
【0055】
この場合現象の最小要素は、結合の関数としてのみ進化する。この進化は、この最小要素の最初の或いは開始時の量的値から開始することにより行われる。このような値は、プロセスのインパルスの唯一の効果を有する。この進化の1つの特徴は、結合の進化を制御するプロセスが、結合空間内で起こることである(式(4b)参照、この空間において最小要素の進化のためのソルーションが見出される。)
【0056】
よって、この場合、最小要素の開始値は、結合の進化に対する単純な制約として機能する。この結合は各要素に動的に値を提供するから、このようなプロセスの誘引要素を動作させることにより、最小要素が、排他的関連性を有する要素として新たに定義される。このような排他的関連性を有する要素は、この最小要素の開始値と、隣接する最小要素の開始値の間の動的交渉により生み出される。
【0057】
第2の退化型の方法は次の式により表される。
【0058】
【数13】
【0059】
この場合最小要素の値のみが進化して、最小要素の結合は変更されない。この結合は、進化的プロセスの制限として機能する。
【0060】
電磁気的或いは視覚的現象を例とした相対的位相情報を有する現象の上記のような分析もまた明らかに、既知のニューラルネットワーク、特にセルラ・ニューラルネットワークと同じ制限を受ける。従来のネットワークは、相対的位相情報を有する現象の構造には完全には適合するものではなかった。これは、最小要素の相互作用及び量的値の間の関係が考慮されず、相互作用が所定のモデル(すなわちオペレータ・テンプレート)により記述されるだけであるからである。一方で、本発明の人工ニューラルネットワークは、データベースのデ−タ・レコードにより形成される最小要素の量的値の相互関係、及び最小要素間の相互作用を考慮することにより現象の構造をより忠実に再現する。
【0061】
以下では、本発明のニューラルネットワークのセル或いはノットの間の相互作用と個々のセルあるいはノットの量的値が関連付けられる方法を記述するための法則の異なる群を詳しく説明する。個々のセル或いはノットの量的値とはすなわち、内部値、活性値、或いは出力値である。
【0062】
本発明はデータベースのデータ間の関係を認識するためのアルゴリズムに関する。このアルゴリズムは、より効率的且つ迅速、正確に、データベースのデータ間の関係を明瞭化する。
【0063】
本発明のアルゴリズムは、相対的位相情報を有するデータベースのデータ間の関係を認識するためのアルゴリズムに関する。このデータは、次のような種類のデータである。すなわち、データ・レコードの配列におけるデータ・レコードの相対的位置或いはN次元空間(特に2次元或いは3次元空間)におけるデータ・レコードの分布が、データ・レコードの関連特性であり、データ・レコードがセル或いは点の配列として表現可能であり、各点がデータベースのデータ・レコードに一意的に関連付けられるとともに該配列内に他のデータ・レコードのセル或いは点に対して一意的に定義された位置を有し、各データ・レコードに対して少なくとも1つの或いはそれ以上の変数が更に関連付けられ、該変数のそれぞれが特定の値を備えるような種類のデータである。本発明のアルゴリズムは、データベースのデータ・レコードを表すセル或いは点の配列内のセル或いは点のそれぞれが、人工ニューラルネットワークのユニット或いはノットとみなされ、(a)前記データベースのセル或いは点により形成されるユニット或いはノットのそれぞれが、連続的にターゲット・ユニット或いはノットとして定義され、ターゲット・ユニット或いはノットのそれぞれと、少なくともその他のユニット或いはノットのそれぞれとの間の結合が定義され、該その他のユニット或いはノットが、データベースのその他のセル或いは点により形成されるとともに、対応するターゲット・ユニット或いはノットに対して少なくともグラディエント1であり、(b)データベースのユニット或いはノットのそれぞれの新たな出力値が、連続的にターゲット・ユニット或いはノットとして定義され、該ターゲット・ユニット或いはノットが、前記人工ニューラルネットワークの前記学習法則或いは関数の群、前記活性化法則或いは関数の群、或いは前記学習法則或いは関数の群と前記活性化法則或いは関数の群の両方を用いて、前記ターゲット・ユニット或いはノットに結合されたユニット或いはノットの実際のアウトプット及び前記ターゲット・ユニット或いはノットの実際のアウトプットの関数として計算され、(c)前記ユニット或いはノットそれぞれの前記実際のアウトプットが、前記人工ニューラルネットワークのユニット或いはノットとみなされるセル或いは点により表されるデータ・レコードのそれぞれと関連付けられる変数の値或いは複数の変数の値として定義され、(d)前記ターゲット・ユニット或いはノットの前記新たなアウトプットが、前記ターゲット・ユニット或いはノットに対応するデータ・レコードの配列を構成するセル或いは点に関連付けられた前記データ・レコードの前記変数或いは複数の変数の新たな値としてみなされ、(e)データ・レコードの前記配列のセル或いは点の少なくとも一部或いは全てに対して、ターゲット・ユニット或いはノットの新たなアウトプットを計算する前記段階を実行することにより、データ・レコードの新たな配列が計算され、セル或いは点のそれぞれのデータ・レコードが、前記少なくとも1つの変数の新たな値、或いは前記複数の変数の新たな値を備え、前記新たな値が、前記段階にしたがった人工ニューラルネットワークの第1計算サイクルの結果であり、前記計算サイクルが予め定められた特定回数実行されるまで、及び/又は前記変数の最初の値若しくはデータ・レコードの前記最初の配列の前記変数と、データ・レコードの前記配列の1若しくは複数の変数の値の間の誤差或いは不一致が、直前のサイクルにおいて計算された誤差或いは不一致にしたがって最大許容可能な程度に達せられない限り、及び/又は連続するサイクルにおいて計算された連続するデータ・レコードの配列内のデータ・レコードの変数の値或いは複数の変数の値の差が、所定の最大率を下回らない限り、データ・レコードの連続する新たな配列のそれぞれに対して、前記計算サイクルが予め定められた特定回数反復されることを特徴とする。
【0064】
既知の学習関数或いは法則からなる群の異なる多数の群、既知の活性化関数或いは法則からなる群の異なる多数の群、或いはこれらを組み合わせたものを用いると、データ・レコード間の特定の種類の関係を強化或いは明瞭化できる。
【0065】
本発明は更に、学習関数或いは法則の第1群、活性化関数或いは法則の第1群、若しくはこれらを組み合わせたものが提供される該第1加工段階、学習関数或いは法則の第2群、活性化関数或いは法則の第2群、若しくはこれらを組み合わせたものが提供される第2加工段階、及び、2つ以上の加工段階が行われる場合には、学習関数或いは法則の更に別の群、活性化関数或いは法則の更に別の群、若しくはこれらを組み合わせたものが提供される更に別の加工段階において、データ・レコードの配列が、前記アルゴリズムを用いて、少なくとも2回或いはそれ以上の加工を受け、前記第2若しくはそれ以上の加工段階において、第2若しくはそれ以上の異なる群を用いるデータ・レコードの配列が用いられ、学習或いは活性化法則又は関数、若しくはこれらを組み合わせたものの第2或いはそれ以上の異なる群を備えるアルゴリズムが用いられる前記第2若しくはそれ以上の段階において用いられるデータ・レコードの配列が、データ・レコードの配列の前記第1加工段階、或いは、前記第2若しくはそれ以上の段階以前の加工段階から個別にもたらされたデータ・レコードの配列であることを特徴とするアルゴリズムを提供する。
【0066】
しかしながら、次のような特殊な場合には、ターゲット・データ・レコードに関連するセル或いは点により実際に形成されるユニット或いはノットに対して、少なくともグラディエント1であるデータ・レコードに関連するセル或いは点に対応するユニット或いはノットが、上記実際のターゲット・データ・レコードに関連するセル或いは点を空間的に直接取囲むユニット或いはノットである必要はない。つまり、データ・レコードの2次元或いは3次元配列において、前記ターゲット・データ・レコードのセル或いは点に対してグラディエント1であるデータ・レコードに関するセル或いは点が、前記ターゲット・データ・レコードに関連するデータ・レコード配列内のセル或いは点を直接取り囲むデータ・レコード配列のセル或いは点に関連するデータ・レコードにより形成される場合である。
本発明は更に、前記アルゴリズムにより計算されたデータ・レコードの新たな配列が、学習関数或いは法則の1つの群のみに基づく場合、前記ターゲット・データ・レコードそれぞれの前記新たなアウトプットが、前記ターゲット・データ・レコードに関連するターゲット・ユニット或いはノットそれぞれと、前記ターゲット・データ・レコードのセル或いは点に対してグラディエント1であるデータ・レコードのセル或いは点により表されるユニット或いはノットとの結合を特徴付ける新たな重みの関数として定義され、前記学習法則或いは関数の群が、前記結合の前記新たな重みを、以前の計算サイクルにおいて計算或いは定義された以前の重みの関数として、並びに前記ターゲット・データ・レコードのセル或いは点に関連するユニット或いはノットの実際のアウトプット、及び少なくともグラディエント1のデータ・レコード、若しくは前記実際のターゲット・データ・レコードのセル或いは点を直接取り囲むセル或いは点のデータ・レコードのセル或いは点に関連するユニット或いはノットの実際のアウトプットの関数として定義することを特徴とする。
【0067】
活性化関数の群を用いても同様の結果が得られる。活性化関数は、前記ターゲット・データ・レコードに関連するセル或いは点に対応するターゲット・ユニット或いはノットの新たなアウトプットを定義し、該定義が、前記ターゲット・ユニット或いはノットへのネット・インプットに基づいて行われ、該ネット・インプットが前記データ・レコードに対して少なくともグラディエント1であるデータ・レコードに関連するセル或いは点に対応するユニット或いはノットのアウトプット、特に前記ターゲット・データ・レコードのセル或いは点を直接取囲むデータ・レコード配列のセル或いは点に対応するユニット或いはノットのアウトプットの関数である。
【0068】
学習フェーズは、各結合の重みに対して固定された所定の値から開始し、一方で前記ユニット或いはノットの開始値が前記重みと、前記周囲のノット或いはユニットの値の関数である所定の関数にしたがって、すなわち前記人工ニューラルネットワークの特定のユニット或いはノットを表すセル或いは点を直接取囲む配列内のセル或いは点に対応するデータ・レコードにしたがって変更される。
【0069】
新たなデータ配列は次のように構築される。セル或いは点の配列としてデータ・レコードが表現されるとき、データ・レコードのそれぞれが、その他のデータ・レコードに対して一定位置を有する。一方で、その最初の値と、配列内の周囲のセルに関連するデータ・レコードの最初の値の関数として、各データ・レコードの値は変更される。
【0070】
新たなサイクルは、以下のように実行される。データ・レコードを表す点のそれぞれが、人工ニューラルネットワークのユニット或いはノットとして設定され、ユニット間の結合それぞれに対して重みが定義され、特定の関数にしたがって各ユニット或いはノットのアウトプットとしての新たな値が計算される。
【0071】
多数の異なる種類或いは構造の既知の人工ニューラルネットワークが使用可能である。この人口ニューラルネットワークは、重みを定義するための既知の及び/又は新たな学習関数、及び各ユニット或いはノットに関連するデータ・レコードの新たな値を計算するための複数の関数を用いる。
【0072】
人工ニューラルネットワークのノット間の結合の重みが、少なくとも各サイクルにおいて一定しており、よって各結合について一定であるから、本発明のアルゴリズムには、内部のノイズが事実上存在しない。データベースのデータのノイズによってのみ、ノイズが発生する。
【0073】
学習法則或いは関数の群の複数の例、既知の活性化法則或いは関数の群、及びこれらを組み合わせたものを、いくつかの例を挙げて以下で詳しく説明する。
【0074】
以下の詳しい例において、人工ニューラルネットワークの結合の重みを決定する複数の学習法則、或いは人工ニューラルネットワークを構成するユニット或いはノットのアウトプット(データ・レコードの新たな値に対応する)を計算するための複数の関数が、データ・レコードの特定の種類の特徴を強化するために有用であることを説明する。
【0075】
本発明のアルゴリズムを用いると、簡単且つ効率的に、デジタル或いはデジタル化された画像を評価して、この画像の特定の特徴を認識或いは明瞭化することができる。このような評価としては、組織の区別、画像パタン識別、及びコントラストの改良を例示できる。
【0076】
本発明のアルゴリズムは特に、画像パタン認識、具体的には、異なる種類の構造を有する材料からなる組織、特に生体を構成する組織を認識するために使用可能である。このとき同時に、放射線画像、超音波画像或いは磁気共鳴画像の撮像又はこれに類するものが行われる。
【0077】
以下の詳細な説明に示すように、本発明のアルゴリズムを用いると、組織の種類を明らかにすること及び/又は画像診断において造影剤の替わりとすることが可能である。
【0078】
特に、明らかにされる或いは強化される情報の種類は、最初の画像のピクセル配列が形成するニューラルネットワーク構造に適用される学習及び/又は活性化法則の群の種類により決定される。基本的に、これら法則の群により得られる効果は、超音波撮像、放射線撮像、核磁気共鳴撮像におけるコントラストを増強する物質(例えば造影剤)を用いて得られる効果と同様である。
【0079】
学習及び/又は活性化法則の群の選択によっても、明らかにされる情報の種類を変更することが可能である。一般的にこれら法則を2つの系統に分けることができる。この2つの系統を図3の系統図に示す。以下の詳細な説明において示すように、これら2つの系統にはそれぞれ名前がつけられている。
【0080】
法則の第1の系統は、重み進化及びユニット活性化を行い、デジタル或いはデジタル化されたソース画像から特徴を抽出する。これら特徴とは例えば、生体画像内の組織の種類、或いは組織などの物体の構造である。これにより、血管造影画像における血管狭窄部の有無を認識することが可能になる。
【0081】
第2の系統には基本的に、重み最適化を実行する法則が属する。重み最適化の後、更にユニット活性化が行われる。この種の法則は、画像の異なる領域の間にエッジを見出して、境界を認識するのに適する。このような境界としては例えば、生体組織の画像内の異なる種類の組織の間の境界が挙げられる。
【0082】
本発明のアルゴリズムを適用できる分野は上記の例のほかにも存在する。別の例として、遺伝子間の関係或いは依存性を、その遺伝子の一般的な作用に関して評価することができる。
【0083】
本発明はまた、デジタル或いはデジタル化画像の画像パタンを認識する方法に関する。
【0084】
特に、本発明は、生体組織のデジタル或いはデジタル化画像内の異なる組織を認識及び区別する方法に関する。このような画像として、例えば、デジタル化された放射線或いは超音波画像、又は磁気共鳴画像などの診断画像が挙げられる。
【0085】
ここで説明する例は、特にデータ・レコードの2次元配列に関して説明されるが、本発明のアルゴリズム及び方法は、2次元空間に限らず、データ・レコードの3次元或いはN次元配列にも適用可能である。
【発明を実施するための最良の形態】
【0086】
以下の詳細な説明において、図面を参照しつつ本発明のいくつかの実施例にしたがって本発明のアルゴリズム及び該アルゴリズムの使用方法を説明する。
【0087】
図1に示すごとく、データ・レコードの2次元配列は、矩形セルの配列として図式化される。各セルは、Piとして示される(iは自然数)。中央部の9つの矩形セルP7、P8、P9、P12、P13、P14及びP17、P18、P19は実線で描かれている。一方で、その他の周囲のセルは、破線で描かれている。これは、この配列が図示されている配列から拡大可能であることを示す。
【0088】
配列を構成するセルのそれぞれは、データ・レコードを表すセルである。データ・レコードは、配列内に該データ・レコードと一意的に関連付けられたセルを有することにより、配列内に一意的に関連付けられた位置を有する。データ・レコードのセルそれぞれのデータ・レコードのその他のセルに対する相対的位置は、対応するデータ・レコードの関連特性である。各セルのデータ・レコードのそれぞれは、値Uiを備える。尚、iは自然数であり、値Uiは、データ・レコードの1つの変数のみのパラメータ値であっても、或いはデータ・レコードを備えるベクトル、若しくは異なる変数の群のパラメータ値であってもよい。上記のような構造を、相対的位相情報を有するデータベースという。このようなデータベースにおいては、データ・レコードの値がデータ・レコードの関連特性であるだけでなく、データ・レコードの値がデータベースのデータ・レコードのn次元空間における射影に占める相対的位置、或いはデータベースのデータ・レコードのn次元マトリックスにおける配置の関連特性でもある。データ・レコードのn次元マトリックスは、このような射影を単に異なる形式で示したものにすぎない。
【0089】
例えば、デジタル或いはデジタル化された画像は、ピクセルの2次元配列である。各ピクセルはデータ・レコードの配列内の1つのデータ・レコードを表す。ピクセルの相対位置は、画像データの関連情報に属する各ピクセルの関連特性である。ピクセルの値は、グレースケール画像においては、単に明度を表す値であり、一方でカラー画像においては、少なくとも2つのパラメータ(具体的には色彩と明度)を備えるベクトルである。カラー画像を作成するために実際に使用されている技術においては、このベクトルは少なくとも3つのパラメータ或いは変数を備える。このような技術として、いわゆるHVS或いはRGBなどのカラー画像の符号化法が例示できる。
【0090】
図2は、本発明のアルゴリズムにしたがった、セルの2次元配列を人工ニューラルネットワークのセル或いはノットの配列に変換することにより、2次元配列のデータ・レコードを処理するための段階を示す。図中の矩形は図1の最初のセルPiとの関連を示し、矩形内部の円Kiは各セルPiから人工ニューラルネットワークのセル或いはノットの配列のユニット或いはノットKiへの変換或いは関連付けを示す。
【0091】
結合の矢印wijはニューラルネットワークのユニット或いはノットKi及びKjの間の結合を表す。図2は図1の中央の9つのセルのみを示す。実際のターゲット・データ・レコードに対応するセルである中央のセルP13に向かう矢印は実線で示されている。一方で、周辺のセルへの結合を示す矢印は破線で示されている。本発明のアルゴリズムにより明らかに使用されるこれら周辺のセルへの結合のメカニズムは、中央の単一のセルP13について述べたように、本発明のアルゴリズムが動作する方法の記述から、個別にもたらされる。結合の両側に矢印が描かれているのは、周辺のセルに対して単一の中央のセルP13が動作する方法を記述することにより、この実際の中央のセルP13が、別のセルに対しては周辺のセルとなり、この別のセルが中央のセルとなることを表している。
【0092】
本発明のアルゴリズムをセルの配列に適用することにより、このアルゴリズムはセルの配列を構成するセルを1つずつ処理する。或るセルをその時点の中央のセルとして特定するとともに、それに対応する周辺のセル及びこの中央のセルと周辺のセルの間の関連する結合を特定する度に、このような処理が行われる。その時点で中央のセルとして特定されたセルについてこのような計算が終了すると、隣接するセルが新たな中央のセルとして定義されるとともに、この新たな中央のセルの周辺のセルが、対応する結合とともに周辺のセルとして新たに特定される。その後、この新たな中央のセルと、対応する結合を備える新たな周辺のセルに対して計算が行われる。このメカニズムは反復され、この配列の全てのセルについてアルゴリズムによる計算が行われると反復が終了する。そして人工ニューラルネットワークの第1計算サイクルが完了する。以降のサイクルは基本的に第1サイクルと同様であるが、以降のサイクルは、それ以前のサイクルにおいてアルゴリズムにより処理されたセルの配列に対して適用されるという点で相違している。
【0093】
図13は本発明の人工ニューラルネットワークのセル或いはノットを示す概略図である。各ノット或いはセルKiはインプットを備え、このインプットにおいて、ノット或いはセルKiは他のノットKjからの出力信号ujを受信する。更に、各ノット或いはセルKiはアウトプットuiを備える。アウトプットuiは、1若しくはそれ以上のその他のノット或いはセルKjのインプットと結合される。各セル或いはノットのアウトプットuiは内部値Ai或いはノットKiの状態すなわち活性値の関数である。活性値の関数は、恒等関数であってもよい。すなわち、Ai=uiであってもよい。
【0094】
本発明の人工ニューラルネットワークにおいて、各ノット或いはセルKiはそのノット或いはセルの初期化値或いは活性値、若しくは初期化出力値uiを備えてもよい。この場合、図1、図2、及び図13の例に示すごとく、ノットKiの内部値或いは活性値Ai若しくはノットKiの最初の出力値uiのための初期化値は、データ・レコードPiの値uiと等しい値として設定される。上述のごとく、データ・レコードPiは、ノットKiと一意的に関連付けられている。ノット或いはセルKiのそれぞれは、更に、算出値Uinのためのアウトプットを備える。値Uinは、一連の特定の数mの処理サイクルのうちn番目の処理サイクルが終了後のデータ・レコードPiのための値である。計算された新たな値Uinは、n番目のサイクルが実行された後のノット或いはセルKiの内部値或いは活性値Ain、若しくはn番目のサイクルが実行された後のノット或いはセルKiの出力値Uinと対応する。
【0095】
図2に示すごとく、本発明の人工ニューラルネットワークは、ノット或いはセルKiとノット或いはセルKiに直接隣接するノット或いはセルKjの間にのみ直接的な結合を備える。ノット或いはセルKjの群は、ノット或いはセルKiの局所的近傍(local neighbourhood)、すなわちグラディエント1(gradient 1)のノット或いはセルとして定義される。グラディエント1とは、基準となるノット或いはセルKiの位置と、ノット或いはセルKiの局所的近傍を形成するノット或いはセルKjの群の位置の間の段階的な差を表す。この定義は直感的に理解可能な定義として広く用いられている定義である。配列を構成する要素に対して、離散的な位置のみが与えられているような離散化された配列においては、基準となる要素を定義すると、基準となる要素の位置から、任意の方向にステップ1異なる位置を有する要素の群により、グラディエント1の近傍が形成される。以上は最も単純な例である。グラディエント1との語は、より一般的な意味においては、空間的座標だけではなく、n次元データベースが射影される任意の種類の空間についても言及できる。
【0096】
ノットKiと局所的近傍のノットKjの間の結合は、これら結合の強度により定義される。結合の強度は、これら局所的近傍のノットの信号がこれらノットに結合される基準となるノットKiに送られるとき、重みwji或いはwijにより量的に与えられる。重みwji或いはwijは、ノットKiの局所的近傍であるノット或いはセルKjのアウトプットを乗ぜられる。上で述べたように、基準ノットKiへ入力される重みを付加されたこれらの信号は、内部状態Aiに影響を与えて、出力信号uiを送信する或いは送信を禁止するか、若しくは出力信号uiの値を変更する。
【0097】
上で述べたように、このようなニューラルネットワークは処理の基礎として、ノット或いはセルの値だけではなく、これらをノット或いはセルの間の関係、及びこれらノット或いはセルの値とこれらの関係の間の相互作用も考慮する。
【0098】
上記で1つの極端な例を一般的に論じたが、このうちの1つの例においては、ノット或いはセルKiの内部値Ai或いは出力値uiの最初の又は開始時の量的値Uiから開始して、ノット或いはセルKiの内部値Ai或いは出力値uiの進化が、結合wjiのみの関数として考慮される。量的値Uiは対応するノットKiに一意的に関連付けられたデータ・レコードPiの値である。この初期の又は開始時の値Uiはプロセスのインパルスの唯一の効果を有する。この進化の特徴の1つは、結合wjiの進化を制御する段階が結合の空間において起こることである(式4b)。この空間において、ノット或いはセルの進化に対して解が求められる。ノット或いはセルKiの開始値は、結合wijの進化に対する単純な制約として機能する。これら結合はノット或いはセルの値を動的に提供する。よって、このようなプロセスの誘引要素(actracting element)は、任意のノット或いはセルKiを限定的な関係を有する要素として新たに定義することである。この限定的な関係を有する要素は、ノット或いはセルKiの開始値Ui或いは局所的近傍を形成する隣接するノット或いはセルKjの開始値Ujの間の動的交渉により作り出される。
【0099】
結合を量的に定義する重みwjiは、局所的近傍Kj及び/又は基準ノットKiの内部値の関数である。
【0100】
上記で一般的に論じた第2の極端な例においては、活性値Ai及びAj、或いは出力値ui及びujとしてのノット或いはセルの値のみが進化する。一方で、重みwjiにより表されるノット或いはセルの結合は一定に保たれる。この結合は進化プロセスの制約として機能する。
【0101】
ノットの重みwji及び値uiを決定する方法は、式の群により与えられる。この式は、法則とも呼ばれる。
【0102】
一般的に、重みの量的値を定義する式は、学習法則と呼ばれ、一方でノットの内部状態、活性値、或いは出力値を、基準ノット及びその局所的近傍を形成する隣接するノットの出力値の関数として変更する式は、活性化法則と呼ばれる。
【0103】
上記で説明したように、学習法則或いは関数の群のみを考慮して計算が実行されてもよい。学習法則或いは関数は、結合の新たな重みwijを中央のセル及び周囲のセルのアウトプットの関数として定義することにより、実際の中央のセルPiの新たなアウトプットを計算する。中央のセル及び周囲のセルのアウトプットとは、これらセルに対応するデータ・レコードの1つの変数或いは複数の変数の値である。中央のセルの新たなアウトプットはその後、中央のセルの1若しくは複数の変数の1若しくは複数の新たな値として設定される。中央のセルのこの新たなアウトプットは、周囲のセルのアウトプットの関数である。周囲のセルのアウトプットとは、これら周囲のセルに対応するデータ・レコードの1若しくは複数の変数の値或いは、本発明のアルゴリズムにより計算された新たな重みの値である。
【0104】
第1サイクルの計算の間、人工ニューラルネットワークのノットKi及びKjとして使用されるセルPiとPjの間の結合の重みwijは全て、特定の1つの値に等しい値に設定される。この値は例えば、1或いは0.0001などの任意の値として定められる。
【0105】
この重みにしたがって、実際の中央のセルPi(図2のセルP13)の値は、周囲のセルPjの値及び結合wijの重みの関数として変更される。セルP13は人工ニューラルネットワークのユニット或いはノットK13として機能する。セルPjもまた、人工ニューラルネットワークのノットKjとして設定される。図2においてノットKjは、セル及びノットP7、P8、P9、P12、P14並びにP17、P18、P19、及びK7、K8、K9、K12、K14並びにK17、K18、K19である。
【0106】
ユニット或いはノットKiの新たなアウトプットを計算する別の方法として、活性化関数或いは法則の群を用いる方法がある。活性化関数或いは法則は、中央のノットK13のアウトプットをセルPj(図2におけるP7、P8、P9、P12、P14、及びP17、P18、P19)のデータ・レコードの値Uj(図2におけるU7、U8、U9、U12、U14、及びU17、U18、U19)の関数として定義する。セルPjは中央のセルPiを取囲むセルであり、中央のセルPiはユニット或いはノットKiに対応するとともに、重みwijの関数として活性化される。この場合新たな重みwijは計算されない。
【0107】
結合に対する新たな重みwijを計算する学習法則の特定の群と、各サイクルにおける新たな出力値を計算する活性化法則の特定の群を用いて、複合的な計算を行ってもよい。
【0108】
したがって、1つのサイクルが完了するまでに、新たなアウトプット、すなわちデータ・レコードの配列内の各データ・レコードのための変数の新たな値及び結合のための新たな重みが計算されている。これらのデータ・レコードの1若しくは複数の変数の新たな値及び結合の重みの新たな値はいずれも、続く計算サイクルにおいて用いられる。
【0109】
図2の例に示すごとく、関数により周囲のノットK7、K8、K9、K12、K14及びK17、K18、K19のアウトプットU7、U8、U9、U12、U14及びU17、U18、U19を用いて、ノットK13のネット・インプットが定義される。アウトプットU7、U8、U9、U12、U14及びU17、U18、U19は中央のセルP13を取囲む関連するセルP7、P8、P9、P12、P14、及びP17、P18、P19及び関連するノットK13の値に対応する。アウトプットの以前の値と本発明のアルゴリズムにより計算された新たな値の差異に基づく更に別の関数が提供される。この関数は、中央のノットKi(図2におけるK13)と周囲のノットKj(図2におけるK7、K8、K9、K12、K14、及びK17、K18、K19)の間の結合のための新たな重みwijを定義する。
【0110】
第1サイクルの最後、つまり全てのセルが上記の手順に従って処理された後には、セルの新たな配列が構築されている。この新たな配列においては、データ・レコードはそのセルを維持しているとともに、各データ・レコードは、1若しくは複数の変数のための上記のごとく第1サイクルにおいて計算された新たな値を備える。またこのとき、結合のための新たな重みも既に計算されている。
【0111】
第2サイクルは、データ・レコードのこの新たな配列を用いて実行される。第2サイクルにおいては、第1サイクル或いは以前のサイクルにおいて、セルに対応する人工ニューラルネットワークのノットのアウトプットとして計算されたデータ・レコードの値、及び上記のように第1或いは以前のサイクルにおいて計算されているセルに対応するノット間の結合のための新たな重みが用いられる。第2或いはそれ以降のサイクルにおいては、ノットの新たなアウトプット及びデータ・レコードの新たな値が計算され、これによりデータ・レコードの新たな配列が形成される。この新たな配列においては、データ・レコードは、更新された値を備える。同様に、ノット間の結合のための対応する新たな値が計算され、アルゴリズムの以降のサイクルが提供されるか、或いは必要である場合には、これらサイクルにおいて用いられる。
【0112】
以降のサイクルの数(n)は、固定されたパラメータとして決定されてもよい。若しくは、反復回数は、データ・レコードの新たな配列の値と最初の値についての誤差或いは逸脱(deviance)の計算により決定されてもよい。この計算においては、最大誤差或いは逸脱が設定される。この計算は、人工ニューラルネットワークの分野における通常の誤差或いは逸脱の計算を用いて行われてもよい。
【0113】
別の重要な点として、データ・レコードの変数のための一連の新たな値の差がモニタされ、一連のサイクルにおけるこの新たな値の差が、有意な差ではなくなったときに、アルゴリズムの反復が停止される。値の差が有意ではないとはすなわち、この差が所定の値より小さいことをいう。値の差が有意ではないとはまた、新たな値と以前の値にほとんど差がないことをいう。ほとんど差がないか否かは、データ・レコードの変数の値及びデータ・レコードの種類にしたがって判断される。データ・レコードの種類を考慮するのは、極小さな差が、ある場合においてはデータ・レコードの情報に対して大きな影響を及ぼすこともある一方で、その他の場合においてはそれほど大きな影響を及ぼさないこともあるからである。
【0114】
以下では、人工ニューラルネットワークのノットのアウトプット、すなわち対応するデータ・レコードの値を更新するとともに、結合の重みを更新するための法則の例を示す。この法則或いは関数に名前を付して、特定の法則の説明において法則を識別しやすくする。
【0115】
明らかにされる或いは強化される情報の種類は、元の画像のピクセル配列により形成されるニューラルネットワーク構造に適用される学習及び/又は活性化法則の群の種類により決定される。基本的に、得られる効果は、超音波、放射線、核磁気共鳴、或いはこれに類する撮像方法における造影剤のようなコントラストを増強する材料を用いて得られる効果と同様である。
【0116】
学習及び/又は活性化法則の特定の群を選択することにより、強化される情報の種類は更に変更可能である。一般的にこれら法則の群を2つの系統に分けられる。2つの系統は図3の系統図に示されている。この系統図において、法則の異なる群は、以下で説明する名前により識別されている。
【0117】
第1の系統には、基本的に重み最適化を行う法則が分類される。重み最適化は、更に、ユニット活性化と組み合わされてもよい。この種の法則は、画像の異なる領域間のエッジを見出し、境界を特定するのに役立つ。境界とは例えば、生体画像における異なる種類の組織の間の境界である。
【0118】
一般的な種類の群の法則は、オートマータ法則(Automata Rule、A或いはAR)と呼ばれる。これら法則は、最適化された重みを決定するための関数、すなわち学習法則を備える。以下の2つの群の法則を用いることができる。
【0119】
【数14】
【0120】
ただし式14において、σ:アルゴリズムの画像の差異に対する感度を向上或いは低下させるための使用者により自由に定義可能なパラメータ、Rij:i番目のユニットからj番目のユニットまでの距離、Ui:人工ニューラルのノットKiに変換された単一のセルPiの値、添え字i:中央のセル或いはノット、添え字j:前記中央のセル或いはノットを直接取囲むセル或いはノットとする。
【0121】
図3に示すごとく、この一般的な法則を特殊化或いは強化して、異なる法則の群を得ることも可能である。
【0122】
上記のオートマータ法則は、各ターゲットすなわちノット又はセルKiと、局所的近傍のノット又はセルKjのそれぞれの間の結合強度を、これらノット又はセルの異なる値uiとujの差の非線形射影として定義する。よって基準ノット又はセルKiのそれぞれは、8つの対称な重みwjiにより、グラディエント1の局所的近傍であるノット又はセルKjと結合される。全ての2次元データベース(例えば2次元画像)はマトリックスにより形成される。このマトリックスにおいて、マトリックスを構成する要素のそれぞれは、自立的ユニットとして、その局所的近傍と結合される。局所的近傍とは、マトリックスの基準要素に直接隣接する要素である。データの2次元マトリックス配列(例えば画像)は、マトリックスの各要素と局所的近傍の要素の間の特定数の対称な結合により更に結合される。
【0123】
上記の式により定義される結合wjiの量的強度値は、制約を形成する。これにより、結合強度のアクティブ・マトリクスからなる形態のデータ配列(例えば画像)は各セル又はノットの初期化値に進化を引き起こす。この進化は、所定のn番目の処理サイクルが終了するまで、ナチュラル・アクトラクタ(natural actractor)に向かって継続される。
【0124】
第II群の法則は、一般的に制約充足(CS、Constraint Satisfaction)と呼ばれる。CSは以下のような様々な変更例に展開できる。
【0125】
(II.1.)いわゆるCS XORは次の式により表される。
【0126】
【表1】
【0127】
【数15】
【0128】
ただし式15において、Ui:中央のノットKiのアウトプットとする。Uiはまた、i番目のノット或いはセルのインプットと初期化段階とを組み合わせたものとしても定義される。この定義は、ニューラルネットワークを実行する第1段階において、i番目のユニットが出力値として、デジタル化されたソース画像の対応するピクセルの値を備えることを強調する傾向にある。明らかに、ニューラルネットワークの開始段階において、この出力値はi番目のノット或いはセルに起因しなければならず、またこの出力値はインプットとしてみなされる。以降の計算サイクルにおいて、各ノット或いはセルの値は本発明のアルゴリズムにより変更され、特定回数の反復が完了したときには、i番目のノット或いはセルの値は入力画像のi番目のピクセルの値に対応しているか或いは関連付けられている。更に、式15において、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【0129】
(II.2)いわゆるCS ANDは次の式により表される。
【0130】
【表2】
【0131】
【数16】
【0132】
式16における文字の定義は、式15と同様である。この活性化関数と、式15の関数の相違点は、αiを計算するための関数が、α2として定義される項を備えることである。この項は式16において、活性化されたノットKiを除く全てのノットのアウトプットの平均の関数として定義される。
【0133】
(II.3)いわゆるCS CONTESTは次の式により表される。
【0134】
【表3】
【0135】
【数17】
【0136】
式17における文字の定義は、式15及び16の活性化関数(1)及び(2)の例と同様である。
上記の例との相違点は、Neti<0である場合に、項αiが異なる方法で計算されることである。
【0137】
(II.4)いわゆるHIGH CS XORは次の式により表される。
【0138】
【数18】
【0139】
式18における文字の定義は、式15及び16の活性化関数(1)及び(2)の例と同様である。ノットKiのネット・インプットNetiを計算するための関数が、上記の例と異なる。上記の式より明らかなように、この場合、結合の重みwijに関数α2が適用される。
中央のノットKiのアウトプットUiの更新値αiを計算するための関数は、活性化関数の第1の例と同一である。
【0140】
(II.5)いわゆるHIGH CS ANDは次の式により表される。
【0141】
【数19】
【0142】
式19の一連の式と、High CS XORと呼ばれる活性化関数(4)及びCS ANDと呼ばれる活性化関数(2)を比較すると明らかなように、式19の関数は、High CS XOR とCS ANDを組み合わせたものである。
【0143】
(II.6)いわゆるHIGH CS CONTESTは次の式により表される。
【0144】
【数20】
【0145】
この場合の関数も、上記の活性化関数、すなわちCS CONTESTと呼ばれる活性化関数(3)とHigh CS XORと呼ばれる活性化関数(4)を組み合わせた関数である。
【0146】
上述の異なる法則の群は、1つの共通した一般的概念にしたがっている。2次元画像の例を用いて説明したように、基本的概念は、マトリックスの各ピクセルを、各ピクセルの明度により真或いは偽となる仮説とみなすことである。また、このシステムは、各ピクセルとその局所的近傍の間の局所的結合を継承している。この結合の強度は、重みを用いて表現され、この重みは、上記のオートマータ法則を用いて計算される。結合のアクティブ・マトリックスの進化の間、この結合は制約として機能する。上記の式によるシステムのコストの関数は、マトリックスの各仮説を真とすることを試みることにより、各ピクセルの明度を最大とすることである。このプロセスの間、それ以前に既に計算されている結合を定義する重みは、制約として機能する。
上記したことの例として、特定の境界線内のピクセルの動作を以下に示す。
【0147】
【表4】
【0148】
CSと呼ばれる法則の群とも異なる更に別の特殊な法則の群は、IAC(Interaction and Activation Competition)と呼ばれる第IIIの法則の群である。
【0149】
【数21】
【0150】
中央のノットKiのネット・インプットNetiは結合の重みwijが正か負かに基づいてネット・インプットを計算する2つの異なる関数の合計として定義される。具体的には、関数ecci及びiniiは同一であり、重みが正或いは負の結合に関連付けられるインプットが異なるのみである。この相違が、2つの関数ecci及びiniiにより表現されている。Netiのこれら2つの要素について、要素ecciは興奮或いは強化に関連付けられ、iniiは抑制に関連付けられる。ネット・インプットNetiはecci及びiniiを組み合わせたものであり、Netiにおいて、ecci及びiniiはそれぞれ、パラメータα及びパラメータβにより乗ぜられる。これら2つのパラメータは、重みが正の結合と、重みが負の結合のネット・インプットNetiへの影響を決定する。
【0151】
更に、活性化パラメータActiがノットKiへのネット・インプットNetiの関数として提供される。
このパラメータを用いて、ノットKiのアウトプットUiの更新値αiを計算する2つの異なる関数のうち1つが選択される。この選択は、Actiが正であるか負であるかに基づいて行われる。強化と抑制はαiを計算するための2つの関数に明らかに起因する。これは、これら関数にパラメータとしてActiが存在するからである。
これら関数には以下の表現が用いられる。
Max及びMinは、活性化法則の上限及び下限として定義される。
Decayは、各ユニットの時間にしたがった通常のディケイ値として定義される関数である。
Restは、各ユニットに対するデフォルト値として定義される。
ノットKiの新たな出力値は、特定の指数関数により定義される。この指数関数は、この例の活性化関数の興奮及び抑制メカニズムを増強する。
【0152】
一般的にピクセルの配列により形成される画像が、処理されるデータベースである場合、上記の式は、結合のアクティブ・マトリックスを定義する。このマトリックスにおいては、各ピクセルは、他のピクセルから、興奮及び抑制のインパルスを動的に受信するとともにこれに対応してその内部状態を変更するエージェントである。上記の式によるシステムは、エージェント・ピクセル間の集合的自動調整システムとして定義される。高い明度を有するピクセルが自らを支持する傾向にある一方で、その他のピクセルの明度がより低い値まで低下される。各エージェント・ピクセルとその局所的近傍の間の結合の一定した重みは、各ピクセル間の通信を調節する制約として機能する。この通信は、メッセージを励起及び抑制することにより形成される。進化は、個々のステップにより、元の画像の変換を引き起こす。元の画像においては、急激に明度が変化しているピクセルは、孤立状態とされ、その明度が低い値まで低下される。よって、システム全体は、画像内に存在するエッジを強調するというタスクのための特別な関数を用いることなく、このタスクを実行できる。ピクセルが互いに競合している場所においては、ある種の壁が視覚化される。この壁は、異なる図形間の壁として通常認識される。上記の法則からなるシステムの利点は、局所的自動調整(local auto-coordination)に起因したエッジ検出効果を有することである。更に、適応閾値フィルタとしての機能が現れる。各エッジについて、1つの直線が提供される。この直線の太さは、画像がそれぞれの領域において示す局所的明度の差に対応する。
【0153】
上記の法則の群とは異なるPixel Mexican Hat PmHと呼ばれる群(第IV群である)は以下の式により表される。
【0154】
【数22】
【0155】
式22における文字の定義は、上記のIACと呼ばれる第III群における定義と同様である。
比較的特殊化された群II.1乃至II.6、III、及びIVと、ARと呼ばれる一般的な法則の群の相違点は、重み最適化だけでなく、ユニット活性化も実行されることである。
【0156】
この法則の群は、局所的閾値及び適応閾値を有する拡大レンズとして機能する。画像にもたらされる効果として、全てのピクセル間の明度に関する対立が最小限であると同時に、各ピクセルが一定且つ均一な明度を有しながら、これら全てのピクセルが強調される。これにより、通常目視できないエッジを照らし出すという視覚的効果が得られる。
【0157】
法則の第2の系統は、重み進化及びユニット活性化を行い、デジタル或いはデジタル化されたソース画像から特徴を抽出する。これら特徴とは例えば、生体画像内の組織の種類、或いは組織などの物体の構造である。これにより、血管造影画像における血管狭窄部の有無を認識することが可能になる。
【0158】
学習及び活性化法則の群の2つの下位集団が提供される。
【0159】
第1に、第V群として示されるいわゆるCM(Contractive map)は、学習フェーズ及び再生フェーズを備える再循環ニューラルネットワーク(recirculation neural network)として定義可能である。(詳しくは、「Reti neurali artificiali e sistemi sociali complessi」(Massimo Buscema、Semeion Group著、Semeion Centro ricerche、Franco Angeli Milano、第1巻、Edizione Franco Angeli Milano、1999年を参照。)
【0160】
CMと呼ばれる法則の第V群は、以下の関数を備える。
【0161】
【数23】
【0162】
グレースケール画像のみについていうと、各ピクセルの値、すなわち対応するユニットそれぞれのアウトプットは、グレースケール・レベルの数で除算される。
【0163】
256のグレースケール・レベルが存在する場合には、各ピクセルの値はこの数により除算される。この除算の解の整数部分のみを考慮すると、この除算により、ピクセルすなわちユニットが属する分類の数を表す数が減少されるとともに余りがもたらされる。この余りは変数remにより示される。
【0164】
この種の操作により、ユニットすなわちピクセルが属する分類の数を減少させることができる。よって、これら分類に均一な色彩或いはグレー・レベルを付与することにより、各分類を、出力画像として視覚化することが可能である。余りすなわちremの値を更に用いて、色彩或いはグレー・レベルの強度が変更される。例えば、ピクセル或いはユニットの4つの分類を考えると、各分類は例えば、赤、緑、青、黄の色彩、或いは4つのグレー・レベルを付与される。各ピクセルの余りを用いると、各色彩を、例えば暗い赤から、明るい又は薄い赤までなどのように変化させることができる。これにより、同じ分類の出力画像のピクセルを更に変化させることが可能になる。
【0165】
rem関数は、ユニットのアウトプット及び出力画像のピクセルに与えられる値を、特定の値の範囲内で調節する関数であるといえる。この範囲は、quot関数により定義される各分類を特徴付ける。
【0166】
quot及びrem関数は、カラー・ピクセルに対応するピクセル値にも適用できる。この場合、ピクセル値は通常、3つのパラメータを有するベクトルである。これらパラメータとしては例えば、カラー・ピクセルの値のRGB定義、或いはHSV、若しくはこれに類するものが挙げられる。
【0167】
上記の式から明らかなように、ピクセル値及び対応するニューラルネットワークに変換されたユニットの出力値は初めに正規化される。これにより、出力値を0以上1以下の範囲に維持することが可能になる。
【0168】
quot関数及び対応するrem関数により分類の定義が行われる間、出力値は再び非正規化される。すなわち、0以上1以下の範囲から、元の範囲に再スケール設定される。
【0169】
quot関数による関数の分類及びrem関数による調節を用たり、或いはニューラルネットワークのユニットの出力値を非正規化することなく、且つニューラルネットワークのユニットの値或いは出力画像の上記したピクセル値と相関したグレースケール或いは色彩スケールを定義することにより、「CM true color」と定義される変更された法則を得ることが可能である。これに対して、その他の法則は、quot関数による分類のみが適用される場合には「CM quot」、rem関数がquot関数と併せて適用される場合には「CM quot+rem」と定義される。
【0170】
ピクセルの配列からなる画像の例についていうと、上記の法則の群の基本的な概念は、処理が各ピクセルの初期化値から開始され、この値がサイクルを通して不変の値であることである。進化は、結合を定義する重みに対して起こり、各処理サイクルにおいて、各ピクセルが、この重みの関数として明度の新たな値をとる。この重みは、現在の瞬間におけるピクセルを特徴付ける。基準ピクセルとその局所的近傍のピクセルの間の結合は、双方向性の結合である。各ピクセルは、別のピクセルと通信するための第1の結合、及びこの別のピクセルからの通信を受信するための第2の結合を備える。
【0171】
結合を定義する重みの進化法則は、この決定性の法則の群に属し、重みはほぼゼロに等しい値により初期化される。
【0172】
各処理サイクルの各ピクセルの明度の新たな値は、重みの空間内において定義される。よって各ピクセルの値のそれぞれは、そのピクセルとそのピクセルの局所的近傍の結合を定義する重みにより定義される。
【0173】
更に別の法則の群、すなわち第VI群は、Local Sine LSとして定義される。この群も、法則の群の上記の第2の系統に属する。
【0174】
Local sineと呼ばれる群には、2つの異なる群が存在する。これらはそれぞれ、Local Sine 1 LS1及びLocal Sine 2 LS2と呼ばれる。これら2つの群は1つの式についてのみ異なり、これらの群は以下の式により表される。
【0175】
【数24】
【0176】
式24における文字の定義は、第I乃至第Vの法則の群における定義と同様である。ただし、Dijはi番目のユニットとj番目のユニットの間の或る種の距離、αは標準偏差を表す。
【0177】
上述のごとく、学習法則或いは活性化法則のただ1つの群、或いは学習法則及び活性化法則の群の両方を用いて、データ・レコード配列に本発明のアルゴリズムを適用してもよい。
【0178】
図にも示される以下に示す例から明らかなように、異なる種類の学習法則、活性化法則、或いはこれらを組み合わせたものの群はそれぞれ異なるアウトプットをもたらす。これらアウトプットは、配列内のデータ・レコード間の特定の関係を、他の関係よりも強化する。
【0179】
本発明のアルゴリズムは、教師なしアルゴリズムの一種であるが、データ・レコードの配列を、アクティブ人工ニューラルネットワークに変換する。このニューラルネットワークは、学習或いは活性化法則又は関数にしたがって、教師あり或いは教師なしのいずれかの方法で動作する。いずれの場合も、教師なしマッピング・アルゴリズムには通常起こらない学習フェーズが存在する。
【0180】
任意の種類の既知の或いは新規な人工ニューラルネットワークを用いて、本発明のアルゴリズムの原理を動作させることが可能である。この原理は、この人工ニューラルネットワークの構造から独立している。
【0181】
更に、データ・レコードの配列に対して、特定の既知の学習法則の群にしたがって第1学習フェーズを用いた後に、第1回目に活性化関数の第1の群を用いることも可能である。
このようにして得られる結果であるデータ・レコードの配列に対して、再度本発明のアルゴリズムを用いた計算を行うことが可能である。ここでは、第1回目と同じ或いは異なる学習法則、及び異なる群の活性化法則を選択する。このようにして、本発明に係る2つアルゴリズムを連続して用いることにより、データ・レコードの元の配列を加工することができる。これら2つのアルゴリズムは、学習法則及び/又は活性化法則の群に関連する異なるアルゴリズムである。
【0182】
第1計算サイクル及び第2計算サイクルにおいて用いられる法則の異なる群は、必ずしも法則のただ1つの系統に属さなくてもよい。一方で、両方の系統の学習及び活性化法則の群を組み合わせて、2、3、或いはそれ以上のステージを有するデジタル或いはデジタル化された画像を加工するためのアルゴリズムとしてもよい。
【0183】
本発明のアルゴリズムの有効性を、いくつかの実際の例を用いて示す。この例において、データ・レコードの配列は、デジタル画像或いはデジタル化された画像の画像データにより形成される。図1及び図2に示す概略的な例の各セル或いは点Piは、強度パラメータにより形成される。強度パラメータとはすなわち、ピクセルのグレー・レベルに影響を与えるパラメータである。
【0184】
これらの例は、カラー画像に対しても実施可能である。この場合、各ピクセルの値は、ベクトルの形態をとったパラメータの群により定義される。これらのパラメータは、強度と色彩を定義する。
【0185】
図4Aは従来の技術により撮像されたマンモグラフィを示す。図4Bは図4Aの拡大図である。従来のアナログ・タイプの画像を、スキャナを用いてデジタル化するとともに本発明のアルゴリズムを用いて処理した。
【0186】
図4Cは図4Bのマンモグラフィを上記のように処理した画像である。この画像においては、本発明のアルゴリズムは、上述のCMと呼ばれる学習法則及び活性化法則のみを用いて適用された。図4Cより明らかなように、法則CMはコントラストを増強し、明確な境界線を定義することにより、均一な強度或いはグレースケール・レベルを有する画像領域を明らかに示す効果を有する。均一な強度或いはグレースケール・レベルは、強度或いはグレースケール・レベルの特定の範囲内で強度或いはグレー・レベルの離散的スケールとして定義される。
【0187】
図4B及び図4Cを比較すると明らかなように、図4Bにおける小節或いは血管新生が多く起こっている領域が、本発明のアルゴリズムを用いた処理により強調されることにより、図4Cにおいてはこの領域の境界線が鮮明に描かれている。図5A乃至図5Cは、この小節の位置する領域の拡大図であり、本発明のアルゴリズムを用いて従来のマンモグラフィを処理することにより提供される画像領域の境界線が明瞭に示されている。本発明のアルゴリズムを用いた処理により得られる画像は、アナログのマンモグラフィから得られるよりも多くの情報を抽出することができる。実際、アナログ画像においては、胸部の周縁部が画像の背景と明確に区別できないが、図4Cから明らかなように、本発明のアルゴリズムは、背景と胸部の画像をより明瞭に区別する境界線を設定可能である。これは、特に顕微鏡手術による低侵襲性の介入などの介入が行われなければならない場合に、小節の位置を測定する上で重要である。
【0188】
上記のCMと呼ばれる関数の群のみを用いて本発明のアルゴリズムをアナログ画像に適用すると、特定領域の画像の白黒が反転する。また、この関数の群は、コントラストを増強するための群であるから、異なる画像領域が明瞭に識別された非常に離散化された画像を作り出す。
【0189】
図4D及びこれに対応する拡大図である図5Dは、図4C及び図5Cのアナログ画像を本発明のアルゴリズムを用いて2重に処理することにより得られる画像を示す。
【0190】
この場合、第1処理は、上記のCMと呼ばれる関数の群のみを用いるアルゴリズムのみを使用して行われる。画像データ、すなわちこの処理により得られる画像データの配列は、更に、学習及び活性化関数を組み合わせたものを用いた本発明のアルゴリズムを使用して処理される。学習及び活性化関数とは、具体的には、上記のオートマータ法則AR及び上記のIACと呼ばれる関数の群である。
【0191】
最初に、図4C及び図5Cに示す画像と、図4B及び図5Bに示す画像の一部について、白黒反転していることがわかる。特に、背景が黒から白に変わっている。更に、元のアナログのマンモグラフィ画像(図4B及び図5B)においては、小節が白く表されている。画像のより縮小された状態での離散化も可能である。また、小節の内部構造が区別化を受けて、その重要な構造がより強調される。一方で、図4C及び図5Cにおいては、白黒反転していることを除いては元のマンモグラフィにおけるこの構造の外観は区別化されなかった。
【0192】
図6Aはバクテリアのアナログ画像である。この画像は電子顕微鏡を用いて撮影された。図6B乃至図6Fは、図6Aの画像を、様々な既知の画像パタン認識アルゴリズムを用いて処理することにより得られる画像を示す。図6Gは、図6Aの画像を本発明のアルゴリズムを用いて処理することにより得られる画像を示す。ここで、本発明のアルゴリズムには、上記のARと呼ばれる法則の群及びIACと呼ばれる進化法則の群のみが用いられている。
【0193】
本発明のアルゴリズムにより得られる画像の独自性及び利点は、図6Gの画像と図6B乃至図6Fの画像を比較すると明らかである。特定の群の学習法則が、どのようにコントラストを増強し、異なる画像領域に対して明瞭な境界を設定するのかに注目することが重要である。
【0194】
図7A乃至図7Cについても、同様の効果が観察できる。図7Aは心室のデジタル画像を示す。図7BはSnakeと呼ばれる既知の画像認識アルゴリズムにより処理された画像を示す。図7Cは、上記のCMと呼ばれる法則の群のみを用いる本発明のアルゴリズムを使用して図7Aの画像を処理することにより得られる画像を示す。画像領域の境界は明瞭且つ明確であり、これら領域が画像内で十分に区別されている。
【0195】
コントラストを明瞭化するとともに異なる画像領域に対して明確な境界線を設定し、画像領域を区別化する本発明のアルゴリズムの機能は、優れた効果を有する。図8A乃至図8Eの画像を比較するとこの効果が理解できる。
【0196】
図8A乃至図8Dは、転移部分の超音波画像を示す。これら画像はいわゆる造影剤を注入した瞬間から異なる期間をおいた瞬間に撮像された画像である。造影剤とはすなわち、血管の動作をより明瞭にすることが可能な物質である。造影剤のこのような機能は、造影剤が、超音波ビームを非線形に反射することにより得られる。すなわち、衝突ビームの基本周波数と異なる周波数にこの超音波ビームが反射される。このときの周波数は通常衝突ビームの基本周波数の第2高調波である。
【0197】
図8Aは造影剤が撮像領域内に注入される前の瞬間に撮像された画像である。
図8Bは造影剤が撮像領域に既に達している動脈相において撮像された画像である。
図8Cは図8A及び図8Bと同一の領域の画像であり、動脈及び静脈相が均衡状態である瞬間に撮像された画像である。
図8Dは造影剤の注入の後遅い時期における瞬間に撮像された画像である。
図8Dにおいて、白色の円は、周囲の画像と比して暗いスポットとして現れた転移を示す。
図8Eは、図8Aの画像を処理して得られる画像であり、撮像領域に造影剤を注入する前に、上記のCMと呼ばれる関数の群を用いる本発明のアルゴリズムにより処理された画像である。
【0198】
転移がどのように強調されるかを、特に図8Dの白色の円により囲まれた転移について説明する。又、白色の円内の大きなスポットの上に位置する小さな点及び大きなスポットの右側に位置する小さなスポットが、明確に強調される。図8B乃至図8Dのそれぞれの画像において、異なる白色の円により囲まれる領域内に、これらスポットは、異なる現われ方をしている。図8Aのもとの画像においては、大きなスポットとドットはいずれも見づらく、事実上小さなドットは組織変化として非常に識別しにくい。
【0199】
したがって、本発明に係るアルゴリズムを用いたデジタル或いはデジタル化された画像の処理は、信頼性及び正確性の高い造影剤を用いた撮像を代替できる。つまり撮像中に侵襲性の介入を回避できるから、このことは非常に重要な利点である。更に、撮像中に造影剤を使用する場合、造影剤を患者の体内に注入する特殊な医療助手の存在が欠かせない。造影剤による撮像(超音波撮像の分野においては、ハーモニック撮像とも呼ばれる)は比較的時間の掛かる撮像方法である。これは、造影剤の注入後一定時間を置かなければ造影剤が撮像する組織に到達しないからである。更に、造影剤が撮像する組織にいつ到達するかを予測することは困難であり、撮像する組織内に造影剤が存在する正しい瞬間に画像を全く撮れないこともある。本発明のアルゴリズムによると、造影剤を用いた撮像に関する困難な点や欠点を全て克服できる。上記で示した最も重要なものの他にも、このような困難な点や欠点は多く存在する。このことは、造影剤を用いて撮像(特にリアルタイム画像の撮像)するために撮像装置に多くの準備が必要な画像診断の分野の専門家には理解できる。
【0200】
図9A乃至図9Dは肺の放射線画像のアナログ画像を示す。上記のCMと呼ばれる関数の群のみを用いた本発明のアルゴリズムにしたがって図9Aの画像を処理することにより得られる画像(図9C)と、上記のCMと呼ばれる関数の群とIACと呼ばれる関数の群を組み合わせたものを用いた本発明のアルゴリズムにしたがって図9Aの画像を処理することにより得られる画像(図9D)を、図9Aのアナログ放射線画像、及びベスト・フィルタ(best filter)と呼ばれる既知のフィルタリング・アルゴリズムにしたがって図9Aの画像を処理することにより得られる画像を比較する。
【0201】
図9に示す画像を比較することにより、上記で繰り返し説明した本発明のアルゴリズムの効果が理解できる。特に図9Dの画像は、肺内のフィラメント構造がどのように強調されるかを示している。この場合、図9Cの過度に粗く離散化された画像は、このフィラメント構造を強調できていない。これに対して、図9Dにおいては、肺下半分の黒色の影としてフィラメント構造が描かれている。図9Aの画像においてはフィラメント構造が示されているのに対して、図9Bの画像はフィラメント構造を示していない。図9Cの画像においては、フィラメント構造が現われてはいるが、この画像領域の区別が明確であるが粗雑すぎる。
【0202】
図10は、図10A、図10B、及び図10Cに示す3つの画像からなる。これらの横に並べられた画像は、マンモグラフィに関する画像である。
左側の図10Aの画像は元のマンモグラフィである。右側の図10Cの画像は元のマンモグラフィであり、いくつかの小節が、白色の点で強調するか或いは白色の円で囲むかされて識別されている。左側の図10Aの画像と右側の図10Cの画像を比較すると、小節の画像と周囲の画像領域との差が非常にわずかであることがわかる。中央の図10Bの画像は、上記のHigh CSと呼ばれる活性化法則の群のみを用いた本発明のアルゴリズムにしたがって図10Aに示すデジタル化画像を処理することにより得られる画像である。
【0203】
このような処理により得られた画像においては、肉眼で識別可能な小節に加えて、図10A及び図10Cの元の画像において肉眼では見えなかった多数の小節が、明瞭に強調されている。
【0204】
図11A乃至図11Eは風景の画像であり、診断用画像ではない。元の画像の相対的な構造を維持することにより画像領域を区別化するときの本発明のアルゴリズムの正確性を示す目的で、これらの画像が選択されている。相対的な構造を維持するとはすなわち、本発明のアルゴリズムを用いてこの画像を処理した後も、画像内に描かれたオブジェクトが依然として識別可能であるということである。
【0205】
図11Aは前景にボートが配された海景を示す。
この画像は、デジタルカメラなどのデジタル技術により得られる画像であっても、アナログ技術を用いて得られた画像をスキャナなどの手段によりデジタル化した画像であってもよい。
【0206】
図11B及び図11Cは、図11Aの画像を異なる2つの既知の画像加工アルゴリズムを用いて処理することにより得られる画像を示す。図11B及び図11Cの画像においては、この風景画像の被写体がほとんど識別できないことが明らかである。
【0207】
図11Dは図11Aの画像を、上記のIACと呼ばれる関数の群のみを用いた本発明のアルゴリズムにしたがって処理することにより得られる画像を示す。図11Bおよび図11Cの画像と比較してこの画像においては、元の画像の被写体が格段によく認識できる。また、異なる画像領域がよく区別化されており、よりよく認識できる。
【0208】
図11Eは、上記のCMと呼ばれる関数の群と、上記のIACと呼ばれる関数の群を組み合わせて用いた本発明のアルゴリズムにしたがって図11Aの画像を処理することにより得られる画像を示す。この処理の結果として、ビューアに対して特定のインパクトを有する画像領域が強調される。つまり、海に対して背景の陸地と前景のボートが強調される。
【0209】
更に、本発明のアルゴリズムは、人工ニューラルネットワークなどの他のアルゴリズム或いはその他の予測アルゴリズムと組み合わせて用いられてもよい。予測アルゴリズムは、組織の種類或いは画像を構成する材料の構造を認識するようにトレーニング及びテストされる。
【0210】
この場合、元のデジタル或いはデジタル化画像の画像データを、画像認識アルゴリズム提供する代わりに、トレーニング及びテストするための受動的情報として画像データ配列を用いる。このデータは、上記のいずれか1つの形態の本発明に係るアルゴリズムを用いて既に処理されているデータであってもよい。
【0211】
予測の精度を向上させるためには、元の画像の画像データを本発明のアルゴリズムを用いて処理する手順を、複数回実行してもよい。このとき、各回で、学習関数又は法則の異なる群、活性化関数又は法則の異なる群、或いはこれらの異なる組み合わせを用いる。もしくは、元の画像の画像データを本発明のアルゴリズムを用いて処理する手順を、一連の処理段階により実行してもよい。この場合、処理段階のそれぞれにおいて、学習関数又は法則の異なる群、活性化関数又は法則の異なる群、或いはこれらの異なる組み合わせを用いる。各処理により得られる画像データに対して予測アルゴリズムを適用し、その後各
予測結果が互いに組み合わされるか或いは比較されてもよい。
【0212】
図12A乃至図12Jは、異なる法則の群或いはこれらを組み合わせたものを用いた本発明の方法にしたがって同一のソース画像を加工した例を示す。
【0213】
図12Aは大腿動脈の放射線画像のソース画像を示す。
このソース画像において、符号(1)、(2)及び(3)により示される円と2つの楕円は、血管の特定部分を囲んでいる。この部分においては血管狭窄部の存在が予測される。円(1)で示す血管狭窄部がソース画像においても明らかである一方、楕円(2)及び(3)で囲んだ領域は、明らかな情報を提供していない。
【0214】
図12Bに示す第1の画像は、rem関数を用いる第V群の法則を使用した本発明の方法により得られる画像である。この画像では、動脈の右枝の狭窄部(2)及び(3)がより鮮明に観察できるのと同時に、矩形(4)で示す中心枝が明確に現われている。動脈枝内部の構造はあまり鮮明ではない。
【0215】
図12Cはquotのみを用いたCMと呼ばれる第V群の法則にしたがってソース画像を加工することにより得られる画像を示す。4種類のグレー・レベルにより異なる領域が示されている。4種類のグレー・レベルとは、3つのグレー・レベル、及び白である。quotにより分類される領域は、これ以上細かい構造を示さない。いずれの場合も、狭窄部(1)、(2)、(3)、及び(4)はいずれも出力画像において識別されている。
【0216】
図12Dはquot及びrem関数の両方を考慮して第V群の法則を適用して得られる結果を示す。この場合、図12Cの画像の4つのグレー・レベルのうちの1つのグレースケール(図12Aのグレースケール)を備える4つの画像領域が、rem関数により調整される。異なるグレー・レベルを備えるこれら4つの画像領域は更に、rem関数により調整される。これにより構造が識別可能となる。狭窄部(1)、(2)、(3)、及び(4)は以前の画像よりも鮮明である。
【0217】
図12Eはtrue color optionを用いるとともに、例Vのソース画像を加工した結果を示す。この加工においては、加工されたピクセル値は、0以上1以下の範囲内に正規化された状態に維持される。またこの場合、動脈の狭窄部(1)、(2)、(3)及び(4)が認識可能である。
【0218】
図12Fは第1の選択肢にしたがったローカル・サイン(local sine)・アルゴリズムを用いてソース画像を加工することにより得られる画像を示す。この場合もまた、符号(1)、(2)、(3)、及び(4)で示す位置に血管狭窄部が存在することが明瞭に表されている。
【0219】
図12G乃至図12Jの4つの図は、2つの加工段階の組み合わせにより図12Aのソース画像を加工して得られる画像を示す。2つの加工段階のそれぞれは、例V或いはVIの法則の群を用いて実行される。
【0220】
図12Gは、初めに例VIの第2の選択肢にしたがった法則の群、すなわちLS2と呼ばれる法則の群を用いて加工を行った後に、第1加工段階により得られる出力画像を第2加工段階に提供し、第2加工段階においてRem及びQuot関数を使用したCMと呼ばれる第Vの法則の群を用いて加工を行うことにより得られる画像を示す。
【0221】
図12Hは、図12Gの画像を得るために実行した加工の変更例を用いて得られる画像を示す。この変更例においては、例VIの第2の選択肢、すなわちLS2と呼ばれる法則の群を用いて得られた出力画像は、更に、例VすなわちCMと呼ばれる法則の群を用いて加工される。CMを用いた加工においては、rem関数のみが用いられる。
【0222】
図12Iは、図12Hの場合と同様の方法によりソース画像を加工した画像を示す。ここでは、第2加工段階は、rem関数のみを用いて例Vの法則の群により実行される。
【0223】
図12Jは、図12G乃至図12Iを参照して説明した2つの加工段階を実行する例の更に別の変更例である。ここでは、True Colour Variantを使用して第2加工段階に例Vの法則の群が適用される。
【0224】
全ての画像をグレースケール・パレットで示したが、色彩を指定し、画像上の異なる複数の領域を1つの色彩に関連付けることにより、人工的に彩色された画像を得ることも可能である。このような画像は、本発明の方法にしたがった加工により識別される、画像の異なる領域及び異なるオブジェクトの区別を強調できる。
【0225】
更に、上記の例において、本発明のアルゴリズムは画像データ配列に対して適用した例に限られているが、画像データ配列の分野の他にも本発明のアルゴリズムは適用可能である。これは、任意の種類のデータベースに本発明の方法による処理は適用可能であるからである。ただし、本発明の方法により処理可能なデータベースのデータは、点或いはセルの配列として表現可能であり、該点或いはセルのそれぞれがデータベースのデータ・レコードに一意的に関連付けられ、その他の点或いはセルに対する該点或いはセルそれぞれの配列における相対的位置が、この点に関連するデータ・レコードの関連特性である種類のデータでなければならない。これにより、データベースのデータ・レコード間の任意の関係を明らかにすることが可能になる。
【図面の簡単な説明】
【0226】
【図1】データ・レコードを表すセルの2次元配列を示す概略図であり、各セルは、例えばデジタル或いはデジタル化された画像の点(或いはピクセル)を概略的に表す。
【図2】図1の中央部に配される9個の点或いはセルを人工ニューラルネットワークのユニット或いはノットに変換する過程を示す図である。
【図3】ニューラルネットワーク、特にデジタル画像のピクセルにより形成されるニューラルネットワークのための学習及び活性化法則の異なる系統を示す図である。
【図4】図4A、図4B、図4C及び図4Dは、順にマンモグラフィ、拡大されたマンモグラフィ、本発明に係る画像パタン認識方法及びCMと呼ばれる特定の学習法則にしたがってデジタル化されたマンモグラフィ、本発明に係る画像パタン認識方法及びIACと呼ばれる別の学習法則にしたがってデジタル化されたマンモグラフィを示す図である。
【図5】図5A、図5B、図5C及び図5Dは順に、図4Aと同一の図、図4B、図4C、及び図4Dの拡大図である。
【図6】図6Aはバクテリアの写真、図6B、図6C、図6D、図6E、及び図6Fは、既知のパタン認識方法にしたがって処理されたデジタル化画像、図6Gは本発明の方法にしたがって人工ニューラルネットワークのためのオートマータ法則を用いて処理されたデジタル化画像を示す図であり、該オートマータ法則は、IACと呼ばれるコントラスト増強のための法則である。
【図7】図7A、図7B、及び図7Cは順に、心室のデジタル写真、既知のパタン認識方法にしたがってデジタル化された写真、CMと呼ばれる本発明の方法にしたがってデジタル化された写真を示す図である。
【図8】図8A、図8B、図8C、図8D、及び図8Eは、転移が存在する同一の身体部分の超音波画像を示す図であり、図8A乃至図8Dは順に、造影剤を使用しない画像、造影剤を使用した動脈相の画像、造影剤を使用した平衡相(balance phase)の画像、造影剤を使用した後期相の画像、造影剤を使用せずに、本発明の方法により処理した同じ身体部分の画像を示す。
【図9】図9A、図9B、図9C、及び図9Dは順に、肺の放射線画像、「ベスト・フィルタ(best filter)」と呼ばれる既知のアルゴリズムにしたがって図8Aの画像をデジタル化した画像、CMと呼ばれる法則を用いて本発明の方法にしたがって図8Aの画像を処理した画像、IACと呼ばれる自動的法則を備える本発明に係る方法にしたがって図8Aの画像を処理した画像を示す図である。
【図10】図10A、図10B、図10C、及び図10Dは順に、マンモグラフィ、既知のパタン認識方法により図10Aのマンモグラフィを処理した画像、High CSと呼ばれる自動的法則を用いるとともに本発明の方法にしたがって図10Aのマンモグラフィを処理した画像を示す図である。
【図11】図11Aは通常の写真、図11B及び図11Cは図11Aの写真を2つのそれぞれ異なる既知のパタン認識方法により処理した画像、図11D及び図11Eは図11Aの写真をそれぞれIAC及びIACとCMを組み合わせた法則を備える本発明の方法にしたがって処理した画像を示す図である。
【図12A】大腿動脈の位置する解剖学的領域の放射線画像である。
【図12B】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12C】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12D】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12E】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12F】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12G】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12H】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12I】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図12J】この画像を、様々な種類の法則及びこれら法則を様々に組み合わせたものを用いるとともに本発明に係る方法にしたがって加工した画像である。
【図13】本発明に係るニューラルネットワークの一般的なセル或いはノットを示すブロック線図である。
【特許請求の範囲】
【請求項1】
人工ニューラルネットワークのノットに対応するセル(Ki)のn次元配列を備え、
前記セルのそれぞれが、前記セル(Ki)に直接隣接するとともに該セル(Ki)の近傍を形成する周囲のセル(Kj)に対する結合を備え、
(a)前記セル(Ki)のそれぞれが、前記周囲のセル(Kj)に直接隣接する1つのセルへの各結合のためのインプットを備え、
(b)前記セル(Ki)のそれぞれが、1つ若しくはそれ以上の前記直接隣接するセル(Kj)への結合のためのアウトプットを備え、
(c)前記セル(Ki)と前記直接隣接するセルの間の前記結合が重み(wij)により決定され、
(d)前記セルのそれぞれが、前記セル(Ki)の活性値或いは活性化関数(Ai)として定義される内部値により特徴付けられ、
(e)前記セル(Ki)のそれぞれが、変換関数と称される信号処理関数にしたがって信号処理を実行することによりセルのアウトプット信号(ui)を作り出し、
(f)前記変換関数がセル(Ki)の前記出力信号(ui)を前記セル(Ki)の活性値或いは活性化関数(Ai)の関数として定義し、
該変換関数がセル(Ki)の前記活性値或いは活性化関数(Ai)を前記セル(Ki)の前記出力信号(ui)と等しくする恒等関数を更に備え、
(g)入力データ・レコード(Pi)のn次元データベースが前記ニューラルネットワークにより計算され、
該n次元データベースにおいて、前記データ・レコード(Pi)が対応するn次元空間に投影されたときの該データ・レコードの相対位置がデータ・レコード(Pi)の関連特性であり、
前記データベースの前記データ・レコード(Pi)が前記n次元空間の点の配列により表現可能であり、
該点のそれぞれが前記点の列において、前記データベースの前記データ・レコード(Pi)に対して一意的に定義された位置を有し、
前記データベースの前記データ・レコード(Pi)のそれぞれが更に少なくとも1つ或いは1若しくはそれ以上の変数を備え、
該変数が1つの特定の値(Ui)を備え、
(h)前記データ・レコード(Pi)のそれぞれが、前記ニューラルネットワークを形成するセルの前記n次元配列のセル(Ki)に対して一意的に関連付けられ、
該セル(Ki)が、セル(Ki)のn次元配列において、点の前記n次元配列における点により表される対応するデータ・レコード(Pi)と同じ位置を有し、
(i)前記データ・レコード(Pi)それぞれの前記変数の前記値(Ui)が、前記ニューラルネットワークの開始値とみなされ、前記一意的に関連付けられたセル(Ki)の前記開始活性値(Ai)或いは前記開始出力値(ui)とされ、
(j)前記ニューラルネットワークの特定数の相互作用的処理段階の後の前記セル(Ki)の前記活性値(Ai)或いは前記出力値(ui)が、前記一意的に関連付けられたデータ・レコード(Pi)のための前記新たな値(Ui)としてみなされ、
(k)前記特定数の相互作用的処理段階のそれぞれの段階に対して、前記セル(Ki)のそれぞれ及び直接隣接するセル(Kj)の間の結合を定義する重み(wij)が、前記セル(Ki)に直接隣接する前記セル(Kj)に一意的に関連付けられたデータ・レコード(Pj)それぞれの変数の現在値(Uj)の関数として決定され、
前記関数が学習関数或いは法則と称され、
(l)現在の活性値(Ai)、或いは前記一意的に関連付けられたデータ・レコード(Pi)のための前記現在の新たな値(Ui)とみなされる前記ニューラルネットワークの処理段階の後の前記セル(Kj)それぞれの出力値(Ui)が、前記対応する重み(wij)により重みを付加される前記直接隣接するセル(Kj)の前記現在の出力値(Uj)の関数として決定され、
該関数が前記直接隣接するセル(Kj)と前記セル(Ki)の結合を定義することを特徴とする人工ニューラルネットワーク。
【請求項2】
前記現在の活性値(Ai)、或いは前記一意的に関連付けられたデータ・レコード(Pi)のための現在の新たな値(Ui)としてみなされる前記ニューラルネットワークの処理段階の後の前記セル(Ki)の出力値(ui)を、前記直接隣接するセル(Kj)と前記セル(Ki)の結合を定義する前記重み(wij)の関数として決定することにより前記ニューラルネットワークが変更され、
該関数(wij)がいわゆる活性化関数或いは法則であることを特徴とする請求項1記載のニューラルネットワーク。
【請求項3】
前記現在の活性値(Ai)、或いは前記一意的に関連付けられたデータ・レコード(Pi)のための前記現在の新たな値(Ui)としてみなされる前記ニューラルネットワークの処理段階の後の前記セル(Ki)それぞれの前記出力値(ui)が、前記直接隣接するセル(Kj)の前記現在の出力値(uj)と前記直接隣接するセル(Kj)と前記セル(Ki)の結合を定義する対応する重み(wij)の関数として決定され、
該関数がいわゆる活性化関数或いは法則であることを特徴とする請求項1記載のニューラルネットワーク。
【請求項4】
前記特定数の相互作用的処理段階の各処理段階において、前記セル(Ki)のそれぞれと前記直接隣接するセル(Kj)の間の結合を定義する前記重み(wij)が、前記セル(Ki)に直接隣接するセル(Kj)に一意的に関連付けられたデータ・レコード(Pj)の変数の前記現在の値(Uj)及び前記セル(Ki)に一意的に関連付けられたデータ・レコード(Pi)の変数の現在の値(Ui)の関数として決定されることを特徴とする請求項1或いは2記載のニューラルネットワーク。
【請求項5】
式1に示す学習法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数1】
ただし式1において、σ:アルゴリズムの画像の差異に対する感度を向上或いは低下させるための使用者により自由に定義可能なパラメータ、Rij:i番目のユニットからj番目のユニットまでの距離、Ui:人工ニューラルネットワークのノットKiに変換された単一のセルPiの値、添え字i:中央のセル或いはノット、添え字j:前記中央のセル或いはノットを直接取り囲むセル或いはノットとする。
【請求項6】
式2に示す法則が用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数2】
【請求項7】
表1及び式3に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【表1】
【数3】
ただし式3において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値とする。
【請求項8】
表2及び式4に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【表2】
【数4】
ただし式4において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【請求項9】
表3及び式5に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【表3】
【数5】
ただし式5において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【請求項10】
式6に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数6】
ただし式6において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値とする。
【請求項11】
式7に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数7】
ただし式7において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値とする。
【請求項12】
式8に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数8】
ただし式8において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【請求項13】
式9に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数9】
ただし式9において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
また式9において、関数ecciとinniは同一であり、正及び負の重み結合に関連するインプットのみが異なり、活性化パラメータActiがネット・インプットNetiからノットKijへの関数として提供される。
このパラメータを用いて、2つの異なる関数のうち1つを選択し、選択した関数にしたがって、Actiが正か負かに基づき、ノットKiのアウトプットUiの更新値αiを計算する。
2つの関数によりαiを計算する。αiにおいて、Max及びMin:活性化法則の上限及び下限、Decay:各ユニットの時間にしたがった通常のディケイ値、Rest:各ユニットに向けたデフォルト値とする。
【請求項14】
式10に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数10】
ただし式10において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
また式9において、関数ecciとinniは同一であり、正及び負の重み結合に関連するインプットのみが異なり、活性化パラメータActiがネット・インプットNetiからノットKijへの関数として提供される。
このパラメータを用いて、2つの異なる関数のうち1つを選択し、選択した関数にしたがって、Actiが正か負かに基づき、ノットKiのアウトプットUiの更新値αiを計算する。
2つの関数によりαiを計算する。αiにおいて、Max及びMin:活性化法則の上限及び下限、Decay:各ユニットの時間にしたがった通常のディケイ値、Rest:各ユニットに向けたデフォルト値とする。
【請求項15】
式11に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数11】
【請求項16】
各計算サイクルにおいて、請求項5乃至15にしたがった学習法則或いは関数の群と活性化関数の群の組み合わせを用いて、データ・レコードの新たな配列が提供され、
該新たな配列において、前記データ・レコードそれぞれの値が、前記実際のターゲット・データ・レコードと前記周囲のセル又は点のデータ・レコードの関数、或いは前記ターゲット・データ・レコードと前記周囲のセル又は点のデータ・レコードの間の結合を定義する重みの関数として既に変更されており、
前記組み合わせを用いて更に、前記結合の前記重みのための新たな値が提供され、
データ・レコードの前記新たな配列と前記結合のための新たな重みを用いてそれ以降の計算サイクルが実行されることを特徴とする請求項1乃至15いずれかに記載のニューラルネットワーク。
【請求項17】
画像処理マシンであって、
ノット(Ki)の配列のノットに一意的に関連付けられるか、或いはノット(Ki)の配列のノットとして機能する前記データベースの前記データ・レコードが、ピクセル(Pi)により形成され、
前記ノットの初期値がピクセル値(Ui)により形成されることを特徴とする請求項1乃至16いずれかに記載のニューラルネットワーク。
【請求項18】
前記ピクセル値がスカラー要素或いはベクトル要素であり、
前記ピクセルが、前記ベクトルの成分を形成する異なる変数により特徴付けられ、
該変数が前記ピクセル及び該ピクセルの視覚的特徴を特徴付ける物理的及び/又は視覚的特徴に関連する変数であることを特徴とする請求項17記載のニューラルネットワーク。
【請求項19】
前記ピクセルがグレー・スケール画像のピクセルであり、該ピクセルが輝度により特徴付けられることを特徴とする請求項18記載のニューラルネットワーク。
【請求項20】
前記ピクセルがカラー画像のピクセルであり、
前記ピクセルを特徴付ける前記変数が少なくとも3つの変数であるとともに、HSV、RGB、或いはその他従来のピクセル外観の符号化法に対応する変数であることを特徴とする請求項17或いは18記載のニューラルネットワーク。
【請求項21】
データベースのデータ間の関係を認識するためのアルゴリズムであって、
該データが、データ・レコードの配列、或いはデータ・レコードのn次元空間、特に2次元或いは3次元空間内の分布における該データ・レコードの相対位置が前記データ・レコードの関連特性である種類のデータであり、
前記データ・レコードがセル或いは点の配列として表現可能であり、
前記点のそれぞれが、前記データベースのデータ・レコードに一意的に関連付けられるとともに、前記配列内に一意的に定義された他のデータ・レコードのセル或いは点に対する位置を有し、
前記データ・レコードのそれぞれが更に、1つの特定の値を有する1若しくはそれ以上の変数に更に関連付けられ、
データベースのデータ・レコードを表すセル或いは点の配列内のセル或いは点のそれぞれが、人工ニューラルネットワークのユニット或いはノットとみなされることを特徴とするアルゴリズム。
【請求項22】
(a)前記データベースのセル或いは点により形成されるユニット或いはノットのそれぞれが、連続的にターゲット・ユニット或いはノットとして定義され、
ターゲット・ユニット或いはノットのそれぞれと、少なくともその他のユニット或いはノットのそれぞれとの間の結合が定義され、
該その他のユニット或いはノットが、データベースのその他のセル或いは点により形成されるとともに、対応するターゲット・ユニット或いはノットに対して少なくともグラディエント1であり、
(b)データベースのユニット或いはノットのそれぞれの新たな出力値が、連続的にターゲット・ユニット或いはノットとして定義され、
該ターゲット・ユニット或いはノットが、前記人工ニューラルネットワークの前記学習法則或いは関数の群、前記活性化法則或いは関数の群、若しくは前記学習法則或いは関数の群と前記活性化法則或いは関数の群の組み合わせを用いて、前記ターゲット・ユニット或いはノットに結合されたユニット或いはノットの実際のアウトプット及び前記ターゲット・ユニット或いはノットの実際のアウトプットの関数として計算され、
(c)前記ユニット或いはノットそれぞれの前記実際のアウトプットが、前記人工ニューラルネットワークのユニット或いはノットとみなされるセル或いは点により表されるデータ・レコードのそれぞれと関連付けられる変数の値或いは複数の変数の値として定義され、
(d)前記ターゲット・ユニット或いはノットの前記新たなアウトプットが、前記ターゲット・ユニット或いはノットに対応するデータ・レコードの配列を構成するセル或いは点に関連付けられた前記データ・レコードの前記変数或いは複数の変数の新たな値としてみなされ、
(e)データ・レコードの前記配列のセル或いは点の少なくとも一部或いは全てに対して、ターゲット・ユニット或いはノットの新たなアウトプットを計算する前記段階を実行することにより、データ・レコードの新たな配列が計算され、
セル或いは点のそれぞれのデータ・レコードが、前記少なくとも1つの変数の新たな値、或いは前記複数の変数の新たな値を備え、
前記新たな値が、前記段階にしたがった人工ニューラルネットワークの第1計算サイクルの結果であり、
前記計算サイクルが予め定められた特定回数実行されるまで、及び/又は前記変数の最初の値若しくはデータ・レコードの前記最初の配列の前記変数と、データ・レコードの前記配列の1若しくは複数の変数の値の間の誤差或いは不一致が、直前のサイクルにおいて計算された誤差或いは不一致にしたがって最大許容可能な程度に達せられない限り、及び/又は連続するサイクルにおいて計算された連続するデータ・レコードの配列内のデータ・レコードの変数の値或いは複数の変数の値の差が、所定の最大率を下回らない限り、データ・レコードの連続する新たな配列のそれぞれに対して、前記計算サイクルが予め定められた特定回数反復されることを特徴とする請求項21記載の人工ニューラルネットワーク。
【請求項23】
学習関数或いは法則の第1群、活性化関数或いは法則の第1群、若しくはこれらを組み合わせたものが提供される該第1加工段階、学習関数或いは法則の第2群、活性化関数或いは法則の第2群、若しくはこれらを組み合わせたものが提供される第2加工段階、及び、2つ以上の加工段階が行われる場合には、学習関数或いは法則の更に別の群、活性化関数或いは法則の更に別の群、若しくはこれらを組み合わせたものが提供される更に別の加工段階において、データ・レコードの配列が、前記アルゴリズムを用いて、少なくとも2回或いはそれ以上の加工を受け、
前記第2若しくはそれ以上の加工段階において、第2若しくはそれ以上の異なる群を用いるデータ・レコードの配列が用いられ、
学習或いは活性化法則又は関数、若しくはこれらを組み合わせたものの第2或いはそれ以上の異なる群を備えるアルゴリズムが用いられる前記第2若しくはそれ以上の段階において用いられるデータ・レコードの配列が、データ・レコードの配列の前記第1加工段階、或いは、前記第2若しくはそれ以上の段階以前の加工段階から個別にもたらされたデータ・レコードの配列であることを特徴とする請求項21或いは22記載のアルゴリズム。
【請求項24】
データ・レコードの2次元或いは3次元配列において、前記ターゲット・データ・レコードのセル或いは点に対してグラディエント1であるデータ・レコードに関するセル或いは点が、前記ターゲット・データ・レコードに関連するデータ・レコード配列内のセル或いは点を直接取り囲むデータ・レコード配列のセル或いは点に関連するデータ・レコードにより形成されることを特徴とする請求項21乃至23いずれかに記載のアルゴリズム。
【請求項25】
前記アルゴリズムにより計算されたデータ・レコードの新たな配列が、前記結合の重みを最適化するための学習関数或いは法則の群のみに基づき、
前記ターゲット・データ・レコードそれぞれの前記新たなアウトプットが、前記ターゲット・データ・レコードに関連するターゲット・ユニット或いはノットそれぞれと、前記ターゲット・データ・レコードのセル或いは点に対してグラディエント1であるデータ・レコードのセル或いは点により表されるユニット或いはノットとの結合を特徴付ける新たな重みの関数として定義され、
前記学習法則或いは関数の群が、前記結合の前記新たな重みを、以前の計算サイクルにおいて計算或いは定義された以前の重みの関数として、並びに前記ターゲット・データ・レコードのセル或いは点に関連するユニット或いはノットの実際のアウトプット、及び少なくとも段階1のデータ・レコード、若しくは前記実際のターゲット・データ・レコードのセル或いは点を直接取り囲むセル或いは点のデータ・レコードのセル或いは点に関連するユニット或いはノットの実際のアウトプットの関数として定義することを特徴とする請求項21乃至24いずれかに記載のアルゴリズム。
【請求項26】
前記アルゴリズムにより計算されるデータ・レコードの新たな配列が、活性化関数の群にのみ基づき、
該関数が、前記ターゲット・データ・レコードに関連するセル或いは点に対応するターゲット・ユニット或いはノットの新たなアウトプットを定義し、
該定義が、前記ターゲット・ユニット或いはノットへのネット・インプットに基づいて行われ、
該ネット・インプットが前記データ・レコードに対して少なくともグラディエント1であるデータ・レコードに関連するセル或いは点に対応するユニット或いはノットのアウトプット、特に前記ターゲット・データ・レコードのセル或いは点を直接取り囲むデータ・レコード配列のセル或いは点に対応するユニット或いはノットのアウトプットの関数であることを特徴とする請求項21乃至24いずれかに記載のアルゴリズム。
【請求項27】
第1計算サイクルにおける計算が、各結合の重みに対して固定された所定の値から開始し、
一方で前記ユニット或いはノットの開始値が前記重みと、前記周囲のノット或いはユニットの値の関数である所定の関数にしたがって、すなわち前記人工ニューラルネットワークの特定のユニット或いはノットを表すセル或いは点を直接取囲む配列内のセル或いは点に対応するデータ・レコードにしたがって変更されることを特徴とする請求項21乃至26いずれかに記載のアルゴリズム。
【請求項28】
式12に示す学習法則のみが用いられることを特徴とする請求項21乃至27いずれかに記載のアルゴリズム。
【数12】
ただし式12において、σ:アルゴリズムの画像の差異に対する感度を向上或いは低下させるための使用者により自由に定義可能なパラメータ、Rij:i番目のユニットからj番目のユニットまでの距離、Ui:人工ニューラルネットワークのノットKiに変換された単一のセルPiの値、添え字i:中央のセル或いはノット、添え字j:前記中央のセル或いはノットを直接取り囲むセル或いはノットとする。
【請求項29】
式13に示す学習法則が用いられることを特徴とする請求項21乃至28いずれかに記載のアルゴリズム。
【数13】
【請求項30】
表4及び式14に示す活性化法則のみが用いられることを特徴とする請求項21乃至29いずれかに記載のニューラルネットワーク。
【表4】
【数14】
ただし式14において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値とする。
【請求項31】
表5及び式15に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【表5】
【数15】
ただし式15において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【請求項32】
表6及び式16に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【表6】
【数16】
ただし式16において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【請求項33】
式17に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【数17】
ただし式17において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値とする。
【請求項34】
式18に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【数18】
ただし式18において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値とする。
【請求項35】
式19に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【数19】
ただし式19において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【請求項36】
式20に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【数20】
ただし式20において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
また式9において、関数ecciとinniは同一であり、正及び負の重み結合に関連するインプットのみが異なり、活性化パラメータActiがネット・インプットNetiからノットKijへの関数として提供される。
このパラメータを用いて、2つの異なる関数のうち1つを選択し、選択した関数にしたがって、Actiが正か負かに基づき、ノットKiのアウトプットUiの更新値αiを計算する。
2つの関数によりαiを計算する。αiにおいて、Max及びMin:活性化法則の上限及び下限、Decay:各ユニットの時間にしたがった通常のディケイ値、Rest:各ユニットに向けたデフォルト値とする。
【請求項37】
式21に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【数21】
ただし式21において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
また式9において、関数ecciとinniは同一であり、正及び負の重み結合に関連するインプットのみが異なり、活性化パラメータActiがネット・インプットNetiからノットKijへの関数として提供される。
このパラメータを用いて、2つの異なる関数のうち1つを選択し、選択した関数にしたがって、Actiが正か負かに基づき、ノットKiのアウトプットUiの更新値αiを計算する。
2つの関数によりαiを計算する。αiにおいて、Max及びMin:活性化法則の上限及び下限、Decay:各ユニットの時間にしたがった通常のディケイ値、Rest:各ユニットに向けたデフォルト値とする。
【請求項38】
式22に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【数22】
【請求項39】
前記計算サイクルのそれぞれにおいて、請求項5乃至17の1若しくはそれ以上に従った学習法則或いは関数の群と活性化関数の群を組み合わせたものを用いてデータ・レコードの新たな配列が提供され、
該新たな配列において、前記実際のターゲット・データ・レコード及び前記周囲のセル或いは点のデータ・レコードのアウトプットの関数として、及び前記ターゲット・データ・レコードと前記周囲のセル或いは点のデータ・レコードの間の結合を定義する重みの関数として、データ・レコードのそれぞれが変更され、
前記学習法則或いは関数と活性化関数の群を組み合わせたものを用いて更に、前記結合の重みのための新たな値が提供され、
前記結合のデータ・レコードの新たな配列及び前記結合のための新たな重みを用いて、それ以降の計算サイクルが実行されることを特徴とする請求項21乃至38いずれかに記載のアルゴリズム。
【請求項40】
画像がピクセルの2次元或いは3次元配列により形成され、
前記配列のピクセルのそれぞれが人工ニューラルネットワークのユニット或いはノットを形成し、
前記人工ニューラルネットワークのインプット及びアウトプットが、前記ユニットのそれぞれに対応するピクセルの最初の値により、及び前記ピクセルのそれぞれの計算された値により形成され、
前記ノットのそれぞれの出力値の計算が、少なくとも前記ノットを取囲むピクセルの値の関数として実行されることを特徴とする画像処理方法。
【請求項41】
前記画像を形成するピクセルの配列のピクセルと一意的に対応する前記人工ニューラルネットワークのノット或いはユニットのそれぞれと、関連する少なくともグラディエント1であるユニット或いはノットの間に、重みを付加された結合が提供されることを特徴とする請求項40記載の方法。
【請求項42】
重み最適化が行われることを特徴とする請求項40及び請求項41記載の方法。
【請求項43】
前記重み最適化の後にユニット活性化が行われることを特徴とする請求項42記載の方法。
【請求項44】
重み進化及びユニット活性化が行われることを特徴とする請求項40乃至43いずれかに記載の方法。
【請求項45】
最終的に請求項21乃至39記載のアルゴリズムとして実行される請求項1乃至20記載の人工ニューラルネットワークを用いて実行されることを特徴とする請求項40乃至44いずれかに記載の方法。
【請求項46】
画像パタン認識のための方法であり、
前記画像がデジタル画像或いはデジタル化されたアナログ画像であり、
画像データの配列が有限数の点或いはセルにより形成され、
該点或いはセルのそれぞれがいわゆるピクセル或いはボクセルなどの画像単位要素に対応し、
該ピクセル或いはボクセルのそれぞれが、グレー・スケール画像の該ピクセルの強度或いはグレー・レベルを表すパラメータ変数の値に関連付けられるか、或いは該ピクセル或いはボクセルのそれぞれがベクトルに関連付けられ、
該ベクトルの成分が前記ピクセル或いはボクセルの強度及び前記ピクセル或いはボクセルの色彩を表すパラメータ変数であり、
画像データの前記配列が請求項1乃至20のうち1若しくはそれ以上にしたがった人工ニューラルネットワークを用いて処理され、
前記グラディエント1のデータ・レコードのセル或いは点が、ターゲット・ピクセル或いはボクセルを直接取囲むピクセル或いはボクセルにより形成され、
前記アルゴリズムを所定回数適用して前記計算サイクルが所定回数反復され、
前記所定回数の回数が、固定された定数とされるか、前記計算サイクルが所定回数反復された後の前記ピクセルの出力値と、前記画像データ配列の最初の値との不一致或いは差異に基づいて計算されるか、或いはそれ以降の計算サイクルが、以前の計算サイクルの画像データ配列のアウトプットとの差異が、所定の差異より小さい前記画像データ配列にアウトプットを提供するときの回数として決定されることを特徴とする請求項40乃至45いずれかに記載の方法。
【請求項47】
前記人工ニューラルネットワークが請求項21乃至40にしたがったアルゴリズムとして実施されることを特徴とする請求項46記載の画像パタン認識方法。
【請求項48】
請求項21乃至40にしたがったアルゴリズムが、連続して2回適用され、
1回ごとに学習法則或いは関数の異なる群、或いは活性化法則或いは関数の異なる群、若しくはこれらの異なる組み合わせが用いられることを特徴とする請求項47記載の方法。
【請求項49】
請求項21乃至39にしたがったアルゴリズムが、画像化されたサブジェクトの異なる領域の特徴を認識するために学習される予測アルゴリズムと組み合わせて用いられることを特徴とする請求項46乃至48いずれかに記載の画像パタン認識方法。
【請求項50】
前記予測アルゴリズムが人工ニューラルネットワークであり、
前記学習データベース及びテスト・データベースが個別のサブジェクトの画像の群により形成され、
前記画像サブジェクトの前記異なる画像化領域が、前記トレーニング・データベース及びテスト・データベースの画像のそれぞれに対して一意的に識別され、
一方で前記予測アルゴリズムが、請求項21乃至40のうち1若しくはそれ以上にしたがったアルゴリズムを用いて実行される加工のアウトプットとして得られる画像データ配列に対して実行されることを特徴とする請求項46乃至48いずれかに記載の方法。
【請求項51】
前記予測アルゴリズムが、前記最初の画像データ配列をインプットデータとして用いることにより実行され、
請求項21乃至40のうち1若しくはそれ以上にしたがったアルゴリズムを用いて計算された画像データ配列に対して予測アルゴリズムを実行することにより得られる予測結果と、前記最初の画像データ配列に対して前記予測アルゴリズムを実行することにより得られる予測結果が、組み合わされるか或いは比較されることを特徴とする請求項50記載の方法。
【請求項52】
生体組織内において、造影剤なしにコントラスト撮像或いはハーモニック撮像を行うための方法であって、
特定の人体或いは人体の特定箇所の超音波、MRI、或いはX線画像が撮像され、
請求項1乃至20のうち1若しくはそれ以上にしたがったニューラルネットワークを用いて、撮像された画像の画像データ配列に対して、請求項40乃至51のうち1若しくはそれ以上にしたがった方法が行われ、
前記方法が、最終的に請求項21乃至40のうち1若しくはそれ以上にしたがったアルゴリズムとして実施されることを特徴とする請求項50記載の方法。
【請求項53】
請求項1乃至4にしたがったニューラルネットワークに、請求項5にしたがった法則の群が提供され、
該法則の群が、請求項21乃至28のうち1若しくはそれ以上と、請求項29に従った学習法則の少なくとも1つの群にしたがったアルゴリズムにしたがって最終的に実施されることを特徴とする請求項52記載の方法。
【請求項54】
請求項1乃至4にしたがったニューラルネットワークに、請求項5にしたがった法則と、請求項6乃至20のいずれかにしたがった法則の群が提供され、
前記ニューラルネットワークが、請求項21乃至28のうち1若しくはそれ以上にしたがったアルゴリズムと、請求項29にしたがった学習法則或いは関数の群、及び請求項18乃至30のいずれか1つにしたがったアルゴリズムを組み合わせたアルゴリズムとして、最終的に実施されることを特徴とする請求項53記載の方法。
【請求項55】
請求項29乃至39のうち1若しくはそれ以上にしたがった学習及び/又は活性化法則の群が用いられることを特徴とする請求項53記載の方法。
【請求項56】
少なくとも2つの画像加工段階が行われ、
第1の画像加工段階が学習及び/又は活性化法則の1つを用いて実行され、
第2加工段階が、前記第1加工段階において加工されたアウトプット画像のピクセル値を、学習及び/又は活性化法則の第2の群とともに、該第2加工段階に提出することにより行われることを特徴とする請求項55記載の方法。
【請求項57】
少なくとも第3或いはそれ以上の加工段階が行われ、
該段階のそれぞれが学習及び/又は活性化法則の異なる群を用いて行われることを特徴とする請求項55或いは56記載の方法。
【請求項58】
前記学習及び/又は活性化法則が請求項5乃至20或いは請求項28乃至39にしたがった法則であることを特徴とする請求項55乃至57いずれかに記載の方法。
【請求項59】
腫瘍性組織を含む解剖学的領域のデジタル画像或いはデジタル化されたアナログ画像を取得する段階と、
請求項40乃至58のうち1若しくはそれ以上にしたがった方法を用いて前記デジタル画像或いはデジタル化されたアナログ画像を加工する段階を備えることを特徴とする前記腫瘍性組織の識別を補助するための方法。
【請求項60】
血管内狭窄部を含む解剖学的領域のデジタル画像或いはデジタル化されたアナログ画像を取得する段階と、
請求項40乃至58のうち1若しくはそれ以上にしたがった方法を用いて前記デジタル画像或いはデジタル化されたアナログ画像を加工する段階を備えることを特徴とする前記血管内狭窄部の識別を補助するための方法。
【請求項61】
腫瘍性組織を含む解剖学的領域のデジタル画像或いはデジタル化されたアナログ画像を取得する段階と、
請求項40乃至58のうち1若しくはそれ以上にしたがった方法を用いて前記デジタル画像或いはデジタル化されたアナログ画像を加工する段階を備えることを特徴とする生体組織の種類の識別を補助するための方法。
【請求項1】
人工ニューラルネットワークのノットに対応するセル(Ki)のn次元配列を備え、
前記セルのそれぞれが、前記セル(Ki)に直接隣接するとともに該セル(Ki)の近傍を形成する周囲のセル(Kj)に対する結合を備え、
(a)前記セル(Ki)のそれぞれが、前記周囲のセル(Kj)に直接隣接する1つのセルへの各結合のためのインプットを備え、
(b)前記セル(Ki)のそれぞれが、1つ若しくはそれ以上の前記直接隣接するセル(Kj)への結合のためのアウトプットを備え、
(c)前記セル(Ki)と前記直接隣接するセルの間の前記結合が重み(wij)により決定され、
(d)前記セルのそれぞれが、前記セル(Ki)の活性値或いは活性化関数(Ai)として定義される内部値により特徴付けられ、
(e)前記セル(Ki)のそれぞれが、変換関数と称される信号処理関数にしたがって信号処理を実行することによりセルのアウトプット信号(ui)を作り出し、
(f)前記変換関数がセル(Ki)の前記出力信号(ui)を前記セル(Ki)の活性値或いは活性化関数(Ai)の関数として定義し、
該変換関数がセル(Ki)の前記活性値或いは活性化関数(Ai)を前記セル(Ki)の前記出力信号(ui)と等しくする恒等関数を更に備え、
(g)入力データ・レコード(Pi)のn次元データベースが前記ニューラルネットワークにより計算され、
該n次元データベースにおいて、前記データ・レコード(Pi)が対応するn次元空間に投影されたときの該データ・レコードの相対位置がデータ・レコード(Pi)の関連特性であり、
前記データベースの前記データ・レコード(Pi)が前記n次元空間の点の配列により表現可能であり、
該点のそれぞれが前記点の列において、前記データベースの前記データ・レコード(Pi)に対して一意的に定義された位置を有し、
前記データベースの前記データ・レコード(Pi)のそれぞれが更に少なくとも1つ或いは1若しくはそれ以上の変数を備え、
該変数が1つの特定の値(Ui)を備え、
(h)前記データ・レコード(Pi)のそれぞれが、前記ニューラルネットワークを形成するセルの前記n次元配列のセル(Ki)に対して一意的に関連付けられ、
該セル(Ki)が、セル(Ki)のn次元配列において、点の前記n次元配列における点により表される対応するデータ・レコード(Pi)と同じ位置を有し、
(i)前記データ・レコード(Pi)それぞれの前記変数の前記値(Ui)が、前記ニューラルネットワークの開始値とみなされ、前記一意的に関連付けられたセル(Ki)の前記開始活性値(Ai)或いは前記開始出力値(ui)とされ、
(j)前記ニューラルネットワークの特定数の相互作用的処理段階の後の前記セル(Ki)の前記活性値(Ai)或いは前記出力値(ui)が、前記一意的に関連付けられたデータ・レコード(Pi)のための前記新たな値(Ui)としてみなされ、
(k)前記特定数の相互作用的処理段階のそれぞれの段階に対して、前記セル(Ki)のそれぞれ及び直接隣接するセル(Kj)の間の結合を定義する重み(wij)が、前記セル(Ki)に直接隣接する前記セル(Kj)に一意的に関連付けられたデータ・レコード(Pj)それぞれの変数の現在値(Uj)の関数として決定され、
前記関数が学習関数或いは法則と称され、
(l)現在の活性値(Ai)、或いは前記一意的に関連付けられたデータ・レコード(Pi)のための前記現在の新たな値(Ui)とみなされる前記ニューラルネットワークの処理段階の後の前記セル(Kj)それぞれの出力値(Ui)が、前記対応する重み(wij)により重みを付加される前記直接隣接するセル(Kj)の前記現在の出力値(Uj)の関数として決定され、
該関数が前記直接隣接するセル(Kj)と前記セル(Ki)の結合を定義することを特徴とする人工ニューラルネットワーク。
【請求項2】
前記現在の活性値(Ai)、或いは前記一意的に関連付けられたデータ・レコード(Pi)のための現在の新たな値(Ui)としてみなされる前記ニューラルネットワークの処理段階の後の前記セル(Ki)の出力値(ui)を、前記直接隣接するセル(Kj)と前記セル(Ki)の結合を定義する前記重み(wij)の関数として決定することにより前記ニューラルネットワークが変更され、
該関数(wij)がいわゆる活性化関数或いは法則であることを特徴とする請求項1記載のニューラルネットワーク。
【請求項3】
前記現在の活性値(Ai)、或いは前記一意的に関連付けられたデータ・レコード(Pi)のための前記現在の新たな値(Ui)としてみなされる前記ニューラルネットワークの処理段階の後の前記セル(Ki)それぞれの前記出力値(ui)が、前記直接隣接するセル(Kj)の前記現在の出力値(uj)と前記直接隣接するセル(Kj)と前記セル(Ki)の結合を定義する対応する重み(wij)の関数として決定され、
該関数がいわゆる活性化関数或いは法則であることを特徴とする請求項1記載のニューラルネットワーク。
【請求項4】
前記特定数の相互作用的処理段階の各処理段階において、前記セル(Ki)のそれぞれと前記直接隣接するセル(Kj)の間の結合を定義する前記重み(wij)が、前記セル(Ki)に直接隣接するセル(Kj)に一意的に関連付けられたデータ・レコード(Pj)の変数の前記現在の値(Uj)及び前記セル(Ki)に一意的に関連付けられたデータ・レコード(Pi)の変数の現在の値(Ui)の関数として決定されることを特徴とする請求項1或いは2記載のニューラルネットワーク。
【請求項5】
式1に示す学習法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数1】
ただし式1において、σ:アルゴリズムの画像の差異に対する感度を向上或いは低下させるための使用者により自由に定義可能なパラメータ、Rij:i番目のユニットからj番目のユニットまでの距離、Ui:人工ニューラルネットワークのノットKiに変換された単一のセルPiの値、添え字i:中央のセル或いはノット、添え字j:前記中央のセル或いはノットを直接取り囲むセル或いはノットとする。
【請求項6】
式2に示す法則が用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数2】
【請求項7】
表1及び式3に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【表1】
【数3】
ただし式3において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値とする。
【請求項8】
表2及び式4に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【表2】
【数4】
ただし式4において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【請求項9】
表3及び式5に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【表3】
【数5】
ただし式5において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【請求項10】
式6に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数6】
ただし式6において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値とする。
【請求項11】
式7に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数7】
ただし式7において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値とする。
【請求項12】
式8に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数8】
ただし式8において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【請求項13】
式9に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数9】
ただし式9において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
また式9において、関数ecciとinniは同一であり、正及び負の重み結合に関連するインプットのみが異なり、活性化パラメータActiがネット・インプットNetiからノットKijへの関数として提供される。
このパラメータを用いて、2つの異なる関数のうち1つを選択し、選択した関数にしたがって、Actiが正か負かに基づき、ノットKiのアウトプットUiの更新値αiを計算する。
2つの関数によりαiを計算する。αiにおいて、Max及びMin:活性化法則の上限及び下限、Decay:各ユニットの時間にしたがった通常のディケイ値、Rest:各ユニットに向けたデフォルト値とする。
【請求項14】
式10に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数10】
ただし式10において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
また式9において、関数ecciとinniは同一であり、正及び負の重み結合に関連するインプットのみが異なり、活性化パラメータActiがネット・インプットNetiからノットKijへの関数として提供される。
このパラメータを用いて、2つの異なる関数のうち1つを選択し、選択した関数にしたがって、Actiが正か負かに基づき、ノットKiのアウトプットUiの更新値αiを計算する。
2つの関数によりαiを計算する。αiにおいて、Max及びMin:活性化法則の上限及び下限、Decay:各ユニットの時間にしたがった通常のディケイ値、Rest:各ユニットに向けたデフォルト値とする。
【請求項15】
式11に示す活性化法則のみが用いられることを特徴とする請求項1乃至4いずれかに記載のニューラルネットワーク。
【数11】
【請求項16】
各計算サイクルにおいて、請求項5乃至15にしたがった学習法則或いは関数の群と活性化関数の群の組み合わせを用いて、データ・レコードの新たな配列が提供され、
該新たな配列において、前記データ・レコードそれぞれの値が、前記実際のターゲット・データ・レコードと前記周囲のセル又は点のデータ・レコードの関数、或いは前記ターゲット・データ・レコードと前記周囲のセル又は点のデータ・レコードの間の結合を定義する重みの関数として既に変更されており、
前記組み合わせを用いて更に、前記結合の前記重みのための新たな値が提供され、
データ・レコードの前記新たな配列と前記結合のための新たな重みを用いてそれ以降の計算サイクルが実行されることを特徴とする請求項1乃至15いずれかに記載のニューラルネットワーク。
【請求項17】
画像処理マシンであって、
ノット(Ki)の配列のノットに一意的に関連付けられるか、或いはノット(Ki)の配列のノットとして機能する前記データベースの前記データ・レコードが、ピクセル(Pi)により形成され、
前記ノットの初期値がピクセル値(Ui)により形成されることを特徴とする請求項1乃至16いずれかに記載のニューラルネットワーク。
【請求項18】
前記ピクセル値がスカラー要素或いはベクトル要素であり、
前記ピクセルが、前記ベクトルの成分を形成する異なる変数により特徴付けられ、
該変数が前記ピクセル及び該ピクセルの視覚的特徴を特徴付ける物理的及び/又は視覚的特徴に関連する変数であることを特徴とする請求項17記載のニューラルネットワーク。
【請求項19】
前記ピクセルがグレー・スケール画像のピクセルであり、該ピクセルが輝度により特徴付けられることを特徴とする請求項18記載のニューラルネットワーク。
【請求項20】
前記ピクセルがカラー画像のピクセルであり、
前記ピクセルを特徴付ける前記変数が少なくとも3つの変数であるとともに、HSV、RGB、或いはその他従来のピクセル外観の符号化法に対応する変数であることを特徴とする請求項17或いは18記載のニューラルネットワーク。
【請求項21】
データベースのデータ間の関係を認識するためのアルゴリズムであって、
該データが、データ・レコードの配列、或いはデータ・レコードのn次元空間、特に2次元或いは3次元空間内の分布における該データ・レコードの相対位置が前記データ・レコードの関連特性である種類のデータであり、
前記データ・レコードがセル或いは点の配列として表現可能であり、
前記点のそれぞれが、前記データベースのデータ・レコードに一意的に関連付けられるとともに、前記配列内に一意的に定義された他のデータ・レコードのセル或いは点に対する位置を有し、
前記データ・レコードのそれぞれが更に、1つの特定の値を有する1若しくはそれ以上の変数に更に関連付けられ、
データベースのデータ・レコードを表すセル或いは点の配列内のセル或いは点のそれぞれが、人工ニューラルネットワークのユニット或いはノットとみなされることを特徴とするアルゴリズム。
【請求項22】
(a)前記データベースのセル或いは点により形成されるユニット或いはノットのそれぞれが、連続的にターゲット・ユニット或いはノットとして定義され、
ターゲット・ユニット或いはノットのそれぞれと、少なくともその他のユニット或いはノットのそれぞれとの間の結合が定義され、
該その他のユニット或いはノットが、データベースのその他のセル或いは点により形成されるとともに、対応するターゲット・ユニット或いはノットに対して少なくともグラディエント1であり、
(b)データベースのユニット或いはノットのそれぞれの新たな出力値が、連続的にターゲット・ユニット或いはノットとして定義され、
該ターゲット・ユニット或いはノットが、前記人工ニューラルネットワークの前記学習法則或いは関数の群、前記活性化法則或いは関数の群、若しくは前記学習法則或いは関数の群と前記活性化法則或いは関数の群の組み合わせを用いて、前記ターゲット・ユニット或いはノットに結合されたユニット或いはノットの実際のアウトプット及び前記ターゲット・ユニット或いはノットの実際のアウトプットの関数として計算され、
(c)前記ユニット或いはノットそれぞれの前記実際のアウトプットが、前記人工ニューラルネットワークのユニット或いはノットとみなされるセル或いは点により表されるデータ・レコードのそれぞれと関連付けられる変数の値或いは複数の変数の値として定義され、
(d)前記ターゲット・ユニット或いはノットの前記新たなアウトプットが、前記ターゲット・ユニット或いはノットに対応するデータ・レコードの配列を構成するセル或いは点に関連付けられた前記データ・レコードの前記変数或いは複数の変数の新たな値としてみなされ、
(e)データ・レコードの前記配列のセル或いは点の少なくとも一部或いは全てに対して、ターゲット・ユニット或いはノットの新たなアウトプットを計算する前記段階を実行することにより、データ・レコードの新たな配列が計算され、
セル或いは点のそれぞれのデータ・レコードが、前記少なくとも1つの変数の新たな値、或いは前記複数の変数の新たな値を備え、
前記新たな値が、前記段階にしたがった人工ニューラルネットワークの第1計算サイクルの結果であり、
前記計算サイクルが予め定められた特定回数実行されるまで、及び/又は前記変数の最初の値若しくはデータ・レコードの前記最初の配列の前記変数と、データ・レコードの前記配列の1若しくは複数の変数の値の間の誤差或いは不一致が、直前のサイクルにおいて計算された誤差或いは不一致にしたがって最大許容可能な程度に達せられない限り、及び/又は連続するサイクルにおいて計算された連続するデータ・レコードの配列内のデータ・レコードの変数の値或いは複数の変数の値の差が、所定の最大率を下回らない限り、データ・レコードの連続する新たな配列のそれぞれに対して、前記計算サイクルが予め定められた特定回数反復されることを特徴とする請求項21記載の人工ニューラルネットワーク。
【請求項23】
学習関数或いは法則の第1群、活性化関数或いは法則の第1群、若しくはこれらを組み合わせたものが提供される該第1加工段階、学習関数或いは法則の第2群、活性化関数或いは法則の第2群、若しくはこれらを組み合わせたものが提供される第2加工段階、及び、2つ以上の加工段階が行われる場合には、学習関数或いは法則の更に別の群、活性化関数或いは法則の更に別の群、若しくはこれらを組み合わせたものが提供される更に別の加工段階において、データ・レコードの配列が、前記アルゴリズムを用いて、少なくとも2回或いはそれ以上の加工を受け、
前記第2若しくはそれ以上の加工段階において、第2若しくはそれ以上の異なる群を用いるデータ・レコードの配列が用いられ、
学習或いは活性化法則又は関数、若しくはこれらを組み合わせたものの第2或いはそれ以上の異なる群を備えるアルゴリズムが用いられる前記第2若しくはそれ以上の段階において用いられるデータ・レコードの配列が、データ・レコードの配列の前記第1加工段階、或いは、前記第2若しくはそれ以上の段階以前の加工段階から個別にもたらされたデータ・レコードの配列であることを特徴とする請求項21或いは22記載のアルゴリズム。
【請求項24】
データ・レコードの2次元或いは3次元配列において、前記ターゲット・データ・レコードのセル或いは点に対してグラディエント1であるデータ・レコードに関するセル或いは点が、前記ターゲット・データ・レコードに関連するデータ・レコード配列内のセル或いは点を直接取り囲むデータ・レコード配列のセル或いは点に関連するデータ・レコードにより形成されることを特徴とする請求項21乃至23いずれかに記載のアルゴリズム。
【請求項25】
前記アルゴリズムにより計算されたデータ・レコードの新たな配列が、前記結合の重みを最適化するための学習関数或いは法則の群のみに基づき、
前記ターゲット・データ・レコードそれぞれの前記新たなアウトプットが、前記ターゲット・データ・レコードに関連するターゲット・ユニット或いはノットそれぞれと、前記ターゲット・データ・レコードのセル或いは点に対してグラディエント1であるデータ・レコードのセル或いは点により表されるユニット或いはノットとの結合を特徴付ける新たな重みの関数として定義され、
前記学習法則或いは関数の群が、前記結合の前記新たな重みを、以前の計算サイクルにおいて計算或いは定義された以前の重みの関数として、並びに前記ターゲット・データ・レコードのセル或いは点に関連するユニット或いはノットの実際のアウトプット、及び少なくとも段階1のデータ・レコード、若しくは前記実際のターゲット・データ・レコードのセル或いは点を直接取り囲むセル或いは点のデータ・レコードのセル或いは点に関連するユニット或いはノットの実際のアウトプットの関数として定義することを特徴とする請求項21乃至24いずれかに記載のアルゴリズム。
【請求項26】
前記アルゴリズムにより計算されるデータ・レコードの新たな配列が、活性化関数の群にのみ基づき、
該関数が、前記ターゲット・データ・レコードに関連するセル或いは点に対応するターゲット・ユニット或いはノットの新たなアウトプットを定義し、
該定義が、前記ターゲット・ユニット或いはノットへのネット・インプットに基づいて行われ、
該ネット・インプットが前記データ・レコードに対して少なくともグラディエント1であるデータ・レコードに関連するセル或いは点に対応するユニット或いはノットのアウトプット、特に前記ターゲット・データ・レコードのセル或いは点を直接取り囲むデータ・レコード配列のセル或いは点に対応するユニット或いはノットのアウトプットの関数であることを特徴とする請求項21乃至24いずれかに記載のアルゴリズム。
【請求項27】
第1計算サイクルにおける計算が、各結合の重みに対して固定された所定の値から開始し、
一方で前記ユニット或いはノットの開始値が前記重みと、前記周囲のノット或いはユニットの値の関数である所定の関数にしたがって、すなわち前記人工ニューラルネットワークの特定のユニット或いはノットを表すセル或いは点を直接取囲む配列内のセル或いは点に対応するデータ・レコードにしたがって変更されることを特徴とする請求項21乃至26いずれかに記載のアルゴリズム。
【請求項28】
式12に示す学習法則のみが用いられることを特徴とする請求項21乃至27いずれかに記載のアルゴリズム。
【数12】
ただし式12において、σ:アルゴリズムの画像の差異に対する感度を向上或いは低下させるための使用者により自由に定義可能なパラメータ、Rij:i番目のユニットからj番目のユニットまでの距離、Ui:人工ニューラルネットワークのノットKiに変換された単一のセルPiの値、添え字i:中央のセル或いはノット、添え字j:前記中央のセル或いはノットを直接取り囲むセル或いはノットとする。
【請求項29】
式13に示す学習法則が用いられることを特徴とする請求項21乃至28いずれかに記載のアルゴリズム。
【数13】
【請求項30】
表4及び式14に示す活性化法則のみが用いられることを特徴とする請求項21乃至29いずれかに記載のニューラルネットワーク。
【表4】
【数14】
ただし式14において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値とする。
【請求項31】
表5及び式15に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【表5】
【数15】
ただし式15において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【請求項32】
表6及び式16に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【表6】
【数16】
ただし式16において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【請求項33】
式17に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【数17】
ただし式17において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値とする。
【請求項34】
式18に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【数18】
ただし式18において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値とする。
【請求項35】
式19に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【数19】
ただし式19において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
【請求項36】
式20に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【数20】
ただし式20において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
また式9において、関数ecciとinniは同一であり、正及び負の重み結合に関連するインプットのみが異なり、活性化パラメータActiがネット・インプットNetiからノットKijへの関数として提供される。
このパラメータを用いて、2つの異なる関数のうち1つを選択し、選択した関数にしたがって、Actiが正か負かに基づき、ノットKiのアウトプットUiの更新値αiを計算する。
2つの関数によりαiを計算する。αiにおいて、Max及びMin:活性化法則の上限及び下限、Decay:各ユニットの時間にしたがった通常のディケイ値、Rest:各ユニットに向けたデフォルト値とする。
【請求項37】
式21に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【数21】
ただし式21において、Ui:前記第1段階におけるインプット及び中央のノットKiのそれ以降の段階におけるアウトプット、Uj:周囲のノットKjのアウトプット、Neti:中央のノットKiのネット・インプット(周囲のノットKjのアウトプットUjと周囲のノットKjと中央のノットKiの結合の重みwijの関数として計算される)、n:サイクルの数、αi:中央のノットKiのアウトプットUiの更新値であり、次のサイクルのための新たなアウトプット値を、ネット・インプットNetiと中央のノットKiの実際のアウトプットUiの関数として計算するための値、α:定数とする。
また式9において、関数ecciとinniは同一であり、正及び負の重み結合に関連するインプットのみが異なり、活性化パラメータActiがネット・インプットNetiからノットKijへの関数として提供される。
このパラメータを用いて、2つの異なる関数のうち1つを選択し、選択した関数にしたがって、Actiが正か負かに基づき、ノットKiのアウトプットUiの更新値αiを計算する。
2つの関数によりαiを計算する。αiにおいて、Max及びMin:活性化法則の上限及び下限、Decay:各ユニットの時間にしたがった通常のディケイ値、Rest:各ユニットに向けたデフォルト値とする。
【請求項38】
式22に示す活性化法則のみが用いられることを特徴とする請求項21乃至28いずれかに記載のニューラルネットワーク。
【数22】
【請求項39】
前記計算サイクルのそれぞれにおいて、請求項5乃至17の1若しくはそれ以上に従った学習法則或いは関数の群と活性化関数の群を組み合わせたものを用いてデータ・レコードの新たな配列が提供され、
該新たな配列において、前記実際のターゲット・データ・レコード及び前記周囲のセル或いは点のデータ・レコードのアウトプットの関数として、及び前記ターゲット・データ・レコードと前記周囲のセル或いは点のデータ・レコードの間の結合を定義する重みの関数として、データ・レコードのそれぞれが変更され、
前記学習法則或いは関数と活性化関数の群を組み合わせたものを用いて更に、前記結合の重みのための新たな値が提供され、
前記結合のデータ・レコードの新たな配列及び前記結合のための新たな重みを用いて、それ以降の計算サイクルが実行されることを特徴とする請求項21乃至38いずれかに記載のアルゴリズム。
【請求項40】
画像がピクセルの2次元或いは3次元配列により形成され、
前記配列のピクセルのそれぞれが人工ニューラルネットワークのユニット或いはノットを形成し、
前記人工ニューラルネットワークのインプット及びアウトプットが、前記ユニットのそれぞれに対応するピクセルの最初の値により、及び前記ピクセルのそれぞれの計算された値により形成され、
前記ノットのそれぞれの出力値の計算が、少なくとも前記ノットを取囲むピクセルの値の関数として実行されることを特徴とする画像処理方法。
【請求項41】
前記画像を形成するピクセルの配列のピクセルと一意的に対応する前記人工ニューラルネットワークのノット或いはユニットのそれぞれと、関連する少なくともグラディエント1であるユニット或いはノットの間に、重みを付加された結合が提供されることを特徴とする請求項40記載の方法。
【請求項42】
重み最適化が行われることを特徴とする請求項40及び請求項41記載の方法。
【請求項43】
前記重み最適化の後にユニット活性化が行われることを特徴とする請求項42記載の方法。
【請求項44】
重み進化及びユニット活性化が行われることを特徴とする請求項40乃至43いずれかに記載の方法。
【請求項45】
最終的に請求項21乃至39記載のアルゴリズムとして実行される請求項1乃至20記載の人工ニューラルネットワークを用いて実行されることを特徴とする請求項40乃至44いずれかに記載の方法。
【請求項46】
画像パタン認識のための方法であり、
前記画像がデジタル画像或いはデジタル化されたアナログ画像であり、
画像データの配列が有限数の点或いはセルにより形成され、
該点或いはセルのそれぞれがいわゆるピクセル或いはボクセルなどの画像単位要素に対応し、
該ピクセル或いはボクセルのそれぞれが、グレー・スケール画像の該ピクセルの強度或いはグレー・レベルを表すパラメータ変数の値に関連付けられるか、或いは該ピクセル或いはボクセルのそれぞれがベクトルに関連付けられ、
該ベクトルの成分が前記ピクセル或いはボクセルの強度及び前記ピクセル或いはボクセルの色彩を表すパラメータ変数であり、
画像データの前記配列が請求項1乃至20のうち1若しくはそれ以上にしたがった人工ニューラルネットワークを用いて処理され、
前記グラディエント1のデータ・レコードのセル或いは点が、ターゲット・ピクセル或いはボクセルを直接取囲むピクセル或いはボクセルにより形成され、
前記アルゴリズムを所定回数適用して前記計算サイクルが所定回数反復され、
前記所定回数の回数が、固定された定数とされるか、前記計算サイクルが所定回数反復された後の前記ピクセルの出力値と、前記画像データ配列の最初の値との不一致或いは差異に基づいて計算されるか、或いはそれ以降の計算サイクルが、以前の計算サイクルの画像データ配列のアウトプットとの差異が、所定の差異より小さい前記画像データ配列にアウトプットを提供するときの回数として決定されることを特徴とする請求項40乃至45いずれかに記載の方法。
【請求項47】
前記人工ニューラルネットワークが請求項21乃至40にしたがったアルゴリズムとして実施されることを特徴とする請求項46記載の画像パタン認識方法。
【請求項48】
請求項21乃至40にしたがったアルゴリズムが、連続して2回適用され、
1回ごとに学習法則或いは関数の異なる群、或いは活性化法則或いは関数の異なる群、若しくはこれらの異なる組み合わせが用いられることを特徴とする請求項47記載の方法。
【請求項49】
請求項21乃至39にしたがったアルゴリズムが、画像化されたサブジェクトの異なる領域の特徴を認識するために学習される予測アルゴリズムと組み合わせて用いられることを特徴とする請求項46乃至48いずれかに記載の画像パタン認識方法。
【請求項50】
前記予測アルゴリズムが人工ニューラルネットワークであり、
前記学習データベース及びテスト・データベースが個別のサブジェクトの画像の群により形成され、
前記画像サブジェクトの前記異なる画像化領域が、前記トレーニング・データベース及びテスト・データベースの画像のそれぞれに対して一意的に識別され、
一方で前記予測アルゴリズムが、請求項21乃至40のうち1若しくはそれ以上にしたがったアルゴリズムを用いて実行される加工のアウトプットとして得られる画像データ配列に対して実行されることを特徴とする請求項46乃至48いずれかに記載の方法。
【請求項51】
前記予測アルゴリズムが、前記最初の画像データ配列をインプットデータとして用いることにより実行され、
請求項21乃至40のうち1若しくはそれ以上にしたがったアルゴリズムを用いて計算された画像データ配列に対して予測アルゴリズムを実行することにより得られる予測結果と、前記最初の画像データ配列に対して前記予測アルゴリズムを実行することにより得られる予測結果が、組み合わされるか或いは比較されることを特徴とする請求項50記載の方法。
【請求項52】
生体組織内において、造影剤なしにコントラスト撮像或いはハーモニック撮像を行うための方法であって、
特定の人体或いは人体の特定箇所の超音波、MRI、或いはX線画像が撮像され、
請求項1乃至20のうち1若しくはそれ以上にしたがったニューラルネットワークを用いて、撮像された画像の画像データ配列に対して、請求項40乃至51のうち1若しくはそれ以上にしたがった方法が行われ、
前記方法が、最終的に請求項21乃至40のうち1若しくはそれ以上にしたがったアルゴリズムとして実施されることを特徴とする請求項50記載の方法。
【請求項53】
請求項1乃至4にしたがったニューラルネットワークに、請求項5にしたがった法則の群が提供され、
該法則の群が、請求項21乃至28のうち1若しくはそれ以上と、請求項29に従った学習法則の少なくとも1つの群にしたがったアルゴリズムにしたがって最終的に実施されることを特徴とする請求項52記載の方法。
【請求項54】
請求項1乃至4にしたがったニューラルネットワークに、請求項5にしたがった法則と、請求項6乃至20のいずれかにしたがった法則の群が提供され、
前記ニューラルネットワークが、請求項21乃至28のうち1若しくはそれ以上にしたがったアルゴリズムと、請求項29にしたがった学習法則或いは関数の群、及び請求項18乃至30のいずれか1つにしたがったアルゴリズムを組み合わせたアルゴリズムとして、最終的に実施されることを特徴とする請求項53記載の方法。
【請求項55】
請求項29乃至39のうち1若しくはそれ以上にしたがった学習及び/又は活性化法則の群が用いられることを特徴とする請求項53記載の方法。
【請求項56】
少なくとも2つの画像加工段階が行われ、
第1の画像加工段階が学習及び/又は活性化法則の1つを用いて実行され、
第2加工段階が、前記第1加工段階において加工されたアウトプット画像のピクセル値を、学習及び/又は活性化法則の第2の群とともに、該第2加工段階に提出することにより行われることを特徴とする請求項55記載の方法。
【請求項57】
少なくとも第3或いはそれ以上の加工段階が行われ、
該段階のそれぞれが学習及び/又は活性化法則の異なる群を用いて行われることを特徴とする請求項55或いは56記載の方法。
【請求項58】
前記学習及び/又は活性化法則が請求項5乃至20或いは請求項28乃至39にしたがった法則であることを特徴とする請求項55乃至57いずれかに記載の方法。
【請求項59】
腫瘍性組織を含む解剖学的領域のデジタル画像或いはデジタル化されたアナログ画像を取得する段階と、
請求項40乃至58のうち1若しくはそれ以上にしたがった方法を用いて前記デジタル画像或いはデジタル化されたアナログ画像を加工する段階を備えることを特徴とする前記腫瘍性組織の識別を補助するための方法。
【請求項60】
血管内狭窄部を含む解剖学的領域のデジタル画像或いはデジタル化されたアナログ画像を取得する段階と、
請求項40乃至58のうち1若しくはそれ以上にしたがった方法を用いて前記デジタル画像或いはデジタル化されたアナログ画像を加工する段階を備えることを特徴とする前記血管内狭窄部の識別を補助するための方法。
【請求項61】
腫瘍性組織を含む解剖学的領域のデジタル画像或いはデジタル化されたアナログ画像を取得する段階と、
請求項40乃至58のうち1若しくはそれ以上にしたがった方法を用いて前記デジタル画像或いはデジタル化されたアナログ画像を加工する段階を備えることを特徴とする生体組織の種類の識別を補助するための方法。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12A】
【図12B】
【図12C】
【図12D】
【図12E】
【図12F】
【図12G】
【図12H】
【図12I】
【図12J】
【図13】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12A】
【図12B】
【図12C】
【図12D】
【図12E】
【図12F】
【図12G】
【図12H】
【図12I】
【図12J】
【図13】
【公表番号】特表2007−503629(P2007−503629A)
【公表日】平成19年2月22日(2007.2.22)
【国際特許分類】
【出願番号】特願2006−523636(P2006−523636)
【出願日】平成16年8月18日(2004.8.18)
【国際出願番号】PCT/EP2004/051821
【国際公開番号】WO2005/020132
【国際公開日】平成17年3月3日(2005.3.3)
【出願人】(504140495)
【Fターム(参考)】
【公表日】平成19年2月22日(2007.2.22)
【国際特許分類】
【出願日】平成16年8月18日(2004.8.18)
【国際出願番号】PCT/EP2004/051821
【国際公開番号】WO2005/020132
【国際公開日】平成17年3月3日(2005.3.3)
【出願人】(504140495)
【Fターム(参考)】
[ Back to top ]