情報処理装置および情報処理方法
【課題】特徴がパターン認識にどれだけ有効か否か、または特徴がパターンの誤認識にどれだけ影響したか、を判別するための定量的な情報を提供する。
【解決手段】情報処理装置は、取得部、特徴算出部、辞書格納部、識別影響度算出部を有する。前記取得部は処理対象のパターンを取得する。前記特徴算出部は前記取得部から得た前記パターンの特徴を示す特徴ベクトルを算出する。前記辞書格納部には識別候補の種別と該識別候補の代表ベクトルの集合とが対応して記憶されている。前記識別影響度算出部は、前記辞書格納部から前記種別に対応する前記代表ベクトルの集合を取得し、該集合と前記特徴ベクトルとから得られる前記処理対象と識別候補との類似度あるいは相違度を前記特徴ベクトルの各成分に対応するように分解し、該分解した値を前記特徴ベクトルの各成分がパターンの識別に影響する度合いとして算出する。
【解決手段】情報処理装置は、取得部、特徴算出部、辞書格納部、識別影響度算出部を有する。前記取得部は処理対象のパターンを取得する。前記特徴算出部は前記取得部から得た前記パターンの特徴を示す特徴ベクトルを算出する。前記辞書格納部には識別候補の種別と該識別候補の代表ベクトルの集合とが対応して記憶されている。前記識別影響度算出部は、前記辞書格納部から前記種別に対応する前記代表ベクトルの集合を取得し、該集合と前記特徴ベクトルとから得られる前記処理対象と識別候補との類似度あるいは相違度を前記特徴ベクトルの各成分に対応するように分解し、該分解した値を前記特徴ベクトルの各成分がパターンの識別に影響する度合いとして算出する。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、例えば文字、図形および音声などのパターンから抽出する特徴の有効性を判断するための情報処理装置および情報処理方法に関する。
【背景技術】
【0002】
文字や図形などのパターンが描かれている帳票をスキャナなどで読み取り、帳票に描かれている元のパターンを認識するパターン認識装置がある。
【0003】
このパターン認識装置では、パターン認識の際には、画像から認識対象のパターンが存在するエリアを切り出して、そのエリアの画像から抽出した特徴が予めパターン辞書に記憶されている参照パターンの特徴とどの程度類似しているかを判定し、帳票に描かれているパターンを特定する。
【0004】
このため、画像から抽出した特徴がパターン識別にどれだけ有効かどうかを検証することが極めて重要な課題となる。
【0005】
特徴抽出に関する従来の技術として、例えば処理対象の画像の画素ごとに特徴を形成し、該特徴が質的性質や量的性質が予め定めた条件を満たすとき、該特徴に対応する処理対象の画像の画素を色付けする技術が既に公開されている(例えば特許文献1参照)。
【0006】
この特許文献1の技術では、質的性質のことを濃淡情報、位置情報、方向情報等としている。また、量的性質のことを特徴量の大きさとしている。またこの特許文献1では、色付けされた画像を目視することにより、誤認識の原因解明に必要な情報が得られるとしている。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】特開2008−3730号公報
【発明の概要】
【発明が解決しようとする課題】
【0008】
しかしながら、上記特許文献1に記載されている従来の技術の場合、処理対象の画像から抽出した特徴の性質については表わされるものの、特徴が画像識別にどれだけ有効かどうかといったことまでは判らないという問題がある。
【0009】
また、特許文献1の技術の場合、適用可能な特徴抽出の方法は、画素単位で特徴を形成する方法に限定されるため、画素の集合に対する特徴を形成する場合には適用できないという問題があった。
【0010】
なお、上述した先行技術文献1には、特徴評価で得られた特徴の評価値や識別過程の分析で得られた特徴の有効性の度合いに従って処理対象の画像を色付けすることが可能という記載はあるものの、その技術についての具体的な記述はない。
【0011】
本発明はこのような課題を解決するためになされたもので、ある特徴抽出方法によって算出されたパターンの特徴がパターン認識にどれだけ有効か否か、または特徴がパターンの誤認識にどれだけ影響したか、を判別するための定量的な情報を提供することのできる情報処理装置および情報処理方法を提供することを目的とする。
【課題を解決するための手段】
【0012】
上記の課題を解決するために、本発明の情報処理装置は、処理対象のパターンを取得する取得部と、前記取得部から得た前記パターンの特徴を示す特徴ベクトルを算出する特徴算出部と、識別候補の種別と該識別候補の代表ベクトルの集合とが対応して記憶された辞書格納部と、前記代表ベクトルの集合と前記特徴ベクトルとから得られる前記処理対象と識別候補との類似度あるいは相違度を前記特徴ベクトルの各成分に対応するように分解し、該分解した値を前記特徴ベクトルの各成分がパターンの識別に影響する度合いとして算出する識別影響度算出部とを具備することを特徴とする。
【0013】
本発明の情報処理方法は、処理対象のパターンを取得するステップと、前記取得部から得た前記パターンの特徴を示す特徴ベクトルを算出するステップと、識別候補の種別と該識別候補の代表ベクトルの集合とが対応して記憶された辞書格納部から該代表ベクトルの集合を取得し、該代表ベクトルの集合と前記特徴ベクトルとから得られる前記処理対象と識別候補との類似度あるいは相違度を前記特徴ベクトルの各成分に対応するように分解し、該分解した値を前記特徴ベクトルの各成分がパターンの識別に影響する度合いとして算出するステップとを有することを特徴とする
【発明の効果】
【0014】
本発明によれば、ある特徴抽出方法によって算出されたパターンの特徴がパターン認識にどれだけ有効か否か、または特徴がパターンの誤認識にどれだけ影響したか、を判別するための定量的な情報を提供することができる。
【図面の簡単な説明】
【0015】
【図1】第1実施形態の画像処理システムの構成を示す図である。
【図2】第1実施形態の画像処理システムの動作を示すフローチャートである。
【図3】特徴ベクトル算出処理を示すフローチャートである。
【図4】識別影響度算出処理を示すフローチャートである。
【図5】識別辞書格納部に格納されているデータを示す図である。
【図6】識別影響度算出処理の他の例を示すフローチャートである。
【図7】識別辞書格納部のデータの他の例を示す図である。
【図8】可視化画像群の生成処理を示すフローチャートである。
【図9】第1実施形態の処理過程で得られる画像および数値の模式図である。
【図10】第2実施形態の画像処理システムの構成を示すブロック図である。
【図11】第2実施形態の画像処理システムの動作を示すフローチャートである。
【図12】特徴ベクトル算出処理を示すフローチャートである。
【図13】特徴ベクトル算出処理の際に参照する画像の分割領域を示す図である。
【図14】識別影響度算出処理を示すフローチャートである。
【図15】可視化画像群の生成処理を示すフローチャートである。
【図16】第3実施形態の画像処理システムの構成を示すブロック図である。
【図17】第3実施形態の画像処理システムの動作を示すフローチャートである。
【図18】部分空間射影処理を示すフローチャートである。
【発明を実施するための形態】
【0016】
以下、図面を参照して一つの実施の形態の画像処理システムについて詳細に説明する。(第1実施形態)
図1は本発明の情報処理装置に係る第1実施形態の画像処理システムの構成を示すブロック図である。
【0017】
図1に示すように、この画像処理システムは、入力装置としてのスキャナ1と、このスキャナ1に接続されたコンピュータ2と、このコンピュータ2に接続された出力装置としての表示装置3とを備えている。コンピュータ2は、CPU、メモリ、ハードディスク装置、外部インターフェースなどの汎用的なハードウェアを備えるものである。
【0018】
スキャナ1は、例えばフラットベッド型や自動給紙型などのスキャナであり、ラインセンサなどの読取部にセットされた帳票を読み取り、読み取った帳票の画像(以下「入力画像」または処理対象の画像などと称す)をコンピュータ2に入力する。この他、コンピュータ2にはキーボード及びマウスなどの入力装置が接続されており、ユーザの操作による指示をコンピュータ2に入力する。入力装置としては、キーボード以外に、任意の指示情報が設定された設定ファイルなどであってもよい。表示装置3は、コンピュータ2から出力される情報を表示する。
【0019】
コンピュータ2は、画像受付部21、画像記憶部22、特徴抽出部23、識別辞書格納部25、識別影響度算出部24、画像生成部26、画像出力部27などを有している。画像記憶部22と識別辞書格納部25はメモリまたはハードディスク装置により実現される。その他の構成、つまり画像受付部21、特徴抽出部23、識別影響度算出部24、画像生成部26および画像出力部27などは、ハードディスク装置にインストールされた画像処理プログラムの機能の一つとして実現される。
【0020】
画像受付部21はスキャナ1から入力される処理対象の画像(文字や図形のパターン以下「入力画像」と称す)を受け付け(取得し)、受け付けた(取得した)画像を画像記憶部22に記憶する。すなわち画像受付部21は処理対象のパターンを取得する取得部として機能する。
【0021】
特徴抽出部23は、入力画像を画像記憶部22から読み出して、その入力画像の画素情報から被写体の特徴をベクトル形式で表す計算を行い、該ベクトル(特徴ベクトル)をメモリに記憶する。
【0022】
特徴抽出部23は、画像を所定のルールで分割した各分割領域毎に、その領域の特徴を示す第1の特徴ベクトルを算出する特徴算出部として機能する。
【0023】
識別辞書格納部25には、画像の被写体の種別と、該種別を特徴付ける情報(種別識別情報)との対が複数記憶されている。画像の被写体の種別とは、例えば「1」という文字であれば「1」という数字(文字種)を示し、猫の画像であれば「猫」がこれに該当する。種別識別情報は前記種別を代表するベクトル群(種別代表ベクトル群)である。ただし、種別代表ベクトル群は1つの代表ベクトルだけで構成することもできる。すなわち識別辞書格納部25は、参照用のパターンの種別とその種別に対応する種別代表ベクトル群とが対応して記憶された辞書格納部として機能する。
【0024】
識別影響度算出部24は、特徴抽出部23により抽出された入力画像の特徴ベクトルと、識別辞書格納部25の種別識別情報を用いて、処理対象のパターンと参照用のパターンとの分解された類似度あるいは相違度を算出し、該分解した値を前記特徴ベクトルの各成分が入力画像の識別にどれだけ影響するかの度合いを示す識別影響度として算出する。
【0025】
画像生成部26は入力画像の空間的領域を分割した領域(分割領域)と識別影響度とを対応付け、識別影響度に応じた色情報を生成することにより、前記対応付けを可視化した画像(可視化画像)を生成し、メモリに記憶する。入力画像の空間的領域とは該画像を構成する全画素の集合のことである。
【0026】
入力画像は図13に示すように形状がランダムな領域に分割してもよく、また同じ大きさの矩形の小領域に定型的に分割してもよい。
処理対象のパターンは入力画像の画素であるから、前記分割領域からは処理対象のパターンを分割したパターンが得られる。以降、該分割したパターンのことを分割パターンと記すものとする。すなわち、画像生成部26は前記識別影響度算出部により算出された識別影響度に応じた色情報を生成し、該色情報を各分割パターンに対応付け、該色情報と分割パターンとの色情報の対応を示す画像を生成する。
【0027】
画像出力部27は画像生成部26により可視化された画像をメモリから読み出して表示装置3へ出力し表示装置3の画面に表示する。識別対象の入力画像の個々の分割領域に対応する識別影響度の大小は前記色情報によって視覚できる形式で表現されているため、どのような前記分割領域が識別に有効に働いているか否かを視覚的に把握できるようになる。これにより、処理対象のパターンの識別に有効な特徴を把握するための目安が明確になり、例えば特徴抽出方法の改善に役立つ。
【0028】
続いて、図2乃至図8を参照して第1実施形態の画像処理システムの動作を説明する。この画像処理システムの場合、スキャナ1が帳票の画像を読み取ってコンピュータ2に入力すると、その帳票の画像は画像受付部21により受け付けられて、画像記憶部22に記憶される(ステップA-ST1)。
【0029】
具体的にはコンピュータ2に接続されたスキャナ1により読み取りコンピュータ2へ入力し、ハードディスク装置に書き込む。スキャナ1を用いない方法としては、例えばコンピュータ2のハードディスク装置の画像記憶部22に予め処理対象のパターンが描かれた画像(入力画像)を記憶しておき、その入力画像をハードディスク装置から読み出しメモリに書き込んでもよい。また入力画像を、ネットワーク上のサーバコンピュータやNASなどの記憶装置に記憶しておき、記憶装置の入力画像を、ネットワークを経由してコンピュータ2へ送り、コンピュータ2の画像受付部21が画像記憶部22に記憶してもよい。
【0030】
次に、特徴抽出部23は、メモリから入力画像を読み出して、その入力画像の特徴ベクトルを算出し(ステップA-ST2)、メモリに記憶する。
【0031】
続いて、識別影響度算出部24は、ステップA-ST2でメモリに記憶された特徴ベクトルと識別辞書格納部25に格納された種別代表ベクトル群を用いて識別影響度列、すなわち1つかそれ以上の識別影響度を算出し(ステップA-ST3)、メモリに記憶する。
【0032】
画像生成部26は、入力画像をメモリから読み出して、入力画像の分割領域と識別影響度とを対応付けて可視化画像を生成し(ステップA-ST4)、メモリに記憶する。
【0033】
画像出力部27は、画像生成部26により生成された可視化画像をメモリから読み出して表示装置3へ出力する(ステップA-ST5)。
【0034】
ここで、上記各ステップの処理の詳細を説明する。まずステップA-ST2の特徴ベクトル算出処理について説明する。
【0035】
図3に示すように、特徴抽出部23は、入力画像をグレースケール画像に変換する。具体的には、入力画像のすべての画素に関して、画素値に含まれる赤、青、緑といった色を区別する情報を取り除いて明暗情報だけを残すことにより、入力画像をグレースケール画像に変換する(ステップA-ST2-1)。
【0036】
次に、特徴抽出部23は、グレースケールに変換した入力画像のすべての画素に関して、画素値の勾配ベクトルを算出する。勾配ベクトルは画素の明暗の濃淡値が、2次元平面上でどの方向に変化しているかを示すベクトルである。該グレースケール画像中の任意の座標(px ,py)(但しpx とpyは整数値である)における画素値をIpx,pyとしたとき、座標(px ,py)の画素に関する勾配ベクトルgpx,pyを下記(式1)により算出する(ステップA-ST2-2)。
gpx,py =((Ipx+1,py−Ipx−1,py)/2(Ipx,py+1−Ipx,py+1)/2)t…(式1)
但し、座標(px,py)が入力画像の上下左右の端の画素を指すとき、(式1)では勾配ベクトルを求められないので、該画素に関しては、勾配ベクトルgpx,py =0とする。
【0037】
特徴抽出部23は、グレースケールに変換した入力画像の空間的領域を横wc個、縦hc個に等分割する(ステップA-ST2-3)。wcとhcは定数である。すなわち、特徴抽出部23は、パターンを所定のルール(この例の場合、パターンを横wc個、縦hc個に等分割)で分割して複数の分割領域を生成する。
【0038】
このとき、該分割領域の縦位置と横位置をそれぞれbx,by(0≦bx <wc ,0≦by <hc ,但しbx とby は整数である)とし、各領域に番号(bx+bywc)を振る。以降、該分割領域の集合をRと記す。Rは(wchc−1)個の分割領域の集合であるから、
R={R0 ,R1 ,…,Rwchc−1 }である。
【0039】
特徴抽出部23は、ステップA-ST2-3で分割した領域毎に、各領域内のすべての画素に対応する勾配ベクトルの平均を算出する(ステップA-ST2-4)。
以降、Ri(0≦i<|R|,|R|=wchc, 但しiは整数である)における平均勾配ベクトルを
【数1】
とする。ベクトルの成分の番号は0から順に始まるものとしており、
【数2】
はそれぞれRiにおける勾配ベクトルの第0番成分の平均、第1番成分の平均である。
【0040】
特徴抽出部23はステップA-ST2-4で得た平均勾配ベクトルを連結して特徴ベクトルを生成し(ステップA-ST2-5)、メモリに記憶する。すなわち特徴抽出部23は勾配ベクトルの平均値から各分割領域の特徴ベクトルを算出する。
【0041】
具体的には、下記(式2)の形式で特徴ベクトルxを得る。
【数3】
【0042】
以上のようにして特徴ベクトルを算出するものとしたとき、
【数4】
は、上記分割した領域のうち、bx=0,by=0である領域における平均勾配ベクトルの第0番成分、という特徴の種類を意味する。
【0043】
ここで、識別影響度算出部24による識別影響度算出処理(上記ステップA-ST3の処理)の詳細な動作を説明する。
【0044】
この際、識別辞書格納部25には、図5に示すように、数値(画像の被写体の種別)と、種別代表ベクトル群(種別識別情報)とが対応して記憶されているものとする。
【0045】
第1実施形態において、種別代表ベクトル群は被写体に同じ種別を割り当てた画像の集団から特徴抽出部23と同等の処理によって得られる特徴ベクトルの集合をKarhunen-Loeve展開(以下「KL展開」と称す)して得られる固有ベクトル群であり、該固有ベクトル群は事前に算出されてあるものとする。なお、該固有ベクトル群は該特徴ベクトルの集合の特徴空間上での分布を近似する空間(部分空間)の軸(基底)を意味する。
【0046】
識別影響度算出部24は、被写体の種別(整数値)をコンピュータ2の利用者に入力させるための画面を表示する。そして、この画面において、利用者がキーボードから被写体の種別(整数値)を入力すると、識別影響度算出部24は、入力された該整数値を受け付け(図4のステップA-ST3-1)、受け付けた数値に対応する種別識別情報(固有ベクトル群)を識別辞書格納部25から取得する(ステップA-ST3-2)。
【0047】
以降、該固有ベクトル群を固有ベクトルの集合としてφと記す。つまり、
【数5】
である。但しrはφに含まれる固有ベクトルの総数である。
【0048】
識別影響度算出部24は、ステップA-ST2で算出した特徴ベクトルxをメモリから読み出し、そのベクトルをφがなす部分空間に正射影し(ステップA-ST3-3)、射影ベクトルx'を得る。ただし、該射影ベクトルを特徴空間上のベクトルとして記述することにより、入力画像と前記画像の被写体の種別との類似度を分解可能にする。x’の算出方法を式で表すと(式3)となる。
【数6】
ここで<x ,φi >はx とφi の内積を表す。識別影響度算出部24は下記(式4)により入力画像と前記画像の被写体の種別との類似度を分解した形式で算出し(ステップA-ST3-4)、該分解した類似度を識別影響度としてメモリに書き込む。
【数7】
上記(式4)において、siはxの第i成分の識別影響度であり、
【数8】
また、dは特徴空間の次元数であり、第1実施形態においては、特徴空間の次元数d=2wchcである。
【0049】
続いて、図6,図7を参照して、識別影響度算出部24による識別影響度算出処理(上記ステップA-ST3の処理)の他の動作例を説明する。
【0050】
この際、識別辞書格納部25には、図7に示すように、数値(画像の被写体の種別、以降単に種別と記す)と、ベクトル値の集合(種別識別情報)とが対応して記憶されているものとする。ただし、種別識別情報は、被写体に同じ種別を割り当てた画像の集団から特徴抽出部23と同等の処理によって得られる特徴ベクトルの平均(平均ベクトル)である。
【0051】
すなわち、識別辞書格納部25に記憶される種別代表ベクトル群(種別識別情報)は該種別識別情報が対応する種別に属する画像群から算出した特徴ベクトル群を平均したベクトル(平均ベクトル)である。
【0052】
続いて、識別影響度算出部24は、ハードディスクに予め記憶された画像の被写体の種別(整数値)を読み出し(ステップA-ST3’-1)、該整数値に対応する種別識別情報(平均ベクトル)を識別辞書格納部25から取得する(ステップA-ST3’-2)。以降、該平均ベクトルをTと記すこととする。
【0053】
特徴ベクトルxと平均ベクトルTの差分ベクトルx’’=T−xを算出する(ステップA-ST3’-3)。
【0054】
特徴ベクトルxのすべての成分に関して、下記(式5)により入力画像と前記画像の被写体の種別との相違度を分解した形式で算出し(ステップA-ST3-4)、該分解した相違度を識別影響度としてメモリに書き込む。
【数9】
(式5)において、siは特徴空間の第i軸の識別影響度であり、
【数10】
【0055】
なお、ステップA-ST3-1〜A-ST3-4で算出した識別影響度の総和は部分空間法による類似度と一致することから、該識別影響度は部分空間法による類似度に対する特徴ベクトルの各成分影響度を意味している。
【0056】
また、ステップA-ST3’-1〜A-ST3’-4で算出した識別影響度の総和はxとTの特徴空間上でのユークリッド距離の2乗と一致することから、該識別影響度はユークリッド距離による相違度に対する特徴ベクトルの各成分の影響度を意味している。
【0057】
以上のように識別影響度列を算出する場合、「識別影響度は部分空間法による類似度を対象としている」、あるいは「識別影響度はユークリッド距離による相違度を対象としている」などと記すこととする。また、類似度や相違度等の入力画像の識別に利用する基準値のことをまとめて、識別の評価尺度と示したり、または単に評価尺度と示すこととする。
【0058】
識別辞書格納部25のデータ構造に関して、上記説明では種別のデータ形式を整数値としたが、他にも文字列など、入力画像の種別を区別可能なデータ形式であってもよい。
【0059】
続いて、図8のフローチャートを参照して画像生成部26による可視化画像の生成処理(ステップA-ST4の処理)を詳細に説明する。
【0060】
画像生成部26は、以下のサブステップA-ST4-1〜A-ST4-6(図8のフローチャート)を実行して可視化画像群Iv={Iv(0),Iv(1)}を生成し、メモリに記憶する。
【0061】
画像生成部26は、まず、可視化画像Iv(0),Iv(1)を初期化する。具体的には、各可視化画像を赤、緑、青の色チャネル(色区分)を持つカラー画像とし、各可視化画像の寸法を幅wc画素、高さhc画素として、可視化画像Iv(0),Iv(1)のすべての色チャネルのすべての画素の画素値に0を代入する。wcとhcはステップA-ST2-3で用いたwcとhcと同じである。
【0062】
以降、第i番の可視化画像の色チャネルcにおける任意の座標(px ,py )の画素値を
【数11】
と記す。但しiは1か0であり、cは0か1か2であり、cの各値は0=赤、1=緑、2=青であるものとする。
【0063】
続いて、画像生成部26は、可視化画像の赤チャネルに識別影響度を書き込む(ステップA-ST4-2)ことにより、識別影響度に応じた色情報を生成する。具体的には、第i番の可視化画像Iv(i)の赤チャネルの座標(px ,py )の画素の画素値
【数12】
に、ステップA-ST3で算出した第(px+(py+ihc)wc)番の識別影響度を代入する。該操作を式で表すと下記(式6)となる。
【数13】
なお記号「←」は代入操作を意味する。
【0064】
画像生成部26は、各可視化画像の各画素の画素値の範囲を、入力画像の画素値が取り得る範囲[llow ,lhigh]に変換する(ステップA-ST4-3)。例えば、下記(式7)のようにして画素値を変換する。
【数14】
【0065】
この(式7)のlmin ,lmax は、それぞれステップA-ST4-2実行直後の第i番可視化画像の赤チャネル中の画素の画素値の最大値、最小値を意味する。
【0066】
画像生成部26は、入力画像の画素値から赤、緑、青の色成分を抽出し、抽出した入力画像の色成分をそれぞれ赤、緑、青チャネル(区分)に割り当て、入力画像をカラー画像に変換する(ステップA-ST4-4)。
【0067】
入力画像がグレースケール画像や白黒画像(画素が白か黒で表される画像)であれば、該入力画像の各画素の値vを赤、緑、青チャネルそれぞれの色成分の値とする。このほか、入力画像がもともと赤、緑、青チャネルを持つカラー画像であれば、特に変換処理を行わない。
【0068】
画像生成部26は、各可視化画像を入力画像と同じ寸法に伸縮するなどして、各可視化画像の寸法(サイズ)を調整する(ステップA-ST4-5)。このとき、画像の伸縮時の画素値の補間方法として最近傍法を用いる。この他、画像の伸縮時の画素値の補間方法として、3次スプライン補間法など他の方法を用いても良い。
【0069】
最後に、画像生成部26は、各可視化画像毎に、入力画像との合成を行い(ステップA-ST4-6)、合成した画像群をメモリに記憶する。合成された画像群は新たな可視化画像群となる。
【0070】
該可視化画像と入力画像の合成にはアルファブレンディング法を用いる。アルファブレンディング法は合成する画像に重みを付け、該重み付けした画像を足し合わせることで合成画像を生成する。なお、該重みは0以上、1以下の実数値であり、各画像に付けられた重みの総和は1である。画像生成部26においては該重みはあらかじめ定めた任意の値とする。アルファブレンディング法によって合成され、生成された新たな可視化画像は、入力画像における識別影響度が高い分割領域ほど赤の輝度値が高く表示される。
【0071】
上記ステップA-ST4の説明では、識別影響度を赤チャネル(赤区分)に書き込むものとしたが、代わりに青チャネル(青区分)や緑チャネル(緑区分)に書き込んでもよく、また複数のチャネル(区分)に同時に書き込んでもよい。
【0072】
この他、合成結果に可視化画像の画素値が反映される方法であれば、他の方法で画像を合成しても良い。
【0073】
最後に、画像出力部27による可視化画像の出力処理(ステップA-ST5の処理)を詳細に説明する。画像出力部27は、可視化画像を表示装置3へ出力する。各可視化画像を例えば表示装置3へ出力し表示装置3の画面へ表示する。この他、各可視化画像をコンピュータ2に接続されたプリンタへ送り印刷してもよい。また各可視化画像をコンピュータ2に接続された例えば外付けハードディスク装置等の外部記憶装置に記憶してもよい。さらに各可視化画像をネットワーク経由で他のコンピュータへ送信し保存してもよい。
【0074】
このように、この第1実施形態の画像処理システムによれば、入力画像から得た特徴ベクトルと画像の種別を代表する情報(固有ベクトルや平均ベクトルなど)を用いて、特徴ベクトルの各成分が入力画像の識別に関わる値に影響する度合い(識別影響度)を算出するので、該特徴ベクトルの算出方法を利用する画像識別装置における画像の識別に有効な特徴を探る上での指標または指針を得ることができる。また、識別影響度列を画像化(可視化)し、入力画像と合成することにより、視覚を用いて上述した指標または指針を直感的に理解するための手掛かりを提供できる。特徴ベクトルの各成分(特徴の種類)がどれだけ識別の評価尺度に影響しているのかを可視化することにより、どの種類の特徴が識別に有効か否かを判断するための手掛かりを提供できる。
【0075】
図9は第1実施形態の処理過程で得られる画像、および数値の模式図である。図9(a)に示すように、入力画像を縦横に3分割して、9つの分割領域を生成した場合、それぞれの分割領域の特徴ベクトル成分は、図9(b)に示すように、分割領域毎に2種類の特徴値(勾配ベクトルの横方向成分と、縦方向成分)として得られる。
【0076】
この特徴値から算出した各分割領域の識別影響度は、図9(c)に示すような値となったものとする。この識別影響度から可視化した結果、つまり生成した可視化画像は、図9(d)に示すように、2つの画像が得られる。左の可視化画像はlV(0)であり、右の可視化画像はlV(1)である。
【0077】
可視化画像の輝度値が高い分割領域から得られる特徴ほど評価尺度に影響したことを意味する。それ故、可視化画像は2つとなり、それぞれが異なる種類の特徴値に関する識別影響度を示している。最終的に、入力画像と可視化画像とを合成した結果、図9(e)のような画像が得られる。
【0078】
(第2実施形態)
次に、第2実施形態を説明する。図10は第2実施形態の画像処理システムの構成を示すブロック図である。なお第1実施形態と同じ構成には同一の符号を付しその説明は省略する。
【0079】
図10に示すように、この画像処理システムは、特徴抽出装置40とネットワークを介して接続されたコンピュータ2と、このコンピュータ2に接続されたスキャナ1および表示装置3とを有している。特徴抽出装置40は、画像から処理対象の特徴ベクトルを抽出し、抽出した特徴ベクトルをコンピュータ2へ送信する。
【0080】
コンピュータ2は、特徴取得部28、識別辞書格納部25、識別影響度算出部24、画像生成部26、画像出力部27、特徴ベクトル記憶部30を有している。
【0081】
特徴取得部28は、処理対象となる特徴ベクトルを特徴抽出装置40より取得し、コンピュータ2のハードディスク装置またはメモリに設けた特徴ベクトル記憶部30に記憶する。なお特徴ベクトルは外部から取得するだけでなく、例えばコンピュータ2に予め内蔵されたハードディスク装置に記憶しておき、それを読み出すようにしてもよい。
識別影響度算出部24は、特徴ベクトル記憶部30から得られる特徴ベクトルと、識別辞書格納部25から得られる種別識別情報を用いて識別影響度列を算出し、算出した識別影響度列をメモリに記憶する。画像生成部26は識別影響度列を画像化し、該画像をメモリに記憶する。
【0082】
図11乃至図15を参照してこの第2実施形態の画像処理システムの動作を説明する。
この第2実施形態の場合、特徴取得部28は、例えばコンピュータ2に接続されたハードディスク装置の特徴ベクトル記憶部30に予め記憶しておいた特徴ベクトルを読み出して、処理対象となる特徴ベクトルを取得し(図11のステップB-ST1)、メモリに記憶する。
【0083】
なお本例ではコンピュータ2とは別に設けた特徴抽出装置40から特徴ベクトルをUSBケーブルおよびインターフェースやLANなどのネットワークを経由してコンピュータ2に取り込んだが、コンピュータ2に特徴抽出装置40を内蔵してもよい。
【0084】
上記特徴ベクトルは、次のステップFT-ST1〜FT-ST4(図12のフローチャート)を特徴抽出装置40が実行して算出され、それを特徴取得部28が取得するものとする。
第1実施形態のステップA-ST4-4と同様にして、特徴抽出装置40は入力画像を赤チャネル、緑チャネル、青チャネルを有するカラー画像(R,G,Bの画像)に変換する(ステップFT-ST1)。
【0085】
続いて、図13に示すように、入力画像の空間的領域を、例えば6つの領域Ro〜R5に分割する(ステップFT-ST2)。但し、各領域Ro〜R5は重複を許容し、図12においては重複する領域を斜線で示している。図13の中のw、hはそれぞれ入力画像の幅、高さの寸法(画素数)を意味する。
【0086】
分割した領域Ro〜R5毎に、各領域Ro〜R5内のすべての画素の画素値の平均を算出する(ステップFT-ST3)。
【0087】
以降、領域Ri(0≦i<5,但しiは整数であるものとする。)における平均画素値をベクトル形式で
【数15】
赤、緑、青チャネルの画素値の平均である。
【0088】
ステップFT-ST3で得られた平均画素値をすべて連結して特徴ベクトルを生成し(ステップFT-ST4)、メモリに記憶する。具体的には、下記(式8)の形式で特徴ベクトルxを得る。
【数16】
【0089】
識別影響度算出部24は、特徴抽出装置40が取得した特徴ベクトルと種別識別情報を用いて識別影響度列を算出し(ステップB-ST2)、メモリに記憶する。具体的には、本ステップは次のサブステップB-ST2-1〜BST2-3(図14のフローチャート)を実行する。但し、識別辞書格納部25のデータ構造は図5に示したものとする。各固有ベクトルの次元数はステップB-ST1で取得した特徴ベクトルxの次元数d(=18)である。
【0090】
識別影響度算出部24は、利用者のキーボード入力やハードディスク上の設定ファイルから種別ωα(整数値)を取得し、種別ωαに対する固有ベクトル群を読み出す。
そして、識別影響度算出部24は、識別辞書格納部25から読み出した種別ωαに対する固有ベクトル群と、特徴ベクトル記憶部30から読み出した特徴ベクトルxとを用いて識別影響度列を算出する(ステップB-ST2-1)。具体的にはサブステップA-ST3-1〜A-ST3-4の処理を実行する。但し、特徴ベクトルxは上記ステップFT-ST1〜ステップFT-ST4で算出したので、特徴空間の次元数d=18である。
【0091】
次に、識別影響度算出部24は、利用者のキーボード入力やハードディスク上の設定ファイルから種別ωβを取得し、種別ωβに対する固有ベクトル群を読み出す。
そして、識別影響度算出部24は、識別辞書格納部25から読み出した種別ωβ(整数値)に対する固有ベクトル群と、特徴ベクトルxを用いて識別影響度列を算出する(ステップB-ST2-2)。具体的にはサブステップA-ST3-1〜A-ST3-4の処理を実行する。(但しd=18)。
【0092】
識別影響度算出部24は、ステップB-ST2-1とステップB-ST2-2それぞれで算出した識別影響度列を用いて最終的な識別影響度列を算出し(ステップB-ST2-3)、メモリに記憶する。
【0093】
以降、ステップB-ST2-1とステップB-ST2-2で算出した識別影響度列のうち、特徴ベクトルの第i成分(0≦i<18,但しiは整数)に対応する識別影響度をそれぞれsα,i 、sβ,iと記す。
【0094】
識別影響度算出部24は、特徴ベクトルの各成分に関して(式9)によって最終的な識別影響度を算出する。
【数17】
この他、(式9)の代わりに下記(式10)を用いて識別影響度を算出してもよい。
【数18】
また、(式9)の代わりに下記(式11)を用いて識別影響度を算出してもよい。
【数19】
【0095】
画像生成部26は、識別影響度列を可視化し(図11のステップB-ST3)、該画像をメモリに記憶する。この際、画像生成部26は、次のサブステップB-ST3-1〜B-ST3-2(図15のフローチャート)を実行して可視化画像群Iv = {Iv(0) ,Iv(1) ,Iv(2) }を生成し、メモリに記憶する。但し、可視化画像Iv(0) ,Iv(1) ,Iv(2)はグレースケール画像であるものとする。
【0096】
画像生成部26は、3つの可視化画像Iv(0) ,Iv(1) ,Iv(2)を初期化する(ステップB-ST3-1)。具体的には、各可視化画像をグレースケール画像とし、各可視化画像の寸法は幅wv画素、高さhv画素として、すべての可視化画像のすべての画素の画素値に0を代入する。幅wvおよび高さhvは予め定めた値である。
【0097】
以降のステップでは、各可視化画像を分割領域単位で扱う。該分割領域とは、ステップB-ST2で説明した図13に示す形状の6つの領域Ro〜R5である。但し、図13に示した可視化画像の幅wをwv 、高さhをhvに置き換える。以降、第i番の可視化画像における第j番(0≦j<5)の領域をIv(i,j)と記す。但しiは0か1か2であり、jは整数であるものとする。
【0098】
画像生成部26は、各可視化画像に識別影響度列を割り当て(ステップB-ST3-2)、該可視化画像をメモリに書き込む。具体的には、Iv(i,j)に対し、ステップB-ST2で算出した第(3j+i)番識別影響度を加算する。本ステップを式で表すと下記(式12)となる。
【数20】
【0099】
識別影響度を加算するのは、図13に示す複数の空間的領域Ro〜R5同士が重複を許容しているためである。
最後に、画像出力部27は、第1実施形態で示したステップA-ST5と同様に、画像生成部26により生成された可視化画像を出力する(図11のステップB-ST4)。
【0100】
このようにこの第2実施形態によれば、コンピュータ2の外部の特徴抽出装置40から得て特徴ベクトル記憶部30に記憶しておいた特徴ベクトルxと、識別辞書格納部25から読み出した種別ωαおよび種別ωαに対する固有ベクトル群から、種別ωαと種別ωαそれぞれに対する特徴ベクトルの各成分の識別影響度を求め、入力画像の分割領域毎に種別ωαと種別ωαに対する識別影響度の差や比を出力する。つまり2つの種別間の識別影響度の差や比を出力するので、どちらの種別の識別影響度が大きいのかといった、種別間での識別影響度比較が可能となる。例えば、種別ωαを正解種別、種別ωβをコンピュータ2以外のパターン認識(画像識別)装置が誤識別し易い種別とすることにより、該コンピュータ2以外の画像識別装置における誤識別の原因を探る上での指針を得ることが可能になる。また識別影響度列は可視化されるので、種別間の識別影響度の差や比を観察することにより、どのような特徴がどれだけ2つの種別の違いを表しているかといった情報を視覚を用いて直感的に知ることができ、識別影響度の対象となった評価尺度を利用する画像識別装置における特徴抽出方法や評価尺度算出アルゴリズムの改善につながる。
【0101】
(第3実施形態)
図面を参照して第3実施形態の画像処理システムを説明する。図16は第3実施形態の画像処理システムの構成を示すブロック図である。
【0102】
図16に示すように、第3実施形態の画像処理システムは、特徴抽出装置40とネットワークを介して接続されたコンピュータ2と、このコンピュータ2に接続されたスキャナ1および表示装置3とを有している。特徴抽出装置40は、処理対象の特徴ベクトルをコンピュータ2へ送信する。
【0103】
コンピュータ2は、識別影響度算出部24、識別辞書格納部25、特徴取得部28、部分空間射影部29、特徴ベクトル記憶部30と、識別影響度出力部31を有している。
【0104】
特徴取得部28は、処理対象となる特徴ベクトルを特徴抽出装置40より取得し、コンピュータ2のハードディスク装置またはメモリに設けた特徴ベクトル記憶部30に記憶する。なお特徴ベクトルは外部から取得するだけでなく、例えばコンピュータ2に予め内蔵されたハードディスク装置に記憶しておき、それを読み出すようにしてもよい。
【0105】
識別影響度算出部24は、識別辞書格納部25から読み出した、種別ωαに対する固有ベクトル群(種別識別情報)と、特徴ベクトル記憶部30から読み出した特徴ベクトルxとを用いて識別影響度列を算出し、メモリに記憶する。部分空間射影部29は、入力された種別(整数値)を受け付け、受け付けた種別に対応する固有ベクトル群(種別識別情報)を識別辞書格納部25から取得する。部分空間射影部29は識別影響度算出部24の内部にある。部分空間射影部29は、特徴ベクトルxをメモリから読み出し、そのベクトルを、φがなす部分空間に正射影し、射影ベクトルx’を得て識別影響度算出部24へ出力する。識別影響度出力部31はメモリから識別影響度列を読み出して外部へ出力する。他の構成要素の機能は上記第1及び第2実施形態と同様でありその説明は省略する。
【0106】
図17、図4、図18のフローチャートを参照して第3実施形態の動作を詳細に説明する。
【0107】
この第3実施形態の場合、コンピュータ2外部の特徴抽出装置40から特徴取得部28が取得し、ハードディスク装置の特徴ベクトル記憶部30に予め記憶しておいた特徴ベクトルを読み出すことによって、処理対象となる特徴ベクトルを取得し(図17のステップC-ST1)、メモリに記憶する。
【0108】
識別影響度算出部24は、特徴ベクトルと2つの種別に対応する種別識別情報を用いて識別影響度列を算出し(ステップC-ST2)、メモリに記憶する。具体的には、部分空間射影部29を呼び出し、その処理結果を用いて図18のフローチャートに示すサブステップC-ST2-1〜C-ST2-3を実行し、識別影響度列を算出する。このとき、識別辞書格納部25には、図5に示したデータが記憶されているものとする。また固有ベクトル群の各固有ベクトルの次元数はステップC-ST1で取得した特徴ベクトルと同じである。
【0109】
識別影響度算出部24は、まず部分空間射影部29を呼び出し、部分空間射影部29から出力された射影ベクトルx’、つまり戻り値をベクトルx’αに代入する(ステップC-ST2-1)。
【0110】
続いて、識別影響度算出部24は、部分空間射影部29を呼び出し、部分空間射影部29から出力された射影ベクトルx’、つまり戻り値をベクトルx’βに代入する(ステップC-ST2-2)。
【0111】
そして、識別影響度算出部24は、これら2つの射影ベクトル(ベクトルx’αとベクトルx’β)を用いて識別影響度列を算出し(ステップC-ST2-3)、メモリに書き込む。
以降、ベクトルx’αとベクトルx’βの第i成分(0≦i<18,但しiは整数)をそれぞれ、x’αi,x’βiと記す。
【0112】
例えば特徴ベクトルxのすべての成分に関して、下記(式13)によって1つの識別影響度を算出する。
【数21】
この他、(式13)の代わりに(式14)を用いて識別影響度を算出してもよい。
【数22】
また、(式13)の代わりに(式15)を用いて識別影響度を算出してもよい。
【数23】
【0113】
部分空間射影部29は、図4に示したフローチャートの処理ステップA-ST3-1〜ステップA-ST3-3を実行する。但し、この第3実施形態ではステップA-ST3-3における特徴ベクトルxは、図18の処理ステップC-ST1で取得した特徴ベクトルである。以上の処理で部分空間射影部29は、部分空間射影を終了し、射影ベクトルx’を識別影響度算出部24へ出力する。
【0114】
ステップC-ST2の種別識別影響度算出処理で、識別影響度算出部24により算出される識別影響度は、識別影響度が対象とする評価尺度の種別間での差や比等に対する、特徴ベクトルの各成分の影響度を意味する。
【0115】
識別影響度出力部31は、識別影響度算出部24により算出された識別影響度列を外部へ出力する(ステップC-ST3)。一例としては、識別影響度列を数字列として表示装置3へ出力し、表示装置3の画面に識別影響度列の数字列を表示する。
【0116】
この他、識別影響度列を、例えば数字の列としてコンピュータ2に接続されたプリンタへ出力し、識別影響度列の数字列を印刷してもよい。また識別影響度列をコンピュータ2に接続されたハードディスク装置へ記憶してもよい。さらに識別影響度列をネットワーク経由で他のコンピュータへ送信してもよい。
【0117】
このようにこの第3実施形態によれば、コンピュータ2以外で行うパターン認識(画像識別)における誤識別の原因を探る上での指針を得ることが可能になる。具体的には、識別影響度が対象とする評価尺度の差や比に対する、特徴ベクトルの各成分の影響度を出力するので、どの種類の特徴がどれだけ種別同士の違いを表しているかを知ることが可能になる。
【0118】
例えば1つの種別を正解の種別、他の1つの種別を誤識別する可能性が高い種別として、2種別間の違いを出力することで、どの種類の特徴が誤識別にどれだけ影響したかを可視化することができる。したがって、可視化画像を観察することで、どの種類の特徴が誤識別に起因しているかを知る手掛かりを得ることが可能になり、識別影響度の対象となった評価尺度を利用する画像識別装置における特徴抽出方法や評価尺度算出アルゴリズムの改善につながる。
【0119】
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【0120】
すなわち、本願発明は、上記実施形態のみに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を削減したり組み合わせたりするなどして変型してもよい。例えば各構成要素を、コンピュータのハードディスク装置などのストレージにインストールしたプログラムで実現してもよく、また上記プログラムを、コンピュータ読取可能な電子媒体:electronic mediaに記憶しておき、プログラムを電子媒体からコンピュータに読み取らせることで本発明の機能をコンピュータが実現するようにしてもよい。
【0121】
電子媒体としては、例えばCD−ROM等の記録媒体やフラッシュメモリ、リムーバブルメディア:Removable media等が含まれる。さらに、ネットワークを介して接続した異なるコンピュータに構成要素を分散して記憶し、各構成要素を機能させたコンピュータ間で通信することで実現してもよい。
【0122】
上記実施形態では画像を処理対象としたが、それ自身をパターンとして記述できるものであれば、処理対象は画像以外でも良く、例えば音声波形などがこれに含まれる。
【符号の説明】
【0123】
1…スキャナ、2…コンピュータ、3…表示装置、21…画像受付部、22…画像記憶部、23…特徴抽出部、24…識別影響度算出部、25…識別辞書格納部、26…画像生成部、27…画像出力部、28…特徴入力部、29…部分空間射影部、30…特徴ベクトル記憶部、31…識別影響度出力部。
【技術分野】
【0001】
本発明は、例えば文字、図形および音声などのパターンから抽出する特徴の有効性を判断するための情報処理装置および情報処理方法に関する。
【背景技術】
【0002】
文字や図形などのパターンが描かれている帳票をスキャナなどで読み取り、帳票に描かれている元のパターンを認識するパターン認識装置がある。
【0003】
このパターン認識装置では、パターン認識の際には、画像から認識対象のパターンが存在するエリアを切り出して、そのエリアの画像から抽出した特徴が予めパターン辞書に記憶されている参照パターンの特徴とどの程度類似しているかを判定し、帳票に描かれているパターンを特定する。
【0004】
このため、画像から抽出した特徴がパターン識別にどれだけ有効かどうかを検証することが極めて重要な課題となる。
【0005】
特徴抽出に関する従来の技術として、例えば処理対象の画像の画素ごとに特徴を形成し、該特徴が質的性質や量的性質が予め定めた条件を満たすとき、該特徴に対応する処理対象の画像の画素を色付けする技術が既に公開されている(例えば特許文献1参照)。
【0006】
この特許文献1の技術では、質的性質のことを濃淡情報、位置情報、方向情報等としている。また、量的性質のことを特徴量の大きさとしている。またこの特許文献1では、色付けされた画像を目視することにより、誤認識の原因解明に必要な情報が得られるとしている。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】特開2008−3730号公報
【発明の概要】
【発明が解決しようとする課題】
【0008】
しかしながら、上記特許文献1に記載されている従来の技術の場合、処理対象の画像から抽出した特徴の性質については表わされるものの、特徴が画像識別にどれだけ有効かどうかといったことまでは判らないという問題がある。
【0009】
また、特許文献1の技術の場合、適用可能な特徴抽出の方法は、画素単位で特徴を形成する方法に限定されるため、画素の集合に対する特徴を形成する場合には適用できないという問題があった。
【0010】
なお、上述した先行技術文献1には、特徴評価で得られた特徴の評価値や識別過程の分析で得られた特徴の有効性の度合いに従って処理対象の画像を色付けすることが可能という記載はあるものの、その技術についての具体的な記述はない。
【0011】
本発明はこのような課題を解決するためになされたもので、ある特徴抽出方法によって算出されたパターンの特徴がパターン認識にどれだけ有効か否か、または特徴がパターンの誤認識にどれだけ影響したか、を判別するための定量的な情報を提供することのできる情報処理装置および情報処理方法を提供することを目的とする。
【課題を解決するための手段】
【0012】
上記の課題を解決するために、本発明の情報処理装置は、処理対象のパターンを取得する取得部と、前記取得部から得た前記パターンの特徴を示す特徴ベクトルを算出する特徴算出部と、識別候補の種別と該識別候補の代表ベクトルの集合とが対応して記憶された辞書格納部と、前記代表ベクトルの集合と前記特徴ベクトルとから得られる前記処理対象と識別候補との類似度あるいは相違度を前記特徴ベクトルの各成分に対応するように分解し、該分解した値を前記特徴ベクトルの各成分がパターンの識別に影響する度合いとして算出する識別影響度算出部とを具備することを特徴とする。
【0013】
本発明の情報処理方法は、処理対象のパターンを取得するステップと、前記取得部から得た前記パターンの特徴を示す特徴ベクトルを算出するステップと、識別候補の種別と該識別候補の代表ベクトルの集合とが対応して記憶された辞書格納部から該代表ベクトルの集合を取得し、該代表ベクトルの集合と前記特徴ベクトルとから得られる前記処理対象と識別候補との類似度あるいは相違度を前記特徴ベクトルの各成分に対応するように分解し、該分解した値を前記特徴ベクトルの各成分がパターンの識別に影響する度合いとして算出するステップとを有することを特徴とする
【発明の効果】
【0014】
本発明によれば、ある特徴抽出方法によって算出されたパターンの特徴がパターン認識にどれだけ有効か否か、または特徴がパターンの誤認識にどれだけ影響したか、を判別するための定量的な情報を提供することができる。
【図面の簡単な説明】
【0015】
【図1】第1実施形態の画像処理システムの構成を示す図である。
【図2】第1実施形態の画像処理システムの動作を示すフローチャートである。
【図3】特徴ベクトル算出処理を示すフローチャートである。
【図4】識別影響度算出処理を示すフローチャートである。
【図5】識別辞書格納部に格納されているデータを示す図である。
【図6】識別影響度算出処理の他の例を示すフローチャートである。
【図7】識別辞書格納部のデータの他の例を示す図である。
【図8】可視化画像群の生成処理を示すフローチャートである。
【図9】第1実施形態の処理過程で得られる画像および数値の模式図である。
【図10】第2実施形態の画像処理システムの構成を示すブロック図である。
【図11】第2実施形態の画像処理システムの動作を示すフローチャートである。
【図12】特徴ベクトル算出処理を示すフローチャートである。
【図13】特徴ベクトル算出処理の際に参照する画像の分割領域を示す図である。
【図14】識別影響度算出処理を示すフローチャートである。
【図15】可視化画像群の生成処理を示すフローチャートである。
【図16】第3実施形態の画像処理システムの構成を示すブロック図である。
【図17】第3実施形態の画像処理システムの動作を示すフローチャートである。
【図18】部分空間射影処理を示すフローチャートである。
【発明を実施するための形態】
【0016】
以下、図面を参照して一つの実施の形態の画像処理システムについて詳細に説明する。(第1実施形態)
図1は本発明の情報処理装置に係る第1実施形態の画像処理システムの構成を示すブロック図である。
【0017】
図1に示すように、この画像処理システムは、入力装置としてのスキャナ1と、このスキャナ1に接続されたコンピュータ2と、このコンピュータ2に接続された出力装置としての表示装置3とを備えている。コンピュータ2は、CPU、メモリ、ハードディスク装置、外部インターフェースなどの汎用的なハードウェアを備えるものである。
【0018】
スキャナ1は、例えばフラットベッド型や自動給紙型などのスキャナであり、ラインセンサなどの読取部にセットされた帳票を読み取り、読み取った帳票の画像(以下「入力画像」または処理対象の画像などと称す)をコンピュータ2に入力する。この他、コンピュータ2にはキーボード及びマウスなどの入力装置が接続されており、ユーザの操作による指示をコンピュータ2に入力する。入力装置としては、キーボード以外に、任意の指示情報が設定された設定ファイルなどであってもよい。表示装置3は、コンピュータ2から出力される情報を表示する。
【0019】
コンピュータ2は、画像受付部21、画像記憶部22、特徴抽出部23、識別辞書格納部25、識別影響度算出部24、画像生成部26、画像出力部27などを有している。画像記憶部22と識別辞書格納部25はメモリまたはハードディスク装置により実現される。その他の構成、つまり画像受付部21、特徴抽出部23、識別影響度算出部24、画像生成部26および画像出力部27などは、ハードディスク装置にインストールされた画像処理プログラムの機能の一つとして実現される。
【0020】
画像受付部21はスキャナ1から入力される処理対象の画像(文字や図形のパターン以下「入力画像」と称す)を受け付け(取得し)、受け付けた(取得した)画像を画像記憶部22に記憶する。すなわち画像受付部21は処理対象のパターンを取得する取得部として機能する。
【0021】
特徴抽出部23は、入力画像を画像記憶部22から読み出して、その入力画像の画素情報から被写体の特徴をベクトル形式で表す計算を行い、該ベクトル(特徴ベクトル)をメモリに記憶する。
【0022】
特徴抽出部23は、画像を所定のルールで分割した各分割領域毎に、その領域の特徴を示す第1の特徴ベクトルを算出する特徴算出部として機能する。
【0023】
識別辞書格納部25には、画像の被写体の種別と、該種別を特徴付ける情報(種別識別情報)との対が複数記憶されている。画像の被写体の種別とは、例えば「1」という文字であれば「1」という数字(文字種)を示し、猫の画像であれば「猫」がこれに該当する。種別識別情報は前記種別を代表するベクトル群(種別代表ベクトル群)である。ただし、種別代表ベクトル群は1つの代表ベクトルだけで構成することもできる。すなわち識別辞書格納部25は、参照用のパターンの種別とその種別に対応する種別代表ベクトル群とが対応して記憶された辞書格納部として機能する。
【0024】
識別影響度算出部24は、特徴抽出部23により抽出された入力画像の特徴ベクトルと、識別辞書格納部25の種別識別情報を用いて、処理対象のパターンと参照用のパターンとの分解された類似度あるいは相違度を算出し、該分解した値を前記特徴ベクトルの各成分が入力画像の識別にどれだけ影響するかの度合いを示す識別影響度として算出する。
【0025】
画像生成部26は入力画像の空間的領域を分割した領域(分割領域)と識別影響度とを対応付け、識別影響度に応じた色情報を生成することにより、前記対応付けを可視化した画像(可視化画像)を生成し、メモリに記憶する。入力画像の空間的領域とは該画像を構成する全画素の集合のことである。
【0026】
入力画像は図13に示すように形状がランダムな領域に分割してもよく、また同じ大きさの矩形の小領域に定型的に分割してもよい。
処理対象のパターンは入力画像の画素であるから、前記分割領域からは処理対象のパターンを分割したパターンが得られる。以降、該分割したパターンのことを分割パターンと記すものとする。すなわち、画像生成部26は前記識別影響度算出部により算出された識別影響度に応じた色情報を生成し、該色情報を各分割パターンに対応付け、該色情報と分割パターンとの色情報の対応を示す画像を生成する。
【0027】
画像出力部27は画像生成部26により可視化された画像をメモリから読み出して表示装置3へ出力し表示装置3の画面に表示する。識別対象の入力画像の個々の分割領域に対応する識別影響度の大小は前記色情報によって視覚できる形式で表現されているため、どのような前記分割領域が識別に有効に働いているか否かを視覚的に把握できるようになる。これにより、処理対象のパターンの識別に有効な特徴を把握するための目安が明確になり、例えば特徴抽出方法の改善に役立つ。
【0028】
続いて、図2乃至図8を参照して第1実施形態の画像処理システムの動作を説明する。この画像処理システムの場合、スキャナ1が帳票の画像を読み取ってコンピュータ2に入力すると、その帳票の画像は画像受付部21により受け付けられて、画像記憶部22に記憶される(ステップA-ST1)。
【0029】
具体的にはコンピュータ2に接続されたスキャナ1により読み取りコンピュータ2へ入力し、ハードディスク装置に書き込む。スキャナ1を用いない方法としては、例えばコンピュータ2のハードディスク装置の画像記憶部22に予め処理対象のパターンが描かれた画像(入力画像)を記憶しておき、その入力画像をハードディスク装置から読み出しメモリに書き込んでもよい。また入力画像を、ネットワーク上のサーバコンピュータやNASなどの記憶装置に記憶しておき、記憶装置の入力画像を、ネットワークを経由してコンピュータ2へ送り、コンピュータ2の画像受付部21が画像記憶部22に記憶してもよい。
【0030】
次に、特徴抽出部23は、メモリから入力画像を読み出して、その入力画像の特徴ベクトルを算出し(ステップA-ST2)、メモリに記憶する。
【0031】
続いて、識別影響度算出部24は、ステップA-ST2でメモリに記憶された特徴ベクトルと識別辞書格納部25に格納された種別代表ベクトル群を用いて識別影響度列、すなわち1つかそれ以上の識別影響度を算出し(ステップA-ST3)、メモリに記憶する。
【0032】
画像生成部26は、入力画像をメモリから読み出して、入力画像の分割領域と識別影響度とを対応付けて可視化画像を生成し(ステップA-ST4)、メモリに記憶する。
【0033】
画像出力部27は、画像生成部26により生成された可視化画像をメモリから読み出して表示装置3へ出力する(ステップA-ST5)。
【0034】
ここで、上記各ステップの処理の詳細を説明する。まずステップA-ST2の特徴ベクトル算出処理について説明する。
【0035】
図3に示すように、特徴抽出部23は、入力画像をグレースケール画像に変換する。具体的には、入力画像のすべての画素に関して、画素値に含まれる赤、青、緑といった色を区別する情報を取り除いて明暗情報だけを残すことにより、入力画像をグレースケール画像に変換する(ステップA-ST2-1)。
【0036】
次に、特徴抽出部23は、グレースケールに変換した入力画像のすべての画素に関して、画素値の勾配ベクトルを算出する。勾配ベクトルは画素の明暗の濃淡値が、2次元平面上でどの方向に変化しているかを示すベクトルである。該グレースケール画像中の任意の座標(px ,py)(但しpx とpyは整数値である)における画素値をIpx,pyとしたとき、座標(px ,py)の画素に関する勾配ベクトルgpx,pyを下記(式1)により算出する(ステップA-ST2-2)。
gpx,py =((Ipx+1,py−Ipx−1,py)/2(Ipx,py+1−Ipx,py+1)/2)t…(式1)
但し、座標(px,py)が入力画像の上下左右の端の画素を指すとき、(式1)では勾配ベクトルを求められないので、該画素に関しては、勾配ベクトルgpx,py =0とする。
【0037】
特徴抽出部23は、グレースケールに変換した入力画像の空間的領域を横wc個、縦hc個に等分割する(ステップA-ST2-3)。wcとhcは定数である。すなわち、特徴抽出部23は、パターンを所定のルール(この例の場合、パターンを横wc個、縦hc個に等分割)で分割して複数の分割領域を生成する。
【0038】
このとき、該分割領域の縦位置と横位置をそれぞれbx,by(0≦bx <wc ,0≦by <hc ,但しbx とby は整数である)とし、各領域に番号(bx+bywc)を振る。以降、該分割領域の集合をRと記す。Rは(wchc−1)個の分割領域の集合であるから、
R={R0 ,R1 ,…,Rwchc−1 }である。
【0039】
特徴抽出部23は、ステップA-ST2-3で分割した領域毎に、各領域内のすべての画素に対応する勾配ベクトルの平均を算出する(ステップA-ST2-4)。
以降、Ri(0≦i<|R|,|R|=wchc, 但しiは整数である)における平均勾配ベクトルを
【数1】
とする。ベクトルの成分の番号は0から順に始まるものとしており、
【数2】
はそれぞれRiにおける勾配ベクトルの第0番成分の平均、第1番成分の平均である。
【0040】
特徴抽出部23はステップA-ST2-4で得た平均勾配ベクトルを連結して特徴ベクトルを生成し(ステップA-ST2-5)、メモリに記憶する。すなわち特徴抽出部23は勾配ベクトルの平均値から各分割領域の特徴ベクトルを算出する。
【0041】
具体的には、下記(式2)の形式で特徴ベクトルxを得る。
【数3】
【0042】
以上のようにして特徴ベクトルを算出するものとしたとき、
【数4】
は、上記分割した領域のうち、bx=0,by=0である領域における平均勾配ベクトルの第0番成分、という特徴の種類を意味する。
【0043】
ここで、識別影響度算出部24による識別影響度算出処理(上記ステップA-ST3の処理)の詳細な動作を説明する。
【0044】
この際、識別辞書格納部25には、図5に示すように、数値(画像の被写体の種別)と、種別代表ベクトル群(種別識別情報)とが対応して記憶されているものとする。
【0045】
第1実施形態において、種別代表ベクトル群は被写体に同じ種別を割り当てた画像の集団から特徴抽出部23と同等の処理によって得られる特徴ベクトルの集合をKarhunen-Loeve展開(以下「KL展開」と称す)して得られる固有ベクトル群であり、該固有ベクトル群は事前に算出されてあるものとする。なお、該固有ベクトル群は該特徴ベクトルの集合の特徴空間上での分布を近似する空間(部分空間)の軸(基底)を意味する。
【0046】
識別影響度算出部24は、被写体の種別(整数値)をコンピュータ2の利用者に入力させるための画面を表示する。そして、この画面において、利用者がキーボードから被写体の種別(整数値)を入力すると、識別影響度算出部24は、入力された該整数値を受け付け(図4のステップA-ST3-1)、受け付けた数値に対応する種別識別情報(固有ベクトル群)を識別辞書格納部25から取得する(ステップA-ST3-2)。
【0047】
以降、該固有ベクトル群を固有ベクトルの集合としてφと記す。つまり、
【数5】
である。但しrはφに含まれる固有ベクトルの総数である。
【0048】
識別影響度算出部24は、ステップA-ST2で算出した特徴ベクトルxをメモリから読み出し、そのベクトルをφがなす部分空間に正射影し(ステップA-ST3-3)、射影ベクトルx'を得る。ただし、該射影ベクトルを特徴空間上のベクトルとして記述することにより、入力画像と前記画像の被写体の種別との類似度を分解可能にする。x’の算出方法を式で表すと(式3)となる。
【数6】
ここで<x ,φi >はx とφi の内積を表す。識別影響度算出部24は下記(式4)により入力画像と前記画像の被写体の種別との類似度を分解した形式で算出し(ステップA-ST3-4)、該分解した類似度を識別影響度としてメモリに書き込む。
【数7】
上記(式4)において、siはxの第i成分の識別影響度であり、
【数8】
また、dは特徴空間の次元数であり、第1実施形態においては、特徴空間の次元数d=2wchcである。
【0049】
続いて、図6,図7を参照して、識別影響度算出部24による識別影響度算出処理(上記ステップA-ST3の処理)の他の動作例を説明する。
【0050】
この際、識別辞書格納部25には、図7に示すように、数値(画像の被写体の種別、以降単に種別と記す)と、ベクトル値の集合(種別識別情報)とが対応して記憶されているものとする。ただし、種別識別情報は、被写体に同じ種別を割り当てた画像の集団から特徴抽出部23と同等の処理によって得られる特徴ベクトルの平均(平均ベクトル)である。
【0051】
すなわち、識別辞書格納部25に記憶される種別代表ベクトル群(種別識別情報)は該種別識別情報が対応する種別に属する画像群から算出した特徴ベクトル群を平均したベクトル(平均ベクトル)である。
【0052】
続いて、識別影響度算出部24は、ハードディスクに予め記憶された画像の被写体の種別(整数値)を読み出し(ステップA-ST3’-1)、該整数値に対応する種別識別情報(平均ベクトル)を識別辞書格納部25から取得する(ステップA-ST3’-2)。以降、該平均ベクトルをTと記すこととする。
【0053】
特徴ベクトルxと平均ベクトルTの差分ベクトルx’’=T−xを算出する(ステップA-ST3’-3)。
【0054】
特徴ベクトルxのすべての成分に関して、下記(式5)により入力画像と前記画像の被写体の種別との相違度を分解した形式で算出し(ステップA-ST3-4)、該分解した相違度を識別影響度としてメモリに書き込む。
【数9】
(式5)において、siは特徴空間の第i軸の識別影響度であり、
【数10】
【0055】
なお、ステップA-ST3-1〜A-ST3-4で算出した識別影響度の総和は部分空間法による類似度と一致することから、該識別影響度は部分空間法による類似度に対する特徴ベクトルの各成分影響度を意味している。
【0056】
また、ステップA-ST3’-1〜A-ST3’-4で算出した識別影響度の総和はxとTの特徴空間上でのユークリッド距離の2乗と一致することから、該識別影響度はユークリッド距離による相違度に対する特徴ベクトルの各成分の影響度を意味している。
【0057】
以上のように識別影響度列を算出する場合、「識別影響度は部分空間法による類似度を対象としている」、あるいは「識別影響度はユークリッド距離による相違度を対象としている」などと記すこととする。また、類似度や相違度等の入力画像の識別に利用する基準値のことをまとめて、識別の評価尺度と示したり、または単に評価尺度と示すこととする。
【0058】
識別辞書格納部25のデータ構造に関して、上記説明では種別のデータ形式を整数値としたが、他にも文字列など、入力画像の種別を区別可能なデータ形式であってもよい。
【0059】
続いて、図8のフローチャートを参照して画像生成部26による可視化画像の生成処理(ステップA-ST4の処理)を詳細に説明する。
【0060】
画像生成部26は、以下のサブステップA-ST4-1〜A-ST4-6(図8のフローチャート)を実行して可視化画像群Iv={Iv(0),Iv(1)}を生成し、メモリに記憶する。
【0061】
画像生成部26は、まず、可視化画像Iv(0),Iv(1)を初期化する。具体的には、各可視化画像を赤、緑、青の色チャネル(色区分)を持つカラー画像とし、各可視化画像の寸法を幅wc画素、高さhc画素として、可視化画像Iv(0),Iv(1)のすべての色チャネルのすべての画素の画素値に0を代入する。wcとhcはステップA-ST2-3で用いたwcとhcと同じである。
【0062】
以降、第i番の可視化画像の色チャネルcにおける任意の座標(px ,py )の画素値を
【数11】
と記す。但しiは1か0であり、cは0か1か2であり、cの各値は0=赤、1=緑、2=青であるものとする。
【0063】
続いて、画像生成部26は、可視化画像の赤チャネルに識別影響度を書き込む(ステップA-ST4-2)ことにより、識別影響度に応じた色情報を生成する。具体的には、第i番の可視化画像Iv(i)の赤チャネルの座標(px ,py )の画素の画素値
【数12】
に、ステップA-ST3で算出した第(px+(py+ihc)wc)番の識別影響度を代入する。該操作を式で表すと下記(式6)となる。
【数13】
なお記号「←」は代入操作を意味する。
【0064】
画像生成部26は、各可視化画像の各画素の画素値の範囲を、入力画像の画素値が取り得る範囲[llow ,lhigh]に変換する(ステップA-ST4-3)。例えば、下記(式7)のようにして画素値を変換する。
【数14】
【0065】
この(式7)のlmin ,lmax は、それぞれステップA-ST4-2実行直後の第i番可視化画像の赤チャネル中の画素の画素値の最大値、最小値を意味する。
【0066】
画像生成部26は、入力画像の画素値から赤、緑、青の色成分を抽出し、抽出した入力画像の色成分をそれぞれ赤、緑、青チャネル(区分)に割り当て、入力画像をカラー画像に変換する(ステップA-ST4-4)。
【0067】
入力画像がグレースケール画像や白黒画像(画素が白か黒で表される画像)であれば、該入力画像の各画素の値vを赤、緑、青チャネルそれぞれの色成分の値とする。このほか、入力画像がもともと赤、緑、青チャネルを持つカラー画像であれば、特に変換処理を行わない。
【0068】
画像生成部26は、各可視化画像を入力画像と同じ寸法に伸縮するなどして、各可視化画像の寸法(サイズ)を調整する(ステップA-ST4-5)。このとき、画像の伸縮時の画素値の補間方法として最近傍法を用いる。この他、画像の伸縮時の画素値の補間方法として、3次スプライン補間法など他の方法を用いても良い。
【0069】
最後に、画像生成部26は、各可視化画像毎に、入力画像との合成を行い(ステップA-ST4-6)、合成した画像群をメモリに記憶する。合成された画像群は新たな可視化画像群となる。
【0070】
該可視化画像と入力画像の合成にはアルファブレンディング法を用いる。アルファブレンディング法は合成する画像に重みを付け、該重み付けした画像を足し合わせることで合成画像を生成する。なお、該重みは0以上、1以下の実数値であり、各画像に付けられた重みの総和は1である。画像生成部26においては該重みはあらかじめ定めた任意の値とする。アルファブレンディング法によって合成され、生成された新たな可視化画像は、入力画像における識別影響度が高い分割領域ほど赤の輝度値が高く表示される。
【0071】
上記ステップA-ST4の説明では、識別影響度を赤チャネル(赤区分)に書き込むものとしたが、代わりに青チャネル(青区分)や緑チャネル(緑区分)に書き込んでもよく、また複数のチャネル(区分)に同時に書き込んでもよい。
【0072】
この他、合成結果に可視化画像の画素値が反映される方法であれば、他の方法で画像を合成しても良い。
【0073】
最後に、画像出力部27による可視化画像の出力処理(ステップA-ST5の処理)を詳細に説明する。画像出力部27は、可視化画像を表示装置3へ出力する。各可視化画像を例えば表示装置3へ出力し表示装置3の画面へ表示する。この他、各可視化画像をコンピュータ2に接続されたプリンタへ送り印刷してもよい。また各可視化画像をコンピュータ2に接続された例えば外付けハードディスク装置等の外部記憶装置に記憶してもよい。さらに各可視化画像をネットワーク経由で他のコンピュータへ送信し保存してもよい。
【0074】
このように、この第1実施形態の画像処理システムによれば、入力画像から得た特徴ベクトルと画像の種別を代表する情報(固有ベクトルや平均ベクトルなど)を用いて、特徴ベクトルの各成分が入力画像の識別に関わる値に影響する度合い(識別影響度)を算出するので、該特徴ベクトルの算出方法を利用する画像識別装置における画像の識別に有効な特徴を探る上での指標または指針を得ることができる。また、識別影響度列を画像化(可視化)し、入力画像と合成することにより、視覚を用いて上述した指標または指針を直感的に理解するための手掛かりを提供できる。特徴ベクトルの各成分(特徴の種類)がどれだけ識別の評価尺度に影響しているのかを可視化することにより、どの種類の特徴が識別に有効か否かを判断するための手掛かりを提供できる。
【0075】
図9は第1実施形態の処理過程で得られる画像、および数値の模式図である。図9(a)に示すように、入力画像を縦横に3分割して、9つの分割領域を生成した場合、それぞれの分割領域の特徴ベクトル成分は、図9(b)に示すように、分割領域毎に2種類の特徴値(勾配ベクトルの横方向成分と、縦方向成分)として得られる。
【0076】
この特徴値から算出した各分割領域の識別影響度は、図9(c)に示すような値となったものとする。この識別影響度から可視化した結果、つまり生成した可視化画像は、図9(d)に示すように、2つの画像が得られる。左の可視化画像はlV(0)であり、右の可視化画像はlV(1)である。
【0077】
可視化画像の輝度値が高い分割領域から得られる特徴ほど評価尺度に影響したことを意味する。それ故、可視化画像は2つとなり、それぞれが異なる種類の特徴値に関する識別影響度を示している。最終的に、入力画像と可視化画像とを合成した結果、図9(e)のような画像が得られる。
【0078】
(第2実施形態)
次に、第2実施形態を説明する。図10は第2実施形態の画像処理システムの構成を示すブロック図である。なお第1実施形態と同じ構成には同一の符号を付しその説明は省略する。
【0079】
図10に示すように、この画像処理システムは、特徴抽出装置40とネットワークを介して接続されたコンピュータ2と、このコンピュータ2に接続されたスキャナ1および表示装置3とを有している。特徴抽出装置40は、画像から処理対象の特徴ベクトルを抽出し、抽出した特徴ベクトルをコンピュータ2へ送信する。
【0080】
コンピュータ2は、特徴取得部28、識別辞書格納部25、識別影響度算出部24、画像生成部26、画像出力部27、特徴ベクトル記憶部30を有している。
【0081】
特徴取得部28は、処理対象となる特徴ベクトルを特徴抽出装置40より取得し、コンピュータ2のハードディスク装置またはメモリに設けた特徴ベクトル記憶部30に記憶する。なお特徴ベクトルは外部から取得するだけでなく、例えばコンピュータ2に予め内蔵されたハードディスク装置に記憶しておき、それを読み出すようにしてもよい。
識別影響度算出部24は、特徴ベクトル記憶部30から得られる特徴ベクトルと、識別辞書格納部25から得られる種別識別情報を用いて識別影響度列を算出し、算出した識別影響度列をメモリに記憶する。画像生成部26は識別影響度列を画像化し、該画像をメモリに記憶する。
【0082】
図11乃至図15を参照してこの第2実施形態の画像処理システムの動作を説明する。
この第2実施形態の場合、特徴取得部28は、例えばコンピュータ2に接続されたハードディスク装置の特徴ベクトル記憶部30に予め記憶しておいた特徴ベクトルを読み出して、処理対象となる特徴ベクトルを取得し(図11のステップB-ST1)、メモリに記憶する。
【0083】
なお本例ではコンピュータ2とは別に設けた特徴抽出装置40から特徴ベクトルをUSBケーブルおよびインターフェースやLANなどのネットワークを経由してコンピュータ2に取り込んだが、コンピュータ2に特徴抽出装置40を内蔵してもよい。
【0084】
上記特徴ベクトルは、次のステップFT-ST1〜FT-ST4(図12のフローチャート)を特徴抽出装置40が実行して算出され、それを特徴取得部28が取得するものとする。
第1実施形態のステップA-ST4-4と同様にして、特徴抽出装置40は入力画像を赤チャネル、緑チャネル、青チャネルを有するカラー画像(R,G,Bの画像)に変換する(ステップFT-ST1)。
【0085】
続いて、図13に示すように、入力画像の空間的領域を、例えば6つの領域Ro〜R5に分割する(ステップFT-ST2)。但し、各領域Ro〜R5は重複を許容し、図12においては重複する領域を斜線で示している。図13の中のw、hはそれぞれ入力画像の幅、高さの寸法(画素数)を意味する。
【0086】
分割した領域Ro〜R5毎に、各領域Ro〜R5内のすべての画素の画素値の平均を算出する(ステップFT-ST3)。
【0087】
以降、領域Ri(0≦i<5,但しiは整数であるものとする。)における平均画素値をベクトル形式で
【数15】
赤、緑、青チャネルの画素値の平均である。
【0088】
ステップFT-ST3で得られた平均画素値をすべて連結して特徴ベクトルを生成し(ステップFT-ST4)、メモリに記憶する。具体的には、下記(式8)の形式で特徴ベクトルxを得る。
【数16】
【0089】
識別影響度算出部24は、特徴抽出装置40が取得した特徴ベクトルと種別識別情報を用いて識別影響度列を算出し(ステップB-ST2)、メモリに記憶する。具体的には、本ステップは次のサブステップB-ST2-1〜BST2-3(図14のフローチャート)を実行する。但し、識別辞書格納部25のデータ構造は図5に示したものとする。各固有ベクトルの次元数はステップB-ST1で取得した特徴ベクトルxの次元数d(=18)である。
【0090】
識別影響度算出部24は、利用者のキーボード入力やハードディスク上の設定ファイルから種別ωα(整数値)を取得し、種別ωαに対する固有ベクトル群を読み出す。
そして、識別影響度算出部24は、識別辞書格納部25から読み出した種別ωαに対する固有ベクトル群と、特徴ベクトル記憶部30から読み出した特徴ベクトルxとを用いて識別影響度列を算出する(ステップB-ST2-1)。具体的にはサブステップA-ST3-1〜A-ST3-4の処理を実行する。但し、特徴ベクトルxは上記ステップFT-ST1〜ステップFT-ST4で算出したので、特徴空間の次元数d=18である。
【0091】
次に、識別影響度算出部24は、利用者のキーボード入力やハードディスク上の設定ファイルから種別ωβを取得し、種別ωβに対する固有ベクトル群を読み出す。
そして、識別影響度算出部24は、識別辞書格納部25から読み出した種別ωβ(整数値)に対する固有ベクトル群と、特徴ベクトルxを用いて識別影響度列を算出する(ステップB-ST2-2)。具体的にはサブステップA-ST3-1〜A-ST3-4の処理を実行する。(但しd=18)。
【0092】
識別影響度算出部24は、ステップB-ST2-1とステップB-ST2-2それぞれで算出した識別影響度列を用いて最終的な識別影響度列を算出し(ステップB-ST2-3)、メモリに記憶する。
【0093】
以降、ステップB-ST2-1とステップB-ST2-2で算出した識別影響度列のうち、特徴ベクトルの第i成分(0≦i<18,但しiは整数)に対応する識別影響度をそれぞれsα,i 、sβ,iと記す。
【0094】
識別影響度算出部24は、特徴ベクトルの各成分に関して(式9)によって最終的な識別影響度を算出する。
【数17】
この他、(式9)の代わりに下記(式10)を用いて識別影響度を算出してもよい。
【数18】
また、(式9)の代わりに下記(式11)を用いて識別影響度を算出してもよい。
【数19】
【0095】
画像生成部26は、識別影響度列を可視化し(図11のステップB-ST3)、該画像をメモリに記憶する。この際、画像生成部26は、次のサブステップB-ST3-1〜B-ST3-2(図15のフローチャート)を実行して可視化画像群Iv = {Iv(0) ,Iv(1) ,Iv(2) }を生成し、メモリに記憶する。但し、可視化画像Iv(0) ,Iv(1) ,Iv(2)はグレースケール画像であるものとする。
【0096】
画像生成部26は、3つの可視化画像Iv(0) ,Iv(1) ,Iv(2)を初期化する(ステップB-ST3-1)。具体的には、各可視化画像をグレースケール画像とし、各可視化画像の寸法は幅wv画素、高さhv画素として、すべての可視化画像のすべての画素の画素値に0を代入する。幅wvおよび高さhvは予め定めた値である。
【0097】
以降のステップでは、各可視化画像を分割領域単位で扱う。該分割領域とは、ステップB-ST2で説明した図13に示す形状の6つの領域Ro〜R5である。但し、図13に示した可視化画像の幅wをwv 、高さhをhvに置き換える。以降、第i番の可視化画像における第j番(0≦j<5)の領域をIv(i,j)と記す。但しiは0か1か2であり、jは整数であるものとする。
【0098】
画像生成部26は、各可視化画像に識別影響度列を割り当て(ステップB-ST3-2)、該可視化画像をメモリに書き込む。具体的には、Iv(i,j)に対し、ステップB-ST2で算出した第(3j+i)番識別影響度を加算する。本ステップを式で表すと下記(式12)となる。
【数20】
【0099】
識別影響度を加算するのは、図13に示す複数の空間的領域Ro〜R5同士が重複を許容しているためである。
最後に、画像出力部27は、第1実施形態で示したステップA-ST5と同様に、画像生成部26により生成された可視化画像を出力する(図11のステップB-ST4)。
【0100】
このようにこの第2実施形態によれば、コンピュータ2の外部の特徴抽出装置40から得て特徴ベクトル記憶部30に記憶しておいた特徴ベクトルxと、識別辞書格納部25から読み出した種別ωαおよび種別ωαに対する固有ベクトル群から、種別ωαと種別ωαそれぞれに対する特徴ベクトルの各成分の識別影響度を求め、入力画像の分割領域毎に種別ωαと種別ωαに対する識別影響度の差や比を出力する。つまり2つの種別間の識別影響度の差や比を出力するので、どちらの種別の識別影響度が大きいのかといった、種別間での識別影響度比較が可能となる。例えば、種別ωαを正解種別、種別ωβをコンピュータ2以外のパターン認識(画像識別)装置が誤識別し易い種別とすることにより、該コンピュータ2以外の画像識別装置における誤識別の原因を探る上での指針を得ることが可能になる。また識別影響度列は可視化されるので、種別間の識別影響度の差や比を観察することにより、どのような特徴がどれだけ2つの種別の違いを表しているかといった情報を視覚を用いて直感的に知ることができ、識別影響度の対象となった評価尺度を利用する画像識別装置における特徴抽出方法や評価尺度算出アルゴリズムの改善につながる。
【0101】
(第3実施形態)
図面を参照して第3実施形態の画像処理システムを説明する。図16は第3実施形態の画像処理システムの構成を示すブロック図である。
【0102】
図16に示すように、第3実施形態の画像処理システムは、特徴抽出装置40とネットワークを介して接続されたコンピュータ2と、このコンピュータ2に接続されたスキャナ1および表示装置3とを有している。特徴抽出装置40は、処理対象の特徴ベクトルをコンピュータ2へ送信する。
【0103】
コンピュータ2は、識別影響度算出部24、識別辞書格納部25、特徴取得部28、部分空間射影部29、特徴ベクトル記憶部30と、識別影響度出力部31を有している。
【0104】
特徴取得部28は、処理対象となる特徴ベクトルを特徴抽出装置40より取得し、コンピュータ2のハードディスク装置またはメモリに設けた特徴ベクトル記憶部30に記憶する。なお特徴ベクトルは外部から取得するだけでなく、例えばコンピュータ2に予め内蔵されたハードディスク装置に記憶しておき、それを読み出すようにしてもよい。
【0105】
識別影響度算出部24は、識別辞書格納部25から読み出した、種別ωαに対する固有ベクトル群(種別識別情報)と、特徴ベクトル記憶部30から読み出した特徴ベクトルxとを用いて識別影響度列を算出し、メモリに記憶する。部分空間射影部29は、入力された種別(整数値)を受け付け、受け付けた種別に対応する固有ベクトル群(種別識別情報)を識別辞書格納部25から取得する。部分空間射影部29は識別影響度算出部24の内部にある。部分空間射影部29は、特徴ベクトルxをメモリから読み出し、そのベクトルを、φがなす部分空間に正射影し、射影ベクトルx’を得て識別影響度算出部24へ出力する。識別影響度出力部31はメモリから識別影響度列を読み出して外部へ出力する。他の構成要素の機能は上記第1及び第2実施形態と同様でありその説明は省略する。
【0106】
図17、図4、図18のフローチャートを参照して第3実施形態の動作を詳細に説明する。
【0107】
この第3実施形態の場合、コンピュータ2外部の特徴抽出装置40から特徴取得部28が取得し、ハードディスク装置の特徴ベクトル記憶部30に予め記憶しておいた特徴ベクトルを読み出すことによって、処理対象となる特徴ベクトルを取得し(図17のステップC-ST1)、メモリに記憶する。
【0108】
識別影響度算出部24は、特徴ベクトルと2つの種別に対応する種別識別情報を用いて識別影響度列を算出し(ステップC-ST2)、メモリに記憶する。具体的には、部分空間射影部29を呼び出し、その処理結果を用いて図18のフローチャートに示すサブステップC-ST2-1〜C-ST2-3を実行し、識別影響度列を算出する。このとき、識別辞書格納部25には、図5に示したデータが記憶されているものとする。また固有ベクトル群の各固有ベクトルの次元数はステップC-ST1で取得した特徴ベクトルと同じである。
【0109】
識別影響度算出部24は、まず部分空間射影部29を呼び出し、部分空間射影部29から出力された射影ベクトルx’、つまり戻り値をベクトルx’αに代入する(ステップC-ST2-1)。
【0110】
続いて、識別影響度算出部24は、部分空間射影部29を呼び出し、部分空間射影部29から出力された射影ベクトルx’、つまり戻り値をベクトルx’βに代入する(ステップC-ST2-2)。
【0111】
そして、識別影響度算出部24は、これら2つの射影ベクトル(ベクトルx’αとベクトルx’β)を用いて識別影響度列を算出し(ステップC-ST2-3)、メモリに書き込む。
以降、ベクトルx’αとベクトルx’βの第i成分(0≦i<18,但しiは整数)をそれぞれ、x’αi,x’βiと記す。
【0112】
例えば特徴ベクトルxのすべての成分に関して、下記(式13)によって1つの識別影響度を算出する。
【数21】
この他、(式13)の代わりに(式14)を用いて識別影響度を算出してもよい。
【数22】
また、(式13)の代わりに(式15)を用いて識別影響度を算出してもよい。
【数23】
【0113】
部分空間射影部29は、図4に示したフローチャートの処理ステップA-ST3-1〜ステップA-ST3-3を実行する。但し、この第3実施形態ではステップA-ST3-3における特徴ベクトルxは、図18の処理ステップC-ST1で取得した特徴ベクトルである。以上の処理で部分空間射影部29は、部分空間射影を終了し、射影ベクトルx’を識別影響度算出部24へ出力する。
【0114】
ステップC-ST2の種別識別影響度算出処理で、識別影響度算出部24により算出される識別影響度は、識別影響度が対象とする評価尺度の種別間での差や比等に対する、特徴ベクトルの各成分の影響度を意味する。
【0115】
識別影響度出力部31は、識別影響度算出部24により算出された識別影響度列を外部へ出力する(ステップC-ST3)。一例としては、識別影響度列を数字列として表示装置3へ出力し、表示装置3の画面に識別影響度列の数字列を表示する。
【0116】
この他、識別影響度列を、例えば数字の列としてコンピュータ2に接続されたプリンタへ出力し、識別影響度列の数字列を印刷してもよい。また識別影響度列をコンピュータ2に接続されたハードディスク装置へ記憶してもよい。さらに識別影響度列をネットワーク経由で他のコンピュータへ送信してもよい。
【0117】
このようにこの第3実施形態によれば、コンピュータ2以外で行うパターン認識(画像識別)における誤識別の原因を探る上での指針を得ることが可能になる。具体的には、識別影響度が対象とする評価尺度の差や比に対する、特徴ベクトルの各成分の影響度を出力するので、どの種類の特徴がどれだけ種別同士の違いを表しているかを知ることが可能になる。
【0118】
例えば1つの種別を正解の種別、他の1つの種別を誤識別する可能性が高い種別として、2種別間の違いを出力することで、どの種類の特徴が誤識別にどれだけ影響したかを可視化することができる。したがって、可視化画像を観察することで、どの種類の特徴が誤識別に起因しているかを知る手掛かりを得ることが可能になり、識別影響度の対象となった評価尺度を利用する画像識別装置における特徴抽出方法や評価尺度算出アルゴリズムの改善につながる。
【0119】
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【0120】
すなわち、本願発明は、上記実施形態のみに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を削減したり組み合わせたりするなどして変型してもよい。例えば各構成要素を、コンピュータのハードディスク装置などのストレージにインストールしたプログラムで実現してもよく、また上記プログラムを、コンピュータ読取可能な電子媒体:electronic mediaに記憶しておき、プログラムを電子媒体からコンピュータに読み取らせることで本発明の機能をコンピュータが実現するようにしてもよい。
【0121】
電子媒体としては、例えばCD−ROM等の記録媒体やフラッシュメモリ、リムーバブルメディア:Removable media等が含まれる。さらに、ネットワークを介して接続した異なるコンピュータに構成要素を分散して記憶し、各構成要素を機能させたコンピュータ間で通信することで実現してもよい。
【0122】
上記実施形態では画像を処理対象としたが、それ自身をパターンとして記述できるものであれば、処理対象は画像以外でも良く、例えば音声波形などがこれに含まれる。
【符号の説明】
【0123】
1…スキャナ、2…コンピュータ、3…表示装置、21…画像受付部、22…画像記憶部、23…特徴抽出部、24…識別影響度算出部、25…識別辞書格納部、26…画像生成部、27…画像出力部、28…特徴入力部、29…部分空間射影部、30…特徴ベクトル記憶部、31…識別影響度出力部。
【特許請求の範囲】
【請求項1】
処理対象のパターンを取得する取得部と、
前記取得部から得た前記パターンの特徴を示す特徴ベクトルを算出する特徴算出部と、
識別候補の種別と該識別候補の代表ベクトルの集合とが対応して記憶された辞書格納部と、
前記辞書格納部から前記種別に対応する前記代表ベクトルの集合を取得し、該集合と前記特徴ベクトルとから得られる前記処理対象と識別候補との類似度あるいは相違度を前記特徴ベクトルの各成分に対応するように分解し、該分解した値を前記特徴ベクトルの各成分がパターンの識別に影響する度合いとして算出する識別影響度算出部と
を具備することを特徴とする情報処理装置。
【請求項2】
前記特徴ベクトルは、前記取得部から得たパターンを所定のルールにより複数のパターンに分割した上で、該分割した各パターンの特徴を示すものであり、
前記識別影響度算出部により算出された前記分解した値に応じた色情報を生成し、該色情報を前記分割した各パターンに対応付け、該色情報と前記分割した各パターンとの色情報の対応を示す画像を生成する画像生成部と、
前記画像生成部により生成された画像を出力する画像出力部と
を具備することを特徴とする請求項1記載の情報処理装置。
【請求項3】
前記代表ベクトルの集合は、
前記特徴ベクトルが存在する特徴空間の部分空間の基底ベクトル群であり、
前記特徴ベクトルの各成分がパターンの識別に影響する度合いは、前記特徴ベクトルを前記部分空間に射影して得られる射影ベクトルを前記特徴空間上に記述したときに、該射影ベクトルの各成分の値を基準とすることを特徴とする請求項1または2記載の情報処理装置。
【請求項4】
前記代表ベクトルの集合は、前記特徴ベクトルが存在する特徴空間の部分空間の基底ベクトル群であり、
前記特徴ベクトルの各成分がパターンの識別に影響する度合いは、前記特徴ベクトルを前記部分空間に射影して得られる射影ベクトルを前記特徴空間上に記述したときに、該射影ベクトルと前記特徴ベクトルとの差分ベクトルの各成分の値を基準とすることを特徴とする請求項1記載の情報処理装置。
【請求項5】
前記識別影響度算出部は、
複数の識別候補に対する処理対象のパターンとの類似度あるいは相違度を分解し、複数の前記識別候補に対する該分解した値同士の大小関係を表す数値を前記特徴ベクトルの各成分がパターンの識別に影響する度合いとして算出することを特徴とする請求項1または2記載の情報処理装置。
【請求項6】
取得部、特徴算出部、識別影響度算出部を有する情報処理装置における情報処理方法において、
処理対象のパターンを前記取得部が取得し、
前記取得部が得た前記パターンの特徴を示す特徴ベクトルを前記特徴算出部が算出し、
識別候補の種別と該識別候補の代表ベクトルの集合とが対応して記憶された辞書格納部から前記種別に対応する前記代表ベクトルの集合を前記識別影響度算出部が取得し、該集合と前記特徴ベクトルとから得られる前記処理対象と識別候補との類似度あるいは相違度を前記特徴ベクトルの各成分に対応するように分解し、該分解した値を前記特徴ベクトルの各成分がパターンの識別に影響する度合いとして算出することを特徴とする情報処理方法。
【請求項1】
処理対象のパターンを取得する取得部と、
前記取得部から得た前記パターンの特徴を示す特徴ベクトルを算出する特徴算出部と、
識別候補の種別と該識別候補の代表ベクトルの集合とが対応して記憶された辞書格納部と、
前記辞書格納部から前記種別に対応する前記代表ベクトルの集合を取得し、該集合と前記特徴ベクトルとから得られる前記処理対象と識別候補との類似度あるいは相違度を前記特徴ベクトルの各成分に対応するように分解し、該分解した値を前記特徴ベクトルの各成分がパターンの識別に影響する度合いとして算出する識別影響度算出部と
を具備することを特徴とする情報処理装置。
【請求項2】
前記特徴ベクトルは、前記取得部から得たパターンを所定のルールにより複数のパターンに分割した上で、該分割した各パターンの特徴を示すものであり、
前記識別影響度算出部により算出された前記分解した値に応じた色情報を生成し、該色情報を前記分割した各パターンに対応付け、該色情報と前記分割した各パターンとの色情報の対応を示す画像を生成する画像生成部と、
前記画像生成部により生成された画像を出力する画像出力部と
を具備することを特徴とする請求項1記載の情報処理装置。
【請求項3】
前記代表ベクトルの集合は、
前記特徴ベクトルが存在する特徴空間の部分空間の基底ベクトル群であり、
前記特徴ベクトルの各成分がパターンの識別に影響する度合いは、前記特徴ベクトルを前記部分空間に射影して得られる射影ベクトルを前記特徴空間上に記述したときに、該射影ベクトルの各成分の値を基準とすることを特徴とする請求項1または2記載の情報処理装置。
【請求項4】
前記代表ベクトルの集合は、前記特徴ベクトルが存在する特徴空間の部分空間の基底ベクトル群であり、
前記特徴ベクトルの各成分がパターンの識別に影響する度合いは、前記特徴ベクトルを前記部分空間に射影して得られる射影ベクトルを前記特徴空間上に記述したときに、該射影ベクトルと前記特徴ベクトルとの差分ベクトルの各成分の値を基準とすることを特徴とする請求項1記載の情報処理装置。
【請求項5】
前記識別影響度算出部は、
複数の識別候補に対する処理対象のパターンとの類似度あるいは相違度を分解し、複数の前記識別候補に対する該分解した値同士の大小関係を表す数値を前記特徴ベクトルの各成分がパターンの識別に影響する度合いとして算出することを特徴とする請求項1または2記載の情報処理装置。
【請求項6】
取得部、特徴算出部、識別影響度算出部を有する情報処理装置における情報処理方法において、
処理対象のパターンを前記取得部が取得し、
前記取得部が得た前記パターンの特徴を示す特徴ベクトルを前記特徴算出部が算出し、
識別候補の種別と該識別候補の代表ベクトルの集合とが対応して記憶された辞書格納部から前記種別に対応する前記代表ベクトルの集合を前記識別影響度算出部が取得し、該集合と前記特徴ベクトルとから得られる前記処理対象と識別候補との類似度あるいは相違度を前記特徴ベクトルの各成分に対応するように分解し、該分解した値を前記特徴ベクトルの各成分がパターンの識別に影響する度合いとして算出することを特徴とする情報処理方法。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【公開番号】特開2012−3548(P2012−3548A)
【公開日】平成24年1月5日(2012.1.5)
【国際特許分類】
【出願番号】特願2010−138616(P2010−138616)
【出願日】平成22年6月17日(2010.6.17)
【出願人】(000003078)株式会社東芝 (54,554)
【出願人】(301063496)東芝ソリューション株式会社 (1,478)
【Fターム(参考)】
【公開日】平成24年1月5日(2012.1.5)
【国際特許分類】
【出願日】平成22年6月17日(2010.6.17)
【出願人】(000003078)株式会社東芝 (54,554)
【出願人】(301063496)東芝ソリューション株式会社 (1,478)
【Fターム(参考)】
[ Back to top ]