説明

紙片鑑別装置、紙片鑑別方法及びプログラム

画像処理部(18)は、光センサ部(13)によって得られた紙片画像データに対して斜行補正及び濃度補正を施す。辞書比較部(18)は、画像処理部(17)によって作成された紙片画像データと基準データ部(19)に格納されている各金種の基準データとから、各金種の比較用紙幣画像データを作成する。そして、該比較用紙幣画像データを辞書データ部(20)に格納されている同じ金種の辞書データとパターンマッチングしていく処理を全ての金種について行い、パターン間距離が最小の金種を紙片の金種とみなす。そして、その鑑別結果を記憶部(21)に格納する。

【発明の詳細な説明】
【技術分野】
本発明は、紙葉類処理装置の紙片鑑別装置に係わり、特に、紙葉類の半分以上が欠落した部分紙幣(紙片)の金種を鑑別する紙片鑑別装置、紙片鑑別方法に関する。
【背景技術】
ATM(Automatic Teller’s Machine)などのように、紙幣などの紙葉類の入出金が投入される紙葉類装置においては、装置内に紙葉類を保管しており、顧客の指示入力に応じて入出金処理が行われる。このような紙葉類処理装置においては、入出金される紙葉類(紙幣など)の種類(金種など)の鑑別処理を行っている。
この鑑別処理は、一般には,以下のような方法で行われている。紙葉類全体を複数の微小領域に分割し、それら各微小領域の濃淡や外形などを光学センサ、厚みセンサなどによって測定し、その測定値を量子化処理により諧調値などに変換し記憶する。そして、この諧調値からなる画像データに所定の画像処理(傾き補正や濃度補正処理)を施し、それによって得られた画像データを辞書データ(真券から作成した画像データ)と比較することによって、紙葉類(紙幣)の種別(金種)を判定するようにしている。
ところで、従来の紙葉類処理装置は外形サイズが正常なもののみを鑑別対象としており、外形が異常の紙葉類は鑑別対象外として鑑別をせずに鑑別異常とみなしてリジェクトしている。これは、従来の紙葉類処理装置では、紙葉類全体の画像データを辞書データとパターンマッチングすることによって紙葉類の種別を鑑別しているからである。このような従来の紙葉類処理装置では、当然のことながら、紙葉類の半分以上が欠落した部分紙幣(紙片)については、辞書データと比較できるエリアが小さすぎて金種を特定することはできなかった。
ところが、近年のように、紙葉類処理装置の無人店舗での稼動や24時間運用が一般的になってくると、紙葉類処理装置内の紙幣収納庫内の紙幣残高(在庫高)を常に確定させることが強く望まれるようになってきている。紙葉類処理装置においては、投入口から投入された紙幣または紙幣収納庫から取り出された手段金要の紙幣は、装置内において鑑別部まで搬送される途中で切れてしまう場合もある。このような場合、紙葉類処理装置の保有者にとっては、たとえ切れた紙片といえども、金種がわかってリジェクトされるのと、金種不明のままリジェクトされるのとでは大きな違いがあり、前者の要望が強かった。しかしながら、従来の紙葉類処理装置の鑑別部では、切れた紙葉類(紙片)については、その種別(金種)を特定することなくリジェクトしていた。
本発明の目的は、紙葉類の半分以上が欠落した部分紙幣(いわゆる紙片)の金種を確実に特定できる紙片鑑別装置及び紙片鑑別方法を提供することである。
【発明の開示】
本発明の紙片鑑別装置は、基準データ記憶手段、辞書データ記憶手段、センサ手段及び辞書比較手段を備える。
基準データ記憶手段は、真券の紙幣の画像データである基準データを、少なくとも一つの金種について格納している。辞書データ記憶手段は、真券の紙幣鑑別用の辞書データを、前記基準データと同じ金種数だけ格納している。センサ手段は、紙葉類の切片である紙片の画像データを取得する。辞書比較手段は、該センサ手段により得られた紙片画像データを、前記基準データ記憶手段に格納されている各金種の基準データと合成して各金種毎の比較用紙幣画像データを作成し、該比較用紙幣画像データを前記辞書データ記憶手段に格納されている同一金種の辞書データと、パターンマッチングすることにより、前記紙片の金種を鑑別する。
前記基準データは、真券の紙幣の画像データであるので、その基準データに紙片画像データを貼り付けて合成して得られる比較用紙幣画像データは、該紙片画像データ50以外の部分は辞書データが有する真券の画像データと一致することになる。じたがって、同一金種の比較用紙幣画像データと辞書データをパターンマッチングすることにより、紙片画像データ、すなわち、紙片が真券の一部であるか鑑別することが可能となり、パターンマッチングの結果に基づき紙片の金種を推定(鑑別)できる。
【図面の簡単な説明】
図1は、本発明の第1実施形態である紙片鑑別装置のシステム構成を示すブロック図である。
図2は、第1実施形態の紙片鑑別装置の処理概要を説明する図である。
図3は、第1実施形態の紙片鑑別装置の紙片鑑別処理全体を説明するフロチャートである。
図4は、第1実施形態における濃度補正処理を説明するフロチャートである。
図5(a)は辞書データの全体データ構造を示す図、図5(b)は辞書データの画素のデータ構造を示す図である。
図6(a)は比較用紙幣画像データの全体データ構造を示す図、図6(b)は比較用紙幣画像データの画素のデータ構造を示す図である。
図7は、比較用紙幣画像データと辞書データとのパターンマッチング手法の模式図である。
図8は、全面画像でのパターンマッチング処理の模式図である。
図9は、全面画像でのパターンマッチング処理の詳細フロチャートである。
図10は、横ライン画像でのパターンマッチング処理の模式図である。
図11は、横ライン画像データのパターンマッチング処理の詳細フロチャートである。
図12は、縦ライン画像でのパターンマッチング処理の模式図である。
図13は、縦ライン画像でのパターンマッチング処理の詳細フロチャートである。
図14は、左斜めライン画像でのパターンマッチング処理の模式図である。
図15は、右斜めライン画像でのパターンマッチング処理の模式図である。
図16は、左斜めライン画像でのパターンマッチング処理の詳細フロチャートである。
図17は、右斜めライン画像でのパターンマッチング処理の詳細フロチャートである。
図18は、本発明の第2実施形態である紙片鑑別装置のシステム構成を示すブロック図である。
図19は、ニューロ演算部の構成を示す図である。
図20は、ニューロ演算部のユニットの構成を説明する図である。
図21は、ニューロ演算部に入力されるデータを説明する図である。
図22は、ニューロ演算部が全面画像パターン認識をする際の入力パターンを説明する図である。
図23は、ニューロ演算部が縦ライン画像パターン認識をする際の入力パターンを説明する図である。
図24は、ニューロ演算部が横ライン画像パターン認識をする際の入力パターンを説明する図である。
図25は、ニューロ演算部が左斜めライン画像パターン認識をする際の入力パターンを説明する図である。
図26は、ニューロ演算部が右斜めライン画像パターン認識をする際の入力パターンを説明する図である。
図27は、第2実施形態の紙片鑑別装置が、ニューロ演算により全面画像パターン認識を行って、紙片の金種を鑑別する処理を説明するフロチャートである。
図28は、第2実施形態の紙片鑑別装置が、ニューロ演算により横ライン画像パターン認識を行って、紙片の金種を鑑別する処理を説明するフロチャートである。
図29は、第2実施形態の紙片鑑別装置が、ニューロ演算により縦ライン画像パターン認識を行って、紙片の金種を鑑別する処理を説明するフロチャートである。
図30は、第2実施形態の紙片鑑別装置が、ニューロ演算により斜めライン画像パターン認識を行って、紙片の金種を鑑別する処理を説明するフロチャートである。
【発明を実施するための最良の形態】
本発明は、紙葉類の一部(紙片)からその紙葉類の種別(金種)を特定することができるものであり、1つのユニットとして実現でき、各種紙葉類処理装置に組み込んで使用することができる。
{第1実施形態}
図1は、本発明の第1実施形態のシステム構成図である。
同図に示す第1実施形態の紙片鑑別装置10は、中央処理装置11、紙葉類突入センサ部11、光センサ部13、増幅部14、A/D変換部15、画像記憶部16、画像処理部17、辞書比較部18、基準データ部19、辞書データ部20及び記憶部21から構成されている。尚、以下の説明では、本実施形態が、紙葉類の一種である紙幣を取り扱う場合について説明する。
紙葉類突入センサ部12は、装置10内に紙葉類(紙幣)が突入してきたことを検知するセンサであり、この突入を中央処理装置11に通知する。
光センサ部13は、ラインセンサであり紙葉類突入センサ部11により検知された後、装置10内を搬送されてくる紙葉類の画像をライン単位で取得する。中央処理装置11は、紙葉類突入センサ部12から上記通知を受け取ると、光センサ部13を起動し、紙葉類の搬送速度に応じて光センサ部13のサンプリング周波数とサンプリング時間を制御する。光センサ部13は、中央処理装置11からの制御を受けて、搬送される紙葉類のアナログ画像信号を取得し、それを増幅部14に出力する。
増幅部14は、光センサ部13から入力されるアナログ画像信号を増幅し、それをA/D変換部15に出力する。
A/D変換部15は、増幅部14から入力されるアナログ画像信号をディジタル画像信号に変換・出力する。このディジタル画像信号は、最も暗い点を0とし、最も明るい点を最大値とする階調値である。この階調値は、個々の画素毎に得られる。
A/D変換部15から出力されるディジタル画像信号は、画像記憶部16に順次格納される。このことにより、画像記憶部16には、光センサ部13により得られた紙葉類(または、その紙片)の画像のディジタル画像信号が格納される。このディジタル画像信号は、後述するように紙葉類のサイズよりも大きく、紙葉類の背景の画像も含んでいる。
画像処理部17は、中央処理装置11の制御を受けて、画像記憶部18に格納されている画像信号(画像データ)に対して座標変換(傾き補正処理)を施して紙葉類(または、その紙片)の画像データを正規化する。そして、その正規化した画像データに対して濃度補正処理を施す。画像記憶部18は、以上のような座標変換及び濃度補正等を施すことにより得られた紙葉類またはその紙片の画像データを辞書比較部18に出力する。
辞書比較部18は、画像処理部17から入力される紙葉類の画像データを辞書データ部20に格納されている辞書データとパターンマッチングして、装置10内に入力された紙葉類の真贋鑑別を行う。また、これは本発明に係わる特徴であるが、辞書比較部18は、画像処理部17から入力される画像データが紙片画像データ(紙幣の切片(紙片)の画像データ)であれば、その紙片画像データを各金種の紙幣の基準データに重ね合わせた(貼り付けた)画像をデータ作成し、その作成画像データ(比較用紙幣画像データ)を辞書データとパターンマッチングすることにより前記紙片画像の種別(金種)を判定する。
基準データ部19は、本装置10が取り扱う紙幣の全金種の基準データを格納している。この基準データは、紙片の金種を特定(推定)するために使用されるデータであり、真券を光センサにより読み取ることにより作成される画像データであり、前記紙片画像データと同様な濃度補正が施されたものである。この濃度補正は、基準データに前記紙片画像データを貼り付けた場合に色むらが発生しないようにするために行なわれる。
辞書比較部18は、紙幣の各金種の基準データに紙片の画像データを貼り合せる合成処理により該各金種毎の比較用紙幣画像データを作成し、これらの各金種の比較用紙幣画像データを同一金種の辞書データと比較することにより、紙片の金種を特定(鑑別)する。
辞書データ部20は、辞書比較部18が紙葉類(紙幣)の真贋鑑別及び紙片の金種鑑別に使用する辞書データを格納している。この辞書データも、前記基準データと同様に装置10で取り扱われる紙幣の全金種について用意されている。該辞書データは、真券を光センサ(例えば、光センサ部13)で読み取ることにより作成される。この場合、一般に、真券毎に、各画素の階調値(濃度)にバラツキが生じるため、予め、所定枚数の真券を光センサで読み取り、各画素の階調平均値及び階調値の標準偏差を求め、それらの値を画素と関連付けたデータを辞書データとして記憶する。
真贋鑑別においては、例えば、対応する画素同士の階調値の差分を計算し、その値が標準偏差以内に収まっていれば両方の画素が一致すると判定し、一致する画素が全体の何%以上であるかを基準にして紙幣の真贋を鑑別する。
また、紙片の金種鑑別においては、辞書データと前記比較用紙幣画像データとパターンマッチングにおいて、例えば、両画像データ間の距離を(例えば、ユークリッド距離)を算出し、その距離を基に紙片の金種を鑑別する。
記憶部21は、辞書比較部18によって識別(鑑別)された紙片の金種結果や紙幣の真贋判定結果等を格納する。
図2は、上記紙片鑑別装置10による紙片鑑別処理の概要を説明する図である。
同図(a)に示す生画像データ31は、斜行して搬送された紙片を光センサ部13により検出することにより得られた画像データであり、生画像データ31の中央部に紙片画像データ41が存在している。同図(a)において、紙片画像データ41と外郭と接続している破線部分は、切れて紛失した他方の紙片の外郭を示している。
画像処理部17は、前記紙片画像データ41に対して座標変換処理を施し、紙片画像データ41を斜行補正して正規化する(生画像データ31の左上隅の上辺に紙片画像データ41の上辺が重なるようにする)。そして、その正規化された紙片画像データ41に対して、紙片の外縁部の白い部分(紙片画像データ41における紙片の外縁の白い部分に該当する部分の画像データ)が基準値となるような濃度補正を施し、最終的に、同図(b)に示すような紙片画像データ42を作成するる。
辞書比較部18は、同図(c)に示すように、上記紙片画像データ42を、基準データ部19に格納されているA金種、B金種、・・・等の各金種の基準データ50(50A(A金種基準データ),50B(B金種基準データ),・・・、50N(N金種基準データ))にコーナーを基準として重ね合わせ(貼り付け)、各金種の比較用紙幣画像データ60を作成する。これら各金種の比較用紙幣画像データ60は、辞書データ部20に格納されている各金種の辞書データ70(70A(A金種の辞書データ),70B(B金種の辞書データ),・・・,70N(N金種の辞書データ))とパターンマッチングするための画像データである。
ところで、このコーナー基準での基準データ50上への紙片画像データ42の貼り付けは、紙片画像データ42の形状(紙片の形状)によって決定される。同図(c)に示すような略三角形の紙片画像データ42の場合は、その角の部分が元の紙幣の2隅のいずれかに該当すると推測されるので、基準データ50(同図(c)に示す基準データ60は金種Bの基準データ50である)の右上隅及び左下隅の各隅に、それぞれ、紙片画像データ42を貼り付けることにより、2種類の比較用紙幣画像データ60を作成する。
紙片の形状が、同図(c)に示す形状以外であれば、その形状に応じて、適宜、紙片画像データ42を基準データ50の適切な位置に貼り付けて比較用紙幣画像データ60を作成すればよい。尚、この比較用紙幣画像データ60の作成に用いる基準データ50は、前述したように紙片画像データ42と同様な濃度補正が施されたものである。本実施形態では、辞書データ部20に格納される辞書データ70についても、紙片画像データ42と同様な濃度補正を施すので、基準データ50と辞書データ70の画像データは一致すると考えてよい。つまり、比較用紙幣画像データ60においては、紙片画像データ42以外の部分(基準データ50の部分)は辞書データ70と同一である。
このため、比較用紙幣画像データ60と辞書データ70とのパターンマッチングは、実質的に、紙片画像データ42と辞書データ70の該紙片画像データ42に対応する部分とのパターンマッチングである。この場合、紙片画像データ42が基準データ50上の本来の場所(元の紙幣の本来の位置)に貼り付けられた比較用紙幣画像データ60であれば、該比較用紙幣画像データ60は基準データ50とほぼ一致することになる。したがって、同一金種の比較用紙幣画像データ60と辞書データ70同士をパターンマッチングして、距離が最小の基準データ50を検出することにより、その基準データ50の金種が鑑別対象の紙片の金種であると推定できる。この場合、距離に閾値を設定し、パターンマッチングの結果得られた最小距離が該閾値以下である場合のみ、上記のようにして、紙片の金種を特定するようにしてもよい。
このように、本実施形態では、該比較用紙幣画像データ60を各金種の辞書データ70と順次パターンマッチングしていくことにより、最も距離(類似度)の高い金種を特定し、その特定された金種が紙片の金種であると鑑別(推定)する。
図3は、紙片鑑別装置10による紙片の金種推定処理を説明するフロチャートである。
まず、紙片画像データ41を濃度補正し(ステップS11)、次に、該紙片画像データ41を斜行補正する(ステップS12)。続いて、最初に選択した金種の基準データ50上に紙片画像データ41をコーナー基準で貼り付ける(ステップS13)。このコーナー貼り付けにおいて、最初、どのコーナーに貼り付けるかは予め決めておく。また、最初に選択する基準データ50の金種についても、予め決めておく。
そして、まず、前記比較用紙幣画像データ60と辞書データ70(最初は、予め決められた金種の辞書データ70)を全面画像でパターンマッチングし(ステップS14)、続いて、両データを横ライン画像でパターンマッチングする(ステップS15)。さらに、続いて、両データを縦ライン画像でパターンマッチングし(ステップS16)、最後に、両データを斜めライン画像でパターンマッチングする(ステップS17)。これら4種類のパターンマッチングの結果は、メモリ(不図示)に記憶しておく。
以上のようにして、ある一つのコーナーに紙片画像データ42を貼り付けた比較用紙幣画像データ60について4種類のパターンマッチングを行った後、該4種類のパターンマッチングを、ある一つの金種における全ての比較用紙幣画像データ60について行ったか判別し(ステップS18)、まだであれば、前記紙片画像データ42を貼り付けるべき基準データ50(現在、選択中の金種の基準データ50)の次のコーナーを選択し(ステップS19)、ステップS13に戻る。ステップS13以降では、前記基準データ50の今回選択されたコーナーに紙片画像データ42を貼り付けた比較用紙幣画像データ60について、上記パターンマッチング処理を行う。
このようにして、ある一つの金種について、その辞書データ70と比較用紙幣画像データ60とのパターンマッチングを、全ての比較用紙幣画像データ60(基準データ50の個々のコーナーに紙片画像データ42を貼り付けた個々の画像データ60)について行う。そして、全ての比較用紙幣画像データとのパターンマッチングが終了すれば、全金種の辞書データ70とのパターンマッチングが終了したか判別し(ステップS20)、まだであれば、次にパターンマッチングすべき金種の辞書データ70を選択し(ステップS21)、ステップS13に戻る。ステップS13では、新たに選択された金種の基準データ50を用いて、その金種の比較用紙幣画像データ60を作成する。
このようにして、全ての金種について、比較用紙幣画像データ60(紙片画像データ42を貼り付けるべきコーナー数と同数の比較用紙幣画像データ60)と辞書データ70とのパターンマッチングを行う。そして、該パターンマッチングが終了すると、最も類似度が高い金種を紙片の金種と推定し、この推定結果を記憶部21に格納する(ステップS22)。ステップS22で、紙片の金種に加え、その紙片の紙幣上での位置情報(コーナー位置)も格納するようにしてもよい。この紙片の位置情報の取得は、ステップS19で選択した最新のコーナー情報をメモリ(不図示)等に記憶しておくことにより可能である。
ところで、上記パターンマッチングの手法としては、パターン間最小距離を用いる方法などの公知の手法を用いることができる。
尚、図3の紙片の金種識別処理においては、
(1) 全画面画像でのパターンマッチング
(2) 横ライン画像でのパターンマッチング
(3) 縦ライン画像でのパターンマッチング
(4) 斜めライン画像でのパターンマッチング
の4種類のパターンマッチングを行い、それらのパターンマッチングで得られた最良の類似度(または最小距離)を金種識別用の指標としているが、上記(1)〜(4)のいずれか一つのみ、または(1)〜(4)の中から、1〜3種類のパターンマッチングの組み合わせを選択するようにして、紙片の金種を識別するようにしてもよい。
図4は、図3のステップS11における濃度補正処理の詳細を説明するフロチャートである。
まず、紙片画像データ41における紙片の白い縁部の面積Sを計算し(ステップS31)、次に、該白い縁部の透過光加算値Aを計算する(ステップS32)。
続いて、白い縁部の単位面積当たりの透過光加算値B(=A/S)を計算し(ステップS33)、次に、Bを80H(Hは16進数の値を示す記号)にするための計数C(=80H/B)を計算する(ステップS34)。そして、紙片画像データ41の全画素にCを乗じて、紙片画像データ41を濃度補正する(ステップS35)。
図5は、辞書データ70のデータ構造を示す図である。
同図(a)に示すように、辞書データ70は縦L列、横N行であり、L×N個の画素71から構成されている。同図(b)に示すように、画素71は16ビット構成となっており、上位8ビットに階調平均値(濃度平均値)が、下位8ビットに標準偏差σが格納されている。この標準偏差σは、辞書データ70を作成するためのサンプルデータから得られた画素71の階調値の標準偏差である。
図6は、比較用紙幣画像データ60のデータ構造を示す図である。
同図(a)に示すように、比較用紙幣画像データ60も辞書データ70と同様に、縦L列、横N行で、L×N個の画素61から構成されている。同図(b)に示すように、画素61は8ビット構成であり、この8ビットに階調値(濃度値)が格納されている。
本実施形態においては、図7に模式的に示すように、比較用紙幣画像データ60と辞書データ70とのパターンマッチングにおいて、同一位置の画素同士について、下記の式(1)によりそれらの間のユークリッド距離dijを計算する。

である。
次に、図3のステップS14の全面パターンマッチング処理を説明する。
図8は、上記全面画像パターンマッチングの手法の模式的概念図である。同図において、右方向の矢印で示しているように、第1行目から第N行目まで行順に、上記の式(1)によりユークリッド距離dijを求め、下記の式(2)で表現される全画素のユークリッド距離Dallを求める。

図9は、図3のステップS14の全面画像パターンマッチング処理を詳細に説明するフロチャートである。同図において、iとjは、それぞれ、画素の列番号、行番号を示す変数である。また、DEAは全面画像パターンマッチングにおけるユークリッド距離を求めるための変数である。
まず、変数i,jに1を代入する。また、変数DEAに0を代入する(ステップS41)。
次に、式(1)によりユークリッド距離dijを計算し(ステップS42)、そのュークリッド距離dijを変数DEAに加算する(ステップS43)。続いて、iがLに等しいか判別し(ステップS44)、等しくなければ、iの値を1インクリメントし(ステップS45)、ステップS42に戻る。
以上のようにして、ステップS44でiがLに等しいと判別されるまで、ステップS42〜ステップS45の処理を繰り返し、i行における全画素のユークリッド距離の総和を求める。
そして、ステップS44でi=Lであると判別すると、次に、j=Nであるか判別する(ステップS46)。そして、j=Nでなければ,jの値を1インクリメントし(ステップS47)、ステップS42に戻る。このようにして、jがNに等しくなるまで、ステップS42〜ステップS47の処理を繰り返し、画像における全画素のユークリッド距離の総和を求める。この総和は、DEAに格納される。そして、ステップS46で、jがNに等しいと判別すると処理を終了する。
図10は、図3のステップS15における横ライン画像でのパターンマッチング処理を模式的に示す概念図である。
同図に示すように、このパターンマッチング処理においては、比較用紙幣画像データ60の任意の行xを選択し、この行の全画素を走査し、その走査ライン81における全画素の辞書データ70の画素とのユークリッド距離dijの総和を求める。但し、行xは紙片画像データ42の画素が含まれる行である必要があり、好ましくは、紙片画像データ42の画素数が最大の行xであることが望ましい。
図11は、図3のステップS15における横ライン画像でのパターンマッチング処理の詳細を説明するフロチャートである。尚、同図において、変数i,jは、それぞれ、画素の列番号、行番号が設定される変数である。また、DEYは選択された行yにおける全画素のユークリッド距離の総和を求めるための変数である。
まず、iを1に初期設定し、jに選択された行番号yを設定する。また、DEYを0に初期設定する(ステップS51)。そして、上記式(1)により、ユークリッド距離dijを計算し(ステップS52)、そのユークリッド距離dijを変数DEYに加算する(ステップS53)。
次に、iがLに等しいか判別し(ステップS54)、等しくなければ、iの値を1インクリメントし(ステップS55)、ステップS52に戻る。
このようにして、iの値がLに等しくなるまで、ステップS52〜ステップS54の処理を繰り返し、選択された行yにおける全画素のユークリッド距離の総和を求める。この総和は、変数DEYに格納される。そして、ステップS54でiがLに等しいと判別すると処理を終了する。
図12は、図3のステップS16における縦ライン画像でのパターンマッチング処理の概念を模式的に示した図である。
この縦ライン画像でのパターンマッチング処理では、比較用紙幣画像データ60における任意の列xを選択し、その列xの全画素を走査して、その走査ライン91における全画素のユークリッド距離の総和を算出する。但し、この場合、選択する列xは紙片画像データ42の画素を含む列であり、好ましくは、その画素数が最大の列xを選択するのが望ましい。
図13は、図3のステップS16における縦ライン画像でのパターンマッチング処理の詳細を説明するフロチャートである。同図において、i,jは、それぞれ、画像の列番号、行番号が設定される変数である。
まず、変数iに選択された列番号xを設定し、変数jを1に初期設定する。また、該選択された列xにおける全画素のユークリッド距離の総和を求めるための変数DETを0に初期設定する(ステップS61)。
次に、上記式(1)により、ユークリッド距離dijを算出し(ステップS62)、そのユークリッド距離dijを変数DETに加算する(ステップS63)。そして、jがNに等しいか判別し(ステップS64)、等しくなければ、jの値を1インクリメントし(ステップS65)、ステップS62に戻る。
このようにして、jの値がNに等しくなるまで、ステップS62〜ステップS65の処理を繰り返し、選択した列xにおける全画素のユークリッド距離の総和を求める。この総和は、変数DETに格納される。そして、ステップS64で、jがNに等しいと判別すると処理を終了する。
図14及び図15は、図3のステップS17における斜めライン画像でのパターンマッチング処理の概念を模式的に示した図である。
図14は、任意の番号xの列を選択し、その選択した列から所定の角度(例えば、45度)で左斜め方向に画素を走査して、その走査した斜めラインの全画素におけるユークリッド距離の総和を求める左斜めライン画像によるパターンマッチング処理を示している。同図では、比較用紙幣画像データ60の番号x1の列を選択した場合と番号x2を選択した場合のそれぞれにおける走査ライン101,102を示している。この手法においては、好ましくは、走査ライン上において紙片画像データ42の画素数が最大となるように列番号を選択するのが望ましい。
一方、図15は、走査方向を右斜め方向にした場合における斜めライン画像でのパターンマッチング処理の模式的概念図である。
同図は、最初に走査する画素の列番号をx3とした場合とx4とした場合のそれぞれにおける走査ライン111,112を示している。この右斜め方向の斜めライン画像のパターンマッチングにおいても、紙片画像データ42の画素数を最も多く走査するラインが走査ラインとなるように、最初に走査すべき画素の列を選択するのが望ましい。
図16は、図14に示す左斜め方向の斜め画像ラインでのパターンマッチング処理を詳細に説明する図である。同図において、変数i,jは、それぞれ、画素の列番号、行番号が設定される変数である。また、DENRは左斜め方向の走査ラインにおける全画素のユークリッド距離の総和を求めるために使用される変数である。
まず、変数iに最初に走査する画素の列番号を設定し、変数jには最初に走査する画素の行番号として1を設定する。また、変数DENRを0に初期設定する(ステップS71)。
次に、上記式(1)を演算し、ユークリッド距離dijを求め(ステップS72)、そのユークリッド距離dijを変数DENRに加算する(ステップS73)。そして、i=1またはj=Nであるか判別し(ステップS74)、i,jのいずれも該等式を満たさなければ、iの値を1デクリメントし(ステップS75)、jの値を1インクリメントし(ステップS75)、ステップS72に戻る。
このようにして、ステップS74で、i=1またはj=Nが成立すると判断されるまで、ステップS72〜ステップS76の処理を繰り返し、1行目の列xの画素から走査が開始される右斜め方向のライン画像における全画素のユークリッド距離の総和を求め、この総和を変数DENRに格納する。そして、ステップS74で、i=1またはj=Nであると判断すると処理を終了する。
図17は、図15に示す左斜め方向のライン画像でのパターンマッチング処理を詳細に説明するフロチャートである。
まず、変数i、jにそれぞれ、最初の走査画素の行番号(=x)、列番号(=1)を設定する。また、左斜め方向の走査ライン画像における全画素のユークリッド距離の総和を求めるための変数DENLを0に初期設定する(ステップS81)。と
次に、上記式(1)を用いて、ユークリッド距離dijを算出し(ステップS82)、そのユークリッド距離dijを変数DENLに加算する(ステップS83)。そして、i=Lまたはj=Nであるか判断し(ステップS84)、両等式のいずれも成立しなければ、iを1インクリメントし(ステップS85)、jを1デクリメントし(ステップS86)、ステップS82に戻る。
このようにして、ステップS84で、i=Lまたはj=Nのいずれかが成立すると判断するまで、ステップS82〜ステップS86の処理を繰り返し、選択した左斜め方向のライン画像における全画素のユークリッド距離の総和を求め、その値を変数DENLに格納する。そして、ステップS84で、i=Lまたはj=Nのいずれかが成立すると判断すると処理を終了する。
尚、第1実施形態においては、比較用紙幣画像データ60の一部のデータとして、縦1ライン、横1ラインまたは斜め1ラインのデータについてパターンマッチングするようにしているが、1ラインではなく複数ラインであってもよい。また、本発明のパターンマッチングで使用する比較用紙幣画像データ60の部分データは、ラインに限定されるものではなく、比較用紙幣画像データ60の紙片画像データ42を含む部分データであれば、ライン以外の形状であってもよい。
{第2実施形態}
図18は、本発明の第2実施形態である紙片鑑別装置200のシステム構成を示すブロック図である。同図において、図1に示す第1実施形態の紙片鑑別装置10の構成要素と同じ構成要素には同一の符号を付記しており、これらの構成要素の説明は省略する。
紙片鑑別装置200が紙片鑑別装置10との構成上の相違は、辞書比較部18、基準データ部19及び辞書データ部20による紙片鑑別機能を、画像処理部17A、基準データ部19及びニューロ演算部201で代替するようになっていることである。また、中央処理部11Aは、ニューロ演算部201の出力を解析して、紙片の金種を鑑別すると共に、画像処理部17Aを制御する。
画像処理部17Aは、前述のように紙片画像データ42に対して正規化・濃度補正を施した後、辞書比較部18と同様にして、該紙片画像データ42と基準データ部19に格納されている各金種の基準データ50とから、各金種別の比較用紙幣画像データ60を作成する。そして、この比較用紙幣画像データ60に縮小処理を施し、それにより得られた縮小画像の全画素または一部の画素をニューロ演算部201に出力する。
ニューロ演算部201は、ニューラルネットワークであり、画像処理部17Aで作成された前記縮小画像を入力パターンとして入力し、紙片の金種とその方向(元の紙幣上での位置)を出力パターンとして出力する。
尚、この第2実施形態では、ニューロ演算部201が縮小画像によりニューロ演算をするようにしているが、必ずしも、縮小画像である必要はない。入力パターンとして縮小画像を用いるか否かは、ニューロ演算部201の規模やその演算処理時間等に応じて、適宜決定すればよい。
図19は、ニューロ演算部201の構成を示す図である。
ニューロ演算部201は、入力層211、中間層212及び出力層213で構成されたフィードフォワード結合型のニューラルネットワークであり、誤差逆伝播学習を学習アルゴリズムとする。
入力層211には、入力パターンとして、入力信号I,I,・・・,Iが画像処理部17Aから入力される。これらの入力信号Iは、前記縮小画像の画素の階調値(濃度)である。入力層211は、S,S,・・・,Sのp個のユニット(ニューロン)から成り、ユニットS(i=1,2,・・・,p)には入力信号Iが入力される。
中間層212は、A,A,・・・,Aのm個のユニットから成る。各ユニットA(J=1,2,・・・,m)は、入力層211の全てのユニットS(i=1,2,・・・,n)と結合されている。
出力層213は、R,R,・・・,Rのq個のユニットから成り、各ユニットR(k=1,2,・・・,q)は中間層212の全てのユニットAと結合されている。ユニットRは、出力信号Oを出力する。この出力信号Oは、0または1の2値信号であり、q個のユニットRの中でいずれか1個のユニットのみが1の出力信号を出力し、他のユニットは0を出力する。
q個の各ユニットRは、それぞれ、ある特定の金種と紙片の位置(方向)に対応しており、入力層211に入力される入力パターンI(I,I,・・・,I)に応じた出力信号Oを出力する。
図20は、中間層212のユニットA及び出力層213のユニットR双方のモデル例を示す図である。
同図に示すユニット220(ユニットj)は、前段の層の各ユニットiからの出力が入力xとして与えられる準線形素子モデルであり、閾値θを有している。ここで、ユニット220(ユニットj)の内部状態uは、

として計算される。
ユニット220の出力は、この値uを変数とする関数f(u)であり、例えば、シグモナイド関数とすれば、

となる。
ここで、Tは温度と呼ばれるパラメータである。
図21は、画像処理部17Aからニューロ演算部201に出力される入力パターンを説明する図である。
同図右側に示す画像データは、画像処理部17Aの作成する比較用紙幣画像データ301であり、そのサイズは76ライン×160画素となっている。画像処理部17Aは、この比較用紙幣画像データ301を縮小し、同図左側に示すように、10ライン×22画素の縮小画像データ302を作成する。
ニューロ演算部201には、この縮小画像データ302の1画素が1入力信号として入力されることになる。ニューロ演算部201は、(1)全面画像パターン認識、(2)横ライン画像パターン認識、(3)縦ライン画像パターン認識及び(4)斜めライン画像パターン認識の4種類のパターン認識処理をニューロ演算により行う。画像処理部17Aは、上記(1)〜(4)の各パターン認識に必要な入力信号(入力パターン)をニューロ演算部201に出力する。
第2実施形態においては、上記(1)〜(4)のパターン認識(パターンマッチング)に応じて、ニューロ演算部201のニューラルネットワーク201の構成は以下のように変化する。
(1) 全面画像パターン認識
入力信号:I〜I220
入力層211のユニット数:220
中間層212のユニット数:10
出力層213のユニット数:64
出力信号:O〜O64
(2) 横ライン画像パターン認識
入力信号:I〜I22
入力層211のユニット数:22
中間層212のユニット数:2
出力層213のユニット数:64
出力信号:O〜O64
(3) 縦ライン画像パターン認識
入力信号:I〜I10
入力層211のユニット数:10
中間層212のユニット数:3
出力層213のユニット数:64
出力信号:O〜O64
(4) (右斜め方向または左斜め方向)斜めライン画像パターン認識
入力信号:(I〜I),(I〜I),・・・,または(I〜I10
入力層211のユニット数:2〜10
中間層212のユニット数:2
出力層213のユニット数:64
出力信号:O〜O64
前述したように、入力層211のユニット数は画像処理部17Aからの入力信号Iの数(画素数)に等しい。また、本実施形態では画素の階調値(濃度)は8ビットなので、各入力信号I値の範囲は16進表現で、00H〜FFHとなる。
また、本実施形態では、紙片の金種を16種類、紙片の位置(元の紙幣上の位置)を4方向(コーナー基準で、紙幣の左上隅、右上隅、左下隅、右下隅)と前提しているので、紙片の金種と位置(方向)との組み合わせで46種類の認識が可能である。これら46種類の認識は、それぞれ、出力層213の各出力信号O(k=1〜64)と対応しており、認識された(紙片の金種,紙片の方向(位置))に対応する出力信号Oが1となる。
図22乃至図26は、上記(1)〜(4)の各パターン認識における入力信号を説明する図である。
全面画像パターン認識の場合には、図22に示すように、縮小画像データ302の全画素の階調値(濃度)が入力信号I〜I220としてニューラルネットワーク201に入力される。また、横ライン画像認識の場合には、図23に示すように、縮小画像データ302における任意の列(斜線部分)における全画素の階調値(濃度)が入力信号I〜I22として、ニューラルネットワーク201に入力される。また、さらに、縦ライン画像パターン認識の場合には、図24に示すように、縮小画像データ302における任意の行(斜線部分)における全画素の階調値(濃度)が入力信号I〜I10としてニューラルネットワーク201に入力される。
斜めライン画像パターン認識においては、左斜めライン画像パターン認識の場合、図25に示すように、縮小画像データ302の第1行における任意の列(網掛け部分)の画素から始まる、2個〜10個までの画素を有する左斜めラインの各画素の階調値(濃度)が、入力信号I〜I,・・・、入力信号I〜I10としてニューラルネットワーク201に入力される。また、右斜めライン画像パターン認識の場合、図26に示すように、縮小画像データ302の第1行における任意の列の画素(網掛け部分)から始まる2画素〜10画素までの画素を有する各画素の階調値(濃度)が、入力信号I〜Iから入力信号I〜I10としてニューラルネットワーク201に入力される。
図27は、全面画像によるパターン認識で紙片の金種を鑑別する紙片鑑別装置200の動作を説明するフロチャートである。尚、同図において、図3のフロチャートのステップと同一処理をするステップには同じステップ番号を付与している。
画像処理部17Aは、画像記憶部18から読み出した紙片画像データに対して濃度補正処理を施し(ステップS11)、さらに、その紙片画像データ42を斜行補正して正規化する(ステップS12)。画像処理部17Aは、続いて、最初に選択した金種の辞書データ70上の最初に選択したコーナーに紙片画像データ42を貼り付けて比較用紙幣画像データ301を作成する(ステップS13)。この最初に選択する金種及びコーナー(位置)は、予め、決めておく。
次に、画像処理部17Aは、前記比較用紙幣画像データ301の縮小画像データ302を作成し(ステップS104)、その全面画像データ(全画素)をニューロ演算部201に出力する(ステップS105)。
ニューロ演算部201は、該全面画像データを入力パターンとして入力し、ニューロ演算を行い、その入力パターンに対応する出力パターンを出力する(ステップS106)。
中央処理部11Aは、そのニューロ演算部201の出力パターンを入力し、ニューロ演算部201により金種が推定されたか判別する(ステップS107)。そして、金種が推定されていなければ、現在選択中の金種の基準データ50について全コーナーでの紙片画像データ42の貼り付けが終了したか判別し(ステップS108)、まだ、全コーナーでの貼り付けが終了していなければ、ステップS13に戻る。
一方、ステップS107で、中央処理部11は金種が推定されたと判別すれば、その金種を記憶部21に格納し(ステップS111)、処理を終了する。
このようにして、基準データ50上の各コーナーに紙片画像データ42を順次貼り付けながら比較用紙幣画像データ301を作成し、その縮小画像データ302についてニューロ演算部201により金種の推定が行なわれる。そして、ステップ108で、現在選択している金種の基準データ50上の全コーナーに紙片画像データ42を貼り付けた場合の比較用紙幣画像データ301のニューロ演算部201による金種推定が終了したと判別すると、次に、全金種の比較用紙幣画像データ301の縮小画像データ302についてニューロ演算部201による金種推定が終了したか判別する(ステップS109)。そして、全金種の比較用紙幣画像データ301の縮小画像データ302について金種推定が終了していないと判別すると、次の金種を選択し(ステップS110)、ステップS13に戻る。
このようにして、各金種について全コーナーの比較用紙幣画像データ60を作成し、それらの縮小画像データ302の個々について、ニューロ演算部201による全面画像パターン認識よる金種推定を行って、紙片の金種と方向を鑑別し、その鑑別結果を記憶部21に格納する。また、全金種の全コーナーの比較用紙幣画像データ60についてニューロ演算部201による金種が推定されない場合には、ステップS109で全金種についてニューロ演算部201による金種推定が終了したと判別して、処理を終了する。
図28は、横ライン画像によるパターン認識で紙片の金種を鑑別する紙片鑑別装置200の動作を説明するフロチャートである。同図において、図27と同一処理をするステップには同じステップ番号を付与しており、これらのステップについての説明は省略する。
横ライン画像によるニューロ演算によるパターン認識においては、画像処理部17Aは、縮小画像データ302を作成すると(ステップS104)、その縮小画像データ302の任意の横ライン(紙片画像データ42を含むライン)の画像データをニューロ演算部201に出力する(ステップS125)。
ニューロ演算部201は、該横ライン画像データを入力パターンとして入力し、その入力パターンに対応する出力パターンを中央処理部11に出力する(ステップS126)。中央処理部11は、該出力パターンを解析することにより、紙片の金種と方向を鑑別する。上記以外の処理は、図27の全面画像でのパターン認識と同様である。
図29は、縦ライン画像によるパターン認識で紙片の金種を鑑別する紙片鑑別装置200の動作を説明するフロチャートである。同図において、図28のステップと同一処理をするステップには同じステップ番号を付与しており、これらのステップについての説明は省略する。
画像処理部17Aは、縮小画像データ302を作成すると(ステップS104)、その縮小画像データ302の任意の縦ライン(縮小画像データ302を含むライン)の画像データをニューロ演算部201に出力する(ステップS135)。ニューロ演算部201は、この縦ライン画像データを入力パターンとして入力し、その入力パターンに対応する出力パターンを中央処理部11に出力する(ステップS136)。中央処理部11は、その出力パターンを解析し、紙片の金種と方向が推定されたか判断し、それらが推定されていれば、その推定された紙幣の金種と方向を記憶部21に格納する。
図30は、斜めライン画像(左斜めライン画像または右斜めライン画像)のパターン認識により紙片の金種を鑑別する紙片鑑別装置200の動作を説明するフロチャートである。同図において、図27のステップと同一処理をするステップには同じステップ番号を付与しており、それらのステップの説明は省略する。
画像処理部17Aは、縮小画像データ302を作成すると(ステップS104)、その縮小画像データ302の任意の斜めライン(紙片画像データ42を含むライン)の画像データをニューロ演算部201に出力する(ステップS145)。ニューロ演算部201は、その斜めライン画像データを入力パターンとして入力し、それに対応する出力パターンを中央処理部11に出力する(ステップS146)。中央処理部11は、その出力パターンを解析し、紙片の金種と方向を鑑別する。
尚、上記第2実施形態では、縮小画像データ302の一部のデータを入力パターンとする際、縦1ライン、横1ラインまたは斜め1ラインの画像データを入力パターンとして使用するようにしているが、本発明は、これらに限定されるものではなく、例えば、縦方向、横方向または斜め方向の複数のラインを入力パターンとしてもよい。また、入力パターンとして用いる縮小画像データ302の部分データはライン形状である必要はなく、紙片画像データ42を含むデータであれば、いかなる形状であってもよい。
また、第1実施形態の辞書比較部18による金種推定と第2実施形態のニューロ演算部201による金種推定の両方を行って、金種推定の確度を高めたシステムを構築するようにしてもよい。
上述したように、本発明によれば、紙片の画像データを各金種の基準データ(真券の画像データ)に貼り付けて金種毎の比較用紙幣画像データを作成し、この比較用紙幣画像データを対応する金種の辞書データとパターンマッチングすることにより、紙片の金種を識別することができる。
また、本発明は、既存の装置のハードウェアを変更する必要はなく、ソフトウェアの変更のみで対処できるため、導入コストは低い。また、近年、増加している無人店舗での稼動や24時間運用で使用される紙幣処理装置に実装するようにした場合、紙幣が装置内部で破れるような事態が生じても、紙片から紙幣残高を常に確定できるようになるため、その利用価値は極めて大きい。
【産業上の利用可能性】
本発明は、紙幣の入出金が行なわれるATMやCD(Cash Dispenser),自動販売機、駅の切符販売機など、今後、省人化に伴い急増するであろう紙幣の入出金を取り扱う無人機全般に適用できるので利用需要は大きい。
【図1】

【図2】

【図3】

【図4】

【図5】

【図6】

【図7】

【図8】

【図9】

【図10】

【図11】

【図12】

【図13】

【図14】

【図15】

【図16】

【図17】

【図18】

【図19】

【図20】

【図21】

【図22】

【図23】

【図24】

【図25】

【図26】

【図27】

【図28】

【図29】

【図30】


【特許請求の範囲】
【請求項1】
真券の紙幣の画像データである基準データを、少なくとも一つの金種について格納している基準データ記憶手段と、
真券の紙幣鑑別用の辞書データを、前記基準データと同じ金種数だけ格納している辞書データ記憶手段と、
紙葉類の切片である紙片の画像データを取得するセンサ手段と、
該センサ手段により得られた紙片画像データを、前記基準データ記憶手段に格納されている各金種の基準データと合成して各金種毎の比較用紙幣画像データを作成し、該比較用紙幣画像データを前記辞書データ記憶手段に格納されている同一金種の辞書データとパターンマッチングすることにより、前記紙片の金種を鑑別する辞書比較手段と、
を備えることを特徴とする紙片鑑別装置。
【請求項2】
前記辞書比較手段は、前記比較用紙幣画像データと前記辞書データとを全画像についてパターンマッチングすることを特徴とする請求項1記載の紙片鑑別装置。
【請求項3】
前記辞書比較手段は、前記比較用紙幣画像データと前記辞書データの一部についてパターンマッチングをすることを特徴とする請求項1記載の紙片鑑別装置。
【請求項4】
前記辞書比較手段は、前記比較用紙幣画像データと前記辞書データとのパターンマッチングを、横ラインについてすることを特徴とする請求項3記載の紙片鑑別装置。
【請求項5】
前記辞書比較手段は、前記比較用紙幣画像データと前記辞書データとのパターンマッチングを、縦ラインについてすることを特徴とする請求項3記載の紙片鑑別装置。
【請求項6】
前記辞書比較手段は、前記比較用紙幣画像データと前記辞書データとのパターンマッチングを、斜めラインについてすることを特徴とする請求項3記載の紙片鑑別装置。
【請求項7】
前記辞書比較手段は、前記比較用紙幣画像データと前記辞書データについて、全画像のパターンマッチング、横ラインのパターンマッチング、縦ラインのパターンマッチング及び斜めラインのパターンマッチングを順次施し、それらのパターンマッチングの結果から前記紙片の金種を鑑別することを特徴とする請求項1記載の紙片鑑別装置。
【請求項8】
前記辞書比較手段は、前記基準データのコーナーに前記紙片画像データを貼り付けることにより、少なくとも一つの比較用紙幣画像データを作成することを特徴とする請求項1記載の紙片鑑別装置。
【請求項9】
前記辞書比較手段は、前記比較用紙幣画像データを作成する際、前記紙片画像データを前記基準データに貼り付ける位置を、前記比較用紙幣画像データの形状に応じて決定することを特徴とする請求項1記載の紙片鑑別装置。
【請求項10】
前記辞書比較手段は、紙片の金種に加えて、紙片の紙幣上での位置も鑑別することを特徴とする請求項1記載の紙片鑑別装置。
【請求項11】
真券の紙幣の画像データである基準データを、少なくとも一つの金種について格納している基準データ記憶手段と、
紙葉類の切片である紙片の画像データを取得するセンサ手段と、
該センサ手段により得られた紙片画像データを、前記基準データ記憶手段に格納されている各金種の基準データと合成して各金種毎の比較用紙幣画像データを作成する画像処理手段と、
該比較用紙幣画像データを入力パターンとして入力し、その入力パターンに対してニューロ演算を施して、前記紙片の金種を示す出力パターンを出力するニューロ演算手段と、
を備えることを特徴とする紙片鑑別装置。
【請求項12】
前記入力パターンは、前記比較用紙幣画像データの一部であることを特徴とする請求項11記載の紙片鑑別装置。
【請求項13】
前記入力パターンは、前記比較用紙幣画像データの縦ラインの画像データであることを特徴とする請求項12記載の紙片鑑別装置。
【請求項14】
前記入力パターンは、前記比較用紙幣画像データの横ラインの画像データであることを特徴とする請求項12記載の紙片鑑別装置。
【請求項15】
前記入力パターンは、前記比較用紙幣画像データの斜めラインの画像データであることを特徴とする請求項12記載の紙片鑑別装置。
【請求項16】
前記ニューロ演算手段は、前記紙片の金種に加え、前記紙片の紙幣上での位置に関する情報も出力パターンとして出力することを特徴とする請求項11記載の紙片鑑別装置。
【請求項17】
真券の紙幣の画像データである基準データを、少なくとも一つの金種について第1の記憶手段に格納し、
真券の紙幣鑑別用の辞書データを、前記基準データと同じ金種数だけ第2の記憶手段に格納し、
紙葉類の切片である紙片の画像データを取得し、
該取得した紙片画像データを、前記1の基準データ格納手段に格納されている各金種の基準データと合成して各金種毎の比較用紙幣画像データを作成し、該比較用紙幣画像データを前記第2の記憶手段に格納されている同一金種の辞書データとパターンマッチングすることにより、前記紙片の金種を鑑別すること、
を特徴とする紙片鑑別方法。
【請求項18】
真券の紙幣の画像データである基準データを、少なくとも一つの金種について第1の記憶手段に格納し、
真券の紙幣鑑別用の辞書データを、前記基準データと同じ金種数だけ第2の記憶手段に格納し、
紙葉類の切片である紙片の画像データを取得し、
該取得した紙片画像データを、前記1の基準データ格納手段に格納されている各金種の基準データと合成して各金種毎の比較用紙幣画像データを作成し、該比較用紙幣画像データを前記第2の記憶手段に格納されている同一金種の辞書データとパターンマッチングすることにより、前記紙片の金種を鑑別すること、
を特徴とする紙片鑑別方法。
【請求項19】
真券の紙幣の画像データである基準データを、少なくとも一つの金種について第1の記憶手段に格納するステップと、
真券の紙幣鑑別用の辞書データを、前記基準データと同じ金種数だけ第2の記憶手段に格納するステップと、
紙葉類の切片である紙片の画像データを取得するステップと、
該取得した紙片画像データを、前記1の基準データ格納手段に格納されている各金種の基準データと合成して各金種毎の比較用紙幣画像データを作成するステップと、
該比較用紙幣画像データを前記第2の記憶手段に格納されている同一金種の辞書データとパターンマッチングすることにより、前記紙片の金種を鑑別するステップを、
コンピュータに実行させるプログラム。
【請求項20】
真券の紙幣の画像データである基準データを、少なくとも一つの金種について第1の記憶手段に格納するステップと、
真券の紙幣鑑別用の辞書データを、前記基準データと同じ金種数だけ第2の記憶手段に格納するステップと、
紙葉類の切片である紙片の画像データを取得するステップと、
該取得した紙片画像データを、前記1の基準データ格納手段に格納されている各金種の基準データと合成して各金種毎の比較用紙幣画像データを作成し、該比較用紙幣画像データを前記第2の記憶手段に格納されている同一金種の辞書データとパターンマッチングすることにより、前記紙片の金種を鑑別するステップを、
コンピュータに実行させることを特徴とするプログラム。

【国際公開番号】WO2004/023403
【国際公開日】平成16年3月18日(2004.3.18)
【発行日】平成18年1月5日(2006.1.5)
【国際特許分類】
【出願番号】特願2004−534046(P2004−534046)
【国際出願番号】PCT/JP2002/008814
【国際出願日】平成14年8月30日(2002.8.30)
【出願人】(000005223)富士通株式会社 (25,993)
【出願人】(000237639)富士通フロンテック株式会社 (667)
【Fターム(参考)】