説明

監視装置および監視方法

【課題】振り込め詐欺による被害を未然に防ぐことが可能とする。
【解決手段】ATMに対して設置した監視カメラで撮像された映像を解析して、ATMの利用者の行動に関する言語化データを取得する。この言語化データを参照して、ATMの利用者が振り込め詐欺に遭いそうであると判定される行動が存在するか否かを判断する。言語化データに、ATMの利用者が振り込め詐欺に遭いそうであると判定される行動が存在したら、ATMの管理者などに通知すると共に、ATMの表示部に当該利用者に対して注意を喚起する表示を行う。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、監視カメラを用いて現金自動預払機の周辺を監視する監視装置および監視方法に関し、特に、振り込め詐欺対策に用いて好適な監視装置および監視方法に関する。
【背景技術】
【0002】
従来から、カードなどを用いて現金の引き出しや預け入れを無人で行う現金自動預払機(ATM:Automatic Teller Machine)を利用した犯罪が多発している。このような犯罪の例として、ATMの利用者が暗証番号を入力中に、利用者の背後から覗き込んで暗証番号を盗み見るというものや、ATMによって現金を引き出した直後を狙い、引き出した現金を奪うという、所謂引ったくり行為などがある。さらに、詐欺行為などにより被害者にATMから金を振り込ませるといったことも行われる。
【0003】
このような、ATMを利用した犯罪を防止するための対策が様々に提案されている。例えば、特許文献1には、来訪者の顔の映像を取り込んで顔の特徴部分を抽出し、抽出された顔の特徴部分の情報に基づき当該来訪者が不審人物か否かを判定する技術が記載されている。来訪者が不審人物であると判定された場合に、その旨をATMの管理人や利用者などに通知することで、ATMを利用した犯罪を防止することが可能である。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特許第2648054号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
ところで、近年では、ATMを利用した振り込め詐欺が問題となっている。振り込め詐欺は、近親者の情愛につけ込み、人と社会の信頼関係を逆手にとるなどきわめて卑劣な犯罪である。このような振り込め詐欺を未然に防ぐための対策が、早急に必要とされている。
【0006】
振り込め詐欺の場合、ATMは、被害者が指定の口座および金額による振り込みを行う場合と、詐欺を仕掛けた側が被害者により振り込まれた金を引き出す場合とに利用される。ATMの利用者の中から振り込め詐欺の被害に遭いそうな人物、すなわち、振り込め詐欺の指示に従い指定の口座および金額による振り込みを行おうとしている人物を検出できれば、振り込め詐欺による被害を未然に防ぐことができる。
【0007】
例えば、上述した特許文献1による方法は、ATMの利用者の中から詐欺を仕掛けた側の人物を検出する場合に対しては、有効であると考えられる。すなわち、特許文献1によれば、詐欺を仕掛けた側の人物は、監視カメラなどによる録画や、公衆の目撃の可能性を少なくするために、帽子やサングラス、マスクなどで顔を容易に判別できないようにしている場合が多いので、これを不審人物の特徴として検出を行う。
【0008】
しかしながら、上述した特許文献1による方法は、あくまで犯罪を犯す可能性のあると考えられる不審人物の検出を行うためのものであって、犯罪の被害に遭いそうな人物を検出するものではなかった。
【0009】
本発明は、上記に鑑みてなされたものであって、振り込め詐欺などの犯罪による被害を未然に防ぐことが可能な監視装置および監視方法を提供することを目的とする。
【課題を解決するための手段】
【0010】
上述した課題を解決し、目的を達成するために、本発明は、現金の預け入れおよび引き出しを行う現金自動預払機の周辺を監視する監視装置であって、現金自動預払機の周辺を撮像するための撮像手段が撮像した人物の画像情報を記憶する画像情報記憶手段と、画像情報を解析して人物の動作状態を抽出し、抽出した人物の動作状態を表す情報であって、人物の動作の種類を表す動詞と人物の動作に関連する名詞とを含み、動詞に対する名詞の意味関係を表した状態情報を、画像情報記憶手段が記憶する画像情報に対応付けて記憶する状態情報記憶手段と、状態情報記憶手段に記憶された状態情報を参照し、状態情報が予め指定された条件を満たす場合に、状態情報に対応する人物が犯罪の被害に遭いそうであると判定する判定手段とを有することを特徴とする。
【0011】
また、本発明は、現金の預け入れおよび引き出しを行う現金自動預払機の周辺を監視する監視方法であって、現金自動預払機の周辺を撮像するための撮像手段が撮像した人物の画像情報を画像情報記憶手段に記憶するステップと、画像情報を解析して人物の動作状態を抽出し、抽出した人物の動作状態を表す情報であって、人物の動作の種類を表す動詞と人物の動作に関連する名詞とを含み、動詞に対する名詞の意味関係を表した状態情報を、画像情報記憶手段が記憶する画像情報に対応付けて状態情報記憶手段に記憶するステップと、状態情報記憶手段に記憶された状態情報を参照し、状態情報が予め指定された条件を満たす場合に、状態情報に対応する人物が犯罪の被害に遭いそうであると判定する判定ステップとを有することを特徴とする。
【発明の効果】
【0012】
本発明によれば、現金自動預払機を利用する人物の動作を示す状態情報が予め指定された条件を満たす場合に、当該人物が振り込め詐欺などの犯罪による被害に遭いそうであると判定するようにしているため、振り込め詐欺などの犯罪による被害を未然に防ぐことができる。
【図面の簡単な説明】
【0013】
【図1】図1は、本発明の実施形態に適用可能な監視システムの一例の構成を示すブロック図である。
【図2】図2は、状態情報DBに記憶される状態情報のデータ構造の一例を概略的に示す略線図である。
【図3】図3は、本実施形態による状態情報のデータ構造の一例をより具体的に示す略線図である。
【図4】図4は、本実施形態による判定処理を概略的に示す一例のフローチャートである。
【図5】図5は、本実施形態による、言語化データに基づく判定を行う対象となる行動と判定方法とを概略的に示す略線図である。
【図6】図6は、判定を行う各項目に示す行動を行っている人物に対して判定される状況の例を示す略線図である。
【図7】図7は、判定を行う各項目に示す行動を行っている人物に対して判定される各状況に対する処理の例を示す略線図である。
【図8】図8は、ATMを利用しているか否かを判定する一例の処理を示すフローチャートである。
【図9】図9は、携帯電話で通話しているか否を判定する一例の処理を示すフローチャートである。
【図10】図10は、高齢者であるか否かを判定する一例の処理を示すフローチャートである。
【図11】図11は、ATMを長時間利用しているか否かを判定する一例の処理を示すフローチャートである。
【図12】図12は、ATM直前にいる利用者の背後にいる他の人物が、当該利用者によるATMに対する操作を覗き込んでいるか否かを判定する一例の処理を示すフローチャートである。
【図13】図13は、女性であるか否かを判定する一例の処理を示すフローチャートである。
【図14】図14は、顔を隠しているか否かを判定する一例の処理を示すフローチャートである。
【図15】図15は、行動の判定に用いられる深層格フレームの例を示す略線図である。
【発明を実施するための形態】
【0014】
<本発明の概略>
以下に添付図面を参照して、この発明に係る監視装置および監視方法の最良な実施形態を詳細に説明する。本発明では、現金自動預払機(以下、ATM)に対して設置した監視カメラで撮像された映像を解析し、ATMの利用者が振り込め詐欺の被害に遭いそうな人物か否か、すなわち、当該利用者が振り込め詐欺による振り込みを行おうとしていると考えられるか否かを判定する。当該利用者が振り込め詐欺の被害に遭いそうであると判定された場合、ATMの管理者などに通知すると共に、ATMの表示部に当該利用者に対して注意を喚起する表示を行う。
【0015】
<本発明の実施形態に適用可能なシステムについて>
図1は、本発明の実施形態に適用可能な監視システムの一例の構成を示す。図1に示すように、監視システムは、警備装置100と監視センタ200とを備えている。警備装置100と監視センタ200は、電話回線、無線ネットワーク、インターネットなどのネットワーク50を介して接続されている。また、ネットワーク50には、ATM300が接続される。ATM300は、警備装置100に対して直接的に接続してもよい。
【0016】
監視センタ200は、監視領域の異常を検知した警備装置100からの通報を受け、待機中の警備員に対して異常が検知された監視領域(不図示)へ向かう旨の指示を出すとともに、必要に応じて警察や消防等の関係機関への通報を行う。
【0017】
警備装置100は、センサ110と、監視カメラ120と、警備操作部130とを備えている。
【0018】
センサ110は、警備対象である監視領域に設置されており、主に侵入者等の異常を検知する目的で設置された人感センサである。センサ110は、人の存在や扉の開閉を検知した場合に検知信号を出力する。センサ110は、例えば赤外線の受光量の変化をもとに人の存在を検出する赤外線センサ、赤外線等の受信が遮断されることで人の存在を検出する遮断センサ、電磁波の乱れで人の存在を検知する電波センサ、およびマグネットにより扉の開閉を検出するマグネットセンサなどの監視領域の異常を検出する各種センサによって構成できる。
【0019】
監視カメラ120は、警備対象である監視領域を撮像する。本実施形態では、監視カメラ120は、図示されないATM300の利用者および当該利用者の周囲を監視領域とするように設置される。監視カメラ120で撮像して得られた画像情報や映像情報は、後述する画像情報DB(データベース)150に記憶される。
【0020】
警備操作部130において、検知情報受信部131は、センサ110によって異常が検知された場合に送出される検知情報を受信する。検知情報は、センサ110から送出される検知信号であり、センサ110が複数設置されている場合は、検知信号およびセンサを識別するセンサIDなども含まれる。
【0021】
操作パネル170は、警備装置100に関する情報が表示され、警備装置100に対して情報が入力される。操作パネル170は、ボタンの押下等によって警備モードまたは警備解除モードのいずれかの警備状態を入力する。操作パネル制御部134は、操作パネル170への表示情報の出力や、操作パネル170から入力された入力情報の取得などの操作パネル170に対する制御を行う。
【0022】
警備状態記憶部132は、現在の警備装置100の警備モードである警備状態または警備解除状態のいずれかを記憶するHDDやメモリなどの記憶媒体である。警備状態切替部133は、操作パネル170が入力を受け付けた警備モードの切替信号が操作パネル制御部134によって制御され、制御された切替信号に従って、現在の警備モードを警備状態記憶部132に格納する。
【0023】
画像情報DB150は、監視カメラ120が撮像した画像情報や映像情報を、その撮像された時刻(例えば、撮像開始時刻、撮像終了時刻)および後述する言語構造構築部136により構築された状態情報の深層格フレームIDと共に記憶する。画像情報DB150は、ハードディスクドライブやメモリなどの記憶媒体において構築されている。
【0024】
画像処理部135は、画像情報DB150に記憶された、監視カメラ120によって撮像された画像情報や映像情報を解析し、撮像された画像に映った物体の動作状態の画像情報や映像情報を抽出する。例えば、画像処理部135は、撮像された画像に人物が映っている場合には、肌領域の検出などにより人物を特定し、特定した人物の動作(例えば、ATM300に向かって歩行している状態)の画像情報や映像情報を抽出する。
【0025】
言語構造構築部136は、画像情報DB150に記憶された画像情報や映像情報から画像処理部135により抽出された物体の動作状態の画像情報や映像情報に基づき、後述する深層格フレームによって表された状態情報を構築する。すなわち、言語構造構築部136は、物体の動作状態の画像情報や映像情報に基づき深層格フレームの各要素を抽出し、当該動作状態を言語化する。
【0026】
状態情報DB160は、物体の動作状態を深層格フレーム構造で表した状態情報を、画像情報DB150に記憶されている画像情報や映像情報に対応付けて記憶するものであり、HDDやメモリ等の記憶媒体に記憶されている。なお、深層格フレーム(以下、単に格フレームとも言う)とは、動詞を基準として、動詞に対する名詞の意味関係を深層格として表した言語構造のことである。具体的には、画像情報DB150に記憶される画像情報や映像情報と状態情報DB160とは、後述する深層格フレームIDによって対応付けられている。
【0027】
行動判定部137は、監視カメラ120で撮像されて得られた画像情報や映像情報に応じて言語構造構築部136で構築された状態情報に基づき、当該画像情報や映像情報による画像に含まれる人物の動作などを判定する。
【0028】
送受信部143は、ネットワーク50を介して監視センタ200との間で各種情報を送受信するものである。例えば、送受信部143は、センサ110により異常が検知された場合に、監視領域に異常が発生した旨の警報を監視センタ200に送信する。また、送受信部143は、行動判定部137で判定された所定の行動などに応じた通知を監視センタ200に送信する。
【0029】
また、送受信部143は、ネットワーク50を介してATM300との間での情報の送受信も行うことができる。例えば、送受信部143は、後述する行動判定部137による判定結果に応じたメッセージをATM300に送信することができる。
【0030】
図2は、状態情報DB160に記憶される状態情報のデータ構造の一例を概略的に示す。図2に示すように、状態情報は、格フレームを識別する格フレームIDと、動作(行動)の種類を表す行動名と、動作に関連する名詞である格要素(深層格)とを含んでいる。深層格には、主格、属性格、場所格、時間格、源泉格、目標格、対象格、および道具格が含まれる。それぞれの深層格は、1または複数の要素を含む。深層格に含まれる要素は、さらに1または複数の要素を含むことができる。
【0031】
図3は、本実施形態による状態情報のデータ構造の一例をより具体的に示す。主格は、動作を引き起こす主体を表す。主格は、追跡番号および認証名を要素に含む。
【0032】
属性格は、主格に関する情報を要素に含む。この例では、属性格は、要素として顔特徴、体特徴および歩行特徴を含み、各要素は、さらに要素を含む。顔特徴は、顔検出信頼度、顔特徴、口開閉度合、視線方向、マスクの有無、サングラスの有無、性別、年代(年齢範囲)および頭色(頭髪色)を要素に含む。なお、口開閉度合は、例えば、顔検出の結果を時系列的に並べた場合に、口の開状態と閉状態とが単位時間当たりに繰り返される回数に基づく。体特徴は、身長、上半身色および下半身色を要素に含む。また、歩行特徴は、歩幅、体型、脚長および歩速(歩行速度)を要素に含む。
【0033】
場所格は、動作や状態が起こる場所を表す。この例では、場所格は、場所名と、人体の各部の座標、例えば頭部座標、体座標、足座標、右手座標、左手座標および重心座標を要素に含む。時間格は、動作や状態が起こる時間を要素に含む。この例では、時間格は、日時と経過時間とを要素に含む。
【0034】
源泉格は、移動や状態変化などの起点を表す。例えば、源泉格は、主格が移動や動作などを行う起点の位置を表す場所情報、主格が移動や動作などを開始する時間を表す時間情報、ならびに、起点での主格の属性を表す属性情報を含む。目標格は、上述の源泉格に対応し、移動や状態変化などの終点を表す。例えば、目標格は、主格が移動や動作などを行う終点の位置を表す場所情報、主格が移動や動作などを終了した時間を表す時間情報、ならびに、終点での主格の属性を表す属性情報を含む。
【0035】
対象格は、動作や状態の対象となる事物を表す。この例では、対象格は、追跡番号および認証名を要素に含む。道具格は、動作の補助的手段を表す。この例では、道具格は、追跡番号および認証名を要素に含む。
【0036】
深層格フレームは、例えば、対象となる人物について画像情報や映像情報に基づき格要素を検出し、検出された要素に基づき所定の規則に従い行動名を定義して生成する。深層格フレームの生成は、例えば、対象となる人物が映像情報から検出されている間は、所定間隔で繰り返し行われる。要素の情報が以前に生成した深層格フレームと異なる場合、所定の規則に従い、要素の差異に基づく行動名が定義される。
【0037】
<本発明の実施形態によるATM前での行動判定>
次に、本発明の実施形態による、ATM前での行動判定について、より詳細に説明する。図4は、本実施形態による判定処理を概略的に示す一例のフローチャートである。先ず、画像処理部135により、監視カメラ120で撮像され画像情報DB150に記憶された画像情報や映像情報(以下、映像情報で代表させる)が解析され、当該映像情報による映像に含まれる人物の動作状態の映像情報を抽出する。言語構造構築部136は、画像処理部135の画像処理により抽出された、動作状態の映像情報に基づき当該動作状態を言語化して深層格フレームを構築し、映像情報に含まれる人物に関する言語化データ(状態情報)を取得する(ステップS1)。
【0038】
次に、行動判定部137により、ステップS1で取得された言語化データに基づき、映像情報に含まれる人物の行動に、後述する、本実施形態による判定の対象となる行動が含まれているか否かが判断される(ステップS2)。若し、判定の対象となる行動が含まれていないと判断された場合は、一連の処理が終了される。
【0039】
一方、ステップS2で、判定の対象となる行動が含まれていると判断されたら、処理はステップS3に移行され、例えば利用者に対して警告などの通知が行われる。利用者に対する通知は、例えば送受信部143によりネットワーク50を介してATM300に送信される。さらに、この通知を、ネットワーク50を介して監視センタ200や、当該ATM300の管理者(図示しない)といったATM300の監視元に送信してもよい。
【0040】
なお、上述では、ステップS2で、判定の対象となる行動が含まれていないと判定された場合、ならびに、ステップS3の通知処理が完了した場合に一連の処理が終了されるように説明したが、実際には、これらの処理の後、処理がステップS1に戻されて、一連の処理が繰り返される。したがって、行動判定部137は、常に最新の言語化データ(状態情報)に基づき、判定の対象となる行動が含まれているか否かの判断を行うことができる。
【0041】
<判定項目について>
図5は、上述した図4のステップS2において、言語化データに基づく判定を行う対象となる行動と判定方法とを概略的に示す。図5に示されるように、本実施形態では、ATM300前の利用者に係る行動のうち、下記の(1)〜(7)の7項目に示す行動を行っているか否かについて判定を行う。
(1)ATMを利用している。
(2)携帯電話で通話している。
(3)高齢者である。
(4)ATMを長時間利用している。
(5)ATM直前にいる利用者の背後にいる他の人物が、当該利用者によるATMに対する操作を覗き込んでいる。
(6)女性である。
(7)顔を隠している。
【0042】
なお、上述において、(3)の「高齢者である」と、(6)の「女性である」は、動作ではないが、人物の状態を示すことから、ここでは行動として定義する。
【0043】
(1)〜(7)それぞれの行動は、概略的には、下記のようにして判定できる。(1)の、ATMを利用しているか否かは、対象の人物がATMの直前に滞在しているか否かで判定できる。(2)の、携帯電話で通話しているか否かは、対象の人物の口が開閉しており、且つ、耳の横に手があるか否かで判定できる。(3)の、高齢者であるか否かは、顔の特徴が高齢者特有の特徴を有しているか否かで判定できる。(4)の、ATMを長時間利用しているか否かは、ATMの前に長時間滞在しているか否かで判定できる。(5)の、ATM直前にいる利用者の背後にいる他の人物が、当該利用者によるATMに対する操作を覗き込んでいるか否かは、ATMの前に1人の人物が滞在しており、且つ、ATM前に滞在している当該人物のすぐ後ろに他の人物がいて、且つ、当該他の人物がATMの操作部を見ているか否かで判定できる。(6)の、女性であるか否かは、顔の特徴が女性特有の特徴を有しているか否かで判定できる。(7)の、顔を隠しているか否かは、対象の人物がサングラスおよびマスクのうち少なくとも一方を装着しているか否かで判定できる。
【0044】
上述の(1)〜(7)の7項目に示す行動を行っている人物に対して判定される状況の例を、図6に示す。なお、(1)の「ATMを利用している」は、(2)〜(7)の行動について判定を行う場合の前提条件となるものである。
【0045】
(1)ATMを利用しており、且つ、(2)携帯電話で通話を行っている人物は、振り込め詐欺に遭っているまたは遭いそうな可能性が非常に高いと判定する。(1)ATMを利用しており、且つ、(3)高齢者または(4)ATMを長時間利用している人物は、振り込め詐欺に遭っているまたは遭いそうな可能性があると判定する。また、(1)ATMの利用に際し、(2)、(3)および(4)のうち2項目または3項目の組み合わせの行動をとっている人物についても、勿論、振り込め詐欺に遭っているまたは遭いそうな可能性が非常に高いと判定することができる。
【0046】
ATMの利用に関連して発生する、振り込め詐欺以外の事例にも、本実施形態は適用可能である。例えば、(1)ATMを利用しており、且つ、(3)高齢者または(6)女性である人物は、引ったくりに遭う可能性があると判定する。また、(1)ATMを利用しており、且つ、(5)ATMを操作している人物の後ろにいる人物が、ATMの操作を覗き込んでいる場合、ATMを操作している人物は、引ったくりに遭う可能性が非常に高いと判定する。勿論、(1)ATMを利用しており、(3)高齢者であり且つ(6)女性である人物についても、引ったくりに遭う可能性が非常に高いと判定することができる。さらに、(1)ATMを利用しており、且つ、(7)顔を隠している人物は、不審者の可能性があると判定できる。
【0047】
図7は、上述したような各状況に対する処理の例である。対象となる人物が振り込め詐欺に遭っているまたは遭いそうな可能性があると判定した場合や、引ったくりに遭う可能性があると判定した場合は、当該人物に対して注意を喚起するメッセージを通知することができる。例えば、行動判定部137は、対象となる人物が振り込め詐欺に遭っているまたは遭いそうな可能性があると判定した場合、送受信部143からネットワーク50を介してATM300に対してその旨を通知し、ATM300の操作表示部などに利用者の注意を喚起するようなメッセージなどを表示させるよう、ATM300に依頼する。
【0048】
また、対象となる人物が振り込め詐欺に遭っているまたは遭いそうな可能性が非常に高いと判定した場合や、引ったくりに遭う可能性が非常に高いと判定した場合は、行動判定部137は、例えば送受信部143からネットワーク50を介して、監視センタ200に対してその旨通報する。これに限らず、ATM300が設置された店舗の担当者などに通知を行うようにしてもよい。さらに、状況に応じて、監視センタ200と店舗担当者などの複数の通知先に一斉に通知を行うことも可能である。このように、行動判定部137は、被害に遭いそうな度合に応じて、通知先を選択することができる。
【0049】
さらに、対象となる人物が不審者の可能性があると判定した場合は、行動判定部137は、ATM300の当該人物による利用に制限をかけることが考えられる。例えば、行動判定部137は、対象となる人物が不審者であると判定すると、送受信部143からネットワーク50を介してATM300に対してその旨通知し、ATM300に対して、当該人物(現在の利用者)に対して利用制限をかけるよう、ATM300に対して依頼する。利用制限としては、例えば引き出し可能額に制限をかける、引き出しそのものを行えなくする、などが考えられる。
【0050】
このように、ATMの利用者の状況を判定して、状況に応じた処理を行うことで、振り込め詐欺や引ったくりなどの被害を未然に食い止めることが可能となる。また、ATMの利用者が不審者である可能性が高い場合には、不正に入手した金の引き出しを阻止することができる。
【0051】
<各判定項目による判定方法>
上述の(1)〜(7)の各項目についての判定は、行動判定部137が、監視カメラ120で撮像された映像情報による映像に含まれる人物に関して構築された深層格フレームを参照することで行われる。すなわち、行動判定部137は、当該深層格フレームのうち、対象の項目に対して予め指定された深層格を参照し、参照された深層格が表す情報が、判定項目に応じて当該深層格に対して予め設定された判定条件を満たすか否かを判断する。その結果、満たすと判断されたら、当該人物が対象の項目の行動を行っていると判定する。
【0052】
以下、上述の図5と、図8〜図14のフローチャートとを用いて、(1)〜(7)の各項目の判定処理について、より詳細に説明する。
【0053】
(1)の、ATMを利用しているか否かを判定する一例の処理について、図8のフローチャートと図5とを用いて説明する。監視カメラ120で撮像された映像情報による映像に含まれる人物がATM300を利用しているか否かは、対象となる人物の映像情報に対応付けられた深層格フレームの行動名と、当該深層格フレームによる深層格のうち、場所格とに基づき判定する。判定に用いる場所格の要素は、場所名である。例えば、図5を参照し、行動名が「滞在する」、場所名が「ATM前」である場合に、対象となる人物がATM300を利用していると判定する。
【0054】
図8において、ステップS10で、画像処理部135は、監視カメラ120で撮像された映像情報から顔を検出する。画像処理部135は、次のステップS11で、検出された検出された顔について大きさを算出し、さらに次のステップS12で当該顔の中心座標を算出する。そして、次のステップS13で、言語構造構築部136は、ステップS11およびステップS12で算出された顔の大きさおよび中心座標に基づき人物の位置を推定し、推定された位置を示す名称と、算出された顔の中心座標とを、対象の人物の映像情報に対応付けられた深層格フレームにおける行動名を「滞在する」とし、場所格の要素(場所名、頭部座標)として保持する。
【0055】
次のステップS14では、行動判定部137は、ステップS13で言語構造構築部136に保持された深層格フレームに基づき、当該人物がATM300の前にいるか否かを判断する。若し、行動名が「滞在する」であり、且つ、場所名が「ATM前」であると判断したら、当該対象の人物がATM300を利用していると判定する(ステップS15)。
【0056】
一方、ステップS14で、当該深層格フレームにおいて、行動名が「滞在する」ではないか、または、場所名が「ATM前」ではないと判断したら、当該対象の人物がATM300を利用していないと判定する(ステップS16)。
【0057】
(2)の、携帯電話で通話しているか否を判定する一例の処理について、図9のフローチャートと図5とを用いて説明する。この、携帯電話で通話しているか否かの判定は、上述した、図8のフローチャートの処理によるATM300を利用しているか否かの判定の結果、ATM300を利用していると判定された人物を対象としてなされる。
【0058】
ATM300を利用している人物が携帯電話で通話しているか否かは、ATM300を利用している人物の映像情報に対応付けられた深層格フレームにおける場所格の要素である右手座標、左手座標および頭部座標と、属性格の要素である顔情報のさらに要素の口開閉度合とに基づき判定する。例えば、図5を参照し、右手座標または左手座標と、頭部座標との間の距離が所定値T0未満であって、且つ、口開閉度合が連続開閉を示している場合に、対象となる人物が携帯電話で通話していると判断する。
【0059】
図9において、ステップS20で、画像処理部135は、監視カメラ120で撮像され得られた映像情報から顔を検出する。上述した図8のステップS10の処理で得られた顔の検出結果を用いてもよい。次のステップS21で、検出された顔から口を検出する。そして、ステップS22で、行動判定部137により、口が開閉しているか否かが判定される。
【0060】
一例として、言語構造構築部136は、対象となる人物について、画像処理部135がステップS20およびステップS21により所定時間分の画像を解析して得られた顔および口の状態に基づき、口の特徴点の変形が行われた回数を計測する。そして、計測結果に基づき、対象の人物の映像情報に対応付けられた深層格フレームにおける属性格の要素の顔情報のさらに要素の口開閉度合として保持する。行動判定部137は、この口開閉度合が連続開閉を示している場合に、口が開閉されたと判断する。
【0061】
若し、口が開閉されていないと判断されたら、処理はステップS26に移行され、携帯電話による通話が行われていないと判定する。そして、図9のフローチャートにおける一連の処理が終了される。
【0062】
一方、ステップS22で、口が開閉されていると判断されたら、処理はステップS23に移行される。ステップS23では、画像処理部135は、監視カメラ120で撮像され得られた映像情報に対して例えば手のパターン検出を行い、対象となる人物の手を検出する。言語構造構築部136は、検出された右手および左手の座標を、それぞれ、対象の人物の映像情報に対応付けられた深層格フレームにおける場所格の要素の右手座標および左手座標として保持する。そして、ステップS24で、行動判定部137は、ステップS20で検出された顔の情報と、ステップS23で保持された右手座標および左手座標とを参照して、右手または左手の位置が耳の横にあるか否かを判断する。
【0063】
若し、右手または左手が耳の横に無いと判断されたら、処理はステップS26に移行され、携帯電話による通話が行われていないと判定する。一方、右手または左手が耳の横にあると判断されたら、処理はステップS25に移行され、携帯電話による通話が行われていると判定する。
【0064】
(3)の、高齢者であるか否かを判定する一例の処理について、図10のフローチャートと図5とを用いて説明する。この、高齢者であるか否かの判定は、上述した、図8のフローチャートの処理によるATM300を利用しているか否かの判定の結果、ATM300を利用していると判定された人物に対してなされる。
【0065】
ATM300を利用している人物が高齢者であるか否かは、当該人物の映像情報に対応付けられた深層格フレームにおける属性格の要素である顔情報のさらに要素の年代に基づき判定する。例えば、図5を参照し、年代が所定値T1を超えている場合に、当該人物が高齢者であると判定する。
【0066】
図10において、ステップS30で、画像処理部135は、監視カメラ120で撮像され得られた映像情報から顔を検出する。上述した図8のステップS10の処理で得られた顔の検出結果を用いてもよい。次のステップS31で、検出された顔の特徴を検出し、この顔の特徴が予め学習しておいた高齢者特有の特徴(皮膚の皺の量、頬の弛み具合など)を有しているか否かを判断する(ステップS32)。
【0067】
一例として、画像処理部135は、学習により、顔から検出される所定の特徴と年代とを対応付けて予め記憶しておき、検出された顔の特徴に対応する年代を求める。言語構造構築部136は、求められた年代を、属性格における顔情報の要素である年代として保持する。行動判定部137は、この年代が高齢者と判断できる年代T1(例えば60歳以上)であるか否かにより、判断を行う。
【0068】
若し、顔の特徴が高齢者特有の特徴を有していると判断したら、処理はステップS33に移行され、ATM300を利用している人物が高齢者であると判定する。一方、顔の特徴が高齢者特有の特徴を有していないと判断したら、処理はステップS34に移行され、ATM300を利用している人物が高齢者ではないと判定する。
【0069】
(4)の、ATMを長時間利用しているか否かを判定する一例の処理について、図11のフローチャートと図5とを用いて説明する。ATM300を長時間利用しているか否かの判定は、上述した、図8のフローチャートの処理によるATM300を利用しているか否かの判定の結果、ATM300を利用していると判定された人物に対してなされる。
【0070】
ATM300を長時間利用しているか否かは、ATM300を利用している人物の映像情報に対応付けられた深層格フレームにおける時間格の要素である経過時間に基づき判定する。例えば、図5を参照し、行動名が「滞在する」で、場所名が「ATM前」の行動の経過時間が所定値T2を超えた場合に、対象となる人物によりATM300が長時間利用されていると判断する。
【0071】
図11において、ステップS40で、行動判定部137は、上述の図8のフローチャートの処理による判定に応じて、対象となる人物がATM300を利用しているか否かの判断を行う。若し、図8のフローチャートにおけるステップS14により当該人物がATM300の前にいないと判定されていたら、処理はステップS44に移行され、当該人物がATM300を利用していないと判定する。
【0072】
一方、ステップS40で、図8のフローチャートにおけるステップS14により当該人物がATM300の前にいると判定されていたら、当該人物がATM300を利用していると判断し、処理がステップS41に移行される。
【0073】
ステップS41では、当該人物がATM300前に長時間いるか否かが判断される。例えば、言語構造構築部136は、図8のステップS14で当該人物がATM300前にいると最初に判定されてから現在までの経過時間を算出し、算出された経過時間を、当該人物に関する深層格フレームにおける時間格の要素の経過時間とする。行動判定部137は、この経過時間が所定時間T2を超えた場合に、当該人物がATM300前に長時間いると判断する。
【0074】
若し、ステップS41で、当該人物がATM300前に長時間いると判断されたら、処理はステップS42に移行され、当該人物がATM300を長時間利用していると判定する。一方、ステップS41で、当該人物がATM300前に長時間いないと判断されたら、処理はステップS43に移行され、当該人物がATM300を長時間利用していないと判定する。
【0075】
(5)の、ATM直前にいる利用者の背後にいる他の人物が、当該利用者によるATMに対する操作を覗き込んでいるか否かを判定する一例の処理について、図12のフローチャートと図5とを用いて説明する。
【0076】
利用者のATM300に対する操作を覗き込んでいる他の人物が存在するか否かは、先ず、監視カメラ120による同一の映像情報に2以上の顔が検出されたか否かが判断される。そして、2以上の顔が検出された場合に、ATM300の直前にいる人物A(利用者)の映像情報に対応付けられた深層格フレームにおける場所格の要素である場所名および足座標と、ATM300の直前ではない位置にいる、人物Bの映像情報に対応付けられた深層格フレームにおける場所格の要素である足座標、ならびに、属性格の要素である顔情報のさらに要素の視線方向とに基づき判定する。
【0077】
例えば、図5を参照し、人物Aにおける場所名がATM300前であり、且つ、人物Aおよび人物Bの足座標間の距離が所定値T3未満であり、且つ、人物Bの視線方向がATM300の方向に向いている場合に、人物AによるATM300の操作を、人物Bが覗き込んでいると判定する。
【0078】
先ず、ステップS50で、画像処理部135は、監視カメラ120の映像情報から顔を検出し、次のステップS51で、同一の映像情報から2以上の顔が検出されたか否かが判断される。若し、1の顔しか検出されていないと判断されたら、処理はステップS59に移行され、利用者のATMに対する操作を覗き込んでいる他の人物が存在しないと判定する。
【0079】
一方、ステップS51で、同一の映像情報から2以上の顔が検出されたと判断されたら、処理はステップS52に移行され、顔が検出された人物それぞれの位置が推定される。ここでは、図8のステップS13における人物位置の推定で生成された、各人物に対応する深層格フレームにおける場所格の要素である頭部座標に基づき、各人物の位置が推定される。
【0080】
次のステップS53では、行動判定部137により、顔が検出された人物のうち1人がATM300を利用しているか否かが判断される。上述した図8のステップS15で、人物がATM300を利用していると判定された場合には、当該人物に対応する深層格フレームにおける場所格の要素である場所名が「ATM前」になっている。そこで、ステップS53で、顔が検出された人物に対応する深層格フレームを参照し、場所格の場所名が「ATM前」である深層格フレームを検索し、ATM300を利用している人物がいるか否かを判断する。
【0081】
若し、顔が検出された人物に対応する深層格フレームから、場所格の場所名が「ATM前」である深層格フレームが検索されなければ、ATM300を利用している人物がいないと判断される。この場合、処理はステップS59に移行され、利用者のATM操作を覗き込んでいる他の人物が存在しないと判定する。
【0082】
一方、ステップS53で、顔が検出された人物に対応する深層格フレームから、場所格の場所名が「ATM前」である深層格フレームが検索され、顔が検出された人物のうち1人はATM300を利用していると判断されたら、処理はステップS54に移行される。ステップS54で、行動判定部137は、上述のステップS53でATM300を利用していると判断された人物の背後に、他の人物がいるか否かを判断する。例えば、行動判定部137は、各人物に対応する深層格フレームにおける頭部座標に基づき、ATM300を利用していると判断された人物の背後に、他の人物がいるか否かを判断する。
【0083】
若し、人物Aの背後に他の人物がいないと判断されたら、処理はステップS59に移行され、ATM300の利用者(人物Aとする)によるATM300に対する操作を覗き込んでいる他の人物が存在しないと判定する。
【0084】
一方、人物Aの背後に他の人物がいると判断されたら、処理はステップS55に移行される。ステップS55で、行動判定部137は、上述のステップS52で推測された各人物の位置に基づき、人物Aの背後にいる他の人物(人物Bとする)は、人物Aと近接しているか否かを判断する。
【0085】
例えば、画像処理部135は、顔が検出された人物の足を検出し、足の座標を求める。言語構造構築部136は、この足の座標を、顔が検出された各人物の深層格フレームにおける場所格の要素である足座標として保持する。行動判定部137は、ATM300の利用者である人物Aの足座標と、ステップS54で人物Aの背後にいると判断された人物Bの足座標との間の距離を求め、足座標間の距離が所定値T3未満のときに、人物Aと人物Bとが近接していると判断する。
【0086】
若し、人物Aと人物Bとが近接していないと判断されたら、処理はステップS59に移行され、利用者(人物A)のATM操作を覗き込んでいる他の人物が存在しないと判定する。
【0087】
一方、人物Aと人物Bとが近接していると判断されたら、処理はステップS56に移行される。ステップS56では、画像処理部135により、ATM300の利用者である人物Aの背後にいるとされた人物Bの映像情報に基づき、人物Bの顔の向きおよび眼球の位置が検出される。
【0088】
次のステップS57で、行動判定部137は、ステップS56で検出された人物Bの顔の向きおよび眼球の位置に基づき、人物BがATM300の操作部を見ているか否かを判断する。例えば、言語構造構築部136は、検出された人物Bの顔の向きおよび眼球の位置から、人物Bの視線が向いている方向を求め、人物Bの深層格における属性格の要素である顔特徴のさらに要素の視線方向として保持する。行動判定部137は、この視線方向に基づき、人物BがATM300の操作部を見ているか否かを判断する。
【0089】
若し、人物BがATM300の操作部を見ていないと判断されたら、処理はステップS59に移行され、利用者(人物A)のATM操作を覗き込んでいる他の人物が存在しないと判定する。
【0090】
一方、人物BがATM300の操作部を見ていると判断されたら、処理はステップS58に移行され、利用者(人物A)のATM操作を覗き込んでいる他の人物が存在すると判定する。
【0091】
(6)の、女性であるか否かを判定する一例の処理について、図13のフローチャートと図5とを用いて説明する。この、女性であるか否かの判定は、上述した、図8のフローチャートの処理によるATM300を利用しているか否かの判定の結果、ATM300を利用していると判定された人物に対してなされる。
【0092】
ATM300を利用している人物が女性であるか否かは、当該人物の映像情報に対応付けられた深層格フレームにおける属性格の要素である顔情報のさらに要素の性別に基づき判定する(図5参照)。
【0093】
図13において、ステップS60で、画像処理部135は、監視カメラ120で撮像され得られた映像情報から顔を検出する。上述した図8のステップS10の処理で得られた顔の検出結果を用いてもよい。次のステップS61で、検出された顔の特徴を検出し、この顔の特徴が予め学習しておいた女性特有の特徴(化粧の有無、髪型など)を有しているか否かを判断する(ステップS62)。
【0094】
一例として、画像処理部135は、学習により、顔から検出される所定の特徴と性別とを対応付けて予め記憶しておき、検出された顔の特徴に対応する性別を求める。言語構造構築部136は、求められた性別を、属性格における顔情報の要素である性別として保持する。
【0095】
若し、顔の特徴が女性特有の特徴を有していると判断したら、処理はステップS63に移行され、ATM300を利用している人物が女性であると判定する。一方、顔の特徴が女性特有の特徴を有していないと判断したら、処理はステップS64に移行され、ATM300を利用している人物が女性ではない(男性または不明)と判定する。
【0096】
(7)の、顔を隠しているか否かを判定する一例の処理について、図14のフローチャートと図5とを用いて説明する。この、顔を隠しているか否かの判定は、上述した、図8のフローチャートの処理によるATM300を利用しているか否かの判定の結果、ATM300を利用していると判定された人物に対してなされる。
【0097】
ATM300を利用している人物が顔を隠しているか否かは、当該人物の映像情報に対応付けられた深層格フレームにおける属性格の要素である顔特徴のさらに要素のマスクの有無およびサングラス有無に基づき判定する。例えば、図5を参照し、当該人物がマスクまたはサングラスが有りの場合に、当該人物が顔を隠していると判定する。
【0098】
図14において、ステップS70で、画像処理部135は、監視カメラ120で撮像され得られた映像情報から顔を検出する。上述した図8のステップS10の処理で得られた顔の検出結果を用いてもよい。次のステップS71で、検出された顔の特徴を検出する。
【0099】
次のステップS72で、画像処理部135は、ステップS71の顔の特徴の検出において、目が検出されたか否かを判断する。若し、目が検出されなかったと判断されたら、処理はステップS73に移行され、当該人物がサングラスを装着していると判断する。このとき、言語構造構築部136は、当該人物の深層格フレームにおける属性格の要素である顔特徴のさらに要素のサングラス有無を、サングラス有りとして保持する。一方、目が検出されたと判断されたら、処理はステップS74に移行され、当該人物がサングラスを装着していないと判断する。このとき、言語構造構築部136は、当該人物の深層格フレームにおける属性格の要素である顔特徴のさらに要素のサングラス有無を、サングラス無しとして保持する。
【0100】
ステップS73またはステップS74の処理が終了したら、処理はステップS75に移行され、ステップS71の顔の特徴の検出において、口が検出されたか否かを判断する。若し、口が検出されなかったと判断されたら、処理はステップS76に移行され、当該人物がマスクを装着していると判断する。このとき、言語構造構築部136は、当該人物の深層格フレームにおける属性格の要素である顔特徴のさらに要素のマスク有無を、マスク有りとして保持する。一方、口が検出されたと判断されたら、処理はステップS77に移行され、当該人物がマスクを装着していないと判断する。このとき、言語構造構築部136は、当該人物の深層格フレームにおける属性格の要素である顔特徴のさらに要素のマスク有無を、マスク無しとして保持する。
【0101】
ステップS76またはステップS77の処理が終了したら、処理はステップS78に移行される。ステップS78で、行動判定部137は、当該人物の深層格フレームにおける属性格の要素である顔特徴のさらに要素のサングラス有無およびマスク有無を参照し、当該人物がマスクおよびサングラスの少なくとも一方を装着しているか否かを判断する。
【0102】
若し、当該人物がマスクおよびサングラスの少なくとも一方を装着していると判断されたら、処理はステップS79に移行され、当該人物が顔を隠していると判定する。一方、当該人物がマスクおよびサングラスの何れも装着していないと判断されたら、処理はステップS80に移行され、当該人物が顔を隠していないと判定する。
【0103】
なお、上述では、図9〜図14のフローチャートによる処理がそれぞれ個別に行われるように説明したが、実際には、これらの処理は、同時並列的に行われる。すなわち、画像処理部135において監視カメラ120で撮像された映像情報から顔が検出され、当該映像情報による映像に人物が含まれているとされると、言語構造構築部136は、その人物に関して、図3を用いて説明したような各要素を含む深層格フレームを生成する。また、画像処理部135における顔検出は、例えば所定時間間隔毎に継続的に行われ、言語構造構築部136は、顔検出毎または所定タイミング毎に、深層格フレームの生成を行う。
【0104】
行動判定部137は、上述した(1)ATM利用中、(2)携帯電話で通話中、(3)高齢者、(4)ATMを長時間利用、(5)利用者のATM操作を他の人物が覗き込む、(6)女性、ならびに、(7)顔を隠している、といった各行動を、対象となる人物の映像情報に対応付けられた深層格フレームを参照して、図5を用いて説明したような各判定条件による判定を行う。
【0105】
図15は、行動判定部137により判定に用いられる深層格フレームの例を示す。図15の例は、(5)の、利用者のATM操作を他の人物が覗き込んでいるか否かを判定する場合の例である。なお、図15では、煩雑さを避けるため、利用者のATM操作を他の人物が覗き込んでいるか否かを判定する処理と関連性の薄い部分を省略している。
【0106】
例えば、監視カメラ120により撮像された映像情報による映像から、同一の時間帯にATM300の近傍においてIDがそれぞれ「001」および「002」で識別された人物Aおよび人物Bとが検出されたものとする。画像処理部135の画像解析結果に基づき、言語構造構築部136により、人物Aに対応する深層格フレーム400が生成される。同様に、言語構造構築部136により、人物Bに対応する深層格フレーム401が生成される。
【0107】
なお、深層格フレームは、それぞれの人物に対して、時系列に沿って複数が生成される。深層格フレーム400および401は、これら複数の深層格フレームのうち、時刻が対応するものであるとする。
【0108】
行動判定部137は、深層格フレーム400および401における場所格の場所名を参照し、場所名が「ATM前」である方の深層格フレームに対応する人物がATM300の利用者であると判定する。なお、場所名が「ATM前」の深層格フレームが複数存在する場合は、例えば頭部座標や足座標を参照し、ATM300に近い方を、ATM300の利用者であると判定することができる。図15の例では、深層格フレーム400および401の両方において場所名が「ATM前」となっているので、例えば足座標に基づきATM300に近い方の深層格フレーム400に対応する人物AがATM300の利用者であると判定している。
【0109】
次に、行動判定部137は、深層格フレーム400および401それぞれの足座標を参照して、人物Aと人物Bとの間の距離を求め、求めた距離が所定値T3未満であるか否かを判断する。図15の例では、当該距離が所定値T3未満であって、人物Aと人物Bとは近接していると判定される。
【0110】
次に、行動判定部137は、ATM300の利用者ではない人物Bに対応する深層格フレーム401を参照し、属性格における要素の顔特徴のさらに要素である視線方向を求める。そして、この視線方向がATM300の方向を向いていると判断したら、当該人物BがATM利用者である人物AによるATM操作を覗き込んでいると判定する。
【0111】
以上説明したように、本発明の実施形態では、ATMを利用する人物の行動を解析し、当該人物が特定の行動をとっていると判断された場合に、当該人物が振り込め詐欺の被害に遭いそうだと判定している。そのため、振り込め詐欺による被害を未然に防止することができる。
【0112】
また、本発明の実施形態によれば、ATMを利用する人物や、ATMの近傍にいる人物の行動を解析することによって、ATMの利用に関連する他の被害も未然に防止することができる。
【0113】
さらに、本発明の実施形態によれば、ATMを利用する人物や、ATMの近傍にいる人物の行動を解析することによって、不審者を検出することも可能である。
【符号の説明】
【0114】
100 警備装置
110 センサ
120 監視カメラ
130 警備操作部
135 画像処理部
136 言語構造構築部
137 行動判定部
150 画像情報DB
160 状態情報DB
200 監視センタ
300 ATM

【特許請求の範囲】
【請求項1】
現金の預け入れおよび引き出しを行う現金自動預払機の周辺を監視する監視装置であって、
前記現金自動預払機の周辺を撮像するための撮像手段が撮像した人物の画像情報を記憶する画像情報記憶手段と、
前記画像情報を解析して人物の動作状態を抽出し、抽出した前記人物の動作状態を表す情報であって、前記人物の動作の種類を表す動詞と前記人物の動作に関連する名詞とを含み、前記動詞に対する前記名詞の意味関係を表した状態情報を、前記画像情報記憶手段が記憶する前記画像情報に対応付けて記憶する状態情報記憶手段と、
前記状態情報記憶手段に記憶された前記状態情報を参照し、該状態情報が予め指定された条件を満たす場合に、該状態情報に対応する人物が犯罪の被害に遭いそうであると判定する判定手段と
を有する
ことを特徴とする監視装置。
【請求項2】
前記判定手段は、
前記予め指定された条件として、前記状態情報が、前記現金自動預払機の直前に滞在し、且つ、右手または左手が耳の横にあり、且つ、口が連続的に開閉していることを示している場合に、該状態情報に対応する人物が振り込め詐欺の被害に遭いそうであると判定する
ことを特徴とする請求項1に記載の監視装置。
【請求項3】
前記判定手段は、
前記予め指定された条件として、前記状態情報が、前記現金自動預払機の直前に滞在し、且つ、高齢者であることを示している場合に、該状態情報に対応する人物が振り込め詐欺の被害に遭いそうであると判定する
ことを特徴とする請求項1または請求項2に記載の監視装置。
【請求項4】
前記判定手段は、
前記予め指定された条件として、前記状態情報が、前記現金自動預払機の直前に所定時間を超えて滞在していることを示している場合に、該状態情報に対応する人物が振り込め詐欺の被害に遭いそうであると判定する
ことを特徴とする請求項1乃至請求項3の何れか1項に記載の監視装置。
【請求項5】
外部と通信を行う通信手段をさらに有し、
前記判定手段は、
前記人物が振り込め詐欺の被害に遭いそうであると判断した場合に、その旨示す通知を、前記通信手段により前記自動現金預払機および該自動現金預払機の監視元のうち少なくとも一方に対して送信する
ことを特徴とする請求項1乃至請求項4の何れか1項に記載の監視装置。
【請求項6】
前記判定手段は、
前記振り込め詐欺の被害に遭いそうな度合に応じて、前記通知を前記自動現金預払機および該自動現金預払機の監視元のうち何れに送信するかを選択する
ことを特徴とする請求項5に記載の監視装置。
【請求項7】
前記判定手段は、さらに、
前記画像情報を解析した結果、前記現金自動預払機の前に複数の人物が検出され、検出された該複数の人物のうち第1の人物の状態情報が、該現金自動預払機の直前に滞在することを示し、且つ、
検出された該複数の人物のうち第2の人物の状態情報が、前記現金自動預払機の直前に滞在する人物の後ろに滞在し、且つ、視線が該現金自動預払機の操作部に向いていることを示し、且つ、
前記第1の人物の状態情報が示す位置情報と、前記第2の人物の状態情報が示す位置情報とに基づき、該第1の人物と該第2の人物との間の距離が所定未満のときに、該第2の人物が該第1の人物の前記現金自動預払機に対する操作を覗き込んでいると判定する
ことを特徴とする請求項1に記載の監視装置。
【請求項8】
現金の預け入れおよび引き出しを行う現金自動預払機の周辺を監視する監視方法であって、
前記現金自動預払機の周辺を撮像するための撮像手段が撮像した人物の画像情報を画像情報記憶手段に記憶するステップと、
前記画像情報を解析して人物の動作状態を抽出し、抽出した前記人物の動作状態を表す情報であって、前記人物の動作の種類を表す動詞と前記人物の動作に関連する名詞とを含み、前記動詞に対する前記名詞の意味関係を表した状態情報を、前記画像情報記憶手段が記憶する前記画像情報に対応付けて状態情報記憶手段に記憶するステップと、
前記状態情報記憶手段に記憶された前記状態情報を参照し、該状態情報が予め指定された条件を満たす場合に、該状態情報に対応する人物が犯罪の被害に遭いそうであると判定する判定ステップと
を有する
ことを特徴とする監視方法。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate


【公開番号】特開2010−238204(P2010−238204A)
【公開日】平成22年10月21日(2010.10.21)
【国際特許分類】
【出願番号】特願2009−88429(P2009−88429)
【出願日】平成21年3月31日(2009.3.31)
【出願人】(000202361)綜合警備保障株式会社 (266)
【Fターム(参考)】