説明

認識支援装置、認識支援方法、およびプログラム

【課題】物体認識させる画像を適切に撮影することができるようにすることで、短時間で適切な物体認識を可能とする認識支援装置、認識支援方法およびプログラムを提供する。
【解決手段】物体認識装置による物体認識を支援する認識支援装置であって、画像取得部が、異なる時刻に撮影された識別対象の物体を含む2つの画像を取得する。重要領域検出部は、前記2つの画像における前記物体認識装置による認識の確信度の差分と、前記2つの画像に含まれる特徴点における特徴を定量化した特徴量の差分とに基づき、重要領域を検出する。重要領域は、前記物体認識装置の認識精度を向上させる、前記認識対象の物体の一部を含む。また、重要領域検出部は、重要領域を前記2つの画像のいずれかから検出し、前記重要領域を表示部に通知することにより、上記課題の解決を図る。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、認識支援装置、認識支援方法、およびプログラムに関する。
【背景技術】
【0002】
画像に含まれている物体の名称を推定する物体認識技術は、様々な産業で利用されている。利用分野の一例としては、農業分野が挙げられる。農業においては、農作物の生産を阻害する害虫が、かつてから問題になっている。現在、害虫の種類および対策方法の判断は、長年の経験で培ったノウハウを持った農家によって行われている。しかし、近年、農業分野では圃場を大規模に管理し、企業的な経営で農作物を栽培する農業法人が増加している。そこでは農業の経験が浅い従業員が農作物を栽培しており、害虫に対してどのような対策をとるべきか判断することができないため、害虫を発見する度にノウハウを持った専門家に問い合わせる必要があり、業務が非効率であることが問題になっている。
【0003】
そこで、画像処理による物体認識技術を利用して、ユーザが圃場で発見した害虫をカメラ付き携帯電話などの端末で撮影することで、撮影した害虫の種類を画像に基づいて自動的に認識し、該当する害虫の情報を検索する病害虫検索サービスの実現が期待されている。
【0004】
物体認識技術としては、例えば、画像から図形らしさを示す特徴量を抽出し、図形の概形状を示す図形領域形状を取得し、それらから特徴量の密集度を算出することにより、図形領域を抽出する方法が知られている。また、取得した顔の画像と、所定の表情の顔の画像との特徴量の差分に基づいて、顔の表情を判断する技術もある。さらに、撮影する映像領域が一定の条件に近づいたり満たされたりするときに警告を発する技術も知られている。
【0005】
なお、物体認識技術における特徴量については、例えば、Scale Invariant Feature Transform(SIFT)や、Speedee−Up Robust Features(SURF)等に基づくbag−of−words表現を用いることができる。また、物体認識の結果として、認識の確信度を算出する方法が用いられることもある。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開2009−289075号公報
【特許文献2】特開2005−56388号公報
【特許文献3】特開平3−256458号公報
【特許文献4】米国特許第6711293号明細書
【特許文献5】国際公開2007−128452号
【非特許文献】
【0007】
【非特許文献1】Csurka、 G.、 Bray、 C.、 Dance、 C. and Fan、 L.著 “Visual categorization with bags of keypoints、” in Proc. of ECCV Workshop on Statistical Learning in Computer Vision、 pp. 59.74(2004).
【非特許文献2】Taichi Joutou、 Keiji Yanai、著 "A food image recognition system with multiple kernel learning"、 Proceedings of the 16th IEEE international conference on Image processing、 November 07-10、 2009、 Cairo、 Egypt
【非特許文献3】C.-C. Chang and C.-J. Lin. 著 LIBSVM “A library for support vector machines.” ACM Transactions on Intelligent Systems and Technology、2:27:1--27:27、 2011. “Section 8: Probability Estimates(p. 30-33)”
【発明の概要】
【発明が解決しようとする課題】
【0008】
しかし、上記のように画像に基づいて物体認識を行なう場合、撮影の向きなどの撮影条件によっては、誤った物体名称を推定してしまうという問題がある。例えば、物体を特徴付ける部位が明瞭に写っていないような場合には、物体認識装置が誤認識してしまうことがある。また、撮影条件の自由度が大きい利用シーンにおいては、少ない情報によるガイドだけでは、ユーザが適切な撮影条件を見つけ出すのに手間がかかる。
【0009】
そこで、本発明は、物体認識させる画像を適切に撮影することができるようにすることで、短時間で適切な物体認識を可能とする認識支援装置、認識支援方法およびプログラムを提供することを目的とする。
【課題を解決するための手段】
【0010】
ひとつの態様である認識支援装置は、物体認識装置による物体認識を支援する認識支援装置であって、画像取得部および重要領域検出部を有する。画像取得部は、異なる時刻に撮影された識別対象の物体を含む2つの画像を取得する。重要領域検出部は、前記2つの画像における前記物体認識装置による認識の確信度の差分と、前記2つの画像に含まれる特徴点における特徴を定量化した特徴量の差分とに基づき、重要領域を検出する。重要領域は、前記物体認識装置の認識精度を向上させる、前記認識対象の物体の一部を含む。また、重要領域検出部は、重要領域を前記2つの画像のいずれかから検出し、前記重要領域を表示部に通知する。
【0011】
別の態様である端末装置は、上記認識支援装置と、前記画像を撮影する撮影部と、ネットワークを介して前記物体に関する情報を含む情報の送受信を行う通信部と、を有することを特徴としている。
【0012】
さらに別の態様である認識支援方法は、物体認識装置による物体認識を支援する認識支援方法であって、物体認識を支援する認識支援装置が、異なる時刻に撮影された識別対象の物体を含む2つの画像を取得する。認識支援装置は、前記2つの画像における前記物体認識装置による認識の確信度の差分と、前記2つの画像に含まれる特徴点における特徴を定量化した特徴量の差分とに基づき、重要領域を検出する。重要領域は、前記物体認識装置の認識精度を向上させる、前記認識対象の物体の一部を含む。認識支援装置は、重要領域を前記2つの画像のいずれかから検出し、前記重要領域を表示部に通知する。
【0013】
なお、上述した本発明に係る方法をコンピュータに行わせるためのプログラムであっても、このプログラムを当該コンピュータによって実行させることにより、上述した本発明に係る方法と同様の作用効果を奏するので、前述した課題が解決される。
【発明の効果】
【0014】
上述した態様の認識支援装置、認識支援方法およびプログラムによれば、物体認識させる画像を適切に撮影することができるようにすることで、短時間で適切な物体認識が可能となる。
【図面の簡単な説明】
【0015】
【図1】第1の実施の形態による物体認識システムの構成を示す概略図である。
【図2】第1の実施の形態による端末装置のハードウエア構成の一例を示すブロック図である。
【図3】第1の実施の形態による物体認識システムの構成の概略を示す機能ブロック図である。
【図4】第1の実施の形態による画像使用判定装置の構成を示す機能ブロック図である。
【図5】第1の実施の形態による認識支援装置の構成を示す機能ブロック図である。
【図6】第1の実施の形態による特徴抽出の説明図であり、(a)は、使用画像、(b)は、特徴点の抽出、(c)は、特徴クラスタの割り当てを示す。
【図7】第1の実施の形態による隣接フレーム間における特徴クラスタの変化を示す図であり、(a)は、時刻t−1の画像を示し、(b)は、時刻tの画像を示す。
【図8】第1の実施の形態による特徴クラスタの例を示す表であり、(a)はフレームt−1における例を示し、(b)は、フレームtにおける例を示す。
【図9】第1の実施の形態によるクラスタの変化を示す表であり、(a)は、増加したクラスタ数、(b)は減少したクラスタ数を示す。
【図10】第1の実施の形態による物体認識装置による処理を概念的に示す図であり、(a)はフレームt−1について示し、(b)は、フレームtについて示す。
【図11】第1の実施の形態による特徴差分および確信度差分と特徴スコアとの関係を示す表である。
【図12】第1の実施の形態による特徴評価格納テーブルの一例を示す図である。
【図13】第1の実施の形態による重要領域検出の概念図であり、(a)は、重要特徴の選択の一例を示し、(b)は、重要領域の一例を示す。
【図14】第1の実施の形態による重要領域の表示例を示す図である。
【図15】第1の実施の形態による物体認識システム全体の処理を示すフローチャートである。
【図16】第1の実施の形態による特徴スコア算出および結果出力の処理を示すフローチャートである。
【図17】第1の実施の形態による重要特徴検出の処理を示すフローチャートである。
【図18】第2の実施の形態による物体認識システムの構成の概略を示す機能ブロック図である。
【図19】第3の実施の形態による物体認識システムの構成の概略を示す機能ブロック図である。
【図20】標準的なコンピュータのハードウエア構成の一例を示すブロック図である。
【発明を実施するための形態】
【0016】
(第1の実施の形態)
以下、図面を参照しながら第1の実施の形態による物体認識システム1について説明する。図1は、第1の実施の形態による物体認識システム1の構成を示す概略図である。図1に示すように、物体認識システム1は、サーバ3と、複数の端末装置7−1、7−2、・・・(まとめて、端末装置7ともいう)がネットワーク5を介して接続されている。サーバ3は、例えばパーソナルコンピュータなどの情報処理装置である。端末装置7は、例えば携帯端末装置である。
【0017】
図2は、端末装置7のハードウエア構成の一例を示すブロック図である。図2に示すように、端末装置7は、Central Processing Unit(CPU)71、メモリ73、入力装置75、出力装置77、通信部79、撮影部81を有しており、互いにバス83により接続され、情報をやり取りしている。
【0018】
CPU71は、端末装置7全体の動作を制御する演算処理装置である。メモリ73は、端末装置7の動作を制御するプログラムを予め記憶したり、プログラムを実行する際に必要に応じて作業領域として使用したりするための記憶部である。メモリ73は、例えばRandom Access Memory(RAM)、Read Only Memory(ROM)等である。入力装置75は、端末装置7の使用者により操作されると、その操作内容に対応付けられている使用者からの各種情報の入力を取得し、取得した入力情報をCPU71に送付する装置であり、例えばテンキー等である。出力装置77は、端末装置7による処理結果を出力する装置であり、表示装置などが含まれる。例えば表示装置は、CPU71により送付される表示データに応じてテキストや画像を表示する。
【0019】
通信部79は、有線または無線により外部との間で行われる各種データの授受の管理を行うインタフェース装置である。撮影部81は、画像を撮影するカメラ等である。CPU71は、メモリ73に記録されている所定の制御プログラムを読み出して実行することによって、各種の制御処理を行うようにすることもできる。バス83は、上記各装置等を互いに接続し、データのやり取りを行う通信経路である。
【0020】
図3は、第1の実施の形態による物体認識システム1の構成の概略を示す機能ブロック図、図4は、画像使用判定装置100の構成を示す機能ブロック図、図5は、認識支援装置200の構成を示す機能ブロック図である。図3に示すように、第1の実施の形態においては、端末装置7は、画像入力部13、画像使用判定装置100、認識支援装置200、物体認識装置300、情報出力部15を有している。サーバ3は、害虫情報検索部30、害虫情報データベース32を有している。
【0021】
画像入力部13は、入力画像11を取得する。ここで、入力画像11は、端末装置7の撮影部81により撮影された画像でもよい。このとき、画像入力部13は撮影部81を含んで構成される。また、画像入力部13は、外部の装置で撮影された画像を取得するようにしてもよい。なお、入力画像11は、同一の認識対象を含む少なくとも2つの異なる時刻に撮影された画像である。2つの画像は、同一の認識対象を、例えば、動画で撮影した画像の、異なる2つのフレームとしてもよい。
【0022】
画像使用判定装置100は、画像撮影装置が動画撮影のように短時間で連続して画像を撮影するような場合、計算負荷を低減するために、撮影した画像を使用するか否か判定する装置である。図4に示すように、画像使用判定装置100は、特徴抽出部102、特徴書込部104、特徴格納部106、距離計算部108、使用判定部110を有している。
【0023】
特徴抽出部102は、取得した入力画像11において、特徴を抽出する。特徴の抽出は、物体認識技術における特徴量については、例えば、Scale Invariant Feature Transform(SIFT)や、Speedee−Up Robust Features(SURF)等に基づくbag−of−words表現を用いる等、非特許文献1、2などに記載の方法や、その他の従来技術を用いることができる。例えば、まず、特徴抽出部102は、入力画像11をN(Nは自然数)次元の特徴ベクトルvに変換する。
【0024】
特徴書込部104は、既に入力された入力画像において抽出された特徴を特徴格納部106に書き込む。特徴格納部106は、抽出された特徴を格納するための記憶部である。距離計算部108は、入力画像11において抽出された特徴と、特徴格納部106に格納された特徴との差を計算する。このとき、各特徴が例えば特徴ベクトルで表されるとすると、入力画像11と特徴格納部106に格納された特徴との差は、距離として計算される。例えば、距離計算部108は、入力画像11から抽出した特徴ベクトルvと特徴格納部106に格納されている前回使用画像の特徴ベクトルv’とを比較して、距離dを算出する。
【0025】
使用判定部110は、距離計算部108で計算された距離dが例えば所定の閾値以下の場合には、入力画像11と特徴格納部106に格納されている画像との差異が少なく、入力画像11を認識支援のためのデータとして用いなくてもよいと判断する。距離計算部108で計算された距離が所定の閾値より大きい場合には、入力画像11を認識支援のための使用画像112として用いると判断する。また、使用画像112の特徴ベクトルは、特徴格納部106に格納する。
【0026】
特徴ベクトルの距離dは、例えば、以下の式1のように計算する。
【0027】
【数1】

ここで、Nは特徴ベクトルの次元数であり、viは特徴ベクトルvにおけるi次元目の値を表し、vi’は特徴ベクトルv’におけるi次元目の値を表す。
【0028】
別な計算方法として、特徴ベクトルの距離dは、特徴ベクトルの次元毎に求めた距離のうち最大のものを求めて、以下の式2のように算出してもよい。
【0029】
【数2】

ここで、nは、特徴ベクトルの次元を示し、1<n<Nの整数である。vnは特徴ベクトルvにおけるn次元目の値を表し、vn’は特徴ベクトルv’におけるn次元目の値を表す。
【0030】
式1、式2のいずれを用いた場合にも、使用判定部110は、所定の閾値を用いて条件判別することとし、条件が成立すれば、入力画像11を使用画像112として出力する。なお、特徴抽出部102で用いる特徴量については、認識支援装置200、物体認識装置300において用いるものと同様のものにすることが好ましい。
【0031】
閾値の適切な値は、用いる特徴量によって異なるが、例えばSIFTによる1000次元のbag−of−words表現を特徴量として用いる場合、式1の閾値は、およそ100〜1000程度に設定し、式2の閾値は、およそ10〜100程度に設定するとよい。
【0032】
図5に示すように、認識支援装置200は、特徴抽出部202、特徴格納部204、特徴差分算出部206、特徴評価部208、重要領域検出部210、重要特徴選択部212、特徴評価格納部214、確信度差分算出部218、および撮影条件判定部220を有している。また、物体認識装置300は、物体認識部302、確信度算出部304を有している。
【0033】
認識支援装置200において、特徴抽出部202は、例えば、撮影部81で撮影され、画像使用判定装置100で使用すると判定された使用画像112から、特徴を抽出する。特徴の抽出は、例えば、SIFTや、SURF等に基づく特徴にbag−of−words手法を応用して出現頻度で表現する方法等、非特許文献1、2などに記載の方法や、その他の従来技術を用いることができる。
【0034】
特徴格納部204は、特徴抽出部202で抽出された特徴を格納する。特徴差分算出部206は、現在の使用画像112から抽出された特徴と、特徴格納部204にすでに格納されている過去の使用画像112より抽出された特徴との差分を算出する。
【0035】
一方、物体認識装置300は、1枚の静止画像を入力すると、画像中に含まれる物体の名称および認識結果の確からしさを表す確信度を出力する装置である。物体認識装置300においては、非特許文献1、2に記載の技術等の物体認識技術が用いられる。物体認識装置300は、物体認識部302、確信度算出部304を有している。物体認識部302は、例えば、取得した画像から特徴を抽出し、基準となる画像の特徴と比較することにより、認識された物体名称を出力する。確信度算出部304は、物体認識部302による物体認識の結果として、認識の確信度を算出して出力する。確信度とは、物体認識装置300において用いる識別モデルに基づいて物体名称を識別する際に、どれくらいの確信を持って物体名称を決定付けているかを表す数値である。確信度は、予め構築した識別モデルにおける識別境界面と、使用画像の特徴ベクトルとの距離にもとづいて算出される。確信度の算出は、例えば非特許文献3に記載の方法など、既存の方法を用いることができる。
【0036】
確信度格納部216は、物体認識部302から物体名称を取得し、確信度算出部304から確信度を取得して格納する。確信度差分算出部218は、使用画像112の確信度と、既に215に格納されている確信度の情報から、確信度差分を算出する。
【0037】
特徴評価部208は、特徴差分算出部206で算出された特徴差分と、確信度差分算出部218で算出された確信度差分とから後述する特徴スコアを算出する。特徴評価格納部214は、特徴評価部208で算出された特徴スコアを格納する。重要特徴選択部212は、特徴評価部208で算出された特徴スコアから、重要特徴を選択する。重要領域検出部210は、重要特徴選択部212で選択された重要特徴から、重要特徴領域を検出するとともに、重要領域通知222として出力する。撮影条件判定部220は、確信度算出部304から確信度を取得し、撮影条件を判定するとともに、認識準備完了通知224を出力する。
【0038】
サーバ3の害虫情報検索部30は、物体認識装置300が出力した物体名称に基づき、害虫に関する情報を検索する。害虫情報データベース32は、害虫の名称と、害虫の生態、農作物への影響、駆除の方法などの情報とを関連付けて記憶する記憶装置である。
【0039】
次に、図6から図12を参照しながら、本実施の形態による特徴スコアの算出方法について説明する。図6は、第1の実施の形態による特徴抽出の説明図であり、(a)は、使用画像、(b)は、特徴点の抽出、(c)は、特徴クラスタの割り当てを示す。図7は、隣接フレーム間における特徴クラスタの変化を示す図である。図8は、特徴クラスタの例を示す表であり、(a)は、フレームt−1における例、(b)は、フレームtにおける例を示す。図9は、クラスタの変化を示す表であり、(a)は、増加したクラスタ数、(b)は減少したクラスタ数を示す。
【0040】
図6に示すように、画像使用判定装置100により入力画像11を使用画像112とすると判別されると、認識支援装置200、物体認識装置300は、使用画像112を取得する。認識支援装置200は、使用画像112を解析して特徴差分を出力し、物体認識装置300は、使用画像112を解析して、物体名称と確信度を出力する。
【0041】
まず、図6から図9を参照しながら、特徴差分の算出について説明する。図6(b)に示すように、認識支援装置200は、特徴抽出部202により、使用画像112からSIFTやSURFなどの局所特徴量アルゴリズムに基づき特徴点を抽出し、各特徴点の周辺画像を表現した特徴ベクトルを生成する。そして、図6(c)に示すように、bag−of−wordsアルゴリズムにもとづき、各特徴点の特徴ベクトルをクラスタリング(分類)し、特徴点の種類を表す特徴クラスタ(特徴分類ともいい、図6の例では、B、D、E)を各特徴点に割り当てる。
【0042】
次に、特徴差分算出部206は、図7のように、例えば、動画の中の隣接したフレーム画像間で各特徴クラスタの数について増減差分を求める。例えば、図7(a)がフレームt−1(時刻t−1におけるフレーム)の画像であり、(b)がフレームt(時刻tにおけるフレーム)の画像であるとすると、各フレーム画像における各特徴クラスタの数は、図8に示す表のようになる。
【0043】
図8(a)に示すように、フレームt−1においては、特徴クラスタが「B」の特徴点が2個、特徴クラスタが「D」の特徴点が3個、特徴クラスタが「E」の特徴点が3個となっている。図8(b)に示すように、フレームtにおいては、特徴クラスタが「A」の特徴点が2個、特徴クラスタが「C」の特徴点が1個、特徴クラスタが「D」の特徴点が3個、特徴クラスタが「E」の特徴点が3個となっている。したがって、フレーム間における差分特徴クラスタは、図9のような算出結果となる。
【0044】
図9(a)に示すように、フレームt−1とフレームtの間で増加した特徴クラスタ数は、特徴クラスタが「A」の特徴点が2個、特徴クラスタが「C」の特徴点が1個である。図9(b)に示すように、減少した特徴クラスタ数は、特徴クラスタが「B」の特徴点が2個である。この、各特徴クラスタ毎の、例えば最新の使用画像112と一つ前の使用画像112との特徴点の数の差を、特徴差分dNkt(kは、特徴クラスタの種類を区別するための変数、tは、画像を取得した時刻)ということにする。また、例えば、変数kに対応する特徴クラスタは、特徴クラスタkなどということにする。
【0045】
次に、特徴スコアの算出に用いる確信度差分の算出処理について説明する。図5に示した確信度算出部304は、使用画像112から物体認識部302が認識した物体名称の確信度を算出し、認識支援装置200に出力する。認識支援装置200では、入力された確信度を確信度格納部216に格納するとともに、確信度差分算出部218が、例えば、フレームt−1の確信度を確信度格納部216から読み出し、フレームtの確信度との差分を算出する。
【0046】
時刻tにおけるフレームtにおける確信度を確信度P(t)とすると、確信度差分dPは、以下の式3で表される。
dP=P(t)−P(t−1)・・・(式3)
【0047】
図10は、物体認識装置300による処理を概念的に示す図であり、(a)はフレームt−1について示し、(b)は、フレームtについて示す。図10(a)に示すように、物体認識装置300は、使用画像112−1としてフレームt−1が入力された場合には、予め内部に備えられた物体認識エンジンにより、例えば、結果230に示すように、物体名称「ウリハムシ」、確信度P(t−1)=40と出力する。図10(b)に示すように、物体認識装置300は、使用画像112−2としてフレームtが入力された場合には、予め内部に備えられた物体認識エンジンにより、例えば、結果232に示すように、物体名称「ウリハムシ」、確信度P(t)=50と出力する。この場合、認識支援装置200の確信度格納部216は、フレームt−1の確信度として、確信度P(t−1)=40を格納し、フレームtの確信度として、確信度P(t)=50を格納する。確信度差分算出部218は、確信度差分dP=10と算出する。
【0048】
次に、図11、12を参照しながら、上記のように、特徴クラスタ毎の特徴差分dNktと、確信度差分dPが算出された際に、特徴評価部208で行われる特徴評価処理について述べる。図11は、特徴差分dNktおよび確信度差分dPと特徴スコアとの関係を示す表である。図12は、特徴評価格納テーブルの一例を示す図である。
【0049】
物体認識を行う上で適切な撮影条件を満たすことは、すなわち物体認識装置300が高い確信度を出力する状態を得ることである。したがって本実施の形態では、確信度を増加させるために撮影すべき重要領域を検出し、ユーザに通知する。重要領域とは、確信度増加に寄与する特徴点が密集する領域である。
【0050】
特徴評価部208は、確信度P(t)に寄与する特徴点(重要特徴点という)を検出するため、各特徴クラスタに対して確信度に寄与する度合いを表す特徴スコアを算出する。フレーム間において、確信度が増加した際に増加した特徴点は重要な特徴点であり、確信度が減少した際に増加した特徴点は重要ではない特徴点である、という考えにもとづき、図11のように特徴スコアを算出する。
【0051】
図11に示すように、特徴差分dNktと確信度P(t)がともに増加している場合には、特徴スコアは増加するようにし、特徴差分dNktが増加しており、確信度P(t)が減少している場合には特徴スコアは減少するようにする。また、特徴差分dNktが減少し、確信度P(t)が増加している場合には、特徴スコアは減少するようにし、特徴差分dNktと確信度P(t)がともに減少している場合には、特徴スコアを増加させるようにする。
【0052】
特徴評価部208は、特徴スコアを、フレーム間の特徴差分dNktおよび確信度差分dPに基づき算出する。特徴スコアは、式4および式5により逐次的に更新される。ここで、時刻t、t−1における特徴クラスタkの特徴点に対する特徴スコアをそれぞれE(kt)、E(kt−1)とし、時刻tのフレームtにおいて変化した特徴クラスタkの特徴点の個数を特徴差分dNktとする。また、各特徴スコアの初期値E(k0)=0とする。
【0053】
E(kt)=E(kt−1)+dEkt・・・(式4)
式4において、
dEkt=dNkt×(P(t)−P(t―1))・・・(式5)
【0054】
特徴評価格納部214は、式4、式5により算出された特徴スコアE(kt)を保持する。図12は、特徴評価格納部214に格納される特徴評価格納テーブルの一例を示す図である。図12に示すように、特徴評価格納部214は、例えば、物体名称「ウリハムシ」、特徴クラスタ「A」、特徴スコア「2000」などと、それぞれ保持する。物体の種類によって重要となる特徴点が変わるため、特徴評価格納部214は、物体種類ごとに特徴スコアE(kt)を保持する。
【0055】
次に、図13、図14を参照しながら、重要領域の検出について説明する。重要特徴選択部212では、上記のように算出した特徴スコアE(kt)を用いて、確信度P(t)の増加に大きく寄与する重要特徴を選択する。図13は、重要領域検出の概念図、図14は、重要領域の表示例を示す図である。
【0056】
図13(a)に示すように、重要領域検出部210は、重要特徴が密集した重要領域を検出する。すなわち、重要領域検出部210は、特徴スコアE(kt)の上位所定数(例えばM件)の特徴クラスタkを重要特徴と設定し、画像から抽出された全ての特徴点のうち、図13(a)の例では重要特徴と設定した特徴クラスタに分類されている特徴点234〜238を重要特徴点とする。
【0057】
重要領域検出部210は、重要特徴点を中心とした半径rの円領域を検出し、図13(b)のように、それぞれの領域を結合した領域242を生成する。重要領域検出部210は、結合領域の面積が所定以下の場合には、重要特徴として設定する特徴クラスタの数を増やし、同様の処理を繰り返すことにより、所定面積以上の重要領域を検出する。
【0058】
図14は、認識支援装置200からの出力の一例を示す図である。図14に示すように、重要領域が検出されたら、例えば、カメラのファインダー上に、重要領域を表すインジケータ246、248を重畳し、ユーザに通知する。
【0059】
以下、本実施の形態による物体認識システム1の動作を、図15から図17を参照しながらさらに説明する。図15は、物体認識システム1全体の処理を示すフローチャート、図16は、特徴スコア算出および結果出力の処理を示すフローチャート、図17は、重要特徴検出の処理を示すフローチャートである。
【0060】
本実施の形態においては、物体認識システム1を用いて、農業分野における害虫情報検索サービスを実施する場合を例にして説明する。すなわち、ユーザが端末装置7の撮影部81により撮影した害虫の画像を、物体認識装置300および認識支援装置200を用いて自動認識し、端末装置7の情報表示装置で害虫の名称や害虫対策情報を出力するサービスを想定する。
【0061】
まず、端末装置7の撮影部81により、時刻tにおいて画像を撮影し、端末装置7は、時刻tに撮影された入力画像11を取得する(S401)。このとき、画像使用判定装置100は、その後の処理において取得した入力画像11を用いるか否かの判定を行う。すなわち、画像使用判定装置100が入力画像11を取得し、特徴抽出部102が入力画像11の特徴を抽出する。距離計算部108は、入力画像11と、特徴格納部106に格納されている時刻t−1の画像から抽出された特徴とから距離dを算出する。使用判定部110は、算出された距離dが所定値よりも大きいか否かにより、入力画像11を使用するか否か判定する(S402)。
【0062】
使用判定部110が、画像を使用すると判定しない場合には(S403:NO)、時刻tを時刻t+1と置き換え(S404)、新たに撮影された画像について、S401からS403の処理を繰り返す。使用判定部110が、入力画像11を使用すると判定すると(S403:YES)、物体認識装置300において、物体認識を行う(S405)。物体認識装置300は、上記に説明したように、例えば、図10のような害虫を撮影した画像を取得すると、害虫の名称である「ウリハムシ」および確信度P(t)を出力する。
【0063】
認識支援装置200は、物体認識装置300が認識した物体名称、ここでは害虫の名称と、その確信度P(t)を取得する(S405)。一方、撮影条件判定部220は、確信度P(t)が所定値θ以上か否か判別し、所定値θ未満の場合には(S407:NO)、図16の特徴抽出処理に処理を進める。
【0064】
図16に示すように、確信度差分算出部218は、現在取得されているフレームtの確信度P(t)と、確信度格納部216に記録されている前フレームt−1における確信度P(t−1)とを比較することで、確信度の差分を算出する(S421)。また、取得したフレームtの確信度P(t)を確信度格納部216に格納する(S422)。
【0065】
一方、特徴抽出部202は、取得したフレームtから、特徴ベクトルや、特徴クラスタなどの特徴を定量化した特徴情報を抽出する(S423)。特徴差分算出部206は、特徴格納部204に記録されているフレームt−1における特徴ベクトル、特徴クラスタと、抽出したフレームtの特徴ベクトル、特徴クラスタの差分である特徴差分を抽出する(S424)。また、特徴抽出部202は、抽出された特徴ベクトル、特徴クラスタなどの特徴を定量化した特徴情報を、特徴格納部204に記録する(S425)。
【0066】
特徴評価部208は、確信度の差分および特徴差分に基づき、特徴スコアを算出する(S426)。特徴スコアは、上記式4により算出される。特徴抽出部202が、特徴ベクトル、特徴クラスタなどの特徴を定量化した特徴情報を特徴格納部204に記録すると同時に、特徴評価部208は、得られた確信度差分dPおよび特徴差分dNktを特徴評価格納部214に記録する(S427)。CPU71は、後述の重要特徴クラスタ数M=1と設定し、処理を図17に示す重要特徴検出処理に進める(S429)。
【0067】
図17に示すように、重要特徴選択部212は、S426で算出した特徴クラスタ毎の特徴スコアE(kt)から、上位M件の特徴クラスタを重要特徴として選択する(S441)。例えば、図8(b)において、M=2である場合には、重要特徴として、個数が上位2件である特徴クラスタ「D」と「E」を選択する。また、重要特徴選択部212は、例えば図13(a)において丸印で示したように、フレームtから抽出された特徴点の中から、重要特徴として選択された特徴クラスタに分類された特徴点を、例えば図13(a)の点234〜238のように重要特徴点として選択する(S442)。
【0068】
重要領域検出部210は、例えば図13(b)に示すように、S442で選択された重要特徴点を中心とした半径rの領域を結合した結合領域242を抽出する(S443)。そして、重要領域検出部210は、結合領域242の面積が面積基準値S未満の場合には(S444:NO)、重要特徴クラスタ数MをM+1に置き換えて、S441からS444の処理を繰り返す。すなわち、重要領域検出部210は、結合領域の面積が面積基準値S未満であれば、重要特徴として設定する重要特徴クラスタ数Mを1つ増やして(S445)、結合領域の面積が面積基準値S以上になるまで、同様の処理を繰り返す。
【0069】
ここで、図16に示したように、重要特徴クラスタ数Mの初期値は例えば「1」であり、重要領域の面積基準値Sは、例えば、画像全体の面積の5〜10%程度の面積に設定することが好ましい。半径rについては、想定される使用画像112の面積をX、1枚の画像から抽出される特徴点の平均数をNPとすると、(X/NP)1/2程度に設定することが好ましい。結合領域の面積が面積基準値S以上であれば、重要領域検出部210は、結合領域を重要領域とみなし、重要領域検出処理を終える(S446)。
【0070】
図16の処理に戻って、重要領域検出部210は、例えば図14のように、抽出された重要領域を表すインジケータ246、248を、端末装置7の表示装置など出力装置77に出力する。続いて時刻tをt+1として、図15のS401に戻って処理を繰り返す。
【0071】
認識支援装置200は、S401〜S407の処理を繰り返し、撮影条件判定部220が、S407において確信度P(t)が所定値θ以上であると判別した場合には(S407:YES)、認識準備完了通知224を出力する(S408)。すなわち、撮影条件判定部220は、認識に適した撮影条件に達したことを、出力装置77に表示を行うなどにより通知する。
【0072】
ここで、撮影条件判定部220は、物体認識装置300が出力する確信度P(t)が基準値θより大きくなったときに、適切な撮影条件を満たしたと判断し、認識準備が完了したことをユーザに通知する。なお、確信度P(t)の範囲が0〜100のとき、所定値θは80〜90程度に設定することが好ましい。
【0073】
端末装置7は、サーバ3にアクセスし、害虫情報検索部30により、害虫情報データベース32から認識された物体に関する情報を検索し、検索した情報を取得して表示する(S410)。
【0074】
以上説明したように、本実施の形態による物体認識システム1によれば、端末装置7は、認識対象の物体を含む画像を複数撮影する。画像使用判定装置100は、端末装置7において撮影された静止画像を入力画像11として取得し、使用するか否か判断する。使用すると判断された使用画像112について、物体認識装置300は、予め備えられた物体認識エンジンにより、物体名称と確信度P(t)を出力する。認識支援装置200は、物体名称と確信度P(t)を取得する。
【0075】
また、認識支援装置200は、使用画像112において、特徴点を特徴クラスタに分類し、撮影時刻が現在の使用画像112よりも前の画像との特徴差分dNktを算出する。認識支援装置200は、使用画像112と、撮影時刻が現在の使用画像112よりも前の画像との確信度差分dPと、特徴差分dNktとから、各特徴点について認識に影響を与える度合いを表す特徴スコアを算出する。
【0076】
認識支援装置200は、さらに、重要領域検出部210により、特徴スコアが高い特徴クラスタに基づき重要特徴領域を検出し、使用画像112に重要特徴領域の位置を表すインジゲータを重畳した画像を生成し出力する。以上の処理により、害虫情報検索サービスを実現している。
【0077】
以上のように、本実施の形態による物体認識システム1によれば、農業分野における害虫情報検索サービスを構成することができる。このとき、入力画像11を、その後の工程で処理対象として使用するかを判定することができる。
【0078】
例えば、端末装置7の撮影部81により、少なくとも2つの画像が撮影されるタイミングが時間的に間隔がある場合、物体認識装置300は、全ての入力画像11を使用してもよい。しかし、撮影部81が、動画撮影のように短時間で連続して画像を撮影するような場合、全ての撮影画像を使用することは、CPU71の処理負荷を大きくしてしまう場合がある。そこで、画像使用判定装置100における判定を行って、入力画像11を間引きして使用画像112として用いることにより、処理負荷の増大を防止することができる。
【0079】
一方で、入力画像11の間引きを行うことは、物体認識装置300に入力する情報を減少させるために、認識率が低下してしまう可能性がある。使用画像判定装置において判定する際には、情報が出来るだけ減少しないよう、似たような特徴を持つ冗長な画像だけを省いて、撮影画像から得られる特徴のバリエーションは維持することができる。
【0080】
そして、認識支援装置200において、物体認識を行う上で、画像が適切な条件で撮影されたか否かを判定することができる。画像が適切な条件で撮影されたと判断されたとき、物体認識装置300が出力した物体名称に基づき、サーバ3の害虫情報検索部30において、害虫情報を検索することができる。最終的には、端末装置7の出力装置77に害虫情報を表示することができ、害虫情報検索サービスが実現される。
【0081】
このように、認識支援装置200によれば、物体認識を行うための画像の撮影条件を適切な撮影条件に近づけるため、物体認識を行う上で精度に影響を与える重要な領域を自動検出し、ユーザに対して提示することができる。
【0082】
よって、ユーザに、具体的にどの領域が写るように撮影すればよいかを知らしめることができ、適切な撮影条件を見つけ出すまでの時間および手間を削減できるとともに、物体認識の精度を向上させることができる。例えば、ユーザは、撮影時にファインダー上などに表示されたインジケータを確認しながら、適切な撮影条件に近づくようカメラの向きなどの撮影条件を変化させることができ、高い精度の物体認識結果を得ることができる。
【0083】
特に、農業分野における害虫情報検索サービスのような利用シーンにおいては、撮影する際のカメラの向きは様々であり、撮影条件の変化に対する自由度が更に大きい。このため、適切な撮影条件に近づいているか否かという少ない情報によるガイドでは、ユーザが適切な撮影条件を探し出すには試行錯誤を繰り返す必要があり、手間がかかる。しかし、本実施の形態による物体認識システム1によれば、このような手間を削減でき、農業分野におけるサ害虫情報検索などのサービスを可能にすることができる。
【0084】
(第2の実施の形態)
次に、第2の実施の形態による物体認識システム450について説明する。第2の実施の形態による物体認識システム450は、第1の実施の形態による物体認識システム1の変形例であり、同様の構成および動作には同一符号を付し、重複説明を省略する。
【0085】
図18は、第2の実施の形態による物体認識システム450の構成の概略を示す機能ブロック図である。図18に示すように、第2の実施の形態においては、端末装置457は、画像入力部13、画像使用判定装置100、認識支援装置200、および情報出力部15を有している。サーバ453は、物体認識装置300、害虫情報検索部30、害虫情報データベース32を有している。物体認識システム450の各構成要素の機能、および処理動作は第1の実施の形態と同様である。
【0086】
図18に示すように、本実施の形態では、物体認識装置300は、携帯端末457ではなく、サーバ453に備えられている。よって、例えば、図15のS405の処理は、認識支援装置200と物体認識装置300との間でネットワークを介して通信を行う。他の構成および動作は、第1の実施の形態による物体認識システム1と同様である。
【0087】
第2の実施の形態による物体認識システム450によれば、第1の実施の形態による物体認識システム1と同様、物体認識の手間を低減し、精度を向上させることができる。さらに、端末装置457に物体認識装置300を搭載しなくてもよいため、端末装置457における認識支援装置200の省スペース化を図ることができる。また、物体認識をサーバ3で行うことにより、端末装置457における処理負担を軽減することが可能となる。さらに、物体認識を端末装置457で行うのに比べて、サーバ3で行うことにより処理を高速化することが可能となる。
【0088】
(第3の実施の形態)
次に、第3の実施の形態による物体認識システム480について説明する。第3の実施の形態による物体認識システム480は、第1および第2の実施の形態による物体認識システムの変形例であり、同様の構成および動作には同一符号を付し、重複説明を省略する。
【0089】
図19は、第3の実施の形態による物体認識システム480の構成の概略を示す機能ブロック図である。図18に示すように、第3の実施の形態においては、物体認識システム480は、端末装置487により実現される。端末装置487は、画像入力部13、画像使用判定装置100、認識支援装置200、物体認識装置300、害虫情報検索部30、害虫情報データベース32、および情報出力部15を有している。端末装置487の各構成要素の機能、および処理動作は第1の実施の形態と同様である。
【0090】
図19に示すように、本実施の形態では、物体認識システムを構成する機能の全てを端末装置487が備えている。他の構成および動作は、第1の実施の形態による物体認識システム1と同様である。
【0091】
第3の実施の形態による物体認識システム480によれば、第1および第2の実施の形態による物体認識システム1、物体認識システム450と同様、物体認識の手間を低減し、精度を向上させることができる。さらに、物体認識システム480の全ての機能を端末装置487が有しているため、ネットワーク5の状態に依存せずに処理を行なうことができる。よって、ネットワーク5が混雑している場合や、通信状態が悪い場合にも、処理を迅速に行なうことができる。
【0092】
上記第1から第3の実施の形態において、特徴抽出部202は、画像取得部、特徴点抽出部、特徴ベクトル算出部、特徴量算出部の一例であり、特徴差分抽出部206は、特徴分類生成部、特徴点分類部の一例である。特徴評価部208は、特徴スコア算出部の一例であり、確信度差分算出部218は、確信度取得部および確信度差分算出部の一例である。
【0093】
ここで、上記第1から第3の実施の形態による物体認識システムの動作をコンピュータに行わせるために共通に適用されるコンピュータの例について説明する。図20は、標準的なコンピュータのハードウエア構成の一例を示すブロック図である。図20に示すように、コンピュータ500は、Central Processing Unit(CPU)502、メモリ504、入力装置506、出力装置508、外部記憶装置512、媒体駆動装置514、ネットワーク接続装置518等がバス510を介して接続されている。
【0094】
CPU502は、コンピュータ500全体の動作を制御する演算処理装置である。メモリ504は、コンピュータ500の動作を制御するプログラムを予め記憶したり、プログラムを実行する際に必要に応じて作業領域として使用したりするための記憶部である。メモリ504は、例えばRandom Access Memory(RAM)、Read Only Memory(ROM)等である。入力装置506は、コンピュータの使用者により操作されると、その操作内容に対応付けられている使用者からの各種情報の入力を取得し、取得した入力情報をCPU502に送付する装置であり、例えばキーボード装置、マウス装置などである。出力装置508は、コンピュータ500による処理結果を出力する装置であり、表示装置などが含まれる。例えば表示装置は、CPU502により送付される表示データに応じてテキストや画像を表示する。
【0095】
外部記憶装置512は、例えば、ハードディスクなどの記憶装置であり、CPU502により実行される各種制御プログラムや、取得したデータ等を記憶しておく装置である。媒体駆動装置514は、可搬記録媒体516に書き込みおよび読み出しを行うための装置である。CPU502は、可搬型記録媒体516に記録されている所定の制御プログラムを、記録媒体駆動装置514を介して読み出して実行することによって、各種の制御処理を行うようにすることもできる。可搬記録媒体516は、例えばConpact Disc(CD)−ROM、Digital Versatile Disc(DVD)、Universal Serial Bus(USB)メモリ等である。ネットワーク接続装置518は、有線または無線により外部との間で行われる各種データの授受の管理を行うインタフェース装置である。バス510は、上記各装置等を互いに接続し、データのやり取りを行う通信経路である。
【0096】
上記第1から第3の実施の形態による認識支援方法をコンピュータに実行させるプログラムは、例えば外部記憶装置512に記憶させる。CPU502は、外部記憶装置512からプログラムを読み出し、コンピュータ500に認識支援の動作を行なわせる。このとき、まず、認識支援の処理をCPU502に行わせるための制御プログラムを作成して外部記憶装置512に記憶させておく。そして、入力装置506から所定の指示をCPU502に与えて、この制御プログラムを外部記憶装置512から読み出させて実行させるようにする。また、このプログラムは、可搬記録媒体516に記憶するようにしてもよい。
【0097】
なお、本発明は、以上に述べた実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の構成または実施形態を採ることができる。
【0098】
例えば、インジケータの表示例は、図14に限定されず、他の形態によるものでもよい。例えば、画面の一部に3つの異なる色を持つ丸印などによる信号のような図を表示させ、適切な撮影位置、適切な撮影位置に近づいている時、適切な撮影位置から遠ざかっている時の3つの状態に応じて信号に表示する色を切り替えるようにしてもよい。このような例によれば、色を変えることにより、ユーザが適切な撮影位置で撮影できるようガイドすることができる。
【0099】
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
物体認識装置による物体認識を支援する認識支援装置であって、
異なる時刻に撮影された識別対象の物体を含む2つの画像を取得する画像取得部と、
前記2つの画像における前記物体認識装置による認識の確信度の差分と、前記2つの画像に含まれる特徴点における特徴を定量化した特徴量の差分とに基づき、前記物体認識装置の認識精度を向上させる、前記認識対象の物体の一部を含む重要領域を前記2つの画像のいずれかから検出し、前記重要領域を表示部に通知する重要領域検出部と、
を有することを特徴とする認識支援装置。
(付記2)
前記2つの画像における前記物体認識装置による認識の確信度を取得する確信度取得部と、
前記2つの画像からそれぞれ取得された前記確信度の差分を算出する確信度差分算出部と、
前記2つの画像に含まれる特徴を有する特徴点を抽出する特徴点抽出部と、
前記特徴点における特徴を定量化した特徴量をそれぞれ算出する特徴量算出部と、
前記2つの画像からそれぞれ抽出された前記特徴量の差分を算出する特徴差分算出部と、
前記2つの画像それぞれの前記確信度の差分および前記特徴量の差分に基づいて前記確信度の向上に対する前記特徴量の寄与度を示す特徴スコアを算出する特徴スコア算出部と、
をさらに有し、
前記重要領域検出部は、前記特徴スコアに基づいて重要領域を検出する、
ことを特徴とする付記1に記載の認識支援装置。
(付記3)
前記特徴量算出部は、前記画像に含まれる特徴を類似性に基づき分類して特徴分類を生成する特徴分類生成部、
を有し、
前記特徴分類生成部は、前記特徴量および前記特徴スコアを前記特徴分類毎に算出することを特徴とする付記2に記載の認識支援装置。
(付記4)
前記特徴量算出部は、
前記特徴点に基づく特徴ベクトルを算出する特徴ベクトル算出部と、
前記特徴ベクトルに基づき前記特徴分類を生成する分類生成部と、
前記特徴点に前記特徴分類を関連付ける特徴点分類部と、
前記特徴分類毎に関連付けられた前記特徴点の数を抽出する特徴点数抽出部、
ことにより行われることを特徴とする付記2に記載の認識支援装置。
(付記5)
前記特徴差分算出部は、
前記特徴分類に分類された前記特徴に対応する前記特徴点の数の差分を、前記特徴分類ごとに算出することを特徴とする付記4に記載の認識支援装置。
(付記6)
前記特徴スコア算出部は、
前記特徴量の差分と、前記確信度の差分との積に基づいて前記特徴スコアを算出することを特徴とする付記5に記載の認識支援装置。
(付記7)
前記重要領域検出部は、
前記特徴分類毎の特徴スコアのうち、上位のものから所定数の特徴分類に分類された前記特徴を有する前記特徴点に基づき前記重要領域を検出することを特徴とする付記3に記載の認識支援装置。
(付記8)
さらに、
前記画像を使用するか否かを判定する画像使用判定部、
を有し、
前記画像を使用すると判別されると、前記特徴点を抽出し、前記特徴量を算出し、前記特徴量の差分を算出し、前記特徴スコアを算出し、前記重要領域を検出することを特徴とする付記1から付記7のいずれかに記載の認識支援装置。
(付記9)
付記1から付記8のいずれかに記載の認識支援装置と、
前記画像を撮影する撮影部と、
ネットワークを介して前記物体に関する情報を含む情報の送受信を行う通信部と、
を有することを特徴とする端末装置。
(付記10)
物体認識装置による物体認識を支援する認識支援方法であって、
物体認識を支援する認識支援装置が、
異なる時刻に撮影された識別対象の物体を含む2つの画像を取得し、
前記2つの画像における前記物体認識装置による認識の確信度の差分と、前記2つの画像に含まれる特徴点における特徴を定量化した特徴量の差分とに基づき、前記物体認識装置の認識精度を向上させる、前記認識対象の物体の一部を含む重要領域を前記2つの画像のいずれかから検出し、
前記重要領域を表示部に通知する
ことを特徴とする認識支援方法。
(付記11)
前記2つの画像における前記物体認識装置による認識の確信度を取得し、
前記2つの画像からそれぞれ取得された前記確信度の差分を算出し、
前記2つの画像に含まれる特徴を有する特徴点を抽出し、
前記特徴点における特徴を定量化した特徴量を算出し、
前記2つの画像からそれぞれ抽出された前記特徴量の差分を算出し、
前記2つの画像それぞれの前記確信度の差分および前記特徴量の差分に基づいて前記確信度の向上に対する前記特徴量の寄与度を示す特徴スコアを算出し、
前記特徴スコアに基づいて、前記重要領域を検出することを特徴とする付記10に記載の認識支援方法。
(付記12)
前記特徴量を算出する処理においては、前記画像に含まれる特徴を類似性に基づき分類して特徴分類を生成し、
前記特徴量および前記特徴スコアは前記特徴分類毎に算出することを特徴とする付記11に記載の認識支援方法。
(付記13)
前記特徴量を算出する処理は、
前記特徴点に基づく特徴ベクトルを算出し、
前記特徴ベクトルに基づき前記特徴分類を生成し、
前記特徴点に前記特徴分類を関連付け、
前記特徴分類毎に関連付けられた前記特徴点の数を抽出する、
ことにより行われることを特徴とする付記11に記載の認識支援方法。
(付記14)
前記特徴量の差分を算出する処理は、
前記特徴分類に分類された前記特徴に対応する前記特徴点の数の差分を、前記特徴分類ごとに算出することを特徴とする付記4に記載の認識支援方法。
(付記15)
コンピュータが、
異なる時刻に撮影された識別対象の物体を含む2つの画像を取得し、
前記2つの画像における前記物体認識装置による認識の確信度の差分と、前記2つの画像に含まれる特徴点における特徴を定量化した特徴量の差分とに基づき、前記物体認識装置の認識精度を向上させる、前記認識対象の物体の一部を含む重要領域を前記2つの画像のいずれかから検出し、
検出した前記重要領域を、表示部に通知する
ことにより物体認識を支援する処理をコンピュータに実行させるためのプログラム。
【符号の説明】
【0100】
1 物体認識システム
3 サーバ
5 ネットワーク
7 端末装置
11 入力画像
13 画像入力部
15 情報出力部
27 端末装置
30 害虫情報検索部
32 害虫情報データベース
71 CPU
73 メモリ
75 入力装置
77 出力装置
79 通信部
81 撮影部
100 画像使用判定装置
200 認識支援装置
300 物体認識装置
102 特徴抽出部
104 特徴書込部
106 特徴格納部
108 距離計算部
110 使用判定部
112 使用画像
202 特徴抽出部
204 特徴格納部
206 特徴差分算出部
208 特徴評価部
210 重要領域検出部
212 重要特徴選択部
214 特徴評価格納部
216 確信度格納部
218 確信度差分算出部
220 撮条件判定部
222 重要領域通知
224 認識準備完了通知
302 物体認識部
304 確信度算出部

【特許請求の範囲】
【請求項1】
物体認識装置による物体認識を支援する認識支援装置であって、
異なる時刻に撮影された識別対象の物体を含む2つの画像を取得する画像取得部と、
前記2つの画像における前記物体認識装置による認識の確信度の差分と、前記2つの画像に含まれる特徴点における特徴を定量化した特徴量の差分とに基づき、前記物体認識装置の認識精度を向上させる、前記認識対象の物体の一部を含む重要領域を前記2つの画像のいずれかから検出し、前記重要領域を表示部に通知する重要領域検出部と、
を有することを特徴とする認識支援装置。
【請求項2】
前記2つの画像における前記物体認識装置による認識の確信度を取得する確信度取得部と、
前記2つの画像からそれぞれ取得された前記確信度の差分を算出する確信度差分算出部と、
前記2つの画像に含まれる特徴を有する特徴点を抽出する特徴点抽出部と、
前記特徴点における特徴を定量化した特徴量をそれぞれ算出する特徴量算出部と、
前記2つの画像からそれぞれ抽出された前記特徴量の差分を算出する特徴差分算出部と、
前記2つの画像それぞれの前記確信度の差分および前記特徴量の差分に基づいて前記確信度の向上に対する前記特徴量の寄与度を示す特徴スコアを算出する特徴スコア算出部と、
をさらに有し、
前記重要領域検出部は、前記特徴スコアに基づいて重要領域を検出する、
ことを特徴とする請求項1に記載の認識支援装置。
【請求項3】
前記特徴量算出部は、前記画像に含まれる特徴を類似性に基づき分類して特徴分類を生成する特徴分類生成部、
を有し、
前記特徴分類生成部は、前記特徴量および前記特徴スコアを前記特徴分類毎に算出することを特徴とする請求項2に記載の認識支援装置。
【請求項4】
前記特徴量算出部は、
前記特徴点に基づく特徴ベクトルを算出する特徴ベクトル算出部と、
前記特徴ベクトルに基づき前記特徴分類を生成する分類生成部と、
前記特徴点に前記特徴分類を関連付ける特徴点分類部と、
前記特徴分類毎に関連付けられた前記特徴点の数を抽出する特徴点数抽出部、
ことにより行われることを特徴とする請求項2に記載の認識支援装置。
【請求項5】
前記特徴差分算出部は、
前記特徴分類に分類された前記特徴に対応する前記特徴点の数の差分を、前記特徴分類ごとに算出することを特徴とする請求項4に記載の認識支援装置。
【請求項6】
前記特徴スコア算出部は、
前記特徴量の差分と、前記確信度の差分との積に基づいて前記特徴スコアを算出することを特徴とする請求項5に記載の認識支援装置。
【請求項7】
前記重要領域検出部は、
前記特徴分類毎の特徴スコアのうち、上位のものから所定数の特徴分類に分類された前記特徴を有する前記特徴点に基づき前記重要領域を検出することを特徴とする請求項3に記載の認識支援装置。
【請求項8】
さらに、
前記画像を使用するか否かを判定する画像使用判定部、
を有し、
前記画像を使用すると判別されると、前記特徴点を抽出し、前記特徴量を算出し、前記特徴量の差分を算出し、前記特徴スコアを算出し、前記重要領域を検出することを特徴とする請求項1から請求項7のいずれかに記載の認識支援装置。
【請求項9】
請求項1から請求項8のいずれかに記載の認識支援装置と、
前記画像を撮影する撮影部と、
ネットワークを介して前記物体に関する情報を含む情報の送受信を行う通信部と、
を有することを特徴とする端末装置。
【請求項10】
物体認識装置による物体認識を支援する認識支援方法であって、
物体認識を支援する認識支援装置が、
異なる時刻に撮影された識別対象の物体を含む2つの画像を取得し、
前記2つの画像における前記物体認識装置による認識の確信度の差分と、前記2つの画像に含まれる特徴点における特徴を定量化した特徴量の差分とに基づき、前記物体認識装置の認識精度を向上させる、前記認識対象の物体の一部を含む重要領域を前記2つの画像のいずれかから検出し、
前記重要領域を表示部に通知する
ことを特徴とする認識支援方法。
【請求項11】
コンピュータが、
異なる時刻に撮影された識別対象の物体を含む2つの画像を取得し、
前記2つの画像における前記物体認識装置による認識の確信度の差分と、前記2つの画像に含まれる特徴点における特徴を定量化した特徴量の差分とに基づき、前記物体認識装置の認識精度を向上させる、前記認識対象の物体の一部を含む重要領域を前記2つの画像のいずれかから検出し、
検出した前記重要領域を、表示部に通知する
ことにより物体認識を支援する処理をコンピュータに実行させるためのプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図8】
image rotate

【図9】
image rotate

【図11】
image rotate

【図12】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図6】
image rotate

【図7】
image rotate

【図10】
image rotate

【図13】
image rotate

【図14】
image rotate


【公開番号】特開2013−97645(P2013−97645A)
【公開日】平成25年5月20日(2013.5.20)
【国際特許分類】
【出願番号】特願2011−240877(P2011−240877)
【出願日】平成23年11月2日(2011.11.2)
【出願人】(000005223)富士通株式会社 (25,993)
【Fターム(参考)】