説明

画像処理装置、プログラム、画像処理方法及び端末装置

【課題】行為者に過度の負担を課すことなく、行為の詳細を履歴としてより容易に管理することを可能とする。
【解決手段】実空間に存在するオブジェクトを入力画像内で識別する識別部と、前記識別部により識別される第1のオブジェクトと第2のオブジェクトとの間の物理的作用に対応するイベントを前記入力画像を用いて検出する検出部と、前記イベントの検出に応じて、前記第1のオブジェクトに関連付けられている属性データを前記第2のオブジェクトに関連付ける属性制御部と、を備える画像処理装置を提供する。

【発明の詳細な説明】
【技術分野】
【0001】
本開示は、画像処理装置、プログラム、画像処理方法及び端末装置に関する。
【背景技術】
【0002】
医療分野では、医薬の調剤又は患者への投薬などの医療行為において生じ得る過誤を防止するための多くの取組みが行われている。例えば、点滴注射の薬液の調剤に際して、医師又は看護師は、点滴バッグに注入した薬液の名称及び量を、マーカペンなどの筆記具を用いて当該点滴バッグに書き残す。下記特許文献1は、不適切な医療行為がなされることを防止するために、医療行為が行われる際に、行為者及び患者の識別子、使用される医療機器の識別子、並びに時刻を互いに関連付けるデータを、履歴として記録することを提案している。
【0003】
作業行為の履歴の追跡は、医療分野のみならず、他の分野においても重要である。例えば、食品加工分野では、衛生管理、又は製品の品質の維持若しくは証明を目的として、加工プロセスの履歴データを記録し、事後的に履歴を追跡可能とする取組みが行われている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2009−289067号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
履歴データを追跡するための既存の取組みの多くは、データ入力などの場面で人手を要する。しかし、人手を要する手法では、データの入力ミス又は故意の不正入力などのリスクが残される。また、目的とする行為に加えてデータ入力作業を行為者に課すことは、行為者にとっての負担となる。上記特許文献1に記載された仕組みによれば、医療機器と接続される特別な端末装置の導入によって、データ入力は自動化される。しかし、当該仕組みは特別な端末装置の存在を前提とするため、その応用範囲は限られる。
【0006】
これに対し、作業行為を映した映像を履歴として記録する手法が考えられる。この場合、履歴を記録するために人手は不要である。しかし、単純に映像を記録するだけでは、外部から内容物を判別できない容器などを用いた行為の詳細を事後的に把握することが難しい。
【0007】
従って、上述した分野に限らず一般的に、行為者に過度の負担を課すことなく行為の詳細を履歴としてより容易に管理することのできる仕組みが実現されることが望ましい。
【課題を解決するための手段】
【0008】
本開示によれば、実空間に存在するオブジェクトを入力画像内で識別する識別部と、前記識別部により識別される第1のオブジェクトと第2のオブジェクトとの間の物理的作用に対応するイベントを前記入力画像を用いて検出する検出部と、前記イベントの検出に応じて、前記第1のオブジェクトに関連付けられている属性データを前記第2のオブジェクトに関連付ける属性制御部と、を備える画像処理装置が提供される。
【0009】
また、本開示によれば、画像処理装置を制御するコンピュータを、実空間に存在するオブジェクトを入力画像内で識別する識別部と、前記識別部により識別される第1のオブジェクトと第2のオブジェクトとの間の物理的作用に対応するイベントを前記入力画像を用いて検出する検出部と、前記イベントの検出に応じて、前記第1のオブジェクトに関連付けられている属性データを前記第2のオブジェクトに関連付ける属性制御部と、として機能させるためのプログラムが提供される。
【0010】
また、本開示によれば、実空間に存在するオブジェクトを入力画像内で識別することと、識別された第1のオブジェクトと第2のオブジェクトとの間の物理的作用に対応するイベントを前記入力画像を用いて検出することと、前記イベントの検出に応じて、前記第1のオブジェクトに関連付けられている属性データを前記第2のオブジェクトに関連付けることと、を含む画像処理方法が提供される。
【0011】
また、本開示によれば、実空間に存在するオブジェクトを映す入力画像を取得する画像取得部と、第1のオブジェクトとの間の物理的作用に関与する、前記入力画像内で識別される第2のオブジェクトに関連付けられている属性データを取得するデータ取得部と、前記データ取得部により取得される前記属性データを前記入力画像に重畳する表示制御部と、を備え、前記属性データは、前記物理的作用に対応するイベントの検出前に前記第1のオブジェクトに関連付けられており、前記イベントの検出に応じて前記第2のオブジェクトに新たに関連付けられるデータである、端末装置が提供される。
【0012】
また、本開示によれば、端末装置を制御するコンピュータを、実空間に存在するオブジェクトを映す入力画像を取得する画像取得部と、第1のオブジェクトとの間の物理的作用に関与する、前記入力画像内で識別される第2のオブジェクトに関連付けられている属性データを取得するデータ取得部と、前記データ取得部により取得される前記属性データを前記入力画像に重畳する表示制御部と、として機能させ、前記属性データは、前記物理的作用に対応するイベントの検出前に前記第1のオブジェクトに関連付けられており、前記イベントの検出に応じて前記第2のオブジェクトに新たに関連付けられるデータである、プログラムが提供される。
【発明の効果】
【0013】
本開示に係る技術によれば、行為者に過度の負担を課すことなく、行為の詳細を履歴としてより容易に管理することができる。
【図面の簡単な説明】
【0014】
【図1】一実施形態に係る画像処理システムの概要について説明するための説明図である。
【図2】一実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。
【図3】一実施形態に係る画像処理装置の論理的機能の構成の一例を示すブロック図である。
【図4】一実施形態における属性の制御の基本的な概念について説明するための説明図である。
【図5】一実施形態に係る端末装置のハードウェア構成の一例を示すブロック図である。
【図6】一実施形態に係る端末装置の論理的機能の構成の一例を示すブロック図である。
【図7】一実施形態において表示される出力画像の一例について説明するための説明図である。
【図8】第1の実施例におけるオブジェクトデータの一例について説明するための説明図である。
【図9】第1の実施例における属性制御テーブルの一例について説明するための説明図である。
【図10A】第1の実施例における属性データの状態遷移の一例について説明するための説明図の前半部である。
【図10B】第1の実施例における属性データの状態遷移の一例について説明するための説明図の後半部である。
【図11】第1の実施例における履歴データの一例について説明するための説明図である。
【図12】第1の実施例において表示される出力画像の一例について説明するための説明図である。
【図13】第1の実施例における属性制御処理の流れの一例を示すフローチャートである。
【図14】第1の実施例における表示制御処理の流れの一例を示すフローチャートである。
【図15】第2の実施例におけるオブジェクトデータの一例について説明するための説明図である。
【図16】第2の実施例における属性制御テーブルの一例について説明するための説明図である。
【図17A】第2の実施例における属性データの状態遷移の一例について説明するための説明図の前半部である。
【図17B】第2の実施例における属性データの状態遷移の一例について説明するための説明図の後半部である。
【図18】第2の実施例において表示される出力画像の一例について説明するための説明図である。
【図19】第2の実施例における属性制御処理の流れの一例を示すフローチャートである。
【図20】第3の実施例におけるオブジェクトデータの一例について説明するための説明図である。
【図21】第3の実施例における履歴データの一例について説明するための説明図である。
【図22】第3の実施例における属性データの状態遷移の一例について説明するための説明図である。
【図23】第3の実施例において表示される出力画像の一例について説明するための説明図である。
【図24】第3の実施例における属性制御処理の流れの一例を示すフローチャートである。
【図25】第4の実施例におけるオブジェクトデータの一例について説明するための説明図である。
【図26】第4の実施例における属性制御テーブルの一例について説明するための説明図である。
【図27A】第4の実施例における属性データの状態遷移の一例について説明するための説明図の前半部である。
【図27B】第4の実施例における属性データの状態遷移の一例について説明するための説明図の後半部である。
【図28】第4の実施例において表示される出力画像の一例について説明するための説明図である。
【図29】第4の実施例における属性制御処理の流れの一例を示すフローチャートである。
【図30】一変形例に係る画像処理装置の論理的機能の構成の一例を示すブロック図である。
【発明を実施するための形態】
【0015】
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0016】
また、以下の順序で説明を行う。
1.システムの概要
2.画像処理装置の構成例
2−1.ハードウェア構成
2−2.機能構成
3.端末装置の構成例
3−1.ハードウェア構成
3−2.機能構成
4.第1の実施例
5.第2の実施例
6.第3の実施例
7.第4の実施例
8.変形例
9.まとめ
【0017】
<1.システムの概要>
図1は、一実施形態に係る画像処理システムの概要について説明するための説明図である。図1を参照すると、一例としての画像処理システム1が示されている。画像処理システム1は、画像処理装置100及び端末装置200を含む。
【0018】
画像処理装置100は、撮像部102を有する。撮像部102のレンズは、実空間における何らかの作業行為に関与するオブジェクトに向けられる。図1の例では、人物Uaが実空間に存在するオブジェクトObj1及びObj2の一方又は双方を対象とする行為を行っている。オブジェクトObj1及びObj2のみならず、人物Uaもまたオブジェクトの1つとして扱われてよい。撮像部102は、これらオブジェクトが関与する行為を撮像し、撮像画像(典型的には、動画を構成する各フレーム)を生成する。生成される撮像画像は、作業行為の履歴の管理を目的とする、画像処理装置100により実行される画像処理への入力画像となる。
【0019】
端末装置200は、撮像部(図示せず)と表示部210とを有する。端末装置200は、撮像部を用いて何らかのオブジェクトを撮像し、画像に映るオブジェクトに関連付けられているデータの配信を画像処理装置100へ要求する。そして、端末装置200は、画像処理装置100から配信されるデータを表示部210に表示させる。画像処理装置100から配信されるデータは、いずれかのオブジェクトについて行われた作業行為の履歴を事後的に把握することを可能とするデータである。作業行為の履歴は、例えば、オブジェクトに関連付けられる属性を通じて把握され、又はタイムスタンプを付与される履歴データそのものから把握され得る。
【0020】
図1では、画像処理装置100及び端末装置200が物理的に異なる装置として構成される例を示している。しかしながら、画像処理装置100及び端末装置200は、一体の装置として構成されてもよい。画像処理装置100及び端末装置200は、それぞれ、例えば、デスクトップPC、タブレットPC、ノートブックPC、スマートフォン若しくはPDA(Personal Digital Assistants)などの汎用的な装置であってもよく、又は履歴の管理/閲覧を目的とする専用の装置であってもよい。また、端末装置200の画面は、ヘッドマウントディスプレイを用いて実現されてもよい。
【0021】
<2.画像処理装置の構成例>
[2−1.ハードウェア構成]
図2は、一実施形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図2を参照すると、画像処理装置100は、撮像部102、入力部104、記憶部106、表示部110、通信部112、バス116及び制御部118を備える。
【0022】
(1)撮像部
撮像部102は、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて被写体を撮像し、撮像画像を生成する。撮像部102は、必ずしも画像処理装置100の一部でなくてもよい。例えば、図1の例のように、画像処理装置100と有線又は無線で接続される撮像装置が撮像部102として扱われてもよい。
【0023】
(2)入力部
入力部104は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力部104は、例えば、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。その代わりに(又はそれに加えて)、入力部104は、マウス若しくはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、入力部104は、キーボード、キーパッド、ボタン、スイッチ又はリモートコントローラなどのその他の種類の入力デバイスを含んでもよい。
【0024】
(3)記憶部
記憶部106は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、画像処理装置100による処理のためのプログラム及びデータを記憶する。記憶部106により記憶されるデータは、例えば、撮像部102により生成される撮像画像データ及び後に説明するデータベース内の様々なデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部又は全部は、記憶部106により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
【0025】
(4)表示部
表示部110は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などにより構成される表示モジュールである。なお、表示部110もまた、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される表示装置が表示部110として扱われてもよい。
【0026】
(5)通信部
通信部112は、画像処理装置100による他の装置(例えば、端末装置200)との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
【0027】
(7)バス
バス116は、撮像部102、入力部104、記憶部106、表示部110、通信部112及び制御部118を相互に接続する。
【0028】
(8)制御部
制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部106又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
【0029】
[2−2.機能構成]
図3は、図2に示した画像処理装置100の記憶部106及び制御部118により実現される論理的機能の構成の一例を示すブロック図である。図3を参照すると、画像処理装置100は、画像取得部120、オブジェクト識別部130、オブジェクトデータベース(DB)140、イベント検出部150、属性DB160、属性制御部170、データ配信部180及びユーザインタフェース部190を含む。
【0030】
(1)画像取得部
画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する。入力画像には、医療行為、食品加工行為又はその他の種類の行為に関与するオブジェクトが映される。画像取得部120により取得される一連の入力画像は、典型的には動画を構成する。画像取得部120は、取得した入力画像を、オブジェクト識別部130へ順次出力する。
【0031】
(2)オブジェクト識別部
オブジェクト識別部130は、実空間に存在するオブジェクトを入力画像内で識別する。オブジェクト識別部130は、例えば、入力画像から抽出される画像特徴量を各オブジェクトについて事前に抽出される画像特徴量と照合することにより、入力画像に映るオブジェクトを識別してもよい。また、オブジェクト識別部130は、各オブジェクトに貼付され、印刷され又は装着されるバーコード又は2次元コード(例えば、QRコード(登録商標))などの識別情報を解釈することにより、入力画像に映るオブジェクトを識別してもよい。また、オブジェクト識別部130は、各オブジェクトの表面上の文字列又はラベルなどを読み取ることにより、入力画像に映るオブジェクトを識別してもよい。なお、後に説明する1つの実施例では、入力画像に映る人物もまたオブジェクトとして識別される。人物の識別は、例えば、事前に抽出される顔画像の特徴量を用いて行われ得る。本実施形態では、一例として、画像特徴量の照合によりオブジェクトが識別される例を主に説明する。
【0032】
(3)オブジェクトDB
オブジェクトDB140は、履歴管理の対象となる行為に関与するオブジェクトについてのデータを記憶するデータベースである。オブジェクトDB140により記憶されるデータは、オブジェクト識別部130によるオブジェクトの識別、イベント検出部150によるイベントの検出及び属性制御部170によるオブジェクトの属性の制御のために用いられ得る。本実施形態において、オブジェクトDB140は、少なくとも各オブジェクトの既知の画像特徴量を含むオブジェクトデータ142を記憶する。さらに、オブジェクトDB140は、属性の制御のパターンを定義する属性制御テーブル144を記憶し得る。これらデータの具体的な例について、後に例を挙げて説明する。
【0033】
(4)イベント検出部
イベント検出部150は、オブジェクト識別部130により識別される複数のオブジェクトの間の物理的作用に対応するイベントを、入力画像を用いて検出する。本明細書において、オブジェクト間の「物理的」作用とは、作業行為に関与する複数のオブジェクト(物体及び人物の双方を含み得る)の間の実空間における何らかの作用をいう。例えば、2つのオブジェクトの接触又は接近は、これらオブジェクトの間の物理的作用に相当し得る。ある人物の何らかの物体を対象とする動作もまた、当該人物と当該物体の間の物理的作用に相当し得る。これら物理的作用に対応するイベントは、実空間内の上述した物理的作用に応じて実行すべき処理のトリガとなる。どのような物理的作用についてイベントを検出すべきかは、アプリケーションの用途に合わせて定義され得る。後に説明する4つの実施例では、次のような物理的作用についてのイベントが検出される。
第1の実施例)医療行為における薬液の移送
第2の実施例)調剤行為における薬品の調合
第3の実施例)患者による薬の服用
第4の実施例)食品加工行為における食材及び調味料の配合
なお、これらは説明のための例に過ぎず、他の行為におけるオブジェクト間の物理的作用についてイベントが検出されてもよい。
【0034】
(5)属性DB
属性DB160は、各オブジェクトについて行われた行為の履歴を把握可能とするためのデータを記憶するデータベースである。属性DB160により記憶されるデータは、後に説明する属性制御部170により管理される。本実施形態において、属性DB160は、各オブジェクトに関連付けられる属性を示す属性データ162を記憶する。属性データ162は、一部のオブジェクトに予め関連付けられる初期の属性と、上述したイベントの検出に応じて他のオブジェクトに関連付けられる事後的な属性との双方を示し得る。かかる属性データ162を閲覧することにより、各オブジェクトについて行われた行為の履歴が把握され得る。さらに、属性DB160は、上述したイベントの都度の各オブジェクトの属性の変化を示す履歴データ164を記憶し得る。
【0035】
(6)属性制御部
属性制御部170は、各オブジェクトに関連付けられる属性を制御する。例えば、本実施形態において、属性制御部170は、イベント検出部150による上述したイベントの検出に応じて、検出されたイベントに対応する物理的作用に関与した第1のオブジェクトに関連付けられている属性データを第2のオブジェクトに関連付ける。
【0036】
図4は、本実施形態における属性の制御の基本的な概念について説明するための説明図である。図4を参照すると、物理的作用に関与する2つのオブジェクトObj1及びObj2が示されている。これら2つのオブジェクトは、典型的には、物質を収容可能なオブジェクトである。本明細書において、物質の収容とは、物質を内部に収納すること、物質を可搬な形で保持すること、及び物質を構成成分として有することなどの様々な形態を含むものとする。例えば、図4の上段において、オブジェクトObj1は物質SB1を、オブジェクトObj2は物質SB2をそれぞれ収容している。この場合、属性データ162において、オブジェクトObj1に物質SB1の種類を示す属性値が、オブジェクトObj2に物質SB2の種類を示す属性値がそれぞれ関連付けられる。そして、属性制御部170は、オブジェクトObj1からオブジェクトObj2への物理的作用に対応するイベントが検出されると、オブジェクトObj1に関連付けられている属性値をオブジェクトObj2に新たに関連付ける。いくつかの実施例において、このような属性値の移動の方向は、上述した属性制御テーブル144を参照することで属性制御部170により決定され得る。図4の下段において、物理的作用に対応するイベントの検出の結果、オブジェクトObj2に物質SB1の種類を示す属性値が新たに関連付けられている。一方、オブジェクトObj1から物質SB1の種類を示す属性値が削除されている。なお、各オブジェクトの属性データは、関連付けられるオブジェクトに収容される物質の種類のみならず、当該物質の数量をも表してよい。
【0037】
(7)データ配信部
データ配信部180は、いずれかのオブジェクトを映した画像を表示する装置に当該オブジェクトに関連付けられている属性データを配信し、配信された属性データを当該装置の画面上に表示させる。例えば、データ配信部180は、図1に例示した端末装置200から送信されるデータ要求を受け付ける。当該データ要求は、端末装置200により撮像される画像又は当該画像から抽出される特徴量を含み得る。データ配信部180は、データ要求に含まれる画像又は画像特徴量をオブジェクト識別部130へ出力し、画像に映るオブジェクトを識別させる。なお、端末装置200により撮像される画像に映るオブジェクトのオブジェクトID(識別子)がデータ要求に含まれる場合には、オブジェクト識別部130によるオブジェクトの識別は省略されてよい。次に、データ配信部180は、識別されたオブジェクトのオブジェクトIDに関連付けられている属性データを、属性DB160から取得する。そして、データ配信部180は、取得した属性データを端末装置200へ配信する。データ配信部180は、識別されたオブジェクトの画像内の位置を示す位置データをさらに端末装置200へ配信してもよい。
【0038】
(8)ユーザインタフェース部
ユーザインタフェース部190は、アプリケーションの目的に合わせて、様々なユーザインタフェースをユーザに提供し得る。例えば、ユーザインタフェース部190は、オブジェクトデータ142、属性制御テーブル144、属性データ162又は履歴データ164をユーザが閲覧し又は編集するためのUI画面を提供してもよい。また、ユーザインタフェース部190は、属性データの更新についてユーザからの承認を受け付けるための承認画面をユーザに提供してもよい。
【0039】
<3.端末装置の構成例>
[3−1.ハードウェア構成]
図5は、一実施形態に係る端末装置200のハードウェア構成の一例を示すブロック図である。図5を参照すると、端末装置200は、撮像部202、入力部204、記憶部206、表示部210、通信部212、音声出力部214、バス216及び制御部218を備える。
【0040】
(1)撮像部
撮像部202は、画像を撮像するカメラモジュールである。撮像部202は、CCD又はCMOSなどの撮像素子を用いて被写体を撮像し、撮像画像を生成する。撮像部202は、必ずしも端末装置200の一部でなくてもよい。例えば、端末装置200と有線又は無線で接続される撮像装置が撮像部202として扱われてもよい。
【0041】
(2)入力部
入力部204は、ユーザが端末装置200を操作し又は端末装置200へ情報を入力するために使用される入力デバイスである。入力部204は、例えば、表示部210の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。その代わりに(又はそれに加えて)、入力部204は、マウス若しくはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、入力部204は、キーボード、キーパッド、ボタン、スイッチ又はリモートコントローラなどのその他の種類の入力デバイスを含んでもよい。
【0042】
(3)記憶部
記憶部206は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、端末装置200による処理のためのプログラム及びデータを記憶する。記憶部206により記憶されるデータは、例えば、上述した画像処理装置100から配信されるデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部又は全部は、記憶部206により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
【0043】
(4)表示部
表示部210は、LCD、OLED又はCRTなどにより構成される表示モジュールである。なお、表示部210もまた、必ずしも端末装置200の一部でなくてもよい。例えば、端末装置200と有線又は無線で接続される表示装置が表示部210として扱われてもよい。
【0044】
(5)通信部
通信部212は、端末装置200による他の装置(例えば、画像処理装置100)との間の通信を仲介する通信インタフェースである。通信部212は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
【0045】
(6)音声出力部
音声出力部214は、例えばスピーカにより構成される音声出力モジュールである。なお、音声出力部214もまた、必ずしも端末装置200の一部でなくてもよい。例えば、端末装置200と有線又は無線で接続される音声出力装置が音声出力部214として扱われてもよい。
【0046】
(7)バス
バス216は、撮像部202、入力部204、記憶部206、表示部210、通信部212、音声出力部214及び制御部218を相互に接続する。
【0047】
(8)制御部
制御部218は、CPU又はDSPなどのプロセッサに相当する。制御部218は、記憶部206又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する端末装置200の様々な機能を動作させる。
【0048】
[3−2.機能構成]
図6は、図5に示した端末装置200の記憶部206及び制御部218により実現される論理的機能の構成の一例を示すブロック図である。図6を参照すると、端末装置200は、画像取得部220、データ取得部230、表示制御部240及びユーザインタフェース部250を含む。
【0049】
(1)画像取得部
画像取得部220は、撮像部202により生成される撮像画像を入力画像として取得する。入力画像には、実空間に存在する様々なオブジェクトが映される。画像取得部220は、取得した入力画像を、データ取得部230及び表示制御部240へ出力する。
【0050】
(2)データ取得部
データ取得部230は、画像取得部220により取得される入力画像内で識別されるオブジェクトに関連付けられている属性データを取得する。例えば、データ取得部230は、入力画像又は入力画像の画像特徴量を含むデータ要求を画像処理装置100へ送信する。データ取得部230は、入力画像に映るオブジェクトを識別し、識別したオブジェクトのオブジェクトIDをデータ要求に含めてもよい。そして、データ取得部230は、データ要求に応じて画像処理装置100から配信される属性データを取得し得る。属性データに加えて、識別されたオブジェクトの画像内の位置を示す位置データが画像処理装置100からさらに取得されてもよい。そして、データ取得部230は、取得した属性データ(及び位置データ)を表示制御部240へ出力する。
【0051】
本実施形態においてデータ取得部230により取得される属性データは、第1のオブジェクトとの間の物理的作用に関与する第2のオブジェクトに関連付けられている属性データを含み得る。当該属性データは、物理的作用に対応するイベントの検出前に第1のオブジェクトに関連付けられており、当該イベントの検出に応じて第2のオブジェクトに新たに関連付けられるデータであってよい。即ち、データ取得部230により取得される属性データを閲覧することで、入力画像に映るオブジェクトを対象として行われた行為の詳細が把握され得る。なお、画像処理装置100から取得される属性データは、タイムスタンプの付与された履歴データの形式で表現されていてもよい。
【0052】
(3)表示制御部
表示制御部240は、端末装置200における画像及びデータの表示を制御する。例えば、表示制御部240は、入力画像に映るオブジェクトに関連付けられている属性データがデータ取得部230により取得された場合に、取得された属性データを入力画像に重畳する。属性データは、関連付けられているオブジェクトの位置に依存することなく、オブジェクトID又はオブジェクトの名称と共に表示されてもよい。その代わりに、属性データは、関連付けられているオブジェクトの画像内の位置に重なるように、又は当該位置を指し示すように表示されてもよい。
【0053】
図7は、本実施形態において表示される出力画像の一例について説明するための説明図である。図7の左には、端末装置200により撮像され得る一例としての入力画像Im00が示されている。入力画像Im00には、オブジェクトObj2が映っている。端末装置200は、入力画像Im00に重畳すべきデータを要求するデータ要求を画像処理装置100へ送信し、画像処理装置100から配信されるデータを受信する。図7の右には、端末装置200により表示され得る一例としての出力画像Im01が示されている。出力画像Im01は、入力画像Im00に仮想オブジェクトであるメッセージMSG1を重畳することにより生成された画像である。メッセージMSG1は、例えば図4の下段に示した属性データ162に基づいて生成され、入力画像Im00に映るオブジェクトObj2が物質SB1及びSB2を収容していることを表す。端末装置200のユーザは、出力画像Im01を閲覧することにより、例えばオブジェクトObj2に物質SB1及びSB2を加える行為が行われたことを把握することができる。なお、表示部210を介して表示制御部240によりメッセージMSG1が表示される代わりに、音声出力部214を介してメッセージMSG1を読み上げる音声が出力されてもよい。
【0054】
(4)ユーザインタフェース部
ユーザインタフェース部250は、アプリケーションの目的に合わせて、様々なユーザインタフェースをユーザに提供し得る。例えば、ユーザインタフェース部250は、ユーザからデータ取得部230に属性データの取得を明示的に指示するためのUI画面を提供してもよい。
【0055】
ここまで、本開示に係る技術の一実施形態についての概念的な説明を行った。次節より説明する4つの実施例では、本開示に係る技術の具体的な利用場面をそれぞれ想定し、当該技術のさらなる詳細を説明する。
【0056】
<4.第1の実施例>
【0057】
第1の実施例では、履歴管理の対象として、医療行為における薬液の移送を例示する。従って、画像処理装置100は、医師、看護師又は薬剤師などの人物が薬液を取り扱う際に用いる医療器具の間の物理的作用に対応するイベントを検出する。
【0058】
(1)オブジェクトの例
図8は、第1の実施例におけるオブジェクトデータの一例について説明するための説明図である。図8を参照すると、オブジェクトDB140により記憶される一例としてのオブジェクトデータ142aが示されている。オブジェクトデータ142aは、「オブジェクトID」、「名称」、「品番」、「タイプ」及び「特徴量」という5つのデータ項目を有する。
【0059】
「オブジェクトID」は、各オブジェクトを一意に識別するための識別子である。「名称」は、各オブジェクトに付与される名称を示す。図8の例では、オブジェクトObj11に「バイアル」、オブジェクトObj12に「注射器」、オブジェクトObj13に「点滴バッグ」という名称がそれぞれ付与されている。「品番」は、同じ種類のオブジェクトを個々に区別するために付与される文字列を示す。
【0060】
「タイプ」は、属性制御部170による属性の制御の際に参照される区分であり、複数のタイプの候補のうちの少なくとも1つが各オブジェクトについて定義される。本実施例では、次の3つのタイプの候補のうちのいずれかが各オブジェクトに割当てられる。
“SOURCE”…物質の移送元のオブジェクトを示すタイプである
“TRANSPORTER”…物質を移送可能なオブジェクトを示すタイプである
“DESTINATION”…物質の移送先のオブジェクトを示すタイプである
図8の例では、オブジェクトObj11のタイプは“SOURCE”、オブジェクトObj12のタイプは“TRANSPORTER”、オブジェクトObj13のタイプは“DESTINATION”である。
【0061】
「特徴量」は、各オブジェクトについて既知の画像から抽出される特徴量である。オブジェクト識別部130は、入力画像から抽出される画像特徴量をオブジェクトデータ142aのこれら特徴量と照合し、入力画像に映るオブジェクトを識別し得る。
【0062】
(2)イベント
本実施例において、イベント検出部150は、オブジェクト識別部130により識別される医療器具の間の物理的作用に対応するイベントを検出する。例えば、図8に例示したオブジェクトが関与するイベントとして、次のようなイベントが挙げられる。
イベントEv11)バイアルから注射器への薬液の抽出
イベントEv12)注射器から点滴バッグへの薬液の注入
【0063】
これらイベントは、例えば、2つのオブジェクトについて所定のイベント検出条件が満たされること条件として検出されてよい。所定のイベント検出条件とは、例えば、次のような条件のいずれかであってよい。
条件C11)2つのオブジェクトの間の距離が閾値を下回る。
条件C12)条件C11が連続的に満たされている時間が閾値を上回る。
条件C13)2つのオブジェクトを扱う人物の所定のジェスチャが認識される。
条件C11における距離は、入力画像内の2次元的な距離であってもよく、又は公知の3次元構造認識技術に基づいて認識される実空間内の3次元的な距離であってもよい。条件C11及びC12における閾値は、オブジェクトに依存することなく共通的に定義されても、各オブジェクトについて個別に定義されてもよい。
【0064】
上述したイベント検出条件に従って複数のオブジェクト間の物理的作用に対応するイベントが検出されると、イベント検出部150は、検出されたイベントを属性制御部170に通知する。
【0065】
(3)属性の制御
本実施例において、属性制御部170は、検出されたイベントに関与するオブジェクトについて定義されているタイプが所定の属性制御条件を満たす場合に、それらオブジェクトの属性を更新する。属性制御条件は、上述した属性制御テーブルにおいて定義される。
【0066】
図9は、第1の実施例における属性制御テーブルの一例について説明するための説明図である。図9を参照すると、オブジェクトDB140により記憶される一例としての属性制御テーブル144aが示されている。属性制御テーブル144aは、行及び列の双方にオブジェクトの3つのタイプを配置したマトリックス形式で定義されている。各列は、イベントに関与する第1のオブジェクトのタイプに対応する。各行は、イベントに関与する第2のオブジェクトのタイプに対応する。
【0067】
例えば、第1のオブジェクトのタイプが“SOURCE”であって、第2のオブジェクトのタイプが“TRANSPORTER”である場合には、第1のオブジェクトに関連付けられている属性が第2のオブジェクトに追加される(即ち、新たに関連付けられる)。第1のオブジェクトの属性は更新されない。
【0068】
また、第1のオブジェクトのタイプが“TRANSPORTER”であって、第2のオブジェクトのタイプが“DESTINATION”である場合には、第1のオブジェクトに関連付けられている属性が第2のオブジェクトに追加される。第1のオブジェクトの属性は削除される。
【0069】
これら以外のタイプの組合せにおいては、第1及び第2のオブジェクトの属性は更新されない。
【0070】
即ち、属性制御部170は、イベント検出部150によりイベントが検出されると、検出されたイベントに関与するオブジェクトを特定し、特定したオブジェクトのタイプの組合せに対応する属性の制御内容を、属性制御テーブル144aを参照することにより決定する。そして、属性制御部170は、決定した制御内容に従って、属性DB160に記憶されている属性データ162を更新する。ここでの属性データ162の更新は、特定されたオブジェクトへの新たな属性の関連付け、及び特定されたオブジェクトの属性の削除を含み得る。また、属性制御部170は、検出されたイベントに対応するレコードを後に説明する履歴データに追加する。
【0071】
(4)データ遷移
図10A及び図10Bは、本実施例における例示的なシナリオに沿った属性データの状態遷移の一例について説明するための説明図である。これら図の左側には時系列で取得される4つの入力画像Im11〜Im14が順に示されており、右側には各時点の属性データ162aの部分的な内容が示されている。
【0072】
図10Aを参照すると、入力画像Im11には、バイアルObj11及び注射器Obj12が映っている。属性データ162aにおいて、バイアルObj11には、物質SB11を示す属性値が関連付けられている。これは、バイアルObj11に物質SB11が収容されていることを表す。一方、注射器Obj12には、いずれの属性値も関連付けられていない。これは、注射器Obj12に何も収容されていないことを表す。
【0073】
次に、入力画像Im12において、バイアルObj11から距離閾値D1の範囲内に、注射器Obj12が映っている。イベント検出部150は、例えば上述したイベント検出条件C11又はC12に従って、バイアルObj11と注射器Obj12との間の薬液の抽出に対応するイベントを検出する。オブジェクトデータ142aによれば、バイアルObj11のタイプは“SOURCE”、注射器Obj12のタイプは“TRANSPORTER”である。そこで、属性制御部170は、“SOURCE”及び“TRANSPORTER”の組合せに対応する属性の制御内容を属性制御テーブル144aを参照して決定し、バイアルObj11に関連付けられている属性値“SB11”を注射器Obj12に新たに関連付ける。その結果、属性データ162aは、注射器Obj12に物質SB11が収容されていることを表す。
【0074】
次に、図10Bを参照すると、入力画像Im13には、注射器Obj12及び点滴バッグObj13が映っている。属性データ162aにおいて、点滴バッグObj13には、物質SB12を示す属性値が関連付けられている。これは、図10A及び図10Bに示したシナリオ以前の行為の結果であって、点滴バッグObj13に物質SB12が収容されていることを表す。
【0075】
次に、入力画像Im14において、注射器Obj12から距離閾値D1の範囲内に、点滴バッグObj13が映っている。イベント検出部150は、例えば上述したイベント検出条件C11又はC12に従って、注射器Obj12と点滴バッグObj13との間の薬液の注入に対応するイベントを検出する。オブジェクトデータ142aによれば、注射器Obj12のタイプは“TRANSPORTER”、点滴バッグObj13のタイプは“DESTINATION”である。そこで、属性制御部170は、“TRANSPORTER”及び“DESTINATION”の組合せに対応する属性の制御内容を属性制御テーブル144aを参照して決定し、注射器Obj12に関連付けられている属性値“SB11”を点滴バッグObj13に新たに関連付ける。その結果、属性データ162aは、点滴バッグObj13に物質SB11及びSB12が収容されていることを表す。
【0076】
図11は、上述したシナリオの間に属性制御部170により生成される一例としての履歴データ164aの内容を示している。図11を参照すると、履歴データ164aは、「オブジェクトID」、「属性(前)」、「属性(後)」及び「時刻」という4つのデータ項目を有する。「オブジェクトID」は、個々のレコードが示す履歴に関与したオブジェクトを識別する識別子である。「属性(前)」は、属性制御部170により更新される前の当該オブジェクトの属性値を示す。「属性(後)」は、属性制御部170により更新された後の当該オブジェクトの属性値を示す。「時刻」は、対応するイベントの検出時刻(又は属性の更新時刻であってもよい)を示す。属性制御部170は、履歴の信頼性を補強するために、これら時刻に対応する時刻認証データを外部の時刻認証サービスから取得し、取得した時刻認証データを図11に示したような履歴に関連付けて記憶させてもよい。図11の例では、時刻T11において注射器Obj12の属性が更新され、さらに時刻T12において注射器Obj12及び点滴バッグObj13の属性が更新されたことが、履歴データ164aにより示されている。
【0077】
(5)表示例
図12は、本実施例において端末装置200により表示される出力画像の一例について説明するための説明図である。図12を参照すると、一例としての出力画像Im19が示されている。出力画像Im19には、バイアルObj11及び点滴バッグObj13が映っている。また、出力画像Im19には、バイアルObj11を指し示すメッセージMSG11及び点滴バッグObj13を指し示すメッセージMSG12が重畳されている。メッセージMSG11は、バイアルObj11が物質SB11を収容していることを表す。メッセージMSG12は、点滴バッグObj13が物質SB11及びSB12を収容していることを表す。端末装置200のユーザは、例えば、このようなメッセージMSG12を閲覧することにより、点滴バッグObj13に適切な薬液が注入されたかを容易に把握することができる。
【0078】
(6)処理の流れ
(6−1)属性制御処理
図13は、本実施例における画像処理装置100による属性制御処理の流れの一例を示すフローチャートである。図13に示した属性制御処理は、画像取得部120により順次取得される入力画像について繰り返される。
【0079】
まず、画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する(ステップS100)。そして、画像取得部120は、取得した入力画像をオブジェクト識別部130へ出力する。
【0080】
次に、オブジェクト識別部130は、オブジェクトDB140により記憶されている各オブジェクトの既知の特徴量を用いて、入力画像に映るオブジェクトを識別する(ステップS104)。
【0081】
次に、イベント検出部150は、オブジェクト識別部130により識別されるオブジェクトについて上述したイベント検出条件が満たされているかを判定する(ステップS108)。ここで、イベント検出条件が満たされていない場合には、その後の処理はスキップされる(ステップS112)。イベント検出条件が満たされている場合には、イベント検出部150は、検出したイベントを属性制御部170に通知する。
【0082】
属性制御部170は、イベント検出部150によりイベントが検出されると、属性制御テーブル144aを用いて、検出されたイベントに関与するオブジェクトについての属性の制御内容を決定する(ステップS116)。そして、属性制御部170は、第1のオブジェクトから第2のオブジェクトへ属性値を移動することを決定した場合には(ステップS120)、第1のオブジェクトに関連付けられている属性値を第2のオブジェクトに関連付ける(ステップS124)。また、属性制御部170は、第1のオブジェクトの属性値を削除することを決定した場合には(ステップS128)、第1のオブジェクトに関連付けられている属性値を削除する(ステップS132)。
【0083】
そして、属性制御部170は、更新前及び更新後の属性値を含む履歴データ164aの新たなレコードを属性DB160に記憶させる(ステップS148)。
【0084】
(6−2)表示制御処理
図14は、本実施例における端末装置200による表示制御処理の流れの一例を示すフローチャートである。図14に示した表示制御処理は、端末装置200の画像取得部220により順次取得される入力画像について繰り返されてもよく、又はスナップショットとして取得される1つの入力画像について単発的に実行されてもよい。
【0085】
まず、画像取得部220は、撮像部202により生成される撮像画像を入力画像として取得する(ステップS150)。そして、画像取得部220は、取得した入力画像を、データ取得部230及び表示制御部240へ出力する。
【0086】
次に、データ取得部230は、取得された入力画像内で識別されるオブジェクトに関連付けられている属性データを要求するデータ要求を、画像処理装置100へ送信する(ステップS154)。そして、データ取得部230は、データ要求に対する応答を画像処理装置100から受信する(ステップS158)。ここで、データ要求に対する応答として上述した属性データが受信された場合には、処理はステップS170へ進む。一方、属性データが受信されなかった場合には、表示制御部240により入力画像が表示される(ステップS166)。
【0087】
ステップS170において、表示制御部240は、データ取得部230により取得された属性データを入力画像に重畳することにより、出力画像を生成する(ステップS170)。そして、表示制御部240は、表示部210に出力画像を表示させる(ステップS164)。
【0088】
ここまで、図8〜図14を用いて第1の実施例について説明した。本実施例によれば、ある医療器具から他の医療器具へ薬液が移送される状況において、医療器具に収容されている薬液の成分をオブジェクトの属性を通じて把握することが可能となる。
【0089】
一般的に、一度薬液をある医療器具へ移すと、メモ書きなどが無ければ、行為者本人以外の人物がその医療器具に何が収容されているかを知ることは難しい。しかし、本実施例によれば、オブジェクトの属性データ又は属性の更新履歴を閲覧することで、行為者本人以外の人物であっても、医療器具に何が収容されているかを容易に把握することができる。
【0090】
また、オブジェクトの属性の更新に際して医療行為の行為者にデータ入力などの作業は課されない。従って、行為者の過度な負担を原因として履歴が誤って記録されなかったり、不正なデータが入力されたりするリスクが防止される。
【0091】
<5.第2の実施例>
第2の実施例では、履歴管理の対象として、調剤行為における薬品の調合を例示する。従って、画像処理装置100は、医師、看護師又は薬剤師などの人物が薬品を取り扱う際に用いる調剤器具の間の物理的作用に対応するイベントを検出する。なお、説明の簡明さのために、本実施例において第1の実施例と重複する事項についての説明は省略する。
【0092】
(1)オブジェクトの例
図15は、第2の実施例におけるオブジェクトデータの一例について説明するための説明図である。図15を参照すると、オブジェクトDB140により記憶される一例としてのオブジェクトデータ142bが示されている。オブジェクトデータ142bは、第1の実施例に係るオブジェクトデータ142aと同様、「オブジェクトID」、「名称」、「品番」、「タイプ」及び「特徴量」という5つのデータ項目を有する。
【0093】
図15の例では、オブジェクトObj21に「薬瓶」、オブジェクトObj22に「さじ」、オブジェクトObj23に「薬包紙」、オブジェクトObj24に「計量器」、オブジェクトObj25に「パッケージ」、という名称がそれぞれ付与されている。
【0094】
本実施例において、各オブジェクトには次の5つのタイプの候補のうちのいずれかが割当てられる。
“SOURCE”…物質の移送元のオブジェクトを示すタイプである
“TRANSPORTER1”…物質を移送可能なオブジェクトを示すタイプである
“TRANSPORTER2”…物質を移送可能なオブジェクトを示すタイプである
“SCALE”…物質を計量可能なオブジェクトを示すタイプである
“DESTINATION”…物質の移送先のオブジェクトを示すタイプである
図15の例では、オブジェクトObj21のタイプは“SOURCE”、オブジェクトObj22のタイプは“TRANSPORTER1”、オブジェクトObj23のタイプは“TRANSPORTER2”、オブジェクトObj24のタイプは“SCALE”、オブジェクトObj25のタイプは“DESTINATION”である。
【0095】
(2)イベント
本実施例において、イベント検出部150は、オブジェクト識別部130により識別される調剤器具の間の物理的作用に対応するイベントを検出する。例えば、図15に例示したオブジェクトが関与するイベントとして、次のようなイベントが挙げられる。
イベントEv21)薬瓶からさじへの薬品の取り出し
イベントEv22)さじから薬包紙への薬品の移し替え
イベントEv23)さじからパッケージへの薬品の移し入れ
イベントEv24)薬包紙からパッケージへの薬品の移し入れ
イベントEv25)薬包紙に収容される薬品の計量器による計量
【0096】
これらイベントは、例えば、2つのオブジェクトについて所定のイベント検出条件が満たされること条件として検出されてよい。所定のイベント検出条件とは、例えば、次のような条件のいずれかであってよい。
条件C21)2つのオブジェクトの間の距離が閾値を下回る。
条件C22)一方のオブジェクトの上方に他方のオブジェクトが位置する。
条件C23)条件C21又はC22が連続的に満たされている時間が閾値を上回る。
条件C24)2つのオブジェクトを扱う人物の所定のジェスチャが認識される。
条件C21における距離は、入力画像内の2次元的な距離であってもよく、又は公知の3次元構造認識技術に基づいて認識される実空間内の3次元的な距離であってもよい。条件C21及びC23における閾値は、オブジェクトに依存することなく共通的に定義されても、各オブジェクトについて個別に定義されてもよい。
【0097】
(3)属性の制御
本実施例においても、属性制御部170は、検出されたイベントに関与するオブジェクトについて定義されているタイプが所定の属性制御条件を満たす場合に、それらオブジェクトの属性を更新する。属性制御条件は、属性制御テーブルにおいて定義される。
【0098】
図16は、第2の実施例における属性制御テーブルの一例について説明するための説明図である。図16を参照すると、オブジェクトDB140により記憶される一例としての属性制御テーブル144bが示されている。属性制御テーブル144bは、行及び列の双方にオブジェクトの5つのタイプを配置したマトリックス形式で定義されている。各列は、イベントに関与する第1のオブジェクトのタイプに対応する。各行は、イベントに関与する第2のオブジェクトのタイプに対応する。
【0099】
例えば、第1のオブジェクトのタイプが“SOURCE”であって、第2のオブジェクトのタイプが“TRANSPORTER1”又は“TRANSPORTER2”である場合には、第1のオブジェクトに関連付けられている属性が第2のオブジェクトに追加される(即ち、新たに関連付けられる)。第1のオブジェクトの属性は更新されない。
【0100】
また、第1のオブジェクトのタイプが“TRANSPORTER1”であって、第2のオブジェクトのタイプが“TRANSPORTER2”又は“DESTINATION”である場合には、第1のオブジェクトに関連付けられている属性が第2のオブジェクトに追加される。第1のオブジェクトの属性は削除される。
【0101】
また、第1のオブジェクトのタイプが“TRANSPORTER2”であって、第2のオブジェクトのタイプが“DESTINATION”である場合には、第1のオブジェクトに関連付けられている属性が第2のオブジェクトに追加される。第1のオブジェクトの属性は削除される。
【0102】
また、第1のオブジェクトのタイプが“TRANSPORTER2”であって、第2のオブジェクトのタイプが“SCALE”である場合には、第2のオブジェクトに関連付けられている属性に物質の数量が付加される。即ち、属性制御部170は、例えば、タイプ“SCALE”を有する計量器による計量結果を(例えば、公知のOCR(Optical Character Recognition)技術を表示パネルに適用することにより)入力画像から読み取り、読み取った数量の値を第2のオブジェクトの属性に付加する。
【0103】
同様に、第1のオブジェクトのタイプが“SCALE”であって、第2のオブジェクトのタイプが“DESTINATION”である場合には、第1のオブジェクトに関連付けられている属性に物質の数量が付加される。
【0104】
これら以外のタイプの組合せにおいては、第1及び第2のオブジェクトの属性は更新されない。
【0105】
なお、例えば計量さじのような器具について、“TRANSPORTER1”及び“SCALE”という2つのタイプの双方が設定されてもよい。また、固定的な数量の計量のために用いられる器具については、動的に読み取られる値の代わりに、予め定義される固定的な数量の値が割当てられてよい。
【0106】
(4)データ遷移
図17A及び図17Bは、本実施例における例示的なシナリオに沿った属性データの状態遷移の一例について説明するための説明図である。これら図の左側には時系列で取得される6つの入力画像Im21〜Im26が順に示されており、右側には各時点の属性データ162bの部分的な内容が示されている。
【0107】
図17Aを参照すると、入力画像Im21には、薬瓶Obj21及びさじObj22が映っている。属性データ162bにおいて、薬瓶Obj21には、物質SB21を示す属性値が関連付けられている。これは、薬瓶Obj21に物質SB21が収容されていることを表す。一方、さじObj22には、いずれの属性値も関連付けられていない。これは、さじObj22に何も収容されていないことを表す。
【0108】
次に、入力画像Im22において、薬瓶Obj21の上方に、さじObj22が映っている。イベント検出部150は、例えば上述したイベント検出条件C22又はC23に従って、薬瓶Obj21とさじObj22との間の薬品の取り出しに対応するイベントを検出する。オブジェクトデータ142bによれば、薬瓶Obj21のタイプは“SOURCE”、さじObj22のタイプは“TRANSPORTER1”である。そこで、属性制御部170は、“SOURCE”及び“TRANSPORTER1”の組合せに対応する属性の制御内容を属性制御テーブル144bを参照して決定し、薬瓶Obj21に関連付けられている属性値“SB21”をさじObj22に新たに関連付ける。その結果、属性データ162bは、さじObj22に物質SB21が収容されていることを表す。
【0109】
次に、入力画像Im23には、さじObj22、薬包紙Obj23及び計量器Obj24が映っている。属性データ162bにおいて、さじObj22には、物質SB21を示す属性値が関連付けられている。一方、薬包紙Obj23には、いずれの属性値も関連付けられていない。
【0110】
次に、図17Bを参照すると、入力画像Im24において、薬包紙Obj23の上方に、さじObj22が映っている。イベント検出部150は、例えば上述したイベント検出条件C22又はC23に従って、さじObj22と薬包紙Obj23との間の薬品の移し替えに対応するイベントを検出する。オブジェクトデータ142bによれば、さじObj22のタイプは“TRANSPORTER1”、薬包紙Obj23のタイプは“TRANSPORTER2”である。そこで、属性制御部170は、“TRANSPORTER1”及び“TRANSPORTER2”の組合せに対応する属性の制御内容を属性制御テーブル144bを参照して決定し、さじObj22に関連付けられている属性値“SB21”を薬包紙Obj23に新たに関連付ける。その結果、属性データ162bは、薬包紙Obj23に物質SB21が収容されていることを表す。
【0111】
次に、入力画像Im25において、計量器Obj24が薬包紙Obj23に収容されている物質の数量を計量している様子が映っている。オブジェクトデータ142bによれば、薬包紙Obj23のタイプは“TRANSPORTER2”、計量器Obj24のタイプは“SCALE”である。そこで、属性制御部170は、計量器Obj24により表示される数量の値を入力画像Im25から読み取り、読み取った値を薬包紙Obj23の属性に付加する。図17Bの例では、結果として、属性データ162bは、薬包紙Obj23に物質SB21が3.0g収容されていることを表す。
【0112】
次に、入力画像Im26において、パッケージObj25の上方に、薬包紙Obj23が映っている。イベント検出部150は、例えば上述したイベント検出条件C22又はC23に従って、薬包紙Obj23からパッケージObj25への薬品の移し入れに対応するイベントを検出する。オブジェクトデータ142bによれば、薬包紙Obj23のタイプは“TRANSPORTER2”、パッケージObj25のタイプは“DESTINATION”である。そこで、属性制御部170は、“TRANSPORTER2”及び“DESTINATION”の組合せに対応する属性の制御内容を属性制御テーブル144bを参照して決定し、薬包紙Obj23に関連付けられている属性値“SB21_3.0g”をパッケージObj25に新たに関連付ける。その結果、属性データ162bは、パッケージObj25に物質SB21が3.0g収容されていることを表す。
【0113】
(5)表示例
図18は、本実施例において端末装置200により表示される出力画像の一例について説明するための説明図である。図18を参照すると、一例としての出力画像Im29が示されている。出力画像Im29には、パッケージObj25が映っている。また、出力画像Im29には、パッケージObj25を指し示すメッセージMSG21が重畳されている。メッセージMSG21は、パッケージObj25が物質SB21を3.0g収容していることを表す。端末装置200のユーザは、例えば、このようなメッセージMSG21を閲覧することにより、パッケージObj25に現在いずれの薬品がどれだけの数量収容されているかを容易に把握することができる。
【0114】
(6)処理の流れ
図19は、本実施例における画像処理装置100による属性制御処理の流れの一例を示すフローチャートである。図19に示した属性制御処理は、画像取得部120により順次取得される入力画像について繰り返される。
【0115】
まず、画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する(ステップS200)。そして、画像取得部120は、取得した入力画像をオブジェクト識別部130へ出力する。
【0116】
次に、オブジェクト識別部130は、オブジェクトDB140により記憶されている各オブジェクトの既知の特徴量を用いて、入力画像に映るオブジェクトを識別する(ステップS204)。
【0117】
次に、イベント検出部150は、オブジェクト識別部130により識別されるオブジェクトについて上述したイベント検出条件が満たされているかを判定する(ステップS208)。ここで、イベント検出条件が満たされていない場合には、その後の処理はスキップされる(ステップS212)。イベント検出条件が満たされている場合には、イベント検出部150は、検出したイベントを属性制御部170に通知する。
【0118】
属性制御部170は、イベント検出部150によりイベントが検出されると、属性制御テーブル144bを用いて、検出されたイベントに関与するオブジェクトについての属性の制御内容を決定する(ステップS216)。そして、属性制御部170は、第1のオブジェクトから第2のオブジェクトへ属性値を移動することを決定した場合には(ステップS220)、第1のオブジェクトに関連付けられている属性値を第2のオブジェクトに関連付ける(ステップS224)。また、属性制御部170は、第1のオブジェクトの属性値を削除することを決定した場合には(ステップS228)、第1のオブジェクトに関連付けられている属性値を削除する(ステップS232)。
【0119】
また、属性制御部170は、いずれかのオブジェクトに数量を付加することを決定した場合には(ステップS236)、付加すべき物質の数量の値を取得し(ステップS240)、取得した数量の値を“SCALE”オブジェクトではない方のオブジェクトの属性に付加する(ステップS244)。
【0120】
そして、属性制御部170は、更新前及び更新後の属性値を含む履歴データ164の新たなレコードを属性DB160に記憶させる(ステップS248)。なお、いずれのオブジェクトの属性も更新されない場合には、ステップS248の処理はスキップされる。
【0121】
ここまで、図15〜図19を用いて第2の実施例について説明した。本実施例によれば、調剤器具を用いて薬品が調合される状況において、調剤器具に収容されている薬品の成分をオブジェクトの属性を通じて把握することが可能となる。また、オブジェクトに収容される物質の数量をもオブジェクトの属性に付加することができる。また、オブジェクトの属性データ又は属性の更新履歴を閲覧することで、行為者本人以外の人物であっても薬品の成分及びその数量を容易に把握することができる。オブジェクトの属性の更新に際しては、調剤行為の行為者にデータ入力などの作業は課されない。
【0122】
<6.第3の実施例>
第3の実施例では、履歴管理の対象として、患者による薬の服用を例示する。従って、画像処理装置100は、患者と薬との間の物理的作用、即ち薬の服用行為に対応するイベントを検出する。なお、説明の簡明さのために、本実施例において先行するいずれかの実施例と重複する事項についての説明は省略する。
【0123】
(1)オブジェクトの例
図20は、第3の実施例におけるオブジェクトデータの一例について説明するための説明図である。図20を参照すると、オブジェクトDB140により記憶される一例としてのオブジェクトデータ142cが示されている。オブジェクトデータ142cは、人物オブジェクトについての人物データと、処方薬オブジェクトについての処方薬データとを含む。
【0124】
人物データは、「オブジェクトID」、「名称」及び「特徴量」という3つのデータ項目を有する。「オブジェクトID」は、各人物オブジェクトを一意に識別するための識別子である。「名称」は、各人物の名前を示す。「特徴量」は、各人物の既知の顔画像から抽出される特徴量である。
【0125】
処方薬データは、「オブジェクトID」、「名称」、「患者ID」、「服用量」及び「特徴量」という5つのデータ項目を有する。「オブジェクトID」は、各処方薬オブジェクトを一意に識別するための識別子である。「名称」は、各処方薬の名称を示す。「患者ID」は、各処方薬を服用する人物のオブジェクトIDを示す。図20の例では、オブジェクトObj35、即ち「X1錠」を服用する人物は、オブジェクトObj31、即ち「XXさん」である。「服用量」は、各処方薬をいつどれだけ服用すべきかについての情報を示す。「特徴量」は、各処方薬の既知の画像から抽出される特徴量である。
【0126】
(2)イベント
本実施例において、イベント検出部150は、オブジェクト識別部130により識別される人物による処方薬の服用行為に対応するイベントを検出する。イベント検出部150は、例えば、公知のジェスチャ認識技術を用いて、人物による服用行為のジェスチャを検出してもよい。本実施例におけるイベント検出条件は、次のような条件となる。
条件C31)人物オブジェクトが処方薬オブジェクトを服用するジェスチャが認識される。
【0127】
(3)属性の制御
属性制御部170は、イベント検出部150により服用行為に対応するイベントが検出されると、服用行為に関与する人物オブジェクト及び処方薬オブジェクトの属性を更新する。例えば、属性制御部170は、処方薬オブジェクトに含まれる物質の種類と1回当たりの服用量とを示す属性を人物オブジェクトに新たに関連付けてもよい。また、属性制御部170は、処方薬オブジェクトの属性から、1回当たりの服用量に相当する数量を削除してもよい。さらに、属性制御部170は、これらオブジェクトの属性を更新すると、更新の履歴を示すレコードを履歴データ164cに記憶させる。
【0128】
図21は、本実施例において属性制御部170により生成される一例としての履歴データ164cの内容を示している。図21を参照すると、履歴データ164cは、「オブジェクトID」、「属性」及び「時刻」という3つのデータ項目を有する。「オブジェクトID」は、処方薬を服用した人物の人物オブジェクトを識別する識別子である。「属性」は、属性制御部170により当該人物オブジェクトに新たに関連付けられた属性値を示す。「時刻」は、対応するイベントの検出時刻(又は属性の更新時刻であってもよい)を示す。属性制御部170は、履歴の信頼性を補強するために、これら時刻に対応する時刻認証データを外部の時刻認証サービスから取得し、取得した時刻認証データを図21に示したような履歴に関連付けて記憶させてもよい。図21の例では、時刻T31、T32及びT33において、患者Obj31が物質SB31を2錠ずつ服用したことが、履歴データ164cにより示されている。
【0129】
さらに、属性制御部170は、服用行為に対応するイベントの検出に応じて、担当の医師、看護師又は患者の家族などが有する端末装置に通知メッセージを送信してもよい。また、属性制御部170は、患者が服用すべきでない薬を服用したことが検出された場合には、警報メッセージを送信し又は警報音を発してもよい。
【0130】
(4)データ遷移
図22は、本実施例における例示的なシナリオに沿った属性データの状態遷移の一例について説明するための説明図である。これら図の左側には時系列で取得される3つの入力画像Im31〜Im33が順に示されており、右側には各時点の属性データ162cの部分的な内容が示されている。
【0131】
図22を参照すると、入力画像Im31には、患者Obj31及び処方薬Obj35が映っている。属性データ162cにおいて、患者Obj31には、いずれの属性値も関連付けられていない。一方、処方薬Obj35には、物質SB31の種類と数量30錠とを示す属性値が関連付けられている。これは、処方薬Obj35に物質SB31が30錠収容されていることを表す。
【0132】
次に、入力画像Im32において、処方薬Obj35を患者Obj31が服用する様子が映っている。イベント検出部150は、このような服用行為のジェスチャを認識することにより、当該服用行為に対応するイベントを検出する。すると、属性制御部170は、処方薬Obj35に関連付けられている属性値“SB31”を患者Obj31に新たに関連付ける。また、属性制御部170は、1回当たりの服用量に相当する数量を患者Obj31の属性に付加する。また、属性制御部170は、処方薬Obj35の属性から1回当たりの服用量に相当する数量を削除する。その結果、属性データ162cは、患者Obj31が物質SB31を2錠服用したこと、及び処方薬Obj35に物質SB31が28錠収容されていることを表す。
【0133】
その後、入力画像Im33には、患者Obj31が映っている。属性データ162cは、引き続き患者Obj31が物質SB31を2錠服用したことを表している。なお、属性制御部170は、服用行為に対応するイベントの検出時刻から処方薬の効果の持続時間が経過した時点で、当該イベントが検出された際に患者オブジェクトに関連付けた属性を削除してもよい。
【0134】
(5)表示例
図23は、本実施例において端末装置200により表示される出力画像の一例について説明するための説明図である。図23を参照すると、一例としての出力画像Im39が示されている。出力画像Im39には、患者Obj31が映っている。また、出力画像Im39には、患者Obj31を指し示すメッセージMSG31が重畳されている。メッセージMS31は、患者Obj31が2011年11月1日14時に“X1錠”を2錠服用したことを表す。端末装置200のユーザは、例えば、このようなメッセージMSG31を閲覧することにより、患者が適切な時刻に適切な処方薬を服用したかを容易に把握することができる。
【0135】
なお、画像処理装置100のユーザインタフェース部190又は端末装置200のユーザインタフェース部250は、患者のオブジェクトID又は名前をユーザ(例えば医師、看護師又は家族など)に指定させ、指定された患者に関連付けられている服用行為の履歴を当該ユーザに呈示するためのUI画面を、ユーザに提供してもよい。
【0136】
(6)処理の流れ
図24は、本実施例における画像処理装置100による属性制御処理の流れの一例を示すフローチャートである。図24に示した属性制御処理は、画像取得部120により順次取得される入力画像について繰り返される。
【0137】
まず、画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する(ステップS300)。そして、画像取得部120は、取得した入力画像をオブジェクト識別部130へ出力する。
【0138】
次に、オブジェクト識別部130は、オブジェクトDB140により記憶されている人物オブジェクト及び処方薬オブジェクトの既知の特徴量を用いて、入力画像に映るこれらオブジェクトを識別する(ステップS304)。
【0139】
次に、イベント検出部150は、オブジェクト識別部130により識別されるオブジェクトについて、ジェスチャ認識技術を用いてイベント検出条件が満たされているかを判定する(ステップS308)。ここで、イベント検出条件が満たされていない場合には、その後の処理はスキップされる(ステップS312)。イベント検出条件が満たされている場合には、イベント検出部150は、検出したイベントを属性制御部170に通知する。
【0140】
属性制御部170は、イベント検出部150によりイベントが検出されると、処方薬オブジェクトである第1のオブジェクトに関連付けられている属性値及び服用量を、人物オブジェクトである第2のオブジェクトに関連付ける(ステップS324)。また、属性制御部170は、第1のオブジェクトに関連付けられている属性の数量から、1回当たりの服用量を削除する(ステップS332)。そして、属性制御部170は、履歴データ164cの新たなレコードを属性DB160に記憶させる(ステップS348)。
【0141】
ここまで、図20〜図24を用いて第3の実施例について説明した。本実施例によれば、患者が処方薬を服用する状況において、患者がどの薬をいつ服用したかをオブジェクトの属性データ又は属性の更新履歴を通じて第3者が把握することが可能となる。オブジェクトの属性の更新に際しては、患者及び第3者にデータ入力などの作業は課されない。
【0142】
<7.第4の実施例>
第4の実施例では、履歴管理の対象として、食品加工行為における食材及び調味料の配合を例示する。従って、画像処理装置100は、シェフ、レストランの従業員又は食品加工工場の従業員などの人物が食材及び調味料を取り扱う際の物理的作用に対応するイベントを検出する。なお、説明の簡明さのために、本実施例において先行するいずれかの実施例と重複する事項についての説明は省略する。
【0143】
(1)オブジェクトの例
図25は、第4の実施例におけるオブジェクトデータの一例について説明するための説明図である。図25を参照すると、オブジェクトDB140により記憶される一例としてのオブジェクトデータ142dが示されている。オブジェクトデータ142dは、第1の実施例に係るオブジェクトデータ142aと同様、「オブジェクトID」、「名称」、「品番」、「タイプ」及び「特徴量」という5つのデータ項目を有する。
【0144】
本実施例において、各オブジェクトには次の4つのタイプの候補のうちのいずれかが割当てられる。
“SOURCE”…食材又は調味料の移送元のオブジェクトを示すタイプである。食材若しくは調味料の容器、又は食材そのものなどに相当し得る
“TRANSPORTER”…食材又は調味料を移送可能なオブジェクトを示すタイプである
“CONTAINER”…調理される食品を収容可能なオブジェクトを示すタイプである
“FOOD_ITEM”…調理される食品のオブジェクトを示すタイプである
図25の例では、オブジェクトObj41(ひき肉)及びオブジェクトObj42(コショウ瓶)のタイプは“SOURCE”である。オブジェクトObj43(おたま)のタイプは“TRANSPORTER”である。オブジェクトObj44(ボウル)、オブジェクトObj45(フライパン)及びオブジェクトObj46(トレイ)のタイプは“CONTAINER”である。オブジェクトObj50(食品)のタイプは“FOOD_ITEM”である。
【0145】
なお、“FOOD_ITEM”オブジェクトを識別するための特徴量(例えば、オブジェクトデータ142dにおける特徴量FD50)は、初期状態では与えられない。“FOOD_ITEM”オブジェクトの特徴量は、後述するイベントの検出に応じて入力画像から抽出され得る。
【0146】
(2)イベント
本実施例において、イベント検出部150は、オブジェクト識別部130により識別されるオブジェクトの間の物理的作用に対応するイベントを検出する。例えば、図25に例示したオブジェクトが関与するイベントとして、次のようなイベントが挙げられる。
イベントEv41)ボウルへのひき肉の投入
イベントEv42)コショウ瓶からボウルへのコショウの投入
イベントEv43)ボウルからフライパンへの食品の移し替え
イベントEv44)フライパンからトレイへの食品の移し替え
【0147】
これらイベントは、例えば、2つのオブジェクトについて所定のイベント検出条件が満たされること条件として検出されてよい。所定のイベント検出条件とは、例えば、次のような条件のいずれかであってよい。
条件C41)一方のオブジェクトの上方に他方のオブジェクトが位置する。
条件C42)条件C41が連続的に満たされている時間が閾値を上回る。
条件C43)2つのオブジェクトを扱う人物の所定のジェスチャが認識される。
条件C42における閾値は、オブジェクトに依存することなく共通的に定義されても、各オブジェクトについて個別に定義されてもよい。
【0148】
(3)属性の制御
本実施例においても、属性制御部170は、検出されたイベントに関与するオブジェクトについて定義されているタイプが所定の属性制御条件を満たす場合に、それらオブジェクトの属性を更新する。属性制御条件は、属性制御テーブルにおいて定義される。
【0149】
図26は、第4の実施例における属性制御テーブルの一例について説明するための説明図である。図26を参照すると、オブジェクトDB140により記憶される一例としての属性制御テーブル144dが示されている。属性制御テーブル144dは、行及び列の双方にオブジェクトの4つのタイプを配置したマトリックス形式で定義されている。各列は、イベントに関与する第1のオブジェクトのタイプに対応する。各行は、イベントに関与する第2のオブジェクトのタイプに対応する。
【0150】
例えば、第1のオブジェクトのタイプが“SOURCE”であって、第2のオブジェクトのタイプが“TRANSPORTER”である場合には、第1のオブジェクトに関連付けられている属性が第2のオブジェクトに追加される(即ち、新たに関連付けられる)。第1のオブジェクトの属性は更新されない。
【0151】
第1のオブジェクトのタイプが“SOURCE”であって、第2のオブジェクトのタイプが“CONTAINER”である場合には、第2のオブジェクトに収容されている第3のオブジェクトが存在するかが判定され、存在しない場合には当該第3のオブジェクトが生成される。ここで生成される第3のオブジェクトは、“FOOD_ITEM”オブジェクトである。そして、第1のオブジェクトに関連付けられている属性が第3のオブジェクトに追加される。さらに、第3のオブジェクトの新たな特徴量が入力画像から抽出される。第1のオブジェクトの属性は更新されない。
【0152】
また、第1のオブジェクトのタイプが“SOURCE”であって、第2のオブジェクトのタイプが“FOOD_ITEM”である場合には、第1のオブジェクトに関連付けられている属性が第2のオブジェクトに追加される。さらに、第3のオブジェクトの新たな特徴量が入力画像から抽出される。第1のオブジェクトの属性は更新されない。
【0153】
また、第1のオブジェクトのタイプが“TRANSPORTER”であって、第2のオブジェクトのタイプが“CONTAINER”である場合には、第2のオブジェクトに収容されている第3のオブジェクトが存在するかが判定され、存在しない場合には当該第3のオブジェクトが生成される。ここで生成される第3のオブジェクトは、“FOOD_ITEM”オブジェクトである。そして、第1のオブジェクトに関連付けられている属性が第3のオブジェクトに追加される。さらに、第3のオブジェクトの新たな特徴量が入力画像から抽出される。第1のオブジェクトの属性は削除される。
【0154】
また、第1のオブジェクトのタイプが“TRANSPORTER”であって、第2のオブジェクトのタイプが“FOOD_ITEM”である場合には、第1のオブジェクトに関連付けられている属性が第2のオブジェクトに追加される。さらに、第2のオブジェクトの新たな特徴量が入力画像から抽出される。第1のオブジェクトの属性は削除される。
【0155】
また、第1のオブジェクトのタイプが“CONTAINER”であって、第2のオブジェクトのタイプも“CONTAINER”である場合には、第1のオブジェクトに関連付けられている属性が第2のオブジェクトに追加される。さらに、第2のオブジェクトの新たな特徴量が入力画像から抽出される。第1のオブジェクトの属性は削除される。
【0156】
また、第1のオブジェクトのタイプが“CONTAINER”であって、第2のオブジェクトのタイプが“FOOD_ITEM”である場合には、第1のオブジェクトに関連付けられている属性が第2のオブジェクトに追加される。さらに、第2のオブジェクトの新たな特徴量が入力画像から抽出される。第1のオブジェクトの属性は削除される。
【0157】
これら以外のタイプの組合せにおいては、第1及び第2のオブジェクトの属性は更新されない。
【0158】
なお、“FOOD_ITEM”オブジェクトの特徴量は、“FOOD_ITEM”オブジェクトを収容する“CONTAINER”オブジェクトの画像領域から既知の“CONTAINER”オブジェクトが映っている部分を除くことにより決定される差分領域から抽出されてよい。属性制御部170は、“FOOD_ITEM”オブジェクトが関与するイベントが検出された場合において、当該オブジェクトの外観に大きな変化が見られないときは、当該オブジェクトの特徴量を抽出せず又は更新しなくてよい。また、本実施例においても、第2の実施例において説明したような、物質を計量可能なオブジェクトを示す“SCALE”タイプがさらに使用されてもよい。
【0159】
(4)データ遷移
図27A及び図27Bは、本実施例における例示的なシナリオに沿った属性データの状態遷移の一例について説明するための説明図である。これら図の左側には時系列で取得される5つの入力画像Im41〜Im45が順に示されており、右側には各時点の属性データ162dの部分的な内容が示されている。
【0160】
図27Aを参照すると、入力画像Im41には、ひき肉Obj41及びボウルObj44が映っている。属性データ162dにおいて、ひき肉Obj41には、物質SB41及び物質SB43を示す属性値が関連付けられている。これは、ひき肉Obj41が構成成分として物質SB41及びSB43を有することを表す。一方、ボウルObj44には、いずれの属性値も関連付けられていない。これは、ボウルObj44に何も収容されていないことを表す。
【0161】
次に、入力画像Im42において、ボウルObj44の上方に、ひき肉Obj41が映っている。イベント検出部150は、例えば上述したイベント検出条件C41〜C43のいずれかに従って、ボウルObj44へのひき肉Obj41の投入に対応するイベントを検出する。オブジェクトデータ142dによれば、ひき肉Obj41のタイプは“SOURCE”、ボウルObj44のタイプは“CONTAINER”である。そこで、属性制御部170は、属性制御テーブル144dにより示される制御内容に従って、“FOOD_ITEM”オブジェクトである食品Obj50を新たに生成し、ひき肉Obj41に関連付けられている属性値“SB41”及び“SB43”を食品Obj50に関連付ける。ボウルObj44には、食品Obj50を示す属性値が関連付けられる。さらに、属性制御部170は、食品Obj50の特徴量FD50を入力画像Im42から抽出し、抽出した特徴量FD50をオブジェクトDB140に記憶させる。
【0162】
次に、入力画像Im43には、コショウ瓶Obj42、ボウルObj44及び食品Obj50が映っている。イベント検出部150は、例えば上述したイベント検出条件C41〜C43のいずれかに従って、ボウルObj44内の食品Obj50へのコショウの投入に対応するイベントを検出する。ここで、食品Obj50タイプは“FOOD_ITEM”、コショウ瓶Obj42のタイプは“SOURCE”である。そこで、属性制御部170は、属性制御テーブル144dにより示される制御内容に従って、コショウ瓶Obj42に関連付けられている属性値“SB42”を食品Obj50に新たに関連付ける。属性データ162dにおいて、コショウ瓶Obj42には、物質SB42(コショウ)を示す属性値が関連付けられている。ボウルObj44には、食品Obj50を示す属性値が関連付けられている。食品Obj50には、物質SB41、SB42及びSB43を示す属性値が関連付けられている。
【0163】
次に、図27Bを参照すると、入力画像Im44において、フライパンObj45に食品Obj50が収容されている様子が映っている。属性データ162dは、フライパンObj45に食品Obj50が収容されていること、及び食品Obj50が物質SB41、SB42及びSB43を構成成分として有することを表す。
【0164】
さらに、フライパンObj45での調理を経た後、入力画像Im45において、フライパンObj45の近傍にトレイObj46が映っている。イベント検出部150は、フライパンObj45からトレイObj46への食品Obj50の移し替えに対応するイベントを検出する。ここで、フライパンObj45及びトレイObj46のタイプは共に“CONTAINER”である。そこで、属性制御部170は、属性制御テーブル144dにより示される制御内容に従って、フライパンObj45に関連付けられている属性値“Obj50”をトレイObj46に新たに関連付ける。その結果、属性データ162dは、トレイObj46に食品Obj50が収容されていることを表す。さらに、属性制御部170は、食品Obj50の特徴量FD50を新たに入力画像Im42から抽出し、抽出した特徴量FD50をオブジェクトDB140に記憶させる。ここで記憶される特徴量FD50は、フライパンObj45を用いて調理された食品Obj50の外観の特徴を表現する。
【0165】
(5)表示例
図28は、本実施例において端末装置200により表示される出力画像の一例について説明するための説明図である。図28を参照すると、一例としての出力画像Im49が示されている。出力画像Im49には、トレイObj46及び食品Obj50が映っている。また、出力画像Im49には、食品Obj50を指し示すメッセージMSG41が重畳されている。メッセージMSG41は、食品Obj50が物質SB41、SB43及びSB42にそれぞれ相当し得る牛肉、豚肉及びコショウを含有していることを表す。端末装置200のユーザは、例えば、このようなメッセージMSG41を閲覧することにより、食品Obj50にどのような成分が含まれているかを容易に把握することができる。
【0166】
(6)処理の流れ
図29は、本実施例における画像処理装置100による属性制御処理の流れの一例を示すフローチャートである。図29に示した属性制御処理は、画像取得部120により順次取得される入力画像について繰り返される。
【0167】
まず、画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する(ステップS400)。そして、画像取得部120は、取得した入力画像をオブジェクト識別部130へ出力する。
【0168】
次に、オブジェクト識別部130は、オブジェクトDB140により記憶されている各オブジェクトの既知の特徴量を用いて、入力画像に映るオブジェクトを識別する(ステップS404)。
【0169】
次に、イベント検出部150は、オブジェクト識別部130により識別されるオブジェクトについて上述したイベント検出条件が満たされているかを判定する(ステップS408)。ここで、イベント検出条件が満たされていない場合には、その後の処理はスキップされる(ステップS412)。イベント検出条件が満たされている場合には、イベント検出部150は、検出したイベントを属性制御部170に通知する。
【0170】
属性制御部170は、イベント検出部150によりイベントが検出されると、属性制御テーブル144dを用いて、検出されたイベントに関与するオブジェクトについての属性の制御内容を決定する(ステップS416)。そして、属性制御部170は、第1のオブジェクトから第2のオブジェクトへ属性値を移動することを決定した場合には(ステップS420)、第1のオブジェクトに関連付けられている属性値を第2のオブジェクトに関連付ける(ステップS424)。また、属性制御部170は、第1のオブジェクトの属性値を削除することを決定した場合には(ステップS428)、第1のオブジェクトに関連付けられている属性値を削除する(ステップS432)。
【0171】
また、属性制御部170は、新たな“FOOD_ITEM”オブジェクトを生成することを決定した場合には(ステップS436)、“FOOD_ITEM”オブジェクトを生成する(ステップS438)。ここで生成される“FOOD_ITEM”オブジェクトには、第1のオブジェクトに関連付けられている属性値が関連付けられる。
【0172】
また、属性制御部170は、“FOOD_ITEM”オブジェクトの特徴量を更新することを決定した場合には(ステップS440)、上述した抽出対象領域から画像特徴量を抽出し(ステップS442)、抽出した画像特徴量で“FOOD_ITEM”オブジェクトの特徴量を更新する(ステップS444)。
【0173】
そして、属性制御部170は、履歴データ164の新たなレコードを属性DB160に記憶させる(ステップS448)。なお、いずれのオブジェクトの属性も更新されない場合には、ステップS448の処理はスキップされる。
【0174】
ここまで、図25〜図29を用いて第4の実施例について説明した。本実施例によれば、調理器具を用いて食品が加工される状況において、食品に含有されている成分をオブジェクトの属性を通じて把握することが可能となる。消費者は、カメラを有する端末装置を食品にかざすことで加工された食品の成分を容易に把握できるため、より安心して食品を購入し又は食することができる。
【0175】
<8.変形例>
上述した実施形態では、画像処理装置100及び端末装置200が物理的に異なる装置として構成される例について主に説明した。しかしながら、画像処理装置100及び端末装置200は、図30に例示する画像処理装置300のように、一体の装置として構成されてもよい。
【0176】
図30は、一変形例に係る画像処理装置300の論理的機能の構成の一例を示すブロック図である。図30を参照すると、画像処理装置300は、画像取得部120、オブジェクト識別部130、オブジェクトDB140、イベント検出部150、属性DB160、属性制御部170、表示制御部240及びユーザインタフェース部190、250を含む。画像処理装置300の各処理ブロックの機能は、上で説明した同じ符号の付された処理ブロックの機能と原則として同様である。画像処理装置300の表示制御部240は、入力画像に映るオブジェクトに関連付けられている属性データを属性DB160から取得し、取得した属性データを入力画像に重畳する。
【0177】
<9.まとめ>
ここまで、本開示に係る技術の一実施形態及びその4つの実施例について詳細に説明した。本開示に係る技術によれば、実空間に存在するオブジェクトが入力画像内で識別され、識別されたオブジェクト間の物理的作用に対応するイベントの検出に応じて、第1のオブジェクトに関連付けられている属性データが第2のオブジェクトに関連付けられる。従って、これらオブジェクト間の物理的作用を生じさせる様々な作業行為の履歴を、オブジェクトの属性という形式で管理することが可能となる。その際、属性データの更新は画像認識技術を用いて自動的に行われるため、行為者に負担が課されることがない。
【0178】
上記実施形態によれば、上記オブジェクトは物質を収容可能なオブジェクトであってよく、上記属性データは関連付けられるオブジェクトに収容される物質の種類を示し得る。かかる構成によれば、収容される物質を外部から視認できないオブジェクトについて行われた行為の詳細を事後的に把握することが可能となる。
【0179】
また、上記実施形態によれば、オブジェクト間の物理的作用に対応するイベントは、当該オブジェクトの間の位置関係が所定の条件を満たす場合に検出されてよい。オブジェクト間の位置関係についての条件の代わりに、オブジェクトに対する人物のジェスチャの認識についての条件が採用されてもよい。これらの構成によれば、入力画像以外の情報を要することなく、上述した履歴管理の仕組みを実現することができる。即ち、事前に用意されるデータベースを除いてアプリケーションの目的に特化した入力情報が必要とされないため、医師、看護師、薬剤師、患者の家族、シェフ又は工場の従業員など様々な人物が有し得る汎用的な装置を用いて、履歴を容易に蓄積し又は蓄積された履歴を閲覧することが可能となる。
【0180】
また、上記実施形態によれば、属性の制御内容は、検出されるイベントに関与するオブジェクトについて定義されるタイプに応じて決定され得る。かかる構成によれば、作業行為の様々なパターンをタイプの組合せを通じて区別し、そのパターンごとに異なる属性の制御を実現することができる。よって、履歴管理の対象となる作業行為の様々なバリエーションに、上述した履歴管理の仕組みを柔軟に適用することが可能となる。
【0181】
履歴の正確性がより重要視される場面では、属性の更新についての承認をユーザから受け付けるユーザインタフェースが提供されてもよい。この場合には、行為者に課される負担の僅かな増加によって、管理される履歴の正確性を担保することができる。また、記憶される履歴データに時刻認証データを付加することで、作業行為の時刻をも証明可能とし、履歴の信頼性及び追跡可能性をより高めることができる。
【0182】
なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
【0183】
また、各装置の論理的機能の一部は、当該装置上に実装される代わりに、クラウドコンピューティング環境内に存在する装置上に実装されてもよい。その場合には、論理的機能の間でやり取りされる情報が、図2に例示した通信部112又は図5に例示した通信部212を介して装置間で送信され又は受信され得る。
【0184】
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
【0185】
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
実空間に存在するオブジェクトを入力画像内で識別する識別部と、
前記識別部により識別される第1のオブジェクトと第2のオブジェクトとの間の物理的作用に対応するイベントを前記入力画像を用いて検出する検出部と、
前記イベントの検出に応じて、前記第1のオブジェクトに関連付けられている属性データを前記第2のオブジェクトに関連付ける属性制御部と、
を備える画像処理装置。
(2)
前記第1のオブジェクト及び前記第2のオブジェクトは、物質を収容可能なオブジェクトである、前記(1)に記載の画像処理装置。
(3)
前記属性データは、関連付けられるオブジェクトに収容される物質の少なくとも種類を示す、前記(2)に記載の画像処理装置。
(4)
前記属性データは、関連付けられるオブジェクトに収容される物質の数量をさらに表す、前記(3)に記載の画像処理装置。
(5)
前記検出部は、前記第1のオブジェクトと前記第2のオブジェクトとの間の位置関係が第1の条件を満たすことを、前記イベントとして検出する、前記(1)〜(4)のいずれか1項に記載の画像処理装置。
(6)
前記第1の条件は、前記第1のオブジェクトと前記第2のオブジェクトとの間の距離が所定の閾値を下回ることを含む、前記(5)に記載の画像処理装置。
(7)
前記第2のオブジェクトは、人物であり、
前記検出部は、前記第2のオブジェクトの前記第1のオブジェクトに対する所定のジェスチャを前記イベントとして検出する、
前記(1)〜(4)のいずれか1項に記載の画像処理装置。
(8)
前記第1のオブジェクト及び前記第2のオブジェクトは、人物により扱われる器具であり、
前記検出部は、前記第1のオブジェクト及び前記第2のオブジェクトに対する前記人物の所定のジェスチャを前記イベントとして検出する、
前記(1)〜(4)のいずれか1項に記載の画像処理装置。
(9)
前記属性制御部は、前記第1のオブジェクト及び前記第2のオブジェクトについて予め定義されるタイプが第2の条件を満たす場合に、前記第1のオブジェクトに関連付けられている前記属性データを前記第2のオブジェクトに関連付ける、前記(1)〜(8)のいずれか1項に記載の画像処理装置。
(10)
前記第2の条件は、前記第1のオブジェクト及び前記第2のオブジェクトについて予め定義される前記タイプの少なくとも一方が物質を移送可能なオブジェクトを示す第1のタイプであることを含む、前記(9)に記載の画像処理装置。
(11)
前記第2の条件は、前記第1のオブジェクトのタイプが前記第1のタイプであって、第2のオブジェクトのタイプが物質の移送先のオブジェクトを示す第2のタイプであること、をさらに含む、前記(10)に記載の画像処理装置。
(12)
前記第2の条件は、前記第2のオブジェクトのタイプが前記第1のタイプであって、第1のオブジェクトのタイプが物質の移送元のオブジェクトを示す第3のタイプであること、をさらに含む、前記(10)に記載の画像処理装置。
(13)
前記検出部は、前記第2のオブジェクトと第3のオブジェクトとの間の物理的作用に対応するさらなるイベントを検出し、
前記属性制御部は、前記第3のオブジェクトについて予め定義されるタイプが物質を計量可能なオブジェクトを示す第4のタイプである場合に、固定的に定義され又は前記入力画像から読み取られる物質の数量を前記属性データに付加する、
前記(9)〜(12)のいずれか1項に記載の画像処理装置。
(14)
前記属性制御部は、前記第1のオブジェクト及び前記第2のオブジェクトについて予め定義されるタイプが第3の条件を満たす場合に、第4のオブジェクトを新たに生成し、前記第1のオブジェクトに関連付けられている前記属性データを前記第4のオブジェクトに関連付ける、前記(9)〜(13)のいずれか1項に記載の画像処理装置。
(15)
前記属性制御部は、生成した前記第4のオブジェクトの画像特徴量を前記入力画像から抽出し、抽出した当該画像特徴量を前記第4のオブジェクトにさらに関連付ける、前記(14)に記載の画像処理装置。
(16)
前記属性制御部は、前記イベントの検出時刻に対応する時刻認証データ及び前記属性データを、前記第2のオブジェクトに関連付けて記憶媒体に記憶させる、前記(1)〜(15)のいずれか1項に記載の画像処理装置。
(17)
前記画像処理装置は、前記第1のオブジェクトに関連付けられている前記属性データを前記第2のオブジェクトに関連付けることについての承認をユーザから受け付けるユーザインタフェース部、をさらに備え、
前記属性制御部は、前記ユーザインタフェース部が前記承認を受け付けた場合にのみ、前記属性データを前記第2のオブジェクトに関連付ける、
前記(1)〜(16)のいずれか1項に記載の画像処理装置。
(18)
前記画像処理装置は、前記第2のオブジェクトを映した画像を表示する端末装置に前記第2のオブジェクトに関連付けられている前記属性データを配信して、前記端末装置に前記属性データを表示させるデータ配信部、をさらに備える、前記(1)〜(17)のいずれか1項に記載の画像処理装置。
(19)
前記識別部、前記検出部及び前記属性制御部のうち少なくとも1つが前記画像処理装置の代わりにクラウドコンピューティング環境上に存在する装置により実現される、前記(1)〜(18)のいずれか1項に記載の画像処理装置。
(20)
画像処理装置を制御するコンピュータを、
実空間に存在するオブジェクトを入力画像内で識別する識別部と、
前記識別部により識別される第1のオブジェクトと第2のオブジェクトとの間の物理的作用に対応するイベントを前記入力画像を用いて検出する検出部と、
前記イベントの検出に応じて、前記第1のオブジェクトに関連付けられている属性データを前記第2のオブジェクトに関連付ける属性制御部と、
として機能させるためのプログラム。
(21)
実空間に存在するオブジェクトを入力画像内で識別することと、
識別された第1のオブジェクトと第2のオブジェクトとの間の物理的作用に対応するイベントを前記入力画像を用いて検出することと、
前記イベントの検出に応じて、前記第1のオブジェクトに関連付けられている属性データを前記第2のオブジェクトに関連付けることと、
を含む画像処理方法。
(22)
実空間に存在するオブジェクトを映す入力画像を取得する画像取得部と、
第1のオブジェクトとの間の物理的作用に関与する、前記入力画像内で識別される第2のオブジェクトに関連付けられている属性データを取得するデータ取得部と、
前記データ取得部により取得される前記属性データを前記入力画像に重畳する表示制御部と、
を備え、
前記属性データは、前記物理的作用に対応するイベントの検出前に前記第1のオブジェクトに関連付けられており、前記イベントの検出に応じて前記第2のオブジェクトに新たに関連付けられるデータである、
端末装置。
(23)
端末装置を制御するコンピュータを、
実空間に存在するオブジェクトを映す入力画像を取得する画像取得部と、
第1のオブジェクトとの間の物理的作用に関与する、前記入力画像内で識別される第2のオブジェクトに関連付けられている属性データを取得するデータ取得部と、
前記データ取得部により取得される前記属性データを前記入力画像に重畳する表示制御部と、
として機能させ、
前記属性データは、前記物理的作用に対応するイベントの検出前に前記第1のオブジェクトに関連付けられており、前記イベントの検出に応じて前記第2のオブジェクトに新たに関連付けられるデータである、
プログラム。
【符号の説明】
【0186】
100,300 画像処理装置
120 画像取得部
130 オブジェクト識別部
140 オブジェクトDB
142 オブジェクトデータ
144 属性制御テーブル
150 イベント検出部
160 属性DB
162 属性データ
164 履歴データ
170 属性制御部
180 データ配信部
190 ユーザインタフェース部
200 端末装置
220 画像取得部
230 データ取得部
240 表示制御部
250 ユーザインタフェース部


【特許請求の範囲】
【請求項1】
実空間に存在するオブジェクトを入力画像内で識別する識別部と、
前記識別部により識別される第1のオブジェクトと第2のオブジェクトとの間の物理的作用に対応するイベントを前記入力画像を用いて検出する検出部と、
前記イベントの検出に応じて、前記第1のオブジェクトに関連付けられている属性データを前記第2のオブジェクトに関連付ける属性制御部と、
を備える画像処理装置。
【請求項2】
前記第1のオブジェクト及び前記第2のオブジェクトは、物質を収容可能なオブジェクトである、請求項1に記載の画像処理装置。
【請求項3】
前記属性データは、関連付けられるオブジェクトに収容される物質の少なくとも種類を示す、請求項2に記載の画像処理装置。
【請求項4】
前記属性データは、関連付けられるオブジェクトに収容される物質の数量をさらに表す、請求項3に記載の画像処理装置。
【請求項5】
前記検出部は、前記第1のオブジェクトと前記第2のオブジェクトとの間の位置関係が第1の条件を満たすことを、前記イベントとして検出する、請求項1に記載の画像処理装置。
【請求項6】
前記第1の条件は、前記第1のオブジェクトと前記第2のオブジェクトとの間の距離が所定の閾値を下回ることを含む、請求項5に記載の画像処理装置。
【請求項7】
前記第2のオブジェクトは、人物であり、
前記検出部は、前記第2のオブジェクトの前記第1のオブジェクトに対する所定のジェスチャを前記イベントとして検出する、
請求項1に記載の画像処理装置。
【請求項8】
前記第1のオブジェクト及び前記第2のオブジェクトは、人物により扱われる器具であり、
前記検出部は、前記第1のオブジェクト及び前記第2のオブジェクトに対する前記人物の所定のジェスチャを前記イベントとして検出する、
請求項1に記載の画像処理装置。
【請求項9】
前記属性制御部は、前記第1のオブジェクト及び前記第2のオブジェクトについて予め定義されるタイプが第2の条件を満たす場合に、前記第1のオブジェクトに関連付けられている前記属性データを前記第2のオブジェクトに関連付ける、請求項1に記載の画像処理装置。
【請求項10】
前記第2の条件は、前記第1のオブジェクト及び前記第2のオブジェクトについて予め定義される前記タイプの少なくとも一方が物質を移送可能なオブジェクトを示す第1のタイプであることを含む、請求項9に記載の画像処理装置。
【請求項11】
前記第2の条件は、前記第1のオブジェクトのタイプが前記第1のタイプであって、第2のオブジェクトのタイプが物質の移送先のオブジェクトを示す第2のタイプであること、をさらに含む、請求項10に記載の画像処理装置。
【請求項12】
前記第2の条件は、前記第2のオブジェクトのタイプが前記第1のタイプであって、第1のオブジェクトのタイプが物質の移送元のオブジェクトを示す第3のタイプであること、をさらに含む、請求項10に記載の画像処理装置。
【請求項13】
前記検出部は、前記第2のオブジェクトと第3のオブジェクトとの間の物理的作用に対応するさらなるイベントを検出し、
前記属性制御部は、前記第3のオブジェクトについて予め定義されるタイプが物質を計量可能なオブジェクトを示す第4のタイプである場合に、固定的に定義され又は前記入力画像から読み取られる物質の数量を前記属性データに付加する、
請求項9に記載の画像処理装置。
【請求項14】
前記属性制御部は、前記第1のオブジェクト及び前記第2のオブジェクトについて予め定義されるタイプが第3の条件を満たす場合に、第4のオブジェクトを新たに生成し、前記第1のオブジェクトに関連付けられている前記属性データを前記第4のオブジェクトに関連付ける、請求項9に記載の画像処理装置。
【請求項15】
前記属性制御部は、生成した前記第4のオブジェクトの画像特徴量を前記入力画像から抽出し、抽出した当該画像特徴量を前記第4のオブジェクトにさらに関連付ける、請求項14に記載の画像処理装置。
【請求項16】
前記属性制御部は、前記イベントの検出時刻に対応する時刻認証データ及び前記属性データを、前記第2のオブジェクトに関連付けて記憶媒体に記憶させる、請求項1に記載の画像処理装置。
【請求項17】
前記画像処理装置は、前記第1のオブジェクトに関連付けられている前記属性データを前記第2のオブジェクトに関連付けることについての承認をユーザから受け付けるユーザインタフェース部、をさらに備え、
前記属性制御部は、前記ユーザインタフェース部が前記承認を受け付けた場合にのみ、前記属性データを前記第2のオブジェクトに関連付ける、
請求項1に記載の画像処理装置。
【請求項18】
前記画像処理装置は、前記第2のオブジェクトを映した画像を表示する端末装置に前記第2のオブジェクトに関連付けられている前記属性データを配信して、前記端末装置に前記属性データを表示させるデータ配信部、をさらに備える、請求項1に記載の画像処理装置。
【請求項19】
前記識別部、前記検出部及び前記属性制御部のうち少なくとも1つが前記画像処理装置の代わりにクラウドコンピューティング環境上に存在する装置により実現される、請求項1に記載の画像処理装置。
【請求項20】
画像処理装置を制御するコンピュータを、
実空間に存在するオブジェクトを入力画像内で識別する識別部と、
前記識別部により識別される第1のオブジェクトと第2のオブジェクトとの間の物理的作用に対応するイベントを前記入力画像を用いて検出する検出部と、
前記イベントの検出に応じて、前記第1のオブジェクトに関連付けられている属性データを前記第2のオブジェクトに関連付ける属性制御部と、
として機能させるためのプログラム。
【請求項21】
実空間に存在するオブジェクトを入力画像内で識別することと、
識別された第1のオブジェクトと第2のオブジェクトとの間の物理的作用に対応するイベントを前記入力画像を用いて検出することと、
前記イベントの検出に応じて、前記第1のオブジェクトに関連付けられている属性データを前記第2のオブジェクトに関連付けることと、
を含む画像処理方法。
【請求項22】
実空間に存在するオブジェクトを映す入力画像を取得する画像取得部と、
第1のオブジェクトとの間の物理的作用に関与する、前記入力画像内で識別される第2のオブジェクトに関連付けられている属性データを取得するデータ取得部と、
前記データ取得部により取得される前記属性データを前記入力画像に重畳する表示制御部と、
を備え、
前記属性データは、前記物理的作用に対応するイベントの検出前に前記第1のオブジェクトに関連付けられており、前記イベントの検出に応じて前記第2のオブジェクトに新たに関連付けられるデータである、
端末装置。
【請求項23】
端末装置を制御するコンピュータを、
実空間に存在するオブジェクトを映す入力画像を取得する画像取得部と、
第1のオブジェクトとの間の物理的作用に関与する、前記入力画像内で識別される第2のオブジェクトに関連付けられている属性データを取得するデータ取得部と、
前記データ取得部により取得される前記属性データを前記入力画像に重畳する表示制御部と、
として機能させ、
前記属性データは、前記物理的作用に対応するイベントの検出前に前記第1のオブジェクトに関連付けられており、前記イベントの検出に応じて前記第2のオブジェクトに新たに関連付けられるデータである、
プログラム。



【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10A】
image rotate

【図10B】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17A】
image rotate

【図17B】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26】
image rotate

【図27A】
image rotate

【図27B】
image rotate

【図28】
image rotate

【図29】
image rotate

【図30】
image rotate


【公開番号】特開2013−114315(P2013−114315A)
【公開日】平成25年6月10日(2013.6.10)
【国際特許分類】
【出願番号】特願2011−257561(P2011−257561)
【出願日】平成23年11月25日(2011.11.25)
【出願人】(000002185)ソニー株式会社 (34,172)
【Fターム(参考)】