説明

画像処理装置、画像処理システム、カメラ装置、画像処理方法、およびプログラム

【課題】入力画像から動体、不動体にかかわらず複数の対象を検出することが可能で、異なる要求に対して対応することが可能な画像処理装置、画像処理システム、カメラ装置、画像処理方法、およびプログラムを提供する。
【解決手段】画像処理装置は、一の入力画像から複数の対象を種類別に検出する検出部14と、検出部14によって検出された対象毎の画像データを対象の種類別に、それぞれ異なる画枠の画像として生成する生成部15と、生成部で生成された異なる画枠の画像に対して設定または要求に応じた処理を行う処理部16〜19とを有する。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、たとえば複数の対象物を含む入力画像から複数の画像データを生成する画像処理装置、画像処理システム、カメラ装置、画像処理方法、およびプログラムに関するものである。
【背景技術】
【0002】
監視領域の画像データ(監視映像)から動きのある人物を検出し、最良に撮影されたその人物の顔を監視画像データに合成することができる監視装置が提案されている(特許文献1参照)。
この監視装置によれば、一の監視画像に拡大された人物の顔が合成されて表示される。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2006−217070号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1が開示する監視装置は、撮像領域内の監視画像だけでなく、人物の顔も表示することができるため、監視対象が人物である場合には有益である。
しかしながら、監視対象は、動きのある人物であるとは限らず、たとえば、放置された不審な鞄や停車中の不審車のように、一定時間静止している不動体(静止物)である場合も多い。
この監視装置では、監視対象が人物に限定され、例に挙げたような静止物を監視対象とすることができない。
【0005】
また、監視システムなどにおいては、監視装置から出力された画像を一旦、サーバに蓄積してから検出処理といった画像処理を行うため、その画像を受信するクライアントでは、リアルタイムな監視が不可能である。
上記したようにサーバを用意する必要があることから、監視システムなどの構築に手間がかかる。
【0006】
監視装置またはカメラ装置では、入力画像に対して一つの画像しか配信することができないことから、複数クライアントの要求に応答するようなサーバの役割を担えない。
従来の監視装置またはカメラ装置では、入力画像に対して1種類の対象しか検出することができないことから、異なる要求に対して対応することが不可能である。
上記したように1種類の対象のみの検出であることから、装置を設置する環境が限定される。
【0007】
本発明は、入力画像から動体、不動体にかかわらず複数の対象を検出することが可能で、異なる要求に対して対応することが可能な画像処理装置、画像処理システム、カメラ装置、画像処理方法、およびプログラムを提供することにある。
【課題を解決するための手段】
【0008】
本発明の第1の観点の画像処理装置は、一の入力画像から複数の対象を種類別に検出する検出部と、上記検出部によって検出された上記対象毎の画像データを上記対象の種類別に、それぞれ異なる画枠の画像として生成する生成部と、上記生成部で生成された異なる画枠の画像に対して設定または要求に応じた処理を行う処理部とを有する。
【0009】
本発明の第2の観点の画像処理システムは、ネットワークと、上記ネットワークを通した通信が可能な画像処理装置と、上記画像処理装置と上記ネットワークを介して通信可能な少なくとも一つの通信機と、を、有し、上記画像処理装置は、一の入力画像から複数の対象を種類別に検出する検出部と、上記検出部によって検出された上記対象毎の画像データを上記対象の種類別に、それぞれ異なる画枠の画像として生成する生成部と、上記生成部で生成された異なる画枠の画像に対して設定または要求に応じた処理を行って、上記ネットワークに出力可能な処理部とを有する。
【0010】
本発明の第3の観点のカメラ装置は、撮像した画像データを得る撮像部と、上記撮像部による画像データに対して画像処理を行う画像処理装置と、を有し、上記画像処理装置は、一の入力画像から複数の対象を種類別に検出する検出部と、上記検出部によって検出された上記対象毎の画像データを上記対象の種類別に、それぞれ異なる画枠の画像として生成する生成部と、上記生成部で生成された異なる画枠の画像に対して設定または要求に応じた処理を行う処理部と、を含む。
【0011】
本発明の第4の観点の画像処理方法は、一の入力画像から複数の対象を種類別に検出する検出ステップと、上記検出ステップによって検出された上記対象毎の画像データを上記対象の種類別に、それぞれ異なる画枠の画像として生成する生成ステップと、上記生成ステップで生成された異なる画枠の画像に対して設定または要求に応じた処理を行う処理ステップとを有する。
【0012】
本発明の第5の観点は、一の入力画像から複数の対象を種類別に検出する検出手順と、上記検出手順によって検出された上記対象毎の画像データを上記対象の種類別に、それぞれ異なる画枠の画像として生成する生成手順と、上記生成手順で生成された異なる画枠の画像に対して設定または要求に応じた処理を行う処理手順とを有する画像処理をコンピュータに実行させるプログラムである。
【0013】
本発明によれば、検出部が、一の入力画像データから複数の対象を種類別に検出する。
そして、生成部が、検出部によって検出された対象毎の画像データを対象の種類別に生成する。
そして、処理部が、生成部で生成された異なる画枠の画像に対して設定または要求に応じた処理が行われる。
【発明の効果】
【0014】
本発明によれば、入力画像から動体、不動体にかかわらず複数の対象を検出することができ、異なる要求に対して対応することができる。
【図面の簡単な説明】
【0015】
【図1】図1は、本発明の第1の実施形態に係る監視画像処理システムの概略構成例を示す図である。
【図2】図2は、本発明の第1の実施形態に係る監視装置の監視対象を説明するための模式図である。
【図3】図3は、本発明の第1の実施形態に係る監視装置が生成した生成画像の例を示す模式図である。
【図4】図4は、本発明の第1の実施形態に係る監視装置の構成例を示す概略ブロック図である。
【図5】図5は、本発明の第1の実施形態に係る監視対象データの構成例を示す図である。
【図6】図6は、本発明の第1の実施形態に係る矩形枠の例を示す模式図である。
【図7】図7は、本発明の第1の実施形態に係る矩形枠データの詳細例を示す図である。
【図8】図8は、本発明の第1の実施形態に係る検出部の詳細な構成例を示すブロック図である。
【図9】図9は、本発明の第1の実施形態に係る監視装置の動作例を示すフローチャートを示す図である。
【図10】図10は、図9に示す検出処理における不動体(静止物)検出処理を詳細に説明するためのフローチャートを示す図である。
【図11】図11は、図9に示す付加処理における制御処理部の動作例を説明するためのフローチャートである。
【図12】図12は、本発明の第2の実施形態に係る画像処理システムの概略構成例を示す図である。
【図13】図13(A)〜(E)は、カメラ入力画像を本第2の実施形態に係るカメラ装置が所定の処理を行い、クライアントに送信した画像のイメージを示す図である。
【図14】図14は、本発明の第2の実施形態に係るカメラ装置における全体構成を示す図である。
【図15】図15は、本第2の実施形態に係るカメラ装置のメモリ領域の構成例を示す図である。
【図16】図16は、本第2の実施形態に係るリアルタイム処理部の画像処理データフローを示す図である。
【図17】図17は、本第2の実施形態に係る変換器の第1の処理フローを示す図である。
【図18】図18は、本第2の実施形態に係る変換器の第2の処理フローを示す図である。
【図19】図19(A)および(B)は、画像圧縮処理の要素イメージを示す図である。
【図20】図20は、本第2の実施形態に係る画像圧縮器の処理フローを示す図である。
【図21】図21は、本第2の実施形態に係るアプリケーション制御処理部から通知される画像処理情報の例を示す図である。
【図22】図22は、本第2の実施形態に係るリアルタイム制御部における初期設定フローを示す図である。
【図23】図23は、本第2の実施形態に係る画像処理情報の設定例と出力される画像イメージを示す図である。
【図24】図24は、本第2の実施形態に係るリアルタイム制御部における動作中の処理フローを示す図である。
【図25】図25は、本第2の実施形態において検出状態や画面操作要求の有無に応じて、変換器や合成器の設定更新後に出力される画像イメージを示す図である。
【図26】図26は、本第2の実施形態におけるアプリケーションの設定処理を説明するためのフローチャートを示す図である。
【図27】図27は、本第2の実施形態におけるアプリケーションの実行処理を説明するためのフローチャートを示す図である。
【発明を実施するための形態】
【0016】
以下、本発明の実施形態を図面に関連付けて説明する。
なお、説明は以下の順序で行う。
1.第1の実施形態(画像処理システムの第1の構成例)
2.第2の実施形態(画像処理システムの第2の構成例)
【0017】
<1.第1の実施形態>
[画像処理システムの第1の構成例]
始めに、基本的な画像処理システムの構成例を、監視画像処理システムを一例として図1〜図3に関連付けて説明する。
図1は、本発明の実施形態に係る基本的な監視画像処理システムの概略構成例を示す図である。
【0018】
本監視画像処理システム1は、図1に示すように、監視装置10、表示装置20、およびネットワーク30を含んで形成されている。
監視装置10は、たとえば監視カメラ装置等により構成され、LAN(Local Area Network)等のネットワーク30を経由して表示装置20に接続されている。この表示装置20は、液晶表示装置(LCD;Liquid Crystal Display)等により構成される。
【0019】
監視装置10は、監視対象を撮影する際に、動体、不動体(静止物)および人物の顔を自動的に検出して、表示装置20に表示すべき監視画像を生成する。そして、監視装置10は、この監視画像データを、ネットワーク30を介して表示装置20に出力する。
すると、表示装置20には、監視装置10から入力された監視画像が表示される。このため、監視者は、監視装置10から離れた場所であっても、表示装置20を用いて監視装置10の監視画像を見ることができる。
【0020】
ここで、監視装置10の監視対象を図2に関連付けて説明する。
図2は、本発明の第1の実施形態に係る監視装置の監視対象を説明するための模式図である。図2には、監視装置10の監視領域ARE内に、複数の監視対象が例示されている。
【0021】
監視装置10は、監視領域AREにおいて、動体、不動体(静止物)および人物の顔を監視対象とする。
図2に示すように、動体は、たとえば、歩行中の人物P、走行中の自動車(不図示)のように、動きのある人物または物である。
これに対して、不動体(静止物)は、たとえば、路上に放置された鞄B、停車中の自動車C、あるいは立ち止まった人物(不図示)のように、一定時間静止した物または人物である。
【0022】
上述の監視画像データは、複数のフレーム(画像)によって構成された動画像データである。動画形式としては、たとえば、MPEG4(Moving Picture Expert Group 4)やH.264/AVC(Advanced Video Coding)が好適に使用される。
【0023】
図3は、本発明の第1の実施形態に係る監視装置が生成した生成画像の一例を示す模式図である。
図3には、監視画像データの1フレームFRMが例示されている。図3に示すように、フレームFRM内の画像は、4つのブロックBLK(1)〜BLK(4)に分割されている。
【0024】
ブロックBLK(1)には、監視装置10が撮影した監視領域AREの撮影画像がそのまま表示されている。以後、このブロックBLK(1)の画像を単に撮影画像ともいう。
その右隣のブロックBLK(2)には、人物Pの拡大された顔が表示されている。
下方のブロックBLK(3)には、鞄Bおよび自動車Cの画像を囲むように、報知画像としての矩形の枠(以後、矩形枠)Fが表示されている。この矩形枠Fは、鞄Bおよび自動車Cが監視対象であることを報知するためのものである。
この他、各々の矩形枠Fの近傍に、「2:12」、「10:38」のような不動時間(静止時間)Tが表示されている。不動時間(静止時間)Tは、たとえば、鞄Bや自動車Cが静止してからの経過時間である。
ブロックBLK(4)には、人物Pの画像を囲むように矩形枠Fが表示されている。
【0025】
このように、監視装置10は、一の撮像データから動体、静止物および人物の顔を種類別に検出する。そして、監視装置10は、4つの異なる画像を一の監視画像とする監視画像データを生成する。
【0026】
無論、何を監視対象とするかは、予め好適に設定することができる。たとえば、不動体(静止物)のみを監視対象とすることや、人物の顔のみを監視対象とすることができる。
図3に示すように、4つのブロックBLK(1)〜BLK(4)は、その表示面積が均等であるが、たとえば、ブロックBLK(1)の表示面積が最も大きくなるようにすることもできる。
矩形枠Fは、監視対象を明確にするためのものである。したがって、その形状は、たとえば、楕円形の枠などであってもよい。たとえば、矩形枠F自体を点滅させることや、マークなどの画像であってもよい。
以下、監視対象は、一人の人物P、一個の鞄Bおよび一台の自動車Cであるものとする。また、動体は、人物Pであり、静止物は、鞄Bおよび自動車Cであるものとする。
【0027】
[監視装置の構成例]
監視装置10の構成例について説明する。
図4は、本発明の第1の実施形態に係る監視装置の構成例を示す概略ブロック図である。
監視装置10は、撮像部(IMG)11、前処理部(FPRO)12、画像メモリ(PICS)13、検出部(DET)14、生成部(GEN)15、合成部(COMP)16、制御処理部(CNTL)17、および制御メモリ(CNTS)18を有する。
なお、前処理部12、画像メモリ13、検出部14、生成部15、合成部16、制御処理部17、および制御メモリ18により画像処理装置が形成される。
また、合成部16、制御処理部17、および制御メモリ18により処理部が形成される。
【0028】
図4に図示するように、撮像部11は、たとえば、光学系、および固体撮像素子としてCMOSイメージセンサ(Complementary Metal Oxide Semiconductor)を含んで構成される。なお、固体撮像素子には、CMOSイメージセンサの代わりにCCD(Charge Coupled Device)等を採用することもできる。
撮像部11は、監視領域AREを撮影し、これを撮像データS1として前処理部12に出力する。
【0029】
前処理部12は、撮像部11から入力された撮像データS1に対して画像処理を施す。この画像処理は、たとえば、ガンマ補正、ホワイトバランス処理、カラー補間である。そして、前処理部12は、画像処理を施した撮影画像データS2を画像メモリ13に格納する。
なお、この撮影画像データS2は、図3に示すブロックBLK(1)に表示すべき撮影画像のデータである。
その後、前処理部12は、画像処理が終了した旨を示す画像処理終了信号S3を制御処理部17に出力する。
【0030】
画像メモリ13は、たとえば、ランダムアクセス可能な記憶デバイスで構成されている。画像メモリ13は、制御処理部17の制御に従って、前処理部12、検出部14、生成部15、および合成部16によりアクセスされる。
画像メモリ13には、前処理部12、検出部14、生成部15、および合成部16が出力したデータが格納される。
【0031】
検出部14は、制御処理部17から検出処理を開始する旨の検出処理開始信号S4を受信すると、以下の検出処理を行う。
具体的には、検出部14は、前処理部12によって画像処理が施された撮影画像データS2を画像メモリ13から読み出す。そして、検出部14は、この撮影画像データS2を基に、動体検出処理、不動体(静止物)検出処理、および顔検出処理を行う。
【0032】
動体検出処理は、撮影画像データS2から動体を検出する処理である。不動体(静止物)検出処理は、撮影画像データS2から静止物を検出する処理である。顔検出処理は、撮影画像データS2から人物の顔を検出する処理である。
本実施形態では、動体検出処理にて人物Pが検出され、不動体(静止物)検出処理にて鞄Bおよび自動車Cが検出される。さらに、顔検出処理にて人物Pの顔が検出される。
そして、検出部14は、これらの検出処理結果を基に監視対象データS5を生成し、これを画像メモリ13に格納する。このとき、検出部14は、制御処理部17の指示により、監視対象データS5を指定された画像メモリ13上のアドレスに格納する。
その後、検出部14は、検出処理が終了した旨の検出処理終了信号S8を制御処理部17に出力する。
【0033】
[監視対象データS5の詳細]
ここで、監視対象データS5を図5〜図7に関連付けて説明する。
図5は、本発明の第1の実施形態に係る監視対象データの構成例を示す図である。
図5に示すように、監視対象データS5は、矩形枠データD1、フラグFL、付加データD2、および顔データD3によって構成されている。ただし、監視対象データS5は、1フレーム分のデータであるものとする。
【0034】
[矩形枠データD1]
矩形枠データD1について説明する。
矩形枠データD1は、監視対象としての人物P、鞄Bおよび自動車Cの画像を囲むように付加される矩形枠Fに関するデータである。
詳細には、矩形枠データD1は、検出部14によって検出された監視対象の個数分(N個)の矩形枠データD1(1)〜D1(N)により構成されている。
本実施形態では、1人の人物P、1個の鞄B、および1台の自動車Cが検出部14によって検出されるため、矩形枠データD1は、3個の矩形枠データD1(1)〜D1(3)で構成されている。
仮に、NP人の人物P、NB個の鞄B、およびNC台の自動車Cが検出部14にて検出された場合、矩形枠データD1は、N=(NB+NC+NP)個の矩形枠データD(1)〜D(N)により構成される。なお、N,NB,NCおよびNPは、各々正の整数である。
以下の説明では、矩形枠データD1(1)〜D1(3)は、各々、人物P、鞄B、および自動車Cに関するデータであるものとする。
【0035】
各々の矩形枠データD1(1)〜D1(N)について説明する。
図6は、本発明の第1の実施形態に係る矩形枠の例を示す模式図である。
図7は、本発明の第1の実施形態に係る矩形枠データの詳細例を示す図である。
【0036】
図6に示すように、矩形枠Fは、各々の監視対象(B,C,P)の画像を囲むように付加される。矩形枠Fを監視対象の画像の周囲に付加するためには、各々の監視対象の画像上の位置座標と、矩形枠Fの表示パラメータとが必要である。監視対象の位置座標には、たとえば、監視対象の輪郭の座標が使用される。
【0037】
このため、図7に示すように、各々の矩形枠データD1(1)〜D1(N)は、各々の監視対象の位置座標と、矩形枠Fの表示パラメータとによって構成されている。この矩形枠Fの表示パラメータは、O点のx座標、O点のy座標、縦(y軸方向)の長さΔy、および横(x軸方向)の長さΔxによって構成されている。
たとえば、図3に示すように、人物Pの位置座標を基に、人物Pの画像の周囲に矩形枠Fが付加される。
【0038】
[フラグFL]
フラグFLについて説明する。フラグFLは、監視対象が動体、不動体(静止物)および人物の顔の内、いずれであるかを識別するためのフラグである。フラグFLは、各々の監視対象、すなわち、各々の矩形枠データD1(1)〜D1(N)に関連付けられる。
【0039】
詳細には、監視対象が動体である場合、動体フラグFL1が該当する矩形枠データD1(N)に関連付けられる。この動体フラグFL1は、監視対象が動体であることを示すフラグである。
監視対象が静止物である場合、静止物フラグFL2が該当する矩形枠データD1(N)に関連付けられる。この静止物フラグFL2は、監視対象が静止物であることを示すフラグである。
監視対象が人物の顔である場合、顔フラグFL3が該当する矩形枠データD1(N)に関連付けられる。この顔フラグFL3は、監視対象が人物の顔であることを示すフラグである。
【0040】
[付加データD2]
付加データD2は、各静止物の画像の周囲に付加される静止時間Tに関するデータである。本実施形態では、ブロックBLK(3)に表示されている各矩形枠Fの近傍に、静止時間Tが付加される。
このため、付加データD2は、静止物フラグFL2が関連付けられた矩形枠データD1(N)に対して関連付けられる。
【0041】
[顔データD3]
顔データD3は、人物Pの顔を拡大または縮小表示する場合に使用される。顔データD3は、監視対象にNP人の人物が含まれる場合、NP人の人物の顔の位置座標に関するデータである。
したがって、顔データD3は、NP個の顔データD3(1)〜D3(NP)で構成されている。本実施形態では、顔データD3は、一人の人物Pの顔に関する顔データD3(1)で構成されている。
【0042】
[検出部14の詳細な構成例]
詳細な検出部14の構成を図8に関連付けて説明する。
図8は、本発明の実施形態に係る検出部の詳細な構成例を示すブロック図である。
【0043】
監視装置10は、動体、不動体(静止物)および人物の顔という3種類の監視対象を監視する。監視対象を種類別に検出するために、検出部14は、3種類の検出器を有する。
具体的には、検出部14は、動体検出器(MODET)141、不動体(静止物)検出器(SODET)142、および顔検出器(FDET)143を有する。
【0044】
[動体検出器141の詳細]
動体検出器141について説明する。
動体検出器141は、たとえば、背景差分法を使用して、画像メモリ13に格納された撮影画像データS2から動体を検出する動体検出処理を行う。
本実施形態では、一人の人物Pが検出される。動体検出処理には、背景差分法の他、フレーム間差分法やオプティカルフロー法等を好適に使用することができる。
そして、動体検出器141は、この検出処理結果を基に、監視対象データS5の一部を生成する。詳細には、動体検出器141は、人物Pに関する矩形枠データD1(1)と、動体フラグFL1とを生成し、動体フラグFL1を矩形枠データD1(1)に関連付ける。
なお、本実施形態においては、動体には静止時間Tを付加しないため、動体検出器141は、付加データD2を生成しない。
【0045】
[不動体(静止物)検出器142の詳細]
不動体(静止物)検出器142について説明する。
不動体検出器142は、画像メモリ13に格納された撮影画像データS2から不動体(静止物)を検出する不動体(静止物)検出処理を行う。
このとき、不動体検出器142は、たとえば、(n−1)番目のフレームFRMとn番目のフレームFRMとの差分を検出しなかった範囲の物を不動体(静止物)であるものとする。本実施形態では、鞄Bおよび自動車Cが検出される。
そして、不動体検出器142は、この検出結果を基に、監視対象データS5の一部を生成する。詳細には、不動体検出器142は、鞄Bに関する矩形枠データD1(2)、自動車Cに関する矩形枠データD1(3)、および静止物フラグFL2を生成する。このとき、不動体検出器142は、静止物フラグFL2を矩形枠データD1(2)、D1(3)に各々関連付ける。
【0046】
さらに、不動体検出器142は、不動体(静止物)の画像の近傍に静止時間Tを表示させるため、不動体(静止物)を検出した場合、その検出時点からの時間を不動体(静止物)ごとに計測する。時間の計測は、たとえば、不図示のタイマーによって行われる。
そして、不動体検出器142は、この計測時間を基に付加データD2を生成し、これを矩形枠データD1(2)、D1(3)に各々関連付ける。
【0047】
[顔検出器143の詳細]
顔検出器143は、人物Pの顔を検出する顔検出処理を行う。顔検出処理には、たとえば、撮影画像データS2から肌色に該当する領域を検出し、この領域を顔であると判定する方法が使用される。
そして、顔検出器143は、この検出結果を基に、監視対象データS5の一部を生成する。詳細には、顔検出器143は、人物Pの顔に関する顔データD3(1)および顔フラグFL3を生成する。このとき、顔検出器143は、顔フラグFL3を顔データD3(1)に各々関連付ける。
【0048】
[生成部15の詳細]
生成部15は、前処理部12によって画像処理が施された撮影画像データS2に、図3に示す各ブロックBLK(2)〜BLK(4)の画像データを生成する。
生成部15は、この画像生成時に、設定条件や指示情報に従って、たとえば人物Pの顔を拡大あるいは縮小する機能を有する。
また、生成部15は、生成画像に対して付加処理を行う。
この付加処理は、矩形枠Fや静止時間T等が含まれた監視対象データS5を撮影画像データS2に付加する処理である。この付加処理の際に、生成部15は、人物Pの顔を拡大あるいは縮小する。
【0049】
生成部15は、検出部14を構成する各々の検出器に対応した処理を行うため、N個の変換器(CNV)15(1)〜15(N)を有する。各々の変換器15(1)〜15(N)は、バスBUSによって制御処理部17と画像メモリ13とに接続されている。
変換器の個数Nは、検出部14を構成する検出器の数で構成される。
本実施形態では、検出部14が、動体検出器141、不動体(静止物)検出器142および顔検出器143によって構成されているため、生成部15は、3個の変換器15(1)〜15(3)により構成される。
以下、生成部15が、3個の変換器15(1)〜15(3)により構成されているものとして説明を行う。
【0050】
変換器15(1)〜15(3)には、初期化処理の際に、処理内容が割り当てられる。このとき、変換器15(1)〜15(3)は、制御信号S6を制御処理部17から受信する。なお、制御信号S6は、検出部14を構成する検出器の数を示すものである。
変換器15(1)〜15(3)は、制御信号S6により、動体検出器141、不動体(静止物)検出器142、および顔検出器143が各々対応付けられる。
【0051】
[変換器15(1)の詳細]
以下、対応付けされた変換器15(1)〜15(3)について説明する。
変換器15(1)は、動体検出器141の検出結果を基に、ブロックBLK(4)の画像データを生成する処理が割り当てられる。変換器15(1)は、人物Pの画像の周囲に矩形枠Fを付加する。
【0052】
具体的には、変換器15(1)は、制御処理部17から付加処理開始信号S9が入力されると、画像メモリ13に格納された撮影画像データS2と、監視対象データS5とを読み出す。なお、撮影画像データS2は、ブロックBLK(1)に表示される撮影画像である。
このとき、変換器15(1)は、監視対象データS5の中から動体フラグFL1に関連付けられた矩形枠データD1を取得する。なお、この矩形枠データD1は、人物Pに関する矩形枠データD1(1)である。
【0053】
そして、変換器15(1)は、撮影画像データS2に矩形枠データD1を付加する。このとき、変換器15(1)は、矩形枠データD1(1)に含まれる人物Pの位置座標と矩形枠Fの表示パラメータを参照し、人物Pの画像の周囲に矩形枠Fを付加する。
その後、変換器15(1)は、付加処理を施したデータをブロックBLK(4)の画像データS7(1)として画像メモリ13に出力する。
【0054】
[変換器15(2)の詳細]
変換器15(2)は、不動体(静止物)検出器142の検出結果を基に、ブロックBLK(3)の画像データを生成する処理が割り当てられる。変換器15(2)は、鞄Bおよび自動車Cの画像の周囲に矩形枠Fを付加する処理を行う。
【0055】
具体的には、変換器15(2)は、制御処理部17から付加処理開始信号S9が入力されると、画像メモリ13に格納された撮影画像データS2と、監視対象データS5とを読み出す。
このとき、変換器15(2)は、監視対象データS5の中から静止物フラグFL2に関連付けられた矩形枠データD1を取得する。なお、この矩形枠データD1は、鞄Bに関する矩形枠データD1(2)、および自動車Cに関する矩形枠データD1(3)である。
さらに、変換器15(2)は、静止時間Tに関する付加データD2も取得する。
【0056】
そして、変換器15(2)は、撮影画像データS2に矩形枠データD1および付加データD2を付加する。このとき、変換器15(2)は、矩形枠データD1(2)に含まれる鞄Bの位置座標と矩形枠Fの表示パラメータを参照し、鞄Bの画像の周囲に矩形枠Fを付加する。
さらに、変換器15(2)は、矩形枠Fの近傍に、静止時間Tを付加する。なお、静止時間Tを付加する位置は、監視対象の経過時間であることを容易に認識することができる位置であることが望ましい。
自動車Cに対しても同様に、変換器15(2)は、撮影画像データS2に矩形枠データD1および付加データD2を付加する。
その後、変換器15(2)は、付加処理を施したデータをブロックBLK(3)の画像データS7(2)として画像メモリ13に出力する。
【0057】
[変換器15(3)の詳細]
変換器15(3)は、顔検出器143の検出結果を基に、ブロックBLK(2)の画像データを生成する処理が割り当てられる。変換器15(3)は、人物Pの顔を拡大あるいは縮小する。
【0058】
具体的には、変換器15(3)は、制御処理部17から付加処理開始信号S9が入力されると、画像メモリ13に格納された撮影画像データS2と、監視対象データS5とを読み出す。
このとき、変換器15(3)は、監視対象データS5の中から顔フラグFL3に関連付けられた顔データD3を取得する。なお、この顔データD3は、人物Pの顔に関する顔データD3(1)である。
【0059】
そして、変換器15(3)は、人物Pの顔がブロックBLK(2)の領域の大部分を占めるように、その顔の画像を拡大あるいは縮小する。
その後、変換器15(3)は、拡大あるいは縮小した画像をブロックBLK(2)の画像データS7(3)として画像メモリ13に出力する。
【0060】
合成部16は、表示装置20に表示すべき監視画像データを生成するための合成処理を行う。
具体的には、合成部16は、制御処理部17から合成処理開始信号S11が入力されると、変換器15(1)〜15(3)が生成した画像データS7(1)〜S7(3)と、撮影画像データS2とを画像メモリ13から各々読み出す。そして、合成部16は、これらのデータを合成して一の監視画像データS12を生成する。
これにより、図3に示すような監視画像が生成される。監視画像データS12は、一旦、画像メモリ13に格納された後、表示装置20(図1参照)に出力される。
【0061】
制御処理部17は、CPUやDSP(Digital Signal Processor)等によって構成される。制御処理部17は、監視装置10全般の動作を統括する。
すなわち、制御処理部17は、検出処理開始信号S4、制御信号S6、付加処理開始信号S9、合成処理開始信号S11等を出力し、撮像部11、前処理部12、画像メモリ13、検出部14、生成部15、合成部16、および制御メモリ18を制御する。
【0062】
制御メモリ18は、たとえば、ランダムアクセス可能な記憶デバイスで構成されている。制御メモリ18は、制御処理部17によってアクセスされる。制御メモリ18は、たとえば、制御処理部17の動作に必要なアプリケーションプログラム、オペレーティングシステム、一時的なデータを格納する。
【0063】
[監視装置10の動作例]
監視装置10の動作の全体像を図9に関連付けて説明する。
図9は、本発明の第1の実施形態に係る監視装置の動作例を示すフローチャートを示す図である。
【0064】
以下、任意の1フレームに対する処理を例に挙げて説明する。
図9に図示するように、初めに、初期化処理が行われる(ST1)。具体的には、制御処理部17は、検出部14を構成する検出器の数を制御信号S6として合成部16に出力する。
そして、制御処理部17は、制御信号S6に基づいて、変換器15(1)〜15(3)を動体検出器141、静止物検出器142、および顔検出器143に各々対応付ける。
【0065】
初期化処理の終了後、撮像部11は、監視領域AREの監視対象を撮影し、これを撮像データS1として前処理部12に出力する。
その後、画像処理が行われる(ST2)。具体的には、前処理部12は、撮像部11から入力された撮像データS1に対して画像処理を施す。そして、前処理部12は、画像処理を施した画像データを画像メモリ13に格納し、かつ、画像処理が終了した旨を示す画像処理終了信号S3を制御処理部17に出力する。
【0066】
画像処理の終了後、検出処理が行われる(ST3)。具体的には、制御処理部17は、前処理部12から画像処理終了信号S3が入力されると、検出部14に検出処理を開始する旨の検出処理開始信号S4を出力する。
検出部14は、制御処理部17から検出処理開始信号S4が入力されると、前処理部12によって画像処理が施された撮影画像データS2を画像メモリ13から読み出す。
そして、検出部14は、撮影画像データS2を基に、動体検出処理、不動体(静止物)検出処理、および顔検出処理を行う。
その後、検出部14は、矩形枠データD1、フラグFL、付加データD2および顔データD3で構成される監視対象データS5を生成し、これを画像メモリ13に出力する。そして、検出部14は、検出処理終了信号S8を制御処理部17に出力する。
【0067】
検出処理の終了後、付加処理が行われる(ST4)。
具体的には、制御処理部17は、検出部14から検出処理終了信号S8を受信すると、付加処理を開始する旨の付加処理開始信号S9を生成部15に出力する。
変換器15(1)〜15(3)は、制御処理部17から付加処理開始信号S9が入力されると、ブロックBLK(2)〜BLK(4)の画像データを各々生成する。そして、変換器15(1)〜15(3)は、付加処理を施した画像データS7(1)〜S7(3)を画像メモリ13に出力する。
【0068】
付加処理の終了後、合成処理が行われる(ST5)。具体的には、制御処理部17は、生成部15から付加処理終了信号S10が入力されると、合成処理を開始する旨の合成処理開始信号S11を合成部16に出力する。
合成部16は、制御処理部17から合成処理開始信号S11が入力されると、画像メモリ13から変換器15(1)〜15(3)が生成した画像データS7(1)〜S7(3)と、撮影画像データS2とを読み出す。そして、合成部16は、これらのデータを合成して一の監視画像データS12を生成する。
【0069】
合成処理の終了後、終了処理が行われる(ST6)。合成処理で生成された監視画像データS12は、一旦、画像メモリ13に格納された後、ネットワーク30を介して表示装置20に出力される。
【0070】
[検出処理における不動体(静止物)検出器の動作例]
検出処理における不動体(静止物)検出器の動作例を図10に関連付けて説明する。
図10は、図9に図示する検出処理(ST3)における不動体(静止物)検出処理を詳細に説明するためのフローチャートを示す図である。
【0071】
図10に図示するように、不動体(静止物)検出器142は、撮影画像データS2から不動体(静止物)を検出する(ST31)。
不動体(静止物)検出器142は、不動体(静止物)を検出した場合(ST31のYES)、その検出時点からの時間を計測する(ST32)。その後、ステップST31の処理が再開され、その不動体(静止物)が検出される限り、時間の計測が行われる。
一方、不動体(静止物)検出器142は、不動体(静止物)を検出しなかった場合(ST31のNO)、不動体(静止物)検出処理を終了する。
あるいは、ステップST31にて不動体(静止物)が検出されたにもかかわらず、その不動体(静止物)が移動した場合(ST31のNO)も、不動体(静止物)検出器142は、不動体(静止物)検出処理を終了する。
【0072】
[8.付加処理における制御処理部17の動作例]
付加処理における制御処理部17の動作例を図11に関連付けて説明する。
図11は、図9に図示する付加処理(ST4)における制御部の動作例を説明するためのフローチャートである。
【0073】
付加すべき矩形枠Fの矩形枠データD1が監視対象データS5に含まれていない場合、矩形枠データD1を撮影画像データS2に付加する必要がない。
そこで、制御処理部17は、矩形枠データD1が含まれている監視対象データS5のみを変換器15(1)〜15(3)に与えるための処理を行う。以下、この処理を詳細に説明する。
【0074】
付加処理の前段階として、制御処理部17は、監視対象データS5を格納すべき画像メモリ13上のアドレスを、検出部14を構成する各検出器に指示しておく(ST40)。
【0075】
検出処理が終了した後、制御処理部17は、検出部14から画像メモリ13に格納された監視対象データS5を取得する(ST41)。無論、制御処理部17が画像メモリ13に直接アクセスして、監視対象データS5を読み出してもよい。
【0076】
その後、制御処理部17は、監視対象データS5に矩形枠データD1の数(矩形枠データ数)NがN=0であるか否かを判別する(ST42)。
矩形枠データ数NがN=0の場合(YES)、制御処理部17は、画像メモリ13にアクセスし、矩形枠データ数NがN=0の監視対象データS5を破棄する(ST43)。
一方、矩形枠データ数NがN=0の場合(NO)、制御処理部17は、画像メモリ13に格納されている全ての監視対象データS5を破棄するか否かを判別する(ST44)。
すなわち、制御処理部17は、N=0の監視対象データS5も含め、他のフレームの監視対象データS5も破棄するか否かを判別する。
【0077】
全ての監視対象データS5を破棄する場合(YES)、ステップST40の処理が再開される。これは、付加すべき矩形枠Fの矩形枠データD1が監視対象データS5に含まれていない場合、矩形枠データD1を撮影画像データS2に付加する必要がないためである。
【0078】
一方、全ての監視対象データS5を破棄しない場合(NO)、制御処理部17は、初期化処理で処理を割り当てた変換器15(1)〜15(3)に対して監視対象データS5を画像メモリ13から読み出しさせる。
【0079】
以上説明したように、本発明の第1の実施形態によれば、以下の効果を得ることができる。
動きのある動体だけではなく、一定時間静止している不動体(静止物)も監視対象とすることができる。これにより、不審な鞄や停車中の不審車等も監視することができる。
これに加え、人物の顔も認識しやすいように拡大表示されるため、人物の監視も容易である。
動体や不動体(静止物)の画像の周囲には、矩形枠Fが付加されるため、監視対象が明確となる。特に、不動体(静止物)の画像の周囲には、静止時間Tが表示されるため、不動体(静止物)が停止してからの時間を把握することができる。
監視対象毎の異なる画像が一の監視画像として表示されるため、複数の監視対象を同時に監視することができる。
監視対象を検出する検出部および生成部は、監視対象の種類に併せて構成することができるため、拡張性に優れ、監視対象の種類別に画像を生成することができる。
一の監視装置10で監視領域の撮影から最終的な監視画像データの生成まで行われるため、この監視装置10以外に画像処理を行うサーバ装置などが不要である。
【0080】
本実施形態では、監視装置10を、その構成をたとえば次のように変更することができる。
たとえば、静止している人物のように、さらに監視対象を追加する場合には、静止している人物を検出する不動体(静止人物)検出器を検出部14に設けることができる。この場合、この人物の画像の周囲に矩形枠Fや静止時間Tを付加するための新たな変換器を生成部15に設ければよい。
合成部をさらに追加し、複数の監視画像データS12を同時に生成することができる。これにより、一の監視装置10から複数の表示装置に監視画像データS12を各々出力することが可能となる。
【0081】
<2.第2の実施形態>
[画像処理システムの第2の構成例]
次に、より汎用的な画像処理システムの構成例を、図12および図13に関連付けて説明する。
図12は、本発明の第2の実施形態に係る画像処理システムの概略構成例を示す図である。
【0082】
本画像処理システム100は、図12に示すように、本発明の実施形態に係る画像処理装置を含むカメラ装置200(−1,−2)、通信機能を有する複数の通信機(受信機)300(−1〜−n)、およびネットワーク400を含んで形成されている。
【0083】
本第2の実施形態に係るカメラ装置200は、主要構成部である画像処理装置が以下の機能を有する。
【0084】
カメラ装置200は、第1の実施形態の監視装置と同様に、一つの入力画像から複数の異なる画枠の画像を生成し、符号化できる機能を有する。
カメラ装置200は、その複数の異なる画枠の画像に対して独立のOSD(前景画像)を合成し出力することが可能な機能を有する。
カメラ装置200は、複数の異なる画枠の画像に対して独立して電子ズーム、パン/チルト制御可能な機能を有する。
カメラ装置200は、上記複数の画像全て、あるいは一部を合成して一つの画像を出力することが可能な機能を有する。
カメラ装置200は、入力画像から不動体検出、動体検出、顔検出といった複数種類の検出処理を行うことが可能な機能を有する。この検出処理機能は、第1の実施形態の監視装置と同様な機能により実現される。
カメラ装置200は、検出部の検出処理に応じてそれぞれ異なる画枠の画像を生成することが可能な機能を有し、検出処理を行った画像に対して上記OSDを合成し、検出情報を画像に付加することが可能な機能を有する。
そして、カメラ装置200は、生成した複数の画像を異なる通信機に対してストリーミング配信する機能を有する。
また、本カメラ装置200は、各通信機側が検出対象を設定することが可能な機能を有する。
カメラ装置200は、ストリーミング配信における画像を保存できる機能を有する。
【0085】
また、カメラ装置200は、エンコード機能を有する。
このエンコード機能は、少なくとも単一の動画像データをエンコード指示に基づいて時分割でエンコードし、属性の異なる複数のエンコードデータを生成するエンコード処理機能を含む。
さらに、エンコード機能は、優先して生成すべき属性のエンコードデータに関する優先事項に基づいて、動画像データのエンコード順序をエンコード処理対象のフレーム画像ごとに決定する機能を有する。エンコード機能は、決定したエンコード順序をエンコード指示としてエンコード処理機能に渡す機能を有する。
【0086】
このような機能を有するカメラ装置200の具体的な構成については、後で詳述する。
ここではまず、本画像処理システム100の全体的な構成、機能の概要について説明する。
【0087】
[画像処理システムの概要]
本カメラ装置200は、ネットワーク400に接続され、複数の通信機(受信機、以下、クライアントと称する)からの要求を受けることができる。
ネットワーク400には、カメラ装置200に対して要求を行うクライアント300が複数存在する。
クライアント300(−1〜−n、図12の例ではn=3)は、本カメラ装置200にネットワーク400経由でアクセスすることが可能である。
図12の例では、クライアント300−1は、パーソナルコンピュータ(PC)により構成される。クライアント300−2は、携帯電話により構成される。クライアント300−3はワークステーションにより構成される。ワークステーションには、たとえばネットワークまたは専用回線301を介して表示装置302が接続される。
【0088】
カメラ装置200は、動体検知や不動体(静止物)検知などの画像検出処理、画像の保存、ストリーミング配信、監視通知といったサーバ機能を有する。
各クライアント300は、カメラ装置200に対し、次のような要求を行うことが可能である。
すなわち、要求には、監視対象、監視開始時間および終了時間、通知方法選択、ストリーミング配信オン(ON)/オフ(OFF)、画像サイズ、監視画像の保存、保存された監視画像のダウンロード、音声配信ON/OFFといった要求が含まれる。
各クライアント300は、カメラ装置200に対し任意のタイミングで、上記のような設定、ストリーミング受信、リアルタイムで受信している画像に対する電子ズーム、パン/チルト操作を行うことが可能である。
【0089】
また、渋滞検知システムなど、目的の特化した監視システムを構築する場合は、たとえばクライアント300の一つの高性能なワークステーションを用意し、複数のカメラ装置200から受信した画像を基に処理を行うというシステムも構築することが可能である。
このようにして、一般的な監視システムにおいても本カメラ装置200を用いて構築することが可能である。
【0090】
図13(A)〜(E)は、カメラ入力画像を本第2の実施形態に係るカメラ装置が所定の処理を行い、クライアントに送信した画像のイメージを示す図である。
ここでは、クライアントCLEの数は4として図13(A)〜(D)に例示されている。また、図13(E)には、本カメラ装置200のカメラ入力画像が示されている。
【0091】
なお、図13(A)〜(E)に示す画像の内容は、樹木を除き図2および図3と同様である。
すなわち、撮影画像には、動体、不動体(静止物)および人物の顔が含まれる。
動体は、たとえば、歩行中の人物P、走行中の自動車(不図示)のように、動きのある人物または物である。
不動体(静止物)は、たとえば、路上に放置された鞄B、停車中の自動車C、あるいは立ち止まった人物(不図示)のように、一定時間不動な(静止した)物または人物である。
【0092】
クライアントCLE1は、図13(A)に示すように、本カメラ装置200に対して“不動体検出”の設定を行っているため、図のような車C、鞄Bといった不動体の検出情報を画像から確認することができる。
クライアントCLE2では、“顔検出”の設定を行っているため、図13(B)に示すような人物Pの顔が拡大された画像を受信している。
クライアントCLE3は、“動体検出”の設定を行っているため、図13(C)に示すように人物Pの検出情報とともに画像を受信している。
クライアントCLE4は、“検出対象なし”と“動体検出”の2種類の設定を行い、2つの画像を受信している。図13(D)において、受信画像aは“検出対象なし”の画像であり、電子ズーム、パン/チルト操作により車を拡大している。
このように、本第2の実施形態においては、特定の対象に対して、クライアント側自身で電子ズーム、パン/チルト操作により監視を行うことが可能である。また、受信画像bは“動体検出”の設定を行った画像である。
上記のように本カメラ装置200は、各クライアントに合わせた複数種の要求に同時に対応することが可能である。
【0093】
以下、本第2の実施形態に係るカメラ装置200の具体的な構成および機能について説明する。
【0094】
図14は、本発明の第2の実施形態に係るカメラ装置における全体構成を示す図である。
【0095】
本カメラ装置200は、リアルタイム制御部210、アプリケーション制御部230、制御メモリ240、およびRTC250を主構成要素として有する。
【0096】
リアルタイム制御部210は、主にCMOSイメージセンサ等のセンサからの入力画像に対する検出、変換、合成、圧縮、またオーディオ(Audio)関連の処理を行う。
アプリケーション制御部230は、ストレージに対する処理、ネットワーク関連処理、外部入力処理、またリアルタイム制御部210に対する指示を行う。
アプリケーション制御部210とリアルタイム制御部230の通信は、制御メモリ240を通して行われる。
【0097】
リアルタイム制御部210は、センサ制御部211、信号処理部212、検出部213、画像メモリ214、N個の変換器215、N個の合成器216、画像圧縮器217,218、および表示インタフェース(I/F)219を有する。
リアルタイム制御部210は、オーディオ伸張器220、オーディオ圧縮器221、オーディオ入出力I/F222、およびリアルタイム制御処理部223を有する。
なお、信号処理部212、検出部213、画像メモリ214、N個の変換器215により画像処理装置が形成される。
オーディオ伸張器220、オーディオ圧縮器221、オーディオ入出力I/F222によりオーディオ処理系が形成される。
画像圧縮器217,218、表示インタフェース(I/F)219、およびリアルタイム制御処理部223は処理部の機能を有する。
【0098】
リアルタイム制御処理部223は、CPUやDSP(Digital Signal Processor)等によって構成される。リアルタイム制御処理部223は、リアルタイム制御部210の各種機能ブロックを制御する。
リアルタイム制御処理部223では、各種ブロックに対して処理要求を行い、アプリケーション制御部230から要求された処理結果を制御メモリ240経由で通知する。
表示I/F219、オーディオ入出力I/F222は、本カメラ装置200で処理された画像、音声を外部装置に出力する機能を有する。
また、リアルタイム制御部210は、RTC250により時刻設定を行うことができる。RTC250の初期設定はアプリケーション制御部230により行われる。
リアルタイム制御部210の画像処理については後で詳述する。
【0099】
次に、アプリケーション制御部230について説明する。
アプリケーション制御部230は、ネットワークI/F231、ストレージI/F232、要求受付器233、内部フラッシュメモリ234、外部記録媒体235、およびアプリケーション制御処理部236を有する。
【0100】
アプリケーション制御部230では、処理部としての機能を有し、ネットワークI/F231を通してクライアントCLEからの要求を受け付ける。
アプリケーション制御部230がクライアントCLEから受け付ける要求内容を表1および表2に示す。
【0101】
表1は、クライアントCLEが本カメラ装置200に対して設定する主項目を表している。
表2は、表1における監視対象数分だけ設定が必要な項目、本カメラ装置200に対して各分割画像に設定する項目を表している。
【0102】
【表1】

【0103】
【表2】

【0104】
表1において、“画像ID”は、クライアントを一意に特定するためのIDである。リアルタイム制御処理部223に対して通知する“画像ID(図21)”と一致した値となる。
アプリケーション制御部230では、新規のクライアントから要求があった場合は、画像IDを登録しこのIDをもとにリアルタイム制御部210に対して処理要求を行う。
【0105】
クライアントが受信するストリーミング画面の分割数が“監視対象数”となる。
図13に示すように、複数の監視対象を設定した場合に画面が分割される。そして、この各画面に対して設定する項目が表2に示した項目となる。
“監視対象数”が2以上の値が設定された場合は、リアルタイム制御部210に対して“合成器216の動作設定”をONに指定して通知する。
表1における“監視対象数”では、本カメラ装置200が保有する変換器215の数を最大値としてその中で未使用の1からNまでの値を設定することができる。本カメラ装置200に変換器215を追加した場合、この最大値が増加する。
【0106】
“出力設定”では、本カメラ装置200に接続されたモニタに出力したい場合、表示出力を指定する。
“ストリーミング配信”では、ON/OFFを設定することが可能である。ONに設定した場合、クライアントは、表1、表2に設定した内容のストリーミングを受信することができる。
【0107】
“監視時刻指定”では、監視を行う時刻指定が可能となる。設定した時刻になると本カメラ装置200はストリーミング配信を開始する。
時刻の管理はアプリケーション制御処理部236によって行われており、指定時刻になったときに設定内容によってストリーミング配信もしくは画像保存を行う。
【0108】
“画像設定”では、コーデックを指定する。また、ビットレート値、フレームレート値を“ビットレート値”、“フレームレート値”に設定する。
“画像保存”では、ストレージに監視画像を保存することができる。
【0109】
表2における各項目は、表1における“監視対象数”分だけ設定する項目である。
“分割画面ID”は、本カメラ装置200が設定するID番号を示す。この値を“変換器ID”としてリアルタイム制御部210に通知する。
“画像サイズ”は、分割画面の画像サイズを示す。
“画像配置座標”は、対象の分割画面を配置する座標を示し、左上の角を(0,0)として設定する。
【0110】
表2において“監視対象”では、4種類となっているが、図14中の検出部213に新たな検出処理を加えた場合、“監視対象”の種類を増やすことが可能である。
“監視対象情報付加”では、図3および図13に示すように、検出した対象に付加される矩形の情報である。また、不動体(静止物)検知であれば不動時間(静止時間)が付加情報になる。
“監視対象付加情報座標”では、“画像サイズ”で設定した範囲内で指定することが可能な座標が示される。
【0111】
クライアントは、“ストリーミング配信”の切り替えをON/OFFで行うことができる。クライアントは、“ストリーミング配信”をONにすると、web画面で受信することができ、本カメラ装置200により画像を見ることができる。
つまりクライアントは、ONに設定することによってリアルタイムで監視を行うことが可能となる。
【0112】
“画面装置”では、上記の分割画面に対して拡大/縮小、位置操作を行うことができる。リアルタイム制御部210へ該当する分割画面IDをもとに処理要求を行うと、後で説明する図23に示すような操作が実現される。
“音声通知”では、検出処理と連動し、“監視対象”に設定した対象を本カメラ装置200が検出した際に、クライアントに対して音声通知を行うか否か設定項目である。
【0113】
本カメラ装置200では、上記の設定項目を図14のアプリケーション制御部230におけるネットワークI/F231を通して受け付ける。
アプリケーション制御部230では、以上の項目に基づき、リアルタイム制御部210に対して処理要求を行う。
【0114】
[システム起動時処理]
図15は、本第2の実施形態に係るカメラ装置のメモリ領域の構成例を示す図である。
本カメラ装置200の初期起動では、図15に示す“制御CPU起動パラメータ領域”項目がアプリケーション制御部230よりリアルタイム制御部210に渡される。ここでのリアルタイム制御CPUは、図14のリアルタイム制御処理部223に相当する。
リアルタイム制御CPU情報は、入力信号、Audio/検出機能、出力フォーマットに関する設定である。
また、メモリ情報は、画像処理に関連する各種メモリ情報である。
【0115】
図16は、本第2の実施形態に係るリアルタイム処理部の画像処理データフローを示す図である。
図16において、処理の中で生成されるデータを破線の枠で示されている。
図16中の機能ブロックをリアルタイム制御処理部223が全体を制御して処理を実現している。
リアルタイム制御処理部223は、各ブロックの初期化、処理要求を行う。また、全体の処理中に生成された各種データをもとに、アプリケーション制御部230からの要求に応える。
【0116】
外部センサ、ビデオ(VIDEO)入力より信号処理部212が入力画像を受け取ると、前処理を行い、YUVデータを画像メモリ214に保存する。
その後、検出部213によりYUVデータ内の“動体”、“不動体”といった検出を行う。この検出処理は、第1の実施形態と同様に行われることから、その詳細は省略する。
ここで検出部213は、リアルタイム制御処理部223の要求により何を検出するかを決定する。
検出部213は、検出処理終了後、処理結果をメタデータとして制御メモリ240に保存する。
【0117】
信号処理部212、検出部213、変換器215、合成器216の基本的な機能は、第1の実施家形態で説明した前処理部12、検出部14、生成部15の変換器、および合成部16と同様な機能を有している。
【0118】
ここでは、図16中の変換器215、画像圧縮器217,218の説明を行う。
【0119】
[変換器について]
リアルタイム制御処理部223の要求、検出部213にて求められたメタデータ、YUVデータにより、OSD2151とスケーラ2152を有する変換器215は、画像編集を行い、画像メモリにYUVデータ(変換器出力)出力を行う。
変換器215は、単体で配置される場合と、複数配置される場合がある。
単体の場合、変換器215を時系列並列動作させることで、複数のYUVデータ(変換器出力)出力を行うことができる。
複数の場合、複数の変換器215を並列動作させることで、複数のYUVデータ(変換器出力)出力を行うことができる。
変換器215の画像編集機能は、スケーリング編集、電子ズーム編集、電子パン・チルト編集、OSD編集の各機能を含む。
各機能の意味は次の通りである。
【0120】
スケーリング編集機能は、入力画サイズに対して出力画サイズに拡大・縮小編集する機能を含む。
電子ズーム編集は、注目領域のみを切り出し、切り出した画像を出力画サイズにあわせ拡大・縮小編集する機能を含む。
電子パン・チルト編集機能は、電子ズーム編集された注目領域をパン/チルトする機能を含む。
OSD編集機能は、入力YUVデータに対して、OSDデータをあわせ、出力する機能を含む。
【0121】
リアルタイム制御処理部223の要求内容として、以下の4つの要求が例示される。
第1は、YUVデータ(変換器出力)出力画サイズを、スケーリング編集に使用する要求である。
第2は、入力YUVデータ注目領域座標、サイズを、電子ズーム編集、電子パン/チルト編集に使用する要求である。
第3は、YUVデータ(変換器出力)出力数を、複数出力の場合に使用する要求である。
第4は、出力タイミングを、複数出力の場合に使用する要求である。
メタデータは、OSD編集に使用され、注目領域に枠をつけ、YUVデータ(変換器出力)出力することができる。
【0122】
図17は、本第2の実施形態に係る変換器の第1の処理フローを示す図である。
【0123】
変換器215は、処理が開始されると、注目領域の有無を判断する(ST101)。
ステップST101において、注目領域が有ると判断すると、電子パン(Pan)/チルト(Tilt)の有無を判断する(ST102)。
ステップST102において、電子パン/チルトが有ると判断すると、電子パン/チルトの座標より切り出し、座標補正する(ST103)。
ステップST103の補正処理後、またはステップST102で電子パン/チルトが無いと判断すると、切り出し座標、サイズより入力YUVデータを切り出す(ST104)。
次に、切り出しサイズと出力画サイズより電子ズームを行う(ST105)。
次に、OSD処理を行う(ST106)。
また、ステップST101において注目領域が無いと判断すると、入力YUVデータ画サイズと出力画サイズより電子ズームを行い(ST107)、ステップST106のOSD処理に移行する。
【0124】
図18は、本第2の実施形態に係る変換器の第2の処理フローを示す図である。
【0125】
変換器215は、OSD処理が開始されると、注目画素、画像情報のOSD情報付加の有無を判断する(ST111)。
ステップST111において、OSD付加情報が有ると判断すると、時刻情報、画像情報のOSD情報を付加する(ST112)。
ステップST112の処理後、またはステップST111でOSD付加情報が無いと判断すると、メタデータにより枠付加の有無を判断する(ST113)。
次に、メタデータを解析し、枠データを生成し、注目領域に枠を付加する(ST114)。
【0126】
[画像圧縮器について]
リアルタイム制御処理部223の要求、YUVデータ(変換器出力)もしくはYUVデータ(合成器出力)により、画像圧縮器217,218は、リアルタイム制御処理部223の要求に沿ったフォーマットに圧縮処理を行う。画像圧縮器217,218は、圧縮データを制御メモリ240に出力する。
画像圧縮器217,218は、変換器215と同様、単体で配置される場合と、複数配置される場合がある。
単体の場合、画像圧縮器を時系列並列に動作させることにより、複数の圧縮データを出力することができる。
また、複数の場合、複数の画像圧縮器を並列に動作させることにより、複数の圧縮データを出力することができる。
本実施形態では、複数の画像圧縮器217,218の2つを使う場合が例示されている。
【0127】
画像圧縮器217,218では、1種の画像圧縮データを生成するために、1つの画像圧縮情報が必要となる。
この画像圧縮情報は、リアルタイム制御処理部223にて入力される。
動画および静止画の画像圧縮情報は、次の通りである。
【0128】
[動画の画像圧縮情報]
動画の画像圧縮情報は、“圧縮フォーマット”、“圧縮画サイズ”、“圧縮ビットレート”、“圧縮フレームレート”、“圧縮時に使用する参照フレーム情報”、“圧縮モード(CBR/VBRなど)”を含む。
【0129】
[静止画の画像圧縮情報]
静止画の画像圧縮情報は、“圧縮フォーマット”、“圧縮画サイズ”、“品質”を含む。
【0130】
1フレームの圧縮データを生成する際には、リアルタイム制御処理部223の要求が行われる。その要求内容は次の通りである。
【0131】
[リアルタイム制御処理部からの要求内容]
リアルタイム制御処理部223からの要求内容は、“入力YUVデータ(変換器出力)のアドレス、サイズ”、“出力圧縮データのアドレス、サイズ”、“画像圧縮情報(動画の画像圧縮情報または静止画の画像圧縮情報)”を含む。
【0132】
画像圧縮器217,218は、メタデータに含まれる、注目領域を高画質に圧縮する機能も有する。
【0133】
図19(A)および(B)は、画像圧縮処理の要素イメージを示す図である。
図19(A)は、注目領域高画質の場合のイメージを示し、図19(B)は、合成画像の場合のイメージを示している。
画像圧縮器217は、図19(A),(B)に示すように、合成画像を動画として圧縮する場合に、動体部分に多くのビットを割り当て、不動体部分に最低限のビットを自動的に割り当てる高画質機能も有している。
【0134】
図20は、本第2の実施形態に係る画像圧縮器の処理フローを示す図である。
【0135】
たとえば画像圧縮器217は、圧縮処理が開始されると、メタデータにより注目領域の高画質画像の有無を判断する(ST121)。
ステップST121において、高画質画像が無いと判断すると、リアルタイム制御処理部223の要求内容、注目領域に従い画像を圧縮する(ST122)。
そして、ステップST121において、高画質画像が有ると判断後、またはステップST122の処理後、リアルタイム制御処理部223の要求内容、注目領域座標に従い画像を圧縮する(ST123)。
【0136】
初期設定として、リアルタイム制御処理部223には、アプリケーション制御処理部236から表1記載のクライアント要求を基に図21に示すような情報が通知される。
【0137】
図21は、本第2の実施形態に係るアプリケーション制御処理部から通知される画像処理情報の例を示す図である。
図21の画像処理情報は次の通りである。
【0138】
この画像処理情報は、“画像ID”、“出力先設定(表示装置/圧縮装置)”、“画像圧縮情報(出力先が表示装置以外の場合)”、“合成器動作設定(ON/OFF)”、“使用変換器数”、“圧縮ビットレート”、“圧縮フレームレート”を含む。
画像処理情報は、“変換器ID”、“出力画サイズ設定(Width×Height)”、“検出器動作設定(OFF/動体検知・不動体検知/顔検知)”、“検出枠表示設定(ON/OFF)”を含む。
画像処理情報は、“検出時刻表示設定(ON/OFF)”、“検出時刻表示開始座標設定(X、Y)”、“合成後画像配置座標(X,Y)”を含む。
これらの画像処理情報のうち、“変換器ID”以下“合成後画像配置座標(X,Y)”までの情報は、使用される変換器1つにつき通知される情報である。
【0139】
リアルタイム制御処理部223は、上記画像処理情報を基に図16の画像処理データフローに示すように、検出部213、変換器215、合成器216、圧縮器217,218または表示装置への初期設定を実行し、画像処理を開始する。
【0140】
図22は、本第2の実施形態に係るリアルタイム制御部における初期設定フローを示す図である。
【0141】
リアルタイム制御部210は、アプリケーション制御部230からの要求を受信すると、要求に対する動作可否判定を行う(ST131、ST132)。
可否判定の結果、実行不可能である場合は異常終了する。
リアルタイム制御部210は、可否反転の結果、実行可能である場合、検出部213の初期設定を行う(ST133)。
リアルタイム制御部210は、変換器215の初期設定を行う(ST134)。
使用変換器215の数分の初期設定が完了すると(ST135)、リアルタイム制御部210は、合成器216の動作をONするかOFFするかを選定する(ST136)。
リアルタイム制御部210は、合成器216をONする場合は、合成器216の初期設定を行う(ST137)。
合成器216をOFFする場合、または合成器216の初期設定後、リアルタイム制御部210は、出力先判定を行う(ST138)。
リアルタイム制御部210は、出力先が圧縮器の場合、圧縮器の初期設定を行い(ST139)、出力先が表示装置の場合、表示装置の初期設定を行う(ST140)。
以上の処理により正常終了し、画像処理が開始される。
【0142】
図22に記載の初期設定が正常終了すると画像処理情報に従って、変換器215および合成器216から画像が出力される。
【0143】
図23は、本第2の実施形態に係る画像処理情報の設定例と出力される画像イメージを示す図である。
【0144】
図23中の<1>〜<6>の画像は各変換器が出力する画像を示し、太枠で括られている画像は合成器が出力する画像を示している。
画像ID=1は、変換器215を2つ使用し、入力画像を縮小した画像に対して、顔検出した顔の部分を拡大し、PinPの形で合成する画像イメージである。
また、画像ID=2は、変換器を4つ使用し、顔検出、動体、不動体検出画像を拡大し、縮小し最終的に元画像と同じ画サイズで画面を4分割した形に合成する画像イメージである。
【0145】
画像処理開始後は、信号処理部212からYUVデータが画像データに出力されたタイミング、たとえば起動パラメータ情報の入力信号情報のフレームレート周期で図24に示すフローの処理を行う。
そして、以下の情報を基に、変換器215の設定を更新し、画像圧縮器および出力装置への入力画像を更新していく。
【0146】
図24は、本第2の実施形態に係るリアルタイム制御部における動作中の処理フローを示す図である。
【0147】
リアルタイム制御部210は、信号処理部212からYUVデータの出力が完了すると、検出状態解析処理を行う(ST141,ST142)。
検出状態に変化がある場合、リアルタイム制御部210は、変換器215の設定の更新を行い(ST143)、合成器216の設定の更新を行う。(ST144)
そして、リアルタイム制御部210は、検出状態に変化が無い場合、または合成器設定の更新後、画面操作の要求があるか否かを判断する(ST145)。
画面操作要求が有る場合、変換器215の設定の更新を行う(ST146)。
そして、リアルタイム制御部210は、画面操作要求が無い場合、または変換器設定の更新後、処理を終了する。
【0148】
図25は、本第2の実施形態において検出状態や画面操作要求の有無に応じて、変換器や合成器の設定更新後に出力される画像イメージを示す図である。
【0149】
[要求に対する動作可否判定]
図22に示す初期設定フローにおいて、アプリケーション制御処理部236からの要求に対する動作可否判定は、指示された要求がリアルタイム制御部210の上限性能内で動作可能であるかどうかを判定する。
リアルタイム制御部210の上限性能は、変換器×N、画像圧縮器の処理ピクセル(Pixel)量、および画像メモリ214のメモリ帯域で上限が決定し、システク構成により可変となるため、初期設定時に動的に判定を行う。
動的に動作可否判定を行うことにより、リアルタイム制御部210では任意の画枠サイズ、およびフレームレートの組み合わせを実現可能とし、装置全体の性能を有効に利用できる。
【0150】
[動作可否判定アルゴリズム]
図14に示す装置構成において、変換器×Nが画像メモリから読み出す画像のピクセル量をXn(n=1〜N)、変換器×Nが変換処理後に画像メモリに書き出す画像のピクセル量をYn(n=1〜N)とし、それぞれの性能上限をXmax,Ymaxとする。
同様に、画像圧縮器217,218が画像メモリ214から読み出す画像のピクセル量をP、性能上限をPmaxとする。画像メモリ214のメモリ帯域をZとする。
ここで、各処理のピクセル量は(画枠サイズ×フレームレート)で表される。
判定は、以下に示す判定式で全て満たされた場合に動作可能と判定する。
【0151】
[数1]
Xmax≧ΣXn(n=1〜N)
Ymax≧ΣYn(n=1〜N)
Pmax≧ΣYn(n=1〜N)
Z=(ΣXn+ΣYn×2)×α
ここで、αはシステムに接続される画像メモリの個数による係数を示す。
【0152】
動作可否判定は、あらかじめ定められた固定の画枠サイズ、フレームレートではなく、変換器215の処理ピクセル量、および画像メモリ214の帯域のみによって判定される。このため、アプリケーション制御処理部236からの要求がこれらの範囲内(性能上限)に収まる要求であれば、任意の組み合わせで動作可能である。
【0153】
[検出部とオーディオの連携例]
検出部213からの監視通知とオーディオ圧縮器221およびオーディオ入出力I/Fを222用いた音声のストリーミング配信を実用例として挙げられる。
さらに、オーディオ伸張器220およびオーディオ入出力I/F222を用いた本カメラ装置200からの音声出力を組み合わせることにより、様々な実用例が挙げられる。
【0154】
1.第1の実用例は、動体検知した場所により、自動で音量や音声パターンを変化させて、特定エリアとの距離を動体もしくは監視者に知らせる装置である。
【0155】
特定のエリアに対して、そのエリアまでの距離に応じて、複数の{監視対象}を{動体検知}として設定する。
また、アプリケーション制御部230に、{監視通知}を受けて、音声ストリーミング配信するアプリケーションもしくは音声を本カメラ装置200から出力するアプリケーションが起動するように設定する。
また、起動するアプリケーションは、{監視対象}毎に異なる音量や音声パターンを設定できるものとする。
それにより、たとえば特定エリアに近い{監視対象}に対して、徐々に音量を大きくするように設定することにより、動体が特エリアに近づいた場合、その動体もしくは監視者に対して、その接近度合いを自動的に通知することが可能となる。
【0156】
図26は、本第2の実施形態におけるアプリケーションの設定処理を説明するためのフローチャートを示す図である。
図27は、本第2の実施形態におけるアプリケーションの実行処理を説明するためのフローチャートを示す図である。
【0157】
音声応答アプリケーションの設定は次のように行われる(図26)。
クライアントから監視の要求を受け付ける(ST151)。
受け付ける要求は、たとえば、監視対象を特定する値である“分割画面ID”、監視対象を示すサイズである“画像サイズ”、監視対象を示す座標である“画像配置座標”、{監視対象}として“動体検知”、“音声通知ON”が含まれる。
次に、リアルタイム制御部210が検出器215の設定を行う(ST152)。
次に、音声通知がONであるかOFFであるかを判断する(ST153)。
音声通知がOFFである場合は、起動せず処理を終了する。
音声通知がONである場合、アプリケーション制御部236が音声応答アプリケーションを起動する(ST154)。
次に、クライアントから音声応答の要求を受け付けて、音声コーデックの設定情報を得る(ST155)。
以下、分割画面ID毎に情報を受け付ける。
その情報には監視者への音声出力の有無、動作への音声出力の有無、アプリケーション制御部に格納されている音声パターン、音量が含まれる。
要求された情報を転送する。
そして、音声応答アプリケーションをスリープさせる(ST156)。
【0158】
音声応答アプリケーションの実行は次のように行われる(図27)。
アプリケーション制御部236は、リアルタイム制御部210からの動体検知通知を受けると(ST161)、音声応答アプリケーションを起床する(ST162)。
次に、分割画面IDを取得し(ST163)、有効なIDであるか否かを判断する(ST164)。
有効なIDである場合、分割画面IDに応じた情報の読み出しを行う(ST165)。
次に、監視者向けの音声出力であるか否かを判断する(ST166)。
監視者向けの音声出力である場合、アプリケーション制御部236に格納されている音声パターンを読み出し、ネットワークI/F231を経由して、クライアントへ音声ストリーミング配信を行う(ST167)。
次に、動体向け音声出力であるか否かを判断する(ST168)。
動体向け音声出力である場合、リアルタイム制御部210がオーディオ入出力I/F222に音量を設定する(ST169)。
次に、アプリケーション制御部230に格納されている音声パターンを読み出し、リアルタイム制御部210の音声メモリにコピーする(ST170)。
次に、リアルタイム制御部210が、オーディオ圧縮器221にて指定されたコーデックで音声をエンコードする(ST171)。
次に、出力終了であるか否かを判断する(ST172)。
出力終了まで、ステップST170〜ST172の処理を繰り返し、出力終了である場合、あるいはステップST164で有効なIDでないと判断した場合に、音声応答アプリケーションをスリープさせる(ST173)。
【0159】
2.第2の実用例は、顔検知と連動し、特定の人物にメッセージを知らせる装置である。
【0160】
事前に登録された顔情報を基に、{監視情報}を{顔検知}として設定する。
また、アプリケーション制御部230に、{監視対象}を受けて、音声をストリーミング配信するアプリケーション、および音声を本カメラ装置200から出力するアプリケーションが起動するように設定する。
それにより、たとえばある特定の動体が{監視対象}に入り、{顔検知}が行われると、自動的に動体と監視者の双方向における通話が可能となる。
【0161】
3.第3の実用例は、動体検知した場所により、特定エリアに誘導する音声を出力する装置である。
【0162】
複数の{監視対象}(たとえば出入り口など)を{動体検知}として設定する。
また、アプリケーション制御部230に、{監視通知}を受けて、音声をストリーミング配信するアプリケーションが起動するように設定する。
また、起動するアプリケーションは、{監視対象}毎に、異なる音声パターンを設定するものとする。
それにより、たとえば出入り口毎にそのエリアから特定のエリアにいくための手段を音声として設定することにより、動体に対して特定のエリアに自動的に誘導可能となる。
【0163】
4.第4の実用例は、動体に検知により、動体と監視者の通話が可能となる装置である。
【0164】
特定エリアに対して、{監視対象}を{動体検知}として設定する。
また、アプリケーション制御部230に、{監視通知}を受けて、音声をストリーミング配信するアプリケーション、および音声を本カメラ装置300から出力するアプリケーションが起動するように設定する。
それにより、たとえば動体が特定のエリアに入ると、{動体検知}が行われ、自動的に動体と監視者の双方向における通話が可能となる。
【0165】
以上説明したように、本第2の実施形態によれば、以下の効果を得ることができる。
本カメラ装置200における入力画像に対して、複数のクライアントからの要求、たとえば検出処理、拡大/縮小の画面操作に応えることができる。
本カメラ装置200は、ストリーミング配信が可能なことから、クライアント側はリアルタイムな監視が可能である。
動体検出、不動体検出といった異なる対象の同時検出処理が可能なことから、クライアント側は効率的な監視が可能である。
本カメラ装置200は検出した対象の情報を付加した画像を送信することが可能であることから、クライアント側は監視を行いやすい。
ストリーミング配信を動的にON/OFFできるので、クライアントの受信情報量を軽減することができる。
通常の監視システムも容易に構築することが可能である。
変換器、合成器を追加すれば、生成できる画像を増やすことができ、多くのクライアントに対応できる。
動体検出や顔検出と音声に関するアプリケーションを連携させることにより、クライアントによる操作を介さずに、動体および監視者に、動体の状況を通知することが可能となる。
また、第2の実施形態によれば、このようなエンコード処理の遅延が発生したとしても、エンコード順序がローテーションするため、同一のインスタンスがスキップされるという事態を回避することができる。このため、映像の劣化が低減される。特に、各インスタンスのフレームレートが同一の場合には、顕著な効果を得ることができる。
【0166】
以上詳細に説明した画像処理方法は、上記手順に応じたプログラムとして形成し、CPU等を有するコンピュータで実行するように構成することも可能である。
このようなプログラムは、半導体メモリ、磁気ディスク、光ディスク、フロッピー(登録商標)ディスク等の記録媒体、この記録媒体をセットしたコンピュータによりアクセスし、上記プログラムを実行するように構成可能である。
【符号の説明】
【0167】
1・・・監視画像処理システム、10・・・監視装置、11・・・撮像部(CAM)、12・・・前処理部(FPRO)、13・・・画像メモリ(PICS)、14・・・検出部(DET)、15・・・生成部(GEN)、15(1)〜15(N)・・・変換器、16・・・合成部(COMP)、17・・・制御処理部(CNTL)、18・・・制御メモリ(CNTS)、141・・・動体検出器(MODET)、142・・・不動体(静止物)検出器(SODET)、143・・・顔検出器(FDET)、20・・・表示装置、30・・・ネットワーク、100・・・画像処理システム、200・・・カメラ装置、210・・・リアルタイム制御部、211・・・センサ制御部、212・・・信号処理部、213・・・検出部、214・・・画像メモリ、215・・・変換器(N個)、216・・・合成器(N個)、217,218・・・画像圧縮器、219・・・表示インタフェース(I/F)、220・・・オーディオ伸張器、221・・・オーディオ圧縮器、222・・・オーディオ入出力I/F、223・・・リアルタイム制御処理部、230・・・アプリケーション制御部、231・・・ネットワークI/F、232・・・ストレージI/F、233・・・要求受付器、234・・・内部フラッシュメモリ、235・・・外部記録媒体、236・・・アプリケーション制御処理部、240・・・制御メモリ、250・・・RTC、300・・・通信機(受信機、クライアント)、400・・・ネットワーク。

【特許請求の範囲】
【請求項1】
一の入力画像から複数の対象を種類別に検出する検出部と、
上記検出部によって検出された上記対象毎の画像データを上記対象の種類別に、それぞれ異なる画枠の画像として生成する生成部と、
上記生成部で生成された異なる画枠の画像に対して設定または要求に応じた処理を行う処理部と
を有する画像処理装置。
【請求項2】
上記生成部は、
上記複数の異なる画枠の画像に対して独立のOSD(前景画像)を合成し出力する機能を有する
請求項1記載の画像処理装置。
【請求項3】
上記生成部は、
上記複数の異なる画枠の画像に対して独立して電子ズーム、パン/チルト制御可能な機能を有する
請求項1または2記載の画像処理装置。
【請求項4】
上記処理部は、
上記生成部で生成された上記複数の異なる画枠の画像のうち、少なくとも一部の画像を合成して出力する機能を有する
請求項1から3のいずれか一に記載の画像処理装置。
【請求項5】
上記検出部は、
動体検出、不動体検出、顔検出のうちの少なくとも2つの検出処理機能を有する
請求項1から4のいずれか一に記載の画像処理装置。
【請求項6】
上記生成部は、
上記検出部の検出処理に応じてそれぞれ異なる画枠の画像を生成する
請求項1から5記載のいずれか一に画像処理装置
【請求項7】
上記生成部は、
検出処理が行われた画像に対してOSD(前景画像)を合成し、検出情報を当該画像に付加する機能を有する
請求項6記載の画像処理装置。
【請求項8】
上記処理部は、
生成した複数の画像を異なる通信機に対してストリーミング配信する機能を有する
請求項1から7のいずれか一に記載の画像処理装置。
【請求項9】
上記処理部は、
ストリーミング配信における画像を保存する機能を有する
請求項8記載の画像処理装置。
【請求項10】
上記検出部は、
上記不動体を検出する機能を有し、不動体を検出した時点からの時間を検出し、
上記生成部は、
検出された上記不動体の画像データに時間データを付加する
請求項1から9のいずれか一に記載の画像処理装置。
【請求項11】
オーディオ処理系を有し、
上記検出部は、
上記動体を検知する機能を有し、
上記処理部は、
上記オーディオ処理系を駆動して、上記動体検知した場所により応答音を変化させて、特定エリアとの距離を報知する機能を有する
請求項1から10のいずれか一に記載の画像処理装置。
【請求項12】
上記処理部は、
上記オーディオ処理系を駆動して、上記動体検知した場所により特定エリアへ誘導する音声を出力する機能を含む
請求項11記載の画像処理装置。
【請求項13】
オーディオ処理系を有し、
上記検出部は、
上記顔を検知する機能を有し、
上記処理部は、
上記オーディオ処理系を駆動して、上記顔検知した情報により音声をストリーミング配信する機能、および音声を他の通信機に出力する機能を有する
請求項1から10のいずれか一に記載の画像処理装置。
【請求項14】
ネットワークと、
上記ネットワークを通した通信が可能な画像処理装置と、
上記画像処理装置と上記ネットワークを介して通信可能な少なくとも一つの通信機と、を、有し、
上記画像処理装置は、
一の入力画像から複数の対象を種類別に検出する検出部と、
上記検出部によって検出された上記対象毎の画像データを上記対象の種類別に、それぞれ異なる画枠の画像として生成する生成部と、
上記生成部で生成された異なる画枠の画像に対して設定または要求に応じた処理を行って、上記ネットワークに出力可能な処理部と
を有する画像処理システム。
【請求項15】
撮像した画像データを得る撮像部と、
上記撮像部による画像データに対して画像処理を行う画像処理装置と、を有し、
上記画像処理装置は、
一の入力画像から複数の対象を種類別に検出する検出部と、
上記検出部によって検出された上記対象毎の画像データを上記対象の種類別に、それぞれ異なる画枠の画像として生成する生成部と、
上記生成部で生成された異なる画枠の画像に対して設定または要求に応じた処理を行う処理部と、を含む
カメラ装置。
【請求項16】
一の入力画像から複数の対象を種類別に検出する検出ステップと、
上記検出ステップによって検出された上記対象毎の画像データを上記対象の種類別に、それぞれ異なる画枠の画像として生成する生成ステップと、
上記生成ステップで生成された異なる画枠の画像に対して設定または要求に応じた処理を行う処理ステップと
を有する画像処理方法。
【請求項17】
一の入力画像から複数の対象を種類別に検出する検出手順と、
上記検出ステップによって検出された上記対象毎の画像データを上記対象の種類別に、それぞれ異なる画枠の画像として生成する生成手順と、
上記生成ステップで生成された異なる画枠の画像に対して設定または要求に応じた処理を行う処理手順と
を有する画像処理をコンピュータに実行させるプログラム。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate

【図9】
image rotate

【図10】
image rotate

【図11】
image rotate

【図12】
image rotate

【図13】
image rotate

【図14】
image rotate

【図15】
image rotate

【図16】
image rotate

【図17】
image rotate

【図18】
image rotate

【図19】
image rotate

【図20】
image rotate

【図21】
image rotate

【図22】
image rotate

【図23】
image rotate

【図24】
image rotate

【図25】
image rotate

【図26】
image rotate

【図27】
image rotate